Fisest
Fisest
Fı́sica Estadı́stica
David Tong
Department of Applied Mathematics and Theoretical Physics,
Centre for Mathematical Sciences
Wilberforce Road,
Cambridge, CB3 OBA, UK
[Link]
[Link]@[Link]
–1–
Libros y Recursos Recomendados
Una descripción completa y detallada del tema. Es sólido. Es bueno. No tiene nada
de peculiar.
Una visión moderna en la materia que ofrece muchas perspectivas. Está magnı́ficamente
bien escrito, aunque algo breve en algunas partes. Un volumen complementario, “The
Statistical Physics of Fields” cubre muchos aspectos sobre fenómenos crı́ticos. Ambos
están disponibles para su descarga como notas de clase. Los enlaces se pueden encontrar
en la página web del curso.
Al estilo ruso: brusco, enciclopédico, magnı́fico. Gran parte de este libro se considera
notablemente moderno dado que fue publicado por primera vez en 1958.
Este es un libro sencillo con explicaciones muy claras, pero no abarca tanto detalle
como el que será necesario para este curso. Si estás batallando para entender lo básico,
este es un excelente lugar para buscar. Si estás buscando una descripción detallada
de aspectos más avanzados, probablemente deberı́as buscar en alguno de los libros
mencionados arriba.
Este hermoso librito nos guı́a a través de la sutil lógica de la termodinámica clásica.
Está muy bien logrado. Si Arnold Sommerfeld hubiera leı́do este libro, habrı́a entendido
la termodinámica la primera vez.
Hay muchos otros libros excelentes en la materia, a menudo con diferente énfasis.
Recomiendo “States of Matter ” por David Goodstein que cubre vario temas más allá
del enfoque de este curso pero ofrece muchas perspectivas. Para una descripción en-
tretenida pero técnica de la termodinámica, que yace en algún lugar entre un libro de
texto y ciencia popular, leer “The Four Laws” por Peter Atkins.
–2–
Contenidos
1. Los Fundamentos de la Mecánica Estadı́stica 1
1.1 Introducción 1
1.2 La Colectividad Microcanónica 2
1.2.1 Entropı́a y la Segunda Ley de la Termodinámica 5
1.2.2 Temperatura 8
1.2.3 Un Ejemplo: El Sistema con Dos Estados 11
1.2.4 Presión, Volumen y la Primera Ley de la Termodinámica 14
1.2.5 Ludwig Boltzmann (1844-1906) 17
1.3 La Colectividad Canónica 18
1.3.1 La Función de Partición 19
1.3.2 Energı́a y Fluctuaciones 21
1.3.3 Entropı́a 23
1.3.4 Energı́a Libre 26
1.4 El Potencial Quı́mico 27
1.4.1 La Colectividad Macrocanónica 29
1.4.2 Potencial Macrocanónico 30
1.4.3 Cantidades Extensivas e Intensivas 30
1.4.4 Josiah Willard Gibbs (1839-1903) 32
2. Gases Clásicos 33
2.1 La Función de Partición Clásica 33
2.1.1 De lo Cuántico a lo Clásico 34
2.2 Gas Ideal 36
2.2.1 Equipartición de la Energı́a 38
2.2.2 El Significado Sociológico de la Constante de Boltzmann 39
2.2.3 Entropı́a y la Paradoja de Gibbs 40
2.2.4 El Gas Ideal en la Colectividad Macrocanónica 41
2.3 Distribución de Maxwell 43
2.3.1 La Historia de la Teorı́a Cinética 45
2.4 Gas Diatómico 47
2.5 Gas con Interacciones 50
2.5.1 La función f de Mayer y el Segundo Coeficiente Virial 52
2.5.2 Ecuación de Estado de van der Waals 54
2.5.3 La Expansión del Clúster 57
2.6 Apantallamiento y el Modelo de Plasma de Debye-Hückel 62
3. Gases Cuánticos 64
3.1 Densidad de Estados 64
3.1.1 Sistemas Relativistas 66
3.2 Fotones: Radiación de Cuerpo Negro 66
3.2.1 Distribución de Planck 68
3.2.2 Radiación del Fondo Cósmico de Microondas 71
3.2.3 El Nacimiento de la Mecánica Cuántica 71
3.2.4 Max Planck (1858-1947) 72
3.3 Fonones 73
3.3.1 El Modelo de Debye 73
3.4 El Gas Diatómico Revisado 78
3.5 Bosones 79
3.5.1 Distribución de Bose-Einstein 80
3.5.2 Un Gas Cuántico a Altas Temperaturas es (casi) Clásico 83
3.5.3 Condensado de Bose-Einstein 85
3.5.4 Capacidad Calorı́fica: Un Primer Vistazo a las Transiciones de
Fase 90
3.6 Fermiones 93
3.6.1 Gas de Fermi Ideal 94
3.6.2 Gas Degenerado de Fermi y la Superficie de Fermi 95
3.6.3 El Gas de Fermi a Bajas Temperaturas 97
3.6.4 Un Tratamiento Más Riguroso: La Expansión de Sommerfeld 101
3.6.5 Enanas Blancas y el Lı́mite de Chandrasekhar 104
3.6.6 Paramagnetismo de Pauli 106
3.6.7 Diamagnetismo de Landau 108
–1–
4.4.1 Entalpı́a 136
4.4.2 Relaciones de Maxwell 136
4.5 La Tercera Ley 137
–2–
Agradecimientos
Estas Notas de clase están lejos de ser originales. Se basan en gran medida en los
libros descritos arriba y en los recursos en lı́nea listados en la página web del curso.
Me beneficié mucho de las notas de clase de Mehran Kardar y de Chetan Nayak. Este
curso está construido sobre los fundamentos de cursos previos impartidos en Cambridge
por Ron Horgan y Matt Wingate. También estoy agradecido con Ray Goldstein por
su ayuda en desarrollar el presente syllabus. Estoy respaldado por la Royal Society y
Alex Considine.
–3–
1. Los Fundamentos de la Mecánica Estadı́stica
1.1 Introducción
La mecánica Estadı́stica es el arte de transformar las leyes microscópicas de la fı́sica en
una descripción de la naturaleza a un nivel macroscópico.
Veremos muchos ejemplos. Durante siglos — desde 1600 hasta 1900 — los cientı́ficos
descubrı́an las “leyes de la fı́sica” que gobiernan a distintas sustancias. Hay cientos de
estas leyes, la mayorı́a con el nombre de sus descubridores. La ley de Boyle y la ley de
Charles relacionan la presión, el volumen y la temperatura de los gases (usualmente se
combinan en la ley del gas ideal); la ley de Stefan-Boltzmann nos dice cuánta energı́a
emite un objeto caliente; el desplazamiento de Wien nos dice el color de tal objeto;
la ley de Dulong-Petit nos dice cuánta energı́a es necesaria para calentar un bulto de
cosas; la ley de Curie nos dice cómo es que un magneto pierde su magia al ponerlo sobre
el fuego; etc. Sin embargo, sabemos que estas leyes no son fundamentales. En algunos
casos simplemente provienen de la mecánica Newtoniana y una dosis de pensamiento
–1–
estadı́stico. En otros casos también necesitamos tomar en cuenta la mecánica cuántica.
Pero en todo caso, veremos como derivarlas de los principios básicos.
Gran parte de este curso estará dedicado a entender los fenómenos interesantes que
suceden cuando se ponen 1023 partı́culas juntas. Un tema recurrente será que 1023 ̸= 1.
Lo que es más, hay conceptos clave que no son visibles en las leyes subyacentes de
la fı́sica, sino que emergen únicamente cuando consideramos una gran colección de
partı́culas. Un ejemplo muy sencillo es la temperatura. Este no es un concepto funda-
mental: no tiene sentido hablar de la temperatura de un electrón. Pero serı́a imposible
hablar sobre fı́sica de lo cotidiano sin hacer mención de la temperatura. Esto ilustra
el hecho de que el lenguaje necesario para describir la fı́sica en cierta escala es muy
diferente de la que se necesita en otra. Veremos varias cantidades emergentes similares
en este curso, incluyendo el fenómeno de las transiciones de fase, donde las suaves y
continuas leyes de la fı́sica conspiran para producir cambios bruscos y discontinuos en
la estructura de la materia.
–2–
En sus primeros dos cursos de mecánica cuántica, solo revisó sistemas con pocos
grados de libertad. Estos se definen por medio de un hamiltoniano Ĥ, y la meta es
usualmente resolver la ecuación de Schrödinger independiente del tiempo
Ĥ|ψ⟩ = E|ψ⟩
En este curso, también veremos sistemas definido por un hamiltoniano, pero ahora con
un número elevado de grados de libertad, digamos N ∼ 1023 . Los eigenestados de la
energı́a |ψ⟩ son objetos muy complicados ya que contienen información sobre lo que
cada partı́cula está haciendo. Se llaman microestados.
–3–
Primeramente, pondremos una gran restricción sobre las situaciones con las que
podemos tratar. Discutiremos únicamente sistemas que se han dejado en paz por un
tiempo. Esto garantiza que la energı́a y el momento del sistema se ha redistribuido
entre las muchas partı́culas del sistema, y que se ha perdido cualquier memoria sobre las
condiciones iniciales en las que éste empezó. En términos de operaciones, esto significa
que la distribución de probabilidad es independiente del tiempo, lo que asegura que
los valores esperados de las observables macroscópicas también lo son. En este caso,
decimos que el sistema se encuentra en equilibrio. Nótese que solo porque el sistema se
encuentre en equilibrio no significa que todos los componentes del sistema se han dejado
de mover; un vaso de agua que se ha dejado solo un tiempo alcanzará el equilibrio, pero
los átomos en su interior aún están moviéndose.
Ahora nos encontramos en una posición adecuada para plantear la suposición fun-
damental de la mecánica estadı́stica. Es la idea de que deberı́amos adoptar el enfoque
más simple posible y tratar a todos los estados por igual. De forma más precisa:
Dado que no sabemos nada más sobre el sistema, tal enfoque democrático parece
razonable. Notemos que nos hemos dejado espacio para algo de flexibilidad con la
inclusión de la palabra “accesibles”. Esto se refiere a cualquier estado que pueda
ser alcanzado por medio de pequeñas perturbaciones en el sistema. Por el momento,
tomaremos por significado que todos los estados tienen la misma energı́a E. Después,
veremos contextos en los que añadimos más restricciones sobre lo que significa que un
estado se accesible.
1
p(n) = (1.1)
Ω(E)
–4–
• Ω(E) es usualmente un número ridı́culamente grande. Por ejemplo, supongamos
que tenemos N ∼ 1023 partı́culas, cada una de las cuales solo puede estar en uno
de dos estados cuánticos — digamos “espı́n arriba” y “espı́n abajo”. Entonces
23
el número total de microestados del sistema es 210 . Esta es una tonterı́a de
número. En cierto sentido, ¡números tan grandes jamás podrán tener significado
fı́sico alguno! Solo aparecen en problemas sobre combinatoria, contando posibles
eventualidades. Jamás serán respuesta a problemas que requieren contar objetos
fı́sicos existentes. Una forma, algo graciosa, de decir esto es que números tan
grande no pueden tener significado fı́sico alguno pues serán lo mismo sin impor-
23
tar las unidades que tengan (si no me cree, piense en 210 como una escala de
distancia: es efectivamente la misma distancia independientemente de si se mide
en micrones o años luz. ¡Inténtelo!).
• En sistemas cuánticos, los niveles de energı́a serán discretos. Sin embargo, con
tantas partı́culas, los niveles de energı́a se encontrarán finamente espaciados y
pueden ser tratados como continuos. Cuando decimos que Ω(E) cuenta el número
de estados con energı́a E, implı́citamente estamos diciendo que cuenta el número
de estados con energı́a entre E y E + δE, donde δE es pequeño comparado con la
precisión de nuestro aparato de medición, pero grande comparado con el espaciado
de los niveles.
El log en (1.2) es el logaritmo natural (base e, no base 10). ¿Por qué se toma el logaritmo
en la definición? Una razón es que hace los números menos ridı́culos. Mientras que el
número de estados es del orden de Ω ∼ eN , la entropı́a es meramente proporcional al
número de partı́culas en el sistema, S ∼ N . Esto tiene la agradable consecuencia de
–5–
que la entropı́a es una cantidad aditiva. Para ver lo anterior, consideremos dos sistemas
que no interactúan con energı́as E1 y E2 , respectivamente. Entonces el número total
de estados de ambos sistemas es
Ω(E1 , E2 ) = Ω1 (E1 )Ω(E2 )
mientras que la entropı́a del sistema es
S(E1 , E2 ) = S1 (E1 ) + S2 (E2 )
La Segunda Ley
Supongamos que tomamos los dos sistemas que no interactúan mencionados arriba y
los ponemos juntos. Asumiremos que pueden intercambiar energı́a, pero que los niveles
de energı́a de cada sistema individual se mantienen sin cambios (¡Estas son, en realidad,
suposiciones contradictorias! Si los sistemas pueden intercambiar energı́a entonces debe
de haber un término de interacción en su hamiltoniano. Pero tal término cambiarı́a
los niveles de energı́a de cada sistema. Ası́ que a lo que realmente nos referimos es que
estos cambios de energı́a son ignorables, y el único efecto relevante es la interacción que
permite que la energı́a se mueva entre los sistemas).
–6–
En este punto, recurrimos de nuevo a nuestra suposición fundamental — todos los
estados son igualmente probables — pero ahora aplicada al sistema combinado. Este
tiene energı́a fija Etotal ası́ que se puede pensar como si estuviera en el colectivo micro-
canónico con la distribución (1.1), lo cual significa que el sistema tiene probabilidad
p = 1/Ω(Etotal ) de encontrarse en cada estado. Claramente, la entropı́a del sistema
combinado es mayor o igual que aquella del sistema original,
lo cual es verdad por el simple hecho de que los estados de los dos sistemas originales
son un subconjunto del número total de estados posibles.
Mientras (1.5) es verdad para cualesquiera dos sistemas, hay una aproximación útil
que podemos realizar para determinar S(Etotal ) que se mantiene cuando el número
de partı́culas en juego N es muy grande. Ya hemos visto que la entropı́a incrementa
con S ∼ N . Esto significa que la ecuación (1.4) es una suma de exponenciales de N ,
lo que es en sı́ un número exponencialmente grande. Tales sumas están totalmente
dominadas por su valor máximo. Por ejemplo, suponga que para alguna energı́a E⋆ el
exponente tiene un valor que es el doble de cualquier otro E. Entonces este término en
la suma es mayor que todos los otros estados por un factor de eN . Y ese es un número
muy grande. Todos los términos excepto el máximo son completamente ignorables (el
argumento equivalente para integrales es que pueden ser evaluadas con el método del
punto silla). En nuestro caso, el valor máximo E = E⋆ ocurre cuando
Cabe recalcar que no hay una razón a priori por la cual el primer sistema deba de tener
una energı́a fija una vez está en contacto con el segundo sistema. Pero el gran número
de partı́culas involucradas implica que es increı́blemente probable que lo encontremos
con la energı́a E⋆ , lo cual maximiza el número de estados del sistema combinado. Por
el otro lado, una vez en este mayor conjunto de estados, es altamente improbable que
el sistema sea encontrado de regreso en un estado con energı́a E1 o, en efecto, cualquier
otra energı́a diferente de E⋆ .
–7–
Es esta simple declaración la que es re-
sponsable por la reversibilidad que vemos en el
mundo que nos rodea. Esta es la segunda ley de
la termodinámica. Como lema, “la entropı́a au-
menta”. Cuando dos sistemas se ponen juntos —
o de forma equivalente, cuando las restricciones
en un sistema son removidas — el número total
de estados disponibles es ampliado enormemente.
1.2.2 Temperatura
A continuación pasamos a una cantidad muy familiar, aunque vista de una forma no
familiar. La temperatura T de un sistema se define como
1 ∂S
= (1.7)
T ∂E
Esta ecuación es extraordinaria. La hemos presentado como la definición de temper-
atura. Pero ¿Por qué es una buena definición? ¿Por qué coincide con la idea de
temperatura que tienen nuestras madres? ¿Por qué esta T coincide con aquella que
hace que suba el mercurio? (el elemento, no el planeta... ese es un curso distinto.)
–8–
¿Por qué esta T coincide con aquella nos hace gritar cuando ponemos la mano en una
estufa caliente?
Es simple ver que esto es una consecuencia directa de la definición (1.7). Ya hemos
hecho el trabajo duro anteriormente, donde vimos que dos sistemas, puestos en contacto
de esta manera, maximizan su entropı́a. Esto se consigue cuando el primer sistema
tiene energı́a E⋆ , y la segunda energı́a Etotal − E⋆ , con E⋆ determinada por la ecuación
(1.6). Si queremos que nada destacable suceda cuando los sistemas se ponen juntos,
entonces debe haber sido el caso de que la energı́a del primer sistema ya se encontraba
en E1 = E⋆ . O, en otras palabras, la ecuación (1.6) se obedece antes de que los sistemas
entren en contacto,
∂S1 (E1 ) ∂S2 (E2 )
= (1.8)
∂E ∂E
De nuestra definición (1.7), esto es lo mismo que requerir que las temperaturas iniciales
de los sistemas sean iguales: T1 = T2 .
–9–
En resumen: el argumento de equilibrio nos dice que ∂S/∂e se deberı́a interpretar
como alguna función de la temperatura; el argumento del flujo del calor nos dice que
debe de ser una función monótonamente decreciente. Pero ¿Por qué 1/T y no, digamos,
1/T 2 ? Para ver esto, realmente necesitamos calcular T para un sistema con el que
estemos familiarizados y ver si se obtiene la respuesta correcta. Una vez que tengamos
la respuesta correcta para un sistema, el argumento de equilibrio garantiza que esta es
correcta para todos los sistemas. Nuestra primera tarea en la Sección 2 será calcular
la temperatura T para un gas ideal y confirmar que (1.7) es, en efecto, la definición
correcta.
Capacidad Calorı́fica
La capacidad calorı́fica C se define por medio de
∂E
C= (1.9)
∂T
Después presentaremos versiones más refinadas de la capacidad calorı́fica (en las cuales
varias cantidades externas, aún no especificadas, se mantienen constantes o se permite
que varı́en y somos más cuidadosos con el modo de transferencia de energı́a al sistema).
La importancia de la capacidad calorı́fica es que ¡está definida en términos de cantidades
que realmente podemos medir! A pesar de que el concepto teórico clave es la entropı́a, si
a uno le dan un sistema experimental con 1023 partı́culas, no se puede medir la entropı́a
directamente contando todos los microestados accesibles. Estarı́amos ahı́ todo el dı́a.
Pero uno puede medir la capacidad calorı́fica: se agrega una cantidad conocida de
energı́a al sistema y se mide el incremento en la temperatura. El resultado serı́a C −1 .
Hay otra expresión para la capacidad calorı́fica que es de utilidad. la entropı́a es una
función de la energı́a S = S(E). Pero podrı́amos invertir la ecuación (1.7) para pensar
en la energı́a como una función de la temperatura E = E(T ). Entonces se tiene la
expresión
∂S ∂S ∂E C
= · =
∂T ∂E ∂T T
Esta es una ecuación muy práctica. Si podemos medir la capacidad calorı́fica del
sistema para varias temperaturas, podemos manejar la función C(T ). De aquı́, podemos
determinar la entropı́a del sistema. O, más precisamente, la diferencia en la entropı́a
Z T2
C(T )
∆S = dT (1.10)
T1 T
Entonces la capacidad calorı́fica es nuestra relación más cercana entre los experimentos
y la teorı́a.
– 10 –
La capacidad calorı́fica siempre es proporcional a N , el número de partı́culas en
el sistema. Es común definir el capacidad calorı́fica especı́fica, que es simplemente la
capacidad calorı́fica dividida por la masa del sistema y es independiente de N .
Hay un último punto que debemos hacer sobre la capacidad calorı́fica. Si derivamos
la ecuación (1.7) una vez más, obtenemos
∂ 2S 1
2
=− 2 (1.11)
∂E T C
Casi todos los sistemas que uno se encuentra tienen C > 0 (hay una importante ex-
cepción: ¡un agujero negro tiene una capacidad calorı́fica negativa!). Siempre que
C > 0, el sistema se dice ser termodinámicamente estable. La razón de este lenguaje
se remonta a nuestra discusión previa sobre dos sistemas que pueden intercambiar en-
ergı́a. En ese entonces, quisimos maximizar la entropı́a y verificamos que tenı́amos un
punto estacionario (1.6), pero nos olvidamos de verificar si este era un máximo o un
mı́nimo. Se garantiza que sea un máximo si la capacidad calorı́fica de ambos sistemas
es positiva, de modo que ∂ 2 S/∂E 2 < [Link] nos olvidamos de verificar si este era un
máximo o un mı́nimo. Se garantiza que sea un máximo si la capacidad calorı́fica de
ambos sistemas es positiva, de modo que ∂ 2 S/∂E 2 < 0.
– 11 –
A parte: La Fórmula de Stirling
Para N grande, hay una expresión notablemente precisa a los factoriales que aparecen
en la expresión para la entropı́a. Se conoce como la fórmula de Stirling,
log N ! = N log N − N + 12 log 2πN + O(1/N )
Demostrará esto en el primer problemario. Sin em- log(p)
bargo, para nuestros propósitos solo necesitamos los
primeros dos términos de esta expansión y estos se
pueden obtener rápidamente al ver la expresión
N
X Z N
log N ! = log p ≈ dp log p = N log N − N + 1 p
p=1 1 1 2 3 4 N
De Regreso a la Fı́sica
Utilizando la aproximación de Stirling, podemos escribir la entropı́a como
S(E) = kB [N log N − N − N↑ log N↑ + N↑ − (N − N↑ ) log(N − N↑ ) + (N − N↑ )]
N − N↑ N↑
= −kB (N − N↑ ) log + N↑ log
N N
E E E E
= −kB N 1− log 1 − + log (1.12)
Nϵ Nϵ Nϵ Nϵ
Un esbozo de S(E) graficado contra E se muestra en la Figura 3. La entropı́a se
desvanece cuando E = 0 (todos los espines abajo) y E = N ϵ (todos los espines arriba)
porque solo hay un posible estado con cada una de estas energı́as. La entropı́a es
máxima cuando E = N ϵ/2, donde se tiene S = N kB log 2.
– 12 –
Notemos que conforme T → ∞, la razón de espines S(E)
N ↑ /N → 1/2. En el lı́mite de temperatura infinita, el
sistema se encuentra en el pico de la curva en la Figura
3.
dE N ϵ2 eϵ/kB T
C= = (1.14)
dT kB T 2 (eϵ/kB T + 1)2
– 13 –
xn ). La razón de esta rápida caı́da se remonta a la existencia de una brecha de en-
ergı́a, lo que significa que el primero estado excitado se encuentra una energı́a finita
por encima del estado base. La capacidad calorı́fica también cae conforme T → ∞,
pero a un paso mucho más lento. Esta caı́da se debe al hecho de que ahora todos los
estados están ocupados.
El sistema de dos estados también puede usarse como modelo para los defectos en
una red. En este caso, el estado “espı́n abajo” corresponde a un átomo en la red donde
no deberı́a de haber un costo de energı́a. El estado “espı́n arriba” ahora corresponde a
un átomo faltante, eyectado de su posición a un costo de energı́a de ϵ.
– 14 –
Usaremos la misma notación para el número de estados y para la entropı́a del sistema,
pero ahora estas cantidades serán funciones de la energı́a y del volumen,
La temperatura, nuevamente, está dada por 1/T = ∂S/∂E, donde la derivada parcial
implica que se mantiene V constante al derivar. Pero ahora hay una nueva cantidad que
de forma natural podemos considerar — la derivada con respecto de V . Esto también
da una cantidad con la que estamos familiarizados — la presión p. Bueno, casi. La
definición es
∂S
p=T (1.15)
∂V
Para ver que esta es una definición sensata, podemos re-
utilizar loso argumentos de la Sección 1.2.2. Imagine dos
System 1 System 2
sistemas en contacto a través de una pared movible como
se muestra en la figura, pero el sistema 1 puede expandirse
a expensas de que el sistema 2 se encoja. Los mismos argu-
mentos de equilibrio que previamente llevaron a (1.8) ahora
nos dicen que los volúmenes de los sistemas no cambian
Figura 6:
siempre y cuando ∂S/∂V sea igual para ambos sistemas. En
otras palabras, siempre y cuando sus presiones sean iguales.
∂S ∂S dx
dS = dE + dV Pressure, p Area, A
∂E ∂V
Reordenando, y utilizando nuestras definiciones (1.7) y
(1.15), podemos escribir
– 15 –
área. El cambio en el volumen en el arreglo es denotado por dV = Área × dx. De modo
que el trabajo hecho por el sistema es Fuerza × dx = (pA)dx = pdV . Para asegurarnos
de que tenemos correcto el signo menos, recordemos que si dV < 0, estamos ejerciendo
una fuerza para comprimir al sistema, aumentando ası́ su energı́a. En contraste, si
dV > 0, el sistema en sı́ está haciendo el trabajo y por lo tanto perdiendo energı́a.
¿Cuál es la interpretación del primer término del lado derecho de (1.16)? Debe de
ser una forma de energı́a transferida al sistema. Resulta que la interpretación correcta
de T dS es la cantidad de calor que el sistema absorbe de sus alrededores. Gran parte
de la Sección 4 estará dedicada al entendimiento del por qué es esta la manera correcta
de pensar en T dS y pospondremos una discusión completa hasta entonces.
Como comentario final, ahora podemos dar una definición ligeramente más refinada
de la capacidad calorı́fica (1.9). De hecho, hay varias capacidades calorı́ficas diferentes,
que dependen de qué otras variables se mantienen fijas. A lo largo de gran parte de estas
notas, estaremos interesados en la capacidad calorı́fica a volumen constante, denotada
como CV ,
∂E
CV = (1.17)
∂T V
Utilizando la primera ley de la termodinámica (1.16), vemos que algo especial sucede
cuando mantenemos el volumen constante: el término del trabajo realizado se retira y
tenemos
∂S
CV = T (1.18)
∂T V
Esta forma enfatiza que, como su nombre sugiere, la capacidad calorı́fica mide la ha-
bilidad del sistema para absorber calor T dS a diferencia de cualquier otra forma de
energı́a. (Aunque, es cierto, aún no hemos definido lo que es el calor. Como fue
mencionado antes, esto tendrá que esperar hasta la Sección 4).
– 16 –
La equivalencia de (1.17) y (1.18) solo se sigue porque mantuvimos el volumen con-
stante. ¿Qué es la capacidad calorı́fica si mantenemos alguna otra cantidad, digamos
la presión, constante? En ese caso, la definición correcta de la capacidad calorı́fica es
la expresión análoga a (1.18). Entonces, por ejemplo, la capacidad calorı́fica a presión
constante Cp se define por
∂S
Cp = T
∂T p
Para las siguientes secciones, lidiaremos únicamente con CV . Pero volveremos breve-
mente a la relación entre CV y Cp en la Sección 4.4
Boltzmann contando
A menudo se dice que la gran intuición de Boltzmann fue la ecuación que hoy se
encuentra grabada en su tumba, S = kB log Ω, la cual llevó al entendimiento de la
segunda ley de la termodinámica en términos de desorden microscópico. Sin embargo,
hoy es difı́cil apreciar el atrevimiento de esta propuesta simplemente porque rara vez
pensamos en otra definición de la entropı́a. Conoceremos, de hecho, la otra noción
termodinámica de entropı́a y la segunda ley de la termodinámica en la Sección 4. Por
el momento, quizás la genialidad de Boltzmann se refleja mejor en la sorprendente
ecuación para la temperatura: 1/T = ∂S/∂E.
2
Si quieres aprender más sobre su vida, recomiendo la muy disfrutable biografı́a, Boltzmann’s
Atom de David Lindley. La cita de arriba se ha tomado de un ensayo de viaje que Boltzmann escribió
relatando una visita a California. El ensayo se reimprime en una biografı́a más seca y técnica por
Carlo Cereignani.
– 17 –
Boltzmann ganó prominencia durante su vida, ocupando cátedras en Graz, Vienna,
Munich y Leipzig (sin mencionar una posición en Berlin, a la que por alguna razón
no se presentó). Sin embargo, su trabajo enfrentó muchas crı́ticas por parte de los
que negaban la existencia de los átomos, sobre todo por Mach. No se sabe si dichas
batallas contribuyeron a la depresión que sufrió Boltzmann adelante en su vida, pero el
verdadero significado de su trabajo solo fue apreciado después de que su cuerpo fuera
encontrado colgando de las vigas de una casa de huéspedes en Trieste.
La colectividad microcanónica describe sistemas que tienen una energı́a fija E. De esto,
deducimos la temperatura de equilibrio T . Sin embargo, a menudo esta no es la mejor
manera de tratar un sistema. Por ejemplo, un vaso de agua en una mesa tiene una
energı́a promedio bien definida. Pero la energı́a está en constante fluctuación conforme
interactúa con el ambiente. Para tales sistemas, a menudo es más apropiado tratarlos
como si se encontraran a una temperatura T fija, de la cual después se deduce la energı́a
promedio.
¿Cómo se cuentan los niveles de energı́a de S en dicha situación? Llamemos |n⟩ a los
estados de S, cada uno con energı́a En . El número de microestados de los sistemas S
y R combinados es dado por la suma sobre todos los estados de S.
X X SR (Etotal − En )
Ω(Etotal ) = ΩR (Etotal − En ) ≡ exp
n n
kB
Hago énfasis en que la suma es sobre todos los estados de S, en lugar de sobre los
niveles de energı́a de S (de haber escrito esto, se hubiese tenido que incluir un factor
de ΩS (En ) en la suma para tomar en cuenta la degeneración de los estados con energı́a
En ). El hecho de que R sea un reservorio implica que En ≪ Etotal . Esto nos permite
hacer una expansión de Taylor sobre la entropı́a, conservando solo los primeros dos
términos,
– 18 –
X SR (Etotal ) ∂SR En
Ω(Etotal ) ≈ exp −
n
kB ∂Etotal kB
e−En /kB T
p(n) = P −Em /k T (1.19)
me
B
– 19 –
En esta notación, la probabilidad de que el sistema se encuentre en el estado |n⟩ es
e−βEn
p(n) = (1.22)
Z
Notablemente, resulta que la cantidad más importante en la mecánica estadı́stica es Z.
A pesar de haber sido introducida como un inocente factor de normalización, contiene
toda la información que requerimos del sistema. Debemos pensar de Z, como expresado
en (1.21), como una función de la (inversa) temperatura β. Vista de esta manera, Z es
denominada la función de partición.
e−β Ĥ
ρ̂ = (1.24)
Z
Si hacemos una medición descrita por un operador Ô, la probabilidad de encontrarnos
en el eigenestado |ϕ⟩ es dada por
p(ϕ) = ⟨ϕ|ρ̂|ϕ⟩
Para eigenestados de energı́a, esto coincide con nuestro resultado anterior (1.22). No
utilizaremos el lenguaje de las matrices de densidad en este curso, pero es un modelo
elegante y conceptualmente claro para describir resultados más formales.
– 20 –
1.3.2 Energı́a y Fluctuaciones
Veamos qué información contiene la función de partición. Comenzaremos pensando
en la energı́a. En el colectivo microcanónico, la energı́a estaba fija. En el colectivo
canónico, esto ya no es verdad. Sin embargo, podemos calcular fácilmente la energı́a
promedio
X X En e−βEn
⟨E⟩ = p(n)En =
n n
Z
Pero esto se puede expresar muy bien en términos de la función de partición como
∂
⟨E⟩ = − log Z (1.25)
∂β
También podemos investigar la dispersión de las energı́as alrededor de la media — en
otras palabras, las fluctuaciones en la distribución de probabilidad. Como de costumbre,
esta dispersión está contenida en la varianza,
∆E 2 = ⟨(E − ⟨E⟩)2 ⟩ = ⟨E 2 ⟩ − ⟨E⟩2
Esto también se puede escribir muy cómodamente en términos de la función de par-
tición,
2 ∂2 ∂⟨E⟩
∆E = 2
log Z = − (1.26)
∂β ∂β
Existe otra expresión para las fluctuaciones que ofrece perspectiva. Recordemos nuestra
definición de capacidad calorı́fica (1.9) en el colectivo microcanónico. En el colectivo
canónico, donde la energı́a no es fija, la definición correspondiente es
∂⟨E⟩
CV =
∂T V
– 21 –
El segundo punto a resaltar de (1.27) es el tamaño de las fluctuaciones conforme el
número de partı́culas N del sistema incrementa. Usualmente E ∼ N y CV ∼ N . Lo
que significa que el tamaño relativo de las fluctuaciones escala de acuerdo a
∆E 1
∼√ (1.28)
E N
El lı́mite N → ∞ se conoce como el lı́mite termodinámico. La energı́a se desvı́a más y
más cerca al valor medio ⟨E⟩ y, esencialmente, se puede tratar como fija. Pero este fue
nuestro punto de partida para el colectivo microcanónico. En el lı́mite termodinámico,
el colectivo canónico y microcanónico coinciden.
Todos los ejemplos que discutiremos en el curso tienen un número muy grande
partı́culas, N , y de manera segura podemos considerar que nos encontramos en el
lı́mite termodinámico. Por esta razón, incluso en el colectivo canónico, comúnmente
escribiremos E como la energı́a promedio en lugar de ⟨E⟩.
Queremos la función de partición para N de tales partı́culas. Pero vimos en (1.23) que
si tenemos sistemas independientes, entonces simplemente necesitamos multiplicar sus
funciones de partición. Entonces tenemos
Z = 2N e−N βϵ/2 coshN (βϵ/2)
de lo cual podemos calcular fácilmente la energı́a promedio
∂ Nϵ
⟨E⟩ = − log Z = (1 − tanh(βϵ/2))
∂β 2
Un poco de álgebra revelará que esta es la misma expresión que derivamos en el colec-
tivo microcanónico (1.13). Podrı́amos continuar y calcular la capacidad calorı́fica y
reproducir el resultado (1.14).
Nótese que, a diferencia de con el colectivo microcanónico, no tuvimos que resolver
ningún problema de combinatoria para contar los estados. La función de partición ha
hecho todo el trabajo por nosotros. Por supuesto, para este caso simple de un sistema
con dos estados, el contar no fue difı́cil, pero en ejemplos más adelante, donde contar
se vuelve algo truculento, la función de partición será una herramienta valiosa que nos
ahorrará trabajo.
– 22 –
1.3.3 Entropı́a
Recuerda que en el colectivo microcanónico, la entropı́a cuenta el (logaritmo del)
número de estados con energı́a fija. Nos gustarı́a definir una cantidad análoga en
el colectivo canónico donde tengamos una distribución de probabilidad sobre los es-
tados con diferentes energı́as. ¿Cómo procedemos? Nuestra estrategia será regresar
nuevamente al colectivo microcanónico, aplicado ahora al sistema combinado sistema
+ reservorio.
De hecho, vamos a utilizar un pequeño truco. Supongamos que no tenemos solo una
copia del sistema S, sino un gran número, W , de copias idénticas. Cada sistema se
encuentra en un estado particular |n⟩. Si W es lo suficientemente grande, el número de
sistemas que están en el estado |n⟩ debe ser simplemente p(n)W . Vemos que el truco de
tomar W copias ha transformado probabilidades en eventualidades. Para determinar la
entropı́a podemos tratar a la toda la colección de W sistemas como si se encontraran en
el colectivo microcanónico, al cual podemos aplicar la definición familiar de la entropı́a
de Boltzmann (1.2). Solo debemos encontrar cuántas maneras existen de poner p(n)W
sistemas en el estado |n⟩ para cada |n⟩. Esto es un problema de combinatoria sencillo:
la respuesta es
W!
Ω= Q
n (p(n)W )!
donde hicimos uso de la fórmula de Stirling para simplificar los logaritmos de los facto-
riales. Esta es la entropı́a para todas las copias W del sistema. Pero sabemos también
que la entropı́a es aditiva. Entonces, la entropı́a de una sola copia del sistema, con
distribución de probabilidad p(n) sobre los estados, es
X
S = −kB p(n) log p(n) (1.30)
n
Esta bonita fórmula se le debe a Gibbs. Fue redescubierta algunas décadas después en
el contexto de la teorı́a de la información donde se le conoce con el nombre de entropı́a
de Shannon para sistemas clásicos o entropı́a de von Neumann para sistemas cuánticos.
En el contexto cuántico, a veces se escribe en términos de la matriz de densidad (1.24)
como
S = −kB Tr ρ̂ log ρ̂
– 23 –
Cuando introdujimos la entropı́a por primera vez en la colectividad microcanónica, la
vimos como una función de la energı́a E. Sin embargo (1.30) ofrece una perspectiva
muy diferente para la entropı́a: dice que deberı́amos considerar a S como una función
de la distribución de probabilidad. No hay contradicción con el colectivo microcanónico
debido a que en ese caso simple, la misma distribución de probabilidad se determina
por la elección de la energı́a E. De hecho, es fácil comprobar (y el lector deberı́a) que
la entropı́a de Gibbs (1.30) revierte a la entropı́a de Boltzmann en el caso especial en
el que p(n) = 1/Ω(E) para todos los estados |n⟩ de energı́a E.
Como usualmente es con todas las otras cantidades importantes, esto se puede expresar
de manera elegante en términos de la función de partición como
∂
S = kB (T log Z) (1.31)
∂T
Un Comentario sobre los Colectivos Microcanónico y Canónico
Los colectivos microcanónico y canónico son distribuciones de probabilidades diferentes.
Esto implica, desde la definición (1.30), que generalmente tienen diferentes entropı́as.
No obstante, en el lı́mite de un muy grande número de partı́culas, N → ∞, todas las
observables fı́sicas — incluyendo la entropı́a — coinciden en ambas distribuciones. Ya
hemos visto esto al calcular la varianza de la energı́a (1.28) en el colectivo canónico.
Veamos a más detalle como funciona esto.
La función de partición en (1.21) es una suma sobre todos los estados. Podemos
reescribirla como una suma sobre niveles de energı́a al incluir un factor de degeneración
X
Z= Ω(Ei )e−βEi
{Ei }
– 24 –
ambos el exponente es proporcional al número N que es exponencialmente grande. Esto
asegura que la suma sobre los niveles de energı́a sea completamente dominada por el
valor máximo E⋆ definido por
∂
Ω(E)e−βE =0
∂E E=E⋆
Z ≈ Ω(E⋆ )e−βE⋆
(Este es el mismo tipo de argumento que utilizamos en (1.2.1) para nuestra discusión
de la Segunda Ley). Con esta aproximación, podemos usar (1.25) para mostrar que la
energı́a más probable E⋆ y la energı́a promedio ⟨E⟩ coinciden:
⟨E⟩ = E⋆
(Se requiere el resultado de (1.7) en la forma de ∂ log Ω(E⋆ )/∂E⋆ = β para derivar
esto). De manera similar, utilizando (1.31), podemos demostrar que la entropı́a en el
colectivo canónico es
S = kB log Ω(E⋆ )
Maximización de la Entropı́a
Existe una manera unificada de pensar sobre los colectivos microcanónico y canónico
en términos de un principio de variación: ambos colectivos cumplen la propiedad de
maximizar la entropı́a sujetos a ciertas restricciones. La única diferencia entre ellos son
las restricciones que se les imponen.
Esto revela que todos los estados con energı́a E son igualmente probables. Esto es el
colectivo microcanónico.
– 25 –
En la hoja de ejemplos, se le pedirá demostrar que el colectivo canónico se puede ver
de la misma manera: es la distribución de probabilidad la que maximiza la entropı́a
sujeta a la restricción de que la energı́a promedio esté fija.
F = ⟨E⟩ − T S (1.32)
De hecho hay múltiples cantidades compitiendo por el nombre ”energı́a libre”, pero
la cantidad F es con la que los fı́sicos normalmente trabajan. Cuando sea necesario
clarificar, se le refiere con el nombre de energı́a libre de Helmholtz. La palabra ”libre”
aquı́ no significa ”sin costo”. La energı́a nunca es libre en ese sentido. Más bien, debe
interpretarse como energı́a ”disponible”.
El hecho de que la energı́a libre sea una cantidad apropiada para tratar sistemas a
temperatura fija también se encuentra desde sus propiedades matemáticas. Recuerde
que comenzamos en el colectivo microcanónico definiendo la entropı́a S = S(E, V ). Si
invertimos esta expresión, podemos de manera similar pensar sobre la energı́a como
una función de entropı́a y volumen: E = E(S, V ). Esto se refleja en la primera ley
de la termodinámica (1.16) que expresa dE = T dS − pdV . Sin embargo, al considerar
variaciones pequeñas en F , obtenemos
Esta forma de la variación nos dice que deberı́amos pensar sobre la energı́a libre como
función de temperatura y volumen: F = F (T, V ). Matemáticamente, F es una trans-
formada de Legendre de E.
∂F
S=− (1.34)
∂T V
– 26 –
De manera similar, la presión se da por
∂F
p=− (1.35)
∂V T
– 27 –
Para familiarizarnos con el significado del potencial quı́mico, podemos repasar la
primera ley de la termodinámica (1.16), esta vez permitiendo también un cambio en el
número de partı́culas. Escribiendo dS = . . . y reorganizando, tenemos,
Esto nos revela el significado del potencial quı́mico: es el costo en términos de energı́a
de añadir una partı́cula más al sistema manteniendo fijos ambos S y V . (Estrictamente
hablando, una cantidad infinitesimal de partı́cula, pero si estamos añadiéndole una más
a 1023 partı́culas, eso cuenta eficientemente como un cambio infinitesimal). Si lo que nos
interesa es la carga eléctrica Q, en lugar del número de partı́culas, el potencial quı́mico
toma la misma forma que el potencial electrostático de un sistema que el lector ya
habrá conocido en su primer curso de Electromagnetismo.
De hecho, hay una lección sutil en la derivación anterior que vale la pena presentar
explı́citamente. Es el tipo de situación que sucede seguido en la termodinámica cuando
comúnmente se trabaja con muchas variables y se requiere cuidado respecto a cuáles
se están manteniendo fijas. Definimos el potencial quı́mico como µ = −T ∂S/∂N |E,V .
Sin embargo, la primera ley nos dice que también podemos pensar sobre el potencial
quı́mico como µ = ∂E/∂N |S,V . ¿Por qué estas expresiones son equivalentes? Esto
proviene de una fórmula general para derivadas parciales. Si tiene tres variables x, y y
z, con una sola restricción entre ellas, entonces µ = −T ∂S/∂N |E,V .
∂x ∂y ∂z
= −1
∂y z ∂z x ∂x y
∂E ∂S ∂E
=− =µ
∂N S,V ∂N E,v ∂S N,V
de donde podemos ver que el potencial quı́mico también puede definirse como
∂F
µ=
∂N T,V
– 28 –
1.4.1 La Colectividad Macrocanónica
Al hacer nuestra transición del colectivo microcanónico al canónico, ya no habı́a tanta
rigidez en nuestra insistencia de que el sistema tuviera energı́a fija. Ahora, podı́a
intercambiar energı́a libremente con el reservorio a su alrededor, el cual se mantenı́a
a una temperatura fija. Ahora podemos imaginar el mismo caso para cualquier otra
cantidad conservada. Por ejemplo, si las partı́culas son libres de moverse entre el
sistema y el reservorio, entonces N ya no es fijo. En dicha situación, podemos requerir
que el reservorio exista con un potencial quı́mico µ fijo, ası́ como con una temperatura
T fija.
e−β(En −µNn )
p(n) =
Z
En el colectivo canónico, la función de partición Z contiene toda la información nece-
saria. En el colectivo macrocanónico, esta información la contiene Z. Nuevamente, la
entropı́a (1.30) se da por
∂
S = kB (T log Z) (1.40)
∂T
mientras que, de diferenciar con respecto de β, surge
∂
⟨E⟩ − µ⟨N ⟩ = − log Z (1.41)
∂β
El número promedio de partı́culas ⟨N ⟩ del sistema puede entonces ser extraı́do como
1 ∂
⟨N ⟩ = log Z (1.42)
β ∂µ
– 29 –
y sus fluctuaciones,
1 ∂2 1 ∂⟨N ⟩
∆N 2 = 2 2
log Z = (1.43)
β ∂µ β ∂µ
El tamaño relativo depla escala de estas fluctuaciones, ası́ como de las fluctuaciones de
energı́a ∆N/⟨N ⟩ ∼ 1/ ⟨N ⟩, en el lı́mite termodinámico N → ∞, resultan del punto
de coincidencia de los tres colectivos. Es por esto que abandonaremos los paréntesis
angulares para promedios ⟨·⟩ de nuestra notación y nos referiremos al número promedio
de partı́culas simplemente como N .
Φ = F − µN
las cuales nos dicen que Φ debe pensarse como una función de temperatura, volumen
y potencial quı́mico Φ = Φ(T, V, µ).
Es posible hacer las mismas manipulaciones algebraicas que nos dieron F en términos
de la función canónica de partición Z, esta vez haciendo uso de las definiciones (1.40)
y (1.41), para escribir Φ como
– 30 –
Suponga que dado un sistema, lo duplicamos. Esto significa que duplicamos el vol-
umen V , el número de partı́culas N y la energı́a E. ¿Qué sucede con el resto de las
variables? Hemos visto en la Sección 1.2.1 que la entropı́a es aditiva, por lo que S
también se duplica. Generalmente, si multiplicamos V , N y E por una cantidad λ, la
entropı́a debe crecer como
Hay algo especial sobre esta última ecuación debido a que Φ depende solamente de una
variable extensiva (V ). A pesar de que hay muchas maneras de modelar una energı́a
libre que obedezca (1.46) (por ejemplo, cualquier función de la forma F ∼ V n+1 /N n es
suficiente), solo hay una manera de satisfacer (1.47): que Φ sea proporcional a V . Esta
constante de proporcionalidad ya tiene un nombre: presión (en realidad es la presión
negativa como puede observar en (1.44)). Entonces, tenemos la ecuación
que parece indicar que obtuvimos algo de la nada. Si F es una función complicada
de V , ¿a dónde van estas complicaciones después de la transformada de Legendre a
Φ? La respuesta es que estas complejidades se almacenan en la presión p(T, µ) al ser
expresada como función de T y µ. A pesar de esto, la ecuación (1.48) demostrará ser
una manera extremadamente económica para calcular la presión de múltiples sistemas.
– 31 –
1.4.4 Josiah Willard Gibbs (1839-1903)
“Usualmente, la prosa de Gibbs transmite su significado de una manera sufi-
cientemente clara, utilizando no más del doble de las palabras que Poincaré
o Einstein hubieran usado para expresar la misma cosa.”
Gibbs fue probablemente el primer fı́sico teórico Americano. Muchos de los de-
sarrollos que conocimos en este capı́tulo son gracias a él, incluyendo la energı́a libre,
el potencial quı́mico y, más importante, la idea de colectividades. Incluso el nombre
“mecánica estadı́stica” fue inventado por Gibbs.
No parecen haber muchas historias interesantes sobre Gibbs. Fue graduado de Yale.
Completó un doctorado en Yale. Se convirtió en profesor en Yale. Al parecer raramente
salı́a de New Haven. Sorprendentemente, no recibió ningún salario en los primeros diez
años de su profesorado. Fue solamente hasta que recibió una oferta de John Hopkins
de $3000 dólares anuales que se les ocurrió en Yale pagarle al mejor fı́sico de América.
Hicieron una contraoferta de $2000 dólares y Gibbs se quedó.
– 32 –
2. Gases Clásicos
Nuestra meta en esta sección es hacer uso de las técnicas de la mecánica estadı́stica para
describir la dinámica del sistema más sencillo posible: un gas. Esto implica muchas
partı́culas flotando dentro de una caja. A pesar de que gran parte de la sección anterior
se formuló en el lenguaje de la mecánica cuántica, por ahora regresaremos a la mecánica
clásica. No obstante, un tema recurrente será que el mundo cuántico nunca está muy
lejos: veremos múltiples problemas, tanto teóricos como experimentales, que solo se
pueden resolver en su totalidad haciendo uso de ℏ.
p⃗2
H= + V (⃗q)
2m
Anteriormente definimos la función de partición (1.21) como la suma sobre todos los
estados cuánticos del sistema. Ahora queremos formular algo similar. En la mecánica
clásica, el estado de un sistema es determinado por un punto en el espacio fase. Es
requerido especificar la posición y el momento de cada una de as partı́culas — solo ası́
tendremos suficiente información para determinar el comportamiento del sistema para
cualquier tiempo en el futuro. Esto motiva la definición de la función de partición para
una partı́cula clásica como una integración sobre el espacio fase,
Z
1
Z1 = 3 d3 qd3 p e−βH(p,q) (2.1)
h
Lo único excéntrico es el factor 1/h3 en el frente. Es una cantidad que requiere estar
ahı́ simplemente por razones de dimensiones: Z no debe tener dimensiones, por lo que
h debe tener dimensión (posición × momento) o, de manera equivalente, Joule-segundo
(Js). El valor de h no importará para cualquier observable fı́sica como la capacidad
calorı́fica dado que siempre tomamos log Z y diferenciamos. A pesar de esto, existe un
valor correcto para h: es la constante de Planck, h = 2πℏ ≈ 6.6 × 10−34 Js.
3
Si no ha tomado el curso de Mecánica Clásica, deberı́a pensar sobre el hamiltoniano como la
energı́a del sistema expresada en términos de la posición y el momento de la partı́cula.
– 33 –
Es bastante inusual ver la constante de Planck en una fórmula que supone ser clásica.
¿Qué está haciendo ahı́? En realidad, es un objeto vestigial, como el pezón masculino.
Es redundante, sirve solo como un recordatorio de donde venimos. Y el mundo clásico
vino del cuántico.
En lo que resta, haremos un uso libre de nuestra autoridad de poder insertar el oper-
ador identidad en cualquier parte de esta expresión. Los operadores identidad pueden
construirse al sumar sobre cualquier base de estados completa. Serán necesarias dos
construcciones de este tipo, usando los eigenvectores de posición |q⟩ y los de momento
|p⟩,
Z Z
1 = dq |q⟩⟨q| , 1 = dp |p⟩⟨p|
– 34 –
Es evidente que este resultado vino de reemplazar la suma sobre los eigenestados en-
ergéticos en (2.2) por una suma (o integral) sobre eigenestados de posición en (2.3).
Si ası́ lo deseara, usted podrı́a hacer lo mismo y obtener la suma sobre cualquier base
completa de eigenestados de su elección. Adicionalmente, esto significa que podemos
expresar la función de partición de una manera independiente de la base como
Z1 = Tr e−β Ĥ
Hasta ahora, nuestras manipulaciones pudieron haber sido aplicadas a cualquier sistema
cuántico. Lo que ahora queremos hacer es tomar el lı́mite clásico. Esto ocurre cuando
intentamos factorizar e−β Ĥ en términos de posición y momento. El problema es que esto
no siempre es posible cuando tratamos con matrices (u operadores) en el exponente.
Recuerde que
1
e eB̂ = eÂ+B̂+ 2 [Â,B̂]+...
En nuestro caso tenemos que [q̂, p̂] = iℏ. Esto significa que si estamos dispuestos a
ignorar términos del orden de ℏ — lo cual es es significado de tomar un lı́mite clásico
— entonces podemos escribir
2 /2m
e−β Ĥ = e−β p̂ e−βV (q̂) + O(ℏ)
– 35 –
2.2 Gas Ideal
El primer gas clásico que veremos consiste de N partı́culas dentro de un volumen V .
El gas es “ideal”. Esto simplemente significa que las partı́culas no interactúan entre
sı́. Por el momento, supongamos que las partı́culas no tienen estructura interna, esto
es, no hay grados de libertad rotacionales o vibracionales. A este sistema usualmente
se le conoce como gas ideal monoatómico. El hamiltoniano para cada partı́cula es
simplemente la energı́a cinética
p⃗ 2
H=
2m
Y la función de partición para una partı́cula es
Z
1 2
Z1 (V, T ) = 3
d3 qd3 p e−β⃗p /2m (2.4)
(2πℏ)
R
La integral de la posición es entonces trivial y resulta en d3 q = V , el volumen de la
caja. La integral del momento también es simple ya que se factoriza en las integrales
separadas de px , py y pz , las cuales son individualmente una Gaussiana de la forma
Z r
2 π
dx e−ax =
a
Entonces tenemos
3/2
mkB T
Z1 = V
2πℏ2
En lo que resta, nos encontraremos seguido con el término en los paréntesis, por lo que
es conveniente darle un nombre. Escribiremos:
V
Z1 = (2.5)
λ3
A la cantidad λ se le llama longitud de onda térmica de De Broglie,
s
2πℏ2
λ= (2.6)
mkB T
λ tiene dimensiones de longitud. Veremos más adelante que podemos pensar de λ como
algo similar a la longitud de onda de De Broglie de una partı́cula a temperatura T .
Nótese que es un objeto cuántico – contiene una ℏ – por lo que podemos esperar que
se elimine de cualquier cantidad clásica que calculemos. La misma función de partición
(2.5) cuenta el número de estas longitudes de onda térmicas que podemos meter en un
volumen V .
– 36 –
Figura 8: Derivaciones desde la ley de Figura 9: Derivaciones desde la ley de
gas ideal para densidades reducidas. gas ideal para densidades extremas.
Como muestran las figuras anteriores4 , la ley de gas ideal es una excelente descripción
para gases en densidades bajas. Los gases se desvı́an de este comportamiento ideal
4
Ambas figuras fueron tomadas del libro de texto web “Quı́mica General” y son acreditadas a John
Hutchinson.
– 37 –
mientras más incrementen en sus densidades y entonces se vuelven importantes las
interacciones entre sus átomos. En la Sección 2.5, veremos como surge esto desde el
punto de vista de fuerzas microscópicas.
Vale la pena decir que esta derivación deberı́a aclarar cualquier duda sobre la definición
de temperatura dada en (1.7). Lo que llamamos T coincide con la noción común de
temperatura aplicada a gases. La propiedad clave de la temperatura es que si dos sis-
temas están en equilibrio, entonces tienen la misma T . Esto es suficiente para asegurar
que la ecuación (1.7) es la definición correcta de temperatura para todo sistema ya que
siempre podemos poner cualquiera de estos en equilibrio con un gas ideal.
VN D
Z= ⇒ E= N kB T
λDN 2
Cada partı́cula tiene D grados de libertad (esto es porque se puede mover en cada una
de las D dimensiones espaciales). Encima de esto, cada partı́cula contribuye 12 DkB T
a la energı́a promedio. Esto es una regla general para todo sistema clásico: la energı́a
promedio de cada grado de libertad en un sistema a temperatura T es 12 kB T . A esto
se le llama la equipartición de la energı́a. Reiterando, esto aplica solo para grados de
libertad en la ausencia de un potencial (existe una versión modificada para cuando
se incluya un potencial). Adicionalmente, aplica solamente para sistemas clásicos o
cuánticos en temperaturas suficientemente altas.
Podemos hacer uso del resultado anterior para investigar porqué la longitud de onda
térmica de De Broglie (2.6) puede considerarse como un aproximado equivalente al
promedio de la longitud de onda de De Broglie de una partı́cula. Si igualamos la
energı́a promedio (2.9) con la energı́a cinética E = p2 /2m, vemos que el momento
√
promedio (media cuadrática) que carga cada partı́cula es p ∼ mkB T . En la mecánica
cuántica, la longitud de onda de De Broglie de una partı́cula es λdB = h/p, lo que
(hasta factores de 2 y π) concuerda con nuestra fórmula (2.6).
– 38 –
Finalmente, regresando a la realidad con d = 3 dimensiones, podemos calcular la
capacidad calorı́fica para un gas ideal monoatómico. Esto es,
∂E 3
CV = = N kB (2.10)
∂T V 2
kB = 1.381 × 10−23 JK −1
N ∼ 1023 (2.11)
Vale la pena hacer énfasis en esto. Los átomos no son solo pequeños: son extremada-
mente diminutos. El número 1023 es increı́blemente grande. El número de granos de
arena en todas las playas del mundo es cercano a 1018 . El número de estrellas en nues-
tra galaxia es de aproximadamente 1011 . El número de estrellas en todo el universo
observable es probablemente cerca de 1022 . Aún ası́, el número de moléculas de agua
en una taza de té es más de 1023 .
– 39 –
Notación Quı́mica
Ya que tocamos el tema del tamaño de los átomos, es conveniente recordar la notación
que se usa en la quı́mica. En este campo también se busca trabajar con números de
primer orden. Es por esto que definen al mol como el número de átomos en un gramo
de Hidrógeno (en realidad es el número de átomos en 12 gramos de Carbón-12, pero es
aproximadamente el mismo valor). La masa del Hidrógeno es 1.6 × 10−27 Kg, ası́ que
el número de átomos en un mol es el número de Avogadro;
NA ≈ 6 × 1023
El número de moles en nuestro gas es entonces n = N/NA y nuestra ley de gas ideal
puede expresarse como
pV = nRT
Erwin Schrödinger
– 40 –
Es simple escribir la función de partición para N partı́culas indistinguibles. Debemos
únicamente dividir el número de maneras de permutar las partı́culas. En otras palabras,
para el gas ideal, la función de partición es
1 N VN
Zideal (N, V, T ) = Z1 = (2.12)
N! N !λ3N
El factor extra de N ! no cambia los cálculos para presión o energı́a dado que, para
ambas se debe diferenciar el log Z y cualquier factor adicional desaparece. Sin embargo,
sı́ cambia la entropı́a, ya que esta se da por
∂
S= (kB T log Zideal )
∂T
lo que incluye el factor log Z pero sin ninguna derivada. Claro que, si la entropı́a
cuenta el número de microestados, esperarı́amos que esta sepa si las partı́culas son
distinguibles o indistinguibles. Haciendo uso de la función de partición correcta (2.12)
y la fórmula de Stirling, la entropı́a de un gas ideal resulta ser
V 5
S = N kB log + (2.13)
N λ3 2
A esta se le conoce como la ecuación de Sackur-Tetrode. Note que encima de que la
entropı́a sea sensible a la indistinguibilidad de las partı́culas, también es dependiente
de λ. Sin embargo, la entropı́a no es medible clásicamente. Solo podemos calcular
diferencias de entropı́a integrando la capacidad calorı́fica como en (1.10).
– 41 –
como partı́culas con el reservorio de afuera. Debemos pensar sobre este sistema como
un volumen dentro de un gas mucho más grande. Si no hay barreras que definan este
volumen, entonces las partı́culas, y con ellas, la energı́a, es libre de entrar y salir del con-
torno. Podemos preguntarnos cuántas partı́culas estarán dentro del volumen y cuántas
fluctuaciones en el número de partı́culas se darán en promedio. Más importante aún es
el hecho de que podemos empezar a adquirir intuición para esta extraña cantidad que
llamamos el potencial quı́mico µ.
1 ∂ eβµ V
N= log Z =
β ∂µ λ3
El cual, reescrito, nos da
λ3 N
µ = kB T log (2.14)
V
∂E
µ=
∂N S,V
Por lo que el potencial quı́mico debe considerarse como el costo energético de agregar
una partı́cula extra a entropı́a y volumen fijos. Pero añadir una partı́cula creará más
– 42 –
posibilidades de distribuir la energı́a y por lo tanto incrementarı́a la entropı́a. Si insis-
timos en mantener la entropı́a fija, entonces requerimos que se reduzca la energı́a cada
que agreguemos una partı́cula extra. Es por esto que tenemos µ < 0 para un gas ideal
clásico.
Existen situaciones donde µ > 0. Esto puede ocurrir si tenemos una interacción
repulsiva lo suficientemente fuerte entre las partı́culas tal que el costo energético de
agregar una extra sea muy grande. También puede suceder que µ > 0 para sistemas de
fermiones a temperaturas bajas, como veremos en la Sección 3.6.
1 ∂2
∆N 2 = log Zideal = N
β 2 ∂µ2
√
Como fue mencionado en la Sección 1.4.1, las fluctuaciones relativas ∆N/⟨N ⟩ = 1/ N
se vuelven infinitesimalmente pequeñas en el lı́mite termodinámico N → ∞.
eβµ V
pV = kB T log Z = kB T = kB T N (2.15)
λ3
lo cual nos regresa la ley del gas ideal.
– 43 –
Figura 10: Distribución de Maxwell para los gases nobles: He, N e, Ar and Xe.
también se escribe como una suma, ahora sobre velocidades. Entonces, el integrando
debe interpretarse como la distribución de probabilidad de las velocidades. La proba-
bilidad de que un átomo tenga una velocidad entre v y v + dv es
2 /2k
f (v)dv = N v 2 e−mv BT
dv (2.16)
Z ∞
2 3kB T
⟨v ⟩ = dv v 2 f (v) =
0 m
– 44 –
El Argumento de Maxwell
El procedimiento anterior revela la distribución de las velocidades de las partı́culas en
un gas sin interacciones. Sorprendentemente, la distribución de Maxwell también aplica
en la presencia de interacciones. De hecho, la formulación original de la distribución
realizada por Maxwell no hace referencia a ninguna propiedad del gas.
F (v) dvx dvy dvz = ϕ(vx )ϕ(vy )ϕ(vz ) dvx dvy dvz
– 45 –
la dirección x rebota elásticamente con una pared tal que regresa con velocidad −vx .
La partı́cula sufre un cambio de momento ∆px = 2mvx . Dado que la partı́cula está
atrapada en la caja, chocará con la pared opuesta después de un tiempo ∆t = 2L/vx .
Esto significa que la fuerza en la pared debido a este átomo es
∆px mvx2
F = =
∆t L
Sumando para todos los átomos que chocan con la pared, la fuerza es
N m⟨vx2 ⟩
F =
L
2
donde ⟨vx ⟩ es la velocidad promedio en la dirección x. Usando el mismo argumento
que ofrecimos en la derivación de Maxwell anteriormente, debemos tener ⟨vx2 ⟩ = ⟨v 2 ⟩/3.
Entonces, F = N m⟨v⟩2 /3L y la presión, siendo fuerza por área, es dada por
N m⟨v 2 ⟩ N m⟨v 2 ⟩
p= =
3L3 3V
Si comparamos esta ecuación con la de gas ideal (que, en la época, solo tenı́a funda-
mentos experimentales), podemos concluir que el fenómeno de temperatura surge de
la energı́a cinética del gas. De manera más precisa, reencontramos el resultado de la
equipartición derivado anteriormente: 21 m⟨v 2 ⟩ = 32 kB T .
Los resultados de Bernoulli y Waterson finalmente fueron aceptados luego de ser re-
redescubiertos por cientı́ficos más prestigiosos, como, entre los más notables, Rudolph
Clausius, quien en 1857 extendió estas ideas a moléculas con rotación y vibración. Poco
después, en 1859, Maxwell ofreció la formulación para la distribución de velocidades que
vimos anteriormente. Esto se reconoce comúnmente como la primera ley de la mecánica
estadı́stica. Sin embargo, Maxwell fue capaz de llevar las cosas un paso más adelante.
Utilizó la teorı́a cinética para derivar la primera predicción legı́timamente nueva sobre
la hipótesis atómica: la idea de que la viscosidad de un gas es independiente de su
densidad. Maxwell escribió,
– 46 –
”Semejante consecuencia de la teorı́a matemática es sorprendente y el único
experimento sobre eso del que sé no parece confirmarla.”
Han surgido muchos otros desarrollos en la teorı́a cinética que no tocaremos en este
curso. El más importante es probablemente la ecuación de Boltzmann. Esta describe
la evolución de la distribución de probabilidad de posición y momento de una partı́cula
al chocar con otras partı́culas. Soluciones estacionarias y constantes devuelven la dis-
tribución de Maxwell-Boltzmann, pero la ecuación también brinda un modelo que va
más allá de la descripción de equilibrio de un gas. Puede leer sobre esto en las notas
sobre Teorı́a Cinética.
Trabajaremos bajo la suposición de que los modos de rotación y vibración son indepen-
dientes. En este caso, la función de partición para una sola molécula se expresa como
6
Se puede observar el aparato original desde desde el pasillo del Laboratorio Cavendish. Si la
caminata no es de su interés, puede simplemente hacer click aquı́:
[Link]
– 47 –
el producto de la función de partición traslacional Ztrans ya calculada anteriormente
(2.5), junto con la contribución rotacional y la vibracional.
Z1 = Ztrans Zrot Zvib
Ahora nos concentraremos en Zrot y Zvib .
Rotación
El lagrangiano para los grados de libertad rotacionales es7
1
Lrot = I(θ̇2 + sin2 θϕ̇2 ) (2.17)
2
Sus momentos conjugados entonces son
∂Lrot ∂Lrot
pθ = = I θ̇ , pϕ = = I sin2 θ ϕ̇
∂ θ̇ ∂ ϕ̇
de los cuales obtenemos el hamiltoniano para la molécula diatómica rotancional,
p2θ p2ϕ
Hrot = θ̇pθ + ϕ̇pϕ − L = + (2.18)
2I 2I sin2 θ
La contribución de la rotación para la función de partición es entonces
Z
1
Zrot = dθdϕdpθ dpϕ e−βHrot
(2πℏ)2
s s
Z π
2πI sin2 θ 2π
Z
1 2πI
= dθ dϕ
(2πℏ)2 β 0 β 0
2IkB T
= (2.19)
ℏ2
Desde esto podemos calcular la energı́a rotacional promedia de cada molécula,
Erot = kB T
Si decidimos incluir la contribución traslacional (2.5), la función de partición para la
molécula diatómica que puede girar y moverse, pero no vibrar, es dada por Z1 =
Ztrans Zrot ∼ (kB T )5/2 , y la función de partición para un gas conformado por estos
objetos es Z = Z1N /N !, desde donde calculamos la energı́a E = 52 N kB T y la capacidad
calorı́fica
5
CV = kB N
2
De hecho, podemos obtener este resultado simplemente desde la equipartición de la
energı́a: hay tres modos traslacionales y dos modos rotacionales, resultando en una
contribución energética de 5N × 12 kB T .
7
Consulte, por ejemplo, la Sección 3.6 de las Notas de Mecánica Clásica.
– 48 –
Vibraciones
El hamiltoniano del modo vibracional es simplemente un oscilador armónico. Expre-
saremos el desplazamiento desde la posición de equilibrio como ζ. La molécula vibra
con una frecuencia ω que se da dependiendo de la fuerza del compuesto atómico. El
hamiltoniano es entonces
p2ζ 1
Hvib = + mω 2 ζ 2
2m 2
que podemos utilizar para calcular la función de partición
Z
1 kB T
Zvib = dζdpζ e−βHvib = (2.20)
2πℏ ℏω
La energı́a vibracional promedio de cada molécula ahora es
Evib = kB T
Figura 11: La capacidad calorı́fica para el gas de Hidrógeno H2 . La gráfica fue creada por
P. Eyland.
– 49 –
Este resultado no depende ni del momento de inercia I, ni de la rigidez ω del compuesto
molecular. Una molécula con un momento I muy grande simplemente girarı́a más lento
tal que la energı́a cinética rotacional sea kB T ; una molécula unida adherida a un resorte
rı́gido con muy grande ω vibrará con menor amplitud tal que la energı́a vibracional
promedio sea kB T . Esto asegura que la capacidad calorı́fica sea constante.
Una vez más, centraremos nuestra atención en el gas monoatómico. La ley de gas
ideal es exacta en el lı́mite sin interacciones entre átomos. Esta es una buena aproxi-
mación para cuando la densidad de los átomos N/V es pequeña. Seguido expresamos
correcciones a la ley de gas ideal en términos de una expansión de la densidad, conocida
como expansión virial. La ecuación de estado más general es
p N N2 N3
= + B2 (T ) 2 + B3 (T ) 3 + . . . (2.21)
kB T V V V
– 50 –
donde a las funciones Bj (T ) se les conoce como coeficientes del virial.
Una forma del potencial aún más simple incorpora una repulsión de núcleo duro (hard-core), en donde
las partı́culas tienen prohibido estar más cerca que una distancia fija impuesta por un
potencial infinito,
(
∞ r < r0
U (r) = 6 (2.23)
−U0 rr0
r ≥ r0
Este potencial, junto con la atracción de van der Waals, se muestran en la Figura de
la derecha. Pronto veremos que los coeficientes del virial se determinan por integrales
cada vez más complicadas que involucran el potencial U (r). Es por esto que es mejor
utilizar el potencial más simple posible. Cuando hagamos estos cálculos, utilizaremos
la forma de (2.23).
– 51 –
2.5.1 La función f de Mayer y el Segundo Coeficiente Virial
Cambiaremos de notación y nos referiremos a las posi- U(r)
ciones de las partı́culas como ⃗r en vez de ⃗q (la no-
tación anterior fue útil para enfatizar la conexión a
la mecánica cuántica en esta Sección pero eso quedó
r0 r
atrás). El hamiltoniano del gas es
N
X p2i X
H= + U (rij )
i=1
2m i>j
donde rij = |⃗ri −⃗rj | es la separación entre las partı́culas. Figura 12:
La restricción i > j en la suma final asegura que se
sume sobre cada par de partı́culas solo una vez. La
función de partición es entonces
N
Z Y
1 1
Z(N, V, T ) = d3 pi d3 ri e−βH
N ! (2πℏ)3N
"Zi=1 # "Z #
1 1 Y P 2 Y P
= d3 pi e−β j pj /2m × d3 ri e−β j<k U (rjk )
N ! (2πℏ)3N i i
Z Y
1 P
= d3 ri e−β j<k U (rjk )
N !λ3N i
– 52 –
Este es un mejor parámetro de expansión. Cuando las partı́culas se separen mucho
como r → ∞, f (r) → 0. Sin embargo, a como se acercan las partı́culas y r → 0,
la función de Mayer cumple f (r) → −1. Procederemos tratando de construir una
expansión razonable en términos de f . Definimos entonces
fij = f (rij )
VN N2
Z
3
Z(N, V, T ) = 1+ d r f (r) + . . .
N !λ3N 2V
Z N
N 3
= Zideal 1 + d r f (r) + . . .
2V
donde hicimos uso de nuestro resultado anterior Zideal = V N /N !λ3N . También hicimos
un poco de manipulación en la última lı́nea, extendiendo la N desde en frente a la
integral hasta una potencia de toda la expresión. Modificar la expresión de esta man-
era nos asegura que la energı́a libre sea proporcional al número de partı́culas, como
– 53 –
esperábamos que fuera el caso:
Z
N 3
F = −kB T log Z = Fideal − N kB T log 1 + d r f (r) (2.26)
2V
Si no le convence este pequeño truco, no será difı́cil convencerse de que el resultado
(2.27) para la ecuación de estado no dependerá de esto. En la siguiente sección veremos
la expansión a más detalle, incluyendo los términos de mayor orden.
Podemos tener más precisión al hablar de las densidades bajas. La forma exacta de la
R
integral d3 rf (r) depende del potencial, pero tanto para el potencial de Lennard-Jones
(2.22) como para la repulsión de núcleo duro (2.23), la integral es aproximadamente
R 3
d rf (r) ∼ r03 , donde r0 es el mı́nimo del potencial (calcularemos la integral exacta
para el potencial de la repulsión de núcleo duro). Para que la expansión sea válida,
buscamos que cada término con una potencia extra de f sea menor que el anterior (esto
es una aproximación pero seremos más precisos cuando desarrollemos la expansión del
clúster). Esto significa que el segundo término en el argumento del logaritmo debe ser
menor que 1. En otras palabras,
N 1
≪ 3
V r0
La parte de la izquierda es la densidad del gas. La de la derecha es la densidad atómica,
o de manera equivalente, la densidad de una sustancia en la que los átomos están juntos
de manera muy compacta. Tenemos un nombre para estas sustancias – ¡les llamamos
lı́quidos! Nuestra expresión es válida para densidades del gas mucho menores a las de
un estado lı́quido.
– 54 –
R
Para comprender lo que esto significa, primero debemos calcular d3 rf (r). Veamos
primero dos ejemplos triviales:
Atracción: Si U (r) < 0, tenemos que f > 0 y la presión disminuye, como esperarı́amos
de una interacción atractiva.
Ahora veamos una interacción más realista que sea atractiva largas distancias y
repulsiva en pequeñas escalas. Calcularemos la ecuación de estado del gas utilizando el
potencial de núcleo duro junto con el potencial de la atracción de van der Waals (2.23).
La integral de la función f de Mayer es
Z Z r0 Z ∞
3 3 6
d r f (r) = d r(−1) + d3 r (e+βU0 (r0 /r) − 1) (2.28)
0 r0
4πU0 ∞
Z r0
r6
Z Z
3
d r f (r) = −4π 2
dr r + dr 04 (2.29)
0 kB T r0 r
4πr03
U0
= −1
3 kB T
Metiendo esto en la ecuación (2.27) conseguimos una expresión para la ecuación de
estado,
pV N a
=1− −b
N kB T V kB T
En esta expresión encontramos el segundo coeficiente del virial de (2.21) como pre-
tendı́amos. Las constantes a y b se definen como
2πr03 U0 2πr03
a= , b=
3 3
De hecho, es más conveniente escribir esto en la forma kB T = . . .. Multiplicando por
kB T y acomodando obtenemos entonces
−1
N2
V N
kB T = p+ 2a 1+ b
N V V
– 55 –
Ahora, debido a que estamos trabajando con una expansión de la densidad N/V , ten-
emos la libertad de usar una expansión de Taylor en el último paréntesis. Conservando
los primeros dos términos, obtendrı́amos
N2
V
kB T = p + 2 a −b (2.30)
V N
Esta es la famosa ecuación de estado de van der Waals para un gas. Sin embargo, hay
que recordar las limitaciones de nuestro análisis: es válido solamente en densidades
bajas (debido a nuestra aproximación al resolver la integral (2.28)) y en temperaturas
altas.
Vale la pena aclarar el origen de algunos factores de dos en b = 2πr03 /3. Recordemos
que r0 es la distancia mı́nima de separación a la que dos átomos pueden llegar. Si
pensamos en cada átomo como una esfera sólida, tendrı́an un radio r0 /2 y volumen
4π(r0 /2)3 /3, el cuál no es igual a b. Sin embargo, como muestra la figura, el volumen
excluido alrededor de cada átomo es Ω = 4πr03 /3 = 2b. ¿Por qué no tenemos entonces
a Ω en lugar de b = Ω/2 en el denominador de la ecuación de van der Waals? Si
pensamos en añadir los átomos uno por uno, el primero puede mover un volumen V ,
el segundo un volumen V − Ω, el tercero V − 2Ω, etc. Para Ω ≪ V , la configuración
total del espacio permitido para el átomo es
N N
VN N2 Ω
1 Y 1 NΩ
(V − mΩ) ≈ 1− + ... ≈ V −
N ! m=1 N! 2 V N! 2
– 56 –
Anteriormente calculamos la ecuación de estado para la interacción de van der Waals
en un dipolo con potencial de núcleo duro. A pesar de esto, resulta que nuestra ex-
presión (2.27) puede ser utilizada para formular la ecuación de estado para cualquier
potencial entre átomos. Sin embargo, hay limitaciones. Si recordamos la integral (2.29),
podemos ver que una fuerza de largo alcance de la forma 1/rn dará resultado a una
integral convergente para n ≥ 4. Esto significa que las técnicas descritas anteriormente
no funcionan para potenciales a largo alcance que decaigan a 1/r3 o más lento. Esto
incluye el caso importante de las interacciones de Coulomb con decaimiento 1/r.
La expansión en (2.32) incluye términos de la forma fij fkl fmn . . . donde los ı́ndices
denotan pares de átomos, (i, j) y (k, l) y ası́ sucesivamente. Esto pares pueden tener
átomos en común o puede que sean todos diferentes. Sin embargo, el mismo par nunca
aparece dos veces en algún término dado como se puede verificar al referirse de vuelta
a la primera lı́nea en (2.32). Introduciremos un método con diagramas para hacer un
seguimiento de todos los términos de la suma. A cada término de la forma fij fkl fmn . . .
se le asocia una imagen usando las siguientes reglas
• Dibuja N átomos. (Esto se vuelve tedioso para N ∼ 1023 pero, como veremos
pronto, en realidad solo necesitamos imágenes con un subconjunto pequeño de
átomos).
– 57 –
• Dibuja una lı́nea entre cada par de átomos que aparecen como ı́ndices. Ası́, para
fij fkl fmn . . ., dibujamos una lı́nea entre el átomo i y el átomo j; una lı́nea entre
el átomo k y el átomo l; y ası́ sucesivamente.
Por ejemplo, si tenemos solamente N = 4, tenemos las siguientes imágenes para los
diferentes términos en la expansión,
3 4 3 4 3 4 3 4
Llamaremos a estos diagramas gráficas. Cada gráfica posible aparece exactamente una
vez en la función de partición (2.32). En otras palabras, la función de partición es una
suma sobre todas las gráficas. Todavı́a tenemos que hacer las integrales sobre todas
las posiciones ⃗ri . Denotaremos la integral sobre la gráfica G como W [G]. Entonces la
función de partición es
1 X
Z(N, V, T ) = W [G]
N !λ3N G
Casi todas las gráficas que podemos dibujar tienen componentes desconectados. Por
ejemplo, aquellas gráficas que corresponden a un único fij tendrán dos átomos conec-
tados y el resto N − 2 de ellos estarán solos. Aquellas gráficas que corresponden a fij fkl
podrán caer en dos categorı́as: o consisten en dos pares de átomos (como el segundo
ejemplo anteriormente) o, si (i, j) comparte un átomo con (k, l), habrá tres átomos
conectados (como el tercer ejemplo de antes). Importante destacar que la integral so-
bre las posiciones ⃗ri se factoriza en un producto de integrales sobre las posiciones de
los átomos en componentes desconectados. Esto se ilustra por un ejemplo con N = 5
átomos,
" 3 4
# Z Z
3 3 3 3 3
W 2
= d r1 d r2 d r3 f12 f23 f31 d r4 d r5 f45
1 5
Por supuesto, para una gráfica con solo unas lı́neas y muchos átomos, casi todos los
átomos estarán solitarios en 1-clústers.
– 58 –
Ahora podemos cumplir la promesa hecha antes de que no tendremos que dibujar
todos los N ∼ 1023 átomos. La idea central es que podemos concentrarnos en clústers
de l-átomos. Organizaremos la expansión de tal forma que los (l + 1)-clústers sean
menos importantes que los l-clústers. Para ver como funciona esto, concentrémonos
por ahora en 3-clústers. Hay cuatro formas diferentes en las que podemos tener un
3-clúster,
3 3 3 3
1 2 1 2 1 2 1 2
Cada uno de estos 3-clústers aparecerán en una gráfica con cualquier otra combinación
de clústers de los N − 3 átomos restantes. Pero dado que los clústers se factorizan en
la función de partición, sabemos que Z debe incluir un factor
Z 3 3 3 3
3 3 3
U3 ≡ d r1 d r2 d r3 + + +
1 2 1 2 1 2 1 2
un número ml de l-clústers, pero ignora las diferentes formas de conectar cada clúster.
Esto es correcto ya que las conexiones internas diferentes se toman en cuenta en la
integral Ul .
– 59 –
Los argumentos de combinatoria no son siempre transparentes. Verifiquemos un
par de veces para asegurarnos que esta es, en efecto, la respuesta correcta. Primero,
consideremos N = 4 átomos divididos en dos 2-clústers (i.e m2 = 2). Tendremos tres
tales diagramas, f12 f34 = , f13 f24 = , y f14 f23 = . Cada uno de éstos da la
misma respuesta bajo integración, que es U22 ası́ que el resultado final deberı́a ser 3U22 .
Podemos verificar esto con los términos relevantes en (2.35), que son 4!U22 /2!2 2! = 3U22 ,
como se esperaba.
junto con las gráficas que se relacionan por medio de permutaciones. Las permutaciones
se determinan en su totalidad por la elección de los dos átomos emparejados: hay 10
posibles elecciones. La respuesta deberı́a ser entonces 10U3 U2 . Comparando con (2.35),
tenemos 5!U3 U2 /3!2! = 10U3 U2 , como se requerı́a.
Esperemos que ahora uno esté convencido de que (2.35) cuenta las gráficas de manera
correcta. El resultado final para la función de partición es entonces
1 X Y Ulml
Z(N, V, T ) =
λ3N (l!)ml ml !
l {ml }
El problema con calcular esta suma es que aún tenemos que encontrar las formas
diferentes en que podemos dividir los N átomos en diferentes clústers. En otras pal-
abras, aún tenemos que obedecer la restricción (2.33). La vida serı́a más sencilla si
no tuviéramos que preocuparnos sobre esto. Entonces podrı́amos simplemente sumar
sobre cualquier ml . Afortunadamente, esto es exactamente lo que podemos hacer si
trabajamos en la gran colectividad canónica, ¡donde N no es fija! La gran colectividad
canónica es
X
Z(µ, V, T ) = eβµN Z(N, V, T )
N
– 60 –
Usualmente, uno define
λ3 Ul
bl = (2.36)
V l!λ3l
En particular, notemos que U1 = V por lo que esta definición nos da b1 = 1. De este
modo podemos escribir la función de partición macrocanónica como
∞ ∞
!
Y V V X
Z(µ, V, T ) = exp 3
bl z l = exp 3
bl z l (2.37)
l=1
λ λ l=1
Algo curioso ha sucedido aquı́. La suma sobre todos los diagramas se ha reescrito
como la exponencial sobre la suma de todos los diagramas conectados, lo que también
significa la suma de todos los clústers. Esto es una lección general que también se
puede transportar a la teorı́a cuántica de campos, donde los diagramas en cuestión son
diagramas de Feynman.
y el número de partı́culas
∞
N z ∂ 1 X
= log Z = 3 lbl z l (2.38)
V V ∂z λ l=1
– 61 –
donde hemos usado, ambos, B1 = 1 y b1 = 1. Expandiendo el lado izquierdo y derecho
hasta orden z 3 resulta en
2 3 B2 2 4b2 B2 B3
z + b2 z + b3 z + . . . = z + + 2b2 z + 3b3 + + 3 z3 + . . .
λ3 λ3 λ
lo cual reproduce el resultado (2.27) que encontramos antes usando métodos ligeramente
más simples. Ahora también podemos tener una expresión para el tercer coeficiente,
B3 = λ6 (4b22 − 2b3 )
aunque, francamente, aún tenemos una integral desagradable por resolver antes de
llegar a un resultado concreto. Más importante aún, la expansión del clúster nos da
la tecnologı́a para realizar sistemáticamente expansiones de perturbación a cualquier
orden que deseemos.
q2
U (r) =
r
donde hemos usado unidades en las que 4πϵ0 = 1. ¿Cómo afecta el fondo de carga fijo al
potencial entre los electrones? El ingenioso truco del modelo de Debye-Hückel es usar
los métodos estadı́sticos para responder esta pregunta. Consideremos que se coloca un
electrón en el origen. Intentemos obtener el potencial electrostático ϕ(⃗r) debido a este
– 62 –
electrón. Hacer esto no es trivial debido a que ϕ también depende de las posiciones del
resto de electrones. En general podemos escribir,
donde el primer término del lado derecho es debido al electrón en el origen; el segundo
término es debido al fondo de densidad de carga positiva; y el tercero es debido a los
demás electrones, cuya densidad de carga promedio en la cercanı́a del primer electrón
es ρg(⃗r). El problema es que no conocemos las funciones g. Si nos encontráramos en
temperatura cero, los electrones intentarı́an separarse entre sı́ tanto como fuera posible.
Pero a temperaturas distintas de cero, su energı́a térmica les permitirá aproximarse los
unos a los otros. Esta es la pista que necesitamos. El costo energético para que
un electrón se aproxime al origen es, por supuesto, E(⃗r) = −qϕ(⃗r). Por lo tanto
asumiremos que la densidad de carga cerca del origen se da por el factor de Bolztmann,
g(⃗r) ≈ eβqϕ(⃗r)
qe−r/λD
ϕ(⃗r) = − (2.41)
r
lo cual inmediatamente se traduce en una energı́a potencial efectiva entre los electrones,
q 2 e−r/λD
Ueff (r) =
r
Ahora vemos que el efecto del plasma es introducir un factor exponencial en el numer-
ador, causando que el potencial sufra un rápido decaimiento en distancias r > λD . Este
efecto se llama apantallamiento y λD se conoce como la longitud de apantallamiento
de Debye. La derivación de (2.41) es auto-consistente si tenemos un gran número de
electrones dentro de una distancia λD hasta el origen de modo que podemos hablar tran-
quilamente de la densidad de carga promedio. Esto significa que necesitamos ρλ3D ≫ 1.
– 63 –
3. Gases Cuánticos
En esta sección discutiremos situaciones en las que los efectos cuánticos son impor-
tantes. Restringiremos nuestra atención a gases — es decir, un montón de partı́culas
moviéndose y apenas interactuando — pero una de las primeras cosas que veremos es
qué tan versátil puede ser la idea de un gas en el mundo cuántico. La usaremos para
entender no solamente los gases tradicionales que conocimos en la sección anterior, sino
también a la luz e, irónicamente, ciertas propiedades de los sólidos. En la última parte
de esta sección, veremos lo que le sucede a los gases a bajas temperaturas donde su
comportamiento se rige por la estadı́stica cuántica.
ℏ2 k 2 4π 2 ℏ2 2
E⃗n = = (n + n22 + n23 )
2m 2mL2 1
La pregunta es: ¿cómo hacemos esta suma? La manera más sencilla es aproximarla
por medio de una integral. Recordemos de la sección anterior que la longitud de onda
– 64 –
termal de la partı́cula se define como
s
2πℏ2
λ=
mkB T
Los exponentes que aparecen en la suma son todos de la forma ∼ λ2 n2 /L2 , salvo
algunos factores constantes. Para cualquier caja de tamaño macroscópico, λ ≪ L
(¡un serio eufemismo! De hecho, λ ≪≪ L) lo cual asegura que hay varios estados con
E⃗n ≤ kB T , donde todos contribuyen a la suma (habrá una excepción de esto a muy
bajas temperaturas, lo cual será el enfoque de la Sección 3.5.3). Por lo tanto, perdemos
muy poco al aproximar la suma por una integral. Podemos escribir esto como
Z Z Z ∞
X
3 V 3 4πV
≈ dn = 3
dk= 3
dk k 2
(2π) (2π) 0
⃗
n
donde, en la última igualdad, hemos integrado sobre las direcciones angulares para
obtener 4π, el área de una 2-esfera, dejando una integración sobre la magnitud k = |⃗k|
y el factor Jacobiano k 2 . Para futuras aplicaciones, cambiar las variables de integración
en este punto probará ser más útil. En su lugar, trabajamos con la energı́a,
ℏ2 k 2 ℏ2 k
E= ⇒ dE = dk
2m m
Ahora podemos escribir la integral como
Z Z r Z
4πV 2 V 2mE m
dk k = dE ≡ dE g(E) (3.1)
(2π)3 2π 2 ℏ2 ℏ2
donde
3/2
V 2m
g(E) = 2 E 1/2 (3.2)
4π ℏ2
es la densidad de estados: g(E)dE cuenta el número de estados con energı́a entre E
y E + dE. Notemos que realmente no hemos resuelto la integral sobre E en (3.1); en
cambio, esto se debe entender como una medida con la cual podemos integrar sobre
cualquier función f (E) de nuestra elección.
– 65 –
3.1.1 Sistemas Relativistas
Partı́culas relativistas que se mueven en d = 3+1 dimensiones de espacio-tiempo tienen
una energı́a cinética de
√
E = ℏ2 k 2 c2 + m2 c4 (3.3)
Repitiendo los pasos anteriores, encontramos que la densidad de estados se da por
VE √
g(E) = 2 3 3 E 2 − m2 c4 (3.4)
2π ℏ c
En particular, para partı́culas que carecen de masa, la densidad de estados es
V E2
g(E) = (3.5)
2π 2 ℏ3 c3
3.2 Fotones: Radiación de Cuerpo Negro
“Fue un acto de desesperación. Habı́a batallado con la teorı́a del cuerpo
negro durante seis años. Sabı́a que el problema era fundamental y conocı́a
la respuesta. Tenı́a que encontrar una explicación teórica a toda costa,
excepto por la inviolabilidad de las dos leyes de la termodinámica”
Max Planck
Ahora pasamos a nuestro primer gas realmente cuántico: la luz. Consideraremos
un gas de fotones — el cuanto del campo electromagnético — y determinaremos varias
de sus propiedades, incluyendo la distribución de longitudes. O, en otras palabras, su
color.
Describiremos el color de la luz a una temperatura fija. Pero esto también aplica
(con una pequeña excepción) al color de cualquier objeto a la misma temperatura.
El argumento para esto es como sigue: considere un objeto sumergido en un gas de
fotones. En equilibrio, el objeto se encuentra a la misma temperatura que los fotones,
emitiendo tantos fotones como absorbe. Por lo tanto, el color del objeto imitará aquel
de la luz que lo rodea.
Para un tema que trata totalmente sobre color, un gas de fotones usualmente recibe
un nombre bastante aburrido – radiación de cuerpo negro. La razón de esto es que
cualquier objeto real exhibirá lı́neas de emisión y absorción debido a su composición
atómica particular (esta es la excepción mencionada antes). No nos interesan estos
detalles; solo deseamos computar el espectro de los fotones que un cuerpo emite debido
a que está caliente. Por esta razón, a veces se habla de un cuerpo ideal que absorbe
fotones de cualquier longitud de onda y no refleja ninguno. A temperatura cero, tal
objeto parecerı́a negro: he ahı́ el nombre. Nos gustarı́a entender su color conforme
aumentamos la temperatura.
– 66 –
Para comenzar, necesitamos ciertos datos sobre los fotones. La energı́a de un fotón
se determina por su longitud de onda λ o, de manera equivalente, por su frecuencia
ω = 2πc/λ, y es
E = ℏω
Este es un caso especial de la fórmula relativista de la energı́a (3.3) para partı́culas
sin masa, m = 0. La frecuencia se relaciona con el vector de onda (con su magnitud)
ω = kc.
Los fotones tienen dos estados de polarización (uno para cada dimensión transversal
a la dirección de propagación). Para tomar esto en cuenta, la densidad de estados (3.5)
deberı́a de multiplicarse por un factor de dos. El número de estados disponibles para
un único fotón con energı́a entre E y E + dE es por lo tanto,
V E2
g(E)dE = dE
π 2 ℏ3 c3
De forma equivalente, el número de estados disponibles para un único fotón con fre-
cuencia entre ω y ω + dω es
V ω2
g(E)dE = g(ω)dω = 2 3 dω (3.6)
π c
donde nos hemos dado un pequeño gusto y hemos abusado un poco de la notación
pues g(ω) no es la misma función que g(E) y sin embargo está definida por la ecuación
anterior. También vale la pena mencionar que hay un error muy común que uno
puede cometer al hacer este tipo de manipulaciones con densidades de estado: uno
debe recordar reescalar el intervalo dE a dω. Esto se logra simplemente escribiendo
g(E)dE = g(ω)dω como lo hicimos antes. Si uno pasa esto por alto tendrá g(ω) mal
por un factor de ℏ.
El último punto a considerar es importante, este dice que los fotones no se conservan.
Si metemos seis átomos en una caja, estos seguirán ahı́ incluso si revisamos después de
un mes. Esto no aplica para los fotones. No hay razón alguna por la cual las paredes
de la caja no puedan absorber un fotón y luego emitir dos. El número de fotones en el
mundo no es constante. Para probar esto, simplemente es necesario apagar la luz.
– 67 –
Comenzaremos con fotones con frecuencia definida ω. Un estado con N de estos
fotones tiene energı́a E = N ℏω. Sumando sobre N resulta en una función de partición
para fotones con una frecuencia fija,
1
Zω = 1 + e−βℏω + e−2βℏω + . . . = (3.7)
1 − e−βℏω
Ahora necesitamos sumar sobre todas las posibles frecuencias. Como hemos visto en
– 68 –
Sin embargo, antes de integrar sobre frecuencias, hay información importante almace-
nada en el integrando. Este nos dice que la cantidad de energı́a que cargan los fotones
con frecuencias entre ω y ω + dω es
Vℏ ω3
E(ω)dω = 2 3 βℏω dω (3.10)
π c e −1
Esta es la distribución de Planck. Se muestra arriba para múltiples temperaturas.
Como se puede observar en la gráfica, para gases calientes el máximo de la distribución
ocurre a una longitud de onda menor o, de manera equivalente, a una frecuencia mayor.
Podemos determinar fácilmente este máximo encontrando la solución a dE(ω)/dω = 0,
que es
kB T
ωmax = ζ
ℏ
donde ζ ≈ 2.822 es la solución de 3 − ζ = 3e−ζ . A esta ecuación de arriba usualmente
se le llama ley de desplazamiento de Wien. En pocas palabras, nos dice el color de un
objeto caliente.
Para calcular la energı́a total del gas de fotones, es necesario hacer la integración
de (3.9). Para hacer énfasis en la dependencia de la energı́a con la temperatura, es
conveniente usar x = βℏω y ası́ obtener
V (kB T )4 ∞ x3 dx
Z
E= 2 3
π c ℏ3 0 ex − 1
R
La integral I = dx x3 /(ex − 1) es complicada pero realizable. Resulta ser I = π 4 /15.
Demostraremos esto más adelante en el curso al considerar una clase más general de
integrales (3.27) que pueden ser manipuladas a la forma de la suma (3.28). El resultado
de esto es la expresión de la integral I en términos de la función Gamma y de la función
zeta de Riemann: I = Γ(4)ζ(4) = π 4 /15). La densidad de energı́a E = E/V en un gas
de fotones es proporcional a T 4 ,
π 2 kB
4
E= T4
15ℏ3 c3
Ley de Stefan-Boltzmann
La expresión anterior para la densidad de energı́a esta ı́ntimamente relacionada con la
ley de Stefan-Boltzmann que describe la energı́a emitida por un objeto a temperatura
T . El flujo de energı́a está definido como la taza de transferencia de energı́a por unidad
de área de la superficie. Se da por
Ec
Flujo de Energı́a = ≡ σT 4 (3.11)
4
– 69 –
donde
π 2 kB
4
σ= = 5.67 × 10−8 Js−1 m−2 K −4
60ℏ3 c2
es la constante de Stefan.
F = −kB T log Z
V kB T ∞
Z
dω ω 2 log 1 − e−βℏω
= 2 3
π c o
Podemos deshacernos del logaritmo por medio de integración por partes para obtener,
Z ∞
Vℏ ω 3 e−βℏω
F =− 2 3 dω
3π c 0 1 − e−βℏω
Z ∞
Vℏ 1 x3
=− 2 3 4 4 dx x
3π c β ℏ 0 e −1
2
Vπ
=− (kB T )4
45ℏ3 c3
Desde esta expresión podemos calcular la presión debido a la radiación electromagnética,
∂F E 4σ 4
p=− = = T
∂V T 3V 3c
Esta es la ecuación de estado para un gas de fotones. La ecuación de en medio nos dice
que la presión de fotones es un tercio de la densidad de energı́a — un hecho que será
importante en el curso de Cosmologı́a.
– 70 –
También podemos calcular la entropı́a S y la capacidad calorı́fica CV . Ambas se
expresan de manera conveniente en términos de la constante de Stefan, la cual esconde
todos los factores molestos,
∂F 16V σ 3 ∂E 16V σ 3
S=− = T , CV = = T
∂T V 3c ∂T V c
3.2.2 Radiación del Fondo Cósmico de Microondas
El fondo cósmico de microondas, o CMB por sus siglas en inglés, es el resplandor
restante del Big Bang, una luz uniforme que permea el universo. La intensidad de
esta luz fue medida con alta precisión por el instrumento FIRAS (Espectrofotómetro
Absoluto del Infrarrojo Lejano) en el satélite COBE a comienzos de 1990. El resultado
se muestra abajo, junto con la curva teórica para el espectro de un cuerpo negro a
T = 2.725 K. Podrı́a parecer que las barras de error son muy grandes, pero esto solo
se debe a que han sido multiplicadas por un factor de 400. Si las barras de error se
hubieran mostrado del tamaño correcto ni siquiera serı́an visibles.
Este resultado es totalmente asombroso. La luz ha estado viajando por 13.7 mil
millones de años, casi desde el comienzo del tiempo mismo. Y aún ası́, podemos enten-
derla con una precisión ridı́cula con un cálculo simple. Si no estás asombrado por esta
gráfica, entonces no tienes alma. Puedes aprender más sobre esto en mis notas sobre
cosmologı́a.
– 71 –
Veamos que sucederı́a en un mundo clásico donde la luz de frecuencia ω pueda tener
una intensidad arbitrariamente baja y, correspondientemente, una energı́a arbitrari-
amente baja. Esto es precisamente lo que sucede en el régimen hω ≪ kB T de la
distribución de Planck, donde la energı́a mı́nima ℏω está totalmente opacada por la
temperatura. Entonces podemos aproximar
1 1
≈
eβℏω −1 βℏω
V
E(ω) = ω 2 kB T
π 2 c3
Notemos que todo rastro de la constante cuántica ℏ se ha desvanecido. Esta es la ley de
Rayleigh-Jeans para la distribución de la radiación clásica. Tiene un serio problema si
R∞
tratamos de extrapolarla a altas frecuencias dado que la energı́a total, E = 0 E(ω)dω,
diverge. A esto se le apodó la catástrofe ultravioleta. En contraste, en la fórmula de
Planck (3.10) hay una anulación exponencial en altas frecuencias. Esto emerge debido
a que cuando ℏω ≫ kB T , la temperatura no es lo suficientemente alta para crear si
quiera un fotón. Al imponer una energı́a mı́nima en estos modos con alta frecuencia,
la mecánica cuántica los fija en su lugar.
Max Planck
Veinte años después, Planck habı́a cambiado de parecer. En 1900, aplicó los métodos
estadı́sticos de Boltzmann a los fotones para llegar al resultado que derivamos arriba,
proporcionando las primeras pistas de la mecánica cuántica. Sin embargo, el elemento
– 72 –
clave de la derivación — que la luz viene en cuantos — no fue enfatizado por Planck.
Después, cuando la teorı́a cuántica fue desarrollada, Planck se negó una vez más a
aceptar la idea de que la probabilidad subyace a la fı́sica. Esta vez no cambió de
parecer.
3.3 Fonones
Es difı́cil imaginar substancias muy diferentes de un gas y de
un sólido. Es por lo tanto sorprendente que podamos utilizar
nuestro estudio de gases para entender con precisión ciertas
propiedades de los sólidos. Consideremos un cristal de átomos
de algún tipo, como se muestra en la figura. Los átomos in-
dividuales están fijos en su posición: ciertamente no actúan
como un gas. Pero las vibraciones de los átomos — en otras
palabras, ondas sonoras — pueden tratarse usando el mismo Figura 15:
formalismo que introducimos para fotones.
– 73 –
Denotaremos la frecuencia máxima permitida para los fonones como ωD . La longitud
de onda mı́nima, λD , deberı́a ser del orden del espaciado de la red atómica, que es
(V /N )1/3 , por lo que esperamos que ωD ∼ (N/V )1/3 cs . Pero ¿cómo podemos calcular
este coeficiente? Debido a Debye hay un argumento bastante ingenioso para determinar
ωD (tan ingenioso que logró que su letra inicial esté en la frecuencia y su nombre en
el nombre de la sección). Comenzamos por contar el número de estados de fonones
únicos,
Z ωD
V ω3
dω g(w) = 2 D3
0 2π cs
La parte ingeniosa del argumento es identificar esto con el número de grados de libertad
en el sólido. Esto no es inmediatamente obvio. El número de grados de libertad en
una red de N átomos es 3N pues cada átomo puede moverse en tres direcciones. Pero
el número de estados de fonones únicos es contar las vibraciones colectivas de todos los
átomos juntos. ¿Por qué deberı́an de ser iguales?
Para ver realmente lo que está sucediendo, uno deberı́a calcular los eigenestados de
energı́a de la red correctamente y simplemente contar el número de modos de fonones
únicos con vectores de onda dentro de primera zona de Brillouin (puedes aprender
todo sobre las zonas de Brillouin en las notas de clase del curso de Aplicaciones de
la Mecánica Cuántica). Pero para tener la intuición correcta, uno puede pensar de la
siguiente manera: en general, el sólido tendrá muchos fonones dentro de él y cada uno de
estos fonones puede estar en cualquiera de los estados únicos de fonones que contamos
antes. Supongamos que hay tres fonones asentados en el mismo estado. Decimos que
este estado está ocupado tres veces. En este lenguaje, cada uno de los estados anteriores
puede ser ocupado un número arbitrario de veces, restringido únicamente por la energı́a
disponible. Si uno quiere describir el estado total del sistema, necesita ver cuántos
fonones hay en el primer estado, y cuántos hay en el segundo, y ası́ sucesivamente. El
número de estados de un fonón está entonces jugando el papel de los grados de libertad:
es el número de cosas que puedes excitar.
Vemos que ωD se relaciona con el espaciado atómico (V /N )1/3 , como habı́amos antic-
ipado, pero ahora tenemos también el coeficiente. Sin embargo, en cierto sentido, el
argumento de Debye es un “análisis de la respuesta”. Se construyó para asegurarse que
tengamos el comportamiento correcto de la temperatura, como veremos abajo.
– 74 –
Para la frecuencia máxima ωD podemos construir una escala de energı́a asociada,
ℏωD , y una escala de temperatura,
ℏωD
TD =
kB
Esto se conoce como la temperatura de Debye. Provee una forma de caracterizar a
todos los sólidos: es la temperatura a la cual el fonón de máxima energı́a se excita.
La temperatura TD puede ser desde 100 K para materiales muy suaves como el plomo,
hasta 2000 K para materiales más duros como el diamante. La mayorı́a de los materiales
tienen temperaturas de Debye al rededor de la temperatura ambiente (±100K o ası́).
– 75 –
Figura 16: Datos experimentales para las capacidades calorı́ficas. La lı́nea sólida es la
predicción de Debye. (Fuente: D. Schroeder An Introduction to Thermal Physics)
– 76 –
conducción de los electrones que calcularemos en la Sección 3.6). La capacidad calorı́fica
de tres materiales se muestra en la Figura 16, junto con las predicciones del modelo de
Debye. Como se puede ver, ¡Funciona bastante bien! La desviación del valor teórico
en altas temperaturas se debe a las diferencias entre CV y Cp , la capacidad calorı́fica a
presión constante.
1 X 2 αX
H= u̇ + (ui − ui+1 )2
2m i i 2 i
donde α es un parámetro que gobierna la fuerza de los enlaces entre los átomos. La
ecuación de movimiento es
α
üi = (2ui − ui+1 − ui−1 )
m
Esto se resuelve fácilmente por medio de la transformada discreta de Fourier. Hacemos
el ansatz
1 X
ul = √ ũk ei(kla−ωk t)
N k
– 77 –
Insertando esto en la ecuación de movimiento obtenemos la relación de dispersión
r
α ka
ωk = 2 sin
m 2
Para obtener la función de partición de manera correcta en este modelo, tendrı́amos que
revisar la densidad de estados utilizando la nueva relación de dispersión E(k) = ℏωk .
Las integrales resultantes son complicadas. Sin embargo, a bajas temperaturas solo los
modos de frecuencia más pequeños están excitados y, para ka pequeño, la función seno
es aproximadamente lineal. Esto significa que regresamos a la relación de dispersión
que utilizamos
p en el modelo de Debye, ω = kcs , con la velocidad del sonido dada por
cs = a α/m. Además, a temperaturas muy altas es sencillo verificar que este modelo
da la ley de Dulong-Petit como se esperaba. Se desvı́a del modelo de Debye solo a
temperaturas intermedias e, incluso aquı́, esta desviación es despreciable.
Comencemos con los modos rotacionales, descritos por el hamiltoniano (2.18). Tratando
esto como un hamiltoniano cuántico, tiene niveles de energı́a
ℏ2
E= j(j + 1) j = 0, 1, 2, . . .
2I
La degeneración de cada nivel es 2j + 1. Entonces la función de partición rotacional
para una sola molécula es
∞
2
X
Zrot = (2j + 1)e−βℏ j(j+1)/2I
j=0
– 78 –
lo cual concuerda con nuestro resultado de la función de partición clásica (2.19).
Por otra parte, para T ≪ ℏ2 /2IkB todos los estados excepto el de j = 0 se desacoplan
y tenemos simplemente Zrot ≈ 1. A estas temperaturas, los modos rotacionales están
congelados a temperaturas accesibles en experimentos, ası́ que solo los modos trasla-
cionales contribuyen a la capacidad calorı́fica.
Este análisis también explica porque no hay una contribución rotacional a la ca-
pacidad calorı́fica de un gas monoatómico. Uno podrı́a intentar argumentar esto al
decir que los átomos son partı́culas puntuales, por lo que no pueden rotar. Pero esto
simplemente no es verdad. El argumento correcto es que el momento de inercia I de
un átomo es muy pequeño y los modos rotacionales están congelados. Argumentos
similares aplican a la rotación al rededor del eje de simetrı́a de moléculas diatómicas.
3.5 Bosones
Para los dos últimos temas de esta sección, regresaremos nuevamente al gas ideal
monoatómico simple. El tratamiento clásico que describimos en la Sección 2.2 tiene
– 79 –
limitaciones. Conforme la temperatura disminuye, la longitud de onda de De Broglie
termal,
s
2πℏ2
λ=
mkB T
se hace más grande. Eventualmente se vuelve comparable con la separación entre las
partı́culas, (V /N )1/3 . En este punto, los efectos cuánticos se vuelven importantes. Si
las partı́culas no interactúan, realmente solo hay un efecto importante que debemos
considerar: la estadı́stica cuántica.
Recordemos que en mecánica cuántica las partı́culas son de dos clases: bosones y
fermiones. La categorı́a en la que cae cada partı́cula se determina por su espı́n, cortesı́a
del teorema de estadı́stica de espı́n. Partı́culas con espı́n entero son bosones. Esto
significa que cualquier función de onda debe de ser simétrica bajo el intercambio de dos
partı́culas,
Partı́culas con espı́n 21 -entero son fermiones. Tienen una función de onda antisimétrica,
– 80 –
pero n será ocupado por la mayorı́a de esta sección). Las energı́as para una partı́cula
son Er y asumiremos partı́culas que no interactúan. En ese caso, uno pensarı́a que para
expresar el estado del sistema completo, se debe especificar el estado de la partı́cula
1, de la partı́cula 2, etc. Sin embargo, esto es demasiado información, ya que las
partı́culas 1 y 2 son indistinguibles. Para especificar el estado del sistema completo, no
es necesario ponerle nombre a cada partı́cula. En lugar de esto, será suficiente decir
cuántas partı́culas están en el estado 1, cuántas en el estado 2, etc.
donde la suma es sobre todas las posibles maneras de dividir N partı́culas en estados
P
{nr } cumpliendo con la restricción r nr = N . Desafortunadamente, la necesidad de
imponer esta restricción hace la suma más complicada. Esto significa que la colectividad
canónica es un poco incómoda para trabajar con partı́culas indistinguibles. Resulta ser
mucho más fácil operar en el colectivo macrocanónico, donde introducimos un potencial
quı́mico µ y permitimos fluctuaciones en el número total de partı́culas N .
Nótese que hemos supuesto implı́citamente que la suma anterior converge, lo cual es
cierto solo si (Er − µ) > 0. Pero esto debe ser cierto para todos los estados Er .
Escogeremos nuestro estado base con energı́a E0 = 0, tal que la función de partición
macrocanónica para un gas de Bose tenga sentido solo si
µ<0 (3.16)
– 81 –
Desde esto podemos calcular el número promedio de partı́culas
1 ∂ X 1 X
N= log Z = ≡ ⟨nr ⟩
β ∂µ r
eβ(Er −µ) − 1 r
Recordemos las veces que hemos visto expresiones de la forma (3.17) en cálculos de
fotones y fonones — revise, por ejemplo, la ecuación (3.7). Esto no es una coincidencia:
ambos fotones y fonones son bosones, y el origen de este término en ambos cálculos
es el mismo: surge al sumar sobre el número de partı́culas en un mismo estado en
lugar de sumar sobre los estados para una misma partı́cula. Como mencionamos en
la sección sobre radiación de cuerpo negro, no es totalmente correcto pensar sobre los
fotones o fonones en el colectivo macrocanónico ya que sus números de partı́culas no se
conservan. No obstante, las ecuaciones son formalmente equivalentes si fijamos µ = 0.
z = eβµ (3.18)
– 82 –
Desde esto, junto con la distribución de Bose-Einstein, podemos fácilmente calcular el
número total de partı́culas en el gas,
Z
g(E)
N = dE −1 βE , (3.20)
z e −1
Hay un punto evidente, pero importante, que debemos entender sobre esta ecuación. Si
resolvemos la integral (y lo haremos próximamente) tendremos una expresión para el
número de partı́culas en términos del potencial quı́mico y la temperatura: N = N (µ, T ).
Eso significa que si mantenemos el potencial quı́mico fijo y variamos la temperatura,
entonces N va a cambiar. Sin embargo, en la mayorı́a de las situaciones experimentales,
N es fijo y trabajamos en el colectivo macrocanónico porque es matemáticamente más
sencillo. Pero nada es gratis. El precio a pagar es que tenemos que invertir la ecuación
(3.20) para expresarla de la forma µ = µ(N, T ). Después, al cambiar T , manteniendo
N fijo, µ va a cambiar también. Anteriormente hemos visto un ejemplo de esto en el
gas ideal cuando el potencial quı́mico se da por (2.14).
Podemos manipular esta última expresión haciendo integración por partes. Debido a
que g(E) ∼ E 1/2 , esto resulta
Z
2 Eg(E) 2
pV = dE −1 βE = E (3.22)
3 z e −1 3
Esta es implı́citamente la ecuación de estado. Sin embargo, todavı́a tenemos un poco
de trabajo que hacer. La ecuación (3.21) nos da la energı́a como función de µ y T . Para
cuando reescribamos (3.20), nos dará µ como función de N y T . Substituir ambas en
(3.22) nos dará la ecuación de estado. Simplemente tenemos que resolver las integrales...
– 83 –
z = eβµ ≪ 1. Pronto encontraremos el significado de esta expansión (aunque hay una
pista en el tı́tulo de esta sección). Veamos a la densidad de partı́culas (3.20),
3/2 Z ∞
E 1/2
N 1 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE − 1
3/2 Z ∞
ze−βE E 1/2
1 2m
= dE
4π 2 ℏ2 0 1 − ze−βE
3/2 ∞ √
Z
1 2m z
= dx xe−x (1 + ze−x + . . .)
4π 2 ℏ2 β 3/2 0
donde hemos hecho la simple sustitución x = βE. Las integrales son todas de tipo
Gaussianas y pueden ser evaluadas fácilmente al hacer otra sustitución de la forma
x = u2 . La respuesta final se puede expresar convenientemente en términos de la
longitud de onda termal λ,
N z z
= 3 1 + √ + ... (3.23)
V λ 2 2
Ahora que tenemos las respuesta, podemos preguntarnos qué hemos hecho realmente.
¿Qué clase de expansión es z ≪ 1? De la expresión de arriba, vemos que la expansión
es consistente únicamente si λ3 N/V ≪ 1, lo que quiere decir que la longitud de onda
termal es mucho menor que el espacio entre las partı́culas. Pero esto es verdad a altas
temperaturas, donde la expansión es z ≪ 1.
– 84 –
la densidad de energı́a es
3/2 Z ∞
E 3/2
E 1 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE − 1
3/2
Z ∞
1 2m z
= 2 2 5/2
dx x3/2 e−x (1 + ze−x + . . .)
4π ℏ β 0
3z z
= 3 1 + √ + ... (3.24)
2λ β 4 2
λ3 N 1 λ3 N
z= 1− √ + ...
V 2 2 V
1 λ3 N 1 λ3 N
3N
E= 1− √ + ... 1+ √ + ...
2β 2 2 V 4 2 V
λ3 N
pV = N kB T 1 − √ + ... (3.25)
4 2V
lo cual reproduce el gas ideal clásico, junto con un término que podemos identificar
como el segundo coeficiente virial en la expansión (2.21). Sin embargo, esta corrección
a la presión no ha surgido de ninguna interacción entre los átomos: es únicamente
debido a la estadı́stica cuántica. Nótese que el efecto de la estadı́stica bosónica en el
gas a altas temperatura es reducir la presión.
– 85 –
Recordemos que el número de densidad es dado por (3.20), por lo que lo escribimos
como
3/2 Z ∞
x1/2
N 1 2mkB T 1
= 2 2
dx −1 x ≡ 3 g3/2 (z) (3.26)
V 4π ℏ 0 z e −1 λ
donde la función g3/2 (z) es una clase de funciones que aparecen en la historia de los
gases de Bose,
Z ∞
1 xn−1
gn (z) = dx −1 x (3.27)
Γ(n) 0 z e −1
Estas funciones también se conocen como polilogaritmos y en ocasiones se denotan
como Lin (z) = gn (z). La función g3/2 es relevante para el número de partı́culas y la
función g5/2 aparece en el cálculo de la energı́a en (3.21). Para futuras referencias, la
√
función gamma tiene un valor Γ(3/2) = π/2. (No se debe confundir estas funciones
gn (z) con la densidad de estados g(E). No están relacionadas; simplemente tienen un
nombre similar).
Pero la integral que aparece en la última linea anterior no es más que la definición de
la función Γ(n). Esto quiere decir que podemos escribir
∞
X zm
gn (z) = (3.28)
m=1
mn
– 86 –
Vemos ahora que gn (z) es una función de z monotónicamente creciente. Además, en
z = 1, es igual a la función zeta de Riemann,
gn (1) = ζ(n)
Para nuestro problema particular será útil saber que ζ(3/2) ≈ 2.612.
√
Debido al peso E en el integrando, el estado base con E = 0 no contribuye a la
integral. Podemos usar la distribución de Bose-Einstein (3.17) para calcular el número
de estados que esperarı́amos estén perdidos porque se encuentran en este estado base
con E = 0.
1
n0 = (3.30)
z −1 −1
Para la mayorı́a de los valores de z ∈ (0, 1), hay solo un puñado de partı́culas que se
encuentran en este estado más bajo y no importa si los perdemos. Pero conforme z
se acerca mucho a 1 (queriendo decir que z ≈ 1 − 1/N ) tenemos entonces un número
macroscópico de partı́culas ocupando el estado base.
– 87 –
Es una simple cuestión de rehacer nuestro cálculo tomando en cuenta las partı́culas
en el estado base. La ecuación (3.26) se reemplaza por
V z
N= g3/2 (z) +
λ3 1−z
Ahora no hay problema al mantener N fijo conforme tomamos z cercano a 1 porque el
término adicional diverge. Esto significa que si tenemos un número finito N , entonces
conforme disminuyamos T , nunca podrı́amos llegar a z = 1. En su lugar, z debe
asentarse al rededor de z ≈ 1 − 1/N conforme T → 0.
– 88 –
(Este no es un estado tal que k = 0 debido a la trampa magnética finita y la relación de
incertidumbre de Heisenberg). Los cientı́ficos que descubrieron los BECs, Eric Cornell
y Carl Wieman de Boulder y Wolfgang Ketterle de MIT, recibieron el premio Nobel de
la fı́sica en 2001.
– 89 –
3.5.4 Capacidad Calorı́fica: Un Primer Vistazo a las Transiciones de Fase
Intentemos comprender a detalle lo que sucede cuando sobrepasamos la temperatura
crı́tica Tc . Nos concentraremos en el comportamiento de la capacidad calorı́fica en cada
lado de la temperatura crı́tica.
Comencemos con la parte sencilla. Por debajo de la temperatura crı́tica, T < Tc , solo
el primer término en (3.33) contribuye y podemos poner z = 1. Esto da la capacidad
calorı́fica,
15V kB
CV = ζ(5/2) ∼ T 3/2 (3.34)
4λ3
Ahora vemos el caso T > Tc . Aquı́ tenemos z < 1, ası́ que g5/2 (z) < g5/2 (1). También
tenemos que dz/dT < 0. Esto quiere decir que la capacidad calorı́fica disminuye para
T > Tc . Pero sabemos que para T < Tc , CV ∼ T 3/2 , ası́ que la capacidad calorı́fica
debe de tener un máximo en T = Tc . Nuestra meta en esta sección es entender un poco
mejor cómo se ve la función CV en esta región.
′
Para calcular el segundo término en (3.33) necesitamos entender ambos g5/2 y como
z cambia con T conforme nos acercamos a Tc desde arriba. El primer cálculo es fácil si
usamos nuestra expresión (3.28),
∞
X zm d 1
gn (z) = ⇒ gn (z) = gn−1 (z) (3.35)
m=1
mn dz z
– 90 –
Conforme T → Tc desde arriba, dg5/2 /dT → ζ(3/2), una constante. Todas las sutilezas
yacen en el término restante, dz/dT . Después de todo, esta es la cantidad que efecti-
vamente se desvanece para T < Tc . ¿Qué hace en T > Tc ? Para entender esto es un
poco más complicado. Comenzamos con nuestra expresión (3.26),
N λ3
g3/2 (z) = T > Tc (3.36)
V
y preguntaremos lo que le sucede a la función g3/2 (z) conforme z → 1, manteniendo
N constante. Sabemos que exactamente en z = 1, g3/2 (1) = ζ(3/2). Pero, ¿cómo
se aproxima a este valor? Para responder esto, es de hecho más sencillo analizar la
derivada dg3/2 /dz = g1/2 /z, donde
Z ∞
1 x−1/2
g1/2 (z) = dx −1 x
Γ(1/2) 0 z e −1
La razón para hacer esto es que g1/2 diverge conforme z → 1 y es generalmente más
fácil aislar las partes divergentes de una función que un fragmento finito. En efecto,
podemos hacer esto de manera directa para g1/2 al observar la integral cercana a x = 0,
podemos escribir
Z ϵ
1 x−1/2
g1/2 (z) = dx −1 + finito
Γ(1/2) 0 z (1 + x) − 1
Z ϵ
z x−1/2
= dx + ...
Γ(1/2) 0 (1 − z) + x
Z ϵ
2z 1 1
= √ du + ...
1 − z Γ(1/2) 0 1 + u2
p
donde, en la última lı́nea, hicimos una sustitución u = x/(1 − z). Ası́ aprendemos
que conforme z → 1, g1/2 (z) → z(1 − z)−1/2 . Pero esta es suficiente información para
decirnos como g3/2 se aproxima a su valor en z = 1: debe ser que
g3/2 (z) ≈ ζ(3/2) + A(1 − z)1/2 + . . .
para alguna constante A. Insertando esto en nuestra ecuación (3.36) y reordenando,
encontramos que conforme T → Tc desde arriba,
2
N λ3
1
z ≈ 1 − 2 ζ(3/2) −
A V
3/2 !2
ζ(3/2)2 T
= 1− −1
A2 Tc
2
T − Tc
≈ 1−B
Tc
– 91 –
donde, en la segunda lı́nea, hemos usado la expresión para la temperatura crı́tica (3.29).
B es alguna constante que podrı́amos encontrar con un poco más de esfuerzo, pero
no será importante para nuestra historia. De la expresión anterior, ahora podemos
determinar dz/dT conforme T → Tc . Vemos que se desvanece linealmente en T = Tc .
Poniendo todo esto junto, podemos determinar la expresión para la capacidad calorı́fica
(3.33) cuando T > Tc . No estamos interesados en los coeficientes, ası́ que empaque-
taremos un montón de números de orden 1 en una constante b y el resultado final
es
15V kB T − Tc
CV = g5/2 (z) − b
4λ3 Tc
−1 −1
1 1 1
z= 1+ = 1+ (T < Tc )
n0 N 1 − (T /Tc )3/2
La diferencia es que mientras dz/dT es de orden uno por arriba de Tc , resulta ser de
orden 1/N por debajo de Tc . En el lı́mite termodinámico, N → ∞, esto resulta en
la discontinuidad que vimos arriba. Esto es una lección general: las transiciones de
fase con sus discontinuidades asociadas solo pueden surgir en sistemas estrictamente
infinitos. No hay transiciones de fase en sistemas finitos.
– 92 –
Superfluido de Helio-4
Una discontinuidad similar pero mucho más pro-
nunciada se ve en el Helio-4 cuando se vuelve un
superfluido, una transición que ocurre en 2.17 K.
El átomo contiene dos protones, dos neutrones
y dos electrones y es por lo tanto un bosón. (En
contraste, el Helio-3 contiene solo un neutrón y
es un fermión). Los datos experimentales para
la capacidad calorı́fica del Helio-4 se muestran a
la derecha. Las gráficas sucesivas tienen un ac-
ercamiento en la escala en la transición de fase: Figura 21: 4 He.
las escales son (de izquierda a derecha) Kelvin,
miliKelvin y microKelvin. La discontinuidad es a veces llamada la transición lambda
debido a la forma de la gráfica.
3.6 Fermiones
Para nuestro último tema, hablaremos sobre los gases de fermiones. Nuestro análisis
se concentrará solamente en fermiones sin interacciones. Aún ası́ este modelo propor-
ciona una aproximación sorprendentemente buena para un amplio rango de sistemas,
incluyendo electrones en metales a bajas temperaturas, Helio-3 lı́quido, enanas blancas
y estrellas de neutrones.
Los fermiones son partı́culas con espı́n 12 -entero. Por el teorema de la estadı́stica del
espı́n, se requiere que la función de onda del sistema adquiera un signo menos bajo el
– 93 –
intercambio de cualquier partı́cula,
gs = 2s + 1
Por ejemplo, los electrones tienen espı́n 21 y por lo tanto tienen una degeneración de
gs = 2, la cual precisamente corresponde a los estados de “espı́n arriba” y “espı́n abajo”.
– 94 –
Vimos factores de degeneración similares al calcular la densidad de estados para fotones
(los cuales tienen dos polarizaciones) y fonones (los cuales tienen tres). Para fermiones
no relativistas, la densidad de estados es
3/2
gs V 2m
g(E) = E 1/2
4π 2 ℏ2
La energı́a promedio es
Z
Eg(E)
E= dE
z −1 eβE
+1
Y la presión es
Z
1 2
pV = dE g(E) log 1 + ze−βE = E (3.39)
β 3
A altas temperaturas, es fácil repetir los pasos de la Sección 3.5.2. (Esta es una de
las preguntas en la hoja de problemas). Solamente unos cuantos signos cambian en el
procedimiento y se encuentra nuevamente que para z ≪ 1, nuestra ecuación de estado
se reduce a la de un gas clásico,
λ3 N
pV = N kB T 1 + √ + ... (3.40)
4 2gs V
Nótese que el signo negativo se filtra hasta la respuesta final: la primera corrección
cuántica a un gas de Fermi le incrementa la presión.
Es fácil saber lo que está sucediendo. Cada fermión que hemos agregado al sistema se
acomoda en el estado de menor energı́a disponible. Estos se van llenando hasta que nos
– 95 –
quedamos sin partı́culas. La energı́a del último estado lleno se llama energı́a de Fermi
y se denota como EF . Matemáticamente, es el valor del potencial quı́mico en T = 0,
µ(T = 0) = EF (3.41)
El llenar los estados de energı́a con fermiones es como aventar bolas a una caja, con
una excepción: los estados energéticos de las partı́culas libres no se localizan en el
espacio de posiciones; se localizan en el espacio de momentos. Esto significa que los
fermiones sucesivos se van acomodando en estados con cada vez más momento. De
esta manera, los fermiones llenan una bola en el espacio de momentos. Al momento del
último fermión se le llama momento de Fermi y se relaciona con la energı́a de Fermi
en la forma usual: ℏkF = (2mEF )1/2 . Todo estado con vector de onda |⃗k| ≤ kF están
llenos y se dice que forman el mar de Fermi o esfera de Fermi. Aquellos estados con
|⃗k| = kF existen en el borde del mar de Fermi, se dice que forman la superficie de
Fermi. El concepto de una superficie de Fermi es muy importante en aplicaciones para
la fı́sica de la materia condensada.
Podemos llegar a una expresión para la energı́a de Fermi en términos del número de
partı́culas N en un sistema. Para esto, debemos admitir que hemos abusado ligeramente
de la notación al escribir (3.41). En la colectividad macrocanónica, T y µ son variables
independientes: ¡no son funciones una de la otra! Lo que esa ecuación realmente
significa es que si queremos mantener fijo el número promedio de partı́culas N en el
sistema (lo cual efectivamente queremos), entonces a como variemos T , debemos variar
µ para compensar. Debido a esto, una manera un poco más clara para definir la energı́a
de Fermi es escribiéndola directamente en términos del número de partı́culas
Z EF 3/2
gs V 2m 3/2
N= dE g(E) = EF (3.42)
0 6π 2 ℏ2
O, invirtiendo términos,
2/3
ℏ2 6π 2 N
EF = (3.43)
2m gs V
La energı́a de Fermi define la escala energética para el sistema. Hay una escala de
temperatura equivalente, TF = EF /kB . La expansión en altas temperaturas que resultó
en la ecuación de estado (3.40) es válida a temperaturas T > TF . Por otra parte, a las
temperaturas T < TF se les considera “bajas” temperaturas para sistemas de fermiones.
Normalmente, estas bajas temperaturas no tienen por qué ser tan bajas: para electrones
en un metal, TF ∼ 104 K; para electrones en una enana blanca, TF > 107 K.
– 96 –
Mientras que EF es la energı́a ocupada por el último estado, la energı́a promedio del
sistema puede ser calculada fácilmente. Es
Z EF
3
E= dE Eg(E) = N EF (3.44)
0 5
De manera similar, la presión del gas degenerado de Fermi puede calcularse utilizando
(3.39),
2
pV = N EF (3.45)
5
Incluso a temperatura cero, el gas tiene presión distinta de cero, a la que se le conoce
n(E)
T=0 T << E F
1
E
EF
– 97 –
y
Z ∞
Eg(E)
E= dE (3.47)
0 z −1 eβE
+1
donde, para fermiones no relativistas, la densidad de estados es
3/2
gs V 2m
g(E) = 2 2
E 1/2
4π ℏ
Nuestra meta es primero entender como el potencial quı́mico µ, o de manera equivalente,
la fugacidad z = eβµ , cambia con la temperatura cuando N se mantiene fijo. Desde
esto podemos determinar como E cambia con la temperatura al mantener N fijo.
Hay dos maneras de hacer eso. La primera es directamente hacer una expansión
de Taylor para expresar (3.46) y (3.47) con un pequeño T . Sin embargo, esto resulta
ser un poco delicado dado que el lugar de donde empezamos, en T = 0, involucra la
distribución que se muestra en la parte izquierda de la Figura 22 y es fácil que los
fı́sicos se pierdan entre tantas integrales. Es por esto que comenzaremos desarrollando
una comprensión heurı́stica de cómo las integrales (3.46) y (3.47) se comportan a bajas
temperaturas, lo cual será suficiente para derivar los resultados deseados. Después
haremos la expansión más rigurosa – a veces llamada la expansión de Sommerfeld – y
confirmaremos que nuestra derivación más simple es correcta.
Veamos por qué este es el caso. El cambio en el número de partı́culas puede expresarse
como
Z ∞
dN d g(E)
= dE β(E−µ)
dT dT e +1
Z ∞ 0
d 1
= dE g(E)
0 dT eβ(E−µ) + 1
Z ∞
∂ 1
≈ g(EF ) dE
0 ∂T eβ(E−EF ) + 1
– 98 –
Hay dos cosas que sucedieron en el paso de la segunda lı́nea a la tercera. Primero,
estamos utilizando el hecho de que, para kB T ≪ EF , la distribución de Fermi-Dirac so-
lamente cambia significativamente en la vecindad de EF como muestra el lado derecho
de la Figura 22. Esto significa que la integral de en medo de la ecuación de arriba sola-
mente recibe contribuciones en la vecindad de EF y hemos usado esto para aproximar
la densidad de estados g(EF ). Segundo, utilizamos nuestro resultado (3.48) para reem-
plazar la derivada total d/dT (que actúa sobre el potencial quı́mico) con la derivada
parcial ∂/∂T (que no toca a µ) y el potencial es entonces reemplazado con su valor a
temperatura cero EF .
Pero esta vez no reemplazamos simplemente Eg(E) por EF g(EF ), sino que hicimos
una expansión de Taylor para incluir un término lineal en (E − EF ). (El factor de 3/2
surge ya que Eg(E) ∼ E 3/2 ). El primer término EF g(EF ) en corchetes desaparece por
el mismo argumento sobre términos pares e impares que hicimos anteriormente, pero
el término (E − EF ) sobrevive
– 99 –
Más importante es el hecho de que esta integral solo devuelve un coeficiente en el cual
no nos estaremos concentrando. El resultado final para la capacidad calorı́fica es
CV ∼ T g(EF )
Hay una forma simple de entender intuitivamente este comportamiento lineal. A tem-
peraturas bajas, solo los fermiones con energı́a cercana a EF por kB T , son los que par-
ticipan en la fı́sica. El número de estas partı́culas es ∼ g(EF )kB T . Si cada una tiene
una energı́a ∼ kB T , entonces la energı́a total del sistema crece como E ∼ g(EF )(kB T )2 ,
lo que resulta en la capacidad calorı́fica lineal que encontramos arriba.
– 100 –
Para muchos metales, el coeficiente γ de la ca-
pacidad calorı́fica lineal es lo suficientemente cercano
al valor del gas ideal (dentro de, digamos, 20% o ası́).
Aún ası́ los electrones en un metal están muy lejos de
ser libres: la energı́a de Coulomb de sus interacciones
es al menos tan importante como la energı́a cinética.
Ası́ que ¿por qué la aproximación del gas ideal funciona
tan bien? Esto fue explicado en los 1950s por Landau
y la teorı́a resultante — usualmente llamada teorı́a de Figura 23: La capacidad
lı́quidos de Fermi de Landau — es la base de nuestra calorı́fica del cobre (tomado de
comprensión actual de los sistemas de electrones. A. Tari “The Specific Heat of
Matter at Low Temperatures”)
3.6.4 Un Tratamiento Más Riguroso: La Ex-
pansión de Sommerfeld
A pesar de que la discusión de la Sección 3.6.3 usa algunas aproximaciones, enfatiza la
fı́sica del gas de Fermi a bajas temperaturas. Por completitud, aquı́ presentamos una
derivación más rigurosa de la expansión a bajas temperaturas.
Para comenzar, introducimos una nueva notación para el número de partı́culas y las
integrales de energı́a, (3.46) y (3.47). Escribimos,
3/2 Z ∞
E 1/2
N gs 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE + 1
gs
= 3 f3/2 (z) (3.50)
λ
y
3/2 Z ∞
E 3/2
E gs 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE + 1
3 gs
= kB T f5/2 (z) (3.51)
2 λ3
p
donde λ = 2πℏ2 /mkB T es la longitud de onda termal familiar y las funciones fn (z)
son los análogos fermiónicos de gn definidos en (3.27),
Z ∞
1 xn−1
fn (z) = dx −1 x (3.52)
Γ(n) 0 z e +1
√ √
donde es útil recordar Γ(3/2) = π/2 y Γ(5/2) = 3 π/4 (lo cual sigue, por supuesto,
de la propiedad Γ(n + 1) = nΓ(n)). Esta función es un ejemplo de un polilogaritmo y
en ocasiones se escribe como Lin (−z) = −fn (z).
– 101 –
Expendiendo fn (z)
Ahora derivaremos la expansión z larga de fn (z), en ocasiones llamada la expansión de
Sommerfeld. La derivación es un poco larga. Comenzamos por dividir la integral dx
en dos partes,
βµ Z ∞
xn−1 xn−1
Z
Γ(n)fn (z) = dx −1 x + dx −1 x
0 z e +1 βµ z e +1
Z βµ Z ∞
xn−1
1
= dx xn−1 1 − + dx
0 1 + ze−x βµ z −1 ex + 1
Z βµ Z ∞
(log z)n xn−1 xn−1
= − dx + dx
n 0 1 + ze−x βµ z −1 ex + 1
Hasta ahora solo hemos moldeado la integral a una forma útil. Ahora hacemos uso
de la aproximación βµ ≫ 1. Primeramente, notamos que la primera integral tiene
una supresión eη1 en el denominador. Si reemplazamos el lı́mite superior de la integral
por ∞, la expresión cambia en un término de orden e−βµ = z −1 que es un término
que estamos dispuestos a ignorar. Con esta aproximación, podemos combinar las dos
integrales en una,
∞
(log z)n (βµ + η)n−1 − (βµ − η)n−1
Z
Γ(n)fn (z) = + dη
n 0 1 + eη
De lo cual obtenemos
∞
(log z)n
Z
η
Γ(n)fn (z) = + 2(n − 1)(log z)n−2 dη
n 0 eη +1
– 102 –
Nos queda una integral un poco más simple,
Z ∞ Z ∞
η ηe−η
dη η = dη
0 e +1 0 1 + e−η
Z ∞ X∞
= dη η e−mη (−1)m+1
0 m=1
∞
(−1)m+1 ∞
X Z
= 2
du ue−u
m=1
m 0
R∞
La integral en la última lı́nea es muy simple: 0 du ue−u = 1. Solo tenemos que hacer
la suma. Hay diferentes formas de manipular esto. Escogemos escribir,
1 1 1 1 1 1 1 1 1
1 − 2 + 2 − 2 ... = 1 + 2 + 2 + 2 + ... − 2 2 + 2 + 2 + ...
2 3 4 2 3 4 2 4 6
2 1 1
= 1 − 2 · 1 + 2 + 2 + ... (3.53)
2 2 3
– 103 –
Vemos que el potencial quı́mico es un máximo en T = 0 y disminuye a como crece T .
Esto es lo que se esperaba: recordemos que para cuando lleguemos al gas clásico, el
potencial quı́mico debe de ser negativo. Además, notemos que la corrección de orden
principal es cuadrática en temperatura en lugar de ser lineal, que concuerda con nuestra
declaración anterior (3.48).
R ∼ M −1/3
– 104 –
Esto es inusual. Normalmente si uno apila cosas, la pila se hace más grande. Esto no
se da para estrellas mantenidas por presión degenerativa. La atracción gravitacional
incrementada gana y causa que se encojan.
– 105 –
El término entre paréntesis en (3.57) es una mezcla interesante de constantes funda-
mentales asociadas con la teorı́a cuántica, relatividad y gravedad. En esta combinación,
se define la escala de masa llamada la masa de Planck,
ℏc
Mpl2 =
GN
Cuando las densidades de energı́a alcanzan la escala de Planck, los efectos de gravedad
cuántica son importantes, lo que significa que debemos pensar en la cuantización del
espacio-tiempo mismo. No hemos alcanzado este lı́mite en las enanas blancas. (Nos
quedamos cortos por 25 órdenes de magnitud más o menos). Sin embargo, la presencia
de la escala de Planck en el lı́mite de Chandrasekhar nos dice que ambos los efectos
cuánticos y gravitacionales se necesitan para entender las enanas blancas: la materia
es cuántica; la gravedad es clásica.
Wolfgang Pauli admitiendo con reluctancia que los electrones son fermiones
en una carta hacia Schrödinger.
Un electrón puede tener uno de dos estados de espı́n “arriba” o “abajo”. Denotaremos
el estado de espı́n con una categorización discreta: s = 1 para espı́n arriba y s = −1
para espı́n abajo. Con un campo magnético B ⃗ de fondo, a la energı́a cinética se le
agrega un término extra
Eespı́n = µB Bs (3.58)
donde µB = |e|ℏ/2m es el magnetón de Bohr. (No tiene nada que ver con el potencial
quı́mico, ¡no hay que confundirlos!).
– 106 –
Ya que los electrones de espı́n arriba y abajo tienen diferentes energı́as, sus números
de ocupación cambian. La ecuación (3.50) es reemplazada por
3/2 Z ∞
E 1/2
N↑ 1 2m 1
= 2 2
dE β(E+µ B−µ)
= 3 f3/2 (ze−βµB B )
V 4π ℏ 0 e B +1 λ
3/2 Z ∞
E 1/2
N↓ 1 2m 1
= 2 2
dE β(E−µ B−µ)
= 3 f3/2 (ze+βµB B )
V 4π ℏ 0 e B +1 λ
Lo que nos interesa es calcular la magnetización, la cual es una medición de cómo la
energı́a del sistema corresponde a un campo magnético,
∂E
M =− (3.59)
∂B
Dado que cada espı́n tiene energı́a (3.58), la magnetización es simplemente la diferencia
en el número de espines arriba y abajo,
µB V
M = −µB (N↑ − N↓ ) = − 3 f3/2 (ze−βµB B ) − f3/2 (zeβµB B )
λ
Para altas temperaturas y campos magnéticos suficientemente débiles, podemos aprox-
imar f3/2 (z) ≈ z como z → 0, tal que
2µB V z
M≈ sinh(βµB B)
λ3
Podemos eliminar el factor de z a favor del número de partı́culas,
2V z
N = N↑ + N↓ ≈ cosh(βµB B)
λ3
Y de aquı́ podemos determinar la magnetización para altas temperaturas,
M ≈ µB N tanh(βµB B)
Este es el mismo resultado que se calcula en el primer problemario utilizando el mod-
elo simple de dos estados. Vemos, de nuevo, que a altas temperaturas la estadı́stica
cuántica es irrelevante. La susceptibilidad magnética es una edición de qué tan fácil es
magnetizar una sustancia. Se define como
∂M
χ≡ (3.60)
∂B
Evaluando χ en el lı́mite de un campo magnético decreciente, encontramos que la
magnetización es inversamente proporcional a la temperatura,
N µ2B
χ(B = 0) =
kB T
A este comportamiento de 1/T , se le conoce como la ley de Curie. (Por Pierre, no por
Marie)
– 107 –
Los resultados anteriores se mantienen en el lı́mite de alta temperatura. Por otra
parte, a bajas temperaturas, los efectos de la superficie de Fermi se vuelven importantes.
Necesitamos solamente mantener el término de mayor orden en (3.54) para encontrar
3/2 3/2
µ2 V
µB V 2m 2m 1/2
3/2 3/2
≈ B2
M≈ (EF + µB B) − (EF − µB B) EF B
6π 2 ℏ2 2π ℏ2
Nótese que χ > 0. A los materiales que cumplen esto se les dice paramagnéticos:
en la presencia de un campo magnético, el magnetismo incrementa. Los materiales
paramagnéticos son atraı́dos a campos magnéticos aplicados. A efecto descrito arriba
se le conoce como paramagnetismo de Pauli.
1 ⃗ r)
2
H= p⃗ + eA(⃗
2m
Esto tiene una consecuencia inmediata: ¡un campo magnético no puede afectar la fı́sica
estadı́stica de un gas clásico! Esto se sabe de sustituir simplemente el hamiltoniano
anterior en la función de partición clásica (2.1). Un cambio simple en las variables
– 108 –
⃗ muestra que la función de partición clásica no depende de B.
p⃗′ = p⃗ + eA ⃗ A este
resultado (que también fue mencionado de una manera un poco distinta en el curso
de Dinámica Clásica) se le conoce el teorema de Bohr-van Leeuwen: mantiene que no
puede haber magnetismo clásico.
Veamos el cambio que los efectos cuánticos tienen en esta conclusión. Nuestro primer
objetivo es entender los estados de una partı́cula para el electrón inmerso en un campo
magnético constante de fondo. Este es un problema que también se presenta en el curso
de Aplicaciones de la Mecánica Cuántica. Es el problema de los niveles de Landau.
⃗ = (−By, 0, 0)
A (3.62)
ℏ2 ∂ 2
1 2
− + (ℏkx − eBy) f (y) = E ′ f (y) (3.63)
2m ∂y 2 2m
ℏ2 ∂ 2
1 2
− + mωc (y − y0 ) f (y) = E ′ f (y)
2
2m ∂y 2 2
– 109 –
Se vale preguntarse cómo es que apareció el oscilador armónico. La frecuencia del
ciclotrón ωc es la frecuencia a la cual los electrones dibujan órbitas clásicas de Larmor,
por esa parte hace un poco de sentido. Pero, ¿por qué estos se convirtieron en os-
ciladores armónicos en posiciones y0 y que dependen de kx ? La respuesta es que no hay
ningún significado profundo. Simplemente es un artefacto de nuestra elección de gauge
(3.62). De haber elegido un A ⃗ diferente que de lugar al mismo B, ⃗ nos encontrarı́amos
tratando de responder una pregunta distinta. La lección aquı́ está en que al lidiar con
potenciales de gauge, los pasos intermedios de un cálculo no siempre tienen significado
fı́sico. Solo el resultado final es importante. Veamos cuál es este en nuestro caso. La
energı́a de la partı́cula es
ℏ2 kz2
E = E′ +
2m
′
donde E es la energı́a del oscilador armónico,
′ 1
E = n+ ℏωc n∈Z
2
Estos niveles discretos son los que llamamos niveles de Landau, y son altamente degen-
erados. Para ver esto, nótese que kx está cuantizado en unidades de ∆kx = 2π/L. Esto
significa que podemos tener un oscilador armónico localizado cada ∆y0 = 2πℏ/eBL.
El número de estos osciladores que caben en una caja de longitud L es L/∆y0 . Esta es
la degeneración de cada nivel,
eBL2 Φ
≡
2πℏ Φ0
donde Φ = L2 B es el flujo total a través del sistema y Φ0 = 2πℏ/e es conocido como
el flujo cuántico magnético. (Nótese que el resultado anterior no incluye un factor de 2
por el la degeneración del espı́n del electrón).
– 110 –
Aplicaremos esta fórmula a la función,
βℏ2 kz2
Z
h(x) = dkz log 1 + exp − + βx
2m
µ2B
M =− g(EF )B
3
Esto es comparable con la contribución de Pauli (3.61), pero tiene signo opuesto. A las
sustancias con magnetización opuesta al campo magnético se les dice diamagnéticas:
ven repulsión al aplicarles campos magnéticos. El efecto derivado arriba se conoce como
diamagnetismo de Landau.
– 111 –
4. Termodinámica Clásica
Hasta el momento nos hemos enfocado en la mecánica estadı́stica, que estudia los
sistemas en términos de sus constituyentes microscópicos. En esta sección, daremos
un paso hacia atrás y veremos la termodinámica clásica. Esta es una teorı́a a la que
no le interesan los átomos y lo microscópico. En su lugar describe relaciones entre los
fenómenos macroscópicos observables que vemos directamente.
– 112 –
En la Sección 1, describimos brevemente la primera y la segunda ley de la ter-
modinámica ası́ como consecuencias de los principios subyacentes de la fı́sica estadı́stica.
A diferencia de las otras secciones, aquı́ nos pondremos en los zapatos de los cientı́ficos
Victorianos con grandes barbas, sombreros tontos y una ignorancia total sobre los
átomos. Presentaremos las cuatro leyes de la termodinámica como axiomas sobre los
cuales la teorı́a reposa.
• Las paredes que no son adiabáticas se dicen ser diatérmicas y dos sistemas sep-
arados por una pared diatérmica se dicen estar en contacto térmico. Una pared
diatérmica sigue siendo una pared, lo que significa que no se puede mover ni per-
mite la transferencia de partı́culas de un sistema a otro. Sin embargo, es lo único
especial que tiene y es suficiente para que permita la transferencia de calor (que
definiremos en breve) entre los sistemas. Ante la duda, piense en una hoja de
metal delgada.
Hasta ahora, no tenemos una definición de temperatura. Esto se provee por la ley
cero de la termodinámica, que establece que el equilibrio es una propiedad transitiva,
– 113 –
Ley Cero: Si dos sistemas, A y B, están en equilibrio con un tercer cuerpo C,
entonces también están en equilibrio entre ellos.
FAC (p1 , V1 ; p3 , V3 ) = 0
V3 = fAC (p1 , V1 ; p3 )
Ya que los sistemas B y C también están en equilibrio, también tenemos una restricción,
Estas dos condiciones de equilibrio nos dan diferentes expresiones para el volumen V3 ,
En este punto invocamos la ley cero, que nos dice que los sistemas A y B también deben
de estar en equilibrio, lo que significa que (4.1) debe de ser equivalente a la restricción
La ecuación (4.1) implica (4.2), pero esta última no depende de p3 . Lo que quiere decir
que p3 debe de aparecer en (4.1) de tal manera que se pueda cancelar en ambos lados.
Cuando se hace tal cancelación, (4.1) nos dice que hay una relación entre los estados
del sistema A y el sistema B.
θA (p1 , V1 ) = θB (p2 , V2 )
– 114 –
El argumento anterior realmente solo nos dice que existe alguna propiedad llamada
temperatura. Todavı́a nophay nada que nos diga el porqué de escoger θ(p, V ) como tem-
peratura y no, digamos θ(p, V ). En breve veremos que hay, de hecho, una elección
canónica para la temperatura que se define en términos de la segunda ley de la ter-
modinámica y una construcción llamada el ciclo de Carnot. Sin embargo, por el mo-
mento será suficiente elegir un sistema de referencia para definir la temperatura. La
elección estándar es la ecuación de estado del gas ideal (que, como hemos visto, es una
buena aproximación a los gases reales con bajas densidades),
pV
T =
N kB
4.2 La Primera Ley
La primera ley es simplemente la aserción de la conservación de la energı́a, junto con
el conocimiento de que hay más de una manera de cambiar la energı́a del sistema.
Usualmente se expresa de la siguiente manera
Lo que esta confusa oración nos dice es simplemente que hay otra función de estado
de sistema, E(P, V ). Esta es la energı́a. Podemos realizar una cantidad de trabajo W
en el sistema aislado de manera tan creativa como queramos: aplastarlo, revolverlo,
ponerle adentro un cable y un resistor con una corriente pasando. El método que
escojamos no importa: en todo caso, el cambio de energı́a es ∆E = W .
∆E = Q + W (4.3)
donde Q es la cantidad de energı́a que se transfiere al sistema aparte del trabajo real-
izado. Esta transferencia de energı́a surge por diferencias de temperatura. Se le llama
calor.
– 115 –
Proceso Cuasiestático
En la discusión anterior, la transferencia de energı́a puede ser tan violenta como uno
desee. No hay necesidad de que el sistema se encuentre en equilibrio mientras la energı́a
está siendo añadida: la primera ley tal como se expresó en (4.3) se refiere únicamente
a la energı́a al principio y al final.
dE = −
dQ + −
dW (4.4)
8
En un lenguaje más sofisticado, dE, −
dW y − dQ son uno-formas en el espacio de estados del
sistema. El diferencial dE es exacto; −
dW y −dQ no lo son.
– 116 –
Expresando el trabajo como − dW = −pdV también nos p
permite subrayar el significado del nuevo sı́mbolo − d. No B
hay función W (p, V ) que tenga “dW = −pdV ”. (Por Path II
ejemplo, uno podrı́a intentar W = pV pero eso resulta
en dW = −pdV − V dp que no es lo que queremos). La A Path I
notación −dW está ahı́ para recordarnos que el trabajo no
V
es un diferencial exacto.
[Link] (1959)
No hay duda que C.P. Snow tenı́a en mente la aserción de que la entropı́a incre-
menta. Sin embargo, esta es una consecuencia de la segunda ley, no el mismo axioma.
Realmente, todavı́a ni siquiera tenemos una definición termodinámica de entropı́a.
La esencia de la segunda ley es que hay una dirección preferida del tiempo. Hay
muchos procesos macroscópicos en la naturaleza que no pueden ser invertidos. Las
cosas se quiebran. Las lı́neas de la cara se vuelven más profundas. Las palabras una
vez dichas no pueden ser borradas. La segunda ley resume todas las observaciones de
ese tipo en una sola aserción sobre el movimiento del calor.
Procesos Reversibles
Antes de expresar la segunda ley, será útil concentrarnos en procesos que pueden suceder
sin problemas en ambas direcciones del tiempo. Estos son una clase especial de procesos
cuasiestáticos que pueden ser invertidos en el tiempo. Se les llama procesos reversibles.
– 117 –
Un proceso reversible debe estar en equilibrio en cada punto del recorrido. Esta es la
condición cuasiestática. Pero ahora tenemos la restricción extra de que no haya fricción
involucrada.
So de nuestro interés los procesos que se mueven en un ciclo de esta manera, regre-
sando a su punto de partida. Hechos de la manera correcta, convierten calor en trabajo,
y eso es muy útil. Podemos pensar en el trabajo como un pistón que se puede usar para
mantener andando a un tren de vapor. O un playstation. O un Gran Colisionador de
Hadrones.
Vale la pena elaborar sobre estas expresiones. Primero, todos tenemos objetos en
nuestras cocinas que transfieren calor de un ambiente frı́o a uno caliente: este es el
propósito de un refrigerador. El calor se extrae del interior del refrigerador cuando
está frı́o y se deposita fuera cuando está caliente. ¿Por qué no viola esto la declaración
de Clausius? La razón cae en las palabras ”únicamente”. El refrigerador tiene el
– 118 –
efecto adicional de crear electricidad. En lenguaje termodinámico, el refrigerador opera
porque le estamos dando ”trabajo”. Para entender el significado de la aserción hecha
por Clausius, pensemos mejor en poner un objeto caliente en contacto con uno frı́o. La
energı́a fluye de caliente a frı́o; nunca en la dirección opuesta.
Nuestra meta en esta sección es mostrar como estas descripciones de la segunda ley
nos permiten definir una cantidad llamada “entropı́a”.
TH TH Insulated TC Insulated
A B C D A
Isothermal Adiabatic Isothermal Adiabatic
expansion expansion compression compression
– 119 –
La clave para entender esto es apreciar que un ciclo reversible hace más que solo
extraer calor de un reservorio caliente. También, por necesidad, deposita calor en otra
parte. La energı́a disponible para trabajo es la diferencia entre el calor extraı́do y
el calor perdido. Para ilustrar esto, es muy útil considerar un tipo particular de ciclo
reversible llamado motor de Carnot. Esto es una serie de procesos reversibles, corriendo
en un ciclo y operando entre dos temperaturas TH y TC . Toma lugar en cuatro etapas
mostradas en caricatura en las Figuras 27 y 28.
p T
A
TH A B
B
TH
D D C
TC TC
C
V S
• Expansión adiabática BC. El sistema está ahora aislado, ası́ que no se absorbe
calor. Pero el gas puede seguirse expandiendo. Mientras lo hace, ambos la presión
y la temperatura disminuirán.
– 120 –
amos finalmente a nuestro punto inicial cuando el gas se encuentra nuevamente
a temperatura TH .
Al final de estos cuatro pasos, el sistema ha regresado a su sistema original. El calor
neto absorbido es QH − QC que debe de ser igual al trabajo realizado por el sistema.
Definimos la eficiencia η de un motor como la taza del trabajo realizado con el calor
absorbido del reservorio caliente,
W QH − QC QC
η= = =1−
QH QH QH
Idealmente, nos gustarı́a tomar todo el calor QH y convertirlo en trabajo. Tal
motor tendrı́a una eficiencia η = 1 pero vioları́a la declaración de Kelvin de la se-
gunda ley. Podemos ver el problema en el ciclo de Carnot: tenemos que depositar una
cantidad de calor QC de vuelta al reservorio frı́o conforme regresamos al estado orig-
inal. Y el siguiente resultado dice que el ciclo de Carnot es lo mejor que podemos hacer:
– 121 –
Ahora el corolario es sencillo de probar. Suponiendo que Ivor fuera reversible, podrı́amos
usar el mismo argumento de arriba para probar que ηIvor ≥ ηCarnot , ası́ que debe de ser
verdad que ηIvor = ηCarnot si Ivor es irreversible. Además, la eficiencia debe de ser una
función únicamente de las temperaturas ηCarnot = η(TH , TC ), simplemente porque son
las únicas variables en juego. □
La idea principal es considerar dos motores de Carnot. El primero opera entre dos
reservorios T1 > T2 ; el segundo entre los otros dos reservorios T2 > T3 . Si el primer
motor extrae calor Q1 entonces deberı́a soltar el calor Q2 de manera que
Q2 = Q1 (1 − η(T1 , T2 ))
Los argumentos anteriores nos dicen que η = ηCarnot es una función únicamente de T1
y T2 . Si el segundo motor toma ese mismo calor Q2 , debe entonces depositar el calor
Q3 en el reservorio a temperatura T3 , esto se da por
Q3 = Q2 (1 − η(T2 , T3 )) = Q1 (1 − η(T1 , T2 )) (1 − η(T2 , T3 ))
Pero también podemos considerar ambos motores trabajando juntos como un motor de
Carnot operando entre reservorios T1 y T3 . Este motor extraerı́a calor Q1 y liberarı́a el
calor Q3 con una eficiencia η(T1 , T3 ) tal que
Q3 = Q1 (1 − η(T1 , T3 ))
El combinar ambos resultados nos dice que la eficiencia debe ser una función que
obedece la ecuación
1 − η(T1 , T3 ) = (1 − η(T1 , T2 )) (1 − η(T2 , T3 ))
– 122 –
El hecho de que T2 se cancele en el lado derecho es suficiente para decirnos que
f (T2 )
1 − η(T1 , T2 ) =
f (T1 )
T2
η =1− (4.5)
T1
Lidiaremos primero con los cambios isotérmicos del gas ideal. Sabemos que la energı́a
del gas depende de la temperatura9 ,
3
E = N kB T (4.6)
2
Por lo que dT = 0 significa que dE = 0. La primera ley nos dice entonces que − dQ =
−
− dW . Para el movimiento a lo largo de la lı́nea AB en el ciclo de Carnot, tenemos
Z B Z B Z B Z B
− − N kB TH VB
QH = dQ = − dW = pdV = dV = N kB TH log (4.7)
A A A A V VA
9
Una confesión: estrictamente hablando, estoy usando información ilegal en el argumento de arriba.
El resultado E = 32 N kB T surge de la mecánica estadı́stica y si estamos pretendiendo realmente ser
cientı́ficos Victorianos deberı́amos hablar sobre la eficiencia del ciclo de Carnot sin este conocimiento.
Claro, podrı́amos simplemente medir la capacidad calorı́fica CV = ∂E/∂T |V para determinar E(T )
experimentalmente y proceder. Otra alternativa más matemática es notar que no es necesario usar esa
forma exacta de la energı́a para hacer nuestro argumento: solo necesitamos utilizar el hecho de que
la energı́a es una función exclusivamente de la temperatura: E = E(T ). Las partes isotérmicas del
ciclo de Carnot son trivialmente iguales y podemos reproducir (4.7) y (4.8). Las partes adiabáticas
no pueden resolverse de manera exacta sin el conocimiento de E(T ) pero sı́ es posible probar que
VA /VB = VD /VC , lo cual es todo lo que necesitamos para derivar la eficiencia (4.9).
– 123 –
De manera similar, el calor que se suelta a lo largo de la lı́nea CD en el ciclo de Carnot
es
VD
QC = −N kB TC log (4.8)
VC
Lo siguiente es analizar el cambio adiabático del ciclo. Dado que el sistema está aislado,
tenemos que − dQ = 0 y todo el trabajo se va hacia la energı́a: dE = −pdV . Mientras
tanto, desde (4.6), podemos escribir el cambio de energı́a como dE = CV dT donde
CV = 23 N kB , entonces
N kB T dT N kB dV
CV dT = − dV ⇒ =−
V T CV V
Después de integrar, sabemos que
T V 2/3 = constante
lo que nos dice que VA /VB = VD /VC . Pero esto significa que los factores de log(V /V )
se cancelan cuando tomamos la razón de los valores de calor. La eficiencia del motor
de Carnot para un gas ideal — y por lo tanto para cualquier sistema — se da por
QC TC
ηcarnot = 1 − =1− (4.9)
QH TH
Vemos entonces que, efectivamente, la eficiencia utilizando la temperatura del gas ideal
coincide con nuestra temperatura termodinámica (4.5).
4.3.3 Entropı́a
La discusión anterior estuvo restringida a ciclos de Carnot: ciclos reversibles operando
entre dos temperaturas. La segunda ley nos dice que no podemos transformar todo el
calor extraı́do como trabajo. Debemos sacrificar un poco. Para generalizar, cambiare-
mos un poco la notación para que Q siempre denote la energı́a que el sistema absorbe.
Si el sistema suelta calor, entonces Q es negativo. En términos de nuestra notación
anterior, Q1 = QH y Q2 = −QC . Adicionalmente, T1 = TH y T2 = TC . Entonces, para
todos los ciclos de Carnot,
2
X Qi
=0
i=1
Ti
– 124 –
Consideremos ahora el ciclo reversible mostrado en la figura, donde cortamos camino
del ciclo original. Del ciclo original de Carnot ABCD sabemos que
QAB QCD
+ =0
TH TC
Mientras tanto, Podemos ver el cuadrado EBGF como un mini ciclo de Carnot por lo
que también tenemos
QGF QEB
+ =0
TF G TH
¿Qué pasa si ahora consideramos el ciclo AEF GCD? Claramente QAB = QAE + QEB .
Pero también sabemos que el calor que se absorbe a lo largo del segmento F G es igual
al liberado en el segmento GF cuando corremos nuestro mini ciclo. Esto sucede debido
a que estamos tomando el mismo camino pero en direcciones opuestas, por lo que
QF G = −QGF . Combinando estos resultados con las dos ecuaciones anteriores tenemos
QAE QF G QCD
+ + =0
TH TF G TC
Si cortamos más y más camino, será conveniente considerar cualquier ciclo reversible
como construido por segmentos isotérmicos y adiabáticos infinitesimalmente pequeños.
Sumando todas las contribuciones Q/T a lo largo del camino, aprendemos que el calor
total que se absorbe en cualquier ciclo reversible debe obedecer
I −
dQ
=0
T
Esta es una aserción muy importante. Significa que si cam- p
biamos de manera reversible nuestro sistema de estado A B
−
RB
a estado B, la cantidad A dQ/T será independiente del Path II
camino tomado. Cualquiera de los dos caminos mostrados
en la figura darán el mismo resultado: A Path I
Z −
dQ
Z −
dQ
= V
Path I T Path II T
Dado un estado de referencia O, esto nos permite definir
una nueva función de estado. La llamamos entropı́a, S Figura 31:
Z A −
dQ
S(A) = (4.10)
0 T
La entropı́a depende solamente del estado del sistema: S = S(p, V ). Es independiente
del camino tomado para llegar a ese estado. Ni siquiera es necesario tomar un camino
reversible: siempre y cuando el sistema se encuentre en equilibrio, tiene una entropı́a
bien definida (por lo menos relativa a algún estado de referencia).
– 125 –
No hemos mencionado microestados para definir entropı́a. Sin embargo, esta es
claramente la misma cantidad que conocimos en la Sección 1. De (4.10), podemos
escribir dS = −dQ/T , para que la primera ley de la termodinámica (4.4) sea escrita de
la forma (1.16),
dE = T dS − pdV (4.11)
Irreversibilidad
¿Qué podemos decir sobre caminos que no sean reversibles? Por el teorema de Carot,
sabemos que un motor irreversible que opera entre dos temperaturas TH y TC es menos
eficiente que un ciclo de Carnot. Usaremos la misma notación que en la demostración
del teorema de Carnot; el motor de Carnot extrae calor QH y libera el calor QC ; el
motor irreversible extrae calor Q′H y libera Q′C . Ambos hacen la misma cantidad de
trabajo W = QH − QC = Q′H − Q′C . Podemos entonces escribir
Q′H Q′C
QH QC ′ 1 1
− = − + (QH − QH ) −
TH TC TH TC TH TC
1 1
= (Q′H − QH ) − ≤0
TH TC
En la segunda lı́nea, hemos usado QH /TH = QC /TC para un ciclo de Carnot y para
llegar a la desigualdad hemos utilizado el resultado del teorema de Carnot, Q′H ≥ QH
(junto con el hecho de que TH > TC ).
El resultado anterior aplica para cualquier motor operando entre dos temperaturas.
Sin embargo, por el mismo método que usamos anteriormente de cortar camino de un
ciclo de Carnot, podemos fácilmente generalizar el resultado para cualquier camino,
reversible o irreversible. Colocando de vuelta los signos negativos para que el calor
liberado y el calor absorbido tengan signos opuestos, llegamos al resultado conocido
como la desigualdad de Clausius.
I −
dQ
≤0
T
Podemos expresar esto de una manera un poco más familiar. Suponga que tenemos dos
posibles caminos entre los estados A y B, como se muestra en la figura. El Camino I
(Path I) es irreversible mientras que el Camino (Path) II es reversible. La desigualdad
de Clausius nos dice que
I − Z − Z −
dQ dQ dQ
= − ≤0
T I T II T
Z −
dQ
⇒ ≤ S(B) − S(A) (4.12)
I T
– 126 –
Supongamos adicionalmente que el Camino I es adiabático, lo que significa que se
encuentra aislado del ambiente. Entonces −
dQ = 0 y vemos que la entropı́a de cualquier
sistema aislado nunca disminuye,
Encima de esto, si un proceso adiabático es reversible, entonces los dos estados resul-
tantes tendrán entropı́a equivalente.
De hecho, para los sistemas más simples como el gas ideal, que requiere solamente
dos variables p y V para especificar el estado, no necesitamos la segunda ley para
inferir la existencia de una superficie adiabática. En ese caso, la superficie adiabática
es realmente la lı́nea adiabática en el espacio de estados bidimensional. La existencia
de esta lı́nea surge directamente de la primera ley. Para ver esto, escribimos el cambio
de energı́a para un proceso adiabático utilizando (4.4) junto con − dQ = 0,
dE + pdV = 0 (4.14)
∂E ∂E
dE = dP + dV
∂p ∂V
– 127 –
Entonces la condición para un proceso adiabático (4.14) se convierte en
∂E ∂E
dp + + p dV = 0
∂p ∂V
Lo que nos dice que la pendiente de la lı́nea adiabática se da por
−1
dp ∂E ∂E
=− +p (4.15)
dV ∂V ∂p
La ventaja de este cálculo es que si estamos en un estado especificado por (p, V ) y
transferimos trabajo, pero no calor, al sistema entonces necesariamente nos movemos a
lo largo de una lı́nea en el espacio de estados determinada por (4.15). Si nos queremos
mover fuera de esta lı́nea, tenderemos que añadir calor al sistema.
dE = −
dQ − pdV − ydX
entonces podemos integrar esta ecuación para ver que nos estamos moviendo en la
superficie de una esfera,
– 128 –
Por otra parte, si nos movemos en una dirección infinitesimal que satisfaga la condición
Entonces, para sistemas de tres o más variables, la existencia de una superficie adiabática
no es garantizada únicamente por la primera ley. Se requiere la segunda ley. Esta ase-
gura la existencia de una función de estado S tal que los procesos adiabáticos se muevan
a lo largo de superficies con S constante. En otras palabras, la segunda ley nos dice
que (4.16) satisface (4.18).
De hecho, hay una manera más directa de inferir la existencia de superficies adiabáticas
que utiliza la segunda ley pero no necesita todo el procedimiento con los ciclos de
Carnot. Trabajaremos nuevamente con un sistema que se especifica con tres variables,
aunque el argumento aplicara para cualquier número. Ahora escogemos las variables
V , X y la energı́a interna E. Empezamos en el estado A que se muestra en la figura.
Demostraremos que la descripción de Kelvin de la segunda ley implica que no es posible
alcanzar ambos estados B y C a través de procesos adiabáticos reversibles. Lo impor-
tante de estos estados es que tienen los mismos valores de V y X y difieren solamente
en sus energı́as E.
– 129 –
Sin embargo, a diferencia del ciclo de Carnot, no devolvemos calor al ambiente en este
trayecto de regreso debido a que, como suponemos, este segundo camino también es
adiabático. El resultado final es que hemos extraı́do calor Q y lo hemos usado para
realizar trabajo W = Q. Esta es una contradicción con la descripción de Kelvin de la
segunda ley.
Lo que le falta a esta descripción es quizá el aspecto más importante de la segunda ley:
la dirección del tiempo. Sin embargo, esto puede ser remediado fácilmente agregando
la pieza adicional de información que dice qué lado de la superficie puede alcanzarse
con procesos irreversibles. En un lado de la superficie está el futuro, en el otro está el
pasado.
– 130 –
personajes interesantes, de los cuales más de uno encontró una razón para cambiar su
nombre en algún punto de la historia10 . .
Sin embargo, las primeras heridas en la teorı́a calórica ya habı́an aparecido antes
del siglo XIX debido al trabajo de Benjamin Thompson. Nacido en la colonia Inglesa
de Massachusetts, el CV de Thompson incluye trabajo como mercenario, cientı́fico y
humanitario. Él fue el inventor de la ropa interior térmica y pionero de la sopa de
cocina para los pobres. Para el final del siglo XVIII, Thompson vivı́a en Munich bajo
el glorioso nombre ”Conde Rumford del Sacro Imperio Romano Germánico”, donde
fue acusado de estar involucrado con artillerı́a para el Ejército de Prusia. Pero su
mente estaba ocupada en otras cosas. Al perforar cañones, Rumford se sorprendı́a de
la cantidad de calor que producı́a la fricción. Según la teorı́a de Lavoisier, este calor
deberı́a ser pensado como fluido calórico apachurrado desde el cañón. Sin embargo
parecı́a ser inagotable: cuando el cañón era agujereado una segunda vez, no habı́a
perdida en su habilidad de producir calor. Thompson/Rumford sugirieron que la causa
del calor no podı́a ser un calórico conservado. En lugar de esto, él atribuı́a el calor
correctamente, aunque de manera un poco crı́ptica, al “movimiento”.
– 131 –
nombre de nuevo a Sir Benjamin Thompson y ası́ fue como fundó la Institución Real
de Gran Brataña (Royal Institution).
Sin embargo, aparentemente Joule no fue el primero. Un año antes, en 1842, el médico
Alemán Julius von Mayer llegó a la misma conclusión mediante una investigación muy
distinta: sangrı́a. Trabajando en una embarcación en las Indias Orientales Holandesas,
Mayer se dio cuenta que la sangre en las venas de los marineros era más roja en
Alemania. Supuso que se debı́a a que el cuerpo necesitaba quemar menos combustible
para mantenerse caliente. No solo descifró básicamente como el proceso de oxidación
es responsable de proporcionarle la energı́a al cuerpo, pero, increı́blemente, fue capaz
de empujar esto hacia una comprensión de cómo el trabajo y el calor se relacionan. A
pesar de tener un entrenamiento cientı́fico limitado, usó su intuición junto con valores
experimentales conocidos sobre las capacidades calorı́ficas Cp y CV de los gases, para
determinar esencialmente el mismo resultado que Joule encontró con procedimientos
más directos.
– 132 –
Con Helmholtz, la primera ley fue esencialmente alcanzada. Faltaba la segunda.
Esta tomó otras dos décadas, con las piezas siendo juntadas por diferentes personas,
notablemente William Thomson y Rudolph Clausius.
William Thomson nació en Belfast pero se mudó a Glasgow a los 10 años. Vino a
Cambridge a estudiar pero rápidamente regresó a Glasgow donde permaneció por el
resto de su vida. Después de su trabajo como cientı́fico, ganó fama como ingeniero
involucrándose en los primeros cables transatlánticos. Por esto se convirtió en Lord
Kelvin, con el nombre elegido por el rı́o Kelvin que pasa cerca de la Universidad de
Glasgow. Él fue el primero en entender la importancia del cero absoluto y en definir
una escala termodinámica de temperatura que ahora lleva el nombre de su rı́o favorito.
Presentamos la formulación de Kelvin de la segunda ley de la termodinámica anterior-
mente en esta Sección.
En Alemania, Rudolph Clausius estaba desarrollando las mismas ideas que Kelvin.
Pero él logró ir más lejos y, en 1865, presentó el argumento termodinámico para la ex-
istencia de la entropı́a que vimos en la Sección 4.3.3. Clausius introdujo modestamente
la unidad “Clausius” (de sı́mbolo Cl) para la entropı́a, pero no fue adoptada.
Aunque tengamos la libertad de elegir las variables que queramos, algunas cantidades
son naturalmente mejor expresadas en términos de ciertas variables que de otras. Ya
hemos visto ejemplos tanto en la Sección 1 como en esta. Si estamos hablando de energı́a
E, es mejor indicar el estado en términos de S y V , entonces tendrı́amos E = E(S, V ).
En estas variables la primera ley queda en buena forma (4.11).
De manera equivalente, invirtiendo esto, la entropı́a debe ser pensada como una
función de E y V , tal que S = S(E, V ). Esto no solo es matemática bonita: también
tiene significado fı́sico ya que, como vimos anteriormente, a energı́as fijas la segunda
ley nos dice que la entropı́a nunca disminuye.
– 133 –
Los argumentos de la Sección 1.3 eran basados en una perspectiva microscópica de la
entropı́a. Pero con nuestro entendimiento termodinámico de la segunda ley, podemos
fácilmente repetir el argumento sin mencionar distribuciones de probabilidad. Consid-
eramos nuestro sistema en contacto con un reservorio de calor tal que la energı́a total
Etotal del sistema combinado es fija. La entropı́a combinada es entonces
∂F ∂F
dF = −SdT − pdV ⇒ = −S , = −p (4.19)
∂T V ∂V T
– 134 –
volúmenes pueden fluctuar pero el volumen total Vtotal del sistema y el reservorio com-
binados debe ser fijo. La entropı́a total es
G = F + pV = E + pV − T S (4.20)
dG = −SdT + V dp
– 135 –
4.4.1 Entalpı́a
Hay un último tipo de combinación que podemos considerar: sistemas con energı́a y
presión fijas. Estos sistemas son gobernados por la entalpı́a,
H = E + pV ⇒ dH = T dS + V dp
Hemos visto ambos resultados en la Sección 1. Es interesante también ver las derivadas
parciales mixtas, ∂ 2 E/∂S∂V = ∂ 2 E/∂V ∂S. Esto nos da a relación
∂T ∂p
=− (4.23)
∂V S ∂S V
– 136 –
Las cuatro relaciones de Maxwell (4.23), (4.24), (4.25) y (4.26) son increı́bles identi-
dades matemáticas que funcionan para cada sistema. Son particularmente útiles ya
que relacionan cantidades que son directamente medibles con esas que son más difı́ciles
de determinar experimentalmente, como la entropı́a.
∂CV ∂ 2p ∂Cp ∂ 2V
=T , = −T
∂V T ∂T 2 V ∂p T ∂T 2 p
∂V ∂p
Cp − CV = T
∂T p ∂T V
Esta última expresión tiene una simple consecuencia. Considere, como ejemplo, un gas
ideal que obedece pV = N kB T . Evaluando al lado derecho tenemos
Cp − Cv = N k B
Hay una razón intuitiva por la cual Cp es mayor que CV . Si a volumen constante
se agrega calor a un sistema, este se aprovecha en su totalidad para incrementar la
temperatura. Por otra parte, a presión constante, parte de esta energı́a causará la
expansión del sistema, ası́ realizando trabajo. Esto deja menos energı́a para subir la
temperatura, asegurando que Cp > CV .
– 137 –
ley, ocasionalmente llamada el postulado de Nernst, nos da una escala absoluta para
entropı́a. Usualmente se toma como
lim S(T ) = 0
T →0
De hecho podemos relajar esta escala para permitir entropı́a finita (pero densidad de
entropı́a S/N decreciente). Sabemos de la definición de Boltzmann que, a T = 0, la
entropı́a es simplemente el logaritmo de la degeneración del estado base del sistema. La
tercera ley requiere S/N → 0 tal que T → 0 y N → ∞. Esto nos dice que la entropı́a
del estado base no puede crecer extensivamente con N .
La tercera ley no tiene el mismo impacto que sus predecesores. Cada una de las
primeras tres leyes nos dan una nueva función de estado para el sistema: la ley cero nos
da la temperatura, la primera ley la energı́a, y la segunda ley la entropı́a. La tercera
ley no tiene esta recompensa.
Si pensamos en estos sistemas de manera cuántica, es fácil ver por qué la tercera
ley funciona. Un sistema que viole la tercera ley tendrı́a un muy grande – de hecho,
extensivo – número de estados base. Pero las degeneraciones grandes no se dan natu-
ralmente en la mecánica cuántica. Adicionalmente, incluso si ajustamos los parámetros
del hamiltoniano para tener muchos estados base, cualquier perturbación canceları́a la
degeneración, introduciendo discrepancias en la energı́a de los sistemas. Desde esta per-
spectiva, la tercera ley es una simple consecuencia de las propiedades de los problemas
de eigenvalores de las matrices grandes.
– 138 –
5. Transiciones de Fase
Una transición de fase es un cambio abrupto discontinuo en las propiedades de un
sistema. Ya hemos visto un ejemplo de una transición de fase en la condensación de
Bose-Einstein. En ese caso tuvimos que buscar detalladamente para ver la discon-
tinuidad: se estaba escondiendo en la derivada de la capacidad calorı́fica. En otras
transiciones de fase — muchas de las cuales ya son familiares — la discontinuidad es
más clara. Algunos ejemplos incluyen vapor que se condensa y se transforma en agua,
y esta se congela y se transforma en hielo.
– 139 –
A una temperatura intermedia, la perturbación se aplana tal que la curva de abajo
se ve como la de arriba. Esto sucede cuando el máximo y el mı́nimo se encuentran
para formar un punto de inflexión. Matemáticamente, buscamos una solución para
dp/dv = d2 p/dv 2 = 0. Es simple demostrar que estas dos ecuaciones solo tienen
solución en la temperatura crı́tica T = Tc tal que
8a
kB Tc = (5.2)
27b
Veamos a más detalle a la curva T < Tc . Para cierto rango de presiones, el sistema
puede tener tres diferentes opciones de volumen. Un tı́pico, pero exagerado, ejemplo
se muestra en la figura de abajo. ¿Qué está sucediendo? ¿Cómo debemos interpretar
el hecho de que el sistema aparenta vivir en tres densidades ρ = 1/v diferentes?
Nuestra derivación original de la ecuación de van der Waals era válida solo para
densidades mucho menores que las del estado lı́quido. Esto significa que no podemos
confiar en (5.1) para esta solución. A pesar de eso, es interesante que la ecuación
pueda predecir la existencia de los lı́quidos. Nuestro plan será entonces aceptar esta
– 140 –
consecuencia y explorar qué nos dice la ecuación de van der Waals para transiciones
de lı́quido a gas. Veremos que contiene información sobre muchas de las caracterı́sticas
cualitativas de una transición de fase.
¿Cómo sabremos si esto es cierto? Solo porque ambos estados puedan existir no
significa que pueden cohabitar. Puede ser que uno sea más probable que otro. Ya
hemos visto en la Sección 1 que algunas condiciones deben ser satisfechas para que
dos sistemas existan en equilibrio. Que dos dos temas tengan la misma presión y
temperatura garantiza respectivamente equilibrio mecánico y termal. Pero ambos tipos
de equilibrio ya eran garantizados para nuestras dos soluciones de lı́quido y gas: las dos
soluciones se encuentran en la mismo isoterma y en el mismo valor de p. Nos queda
solamente el requisito sobre el intercambio de partı́culas entre los sistemas. Este es el
requisito del equilibrio quı́mico,
Nótese que todas las condiciones de equilibrio involucran solamente cantidades in-
tensivas: p, T y µ. Esto significa que si tenemos alguna situación donde un lı́quido y
un gas estén en equilibrio, podremos tener cualquier número Nliquido de átomos en el
estado lı́quido y cualquiera Ngas en el estado gaseoso. ¿Cómo nos podemos asegurar de
que se satisfaga el equilibrio quı́mico (5.3)?
– 141 –
Construcción de Maxwell
Queremos resolver µlı́quido = µgas . Pensaremos en el potencial quı́mico como una función
de p y T : µ = µ(p, T ). Importante: ¡no asumiremos µ(p, T ) tiene un solo valor ya que
ello serı́a asumir el resultado que intentamos probar! En su lugar, demostraremos que
si fijamos T , la condición (5.3) solo se puede resolver para un valor muy particular de
p. Para ver esto, comencemos en el estado lı́quido a un valor fijo de p y T y avancemos
a lo largo de la isoterma. Un cambio infinitesimal en el potencial quı́mico es
∂µ
dµ = dp
∂p T
No obstante, podemos obtener una expresión para ∂µ/∂p recordando que los argumen-
tos que involucran variables extensivas e intensivas nos dicen que el potencial quı́mico
es proporcional a la energı́a libre de Gibbs: G(p, T, N ) = µ(p, T )N (4.22). Viendo
nuevamente la variación de la energı́a de Gibbs (4.21) sabemos que
∂G ∂µ
= N =V (5.5)
∂p N,T ∂p T
Debo confesar que hay algo un poco sospechoso sobre la construcción de Maxwell. Ya
hemos argumentado que parte de la isoterma con dp/dv > 0 no es estable ni fı́sicamente
real. Tuvimos que recorrer el camino de la curva para derivar este resultad, pero hay
maneras más rigurosas de llegar a esa conclusión.
Para cada isoterma podemos determinar la presión para la cuál los estados lı́quido y
gaseoso están en equilibrio. Esto nos da la curva de coexistencia que se muestra por la
lı́nea punteada en la Figura 37. Dentro de esta región, el gas y el lı́quido pueden existir a
– 142 –
la misma temperatura y presión, pero nada nos puede decir qué tanto de cada cantidad:
los átomos puede moverse fácilmente del estado lı́quido al gaseoso. Esto significa que,
mientras que la densidad de gas y de lı́quido son fijas, la densidad promedio del sistema
no lo es. Puede variar entre la densidad del gas y y la densidad del lı́quido simplemente
cambiando la cantidad de lı́quido. La ventaja de este argumento es que dentro de las
curvas de coexistencia las isotermas son lı́neas rectas, reflejando el hecho de que la
densidad puede tomar cualquier valor. Esto se muestra en la gráfica de la derecha en
la Figura 37.
p p
T=Tc T=Tc
v v
Figura 37: La curva de coexistencia en rojo resulta en regiones de presión constante que
consisten de una mezcla armónica de vapor y lı́quido.
– 143 –
Estados Metaestables
Hemos entendido qué reemplaza la región inestable del di-
agrama de fase de van der Waals, pero parece que hemos p
eliminado más estados de lo anticipado: partes de la isoterma
de van der Waals que tenı́an dp/dv < 0 se contienen en
la región de coexistencia y son reemplazadas por lı́neas
rectas de presión. Esta es la región del diagrama de fase
p-V que se contiene entra las dos lı́neas punteadas de la
v
figura en la derecha. La lı́nea punteada más grande es
la curva de coexistencia. La curva punteada encerrada se
Figura 39:
construye para pasar por los puntos estacionarios de las
isotermas de van der Waals. Se le llama la curva espinodal.
Los estados de van der Waals quese encuentran entre la curva espinodal y la curva
de coexistencia son buenos estados, pero son metaestables. Es posible mostrar que sus
energı́as de Gibbs son mayores que las del equilibrio lı́quido-gas a mismas p y T . Sin
embargo, si comprimimos lentamente el gas podemos impulsar el sistema hacia este
estado. Se le conoce como vapor sobreenfriado. Es muy delicado, cualquier pequeña
perturbación causará que alguna cantidad del gas se condense a lı́quido. De manera
similar, expandiendo un lı́quido más allá de la curva de coexistencia resulta en un
lı́quido sobrecalentado metaestable.
En cualquier lado de la lı́nea, todas las partı́culas están en la fase o gaseosa, o lı́quida.
Sabemos por (5.4) que las energı́as de Gibbs (por partı́cula) de estos dos estados es
igual,
glı́quido = ggas
– 144 –
Por lo que G es continua mientras nos movemos sobre la lı́nea de transiciones de fase.
Suponga que nos movemos a lo largo de esta lı́nea, ¿cómo cambia g? Podemos calcular
esto fácilmente usando (4.21),
Esto puede ser reacomodado para darnos una buena expresión para la pendiente de la
lı́nea de transiciones de fase en el plano p − T ,
dp sgas − slı́quido
=
dT vgas − vlı́quido
L = T (sgas − slı́quido )
Esta es la energı́a liberada por partı́cula durante la transición de fase. Vemos que la
pendiente de la lı́nea en el plano p − T es determinada por la razón de calor latente
liberado en la transición de fase y la discontinuidad del volumen. El resultado se conoce
como la ecuación de Clausius-Clapeyron.
dp L
= (5.6)
dT T (vgas − vlı́quido )
– 145 –
Para la mayorı́a de los materiales simples, el dia- p
grama de fase anterior es parte de un diagrama de fase
más grande que incluye sólidos a menores temperaturas o solid
mayores presiones. Una versión genérica de uno de estos liquid
diagramas se muestra en la derecha. La ecuación de van der
Waals no incluye la fı́sica de la solidificación y solamente
gas T
incluye la lı́nea lı́quido-gas.
Tc
Figura 41:
Una Solución Aproximada para la Ecuación de Clausius-
Clapeyron
Podemos resolver la ecuación de Clausius-Clapeyron al hacer las siguientes suposiciones:
• El calor latente L es constante.
• vgas ≫ vlı́quido , entonces vgas − vlı́quido ≈ vgas . Para el agua, este es un error menor
a 0.1%
– 146 –
La Ley de los Estados Correspondientes
Es posible invertir las relaciones (5.7) para expresar los parámetros a y b en términos
de valores crı́ticos, los cuales podremos sustituir de nuevo en la ecuación de van der
Waals. Para esto, definimos las variables reducidas
T v p
T̄ = , v̄ = p̄ =
Tc vc pc
La ventaja de trabajar con T̄ , v̄ y p̄ es que nos permite escribir la ecuación de van der
Waals (5.1) en una forma universal para todos los gases, usualmente conocida como la
ley de estados correspondientes
8 T̄ 3
p̄ = − 2
3 v̄ − 1/3 v̄
Adicionalmente, debido a que las tres variables Tc , pc y vc al punto crı́tico están expre-
sadas en términos de solamente las dos variables a y b (5.7), podemos construir una
combinación de ellas que sea independiente de a y b y por lo tanto aplicable para todos
los gases. Este es el factor universal de compresibilidad,
pc vc 3
= = 0.375 (5.8)
kB Tc 8
Figura 42: La curva de coexistencia para gases con valores mostrados para N e, Ar, Kr,
Xe, N2 , O2 , CO y CH4 .
Comparado con los gases reales, este número es ligeramente alto. Los valores van
aproximadamente desde 0.28 a 0.3. Pero no debemos desmotivarnos por esto; después
de todo, sabı́amos desde el principio que la ecuación de van der Waals no serı́a muy
– 147 –
precisa en el régimen de los lı́quidos. Adicionalmente, el hecho de que los gases tengan
un punto crı́tico (definido por las tres variables Tc , pc y vc ) garantiza que habrá una
relación similar para cualquier ecuación de estado con solo dos parámetros (como a y b)
pero que probablemente falları́a para ecuaciones de estado con más de dos parámetros.
Por más sospechosa que sea su base teórica, la ley de correspondencia de estados es
la primera sugerencia de que algo increı́ble sucede si describimos un gas en términos
de sus variables reducidas. Más importante es el hecho de que hay mucha evidencia
experimental para apoyar esto. La Figura 42 muestra la gráfica de Guggenheim, con-
struida en 1945. La curva de coexistencia para 8 gases diferentes se muestra en sus
variables reducidas: T̄ a lo largo del eje vertical; ρ̄ = 1/v̄ sobre el horizontal. Los
gases varı́an en complejidad, desde el gas monoatómico simple N e hasta la molécula
CH4 . Como se muestra, la curva de coexistencia para todos los gases es básicamente
la misma, con su composición quı́mica siendo mayormente independiente. Claramente
hay algo interesante aquı́ pero, ¿cómo podemos entenderlo?
Exponentes Crı́ticos
Nos concentraremos en la fı́sica cercana al punto crı́tico. No es inmediatamente ob-
vio cuáles son las preguntas correctas. Resulta que las respuestas más interesantes
corresponden a las preguntas sobre cómo las cantidades cambian a medida que nos
acercamos al punto crı́tico. Hay varias maneras de contemplar esto debido a que hay
muchas cantidades interesantes y, para cada una, podemos acercarnos al punto crı́tico
desde perspectivas diferentes. Veremos a continuación el comportamiento de tres can-
tidades para desarrollar intuición de lo que sucede.
8T̄ 3 8T̄ 3
p̄ = − 2
= − 2
3v̄lı́quido − 1 v̄lı́quido 3v̄gas − 1 v̄gas
Al despejar T̄ tenemos
Notemos que a medida que nos acercamos al punto crı́tico, v̄gas , v̄lı́quido → 1 y la ecuación
anterior nos dice que T̄ → 1, tal como esperábamos. Podemos ver exactamente cómo
– 148 –
nos acercamos a T̄ = 1 si expandimos el lado derecho de la ecuación para cuando
ϵ ≡ v̄gas − v̄lı́quido es muy pequeño. Para hacer esto, es conveniente notar que la ecuación
es simétrica en v̄gas y v̄lı́quido , por lo que en proximidad al punto crı́tico podemos escribir
v̄gas = 1 + ϵ/2 y v̄lı́quido = 1 − ϵ/2. Substituyendo esto en la ecuación anterior y
conservando únicamente el término de mayor orden, tenemos que
1
T̄ ≈ 1 − (v̄gas − v̄lı́quido )2
16
O, reorganizando, a medida que nos acercamos a Tc sobre la curva de coexistencia,
La segunda parte de nuestra pregunta es: ¿cómo cambia el volumen con la presión
a medida que nos movemos sobre la isoterma crı́tica? Resulta que podemos responder
esta pregunta sin hacer mucho. Notemos que en T = Tc , hay solo una presión para
cada volumen p(v, Tc ). Pero sabemos que ∂p/∂v = ∂ 2 p/∂v 2 = 0 en el punto crı́tico.
Entonces una expansión de Taylor al rededor del punto crı́tico debe comenzar con el
término cúbico
p − pc ∼ (v − vc )3 (5.10)
1 ∂v
κ=− (5.11)
v ∂p T
∂p
= −a(T − Tc ) + . . .
∂v T ;v=vc
Esto nos dice que la compresibilidad diverge en el punto crı́tico, creciendo tal que
κ ∼ (T − Tc )−1 (5.12)
– 149 –
Ahora tenemos tres respuestas para nuestras tres preguntas: (5.9), (5.10) y (5.12). ¿Son
correctas? Y con esto me refiero a: ¿concuerdan con experimentos? Recordemos que
no estamos seguros de que podamos confiar en la ecuación de van der Waals en el punto
crı́tico. Sin embargo, también hay razones para tener un poco de confianza. Notemos
que para calcular (5.10) y (5.12), no eran necesarios detalles sobre la ecuación de van
der Waals. Simplemente necesitábamos asumir la existencia de un punto crı́tico y una
expansión analı́tica de Taylor de varias cantidades en la región. Dado que las respuestas
surgen de bases tan generales, podemos esperar que brinden respuestas correctas para
un gas en la región del punto crı́tico a pesar de que sabemos que nuestras aproximaciones
de la ecuación de van der Waals no eran válidas ahı́. Afortunadamente, ese no es el
caso: ¡la fı́sica es mucho más interesante!
Los resultados experimentales para un gas en la región del punto crı́tico comparten
una caracterı́stica con lo dicho en nuestra discusión anterior: son completamente inde-
pendientes de la constitución quı́mica del gas. Sin embargo, el crecimiento que calcu-
lamos con la ecuación de van der Waals no es completamente preciso. Los resultados
correctos van de la siguiente manera. A medida que nos acercamos al punto crı́tico
sobre la curva de coexistencia, las densidades crecen de manera que
(Nótese que el exponente β no tiene nada que ver con el inverso de la temperatura.
Simplemente nos acercamos al final del curso y ya nos quedamos sin letras. Además,
β es el nombre canónico para este exponente). De manera que nos acercamos sobre la
isoterma,
p − pc ∼ (v − vc )δ para δ ≈ 4.8
Las cantidades β, γ y δ son ejemplos de exponentes crı́ticos. Veremos más sobre ellos
a continuación. La ecuación de van der Waals proporciona solo una cruda primera
aproximación a los exponentes crı́ticos.
Fluctuaciones
Hemos visto que la ecuación de van der Waals no funcionó nada mal para capturar la
dinámica de un gas en interacción. Obtiene el comportamiento cualitativo correcto,
– 150 –
pero falla en pruebas cuantitativas precisas. Entonces, ¿qué salió mal? Mencionamos
durante la derivación de la ecuación de van der Waals que hicimos ciertas aproxima-
ciones que solo son válidas a bajas densidades. Es por esto que podrı́a no ser sorpren-
dente que falle al obtener los números correctos cerca del punto crı́tico v = 3b. Pero
hay de hecho una razón más profunda por la que la ecuación de van der Waals falla:
fluctuaciones.
∂p
⟨N ⟩ = V
∂µ T,V
1 ∂⟨N ⟩
∆N 2 =
β ∂µ T,V
∆N 2 1 ∂⟨N ⟩ ∂µ 1 ∂⟨N ⟩
= =
N V β ∂µ T,V ∂p T,V V β ∂p T,V
Pero podemos reescribir esta expresión usando la relación general entre derivadas par-
ciales ∂x/∂y|z ∂y/∂z|x ∂z/∂x|y = −1. Entonces tenemos
∆N 2 1 ∂⟨N ⟩ 1 ∂V
=−
N β ∂V p,T V ∂p N,T
Esta expresión final relaciona las fluctuaciones en el número de partı́culas con la com-
presibilidad (5.11). Pero la compresibilidad es divergente en el punto crı́tico y esto
significa que hay fluctuaciones grandes en la densidad del fluido en este punto. El
resultado es que cualquier ecuación de estado de simple, como la ecuación de van der
Waals, que funciona solamente con el volumen, presión y densidad promedio pasará
por alto este detalle clave de la fı́sica.
– 151 –
Entender cómo tomar en cuenta estas fluctuaciones es el área de los fenómenos
crı́ticos. Tiene conexiones cercanas con el grupo de renormalización y teorı́a conforme
de campos que también emerge en la fı́sica de partı́culas y la teorı́a de cuerdas. Conocer-
emos algunas de estas ideas en el curso del siguiente año Teorı́a Estadı́stica de Campos.
Aquı́ nos concentraremos en una transición de fase diferente, lo cual nos permitirá re-
saltar algunas de las ideas clave.
Los espines están en un campo magnético que dota de una ventaja de energı́a a
aquellos que apuntan hacia arriba,
N
X
EB = −B si
i=1
La notación ⟨ij⟩ significa que sumamos sobre todos los pares de “vecinos más cercanos”
en la red. El número de tales pares depende en ambos la dimensión d y el tipo de red.
Denotaremos el número de vecinos cercanos como q. Por ejemplo, en d = 1 una red
tiene q = 2; en d = 2, una red cuadrada tiene q = 4. Una red cuadrada en d-dimensiones
tiene q = 2d.
– 152 –
Si J > 0, espines vecinos prefieren estar alineados (↑↑ ó ↓↓). En el contexto del
magnetismo, tal sistema se conoce como ferromagneto. Si J < 0, los espines buscan
quedar desalineados (↑↓). Esto es un antiferromagneto. A continuación, escogeremos
J > 0, aunque para el nivel de discusión necesario para este curso, las diferencias no
son muy significativas.
Para ver esto, consideremos la misma red d-dimensional que antes, pero ahora con
partı́culas dando vueltas entre sitios de la red. Estas partı́culas tienen núcleos duros,
por lo que no más de una puede existir en un único sitio de la red. Introducimos la
variable ni ∈ {0, 1} para especificar si un sitio de la red, llamado i, está vacı́o (ni = 0)
o lleno (ni = 1). Podemos también introducir una fuerza atractiva entre los átomos y
ofrecerles un premio energético si están en sitios vecinos. El hamiltoniano de tal gas en
red se da por
X X
E = −4J ni nj − µ ni
⟨ij⟩ i
donde µ es el potencial quı́mico que determina el número total de partı́culas. Pero este
hamiltoniano es trivialmente el mismo que el del Modelo de Ising (5.13) si identificamos
si = 2ni − 1 ∈ {−1, 1}
El potencial quı́mico µ en el gas de red juega el papel del campo magnético en el sistema
de espı́n mientras que la magnetización del sistema (5.15) mide la densidad promedio
de las partı́culas lejos del medio llenado.
– 153 –
5.2.1 Teorı́a de Campo Medio
Para redes generales, en dimensión arbitraria d, la suma (5.14) no se puede realizar.
Una solución exacta existe en d = 1 y, cuando B = 0, en d = 2. (La solución en
d = 2 se debe originalmente a Onsager y es ¡famosamente complicada! Soluciones más
sencillas usando técnicas modernas se han descubierto desde entonces).
si sj = [(si − m) + m][(sj − m) + m]
= (si − m)(sj − m) + m(sj − m) + m(si − m) + m2
La aproximación de campo medio quiere decir que asumimos que las fluctuaciones de
los espines lejos del promedio son pequeñas, lo cual nos permite ignorar los primeros
términos arriba. Notemos que esto no es una declaración de que la varianza de un
espı́n individual es pequeña; esto nunca puede ser verdad porque si toma valores +1
o −1 ası́ que ⟨s2i ⟩ = 1 y la varianza ⟨(si − m)2 ⟩ siempre es grande. En su lugar, la
aproximación del campo medio es una declaración sobre las fluctuaciones entre espines
en sitios vecinos, ası́ que el primer término arriba puede ser ignorado cuando se suma
P
sobre ⟨ij⟩ . Podemos escribir la energı́a (5.13) como
X X
Emf = −J [m(si + sj ) − m2 ] − B si
⟨ij⟩ i
1 X
= JN qm2 − (Jqm + B) si (5.16)
2 i
Bef = B + Jqm
– 154 –
m
m
tanh tanh
m0
−m0
Figura 43: tanh(Jqmβ) para Jqβ < 1 Figura 44: tanh(Jqmβ) para Jqβ > 1
Una vez que hemos tomado en cuenta esta contribución adicional a Bef , cada espı́n
actúa de manera independiente y es fácil escribir la función de partición. Esta es
1 2 N
Z = e− 2 βJN qm e−βBef + eβBef
1 2
= e− 2 βJN qm 2N coshN βBef (5.17)
Sin embargo, aún no hemos terminado. Nuestro resultado para la función de par-
tición Z depende de Bef que a su vez depende en m que aún no conocemos. Pero,
podemos utilizar nuestra expresión de Z para determinar de manera autoconsistente la
magnetización (5.15). Encontramos que,
Ahora podemos resolver esta ecuación y encontrar la magnetización para varios valores
de T y B: m = m(T, B). Es sencillo ver la naturaleza de las soluciones utilizando
métodos gráficos.
B=0
Consideremos primero la situación con un campo magnético nulo, B = 0. Las figuras
de arriba muestran la gráfica lineal en m comparada con la función tanh. Dado que
tanh x ≈ x − 13 x3 + . . ., la pendiente de la gráfica cerca del origen se da por βJq. Esto
entonces determina la naturaleza de la solución.
– 155 –
• La segunda gráfica muestra la situación para βJq > 1. Ahora hay tres soluciones:
m = ±m0 y m = 0. Resultará que la solución de en medio, m = 0, es inestable.
(Esta solución es completamente análoga a la solución inestable de la ecuación
de van der Waals. Veremos esto abajo cuando calculemos la energı́a libre). Para
las otras dos posibles soluciones, m = ±m0 , la magnetización es distinta de cero.
Aquı́ vemos como los efectos de las interacciones comienzan a dominar sobre la
temperatura. Notemos que en el lı́mite en el que se desvanece la temperatura,
β → ∞, m0 → 1. Esto quiere decir que todos los espines están apuntando en la
misma dirección (ya sea arriba o abajo) como se esperaba.
Puede que los resultados antes descritos sean sorprendentes. Basados en la intuición
de que las cosas en fı́sica siempre suceden de manera suave, uno podrı́a haber pensado
que la magnetización decaerı́a lentamente a cero conforme T → ∞. Pero esto no
sucede. En su lugar, la magnetización se apaga abruptamente en un valor finito de la
temperatura T = Tc , sin magnetización en absoluto para temperaturas altas. Este es
el comportamiento caracterı́stico de una transición de fase.
B ̸= 0
Para B ̸= 0, podemos resolver la ecuación de consistencia (5.18) de manera similar.
Existen varias diferencias clave con el caso B ̸= 0. Primeramente, no hay transición de
fase para un B fijo conforme variamos la temperatura T . En lugar de ello, para tem-
peraturas altas kB T ≫ Jq, la magnetización se aproxima suavemente a cero conforme
B
m→ as T → ∞
kB T
A temperaturas bajas, la magnetización es asintótica nuevamente al estado m → ±1, lo
cual minimiza la energı́a. Excepto que esta vez, no hay ambigüedad sobre si el sistema
escoge m = +1 o m = −1. Esto se determina totalmente por el signo del campo
magnético B.
De hecho, el comportamiento a bajas temperaturas requiere un poco más de expli-
cación. Para valores pequeños de B y T , hay nuevamente tres soluciones para (5.18).
Esto se tiene simplemente por continuidad: hay tres soluciones para T < Tc y B = 0
mostradas en la Figura 44 y estas deben de sobrevivir en una vecindad de B = 0.
Una de estas soluciones es nuevamente inestable. Sin embargo, de las dos restantes
solo una es estable: aquella con sgn(m) = sgn(B). La otra es meta-estable. Veremos
próximamente por qué este es el caso cuando discutamos la energı́a libre.
– 156 –
m m
+1 +1
B>0
T T
−1 −1 B<0
Podemos calcular los exponentes crı́ticos para el modelo de Ising. Para comparar con
nuestra discusión para el punto crı́tico del lı́quido-gas, calcularemos tres cantidades.
Primero, consideremos la magnetización en B = 0. Podemos preguntar cómo es que
esta magnetización disminuye conforme nos acercamos al punto crı́tico. Justo por
debajo de T = T − c, m es pequeño y podemos aplicarle a (5.18) una expansión de
Taylor para obtener
1
m ≈ βJqm − (βJqm)3 + . . .
3
– 157 –
p critical point
B
liquid
critical point
gas
T T
Tc Tc
Esto se debe comparar con el resultado análogo en (5.9) de la ecuación de van der
Waals. Vemos que los valores de los exponentes son iguales en ambos casos. Notemos
que la derivada dm/dT se vuelve infinita conforme nos aproximamos al punto crı́tico.
De hecho, ya habı́amos anticipado esto cuando dibujamos la gráfica de la magnetización
en la Figura 45.
m ∼ B 1/3 (5.21)
∂m
χ=N
∂B T
– 158 –
Esto es análogo a la compresibilidad κ del gas. Podemos preguntar cómo cambia χ
conforme nos acercamos → Tc desde arriba en B = 0. Derivamos (5.18) con respecto
de B para obtener
Nβ Jq
χ= 1+ χ
cosh2 βJqm N
Nuevamente, vemos el mismo exponente crı́tico que nos dio la ecuación de van der
Waals para el gas (5.12).
De hecho hay una versión del modelo de Ising para la cual la teorı́a del campo medio
es exacta: para la red de dimensión d = ∞. Eso ya no es fı́sica (incluso para un fı́sico
teórico de cuerdas). Por decirlo de una manera, la teorı́a del campo medio funciona
para d muy grande porque cada espı́n tiene un gran número de vecinos y efectivamente
ve algo cercano al espı́n promedio.
¿Qué hay de las dimensiones que sı́ nos interesan? La teorı́a del campo medio se
equivoca dramáticamente en d = 1. En ese caso, no ocurre ninguna transición de fase.
Derivaremos este resultado más abajo cuando describamos brevemente la solución ex-
acta para el modelo de Ising con d = 1. Esta es una lección general: en dimensiones
bajas, ambas las fluctuaciones termales y las cuánticas son más importantes e invari-
ablemente evitan que el sistema genere transiciones de fase ordenadas.
– 159 –
o B. Matemáticamente, las funciones deben de ser no-analı́ticas. Aún ası́ todas las
propiedades de la teorı́a pueden ser extraı́das de la función de partición Z que es una
suma de funciones analı́ticas y suaves, (5.14). ¿Cómo podemos obtener una transición
de fase? El detalle es que Z es necesariamente analı́tica solo si la suma es finita. Pero
no hay tal garantı́a cuando el número de sitios de la red N → ∞. Llegamos a una
conclusión similar a aquella del condensado de Bose-Einstein: las transiciones de fase
solo suceden estrictamente en el lı́mite termodinámico. No hay transición de fase en
sistemas finitos.
¿Qué hay de los exponentes crı́ticos que calculamos en (5.20), (5.21) y (5.22)? Resulta
que estos son correctos para el modelo de Ising definido en d ≥ 4. (Esbozaremos
brevemente por qué esto es verdad al final de este capı́tulo). Pero para d = 2 y
d = 3, los exponentes crı́ticos predichos por la teorı́a del campo medio son solo primeras
aproximaciones a las respuestas reales.
Pero estos son exactamente los exponentes crı́ticos que se ven en la transición de fase
del lı́quido-gas. ¡Eso es increı́ble! Vimos antes que el enfoque del campo medio para el
modelo de Ising da los mismos exponentes crı́ticos que la ecuación de van der Waals.
Pero son incorrectos. ¡Y lo son en la misma y complicada manera! ¿Por qué diantres
un sistema de espines en una red tendrı́a algo que ver con una transición de fase entre
lı́quido y gas? Es como si toda la memoria de la fı́sica microscópica — el tipo de
partı́culas, la naturaleza de las interacciones — se haya perdido en el punto crı́tico. Y
eso es exactamente lo que sucede.
Lo que estamos viendo es evidencia de una universalidad. Hay una única teorı́a que
describe la fı́sica en el punto crı́tico de la transición lı́quido-gas, el modelo de Ising 3d
– 160 –
y muchos otros sistemas. ¡Este es el sueño de un fı́sico teórico! Pasamos gran parte
del tiempo tratando de deshacernos de los detalles complicados de un sistema para
enfocarnos en los elegantes y esenciales. Pero, ¡en un punto crı́tico la naturaleza lo
hace por nosotros! A pesar de que los puntos crı́ticos en dos dimensiones se entienden
bien, hay aún mucho que no se sabe sobre puntos crı́ticos en tres dimensiones. Esto,
no obstante, es una historia que deberá esperar para otro dı́a.
Como mencionamos antes, hay una solución exacta para el modelo de Ising con-
siderando d = 1 y, cuando B = 0, para d = 2. Aquı́ describiremos la solución para
d = 1 pero no la solución completa para d = 2. Sin embargo, derivaremos un número
de resultados para el modelo de Ising con d = 2 que, a pesar de no ser la solución
completa, proveen perspectivas importantes para la fı́sica.
N N
X BX
E = −J si si+1 − (si + si+1 )
i=1
2 i=1
N
X X Y βB
Z= ... exp βJsi si+1 + (si + si+1 ) (5.23)
s1 =±1 sN =±1 i=1
2
– 161 –
La observación crucial que nos permite resolver el problema es que esta función de
partición se puede escribir como un producto de matrices. Adoptamos la notación de
mecánica cuántica y definimos la matriz de 2 × 2,
βB
⟨si |T |si+1 ⟩ ≡ exp βJsi si+1 + (si + si+1 ) (5.24)
2
La fila de la matriz se especifica por el valor de si = ±1 y la columna por si+1 = ±1. T
se conoce como la matriz de transferencia y, en notación más convencional, se da por
!
eβJ+βB e−βJ
T =
e−βJ eβJ−βB
P Q
La sumas sobre los espines si y el producto sobre los sitios de la red i en (5.23)
simplemente nos dicen que multipliquemos las matrices definidas en (5.24) y entonces
la función de partición se vuelve
Z = Tr (⟨s1 |T |s2 ⟩⟨s2 |T |s3 ⟩ . . . ⟨sN |T |s1 ⟩) = Tr T N (5.25)
donde la traza emerge porque hemos impuesto condiciones a la frontera periódicas. Para
completar la historia solo necesitamos calcular los eigenvalores de T para determinar
la función de partición. Un cálculo rápido muestra que los dos eigenvalores de T son
q
λ± = e cosh βB ± e2βJ cosh2 βB − 2 sinh 2βJ
βJ
(5.26)
donde, claramente, λ− < λ+ . Entonces la función de partición es
λN
−
Z = λ+ + λ− = λ+ 1 + N ≈ λN
N N N
+ (5.27)
λ+
donde, en el último paso, hemos usado el simple hecho de que si λ+ es el eigenvalor
más grande entonces λN N
− /λ+ ≈ 0 para N muy grande.
Vemos que la fı́sica real para d = 1 es muy diferente de aquella sugerida por la aproxi-
mación del campo medio. Cuando B = 0, ¡no hay magnetización! Mientras el término
J en la energı́a impulsa a los espines a alinearse, esto es completamente contrarrestado
por fluctuaciones termales para cualquier valor de la temperatura.
– 162 –
Hay una lección general en este cálculo: las fluctuaciones termales siempre dominan
en sistemas unidimensionales. Nunca exhibirán fases ordenadas y, por este motivo,
nunca exhiben transiciones de fase. La aproximación de campo medio es mala en una
dimensión.
La función de partición se da por la suma sobre todos los estados, ponderada por
−βE
e . A bajas temperaturas, esto siempre es dominado por los estados más bajos. Para
el modelo de Ising, tenemos
X X
Z= exp βJ si sj
{si } ⟨ij⟩
Los estados base son sencillos. Hay dos de ellos: espines todos arriba o espines todos
abajo. Por ejemplo, el estado base con todos los espines arriba se ve de la siguiente
forma
Los primeros estados excitados emergen al voltear un solo espı́n. Cada espı́n tiene
q = 4 vecinos más cercanos – denotados por lı́neas rojas en el ejemplo de abajo – cada
uno de los cuales genera un costo de energı́a de 2J. La energı́a de cada primer estado
– 163 –
excitado es entonces E1 = E0 + 8J.
Para proceder, introducimos un método de diagramas para listar los diferentes esta-
dos. Dibujamos solamente los enlaces “rotos” que conectan dos espines con orientación
opuesta y, como en el diagrama de arriba, denotamos estos por lı́neas rojas. Dibujamos
además los espines volteados como puntos rojos y los espines no volteados como puntos
azules. La energı́a del estado se determina simplemente por el número de lı́neas rojas
en el diagrama. Gráficamente, escribimos el primer estado excitado como
E1 = E0 + 8J
Degeneración = N
El siguiente estado más bajo tiene seis enlaces rotos. Este toma la forma
E2 = E0 + 12J
Degeneración = 2N
Las cosas son más interesantes para estados que están en un tercer nivel excitado.
Estos tienen 8 enlaces rotos. La configuración más simple consiste en dos espines
volteados y desconectados
E3 = E0 + 16J
(5.28)
Degeneración = 12 N (N − 5)
– 164 –
Hay otras tres gráficas con la misma energı́a E3 . Estas son
E3 = E0 + 16J
Degeneración = N
E3 = E0 + 16J
Degeneración = 2N
E3 = E0 + 16J
Degeneración = 4N
El añadir todas las gráficas anteriores nos da una expansión para la función de
partición en potencias de e−βJ ≪ 1. Esta es
2N βJ −8βJ −12βJ 1 2 −16βJ
Z = 2e 1 + Ne + 2N e + (N + 9N )e + ... (5.29)
2
donde el factor general de 2 surge de los dos estados base del sistema. Haremos uso de
los coeficientes especı́ficos de esta expansión en la Sección 5.3.4. Antes de concentrarnos
en la fı́sica escondida en la expansión de bajas temperaturas, vale la pena comentar
rápidamente sobre algo bastante bueno que sucede si tomamos el logaritmo de la función
de partición,
9
log Z = log 2 + 2N βJ + N e−8βJ + 2N e−12βJ + N e−16βJ + . . .
2
Notemos que el término N 2 en la función (5.29) se cancela y el log Z es proporcional
a N , lo cual es esperado ya que la energı́a libre del sistema es extensiva. En retro-
spectiva, vemos que el término N 2 venı́a asociado a los diagramas desconectados en
– 165 –
(5.28). De hecho hay una lección más general escondida aquı́: la función de partición
puede ser expresada como la exponencial de la suma de diagramas conectados. Vimos
exactamente la misma situación surgir en la expansión del clúster en (2.37).
Gotas de Peierls
El continuar la expansión a bajas temperaturas nos proporciona una explicación heurı́stica,
aunque fı́sicamente intuitiva, sobre por qué las transiciones de fase suceden en d ≥ 2
dimensiones pero no en d = 1. A medida que volteamos más y más espines, los estados
de baja energı́a se convierten en gotas, que consisten de una región del espacio en la que
todos los espines son invertidos, rodeados por un mar de espines con su alineamiento
original. El costo energético de cada una de estas gotas es aproximadamente
E ∼ 2JL
Degeneración ∼ eαL
para algún valor de α. Para ver esto, consideremos primero el problema de un camino
aleatorio en un arreglo cuadrado de dos dimensiones. En cada paso, podemos movernos
en alguna de cuatro dimensiones, por lo que el número de caminos de longitud L es
#caminos ∼ 4L = eL log 4
Claro, el perı́metro de una gota tiene más restricciones que un camino aleatorio. Para
empezar, el perı́metro no puede retroceder, por lo que realmente tiene tres direcciones
en las que se puede mover en cada paso. Adicionalmente, el perı́metro debe regresar a su
punto inicial después de L pasos. Finalmente, el perı́metro no puede tener intersecciones
consigo mismo. Es posible mostrar que el número de caminos que obedecen estas
condiciones es
#caminos ∼ eαL
donde log 2 < α < log 3. Debido a que la degeneración crece como eαL , la entropı́a de
las gotas es proporcional a L.
– 166 –
El hecho de que ambas la energı́a y la entropı́a crezcan como L significa que hay una
competencia interesante entre ellas. A temperaturas donde las gotas son importantes,
la función de partición es de la forma
X
Z∼ eαL e−2βJL
L
2J
kB Tc ≈ (5.30)
α
para la cual la función de partición ya no converge. Para este punto, la entropı́a gana
sobre el costo de energı́a y es favorable llenar el sistema de gotas de tamaños arbitrarios.
Es ası́ como vemos la transición de fase en la función de partición. Para temperaturas
arriba de Tc , la expansión de bajas temperaturas ya no nos funciona y la fase magnética
ordenada se destruye.
También podemos usar el argumento de las gotas para ver por qué las transiciones
de fase no ocurren en d = 1 dimensión. En una lı́nea, el borde de cada gota siempre
consiste solamente de dos puntos. Esto significa que el costo energético de formar una
gota es siempre E = 2J, independientemente del tamaño de la gota. Pero, debido a que
la gota puede existir en cualquier lugar de la lı́nea, su degeneración es N . El resultado
final es que la energı́a libre asociada con la creación de una gota crece tal que
F ∼ 2J − kB T log N
y, a medida que N → ∞, la energı́a libre es negativa para cada T > 0. Esto significa que
el sistema preferirá crear gotas de longitud arbitraria, tornando al azar a los espines.
Esta es la razón intuitiva de por qué no hay fases magnéticamente ordenadas en el
modelo de Ising para d = 1.
– 167 –
Trabajaremos nuevamente en un campo magnético nulo, B = 0 y expresaremos la
función de partición como
X X XY
Z= exp βJ si sj = eβJsi sj
{si } ⟨ij⟩ {si } ⟨ij⟩
Hay una manera útil de reescribir eβJsi sj que se basa en el hecho de que el producto
si sj solamente puede ser ±1. No toma mucho confirmar la siguiente identidad:
donde el número de los vecinos más cercanos es q = 4 para el arreglo cuadrado 2d.
Con la función de partición en esta forma, hay una expansión natural conveniente. En
altas temperaturas tenemos que βJ ≪ 1, lo cual claramente significa que tanh βJ ≪
1. Pero la función de partición ahora es naturalmente un producto de potencias de
tanh βJ. Esto es un poco análogo a la expansión del clúster para gas con interacciones
que conocimos en la Sección 2.5.3. De la misma manera, representaremos la expansión
gráficamente.
Esto es fácil.
i j = si sj tanh βJ
– 168 –
Pero hay un problema: cada factor de tanh βJ en (5.31) viene también con una suma
sobre todos los espines si y sj . Y estos son +1 y −1, lo que significa que simplemente
resultan en cero,
X
si sj = +1 − 1 − 1 + 1 = 0
si ,sj
¿Cómo podemos evitar esto? La única manera es asegurándonos de que sumemos sobre
un número par de espines en cada sitio, ya que ası́ tendremos factores de s2i = 1 sin
cancelaciones. Gráficamente, esto significa que cada sitio debe estar conectado a un
número par de lı́neas. La primera corrección es entonces de la forma
1 2
X
= (tanh βJ)4 s1 s2 s2 s3 s3 s4 s4 s1 = 24 (tanh βJ)4
3 4 {si }
Hay N semejantes términos ya que la esquina superior izquierda del cuadrado puede ser
cualquiera de los N puntos del arreglo (asumiendo condiciones a la frontera periódicas
para el arreglo). Entonces juntando el término de mayor orden y la primera corrección,
tenemos
Pero podemos continuar. Los siguientes términos surgen de las gráficas de longitud 6
y los únicas posibilidades son rectángulos, orientados de manera vertical u horizontal.
Cada uno de ellos puede estar en cualquiera de los N puntos, por lo que obtenemos
una contribución de
+ = 2N (tanh βJ)4
Las cosas se ponen mas interesantes al hablar de las gráficas de longitud 8. Tenemos
cuatro diferentes tipos de gráficas. Primero, tenemos los triviales cuadrados desconec-
tados
1
= N (N − 5)(tanh βJ)8
2
Aquı́, el primer factor de N corresponde a las posiciones posibles del primer cuadrado;
el factor N − 5 emerge debido a que la posible ubicación de la esquina superior del
– 169 –
segundo cuadro no puede ser ninguno de los vértices del primero, pero tampoco puede
ser en el punto a la izquierda de la esquina superior izquierda del primer cuadro, ya
que esto darı́a una gráfica como que tenga tres lı́neas conectadas al punto de
en medio, lo que nos darı́a cero al sumar los espines. Finalmente, el factor 1/2 aparece
debido a que los dos cuadros son idénticos.
Las otras gráficas de longitud 8 son un cuadrado grande, un rectángulo y una esquina.
El cuadrado da una contribución
= N (tanh βJ)8
= 2N (tanh βJ)8
= 4N (tanh βJ)8
– 170 –
conectadas a cada vértice contribuyen. Sin embargo, para la cadena de Ising, solo hay
un término de estos: es el circuito cerrado. Esto significa que la función de partición es
Z = (2 cosh βJ)N
Esto concuerda con nuestro resultado exacto para la cadena de Ising dada en (5.27),lo
cual podemos ver al considerar B = 0 en (5.26) tal que λ+ = 2 cosh βJ.
Por supuesto, solo hemos confirmado la concordancia para los primeros ordenes de la
perturbación. Lo siguiente será probar que este milagro se da para todos los ordenes
de la perturbación. La simetrı́a de la función de partición bajo el intercambio (5.33)
se conoce como la dualidad de Kramers-Wannier. Antes de probar esta dualidad,
simplemente asumiremos que es cierta y extraeremos las consecuencias.
– 171 –
Notemos que esta es una dualidad caliente/frı́o. Cuando βJ es grande, β̃J es pequeño.
La dualidad de Kramers-Wannier dice que, cuando B = 0, las funciones de partición
del modelo de Ising a dos temperaturas se relacionan por
2N (cosh βJ)2N
Z[β] = Z[β̃]
2e2N β̃J
= 2N −1 (cosh βJ sinh βJ)N Z[β̃] (5.35)
Esto significa que, si sabemos la termodinámica del modelo de Ising a una temperatura,
la sabemos a cualquier otra temperatura. Aunque debemos notar que esto no significa
que toda la fı́sica de ambos modelos es equivalente. Particularmente, cuando un sistema
está en una fase ordenada, el otro tı́picamente se encuentra en una fase desordenada.
Probando la Dualidad
Hasta ahora nuestra evidencia para la dualidad (5.35) yace en la concordancia de los
primeros términos en las expansiones de temperatura baja y alta (5.29) y (5.32). Por
supuesto, podrı́amos seguir calculando más y más términos y verificar que concuerden,
pero serı́a mejor simplemente probar la igualdad entre las funciones de partición. Esto
lo haremos aquı́.
vs
– 172 –
Las dos gráficas son duales. Las lı́neas rojas en la primera gráfica intersecan las lı́neas
negras en la segunda como se puede apreciar al ponerlas una encima de la otra:
El mismo patrón ocurre de manera más general: las gráficas que aparecen en la ex-
pansión de baja temperatura tienen una correspondencia uno a uno con las gráficas
duales de la expansión de alta temperatura. Aquı́ probaremos cómo esto ocurre y
cómo uno puede mapear las funciones de partición una con la otra.
donde hemos introducido una variable kij un poco extraña asociada a cada par de
vecinos más cercanos que toma valores 0 y 1, junto con las funciones
Las variables en el modelo de Ising original fueron espines en sitios de una red. La
observación de que las gráficas que aparecen en las dos expansiones son duales sugiere
que puede ser conveniente concentrar nuestra atención en los enlaces entre los sitios de
la red. Claramente, tenemos un enlace por cada par de vecinos cercanos. Si etiquetamos
estos enlaces con l, podemos reescribir trivialmente la función de partición como
X YX
Z= Ckl [βJ] (si sj )kl
kl =0,1 l {si }
Notemos que la extraña etiqueta kij ahora se ha convertido en una variable que vive
en los enlaces l en lugar de los sitios originales i de la red.
– 173 –
En este punto, hacemos la suma sobre los espines si . Ya hemos visto que si un espı́n
dado, digamos si , aparece en un término un número impar de veces, entonces este
término se desvanece cuando sumamos sobre el espı́n. Alternativamente, si el espı́n si
aparece un número par de veces, entonces la suma dará 2. Diremos que algún enlace
l está encendido en configuraciones con kl = 1 y apagado cuando kl = 0. En este
lenguaje, un término en la suma sobre espı́n si contribuye solo si un número par de
enlaces anclados al sitio i están encendidos. La función de partición es entonces
XY
Z = 2N Ckl [βJ] (5.36)
kl l Constreñido
Ahora tenemos algo interesante. En lugar de sumar sobre los espines en sitios de la red,
ahora estamos sumando sobre las nuevas variables kl que viven en los enlaces. Esto
se ve como la función de partición de un sistema fı́sico totalmente diferente, donde
los grados de libertad viven en los enlaces de la red original. Pero tiene trampa – esa
gran etiqueta que dice “Constreñido” en la suma. Eso está ahı́ para recordarnos que
no sumamos sobre todas las configuraciones kl ; solo aquellas para las que enlaces en
números pares están encendidos para cada sitio de la red. Y eso es molesto. Nos dice
que los kl realmente no son variables independientes. Entonces algunas constricciones
deben de ser impuestas.
– 174 –
Nótese que hemos intercambiado cuatro variables kl con valores 0,1 por cuatro variables
s̃i con valores ±1. Cada conjunto de variables da 24 posibilidades. Sin embargo, el mapa
no es uno a uno. No es posible construir esto para todos los valores kl utilizando la
parametrización en términos de s̃i . Para ver esto, solo debemos ver que
1
k12 + k13 + k14 + k15 = 2 − (s̃1 s̃2 + s̃2 s̃3 + s̃3 s̃4 + s̃1 s̃4 )
2
1
= 2 − (s̃1 + s̃3 )(s̃2 + s̃4 )
2
= 0, 2, or 4
En otras palabras, el número de enlaces activados debe ser par. ¡Pero eso es ex-
actamente lo que queremos! Expresando kl en términos de los espines auxiliares s̃i
automáticamente resuelve la constricción de la suma (5.36). Adicionalmente, es sim-
ple confirmar que para cada configuración {kl } que obedece la constricción, hay dos
configuraciones de {s̃i }. Esto significa que podemos reemplazar la suma constreñida
sobre {kl } por una suma sin restricciones sobre {s̃i }. El único precio que pagamos es
el factor adicional de 1/2.
1 N XY
Z[β] = 2 C 1 (1−s̃ s̃ ) [βj]
2 2 i j
{s̃i } ⟨ij⟩
Pero esta forma final de la función de partición en términos de los espines duales s̃i
tiene exactamente la misma forma de la función de partición original en términos de
espines si . De manera más precisa, podemos escribir
– 175 –
donde
e−2β̃J = tanh βJ
La dualidad del modelo de Ising es especial por dos razones: primero, las nuevas
variables s̃i son gobernadas por el mismo hamiltoniano que las variables originales si .
Decimos que el modelo de Ising es auto-dual. En general, este no debe de ser el caso
— el lı́mite de altas temperaturas en un sistema puede verse como el lı́mite de bajas
temperaturas en otro sistema diferente. La segunda razón es que la dualidad del modelo
de Ising puede probarse explı́citamente. Para la mayorı́a de los sistemas no tenemos
tanta suerte. No obstante, la idea de que puedan haber variables duales en otras teorı́as
más difı́ciles es motivante. Ejemplos estudiados comúnmente incluyen el intercambio
de partı́culas en vórtices de dos dimensiones, y electrones y monopolos magnéticos en
tres dimensiones.
Hemos visto en las Secciones 5.1 y 5.2 que la ecuación de van der Waals y el modelo de
Ising de campo medio dan los mismos (a veces equivocados) exponentes crı́ticos. Esto
sugiere que debe haber una manera unificada de ver las transiciones de fase. Dicho
método fue desarrollado por Landau. Cabe mencionar que, como vimos anteriormente,
el enfoque de Landau para transiciones de fase normalmente da resultados cualitati-
vamente correctos. Sin embargo, su ventaja es que es extremadamente fácil (definiti-
vamente más fácil que los métodos más elaborados que se requieren para calcular los
exponentes crı́ticos de manera más precisa).
– 176 –
desde la función de partición (5.17),
1 1 N
F = − log Z = JN qm2 − log (2 cosh βBef ) (5.37)
β 2 β
Hasta ahora en este curso, solo hemos considerado sistemas en equilibrio. La energı́a
libre, como todos los otros potenciales termodinámicos, ha sido definida en estados de
equilibrio. Aún ası́ la ecuación anterior puede pensarse como una expresión para F como
función de m. Claro, podrı́amos sustituir en el valor de m en equilibrio encontrado al
resolver (5.18), pero serı́a una pena eliminar una función tan buena como F (m). ¡Debe
ser posible ponerla en uso!
– 177 –
comúnmente simplificado diciendo que el parámetro de orden puede pensarse como la
función de onda macroscópica |ψ|2 .
Una razón común por la cual la energı́a libre tiene esta forma es porque la teorı́a tiene
una simetrı́a bajo m → −m, prohibiendo términos con potencias impares de m en la
expansión. Por ejemplo, esta es la situación en el modelo de Ising cuando B = 0.
En efecto, si expandimos la energı́a libre (5.37) en el modelo de Ising para m pequeña
utilizando cosh x ≈ 1+ 12 x2 + 4!1 x4 +. . ., log(1+y) ≈ y− 12 y 2 +. . . y log(1+y) ≈ y− 12 y 2 +. . .,
obtenemos la forma general anterior con expresiones explı́citas para F0 (T ), a(T ) y b(T ),
N β 3J 4q4
N Jq 2
FIsing (T ; m) = −N kB T log 2 + (1 − Jqβ) m + m4 + . . .
2 24
– 178 –
F F
m m
Figura 50: Energı́a libre para a(T ) > 0 Figura 51: Energı́a libre para a(T ) < 0
Las dos figuras superiores muestran esbozos de la energı́a libre en los casos donde
a(T ) > 0 y a(T ) < 0. Comparando con la energı́a libre explı́cita del modelo de
Ising, tenemos a(T ) < 0 cuando T > Tc = Jq/kB y a(T ) < 0 cuando T < Tc .
Cuando a(T ) > 0 tenemos solo una única solución de equilibrio para (5.39) en m = 0.
Tı́picamente, esta es la situación a altas temperaturas. En contraste, en a(T ) < 0, hay
tres soluciones para (5.39). La solución m = 0 claramente tiene una energı́a libre mayor:
ahora esta es la solución inestable. Las dos soluciones estables están en m = ±m0 . Por
ejemplo, si escogemos truncar la energı́a libre (5.38) en orden cuadrático, tenemos
r
−a
m0 = T < Tc
2b
Si a(T ) es una función suave entonces el valor de equilibrio de m cambia continuamente
de m = 0 cuando a(T ) > 0 a m ̸= 0 en a(T ) < 0. Esto describe una transición de fase
de segundo orden ocurriendo en Tc , definida por a(Tc ) = 0.
Una vez que sabemos el valor de equilibrio de m, podemos entonces sustituir esto de
vuelta en la energı́a libre F (T ; m) en (5.38). Esto nos da la energı́a libre termodinámica
F (T ) del sistema en equilibrio que hemos estado estudiando durante el curso. Para la
energı́a libre cuadrática, tenemos
(
F0 (T ) T > Tc
F (T ) = (5.40)
F0 (T ) − a2 /4b T < Tc
– 179 –
el cual, en general, no se desvanece en T = Tc . Esto quiere decir que la capacidad
calorı́fica C = T ∂S∂T cambia de manera discontinua en T = Tc , como conviene para
una transición de segundo orden. Una advertencia: si queremos calcular las cantidades
de equilibrio tal como la capacidad calorı́fica, es importante primero sustituir el valor
m de equilibrio y utilizar (5.40) en lugar de (5.38). De lo contrario, perderı́amos el
hecho de que la magnetización también cambia con T .
Podemos calcular fácilmente los exponentes crı́ticos dentro del contexto de la teorı́a de
Landau. Solo necesitamos hacer una suposiciones adicionales sobre el comportamiento
de a(T ) y b(T ) en la cercanı́a de Tc . Si asumimos que cerca de T = Tc , podemos escribir
b(T ) ≈ b0 , a(T ) ≈ a0 (T − Tc ) (5.41)
entonces tenemos
r
a0
m0 ≈ ± (Tc − T )1/2 T < Tc
2b0
lo cual reproduce el exponente crı́tico de (5.9) y (5.20) que derivamos para la ecuación
de van der Waals y el modelo de Ising respectivamente.
La teorı́a de Landau de las transiciones de fase predice este mismo exponente crı́tico
para todos los valores de dimensión d del sistema. Pero ya mencionamos en contextos
previos que el exponente crı́tico es, de hecho, correcto solamente para d ≥ 4. Enten-
deremos cómo derivar este criterio de la teorı́a de Landau en la siguiente sección.
– 180 –
La ruptura de simetrı́a espontánea tiene consecuencias particularmente dramáticas
cuando la simetrı́a en cuestión es continua en lugar de discreta. Por ejemplo, con-
sideremos una situación en la que el parámetro de orden es un número complejo ψ y
la energı́a libre se da por (5.38) con m = |ψ|2 . (Esto es efectivamente lo que sucede
para BECs, superfluidos y superconductores). Entonces solo debemos de observar las
soluciones m > 0 para que el estado base tenga |ψ|2 = +m0 . Pero esto deja la fase
de ψ totalmente indeterminada. Ası́ que ahora hay una elección continua de estados
base: podemos encontrarnos en cualquier lugar del cı́rculo parametrizado por la fase ψ.
Cualquier elección que tome el sistema espontáneamente rompe la simetrı́a rotacional
U (1) que actúa en la fase de ψ. Algunos resultados hermosos por parte de Nambu y
Goldstone muestran que gran parte de la fı́sica de estos sistemas se puede entender
simplemente como una consecuencia de esta ruptura de simetrı́a. Las ideas de rup-
tura espontánea de simetrı́a son cruciales en fı́sica de materia condensada y fı́sica de
partı́culas. En el contexto anterior, está ı́ntimamente relacionada con el mecanismo de
Higgs.
Por ejemplo, este es el tipo de expansión que obtenemos del modelo de Ising (5.37)
cuando B ̸= 0, que expresamos como
JN q 2 N N
FIsing (T ; m) = −N kB T log 2 + m − (B + Jqm)2 + (B + Jqm)4 + . . .
2 2kB T 24(kB T )3
Si nuevamente asumimos que b(T ) > 0 para todas las temperaturas, la forma cruda
de la gráfica de la energı́a libre tiene dos opciones: tener un solo mı́nimo, o dos mı́nimos
y un máximo local.
– 181 –
F F F
B<0 B=0 B>0
m m
Figura 52: La energı́a libre del modelo de Ising para B < 0, B = 0 y B > 0.
mı́nimo corresponde a un estado metaestable del sistema. Para que el sistema salga
de este estado hacia el otro, debe primero fluctuar por encima de la barrera energética
que separa a ambos.
En este arreglo podemos iniciar una transición de fase de primer orden. Esto ocurre
cuando el coeficiente de los términos impares, α(T ) y γ(T ), cambia signo y el verdadero
estado base cambia de manera discontinua de m < 0 a m > 0. En algunos sistemas,
este comportamiento se da al cambiar la temperatura; en otros puede ocurrir al cambiar
algún parámetro externo. Por ejemplo, en el modelo de Ising, la transición de fase de
primer orden se induce cambiando B.
– 182 –
tiene un sabor diferente al resto del curso. Hasta ahora, nuestra filosofı́a fue derivar
todo desde la función de partición. Pero en esta sección, nos deshicimos de esta lo
antes posible, prefiriendo en su lugar variables macroscópicas como la energı́a libre.
¿Por qué no nos quedamos simplemente con la función de partición y examinamos las
transiciones de fase directamente?
Para ser más concretos, regresemos al gas con interacciones de la Sección 2.5, aunque
los resultados que derivaremos serán más generales. Trabajaremos en la colectividad
macrocanónica, con la función de partición
X X zN Z Y P
N 3 −β j<k U (rjk )
Z(z, V, T ) = z Z(N, V, T ) = d ri e (5.42)
N N
N !λ3N i
Para regular potenciales dificultades a cortas distancias es útil asumir que las partı́culas
tienen núcleos sólidos tal que no pueden acercarse una distancia menor que r0 . Mode-
lamos esto con el requisito de que el potencial satisfaga
Pero esto tiene una obvia consecuencia: si las partı́culas tienen tamaño infinito, en-
tonces hay un número máximo de partı́culas NV que caben en un volumen finito V .
(Aproximadamente NV ∼ V /r03 ). Pero esto, a su vez, implica que la función de par-
tición canónica Z(N, V, T ) = 0 para N > NV , y que la macrocanónica Z es por lo
tanto un polinomio finito en la fugacidad z, de orden NV . Pero si este es el caso, no
puede haber ningún comportamiento discontinuo asociado a la transición de fase. En
particular, podemos calcular
pV = kB T log Z (5.43)
– 183 –
La discusión anterior solo fue reiterar un argumento que aludimos ya en diversas
ocasiones: no hay transiciones de fase en sistemas finitos. Para ver este comportamiento
discontinuo, necesitamos tomar el lı́mite V → ∞. Un teorema debido a Lee y Yang12
nos da una idea de las propiedades analı́ticas de la función de partición en este lı́mite.
– 184 –
En otras palabras, no puede haber transiciones de fase en la región R incluso en el
lı́mite V → ∞. El último resultado implica que, siempre y cuando estemos seguros
en una región R, tomar derivadas con respecto de z conmuta con el lı́mite V → ∞.
En otras palabras, se nos permite utilizar (5.44) para escribir la densidad de partı́culas
n = N/V como
∂ p ∂Θ
lim n = lim z =z
V →∞ V →∞ ∂z kB T ∂z
Sin embargo, si observamos los puntos z donde aparecen ceros en el eje real positivo,
entonces, en general, Θ no será analı́tica. Si dΘ/dz es discontinua, entonces decimos
que el sistema sufre una transición de fase de primer orden. De manera más general,
si dm Θ/dz m es discontinua para m = n, pero continua para todo m < n, entonces el
sistema sufre una transición de fase de n-ésimo orden. No ofreceremos una demostración
para el teorema de Lee-Yang. En su lugar, ilustraremos la idea general con un ejemplo.
Un Ejemplo Inventado
Idealmente, nos gustarı́a comenzar con un hamiltoniano que exhiba una transición
de fase de primer orden, calcular la función de partición macrocanónica Z y luego
encontrar los ceros conforme V → ∞. No obstante, como mencionamos antes, ¡Esto
es difı́cil! En lugar de ello, simplemente inventaremos una función de partición Z que
tenga las propiedades adecuadas. Nuestra elección es un poco artificial,
z = −1 y z = eπi(2n+1)/[αV ] n = 0, 1, . . . , [αV ] − 1
Como fue prometido, ninguno de los ceros están en el eje real positivo. Sin embargo,
conforme incrementamos V , los ceros se hacen cada vez más densos en el cı́rculo uni-
tario. Del teorema de Lee-Yang, esperamos que no ocurra una transición de fase para
z ̸= 1 pero sı́ que pueda ocurrir algo interesante en z = 1.
– 185 –
Veamos lo que sucede conforme V → ∞. Tenemos
1
Θ = lim log Z(z, V )
V →∞ V
1
[αV ] log(1 + z) + log(1 + z [αV ] )
= lim
V →∞ V
(
α log(1 + z) |z| < 1
=
α log(1 + z) + α log z |z| > 1
Vemos que Θ es continua para todo z como se prometió. Pero solo es analı́tica para
|z| =
̸ 1.
Podemos extraer la fı́sica usando (5.43) y (5.44) para eliminar la dependencia con z.
Esto nos da una ecuación de estado, con presión p como función de n = V /N . Para
|z| < 1, tenemos
α
p = αkB T log n ∈ [0, α/2) , p < kB T log 2
α−n
– 186 –
que cueste energı́a cambiar el parámetro de orden de un punto a otro. (Para el ejemplo
del modelo de Ising, esta es simplemente la declaración de que espines cercanos quieren
estar alineados). Entonces la energı́a libre se da por
Z
F [m(⃗r)] = dd r a(T )m2 + b(T )m4 + c(T )(∇m)2
(5.45)
Z
= dd r 2am + 4bm3 − 2c∇2 m δm
donde para ir de la primera a la segunda lı́nea hemos integrado por partes. (Necesitamos
recordar que c(T ) es una función de la temperatura pero no varı́a en el espacio de modo
que ∇ no actúa sobre ella). El mı́nimo de la energı́a libre se determina entonces al fijar
δF = 0, lo que significa que tenemos que resolver las ecuaciones de Euler-Lagrange
para la función m(⃗r),
Las soluciones más simples a esta ecuación tienen m constante, reduciéndonos de vuelta
a la teorı́a de Landau. Asumiremos nuevamente que a(T ) > 0 para T > Tc y a(T ) < 0
para T <p Tc . Entonces las soluciones constantes son m = 0 para T > Tc y m =
±m0 = ± −a/2b para T < Tc . Sin embargo, asumiendo la posibilidad de variación
espacial en el parámetro de orden también abre la posibilidad de buscar soluciones más
interesantes.
– 187 –
x > 0, viva en m = +m0 . Esta es exactamente la situación que nos encontramos en
la transición lı́quido-gas y se muestra en la Figura 38. También es fácil generar la
configuración análoga en el modelo de Ising. Las dos regiones en las que los espines
apuntan arriba o abajo se llaman dominios. El lugar donde estas regiones se encuentran
se llama pared del dominio.
Para describir al sistema con dos dominios, m(⃗r) debe de variar pero solo necesita
cambiar en una dirección: m = m(x). La ecuación (5.46) se vuelve entonces una
ecuación diferencial ordinaria,
d2 m am 2bm3
= +
dx2 c c
Esta ecuación se resuelve fácilmente. Debemos recordar que para tener dos vacı́os,
T < Tc , lo que significa que a < 0. Entonces tenemos
r !
−a
m = m0 tanh x
2c
p
donde m0 = −a/2b es la solución del estado base constante para el espı́n. Conforme
x → ±∞, la función tanh tiende hacia ±1 lo que significa que m → ±m0 . Entonces,
esta solución efectivamente interpola entre los dos dominios,
p como se requerı́a. Apren-
demos que el grosor de la pared del dominio se da por −2c/a. Fuera de esta región,
la magnetización se relaja exponencialmente de vuelta a los valores del estado base.
– 188 –
5.5.1 Correlaciones
Una de las aplicaciones más importantes de la teorı́a de Landau-Ginzburg es entender
las correlaciones entre las fluctuaciones del sistema en diferentes puntos del espacio.
Supongamos que sabemos que el sistema tiene una fluctuación inusualmente alta que
se aleja del promedio en algún punto del espacio, digamos el origen ⃗r = 0. ¿Cuál es el
efecto de esto en puntos cercanos?
Hay una forma sencilla de responder esta pregunta que solamente requiere resolver
la ecuación diferencial (5.46). Sin embargo, hay también una forma más complicada de
derivar el mismo resultado que tiene la ventaja de enfatizar la fı́sica subyacente y el rol
que juegan las fluctuaciones. A continuación comenzaremos derivando las correlaciones
de la forma sencilla. Después veremos cómo pueden ser derivadas también usando
maquinaria más técnica.
– 189 –
En lı́quidos, se llama usualmente la correlación Ornstein-Zernicke. También aparece en
fı́sica de partı́culas como el potencial Yukawa. La escala de longitud ξ se llama longitud
de correlación
r
−c
ξ= (5.49)
2a
La longitud de correlación provee una medida de la distancia que le toma a las cor-
relaciones decaer. Notemos que conforme nos aproximamos al punto critico, a → 0 y
la longitud de correlación diverge. Esto provee otro indicio de que necesitamos her-
ramientas más poderosas para entender la fı́sica en el punto crı́tico. Tomaremos ahora
los primeros pequeños pasos para desarrollar estas herramientas.
5.5.2 Fluctuaciones
La motivación principal para permitir que el parámetro de orden dependa del espacio
es que tome en cuenta el efecto de las fluctuaciones. Para ver como podemos hacer esto,
primero necesitamos pensar un poco más sobre el significado de la cantidad F [m(⃗r)] y
para qué puede ser usada.
Para entender este punto, es mejor regresar a lo básico. Sabemos que la energı́a
libre del sistema se puede igualar con el logaritmo de la función de partición (1.36).
Nos gustarı́a tomar la verdadera energı́a libre F del sistema ya que esta es la no-
tación que hemos estado usando a lo largo del curso. Pero ahora hemos tomado el
funcional Landau-Ginzburg F [m(⃗r)] y, a pesar de que está ı́ntimamente relacionado
con la verdadera energı́a libre, no son la misma cosa, como veremos en breve. Ası́ que
para ahorrar confusión, haremos un cambio de notación en esta etapa tan tardı́a y
llamaremos A a la verdadera energı́a libre del sistema. La ecuación (1.36) es entonces
A = −kB T log Z, que nos permite escribir
X
e−βA = Z = e−βEn
n
Nos gustarı́a entender la manera correcta de ver al funcional F [m(⃗r)] en este desar-
rollo. Aquı́ damos un argumento heurı́stico y bastante manipulador. Un tratamiento
completo involucra ideas de renormalización de grupos.
La idea es que cada microestado |n⟩ del sistema se puede asociar con una función
especı́fica del parámetro de orden que varı́a espacialmente. Para ilustrar esto, hablare-
mos en el lenguaje del modelo de Ising aunque la discusión se generaliza a cualquier
sistema. Aquı́ podrı́amos considerar asociar la magnetización m(⃗r) a cada sitio de la
red simplemente promediando sobre todos los espines dentro de una cierta distancia
– 190 –
hacia este punto. Claramente, esto solo conducirá a funciones que toman valores en
sitios de la red en lugar de en el continuo. Pero si las funciones se comportan de manera
adecuada entonces deberı́a de ser posible suavizarlas a funciones continuas m(⃗r) que
son esencialmente constantes en escalas de distancia menores que el espaciado de la
red. De este modo, obtendremos una transformación del espacio de microestados a la
magnetización, |n⟩ 7→ m(⃗r). Pero esta transformación no es uno a uno. Por ejemplo, si
el promedio se hace sobre suficientes sitios, es improbable que voltear el espı́n solamente
en un sitio tenga un efecto importante en el promedio. De este modo, muchos microes-
tados mapean sobre la misma magnetización promedio. Sumar solo estos microestados
proporciona una construcción de primeros principios de F [m(⃗r)],
X
e−βF [m(⃗r)] = e−βEn (5.50)
n|m(⃗
r)
Por supuesto, realmente no hicimos este procedimiento para obtener (5.45): simple-
mente lo escribimos en la forma más general en la vecindad del punto crı́tico con
un montón de coeficientes desconocidos a(T ), b(T ) y c(T ). Pero si nos gustan los
desafı́os, el procedimiento anterior nos dice cómo podemos encontrar tales funciones
desde primeros principios. Más importante, también nos dice qué debemos hacer con
la energı́a libre de Landau-Ginzburg. Dado que en (5.50) solo sumamos sobre aquellos
estados que corresponden a un valor particular de m(⃗r). Para calcular la función de
partición completa, necesitamos sumar sobre todos los estados, pero esto lo podemos
hacer al sumar sobre todos los posibles valores de m(⃗r). En otras palabras
Z
Z= Dm(⃗r) e−βF [m(⃗r)] (5.51)
Esto es una bestia truculenta: es una integral funcional. Estamos integrando sobre
todas las posibles funciones m(⃗r), que es lo mismo que hacer un número infinito de
integrales. (De hecho, dado que los parámetros de orden m(⃗r) surgieron de una red
subyacente y son adecuadamente suaves en escalas de distancia cortas, el problema se
mitiga un poco).
– 191 –
Para completar el problema, necesitamos hacer la integral funcional (5.51). Esto es
difı́cil. Aquı́ “difı́cil” quiere decir que la mayorı́a de los problemas no resueltos de fı́sica
teórica pueden reducirse a resolver integrales de este tipo. Aún ası́, el hecho de que sea
difı́cil no debe desmotivarnos, ya que hay una riqueza de fı́sica hermosa escondiéndose
en la integral de trayectoria, incluyendo la profunda razón detrás de la universalidad.
Comenzaremos a explorar algunas de estas ideas en el curso del siguiente año de Teorı́a
Estadı́stica de Campos.
– 192 –