0% encontró este documento útil (0 votos)
16 vistas198 páginas

Fisest

Este documento presenta un resumen de los contenidos de un curso sobre física estadística. Incluye recomendaciones de libros sobre el tema, así como una lista detallada de los temas que se abordarán en el curso, como los fundamentos de la mecánica estadística, gases clásicos y cuánticos, termodinámica clásica y transiciones de fase.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
16 vistas198 páginas

Fisest

Este documento presenta un resumen de los contenidos de un curso sobre física estadística. Incluye recomendaciones de libros sobre el tema, así como una lista detallada de los temas que se abordarán en el curso, como los fundamentos de la mecánica estadística, gases clásicos y cuánticos, termodinámica clásica y transiciones de fase.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Preprint typeset in JHEP style - HYPER VERSION

Fı́sica Estadı́stica

David Tong
Department of Applied Mathematics and Theoretical Physics,
Centre for Mathematical Sciences
Wilberforce Road,
Cambridge, CB3 OBA, UK

[Link]
[Link]@[Link]

Traducido por José Ricardo Torres Heredia y Oscar Bonfiglio Luna


Departamento de Fisica, Actuarı́a y Matemáticas,
Universidad de las Américas Puebla, México
[Link]@[Link], [Link]@[Link]

–1–
Libros y Recursos Recomendados

• Reif, Fundamentals of Statistical and Thermal Physics

Una descripción completa y detallada del tema. Es sólido. Es bueno. No tiene nada
de peculiar.

• Kardar, Statistical Physics of Particles

Una visión moderna en la materia que ofrece muchas perspectivas. Está magnı́ficamente
bien escrito, aunque algo breve en algunas partes. Un volumen complementario, “The
Statistical Physics of Fields” cubre muchos aspectos sobre fenómenos crı́ticos. Ambos
están disponibles para su descarga como notas de clase. Los enlaces se pueden encontrar
en la página web del curso.

• Landau and Lifshitz, Statistical Physics

Al estilo ruso: brusco, enciclopédico, magnı́fico. Gran parte de este libro se considera
notablemente moderno dado que fue publicado por primera vez en 1958.

• Mandl, Statistical Physics

Este es un libro sencillo con explicaciones muy claras, pero no abarca tanto detalle
como el que será necesario para este curso. Si estás batallando para entender lo básico,
este es un excelente lugar para buscar. Si estás buscando una descripción detallada
de aspectos más avanzados, probablemente deberı́as buscar en alguno de los libros
mencionados arriba.

• Pippard, The Elements of Classical Thermodynamics

Este hermoso librito nos guı́a a través de la sutil lógica de la termodinámica clásica.
Está muy bien logrado. Si Arnold Sommerfeld hubiera leı́do este libro, habrı́a entendido
la termodinámica la primera vez.

Hay muchos otros libros excelentes en la materia, a menudo con diferente énfasis.
Recomiendo “States of Matter ” por David Goodstein que cubre vario temas más allá
del enfoque de este curso pero ofrece muchas perspectivas. Para una descripción en-
tretenida pero técnica de la termodinámica, que yace en algún lugar entre un libro de
texto y ciencia popular, leer “The Four Laws” por Peter Atkins.

Varias notas de clase buenas se encuentran disponibles en internet. Las


ligas a estas notas de clase se pueden encontrar en la página web del curso:
[Link]

–2–
Contenidos
1. Los Fundamentos de la Mecánica Estadı́stica 1
1.1 Introducción 1
1.2 La Colectividad Microcanónica 2
1.2.1 Entropı́a y la Segunda Ley de la Termodinámica 5
1.2.2 Temperatura 8
1.2.3 Un Ejemplo: El Sistema con Dos Estados 11
1.2.4 Presión, Volumen y la Primera Ley de la Termodinámica 14
1.2.5 Ludwig Boltzmann (1844-1906) 17
1.3 La Colectividad Canónica 18
1.3.1 La Función de Partición 19
1.3.2 Energı́a y Fluctuaciones 21
1.3.3 Entropı́a 23
1.3.4 Energı́a Libre 26
1.4 El Potencial Quı́mico 27
1.4.1 La Colectividad Macrocanónica 29
1.4.2 Potencial Macrocanónico 30
1.4.3 Cantidades Extensivas e Intensivas 30
1.4.4 Josiah Willard Gibbs (1839-1903) 32

2. Gases Clásicos 33
2.1 La Función de Partición Clásica 33
2.1.1 De lo Cuántico a lo Clásico 34
2.2 Gas Ideal 36
2.2.1 Equipartición de la Energı́a 38
2.2.2 El Significado Sociológico de la Constante de Boltzmann 39
2.2.3 Entropı́a y la Paradoja de Gibbs 40
2.2.4 El Gas Ideal en la Colectividad Macrocanónica 41
2.3 Distribución de Maxwell 43
2.3.1 La Historia de la Teorı́a Cinética 45
2.4 Gas Diatómico 47
2.5 Gas con Interacciones 50
2.5.1 La función f de Mayer y el Segundo Coeficiente Virial 52
2.5.2 Ecuación de Estado de van der Waals 54
2.5.3 La Expansión del Clúster 57
2.6 Apantallamiento y el Modelo de Plasma de Debye-Hückel 62

3. Gases Cuánticos 64
3.1 Densidad de Estados 64
3.1.1 Sistemas Relativistas 66
3.2 Fotones: Radiación de Cuerpo Negro 66
3.2.1 Distribución de Planck 68
3.2.2 Radiación del Fondo Cósmico de Microondas 71
3.2.3 El Nacimiento de la Mecánica Cuántica 71
3.2.4 Max Planck (1858-1947) 72
3.3 Fonones 73
3.3.1 El Modelo de Debye 73
3.4 El Gas Diatómico Revisado 78
3.5 Bosones 79
3.5.1 Distribución de Bose-Einstein 80
3.5.2 Un Gas Cuántico a Altas Temperaturas es (casi) Clásico 83
3.5.3 Condensado de Bose-Einstein 85
3.5.4 Capacidad Calorı́fica: Un Primer Vistazo a las Transiciones de
Fase 90
3.6 Fermiones 93
3.6.1 Gas de Fermi Ideal 94
3.6.2 Gas Degenerado de Fermi y la Superficie de Fermi 95
3.6.3 El Gas de Fermi a Bajas Temperaturas 97
3.6.4 Un Tratamiento Más Riguroso: La Expansión de Sommerfeld 101
3.6.5 Enanas Blancas y el Lı́mite de Chandrasekhar 104
3.6.6 Paramagnetismo de Pauli 106
3.6.7 Diamagnetismo de Landau 108

4. Termodinámica Clásica 112


4.1 Temperatura y Ley Cero 113
4.2 La Primera Ley 115
4.3 La Segunda Ley 117
4.3.1 El Ciclo de Carnot 119
4.3.2 Escala de Temperatura Termodinámica y el Gas Ideal 122
4.3.3 Entropı́a 124
4.3.4 Superficies Adiabáticas 127
4.3.5 Una Historia de la Termodinámica 130
4.4 Potenciales Termodinámicos: Energı́as Libres y Entalpı́a 133

–1–
4.4.1 Entalpı́a 136
4.4.2 Relaciones de Maxwell 136
4.5 La Tercera Ley 137

5. Transiciones de Fase 139


5.1 Transición de Lı́quido a Gas 139
5.1.1 Equilibrio de fase 141
5.1.2 La Ecuación de Clausius-Clapeyron 144
5.1.3 El Punto Crı́tico 146
5.2 El Modelo de Ising 152
5.2.1 Teorı́a de Campo Medio 154
5.2.2 Exponentes Crı́ticos 157
5.2.3 Validez de la Teorı́a del Campo Medio 159
5.3 Algunos Resultados Exactos del Modelo de Ising 161
5.3.1 El Modelo de Ising en d = 1 dimensiones 161
5.3.2 Modelo de Ising 2d: Bajas Temperaturas y Gotas de Peirels 163
5.3.3 Modelo de Ising en 2d: Altas Temperaturas 167
5.3.4 Dualidad Kramers–Wannier 171
5.4 Teorı́a de Landau 176
5.4.1 Transiciones de Fase de Segundo Orden 178
5.4.2 Transiciones de Fase de Primer Orden 181
5.4.3 Ceros de Lee-Yang 182
5.5 Teorı́a de Landau-Ginzburg 186
5.5.1 Correlaciones 189
5.5.2 Fluctuaciones 190

–2–
Agradecimientos

Estas Notas de clase están lejos de ser originales. Se basan en gran medida en los
libros descritos arriba y en los recursos en lı́nea listados en la página web del curso.
Me beneficié mucho de las notas de clase de Mehran Kardar y de Chetan Nayak. Este
curso está construido sobre los fundamentos de cursos previos impartidos en Cambridge
por Ron Horgan y Matt Wingate. También estoy agradecido con Ray Goldstein por
su ayuda en desarrollar el presente syllabus. Estoy respaldado por la Royal Society y
Alex Considine.

–3–
1. Los Fundamentos de la Mecánica Estadı́stica

1.1 Introducción
La mecánica Estadı́stica es el arte de transformar las leyes microscópicas de la fı́sica en
una descripción de la naturaleza a un nivel macroscópico.

Supongamos que tenemos la fı́sica teórica dominada. Supongamos que conocemos


todas las leyes fundamentales de la naturaleza, las propiedades de las partı́culas elemen-
tales y las fuerzas en juego entre ellas. ¿Cómo podemos transformar este conocimiento
en un entendimiento del mundo que nos rodea? Más concretamente, si le doy una caja
que contiene 1023 partı́culas y le digo su masa, su carga, sus interacciones, etcétera,
¿Qué me puede decir sobre el contenido de la caja?

Una estrategia que definitivamente no funcionará es: escribir la ecuación de Schrödinger


para las 1023 partı́culas e intentar resolverla. Por lo general, eso no es posible para 23
partı́culas, y mucho menos para 1023 . Adicionalmente, incluso si pudiera encontrar
la función de onda del sistema, ¿Qué harı́a con ella? Las posiciones de las partı́culas
individuales son de poco interés para cualquiera. Queremos respuestas a preguntas
básicas, casi infantiles, preguntas sobre el contenido de la caja. ¿Está mojado? ¿Está
caliente? ¿De qué color es? ¿Acaso la caja está en peligro de explotar? ¿Qué pasa
si la aprieto, si la jalo o si la caliento? ¿Cómo podemos comenzar a responder estas
preguntas comenzando por las leyes fundamentales de la fı́sica?

El propósito de este curso es el de presentar el diccionario que permite traducir del


mundo microscópico, donde las leyes de la naturaleza están escritas, al mundo cotidiano
macroscópico con el que estamos familiarizados. Esto nos permitirá abordar cuestiones
muy básicas sobre el comportamiento de la materia.

Veremos muchos ejemplos. Durante siglos — desde 1600 hasta 1900 — los cientı́ficos
descubrı́an las “leyes de la fı́sica” que gobiernan a distintas sustancias. Hay cientos de
estas leyes, la mayorı́a con el nombre de sus descubridores. La ley de Boyle y la ley de
Charles relacionan la presión, el volumen y la temperatura de los gases (usualmente se
combinan en la ley del gas ideal); la ley de Stefan-Boltzmann nos dice cuánta energı́a
emite un objeto caliente; el desplazamiento de Wien nos dice el color de tal objeto;
la ley de Dulong-Petit nos dice cuánta energı́a es necesaria para calentar un bulto de
cosas; la ley de Curie nos dice cómo es que un magneto pierde su magia al ponerlo sobre
el fuego; etc. Sin embargo, sabemos que estas leyes no son fundamentales. En algunos
casos simplemente provienen de la mecánica Newtoniana y una dosis de pensamiento

–1–
estadı́stico. En otros casos también necesitamos tomar en cuenta la mecánica cuántica.
Pero en todo caso, veremos como derivarlas de los principios básicos.

Gran parte de este curso estará dedicado a entender los fenómenos interesantes que
suceden cuando se ponen 1023 partı́culas juntas. Un tema recurrente será que 1023 ̸= 1.
Lo que es más, hay conceptos clave que no son visibles en las leyes subyacentes de
la fı́sica, sino que emergen únicamente cuando consideramos una gran colección de
partı́culas. Un ejemplo muy sencillo es la temperatura. Este no es un concepto funda-
mental: no tiene sentido hablar de la temperatura de un electrón. Pero serı́a imposible
hablar sobre fı́sica de lo cotidiano sin hacer mención de la temperatura. Esto ilustra
el hecho de que el lenguaje necesario para describir la fı́sica en cierta escala es muy
diferente de la que se necesita en otra. Veremos varias cantidades emergentes similares
en este curso, incluyendo el fenómeno de las transiciones de fase, donde las suaves y
continuas leyes de la fı́sica conspiran para producir cambios bruscos y discontinuos en
la estructura de la materia.

Históricamente, las técnicas de la mecánica estadı́stica demostraron ser una her-


ramienta crucial para la comprensión de las leyes más profundas de la fı́sica. No es
solo que el desarrollo de la materia está ı́ntimamente relacionado con la primera evi-
dencia de la existencia de los átomos, sino que la mecánica cuántica fue descubierta
aplicando métodos estadı́sticos para descifrar el espectro de luz emitido por objetos
calientes (estudiaremos esta derivación en la Sección 3). No obstante, la fı́sica no es
una asignatura terminada. Hay muchos sistemas importantes en la naturaleza — desde
superconductores a altas temperaturas hasta agujeros negros — que aún no se entienden
completamente a un nivel fundamental. La información que tenemos sobre estos sis-
temas es de sus propiedades macroscópicas, y nuestro objetivo es utilizar estas escasas
pistas para revelar los mecanismos subyacentes en funcionamiento. Las herramientas
que desarrollaremos en este curso serán cruciales para esta tarea.

1.2 La Colectividad Microcanónica


“Cualquiera que desee analizar las propiedades de la materia en un problema
real, tal vez quiera comenzar escribiendo las ecuaciones fundamentales y
luego intentar resolverlas matemáticamente. Aunque hay gente que intenta
utilizar este enfoque, estas personas son el fracaso en este campo. . . ”
Richard Feynman, adornado.
Comenzaremos considerando un sistema aislado con energı́a fija E. Para los fines de
la discusión, describiremos nuestro sistema usando el lenguaje de la mecánica cuántica,
aunque debemos tener en mente que casi todo aplica igualmente a sistemas clásicos.

–2–
En sus primeros dos cursos de mecánica cuántica, solo revisó sistemas con pocos
grados de libertad. Estos se definen por medio de un hamiltoniano Ĥ, y la meta es
usualmente resolver la ecuación de Schrödinger independiente del tiempo

Ĥ|ψ⟩ = E|ψ⟩

En este curso, también veremos sistemas definido por un hamiltoniano, pero ahora con
un número elevado de grados de libertad, digamos N ∼ 1023 . Los eigenestados de la
energı́a |ψ⟩ son objetos muy complicados ya que contienen información sobre lo que
cada partı́cula está haciendo. Se llaman microestados.

En la práctica, usualmente es difı́cil escribir el microestado que describe a todas esas


partı́culas. Pero, más importante, usualmente ni siquiera es interesante. Las funciones
de onda para un sistema macroscópico raramente capturan la fı́sica relevante porque los
sistemas macroscópicos reales no se describen solamente por un estado cuántico puro.
Están en contacto con un entorno, constantemente golpeado y empujado por influencias
externas. Cada vez que un sistema es ligeramente empujado, sufre perturbaciones
pequeñas y hay probabilidad de que pase a otro estado. Si la perturbación es muy
pequeña, entonces la transición solo será hacia estados de igual (o muy cercana a ser
igual) energı́a. Pero con 1023 partı́culas, puede muchos microestados, todos con la
misma energı́a E. Para entender la fı́sica de estos sistemas, no necesitamos saber los
detalles ı́ntimos de cada uno de los estados. Necesitamos saber detalles sobre todos los
estados como un conjunto.

Serı́a tediosamente imposible hacer un seguimiento de la dinámica que lleva a la


transiciones entre diferentes estados. En lugar de ello, recurriremos a los métodos
estadı́sticos. Describiremos el sistema en términos de una distribución de probabilidad
sobre los estados cuánticos. En otras palabras, el sistema se encuentre en un estado
mixto y no en un estado puro. Ya que la energı́a es fija, sólo habrá una probabilidad
distinta de cero para los estados que tienen la energı́a E especificada. Denotaremos
una base de estos estados con |n⟩ y la probabilidad de que los estados estén en un
estado dado con p(n). Dentro de esta distribución de probabilidad, el valor esperado
de cualquier operador Ô es
X
⟨Ô⟩ = p(n)⟨n|Ô|n⟩
n

Nuestra meta inmediata es entender qué distribución de probabilidad p(n) es apropiada


para sistemas grandes.

–3–
Primeramente, pondremos una gran restricción sobre las situaciones con las que
podemos tratar. Discutiremos únicamente sistemas que se han dejado en paz por un
tiempo. Esto garantiza que la energı́a y el momento del sistema se ha redistribuido
entre las muchas partı́culas del sistema, y que se ha perdido cualquier memoria sobre las
condiciones iniciales en las que éste empezó. En términos de operaciones, esto significa
que la distribución de probabilidad es independiente del tiempo, lo que asegura que
los valores esperados de las observables macroscópicas también lo son. En este caso,
decimos que el sistema se encuentra en equilibrio. Nótese que solo porque el sistema se
encuentre en equilibrio no significa que todos los componentes del sistema se han dejado
de mover; un vaso de agua que se ha dejado solo un tiempo alcanzará el equilibrio, pero
los átomos en su interior aún están moviéndose.

Ahora nos encontramos en una posición adecuada para plantear la suposición fun-
damental de la mecánica estadı́stica. Es la idea de que deberı́amos adoptar el enfoque
más simple posible y tratar a todos los estados por igual. De forma más precisa:

Para un sistema aislado en equilibrio, todos los microestados accesibles son


igualmente probables.

Dado que no sabemos nada más sobre el sistema, tal enfoque democrático parece
razonable. Notemos que nos hemos dejado espacio para algo de flexibilidad con la
inclusión de la palabra “accesibles”. Esto se refiere a cualquier estado que pueda
ser alcanzado por medio de pequeñas perturbaciones en el sistema. Por el momento,
tomaremos por significado que todos los estados tienen la misma energı́a E. Después,
veremos contextos en los que añadimos más restricciones sobre lo que significa que un
estado se accesible.

Introduzcamos algo de notación. Definimos

Ω(E) = Número de estados con energı́a E

La probabilidad de que el sistema con energı́a fija E se encuentre en un dado estado


|n⟩ es simplemente

1
p(n) = (1.1)
Ω(E)

La probabilidad de que el sistema se encuentre en un estado con alguna energı́a distinta


E ′ ̸= E es cero. Esta distribución de probabilidad, relevante para sistemas con energı́a
fija, se conoce como colectividad microcanónica. Algunos comentarios:

–4–
• Ω(E) es usualmente un número ridı́culamente grande. Por ejemplo, supongamos
que tenemos N ∼ 1023 partı́culas, cada una de las cuales solo puede estar en uno
de dos estados cuánticos — digamos “espı́n arriba” y “espı́n abajo”. Entonces
23
el número total de microestados del sistema es 210 . Esta es una tonterı́a de
número. En cierto sentido, ¡números tan grandes jamás podrán tener significado
fı́sico alguno! Solo aparecen en problemas sobre combinatoria, contando posibles
eventualidades. Jamás serán respuesta a problemas que requieren contar objetos
fı́sicos existentes. Una forma, algo graciosa, de decir esto es que números tan
grande no pueden tener significado fı́sico alguno pues serán lo mismo sin impor-
23
tar las unidades que tengan (si no me cree, piense en 210 como una escala de
distancia: es efectivamente la misma distancia independientemente de si se mide
en micrones o años luz. ¡Inténtelo!).

• En sistemas cuánticos, los niveles de energı́a serán discretos. Sin embargo, con
tantas partı́culas, los niveles de energı́a se encontrarán finamente espaciados y
pueden ser tratados como continuos. Cuando decimos que Ω(E) cuenta el número
de estados con energı́a E, implı́citamente estamos diciendo que cuenta el número
de estados con energı́a entre E y E + δE, donde δE es pequeño comparado con la
precisión de nuestro aparato de medición, pero grande comparado con el espaciado
de los niveles.

• Expresamos nuestra discusión en términos de sistemas cuánticos, pero todo lo


descrito anteriormente se traslada con facilidad al caso clásico. En particular, las
probabilidades p(n) no tienen nada que ver con la incertidumbre cuántica. Se
deben en su totalidad a nuestra ignorancia.

1.2.1 Entropı́a y la Segunda Ley de la Termodinámica


Definimos a continuación la entropı́a del sistema por medio de

S(E) = kB log Ω(E) (1.2)

Aquı́ kB es una constante fundamental, conocida como constante de Boltzmann. Tiene


unidades de Joule por Kelvin

kB ≈ 1.381 × 10−23 JK −1 (1.3)

El log en (1.2) es el logaritmo natural (base e, no base 10). ¿Por qué se toma el logaritmo
en la definición? Una razón es que hace los números menos ridı́culos. Mientras que el
número de estados es del orden de Ω ∼ eN , la entropı́a es meramente proporcional al
número de partı́culas en el sistema, S ∼ N . Esto tiene la agradable consecuencia de

–5–
que la entropı́a es una cantidad aditiva. Para ver lo anterior, consideremos dos sistemas
que no interactúan con energı́as E1 y E2 , respectivamente. Entonces el número total
de estados de ambos sistemas es
Ω(E1 , E2 ) = Ω1 (E1 )Ω(E2 )
mientras que la entropı́a del sistema es
S(E1 , E2 ) = S1 (E1 ) + S2 (E2 )
La Segunda Ley
Supongamos que tomamos los dos sistemas que no interactúan mencionados arriba y
los ponemos juntos. Asumiremos que pueden intercambiar energı́a, pero que los niveles
de energı́a de cada sistema individual se mantienen sin cambios (¡Estas son, en realidad,
suposiciones contradictorias! Si los sistemas pueden intercambiar energı́a entonces debe
de haber un término de interacción en su hamiltoniano. Pero tal término cambiarı́a
los niveles de energı́a de cada sistema. Ası́ que a lo que realmente nos referimos es que
estos cambios de energı́a son ignorables, y el único efecto relevante es la interacción que
permite que la energı́a se mueva entre los sistemas).

La energı́a del sistema combinado sigue siendo Etotal = E1 + E2 . Pero el primer


sistema puede tener cualquier energı́a E ≤ Etotal , mientras que el segundo sistema
debe tener el restante Etotal − E. De hecho, hay una pequeña consideración sobre esta
declaración: en un sistema cuántico no podemos tener cualquier energı́a en lo absoluto,
solo energı́as discretas Ei que sean eigenvalores del hamiltoniano. Ası́ que el número
de estados disponibles del sistema combinado es
X
Ω(Etotal ) = Ω1 (Ei )Ω2 (Etotal − Ei )
{Ei }
 
X S1 (Ei ) S2 (Etotal − Ei )
= exp + (1.4)
kB kB
{Ei }

Hay una pequeña sutileza en la ecuación anterior. Ambos, el sistema 1 y el sistema 2


tienen niveles de energı́a discretos. Cómo sabemos que si Ei es una energı́a del sistema 1
entonces Etotal −Ei es una energı́a del sistema 2. En parte, esto se remonta al comentario
hecho anteriormente sobre la necesidad de un hamiltoniano de interacción que cambie
los niveles de energı́a. En la práctica, simplemente ignoraremos esta sutileza. De hecho,
para la mayorı́a de los sistemas que discutiremos en este curso, la discretización de los
niveles de energı́a apenas será importante ya que estos también están tan finamente
espaciados que podemos tratar la energı́a E del primer sistema como una variable
continua y reemplazar la suma por una integral. Veremos muchos ejemplos explı́citos
de esto en las siguientes secciones.

–6–
En este punto, recurrimos de nuevo a nuestra suposición fundamental — todos los
estados son igualmente probables — pero ahora aplicada al sistema combinado. Este
tiene energı́a fija Etotal ası́ que se puede pensar como si estuviera en el colectivo micro-
canónico con la distribución (1.1), lo cual significa que el sistema tiene probabilidad
p = 1/Ω(Etotal ) de encontrarse en cada estado. Claramente, la entropı́a del sistema
combinado es mayor o igual que aquella del sistema original,

S(Etotal ) ≡ kB log Ω(Etotal ) ≥ S1 (E1 ) + S2 (E2 ) (1.5)

lo cual es verdad por el simple hecho de que los estados de los dos sistemas originales
son un subconjunto del número total de estados posibles.

Mientras (1.5) es verdad para cualesquiera dos sistemas, hay una aproximación útil
que podemos realizar para determinar S(Etotal ) que se mantiene cuando el número
de partı́culas en juego N es muy grande. Ya hemos visto que la entropı́a incrementa
con S ∼ N . Esto significa que la ecuación (1.4) es una suma de exponenciales de N ,
lo que es en sı́ un número exponencialmente grande. Tales sumas están totalmente
dominadas por su valor máximo. Por ejemplo, suponga que para alguna energı́a E⋆ el
exponente tiene un valor que es el doble de cualquier otro E. Entonces este término en
la suma es mayor que todos los otros estados por un factor de eN . Y ese es un número
muy grande. Todos los términos excepto el máximo son completamente ignorables (el
argumento equivalente para integrales es que pueden ser evaluadas con el método del
punto silla). En nuestro caso, el valor máximo E = E⋆ ocurre cuando

∂S1 (E⋆ ) ∂S2 (Etotal − E⋆ )


− =0 (1.6)
∂E ∂E
donde esta notación un poco engorrosa significa (para el primer término) ∂S1 /∂E eval-
uada en E = E⋆ . La entropı́a total del sistema combinado puede aproximarse muy bien
por medio de

S(Etotal ) ≈ S1 (E⋆ ) + S2 (Etotal − E⋆ ) ≥ S1 (E1 ) + S2 (E2 )

Cabe recalcar que no hay una razón a priori por la cual el primer sistema deba de tener
una energı́a fija una vez está en contacto con el segundo sistema. Pero el gran número
de partı́culas involucradas implica que es increı́blemente probable que lo encontremos
con la energı́a E⋆ , lo cual maximiza el número de estados del sistema combinado. Por
el otro lado, una vez en este mayor conjunto de estados, es altamente improbable que
el sistema sea encontrado de regreso en un estado con energı́a E1 o, en efecto, cualquier
otra energı́a diferente de E⋆ .

–7–
Es esta simple declaración la que es re-
sponsable por la reversibilidad que vemos en el
mundo que nos rodea. Esta es la segunda ley de
la termodinámica. Como lema, “la entropı́a au-
menta”. Cuando dos sistemas se ponen juntos —
o de forma equivalente, cuando las restricciones
en un sistema son removidas — el número total
de estados disponibles es ampliado enormemente.

En ocasiones se afirma que la segunda ley es


la más sagrada de toda la fı́sica. La perorata de
Eddington, representada en la caricatura, es una
de las aclamaciones más famosas de la Ley.

Y aún ası́, como hemos visto anteriormente,


la segunda ley depende de argumentos proba-
bilı́sticos. Dijimos, por ejemplo, que es “alta-
mente improbable” que el sistema regresará a su Figura 1: Arthur Eddington
configuración inicial. Uno podrı́a pensar que esto
nos da un poco de libertad. Quizá, si las probabilidades subyacen a la segunda ley,
podrı́amos en ocasiones tener suerte y encontrar contraejemplos. Si bien, es más prob-
able encontrar que el sistema 1 tiene energı́a E⋆ , seguramente en ocasiones uno lo ve
en un estado con una energı́a diferente ¿No? De hecho, esto nunca sucede. La frase
“altamente improbable” se ha utilizado solo porque el idioma Español no contiene sufi-
cientes superlativos para expresar lo absurdo e improbable que serı́a una violación de la
segunda ley. La ridı́cula cantidad de estados posibles en un sistema macroscópico sig-
nifica que las violaciones de la segunda ley solo suceden en escalas de tiempo ridı́culas.
Esta es una buena definición operacional de la palabra “jamás”.

1.2.2 Temperatura
A continuación pasamos a una cantidad muy familiar, aunque vista de una forma no
familiar. La temperatura T de un sistema se define como
1 ∂S
= (1.7)
T ∂E
Esta ecuación es extraordinaria. La hemos presentado como la definición de temper-
atura. Pero ¿Por qué es una buena definición? ¿Por qué coincide con la idea de
temperatura que tienen nuestras madres? ¿Por qué esta T coincide con aquella que
hace que suba el mercurio? (el elemento, no el planeta... ese es un curso distinto.)

–8–
¿Por qué esta T coincide con aquella nos hace gritar cuando ponemos la mano en una
estufa caliente?

Primero, notemos que T tiene las unidades correctas, cortesı́a de la constante de


Boltzmann (1.3). Pero aquella fue solo una elección por convención: no explica por qué
T tiene las propiedades que esperarı́amos de la temperatura. Para progresar, debemos
pensar con cuidado sobre dichas propiedades que esperamos. Describiremos esto en
más detalle en la Sección 4. Por el momento será suficiente describir la propiedad clave
de la temperatura, que es la siguiente: suponga que tomamos dos sistemas, cada uno
en equilibrio y cada uno a la misma temperatura T , y los ponemos en contacto para
que puedan intercambiar energı́a. Entonces . . . nada sucede.

Es simple ver que esto es una consecuencia directa de la definición (1.7). Ya hemos
hecho el trabajo duro anteriormente, donde vimos que dos sistemas, puestos en contacto
de esta manera, maximizan su entropı́a. Esto se consigue cuando el primer sistema
tiene energı́a E⋆ , y la segunda energı́a Etotal − E⋆ , con E⋆ determinada por la ecuación
(1.6). Si queremos que nada destacable suceda cuando los sistemas se ponen juntos,
entonces debe haber sido el caso de que la energı́a del primer sistema ya se encontraba
en E1 = E⋆ . O, en otras palabras, la ecuación (1.6) se obedece antes de que los sistemas
entren en contacto,
∂S1 (E1 ) ∂S2 (E2 )
= (1.8)
∂E ∂E
De nuestra definición (1.7), esto es lo mismo que requerir que las temperaturas iniciales
de los sistemas sean iguales: T1 = T2 .

Supongamos que ponemos en contacto dos sistemas con temperaturas ligeramente


distintas. Estos intercambiarán energı́a, pero la conservación garantiza que lo que el
primer sistema cede, es recibido por el segundo y vice versa. Entonces δE1 = −δE2 . Si
el cambio en la entropı́a es pequeño, se puede aproximar muy bien por medio de
∂S1 (E1 ) ∂S2 (E2 )
δS = δE1 + δE2
 ∂E ∂E 
∂S1 (E1 ) ∂S2 (E2 )
= − δE1
∂E ∂E
 
1 1
= − δE1
T1 T2
La segunda ley nos dice que la entropı́a debe de incrementar: δS > 0. Esto significa
que si T1 > T2 , se debe tener que δE1 < 0. En otras palabras, la energı́a fluye en la
forma que esperarı́amos: del sistema caliente al sistema frı́o.

–9–
En resumen: el argumento de equilibrio nos dice que ∂S/∂e se deberı́a interpretar
como alguna función de la temperatura; el argumento del flujo del calor nos dice que
debe de ser una función monótonamente decreciente. Pero ¿Por qué 1/T y no, digamos,
1/T 2 ? Para ver esto, realmente necesitamos calcular T para un sistema con el que
estemos familiarizados y ver si se obtiene la respuesta correcta. Una vez que tengamos
la respuesta correcta para un sistema, el argumento de equilibrio garantiza que esta es
correcta para todos los sistemas. Nuestra primera tarea en la Sección 2 será calcular
la temperatura T para un gas ideal y confirmar que (1.7) es, en efecto, la definición
correcta.

Capacidad Calorı́fica
La capacidad calorı́fica C se define por medio de
∂E
C= (1.9)
∂T
Después presentaremos versiones más refinadas de la capacidad calorı́fica (en las cuales
varias cantidades externas, aún no especificadas, se mantienen constantes o se permite
que varı́en y somos más cuidadosos con el modo de transferencia de energı́a al sistema).
La importancia de la capacidad calorı́fica es que ¡está definida en términos de cantidades
que realmente podemos medir! A pesar de que el concepto teórico clave es la entropı́a, si
a uno le dan un sistema experimental con 1023 partı́culas, no se puede medir la entropı́a
directamente contando todos los microestados accesibles. Estarı́amos ahı́ todo el dı́a.
Pero uno puede medir la capacidad calorı́fica: se agrega una cantidad conocida de
energı́a al sistema y se mide el incremento en la temperatura. El resultado serı́a C −1 .

Hay otra expresión para la capacidad calorı́fica que es de utilidad. la entropı́a es una
función de la energı́a S = S(E). Pero podrı́amos invertir la ecuación (1.7) para pensar
en la energı́a como una función de la temperatura E = E(T ). Entonces se tiene la
expresión
∂S ∂S ∂E C
= · =
∂T ∂E ∂T T
Esta es una ecuación muy práctica. Si podemos medir la capacidad calorı́fica del
sistema para varias temperaturas, podemos manejar la función C(T ). De aquı́, podemos
determinar la entropı́a del sistema. O, más precisamente, la diferencia en la entropı́a
Z T2
C(T )
∆S = dT (1.10)
T1 T
Entonces la capacidad calorı́fica es nuestra relación más cercana entre los experimentos
y la teorı́a.

– 10 –
La capacidad calorı́fica siempre es proporcional a N , el número de partı́culas en
el sistema. Es común definir el capacidad calorı́fica especı́fica, que es simplemente la
capacidad calorı́fica dividida por la masa del sistema y es independiente de N .
Hay un último punto que debemos hacer sobre la capacidad calorı́fica. Si derivamos
la ecuación (1.7) una vez más, obtenemos
∂ 2S 1
2
=− 2 (1.11)
∂E T C
Casi todos los sistemas que uno se encuentra tienen C > 0 (hay una importante ex-
cepción: ¡un agujero negro tiene una capacidad calorı́fica negativa!). Siempre que
C > 0, el sistema se dice ser termodinámicamente estable. La razón de este lenguaje
se remonta a nuestra discusión previa sobre dos sistemas que pueden intercambiar en-
ergı́a. En ese entonces, quisimos maximizar la entropı́a y verificamos que tenı́amos un
punto estacionario (1.6), pero nos olvidamos de verificar si este era un máximo o un
mı́nimo. Se garantiza que sea un máximo si la capacidad calorı́fica de ambos sistemas
es positiva, de modo que ∂ 2 S/∂E 2 < [Link] nos olvidamos de verificar si este era un
máximo o un mı́nimo. Se garantiza que sea un máximo si la capacidad calorı́fica de
ambos sistemas es positiva, de modo que ∂ 2 S/∂E 2 < 0.

1.2.3 Un Ejemplo: El Sistema con Dos Estados


Consideremos un sistema de N partı́culas que no interactúan. Cada partı́cula está fija
en posición y puede encontrarse en uno de dos posibles estados que, por conveniencia,
llamaremos “espı́n arriba” | ↑ ⟩ and “espı́n abajo” | ↓ ⟩. Tomaremos que la energı́a de
estos estados es
E↓ = 0 , E↑ = ϵ
lo que significa que los espines quieren estar hacia abajo; pagas un costo de energı́a de
ϵ por cada espı́n que apunta hacia arriba. Si el sistema tiene N↑ partı́culas con espı́n
arriba y N↓ = N − N↑ partı́culas con espı́n hacia abajo, la energı́a del sistema es
E = N↑ ϵ
Ahora podemos contar fácilmente el número de estados Ω(E) del sistema total, que
tiene energı́a E. Es simplemente el número de maneras de escoger N↑ partı́culas del
total de N ,
N!
Ω(E) =
N↑ !(N − N↑ )!
y la entropı́a está dada por
 
N!
S(E) = kB log
N↑ !(N − N↑ )!

– 11 –
A parte: La Fórmula de Stirling
Para N grande, hay una expresión notablemente precisa a los factoriales que aparecen
en la expresión para la entropı́a. Se conoce como la fórmula de Stirling,
log N ! = N log N − N + 12 log 2πN + O(1/N )
Demostrará esto en el primer problemario. Sin em- log(p)
bargo, para nuestros propósitos solo necesitamos los
primeros dos términos de esta expansión y estos se
pueden obtener rápidamente al ver la expresión
N
X Z N
log N ! = log p ≈ dp log p = N log N − N + 1 p
p=1 1 1 2 3 4 N

donde hemos aproximado la suma por medio de una


integral, como se muestra en la figura. También se Figura 2:
puede ver en la figura que la integral da un lı́mite
inferior en la suma que se confirma al verificar los siguientes términos de la fórmula de
Stirling.

De Regreso a la Fı́sica
Utilizando la aproximación de Stirling, podemos escribir la entropı́a como
S(E) = kB [N log N − N − N↑ log N↑ + N↑ − (N − N↑ ) log(N − N↑ ) + (N − N↑ )]
    
N − N↑ N↑
= −kB (N − N↑ ) log + N↑ log
N N
     
E E E E
= −kB N 1− log 1 − + log (1.12)
Nϵ Nϵ Nϵ Nϵ
Un esbozo de S(E) graficado contra E se muestra en la Figura 3. La entropı́a se
desvanece cuando E = 0 (todos los espines abajo) y E = N ϵ (todos los espines arriba)
porque solo hay un posible estado con cada una de estas energı́as. La entropı́a es
máxima cuando E = N ϵ/2, donde se tiene S = N kB log 2.

Si el sistema tiene energı́a E, su temperatura es


 
1 ∂S kB Nϵ
= = log −1
T ∂E ϵ E
También podemos invertir esta expresión. Si el sistema tiene temperatura T , la razón
de partı́culas con espı́n arriba es dada por
N↑ E 1
= = ϵ/k T (1.13)
N Nϵ e B +1

– 12 –
Notemos que conforme T → ∞, la razón de espines S(E)
N ↑ /N → 1/2. En el lı́mite de temperatura infinita, el
sistema se encuentra en el pico de la curva en la Figura
3.

¿Qué sucede para energı́as E > N ϵ/2, donde N↑ /N >


1/2? De la definición de la temperatura como 1/T = E
Nε /2 Nε
∂S/∂E, es claro que hemos entrado en el reino de las
temperaturas negativas. Esto deberı́a de entenderse como Figura 3: Entropı́a del sis-
infinitamente caliente (esto es fácil de ver en las variables tema con dos estados.
1/T que tienden a cero y luego simplemente continua ha-
cia valores negativos). Sistemas que tienen temperaturas negativas tienen la propiedad
de que el número de microestados disminuye conforme añadimos energı́a. Pueden ser
logrados en laboratorios, al menos temporalmente, al cambiar instantáneamente todos
los espines de un sistema.

Capacidad Calorı́fica y la Anomalı́a de Schottky


Finalmente, podemos obtener la capacidad calorı́fica, que escogemos expresar como
función de la temperatura (en lugar de la energı́a) ya que es más natural cuando se
compara con los experimentos. Entonces tenemos

dE N ϵ2 eϵ/kB T
C= = (1.14)
dT kB T 2 (eϵ/kB T + 1)2

Notemos que C es del orden de N , el número C


de partı́culas del sistema. Esta propiedad se
extiende a todos los ejemplos que estudiare-
mos. Un esbozo de C contra T se muestra
en la Figura 4. Empieza en cero, se eleva
a un máximo, luego cae de nuevo. Vere-
mos muchas gráficas en este curso que se ven T

más o menos ası́. Veamos a algunas carac-


terı́sticas clave en este caso. Primero que Figura 4: Capacidad calorı́fica del sistema
nada, el máximo es alrededor de T ∼ ϵ/kB . con dos estados.
En otras palabras, el punto máximo se en-
cuentra en la escala de energı́a caracterı́stica del sistema.

Conforme T → 0, el calor especı́fico cae a cero rápida y exponencialmente (recorde-


mos que e−1/x es una función que tiende a cero más rápido que cualquier potencia de

– 13 –
xn ). La razón de esta rápida caı́da se remonta a la existencia de una brecha de en-
ergı́a, lo que significa que el primero estado excitado se encuentra una energı́a finita
por encima del estado base. La capacidad calorı́fica también cae conforme T → ∞,
pero a un paso mucho más lento. Esta caı́da se debe al hecho de que ahora todos los
estados están ocupados.

La contribución a la capacidad calorı́fica por


parte de los espines no es la dominante en la mayorı́a
de los materiales. Usualmente es eclipsada por la
contribución de los fonones y, en los metales, de los
electrones de conducción, ambos de los cuales cal-
cularemos más adelante en el curso. Sin embargo,
en cierta clase de materiales — por ejemplo, sales
paramagnéticas — una contribución de espines de
la forma (1.14) se puede apreciar a bajas temper-
aturas donde aparece una pequeña abultación en
la gráfica y se le llama la anomalı́a de Schottky. Figura 5:
(Es “anómala” porque la mayorı́a de los materiales
tienen una capacidad calorı́fica que disminuye monótonamente conforme se reduce su
temperatura).En la Figura 5, la contribución de Schottky ha sido aislada de la con-
tribución de los fonones 1 . Los cı́rculos abiertos y los puntos son, ambos, datos (inter-
pretados de formas un poco distintas); la lı́nea sólida es la predicción teórica, aunque
ligeramente complicada por la presencia de varios estados de los espines. Las desvia-
ciones muy probablemente se deban a interacciones entre los espines.

El sistema de dos estados también puede usarse como modelo para los defectos en
una red. En este caso, el estado “espı́n abajo” corresponde a un átomo en la red donde
no deberı́a de haber un costo de energı́a. El estado “espı́n arriba” ahora corresponde a
un átomo faltante, eyectado de su posición a un costo de energı́a de ϵ.

1.2.4 Presión, Volumen y la Primera Ley de la Termodinámica


Comenzaremos a considerar otros parámetros externos que pueden afectar a diferentes
sistemas. Veremos algunos de estos conforme avanzamos en el curso, pero el más
importante es quizá el más obvio – el volumen V de un sistema. Este no jugó un papel
importante en el sistema de dos estados porque las partı́culas se encontraban fijas. Pero
en cuando los objetos son libres de moverse, se vuelve crucial el entender qué tan lejos
pueden deambular.
1
Los datos han sido tomados de Chirico y Westrum Jr., J. Chem. Thermodynamics 12 (1980), 311,
y muestra la contribución de los espines a la capacidad calorı́fica de Tb(OH)3 .

– 14 –
Usaremos la misma notación para el número de estados y para la entropı́a del sistema,
pero ahora estas cantidades serán funciones de la energı́a y del volumen,

S(E, V ) = kB log Ω(E, V )

La temperatura, nuevamente, está dada por 1/T = ∂S/∂E, donde la derivada parcial
implica que se mantiene V constante al derivar. Pero ahora hay una nueva cantidad que
de forma natural podemos considerar — la derivada con respecto de V . Esto también
da una cantidad con la que estamos familiarizados — la presión p. Bueno, casi. La
definición es
∂S
p=T (1.15)
∂V
Para ver que esta es una definición sensata, podemos re-
utilizar loso argumentos de la Sección 1.2.2. Imagine dos
System 1 System 2
sistemas en contacto a través de una pared movible como
se muestra en la figura, pero el sistema 1 puede expandirse
a expensas de que el sistema 2 se encoja. Los mismos argu-
mentos de equilibrio que previamente llevaron a (1.8) ahora
nos dicen que los volúmenes de los sistemas no cambian
Figura 6:
siempre y cuando ∂S/∂V sea igual para ambos sistemas. En
otras palabras, siempre y cuando sus presiones sean iguales.

A pesar de lo que podrı́a parecer, la definición de la presión en realidad apenas tiene


relación con la entropı́a. En términos generales, la S en la derivada se cancela con el
factor de S que se encuentra en T . Para poner esto en matemática, consideremos un
sistema con entropı́a S(E, V ) que sufre un pequeño cambio en su energı́a y volumen.
El cambio en la entropı́a es

∂S ∂S dx
dS = dE + dV Pressure, p Area, A
∂E ∂V
Reordenando, y utilizando nuestras definiciones (1.7) y
(1.15), podemos escribir

dE = T dS − pdV (1.16) Figura 7: Trabajo Real-


izado
El lado izquierdo es el cambio en la energı́a del sistema. Es fácil interpretar el segundo
término en el lado derecho: es el trabajo hecho sobre el sistema. Para entender esto,
consideremos el diagrama en la Figura 7. Recordemos que la presión es la fuerza por

– 15 –
área. El cambio en el volumen en el arreglo es denotado por dV = Área × dx. De modo
que el trabajo hecho por el sistema es Fuerza × dx = (pA)dx = pdV . Para asegurarnos
de que tenemos correcto el signo menos, recordemos que si dV < 0, estamos ejerciendo
una fuerza para comprimir al sistema, aumentando ası́ su energı́a. En contraste, si
dV > 0, el sistema en sı́ está haciendo el trabajo y por lo tanto perdiendo energı́a.

Alternativamente, podrı́amos preferir tomar este argumento al revés: si uno está


cómodo al igualar la compresión del sistema con el trabajo hecho, entonces la dis-
cusión anterior es suficiente para decir que la presión, como se define en (1.15), tiene
la interpretación de ser la fuerza por área.

¿Cuál es la interpretación del primer término del lado derecho de (1.16)? Debe de
ser una forma de energı́a transferida al sistema. Resulta que la interpretación correcta
de T dS es la cantidad de calor que el sistema absorbe de sus alrededores. Gran parte
de la Sección 4 estará dedicada al entendimiento del por qué es esta la manera correcta
de pensar en T dS y pospondremos una discusión completa hasta entonces.

La ecuación (1.16) expresa la conservación de la energı́a para un sistema a una


temperatura finita. Se conoce como la primera ley de la termodinámica (notemos que
¡no estamos obteniendo estas leyes en orden! Esto también será rectificado en la Sección
4).

Como comentario final, ahora podemos dar una definición ligeramente más refinada
de la capacidad calorı́fica (1.9). De hecho, hay varias capacidades calorı́ficas diferentes,
que dependen de qué otras variables se mantienen fijas. A lo largo de gran parte de estas
notas, estaremos interesados en la capacidad calorı́fica a volumen constante, denotada
como CV ,
∂E
CV = (1.17)
∂T V

Utilizando la primera ley de la termodinámica (1.16), vemos que algo especial sucede
cuando mantenemos el volumen constante: el término del trabajo realizado se retira y
tenemos
∂S
CV = T (1.18)
∂T V

Esta forma enfatiza que, como su nombre sugiere, la capacidad calorı́fica mide la ha-
bilidad del sistema para absorber calor T dS a diferencia de cualquier otra forma de
energı́a. (Aunque, es cierto, aún no hemos definido lo que es el calor. Como fue
mencionado antes, esto tendrá que esperar hasta la Sección 4).

– 16 –
La equivalencia de (1.17) y (1.18) solo se sigue porque mantuvimos el volumen con-
stante. ¿Qué es la capacidad calorı́fica si mantenemos alguna otra cantidad, digamos
la presión, constante? En ese caso, la definición correcta de la capacidad calorı́fica es
la expresión análoga a (1.18). Entonces, por ejemplo, la capacidad calorı́fica a presión
constante Cp se define por

∂S
Cp = T
∂T p

Para las siguientes secciones, lidiaremos únicamente con CV . Pero volveremos breve-
mente a la relación entre CV y Cp en la Sección 4.4

1.2.5 Ludwig Boltzmann (1844-1906)


“Mi memoria para las cifras, por lo demás tolerablemente precisa, siempre
me decepciona cuando cuento vasos de cerveza.”

Boltzmann contando

Ludwig Boltzmann nació en un mundo que dudaba de la existencia de los átomos2 .


El efecto acumulado del trabajo de su vida iba a cambiar esto. Nadie en el 1800 hu-
biera pensado que podrı́amos ver átomos directamente y la estrategia de Boltzmann
fue encontrar evidencia indirecta, aunque abrumadora, de su existencia. Desarrolló
la maquinaria estadı́stica que hemos descrito antes y, construyendo sobre el trabajo
de Maxwell, demostró que muchas de las, aparentemente fundamentales, leyes de la
Naturaleza —aquellas que involucran el calor y gases en particular— eran simples con-
secuencias de las leyes del movimiento de Newton al aplicarse a sistemas muy grandes.

A menudo se dice que la gran intuición de Boltzmann fue la ecuación que hoy se
encuentra grabada en su tumba, S = kB log Ω, la cual llevó al entendimiento de la
segunda ley de la termodinámica en términos de desorden microscópico. Sin embargo,
hoy es difı́cil apreciar el atrevimiento de esta propuesta simplemente porque rara vez
pensamos en otra definición de la entropı́a. Conoceremos, de hecho, la otra noción
termodinámica de entropı́a y la segunda ley de la termodinámica en la Sección 4. Por
el momento, quizás la genialidad de Boltzmann se refleja mejor en la sorprendente
ecuación para la temperatura: 1/T = ∂S/∂E.
2
Si quieres aprender más sobre su vida, recomiendo la muy disfrutable biografı́a, Boltzmann’s
Atom de David Lindley. La cita de arriba se ha tomado de un ensayo de viaje que Boltzmann escribió
relatando una visita a California. El ensayo se reimprime en una biografı́a más seca y técnica por
Carlo Cereignani.

– 17 –
Boltzmann ganó prominencia durante su vida, ocupando cátedras en Graz, Vienna,
Munich y Leipzig (sin mencionar una posición en Berlin, a la que por alguna razón
no se presentó). Sin embargo, su trabajo enfrentó muchas crı́ticas por parte de los
que negaban la existencia de los átomos, sobre todo por Mach. No se sabe si dichas
batallas contribuyeron a la depresión que sufrió Boltzmann adelante en su vida, pero el
verdadero significado de su trabajo solo fue apreciado después de que su cuerpo fuera
encontrado colgando de las vigas de una casa de huéspedes en Trieste.

1.3 La Colectividad Canónica

La colectividad microcanónica describe sistemas que tienen una energı́a fija E. De esto,
deducimos la temperatura de equilibrio T . Sin embargo, a menudo esta no es la mejor
manera de tratar un sistema. Por ejemplo, un vaso de agua en una mesa tiene una
energı́a promedio bien definida. Pero la energı́a está en constante fluctuación conforme
interactúa con el ambiente. Para tales sistemas, a menudo es más apropiado tratarlos
como si se encontraran a una temperatura T fija, de la cual después se deduce la energı́a
promedio.

Para modelar esto, consideraremos un sistema — llamémoslo S — en contacto con


un segundo sistema que es un reservorio de calor – llamémoslo R. Se considera este
reservorio a una temperatura de equilibrio T . El término “reservorio” significa que la
energı́a de S es insignificante en comparación con la de R. En particular, S puede
absorber o donar energı́a fácilmente de o hacia el reservorio sin cambiar la temperatura
ambiente T .

¿Cómo se cuentan los niveles de energı́a de S en dicha situación? Llamemos |n⟩ a los
estados de S, cada uno con energı́a En . El número de microestados de los sistemas S
y R combinados es dado por la suma sobre todos los estados de S.

 
X X SR (Etotal − En )
Ω(Etotal ) = ΩR (Etotal − En ) ≡ exp
n n
kB

Hago énfasis en que la suma es sobre todos los estados de S, en lugar de sobre los
niveles de energı́a de S (de haber escrito esto, se hubiese tenido que incluir un factor
de ΩS (En ) en la suma para tomar en cuenta la degeneración de los estados con energı́a
En ). El hecho de que R sea un reservorio implica que En ≪ Etotal . Esto nos permite
hacer una expansión de Taylor sobre la entropı́a, conservando solo los primeros dos
términos,

– 18 –
 
X SR (Etotal ) ∂SR En
Ω(Etotal ) ≈ exp −
n
kB ∂Etotal kB

Pero sabemos que ∂SR /∂Etotal = 1/T , por lo que tenemos


X
Ω(Etotal ) = eSR (Etotal )/kB e−En /kB T
n

Ahora aplicamos la suposición fundamental de la mecánica estadı́stica — que todos lo


estados de energı́a accesibles son igualmente probables — a la combinación sistema +
reservorio. Esto significa que cada uno de los Ω(Etotal ) estados anteriores es igual de
probable. El número de tales estados para los cuales el sistema se encuentra en |n⟩ es
eSR /kB e−En /kB T . Por lo que la probabilidad de que el sistema esté en el estado |n⟩ es
simplemente la razón de este número de estados al número total de estados.

e−En /kB T
p(n) = P −Em /k T (1.19)
me
B

Esta es la distribución de Boltzmann, también conocida como la colectividad canónica.


Véase que los detalles del reservorio han desaparecido. No necesitamos saber SR (E)
del reservorio; lo único que resta de su influencia es la temperatura T .
El desvanecimiento de la exponencial en la distribución de Boltzmann significa que
es muy poco probable que cualquier estado con En ≫ kB T se ocupe. Sin embargo,
todos los estados con energı́a En ≤ kB T tienen una probabilidad considerable de ser
ocupados. Nótese que conforme T → 0, la distribución de Boltzmann obliga al sistema
a caer a su estado base (i.e. el estado con la menor energı́a); la probabilidad de todos
los estados de mayor energı́a se desvanece a temperatura cero.

1.3.1 La Función de Partición


Dado que seguido utilizaremos múltiples cantidades, es práctica habitual introducir
nueva notación. Primero, el factor inverso de la temperatura es universalmente deno-
tado
1
β≡ (1.20)
kB T
Y el factor de normalización en el denominador de la probabilidad se escribe
X
Z= e−βEn (1.21)
n

– 19 –
En esta notación, la probabilidad de que el sistema se encuentre en el estado |n⟩ es
e−βEn
p(n) = (1.22)
Z
Notablemente, resulta que la cantidad más importante en la mecánica estadı́stica es Z.
A pesar de haber sido introducida como un inocente factor de normalización, contiene
toda la información que requerimos del sistema. Debemos pensar de Z, como expresado
en (1.21), como una función de la (inversa) temperatura β. Vista de esta manera, Z es
denominada la función de partición.

Pronto veremos muchas propiedades de Z. Pero empezaremos con un punto básico


pero importante: para sistemas independientes, las Z’s se multiplican. Esto es fácil
de demostrar. Supongamos que tenemos dos sistemas que no interactúan entre sı́.
Entonces, la energı́a del sistema combinado es precisamente la suma de las energı́as
individuales. La función de partición para los sistemas combinados es (en, espero, una
notación obvia)
X (1) (2)
Z = e−β(En +Em )
n,m
X (1) (2)
= e−βEn e−βEm
n,m
X (1) X (2)
= e−βEn e−βEm = Z1 Z2 (1.23)
n m

Una Matriz de Densidad para la Colectividad Canónica


En la mecánica estadı́stica, las probabilidades intrı́nsecas del mundo cuántico se unen
con las probabilidades que surgen de nuestra ignorancia sobre el estado en cuestión.
La manera correcta de describir esto es con una matriz de densidad ρ̂. El colectivo
canónico es en realidad una elección de la matriz de densidad,

e−β Ĥ
ρ̂ = (1.24)
Z
Si hacemos una medición descrita por un operador Ô, la probabilidad de encontrarnos
en el eigenestado |ϕ⟩ es dada por

p(ϕ) = ⟨ϕ|ρ̂|ϕ⟩

Para eigenestados de energı́a, esto coincide con nuestro resultado anterior (1.22). No
utilizaremos el lenguaje de las matrices de densidad en este curso, pero es un modelo
elegante y conceptualmente claro para describir resultados más formales.

– 20 –
1.3.2 Energı́a y Fluctuaciones
Veamos qué información contiene la función de partición. Comenzaremos pensando
en la energı́a. En el colectivo microcanónico, la energı́a estaba fija. En el colectivo
canónico, esto ya no es verdad. Sin embargo, podemos calcular fácilmente la energı́a
promedio
X X En e−βEn
⟨E⟩ = p(n)En =
n n
Z
Pero esto se puede expresar muy bien en términos de la función de partición como

⟨E⟩ = − log Z (1.25)
∂β
También podemos investigar la dispersión de las energı́as alrededor de la media — en
otras palabras, las fluctuaciones en la distribución de probabilidad. Como de costumbre,
esta dispersión está contenida en la varianza,
∆E 2 = ⟨(E − ⟨E⟩)2 ⟩ = ⟨E 2 ⟩ − ⟨E⟩2
Esto también se puede escribir muy cómodamente en términos de la función de par-
tición,
2 ∂2 ∂⟨E⟩
∆E = 2
log Z = − (1.26)
∂β ∂β
Existe otra expresión para las fluctuaciones que ofrece perspectiva. Recordemos nuestra
definición de capacidad calorı́fica (1.9) en el colectivo microcanónico. En el colectivo
canónico, donde la energı́a no es fija, la definición correspondiente es
∂⟨E⟩
CV =
∂T V

Por lo tanto, dado que β = 1/kB T , la distribución de energı́as en (1.26) se puede


expresar en términos de la capacidad calorı́fica como
∆E 2 = kB T 2 CV (1.27)
Hay dos puntos importantes escondidos dentro de esta pequeña ecuación. El primero es
que la ecuación relaciona dos cantidades distintas. En el lado izquierdo, ∆E describe
las fluctuaciones de probabilidad en la energı́a del sistema. En el lado derecho, la
capacidad calorı́fica CV describe la habilidad del sistema para absorber energı́a. Si CV
es muy grande, el sistema puede admitir mucha energı́a sin elevar tanto su temperatura.
La ecuación (1.27) nos dice que las fluctuaciones de los sistemas están relacionadas con
la habilidad del sistema de disipar o absorber energı́a. Este es el primer ejemplo de un
resultado más general conocido como el teorema de fluctuación-disipación.

– 21 –
El segundo punto a resaltar de (1.27) es el tamaño de las fluctuaciones conforme el
número de partı́culas N del sistema incrementa. Usualmente E ∼ N y CV ∼ N . Lo
que significa que el tamaño relativo de las fluctuaciones escala de acuerdo a
∆E 1
∼√ (1.28)
E N
El lı́mite N → ∞ se conoce como el lı́mite termodinámico. La energı́a se desvı́a más y
más cerca al valor medio ⟨E⟩ y, esencialmente, se puede tratar como fija. Pero este fue
nuestro punto de partida para el colectivo microcanónico. En el lı́mite termodinámico,
el colectivo canónico y microcanónico coinciden.
Todos los ejemplos que discutiremos en el curso tienen un número muy grande
partı́culas, N , y de manera segura podemos considerar que nos encontramos en el
lı́mite termodinámico. Por esta razón, incluso en el colectivo canónico, comúnmente
escribiremos E como la energı́a promedio en lugar de ⟨E⟩.

Un Ejemplo: El Sistema con Dos Estados Revisado


Podemos derivar nuevamente nuestros resultados previos para el sistema de dos estados
usando el colectivo canónico. Es un poco más simple. Para una sola partı́cula con dos
niveles de energı́a, 0 y ϵ, la función de partición se da por
X
Z1 = e−βEn = 1 + e−βϵ = 2e−βϵ/2 cosh(βϵ/2)
n

Queremos la función de partición para N de tales partı́culas. Pero vimos en (1.23) que
si tenemos sistemas independientes, entonces simplemente necesitamos multiplicar sus
funciones de partición. Entonces tenemos
Z = 2N e−N βϵ/2 coshN (βϵ/2)
de lo cual podemos calcular fácilmente la energı́a promedio
∂ Nϵ
⟨E⟩ = − log Z = (1 − tanh(βϵ/2))
∂β 2
Un poco de álgebra revelará que esta es la misma expresión que derivamos en el colec-
tivo microcanónico (1.13). Podrı́amos continuar y calcular la capacidad calorı́fica y
reproducir el resultado (1.14).
Nótese que, a diferencia de con el colectivo microcanónico, no tuvimos que resolver
ningún problema de combinatoria para contar los estados. La función de partición ha
hecho todo el trabajo por nosotros. Por supuesto, para este caso simple de un sistema
con dos estados, el contar no fue difı́cil, pero en ejemplos más adelante, donde contar
se vuelve algo truculento, la función de partición será una herramienta valiosa que nos
ahorrará trabajo.

– 22 –
1.3.3 Entropı́a
Recuerda que en el colectivo microcanónico, la entropı́a cuenta el (logaritmo del)
número de estados con energı́a fija. Nos gustarı́a definir una cantidad análoga en
el colectivo canónico donde tengamos una distribución de probabilidad sobre los es-
tados con diferentes energı́as. ¿Cómo procedemos? Nuestra estrategia será regresar
nuevamente al colectivo microcanónico, aplicado ahora al sistema combinado sistema
+ reservorio.

De hecho, vamos a utilizar un pequeño truco. Supongamos que no tenemos solo una
copia del sistema S, sino un gran número, W , de copias idénticas. Cada sistema se
encuentra en un estado particular |n⟩. Si W es lo suficientemente grande, el número de
sistemas que están en el estado |n⟩ debe ser simplemente p(n)W . Vemos que el truco de
tomar W copias ha transformado probabilidades en eventualidades. Para determinar la
entropı́a podemos tratar a la toda la colección de W sistemas como si se encontraran en
el colectivo microcanónico, al cual podemos aplicar la definición familiar de la entropı́a
de Boltzmann (1.2). Solo debemos encontrar cuántas maneras existen de poner p(n)W
sistemas en el estado |n⟩ para cada |n⟩. Esto es un problema de combinatoria sencillo:
la respuesta es
W!
Ω= Q
n (p(n)W )!

Y por lo tanto la entropı́a es


X
S = kB log Ω = −kB W p(n) log p(n) (1.29)
n

donde hicimos uso de la fórmula de Stirling para simplificar los logaritmos de los facto-
riales. Esta es la entropı́a para todas las copias W del sistema. Pero sabemos también
que la entropı́a es aditiva. Entonces, la entropı́a de una sola copia del sistema, con
distribución de probabilidad p(n) sobre los estados, es
X
S = −kB p(n) log p(n) (1.30)
n

Esta bonita fórmula se le debe a Gibbs. Fue redescubierta algunas décadas después en
el contexto de la teorı́a de la información donde se le conoce con el nombre de entropı́a
de Shannon para sistemas clásicos o entropı́a de von Neumann para sistemas cuánticos.
En el contexto cuántico, a veces se escribe en términos de la matriz de densidad (1.24)
como

S = −kB Tr ρ̂ log ρ̂

– 23 –
Cuando introdujimos la entropı́a por primera vez en la colectividad microcanónica, la
vimos como una función de la energı́a E. Sin embargo (1.30) ofrece una perspectiva
muy diferente para la entropı́a: dice que deberı́amos considerar a S como una función
de la distribución de probabilidad. No hay contradicción con el colectivo microcanónico
debido a que en ese caso simple, la misma distribución de probabilidad se determina
por la elección de la energı́a E. De hecho, es fácil comprobar (y el lector deberı́a) que
la entropı́a de Gibbs (1.30) revierte a la entropı́a de Boltzmann en el caso especial en
el que p(n) = 1/Ω(E) para todos los estados |n⟩ de energı́a E.

Mientras tanto, en el colectivo canónico, la distribución de probabilidad se determina


completamente por la elección de la temperatura T . Esto significa que la entropı́a es
naturalmente una función de T . De hecho, sustituyendo la distribución de Boltzmann
p(n) = e−βEn /Z en la expresión (1.30), encontramos que la entropı́a en el colectivo
canónico es dada por
 −βEn 
kB X −βEn e
S=− e log
Z n Z
kB β X
= En e−βEn + kB log Z
Z n

Como usualmente es con todas las otras cantidades importantes, esto se puede expresar
de manera elegante en términos de la función de partición como

S = kB (T log Z) (1.31)
∂T
Un Comentario sobre los Colectivos Microcanónico y Canónico
Los colectivos microcanónico y canónico son distribuciones de probabilidades diferentes.
Esto implica, desde la definición (1.30), que generalmente tienen diferentes entropı́as.
No obstante, en el lı́mite de un muy grande número de partı́culas, N → ∞, todas las
observables fı́sicas — incluyendo la entropı́a — coinciden en ambas distribuciones. Ya
hemos visto esto al calcular la varianza de la energı́a (1.28) en el colectivo canónico.
Veamos a más detalle como funciona esto.

La función de partición en (1.21) es una suma sobre todos los estados. Podemos
reescribirla como una suma sobre niveles de energı́a al incluir un factor de degeneración
X
Z= Ω(Ei )e−βEi
{Ei }

El factor de degeneración Ω(E) comúnmente es una función de E que crece rápidamente,


mientras que la supresión de Boltzmann e−βE decrece rápidamente. Sin embargo, para

– 24 –
ambos el exponente es proporcional al número N que es exponencialmente grande. Esto
asegura que la suma sobre los niveles de energı́a sea completamente dominada por el
valor máximo E⋆ definido por
∂  
Ω(E)e−βE =0
∂E E=E⋆

y la función de partición puede ser aproximada como

Z ≈ Ω(E⋆ )e−βE⋆

(Este es el mismo tipo de argumento que utilizamos en (1.2.1) para nuestra discusión
de la Segunda Ley). Con esta aproximación, podemos usar (1.25) para mostrar que la
energı́a más probable E⋆ y la energı́a promedio ⟨E⟩ coinciden:

⟨E⟩ = E⋆

(Se requiere el resultado de (1.7) en la forma de ∂ log Ω(E⋆ )/∂E⋆ = β para derivar
esto). De manera similar, utilizando (1.31), podemos demostrar que la entropı́a en el
colectivo canónico es

S = kB log Ω(E⋆ )

Maximización de la Entropı́a
Existe una manera unificada de pensar sobre los colectivos microcanónico y canónico
en términos de un principio de variación: ambos colectivos cumplen la propiedad de
maximizar la entropı́a sujetos a ciertas restricciones. La única diferencia entre ellos son
las restricciones que se les imponen.

Empecemos con el colectivo microcanónico, en donde ajustamos la energı́a del sistema


para permitir solamente probabilidades diferentes de cero para los estados con energı́a
E. Es posible entonces calcular la entropı́a utilizando la fórmula de Gibbs (1.30) para
cualquier distribución de probabilidad. Debemos únicamente insistir que todas las
P
probabilidades sumen uno: n p(n) = 1. Podemos maximizar S sujeta a esta condición
P
introduciendo un multiplicador de Lagrange α y maximizando S + αkB ( n p(n) − 1),
!
∂ X X
− p(n) log p(n) + α p(n) − α = 0 ⇒ p(n) = eα−1
∂p(n) n n

Esto revela que todos los estados con energı́a E son igualmente probables. Esto es el
colectivo microcanónico.

– 25 –
En la hoja de ejemplos, se le pedirá demostrar que el colectivo canónico se puede ver
de la misma manera: es la distribución de probabilidad la que maximiza la entropı́a
sujeta a la restricción de que la energı́a promedio esté fija.

1.3.4 Energı́a Libre


Hemos dejado para el final la cantidad más importante del colectivo canónico. Se le
llama la energı́a libre,

F = ⟨E⟩ − T S (1.32)

De hecho hay múltiples cantidades compitiendo por el nombre ”energı́a libre”, pero
la cantidad F es con la que los fı́sicos normalmente trabajan. Cuando sea necesario
clarificar, se le refiere con el nombre de energı́a libre de Helmholtz. La palabra ”libre”
aquı́ no significa ”sin costo”. La energı́a nunca es libre en ese sentido. Más bien, debe
interpretarse como energı́a ”disponible”.

Podemos pensar que la energı́a libre encapsula la competencia entre la energı́a y la


entropı́a que ocurre en un sistema a temperatura constante. En un baño térmico, la
energı́a no es necesariamente demandada. De hecho, decimos en el ejemplo de dos
estados que el estado base importa poco en la fı́sica a temperatura positiva. A su vez,
el rol de la entropı́a se hace más importante: la existencia de muchos estados de alta
energı́a le gana a pocos estados de aja energı́a.

El hecho de que la energı́a libre sea una cantidad apropiada para tratar sistemas a
temperatura fija también se encuentra desde sus propiedades matemáticas. Recuerde
que comenzamos en el colectivo microcanónico definiendo la entropı́a S = S(E, V ). Si
invertimos esta expresión, podemos de manera similar pensar sobre la energı́a como
una función de entropı́a y volumen: E = E(S, V ). Esto se refleja en la primera ley
de la termodinámica (1.16) que expresa dE = T dS − pdV . Sin embargo, al considerar
variaciones pequeñas en F , obtenemos

dF = d⟨E⟩ − d(T S) = −SdT − pdV (1.33)

Esta forma de la variación nos dice que deberı́amos pensar sobre la energı́a libre como
función de temperatura y volumen: F = F (T, V ). Matemáticamente, F es una trans-
formada de Legendre de E.

Dada la energı́a libre, la variación (1.33) dicta como recuperar la entropı́a,

∂F
S=− (1.34)
∂T V

– 26 –
De manera similar, la presión se da por
∂F
p=− (1.35)
∂V T

La energı́a libre es la cantidad más importante a temperatura fija. Adicionalmente, es


la cantidad más directamente relacionada con la función de partición Z:
F = −kB T log Z (1.36)
Esta relación proviene de (1.25) y (1.31). Utilizando la identidad ∂/∂β = −kB T 2 ∂/∂T ,
estas expresiones nos permiten escribir la energı́a libre como
∂ ∂
F = E − T S = kB T 2 log Z − kB T (T log Z)
∂T ∂T
= −kB T log Z
como prometido.

1.4 El Potencial Quı́mico


Antes de pasar a las aplicaciones, hay una última parte del formalismo que debemos
introducir. Esto surge en situaciones donde hay alguna otra cantidad conservada que
restringe los estados que sean accesibles para sistema. El ejemplo más común es sim-
plemente el número de partı́culas N en un sistema. Otro ejemplo es la carga eléctrica
Q. Para propósitos de exactitud, consideraremos el número de partı́culas en nuestra
discusión pero todos los comentarios aplican para cualquier cantidad conservada.

En el colectivo microcanónico tanto como en el canónico, debemos considerar únicamente


estados con un valor N fijo. Ya hemos hecho esto al discutir el sistema de dos estados
— por ejemplo, la expresión para la entropı́a (1.12) depende explı́citamente del número
de partı́culas N . A continuación haremos esta dependencia explı́cita y expresaremos
S(E, V, N ) = kB log Ω(E, V, N )
La entropı́a nos lleva a la temperatura como 1/T = ∂S/∂E y a la presión como p =
T ∂S/∂V . Sin embargo, ahora tenemos otra opción: podemos diferenciar con respecto
al número de partı́culas N . A la cantidad resultante se le llama el potencial quı́mico,
∂S
µ = −T (1.37)
∂N
Usando esta definición es posible reutilizar los argumentos dados en la Sección 1.2.2
para sistemas que tienen permitido intercambiar partı́culas. Este tipo de sistemas
están en equilibrio solo si tienen un potencial quı́mico µ equivalente. A esta condición
usualmente se le refiere como equilibrio quı́mico.

– 27 –
Para familiarizarnos con el significado del potencial quı́mico, podemos repasar la
primera ley de la termodinámica (1.16), esta vez permitiendo también un cambio en el
número de partı́culas. Escribiendo dS = . . . y reorganizando, tenemos,

dE = T dS − pdV + µdN (1.38)

Esto nos revela el significado del potencial quı́mico: es el costo en términos de energı́a
de añadir una partı́cula más al sistema manteniendo fijos ambos S y V . (Estrictamente
hablando, una cantidad infinitesimal de partı́cula, pero si estamos añadiéndole una más
a 1023 partı́culas, eso cuenta eficientemente como un cambio infinitesimal). Si lo que nos
interesa es la carga eléctrica Q, en lugar del número de partı́culas, el potencial quı́mico
toma la misma forma que el potencial electrostático de un sistema que el lector ya
habrá conocido en su primer curso de Electromagnetismo.

De hecho, hay una lección sutil en la derivación anterior que vale la pena presentar
explı́citamente. Es el tipo de situación que sucede seguido en la termodinámica cuando
comúnmente se trabaja con muchas variables y se requiere cuidado respecto a cuáles
se están manteniendo fijas. Definimos el potencial quı́mico como µ = −T ∂S/∂N |E,V .
Sin embargo, la primera ley nos dice que también podemos pensar sobre el potencial
quı́mico como µ = ∂E/∂N |S,V . ¿Por qué estas expresiones son equivalentes? Esto
proviene de una fórmula general para derivadas parciales. Si tiene tres variables x, y y
z, con una sola restricción entre ellas, entonces µ = −T ∂S/∂N |E,V .

∂x ∂y ∂z
= −1
∂y z ∂z x ∂x y

Aplicando esta fórmula general a E, S y N brindan el resultado requerido

∂E ∂S ∂E
=− =µ
∂N S,V ∂N E,v ∂S N,V

Si trabajamos a temperatura constante en vez de energı́a constante, la función relevante


es la energı́a libre F (T, V, N ) = E − T S. Los cambios pequeños se dan por

dF = −SdT − pdV + µdN

de donde podemos ver que el potencial quı́mico también puede definirse como

∂F
µ=
∂N T,V

– 28 –
1.4.1 La Colectividad Macrocanónica
Al hacer nuestra transición del colectivo microcanónico al canónico, ya no habı́a tanta
rigidez en nuestra insistencia de que el sistema tuviera energı́a fija. Ahora, podı́a
intercambiar energı́a libremente con el reservorio a su alrededor, el cual se mantenı́a
a una temperatura fija. Ahora podemos imaginar el mismo caso para cualquier otra
cantidad conservada. Por ejemplo, si las partı́culas son libres de moverse entre el
sistema y el reservorio, entonces N ya no es fijo. En dicha situación, podemos requerir
que el reservorio exista con un potencial quı́mico µ fijo, ası́ como con una temperatura
T fija.

A la distribución de probabilidad que debemos usar en este caso se le llama lacolectividad


macrocanónica. La probabilidad de encontrar al sistema en un estado |n⟩ depende tanto
de la energı́a En como del número de partı́culas Nn . (Nótese que dado que N es con-
servado, el operador cuántico necesariamente conmuta con el hamiltoniano, por lo que
no hay dificultad para asignare a cada estado ambos energı́a y número de partı́culas).
Introducimos entonces la función de partición macrocanónica
X
Z(T, µ, V ) = e−β(En −µNn ) (1.39)
n

Repitiendo el argumento utilizado para el colectivo canónico, se encuentra que la prob-


abilidad de que el sistema se encuentre en el estado |n⟩ es

e−β(En −µNn )
p(n) =
Z
En el colectivo canónico, la función de partición Z contiene toda la información nece-
saria. En el colectivo macrocanónico, esta información la contiene Z. Nuevamente, la
entropı́a (1.30) se da por


S = kB (T log Z) (1.40)
∂T
mientras que, de diferenciar con respecto de β, surge


⟨E⟩ − µ⟨N ⟩ = − log Z (1.41)
∂β

El número promedio de partı́culas ⟨N ⟩ del sistema puede entonces ser extraı́do como

1 ∂
⟨N ⟩ = log Z (1.42)
β ∂µ

– 29 –
y sus fluctuaciones,

1 ∂2 1 ∂⟨N ⟩
∆N 2 = 2 2
log Z = (1.43)
β ∂µ β ∂µ

Justo como la energı́a promedio se determina desde la temperatura en el colectivo


canónico, aquı́ el número promedio de partı́culas se determina desde el potencial quı́mico.
El colectivo macrocanónico se simplificará en unos cálculos más adelante, especialmente
cuando lleguemos a discutir gases de Bose y Fermi en la Sección 3.

El tamaño relativo depla escala de estas fluctuaciones, ası́ como de las fluctuaciones de
energı́a ∆N/⟨N ⟩ ∼ 1/ ⟨N ⟩, en el lı́mite termodinámico N → ∞, resultan del punto
de coincidencia de los tres colectivos. Es por esto que abandonaremos los paréntesis
angulares para promedios ⟨·⟩ de nuestra notación y nos referiremos al número promedio
de partı́culas simplemente como N .

1.4.2 Potencial Macrocanónico


El potencial macrocanónico Φ se define como

Φ = F − µN

Φ es una transformada de Legendre de F , de la variable N a µ. Esto se da especialmente


si nos fijamos en variaciones pequeñas,

dΦ = −SdT − pdV − N dµ (1.44)

las cuales nos dicen que Φ debe pensarse como una función de temperatura, volumen
y potencial quı́mico Φ = Φ(T, V, µ).

Es posible hacer las mismas manipulaciones algebraicas que nos dieron F en términos
de la función canónica de partición Z, esta vez haciendo uso de las definiciones (1.40)
y (1.41), para escribir Φ como

Φ = −kB T log Z (1.45)

1.4.3 Cantidades Extensivas e Intensivas


Hay una propiedad de Φ bastante especial y, a primera vista, sorprendente. De hecho,
esta propiedad surge de simples consideraciones sobre el cambio de diferentes variables
en sistemas cada vez más grandes.

– 30 –
Suponga que dado un sistema, lo duplicamos. Esto significa que duplicamos el vol-
umen V , el número de partı́culas N y la energı́a E. ¿Qué sucede con el resto de las
variables? Hemos visto en la Sección 1.2.1 que la entropı́a es aditiva, por lo que S
también se duplica. Generalmente, si multiplicamos V , N y E por una cantidad λ, la
entropı́a debe crecer como

S(λE, λV, λN ) = λS(E, V, N )

Cantidades como E, V , N y S que crecen en escala de esta manera se llaman extensivas.


Por el contrario, las variables que surgen al diferenciar la entropı́a, como temperatura
1/T = ∂S/∂E, presión p = T ∂S/∂V y potencia quı́mico µ = T ∂S/∂N involucran
proporciones de dos cantidades extensivas, por lo que cambian cuando se modifica la
escala del sistema: se les llama cantidades intensivas.

¿Qué sucede entonces al utilizar transformadas sucesivas de Legendre? La energı́a


libre F = E − T S también es extensiva (dado que E y S son extensivas mientras que
T es intensiva). Es por esto que debe cambiar su escala obedeciendo

F (T, λV, λN ) = λF (T, V, N ) (1.46)

De igual manera, el potencial macrocanónico Φ = F −µN es extensivo y varı́a su escala


de la forma

Φ(T, λV, µ) = λΦ(T, V, µ) (1.47)

Hay algo especial sobre esta última ecuación debido a que Φ depende solamente de una
variable extensiva (V ). A pesar de que hay muchas maneras de modelar una energı́a
libre que obedezca (1.46) (por ejemplo, cualquier función de la forma F ∼ V n+1 /N n es
suficiente), solo hay una manera de satisfacer (1.47): que Φ sea proporcional a V . Esta
constante de proporcionalidad ya tiene un nombre: presión (en realidad es la presión
negativa como puede observar en (1.44)). Entonces, tenemos la ecuación

Φ(T, V, µ) = −p(T, µ)V (1.48)

que parece indicar que obtuvimos algo de la nada. Si F es una función complicada
de V , ¿a dónde van estas complicaciones después de la transformada de Legendre a
Φ? La respuesta es que estas complejidades se almacenan en la presión p(T, µ) al ser
expresada como función de T y µ. A pesar de esto, la ecuación (1.48) demostrará ser
una manera extremadamente económica para calcular la presión de múltiples sistemas.

– 31 –
1.4.4 Josiah Willard Gibbs (1839-1903)
“Usualmente, la prosa de Gibbs transmite su significado de una manera sufi-
cientemente clara, utilizando no más del doble de las palabras que Poincaré
o Einstein hubieran usado para expresar la misma cosa.”

E.T. Jaynes sobre la dificultad de leer a Gibbs.

Gibbs fue probablemente el primer fı́sico teórico Americano. Muchos de los de-
sarrollos que conocimos en este capı́tulo son gracias a él, incluyendo la energı́a libre,
el potencial quı́mico y, más importante, la idea de colectividades. Incluso el nombre
“mecánica estadı́stica” fue inventado por Gibbs.

Gibbs proporcionó el primer paradigma moderno de este campo en un tratado publi-


cado poco antes de su muerte. Muy poca gente lo comprendió. Lord Rayleigh le escribió
a Gibbs sugiriendo que su libro estaba “muy condensado y difı́cil para la mayorı́a, si
no es que para todo lector”. Gibbs no estuvo de acuerdo. Escribió de vuelta diciendo
que el libro solamente estaba “demasiado largo”.

No parecen haber muchas historias interesantes sobre Gibbs. Fue graduado de Yale.
Completó un doctorado en Yale. Se convirtió en profesor en Yale. Al parecer raramente
salı́a de New Haven. Sorprendentemente, no recibió ningún salario en los primeros diez
años de su profesorado. Fue solamente hasta que recibió una oferta de John Hopkins
de $3000 dólares anuales que se les ocurrió en Yale pagarle al mejor fı́sico de América.
Hicieron una contraoferta de $2000 dólares y Gibbs se quedó.

– 32 –
2. Gases Clásicos

Nuestra meta en esta sección es hacer uso de las técnicas de la mecánica estadı́stica para
describir la dinámica del sistema más sencillo posible: un gas. Esto implica muchas
partı́culas flotando dentro de una caja. A pesar de que gran parte de la sección anterior
se formuló en el lenguaje de la mecánica cuántica, por ahora regresaremos a la mecánica
clásica. No obstante, un tema recurrente será que el mundo cuántico nunca está muy
lejos: veremos múltiples problemas, tanto teóricos como experimentales, que solo se
pueden resolver en su totalidad haciendo uso de ℏ.

2.1 La Función de Partición Clásica


Durante la mayor parte de esta sección trabajaremos en la colectividad canónica.
Comenzamos reformando la idea de la función de partición para la mecánica clásica.
Considere un sistema simple – una partı́cula de masa m moviéndose en tres dimensiones
en un potencial V (⃗q). El hamiltoniano clásico del sistema3 es la suma de las energı́as
cinética y potencial,

p⃗2
H= + V (⃗q)
2m
Anteriormente definimos la función de partición (1.21) como la suma sobre todos los
estados cuánticos del sistema. Ahora queremos formular algo similar. En la mecánica
clásica, el estado de un sistema es determinado por un punto en el espacio fase. Es
requerido especificar la posición y el momento de cada una de as partı́culas — solo ası́
tendremos suficiente información para determinar el comportamiento del sistema para
cualquier tiempo en el futuro. Esto motiva la definición de la función de partición para
una partı́cula clásica como una integración sobre el espacio fase,
Z
1
Z1 = 3 d3 qd3 p e−βH(p,q) (2.1)
h

Lo único excéntrico es el factor 1/h3 en el frente. Es una cantidad que requiere estar
ahı́ simplemente por razones de dimensiones: Z no debe tener dimensiones, por lo que
h debe tener dimensión (posición × momento) o, de manera equivalente, Joule-segundo
(Js). El valor de h no importará para cualquier observable fı́sica como la capacidad
calorı́fica dado que siempre tomamos log Z y diferenciamos. A pesar de esto, existe un
valor correcto para h: es la constante de Planck, h = 2πℏ ≈ 6.6 × 10−34 Js.
3
Si no ha tomado el curso de Mecánica Clásica, deberı́a pensar sobre el hamiltoniano como la
energı́a del sistema expresada en términos de la posición y el momento de la partı́cula.

– 33 –
Es bastante inusual ver la constante de Planck en una fórmula que supone ser clásica.
¿Qué está haciendo ahı́? En realidad, es un objeto vestigial, como el pezón masculino.
Es redundante, sirve solo como un recordatorio de donde venimos. Y el mundo clásico
vino del cuántico.

2.1.1 De lo Cuántico a lo Clásico


Es posible obtener la función de partición clásica (2.1) directamente desde la cuántica
(1.21) sin enredos. Además, esto nos revelará el porqué del factor 1/h afuera de la
función. El procedimiento es un poco tedioso pero vale la pena (técnicas similares
serán de ayuda en cursos próximos cuando se introduzca a la integral de caminos). Para
hacernos la vida más fácil, consideremos una partı́cula moviéndose en una dimensión
espacial. Tiene un operador de posición q̂, de momento p̂, y un hamiltoniano
p̂2
Ĥ = + V (q̂)
2m
Si |n⟩ es el eigenestado de la energı́a En , su función de partición cuántica es
X X
Z1 = e−βEn = ⟨n|e−β Ĥ |n⟩ (2.2)
n n

En lo que resta, haremos un uso libre de nuestra autoridad de poder insertar el oper-
ador identidad en cualquier parte de esta expresión. Los operadores identidad pueden
construirse al sumar sobre cualquier base de estados completa. Serán necesarias dos
construcciones de este tipo, usando los eigenvectores de posición |q⟩ y los de momento
|p⟩,
Z Z
1 = dq |q⟩⟨q| , 1 = dp |p⟩⟨p|

Comenzaremos insertando dos copias de la identidad construida desde los eigenvectores


de posición,
X Z Z
−β Ĥ
Z1 = ⟨n| dq |q⟩⟨q|e dq ′ |q ′ ⟩⟨q ′ |n⟩
Zn X
= dqdq ′ ⟨q|e−β Ĥ |q ′ ⟩ ⟨q ′ |n⟩⟨n|q⟩
n
P
Ahora es posible reemplazar n |n⟩⟨n| con la matriz identidad y hacer uso de que
⟨q ′ |q⟩ = δ(q ′ − q) para obtener
Z
Z1 = dq ⟨q|e−β Ĥ |q⟩ (2.3)

– 34 –
Es evidente que este resultado vino de reemplazar la suma sobre los eigenestados en-
ergéticos en (2.2) por una suma (o integral) sobre eigenestados de posición en (2.3).
Si ası́ lo deseara, usted podrı́a hacer lo mismo y obtener la suma sobre cualquier base
completa de eigenestados de su elección. Adicionalmente, esto significa que podemos
expresar la función de partición de una manera independiente de la base como

Z1 = Tr e−β Ĥ

Hasta ahora, nuestras manipulaciones pudieron haber sido aplicadas a cualquier sistema
cuántico. Lo que ahora queremos hacer es tomar el lı́mite clásico. Esto ocurre cuando
intentamos factorizar e−β Ĥ en términos de posición y momento. El problema es que esto
no siempre es posible cuando tratamos con matrices (u operadores) en el exponente.
Recuerde que
1
e eB̂ = eÂ+B̂+ 2 [Â,B̂]+...

En nuestro caso tenemos que [q̂, p̂] = iℏ. Esto significa que si estamos dispuestos a
ignorar términos del orden de ℏ — lo cual es es significado de tomar un lı́mite clásico
— entonces podemos escribir
2 /2m
e−β Ĥ = e−β p̂ e−βV (q̂) + O(ℏ)

De esta manera podemos empezar a reemplazar algunos operadores en el exponente,


como V (q̂), con funciones V (q) (la diferencia en notación es sutil pero importante en
las expresiones a continuación),
Z
2
Z1 = dq ⟨q|e−β p̂ /2m e−βV (q̂) |q⟩
Z
2
= dq e−βV (q) ⟨q|e−β p̂ /2m |q⟩
Z
2
= dqdpdp′ e−βV (q) ⟨q|p⟩⟨p|e−β p̂ /2m |p′ ⟩⟨p′ |q⟩
Z
1
= dqdp e−βH(p,q)
2πℏ

donde, en la última lı́nea, hicimos uso de la identidad


1
⟨q|p⟩ = √ eipq/ℏ
2πℏ
Esto completa el procedimiento de obtención.

– 35 –
2.2 Gas Ideal
El primer gas clásico que veremos consiste de N partı́culas dentro de un volumen V .
El gas es “ideal”. Esto simplemente significa que las partı́culas no interactúan entre
sı́. Por el momento, supongamos que las partı́culas no tienen estructura interna, esto
es, no hay grados de libertad rotacionales o vibracionales. A este sistema usualmente
se le conoce como gas ideal monoatómico. El hamiltoniano para cada partı́cula es
simplemente la energı́a cinética
p⃗ 2
H=
2m
Y la función de partición para una partı́cula es
Z
1 2
Z1 (V, T ) = 3
d3 qd3 p e−β⃗p /2m (2.4)
(2πℏ)
R
La integral de la posición es entonces trivial y resulta en d3 q = V , el volumen de la
caja. La integral del momento también es simple ya que se factoriza en las integrales
separadas de px , py y pz , las cuales son individualmente una Gaussiana de la forma
Z r
2 π
dx e−ax =
a
Entonces tenemos
 3/2
mkB T
Z1 = V
2πℏ2
En lo que resta, nos encontraremos seguido con el término en los paréntesis, por lo que
es conveniente darle un nombre. Escribiremos:
V
Z1 = (2.5)
λ3
A la cantidad λ se le llama longitud de onda térmica de De Broglie,
s
2πℏ2
λ= (2.6)
mkB T
λ tiene dimensiones de longitud. Veremos más adelante que podemos pensar de λ como
algo similar a la longitud de onda de De Broglie de una partı́cula a temperatura T .
Nótese que es un objeto cuántico – contiene una ℏ – por lo que podemos esperar que
se elimine de cualquier cantidad clásica que calculemos. La misma función de partición
(2.5) cuenta el número de estas longitudes de onda térmicas que podemos meter en un
volumen V .

– 36 –
Figura 8: Derivaciones desde la ley de Figura 9: Derivaciones desde la ley de
gas ideal para densidades reducidas. gas ideal para densidades extremas.

Z1 es la función de partición para una partı́cula. Tenemos N partı́culas sin interactuar


en la caja, por lo que la función de partición de todo el sistema es
VN
Z(N, V, T ) = Z1N = (2.7)
λ3N
(Técnicamente, nos estamos saltando algo extra, por lo que esta ecuación no es del todo
correcta. Por ahora, esto no afectará nuestro procedimiento. Veremos el problema se
a más detalle en la Sección 2.2.3.)

Una vez teniendo la función de partición Z, podemos calcular lo que deseemos.


Empezaremos con la presión, la cuál podemos extraer desde la función de partición
haciendo uso de (1.35) tras calcular la energı́a libre (1.36). Tenemos
∂F
p=−
∂V

= (kB T log Z)
∂V
N kB T
= (2.8)
V
Esta ecuación es una vieja amistad – es la ley del gas ideal pV = N kB T que cono-
cemos desde el preescolar. Nótese que, efectivamente, la longitud de onda térmica λ
desapareció de las ecuaciones como lo esperábamos. Ecuaciones de esta forma, que
relacionan presión, volumen y temperatura, son llamadas ecuaciones de estado. Cono-
ceremos muchas otras a lo largo del curso.

Como muestran las figuras anteriores4 , la ley de gas ideal es una excelente descripción
para gases en densidades bajas. Los gases se desvı́an de este comportamiento ideal
4
Ambas figuras fueron tomadas del libro de texto web “Quı́mica General” y son acreditadas a John
Hutchinson.

– 37 –
mientras más incrementen en sus densidades y entonces se vuelven importantes las
interacciones entre sus átomos. En la Sección 2.5, veremos como surge esto desde el
punto de vista de fuerzas microscópicas.

Vale la pena decir que esta derivación deberı́a aclarar cualquier duda sobre la definición
de temperatura dada en (1.7). Lo que llamamos T coincide con la noción común de
temperatura aplicada a gases. La propiedad clave de la temperatura es que si dos sis-
temas están en equilibrio, entonces tienen la misma T . Esto es suficiente para asegurar
que la ecuación (1.7) es la definición correcta de temperatura para todo sistema ya que
siempre podemos poner cualquiera de estos en equilibrio con un gas ideal.

2.2.1 Equipartición de la Energı́a


Le función de partición (2.7) tiene mucho más que ofrecer. Podemos calcular la energı́a
promedio de un gas ideal
∂ 3
E=− log Z = N kB T (2.9)
∂β 2
Hay una lección importante escondida bajo esta fórmula. Para aclararla, ves conve-
niente repetir nuestro análisis para un gas ideal en un número arbitrario de dimensiones
espaciales D. Una simple generalización de los cálculos anteriores demuestra que

VN D
Z= ⇒ E= N kB T
λDN 2
Cada partı́cula tiene D grados de libertad (esto es porque se puede mover en cada una
de las D dimensiones espaciales). Encima de esto, cada partı́cula contribuye 12 DkB T
a la energı́a promedio. Esto es una regla general para todo sistema clásico: la energı́a
promedio de cada grado de libertad en un sistema a temperatura T es 12 kB T . A esto
se le llama la equipartición de la energı́a. Reiterando, esto aplica solo para grados de
libertad en la ausencia de un potencial (existe una versión modificada para cuando
se incluya un potencial). Adicionalmente, aplica solamente para sistemas clásicos o
cuánticos en temperaturas suficientemente altas.

Podemos hacer uso del resultado anterior para investigar porqué la longitud de onda
térmica de De Broglie (2.6) puede considerarse como un aproximado equivalente al
promedio de la longitud de onda de De Broglie de una partı́cula. Si igualamos la
energı́a promedio (2.9) con la energı́a cinética E = p2 /2m, vemos que el momento

promedio (media cuadrática) que carga cada partı́cula es p ∼ mkB T . En la mecánica
cuántica, la longitud de onda de De Broglie de una partı́cula es λdB = h/p, lo que
(hasta factores de 2 y π) concuerda con nuestra fórmula (2.6).

– 38 –
Finalmente, regresando a la realidad con d = 3 dimensiones, podemos calcular la
capacidad calorı́fica para un gas ideal monoatómico. Esto es,

∂E 3
CV = = N kB (2.10)
∂T V 2

2.2.2 El Significado Sociológico de la Constante de Boltzmann


Se introdujo la constante de Boltzmann kB en nuestra definición original de la entropı́a
(1.2). Tiene el valor de

kB = 1.381 × 10−23 JK −1

En cierto sentido, la constante de Boltzmann no tiene ningún sentido profundo fı́sicamente.


Es más que nada un factor de conversión, como indica (1.7), entre temperatura y en-
ergı́a. Es necesario incluirlo en las ecuaciones únicamente por cuestiones históricas:
nuestros ancestros no conocı́an de la cercana relación entre temperatura y energı́a, por
lo que las medı́an en diferentes unidades.

Sin embargo, el porqué de el valor particular de kB es una pregunta legı́tima ya que


no parece ser algún valor muy natural. La razón de esto es que ambas unidades de
temperatura (Kelvin) y de energı́a (Joule) fueron elegidas para reflejar condiciones de
la vida humano. En la vida diaria, mediciones de temperatura y energı́a involucran
números ordinarios: la temperatura ambiente es aproximadamente 300 K; la energı́a
que requiere levantar una manzana de vuelta hacia la punta de su árbol no es más que
unos cuantos Joules. De manera similar, en un contexto diario, todas las cantidades
medibles — p, V y T — de la ley del gas ideal son números razonablemente normales
en unidades del SI. La única manera en la que esto se de, es si N kB es un número
ordinario de orden uno. En otras palabras, el número de átomos debe ser enorme;

N ∼ 1023 (2.11)

Este es entonces el verdadero significado del valor de la constante de Boltzmann: los


átomos son muy pequeños.

Vale la pena hacer énfasis en esto. Los átomos no son solo pequeños: son extremada-
mente diminutos. El número 1023 es increı́blemente grande. El número de granos de
arena en todas las playas del mundo es cercano a 1018 . El número de estrellas en nues-
tra galaxia es de aproximadamente 1011 . El número de estrellas en todo el universo
observable es probablemente cerca de 1022 . Aún ası́, el número de moléculas de agua
en una taza de té es más de 1023 .

– 39 –
Notación Quı́mica
Ya que tocamos el tema del tamaño de los átomos, es conveniente recordar la notación
que se usa en la quı́mica. En este campo también se busca trabajar con números de
primer orden. Es por esto que definen al mol como el número de átomos en un gramo
de Hidrógeno (en realidad es el número de átomos en 12 gramos de Carbón-12, pero es
aproximadamente el mismo valor). La masa del Hidrógeno es 1.6 × 10−27 Kg, ası́ que
el número de átomos en un mol es el número de Avogadro;

NA ≈ 6 × 1023

El número de moles en nuestro gas es entonces n = N/NA y nuestra ley de gas ideal
puede expresarse como

pV = nRT

donde R = NA kB es lo que llamamos la constante universal del gas ideal. Su valor es


un número satisfactorio sin alguna potencia en el exponente: R ≈ 8 JK −1 mol−1 .

2.2.3 Entropı́a y la Paradoja de Gibbs


“Siempre se ha creı́do que la paradoja de Gibbs implicaba mucha pro-
fundidad. Que estaba relacionada con algo tan importante y nuevo que
difı́cilmente podı́a predecirse.”

Erwin Schrödinger

Anteriormente dijimos que la expresión para la función de partición (2.7) no es del


todo correcta todavı́a ¿Qué nos faltó? De hecho, pasamos por encima de un aspecto
sutil de la mecánica cuántica: las partı́culas cuánticas son indistinguibles. Si tomamos
dos átomos idénticos e intercambiamos sus posiciones, esto no darı́a un nuevo estado
del sistema – serı́a el mismo estado que se tenı́a originalmente (el estado depende de
un signo que dicta si se trata de bosones o fermiones – veremos esto a más detalle en
las Secciones 3.5 y 3.6). Sin embargo, no hemos corregido – expresamos Z = Z1N , lo
cual serı́a cierto si cada una de las N partı́culas fuera indistinguible – para cuando, por
ejemplo, cada una de las partı́culas es de diferente tipo. Pero esta función de partición
en su forma ingenua cuenta de más el número de estados del sistema cuando tratamos
con partı́culas indistinguibles.

– 40 –
Es simple escribir la función de partición para N partı́culas indistinguibles. Debemos
únicamente dividir el número de maneras de permutar las partı́culas. En otras palabras,
para el gas ideal, la función de partición es
1 N VN
Zideal (N, V, T ) = Z1 = (2.12)
N! N !λ3N
El factor extra de N ! no cambia los cálculos para presión o energı́a dado que, para
ambas se debe diferenciar el log Z y cualquier factor adicional desaparece. Sin embargo,
sı́ cambia la entropı́a, ya que esta se da por

S= (kB T log Zideal )
∂T
lo que incluye el factor log Z pero sin ninguna derivada. Claro que, si la entropı́a
cuenta el número de microestados, esperarı́amos que esta sepa si las partı́culas son
distinguibles o indistinguibles. Haciendo uso de la función de partición correcta (2.12)
y la fórmula de Stirling, la entropı́a de un gas ideal resulta ser
   
V 5
S = N kB log + (2.13)
N λ3 2
A esta se le conoce como la ecuación de Sackur-Tetrode. Note que encima de que la
entropı́a sea sensible a la indistinguibilidad de las partı́culas, también es dependiente
de λ. Sin embargo, la entropı́a no es medible clásicamente. Solo podemos calcular
diferencias de entropı́a integrando la capacidad calorı́fica como en (1.10).

Desde antes de la invención de la mecánica cuántica, Gibbs se dio cuenta de los


beneficios de agregar un factor extra N !. Él se concentraba en el cambio de entropı́a
al mezclar dos gases. Suponga que tenemos dos gases distintos, digamos rojo y azul.
Cada uno tiene el mismo número de partı́culas N y existe en un volumen V . Si los
gases son del mismo tipo, el quitar la barrera que los separa no deberı́a cambiar el
estado macroscópico del gas, entonces, ¿por qué deberı́a incrementar la entropı́a? A
esto se le refiere como la paradoja de Gibbs. El incluir el factor N ! en la función de
partición asegura que la entropı́a no incremente cuando mezclemos átomos idénticos5 .

2.2.4 El Gas Ideal en la Colectividad Macrocanónica


Es de ayuda examinar brevemente el gas ideal en el colectivo macrocanónico. Recorde-
mos que en esta colectividad, el gas tiene la libertad de intercambiar tanto energı́a
5
Tómelo como advertencia: una inspección más detallada de la paradoja de Gibbs revela que, en
el mundo clásico, realmente no hay necesidad de agregar el N !. Una comprensible discusión de estos
temas se encuentra en el artı́culo de E.T. Jaynes titulado “La Paradoja de Gibbs” el cual se puede
descargar desde la página del curso.

– 41 –
como partı́culas con el reservorio de afuera. Debemos pensar sobre este sistema como
un volumen dentro de un gas mucho más grande. Si no hay barreras que definan este
volumen, entonces las partı́culas, y con ellas, la energı́a, es libre de entrar y salir del con-
torno. Podemos preguntarnos cuántas partı́culas estarán dentro del volumen y cuántas
fluctuaciones en el número de partı́culas se darán en promedio. Más importante aún es
el hecho de que podemos empezar a adquirir intuición para esta extraña cantidad que
llamamos el potencial quı́mico µ.

La función de partición macrocanónica (1.39) para el gas ideal es



eβµ V
X  
βµN
Zideal (µ, V, T ) = e Zideal (N, V, T ) = exp
N =0
λ3

Desde esto es posible determinar el número promedio de partı́culas

1 ∂ eβµ V
N= log Z =
β ∂µ λ3
El cual, reescrito, nos da

λ3 N
 
µ = kB T log (2.14)
V

Si λ3 < V /N entonces el potencial quı́mico es negativo. Recordemos que λ es aproxi-


madamente la longitud de onda de De Broglie promedio para cada partı́cula, mientras
que V /N es el volumen promedio que ocupa cada partı́cula. Siempre que la longitud
de onda de De Broglie de las partı́culas es de escala comparable a la separación en-
tre las partı́culas, los efectos cuánticos se vuelven relevantes. En otras palabras, para
poder confiar en nuestra formulación clásica del gas ideal, debemos tener la restricción
λ3 ≪ V /N , y por lo tanto, µ < 0.

A primera vista, el hecho de que el potencial µ sea negativo parece extraño. Al


introducir µ en la Sección 1.4.1, recomendamos pensarlo como el costo energético de
añadir una partı́cula extra al sistema. Parecerı́a razonable pensar que esa energı́a deba
ser positiva. Para ver porqué este no es el caso, deberı́amos analizar a más detalle la
definición. De la variación de energı́a (1.38), tenemos que

∂E
µ=
∂N S,V

Por lo que el potencial quı́mico debe considerarse como el costo energético de agregar
una partı́cula extra a entropı́a y volumen fijos. Pero añadir una partı́cula creará más

– 42 –
posibilidades de distribuir la energı́a y por lo tanto incrementarı́a la entropı́a. Si insis-
timos en mantener la entropı́a fija, entonces requerimos que se reduzca la energı́a cada
que agreguemos una partı́cula extra. Es por esto que tenemos µ < 0 para un gas ideal
clásico.

Existen situaciones donde µ > 0. Esto puede ocurrir si tenemos una interacción
repulsiva lo suficientemente fuerte entre las partı́culas tal que el costo energético de
agregar una extra sea muy grande. También puede suceder que µ > 0 para sistemas de
fermiones a temperaturas bajas, como veremos en la Sección 3.6.

Podemos también calcular las fluctuaciones en el número de partı́culas,

1 ∂2
∆N 2 = log Zideal = N
β 2 ∂µ2

Como fue mencionado en la Sección 1.4.1, las fluctuaciones relativas ∆N/⟨N ⟩ = 1/ N
se vuelven infinitesimalmente pequeñas en el lı́mite termodinámico N → ∞.

Finalmente, es sencillo obtener la ecuación de estado en la colectividad macro-


canónica ya que (1.45) y (1.48) nos dicen que

eβµ V
pV = kB T log Z = kB T = kB T N (2.15)
λ3
lo cual nos regresa la ley del gas ideal.

2.3 Distribución de Maxwell


Nuestra discusión anterior se centra en comprender las propiedades macroscópicas del
gas como presión o capacidad calorı́fica. Sin embargo, podemos también hacer uso de
los métodos de la mecánica estadı́stica para tener una mejor visión de las propiedades
macroscópicas del gas. Como para otras situaciones, la información está escondida en
la función de partición. Veamos la forma de la función de partición para una partı́cula
(2.4) antes de resolver integrales. De cualquier manera, haremos la integral espacial
R
trivial d3 q = V , mientras que para la integral de momento, cambiaremos primero las
variables de momento a velocidad; p⃗ = m⃗v . La función de partición para una partı́cula
es entonces
m3 V 4πm3 V
Z Z
−βm⃗v 2 /2 2
Z1 = 3
3
d ve = 3
dv v 2 e−βmv /2
(2πℏ) (2πℏ)

Podemos comparar esto con la definición original de la función de partición: la suma


de la probabilidad de cada estado sobre todos los estados. Aquı́, la función de partición

– 43 –
Figura 10: Distribución de Maxwell para los gases nobles: He, N e, Ar and Xe.

también se escribe como una suma, ahora sobre velocidades. Entonces, el integrando
debe interpretarse como la distribución de probabilidad de las velocidades. La proba-
bilidad de que un átomo tenga una velocidad entre v y v + dv es
2 /2k
f (v)dv = N v 2 e−mv BT
dv (2.16)

donde el factor de normalización N puede obtenerse restringiendo que las probabili-


R∞
dades sumen uno, 0 f (v) dv = 1, lo que resulta en
 3/2
m
N = 4π
2πkB T

Esta es la distribución de Maxwell, a veces llamada la distribución de Maxwell-Boltzmann.


En la Figura 10 se muestra esta distribución para múltiples gases con masas distintas
pero a la misma temperatura, desde el Xenón (morado) que es pesado y lento, hasta el
Helio (azul) que es ligero y rápido. Podemos utilizar esta distribución para determinar
algunas propiedades en promedios de las velocidades de los átomos en un gas. Por
ejemplo, la velocidad al cuadrado promedio es

Z ∞
2 3kB T
⟨v ⟩ = dv v 2 f (v) =
0 m

Esto concuerda con la equipartición de la energı́a: la energı́a cinética promedio de un


gas es E = 12 m⟨v 2 ⟩ = 23 kB T .

– 44 –
El Argumento de Maxwell
El procedimiento anterior revela la distribución de las velocidades de las partı́culas en
un gas sin interacciones. Sorprendentemente, la distribución de Maxwell también aplica
en la presencia de interacciones. De hecho, la formulación original de la distribución
realizada por Maxwell no hace referencia a ninguna propiedad del gas.

Pensemos primero sobre la distribución de velocidades en la dirección x; a esta le


llamaremos ϕ(vx ). Que haya simetrı́a rotacional implica que debemos tener la misma
distribución de velocidades en las direcciones y y z. Sin embargo, la invarianza rota-
cional también requiere que la distribución total sea independiente de la dirección de
p
la velocidad; solo puede depender de v = vx2 + vy2 + vz2 . Esto significa que debemos
encontrar las funciones F (v) y ϕ(vx ) tal que

F (v) dvx dvy dvz = ϕ(vx )ϕ(vy )ϕ(vz ) dvx dvy dvz

No parecemos tener suficiente información para resolver esta ecuación para F y ϕ.


Pero sorprendentemente, resulta haber solamente una solución. La única función que
satisface esta ecuación es
2
ϕ(vx ) = Ae−Bvx

para constantes cualesquiera A y B. Por lo tanto, la distribución sobre las velocidades


debe ser
2
F (v) dvx dvy dvz = 4πv 2 F (v) dv = 4πA3 v 2 e−Bv dv

Notemos que la forma de la función surge simplemente de la invarianza rotacional. Para


determinar el coeficiente B = m/2kB T , requerimos aquellas técnicas más elaboradas de
la mecánica estadı́stica que vimos anteriormente (de hecho, se puede derivar solamente
desde la equipartición de al energı́a).

2.3.1 La Historia de la Teorı́a Cinética


El nombre teorı́a cinética se refiere a la comprensión de las propiedades de los gases
desde sus constituyentes atómicos. Nuestra discusión anterior apenas toca la superficie
de este tema tan importante.

El origen de la teorı́a cinética se encuentra en el trabajo de Daniel Bernoulli en 1738.


Él fue el primero en manifestar que el fenómeno al que llamamos presión se debe al
bombardeo constante de átomos diminutos. Su cálculo es simple. Considere una caja
cúbica de lados con longitud L. Suponga que un átomo que viaja con momento vx en

– 45 –
la dirección x rebota elásticamente con una pared tal que regresa con velocidad −vx .
La partı́cula sufre un cambio de momento ∆px = 2mvx . Dado que la partı́cula está
atrapada en la caja, chocará con la pared opuesta después de un tiempo ∆t = 2L/vx .
Esto significa que la fuerza en la pared debido a este átomo es
∆px mvx2
F = =
∆t L
Sumando para todos los átomos que chocan con la pared, la fuerza es
N m⟨vx2 ⟩
F =
L
2
donde ⟨vx ⟩ es la velocidad promedio en la dirección x. Usando el mismo argumento
que ofrecimos en la derivación de Maxwell anteriormente, debemos tener ⟨vx2 ⟩ = ⟨v 2 ⟩/3.
Entonces, F = N m⟨v⟩2 /3L y la presión, siendo fuerza por área, es dada por
N m⟨v 2 ⟩ N m⟨v 2 ⟩
p= =
3L3 3V
Si comparamos esta ecuación con la de gas ideal (que, en la época, solo tenı́a funda-
mentos experimentales), podemos concluir que el fenómeno de temperatura surge de
la energı́a cinética del gas. De manera más precisa, reencontramos el resultado de la
equipartición derivado anteriormente: 21 m⟨v 2 ⟩ = 32 kB T .

Después del trabajo de Bernoulli, se perdió el interés en la teorı́a cinética. Nadie


sabı́a qué hacer con su hipótesis ni cómo comprobarla. A lo largo del siguiente sigo, el
resultado de Bernoulli fue redescubierto de manera independiente por muchas personas
que fueron ignoradas por la comunidad cientı́fica. Uno de los casos más interesantes
fue el de John Waterson, un ingeniero Escocés e instructor naval que trabajó para la La
Compañı́a Británica de las Indias Orientales en Bombay. Waterson era considerado un
poco torpe. Su publicación del 1843 fue rechazada por La Real Sociedad de Londres,
considerada “nada más que tonterı́as”. Después de esto, él escribió sus resultados en
su libro auto-publicado titulado “Pensamientos sobre las Funciones Mentales”.

Los resultados de Bernoulli y Waterson finalmente fueron aceptados luego de ser re-
redescubiertos por cientı́ficos más prestigiosos, como, entre los más notables, Rudolph
Clausius, quien en 1857 extendió estas ideas a moléculas con rotación y vibración. Poco
después, en 1859, Maxwell ofreció la formulación para la distribución de velocidades que
vimos anteriormente. Esto se reconoce comúnmente como la primera ley de la mecánica
estadı́stica. Sin embargo, Maxwell fue capaz de llevar las cosas un paso más adelante.
Utilizó la teorı́a cinética para derivar la primera predicción legı́timamente nueva sobre
la hipótesis atómica: la idea de que la viscosidad de un gas es independiente de su
densidad. Maxwell escribió,

– 46 –
”Semejante consecuencia de la teorı́a matemática es sorprendente y el único
experimento sobre eso del que sé no parece confirmarla.”

Maxwell decidió corregirse. Con la ayuda de su esposa, pasó años construyendo en su


ático un aparato experimental que serı́a capaz de brindar la primera medición precisa
de la viscosidad de los gases6 . Su sorprendente predicción teórica fue comprobada por
su propio experimento.

Han surgido muchos otros desarrollos en la teorı́a cinética que no tocaremos en este
curso. El más importante es probablemente la ecuación de Boltzmann. Esta describe
la evolución de la distribución de probabilidad de posición y momento de una partı́cula
al chocar con otras partı́culas. Soluciones estacionarias y constantes devuelven la dis-
tribución de Maxwell-Boltzmann, pero la ecuación también brinda un modelo que va
más allá de la descripción de equilibrio de un gas. Puede leer sobre esto en las notas
sobre Teorı́a Cinética.

2.4 Gas Diatómico


“Debo decir algo sobre este movimiento interno, ya que la más grande difi-
cultad con la que la teorı́a cinética de los gases se enfrentará, le pertenece
a esta parte de la disciplina”.

James Clerk Maxwell, 1875

Considere una molécula consistente de dos átomos en el estado ligado. A contin-


uación construiremos un modelo fı́sico muy simple de la molécula: dos masas unidos
por un resorte. En cuanto a los grados de libertad, hay dos maneras adicionales de las
cuales la molécula se puede mover:

• Rotación: la molécula puede rotar rı́gidamente con un momento de inercia I con


respecto a dos ejes de simetrı́a perpendiculares. Por el momento, ignoraremos la
rotación sobre el eje de simetrı́a, ya que tiene tan poca inercia que no resulta ser
importante.

• Vibración: la molécula puede oscilar sobre el eje de simetrı́a

Trabajaremos bajo la suposición de que los modos de rotación y vibración son indepen-
dientes. En este caso, la función de partición para una sola molécula se expresa como
6
Se puede observar el aparato original desde desde el pasillo del Laboratorio Cavendish. Si la
caminata no es de su interés, puede simplemente hacer click aquı́:
[Link]

– 47 –
el producto de la función de partición traslacional Ztrans ya calculada anteriormente
(2.5), junto con la contribución rotacional y la vibracional.
Z1 = Ztrans Zrot Zvib
Ahora nos concentraremos en Zrot y Zvib .

Rotación
El lagrangiano para los grados de libertad rotacionales es7
1
Lrot = I(θ̇2 + sin2 θϕ̇2 ) (2.17)
2
Sus momentos conjugados entonces son
∂Lrot ∂Lrot
pθ = = I θ̇ , pϕ = = I sin2 θ ϕ̇
∂ θ̇ ∂ ϕ̇
de los cuales obtenemos el hamiltoniano para la molécula diatómica rotancional,
p2θ p2ϕ
Hrot = θ̇pθ + ϕ̇pϕ − L = + (2.18)
2I 2I sin2 θ
La contribución de la rotación para la función de partición es entonces
Z
1
Zrot = dθdϕdpθ dpϕ e−βHrot
(2πℏ)2
s s
Z π
2πI sin2 θ 2π
Z
1 2πI
= dθ dϕ
(2πℏ)2 β 0 β 0
2IkB T
= (2.19)
ℏ2
Desde esto podemos calcular la energı́a rotacional promedia de cada molécula,
Erot = kB T
Si decidimos incluir la contribución traslacional (2.5), la función de partición para la
molécula diatómica que puede girar y moverse, pero no vibrar, es dada por Z1 =
Ztrans Zrot ∼ (kB T )5/2 , y la función de partición para un gas conformado por estos
objetos es Z = Z1N /N !, desde donde calculamos la energı́a E = 52 N kB T y la capacidad
calorı́fica
5
CV = kB N
2
De hecho, podemos obtener este resultado simplemente desde la equipartición de la
energı́a: hay tres modos traslacionales y dos modos rotacionales, resultando en una
contribución energética de 5N × 12 kB T .
7
Consulte, por ejemplo, la Sección 3.6 de las Notas de Mecánica Clásica.

– 48 –
Vibraciones
El hamiltoniano del modo vibracional es simplemente un oscilador armónico. Expre-
saremos el desplazamiento desde la posición de equilibrio como ζ. La molécula vibra
con una frecuencia ω que se da dependiendo de la fuerza del compuesto atómico. El
hamiltoniano es entonces
p2ζ 1
Hvib = + mω 2 ζ 2
2m 2
que podemos utilizar para calcular la función de partición
Z
1 kB T
Zvib = dζdpζ e−βHvib = (2.20)
2πℏ ℏω
La energı́a vibracional promedio de cada molécula ahora es

Evib = kB T

Es razonable anticipar un 21 kB T ya que el oscilador armónico solo tiene un grado de


libertad, pero la equipartición funciona de una manera un poco distinta cuando se trata
de energı́a potencial (Encontrará en la hoja de problemas un ejemplo similar desde el
cual es fácil deducir la forma general).

Figura 11: La capacidad calorı́fica para el gas de Hidrógeno H2 . La gráfica fue creada por
P. Eyland.

Combinando todos los ingredientes, las contribuciones de los movimientos trasla-


cionales, rotacionales y vibracionales devuelven la capacidad calorı́fica
7
CV = N k B
2

– 49 –
Este resultado no depende ni del momento de inercia I, ni de la rigidez ω del compuesto
molecular. Una molécula con un momento I muy grande simplemente girarı́a más lento
tal que la energı́a cinética rotacional sea kB T ; una molécula unida adherida a un resorte
rı́gido con muy grande ω vibrará con menor amplitud tal que la energı́a vibracional
promedio sea kB T . Esto asegura que la capacidad calorı́fica sea constante.

Entonces la capacidad calorı́fica de un gas diatómico es 27 N kB , ¿cierto? ¡No! En


la Figura 11 se muestra una gráfica de la capacidad calorı́fica ideal del gas diatómico
más simple, H2 . A temperaturas suficientemente altas (alrededor de 5000K), obser-
vamos la capacidad calorı́fica que esperábamos. A temperaturas bajas, la capacidad
calorı́fica es la de un gas monoatómico. En el rango medio, la molécula parece rotar, no
vibrar. ¿Cuál es la explicación? Con el avance hacia el final siglo XIX, los cientı́ficos
se sorprendı́an cada vez más por este comportamiento.

En la situación descrita faltó considerar algo muy importante: ℏ. La variación suce-


siva entre los modos vibracionales y rotacionales con la disminución de la temperatura
es un efecto cuántico. En realidad, este comportamiento de las capacidades calorı́ficas
de los gases constituyó la primera ocasión en la que se reveló la mecánica cuántica
en experimentos. Acostumbramos normalmente a pensar sobre la mecánica cuántica
como relevante en escalas pequeñas, pero en este caso vemos que afecta la fı́sica de
los gases a temperaturas de 2000 K. Nuevamente, este es el tema del curso: como lo
microscópico determina lo macroscópico. Volveremos al gas diatómico en la Sección
3.4 y comprenderemos su capacidad calorı́fica incluyendo efectos cuánticos.

2.5 Gas con Interacciones


Hasta ahora, nos hemos concentrado solamente en sistemas libres: partı́culas que se
mueven de manera independiente. Ahora que consideraremos interacciones, las cosas
se pondrán mucho más interesantes, y complicadas. Muchos de los problemas fı́sicos
sin solución tienen que ver con las interacciones entre grandes números de partı́culas.
Nosotros seremos más sutiles. Describiremos aproximaciones simples que nos permi-
tirán comprender los efectos de estas interacciones.

Una vez más, centraremos nuestra atención en el gas monoatómico. La ley de gas
ideal es exacta en el lı́mite sin interacciones entre átomos. Esta es una buena aproxi-
mación para cuando la densidad de los átomos N/V es pequeña. Seguido expresamos
correcciones a la ley de gas ideal en términos de una expansión de la densidad, conocida
como expansión virial. La ecuación de estado más general es
p N N2 N3
= + B2 (T ) 2 + B3 (T ) 3 + . . . (2.21)
kB T V V V

– 50 –
donde a las funciones Bj (T ) se les conoce como coeficientes del virial.

Nuestro objetivo es calcular estos coeficientes desde primeros principios, comenzando


con lo que sabemos de la energı́a potencial U (r) presente entre dos átomos neutros
separados por una distancia r. Este potencial tiene dos caracterı́sticas importantes:
• Tiene una fuerza 1/r6 atractiva. Esta surge de las fluctuaciones entre los dipolos
de los átomos neutros. Recordemos que dos momentos dipolares permanentes p1
y p2 , tienen una energı́a potencial que incrementa a razón de p1 p2 /r3 . Los átomos
neutros no tienen dipolos permanentes pero pueden tener dipolos temporales
debido a fluctuaciones cuánticas. Suponga que el primer átomo tiene un dipolo
instantáneo p1 . Este inducirá un campo eléctrico proporcional a E ∼ p1 /r3 , que,
a su vez, inducirá un dipolo p2 ∼ E ∼ p1 /r3 en el segundo átomo. La energı́a
potencial resultante entre los átomos cumple p1 p2 /r3 ∼ 1/r6 . A esta usualmente
se le conoce como la interacción de van der Waals.

• Una interacción repulsiva que incrementa rápidamente a escalas pequeñas. Esta


se origina del principio de exclusión de Pauli que previene que dos átomos ocupen
el mismo espacio. Para nuestra discusión, la forma exacta de esta repulsión no es
muy relevante siempre y cuando sea significativa. Si nos preocupa la naturaleza
exacta del potencial, tendremos que lidiar con la mecánica cuántica ya que el
principio de exclusión es un efecto cuántico. Haremos esto en la siguiente sección.
Un potencial que es usado muy comúnmente para modelar la fuerza entre átomos es el
potencial de Lennard-Jones,
 r 12  r 6
0 0
U (r) ∼ − (2.22)
r r
El exponente 12 se elige por pura conveniencia: Esto simplifica ciertos cálculos ya que
12 = 2 × 6.

Una forma del potencial aún más simple incorpora una repulsión de núcleo duro (hard-core), en donde
las partı́culas tienen prohibido estar más cerca que una distancia fija impuesta por un
potencial infinito,
(
∞ r < r0
U (r) = 6 (2.23)
−U0 rr0

r ≥ r0
Este potencial, junto con la atracción de van der Waals, se muestran en la Figura de
la derecha. Pronto veremos que los coeficientes del virial se determinan por integrales
cada vez más complicadas que involucran el potencial U (r). Es por esto que es mejor
utilizar el potencial más simple posible. Cuando hagamos estos cálculos, utilizaremos
la forma de (2.23).

– 51 –
2.5.1 La función f de Mayer y el Segundo Coeficiente Virial
Cambiaremos de notación y nos referiremos a las posi- U(r)
ciones de las partı́culas como ⃗r en vez de ⃗q (la no-
tación anterior fue útil para enfatizar la conexión a
la mecánica cuántica en esta Sección pero eso quedó
r0 r
atrás). El hamiltoniano del gas es
N
X p2i X
H= + U (rij )
i=1
2m i>j

donde rij = |⃗ri −⃗rj | es la separación entre las partı́culas. Figura 12:
La restricción i > j en la suma final asegura que se
sume sobre cada par de partı́culas solo una vez. La
función de partición es entonces
N
Z Y
1 1
Z(N, V, T ) = d3 pi d3 ri e−βH
N ! (2πℏ)3N
"Zi=1 # "Z #
1 1 Y P 2 Y P
= d3 pi e−β j pj /2m × d3 ri e−β j<k U (rjk )
N ! (2πℏ)3N i i
Z Y
1 P
= d3 ri e−β j<k U (rjk )
N !λ3N i

donde λ es la longitud de onda térmica que conocimos en (2.6). Todavı́a se requiere


hacer la integral sobre posiciones, ¡y eso se ve difı́cil! Las interacciones implican que las
integrales no se factorizan de manera trivial. Podemos intentar expandir en polinomios
de Taylor (lo que en este contexto está muy relacionado con la llamada expansión en
cumulantes)
P X β2 X
e−β j<k U (rjk )
=1−β U (rjk ) + U (rjk )U (rlm ) + . . .
j<k
2 j<k,l<m

Desafortunadamente, esto no es de mucha ayuda. Buscamos que cada término sea


menor que el anterior, pero a como rij → 0, el potencial U (rij ) → ∞. Esto no se ve
muy prometedor para un parámetro de expansión.

En lugar de proceder de manera ingenua con la expansión de Taylor, trabajaremos


con la siguiente cantidad, usualmente llamada la función f de Mayer,

f (r) = e−βU (r) − 1 (2.24)

– 52 –
Este es un mejor parámetro de expansión. Cuando las partı́culas se separen mucho
como r → ∞, f (r) → 0. Sin embargo, a como se acercan las partı́culas y r → 0,
la función de Mayer cumple f (r) → −1. Procederemos tratando de construir una
expansión razonable en términos de f . Definimos entonces

fij = f (rij )

Y podemos ahora expresar la función de partición como


Z Y
1 3
Y
Z(N, V, T ) = d ri (1 + fjk )
N !λ3N i j>k
Z Y !
1 X X
= d3 ri 1 + fjk + fjk flm + . . . (2.25)
N !λ3N i j>k j>k,l>m

El primer término da simplemente un factor de volumen V para cada integral que


resulta en V N . El segundo término es una suma de elementos iguales, cada uno es de
la forma
Z Y N Z Z
3 N −2 3 3 N −1
d ri f12 = V d r1 d r2 f (r12 ) = V d3 r f (r)
i=1

donde, en la última igualdad, cambiamos las variables de integración de ⃗r1 y ⃗r2 al


centro de masa R ⃗ = 1 (⃗r1 + ⃗r2 ) y la separación ⃗r = ⃗r1 − ⃗r2 (en cuanto a la posible
2
preocupación de que los lı́mites de integración cambien en la integral con respecto a ⃗r,
la integral sobre f (r) considera únicamente contribuciones en escalas atómicas y esto
solo es un problema cerca de las fronteras del sistema, donde es despreciable). Existe
uno de estos términos por cada par de partı́culas – o sea 12 N (N − 1) términos en total.
Para N ∼ 1023 , podemos decir que son aproximadamente 12 N 2 . Ignorando entonces
términos cuadráticos y de mayor orden en f , tenemos una función de partición que es
aproximadamente

VN N2
 Z 
3
Z(N, V, T ) = 1+ d r f (r) + . . .
N !λ3N 2V
 Z N
N 3
= Zideal 1 + d r f (r) + . . .
2V

donde hicimos uso de nuestro resultado anterior Zideal = V N /N !λ3N . También hicimos
un poco de manipulación en la última lı́nea, extendiendo la N desde en frente a la
integral hasta una potencia de toda la expresión. Modificar la expresión de esta man-
era nos asegura que la energı́a libre sea proporcional al número de partı́culas, como

– 53 –
esperábamos que fuera el caso:
 Z 
N 3
F = −kB T log Z = Fideal − N kB T log 1 + d r f (r) (2.26)
2V
Si no le convence este pequeño truco, no será difı́cil convencerse de que el resultado
(2.27) para la ecuación de estado no dependerá de esto. En la siguiente sección veremos
la expansión a más detalle, incluyendo los términos de mayor orden.

Es claro al ver la expresión (2.26) de la energı́a libre que es una expansión en la


densidad del gas ya que el término de corrección es proporcional a N/V . Esta forma
de la energı́a libre nos dará el segundo coeficiente B2 (T ) del virial.

Podemos tener más precisión al hablar de las densidades bajas. La forma exacta de la
R
integral d3 rf (r) depende del potencial, pero tanto para el potencial de Lennard-Jones
(2.22) como para la repulsión de núcleo duro (2.23), la integral es aproximadamente
R 3
d rf (r) ∼ r03 , donde r0 es el mı́nimo del potencial (calcularemos la integral exacta
para el potencial de la repulsión de núcleo duro). Para que la expansión sea válida,
buscamos que cada término con una potencia extra de f sea menor que el anterior (esto
es una aproximación pero seremos más precisos cuando desarrollemos la expansión del
clúster). Esto significa que el segundo término en el argumento del logaritmo debe ser
menor que 1. En otras palabras,
N 1
≪ 3
V r0
La parte de la izquierda es la densidad del gas. La de la derecha es la densidad atómica,
o de manera equivalente, la densidad de una sustancia en la que los átomos están juntos
de manera muy compacta. Tenemos un nombre para estas sustancias – ¡les llamamos
lı́quidos! Nuestra expresión es válida para densidades del gas mucho menores a las de
un estado lı́quido.

2.5.2 Ecuación de Estado de van der Waals


Podemos hacer uso de la energı́a libre (2.26) para calcular la presión del gas. Expan-
diendo el logaritmo de la forma log(1 + x) ≈ x, obtenemos
 Z 
∂F N kB T N 3
p=− = 1− d rf (r) + . . .
∂V V 2V
Como esperamos, la presión se desvı́a de la del gas ideal. Podemos caracterizar esto
escribiendo
Z
pV N
=1− d3 r f (r) (2.27)
N kB T 2V

– 54 –
R
Para comprender lo que esto significa, primero debemos calcular d3 rf (r). Veamos
primero dos ejemplos triviales:

Repulsión: Suponga que U (r) > 0 para toda separación r con U (r = ∞) = 0.


Entonces f = e−βU − 1 < 0 y la presión incrementa, como esperarı́amos de una inter-
acción repulsiva.

Atracción: Si U (r) < 0, tenemos que f > 0 y la presión disminuye, como esperarı́amos
de una interacción atractiva.

Ahora veamos una interacción más realista que sea atractiva largas distancias y
repulsiva en pequeñas escalas. Calcularemos la ecuación de estado del gas utilizando el
potencial de núcleo duro junto con el potencial de la atracción de van der Waals (2.23).
La integral de la función f de Mayer es
Z Z r0 Z ∞
3 3 6
d r f (r) = d r(−1) + d3 r (e+βU0 (r0 /r) − 1) (2.28)
0 r0

Aproximando la segunda integral en el lı́mite de temperatura alta βU0 ≪ 1, donde


6
e+βU0 (r0 /r) ≈ 1 + βU0 (r0 /r)6 , tenemos

4πU0 ∞
Z r0
r6
Z Z
3
d r f (r) = −4π 2
dr r + dr 04 (2.29)
0 kB T r0 r
4πr03
 
U0
= −1
3 kB T
Metiendo esto en la ecuación (2.27) conseguimos una expresión para la ecuación de
estado,
 
pV N a
=1− −b
N kB T V kB T
En esta expresión encontramos el segundo coeficiente del virial de (2.21) como pre-
tendı́amos. Las constantes a y b se definen como
2πr03 U0 2πr03
a= , b=
3 3
De hecho, es más conveniente escribir esto en la forma kB T = . . .. Multiplicando por
kB T y acomodando obtenemos entonces
−1
N2
 
V N
kB T = p+ 2a 1+ b
N V V

– 55 –
Ahora, debido a que estamos trabajando con una expansión de la densidad N/V , ten-
emos la libertad de usar una expansión de Taylor en el último paréntesis. Conservando
los primeros dos términos, obtendrı́amos
N2
  
V
kB T = p + 2 a −b (2.30)
V N
Esta es la famosa ecuación de estado de van der Waals para un gas. Sin embargo, hay
que recordar las limitaciones de nuestro análisis: es válido solamente en densidades
bajas (debido a nuestra aproximación al resolver la integral (2.28)) y en temperaturas
altas.

Regresaremos a la ecuación de van der Waals en la Sección 5, donde exploraremos


muchas de sus propiedades. Por el momento, podemos desarrollar un poco de intuición
sobre esta ecuación de estado reescribiéndola de otra manera,
N kB T N2
p= −a 2 (2.31)
V − bN V
La constante a contiene el factor de U0 , por lo que es respons-
able de la interacción atractiva a grandes distancias. Su rol es r0

reducir la presión del gas, esta reducción es proporcional a la


r0
/2
densidad al cuadrado ya que esto es, a su vez, proporcional al
número de pares de partı́culas que sienten la fuerza atractiva.
Por otra parte, b contiene solamente a r0 y surge de la repulsión
de núcleo duro del potencial. Su efecto es reducir el volumen
del gas debido al espacio que ocupan las partı́culas. Figura 13:

Vale la pena aclarar el origen de algunos factores de dos en b = 2πr03 /3. Recordemos
que r0 es la distancia mı́nima de separación a la que dos átomos pueden llegar. Si
pensamos en cada átomo como una esfera sólida, tendrı́an un radio r0 /2 y volumen
4π(r0 /2)3 /3, el cuál no es igual a b. Sin embargo, como muestra la figura, el volumen
excluido alrededor de cada átomo es Ω = 4πr03 /3 = 2b. ¿Por qué no tenemos entonces
a Ω en lugar de b = Ω/2 en el denominador de la ecuación de van der Waals? Si
pensamos en añadir los átomos uno por uno, el primero puede mover un volumen V ,
el segundo un volumen V − Ω, el tercero V − 2Ω, etc. Para Ω ≪ V , la configuración
total del espacio permitido para el átomo es

N N
VN N2 Ω
  
1 Y 1 NΩ
(V − mΩ) ≈ 1− + ... ≈ V −
N ! m=1 N! 2 V N! 2

Y de esta manera surge el misterioso factor de 1/2.

– 56 –
Anteriormente calculamos la ecuación de estado para la interacción de van der Waals
en un dipolo con potencial de núcleo duro. A pesar de esto, resulta que nuestra ex-
presión (2.27) puede ser utilizada para formular la ecuación de estado para cualquier
potencial entre átomos. Sin embargo, hay limitaciones. Si recordamos la integral (2.29),
podemos ver que una fuerza de largo alcance de la forma 1/rn dará resultado a una
integral convergente para n ≥ 4. Esto significa que las técnicas descritas anteriormente
no funcionan para potenciales a largo alcance que decaigan a 1/r3 o más lento. Esto
incluye el caso importante de las interacciones de Coulomb con decaimiento 1/r.

2.5.3 La Expansión del Clúster


En la sección anterior calculamos la corrección de primer orden para la ley del gas ideal.
En términos de la expansión virial (2.21), esto corresponde al segundo coeficiente B2 .
A continuación, desarrollaremos la expansión completa y averiguaremos cómo calcular
los coeficientes de mayor orden.

Reconsideremos la ecuación (2.25), donde expresamos por primera vez la función de


partición en términos de f ,
Z Y
1 3
Y
Z(N, V, T ) = d ri (1 + fjk )
N !λ3N i j>k
Z Y !
1 X X
= d3 ri 1 + fjk + fjk flm + . . . (2.32)
N !λ3N i j>k j>k,l>m

Antes relacionamos de manera efectiva el segundo coeficiente virial con el término


lineal en f : esta es la esencia de la ecuación de estado (2.27). Uno podrı́a pensar que
los términos cuadráticos en f dan lugar al tercer coeficiente virial y ası́ sucesivamente.
Pero, como estamos por ver, la expansión es un poco más sutil que eso.

La expansión en (2.32) incluye términos de la forma fij fkl fmn . . . donde los ı́ndices
denotan pares de átomos, (i, j) y (k, l) y ası́ sucesivamente. Esto pares pueden tener
átomos en común o puede que sean todos diferentes. Sin embargo, el mismo par nunca
aparece dos veces en algún término dado como se puede verificar al referirse de vuelta
a la primera lı́nea en (2.32). Introduciremos un método con diagramas para hacer un
seguimiento de todos los términos de la suma. A cada término de la forma fij fkl fmn . . .
se le asocia una imagen usando las siguientes reglas

• Dibuja N átomos. (Esto se vuelve tedioso para N ∼ 1023 pero, como veremos
pronto, en realidad solo necesitamos imágenes con un subconjunto pequeño de
átomos).

– 57 –
• Dibuja una lı́nea entre cada par de átomos que aparecen como ı́ndices. Ası́, para
fij fkl fmn . . ., dibujamos una lı́nea entre el átomo i y el átomo j; una lı́nea entre
el átomo k y el átomo l; y ası́ sucesivamente.
Por ejemplo, si tenemos solamente N = 4, tenemos las siguientes imágenes para los
diferentes términos en la expansión,
3 4 3 4 3 4 3 4

f12 = f12 f34 = f12 f23 = 2


f21 f23 f31 = 2
1 2 1 2 1 1

Llamaremos a estos diagramas gráficas. Cada gráfica posible aparece exactamente una
vez en la función de partición (2.32). En otras palabras, la función de partición es una
suma sobre todas las gráficas. Todavı́a tenemos que hacer las integrales sobre todas
las posiciones ⃗ri . Denotaremos la integral sobre la gráfica G como W [G]. Entonces la
función de partición es
1 X
Z(N, V, T ) = W [G]
N !λ3N G

Casi todas las gráficas que podemos dibujar tienen componentes desconectados. Por
ejemplo, aquellas gráficas que corresponden a un único fij tendrán dos átomos conec-
tados y el resto N − 2 de ellos estarán solos. Aquellas gráficas que corresponden a fij fkl
podrán caer en dos categorı́as: o consisten en dos pares de átomos (como el segundo
ejemplo anteriormente) o, si (i, j) comparte un átomo con (k, l), habrá tres átomos
conectados (como el tercer ejemplo de antes). Importante destacar que la integral so-
bre las posiciones ⃗ri se factoriza en un producto de integrales sobre las posiciones de
los átomos en componentes desconectados. Esto se ilustra por un ejemplo con N = 5
átomos,
" 3 4
# Z  Z 
3 3 3 3 3
W 2
= d r1 d r2 d r3 f12 f23 f31 d r4 d r5 f45
1 5

A los componentes desconectados de la gráfica los llamamos clústers. Si un clúster tiene


l átomos, lo llamaremos un l-clúster. El ejemplo con N = 5 dado antes tiene un único
3-clúster y un único 2-clúster. En general, una gráfica G se dividirá en ml l-clústers.
Claramente, debemos tener
N
X
ml l = N (2.33)
l=1

Por supuesto, para una gráfica con solo unas lı́neas y muchos átomos, casi todos los
átomos estarán solitarios en 1-clústers.

– 58 –
Ahora podemos cumplir la promesa hecha antes de que no tendremos que dibujar
todos los N ∼ 1023 átomos. La idea central es que podemos concentrarnos en clústers
de l-átomos. Organizaremos la expansión de tal forma que los (l + 1)-clústers sean
menos importantes que los l-clústers. Para ver como funciona esto, concentrémonos
por ahora en 3-clústers. Hay cuatro formas diferentes en las que podemos tener un
3-clúster,
3 3 3 3

1 2 1 2 1 2 1 2

Cada uno de estos 3-clústers aparecerán en una gráfica con cualquier otra combinación
de clústers de los N − 3 átomos restantes. Pero dado que los clústers se factorizan en
la función de partición, sabemos que Z debe incluir un factor
Z  3 3 3 3 
3 3 3
U3 ≡ d r1 d r2 d r3 + + +
1 2 1 2 1 2 1 2

U3 contiene términos de orden f 2 y f 3 . Resulta que esta es la forma correcta de


ordenar la expansión: no en términos del número de lı́neas en el diagrama, que es
igual a la potencia de f , sino en términos del número de átomos que éstas conectan.
De manera similar, la función de partición contendrá factores asociados al resto de
l-clústers. Definimos las integrales correspondientes como
l
Z Y X
Ul ≡ d3 ri G (2.34)
i=1 G∈{l-cluster}

Notemos que U1 es simplemente la integral sobre el espacio, a saber, U1 = V . La


función de partición completa debe de ser un producto de los Ul . La parte complicada
es obtener todos los factores combinatorios correctos para asegurarnos que contemos
cada gráfica un vez solamente. La suma sobre todas las gráficas G que aparece en la
función de partición resulta ser
X XY Ulml
W [G] = N ! (2.35)
G
(l!)ml ml !
{ml } l

El producto N !/ l ml !(l!)ml cuenta el número de maneras de dividir las partı́culas en


Q

un número ml de l-clústers, pero ignora las diferentes formas de conectar cada clúster.
Esto es correcto ya que las conexiones internas diferentes se toman en cuenta en la
integral Ul .

– 59 –
Los argumentos de combinatoria no son siempre transparentes. Verifiquemos un
par de veces para asegurarnos que esta es, en efecto, la respuesta correcta. Primero,
consideremos N = 4 átomos divididos en dos 2-clústers (i.e m2 = 2). Tendremos tres
tales diagramas, f12 f34 = , f13 f24 = , y f14 f23 = . Cada uno de éstos da la
misma respuesta bajo integración, que es U22 ası́ que el resultado final deberı́a ser 3U22 .
Podemos verificar esto con los términos relevantes en (2.35), que son 4!U22 /2!2 2! = 3U22 ,
como se esperaba.

Otra verificación: consideremos N = 5 átomos con m2 = m3 = 1. Todos los diagra-


mas vienen en las combinaciones
5
Z Y  
3
U3 U2 = d ri + + +
i=1

junto con las gráficas que se relacionan por medio de permutaciones. Las permutaciones
se determinan en su totalidad por la elección de los dos átomos emparejados: hay 10
posibles elecciones. La respuesta deberı́a ser entonces 10U3 U2 . Comparando con (2.35),
tenemos 5!U3 U2 /3!2! = 10U3 U2 , como se requerı́a.

Esperemos que ahora uno esté convencido de que (2.35) cuenta las gráficas de manera
correcta. El resultado final para la función de partición es entonces

1 X Y Ulml
Z(N, V, T ) =
λ3N (l!)ml ml !
l {ml }

El problema con calcular esta suma es que aún tenemos que encontrar las formas
diferentes en que podemos dividir los N átomos en diferentes clústers. En otras pal-
abras, aún tenemos que obedecer la restricción (2.33). La vida serı́a más sencilla si
no tuviéramos que preocuparnos sobre esto. Entonces podrı́amos simplemente sumar
sobre cualquier ml . Afortunadamente, esto es exactamente lo que podemos hacer si
trabajamos en la gran colectividad canónica, ¡donde N no es fija! La gran colectividad
canónica es
X
Z(µ, V, T ) = eβµN Z(N, V, T )
N

Definimos la fugacidad como z = eβµ . Entonces podemos escribir


∞ Y ∞   ml ∞
Ul z l
 
X
n
X z m l l 1 Ul Y
Z(µ, V, T ) = z Z(N, V, T ) = 3
= exp
N m =0 l=1
λ m l ! l! l=1
λ3l l!
l

– 60 –
Usualmente, uno define
λ3 Ul
bl = (2.36)
V l!λ3l
En particular, notemos que U1 = V por lo que esta definición nos da b1 = 1. De este
modo podemos escribir la función de partición macrocanónica como
∞ ∞
  !
Y V V X
Z(µ, V, T ) = exp 3
bl z l = exp 3
bl z l (2.37)
l=1
λ λ l=1

Algo curioso ha sucedido aquı́. La suma sobre todos los diagramas se ha reescrito
como la exponencial sobre la suma de todos los diagramas conectados, lo que también
significa la suma de todos los clústers. Esto es una lección general que también se
puede transportar a la teorı́a cuántica de campos, donde los diagramas en cuestión son
diagramas de Feynman.

Regresando a la historia principal, ahora podemos calcular la presión



pV V X l
= log Z = 3 bl z
kB T λ l=1

y el número de partı́culas

N z ∂ 1 X
= log Z = 3 lbl z l (2.38)
V V ∂z λ l=1

Dividiendo ambas nos da la ecuación de estado,


bl z l
P
pV
= Pl l
(2.39)
N kB T l lbl z

El único problema es que la ecuación de estado está expresada en términos de z. Para


moldearla a la forma de la expansión virial (2.21), necesitamos invertir (2.38) para
obtener z en términos de la densidad de partı́culas N/V . Igualando (2.39) con (2.21)
(y definiendo B1 = 1), se tiene
∞ ∞  l−1 X ∞
X
l
X N
bl z = Bl mbm z m
l=1 l=1
V m=1
∞ ∞
!l−1 ∞
X Bl X
n
X
= 3(l−1)
nb n z mbm z m
λ n=1 m=1
l=1 
B2 2 3 B3 2 3 2
= 1 + 3 (z + 2b2 z + 3b3 z + . . .) + 6 (z + 2b2 z + 3b3 z + . . .) + . . .
λ λ
2 3
 
× z + 2b2 z + 3b3 z + . . .

– 61 –
donde hemos usado, ambos, B1 = 1 y b1 = 1. Expandiendo el lado izquierdo y derecho
hasta orden z 3 resulta en
   
2 3 B2 2 4b2 B2 B3
z + b2 z + b3 z + . . . = z + + 2b2 z + 3b3 + + 3 z3 + . . .
λ3 λ3 λ

Comparando términos, y recolectando las definiciones de bl , (2.36) en términos de Ul ,


(2.34) en términos de gráficas, encontramos que el segundo coeficiente virial se da por
Z Z
3 U2 1 3 3 1
B2 = −λ b2 = − =− d r1 d r2 f (⃗r1 − ⃗r2 ) = − d3 rf (r)
2V 2V 2

lo cual reproduce el resultado (2.27) que encontramos antes usando métodos ligeramente
más simples. Ahora también podemos tener una expresión para el tercer coeficiente,

B3 = λ6 (4b22 − 2b3 )

aunque, francamente, aún tenemos una integral desagradable por resolver antes de
llegar a un resultado concreto. Más importante aún, la expansión del clúster nos da
la tecnologı́a para realizar sistemáticamente expansiones de perturbación a cualquier
orden que deseemos.

2.6 Apantallamiento y el Modelo de Plasma de Debye-Hückel


Hay muchas otras aplicaciones a los métodos de estadı́stica clásica que vimos en este
capı́tulo. Aquı́ los usaremos para derivar el importante fenómeno de apantallamiento.
El problema que consideramos, que en ocasiones recibe el nombre de “plasma de un
componente”, es el siguiente: un gas de electrones, cada uno con carga −q, se mueve
en un fondo fijo y uniforme con densidad de carga positiva +qρ. La densidad de carga
es tal que el sistema completo es neutral, lo que significa que ρ es también el promedio
de la densidad de carga de los electrones. Este es el modelo de Debye-Hückel.

En ausencia del fondo de densidad de carga, la interacción entre los electrones se da


por el potencial de Coulomb

q2
U (r) =
r
donde hemos usado unidades en las que 4πϵ0 = 1. ¿Cómo afecta el fondo de carga fijo al
potencial entre los electrones? El ingenioso truco del modelo de Debye-Hückel es usar
los métodos estadı́sticos para responder esta pregunta. Consideremos que se coloca un
electrón en el origen. Intentemos obtener el potencial electrostático ϕ(⃗r) debido a este

– 62 –
electrón. Hacer esto no es trivial debido a que ϕ también depende de las posiciones del
resto de electrones. En general podemos escribir,

∇2 ϕ(⃗r) = −4π (−qδ(⃗r) + qρ − qρg(⃗r)) (2.40)

donde el primer término del lado derecho es debido al electrón en el origen; el segundo
término es debido al fondo de densidad de carga positiva; y el tercero es debido a los
demás electrones, cuya densidad de carga promedio en la cercanı́a del primer electrón
es ρg(⃗r). El problema es que no conocemos las funciones g. Si nos encontráramos en
temperatura cero, los electrones intentarı́an separarse entre sı́ tanto como fuera posible.
Pero a temperaturas distintas de cero, su energı́a térmica les permitirá aproximarse los
unos a los otros. Esta es la pista que necesitamos. El costo energético para que
un electrón se aproxime al origen es, por supuesto, E(⃗r) = −qϕ(⃗r). Por lo tanto
asumiremos que la densidad de carga cerca del origen se da por el factor de Bolztmann,

g(⃗r) ≈ eβqϕ(⃗r)

Para altas temperaturas, βqϕ ≪ 1, podemos escribir eβqϕ ≈ 1 + βqϕ y la ecuación de


Poisson (2.40) se vuelve
 
2 1
∇ + 2 ϕ(⃗r) = 4πqδ(⃗r)
λD

donde λ2D = 1/4πβρq 2 . Esta ecuación tiene como solución,

qe−r/λD
ϕ(⃗r) = − (2.41)
r
lo cual inmediatamente se traduce en una energı́a potencial efectiva entre los electrones,

q 2 e−r/λD
Ueff (r) =
r
Ahora vemos que el efecto del plasma es introducir un factor exponencial en el numer-
ador, causando que el potencial sufra un rápido decaimiento en distancias r > λD . Este
efecto se llama apantallamiento y λD se conoce como la longitud de apantallamiento
de Debye. La derivación de (2.41) es auto-consistente si tenemos un gran número de
electrones dentro de una distancia λD hasta el origen de modo que podemos hablar tran-
quilamente de la densidad de carga promedio. Esto significa que necesitamos ρλ3D ≫ 1.

– 63 –
3. Gases Cuánticos
En esta sección discutiremos situaciones en las que los efectos cuánticos son impor-
tantes. Restringiremos nuestra atención a gases — es decir, un montón de partı́culas
moviéndose y apenas interactuando — pero una de las primeras cosas que veremos es
qué tan versátil puede ser la idea de un gas en el mundo cuántico. La usaremos para
entender no solamente los gases tradicionales que conocimos en la sección anterior, sino
también a la luz e, irónicamente, ciertas propiedades de los sólidos. En la última parte
de esta sección, veremos lo que le sucede a los gases a bajas temperaturas donde su
comportamiento se rige por la estadı́stica cuántica.

3.1 Densidad de Estados


Comenzamos introduciendo el importante concepto de la densidad de estados. Para
ilustrar esto, regresamos nuevamente al gas ideal atrapado en una caja con lados de
longitud L y volumen V = L3 . Visto desde la mecánica cuántica, cada partı́cula se
describe por una función de onda. Impondremos condiciones a la frontera periódicas
en esta función de onda (a pesar de que la fı́sica que discutiremos no es sensible ante
la elección de condiciones a la frontera). Si no hay interacción entre partı́culas, los
eigenestados de energı́a son simplemente ondas planas,
1 ⃗
ψ = √ eik·⃗x
V

Las condiciones a la frontera requieren que el vector de onda ⃗k = (k1 , k2 , k3 ) esté


cuantizado como
2πni
ki = para ni ∈ Z
L
y la energı́a de la partı́cula es

ℏ2 k 2 4π 2 ℏ2 2
E⃗n = = (n + n22 + n23 )
2m 2mL2 1

con k = |⃗k|. La función de partición cuántica (1.21) de la partı́cula se da por la suma


sobre todos los eigenestados de energı́a,
X
Z1 = e−βE⃗n

n

La pregunta es: ¿cómo hacemos esta suma? La manera más sencilla es aproximarla
por medio de una integral. Recordemos de la sección anterior que la longitud de onda

– 64 –
termal de la partı́cula se define como
s
2πℏ2
λ=
mkB T

Los exponentes que aparecen en la suma son todos de la forma ∼ λ2 n2 /L2 , salvo
algunos factores constantes. Para cualquier caja de tamaño macroscópico, λ ≪ L
(¡un serio eufemismo! De hecho, λ ≪≪ L) lo cual asegura que hay varios estados con
E⃗n ≤ kB T , donde todos contribuyen a la suma (habrá una excepción de esto a muy
bajas temperaturas, lo cual será el enfoque de la Sección 3.5.3). Por lo tanto, perdemos
muy poco al aproximar la suma por una integral. Podemos escribir esto como
Z Z Z ∞
X
3 V 3 4πV
≈ dn = 3
dk= 3
dk k 2
(2π) (2π) 0

n

donde, en la última igualdad, hemos integrado sobre las direcciones angulares para
obtener 4π, el área de una 2-esfera, dejando una integración sobre la magnitud k = |⃗k|
y el factor Jacobiano k 2 . Para futuras aplicaciones, cambiar las variables de integración
en este punto probará ser más útil. En su lugar, trabajamos con la energı́a,
ℏ2 k 2 ℏ2 k
E= ⇒ dE = dk
2m m
Ahora podemos escribir la integral como
Z Z r Z
4πV 2 V 2mE m
dk k = dE ≡ dE g(E) (3.1)
(2π)3 2π 2 ℏ2 ℏ2
donde
 3/2
V 2m
g(E) = 2 E 1/2 (3.2)
4π ℏ2
es la densidad de estados: g(E)dE cuenta el número de estados con energı́a entre E
y E + dE. Notemos que realmente no hemos resuelto la integral sobre E en (3.1); en
cambio, esto se debe entender como una medida con la cual podemos integrar sobre
cualquier función f (E) de nuestra elección.

No hay nada particularmente cuántico sobre la densidad de estados. En efecto, en la


derivación anterior hemos reemplazado la suma cuántica con una integral sobre los mo-
mentos que, de hecho, parece ser bastante clásica. Sin embargo, conforme encontremos
más y más diferentes tipos de gases, veremos que la densidad de estados aparece en
todos los cálculos y es una cantidad útil para tener a nuestra disposición.

– 65 –
3.1.1 Sistemas Relativistas
Partı́culas relativistas que se mueven en d = 3+1 dimensiones de espacio-tiempo tienen
una energı́a cinética de

E = ℏ2 k 2 c2 + m2 c4 (3.3)
Repitiendo los pasos anteriores, encontramos que la densidad de estados se da por
VE √
g(E) = 2 3 3 E 2 − m2 c4 (3.4)
2π ℏ c
En particular, para partı́culas que carecen de masa, la densidad de estados es
V E2
g(E) = (3.5)
2π 2 ℏ3 c3
3.2 Fotones: Radiación de Cuerpo Negro
“Fue un acto de desesperación. Habı́a batallado con la teorı́a del cuerpo
negro durante seis años. Sabı́a que el problema era fundamental y conocı́a
la respuesta. Tenı́a que encontrar una explicación teórica a toda costa,
excepto por la inviolabilidad de las dos leyes de la termodinámica”
Max Planck
Ahora pasamos a nuestro primer gas realmente cuántico: la luz. Consideraremos
un gas de fotones — el cuanto del campo electromagnético — y determinaremos varias
de sus propiedades, incluyendo la distribución de longitudes. O, en otras palabras, su
color.

Describiremos el color de la luz a una temperatura fija. Pero esto también aplica
(con una pequeña excepción) al color de cualquier objeto a la misma temperatura.
El argumento para esto es como sigue: considere un objeto sumergido en un gas de
fotones. En equilibrio, el objeto se encuentra a la misma temperatura que los fotones,
emitiendo tantos fotones como absorbe. Por lo tanto, el color del objeto imitará aquel
de la luz que lo rodea.

Para un tema que trata totalmente sobre color, un gas de fotones usualmente recibe
un nombre bastante aburrido – radiación de cuerpo negro. La razón de esto es que
cualquier objeto real exhibirá lı́neas de emisión y absorción debido a su composición
atómica particular (esta es la excepción mencionada antes). No nos interesan estos
detalles; solo deseamos computar el espectro de los fotones que un cuerpo emite debido
a que está caliente. Por esta razón, a veces se habla de un cuerpo ideal que absorbe
fotones de cualquier longitud de onda y no refleja ninguno. A temperatura cero, tal
objeto parecerı́a negro: he ahı́ el nombre. Nos gustarı́a entender su color conforme
aumentamos la temperatura.

– 66 –
Para comenzar, necesitamos ciertos datos sobre los fotones. La energı́a de un fotón
se determina por su longitud de onda λ o, de manera equivalente, por su frecuencia
ω = 2πc/λ, y es
E = ℏω
Este es un caso especial de la fórmula relativista de la energı́a (3.3) para partı́culas
sin masa, m = 0. La frecuencia se relaciona con el vector de onda (con su magnitud)
ω = kc.

Los fotones tienen dos estados de polarización (uno para cada dimensión transversal
a la dirección de propagación). Para tomar esto en cuenta, la densidad de estados (3.5)
deberı́a de multiplicarse por un factor de dos. El número de estados disponibles para
un único fotón con energı́a entre E y E + dE es por lo tanto,
V E2
g(E)dE = dE
π 2 ℏ3 c3
De forma equivalente, el número de estados disponibles para un único fotón con fre-
cuencia entre ω y ω + dω es
V ω2
g(E)dE = g(ω)dω = 2 3 dω (3.6)
π c
donde nos hemos dado un pequeño gusto y hemos abusado un poco de la notación
pues g(ω) no es la misma función que g(E) y sin embargo está definida por la ecuación
anterior. También vale la pena mencionar que hay un error muy común que uno
puede cometer al hacer este tipo de manipulaciones con densidades de estado: uno
debe recordar reescalar el intervalo dE a dω. Esto se logra simplemente escribiendo
g(E)dE = g(ω)dω como lo hicimos antes. Si uno pasa esto por alto tendrá g(ω) mal
por un factor de ℏ.

El último punto a considerar es importante, este dice que los fotones no se conservan.
Si metemos seis átomos en una caja, estos seguirán ahı́ incluso si revisamos después de
un mes. Esto no aplica para los fotones. No hay razón alguna por la cual las paredes
de la caja no puedan absorber un fotón y luego emitir dos. El número de fotones en el
mundo no es constante. Para probar esto, simplemente es necesario apagar la luz.

Debido a que el número de fotones no se conserva, no podemos definir un potencial


quı́mico para estas partı́culas. Incluso en la colectividad canónica debemos sumar
estados con diferentes números de fotones dado que estos son “estados accesibles” (en
ocasiones se dice que debemos operar en la colectividad macrocanónica considerando
µ = 0, que es lo mismo). Esto significa que debemos trabajar con estados para cualquier
número N de fotones.

– 67 –
Comenzaremos con fotones con frecuencia definida ω. Un estado con N de estos
fotones tiene energı́a E = N ℏω. Sumando sobre N resulta en una función de partición
para fotones con una frecuencia fija,

1
Zω = 1 + e−βℏω + e−2βℏω + . . . = (3.7)
1 − e−βℏω

Ahora necesitamos sumar sobre todas las posibles frecuencias. Como hemos visto en

Figura 14: La función de distribución de Planck (Fuente: E. Schubert, Light Emitting


Diodes).

múltiples ocasiones, las funciones de partición independientes se multiplican, lo que


significa que los logaritmos se suman. Solamente requerimos saber cuántos estados de
fotones existen con alguna frecuencia ω. Esto es lo que nos dice la densidad de estados
(3.6). Tenemos
Z ∞ Z ∞
V
dω ω 2 log 1 − e−βℏω

log Z = dω g(w) log Zω = − 2 3 (3.8)
0 π c 0

3.2.1 Distribución de Planck


Desde la función de partición (3.8) podemos calcular todas las cantidades interesantes
para un gas de luz. Por ejemplo, la densidad de energı́a almacenada en el gas de fotones
es
Z ∞
∂ Vℏ ω3
E=− log Z = 2 3 dω βℏω (3.9)
∂β π c 0 e −1

– 68 –
Sin embargo, antes de integrar sobre frecuencias, hay información importante almace-
nada en el integrando. Este nos dice que la cantidad de energı́a que cargan los fotones
con frecuencias entre ω y ω + dω es
Vℏ ω3
E(ω)dω = 2 3 βℏω dω (3.10)
π c e −1
Esta es la distribución de Planck. Se muestra arriba para múltiples temperaturas.
Como se puede observar en la gráfica, para gases calientes el máximo de la distribución
ocurre a una longitud de onda menor o, de manera equivalente, a una frecuencia mayor.
Podemos determinar fácilmente este máximo encontrando la solución a dE(ω)/dω = 0,
que es
kB T
ωmax = ζ

donde ζ ≈ 2.822 es la solución de 3 − ζ = 3e−ζ . A esta ecuación de arriba usualmente
se le llama ley de desplazamiento de Wien. En pocas palabras, nos dice el color de un
objeto caliente.

Para calcular la energı́a total del gas de fotones, es necesario hacer la integración
de (3.9). Para hacer énfasis en la dependencia de la energı́a con la temperatura, es
conveniente usar x = βℏω y ası́ obtener
V (kB T )4 ∞ x3 dx
Z
E= 2 3
π c ℏ3 0 ex − 1
R
La integral I = dx x3 /(ex − 1) es complicada pero realizable. Resulta ser I = π 4 /15.
Demostraremos esto más adelante en el curso al considerar una clase más general de
integrales (3.27) que pueden ser manipuladas a la forma de la suma (3.28). El resultado
de esto es la expresión de la integral I en términos de la función Gamma y de la función
zeta de Riemann: I = Γ(4)ζ(4) = π 4 /15). La densidad de energı́a E = E/V en un gas
de fotones es proporcional a T 4 ,
π 2 kB
4
E= T4
15ℏ3 c3
Ley de Stefan-Boltzmann
La expresión anterior para la densidad de energı́a esta ı́ntimamente relacionada con la
ley de Stefan-Boltzmann que describe la energı́a emitida por un objeto a temperatura
T . El flujo de energı́a está definido como la taza de transferencia de energı́a por unidad
de área de la superficie. Se da por
Ec
Flujo de Energı́a = ≡ σT 4 (3.11)
4

– 69 –
donde
π 2 kB
4
σ= = 5.67 × 10−8 Js−1 m−2 K −4
60ℏ3 c2
es la constante de Stefan.

El factor de la velocidad de la luz en la ecuación de en medio en (3.11) aparece


debido a que el flujo es la tasa de transferencia de energı́a. El factor de 1/4 está ahı́
porque no estamos considerando el flujo emitido por una fuente puntual, sino de un
objeto cuyo tamaño es mayor al de la longitud de onda de los fotones individuales. Esto
quiere decir que los fotones se emiten solamente en una dirección: lejos del objeto, no
hacia él. Además, solo nos interesa la velocidad perpendicular al objeto, que es (c cos θ)
donde θ es el ángulo generado por el fotón con la normal. Esto significa que, en lugar
de llenar una esfera de área 4π que rodea al objeto, el flujo de fotones desde cualquier
punto de la superficie del objeto se da por
Z 2π Z π/2
1 c
dϕ dθ sin θ (c cos θ) =
4π 0 0 4
Presión de Radiación y Otras Cuestiones
Todas las demás cantidades de interés pueden ser calculadas con la energı́a libre,

F = −kB T log Z
V kB T ∞
Z
dω ω 2 log 1 − e−βℏω

= 2 3
π c o

Podemos deshacernos del logaritmo por medio de integración por partes para obtener,
Z ∞
Vℏ ω 3 e−βℏω
F =− 2 3 dω
3π c 0 1 − e−βℏω
Z ∞
Vℏ 1 x3
=− 2 3 4 4 dx x
3π c β ℏ 0 e −1
2

=− (kB T )4
45ℏ3 c3
Desde esta expresión podemos calcular la presión debido a la radiación electromagnética,
∂F E 4σ 4
p=− = = T
∂V T 3V 3c
Esta es la ecuación de estado para un gas de fotones. La ecuación de en medio nos dice
que la presión de fotones es un tercio de la densidad de energı́a — un hecho que será
importante en el curso de Cosmologı́a.

– 70 –
También podemos calcular la entropı́a S y la capacidad calorı́fica CV . Ambas se
expresan de manera conveniente en términos de la constante de Stefan, la cual esconde
todos los factores molestos,
∂F 16V σ 3 ∂E 16V σ 3
S=− = T , CV = = T
∂T V 3c ∂T V c
3.2.2 Radiación del Fondo Cósmico de Microondas
El fondo cósmico de microondas, o CMB por sus siglas en inglés, es el resplandor
restante del Big Bang, una luz uniforme que permea el universo. La intensidad de
esta luz fue medida con alta precisión por el instrumento FIRAS (Espectrofotómetro
Absoluto del Infrarrojo Lejano) en el satélite COBE a comienzos de 1990. El resultado
se muestra abajo, junto con la curva teórica para el espectro de un cuerpo negro a
T = 2.725 K. Podrı́a parecer que las barras de error son muy grandes, pero esto solo
se debe a que han sido multiplicadas por un factor de 400. Si las barras de error se
hubieran mostrado del tamaño correcto ni siquiera serı́an visibles.

Este resultado es totalmente asombroso. La luz ha estado viajando por 13.7 mil
millones de años, casi desde el comienzo del tiempo mismo. Y aún ası́, podemos enten-
derla con una precisión ridı́cula con un cálculo simple. Si no estás asombrado por esta
gráfica, entonces no tienes alma. Puedes aprender más sobre esto en mis notas sobre
cosmologı́a.

3.2.3 El Nacimiento de la Mecánica Cuántica


El punto de partida conceptual en la derivación de la fórmula de Planck (3.10) es que
la luz de frecuencia ω viene en paquetes de energı́a E = ℏω. Históricamente, esta fue
la primera vez que surgió la idea de la cuantificación en la fı́sica teórica.

– 71 –
Veamos que sucederı́a en un mundo clásico donde la luz de frecuencia ω pueda tener
una intensidad arbitrariamente baja y, correspondientemente, una energı́a arbitrari-
amente baja. Esto es precisamente lo que sucede en el régimen hω ≪ kB T de la
distribución de Planck, donde la energı́a mı́nima ℏω está totalmente opacada por la
temperatura. Entonces podemos aproximar
1 1

eβℏω −1 βℏω

y la fórmula de la distribución de Planck (3.10) se reduce a

V
E(ω) = ω 2 kB T
π 2 c3
Notemos que todo rastro de la constante cuántica ℏ se ha desvanecido. Esta es la ley de
Rayleigh-Jeans para la distribución de la radiación clásica. Tiene un serio problema si
R∞
tratamos de extrapolarla a altas frecuencias dado que la energı́a total, E = 0 E(ω)dω,
diverge. A esto se le apodó la catástrofe ultravioleta. En contraste, en la fórmula de
Planck (3.10) hay una anulación exponencial en altas frecuencias. Esto emerge debido
a que cuando ℏω ≫ kB T , la temperatura no es lo suficientemente alta para crear si
quiera un fotón. Al imponer una energı́a mı́nima en estos modos con alta frecuencia,
la mecánica cuántica los fija en su lugar.

3.2.4 Max Planck (1858-1947)


“Una nueva verdad cientı́fica no triunfa convenciendo a sus oponentes y
haciéndoles ver la luz, sino porque sus oponentes finalmente mueren”

Max Planck

Planck estudió en Munich y, después de un breve periodo en Kiel, se mudó y tomó


una plaza de cátedra en Berlı́n (la misma posición para la que Boltmzann nunca se
apareció).

Durante gran parte de su carrera inicial, Planck estaba rotundamente en contra de


la idea de los átomos. Desde su punto de vista las leyes de la termodinámica era
inviolables. No pudo aceptar que se fundamentaba en probabilidad. En 1882, escribió
que “la teorı́a atómica, a pesar de su gran éxito, finalmente tendrá que ser abandonada”.

Veinte años después, Planck habı́a cambiado de parecer. En 1900, aplicó los métodos
estadı́sticos de Boltzmann a los fotones para llegar al resultado que derivamos arriba,
proporcionando las primeras pistas de la mecánica cuántica. Sin embargo, el elemento

– 72 –
clave de la derivación — que la luz viene en cuantos — no fue enfatizado por Planck.
Después, cuando la teorı́a cuántica fue desarrollada, Planck se negó una vez más a
aceptar la idea de que la probabilidad subyace a la fı́sica. Esta vez no cambió de
parecer.

3.3 Fonones
Es difı́cil imaginar substancias muy diferentes de un gas y de
un sólido. Es por lo tanto sorprendente que podamos utilizar
nuestro estudio de gases para entender con precisión ciertas
propiedades de los sólidos. Consideremos un cristal de átomos
de algún tipo, como se muestra en la figura. Los átomos in-
dividuales están fijos en su posición: ciertamente no actúan
como un gas. Pero las vibraciones de los átomos — en otras
palabras, ondas sonoras — pueden tratarse usando el mismo Figura 15:
formalismo que introducimos para fotones.

3.3.1 El Modelo de Debye


La mecánica cuántica transforma a las ondas electromagnéticas en paquetes discretos de
energı́a llamados fotones. De la misma forma, las ondas sonoras en los sólidos también
vienen en paquetes discretos. Se conocen como fonones. Tomaremos nuevamente que
la energı́a de un fonón es de la forma
E = ℏω = ℏkcs (3.12)
donde cs es ahora la velocidad del sonido en lugar de la velocidad de la luz.
La densidad de estados para los fonones es la misma que la de los fotones (3.6) con dos
excepciones: debemos reemplazar la velocidad de la luz c con la velocidad del sonido cs ;
y los fonones tienen tres estados de polarización en lugar de dos. Hay dos polarizaciones
transversales (como en un fotón) pero también hay un modo longitudinal. La densidad
de estados es por lo tanto
3V
g(ω)dω = 2 3 ω 2 dω
2π cs
Hay una diferencia importante adicional entre fonones y fotones. Mientras que las ondas
luminosas pueden tener frecuencias arbitrariamente altas, las ondas sonoras no. Esto se
debe a que ondas de alta frecuencia tienen longitudes de onda pequeñas, λ = 2πcs /ω.
Pero en el planteamiento del problema hay una longitud de onda mı́nima impuesta por
el espacio entre los átomos. No es posible que una onda sonora se propague a través
de un sólido con una longitud de onda más pequeña que el espacio atómico porque en
medio de los átomos no hay nada para agitar.

– 73 –
Denotaremos la frecuencia máxima permitida para los fonones como ωD . La longitud
de onda mı́nima, λD , deberı́a ser del orden del espaciado de la red atómica, que es
(V /N )1/3 , por lo que esperamos que ωD ∼ (N/V )1/3 cs . Pero ¿cómo podemos calcular
este coeficiente? Debido a Debye hay un argumento bastante ingenioso para determinar
ωD (tan ingenioso que logró que su letra inicial esté en la frecuencia y su nombre en
el nombre de la sección). Comenzamos por contar el número de estados de fonones
únicos,
Z ωD
V ω3
dω g(w) = 2 D3
0 2π cs
La parte ingeniosa del argumento es identificar esto con el número de grados de libertad
en el sólido. Esto no es inmediatamente obvio. El número de grados de libertad en
una red de N átomos es 3N pues cada átomo puede moverse en tres direcciones. Pero
el número de estados de fonones únicos es contar las vibraciones colectivas de todos los
átomos juntos. ¿Por qué deberı́an de ser iguales?

Para ver realmente lo que está sucediendo, uno deberı́a calcular los eigenestados de
energı́a de la red correctamente y simplemente contar el número de modos de fonones
únicos con vectores de onda dentro de primera zona de Brillouin (puedes aprender
todo sobre las zonas de Brillouin en las notas de clase del curso de Aplicaciones de
la Mecánica Cuántica). Pero para tener la intuición correcta, uno puede pensar de la
siguiente manera: en general, el sólido tendrá muchos fonones dentro de él y cada uno de
estos fonones puede estar en cualquiera de los estados únicos de fonones que contamos
antes. Supongamos que hay tres fonones asentados en el mismo estado. Decimos que
este estado está ocupado tres veces. En este lenguaje, cada uno de los estados anteriores
puede ser ocupado un número arbitrario de veces, restringido únicamente por la energı́a
disponible. Si uno quiere describir el estado total del sistema, necesita ver cuántos
fonones hay en el primer estado, y cuántos hay en el segundo, y ası́ sucesivamente. El
número de estados de un fonón está entonces jugando el papel de los grados de libertad:
es el número de cosas que puedes excitar.

El resultado neto de este argumento es igualar


3
 2 1/3
V ωD 6π N
3N = 2 3 ⇒ ωD = cs
2π cs V

Vemos que ωD se relaciona con el espaciado atómico (V /N )1/3 , como habı́amos antic-
ipado, pero ahora tenemos también el coeficiente. Sin embargo, en cierto sentido, el
argumento de Debye es un “análisis de la respuesta”. Se construyó para asegurarse que
tengamos el comportamiento correcto de la temperatura, como veremos abajo.

– 74 –
Para la frecuencia máxima ωD podemos construir una escala de energı́a asociada,
ℏωD , y una escala de temperatura,
ℏωD
TD =
kB
Esto se conoce como la temperatura de Debye. Provee una forma de caracterizar a
todos los sólidos: es la temperatura a la cual el fonón de máxima energı́a se excita.
La temperatura TD puede ser desde 100 K para materiales muy suaves como el plomo,
hasta 2000 K para materiales más duros como el diamante. La mayorı́a de los materiales
tienen temperaturas de Debye al rededor de la temperatura ambiente (±100K o ası́).

Capacidad Calorı́fica de los Sólidos


Lo único que falta es juntar las piezas. Como los fotones, el número de fonones no se
conserva. La función de partición para fonones con una frecuencia fija, ω, es la misma
que para fotones (3.7),
1
Zω = 1 + e−βℏω + e−2βℏω + . . . =
1 − e−βℏω
Sumando sobre todas las frecuencias, la función de partición total es entonces
Z ωD
log Zphonon = dω g(ω) log Zω
0

donde la función de partición Zω para un solo fonón de frecuencia ω es la misma que


aquella de un fotón (3.7). La energı́a total en las ondas sonoras es por lo tanto
Z ωD Z ωD
ℏωg(ω) 3V ℏ ω3
E= dω βℏω = 2 3 dω βℏω
0 e −1 2π cs 0 e −1
Nuevamente consideramos x = βℏω como la variable de integración para que el
lı́mite superior de la integral se convierta en xD = TD /T . Tenemos entonces
Z TD /T
3V 4 x3
E= 2 (kB T ) dx
2π (ℏcs )3 0 ex − 1
La integral es una función de TD /T . No tiene expresión analı́tica. Sin embargo, pode-
mos explorar ambos extremos. Primero, para T ≪ TD , podemos reemplazar el lı́mite
superior de la integral por infinito. Ası́ recuperamos la misma integral para fotones,
R∞
I = dx x3 /(ex − 1) = π 4 /15. En este caso de baja temperatura, la capacidad
calorı́fica es proporcional a T 3 ,
∂E 2π 2 V kB4
CV = = 3 3
T3 (T ≪ TD ) (3.13)
∂T 5ℏ cs

– 75 –
Figura 16: Datos experimentales para las capacidades calorı́ficas. La lı́nea sólida es la
predicción de Debye. (Fuente: D. Schroeder An Introduction to Thermal Physics)

Esta es comúnmente expresada en términos de la temperatura de Debye TD ,


 3
12π 4 T
CV = N k B (3.14)
5 TD
Por otra parte, a temperaturas T ≫ TD solamente integramos sobre valores pequeños
de x, lo que nos permite reformular el integrando con una expansión de Taylor,
 1 TD 3
Z TD /T Z TD /T
x3
 
2
dx x = dx x + . . . = + ...
0 e −1 0 3 T
Esto nos asegura que la energı́a crece linealmente junto con T y la capacidad calorı́fica
tiende a un valor constante
4 3
V kB TD
CV = = 3N kB (T ≫ TD ) (3.15)
2π 2 ℏ3 c3s
Este comportamiento a altas temperaturas ha sido conocido experimentalmente desde
el siglo XIX. Se le llama la ley de Dulong-Petit. El argumento de Debye para el valor de
ωD fue construido básicamente para reproducir el coeficiente 3N en la fórmula anterior.
Esto se conocı́a tanto experimentalmente como de un modelo anterior de Einstein sobre
vibraciones de un sólido (el lector habrá conocido el modelo de Einstein en la primera
lista de problemas). Históricamente, el verdadero éxito del modelo de Debye fue la
predicción correcta del comportamiento de la forma T 3 de CV a bajas temperaturas.

En la mayorı́a de los materiales la capacidad calorı́fica es dominada por la con-


tribución de los fonones. (En los metales hay una contribución adicional debida a la

– 76 –
conducción de los electrones que calcularemos en la Sección 3.6). La capacidad calorı́fica
de tres materiales se muestra en la Figura 16, junto con las predicciones del modelo de
Debye. Como se puede ver, ¡Funciona bastante bien! La desviación del valor teórico
en altas temperaturas se debe a las diferencias entre CV y Cp , la capacidad calorı́fica a
presión constante.

¿Qué tiene de malo el modelo de Debye?


Como hemos visto, el modelo de Debye es notablemente preciso al capturar las capaci-
dades calorı́ficas de los sólidos. Sin embargo, es solo una caricatura de la fı́sica real.
El problema más evidente es nuestro punto de partida (3.12). La relación E = ℏω
entre la energı́a y la frecuencia está bien; el error es la relación entre la frecuencia ω y
el vector de onda (o momento) k, de la forma ω = kcs . Ecuaciones de este tipo, que
relacionan la energı́a y el momento, se conocen como relaciones de dispersión. Resulta
que la relación de dispersión para los fonones es un poco más complicada.

No es difı́cil calcular la relación de dispersión para los


fonones. (De hecho, este cálculo se hace en el curso de Aplicaciones
de la Mecánica Cuántica). Por simplicidad, trabajaremos una
red periódica unidimensional de N átomos, como se muestra
en la figura. La posición de equilibrio para cada átomo es
xl = la e imponemos condiciones a la frontera periódicas al
requerir que xN +1 ≡ x1 . Sea ul la desviación del punto de
equilibrio, ul = xl − la. Si aproximamos los enlaces que unen Figura 17:
los átomos como osciladores armónicos, el hamiltoniano que
gobierna las vibraciones es

1 X 2 αX
H= u̇ + (ui − ui+1 )2
2m i i 2 i

donde α es un parámetro que gobierna la fuerza de los enlaces entre los átomos. La
ecuación de movimiento es
α
üi = (2ui − ui+1 − ui−1 )
m
Esto se resuelve fácilmente por medio de la transformada discreta de Fourier. Hacemos
el ansatz
1 X
ul = √ ũk ei(kla−ωk t)
N k

– 77 –
Insertando esto en la ecuación de movimiento obtenemos la relación de dispersión
r  
α ka
ωk = 2 sin
m 2
Para obtener la función de partición de manera correcta en este modelo, tendrı́amos que
revisar la densidad de estados utilizando la nueva relación de dispersión E(k) = ℏωk .
Las integrales resultantes son complicadas. Sin embargo, a bajas temperaturas solo los
modos de frecuencia más pequeños están excitados y, para ka pequeño, la función seno
es aproximadamente lineal. Esto significa que regresamos a la relación de dispersión
que utilizamos
p en el modelo de Debye, ω = kcs , con la velocidad del sonido dada por
cs = a α/m. Además, a temperaturas muy altas es sencillo verificar que este modelo
da la ley de Dulong-Petit como se esperaba. Se desvı́a del modelo de Debye solo a
temperaturas intermedias e, incluso aquı́, esta desviación es despreciable.

3.4 El Gas Diatómico Revisado


Con un poco de experiencia cuántica bajo la manga, podemos ver nuevamente el gas
diatómico que discutimos en la Sección 2.4. Recordemos que la predicción clásica para
la capacidad calorı́fica — CV = 72 N kB — concuerda con los experimentos solamente
en altas temperaturas. En su lugar, los datos sugieren que conforme la temperatura
disminuye, los modos vibracionales y los modos rotacionales se congelan. Pero este
es exactamente el tipo de comportamiento que esperarı́amos para un sistema cuántico
donde hay una energı́a mı́nima necesaria para excitar cada grado de libertad. En
efecto, este “congelamiento” de los modos nos salvó de la catástrofe ultravioleta en el
caso de la radiación de cuerpo negro y dio lugar a una capacidad calorı́fica reducida a
temperaturas bajas para los fonones.

Comencemos con los modos rotacionales, descritos por el hamiltoniano (2.18). Tratando
esto como un hamiltoniano cuántico, tiene niveles de energı́a
ℏ2
E= j(j + 1) j = 0, 1, 2, . . .
2I
La degeneración de cada nivel es 2j + 1. Entonces la función de partición rotacional
para una sola molécula es

2
X
Zrot = (2j + 1)e−βℏ j(j+1)/2I
j=0

Cuando T ≫ ℏ2 /2IkB , podemos aproximar la suma por medio de la integral para


obtener
Z ∞
2 2I
Zrot ≈ dx (2x + 1)e−βℏ x(x+1)/2I =
0 βℏ2

– 78 –
lo cual concuerda con nuestro resultado de la función de partición clásica (2.19).

Por otra parte, para T ≪ ℏ2 /2IkB todos los estados excepto el de j = 0 se desacoplan
y tenemos simplemente Zrot ≈ 1. A estas temperaturas, los modos rotacionales están
congelados a temperaturas accesibles en experimentos, ası́ que solo los modos trasla-
cionales contribuyen a la capacidad calorı́fica.

Este análisis también explica porque no hay una contribución rotacional a la ca-
pacidad calorı́fica de un gas monoatómico. Uno podrı́a intentar argumentar esto al
decir que los átomos son partı́culas puntuales, por lo que no pueden rotar. Pero esto
simplemente no es verdad. El argumento correcto es que el momento de inercia I de
un átomo es muy pequeño y los modos rotacionales están congelados. Argumentos
similares aplican a la rotación al rededor del eje de simetrı́a de moléculas diatómicas.

Los modos vibracionales se describen por el oscilador armónico. Ya se ha calculado


esta función de partición en la primera hoja de ejemplos (y, de hecho, también de
manera implı́cita en los cálculos de fotones y fonones anteriores). Las energı́as son
1
E = ℏω(n + )
2
y la función de partición es
X 1
X e−βℏω/2 1
Zvib = e−βℏω(n+ 2 ) = e−βℏω/2 e−βℏωn = −βℏω
=
n n
1−e 2 sinh(βℏω/2)

En altas temperaturas tal que βℏω ≪ 1, podemos aproximar la función de partición


como Zvib ≈ 1/βℏω, lo cual, nuevamente, concuerda con el resultado clásico (2.20). A
bajas temperaturas (βℏω ≫ 1) la función de partición se vuelve Zvib ≈ e−βℏω/2 . Esta
es una contribución de la energı́a en el punto-cero del oscilador armónico. Simplemente
da la constante aditiva esperada a la energı́a por partı́cula,
∂ ℏω
Evib = − log Zvib ≈
∂β 2
y no contribuye a la capacidad calorı́fica. Una vez más, vemos como los efectos cuánticos
explican el comportamiento observado de la capacidad calorı́fica del gas diatómico. El
resultado final es una gráfica que se ve como aquella mostrada en la Figura 11.

3.5 Bosones
Para los dos últimos temas de esta sección, regresaremos nuevamente al gas ideal
monoatómico simple. El tratamiento clásico que describimos en la Sección 2.2 tiene

– 79 –
limitaciones. Conforme la temperatura disminuye, la longitud de onda de De Broglie
termal,
s
2πℏ2
λ=
mkB T

se hace más grande. Eventualmente se vuelve comparable con la separación entre las
partı́culas, (V /N )1/3 . En este punto, los efectos cuánticos se vuelven importantes. Si
las partı́culas no interactúan, realmente solo hay un efecto importante que debemos
considerar: la estadı́stica cuántica.

Recordemos que en mecánica cuántica las partı́culas son de dos clases: bosones y
fermiones. La categorı́a en la que cae cada partı́cula se determina por su espı́n, cortesı́a
del teorema de estadı́stica de espı́n. Partı́culas con espı́n entero son bosones. Esto
significa que cualquier función de onda debe de ser simétrica bajo el intercambio de dos
partı́culas,

ψ(⃗r1 , ⃗r2 ) = ψ(⃗r2 , ⃗r1 )

Partı́culas con espı́n 21 -entero son fermiones. Tienen una función de onda antisimétrica,

ψ(⃗r1 , ⃗r2 ) = −ψ(⃗r2 , ⃗r1 )

A bajas temperaturas, el comportamiento de los bosones y los fermiones es muy difer-


ente. Todas las partı́culas familiares fundamentales tales como el electrón, el protón
y el neutrón son fermiones. Pero un átomo que contiene un número par de fermiones
actúa como un bosón siempre y cuando no alcance energı́as lo suficientemente grandes
para disociar las partı́culas constituyentes de su estado ligado. De manera similar, un
átomo constituido por un número impar de electrones, protones y neutrones será un
fermión. (De hecho, el protón y el neutrón en sı́ no son fundamentales: son fermiones
porque tienen tres quarks constituyentes, cada uno de los cuales es un fermión. Si
las leyes de la fı́sica fueran diferentes de modo que cuatro quarks formaran un estado
ligado en lugar de tres, entonces ambos el protón y el neutrón serı́an bosones y, como
veremos en las siguientes dos secciones, ¡los núcleos no existirı́an!).

Comenzaremos describiendo las propiedades de los bosones y luego pasaremos a una


discusión sobre fermiones en la Sección 3.6.

3.5.1 Distribución de Bose-Einstein


Haremos un ligero cambio de notación a las secciones anteriores y llamaremos |r⟩ a los
estados cuánticos de una sola partı́cula del sistema. (Hemos utilizado |r⟩ anteriormente,

– 80 –
pero n será ocupado por la mayorı́a de esta sección). Las energı́as para una partı́cula
son Er y asumiremos partı́culas que no interactúan. En ese caso, uno pensarı́a que para
expresar el estado del sistema completo, se debe especificar el estado de la partı́cula
1, de la partı́cula 2, etc. Sin embargo, esto es demasiado información, ya que las
partı́culas 1 y 2 son indistinguibles. Para especificar el estado del sistema completo, no
es necesario ponerle nombre a cada partı́cula. En lugar de esto, será suficiente decir
cuántas partı́culas están en el estado 1, cuántas en el estado 2, etc.

Expresaremos el número de partı́culas en el estado |r⟩ como nr . Si decidimos trabajar


en el colectivo canónico, debemos calcular la función de partición,
X
Z= e−βnr Er
{nr }

donde la suma es sobre todas las posibles maneras de dividir N partı́culas en estados
P
{nr } cumpliendo con la restricción r nr = N . Desafortunadamente, la necesidad de
imponer esta restricción hace la suma más complicada. Esto significa que la colectividad
canónica es un poco incómoda para trabajar con partı́culas indistinguibles. Resulta ser
mucho más fácil operar en el colectivo macrocanónico, donde introducimos un potencial
quı́mico µ y permitimos fluctuaciones en el número total de partı́culas N .

La vida es más simple si pensamos en cada estado |r⟩ individualmente. En la colec-


tividad macrocanónica, algún estado puede tener un número arbitrario de partı́culas.
La función de partición macrocanónica del estado es
X 1
Zr = e−βnr (Er −µ) =
nr
1− e−β(Er −µ)

Nótese que hemos supuesto implı́citamente que la suma anterior converge, lo cual es
cierto solo si (Er − µ) > 0. Pero esto debe ser cierto para todos los estados Er .
Escogeremos nuestro estado base con energı́a E0 = 0, tal que la función de partición
macrocanónica para un gas de Bose tenga sentido solo si

µ<0 (3.16)

Ahora usaremos el hecho de que la ocupación de un estado es independiente de otros


estados. La función de partición macrocanónica completa es entonces
Y 1
Z=
r
1− e−β(Er −µ)

– 81 –
Desde esto podemos calcular el número promedio de partı́culas
1 ∂ X 1 X
N= log Z = ≡ ⟨nr ⟩
β ∂µ r
eβ(Er −µ) − 1 r

donde ⟨nr ⟩ indica el número promedio de partı́culas en el estado |r⟩,


1
⟨nr ⟩ = (3.17)
eβ(Er −µ) −1
Esta es la distribución de Bose-Einstein. En lo restante, nos interesaremos en el lı́mite
termodinámico donde las fluctuaciones al rededor del promedio son despreciables. Por
esta razón, nos permitiremos ser un poco flojos con la notación y escribiremos el número
promedio de partı́culas en |r⟩ como nr en vez de ⟨nr ⟩.

Recordemos las veces que hemos visto expresiones de la forma (3.17) en cálculos de
fotones y fonones — revise, por ejemplo, la ecuación (3.7). Esto no es una coincidencia:
ambos fotones y fonones son bosones, y el origen de este término en ambos cálculos
es el mismo: surge al sumar sobre el número de partı́culas en un mismo estado en
lugar de sumar sobre los estados para una misma partı́cula. Como mencionamos en
la sección sobre radiación de cuerpo negro, no es totalmente correcto pensar sobre los
fotones o fonones en el colectivo macrocanónico ya que sus números de partı́culas no se
conservan. No obstante, las ecuaciones son formalmente equivalentes si fijamos µ = 0.

En lo que sigue, nos ahorraremos un poco de tinta introduciendo la fugacidad

z = eβµ (3.18)

Debido a que µ < 0, tenemos 0 < z < 1.

Gas de Bose Ideal


Analicemos nuevamente un gas de partı́culas no relativistas, ahora desde la perspectiva
de la mecánica cuántica. La energı́a es
ℏ2 k 2
E=
2m
Como explicamos en la Sección 3.1, podemos reemplazar la suma discreta sobre mo-
mento por una integral con respecto a las energı́as siempre y cuando tomemos en cuenta
la densidad de estados. Esto fue calculado en (3.2), lo que reproduce el resultado:
 3/2
V 2m
g(E) = 2 E 1/2 (3.19)
4π ℏ2

– 82 –
Desde esto, junto con la distribución de Bose-Einstein, podemos fácilmente calcular el
número total de partı́culas en el gas,
Z
g(E)
N = dE −1 βE , (3.20)
z e −1
Hay un punto evidente, pero importante, que debemos entender sobre esta ecuación. Si
resolvemos la integral (y lo haremos próximamente) tendremos una expresión para el
número de partı́culas en términos del potencial quı́mico y la temperatura: N = N (µ, T ).
Eso significa que si mantenemos el potencial quı́mico fijo y variamos la temperatura,
entonces N va a cambiar. Sin embargo, en la mayorı́a de las situaciones experimentales,
N es fijo y trabajamos en el colectivo macrocanónico porque es matemáticamente más
sencillo. Pero nada es gratis. El precio a pagar es que tenemos que invertir la ecuación
(3.20) para expresarla de la forma µ = µ(N, T ). Después, al cambiar T , manteniendo
N fijo, µ va a cambiar también. Anteriormente hemos visto un ejemplo de esto en el
gas ideal cuando el potencial quı́mico se da por (2.14).

La energı́a promedio del gas de Bose es


Z
Eg(E)
E = dE −1 βE , (3.21)
z e −1
Finalmente, podemos calcular la presión. En la colectividad macrocanónica esto es
Z
1 1
dE g(E) log 1 − ze−βE

pV = log Z = −
β β

Podemos manipular esta última expresión haciendo integración por partes. Debido a
que g(E) ∼ E 1/2 , esto resulta
Z
2 Eg(E) 2
pV = dE −1 βE = E (3.22)
3 z e −1 3
Esta es implı́citamente la ecuación de estado. Sin embargo, todavı́a tenemos un poco
de trabajo que hacer. La ecuación (3.21) nos da la energı́a como función de µ y T . Para
cuando reescribamos (3.20), nos dará µ como función de N y T . Substituir ambas en
(3.22) nos dará la ecuación de estado. Simplemente tenemos que resolver las integrales...

3.5.2 Un Gas Cuántico a Altas Temperaturas es (casi) Clásico


Desafortunadamente, las integrales (3.20) y (3.21) se ven bastante feroces. En breve,
comenzaremos a entender algunas de sus propiedades, pero primero veamos un lı́mite
particularmente simple. Expandiremos las integrales (3.20), (3.21) y (3.22) en el lı́mite

– 83 –
z = eβµ ≪ 1. Pronto encontraremos el significado de esta expansión (aunque hay una
pista en el tı́tulo de esta sección). Veamos a la densidad de partı́culas (3.20),

3/2 Z ∞
E 1/2

N 1 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE − 1
3/2 Z ∞
ze−βE E 1/2

1 2m
= dE
4π 2 ℏ2 0 1 − ze−βE
3/2 ∞ √
 Z
1 2m z
= dx xe−x (1 + ze−x + . . .)
4π 2 ℏ2 β 3/2 0

donde hemos hecho la simple sustitución x = βE. Las integrales son todas de tipo
Gaussianas y pueden ser evaluadas fácilmente al hacer otra sustitución de la forma
x = u2 . La respuesta final se puede expresar convenientemente en términos de la
longitud de onda termal λ,

 
N z z
= 3 1 + √ + ... (3.23)
V λ 2 2

Ahora que tenemos las respuesta, podemos preguntarnos qué hemos hecho realmente.
¿Qué clase de expansión es z ≪ 1? De la expresión de arriba, vemos que la expansión
es consistente únicamente si λ3 N/V ≪ 1, lo que quiere decir que la longitud de onda
termal es mucho menor que el espacio entre las partı́culas. Pero esto es verdad a altas
temperaturas, donde la expansión es z ≪ 1.

A primera vista, es sorprendente que z = eβµ ≪ 1 corresponda a altas temperaturas.


Cuando T → ∞, β → 0 de manera que parece que z → 1. Pero esto es demasiado
ingenuo. Si mantenemos el número de partı́culas N fijo en (3.20) entonces µ debe
variar conforme cambiamos la temperatura, y resulta que µ → −∞ más rápido de lo
que β → 0. Para ver esto, notemos que necesitamos que z/λ3 sea constante, de modo
que z ∼ T −3/2 .

Ecuación de Estado de un Gase de Bose a Altas Temperaturas

Ahora queremos calcular la ecuación de estado. Sabemos de (3.22) que pV = 32 E. Ası́


que necesitamos calcular E usando la misma expansión z ≪ 1 como antes. De (3.21),

– 84 –
la densidad de energı́a es
3/2 Z ∞
E 3/2

E 1 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE − 1
 3/2
Z ∞
1 2m z
= 2 2 5/2
dx x3/2 e−x (1 + ze−x + . . .)
4π ℏ β 0
 
3z z
= 3 1 + √ + ... (3.24)
2λ β 4 2

La siguiente parte es un poco complicada. Queremos eliminar z de la expresión anterior


a favor de N/V . Para hacer esto invertimos (3.23), recordando que estamos trabajando
en el lı́mite z ≪ 1 y λ3 N/V ≪ 1. Esto da

λ3 N 1 λ3 N
 
z= 1− √ + ...
V 2 2 V

lo cual sustituimos en (3.24) para obtener

1 λ3 N 1 λ3 N
  
3N
E= 1− √ + ... 1+ √ + ...
2β 2 2 V 4 2 V

y finalmente sustituimos esto en pV = 23 E para obtener la ecuación de estado de un


gas de Bose ideal a altas temperaturas,

λ3 N
 
pV = N kB T 1 − √ + ... (3.25)
4 2V

lo cual reproduce el gas ideal clásico, junto con un término que podemos identificar
como el segundo coeficiente virial en la expansión (2.21). Sin embargo, esta corrección
a la presión no ha surgido de ninguna interacción entre los átomos: es únicamente
debido a la estadı́stica cuántica. Nótese que el efecto de la estadı́stica bosónica en el
gas a altas temperatura es reducir la presión.

3.5.3 Condensado de Bose-Einstein


Ahora veremos la pregunta más interesante: ¿Qué le sucede a un gas de Bose a bajas
temperaturas? Recordemos que para que la función de partición macrocanónica con-
verja necesitamos µ < 0 de modo que z = eβµ ∈ (0, 1). Debido a que el lı́mite a altas
temperaturas es z → 0, anticipamos que los efectos cuánticos a bajas temperaturas se
producen a como z → 1.

– 85 –
Recordemos que el número de densidad es dado por (3.20), por lo que lo escribimos
como
3/2 Z ∞
x1/2

N 1 2mkB T 1
= 2 2
dx −1 x ≡ 3 g3/2 (z) (3.26)
V 4π ℏ 0 z e −1 λ
donde la función g3/2 (z) es una clase de funciones que aparecen en la historia de los
gases de Bose,
Z ∞
1 xn−1
gn (z) = dx −1 x (3.27)
Γ(n) 0 z e −1
Estas funciones también se conocen como polilogaritmos y en ocasiones se denotan
como Lin (z) = gn (z). La función g3/2 es relevante para el número de partı́culas y la
función g5/2 aparece en el cálculo de la energı́a en (3.21). Para futuras referencias, la

función gamma tiene un valor Γ(3/2) = π/2. (No se debe confundir estas funciones
gn (z) con la densidad de estados g(E). No están relacionadas; simplemente tienen un
nombre similar).

En la Sección 3.5.2 estudiamos (3.26) en el lı́mite T → ∞. Vimos que λ → 0 pero la


función g3/2 (z) → 0 de la manera justa para compensar y mantener N/V fijo, lo que
ahora pasa en el otro lı́mite, T → 0 y λ → ∞. Uno podrı́a albergar la esperanza de
que g3/2 (z) → ∞ y nuevamente todo encuentre buen balance con N/V permaneciendo
constante. Mostraremos ahora que esto no puede pasar.

Un par de manipulaciones revela que la integral (3.27) se puede expresar en términos


de una suma,
zxn−1 e−x
Z
1
gn (z) = dx
Γ(n) 1 − ze−x
Z ∞
1 X
= z dx xn−1 e−x z m e−mx
Γ(n) m=0
∞ Z
1 X
= z m dx xn−1 e−mx
Γ(n) m=1

1 X zm
Z
= n
du un−1 e−u
Γ(n) m=1 m

Pero la integral que aparece en la última linea anterior no es más que la definición de
la función Γ(n). Esto quiere decir que podemos escribir

X zm
gn (z) = (3.28)
m=1
mn

– 86 –
Vemos ahora que gn (z) es una función de z monotónicamente creciente. Además, en
z = 1, es igual a la función zeta de Riemann,

gn (1) = ζ(n)

Para nuestro problema particular será útil saber que ζ(3/2) ≈ 2.612.

Volvamos ahora a nuestra historia. Conforme disminuye T en (3.26), manteniendo


N/V constante, z y por lo tanto g3/2 (z) deben ambos incrementar. Pero z no puede
tomar valores más altos que 1. Cuando alcanzamos z = 1, denotemos la temperatura
como T = Tc . Podemos determinar Tc al hacer z = 1 en la ecuación (3.26),
2/3
2πℏ2
 
1 N
Tc = (3.29)
kB m ζ(3/2) V
¿Qué sucede si intentamos disminuir la temperatura por debajo de Tc ? Tomada al pie
de la letra, la ecuación (3.26) nos dice que el número de partı́culas deberı́a disminuir.
¡Pero esta es una conclusión tonta! Nos dice que podemos desaparecer partı́culas al
enfriarlas. ¿A dónde fueron? Puede que estemos trabajando en la colectividad√ macro-
canónica, pero en el lı́mite termodinámico esperarı́amos que ∆N ∼ 1/ N , lo cual
es demasiado pequeño para explicar nuestras partı́culas faltantes. ¿Dónde las hemos
puesto equivocadamente? Parece que hemos cometido un error en el cálculo.

De hecho, sı́ cometimos un error en el cálculo. Sucedió justo al comienzo. Recordemos


que antes en la Sección 3.1 reemplazamos la suma sobre los estados con una integral
sobre las energı́as,
X V (2m)3/2 Z
≈ dE E 1/2
4π 2 ℏ3
⃗k


Debido al peso E en el integrando, el estado base con E = 0 no contribuye a la
integral. Podemos usar la distribución de Bose-Einstein (3.17) para calcular el número
de estados que esperarı́amos estén perdidos porque se encuentran en este estado base
con E = 0.
1
n0 = (3.30)
z −1 −1
Para la mayorı́a de los valores de z ∈ (0, 1), hay solo un puñado de partı́culas que se
encuentran en este estado más bajo y no importa si los perdemos. Pero conforme z
se acerca mucho a 1 (queriendo decir que z ≈ 1 − 1/N ) tenemos entonces un número
macroscópico de partı́culas ocupando el estado base.

– 87 –
Es una simple cuestión de rehacer nuestro cálculo tomando en cuenta las partı́culas
en el estado base. La ecuación (3.26) se reemplaza por

V z
N= g3/2 (z) +
λ3 1−z
Ahora no hay problema al mantener N fijo conforme tomamos z cercano a 1 porque el
término adicional diverge. Esto significa que si tenemos un número finito N , entonces
conforme disminuyamos T , nunca podrı́amos llegar a z = 1. En su lugar, z debe
asentarse al rededor de z ≈ 1 − 1/N conforme T → 0.

Para T < Tc , el número de partı́culas asentadas en el estado base es O(N ). Un poco


de álgebra básica nos permite determinar que la fracción de partı́culas en el estado base
es
 3/2
n0 V T
=1− 3
ζ(3/2) = 1 − (3.31)
N Nλ Tc

A temperaturas T < Tc , un número macroscópico de átomos descartan sus identidades


individuales y se mezclan en un colectivo, un solo estado cuántico tan grande que
se puede ver a simple vista. Esto se conoce como el condensado de Bose-Einstein.
Proporciona un campo de juego exquisitamente preciso en donde se pueden probar
muchos fenómenos cuánticos.

Condensados de Bose-Einstein en el Laboratorio


En 1995, se crearon en el laboratorio condensados de
Bose-Einstein (BEC, por sus siglas en inglés) de átomos
con interacciones débiles, unos 70 años después de sus
predicciones. Estos primeros BECs fueron formados
de Rubidio, Sodio o Litio, y se conformaban por entre Figura 18: OVNI = BEC
4 7
N ∼ 10 y 10 átomos. Las temperaturas de transición
necesarias para crear estos condensados son extraordinariamente pequeñas, alrededor
de Tc ∼ 10−7 K. La Figura 19 muestra las gráficas icónicas que revelaron la existencia
del condensado. Para crear estas gráficas, los átomos son almacenados en una trampa
magnética que después se apaga, y una fotografı́a se toma de la nube de átomos después
de un corto tiempo t cuando los átomos viajaron una distancia ℏkt/m. Las manchas
grises que parecen OVNIs son las fotografı́as originales. La distribución de momento
de la nube se infiere desde la dispersión de los átomos y es esto lo que se muestra en
la Figura 19. El máximo que parece en las últimas dos gráficas revela que una canti-
dad substancial de átomos se encontraba efectivamente en el estado base de momento.

– 88 –
(Este no es un estado tal que k = 0 debido a la trampa magnética finita y la relación de
incertidumbre de Heisenberg). Los cientı́ficos que descubrieron los BECs, Eric Cornell
y Carl Wieman de Boulder y Wolfgang Ketterle de MIT, recibieron el premio Nobel de
la fı́sica en 2001.

Figura 19: La distribución de velocidades de átomos de Rubidio, tomada por el Laboratorio


Ketterle en MIT. La figura en la izquierda muestra T > Tc , justo antes de que se formara el
condensado. Las figuras del medio y de la derecha ambas revelan la existencia del condensado.

Ecuación de Estado para un Gas de Bose a Bajas Temperaturas


La presión de un gas ideal de Bose fue calculada en (3.22). Podemos expresar esto en
términos de nuestras nuevas funciones favoritas (3.27) como
2E kB T
p= = 3 g5/2 (z) (3.32)
3V λ
Técnicamente también hay una contribución del estado base, pero esta es log(1 − z)/V ,
que es un factor de N menor que el término de arriba y por lo tanto puede ignorarse.
A bajas temperaturas, T < Tc , tenemos que z ≈ 1 y
kB T
p= ζ(5/2)
λ3
Entonces, a bajas temperaturas, la ecuación de estado para un gas ideal de Bose es muy
diferente del comportamiento clásico del gas a altas temperaturas. La presión crece a
como p ∼ T 5/2 (recordemos que hay un factor de T 3/2 escondido en λ). Lo que es aún
más sorprendente es que la presión es independiente de la densidad de partı́culas N/V .

– 89 –
3.5.4 Capacidad Calorı́fica: Un Primer Vistazo a las Transiciones de Fase
Intentemos comprender a detalle lo que sucede cuando sobrepasamos la temperatura
crı́tica Tc . Nos concentraremos en el comportamiento de la capacidad calorı́fica en cada
lado de la temperatura crı́tica.

Hemos visto en (3.32) que podemos expresar la energı́a en términos de la función


g5/2 (z),
E 3 kB T
= g5/2 (z)
V 2 λ3
de modo que la capacidad calorı́fica es
CV 1 dE 15kB 3 kB T dg5/2 dz
= = 3
g5/2 (z) + (3.33)
V V dT 4λ 2 λ3 dz dT
El primer término da una contribución para ambos casos, T < Tc y T > Tc . Sin
embargo, el segundo término incluye un factor de dz/dT y z es una función de la
temperatura muy peculiar: para T > Tc , es considerablemente suave, decayendo en
T = Tc . Sin embargo, conforme T → Tc , la fugacidad se nivela acercándose rápidamente
al valor z ≈ 1−1/N . El resultado neto de esto es que el segundo término solo contribuye
cuando T > Tc . Nuestra meta aquı́ es entender como esta contribución se comporta
conforme nos acercamos a la temperatura crı́tica.

Comencemos con la parte sencilla. Por debajo de la temperatura crı́tica, T < Tc , solo
el primer término en (3.33) contribuye y podemos poner z = 1. Esto da la capacidad
calorı́fica,
15V kB
CV = ζ(5/2) ∼ T 3/2 (3.34)
4λ3
Ahora vemos el caso T > Tc . Aquı́ tenemos z < 1, ası́ que g5/2 (z) < g5/2 (1). También
tenemos que dz/dT < 0. Esto quiere decir que la capacidad calorı́fica disminuye para
T > Tc . Pero sabemos que para T < Tc , CV ∼ T 3/2 , ası́ que la capacidad calorı́fica
debe de tener un máximo en T = Tc . Nuestra meta en esta sección es entender un poco
mejor cómo se ve la función CV en esta región.

Para calcular el segundo término en (3.33) necesitamos entender ambos g5/2 y como
z cambia con T conforme nos acercamos a Tc desde arriba. El primer cálculo es fácil si
usamos nuestra expresión (3.28),

X zm d 1
gn (z) = ⇒ gn (z) = gn−1 (z) (3.35)
m=1
mn dz z

– 90 –
Conforme T → Tc desde arriba, dg5/2 /dT → ζ(3/2), una constante. Todas las sutilezas
yacen en el término restante, dz/dT . Después de todo, esta es la cantidad que efecti-
vamente se desvanece para T < Tc . ¿Qué hace en T > Tc ? Para entender esto es un
poco más complicado. Comenzamos con nuestra expresión (3.26),
N λ3
g3/2 (z) = T > Tc (3.36)
V
y preguntaremos lo que le sucede a la función g3/2 (z) conforme z → 1, manteniendo
N constante. Sabemos que exactamente en z = 1, g3/2 (1) = ζ(3/2). Pero, ¿cómo
se aproxima a este valor? Para responder esto, es de hecho más sencillo analizar la
derivada dg3/2 /dz = g1/2 /z, donde
Z ∞
1 x−1/2
g1/2 (z) = dx −1 x
Γ(1/2) 0 z e −1
La razón para hacer esto es que g1/2 diverge conforme z → 1 y es generalmente más
fácil aislar las partes divergentes de una función que un fragmento finito. En efecto,
podemos hacer esto de manera directa para g1/2 al observar la integral cercana a x = 0,
podemos escribir
Z ϵ
1 x−1/2
g1/2 (z) = dx −1 + finito
Γ(1/2) 0 z (1 + x) − 1
Z ϵ
z x−1/2
= dx + ...
Γ(1/2) 0 (1 − z) + x
Z ϵ
2z 1 1
= √ du + ...
1 − z Γ(1/2) 0 1 + u2
p
donde, en la última lı́nea, hicimos una sustitución u = x/(1 − z). Ası́ aprendemos
que conforme z → 1, g1/2 (z) → z(1 − z)−1/2 . Pero esta es suficiente información para
decirnos como g3/2 se aproxima a su valor en z = 1: debe ser que
g3/2 (z) ≈ ζ(3/2) + A(1 − z)1/2 + . . .
para alguna constante A. Insertando esto en nuestra ecuación (3.36) y reordenando,
encontramos que conforme T → Tc desde arriba,
2
N λ3

1
z ≈ 1 − 2 ζ(3/2) −
A V
 3/2 !2
ζ(3/2)2 T
= 1− −1
A2 Tc
 2
T − Tc
≈ 1−B
Tc

– 91 –
donde, en la segunda lı́nea, hemos usado la expresión para la temperatura crı́tica (3.29).
B es alguna constante que podrı́amos encontrar con un poco más de esfuerzo, pero
no será importante para nuestra historia. De la expresión anterior, ahora podemos
determinar dz/dT conforme T → Tc . Vemos que se desvanece linealmente en T = Tc .

Poniendo todo esto junto, podemos determinar la expresión para la capacidad calorı́fica
(3.33) cuando T > Tc . No estamos interesados en los coeficientes, ası́ que empaque-
taremos un montón de números de orden 1 en una constante b y el resultado final
es
 
15V kB T − Tc
CV = g5/2 (z) − b
4λ3 Tc

El primer término arriba pasa suavemente so-


CV
bre la expresión (3.34) para CV cuando T <
Tc . Pero el segundo término solo está pre-
sente para T > Tc . Notemos que se va a cero 3NkB/2
conforme T → Tc , lo cual nos garantiza que la
capacidad calorı́fica es continua en este punto. T

Pero la derivada no es continua. Un esbozo de TC


la capacidad calorı́fica se muestra en la figura.
Figura 20: Capacidad calorı́fica de un
En fı́sica las funciones son usualmente boni- BEC
tas y suaves. ¿Cómo terminamos con una dis-
continuidad en la derivada? De hecho, si trabajamos con N finita, todo es estrictamente
hablando, bonito y suave. Hay una contribución similar a dz/dT incluso en T < Tc .
Podemos verlo simplemente observando nuevamente las expresiones (3.30) y (3.31), lo
cual nos dice

 −1  −1
1 1 1
z= 1+ = 1+ (T < Tc )
n0 N 1 − (T /Tc )3/2

La diferencia es que mientras dz/dT es de orden uno por arriba de Tc , resulta ser de
orden 1/N por debajo de Tc . En el lı́mite termodinámico, N → ∞, esto resulta en
la discontinuidad que vimos arriba. Esto es una lección general: las transiciones de
fase con sus discontinuidades asociadas solo pueden surgir en sistemas estrictamente
infinitos. No hay transiciones de fase en sistemas finitos.

– 92 –
Superfluido de Helio-4
Una discontinuidad similar pero mucho más pro-
nunciada se ve en el Helio-4 cuando se vuelve un
superfluido, una transición que ocurre en 2.17 K.
El átomo contiene dos protones, dos neutrones
y dos electrones y es por lo tanto un bosón. (En
contraste, el Helio-3 contiene solo un neutrón y
es un fermión). Los datos experimentales para
la capacidad calorı́fica del Helio-4 se muestran a
la derecha. Las gráficas sucesivas tienen un ac-
ercamiento en la escala en la transición de fase: Figura 21: 4 He.
las escales son (de izquierda a derecha) Kelvin,
miliKelvin y microKelvin. La discontinuidad es a veces llamada la transición lambda
debido a la forma de la gráfica.

Hay una conexión cercana entre el condensado de Bose-Einstein descrito anterior-


mente y los superfluidos: estrictamente hablando, un condensado de Bose-Einstein que
no interactúa no es un superfluido, pero la superfluidez es una consecuencia de inter-
acciones repulsivas arbitrariamente débiles entre los átomos. Sin embargo, en He-4, las
interacciones entre los átomos son fuertes y el sistema no puede ser descrito utilizando
las técnicas simples que se desarrollaron arriba.

Algo muy similar a la condensación de Bose también ocurre en la superconductividad


y superfluidez del Helio-3. Ahora los personajes principales son los fermiones en lugar
de los bosones (electrones en el caso de superconductividad). Como veremos en la
siguiente sección, los fermiones no se pueden condensar. Pero pueden formar estados
acotados debido a sus interacciones y estos, ahora bosones efectivos, pueden sufrir una
condensación.

3.6 Fermiones
Para nuestro último tema, hablaremos sobre los gases de fermiones. Nuestro análisis
se concentrará solamente en fermiones sin interacciones. Aún ası́ este modelo propor-
ciona una aproximación sorprendentemente buena para un amplio rango de sistemas,
incluyendo electrones en metales a bajas temperaturas, Helio-3 lı́quido, enanas blancas
y estrellas de neutrones.

Los fermiones son partı́culas con espı́n 12 -entero. Por el teorema de la estadı́stica del
espı́n, se requiere que la función de onda del sistema adquiera un signo menos bajo el

– 93 –
intercambio de cualquier partı́cula,

ψ(⃗r1 , ⃗r2 ) = −ψ(⃗r2 , ⃗r1 )

Como un corolario, la función de onda desaparece si se intenta colocar dos fermiones


idénticos en el mismo lugar. Esta es una reflexión del principio de exclusión de Pauli,
que mantiene que los fermiones no pueden existir en el mismo estado. Veremos que
la fı́sica de un gas de fermiones a bajas energı́as es completamente dominada por el
principio de exclusión.

Trabajaremos nuevamente en el colectivo macrocanónico. La función de partición


macrocanónica para un estado |r⟩ es muy sencilla: el estado puede estar o no estar
ocupado. No hay ninguna otra opción.
X
Zr = e−βn(Er −µ) = 1 + e−β(Er −µ)
n=0,1
Q
Entonces, la función de partición macrocanónica para todos los estados es Z = r Zr ,
de donde podemos calcular el número promedio de partı́culas en el sistema
X 1 X
N= ≡ nr
r
eβ(Er −µ) + 1 r

donde el número promedio de partı́culas en el estado |r⟩ es


1
nr = (3.37)
eβ(Er −µ) +1
Esta es la distribución de Fermi-Dirac. Difiere con la distribución de Bose-Einstein por
un signo en el denominador. Sin embargo, nótese que no hay problemas de convergencia
al definir la función de partición. Correspondientemente, el potencial quı́mico µ para
fermiones puede ser tanto positivo como negativo.

3.6.1 Gas de Fermi Ideal


Nos concentraremos de nuevo en partı́culas no relativistas, sin interacciones y con
E = ℏ2 k 2 /2m. Dado que los fermiones necesariamente tienen espı́n 21 -entero, s, siempre
hay un factor de degeneración al contar los números de estados. Este se da por

gs = 2s + 1

Por ejemplo, los electrones tienen espı́n 21 y por lo tanto tienen una degeneración de
gs = 2, la cual precisamente corresponde a los estados de “espı́n arriba” y “espı́n abajo”.

– 94 –
Vimos factores de degeneración similares al calcular la densidad de estados para fotones
(los cuales tienen dos polarizaciones) y fonones (los cuales tienen tres). Para fermiones
no relativistas, la densidad de estados es
 3/2
gs V 2m
g(E) = E 1/2
4π 2 ℏ2

Nuevamente usaremos la notación para fugacidad, z = eβµ . El número de partı́culas es


Z
g(E)
N = dE −1 βE (3.38)
z e +1

La energı́a promedio es
Z
Eg(E)
E= dE
z −1 eβE
+1

Y la presión es
Z
1  2
pV = dE g(E) log 1 + ze−βE = E (3.39)
β 3

A altas temperaturas, es fácil repetir los pasos de la Sección 3.5.2. (Esta es una de
las preguntas en la hoja de problemas). Solamente unos cuantos signos cambian en el
procedimiento y se encuentra nuevamente que para z ≪ 1, nuestra ecuación de estado
se reduce a la de un gas clásico,

λ3 N
 
pV = N kB T 1 + √ + ... (3.40)
4 2gs V

Nótese que el signo negativo se filtra hasta la respuesta final: la primera corrección
cuántica a un gas de Fermi le incrementa la presión.

3.6.2 Gas Degenerado de Fermi y la Superficie de Fermi


En el lı́mite extremo T → 0, la distribución de Fermi-Dirac se vuelve muy simple: un
estado está o lleno o vacı́o,
(
1 1 para E < µ
β(E−µ)
−→
e +1 0 para E > µ

Es fácil saber lo que está sucediendo. Cada fermión que hemos agregado al sistema se
acomoda en el estado de menor energı́a disponible. Estos se van llenando hasta que nos

– 95 –
quedamos sin partı́culas. La energı́a del último estado lleno se llama energı́a de Fermi
y se denota como EF . Matemáticamente, es el valor del potencial quı́mico en T = 0,

µ(T = 0) = EF (3.41)

El llenar los estados de energı́a con fermiones es como aventar bolas a una caja, con
una excepción: los estados energéticos de las partı́culas libres no se localizan en el
espacio de posiciones; se localizan en el espacio de momentos. Esto significa que los
fermiones sucesivos se van acomodando en estados con cada vez más momento. De
esta manera, los fermiones llenan una bola en el espacio de momentos. Al momento del
último fermión se le llama momento de Fermi y se relaciona con la energı́a de Fermi
en la forma usual: ℏkF = (2mEF )1/2 . Todo estado con vector de onda |⃗k| ≤ kF están
llenos y se dice que forman el mar de Fermi o esfera de Fermi. Aquellos estados con
|⃗k| = kF existen en el borde del mar de Fermi, se dice que forman la superficie de
Fermi. El concepto de una superficie de Fermi es muy importante en aplicaciones para
la fı́sica de la materia condensada.

Podemos llegar a una expresión para la energı́a de Fermi en términos del número de
partı́culas N en un sistema. Para esto, debemos admitir que hemos abusado ligeramente
de la notación al escribir (3.41). En la colectividad macrocanónica, T y µ son variables
independientes: ¡no son funciones una de la otra! Lo que esa ecuación realmente
significa es que si queremos mantener fijo el número promedio de partı́culas N en el
sistema (lo cual efectivamente queremos), entonces a como variemos T , debemos variar
µ para compensar. Debido a esto, una manera un poco más clara para definir la energı́a
de Fermi es escribiéndola directamente en términos del número de partı́culas
Z EF  3/2
gs V 2m 3/2
N= dE g(E) = EF (3.42)
0 6π 2 ℏ2

O, invirtiendo términos,
2/3
ℏ2 6π 2 N

EF = (3.43)
2m gs V

La energı́a de Fermi define la escala energética para el sistema. Hay una escala de
temperatura equivalente, TF = EF /kB . La expansión en altas temperaturas que resultó
en la ecuación de estado (3.40) es válida a temperaturas T > TF . Por otra parte, a las
temperaturas T < TF se les considera “bajas” temperaturas para sistemas de fermiones.
Normalmente, estas bajas temperaturas no tienen por qué ser tan bajas: para electrones
en un metal, TF ∼ 104 K; para electrones en una enana blanca, TF > 107 K.

– 96 –
Mientras que EF es la energı́a ocupada por el último estado, la energı́a promedio del
sistema puede ser calculada fácilmente. Es
Z EF
3
E= dE Eg(E) = N EF (3.44)
0 5

De manera similar, la presión del gas degenerado de Fermi puede calcularse utilizando
(3.39),

2
pV = N EF (3.45)
5
Incluso a temperatura cero, el gas tiene presión distinta de cero, a la que se le conoce

n(E)
T=0 T << E F
1

E
EF

Figura 22: La función de la distribución de Fermi-Dirac a T = 0 y a una T muy pequeña.


La distribución difiere del estado base en T = 0 solamente para cierto rango de energı́as kB T
alrededor de EF .

como presión de degeneración. Es una consecuencia del principio de exclusión de Pauli


y es importante en la astrofı́sica de enanas blancas y estrellas de neutrones. (Describire-
mos esta aplicación en la Sección 3.6.5). La existencia de esta presión residual cuando
T = 0 va en gran contraste con ambos el gas ideal clásico (para el cual esto no es válido
a temperatura cero) y el gas bosónico cuántico.

3.6.3 El Gas de Fermi a Bajas Temperaturas


A continuación nos concentraremos en el comportamiento del gas de Fermi a bajas
temperaturas. Como fue mencionado anteriormente, “bajo” significa T ≪ TF , que no
se requiere que sea bajo en términos de nuestra vida diaria. El número de partı́culas
N y la energı́a promedio E se dan por
Z ∞
g(E)
N= dE −1 βE (3.46)
0 z e +1

– 97 –
y
Z ∞
Eg(E)
E= dE (3.47)
0 z −1 eβE
+1
donde, para fermiones no relativistas, la densidad de estados es
 3/2
gs V 2m
g(E) = 2 2
E 1/2
4π ℏ
Nuestra meta es primero entender como el potencial quı́mico µ, o de manera equivalente,
la fugacidad z = eβµ , cambia con la temperatura cuando N se mantiene fijo. Desde
esto podemos determinar como E cambia con la temperatura al mantener N fijo.

Hay dos maneras de hacer eso. La primera es directamente hacer una expansión
de Taylor para expresar (3.46) y (3.47) con un pequeño T . Sin embargo, esto resulta
ser un poco delicado dado que el lugar de donde empezamos, en T = 0, involucra la
distribución que se muestra en la parte izquierda de la Figura 22 y es fácil que los
fı́sicos se pierdan entre tantas integrales. Es por esto que comenzaremos desarrollando
una comprensión heurı́stica de cómo las integrales (3.46) y (3.47) se comportan a bajas
temperaturas, lo cual será suficiente para derivar los resultados deseados. Después
haremos la expansión más rigurosa – a veces llamada la expansión de Sommerfeld – y
confirmaremos que nuestra derivación más simple es correcta.

La distribución de Fermi-Dirac (3.37) a bajas temperaturas se muestra en un bosquejo


a la derecha de la Figura 22. El punto es que solo estados con energı́as a diferencias
menores que kB T desde la superficie de Fermi son afectados por la temperatura. Insis-
tiremos que a como variemos la temperatura, el número de partı́culas se queda fijo, lo
que implicarı́a que dN/dT = 0. Yo mantengo que si esto se da, hasta cierto grado, el
potencial quı́mico es independiente de la temperatura, entonces

=0 (3.48)
dT T =0

Veamos por qué este es el caso. El cambio en el número de partı́culas puede expresarse
como
Z ∞
dN d g(E)
= dE β(E−µ)
dT dT e +1
Z ∞ 0  
d 1
= dE g(E)
0 dT eβ(E−µ) + 1
Z ∞  
∂ 1
≈ g(EF ) dE
0 ∂T eβ(E−EF ) + 1

– 98 –
Hay dos cosas que sucedieron en el paso de la segunda lı́nea a la tercera. Primero,
estamos utilizando el hecho de que, para kB T ≪ EF , la distribución de Fermi-Dirac so-
lamente cambia significativamente en la vecindad de EF como muestra el lado derecho
de la Figura 22. Esto significa que la integral de en medo de la ecuación de arriba sola-
mente recibe contribuciones en la vecindad de EF y hemos usado esto para aproximar
la densidad de estados g(EF ). Segundo, utilizamos nuestro resultado (3.48) para reem-
plazar la derivada total d/dT (que actúa sobre el potencial quı́mico) con la derivada
parcial ∂/∂T (que no toca a µ) y el potencial es entonces reemplazado con su valor a
temperatura cero EF .

Derivando explı́citamente la distribución de Fermi-Dirac en la última lı́nea, tenemos


Z ∞  
dN E − EF 1
≈ g(EF ) dE 2 2 ≈0
dT 0 kB T 4 cosh (β(E − EF )/2)

Esta integral desaparece ya que (E − EF ) es impar alrededor de EF mientras que la


función cosh es par. (Como se mencionó anteriormente, la integral solo recibe contribu-
ciones en la vecindad de EF ).

A continuación calcularemos el cambio en la energı́a con temperatura. Esto, clara-


mente, es la capacidad calorı́fica. Aplicando las mismas aproximaciones de arriba,
podemos escribir
Z ∞  
∂E ∂ 1
CV = = dE Eg(E)
∂T N,V 0 ∂T eβ(E−µ) + 1
Z ∞    
3 ∂ 1
≈ dE EF g(EF ) + g(EF )(E − Ef )
0 2 ∂T eβ(E−EF ) + 1

Pero esta vez no reemplazamos simplemente Eg(E) por EF g(EF ), sino que hicimos
una expansión de Taylor para incluir un término lineal en (E − EF ). (El factor de 3/2
surge ya que Eg(E) ∼ E 3/2 ). El primer término EF g(EF ) en corchetes desaparece por
el mismo argumento sobre términos pares e impares que hicimos anteriormente, pero
el término (E − EF ) sobrevive

Escribiendo x = β(E − EF ), la integral se convierte en



x2
Z
3
CV ≈ g(EF )T dx
2 −∞ 4 cosh2 (x/2)

en la que hemos extendido el rango de la integral de −∞ a +∞ con seguridad dado


nuestro conocimiento de que solamente la región cercana a EF (o x = 0) contribuye.

– 99 –
Más importante es el hecho de que esta integral solo devuelve un coeficiente en el cual
no nos estaremos concentrando. El resultado final para la capacidad calorı́fica es
CV ∼ T g(EF )
Hay una forma simple de entender intuitivamente este comportamiento lineal. A tem-
peraturas bajas, solo los fermiones con energı́a cercana a EF por kB T , son los que par-
ticipan en la fı́sica. El número de estas partı́culas es ∼ g(EF )kB T . Si cada una tiene
una energı́a ∼ kB T , entonces la energı́a total del sistema crece como E ∼ g(EF )(kB T )2 ,
lo que resulta en la capacidad calorı́fica lineal que encontramos arriba.

Finalmente, la capacidad calorı́fica es comúnmente expresada de manera distinta.


3/2
Utilizando (3.42), sabremos que N ∼ EF , lo que nos permite escribir
 
T
CV ∼ N k B (3.49)
TF
Capacidad Calorı́fica de los Metales
Una aplicación muy importante de la teorı́a anterior es en los metales. Podemos intentar
ver a los electrones de conducción — aquellos que son libres de moverse a través de la
red de enrejado — como un gas ideal. A primera vista, esto suena que es poco probable
que funcione. Esto es porque estamos ignorando la interacción de Coulomb entre los
electrones. Sin embargo, la aproximación del gas ideal para electrones resulta funcionar
bastante bien.

De lo que hemos aprendido en esta sección, esperarı́amos tener dos contribuciones


de la capacidad calorı́fica de un metal. Las vibraciones de la red dan una contribución
de fonones que va como T 3 (véase la ecuación (3.13)). Si los electrones de conducción
actúan como un gas ideal, deberı́an de tener un término lineal. La capacidad calorı́fica
a bajas temperaturas puede ser escrita entonces,
CV = γT + αT 3
Usualmente se grafican datos experimentales como CV /T contra T 2 ya que esto resulta
en una lı́nea recta satisfactoria. La intersección con el eje CV nos dice la contribución
electrónica. La capacidad calorı́fica para el cobre se muestra en la figura.

Podemos hacernos una idea de cuando la contribución de fonones y electrones a la


capacidad calorı́fica son comparables. Igualando (3.14) y (3.56), y escribiendo 24π 2 /5 ≈
50, tenemos que las dos contribuciones son iguales cuando T 2 ∼ TD3 /50TF . Las cifras
aproximadas suelen ser TD ∼ 102 K y TF ∼ 104 K, lo cual nos dice que tenemos que
bajar a temperaturas al rededor de 1K para ver la contribución electrónica.

– 100 –
Para muchos metales, el coeficiente γ de la ca-
pacidad calorı́fica lineal es lo suficientemente cercano
al valor del gas ideal (dentro de, digamos, 20% o ası́).
Aún ası́ los electrones en un metal están muy lejos de
ser libres: la energı́a de Coulomb de sus interacciones
es al menos tan importante como la energı́a cinética.
Ası́ que ¿por qué la aproximación del gas ideal funciona
tan bien? Esto fue explicado en los 1950s por Landau
y la teorı́a resultante — usualmente llamada teorı́a de Figura 23: La capacidad
lı́quidos de Fermi de Landau — es la base de nuestra calorı́fica del cobre (tomado de
comprensión actual de los sistemas de electrones. A. Tari “The Specific Heat of
Matter at Low Temperatures”)
3.6.4 Un Tratamiento Más Riguroso: La Ex-
pansión de Sommerfeld
A pesar de que la discusión de la Sección 3.6.3 usa algunas aproximaciones, enfatiza la
fı́sica del gas de Fermi a bajas temperaturas. Por completitud, aquı́ presentamos una
derivación más rigurosa de la expansión a bajas temperaturas.

Para comenzar, introducimos una nueva notación para el número de partı́culas y las
integrales de energı́a, (3.46) y (3.47). Escribimos,
3/2 Z ∞
E 1/2

N gs 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE + 1
gs
= 3 f3/2 (z) (3.50)
λ
y
3/2 Z ∞
E 3/2

E gs 2m
= dE
V 4π 2 ℏ2 0 z −1 eβE + 1
3 gs
= kB T f5/2 (z) (3.51)
2 λ3
p
donde λ = 2πℏ2 /mkB T es la longitud de onda termal familiar y las funciones fn (z)
son los análogos fermiónicos de gn definidos en (3.27),
Z ∞
1 xn−1
fn (z) = dx −1 x (3.52)
Γ(n) 0 z e +1
√ √
donde es útil recordar Γ(3/2) = π/2 y Γ(5/2) = 3 π/4 (lo cual sigue, por supuesto,
de la propiedad Γ(n + 1) = nΓ(n)). Esta función es un ejemplo de un polilogaritmo y
en ocasiones se escribe como Lin (−z) = −fn (z).

– 101 –
Expendiendo fn (z)
Ahora derivaremos la expansión z larga de fn (z), en ocasiones llamada la expansión de
Sommerfeld. La derivación es un poco larga. Comenzamos por dividir la integral dx
en dos partes,
βµ Z ∞
xn−1 xn−1
Z
Γ(n)fn (z) = dx −1 x + dx −1 x
0 z e +1 βµ z e +1
Z βµ  Z ∞
xn−1

1
= dx xn−1 1 − + dx
0 1 + ze−x βµ z −1 ex + 1
Z βµ Z ∞
(log z)n xn−1 xn−1
= − dx + dx
n 0 1 + ze−x βµ z −1 ex + 1

Ahora hacemos el simple cambio de variable η1 = βµ − x para la primera integral y


η2 = x − βµ para la segunda,
βµ ∞
(log z)n (βµ − η1 )n−1 (βµ + η2 )n−1
Z Z
Γ(n)fn (z) = − dη1 + dη2
n 0 1 + eη1 0 1 + eη2

Hasta ahora solo hemos moldeado la integral a una forma útil. Ahora hacemos uso
de la aproximación βµ ≫ 1. Primeramente, notamos que la primera integral tiene
una supresión eη1 en el denominador. Si reemplazamos el lı́mite superior de la integral
por ∞, la expresión cambia en un término de orden e−βµ = z −1 que es un término
que estamos dispuestos a ignorar. Con esta aproximación, podemos combinar las dos
integrales en una,

(log z)n (βµ + η)n−1 − (βµ − η)n−1
Z
Γ(n)fn (z) = + dη
n 0 1 + eη

Ahora hacemos una expansión de Taylor en el numerador

(βµ + η)n−1 − (βµ − η)n−1 = (βµ)n−1 (1 + η/βµ)n−1 − (1 − η/βµ)n−1


 
 
n−1 η η
= (βµ) 1 + (n − 1) + . . . − 1 + (n − 1) + ...
βµ βµ
= 2(n − 1)(βµ)n−2 η + . . .

De lo cual obtenemos

(log z)n
Z
η
Γ(n)fn (z) = + 2(n − 1)(log z)n−2 dη
n 0 eη +1

– 102 –
Nos queda una integral un poco más simple,
Z ∞ Z ∞
η ηe−η
dη η = dη
0 e +1 0 1 + e−η
Z ∞ X∞
= dη η e−mη (−1)m+1
0 m=1

(−1)m+1 ∞
X Z
= 2
du ue−u
m=1
m 0
R∞
La integral en la última lı́nea es muy simple: 0 du ue−u = 1. Solo tenemos que hacer
la suma. Hay diferentes formas de manipular esto. Escogemos escribir,
   
1 1 1 1 1 1 1 1 1
1 − 2 + 2 − 2 ... = 1 + 2 + 2 + 2 + ... − 2 2 + 2 + 2 + ...
2 3 4 2 3 4 2 4 6
   
2 1 1
= 1 − 2 · 1 + 2 + 2 + ... (3.53)
2 2 3

1/m2 = ζ(2) = π 2 /6. (La demostración


P
Esta última suma es bastante conocida. Es
original de esto, por Euler, procede de expandir en Taylor a sin x/x, escribiendo la
suma resultante como un producto de raı́ces para después igualar el término a x2 ).

Después de todo este procedimiento, finalmente tenemos el resultado que queremos.


La expansión de fn (z) a bajas temperaturas es una expansión en 1/ log z = 1/βµ,

(log z)n π 2 n(n − 1)


 
fn (z) = 1+ + ... (3.54)
Γ(n + 1) 6 (log z)2
Volviendo a la Fı́sica: Capacidad Calorı́fica de un Gas de Fermi de Nuevo
La expansión (3.54) es todo lo que necesitamos para determinar los efectos principales
de la temperatura en el gas de Fermi. El número de partı́culas (3.50) se puede expresar
en términos del potencial quı́mico como
2 !
2

N gs π kB T
= 2 3 (2mµ)3/2 1 + + ... (3.55)
V 6π ℏ 8 µ

Pero el número de partı́culas N determina la energı́a de Fermi a través de (3.43). Por


lo tanto, para un N fijo, podemos expresar el potencial quı́mico a temperaturas finitas
en términos de la energı́a de Fermi. Después de un poco de álgebra, encontramos
2 !
2

π kB T
µ = EF 1 − + ...
12 EF

– 103 –
Vemos que el potencial quı́mico es un máximo en T = 0 y disminuye a como crece T .
Esto es lo que se esperaba: recordemos que para cuando lleguemos al gas clásico, el
potencial quı́mico debe de ser negativo. Además, notemos que la corrección de orden
principal es cuadrática en temperatura en lugar de ser lineal, que concuerda con nuestra
declaración anterior (3.48).

La densidad de energı́a se puede calcular desde (3.51) y (3.54). Es


2 !
2

E gs 5π kB T
= (2m)3/2 µ5/2 1 + + ...
V 10π 2 ℏ3 8 µ

Nuestro verdadero interés es en la capacidad calorı́fica. Sin embargo, con el número de


partı́culas N fijo, el potencial quı́mico también varı́a con la temperatura en el orden
cuadrático. Podemos resolver este problema al dividir entre (3.55) para obtener
2 !
2

E 3EF 5π kB T
= 1+ + ...
N 5 12 EF

Ahora lo único que depende de la temperatura en el lado derecho es T misma. De esto


aprendemos que la capacidad calorı́fica de un gas de Fermi a bajas temperaturas es
lineal en T ,
∂E π2 T
CV = = N kB (3.56)
∂T N,V 2 TF
Pero ahora tenemos el coeficiente correcto que completa nuestro resultado anterior
(3.49).

3.6.5 Enanas Blancas y el Lı́mite de Chandrasekhar


Cuando las estrellas agotas su combustible, sucede que T → 0, y estas ahora dependen
de la presión degenerativa (3.45) del principio de exclusión de Pauli para mantenerse a
sı́ mismas estables. Tales estrellas soportadas por la presión degenerativa de electrones
se llaman enanas blancas. Además de la energı́a cinética Ecinética de los fermiones dados
en (3.43) el sistema tiene energı́a gravitacional. Si encima de esto hacemos la suposición
de que la densidad de una estrella de radio R es uniforme, entonces
3 GN M 2
Egrav = −
5 R
donde GN es la constante de Newton. En el problemario, se debe minimizar Egrav +
Ecinética para encontrar la relación entre el radio y la masa de la estrella,

R ∼ M −1/3

– 104 –
Esto es inusual. Normalmente si uno apila cosas, la pila se hace más grande. Esto no
se da para estrellas mantenidas por presión degenerativa. La atracción gravitacional
incrementada gana y causa que se encojan.

Conforme la estrella se encoje, la energı́a de Fermi (3.43) crece. Eventualmente se


vuelve comparable con la masa del electrón me y nuestra aproximación no-relativista
se rompe. Podemos rehacer nuestros cálculos usando la fórmula relativista para los
estados de densidad (3.4) (que necesitan multiplicarse por un factor de 2 para explicar
la degeneración del espı́n). En el régimen opuesto de electrones ultra-relativistas, donde
E ≫ me , podemos expandir la densidad de estados como
m 2 c4
 
V 2
g(E) = 2 3 3 E − + ...
π ℏc 2
de donde podemos determinar la energı́a cinética debido a los fermiones, reemplazando
el resultado no-relativista (3.44) por
1 4 m2 c4 2
 
V
Ecinética = 2 3 3 E − EF + . . .
π ℏc 4 F 4
La energı́a de Fermi puede ser expresada en términos del número de partı́culas de la
forma
1 3 m2 c4
 
V
N= 2 3 3 E − EF + . . .
π ℏc 3 F 2
La energı́a total del sistema se da por
" 1/3 #
3ℏc 9πM 4

3 2 1
Egrav + EF = − GN M + O(R)
4 4m4p 5 R
donde mp es la masa del protón (y estamos tomando M = N mp como una buena
aproximación a la masa completa de la estrella). Si el término anterior es positivo
entonces la estrella se asienta nuevamente en un estado de mı́nima energı́a, donde el
término 1/R balancea al término que crece linealmente con R. Pero si el término 1/R
es negativo, tenemos un problema: la estrella es inestable ante el colapso gravitacional
y se encogerá a valores más y más pequeños de R. Esto ocurre cuando la masa excede
el lı́mite de Chandrasekhar, M > MC . Ignorando factores de 2 y de π, este lı́mite es
 3/2
ℏc 1
MC ∼ (3.57)
GN m2p
Esto es aproximadamente 1.5 veces la masa del Sol. Estrellas que exceden este lı́mite
no terminarán su vida como enanas blancas. Su colapso finalmente se detendrá por la
presión degenerativa de los neutrones para formar una estrella de neutrones. O bien
puede que no se detenga en lo absoluto y en dado caso se forma un agujero negro.

– 105 –
El término entre paréntesis en (3.57) es una mezcla interesante de constantes funda-
mentales asociadas con la teorı́a cuántica, relatividad y gravedad. En esta combinación,
se define la escala de masa llamada la masa de Planck,

ℏc
Mpl2 =
GN

Cuando las densidades de energı́a alcanzan la escala de Planck, los efectos de gravedad
cuántica son importantes, lo que significa que debemos pensar en la cuantización del
espacio-tiempo mismo. No hemos alcanzado este lı́mite en las enanas blancas. (Nos
quedamos cortos por 25 órdenes de magnitud más o menos). Sin embargo, la presencia
de la escala de Planck en el lı́mite de Chandrasekhar nos dice que ambos los efectos
cuánticos y gravitacionales se necesitan para entender las enanas blancas: la materia
es cuántica; la gravedad es clásica.

3.6.6 Paramagnetismo de Pauli


“Con mucha pena he decidido que la estadı́stica de Fermi-Dirac, y no la de
Einstein, es la correcta, y he optado por escribir una pequeña nota sobre
paramagnetismo”

Wolfgang Pauli admitiendo con reluctancia que los electrones son fermiones
en una carta hacia Schrödinger.

Ahora describiremos un gas de electrones en campo magnético B ⃗ de fondo. En


este caso hay dos efectos importantes: la fuerza de Lorentz ⃗v × B en los electrones en
movimiento, y el acoplamiento del espı́n del electrón con el campo magnético. Primero
nos concentraremos en el acoplamiento del espı́n y pospondremos la fuerza de Lorentz
para la siguiente sección.

Un electrón puede tener uno de dos estados de espı́n “arriba” o “abajo”. Denotaremos
el estado de espı́n con una categorización discreta: s = 1 para espı́n arriba y s = −1
para espı́n abajo. Con un campo magnético B ⃗ de fondo, a la energı́a cinética se le
agrega un término extra

Eespı́n = µB Bs (3.58)

donde µB = |e|ℏ/2m es el magnetón de Bohr. (No tiene nada que ver con el potencial
quı́mico, ¡no hay que confundirlos!).

– 106 –
Ya que los electrones de espı́n arriba y abajo tienen diferentes energı́as, sus números
de ocupación cambian. La ecuación (3.50) es reemplazada por
3/2 Z ∞
E 1/2

N↑ 1 2m 1
= 2 2
dE β(E+µ B−µ)
= 3 f3/2 (ze−βµB B )
V 4π ℏ 0 e B +1 λ
3/2 Z ∞
E 1/2

N↓ 1 2m 1
= 2 2
dE β(E−µ B−µ)
= 3 f3/2 (ze+βµB B )
V 4π ℏ 0 e B +1 λ
Lo que nos interesa es calcular la magnetización, la cual es una medición de cómo la
energı́a del sistema corresponde a un campo magnético,
∂E
M =− (3.59)
∂B
Dado que cada espı́n tiene energı́a (3.58), la magnetización es simplemente la diferencia
en el número de espines arriba y abajo,
µB V 
M = −µB (N↑ − N↓ ) = − 3 f3/2 (ze−βµB B ) − f3/2 (zeβµB B )

λ
Para altas temperaturas y campos magnéticos suficientemente débiles, podemos aprox-
imar f3/2 (z) ≈ z como z → 0, tal que
2µB V z
M≈ sinh(βµB B)
λ3
Podemos eliminar el factor de z a favor del número de partı́culas,
2V z
N = N↑ + N↓ ≈ cosh(βµB B)
λ3
Y de aquı́ podemos determinar la magnetización para altas temperaturas,
M ≈ µB N tanh(βµB B)
Este es el mismo resultado que se calcula en el primer problemario utilizando el mod-
elo simple de dos estados. Vemos, de nuevo, que a altas temperaturas la estadı́stica
cuántica es irrelevante. La susceptibilidad magnética es una edición de qué tan fácil es
magnetizar una sustancia. Se define como
∂M
χ≡ (3.60)
∂B
Evaluando χ en el lı́mite de un campo magnético decreciente, encontramos que la
magnetización es inversamente proporcional a la temperatura,
N µ2B
χ(B = 0) =
kB T
A este comportamiento de 1/T , se le conoce como la ley de Curie. (Por Pierre, no por
Marie)

– 107 –
Los resultados anteriores se mantienen en el lı́mite de alta temperatura. Por otra
parte, a bajas temperaturas, los efectos de la superficie de Fermi se vuelven importantes.
Necesitamos solamente mantener el término de mayor orden en (3.54) para encontrar
3/2 3/2
µ2 V
 
µB V 2m 2m 1/2
3/2 3/2
≈ B2
 
M≈ (EF + µB B) − (EF − µB B) EF B
6π 2 ℏ2 2π ℏ2

donde hemos escrito el resultado final en el lı́mite µB B ≪ EF y hemos expandido al


orden lineal en B. Sin embargo, podemos enfatizar la fı́sica relevante un poco mejor
si expresamos el resultado de arriba en términos de la densidad de estados (3.19).
Incluyendo el factor de 2 para la degeneración del espı́n, tenemos

M ≈ µ2B g(EF )B (3.61)

Vemos que en bajas temperaturas, la susceptibilidad magnética ya no obedece la ley


de Curie, pero llega a una constante
∂M
χ≡ = µ2B g(EF )
∂B
Lo que sucede aquı́ es que la mayorı́a de los electrones se encuentran profundamente
adentro de la superficie de Fermi y la exclusión de Pauli les prohı́be cambiar sus espines
en respuesta al campo magnético. Solamente aquellos electrones que están en la misma
superficie de Fermi — dados en cantidad de g(EF ) — tienen el lujo de ahorrar energı́a
alineando sus espines con el campo magnético.

Nótese que χ > 0. A los materiales que cumplen esto se les dice paramagnéticos:
en la presencia de un campo magnético, el magnetismo incrementa. Los materiales
paramagnéticos son atraı́dos a campos magnéticos aplicados. A efecto descrito arriba
se le conoce como paramagnetismo de Pauli.

3.6.7 Diamagnetismo de Landau


Para fermiones cargados como los electrones, hay una segunda consecuencia de colo-
carlos en un campo magnético: se mueven en cı́rculos. El hamiltoniano que describe la
partı́cula de carga −e en un campo magnético B⃗ =∇×A ⃗ es

1  ⃗ r)
2
H= p⃗ + eA(⃗
2m
Esto tiene una consecuencia inmediata: ¡un campo magnético no puede afectar la fı́sica
estadı́stica de un gas clásico! Esto se sabe de sustituir simplemente el hamiltoniano
anterior en la función de partición clásica (2.1). Un cambio simple en las variables

– 108 –
⃗ muestra que la función de partición clásica no depende de B.
p⃗′ = p⃗ + eA ⃗ A este
resultado (que también fue mencionado de una manera un poco distinta en el curso
de Dinámica Clásica) se le conoce el teorema de Bohr-van Leeuwen: mantiene que no
puede haber magnetismo clásico.

Veamos el cambio que los efectos cuánticos tienen en esta conclusión. Nuestro primer
objetivo es entender los estados de una partı́cula para el electrón inmerso en un campo
magnético constante de fondo. Este es un problema que también se presenta en el curso
de Aplicaciones de la Mecánica Cuántica. Es el problema de los niveles de Landau.

Los Niveles de Landau


Consideraremos un electrón moviéndose en un campo magnético constante que apunta
⃗ = (0, 0, B). Hay diferentes maneras de elegir A
en la dirección ẑ: B ⃗ tal que B
⃗ = ∇×A ⃗
resulte en el campo magnético correcto. A estas se le conocen como elecciones del gauge.
Cada una dará lugar a la misma fı́sica pero, comúnmente, ecuaciones muy distintas en
los pasos intermedios. Aquı́ haremos la siguiente elección,

⃗ = (−By, 0, 0)
A (3.62)

Colocaremos nuestra partı́cula en una caja cúbica de longitud L. Las soluciones a la


ecuación de Schrödinger Ĥψ = Eψ son simplemente ondas planas en las direcciones x
y y,

ψ(⃗r) = ei(kx x+kz z) f (y)

Pero la función de onda f (y) debe satisfacer

ℏ2 ∂ 2
 
1 2
− + (ℏkx − eBy) f (y) = E ′ f (y) (3.63)
2m ∂y 2 2m

Esta es una ecuación familiar. Si definimos la frecuencia del ciclotrón como


eB
ωc =
m
Podemos escribir (3.63) como

ℏ2 ∂ 2
 
1 2
− + mωc (y − y0 ) f (y) = E ′ f (y)
2
2m ∂y 2 2

donde y0 = ℏkx /eB. Esta es simplemente la ecuación de Schrödinger para un oscilador


armónico, vibrando con una frecuencia ωc y situado en la posición y0 .

– 109 –
Se vale preguntarse cómo es que apareció el oscilador armónico. La frecuencia del
ciclotrón ωc es la frecuencia a la cual los electrones dibujan órbitas clásicas de Larmor,
por esa parte hace un poco de sentido. Pero, ¿por qué estos se convirtieron en os-
ciladores armónicos en posiciones y0 y que dependen de kx ? La respuesta es que no hay
ningún significado profundo. Simplemente es un artefacto de nuestra elección de gauge
(3.62). De haber elegido un A ⃗ diferente que de lugar al mismo B, ⃗ nos encontrarı́amos
tratando de responder una pregunta distinta. La lección aquı́ está en que al lidiar con
potenciales de gauge, los pasos intermedios de un cálculo no siempre tienen significado
fı́sico. Solo el resultado final es importante. Veamos cuál es este en nuestro caso. La
energı́a de la partı́cula es
ℏ2 kz2
E = E′ +
2m

donde E es la energı́a del oscilador armónico,
 
′ 1
E = n+ ℏωc n∈Z
2
Estos niveles discretos son los que llamamos niveles de Landau, y son altamente degen-
erados. Para ver esto, nótese que kx está cuantizado en unidades de ∆kx = 2π/L. Esto
significa que podemos tener un oscilador armónico localizado cada ∆y0 = 2πℏ/eBL.
El número de estos osciladores que caben en una caja de longitud L es L/∆y0 . Esta es
la degeneración de cada nivel,
eBL2 Φ

2πℏ Φ0
donde Φ = L2 B es el flujo total a través del sistema y Φ0 = 2πℏ/e es conocido como
el flujo cuántico magnético. (Nótese que el resultado anterior no incluye un factor de 2
por el la degeneración del espı́n del electrón).

De Vuelta a la Narrativa Diamagnática


Ahora podemos calcular la función de partición macrocanónica para electrones sin
interacciones en un campo magnético. Incluyendo el factor de 2 por el espı́n del electrón,
tenemos

2L2 B βℏ2 kz2
Z   
L X
log Z = dkz log 1 + z exp − − βℏωc (n + 1/2)
2π n=0
Φ0 2m
Para resolver la suma, usamos la fórmula de sumatorios de Euler que dice que para
cada función h(x),
∞ Z ∞
X 1
h(n + 1/2) = h(x)dx + h′ (0) + . . .
n=0 0 24

– 110 –
Aplicaremos esta fórmula a la función,

βℏ2 kz2
Z   
h(x) = dkz log 1 + exp − + βx
2m

Y ası́ la función macrocanónica se convierte en



VB X
log Z = h(µ − ℏωc (n + 1/2))
πΦ0 n=0
VB ∞
Z
V B ℏωc dh(µ)
= h(µ − ℏωc x) dx − + ...
πΦ0 0 πΦ0 24 dµ
Z µ
(ℏωc )2 +∞
Z 
Vm β
= h(y) dy − dk β(ℏ2 k2 /2m−µ) + . . . (3.64)
2π 2 ℏ2 −∞ 24 −∞ e +1

El primer término de arriba no depende de B. De hecho, es una manera perversa de


escribir la función de partición para un gas de Fermi cuando B = 0. Sin embargo,
nuestro interés aquı́ es la magnetización, que de nuevo se define como (3.59). En la
colectividad macrocanónica, esto es simplemente
1 ∂log Z
M=
β ∂B

El segundo término en (3.64) es proporcional a B 2 (que se esconde en el término ωc2 ).


Términos de mayor orden en la fórmula de Euler llevarán potencias superiores de B y,
para un pequeño B, la expresión de arriba será suficiente.

Para T = 0, el integrando es simplemente 1 para |k| < kF y cero en cualquier otro


lugar. Para comparar con el paramagnetismo de Pauli, expresaremos el resultado final
en términos del magnetón de Bohr µB = |e|ℏ/2mc. Vemos ası́ que

µ2B
M =− g(EF )B
3
Esto es comparable con la contribución de Pauli (3.61), pero tiene signo opuesto. A las
sustancias con magnetización opuesta al campo magnético se les dice diamagnéticas:
ven repulsión al aplicarles campos magnéticos. El efecto derivado arriba se conoce como
diamagnetismo de Landau.

– 111 –
4. Termodinámica Clásica

“La termodinámica es una materia curiosa. La primera vez que la revisas,


no la entiendes en lo absoluto. La segunda vez que la revisas, piensas que la
entiendes, excepto por uno o dos puntos pequeños. La tercera vez que la re-
visas, sabes que no la entiendes, pero para entonces ya estas acostumbrado,
ası́ que ya no te molesta.”

Arnold Sommerfeld, poniendo excusas

Hasta el momento nos hemos enfocado en la mecánica estadı́stica, que estudia los
sistemas en términos de sus constituyentes microscópicos. En esta sección, daremos
un paso hacia atrás y veremos la termodinámica clásica. Esta es una teorı́a a la que
no le interesan los átomos y lo microscópico. En su lugar describe relaciones entre los
fenómenos macroscópicos observables que vemos directamente.

De cierto modo, regresar a termodinámica es un paso retrógrado. Ciertamente no


es tan fundamental como la descripción estadı́stica. En efecto, las “leyes” de la ter-
modinámica que describimos en este capı́tulo se pueden derivar de fı́sica estadı́stica.
Sin embargo, hay un número de razones para continuar con el desarrollo de la ter-
modinámica clásica.

Primero, perseguir la termodinámica clásica nos dará un entendimiento más pro-


fundo de algunas ideas que emergieron brevemente en la Sección 1. En particular, nos
enfocaremos en como la energı́a fluye debido a diferencias de temperatura. La energı́a
que se transfiere de esta forma se conoce como calor. Por medio de una notable serie
de argumentos que involucran al calor, uno puede deducir la existencia de una canti-
dad llamada entropı́a y sus implicaciones para la irreversibilidad del Universo. Esta
definición de entropı́a es totalmente equivalente a la definición posterior de Boltzmann
S = kB log Ω, pero no hace referencia a los estados subyacentes.

Segundo, la debilidad de la termodinámica también es su fortaleza. Ya que la teorı́a


ignora la naturaleza subyacente de la materia, se limita en lo que nos puede decir. Pero
esto significa que los resultados que deducimos de la termodinámica no se restringen a
ningún sistema en especı́fico. Aplican de igual y buena manera a cualquier circunstan-
cia, desde sistemas biológicos hasta la gravedad cuántica. ¡Y uno no puede decir eso
de muchas teorı́as!

– 112 –
En la Sección 1, describimos brevemente la primera y la segunda ley de la ter-
modinámica ası́ como consecuencias de los principios subyacentes de la fı́sica estadı́stica.
A diferencia de las otras secciones, aquı́ nos pondremos en los zapatos de los cientı́ficos
Victorianos con grandes barbas, sombreros tontos y una ignorancia total sobre los
átomos. Presentaremos las cuatro leyes de la termodinámica como axiomas sobre los
cuales la teorı́a reposa.

4.1 Temperatura y Ley Cero


Necesitamos comenzar con unas cuantas definiciones:

• Un sistema que está completamente aislado de todas las influencias externas se


dice estar contenido en paredes adiabáticas. También nos referimos a estos sis-
temas como aislados.

• Las paredes que no son adiabáticas se dicen ser diatérmicas y dos sistemas sep-
arados por una pared diatérmica se dicen estar en contacto térmico. Una pared
diatérmica sigue siendo una pared, lo que significa que no se puede mover ni per-
mite la transferencia de partı́culas de un sistema a otro. Sin embargo, es lo único
especial que tiene y es suficiente para que permita la transferencia de calor (que
definiremos en breve) entre los sistemas. Ante la duda, piense en una hoja de
metal delgada.

• Un sistema aislado, cuando se deja solo por un periodo de tiempo suficientemente


largo, se relajará a un estado en el que ya no hay cambios apreciables. Este estado
se conoce como equilibrio.

Ya que no nos importan los átomos y microestados, debemos utilizar variables


macroscópicas para describir cualquier sistema. Para un gas, las únicas dos variables
que necesitamos especificar son la presión p y el volumen V : si sabemos la presión y el
volumen, entonces todas las demás cantidades — color, olor, viscosidad, conductividad
térmica — están fijas. Para otros sistemas, puede que se necesiten más (o diferentes)
variables para describir su macroestado. Ejemplos comunes son la tensión superficial y
el área para una pelı́cula delgada; el campo magnético y la magnetización de un imán;
el campo eléctrico y la polarización de un dieléctrico. En lo que resta asumiremos que
estamos tratando con un gas y usaremos p y V para especificar el estado. Todo lo que
diremos se puede extender fácilmente a configuraciones más generales.

Hasta ahora, no tenemos una definición de temperatura. Esto se provee por la ley
cero de la termodinámica, que establece que el equilibrio es una propiedad transitiva,

– 113 –
Ley Cero: Si dos sistemas, A y B, están en equilibrio con un tercer cuerpo C,
entonces también están en equilibrio entre ellos.

Vemos si esto nos permite definir el concepto de temperatura. Supongamos que el


sistema A está en el estado (p1 , V1 ) y C está en el estado (p3 , V3 ). Para verificar si los dos
sistemas están en equilibrio, solo necesitamos ponerlos en contacto térmico para ver si
sus estados cambian. Para valores genéricos de la presión y el volumen, encontraremos
que los sistemas no están en equilibrio. El equilibrio requiere algún tipo de relación
entre (p1 , V1 ) y (p3 , V3 ). Por ejemplo, supongamos que escogemos p1 , V1 y p3 , entonces
habrá un valor especial de V3 para el cual nada sucede cuando los dos sistemas se ponen
en contacto.

Escribiremos la restricción que determine cuando A y C están en equilibrio como

FAC (p1 , V1 ; p3 , V3 ) = 0

la cual se puede despejar para obtener

V3 = fAC (p1 , V1 ; p3 )

Ya que los sistemas B y C también están en equilibrio, también tenemos una restricción,

FBC (p2 , V2 ; p3 , V3 ) = 0 ⇒ V3 = fBC (p2 , V2 ; p3 )

Estas dos condiciones de equilibrio nos dan diferentes expresiones para el volumen V3 ,

fAC (p1 , V1 ; p3 ) = fBC (p2 , V2 ; p3 ) (4.1)

En este punto invocamos la ley cero, que nos dice que los sistemas A y B también deben
de estar en equilibrio, lo que significa que (4.1) debe de ser equivalente a la restricción

FAB (p1 , V1 ; p2 , V2 ) = 0 (4.2)

La ecuación (4.1) implica (4.2), pero esta última no depende de p3 . Lo que quiere decir
que p3 debe de aparecer en (4.1) de tal manera que se pueda cancelar en ambos lados.
Cuando se hace tal cancelación, (4.1) nos dice que hay una relación entre los estados
del sistema A y el sistema B.

θA (p1 , V1 ) = θB (p2 , V2 )

El valor θ(p, V ) se conoce como temperatura del sistema. La función T = θ(p, V ) se


conoce como ecuación de estado.

– 114 –
El argumento anterior realmente solo nos dice que existe alguna propiedad llamada
temperatura. Todavı́a nophay nada que nos diga el porqué de escoger θ(p, V ) como tem-
peratura y no, digamos θ(p, V ). En breve veremos que hay, de hecho, una elección
canónica para la temperatura que se define en términos de la segunda ley de la ter-
modinámica y una construcción llamada el ciclo de Carnot. Sin embargo, por el mo-
mento será suficiente elegir un sistema de referencia para definir la temperatura. La
elección estándar es la ecuación de estado del gas ideal (que, como hemos visto, es una
buena aproximación a los gases reales con bajas densidades),
pV
T =
N kB
4.2 La Primera Ley
La primera ley es simplemente la aserción de la conservación de la energı́a, junto con
el conocimiento de que hay más de una manera de cambiar la energı́a del sistema.
Usualmente se expresa de la siguiente manera

Primera Ley: La cantidad de trabajo que se requiere para cambiar un sistema


aislado de un estado 1 a un estado 2 es independiente de cómo se implemente el trabajo.

Lo que esta confusa oración nos dice es simplemente que hay otra función de estado
de sistema, E(P, V ). Esta es la energı́a. Podemos realizar una cantidad de trabajo W
en el sistema aislado de manera tan creativa como queramos: aplastarlo, revolverlo,
ponerle adentro un cable y un resistor con una corriente pasando. El método que
escojamos no importa: en todo caso, el cambio de energı́a es ∆E = W .

Sin embargo, para sistemas no aislados, el cambio de energı́a no es equivalente a


la cantidad de trabajo realizado. Por ejemplo, podemos tomar dos sistemas a tem-
peraturas distintas y ponerlos en contacto termal. No necesitamos realizar nada de
trabajo, pero la energı́a de cada sistema va a cambiar. Esto nos obliga a aceptar que
hay maneras de cambiar la energı́a del sistema aparte de realizando trabajo. Entonces
expresamos

∆E = Q + W (4.3)

donde Q es la cantidad de energı́a que se transfiere al sistema aparte del trabajo real-
izado. Esta transferencia de energı́a surge por diferencias de temperatura. Se le llama
calor.

El calor no es un tipo de energı́a. Es un proceso — una manera de transferir energı́a.


En ningún sentido podemos dividir la energı́a E(p, V ) del sistema en calor y trabajo:
no podemos escribir “E = Q + W ” porque ni Q ni W son funciones de estado.

– 115 –
Proceso Cuasiestático
En la discusión anterior, la transferencia de energı́a puede ser tan violenta como uno
desee. No hay necesidad de que el sistema se encuentre en equilibrio mientras la energı́a
está siendo añadida: la primera ley tal como se expresó en (4.3) se refiere únicamente
a la energı́a al principio y al final.

De ahora en adelante, seremos más gentiles. Añadiremos o quitaremos energı́a al


sistema muy lentamente, de modo que en cada etapa del proceso el sistema se encuentre
efectivamente en equilibrio y pueda ser descrito con variables termodinámicas p y V .
Tal proceso se conoce como cuasiestático.

Para procesos cuasiestáticos, es útil escribir (4.3) en forma infinitesimal. Desafortu-


nadamente esto lleva a un pequeño dolo de cabeza con la notación. El problema es que
queremos mantener la distinción entre E(p, V ), que es una función de estado, y Q y
W , que no lo son. Esto quiere decir que un cambio infinitesimal en la energı́a es una
derivada total,
∂E ∂E
dE = dp + dV
∂p ∂V
Mientras que una cantidad infinitesimal de trabajo o calor no tiene tal interpretación: es
meramente algo pequeño. Para enfatizar esto, es común inventar una nueva notación8 .
Una cantidad pequeña de calor se escribe − dQ y una cantidad pequeña de trabajo se

escribe dW . La primera ley de la termodinámica en su forma infinitesimal es entonces

dE = −
dQ + −
dW (4.4)

A pesar de que hemos introducido la primera ley de la termodinámica como si aplicara


a todos los tipos de trabajo, de ahora en adelante, es más sencillo si restringimos la
discusión a un solo método de aplicarle trabajo a un sistema: apretándolo. Hemos
visto en la Sección 1 que el trabajo infinitesimal realizado sobre un sistema es

dW = −pdV

que es lo mismo que “fuerza × distancia”. Notemos la convención de signo. Cuando



dW > 0, estamos realizando trabajo en el sistema al comprimirlo de modo que dV < 0.
Sin embargo, cuando el sistema se expande, dV > 0 de modo que − dW < 0 y el sistema
está realizando trabajo.

8
En un lenguaje más sofisticado, dE, −
dW y − dQ son uno-formas en el espacio de estados del
sistema. El diferencial dE es exacto; −
dW y −dQ no lo son.

– 116 –
Expresando el trabajo como − dW = −pdV también nos p
permite subrayar el significado del nuevo sı́mbolo − d. No B
hay función W (p, V ) que tenga “dW = −pdV ”. (Por Path II
ejemplo, uno podrı́a intentar W = pV pero eso resulta
en dW = −pdV − V dp que no es lo que queremos). La A Path I
notación −dW está ahı́ para recordarnos que el trabajo no
V
es un diferencial exacto.

Supongamos ahora que variamos el estado de un sistema Figura 24:


a través de dos caminos de procesos cuasiestáticos difer-
entes como se muestra en la figura. El cambio en la energı́a
R
es independiente del camino tomado: es dE = E(p2 , V2 ) − E(p1 , V1 ). En contraste, el

R R
trabajo realizado dW = − pdV depende del camino tomado. Esta simple obser-
vación probará ser importante para nuestra siguiente discusión.

4.3 La Segunda Ley

“Algunas ocasiones he sido provocado al punto de preguntar a mi compañı́a


cuántos pueden describir la Segunda Ley de la Termodinámica, la ley de la
entropı́a. La respuesta fue frı́a y negativa. Sin embargo, estaba preguntando
el equivalente cientı́fico a: ‘¿Has leı́do alguna obra de Shakespeare?’ ”

[Link] (1959)

No hay duda que C.P. Snow tenı́a en mente la aserción de que la entropı́a incre-
menta. Sin embargo, esta es una consecuencia de la segunda ley, no el mismo axioma.
Realmente, todavı́a ni siquiera tenemos una definición termodinámica de entropı́a.

La esencia de la segunda ley es que hay una dirección preferida del tiempo. Hay
muchos procesos macroscópicos en la naturaleza que no pueden ser invertidos. Las
cosas se quiebran. Las lı́neas de la cara se vuelven más profundas. Las palabras una
vez dichas no pueden ser borradas. La segunda ley resume todas las observaciones de
ese tipo en una sola aserción sobre el movimiento del calor.

Procesos Reversibles
Antes de expresar la segunda ley, será útil concentrarnos en procesos que pueden suceder
sin problemas en ambas direcciones del tiempo. Estos son una clase especial de procesos
cuasiestáticos que pueden ser invertidos en el tiempo. Se les llama procesos reversibles.

– 117 –
Un proceso reversible debe estar en equilibrio en cada punto del recorrido. Esta es la
condición cuasiestática. Pero ahora tenemos la restricción extra de que no haya fricción
involucrada.

Para procesos reversibles, podemos tomar un camino re- p


dondo – de ida y de vuelta – como se muestra en la derecha. p2
Empezando en el estado (p1 , V1 ), tomamos un camino por
abajo a (p2 , V2 ) y luego un camino por arriba de vuelta a
H
(p1 , V1 ). La energı́a es constante debido a que dE = 0, p1
H
pero el trabajo total no es cero: pdV ̸= 0. Por la primera V
ley de la termodinámica (4.4), el trabajo realizado por el sis-
V1 V2
tema durante el ciclo debe ser igual al calor −
H H
dQ = pdV
que el sistema absorbe. Si pasamos una vez por este ciclo, el Figura 25:
sistema realiza trabajo y absorbe calor de sus alrededores;
el pasar por el ciclo en la dirección opuesta implicarı́a trabajo realizado sobre el sistema,
que ahora emitirı́a energı́a como calor.

So de nuestro interés los procesos que se mueven en un ciclo de esta manera, regre-
sando a su punto de partida. Hechos de la manera correcta, convierten calor en trabajo,
y eso es muy útil. Podemos pensar en el trabajo como un pistón que se puede usar para
mantener andando a un tren de vapor. O un playstation. O un Gran Colisionador de
Hadrones.

Declaración de la Segunda Ley


La segunda ley se expresa usualmente de alguna de dos maneras. La primera nos dice
cuando la energı́a puede ser aprovechada. La segunda hace énfasis en la observación de
que hay una flecha del tiempo en el mundo macroscópico: el calor fluye de lo caliente
a lo frı́o. Normalmente se expresan como

Segunda Ley à la Kelvin: No es posible ningún proceso que únicamente extraiga


calor de un reservorio caliente y lo convierta completamente en trabajo.

Segunda Ley à la Clausius: No es posible ningún proceso qué únicamente trans-


fiera calor de un cuerpo frı́o a uno caliente.

Vale la pena elaborar sobre estas expresiones. Primero, todos tenemos objetos en
nuestras cocinas que transfieren calor de un ambiente frı́o a uno caliente: este es el
propósito de un refrigerador. El calor se extrae del interior del refrigerador cuando
está frı́o y se deposita fuera cuando está caliente. ¿Por qué no viola esto la declaración
de Clausius? La razón cae en las palabras ”únicamente”. El refrigerador tiene el

– 118 –
efecto adicional de crear electricidad. En lenguaje termodinámico, el refrigerador opera
porque le estamos dando ”trabajo”. Para entender el significado de la aserción hecha
por Clausius, pensemos mejor en poner un objeto caliente en contacto con uno frı́o. La
energı́a fluye de caliente a frı́o; nunca en la dirección opuesta.

Las descripciones de Kelvin y Clausius son equiv- Hot


alentes. Suponga, por ejemplo, que construimos una
Q QH
máquina que viola la descripción de Kelvin al extraer
W
calor de un reservorio caliente y convertirlo completa- Not
Fridge
Kelvin
mente en trabajo. Podemos usar ese trabajo para hacer
andar un refrigerador que pueda extraer calor de una QC
fuente frı́a y lo deposite en una caliente. La combinación
Cold
de estas dos máquinas vioları́a la descripción de Clau-
sius. No es difı́cil construir un argumento similar para Figura 26:
mostrar que “no Clausius” ⇒ “no Kelvin”.

Nuestra meta en esta sección es mostrar como estas descripciones de la segunda ley
nos permiten definir una cantidad llamada “entropı́a”.

TH TH Insulated TC Insulated

A B C D A
Isothermal Adiabatic Isothermal Adiabatic
expansion expansion compression compression

Figura 27: El ciclo de carnot en caricatura.

4.3.1 El Ciclo de Carnot


La declaración de Kelvin de la segunda ley es que no podemos extraer calor de un
reservorio caliente y transformarlo completamente en trabajo. A primera vista, esto
parece ir contrario a lo que sabemos de ciclos reversibles. Acabamos de ver que estos
− −
H H
necesariamente tienen dQ = dW y por tanto convierten calor en trabajo. ¿Por
qué esto no es una contradicción de la declaración de Kelvin?

– 119 –
La clave para entender esto es apreciar que un ciclo reversible hace más que solo
extraer calor de un reservorio caliente. También, por necesidad, deposita calor en otra
parte. La energı́a disponible para trabajo es la diferencia entre el calor extraı́do y
el calor perdido. Para ilustrar esto, es muy útil considerar un tipo particular de ciclo
reversible llamado motor de Carnot. Esto es una serie de procesos reversibles, corriendo
en un ciclo y operando entre dos temperaturas TH y TC . Toma lugar en cuatro etapas
mostradas en caricatura en las Figuras 27 y 28.

p T
A
TH A B

B
TH
D D C
TC TC
C
V S

Figura 28: El ciclo de Carnot, mostrado en el plano p − V y el plano T − S.

• Expansión isotérmica AB a temperatura constante TH . El gas empuja hacia el


costado de su contenedor y se le permite expandir lentamente. Al hacer esto, se
puede utilizar para suministrar energı́a a nuestra máquina eléctrica favorita. Para
mantener la temperatura constante, el sistema tendrá que absorber una cantidad
de energı́a QH de sus alrededores.

• Expansión adiabática BC. El sistema está ahora aislado, ası́ que no se absorbe
calor. Pero el gas puede seguirse expandiendo. Mientras lo hace, ambos la presión
y la temperatura disminuirán.

• Contracción isotérmica CD a temperatura constante TC . Ahora comenzamos a


regresar al sistema a su estado original. Realizamos trabajo sobre el sistema al
comprimir el gas. Si estuviéramos comprimiendo un sistema aislado, la temper-
atura aumentarı́a. Pero mantenemos al sistema a temperatura fija, de modo que
suelta calor QC a sus alrededores.

• Contracción adiabática DA. Aislamos al gas de sus alrededores y continuamos


la compresión. Ahora la presión y la temperatura ambas incrementan. Lleg-

– 120 –
amos finalmente a nuestro punto inicial cuando el gas se encuentra nuevamente
a temperatura TH .
Al final de estos cuatro pasos, el sistema ha regresado a su sistema original. El calor
neto absorbido es QH − QC que debe de ser igual al trabajo realizado por el sistema.
Definimos la eficiencia η de un motor como la taza del trabajo realizado con el calor
absorbido del reservorio caliente,
W QH − QC QC
η= = =1−
QH QH QH
Idealmente, nos gustarı́a tomar todo el calor QH y convertirlo en trabajo. Tal
motor tendrı́a una eficiencia η = 1 pero vioları́a la declaración de Kelvin de la se-
gunda ley. Podemos ver el problema en el ciclo de Carnot: tenemos que depositar una
cantidad de calor QC de vuelta al reservorio frı́o conforme regresamos al estado orig-
inal. Y el siguiente resultado dice que el ciclo de Carnot es lo mejor que podemos hacer:

Teorema de Carnot: Carnot es el mejor. O, más precisamente: De todos los mo-


tores operando entre dos reservorios de calor, un motor reversible es el más eficiente.
Como un simple corolario, todos los motores reversibles tienen la misma eficiencia que
depende únicamente en las temperaturas de los reservorios η(TH , TC ).

Demostración: Consideremos un segundo motor — Hot


llamémoslo Ivor — operando entre las mismas temper-
Q’H QH
aturas TH y TC . Ivor también realiza trabajo W pero, en
W
contraste con Carnot, no es reversible. Supongamos que Ivor
Reverse
Carnot
Ivor absorbe Q′H del reservorio caliente y deposita Q′C
hacia el frı́o. Entonces podemos acoplar Ivor a nuestro Q’C QC
motor de Carnot original puesto en reversa.
Cold
El trabajo W realizado por Ivor ahora hace que Carnot
Figura 29:
funcione. El efecto neto de los dos motores es extraer
Q′H − QH del reservorio caliente y, por conservación de
la energı́a, depositar la misma cantidad Q′C − QC = Q′H − QH hacia el frı́o. Pero la
declaración de Clausius nos dice que debemos tener Q′H ≥ QH ; si esto no fuera verdad,
la energı́a serı́a removida del reservorio frı́o. Un poco de álgebra nos dice que
Q′C QH − QC QH − QC
Q′C − Q′H = QC − QH ⇒ ηIvor = 1 − ′
= ′
≤ = ηCarnot
QH QH QH
El resultado de este argumento es el que querı́amos, esto es,
ηCarnot ≥ ηIvor

– 121 –
Ahora el corolario es sencillo de probar. Suponiendo que Ivor fuera reversible, podrı́amos
usar el mismo argumento de arriba para probar que ηIvor ≥ ηCarnot , ası́ que debe de ser
verdad que ηIvor = ηCarnot si Ivor es irreversible. Además, la eficiencia debe de ser una
función únicamente de las temperaturas ηCarnot = η(TH , TC ), simplemente porque son
las únicas variables en juego. □

4.3.2 Escala de Temperatura Termodinámica y el Gas Ideal


Recordemos que la ley cero de la termodinámica mostró que hay una función de estado
que llamamos temperatura definida de tal manera que toma el mismo valor para dos
sistemas en equilibrio. Pero en esos tiempos no habı́a ninguna p manera canónica para
decidir entre diferentes definiciones de temperatura: θ(p, V ) o θ(p, V ) o cualquier otra
función eran buenas elecciones. Al final tuvimos que elegir un sistema de referencia —
el gas ideal — como escala para definir temperatura. Esta fue una decisión bastante
arbitraria. Ahora tenemos mejores opciones.

Ya que la eficiencia del ciclo de Carnot depende únicamente de las temperaturas TH


y TC , podemos usar esto para definir una escala de temperatura que sea independiente
de cualquier material. (A pesar de que, como veremos, la escala resultante resulta
ser equivalente a la temperatura de gas ideal). Explicaremos ahora brevemente una
manera en la que podemos definir una temperatura desde el ciclo de Carnot.

La idea principal es considerar dos motores de Carnot. El primero opera entre dos
reservorios T1 > T2 ; el segundo entre los otros dos reservorios T2 > T3 . Si el primer
motor extrae calor Q1 entonces deberı́a soltar el calor Q2 de manera que
Q2 = Q1 (1 − η(T1 , T2 ))
Los argumentos anteriores nos dicen que η = ηCarnot es una función únicamente de T1
y T2 . Si el segundo motor toma ese mismo calor Q2 , debe entonces depositar el calor
Q3 en el reservorio a temperatura T3 , esto se da por
Q3 = Q2 (1 − η(T2 , T3 )) = Q1 (1 − η(T1 , T2 )) (1 − η(T2 , T3 ))
Pero también podemos considerar ambos motores trabajando juntos como un motor de
Carnot operando entre reservorios T1 y T3 . Este motor extraerı́a calor Q1 y liberarı́a el
calor Q3 con una eficiencia η(T1 , T3 ) tal que
Q3 = Q1 (1 − η(T1 , T3 ))
El combinar ambos resultados nos dice que la eficiencia debe ser una función que
obedece la ecuación
1 − η(T1 , T3 ) = (1 − η(T1 , T2 )) (1 − η(T2 , T3 ))

– 122 –
El hecho de que T2 se cancele en el lado derecho es suficiente para decirnos que

f (T2 )
1 − η(T1 , T2 ) =
f (T1 )

para alguna función f (T ). Ahora, podemos usar la ambigüedad de la definición de tem-


peratura y elegir una función satisfactoria, digamos f (T ) = T . Por lo tanto, definimos
la temperatura termodinámica para que sea tal que la eficiencia se de por

T2
η =1− (4.5)
T1

El Ciclo de Carnot para un Gas Ideal


Ahora tenemos dos maneras de especificar lo que es la temperatura. La primera surge
de analizar la ecuación de estado para un sistema especı́fico pero simple: el gas ideal.
Desde esta perspectiva, la temperatura se define como T = pV /N kB . La segunda
definición de temperatura usa el concepto de ciclos de Carnot. Ahora demostraremos
que estas dos definiciones son equivalentes al calcular explı́citamente la eficiencia de un
motor de Carnot para el gas ideal.

Lidiaremos primero con los cambios isotérmicos del gas ideal. Sabemos que la energı́a
del gas depende de la temperatura9 ,

3
E = N kB T (4.6)
2

Por lo que dT = 0 significa que dE = 0. La primera ley nos dice entonces que − dQ =

− dW . Para el movimiento a lo largo de la lı́nea AB en el ciclo de Carnot, tenemos
Z B Z B Z B Z B  
− − N kB TH VB
QH = dQ = − dW = pdV = dV = N kB TH log (4.7)
A A A A V VA
9
Una confesión: estrictamente hablando, estoy usando información ilegal en el argumento de arriba.
El resultado E = 32 N kB T surge de la mecánica estadı́stica y si estamos pretendiendo realmente ser
cientı́ficos Victorianos deberı́amos hablar sobre la eficiencia del ciclo de Carnot sin este conocimiento.
Claro, podrı́amos simplemente medir la capacidad calorı́fica CV = ∂E/∂T |V para determinar E(T )
experimentalmente y proceder. Otra alternativa más matemática es notar que no es necesario usar esa
forma exacta de la energı́a para hacer nuestro argumento: solo necesitamos utilizar el hecho de que
la energı́a es una función exclusivamente de la temperatura: E = E(T ). Las partes isotérmicas del
ciclo de Carnot son trivialmente iguales y podemos reproducir (4.7) y (4.8). Las partes adiabáticas
no pueden resolverse de manera exacta sin el conocimiento de E(T ) pero sı́ es posible probar que
VA /VB = VD /VC , lo cual es todo lo que necesitamos para derivar la eficiencia (4.9).

– 123 –
De manera similar, el calor que se suelta a lo largo de la lı́nea CD en el ciclo de Carnot
es
 
VD
QC = −N kB TC log (4.8)
VC
Lo siguiente es analizar el cambio adiabático del ciclo. Dado que el sistema está aislado,
tenemos que − dQ = 0 y todo el trabajo se va hacia la energı́a: dE = −pdV . Mientras
tanto, desde (4.6), podemos escribir el cambio de energı́a como dE = CV dT donde
CV = 23 N kB , entonces
 
N kB T dT N kB dV
CV dT = − dV ⇒ =−
V T CV V
Después de integrar, sabemos que

T V 2/3 = constante

Aplicando esto a las lı́neas BC y DA del ciclo de Carnot, tenemos


2/3 2/3 2/3 2/3
TH VB = TC VC , TC VD = TH VA

lo que nos dice que VA /VB = VD /VC . Pero esto significa que los factores de log(V /V )
se cancelan cuando tomamos la razón de los valores de calor. La eficiencia del motor
de Carnot para un gas ideal — y por lo tanto para cualquier sistema — se da por
QC TC
ηcarnot = 1 − =1− (4.9)
QH TH
Vemos entonces que, efectivamente, la eficiencia utilizando la temperatura del gas ideal
coincide con nuestra temperatura termodinámica (4.5).

4.3.3 Entropı́a
La discusión anterior estuvo restringida a ciclos de Carnot: ciclos reversibles operando
entre dos temperaturas. La segunda ley nos dice que no podemos transformar todo el
calor extraı́do como trabajo. Debemos sacrificar un poco. Para generalizar, cambiare-
mos un poco la notación para que Q siempre denote la energı́a que el sistema absorbe.
Si el sistema suelta calor, entonces Q es negativo. En términos de nuestra notación
anterior, Q1 = QH y Q2 = −QC . Adicionalmente, T1 = TH y T2 = TC . Entonces, para
todos los ciclos de Carnot,
2
X Qi
=0
i=1
Ti

– 124 –
Consideremos ahora el ciclo reversible mostrado en la figura, donde cortamos camino
del ciclo original. Del ciclo original de Carnot ABCD sabemos que
QAB QCD
+ =0
TH TC
Mientras tanto, Podemos ver el cuadrado EBGF como un mini ciclo de Carnot por lo
que también tenemos
QGF QEB
+ =0
TF G TH
¿Qué pasa si ahora consideramos el ciclo AEF GCD? Claramente QAB = QAE + QEB .
Pero también sabemos que el calor que se absorbe a lo largo del segmento F G es igual
al liberado en el segmento GF cuando corremos nuestro mini ciclo. Esto sucede debido
a que estamos tomando el mismo camino pero en direcciones opuestas, por lo que
QF G = −QGF . Combinando estos resultados con las dos ecuaciones anteriores tenemos
QAE QF G QCD
+ + =0
TH TF G TC
Si cortamos más y más camino, será conveniente considerar cualquier ciclo reversible
como construido por segmentos isotérmicos y adiabáticos infinitesimalmente pequeños.
Sumando todas las contribuciones Q/T a lo largo del camino, aprendemos que el calor
total que se absorbe en cualquier ciclo reversible debe obedecer
I −
dQ
=0
T
Esta es una aserción muy importante. Significa que si cam- p
biamos de manera reversible nuestro sistema de estado A B

RB
a estado B, la cantidad A dQ/T será independiente del Path II
camino tomado. Cualquiera de los dos caminos mostrados
en la figura darán el mismo resultado: A Path I
Z −
dQ
Z −
dQ
= V
Path I T Path II T
Dado un estado de referencia O, esto nos permite definir
una nueva función de estado. La llamamos entropı́a, S Figura 31:
Z A −
dQ
S(A) = (4.10)
0 T
La entropı́a depende solamente del estado del sistema: S = S(p, V ). Es independiente
del camino tomado para llegar a ese estado. Ni siquiera es necesario tomar un camino
reversible: siempre y cuando el sistema se encuentre en equilibrio, tiene una entropı́a
bien definida (por lo menos relativa a algún estado de referencia).

– 125 –
No hemos mencionado microestados para definir entropı́a. Sin embargo, esta es
claramente la misma cantidad que conocimos en la Sección 1. De (4.10), podemos
escribir dS = −dQ/T , para que la primera ley de la termodinámica (4.4) sea escrita de
la forma (1.16),
dE = T dS − pdV (4.11)
Irreversibilidad
¿Qué podemos decir sobre caminos que no sean reversibles? Por el teorema de Carot,
sabemos que un motor irreversible que opera entre dos temperaturas TH y TC es menos
eficiente que un ciclo de Carnot. Usaremos la misma notación que en la demostración
del teorema de Carnot; el motor de Carnot extrae calor QH y libera el calor QC ; el
motor irreversible extrae calor Q′H y libera Q′C . Ambos hacen la misma cantidad de
trabajo W = QH − QC = Q′H − Q′C . Podemos entonces escribir
Q′H Q′C
 
QH QC ′ 1 1
− = − + (QH − QH ) −
TH TC TH TC TH TC
 
1 1
= (Q′H − QH ) − ≤0
TH TC
En la segunda lı́nea, hemos usado QH /TH = QC /TC para un ciclo de Carnot y para
llegar a la desigualdad hemos utilizado el resultado del teorema de Carnot, Q′H ≥ QH
(junto con el hecho de que TH > TC ).

El resultado anterior aplica para cualquier motor operando entre dos temperaturas.
Sin embargo, por el mismo método que usamos anteriormente de cortar camino de un
ciclo de Carnot, podemos fácilmente generalizar el resultado para cualquier camino,
reversible o irreversible. Colocando de vuelta los signos negativos para que el calor
liberado y el calor absorbido tengan signos opuestos, llegamos al resultado conocido
como la desigualdad de Clausius.
I −
dQ
≤0
T
Podemos expresar esto de una manera un poco más familiar. Suponga que tenemos dos
posibles caminos entre los estados A y B, como se muestra en la figura. El Camino I
(Path I) es irreversible mientras que el Camino (Path) II es reversible. La desigualdad
de Clausius nos dice que
I − Z − Z −
dQ dQ dQ
= − ≤0
T I T II T
Z −
dQ
⇒ ≤ S(B) − S(A) (4.12)
I T

– 126 –
Supongamos adicionalmente que el Camino I es adiabático, lo que significa que se
encuentra aislado del ambiente. Entonces −
dQ = 0 y vemos que la entropı́a de cualquier
sistema aislado nunca disminuye,

S(B) ≥ S(A) (4.13)

Encima de esto, si un proceso adiabático es reversible, entonces los dos estados resul-
tantes tendrán entropı́a equivalente.

La segunda ley, como fue expresada en (4.13), es p


responsable por la dirección del tiempo que observamos B
Reversible
en el mundo macroscópico. Sistemas aislados pueden Path II
evolucionar solamente a sistemas con igual o mayor en- Irreversible
tropı́a. Esto coincide con la descripción de la segunda A Path I
ley que vimos en la Sección 1.2.1 utilizando la definición
V
de entropı́a que usó Boltzmann.

4.3.4 Superficies Adiabáticas Figura 32:


La consecuencia más importante de la segunda ley es
la existencia de una nueva función de estado, la entropı́a. A las superficies de entropı́a
constante de les llama superficies adiabáticas. Estos estados que se encuentran en
alguna superficie adiabática pueden ser alcanzados realizando trabajo sobre el sistema
al mismo tiempo que prohibimos la absorción o liberación de calor. En otras palabras,
estos son estados que pueden ser alcanzados por procesos adiabáticos con − dQ = 0, que
es equivalente a dS = 0.

De hecho, para los sistemas más simples como el gas ideal, que requiere solamente
dos variables p y V para especificar el estado, no necesitamos la segunda ley para
inferir la existencia de una superficie adiabática. En ese caso, la superficie adiabática
es realmente la lı́nea adiabática en el espacio de estados bidimensional. La existencia
de esta lı́nea surge directamente de la primera ley. Para ver esto, escribimos el cambio
de energı́a para un proceso adiabático utilizando (4.4) junto con − dQ = 0,

dE + pdV = 0 (4.14)

Veamos a la misma energı́a como función de p y V para poder escribir

∂E ∂E
dE = dP + dV
∂p ∂V

– 127 –
Entonces la condición para un proceso adiabático (4.14) se convierte en
 
∂E ∂E
dp + + p dV = 0
∂p ∂V
Lo que nos dice que la pendiente de la lı́nea adiabática se da por
  −1
dp ∂E ∂E
=− +p (4.15)
dV ∂V ∂p
La ventaja de este cálculo es que si estamos en un estado especificado por (p, V ) y
transferimos trabajo, pero no calor, al sistema entonces necesariamente nos movemos a
lo largo de una lı́nea en el espacio de estados determinada por (4.15). Si nos queremos
mover fuera de esta lı́nea, tenderemos que añadir calor al sistema.

Sin embargo, el análisis anterior no se traduce a sistemas más complicados donde se


necesitan más de dos variables para especificar el estado. Suponga que el estado del
sistema se especifica por tres variables. La expresión para la primera ley de la ter-
modinámica ahora gana un término extra, reflejando el hecho de que hay más maneras
de añadir energı́a al sistema,

dE = −
dQ − pdV − ydX

Ya hemos visto ejemplos de esto con y = −µ, el potencial quı́mico, y X = N , el número


de partı́culas. Otro ejemplo muy común es y = −M , la magnetización, y X = H, el
campo magnético aplicado. Para nuestros propósitos, no será de importancia lo que
sean las variables x y y: solamente que existen. Necesitamos escoger tres variables para
especificar el estado. Cualesquiera funcionarán, pero escogeremos p, V y X, y veremos
la energı́a como una función de estas: E = E(p, V, X). Un proceso adiabático ahora
requiere
   
∂E ∂E ∂E
dE + pdV + ydX = 0 ⇒ dp + + p dV + + y dX = 0 (4.16)
∂p ∂V ∂X
Pero esta ecuación no necesariamente especifica una superficie en R3 . Para ver que
esto no es suficiente, podemos revisar algunos ejemplos. Considere R3 , parametrizado
por z1 , z2 y z3 . Si nos movemos en alguna dirección infinitesimal que satisfaga

z1 dz1 + z2 dz2 + z3 dz3 = 0

entonces podemos integrar esta ecuación para ver que nos estamos moviendo en la
superficie de una esfera,

z12 + z22 + z32 = constante

– 128 –
Por otra parte, si nos movemos en una dirección infinitesimal que satisfaga la condición

z2 dz1 + dz2 + dz3 = 0 (4.17)

Entonces ya no hay una superficie asociada a nuestro movimiento. Efectivamente, es


posible ver que si se mueve de manera que obedezca (4.17), puede llegar a cualquier
punto en R3 desde cualquier otro punto.

En general, un movimiento infinitesimal en la dirección

Z1 dz1 + Z2 dz2 + Z3 dz3 = 0

tiene la interpretación de movimiento en una superficie solo si las funciones Zi satisfacen


la condición
     
∂Z2 ∂Z3 ∂Z3 ∂Z1 ∂Z1 ∂Z2
Z1 − + Z2 − + Z3 − =0 (4.18)
∂z3 ∂z2 ∂z1 ∂z3 ∂z2 ∂z1

Entonces, para sistemas de tres o más variables, la existencia de una superficie adiabática
no es garantizada únicamente por la primera ley. Se requiere la segunda ley. Esta ase-
gura la existencia de una función de estado S tal que los procesos adiabáticos se muevan
a lo largo de superficies con S constante. En otras palabras, la segunda ley nos dice
que (4.16) satisface (4.18).

De hecho, hay una manera más directa de inferir la existencia de superficies adiabáticas
que utiliza la segunda ley pero no necesita todo el procedimiento con los ciclos de
Carnot. Trabajaremos nuevamente con un sistema que se especifica con tres variables,
aunque el argumento aplicara para cualquier número. Ahora escogemos las variables
V , X y la energı́a interna E. Empezamos en el estado A que se muestra en la figura.
Demostraremos que la descripción de Kelvin de la segunda ley implica que no es posible
alcanzar ambos estados B y C a través de procesos adiabáticos reversibles. Lo impor-
tante de estos estados es que tienen los mismos valores de V y X y difieren solamente
en sus energı́as E.

Para probar esto, supongamos lo opuesto: podemos alcanzar ambos estados B y C


mediante procesos adiabáticos reversibles. Entonces podemos empezar en A y movernos
hacia B. Ya que la energı́a disminuye, el sistema realiza trabajo a lo largo del camino
pero, ya que el camino es adiabático, no hay intercambio de calor. Ahora nos movemos
de B a C. Dado que dV = dX = 0 en esta trayectoria, no realizamos trabajo pero
la energı́a interna E cambia por lo que el sistema absorbe calor Q de su ambiente.
Finalmente, realizamos trabajo en el sistema para movernos desde C de vuelta a A.

– 129 –
Sin embargo, a diferencia del ciclo de Carnot, no devolvemos calor al ambiente en este
trayecto de regreso debido a que, como suponemos, este segundo camino también es
adiabático. El resultado final es que hemos extraı́do calor Q y lo hemos usado para
realizar trabajo W = Q. Esta es una contradicción con la descripción de Kelvin de la
segunda ley.

La ventaja de este argumento es que el espacio de E


estados puede ser poblado por superficies adiabáticas tal que A
cada lı́nea vertical a V y X constantes interseca la superficie
solo una vez. Podemos describir estas superficies con alguna C

función S(E, V, X) = constante. Esta función es la entropı́a. B V

El argumento anterior demuestra que la descripción de X


Kelvin de la segunda ley implica la existencia de superficies
adiabáticas. Uno puede preguntarse si podemos hacer el
Figura 33:
argumento hacia la otra dirección utilizando la existencia
de superficies adiabáticas como la base de la segunda ley, deshaciéndonos ası́ de las
descripciones de Kelvin y Clausius. De hecho, podemos cumplir eso casi por completo.
De la discusión anterior debe ser claro que la existencia de superficies adiabáticas
implica que la adición de calor es proporcional al cambio en la entropı́a − dQ ∼ dS.
Sin embargo, falta demostrar que el factor integrante que relaciona a ambos es la
temperatura tal que − dQ = T dS. Esto puede realizarse regresando a la ley cero. Una
descripción bastante simple del argumento puede encontrarse al final del Capı́tulo 4 del
libro de Pippard. Esto motiva una descripción matemáticamente concisa de la segunda
ley dada por Carathéodory.

Segunda Ley à la Carathéodory: Las superficies adiabáticas existen. De manera


más poética: Si quieres ser capaz de regresar, hay unos lugares donde no puedes ir solo
a través del trabajo. A veces necesitas un poco de calor.

Lo que le falta a esta descripción es quizá el aspecto más importante de la segunda ley:
la dirección del tiempo. Sin embargo, esto puede ser remediado fácilmente agregando
la pieza adicional de información que dice qué lado de la superficie puede alcanzarse
con procesos irreversibles. En un lado de la superficie está el futuro, en el otro está el
pasado.

4.3.5 Una Historia de la Termodinámica


LA historia del calor y la termodinámica es larga y complicada, involucra errores,
lecciones de diferentes áreas de estudio como la ingenierı́a y la medicina, y muchos

– 130 –
personajes interesantes, de los cuales más de uno encontró una razón para cambiar su
nombre en algún punto de la historia10 . .

A pesar de que las ideas de “calor” se encuentran muy temprano en la historia, un


buen punto de partida moderno es desde la teorı́a calórica de Lavoisier en 1787. Esta
postulaba que el calor era un fluido conservado con una tendencia de repelerse ası́
mismo, de esta manera fluyendo de cuerpos calores a cuerpos frı́os. Por un tiempo fue
una excelente teorı́a que explicaba muchas de las propiedades del calor. Claramente,
también era incorrecta.

La teorı́a de Lavoisier seguı́a siendo relevante hace 30 años cuando el ingeniero


Francés Sadi Carnot realizó el análisis de los motores de vapor que vimos anterior-
mente. Carnot entendı́a todos esos procesos en términos de la teorı́a calórica. Él
estaba inspirado por la mecánica de las ruedas hidráulicas y veı́a el flujo del calórico de
cuerpos calientes a frı́os como análogo a la caı́da de agua de arriba hacia abajo. Este
trabajo fue después extendido y formulado en un panorama más matemático por otro
fı́sico Francés, Émile Clapeyron. Para la década de 1840, las propiedades del calor eran
vistas por casi todos a través de os ojos de la teorı́a calórica de Carnot-Clapeyron.

Sin embargo, las primeras heridas en la teorı́a calórica ya habı́an aparecido antes
del siglo XIX debido al trabajo de Benjamin Thompson. Nacido en la colonia Inglesa
de Massachusetts, el CV de Thompson incluye trabajo como mercenario, cientı́fico y
humanitario. Él fue el inventor de la ropa interior térmica y pionero de la sopa de
cocina para los pobres. Para el final del siglo XVIII, Thompson vivı́a en Munich bajo
el glorioso nombre ”Conde Rumford del Sacro Imperio Romano Germánico”, donde
fue acusado de estar involucrado con artillerı́a para el Ejército de Prusia. Pero su
mente estaba ocupada en otras cosas. Al perforar cañones, Rumford se sorprendı́a de
la cantidad de calor que producı́a la fricción. Según la teorı́a de Lavoisier, este calor
deberı́a ser pensado como fluido calórico apachurrado desde el cañón. Sin embargo
parecı́a ser inagotable: cuando el cañón era agujereado una segunda vez, no habı́a
perdida en su habilidad de producir calor. Thompson/Rumford sugirieron que la causa
del calor no podı́a ser un calórico conservado. En lugar de esto, él atribuı́a el calor
correctamente, aunque de manera un poco crı́ptica, al “movimiento”.

Habiendo dejado un gran agujero en a teorı́a de Lavoisier, Rumford le puso sal a


la herida al casarse con su viuda. Aunque, siendo justos, para este punto a Lavoisier
no podrı́a importarle menos. Rumford fue honorado por Gran Bretaña, cambiando su
10
Puede encontrar una descripción más larga de esta historia en las notas de Michael Fowler de la
Universidad de Virginia: [Link]

– 131 –
nombre de nuevo a Sir Benjamin Thompson y ası́ fue como fundó la Institución Real
de Gran Brataña (Royal Institution).

El trayecto desde la observación de Thompson hasta la comprensión de la primera


ley de la termodinámica fue largo. Particularmente, dos personas se llevan el crédito.

En Manchester, Inglaterra, James Joule realizó una serie de experimentos increı́blemente


precisos. Mostró cómo diferentes tipos de trabajo — ya sea mecánico o eléctrico —
podrı́an calentar agua. Más importante, que la cantidad que la temperatura se incre-
mentaba dependı́a únicamente de la cantidad de trabajo y no de la manera en la que
este era aplicado. En su publicación “El Equivalente Mecánico del Calor” de 1843,
proporcionó evidencia cuantitativa de que el trabajo podı́a ser convertido en calor.

Sin embargo, aparentemente Joule no fue el primero. Un año antes, en 1842, el médico
Alemán Julius von Mayer llegó a la misma conclusión mediante una investigación muy
distinta: sangrı́a. Trabajando en una embarcación en las Indias Orientales Holandesas,
Mayer se dio cuenta que la sangre en las venas de los marineros era más roja en
Alemania. Supuso que se debı́a a que el cuerpo necesitaba quemar menos combustible
para mantenerse caliente. No solo descifró básicamente como el proceso de oxidación
es responsable de proporcionarle la energı́a al cuerpo, pero, increı́blemente, fue capaz
de empujar esto hacia una comprensión de cómo el trabajo y el calor se relacionan. A
pesar de tener un entrenamiento cientı́fico limitado, usó su intuición junto con valores
experimentales conocidos sobre las capacidades calorı́ficas Cp y CV de los gases, para
determinar esencialmente el mismo resultado que Joule encontró con procedimientos
más directos.

Los resultados de Thompson, Mayer y Joule fueron sintetizados en una publicación


de 1847 por Hermann von Helmholtz, quien es generalmente acreditado como el primero
en dar una formulación precisa de la primera ley de la termodinámica. (Aunque un tipo
de Swansea llamado William Grove tuvo un buen, pero confuso, argumento de unos
años antes). Vale la pena enfatizar la importancia histórica de la primera ley: esta fue
la primera vez que la conservación de la energı́a fue elevada a ser una idea clave en
la fı́sica. A pesar de que ya se sabı́a por siglos que cantidades como “ 12 mv 2 + V ” se
conservaban en ciertos problemas mecánicos, esto normalmente se veı́a más como una
curiosidad matemática que como un principio de la naturaleza. La razón, claramente,
es que la fricción es algo importante en la mayorı́a de los procesos y la energı́a no
aparenta ser conservada. El descubrimiento de la conexión entre energı́a, trabajo y
calor cambió esto. Sin embargo, tomó más de medio siglo para que Emmy Noether
explicara la verdadera razón detrás de la conservación de la energı́a.

– 132 –
Con Helmholtz, la primera ley fue esencialmente alcanzada. Faltaba la segunda.
Esta tomó otras dos décadas, con las piezas siendo juntadas por diferentes personas,
notablemente William Thomson y Rudolph Clausius.

William Thomson nació en Belfast pero se mudó a Glasgow a los 10 años. Vino a
Cambridge a estudiar pero rápidamente regresó a Glasgow donde permaneció por el
resto de su vida. Después de su trabajo como cientı́fico, ganó fama como ingeniero
involucrándose en los primeros cables transatlánticos. Por esto se convirtió en Lord
Kelvin, con el nombre elegido por el rı́o Kelvin que pasa cerca de la Universidad de
Glasgow. Él fue el primero en entender la importancia del cero absoluto y en definir
una escala termodinámica de temperatura que ahora lleva el nombre de su rı́o favorito.
Presentamos la formulación de Kelvin de la segunda ley de la termodinámica anterior-
mente en esta Sección.

En Alemania, Rudolph Clausius estaba desarrollando las mismas ideas que Kelvin.
Pero él logró ir más lejos y, en 1865, presentó el argumento termodinámico para la ex-
istencia de la entropı́a que vimos en la Sección 4.3.3. Clausius introdujo modestamente
la unidad “Clausius” (de sı́mbolo Cl) para la entropı́a, pero no fue adoptada.

4.4 Potenciales Termodinámicos: Energı́as Libres y Entalpı́a


Para este punto tenemos toda una colección de variables termodinámicas. El estado
del sistema es dictado por la presión p y el volumen V . Desde estos, podemos definir
temperatura T , energı́a E y entropı́a S. También podemos combinar y relacionar. El
estado del sistema puede ser indicado por T y V ; o E y V ; o T y p; o V y S. . .

Aunque tengamos la libertad de elegir las variables que queramos, algunas cantidades
son naturalmente mejor expresadas en términos de ciertas variables que de otras. Ya
hemos visto ejemplos tanto en la Sección 1 como en esta. Si estamos hablando de energı́a
E, es mejor indicar el estado en términos de S y V , entonces tendrı́amos E = E(S, V ).
En estas variables la primera ley queda en buena forma (4.11).

De manera equivalente, invirtiendo esto, la entropı́a debe ser pensada como una
función de E y V , tal que S = S(E, V ). Esto no solo es matemática bonita: también
tiene significado fı́sico ya que, como vimos anteriormente, a energı́as fijas la segunda
ley nos dice que la entropı́a nunca disminuye.

¿Cuál es la cantidad natural para considerar a temperatura T constante, en lugar de


energı́a E constante? De hecho, ya respondimos esto en la Sección 1.3 al hablar sobre
minimizar la energı́a libre de Helmholtz,
F = E − TS

– 133 –
Los argumentos de la Sección 1.3 eran basados en una perspectiva microscópica de la
entropı́a. Pero con nuestro entendimiento termodinámico de la segunda ley, podemos
fácilmente repetir el argumento sin mencionar distribuciones de probabilidad. Consid-
eramos nuestro sistema en contacto con un reservorio de calor tal que la energı́a total
Etotal del sistema combinado es fija. La entropı́a combinada es entonces

Stotal (Etotal ) = SR (Etotal − E) + S(E)


∂SR
≈ SR (Etotal ) − E + S(E)
∂Etotal
F
= SR (Etotal ) −
T
La entropı́a total nunca puede disminuir; la energı́a libre del sistema nunca puede
incrementar.

Una situación interesante que consideraremos en la siguiente sección es la de un


sistema el cual, a temperatura y volumen fijos, tiene dos estados de equilibrio distintos.
¿Cuál escoge? La respuesta es aquel que tenga menor energı́a libre, ya que fluctuaciones
termales aleatorias tenderán a llevarnos a ese estado, pero raramente nos regresan.

Ya mencionamos en la Sección 1.3 que la energı́a libre es una transformación de


Legendre de la energı́a; es naturalmente pensada como una función de T y V , lo cual
se refleja en la variación infinitesimal

∂F ∂F
dF = −SdT − pdV ⇒ = −S , = −p (4.19)
∂T V ∂V T

También podemos explicar qué es lo libre de esta energı́a. Consideremos un sistema


sobre un camino isotérmico reversible, de estado A a estado B. Dado que la temperatura
es constante, el cambio en la energı́a libre es dF = −pdV , entonces
Z B
F (B) − F (A) = − pdV = −W
A

donde W es el trabajo realizado por el sistema. La energı́a libre es una medida de la


cantidad de energı́a disponible para realizar trabajo a temperaturas finitas.

Energı́a Libre de Gibbs


Podemos considerar sistemas sin volumen fijo pero con presión fija. Para esto, imag-
inaremos nuevamente un sistema en contacto con un reservorio a temperatura T . Sus

– 134 –
volúmenes pueden fluctuar pero el volumen total Vtotal del sistema y el reservorio com-
binados debe ser fijo. La entropı́a total es

Stotal (Etotal , Vtotal ) = SR (Etotal − E, Vtotal − V ) + S(E, V )


∂SR ∂SR
≈ SR (Etotal , Vtotal ) − E− V + S(E, V )
∂Etotal ∂Vtotal
E + pV − T S
= SR (Vtotal ) −
T
A temperatura y presión fijas deberı́amos minimizar la Energı́a de Gibbs

G = F + pV = E + pV − T S (4.20)

Esta es una transformada de Legendre de F , esta vez intercambiando volumen por


presión: G = G(T, p). La variación infinitesimal es

dG = −SdT + V dp

En nuestra discusión hemos ignorado el número de partı́culas N . Sin embargo, ambos


F y G dependen implı́citamente de N (como puede el lector comprobar reexaminando
los ejemplos de F calculados anteriormente en el curso). Si también consideramos
cambios dN entonces cada variación tendrá un término adicional µdN , entonces

dF = −SdT − pdV + µdN and dG = −SdT + V dp + µdN (4.21)

Mientras que F puede tener una dependencia de N arbitrariamente complicada, la


energı́a de Gibbs G tiene una dependencia muy simple. Para ver esto, solamente
necesitamos dar un vistazo a las propiedades de las diferentes variables y hacer el
mismo tipo de argumento que vimos en la Sección 1.4.1. De su definición (4.20), vemos
que la energı́a de Gibbs es extensiva. Es una función de p, T y N , de las cuales solo N
es extensiva. Por lo tanto

G(p, T, N ) = µ(p, T )N (4.22)

donde el hecho de que el coeficiente de proporcionalidad sea µ es debido a la variación


(4.21) que nos dice que ∂G/∂N = µ.

La energı́a de Gibbs es frecuentemente utilizada por quı́micos, para quienes las


reacciones usualmente toman lugar a presión constante en vez de volumen constante.
(Cuando un quı́mico habla de “energı́a libre”, usualmente se refieren a G. Para un
fı́sico, “energı́a libre” usualmente significa F ). En la siguiente sección haremos uso del
resultado (4.22) cuando lleguemos al tema de transiciones de fase de primer orden.

– 135 –
4.4.1 Entalpı́a
Hay un último tipo de combinación que podemos considerar: sistemas con energı́a y
presión fijas. Estos sistemas son gobernados por la entalpı́a,

H = E + pV ⇒ dH = T dS + V dp

A las cuatro cantidades E, F , G y H ocasionalmente se les refiere como potenciales


termodinámicos.

4.4.2 Relaciones de Maxwell


Cada uno de los potenciales termodinámicos tiene un regalo curioso para nosotros.
Empecemos considerando la energı́a. Como cualquier otra función de estado, puede
verse como una función de cualesquiera otras dos variables que especifiquen el sistema.
Sin embargo, la primera ley (4.11) sugiere que es mas natural ver a la energı́a como
función de entropı́a y volumen: E = E(S, V ). Esto tiene la ventaja de que las derivadas
parciales son cantidades familiares,
∂E ∂E
=T , = −p
∂S V ∂V S

Hemos visto ambos resultados en la Sección 1. Es interesante también ver las derivadas
parciales mixtas, ∂ 2 E/∂S∂V = ∂ 2 E/∂V ∂S. Esto nos da a relación
∂T ∂p
=− (4.23)
∂V S ∂S V

Este resultado es matemáticamente trivial y aún ası́, lo contrario de obvio. Es la


primera de cuatro identidades conocidas como las relaciones Maxwell.

Las otras relaciones de Maxwell se derivan jugando al mismo juego con F , G y H.


Desde las propiedades (4.19) vemos que sacando las derivadas parciales mixtas de la
energı́a libre tenemos
∂S ∂p
= (4.24)
∂V T ∂T V

La energı́a de Gibbs nos da


∂S ∂V
=− (4.25)
∂p T ∂T p

Mientras que la entalpı́a es


∂T ∂V
= (4.26)
∂p S ∂S p

– 136 –
Las cuatro relaciones de Maxwell (4.23), (4.24), (4.25) y (4.26) son increı́bles identi-
dades matemáticas que funcionan para cada sistema. Son particularmente útiles ya
que relacionan cantidades que son directamente medibles con esas que son más difı́ciles
de determinar experimentalmente, como la entropı́a.

No es muy difı́cil recordar las relaciones de Maxwell. Las multiplicaciones cruzadas


siempre dan términos en pares: T S y pV , lo cual se da por razones dimensionales.
Las cuatro relaciones son simplemente las cuatro maneras de construir ese tipo de
ecuaciones. La única parte confusa es descifrar los signos negativos.

Capacidades Calorı́ficas Reexaminadas


Tomando más derivadas de las relaciones de Maxwell, podemos derivar aún más ecua-
ciones que involucran cantidades más inmediatas. Se le pedirá al lector demostrar varias
de estas en la hoja de ejemplos, incluyendo resultados para la capacidad calorı́fica a
volumen constante, CV = T ∂S/∂T |V , ası́ como a presión constante Cp = T ∂S/∂T |p .
Algunos resultados útiles incluyen,

∂CV ∂ 2p ∂Cp ∂ 2V
=T , = −T
∂V T ∂T 2 V ∂p T ∂T 2 p

También demostrará la relación entre estas dos capacidades calorı́ficas

∂V ∂p
Cp − CV = T
∂T p ∂T V

Esta última expresión tiene una simple consecuencia. Considere, como ejemplo, un gas
ideal que obedece pV = N kB T . Evaluando al lado derecho tenemos

Cp − Cv = N k B

Hay una razón intuitiva por la cual Cp es mayor que CV . Si a volumen constante
se agrega calor a un sistema, este se aprovecha en su totalidad para incrementar la
temperatura. Por otra parte, a presión constante, parte de esta energı́a causará la
expansión del sistema, ası́ realizando trabajo. Esto deja menos energı́a para subir la
temperatura, asegurando que Cp > CV .

4.5 La Tercera Ley


La segunda ley habla únicamente sobre diferencias de entropı́a. Podemos ver esto en
(4.10) donde la entropı́a se define con respecto a un estado de referencia. La tercera

– 137 –
ley, ocasionalmente llamada el postulado de Nernst, nos da una escala absoluta para
entropı́a. Usualmente se toma como

lim S(T ) = 0
T →0

De hecho podemos relajar esta escala para permitir entropı́a finita (pero densidad de
entropı́a S/N decreciente). Sabemos de la definición de Boltzmann que, a T = 0, la
entropı́a es simplemente el logaritmo de la degeneración del estado base del sistema. La
tercera ley requiere S/N → 0 tal que T → 0 y N → ∞. Esto nos dice que la entropı́a
del estado base no puede crecer extensivamente con N .

La tercera ley no tiene el mismo impacto que sus predecesores. Cada una de las
primeras tres leyes nos dan una nueva función de estado para el sistema: la ley cero nos
da la temperatura, la primera ley la energı́a, y la segunda ley la entropı́a. La tercera
ley no tiene esta recompensa.

Una consecuencia inmediata de la tercera ley es que las capacidades calorı́ficas


también deben tender a cero cuando T → 0. Esto viene de la ecuación (1.10)
Z B
CV
S(B) − S(A) = dT
A T
Si la entropı́a a temperatura cero es finita, la integral converge, lo que nos dice que
CV → T n para algún n ≥ 1 o más rápido. Desde varios ejemplos anteriores con
capacidades calorı́ficas podemos ver que esto es cierto. (El caso de un gas de Fermi
degenerado está justo en el borde con n = 1). Sin embargo, en cualquier caso el hecho de
que la capacidad calorı́fica desaparezca se da por efectos cuánticos descartando grados
de libertad. En cambio, en la pura fı́sica clásica, normalmente encontramos capacidades
calorı́ficas constantes tal como en el gas ideal clásico (2.10) o la ley de Dulong-Petit
(3.15). Ambos vioları́an la tercera ley. Por lo tanto la tercera ley es una admisión de
que el mundo de baja temperatura no es clásico, sino cuántico.

Si pensamos en estos sistemas de manera cuántica, es fácil ver por qué la tercera
ley funciona. Un sistema que viole la tercera ley tendrı́a un muy grande – de hecho,
extensivo – número de estados base. Pero las degeneraciones grandes no se dan natu-
ralmente en la mecánica cuántica. Adicionalmente, incluso si ajustamos los parámetros
del hamiltoniano para tener muchos estados base, cualquier perturbación canceları́a la
degeneración, introduciendo discrepancias en la energı́a de los sistemas. Desde esta per-
spectiva, la tercera ley es una simple consecuencia de las propiedades de los problemas
de eigenvalores de las matrices grandes.

– 138 –
5. Transiciones de Fase
Una transición de fase es un cambio abrupto discontinuo en las propiedades de un
sistema. Ya hemos visto un ejemplo de una transición de fase en la condensación de
Bose-Einstein. En ese caso tuvimos que buscar detalladamente para ver la discon-
tinuidad: se estaba escondiendo en la derivada de la capacidad calorı́fica. En otras
transiciones de fase — muchas de las cuales ya son familiares — la discontinuidad es
más clara. Algunos ejemplos incluyen vapor que se condensa y se transforma en agua,
y esta se congela y se transforma en hielo.

En esta sección exploraremos a detalle un par de transiciones de fase y extraeremos


lecciones que son comunes para todas las transiciones de fase.

5.1 Transición de Lı́quido a Gas


Recordemos nuestra derivación de la ecuación de estado de van der Waals para un gas
(2.31) en la Sección 2.5. Podemos escribir esta ecuación como
kB T a
p= − 2 (5.1)
v−b v
donde v = V /N es el volumen por partı́cula. En la literatura también se ve esta
ecuación escrita en términos de densidad de partı́culas ρ = 1/v.

En la derecha fijamos T a diferentes p


valores y dibujamos la gráfica p contra V dada
por la ecuación de van der Waals. Estas cur-
vas son isotermas — lı́neas de temperatura T>Tc
constante. Como podemos ver en el diagrama, T=Tc
las isotermas toman tres valores diferentes de-
pendiendo del valor de T . La curva de arriba T<Tc v
muestra la isoterma para valores grandes de
T . Aquı́ podemos ignorar el término −a/v 2 . c b
(Recordemos que v no puede tomar valores Figura 34:
menores que b, lo que refleja el hecho de que
los átomos no pueden estar arbitrariamente cerca). El resultado es una función monótona
decreciente, que es esencialmente lo mismo que obtendrı́amos para un gas ideal. En
cambio, cuando T es lo suficientemente baja, el segundo término de (5.1) puede com-
petir con el primero. Básicamente, esto sucede cuando kB T ∼ a/v se da en la región
permitida v > b. Para estos valores de baja temperatura, la isoterma tiene una pertur-
bación.

– 139 –
A una temperatura intermedia, la perturbación se aplana tal que la curva de abajo
se ve como la de arriba. Esto sucede cuando el máximo y el mı́nimo se encuentran
para formar un punto de inflexión. Matemáticamente, buscamos una solución para
dp/dv = d2 p/dv 2 = 0. Es simple demostrar que estas dos ecuaciones solo tienen
solución en la temperatura crı́tica T = Tc tal que

8a
kB Tc = (5.2)
27b
Veamos a más detalle a la curva T < Tc . Para cierto rango de presiones, el sistema
puede tener tres diferentes opciones de volumen. Un tı́pico, pero exagerado, ejemplo
se muestra en la figura de abajo. ¿Qué está sucediendo? ¿Cómo debemos interpretar
el hecho de que el sistema aparenta vivir en tres densidades ρ = 1/v diferentes?

Primero veamos la solución de en medio. p


Esta tiene propiedades bastante extrañas. Pode- T<Tc
mos ver de la gráfica que el gradiente es posi-
tivo: dp/dv|T > 0. Esto significa que si apli-
camos una fuerza al contenedor para contraer el
gas, la presión disminuye. El gas no empuja de v
vuelta, simplemente lo evita. Pero si expandimos b
el gas, la presión incrementa y el gas empuja más
Figura 35:
fuerte. Ambas propiedades nos dicen que el gas
es inestable en ese estado. Si fuéramos capaces de crear semejante estado, no serı́a
por mucho tiempo ya que cualquier perturbación darı́a lugar a un rápido y explosivo
cambio en la densidad. Si queremos encontrar estados que tengamos más probabilidad
de encontrar, debemos analizar las otras dos soluciones.

La solución a la izquierda de la gráfica tiene una v ligeramente b. Pero, recordemos de


nuestra discusión de la Sección 2.5 que b es lo más cerca que los átomos pueden estar. Si
tenemos v ∼ b, entonces los átomos están colocados en alta densidad. Adicionalmente,
también podemos ver de la gráfica que |dp/dv| es muy grande para esta solución, lo que
significa que el estado es muy difı́cil de contraer: necesitamos añadir mucha presión
para cambiar por lo menos un poco el volumen. Tenemos un nombre para este estado:
es un lı́quido.

Nuestra derivación original de la ecuación de van der Waals era válida solo para
densidades mucho menores que las del estado lı́quido. Esto significa que no podemos
confiar en (5.1) para esta solución. A pesar de eso, es interesante que la ecuación
pueda predecir la existencia de los lı́quidos. Nuestro plan será entonces aceptar esta

– 140 –
consecuencia y explorar qué nos dice la ecuación de van der Waals para transiciones
de lı́quido a gas. Veremos que contiene información sobre muchas de las caracterı́sticas
cualitativas de una transición de fase.

La ultima de las tres soluciones es la de la derecha de la figura. Esta solución


tiene v ≫ b y un valor pequeño de |dp/dv|. Es el estado gaseoso. Nuestra meta es
comprender qué sucede entre el estado lı́quido y el gaseoso. Sabemos que la ingenua
solución de la ecuación de van der Waals de en medio es inestable. ¿A cambio de qué
la reemplazamos?

5.1.1 Equilibrio de fase


A lo largo de nuestra derivación de la ecuación de van der Waals en la Sección 2.5,
asumimos densidad fija para el sistema. Pero la presencia de dos soluciones — los
estados lı́quido y gaseoso — nos permiten considerar configuraciones más generales:
parte del sistema puede ser un lı́quido y otra parte puede ser gas.

¿Cómo sabremos si esto es cierto? Solo porque ambos estados puedan existir no
significa que pueden cohabitar. Puede ser que uno sea más probable que otro. Ya
hemos visto en la Sección 1 que algunas condiciones deben ser satisfechas para que
dos sistemas existan en equilibrio. Que dos dos temas tengan la misma presión y
temperatura garantiza respectivamente equilibrio mecánico y termal. Pero ambos tipos
de equilibrio ya eran garantizados para nuestras dos soluciones de lı́quido y gas: las dos
soluciones se encuentran en la mismo isoterma y en el mismo valor de p. Nos queda
solamente el requisito sobre el intercambio de partı́culas entre los sistemas. Este es el
requisito del equilibrio quı́mico,

µlı́quido = µgas (5.3)

Dada la relación (4.22) entre el potencial quı́mico y la energı́a de Gibbs, esto se


expresa comúnmente como

gliquido = ggas (5.4)

donde g = G/N es la energı́a de Gibbs por partı́cula.

Nótese que todas las condiciones de equilibrio involucran solamente cantidades in-
tensivas: p, T y µ. Esto significa que si tenemos alguna situación donde un lı́quido y
un gas estén en equilibrio, podremos tener cualquier número Nliquido de átomos en el
estado lı́quido y cualquiera Ngas en el estado gaseoso. ¿Cómo nos podemos asegurar de
que se satisfaga el equilibrio quı́mico (5.3)?

– 141 –
Construcción de Maxwell
Queremos resolver µlı́quido = µgas . Pensaremos en el potencial quı́mico como una función
de p y T : µ = µ(p, T ). Importante: ¡no asumiremos µ(p, T ) tiene un solo valor ya que
ello serı́a asumir el resultado que intentamos probar! En su lugar, demostraremos que
si fijamos T , la condición (5.3) solo se puede resolver para un valor muy particular de
p. Para ver esto, comencemos en el estado lı́quido a un valor fijo de p y T y avancemos
a lo largo de la isoterma. Un cambio infinitesimal en el potencial quı́mico es

∂µ
dµ = dp
∂p T

No obstante, podemos obtener una expresión para ∂µ/∂p recordando que los argumen-
tos que involucran variables extensivas e intensivas nos dicen que el potencial quı́mico
es proporcional a la energı́a libre de Gibbs: G(p, T, N ) = µ(p, T )N (4.22). Viendo
nuevamente la variación de la energı́a de Gibbs (4.21) sabemos que

∂G ∂µ
= N =V (5.5)
∂p N,T ∂p T

Integrando a lo largo de la isoterma entonces nos dice p


el potencial quı́mico de cualquier punto de la curva, T<Tc
Z p ′
′ V (p , T )
µ(p, T ) = µlı́quido + dp
plı́quido N
v
Cuando llegamos al estado gaseoso a la misma presión b
p = plı́quido a la que empezamos, la condición de equi-
Figura 36:
librio es µ = µlı́quido . Lo que significa que la integral
tiene que desvanecerse. Gráficamente esto es muy
sencillo de describir: las dos áreas sombreadas en la gráfica deben tener la misma área.
Esta condición, conocida como la construcción de Maxwell, nos dice la presión a la que
el gas y el lı́quido pueden coexistir.

Debo confesar que hay algo un poco sospechoso sobre la construcción de Maxwell. Ya
hemos argumentado que parte de la isoterma con dp/dv > 0 no es estable ni fı́sicamente
real. Tuvimos que recorrer el camino de la curva para derivar este resultad, pero hay
maneras más rigurosas de llegar a esa conclusión.

Para cada isoterma podemos determinar la presión para la cuál los estados lı́quido y
gaseoso están en equilibrio. Esto nos da la curva de coexistencia que se muestra por la
lı́nea punteada en la Figura 37. Dentro de esta región, el gas y el lı́quido pueden existir a

– 142 –
la misma temperatura y presión, pero nada nos puede decir qué tanto de cada cantidad:
los átomos puede moverse fácilmente del estado lı́quido al gaseoso. Esto significa que,
mientras que la densidad de gas y de lı́quido son fijas, la densidad promedio del sistema
no lo es. Puede variar entre la densidad del gas y y la densidad del lı́quido simplemente
cambiando la cantidad de lı́quido. La ventaja de este argumento es que dentro de las
curvas de coexistencia las isotermas son lı́neas rectas, reflejando el hecho de que la
densidad puede tomar cualquier valor. Esto se muestra en la gráfica de la derecha en
la Figura 37.

p p

T=Tc T=Tc

v v

Figura 37: La curva de coexistencia en rojo resulta en regiones de presión constante que
consisten de una mezcla armónica de vapor y lı́quido.

Para ilustrar la fı́sica de esta situación, suponga que nos encon- 11 01 01 01 01 01 01


00
01
tramos a densidad fija ρ = 1/v y procedemos a enfriar el sistema 01 01 01 0101 01
11
00 01
1111111111111111111
0000000000000000000
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
desde una temperatura alta hasta T < Tc en algún punto de la curva 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
de existencia tal que ahora estamos en una de las lı́neas rectas. En 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
este caso el sistema no es completamente lı́quido ni completamente 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
gas, sino que se separa en un gas con densidad 1/vgas , y un lı́quido
con densidad 1/vlı́quido tal que la densidad promedio se mantiene en Figura 38:
1/v. El sistema sufre una separación de fase. La configuración de
menor energı́a tı́picamente es una sola de lı́quido y una sola de gas porque la mezcla
de ambas requiere energı́a. (En la Sección 5.5 derivaremos una expresión para esta
energı́a). El resultado final se muestra a la derecha. En la presencia de gravedad, el
lı́quido de alta densidad se hunde.

– 143 –
Estados Metaestables
Hemos entendido qué reemplaza la región inestable del di-
agrama de fase de van der Waals, pero parece que hemos p
eliminado más estados de lo anticipado: partes de la isoterma
de van der Waals que tenı́an dp/dv < 0 se contienen en
la región de coexistencia y son reemplazadas por lı́neas
rectas de presión. Esta es la región del diagrama de fase
p-V que se contiene entra las dos lı́neas punteadas de la
v
figura en la derecha. La lı́nea punteada más grande es
la curva de coexistencia. La curva punteada encerrada se
Figura 39:
construye para pasar por los puntos estacionarios de las
isotermas de van der Waals. Se le llama la curva espinodal.

Los estados de van der Waals quese encuentran entre la curva espinodal y la curva
de coexistencia son buenos estados, pero son metaestables. Es posible mostrar que sus
energı́as de Gibbs son mayores que las del equilibrio lı́quido-gas a mismas p y T . Sin
embargo, si comprimimos lentamente el gas podemos impulsar el sistema hacia este
estado. Se le conoce como vapor sobreenfriado. Es muy delicado, cualquier pequeña
perturbación causará que alguna cantidad del gas se condense a lı́quido. De manera
similar, expandiendo un lı́quido más allá de la curva de coexistencia resulta en un
lı́quido sobrecalentado metaestable.

5.1.2 La Ecuación de Clausius-Clapeyron


También podemos dibujar el diagrama de fase lı́quido-gas p critical point
sobre el plano p − T . Aquı́, la región de coexistencia es
solo una lı́nea: si tenemos una fase de gas e incremen- liquid
tamos un poco la presión a una T < Tc fija, pasamos
inmediatamente a la fase lı́quida. Esto aparece como una
gas
discontinuidad en el volumen. Estas discontinuidades son T
señales de una transición de fase. El resultado final se
Tc
muestra en la figura de la derecha; la lı́nea gruesa sólida
marca la presencia de una transición de fase. Figura 40:

En cualquier lado de la lı́nea, todas las partı́culas están en la fase o gaseosa, o lı́quida.
Sabemos por (5.4) que las energı́as de Gibbs (por partı́cula) de estos dos estados es
igual,

glı́quido = ggas

– 144 –
Por lo que G es continua mientras nos movemos sobre la lı́nea de transiciones de fase.
Suponga que nos movemos a lo largo de esta lı́nea, ¿cómo cambia g? Podemos calcular
esto fácilmente usando (4.21),

dGlı́quido = −Slı́quido dT + Vlı́quido dp ⇒ dglı́quido = −slı́quido dT + vlı́quido dp

donde, ası́ como g = G/N y v = V /N , la densidad de entropı́a es s = S/N . Igualando


esto a la energı́a libre en la fase gaseosa tenemos

dglı́quido = −slı́quido dT + vlı́quido dp = dggas = −sgas dT + vgas dp

Esto puede ser reacomodado para darnos una buena expresión para la pendiente de la
lı́nea de transiciones de fase en el plano p − T ,
dp sgas − slı́quido
=
dT vgas − vlı́quido

Normalmente definimos el calor latente

L = T (sgas − slı́quido )

Esta es la energı́a liberada por partı́cula durante la transición de fase. Vemos que la
pendiente de la lı́nea en el plano p − T es determinada por la razón de calor latente
liberado en la transición de fase y la discontinuidad del volumen. El resultado se conoce
como la ecuación de Clausius-Clapeyron.
dp L
= (5.6)
dT T (vgas − vlı́quido )

Gracias a Ehrenfest originalmente, tenemos una clasificación para transiciones de fase.


Cuando la enésima derivada de un potencial termodinámico (usualmente F o G) es
discontinua, se dice que se tiene una transición de fase de enésimo orden. En práctica,
casi siempre lidiamos con transiciones de primero, segundo y (muy raramente) tercer
orden. La transición lı́quido-gas libera calor latente, lo que significa que S = −∂F/∂T
es discontinua. De manera alternativa, podemos decir que V = ∂G/∂p es descontinua.
De cualquier forma, es una transición de fase de primer orden. La ecuación de Clausius-
Clapeyron (5.6) aplica para cualquier transición de primer orden.

Mientras T → Tc , la discontinuidad disminuye y Slı́quido → Sgas . En el punto crı́tico


T = Tc , tenemos una transición de segundo orden. Después del punto crı́tico no hay
distinción clara entre la fase gaseosa y la fase lı́quida.

– 145 –
Para la mayorı́a de los materiales simples, el dia- p
grama de fase anterior es parte de un diagrama de fase
más grande que incluye sólidos a menores temperaturas o solid
mayores presiones. Una versión genérica de uno de estos liquid
diagramas se muestra en la derecha. La ecuación de van der
Waals no incluye la fı́sica de la solidificación y solamente
gas T
incluye la lı́nea lı́quido-gas.
Tc

Figura 41:
Una Solución Aproximada para la Ecuación de Clausius-
Clapeyron
Podemos resolver la ecuación de Clausius-Clapeyron al hacer las siguientes suposiciones:
• El calor latente L es constante.

• vgas ≫ vlı́quido , entonces vgas − vlı́quido ≈ vgas . Para el agua, este es un error menor
a 0.1%

• A pesar de que derivamos la transición de fase utilizando la ecuación de van der


Waals, ahora que tenemos la ecuación (5.6), pretenderemos que el gas obedece la
ley de gas ideal pv = kB T .
Dadas estas suposiciones, es simple resolver (5.6). Se reduce a
dp Lp
= ⇒ p = p0 e−L/kB T
dT kB T 2
5.1.3 El Punto Crı́tico
Anteriormente calculamos la temperatura crı́tica (5.2) buscando soluciones para las
ecuaciones ∂p/∂v = ∂ 2 p/∂v 2 = 0. Sin embargo, hay una manera un poco más elegante
de encontrar el punto crı́tico que también nos da pc y vc . Reorganizando la ecuación
de van der Waals (5.1) para obtener una cúbica tenemos
pv 3 − (pb + kB T )v 2 + av − ab = 0
Para T < Tc , esta ecuación tiene tres raı́ces reales. Para T > Tc solo hay una. Pre-
cisamente en T = Tc , las tres raı́ces deben coincidir (antes de que dos se pasen a plano
complejo). En el punto crı́tico, esta curva puede ser escrita como
pc (v − vc )3 = 0
Si comparamos los coeficientes obtenemos sus valores en los puntos crı́ticos,
8a a
kB Tc = , vc = 3b , pc = (5.7)
27b 27b2

– 146 –
La Ley de los Estados Correspondientes
Es posible invertir las relaciones (5.7) para expresar los parámetros a y b en términos
de valores crı́ticos, los cuales podremos sustituir de nuevo en la ecuación de van der
Waals. Para esto, definimos las variables reducidas
T v p
T̄ = , v̄ = p̄ =
Tc vc pc

La ventaja de trabajar con T̄ , v̄ y p̄ es que nos permite escribir la ecuación de van der
Waals (5.1) en una forma universal para todos los gases, usualmente conocida como la
ley de estados correspondientes

8 T̄ 3
p̄ = − 2
3 v̄ − 1/3 v̄
Adicionalmente, debido a que las tres variables Tc , pc y vc al punto crı́tico están expre-
sadas en términos de solamente las dos variables a y b (5.7), podemos construir una
combinación de ellas que sea independiente de a y b y por lo tanto aplicable para todos
los gases. Este es el factor universal de compresibilidad,
pc vc 3
= = 0.375 (5.8)
kB Tc 8

Figura 42: La curva de coexistencia para gases con valores mostrados para N e, Ar, Kr,
Xe, N2 , O2 , CO y CH4 .

Comparado con los gases reales, este número es ligeramente alto. Los valores van
aproximadamente desde 0.28 a 0.3. Pero no debemos desmotivarnos por esto; después
de todo, sabı́amos desde el principio que la ecuación de van der Waals no serı́a muy

– 147 –
precisa en el régimen de los lı́quidos. Adicionalmente, el hecho de que los gases tengan
un punto crı́tico (definido por las tres variables Tc , pc y vc ) garantiza que habrá una
relación similar para cualquier ecuación de estado con solo dos parámetros (como a y b)
pero que probablemente falları́a para ecuaciones de estado con más de dos parámetros.

Por más sospechosa que sea su base teórica, la ley de correspondencia de estados es
la primera sugerencia de que algo increı́ble sucede si describimos un gas en términos
de sus variables reducidas. Más importante es el hecho de que hay mucha evidencia
experimental para apoyar esto. La Figura 42 muestra la gráfica de Guggenheim, con-
struida en 1945. La curva de coexistencia para 8 gases diferentes se muestra en sus
variables reducidas: T̄ a lo largo del eje vertical; ρ̄ = 1/v̄ sobre el horizontal. Los
gases varı́an en complejidad, desde el gas monoatómico simple N e hasta la molécula
CH4 . Como se muestra, la curva de coexistencia para todos los gases es básicamente
la misma, con su composición quı́mica siendo mayormente independiente. Claramente
hay algo interesante aquı́ pero, ¿cómo podemos entenderlo?

Exponentes Crı́ticos
Nos concentraremos en la fı́sica cercana al punto crı́tico. No es inmediatamente ob-
vio cuáles son las preguntas correctas. Resulta que las respuestas más interesantes
corresponden a las preguntas sobre cómo las cantidades cambian a medida que nos
acercamos al punto crı́tico. Hay varias maneras de contemplar esto debido a que hay
muchas cantidades interesantes y, para cada una, podemos acercarnos al punto crı́tico
desde perspectivas diferentes. Veremos a continuación el comportamiento de tres can-
tidades para desarrollar intuición de lo que sucede.

Primero, podemos preguntarnos qué pasa con la diferencia de densidades (inversas)


vgas − vlı́quido al acercarnos al punto crı́tico a lo largo de la curva de coexistencia. Para
T < Tc , o de manera equivalente, T̄ < 1, la ecuación reducida de van der Waals (5.8)
tiene dos soluciones estables,

8T̄ 3 8T̄ 3
p̄ = − 2
= − 2
3v̄lı́quido − 1 v̄lı́quido 3v̄gas − 1 v̄gas

Al despejar T̄ tenemos

(3v̄lı́quido − 1)(3v̄gas − 1)(v̄lı́quido + v̄gas )


T̄ = 2 v̄ 2
8v̄gas lı́quido

Notemos que a medida que nos acercamos al punto crı́tico, v̄gas , v̄lı́quido → 1 y la ecuación
anterior nos dice que T̄ → 1, tal como esperábamos. Podemos ver exactamente cómo

– 148 –
nos acercamos a T̄ = 1 si expandimos el lado derecho de la ecuación para cuando
ϵ ≡ v̄gas − v̄lı́quido es muy pequeño. Para hacer esto, es conveniente notar que la ecuación
es simétrica en v̄gas y v̄lı́quido , por lo que en proximidad al punto crı́tico podemos escribir
v̄gas = 1 + ϵ/2 y v̄lı́quido = 1 − ϵ/2. Substituyendo esto en la ecuación anterior y
conservando únicamente el término de mayor orden, tenemos que
1
T̄ ≈ 1 − (v̄gas − v̄lı́quido )2
16
O, reorganizando, a medida que nos acercamos a Tc sobre la curva de coexistencia,

vgas − vlı́quido ∼ (Tc − T )1/2 (5.9)

Esta es la respuesta a nuestra primera pregunta.

La segunda parte de nuestra pregunta es: ¿cómo cambia el volumen con la presión
a medida que nos movemos sobre la isoterma crı́tica? Resulta que podemos responder
esta pregunta sin hacer mucho. Notemos que en T = Tc , hay solo una presión para
cada volumen p(v, Tc ). Pero sabemos que ∂p/∂v = ∂ 2 p/∂v 2 = 0 en el punto crı́tico.
Entonces una expansión de Taylor al rededor del punto crı́tico debe comenzar con el
término cúbico

p − pc ∼ (v − vc )3 (5.10)

Esta es la respuesta a nuestra segunda pregunta.

Nuestra tercera y final pregunta es sobre la compresibilidad, definida como

1 ∂v
κ=− (5.11)
v ∂p T

Debemos comprender como κ cambia cuando T → Tc desde arriba. De hecho, ya hemos


tratado con la compresibilidad: era la caracterı́stica que al principio nos puso de nervios
con la ecuación de van der Waals dado que κ es negativa en una región inestable. Ya
sabemos que en el punto crı́tico ∂p/∂v|Tc = 0, por lo que al expandir para temperaturas
cercanas a Tc esperamos

∂p
= −a(T − Tc ) + . . .
∂v T ;v=vc

Esto nos dice que la compresibilidad diverge en el punto crı́tico, creciendo tal que

κ ∼ (T − Tc )−1 (5.12)

– 149 –
Ahora tenemos tres respuestas para nuestras tres preguntas: (5.9), (5.10) y (5.12). ¿Son
correctas? Y con esto me refiero a: ¿concuerdan con experimentos? Recordemos que
no estamos seguros de que podamos confiar en la ecuación de van der Waals en el punto
crı́tico. Sin embargo, también hay razones para tener un poco de confianza. Notemos
que para calcular (5.10) y (5.12), no eran necesarios detalles sobre la ecuación de van
der Waals. Simplemente necesitábamos asumir la existencia de un punto crı́tico y una
expansión analı́tica de Taylor de varias cantidades en la región. Dado que las respuestas
surgen de bases tan generales, podemos esperar que brinden respuestas correctas para
un gas en la región del punto crı́tico a pesar de que sabemos que nuestras aproximaciones
de la ecuación de van der Waals no eran válidas ahı́. Afortunadamente, ese no es el
caso: ¡la fı́sica es mucho más interesante!

Los resultados experimentales para un gas en la región del punto crı́tico comparten
una caracterı́stica con lo dicho en nuestra discusión anterior: son completamente inde-
pendientes de la constitución quı́mica del gas. Sin embargo, el crecimiento que calcu-
lamos con la ecuación de van der Waals no es completamente preciso. Los resultados
correctos van de la siguiente manera. A medida que nos acercamos al punto crı́tico
sobre la curva de coexistencia, las densidades crecen de manera que

vgas − vlı́quido ∼ (Tc − T )β with β ≈ 0.32

(Nótese que el exponente β no tiene nada que ver con el inverso de la temperatura.
Simplemente nos acercamos al final del curso y ya nos quedamos sin letras. Además,
β es el nombre canónico para este exponente). De manera que nos acercamos sobre la
isoterma,

p − pc ∼ (v − vc )δ para δ ≈ 4.8

Finalmente, a medida que nos acercamos a Tc desde arriba, la compresibilidad crece


tal que

κ ∼ (T − Tc )−γ para γ ≈ 1.2

Las cantidades β, γ y δ son ejemplos de exponentes crı́ticos. Veremos más sobre ellos
a continuación. La ecuación de van der Waals proporciona solo una cruda primera
aproximación a los exponentes crı́ticos.

Fluctuaciones
Hemos visto que la ecuación de van der Waals no funcionó nada mal para capturar la
dinámica de un gas en interacción. Obtiene el comportamiento cualitativo correcto,

– 150 –
pero falla en pruebas cuantitativas precisas. Entonces, ¿qué salió mal? Mencionamos
durante la derivación de la ecuación de van der Waals que hicimos ciertas aproxima-
ciones que solo son válidas a bajas densidades. Es por esto que podrı́a no ser sorpren-
dente que falle al obtener los números correctos cerca del punto crı́tico v = 3b. Pero
hay de hecho una razón más profunda por la que la ecuación de van der Waals falla:
fluctuaciones.

Esto es más simple de ver en la colectividad


√ macrocanónica. Recordemos que en la
Sección 1 discutimos que ∆N/N ∼ 1/ N , lo cual nos permitió trabajar felizmente en
la colectividad macrocanónica incluso cuando habı́amos fijado el número de partı́culas.
En el contexto de la transición lı́quido-gas, la fluctuación del número de partı́culas es
lo mismo que la fluctuación de densidad ρ = N/V . Revisemos el cálculo de ∆N cerca
del punto crı́tico. Utilizando (1.45) y (1.48), la función de partición macrocanónica se
puede escribir como log Z = βV p(T, µ), por lo que el número de partı́culas promedio
(1.42) es

∂p
⟨N ⟩ = V
∂µ T,V

Ya tenemos una expresión para la varianza en el número de partı́culas en (1.43),

1 ∂⟨N ⟩
∆N 2 =
β ∂µ T,V

Dividiendo estas dos expresiones, tenemos

∆N 2 1 ∂⟨N ⟩ ∂µ 1 ∂⟨N ⟩
= =
N V β ∂µ T,V ∂p T,V V β ∂p T,V

Pero podemos reescribir esta expresión usando la relación general entre derivadas par-
ciales ∂x/∂y|z ∂y/∂z|x ∂z/∂x|y = −1. Entonces tenemos

∆N 2 1 ∂⟨N ⟩ 1 ∂V
=−
N β ∂V p,T V ∂p N,T

Esta expresión final relaciona las fluctuaciones en el número de partı́culas con la com-
presibilidad (5.11). Pero la compresibilidad es divergente en el punto crı́tico y esto
significa que hay fluctuaciones grandes en la densidad del fluido en este punto. El
resultado es que cualquier ecuación de estado de simple, como la ecuación de van der
Waals, que funciona solamente con el volumen, presión y densidad promedio pasará
por alto este detalle clave de la fı́sica.

– 151 –
Entender cómo tomar en cuenta estas fluctuaciones es el área de los fenómenos
crı́ticos. Tiene conexiones cercanas con el grupo de renormalización y teorı́a conforme
de campos que también emerge en la fı́sica de partı́culas y la teorı́a de cuerdas. Conocer-
emos algunas de estas ideas en el curso del siguiente año Teorı́a Estadı́stica de Campos.
Aquı́ nos concentraremos en una transición de fase diferente, lo cual nos permitirá re-
saltar algunas de las ideas clave.

5.2 El Modelo de Ising


El modelo de Ising es una de las cúspides de la fı́sica moderna; un sistema simple que
exhibe un comportamiento no trivial e interesante.

El modelo de Ising consiste de N sitios en una red d-dimensional. En cada sitio de la


red vive un espı́n cuántico que puede estar en uno de dos estados: espı́n arriba o espı́n
abajo. Al eigenvalor del espı́n en el i-ésimo sitio de la red lo llamaremos si . Si el espı́n
es arriba, si = +1; si el espı́n es abajo, si = −1.

Los espines están en un campo magnético que dota de una ventaja de energı́a a
aquellos que apuntan hacia arriba,
N
X
EB = −B si
i=1

(Un comentario sobre la notación: B deberı́a de ser denotado correctamente como H.


Nos mantendremos con B para evitar confusión con el hamiltoniano. También hay
un factor del momento magnético que ha sido absorbido en la definición de B). El
sistema de red con energı́a EB es equivalente al sistema de dos estados que conocimos
al principio aprendiendo las técnicas de la mecánica estadı́stica en la Sección 1.2.3.
Sin embargo, el modelo de Ising contiene una complicación adicional que hace que el
sistema sea mucho más interesante: esta es una interacción entre espines vecinos. La
energı́a total del sistema es entonces,
X X
E = −J si sj − B si (5.13)
⟨ij⟩ i

La notación ⟨ij⟩ significa que sumamos sobre todos los pares de “vecinos más cercanos”
en la red. El número de tales pares depende en ambos la dimensión d y el tipo de red.
Denotaremos el número de vecinos cercanos como q. Por ejemplo, en d = 1 una red
tiene q = 2; en d = 2, una red cuadrada tiene q = 4. Una red cuadrada en d-dimensiones
tiene q = 2d.

– 152 –
Si J > 0, espines vecinos prefieren estar alineados (↑↑ ó ↓↓). En el contexto del
magnetismo, tal sistema se conoce como ferromagneto. Si J < 0, los espines buscan
quedar desalineados (↑↓). Esto es un antiferromagneto. A continuación, escogeremos
J > 0, aunque para el nivel de discusión necesario para este curso, las diferencias no
son muy significativas.

Trabajaremos en la colectividad canónica e introduciremos la función de partición


X
Z= e−βE[si ] (5.14)
{si }

Mientras que el efecto de ambos J > 0 y B ̸= 0 es hacer preferible en términos de


energı́a que los espines se alineen, el efecto de la temperatura hará que los espines sean
aleatorios, con la entropı́a ganando sobre la energı́a. Nuestro interés está sobre el espı́n
promedio, o magnetización promedio,
1 X 1 ∂log Z
m= ⟨si ⟩ = (5.15)
N i N β ∂B
El Modelo de Ising como un Gas en Red
Antes de desarrollar las técnicas para calcular la función de partición (5.14), vale la
pena mencionar que podemos utilizar palabras ligeramente diferentes alrededor de la
matemática del modelo de Ising. No tiene por qué ser interpretado como un sistema
de espines; también se puede pensar como una descripción de un gas en red.

Para ver esto, consideremos la misma red d-dimensional que antes, pero ahora con
partı́culas dando vueltas entre sitios de la red. Estas partı́culas tienen núcleos duros,
por lo que no más de una puede existir en un único sitio de la red. Introducimos la
variable ni ∈ {0, 1} para especificar si un sitio de la red, llamado i, está vacı́o (ni = 0)
o lleno (ni = 1). Podemos también introducir una fuerza atractiva entre los átomos y
ofrecerles un premio energético si están en sitios vecinos. El hamiltoniano de tal gas en
red se da por
X X
E = −4J ni nj − µ ni
⟨ij⟩ i

donde µ es el potencial quı́mico que determina el número total de partı́culas. Pero este
hamiltoniano es trivialmente el mismo que el del Modelo de Ising (5.13) si identificamos
si = 2ni − 1 ∈ {−1, 1}
El potencial quı́mico µ en el gas de red juega el papel del campo magnético en el sistema
de espı́n mientras que la magnetización del sistema (5.15) mide la densidad promedio
de las partı́culas lejos del medio llenado.

– 153 –
5.2.1 Teorı́a de Campo Medio
Para redes generales, en dimensión arbitraria d, la suma (5.14) no se puede realizar.
Una solución exacta existe en d = 1 y, cuando B = 0, en d = 2. (La solución en
d = 2 se debe originalmente a Onsager y es ¡famosamente complicada! Soluciones más
sencillas usando técnicas modernas se han descubierto desde entonces).

Aquı́ desarrollamos un método aproximado para evaluar Z conocido como teorı́a de


campo medio. Escribimos las interacciones entre espines vecinos en términos de su
desviación del espı́n promedio m,

si sj = [(si − m) + m][(sj − m) + m]
= (si − m)(sj − m) + m(sj − m) + m(si − m) + m2

La aproximación de campo medio quiere decir que asumimos que las fluctuaciones de
los espines lejos del promedio son pequeñas, lo cual nos permite ignorar los primeros
términos arriba. Notemos que esto no es una declaración de que la varianza de un
espı́n individual es pequeña; esto nunca puede ser verdad porque si toma valores +1
o −1 ası́ que ⟨s2i ⟩ = 1 y la varianza ⟨(si − m)2 ⟩ siempre es grande. En su lugar, la
aproximación del campo medio es una declaración sobre las fluctuaciones entre espines
en sitios vecinos, ası́ que el primer término arriba puede ser ignorado cuando se suma
P
sobre ⟨ij⟩ . Podemos escribir la energı́a (5.13) como
X X
Emf = −J [m(si + sj ) − m2 ] − B si
⟨ij⟩ i
1 X
= JN qm2 − (Jqm + B) si (5.16)
2 i

donde el factor de N q/2 en el primer término es simplemente el número de pares de


P P
vecinos cercanos ⟨ij⟩ . El factor de 1/2 está ahı́ debido a que ⟨ij⟩ es una suma sobre
pares en lugar de una suma de sitios individuales. (Si le preocupa está fórmula, deberı́a
verificarla para una red cuadrada sencilla en d = 1 y d = 2 dimensiones). Un factor
similar en el segundo término canceló el factor de 2 debido a (si + sj ).

Vemos que la aproximación del campo medio ha eliminado las interacciones. El


modelo de Ising se reduce al sistema de dos estados que vimos antes en la Sección 1.
El resultado de las interacciones es que un espı́n dado siente el efecto promedio de sus
espines vecinos a través de una contribución al campo magnético efectivo,

Bef = B + Jqm

– 154 –
m
m
tanh tanh
m0

−m0

Figura 43: tanh(Jqmβ) para Jqβ < 1 Figura 44: tanh(Jqmβ) para Jqβ > 1

Una vez que hemos tomado en cuenta esta contribución adicional a Bef , cada espı́n
actúa de manera independiente y es fácil escribir la función de partición. Esta es
1 2 N
Z = e− 2 βJN qm e−βBef + eβBef
1 2
= e− 2 βJN qm 2N coshN βBef (5.17)

Sin embargo, aún no hemos terminado. Nuestro resultado para la función de par-
tición Z depende de Bef que a su vez depende en m que aún no conocemos. Pero,
podemos utilizar nuestra expresión de Z para determinar de manera autoconsistente la
magnetización (5.15). Encontramos que,

m = tanh(βB + βJqm) (5.18)

Ahora podemos resolver esta ecuación y encontrar la magnetización para varios valores
de T y B: m = m(T, B). Es sencillo ver la naturaleza de las soluciones utilizando
métodos gráficos.

B=0
Consideremos primero la situación con un campo magnético nulo, B = 0. Las figuras
de arriba muestran la gráfica lineal en m comparada con la función tanh. Dado que
tanh x ≈ x − 13 x3 + . . ., la pendiente de la gráfica cerca del origen se da por βJq. Esto
entonces determina la naturaleza de la solución.

• La primera gráfica muestra la situación para βJq < 1. La única solución es


m = 0. Esto significa que a altas temperaturas kB T > Jq, no hay magnetización
promedio del sistema. La entropı́a asociada con las fluctuaciones aleatorias de
la temperatura domina sobre el estado ordenado energéticamente preferido en el
cual los espines se alinean.

– 155 –
• La segunda gráfica muestra la situación para βJq > 1. Ahora hay tres soluciones:
m = ±m0 y m = 0. Resultará que la solución de en medio, m = 0, es inestable.
(Esta solución es completamente análoga a la solución inestable de la ecuación
de van der Waals. Veremos esto abajo cuando calculemos la energı́a libre). Para
las otras dos posibles soluciones, m = ±m0 , la magnetización es distinta de cero.
Aquı́ vemos como los efectos de las interacciones comienzan a dominar sobre la
temperatura. Notemos que en el lı́mite en el que se desvanece la temperatura,
β → ∞, m0 → 1. Esto quiere decir que todos los espines están apuntando en la
misma dirección (ya sea arriba o abajo) como se esperaba.

• La temperatura crı́tica separando estos dos casos es


kB Tc = Jq (5.19)

Puede que los resultados antes descritos sean sorprendentes. Basados en la intuición
de que las cosas en fı́sica siempre suceden de manera suave, uno podrı́a haber pensado
que la magnetización decaerı́a lentamente a cero conforme T → ∞. Pero esto no
sucede. En su lugar, la magnetización se apaga abruptamente en un valor finito de la
temperatura T = Tc , sin magnetización en absoluto para temperaturas altas. Este es
el comportamiento caracterı́stico de una transición de fase.

B ̸= 0
Para B ̸= 0, podemos resolver la ecuación de consistencia (5.18) de manera similar.
Existen varias diferencias clave con el caso B ̸= 0. Primeramente, no hay transición de
fase para un B fijo conforme variamos la temperatura T . En lugar de ello, para tem-
peraturas altas kB T ≫ Jq, la magnetización se aproxima suavemente a cero conforme
B
m→ as T → ∞
kB T
A temperaturas bajas, la magnetización es asintótica nuevamente al estado m → ±1, lo
cual minimiza la energı́a. Excepto que esta vez, no hay ambigüedad sobre si el sistema
escoge m = +1 o m = −1. Esto se determina totalmente por el signo del campo
magnético B.
De hecho, el comportamiento a bajas temperaturas requiere un poco más de expli-
cación. Para valores pequeños de B y T , hay nuevamente tres soluciones para (5.18).
Esto se tiene simplemente por continuidad: hay tres soluciones para T < Tc y B = 0
mostradas en la Figura 44 y estas deben de sobrevivir en una vecindad de B = 0.
Una de estas soluciones es nuevamente inestable. Sin embargo, de las dos restantes
solo una es estable: aquella con sgn(m) = sgn(B). La otra es meta-estable. Veremos
próximamente por qué este es el caso cuando discutamos la energı́a libre.

– 156 –
m m
+1 +1
B>0
T T

−1 −1 B<0

Figura 45: Magnetización con B = 0 y Figura 46: Magnetización en B ̸= 0.


la transición de fase.

El resultado neto de nuestra discusión se describe en las figuras de arriba. Cuando


B = 0 hay una transición de fase en T = Tc . Para T < Tc , el sistema puede encontrarse
en uno de dos estados magnetizados con m = ±m0 . En contraste, para B ̸= 0, no
hay transición de fase, pues podemos variar la temperatura y el sistema tendrá en todo
momento una magnetización preferida cuyo signo se determina el de B. Notemos, sin
embargo, que sı́ tenemos una transición de fase si fijamos la temperatura en T < Tc
y variamos B de negativo a positivo. Entonces la magnetización brinca de manera
discontinua de un valor negativo a uno positivo. Ya que la magnetización es una
primera derivada de la energı́a libre (5.15), esta es una transición de fase de primer
orden. En contraste, moviéndonos a lo largo del eje de temperatura en B = 0 resultado
en una transición de fase de segundo orden en T = Tc .

5.2.2 Exponentes Crı́ticos


Es interesante comparar la transición de fase del modelo de Ising con la transición de
fase lı́quido-gas. Ambas se esbozan en la Figura 47 arriba. En ambos casos, tenemos
una transición de fase de primer orden y una cantidad que brinca de manera discontinua
en T < Tc . En el caso del lı́quido-gas, es la densidad ρ = 1/v quien brinca conforme
cambiamos la presión; en el caso del modelo de Ising es la magnetización m quien brinca
conforme cambiamos el campo magnético. Además, en ambos casos la discontinuidad
aparece conforme nos aproximamos a T = Tc .

Podemos calcular los exponentes crı́ticos para el modelo de Ising. Para comparar con
nuestra discusión para el punto crı́tico del lı́quido-gas, calcularemos tres cantidades.
Primero, consideremos la magnetización en B = 0. Podemos preguntar cómo es que
esta magnetización disminuye conforme nos acercamos al punto crı́tico. Justo por
debajo de T = T − c, m es pequeño y podemos aplicarle a (5.18) una expansión de
Taylor para obtener
1
m ≈ βJqm − (βJqm)3 + . . .
3

– 157 –
p critical point
B
liquid

critical point
gas
T T
Tc Tc

Figura 47: Una comparación de la transición de fase para el sistema de lı́quido-gas y el


modelo de Ising.

Entonces la magnetización escala como

m0 ∼ ±(Tc − T )1/2 (5.20)

Esto se debe comparar con el resultado análogo en (5.9) de la ecuación de van der
Waals. Vemos que los valores de los exponentes son iguales en ambos casos. Notemos
que la derivada dm/dT se vuelve infinita conforme nos aproximamos al punto crı́tico.
De hecho, ya habı́amos anticipado esto cuando dibujamos la gráfica de la magnetización
en la Figura 45.

En segundo lugar, podemos encontrarnos en T = Tc y preguntar cómo la magneti-


zación cambia conforme nos acercamos a B = 0. Podemos obtener esto de (5.18). En
T = Tc tenemos βJq = 1 y la condición de consistencia se vuelve m = tanh(B/Jq +m).
Expandiendo para un B pequeño resulta en
 3
B 1 B B 1
m≈ +m− + m + ... ≈ + m − m3 + O(B 2 )
Jq 3 Jq Jq 3

Entonces encontramos que la magnetización escala como

m ∼ B 1/3 (5.21)

Notemos que esta potencia de 1/3 es nuevamente familiar a aquella de la transición


de lı́quido-gas (5.10) donde la ecuación de van der Waals resultó en vgas − vlı́quido ∼
(p − pc )1/3 .

Finalmente, podemos ver la susceptibilidad magnética χ, definida como

∂m
χ=N
∂B T

– 158 –
Esto es análogo a la compresibilidad κ del gas. Podemos preguntar cómo cambia χ
conforme nos acercamos → Tc desde arriba en B = 0. Derivamos (5.18) con respecto
de B para obtener
 
Nβ Jq
χ= 1+ χ
cosh2 βJqm N

Ahora evaluamos esto en B = 0. Ya que nos queremos aproximar T → Tc desde arriba,


también podemos fijar m = 0 desde la expresión anterior. Evaluando esto en B = 0
obtenemos la escala

χ= ∼ (T − Tc )−1 (5.22)
1 − Jqβ

Nuevamente, vemos el mismo exponente crı́tico que nos dio la ecuación de van der
Waals para el gas (5.12).

5.2.3 Validez de la Teorı́a del Campo Medio


El diagrama de fase y los exponentes crı́ticos de arriba fueron derivados usando la
aproximación del campo medio. Pero esto es una aproximación no justificada. Ası́
como para la ecuación de van der Waals, podemos preguntar: ¿Nuestros resultados son
correctos?

De hecho hay una versión del modelo de Ising para la cual la teorı́a del campo medio
es exacta: para la red de dimensión d = ∞. Eso ya no es fı́sica (incluso para un fı́sico
teórico de cuerdas). Por decirlo de una manera, la teorı́a del campo medio funciona
para d muy grande porque cada espı́n tiene un gran número de vecinos y efectivamente
ve algo cercano al espı́n promedio.

¿Qué hay de las dimensiones que sı́ nos interesan? La teorı́a del campo medio se
equivoca dramáticamente en d = 1. En ese caso, no ocurre ninguna transición de fase.
Derivaremos este resultado más abajo cuando describamos brevemente la solución ex-
acta para el modelo de Ising con d = 1. Esta es una lección general: en dimensiones
bajas, ambas las fluctuaciones termales y las cuánticas son más importantes e invari-
ablemente evitan que el sistema genere transiciones de fase ordenadas.

En dimensiones superiores, d ≥ 2, las caracterı́sticas puras del diagrama de fase,


incluyendo la existencia de una transición de fase, dadas por la teorı́a del campo medio
son esencialmente correctas. De hecho, la mera existencia de una transición de fase
ya es digna de algunos comentarios. La caracterı́stica definitiva de una transición de
fase es su comportamiento que brinca de manera discontinua conforme variamos β

– 159 –
o B. Matemáticamente, las funciones deben de ser no-analı́ticas. Aún ası́ todas las
propiedades de la teorı́a pueden ser extraı́das de la función de partición Z que es una
suma de funciones analı́ticas y suaves, (5.14). ¿Cómo podemos obtener una transición
de fase? El detalle es que Z es necesariamente analı́tica solo si la suma es finita. Pero
no hay tal garantı́a cuando el número de sitios de la red N → ∞. Llegamos a una
conclusión similar a aquella del condensado de Bose-Einstein: las transiciones de fase
solo suceden estrictamente en el lı́mite termodinámico. No hay transición de fase en
sistemas finitos.

¿Qué hay de los exponentes crı́ticos que calculamos en (5.20), (5.21) y (5.22)? Resulta
que estos son correctos para el modelo de Ising definido en d ≥ 4. (Esbozaremos
brevemente por qué esto es verdad al final de este capı́tulo). Pero para d = 2 y
d = 3, los exponentes crı́ticos predichos por la teorı́a del campo medio son solo primeras
aproximaciones a las respuestas reales.

Para d = 2, la solución exacta (que sobrepasa substancialmente este curso) da que


los exponentes crı́ticos son
1
m0 ∼ (Tc − T )β con β=
8
m ∼ B 1/δ con δ = 15
−γ 7
χ ∼ (T − Tc ) con γ=
4
La sorpresa más grande es en d = 3 dimensiones. Aquı́ los exponentes crı́ticos no
se conocen de manera exacta. Sin embargo, ha habido una gran cantidad de trabajo
numérico para determinarlos. Se dan por

β ≈ 0.32 , δ ≈ 4.8 , γ ≈ 1.2

Pero estos son exactamente los exponentes crı́ticos que se ven en la transición de fase
del lı́quido-gas. ¡Eso es increı́ble! Vimos antes que el enfoque del campo medio para el
modelo de Ising da los mismos exponentes crı́ticos que la ecuación de van der Waals.
Pero son incorrectos. ¡Y lo son en la misma y complicada manera! ¿Por qué diantres
un sistema de espines en una red tendrı́a algo que ver con una transición de fase entre
lı́quido y gas? Es como si toda la memoria de la fı́sica microscópica — el tipo de
partı́culas, la naturaleza de las interacciones — se haya perdido en el punto crı́tico. Y
eso es exactamente lo que sucede.

Lo que estamos viendo es evidencia de una universalidad. Hay una única teorı́a que
describe la fı́sica en el punto crı́tico de la transición lı́quido-gas, el modelo de Ising 3d

– 160 –
y muchos otros sistemas. ¡Este es el sueño de un fı́sico teórico! Pasamos gran parte
del tiempo tratando de deshacernos de los detalles complicados de un sistema para
enfocarnos en los elegantes y esenciales. Pero, ¡en un punto crı́tico la naturaleza lo
hace por nosotros! A pesar de que los puntos crı́ticos en dos dimensiones se entienden
bien, hay aún mucho que no se sabe sobre puntos crı́ticos en tres dimensiones. Esto,
no obstante, es una historia que deberá esperar para otro dı́a.

5.3 Algunos Resultados Exactos del Modelo de Ising

Esta subsección es un pequeño desvı́o de nuestro interés principal. En subsecciones


subsecuentes, desarrollaremos la idea de la teorı́a de campo medio. Pero primero debe-
mos pausar para describir algunos resultados exactos para el modelo de Ising utilizando
técnicas que no se basan en la aproximación del campo medio. Uno de los muchos re-
sultados que derivamos tiene implicaciones amplias para sistemas más allá del modelo
de Ising.

Como mencionamos antes, hay una solución exacta para el modelo de Ising con-
siderando d = 1 y, cuando B = 0, para d = 2. Aquı́ describiremos la solución para
d = 1 pero no la solución completa para d = 2. Sin embargo, derivaremos un número
de resultados para el modelo de Ising con d = 2 que, a pesar de no ser la solución
completa, proveen perspectivas importantes para la fı́sica.

5.3.1 El Modelo de Ising en d = 1 dimensiones


Comenzamos con la cadena de Ising, el modelo de Ising en una lı́nea unidimensional.
Aquı́ veremos que la aproximación del campo medio falla miserablemente, dando resul-
tados cualitativamente incorrectos: los resultados exactos muestran que no hay tran-
sición de fase en la cadena de Ising.

La energı́a del sistema (5.13) puede ser reescrita trivialmente como

N N
X BX
E = −J si si+1 − (si + si+1 )
i=1
2 i=1

Impondremos condiciones a la frontera periódicas, de modo que los espines vivan en


una red circular con sN +1 ≡ s1 . La función de partición es entonces

N  
X X Y βB
Z= ... exp βJsi si+1 + (si + si+1 ) (5.23)
s1 =±1 sN =±1 i=1
2

– 161 –
La observación crucial que nos permite resolver el problema es que esta función de
partición se puede escribir como un producto de matrices. Adoptamos la notación de
mecánica cuántica y definimos la matriz de 2 × 2,
 
βB
⟨si |T |si+1 ⟩ ≡ exp βJsi si+1 + (si + si+1 ) (5.24)
2
La fila de la matriz se especifica por el valor de si = ±1 y la columna por si+1 = ±1. T
se conoce como la matriz de transferencia y, en notación más convencional, se da por
!
eβJ+βB e−βJ
T =
e−βJ eβJ−βB
P Q
La sumas sobre los espines si y el producto sobre los sitios de la red i en (5.23)
simplemente nos dicen que multipliquemos las matrices definidas en (5.24) y entonces
la función de partición se vuelve
Z = Tr (⟨s1 |T |s2 ⟩⟨s2 |T |s3 ⟩ . . . ⟨sN |T |s1 ⟩) = Tr T N (5.25)
donde la traza emerge porque hemos impuesto condiciones a la frontera periódicas. Para
completar la historia solo necesitamos calcular los eigenvalores de T para determinar
la función de partición. Un cálculo rápido muestra que los dos eigenvalores de T son
q
λ± = e cosh βB ± e2βJ cosh2 βB − 2 sinh 2βJ
βJ
(5.26)
donde, claramente, λ− < λ+ . Entonces la función de partición es
λN
 

Z = λ+ + λ− = λ+ 1 + N ≈ λN
N N N
+ (5.27)
λ+
donde, en el último paso, hemos usado el simple hecho de que si λ+ es el eigenvalor
más grande entonces λN N
− /λ+ ≈ 0 para N muy grande.

La función de partición Z contiene muchas cantidades de interés. En particular,


podemos usarla para calcular la magnetización como función de la temperatura cuando
B = 0. Esto, recordemos, es la cantidad que se predecı́a que sufrirı́a una transición de
fase en la aproximación de campo medio, yendo abruptamente de cero a algún valor
crı́tico de la temperatura. En el modelo de Ising con d = 1, la magnetización se da por
1 ∂ log Z 1 ∂λ+
m= = =0
N β ∂B B=0 λ+ β ∂B B=0

Vemos que la fı́sica real para d = 1 es muy diferente de aquella sugerida por la aproxi-
mación del campo medio. Cuando B = 0, ¡no hay magnetización! Mientras el término
J en la energı́a impulsa a los espines a alinearse, esto es completamente contrarrestado
por fluctuaciones termales para cualquier valor de la temperatura.

– 162 –
Hay una lección general en este cálculo: las fluctuaciones termales siempre dominan
en sistemas unidimensionales. Nunca exhibirán fases ordenadas y, por este motivo,
nunca exhiben transiciones de fase. La aproximación de campo medio es mala en una
dimensión.

5.3.2 Modelo de Ising 2d: Bajas Temperaturas y Gotas de Peirels


Veamos ahora el modelo de Ising en d = 2 dimensiones. Trabajaremos en una red
cuadrada y fijaremos B = 0. En lugar de intentar resolver el modelo de manera exacta,
nos pondremos metas más modestas. Calcularemos la función de partición en dos
lı́mites diferentes: alta temperatura y baja temperatura. Comenzaremos aquı́ con la
expansión de baja temperatura.

La función de partición se da por la suma sobre todos los estados, ponderada por
−βE
e . A bajas temperaturas, esto siempre es dominado por los estados más bajos. Para
el modelo de Ising, tenemos
 
X X
Z= exp βJ si sj 
{si } ⟨ij⟩

El lı́mite de baja temperatura es βJ → ∞, donde la función de partición puede ser


aproximada por la suma sobre los primeros pocos estados de más bajas energı́as. Todo
lo que necesitamos hacer es listar estos estados.

Los estados base son sencillos. Hay dos de ellos: espines todos arriba o espines todos
abajo. Por ejemplo, el estado base con todos los espines arriba se ve de la siguiente
forma

Cada uno de estos estados base tiene energı́a E = E0 = −2N J.

Los primeros estados excitados emergen al voltear un solo espı́n. Cada espı́n tiene
q = 4 vecinos más cercanos – denotados por lı́neas rojas en el ejemplo de abajo – cada
uno de los cuales genera un costo de energı́a de 2J. La energı́a de cada primer estado

– 163 –
excitado es entonces E1 = E0 + 8J.

Por supuesto, hay N espines diferentes que podemos voltear y, correspondientemente,


el primer nivel de energı́a tiene una degeneración de N .

Para proceder, introducimos un método de diagramas para listar los diferentes esta-
dos. Dibujamos solamente los enlaces “rotos” que conectan dos espines con orientación
opuesta y, como en el diagrama de arriba, denotamos estos por lı́neas rojas. Dibujamos
además los espines volteados como puntos rojos y los espines no volteados como puntos
azules. La energı́a del estado se determina simplemente por el número de lı́neas rojas
en el diagrama. Gráficamente, escribimos el primer estado excitado como

E1 = E0 + 8J
Degeneración = N

El siguiente estado más bajo tiene seis enlaces rotos. Este toma la forma

E2 = E0 + 12J
Degeneración = 2N

donde el factor de 2 adicional en la degeneración viene de las dos posibles orientaciones


(vertical y horizontal) de la gráfica.

Las cosas son más interesantes para estados que están en un tercer nivel excitado.
Estos tienen 8 enlaces rotos. La configuración más simple consiste en dos espines
volteados y desconectados

E3 = E0 + 16J
(5.28)
Degeneración = 12 N (N − 5)

El factor de N en la degeneración viene de poner la primera gráfica; el factor N − 5


emerge porque los espines volteados en la segunda gráfica pueden estar en cualquier
lugar que no sean los cinco vértices utilizados en la primera gráfica. Finalmente, el
factor de 1/2 surge debido al intercambio de las dos gráficas.

– 164 –
Hay otras tres gráficas con la misma energı́a E3 . Estas son

E3 = E0 + 16J
Degeneración = N

E3 = E0 + 16J
Degeneración = 2N

donde la degeneración surge de las dos orientaciones (vertical y horizontal). Finalmente,


tenemos

E3 = E0 + 16J
Degeneración = 4N

donde la degeneración es debido a las cuatro orientaciones (rotar la gráfica 90◦ ).

El añadir todas las gráficas anteriores nos da una expansión para la función de
partición en potencias de e−βJ ≪ 1. Esta es
 
2N βJ −8βJ −12βJ 1 2 −16βJ
Z = 2e 1 + Ne + 2N e + (N + 9N )e + ... (5.29)
2
donde el factor general de 2 surge de los dos estados base del sistema. Haremos uso de
los coeficientes especı́ficos de esta expansión en la Sección 5.3.4. Antes de concentrarnos
en la fı́sica escondida en la expansión de bajas temperaturas, vale la pena comentar
rápidamente sobre algo bastante bueno que sucede si tomamos el logaritmo de la función
de partición,
9
log Z = log 2 + 2N βJ + N e−8βJ + 2N e−12βJ + N e−16βJ + . . .
2
Notemos que el término N 2 en la función (5.29) se cancela y el log Z es proporcional
a N , lo cual es esperado ya que la energı́a libre del sistema es extensiva. En retro-
spectiva, vemos que el término N 2 venı́a asociado a los diagramas desconectados en

– 165 –
(5.28). De hecho hay una lección más general escondida aquı́: la función de partición
puede ser expresada como la exponencial de la suma de diagramas conectados. Vimos
exactamente la misma situación surgir en la expansión del clúster en (2.37).

Gotas de Peierls
El continuar la expansión a bajas temperaturas nos proporciona una explicación heurı́stica,
aunque fı́sicamente intuitiva, sobre por qué las transiciones de fase suceden en d ≥ 2
dimensiones pero no en d = 1. A medida que volteamos más y más espines, los estados
de baja energı́a se convierten en gotas, que consisten de una región del espacio en la que
todos los espines son invertidos, rodeados por un mar de espines con su alineamiento
original. El costo energético de cada una de estas gotas es aproximadamente

E ∼ 2JL

donde L es el perı́metro de la gota. Notemos que la energı́a no se escala como el área


de la gota debido a que todos los espines adentro están alineados con sus vecinos. Solo
son aquellos en el borde que están desalineados y esta es la razón por el crecimiento
del perı́metro. Para entender cómo estas gotas contribuyen a la función de partición,
debemos saber también su degeneración. Ahora argumentaremos que la degeneración
de las gotas crece de manera que

Degeneración ∼ eαL

para algún valor de α. Para ver esto, consideremos primero el problema de un camino
aleatorio en un arreglo cuadrado de dos dimensiones. En cada paso, podemos movernos
en alguna de cuatro dimensiones, por lo que el número de caminos de longitud L es

#caminos ∼ 4L = eL log 4

Claro, el perı́metro de una gota tiene más restricciones que un camino aleatorio. Para
empezar, el perı́metro no puede retroceder, por lo que realmente tiene tres direcciones
en las que se puede mover en cada paso. Adicionalmente, el perı́metro debe regresar a su
punto inicial después de L pasos. Finalmente, el perı́metro no puede tener intersecciones
consigo mismo. Es posible mostrar que el número de caminos que obedecen estas
condiciones es

#caminos ∼ eαL

donde log 2 < α < log 3. Debido a que la degeneración crece como eαL , la entropı́a de
las gotas es proporcional a L.

– 166 –
El hecho de que ambas la energı́a y la entropı́a crezcan como L significa que hay una
competencia interesante entre ellas. A temperaturas donde las gotas son importantes,
la función de partición es de la forma
X
Z∼ eαL e−2βJL
L

Para un β grande (i.e. bajas temperaturas) la función de partición converge. Sin


embargo, a medida que incrementa la temperatura, se llega a una temperatura crı́tica

2J
kB Tc ≈ (5.30)
α

para la cual la función de partición ya no converge. Para este punto, la entropı́a gana
sobre el costo de energı́a y es favorable llenar el sistema de gotas de tamaños arbitrarios.
Es ası́ como vemos la transición de fase en la función de partición. Para temperaturas
arriba de Tc , la expansión de bajas temperaturas ya no nos funciona y la fase magnética
ordenada se destruye.

También podemos usar el argumento de las gotas para ver por qué las transiciones
de fase no ocurren en d = 1 dimensión. En una lı́nea, el borde de cada gota siempre
consiste solamente de dos puntos. Esto significa que el costo energético de formar una
gota es siempre E = 2J, independientemente del tamaño de la gota. Pero, debido a que
la gota puede existir en cualquier lugar de la lı́nea, su degeneración es N . El resultado
final es que la energı́a libre asociada con la creación de una gota crece tal que

F ∼ 2J − kB T log N

y, a medida que N → ∞, la energı́a libre es negativa para cada T > 0. Esto significa que
el sistema preferirá crear gotas de longitud arbitraria, tornando al azar a los espines.
Esta es la razón intuitiva de por qué no hay fases magnéticamente ordenadas en el
modelo de Ising para d = 1.

5.3.3 Modelo de Ising en 2d: Altas Temperaturas

Ahora veremos el modelo de Ising en 2d en el lı́mite opuesto: altas temperaturas.


Aquı́ esperamos que la función de partición se vea dominada por las configuraciones
desordenadas y aleatorias de la entropı́a máxima. Nuestra meta es encontrar una
manera de expandir la función de partición en βJ ≪ 1.

– 167 –
Trabajaremos nuevamente en un campo magnético nulo, B = 0 y expresaremos la
función de partición como
 
X X XY
Z= exp βJ si sj  = eβJsi sj
{si } ⟨ij⟩ {si } ⟨ij⟩

Hay una manera útil de reescribir eβJsi sj que se basa en el hecho de que el producto
si sj solamente puede ser ±1. No toma mucho confirmar la siguiente identidad:

eβJsi sj = cosh βJ + si sj sinh βJ


= cosh βJ (1 + si sj tanh βJ)

Usando esto, la función de partición de convierte en


XY
Z = cosh βJ (1 + si sj tanh βJ)
{si } ⟨ij⟩
XY
= (cosh βJ)qN/2 (1 + si sj tanh βJ) (5.31)
{si } ⟨ij⟩

donde el número de los vecinos más cercanos es q = 4 para el arreglo cuadrado 2d.

Con la función de partición en esta forma, hay una expansión natural conveniente. En
altas temperaturas tenemos que βJ ≪ 1, lo cual claramente significa que tanh βJ ≪
1. Pero la función de partición ahora es naturalmente un producto de potencias de
tanh βJ. Esto es un poco análogo a la expansión del clúster para gas con interacciones
que conocimos en la Sección 2.5.3. De la misma manera, representaremos la expansión
gráficamente.

Para el término de mayor orden no necesitamos gráficas. No tiene factores de tanh βJ


y es simplemente
X
Z ≈ (cosh βJ)2N 1 = 2N (cosh βJ)2N
{si }

Esto es fácil.

Veamos ahora la corrección. Expandiendo la función de partición (5.31), cada poten-


cia de tanh βJ va asociada con un par ⟨ij⟩ de los vecinos más cercanos. Representare-
mos esto dibujando una lı́nea en el arreglo:

i j = si sj tanh βJ

– 168 –
Pero hay un problema: cada factor de tanh βJ en (5.31) viene también con una suma
sobre todos los espines si y sj . Y estos son +1 y −1, lo que significa que simplemente
resultan en cero,
X
si sj = +1 − 1 − 1 + 1 = 0
si ,sj

¿Cómo podemos evitar esto? La única manera es asegurándonos de que sumemos sobre
un número par de espines en cada sitio, ya que ası́ tendremos factores de s2i = 1 sin
cancelaciones. Gráficamente, esto significa que cada sitio debe estar conectado a un
número par de lı́neas. La primera corrección es entonces de la forma

1 2
X
= (tanh βJ)4 s1 s2 s2 s3 s3 s4 s4 s1 = 24 (tanh βJ)4
3 4 {si }

Hay N semejantes términos ya que la esquina superior izquierda del cuadrado puede ser
cualquiera de los N puntos del arreglo (asumiendo condiciones a la frontera periódicas
para el arreglo). Entonces juntando el término de mayor orden y la primera corrección,
tenemos

Z = 2N (cosh βJ)2N 1 + N (tanh βJ)4 + . . .




Pero podemos continuar. Los siguientes términos surgen de las gráficas de longitud 6
y los únicas posibilidades son rectángulos, orientados de manera vertical u horizontal.
Cada uno de ellos puede estar en cualquiera de los N puntos, por lo que obtenemos
una contribución de

+ = 2N (tanh βJ)4

Las cosas se ponen mas interesantes al hablar de las gráficas de longitud 8. Tenemos
cuatro diferentes tipos de gráficas. Primero, tenemos los triviales cuadrados desconec-
tados

1
= N (N − 5)(tanh βJ)8
2

Aquı́, el primer factor de N corresponde a las posiciones posibles del primer cuadrado;
el factor N − 5 emerge debido a que la posible ubicación de la esquina superior del

– 169 –
segundo cuadro no puede ser ninguno de los vértices del primero, pero tampoco puede
ser en el punto a la izquierda de la esquina superior izquierda del primer cuadro, ya
que esto darı́a una gráfica como que tenga tres lı́neas conectadas al punto de
en medio, lo que nos darı́a cero al sumar los espines. Finalmente, el factor 1/2 aparece
debido a que los dos cuadros son idénticos.

Las otras gráficas de longitud 8 son un cuadrado grande, un rectángulo y una esquina.
El cuadrado da una contribución

= N (tanh βJ)8

Para el rectángulo, hay dos orientaciones. Incluir estas nos da un factor de 2 en la


contribución

= 2N (tanh βJ)8

Finalmente, la gráfica de la esquina tiene cuatro orientaciones, lo que resulta en

= 4N (tanh βJ)8

Al sumar todas las contribuciones tendremos los primeros términos en la expansión de


la función de partición para altas temperaturas

Z = 2N (cosh βJ)2N 1 + N (tanh βJ)4 + 2N (tanh βJ)6
1 
+ (N 2 + 9N )(tanh βJ)8 + . . . (5.32)
2
Hay algo de magia escondida en esta expansión, la cual volveremos a ver en la Sección
5.3.4. Primero, veamos como funciona esta expansión de alta energı́a en el modelo de
Ising para d = 1.

La Cadena de Ising Revisada


Hagamos la expansión de alta temperatura para la cadena (d = 1) de Ising con
condiciones a la frontera periódicas y B = 0. Tenemos la misma función de partición
(5.31) y el mismo problema de que solo las gráficas con un número par de lı́neas

– 170 –
conectadas a cada vértice contribuyen. Sin embargo, para la cadena de Ising, solo hay
un término de estos: es el circuito cerrado. Esto significa que la función de partición es

Z = 2N (cosh βJ)N 1 + (tanh βJ)N




En el lı́mite N → ∞, (tanh βJ)N → 0 a altas temperaturas y se desvanece incluso la


distribución del circuito cerrado. Tenemos entonces

Z = (2 cosh βJ)N

Esto concuerda con nuestro resultado exacto para la cadena de Ising dada en (5.27),lo
cual podemos ver al considerar B = 0 en (5.26) tal que λ+ = 2 cosh βJ.

5.3.4 Dualidad Kramers–Wannier


En la sección anterior calculamos la función de partición de manera
perturbada en los dos regı́menes extremos de temperatura (alta y
baja). La fı́sica en ambos casos es, por supuesto, diferente. A
bajas temperaturas, la función de partición es dominada por los
estados de menor energı́a; a altas temperaturas es dominada por los
estados más desordenados. Dicho esto, el comparar las funciones
Figura 48:
de partición para bajas temperaturas (5.29) y altas temperaturas
(5.32) revela un hecho extraordinario: ¡las expansiones son las mismas! De manera más
concreta, ambas series concuerdan si hacemos el intercambio

e−2βJ ←→ tanh βJ (5.33)

Por supuesto, solo hemos confirmado la concordancia para los primeros ordenes de la
perturbación. Lo siguiente será probar que este milagro se da para todos los ordenes
de la perturbación. La simetrı́a de la función de partición bajo el intercambio (5.33)
se conoce como la dualidad de Kramers-Wannier. Antes de probar esta dualidad,
simplemente asumiremos que es cierta y extraeremos las consecuencias.

Podemos expresar la dualidad de manera más clara. El modelo de Ising a temperatura


β se relaciona con el mismo modelo a temperatura β̃, definida como

e−2β̃J = tanh βJ (5.34)

Esta escritura esconde la simetrı́a de la transformación. Un poco de álgebra nos revela


que es equivalente a escribir
1
sinh 2β̃J =
sinh 2βJ

– 171 –
Notemos que esta es una dualidad caliente/frı́o. Cuando βJ es grande, β̃J es pequeño.
La dualidad de Kramers-Wannier dice que, cuando B = 0, las funciones de partición
del modelo de Ising a dos temperaturas se relacionan por
2N (cosh βJ)2N
Z[β] = Z[β̃]
2e2N β̃J
= 2N −1 (cosh βJ sinh βJ)N Z[β̃] (5.35)
Esto significa que, si sabemos la termodinámica del modelo de Ising a una temperatura,
la sabemos a cualquier otra temperatura. Aunque debemos notar que esto no significa
que toda la fı́sica de ambos modelos es equivalente. Particularmente, cuando un sistema
está en una fase ordenada, el otro tı́picamente se encuentra en una fase desordenada.

Una consecuencia inmediata de la dualidad es que la podemos utilizar para calcular


la temperatura crı́tica exacta Tc . Esta es la temperatura en la cual la función de
partición es singular en el lı́mite N → ∞. (Hablaremos de un criterio mejor refinado
en la Sección 5.4.3). Si también asumimos que hay solo una transición de fase al variar
la temperatura, entonces esta debe suceder en el punto auto-dual β = β̃. Esto es
2J
kB T = √ ≈ 2.269 J
log( 2 + 1)
La solución exacta de Onsager confirma que esta es efectivamente la temperatura de
transición. También vale la pena notar que es completamente consistente con el argu-

mento de las gotas de Peierls (5.30) debido a que log 2 < log( 2 + 1) < log 3.

Probando la Dualidad
Hasta ahora nuestra evidencia para la dualidad (5.35) yace en la concordancia de los
primeros términos en las expansiones de temperatura baja y alta (5.29) y (5.32). Por
supuesto, podrı́amos seguir calculando más y más términos y verificar que concuerden,
pero serı́a mejor simplemente probar la igualdad entre las funciones de partición. Esto
lo haremos aquı́.

La idea clave que necesitamos la podemos encontrar al observar fijamente a las


gráficas que emergieron en las dos expansiones. Eventualmente, uno se dará cuenta
de que son las mismas, aunque trazadas diferente. Por ejemplo, consideremos los dos
diagramas “esquina”,

vs

– 172 –
Las dos gráficas son duales. Las lı́neas rojas en la primera gráfica intersecan las lı́neas
negras en la segunda como se puede apreciar al ponerlas una encima de la otra:

El mismo patrón ocurre de manera más general: las gráficas que aparecen en la ex-
pansión de baja temperatura tienen una correspondencia uno a uno con las gráficas
duales de la expansión de alta temperatura. Aquı́ probaremos cómo esto ocurre y
cómo uno puede mapear las funciones de partición una con la otra.

Comencemos escribiendo la función de partición en la forma (5.31) que encontramos


en la expansión de alta temperatura y presentándola de una forma ligeramente distinta,
XY
Z[β] = (cosh βJ + si sj sinh βJ)
{si } ⟨ij⟩
XY X
= Ckij [βJ] (si sj )kij
{si } ⟨ij⟩ kij =0,1

donde hemos introducido una variable kij un poco extraña asociada a cada par de
vecinos más cercanos que toma valores 0 y 1, junto con las funciones

C0 [βJ] = cosh βJ and C1 [βJ] = sinh βJ

Las variables en el modelo de Ising original fueron espines en sitios de una red. La
observación de que las gráficas que aparecen en las dos expansiones son duales sugiere
que puede ser conveniente concentrar nuestra atención en los enlaces entre los sitios de
la red. Claramente, tenemos un enlace por cada par de vecinos cercanos. Si etiquetamos
estos enlaces con l, podemos reescribir trivialmente la función de partición como
X YX
Z= Ckl [βJ] (si sj )kl
kl =0,1 l {si }

Notemos que la extraña etiqueta kij ahora se ha convertido en una variable que vive
en los enlaces l en lugar de los sitios originales i de la red.

– 173 –
En este punto, hacemos la suma sobre los espines si . Ya hemos visto que si un espı́n
dado, digamos si , aparece en un término un número impar de veces, entonces este
término se desvanece cuando sumamos sobre el espı́n. Alternativamente, si el espı́n si
aparece un número par de veces, entonces la suma dará 2. Diremos que algún enlace
l está encendido en configuraciones con kl = 1 y apagado cuando kl = 0. En este
lenguaje, un término en la suma sobre espı́n si contribuye solo si un número par de
enlaces anclados al sitio i están encendidos. La función de partición es entonces
XY
Z = 2N Ckl [βJ] (5.36)
kl l Constreñido
Ahora tenemos algo interesante. En lugar de sumar sobre los espines en sitios de la red,
ahora estamos sumando sobre las nuevas variables kl que viven en los enlaces. Esto
se ve como la función de partición de un sistema fı́sico totalmente diferente, donde
los grados de libertad viven en los enlaces de la red original. Pero tiene trampa – esa
gran etiqueta que dice “Constreñido” en la suma. Eso está ahı́ para recordarnos que
no sumamos sobre todas las configuraciones kl ; solo aquellas para las que enlaces en
números pares están encendidos para cada sitio de la red. Y eso es molesto. Nos dice
que los kl realmente no son variables independientes. Entonces algunas constricciones
deben de ser impuestas.

Afortunadamente, para la estructura 2d hay una simple s5 ~


~s1 s4
manera de resolver la constricción. Introducimos variables adi-
cionales, s̃i , las cuales toman valores ±1 justo como las variables
de espı́n originales. Sin embargo, las s̃i no viven en los puntos s 2 k s1 s4
12
originales del arreglo. Estas viven en los vértices del arreglo
~s ~s
dual. Para el arreglo cuadrado 2d, los vértices duales se dibu- 2 3
s3
jan en la figura. Los puntos originales del arreglo se ven en
blanco; los puntos del arreglo dual en negro. Figura 49:
Las variables de enlace kl se relacionan a las dos variables de
espı́n s̃i más cercanas de la siguiente manera:
1
k12 = (1 − s̃1 s̃2 )
2
1
k13 = (1 − s̃2 s̃3 )
2
1
k14 = (1 − s̃3 s̃4 )
2
1
k15 = (1 − s̃1 s̃4 )
2

– 174 –
Nótese que hemos intercambiado cuatro variables kl con valores 0,1 por cuatro variables
s̃i con valores ±1. Cada conjunto de variables da 24 posibilidades. Sin embargo, el mapa
no es uno a uno. No es posible construir esto para todos los valores kl utilizando la
parametrización en términos de s̃i . Para ver esto, solo debemos ver que
1
k12 + k13 + k14 + k15 = 2 − (s̃1 s̃2 + s̃2 s̃3 + s̃3 s̃4 + s̃1 s̃4 )
2
1
= 2 − (s̃1 + s̃3 )(s̃2 + s̃4 )
2
= 0, 2, or 4

En otras palabras, el número de enlaces activados debe ser par. ¡Pero eso es ex-
actamente lo que queremos! Expresando kl en términos de los espines auxiliares s̃i
automáticamente resuelve la constricción de la suma (5.36). Adicionalmente, es sim-
ple confirmar que para cada configuración {kl } que obedece la constricción, hay dos
configuraciones de {s̃i }. Esto significa que podemos reemplazar la suma constreñida
sobre {kl } por una suma sin restricciones sobre {s̃i }. El único precio que pagamos es
el factor adicional de 1/2.
1 N XY
Z[β] = 2 C 1 (1−s̃ s̃ ) [βj]
2 2 i j
{s̃i } ⟨ij⟩

Finalmente, nos gustarı́a encontrar una simple expresión para C0 y C1 en términos de


s̃i . Esto es fácil. Podemos escribir

Ck [βJ] = cosh βJ exp (k log tanh βJ)


 
1/2 1
= (sinh βJ cosh βJ) exp − s̃i s̃j log tanh βJ
2
Sustituyendo esto en nuestra función de partición nuevamente reescrita nos da
 
N −1
XY
1/2 1
Z[β] = 2 (sinh βJ cosh βJ) exp − s̃i s̃j log tanh βJ
2
{s̃i } ⟨ij⟩
 
X 1 X
= 2N −1 (sinh βJ cosh βJ)N exp − log tanh βJ s̃i s̃j 
2
{s̃i } ⟨ij⟩

Pero esta forma final de la función de partición en términos de los espines duales s̃i
tiene exactamente la misma forma de la función de partición original en términos de
espines si . De manera más precisa, podemos escribir

Z[β] = 2N −1 (sinh 2βJ)N Z[β̃]

– 175 –
donde

e−2β̃J = tanh βJ

como fue mencionado anteriormente en (5.34). Esto completa la demostración de la


dualidad Kramers-Wannier en el modelo de Ising para un arreglo cuadrado 2d.

Este concepto de dualidad es una importante caracterı́stica en gran parte de la fı́sica


teórica moderna. La idea clave es que cuando la temperatura es muy alta puede haber
un conjunto diferente de variables con el cual la teorı́a puede ser escrita de manera que
parece que vive en bajas temperaturas. La misma idea tı́picamente aplica en teorı́as
cuánticas, donde la dualidad mapea problemas de acoplamiento fuerte a problemas de
acoplamiento débil.

La dualidad del modelo de Ising es especial por dos razones: primero, las nuevas
variables s̃i son gobernadas por el mismo hamiltoniano que las variables originales si .
Decimos que el modelo de Ising es auto-dual. En general, este no debe de ser el caso
— el lı́mite de altas temperaturas en un sistema puede verse como el lı́mite de bajas
temperaturas en otro sistema diferente. La segunda razón es que la dualidad del modelo
de Ising puede probarse explı́citamente. Para la mayorı́a de los sistemas no tenemos
tanta suerte. No obstante, la idea de que puedan haber variables duales en otras teorı́as
más difı́ciles es motivante. Ejemplos estudiados comúnmente incluyen el intercambio
de partı́culas en vórtices de dos dimensiones, y electrones y monopolos magnéticos en
tres dimensiones.

5.4 Teorı́a de Landau

Hemos visto en las Secciones 5.1 y 5.2 que la ecuación de van der Waals y el modelo de
Ising de campo medio dan los mismos (a veces equivocados) exponentes crı́ticos. Esto
sugiere que debe haber una manera unificada de ver las transiciones de fase. Dicho
método fue desarrollado por Landau. Cabe mencionar que, como vimos anteriormente,
el enfoque de Landau para transiciones de fase normalmente da resultados cualitati-
vamente correctos. Sin embargo, su ventaja es que es extremadamente fácil (definiti-
vamente más fácil que los métodos más elaborados que se requieren para calcular los
exponentes crı́ticos de manera más precisa).

La teorı́a de transiciones de fase de Landau se basa en la energı́a libre. Ilustraremos la


teorı́a usando el modelo de Ising y explicaremos cómo extenderlo a sistemas diferentes.
La energı́a libre del modelo de Ising en la aproximación de campo medio es alcanzable

– 176 –
desde la función de partición (5.17),
1 1 N
F = − log Z = JN qm2 − log (2 cosh βBef ) (5.37)
β 2 β
Hasta ahora en este curso, solo hemos considerado sistemas en equilibrio. La energı́a
libre, como todos los otros potenciales termodinámicos, ha sido definida en estados de
equilibrio. Aún ası́ la ecuación anterior puede pensarse como una expresión para F como
función de m. Claro, podrı́amos sustituir en el valor de m en equilibrio encontrado al
resolver (5.18), pero serı́a una pena eliminar una función tan buena como F (m). ¡Debe
ser posible ponerla en uso!

El paso clave en la teorı́a de Landau es tomarnos en serio la función F = F (T, V ; m).


Esto significa extender nuestro punto de vista desde estados de equilibrio a una nueva
clase de estados con un valor constante de m promedio. Si queremos usar más palabras,
podemos imaginar un poder mágico externo que mantenga a m fijo. La energı́a libre
F (T, V ; m) nos dice las propiedades para equilibrio en la presencia de este poder mágico.
Tal vez sea más convincente lo que hacemos con la energı́a libre en la ausencia de
constricciones. Vimos en la Sección 4 que el equilibrio es garantizado en el mı́nimo de
F . Fijándonos en los extremos de F , tenemos la condición
∂F
=0 ⇒ m = tanh βBef
∂m
¡Pero esta es precisamente la condición (5.18) vista anteriormente!

En el contexto de la teorı́a de Landau, a m se le llama el parámetro de orden. Al


tomar valores diferentes de cero el sistema tiene un poco de orden (los espines tienen
una dirección preferida) mientras que cuando m = 0 los espines apuntan aleatoriamente
en cualquier dirección.

Para cualquier sistema, la teorı́a de Landau comienza identificando un parámetro


de orden apropiado. Este debe ser una cantidad que desaparezca arriba de la temper-
atura crı́tica en la que sucede la transición, pero sea diferente de cero abajo de esa
temperatura crı́tica. A veces es obvio qué elegir como el parámetro de orden; otras
veces no tanto. Para la transición lı́quido-gas, el parámetro relevante es la diferencia
en densidades entre ambas fases, vgas − vlı́quido . Para sistemas magnéticos o eléctricos,
el parámetro de orden es tı́picamente alguna forma de magnetización (como para el
modelo de Ising) o de polarización. Para el condensado de Bose-Einstein, superfluı́dos
y superconductores, el parámetro de orden es más sutil y se relaciona al orden no
diagonal a larga escala de la matriz de densidad de una partı́cula11 , aunque esto es
11
Vea, por ejemplo, el libro “Quantum Liquids” de Anthony Leggett

– 177 –
comúnmente simplificado diciendo que el parámetro de orden puede pensarse como la
función de onda macroscópica |ψ|2 .

Comenzando por la existencia de un parámetro de orden apropiado, el siguiente


paso es escribir la energı́a libre. Pero esto es un poco difı́cil. La energı́a libre para el
modelo de Ising (5.37) es una función complicada y que claramente contiene información
detallada sobre la fı́sica de los espines. ¿Cómo escribimos simplemente la energı́a libre
en el caso general? El truco es asumir que podemos expandir la energı́a libre en una
serie de potencias analı́tica en el parámetro de orden. Para que esto sea cierto, el
parámetro debe ser pequeño, lo cual se garantiza cerca del punto crı́tico (debido a que
m = 0 para T > Tc ). La naturaleza de la transición de fase se determina por el tipo de
términos que aparezcan en la expansión de la energı́a libre. Veamos un par de ejemplos
simples.

5.4.1 Transiciones de Fase de Segundo Orden


Consideraremos un sistema general (modelo de Ising; lı́quido-gas; BEC; cualquiera) y
denotemos el parámetro de primer orden como m. Supongamos que la expansión de la
energı́a libre toma la forma general

F (T ; m) = F0 (T ) + a(T )m2 + b(T )m4 + . . . (5.38)

Una razón común por la cual la energı́a libre tiene esta forma es porque la teorı́a tiene
una simetrı́a bajo m → −m, prohibiendo términos con potencias impares de m en la
expansión. Por ejemplo, esta es la situación en el modelo de Ising cuando B = 0.
En efecto, si expandimos la energı́a libre (5.37) en el modelo de Ising para m pequeña
utilizando cosh x ≈ 1+ 12 x2 + 4!1 x4 +. . ., log(1+y) ≈ y− 12 y 2 +. . . y log(1+y) ≈ y− 12 y 2 +. . .,
obtenemos la forma general anterior con expresiones explı́citas para F0 (T ), a(T ) y b(T ),

N β 3J 4q4
   
N Jq 2
FIsing (T ; m) = −N kB T log 2 + (1 − Jqβ) m + m4 + . . .
2 24

El término principal F0 (T ) no es importante para nuestro desarrollo. Estamos intere-


sados en cómo la energı́a libre cambia con m. La condición para el equilibrio se da
por
∂F
=0 (5.39)
∂m
Pero las soluciones a esta ecuación dependen del signo de los coeficientes a(T ) y
b(T ). Además, este signo puede cambiar con la temperatura. Esta es la esencia de las
transiciones de fase. En la siguiente discusión, asumiremos que b(T ) > 0 para todo

– 178 –
F F

m m

Figura 50: Energı́a libre para a(T ) > 0 Figura 51: Energı́a libre para a(T ) < 0

T . (Si relajamos esta condición, también debemos considerar el término con m6 en la


energı́a libre que nos lleva a resultados interesantes que incluyen los llamados puntos
tricrı́ticos).

Las dos figuras superiores muestran esbozos de la energı́a libre en los casos donde
a(T ) > 0 y a(T ) < 0. Comparando con la energı́a libre explı́cita del modelo de
Ising, tenemos a(T ) < 0 cuando T > Tc = Jq/kB y a(T ) < 0 cuando T < Tc .
Cuando a(T ) > 0 tenemos solo una única solución de equilibrio para (5.39) en m = 0.
Tı́picamente, esta es la situación a altas temperaturas. En contraste, en a(T ) < 0, hay
tres soluciones para (5.39). La solución m = 0 claramente tiene una energı́a libre mayor:
ahora esta es la solución inestable. Las dos soluciones estables están en m = ±m0 . Por
ejemplo, si escogemos truncar la energı́a libre (5.38) en orden cuadrático, tenemos
r
−a
m0 = T < Tc
2b
Si a(T ) es una función suave entonces el valor de equilibrio de m cambia continuamente
de m = 0 cuando a(T ) > 0 a m ̸= 0 en a(T ) < 0. Esto describe una transición de fase
de segundo orden ocurriendo en Tc , definida por a(Tc ) = 0.

Una vez que sabemos el valor de equilibrio de m, podemos entonces sustituir esto de
vuelta en la energı́a libre F (T ; m) en (5.38). Esto nos da la energı́a libre termodinámica
F (T ) del sistema en equilibrio que hemos estado estudiando durante el curso. Para la
energı́a libre cuadrática, tenemos
(
F0 (T ) T > Tc
F (T ) = (5.40)
F0 (T ) − a2 /4b T < Tc

Debido a que a(Tc ) = 0, la energı́a libre de equilibrio F (T ) es continua en T = Tc .


Además, la entropı́a S = −∂F/∂T también es continua en T = Tc . Sin embargo,
si derivamos dos veces la energı́a libre de equilibrio, obtendremos un término a′ 2 /b

– 179 –
el cual, en general, no se desvanece en T = Tc . Esto quiere decir que la capacidad
calorı́fica C = T ∂S∂T cambia de manera discontinua en T = Tc , como conviene para
una transición de segundo orden. Una advertencia: si queremos calcular las cantidades
de equilibrio tal como la capacidad calorı́fica, es importante primero sustituir el valor
m de equilibrio y utilizar (5.40) en lugar de (5.38). De lo contrario, perderı́amos el
hecho de que la magnetización también cambia con T .

Podemos calcular fácilmente los exponentes crı́ticos dentro del contexto de la teorı́a de
Landau. Solo necesitamos hacer una suposiciones adicionales sobre el comportamiento
de a(T ) y b(T ) en la cercanı́a de Tc . Si asumimos que cerca de T = Tc , podemos escribir
b(T ) ≈ b0 , a(T ) ≈ a0 (T − Tc ) (5.41)
entonces tenemos
r
a0
m0 ≈ ± (Tc − T )1/2 T < Tc
2b0
lo cual reproduce el exponente crı́tico de (5.9) y (5.20) que derivamos para la ecuación
de van der Waals y el modelo de Ising respectivamente.

Notemos que no pusimos ninguna discontinuidad en la energı́a libre. Todo en F (T ; m)


fue suave y bonito. Cuando se expande en una serie de Taylor, solo tiene potencias
enteras de m y T como se muestra en (5.38) y (5.41). Pero el mı́nimo de F se comporta
de manera no analı́tica como se ve en la expresión para m0 arriba.

La teorı́a de Landau de las transiciones de fase predice este mismo exponente crı́tico
para todos los valores de dimensión d del sistema. Pero ya mencionamos en contextos
previos que el exponente crı́tico es, de hecho, correcto solamente para d ≥ 4. Enten-
deremos cómo derivar este criterio de la teorı́a de Landau en la siguiente sección.

Ruptura Espontánea de Simetrı́a


Conforme nos aproximamos al final del curso, estamos abordando una serie de ideas
que se han vuelto cada vez más importantes en desarrollos subsecuentes de la fı́sica. Ya
conocimos brevemente la idea de universalidad y fenómenos crı́ticos. Aquı́ me gustarı́a
señalar otra idea muy importante: ruptura espontánea de simetrı́a.

La energı́a libre (5.38) es invariante bajo la simetrı́a Z2 y m → −m. En efecto,


mencionamos que una razón común por la que podemos expandir la energı́a libre solo
en potencias pares de m es que la teorı́a subyacente también disfruta de esta simetrı́a.
Pero por debajo de Tc , el sistema debe escoger uno de dos estados base m = +m0 o
m = −m0 . Cualquier elección que haga rompe la simetrı́a Z2 . Decimos que la simetrı́a
sufre una ruptura espontánea debido a la elección del estado base de la teorı́a.

– 180 –
La ruptura de simetrı́a espontánea tiene consecuencias particularmente dramáticas
cuando la simetrı́a en cuestión es continua en lugar de discreta. Por ejemplo, con-
sideremos una situación en la que el parámetro de orden es un número complejo ψ y
la energı́a libre se da por (5.38) con m = |ψ|2 . (Esto es efectivamente lo que sucede
para BECs, superfluidos y superconductores). Entonces solo debemos de observar las
soluciones m > 0 para que el estado base tenga |ψ|2 = +m0 . Pero esto deja la fase
de ψ totalmente indeterminada. Ası́ que ahora hay una elección continua de estados
base: podemos encontrarnos en cualquier lugar del cı́rculo parametrizado por la fase ψ.
Cualquier elección que tome el sistema espontáneamente rompe la simetrı́a rotacional
U (1) que actúa en la fase de ψ. Algunos resultados hermosos por parte de Nambu y
Goldstone muestran que gran parte de la fı́sica de estos sistemas se puede entender
simplemente como una consecuencia de esta ruptura de simetrı́a. Las ideas de rup-
tura espontánea de simetrı́a son cruciales en fı́sica de materia condensada y fı́sica de
partı́culas. En el contexto anterior, está ı́ntimamente relacionada con el mecanismo de
Higgs.

5.4.2 Transiciones de Fase de Primer Orden


Consideremos ahora la situación en la que la expansión de la energı́a libre también
incluya potencias impares de los parámetros de orden

F (T ; m) = F0 (T ) + α(T )m + a(T )m2 + γ(T )m3 + b(T )m4 + . . .

Por ejemplo, este es el tipo de expansión que obtenemos del modelo de Ising (5.37)
cuando B ̸= 0, que expresamos como
JN q 2 N N
FIsing (T ; m) = −N kB T log 2 + m − (B + Jqm)2 + (B + Jqm)4 + . . .
2 2kB T 24(kB T )3

Notemos que ya no hay una simetrı́a relacionando m → −m: el campo B tiene


una preferencia por un signo encima del otro.

Si nuevamente asumimos que b(T ) > 0 para todas las temperaturas, la forma cruda
de la gráfica de la energı́a libre tiene dos opciones: tener un solo mı́nimo, o dos mı́nimos
y un máximo local.

Comencemos en temperaturas apropiadamente bajas, para las cuales la situación se


muestra en la Figura 52. La energı́a libre nuevamente tiene un pozo doble, excepto que
ahora un poco sesgado. El máximo local sigue siendo un punto establo. Pero ahora,
el mı́nimo con la menor energı́a libre se prefiere sobre el otro. Este es el verdadero
estado base del sistema. En contraste, el punto que es, local pero no globalmente, un

– 181 –
F F F
B<0 B=0 B>0

m m

Figura 52: La energı́a libre del modelo de Ising para B < 0, B = 0 y B > 0.

mı́nimo corresponde a un estado metaestable del sistema. Para que el sistema salga
de este estado hacia el otro, debe primero fluctuar por encima de la barrera energética
que separa a ambos.

En este arreglo podemos iniciar una transición de fase de primer orden. Esto ocurre
cuando el coeficiente de los términos impares, α(T ) y γ(T ), cambia signo y el verdadero
estado base cambia de manera discontinua de m < 0 a m > 0. En algunos sistemas,
este comportamiento se da al cambiar la temperatura; en otros puede ocurrir al cambiar
algún parámetro externo. Por ejemplo, en el modelo de Ising, la transición de fase de
primer orden se induce cambiando B.

A temperaturas muy altas, en lugar del pozo doble F

de potencial tenemos un solo mı́nimo como muestra la


figura de la derecha. Hay un único estado base, aunque
recorrido desde m = 0 por la presencia del término α(T ) m

de arriba (que se traduce al campo magnético B en el


modelo de Ising). La temperatura a la cual se pierde el
estado base metaestable del sistema corresponde al punto
espinodal de nuestra discusión de la transición lı́quido- Figura 53:
gas.

Podemos seguir jugando en la teorı́a de Landau, observando cómo la forma de la


energı́a libre puede cambiar a medida que variamos la temperatura u otros parámetros.
También podemos usar este paradigma para dar una explicación simple del concepto
de histéresis. Puede aprender más sobre esto de los enlaces en la página del curso.

5.4.3 Ceros de Lee-Yang


Podremos habernos dado cuenta de que nuestra discusión sobre transiciones de fase

– 182 –
tiene un sabor diferente al resto del curso. Hasta ahora, nuestra filosofı́a fue derivar
todo desde la función de partición. Pero en esta sección, nos deshicimos de esta lo
antes posible, prefiriendo en su lugar variables macroscópicas como la energı́a libre.
¿Por qué no nos quedamos simplemente con la función de partición y examinamos las
transiciones de fase directamente?

La razón es claramente que el enfoque desde la función de partición es difı́cil. En esta


corta sección, que es un poco tangencial a nuestra discusión principal, describiremos
cómo las transiciones de fase se manifiestan en la función de partición.

Para ser más concretos, regresemos al gas con interacciones de la Sección 2.5, aunque
los resultados que derivaremos serán más generales. Trabajaremos en la colectividad
macrocanónica, con la función de partición
X X zN Z Y P
N 3 −β j<k U (rjk )
Z(z, V, T ) = z Z(N, V, T ) = d ri e (5.42)
N N
N !λ3N i

Para regular potenciales dificultades a cortas distancias es útil asumir que las partı́culas
tienen núcleos sólidos tal que no pueden acercarse una distancia menor que r0 . Mode-
lamos esto con el requisito de que el potencial satisfaga

U (rjk ) = 0 para rjk < r0

Pero esto tiene una obvia consecuencia: si las partı́culas tienen tamaño infinito, en-
tonces hay un número máximo de partı́culas NV que caben en un volumen finito V .
(Aproximadamente NV ∼ V /r03 ). Pero esto, a su vez, implica que la función de par-
tición canónica Z(N, V, T ) = 0 para N > NV , y que la macrocanónica Z es por lo
tanto un polinomio finito en la fugacidad z, de orden NV . Pero si este es el caso, no
puede haber ningún comportamiento discontinuo asociado a la transición de fase. En
particular, podemos calcular

pV = kB T log Z (5.43)

lo cual nos da pV como una función suave de z. También podemos calcular



N =z log Z (5.44)
∂z
lo que nos da N como una función de z. Eliminando z entre estas dos funciones (como
hicimos para ambos bosones y fermiones en la Sección 3) sabemos que la presión p
es una función suave de densidad N/V . Nunca obtendremos el comportamiento que
derivamos desde la construcción de Maxwell en donde la gráfica de presión contra
densidad mostrada en la Figura 37 exhibe una derivada discontinua.

– 183 –
La discusión anterior solo fue reiterar un argumento que aludimos ya en diversas
ocasiones: no hay transiciones de fase en sistemas finitos. Para ver este comportamiento
discontinuo, necesitamos tomar el lı́mite V → ∞. Un teorema debido a Lee y Yang12
nos da una idea de las propiedades analı́ticas de la función de partición en este lı́mite.

La idea sorprendente de Lee y Young es que si estás interesado en transiciones de


fase, primero deberı́as observar a los ceros de Z en plano-z complejo. Veamos esto
primero cuando V es finito. Importante: en V finito no pueden haber ceros en el eje
real positivo, z > 0. Esto se da por la definición de Z dada en (5.42) donde es una
suma de cantidades positivas. Además, de (5.44), podemos ver que Z es una función
monótonamente creciente de z, pues necesariamente tenemos N > 0. Sin embargo, Z
es un polinomio de orden NV en z ası́ que ciertamente tiene NV ceros en algún lugar
del plano-z complejo. Dado que Z ⋆ (z) = Z(z ⋆ ), estos ceros deben estar ya sea en el
eje real negativo o venir en pares complejos.

No obstante, las afirmaciones anteriores se basan en el hecho de que Z es un polinomio


infinito. Conforme tomamos el lı́mite V → ∞, el número máximo de partı́culas que
podemos acomodar en el sistema diverge, NV → ∞ y Z ahora se define como una
serie infinita. Pero las series infinitas pueden hacer cosas que las finitas no pueden. El
teorema de Lee-Yang declara que mientras los ceros de Z se mantengan lejos del eje
real positivo conforme V → ∞, no pueden suceder transiciones de fase. Pero si uno o
más ceros toca el eje real positivo, la vida se hace más interesante.

Concretamente, el teorema de Lee-Yang establece:


• Teorema de Lee-Yang: La cantidad
 
1
Θ = lim log Z(z, V, T )
V →∞ V
existe para todo z > 0. El resultado es una función continua, no decreciente de
z que es independiente de la forma de la caja (dentro de algunas suposiciones
sensibles tales como Área de Superficie/V ∼ V −1/3 que garantiza que la caja no
tiene alguna ridı́cula forma fractal).
Además, tomemos R como una región fija con volumen independiente en el plano-
z complejo que contiene parte del eje real positivo. Si R no contiene ceros de
Z(z, V, T ) para todo z ∈ R entonces Θ es una función analı́tica de z para todo
z ∈ R. En particular, todas las derivadas de Θ son continuas.
12
Este teorema fue demostrado por primera vez para el modelo de Ising en 1952. Poco después, el
mismo Lee y Yang propusieron un modelo de violación de paridad en la interacción débil por el que
ganaron el premio Nobel de 1957.

– 184 –
En otras palabras, no puede haber transiciones de fase en la región R incluso en el
lı́mite V → ∞. El último resultado implica que, siempre y cuando estemos seguros
en una región R, tomar derivadas con respecto de z conmuta con el lı́mite V → ∞.
En otras palabras, se nos permite utilizar (5.44) para escribir la densidad de partı́culas
n = N/V como
 
∂ p ∂Θ
lim n = lim z =z
V →∞ V →∞ ∂z kB T ∂z

Sin embargo, si observamos los puntos z donde aparecen ceros en el eje real positivo,
entonces, en general, Θ no será analı́tica. Si dΘ/dz es discontinua, entonces decimos
que el sistema sufre una transición de fase de primer orden. De manera más general,
si dm Θ/dz m es discontinua para m = n, pero continua para todo m < n, entonces el
sistema sufre una transición de fase de n-ésimo orden. No ofreceremos una demostración
para el teorema de Lee-Yang. En su lugar, ilustraremos la idea general con un ejemplo.

Un Ejemplo Inventado
Idealmente, nos gustarı́a comenzar con un hamiltoniano que exhiba una transición
de fase de primer orden, calcular la función de partición macrocanónica Z y luego
encontrar los ceros conforme V → ∞. No obstante, como mencionamos antes, ¡Esto
es difı́cil! En lugar de ello, simplemente inventaremos una función de partición Z que
tenga las propiedades adecuadas. Nuestra elección es un poco artificial,

Z(z, V ) = (1 + z)[αV ] (1 + z [αV ] )

Aquı́ α es una constante que tı́picamente depende de la temperatura, aunque eliminare-


mos esta dependencia a continuación. También,

[x] = Parte entera de x

A pesar de que acabamos de inventar la forma de Z, esta sı́ presenta el comportamiento


que uno esperarı́a de una función de partición. En particular, para V finita, los ceros
están en

z = −1 y z = eπi(2n+1)/[αV ] n = 0, 1, . . . , [αV ] − 1

Como fue prometido, ninguno de los ceros están en el eje real positivo. Sin embargo,
conforme incrementamos V , los ceros se hacen cada vez más densos en el cı́rculo uni-
tario. Del teorema de Lee-Yang, esperamos que no ocurra una transición de fase para
z ̸= 1 pero sı́ que pueda ocurrir algo interesante en z = 1.

– 185 –
Veamos lo que sucede conforme V → ∞. Tenemos
1
Θ = lim log Z(z, V )
V →∞ V
1
[αV ] log(1 + z) + log(1 + z [αV ] )

= lim
V →∞ V
(
α log(1 + z) |z| < 1
=
α log(1 + z) + α log z |z| > 1

Vemos que Θ es continua para todo z como se prometió. Pero solo es analı́tica para
|z| =
̸ 1.

Podemos extraer la fı́sica usando (5.43) y (5.44) para eliminar la dependencia con z.
Esto nos da una ecuación de estado, con presión p como función de n = V /N . Para
|z| < 1, tenemos
 
α
p = αkB T log n ∈ [0, α/2) , p < kB T log 2
α−n

Mientras que para |z| > 1, tenemos


 
2αn
p = αkB T log n ∈ (3α/2, 2α) , p > kB T log 2
(2α − n)2

El punto clave es que hay un salto en la densidad de partı́culas de ∆n = α en p =


αkB T log 2. Graficando esto como función de p contra v = 1/n, encontramos que
tenemos una curva que es cualitativamente idéntica a la gráfica presión-volumen del
diagrama de fase del lı́quido-gas bajo la curva de coexistencia. (Véase, por ejemplo, la
Figura 37). Esto es una transición de fase de primer orden.

5.5 Teorı́a de Landau-Ginzburg


La teorı́a de Landau de transiciones de fase se enfoca únicamente en la cantidad prome-
dio, el parámetro de orden. Ignora las fluctuaciones del sistema, asumiendo que son
despreciables. Aquı́ esbozamos una generalización que intenta tomar en cuenta estas
fluctuaciones. Se conoce como teorı́a de Landau-Ginzburg.

La idea es aferrarse al concepto de parámetro de orden, m. Pero ahora permitimos


que varı́e en el espacio ası́ que se vuelve una función m(⃗r). Restrinjámonos a la situación
en la que hay una simetrı́a de la teorı́a m → −m, de modo que solo necesitamos
considerar potencias pares en la expansión de la energı́a libre. Añadiremos a estas un
término gradiente cuyo rol es capturar el hecho de que hay cierta rigidez en el sistema tal

– 186 –
que cueste energı́a cambiar el parámetro de orden de un punto a otro. (Para el ejemplo
del modelo de Ising, esta es simplemente la declaración de que espines cercanos quieren
estar alineados). Entonces la energı́a libre se da por
Z
F [m(⃗r)] = dd r a(T )m2 + b(T )m4 + c(T )(∇m)2
 
(5.45)

donde hemos abandonado la parte constante F0 (T ) que no depende del parámetro de


orden y por lo tanto no juega un rol en nuestra historia. Notemos que comenzamos
con términos cuadráticos en el gradiente: un término lineal en el gradiente vioları́a la
simetrı́a rotacional del sistema.

Nuevamente requerimos que la energı́a libre sea minimizada, pero ahora F es un


funcional – es una función de la función m(⃗r). Para encontrar los puntos estacionarios
de tales objetos necesitamos usar el mismo tipo de métodos variacionales que usamos
en mecánica lagrangiana. Escribimos la variación de la energı́a libre como
Z
δF = dd r 2am δm + 4bm3 δm + 2c∇m · ∇δm
 

Z
= dd r 2am + 4bm3 − 2c∇2 m δm
 

donde para ir de la primera a la segunda lı́nea hemos integrado por partes. (Necesitamos
recordar que c(T ) es una función de la temperatura pero no varı́a en el espacio de modo
que ∇ no actúa sobre ella). El mı́nimo de la energı́a libre se determina entonces al fijar
δF = 0, lo que significa que tenemos que resolver las ecuaciones de Euler-Lagrange
para la función m(⃗r),

c∇2 m = am + 2bm3 (5.46)

Las soluciones más simples a esta ecuación tienen m constante, reduciéndonos de vuelta
a la teorı́a de Landau. Asumiremos nuevamente que a(T ) > 0 para T > Tc y a(T ) < 0
para T <p Tc . Entonces las soluciones constantes son m = 0 para T > Tc y m =
±m0 = ± −a/2b para T < Tc . Sin embargo, asumiendo la posibilidad de variación
espacial en el parámetro de orden también abre la posibilidad de buscar soluciones más
interesantes.

Paredes del Dominio


Supongamos que tenemos T < Tc de modo que existan dos estados base degenerados,
m = ±m0 . Podrı́amos generar una situación en la que la mitad del espacio, digamos
x < 0, viva en el estado base m = −m0 , mientras que la otra mitad del espacio,

– 187 –
x > 0, viva en m = +m0 . Esta es exactamente la situación que nos encontramos en
la transición lı́quido-gas y se muestra en la Figura 38. También es fácil generar la
configuración análoga en el modelo de Ising. Las dos regiones en las que los espines
apuntan arriba o abajo se llaman dominios. El lugar donde estas regiones se encuentran
se llama pared del dominio.

No gustarı́a entender la estructura de la pared del dominio. ¿Cómo es que el sistema


interpola entre estos dos estados? La transición no puede suceder de forma instantánea
porque ello resultarı́a en que el término del gradiente (∇m)2 darı́a una contribución
infinita a la energı́a libre. Pero la transición tampoco puede persistir mucho porque
cualquier punto en el que m(⃗r) difiere significativamente del valor m0 cuesta energı́a
libre de los términos m2 y m4 . Debe de haber un medio agradable entre estos dos.

Para describir al sistema con dos dominios, m(⃗r) debe de variar pero solo necesita
cambiar en una dirección: m = m(x). La ecuación (5.46) se vuelve entonces una
ecuación diferencial ordinaria,
d2 m am 2bm3
= +
dx2 c c
Esta ecuación se resuelve fácilmente. Debemos recordar que para tener dos vacı́os,
T < Tc , lo que significa que a < 0. Entonces tenemos
r !
−a
m = m0 tanh x
2c
p
donde m0 = −a/2b es la solución del estado base constante para el espı́n. Conforme
x → ±∞, la función tanh tiende hacia ±1 lo que significa que m → ±m0 . Entonces,
esta solución efectivamente interpola entre los dos dominios,
p como se requerı́a. Apren-
demos que el grosor de la pared del dominio se da por −2c/a. Fuera de esta región,
la magnetización se relaja exponencialmente de vuelta a los valores del estado base.

También podemos calcular los costos de la energı́a libre debido a la presencia de la


pared del dominio. Para hacer esto, sustituimos la solución de vuelta en la expresión
para la energı́a libre (5.45). El costo no es proporcional al volumen del sistema, sino
proporcional al área de la pared del dominio. Esto significa que si el sistema tiene un
tamaño lineal L, entonces la energı́a libre del estado base escala como Ld , mientras que
la energı́a libre requerida por la pared escala solo como Ld−1 . Es simple encontrar la
dependencia paramétrica de esta pared p del dominio sin hacer ninguna integral; la en-
ergı́a por unidad de área escala como −ca3 /b. Notemos que conforme nos acercamos
al punto crı́tico, y a → 0, los dos vacı́os se acercan, el grosor de la pared del dominio
incrementa y su energı́a disminuye.

– 188 –
5.5.1 Correlaciones
Una de las aplicaciones más importantes de la teorı́a de Landau-Ginzburg es entender
las correlaciones entre las fluctuaciones del sistema en diferentes puntos del espacio.
Supongamos que sabemos que el sistema tiene una fluctuación inusualmente alta que
se aleja del promedio en algún punto del espacio, digamos el origen ⃗r = 0. ¿Cuál es el
efecto de esto en puntos cercanos?

Hay una forma sencilla de responder esta pregunta que solamente requiere resolver
la ecuación diferencial (5.46). Sin embargo, hay también una forma más complicada de
derivar el mismo resultado que tiene la ventaja de enfatizar la fı́sica subyacente y el rol
que juegan las fluctuaciones. A continuación comenzaremos derivando las correlaciones
de la forma sencilla. Después veremos cómo pueden ser derivadas también usando
maquinaria más técnica.

Asumiremos que el sistema se encuentra en un estado base dado, digamos m = +m0 ,


e imaginemos perturbaciones pequeñas al rededor de esto. Escribimos la magnetización
como

m(⃗r) = m0 + δm(⃗r) (5.47)

Si sustituimos esto en la ecuación (5.46) y mantenemos solo términos lineales en δm,


encontramos que
2a
c∇2 δm + δm = 0
c
donde hemos sustituido m20 = −a/2b para obtener este resultado. (Recordemos que
a < 0 en la fase ordenada). Ahora perturbamos el sistema. Esto se puede modelar
poniendo una función delta en el origen, de modo que la ecuación anterior sea
2a 1 d
c∇2 δm + δm = δ (0)
c 2c
donde la intensidad de la función delta ha sido escogida meramente para que la ecuación
quede un poco mejor. Es algo directo resolver el comportamiento asintótico de esta
ecuación. En efecto, es el mismo tipo de ecuación que ya resolvimos cuando discutimos
el modelo de apantallamiento de Debye-Hückel. Ignorando estos factores constantes,
esta es
e−r/ξ
δm(⃗r) ∼ (5.48)
r(d−1)/2
Esto nos dice cómo decae la perturbación conforme nos alejamos del origen. Esta
ecuación tiene diversos nombres, reflejando el hecho de que surge en muchos contextos.

– 189 –
En lı́quidos, se llama usualmente la correlación Ornstein-Zernicke. También aparece en
fı́sica de partı́culas como el potencial Yukawa. La escala de longitud ξ se llama longitud
de correlación
r
−c
ξ= (5.49)
2a
La longitud de correlación provee una medida de la distancia que le toma a las cor-
relaciones decaer. Notemos que conforme nos aproximamos al punto critico, a → 0 y
la longitud de correlación diverge. Esto provee otro indicio de que necesitamos her-
ramientas más poderosas para entender la fı́sica en el punto crı́tico. Tomaremos ahora
los primeros pequeños pasos para desarrollar estas herramientas.

5.5.2 Fluctuaciones
La motivación principal para permitir que el parámetro de orden dependa del espacio
es que tome en cuenta el efecto de las fluctuaciones. Para ver como podemos hacer esto,
primero necesitamos pensar un poco más sobre el significado de la cantidad F [m(⃗r)] y
para qué puede ser usada.

Para entender este punto, es mejor regresar a lo básico. Sabemos que la energı́a
libre del sistema se puede igualar con el logaritmo de la función de partición (1.36).
Nos gustarı́a tomar la verdadera energı́a libre F del sistema ya que esta es la no-
tación que hemos estado usando a lo largo del curso. Pero ahora hemos tomado el
funcional Landau-Ginzburg F [m(⃗r)] y, a pesar de que está ı́ntimamente relacionado
con la verdadera energı́a libre, no son la misma cosa, como veremos en breve. Ası́ que
para ahorrar confusión, haremos un cambio de notación en esta etapa tan tardı́a y
llamaremos A a la verdadera energı́a libre del sistema. La ecuación (1.36) es entonces
A = −kB T log Z, que nos permite escribir
X
e−βA = Z = e−βEn
n

Nos gustarı́a entender la manera correcta de ver al funcional F [m(⃗r)] en este desar-
rollo. Aquı́ damos un argumento heurı́stico y bastante manipulador. Un tratamiento
completo involucra ideas de renormalización de grupos.

La idea es que cada microestado |n⟩ del sistema se puede asociar con una función
especı́fica del parámetro de orden que varı́a espacialmente. Para ilustrar esto, hablare-
mos en el lenguaje del modelo de Ising aunque la discusión se generaliza a cualquier
sistema. Aquı́ podrı́amos considerar asociar la magnetización m(⃗r) a cada sitio de la
red simplemente promediando sobre todos los espines dentro de una cierta distancia

– 190 –
hacia este punto. Claramente, esto solo conducirá a funciones que toman valores en
sitios de la red en lugar de en el continuo. Pero si las funciones se comportan de manera
adecuada entonces deberı́a de ser posible suavizarlas a funciones continuas m(⃗r) que
son esencialmente constantes en escalas de distancia menores que el espaciado de la
red. De este modo, obtendremos una transformación del espacio de microestados a la
magnetización, |n⟩ 7→ m(⃗r). Pero esta transformación no es uno a uno. Por ejemplo, si
el promedio se hace sobre suficientes sitios, es improbable que voltear el espı́n solamente
en un sitio tenga un efecto importante en el promedio. De este modo, muchos microes-
tados mapean sobre la misma magnetización promedio. Sumar solo estos microestados
proporciona una construcción de primeros principios de F [m(⃗r)],
X
e−βF [m(⃗r)] = e−βEn (5.50)
n|m(⃗
r)

Por supuesto, realmente no hicimos este procedimiento para obtener (5.45): simple-
mente lo escribimos en la forma más general en la vecindad del punto crı́tico con
un montón de coeficientes desconocidos a(T ), b(T ) y c(T ). Pero si nos gustan los
desafı́os, el procedimiento anterior nos dice cómo podemos encontrar tales funciones
desde primeros principios. Más importante, también nos dice qué debemos hacer con
la energı́a libre de Landau-Ginzburg. Dado que en (5.50) solo sumamos sobre aquellos
estados que corresponden a un valor particular de m(⃗r). Para calcular la función de
partición completa, necesitamos sumar sobre todos los estados, pero esto lo podemos
hacer al sumar sobre todos los posibles valores de m(⃗r). En otras palabras
Z
Z= Dm(⃗r) e−βF [m(⃗r)] (5.51)

Esto es una bestia truculenta: es una integral funcional. Estamos integrando sobre
todas las posibles funciones m(⃗r), que es lo mismo que hacer un número infinito de
integrales. (De hecho, dado que los parámetros de orden m(⃗r) surgieron de una red
subyacente y son adecuadamente suaves en escalas de distancia cortas, el problema se
mitiga un poco).

El resultado (5.51) es fı́sicamente muy agradable, aunque matemáticamente un poco


desalentador. Esto quiere decir que debemos ver la energı́a libre de Landau-Ginzburg
como un nuevo hamiltoniano efectivo para una variable continua m(⃗r). Surge de la
suma de la función de partición sobre gran parte de la información microscópica, pero
aún nos deja con la suma final, o integral, sobre fluctuaciones sobre una cantidad
promediada, a saber, el parámetro de orden.

– 191 –
Para completar el problema, necesitamos hacer la integral funcional (5.51). Esto es
difı́cil. Aquı́ “difı́cil” quiere decir que la mayorı́a de los problemas no resueltos de fı́sica
teórica pueden reducirse a resolver integrales de este tipo. Aún ası́, el hecho de que sea
difı́cil no debe desmotivarnos, ya que hay una riqueza de fı́sica hermosa escondiéndose
en la integral de trayectoria, incluyendo la profunda razón detrás de la universalidad.
Comenzaremos a explorar algunas de estas ideas en el curso del siguiente año de Teorı́a
Estadı́stica de Campos.

– 192 –

También podría gustarte