Universidad de los Andes
Revisión de los fundamentos de la
mecánica estadı́stica con
herramientas de la teorı́a cuántica
de la información
Tesis
para obtener el tı́tulo de
FÍSICO
presenta
GERMÁN EDUARDO OSORIO LEIVA
Asesor: Dr. Alonso Botero Mejı́a
Bogotá, D.C. 2017
”Y ası́ pensé yo que las ciencias de los libros, por lo menos aquellas
cuyas razones son sólo probables y carecen de demostraciones, habiéndose
compuesto y aumentado poco a poco con las opiniones de varias personas
diferentes, no son tan próximas a la verdad como los simples razonamientos
que un hombre de buen sentido puede hacer... ”
René Descartes
Universidad de los Andes
Abstract
Faculty of Sciences
Departament of Physics
by Germán Eduardo Osorio Leiva
This document will show which are the foundations of the statistical
mechanics nowadays. It will survey the conceptual difficulties that are pre-
sent in Gibbs and the Boltzmann’s formulation, some are the necessity of
the ergodic hypothesis and the concept of entropy for each formulation.
The objective is to present the new approach to the foundations of the
statistical mechanics given by Popescu, Short, and Winter [21], they recon-
cile Boltzmann’s and Gibbs perspectives; they also give some specifications
over the nature of probability in the theory making obsolete the ergodic
hypothesis. This formalism will be reproduced. Finally, it will be show the
approach to thermal equilibrium for non equilibrium systems by Linden,
Popescu, Short and Winter [16].
Universidad de los Andes
Resumen
Facultad de Ciencias
Departamento de Fı́sica
por Germán Eduardo Osorio Leiva
En este escrito se estudia cuáles son los fundamentos donde actualmente
se encuentra la mecánica estadı́stica. Se ven las dificultades conceptuales
que tienen las perspectivas de Gibbs y Boltzmann, como la necesidad de
la hipótesis de la ergodicidad y la entropı́a de cada formalismo. La meta
es ver cómo el enfoque dado a los fundamentos de la mecánica estadı́stica
entregado por Popescu, Short y Winter [21] concilia estas perspectivas,
además de resolver detalles como la naturaleza de la probabilidad en la
teorı́a, haciendo innecesaria la introducción de la hipótesis de ergodicidad.
Se replicará el formalismo dado por los autores. Y se finalizará, viendo
como Linden, Popescu, Short y Winter [16] usaron el formalismo anterior
para demostrar la termalización de sistemas lejos del equilibrio.
Agradecimientos
Agradezco a mi padre que me ha apoyado en todos mis proyectos con-
fiando en mı́ y dándome la fortaleza necesaria para las situaciones compli-
cadas. También, siento mucha gratitud hacı́a mi madre que con su energı́a
y alegrı́a ha hecho de la vida un paseo muy colorido. De la misma mane-
ra, hay muchas personas que saben lo importante que son para mı́ y han
hecho de este viaje algo muy ameno. Estoy agradecido con mi asesor de
monografı́a Alonso Botero por su orientación y tutorı́as.
iii
Índice general
1. Introducción 1
2. Orientaciones generales 5
2.1. Recuento Histórico . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1. Termodinámica . . . . . . . . . . . . . . . . . . . . . 6
2.1.2. Teorı́a Cinética . . . . . . . . . . . . . . . . . . . . . 10
2.2. Fundamentos de la Mecánica Estadı́stica . . . . . . . . . . . 11
2.3. Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1. Ensamble Canónico . . . . . . . . . . . . . . . . . . 17
2.4. Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . 18
2.4.1. Consecuencias del Teorema de Liouville . . . . . . . 20
2.5. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6. Jaynes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3. El Entrelazamiento y La Mecánica Estadı́stica 31
3.1. Herramientas de la Teorı́a Cuántica . . . . . . . . . . . . . . 32
3.1.1. Operador Densidad . . . . . . . . . . . . . . . . . . . 32
3.1.2. Operador Densidad Reducido . . . . . . . . . . . . . 36
3.1.3. Distancia de Traza . . . . . . . . . . . . . . . . . . . 38
3.2. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3. Idea Conceptual . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4. Formulación Matemática . . . . . . . . . . . . . . . . . . . . 43
3.4.1. Lema de Levy . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2. Demonstración del Principio General Canónico . . . 48
3.5. Significado Fı́sico . . . . . . . . . . . . . . . . . . . . . . . . 54
v
4. Evolución Hacia El Equilibrio 59
4.1. Especificación del Equilibrio . . . . . . . . . . . . . . . . . . 60
4.2. Equilibración . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5. Conclusiones 77
Bibliografı́a 79
Capı́tulo 1
Introducción
La mecánica estadı́stica muestra gran poder para comprender los fenóme-
nos causados por sistemas de muchas partı́culas. Las predicciones teóricas
concuerdan con los experimentos, pero el marco teórico en el que se funda-
menta tiene problemas conceptuales que dejan a la teorı́a en un cimiento
débil. Para exhibir las incongruencias internas de los fundamentos, se ex-
ploran las ideas de Boltzmann y de Gibbs, porque sus enfoques tienen un
gran impacto en la creación del marco conceptual de la mecánica estadı́sti-
ca.
En la época de Botlzmann, la termodinámica se consideraba una teorı́a es-
tablecida y no se le daba un significado microscópico. Boltzmann, buscando
una conexión entre la termodinámica y el mundo microscópico, planteó el
teorema H. Este teorema muestra que al pasar el tiempo la función H de-
crece. La relación con la entropı́a termodinámica se da al multiplicar la
función H por una constante -K, entonces se tiene que la entropı́a aumenta
con el tiempo [3]. Según Jaynes, el problema con la formulación de Boltz-
mann es que la función H solo entrega la entropı́a termodinámica cuando
no hay interacción entre partı́culas.
Unos años después, Gibbs postuló su noción de ensambles. Jaynes muestra
que la entropı́a de Gibbs, para todos los casos, es la entropı́a termodinámi-
ca. Aunque sus resultados concuerden con la termodinámica, la entropı́a
de Gibbs no puede dar explicación a la flecha del tiempo, porque esta en-
tropı́a se conserva a diferencia de la de Boltzmann. Pese a que el enfoque
de Gibbs se muestra poderoso para resolver muchos problemas, Gibbs no
1
2 CAPÍTULO 1. INTRODUCCIÓN
explicó ¿cómo es posible hablar de un ensamble de posbiles estados mi-
croscópicos, estando en un solo estado microscópico? En la literatura se
resuelve esta pregunta usando la hipótesis ergódica, lo cual acarrea pro-
blemas porque no todos los sistemas son ergódicos; y el tiempo para que
sistemas ergódicos pasen por todo el espacio es extremadamente grande.
Partiendo de los planteamientos realizados por Popescu, Short y Winter,
en el artı́culo “Entanglement and the foundations of statistical mechanics”
[21] -donde se estudia la idea de la tipicidad canónica con herramientas de
la teorı́a de la información cuántica- cuando se tiene un sistema cuánti-
co aislado compuesto por el subsistema y el ambiente, siendo el ambiente
mucho más grande que el subsistema, se asegura que, aunque se tenga un
estado puro de todo el sistema cuántico, el subsistema se comportará como
si el sistema estuviese en un estado máximamente mezclado. Los autores
formalizan esta idea dando unas cotas sobre la probabilidad de que haya
un subsistema que no se comporte como un estado canónico. Estas cotas
decaen de manera exponencial con respecto a la dimensión del sistema, con
lo que se postula un nuevo principio, el principio de probabilidades iguales
aparentes. Ası́, el subsistema tiene la misma probabilidad de estar en cual-
quier estado admisible aunque se llegue a conocer todo lo posible sobre el
estado del sistema.
Por otra parte, los mismos autores junto con Linden en el artı́culo “Quan-
tum mechanical evolution towards thermal equilibrium” [16] exponen en
base a la tipicidad canónica cómo los sistemas llegan al equilibrio -lo cual
significa que el sistema pasa mucho tiempo cerca de un estado particular-
, intentando demostrar matemáticamente la condición de independencia
sobre el estado inicial del ambiente y el estado inicial del subsistema, ya
que el estado de equilibrio no debe depender de las condiciones iniciales
del sistema. La formulación matemática exhibida en este artı́culo muestra
que los estados genéricos y los estados fuera del equilibrio del subsistema
llegan a termalizarse a un estado especı́fico, siendo este estado el promedio
temporal del estado del subsistema.
Desde este horizonte de sentido, en el presente trabajo se realizará una re-
visión crı́tica del estado del arte de las ideas modernas que han dado lugar
a una reformulación de los fundamentos estadı́sticos de la termodinámica
a partir de las herramientas que proporciona la teorı́a de la información
cuántica. Asimismo, se consideran algunos ejemplos de aplicaciones de es-
3
tas formulaciones a sistemas lejos del equilibrio.
En este sentido, se trata de vislumbrar las ideas sobre la esencia de la
formulación estadı́stica según la tipicidad canónica de estados cuánticos
en espacios de Hilbert de altas dimensiones, replicando los cálculos y des-
glosando los pasos conceptuales con importancia fı́sica según las ideas de
Popescu et al ; revisar detenidamente los cálculos e ideas nuevas sobre las
aplicaciones de la termodinámica en sistemas fuera de equilibrio dadas por
la teorı́a de la información cuántica, comparando con los avances teóricos
previos a estas herramientas.
En el primer capı́tulo se esbozan, en primer lugar, algunas ideas genera-
les haciendo un breve recuento histórico de la termodinámica y la teorı́a
cinética; luego, los fundamentos de la mecánica estadı́stica desde la pers-
pectiva de Boltzmann y Gibbs; después, el ensamble canónico, el teorema
de Liouville y sus consecuencias, y la ergocidad y, finalmente, el principio
de máxima entropı́a de Jaynes.
En el segundo capı́tulo, se plantean, en una primera instancia, el entrela-
zamiento y la mecánica estadı́stica. Posteriormente se mostrarán las herra-
mientas de la teorı́a cuántica; luego, el operador de densidad, el operador
de densidad reducida y la distancia de traza; después, algunas definicio-
nes, la idea conceptual, la formulación matemática del entrelazamiento y
la mecánica estadı́stica. Finalmente, se expondrán el lema de Levy, la de-
mostración del principio general canónico y por último, su significado fı́sico.
En el tercer capı́tulo se presentan, primero, la evolución hacia el equilibrio,
luego, la especificación del equilibrio, y se termina con la equilibración de
los sistemas.
Finalmente se presentan algunas conclusiones, producto del desarrollo del
presente trabajo.
Capı́tulo 2
Orientaciones generales
Este capı́tulo inicia indagando un poco sobre las perspectivas que die-
ron origen a la mecánica estadı́stica, y finaliza de manera sucinta con la
propuesta dada por E.T. Jaynes. A partir de un recorrido histórico, con
el fin de ubicar el nacimiento de la mecánica estadı́stica en un contexto
natural, se exploran los puntos de vista de Gibbs y Boltzmann de manera
explı́cita, señalando las dificultades que trae consigo cada uno. Posterior-
mente, se exponen las implicaciones que tiene la hipótesis de ergodicidad,
y se concluye con el postulado entregado por E.T. Jaynes.
2.1. Recuento Histórico
Explicar los puntos de vista más relevantes de la mecánica estadı́stica
implica situar un contexto histórico, dado que es la forma más clara y preci-
sa de comprender cómo surgieron estas ideas. Por tal razón, en esta sección
se expondrán las circunstancias en las que se formuló la termodinámica;
según el libro de I. Muller [17].
La fı́sica actual fue iniciada por Hamilton y Lagrange creando métodos
eficaces para enfrentar diferentes problemas. Aunque la mecánica clásica
tiene un amplio alcance dando predicciones acordes con los experimentos,
se demostró también que esta teorı́a no daba respuesta a todos los aspectos
de la naturaleza. Ya desde el siglo XVIII, empezaba a existir la necesidad
de una teorı́a que tratara conceptos diferentes a los comunes a la mecánica,
5
6 CAPÍTULO 2. ORIENTACIONES GENERALES
como el calor y la energı́a, aunque, inicialmente, estos fueron ideas muy
vagas y primitivas. La teorı́a sobre el calor fue evolucionando gracias a
los experimentos de Graf von Rumford, Julius Mayer y James Prescott
Joule. Por otro lado, Nicolás Carnot trabajaba en motores de calor y sus
consecuencias teóricas, lo que dio el soporte para que un nuevo concepto
empezara a circular, la entropı́a. Poco a poco el sentido de la termodinámi-
ca fue evolucionando hasta llegar al actual, gracias a autores como Benoı̂t
Clapeyron, Lord Kelvin y Rudolf Clausius.
La termodinámica se basó en experimentos y fue organizada bajo postu-
lados [2], sus predicciones fueron respaldadas experimentalmente gracias a
la innovación y la industria, lo que le generó una esencia diferente a la de
las otras teorı́as fı́sicas ya que no propone una explicación sobre las leyes,
simplemente expone qué ocurre con las propiedades de un sistema ma-
croscópico en equilibrio. Por ejemplo, la primera ley de la termodinámica
solo expone cómo la energı́a del sistema es constante sin importar el proce-
so que se lleve a cabo. Dado su origen, la termodinámica no se interesaba
por encontrar una conexión entre sus resultados y los constituyentes de la
materia.
De este problema nace la mecánica estadı́stica. sus esfuerzos iniciales he-
chos por los cientı́ficos de la época se centraron en considerar la materia
hecha de partı́culas y de esta manera, poder predecir todas las propiedades
térmicas macroscópicas ya encontradas por la termodinámica. Los autores
que más ayudaron a la creación de esta teorı́a fueron Gibbs, Boltzmann y
Maxwell; quienes trazaron las ideas principales y moldearon la teorı́a para
poder tener métodos generales para aplicaciones de diferentes tipos. Fueron
tan asertivos los postulados de los métodos producidos por Gibbs, que son
los que todavı́a se utilizan.
2.1.1. Termodinámica
La mecánica estadı́stica es la base conceptual de la termodinámica,
aunque históricamente primero apareció la teorı́a de la termodinámica. La
termodinámica apareció gracias a la agrupación de varias ideas en el siglo
XIX que encerraban diversos tipos de experimentos y nociones existen-
2.1. RECUENTO HISTÓRICO 7
tes desde la antigua Grecia. A pesar de que las ideas que dieron paso a
la termodinámica surgieron en la antigüedad, poco a poco se han ido de-
purando. Por ejemplo, según I. Muller, Klaudios Galenos (133-200 A.C)
suponı́a que la influencia del clima sobre los fluidos del cuerpo podı́a deter-
minar el carácter de una persona. Ası́, decı́a que los habitantes del norte
frı́o y húmedo eran salvajes y violentos, al contrario de los habitantes del
sur, caliente y seco, que eran flácidos y mansos; lo que evidencia de manera
clara que la idea de temperatura ha sido conocida intuitivamente de una u
otra manera.
En el año 1578 Johannis Hasler presentó una tabla de las temperaturas cor-
porales de las personas en relación a la altura en la que vivı́an; actualmente
se sabe que la temperatura corporal no depende de la altura sino de otras
variables como una buena salud, por ejemplo. Este error conceptual se dio
debido a los precarios instrumentos de medición usados en esa época 1 . Ya
para inicios del siglo XVII se tenı́a un instrumento que posibilitaba deter-
minar con precisión la temperatura: se trataba del termómetro. Gracias
a este instrumento, muchas ideas equivocadas dadas por la subjetividad
de los sentidos sobre el calor y el frı́o se fueron eliminando. En los años
1700 empezaron a aparecer las escalas de temperatura, y hubo incluso 18
escalas en algún momento [17]. En 1848 William Thompson (Lord Kelvin)
introdujo la escala absoluta denominada la escala Kelvin, la cual cuenta
desde el cero absoluto en adelante. El punto de ebullición del agua a 1 atm
es 373.15 Kelvin.
Otro, concepto importante de la termodinámica es la energı́a. En sus inicios
se hablaba de calor o fuerza; no se comprendı́a en si qué era el calor. La
teorı́a calórica pretendı́a dar explicación al calor. Entre diversas propues-
tas se encuentran las de Pierre Gassendi (1592-1655) donde proponı́a que
el calor y el frı́o eran tipos de materia diferente. Según I. Muller, Gassendi
consideraba a los átomos del frı́o como tetraedros que al entrar a un lı́quido
se solidificarı́an.
Antoine Laurent Lavoisier (1743-1794) consideró al calor como otro ele-
mento: lo contemplaba como un fluido que llamaba el calórico. Una de las
primeras personas en cuestionar la teorı́a calórica fue Graf Von Rumford
1
los instrumentos de medición de la época se veı́an afectados con el cambio de presión.
Por lo tanto al hacer mediciones de temperatura en diferentes alturas los resultados
obtenidos variaban de acuerdo a la misma
8 CAPÍTULO 2. ORIENTACIONES GENERALES
(1753-1814), observando en unos cañones el cambio del calor liberado de-
pendiendo de si estaban afilados o no. Concluyó, entonces, que el calor
debı́a ser el mismo que habı́a sido administrado debido al movimiento.
Rumford continuó trabajando en su idea del equivalente mecánico del calor:
moviendo un cabrestante con dos caballos, notó que el calor del barril era
igual ”al de 9 velas grande”. Rumford siguió haciendo experimentos sobre
el calor, midió de manera meticulosa el peso del agua antes y después de ser
congelada; encontró que el peso no cambiaba, pero aun ası́ se cedı́a calor en
el proceso. Entonces concluyó que si el calórico 2 existı́a era imponderable.
Pese a los experimentos realizados por Rumford, la teorı́a calórica siguió
siendo de gran aceptación durante muchos años.
Robert Julius Mayer (1814-1878) estudió medicina, pero su entusiasmo ha-
cia la fı́sica lo guió a hacer experimentos en este campo. La idea principal
que tenı́a Mayer era que la energı́a se conservaba de forma general, no solo
cuando hay trabajo mecánico, es decir, cualquier fenómeno capaz de apor-
tar energı́a debı́a tenerse en cuenta al momento de un experimento. Gracias
a los estudios hechos por su cuenta sabı́a que la energı́a cinética, en sus pa-
labras ”fuerza viva”, podı́a convertirse en calor. Experimentalmente dedujo
que la caı́da de un peso a una altura de 365 metros correspondı́a a calentar
el mismo peso de agua de 0◦ a 1◦ . No es muy exacto pero estuvo bastante
cerca, incluso llegó a cambiar la altura a 425 metros luego de que Joule
hiciera mejores mediciones.
Mayer tenı́a ideas bastante originales, aunque en general no sabı́a expresar-
las por falta de experiencia matemática y su aislamiento de la comunidad
cientı́fica. Pero Mayer fue el primero en hablar sobre máquinas térmicas y
decir que el calor absorbido por el vapor era siempre mayor que el calor
liberado durante la condensación, y su diferencia era trabajo útil. Esta idea
se expuso antes que Carnot y Clapeyron, quienes sabı́an cómo se manejaba
el calor pero no conocı́an su naturaleza.
James Prescott Joule (1818-1889) proporcionó en extremo detalle observa-
ciones sobre el calor y la temperatura. Sus experimentos eran discutidos
en sus escritos de forma muy extensa, presentando factibles errores, com-
pensando pérdidas; eran tan detallados que algunos de sus artı́culos se
volvieron estándares. Es por eso que Mayer comparó sus experimentos con
2
El calórico era la idea anterior al calor, se le consideraba un fluido.
2.1. RECUENTO HISTÓRICO 9
los de Joule, encontrando que uno de los aportes de Joule fue que gracias
a sus experimentos se aceptó la conservación de la energı́a.
Posteriormente Hermann Ludwig Ferdinand Helmholtz (1821-1894) propu-
so la idea que lo que se llamaba calor era la energı́a cinética del movimiento
térmico de los átomos. Siendo Helmhotlz el primero en descartar el término
de fuerza viva, y llamarlo energı́a. El trabajo de Helmholtz fue importante
ya que Joule y Mayer no podı́a dar una visión clara sobre lo que se llama-
ba calor, y divagaban entre calor y fuerza; Helmholtz planteó con mayor
claridad los conceptos en comparación con los otros teóricos.
Es ası́ como, paso a paso, a la luz de estas reflexiones, desaciertos y acier-
tos, se va construyendo de manera significativa el camino para dar origen
a la primera ley de la termodinámica. Como se puede observar, la historia
de la energı́a no tuvo un desarrollo tan claro y asertivo, por lo que llegar
hasta la idea actual, no fue para nada rápido ni sencillo. Puede ponerse en
contraste con ésta la mecánica cuántica, que aunque fue inspirada también
por la radiación del cuerpo negro, un tema que en ese entonces era tratado
por la termodinámica, su construcción matemática y teórica avanzó más
rápidamente.
A diferencia de la energı́a, la entropı́a fue un concepto más provocador al
momento de darle un sentido microscópico.
La historia de la entropı́a empieza por los motores térmicos; hay especula-
ciones de que en el primer siglo antes de Cristo ya existı́an algunas máqui-
nas que funcionaban con vapor de agua: se cree que Herón de Alexandrı́a
hizo una de éstas. En el siglo XVIII Thomas Newcome y Thomas Savery
crearon una máquina de vapor que inicialmente ayudaba a sacar agua de
las minas, pero fue James Watt(1736-1819) quien mejoró esa máquina de
vapor haciéndola de 3 a 4 veces más eficiente.
Nicolas Léonard Sadi Carnot (1796-1832) se preguntó sobre qué tanto se
podı́a optimizar la eficiencia de una máquina térmica. Carnot publicó un
libro donde argumenta proposiciones para resolver la pregunta hecha; allı́
encontró que la eficiencia de una máquina que trabaja entre dos tempera-
turas y solo intercambia calor entre ellas depende únicamente de la tem-
peratura, e = F (T )dT para un delta de temperatura, incluso aunque las
máquinas se manejen con agentes diferentes para generar trabajo.
Carnot seguı́a creyendo en la teorı́a calórica. Para llegar a estas ideas no fue
necesario saber que esta teorı́a estaba incorrecta, sus resultados se mantu-
10 CAPÍTULO 2. ORIENTACIONES GENERALES
vieron como ciertos. Según I. Muller, Carnot no pudo localizar exactamente
los valores de la eficiencia. Clapeyron y Kelvin, tampoco, pudieron hallar
los valores de esta eficiencia ni por mediciones ni por cálculos.
En 1850 se afirmaba que la teorı́a calórica estaba mal formulada y que se
debı́a hacer algo al respecto. Clausius retocó algunas ideas de Carnot y
pudo encontrar la eficiencia del ciclo de Carnot. Clausius le dio forma a la
termodinámica actual -incluso los cursos actuales de termodinámica siguen
un artı́culo de Clausius que habla de gases ideales y vapor húmedo [17]-.
Clausius amplió sus investigaciones a ciclos no infinitesimales y a procesos
no reversibles, él fue quien dio la idea de la entropı́a y sus propiedades.
Con eso propuso la segunda ley de la termodinámica: El calor no puede
pasar solo de un cuerpo frı́o a un cuerpo caliente. Clausius llamó S = QT a
la entropı́a y vio que esto era lo que se conservaba en un ciclo de Carnot.
Pero en términos microscópicos no se conocı́a el significado de S.
2.1.2. Teorı́a Cinética
Paralelamente a mitad del siglo XIX, se trabajaba en la teorı́a cinética
de los gases. Esta teorı́a estudiaba propiedades macroscópicas tales como la
presión, temperatura, viscosidad, conductividad térmica etc., de un número
muy grande de partı́culas que seguı́an las ecuaciones clásicas del movimien-
to. Habı́a dos suposiciones que se planteaban en esta teorı́a. La primera,
que los gases eran sistemas mecánicos de muchas partı́culas idénticas. La
segunda, que debido a la gran cantidad de partı́culas se debı́a introdu-
cir probabilidades para observar, de esta manera, algunas regularidades
que aparecı́an debido a las configuraciones de las moléculas. Teóricos co-
mo Clausius, Maxwell (1831-1879) y Boltzmann (1844-1906) trabajaron en
esta área y produjeron resultados importantes. Sin embargo, y a pesar de
estar de acuerdo con los resultados experimentales, hubo muchas discusio-
nes sobre las hipótesis usadas para llegar a estos resultados.
Ası́, por ejemplo, en los trabajos de Clausius se hace uso de los siguien-
tes supuestos para gases en reposo y en equilibrio térmico: Las moléculas
que están dentro de un recipiente se encuentran distribuidas con la misma
densidad en todo el recipiente, la distribución de velocidades es igual en
todo el recipiente, todas las direcciones de velocidad son igual de probables.
2.2. FUNDAMENTOS DE LA MECÁNICA ESTADÍSTICA 11
Estas tres hipótesis se constituyeron en el comienzo para ver los sistemas
mecánicos desde una perspectiva probabilı́stica [3].
Maxwell convirtió las ideas de Clausius sobre la poca dispersión de la distri-
bución de velocidad en algo que se podı́a calcular. Ası́ que Maxwell propuso
en 1859 su ley de distribución
2 +v 2 +w 2 )
f (u, v, w)∆u∆v∆w = Ae−B(u ∆u∆v∆w, (2.1)
donde f (u, v, w)∆u∆v∆w es el número de moléculas entre esos lı́mites de
velocidades, cada lı́mite representa un componente de la velocidad.
Botlzmann en 1868 generalizó el resultado de Maxwell. Tenı́a la misma
situación de un gas en equilibrio y en reposo, pero ahora con un campo
de fuerza externo actuando sobre las moléculas. Boltzmann tuvo en cuenta
que las moléculas eran compuestas de otras partı́culas, lo cual afectaba los
diferentes valores de energı́a potencial [3], denotando a ∆τ como el rango
de variaciones muy pequeñas que puede tener el estado de la molécula, o
sea ∆τ = ∆x∆y∆z∆u∆v∆w. La generalización dada por Boltzmann es
f (x, y, z, u, v, w)∆τ = αe−βE ∆τ. (2.2)
E es la energı́a total que tiene la molécula; esto es, la energı́a cinética,
energı́a potencial interna y energı́a potencial externa. Esta generalización es
llamada la distribución de Maxwell-Boltzmann. Boltzmann además mostró
que cualquier otra distribución bajo la condición de colisiones entre partı́cu-
las evoluciona hacia la distribución de Maxwell-Boltzmann. Usó el teorema
H para llegar a esta conclusión.
2.2. Fundamentos de la Mecánica Estadı́stica
Es desde este contexto histórico referencial que Boltzmann dio las pri-
meras ideas sobre la mecánica estadı́stica.
En esta sección, se expondrán los conceptos más importantes que Boltz-
mann postuló y ayudaron a formar la fı́sica estadı́stica. La meta de Bol-
tzmann era lograr dar un enfoque microscópico a la termodinámica y po-
der explicar las propiedades térmicas que se observaban en los sistemas
macroscópicos. Como primera conexión intentó darle un significado mi-
croscópico a la segunda ley de la termodinámica. Esta conexión viene de-
mostrada por el teorema H.
12 CAPÍTULO 2. ORIENTACIONES GENERALES
Aquı́ es necesario destacar que, para hablar sobre teorema H, primero se
debe explicar la ecuación de transporte de Boltzmann. Esta ecuación puede
derivarse desde la jerarquı́a de Bogoliubov-Born-Green-Kirkwood-Yvon o
al observar el problema del número de partı́culas en un rango del estado
de una molécula en el espacio de fase [8]. Para ambas propuestas se debe
hacer supuestos para poder seguir con el análisis, lo que no se mostrará en
este trabajo ya que no es pertinente seguir todos los pasos.
La ecuación de transporte de Boltzmann describe cómo la distribución de
moléculas f (~r, p~, t) evoluciona en el tiempo. Donde ~r es la posición y p~ es
el momento. La ecuación es
∂ ∂U ∂ p~1 ∂
( − · + · )f =
∂t ∂~q1 ∂~ p1 m ∂~q1
Z
dσ
− d3 p~2 d2 Ω| ||~v1 − ~v2 |[f (~ p01 , ~q1 , t)f (~
p2 , ~q1 , t) − f (~
p1 , ~q1 , t)f (~ p02 , ~q1 , t)].
dΩ
Esta ecuación se puede leer como [12]: el término a la izquierda describe
el movimiento de una partı́cula en un potencial U, el término de la de-
recha es la probabilidad de encontrar que una partı́cula con momento p~1
en ~q1 sea alterada por una colisión con una partı́cula con momento p~2 .
La probabilidad de esta colisión está dada por el producto de los facto-
dσ
res cinéticos proporcionado por la sección transversal diferencial | dΩ |, el
flujo de partı́culas incidentes |~v1 − ~v2 | y la probabilidad de encontrar dos
partı́culas f (~
p1 , ~q1 , t)f (~
p2 , ~q1 , t). El primer término substrae la probabilidad
e integra sobre todos lo momentos posibles y el ángulo sólido. El segundo
término es la adición del proceso inverso.
Hablar de la ecuación de transporte de Boltzmann es importante para se-
guir con el teorema H; ya que este dice que: si f satisface la ecuación de
transporte de Boltzmann, entonces dH dt ≤ 0, donde
Z
H(t) = d3 p~d3 ~qf (~ p, ~q, t) ln(f (~
p, ~q, t)). (2.3)
Con este teorema se puede demostrar que la distribución en el equilibrio es
la distribución de Maxwell-Boltzmann, o sea que cuando t → ∞ la distri-
p) = αe−βE [8]. Pero hay un punto importante aquı́,
p, t) → f0 (~
bución f (~
y es algo que también en su época desconcertó a los contemporáneos de
Boltzmann, ¿cómo es posible llegar a una descripción de fenómenos irre-
versibles que muestran una dirección temporal partiendo de una teorı́a de
2.3. GIBBS 13
un gas reversible? Esto está dado por las suposiciones hechas al derivar la
ecuación de transporte de Boltzmann [3].
Se usa la hipótesis de caos molecular (Stosszahlanzatz). Esta dice que,
después de una colisión, las partı́culas que interactuaron durante el choque
quedan descorrelacionadas. Entonces, por el caos molecular f (~r, p~1 , p~2 , t) =
f (~r, p~1 , t)f (~r, p~2 , t). Es por esta hipótesis que la simetrı́a temporal se rompe
y hace que haya una dirección particular para el tiempo, porque al desco-
rrelacionar las partı́culas después de un choque se rompe la simetrı́a que
tienen las ecuaciones de movimiento clásicas. El teorema H fue usado por
Boltzmann para poder darle una base microscópica a la segunda ley de la
termodinámica. La relación es
H(t)
S(t) = − , (2.4)
kB
donde S es la entropı́a y kB es la constante de Boltzmann. Pero también
Boltzmann recibió muchas crı́ticas sobre la posibilidad de asociar a H con
la entropı́a.
Una de las objeciones que recibió fue sobre la posibilidad de poner todas
las velocidades de las moléculas de forma opuesta a las dadas inicialmente,
lo que darı́a resultados contrarios a los esperados. Si inicialmente se encon-
traba que H decrecı́a, ahora, al invertir las velocidades, se hallaba que H
aumentaba. Esto significa que hay un caso para el cual la entropı́a dismi-
nuye lo cual va en contra de la segunda ley [13].
Otro problema dado por E. Zermelo es que Poincaré habı́a demostrado que
en ese modelo cinético de un gas aislado, el sistema se comportaba cua-
siperiódicamente. Esto quiere decir que la función H puede ir asumiendo
valores más grandes después de un periodo de tiempo [3].
2.3. Gibbs
Más adelante W. Gibbs (1839-1903) con su libro Elementary Princi-
ples of Statistica Mechanics en 1901 propuso la forma actual de hacer
fı́sica estadı́stica. Gibbs desarrolla las ideas de ensambles, el estado mi-
cro canónico y canónico. Las ideas de Gibbs eran más imaginativas que las
de Boltzmann, porque introdujo conceptos no muy intuitivos a la mecánica
14 CAPÍTULO 2. ORIENTACIONES GENERALES
estadı́stica. Aunque Gibbs volvió a formular la fı́sica estadı́stica con ideas
nuevas, también se encontraron algunas dificultades en ellas.
Para mostrar las nociones dadas por Gibbs se supone un sistema compues-
to de N partı́culas. Gracias a la mecánica clásica se conocen las ecuaciones
de movimiento para un sistema de varias partı́culas, las ecuaciones de Ha-
milton:
dqi ∂H dpi ∂H
= , =− , (2.5)
dt ∂pi dt ∂qi
donde el ı́ndice i = 1, ..., 3N y H es el hamiltoniano del sistema. Se podrı́a
pensar que el problema ya se encuentra solucionado pero hay dificultades
al tener estas ecuaciones: la cantidad de ecuaciones de movimiento es muy
grande, pues un volumen tı́pico es del orden de 1023 partı́culas. En la actua-
lidad, aunque las herramientas que proporciona la computación ayudan a
resolver muchas ecuaciones suponiendo cierta simplicidad en ellas, aún ası́
existe el problema de las condiciones iniciales del sistema. En la práctica
es imposible de encontrar la posición y el momento de todas las partı́culas
para el mismo tiempo, esto es en el caso clásico [14]. La mecánica cuántica
impone restricciones aún mayores.
Para poder superar este dilema se visualiza un enfoque estadı́stico, donde
se ve que, a mayor número de partı́culas, empiezan a aparecer regularida-
des. Lo interesante de la mecánica estadı́stica es que las leyes dadas solo
funcionan cuando los grados de libertad son muchos.
Sea un sistema mecánico macroscópico en un instante de tiempo t, se dice
que el microestado del sistema está dado por cada qi (t) y pi (t). El mi-
croestado se puede representar por un punto λ(t) en un espacio abstracto
de 6N dimensiones: el espacio de fase Γ = Π3N i {qi , pi }. Con esto claro, la
propuesta de Gibbs del ensamble es: Se suponen N copias de un sistema
macroscópico, cada uno de ellos viene representado en el espacio de fase
Γ por un punto λ(t). Nótese que esto no significa que las copias represen-
tan el mismo estado microscópico. Un sistema macroscópico puede tener
diferentes microestados, y cada microestado puede cambiar con respecto
a otro, por lo menos por una posición o momento. Esto no afectarı́a a las
propiedades macroscópicas que se miden y, para términos prácticos, serı́a
el mismo sistema macroscópico [12].
El ensamble de copias permite crear una densidad de probabilidad en el
espacio de fase. Sea dN (p, q, t) el número representativo de puntos en el
2.3. GIBBS 15
volumen infinitesimal dΓ = Π3Ni dpi dqi alrededor del punto (p, q). Entonces
se define una densidad en el espacio de fase:
dN (p, q, t)
ρ(p, q, t)dΓ = lı́m . (2.6)
N →∞ N
Es más conveniente escribir la evolución del sistema por esta densidad, por
su sencillez matemática. Ahora que se pudo definir una densidad de pro-
babilidad en el espacio de fase, se puede hallar los promedios de ensamble
ası́: Z
hf i = dΓρ(p, q, t)f (p, q). (2.7)
Los promedios, se encuentran gracias al ensamble compuesto de varias co-
pias idénticas del sistema, pero en microestados diferentes que son admisi-
bles por los parámetros macroscópicos. Esto no significa que el sistema que
se está estudiando se encuentre en todos esos estados al tiempo, es solo un
método para lograr describir una densidad en el espacio de fase, que luego
se usa para poder calcular propiedades del sistema.
Entonces cabe la pregunta de ¿qué tan posible es hablar de copias imagi-
narias del sistema, sabiendo que solo existe uno?
La mecánica estadı́stica que introdujo Gibbs tenı́a como base la idea de
la distribución microcanónica, esto es básicamente que: ρ(q, p) es una dis-
tribución de densidad en el espacio de fase, la cual es cero en todo el espacio
excepto en una superficie de energı́a, entre E y E + ∆E, donde ∆E es bas-
tante pequeña. En esta superficie de energı́a ρ tiene un valor constante.
La idea fı́sica detrás de esta distribución es simple de seguir. Desde la pers-
pectiva de la teorı́a de probabilidad, cuando no se tiene conocimiento del
problema que se quiere tratar, se supone que no hay razón para darle una
mayor prioridad a un resultado que a otro, debido a la ignorancia subjetiva
que se tiene. Entonces al no conocer nada del sistema se dice que todos los
resultados tienen la misma probabilidad, luego, la distribución de probabi-
lidad es constante.
Entonces, si se tiene un sistema fı́sico del que se conoce solo su estado
macroscópico, este parámetro puede generar varios posibles estados mi-
croscópicos. Dado que no se tiene más información, se supone que cada
posible estado microscópico tiene la misma probabilidad de ser el estado
16 CAPÍTULO 2. ORIENTACIONES GENERALES
en el que el sistema se encuentra en realidad. Este es uno de los proble-
mas de la fundamentación de la mecánica estadı́stica, porque se basa en la
ignorancia subjetiva que se tiene del sistema. Muchos argumentan que las
teorı́as fı́sicas deben ser edificadas en ideas objetivas, y el que una rama
tan importante de la fı́sica se apoye en algo como la ignorancia propia deja
mucho que pensar [20].
Aunque esta idea se base en la teorı́a de la probabilidad, también ha si-
do muy criticada en las matemáticas. Hay preguntas como: si se llegara
a conocer un poco más del sistema, ¿aún serı́a válida la distribución mi-
crocanónica si la distribución de probabilidad realmente es diferente a una
constante? Intentando dar respuesta a estas cuestiones sin tener, necesa-
riamente, que construir toda una teorı́a, se propone cambiar el principio
de probabilidades iguales por una idea más estable que tenga las mismas
implicaciones que ese principio.
En este punto se puede incorporar la entropı́a de Gibbs. Usando la nota-
ción, dΓ ≡ d3 x1 ...d3 pN , dΓ1 ≡ d3 x1 d3 p1 , dΓ−1 ≡ d3 x2 ...d3 pN ; la función de
distribución de puntos representativos es
ρN (x1 , x2 , .., xN ; p1 , p2 , ..., pN ; t), (2.8)
la cual da la densidad de probabilidad del sistema en todo el espacio de
fase.
La función H de Gibbs esta dada por
Z
HG = ρN log ρN dΓ. (2.9)
Este punto es necesario para comparar la función H de Gibbs con la de
Boltzmann, enfatizando que la función H de Boltzman está dada por
Z
HB = N f1 logf1 dΓ1 , (2.10)
donde f1 (x1 , p1 , t) es la probabilidad de densidad de una sola partı́cula,
Z
f1 (x1 , p1 , t) = ρN dΓ−1 . (2.11)
En el artı́culo escrito por Jaynes [11], se demuestra que
HB ≤ HG , (2.12)
2.3. GIBBS 17
y la igualdad se cumple solo cuando
ρN (x1 , x2 , ..., xN ; p1 , p2 , ..., pN ) = f1 (x1 , p1 )...f1 (xN , pN ), (2.13)
es decir, cuando hay independencia entre las partı́culas. Este es el caso para
un gas que no tiene interacción entre partı́culas, gas ideal. Gracias a esto
Jaynes prosigue mostrando que la entropı́a de Boltzmann, SB = kB HB ,
solo es cierta cuando se habla de un fluido con la misma densidad y tem-
peratura en todo el espacio pero sin fuerzas entre partı́culas. Mientras que
la entropı́a de Gibbs, SG = kB HG , es válida para cualquier sistema porque
da la entropı́a fenomenológica de la termodinámica.
Concluye que esta diferencia no puede ser pequeña porque hay interaccio-
nes entre partı́culas muy importantes que afectan ampliamente el resultado.
Esto muestra que, aunque la idea de Gibbs sobre un ensamble es exótica, da
los resultados esperados por la termodinámica, mientras que Boltzmann,
usando ideas más intuitivas, no llega a hacer una conexión con la termo-
dinámica.
2.3.1. Ensamble Canónico
Para explorar un poco más la idea de Gibbs, se presentará el ensamble
canónico desde un punto de vista cuántico. Este ensamble será útil como
referencia para los próximos capı́tulos. Para encontrar este operador se ex-
tremará la entropı́a de Gibbs bajo dos restricciones. La primera restricción
es que el operador de densidad ρ esté normalizado:
Tr(ρ) = 1. (2.14)
Además se impone la restricción de tener un valor de energı́a fijo,
Tr(Hρ) = hEi, (2.15)
donde H es el operador hamiltoniano del sistema [22]. El promedio de
energı́a se escribe ası́, porque cuánticamente la traza permite escribir pro-
medios de esta forma. La entropı́a de Gibbs para un sistema cuántico se
escribe de la siguiente forma:
S = −kB Tr[ρ ln(ρ)]. (2.16)
18 CAPÍTULO 2. ORIENTACIONES GENERALES
Se ve que mantiene la forma de la entropı́a clásica, teniendo como diferencia
que se cambia la integral por una traza.
Con ayuda de los multiplicadores de Lagrange, α y β, se encuentra la
distribución de probabilidad que maximiza la entropı́a bajo las restricciones
dadas. Entonces se tiene:
δ{Tr[αρ + βHρ − kB ρ ln(ρ)]} = Tr{[(α − kB )I + βH − kB ln(ρ)]δρ} = 0.
(2.17)
Donde I es el operador unitario. Como δρ es arbitrario, lo que está dentro de
los corchetes cuadrados debe ser igual a 0. Organizando se llega al operador
α β
ρ = exp −1 I + H . (2.18)
kB kB
Por la condición de normalización que se tiene sobre el operador se encuen-
tra βH
α
Z(β) ≡ exp 1 − = Tr e kB . (2.19)
kB
Aquı́ se ha definido la función de partición Z(β) como la normalización
del operador de densidad de probabilidad. Por medio de las restricciones
se puede encontrar que el multiplicador β es igual a T1 . Entonces se puede
reescribir el operador de densidad como
e−βH
ρ= . (2.20)
Tr(e−βH )
2.4. Teorema de Liouville
Construyendo sobre las ideas de Gibbs, se puede encontrar el teorema de
Liouville. Este teorema tiene mucha importancia en la mecánica estadı́stica,
y para ver sus consecuencias en esta área primero se verá qué declara este
teorema. La siguiente demostración del teorema sigue los pasos dados por
Pathria en su libro [19].
Se considera un volumen Γ que encierra una región que se quiere estudiar en
el espacio de fase, este volumen tiene una superficie σ. El cambio del número
2.4. TEOREMA DE LIOUVILLE 19
de puntos, microestados posibles del sistema, dentro de este volumen está
dado por Z
∂
ρdΓ, (2.21)
∂t Γ
donde ρ es la densidad en el espacio de fase definida anteriormente. En
la ecuación anterior d3N qd3N p = dΓ. El cambio neto de puntos que salen
de Γ por la superficie σ es
Z
ρv · n̂dσ, (2.22)
σ
donde v es el vector de velocidad del punto representativo en la región
de superficie dσ y n̂ es el vector perpendicular a esta superficie con dirección
de salida. Por el teorema de la divergencia se tiene:
Z Z X3N
∂ ∂
∇ · (ρv)dΓ = (ρq˙i ) + (ρp˙i ) dΓ (2.23)
Γ Γ ∂qi ∂pi
i=1
Debido a que la cantidad de puntos se conserva en el espacio de fase, el
ensamble que se considera no agrega nuevos miembros ni elimina los que
ya se encuentran en éste, lo que permite concluir:
Z
∂ρ
+ ∇ · (ρv) dΓ = 0. (2.24)
Γ ∂t
La condición para que esta integral sea cierta para cualquier Γ es que el
integrando sea cero. Esto nos da la ecuación de continuidad para el espacio
de fase,
∂ρ
+ ∇ · (ρv) = 0 (2.25)
∂t
usando la forma explı́cita de la divergencia,
3N 3N
∂ρ X ∂ρ ∂ρ X ∂ q˙i ∂ p˙i
+ q˙i + p˙i + ρ + = 0. (2.26)
∂t ∂qi ∂pi ∂qi ∂pi
i=1 i=1
Por las ecuaciones de Hamilton 2.5 el último término se cancela. Como ρ
depende de p, q y t, se puede organizar con los dos primeros términos para
20 CAPÍTULO 2. ORIENTACIONES GENERALES
que la ecuación quede de la siguiente forma:
dρ ∂ρ
= + [ρ, H] = 0. (2.27)
dt ∂t
La ecuación 2.27 es el teorema de Liouville. Este dice que la densidad
”local”de puntos vista desde un observador que se mueve con el punto se
mantiene constante en el tiempo. Luego, los puntos en el espacio de fase
se mueven de la misma manera que un fluido incompresible en el espacio
fı́sico.
Esta conclusión es la más clara al obtener el teorema de Liouville pero
también hay consecuencias profundas dadas por éste. Para ver las conse-
cuencias que brinda el teorema seguiremos a Kardar [12].
2.4.1. Consecuencias del Teorema de Liouville
La primera consecuencia es que al hacer una inversión temporal el cor-
chete de Poisson [ρ, H] cambia de signo y esto predice que la densidad
revierte su evolución. Es decir que al hacer la transformación (p, q, t) →
(p, q, −t) el teorema de Liouvile implica ρ(p, q, t) = ρ(−p, q, −t). La segun-
da es sobre la evolución del promedio de ensamble en el tiempo.
3N
dhf i
Z Z
∂ρ(p, q, t) X ∂ρ ∂H ∂ρ ∂H
= dΓ f (p, q) = dΓf (p, q) −
dt ∂t ∂pi ∂qi ∂qi ∂pi
i=1
(2.28)
En la ecuación anterior se usó el teorema de Liouville poniendo explı́cita-
mente el corchete de Poisson. Integrando por partes y recordando que ρ
tiende a cero en los lı́mites de la integración, se llega a:
dhf i
= h[f, H]i. (2.29)
dt
Con esta relación sobre los promedios se puede ver qué condiciones son ne-
cesarias para que el ensamble se encuentre en el estado de equilibrio. Dados
unos parámetros macroscópicos se sabe que si el ensamble corresponde a
uno en el equilibrio, los promedios de ensamble deben ser independientes
del tiempo. Esto se sigue de 2.28 encontrando
[ρeq , H] = 0. (2.30)
2.5. ERGODICIDAD 21
Una posible solución a la ecuación anterior es que ρeq (p, q) = ρ(H(p, q)).
0
Es una solución ya que [ρ(H), H] = ρ (H)[H, H] = 0. Esto muestra el su-
puesto básico de la mecánica estadı́stica, ρ es constante en las superficie de
energı́as constantes H. El supuesto de la mecánica estadı́stica dictamina
que el macroestado está dado por una densidad uniforme de microestados.
Esto es el principio de probabilidades iguales a priori.
La consecuencia anterior responderı́a la pregunta de cómo definir equili-
brio para partı́culas en movimiento. Pero para saber si todos los sistemas
evolucionan naturalmente al equilibrio y justificar el supuesto básico de la
mecánica estadı́stica, se debe mostrar que las densidades no estacionarias
se van acercando a las densidades estacionarias ρeq . Pero esto entra en con-
flicto con la primera consecuencia (inversión temporal), dada una densidad
ρ(t) que se acerque a ρeq habrá otra, dada la inversión temporal que se
estará alejando de esta densidad de equilibrio. Lo que se ha propuesto nor-
malmente es mostrar que ρ(t) se encontrará en el intervalo cercano a ρeq
una gran parte del tiempo, lo cual significa que los promedios temporales
están dominados por la solución estacionaria. Esto nos lleva al problema
de ergodicidad, ¿es válido igualar el promedio temporal con el promedio de
ensamble?
2.5. Ergodicidad
En esta sección se hablará un poco sobre el problema de ergodicidad.
Siguiendo a [27], se plantearán las dificultades y se verán algunas solucio-
nes que se han dado para este problema. Se habla de este problema ya que
la hipótesis de ergodicidad es fundamental para la mecánica estadı́stica.
Además, la nueva perspectiva que se mostrará en los siguientes capı́tulos
[21], no hace énfasis en esta hipótesis; es más, ni siquiera llega a ser una
pregunta que necesite ser resuelta. Para ver por qué facilita tanto evitar
esta hipótesis se dará esta sección.
La mecánica estadı́stica tiene como base el principio de probabilidades igua-
les. En la literatura generalmente se empieza hablando de cómo se acepta
el principio desde la teorı́a de la probabilidad. Pero hay un concepto que
casi nunca es profundizado por los textos usados regularmente; el porqué
se debe introducir la probabilidad en estos casos.
22 CAPÍTULO 2. ORIENTACIONES GENERALES
Autores como Kerson Huang y Lev Landau empiezan explicando cómo se
manejarı́a un problema de muchas partı́culas desde la forma clásica. La
idea que muestran es la forma habitual de introducir la mecánica estadı́sti-
ca: se presenta que describir avogadro número de partı́culas es complicado
aunque se tengan las ecuaciones y se pueda de alguna forma (numérica o
computacional) resolver todas las ecuaciones que salen. Entonces se sigue
explicando que para resolver el problema se tiene en cuenta que la com-
plejidad de las interacciones que hay entre el sistema y el ambiente, hace
que el sistema se encuentre en muchos estados varias veces. Esto otorga un
comportamiento probabilı́stico al sistema que puede llegar a comportarse
como uno aislado.
Estos argumentos introducen las probabilidades al sistema mecánico sin te-
ner que entrar en un conflicto con la mecánica clásica. Nótese que luego de
dada esa explicación, siguen a formalizar lo dicho y construyen la mecánica
estadı́stica que se conoce. Pero hay otra forma de introducir las probabi-
lidades a estos sistemas de muchos grados de libertad y es por hipótesis;
el libro escrito por Aleksandr Khinchin [13] sigue esta filosofı́a. Aunque
haya dos formas de establecer las probabilidades, de igual forma se llega al
problema de ergodicidad.
La hipótesis de ergodicidad afirma que el promedio temporal de una canti-
dad mecánica en un sistema aislado es igual al promedio de ensamble. Dada
una teorı́a que explique algún fenómeno que nos interese, se querrá probar
qué tan buenos resultados se obtienen de ella. Para esto se comparará con
el experimento, pero las cantidades fı́sicas en una teorı́a aparecen como
funciones de las variables dinámicas. Ya se ve un problema claro en este
procedimiento: ¿cómo es posible comparar los datos medidos en el labora-
torio con las funciones de la teorı́a? Las funciones de las variables dinámicas
toman valores diferentes para varios estados del sistema, pero para poder
comparar los resultados experimentales se deberı́a saber cuál es el estado
del sistema, es decir, es necesario dar todas las variables dinámicas para
poder estar seguros de que se están comparando los datos con el estado
especı́fico. Sin embargo, como ya se ha dicho, esto es imposible.
Hay un detalle en este caso y es que al medir una cantidad fı́sica esta no
se observa de manera instantánea, se necesita algún tiempo τ para ser ob-
servada. En el caso de una cantidad termodinámica, el tiempo en que se
demora midiendo va desde τ0 , que es el tiempo necesario para que no ha-
2.5. ERGODICIDAD 23
yan correlaciones del movimiento molecular, y τm que es el tiempo máximo
en el que la propiedad macroscópica que se mide no cambia. Al medir la
temperatura, es necesario esperar un tiempo τ0 para que se estabilicen el
sistema y el termómetro, y la medición se puede tomar hasta τm cuando
el sistema se vuelve a perturbar. Se supone que cualquier cantidad que se
mida durante este intervalo no debe depender de τ . En algunos sistemas
que llegan al equilibrio τm puede extenderse al infinito.
Entonces, con lo dicho anteriormente, se puede proponer la siguiente idea
de medición: sea P un punto en el espacio de fase, y sea f (P, t) una fun-
ción sobre el espacio de fase; si esta función corresponde a una cantidad
termodinámica no debe depender de su estado inicial, porque sistemas ter-
modinámicos con cantidades termodinámicas iguales se pueden encontrar
en estados dinámicos diferentes.
La relación de esta función con los parámetros está dada por un promedio,
en este caso, el promedio temporal, luego:
1 τ
Z
fτ (P ) = f (P, t)dt, (2.31)
τ 0
si se está en el equilibrio
Z τ
1
f (P ) = lı́m f (P, t)dt. (2.32)
τ →∞ τ 0
Para poder mantener consistencia con la termodinámica los promedios
fτ (P ) y f (P ) deben ser independientes de τ . Además en el equilibrio los
dos promedios deben ser iguales, esto es muy grande para τm .
El promedio de ensamble está definido ası́:
Z Z
1
hf i = f (P, t)ρdΓ ; Ω = dΓ. (2.33)
Ω Γ Γ
La integral es sobre el espacio accesible en el espacio de fase, dΓ es el
elemento de volumen. Como el punto P evoluciona gracias a las ecuaciones
de Hamilton se preserva la medida por el teorema de Liouville, luego hf i
no depende del tiempo. Entonces
hf i = hf i. (2.34)
24 CAPÍTULO 2. ORIENTACIONES GENERALES
Como el promedio temporal conmuta con el promedio de ensamble, hay
casos especiales en los que no ocurre esto. Entonces
hf i = hf i. (2.35)
Como f es independiente de P y constante sobre todo el espacio de fase,
entonces hf i = f . Por lo tanto
hf i = f . (2.36)
Aquı́ se ha mostrado por qué es válido el uso del promedio de ensamble en
vez del temporal. Para esta demostración se han usado dos suposiciones.
Primero, que f (P ) tiene el mismo valor para cualquier P en la misma tra-
yectoria que este punto traza, lo que [3] llama el G-Path. Birkhoff demostró
esta aseveración [1]. El problema es saber si f (P ) tiene un valor definido
independiente de la condición inicial P , y si esto se satisface para P en
cualquier G-path.
Según M. Toda et al en su libro [27], Boltzmann propuso que para satisfacer
la igualdad 2.36, el G-path debe pasar por todos los puntos de la super-
ficie de energı́a. Como la trayectoria del punto pasa por todos los puntos
transcurrido suficiente tiempo, el promedio temporal es igual al promedio
de ensamble. Esto es lo que Boltzmann llamó la hipótesis de ergodicidad.
Esta idea sobre la trayectoria del punto P es llamada la condición de ergo-
dicidad en el sentido de Boltzmann.
Como la trayectoria dinámica es un conjunto unidimensinal de puntos con-
tinuos y nunca se intersecta a sı́ misma en una superficie multidimensional
constante de energı́a, se hace imposible una correspondencia uno a uno de
un espacio de dimensión dos o mayor a un espacio unidimensional. Luego,
la ergodicidad en el sentido de Boltzmann no puede concebirse. La igualdad
2.36 no siempre implica ergodicidad en el sentido de Boltzmann.
Aunque la hipótesis ergódica se encuentre en un punto importante en la
construcción de la fı́sica estadı́stica, hay sistemas que no son ergódicos pe-
ro aún ası́ se pueden tratar con la mecánica estadı́stica. El calor especı́fico
de los sólidos pueden ser modelado de manera correcta bajo el supuesto de
una red de partı́culas cuánticas vibrando en una aproximación armónica. El
tratamiento clásico también es satisfactorio para temperaturas altas. Como
2.5. ERGODICIDAD 25
se sabe, cualquier modo normal en vibraciones armónicas es independiente
de los otros modos normales y la energı́a de cada modo es constante. Se
puede describir el calor especı́fico por medio de la aproximación armónica,
pero si existen términos no lineales pequeños o anarmónicos, habrá un in-
tercambio de energı́a entre los modos normales.
Existe un problema famoso que E. Fermi, J. Pasta y S. Ulam investigaron
[4], un sistema de una cadena lineal de N + 1 partı́culas idénticas de ma-
sa m conectadas por resortes idénticos. Pero en este caso ellos incluyeron
interacciones no lineales al hamiltoniano de este sistema, que puede ser
escrito
X 1 κX λX
H= p2k + (qk+1 − qk )2 + (qk+1 − qk )s , (2.37)
2m 2 s s
k k
donde λ es la constante de acoplamiento y s = 3, 4; esto representa los
potenciales no lineales cúbicos y cuadráticos. Fermi, Pasta y Ulam querı́an
demostrar la intuición que tenı́an de que cualquier interacción no lineal
entre partı́culas de un sistema generarı́a un comportamiento ergódico o
irreversible para el sistema. Las ecuaciones de movimiento del sistema son
mq̈k = κ(qk+1 − 2qk + qk−1 ) + λ[(qk+1 − qk )s−1 − (qk − qk−1 )s−1 ], (2.38)
1 P −1
o transformando a coordenadas normales: qk = ( N2 ) 2 N j=1 x j sin jkπ
N ,
mẋj = yj la ecuación queda como
ẍj = −ωj2 xj + λFj (x), (2.39)
κ 12 jπ
con ωj = 2( m ) sin 2N . Donde Fj (x) son las fuerzas no lineales. El sis-
tema que ellos estudiaron fue de N = 32 y N = 64, mirando su evolución
luego de un largo tiempo. Las fuerzas que usaron fueron cuadráticas, cúbi-
cas y lineales. Además, la energı́a de los modos está dada por
1
Ek = m(ẋ2k + ωk2 x2k ). (2.40)
2
Simularon cómo las energı́as cambiaban en el tiempo cuando inicialmente
se le da al menor modo una cantidad de energı́a. Se esperaba que la energı́a
dada al menor modo fuera siendo distribuida paulatinamente a los demás
26 CAPÍTULO 2. ORIENTACIONES GENERALES
modos, y al final se tuviese una cantidad de energı́a igualmente distribuida
en cada modo. Pero este no fue el hallazgo para N = 32 con un potencial
cúbico y con las constantes κ = m = 1 y λ = 1/4. Las condiciones iniciales
eran: las velocidades iguales a 0 y los desplazamientos dados por la curva
sinusoidal del menor modo normal. Lo que se vio fue que la energı́a regre-
saba al primer modo de manera periódica; la energı́a era intercambiada en
los modos más bajos, pero no mucho en los modos más grandes. Se llegó
a la conclusión de que el sistema regresa de forma casi exacta a su estado
inicial.
Entonces la presencia de anarmonicidad no implica ergodicidad para este
sistema. Esto es un ejemplo de un sistema que no es ergódico, lo que dejó
mucha desconformidad dado que Fermi, Pasta y Ulam no lograron ver por
qué la hipótesis que se usa para formar la mecánica estadı́stica no se cumple
para sistemas que comúnmente son usados en la fı́sica. Este cuestionamien-
to es uno de los aspectos que contribuye que el marco teórico de la fı́sica
estadı́stica sea inestable en comparación con otras ramas de la fı́sica.
2.6. Jaynes
Los problemas planteados hasta ahora han sido diversos y de gran com-
plejidad. Por esto unos cuantos intentos se han hecho para proponer una
nueva perspectiva que no tenga estas tensiones. Han existido muchas pro-
puestas nuevas, buscando basar la mecánica estadı́stica en otras ideas. En
esta sección se mostrará la visión de E.T Jaynes. Jaynes propone una re-
lación entre la mecánica estadı́stica y la teorı́a clásica de la información
[9],[10], lo que perfila una luz al usar herramientas de la información en
áreas de la fı́sica.
Jaynes, impulsado por la ausencia de un argumento sólido que conectara los
fenómenos microscópicos y los macroscópicos, planteó que para tener una
mecánica estadı́stica libre de objeciones, ésta deberı́a seguir los siguientes
requerimientos: estar libre de incongruencias matemáticas, no tener supo-
siciones externas arbitrarias y ser capaz de describir procesos tanto fuera
del equilibrio como en equilibrio.
Jaynes explica que la segunda condición parece extraña al hablar de una
teorı́a fı́sica, porque en general se proponen hipótesis que luego intentan
ser explicadas. Pone el ejemplo de la unidad de volumen en el espacio de
2.6. JAYNES 27
fase, que inicialmente fue puesta para poder conseguir los valores correc-
tos de la presión de vapor en equilibrio. Luego, con la ayuda de la teorı́a
cuántica se visibilizó que esta unidad salı́a naturalmente de las leyes fı́sicas,
lo que hace que Jaynes proponga que la mecánica P estadı́stica sea un ejem-
plo de inferencia estadı́stica. Como la expresión − pi log pi aparece en la
teorı́a de la información -que es una teorı́a de inferencia estadı́stica- y en
la mecánica estadı́stica, Jaynes expone cómo crear una conexión entre las
dos teorı́as haciendo que esta fórmula tenga el mismo concepto y ası́ poder
aplicar la teorı́a de la información clásica a la mecánica estadı́stica. Con
esto, Jaynes resalta una simplificación de la matemática, afirmando que
la mecánica estadı́stica puede afrontar problemas más generales y nuevos
problemas fı́sicos.
Toda la perspectiva de Jaynes se basa en el principio de máxima entropı́a.
Para poder entender este principio se plantea un problema que ocurre en
muchos casos, no solo en la fı́sica. Sea x una cantidad discreta que puede
tener valores xi con i = 1, 2, , n. No se saben las probabilidades correspon-
dientes pi . Lo único que se conoce del problema son los promedios de la
función f (x),
N
X
hf (x)i = pi f (xi ). (2.41)
i
Entonces la pregunta que se hace es: con esta información, ¿cuál es el valor
esperado de la función g(x)? Problemas de este tipo aparecen en muchas
áreas -como la teorı́a de la información-, porque son tı́picos de la teorı́a
de la probabilidad. Encontrar las probabilidades con poca información es
un problema en el que trabajaron los padres de la probabilidad. El princi-
pio dado por Laplace es un intento de resolver el problema. Este principio
asigna probabilidades iguales a los eventos. Jaynes expresa que, a menos
que haya una simetrı́a en el problema, se encuentran paradojas en los casos
continuos; por eso, se ha dejado de usar este tipo de formulaciones en los
problemas actuales, continúa diciendo Jaynes.
Para continuar exponiendo el planteamiento de Jaynes, se debe entender
que la perspectiva que acepta sobre la teorı́a de la probabilidad es subje-
tiva. Esto quiere decir que, como J.M. Keynes o H. Jeffreys aceptan, las
probabilidades son una cuantificación de la ignorancia humana. La proba-
bilidad es solo una medida basada en la información que se tiene sobre el
28 CAPÍTULO 2. ORIENTACIONES GENERALES
posible resultado que puede salir. Entonces la distribución de probabilidad
solo es la representación del estado actual de nuestro conocimiento.
En contraposición con la perspectiva objetiva que dice que la probabilidad
es la proporción de frecuencias de un experimento, calculando la distri-
bución de probabilidad, se está haciendo una predicción que se puede en
principio comparar con el experimento. Esta perspectiva acepta las pro-
babilidades como algo externo al ser humano. Jaynes dice que la visión
subjetiva es más general, porque las proporciones de frecuencia siempre
pueden interpretarse desde esta perspectiva. Además, manifiesta que la
posición subjetiva acepta interrogantes que para el objetivismo no tienen
importancia.
Shannon, en su teorı́a de la información, propuso una función que des-
cribı́a de forma única y sin ambigüedad la cantidad de incertidumbre que
tiene una distribución de probabilidad [25]. Esta cantidad es positiva, se
incrementa con una incertidumbre decreciente, y es aditiva para fuentes de
incertidumbres independientes. Esta es
X
H(p1 , ..., pN ) = −k pi ln pi , (2.42)
i
donde k es una constante positiva. Aquı́, Jaynes hace la conexión y es un
punto importante. A esta cantidad, Shannon la llama entropı́a, pero no
es la misma entropı́a termodinámica. Shannon dice en Scientific American
(volumen 225 del año 1970 página 180) que Von Neumann le propuso este
nombre, ya que nadie sabı́a realmente qué era la entropı́a. Pero Jaynes hace
el puente entre las dos teorı́as, diciendo que la entropı́a termodinámica es
la cantidad de incertidumbre que se tiene del sistema. Esto es lo que quiere
decir el principio de la máxima entropı́a: dadas unas restricciones, o sea,
con una información parcial, se debe encontrar la distribución que minimice
la incertidumbre. Esto es equivalente a maximizar H bajo las condiciones
conocidas. Esta es la forma de llegar a la distribución sin usar suposiciones
arbitrarias.
Jaynes prosigue usando multiplicadores de Lagrange y obtienePlos siguientes
resultados para un número m de funciones, dado hfr (x)i = i pi fr (xi ):
pi = exp{−[λ0 + λ1 f1 (xi ) + ... + λm fm (xi )]}, (2.43)
2.6. JAYNES 29
donde los λ’s son los multiplicadores de Lagrange. Además se define la
función de partición como
X
Z(λ1 , ..., λm ) = exp{−[λ1 f1 (xi ) + ... + λm fm (xi )]}. (2.44)
i
Los multiplicadores de Lagrange se pueden encontrar por
∂
hfr (x)i = − ln Z,
∂λr
λ0 = ln Z.
Jaynes argumenta que, siguiendo este principio, se llega a una distribución
de probabilidad imparcial correspondiente a la información del problema,
de forma inequı́voca y única. Dicho principio también permite la modifica-
ción de la distribución de probabilidad si se llega a conocer más información.
Gracias a esto se pueden ver los resultados dados por la mecánica estadı́sti-
ca fácilmente. Sea E(α1 , α2 , ...) los niveles de energı́a de un sistema, don-
de los α’s son parámetros externos como el volumen o potenciales gravi-
tacionales, si solo se conoce hEi. Pero por la ecuación 2.43 ya se saben
las probabilidades de los niveles de energı́as Ei ; ésta es la distribución de
Maxwell-Boltzmann. Entonces se pueden seguir identificando los distintos
parámetros de la termodinámica:
1
λ1 = ,
kT
U − T S = F (T, α1 , α2 , ...) = −kT ln Z(T, α1 , α2 , ...),
∂F X
S=− = −k pi ln pi ,
∂T
i
∂
βi = kT ln Z.
∂αi
βi se puede ver como una fuerza generalizada. Para casos especı́ficos llega a
ser la presión, el tensor de estrés, los momentos magnéticos y/o eléctricos.
Se puede también encontrar la distribución gran canónica solo poniendo
una nueva restricción sobre el número de partı́culas, sea ni el número de
partı́culas del tipo i. Además, para especificar el estado del sistema, se
necesita las n’s junto con un nivel de energı́a E(α1 , α2 , ...; n1 n2 ...) y se
30 CAPÍTULO 2. ORIENTACIONES GENERALES
conocen los valores esperados de la energı́a y cada número de partı́culas de
todos los tipos.
hEi , hni i , i = {1, 2, ...}. (2.45)
la función de partición es la de la gran canónica
X X
Z(α1 , α2 , ...|λ1 λ2 , ..., β) = exp{−[λ1 n1 + λ2 n2 + ... + βEi (αk |ns )]}.
n1 n2 ... i
(2.46)
La propuesta de Jaynes ha ganado popularidad, y evita preguntarse cuál
es la distribución sobre la que se están muestreando las probabilidades,
porque como su perspectiva es subjetiva, lo único que se tiene en cuenta es
la ignorancia subjetiva. No se debe crear un ensamble de copias para darle
un significado a la probabilidad.
Capı́tulo 3
El Entrelazamiento y La
Mecánica Estadı́stica
La mecánica clásica nos habla de un sistema fı́sico definido que pa-
ra todos los tiempos está especificado. Este sistema evoluciona de manera
determinista dadas las ecuaciones de movimiento. Al tratar con un sis-
tema termodinámico, aunque sea clásico, éste puede mostrar propiedades
que dependan de promedios estadı́sticos [2]. La conexión que hay entre el
determinismo y estas probabilidades es una discusión que no ha sido re-
suelta, dado que todas las soluciones hasta ahora propuestas han tenido
fallas, como, por ejemplo, las ideas dadas por Gibbs expuestas anterior-
mente. Los métodos tı́picos requieren hablar de promedios de ensamble,
promedios temporales y aleatoriedad. Todos estos conceptos siguen siendo
muy debatidos y no parecen solucionar ninguna pregunta [27]. Por eso, re-
cientemente se han estado buscando nuevos fundamentos para la mecánica
estadı́stica.
La mecánica estadı́stica tiene como base el postulado de probabilidades
iguales; éste es dado por la ignorancia subjetiva que el observador tiene del
sistema. Aunque la mecánica estadı́stica no tiene problemas al comparar
sus resultados teóricos con los experimentales, el cimiento filosófico en el
que ésta reposa ha dado mucho de qué hablar, por lo que desde los inicios
de la teorı́a han surgido posturas diferentes que no han podido ser unifica-
das.
En este capı́tulo se seguirá el trabajo de Popescu et al [21] y se mostrará
31
32CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
una posible luz para resolver el problema de la unificación de las perspec-
tivas de la mecánica estadı́stica. La idea principal que se quiere presentar
aquı́ es cómo se puede reemplazar el postulado de probabilidades iguales
por un principio canónico general basado en el entrelazamiento cuántico.
Al poner el entrelazamiento cuántico como nuevo cimiento, ya no se tienen
probabilidades subjetivas sino objetivas, dadas por la teorı́a cuántica. Este
nuevo enfoque permite evitar problemas con la ignorancia subjetiva, pero
también esquiva el problema de la ergodicidad, gracias a lo cual se puede
ver un fundamento más claro y sólido.
Este capı́tulo sólo se enfocará en mostrar cómo la mayorı́a de los estados del
universo están termalizados sin hablar en ningún momento de la evolución
de estos estados. Si, en general, los estados del universo están termaliza-
dos, se esperarı́a que cualquier evolución lleve los estados al equilibrio. En
el siguiente capı́tulo se dará especificaciones sobre esta conjetura junto con
algunos detalles que evidencian las complicaciones que acarrea formalizar
las ideas intuitivas que se tienen sobre el equilibrio.
3.1. Herramientas de la Teorı́a Cuántica
La mecánica cuántica dada por Schrödinger usa el formalismo del vec-
tor de estado. Las herramientas entregadas por el vector de estado son
útiles para algunos problemas, pero este formalismo no siempre es útil en
casos particulares. Es por esto que se usa el formalismo de la matriz den-
sidad u operador densidad cuando se habla de un sistema compuesto por
un subsistema y su ambiente. Debido al entrelazamiento que existe ente
el subsistema y su ambiente, no se puede especificar un estado individual
para el subsistema. Las herramientas proporcionadas por el operador den-
sidad permiten representar las estadı́sticas de las medidas de uno de los
componentes del sistema [24].
3.1.1. Operador Densidad
Para comprender qué es el operador densidad se debe empezar por
responder cuándo se tiene el máximo conocimiento posible de un estado
3.1. HERRAMIENTAS DE LA TEORÍA CUÁNTICA 33
cuántico. Cuánticamente, si el estado |ψi da toda la información posible
de un sistema, se le llama estado puro. Para especificar cuál es el operador
densidad de un sistema, se supone que el sistema cuántico puede estar
en un estado puro, |ψi i para i = 1, 2, .... Cada estado
P posible del sistema
tiene una probabilidad correspondiente, pi > 0 y i pi . Luego el operador
densidad para el sistema es:
X
ρ≡ pi |ψi i hψi | . (3.1)
i
En caso de que sólo haya un estado posible se tiene el operador densidad
para un estado puro ρ = |ψi hψ|. Entonces se puede hablar de un ensamble
de estados puros {pi | |ψi i} siendo el operador densidad la distribución clási-
ca de probabilidad de matrices de estados puros. Nótese que se puede usar
de manera similar el nombre de operador densidad y de matriz densidad,
ésta es la usanza de la literatura.
El operador densidad también puede ser especificado por las siguientes
propiedades:
1. ρ tiene traza igual a uno, Tr(ρ) = 1.
2. ρ es un operador positivo si: |φi es un vector arbitrario, luego hψ| ρ |ψi ≥
0.
Ya con esta breve introducción se pueden reescribir los postulados de la
mecánica cuántica en este formalismo, siguiendo a [18]:
Postulado 1: Se puede asociar un espacio de Hilbert a un sistema fı́sico
aislado. El sistema está descrito completamente por el operador densidad
que actúa sobre el espacio de Hilbert del sistema. Si un sistema cuántico
está
Pen el estado ρi con probabilidad pi , el operador de densidad del sistema
es i pi ρi .
Postulado 2: La evolución de un sistema cuántico cerrado está descrita
por una transformación unitaria. Esto es, el estado ρ del sistema en el
tiempo t0 está relacionado con el estado ρ0 del sistema para el tiempo t por
un operador unitario U , el cual depende solo de los tiempos t0 y t.
ρ0 = U ρU † . (3.2)
34CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
Postulado 3: Las medidas cuánticas están descritas por un conjunto
de operadores {Mm }. Estos operadores actúan en el espacio de Hilbert del
sistema. El ı́ndice m habla de los posibles resultados de una medida al
hacer un experimento. Si se tiene el estado del sistema ρ inmediatamente
antes de la medida, la probabilidad que el resultado m ocurra es:
†
p(m) = Tr Mm Mm ρ , (3.3)
y el estado del sistema luego de una medición es
†
M ρMm
m . (3.4)
†
Tr Mm Mm ρ
Los operadores {Mm } satisfacen,
X
†
Mm Mm = I. (3.5)
m
Postulado 4: El espacio de un sistema fı́sico compuesto es el producto
tensorial de cada espacio de los componentes del sistema. Si hay N siste-
mas y cada sistema es preparado en el estado ρi , con el ı́ndice recorriendo
cada sistema, el sistema total está representado por ρ1 ⊗ ρ2 ⊗ ... ⊗ ρn .
Estos son los postulados de la mecánica cuántica desde la perspectiva del
operador densidad, y son análogos a la perspectiva del vector de estado.
Pero se debe ver un poco más en detalle el postulado 3, éste habla de las
mediciones cuánticas con mayor generalidad. Habitualmente, al introducir
la mecánica cuántica sólo se habla de medidas proyectivas, las cuales tienen
muchas restricciones y no abarcan todas las posibilidades de medición.
Se puede demostrar que las mediciones proyectivas junto con los demás
axiomas de la cuántica son semejantes a las medidas generales [18]. Enton-
ces, si existe una equivalencia entre estos dos tipos de mediciones, ¿por qué
preocuparse por un esquema más general? Porque las mediciones genera-
les tienen menos restricciones que las medidas proyectivas, lo cual da una
variedad de propiedades que las medidas proyectivas no tienen. Además,
3.1. HERRAMIENTAS DE LA TEORÍA CUÁNTICA 35
en algunos problemas concernientes a la teorı́a cuántica de la información
es necesario usar mediciones generales, como por ejemplo, para la manera
óptima de distinguir entre un conjunto de estados cuánticos.
Pero hay una ventaja que tienen la mediciones generales sobre las proyec-
tivas, y es lo que se conoce como repetibilidad. Las medidas proyectivas
tienen repetibilidad, puesto que si se tiene un estado inicial |ψi, al hacer
la primera medida se encuentra que |ψm i = √ Pm |ψi . Operando otra vez
hψ|Pm |ψi
a |ψm i con Pm el estado no cambia, entonces hψm | Pm |ψm i = 1. Esto sig-
nifica que si se repite la medición muchas veces, se seguirá en el mismo
estado [28]. Pero esto no es cierto para todos los experimentos. Por ejem-
plo, en el experimento de la doble rendija para conocer la posición de un
fotón al pasar por una placa, es imposible conocer la posición del fotón
una segunda vez. Entonces se debe recurrir a las mediciones generales. De
esta mediciones generales hay un caso particular que es usado en la teorı́a
cuántica de la información, este caso se llama medidas POVM (Positive
Operator-Valued Measure). Estas medidas son de utilidad cuando sólo se
quiere saber la probabilidad de que un resultado se dé, sin la necesidad de
saber el estado del sistema después de tomar la medida [18]. Por el postu-
lado 3 se sabe que la probabilidad
de que el resultado m salga viene dado
†
por p(m) = Tr Mm Mm ρ . Si se define:
†
Em ≡ Mm Mm . (3.6)
Se puede
P demostrar fácilmente que Em es un operador positivo y cumple
con m Em = I. El conjunto completo de {Em } se conoce como POVM,
y cada Em es un elemento asociado a POVM. Las mediciones proyectivas
hacen
P parte de POVM, sea Pm un proyector tal que Pm Pn = δmn Pm y
m Pm = I. Sólo para este caso los elementos POVM son los mismos
†
operadores de medición, ya que Em = Pm Pm = Pm .
Estas mediciones generales permiten liberarse de restricciones impuestas
por las mediciones proyectivas y, con esto, se pueden analizar situaciones
en las que medir más de una vez afecta el sistema. Hasta ahora se ha
introducido el formalismo del operador densidad y se ha explicado cómo
puede sustituir el vector de estado. Pero no se ha exhibido su poder en casos
donde el vector de estado no dice mucho. La siguiente sección desarrollará
un método bastante importante en el caso de sistemas entrelazados. Este
36CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
método será central en el análisis subsiguiente sobre el entrelazamiento y
la mecánica estadı́stica.
3.1.2. Operador Densidad Reducido
Ahora se plantea la siguiente situación: se tiene un sistema A que está
correlacionado cuánticamente con el sistema B. Esto quiere decir que el
sistema completo AB puede estar dado por un estado puro, pero no se
puede describir individualmente el sistema A; entonces, si solo se tiene ac-
ceso al sistema A pero no al B, ¿cómo se puede modelar matemáticamente
la información que sólo es posible de extraer de mediciones locales en A?
Aquı́ se usa el operador densidad reducido; este se define como
ρA ≡ TrB (ρAB ). (3.7)
La traza es tomada únicamente en una base del espacio de Hilbert HB
del sistema B. Esta operación puede ser interpretada como si se estuviera
promediando sobre todos los grados de libertad del sistema al que no se
tiene acceso. A esta operación se le llama la traza parcial sobre B. Para ver
la utilidad que tiene este operador se verá un ejemplo sencillo que se puede
generalizar fácilmente. Se tiene el estado de algún sistema compuesto por
A y B dado por la función de onda Φ:
1
Φ = √ (|a1 i |b1 i + |a2 i |b2 i); (3.8)
2
este es un tı́pico ejemplo de una función de onda donde los subsistemas A
y B están entrelazados [26]. Los estados |a1 i, |b1 i,|a2 i, |b2 i no son necesa-
riamente ortogonales. La matriz de densidad es claramente:
2
1X
|Φi hΦ| = |ai i haj | |bi i hbj | . (3.9)
2
ij=1
Sea {|ψk i} una base ortonormal en HA y {|φl i} una base ortonormal en HB .
Considerando mediciones que sólo afecten al sistema A se puede representar
esta acción como M = MA ⊗ IB , donde IB es el operador identidad en
el espacio de Hilbert de B. Siguiendo la idea de responder si se puede
3.1. HERRAMIENTAS DE LA TEORÍA CUÁNTICA 37
extraer información del sistema solo conociendo las mediciones locales en
A, entonces se hace el siguiente razonamiento:
hM i = Tr(ρM ) (3.10)
X
= hφl | hψk | ρ(MA ⊗ IB ) |ψk i |φl i (3.11)
kl
!
X X
= hψk | hφl | ρ |φl i MA |ψk i (3.12)
k l=1
X
= hψk | (TrB (ρ))MA |ψk i (3.13)
k
X
= hψk | ρA MA |ψk i (3.14)
k
= TrA (ρA MA ). (3.15)
Aquı́ ρA es la matriz reducida definida al inicio de esta subsección. El
ejemplo se puede expandir para sistemas con N subsistemas entrelazados.
Se tiene ahora N componentes del sistema y solo se puede hacer mediciones
en el componente i. El operador que describe estas mediciones serı́a M =
I1 ⊗ I2 ... ⊗ Ii−1 ⊗ Mi ⊗ Ii+1 ⊗ .... ⊗ IN . Ahora la matriz de densidad reducida
para el sistema i es
ρi = Tr1,...,i−1,i+1,...,N (ρ). (3.16)
Con esto, y siguiendo el ejemplo anterior, se puede demostrar que [24]
hM i = Tr(ρM ) = Tri (ρi Mi ). (3.17)
Entonces, si se conoce el estado del sistema total y sólo es posible hacer
mediciones en un subsistema, aún ası́, gracias al formalismo del operador
densidad, se puede hallar las estadı́sticas de las mediciones. Es importan-
te aclarar que aunque se tenga un operador de densidad reducido para el
sistema A, esto no significa que se haya descrito el sistema de manera in-
dividual. El operador densidad es solo una herramienta matemática para
sacar las estadı́sticas de las mediciones. Se vio el poder que tiene el for-
malismo del operador densidad pero aún se puede construir más en base a
éste. La siguiente sección formulará una pregunta que se responderá usando
las herramientas cuánticas mostradas hasta ahora.
38CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
3.1.3. Distancia de Traza
Los métodos mostrados anteriormente tienen, por lo general, una herra-
mienta única al momento de solucionar el problema. Ahora, se encuentra
con la pregunta ¿qué tan cerca están dos estado cuánticos? La respuesta
puede ser dada por varias definiciones de distancias, pero la que se usará
aquı́ será la distancia de traza.
Una pregunta relacionada con la cercanı́a de los estados cuánticos es ¿qué
quiere decir que dos mensajes diferentes tengan la misma información? En
la teorı́a clásica de la información esto recae en poder diferenciar dos distri-
buciones de probabilidad. Pero como ya se habı́a advertido, esta respuesta
no es única: existen diferentes medidas como la fidelidad o la distancia de
Kullback–Leibler. Dependiendo del fin, será deseable una sobre las demás.
Se tienen dos distribuciones de probabilidad {px } y {qx }. La distancia de
traza clásica viene dada por:
1X
D(px , qx ) ≡ |px − qx |. (3.18)
2 x
También se conoce como la distancia L1 o la distancia de Kolmogorov. Esta
distancia también se puede escribir de la siguiente manera
X X
D(px , qx ) = máx p(S) − q(S) = máx px − qx . (3.19)
S S
x∈S x∈S
Donde la maximización es sobre todos los subconjuntos S de los ı́ndices {x}
[18]. Aunque estas igualdades puedan ser complicadas para hacer cálculos,
es posible tener alguna intuición sobre estas ecuaciones. La distancia de
traza es la maximización de las diferencias entre la probabilidad que el
evento S ocurra de acuerdo a la distribución {px } y la probabilidad que
el evento S ocurra de acuerdo a la distribución {qx }. Se puede decir que
el evento S es el evento óptimo para examinar las diferencias entre {px } y
{qx }.
Pasando a un contexto cuántico, la distancia de traza entre dos estados
cuánticos ρ y σ es,
1
D(ρ, σ) ≡ Tr |ρ − σ|. (3.20)
2
3.1. HERRAMIENTAS DE LA TEORÍA CUÁNTICA 39
√
donde |M | ≡ M † M con la raı́z positiva. Esta definición generaliza la
distancia de traza clásica, si ρ y σ conmutan, son diagonales en una misma
base, luego
1 X
D(ρ, σ) = Tr | (ri − si ) |ii hi| |
2
i
= D(ri , si ),
donde ri y si son los elementos diagonales de ρ y σ respectivamente. Al
igual que con la distancia de traza clásica, es posible dar un sentido más
fı́sico a esta definición. El siguiente teorema construirá la conexión [18].
Teorema 3.1.1. Sea {Em } un POVM, con pm ≡ Tr(ρEm ) y qm ≡ Tr(σEm )
como las probabilidades de obtener un resultado de una medida m. Luego
D(ρ, σ) = máx D(pm , qm ), (3.21)
{Em }
donde la maximización es sobre todos los POVMs {Em }.
Demostración. Véase que
1X
D(pm , qm ) = Tr(Em (ρ − σ)) . (3.22)
2 m
Usando la descomposición espectral se tiene que ρ − σ = Q − S, donde Q y
S son operadores positivos con soporte ortogonal. Luego |ρ − σ| = Q + S,
y
Tr(Em (ρ − σ)) = Tr(Em (Q − S)) (3.23)
≤ Tr(Em (Q + S)) (3.24)
≤ Tr(Em |ρ − σ|). (3.25)
Luego
1X
D(pm , qm ) ≤ Tr(Em |ρ − σ|) (3.26)
2 m
1
= Tr(|ρ − σ|) (3.27)
2
= D(ρ, σ), (3.28)
40CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
se usó la relación de completitud de los elementos de POVM. Por otro lado,
si se escogen medidas donde los elementos POVM incluyen proyectores so-
bre el soporte de Q y S, se ve que existen mediciones que dan distribuciones
de probabilidad tales que D(pm , qm ) = D(ρ, σ).
Entonces se puede decir que, si dos operadores de densidad son cerca-
nos, según la distancia de traza, cualquier medición hecha en este estado
cuántico dará dos distribuciones de probabilidad que estarán cercanas, en
el sentido clásico de la distancia de traza. También se puede ver cómo el
lı́mite superior a la distancia de traza cuántica es igual a la distancia de
traza clásica.
La distancia de traza es la forma en la que se da un sentido de lejanı́a entre
estados cuánticos. Es una herramienta que permitirá decir qué tan lejos
está un estado de ser un estado canónico, punto fundamental en el artı́culo
de Popescu et al para especificar que casi todos los estados son cercanos
al estado canónico. Ya con las herramientas en su lugar, en la siguiente
sección se prosigue a plantear la situación de interés.
3.2. Definiciones
Como lo que se estudiará es un sistema cuántico aislado compuesto por
subsistema y ambiente es preciso aclarar la notación que se usará a lo largo
de este capı́tulo y el siguiente, para no tener ambigüedades. Entonces, con
este fin, se tomará una pausa en esta sección.
Se tiene un sistema cuántico grande descrito por un espacio de Hilbert
H al que se llamará el universo. El universo puede ser dividido en dos
subsistemas. El primero se llamará el sistema S y al segundo se le dará
el nombre de ambiente E, y se supone que la dimensión del ambiente es
mucho mayor que la del sistema 1 . Se descompone H como H = HS ⊗ HE ,
con dimensiones dS y dE respectivamente. Si al universo se le pone una
restricción global, el espacio de Hilbert en el que se encuentra serı́a HR ⊆ H.
Para evitar espacios de dimensión infinita se introduce un tope para altas
energı́as y ası́ se mantiene la dimensión finita. Además, se eliminan términos
1
En ocasiones a S se le dirá subsistema y E se le podrá llamar baño. Estos nombres
son equivalentes a los anteriores
3.3. IDEA CONCEPTUAL 41
de interacción del Hamiltoniano que lo lleven a subespacios no permitidos.
No se ha especificado nada sobre el subsistema o el ambiente (excepto
las proporciones de sus dimensiones). Esto permite decir que cualquier
descomposición del espacio de Hilbert especifica un subsistema y un baño.
El subsistema S puede ser cualquier cosa: desde una partı́cula hasta el
conjunto de partı́culas distribuidas por todo el baño.
El estado global puro del universo se escribirá como |φ(t)i en un tiempo
t y su matriz de densidad se escribirá ρ(t) = |φ(t)i hφ(t)|. El estado del
subsistema se encontrará al hacer una traza parcial del ambiente sobre el
estado del universo ρS = TrB ρ(t); similarmente, el estado del ambiente
está dado por ρB = TrS ρ(t) [30].
El promedio temporal del universo es:
1 τ
Z
ω = hρ(t)it = lı́m ρ(t)dt (3.29)
τ →∞ τ 0
de manera análoga ωS y ωB son el promedio temporal para el sistema y
el ambiente respectivamente [27]. También se tiene el promedio h·iφ que es
sobre todos los estados |φi ∈ HR de acuerdo a la medida estándar (unitaria-
mente invariante). Esta medida se usa para hallar volúmenes de conjuntos
de estados.
Esta notación se usará de aquı́ en adelante. Es una notación usada gene-
ralmente por la literatura pero hay detalles que es mejor especificar.
3.3. Idea Conceptual
En esta parte se dará la idea central del artı́culo de Popescu et al.
Para empezar este nuevo tratamiento de los fundamentos de la mecánica
estadı́stica, se supone que se tiene un sistema cuántico aislado: el univer-
so. Se separa el universo en dos subsistemas, el subsistema y el ambiente,
y dando como condición que el ambiente sea más grande que el subsiste-
ma. Este universo está descrito por un estado cuántico puro que obedece
una restricción global, arbitraria por el momento. Se plantea que el sis-
tema alcanza el equilibrio térmico por medio de la interacción mutua a
consecuencia del entrelazamiento del sistema y el ambiente [21]. Lo que se
presentará más adelante es una definición más rigurosa que ayudará a dar
cotas para la expresión “el ambiente es más grande”.
42CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
Esta idea permite formular un principio canónico general: el sistema estará
termalizado para casi todos los estados puros del universo. Esto está so-
portado por lı́mites cuantitativos. La restricción que se impone no es una
restricción especı́fica, lo cual generaliza los resultados tradicionales dados
en la literatura donde se toma por restricción la energı́a [12].
Ya poniendo lo dicho en un contexto un poco más matemático y siguiendo
a Popescu et al, el universo aislado y bastante grande tiene dos partes:
el sistema S y el ambiente E. La dimensión del ambiente es mucho más
grande que la del sistema. Además se le impone una restricción global al
universo llamada R. Desde la mecánica cuántica esto puede ponerse como
restricciones en el espacio de Hilbert, restricción de los estados posibles:
HR ⊆ HS ⊗ HE , (3.30)
donde HS y HE son los espacios de Hilbert del sistema y el ambiente
con dimension dS y dE respectivamente. Es bueno recalcar que R es una
restricción arbitraria generalmente tomada como la energı́a del universo en
la mecánica estadı́stica. Ahora se define el estado equiprobable del universo
bajo R como:
1
ER = 1R , (3.31)
dR
Donde 1R es el operador identidad (proyección) sobre el espacio de
Hilbert HR que tiene dimensión dR . Esto se relaciona con el principio de
probabilidades iguales porque este es el estado máximamente mezclado en
HR [23]. Por ser ası́, todos los estados bajo la restricción de R tienen la
misma probabilidad de ser el estado en el que se encuentre el sistema.
Definimos ΩS como el estado canónico que está restringido por R cuando
el universo se encuentra en el estado ER . Esto significa que, si se hace una
traza parcial del ambiente al universo, se obtiene un estado definido como
el estado canónico:
ΩS = TrE ER . (3.32)
Para lo que sigue a continuación se hace un supuesto importante, y es que
3.4. FORMULACIÓN MATEMÁTICA 43
el universo está en un estado puro |φi y no en un estado mixto ER . Esto
quiere decir que se conoce todo lo que es permitido por la mecánica cuántica
del universo. Si estuviese en un estado mixto significarı́a que nosotros no
tenemos toda la información posible [23]. Ahora lo que se quiere ver es que,
pese a que el estado del universo es puro, el estado reducido del sistema
ρS = TrE |φi hφ| , (3.33)
se acerca al estado canónico para la gran mayorı́a de los casos, es decir:
ρS ≈ ΩS . (3.34)
Por consiguiente, para casi todos los estados puros del universo |φi ∈ HR ,
el sistema se comporta como si el universo estuviese en el estado mixto
equiprobable ER . Este es el principio general canónico. Clarificando lo es-
bozado, el estado canónico del sistema ΩS es el estado del sistema cuando el
universo se encuentra en el estado equiprobable ER . Se puede interpretar el
principio general canónico como un principio que estipula que las probabi-
lidades iguales del sistema son aparentes porque para casi cualquier estado
del universo, que sea puro, un subsistema de este universo que cumpla con
ser lo suficientemente pequeño se comporta como si el universo estuviese
en el estado equiprobable ER . Cabe recordar que aún no se ha especificado
la restricción R, luego todo este análisis es general. La restricción no ne-
cesariamente debe ser la energı́a u otras cantidades que se conserven. Esto
hace que ΩS no deba ser obligatoriamente el estado canónico usual; pue-
de ser el gran canónico o cualquier otro que sea acorde con la restricción
impuesta[22]. Este principio puede ser de utilidad cuando la interacción
entre el ambiente y el sistema no es débil o cuando las interacciones son
complicadas.
3.4. Formulación Matemática
Hasta ahora no se han entrado en los detalles ni en qué significan los
términos bastante pequeño y bastante grande, ni tampoco se ha demostrado
el principio general canónico. En esta sección se replicarán los detalles
matemáticos, se mostrarán las herramientas usadas y la demostración de
44CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
los teoremas que Popescu et al siguieron. En la siguiente sección se dará
una perspectiva más fı́sica a lo hecho aquı́.
Para empezar se debe decir cuál será la distancia que usaremos para darle
un sentido de cercanı́a a los estados ρS y ΩS . La distancia a usar es bastante
conocida en la teorı́a cuántica de la información, la distancia de traza [18].
Esta se define como:
1 1
q
D(ρS , ΩS ) = Tr |ρS − ΩS | = Tr (ρS − ΩS )† (ρS − ΩS ). (3.35)
2 2
Esta distancia de traza se relaciona con la distancia de norma de manera
sencilla
kρS − ΩS k1 = 2D(ρS , ΩS ). (3.36)
Teniendo ya una forma de darle sentido al concepto de que dos estados
son cercanos, se puede plantear el teorema central de [21]:
Teorema 3.4.1. Para un estado escogido de manera aleatoria |φi ∈ HR ⊆
HS ⊗ HE y un > 0 arbitrario, la distancia entre la matriz densidad
reducida del sistema ρS = TrE (|φi hφ|) y el estado canónico ΩS = TrE (ER )
está dada probabilı́sticamente por
P rφ {kρS − ΩS k1 ≥ η} ≤ η 0 , (3.37)
Donde
s
dS
η =+ , (3.38)
def
E
f
η 0 = 2 exp −CdR 2 .
(3.39)
y las constantes son: C = (18π 3 )−1 , dR = dim HR , dS = dim HS . def
E
f
es la medida efectiva del tamaño del ambiente,
1 dR
def
E =
f
2 ≥ , (3.40)
Tr ΩE dS
donde ΩE = TrS ER .
3.4. FORMULACIÓN MATEMÁTICA 45
Ambas cantidades η y η 0 serán pequeñas. Esto implica que el estado es-
tará cercano al estado canónico con alta probabilidad cuando la dimensión
efectiva del ambiente sea mucho más grande que la del sistema (es decir
def f 2
E >> dS ) y dR >> 1 >> . Esta última condición se puede asegurar
cuando el espacio accesible total es grande (es decir dR >> 1), escogiendo
−1
= dR 3 .
Esta es la formulación matemática de la perspectiva de Popescu et al. El
teorema anterior dice que la probabilidad de encontrar estados del subsiste-
ma que sean lejanos del estado canónico decae de manera exponencial con
el tamaño del sistema. Por lo tanto el teorema formaliza lo que significa
que el ambiente deba ser muy grande. Además permite decir con seguridad
que los estados que están lejanos del canónico son extremadamente raros
de encontrar, no son genéricos.
3.4.1. Lema de Levy
Para poder demostrar el teorema 3.4.1 se puede hacer de dos formas
[21], pero se seguirá la que usa el lema de Levy. Este lema dice: sea f una
función definida en la hiperesfera. Al seleccionar un punto φ aleatoriamente
de una hiperesfera de dimensión alta, y que f (φ) no cambie muy rápido,
entonces f (φ) ≈ hf i con alta probabilidad, más exactamente [29]:
Lema 3.4.2. Dada una función f : Sd → R definida en la hiperesfera d-
dimensional Sd , y un punto φ ∈ Sd es escogido de manera uniformemente
aleatoria,
2C(d + 1)2
P rφ {|f (φ) − hf i| ≥ } ≤ 2 exp − (3.41)
η2
donde η es la constante de Lipschitz de f , dada por η = sup |∇f | y C =
(18π 3 )−1 .
Los conceptos manejados por el teorema 3.4.2 son conocidos amplia-
mente a excepción de la llamada constante de Lipschitz. Para poder enten-
der qué es la constante de Lipschitz se debe ver primero qué significa que
46CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
una función sea Lipschitz continua.
La definición de continuidad dada en el cálculo básico es:
Definición 3.4.1. continuidad Sea f : I → R donde I puede ser un in-
tervalo abierto (a, b) o uno cerrado [a, b], además C ∈ I. Se dice que f
es continua en C si y solo si para todo > 0 existe un δ > 0 tal que si
|x − c| < δ −→ |f (x) − f (c)| < .
La definición anterior es la usada por lo general, pero hay sutilezas
en este concepto que no siempre son mostradas; como por ejemplo que δ
depende de donde se ponga el punto C. Esto se ve claramente en la siguiente
función: f : (0, 1) → R, f (x) = x1 , al C estar más lejos del 0 permite un δ
más grande pero al acercarse al 0 el δ debe ser más pequeño. La continuidad
de Lipschitz permite que se defina un δ constante sin importar dónde se
encuentra el C. Para resolver este detalle se motiva la definicón de Lipschitz
continuo. Se es Lipschitz continuo con constante η si
|f (x) − f (y)| ≤ η|x − y|, (3.42)
esto permite decir que |f (x) − f (y)| < entonces δ < η . Ahora si f es
derivable y ∇f es acotado, para x, y ∈ R existe ξ que se encuentre dentro
del intervalo (x, y); tal que:
=⇒ f (x) − f (y) = ∇f (ξ)(x − y) (3.43)
=⇒ |f (x) − f (y)| ≤ |∇f (ξ)||x − y| (3.44)
=⇒ |f (x) − f (y)| ≤ sup |∇f (ξ)||x − y|, (3.45)
como ∇f es acotado se tiene que sup |∇f (ξ)| = η.
Gracias a la normalización, los estados puros en HR se pueden repre-
sentar como puntos sobre la superficie de una hiperesfera de dimensión
2dR −1, o sea S2dR −1 [23]. Luego, se puede aplicar 3.4.2 a estado cuánticos φ
aleatoriamente seleccionados. Para los estados seleccionados aleatoriamen-
te φ ∈ HR , se desea mostrar que kρS − ΩS k1 ≈ 0 con alta probabilidad.
Para poder usar 3.4.2 primero debe encontrarse la constante de Lipschitz.
Ya teniendo una idea de qué es ser Lipschitz continuo, se encontrará una
cota para la constante η de la función f (φ) = kρS − ΩS k1 , que es la función
3.4. FORMULACIÓN MATEMÁTICA 47
que nos interesa para el problema fı́sico. Para lograr esto se procederá de
la siguiente forma: se definen dos estados reducidos ρ1 = TrE (|φ1 i hφ1 |) y
ρ2 = TrE (|φ2 i hφ2 |), entonces
|f (φ1 ) − f (φ2 )|2 = |kρ1 − Ωk1 − kρ2 − Ωk1 |2 . (3.46)
como kM k1 es una distancia (esto es d(ρ1 , Ω) = kρ1 − Ωk1 ) es cierto
para un espacio métrico que
|d(x, z) − d(y, z)| ≤ d(x, y), (3.47)
Por lo tanto
2
kρ1 − Ωk1 − kρ2 − Ωk1 ≤ kρ1 − ρ2 k21 = kTrE (|φ1 i hφ1 | − |φ2 i hφ2 |)k21 .
(3.48)
Como existe una cota a la norma de una traza parcial dada por
p−1
kTrB (M )kp ≤ [dim(HB )] p kM kp , (3.49)
entones la cota sobre los estados reducidos queda
kTrE (|φ1 i hφ1 | − |φ2 i hφ2 |)k1 ≤ k|φ1 i hφ1 | − |φ2 i hφ2 |k1 . (3.50)
Por lo tanto se tiene hasta ahora:
kρ1 − ρ2 k21 ≤ k|φ1 i hφ1 | − |φ2 i hφ2 |k21 , (3.51)
Usando la hermiticidad de ρ y el teorema espectral se puede descompo-
ner ρ = U DU † donde U es un operador unitario y D es diagonal. Junto con
√ √ √
las propiedades de la traza Tr U D U = T r(U D2 U † ) = Tr D2 se
2 †
llega a que
k|φ1 i hφ1 | − |φ2 i hφ2 |k21 = 4(1 − | hφ1 | |φ2 i |2 ); (3.52)
entonces,
4(1 − | hφ1 | |φ2 i |2 ) ≤ 4| |φ1 i − |φ2 i |2 . (3.53)
Uniendo todos los pasos anteriores
|f (φ1 ) − f (φ2 )|2 ≤ 4| |φi − |φi |2 (3.54)
48CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
o sea
|f (φ1 ) − f (φ2 )| ≤ 2| |φi − |φi |, (3.55)
Con esto se muestra que η ≤ 2.
Visto que el lema de Levy se puede usar para estados cuánticos, el trabajo
más pesado ya sido hecho por este lema. Ahora se debe acoplar con la idea
del principio general canónico, lo cual se seguirá haciendo en la próxima
subsección.
3.4.2. Demonstración del Principio General Canónico
En esta parte se dará una demostración matemática explı́cita del prin-
cipio general canónico usando el lema de Levy. Se entrará en los detalles
matemáticos de este lema y las cotas adicionales que se necesitan para po-
der llegar al teorema 3.4.1. Habiendo dado una cota para η, se puede usar
por completo el lema 3.4.2 para la función f (φ) = kρS − ΩS k1 recordando
que se reemplazará d en el lema por d = 2dR − [Link] la parte derecha
de la desigualdad de 3.4.2 y sustituyendo la dimensión, se tiene:
2C(d + 1)2 4CdR 2
2 exp − = 2 exp − . (3.56)
η2 η2
Como η ≤ 2, entonces
4CdR 2
2
2 exp −CdR ≥ 2 exp − ≥ Pr[|f (φ) − hf i| ≥ ]. (3.57)
η2 φ
Mirando más atentamente |f (φ) − hf i| ≥ , como la norma de traza es
una distancia, se tiene que kρS − ΩS k1 ≥ 0, entonces
kρS − ΩS k1 − hkρS − ΩS k1 iφ ≥ . (3.58)
µ0 2
Definiendo a µ = +hkρS − ΩS k1 iφ y = 2 exp −CdR , esto permite
organizar el lema de Levy ası́:
Pr[kρS − ΩS k1 ≥ µ] ≤ µ0 . (3.59)
φ
Debido a que dR >> 1, se asegura que y µ0 son cantidades pequeñas
−1/3
al escoger = dR . Para llegar a 3.4.1 falta acotar µ con las dimensiones
3.4. FORMULACIÓN MATEMÁTICA 49
de los espacios conocidos. Se impondrá una cota a hkρS − ΩS k1 iφ ; lo pri-
mero que se requiere para lograr esta empresa es acotar este promedio con
trazas del estado del sistema y luego se calcularán estas trazas para poder
dejar la cota en términos de las dimensiones del sistema y la dimensión
efectiva del ambiente. Se procede a encontrar la relación entre kρS − ΩS k1
y kρS − ΩS k2 . Esto se hará por facilidad de manejo, ya que la norma de
Hilbert-Schmidt (k.k2 ) es más sencilla para trabajar que la norma de traza,
y luego se procederá con lo planeado.
La relación entre estas dos normas se puede ver desde el manejo de ma-
trices. Sea M una matriz n × n se sabe que si M tiene λi valores propios
entonces: X
Tr M = λi (3.60)
i
con esto se puede escribir de manera explı́cita la norma de traza
1 X 2
kM k21 = (Tr |M |)2 = n2 |λi | . (3.61)
n
i
Como la función x2 es convexa se puede usar la desigualdad de Jensen que
dice: sean a1 , a2 , ..., an ≤ 0 constantes y a1 + ... + an = 1 sea f : I → R
donde I es un intervalo, x1 , ..., xn ∈ I entonces
f (a1 x1 + ... + an xn ) ≤ a1 f (x1 ) + ... + an f (xn ), (3.62)
con esto se puede decir que
1 X 2 1X
|λi | ≤ |λi |2 . (3.63)
n n
i i
Pero se sabe que
X
|λi |2 = Tr |M |2 = kM k22
(3.64)
i
se llega entonces a la conclusión que
!2
1X 1X
kM k21 = n2 |λi | ≤ n2 |λi |2 = nkM k22 (3.65)
n n
i i
50CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
Gracias a lo anterior, la relación entre normas es:
p
kρS − ΩS k1 ≤ dS kρS − ΩS k2 (3.66)
Esta relación se usará un poco más adelante.
Volviendo al cálculo de hkρS − ΩS k1 iφ se acotará la norma de Hilbert-
Schmidt, y con la relación entre normas se dará la desigualdad que limite
2
el promedio de la norma
2
R de traza. Para empezar se recuerda que hf i −
hf i ≥ 0 donde hf i = M f (x)p(x)dx. Tomando a f como f = kρS − ΩS k2
entonces
q
hkρS − ΩS k2 i ≤ hkρS − ΩS k22 i. (3.67)
Acordándose que este promedio es tomado con los estados |φi, se omitirá
por ahora el subı́ndice indicando este promedio; esto hace que ΩS se tome
constante. Por hermiticidad de ρS − ΩS
q q
hkρS − ΩS k2 i = hTr(ρS − ΩS )2 i
2
(3.68)
q q
hTr(ρS − ΩS )2 i = hTr(ρS )2 i − 2 Tr(hρS iΩS ) + Tr Ω2S
(3.69)
porque hρS i = ΩS . Luego se llega a
q q
hkρS − ΩS k22 i = hTr(ρS )2 i − Tr Ω2S .
hkρS − ΩS k2 i ≤ (3.70)
Por la relación entre la norma de traza y la norma de Hilbert-Schmidt,
se concluye lo que se querı́a; es decir,
q
hkρS − ΩS k1 i ≤ dS (hTr(ρS )2 i − Tr Ω2S ).
(3.71)
Aunque ya se ha acotado hkρS − ΩS k1 i se quiere relacionar esta cota con las
dimensiones del sistema. Para esto se procederá a demostrar la desigualdad
hTr ρ2S i ≤ TrhρS i2 + TrhρE i2 , (3.72)
3.4. FORMULACIÓN MATEMÁTICA 51
recordando que el promedio es tomado con respecto a los estados |φi; los
métodos usados para encontrar esta desigualdad son usados también en
destilación de entrelazamiento aleatorio y codificación de canal cuántico
aleatorio [7]. Para poder hacer este cálculo se introduce una segunda copia
del espacio de Hilbert. Ahora el problema se trabaja en HR ⊗ HR0 , don-
de HR0 ⊆ HS 0 ⊗ HE 0 , donde HS 0 y HE 0 son los espacios de la copia del
subsistema y el ambiente respectivamente. Percatándose de lo siguiente
X X
TrS (ρS )2 = (ρkk )2 = (ρkl )(ρk0 l0 ) kk 0 ll0 l0 l0 kk 0 . (3.73)
k k,l,k0 ,l0
Sea FSS 0 la operación ”flip”S ←→ S 0 definida de esta manera:
X
FSS 0 = s0 hs|S ⊗ |si s0 S0
(3.74)
S,S 0
Entonces
X
(ρkl )(ρk0 l0 ) kk 0 ll0 l0 l0 kk 0 = TrSS 0 ((ρS ⊗ ρS 0 )FSS 0 )
k,l,k0 ,l0
= TrRR0 ((|φi hφ| ⊗ |φi hφ|)RR0 (FSS 0 ⊗ 1EE 0 ))
Pero como se quiereR hTr(ρ)2 i = Tr(ρ)2 dφ. Entonces para resolver esto
R
se requiere saber V = (|φi hφ| ⊗ |φi hφ|)dφ. V puede representarse como:
V = αΠsim anti
RR0 + βΠRR0 , (3.75)
sim/anti
α y β son constantes y ΠRR0 son proyectores en el subespacio simétri-
co y antisimétrico de HR ⊗ HR0 respectivamente, esto es posible por la
invarianza unitaria de V. Debido a que
1
(|φi hφ| ⊗ |φi hφ|) √ (|abi − |bai) = 0 ∀a, b, φ (3.76)
2
la parte antisimétrica siempre debe ser 0 entonces β = 0. Por la normaliza-
ción de V se llega a α = dim(RR1 0
, la dimensión del espacio RRsim está
0 ) sim
52CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
0 dR (dR +1)
dada por el álgebra lineal dim(RRsim )= 2 .Entonces
2
V = h|φi hφ| ⊗ |φi hφ|i = Πsim
RR0 . (3.77)
dR (dR + 1)
Luego se tiene que
2
2
hTr(ρ) i = Tr RR0 Πsim
RR0 (F SS 0 ⊗1EE 0 ) . (3.78)
dR (dR + 1)
Al ser Πsim
RR0 un proyector simétrico se escribe
1
RR0 = (1RR0 + (FRR0 )),
Πsim (3.79)
2
donde FRR0 es el operador ”flip”R ←→ R0 . Como FRR0 es un operador
que actúa sobre RR0 puede escribirse como FRR0 = 1RR0 (FSS 0 ⊗ FEE 0 ).
Reuniendo todo lo anterior
!
1
hTrS ρ2S i = TrRR0 1RR0 + 1RR0 (FSS 0 ⊗ FEE 0 ) (FSS 0 ⊗ 1EE 0 )
dR (dR + 1)
(3.80)
Distribuyendo y sabiendo que al hacer dos veces la operación “flip”no
se afecta nada, se sigue que
1RR0 1RR0
!
TrRR0 FSS 0 ⊗ 1EE 0 + (1SS 0 ⊗ FEE 0 ) . (3.81)
dR (dR + 1) dR (dR + 1)
Por las propiedades aditivas de la traza junto con 1R ⊗ 1R0 y 1
dR (dR +1) ≤
1
d2R
se llega a que
3.4. FORMULACIÓN MATEMÁTICA 53
1RR0
! !
hTrS ρ2S i = TrRR0 (FSS 0 ⊗ 1EE 0 )
dR (dR + 1)
1RR0
! !
+ TrRR0 (1SS 0 ⊗ FEE 0 )
dR (dR + 1)
1R 1R0
! !
≤ TrRR0 ⊗ (FSS 0 ⊗ 1EE 0 )
dR dR
1R 1R0
! !
+ TrRR0 ⊗ (1SS 0 ⊗ FEE 0 )
dR dR
Recordando que 1dRR = ER y ΩS = TrE (ER ) se tiene que:
1R 1R0 1R 1R0
! !
TrRR0 ⊗ (FSS 0 ⊗ 1EE 0 ) + TrRR0 ⊗ (1SS 0 ⊗ FEE 0 )
dR dR dR dR
= TrSS 0 ((ΩS ⊗ ΩS )FSS 0 ) + TrEE 0 ((ΩE ⊗ ΩE )FEE 0 ).
Entonces se llega a lo que se querı́a:
hTrS ρ2S i ≤ TrS Ω2S + TrE Ω2E , (3.82)
y esto es lo mismo que
hTrS ρ2S i ≤ TrS hρS i2 + TrE hρE i2 . (3.83)
Gracias al resultado 3.66 se obtiene que
p
hkρS − ΩS k1 i ≤ dS (T rE hρE i2 ). (3.84)
Si se define def
E
f
≡ T r 1Ω2 como la dimensión efectiva del ambiente en el
E E
estado canónico, esto mide la dimensión del espacio en el que el ambiente
es más probable de estar. Como hρE iφ = ΩE , se concluye que
s
dS
hkρS − ΩS k1 i ≤ . (3.85)
def
E
f
54CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
Ya con esto se tiene el teorema 3.4.1. Cuando el ambiente es mucho
más grande que el sistema, µ y µ0 de la ecuación 3.59 serán pequeñas
(def
E
f
>> dS ) implicando kρS − ΩS k1 ≈ 0 con alta probabilidad. Aunque
ya se llegó a la desigualdad que se querı́a, se puede notar lo siguiente: sean
los valores propios de ΩE iguales a λkE con su máximo valor propio λmax E ;
se ve entonces que
X
TrE Ω2E = (λkE )
k
X
≤ λmax
E λkE
k
1
R
= máx hφE | TrS |φE i
|φE i dR
X 1R
= máx hsφE | |sφE i
|φE i
s
dR
dS
≤
dE
En conclusión, def f
E ≥ dR /dS . Entonces se obtiene
s s
dS d2S
hkρS − ΩS k1 i ≤ ≤ . (3.86)
def f E
dR
Con esto se finaliza la demostración del teorema 3.4.1. En la siguiente
sección, se hablará de sus consecuencias fı́sicas.
3.5. Significado Fı́sico
El teorema anterior ya permite hablar del concepto importante que se
sigue del trabajo hecho por Popescu et al. La idea general de la fı́sica es
poder dar una relación uno a uno entre las propiedades de un objeto fı́sico y
su representación matemática. Con esta correspondencia es posible afirmar
que la teorı́a está completa cuando todas las propiedades medibles tienen
su semejante en la teorı́a [24]. Por ejemplo, en la fı́sica clásica, a las canti-
dades como velocidad y distancia se les asignan los sı́mbolos matemáticos
3.5. SIGNIFICADO FÍSICO 55
v y x; el cuerpo puede ser especificado dando estas dos cantidades en un
tiempo determinado. La mecánica clásica nos da un ejemplo sencillo, pero
al hacer el tránsito a la mecánica estadı́stica, se encuentran perspectivas
diferentes que entran en conflicto con esta sencilla idea.
En sus inicios, la mecánica estadı́stica causó muchas controversias dado
que contradecı́a la idea determinista que Newton y otros habı́an mostrado
como cierta, de que era posible describir la naturaleza de manera prede-
cible. Con la mecánica estadı́stica se introdujo la probabilidad a sistemas
que, según Newton, eran deterministas.2 . Dos propuestas importantes sur-
gieron en busca de una base conceptual para dicha probabilidad: la visión
de Gibbs y la de Boltzmann. Gibbs propuso la idea del ensamble, una idea
que hasta el dı́a de hoy se sigue utilizando porque da resultados correctos
para las propiedades de sistemas termodinámicos.
La idea de Gibbs es la siguiente: Se tiene un sistema macroscópico con
ciertos parámetros que se pueden medir. Este sistema está compuesto por
varias partı́culas que tienen posiciones y momentos, pero estas propieda-
des están restringidas por los parámetros macroscópicos. Entonces, como
no se puede conocer el microestado del sistema, no se puede medir cada
posición y momento de cada partı́cula; existe una restricción sobre el mi-
croestado dado el macroestado. El ensamble es el conjunto de microestados
que cumplen con el macroestado: mientras el microestado cumpla con los
parámetros macroscópicos, hará parte del ensamble ası́ el sistema no se
encuentre en ese microestado. En teorı́a, no hay limitación sobre el número
de microestados que pertenezcan a un ensamble, éste puede tener infinitos
microestados. Esta idea da la base para la función de densidad en el espa-
cio de fase, en el cual se encuentra una cantidad de microestados que no
interactúan entre ellos -cada punto en el espacio es un microestado-. Con
esto se puede construir la mecánica estadı́stica que se conoce [19]. Por el
contrario, Boltzmann da un concepción de la mecánica estadı́stica más in-
tuitiva. Él propone N partı́culas que interactúan entre ellas y cumplen los
parámetros macroscópicos. No habla de copias imaginarias de un sistema
como en el caso de los ensambles de Gibbs, sino de partı́culas reales que
están en el sistema que se está estudiando.
2
En este punto se debe hacer claro que la necesidad de recurrir a la probabilidad
existı́a por falta de conocimiento, y no por un indeterminismo intrı́nseco como en la
mecánica cuántica
56CAPÍTULO 3. EL ENTRELAZAMIENTO Y LA MECÁNICA ESTADÍSTICA
Se esperarı́a que la solución de Boltzmann fuera la que diera los resulta-
dos adecuados dada la sencillez de su propuesta, pero es la formulación de
Gibbs la que da la termodinámica correcta. E.T Jaynes, en [11], muestra
las diferencias matemáticas de cada perspectiva y llega a la conclusión de
que la formulación de Gibbs da la entropı́a correcta del sistema sin impor-
tar cuál sea el tipo de interacción que tenga el mismo. Además, encuentra
que la entropı́a que sale de la formulación Boltzmanniana no es la misma
entropı́a dada por la termodinámica. La entropı́a de Boltzmann es correcta
cuando no hay interacción entre las partı́culas.
Ya con la comprobación experimental se deberı́a aceptar la perspectiva de
Gibbs como la correcta y dejar a un lado la de Boltzmann, pero esto de-
jarı́a a la mecánica estadı́stica en un contexto filosófico frágil: aunque la
fı́sica busque una correspondencia entre experimento y teorı́a, no se puede
aceptar cualquier teorı́a solo por que tenga congruencia con el experimen-
to. La fı́sica debe buscar una estabilidad conceptual en sus teorı́as. Es por
esto que, aunque Gibbs encuentre los resultados, no se aceptan sus postula-
dos como marco teórico. Lo que propone Gibbs, aunque matemáticamente
aceptable, se basa en todos los microestados en los que el macroestado
no se encuentra. Es decir, que para poder determinar la propiedades del
estado que se está estudiando, es necesario estudiar a su vez todos los es-
tados en los que el sistema no se encuentra pero podrı́a estar. ¿Por qué
para analizar un sistema que se encuentra en un estado definido y exacto
se debe examinar los posibles estados infinitos en donde no se encuentra?
Si se hace un promedio sobre estos microestados ¿cuál es el significado de
este promedio? Este problema ontológico deja la perspectiva de Gibbs en
duda, mientras que la de Boltzmann habla del sistema que se examina sin
ningún problema de este estilo.
La lucha entre ambas perspectivas continúa sin resolverse. Lo que se ha
mostrado hasta ahora ha sido la propuesta tentativa de unir matemática-
mente ambas posiciones dada por Popescu et al, en base a que es muy poco
probable encontrar un estado lejano del canónico. Por lo tanto -a menos
que se tenga un estado bastante especial- se puede asegurar que el subsis-
tema de un universo muy grande, dado por un estado puro (planteamiento
de Boltzmann) se comporta de la misma manera que un subsistema de un
universo que se encuentre en un estado máximamente mezclado (perspec-
tiva de Gibbs). Esto equivale a decir que, para la mayorı́a de los estados
3.5. SIGNIFICADO FÍSICO 57
en un espacio de Hilbert, es posible reconciliar ambas perspectivas.
Hay otro punto que agrega mérito a la perspectiva de Popescu et al, y
es que proponen un marco teórico mucho más sólido para la mecánica es-
tadı́stica, al estar éste basado en la mecánica cuántica. Gracias al teorema
3.4.1 se cambia la probabilidad dada por la ignorancia subjetiva por una
probabilidad objetiva inherente a la naturaleza, debido al entrelazamiento
entre el subsistema y el ambiente, con lo que ya no es imperativo utili-
zar promedios para fundamentar la mecánica estadı́stica. Este cambio de
fundamento permite adicionalmente que ya no sea necesario entrar en el
problema de la ergodicidad.
Capı́tulo 4
Evolución Hacia El
Equilibrio
En el capı́tulo anterior se expuso la idea de Popescu et al [21] que
reconcilia las ideas fundamentales de la mecánica estadı́stica. Se mostró
que, para estados genéricos de un universo, el estado del sistema está muy
cercano del estado canónico. Partiendo de esto cabe entonces preguntarse
sobre la termalización, ¿cómo ocurre este fenómeno? ¿se puede deducir de
las ecuaciones básicas(Schrödinger, Newton , etc)? Este capı́tulo mostrará
lo que Linden et al [16] proponen para responder estas preguntas siguiendo
las ideas ya dadas en el capı́tulo anterior.
Gracias al carácter de generalidad que Popescu et al han otorgado a los
fundamentos, se tiene una mayor flexibilidad al momento de manejar nue-
vos problemas. Se ve que, además de contar con una buena base filosófica,
las matemáticas dan un esqueleto sólido para sostener esta base y seguir
construyendo con ellas. Se quiere tratar el caso en que el estado no se en-
cuentra en un tiempo especı́fico, sino que va evolucionando en el tiempo.
Lo primero a tener en cuenta es la necesidad de apuntar la maquinaria exis-
tente para redondear el problema. Luego se mostrará que, por lo general,
los estados de un sistema llegan al equilibrio y duran allı́ gran parte del
tiempo, siguiendo las especificaciones dadas al comienzo. Se seguirá dando
un teorema que muestra cómo la gran mayorı́a de casos de estados genéri-
cos llegan al equilibrio, también argumentando cómo los estados lejanos al
equilibrio llegan a equilibrarse. Además, se mostrará que el estado de equi-
59
60 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
librio es independiente del estado inicial del ambiente y algunos problemas
respecto a esto que han logrado ser resueltos.
4.1. Especificación del Equilibrio
Para continuar con el abordaje del problema del equilibrio, es necesario
en primer lugar definir su significado. Con base en conceptos fenomenológi-
cos se dará la definición del equilibrio y qué se espera de este estado.
La noción más intuitiva que se tiene sobre el equilibrio es la de un siste-
ma que se mantiene en el mismo estado y con las mismas caracterı́sticas
durante un largo periodo de tiempo. Se dice que un sistema se equilibra si
evoluciona a un estado especı́fico (puede ser puro pero en general es mixto)
y se mantiene allı́ por la mayor parte del tiempo. En esta noción inicial
no se menciona nada sobre las dependencias que pueda tener el sistema;
se puede tener una condición de dependencia laxa, lo cual quiere decir que
el estado de equilibrio depende o no del estado inicial del susbsistema y/o
del estado inicial del ambiente de forma arbitraria. Por lo tanto, no es im-
portante cuál sea el estado de equilibrio; éste puede ser la distribución de
Boltzmann o cualquier otra. El concepto de equilibrio dado aquı́ es una
forma general de hablar sobre este fenómeno porque otorga mucha libertad
al estado y sus dependencias del ambiente. Es necesario especificar aún más
la idea del equilibrio.
El estado de equilibrio del sistema no deberı́a depender del estado inicial
del baño. Esto quiere decir que el baño debe tener unos parámetros ma-
croscópicos (como la temperatura) tales que cuando se llegue al equilibrio,
el estado dependa de estos parámetros -como se puede ver, la noción de
equilibrio se va especificando-. Esta idea proviene de lo que normalmente
se espera del equilibrio, porque los parámetros macroscópicos son los que
generalmente están completamente especificados. El estado exacto del baño
no juega un papel tan importante, porque para los mismos parámetros ma-
croscópicos puede haber varios estados del baño que concuerden con éstos.
Se supone que, con ciertos parámetros macroscópicos dados, un subsistema
llegará al equilibrio sin importar cual ha sido su estado inicial. Pueden dos
subsistemas preparados con los mismos parámetros macroscópicos haber
sido iniciados, uno en un estado A, y el otro en un estado B, y llegarán
al mismo estado de equilibrio sin importar el estado en el que hayan em-
4.1. ESPECIFICACIÓN DEL EQUILIBRIO 61
pezado. Por lo tanto, si el subsistema es pequeño en comparación con el
ambiente, el estado de equilibrio del subsistema deberı́a ser independiente
de su estado inicial. Pero para poder corroborar y unir estas ideas con los
resultados conocidos, se impone una última restricción. Bajo condiciones
del estado inicial y el Hamiltoniano, el estado
de equilibrio del subsistema
1 HS
puede ser escrito como ρS = Z exp − kB T , la forma familiar dada por la
mecánica estadı́stica.
Dividiendo problema de la termalización de esta manera, es posible analizar
cada uno de sus aspectos por separado. Además, este abordaje permite dar
generalidad a todo el tratamiento sin tener que restringirse a situaciones
que usualmente se asocian a la termalización. Por ejemplo no es obligatorio
quedarse en el régimen de corta o débil interacción entre el sistema y el
baño, o decir únicamente que el baño es tı́pico (dados una temperatura
o rango de energı́a), sino que se puede abordar situaciones en los que el
sistema no llegue a equilibrarse.
A continuación, se mostrará que las dos ideas iniciales -1.) un sistema
siempre llegará al equilibrio y 2.) el estado no depende del ambiente- son
propias de sistemas cuánticos. La evolución del sistema tiene implicado al
hamiltoniano, por eso se estudiará el siguiente hamiltoniano:
X
H= Ek |Ek i hEk | , (4.1)
k
donde |Ek i es el estado propio con energı́a Ek . Al hamiltoniano anterior se
le dará la única restricción de que tenga brechas de energı́as no degeneradas.
Esto quiere decir que, para una diferencia de energı́as dada, solo existe un
par posible de estados con esa diferencia. El ejemplo puesto por Linden et
al [16] es: si se tienen 4 valores propios de energı́a Ek , El , Em , En entonces
Ek − El = Em − En implica k = l y m = n, o k = m y l = n. Esto implica
que los niveles de energı́a no son iguales para diferentes estados (no son
degenerados).
Esta restricción del hamiltoniano comprende que, sin importar cómo se
dividan el subsistema y el baño, siempre van a estar interactuando. Esto
excluye los hamiltonianos no interactuantes (H = HS + HE ) los cuales
tienen muchas brechas de energı́a degeneradas. Si no hay interacción en el
hamiltoniano la energı́a es E = ES + EB y sean E1 , E2 , E3 , E4 tales que se
satisfaga Ei = EiS +EiE i = 1, 2, 3, 4, se llega a una brecha degenerada. Este
62 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
supuesto no es tan fuerte como pueda llegar a parecer, porque cualquier
perturbación que se le haga al hamiltoniano romperá las degeneraciones
sin importar lo pequeña que sea la perturbación. Aunque estos cambios se
tarden en hacer efecto sobre la evolución del sistema, las escalas temporales
no son importantes en este momento. Gracias a esta restricción se pueden
incluir interacciones complejas que por lo general no son analizadas en la
literatura, como las interacciones de larga distancia o las interacciones entre
todas las partı́culas. Esto hace que la energı́a no llegue a ser una cantidad
extensiva.
4.2. Equilibración
La perspectiva principal que se quiere proponer siguiendo a los auto-
res [16] viene en forma del siguiente resultado: Para cada estado puro de
un sistema cuántico que se compone por un número grande de estados de
energı́a propios, y el cual evoluciona bajo un hamiltoniano que tiene bre-
chas de energı́as no degeneradas y por lo demás arbitrario, es tal que cada
pequeño subsistema llegará al equilibrio. Esto quiere decir que todos los
subsistemas pequeños cumplirán con las ideas anteriores sobre equilibrio y
que el subsistema evolucionará a un estado particular y se quedará cercano
a él o en éste, durante la mayorı́a del tiempo.
En este resultado hay un requerimiento que anteriormente no fue nombra-
do, el de una cantidad grande de estados propios de energı́a. La necesidad
de que el sistema tenga muchos estados propios de energı́a es equivalente
a decir que el estado variará bastante durante su evolución temporal. Por
ejemplo, en el caso trivial de un solo estado propio de energı́a, es claro
que éste no cambiará para nada. Este caso tan particular no llega a ser de
mucho interés porque este estado no evolucionará a otro y se dirı́a que ya
se encuentra en equilibrio. Los resultados que se quiere mostrar tomarán
estados fuera del equilibrio. En este punto se usan las otras suposiciones
hechas anteriormente. Para que el subsistema no dependa del estado inicial,
el subsistema debe perder esta información; si el subsistema empieza lejano
al equilibrio este pasará por muchos estados en su camino al equilibrio lo
cual implica que el universo también evolucionará en muchos estados. El
hecho de que el subsistema haya llegado al equilibrio no significa que el
universo deje de evolucionar, de hecho, debido a la unitaridad, debe seguir
4.2. EQUILIBRACIÓN 63
evolucionando como lo venı́a haciendo. Para que los estados en los que el
subsistema se encuentre en no equilibrio ocurran poco, los estados del uni-
verso en los que el subsistema se encuentra en esas condiciones deben ser
una fracción muy pequeña del total de estados por donde pasa el universo.
Por esto el universo debe pasar por muchos estados, y el requerimiento de
que tenga muchos estados propios de energı́a se vuelve necesario.
Otra forma de saber qué pasa con el universo es observar qué ocurre con
el ambiente. Por unitaridad, el universo debe seguir evolucionando aunque
el subsistema se encuentre en equilibrio y no cambie. Esta evolución puede
darse por el cambio de correlaciones entre el subsistema y el baño, o por
cambios en el estado del baño [24]. Lo que se muestra es: cuando el estado
del baño pasa por muchos estados diferentes, cualquier subsistema alcanza
el equilibrio. También se muestra que cuando el estado del universo pasa
por muchos estados diferentes, cualquier subsistema, suficientemente pe-
queño, alcanza el equilibrio. Estas dos ideas exponen que la equilibración
ocurre en estados iniciales que son producto entre el subsistema y el baño,
para casi todos los estados iniciales del baño.
Para poder empezar a construir estos conceptos matemáticamente, se
puede empezar con la concepción matemática de evolucionar por muchos
estados diferentes. Esta se comprime en la dimensión efectiva del promedio
temporal del estado del sistema def f (ω) donde ω = ρ(t) t . Esta medida de
evolución por muchos estados se puede relacionar con los estados propios
de energı́a ası́:
Se toma el estado del universo
X Ek t
|ψ(t)i = ck e−i ~ |Ek i , (4.2)
k
cuyo operador de densidad es
X −i(Ek −El )t
ρ(t) = ck c∗l e ~ |Ek i hEl | . (4.3)
k,l
Su promedio temporal es, recordando la condición de no degeneración de
los niveles de energı́a,
X
ω= |ck |2 |Ek i hEk | (4.4)
k
64 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
y dando la relación se calcula la dimensión efectiva resultando
1 1
def f (ω) = 2
=P 4
. (4.5)
T r(ω ) k |ck |
Similarmente, el hecho de que el baño pase por muchos estados diferentes
viene dado por def f (ωB ) con ωB = hρ(t)it . Debido a que el baño al evolu-
cionar pasa por muchos más estados dado que el universo debe seguir evo-
lucionando, y el subsistema queda en un espacio de estados más pequeño,
se prevé que dS es mucho más pequeño que def f (ωB ). Para formular el pri-
mer teorema se quiere ver la distancia entre ρS (t) y su promedio temporal
ωS = hρS (t)it . Como se espera que ρS (t) vaya fluctuando alrededor de ωS ,
se analizará el promedio temporal de su distancia hD(ρS (t), ωS )it ; cuando
éste sea muy pequeño, el subsistema debe pasar gran parte del tiempo muy
cerca a ωS . Esto quiere decir que el subsistema se equilibrará (según la
definición anterior) a ωS .
Teorema 4.2.1. Considere cualquier estado |ψ(t)i ∈ H evolucionando bajo
un hamiltoniano con brechas de energı́a no-degeneradas. Luego la distancia
promedio entre ρS (t) y su promedio temporal ωS está acotado por:
s s
1 dS 1 d2S
hD(ρS (t), ωS )it ≤ ≤ . (4.6)
2 def f (ωB ) 2 def f (ω)
Demostración. Recordando la relación entre la distancia de traza y la nor-
ma de Hilbert-Schmidt que se usó en el capı́tulo anterior
√
kM k1 ≤ nkM k2 , (4.7)
se usa para el operador D(ρ1 , ρ2 ):
1 p 1p
TrS (ρ1 − ρ2 )2 ≤ dS TrS (ρ1 − ρ2 )2 , (4.8)
2 2
por la concavidad de la función raı́z cuadrada se obtiene que
r D E
hD(ρS (t), ωS )it ≤ dS TrS (ρS (t) − ωS )2 . (4.9)
t
4.2. EQUILIBRACIÓN 65
Usando las expansiones para ρS y ωS
X −i(Ek −El )t
ρS (t) = ck c∗l e ~ TrB (|Ek i hEl |), (4.10)
k,l
X
ωS = |ck |2 TrB (|Ek i hEk |), (4.11)
se puede escribir TrS (ρS (t) − ωS )2 t
como
XX
TrS (ρS (t) − ωS )2 t
= Tklmn TrS [TrB |Ek i hEl | TrB |Ek i hEl |],
k6=l m6=n
(4.12)
donde Tklmn es :
D −i(Ek −El +Em −En )t E
Tklmn = ck c∗l cm c∗n e ~ . (4.13)
t
Debido a la restricción impuesta al hamiltoniano de brechas de energı́as no
degeneradas, y como sólo se toman elementos k 6= l y m 6= n, los términos
que son diferentes de 0 son k = n y l = m. Entonces,
X
TrS (ρS (t) − ωS )2 t
= |ck |2 |cl |2 TrS [TrB (|Ek i hEl |) TrB (|Ek i hEl |)]
k6=l
X X
= |ck |2 |cl |2 hsb|Ek i El s0 b s0 b0 El Ek sb0
k6=l ss0 bb0
X X
= |ck |2 |cl |2 hsb|Ek i Ek sb0 s0 b0 El El s0 b
k6=l ss0 bb0
X
= |ck |2 |cl |2 TrB [TrS (|Ek i hEk |) TrS (|El i hEl |)]
k6=l
X
= TrB [TrS (|ck |2 |Ek i hEk |) TrS (|cl |2 |El i hEl |)]
k6=l
X
2
= TrB ωB − |ck |4 TrS [TrB (|Ek i hEk |)]2 ≤ TrB (ωB
2
).
k
La última igualdad se encuentra recordando la definición de ωB y ob-
servando la segunda igualdad. Por la subaditividad débil de la entropı́a de
Rényi [6]:
66 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
TrB (ωB2) 2)
TrB (ωB
Tr ω 2 ≥ ≥ . (4.14)
rank(ρS ) dS
Uniendo todos los resultados con la desigualdad inicial del promedio de
la distancia
s
1
q
2 1
q
1 d2S
hD(ρS (t), ωS )it ≤ dS TrB (ωB ) ≤ d2S Tr(ω 2 ) = . (4.15)
2 2 2 def f (ω)
Este resultado da base para hablar de la termalización en términos ma-
temáticos: se ve que, en promedio, el subsistema se equilibra cuando la
dimensión de def f (ω) sea mucho mayor que la dimensión de dos copias
del subsistema d2S , o cuando la dimensión efectiva explorada por el baño
def f (ωB ) sea mucho más grande que la dimensión del subsistema.
El resultado anterior tiene varias generalidades que se quiere recodar. La
restricción impuesta sobre el hamiltoniano es una que no excluye muchos
hamiltonianos [23]. Aunque ésta ha sido la única restricción sobre todo el
universo, no se ha especificado nada del baño ni del subsistema. El baño no
está necesariamente en equilibrio, no se le ha dado ninguna interpretación
con respecto a la termodinámica usual a ningún objeto tratado hasta aho-
ra. No se ha hablado tampoco de la forma especı́fica en la que el subsistema
llega al equilibrio, ni si está en algún estado especı́fico.
Los valores propios de energı́a tampoco son importantes en las cotas dadas
anteriormente, en el teorema, al ser demostrado, se encontraron algunos
valores propios de energı́a que al ser promediados dan 0. La energı́a es
fundamental al buscar las formas exactas en las que evoluciona el sistema.
Sin embargo, se demostró que para la equilibración en intervalos de tiempo
muy grandes, su importancia se reduce: las cotas son independientes del
tiempo. La forma en que se dividió el universo (subsistema y baño) no es
importante, para el teorema 4.2.1 sólo es importante la dimensión del sub-
sistema, y no la especificación de la forma o un subsistema particular. Esto
permite decir que cualquier subsistema con dimensión dS estará en equili-
brio. Los varios subsistemas bastante pequeños de dimensión dS también
estarán en equilibrio.
4.2. EQUILIBRACIÓN 67
El teorema 4.2.1 da una desigualdad a la distancia promediada temporal-
mente de ρS (t) alrededor de ωS . Esto ya es un inicio, pero aunque esta cota
exista no se ha hablado de cuales sistemas tendrán fluctuaciones suficien-
temente pequeñas para poder decir que se encuentran en equilibrio. Ahora
se explorará cuáles son los estados que se equilibrarán; el siguiente teorema
dirá cuales estados tienen fluctuaciones muy pequeñas.
Teorema 4.2.2. 1. El promedio de la dimensión efectiva hdef f (ω)iψ ,
donde el promedio es sobre estados puros aleatorios uniformemente
distribuidos |ψi ∈ HR ⊂ H. Es tal que
dR
hdef f (ω)iψ ≥ . (4.16)
2
2. Para un estado aleatorio |ψi ∈ HR ⊂ H, la probabilidad Prψ {def f (ω) <
dR ef f (ω) es más pequeña que dR es exponencialmente pe-
4 } de que d 4
queña:
dR n p o
P rψ {def f (ω) < } ≤ 2 exp −C dR , (4.17)
4
(ln 2)2
con constante c = 72π 3
≈ 10−4 .
Demostración. 1. Primero se prueba la cota de la pureza esperada de
ω. Para esta prueba se usarán varios resultados ya empleados en el
capı́tulo anterior como: la operación ”flip”F y la identidad h|ψi hψ| ⊗
(1+F )
|ψi hψ|iψ = ΠdRR R (dR +1)
. Además se usará la notación de |Ek i ≡ |ki
y |E
P k i ⊗ |E l i ≡ |kli. Se introduce el mapeo de desfase como $[ρ] ≡
k |ki hk| ρ |ki hk|, implica que ω = h|ψi hψ|it = $[|ψi hψ|]. Entonces
usando la operación ”flip”se escribe hTr(ω)2 iψ como
68 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
hTr(ω)2 iψ = hTr(ω ⊗ ω)F )iψ
= Tr($ ⊗ $[h|ψi hψ| ⊗ |ψi hψ|iψ ]F )
ΠRR (1 + F )
" # !
= Tr $ ⊗ $ F
dR (dR + 1)
ΠRR (1 + F )
! !
X
= Tr |kli hkl| |kli hkl| F
dR (dR + 1)
kl
!
X hkl| ΠRR (|kli + |lki)
= Tr(|kli hlk|)
dR (dR + 1)
kl
X 2 hkk| ΠRR |kki
=
dR (dR + 1)
k
X 2 hk| ΠR |ki 2
≤ <
dR (dR + 1) dR
k
se sigue directamente que
* +
ef f 1 1 dR
hd (ω)iψ = ≥ > (4.18)
Tr(ω)2 ψ
2
hTr(ω) iψ 2
concluyendo la prueba.
2. Para demostrar la segunda parte se usará el lema de Levy pero no
directamente sino sobre la función
!
f (ψ) ≡ f (~x(ψ)) = ln Tr $̃[|ψi hψ|]2 (4.19)
Donde el operador $̃ actúa sobre el espacio de operadores lineales so-
bre HT generado por los estados de energı́a con proyección diferente
de cero sobre HR (estados que satisfagan hk| ΠR |ki = 6 0). El subes-
pacio HT contiene todos los estados que pueden aparecer durante la
4.2. EQUILIBRACIÓN 69
evolución temporal del estado inicial en HR , y e
$ mapea estos estados
de regreso a HR de acuerdo a
˜ hk| ρ |ki hk|
˜ y |ki˜ =p 1
X
$̃[ρ] = |ki ΠR |ki . (4.20)
k
hk| ΠR |ki
Nótese que cuando el hamiltoniano conmuta con ΠR , $̃ es idéntico al
$ en HT . Calculando el promedio de la función, se encuentra que
D E D E
ln Tr $̃[|ψi hψ|]2 ≤ ln Tr $̃[|ψi hψ|]2
ψ ψ
= ln Tr $̃ ⊗ $̃[h|ψi hψ| ⊗ |ψi hψ|iψ ]F
ΠRR (1 + F )
= ln Tr $̃ ⊗ $̃ F
dR (dR + 1)
1
X !
˜ hkl| Π RR ( + F ) ˜
= ln Tr |kli |kli hlk|
dR (dR + 1)
kl
!
X
˜ ˜ hkl| ΠRR (|kli + |lki)
= ln hlk||kli
dR (dR + 1)
kl
2 X
≤ ln hlk| ΠRR |kli
dR (dR + 1)
kl
2 X 2
= ln hk| ΠR |ki < ln .
dR (dR + 1) dR
k
Para acotar la constante de Lipschitz de la función f (ψ), se usará
otra función
" 2 #
X
g(ψ) = ln Tr |n̂i hn̂| $̃[|ψi hψ|] |n̂i hn̂| , (4.21)
n
donde |n̂i es una base ortonormal de HR . Escribiendo
˜ hk|ψi] y
tnk0 = Re[hn̂| |ki ˜ hk|ψi],
tnk1 = Im[hn̂| |ki (4.22)
se sigue que
" !2 # !2
X X X
g(ψ) = ln Tr t2nkz |n̂i hn̂| = ln t2nkz . (4.23)
nkz n kz
70 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
Para encontrar la constante de Lipschitz de g es suficiente con encon-
trar una cota superior al gradiente
∂g 1 X
=P P 2 2
[Link] t2nk0 z 0 . (4.24)
∂tnkz n0 ( 0 0 t
kz nkz 0 0 0 ) 0 0 kz
2
P P
Introduciendo la notación pn = kz tnkz , y notando que n pn = 1,
se encuentra
X ∂g 2
2
|∇g| =
∂tnkz
nkz
P 3
16 p
= P n2 n2
( n pn )
16( n p2n )3/2
P
≤
( n p2n )2
P
16
= P 2 1/2
( n pn )
p
≤ 16 dR ,
√
Por lo tanto la constante de Lipschitz de g llega hasta 4 4 dR . Para
obtener la constante de Lipschitz de f se nota que g(ψ) ≥ f (ψ). La
igualdad se da si {|n̂i} es una base propia de TrB |ψi hψ|. Ahora para
dos vectores cualesquiera, sin perdida de generalidad, se puede asumir
f (ψ1 ) ≤ f (ψ2 ), y tomar {|n̂i} como la base propia de TrB |ψi hψ|.
Entonces,
p
f (ψ1 ) − f (ψ2 ) ≤ g(ψ1 ) − g(ψ2 ) ≤ 4 4 dR | |ψ1 i − |ψ2 i |2 , (4.25)
√
Por lo tanto la constante de Lipschitz para f está acotada por 4 4 dR .
Aplicando el lema de Levy a f (ψ), y observando que Pr{x > a} ≤ b
y x ≥ y implica Pr{y > a} ≤ b sustituyendo la cota en hf (ψ)iψ
obtenida arriba, se tiene que
ln Tr $̃[|ψi hψ|]2 ≥ ln Tr $[|ψi hψ|]2 .
(4.26)
4.2. EQUILIBRACIÓN 71
Esto da
2√
2e
2
dR
Pr ln Tr $[|ψi hψ|] > ln ≤ 2 exp − . (4.27)
ψ dR 72π 3
Tomando la desigualdad que está dentro de los corchetes, multi-
plicándola por menos y tomando su exponencial, se llega a que
2√
ef f dR dR
Pr d (ω) < ≤ 2 exp − , (4.28)
ψ 2e 72π 3
y haciendo que = ln 2, se llega al resultado esperado.
La primera parte del teorema 4.2.2 nos habla de cómo el promedio de la
dimensión efectiva es más grande que la dimensión del subespacio de Hil-
bert. Esto significa que si se tiene estados de un subespacio bastante grande,
se puede asegurar un def f (ω) grande. Esto implica un hD(ρS (t), ωS )it pe-
queño. La segunda parte solo confirma de manera más estricta el hecho de
encontrar un def f (ω) pequeño, mostrando que la probabilidad de encontrar
una dimensión efectiva menor a d4R es exponencialmente pequeña.
Usando el teorema 4.2.2, se puede ver qué ocurre con un estado escogi-
do de forma aleatoria del espacio total H, un estado genérico. El análisis
se sigue simplemente viendo que dR pasa a ser la dimensión de todo el
espacio d; gracias a esto, se comprende que def f (ω) ∼ d, ya que hay una
probabilidad exponencialmente baja de que se dé el caso en que def f < d4 .
q
dS
Como d = dS dB , la cota superior para las fluctuaciones queda dB . En
un sistema de muchas partı́culas, la dimensión del espacio de Hilbert crece
de manera exponencial [27]. Si el subsistema es una fracción constante del
número de partı́culas del baño, esta proporción caerá de manera exponen-
cial con el número total de partı́culas, luego los subsistemas se equilibrarán.
Se podrı́a suponer que con los teoremas presentados hasta el momento, el
problema de termalización se ha resuelto mayoritariamente pero ¿qué ocu-
rre con los sistemas que están lejos del equilibrio? Con lo dicho arriba sobre
72 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
los estados genéricos se pensarı́a que cualquier sistema debe llegar al equi-
librio, pero esto no es cierto debido a que los estados lejos del equilibrio no
son genéricos, y por el capı́tulo anterior se sabe que, con cotas exponen-
ciales, la mayorı́a de los estados en el espacio de Hilbert son tales que un
subsistema pequeño está en un estado canónico.
Para poder encontrar la respuesta a esta pregunta se planteará la situación
común. Hay un baño que consiste de un número muy grande de partı́culas
de las cuales se conocen unos parámetros macroscópicos. Dentro de éste se
pone un subsistema con un estado inicial arbitrario pero descorrelaciona-
do con el ambiente. Ahora la pregunta es: ¿el subsistema se equilibra? Se
verá que para cualquier estado inicial del subsistema y para casi todos los
estados iniciales del baño el subsistema se equilibra. Esto incluye cuando
el subsistema está lejos del equilibrio.
El estado inicial del sistema está dado por |ΨiSB = |ψiS |ψiB . El estado
del subsistema es uno arbitrario |ψiS en el espacio de Hilbert. Dados unos
parámetros macroscópicos, el baño debe cumplir con éstos, luego el estado
del baño |φiB ∈ HB R ⊆ H . Esta restricción mantiene la generalidad de
B
seguir en cualquier espacio de Hilbert restringido. Pero la restricción es
sólo inicial, al evolucionar el baño en el tiempo éste puede moverse fuera
de HB R.
Usando el teorema 4.2.2 para HR = |ψiS ⊗ HB R entonces d = dR . Esto
R B
da como resultado que casi todos los estados iniciales del baño y cualquier
estado del subsistema se equilibrarán para estas condiciones, mientras que
dR 2
B >> dS . El mecanismo en que el subsistema se equilibra puede ser bas-
tante complicado ya que el baño pasa por muchos estados diferentes y no
llega el equilibrio. Aunque el baño no llegue al equilibrio y se salga del
subespacio HB R , el subsistema puede equilibrarse de todas formas.
En principio, puede que la evolución del subsistema sea sensible a la forma
precisa del baño. Para ver que el baño no se equilibra de manera genérica,
se verá que def f (ωS ) es mucho mayor que def f (ρB (t)), lo cual muestra que
el baño sigue evolucionando y no se equilibra en ningún estado. Como los
dos sistemas están en un estado puro el rango de ρB (t) es igual al rango
de ρS (t) entonces rank(ρS (t)) ≥ dS , y la dimensión efectiva de un estado
es siempre menor a su rango, se obtiene que
def f (ρB (t)) ≤ dS ; (4.29)
4.2. EQUILIBRACIÓN 73
def f (ω)
def f (ωB ) ≥ (4.30)
dS
como para un estado genérico la segunda parte del teorema 4.2.2 dice
d (ω) > d4R , se tiene que
ef f
dR dR
def f (ωB ) ≥ = B dS ≥ def f (ρB (t)). (4.31)
4dS 4dS
Lo trabajado anteriormente muestra cómo se equilibran susbsistemas
de dimensión pequeña en comparación con el ambiente. Ahora se verá cual
serı́a la dependencia del estado de equilibrio del subsistema. Hasta ahora
el estado inicial podrı́a hacer que el equilibrio sea un estado diferente de-
pendiendo del inicial. Sea el estado de equilibrio del subsistema ωSψ . Como
es conocido, se desearı́a que el estado de equilibrio dependa solo de los
parámetros macroscópicos y no del estado inicial microscópico.
El teorema siguiente prueba que casi todos los estados en un subsistema
restringido llevan al mismo estado de equilibrio.
Teorema 4.2.3. 1. Casi todos los estados iniciales de un subespacio
restringido suficientemente grande llevan al mismo estado de equili-
brio de un subsistema pequeño. En partı́cula, con h.iψ , siendo el pro-
medio sobre estados puros aleatoriamente uniformes |ψ(0)i ∈ HR ⊂
HS ⊗ HB y ΩS = hωSψ iψ :
r r
ψ dS δ dS
hD(ωS , ΩS )iψ ≤ ≤ . (4.32)
4dR 4dR
La primera desigualdad es más estricta pero más complicada
X ΠR
δ= hEk | |Ek i TrS (TrB (|Ek i hEk |))2 ≤ 1, (4.33)
dR
k
donde Πk es el proyector sobre HR .
2. Para un estadoqaleatorio |ψi ∈ HR ⊂ H, la probabilidad de que
D(ωSψ , ΩS ) > 12 ddSRδ + caiga exponencialmente con 2 dR :
r
1 dS δ
Pr D(ωSψ , ΩS ) > + ≤ 2exp(−C 0 2 dR ), (4.34)
ψ 2 dR
74 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
−1/3
con C 0 = 9π2 3 . Si se pone = dR da una distancia promedio pequeña
con alta probabilidad cuando dR >> dS .
Demostración. 1. Se usa la relación ya establecida entre la distancia de
traza y la distancia de Hilbert-Schmidt
q
1 2
hD(ωS , hωS iψ )iψ ≤ dS Tr(ωS , hωS iψ )
2 ψ
r D
1 E
≤ dS Tr(ωS − hωS iψ )2 .
2 ψ
Ahora se miran las cotas del término que es promediado
D E 2
iψ = Tr ωS2 ψ − TrS (hωS2 iψ )
Tr ωS , hωS
ψ
= Tr((hωS ⊗ ωS iψ − hωS iψ ⊗ hωS iψ )F )
ΠR ΠR
= TrSS TrBB $ ⊗ $ h|ψi hψ| ⊗ |ψi hψ|iψ − ⊗ F
dR dR
ΠRR (1 + F ) ΠRR
= TrSS TrBB $ ⊗ $ − 2 F ≤
dR (dR + 1) dR
X ΠRR
= TrSS TrBB |kli hkl| 2 |lki hkl| F
dR
kl
X hkl| ΠRR |lki
= TrS (TrB (|ki hk|) TrB (|li hl|))
d2R
kl
X hk| ΠR |li hl| ΠR |ki (Tr (|ki hk|))2 + (Tr (|li hl|))2
B B
≤ Tr S
d2R 2
kl
1 X ΠR
= hk| |ki TrS (TrB |ki hk|)2
dR dR
k
1 X ΠR 1
≤ hk| |ki =
dR dR dR
k
en la segunda desigualdad se usó el hecho de que TrS (TrB |ki hk| −
TrB |li hl|)2 ≥ 0 es la traza de un operador positivo. Ahora insertando
la tercera lı́nea contando desde el final y con la relación entre la
4.2. EQUILIBRACIÓN 75
distancia de traza y la distancia de Hilbert-Schmidt, se demuestra el
resultado.
2. Para demostrar la segunda parte, que todos los estados |ψi llevan al
mismo estado de equilibrio, se usa el ya conocido lema de Levy. Se
aplica este lema directamente a la función f (ψ) ≡ D(ωSψ , ΩS ) en la
hiperesfera de dimensión 2dR − 1 de estados cuánticos. Para hallar
la constante de Lipschitz, se sigue el mismo protocolo usado en el
capı́tulo anterior
|D(ωSψ1 , ΩS ) − D(ωSψ2 , ΩS )| ≤ D(ωSψ1 , ωSψ2 )
≤ D(ω ψ1 , ω ψ2 )
p
= 1 − | hψ1 | |ψ2 i |2
≤ | |ψ1 i − |ψ2 i |2 .
entonces la constante de Lipschitz satisface η ≤ 1. Sustituyendo en el
lema de Levy junto con el valor promedio encontrado en la primera
parte de esta demostración se llega al resultado deseado.
Para un estado inicial que sea el producto del estado del sistema y del
ambiente |ψiSB = |ψiS |φiB en el espacio HR = |ψi ⊗ HR B se mostró que,
para estados genéricos, el ambiente causa que el subsistema se equilibre
aunque el estado de equilibrio ωSψ del subsistema puede depender del es-
tado inicial del baño |φiB . Sin embargo, se demostró que casi todos los
estados del baño en HBR llevan al mismo estado de equilibrio del subsiste-
ma simplemente usando el resultado anterior a HR = |ψi ⊗ HR B y luego
B B
dR = dR , si dR dS para casi todos los estados iniciales del baño llevarán
al subsistema al mismo estado de equilibrio ωS . Debido a que se usó la
cota menos estricta, este resultado no depende de la forma explı́cita de los
estados de energı́as propios.
El nuevo enfoque dado en el capı́tulo anterior fue explorado más pro-
fundamente en este capı́tulo bajo los parámetros de [16], viendo qué ocurre
con los sistemas al evolucionar. El enfoque dado por [21] es fructı́fero en
76 CAPÍTULO 4. EVOLUCIÓN HACIA EL EQUILIBRIO
resultados y permite seguir en su profundización, lo cual genera interés pa-
ra continuar explorando esta perspectiva. Este capı́tulo mostró cómo -en
general- los estados de un espacio de Hilbert bastante grande que tiene
muchos estados propios de energı́a llegan a estar bastante cerca del estado
promedio (promediado temporalmente), y se dice que se equilibran. Luego,
se muestra que -en general- el estado de equilibrio es ese estado promedio.
Linden et al. mostraron que hay equilibrio para estados genéricos y también
para estados fuera del equilibrio. Además, mostraron la independencia del
estado del baño. Aunque ellos no mostraron la independencia del estado
del subsistema, esto no deberı́a influenciar el equilibrio. Siguiendo lo dicho
por ellos, este problema muestra más dificultades que los otros dado que es
necesario dar una especificación de la energı́a porque ahora juega un papel
más importante. En cambio, en los teoremas anteriores no fue necesario ha-
blar de la energı́a excepto en el teorema 4.2.3 donde hay una desigualdad
dada por los estados propios de energı́a.
Capı́tulo 5
Conclusiones
En este escrito se hizo un recuento histórico de la termodinámica para
llegar a la mecánica estadı́stica. Desde esta perspectiva histórica se mostró
la evolución de los distintos conceptos que han fundamentado la mecánica
estadı́stica. Se expuso la perspectiva de Boltzmann junto con las dificul-
tades que ésta acarrea, como las objeciones dadas a su función H y la
relación con la entropı́a termodinámica. A su vez, se exhibió la perspectiva
de Gibbs, la cual se condensa en la idea del ensamble. También se señala-
ron los inconvenientes que su propuesta exhibe, como el concepto de copias
imaginarias.
Junto con esto se muestra que hay otras perspectivas más modernas co-
mo la de Jaynes y su máxima entropı́a, que fue la que se tuvo en cuenta
en el desarrollo de este texto. Esta teorı́a forma el primer vı́nculo entre la
mecánica estadı́stica y la teorı́a de la información. La perspectiva de Jaynes
mejora respecto a las anteriores porque no introduce hipótesis a priori y
especifica que la probabilidad es vista desde un sentido subjetivo, algo que
las otras perspectivas no consideraban.
Más adelante se siguió el artı́culo de Popescu et al [21] para mostrar la
tipicidad canónica con ayuda de las herramientas de la teorı́a de la infor-
mación cuántica. Se replicaron los cálculos del artı́culo para explicar los
detalles del formalismo que los autores propusieron. Con este enfoque se
vio una manera en la que era posible conciliar las perspectivas de Gibbs y
Boltzmann. Además, el enfoque muestra que el principio de probabilidades
a priori se puede reemplazar por el principio general canónico. De esto se
77
78 CAPÍTULO 5. CONCLUSIONES
concluye que es muy poco probable encontrar un estado que no se encuen-
tre en el estado canónico.
Para terminar, se vio las extensiones que tienen los nuevos fundamentos
gracias a la tipicidad canónica. Se vio la capacidad del principio general
canónico para explicar cómo se termaliza un sistema. Se reprodujo el análi-
sis hecho por Linden et al [16] en este tema. Aunque no pudieron demostrar
la independencia del subsistema, abrieron campo a nuevas investigaciones.
Bibliografı́a
[1] Birkhoff, G. (1931). Proof of the Ergodic Theorem. Procee-
dings Of The National Academy Of Sciences, 17(12), 656-660.
[Link]
[2] Callen, H. (1975). Thermodynamics. New York [etc.]: Wiley.
[3] Ehrenfest, P., Ehrenfest, T., & Moravcsik, M. The conceptual founda-
tions of the statistical approach in mechanics.
[4] Fermi, E., Pasta, J., Ulam, S. (1955). Collected Papers of Enrico Fermi,
Vol II, University of Chicago press, Chicago 1965.
[5] Goldstein, S., Lebowitz, J., Tumulka, R., & Zanghı̀, N.
(2006). Canonical Typicality. Physical Review Letters, 96(5).
[Link]
[6] Hayden, P., van Dam, W.(2002). Renyi-entropic bounds on quantum
communication”, arXiv:quant-ph/0204093.
[7] Horodecki, M., Oppenheim, J., & Winter, A. (2005). Par-
tial quantum information. Nature, 436(7051), 673-676.
[Link]
[8] Huang, K. (2005). Statistical mechanics. New York [u.a.]: Wiley.
[9] Jaynes, E. (1957). Information Theory and Statis-
tical Mechanics. Physical Review, 106(4), 620-630.
[Link]
79
80 BIBLIOGRAFÍA
[10] Jaynes, E. (1957). Information Theory and Statisti-
cal Mechanics. II. Physical Review, 108(2), 171-190.
[Link]
[11] Jaynes, E. (1965). Gibbs vs Boltzmann Entropies. American Journal
Of Physics, 33(5), 391-398. [Link]
[12] Kardar, M. (2007). Statistical physics of particles. Cambridge: Cam-
bridge University Press.
[13] Khinchin, A., & Gamow, G. Mathematical foundations of statistical
mechanics.
[14] Landau, L., Lifshits, E., Pitaevskii, L., Sykes, J., & Kearsley, M.
(1980). Statistical physics. Amsterdam: Elsevier Butterworth Heine-
mann.
[15] Lang, S. (1972). Linear algebra. Reading, Mass.: Addison-Wesley.
[16] Linden, N., Popescu, S., Short, A., & Winter, A. (2009). Quantum
mechanical evolution towards thermal equilibrium. Physical Review
E, 79(6). [Link]
[17] Muller, I. (2007). A history of thermodynamics. Berlin: Springer-
Verlag GmbH.
[18] Nielsen, M., & Chuang, I. (2015). Quantum computation and quantum
information. Cambridge: Cambridge University Press
[19] Pathria, R., & Beale, P. (2012). Statistical mechanics. Beijing: World
Publishing Corporation.
[20] Penrose, O. (2014). Foundations of Statistical Mechanics. Newbury-
port: Dover Publications.
[21] Popescu, S., Short, A., & Winter, A. (2006). Entanglement and the
foundations of statistical mechanics. Nature Physics, 2(11), 754-758.
[Link] 10.1038/nphys444.
[22] Reichl, L. (2016). A Modern Course in Statistical Physics. Weinheim:
Wiley.
BIBLIOGRAFÍA 81
[23] Sakurai, J. (2013). Modern Quantum Mechanics. [S.l.]: Pearson Edu-
cation India.
[24] Schlosshauer, M. (2010). Decoherence and the quantum-to-classical
transition. Berlin: Springer.
[25] Shannon, C. (1948). A Mathematical Theory of Commu-
nication. Bell System Technical Journal, 27(3), 379-423.
[Link]
[26] Susskind, L., & Friedman, A. (2015). Quantum mechanics. UK: Pen-
guin Books.
[27] Toda, M., Kubo, R., & Saito, N. (1998). Statistical physics I. Berlin:
Springer.
[28] Vedral, V. (2013). Introduction to quantum information science. Ox-
ford: Oxford University Press.
[29] Vitali D. Milman., & Gideon Schechtman. (1986). Asymptotic Theory
of Finite Dimensional Normed Spaces. Springer Verlag.
[30] Wilde, M. Quantum information theory.
[31] Zettili, N. (2009). Quantum mechanics : concepts and applications.