0% encontró este documento útil (0 votos)
10 vistas36 páginas

Notas 1

La Unidad N°1 introduce los fundamentos matemáticos necesarios para entender la Mecánica Cuántica, comenzando con el experimento de Stern-Gerlach que ilustra la cuantización del momento angular de espín. Se discuten las implicaciones de realizar secuencias de experimentos de Stern-Gerlach, destacando la imposibilidad de medir simultáneamente componentes de espín en diferentes direcciones. Además, se presenta la noción de espacio de estados cuánticos y se define el espacio vectorial complejo, que es fundamental para la estructura matemática de la Mecánica Cuántica.

Cargado por

teodemer9
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
10 vistas36 páginas

Notas 1

La Unidad N°1 introduce los fundamentos matemáticos necesarios para entender la Mecánica Cuántica, comenzando con el experimento de Stern-Gerlach que ilustra la cuantización del momento angular de espín. Se discuten las implicaciones de realizar secuencias de experimentos de Stern-Gerlach, destacando la imposibilidad de medir simultáneamente componentes de espín en diferentes direcciones. Además, se presenta la noción de espacio de estados cuánticos y se define el espacio vectorial complejo, que es fundamental para la estructura matemática de la Mecánica Cuántica.

Cargado por

teodemer9
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Unidad N°1: Fundamentos matemáticos

Nuestro objetivo es introducir la Mecánica Cuántica desde un punto de vista más abstracto que
el desarrollado en otros cursos. Como su estructura es inevitablemente matemática, necesitaremos
hablar de matemática, siempre con el objetivo de querer entender (y hacer) física.

1 Motivación: El experimento de Stern-Gerlach


El ejemplo que tomaremos como motivación es el experimento concebido originalmente por O.
Stern en 1921 y llevado a cabo por él en colaboración con W. Gerlach en 1922. Este experimento
ilustra de manera dramática la necesidad de alejarse de los conceptos de la mecánica clásica. En
cierto sentido, un sistema de dos estados del tipo Stern-Gerlach es el sistema menos clásico y más
mecánico-cuántico. Es por esta razón que lo veremos en detalle.

1.1 Descripción del experimento


En primer lugar, átomos de plata (Ag) son calentados en un horno. El horno tiene un pequeño
agujero a través del cual algunos átomos de plata escapan. Como se muestra en la Fig. 1, el haz
pasa a través de un colimador y es luego sujeto a un campo magnético inhomogéneo producido por
un par de piezas polares, una de ellas con una punta muy aguda.

Figura 1. Experimento de Stern-Gerlach.

Debemos estudiar el efecto de este campo magnético sobre los átomos de plata. Para ello nos
alcanza con tomar un modelo simplificado del asunto. El átomo de plata está compuesto de un
núcleo y 47 electrones, 46 de los cuales pueden ser vistos como formando una nube electrónica
esféricamente simétrica sin momento angular neto. Si ignoramos el espín nuclear podemos ver
que el átomo como un todo tiene un momento angular neto que es debido solamente al momento
angular de espín (intrínseco, y no orbital) del 47mo electrón. Los 47 electrones están sujetos al
núcleo, que es muchísimo más pesado que un electrón y, como resultado, el átomo como un todo
posee un momento magnético igual al momento magnético de espín del 47mo electrón. En otras
palabras, el momento magnético  del átomo es proporcional al espín S del electrón:  / S.
Debido a que la energía de interacción del momento magnético con el campo magnético es simple-
mente ¡B, la componente z de la fuerza experimentada por el átomo está dada por

@ @B
Fz = B  z z
@z @z

1
donde hemos ignorado las componentes de B en las direcciones que no sean z. Como el átomo en
sí es pesado, esperamos que el concepto de trayectoria clásica se siga aplicando. Con el arreglo
de la Fig. 1, el átomo con z > 0 (Sz < 0) experimenta una fuerza hacia abajo, mientras que el
átomo con z < 0 (Sz > 0) experimenta una fuerza hacia arriba. Esperamos entonces que el haz
se divida de acuerdo a los valores de z. En otras palabras, el aparato de SG (Stern-Gerlach)
mide la componente z de  o, equivalentemente, la componente z de S a menos de un factor de
proporcionalidad.
Los átomos en el horno están orientados al azar, por lo que no hay una dirección preferencial para
. Si el electrón fuera como un objeto rotante clásico, esperaríamos que los valores de z estén
entre jj y ¡jj. Esto nos lleva a esperar un conjunto continuo de haces saliendo del aparato de SG
correspondientes al rango continuo de orientación del momento magnético, esparcidos más o menos
homogeneamente sobre el rango estimado. En lugar de esto, lo que se observa experimentalmente
son dos manchas correspondientes a una orientación hacia arriba y otra hacia abajo. Es decir,
el aparato de SG divide al haz original de átomos de plata saliendo del horno en dos componentes
distintas. Como  puede ser identificado dentro de un factor de proporcionalidad con el espín S
del electrón, solo dos valores para la componente z de S son posibles: Sz + y Sz ¡ . Estos valores
de Sz son múltiplos de una unidad fundamental de momento angular; numéricamente resulta que
Sz = ~ / 2, siendo ~ la constante de Planck reducida, esto es, ~  ~ / 2. Esta cuantización del
momento angular de espín del electrón es la primera propiedad importante que deducimos de este
experimento.
Por supuesto, no hay nada de especial en las direcciones arriba-abajo o el eje z. Podríamos haber
aplicado un campo inhomogéneo en la dirección horizontal, por ejemplo en x, con el haz moviéndose
en la dirección y. De esta manera habríamos separado al haz en componentes Sx + y Sx ¡ .

1.2 Secuencia de experimentos de SG


Consideremos ahora una secuencia de experimentos de SG. Con esto nos referimos a que el haz
de átomos va a pasar a través de dos o más aparatos de SG en secuencia. Como primer ejemplo
hacemos pasar al haz saliendo del horno a través del arreglo mostrado en la Fig. 2a, donde SGz^
significa que tenemos un aparato de SG con campo inhomogéneo en la dirección z. Luego blo-
queamos la componente Sz ¡ saliendo de SGz^ y dejamos que la componente Sz + pase por otro
SGz^. Esto no es muy sorprendente, después de todo, si los spines de los átomos están hacia arriba,
esperamos que así se mantengan, si no hay un campo externo que los haga rotar entre los dos SGz^.

Figura 2. Experimentos de Stern-Gerlach secuenciales.

Un arreglo un poco más interesante es el experimento de SG secuencial de la Fig. 2b. Aquí el


primer aparato SG es igual que el de antes, pero ahora el segundo es un SGx^, es decir, tiene un
campo inhomogéneo en la dirección x. El haz Sz + que entra en el SGx^ es ahora dividido en dos

2
componentes, Sx + y Sx ¡ , con iguales intensidades. ¾Cómo podemos explicar esto? ¾Significa que
el 50% de los átomos en el haz Sz + están caracterizados por Sz + y Sx + mientras que el otro
50% por Sz + y Sx ¡ ? Esta idea tiene dificultades como ya veremos.
Tomamos ahora el arreglo mostrado en la Fig. 2c, que muestra de forma dramática las peculia-
ridades de los sistemas cuánticos. Agregamos ahora un tercer aparato del tipo SGz^. Se observa
experimentalmente que dos componentes emergen de dicho aparato, no una; teniendo los haces
emergentes tanto componentes Sz + como Sz ¡ . Esto es una sorpresa ya que los átomos que
emergieron del primer aparato tenían la componente Sz ¡ bloqueada. Luego, ¾cómo es posible
que esta componente reaparezca? Claramente, el modelo en el que los átomos entrando al tercer
aparato son vistos como teniendo componentes Sz + y Sx + es insatisfactorio.
Este ejemplo se utiliza por lo general para ilustrar que en Mecánica Cuántica no podemos deter-
minar Sz y Sx de forma simultánea. Más precisamente, podemos decir que la selección del haz Sx +
por el segundo aparato SGx^ destruye completamente cualquier información previa acerca de Sz.
Vale aclarar que la limitación que acabamos de encontrar a la hora de querer determinar Sz y Sx
no se debe a la incompetencia del experimentalista. No podemos hacer que la componente Sz ¡
saliendo del tercer aparato desaparezca mejorando las técnicas experimentales. Las peculiaridades
de la Mecánica Cuántica son impuestas sobre nosotros por el experimento en sí mismo. Esta
limitación es inherente a los fenómenos en estas escalas.

2 El espacio de los estados cuánticos


Cuando hablamos de física, intentamos encontrar una descripción matemática del universo. Por
supuesto, tal descripción no puede ser justificada solo a partir de consistencia matemática sino que
también debe estar de acuerdo con la evidencia experimental. Los conceptos matemáticos que son
introducidos son usualmente motivados por nuestra experiencia con la naturaleza. Conceptos como
posición y momento o el estado de un sistema usualmente se dan por sentados en física clásica.
Sin embargo, muchos de ellos tienen que ser sujetos a una cuidadosa reexaminación cuando se los
quiere llevar al terreno de la física cuántica. Una de estas nociones básicas para la descripción de un
sistema físico es aquella de estado. El estado de un sistema físico puede en esencia ser definido,
sin mucha precisión, como la descripción de todas las propiedades conocidas (o por conocer) de
tal sistema y, por lo tanto, representa nuestro conocimiento sobre dicho sistema. El conjunto de
todos los estados forma lo que usualmente llamamos espacio de estados. En Mecánica Clásica, por
ejemplo, este espacio es el espacio de fases (las variables son la posición y el momento), el cual es
un espacio vectorial real. Por otro lado, el espacio de estados en Mecánica Cuántica difiere de
aquel de la Mecánica Clásica. Una diferencia radica, por ejemplo, en la capacidad de los sistemas
cuánticos de existir en superposiciones de estados con amplitudes complejas. Esto nos sugiere que
una buena elección para el espacio de estados cuánticos sea un espacio vectorial complejo.
Veremos que los vectores complejos, sus amplitudes, sus productos escalares y transformaciones
lineales entre ellos son los ingredientes básicos de la estructura matemática de la Mecánica Cuántica
en contraposición al espacio vectorial real de la Mecánica Clásica. Por ende, comenzaremos con
una introducción acerca de la estructura de los espacios vectoriales complejos y sus propiedades.
Típicamente uno está familiarizado con las flechas en física elemental que indican la magnitud y
dirección de cantidades como la velocidad, fuerza, etc. Uno sabe cómo sumarlos y multiplicarlos
por escalares y las reglas que se obedecen por estas operaciones. Por ejemplo, uno sabe que la
multiplicación escalar es asociativa: el múltiplo de una suma de dos vectores es la suma de sus
múltiplos. Lo que queremos hacer es abstraernos de este simple caso y decir que cualquier conjunto
de objetos que obedecen las mismas características o axiomas forman un espacio vectorial lineal. La
astucia consiste en decidir qué propiedades mantener en esta generalización. Si tomamos muchas de
ellas, no habrán otros ejemplos, y si uno toma muy pocas, no habrán resultados muy interesantes
a desarrollar a partir de los axiomas. Lo que sigue es la lista de propiedades que los matemáticos
han sabiamente elegido como requisito para un espacio vectorial. Al leerlas, es siempre importante
compararlas con el mundo de flechas para asegurarse que estas son sin duda cumplidas por estos
vectores familiares. Veremos además ejemplos de espacios vectoriales que involucran entidades que
no pueden percibirse en forma intuitiva, como es el caso de las flechas.

3
2.1 Espacios vectoriales complejos
En los cursos de álgebra se trabajó bastante con el concepto de espacio vectorial, en especial, con
el caso de espacios vectoriales reales. Haremos un breve repaso de este concepto y lo extenderemos
al caso de variables complejas.
En primer lugar vamos a introducir una nueva notación que será de utilidad para más adelante
cuando veamos la notación de Dirac. En lugar de representar a los vectores con letra negrita
o agregando una flecha sobre alguna variable (por ejemplo, v o ~v ), utilizaremos la notación jV i
y a tal vector lo llamaremos ket. Usaremos esta notación en particular para referirnos a vectores
complejos que luego llamaremos vectores de estado.
Ahora podemos comenzar con la definición de espacio vectorial complejo.

Definición: Sea una cuádrupla (V; C; +; ) donde V es un conjunto de objetos (usualmente


llamados vectores), C representa el conjunto de números complejos, + denota la operación
de grupo de adición y    denota la multiplicación de un vector por un número complejo. La
cuádrupla (V; C; +; ) es llamada un espacio vectorial complejo si se satisfacen las siguientes
propiedades:
1. (V; +) es un grupo Abeliano, lo que significa que
(a) Ley de cierre: 8jV i; jW i 2 V ) jV i + jW i 2 V.
(b) Asociatividad: 8jV i; jW i; jZ i 2 V ) jV i + (jW i + jZ i) = (jV i + jW i) + jZ i.
(c) Elemento neutro de la suma: 9j0i 2 V/8jV i 2 V: jV i + j0i = jV i.
(d) Inverso aditivo: 8jV i 2 V: 9(¡jV i) 2 V/ jV i + (¡jV i) = j0i.
(e) Conmutatividad de la suma: 8jV i; jW i 2 V ) jV i + jW i = jW i + jV i.
2. La multiplicación escalar satisface
(a) Ley de cierre: 8 2 C; jV i 2 V ) jV i 2 V.
(b) Elemento neutro del producto: 8jV i 2 V ) 1  jV i = jV i.
(c) Asociatividad mixta: 8 ; 2 C; jV i 2 V ) (  )  jV i =  (  jV i).
(d) Distributividad con respecto a la suma en C y en V: 8 ; 2 C ^ 8jV i; jW i 2 V )
 (jV i + jW i) =  jV i +  jW i ^ ( + )  jV i =  jV i +  jW i:

Los números ; ; ::: son llamados el campo sobre el cual el espacio vectorial está definido. Si el
campo consiste de todos los números reales, tenemos un espacio vectorial real, si son complejos,
tenemos un espacio vectorial complejo. Los vectores por sí mismos no son ni reales ni complejos,
los adjetivos solo se aplican a los escalares. Notar que los axiomas antes mencionados implican:
 El vector nulo es único, esto es, si j0 0i tiene todas las propiedades de j0i entonces j0 0i = j0i.
 0jV i = 0.
 j¡V i = ¡jV i.
Una vez introducida la noción abstracta de espacio vectorial complejo cualquier afirmación que
demostremos directamente a partir de estas propiedades abstractas va a ser verdadera para cual-
quier espacio vectorial independientemente de que tan complicado parezca.
Lo que hemos hecho es aislar la estructura básica de los espacios vectoriales sin hacer referencia
a ninguna representación en particular para sus elementos. Esto es útil ya que no queremos tener
que probar una y otra vez la misma propiedad cuando investigamos un objeto nuevo. Lo único que
tenemos que hacer es probar que nuestros nuevos objetos tienen una adición y una multiplicación
escalar que satisfacen las condiciones anteriores.

4
Notar que hasta ahora no hemos hecho referencia a la magnitud o dirección de los vectores. El
punto es que si bien las flechas poseen estas cualidades, los miembros de un espacio vectorial en
general no las necesitan. Veamos dos ejemplos:
Consideremos el conjunto de todas las matrices 2  2. Sabemos cómo sumarlas y multiplicarlas
por escalares. Las reglas correspondientes obedecen los requisitos de cierre, asociatividad y distri-
butividad. La matriz nula es aquella donde todos sus elementos son cero y la inversa bajo adición
de una matriz es otra matriz con todos sus elementos cambiados de signo. En este ejemplo uno
puede coincidir en que uno tiene un espacio vectorial de matrices que consisten en objetos que no
poseen una longitud o dirección obvia asociada.
Como un segundo ejemplo, considere todas las funciones f(x) definidas en el intervalo 0 6 x 6 L.
Definimos la multiplicación por un escalar simplemente como af (x) y la suma como lo usual: la
suma de dos funciones f y g tiene el valor f (x) + g(x) en el punto x. La función nula es cero en
todos lados y la inversa aditiva de f es simplemente ¡f .

2.2 Base y dimensión


Algunos de los conceptos más básicos relacionados a espacios vectoriales son aquellos de inde-
pendencia lineal, dimensión y base. Ellos nos ayudarán a expresar vectores en términos de otros
vectores y serán de utilidad cuando querramos definir operadores en espacios vectoriales, los cuales
van a describir cantidades observables.
El siguiente concepto es el de independencia lineal de un conjunto de vectores j1i; j2i; :::; jni.
Primero considere una relación lineal de la forma:
n
X
ai jii = j0i
i=1

Podemos asumir, sin pérdida de generalidad, que el lado izquierdo no contiene ningún múltiplo de
j0i ya que este podría llevarse al miembro de la derecha de modo que nuevamente daría j0i.

Definición: El conjunto de vectores se llama linealmente independiente si la única solución


que cumple esta relación lineal es la trivial, es decir aquella donde todos los escalares ai son cero.
De haber otra solución, decimos que el conjunto de vectores es linealmente dependiente.

Lo que nos dice esto es que no es posible escribir a ningún miembro del conjunto de vectores
linealmente independiente en términos de los otros. Por otro lado, si el conjunto de vectores es
linealmente dependiente, esta relación existirá, y debe contener al menos dos coeficientes no nulos.
Digamos a3 =/ 0. Entonces podemos escribir
X ¡ai
j3i = jii
a3
i=
/3

y de esta forma expresamos a j3i en términos de los otros vectores.


Como ejemplo concreto, considere dos vectores no paralelos j1i y j2i en un plano. Estos forman un
conjunto linealmente independiente. No hay forma de escribir uno de ellos como múltiplo del otro
o, equivalentemente, no hay forma de combinarlos para obtener el vector nulo. Por otro lado, si
los vectores son paralelos, claramente podemos escribir uno como múltiplo del otro. Supongamos
que traemos un tercer vector j3i también en el plano. Si es paralelo a alguno de los primeros dos,
entonces tenemos un conjunto linealmente dependiente. Incluso si no es paralelo a alguno de ellos,
siempre podemos escribir a alguno de los tres como combinación lineal de los otros dos restantes.
Para encontrar la combinación, dibuje una línea desde el origen de j3i en la dirección de j1i. Luego
dibuje una linea antiparalela a j2i desde la punta de j3i. Estas lineas se intersectarán dado que
suponemos que j1i y j2i no son paralelos. El punto de intersección P determina cuanto de j1i y
j2i necesitamos para obtener j3i.

5
Definición: Un espacio vectorial tiene dimensión n si puede acomodar un número máximo n
de vectores linealmente independientes. Se denota como V n(R) si el campo es escalar y Vn(C)
si el campo es complejo.

En vista de los ejemplos anteriores, el plano es bidimensional y el conjunto de todas las flechas no
limitadas por el plano define un espacio vectorial tridimensional. Respecto a las matrices 2  2, estas
forman un espacio vectorial de dimensión 4. Los siguientes vectores son linealmente independientes:
       
1 0 0 1 0 0 0 0
j1i = ; j2i = ; j3i = ; j4i =
0 0 0 0 1 0 0 1

ya que es imposible formar combinaciones lineales de cualesquiera tres de ellos para dar el cuarto
elemento, ya que siempre habrá un cero en el lugar donde el cuarto es no nulo. Luego, el espacio
es al menos de dimensión 4. ¾Podría ser mayor? La respuesta es no ya que cualquier matriz 2  2
puede ser escrita como combinación lineal de estos elementos:
 
a b
= aj1i + bj2i + cj3i + dj4i
c d

Teorema: Cualquier vector jV i en un espacio vectorial de dimensión n puede ser escrito como
combinación lineal de n vectores linealmente independientes j1i; j2i; :::; jni.

La prueba es la siguiente: Si hubiera un vector jV i para el cual esto no fuera posible, podría unirse
al conjunto dado de vectores linealmente independientes y formar un conjunto de n + 1 vectores
linealmente independientes, lo cual no es posible en un espacio vectorial de dimensión n por
definición.

Definición: Un conjunto de n vectores linealmente independientes en un espacio de dimensión


n es llamado una base.

Luego podemos escribir, en relación al teorema anterior:


n
X
jV i = vi jii (1)
i=1

donde los vectores jii forman una base.

Definición: Los coeficientes de expansión vi de un vector en términos de una base (jii) se llaman
componentes del vector en esa base.

Teorema: La expansión en la Ec. (1) es única.


Demostración: Suponga que la expansión no es única. Debiéramos entonces tener una segunda
expansión
n
X
jV i = vi0jii
i=1

Si substraemos estas dos expansiones, tenemos


n
X
j0i = (vi ¡ vi0)jii
i=1

lo que implica vi = vi0 ya que, como dijimos, los vectores de la base son linealmente independientes.

6
Notar que dada una base las componentes son únicas, pero si cambiamos la base, las componentes
van a cambiar. Nos referimos con jV i al vector en abstracto, teniendo una existencia por sí mismo
y satisfaciendo varias relaciones que involucran otros vectores. Cuando elegimos una base, los
vectores adquieren una forma concreta en términos de sus componentes y la relación entre vectores
se satisface por las componentes. Como el vector jV i queda unívocamente especificado por sus
componentes en una dada base, podemos, en dicha base, escribirlo como un vector columna
0 1
v1
B C
B v C
jV i ! B 2 C:
@  A
vk

La suma de vectores entonces puede entenderse a partir de la suma de sus componentes. Dada una
base (jii) podemos expresar a los vectores jV i y jW i en términos de sus componentes,

n
X n
X
jV i = vi jii; jW i = wi jii
i=1 i=1
de modo que
n
X
jV i + jW i = (vi + wi)jii
i=1

donde usamos los axiomas para agrupar los escalares. De la misma manera podemos decir que
multiplicar un vector por un escalar equivale a multiplicar todas sus componentes por dicho escalar.

2.3 Espacios de producto interno


Vimos que cualquier conjunto de N vectores linealmente independientes de cualquier espacio vecto-
rial N -dimensional forma una base. Pero no cualquier elección de base es igualmente conveniente.
Para tener una forma útil de elegir una base y encontrar un método sistemático para hallar
combinaciones lineales de vectores base que den cualquier vector arbitrario, debemos introducir
el concepto de producto escalar entre dos vectores. Este concepto, que nos permitirá definir la
noción de ortogonalidad, no debe confundirse con la multiplicación escalar entre un vector y
un número complejo. Además, introduciremos el concepto de norma de un vector, el cual es una
generalización de lo que normalmente llamamos longitud. Con esto en mano, podremos definir
bases ortonormales, las cuales son muy útiles.
El producto escalar juega un rol extremadamente importante en Mecánica Cuántica ya que, en
cierto sentido, nos dice cuantitativamente qué tan similares son dos vectores (estados cuánticos).
En otras palabras, sirve para cuantificar qué tan probable es para dos estados cuánticos exhibir el
mismo comportamiento en el mismo experimento.
Los ejemplos de matrices y funciones anteriores dejan en claro que uno puede tener un espacio
vectorial sin una definición preasignada de longitud o dirección para sus elementos. Sin embargo,
podemos construir cantidades que posean propiedades como la longitud y ángulo en el caso de
flechas. El primer paso es definir un análogo del producto punto. En el caso de las flechas, tenemos

~ B
A ~ = jA
~ jjB
~ jcos 

p
donde podemos inferir la longitud de A ~ como jA~j = A ~ A
~ y el coseno del ángulo  entre dos
vectores. Ahora uno podría objetar: ¾Cómo puedo usar el producto punto para definir la longitud
y ángulo, si el producto punto por sí mismo requiere conocimiento de longitudes y ángulos? La
respuesta es la siguiente. Recordemos que el producto punto tiene una segunda expresión equiva-
lente en términos de sus componentes:

~ B
A ~ = AxBx + AyBy + AzBz

7
Nuestro objetivo es definir una fórmula similar para el caso general donde tenemos noción de las
componentes en una base. Para ello recordemos las características principales de producto punto
de arriba:

~ B
1. Simetría: A ~ =B
~ A
~

2. Positividad semi-definido A ~ > 0 y es igual a 0 sii A


~ A ~ =~0.

~  (bB
3. Linealidad: A ~ + cC
~ ) = bA
~ B
~ + cA
~ C
~

Ahora queremos inventar una generalización llamada producto interno o producto escalar complejo
entre dos vectores jV i y jW i y que denotaremos como (jV i; jW i). Comenzaremos con una formu-
lación abstracta de las propiedades/axiomas que queremos que tenga/satisfaga y luego veremos
algunos ejemplos que son de interés.

Definición: El producto escalar complejo en un espacio vectorial asigna a cualquier par de


vectores jV i; jW i 2 V un número complejo (jV i; jW i) 2 C que satisface las siguientes reglas
1. Simetría conjugada: 8jV i; jW i 2 V: (jV i; jW i) = (jW i; jV i).
2. Positividad semi-definida: 8jV i 2 V: (jV i; jV i) > 0 ^ (jV i; jV i) = 0 , jV i = j0i.
3. Linealidad: 8jV i; jW i; jZ i 2 V; i 2 C: (jV i; 1jW i + 2jZ i) = 1(jV i; jW i) + 2(jV i; jZ i).

Definición: Un espacio vectorial con un producto interno se llama espacio de producto


interno o espacio vectorial unitario.

Notar que aún no dimos una regla explícita para evaluar el producto escalar, sino estamos pidiendo
que cualquier regla posea estas propiedades. Para encontrar esta regla, primero veamos un poco
los axiomas.
El primer axioma es pedido para poder tratar con el hecho de que ahora usamos números complejos,
difiere respecto al correspondiente axioma del producto punto y el orden entre los dos factores
importa. En un espacio vectorial real este axioma establece la simetría del producto interno ante
intercambio de los dos vectores. Por ahora, notemos que este axioma asegura que (jV i; jV i) es
real. Un ejercicio para el lector es probar que la condición (jV i; jW i) = (jW i; jV i) daría lugar a
contradicciones con los demas axiomas si ahora tenemos espacios vectoriales complejos.
El segundo axioma dice no solo que (jV i; jV i) es real sino también positivo semidefinido, y solo se
anula para el vector nulo. Si vamos a definir la longitud del vector como la raíz cuadrada de este
producto interno consigo mismo, esta candidad conviene que sea real y positiva para cualquier
vector no nulo.
El último axioma expresa la linealidad del producto interno cuando una superposición lineal apa-
rece como segundo vector en el producto escalar (linealidad en el segundo argumento). ¾Qué ocurre
si el primer factor en el producto es una superposición lineal? Es decir, ¾Qué sería ( jV i + jW i;
jZ i)? Esto puede determinarse mediante el primer axioma

8jV i; jW i; jZ i 2 V ; ; 2 C: ( jV i + jW i; jZ i) = 
(jV i; jZ i) + 
(jW i; jZ i):

lo cual expresa la antilinealidad del producto interno respecto al primer factor en el producto. En
otras palabras, el producto interno de una superposición lineal con otro vector es la correspondiente
superposición de productos internos si la superposición ocurre en el segundo factor, mientras que
es la superposición con todos los coeficientes conjugados si la superposición ocurre en el primer
factor. Esta asimetría, desconocida en espacios vectoriales reales, será común en el resto del curso.
Ejemplo N°1: El producto escalar en C.

8
Dados dos vectores complejos jV i; jW i 2 Cn definimos el producto escalar

n
X
(jV i; jW i) = ViWi
i=1

donde  denota al complejo conjugado. Queda como ejercicio para el lector demostrar que satis-
face las condiciones de producto escalar.
Podemos ver a este producto escalar como el producto matricial entre el transpuesto conjugado
(adjunto) del vector columna que representa a jV i y el vector columna que representa a jW i
0 1
W1
B C
B W2 C
(jV i; jW i) = ( V1 V2 ::: Vn )B  C:
@  A
Wn

Ejemplo N°2: El producto escalar de funciones continuas de cuadrado integrable.


Una función de cuadrado integrable 2 L2 es una función que satisface
Z +1
j (x)j2dx < 1:
¡1

Esta ecuación ya trae consigo la definición de producto escalar para este tipo de funciones. Para
cualquier par de funciones ;  2 L2 definimos
Z +1
( ; ) = (x)(x)dx:
¡1

Continuemos con productos internos. Utilizando la misma terminología que en el caso de flechas,
podemos pasar a la siguiente definición

Definición: Dos vectores jV i; jW i 2 V son llamados ortogonales si

(jV i; jW i) = 0:

Denotaremos con jV i? a un vector que es ortogonal a jV i. Ahora definiremos el concepto de base


ortogonal, el cual será necesario para encontrar la combinación lineal de vectores que da lugar a
un vector jV i.

Definición: Una base ortogonal de un espacio vectorial de dimensión N es un conjunto de N


vectores linealmente independientes tal que cada par de vectores es ortogonal entre sí.

Elijamos una base ortogonal fjV1i; :::; jVN ig de un espacio vectorial N dimensional. Para cualquier
vector arbitrario jV i 2 V queremos encontrar los coeficientes 1; :::; N tales que

N
X
i jVii = jV i:
i=1

Por supuesto, podemos obtener los i por ensayo y error, pero nos gustaría encontrar una forma
eficiente para determinarlos. Para ver esto, consideremos el producto escalar entre jV i y uno de
los vectores base jVii. Debido a la ortogonalidad de los vectores base, encontramos que

(jVii; jV i) = i(jVii; jVii):

9
Notar que este resultado es cierto solo porque hemos usado una base ortogonal. En base a esto
tenemos que para una base ortogonal cualquier vector jV i puede ser representado como

N
X (jVii; jV i)
jV i = jVii:
(jVii; jVii)
i=1

En esta última ecuación el denominador (jVii; jVii) es la raíz cuadrada de lo que usualmente
llamamos la longitud de un vector. Veamos cómo formalizar esto un poco más mediante la intro-
ducción de la noción de norma.

Definición: La norma en un espacio vectorial V asocia a cada vector jV i 2 V un número real


kjV ik con las siguientes propiedades
1. Positividad: 8jV i 2 V: kjV ik > 0 ^ kjV ik = 0 , jV i = j0i:
2. Linealidad: 8jV i 2 V; 2 C: k jV ik = j j  kjV ik.
3. Desigualdad triangular: 8jV i; jW i 2 V: kjV i + jW ik 6 kjV ik + kjW ik.

Un espacio vectorial con una norma definida en él es llamado espacio vectorial normado. Las
tres propiedades de la definición anterior son aquellas que uno esperaría que se satisfagan para
cualquier medición de longitud. Como era de esperar, las normas y los productos escalares están
íntimamente relacionados. De hecho, hay una forma de generar normas fácilmente cuando ya se
tiene un producto escalar.

Lema: Dado un producto escalar sobre un espacio vectorial complejo, podemos definir la norma
de un vector jV i mediante
p
kjV ik = (jV i; jV i) :

Demostración: Ejercicio.

Este lema muestra que cualquier espacio vectorial unitario puede ser canónicamente convertido en
un espacio vectorial normado. Sin embargo, la inversa no es cierta. No cualquier norma da lugar
automáticamente a un producto escalar.
Utilizando el concepto de norma podemos ahora definir la noción de base ortonormal.

Definición: Una base ortonormal de un espacio vectorial N -dimensional es un conjunto de N


vectores fjV1i; :::; jVN ig linealmente independientes y ortogonales de a pares, donde cada vector
satisface kjViik2 = (jVii; jVii) = 1, es decir, son todos vectores unitarios. Para una base ortonormal
y cualquier vector jV i se tiene que
N
X N
X
jV i = (jVii; jV i)jVii  i jVii
i=1 i=1

donde i  (jVii; jV i) son las componentes de jV i con respecto a la base fjV1i; :::; jVN ig.

Notar que en esta última definición no era necesario pedir independencia lineal de los vectores
fjV1i; :::; jVN ig ya que esto está implícito al pedir que sean ortogonales y estén normalizados.
Ya sabemos qué es una base ortonormal, por lo que naturalmente surge la pregunta de cómo cons-
truir una. Existen varios métodos para lograr esto, aquí presentaremos el conocido procedimiento
de ortogonalización de Gram-Schmidt.
El punto de partida de este procedimiento es un conjunto de vectores linealmente independientes
S = fjx1i; :::; jxnig, a partir del cual queremos construir un conjunto de vectores ortonormales
fje1i; :::; jenig. El procedimiento es el siguiente:

10
Paso N°1: Elegimos jf1i = jx1i y luego a partir de él construimos el vector normalizado je1i =
jx1i/kjx1ik.
Podemos normalizar este vector ya que S es L.I. y por lo tanto jx1i =
/ j0i:
Paso N°2: Ahora construimos jf2i = jx2i ¡ (je1i; jx2i)je1i y, a partir de él, el vector normalizado
je2i = jf2i/kjf2ik.
De nuevo podemos decir que jf2i = / j0i pues jx1i y jx2i son L.I. Notar que, tomando el producto
escalar (je2i; je1i), encontramos inmediatamente que estos dos vectores son ortogonales.


Paso N°k: Construimos el vector
k
X ¡1
jfk i = jxk i ¡ (jeii; jxk i)jeii:
i=1

Debido a la independencia lineal de S se tiene que jfk i = / j0i. El vector normalizado está por lo
tanto dado por jek i = jfk i/kjfk ik. Es fácil verificar que jek i es ortogonal a todos los jeii con i < k.


Paso N°n: Con este paso el procedimiento finaliza. Terminamos con un conjunto de vectores
fje1i; :::; jenig que están normalizados y que son ortogonales de a pares.
Finalmente, se enuncian dos teoremas importantes para cualquier espacio de producto interno que
obedezca los axiomas antes mencionados: La desigualdad de Schwarz y la desigualdad triangular.

Teorema: Desigualdad de Schwarz. Para cualquier jV i; jW i 2 V tenemos que

j(jV i; jW i)j2 6 (jV i; jV i)(jW i; jW i):

Demostración: Ejercicio.

Esta desigualdad es utilizada en muchas demostraciones. En particular, será usada para probar la
desigualdad triangular (ya usada en la definición de norma) y en la demostración del principio
de incertidumbre para observables arbitrarios.

Teorema: Desigualdad triangular. Para cualquier jV i; jW i 2 V tenemos que

kjV i + jW ik 6 kjV ik + kjW ik

Demostración: Ejercicio.

Note que el resultado es obvio para flechas: la desigualdad de Schwarz dice que el producto punto
entre dos vectores no puede exceder el producto de sus longitudes y la desigualdad triangular nos
dice que la longitud de una suma no puede exceder la suma de las longitudes.

2.4 Completitud y espacios de Hilbert


Para poder introducir la idea de espacio de Hilbert, el espacio de los estados en Mecánica Cuántica,
requerimos primero entender el concepto de completitud. ¾A qué nos referimos por completo?
Para ver esto, consideremos una sucesión de elementos de un espacio vectorial (puede ser de cual-
quier tipo de conjunto, pero nos interesan solamente los espacios vectoriales) las cuales escribiremos
como

fjViigi=0;:::;1  (jV0i; jV1i; jV2i; :::):

11
Asociado a estas sucesiones está el concepto de convergencia. Para entender qué queremos decir
por sucesión convergente necesitamos utilizar normas ya que debemos ser capaces de especificar
qué tan cerca están dos vectores entre sí.

Definición: Una sucesión fjViigi=0;:::;1 de elementos de un espacio vectorial normado V con-


verge al vector jV i 2 V si para todo " > 0 existe un N tal que para todo n > N se cumple

kjV i ¡ jVnik 6 ":

A veces ocurre que no conocemos el elemento límite, por lo que nos gustaría encontrar un criterio
de convergencia sin tener que referirnos a dicho elemento. Esta idea da lugar a la siguiente definición

Definición: Una sucesión fjViigi=0;:::;1 de elementos de un espacio vectorial normado V es


llamada una sucesión de Cauchy si para todo " > 0 existe un N tal que para todos m; n > N se
cumple

kjVmi ¡ jVnik 6 ":

Las sucesiones de Cauchy no siempre convergen. A veces ocurre que el elemento límite no está en
el conjunto de elementos desde donde empezamos nuestra sucesión. Veamos esto con un ejemplo
Ejemplo N°1: Consideremos el conjunto

V = fjV i/ la cantidad de componentes de jV i distintas de cero es finitag:

Un ejemplo de elemento de V puede ser jV i = (1; 2; 3; 4; 5; 0; 0; [Link]). Es bastante fácil verificar que
V es un espacio vectorial. Definamos el producto escalar como

1
X
(jV i; jW i) = VkWk:
k=1

y consideremos, por ejemplo, la serie de vectores

jV1i = (1; 0; 0; 0; :::)


 
1
jV2i = 1; ; 0; 0; :::
2
 
1 1
jV3i = 1; ; ; 0; 0; :::
2 4

  
1 1 1
jVk i = 1; ; ; :::; k ¡1 ; 0; 0; ::: :
2 4 2

Para cualquier N encontramos que para m > n > N se tiene que

 
1 1 1
kjVmi ¡ jVnik = 0; :::; 0; n ; :::; m¡1 ; 0; ::: 6 :
2 2 2n¡1

Por consiguiente, queda claro que esta sucesión es una sucesión de Cauchy. Sin embargo, el vector
límite
 
1 1 1
jV1i = 1; ; ; ; :::
2 4 8

12
contiene una cantidad infinita de elementos distintos de cero, por lo que no pertenece al espacio
vectorial V que definimos al comienzo. Motivados por esto, veamos qué significa que un espacio
vectorial sea completo.

Definición: Un espacio vectorial V se dice completo si toda sucesión de Cauchy desde el espacio
vectorial V converge a un elemento de V.

Ahora estamos en condiciones de definir lo que es un espacio de Hilbert.

Definición: Un espacio vectorial H es un espacio de Hilbert si satisface las siguientes dos con-
diciones
1. H es un espacio vectorial unitario.
2. H es completo.

Partiendo de estas discusiones sobre espacios vectoriales podemos ahora formular el primer pos-
tulado de la Mecánica Cuántica:

Postulado 1: El estado de un sistema cuántico está descripto por un vector en un espacio de


Hilbert H.

¾Por qué postulamos que el espacio de estados de un sistema cuántico es un espacio de Hilbert?
¾Hay alguna razón para esta elección? Nos enfrentaremos a la necesidad de representar super-
posiciones de estados, lo cual se manifiesta en la necesidad de tener un espacio vectorial. Del
principio de superposición podremos ver que siempre habrán estados que no son ortogonales entre
sí. Esto significa que, hasta cierto punto, un estado cuántico puede estar presente en otro estado
cuántico no ortogonal; se solapan. Qué tanto se solapan estos estados puede ser cuantificado con
el producto escalar entre los dos vectores.
Veremos también que el producto escalar es útil para computar probabilidades de resultados de
mediciones. Además, estos estados tienen que estar normalizados. Esto requiere que una norma
sea derivada de un producto escalar. Debido a la conveniencia del producto escalar requerimos que
el espacio de estados cuánticos sea un espacio vectorial equipado con dicho producto.
La razón por la que demandamos completitud puede entenderse físicamente de la siguiente manera.
Consideremos cualquier sucesión de estados físicos que sea una sucesión de Cauchy. Obviamente
esperamos que esta sucesión converja a un estado físico. Si imaginamos, por ejemplo, que cam-
biamos un estado en cantidades cada vez más pequeñas y que, de repente, arrivamos a un estado
no físico, nos encontraríamos en problemas. Es por esto que es razonable pedir que el espacio de
estados físicos sea completo.
Lo que básicamente hemos hecho es destilar las propiedades esenciales de la Mecánica Cuántica y
encontrar un objeto matemático que represente estas características sin hacer referencia a ningún
sistema físico en especial.

2.5 Notación de Dirac


Introduciremos ahora la notación de Dirac, la cual se aplica a cualquier espacio vectorial y que
resulta de mucha utilidad ya que facilita la realización de cálculos. Hasta ahora hemos escrito a
los vectores como jV i y al producto escalar como (jV i; jW i). A jV i lo llamaremos ket .
Antes de ver cómo reescribir el producto escalar entre dos vectores necesitamos primero hablar un
poco sobre funciones lineales de vectores.

Definición 14: Una función f: V ! C es llamada lineal si para cualquier j i; ji 2 V y para
cualquier ; 2 C se cumple que

f ( j i + ji) = f (j i) + f (ji):

13
Con dos funciones lineales f1,f2 la combinación lineal f1 + f2 también es una función lineal.
Luego, las funciones lineales en sí mismas conforman un espacio vectorial, y es posible definir un
producto escalar entre ellas. El espacio de las funciones lineales sobre un espacio vectorial V es
llamado el espacio dual V.
Veamos un ejemplo de una función lineal que se define mediante el uso del producto escalar entre
vectores. Definimos la función fji: V ! C, donde ji 2 V es un vector fijo de manera que para
todos los j i 2 V se tiene

fji(j i)  (ji; j i):

Haciendo la identificación fji $ hj, reescribimos el producto escalar entre dos vectores ji,j i
como

hj i = hj(j i)  (ji; j i) :

El objeto hj es llamado bra, por lo que la notación de Dirac es también a veces llamada notación
de brackets. Notar que, mientras el ket es un vector en el espacio vectorial V, el bra es un elemento
del espacio dual V.
Si pensamos a los kets como vectores columnas en una dada base entonces no tenemos forma de
obtener un número multiplicando dos columnas mediante multiplicación de matrices. Nuestro truco
fue construir un vector fila tomando el transpuesto conjugado (adjunto) de un vector columna. A
este vector fila le vamos a asociar un bra.
En resumen, asociado a cada ket j i hay un vector columna. Si tomamos el adjunto vamos a formar
un vector fila. El bra asociado a este vector fila tendrá el mismo rótulo, h j. Vemos entonces que
hay dos espacios vectoriales, el espacio de los kets y el espacio dual de los bras, con un ket para
cada bra y viceversa, estando sus componentes relacionadas por la operación de adjuntar. Entonces
el producto interno queda definido solamente entre elementos de dos espacios vectoriales diferentes
pero relacionados. Hay una base de vectores jeii para expandir kets y una base de vectores heij
para expandir bras.
Podemos preguntarnos ahora, si h j es el bra correspondiente al ket j i entonces ¾qué bra corres-
ponde a j i siendo un escalar? Tomando a cualquier base encontramos directamente que

0 1
1
B C
B 2 C
j i $ B  C ) (  
1
 
2   
n ) $ h j  :
@  A
n

Esto nos permite escribir una regla para adjuntar: Para tomar el adjunto de una ecuación lineal
relacionando kets (bras), reemplazar cada ket (bra) por su correspondiente bra (ket) y tomar el
complejo conjugado de todos los coeficientes.

3 Operadores lineales
Hasta ahora solo hemos tratado con elementos (vectores) de espacios vectoriales. Necesitamos
aprender cómo transformar estos vectores, es decir, cómo transformar un conjunto de vectores en
otro diferente.
Podemos ver a un operador A^ como una instrucción para transformar un dado ket j i en otro
ket j 0i, quedando su acción representada por A^ j i = j 0i. Nos centraremos en operadores que no
nos saquen de nuestro espacio vectorial, esto es, si j i 2 V entonces j 0i = A^ j i 2 V .

14
Los operadores también pueden actuar sobre bras: hjA^ = h 0j.

Algunos ejemplos de operadores lineales son:

Operador identidad ^1, el cual acarrea la instrucción ^1 ! dejar al vector como está. Luego,

^1jV i = jV i
hV j1^ = hV j

Operador de rotación en V3(R), Rx( / 2): Rotar al vector un ángulo  / 2 alrededor del vector
unitario ex. Consideremos la acción de este operador sobre los tres vectores unitarios ex, ey y ez,
que en nuestra notación denotamos por j1i, j2i y j3i, respectivamente. A partir de la intuición
gráfica es claro que
 

Rbx j1i = j1i
2

Rbx j2i = j3i
2

Rbx j3i = ¡j2i
2

3.1 Operadores lineales con notación de Dirac

A lo largo del curso nos importarán aquellos operadores que sean lineales, es decir aquellos que
cumplan con la siguiente definición

Definición: Un operador lineal A^: H ! H asocia a cada vector j i 2 H un vector A^ j i 2 H tal que

A^(j i +  ji) = A^ j i + A^ ji

(h j + hj)A^ = h jA^ +  hjA^

para todo j i; ji 2 H y ;  2 C.

Una característica de los operadores lineales es que una vez conocida su acción sobre los vectores
base, podemos determinar su acción sobre cualquier vector del espacio. En otras palabras, un
operador lineal A^: H ! H puede ser especificado completamente describiendo su acción sobre un
conjunto base de H. Para ver esto elijamos una base ortonormal fje1i; :::jeN ig y calculemos la
acción de A^ sobre ella. Encontramos que la base fjeiigi=1;:::;N es mapeada en un nuevo conjunto
de vectores fjf1i; :::jfN ig siendo

jfii  A^ jeii:

Por supuesto, cada vector jfii puede ser representado como una combinación lineal de los vectores
base fje1i; :::jeN ig, es decir
X
jfii = Aki jek i
k

De la misma manera en que un vector puede ser representado en una base por sus componentes (en
términos de las cuales se realizan todas las operaciones vectoriales), un operador lineal puede ser
representado en una dada base por una matriz cuadrada de n  n elementos llamados elementos
de matriz del operador.

15
Tomando el producto escalar de jfii con jej i encontramos
X
Aji = hej j (Aki jek i)
k
= hej jfii
 hej jA^ jeii

siendo Aji los elementos de matriz del operador lineal A^ con respecto a la base ortonormal
fje1i; :::jeN ig.
Vamos a expresar a los operadores lineales con la notación de Dirac comenzando primero con un
operador muy simple, el operador unidad o identidad, ^1, el cual mapea cada vector hacia sí mismo.
Sorprendentemente, este operador expresado en la notación de Dirac será de mucha utilidad en los
cálculos futuros. Para ver cómo es representado en esta notación consideramos un vector arbitrario
jf i y lo expresamos en la base ortonormal fje1i; :::jeN ig, luego

N
X
jf i = fj jej i
j=1
N
X
= jej ihej jf i
j=1

Solo basta hacer el producto escalar de jf i con cualquier vector base jeii para verificar que esto es
correcto. Reescribamos esta última ecuación un poco, definiendo en el medio la notación de Dirac
para operadores

N
X
jf i = jej ihej jf i
j =1
0 1
N
X
= @ jej ihej j Ajf i
j =1

siendo el objeto entre paréntesis el operador identidad, ya que mapea cualquier vector jf i en el
mismo vector jf i. Por lo tanto está más que justificado decir que

N
X
^1 = jej ihej j: (2)
j =1

Con esto en mente trataremos de deducir la forma de un operador general. Claramente tenemos
la siguiente identidad

A^ = ^1A^^1
0 1 !
XN N
X
= @ jej ihej j AA^ jek ihek j
j=1 k=1
N
X
= jej i(hej jA^ jek i)hek j
j;k
N
X
= (hej jA^ jek i)jej ihek j
j;k
N
X
= Ajk jej ihek j:
j;k

16
Entonces podemos expresar cualquier operador lineal en notación de Dirac una vez que conocemos
sus elementos de matriz en una base ortonormal.

3.2 Elementos de matriz de un operador


Ahora estamos acostumbrados a la idea de un vector abstracto que es representado en una base por
un conjunto de n números, llamados componentes, en términos de los cuales todas las operaciones
vectoriales pueden llevarse a cabo. Ahora vamos a ver que de igual manera un operador lineal
puede representarse en una base por un conjunto de n2 números, escritos como una matriz n  n, y
llamados sus elementos de matriz en esa base. Si bien los elementos de matriz dependen de la base,
pueden facilitar la computación de cantidades independientes de una base, llevando al operador
(abstracto) a algo más tangible. Nuestro punto de partida es la observación de que la acción de un
operador lineal está completamente especificada por su acción sobre los vectores de la base. Si los
vectores de la base sufren un cambio ^ jii = ji 0i (donde ji 0i es conocido), entonces cualquier vector
en este espacio se transforma en otro vector que puede ser calculado
X
^ jV i = vi ji 0i
i

Cuando decimos que ji 0i es conocido, queremos decir que sus componentes en la base original

hj ji 0i = hj j ^ jii  ji

son conocidas. Los n2 numeros ij son los elementos de matriz de ^ en esta base. Si ^ jV i = jV 0i,
entonces las componentes del ket transformado jV 0i pueden expresarse en términos de los elementos
ij y las componentes del ket jV i:

X X
vi0 = hijV 0i = hij ^ jV i = vj hij ^ jj i = ijvj
j j

Esta ecuación puede escribirse en forma matricial según


0 1 0 10 1
v10 h1j ^ j1i h1j ^ j2i  h1j ^ jni v1
B C B CB C
B v20
C B h2j ^ j1i CB v2 C
B  C=B CB C
@  A B@ 



C@
A

 A
vn0 hnj ^ j1i  hnj ^ jni vn

Tomemos por ejemplo el operador antes definido Rbx( /2), dado que

 

Rbx j1i = j1i
2

Rbx j2i = j3i
2

Rbx j3i = ¡j2i
2

podemos escribir la matriz asociada en la base de los vectores unitarios j1i,j2i y j3i según
0 1
  1 0 0

Rbx $@ 0 0 ¡1 A
2
0 1 0

Consideremos ahora algunos operadores específicos y veamos cómo aparecen en forma matricial

17
1) El operador identidad:

1ij = hij1^jj i = hijj i = ij

Luego 1^ se representa por una matriz diagonal con 1's a lo largo de su diagonal.
2) El operador proyección: Consideremos la expansión de un ket jV i en una base

n
X
jV i = jiihijV i
i=1

En términos de los objetos jiihij, que son operadores lineales, podemos escribir lo anterior como

n
!
X
jV i = jiihij jV i
i=1

Dado que esto es válido para cualquier ket jV i, el objeto entre paréntesis debe ser el operador
identidad
n
X X
I = jiihij = P^i (3)
i=1 i

el objeto P^i = jiihij es llamado operador de proyección para el ket jii. La Ec. (3), que es llamada
relación de completitud, expresa a la identidad como una suma de operadores de proyección y será
invaluable para nosotros. Consideremos

P^i jV i = jiihijV i = jiivi

Claramente P ^i es lineal. Cualquiera sea jV i, P^i jV i es un múltiplo de jii con un coeficiente (vi)
que es la componente de jV i en jii. Los operadores de proyección también pueden actuar sobre
los bras según

hV jPi = hV jiihij = vihij

Operadores de proyección correspondientes a vectores de base obedecen lo siguiente

P^iP^j = jiihijj ihj j = ij P^j

Esto nos dice que (1) una vez que P^i proyecta la parte de jV i en jii, más aplicaciones de Pi no
hacen diferencia, y (2) la aplicacion subsecuente de P^j (j =
/ i) va a resultar en el vector nulo, ya que
un vector completamente dirijido en jii no puede tener un proyección a lo largo de una dirección
perpendicular jj i.
Ahora veamos los elementos de matriz de P^i. La forma más directa es evaluando

(Pi)kl = hkjP^i jli = hkjiihijli = kiil

y entonces tenemos una matriz que es nula en todos lados, excepto en i-ésimo elemento diagonal,
donde es 1. Cabe notar, que la misma matriz puede construirse mediante el producto (externo)
entre un vector columna que representa al ket jii y otro vector fila que representa al bra hij.

Matrices correspondientes al producto de operadores

18
Consideremos ahora las matrices que representan un producto de operadores. Esta puede escribirse
en términos de las matrices que representan cada operador según
X X
(^
^ )ij = hij ^ 
^ jj i = hij ^ jkihkj
^ jj i = ik kj
k k

3.3 Operadores adjuntos y Hermitianos


Los operados que aparecen en Mecánica Cuántica son lineales, pero no todos los operadores lineales
corresponden a cantidades que pueden ser medidas. Solo una subclase especial de operadores
describen a los observables físicos, los cuales describiremos en esta sección.
Recordemos que dado un ket j i, su correspondiente bra es h j . ¾Qué podemos decir del ket
A^ j i? Por lo general, el ket A^ j i no es dual al bra h jA^. La relación de dualidad se satisface con
el operador adjunto A^y definido como

Definición: El operador adjunto A^y correspondiente al operador lineal A^ es el operador tal


que para todo jai; jbi se cumple

hajA^yjbi = hbjA^ jai

Dicho de otra forma, el ket A^ j i tiene asociado el bra h jA^y. En representación matricial obte-
nemos la matriz que representa a A^y tomando la transpuesta conjugada de la matriz que representa
a A^. Resulta obvio que por lo general un operador A^ y su operador adjunto A^y sean diferentes.
Sin embargo existen excepciones que son muy importantes.

Definición: Un operador A^ es llamado Hermitiano si es igual a su operador adjunto, i.e. A^y = A^.
Esto implica que para todo jai; jbi se cumple:

hajA^ jbi = hbjA^ jai:

3.4 Autovectores, autovalores y el teorema espectral


Los operadores Hermitianos tienen excelentes propiedades que exploraremos en esta sección. Estas
propiedades tienen que ver en su mayoría con los autovalores y autovectores de los operadores.

Definición: Se dice que un operador lineal A^ en un espacio de Hilbert N -dimensional tiene un


autovector o autoket ji con correspondiente autovalor  si

A^ ji = ji

(A^ ¡ 1
^)ji = j0i:

El estado físico correspondiente a un autoket es llamado autoestado.

Esta última forma de escribir la ecuación nos dice que las N columnas del operador A^ ¡ 1
^ son
linealmente dependientes por lo que se debe cumplir que

det(A^ ¡ 1
^) = 0:

Esto nos da de inmediato un polinomio complejo de grado N . Como ya sabemos, todo polinomio
de grado N tiene exactamente N soluciones si uno incluye las multiplicidades de los autovalores
en el conteo.

19
Empecemos con el análisis de los operadores Hermitianos

Lema: Para cualquier operador Hermitiano A^ se cumple que

1. Todos los autovalores de A^ son reales.


2. Los autovectores asociados a diferentes autovalores son ortogonales.
Demostración: Ejercicio de la Guía.

Este lema nos permite formular el segundo postulado de la Mecánica Cuántica. Para motivar este
postulado imaginemos que queremos determinar la posición de una partícula. Uno pondría un
sistema de coordenadas y especificaría la posición de la partícula como un conjunto de números
reales. De hecho en cualquier experimento en el que midamos a un sistema cuántico siempre
obtendremos un número real como resultado. Correspondiente a cada medición tenemos un estado
del sistema (por ejemplo, la partícula en una dada posición) y, por lo tanto, tenemos un conjunto
de números reales especificando todos los posibles resultados de la medición y un correspondiente
conjunto de estados. Mientras que la especificación de los estados puede depender de la base
elegida, la posición física no lo hace. Por ende, estamos buscando un objeto que nos de números
reales independientemente de la base elegida. Los autovalores de una matriz cumplen con esta
característica, es decir, son independientes de la base que elijamos. Luego, si queremos describir un
observable físico es una buena idea usar un operador e identificar sus autovalores con los resultados
de la medición. Por supuesto, debemos pedir que el operador tenga solo autovalores reales. Todo
esto queda garantizado solo para operadores Hermitianos, lo cual da lugar al siguiente postulado

Postulado N°2: Las cantidades cuánticas observables son descriptas por operadores Hermitianos
en un espacio de Hilbert. Los autovalores del operador Hermitiano son los posibles resultados de
una medición.

Cualquier operador Hermitiano en un espacio de Hilbert N -dimensional está representado por


una matriz N  N . El polinomio característico de tal matriz es de orden N y por lo tanto posee
N autovalores, denotados por i, con sus correspondientes autovectores jii. Por el momento
asumamos que los autovalores son todos distintos por lo que, de acuerdo al Lema anterior, tenemos
N autovectores ortogonales entre sí. A partir de esto podemos afirmar el siguiente teorema

Teorema. Teorema de completitud: Para cualquier operador Hermitiano A^ en un espacio de


Hilbert H, el conjunto de todos los autovectores forma una base ortonormal de H, esto es, dado
los autovalores i y los autovectores jii se cumple que
X
A^ = i jiihij
i

y para cualquier vector jxi 2 H encontramos coeficientes xi tales que


X
jxi = xi jii:
i

Ejemplo: Espacio de espín 1/2

Para ilustrar el Teorema de completitud puede resultar util considerar el caso especial de espines
1 / 2. Los kets de base son jSz ; i, que tipicamente denotan la orientacion del espín respecto a la
direccion z. El operador mas simple en este espacio es el operador identidad, que se escribe como

^
1 = j+ih+j + j¡ih¡j

20
donde obviamos Sz para simplificar notacion. De acuerdo a lo visto en el experimento de SG, el
operador de momento angular de espín, en la direccion z, puede construirse directamente a partir
de combinar a los autokets y sus respectivos autovalores, es decir:

~ ~
S^z = j+ih+j ¡ j¡ih¡j
2 2
y la relacion de autoket-autovalor
~
S^z ji =  ji
2

surge inmediatamente a partir de la propiedad de ortonormalidad de kets de base. Es tambien util


ver los siguientes dos operadores:

S^+ = ~j+ih¡j y S^¡ = ~j¡ih+j

los cuales, como podemos ver, son no-hermiticos. El operador S^+, actuando sobre el ket j¡i,
transforma al ket j¡i en el ket j+i, multiplicado por ~. Por otro lado, si se aplica S^+ al ket
j+i, entonces devuelve el ket nulo. De modo que la interpretacion fisica es que el operador sube
la componente de espín en una unidad de ~, si la componente de espín no puede subir mas,
entonces obtenemos automaticamente el estado nulo. De igual forma, S^¡ puede interpretarse como
el operador que baja la componente de espín en una unidad de ~.
Al construir las representaciones matriciales de los operadores de momento angular, es comun
rotular las componentes de momento angular en una columna con orden descendente, es decir, la
primer entrada corresponde a la componente de mayor momento angular, la segunda a la siguiente,
etc. En nuestro caso de espín 1/2 tenemos
   
1 0
j+i $ j¡i $
0 1
de modo que
     
~ 1 0 0 1 0 0
S^z $ ^
; S+ $ ~ ^
; S¡ $ ~
2 0 ¡1 0 0 1 0

Consideremos brevemente y en general el caso de autovalores degenerados. Un autovalor es dege-


nerado si tiene más de un autovector correspondiente y decimos que tiene degeneración d si hay
un conjunto de d autovectores linealmente independientes fj1i; :::; jdig todos teniendo el mismo
autovalor . Obviamente, el espacio de todas las combinaciones lineales de los vectores fj1i; :::;
jdig es un espacio vectorial d-dimensional. Esto implica que cualquier operador Hermitiano tiene
autovalores 1; :::; k con degeneraciones d(1); :::; d(k). A cada autovector jii le podemos
encontrar una base ortonormal de d(i) vectores. Por lo tanto, el teorema de completitud sigue
siendo cierto también para operadores Hermitianos con autovalores degenerados.
Hemos visto que cualquier operador Hermitiano A^ puede ser expandido en sus autovalores y
autovectores. El procedimiento para encontrar esta representación particular de un operador es
llamado diagonalización. A menudo no queremos trabajar en la base de los autovectores pero sí
por ejemplo en la base canónica de los vectores
0 1 0 1 0 1
1 0 0
B C B C B C
B 0 C B 1 C B 0 C
B C B C B C
e1 = B 0 C ; e2 = B 0 C ; :::; eN = B 0 C
B  C B  C B  C
@  A @  A @  A
0 0 1

21
Si queremos reescribir el operador A^ en esta base necesitamos encontrar una transformación entre
la base
Pcanónica y la base ortogonal de los autovectores de A^. Si escribimos los autovectores
N
jii = j=1 ji jej i entonces esta transformación está dada por el operador unitario

0 1
N
X 11  1N
U^ = jiiheij ! U = @ 





A
i=1 N1  NN

que obviamente mapea un vector jeii al autovector jii. Usando este operador U^ encontramos que

X X
U^ yA^U^ = iU^ yjiihijU^ = i jeiiheij :
i i

Vemos que U^ así definido mapea vectores ortogonales en vectores ortogonales. Utilicemos esto
como la propiedad que define a una transformación unitaria.

Definición: Un operador lineal U^ en un espacio de Hilbert H es llamado unitario si está definido


para todos los vectores jxi; jyi 2 H, mapea todo el espacio de Hilbert en todo el espacio de Hilbert
y satisface

hxjU^ yU^ jyi = hxjy i:

Vemos que esto implica que los operadores unitarios preservan el producto escalar y por lo tanto
también la norma de los vectores. Podemos reemplazar la última condición pidiendo que el operador
satisfaga

U^ yU^ = ^1 = U^U^ y :

Investiguemos brevemente las propiedades de los autovalores y autovectores de los operadores uni-
tarios. Sus autovalores no son reales por lo general, pero tampoco son completamente arbitrarios.

Teorema: Cualquier operador unitario U^ en un espacio de Hilbert N -dimensional H tiene


una base completa de autovectores y todos sus autovalores son de la forma ei con  real.
Demostración: Ejercicio de la Guía.

La ecuación característica y la solución del problema de autovalores


Comencemos reescribiendo la ecuación de autovalores como

( ¡ !I)jV i = j0i (4)

Operando en ambos lados con ( ¡ !I)¡1, asumiendo que existe, uno tiene

jV i = ( ¡ !I)¡1j0i

Ahora, cualquier operador finito (es decir, aquel cuyos elementos de matriz son finitos) actuando
sobre el vector nulo solo puede dar un vector nulo. Por lo tanto parece que al buscar un autovector
no nulo jV i, estamos solo obteniendo un vector nulo. Lo que ocurre es que nuestra suposición de
que el operador ( ¡ !I)¡1 existe es falsa. La teoría de matrices nos dice que la inversa de cualquier
matriz M está dada por
cofactor M
M ¡1 =
det M

22
y el cofactor de M es finita si M también. Luego lo que necesitamos es que se anule el determinante.
La condición para autovectores no nulos es entonces:

det( ¡ !I) = 0

y es la ecuación que determina los autovalores !. Para encontrarlos proyectamos la Ec. (4) en una
base. Proyectando ambos lados con un bra hij se tiene

hij( ¡ !I)jV i = 0

e introduciendo la representación de la identidad a la izquierda de jV i, obtenemos


X
( ij ¡ !ij )vj = 0 (5)
j

Llevando el determinante a cero nos dará una expresión de la forma

n
X
cm! m = 0
m=0

Esta ecuación se llama ecuación característica y

n
X
P n(!) = cm! m
m=0

es el polinomio característico. Si bien el polinomio es determinado en una base particular, los auto-
valores, que son sus raíces, son independientes de la base, ya que están definidos por la Ec. (3.4),
que no hace referencia a ninguna base. Ahora, un resultado fundamental es que cada polinomio de
orden n tiene n raíces, no necesariamente distintas y no necesariamente reales. Luego cada operador
en V n(C) tiene n autovalores. Una vez que los autovalores son conocidos, los autovectores pueden
ser encontrados usando el procedimiento del siguiente ejemplo.
Ejemplo: Utilicemos las ideas que discutimos para encontrar los autovalores y autovectores del
operador Rx( /2). Recordemos que la matriz que lo representa venía dada por
0 1
  1 0 0

Rx $@ 0 0 ¡1 A
2
0 1 0

Por lo tanto la ecuación característica es

1¡! 0 0
0 ¡! ¡1 = 0
0 1 ¡!
es decir

(1 ¡ !)(! 2 + 1) = 0

con raíces ! = 1; i. Sabemos que ! = 1 corresponde a j1i. Usando ! = 1 en la Ec. (5) encontramos
que las componentes del autovector correspondiente deben obedecer las ecuaciones
0 10 1 0 1
1¡1 0 0 x1 0
@ 0 0 ¡ 1 ¡1 A@ x2 A=@ 0 A
0 1 0¡1 x3 0

23
con lo cual x2 = x3 = 0. Luego cualquier vector de la forma
0 1
x1
x1j1i $@ 0 A
0

es aceptable, como era de esperar. Es usual usar la libertad en la escala para normalizar los
autovectores. Luego en este caso una elección sería
0 1
1
j! = 1i = j1i $@ 0 A
0

Notar que esta no es la única elección, ya que uno podría multiplicar este vector por un número
de módulo unidad sin cambiar la norma. Consideremos ahora las ecuaciones correspondientes a
! = i. Las componentes del autovector obedecen las ecuaciones

(1 ¡ i)x1 = 0 ! x1 = 0
¡ix2 ¡ x3 = 0 ! x2 = ix3
x2 ¡ ix3 = 0 ! x2 = ix3

En general, habrá siempre (n ¡ 1) ecuaciones linealmente independientes. Esta es la razón por la


que la norma del vector no es fija y por la cual el determinante se anula. Una solución normalizada
de las ecuaciones de arriba entonces sería
0 1
0
1
j! = ii = jii $ 1/2@ i A
2 1

Y un procedimiento similar determina al tercer autovector como


01
0
1
j! = ¡ii = j¡ii $ 1/2@ ¡i A
2 1

En este ejemplo hemos introducido una convención popular: rotular los autovectores por su auto-
valor. Por ejemplo, el ket correspondiente a ! = !i es rotulado como j! = !ii o simplemente j!ii.
Esta notación supone que para cada !i hay un único vector asociado. Si bien este no es siempre
el caso, un pequeño cambio en esta notación sera necesario para cubrir el caso general.

El fenómeno de un único autovalor representando más de un autovector se llama degeneración


y corresponde a raíces repetidas para el polinomio característico. En el caso de degeneración
necesitamos no solo modificar el rotulado, sino también el procedimiento usado en el ejemplo
anterior para encontrar los autovectores. Imagine que en vez de Rx( / 2) estuviéramos tratando
con otro operador en V3(R) con raíces !1 y !2 = !3. Pareciera como si pudiéramos tener dos
autovectores, por el método descripto arriba, uno por cada ! distinto. ¾Cómo obtenemos el tercero?
¾O no hay un tercer autovector?

Supongamos !1 = !2 = !. Luego tenemos dos vectores ortonormales que obedecen

j!1i = !j!1i
j!2i = !j!2i

24
Con lo cual

(aj!1i + bj!2i) = !(aj!1i + bj!2i)

Dado que j!1i y j!2i son ortogonales (y por lo tanto linealmente independientes), encontramos que
hay todo un subespacio (autoespacio) generado por j!1i y j!2i cuyos elementos son autovectores
de con autovalor !. En general si un autovalor ocurre mi veces, habrá un autoespacio V!mi i del
cual podemos elegir mi vectores ortonormales para formar la base que usamos en la prueba del
teorema anterior.

Degeneración

Ahora respondemos la pregunta sobre degeneración que hicimos anteriormente. Lo que vimos recién
es que en el caso de degeneración tenemos una infinidad de bases ortonormales. Veamos mediante
un ejemplo como esta variedad se manifiesta cuando buscamos los autovectores y como se lleva a
cabo.

Consideremos un operador con elementos de matriz


0 1
1 0 1
$@ 0 2 0 A
1 0 1

en alguna base. La ecuación caracteriística resulta ser

(! ¡ 2)2! = 0

con lo cual obtenemos ! = 0; 2; 2. El autovector correspondiente a ! = 0 puede encontrarse mediante


el procedimiento usual y resulta
0 1
1
1
j! = 0i $ 1/2@ 0 A
2 ¡1

El caso ! = 2 da lugar a las siguientes ecuaciones para las componentes del autovector

¡x1 + x3 = 0
0 = 0
x1 ¡ x3 = 0

Ahora tenemos solo una ecuación, en vez de dos. Esto es consecuencia de la degeneración. Por
cada aparición extra (sin contar la primera) que hace una raíz, se resta una ecuación. Luego la
degeneración nos da grados de libertad extra más alla del usual debido a normalización. Las
condiciones x1 = x3 y x2 arbitrario definen un ensamble de vectores que son perpendiculares a j! =
0i, i.e. viven en un plano perpendicular a j! = 0i. Esto está de acuerdo con la interpretación de que
una degeneración doble da lugar a una autoespacio bidimensional. La libertad en x2 corresponde a
la libertad en la orientación en este plano. Vamos a elegir en forma arbitraria x2 = 1, para obtener
un autovector normalizado correspondiente a ! = 2 según

0 1
1
1 @ A
j! = 2i $ 1/2 1
3 1

25
El tercer vector, claro está, debe vivir en este plano y ser ortogonal al segundo (obviamente ya es
ortogonal al primero)
0 1
1
1 @
j! = 2; segundoi $ 1/2 ¡2 A
6 1

Claramente, si hubiéramos elegido otro x2, tendríamos otros dobletes de autovectores ortonormales
con autovalor 2.
Notar que ahora j!ii no se refiere a un único ket sino a un elemento genérico del autoespacio V!mi i.
Para referirnos a un elemento particular, podemos usar el símbolo j!i; i, donde rotula el ket en
el autoespacio.

3.5 Funciones de operadores


Cuando escribamos el Hamiltoniano de un sistema cuántico frecuentemente nos encontraremos con
funciones de operadores, como por ejemplo el potencial unidimensional V (x^) en el que una partícula
se mueve. Entonces es importante conocer la definición y propiedades de estas funciones. Hay dos
formas de definirla: la primera funciona particularmente bien para operadores con un conjunto
completo de autovectores, mientras que la segunda funciona mejor para funciones que pueden ser
expandidas en series de potencias.

Definición: Dado un operador A^ con autovalores ai y un conjunto completo de autovectores jaii,


junto a una función f : C ! C, definimos

N
X
f (A^)  f(ai)jaiihaij:
i=1

Definición: Dada una función f : C ! C que puede ser expandida en series de potencias
1
X
f (z) = fkz k
k=0

entonces definimos
1
X
f (A^) = fkA^k:
k=0

Queda como ejercicio para el lector demostrar que estas definiciones coinciden para operadores
con un conjunto completo de autovectores y funciones que pueden ser expandidas como series de
potencias.
Como ejemplo consideremos un operador Hermitiano A^ con autovalores ak y autovectores jak i y
calculemos U^ = eiA. Tenemos que
^

N
X
^
eiA = eiak jak ihak j:
k=1

Este es un operador que tiene autovalores de la forma eiak con ak real. Por lo tanto es un operador
unitario, lo cual se puede verificar directamente mediante el requerimiento U^ yU^ = ^1 = U^U^ y. De
hecho, es posible demostrar que cualquier operador unitario puede ser escrito de esta forma, lo que
se captura en el siguiente enunciado:

26
Lema: Para cualquier operador unitario U^ existe un operador Hermitiano H
^ tal que

U^ = eiH :
^

Si tenemos funciones es muy probable que nos encontremos con sus derivadas. Veamos entonces
cómo calcularlas. Para tomar una derivada no solo necesitamos un operador, sino más bien una
familia de operadores que esté parametrizada por un parámetro real s. Ahora podemos definir la
derivada respecto a s en total analogía con la derivada de una función escalar

dA^ A^(s + s) ¡ A^(s)


(s)  lim :
ds s!0 s

Esto implica definir la derivada de un operador componente a componente. El orden de los opera-
dores juega un rol crucial, por ejemplo, para cualquier par de operadores lineales A^(s) y B
^ (s) se
cumple que

d(A^B
^) dA^ ^
^ (s) + A^(s) dB (s):
(s) = (s)B
ds ds ds

También es posible tener funciones de operadores que dependen de más de una variable. Un ejemplo
importante es el conmutador de dos operadores.

Definición: Para dos operadores A^ y B


^ el conmutador [A^; B
^ ] se define como

[A^; B
^ ] = A^B
^ ¡B
^A^:

El producto de dos operadores implica que los operadores sean aplicados en secuencia

A^B
^ j i = A^(B
^ j i):

Mientras que el conmutador entre escalares (que podemos ver como matrices 1  1) es siempre cero,
este no es el caso para matrices en general. Si ocurre que el conmutador entre dos operadores es
cero, decimos que esos operadores conmutan.
De particular importancia en Mecánica Cuántica es el siguiente lema, ya que garantiza que dos
observables que conmutan pueden ser simultáneamente medidos sin incerteza.

Lema: Dos observables A^ y B


^ que conmutan tienen los mismos autovectores, esto es, pueden ser
diagonalizados simultáneamente.
Demostración: Ejercicio de la Guía (suponer que tienen autovalores no degenerados).

Existe una relación de mucha utilidad entre el conmutador y la derivada de una función. Primero
definamos la derivada de una función de un operador respecto a dicho operador.

Lema: Sean dos operadores lineales A^ y B^ que tienen conmutador [B


^ ; A^] = ^1, entonces para la
derivada de una función de operadores f(A^) se cumple que

^ ; f (A^)] = df (A^):
[B
dA^

Demostración: Queda como ejercicio para el lector.

Una propiedad muy importante es la siguiente

27
Lema. Fórmula de Baker-Campbell-Haussdorff: Para operadores generales A^ y B
^ se
cumple que

^ ^ ^ ; A^] + 1 [B
e+BA^e¡B = A^ + [B ^ ; [B
^ ; A^]] + :::
2

Demostración: Queda como ejercicio para el lector.

3.6 Diagonalización simultánea de dos operadores Hermíticos


Para cerrar la sección se analiza el caso particular importante de dos operadores Hermíticos que
conmutan.
Teorema: Si y  son dos operadores Hermíticos que conmutan, entonces existe al menos una
base de autovectores que diagonaliza a ambos operadores.
Prueba: Consideremos primero el caso donde al menos uno de los operadores es no degenerado.
Asumamos que es no degenerado y consideremos alguno de sus autovectores

j!ii = !i j!ii
 j!ii = !ij!ii
Dado que [ ; ] = 0,

j!ii = !ij!ii

esto es, j!ii es un autovector de con autovalor !i. Como este vector es único a menos de un
factor de escala

j!ii = i j!ii

Luego j!ii es también un autovector de  con autovalor i. Entonces, ya que cada autovector de
es autovector de , es evidente que la base j!ii va a diagonalizar ambos operadores. Dado que
asumimos no degenerado, hay una sola base con esta propiedad.
¾Qué ocurre si ambos operadores son degenerados? Ordenando los elementos de la base tal que los
elementos de cada autoespacio sean adyacentes, podemos obtener uno de los operadores, digamos
, en la forma
0 1
!1
B C
B !1 C
B  C
B  C
B C
B !1 C
$B C
B !2 C
B  C
B  C
B C
@ !m A
!m

Ahora esta base no es única: en cada autoespacio V!mi i  Vimi correspondiente al autovalor !i, existe
una infinidad de bases. Tomemos en forma arbitraria en Vimi un conjunto j!i; i, donde el rótulo
corre desde 1 hasta mi. ¾Qué forma toma  en esta base? Comencemos en forma similar al caso
no degenerado:

j!i; i =  j!i; i = !ij!i; i

Sin embargo, debido a la degeneración de , solo podemos concluir que

j!i; i 2 Vimi

28
Ahora bien, dado que los vectores de diferentes autoespacios son ortogonales, tenemos

h!j ; jj!i; i = 0

si j!i; i y j!j ; i son vectores base tales que !i =


/ !j . Consecuentemente, el operador  tendrá la
forma
0 1
1 0
B C
B 2 C
 $B  C
@  A
0 m

lo cual se llama diagonal por bloques. Dentro de cada subespacio i,  viene dado por una matriz
 i, que aparece como un bloque en la ecuación de arriba. Consideremos una matriz  i en Vimi.
Esta es Hermítica ya que  lo es. Puede ser diagonalizada canjeando la base j!i; 1i; j!i; 2i; :::;
j!i; mii con la que comenzamos por la autobase de i. Hagamos entonces tal cambio de base en
cada bloque, de modo que  adquiera una forma diagonal. ¾Qué ocurrirá con ? Va a permanecer
diagonal, ya que no importa la elección de la base ortonormal en cada autoespacio degenerado.
Se deja como ejercicio leer el ejemplo 1.8.6 del Shankar, donde se exponen todas estas discusiones
en un modo muy concreto y se incluyen otras definiciones (propagador y modos normales) que
servirán para el curso.

4 Posición, momento y traslación

4.1 Espectro continuo


Hasta ahora, hemos venido asumiendo que los operadores exhiben un espectro discreto de auto-
valores. En mecánica cuántica, sin embargo, hay también operadores con autovalores continuos.
Tomemos, por ejemplo, la componente z del momento lineal, es decir p^z. Esto es nuevamente
representado por un operador Hermítico. En contrarste a S^z, sin embargo, los autovalores de p^z
(en unidades apropiadas) pueden asumir cualquier valor real entre ¡1 y 1:
La dimensión del espacio vectorial generado por los autokets que exhiben un espectro continuo es
claramente infinita. Afortunadamente, muchos de los resultados que trabajamos para un espacio
vectorial de dimensión finita con autovalores discretos pueden inmediatamente ser generalizados.
Empecemos con el analogo de la ecuación de autovalores

^ j!i = !j!i

donde ^ es un operador (de ahora en adelante usaremos el símbolo sombrero para denotar
operadores) y ! es un número. Para establecer la analogía, reemplazamos el símbolo de Kronecker
por la función Delta de Dirac, y transformamos la suma discreta por una integral, es decir

h!ij!j i = ij ! Z h!j! 0i = (! ¡ ! 0)


X
j!iih!ij = ^1 ! d!j!ih!j = ^1
i
De modo que
X Z
j!ii = h!j j!iij!j i ! j!i = d! 0h! 0j! ij! 0i
j

y expresiones similares en el discreto pueden ser transformadas al continuo de manera análoga.

29
4.2 Autokets de posición
Para ilustrar el caso de un operador con espectro continuo, vamos a considerar el operador de
posición (o coordenada) en una dimensión. Los autokets jxi del operador posición x^ que satisfacen

x^ jxi = xjxi

se asumen que forman un conjunto completo. Aquí x es solo un número con unidades de distancia,
mientras que x^ es un operador. Un estado físico arbitrario, descipto por un ket j i, puede expan-
dirse en términos de jxi según
Z 1
j i= dx hxj ijxi
¡1

Es probable que uno ya haya identificado a hxj i con la función de onda asociada al estado físico
representado por j i.
La noción de un autoket de posición puede extenderse a tres dimensiones. Se asume que los autokets
de posición jxi son completos. El estado de una partícula puede expandirse en términos de jxi como
Z
j i= d 3x hxj ijxi

donde jxi  jx; y; zi es un autoket simultáneo de los operadores x^; y^; z^, es decir

x^ jxi = xjxi y^jxi = yjxi z^jxi = z jxi

Para ser capaces de considerar tal autoket, estamos asumiendo implícitamente que las tres compo-
nentes del vector posición pueden medirse en forma simultánea a un grado de precisión arbitrario,
lo cual nos dice que debemos tener:

[x^i; x^j ] = 0

donde x^1; x^2; x^3 hacen las veces de x^; y^; z^.

4.3 Traslación
Ahora introducimos el concepto de traslación o desplazamiento espacial. Supongamos que comen-
zamos con un estado que está bien localizado alrededor de x. Consideremos una operación que
cambia este estado en otro estado bien localizado, pero esta vez alrededor de x + dx, aunque
manteniendo los grados de libertad restantes intactos. Esta operación se define como una traslación
infinitesimal en dx, y el operador que realiza esta tarea es J^(dx), tal que

J^(dx)jxi = jx + dxi

donde, por convención, cualquier posible factor de fase arbitrario se pone como la unidad. Al
expandir un estado arbitrario j i en términos de los autoestados de la posición, podemos examinar
el efecto del operador de traslación sobre j i, es decir
Z
J^(dx)j i = d 3x hxj ijx + dxi

lo cual puede escribirse como


Z
J^(dx)j i = d 3x hx ¡ dxj ijxi

30
lo que nos dice que la función de onda del estado trasladado J^(dx)j i se obtiene reemplazando a
x por x ¡ dx en hxj i.
Hay una forma equivalente para la traslación. En vez de considerar una traslación infinitesimal del
sistema físico, consideramos un cambio en el sistema de coordenadas usado, tal que el origen es
corrido en la dirección opuesta, ¡dx. Físicamente, en esta otra forma estamos preguntando cómo
el mismo estado se vería para otro observador cuyo sistema de coordenadas está corrido en ¡dx.
Ahora listamos las propiedades del operador traslacional infinitesimal.
1) Deseamos unitariedad, impuesta por conservación de probabilidad. Es razonable requerir que
si el ket j i está normalizado, el ket trasladado J^(dx)j i también lo esté, y entonces

h j i = h jJ^y(dx)J^(dx)j i

Esta condición se satisface pidiendo que J^ sea unitario, es decir J^y(dx)J^(dx) = ^1. Generalmente,
la norma de un ket se preserva bajo transformaciones unitarias.
2) Supongamos que consideramos dos traslaciones infinitesimales sucesivas, primero por dx y
luego por dx 0, donde ambos elementos no necesitan estar en la misma dirección. Esperamos que
el resultado neto sea una única traslación en el vector suma dx + dx 0, por lo que pedimos que

J^(dx 0)J^(dx) = J^(dx + dx 0)

3) Supongamos que consideramos una traslación en la dirección opuesta. Esperamos que esta
traslación sea la misma que la inversa de la traslación original

J^(¡dx) = J^¡1(dx)

4) Pedimos que a medida que dx ! 0 el operador de traslación se reduzca a la identidad,

lim J^(dx) = ^1
dx!0

y que la diferencia entre J^(dx) y la identidad sea lineal en dx.


Ahora demostramos que si tomamos al operador de traslación infinitesimal como

^  dx
J^(dx) = ^1 ¡ iK (6)

donde las componentes de K^ son operadores Hermíticos, entonces todas las propiedades anteriores
se cumplen. Para la primer propiedad, si reemplazamos se tiene

J^y(dx)J^(dx) = [1 ^  dx][1^ ¡ iK
^ + iK ^  dx] = ^1 + O[(dx)2] ' ^1

donde los términos de segundo orden pueden ignorarse para una traslación infinitesimal. La segunda
propiedad puede probarse como

J^(dx 0)J^(dx) = [1 ^  dx 0][1


^ ¡ iK ^  dx] ' ^1 ¡ iK
^ ¡ iK ^  (dx + dx 0) = J^(dx + dx 0)

mientras que la tercer y cuarta propiedades son obvias en este caso.


Aceptando entonces la Ec. (6) como la forma correcta para J^, estamos en posición para derivar
^ y el operador x
una relación fundamental entre el operador K ^. Primero, notemos que

^J^(dx)jxi = x
x ^jx + dxi = (x + dx)jx + dxi

31
y

J^(dx)x
^ jxi = xJ^(dx)jxi = xjx + dxi

por lo que

^; J^(dx)]jxi = dxjx + dxi ' dxjxi


[x

donde el error es de segundo orden en dx. Ahora jxi puede ser cualquier autoket de posición, los
cuales forman un conjunto completo, con lo que tenemos una identidad entre operadores

^; J^(dx)] = dx
[x

o bien

^  dx) + i(K
^(K
¡ix ^  dx)x
^ = dx

Eligiendo a dx en la dirección de e^j y formando el producto escalar con e^i, obtenemos

^j ] = iij
[x^i; K

donde se entiende que ij está multiplicado por el operador identidad.

4.4 Momento como generador de traslación


^yK
La ecuación anterior es la relación fundamental de conmutación entre los operadores x ^ . Donde
^
K fue definido a partir del operador infinitesimal de traslación. ¾Cuál es el sentido físico de este
operador?
Estableciendo la anlogía con mecánica clásica, puede verse (ver en Sakurai para más detalles) que
este operador se corresponde con el vector número de onda, esto es, 2 veces la recíproca de la
longitud de onda
2 p
=
 ~
de modo que
i
J^(dx) = ^1 ¡ p^  dx
~

y la relación de conmutación toma la forma

[x^i; p^j ] = i~ij

Esto implica, por ejemplo, que x y px son observables incompatibles, dando lugar a una relación
de incerteza
~
xpx >
2

Hasta ahora hemos considerado el caso infinitesimal para las traslaciones. Una traslación finita,
en todo caso, puede obtenerse a partir de aplicar en forma sucesiva una serie de traslaciones
infinitesimales. Consideremos una traslación finita en la dirección x por una cantidad x,

J^(xe^x)jxi = jx + xe^xi

32
Al componer N traslaciones infinitesimales, cada una de ellas caracterizable por un desplazamiento
infinitesimal x/N en la dirección x y tomando N ! 1, obtenemos

 N  
J^(xe^x) = lim ^1 ¡ i p^x x i
= exp ¡ p^xx
N !1 ~ N ~

donde exp(¡ip^xx/ ~) se entiende como una función del operador p^x. Una propiedad fundamental
de las traslaciones es que sucesivas traslaciones en direcciones diferentes, digamos en las direcciones
x e y, conmutan entre sí, con lo cual

J^(ye^y)J^(xe^x) = J^(xe^x + ye^y) = J^(xe^x)J^(ye^y)

^ conmutan entre sí, como ocurre con las


y esto implica que diferentes componentes del operador p
^. Esto, por otro lado, no ocurre en el caso de las rotaciones,
componentes del vector de posición x
como uno puede recordar a partir de las propiedades del operador momento angular.
Lo anterior implica que las distintas componentes de p^ son observables compatibles y por lo tanto
podemos considerar un autoket simultáneo jpi  jpx; py ; pz i donde

p^x jpi = px jpi p^y jpi = py jpi p^z jpi = pz jpi

Puede ser instructivo ver el efecto de J^(dx) en el autoket de momento


   
J^(dx)jpi = ^1 ¡ i p i
^  dx jpi = 1 ¡ p  dx jpi
~ ~

Vemos que el autoket de momento permanece igual, de modo que es un autoket de J^(dx), lo cual
uno puede anticipar pues

[p^; J^(dx)] = 0

5 Funciones de onda en espacio de posición y momento

5.1 Función de onda en espacio de posición


En esta sección presentamos un estudio sistemático de las propiedades de las funciones de onda en
los espacios vectoriales de posición y momento. Por simplicidad volvamos al caso unidimensional

x^ jxi = xjxi

normalizado en forma tal que la relación de ortogonalidad se lee

hx 0jxi = (x 0 ¡ x)

Tomando entonces el ket j i que representa un estado del sistema en términos de jxi
Z
j i= dxhxj ijxi

y que el coeficiente de expansión hxj i se interpreta de forma tal que

jhxj ij2dx

33
es la probabilidad de que la partícula sea hallada en un intervalo dx alrededor de x. En nuestro
formalismo el producto interno hxj i es lo que llamamos función de onda del estado j i, i.e.

(x) = hxj i

Consideremos el producto interno h j i, usando la relación de completitud de jxi tenemos


Z Z
h j i = dxh jxihxj i = dx 
(x) (x)

y entonces h j i caracteriza la superposición entre las dos funciones de onda. Notar que no estamos
definiendo a h j i como la integral de superposición, sino que esta identificacion surge de la relación
de completitud que asignamos a jxi. La interpretación más general para h j i, independiente de
la representación, es que representa la amplitud de probabilidad del estado j i de ser encontrado
en el estado j i.
Ahora interpretemos la expansión
X
j i= h j ij i

utilizando el lenguaje de las funciones de onda. Si multiplicamos por el autobra de posición hxj
obtenemos
X
hxj i = h j ihxj i

lo cual puede reconocerse como


X
(x) = h j i (x)

Examinemos entonces cómo escribir h jA^ j i en términos de las funciones de onda asociadas a
estos estados:
Z Z Z Z
h jA^ j i = dx 0
dxh jx ihx jA^ jxihxj i =
0 0
dx 0
dx 
(x 0)hx 0jA^ jxi (x)

Entonces para poder evaluar a h jA^ j i, debemos conocer el elemento de matriz hx 0jA^ jxi el cual,
por lo general, puede ser función de x y x 0. Esto, sin embargo, toma una enorme simplificación si
por ejemplo el observable A es función del operador posición. En particular consideremos:

A^ = x^2

como ocurre en el caso del oscilador armónico. En este caso tenemos

hx 0jx^2jxi = x2(x 0 ¡ x)

y con esto la doble integral se reduce a


Z
h jx^2j i = dx 
(x)x2 (x)

y, en general,
Z
h jf (x^)j i = dx 
(x)f (x) (x) (7)

34
donde debemos notar que f a la izquierda es un operador, mientras que a la derecha es un número.

5.2 Operador momento en la base de posición


Ahora examinamos cómo el operador momento puede verse en la base x. Nuestro punto de partida
es la definición del operador momento como el generador de traslaciones infinitesimales
  Z Z
^1 ¡ i p^x j i = dx J^(x)jxihxj i = dxjx + xihxj i
~
Z Z  
@
= dxjxihx ¡ xj i = dxjxi hxj i ¡ x hxj i
@x

y si comparamos ambos miembros obtenemos


Z  
@
p^j i = dx jxi ¡i~ hxj i
@x
lo cual implica
@
hxjp^j i = ¡i~ hxj i
@x
Y, a partir de la Ec. (7), tenemos
Z  
@
h jp^j i = dx 
(x) ¡i~ (x)
@x

de modo que podemos extender esto a cualquier potencia,


Z
@n
h jp^n j i = dx 
(x)(¡i~)n (x)
@xn

5.3 Función de onda en el espacio de momento


Hasta ahora hemos trabajado exclusivamente en la base x. Pero hay de hecho una simetría completa
entre x y p que podemos inferir a partir de las relaciones de conmutación. Trabajemos ahora en
la base p. Los autokets de momento vienen dados a partir de

p^jpi = pjpi hp 0jpi = (p 0 ¡ p)

Los autokets de momento generan el espacio ket de forma similar a los autokets de posicion. Un
estado arbitrario j i puede ser expandido en términos de estos kets como
Z
j i= dp hpj ijpi

y también podemos dar una interpretación probabilística al coeficiente hpj i. La probabilidad de


que una medida del momento dé como resultado el valor p en el intervalo dp está dada por

jhpj ij2dp

y uno acostumbra a llamar a  (p) la función de onda de momento asociada al estado j i. Si j i


está normalizado, entonces
Z Z
dp h jpihpj i = dp j (p)j2 = 1

35
Ahora establezcamos la conexión entre las representaciones x y p. Recordemos que en el caso
de espectros discretos, el cambio de base desde el viejo conjunto al nuevo está caracterizado por
una matriz ortogonal de transformación. Igualmente, esperamos que la misma información de
transformación esté contenida en hxjpi, la cual es una función de x y p, usualmente conocida como
función de transformación de la representación x a la representación p. Para encontrar su forma
explícita, recordemos la ecuación de arriba

@
hxjp^j i = ¡i~ hxj i
@x

y reemplazando j i por jpi obtenemos

@
hxjp^jpi = ¡i~ hxjpi
@x
o, análogamente,
@
phxjpi = ¡i~ hxjpi
@x
cuya solución es
 
i
hxjpi = N exp px
~

donde N es la función de normalización que será determinada en breve. Entonces esto puede ser
visto como la amplitud de probabilidad de que el autoestado de momento, especificado por jpi sea
encontrado en la posición x. En otras palabras es la función de onda asociada al autoestado jpi,
a menudo referida como autofunción de momento en el espacio x. Y lo que dice esta ecuación es
que dicha autofunción es una onda plana. Para obtener la constante de normalización, consideremos
Z
hx jxi =
0
dphx 0jpihpjxi

con lo cual
Z  
i
(x 0 ¡ x) = jN j2 dp exp p(x 0 ¡ x) = 2~jN j2(x 0 ¡ x)
~
y entonces
 
1 i
hxjpi = p exp px
2~ ~

Ahora entonces podemos relacionar a la función de onda en el espacio de posición con la función
de onda en el espacio de momento. Dado que
Z Z
hxj i = dp hxjpihpj i hpj i = dx hpjxihxj i

obtenemos
Z  
1 i
(x) = p dp exp + px  (p)
2~ ~
Z  
1 i
 (p) = p dx exp ¡ px (x)
2~ ~

y no es otra cosa que la transformada de Fourier.

36

También podría gustarte