Notas 1
Notas 1
Nuestro objetivo es introducir la Mecánica Cuántica desde un punto de vista más abstracto que
el desarrollado en otros cursos. Como su estructura es inevitablemente matemática, necesitaremos
hablar de matemática, siempre con el objetivo de querer entender (y hacer) física.
Debemos estudiar el efecto de este campo magnético sobre los átomos de plata. Para ello nos
alcanza con tomar un modelo simplificado del asunto. El átomo de plata está compuesto de un
núcleo y 47 electrones, 46 de los cuales pueden ser vistos como formando una nube electrónica
esféricamente simétrica sin momento angular neto. Si ignoramos el espín nuclear podemos ver
que el átomo como un todo tiene un momento angular neto que es debido solamente al momento
angular de espín (intrínseco, y no orbital) del 47mo electrón. Los 47 electrones están sujetos al
núcleo, que es muchísimo más pesado que un electrón y, como resultado, el átomo como un todo
posee un momento magnético igual al momento magnético de espín del 47mo electrón. En otras
palabras, el momento magnético del átomo es proporcional al espín S del electrón: / S.
Debido a que la energía de interacción del momento magnético con el campo magnético es simple-
mente ¡B, la componente z de la fuerza experimentada por el átomo está dada por
@ @B
Fz = B z z
@z @z
1
donde hemos ignorado las componentes de B en las direcciones que no sean z. Como el átomo en
sí es pesado, esperamos que el concepto de trayectoria clásica se siga aplicando. Con el arreglo
de la Fig. 1, el átomo con z > 0 (Sz < 0) experimenta una fuerza hacia abajo, mientras que el
átomo con z < 0 (Sz > 0) experimenta una fuerza hacia arriba. Esperamos entonces que el haz
se divida de acuerdo a los valores de z. En otras palabras, el aparato de SG (Stern-Gerlach)
mide la componente z de o, equivalentemente, la componente z de S a menos de un factor de
proporcionalidad.
Los átomos en el horno están orientados al azar, por lo que no hay una dirección preferencial para
. Si el electrón fuera como un objeto rotante clásico, esperaríamos que los valores de z estén
entre jj y ¡jj. Esto nos lleva a esperar un conjunto continuo de haces saliendo del aparato de SG
correspondientes al rango continuo de orientación del momento magnético, esparcidos más o menos
homogeneamente sobre el rango estimado. En lugar de esto, lo que se observa experimentalmente
son dos manchas correspondientes a una orientación hacia arriba y otra hacia abajo. Es decir,
el aparato de SG divide al haz original de átomos de plata saliendo del horno en dos componentes
distintas. Como puede ser identificado dentro de un factor de proporcionalidad con el espín S
del electrón, solo dos valores para la componente z de S son posibles: Sz + y Sz ¡ . Estos valores
de Sz son múltiplos de una unidad fundamental de momento angular; numéricamente resulta que
Sz = ~ / 2, siendo ~ la constante de Planck reducida, esto es, ~ ~ / 2. Esta cuantización del
momento angular de espín del electrón es la primera propiedad importante que deducimos de este
experimento.
Por supuesto, no hay nada de especial en las direcciones arriba-abajo o el eje z. Podríamos haber
aplicado un campo inhomogéneo en la dirección horizontal, por ejemplo en x, con el haz moviéndose
en la dirección y. De esta manera habríamos separado al haz en componentes Sx + y Sx ¡ .
2
componentes, Sx + y Sx ¡ , con iguales intensidades. ¾Cómo podemos explicar esto? ¾Significa que
el 50% de los átomos en el haz Sz + están caracterizados por Sz + y Sx + mientras que el otro
50% por Sz + y Sx ¡ ? Esta idea tiene dificultades como ya veremos.
Tomamos ahora el arreglo mostrado en la Fig. 2c, que muestra de forma dramática las peculia-
ridades de los sistemas cuánticos. Agregamos ahora un tercer aparato del tipo SGz^. Se observa
experimentalmente que dos componentes emergen de dicho aparato, no una; teniendo los haces
emergentes tanto componentes Sz + como Sz ¡ . Esto es una sorpresa ya que los átomos que
emergieron del primer aparato tenían la componente Sz ¡ bloqueada. Luego, ¾cómo es posible
que esta componente reaparezca? Claramente, el modelo en el que los átomos entrando al tercer
aparato son vistos como teniendo componentes Sz + y Sx + es insatisfactorio.
Este ejemplo se utiliza por lo general para ilustrar que en Mecánica Cuántica no podemos deter-
minar Sz y Sx de forma simultánea. Más precisamente, podemos decir que la selección del haz Sx +
por el segundo aparato SGx^ destruye completamente cualquier información previa acerca de Sz.
Vale aclarar que la limitación que acabamos de encontrar a la hora de querer determinar Sz y Sx
no se debe a la incompetencia del experimentalista. No podemos hacer que la componente Sz ¡
saliendo del tercer aparato desaparezca mejorando las técnicas experimentales. Las peculiaridades
de la Mecánica Cuántica son impuestas sobre nosotros por el experimento en sí mismo. Esta
limitación es inherente a los fenómenos en estas escalas.
3
2.1 Espacios vectoriales complejos
En los cursos de álgebra se trabajó bastante con el concepto de espacio vectorial, en especial, con
el caso de espacios vectoriales reales. Haremos un breve repaso de este concepto y lo extenderemos
al caso de variables complejas.
En primer lugar vamos a introducir una nueva notación que será de utilidad para más adelante
cuando veamos la notación de Dirac. En lugar de representar a los vectores con letra negrita
o agregando una flecha sobre alguna variable (por ejemplo, v o ~v ), utilizaremos la notación jV i
y a tal vector lo llamaremos ket. Usaremos esta notación en particular para referirnos a vectores
complejos que luego llamaremos vectores de estado.
Ahora podemos comenzar con la definición de espacio vectorial complejo.
Los números ; ; ::: son llamados el campo sobre el cual el espacio vectorial está definido. Si el
campo consiste de todos los números reales, tenemos un espacio vectorial real, si son complejos,
tenemos un espacio vectorial complejo. Los vectores por sí mismos no son ni reales ni complejos,
los adjetivos solo se aplican a los escalares. Notar que los axiomas antes mencionados implican:
El vector nulo es único, esto es, si j0 0i tiene todas las propiedades de j0i entonces j0 0i = j0i.
0jV i = 0.
j¡V i = ¡jV i.
Una vez introducida la noción abstracta de espacio vectorial complejo cualquier afirmación que
demostremos directamente a partir de estas propiedades abstractas va a ser verdadera para cual-
quier espacio vectorial independientemente de que tan complicado parezca.
Lo que hemos hecho es aislar la estructura básica de los espacios vectoriales sin hacer referencia
a ninguna representación en particular para sus elementos. Esto es útil ya que no queremos tener
que probar una y otra vez la misma propiedad cuando investigamos un objeto nuevo. Lo único que
tenemos que hacer es probar que nuestros nuevos objetos tienen una adición y una multiplicación
escalar que satisfacen las condiciones anteriores.
4
Notar que hasta ahora no hemos hecho referencia a la magnitud o dirección de los vectores. El
punto es que si bien las flechas poseen estas cualidades, los miembros de un espacio vectorial en
general no las necesitan. Veamos dos ejemplos:
Consideremos el conjunto de todas las matrices 2 2. Sabemos cómo sumarlas y multiplicarlas
por escalares. Las reglas correspondientes obedecen los requisitos de cierre, asociatividad y distri-
butividad. La matriz nula es aquella donde todos sus elementos son cero y la inversa bajo adición
de una matriz es otra matriz con todos sus elementos cambiados de signo. En este ejemplo uno
puede coincidir en que uno tiene un espacio vectorial de matrices que consisten en objetos que no
poseen una longitud o dirección obvia asociada.
Como un segundo ejemplo, considere todas las funciones f(x) definidas en el intervalo 0 6 x 6 L.
Definimos la multiplicación por un escalar simplemente como af (x) y la suma como lo usual: la
suma de dos funciones f y g tiene el valor f (x) + g(x) en el punto x. La función nula es cero en
todos lados y la inversa aditiva de f es simplemente ¡f .
Podemos asumir, sin pérdida de generalidad, que el lado izquierdo no contiene ningún múltiplo de
j0i ya que este podría llevarse al miembro de la derecha de modo que nuevamente daría j0i.
Lo que nos dice esto es que no es posible escribir a ningún miembro del conjunto de vectores
linealmente independiente en términos de los otros. Por otro lado, si el conjunto de vectores es
linealmente dependiente, esta relación existirá, y debe contener al menos dos coeficientes no nulos.
Digamos a3 =/ 0. Entonces podemos escribir
X ¡ai
j3i = jii
a3
i=
/3
5
Definición: Un espacio vectorial tiene dimensión n si puede acomodar un número máximo n
de vectores linealmente independientes. Se denota como V n(R) si el campo es escalar y Vn(C)
si el campo es complejo.
En vista de los ejemplos anteriores, el plano es bidimensional y el conjunto de todas las flechas no
limitadas por el plano define un espacio vectorial tridimensional. Respecto a las matrices 2 2, estas
forman un espacio vectorial de dimensión 4. Los siguientes vectores son linealmente independientes:
1 0 0 1 0 0 0 0
j1i = ; j2i = ; j3i = ; j4i =
0 0 0 0 1 0 0 1
ya que es imposible formar combinaciones lineales de cualesquiera tres de ellos para dar el cuarto
elemento, ya que siempre habrá un cero en el lugar donde el cuarto es no nulo. Luego, el espacio
es al menos de dimensión 4. ¾Podría ser mayor? La respuesta es no ya que cualquier matriz 2 2
puede ser escrita como combinación lineal de estos elementos:
a b
= aj1i + bj2i + cj3i + dj4i
c d
Teorema: Cualquier vector jV i en un espacio vectorial de dimensión n puede ser escrito como
combinación lineal de n vectores linealmente independientes j1i; j2i; :::; jni.
La prueba es la siguiente: Si hubiera un vector jV i para el cual esto no fuera posible, podría unirse
al conjunto dado de vectores linealmente independientes y formar un conjunto de n + 1 vectores
linealmente independientes, lo cual no es posible en un espacio vectorial de dimensión n por
definición.
Definición: Los coeficientes de expansión vi de un vector en términos de una base (jii) se llaman
componentes del vector en esa base.
lo que implica vi = vi0 ya que, como dijimos, los vectores de la base son linealmente independientes.
6
Notar que dada una base las componentes son únicas, pero si cambiamos la base, las componentes
van a cambiar. Nos referimos con jV i al vector en abstracto, teniendo una existencia por sí mismo
y satisfaciendo varias relaciones que involucran otros vectores. Cuando elegimos una base, los
vectores adquieren una forma concreta en términos de sus componentes y la relación entre vectores
se satisface por las componentes. Como el vector jV i queda unívocamente especificado por sus
componentes en una dada base, podemos, en dicha base, escribirlo como un vector columna
0 1
v1
B C
B v C
jV i ! B 2 C:
@ A
vk
La suma de vectores entonces puede entenderse a partir de la suma de sus componentes. Dada una
base (jii) podemos expresar a los vectores jV i y jW i en términos de sus componentes,
n
X n
X
jV i = vi jii; jW i = wi jii
i=1 i=1
de modo que
n
X
jV i + jW i = (vi + wi)jii
i=1
donde usamos los axiomas para agrupar los escalares. De la misma manera podemos decir que
multiplicar un vector por un escalar equivale a multiplicar todas sus componentes por dicho escalar.
~ B
A ~ = jA
~ jjB
~ jcos
p
donde podemos inferir la longitud de A ~ como jA~j = A ~ A
~ y el coseno del ángulo entre dos
vectores. Ahora uno podría objetar: ¾Cómo puedo usar el producto punto para definir la longitud
y ángulo, si el producto punto por sí mismo requiere conocimiento de longitudes y ángulos? La
respuesta es la siguiente. Recordemos que el producto punto tiene una segunda expresión equiva-
lente en términos de sus componentes:
~ B
A ~ = AxBx + AyBy + AzBz
7
Nuestro objetivo es definir una fórmula similar para el caso general donde tenemos noción de las
componentes en una base. Para ello recordemos las características principales de producto punto
de arriba:
~ B
1. Simetría: A ~ =B
~ A
~
~ (bB
3. Linealidad: A ~ + cC
~ ) = bA
~ B
~ + cA
~ C
~
Ahora queremos inventar una generalización llamada producto interno o producto escalar complejo
entre dos vectores jV i y jW i y que denotaremos como (jV i; jW i). Comenzaremos con una formu-
lación abstracta de las propiedades/axiomas que queremos que tenga/satisfaga y luego veremos
algunos ejemplos que son de interés.
Notar que aún no dimos una regla explícita para evaluar el producto escalar, sino estamos pidiendo
que cualquier regla posea estas propiedades. Para encontrar esta regla, primero veamos un poco
los axiomas.
El primer axioma es pedido para poder tratar con el hecho de que ahora usamos números complejos,
difiere respecto al correspondiente axioma del producto punto y el orden entre los dos factores
importa. En un espacio vectorial real este axioma establece la simetría del producto interno ante
intercambio de los dos vectores. Por ahora, notemos que este axioma asegura que (jV i; jV i) es
real. Un ejercicio para el lector es probar que la condición (jV i; jW i) = (jW i; jV i) daría lugar a
contradicciones con los demas axiomas si ahora tenemos espacios vectoriales complejos.
El segundo axioma dice no solo que (jV i; jV i) es real sino también positivo semidefinido, y solo se
anula para el vector nulo. Si vamos a definir la longitud del vector como la raíz cuadrada de este
producto interno consigo mismo, esta candidad conviene que sea real y positiva para cualquier
vector no nulo.
El último axioma expresa la linealidad del producto interno cuando una superposición lineal apa-
rece como segundo vector en el producto escalar (linealidad en el segundo argumento). ¾Qué ocurre
si el primer factor en el producto es una superposición lineal? Es decir, ¾Qué sería ( jV i + jW i;
jZ i)? Esto puede determinarse mediante el primer axioma
8jV i; jW i; jZ i 2 V ; ; 2 C: ( jV i + jW i; jZ i) =
(jV i; jZ i) +
(jW i; jZ i):
lo cual expresa la antilinealidad del producto interno respecto al primer factor en el producto. En
otras palabras, el producto interno de una superposición lineal con otro vector es la correspondiente
superposición de productos internos si la superposición ocurre en el segundo factor, mientras que
es la superposición con todos los coeficientes conjugados si la superposición ocurre en el primer
factor. Esta asimetría, desconocida en espacios vectoriales reales, será común en el resto del curso.
Ejemplo N°1: El producto escalar en C.
8
Dados dos vectores complejos jV i; jW i 2 Cn definimos el producto escalar
n
X
(jV i; jW i) = ViWi
i=1
donde denota al complejo conjugado. Queda como ejercicio para el lector demostrar que satis-
face las condiciones de producto escalar.
Podemos ver a este producto escalar como el producto matricial entre el transpuesto conjugado
(adjunto) del vector columna que representa a jV i y el vector columna que representa a jW i
0 1
W1
B C
B W2 C
(jV i; jW i) = ( V1 V2 ::: Vn )B C:
@ A
Wn
Esta ecuación ya trae consigo la definición de producto escalar para este tipo de funciones. Para
cualquier par de funciones ; 2 L2 definimos
Z +1
( ; ) = (x)(x)dx:
¡1
Continuemos con productos internos. Utilizando la misma terminología que en el caso de flechas,
podemos pasar a la siguiente definición
(jV i; jW i) = 0:
Elijamos una base ortogonal fjV1i; :::; jVN ig de un espacio vectorial N dimensional. Para cualquier
vector arbitrario jV i 2 V queremos encontrar los coeficientes 1; :::; N tales que
N
X
i jVii = jV i:
i=1
Por supuesto, podemos obtener los i por ensayo y error, pero nos gustaría encontrar una forma
eficiente para determinarlos. Para ver esto, consideremos el producto escalar entre jV i y uno de
los vectores base jVii. Debido a la ortogonalidad de los vectores base, encontramos que
9
Notar que este resultado es cierto solo porque hemos usado una base ortogonal. En base a esto
tenemos que para una base ortogonal cualquier vector jV i puede ser representado como
N
X (jVii; jV i)
jV i = jVii:
(jVii; jVii)
i=1
En esta última ecuación el denominador (jVii; jVii) es la raíz cuadrada de lo que usualmente
llamamos la longitud de un vector. Veamos cómo formalizar esto un poco más mediante la intro-
ducción de la noción de norma.
Un espacio vectorial con una norma definida en él es llamado espacio vectorial normado. Las
tres propiedades de la definición anterior son aquellas que uno esperaría que se satisfagan para
cualquier medición de longitud. Como era de esperar, las normas y los productos escalares están
íntimamente relacionados. De hecho, hay una forma de generar normas fácilmente cuando ya se
tiene un producto escalar.
Lema: Dado un producto escalar sobre un espacio vectorial complejo, podemos definir la norma
de un vector jV i mediante
p
kjV ik = (jV i; jV i) :
Demostración: Ejercicio.
Este lema muestra que cualquier espacio vectorial unitario puede ser canónicamente convertido en
un espacio vectorial normado. Sin embargo, la inversa no es cierta. No cualquier norma da lugar
automáticamente a un producto escalar.
Utilizando el concepto de norma podemos ahora definir la noción de base ortonormal.
donde i (jVii; jV i) son las componentes de jV i con respecto a la base fjV1i; :::; jVN ig.
Notar que en esta última definición no era necesario pedir independencia lineal de los vectores
fjV1i; :::; jVN ig ya que esto está implícito al pedir que sean ortogonales y estén normalizados.
Ya sabemos qué es una base ortonormal, por lo que naturalmente surge la pregunta de cómo cons-
truir una. Existen varios métodos para lograr esto, aquí presentaremos el conocido procedimiento
de ortogonalización de Gram-Schmidt.
El punto de partida de este procedimiento es un conjunto de vectores linealmente independientes
S = fjx1i; :::; jxnig, a partir del cual queremos construir un conjunto de vectores ortonormales
fje1i; :::; jenig. El procedimiento es el siguiente:
10
Paso N°1: Elegimos jf1i = jx1i y luego a partir de él construimos el vector normalizado je1i =
jx1i/kjx1ik.
Podemos normalizar este vector ya que S es L.I. y por lo tanto jx1i =
/ j0i:
Paso N°2: Ahora construimos jf2i = jx2i ¡ (je1i; jx2i)je1i y, a partir de él, el vector normalizado
je2i = jf2i/kjf2ik.
De nuevo podemos decir que jf2i = / j0i pues jx1i y jx2i son L.I. Notar que, tomando el producto
escalar (je2i; je1i), encontramos inmediatamente que estos dos vectores son ortogonales.
Paso N°k: Construimos el vector
k
X ¡1
jfk i = jxk i ¡ (jeii; jxk i)jeii:
i=1
Debido a la independencia lineal de S se tiene que jfk i = / j0i. El vector normalizado está por lo
tanto dado por jek i = jfk i/kjfk ik. Es fácil verificar que jek i es ortogonal a todos los jeii con i < k.
Paso N°n: Con este paso el procedimiento finaliza. Terminamos con un conjunto de vectores
fje1i; :::; jenig que están normalizados y que son ortogonales de a pares.
Finalmente, se enuncian dos teoremas importantes para cualquier espacio de producto interno que
obedezca los axiomas antes mencionados: La desigualdad de Schwarz y la desigualdad triangular.
Demostración: Ejercicio.
Esta desigualdad es utilizada en muchas demostraciones. En particular, será usada para probar la
desigualdad triangular (ya usada en la definición de norma) y en la demostración del principio
de incertidumbre para observables arbitrarios.
Demostración: Ejercicio.
Note que el resultado es obvio para flechas: la desigualdad de Schwarz dice que el producto punto
entre dos vectores no puede exceder el producto de sus longitudes y la desigualdad triangular nos
dice que la longitud de una suma no puede exceder la suma de las longitudes.
11
Asociado a estas sucesiones está el concepto de convergencia. Para entender qué queremos decir
por sucesión convergente necesitamos utilizar normas ya que debemos ser capaces de especificar
qué tan cerca están dos vectores entre sí.
A veces ocurre que no conocemos el elemento límite, por lo que nos gustaría encontrar un criterio
de convergencia sin tener que referirnos a dicho elemento. Esta idea da lugar a la siguiente definición
Las sucesiones de Cauchy no siempre convergen. A veces ocurre que el elemento límite no está en
el conjunto de elementos desde donde empezamos nuestra sucesión. Veamos esto con un ejemplo
Ejemplo N°1: Consideremos el conjunto
Un ejemplo de elemento de V puede ser jV i = (1; 2; 3; 4; 5; 0; 0; [Link]). Es bastante fácil verificar que
V es un espacio vectorial. Definamos el producto escalar como
1
X
(jV i; jW i) = VkWk:
k=1
1 1 1
kjVmi ¡ jVnik = 0; :::; 0; n ; :::; m¡1 ; 0; ::: 6 :
2 2 2n¡1
Por consiguiente, queda claro que esta sucesión es una sucesión de Cauchy. Sin embargo, el vector
límite
1 1 1
jV1i = 1; ; ; ; :::
2 4 8
12
contiene una cantidad infinita de elementos distintos de cero, por lo que no pertenece al espacio
vectorial V que definimos al comienzo. Motivados por esto, veamos qué significa que un espacio
vectorial sea completo.
Definición: Un espacio vectorial V se dice completo si toda sucesión de Cauchy desde el espacio
vectorial V converge a un elemento de V.
Definición: Un espacio vectorial H es un espacio de Hilbert si satisface las siguientes dos con-
diciones
1. H es un espacio vectorial unitario.
2. H es completo.
Partiendo de estas discusiones sobre espacios vectoriales podemos ahora formular el primer pos-
tulado de la Mecánica Cuántica:
¾Por qué postulamos que el espacio de estados de un sistema cuántico es un espacio de Hilbert?
¾Hay alguna razón para esta elección? Nos enfrentaremos a la necesidad de representar super-
posiciones de estados, lo cual se manifiesta en la necesidad de tener un espacio vectorial. Del
principio de superposición podremos ver que siempre habrán estados que no son ortogonales entre
sí. Esto significa que, hasta cierto punto, un estado cuántico puede estar presente en otro estado
cuántico no ortogonal; se solapan. Qué tanto se solapan estos estados puede ser cuantificado con
el producto escalar entre los dos vectores.
Veremos también que el producto escalar es útil para computar probabilidades de resultados de
mediciones. Además, estos estados tienen que estar normalizados. Esto requiere que una norma
sea derivada de un producto escalar. Debido a la conveniencia del producto escalar requerimos que
el espacio de estados cuánticos sea un espacio vectorial equipado con dicho producto.
La razón por la que demandamos completitud puede entenderse físicamente de la siguiente manera.
Consideremos cualquier sucesión de estados físicos que sea una sucesión de Cauchy. Obviamente
esperamos que esta sucesión converja a un estado físico. Si imaginamos, por ejemplo, que cam-
biamos un estado en cantidades cada vez más pequeñas y que, de repente, arrivamos a un estado
no físico, nos encontraríamos en problemas. Es por esto que es razonable pedir que el espacio de
estados físicos sea completo.
Lo que básicamente hemos hecho es destilar las propiedades esenciales de la Mecánica Cuántica y
encontrar un objeto matemático que represente estas características sin hacer referencia a ningún
sistema físico en especial.
Definición 14: Una función f: V ! C es llamada lineal si para cualquier j i; ji 2 V y para
cualquier ; 2 C se cumple que
f ( j i + ji) = f (j i) + f (ji):
13
Con dos funciones lineales f1,f2 la combinación lineal f1 + f2 también es una función lineal.
Luego, las funciones lineales en sí mismas conforman un espacio vectorial, y es posible definir un
producto escalar entre ellas. El espacio de las funciones lineales sobre un espacio vectorial V es
llamado el espacio dual V.
Veamos un ejemplo de una función lineal que se define mediante el uso del producto escalar entre
vectores. Definimos la función fji: V ! C, donde ji 2 V es un vector fijo de manera que para
todos los j i 2 V se tiene
Haciendo la identificación fji $ hj, reescribimos el producto escalar entre dos vectores ji,j i
como
El objeto hj es llamado bra, por lo que la notación de Dirac es también a veces llamada notación
de brackets. Notar que, mientras el ket es un vector en el espacio vectorial V, el bra es un elemento
del espacio dual V.
Si pensamos a los kets como vectores columnas en una dada base entonces no tenemos forma de
obtener un número multiplicando dos columnas mediante multiplicación de matrices. Nuestro truco
fue construir un vector fila tomando el transpuesto conjugado (adjunto) de un vector columna. A
este vector fila le vamos a asociar un bra.
En resumen, asociado a cada ket j i hay un vector columna. Si tomamos el adjunto vamos a formar
un vector fila. El bra asociado a este vector fila tendrá el mismo rótulo, h j. Vemos entonces que
hay dos espacios vectoriales, el espacio de los kets y el espacio dual de los bras, con un ket para
cada bra y viceversa, estando sus componentes relacionadas por la operación de adjuntar. Entonces
el producto interno queda definido solamente entre elementos de dos espacios vectoriales diferentes
pero relacionados. Hay una base de vectores jeii para expandir kets y una base de vectores heij
para expandir bras.
Podemos preguntarnos ahora, si h j es el bra correspondiente al ket j i entonces ¾qué bra corres-
ponde a j i siendo un escalar? Tomando a cualquier base encontramos directamente que
0 1
1
B C
B 2 C
j i $ B C ) (
1
2
n ) $ h j :
@ A
n
Esto nos permite escribir una regla para adjuntar: Para tomar el adjunto de una ecuación lineal
relacionando kets (bras), reemplazar cada ket (bra) por su correspondiente bra (ket) y tomar el
complejo conjugado de todos los coeficientes.
3 Operadores lineales
Hasta ahora solo hemos tratado con elementos (vectores) de espacios vectoriales. Necesitamos
aprender cómo transformar estos vectores, es decir, cómo transformar un conjunto de vectores en
otro diferente.
Podemos ver a un operador A^ como una instrucción para transformar un dado ket j i en otro
ket j 0i, quedando su acción representada por A^ j i = j 0i. Nos centraremos en operadores que no
nos saquen de nuestro espacio vectorial, esto es, si j i 2 V entonces j 0i = A^ j i 2 V .
14
Los operadores también pueden actuar sobre bras: hjA^ = h 0j.
Operador identidad ^1, el cual acarrea la instrucción ^1 ! dejar al vector como está. Luego,
^1jV i = jV i
hV j1^ = hV j
Operador de rotación en V3(R), Rx( / 2): Rotar al vector un ángulo / 2 alrededor del vector
unitario ex. Consideremos la acción de este operador sobre los tres vectores unitarios ex, ey y ez,
que en nuestra notación denotamos por j1i, j2i y j3i, respectivamente. A partir de la intuición
gráfica es claro que
Rbx j1i = j1i
2
Rbx j2i = j3i
2
Rbx j3i = ¡j2i
2
A lo largo del curso nos importarán aquellos operadores que sean lineales, es decir aquellos que
cumplan con la siguiente definición
Definición: Un operador lineal A^: H ! H asocia a cada vector j i 2 H un vector A^ j i 2 H tal que
Una característica de los operadores lineales es que una vez conocida su acción sobre los vectores
base, podemos determinar su acción sobre cualquier vector del espacio. En otras palabras, un
operador lineal A^: H ! H puede ser especificado completamente describiendo su acción sobre un
conjunto base de H. Para ver esto elijamos una base ortonormal fje1i; :::jeN ig y calculemos la
acción de A^ sobre ella. Encontramos que la base fjeiigi=1;:::;N es mapeada en un nuevo conjunto
de vectores fjf1i; :::jfN ig siendo
jfii A^ jeii:
Por supuesto, cada vector jfii puede ser representado como una combinación lineal de los vectores
base fje1i; :::jeN ig, es decir
X
jfii = Aki jek i
k
De la misma manera en que un vector puede ser representado en una base por sus componentes (en
términos de las cuales se realizan todas las operaciones vectoriales), un operador lineal puede ser
representado en una dada base por una matriz cuadrada de n n elementos llamados elementos
de matriz del operador.
15
Tomando el producto escalar de jfii con jej i encontramos
X
Aji = hej j (Aki jek i)
k
= hej jfii
hej jA^ jeii
siendo Aji los elementos de matriz del operador lineal A^ con respecto a la base ortonormal
fje1i; :::jeN ig.
Vamos a expresar a los operadores lineales con la notación de Dirac comenzando primero con un
operador muy simple, el operador unidad o identidad, ^1, el cual mapea cada vector hacia sí mismo.
Sorprendentemente, este operador expresado en la notación de Dirac será de mucha utilidad en los
cálculos futuros. Para ver cómo es representado en esta notación consideramos un vector arbitrario
jf i y lo expresamos en la base ortonormal fje1i; :::jeN ig, luego
N
X
jf i = fj jej i
j=1
N
X
= jej ihej jf i
j=1
Solo basta hacer el producto escalar de jf i con cualquier vector base jeii para verificar que esto es
correcto. Reescribamos esta última ecuación un poco, definiendo en el medio la notación de Dirac
para operadores
N
X
jf i = jej ihej jf i
j =1
0 1
N
X
= @ jej ihej j Ajf i
j =1
siendo el objeto entre paréntesis el operador identidad, ya que mapea cualquier vector jf i en el
mismo vector jf i. Por lo tanto está más que justificado decir que
N
X
^1 = jej ihej j: (2)
j =1
Con esto en mente trataremos de deducir la forma de un operador general. Claramente tenemos
la siguiente identidad
A^ = ^1A^^1
0 1 !
XN N
X
= @ jej ihej j AA^ jek ihek j
j=1 k=1
N
X
= jej i(hej jA^ jek i)hek j
j;k
N
X
= (hej jA^ jek i)jej ihek j
j;k
N
X
= Ajk jej ihek j:
j;k
16
Entonces podemos expresar cualquier operador lineal en notación de Dirac una vez que conocemos
sus elementos de matriz en una base ortonormal.
Cuando decimos que ji 0i es conocido, queremos decir que sus componentes en la base original
hj ji 0i = hj j ^ jii ji
son conocidas. Los n2 numeros ij son los elementos de matriz de ^ en esta base. Si ^ jV i = jV 0i,
entonces las componentes del ket transformado jV 0i pueden expresarse en términos de los elementos
ij y las componentes del ket jV i:
X X
vi0 = hijV 0i = hij ^ jV i = vj hij ^ jj i = ijvj
j j
Tomemos por ejemplo el operador antes definido Rbx( /2), dado que
Rbx j1i = j1i
2
Rbx j2i = j3i
2
Rbx j3i = ¡j2i
2
podemos escribir la matriz asociada en la base de los vectores unitarios j1i,j2i y j3i según
0 1
1 0 0
Rbx $@ 0 0 ¡1 A
2
0 1 0
Consideremos ahora algunos operadores específicos y veamos cómo aparecen en forma matricial
17
1) El operador identidad:
Luego 1^ se representa por una matriz diagonal con 1's a lo largo de su diagonal.
2) El operador proyección: Consideremos la expansión de un ket jV i en una base
n
X
jV i = jiihijV i
i=1
En términos de los objetos jiihij, que son operadores lineales, podemos escribir lo anterior como
n
!
X
jV i = jiihij jV i
i=1
Dado que esto es válido para cualquier ket jV i, el objeto entre paréntesis debe ser el operador
identidad
n
X X
I = jiihij = P^i (3)
i=1 i
el objeto P^i = jiihij es llamado operador de proyección para el ket jii. La Ec. (3), que es llamada
relación de completitud, expresa a la identidad como una suma de operadores de proyección y será
invaluable para nosotros. Consideremos
Claramente P ^i es lineal. Cualquiera sea jV i, P^i jV i es un múltiplo de jii con un coeficiente (vi)
que es la componente de jV i en jii. Los operadores de proyección también pueden actuar sobre
los bras según
Esto nos dice que (1) una vez que P^i proyecta la parte de jV i en jii, más aplicaciones de Pi no
hacen diferencia, y (2) la aplicacion subsecuente de P^j (j =
/ i) va a resultar en el vector nulo, ya que
un vector completamente dirijido en jii no puede tener un proyección a lo largo de una dirección
perpendicular jj i.
Ahora veamos los elementos de matriz de P^i. La forma más directa es evaluando
y entonces tenemos una matriz que es nula en todos lados, excepto en i-ésimo elemento diagonal,
donde es 1. Cabe notar, que la misma matriz puede construirse mediante el producto (externo)
entre un vector columna que representa al ket jii y otro vector fila que representa al bra hij.
18
Consideremos ahora las matrices que representan un producto de operadores. Esta puede escribirse
en términos de las matrices que representan cada operador según
X X
(^
^ )ij = hij ^
^ jj i = hij ^ jkihkj
^ jj i = ik kj
k k
Dicho de otra forma, el ket A^ j i tiene asociado el bra h jA^y. En representación matricial obte-
nemos la matriz que representa a A^y tomando la transpuesta conjugada de la matriz que representa
a A^. Resulta obvio que por lo general un operador A^ y su operador adjunto A^y sean diferentes.
Sin embargo existen excepciones que son muy importantes.
Definición: Un operador A^ es llamado Hermitiano si es igual a su operador adjunto, i.e. A^y = A^.
Esto implica que para todo jai; jbi se cumple:
A^ ji = ji
(A^ ¡ 1
^)ji = j0i:
Esta última forma de escribir la ecuación nos dice que las N columnas del operador A^ ¡ 1
^ son
linealmente dependientes por lo que se debe cumplir que
det(A^ ¡ 1
^) = 0:
Esto nos da de inmediato un polinomio complejo de grado N . Como ya sabemos, todo polinomio
de grado N tiene exactamente N soluciones si uno incluye las multiplicidades de los autovalores
en el conteo.
19
Empecemos con el análisis de los operadores Hermitianos
Este lema nos permite formular el segundo postulado de la Mecánica Cuántica. Para motivar este
postulado imaginemos que queremos determinar la posición de una partícula. Uno pondría un
sistema de coordenadas y especificaría la posición de la partícula como un conjunto de números
reales. De hecho en cualquier experimento en el que midamos a un sistema cuántico siempre
obtendremos un número real como resultado. Correspondiente a cada medición tenemos un estado
del sistema (por ejemplo, la partícula en una dada posición) y, por lo tanto, tenemos un conjunto
de números reales especificando todos los posibles resultados de la medición y un correspondiente
conjunto de estados. Mientras que la especificación de los estados puede depender de la base
elegida, la posición física no lo hace. Por ende, estamos buscando un objeto que nos de números
reales independientemente de la base elegida. Los autovalores de una matriz cumplen con esta
característica, es decir, son independientes de la base que elijamos. Luego, si queremos describir un
observable físico es una buena idea usar un operador e identificar sus autovalores con los resultados
de la medición. Por supuesto, debemos pedir que el operador tenga solo autovalores reales. Todo
esto queda garantizado solo para operadores Hermitianos, lo cual da lugar al siguiente postulado
Postulado N°2: Las cantidades cuánticas observables son descriptas por operadores Hermitianos
en un espacio de Hilbert. Los autovalores del operador Hermitiano son los posibles resultados de
una medición.
Para ilustrar el Teorema de completitud puede resultar util considerar el caso especial de espines
1 / 2. Los kets de base son jSz ; i, que tipicamente denotan la orientacion del espín respecto a la
direccion z. El operador mas simple en este espacio es el operador identidad, que se escribe como
^
1 = j+ih+j + j¡ih¡j
20
donde obviamos Sz para simplificar notacion. De acuerdo a lo visto en el experimento de SG, el
operador de momento angular de espín, en la direccion z, puede construirse directamente a partir
de combinar a los autokets y sus respectivos autovalores, es decir:
~ ~
S^z = j+ih+j ¡ j¡ih¡j
2 2
y la relacion de autoket-autovalor
~
S^z ji = ji
2
los cuales, como podemos ver, son no-hermiticos. El operador S^+, actuando sobre el ket j¡i,
transforma al ket j¡i en el ket j+i, multiplicado por ~. Por otro lado, si se aplica S^+ al ket
j+i, entonces devuelve el ket nulo. De modo que la interpretacion fisica es que el operador sube
la componente de espín en una unidad de ~, si la componente de espín no puede subir mas,
entonces obtenemos automaticamente el estado nulo. De igual forma, S^¡ puede interpretarse como
el operador que baja la componente de espín en una unidad de ~.
Al construir las representaciones matriciales de los operadores de momento angular, es comun
rotular las componentes de momento angular en una columna con orden descendente, es decir, la
primer entrada corresponde a la componente de mayor momento angular, la segunda a la siguiente,
etc. En nuestro caso de espín 1/2 tenemos
1 0
j+i $ j¡i $
0 1
de modo que
~ 1 0 0 1 0 0
S^z $ ^
; S+ $ ~ ^
; S¡ $ ~
2 0 ¡1 0 0 1 0
21
Si queremos reescribir el operador A^ en esta base necesitamos encontrar una transformación entre
la base
Pcanónica y la base ortogonal de los autovectores de A^. Si escribimos los autovectores
N
jii = j=1 ji jej i entonces esta transformación está dada por el operador unitario
0 1
N
X 11 1N
U^ = jiiheij ! U = @
A
i=1 N1 NN
que obviamente mapea un vector jeii al autovector jii. Usando este operador U^ encontramos que
X X
U^ yA^U^ = iU^ yjiihijU^ = i jeiiheij :
i i
Vemos que U^ así definido mapea vectores ortogonales en vectores ortogonales. Utilicemos esto
como la propiedad que define a una transformación unitaria.
Vemos que esto implica que los operadores unitarios preservan el producto escalar y por lo tanto
también la norma de los vectores. Podemos reemplazar la última condición pidiendo que el operador
satisfaga
U^ yU^ = ^1 = U^U^ y :
Investiguemos brevemente las propiedades de los autovalores y autovectores de los operadores uni-
tarios. Sus autovalores no son reales por lo general, pero tampoco son completamente arbitrarios.
Operando en ambos lados con ( ¡ !I)¡1, asumiendo que existe, uno tiene
jV i = ( ¡ !I)¡1j0i
Ahora, cualquier operador finito (es decir, aquel cuyos elementos de matriz son finitos) actuando
sobre el vector nulo solo puede dar un vector nulo. Por lo tanto parece que al buscar un autovector
no nulo jV i, estamos solo obteniendo un vector nulo. Lo que ocurre es que nuestra suposición de
que el operador ( ¡ !I)¡1 existe es falsa. La teoría de matrices nos dice que la inversa de cualquier
matriz M está dada por
cofactor M
M ¡1 =
det M
22
y el cofactor de M es finita si M también. Luego lo que necesitamos es que se anule el determinante.
La condición para autovectores no nulos es entonces:
det( ¡ !I) = 0
y es la ecuación que determina los autovalores !. Para encontrarlos proyectamos la Ec. (4) en una
base. Proyectando ambos lados con un bra hij se tiene
hij( ¡ !I)jV i = 0
n
X
cm! m = 0
m=0
n
X
P n(!) = cm! m
m=0
es el polinomio característico. Si bien el polinomio es determinado en una base particular, los auto-
valores, que son sus raíces, son independientes de la base, ya que están definidos por la Ec. (3.4),
que no hace referencia a ninguna base. Ahora, un resultado fundamental es que cada polinomio de
orden n tiene n raíces, no necesariamente distintas y no necesariamente reales. Luego cada operador
en V n(C) tiene n autovalores. Una vez que los autovalores son conocidos, los autovectores pueden
ser encontrados usando el procedimiento del siguiente ejemplo.
Ejemplo: Utilicemos las ideas que discutimos para encontrar los autovalores y autovectores del
operador Rx( /2). Recordemos que la matriz que lo representa venía dada por
0 1
1 0 0
Rx $@ 0 0 ¡1 A
2
0 1 0
1¡! 0 0
0 ¡! ¡1 = 0
0 1 ¡!
es decir
(1 ¡ !)(! 2 + 1) = 0
con raíces ! = 1; i. Sabemos que ! = 1 corresponde a j1i. Usando ! = 1 en la Ec. (5) encontramos
que las componentes del autovector correspondiente deben obedecer las ecuaciones
0 10 1 0 1
1¡1 0 0 x1 0
@ 0 0 ¡ 1 ¡1 A@ x2 A=@ 0 A
0 1 0¡1 x3 0
23
con lo cual x2 = x3 = 0. Luego cualquier vector de la forma
0 1
x1
x1j1i $@ 0 A
0
es aceptable, como era de esperar. Es usual usar la libertad en la escala para normalizar los
autovectores. Luego en este caso una elección sería
0 1
1
j! = 1i = j1i $@ 0 A
0
Notar que esta no es la única elección, ya que uno podría multiplicar este vector por un número
de módulo unidad sin cambiar la norma. Consideremos ahora las ecuaciones correspondientes a
! = i. Las componentes del autovector obedecen las ecuaciones
(1 ¡ i)x1 = 0 ! x1 = 0
¡ix2 ¡ x3 = 0 ! x2 = ix3
x2 ¡ ix3 = 0 ! x2 = ix3
En este ejemplo hemos introducido una convención popular: rotular los autovectores por su auto-
valor. Por ejemplo, el ket correspondiente a ! = !i es rotulado como j! = !ii o simplemente j!ii.
Esta notación supone que para cada !i hay un único vector asociado. Si bien este no es siempre
el caso, un pequeño cambio en esta notación sera necesario para cubrir el caso general.
j!1i = !j!1i
j!2i = !j!2i
24
Con lo cual
Dado que j!1i y j!2i son ortogonales (y por lo tanto linealmente independientes), encontramos que
hay todo un subespacio (autoespacio) generado por j!1i y j!2i cuyos elementos son autovectores
de con autovalor !. En general si un autovalor ocurre mi veces, habrá un autoespacio V!mi i del
cual podemos elegir mi vectores ortonormales para formar la base que usamos en la prueba del
teorema anterior.
Degeneración
Ahora respondemos la pregunta sobre degeneración que hicimos anteriormente. Lo que vimos recién
es que en el caso de degeneración tenemos una infinidad de bases ortonormales. Veamos mediante
un ejemplo como esta variedad se manifiesta cuando buscamos los autovectores y como se lleva a
cabo.
(! ¡ 2)2! = 0
El caso ! = 2 da lugar a las siguientes ecuaciones para las componentes del autovector
¡x1 + x3 = 0
0 = 0
x1 ¡ x3 = 0
Ahora tenemos solo una ecuación, en vez de dos. Esto es consecuencia de la degeneración. Por
cada aparición extra (sin contar la primera) que hace una raíz, se resta una ecuación. Luego la
degeneración nos da grados de libertad extra más alla del usual debido a normalización. Las
condiciones x1 = x3 y x2 arbitrario definen un ensamble de vectores que son perpendiculares a j! =
0i, i.e. viven en un plano perpendicular a j! = 0i. Esto está de acuerdo con la interpretación de que
una degeneración doble da lugar a una autoespacio bidimensional. La libertad en x2 corresponde a
la libertad en la orientación en este plano. Vamos a elegir en forma arbitraria x2 = 1, para obtener
un autovector normalizado correspondiente a ! = 2 según
0 1
1
1 @ A
j! = 2i $ 1/2 1
3 1
25
El tercer vector, claro está, debe vivir en este plano y ser ortogonal al segundo (obviamente ya es
ortogonal al primero)
0 1
1
1 @
j! = 2; segundoi $ 1/2 ¡2 A
6 1
Claramente, si hubiéramos elegido otro x2, tendríamos otros dobletes de autovectores ortonormales
con autovalor 2.
Notar que ahora j!ii no se refiere a un único ket sino a un elemento genérico del autoespacio V!mi i.
Para referirnos a un elemento particular, podemos usar el símbolo j!i; i, donde rotula el ket en
el autoespacio.
N
X
f (A^) f(ai)jaiihaij:
i=1
Definición: Dada una función f : C ! C que puede ser expandida en series de potencias
1
X
f (z) = fkz k
k=0
entonces definimos
1
X
f (A^) = fkA^k:
k=0
Queda como ejercicio para el lector demostrar que estas definiciones coinciden para operadores
con un conjunto completo de autovectores y funciones que pueden ser expandidas como series de
potencias.
Como ejemplo consideremos un operador Hermitiano A^ con autovalores ak y autovectores jak i y
calculemos U^ = eiA. Tenemos que
^
N
X
^
eiA = eiak jak ihak j:
k=1
Este es un operador que tiene autovalores de la forma eiak con ak real. Por lo tanto es un operador
unitario, lo cual se puede verificar directamente mediante el requerimiento U^ yU^ = ^1 = U^U^ y. De
hecho, es posible demostrar que cualquier operador unitario puede ser escrito de esta forma, lo que
se captura en el siguiente enunciado:
26
Lema: Para cualquier operador unitario U^ existe un operador Hermitiano H
^ tal que
U^ = eiH :
^
Si tenemos funciones es muy probable que nos encontremos con sus derivadas. Veamos entonces
cómo calcularlas. Para tomar una derivada no solo necesitamos un operador, sino más bien una
familia de operadores que esté parametrizada por un parámetro real s. Ahora podemos definir la
derivada respecto a s en total analogía con la derivada de una función escalar
Esto implica definir la derivada de un operador componente a componente. El orden de los opera-
dores juega un rol crucial, por ejemplo, para cualquier par de operadores lineales A^(s) y B
^ (s) se
cumple que
d(A^B
^) dA^ ^
^ (s) + A^(s) dB (s):
(s) = (s)B
ds ds ds
También es posible tener funciones de operadores que dependen de más de una variable. Un ejemplo
importante es el conmutador de dos operadores.
[A^; B
^ ] = A^B
^ ¡B
^A^:
El producto de dos operadores implica que los operadores sean aplicados en secuencia
A^B
^ j i = A^(B
^ j i):
Mientras que el conmutador entre escalares (que podemos ver como matrices 1 1) es siempre cero,
este no es el caso para matrices en general. Si ocurre que el conmutador entre dos operadores es
cero, decimos que esos operadores conmutan.
De particular importancia en Mecánica Cuántica es el siguiente lema, ya que garantiza que dos
observables que conmutan pueden ser simultáneamente medidos sin incerteza.
Existe una relación de mucha utilidad entre el conmutador y la derivada de una función. Primero
definamos la derivada de una función de un operador respecto a dicho operador.
^ ; f (A^)] = df (A^):
[B
dA^
27
Lema. Fórmula de Baker-Campbell-Haussdorff: Para operadores generales A^ y B
^ se
cumple que
^ ^ ^ ; A^] + 1 [B
e+BA^e¡B = A^ + [B ^ ; [B
^ ; A^]] + :::
2
j!ii = !i j!ii
j!ii = !ij!ii
Dado que [ ; ] = 0,
j!ii = !ij!ii
esto es, j!ii es un autovector de con autovalor !i. Como este vector es único a menos de un
factor de escala
j!ii = i j!ii
Luego j!ii es también un autovector de con autovalor i. Entonces, ya que cada autovector de
es autovector de , es evidente que la base j!ii va a diagonalizar ambos operadores. Dado que
asumimos no degenerado, hay una sola base con esta propiedad.
¾Qué ocurre si ambos operadores son degenerados? Ordenando los elementos de la base tal que los
elementos de cada autoespacio sean adyacentes, podemos obtener uno de los operadores, digamos
, en la forma
0 1
!1
B C
B !1 C
B C
B C
B C
B !1 C
$B C
B !2 C
B C
B C
B C
@ !m A
!m
Ahora esta base no es única: en cada autoespacio V!mi i Vimi correspondiente al autovalor !i, existe
una infinidad de bases. Tomemos en forma arbitraria en Vimi un conjunto j!i; i, donde el rótulo
corre desde 1 hasta mi. ¾Qué forma toma en esta base? Comencemos en forma similar al caso
no degenerado:
j!i; i 2 Vimi
28
Ahora bien, dado que los vectores de diferentes autoespacios son ortogonales, tenemos
h!j ; jj!i; i = 0
lo cual se llama diagonal por bloques. Dentro de cada subespacio i, viene dado por una matriz
i, que aparece como un bloque en la ecuación de arriba. Consideremos una matriz i en Vimi.
Esta es Hermítica ya que lo es. Puede ser diagonalizada canjeando la base j!i; 1i; j!i; 2i; :::;
j!i; mii con la que comenzamos por la autobase de i. Hagamos entonces tal cambio de base en
cada bloque, de modo que adquiera una forma diagonal. ¾Qué ocurrirá con ? Va a permanecer
diagonal, ya que no importa la elección de la base ortonormal en cada autoespacio degenerado.
Se deja como ejercicio leer el ejemplo 1.8.6 del Shankar, donde se exponen todas estas discusiones
en un modo muy concreto y se incluyen otras definiciones (propagador y modos normales) que
servirán para el curso.
^ j!i = !j!i
donde ^ es un operador (de ahora en adelante usaremos el símbolo sombrero para denotar
operadores) y ! es un número. Para establecer la analogía, reemplazamos el símbolo de Kronecker
por la función Delta de Dirac, y transformamos la suma discreta por una integral, es decir
29
4.2 Autokets de posición
Para ilustrar el caso de un operador con espectro continuo, vamos a considerar el operador de
posición (o coordenada) en una dimensión. Los autokets jxi del operador posición x^ que satisfacen
x^ jxi = xjxi
se asumen que forman un conjunto completo. Aquí x es solo un número con unidades de distancia,
mientras que x^ es un operador. Un estado físico arbitrario, descipto por un ket j i, puede expan-
dirse en términos de jxi según
Z 1
j i= dx hxj ijxi
¡1
Es probable que uno ya haya identificado a hxj i con la función de onda asociada al estado físico
representado por j i.
La noción de un autoket de posición puede extenderse a tres dimensiones. Se asume que los autokets
de posición jxi son completos. El estado de una partícula puede expandirse en términos de jxi como
Z
j i= d 3x hxj ijxi
donde jxi jx; y; zi es un autoket simultáneo de los operadores x^; y^; z^, es decir
Para ser capaces de considerar tal autoket, estamos asumiendo implícitamente que las tres compo-
nentes del vector posición pueden medirse en forma simultánea a un grado de precisión arbitrario,
lo cual nos dice que debemos tener:
[x^i; x^j ] = 0
donde x^1; x^2; x^3 hacen las veces de x^; y^; z^.
4.3 Traslación
Ahora introducimos el concepto de traslación o desplazamiento espacial. Supongamos que comen-
zamos con un estado que está bien localizado alrededor de x. Consideremos una operación que
cambia este estado en otro estado bien localizado, pero esta vez alrededor de x + dx, aunque
manteniendo los grados de libertad restantes intactos. Esta operación se define como una traslación
infinitesimal en dx, y el operador que realiza esta tarea es J^(dx), tal que
J^(dx)jxi = jx + dxi
donde, por convención, cualquier posible factor de fase arbitrario se pone como la unidad. Al
expandir un estado arbitrario j i en términos de los autoestados de la posición, podemos examinar
el efecto del operador de traslación sobre j i, es decir
Z
J^(dx)j i = d 3x hxj ijx + dxi
30
lo que nos dice que la función de onda del estado trasladado J^(dx)j i se obtiene reemplazando a
x por x ¡ dx en hxj i.
Hay una forma equivalente para la traslación. En vez de considerar una traslación infinitesimal del
sistema físico, consideramos un cambio en el sistema de coordenadas usado, tal que el origen es
corrido en la dirección opuesta, ¡dx. Físicamente, en esta otra forma estamos preguntando cómo
el mismo estado se vería para otro observador cuyo sistema de coordenadas está corrido en ¡dx.
Ahora listamos las propiedades del operador traslacional infinitesimal.
1) Deseamos unitariedad, impuesta por conservación de probabilidad. Es razonable requerir que
si el ket j i está normalizado, el ket trasladado J^(dx)j i también lo esté, y entonces
h j i = h jJ^y(dx)J^(dx)j i
Esta condición se satisface pidiendo que J^ sea unitario, es decir J^y(dx)J^(dx) = ^1. Generalmente,
la norma de un ket se preserva bajo transformaciones unitarias.
2) Supongamos que consideramos dos traslaciones infinitesimales sucesivas, primero por dx y
luego por dx 0, donde ambos elementos no necesitan estar en la misma dirección. Esperamos que
el resultado neto sea una única traslación en el vector suma dx + dx 0, por lo que pedimos que
3) Supongamos que consideramos una traslación en la dirección opuesta. Esperamos que esta
traslación sea la misma que la inversa de la traslación original
J^(¡dx) = J^¡1(dx)
lim J^(dx) = ^1
dx!0
^ dx
J^(dx) = ^1 ¡ iK (6)
donde las componentes de K^ son operadores Hermíticos, entonces todas las propiedades anteriores
se cumplen. Para la primer propiedad, si reemplazamos se tiene
J^y(dx)J^(dx) = [1 ^ dx][1^ ¡ iK
^ + iK ^ dx] = ^1 + O[(dx)2] ' ^1
donde los términos de segundo orden pueden ignorarse para una traslación infinitesimal. La segunda
propiedad puede probarse como
^J^(dx)jxi = x
x ^jx + dxi = (x + dx)jx + dxi
31
y
J^(dx)x
^ jxi = xJ^(dx)jxi = xjx + dxi
por lo que
donde el error es de segundo orden en dx. Ahora jxi puede ser cualquier autoket de posición, los
cuales forman un conjunto completo, con lo que tenemos una identidad entre operadores
^; J^(dx)] = dx
[x
o bien
^ dx) + i(K
^(K
¡ix ^ dx)x
^ = dx
^j ] = iij
[x^i; K
Esto implica, por ejemplo, que x y px son observables incompatibles, dando lugar a una relación
de incerteza
~
xpx >
2
Hasta ahora hemos considerado el caso infinitesimal para las traslaciones. Una traslación finita,
en todo caso, puede obtenerse a partir de aplicar en forma sucesiva una serie de traslaciones
infinitesimales. Consideremos una traslación finita en la dirección x por una cantidad x,
J^(xe^x)jxi = jx + xe^xi
32
Al componer N traslaciones infinitesimales, cada una de ellas caracterizable por un desplazamiento
infinitesimal x/N en la dirección x y tomando N ! 1, obtenemos
N
J^(xe^x) = lim ^1 ¡ i p^x x i
= exp ¡ p^xx
N !1 ~ N ~
donde exp(¡ip^xx/ ~) se entiende como una función del operador p^x. Una propiedad fundamental
de las traslaciones es que sucesivas traslaciones en direcciones diferentes, digamos en las direcciones
x e y, conmutan entre sí, con lo cual
Vemos que el autoket de momento permanece igual, de modo que es un autoket de J^(dx), lo cual
uno puede anticipar pues
[p^; J^(dx)] = 0
x^ jxi = xjxi
hx 0jxi = (x 0 ¡ x)
Tomando entonces el ket j i que representa un estado del sistema en términos de jxi
Z
j i= dxhxj ijxi
jhxj ij2dx
33
es la probabilidad de que la partícula sea hallada en un intervalo dx alrededor de x. En nuestro
formalismo el producto interno hxj i es lo que llamamos función de onda del estado j i, i.e.
(x) = hxj i
y entonces h j i caracteriza la superposición entre las dos funciones de onda. Notar que no estamos
definiendo a h j i como la integral de superposición, sino que esta identificacion surge de la relación
de completitud que asignamos a jxi. La interpretación más general para h j i, independiente de
la representación, es que representa la amplitud de probabilidad del estado j i de ser encontrado
en el estado j i.
Ahora interpretemos la expansión
X
j i= h j ij i
utilizando el lenguaje de las funciones de onda. Si multiplicamos por el autobra de posición hxj
obtenemos
X
hxj i = h j ihxj i
Examinemos entonces cómo escribir h jA^ j i en términos de las funciones de onda asociadas a
estos estados:
Z Z Z Z
h jA^ j i = dx 0
dxh jx ihx jA^ jxihxj i =
0 0
dx 0
dx
(x 0)hx 0jA^ jxi (x)
Entonces para poder evaluar a h jA^ j i, debemos conocer el elemento de matriz hx 0jA^ jxi el cual,
por lo general, puede ser función de x y x 0. Esto, sin embargo, toma una enorme simplificación si
por ejemplo el observable A es función del operador posición. En particular consideremos:
A^ = x^2
hx 0jx^2jxi = x2(x 0 ¡ x)
y, en general,
Z
h jf (x^)j i = dx
(x)f (x) (x) (7)
34
donde debemos notar que f a la izquierda es un operador, mientras que a la derecha es un número.
Los autokets de momento generan el espacio ket de forma similar a los autokets de posicion. Un
estado arbitrario j i puede ser expandido en términos de estos kets como
Z
j i= dp hpj ijpi
jhpj ij2dp
35
Ahora establezcamos la conexión entre las representaciones x y p. Recordemos que en el caso
de espectros discretos, el cambio de base desde el viejo conjunto al nuevo está caracterizado por
una matriz ortogonal de transformación. Igualmente, esperamos que la misma información de
transformación esté contenida en hxjpi, la cual es una función de x y p, usualmente conocida como
función de transformación de la representación x a la representación p. Para encontrar su forma
explícita, recordemos la ecuación de arriba
@
hxjp^j i = ¡i~ hxj i
@x
@
hxjp^jpi = ¡i~ hxjpi
@x
o, análogamente,
@
phxjpi = ¡i~ hxjpi
@x
cuya solución es
i
hxjpi = N exp px
~
donde N es la función de normalización que será determinada en breve. Entonces esto puede ser
visto como la amplitud de probabilidad de que el autoestado de momento, especificado por jpi sea
encontrado en la posición x. En otras palabras es la función de onda asociada al autoestado jpi,
a menudo referida como autofunción de momento en el espacio x. Y lo que dice esta ecuación es
que dicha autofunción es una onda plana. Para obtener la constante de normalización, consideremos
Z
hx jxi =
0
dphx 0jpihpjxi
con lo cual
Z
i
(x 0 ¡ x) = jN j2 dp exp p(x 0 ¡ x) = 2~jN j2(x 0 ¡ x)
~
y entonces
1 i
hxjpi = p exp px
2~ ~
Ahora entonces podemos relacionar a la función de onda en el espacio de posición con la función
de onda en el espacio de momento. Dado que
Z Z
hxj i = dp hxjpihpj i hpj i = dx hpjxihxj i
obtenemos
Z
1 i
(x) = p dp exp + px (p)
2~ ~
Z
1 i
(p) = p dx exp ¡ px (x)
2~ ~
36