Capitulo 5
Capitulo 5
2. Productos escalares
Consideremos un espacio vectorial V , sobre un cuerpo K. Para definir el análogo
a la proyección ortogonal de un vector sobre otro, tal como estamos acostumbrados a
hacer en R3 , es necesario definir una aplicación que, tomando dos vectores, proporcio-
ne un número. Número que, grosso modo representa la parte de uno de los vectores
que podemos encontrar en el otro.
Este es el producto escalar al que estamos más acostumbrados por su uso geométrico,
sobre todo sobre R3 .
Ejemplo 5.2. Un ejemplo también muy sencillo corresponde al análogo al caso
anterior sobre los números complejos. Consideremos entonces una forma sesquilineal
definida sobre Cn , por el producto
1
* z1 w +
.. .. X
n n
h·|·i : C × C → C . | . = z̄ j w j
zn wn j
2. PRODUCTOS ESCALARES 127
Es inmediato verificar que la aplicación es lineal en ambos argumentos (por los teore-
mas clásicos de cálculo integral sobre R), que es simétrica (porque lo es el producto
de funciones). La definición positiva es también inmediata por tener una integral de
una función no negativa (f 2 (x)).
Es inmediato verificar que la aplicación es lineal en ambos argumentos (por los teo-
remas clásicos de cálculo integral sobre C), que es simétrica por conjugación. La
definición positiva es también inmediata por tener una integral de una función no ne-
gativa (|f (x)|2 ). Este será el tipo de producto escalar que usaremos de forma habitual
en sistemas de Mecánica Cuántica.
Lema 5.1. Sea V un espacio vectorial complejo. Entonces, para tres vectores
cualesquiera |v1 i, |v2 i, |v3 i ∈ V y escalares λ1 , λ2 ∈ K se cumple:
con lo cual:
hλ1 v2 + λ2 v3 |v1 i = λ1 hv1 |v2 i + λ2 hv1 |v3 i = λ̄1 hv2 |v1 i + λ̄2 hv3 |v1 i.
Esta definición relaja dos de las condiciones con las que contamos en el producto
escalar: no hay vectores que se anulen al multiplicarlos por sí mismos, y no hay vectores
que se anulen al multiplicarlos por todos los demás del espacio. Esta segunda condición
resulta muy útil en algunas circunstancias, y es por ello que nos interesa conservarla:
Definición 5.7. Sea V un espacio vectorial real. Consideremos una forma bilineal
F :V ×V →R
que cumple
es simétrica, es decir
hv1 |v2 i = hv2 |v1 i ∀|v1 i, |v2 i ∈ V
es no degenerado, entendiendo este concepto como que no existe ningún
vector |v1 i ∈ V que cumpla que
F (|v1 i, |w i) = 0 ∀|w i ∈ V
Diremos que V está dotado de un pseudoproducto escalar no degenerado.
El ejemplo más usado vendrá dado por el producto escalar definido por Minkowski
Ejemplo 5.5. Consideremos el espacio vectorial R4 y la forma bilineal definida en
la forma: 0 0
x y
x 1 y 1
η 2 , 2
= −x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3 .
x y
x3 y3
El espacio (R4 , η) recibe el nombre de espacio de Minkowski.
Desde un punto de vista físico, tomaremos el espacio de Minkowski como el
espacio de referencia en cualquier problema definido de acuerdo al marco de la teoría
de la relatividad especial. Veremos algunas de sus propiedades a lo largo del presente
capítulo.
Desde el punto de vista matemático, el espacio de Minkowski es un ejemplo sen-
cillo de espacio hiperbólico, una de las manifestaciones de las llamadas geometrías
no euclídeas.
2.3. Formas cuadráticas. Una de las aplicaciones de las formas, en este caso
hermíticas, son las llamadas formas cuadráticas:
Definición 5.8. Sea V un espacio vectorial y F una forma hermítica definida sobre
él. Definiremos como forma cuadrática a la aplicación
Q:V →R Q(|v i) = F (|v i, |v i). (208)
Hay que notar el hecho de que haber exigido la hermiticidad de F garantiza que
la imagen de Q está efectivamente en el cuerpo real y no en el complejo.
Una propiedad inmediata por construcción es
Lema 5.4. La forma cuadrática es homogénea de grado dos, en el sentido de
Q(α|v i) = |α|2 Q(|v i) ∀α ∈ K, ∀|v i ∈ V. (209)
Si pensamos en un análogo de cuerpos de números, la forma cuadrática represen-
taría el análogo del módulo de un número complejo, a su vez representado por la forma
sesquilineal F . Lo importante es que la condición de hermiticidad es suficientemente
fuerte como para determinar unívocamente la forma cuadrática:
130 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
1
F (|v1 i, |v2 i) = (Q(|v1 i + |v2 i) − Q(|v2 i − |v1 i) + i Q(|v2 i + i |v1 i) − i Q(|v2 i − i |v1 i))
4
Con esta última, es inmediato reconocer la hermiticidad de la forma resultante.
Demostración. Basta con tener en cuenta el hecho de que todo vector tiene una
descomposición única respecto a la base dada.
Definición 5.9. Sea F una forma bilineal definida sobre un espacio vectorial V y
{|ej i} una base. Entonces, la expresión de F queda perfectamente determinada por
la matriz
Λjk = F (|ej i, |ek i),
escribiendo que: X
F (|v i, |w i) = v̄ j Λjk w k . (210)
jk
Podemos escribir el producto bajo una expresión matricial representando uno de
los vectores como un vector fila y el otro como un vector columna:
1
Λ11 . . . Λ1n w
n .. . .. ...
.
α β
1
= v † Λw , (211)
..
F (|v i, |w i) = v Λαβ w = v̄ . . . v̄ .
Λn1 . . . Λnn wn
donde representamos por v † = v̄ T el vector fila formado por el traspuesto del vector
columna que forman las coordenadas conjugadas, y por w el vector columna definido
por las coordenadas de |w } en la base considerada.
Si esta relación es cierta, tenemos que ser capaces de leer las propiedades del
producto escalar que representan a partir de las expresiones de las matrices:
Lema 5.6. Sea V un espacio vectorial real y consideremos la matriz Λ como la
representante de la forma bilineal correspondiente a un producto escalar. Entonces:
Λ es una matriz simétrica, es decir
ΛT = Λ
ker Λ = {~0}
Demostración. Basta emplear la expresión de la ecuación (210) y escribir la con-
dición de simetría del producto:
(
(v T Λw )T = w T ΛT v
hv |w i = hw |v i ⇒ F (|v i, |w i) = F (|w i, |v i) ⇒ v T Λw =
w T Λv .
Donde hemos usado que el traspuesto de un número debe ser igual a él mismo. Como
esta relación se debe cumplir para vectores |v i y |w i cualesquiera, se sigue la relación
buscada:
ΛT = Λ
La condición sobre el núcleo se prueba por reducción al absurdo: supongamos que el
núcleo tiene dimensión mayor que cero. Esto supone que existe un vector tal que
Λv = ~0 ⇒ v T Λv = 0
Pero esto va en contra de la hipótesis de que el producto es un producto escalar. Esto
concluye la prueba.
Lema 5.7. Sea V un espacio vectorial complejo y consideremos la matriz Λ co-
mo la representante de la forma hermítica correspondiente a un producto escalar.
Entonces:
Λ es una matriz hermítica, es decir
Λ† = (Λ∗ )T = Λ
132 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
ker Λ = {~0}
Lema 5.8. Sea F una forma sesquilineal definida sobre un espacio vectorial V .
Si consideramos dos bases diferentes de V , {|ej i} y {|wα i}, las representaciones
matriciales de F en una y otra están relacionadas por la expresión
(ΛF )αβ = (C † )kα (ΛF )kj Cβj , (212)
Ejercicio 5.2. Demostrar que el valor del producto escalar hv1 |v2 i no depende de
la representación coordenada elegida.
Definición 5.10. Sea F una forma sesquilineal. Llamaremos rango de F al rango
de una cualquiera de sus expresiones matriciales.
La comprobación es inmediata:
he1 |e2 i = 1 ∗ 0 + 0 ∗ 1 = 0
Sin embargo, esto podría no ser cierto para un producto escalar diferente, por
ejemplo, un producto escalar definido por la matriz
2 2
AF = .
2 5
Efectivamente,
2 2 0
he1 |e2 i = 1 0 = 2.
2 5 1
De este ejemplo aprendemos por consiguiente que el concepto de ortogonalidad
está ligado al producto escalar del espacio donde se consideran definidos los vectores.
Si el producto escalar cambia, dos vectores ortogonales respecto a un producto escalar
pueden no serlo respecto al otro, y viceversa.
Sin embargo, una vez hemos fijado el producto escalar, la ortogonalidad nos va a
permitir obtener una serie de propiedades interesantes:
Proposición 5.1. Sea V un espacio vectorial con producto escalar. Consideremos
un conjunto de vectores no nulos {|vj i}, ortogonales entre sí. Entonces, los vectores
son linealmente independientes.
Demostración. Consideremos una combinación lineal igualada a cero:
X
~0 = λj |vj i.
j
Como el producto escalar no permite que hvj |vj i sea igual a cero si los vectores son
no nulos, concluimos que
λj = 0.
Podemos repetir la proyección sobre cualquier elemento de la familia, lo que conduce
a: X
~0 = λj |vj i ⇒ λj = 0 ∀j
j
134 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
Definición 5.12. Sea V un espacio vectorial con producto escalar y {|vj i} una
familia de vectores ortogonales entre sí. La familia se dice ortonormal si se verifica
que
hvi |vi i = 1 ∀i (213)
Toda familia ortogonal puede convertirse en ortonormal sin más que reescalar los
vectores, esto es, si {|vj i} es ortogonal, entonces
|vk i
{|wk i} |wk i = p
hvk |vk i
es una familia ortonormal.
3. Ortogonalidad y ortonormalidad
3.1. Teorema de Gram-Schmidt. Sabemos que podemos definir bases para
espacios vectoriales de muy diverso tipo, siempre que sean de dimensión finita. Sin
embargo, es razonable pensar que la introducción de una nueva estructura como es
el producto escalar, va a imponer sobre la elección de bases algunas propiedades
adicionales cuyo estudio es precisamente lo que queremos tratar en esta sección.
Hemos visto ya cómo la introducción de un producto escalar permitía re-escribir
la independencia lineal en términos de la ortogonalidad. Nos queda por determinar un
mecanismo para garantizar la completitud del conjunto como conjunto generador de
todo el espacio. Para ello, vamos a ver, en primer lugar, como dados dos vectores,
siempre podemos modificar uno de ellos para hacerlo ortogonal a otro dado:
Lema 5.9. Sea V un espacio vectorial con producto escalar. Entonces, dados dos
6 ~0, el vector
vectores cualesquiera |v1 i, |v2 i ∈ V , con |v1 i =
hv1 |v2 i
|w i = |v2 i − |v1 i (214)
hv1 |v1 i
es ortogonal a |v1 i.
hv1 |v2 i
hv1 |w i = hv1 |v2 i − hv1 , v1 i = 0
hv1 |v1 i
136 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
..
.
n−1
X hwt |vn i
|wn i = |vn i − |wt i
t=1
hwt |wt i
Dado que los vectores {|wt i}t=1,...,N generan el mismo subespacio vectorial que los
vectores {|vt i}t=1,...,N , por ser combinaciones lineales de ellos, comprobamos que
N−1
X
|wN+1 i = ~0 ⇒ |vN+1 i = λt |vt i.
t=1
Una vez que hemos probado la posibilidad de construir una base ortogonal, es
trivial que dicha base esté formada por vectores ortonormales:
Corolario 5.1. Sea V un espacio vectorial con producto escalar y {|vj i} una base
arbitraria. Entonces, siempre podemos definir una base {|ej i} de vectores ortonormales
entre sí.
3. ORTOGONALIDAD Y ORTONORMALIDAD 137
Ejemplo 5.8. Si consideramos el caso de R3 con el producto escalar euclídeo, en
realidad esta descomposición es la que usamos siempre para representar vectores:
v = x î + y ĵ + z k̂
con
x = hv , î i, y = hv , ĵi, z = hv , k̂i
Ejercicio 5.5. Consideremos de nuevo el caso de las funciones definidas en el
intervalo [−π, π] que analizamos en el Ejercicio 5.4. Escribir la descomposición de
una función cualquiera respecto a la base ortonormal obtenida allí.
Una vez que hemos aprendido cómo definir la descomposición de vectores, pode-
mos re-escribir las propiedades de las bases en términos de los productos escalares y
las bases. Las vamos a resumir en una serie de propiedades equivalentes entre sí:
Teorema 5.3. Sea V un espacio vectorial con producto escalar y B = {|ej i} un
conjunto de vectores ortonormales del mismo. Entonces, las siguientes afirmaciones
son equivalentes:
1. el conjunto B es completo, es decir, no se puede ampliar con ningún otro
vector ortonormal a todos ellos.
2. Si se cumple que
hx|ej i = 0 ∀j,
entonces
x = ~0.
3. B es una base de V .
4. Si |xi ∈ V , entonces
X
|xi = hej |xi|ej i
j
6. Si |xi ∈ V entonces
X
hx|xi = |hej |xi|2 (218)
j
Pero por hipótesis hu|wk i = 0 para todos los elementos de la base. Por tanto,
hu|ωi = 0 ∀|ωi ∈ W.
Esto completa la prueba.
Y esto permite definir un buen complemento:
Teorema 5.4. Sea V un espacio vectorial con producto escalar y W un subespacio
vectorial. Entonces,
V = W ⊕ W⊥
Demostración. Tenemos que probar tres cosas:
W ⊥ es un subespacio vectorial de V ,
W ∩ W ⊥ = ~0
V = W + W ⊥.
La primera condición se deduce de la linealidad del producto escalar. Si |w1 i y |w2 i
son dos elementos arbitrarios de W ⊥ y por consiguiente cumplen que
hu|w1 i = 0 = hu|w2 i,
una combinación lineal arbitraria en la forma
α1 |w1 i + α2 |w2 i α1 , α2 ∈ K,
satisface que:
hu|(α1 |w1 i + α2 |w2 i) = α1 hu|w1 i + α2 hu|w2 i = 0
La segunda condición es también sencilla puesto que si tomamos un elemento
|w i ∈ W ∩ W ⊥ ,
el producto escalar consigo mismo debe anularse (dado que es un elemento del espacio
y del complementario ortogonal). Pero esto es imposible, por los axiomas del producto
escalar, salvo en el caso de que sea el vector nulo.
Finalmente, para probar la tercera condición, consideremos una base ortogonal
{|wi i} para el subespacio W (sabemos que siempre existe por el Teorema 5.2). Dado
3. ORTOGONALIDAD Y ORTONORMALIDAD 141
Pero entonces, si proyectamos sobre |zi ∈ (ker f )⊥ la proyección debe ser nula:
hz|w i = 0 ⇒ f (x)hz|zi − f (z)hz|xi = 0 ⇒ f (x) = f (z)hz|xi = hf (z)z|xi.
Por tanto, hemos determinado un elemento de V , en concreto f (z)|zi cuya proyección
sobre cualquier vector de V es igual al valor que el funcional f toma sobre ese vector.
Esto prueba la existencia.
La unicidad se prueba de forma más sencilla: imaginemos que existen dos vectores
de V que satisfagan la condición anterior:
(
hz1 |xi
f (x) =
hz2 |xi
En este caso, si consideramos el vector diferencia:
hz1 − z2 |xi = 0 ∀|xi ∈ V.
Pero esto es imposible si h·|·i es un producto escalar a no ser que |z1 − z2 i = ~0. Es
decir, a no ser que |z1 i = |z2 i. Esto prueba la unicidad y completa la prueba.
Corolario 5.2. Sea un espacio vectorial V de dimensión finita, sobre los números
complejos, es decir, K = C. Entonces, existe una relación L : V → V ∗ uno a uno
entre V y su espacio vectorial dual V ∗ , que es un isomorfismo conjugado, es decir:
L(γ1 |v1 i+γ2 |v2 i) = γ̄1 L|v1 i+γ̄2 L|v2 i ≡ γ̄1 hv1 |+γ̄2 hv2 | ∀γ1 , γ2 ∈ C ∀|v1 i, |v2 i ∈ V
Corolario 5.3. Cuando el espacio vectorial está definido sobre los reales, un es-
pacio vectorial y su dual son isomorfos.
Lema 5.13. Sea V un espacio vectorial con una forma hermítica F . Entonces,
dados dos vectores cualesquiera |v1 i, |v2 i ∈ V , con |v1 i no isótropo, el vector
F (|v1 i, |v2 i)
|w i = |v2 i − |v1 i (225)
F (|v1 i, |v1 i)
satisface que F (|v1 i, |w i) = 0.
Lema 5.14. Sea V es un espacio vectorial y F una forma hermítica. Sobre él,
consideremos una familia {|vj i} de vectores no isótropos y mutuamente ortogonales.
Entonces, si |v i ∈ V es un vector que satisface
|v i ∈
/ span{|vj i},
el vector
X F (|vk i, |v i)
|w i = |v i − |vk i (226)
F (|vk i, |vk i)
k
4.2. Ley de Inercia de Sylvester. Y una vez conocido este resultado, podemos
probar ya el resultado de Sylvester:
Teorema 5.8 (Ley de inercia de Sylvester). Sea V un espacio vectorial de dimen-
sión n y F una forma hermítica. Entonces, la expresión matricial de F en cualquier
base de V tiene k+ autovalores positivos, k− autovalores negativos y k0 = n − k+ − k−
autovalores nulos.
Demostración. Vamos a probar el resultado en dos etapas:
primero, vamos a ver que siempre existe una base con esas características,
después probaremos que en cualquier otra base el número de vectores de cada
tipo es el mismo.
1. La primera parte se prueba por inducción. Vamos a considerar que existe
al menos un vector |v i ∈ V que es no isótropo. Caso de no existir, todos
los vectores serían isótropos y por consiguiente F tendría como expresión la
matriz nula en cualquier base. Pero la matriz nula satisface el teorema.
Suponemos entonces que existe al menos un vector no isótropo. En ese
caso, probaremos primero que todo subespacio W admite una base de vecto-
res mutuamente ortogonales. Lo haremos por inducción en la dimensión del
subespacio:
Si dimW = 1 es automático.
Supongamos pues que existe una base ortogonal para cualquier subes-
pacio de dimensión k y probemos que podemos construir una para un
subespacio de dimensión k + 1. Consideremos pues un subespacio W , de
dimensión k + 1 en el que estaría contenido el vector |v i. Hemos visto,
que podemos escribir que
W = K(|v i) ⊕ (K(|v i)⊥ ∩ W ).
Pero ahora, para el subespacio (K(|v i)⊥ ∩ W ) que es de dimensión k
sabemos que existe una base ortogonal {|w1 i, . . . |wk i}. Por tanto, el
conjunto
BW = {|v i, |w1 i, . . . |wk i}
146 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
formados por los vectores que tienen “norma” positiva en la base uno y los
que no tienen norma positiva en la base dos.
Supongamos, por ejemplo, que k+1 > k+2 . Dado que la forma F es intrín-
seca, es evidente que la intersección
A ∩ B = ~0.
Dado que ambos son subespacios de V , tendríamos que
V = A ⊕ B ⇒ dim(A ⊕ B) = k+1 + (n − k+2 ) > n = dim V.
Pero esto es absurdo, por lo que debemos concluir que k+1 = k+2 .
De una forma completamente análoga, escogiendo:
C = span{|vk11 +1 i, . . . , |vk11 +k 1 i} D = span{|v12 i, . . . , |vk22 i}∪{|vk21 +k 1 +1 i, . . . , |vn2 i}
+ + − + + −
Por la relación que hemos visto entre las formas cuadráticas y las formas hermí-
ticas, es evidente que el mismo resultado se extiende trivialmente a la clasificación de
formas cuadráticas, que es el contexto en el que Sylvester probó su resultado.
También es evidente que el valor de las normas en sí mismas no es relevante,
dado que siempre se puede reescalar por un valor, y hacer que sean iguales a uno.
Esto quiere decir que, en la base (229), podemos redefinir los vectores en la forma:
positivos negativos
z }| { z }| { nulos
1 1 1 1 z }| {
|v1 i, . . . , |vk+ i, |vk+ +1 i, . . . , |vk+ +k− i, |vk+ +k− +1 i, . . . , |vn i
N1
Nk+ Nk+ +1 Nk+ +k−
donde
si la “norma” es positiva,
q
Nj = F (|vj i, |vj i) j = 1, . . . , k+
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 147
y si es negativa
q
Nj = −F (|vj i, |vj i) j = k+ + 1, . . . , k+ + k−
En consecuencia, cualquier forma hermítica F admite una base en la que la matriz
que representa a F resulta ser:
1
..
.
1
−1
Λ= ..
(230)
.
−1
0
..
.
0
Nótese que este es el caso más general de todas las formas hermíticas:
si la forma es no degenerada y definida positiva, la expresión anterior corres-
ponde a la matriz identidad. Este es el caso de los productos escalares sobre
Rn o C n .
si la forma es no degenerada y definida negativa, la expresión es igual al
opuesto de la matriz identidad
si la forma es no degenerada, la matriz tendrá k+ elementos iguales a uno
y k− = n − k+ elementos iguales a menos uno. Este es el caso del pseudo-
producto escalar del espacio de Minkowski,
finalmente, podremos hablar de formas no negativas o no positivas para aque-
llas formas hermíticas en las que k− = 0 o k+ = 0, respectivamente.
4.3. Métodos para reducción de una forma hermítica a forma diagonal. La
ley de inercia de Sylvester asegura la existencia de una base en que la matríz de la
forma hermítica (o equivalentemente, de la forma cuadrática asociada) es diagonal.
Para encontrar tale base, tenemos dos maneras: la primera es dada por el:
Teorema 5.9 (Teorema de Gauss-Lagrange). Si Φ es una forma cuadrática aso-
ciada a una forma hermítica, existe en V un cambio de base para reducir Φ a su forma
canónica (diagonal).
La demostración
P i se hace por inducción sobre la dimensión n del espacio vectorial. Sea
|xi
Pn = i x |ei i la expresión de un vector genérico sobre una base arbitraria; Φ(|xi) =
Λ
i,j=1 ij x̄ i j
x . Si n = 1, Φ(|xi) = Λ11 |x 1 |2 está en forma canónica. Supongamos que
la propiedad vale por n = m − 1 y demostramos que es cierta para m. Tenemos que
considerar dos casos:
1. existe un índice i tal que Λii 6= 0
2. ∀i , Λii = 0
En el primer caso, supongamos Λ11 6= 0. Entonces, podremos reescribir la Φ como
m
X m
X m
X
Φ(|xi) = Λ1,1 |x 1 |2 + x̄ 1 Λ1j x j + x 1 Λ̄1j x̄ j + Λij x̄ i x j (231)
j=2 j=2 i,j=2
148 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR
Llamando 2
X m m
1 X
Φ1 (x 2 , . . . , x m ) = − Λ x
1j
j
+ Λij x̄ i x j (232)
Λ1,1
j=2 i,j=2
tendremos
1
Φ(|xi) = |y 1 |2 + Φ1 (y 2 , . . . , y m ) (235)
Λ1,1
Pero, por hipótesis de inducción existirá un cambio de variables para reducir a forma
canónica la forma cuadrática Φ1 en las m − 1 variables, así que utilizando ese cambio
de coordenadas, junto con la definición de y 1 , tendremos un cambio de coordenadas
que hace canónica la forma Φ.
En el segundo caso, existirá por lo menos un coeficiente Λi,j 6= 0, con (i 6= j):
supongamos que sea el Λ1,2 . Recordamos que Λ2,1 = Λ̄1,2 . Entonces, con el cambio
de variables:
y 1 = x 1 + x 2, y 2 = x 1 − x 2 y 3 = x 3 y m = x m (236)
la forma cuadrática se transforma en:
1
Φ(|xi) = (Λ1,2 + Λ2,1 )(|y 1 |2 − |y 2 |2 ) + (Λ1,2 − Λ2,1 )(y¯2 y 1 − y¯1 y 2 ) + . . . (237)
4
y volvemos a encontrarnos en el caso 1, dado que el coeficiente de |y 1 |2 es ahora
diferente de 0.
Ejemplo 5.9. Reducir a forma canónica diagonal la forma cuadrática
Φ(x 1 , x 2 , x 3 ) = 2(x 1 )2 + (x 2 )2 − 4x 1 x 2 − 4x 2 x 3 . (238)
Solución: Si sumamos y restamos 2(x 2 )2 , tendremos Φ(x 1 , x 2 , x 3 ) = 2((x 1 )2 +
−2x 1 x 2 +(x 2 )2 )−(x 2 )2 −4x 2 x 3 , donde el primer término es ya un cuadrado. Sumando
y restando 4(x 3 )2 tendremos finalmente:
Φ(x 1 , x 2 , x 3 ) = 2(x 1 − x 2 )2 − (x 2 + 2x 3 )2 + 4(x 3 )2 (239)
Así que nos reducimos a la forma canónica Φ(y 1 , y 2 , y 3 ) = 2(y 1 )2 − (y 2 )2 + 4(y 3 )2
mediante el cambio de coordenadas:
y 1 = x 1 − x 2 , y 2 = x 2 + 2x 3 , y 3 = x 3 (240)
−1 i
o equivalentemente Y = C X, donde Y es la matríz columna de elementos y , X el
análogo para x i , y C es la matríz del cambio de base entre la base original y la nueva:
es decir: si X son las coordenadas de un vector |xi en la base B1 = {|ei i} y Y son
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 149
las coordenadas
P del mismo vector en la base B2 = {|ui i}, C es la matríz definida por
|ui i = k C ki |ek i. Tendremos pues que
1 −1 0 1 1 −2 2 0 0
C −1 = 0 1 2 , C = 0 1 −2 , Λ(B2 ) = C T Λ(B1 ) C = 0 −1 0
0 0 1 0 0 1 0 0 4
(241)
donde Λ(B1 ) es la expresión matricial de la forma cuadrática en la base B1 original:
2 −2 0
Λ(B1 ) = −2 1 −2 (242)
0 −2 0
El otro método para reducir a forma canónica diagonal una forma hermítica, que
elaboraremos más en detalle en el próximo capítulo, es considerar que una matríz si-
métrica Λ es diagonalizable, y será diagonal en la base de autovectores. Es importante
darse cuenta que, aunque las formas sequilineales estén representadas por una matriz,
las propiedades de ésta son intrínsecamente diferentes a las matrices que representan
endomorfismos del espacio vectorial. Esto es especialmente evidente en el caso real,
cuando la formas coincidne con tensores de tipo (0, 2) y los endomorfismos con ten-
sores de tipo (1, 1). Por consiguiente, la ley de transformación por cambio de base
es diferente. No obstante, la existencia de una base de vectores ortogonales entre sí,
supone que siempre existirá un cambio de coordenadas asociado a una matriz C (que
por representar un cambio de base será invertible) que cumpla que
Λ = C † DC, (243)
donde D es una matriz diagonal.
Los vectores que formen esa base {|vk i} cumplirán que
F (|vk i, |vj i) = λk δk j, (244)
donde λk son las entradas de la matriz diagonal D. En el caso en que la matriz de
cambio de base C cumpla la condición de que
C † = C −1 , (245)
que como veremos en el próximo capítulo forma un conjunto de cambios de base muy
importante, ocurrirá que la transformación
C † DC = C −1 DC, (246)
es un cambio de base para la forma sesquilineal equivalente a un cambio de coorde-
nadas para un endomorfismo. Las matrices Λ y D, además de congruentes, son por
tanto conjugadas. Si consideramos entonces los vectores de coordenadas iguales a
yk = C −1 vk , (247)
donde vk es la representación columna del vector |vk i en la base original, tenemos que
Λyk = C −1 DCC −1 vk , = λk C −1 vk = λk yk . (248)
Vemos por tanto que, en los casos en los que el cambio de base cumpla la condición
anterior, vamos a tener un conjunto de vectores propios de la matriz Λ, relacionados
con los vectores de la base ortogonal de V .