0% encontró este documento útil (0 votos)
84 vistas25 páginas

Capitulo 5

Este documento introduce el concepto de producto escalar en un espacio vectorial. Define un producto escalar como una aplicación bilineal o sesquilineal que cumple con ciertas propiedades como simetría y positividad. Presenta varios ejemplos de productos escalares, incluyendo el producto escalar euclídeo en Rn y Cn y productos escalares definidos sobre espacios de funciones. También introduce el concepto de pseudoproducto escalar y el producto escalar de Minkowski como ejemplo importante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
84 vistas25 páginas

Capitulo 5

Este documento introduce el concepto de producto escalar en un espacio vectorial. Define un producto escalar como una aplicación bilineal o sesquilineal que cumple con ciertas propiedades como simetría y positividad. Presenta varios ejemplos de productos escalares, incluyendo el producto escalar euclídeo en Rn y Cn y productos escalares definidos sobre espacios de funciones. También introduce el concepto de pseudoproducto escalar y el producto escalar de Minkowski como ejemplo importante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

126 5.

ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

un producto escalar de un tipo especial, que denominaremos espacio de Minkowski.


Daremos sentido a la mayor parte de estas construcciones a lo largo de los siguientes
capítulos, cuando consideremos otras estructuras definidas sobre ellos, o estudiemos
las propiedades que los endomorfismos definidos sobre ellos van a heredar.

2. Productos escalares
Consideremos un espacio vectorial V , sobre un cuerpo K. Para definir el análogo
a la proyección ortogonal de un vector sobre otro, tal como estamos acostumbrados a
hacer en R3 , es necesario definir una aplicación que, tomando dos vectores, proporcio-
ne un número. Número que, grosso modo representa la parte de uno de los vectores
que podemos encontrar en el otro.

2.1. Definición clásica.


Definición 5.1. Sea V un espacio vectorial sobre el cuerpo K. Un producto
escalar es una aplicación
h·|·i : V × V → K
que satisface que, para tres vectores cualesquiera |v1 i, |v2 i, |v3 i ∈ V y escalares
λ1 , λ2 ∈ K se cumple:
es simétrico bajo conjugación, es decir
hv1 |v2 i = hv2 |v1 i.
Cuando el cuerpo K = R, se trata de una aplicación simétrica, dado que el
conjugado coincide con el propio escalar.
es lineal en el segundo argumento, es decir:
hv1 |λ1 v2 + λ2 v3 i = λ1 hv1 |v2 i + λ2 hv1 |v3 i
es definido positivo, es decir
hv |v i ≥ 0 ∀|v i ∈ V hv |v i = 0 ⇔ |v i = ~0
Ejercicio 5.1. Justificar el significado del axioma de positividad en el caso de que
K=C
Ejemplo 5.1. El ejemplo más sencillo viene dado por el producto escalar euclídeo,
definido por la identidad considerada como forma bilineal en Rn , es decir
   1
* x1 y +
 ..   ..  X
n n
h·|·i : R × R → R  . | .  = xjyj
xn yn j

Este es el producto escalar al que estamos más acostumbrados por su uso geométrico,
sobre todo sobre R3 .
Ejemplo 5.2. Un ejemplo también muy sencillo corresponde al análogo al caso
anterior sobre los números complejos. Consideremos entonces una forma sesquilineal
definida sobre Cn , por el producto
   1
* z1 w +
 ..   ..  X
n n
h·|·i : C × C → C  . | .  = z̄ j w j
zn wn j
2. PRODUCTOS ESCALARES 127

De igual modo podemos considerar productos escalares definidos sobre espacios


de dimensión infinita:

Ejemplo 5.3. Sea V = C ∞ ([0, 1], R) el conjunto de funciones infinitamente dife-


renciables en una variable real definidas sobre el intervalo [0, 1]. Definamos la aplica-
ción:
Z 1
h·|·i : V × V → R f (x)g(x)dx.
0

Es inmediato verificar que la aplicación es lineal en ambos argumentos (por los teore-
mas clásicos de cálculo integral sobre R), que es simétrica (porque lo es el producto
de funciones). La definición positiva es también inmediata por tener una integral de
una función no negativa (f 2 (x)).

Ejemplo 5.4. Sea V = C ∞ ([0, 1], C) el conjunto de funciones infinitamente di-


ferenciables en una variable real definidas sobre el intervalo [0, 1] y con valores sobre
C. Definamos la aplicación:
Z 1
h·|·i : V × V → C f (x)g(x)dx.
0

Es inmediato verificar que la aplicación es lineal en ambos argumentos (por los teo-
remas clásicos de cálculo integral sobre C), que es simétrica por conjugación. La
definición positiva es también inmediata por tener una integral de una función no ne-
gativa (|f (x)|2 ). Este será el tipo de producto escalar que usaremos de forma habitual
en sistemas de Mecánica Cuántica.

A partir de estas propiedades es sencillo demostrar:

Lema 5.1. Sea V un espacio vectorial complejo. Entonces, para tres vectores
cualesquiera |v1 i, |v2 i, |v3 i ∈ V y escalares λ1 , λ2 ∈ K se cumple:

hλ1 v2 + λ2 v3 |v1 i = λ̄1 hv2 |v1 i + λ̄2 hv3 |v1 i

Demostración. Basta con emplear la primera condición, para escribir:

hλ1 v2 + λ2 v3 |v1 i = hv1 |λ1 v2 + λ2 v3 i.

Y ahora, por la condición de linealidad:

hv1 |λ1 v2 + λ2 v3 i = λ1 hv1 |v2 i + λ2 hv1 |v3 i,

con lo cual:

hλ1 v2 + λ2 v3 |v1 i = λ1 hv1 |v2 i + λ2 hv1 |v3 i = λ̄1 hv2 |v1 i + λ̄2 hv3 |v1 i.

Esto completa la prueba. 

En Física, sobre todo en Mecánica Cuántica es esta la convención que se toma


con más frecuencia. En los textos de matemáticas, sin embargo, la convención es la
contraria: se fija como axioma la linealidad en el primer elemento del producto, y se
obtiene como consecuencia la combinación con conjugación en el segundo. Ambos
son equivalentes y perfectamente válidos, pero no se deben mezclar.
128 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

2.2. Formas bilineales y sesquilineales. Es también evidente la similitud de


este concepto con el de forma bilineal:
Definición 5.2. Sea V un espacio vectorial sobre un cuerpo K. Una aplicación
F :V ×V →K
que es bilineal en ambas entradas recibe el nombre de forma bilineal. Estamos pues
ante un tensor de tipo (0, 2). Una forma bilineal que satisface que:
F (|v1 i, |v2 i) = F (|v2 i, |v1 i) ∀|v1 i, |v2 i ∈ V
se dirá simétrica. El tensor correspondiente es pues un tensor simétrico.
Definición 5.3. Si consideramos el caso complejo, es decir, K = C, diremos que
la forma es sesquilineal si se cumple que
es lineal en el segundo argumento,
es semilineal en el primer argumento, es decir para cualesquiera |v1 i, |v2 i, |v3 i
en V , y cualesquiera λ, µ ∈ C
F (µ|v1 i + λ|v2 i, |v3 i) = µ̄F (|v1 i, |v3 i) + λ̄F (|v2 i, |v3 i)
Definición 5.4. Si consideramos el caso complejo, es decir, K = C, diremos que
la forma es hermítica si se cumple que
es sesquilineal,
satisface que, para dos elementos cualesquiera |v1 i y |v2 i en V ,
F (|v1 i, |v2 i) = F (|v2 i, |v1 i)
Y para cualquier cuerpo tendremos el concepto de definición positiva:
Definición 5.5. Diremos que una forma bilineal o sesquilineal F : V × V → K es
definida positiva si se verifica que
F (|v i, |v i) ≥ 0 ∀|v i ∈ V.
Evidentemente, esta condición implica que F (|v i, |v i) ∈ R.
En consecuencia, es evidente que podemos definir el producto escalar en la forma:
hx|y i = F (|xi, |y i) ∀|xi, |y h∈ V (207)
En lo que sigue usaremos indistintamente uno y otro concepto.
Por otro lado, con ello resulta inmediato:
Lema 5.2. Toda forma bilineal simétrica que sea definida positiva, define un
producto escalar sobre un espacio vectorial real.
Lema 5.3. Toda forma hermítica, definida positiva, define un producto escalar
sobre un espacio vectorial complejo.
Otro punto interesante desde el punto de vista de las aplicaciones a la Física
pasa por relajar la tercera condición de la definición del producto escalar, es decir, la
definición positiva. En vistas a que la aplicación que tenemos en mente es en el caso
de espacios vectoriales reales, vamos a considerar
Definición 5.6. Sea V un espacio vectorial real. Consideremos una forma bilineal
F :V ×V →R
que es simétrica (es decir, un tensor (0, 2) simétrico). Diremos que V está dotado de
un pseudoproducto escalar.
2. PRODUCTOS ESCALARES 129

Esta definición relaja dos de las condiciones con las que contamos en el producto
escalar: no hay vectores que se anulen al multiplicarlos por sí mismos, y no hay vectores
que se anulen al multiplicarlos por todos los demás del espacio. Esta segunda condición
resulta muy útil en algunas circunstancias, y es por ello que nos interesa conservarla:
Definición 5.7. Sea V un espacio vectorial real. Consideremos una forma bilineal
F :V ×V →R
que cumple
es simétrica, es decir
hv1 |v2 i = hv2 |v1 i ∀|v1 i, |v2 i ∈ V
es no degenerado, entendiendo este concepto como que no existe ningún
vector |v1 i ∈ V que cumpla que
F (|v1 i, |w i) = 0 ∀|w i ∈ V
Diremos que V está dotado de un pseudoproducto escalar no degenerado.
El ejemplo más usado vendrá dado por el producto escalar definido por Minkowski
Ejemplo 5.5. Consideremos el espacio vectorial R4 y la forma bilineal definida en
la forma:  0   0 
x y
x 1  y 1 
η  2  ,  2 
     = −x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3 .
x y 
x3 y3
El espacio (R4 , η) recibe el nombre de espacio de Minkowski.
Desde un punto de vista físico, tomaremos el espacio de Minkowski como el
espacio de referencia en cualquier problema definido de acuerdo al marco de la teoría
de la relatividad especial. Veremos algunas de sus propiedades a lo largo del presente
capítulo.
Desde el punto de vista matemático, el espacio de Minkowski es un ejemplo sen-
cillo de espacio hiperbólico, una de las manifestaciones de las llamadas geometrías
no euclídeas.
2.3. Formas cuadráticas. Una de las aplicaciones de las formas, en este caso
hermíticas, son las llamadas formas cuadráticas:
Definición 5.8. Sea V un espacio vectorial y F una forma hermítica definida sobre
él. Definiremos como forma cuadrática a la aplicación
Q:V →R Q(|v i) = F (|v i, |v i). (208)
Hay que notar el hecho de que haber exigido la hermiticidad de F garantiza que
la imagen de Q está efectivamente en el cuerpo real y no en el complejo.
Una propiedad inmediata por construcción es
Lema 5.4. La forma cuadrática es homogénea de grado dos, en el sentido de
Q(α|v i) = |α|2 Q(|v i) ∀α ∈ K, ∀|v i ∈ V. (209)
Si pensamos en un análogo de cuerpos de números, la forma cuadrática represen-
taría el análogo del módulo de un número complejo, a su vez representado por la forma
sesquilineal F . Lo importante es que la condición de hermiticidad es suficientemente
fuerte como para determinar unívocamente la forma cuadrática:
130 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Teorema 5.1. Sea V un espacio vectorial y Q : V → R una forma cuadráti-


ca homogénea de grado 2. Entonces, los valores de la forma hermítica F quedan
completamente determinados por Q:
Q(|v i) = F (|v i, |v i) ∀|v i ∈ V

Demostración. Basta considerar la expresión:

1
F (|v1 i, |v2 i) = (Q(|v1 i + |v2 i) − Q(|v2 i − |v1 i) + i Q(|v2 i + i |v1 i) − i Q(|v2 i − i |v1 i))
4
Con esta última, es inmediato reconocer la hermiticidad de la forma resultante. 

2.4. Representación matricial de una forma sesquilineal. Hasta ahora hemos


dado definiciones intrínsecas de las formas bilineales/sesquilienales y en consecuencia
de los productos escalares que pueden representar cuando verifiquen las condiciones
necesarias. Sin embargo, tal como vimos al considerar las representaciones matriciales
de los tensores, debido a la linealidad, es suficiente con conocer los valores que toma
la misma sobre los elementos de una base para caracterizar por completo la imagen
de dos elementos cualesqueira del espacio vectorial.
Consideremos entonces una base {|ej i} de V y la expresión que dos vectores
cualesquiera |v i, |w i tendrían en esa base:
X X
|v i = v j |ej i |w i = w k |ek i
j k

Si consideramos una forma bilineal F : V × V → R, por la linealidad podemos


escribir:
 
X X X
j k
F (|v i, |w i) = F  v |ej i, w |ek i = v j w k F (|ej i, |ek i)
j k jk

Si consideramos una forma sesquilineal la expresión análoga implica:


 
X X X
j k
F (|v i, |w i) = F  v |ej i, w |ek i = v̄ j w k F (|ej i, |ek i)
j k jk

En cualquiera de las dos circunstancias es evidente que:

Lema 5.5. La forma bilineal/sesquilineal queda completamente determinada al


especificar el valor sobre los elementos de la base.

Demostración. Basta con tener en cuenta el hecho de que todo vector tiene una
descomposición única respecto a la base dada. 

En consecuencia, vamos a definir:


2. PRODUCTOS ESCALARES 131

Definición 5.9. Sea F una forma bilineal definida sobre un espacio vectorial V y
{|ej i} una base. Entonces, la expresión de F queda perfectamente determinada por
la matriz
Λjk = F (|ej i, |ek i),
escribiendo que: X
F (|v i, |w i) = v̄ j Λjk w k . (210)
jk
Podemos escribir el producto bajo una expresión matricial representando uno de
los vectores como un vector fila y el otro como un vector columna:
   1
Λ11 . . . Λ1n w
n  .. . ..   ... 
.
α β

1
 = v † Λw , (211)
..  
F (|v i, |w i) = v Λαβ w = v̄ . . . v̄  .
Λn1 . . . Λnn wn
donde representamos por v † = v̄ T el vector fila formado por el traspuesto del vector
columna que forman las coordenadas conjugadas, y por w el vector columna definido
por las coordenadas de |w } en la base considerada.
Si esta relación es cierta, tenemos que ser capaces de leer las propiedades del
producto escalar que representan a partir de las expresiones de las matrices:
Lema 5.6. Sea V un espacio vectorial real y consideremos la matriz Λ como la
representante de la forma bilineal correspondiente a un producto escalar. Entonces:
Λ es una matriz simétrica, es decir
ΛT = Λ
ker Λ = {~0}
Demostración. Basta emplear la expresión de la ecuación (210) y escribir la con-
dición de simetría del producto:
(
(v T Λw )T = w T ΛT v
hv |w i = hw |v i ⇒ F (|v i, |w i) = F (|w i, |v i) ⇒ v T Λw =
w T Λv .
Donde hemos usado que el traspuesto de un número debe ser igual a él mismo. Como
esta relación se debe cumplir para vectores |v i y |w i cualesquiera, se sigue la relación
buscada:
ΛT = Λ
La condición sobre el núcleo se prueba por reducción al absurdo: supongamos que el
núcleo tiene dimensión mayor que cero. Esto supone que existe un vector tal que
Λv = ~0 ⇒ v T Λv = 0
Pero esto va en contra de la hipótesis de que el producto es un producto escalar. Esto
concluye la prueba. 
Lema 5.7. Sea V un espacio vectorial complejo y consideremos la matriz Λ co-
mo la representante de la forma hermítica correspondiente a un producto escalar.
Entonces:
Λ es una matriz hermítica, es decir
Λ† = (Λ∗ )T = Λ
132 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

ker Λ = {~0}

Demostración. Se deja como ejercicio. 

Lema 5.8. Sea F una forma sesquilineal definida sobre un espacio vectorial V .
Si consideramos dos bases diferentes de V , {|ej i} y {|wα i}, las representaciones
matriciales de F en una y otra están relacionadas por la expresión
(ΛF )αβ = (C † )kα (ΛF )kj Cβj , (212)

donde C es la matriz de cambio de base y C † es su traspuesta conjugada. A las dos


matrices, relacionadas a través de la matriz C se les denomina congruentes.

Demostración. Es una consecuencia directa de ser un tensor de tipo (0, 2). 

Ejercicio 5.2. Demostrar que el valor del producto escalar hv1 |v2 i no depende de
la representación coordenada elegida.
Definición 5.10. Sea F una forma sesquilineal. Llamaremos rango de F al rango
de una cualquiera de sus expresiones matriciales.

2.5. Ortogonalidad. En cuanto disponemos de un producto escalar definido


sobre un espacio, tenemos una definición de ortogonalidad para el mismo. La noción
que se suele tener en mente cuando se emplea el término “ortogonal” es la noción de
perpendicularidad en el espacio euclídeo.

Sin embargo la noción depende exclusivamente de la noción de producto escalar,


y tiene sentido siempre que exista éste:
Definición 5.11. Sea V un espacio vectorial. Diremos que dos vectores |v1 i y |v2 i
son ortogonales si se cumple que
hv1 |v2 i = 0
2. PRODUCTOS ESCALARES 133

Ejemplo 5.6. Consideremos V = C2 . Los dos elementos de la base canónica,


   
1 0
|e1 i = |e2 i =
0 1
son ortogonales respecto al producto escalar hermítico definido por la forma sesquili-
neal que en la base canónica toma como representación matricial la matriz identidad,
es decir, para:
   1
X  1 0 v2
hv1 |v2 i = v̄1k v2k = v̄11 v̄12 .
0 1 v22
k

La comprobación es inmediata:
he1 |e2 i = 1 ∗ 0 + 0 ∗ 1 = 0
Sin embargo, esto podría no ser cierto para un producto escalar diferente, por
ejemplo, un producto escalar definido por la matriz
 
2 2
AF = .
2 5
Efectivamente,   
 2 2 0
he1 |e2 i = 1 0 = 2.
2 5 1
De este ejemplo aprendemos por consiguiente que el concepto de ortogonalidad
está ligado al producto escalar del espacio donde se consideran definidos los vectores.
Si el producto escalar cambia, dos vectores ortogonales respecto a un producto escalar
pueden no serlo respecto al otro, y viceversa.
Sin embargo, una vez hemos fijado el producto escalar, la ortogonalidad nos va a
permitir obtener una serie de propiedades interesantes:
Proposición 5.1. Sea V un espacio vectorial con producto escalar. Consideremos
un conjunto de vectores no nulos {|vj i}, ortogonales entre sí. Entonces, los vectores
son linealmente independientes.
Demostración. Consideremos una combinación lineal igualada a cero:
X
~0 = λj |vj i.
j

Si consideramos la proyección sobre cada uno de los elementos de la familia:


X
h~0|vj i = λk hvk |vj i = λj hvj |vj i.
k

Como el producto escalar no permite que hvj |vj i sea igual a cero si los vectores son
no nulos, concluimos que
λj = 0.
Podemos repetir la proyección sobre cualquier elemento de la familia, lo que conduce
a: X
~0 = λj |vj i ⇒ λj = 0 ∀j
j

134 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Es interesante destacar el hecho de que el valor que tenga el producto escalar de


cada vector de la familia consigo mismo es irrelevante, dado que siempre podemos
reescalarlos para que ese valor sea el que nos interese. Habitualmente el valor escogido
es la unidad, con lo que cual se introduce el concepto de familia ortonormal:

Definición 5.12. Sea V un espacio vectorial con producto escalar y {|vj i} una
familia de vectores ortogonales entre sí. La familia se dice ortonormal si se verifica
que
hvi |vi i = 1 ∀i (213)
Toda familia ortogonal puede convertirse en ortonormal sin más que reescalar los
vectores, esto es, si {|vj i} es ortogonal, entonces
|vk i
{|wk i} |wk i = p
hvk |vk i
es una familia ortonormal.

3. Ortogonalidad y ortonormalidad
3.1. Teorema de Gram-Schmidt. Sabemos que podemos definir bases para
espacios vectoriales de muy diverso tipo, siempre que sean de dimensión finita. Sin
embargo, es razonable pensar que la introducción de una nueva estructura como es
el producto escalar, va a imponer sobre la elección de bases algunas propiedades
adicionales cuyo estudio es precisamente lo que queremos tratar en esta sección.
Hemos visto ya cómo la introducción de un producto escalar permitía re-escribir
la independencia lineal en términos de la ortogonalidad. Nos queda por determinar un
mecanismo para garantizar la completitud del conjunto como conjunto generador de
todo el espacio. Para ello, vamos a ver, en primer lugar, como dados dos vectores,
siempre podemos modificar uno de ellos para hacerlo ortogonal a otro dado:

Lema 5.9. Sea V un espacio vectorial con producto escalar. Entonces, dados dos
6 ~0, el vector
vectores cualesquiera |v1 i, |v2 i ∈ V , con |v1 i =

hv1 |v2 i
|w i = |v2 i − |v1 i (214)
hv1 |v1 i

es ortogonal a |v1 i.

Demostración. Si hv1 , v1 i = 0 sabemos que cualquier vector es ortogonal a él y


el caso no tiene interés. Si hv1 , v1 i 6= 0 el vector |w i está bien definido y se verifica,
usando la linealidad:

hv1 |v2 i
hv1 |w i = hv1 |v2 i − hv1 , v1 i = 0
hv1 |v1 i


136 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Demostración. Se trata de un procedimiento iterativo por el que vamos constru-


yendo la segunda familia, poco a poco, de forma que los elementos de la nueva son
ortogonales entre sí. Vamos a proponer como familia ortogonal la siguiente:
|w1 i = |v1 i
hw1 |v2 i
|w2 i = |v2 i − |w1 i
hw1 |w1 i
..
.
k−1
X hwt |vk i
|wk i = |vk i − |wt i (216)
t=1
hwt |wt i

..
.
n−1
X hwt |vn i
|wn i = |vn i − |wt i
t=1
hwt |wt i

Vamos a probar por inducción en el valor de n que

Hipótesis: la familia {|wk i} con k = 1, . . . , n es una base de vectores orto-


gonales para el subespacio span{|v1 i, · · · , |vn i}

Para el caso n = 1, la afirmación es claramente trivial. Asumamos ahora que


se cumple para n = N, es decir, que los N primeros vectores forman un conjunto
linealmente independiente, y probemos que es cierto para N + 1. Por el Lema 5.10
sabemos que el vector |wN+1 i es ortogonal a los anteriores de su familia, dado que
lo construimos tomando la parte de |vN+1 i que es ortogonal a todos los vectores
|w1 i, . . . , |wN i. La única alternativa posible es que el vector fuera nulo. Pero el hecho
de que los vectores {|vj i} formen una base permite asegurar que si eso ocurre
N−1
X hwt |vn i
|wN+1 i = ~0 ⇒ |vN+1 i = |wt i
t=1
hwt |wt i

Dado que los vectores {|wt i}t=1,...,N generan el mismo subespacio vectorial que los
vectores {|vt i}t=1,...,N , por ser combinaciones lineales de ellos, comprobamos que
N−1
X
|wN+1 i = ~0 ⇒ |vN+1 i = λt |vt i.
t=1

Esto es absurdo a no ser que N = n, y la base genere todo el espacio V .




Una vez que hemos probado la posibilidad de construir una base ortogonal, es
trivial que dicha base esté formada por vectores ortonormales:

Corolario 5.1. Sea V un espacio vectorial con producto escalar y {|vj i} una base
arbitraria. Entonces, siempre podemos definir una base {|ej i} de vectores ortonormales
entre sí.
3. ORTOGONALIDAD Y ORTONORMALIDAD 137

Ejemplo 5.7. Consideremos el caso de V = C3 y la base dada por los vectores


     
0 0 −1
|v1 i = 1 |v2 i = 2 |v3 i =  i 
i 0 0
Para construir la base ortogonal, vamos a comenzar escogiendo el vector
 
0
|w1 i = |v1 i = 1 .
i
Ahora, el vector
     
0 0 0
hw1 |v2 i
|w2 i = |v2 i − |w1 i = 2 − 2/2 ∗ 1 =  1 
hw1 |w1 i
0 i −i
Y finalmente el tercer vector se obtiene como
       
−1 0 0 −1
hw1 |v3 i hw2 |v3 i
|w3 i = |v3 i− |w1 i− |w2 i =  i −i /2∗1−i /2  1  =  0 
hw1 |w1 i hw2 |w2 i
0 i −i 0
Es inmediato verificar que la nueva base es ortogonal:
hw1 |w2 i = 0 + 1 ∗ 1 + (−i ) ∗ (−i ) = 0 hw1 |w3 i = hw2 |w3 i = 0
Ejercicio 5.4. Consideremos el caso del espacio vectorial que forman las funciones
en una variable definidas en el intervalo [−π, π]. Vamos a considerar como base
|vk i = sin(kx) ∈ C ∞ ([−π, π], R).
Estudiar las proyecciones de la forma
Z π
hvk |vl i = sin(kx) sin(lx)dx
−π

y obtener a partir de esta una base ortonormal.


3.2. Propiedades de las bases ortonormales. Una de las implicaciones más
interesantes para nosotros del resultado anterior será que dado un vector |v i, será
muy sencillo determinar la descomposición del mismo respecto a los vectores de una
base ortonormal:
Lema 5.11. Sea V un espacio vectorial con producto escalar y {|ej i} una base
ortonormal del mismo. Entonces, cualquier vector |v i ∈ V se escribirá en la forma:
X
|v i = hek |v i|ek i (217)
k

Esta descomposición recibe el nombre, en algunas referencias, de descomposición de


Fourier.
Demostración. Basta con considerar una combinación lineal arbitraria respecto a
la base: X
|v i = λk |ek i.
k
138 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Si proyectamos ahora sobre cada uno de los elementos de la base:


X X
hej |v i = λk hej |ek i = λk δjk = λj
k k


Ejemplo 5.8. Si consideramos el caso de R3 con el producto escalar euclídeo, en
realidad esta descomposición es la que usamos siempre para representar vectores:
v = x î + y ĵ + z k̂
con
x = hv , î i, y = hv , ĵi, z = hv , k̂i
Ejercicio 5.5. Consideremos de nuevo el caso de las funciones definidas en el
intervalo [−π, π] que analizamos en el Ejercicio 5.4. Escribir la descomposición de
una función cualquiera respecto a la base ortonormal obtenida allí.
Una vez que hemos aprendido cómo definir la descomposición de vectores, pode-
mos re-escribir las propiedades de las bases en términos de los productos escalares y
las bases. Las vamos a resumir en una serie de propiedades equivalentes entre sí:
Teorema 5.3. Sea V un espacio vectorial con producto escalar y B = {|ej i} un
conjunto de vectores ortonormales del mismo. Entonces, las siguientes afirmaciones
son equivalentes:
1. el conjunto B es completo, es decir, no se puede ampliar con ningún otro
vector ortonormal a todos ellos.
2. Si se cumple que
hx|ej i = 0 ∀j,
entonces
x = ~0.
3. B es una base de V .
4. Si |xi ∈ V , entonces
X
|xi = hej |xi|ej i
j

5. Se verifica la identidad de Parseval: dados dos vectores |xi, |y i ∈ V , pode-


mos escribir el producto escalar en función del producto de las coordenadas
correspondientes respecto a la base B:
X X
hx|y i = hej |xihej |y i = hx|ej ihej |y i
j j

6. Si |xi ∈ V entonces
X
hx|xi = |hej |xi|2 (218)
j

Demostración. Vamos a probar que cada afirmación implica la siguiente, y que


desde la última implica la primera. Esto probará la equivalencia del conjunto:
1 ⇒ 2 Asumamos que el conjunto es completo, y veamos que es absurdo que exista
un vector no nulo con proyecciones nulas sobre todos los elementos de B.
3. ORTOGONALIDAD Y ORTONORMALIDAD 139

Esto es inmediato, pues el vector


|xi
|ui = p ,
hx|xi
formaría, junto a los elementos de B un conjunto ortonormal que contendría
al conjunto B, lo que es absurdo por la hipótesis de la completitud de B.
2 ⇒ 3 Asumamos que no es cierto, y por consiguiente que existe un vector |xi ∈ V
que no es combinación lineal de los elementos de B. Si consideramos la
transformación (215) aplicada a |xi respecto a la base B, tendremos un
vector X
|x ′ i = |xi − hej |xi|ej i,
j
que por construcción es ortogonal a todos los |ej i y es diferente de cero. Pero
esto contradice la hipótesis.
3 ⇒ 4 Probado en el Lema 5.11.
4 ⇒ 5 Empleando la descomposición de ambos vectores en la base B y la ortonor-
malidad de los vectores de esta, es inmediato:
X X X X
hx|y i = hej |xihek |y ihej |ek i = hej |xihek |y iδjk = hej |xihej |y i = hx|ej ihej |y i
jk jk j j

5 ⇒ 6 Basta con evaluar la expresión anterior para x = y .


6 ⇒ 1 Si el conjunto no fuera completo, debería existir un |x0 i ∈ V , no nulo, que
fuera ortogonal a todos los elementos de B. Pero entonces, tendríamos:
X
hx0 |x0 i = |hej |x0 i|2 = 0.
j

Lo que no puede ocurrir por estar V dotado de un buen producto escalar.



3.3. El complemento ortogonal de un subespacio. Otra de las aplicaciones
del concepto de ortogonalidad es el procedimiento para definir subespacios que sean
ortogonales a uno dado. Para ello consideremos:
Definición 5.13. Sea V un espacio vectorial con producto escalar y consideremos
un subespacio vectorial W ⊂ V . El conjunto
W ⊥ = {v ∈ V |hv |w i = 0 ∀w ∈ W } (219)
recibe el nombre de complementario ortogonal de W en V .
Se trata por tanto de los vectores del espacio que son ortogonales a todos los
elementos del subespacio W , y por lo tanto depende de la estructura de producto
escalar que hayamos definido.
Para la verificación de la condición de ortogonalidad, no es necesario analizar
uno por uno los infinitos elementos de V . Basta emplear la linealidad de toda las
estructuras que estamos considerando para que sea necesario considerar únicamente
una base de W :
Lema 5.12. Sea V un espacio vectorial con producto escalar y W ⊂ V un subes-
pacio vectorial. Sea {|wj i} una base arbitraria de W . Entonces, u ∈ W ⊥ si y solo
si
hu|wj i = 0 ∀j
140 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Demostración. La implicación directa es trivial: los elementos del complementario


ortogonal lo son respecto a todos los elementos de W , por lo tanto también respecto
a los elementos de la base.
La implicación recíproca pasa por usar la definición y el hecho de que todo vector
se escribe como combinación lineal de los elementos de la base. Esto es, partimos de
que solo los elementos de la base verifican la condición de ortogonalidad, es decir
hu|wj i = 0 ∀j.
Tenemos que probar entonces que un vector arbitrario |ωi ∈ W también lo cumple.
Pero al ser {|wi i} una base de W sabemos que
X
|ωi = αk |wk i;
k

y que el producto escalar es lineal, esto es:


X X
hu|ωi = hu| αk |wk i = αk hu|wk i.
k k

Pero por hipótesis hu|wk i = 0 para todos los elementos de la base. Por tanto,
hu|ωi = 0 ∀|ωi ∈ W.
Esto completa la prueba. 
Y esto permite definir un buen complemento:
Teorema 5.4. Sea V un espacio vectorial con producto escalar y W un subespacio
vectorial. Entonces,
V = W ⊕ W⊥
Demostración. Tenemos que probar tres cosas:
W ⊥ es un subespacio vectorial de V ,
W ∩ W ⊥ = ~0
V = W + W ⊥.
La primera condición se deduce de la linealidad del producto escalar. Si |w1 i y |w2 i
son dos elementos arbitrarios de W ⊥ y por consiguiente cumplen que
hu|w1 i = 0 = hu|w2 i,
una combinación lineal arbitraria en la forma
α1 |w1 i + α2 |w2 i α1 , α2 ∈ K,
satisface que:
hu|(α1 |w1 i + α2 |w2 i) = α1 hu|w1 i + α2 hu|w2 i = 0
La segunda condición es también sencilla puesto que si tomamos un elemento
|w i ∈ W ∩ W ⊥ ,
el producto escalar consigo mismo debe anularse (dado que es un elemento del espacio
y del complementario ortogonal). Pero esto es imposible, por los axiomas del producto
escalar, salvo en el caso de que sea el vector nulo.
Finalmente, para probar la tercera condición, consideremos una base ortogonal
{|wi i} para el subespacio W (sabemos que siempre existe por el Teorema 5.2). Dado
3. ORTOGONALIDAD Y ORTONORMALIDAD 141

entonces un vector arbitrario de V , podemos considerar su proyección sobre el espacio


W en la forma: X
|v i → |vW i = hwk |ui|wk i.
k
Por construcción este elemento pertenece al subespacio W , dado que es combinación
lineal de los elementos de su base. Ahora, basta con probar que el vector
|v⊥ i = |v i − |vW i
es un vector que pertenece al complementario ortogonal. Para eso, verificamos que
es ortogonal a todos los elementos de la base de W :
X X
hwj |v⊥ i = hwj |v i − hwk |uihwj |wk i = hwj |v i − hwk |uiδjk = 0.
k k
Esto completa la prueba. 
Teorema 5.5. Sea V un espacio vectorial de dimensión finita dotado de un pro-
ducto escalar. Sea W ⊂ V un subespacio vectorial de V . Entonces,
(W ⊥ )⊥ = W (220)
Demostración. Es evidente que el subespacio vectorial está contenido en (W ⊥ )⊥ .
Falta demostrar que los dos espacios coinciden. Consideremos la descomposición
V = W ⊕ W⊥ |zi = |xi ⊕ |y i |xi ∈ W |y i ∈ W ⊥ .
Si evaluamos la proyección de un vector arbitrario |zi sobre vectores |xi ∈ W , tene-
mos:
hz|xi = |||xi||2 + hy |xi = |||xi||2
y
hz|y i = |||y i||2 + hx|y i = |||y i||2 .
⊥ ⊥
Sabemos que si |zi ∈ (W ) se debe cumplir que
hz|y i = 0 ⇒ |||y i||2 = 0 ⇒ |y i = 0 ⇒ |zi = |xi ∈ W.
Esto prueba el resultado. 
3.4. El producto escalar y el espacio dual. Otro de los aspectos relevantes de
la existencia de un producto escalar definido sobre un espacio vectorial es la posibilidad
que ofrece para establecer una relación biunívoca entre los elementos del espacio y
los elementos del espacio vectorial dual. Sabemos que, en general, el espacio dual a
un espacio vectorial de dimensión finita es también un espacio vectorial de la misma
dimensión e isomorfo a él, pero no existe ninguna manera canónica de establecer el
isomorfismo. La existencia del producto escalar permitirá hacerlo.
Sabemos en efecto que cada base {|ej i} que escojamos sobre el espacio vectorial
V , va a determinar una base “natural” {e j }sobre el espacio vectorial dual V ∗ . Sabemos
también que los dos espacios son isomorfos, así que podríamos intentar establecer P
una relación biunivoca entre vectores y formas asociando a un vector |v i = j v j |ej i
P j j
la forma φv = j v e . Sin embargo, es inmediato darse cuenta que esta asociación
P
depende de la base, de forma tal que si, en otra base {|uj i}, |v i = j αj |uj i, entonces
P P −1 j k
el covector correspondente sería φ′v = j j
j α u = j,k,l (C )k v (C −1 )jl e l 6= φv
(siendo C la matriz del cambio de base entre las |ej i y las |uj i): el covector asociado
a cada vector es diferente, según la base que escojamos.
142 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

La existencia de un producto escalar, en cambio, permite evitar esta dependencia:


Teorema 5.6. Sea V un espacio vectorial con producto escalar. Entonces, para
cada elemento del espacio vectorial |v i ∈ V existe un único funcional lineal hv |·i ≡
fv ∈ V ∗ que satisface que la imagen de cualquier elemento de V coincide con la
proyección sobre el vector |v i, es decir:
fv (|w i) = hv |w i ∀|w i ∈ V (221)
Representaremos como
hv |
el elemento de V ∗ que está asociado al vector |v i a través de la relación anterior.
Demostración. Consideremos un elemento arbitrario |v i ∈ V y la transformación
definida en la forma:
fv ≡ hv |·i : V → K |zi 7→ hv |zi ∈ K.
Por construcción es evidente que fv es una aplicación lineal que lleva elementos de V
sobre el cuerpo. Evidentemente la aplicación es única, dado que si le correspondieran
dos de esos elementos hv1 | y hv2 | para cualquier valor de |zi ∈ V , tendríamos que
hv1 |zi = hv2 |zi ∀|zi ∈ V ⇒ hv1 − v2 |zi = 0 ∀|zi ∈ V ⇒ v1 − v2 = ~0

Este resultado es bastante intuitivo y asequible. Resulta más complicado imagi-
narse el resultado recíproco, es decir, imaginemos que consideramos un funcional lineal
sobre el espacio vectorial V : ¿podemos encontrar un elemento de V que satisfaga que
este funcional lineal es el asociado a él por la aplicación anterior? Veamos que el caso
que nos ocupa, el de dimensión finita, es relativamente sencillo. En el último capítulo
probaremos el resultado en el caso de dimensión infinita y veremos que, tras restringir
los funcionales lineales para que no planteen problemas de divergencias, podremos
disfrutar de un resultado similar.
Teorema 5.7 (Teorema de Riesz en dimensión finita). Sea V un espacio vectorial
de dimensión finita con producto escalar y consideremos un funcional lineal f : V → K,
f ∈ V ∗ . Entonces, existe un único elemento |v i ∈ V tal que
f |w i = hv |w i ∀|w i ∈ V (222)
Demostración. Consideremos el caso de un funcional que no es nulo. Si lo es,
basta con considerar el vector nulo ~0 ∈ V para que la representación funcione.
Asumamos pues que f : V → K es diferente de cero. En ese caso, podemos
considerar su núcleo ker f y el correspondiente complementario ortogonal respecto al
producto escalar de V . Escribiremos entonces que
V = ker f ⊕ (ker f )⊥
En (ker f )⊥ ⊂ V se puede siempre encontrar un vector unitario |zi, y considerar
entonces, para cualquier elemento |xi ∈ V el elemento
|w i = f (x)|zi − f (z)|xi.
Por construcción,
f |w i = f (x)f (z) − f (z)f (x) = ~0 ⇒ |w i ∈ ker f
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 143

Pero entonces, si proyectamos sobre |zi ∈ (ker f )⊥ la proyección debe ser nula:
hz|w i = 0 ⇒ f (x)hz|zi − f (z)hz|xi = 0 ⇒ f (x) = f (z)hz|xi = hf (z)z|xi.
Por tanto, hemos determinado un elemento de V , en concreto f (z)|zi cuya proyección
sobre cualquier vector de V es igual al valor que el funcional f toma sobre ese vector.
Esto prueba la existencia.
La unicidad se prueba de forma más sencilla: imaginemos que existen dos vectores
de V que satisfagan la condición anterior:
(
hz1 |xi
f (x) =
hz2 |xi
En este caso, si consideramos el vector diferencia:
hz1 − z2 |xi = 0 ∀|xi ∈ V.
Pero esto es imposible si h·|·i es un producto escalar a no ser que |z1 − z2 i = ~0. Es
decir, a no ser que |z1 i = |z2 i. Esto prueba la unicidad y completa la prueba. 
Corolario 5.2. Sea un espacio vectorial V de dimensión finita, sobre los números
complejos, es decir, K = C. Entonces, existe una relación L : V → V ∗ uno a uno
entre V y su espacio vectorial dual V ∗ , que es un isomorfismo conjugado, es decir:
L(γ1 |v1 i+γ2 |v2 i) = γ̄1 L|v1 i+γ̄2 L|v2 i ≡ γ̄1 hv1 |+γ̄2 hv2 | ∀γ1 , γ2 ∈ C ∀|v1 i, |v2 i ∈ V
Corolario 5.3. Cuando el espacio vectorial está definido sobre los reales, un es-
pacio vectorial y su dual son isomorfos.

4. Clasificación de formas hermíticas: ley de inercia de Sylvester


En esta sección vamos a emplear los resultados vistos anteriormente y clasificar
las formas que hemos introducido en las secciones previas.

4.1. Subespacios isótropos. Vamos a considerar en esta sección las formas


hermíticas independientemente de que sean o no definidas positivas o incluso dege-
neradas. En el lenguaje de formas cuadráticas estaríamos por tanto hablando de las
formas cuadráticas más generales. Asociadas a ellas podemos considerar un concepto
de “norma”, que no satisface las reglas vistas pero que corresponde a la evaluación de
F sobre un mismo vector, en la forma
F (|v i, |v i) |v i ∈ V
Respecto a esta generalización del concepto de norma, definiremos:
Definición 5.14. Sea V un espacio vectorial y F una forma sesquilineal. Diremos
que un vector |v i ∈ V es isótropo cuando se verifique que
F (|v i, |v i) = 0. (223)
Diremos que un subespacio W ⊂ V es un subespacio isótropo si
F (|w1 i, |w2 i) = 0 ∀|w1 i, |w2 i ∈ W (224)
Las construcciones vistas hasta ahora para los casos definidos y no degenerados
no difieren mucho en el caso general. De hecho, formalmente son completamente
análogos. Se puede probar pues, inmediatamente:
144 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Lema 5.13. Sea V un espacio vectorial con una forma hermítica F . Entonces,
dados dos vectores cualesquiera |v1 i, |v2 i ∈ V , con |v1 i no isótropo, el vector
F (|v1 i, |v2 i)
|w i = |v2 i − |v1 i (225)
F (|v1 i, |v1 i)
satisface que F (|v1 i, |w i) = 0.

Demostración. De nuevo es evidente que el vector |w i está bien definido y se


verifica, usando la linealidad:
F (|v1 i, |v2 i)
F (|v1 i, w i = F (|v1 i, |v2 i) − F (|v1 i, |v1 i) = 0
F (|v1 i, |v1 i)


De forma análoga podemos construir un vector ortogonal a una familia dada, a


partir de otro vector que no sea combinación lineal de ellos, es decir:

Lema 5.14. Sea V es un espacio vectorial y F una forma hermítica. Sobre él,
consideremos una familia {|vj i} de vectores no isótropos y mutuamente ortogonales.
Entonces, si |v i ∈ V es un vector que satisface
|v i ∈
/ span{|vj i},
el vector
X F (|vk i, |v i)
|w i = |v i − |vk i (226)
F (|vk i, |vk i)
k

es ortogonal a todos los elementos de la familia {|vj i}.

Demostración. Es inmediato verificarlo a partir de la demostración en el caso


regular. 

Una vez que disponemos de estos resultados, es sencillo adaptar el procedimiento


de Gram-Schmidt para la determinación de una base ortonormal. La única dificultad
radica en la existencia de vectores de norma nula. Para discutir ese problema, vamos
a adaptar primero la noción de complementario ortogonal. Como tal, la definición es
completamente análoga:
Definición 5.15. Sea V un espacio vectorial, F una forma sesquilineal y conside-
remos un subespacio vectorial W ⊂ V . El conjunto
W ⊥ = {v ∈ V |F (|v i, |w i) = 0 ∀w ∈ W } (227)
recibe el nombre de complementario ortogonal de W en V .
La única diferencia con el caso anterior es que ahora podemos encontrar elementos
isótropos. Si tenemos esto en cuenta:
Lema 5.15. Sea W ⊂ V un subespacio vectorial y sea |v i ∈ W un vector no
isótropo. Entonces,
W = K(|v i) ⊕ (K(|v i)⊥ ∩ W ), (228)
donde representamos por K(|v i) el subespacio de dimensión uno generado por el
vector.
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 145

Demostración. Dado el vector |v i es inmediato probar que


 
F (|v i, |v1 i) F (|v i, |v1 i)
|v1 i = |v i + |v1 i − |v i ∀|v1 i ∈ V
F (|v i, |v i) F (|v i, |v i)
Teniendo en cuenta que por el Lema 5.14 sabemos que
 
F (|v i, |v1 i)
|v1 i − |v i ∈ K(|v i)⊥ ,
F (|v i, |v i)
/ K(|v i)⊥ , tenemos que todo vector no isótropo
y que al ser |v i no isótropo, |v i ∈
permite escribir
V = K(|v i) ⊕ K(|v i)⊥ .
Esto conduce inmediatamente al resultado: basta con fijar que los elementos perte-
nezcan a W : sabemos que K(|v i) ⊂ W , pero puede ocurrir que algunos elementos
del complementario también pertenezcan, por ello se incluye la intersección en la ex-
presión. 

4.2. Ley de Inercia de Sylvester. Y una vez conocido este resultado, podemos
probar ya el resultado de Sylvester:
Teorema 5.8 (Ley de inercia de Sylvester). Sea V un espacio vectorial de dimen-
sión n y F una forma hermítica. Entonces, la expresión matricial de F en cualquier
base de V tiene k+ autovalores positivos, k− autovalores negativos y k0 = n − k+ − k−
autovalores nulos.
Demostración. Vamos a probar el resultado en dos etapas:
primero, vamos a ver que siempre existe una base con esas características,
después probaremos que en cualquier otra base el número de vectores de cada
tipo es el mismo.
1. La primera parte se prueba por inducción. Vamos a considerar que existe
al menos un vector |v i ∈ V que es no isótropo. Caso de no existir, todos
los vectores serían isótropos y por consiguiente F tendría como expresión la
matriz nula en cualquier base. Pero la matriz nula satisface el teorema.
Suponemos entonces que existe al menos un vector no isótropo. En ese
caso, probaremos primero que todo subespacio W admite una base de vecto-
res mutuamente ortogonales. Lo haremos por inducción en la dimensión del
subespacio:
Si dimW = 1 es automático.
Supongamos pues que existe una base ortogonal para cualquier subes-
pacio de dimensión k y probemos que podemos construir una para un
subespacio de dimensión k + 1. Consideremos pues un subespacio W , de
dimensión k + 1 en el que estaría contenido el vector |v i. Hemos visto,
que podemos escribir que
W = K(|v i) ⊕ (K(|v i)⊥ ∩ W ).
Pero ahora, para el subespacio (K(|v i)⊥ ∩ W ) que es de dimensión k
sabemos que existe una base ortogonal {|w1 i, . . . |wk i}. Por tanto, el
conjunto
BW = {|v i, |w1 i, . . . |wk i}
146 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

es una base ortogonal de W . Esto, es particular, se aplica a cualquier


subespacio, también a todo el espacio V .
2. Ahora tenemos que probar que esa base tiene el mismo número de vectores
con “norma” positiva, negativa y nula. Una base se dividirá entonces en la
forma:
positivos negativos nulos
z }| { z }| { z }| {
B = {|v1 i, . . . , |vk+1 i, |vk+1 +1 i, . . . , |vk+1 +k−1 i, |vk+1 +k−1 +1 i, . . . , |vn i} (229)
Consideremos que tenemos dos bases, B1 y B2 y que una tiene valores
k+1 , k−1 , k01 y la otra los correspondientes k+2 , k−2 , k02 . Consideremos entonces
los subespacios:
A = span{|v11 i, . . . , |vk11 i} B = span{|vk22 +1 i, . . . , |vn2 i}
+ +

formados por los vectores que tienen “norma” positiva en la base uno y los
que no tienen norma positiva en la base dos.
Supongamos, por ejemplo, que k+1 > k+2 . Dado que la forma F es intrín-
seca, es evidente que la intersección
A ∩ B = ~0.
Dado que ambos son subespacios de V , tendríamos que
V = A ⊕ B ⇒ dim(A ⊕ B) = k+1 + (n − k+2 ) > n = dim V.
Pero esto es absurdo, por lo que debemos concluir que k+1 = k+2 .
De una forma completamente análoga, escogiendo:
C = span{|vk11 +1 i, . . . , |vk11 +k 1 i} D = span{|v12 i, . . . , |vk22 i}∪{|vk21 +k 1 +1 i, . . . , |vn2 i}
+ + − + + −

se encuentra que k−1 = k−2 .


Si ambos números coinciden, el número de vectores isótropos en ambas
bases debe también coincidir. Esto completa la prueba.


Por la relación que hemos visto entre las formas cuadráticas y las formas hermí-
ticas, es evidente que el mismo resultado se extiende trivialmente a la clasificación de
formas cuadráticas, que es el contexto en el que Sylvester probó su resultado.
También es evidente que el valor de las normas en sí mismas no es relevante,
dado que siempre se puede reescalar por un valor, y hacer que sean iguales a uno.
Esto quiere decir que, en la base (229), podemos redefinir los vectores en la forma:

 positivos negativos


z }| { z }| { nulos 
 1 1 1 1 z }| {
|v1 i, . . . , |vk+ i, |vk+ +1 i, . . . , |vk+ +k− i, |vk+ +k− +1 i, . . . , |vn i
 N1
 Nk+ Nk+ +1 Nk+ +k− 

 

donde
si la “norma” es positiva,
q
Nj = F (|vj i, |vj i) j = 1, . . . , k+
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 147

y si es negativa
q
Nj = −F (|vj i, |vj i) j = k+ + 1, . . . , k+ + k−
En consecuencia, cualquier forma hermítica F admite una base en la que la matriz
que representa a F resulta ser:
 
1
 .. 
 . 
 

 1 


 −1 


Λ= .. 
(230)
 . 


 −1 


 0 

 .. 
 . 
0
Nótese que este es el caso más general de todas las formas hermíticas:
si la forma es no degenerada y definida positiva, la expresión anterior corres-
ponde a la matriz identidad. Este es el caso de los productos escalares sobre
Rn o C n .
si la forma es no degenerada y definida negativa, la expresión es igual al
opuesto de la matriz identidad
si la forma es no degenerada, la matriz tendrá k+ elementos iguales a uno
y k− = n − k+ elementos iguales a menos uno. Este es el caso del pseudo-
producto escalar del espacio de Minkowski,
finalmente, podremos hablar de formas no negativas o no positivas para aque-
llas formas hermíticas en las que k− = 0 o k+ = 0, respectivamente.
4.3. Métodos para reducción de una forma hermítica a forma diagonal. La
ley de inercia de Sylvester asegura la existencia de una base en que la matríz de la
forma hermítica (o equivalentemente, de la forma cuadrática asociada) es diagonal.
Para encontrar tale base, tenemos dos maneras: la primera es dada por el:
Teorema 5.9 (Teorema de Gauss-Lagrange). Si Φ es una forma cuadrática aso-
ciada a una forma hermítica, existe en V un cambio de base para reducir Φ a su forma
canónica (diagonal).
La demostración
P i se hace por inducción sobre la dimensión n del espacio vectorial. Sea
|xi
Pn = i x |ei i la expresión de un vector genérico sobre una base arbitraria; Φ(|xi) =
Λ
i,j=1 ij x̄ i j
x . Si n = 1, Φ(|xi) = Λ11 |x 1 |2 está en forma canónica. Supongamos que
la propiedad vale por n = m − 1 y demostramos que es cierta para m. Tenemos que
considerar dos casos:
1. existe un índice i tal que Λii 6= 0
2. ∀i , Λii = 0
En el primer caso, supongamos Λ11 6= 0. Entonces, podremos reescribir la Φ como
m
X m
X m
X
Φ(|xi) = Λ1,1 |x 1 |2 + x̄ 1 Λ1j x j + x 1 Λ̄1j x̄ j + Λij x̄ i x j (231)
j=2 j=2 i,j=2
148 5. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR

Llamando 2
X m m
1 X
Φ1 (x 2 , . . . , x m ) = − Λ x
1j
j
+ Λij x̄ i x j (232)
Λ1,1
j=2 i,j=2

la ecuación anterior se transforma en:


2
m
1 X
j 2 m
Φ(|xi) = Λ1j x + Φ1 (x , . . . , x ) (233)
Λ1,1


j=1

donde Φ1 (x 2 , . . . , x m ) es una forma cuadrática en las (m − 1) variables x 2 , . . . x n . Con


el cambio de variables:
Xm
1
y = Λ1j x j , y 2 = x 2 , . . . , y m = x m (234)
j=1

tendremos
1
Φ(|xi) = |y 1 |2 + Φ1 (y 2 , . . . , y m ) (235)
Λ1,1
Pero, por hipótesis de inducción existirá un cambio de variables para reducir a forma
canónica la forma cuadrática Φ1 en las m − 1 variables, así que utilizando ese cambio
de coordenadas, junto con la definición de y 1 , tendremos un cambio de coordenadas
que hace canónica la forma Φ.
En el segundo caso, existirá por lo menos un coeficiente Λi,j 6= 0, con (i 6= j):
supongamos que sea el Λ1,2 . Recordamos que Λ2,1 = Λ̄1,2 . Entonces, con el cambio
de variables:
y 1 = x 1 + x 2, y 2 = x 1 − x 2 y 3 = x 3 y m = x m (236)
la forma cuadrática se transforma en:
1 
Φ(|xi) = (Λ1,2 + Λ2,1 )(|y 1 |2 − |y 2 |2 ) + (Λ1,2 − Λ2,1 )(y¯2 y 1 − y¯1 y 2 ) + . . . (237)
4
y volvemos a encontrarnos en el caso 1, dado que el coeficiente de |y 1 |2 es ahora
diferente de 0.
Ejemplo 5.9. Reducir a forma canónica diagonal la forma cuadrática
Φ(x 1 , x 2 , x 3 ) = 2(x 1 )2 + (x 2 )2 − 4x 1 x 2 − 4x 2 x 3 . (238)
Solución: Si sumamos y restamos 2(x 2 )2 , tendremos Φ(x 1 , x 2 , x 3 ) = 2((x 1 )2 +
−2x 1 x 2 +(x 2 )2 )−(x 2 )2 −4x 2 x 3 , donde el primer término es ya un cuadrado. Sumando
y restando 4(x 3 )2 tendremos finalmente:
Φ(x 1 , x 2 , x 3 ) = 2(x 1 − x 2 )2 − (x 2 + 2x 3 )2 + 4(x 3 )2 (239)
Así que nos reducimos a la forma canónica Φ(y 1 , y 2 , y 3 ) = 2(y 1 )2 − (y 2 )2 + 4(y 3 )2
mediante el cambio de coordenadas:
y 1 = x 1 − x 2 , y 2 = x 2 + 2x 3 , y 3 = x 3 (240)
−1 i
o equivalentemente Y = C X, donde Y es la matríz columna de elementos y , X el
análogo para x i , y C es la matríz del cambio de base entre la base original y la nueva:
es decir: si X son las coordenadas de un vector |xi en la base B1 = {|ei i} y Y son
4. CLASIFICACIÓN DE FORMAS HERMÍTICAS: LEY DE INERCIA DE SYLVESTER 149

las coordenadas
P del mismo vector en la base B2 = {|ui i}, C es la matríz definida por
|ui i = k C ki |ek i. Tendremos pues que
     
1 −1 0 1 1 −2 2 0 0
C −1 = 0 1 2 , C = 0 1 −2 , Λ(B2 ) = C T Λ(B1 ) C = 0 −1 0
0 0 1 0 0 1 0 0 4
(241)
donde Λ(B1 ) es la expresión matricial de la forma cuadrática en la base B1 original:
 
2 −2 0
Λ(B1 ) = −2 1 −2 (242)
0 −2 0
El otro método para reducir a forma canónica diagonal una forma hermítica, que
elaboraremos más en detalle en el próximo capítulo, es considerar que una matríz si-
métrica Λ es diagonalizable, y será diagonal en la base de autovectores. Es importante
darse cuenta que, aunque las formas sequilineales estén representadas por una matriz,
las propiedades de ésta son intrínsecamente diferentes a las matrices que representan
endomorfismos del espacio vectorial. Esto es especialmente evidente en el caso real,
cuando la formas coincidne con tensores de tipo (0, 2) y los endomorfismos con ten-
sores de tipo (1, 1). Por consiguiente, la ley de transformación por cambio de base
es diferente. No obstante, la existencia de una base de vectores ortogonales entre sí,
supone que siempre existirá un cambio de coordenadas asociado a una matriz C (que
por representar un cambio de base será invertible) que cumpla que
Λ = C † DC, (243)
donde D es una matriz diagonal.
Los vectores que formen esa base {|vk i} cumplirán que
F (|vk i, |vj i) = λk δk j, (244)
donde λk son las entradas de la matriz diagonal D. En el caso en que la matriz de
cambio de base C cumpla la condición de que
C † = C −1 , (245)
que como veremos en el próximo capítulo forma un conjunto de cambios de base muy
importante, ocurrirá que la transformación
C † DC = C −1 DC, (246)
es un cambio de base para la forma sesquilineal equivalente a un cambio de coorde-
nadas para un endomorfismo. Las matrices Λ y D, además de congruentes, son por
tanto conjugadas. Si consideramos entonces los vectores de coordenadas iguales a
yk = C −1 vk , (247)
donde vk es la representación columna del vector |vk i en la base original, tenemos que
Λyk = C −1 DCC −1 vk , = λk C −1 vk = λk yk . (248)
Vemos por tanto que, en los casos en los que el cambio de base cumpla la condición
anterior, vamos a tener un conjunto de vectores propios de la matriz Λ, relacionados
con los vectores de la base ortogonal de V .

También podría gustarte