Tópicos Esenciales en Álgebra Lineal
Tópicos Esenciales en Álgebra Lineal
en lgebra Lineal
Miguel A. Marmolejo L.
Manuel M. Villegas L.
ndice general
Introduccin ndice de guras Captulo 1. 1.1. 1.2. 1.3. 1.4. Prerrequisitos 1
iii
Matrices Espacios vectoriales Transformaciones lineales Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales
Submatrices. Operaciones con matrices particionadas Determinantes e inversas de algunas matrices especiales Traza de una matriz Ejercicios Valores propios y vectores propios. Diagonalizacin
Valores propios y vectores propios Diagonalizacin Diagonalizacin de matrices simtricas Diagonalizacin simultnea de matrices simtricas Ejercicios Formas cuadrticas
Clasicacin de las formas cuadrticas. Cambio de variables. Diagonalizacin simultnea de formas cuadrticas Formas cuadrticas positivas, negativas e indenidas. Ejercicios
ndice general
Captulo 5. 5.1. 5.2. Anexo 1: Matrices no negativas. Matrices idempotentes 123 123 129 Matrices no negativas Matrices idempotentes
Inversa generalizada e inversa condicional de matrices. 137 137 147 152 160 174 179 179 188 198 205 212 215 215 223 226 229 233
Inversa generalizada de una matriz Clculo de la g-inversa de una matriz Inversa condicional de una matriz Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mnimos cuadrados. Ejercicios Factorizacin de matrices
Descomposicin
LU
Descomposicin QR Descomposicin de Cholesky Descomposicin en valores singulares (SVD) Ejercicios Rectas e hiperplanos. Conjuntos convexos.
ii
ndice de guras
1.1. Transformacin lineal 3.1. Interpretacin geomtrica de vector propio 3.2. Vectores propios de 22 44 45 162 163 165 170 171 173 186 216 217
6.1. Problema de los mnimos cuadrados 6.2. Ajuste por mnimos cuadrados 6.3. Ajuste lineal por mnimos cuadrados 6.4. Ajuste lineal ejemplo 6.4.13 6.5. Ajuste lineal ejemplo 6.4.14 6.6. Ajuste cuadrtico ejemplo 6.4.15 7.1. Esquema de la factorizacin LU 8.1. Puntos y vectores en 8.2. Una recta en
R3 . P
y
R . Q. P
3
y
8.3. Grca de una recta que pasa por los puntos 8.4. Segmento de recta que une los puntos 8.5. Grca de un plano en
R . R
8.6. Grcas de un plano y una recta en 8.7. Ilustracin de semiespacios abiertos 8.1. Conjuntos convexos y no convexos
iii
CAPTULO 1
Prerrequisitos
El propsito de este captulo es hacer una recopilacin de algunas deniciones y de algunos resultados bsicos del lgebra lineal, los cuales nos sern de gran utilidad en el desarrollo de los captulos siguientes. Trataremos aqu los aspectos relacionados con: matrices, espacios vectoriales y transformaciones lineales, aunque aclaramos, que el orden en que se presentan los temas, no corresponde necesariamente al orden usual encontrado en la mayora de textos utilizados en el primer curso de lgebra lineal. Al lector que desee estudiar ms sobre el contenido de este captulo se le recomienda consultar [
1, 2, 12].
1.1. Matrices
Las matrices juegan un papel importante en las matemticas y sus aplicaciones. Una matriz tales) y to
de tamao
mn
(o simplemente
Amn )
es un
m
o
aij
ij y se llama elemen-
ij de la matriz A. Para indicar dicho A = [aij ]mn , o en forma expandida a11 a21 A= . . . am1 a12 a22
. . .
.. .
(1.1)
am2
1
1.1. Matrices
Si
Prerrequisitos
ain
denota la
Ai =
ai1 ai2
la
i-sima
la de la matriz
j -sima
columna de
A,
A1 A2 A= . = . . Am A, B, C ,
A1
A2
An
m n con elementos Mmn . Los elementos de Mnn se llaman matrices cuadradas de orden n; a la diagonal formada por los elementos a11 , a22 , . . . , ann de una tal matriz A, se llama diagonal principal de A.
etc. El conjunto de todas las matrices reales se denotar por
Mmn (R)
o simplemente
A de orden n, cuyos elementos fuera de la diagonal = 0 para i = j, i, j = 1, 2, . . . , n), se denomina denota por A = diag(a11 , a22 , . . . , ann ). n,
cuyos elementos en su diagonal princi-
1,
In
I,
Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula ser denotada por Dos matrices
0 (0mn
m n.)
de igual tamao
mn
A
La suma
ij
= B
ij
i = 1, 2, . . . , m, A
y
j = 1, 2, . . . , n. m n,
es la matriz
A+B
ij
de dos matrices
de tamao
mn
tal que:
A+B
= A
ij
+ B
ij
i = 1, 2, . . . , m,
la matriz
j = 1, 2, . . . , n.
de tamao
La multiplicacin
la matriz de tamao
m n,
es
ij
= A
i = 1, 2, . . . , m,
2
j = 1, 2, . . . , n.
Prerrequisitos
El producto
1.1. Matrices
de la matriz
AB
s
A Mms
por la matriz
B Msn ,
es la
matriz de tamao
m n,
ik
tal que:
AB
ij
=
k=1
kj
Ai B j ;
i = 1, 2, . . . , m,
j = 1, 2, . . . , n.
Sea
A Mnn .
tal que
Si existe una y le
B Mnn
tal que
AB = I
B A
BA = I AB = I, a B se A
y se le denota por
A1 .
Teorema.
Si
A, B Mnn
es un
una matriz
es la matriz
n m,
denotada por
m n. AT , cuya
Esto es,
i-sima
la corresponde a la y
la transpuesta de
1, 2, . . . m,
Sea
i-sima A es la matriz AT j = 1, 2, . . . n. A = A,
T
A.
AT
ij
= A
ji , para
i=
simtrica, y si
particular, las matrices diagonales son simtricas. Las propiedades ms relevantes de la transpocisin se dan en el siguiente teorema 1.1.2.
Teorema.
Sean
A =B
s y slo si
A se verica (AT )T = A. A = B.
3
1.1. Matrices
3. Si 4. Si 5. 6.
Prerrequisitos
A es una matriz diagonal, entonces AT = A. , son nmeros, entonces (A + B)T = AT + B T . T T T Si AB est denido, entonces (AB) = B A . T T Para cualquier matriz A, las matrices A A y AA son simtricas.
7. Si
A es invertible, entonces AT
es invertible y
(AT )1 = (A1 )T .
1.1.3. Determinantes.
de menor, cofactor, matriz de cofactores, matriz adjunta y determinante de matrices cuadradas y resumimos algunos de los resultados ms importantes relacionados con el clculo propiedades del determinante. El lector recordar, que el concepto de determinante es de gran importancia no slo en el contexto del lgebra lineal, sino en otras reas como el clculo integral. En lo sucesivo, el determinante de una matriz por
ser denotado
|A|
o por
det(A).
(Determinane de matrices
1.1.3.
Denicin
2 2).
Sea
A=
a c
2 2.
El determinante de la matriz
b d A es
det(A) = ad bc.
1.1.4.
Denicin.
mij .
Sea
n n;
el de-
j-sima
como
y la
columna de
nota por
ij se denota por
A Cij
ij y se dey se dene
C,
A,
C , se denomina = CT .
El siguiente teorema nos muestra, cmo calcular el determinante de una matriz (cuadrada) en trminos de sus cofactores. Adems muestra, que el valor del determinante no depende de la la o columna a lo largo de la cual se haga la expansin. Dicho teorema presenta tambin, una forma alternativa para calcular inversas de matriz en trminos del determinante de dicha matriz y su adjunta. 4
Prerrequisitos
1.1.5.
1.1. Matrices
Sea
Teorema.
1. Si
n.
Cij
ij , entonces:
a)
det(A) =
j=1 n
ij
Cij ,
para cada
i = 1, 2, . . . , n.
A ij Cij , para cada j = 1, 2, . . . , n. i=1 2. Para cualquier matriz cuadrada A, se tiene que
b)
det(A) =
es invertible sii
|A| = 0,
1
A
1.1.6.
= (det(A))
y
adj(A) . n, entonces:
Teorema.
1. 2.
Sean
A, B
|A| = 0.
3. Si las matrices
k-simas
las
Ak = B k ,
entonces
|A| = |B|. es un escalar, entonces |A| = n |A|. Si A, B y C dieren nicamente en la k-sima la y si Ck = Ak + Bk , entonces |C| = |A| + |B|. Si A tiene dos las iguales, entonces |A| = 0. Si B se obtiene al intercambiar dos las de A, entonces |B| = |A|.
la son multiplicados por un escalar
i-sima
y los resultados
k-sima la,
k = i. |AB| = |A||B|.
para
Nota.
las de
|A|
A.
En
este apartado recopilamos algunas deniciones y resultados relacionados con las operaciones que se pueden hacer en las las (respectivamente columnas) de una matriz, las cuales realizadas de manera apropiada nos 5
1.1. Matrices
Prerrequisitos
permiten obtener nuevas matrices con estructuras ms adecuadas, por ejemplo cuando se quiere resolver sistemas de ecuaciones. Dichas operaciones son las operaciones elementales y estn resumidas en la siguiente denicin. 1.1.7.
Denicin
triz
A,
A. A. A
A,
mltiplo escalar no nulo de otra la (columna) de dicha matriz. Una matriz elemental por las (columnas) es aquella que resulta de efectuar una operacin elemental sobre las las (columnas) de una matriz identidad.
1.1.8.
Teorema.
1. Cada matriz elemental es invertible. Adems, la inversa de cada
una matriz
m n.
Si
efectuar una operacin elemental sobre las las de elemental sobre las las de la matriz idntica
3.
y si
es
Im ,
entonces
A = B. Sea A una
matriz
m n.
Si
efectuar una operacin elemental sobre las columnas de elemental sobre las columnas de la matriz idntica
y si
In ,
entonces
A E = B.
1.1.9.
R
e
1.
no nulas, el primer elemento no derecha del primer elemento no
nulo nulo
Prerrequisitos
(iii) Si una columna de
una la de
(iv) Si
R,
R.
El siguiente teorema nos relaciona los conceptos de matrices elementales y forma escalonada reducida para una matriz arbitraria. 1.1.10.
Teorema.
que
tiene la forma escalonada reducida y un nmero nito de matrices elementales por las
E1 , E2 , . . . , Ek
tales que:
Ek E2 E1 A = R .
La matriz
A. A
una matriz cuadrada de orden
Teorema.
A A
Sea
n.
1. 2.
es invertible es invertible
un
Los dos ltimos teoremas dan lugar a un mtodo para decidir cundo una matriz cuadrada
efecte operaciones elementales sobre la las de esta matriz hasta obtener su forma escalonada reducida; al nal se obtiene una matriz que describiremos as
[R | P ];
es invertible
sii R = In . Si A
donde
A. A1 = P .
Ahora:
trices y multiplicacin de un escalar por una matriz, denidas al principio de la seccin 1.1, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importante porque incluye otros conjuntos que se presentan frecuentemente en las matemticas y sus aplicaciones. 7
Prerrequisitos
V,
cuyos
Denicin.
(+)
elementos son llamados vectores, junto con dos operaciones: suma de vectores y multiplicacin de un escalar por un vector
(),
que satisfacen
uV
u+0 = 0+u =
u.
(v) Si
uV,
u V
tal que
u + (u) = (u) + u = 0.
(vi) Si (vii) Si (viii) (ix) (x) 1.2.2. riales: 1.
u V y es un escalar, u V . u V y , son escalares, entonces ()u = (u) = (u). Si u V y , son escalares, entonces ( + )u = u + u. Si u V y v V y es un escalar, entonces (u+v) = u+v. Si u V , entonces 1u = u.
Los siguientes conjuntos son ejemplos de espacios vecto-
Ejemplo.
V = Rn = {(x1 , x2 , . . . , xn ) : xi R, i = 1, 2, . . . , n}
operaciones denidas as:
con las
operaciones
V = F,
el conjunto de funciones de
en
denidas as:
t R. t R.
V = Pn , el conjunto de las funciones polinmicas de grado menor n, con coecientes reales con las operaciones denidas
Prerrequisitos
Como se establece en la denicin, un espacio vectorial (real) es un tripla que consta de un conjunto
Cuando no haya lugar a confusin o cuando no sea necesario explicar las operaciones mencionadas, se har referencia simplemente al espacio vectorial
V.
V,
V,
son por s
mismo espacios vectoriales. Estos son denominados subespacios de forma ms precisa tenemos la siguiente 1.2.3.
V.
En
Denicin.
V.
Sea
un espacio vectorial y
vaco de
Diremos que un
es subespacio de
W V,
un subconjunto no si
W,
V,
Denicin.
Sean
es un subespacio de
de
L = {v V : v = v0 + w,
es denominado una variedad lineal de
w W} ,
V.
El siguiente concepto es bsico en el estudio de los espacios vectoriales. En particular, servir para caracterizar ciertos espacios de un espacio vectorial. 1.2.5. Denicin. Sean v1 , v2 , . . . , vn vectores de un espacio vectorial V . Se dice que un vector v V es combinacin lineal de los vectores v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n tales que:
v = 1 v1 + 2 v2 + + n vn =
i=1
1.2.6.
i vi .
Teorema.
Sea
V. W
es un subespacio de
sii
uW uW
y y
v W , entonces u + v W . R, entonces u W .
9
Prerrequisitos
W
son subespacios de un espacio vectorial
Teorema.
Si
V,
entonces:
1. La interseccin de
con
W; U W
es un subespacio vectorial
de
V. U
con
2. La suma de
W;
U + W = {v V : v = u + w,
es un subespacio vectorial de
1.2.8.
uU
w W} ,
V.
Teorema.
vectorial de
Sea C un conjunto no vaco de vectores de un espacio V . El conjunto de todas las combinaciones lineales de los vectores
k
C; vV : v=
i=1
W =
i vi ; k N, vi C y i R, i = 1, 2, . . . , k
es un subespacio de
Sea
V. V.
El
subespacio de
V,
C o simplemente, espacio generado por C. C = {v1 , v2 , . . . , vn } (es nito), este espacio ser denotado por v1 , v2 , . . . , vn o por gen {v1 , v2 , . . . , vn }. C
de vectores de un espacio vectori-
C.
Denicin
C
conjunto
(Independencia lineal) Sea C = {v1 , v2 , . . . , vn } un de vectores (distintos) de un espacio vectorial V . Se dice que
0 = 1 v1 + 2 v2 + + n vn =
i=1
i vi , C
v1 , v2 , . . . , vn
Prerrequisitos
linealmente independiente si para los escalares n i=1 i vi , entonces
0 =
1 = 2 = . . . , = n = 0 .
1.2.10.
Teorema.
En un espacio vectorial
se tiene:
0,
es linealmente
dependiente.
2. Todo conjunto que contenga un subconjunto linealmente depen-
linealmente independiente.
4. Un conjunto de vectores
C. V,
en oca-
de
de vectores linealmente
V.
linealmente independientes mediante los cuales, cada vector de expresar como combinacin lineal de los vectores de esta seccin, tal conjunto
se pueda
B. de V
de vectores de
V V,
V.
C en V con
un ningn subconjunto nito de vectores, diremos que dicho espacio tiene dimensin innita. Ejemplos de stos ltimos espacios son: el conjunto de funciones continuas denidas sobre espacios de dimensin nita. 1.2.11. o el conjunto de todos los poli-
R,
nomios con variable real. Nosotros sin embargo slo trataremos aqu con
Denicin
V.
(Base)
Sea
vectorial ciones:
Se dice que
es una base de
es
V.
es linealmente independiente.
11
Prerrequisitos
V tiene una base B = {v1 , v2 , . . . , vn } compuesta n vectores, entonces se puede demostrar que el nmero de vectores de cualquier otra base de V es tambin n. Es decir, si un espacio vectorial V tiene una base B con un nmero nito, n, de elementos, cualquier otra base de dicho espacio vectorial, tiene exactamente n elementos. A dicho nmero comn se le llama dimensin del espacio V y se dice que V es de dimensin nita n y se escribe dim V = n.
1.2.12.
Denicin.
V
y
Sea
V, v0
un vector en
la variedad
L = {v V : v = v0 + w, w W } ,
si
dim W = k,
tiene dimensin
k.
El siguiente teorema resume algunos aspectos importante sobre bases de espacios vectoriales, independencia lineal y conjuntos generadores. 1.2.13.
Teorema.
entonces:
Sea
n. V,
1. Si
B = {v1 , v2 , . . . , vn }
es un conjunto de
vectores de
2. 3.
4. 5.
6.
B es una base de V sii B es linealmente independiente. B es una base de V sii B genera a V . Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, entonces r n. Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, con r < n, entonces existen n r vectores de V ; w1 , w2 , . . . , wnr , tales que B = {u1 , u2 , . . . , ur , w1 , . . . , wnr } es una base de V. Si C = {u1 , u2 , . . . , ur } genera a V entonces r n. Si el conjunto C = {u1 , u2 , . . . , ur } genera a V y r > n, entonces existen n r vectores de C; w1 , w2 , . . . , wnr , tales que B = C \ {w1 , w2 , . . . , wnr } es una base de V. Si W es un subespacio de V entonces dim W n. Si dim W = n, entonces W = V.
a) b) Si
1.2.14.
Teorema.
entonces
Prerrequisitos
1.2.15. Nota. En el teorema anterior: U W = {0} sii dim(U + W ) = dim U +dim V . Cuando U W = {0} al espacio U +W de V se le denomina suma directa de U con W y se escribe U W en lugar de U + W . Adems, en este caso para cada vector v U W , existen vectores nicos u U y w W tales que v = u + w. 1.2.16.
Teorema.
W
Si
V,
en-
de
tal que
U W = V.
U.
son subespacios
1.2.2. Coordenadas.
respecto de una base es til en el estudio de las transformaciones lineales. Para introducir este concepto es necesario denir primero lo que es una base ordenada de un espacio vectorial
V.
levante en qu orden apareciera los elementos de una base. Sin embargo, a partir de ahora el orden ser importante. En tal sentido, nosotros consideramos la siguiente denicin. (Base ordenada) Si v1 , v2 , . . . , vn es una sucesin nita de vectores linealmente independientes de un espacio vectorial V, 1.2.17.
Denicin
que generan a
base ordenada de
1.2.18.
V , entonces V.
Si
diremos que
B = {v1 , v2 , . . . , vn }
es una
Teorema.
v = 1 v1 + 2 v2 + + n vn =
i=1
1.2.19.
i vi ,
B = {v1 , v2 , . . . , vn } una base ordenada de un v un vector de V y sean 1 , 2 , . . . , n los esn calares nicos tales que v = i=1 i vi , el vector (vector columna) de coordenadas de v respecto de la base ordenada B se denota por [v]B y se
Sea espacio vectorial
Denicin.
V.
Sea
dene as:
1 2 [v]B = . . . . n
13
Prerrequisitos
y si
es un escalar, entonces
[u + v]B =
T
n i=1
i vi . B V
determina una correspondencia biunvoentre los espacios
v [v]B ,
Mn1 ,
vectores y la multiplicacin de un escalar por un vector. Ms an, preserva la independencia lineal; sto es, el conjunto un conjunto de vectores linealmente independientes de
V = Rn y B = {e1 , e2 , . . . , en } sea la base cannica, e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1), x1 x2 x = (x1 , x2 , . . . , xn ) [x]B = . . . . xn
En algunas situaciones resulta conveniente tener presente esta correspondencia, que utilizaremos identicando a
con
[x]B .
En este aparta-
do consideraremos los conceptos de producto interno y de bases ortonormales que nos ser particularmente tiles en el captulo 3 al tratar la
adems
vectores arbitrarios de
es una funcin
u; v = v; u . u; u 0 y u; u = 0 si y slo u; v = u; v . u + v; w = u; w + v; w .
14
si
u = 0.
Prerrequisitos
es una base ordenada de un espacio vectorial V , T entonces la funcin ; : V V R denida por u; v = [u]B [v]B es n un producto interno. En particular, si V = R y B es la base cannica de n R , se tiene que
Observacin.
x; y = [x]B [y]B = x1 y1 + x2 y2 + + xn yn ,
donde
x = (x1 , x2 , . . . , xn )
; v; v
longitud de un vector
1.2.21.
Teorema
(Desigualdad de Schwarz)
Sea
un espacio vectori-
de
se
| u; v | u
Sean si
v .
,
u y v vectores de un espacio vectorial V con producto interno ; v no son nulos, la medida del ngulo entre ellos se dene como | u; v | = arc cos . u v
1.2.22.
Denicin.
Sea
u y v de V son ortogonales si u; v = 0. C = {v1 , v2 , . . . , vn } de vectores de V es ortogonal si vi ; vj = 0 para i = j, i, j = 1, 2, . . . , n. Se dice que un conjunto C = {v1 , v2 , . . . , vn } de vectores de V es ortonormal si C es ortogonal y cada vector de C es unitario, 1 0 si i = j ; i, j = 1, 2, . . . , n . si i = j
o sea si:
vi ; vj = ij =
Prerrequisitos
Teorema. Sea V un espacio vectorial con producto interno ; . C = {v1 , v2 , . . . , vn } es un conjunto ortogonal que no contiene al vector 0, entonces C es linealmente independiente.
Si
1.2.24.
Teorema
Sea
W un subespacio no nulo de un espacio vectorial V de dimensin nita k con producto interno ; y sea B = {w1 , w2 , . . . , wk } una base de W. Entonces C = {v1 , v2 , . . . , vk } es una base ortogonal de W y C = {v1 , v2 , . . . , vk } es una base ortonormal de W , donde: v1 v2 v3 = w1 w2 ; v1 v1 v1 ; v1 w3 ; v 1 w3 ; v2 = w3 v1 v2 v1 ; v1 v2 ; v2 = w2
. . .
k1
vk vi vi
= wk
i=1
wk ; vi vi , vi ; vi
y donde
1.2.25.
vi =
para
i = 1, 2, . . . , k.
vectorial
Sean v1 , v2 , . . . , vk vectores no nulos de un espacio V de dimensin n > k , con producto interno ; . Si C1 = {v1 , v2 , . . . , vk } es un conjunto ortogonal (respectivamente ortonormal), entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1 , w2 , . . . , wnk } de vectores de V tal que B = C1 C2 es una base ortogonal (ortonormal) de V. Ms an, si U = v1 , v2 , . . . , vk y si W = w1 , w2 , . . . , wnk entonces V = U W y adems, U y W son ortogonales.
Teorema.
U, V
denotarn espacios
Denicin.
Una funcin
Prerrequisitos
(i) (ii) 1.3.2.
Ejemplo.
U,
la funcin idntica
A Mmn ,
la funcin
I : U U, u I(u) = u. A : Rn Rm , denida
x y = Ax.
Sean
Teorema.
U
U y V espacios vectoriales, B = {u1 , u2 , . . . , un } T : U V es una transformacin lineal. Entonces T determinada por los vectores T (u1 ), T (u2 ), . . . , T (un ).
y
Asociados a toda transformacin lineal hay dos subespacios importantes a saber; su ncleo y su imagen. El primero de ellos corresponde a todos lo elementos del espacio espacio
V;
V U. En forma ms precisa
Denicin.
Sea
T :U V
1. El ncleo de
se denota por
N (T )
y se dene as:
N (T ) = {u U : T (u) = 0} .
2. La imagen de
se denota por
Img(T )
y se dene as:
Img(T ) = {T (u) : u U } .
1.3.5.
Denicin.
Sea
T :U V
1. Diremos que
u1 , u2 U ,
u1 = u2
implica
T (u1 ) = T (u2 ); V
para todo
u1 , u2 U. U.
2. Diremos que
vV
existe un
uU
tal que
T (u) = v.
Prerrequisitos
un subconjunto de vectores
Teorema.
y sea
1. 2. 3. 4. 5.
Sea
B = {u1 , u2 , . . . , un }
de
T :U V
6.
N (T ) es un subespacio vectorial de U. T es inyectiva sii N (T ) = {0} . Img(T ) es un subespacio vectorial de V. Si B es una base de U , entonces {T (u1 ), T (u2 ), . . . , T (un )} genera al espacio Img(T ). Si T es inyectiva y B es linealmente independiente, entonces {T (u1 ), T (u2 ), . . . , T (un )} es un subconjunto linealmente independiente de vectores de V . dim N (T ) + dim Img(T ) = dim U . N (T )
se le llama nulidad de
A la dimensin de
y a la dimensin de
Img(T )
se llama rango de
T.
1.3.1. Matriz de una transformacin lineal referida a un par de bases ordenadas. A cada transformacin lineal se le puede asignar
una matriz
A,
toriales involucrados en dicha transformacin. Veremos en esta seccin, que una tal asignacin simplicar muchos clculos. Es decir, ser ms conveniente trabajar con la matriz asociada a una transformacin lineal (referida a ciertas bases), que con la transformacin lineal misma. 1.3.7.
U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm } bases ordenadas de U y de V respectivamente. La matriz de T referida a las bases B1 y B2 se denotar por [T ]B B y corresponde a la matriz mn 1 2
Sean dada por:
Denicin.
[T ]B1 B2 =
1.3.8.
[T (u1 )]B2
[T (u2 )]B2
[T (un )]B2
Teorema.
Sean
U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm } U y de V respectivamente. Para cada u U se tiene [T (u)]B2 = [T ]B1 B2 [u]B1 .
Nota.
por el conocimiento de
Prerrequisitos
1.3.2. lgebra de transformaciones lineales. Inversa de una transformacin lineal. En esta seccin consideraremos las operaciones
de suma, multiplicacin por un escalar y composicin entre transformaciones lineales. As mismo veremos la relacin existente entre las matrices asociadas correspondientes. En este apartado vectoriales. 1.3.9.
U, V
denotan espacios
Teorema.
Sean
tivamente:
1. La suma de
S ; (T + S) : U V,
denida por
(T + S)(u) =
T (u) + S(u)
T ; (T ) : U V,
denida por
(T )(u) = T (u)
[T ]B1 B2 = [T ]B1 B2 .
Nota.
en
V,
L(U, V ),
dim U = n
dim V = m
entonces
dim L(U, V ) = m n.
De otro lado, de la misma forma como una base
tiplicacin de un escalar por un vector, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es una transformacin lineal.
1.3.10.
Teorema.
U, V
y
Sean
Prerrequisitos
Teorema.
Si
[T ]B1 B2
T 1
B2 B1
= [T ]B1 B2 .
Los conceptos
de matrices semejantes y cambio de base nos sern particularmente tiles en el captulo 4 para el estudio de los valores propios y los vectores propios
Sean
AyB
matrices cuadradas
de orden vertible
1.3.13.
tal que
B B = P 1 AP.
y
Denicin
Sean
U,
y sea
I :U U
[u]B2
1.3.14.
Teorema.
Sean
T :U U
B1
B2
bases ordenadas de
U.
[I]B1 B2 ,
de la base
2. Las matrices
B = [T ]B1 B1
1.4. Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales
En esta seccin consideraremos los llamados espacios fundamentales de una matriz el de la transformacin lineal
A. Dos de estos espacios son precisamente el ncleo y la imagen x y = Ax, los cuales estn relacionados con conjunto solucin de un sistema de ecuaciones lineales Ax = y. El A tienen igual dimensin. A y se denota por (A).
A
lector recordar de los resultados de un primer curso de lgebra lineal, que el espacio la y es espacio columna de ese nmero comn se le denomina rango de 20
Prerrequisitos
Sea
una matriz
Rn
y lo denotamos por
F(A);
esto es,
A F(A) =
A1 , A2 , . . . , Am . El subespacio de Rm generado por las columnas de A se denomina espacio columna de A y lo denotamos por C(A); esto 1 2 n es, C(A) = A , A , . . . , A . El espacio formado todas soluciones de un sistema homogneo de ecuaciones lineales Ax = 0 se denomina espacio
nulo de una matriz, esto es, el espacio nulo es el conjunto
N (A) = {x Rn : Ax = 0} .
De otro lado, el subespacio de
Rn ;
algn
Img(A)
= {Ax : x Rn } = {y Rm : y = Ax para x Rn } . A. A
se tiene que
Teorema. Teorema.
1.
Sea
una matriz arbitraria entonces: son ortogonales. sto es, sus elementos son or-
F(A)
N (A)
togonales entre si. t 2. C(A) y N (A ) son ortogonales. sto es, sus elementos son ortogonales entre si.
1.4.3.
Teorema.
1.
Sean
2. Si
3. 4.
C(AB) C(A) y F(AB) F(B). P y Q son matrices invertibles de tamao apropiado a ) C(A) = C(AQ). b ) F(A) = F(P A). C(A + B) C(A) + C(B) y F(A + B) F(A) + F(B). T Para cualquier matriz A se tiene que: N (A) = N (A A). A,
entonces
Nota.
R es F(R).
si
1.4.4.
Segn el inciso 2(b) del teorema anterior y segn el teorema 1.1.10, la forma escalonada reducida de la matriz
F(A) =
Teorema.
lineal
Sea A una matriz mn. La imagen de la transformacin A : Rn Rm , x y = Ax, es el espacio columna de A; esto es,
Img(A) = C(A)
=
21
{Ax : x Rn } .
Prerrequisitos
Nota.
es una matriz
m n,
entonces
F(At ) = C(A),
Rn = F(A) N (A)
es decir, los subespacios mismo, los subespacios
Rm = C(A) N (AT ),
As
x Rn y cada y Rm se pueden expresar en forma nica as: x = f + n y y = c + u, donde f , n, c y u pertenecen T a F(A), N (A), C(A) y N (A ), respectivamente (ver gura 1.1).
Esto implica entonces, que cada
IR
IR x=f+n
F (A)
f n
C (A)
Ax=Af y=c+u
c
u
N (A)
Figura 1.1. Transformacin lineal
N (AT)
Nota.
y = Ax
A. A, (A),
como el rango
x y = Ax,
A.
entonces:
1.4.5.
Teorema.
1. 2.
Sea
una matriz
m n,
(A) (A)
entes de entes de
A. A.
22
Prerrequisitos
3.
(A)
ducida de
5. Si 6. 7. 1.4.6.
A.
A, (A) = (AT ) = (AAT ) = (AT A). A es una matriz m n y B es una matriz n k , entonces (AB) (A) y (AB) (B). Si P es una matriz invertible mm y Q es una matriz invertible n n, entonces (A) = (P A) = (AQ) = (P AQ). Si A y B son matrices m n, entonces (A + B) (A) + (B).
Sea
Teorema.
una matriz
mn
y sea
un vector
m 1.
la matriz
A es
[A | y],
es decir sii
y C(A). /
b ) El sistema tiene innitas soluciones, en cuyo caso su conjunto solucin es una variedad lineal de la forma
N (A) = {0 }
El teorema siguiente recoge, tericamente, el mtodo de Gauss-Jordan para resolver sistemas de ecuaciones lineales. 1.4.7.
A una matriz m n y y un vector n 1. Si P m m tal que P A = R, donde R es la forma escalonada reducida de A, entonces Ax = y sii Rx = P y; esto es, los sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo conjunto solucin. En particular, si y = 0; Ax = 0 sii Rx = 0.
Sean
1.4.8.
Teorema.
Teorema (Resumen).
1. 2.
Sea
n.
Las
det(A) = 0. A es invertible. A
en
3. La forma escalonada de
In .
23
Prerrequisitos
es
N (A) = {0}. x = 0. y Rn ,
Ax = y
tiene solucin.
Por ltimo, consideramos un mtodo para calcular una base de cada uno de los espacios fundamentales de una matriz consiste en efectuar los pasos siguientes: Paso 1 Paso 2 Forme la matriz
mn arbitraria A. El mtodo
AT | In
Efecte operaciones elementales sobre las las de la matriz anterior hasta obtener la forma escalonada reducida. Al nal se obtiene la matriz que podemos describir por bloques as:
Erm 0(nr)m
donde
. . . . . .
Prn P(nr)n
r = (A). Erm
conforman una base para
C(A)
P(nr)n
conforman una
base para
N (A). [A | Im ]
se obtienen sendas bases
C(AT ) = F(A)
N (AT ).
24
CAPTULO 2
A, algunas de ellas A. (ii) La particin exhibir detalles particulares e interesantes de A. (iii) La particin permitir simplicar clculos que involucran la matriz A.
aij
de una matriz
A =
[aij ]mn
2.1.1.
Denicin. Ejemplo.
Sea
es una matriz
A.
2.1.2. Las matrices
S1 , S2 2 6 0
S3 dadas 4 8 . 2
a continuacin, sonson
submatrices de la matriz
1 A= 5 9 S1 = 1 9 2 0 4 2
3 7 1 A
(suprimiendo en
la la 2 y la columna 3)
25
2.1. Submatrices
S2 = 1 9 2 6 2 0 3 7 3 7 4 8
(suprimiendo en
Matrices particionadas
A
la la 3)
S3 =
(suprimiendo en
A = [aij ]mn ;
A,
como se
. . . . . . . . .
. . . . . . . . .
. . . . . .
. . . . . .
A=
donde
A11 A21
A12 A22
A13 A23
A11
A12
A13
A21 =
a41 a51
A22 =
a42 a52
a43 a53
A23 =
a44 a55
Debe ser claro para el lector, que una matriz puede ser particionada de diferentes maneras, por ejemplo: 26
Matrices particionadas
2.1. Submatrices
A =
1 2 1 1
2 0 2
. . . . . .
3 3 3 2 0 2
4 0 1
1 2 0 2
. . . . . .
3 3 3
4 0 1
. . . . . .
1 = 2 1 1 3 3 3 4 0 1 5 1 1
. . .
. . .
5 1 . 1
A =
2 1
. . .
Tal vez, la principal conveniencia de particionar matrices, es que se puede operar con matrices particionadas como si las submatrices fuesen elementos ordinarios, tal como se establece en el teorema siguiente. 2.1.3.
Teorema.
1. Si las matrices
B
.. .
A12 A22
. . .
Am2
B12 B22
. . .
.. .
Bm2
Aij +Bij estn denidas para i = 1, 2, . . . , m, j = 1, 2, . . . , n, entonces A11 + B11 A12 + B12 A1n + B1n A21 + B21 A22 + B22 A2n + B2n A+B = . . . . .. . . . . . . . Am1 + Bm1 Am2 + Bm2 Amn + Bmn
y si las sumas
2. Si las matrices
B
.. .
A12 A22
. . .
Am2
B12 B22
. . .
.. .
Bn2
2.1. Submatrices
Matrices particionadas
Aik es igual al nmero Bkj ; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j = C12 C22
. . .
1, 2, . . . , s,
entonces
.. .
Cm2
donde
Cij =
entonces
A12 A22
. . .
.. .
Am2 AT 21 AT 22
. . . AT 2m
AT
AT 11
.. .
T A12 = . . . AT 1m
AT n2 . . . . AT nm
Los incisos (1), (3) y (4) del teorema anterior son fciles de vericar. La demostracin del inciso (2) es laboriosa y no la haremos. Sin embargo, el lector interesado puede consultar una indicacin de dicha demostracin en [
1 A= 2 1
. . . . . .
0 0 2
0 0 1
. . . . . .
0 3 0
28
. . .
. . .
3 A 4 = 11 A21 0
A12 A23
A13 A23
Matrices particionadas
y
2.2. Determinantes
B=
entonces
1 0 1 0 1
2 0 3 1 2
AB
pues
A11 B11 + A12 B21 + A13 B31 A21 B11 + A22 B21 + A23 B31 1 2 0 0 0 3 [1] 2 0 1 1 0 0 0 3 4 2 1 2 = 1 2 1 0 3 1 2 2 = =
4 = 2 2 2 4 0 0
8 7 5
A11 B11 A12 B21 A13 B31 A21 B11 A22 B21 A23 B31
= = = = = =
2 0 1 0 1 = 0 1 0 1
= 0 3
, 0 0 3 4 , 6 1 ,
1 0
, 0 .
2.2. Determinantes
Matrices particionadas
El lector recordar, que el determinante de una matriz triangular (superior o inferior) es justamente el producto de los elementos de la diagonal principal. El siguiente teorema, por ejemplo, lo podramos ver como una "generalizacin" de dicho resultado. 2.2.1.
Proposicin.
1. Si
Sean
matrices cuadradas,
M= M=
A 0 A B
B C 0 C
, ,
entonces
|M | = |A||C|. |M | = |A||C|.
2. Si
entonces
de la matriz
M.
donde
Si
n=2
tenemos que
|M | = ac = |A| |C| A 0 B C =
M=
a 0
b c
n=k
y demostremos que es
n = k + 1.
Sea
n = k + 1 particionada como en (1). C = [cij ]ss . Denotemos por B j a la j submatriz de B que se obtiene suprimiendo en B la columna j y por C a la submatriz de C que se obtiene suprimiendo en C la columna j y la la s, j = 1, 2, . . . , s.
una matriz cuadrada de orden Suponga adems que
B = [bij ]rs
k+1
obtenemos: 30
Matrices particionadas
2.2. Determinantes
det(M )
A 0 A 0
B1 C1 B2 C2 A 0
+ . . . + css (1)2(k+1)s+s
Utilizando la hiptesis de induccin se obtiene:
Bs Cs
det(M )
(1)2(k+1)2s cs1 (1)s+1 |A| |C 1 | + cs2 (1)s+2 |A| |C 2 | + . . . + css (1)s+s |A| |C s |
|M | = M T
(teore-
det(M )
= = = =
det(M T ) det A 0 B C
2.2.2.
Ejemplo.
cin anterior para calcular el determinante de cada una de las matrices siguientes: 31
2.2. Determinantes
Matrices particionadas
5 7 , 3 5
7 M = 4 3
0 5 7
0 6 9
1 1 N = 0 0 0 = 6 9
. . . . . . . . . . . . . . .
2 3 0 0
4 6 2 3
7 M = 4 3
y
. . . . . . . . . . . .
0 5 7
A B
0 C
1 1 N = 0 0
Entonces
4 6 2 3 5 . 3 7 5 1 1 2 3 2 3 3 5
2 3 0 0
|M | = |7|
5 7
6 9
= 21
|N | =
= 1.
El siguiente teorema nos brinda una alternativa para calcular determinantes de matrices ms generales particionadas por bloques. 2.2.3.
Teorema.
1. Si 2. Si
Sean
M=
A C
B D
Matrices particionadas
Sea
2.2. Determinantes
0 I .
Entonces
S =
I D1 C
MS =
A BD1 C 0
B D
Los siguientes resultados son consecuencia inmediata de este teorema y sus vericaciones se dejan como ejercicio. 2.2.4.
Corolario.
Sean
A, B, C M=
y sea
A C
B D
1. Si 2. Si 3. Si 4. Si 2.2.5.
D es invertible y si DB = BD, entonces |M | = |DA BC|. A es invertible y si AC = CA, entonces |M | = |AD CB|. D = 0 y A es invertible, entonces |M | = (1)n |B| |C|. A = 0 y D es invertible, entonces |M | = (1)n |B| |C|.
Utilizando los resultados del corolario anterior encon-
Ejemplo.
1 M = 1 1
Particionemos entonces
2 3 1 M
4 5 1
y
M yN 1 2 1 3 N = 4 5 3 3
dadas por:
2 2 0 0
1 3 . 0 0
de adecuadamente. . . . . . .
Para
tomamos
1 1 1
2 3 1
. . .
4 5 = 1 3 4
A C
B D
, siendo
D = [1].
Puesto que
2 2
= 2 .
2.2. Determinantes
1
Similarmente para
Matrices particionadas
2 3 5 3
. . . . . .
2 2 0 0 1 3 = 0 0
N, N =
1 4 3
. . . . . .
A C
B 0
siendo
A=
1 1
2 3
. Dado que
Proposicin.
1. La matriz
Sean
matrices cuadradas.
M=
A 0
B C
es invertible entonces
M 1 =
2. La matriz
A1 0 A B 0 C
A1 BC 1 C 1
. A
y
M=
es invertible entonces
M 1 =
A1 C BA1
1
0 C 1
La prueba de este resultado se propone como ejercicio. El ejemplo siguiente, nos ilustra el inciso (1) de la proposicin anterior. 2.2.7.
Ejemplo.
1 1 M = 0 0
2 3 0 0
1 1 2 5
1 1 1 3
Matrices particionadas
Observando la estructura de la matriz
2.2. Determinantes
M
podemos ver que una buena . . . . . .
1 1 particin es: M = 0 0
las matrices
2 3 0 0
1 1 2 5
. . . . . .
1 1 = 1 3 M
A 0
B C
. Puesto que
tambin lo es y adems,
M 1 =
A1 0
A1 BC 1 C 1
3 1 = 0 0
2 2 1 3 0 0 . 0 3 1 0 5 2
El siguiente teorema presenta una frmula para calcular inversas de matrices ms generales 2.2.8.
Teorema.
B=
Sea
B11 B21
B12 B22
con
B11
B22
matrices invertibles.
Si
B 1
B 1 =
A11 A21
A12 A22
, Bii
donde Aii (i = 1, 2), matrices cuadradas de igual orden que la matriz respectivamente entonces:
A11 y A22 son invertibles. 1 1 B11 B12 B22 B21 y B22 B21 B11 B12
est dada por
1
son inver-
tibles.
3. La matriz
B 1
1 1 B11 B12 B22 B21 B11 B12 1 1 B22 B21 B11 B12 1
35
2.2. Determinantes
Demostracin. De la igualdad
Matrices particionadas
BB 1 =
B11 B21
B12 B22
A11 A21
A12 A22 = = = =
I 0
0 I
=I
(2.1)
B11 A11 + B12 A21 B21 A11 + B22 A21 B11 A12 + B12 A22 B21 A12 + B22 A22
I 0 0 I
1 B22 , se obtiene
o sea,
A21
en (2.1(a)), se obtiene
A11
son invertibles
1 B11 ,
se obtiene :
o sea,
Sustituyendo
A12
en (2.1(d)), se obtiene:
A22
son invertibles
1 1 A12 = B11 B12 B22 B21 B11 B12 1 1 A22 = B22 B21 B11 B12 1
A continuacin enunciamos y demostramos un teorema que involucra matrices particionadas y el rango de una matriz. 36
Matrices particionadas
2.2.9.
Teorema.
r r.
Si
vertible
A11 A12 , donde A11 es una A21 A22 (A) = (A11 ), entonces A22 = A21 A1 A12 . 11
Sea
A=
A11
(A11 ) = r
I A21 A1 11
y la matriz
0 I
PQ =
I 0
P =
A1 A12 11 I
|P | = |Q| = 1 = 0. A11 0
En consecuencia, por el
P AQ =
tienen rango
r.
P AQ y A11 es r (vase el teorema 1.4.5(2)), enA22 A21 A1 A12 = 0, o sea A22 = A21 A1 A12 . 11 11
3 4
Sea A una matriz cuadrada. La traza Tr(A) y se dene como la suma de los elementos principal de A. sto es,
2.3.1.
Denicin.
de
se deno-
ta por
de la diagonal
Tr(A) =
s=1
2.3.2.
ss
. A
son
Nota.
AT ,
entonces
Tr(A) = Tr(AT ) .
37
Matrices particionadas
y
Teorema.
Sean
Si
Tr(A + B)
=
s=1 n
A + B ( A
s=1 n
ss
= = =
ss
+ B
n
ss )
A
s=1
ss + s=1
ss
Tr(A) + Tr(B) .
2.3.4.
Teorema.
Si
es una matriz
mn
es una matriz
nm
entonces
Tr(AB) = Tr(BA) .
Tr(AB)
=
s=1 n
AB
m
ss
=
s=1 k=1 m n
A B
k=1 s=1 m
sk
B A
ks
= =
k=1
ks
sk
BA
kk
= Tr(BA) .
38
Matrices particionadas
2.3.5.
2.4. Ejercicios
cuadrada de orden
Corolario.
matriz invertible
n.
Si
es una
Tr(A)
= =
2.3.6.
Corolario.
Si
es una matriz
entonces
m
Tr(AAT ) = Tr(AT A) =
s=1 k=1
2 sk
Adems,
Tr(AAT ) = 0
sii
A = 0.
Tr(AAT )
=
s=1 m
AAT
n
ss m n 2 sk
=
s=1 k=1
Esto es,
sk
AT
ks
=
s=1 k=1
Tr(AAT )
si y slo si
A = 0.
2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la matriz inversa (si existe) de cada una de las matrices siguientes :
5 3 M1 = 3 2
3 0 0 2 0 0 2 2 1 1 5 3
3 1 2 1 M2 = 0 0 0 0
1 1 1 1 1 1 4 5
2. Demuestre el inciso (2) del teorema 2.2.3. 3. Demuestre el corolario 2.2.4. 4. Demuestre la proposicin 2.2.6. 39
2.4. Ejercicios
5. Sean
Matrices particionadas
a, b, c
y
n N.
Calcule el deter-
M=
6. Sean
aIn cIn
bIn dIn
.
una matriz cuadra-
da de orden
M =
0 B
A C
o si
M =
C B
7. Sean
A 0 A
y
, entonces
matrices cuadradas.
M=
sea invertible. Si de las matrices
0 B
A C
exprese
M es invertible, A, B y C . C B A 0
M 1
en trminos
M=
sea invertible. Si de las matrices
M es invertible, A, B y C .
exprese
M 1
en trminos
8. Utilice los resultados que obtuvo en el problema anterior para calcular la matriz inversa de cada una de las matrices siguientes:
0 0 M1 = 5 3
9. Sean
0 0 3 2
2 5 3 2
1 3 2 1
1 1 M2 = 3 2
1 1 1 1 4 5 . 1 0 0 1 0 0
a ) Si b ) Si
AB
por las).
Matrices particionadas
10. Sean
2.4. Ejercicios
Demuestre que si
A11 , A22 y A33 matrices cuadradas. A11 A12 A13 A11 A22 A23 M = A21 M = 0 0 0 A33 A31
entonces tonces
0 A22 A32
0 0 A33
en-
|M | = |A11 | |A22 | |A33 |. A11 , A22 y A33 son matrices invertibles, la matriz M = diag (A11 , A22 , A33 ) es invertible y 1 A11 0 0 M 1 = 0 A1 0 22 0 0 A1 33
y
12. Sean
aR
Ann a y
det
x A
det
I B
A C
= det(C BA).
det
y concluya que
In A
B Im
= det
Im B
A In
15. Suponga que las matrices que abajo aparecen son de tamao apropiado, donde
A11
es una matriz
I X Y
B22 .
A es una matriz invertible 2 2, entonces Tr(A) = det(A) Tr(A1 ). Sea V el espacio vectorial de las matrices n n; (V = Mnn ) . Demuestre que la funcin ; : V V M denida por A; B = Tr(AB T ) es un producto interno en V . (Vea el apartado
41
2.4. Ejercicios
18. Sean
Matrices particionadas
A
y
n.
Demuestre que
la funcin traza)
T : Mnn R es una transformacin lineal, entonces existe A tal que T (M ) = Tr(AM). (Escriba T (M ) en trminos de T (Eij ), siendo Eij los elementos de la base estndar
una matriz
a) b)
dim W , donde W = {A : Tr(A) = 0}. B matrices cuadradas del mismo orden k k Muestre que Tr((AB) ) = Tr((BA) ). k k k Muestre con un ejemplo que Tr((AB) ) = Tr(A B ). A
y
42
CAPTULO 3
base ordenada
B = {u1 , u2 , . . . , un } 1 0 =D= . . . 0
de
diagonal, es decir,
[T ]BB
0 2
. . .
0 0 . , . . n
entonces
T (ui ) = i ui ;
esto es, de
i = 1, 2, . . . , n , ui .
Este hecho da informacin
T (ui )
es un mltiplo escalar de
T. ui
y el ncleo de lineales
i = 0, ui . En
B?
respuestas a estas preguntas estn directamente ligadas a los conceptos de valor propio y vector propio, los cuales sern abordados en la seccin 3.1. Veremos en esta seccin, que el clculo de los valores propios y los vectores propios de una transformacin lineal
se reduce al clculo de
A.
Por
otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor propio, vector propio y diagonalizacin de matrices simtricas, los cuales son particularmente importantes en la teora y en aplicaciones del lgebra lineal.
43
Diagonalizacin de matrices
U y dada una transforT : U U , encontrar valores de un escalar para los cuales vectores u = 0 tales que T (u) = u. Tal problema se denomina
un problema de valores propios (la gura 3.1 nos ilustra las posibles situaciones). En esta seccin veremos cmo resolver dicho problema. 3.1.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar es un valor propio de T , si existe un vector u = 0 de U tal que T (u) = u. A dicho vector no nulo u se le llama un vector propio de T correspondiente al valor propio , o se dice que es -vector de T .
Nota.
T(u)= u u
u T(u)= u T(u)= u
T(u)= 0 =0
>1
0<<1
<0
3.1.2.
T : R2 R2 ,
Ejemplo.
dada por
T (x, y) = (2x, x + 3y). es un vector propio T sii T [(x, y)] = (2x, x + 3y) = 2 vector u = (x, y) = 0 de R que
u = (x, y) = 0
de
R2
tal que
(x, y),
satisfaga el sistema
2x x + 3y
= x = y .
44
Diagonalizacin de matrices
Ahora, si
x = 0,
y = x.
Esto
T.
En efecto:
T.
En efecto:
y , T(u ) =3 (0, y)
, u = (0, y)
45
Diagonalizacin de matrices
T
le cor-
Proposicin.
propios de
Sean
un espacio vectorial,
formacin lineal y
-vectores
un valor propio de
T.
El conjunto
0,
es
u1 S()
u2 S()
entonces
Esto es,
Denicin.
Sean
un espacio vectorial,
macin lineal y
un valor propio de
T.
1. El subespacio de 2. La dimensin de
U, S(), S()
3.1.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB , la matriz de la transformacin T referida a la base B. Entonces para cada u U se tiene [T (u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un -vector propio de T si y slo si u = 0 y A [u]B = [T (u)]B = [u]B = [u]B . Esto es, u es un -vector propio de T si y slo si u = 0 y A [u]B = [u]B . Por esta razn, y porque resulta en otros contextos, consideramos a continuacin los conceptos particulares de valor propio y vector propio de una matriz cuadrada A.
46
Diagonalizacin de matrices
3.1.6.
Denicin.
1. 2.
Sea
Se dice que el escalar es un valor propio de A, si existe un vector n 1, x = 0 tal que Ax = x. Si es un valor propio de A y si el vector n 1, x = 0 es tal que Ax = x. Entonces se dice que x es un vector propio de A correspondiente al valor propio , o que x es un -vector de A.
A : Rn Rn ; x y =
Ax,
seccin 1.3). De otro lado, segn la denicin anterior y la nota 3.1.5, odemos enunciar el siguiente teorema. 3.1.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB .
1. 2.
es un valor propio de T sii es un valor propio de A. u U es un -vector propio de T sii x = [u]BB es un -vector propio de A.
Dicho teorema nos garatiza entonces, que el clculo de los valores y vectores propios de una transformacin lineal se reduce al clculo de los valores y vectores propios de una cierta matriz
A.
A una matriz n n. Por denicin, el escalar es un valor propio A sii existe un vector n 1, x = 0 tal que Ax = x, lo cual equivale a que el sistema homogneo de ecuaciones lineales (A I)x = 0 tenga una solucin no trivial x = 0. Ahora por el teorema 1.4.8 del captulo 1, el sistema de ecuaciones lineales (A I)x = 0 tiene una solucin x = 0 sii |A I| = 0. En consecuencia, el escalar es un valor propio de A sii
Sea de
pA () = |A I| =
.. .
=0
an1
an2
47
an3
ann
Diagonalizacin de matrices
de grado
pA () = |A I|
es un polinomio en
n,
el cual
pA () = |A I| = a0 + a1 + a2 2 + + an1 n1 + (1)n n .
3.1.8.
Denicin.
Sea
1. El polinomio
2.
Teorema.
Sea
n
1
1. El escalar 2. 3.1.10.
es un valor propio de
de la ecuacin caracterstica de
A A.
sii
tiene a lo ms Sea
Denicin.
A
un valor propio de
A.
La multiplicidad algebraica de
es
k,
si
caracterstico de
de multiplicidad
k.
El siguiente algoritmo, recoge entonces el esquema para calcular los valores propios y los vectores propios de una matriz Paso 1 Paso 2 Paso 3
A.
pA () = |A I| . pA () = |A I| = 0. Las soluciones (reales) de sta, son los valores propios de A. Para cada valor propio de la matriz A, se resuelve el sistema de ecuaciones (A I)x = 0. Las soluciones no nulas de este sistema son los vectores propios de A.
Se determina el polinomio caracterstico Se resuelve la ecuacin caracterstica
1Un valor propio de A es un escalar, y, como hemos establecido, en estas notas los escalares sern nmeros reales a menos que se exprese lo contrario. De hecho, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. No sobra mencionar que en cursos avanzados de espacios vectoriales, la nica restriccin para los escalares es que sean elementos de un sistema matemtico llamado cuerpo o campo. 2El teorema fundamental del lgebra establece que toda ecuacin polinmica de grado n, con coecientes complejos, tiene exactamente n races complejas, contadas con sus multiplicidades.
48
Diagonalizacin de matrices
3.1.11. matriz
Ejemplo.
1 A = 1 1
1 3 2
1 1 . 0
pA ()
= |A I| = (1 )
1 1 1 1
1 3 2 1
1 1 1 1 1 1 1 1 3 2
= = =
terstica de
3 2
= 1 = 2 son las soluciones de la ecuacin caracpA () = |A I| = 0. = 1 y = 2 so pues los valores propios A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente. A. Los 1vectores propios de A son (A 1 I)x = 0.
las soluciones no nulas del sistema de ecuaciones lineales Jordan (vase el teorema 1.4.7 ).
0 A 1 I = 1 1
Donde
1 2 2
1 1 1
1 0 0
0 1 0
1 1 = R 0 A1I
(vase el
teorema 1.1.10).
(A 1 I)x = 0
x =
x1 x3 1 x2 = x3 = x3 1 , x3 x3 1
49
x3 R.
Diagonalizacin de matrices
U1
es una base para propio
1 = U1 = 1 1
y la multiplicidad geomtrica del valor
1 = 1
es
propios de
A2I =
Donde
1 1 1
1 1 2
1 1 2
En consecuencia,
U2
es una base para propio
2 = 2
es
S(2 ) = S(2) 1.
En el ejemplo anterior, la multiplicidad geomtrica del valor propio dad geomtrica del valor propio
1 = 1
2 = 2
Ejemplo.
A=
0 1
1 0 1
. A, pA () = |A I| .
pA ()
= |A I| =
50
= 2 + 1 ,
Diagonalizacin de matrices
pA () = 2 + 1 = ( + i)( i)
entonces
= i.
A no son reales,
Ejemplo.
Sea
T : P2 P2
B = 1, x, x2
la base cannica de
P2 ,
[T ]BB
1 = A = 1 1
1 1 3 1 . 2 0 A,
los cuales son, segn
el ejemplo 3.1.11
1 = 1
S(1 )
y que
U2 = {x2 } es una 1 x1 = 1 1
base de
Como se estableci en el teorema 3.1.7(2), stos son respectivamente, los vectores de coordenadas respecto a la base vectores de (vase apartado 1.2.2) de los
P2 ; u1 = 1 + x + x2
y
u2 = x + x2 .
U1 = {u1 } = 1 + x + x2 es una base del espacio de vectores propios de T correspondientes al valor propio 1 = 1 y U2 = {u2 } = x + x2 es una base del espacio de vectores propios de T correspondientes al valor propio 2 = 2.
En consecuencia; Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona los polimomios caractersticos de matrices semenjantes y el segundo relaciona los vectores propios de dichas matrices. 51
Diagonalizacin de matrices
Teorema.
y
Si
B son matrices semejantes, entonces los poliA y B son iguales, y por consiguiente, las ma-
Demostracin. Si
tal que
B = P 1 AB.
1
De aqu:
pB ()
= |B I| = P =
AP P 1 P
P 1 (A I)P = |P 1 | |A I| |P |
= |P 1 | |P | |A I| = |A I| = pA ().
3.1.15.
Nota.
B A
Ejemplo.
Las matrices
A= ( 1)2 .
1 0 A
y
0 1 B
B=
1 3
0 1 pA () = pB () =
tienen el mismo polinomio caracterstico; explcitamente Sin embargo, cualquier matriz invertible
de orden
se tiene que:
P 1 AP = P 1 IP = P 1 P = I = B.
3.1.17.
Proposicin.
x
es un
Si
tonces
vector
B.
Demostracin. Por denicin se tiene
Ax = x
AIx = x AP P 1 x = x P 1 AP P 1 x = P 1 x
Tomando de
si y
Diagonalizacin de matrices
3.2. Diagonalizacin
3.2. Diagonalizacin
En esta seccin responderemos las preguntas siguientes: Dado un espacio vectorial
T :U U
de
tal que
[T ]BB
B1
T : U U es una transB2 son bases ordenadas de U, A = [T ]B1 B1 y D = [T ]B2 B2 = P 1 AP, esto es, las matrices A
A, Existe una matriz D semejante a la matriz?, en otros trminos, existir una matriz 1 invertible P tal que P AP = D sea una matriz diagonal? y si existe cmo encontrar una tal matriz P ?
minos de matrices, as: Dada una matriz cuadrada diagonal 3.2.1.
Denicin.
A
Sea
es diago-
nalizable si
3.2.2.
Teorema.
n.
Si existen
vectores propios de
linealmente independientes, entonces A es diago1 nalizable; esto es, existe una matriz invertible P tal que P AP = D es una matriz diagonal. Adems, los vectores columna de propios de
valores propios de
A.
Demostracin. Sean
1 , 2 , . . . ,n ,
los
valores propios de
A,
x1 , x2 , . . . , xn ,
vec-
el vector propio
xj ,
x1 P
x2
xn
3.2. Diagonalizacin
Ahora,
Diagonalizacin de matrices
AP
= =
x1 Ax1
x2 Ax2
xn Axn = 0 2
. . .
1 x1
.. .
x1
x2
xn
1 0 . . . 0
2 x2 0 0 . . . 3
n xn
=
Donde
PD
El recproco de este resultado tambin es vlido y est dado por el siguiente teorema. La demostracin se deja como ejercicio.
A una matriz cuadrada de orden n. Si A es diagonaP tal que P 1 AP = D es una matriz diagonal, entonces existen n vectores propios de A linealmente independientes. Adems, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. 4 1 2 5 6 es 3.2.4. Ejemplo. Veriquemos que la matriz A = 6 6 3 4 1 diagonalizable y encontremos una matriz invertible P tal que P AP = D sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
3.2.3.
Teorema.
Sea
A,
pA () = |A I| =
4 6 6
1 5 3
2 6 4
= ( 2)2 ( 1).
=2
(de multiplicidad 2) y a
54
Diagonalizacin de matrices
Los 2-vectores propios de ecuaciones
3.2. Diagonalizacin
son las soluciones no nulas del sistema de
(A 2I)x = 0,
(A 1I)x = 0.
2 A 2I = 6 6
1 3 3
2 6 6
3 A 1I = 6 6
1 4 3
2 6 . 5 (A 2I)x = 0
Es fcil vericar que las soluciones del sistema homogneo son los vectores de la forma
1 x1 2 x2 x3 x2 = x2 = x3 x3 1 1 1 x2 2 + x3 0 = 2 1 0
, x2 , x3 R,
en consecuencia,
U1
es una base para
1 1 = U2 = 2 , 0 1 0
De otra parte, se encuentra que las soluciones del sistema son los vectores de la forma
1 x1 1 3 x3 1 3 , x3 R. x = x2 = x3 = x3 3 x3 3 x3
En consecuencia,
U2
es una base para
1 = U1 = 3 3
S(2 ) = S(1).
55
3.2. Diagonalizacin
Ahora, los vectores
Diagonalizacin de matrices
1 1 x1 = 2 , x2 = 0 0 1
son vectores propios de
1 x3 = 3 3 2, 2
y
1,
P =
x1
x2
x3
1 = 2 0 0 2 0
1 0 1
1 3 3
2 P 1 AP = D = 0 0
3.2.5.
0 0 . 1
Ejemplo.
1 A = 1 1
dos valores propios:
1 3 2
1 1 0 A
tiene
1 = 1 y 2 = 2, y 1 y U1 = 1 1
que
0 U2 = 1 1 A
son bases para los espacios propios asociados, respectivamente. As que slo tiene dos vectores propios linealmente independientes. 3.2.6.
Teorema.
A
y si
Si
una matriz
1 , 2 , . . . , k son los valores propios diferentes de x1 , x2 , . . . , xk son vectores propios de A correspondipropios 1 , 2 , . . . , k , respectivamente, entonces C =
es un conjunto linealmente independiente.
{x1 , , x2 , . . . , xk }
bre el nmero
C.
56
Diagonalizacin de matrices
Si
3.2. Diagonalizacin
x1 = 0.
C = {x1 },
entonces
k = 2.
En efecto: Si
1 x1 + 2 x2 = 0, 2
se obtiene:
2 1 x1 + 2 2 x2 = 0. A
se llega a:
1 1 x1 + 2 2 x2 = 0. (2 1 )1 x1 = 0.
entonces que
x1 = 0, entonces (2 1 )1 = 0. Dado que 1 = 2 se tiene 1 = 0. Reemplazando este valor de 1 en (3.1) se llega a 2 x2 = 0, pero x2 = 0, entonces 2 = 0. k = j
y de-
Supongamos ahora que el teorema es cierto para cuando mostremos que el teorema es cierto para cuando (3.4)
k = j +1.
Si
j+1 = 0.
La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.2.6 y 3.2.2. 57
3.2. Diagonalizacin
3.2.7.
Diagonalizacin de matrices
A
una matriz cuadrada de orden
Corolario. Ejemplo.
Sea
n.
Si
posee
es diagonalizable.
1 A= 0 0
3
2 4 0
3 5 6 33 A
es:
2 = 4
3 = 6. A
De acuerdo con los teoremas 3.2.2 y 3.2.3, dada la matriz cuadrada de orden
n;
tal que
P 1 AP = D
es una
y los
A tiene n vectores propios linealmente independientes. P , los vectores columna de P son vectores elementos de la diagonal de D son los valores propios
A.
esta seccin sobre la diagonalizacin de matrices. El siguiente teorema responde a las preguntas sobre diagonalizacin pero formuladas en el contexto de las transformaciones lineales. 3.2.9.
Teorema.
Sea
un espacio de dimensin
y sea
B2
de
T : U U U tal que
[T ]B2 B2 = D
ordenada de
tal que
[T ]B2 B2
1 0 =D= . . . 0 ui
.. .
0 0 . . . n
propio de T, o sea
es un
i -vector
T (ui ) = i ui , i = 1, 2, . . . , n.
Demostracin. Puesto que las matrices asociadas a transforma-
ciones lineales y referidas a bases arbitrarias son semejantes, y puesto que el polinomio caracterstico de matrices semejantes es el mismo (ver teorema 3.1.14), podemos considerar una base arbitraria 58
B1
para
U.
Diagonalizacin de matrices
Sea pues base
3.2. Diagonalizacin
T
referida a dicha
A = [T ]B1 B1 ,
la matriz de la transformacin
B2
de
U tal A es
que
D = [T ]B2 B2 =
triz diagonal. Ahora por los teoremas 3.2.2 y 3.2.3; matriz diagonal sii lo cual equivale a
A es semejante a una A tiene n vectores propios linealmente independientes, que T tenga n vectores propios linealmente independi-
de
tal que
[T ]B2 B2 , T (ui ) = i ui i = 1, 2, . . . , n .
3.2.10.
ui
es un
i -vector
propio de
T,
Ejemplo.
T : P3 P3
denida por:
B2
de
U = P2
tal que
[T ]B2 B2 = D
es
B1 = 1, x, x2
4 A = [T ]B1 B1 = 6 6 1 1 x1 = 2 , x2 = 0 0 1
respectivamente a los valores propios los vectores de
1 5 3
P2 entonces: 2 6 , 4
1 x3 = 3 , 3 A,
correspondientes
2, 2
1.
Los vectores
x1 , x2
x3
de
B1
P2 : u2 = 1 + x2
59 y
u1 = 1 + 2x;
u3 = 1 + 3x + 3x2 .
3.2. Diagonalizacin
Ahora, los valores propios de
Diagonalizacin de matrices
T
son los valores propios de
3.1.7), esto es, los diferentes valores propios de vectores propios de valores propios el teorema
T linealmente independientes, correspondientes a los 2, 2 y 1, respectivamente. En consecuencia, de acuerdo con anterior, B2 = {u1 , u2 , u3 } es una base para P2 tal que: 2 0 0 [T ]B2 B2 = D = 0 2 0 . 0 0 1 A de orden n, existe una P 1 AP = D es una matriz diagonal sii existen A linealmente independientes. En el caso en que A
tal que
vectores propios de
no posea
A sea semejante a una matriz triangular superior T ; es decir , que A sea semejante a una matriz T = [tij ]nn para la cual tij = 0 si i > j. El siguiente teorema explicita esta armacin.
cierta condicin, que 3.2.11.
Teorema.
Sea
n.
Todas
las soluciones de la ecuacin caracterstica de A son reales sii existe una 1 matriz invertible P (real) tal que P AP = T es una matriz triangular superior. Adems, si existe una tal matriz la diagonal de
P, A.
Demostracin.
(=) Haremos la demostracin en este sentido, utin de la matriz A. Para cuando n = 2, la verdadera. En efecto, de la hiptesis se sigue que A tiene
dos valores propios (reales) los cuales no son necesariamente distintos. Sea
un valor propio de A. Existe por lo tanto un vector 2 1, x1 = 0 tal que Ax1 = x1 . Por el teorema1.2.13(3), existe un vector 21, x2 = 0 tal que B = {x1 , x2 } es una base para M21 . Ahora, la matriz P = x1 x2 1 es invertible; escribamos a P particionada por las as: P 1 =
entonces se tiene que
y1 y2
y1 , y2 M12 ,
P 1 AP =
y1 y2
x1
x2
y1 Ax2 y2 Ax2
=T
Diagonalizacin de matrices
3.2. Diagonalizacin
n = j 1 A una
Supongamos ahora que la implicacin es verdadera para cuando y demostremos que sta es verdadera cuando matriz cuadrada de orden caracterstica son reales. De sto se sigue que
n = j, j 3.
Sea
j para la cual todas las soluciones de su ecuacin A tiene j valores propios (reales) los cuales no son necesariamente distintos. Sea un valor propio de A. Existe por lo tanto un vector j 1, x1 = 0 tal que Ax1 = x1 . Por el teorema 1.2.13(3), existen j 1 vectores x2 , x3 , . . . , xj de Mj1 tales que B = {x1 , x2 , x3 , . . . , xj } es una base para Mj1 . Ahora por el
teorema 1.4.8, la matriz
= y1 N
x1
x2
xj
as: y
x1
P 1
y1 M1j , 0
N M(j1)(j1) . 0 B C
Entonces se tiene
P 1 AP =
y1 N
x1
y1 AM N AM
= T1
es una matriz triangular superior por bloques. Ahora, las matrices rema 3.1.14):
T1
pA () = pT1 () = (1 ) |C I| .
De sto se sigue, que todas las soluciones de la ecuacin caracterstica de la matriz cuadrada de orden induccin, existe una matriz invertible matriz triangular superior. Sea ahora:
P2 =
1 1 P 1 AP = P2 P1 AP1 P2
= =
B C 1 0
1 0 BQ T2
0 Q =T
es una matriz triangular superior. La demostracin de la otra implicacin y de la segunda armacin del teorema quedan como ejercicio para el lector. 61
3.2. Diagonalizacin
3.2.12.
Diagonalizacin de matrices
Ejemplo.
1 1 1 3 A= 1 2
son reales, pues:
1 1 0 33 1 = 1
pA () = ( 1)2 ( 2) = 0 sii
diagonalizable, pues
2 = 2 .
pendientes. En particular:
1 x1 = 1 1
valores propios
0 x2 = 1 1
1 = 1
2 = 2,
respectivamente.
tal que
P 1 AP = T P , demos
el vector
x3
tal que
B = {x1 , x2 , x3 }
M31 ,
0 x3 = 2 3 1 = 1 1 0 2 0 0 1 1 0 2 3
P =
es invertible y es tal que
x1
x2
x3
1 P 1 AP = T = 0 0
es una matriz triangular superior.
1 2 1
cuyos valores propios no son todos reales entonces, no puede existir una
P 1 AP = T
62
Diagonalizacin de matrices
3.2. Diagonalizacin
superior. Ahora bien, hemos mencionado que uno puede estudiar espacios vectoriales donde los escalares sean nmeros complejos (ver pi de pgina 2); en este caso, se pueden obtener resultados ms amplios. En particular, se tiene que para toda matriz cuadrada existe una matriz invertible
(real o compleja)
P 1 AP = T
sea una matriz triangular superior. Este resultado se tiene, gracias a la propiedad importante del sistema de los nmeros complejos que establece, que todo polinomio de grado exactamente
n con coecientes reales o complejos tiene n races reales o complejas, contadas sus multiplicidades. En
el teorema siguiente se establece este resultado sin demostracin. Quien desee estudiar sobre ste, puede consultar las secciones 5.5 y 5.6 de [ ]. 3.2.13.
Teorema.
matriz triangular superior. Adems, los elementos de la diagonal de son las soluciones de la ecuacin caracterstica de
3.2.14.
A.
Ejemplo.
1 A= 0 0
La ecuacin caracterstica de
0 0 1
0 1 . 0
es
1 = 1.
(real) tal
P 1 AP = T
contexto de los espacios vectoriales donde los escalares son nmeros complejos, podemos decir que
1 = 1,
2 = i
3 = i
se encuentra que
1 0 x1 = 0 , x2 = i 0 1
son tres vectores propios complejos de
0 x3 = i 1 1 = 1, 2 = i
y
3 = i
Diagonalizacin de matrices
P =
x1
x2
x3
1 = 0 0
0 i 1
0 i 1 0 1 1 0 0 0 0 i 1
P 1 AP
1 0 i/2 = 0 0 i/2 1 0 0 = 0 i 0 0 0 i
0 1 i/2 0 i/2 0 =D
0 0 1
0 i 1
z = a+bi, a, b R, se denota z = a bi. Un nmero complejo z es real sii z = z . La matriz conjugada de la matriz compleja n n, A, se de nota por A y cuyos componentes son A = A ij , i, j = 1, 2, . . . , n. ij z
y se dene as: 64
Diagonalizacin de matrices
4. Para todo vector complejo
x T x = xx T y
xTx = 0
sii
x = 0.
A con componentes complejas; |A| = 0 sii existe un vector x = 0, con componentes complejas, tal que Ax = 0.
Sea
3.3.1.
Teorema.
n.
Si
es
A: pA () = |A I| = 0, son reales. Esto es, A tiene valores propios (reales) los cuales no son necesariamente diferentes.
Demostracin. Si
pA () = |A I| = 0, Ax = x
un vector (3.1)
x=0
tal que:
Ax = x . xT
y y (3.2) por
Ahora, premultiplicando (3.1) por (3.3) puesto que (3.4) De (4) se tiene que
xT
se tiene
x T Ax = x T x
xT Ax = xT x ,
de (3.3) se sigue que:
x T Ax = (x T Ax)T = xT AT x = xT Ax, x T x = xT x . x T x = xT x,
( )x T x = 0.
Ya que
x = 0,
( ) = 0
en consecuencia, por (2),
o sea,
= .
es un nmero real.
En lo que resta de estas notas, no haremos ms referencia al sistema de nmeros complejos. El teorema 3.2.6 establece que, para cada matriz cuadrada
A, los vectores
propios correspondientes a valores propios diferentes son linealmente independientes. Para matrices simtricas se tiene un resultado ms fuerte. Este resultado se establece en el teorema siguiente. 65
Diagonalizacin de matrices
1 , 2 , . . . , k son los valores propios diferentes de A y si x1 , x2 , . . . , xk son vectores propios de A correspondientes a los valores propios 1 , 2 , . . . , k , respectivamente, entonces el conjunto de vectores C = {x1 , x2 , . . . , xk } es ortogonal.
Si
Demostracin. Debemos demostrar que
Teorema.
xi ; xj
= xT xj = 0 i
si
i = j,
para
i, j = 1, 2, . . . k
= =
i xi , j xj . xt j
y
Ahora, premultiplicando (3.5) por (3.7) puesto que que: (3.8) Ya que
y a (3.6) por
xi ,
se obtiene
xT Axj = j xT xj , i i
de (3.7) se sigue
xT xi = xT xj j i
(i j )xT xj = 0. i
Puesto que por hiptesis, los valores propios son distintos, entonces
xT xj = i P
0,
si
i = j, i, j = 1, 2, . . . k .
3.3.3.
Denicin. Ejemplo.
es ortogonal, si
es invertible y
3.3.4.
P 1 = P T .
La matriz
1 1 P = 2 3 2
es ortogonal, pues:
2 2 1
2 1 2 2 2 1 2 1 = 0 1 2 0 0 1 0 0 0 = I. 1
PPT
3.3.5.
1 1 =P = 2 3 2
2 2 1
2 1 1 1 2 3 2 2
Proposicin.
sii el conjunto
Mn1 .
Diagonalizacin de matrices
La matriz bien,
P =
x1
x2
P T P = I. xT x2 1 xT x2 2
. . .
Ahora
PTP
xT 1 xT 2 . . . xT n
x1
x2
xn
xT x1 1 xT x1 2 = . . . T xn x1
.. .
xT x2 n
xT xn 1 xT xn 2 . . . xT xn n
xT xj = i
1 0
si si
i, j = 1, 2, . . . , n ,
es una base ortonormal de
B = {x1 , x2 , . . . , xn }
Mn1 .
3.3.6.
Teorema.
Si
un valor propio de A. Supongamos que la multiplicidad geomtrica de es r. Por el teorema 1.2.24, existe una base ortonormal B = {x1 , x2 , . . . , xr } del espacio de vectores propios asociados a , S( ). Si r = n, la matriz P = x1 x2 xn es ortogonal (proposicin 3.3.5), y de acuerdo
Demostracin. Sea
y sea
P T AP = P 1 AP = D = I .
Ahora, las matrices
pA () = pD () = | I I| = ( )n .
De esto se sigue que braica
es un valor propio de
r = n. r < n, existen n r vectores y1 , y2 , . . . , ynr de Mn1 B = {x1 , . . . , xr , y1 , . . . , ynr } es una base ortonormal de Mn1 x1 x2 xr y1 y2
67
P =
ynr
Diagonalizacin de matrices
T = P T AP = P 1 AP, Y
es
= = =
XT YT I 0 I 0
X T AY Y T AY B C .
o
es simtrica,
T T = (P T AP )T = P T AT P = P T AP = T, B C = I 0 I B 0 C 0 CT . ,
I 0 B=0
y
por lo tanto
T =
Puesto que las matrices polinomio caracterstico:
pA () = pT () = |T I| = ( )r |C I| .
De sto se sigue, que braica es un valor propio de A con multiplicidad algek r. Veamos que k = r. Si k > r, entonces se debe tener que |C I| = 0, y por lo tanto existe un vector (n r) 1, w = 0 tal que Cw = w. Consideremos ahora el vector no nulo Es decir,
u Mn1 dado
por
u=P 0 0
. . .
0 w
[x1 x2 xr y1 y2 ynr ]
u=P
0 w
0 w1 w2
. . .
u y1 , y2 , . . . , ynr
68
u x1 , x2 , . . . , xr /
Diagonalizacin de matrices
De otro do, el vector
u,
es un
A.
En efecto,
Au
= P = = P P
I 0 0 Cw 0 w
0 C =P
=P
I 0
0 C
0 w
= u .
es un conjunto de
B = {x1 , x2 , . . . , xr , ur+1 }
r+1
vec-
,
sea
r.
3.3.7.
Teorema.
n
Si
n,
entonces
tiene
entes.
Demostracin. Sean 1 , 2 , . . . , k los diferentes valores propios A. Supongamos que la multiplicidad algebraica de i es mi, mi = 1, 2, . . . , k; esto es, supongamos que
de
m1 + m2 + + mk = n. i
es
mi , i =
1, . . . , k.
Sean ahora:
U1 = x1 , . . . , x1 1 , , Uk = xk , . . . , xk k 1 m 1 m
bases ortogonales de teorema 3.3.2, el conjunto de
Entonces por el
U
es ortogonal.
= U1 U2 Uk = x1 , . . . , x1 1 , x2 , . . . , x2 2 , . . . , xk , . . . , xk k 1 m 1 m 1 m
La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.3.7 y del teorema 3.2.2. 3.3.8.
Corolario.
Diagonalizacin de matrices
A
una matriz cuadrada. Se dice que
Denicin. Teorema.
Sea
tal que
es ortogoT
P AP =
3.3.10.
es ortogo-
nalmente diagonalizable; esto es, existe una matriz ortogonal P tal que P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz
son
A.
A es una matriz simtrica de orden n, entonces x1 , x2 , . . . , xn (teorema 3.3.7). Supongamos que stos corresponden a los valores propios 1 , 2 , . . . , n , x1 x2 xn es ortogonal (prorespectivamente. La matriz P =
Demostracin. Sea
tiene
posicin 3.3.5), y de acuerdo con la demostracin del teorema 3.2.2, se tiene que
1 0 P T AP = P 1 AP = D = . . . 0
0 2
. . .
.. .
0 0 . . . . n
El recproco del teorema 3.3.10 tambin es vlido y est dado por el siguiente 3.3.11.
Teorema.
A
Si una matriz
tonces
es simtrica.
tal que
P T AP = D
A = P DP T = (P DT P T )T = (P DP T )T = AT ,
o sea,
Diagonalizacin de matrices
3.3.12.
Ejemplo.
5 A= 2 2
encontremos una matriz ortogonal diagonal.
2 2 2 4 4 2 33 P
tal que
P t AP = D
Para ello debemos encontrar tres vectores propios de Determinemos el polinomio caracterstico de
pA () = |A I| =
5 2 2
2 2 4
2
2 4 2
sii
A, pA () = |A I| = 0. = 3 A
son
pA () = ( + 3)( 6) = 0
=6
y
1 = 3
2 = 6.
A son las soluciones no nulas (A+3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A6I)x = 0. Se tiene entonces: 1 2 2 8 2 2 5 4 y A 6I = 2 4 4 . A + 3I = 2 2 4 4 2 4 5
propios de Es fcil vericar, que las soluciones del sistema homogneo son los vectores de la forma:
(3)-vectores
(A + 3I)x = 0
1 1 x1 2 x3 1 2 ; x = x2 = x3 = x3 2 2 x3 x3
En consecuencia,
x3 R.
U1 = U3
es una base para
1 = 2 , 2
U1 = U3
Diagonalizacin de matrices
S(1 ) = S(3).
(A 6I)x = 0
=
En consecuencia,
U2
es una base para
2 2 = U6 = 1 , 0 , 1 0
Aplicando el proceso de ortogonalizacin
S(2 ) = S(6).
U2
2 2 1 1 4 , = U6 = 1 , 5 3 5 0 5 S(2 ) = S(6).
U = U1 U2
2 2 1 1 1 1 2 , 1 , 4 , = 3 5 0 3 5 2 5 A.
Ahora, segn la
1 3 2 P = 3 2 3
2 5 1 5 0
72
2 3 5 4 3 5 2 3 5
Diagonalizacin de matrices
es ortogonal tal que
3 P T AP = P 1 AP = D = 0 0
3.3.13.
0 6 0
0 0 . 6 n.
Supongamos
que
entes,
Sea A una matriz simtrica (0 n) valores propios, estrictamente positivos y (0 n) que tiene
Teorema.
de orden
tal que:
I P T AP = 0 0
Si adems existe otra matriz invertible
0 I 0 Q
0 0 . 0
tal que
I QT AQ = 0 0
entonces
0 I 0
0 0 , 0
=.
Demostracin. Sean
1 , 2 , . . . ,
tamente positivos (no necesariamente distintos) y sean vectores propios ortonormales de lores propios. Sean adems
A estricx1 , x2 , . . . , x
A asociados respectivamente a tales va1 , 2 , . . . , los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 , y2 , . . . , y vectores propios ortonormales de A asociados a dichos valores propios negativos y sean z1 , z2 , . . . , z , = n ( + ), vectores propios ortonormales de A asociados al valor propio nulo (0). Segn la demostracin del teorema 3.3.10, la matriz M , cuyas columnas son los correspondientes vectores
propios organizados adecuadamente, es ortogonal. Es decir, la matriz
M=
x1
x2
y1
y2
z1
z2
M t AM = D 0 D 0 0 0 0
D M t AM = D = 0 0
73
Diagonalizacin de matrices
1 0 D = . . . 0
Sea ahora
0 2
. . .
.. .
0 0 . . .
1 0 D = . . . 0 0 0 I 0 0
. . .
0 2
. . .
.. .
0 0 . . . .
la matriz diagonal:
D D = 0 0
donde
0 D 0
.. .
1 1 0 D = . . . 0 D = 1 1 0
. . .
0 1 2
. . .
y.
0 0
.. .
0 0
. . .
1 2
. . .
La matriz
D DD
D D D t t 0 = D M AM D = 0 I 0 0 = 0 I 0 . 0 0 0
0 D D D 0
0 0 I 0 I
P = M D es I 0 0 P t AP = 0 I 0 . 0 0 0
74
tal que:
Diagonalizacin de matrices
Supongamos ahora que las matrices invertibles
I P t AP = 0 0
y demostremos que
0 I 0 =
0 0 0
y y
I Qt AQ = 0 0
0 I 0
0 0 . 0
=. Q
particionadas por columnas as:
x1 y1
x2 y2
x y
x+1 y +1
xn yn
Q =
C = {x1 , x2 , . . . , x , y +1 , y +2 , . . . , yn }
es linealmente independiente. En efecto, si
1 x1 + . . . + x + 1 y +1 + . . . + n yn = 0
entonces el vector
U
es tal que:
= =
1 x1 + 2 x2 + . . . + x 1 y +1 2 y +2 . . . n yn (1 x1 + . . . + x )T A(1 x1 + . . . + x )
U T AU
y
= 2 + 2 + . . . + 2 0 1 2 U T AU = =
Por lo tanto consecuencia,
(1 y +1 + . . . + n yn )T A(1 y +1 + . . . + n yn )
2 T 2 T 2 T 1 y +1 Ay +1 + 2 y +2 Ay +2 + . . . + n yn Ayn 0
U T AU = 0.
1 = 2 = . . . = = 0.
En
1 y +1 + 2 y +2 + . . . + n yn = 0 .
75
Diagonalizacin de matrices
Ahora bien, como la dimensin del espacio vectorial un conjunto linealmente independiente de entonces por el teorema 1.3.8(2) :
+ (n )
vectores en
C es Mn1 ,
+ (n ) n ,
o sea, de donde
. Argumentando =.
(A) = + = +
por lo tanto
=. P T AP
es igual
Nota.
a:
(i) (ii)
In , In , I 0
si si
= n. = n. ,
si
(iii)
0 0 0 0 0 I 0 I 0
0<p<n
si
= 0.
y
(iv)
I 0 I 0 I 0 0 0,
sii
, ,
0<<n 0<p<n
si
= 0. 0<<n
y y
(v)
si
+ = n.
y
(vi)
0 0 , 0
0<p<n
0<<n
+ < n.
(vii) 3.3.14.
A = 0.
Para la matriz simtrica
Ejemplo.
1 A = 2 0
encontremos una matriz invertible
2 0 2 P
0 2 1 P t AP
sea una matriz diag-
tal que
76
Diagonalizacin de matrices
son:
1 = 3, 2 = 3
3 = 0, y que la matriz 2 1 2 1 M = 2 2 1 3 1 2 2
y
ortogonal:
es tal que
3 M t AM = D = 0 0
Ahora, la matriz diagonal
0 3 0
0 0 . 0
D =
es invertible y es tal que:
1 3 0 0
0 1 3 0
0 1
D DD
Dt M t AM D 1 3 0 0 3 1 0 0 0 3 0 0 1 0 1 0 0 0 1 0 , 0 0 0
0 3 0
0 0
1 3 0 0
0 1 3 0
0 1
P = M D es tal I1 0 P t AP = 0 I1 0 0
que
0 0 . 0
En relacin con la primera parte del teorema 3.3.13 (ver su demostracin) y tal como aparece en el ejemplo anterior, un mtodo para calcular una
M que A, y despus postmultiplicar a M por una ma triz diagonal conveniente D . A continuacin damos otro mtodo para t calcular, simultneamente, una de tales matrices P y la matriz P AP. El mtodo se basa en el hecho de que la matriz P es invertible y por
de tales matrices consiste en encontrar una matriz ortogonal diagonalice a la matriz 77
Diagonalizacin de matrices
ende se puede expresar como producto de un nmero nito de matrices elementales (vase teorema 1.1.11(2)); sto es,
P = E1 E2 Ek,
donde
E1 , E2 , , Ek,
la matriz
t t t P t AP = Ek E2 E1 A E1 E2 Ek,
consiste en efectuar una sucesin de operaciones elementales en las las de de de
A y la "misma" sucesin de operaciones elementales en las columnas A (vase teorema 1.1.8), hasta lograr lo deseado. Esta misma sucesin t operaciones elementales en las las de la matriz identidad I da P .
Ejemplo.
1 A= 2 3
encontremos una matriz invertible
2 3 5 4 4 9
tal que
P T AP
onal con las caractersticas que se establecen en el teorema 3.3.13. Formemos la matriz
A | I
1 = 2 3
2 3 | 1 5 4 | 0 4 9 | 0
0 1 0
0 0 . 1
A | I , las operaciones elemenT tales; E1 ; multiplicar los elementos de la primera la por = 2 y sumar T los resultados con los correspondientes elementos de la segunda la, E2 ;
multiplicar los elementos de la primera la por la matriz
T T E2 E1 A
T T | E2 E1 I
A1
| B1
A1 ,
para obtener:
T T E2 E1 A
Se tiene:
T T E1 E2 | E2 E1 I
A1
| B1
A1
| B1
1 = 0 0
2 1 2
78
3 | 1 0 0 2 | 2 1 0 0 | 3 0 1
Diagonalizacin de matrices
y
A1
| B1
1 = 0 0
0 1 2
0 2 0 |
| 1 0 0 | 2 1 0 | 3 0 1 B1
, la operacin elemen-
A1
T E3 ;
= 2
y sumar
los resultados con los correspondientes elementos de la tercera la. As obtenemos la matriz
T T T E3 E2 E1 AE1 E2
T T T | E3 E2 E1 I
A2
| B2
A2 ,
para obtener:
T T T T T T E3 E2 E1 AE1 E2 E3 | E3 E2 E1 I
Se tiene:
A2
| B2
A2
y
| B2
1 = 0 0 1 = 0 0
0 1 0 0 1 0
0 | 1 2 | 2 4 | 7
0 1 2
0 0 1
A2
| B2
1 0 0 0 | 0 | 2 1 0 . 3 0 1 4 | A2 | B2
la op-
T E4 ;
= 1/2.
As obtenemos la matriz
T T T T E4 E3 E2 E1 AE1 E2 E3
T T T T | E4 E3 E2 E1 I
A3
| B3
A3 ,
para obtener:
T T T T E4 E3 E2 E1 AE1 E2 E3 E4 |
Se tiene:
T T T T E4 E3 E2 E1 I
A3
| B3
A3
| B3
1 = 0 0
0 1 0
79
0 0 2
1 | 2 | 7 | 2
0 1 1
0 0 1 2
Diagonalizacin de matrices
A2
| B2
1 = 0 0
0 1 0
0 0 1
1 | 2 | 7 | 2
0 1 1
0 0 . 1 2 0 0 1 2
PT
1 0 2 1 T T T T = B3 = E4 E3 E2 E1 = 7 1 2 1 P T AP = D = A3 = 0 0 0 1 0 0 0 . 1
es tal que
Nota.
A= [aij ]nn son nulos y si aij = 0, i = j , entonces sumando la la j a la la i y la columna j a la columna i, obtendremos una matriz simtrica A = M T AM con 2aij en el lugar isimo de la diagonal principal de A .
si todos los elementos de la diagonal principal de la matriz simtrica Una vez hecho sto, se sigue el proceso descrito en el ejemplo anterior. 3.3.17.
Ejemplo.
A=
encontremos una matriz invertible
0 1 P
1 0
, P T AP
sea una matriz diag-
tal que
onal con las caractersticas que se establecen en el teorema 3.3.13. Formemos la matriz:
| I
0 1
1 0
| 1 | 0
0 1
.
la operacin elemen-
A | I
MT ;
MT A
| MT I
80
Diagonalizacin de matrices
M T A,
luego efectuamos la "misma" operacin elemental en las columnas de la matriz para obtener la matriz:
M T AM
Se tiene:
| MT I
= 1 1 2 1
A 1 0 1 0
| MT | 1 | 0 | 1 | 0 1 1 1 1
MT A A
| MT I | MT
= =
A | M T , la operacin elemen1 T tal; E1 ; multiplicar los elementos de la primera la por = y sumar 2 los resultados con los correspondientes elementos de la segunda la. As
Efectuemos, en las las de la matriz obtenemos la matriz
T E1 A
T | E1 M T
A1
| B1
A1 ,
para obtener:
T E1 A E1
Se tiene:
T | E1 M T
= 1 1 2 0 1 2
A1 1
| B1 1 1 2
.
y
A1 | B1 = A1 | B1 =
2 0 2 0
| | | 1 2 1 | | | 1 2 | B1
1 1 2
las operaciones eleA1 1 T mentales; E2 ; multiplicar los elementos de la primera la por = , 2 T y, E3 ; multiplicar los elementos de la segunda la por = 2 . As Efectuemos en las las de la matriz obtenemos la matriz
T T T E3 E2 E1 A E1
T T T | E3 E2 E1 M T
A2
| B2
A2 ,
para obtener:
T T T E3 E2 E1 A
E1 E2 E3
T T T | E3 E2 E1 M T
81
A2
| B2
Diagonalizacin de matrices
A2
| B2
2 = 0
0 1 2 0 1
1 | 2 | | 1 | 2
A2
| B2
1 = 0
1 | 2 | | 1 | 2 1 2 1 2 0 1
1 2 1 2 1 2 . 1 2 1 2 1 2 .
T T T P T = B2 = E3 E2 E1 M T =
es tal que
P T AP = D = A3 =
1 0
Teorema
(Diagonalizacin simultnea)
mtricas de orden
n.
QT BQ = D
Diagonalizacin de matrices
trictamente positivos, se sigue del teorema 3.3.10, que existe una matriz
P T AP = In . Sea ahora C = P T BP. La matriz C C T = (P T BP )T = P T B T P = P T BP = C . Ahora bien, en virtud del teorema 3.3.1, existe una matriz ortogonal M tal que M T CM = D es una matriz diagonal con los valores propios de C en su
invertible
tal que
es simtrica pues,
M T P T AP M = M T In M = M T M = In
esto es, la matriz la diagonal de de la ecuacin tiene:
M T P T BP M = M T CM = D ;
y
Q = PM
es tal que
QT AQ = In C,
QT BQ = D
es una
|C I| = 0.
|C I| = =
P T BP P T AP P T |B A| |P | = 0
sii
|B A| = 0,
Ejemplo.
1 A= 0 0
pios de
0 4 2
0 2 2
5 B= 4 4 5
y
4 8 4
4 4 . 4 5,
los cuales son
son:
1 = 1, 2 = 3 + 1
3 = 3
P = 0 0
es tal que
0 1 2 0
0 1 2 1
P T AP = I3
5 C = P T BP = 2 2
83
2 2 2 4 . 4 2
Diagonalizacin de matrices
M =
es ortogonal y es tal que
1 3 2 3 2 3
2 5 1 5 0
3 5 4 3 5 2 3 5 0 6 0 0 0 . 6 2 3 5 3 3 5 5 3 5 0 6 0 0 0 . 6
Sean
3 M T CM = D = 0 0
En consecuencia, la matriz invertible
Q = PM =
es tal que
1 3 0 2 3
2 5 1
2 5 0
QT AQ = I3
3.4.3.
3 QT BQ = D = 0 0
AyB
ma-
trices simtricas de orden n. AB = BA sii existe una matriz ortogonal T T tal que P AP y P BP son matrices diagonales.
Demostracin.
(=)
triz ortogonal
tal que:
1 Ik1 0 RT AR = D = . . . 0
0 2 Ik2
. . .
.. .
0 0
. . .
0
84
...
m Ikm
Diagonalizacin de matrices
donde los
C = RT BR.
DC
CD
1 Ik1 0 0 C11 C12 C1m 0 C21 C22 C2m 2 Ik2 0 = . . . . . . .. .. . . . . . . . . . . . . . . 0 0 m Ikm Cm1 Cm2 Cmm 1 C11 1 C12 1 C1m 2 C21 2 C22 2 C2m = , . . . .. . . . . . . . m Cm1 m Cm2 m Cmm C11 C12 C1m 1 Ik1 0 0 C21 C22 C2m 0 2 Ik2 0 = . . . . . . .. .. . . . . . . . . . . . . . . Cm1 Cm2 Cmm 0 0 m Ikm 1 C11 2 C12 m C1m 1 C21 2 C22 m C2m = . . . . .. . . . . . . . 1 Cm1 2 Cm2 m Cmm DC = CD
y
Ya que
i = j ,
si
i = j,
Cij = 0,
si
i=j
y por tanto
C11 0 C= . . . 0
Como la matriz
0 C22
. . .
.. .
0 0
. . .
Cmm
Di
Diagonalizacin de matrices
0 0 . . . . Qm
Q1 0 Q= . . . 0
La matriz
0 Q2
. . .
.. .
QT RT BRQ = D . P T AP
y
P = RQ P T BP son
(=) Supongamos que existe una matriz ortogonal P tal que P T AP = D1 T y P BP = D2 son matrices diagonales. Puesto que D1 D2 = D2 D1 , entonces :
P T AP P T BP = P T BP P T AP ,
de donde 3.4.4.
AB = BA.
En este ejemplo seguiremos los pasos hechos en la de-
Ejemplo.
mostracin del teorema anterior en el sentido clculos numricos queda a cargo del lector. Las matrices simtricas:
1 1 A= 0 0
son tales que
1 1 0 0
0 0 1 0
0 0 0 1
1 0 B= 0 0
0 1 0 0
0 0 2 2
0 0 2 5
AB = BA.
de
de multiplicidad algebraica
k2 = 2
3 = 2
Diagonalizacin de matrices
es tal que:
0 0 T R AR = D = 0 0
y
. . .
. . . . . .
0 1 0 0
0 0 1 0
. . .
. . . . . .
. . .
. . .
0 1 I 0 = 0 0 0 2
0 2 I 0
0 3 I
1 0 T R BR = C = 0 0
La matriz ortogonal
. . .
. . . . . .
0 2 2 0
0 2 5 0
. . .
. . . . . .
. . .
. . .
0 C11 0 = 0 0 0 1
0 C22 0
0 C33
Q= 1 0 0 0
. . .
. . . . . .
. . .
0 2/ 5 1/ 5 0
0 1/ 5 2/ 5 0
. . .
0 Q 1 0 = 0 0 0 1 0 Q2 0 0
. . . . . .
. . .
0 Q3
es tal que
1 0 QT CQ = 0 0
0 1 0 0
0 0 6 0
0 0 = QT RT BRQ = D 0 1
87
Diagonalizacin de matrices
0 0 = QT RT ARQ = D . 0 2 0 0 2/ 5 1/ 5 0 0 1/ 5 2/ 5 1/ 2 1/ 2 0 0
1 0 QT DQ = 0 0
0 1 0 0
0 0 1 0
1/ 2 1/ 2 P = RQ = 0 0
es tal que 3.4.5.
P T AP = D
P T BP = D
Sean A1 , A2 , . . . , Ak matrices simtricas de orden n. Una condicin necesaria y suciente para que exista una matriz ortogonal P tal que P T Ai P sea una matriz diagonal para cada i = 1, 2, . . . , k es que
Corolario.
Ai Aj = Aj Ai
para cada
j; i, j = 1, 2, . . . , k .
k. Para
k=2
k = s y demostremos que k = s + 1. Sean pues A1 , A2 , . . . , As+1 matrices simtricas de orden n tales que Ai Aj = Aj Ai para cada i y j; i, j = 1, 2, . . . , s + 1. Por el teorema 3.3.10 existe una matriz ortogonal R
ahora que el corolario es cierto para cuando el corolario es cierto para cuando tal que
donde los
0 0
. . .
, A1
y
m Ikm
valores propios de
matriz
C i = R T Ai R .
Ci D
RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R
Diagonalizacin de matrices
para
i y todo j; i, j = 2, 3, . . . , s+
1,
entonces:
Ci Cj
= =
RT Ai RRT Aj R = RT Ai Aj R RT Aj Ai R = RT Aj RRT Ai R = Cj Ci . , = 1, 2, . . . , m. Ci Cj = Cj Ci .
De otra parte, como la matriz es simtrica para cada anterior y por la ortogonal
Ci es simtrica, entonces la matriz Ci i = 2, 3 . . . , s + 1 y cada = 1, 2, . . . , m. Por lo hiptesis de induccin; para cada , existe una matriz QT Ci Qi = D i
tal que
Q1 0 Q= . . . 0
La matriz Tambin
0 Q2
. . .
.. .
0 0 . . . . Qm
QT RT Ai RQ = Di , i = 2, 3 . . . , s + 1,
Puesto que
QT RT A1 RQ = D . P
es tal que
P = RQ P T Ai P
i = 2, 3 . . . , s + 1.
P tal P T Ai P = Di es una matriz diagonal para cada i = 1, 2, . . . , k . Puesto que Di Dj = Dj Di , para todo i y todo j , i, j = 1, 2, . . . , k , entonces
(Necesidad:) Supongamos ahora que existe una matriz ortogonal que
P T Ai P P T Aj P = P T Aj P P T Ai P,
de donde se tiene que
Ai Aj = Aj Ai
para todo
i y todo j; i, j = 1, 2, . . . , k.
89
3.5. Ejercicios
3.4.6.
Diagonalizacin de matrices
Las matrices simtricas
Ejemplo.
A1 =
2 1
1 2
A2 =
3 4
4 3
A3 =
5 6
6 5
Ai Aj = Aj Ai , i = 1, 2.
La matriz ortogonal
1 1 R= 2 1
es tal que
1 1 1 0 1 0 1
R T A1 R R T A2 R R T A3 R
es decir, la matriz ortogonal matrices
= = = R
D1 = D2 = D3 =
0 3 0 7 11 ,
A1 , A 2
A3 .
3.5. Ejercicios
3.5.1 Responda verdadero o falso, justicando su respuesta:
1. El Polinomio 2.
3. 4. 5.
p() = 3 + 2 2 + 43 puede ser el polinomio caracterstico de una matriz A M33 . 3 2 Si p() = + 4 5 + 2 es el polinomio caracterstico de una matriz A M33 , entonces |A| = 2. 1 3 1 1 x = 1 es un vector propio de M = 7 5 1 0 6 6 2 = 1 es un valor propio de la matriz M anterior. Si una matriz cuadrada A es diagonalizable, entonces existen 1 innitas matrices invertibles P tales que P AP = D es una
matriz diagonal. 90
Diagonalizacin de matrices
6. Sea y
3.5. Ejercicios
n. Si C es una matriz n invertible, entonces las matrices A, C 1 AC
cuadrada de orden 7. Si 8. 9.
CAC 1 , tienen el mismo polinomio caracterstico. A y B son matrices simtricas de orden n, entonces la matriz AB es simtrica. Sean A y B matrices simtricas de orden n. AB es simtrica sii AB = BA. 1 Si P es una matriz ortogonal, entonces P tambin es ortogoP Si P
es una matriz ortogonal, entonces
P T tambin es ortogonal. es una matriz ortogonal, entonces |P | = 1. Una matriz P de tamao n n es ortogonal sii los vectores la n de P conforman una base ortonormal de R . P = A 1 1 1 1
es ortogonal.
13. La matriz
14. Si la matriz
satisface la igualdad:
son
A2 = 3A 2I, 1 = 1, 2 = 2.
entonces los
6. 7.
8.
es un valor propio de A, entonces n es un valor propio de A , n = 1, 2, 3, . . .. Si x es un vector propio de A, entonces x es un vector propio de An , n = 1, 2, 3, . . .. = 0 es un valor propio de una matriz A sii |A| = 0. Si A es una matriz invertible y es un valor propio de A, entonces 1 es un valor propio de A1 . Si A y C son matrices cuadradas de orden n y si C es invertT 1 ible entonces las matrices A, A , C AC , CAC 1 , C 1 AT C y T 1 CA C tienen el mismo polinomio caracterstico. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la diagonal principal de T. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores propios (sugerencia: Analice los casos = 0 es un valor propio de AB y = 0 es un valor propio de AB ). Sean 1 , 2 , . . . , n los diferentes valores propios de una matriz A y sean 1 , 2 , . . . , m son los diferentes valores propios de una matriz B , entonces los diferentes valores propios de una matriz
n
91
3.5. Ejercicios
de la forma
Diagonalizacin de matrices
M=
son 9. Si
A 0
C B
1 , 2 , . . . , n , 1 , 2 , . . . , m . A es una matriz cuadrada de orden n, entonces pA () = |A I| es un polinomio de grado n en la variable que tiene
la forma:
pA () = a0 + a1 + a2 2 + + (1)n n .
(sugerencia: usar induccin sobre 10. Si
11.
12.
n). es un valor propio de una matriz A, entonces la multiplicidad geomtrica de es menor o igual que la multiplicidad algebraica de . (sugerencia: vea la demostracin del teorema 3.3.2). n Si A Mnn es tal que pA () = (1) (1 )(2 ) (n ) entonces: (i) |A| = 1 2 n y (ii) Tr A = 1 + 2 + + n . A B In In Sean A, B Mnn , M = y P = B A In In 1 1 a ) Verique que P = P. 2 1 b ) Calcule P M P y concluya que det M = det(A + B) det(A B).
c ) Use (b) para mostrar que
PQ
es una matriz
ortogonal.
entonces la matriz
x un -vector propio de A y sea y un -vector propio de AT , donde = , entonces x, y son vectores ortogonales (sugerencia: A es una matriz idempotente; esto es, tal que A2 = A, entonces los posibles valores propios de A son 1 = 0, 2 = 1.
92
Diagonalizacin de matrices
17. Si
3.5. Ejercicios
nn
entonces:
pA () = Tr A =
i=1 i=1
(aij )2 .
a Mn1 un
es
es una matriz simtrica tal que todos los valores propios tal que propios
20.
M A = M T M. (Sugerencia: utilice el teorema 3.3.13(1)) Si A es una matriz simtrica tal que todos los valores
son positivos, entonces existe una matriz invertible invertible,
T,
tal que
de
A = T T A. la matriz A).
y
n que tiene p valores pron p valores propios nulos, entonces T existe una matriz no invertible M tal que A = M M. (Sugerenes una matriz simtrica de orden pios positivos
(p < n)
A es una matriz simtrica tal que A2 = A y si B es una matriz simtrica, del mismo orden de A, que tiene sus valores propios
positivos, entonces:
(ABA) = (A) = Tr A
(sugerencia: Utilice (19) y (17)). 23. Sea
nn
tal que
|aii | >
j=i,j=1
para todo
|aij | ,
entonces
A es invertible. (Sugerencia: T x1 x2 xn suponga que existe un vector x = = 0 tal que Ax = 0 y que |xi | = mx {|x1 | , |x2 | , . . . |xn |}. Despeje aii xi a en la i-sima ecuacin del sistema Ax = 0, tome valor absoluto
y llegue a una contradiccin). 24. Si
i = 1, 2, . . . n,
A = [aij ]nn
|aii | >
j=i,j=1
93
|aij |
3.5. Ejercicios
para todo
Diagonalizacin de matrices
i = 1, 2, . . . n,
entonces todos los valores propios de
es un valor propio de
A
25. Si
26.
AB = BA, entonces existe una matriz ortogonal P tal que P T AP, P T BP, P T ABP, P T AB 1 P, P T A1 BP y P T A1 B 1 P son matrices diagonales. 2 Si A es una matriz n n tal que A = mA, entonces
den tales que
Tr A = m(A).
(Sug.: considere (i)
(A) = 0,
(ii)
(A) = n
y (ii)
3.5.3 Clculos
1. Para cada una de las siguientes matrices: encuentre, si es posible, una matriz invertible
tal que
P 1 M P
(i) M =
1 2 1 0
2 1 1 1 3 5 6 1 3 1 4 3 0 0 3 3 4 1 1 1 0 0 1 2 0 0 2 2
(ii) M =
1 2 0 2
0 2 2 0 1 5 6 1 1 2 1 1 2 0 1 4 0 0 1 4
(iii) M =
(iv) M =
2 0 1 0 0 1 0 2
T : P2 P2
2
Diagonalizacin de matrices
b ) D, si existe, una base ordenada
una matriz diagonal.
3.5. Ejercicios
C
de
P2
tal que
[T ]CC
sea
3. Para cada una de las siguientes matrices encuentre una matriz ortogonal caso
Tr M
(i) M =
1 2
2 5
1 (ii) M = 1 0
1 0 0
0 0 1
Q,
tal que
Qt M Q
sea de la forma
I 0 0
0 I 0
0 0 . 0
1 1 0 2 0 0
0 0 1 0 0 1
0 (ii) M = 1 1 1 (iv) M = 0 1
1 1 2 2 2 1 0 1 2 1 1 1 2 1 4 2 2 8 P,
tal que
1 1 1 1 1 (vi) M = 2 1 5 1
QT M Q = I , M = P T P.
95
3.5. Ejercicios
b ) Si
Diagonalizacin de matrices
QT M Q =
6.
7.
I 0 , encuentre una matriz no invertible 0 0 T P, tal que M = P P. 1 2 3 1 4 1 5 5 4 Sean A = 2 y B = 4 14 3 5 11 1 4 6 a ) Verique que todos los valores propios de A son positivos, T encontrando una matriz invertible P tal que P AP = I. T T b ) En una matriz invertible M tal que M AM = I y M BM = D sea una matriz diagonal. 2 3 0 1 2 0 6 0 5 0 , S2 = 3 Considere la matrices S1 = 2 0 0 4 0 0 4 3 2 0 2 0 . y S3 = 2 0 0 8 a ) Verique que todos los valores propios de S1 son positivos, T encontrando una matriz invertible P tal que P S1 P = I. T T b ) Haga A = P S2 P y B = P S3 P .. Verique que AB = BA T y encuentre una matriz ortogonal Q tal que Q AQ = D1 y T Q BQ = D2 son matrices diagonales. c ) Concluya que la matriz invertible M = P Q es tal que M T S1 M = I y M T AM = D1 y M T BM = D2 son matrices diagonales.
96
CAPTULO 4
Formas cuadrticas
Este captulo consta de tres secciones. En la primera seccin introduciremos el concepto de Forma cuadrtica y sus respectivas clasicaciones (segn el signo de los elementos del rango) en formas cuadrticas positivamente (negativamente) denidas, formas cuadrticas positivamente (negativamente) semidenidas y formas cuadrticas indenidas. La segunda seccin versa sobre cambio de variables y diagonalizacin de formas cuadrticas. En esta seccin se utilizan los resultados de las secciones 3.3 y 3.4. En la tercera seccin damos algunos criterios para clasicar las formas cuadrticas segn el signo de los valores propios.
Denicin.
Rn
es una funcin
q : Rn
de la forma
n n
(4.1)
q [(x1 , x2 , . . . , xn )] =
i=1 j=1
aij xi xj , donde
97
aij R,
i, j = 1, 2, . . . , n.
4.1. Clasicacin
Formas cuadrticas
(4.2)
q (x) = xT Ax,
siendo
x1 x2 x = . Rn . . . xn S, S =
1 2 (A
+ AT ),
se
xT Sx
= = =
en la denicin anterior, (4.1) puede darse usando matrices simtricas as: (4.3)
q (x) = xT Sx .
Observamos entonces, que una forma cuadrtica se puede expresar matricialmente de varias maneras. Sin embargo, se puede demostrar (ejercicio 4.4.2(1)), que existe una nica representacin en trminos de matrices simtricas,
1 S = 2 (A + AT ),
q(x) = xT Ax.
Nota.
den
2)
de la forma
aij xi xj .
xT Sx,
siem-
4.1.2.
Ejemplo.
R,
R3 y con recor-
rido en
solamente la primera,
q1 ,
= =
Formas cuadrticas
4.1. Clasicacin
q1 (x1 , x2 ) = xT Ax =
x1
x2
3 2
4 5
x1 x2 x1 x2 Rn .
q1 (x1 , x2 ) = xT Sx =
4.1.3.
x1
x2
3 3
3 5
Denicin.
ImaS = =
Sea
xT Sx
T
El conjunto
x Sx : x R
r R : r = xT Sx
para algn
x Rn xT Sx. ImaS
xT Sx
Denicin.
2. 3. 4. 5.
xT Sx
es:
1. Positivamente denida, si
xT Sx > 0 para todo x = 0. T Negativamente denida, si x Sx < 0 para todo x = 0. T Positivamente semidenida, si x Sx 0 para todo x = 0, y T existe un x = 0 tal que x Sx = 0. T Negativamente semidenida, si x Sx 0 para todo x = 0, y T existe un x = 0 tal que x Sx = 0. T Indenida, si existen vectores no nulos x1 y x2 tales que x1 Sx1 > T 0 y x2 Sx2 < 0, respectivamente.
da.
6. No negativa, si es positivamente denida o positivamente semideni7. No positiva, si es negativamente denida o negativamente semideni-
da.
4.1.5.
Observacin. Denicin.
La forma cuadrtica
4.1. Clasicacin
4.1.7.
Formas cuadrticas
Consideremos las siguientes tres formas cuadrticas en
R3
Ejemplo.
= = =
q1 : R3 R
q1 (x1 , x2 , x3 )
= x2 + 2x2 + 3x2 1 2 3 = x1 x2 x3 1 0 0 0 2 0 0 x1 0 x2 3 x3 q1
es positivamente
= xT S1 x.
Puesto que denida. Para la forma cuadrtica
xT S1 x > 0
para todo
x = 0,
entonces
q2 : R3 R
se tiene:
q2 (x1 , x2 , x3 )
= = =
x2 + 2x1 x2 + x2 + x2 1 2 3 1 x1 x2 x3 1 0 xt S2 x.
= (x1 + x2 )2 + x2 3 x1 1 0 1 0 x2 x3 0 1
T
q3 (x1 , x2 , x3 )
= = =
x2 2x2 + 3x2 1 2 3 x1 xt S3 x.
T
x2
x3
1 0 0
0 2 0
0 x1 0 x2 3 x3
Dado que
4>0
x1 = T y x2 S3 x2
[1 0 1] y x2 = [0 2 1] son vectores tales que xT S3 x1 = 1 = 5 < 0, entonces q3 es una forma cuadrtica indenida.
100
Formas cuadrticas
Denicin
(Cambio de variable)
Sea
q : Rn R
una forma
q(x) = xT Sx. P
una matriz invertible
x Rn
y sea
x.
Observacin.
se tiene:
(4.2)
En la denicin anterior,
yx=P y x Rn y viceversa.
yR
xT Sx = yT P T SP y = yT By
donde
B = P T SP .
invertible) como la
x = P y (P
P : Rn y
as que
Rn x = Py .
(q P ) : Rn R
Ejemplo.
Sea
q : R3 R
Formas cuadrticas
q [(x1 , x2 , x3 )] = xT Sx = x1 x2 x3
1 2 3
2 3 x1 5 4 x2 . 4 8 x3 x1 x2 x3
y1 y = y2 = P 1 x y3
=
encontramos que:
xT Sx
yT P T SP y = yT By 1 0 2 1 7 2 1 0 0 0 1 0 0 0 5 0 1 0 2 1 3 .
B = P T SP
2 3 1 5 4 0 4 8 0
2 7 1 2 0 1
=
Por lo tanto,
xt Sx = yt By = =
es decir,
y1
y2
y3
1 0 0
y1 0 0 1 0 y2 0 5 y3
2 2 2 y1 + y2 5y3 ,
xT Sx
donde
y1 = x1 + 2x2 3x3 ,
T
y2 = x2 + 2x3 ,
T
y3 = x3 .
2 2 2 y By = y1 +y2 5y3 , que la 2 2 2 expresin x Sx = x1 +x1 x2 6x1 x3 +5x2 8x2 x3 +8x3 . Por ejemplo, una 2 T 2 2 simple inspeccin nos permite ver, que la expresin y By = y1 + y2 5y3
toma valores tanto positivos como negativos, tomando respectivamente 102
Formas cuadrticas
y1 = 0, y2 = 0, y3 = 0, T la expresin x Sx.
4.2.3. y
variables
T Dada una forma cuadrtica x Sx, si el cambio de T T T T es tal que x Sx = y P SP y = y Dy, donde D es 1 una matriz diagonal, entonces se dice que el cambio de variables y = P x T diagonaliza la forma cuadrtica x Sx.
Denicin.
y = P 1 x
4.2.4.
y = P 1 x que diagonalice la forma cuadrtica xT Sx se reduce a encontrar T una matriz invertible P tal que P SP = D sea una matriz diagonal.
Observacin.
xT Sx existe una matriz or1 T togonal Q tal, que el cambio de variables y = Q x = Q x la diagonaliza. Adems Q tiene como columnas un conjunto ortonormal de vectores propios de la matriz S y
4.2.5.
Teorema.
xT Sx
yT QT SQy = yT Dy 1 0 . . . 0 0 2
. . .
y1
y2
.. .
yn
0 y1 0 y2 . . . . . . n yn
=
donde los
4.2.6.
2 2 2 1 y1 + 2 y2 + . . . + n yn ,
i , i = 1, 2, . . . , n
Sea
S.
Ejemplo.
q : R3 R
q [(x1 , x2 , x3 )] = X t SX = x1 x2 x3
1 1 1
1 1 1
1 x1 1 x2 1 x3
Q tal que QT SQ = D
S en la diagonal. Despus
son
Formas cuadrticas
1/3 1/3 1/ 3 0 0 . 3 Q1 x diagonaliza
1/2 Q = 1/ 2 0
1/5 1/5 2/ 5 0 0 0 =
es tal que
la forma
= y1 y2 y3
0 0 0
0 0 0
y1 0 2 0 y2 = 3y3 . 3 y3
El siguiente teorema est estrechamente relacionado con el literal (1) del teorema 3.3.13 y plantea la existencia de un cambio de variable ligado al signo de los valores propios de la matriz de la forma cuadrtica.
xT Sx una forma cuadrtica sobre Rn . Si la matriz S tiene (0 n) valores propios, no necesariamente diferentes, estrictamente positivos y (0 n) valores propios, no necesariamente
4.2.7.
Teorema.
Sea
diferentes, estrictamente negativos, entonces existe un cambio de variables y = P 1 x que diagonaliza la forma cuadrtica xT Sx, obtenindose:
xT Sx
yT P T SP y = yT Dy I 0 0 0 I 0 y1 0 y2 0 . . . 0 yn
y1
y2
yn
=
4.2.8.
2 2 2 2 2 2 y1 + y2 + . . . + y y+1 y+2 . . . y+ .
Sea
Ejemplo.
q (x)
q : R3 R x Sx
T
= =
x1 x2 x3
1 1 1
1 0 2
1 x1 2 x2 0 x3
Formas cuadrticas
Los valores propios de
1 P = 0 0
naliza la forma cuadrtica
1 2 1 1 0 1 y = P 1 x
diago-
x Sx,
obtenindose:
xT Sx
= yT P T SP y = yT Dy = y1 y2 y3 1 0 0 0 1 0 y1 0 2 2 0 y2 = y1 y2 . y3 0
El teorema siguiente, plantea un criterio para la existencia de un cambio de variables que diagonalice simultneamente a dos formas cuadrticas. Su demostracin se obtiene de la diagonalizacin simultnea de matrices simtricas (teorema 3.4.1).
q2 (x) = xT S2 x dos formas cuadrticas en R . Si todos los valores propios de S1 son estrictamente 1 positivos, entonces existe un cambio de variables y = Q x que diagoT naliza simultneamente las formas cuadrticas q1 (x) = x S1 x y q2 (x) = xT S2 x obtenindose:
4.2.9.
Teorema.
Sean
q1 (x) = xT S1 x
2 2 2 xT S1 x = yT QT S1 Qy = yT Iy = y1 + y2 + . . . + yn
xT S2 x
= yT QT S2 Qy = yT Dy = y1 y2 yn 1 0 . . . 0 0 2
. . .
.. .
0 y1 0 y2 . . . . . . n yn
2 2 2 = 1 y1 + 2 y2 + . . . + n yn ,
105
Formas cuadrticas
|S2 S1 | =
0,
Ejemplo.
Sean
q 1 : R3 R
q2 : R3 R 1 0 0 5 4 4 0 4 2 4 8 4
denidas por:
q1 (x)
= xT S1 x =
x1
x2
x3
0 x1 2 x2 2 x3 x1 4 4 x2 4 x3
1 = 1,
5,
la matriz invertible
Q=
es tal que
1 3 0 2 3
2 5 1 2 5 0
3 5 3 3 5 5 3 5
QT S1 Q = I3
3 QT S2 Q = D = 0 0
t
0 6 0
0 0 . 6
simultnea-
y = Q1 x diagonaliza x S1 x y xt S2 x obtenindose:
2 2 2 xT S1 x = yT QT S1 Qy = yT I3 y = y1 + y2 + y3
106
Formas cuadrticas
y
xT S2 x
= yT QT S2 Qy = yT Dy = y1 y2 y3 3 0 0 0 6 0 0 y1 0 y2 6 y3
Los siguientes dos resultados estn relacionados de manera muy cercana con el teorema 3.4.3 y el corolario 3.4.5 respectivamente. Ellos nos brindan condiciones necesarias y sucientes bajo las cuales podemos hablar de diagonalizacin ortogonal simultnea de dos o ms formas cuadrticas. En forma ms precisa tenemos: 4.2.11.
Rn las dos formas cuadrticas q1 (x) = xT S1 x y q2 (x) = xT S2 x. S1 S2 = S2 S1 sii existe una matriz ortogonal P tal que el cambio de variables y = P 1 x = P T x diagonaliza simultneamente las formas cuadrticas xT S1 x y xT S2 x obtenindose: xT S1 x = yT P T S1 P y = yT D1 y = y1 y2 yn 1 0 . . . 0 0 2
. . .
Teorema
Considere en
.. .
0 y1 0 y2 . . . . . . n yn
2 2 2 = 1 y1 + 2 y2 + . . . + n yn ,
xT S2 x
yT P T S2 P y = yT D2 y 1 0 . . . 0 0 2
. . .
y1
y2
.. .
yn
0 y1 0 y2 . . . . . . n yn
2 2 2 1 y1 + 2 y2 + . . . + n yn ,
107
Formas cuadrticas
S1
y los
i , i = 1, 2, . . . , n
Sean
i , i =
1, 2, . . . , n
4.2.12.
S2 .
formas cuadrticas
en
Una condicin necesaria y suciente para que exista una matriz 1 ortogonal P tal que el cambio de variables y = P x = P T x diagonalice T T T simultneamente las formas cuadrticas x S1 x, x S2 x, . . . , x Sk x es que Si Sj = Sj Si para todo i y todo j; i, j = 1, 2, . . . , k .
4.2.13.
R .
Corolario.
xT S1 x, xT S2 x, . . . , xT Sk x
Ejemplo.
Sean
q 1 : R4 R
q2 : R4 R
denidas por:
q1 (x)
= xT S1 x = x1 x2 x3 x4 1 1 0 0 1 1 0 0 0 0 1 0 x1 0 0 x2 0 x3 1 x4
= q2 (x) = =
x2 2x1 x2 + x2 + x2 + x2 , 1 2 3 4 xT S2 x x1 x2 x3 x4 1 0 0 0 0 1 0 0 x1 0 0 0 0 x2 2 2 x3 2 5 x4
1/ 2 1/ 2 P = 0 0
es tal que
1/ 2 1/ 2 0 0
0 0 P t S1 P = D1 = 0 0
0 1 0 0
0 0 1 0
0 0 , 0 2
1 0 P t S2 P = D2 = 0 0
0 1 0 0
0 0 6 0
0 0 0 1
108
Formas cuadrticas
xT S1 x
= =
yT P T S1 P y = yT D1 y
2 2 2 y2 + y3 + y4 ,
xT S2 x
yT P T S2 P y = yT D2 y R2 :
2 2 2 2 = y1 + y2 + 6y3 + y4 .
4.2.14.
Ejemplo.
= = =
xT S1 x = xT S2 x = xT S3 x =
x1 x1 x1
x2 x2 x2
2 1 3 4 5 6
1 2 4 3 6 5
x1 x2 x1 x2 x1 x2
Si Sj = Sj Si , i = 1, 2, 3 1 1 1 1
P = 1/ 2
es tal que
P T S1 P = D1 =
1 0
0 3
P T S2 P = D2 = 1 0 0 11
1 0
0 7
P T S3 P = D3 =
Por lo tanto, el cambio de variables mente las formas cuadrticas
xT S1 x xT S2 x xT S3 x
= yT P T S1 P y = yT P T S2 P y = yT P T S3 P y
= = =
y1 y1 y1
y2 y2 y2
109
1 0 1 0 1 0
0 3 0 7 0 11
y1 y2 y1 y2 y1 y2
Formas cuadrticas
P Mnn , junto con el cambio de variables x = P y y = P 1 x (x, y Rn ), t nos permite reescribir la forma cuadrtica q(x) = x Sx en trminos de la T T variable y, mediante la expresin q (y) = y By, donde B = P SP. Esto
es, para dicho cambio de variable se tiene
q(x) = xT Sx = yT By = q (y),
De esto se sigue entonces, que decir,
con y
x = P y,
invertible.
q()
q ()
xT Sx : x Rn = yT By : y Rn .
El siguiente resultado relaciona las clasicaciones de dichas formas cuadrticas. La vericacin de ste se deja a cargo del lector. 4.3.1.
q(x) = xT Sx una forma cuadrtica en Rn y sea P t T una matriz invertible nn. Sea adems q (y) = y By, donde B = P SP , 1 la forma cuadrtica generada por el cambio de variables y = P x. EnSea tonces se tiene:
1. 2. 3.
Teorema.
q(x) = xt Sx es positivamente (negativamente) denida sii q (y) = yt By es positivamente (negativamente) denida. q(x) = xT Sx es positivamente (negativamente) semidenida sii q (y) = yT By es positivamente (negativamente) semidenida. q(x) = xT Sx es indenida sii q (y) = yT By es indenida.
El siguiente teorema relaciona el signo de las formas cuadrticas con el signo de los valores propios de la matriz simtrica que dene dicha forma cuadrtica. 4.3.2.
Teorema.
1.
Sea
xT Sx
Rn , S = 0.
xT Sx S son
Formas cuadrticas
2.
xT Sx
p (0 < p < n)
ca
y un cambio de variables
y = Q1 x = Qt x,
(4.1) donde los
tal que
2 2 2 xT Sx = yT QT SQy = yT Dy = 1 y1 + 2 y2 + . . . + n yn ,
i , i = 1, 2, . . . , n
T
S,
D = Q SQ = diag
1 ,
2 ,
...,
n
T
q(x) = x Sx es positivaq (y) = yT Dy es tam T bin positivamente denida, sto es, q (y) = y Dy > 0 para todo y = 0. De (4.1) se tiene entonces que 1 > 0, 2 > 0, . . . , 2 > 0. Es decir, todos los valores propios de S son estrictamente positivos.
De otro lado, si todos los valores propios de tivos, entonces existe un cambio de variables tal que
2 2 2 xT Sx = yT P T SP y = yT y = y1 + y2 + . . . + yn . T T Puesto que y y > 0 para todo y = 0, entonces x Sx > 0, para todo T x = 0. Esto es, la forma cuadrtica x Sx, es positivamente denida, lo
que demuestra el inciso (1) de nuestro teorema. Supongamos ahora, que la forma cuadrtica ca
q(x) = xT Sx
es positiva-
mente semidenida. Por el inciso (2) del teorema 4.3.1, la forma cuadrti-
q (y) = yT Dy es tambin positivamente semidenida. Esto es, se tiene T que q (y) = y Dy 0 para todo y Mn1 y existe un y = 0 tal que T y Dy = 0. Usando (4.1) se tiene entonces, que los valores propios de S son no negativos y que por lo menos uno de ellos es nulo. Es decir, S tiene (0 < < n) valores propios estrictamente positivos y el resto de valores propios de S son nulos.
Finalmente, supongamos que la matriz tiene
de la forma cuadrtica,
0 < < n,
xT Sx, (n )
Formas cuadrticas
valores propios nulos. Por el teorema 4.2.7 existe un cambio de variables tal que
2 2 2 xT Sx = yT P T SP y = yT Dy = y1 + y2 + . . . + y .
por hiptesis, ver, que para
yT Dy 0 y Mn1
y Mn1 . 0
. 01 . . 1 0 = = . , 1 . . . 1 . . n1 1 n1
sto quiere decir, que
se tiene
q (y) = yT Dy es positivaT mente semidenida y por consiguiente, q(x) = x Sx tambin lo es, lo que
demuestra el inciso (2) de nuestro teorema.
yT Dy = 0.
El resultado correspondiente a formas indenidas se plantea como un ejercicio para el lector. 4.3.3.
xT Sx,
Ejemplo.
q(x) =
denidas en
1. La forma cuadrtica
q(x)
x1
x2
x3
x1 0 3 x2 x3 6
= xT Sx
es positivamente denida, pues los valores propios de la matriz
son:
1 = 5, 2 = 3
3 = 7,
positivos.
112
Formas cuadrticas
2. La forma cuadrtica
q(x)
= =
triz
x1
x2
x3
xT S x 1 =
7+ 23 , 2
son:
2 =
7 23 y 2
3 = 0.
3. La forma cuadrtica
q(x) = xT Sx 2x2 2
denida por:
q(x)
x2 1
4x1 x2 +
4x2 x3 + 3x2 3 2 2 2 x1 0 2 x2 x3 3 S
son:
x1
x2
x3
1 2 0
= xT Sx
es indenida, pues los valores propios de y 4.3.4.
1 = 1, 2 = 2
3 = 5.
Sea
Teorema.
1. 2.
xT Sx
Rn .
xT Sx es positivamente denida sii existe una matriz invertible Q tal que S = Qt Q. xT Sx es positivamente semidenida sii existe una matriz no inT vertible Q tal que S = Q Q.
anlogamente y se deja como ejercicio. Supongamos que la forma cuadrtica tonces todos los valores propios de
xt Sx
4.3.2(1)), adems, existe una matriz invertible rema 3.3.13(1)). De sto se sigue, que
Q = P 1 .
Supongamos ahora que existe una matriz invertible 113
tal que
S = QT Q.
Formas cuadrticas
Puesto que Q es invertible, entonces Qx = 0 para todo vector no nulo x. De sto se sigue, que xT Sx = xT QT Qx = (Qx)T (Qx) > 0, para todo x = 0. sto es, la forma cuadrtica xT Sx es positivamente denida. 4.3.5.
Ejemplo.
1. La forma cuadrtica
q : R3 R
denida por:
q(x)
= = =
4x2 1
x2 2
x1 xT Sx
4x2 x3 + 5x2 3 4 0 x2 x3 0 1 0 2
x1 0 2 x2 x3 5
son
1 = 4, 2 = 3 +
3 = 3
5,
tamente positivos. Efectuando los clculos pertinentes se encuentra que la matriz invertible
2 Q= 0 0
0 1 0
0 2 , 1
es tal
4 que S = 0 0
0 0 1 2 = QT Q. 2 5
2. La forma cuadrtica
q : R3 R
denida por:
q(x)
son
3 = 3.
1 Q= 0 0
1 0 0
1 0 , 0
es tal que
1 S= 1 1
1 1 1
1 1 = QT Q. 1
114
Formas cuadrticas
El siguiente teorema nos da un criterio para clasicar matrices simtricas como positivamente denidas o negativamente te denidas, en trminos de los determinantes de la propia matriz y de algunas de sus submatrices. Aqu hacemos la salvedad, de que en el caso de matrices de tamao decir escalares), escribiremos con el valor absoluto. 4.3.6.
Teorema.
n.
s12 s22
. . .
.. .
sn2
Sn = S, Sn1
s12 s22
. . .
.. .
sn2
y
S2 =
Entonces:
S1 = [s11 ] .
1. La forma cuadrtica 2.
q(x) = xT Sx es positivamente denida y slo si det(S1 ) > 0, |S2 | > 0, |S3 | > 0, . . .|Sn | > 0. T La forma cuadrtica q(x) = x Sx es negativamente denida n y slo si det(S1 ) < 0, |S2 | > 0, |S3 | < 0, . . .(1) |Sn | > 0.
si si
(1), la otra se deja como ejercicio: (Condicin necesaria) En primer lugar, si la forma cuadrtica denida sobre
xT Sj xj j
R ,
para
xj1 = =
2 j n, es positivamente denida, entonces Rj1 xT Sj1 xj1 es positivamente denida. En j1 = 0 se tiene que: xT j1 0 Sj1 st s sjj xj1 0
xT Sj xj j
Formas cuadrticas
xT Sj xj , j
denida sobre
Rj ( 2
j n), es positivamente denida, entonces existe una matriz invertible 2 Qj tal que Sj = QT Qj , de donde |Sj | = Qt |Qj | = |Qj | > 0 (teorema j j
4.3.4(1)) Estas dos observaciones nos permiten concluir que si la forma cuadrtica
denida entonces
(Condicin suciente) Haremos una demostracin de esta implicacin usando induccin sobre Cuando sto,
n.
n = 1, S1 = [s11 ]. Ahora, por hiptesis det(S1 ) = s11 > 0. Por xt S1 x = s11 x2 > 0 para todo x = 0; esto es, la forma cuadrtica xt S1 x es positivamente denida.
Supongamos ahora que la implicacin es vlida para cuando veriquemos que la implicacin es vlida para
n = k, y n = k + 1. Sea pues S = Sn una matriz simtrica de orden n = k + 1 tal que |Sn | = |Sk+1 | > 0, |Sn1 | = |Sk | > 0, . . . |S2 | > 0 y |S1 | > 0. Por hiptesis de induccin, t k la forma cuadrtica xk Sk xk en R es positivamente denida. Existe ent tonces una matriz invertible Qk tal que Sk = Qk Qk (teorema 4.3.4(1)).
Ahora, por el teorema 2.2.3(2) se tiene que:
|Sk+1 | =
Sk st
s s(k+1)(k+1)
= |Sk | det(k ).
Aqu hemos introducido la sustitucin simplicar un poco la escritura, que
|Sk+1 | > 0
|Sk | > 0. .
Sea ahora
Qk+1 =
Qk 0
116
(Qt )1 s k k
Formas cuadrticas
La matriz
Qk+1
Sk+1
= =
Sk sT
s s(k+1)(k+1) QT k 0 k Qk 0 (QT )1 s k k
sT (Qk )1
=
denida sobre 4.3.7.
k+1
Ejemplo.
1. La forma cuadrtica
xT Sx, donde : 4 2 2 S= 2 5 1 2 1 4
4 2
2 5
= 16 > 0
|S3 | =
2. La forma cuadrtica
= 20 > 0.
xt Sx, donde : 3 2 0 2 S = 2 4 0 2 5
3 2
2 4
=8>0
|S3 | =
= 28 < 0.
4.4. Ejercicios
4.3.8. ciones
Formas cuadrticas
S = [aij ]nn
una matriz simtrica y sean
Nota.
Sea
S1 , S2 , . . . , Sn
las matrices que aparecen en el enunciado del teorema anterior. Las condicuadrtica
det(S1 ) 0, |S2 | 0, |S3 | 0, . . .|Sn | 0 no implican que la forma xt Sx sea positivamente semidenida. Por ejemplo, la matriz 1 1 2 S= 1 1 2 2 2 1 1 1 1 1
es tal que
=0
|S3 | =
Sin embargo, la forma cuadrtica el vector
1 1 2
1 1 2
2 2 1
= 0.
4.4. Ejercicios
4.4.1 Responda verdadero o falso justicando su respuesta. 1. Sea 2. 3.
M una matriz cuadrada de orden n. Si xT M x = 0 para todo x Rn entonces M = 0. Si la matriz S es indenida, entonces la matriz S es indenida. 2 Si S es una matriz simtrica tal que S = S, entonces S es no
negativa.
4. Si 5. Si
S S1
S 3 = S,
entonces
es no
negativa.
S2
entonces la matriz
S=
S1 0
0 S2
S1
S2
entonces la matriz
S = S1 + S2
118
es positivamente denida.
Formas cuadrticas
7. Si 8.
4.4. Ejercicios
S2 son matrices indenidas de igual orden, entonces la S = S1 + S2 es indenida. Si S1 y S2 son matrices positivamente denidas de igual orden tales que S1 S2 = S2 S1 , entonces la matriz S = S1 S2 es positiy matriz vamente denida.
S1
9. Sea
S=
a b
b c
. Si
es positivamente
S =
a b
a<0
ac b2 > 0.
4.4.2 Demuestre que:
q : Rn R xT = A,
de orden
x1
x2
xn
.
y
2. Para cualquier matriz cuadrada son no negativas. 3. Para cualquier matriz cuadrada
las matrices
S1 = AT A (A) = n
n n, A,
se tiene:
sii
S = AT A
es positivamente denida.
n n, A, se tiene: (A) < n sii S = AT A es positivamente semidenida. 1 matriz S es positivamente denida entonces la matriz S S
es no negativa, entonces los elementos de la diag-
son no negativos.
7. Si la matriz
8.
S = [sij ]nn es positivamente semidenida y si sii = 0, entonces cada elemento de la la i de S y cada elemento de la columna i de S es nulo. Si S = [sij ] nn es una matriz simtrica tal que: sii >
j=i n j=1
|sij | ,
para
i = 1, 2 . . . , n,
entonces
ma 3.5.2(23)). 119
4.4. Ejercicios
9. Si
Formas cuadrticas
10.
2 2 S1 y S2 son matrices simtricas de igual orden tales S1 + S2 = 0 entonces S1 = S2 = 0. (sugerencia: considere la expresin 2 2 xT (S1 + S2 )x). Si S es positivamente denida de orden n, a un vector n 1 y un nmero real tal que > aT Sa, entonces la matriz
S =
S aT
S = T T T (Sugerencia: utilice induccin sobre el orden n, de la matriz S ). Si S es una matriz positivamente, entonces Tr S > 0. Si S es una matriz positivamente, entonces Tr S 0. Si S1 y S2 son matrices positivamente denidas de igual orden, entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema 4.3.4(1)). Si S1 y S2 son matrices positivamente semidenidas de igual orden, entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema
matriz invertible
4.3.4(2)).
4.4.3 Clculos
xT Sx
siguientes:
a ) Haga un cambio de variables que las diagonalice. b ) Clasifquela como positivamente denida (semidenida), negativamente denida (semidenida) o indenida.
tal que
S = Q Q.
Q tal que S = Q Q. xT Sx = x2 + 4x1 x2 2x2 1 2 xT Sx = x2 + 2 2x1 x2 + 4x2 + x2 2 3 1 xT Sx = x2 + 4x1 x2 2x1 x3 + 4x2 4x2 x3 + 8x2 1 2 3 xT Sx = x2 + 4x12 + 6x1 x3 2x2 x3 + x2 x 1 3 2 1 2 xT Sx = x2 + 2 x1 x3 + x2 + x2 2 3 1 3 3 3 xT Sx = x2 2x1 x3 + 2x2 + 2x2 x3 + 2x2 1 2 3
120
Formas cuadrticas
2. Considere las formas cuadrticas:
4.4. Ejercicios
xT S1 x x S2 x
T
= =
diagonalice simultneamente las dos formas cuadrticas. una matriz ortogonal), que diagonalice simultneamente las
xT S1 x x S2 x
4. Sea
= x2 2x1 x2 + 2x2 , 1 2 =
.
2x2 1
+ 4x1 x2 .
S=
2 1
1 2
S =
121
CAPTULO 5
Denicin.
1. 2. 3.
Sea
S S
xT Sx > 0 para todo x = 0. T es positivamente semidenida, si x Sx 0 para todo x = 0, T y existe un x = 0 tal que x Sx = 0. S es no negativa, si S es positivamente denida o si S positivaes positivamente denida, si mente semidenida. Sea
5.1.2.
Teorema.
1.
n n.
es positivamente denida.
de orden
n,
la matriz
P T SP
es
positivamente denida.
3. Todos los valores propios de 4. Existe una matriz invertible 5. Existe una matriz
S son estrictamente positivos. P de orden n, tal que P T SP = In T invertible Q de orden n, tal que S = Q Q.
123
Anexo 1
n n, T ,
tal que
S = T T T. S es invertible
S 1
es positivamente denida.
s11 s21
s12 s22
Teorema.
sii
Sea
Si se cumple que
>
j=1, j=i
|sij |,
para
i = 1, 2 . . . , n,
entonces
5.1.4.
Teorema.
1. 2.
n n.
Si
es positivamente
denida, entonces,
5.1.5.
Teorema.
1 , 2
Sean S1 y S2 matrices simtricas de igual orden y sean nmeros reales positivos. Si S1 y S2 son positivamente denidas,
entonces la matriz
S = 1 S1 + 2 S2
es positivamente denida.
5.1.6. Sean S1 y S2 matrices simtricas de igual orden. Si S1 es positivamente denida, entonces existe una matriz invertible Q tal que QT S1 Q = I y QT S2 Q = D, donde D es una matriz diagonal real, cuyos elementos en la diagonal las soluciones de la ecuacin |S2 S1 | = 0.
Teorema.
Teorema. Sean S1 y S2 matrices simtricas de igual orden. Si S1 S2 son positivamente denidas y si S1 S2 = S2 S1 , entonces la matriz S = S1 S2 es positivamente denida.
5.1.7.
5.1.8. Sean S1 y S2 matrices simtricas de orden n. Si S1 es positivamente denida, entonces existe un > 0 tal que S = S1 + S2 es
Teorema.
positivamente denida.
Demostracin. Si
S2 = 0 entonces para cualquier > 0 se tiene S = S1 + S2 es positivamente denida. Supongamos enS2 = 0. Por el teorema 5.1.6, existe una matriz invertible Q
124
Anexo 1
tal que
QT S1 Q = In
QT S2 Q = D, 0 d22
. . .
donde
D 0 0
. . .
Digamos que
d11 0 D= . . . 0
Puesto que
.. .
. D
dnn
S2 = 0,
1 + dii > 0
para
i = 1, 2, . . . , n
y que la matriz
I + D
matriz
(Q1 )T [I + D]Q1 = S1 + S2 = S
es positivamente denida. 5.1.9.
Teorema.
Sea
n. Si S es posix, y Mn1 se
tal que
S = QT Q.
se tiene
De aqu que
S 1 = Q1 (QT )1 .
x, y Mn1
Qx, (QT )1 y
o sea:
Qx
(QT )1 y
Teorema.
adems Si
Sean S1 1 2 n ,
S1
x=0
se tiene que
x S2 x n . xT S1 x
125
Anexo 1
triz invertible
Q,
tal que
|S2 S1 | = 0
1 0 QT S2 Q = D = . . . 0
donde
0 2
. . .
.. .
2 y1
0 0 . , . . n
entonces:
1 2 n .
T T T
Ahora, si hacemos
y = Q1 x, +
2 y2
x S1 x = y Q S1 Qy = y In y =
y
2 + + yn ,
Por
x=0: xT S2 x n . xT S1 x
5.1.11.
Teorema.
S
Sea
n.
Las arma-
es positivamente semidenida. P , nn, P T SP es positivamente semidenida. valores propios positivos (estrictamente) y nulos.
P ;
de orden
n,
tal que
In 0 nn
0 0
0 < n. Q,
tal que
no invertible
S = QT Q. n.
Si
Sea S = [sij ]nn una matriz simtrica de orden es positivamente semidenida, entonces
1.
Teorema.
(S) < n.
126
Anexo 1
2.
5.1.13.
S2
Teorema.
entonces la matriz
5.1.14.
S = S1 S2
es positivamente semidenida.
Sean S1 y S2 matrices simtricas de igual orden y sean nmeros reales positivos. Si S1 y S2 son positivamente semidenidas, entonces la matriz S = 1 S1 + 2 S2 es positivamente semidenida.
Teorema.
1 , 2
5.1.15.
Teorema.
AT A AT A AT A
y
Sea
una matriz
nn
de rango
r,
entonces:
1. 2. 3. 5.1.16.
AAT
r = n. r < n. n.
Teorema.
a)
S1
S2
1. Si
2.
S1 y S2 son matrices no negativas, entonces: Tr S1 0 b ) Tr S1 = 0 sii S1 = 0 c ) Tr (S1 S2 ) 0 d ) Tr (S1 S2 ) = 0 sii S1 S2 = 0 Si S1 y S2 son matrices positivamente denidas, a ) Tr S1 > 0 b ) Tr (S1 S2 ) > 0.
Sean
entonces:
5.1.17.
Teorema.
S1 , S2 , . . . , Sk
n.
1. Si
S1 , S2 , . . . , Sk son k a ) Tr i=1 Si =
b ) Tr
k i=1 k
Si =
= 0 sii S1 = S2 = . . . = Sk =
k
0.
c)
Tr (Si Sj )
j=1 i=1 k k
0,
y
j=1 i=1, i=j
Tr (Si Sj )
0. i = j.
d)
j=1 i=1, i=j
2. Si
Tr (Si Sj )
=0
sii
Si Sj = 0
para todo
S1 , S2 , . . . , Sk
Anexo 1
k i=1 Tr (Si ) k k
Si =
0
Tr (Si Sj )
b)
j=1 i=1
5.1.18.
Tr (Si Sj )
>0
y
j=1 i=1, i=j
> 0. S2 = S. n. Si
Sean
Teorema.
Sea
nn
tal que
adems
S1 , S2 , . . . , Sk
In = S +
i=1
Si ,
entonces
SSi = Si S = 0
para todo
i = 1, 2, . . . , k . S = S 2 = S T S es Tr (SSi ) 0 para i = 1, 2, . . . , k.
In = S +
i=1
por la matriz
Si ,
S,
se obtiene
S = S2 +
i=1
De esto se sigue que:
SSi = S +
i=1
SSi .
SSi = 0
i=1
En consecuencia, Tr (SSi )
Tr
SSi
i=1
=
i=1
Tr (SSi )
= 0.
=0
y por ende
(S Si ) = 0.
Sean S1 y S2 matrices simtricas de orden n. Si S1 es S2 es no negativa, entonces las soluciones de la ecuacin |S1 S2 I| = 0 son reales.
5.1.19.
S Si = 0, para i = 1, 2, . . . , k. T Si S = Si S T =
Teorema.
no negativa o
S1
rango
n.
tal que:
P t S1 P =
I 0
0 0
128
Anexo 1
Sea ahora
C11
es una matriz
.
reales.
Puesto que
Ahora;
|S1 S2 I| = 0 P
T
sii
Puesto que:
entonces
P T S1 S2 (P T )1 In
C11 I = 0
C12 I
son las solu-
= |C11 I | |I | .
De aqu que las soluciones de la ecuacin ciones de la ecuacin
|S1 S2 I| = 0,
|C11 I| |I | = 0,
Denicin. Teorema.
1. Si 2. Si
Una matriz
cuadrada de orden
es idempotente, si
satisface que
5.2.2.
A2 = A.
Sea
nn
de rango
r:
es positiva semidenida.
1. Si
los
Anexo 1
la matriz 5.2.3.
Teorema.
A,
propio de
5.2.4.
entonces Si
Si
es un valor
Teorema.
Q,
la matriz
S = QT SQ
es una
matriz simtrica idempotente. n 2. La matriz S = S , n = 1, 2, . . . , es simtrica idempotente. 3. La matriz S = I 2S, es una matriz simtrica ortogonal.
5.2.5.
Teorema.
n N,
Si
S n+1 = S n
para
algn
entonces
Demostracin. Sea
P T SP = D
es
en la diagonal.
S n+1 = S n , D
n+1
entonces:
(P T SP )n+1 = P T S n+1 P D
es
= P T S n P = Dn .
De esto se sigue, que cada elemento de la diagonal de tanto,
0.
Por lo
D2 = D, P
a sea:
D2 = P T S 2 P = P T SP = D,
puesto que 5.2.6. es invertible, se tiene entones que
S 2 = S. n n,
entonces:
n
Teorema.
Si
(S) = Tr S = Tr S T S =
i=1 j=1
5.2.7.
s2 . ij n n.
Si
sii = 0
la
Teorema.
y cada elemento de
entonces:
sii =
k=1
sik ski =
k=1
130
s2 . ik
Anexo 1
Por lo tanto, si
sii = 1,
n
se tiene
s2 = 0 , ik
k=1, k=i
es decir, 5.2.8.
Teorema.
S=
S1 , S2 , . . . , Sk
n,
sea adems
Si .
i=1
can la tercera:
a) b) c)
S2 = S. 2 Si = Si , i = 1, 2, . . . , k . Si Sj = 0 si i = j; i, j = 1, 2, . . . , k .
k 2 Si +
S2 = (
i=1
Si )2
=
i=1
Si Sj
j=1
i=1 i=j
=
i=1
y por la condicin b), se tiene:
Si = S,
k 2 Si = i=1
y por lo tanto:
Si ,
i=1
Si Sj = 0.
j=1
De aqu que Tr
i=1 i=j
Si Sj = 0.
j=1 i=1, i=j
Si
Si ,
Anexo 1
i = 1, 2, . . . , k, es no negativa (teorema 5.2.2), adems se tiene que Si Sj = 0 si i = j; i, j = 1, 2, . . . , k (ver teorema 5.1.17). De manera
S = S2 = (
i=1
o sea,
Si )2
=
i=1
2 Si ,
Si =
i=1 i=1
2 Si .
Sj , j = 1, 2, . . . , k,
2 Sj Sj = Sj Sj ,
o sea:
2 3 Sj = Sj ,
pues
cluye que
Si Sj = 0 Sj es
si
i = j; i, j = 1, 2, . . . , k .
j = 1, 2, . . . , k.
As, as
condiciones a) y c) implican la condicin b). Por ltimo, si las condiciones b) y c) se satisfacen, entonces
k 2 Si +
S2 = (
i=1
Si )2
=
i=1
Si Sj
j=1
i=1 i=j
=
i=1
esto es, la condicin a) se satisface.
Si = S;
Sean S1 , S2 , . . . , Sk matrices simtricas idempotentes de rangos 1 , 2 , . . . , k . Sea Sk+1 una matriz no negativa de k+1 orden n. Si I = i=1 Si , entonces Sk+1 es una matriz simtrica idempok tente de orden n i=1 i , y Si Sj = 0 para i = j; i, j = 1, 2, . . . , k .
5.2.9.
Teorema.
n,
de orden
132
Anexo 1
Demostracin. Puesto que las matrices
i = 1, 2, . . . , k , son
idempotentes, entonces:
k 2 Sk+1
(I
i=1 k
Si )2
k k 2 Si + i=1 j=1 k
= I 2
i=1
Si +
Si Sj i=1 i=j
= I
i=1
Si +
j=1
Si Sj i=1 i=j Si Sj .
= Sk+1 +
j=1
i=1 i=j
k i=1
Sk+1 = I
Si ,
k
entonces:
Si Sk+1 .
Sk+1 +
j=1
Si Sk+1 .
De esto se sigue:
Si Sj +
j=1
Si Sk+1 = 0,
i=1
i=1 i=j
133
Anexo 1
Tr
Si Sk+1 = 0.
Si Sj +
j=1 i=1, i=j i=1
S1 , S2 , . . . , Sk
Si Sj = 0
para
S1 , S2 , . . . , Sk son no negativas. Sk+1 es no negativa. As que i = j; i, j = 1, 2, . . . , k, k + 1 (teorema 5.1.17(1)). I 2 = I = i=1 Si , se sigue del teorema anterior 1, 2, . . . , k + 1 y por lo tanto, Tr (Si ) = (Si ) (ver
k k+1
(Si ) = Tr (Si )
Tr
I
i=1 k
Si
Tr (I )
i=1
Tr (Si )
= n
i=1 k
(Si )
= n
i=1
que es lo que se quera demostrar. 5.2.10.
i .
Teorema.
k i=1
Sean Si
y sea
S=
a) b)
Si .
2 Si = Si para i = 1, 2, . . . , k . Si Sj = 0 para i = j; i, j = 1, 2, . . . , k .
S = S2;
k k
S=
i=1
2 Si + j=1
Si Sj . i=1 i=j
134
Anexo 1
De aqu que:
Tr
Si Sj = Tr S Tr
k 2 Si i=1
son no negativas, entonces b) se sat-
0.
S1 , S 2 , . . . , S k
S2 = S n.
Si
implican
Teorema.
S
Sea
(S) = r,
entonces
S=
i=1
i Si , i
son los
tal que:
QT SQ =
donde
D 0
0 0 r
,
con los valores propios no
nulos de la matriz
S 0 0
= Q
D 0
QT 0 r
. . .
[Q1 Q2
1 0 . . . Qn ] 0 0 . . . 0
.. .
0 0
. . .
0 0
. . .
.. .
0 0
. . .
. . .
r 0
. . .
0 0
. . .
0 QT 1 0 . . QT . 2 0 . . 0 . QT n 0
=
i=1 r
i Qi QT i i Si ,
i=1
135
Anexo 1
As:
Si = Qi QT , i = 1, 2, . . . , r. i
T Si T Si
(Qi QT )T = (QT )T QT = Qi QT = Si i i i i
si
= Qi QT Qi QT = Qi I QT = Qi QT = Si i i i i = Qi QT Qj QT = Qi 0 QT = 0, i j j = (Qi QT ) i = (Qi ) = 1. i = j.
Si Sj (Si )
136
CAPTULO 6
Teorema.
Ir 0 Ir 0 Ir Ir
si
Si
es una matriz
P
y
tales que
entonces
1.
0 0
si
si
r<n
r < m.
2. 3. 4.
r = n < m.
si
r=m<n
r = n = m.
137
ada reducida de y
A,
entonces
R = P A, P
mr
las de
0 0 0
. . .
0 1 0 0 0 0
. . . . . .
a1k 0 0
. . .
0 1 0
. . .
a1k a2k 0
. . .
a1k a2k 0
. . .
0 0 1
. . .
0
la matriz
ahora bien, efectuando las operaciones elementales sobre las columnas de podemos obtener
F =
As que
Ir 0
0 0
F = RQ,
donde
Ejemplo.
Consideremos la matriz
1 A = 1 2
2 2 4
1 3 0 2 2 6
claramente las dos primeras las son linealmente independientes, y la tercera es un mltiplo escalar de la primera la de mximo de las linealmente independientes de
2.
P AQ =
A. por lo tanto, el nmero A es 2; o sea, A tiene rango existen matrices invertibles P y Q tales que 1 0 0 0 I2 0 = 0 1 0 0 . 0 0 0 0 0 0 P
y
Procedemos ahora a calcular las matrices invertibles pautas de la demostracin del teorema anterior.
siguiendo las
P tal A.
que
P A = R,
donde
A | I3 =
f ilas
f ilas
1 2 1 2 2 4 1 2 1 0 0 1 0 0 0 1 2 0 0 0 1 0 0 0
1 3 0 2 2 6 3 1 0 2 1 0
| 1 0 0 | 0 1 0 | 0 0 1 | 1 0 0 | 1 1 0 | 2 0 1 | 1 1 0 | 1 1 0 = | 2 0 1 Q
tal que
| P
RQ = F,
donde
F =
I2 0
0 0
R | I4 =
2 0 0 0 1 0 0 1 0 0 1 0
0 1 0 2 0 0 0 0 0 0 0 0
2 1 0 2 1 0 0 1 0 0 0 0
Col
Col
Col
0 0 1 0 0 1 0 0 1 0 0 F
| | | | | | | | | | | | | | | |
1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 0 1 0
0 0 1 0 0 1 0 0
0 0 0 1 0 0 0 1
2 0 0 1 2 0 1 1
0 2 0 1 1 0 0 0 0 2 0 1 1 0 0 0
| Q
1 P = 1 2
1 1 0
0 0 1
1 0 Q= 0 0
0 0 1 0
2 1 0 0
2 0 1 1
P AQ =
6.1.3.
I2 0
0 0
1 = 0 0
0 1 0
0 0 0
0 0 . 0
Teorema.
existen matrices
Si A es una matriz m n de rango r > 0, entonces Bmr y Crn , de rango r, tales que A = B C.
Demostracin.
de la matriz
A, (A) = r.
1. Si 3.
2. Si
r = m, entonces A = BC , donde B = Ir y C = A. r = n, entonces A = BC , donde B = A y C = Ir . Si r < n y r < m, entonces por el teorema 6.1.1(1) matrices invertibles P y Q tales que: P AQ = Ir 0 0 0 .
existen
De aqu que:
= P 1 = P 1 = BC,
Ir 0 Ir 0
0 0
Q1 Ir 0 Q1
donde
B Mmr Ir 0
C Mrn
r,
dadas por
B = P 1
C=
Ir
Q1 .
r < n
tales
P AQ =
despus calcular las matrices
Ir 0
y
0 0
P 1
Q1 ,
B = P 1
Ir 0 A
C=
Ir
Q1 .
una demostracin alternativa, la cual presentamos a continuacin. Como veremos, esta demostracin nos facilitar un algoritmo ms econmico para calcular matrices
adecuadas.
r < m.
Suponga que
r < m. Sea P
A es m tal que
P A = R,
donde
(vase apartado
r < m, R
R=
C 0
donde
es una matriz
rn
de rango
r.
Ahora, si escribimos
P 1
parti-
cionada adecuadamente
P 1 =
donde
B r R
es una matriz
mr
de rango
y adems,
= P =
B D
C 0
= BC
Presentamos a continuacin, un mtodo basado en esta demostracin para calcular matrices 6.1.4.
C,
de rango
r,
tales que
A = BC . mn
Algoritmo.
de tamao
PASO II Efecte operaciones elementales en las las de las siguientes pautas: i) Si se intercambian las las las columnas
hasta obtener
Im , siguiendo
iyj
de
A, entonces intercambie A
por el nmero
de
Im .
la de
ii) Si se multiplica la
i-sima
0,
entonces se multiplica la
i-sima
columna de
Im
por el
PASO III
1 . iii) Si a la j -sima la de A se le suma veces la i-sima la de A ( = 0), entonces a la i-sima columna de Im se le suma () veces la j -sima columna de Im . R | P 1 Al nal de este paso se obtiene la matriz B = Primeras r columnas de P 1 , C = [Primeras r las de R].
nmero La matriz del ejemplo 6.1.2
6.1.5.
Ejemplo.
1 A = 1 2
tiene rango que
2 2 4
1 3 0 2 2 6
de rango
2. Existen por lo tanto matrices B32 y C24 A = BC. Calculemos matrices B y C siguiendo los 1 2 1 3 = 1 2 0 2 2 4 2 6 1 2 1 3 | 0 0 1 1 | 0 0 0 0 | = R | P 1 R . | 1 | 0 | 0 1 1 2 0 1 0
2 tales
pasos indicados
anteriormente.
| I3
0 1 0
0 0 1
0 0 1
P 1
1 B = 1 2
1 0 2
C=
142
1 0
2 0
0 1
2 1
BC
1 = 1 2 1 = 1 2
1 0 2 2 2 4 nm
1 0
2 0
0 1
2 1
1 3 0 2 = A . 2 6
Sea
6.1.6.
una ma-
triz
m n.
1. 2. 3. 4.
es una matriz
tal que:
simtrica. simtrica.
A,
o simplemente que
(pseudoinversa) de
6.1.7.
Ejemplo.
3 1 2 M = 11 3
7 1 4
es una
g-inversa de la matriz
A= 11 0 0 11
1 1
1 0
2 1
. En efecto,
1.
AM =
1 11
2.
10 1 3 MA = 11 1
3.
4.
AM A = I2 A = A . 10 1 M AM = 2 3 11 1 M,
3 1 3 2 3 2 3 10 3
3 7 1 1 = 2 11 3 4
7 1 = 4
6.1.8.
Observacin.
1. Si
es una g-inversa de
A.
A.
6.1.9.
Toda matriz
de tamao
mn
r > 0.
de tamao
A = 0. Supongamos ahora que que A = 0 tiene B de tamao m r y r n, ambas de rango r tales que A = BC.
y
Puesto que
tiene rango
r, las matrices B T B
1
CC T
son invertibles
M = C T CC T
y veriquemos que
BT B A.
BT ,
es una g-inversa de
AM
MA
AM = BCC T CC T
y
BT B
1 T
BT = B BT B
BT C
M A = C T CC T
De otro lado,
1 T
BT B
1 1 1
B T BC = C T CC T
y
AM A = B B B = = C T CC T C T CC T
y
B BC = BC = A, CC T CC T BT B
1 1
M AM
BT B
BT
B T = M. M
es una g-inversa de
Es decir,
AM A = A
M AM = A,
por lo tanto,
A.
6.1.10.
Teorema
(Unicidad de la g-inversa)
Toda matriz
tiene una
nica g-inversa.
M1
M2
una matriz
A.
AM2
= =
(AM1 A)M2 = (AM1 )(AM2 ) = (AM1 )T (AM2 )T ((AM2 )(AM1 )) = ((AM2 A)M1 ) = (AM1 ) = AM1 .
144
AM2 = AM1 . En forma anloga se obtiene que M2 A = M1 A. = M1 AM1 = (M1 A)M1 = (M2 A)M1 = M2 (AM1 ) = M2 (AM2 ) = M2 AM2 = M2 .
M1
6.1.11.
Nota.
En lo sucesivo, la g-inversa de una matriz la denotaremos como exponente. Por ejemplo, por
con el signo
A+ , B + denotarn matrices A y B . A
tiene que:
a) b) c) d) e)
todo escalar
= 0.
ca g-inversa. Slo resta vericar en cada caso, que se satisfacen las condiciones de la denicin 6.1.6. Haremos la demostracin slo para el inciso (e), para ello, supondremos vlidas las armaciones (a)-(d) (las vericaciones ) quedan a cargo del lector) y aplicaremos las propiedades de la denicin 6.1.6:
1. La matriz
M = A+ (AT )+
satisface la igualdad
AT A M =
es simtrica.
A+ A
AT A
A+ (AT )+
En efecto:
AT A M
=
(c)
AT A
A+ (AT )+
def.
=
def.
= A+ A .
M = A+ (AT )+
M AT A =
es simtrica.
A A
A (A )
T +
A A
En efecto:
M AT A
=
(c)
A+ (AT )+
AT A
def.
= =
def. 3. La matriz
AT A = (A+ A)T AT A
T
=
4. La matriz
A(A+ A)
A =
def.
AA+ A
A = AT A. M (AT A)M =
M = A+ (AT )+ =
(2)
satisface la igualdad
M.
En efecto
M (A A)M = M
A+ (AT )+ A+ A
AT A
A+ (AT )+
A+ (AT )+
T
=
def.
A+ AA+
AT
A+ (AT )+ .
6.1.13.
Observacin. Ejemplo.
1 5
Si
(AB)+ = B + A+ .
Para
A=
B=
1 2
lo tanto
(AB)+ = 1/3. 1 2 1 5
1 1
B+ =
B + A+ =
1 2
1 1
146
Teorema.
1. Si 2. Si 3. Si 4.
Sea
una matriz
mn
de rango
r > 0.
r = n = m, r = m < n,
entonces entonces
A es invertible y A+ = A1 . 1 A+ = AT AAT .
1
r = n < m, entonces A+ = AT A AT . Si r < n y r < m, entonces existen matrices B Mmr C Mrn de rango r tales que A = B C y A+ = C T CC T
1
BT B
BT .
6.2.2.
Corolario.
1. Si 2. Si
Sea
un vector no nulo de
componentes.
a M1n , a Mn1 ,
entonces
a+ = aaT
1 1
aT .
entonces
a+ = aT a
aT .
6.2.3.
Ejemplo.
1. La matriz
A =
.
1 1
2 3
es invertible, as que
A+ = A1 =
3 1
2 1
2. La matriz
A=
1 1
2 1
1
3 1
A+
= AT AAT 3 1 6 42 9
14 14 14
1 = 2 3
1 1 1 42 1
3 0
0 14
147
3. La matriz
A+
= =
AT A 1 24 A
AT =
56 44
44 35
1 2
3 4
5 6
32 8 16 26 8 10
dada por
4. La matriz
1 A = 1 2
Del ejemplo 6.1.5 se sabe
2 2 4
1 3 0 2 2 6
y que las matrices
(A) = 2 C=
1 B = 1 2
son tales que
1 0 2 A = BC. =
1 0
2 0
0 1
2 1
Luego
A+
C T CC T 2 1 4 24 9 5 1 aaT 2
BT B
BT .
20 4 40 8 55 18 15 10 3
que:
5. Para la matriz
A= =
a+
= 0 se tiene 1 1 1 T 2 a = 14 3
se tiene que,
6. La matriz
1 A= 1 =0 1 = aT a
1
a+
6.2.4.
aT =
Teorema.
1. Calcule
1 3
g-inversa de
Sea A Mmn una matriz de rango r > 0. Entonces la A se puede calcular siguiendo los pasos dados a continuacin:
M = AT A.
148
C1 = I .
3. Calcule 4. Calcule
Tr (Cr M ) = 0.
Para la demostracin de este teorema, remitimos al lector a [ ] (teorema 6.5.8). Obsrvese adems, que la condicin proceder sin conocer de antemano el rango de 6.2.5.
Cr+1 M = 0 A.
nos permite
Ejemplo.
Consideremos la matriz
1 A = 1 2
del ejemplo 6.2.3(4). Calculemos Para ello calculemos
2 2 4 A+
1 0 2
3 2 6
M = At A. Esto es, 6 12 12 24 M = 5 10 17 34
5 10 5 15
17 34 15 49
y consideremos
C1 = I4 .
78 12 5 17 12 60 10 34 . C2 = Tr (C1 M ) I C1 M = 5 10 79 15 17 34 15 35
Como
C3 M = 0,
entonces
(A) = 2,
y adems
2 2 2 4 + T A = C2 A = Tr (C2 M ) 140 9 5
20 40 55 15
4 8 18 10
El siguiente teorema nos presenta una forma alternativa para calcular la g-inversa de una matriz. Para su demostracin, remitimos a [ ] (vase pginas. 14-15). 149
de
Sea A Mmn una matriz de rango se puede calcular mediante los siguientes pasos:
Teorema.
1. Forme la matriz
A | Im
A.
Al nal de
este paso se obtiene una matriz que podemos describir por bloques
Ern 0mrn
| Prm | Pmrm
si
r<m
Emn
(Si +
| Pmm A
si
r = m. E =I
y
r = m = n,
).
entonces
es invertible,
P = A1 =
3. Forme la matriz:
Ern AT Pmrm
| Ern | 0mrm
si
r<m
Emn AT
| Emn
si
r = m.
hasta conseguir la forma escalonada reducida. Al nal de este paso se obtiene la matriz
Im
6.2.7.
| (A+ )T . A
del ejemplo 6.2.5
Ejemplo.
1 A = 1 2
Con el objeto de calcular la matriz
2 2 4
1 0 2
3 2 . 6
A+
| I3
A | I3
1 2 = 1 2 2 4 1 2 0 0 0 0 = E24 014
1 0 2
0 0 1 1 1 0 0 0 1
0 2 1 1 0 0 .
| P23 | P13
E24 At P13
| E24 | 014
y aplique-
mos de nuevo operaciones elementales en las las, hasta obtener la matriz identidad
I3
E24 At P13
| E24 | 014
11 4 2 0 1 0 |
9 2 0
1 0 0 =
As que
I3
| 1 2 0 2 | 0 0 1 1 | | 0 0 0 0 2 9 1 1 35 35 70 14 0 | | 2 4 11 3 0 | 7 7 14 14 | 1 | 4 9 1 2 35 35 35 7 (A+ )t . 22 8 1
2 35 A+ = 9 70 2 35
1 35
2 7 4 7
11 14 3 14
2 35 4 2 35 1 4 = 9 9 70 5 35 1 7
151
20 4 40 8 55 18 15 10
6.3. C-inversa
6.2.8.
Ejemplo.
A=
1 1
2 1
3 1
, A+ .
y sigamos los pasos del ejemplo anterior (teorema 6.2.6) para calcular
A | I2
= =
1 1 1 0
2 1 0 1 5 4
3 1
| 1 | 0 | 1 | 1 .
0 1 2 1
E24 E24 AT
| P23 | E23
y reduzcmosla
E24 AT
| E23
14 6 | 1 14 3 | 0 1 0 = I2 0 1 | | | 1 3 1 14
0 1
5 4 2 14 3 14 1 3
1 3
| (A+ )T
As que
1 14 2 + A = 14 3 14
1 3 3 1 1 = 42 6 3 9 1 3
14
14 14
6.3. C-inversa
(vase la seccin 1.5 de [ ]) y en la caracterizacin del conjunto solucin de sistemas lineales de ecuaciones. 6.3.1.
Denicin.
Sea
una matriz
m n.
Si
es una matriz
nm
tal que:
AM A = A,
entonces se dice que que
o simplemente,
es una c-inversa de
A. A A+ .
sta es a su vez por denicin
6.3.2.
Observacin.
A.
tiene una nica inversa generalizada una c-inversa de Veremos aqu, que una matriz caso
c-inversa.
es invertible, en cuyo
A1
es la nica c-inversa.
Nota.
6.3.3.
condicionales de
A.
Sea
Teorema.
1.
A Mmn
r.
Entonces:
N1
N2
W,
entonces
N1 + N2 W.
sto es,
R W
A(N1 )A = AN1 A = 0 = 0,
sto implica que,
N1 W.
Es decir,
Mnm ,
A Mmn
tenga rango
con
Las demostraciones
6.3. C-inversa
Sea entonces
mn
de rango
r,
con
De acuerdo con el inciso (1) del teorema 6.1.1, existen matrices invertibles
P Mmm
(6.1)
Q Mnn Ir 0
tales que:
P AQ =
0 0
A = P 1
Ir 0
0 0
Q1 .
M(nr)r
W M(nr)(mr)
y la matriz
N =Q
Ahora
X Z
Y W X Z
N W
sii
AN A = 0. Ir 0 X 0 0 0 0 0
AN A = =
P 1 P 1
Q1 Q Q1 .
sii
Y W
P P 1
Ir 0
0 0
Q1
AN A = 0
X = 0. 0 Z
Esto es,
N W
sii
es de la
N =Q
aremos el hecho de que
Y W
P.
es
dim Mkj En efecto, consideremos los espacios de matrices Mr(mr) , M(nr)r y M(nr)(mr) con las bases respectivas B1 = Y1 , Y2 , . . . , Yr(mr) , B1 = Z1 , Z2 , . . . , Zr(nr) y B3 = W1 , W2 , . . . , W(nr)(mr) . Es fcil mostrar entonces que el conjunto B = {N1 , N2 , . . . , Nmnrr } con Ni Nr(mr)+j Nr(m+n2r)+k
es una base de 6.3.4.
W = k j.
m n r2 .
= Q = Q = Q
0 0 0 Zj 0 0
Yi 0 0 0 0 Wk
P; P; P;
i = 1, 2, . . . , m r r2 j = 1, 2, . . . , n r r2 k = 1, 2, . . . , (n r) (m r),
W.
Sea
Teorema.
una matriz
m n.
El conjunto
Mc A
de todas las
6.3. C-inversa
c Demostracin. Por el teorema 6.2.2 MA es no vaco, sea entonces M0 un elemento de Mc . Veriquemos entonces, que M Mc si y slo A A si M se puede escribir como la suma de M0 y un elemento N W, sto es, sii M = M0 + N para algn N W , siendo W el conjunto dado en el
teorema 6.3.3.
Si
A.
escribir
donde
N = M M0 .
Puesto que
A(M M0 )A = AM A AM0 A = A A = 0 ,
se tiene entonces que
N = M M0 W
Mc = {M + N, N W } . A
Mc . A
Teorema.
Sea
una matriz
mn
de rango
r.
Sean
P Mmm
Q Mnn
1. Si 2. Si 3. Si
A = 0,
entonces
Mc = Mnm . A Mc = {A+ } = A1 A
.
r = n = m, r = m < n, Mc = A
entonces entonces
Ir Y
P : Y M(nr)m .
4. Si
r = n < m,
entonces
Mc = Q A
Ir
P : X Mn(mr) .
155
6.3. C-inversa
5. Si
0<r<n Ir Y X Z
0 < r < m,
entonces el conjunto
Mc A
Sea
Mc , entonces A 1 0 2 3 2 , 6
mn r2 . AM A = A.
De
Ejemplo.
1 A = 1 2
invertibles
2 2 4
la matriz del ejemplo 6.1.2. De dicho ejemplo sabemos que las matrices
0 1 P = 2
son tales que
1 1 0 I2 0 X Z
0 0 1 0 0
1 0 Q= 0 0
0 0 1 0
2 1 0 0
2 0 1 1
P AQ = Q I2 Y
, (A) = r = 2.
En este caso,
Mc = A
, A,
En
X = 0, Y = 0 I2 0 0 0
es:
M0 = Q
0 0 . 0 0
En lo que resta de esta seccin veremos un mtodo alternativo para calcular una c-inversa de una matriz. Consideremos inicialmente el caso de matrices cuadradas. 6.3.7. Una matriz cuadrada H = [hij ]nn tiene la forma Hermite superior, si satisface las condiciones siguientes: 156
Denicin.
6.3. C-inversa
H es triangular superior. hii = 0 hii = 1, i = 1, 2, . . . , n. Si hii = 0, entonces la i-sima la es nula, sto es, hij = 0 para todo j = 1, 2, . . . , n. Si hii = 1, entonces el resto de los elementos de la i-sima columna son nulos. sto es, hji = 0 para todo j = 1, 2, . . . , n; (j = i).
La matriz
6.3.8.
Ejemplo.
1 0 H= 0 0
tiene la forma Hermite superior.
2 0 0 0
0 0 1 0
0 0 0 1
El siguiente teorema establece que una matriz Hermite superior es idempotente. La demostracin de dicho resultado es consecuencia directa de la denicin y se deja como un ejercicio para el lector. 6.3.9.
Teorema.
tal que
Si
entonces
6.3.10.
H 2 = H.
Para toda matriz cuadrada
Teorema.
ible
BA = H
Demostracin. Sea
PA = R
es la
A.
Si
B =P
BA = R = H . R H
hasta que el primer elemento no nulo (de izquierda a derecha) de cada la no nula de (por las)
R,
E1 , E2 , . . . , Ek
E1 E2 Ek R = H
o sea:
E1 E2 Ek P A = H.
En consecuencia, la matriz invertible
B = E1 E2 Ek P
es tal que
BA =
6.3. C-inversa
6.3.11.
Ejemplo.
1 A= 1 2
la matriz invertible
2 2 4
3 5 , 10 0 0 1 0 1 , 0
Intercambiando las las
5/2 P = 1/2 0
es tal que
3/2 1/2 2 2 0 0
1 PA = R = 0 0
donde y 3 de
5/2 0 B= 1/2
es invertible y es tal que 6.3.12.
3/2 2 1/2
0 1 0
BA = H
Teorema.
matriz cuadrada. Si
es
Como As
H 2 = H.
BABA = BA.
Premultiplicando los dos miembros de la ltima igualdad por la matriz
B 1
se obtiene:
ABA = A,
esto es,
es una c-inversa de
A.
158
6.3. C-inversa
ejemplo 6.3.11,
Ejemplo.
Consideremos la matriz
1 A= 1 2 5/2 0 B= 1/2
es tal que teorema anterior,
2 2 4
A del 3 5 . 10
3/2 2 1/2
0 1 , 0
superior. Por lo tanto, por
El siguiente corolario presenta una forma de calcular una c-inversa para el caso de matrices rectangulares. 6.3.14.
Corolario.
Sea
una matriz
mn
1. Si
m > n, sea A = A 0 , donde 0 es la matriz nula m(mn). Sea adems B una matriz invertible tal que B A = H tiene la forma Hermite superior. Si escribimos la matriz B
entonces particionada as:
B =
B B1
,
entonces
donde
es una matriz
n m,
es una c-inversa de
A.
2. Si
n > m,
sea
A =
A 0
, donde
es la matriz nula
(n m)
m. Sea adems B
particionada as:
B A = H tiene B entonces
B =
donde
B1
, B
es una c-inversa de
es una matriz
n m,
entonces
A.
Demostracin. Presentamos aqu la slo la demostracin del inciso
A es A =
una matriz
m n,
. 159
con
m>n
y consideremos la
nn
B , tal que B A = H tiene la forma Hermite superior. Dicha matriz B es una c-inversa de A (teorema 6.3.10), as que, A B A = A , o sea: B A 0 A 0 A B A = B1 =
De sto se sigue que 6.3.15.
ABA
= B
= A . A.
ABA = A.
Es decir,
es una c-inversa de
Ejemplo.
1 A= 2 0
Sea
1 1 . 1 32
1 A = 2 0
1 1 1
0 0 . 0 33
1 2 B = 2
es tal que
1 1 1
0 B 0 = B1 1
B A = H
B=
es una c-inversa de
1 2
1 1
0 0
23
A.
6.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mnimos cuadrados.
En esta seccin veremos aplicaciones de la g-inversa y la c-inversa de una matriz a los sistemas de ecuaciones lineales y al problema de los mnimos cuadrados. 160
Sea A Mmn una matriz y sea y Mm1 un vector. c El sistema de ecuaciones lineales Ax = y es consistente sii AA y = y c para cada c-inversa A de A.
Teorema.
Ax = y
que:
x0
tal
Sea ahora
Ac
una c-inversa de
AAc y
Ac
y.
, el vector
Ax = y. mn y Ax = y
Teorema.
Sea
una matriz
sea
Ac
una c-inversa de
A.
es consistente, entonces su
x = Ac y + (I Ac A)h,
h Mn1 .
lineales
Ax = y
AAc y =
y.
de la forma (6.1):
Ax
esto es,
De otro lado, si
x0
Ax0 = y .
Premultiplicando los miembros de la ltima igualdad por
Ac
se obtiene
A Ax0 = A y ,
161
Sumando
x0
x0
donde
h = x0 . A+
sto es,
x0
es una c-inversa de
A,
Corolario.
Ax = y
Sea
una matriz
m n.
Si el sistema de ecuaciones
lineales
(6.2)
x = A+ y + (I A+ A)h,
h Mn1 .
Ax = y
(i) El sistema tiene innitas soluciones. (ii) El sistema tiene solucin nica. (iii) El sistema no tiene solucin. En el trabajo experimental generalmente se da generalmente la opcin (iii), es decir, que el vector la matriz
A, (y C(A)) /
mos si existe una solucin aproximada del sistema, para una denicin conveniente de solucin aproximada. Un problema que se presenta con frecuencia en el trabajo experimental es:
m
IR
C (A)
Ax A x0
Ax
162
y = f (x)
y,
adaptando
(en algn sentido) una curva a dicho conjunto de puntos. Como los datos se obtienen experimentalmente, generalmente existe un error en ellos (errores de aproximacin), lo que hace prcticamente imposible encontrar una curva de la forma deseada que pase por todos los puntos. Por medio de consideraciones tericas o simplemente por acomodo de los puntos, se decide la forma general de la curva
y = f (x)
que
mejor se adapte. Algunas posibilidades son (ver gura 6.2): 1. Funciones lineales (rectas): 2. Polinomios de grado dos: 3.
y = f (x) = a + bx; a, b R y = f (x) = a + bx + cx2 ; a, b, c R. 2 3 Polinomios de grado tres: y = f (x) = a+bx+cx +dx ; a, b, c, d R.
y y
puntos correspondientes a los datos fuesen colineales, la recta pasara por todos los
igualdades:
y1 y2
. . .
= a + bx1 = a + bx2
. . . . . .
yn
= a + bxn . x1 x2 a = Ax . . . . b xn
(6.3)
y1 1 y2 1 y= . = . . . . . yn 1 a
y
Si los puntos que corresponden a los datos no son colineales, es imposible encontrar coecientes
b,
la diferencia
Ax y,
entre los dos miembros de (6.3) no ser cero. Entonces, el objetivo es encontrar un vector
x=
a b
Ax
y,
Ax y ,
lo que es equivalente a minimizar su cuadrado,
Ax y
a es un vector que minimiza tal longitud, a la lnea recta b y = a + b x se le denomina recta de ajuste por mnimos cuadrados de los
Si
x0 =
datos. La gura 6.3 ilustra la adaptacin de una lnea recta por el mtodo de los mnimos cuadrados. Se tiene que
Ax y ,
2 2
Ax y
x0 =
|a + b xi yi |
di ,
tomada desde el
(xi , yi )
hasta la recta
vertical en el punto
que es la suma de los cuadrados de los errores verticales. De all el nombre de mtodo de los mnimos cuadrados.
y ( x n , yn ) dn (x2 , y2 ) ( x1 , y1 ) d2 d1 d3 ( x3 , y3 ) x
* y=a+b *x
Damos a continuacin dos deniciones motivadas por la discusin anterior. En el ejemplo 6.4.13 veremos cmo se adapta, por mnimos cuadrados, una lnea recta 6.4.4.
y = a + bx
puntos
Denicin
Ax = y,
x0
es una solucin mnima cuadrada (S.M.C.) del sistema de ecuaciones si para todo vector
lineales
se tiene que:
Ax0 y < Ax y .
6.4.5.
Denicin
Ax = y,
x0
lineales
se tiene que:
Ax0 y < Ax y .
165
Ax0 y
<
Ax y
se
tiene que
x0 < x .
Nota.
y
6.4.6.
Ax =
Teorema.
Sea
es una c-inversa de
m c una matriz m n y sea y un vector R . Si A c tal que AA es simtrica, entonces para todo vector 2
x Rn
se tiene que:
Ax y
Por hiptesis
= Ax AAc y
+ AAc y y x
AAc = (AAc )t . = =
se tiene que:
Ax y
Ax AAc y + AAc y y
2 2
Ax AAc y + AAc y y
2 2
Ax AAc y + AAc y y
2 2
= =
6.4.7.
Ax AAc y Ax AAc y
Sea
2 2
Teorema.
una c-inversa de
Ax = y.
x 0 = Ac y
es tal que:
Ax y
= Ax Ax0
+ Ax0 y
Ax0 y
166
x.
Ax0 y Ax y ,
esto es, 6.4.8.
x0 = A y
Ax = y.
Teorema.
de ecuaciones
A una matriz mn y sea y un vector Rm . El sistema lineales Ax = y tiene una nica M.S.A., a saber
Sea
x0 = A+ y.
Demostracin. Puesto que
A+
es una c-inversa de
tal que
AA+
2
que:
Ax y
(6.4) Esto es,
Ax AA+ y x:
+
+ AA+ y y Ax y
AA+ y y
AA y y x0 = A y
+
Ax = y.
tal que
x = x0 = A+ y
Ax =
AA y
se tiene que
x0 < x x
se tiene que:
A+ y + (I A+ A)x
A+ y
(I A+ A)x = A+ y
2
(I A+ A)x = A+ y
2
(I A+ A)x = =
temente, tales que
A+ y A+ y
+
2 2
,
o, equivalen-
A+ y + (I A+ A)x
= =
A+ y + x A+ x A+ y A+ y
167
= x
2
2 2
+ (I A+ A)x = x0
2
x > x0
x0 = x .
tiene una nica M.S.A. ,
Observacin.
ecuaciones lineales
Ax = y
x0 = A+ y.
Por sto
de aqu en adelante hablaremos de la mejor solucin aproximada (M.S.A.) de un sistema de ecuaciones lineales.
Ahora bien, puesto que la mejor solucin aproximada del sistema de ecuaciones lineales iente teorema. 6.4.10.
Ax = y
Corolario. Ejemplo.
Ax = y
tiene al
1 1 Ax = 1
se tiene que Adems:
1 1 1 1 1
x0 = A+ y =
1 6
1 x = 2 = y, y 3 1 1 1 1 2 = 1 1 1 3 2;
es la M.S.A.
Ax0 y =
as que para todo vector
se tiene que:
2 Ax y , Ax y = 2 < x . mn
tal que
2,
x0 =
6.4.12.
Teorema.
Sea
una matriz
y sea
un vector
Rm .
Si
(A) = n,
Ax = y
tiene una
x0 = A+ y.
una S.M.C. del sistema de ecuaciones Ax = y. Por denicin se tiene para todo x Rn , entonces que Ax y Ax y , en particular, para el vector x0 = A+ y se tiene:
Demostracin. Sea
(6.5)
Ax y AA+ y y .
168
A+
es una c-inversa de
AA+
es simtrica,
Ax y
= Ax AA+ y x
+ AA+ y y
2
x Rn .
2
se tiene:
Ax y AA+ y y
2
Ax AA+ y
+ AA+ y y
2
.
2
Ax AA+ y Ax y =0
2
+ AA+ y y
2
AA+ y y
De aqu que
Ax AA+ y
y por lo tanto:
Ax = AA+ y .
Puesto que
(A) = n,
entonces
A+ = AT A
1
AT
(teorema 6.2.1), en
consecuencia:
Ax = A AT A
Premultiplicando esta igualdad por
AT y.
1
AT A
AT ,
se obtiene:
= =
AT A AT A AT A
1 1 1
AT Ax AT A AT A
1
AT y
AT y = A+ y = x0 .
6.4.13.
Ejemplo.
Ax = y,
donde
1 1 A= 1 1
x1 1 x2 1 = x3 1 x4 1 x
0 1 , 2 3 a b
169
y1 1 y2 3 y= y3 = 4 y4 4
y el vector incgnita
x=
En consecuencia, la recta de ajuste, por mnimos cuadrados, de los datos dados es:
y = a + b x = 1,5 + x.
(0,1) x
6.4.14.
Ejemplo.
x = 1.(ver
(1,2) (1,1)
y=3/4+3/4x
x
b) Ajuste por rectas de pendiente no infinita
y = a + bx,
innita, que se adapte por mnimos cuadrados, a los puntos dados, entonces debemos dar una S.M.C. del sistema de ecuaciones lineales (ver gura 6.5(b))
Ax
= =
1 1 1 2 1 4
x1 x2 = y1 y2 1 1
a b
= = y.
1 1
1 1
a b
x0
A+ y =
1 1
1 2
3/4 3/4
a b
As que una recta de ajuste, por mnimos cuadrados, de los puntos dados es:
y = a + b x =
De otra parte, la matriz
3 3 + x. 4 4 0 1/2
Ac =
es una c-inversa de
0 1/2
A, AAc
AAc =
1/2 1/2
1/2 1/2
x 0 = Ac y =
0 3/2
a b
es tambin una S.M.C. As que otra recta de ajuste por mnimos cuadrados, de los puntos dados es (ver gura 6.5(b)):
y = a + b x =
3 x. 2
puntos dados, se
generaliza fcilmente a la adaptacin, por mnimos cuadrados, de un polinomio de cualquier grado a un conjunto de puntos dados. A continuacin se muestra cmo adaptar un polinomio de grado
m,
y = a0 + a1 x + a2 x + . . . + am x
a un conjunto de
m
mediante la
puntos
ecuaciones siguientes:
y1 1 y2 1 . = . . . . . yn 1
x2 1 x2 2
. . .
.. .
xn
x2 n
xm a0 1 xm a1 2 . . . . . . m xn am
De lo que se trata nuevamente, es de encontrar una S.M.C. del sistema de ecuaciones lineales 6.4.15.
Ax = y.
Encontrar un polinomio de grado dos que mejor se
Ejemplo.
Ax =
1 1 1 1
1 0 1 2
1 0 a1 0 a2 = 2 1 1 a3 4 0
= y.
(A) = 3, el sistema dado tiene una nica S.M.C., la cual est x0 = A+ y = (At A)1 At y 3 11 9 3 1 1 3 7 1 = 20 5 5 5 5 1,55 31 1 13 = 0,65 = 20 0,75 15
0 2 1 0
En consecuencia, existe un nico polinomio de grado dos que se ajuste por mnimos cuadrados de los datos dados. Este polinomio est dado por (ver gura 6.6):
(0,2)
173
6.5. Ejercicios
6.5. Ejercicios
6.5.1 Responda verdadero o falso justicando su respuesta.
B Mmr y C Mmr tienen el mismo rango, (BC)+ = C + B + . + Si S es una matriz simtrica, entonces S es una matriz simtriS S
es una matriz simtrica tal que
S 2 = S, entonces S + = S . 3 + Si es una matriz simtrica tal que S = S, entonces S = S . + T + T Para toda matriz A se tiene que A = (A A) A . + T T + Para toda matriz A se tiene que A = A (AA ) . + 2 + + 2 Para toda matriz A se tiene que (AA ) = AA y (A A) = + A A. c c 2 Para toda c-inversa A de A se tiene que (AA ) = AAc y c 2 c (A A) = A A. c c Si A es una c-inversa de A, entonces A es una c-inversa de A . c c t Si A es una c-inversa de A, entonces (A ) es una c-inversa de At . Si A Mmn tiene rango m, entonces el sistema de ecuaciones lineales Ax = y tiene solucin para cualquier y Mm1 . Si A Mmn tiene rango n y si el sistema de ecuaciones lineales Ax = y tiene solucin, entonces el sistema tiene solucin nica.
2. Si 3. 4. 5.
(A A). Ac es una c-inversa de A, entonces (Ac ) (A) = (AAc )= (Ac A). c c c Si A es una c-inversa de A, entonces Tr(AA )= Tr(A A) = (A). (sugerencia vase el ejercicio 3.5(26)). t + Si BC = 0, entonces BC = 0 y CB + = 0. B T + B+ C+ . Si A = y BC = 0 entonces A = C
174
6.5. Ejercicios
la matriz la matriz:
CT = 1
1 A=
B CT . D+ =[aij ]nn
es 7. Si
A+ = B + D = [dij ]nn
1/m C
aij = B 0 0 C
1/dii 0
si
dii = 0 . si dii = 0
8. Si 9. 10. 11.
12. 13.
B+ 0 . 0 C+ + + Si S es una matriz simtrica, entonces SS = S S. T T + + Si A es una matriz tal que A A = AA , entonces A A = AA . Si A es una matriz m n, donde A ij = 1 para i = 1, 2, . . . , m 1 + A. y j = 1, 2, . . . , n, entonces A = mn Si P Mnn y Q Mmm son matices ortogonales, entonces + T + T para cualquier matriz mn, A, se tiene que (P AQ) = Q A P . + Si S es una matriz simtrica no negativa, entonces S es una A=
entonces
A+ =
m n, A; AB = AA+
sii
es tal que
ABA =
m n. (A) = m sii AA+ = I sii AAc = I Ac de A. + c Sea A una matriz m n. (A) = n sii A A = I sii A A = I c para cada c-inversa A de A. Si B es una c-inversa de A, entonces tambin lo es BAB . c c Si B y C son c-inversas de las matrices B y C respectivamente,
matriz para cada c-inversa entonces una c-inversa de la matriz
AB es A una
simtrica.
A=
B 0
0 C
es
Ac =
Bc 0
0 Cc
x = A+ y
es nica sii
A+ y = Ac y para toda c-inversa Si x1 , x2 , . . . , xn son soluciones del sistema de ecuaciones lineales n Ax = y, y si 1 , 2 , . . . , n son escalares tales que i=1 i = 1,
175
6.5. Ejercicios
entonces
x=
i=1
es una solucin del sistema 21. Sea
i xi
Ax = y. y = a+bx una lnea recta que se quiere adaptar, por mnimos cuadrados, a los puntos (x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ). Utilice el
teorema 6.4.2 y la regla de Cramer para demostrar que si para algn
y para algn
j , xi = xj ,
y = a + b x
y que
a =
b =
b ,
n i=1 n i=1
donde:
n
n i=1
xi x2 i
a = det
n i=1 n i=1
yi
n i=1 n i=1
xi x2 i
= det
xi
xi yi
= det
n
n i=1
n i=1 n i=1
yi
xi
xi yi
6.5.3 Clculos
(i) A1 =
(ii) A2 =
1 3
2 5
(iii) A1 =
3
176
1 (iv) A4 = 1 2
6.5. Ejercicios
0 5 0 2 2 0 0 0 0 0 0 0 3 3 0 0 3 3
1 1 (viii) A8 = 0 0
2.
2 1 1 3 1 2 1 1 1 (ix) A9 = 1 1 1 1 1 1 1 2 3 5 3 ,d dos c-inversa Ac Para la matriz A = 2 1 1 3 0 c c que (A1 ) > (A) y (A2 ) = (A). A1 = 1 1 1 1 , A2 = 1 1 1 1 2 3 2 3 3 3 . ,
Ac 2
tales
1 A3 = 1 2
2 3 , 5
A4 =
Ax = y,
donde:
2 2 A= 1 2
2 2 1 2
2 2 0 0
1 2 y= 3 . 4
5. D la ecuacin de la recta que mejor se ajuste por mnimos cuadrados a los puntos:
6.5. Ejercicios
Ax =
2 2
2 2
x y
1 0
178
CAPTULO 7
Factorizacin de matrices
En este captulo estudiaremos algunas de las tcnicas ms utilizadas para factorizar matrices, es decir, tcnicas que nos permiten escribir una matriz como producto de dos o tres matrices con una estructura especial. La factorizacin de matrices es importante por ejemplo cuando se quiere resolver sistemas de ecuaciones con un nmero muy grande tanto de variables como de ecuaciones. En la seccin 7.1 trataremos la descomposicin
LU ,
QR,
en la
seccin 7.3 trataremos la descomposicin de Cholesky y en la seccin 7.4 trataremos la descomposicin en valores singulares.
7.1. Descomposicin
LU
En esta seccin estudiaremos, quizs la factorizacin de matrices ms sencilla pero igualmente muy til. Nos referimos a la factorizacin o descomposicin
LU ,
elementales aplicadas a una matriz, para llevarla a una forma triangular inferior. Como una motivacin, supongamos que se conoce cmo factorizar una matriz (7.1) donde
A, m n
en la forma
A = LU L
es una matriz triangular inferior (del ingls lower)
mm
es
mn
Ax = b
puede resolverse de la siguiente forma: Usando (7.1), el sistema (7.2) se puede escribir en la forma (7.3)
L(U x) = b.
179
7.1. Descomposicin LU
Factorizacin de matrices
y = U x,
En este punto introducimos una nueva variable (por sustitucin) obteniendo as el nuevo sistema (7.4)
Ly = b. y,
mediante sustitu-
cin hacia adelante. Como paso nal, usamos sustitucin hacia atrs para
U x = y.
Es de anotar, que los sistemas (7.4) y (7.5) son relativamente fciles de resolver dado que se trata de matrices de coecientes triangulares inferiores y superiores respectivamente. La factorizacin o descomposicin
LU
es particularmente til cuando se requiere resolver de manera simultnea varios sistemas de ecuaciones que dieren nicamente en la parte no homognea. El siguiente resultado nos da condiciones sucientes para la existencia de una tal factorizacin
LU
A.
Posteriormente lo
Teorema
U
(Factorizacin
LU ).
Sea
n n.
Fi + Fj con i < j ). Entonces existe una matriz trique es invertible y posee unos en su diagonal principal, A = LU.
Si
E1 , E2 ,
. . . , Ek
+ Fj , i > j )
y una matriz
(triangular superior)
tales que
Ek Ek1 E2 E1 A = U.
De aqu obtenemos
1 1 1 A = E1 E2 Ek U.
E1 , E2 , . . . , Ek
es
1 1 1 E1 , E2 , , Ek
y la matriz
1 1 1 L = E1 E2 Ek
tam-
bin tienen las mismas caractersticas (ver ejercicio 1, de la seccin 7.5.2). 180
Factorizacin de matrices
7.1. Descomposicin LU
A,
es decir:
A = LU,
Consideremos ahora una matriz invertible para
y demostremos la unicidad
de la forma
A = L1 U1 = L2 U2 ,
con
U1 , U2
L1 , L2
matrices triangulares
es invertible las
U1 , U2
triangulares superiores (ver ejercicio 2 de la seccin 7.5.2). De esta ltima igualdad obtenemos entonces
1 L1 L1 = U2 U1 . 2
El lado izquierdo de esta lgualdad es producto de matrices triangulares inferiores con unos en la diagonal, por tanto es riangular inferior y tiene unos en la diagonal principal. Igualmente, el lado derecho es una triangulares superiores, pues es el producto de matrices triangulares superiores (ver ejercicio 2 de la seccin 7.5.2). Entonces que
L1 L1 = I, 2
de esto se sigue
L2 = L1
y por ende,
U1 = U2 .
En el ejemplo 7.1.5 consideramos una matriz no invertible, que posee innitas descomposiciones LU.
7 8 . Aplique7.1.2. Ejemplo. 12 mos operaciones elementales, sin intercambio, para llevar a A a una forma 1 Considere la matriz 3 3, A = 2 3 4 5 6
escalonada.
1 2 3
4 5 6
7 8 12
2F2 +F3
1 0 0 1 0 0
4 7 3 6 6 9 4 7 3 6 = U 0 3
181
7.1. Descomposicin LU
Si denotamos entonces con
Factorizacin de matrices
E1 , E2
y
E3 E2 E1 A = A = =
U (E3 E2 E1 )1 U
1 1 1 E1 E2 E3 U
1 2 0 1 2 3
0 1 0 0 1 2
0 0 1 0 0 1
1 0 3 1 0 0
0 1 0
0 1 0 0 0 0 1 0 U 1 0 2 1 4 7 3 6 = LU . 0 3
Observacin.
i < j , (Fi +
Como slo efectuamos operaciones del tipo Fi + Fj 1 Fj ) = ()Fi + Fj y L es triangular inferior con unos
(1's) en su diagonal principal. La informacin sobre colocando los opuestos de los multiplicadores tales aplicadas del tipo
Fi + Fj
con
i < j.
1 2 3
4 5 6
7 8 12
1
2 3
1
2 3
2F2 +F3
4 7 3 6 6 9 4 7 3 6 2 3 4 7 3 6 0 3
1 L= 2 3
son tales que
0 1 2
0 0 1
1 U = 0 0
A = LU .
182
Factorizacin de matrices
7.1.4.
7.1. Descomposicin LU
Ejemplo.
Considere la matriz
2 4 A= 3 2 A
a una forma escalonada
3 2 4 10 4 0 . 2 5 2 4 4 7
2 4 3 2
3 2 4 10 4 0 2 5 2 4 4 7
2
2 -3/2 -1
(1)F1 +F4
3 4 5/2 7 3 4
5/8 7/4
2 8 2
4 8 4
6 3 2 4 8 8 3 9 20 11 2 8 3
20/3
2
2 -3/2 -1
2
2 3/2 -1
(20/3)F3 +F4
3 4
5/8 7/4
4 8 9 49
0 0 0 0 3 0 20/3 1 A = LU,
2 3 0 4 U = 0 0 0 0
2 8 3 0
4 8 , 9 49
7.1.5.
Ejemplo.
Considere la matriz
1 A = 1 2
2 3 2 3 . 4 6
Aplique-
7.1. Descomposicin LU
una forma escalonada
Factorizacin de matrices
1 1 2 1 U = 0 0
En este caso
2 3 2 3 4 6 3 0 0
(1)F1 + F2 (2)F1 + F3 1 L = 1 2 L
no es nica.
1
-1 2
2 3 0 0 0 0
2 0 0
0 0 1 0 x 1
con
arbitrario.
A = LU,
donde
Consideremos ahora el caso en que se necesitan intercambio de las para poder reducir una matriz. Existe en este caso un procedimiento que permite extender la factorizacin mutacin. Como se recordar, el intercambio de dos las de una matriz expresar como las de de
LU ,
se puede
Pi A, siendo Pi
A que deseamos intercambiar. Ahora bien. Si durante la reduccin P1 , . . . , Pk permutaciones P = P1 Pk . El paso siguiente consiste entonces en LU a la matriz P A en lugar de la matriz A. Es buscamos ahora matrices L (triangular inferior) y U (triP A = LU .
de las, stas puede hacerse al comienzo de todo el procedimiento y producir as la matriz decir, nosotros aplicar la factorizacin
7.1.6.
Ejemplo.
0 A= 2 1
En este caso, para reducir
2 4 2
3 7 . 5 U
es nece-
sario primero una o varias operaciones elementales del tipo permutacin de las (tambin es posible usar operaciones del tipo Una de tales operaciones de intercambio puede ser
2 PA = 0 1
4 2 2
7 3 . 5
184
Factorizacin de matrices
7.1. Descomposicin LU
A esta nueva matriz le aplicamos los pasos descritos en los ejemplos anteriores y obtenemos
2 0 1
4 2 2
3 3 5
(1/2)F1 + F3
2 0
1/2
4 2 0
7 3 3/5
1 L= 0 1/2
son matrices tales que
0 0 1 0 0 1
2 U = 0 0
4 2 0
7 3 3/5
P A = LU .
7.1.7.
Teorema.
Sea
matriz de permutacin
invertible
n n.
P A = LU
donde
P, L
son nicas.
LU
para matrices
rectangulares
m n.
7.1.8.
Teorema.
Sea
a una forma escalonada efectuando nicamente operaciones elementales de eliminacin (operaciones del tipo una matriz y una
Fi + Fj con i < j ). Entonces existe m m triangular inferior L con unos en la diagonal principal matriz m n, U con uij = 0, si i > j tales que A = LU.
7.1.9.
Ejemplo.
Encontremos la descomposicin
LU
para la matriz
1 A= 2 3
4 5 6
7 8 12
185
2 1 . 3 34
7.1. Descomposicin LU
Factorizacin de matrices
Apliquemos para ello, operaciones elementales, sin intercambio, para llevar a la matriz
A 4 5 6
1 2 3
7 8 12
2 1 3
1
2 3
1
2 3
4 7 2 3 6 5 6 9 3 4 7 2 3 6 5
2
1 L= 2 3
son tales que
0 1 2
0 0 1
1 U = 0 0
4 7 2 3 6 5 0 3 7
A = LU. LU
para una matriz que
se puede reducir a una forma escalonada nicamente usando operaciones elementales de eliminacin est dado por la grca 7.1.
0 A
U 0
0 A
U 0
0 A
186
Factorizacin de matrices
7.1. Descomposicin LU
LU
El siguiente ejemplo, nos ilustra cmo hacer uso de la descomposicin en el proceso de resolver resolver sistemas lineales de ecuaciones. 7.1.10.
Ejemplo.
= = = 2
1 2 4 A
del ejemplo 7.1.2 y
bT =
1 A= 2 3
4 5 6
7 1 8 = 2 12 3
0 1 2
0 1 0 0 1 0
4 7 3 6 = LU 0 3
cuya solucin es
1 z = 0 . 1
Con esta solucin planeamos el sistema
es el sistema
y cuya solucin es
x1 = 4/3;
x2 = 2/3
187
x3 = 1/3.
7.2. Descomposicin QR
Factorizacin de matrices
7.2. Descomposicin QR
Q es una matriz con columnas ortogonales (ortonormales) y R es una matriz triangular inferior. Dicha descomposicin es de gran importancia para resolver problemas de mnimos cuadrados y tiene una estrecha relacin con el clculo de la inversa generalizada de una matriz. En el caso de matrices cuadradas, dicha descomposicin es la base de un algoritmo para determinar numricamente y de forma iterativa, los valores propios de la matriz
se basa en el proceso de ortogonalizacin de Gram-Schmidt descrito en teorema 1.2.24. El siguiente teorema nos garantiza la existencia de una tal factorizacin en dicho caso y su demostracin resume el proceso para encontrarla. 7.2.1.
Sea
R Mnn
A = QR
A=
A1
A2
An
B = A1 , A2 , . . . , An
es una base de
A).
Factorizacin de matrices
(teorema 1.2.24) a esta base se obtiene
7.2. Descomposicin QR
v1
= A1 = A2 = A3
. . .
v2
A2 ; v 1 v1 v1 ; v1 A3 ; v 1 A3 ; v2 v1 v2 v1 ; v1 v2 ; v2
v3
n1
vn
= An
i=1
An ; vi vi . vi ; vi
Aj
obtenemos:
A1 A2 A3
v1 A2 ; v 1 v1 v1 ; v1 A3 ; v2 A3 ; v 1 v1 + v2 v1 ; v1 v2 ; v2
= v2 +
=
. . .
v3 +
n1
vn +
i=1
An ; vi vi . vi ; vi
7.2. Descomposicin QR
Factorizacin de matrices
A =
A1
A2
An 1 A2 ; v1 v1 ; v1 1 A3 ; v1 v1 ; v1 A2 ; v2 v2 ; v2 1
. . .
An ; v 1 v1 ; v1 An ; v 2 v2 ; v2 An ; v 3 v3 ; v3
. . .
A =
v1
v2
vn
0
. . .
0
. . .
.. .
0 0
0 0
A =
Q0 R0 , A.
Usamos ahora los mdulos de las columnas de la matriz la matriz diagonal invertible forma, podemos reescribir la
A = =
Q0 R0 Q0 D1 DR0 v1 0 . . . 0 v1 A2 ; v 1 v1 ; v1 v2
. . .
.. .
v1 v2
v1 v1
v2 v2
vn vn
An ; v1 v1 ; v1 An ; v2 v2 ; v2
. . .
vn
QR , A.
Factorizacin de matrices
7.2.2.
7.2. Descomposicin QR
Ejemplo.
1 1 A= 1 1
2 1 1 2 = 1 2 1 1
A1
A2
A3
v1
1 1 = A1 = 1 ; 1 A2 ; v 1 v1 ; v1 2 1 1 1 1 v1 = 1 + 4 1 1 1 A3 ; v2 v2 v2 ; v2 9 2 3 + 3 3 3 9 1 3 = 4 3 ; 3
v2
= A2
v3
= A3 1 2 = 2 1
A3 ; v 1 v1 v1 ; v1 1 1 1 2 1 1
0 1 = 1 . 2
A1 A
2
A3
= v1 1 = v1 + v2 4 2 1 v1 v2 + v3 . = 2 3
Siguiendo ahora los delineamientos de la demostracin del teorema anterior obtenemos: 191
7.2. Descomposicin QR
Factorizacin de matrices
A =
=
podemos escribir
Q0 R0
(Descomposicn
3 2
3,
. Entonces
2 0 0 1/2 3 3/2 0 1 3 6
(Descomposicin normalizada).
Supongamos ahora que la matriz completo, esto es, bin existe una corolario. 7.2.3.
m n, A no tiene rango columna no 0 < r < n. En este caso se tiene, que tamdescomposicin QR pero la matriz Q en la factorizacin (A) = r
con
0 < r < n.
r columnas ortogonales no nulas y el resto Mnn triangular superior invertible tales que A = Q0 R0
La matriz forma
(Descomposicin no normalizada) .
A = QRr
192
Factorizacin de matrices
donde
7.2. Descomposicin QR
Q Mmr tiene columnas ortogonales (ortonormales) no nulas y Rr Mrn es "triangular" superior de orden r. Las r columnas no nulas de Q0 , respectivamente las r columnas de Q, conforman una base para C(A).
Demostracin. Si seguimos los pasos de la demostracin del teore-
A.
sto
A = Q0 R0 .
En este caso sin embargo, y
Q0
tendr
nr
usamos
Q0
Q0 D1 ,
igualmente
Rr
Q0 .
El siguiente ejemplo nos ilustra el proceso para calcular la descomposicin QR en el caso de matrices que no son de rango columna completo. 7.2.4.
Ejemplo.
1 1 A= 1 1
2 0 1 1 3 2 = 1 3 2 1 3 1 A,
A1
A2
A3
A4
Procedamos ahora a aplicar los pasos del mtodo de ortogonalizacin de Gram-Schmidt con las columnas de esto es:
v1 = A1 =
1 1 ; 1 1 9 1 1 3 ; v 1 = A2 + v 1 = 4 4 3 3
v2
= A2
A2 ; v 1 v1 ; v1
193
7.2. Descomposicin QR
A3 ; v 2 A3 ; v 1 v1 v1 ; v1 v2 ; v2 v4 = 1 2 A4 v1 + v2 0v3 = 2 3
Factorizacin de matrices
0 0 9 v 2 = A3 v 1 + v 2 = 0 ; 4 0 0 1 . 1 2
v3
A3
A1
A2
A3
1 1 = 1 1 = Q0 R0 .
D, cuyos elementos D
Q0
tomamos
D = diag 2, A1 A2 A3
3 2
3,
A =
A4 0 0 0 0
1/ 6 0 1/ 6 0 0 2/ 6
1 3 . 1 0 0 6
Factorizacin de matrices
7.2. Descomposicin QR
= =
3/2
1/2
9/2
0 6/6 0 3 3/2 1 3 0 1 0 0 6/6 0 0 0 0 6 0 6/3 0 2 1/2 9/2 1 6/6 0 3 3/2 1 3 6/6 0 0 0 6 6/3
= QR .
La matriz
Q se obtiene al eliminar la tercera columna (columna nula) de Q0 D1 , mientras que R se obtiene al eliminar la correspondiente tercera la de DR0 .
En este punto de la discusin, invitamos al lector a recordar los conceptos dados en el captulo 6 sobre inversas condicionales (A ), inversa generalizada (A ), mejor solucin aproximada (M.S.A.) y solucin mnima cuadrada (S.M.C.). El siguiente resultado presenta la relacin existente entre la descomposicin 7.2.5.
QR
A.
Teorema.
1. Si
Sea
A Mmn
(A) = n
nn
tales que
A = QR,
adems se tiene que
A+ = R1 QT .
195
7.2. Descomposicin QR
2. Si
Factorizacin de matrices
(A) = r < n entonces existe una matriz Q, m n, con las r columnas no nulas ortogonales (ortonormales) y una matriz R triangular superior n n, ambas de rango r tales que
primeras
A = QR,
adems se tiene que
A+ = RT (RRT )1 QT .
Demostracin. Supongamos que
es una matriz
mn
de rango
Q Mmn
R Mnn
A = QR.
(teorema 6.2.1(1)). De
A+
= =
(RT QT QR)1 RT QT
= R1 (RT )1 RT QT = R1 QT .
Lo que demuestra el inciso 1.
A no tiene rango columna completo, es decir, (A) = r; 0 < r < n. Segn el teorema 7.2.3 existen matrices Q Mrn y R Mrn con las condiciones requeridas tales que A = QR. Ahora, aplicando el teorema 6.2.1 (con B = Q y C = R), as
Supongamos ahora, que supongamos, que como el literal (iv) del teorema 6.2.1, obtenemos entonces
A+
= =
Q)1 = Ir )
7.2.6. que:
Nota.
1. Si
A Mmn
r<n
se tiene, usando la
A+ A = RT RRT
196
R.
Factorizacin de matrices
7.2. Descomposicin QR
Ax = y
x = A+ y.
Puesto que el conjunto de todas la soluciones mnimas cuadradas del sistema
Ax = y
x = A+ y + (I A+ A)h;
Del literal anterior se sigue:
h Rn .
h Rn ,
Ax = y
Rx = QT y .
7.2.7. siendo
Ejemplo.
Ax = y,
1 1 A= 1 1
2 0 1 1 3 2 1 3 2 1 3 1 (A) = 2
1 1 y= 2 . 1
y las matrices
Q=
3/2
1/2 3 3/2 0
9/2 1
R= 0 0
3 6 0
A = QR .
197
Factorizacin de matrices
teorema 7.2.5), es decir,
A+ = Rt (RRt )1 Q, (ver 2 = 9 7 18 1 18 0
1 18 1 18 1 18 1 6
1 18 1 18 1 18 1 6
0 1 6 1 6 1 3
A+
y el conjunto de todas las S.M.C. (ver nota 7.2.6) est dada por las soluciones del sistema
h R.
En particular, si
5 1 11 . x = A+ y = 18 1 9
Factorizacin de matrices
7.3.1. (Factorizacin de Cholesky) Si A Mnn es una matriz simtrica positiva denida, entonces existe una nica matriz real T =
Teorema
[tij ]nn
> 0 (i = 1, . . . , n),
tal que
A = TTT .
Adems,
n = 2:
una matriz 2 2 simtrica positiva denida, entonces se tiene que > 0 y |A| = > 0 (teorema 4.3.6). Necesitamos a b mostrar que existe una nica matriz triangular superior T = , 0 c T con elementos de la diagonal positivos, tal que A = T T, esto es:
Sea
A=
a2 = ab =
a b
0 c
a b 0 c a=
a2 ab
ab b2 + c2
b2 + c2 =
sto es,
de donde,
A= =
0 2
B Mkk
2
|A| = |U | =
k i=1
uii
U Mkk
199
tal que
A = UT U
(hiptesis de induccin).
Factorizacin de matrices
Demostremos ahora que la armacin es cierta para emos entonces una matriz Podemos escribir la
A=
La matriz
A at
A Mkk , a Mk1 y R
Mkk
tal que
A = UT U
2 A = |U | = k uii i=1
. de tamao
(k + 1)
(k + 1),
bloques en la forma
T =
donde
U 0
y z
,
adecuadamente tales que,
U 0
y z .
UT U yT U
Uy yT y + z 2
U T y = a, yT y + z 2 = ,
Adems se tiene que
lo que implica
y = (U T )1 a z = ( yT y)1/2 .
lo que implica
|A| = =
|T |2 = |U |2 z 2 k uii i=1
2
Veremos a continuacin dos procesos para calcular la factorizacin de Cholesky. El primero se basa en la denicin propia de la factorizacin de Cholesky, mientras que el segundo usa resultados del captulo sobre diagonalizacin de matrices positivas denidas. 200
Factorizacin de matrices
nn
A =
TTT
con
A = =
.. .
t12 t22 0
. . .
a3n 0 0 t33
. . .
.. .
t1n
t2n
t3n
.. .
tnn
t11 = t1j =
a11 .
3.
t2 ki
1/2
; i = 2, . . . , n.
4.
1 aij tii
i1
5.
tij = 0; j < i, i = 2, . . . , n.
Con respecto a este mtodo y al clculo de los elementos
Observacin.
1.
t2 es igual al elemento aii menos la suma de los cuadrados de los ii elementos ya calculados de la i-sima columna de T . Es decir,
i1
t2 = aii ii
k=1
t2 , ki
201
i = 1, . . . , n.
Factorizacin de matrices
tii tij es igual a aij menos la suma del producto de los elementos ya calculados de las i-sima y j -sima columnas
de
T.
Es decir,
i1
tki tkj ;
i, j = 1, . . . , n .
Ejemplo.
4 2 A= 0 2
Clculos directos muestran que:
2 2 3 2
0 2 3 2 . 18 0 0 4
1. 2.
a11 = 2; t12 =
3.
t33
a22 t2 = 2 1 = 1; 12 a23 t12 t13 3 (1) 0 =3 = = t22 1 a24 t12 t14 2 (1) 1 = = 1. = t22 1 = a33 t2 t2 = 18 32 02 = 3; 13 23
t34 =
4.
t44 =
Es decir,
2 0 T = 0 0
1 1 0 0
0 3 3 0
1 1 , 1 1
A = T T T.
Factorizacin de matrices
7.3.3.
Ejemplo.
4 A= 2 4
Clculos directos muestran que:
2 4 10 4 , 4 9
1.
t11 = t22 = 2.
2.
a12 a13 = 2. = 1; t13 = t11 2 a23 t12 t13 4 (1)(2) = = 10 1 = 3; t23 = = t22 3 9 (2)2 (2)2 = 1.
3. Es decir,
t33 =
a33 t2 t2 = 13 23
2 T = 0 0
1 3 0
2 2 , 1 A = T T T.
A,
P,
tal que
P T AP = I
A = (P T )1 P 1 = (P 1 )T P 1 .
As las cosas, nosotros podemos encontrar la matriz
PT
ilustrados en el ejemplo 3.3.15, es decir, planteando la matriz tales en las las y columnas de de las).
| I
A y en las las de I
Nota.
T
A es simtriA = T T T con
Factorizacin de matrices
entonces se tiene que:
(T T D1 )(DT ) LU. 4 4 . 9
7.3.4.
Ejemplo.
4 A= 2 4
Del ejemplo 7.3.3 se tiene que
2 10 4
Ax = y,
siendo
A = TTT,
entonces
Ax = y T T T x = y T x = (T T )1 y := z,
es decir, si se conoce la factorizacin de Cholesky para una matriz
A=
T x = z,
con 204
z = (T T )1 y.
Factorizacin de matrices
7.3.5.
Ejemplo.
= =
12 6
= 3 .
Puesto que la matriz de coecientes es justo la matriz del ejemplo 7.3.3, la matriz aumentada del sistema se puede reducir mediante multiplicacin del sistema por la matriz
| y
4 2 4 4 = 2 10 4 4 9 2 1 2 | 0 3 2 | = 0 0 1 |
T T
| | |
12 6 15 6 0 = T 3
| z
x3 x2 x1
A la cual involucra los valores y vectores propios de la matrices AAT y AT A. Como se recordar dichas matrices son positivas
Para toda matriz
trices ortogonales
A Mmn se tiene que existen maU Mmm y V Mnn y una matriz diagonal Mmn , con elementos ij = 0, si i = j y ii =: i 0, y 1 2 s , en donde s = m {m, n} tales que n
7.4.1.
Teorema.
Los nmeros
2 2 2 1 , 2 , , s
AT A
(quizs agre-
gando algunos ceros) y los vectores propios asociados son las columnas 2 2 v1 v2 vn . Adems, lo nmeros 1 , 2 , de la matriz V =
205
Factorizacin de matrices
2 , s son igualmente los valores propios de AAT (quizs agregando algunos ceros) y los vectores propios asociados son las columnas de U =
u1 u2 estos vectores
um
Avi
i ui i = 1, 2, . . . , s.
T i v i
uT A = i
r < s.
La matriz simtrica
existe una
A Mmn tiene rango r con 0 < S = AAT Mmm es no negativa y por tanto matriz ortogonal U Mmm tal que 2 1 0 0 2 0 2 0 U T AAT U = D2 = . . . .. . . . . . . . 2 0 0 m
2 2 2 1 2 m 0 son los valores propios de S = AAT y las columnas de U = [u1 u2 um ] son vectores propios de S correpondidonde entes a dichos valores propios:
2 AAT ui = Sui = i ui ;
Como
i = 1, 2, . . . , m.
2 2 2 r = (A) = (AAT ), entonces 1 2 r > 0. ParU1 U2 con U1 Mmr . ticionemos ahora la matriz U como U =
Luego
U T AAT U = = =
es decir,
T U1
AAT U1 U2
T U2 T U1 AAT U1
T U1 AAT U2 T U2 AAT U2
T U2 AAT U1 2 Dr 0
206
Factorizacin de matrices
U AA U
2 1 0 . . . 0 = 0 . . . 0
0 2 2
. . .
.. .
0 0
. . .
| | | | | | |
0 0
. . .
.. .
0 0
. . .
.. .
2 2 0
. . .
0 0
. . .
.. .
0 . 0 . . . 0
. . .
0 0
T U2 A = 0
AT U2 = 0.
T 2 U1 AAT U1 = Dr ,
1 V1 = AT U1 Dr Mnr
tiene columnas ortogonales matriz
(V1T V1 = I). V1 V2
Sea
V2 Mn(nr)
tal que la
V =
Mnn Dr 0 0 0
U t AV = =
En efecto, de una parte:
U T AV =
y de otra parte,
T U1 T U2
A V1 V2
T U1 AV1 T U2 AV1
T U1 AV2 T U2 AV2
V TV
T U2 A = 0. As mismo, T V1 V1 V2 = I= V2T
V1T V1 V2T V1
V1T V2 V2T V2
I 0 0 I
,
207
Factorizacin de matrices
de donde
y nalmente,
T U1 AV1
= =
T 1 U1 AAT U1 Dr 2 1 Dr Dr = Dr 1 0 0 2 . . .. . . . . . 0 0
0 0 . . . . m
En consecuencia,
U T AV = =
Dr 0
0 0
Nota.
Observe que
1 AV1 = AAT U1 Dr
Avi = i ui
i = 1, 2, . . . , r.
igualmente,
AT U1 = V1 Dr
AT ui = i vi
T uT A = vi i i
i = 1, 2, . . . , r.
El siguiente proceso nos ilustra cmo calcular la descomposicin en valores singulares de una matriz
A Mmn .
m n.
7.4.2.
Algoritmo.
1. Formule 3.
S = AAT Mmm .
4. 5.
5*.
2 2 2 S : 1 2 m 0. Encuentre un conjunto ortonormal u1 , u2 , . . . , um de vectores u1 u2 um (orpropios de S y construya la matriz U = togonal) y la matriz diagonal D = diag {1 , 2 , , m }. Si r = (A); Dr = diag {1 , 2 , , r } T 1 u1 u2 ur , las Haga V1 = A U1 Dr , siendo U1 = primeras r columnas de U. Encuentre una matriz V2 Mn(nr) V1 V2 Mnn sea ortogonal. tal que la matriz V = T Otra forma de (5) es trabajar con la matriz A A.
208
Factorizacin de matrices
7.4.3.
Ejemplo.
Considere la matriz
S = AAT =
9 0
0 36
2 1 = 36
2 2 2 2 = 9 ( 1 2 ) .
Para
2 1 = 36
tenemos el sistema
(S 36 I)X = 0, x1 x2 = 0 0 ,
es decir el sistema
25 0
0 0
B=
0 x2
: x2 = 0 . 0 1
Como
2 1 -vector
u1 =
. Anloga-
u2 =
1 0
como
2 2 -vector
U=
y la matriz diagonal
u1
u2
0 1
1 0
D = diag {1 , 2 } =
6 0
0 3
Puesto que
r = (A) = 2
Dr = diag {1 , 2 } =
6 0
0 3
Factorizacin de matrices
V1
2 1 2 V = 3 1
2 1 2
1 2 = 2
V1
V2
1 1 2 . con V2 = 3 2
U T AV =
6 0
0 3
0 0
= . 1 A= 0 1 1 1 0 0 1 ; (A) = 3, 1
7.4.4.
Ejemplo.
Consideremos la matriz
S = AAT 2 1 S = AAT = 1 2 1 1
esto es,
1 1 . 2
cuyos valores propios los calculamos de manera usual, es decir, resolviendo la ecuacin
|S I| = 0,
= |S I| 2 1 1 1 2 1 = 1 1 2
210
= ( 4)( 1)2 .
Factorizacin de matrices
Los valores propios de
son entonces
2 3 = 1.
Algunos
1 1 1 ; u1 = 3 1
2 1 1 u2 = 6 1
0 1 1 , u3 = 2 1
2 2 1 , 2
y
como vectores propios ortonormales asociados a mente. Consideramos ahora la matriz ortogonal
2 3
respectiva-
U= u1 u2 u3
1/ 3
2/ 6 1/ 6 1/ 6
= 1/ 3 1/ 3 = 3)
1/ 2 . 1/ 2
2 D = diag {1 , 2 , 3 } = 0 0
0 1 0
0 0 = Dr . 1
V1
1 0 = 1 1 0 1 1 0 = 1 1 0 1 1/3 = 1/3 1/ 3
1 V1 = AT U1 Dr , esto es, 1/3 2/6 0 1 1/2 0 1/3 1/6 1/2 0 1 0 1/ 6 1/ 2 1/ 3 1/23 2/6 0 1 0 1/23 1/6 1/2 1 1/ 6 1/ 2 1/2 3 1/6 1/2 1/6 1/ 2 = V 2/ 6 0
0 0 1 0 0 1
4 U T AV = 0 0
0 1 0
211
0 0 = . 1
7.5. Ejercicios
Factorizacin de matrices
7.5. Ejercicios
7.5.1 Responda falso o verdadero justicando su respuesta
Fi + Fj
con
i < j,
con
3. El producto de dos matrices elementales del mismo tamao, es una matriz elemental. 4. La descomposicin LU para cualquier matriz 5. Si
A es nica. Q es una matriz rectangular cuyas columnas son orgonormales T entre, entonces Q Q = I.
Li , (i = 1, 2), son matrices triangulares inferiores: a ) Muestre que el producto L1 L2 es una matriz triangular inb ) Mueste que si
matemtica)
L1 es
L1 1
es
L1 y L2 son tosdo iguales a 1 (uno), entonces las matrices L1 L2 , L1 y L1 tambin tienen unos en su diagonal principal. 1 2
(Sug.: use induccin matemtica)
2. Use el ejercicio anterior para demostrar que las armaciones son igualmente vlidas para matrices triangulares superiores. 3. Demuestre que si
A Mmn
tiene rango n y A = QR, donde Q Res una matriz triangular superior principal, entonces Q y R son nicas.
Factorizacin de matrices
7.5. Ejercicios
c)
1 0 3 1 1 0 4 1 2 3
4 1 11 x= 0 1 32 0 2 2 1 2 0 0 3 1 x = 7 1 0 0 2 3 3 7 2 1 2 1 1 . 17 3
b)
1 5
0 1 0 1 3
d)
1 4 7
2 1 x= 0 7 0 1 2 0 0 3 1 0 0
1 A= 2 1 5 18 14
.
Use dicha descomposicin para resolver el sistema 3. Encuentre la matriz triangular de los siguientes casos
Ax = y, yT =
en cada uno
tal que
A = QR
a)
1 1 1
A=
1 , 1
Q=
1 3 1 3 1 3
1 2 0 1 2
b)
1 0 1
1 1 1
A=
1 , Q = 1
4.
2 9 8
0 8 5
A=
2 1
1 4 0 1 1 0
2 1 0 1 1 1
1 0 A= 1 0
213
CAPTULO 8
Este captulo consta de dos secciones. En la primera daremos las deniciones de recta, segmento de recta e hiperplanos en
Rn .
En la segunda
veremos algunos resultados sobre conjuntos convexos. Quien desee estudiar un poco ms sobre estos tpicos puede consultar el captulo 6 de [ ].
Los conceptos de recta, segmento de recta e hiperplanos en en programacin lineal (vase el captulo 6 de [
10]).
P
son tiles
Antes de proseguir
con nuestra discusin, haremos una pequea aclaracin sobre la notacin y haremos una diferencia entre lo que es un punto en el espacio
Rn
y el
segmento de recta dirigido (vector coordenado o simplemente vector), que tiene como extremo inicial el origen de coordenadas nal al punto
P.
OP
y como extremo
o simplemente
p.
P Rn le asignaremos las coordenadas (x1 , x2 , . . . , xn ) y escribiremos P (x1 , x2 , . . . , xn ), mientras que al vector OP tambin le asignaremos las coordenadas (x1 , x2 , . . . , xn ), pero escribiremos OP = (x1 , x2 , . . . , x3 ) o simplemente, p = (x1 , x2 , . . . , x3 ) (ver gura 8.1 en el 3 caso de R ).
Al punto
215
Hiperplanos
P(x1 , x2 , x 3)
p = 0P =(x1 , x2, x 3)
O(0, 0, 0)
x2
O(0, 0, 0)
x2
x1
x1
Figura 8.1. Puntos y vectores en
R3 .
P (x1 , x2 , . . . , xn ) y Q(x1 , x2 , . . . , xn ) en Rn , el segmento de recta dirigido o vector, que tiene como punto inicial a P y co mo punto nal Q, lo denotaremos por P Q y le asignamos las coordenadas (x1 x1 , x2 x2 , . . . , xn xn ). En tal sentido, y dado que OQ OP = (x1 , x2 , . . . , xn ) (x1 , x2 , . . . , xn )
Dados dos puntos
Nota.
=
escribiremos
8.1.1.
(x1 x1 , x2 x2 , . . . , xn xn ),
P Q = (x1 x1 , x2 x2 , . . . , xn xn ).
(Rectas)
Denicin
En
Rn ,
en
d=0
= X Rn : OX = OP + d,
0 R
tal
la recta
216
Hiperplanos
y IR
2
OX=OP+ d P d d x
R2 .
en la
8.1.2.
Ejemplo.
En
R3 , la recta que pasa por el punto P (1, 2, 3) d = (1, 0, 5), es el conjunto de puntos:
R .
X0 (1, 2, 7)
, pues no existe
tal que :
Q de Rn est sobre la recta (8.1) y Q = P, entonces 1 existe un 0 R tal que OQ = OP + 0 d. De aqu que d = P Q, y por 0
Ahora bien, si el punto lo tanto:
= =
X Rn : OX = OP + d,
R R .
X Rn : OX = OP + P Q, 0
217
Hiperplanos
P
y
En consecuencia, podemos decir que la recta que pasa por los puntos
Q (P = Q)
(8.2)
de
es el conjunto de puntos:
= X Rn : OX = OP + t P Q,
y IR
2
tR .
Q P
OX=OP+t PQ
PQ = 0Q OP t PQ
Figura 8.3. Grca de una recta que pasa por los pun-
tos
Q.
8.1.3.
Ejemplo.
de
P = (1, 2, 3)
Q=
(4, 1, 1)
R3 ,
es el conjunto de puntos:
puntos
PQ = =
P Q y se X Rn : OX = OP + t P Q,
de se denota por
Rn ,
0t1 .
para
0t1 . PQ
sii existe
pertenece a
0 t0 1
tal que
218
Hiperplanos
y IR 2
OX = OP + t 0 PQ PQ = OQ OP t0 PQ
8.1.5.
Ejemplo.
el punto
Q(0, 1, 0, 2),
PQ =
El punto
3 , 3) pertenece a P Q, pues 2 3 1 , 3) = (1, 2, 3, 4) + (1, 1, 3, 2). 2 2 Sin embargo, el punto X (1, 0, 3, 0) no pertenece a P Q, pues no existe t con 0 t 1 tal que (1, 0, 3, 0) = =
8.1.6.
(1, 2, 3, 4) + t (1, 1, 3, 2) (1 t , 2 t , 3 3t , 4 2t ) .
Denicin
P
(Hiperplano)
En
punto
puntos:
H = X Rn : (OX OP ) n = 0 , H = X Rn : OX n = OP n = cte. ,
219
o lo que es lo mismo,
Hiperplanos
H
x3 X P
x2
x1
Figura 8.5. Grca de un plano en
R3 .
Rn
8.1.7.
Observacin.
1. En
En
R2
y en
R3
R2 ,
P (4, 3)
y que es normal
n = (5, 2),
es el conjunto de puntos
X(x1 , x2 )
de
R2
OX n = 5x1 + 2x2 = 20 6 = 26 = OP n,
o sea,
P (2, 1, 1)
y que es normal al de
n = (1, 1, 3),
o sea,
x1 + x2 + 3x3 = 0 .
220
Hiperplanos
8.1.8.
Ejemplo. Dados los puntos Q(1, 1, 1), P (1, 1, 2) y el vector n = (1, 2, 3), encuentre el punto de interseccin, si lo hay, de la recta que pasa por el punto P en la direccin del vector n y del hiperplano (plano) que pasa por Q y es normal al vector n.
puntos de
P en la direccin del vector n, es X(x1 , x2 , x3 ) de R3 tales que: (x1 , x2 , x3 ) = 0X = 0P + n = (1, 1, 2) + (1, 2, 3).
el conjunto de
R.
OX n = x1 + 2x2 + 3x3 = 6 = OQ n . I
al punto de interseccin entre la recta y
OI = OP + n
y tambin
para algn
R,
OI n = OP n.
De esto se sigue que:
OP + n = OQ n . PQ n n
2
1 . 14
OI = =
1 OP + n = (1, 1, 2) + (1, 2, 3) 14 15 12 31 ). ( , , 14 14 14
221
Hiperplanos
P
x Q
x2
x1
Figura 8.6. Grcas de un plano y una recta en
R3
8.1.9.
Denicin.
Sea
el hiperplano de
Rn
OX n = OP n = c
Los conjuntos
S1 = X Rn : OX n c S2 = X Rn : OX n c
se denominan los semiespacios cerrados con frontera Los conjuntos
y , H.
S1 = X Rn : OX n < c S2 = X Rn : OX n > c
se denominan semiespacios abiertos con frontera
y , H.
Nota.
H,
mientras que
Hiperplanos
IR
2
. x. n > c
. x. n = c
. x.n < c
10]).
8.2.1.
Denicin.
C.
Sea
un subconjunto de
Rn .
Se dice que
es convexo,
de
C,
el segmento de recta
PQ
est
C1
C2
C3
C4
no son convexos.
8.2.2.
Teorema.
Todo hiperplano de
Rn
es un conjunto convexo.
Demostracin. Sea
H el hiperplano de Rn OX n = OP n = c H.
Ahora, si
y sean
Q1
Q2
puntos de
es un punto de
R3
cuyas
coordenadas satisfacen:
OX = OQ1 + t(Q2 Q1 ),
223
0 t 1,
Hiperplanos
x
(a)
(b)
entonces
Q1 Q2
y se tiene que:
OX n = = = = = =
es decir, 8.2.3.
OQ1 + t(Q2 Q1 ) n OQ1 + t(0Q2 OQ1 ) n OQ1 + t 0Q2 n t OQ1 n (1 t)OQ1 n + t OQ2 n (1 t)c + t c c, H
es un conjunto convexo.
X H.
Por lo tanto
Teorema.
Sea
semiespacio cerrado o
Demostracin. Sea
S = X Rn : OX n < c
es un conjunto convexo. En el caso de semiespacio cerrados con frontera
Hiperplanos
Sean pues
Q1 y Q2 puntos del conjunto S y sea X un punto del segmento de recta Q1 Q2 . Puesto que Q1 S y Q2 S , entonces OQ1 n < c y OQ2 n < c, de aqu que: OX n = OQ1 + t(Q2 Q1 ) n = = = <
esto es, 8.2.4.
X S.
Por lo tanto
Teorema.
Rn
es un
C1
C2
C3 = C1 C2 .
Si
C3
Q1
Para todo
tal que
OQ1 + t(OQ2 OQ1 ) C2 Para todo t tal que 0 t 1. En consecuencia. OQ1 + t(OQ2 OQ1 ) C3 = C1 C2 para todo t tal que 0 t 1 y por lo tanto C3 es un conjunto convexo de Rn .
La prueba del siguiente corolario se puede obtener aplicando el principio de induccin matemtica y se propone como un ejercicio. 8.2.5.
Corolario.
Rn
vexos de
8.2.6.
es un conjunto conexo de
R .
Rn .
Teorema
(Envolvente convexa)
Sean
X1 , X2 , . . . , Xm
m
puntos de
El conjunto:
C=
X Rn : OX =
i OXi ; i 0, i = 1, . . . , m,
i = 1
i=1
i=1
X1 , X2 , . . . , Xm .
225
8.3. Ejercicios
Demostracin. Sean
Hiperplanos
P y Q dos puntos de C; entonces existen 1 , 2 , . . . , m no negativos, tales que:
m
es-
calares
1 , 2 , . . . , m
OP =
y
i OXi ,
i = 1
i=1 m
i=1 m
OQ =
Sea ahora
i OXi ,
i = 1 .
i=1
i=1
P Q,
esto es, un
para
el cual se satisface
OX = OP + t(OQ OP ), 0 t 1.
Puesto que:
OX
=
i=1 m
i OXi + t
i OXi
i OXi
i=1
i=1
=
i=1
donde
(1 t)i + ti 0
m
i = 1, . . . , m, = = (1 t)
[(1 t)i + ti ]
i=1
i + t
i=1 i=1
(1 t) + t = 1 , C
es un conjunto convexo.
entonces
X C.
En consecuencia,
8.3. Ejercicios
8.3.1 Responda verdadero o falso, justicando su respuesta.
1. El punto 2.
X (4, 5, 0) pertenece a la recta que pasa por el P (1, 2, 3) en la direccin del vector d = (1, 1, 1). El punto X (0, 1, 2) pertenece al segmento de recta que los puntos P (1, 2, 3) y Q (4, 5, 6).
226
punto une a
Hiperplanos
3. Sean
8.3. Ejercicios
Q (1, 2, 3) , P (0, 1, 2)
y
n = (1, 1, 1). El punto de interP en la direccin del vector n Q y que es normal al vector n, es Rn
es un conjunto con-
M (2, 0, 1).
4. La unin de dos conjuntos convexos de vexo de
x = x1 x2 xn Ax = y, tales que xi 0
t
,
i = 1, . . . , n
8.3.2 Calcule 1. Sea
es un conjunto convexo.
H = X Rn : OX n = c
tal que:
un hiperplano de
Rn .
a ) Muestre que si
H = X Rn : OX n = 1 .
b ) Demuestre que si
b1 , b2 , . . . , bn
dependientes.
de
c ) Demuestre que si
H=
X Rn : X =
i=1
i bi ,
i=1
son puntos de
i = 1 H,
,.
donde 2. Encuentre
b1 , b2 , . . . , bn b1 , b 2
y
b3
tales que
= =
X R : X (2, 1, 1) = 1
3 3
X R3 : X =
i=1
i bi ,
i=1
i = 1
3. Sean
b1 = (1, 0, 0), b2 = (1, 1, 0) y b3 = (1, 1, 1). a ) Demuestre que b1 , b2 y b3 son linealmente independientes. b ) Encuentre un vector n = 0 tal que: = = X R3 : OX =
3 3
i bi ,
i=1 i=1
i = 1
X R3 : OX n = 1
227
8.3. Ejercicios
4. Sea
Hiperplanos
a ) Muestre que si
H = {X Rn : X N = C} un hiperplano de Rn . X = 0 H sii C = 0. b ) Demuestre que si X = 0 H, entonces existen n 1 puntos a1 , a2 , . . . , an1 de H, que como vectores son linealmente
independientes.
c ) Demuestre que si
X = 0 H,
entonces
H=
donde 5. Encuentre
X Rn : OX =
son
n1
i ai
i=1
. H,
que como
a1 , a2 , . . . , an1 a1 = =
y
n1
puntos de
a2
tales que
X R3 : OX (2, 1, 1) = 0 X R3 : OX = 1 a1 + 2 a2
6. Sean
a1 = (1, 1, 1) y a2 = (1, 0, 1). a ) Muestre que a1 y a2 son linealmente independientes. b ) Encuentre un vector n = 0 tal que: H = = X R3 : OX = 1 a1 + 2 a2 X R3 : v N = 0 Rn .
es una variedad lineal de
n1
T : R n Rm
228
ndice alfabtico
Base, 11 cambio de, 20 cannica de Rn , 14 ortogonal, 16, 66 ortonormal, 16 c-inversa de una matriz, 152 Cholesky descomposicin, 198 Conjuntos convexos, 223 Descomposicin de Cholesky, 198 en valores singulares, 205 LU, 179 QR, 188 Desigualdad de Schwarz, 15 Determinante, matriz, 4 Diagonal principal, matriz, 2 Diagonal, matriz, 2 Diagonalizacin de matrices simtricas, 64 de una forma cuadrtica, 103 ortogonal, 70 simultnea de formas cuadrticas, 105 de matrices, 82 Diagonalizacin de matrices, 53 Eigenvalores, eigenvectores; vea valores (vectores) propios, 44 Espacio columna, matriz, 21 Espacio la, matriz, 21
229
Espacio generado, 10 Espacio nulo, matriz, 21 Espacio vectorial, 8 base, 11 base ordenada, 13 de transformaciones lineales, 19 dimensin, 11 subespacio, 9 suma directa, 13 Espacios fundamentales, matriz, 20 Factorizacin de matrices; ver descompisicin de matrices, 179 Forma cuadrtica, 97 cambio de variables, 101 clasicacin, 99 diagonalizacin de una, 103 indenida, 99, 110 negaitivamente denida, 110 negativamente denida, 99 negativamente semidenida, 110 negitivamente semidenida, 99 no negaitiva, 99 no posiitiva, 99 positivamente denida, 99, 110 positivamente semidenida, 99, 110 Forma escalonada reducuda, 6 g-inversa de una matriz, 137, 143 Gauss-Jordan, mtodo, 23 Gram-Schmidt, proceso, 191 Gram-Schmidt, proceso de, 16 Hermite
ndice alfabtico
matriz superior, 156 Idntica, matriz, 2 Identidad, matriz, 2 Imagen de una transformacin lineal, 17 Inversa condicional, 152 generalizada, 137, 143, 195 clculo de, 147 propiedades, 145 LU descomposicin, 179 Mnimos cuadrados, 162 Matrices Diagonalizacin de, 53 factorizacin, 179 no negativas, 123 semejantes polinomios caractersticos de, 52 simtricas diagonalizacin, 64 Matrices elementales, 6 Matriz, 1 adjunta, 4 cambio de base, 20 cofactor ij , 4 de cofactores, 4 de una forma cuadrtica, 98 de una transformacin lineal, 18 determinante, 4, 5 propiedades, 5 diagonal, 2 ecuacin caracterstica de una, 48 espacio columna de una, 21 espacio la de una, 21 espacio nulo de una, 21 espacios fundamentales de una, 20 forma escalonada reducida, 6 hermite superior, 156 idntica, 2 idempotente, 129 inversa, 3, 23 propiedades, 3 menor ij , 4 operaciones elmentales, 5
230
particionada, 26 determinante, 30, 32, 33 inversas, 34, 35 operaciones con, 27 polinomio caracterstico de una, 48 rango de una, 20, 22 semejante, 20 submatriz, 25 transpuesta, 3 propiedades, 3 traza de una, 37 valor propio de una, 47 vector propio de una, 47 Mejor solucin aproximada, 165 Ncleo de una transformacin lineal, 17 Operaciones elmentales en una matriz, 5 Producto interno, 14 QR descomposicin, 188 Rango de una matriz, 20 Rectas, planos e hiperplanos, 215 Sistemas de ecuaciones, 23 c-inversas,g-inversa, 160 Gauss-Jordan, 23 mnimos cuadrados, 160 mejor solucin aproximada, 165 solucin mnima cuadrada, 165 Solucin mnima cuadrada, 165 Transformacin lineal lgebra de, 19 imagen, 17 inversa de una, 20 matriz de una, 18 ncleo, 17 transformacin inyectica, 17 transformacin sobreyectiva, 17 valores propios, 44 vectores propios, 44 Transformaciones lineales, 16 Transpuesta, matriz, 3
ndice alfabtico
Valor propio, 44 espacio asociado a un, 46 multiplicidad algebraica de un, 48 multiplicidad geomtrica de un, 46 Valores (vectores) caractersticos; vea valores (vectores) propios, 44 Valores singulares descomposicin, 205 Variedad lineal, 23 Vector propio, 44 Vectores, 8, 215 coordenadas resp. a una base, 13 linealmente dependientes, 10 linealmente independiente, 56 linealmente independientes, 10, 22, 24 ortogonales, 15 ortonormales, 15 proceso de Gram-Schmidt, 16 propios ortogonales, 66
231
Bibliografa
[1] ANTON, H. Introduccin al lgebra lineal. Limusa, Mxico, 1981, [2] FLOREY, F.G. Fundamentos de lgebra lineal y aplicaciones. Prentice Hall internacional, Colombia, 1980. [3] GRAYBILL, F.A. Introduction to matrices with applications in statistic. Wadsworth Publishing Company. Inc. Belnont, California, 1969. [4] GRAYBILL, F.A. Theory and applications of linear model. Duxbury Presss, Massachusetts, 1976. [5] HADLEY, G. A. lgebra lineal, Fondo Educativo Interamericano S.A., Estados Unidos 1969. [6] LIPSCHUTZ, S. lgebra lineal, McGraw Hill, Mxico, 1979. [7] MARMOLEJO, M.A. Inversa condicional e inversa generalizada de una matriz: esquema geomtrico. Lecturas Matemticas, Soc. Col. Matemat., Pg. 129-146, Vol. IX, 1988. [8] Nakos, G., Joyner, D., legebra lineal con aplicaciones, Thonsom editores, Mxico, 1998. [9] Nering, E.D. legebra lineal y teora de matrices. Limusa, Mxico, 1977. [10] NOBLE, B. Applied linear algebra. Prentice Hall, Inc. London, 1969. [11] RORRES , C y ANTON, H, Aplicaciones del lgebra lineal. Limusa, Mxico 1979. [12] STRANG, G, lgebra lineal y sus aplicaciones. Fondo educativo interamericano, 1982.
233