0% encontró este documento útil (0 votos)
115 vistas237 páginas

Tópicos Esenciales en Álgebra Lineal

Este documento trata sobre temas básicos de álgebra lineal como matrices, espacios vectoriales, transformaciones lineales y sus propiedades. Se definen conceptos como determinantes, inversas, transposición de matrices y se establecen algunas de sus propiedades.

Cargado por

aorlm
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
115 vistas237 páginas

Tópicos Esenciales en Álgebra Lineal

Este documento trata sobre temas básicos de álgebra lineal como matrices, espacios vectoriales, transformaciones lineales y sus propiedades. Se definen conceptos como determinantes, inversas, transposición de matrices y se establecen algunas de sus propiedades.

Cargado por

aorlm
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tpicos

en lgebra Lineal

Miguel A. Marmolejo L.

Manuel M. Villegas L.

Departamento de Matemticas Universidad del Valle

ndice general
Introduccin ndice de guras Captulo 1. 1.1. 1.2. 1.3. 1.4. Prerrequisitos 1
iii

1 1 7 16 20 25 25 29 37 39 43 44 53 64 82 90 97 97 101 110 118

Matrices Espacios vectoriales Transformaciones lineales Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales

Captulo 2. 2.1. 2.2. 2.3. 2.4.

Matrices particionadas. Traza de una matriz

Submatrices. Operaciones con matrices particionadas Determinantes e inversas de algunas matrices especiales Traza de una matriz Ejercicios Valores propios y vectores propios. Diagonalizacin

Captulo 3. 3.1. 3.2. 3.3. 3.4. 3.5.

Valores propios y vectores propios Diagonalizacin Diagonalizacin de matrices simtricas Diagonalizacin simultnea de matrices simtricas Ejercicios Formas cuadrticas

Captulo 4. 4.1. 4.2. 4.3. 4.4.

Clasicacin de las formas cuadrticas. Cambio de variables. Diagonalizacin simultnea de formas cuadrticas Formas cuadrticas positivas, negativas e indenidas. Ejercicios

ndice general
Captulo 5. 5.1. 5.2. Anexo 1: Matrices no negativas. Matrices idempotentes 123 123 129 Matrices no negativas Matrices idempotentes

Captulo 6. 6.1. 6.2. 6.3. 6.4. 6.5.

Inversa generalizada e inversa condicional de matrices. 137 137 147 152 160 174 179 179 188 198 205 212 215 215 223 226 229 233

Inversa generalizada de una matriz Clculo de la g-inversa de una matriz Inversa condicional de una matriz Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mnimos cuadrados. Ejercicios Factorizacin de matrices

Captulo 7. 7.1. 7.2. 7.3. 7.4. 7.5.

Descomposicin

LU

Descomposicin QR Descomposicin de Cholesky Descomposicin en valores singulares (SVD) Ejercicios Rectas e hiperplanos. Conjuntos convexos.

Captulo 8. 8.1. 8.2. 8.3.

Rectas. Segmentos de recta. Hiperplanos Conjuntos convexos Ejercicios

ndice alfabtico Bibliografa

ii

ndice de guras
1.1. Transformacin lineal 3.1. Interpretacin geomtrica de vector propio 3.2. Vectores propios de 22 44 45 162 163 165 170 171 173 186 216 217

T (x, y) = (2x, x + 3y)

6.1. Problema de los mnimos cuadrados 6.2. Ajuste por mnimos cuadrados 6.3. Ajuste lineal por mnimos cuadrados 6.4. Ajuste lineal ejemplo 6.4.13 6.5. Ajuste lineal ejemplo 6.4.14 6.6. Ajuste cuadrtico ejemplo 6.4.15 7.1. Esquema de la factorizacin LU 8.1. Puntos y vectores en 8.2. Una recta en

R3 . P
y

R . Q. P
3
y

8.3. Grca de una recta que pasa por los puntos 8.4. Segmento de recta que une los puntos 8.5. Grca de un plano en

218 219 220

R . R

8.6. Grcas de un plano y una recta en 8.7. Ilustracin de semiespacios abiertos 8.1. Conjuntos convexos y no convexos

222 223 224

iii

CAPTULO 1

Prerrequisitos
El propsito de este captulo es hacer una recopilacin de algunas deniciones y de algunos resultados bsicos del lgebra lineal, los cuales nos sern de gran utilidad en el desarrollo de los captulos siguientes. Trataremos aqu los aspectos relacionados con: matrices, espacios vectoriales y transformaciones lineales, aunque aclaramos, que el orden en que se presentan los temas, no corresponde necesariamente al orden usual encontrado en la mayora de textos utilizados en el primer curso de lgebra lineal. Al lector que desee estudiar ms sobre el contenido de este captulo se le recomienda consultar [

1, 2, 12].

1.1. Matrices
Las matrices juegan un papel importante en las matemticas y sus aplicaciones. Una matriz tales) y to

de tamao

mn

(o simplemente

Amn )

es un

arreglo rectangular de nmeros dispuestos en

m
o

las (lneas horizon-

columnas (lneas verticales); el nmero que est en la i-sima

la y en la j-sima columna se denota por

aij

ij y se llama elemen-

ij de la matriz A. Para indicar dicho A = [aij ]mn , o en forma expandida a11 a21 A= . . . am1 a12 a22
. . .

arreglo usualmente se escribe


.. .

(1.1)

am2
1

a1n a2n . . . . amn

1.1. Matrices
Si

Prerrequisitos
ain
denota la

a1j a2j Aj = . . . amj

Ai =

ai1 ai2
la

i-sima

la de la matriz

j -sima

columna de

A,

el arreglo (1.1) puede represen-

tarse por las o columnas como aparece a continuacin

A1 A2 A= . = . . Am A, B, C ,

A1

A2

An

Las matrices se denotan, como lo hemos sugerido, con letras maysculas

m n con elementos Mmn . Los elementos de Mnn se llaman matrices cuadradas de orden n; a la diagonal formada por los elementos a11 , a22 , . . . , ann de una tal matriz A, se llama diagonal principal de A.
etc. El conjunto de todas las matrices reales se denotar por

Mmn (R)

o simplemente

Toda matriz cuadrada matriz diagonal y se

principal son nulos (aij

A de orden n, cuyos elementos fuera de la diagonal = 0 para i = j, i, j = 1, 2, . . . , n), se denomina denota por A = diag(a11 , a22 , . . . , ann ). n,
cuyos elementos en su diagonal princi-

La matriz diagonal de orden pal son todos iguales a simplemente

1,

se llama matriz idntica y se denota por

In

I,

cuando no sea necesario especicar el orden.

Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula ser denotada por Dos matrices

0 (0mn

denotar la matriz nula

m n.)

de igual tamao

mn

son iguales si y slo si sus

componentes correspondientes son iguales. Esto es,

A
La suma

ij

= B

ij

i = 1, 2, . . . , m, A
y

j = 1, 2, . . . , n. m n,
es la matriz

A+B
ij

de dos matrices

de tamao

mn

tal que:

A+B

= A

ij

+ B

ij

i = 1, 2, . . . , m,
la matriz

j = 1, 2, . . . , n.
de tamao

La multiplicacin

la matriz de tamao

A del nmero por m n, tal que:


ij

m n,

es

ij

= A

i = 1, 2, . . . , m,
2

j = 1, 2, . . . , n.

Prerrequisitos
El producto

1.1. Matrices
de la matriz

AB
s

A Mms

por la matriz

B Msn ,

es la

matriz de tamao

m n,
ik

tal que:

AB

ij

=
k=1

kj

Ai B j ;

i = 1, 2, . . . , m,

j = 1, 2, . . . , n.

1.1.1. Inversa de una matriz.


matriz que que

Sea

A Mnn .
tal que

Si existe una y le

B Mnn

tal que

AB = I

se puede demostrar que

B A

es nica. Cuando existe una matriz

BA = I AB = I, a B se A

llama la matriz inversa de invertible o singular.

y se le denota por

A1 .

Es este caso se dice es no

es no singular o invertible; en caso contrario, se dice que

En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz 1.1.1.

Teorema.

Si

A, B Mnn

son matrices invertibles y si

es un

nmero no nulo, entonces:


1. La matriz 2. La matriz 3. La matriz

A1 es invertible y A1 = A. AB es invertible y (AB)1 = B 1 A1 . A es invertible y (A)1 = 1 A1 .


Sea

1.1.2. Transpuesta de una matriz.


La matriz transpuesta de

una matriz

es la matriz

n m,

denotada por

m n. AT , cuya
Esto es,

i-sima

la corresponde a la y

la transpuesta de

1, 2, . . . m,
Sea

i-sima A es la matriz AT j = 1, 2, . . . n. A = A,
T

columna de la matriz tal que

A.

AT

ij

= A

ji , para

i=

una matriz cuadrada. Si se

simtrica, y si

AT = A, se dice que A es una matriz dice que A es una matriz antisimtrica. En

particular, las matrices diagonales son simtricas. Las propiedades ms relevantes de la transpocisin se dan en el siguiente teorema 1.1.2.

Teorema.

Sean

matrices de tamao apropiado, tales que las

operaciones siguientes estn bien denidas. Entonces:


1. Para cualquier matriz 2.

A =B

s y slo si

A se verica (AT )T = A. A = B.
3

1.1. Matrices
3. Si 4. Si 5. 6.

Prerrequisitos

A es una matriz diagonal, entonces AT = A. , son nmeros, entonces (A + B)T = AT + B T . T T T Si AB est denido, entonces (AB) = B A . T T Para cualquier matriz A, las matrices A A y AA son simtricas.

7. Si

A es invertible, entonces AT

es invertible y

(AT )1 = (A1 )T .

1.1.3. Determinantes.

Recordamos en este apartado las nociones

de menor, cofactor, matriz de cofactores, matriz adjunta y determinante de matrices cuadradas y resumimos algunos de los resultados ms importantes relacionados con el clculo propiedades del determinante. El lector recordar, que el concepto de determinante es de gran importancia no slo en el contexto del lgebra lineal, sino en otras reas como el clculo integral. En lo sucesivo, el determinante de una matriz por

ser denotado

|A|

o por

det(A).
(Determinane de matrices

1.1.3.

Denicin

2 2).

Sea

A=

a c

una matriz cuadrada de tamao el nmero real dado por

2 2.

El determinante de la matriz

b d A es

det(A) = ad bc.
1.1.4.

terminante de la matriz que resulta al suprimir la i-sima la de

Denicin.
mij .

Sea

una matriz cuadrada de tamao

n n;

el de-

j-sima
como

y la

columna de

es denominado menor del elemento

nota por

El cofactor del elemento

ij se denota por

A Cij

ij y se dey se dene

Cij = (1)i+j mij .


La matriz

C,

cuyos elementos son los cofactores

matriz de los cofactores de de cofactores decir, adj(A)

A,

Cij de A se denomina cof(A). La matriz transpuesta de la matriz


adjunta de

C , se denomina = CT .

y se denota por adj(A), es

El siguiente teorema nos muestra, cmo calcular el determinante de una matriz (cuadrada) en trminos de sus cofactores. Adems muestra, que el valor del determinante no depende de la la o columna a lo largo de la cual se haga la expansin. Dicho teorema presenta tambin, una forma alternativa para calcular inversas de matriz en trminos del determinante de dicha matriz y su adjunta. 4

Prerrequisitos
1.1.5.

1.1. Matrices
Sea

Teorema.
1. Si

una matriz cuadrada de orden

n.

Cij

denota el cofactor del elemento n

ij , entonces:

a)

det(A) =
j=1 n

ij

Cij ,

para cada

i = 1, 2, . . . , n.

A ij Cij , para cada j = 1, 2, . . . , n. i=1 2. Para cualquier matriz cuadrada A, se tiene que
b)

det(A) =

A adj(A) = adj(A) A = det(A)I .


3. La matriz

es invertible sii

|A| = 0,
1

en este caso se tiene que

A
1.1.6.

= (det(A))
y

adj(A) . n, entonces:

Teorema.
1. 2.

Sean

A, B

matrices cuadradas de orden

|A| = |AT | . Si A tiene una

la nula, entonces

|A| = 0.

3. Si las matrices

dieren nicamente en sus

k-simas

las

y si dichas las satisfacen la igualdad


4. Si 5. 6. 7.

Ak = B k ,

entonces

|A| = |B|. es un escalar, entonces |A| = n |A|. Si A, B y C dieren nicamente en la k-sima la y si Ck = Ak + Bk , entonces |C| = |A| + |B|. Si A tiene dos las iguales, entonces |A| = 0. Si B se obtiene al intercambiar dos las de A, entonces |B| = |A|.
la son multiplicados por un escalar

8. El determinante de una matriz no cambia si los elementos de la

i-sima

y los resultados

son sumados a los correspondientes elementos de la


9.

k-sima la,

k = i. |AB| = |A||B|.
para

Nota.
las de

Por (1), cualquier proposicin sobre

|A|

que sea verdadera en las

es tambin verdadera para las columnas de

A.
En

1.1.4. Operaciones elementales. Matrices elementales.

este apartado recopilamos algunas deniciones y resultados relacionados con las operaciones que se pueden hacer en las las (respectivamente columnas) de una matriz, las cuales realizadas de manera apropiada nos 5

1.1. Matrices

Prerrequisitos

permiten obtener nuevas matrices con estructuras ms adecuadas, por ejemplo cuando se quiere resolver sistemas de ecuaciones. Dichas operaciones son las operaciones elementales y estn resumidas en la siguiente denicin. 1.1.7.

Denicin

(Operaciones y matrices elementales)

Dada una ma-

triz

A,

cada una de las siguientes operaciones es llamada una operacin

elemental en las las (columnas) de

A. A. A

(i) El intercambio de dos las (columnas) de

(ii) La multiplicacin de los elementos de una la (columna) de

por un escalar no nulo.


(iii) Reemplazar una la (columna) de

A,

por la suma de ella y un

mltiplo escalar no nulo de otra la (columna) de dicha matriz. Una matriz elemental por las (columnas) es aquella que resulta de efectuar una operacin elemental sobre las las (columnas) de una matriz identidad.
1.1.8.

Teorema.
1. Cada matriz elemental es invertible. Adems, la inversa de cada

matriz elemental es una matriz elemental.


2. Sea

una matriz

m n.

Si

es una matriz que resulta al

efectuar una operacin elemental sobre las las de elemental sobre las las de la matriz idntica
3.

y si

es

la matriz elemental que resulta de efectuar la misma operacin

Im ,

entonces

A = B. Sea A una

matriz

m n.

Si

es una matriz que resulta al

efectuar una operacin elemental sobre las columnas de elemental sobre las columnas de la matriz idntica

y si

es la matriz elemental que resulta de efectuar la misma operacin

In ,

entonces

A E = B.
1.1.9.

Denicin (Forma escalonada reducida).


(i) Si una la de

Se dice que una matriz

tiene la forma escalonada reducida, si satisface las siguientes condiciones:

R
e

es no nula, el primer elemento no nulo de dicha

la, de izquierda a derecha, es


(ii) Si las las

1.
no nulas, el primer elemento no derecha del primer elemento no

nulo nulo

i + 1 de R son de la la i + 1 est a la de la la i.


6

Prerrequisitos
(iii) Si una columna de

1.2. Espacios vectoriales


R
contiene el primer elemento no nulo de

una la de
(iv) Si

R,

los dems elementos de dicha columna son nulos.

tiene las nulas, stas aparecen en la parte inferior de

R.

El siguiente teorema nos relaciona los conceptos de matrices elementales y forma escalonada reducida para una matriz arbitraria. 1.1.10.

Teorema.

Para toda matriz

existen: una nica matriz

que

tiene la forma escalonada reducida y un nmero nito de matrices elementales por las

E1 , E2 , . . . , Ek

tales que:

Ek E2 E1 A = R .
La matriz

mencionada en el teorema anterior se denomina la forma

escalonada reducida de 1.1.11.

A. A
una matriz cuadrada de orden

Teorema.
A A

Sea

n.

1. 2.

es invertible es invertible

sii la forma escalonada reducida de A es In . sii A se puede expresar como el producto de

un

nmero nito de matrices elementales.

Los dos ltimos teoremas dan lugar a un mtodo para decidir cundo una matriz cuadrada

A es invertible, y simultneamente proveen un algoritmo [A | In ]. Seguidamente

para calcular su inversa. El mtodo consiste en lo siguiente: Forme la matriz

efecte operaciones elementales sobre la las de esta matriz hasta obtener su forma escalonada reducida; al nal se obtiene una matriz que describiremos as

[R | P ];

es invertible

sii R = In . Si A

donde

es la forma escalonada reducida de es invertible entonces

A. A1 = P .

Ahora:

1.2. Espacios vectoriales


El conjunto de matrices

m n, junto con las dos operaciones suma de ma-

trices y multiplicacin de un escalar por una matriz, denidas al principio de la seccin 1.1, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importante porque incluye otros conjuntos que se presentan frecuentemente en las matemticas y sus aplicaciones. 7

1.2. Espacios vectoriales


1.2.1.

Prerrequisitos
V,
cuyos

Denicin.
(+)

Un espacio vectorial (real) es un conjunto

elementos son llamados vectores, junto con dos operaciones: suma de vectores y multiplicacin de un escalar por un vector

(),

que satisfacen

las propiedades siguientes:


(i) Si (ii) Si (iii) Si

u V y v V , entonces u + v V . u V y v V , entonces u + v = v + u. u V , v V y w V , entonces (u + v) + w = u + (v + w) = u + v + w. 0V


tal que para todo

(iv) Existe un vector

uV

u+0 = 0+u =

u.
(v) Si

uV,

entonces existe un vector

u V

tal que

u + (u) = (u) + u = 0.
(vi) Si (vii) Si (viii) (ix) (x) 1.2.2. riales: 1.

u V y es un escalar, u V . u V y , son escalares, entonces ()u = (u) = (u). Si u V y , son escalares, entonces ( + )u = u + u. Si u V y v V y es un escalar, entonces (u+v) = u+v. Si u V , entonces 1u = u.
Los siguientes conjuntos son ejemplos de espacios vecto-

Ejemplo.

V = Rn = {(x1 , x2 , . . . , xn ) : xi R, i = 1, 2, . . . , n}
operaciones denidas as:

con las

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )


2. 3.

(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ) . V = Mmn , el conjunto de matrices m n con las


denidas usualmente (ver seccin 1.1).

operaciones

V = F,

el conjunto de funciones de

en

con las operaciones

denidas as:

(f + g)(t) = f (t) + g(t) , (f )(t) = f (t) ,


4. o igual que en (3). 8

t R. t R.

V = Pn , el conjunto de las funciones polinmicas de grado menor n, con coecientes reales con las operaciones denidas

Prerrequisitos

1.2. Espacios vectoriales

Como se establece en la denicin, un espacio vectorial (real) es un tripla que consta de un conjunto

y de dos operaciones con ciertas propiedades.

Cuando no haya lugar a confusin o cuando no sea necesario explicar las operaciones mencionadas, se har referencia simplemente al espacio vectorial

V.

Con frecuencia es necesario considerar subconjuntos de un espacio vectorial

V,

tales que; junto con las operaciones denidas en

V,

son por s

mismo espacios vectoriales. Estos son denominados subespacios de forma ms precisa tenemos la siguiente 1.2.3.

V.

En

Denicin.
V.

Sea

un espacio vectorial y

vaco de

Diremos que un

es subespacio de

W V,

un subconjunto no si

W,

junto con las

operaciones de suma de vectores y la multiplicacin de un escalar por un vector denidas en


1.2.4.

V,

es en s mismo un espacio vectorial.

Denicin.

Sean

es un subespacio de

V un espacio vectorial, v0 un elemento V . El subconjunto determinado as:


para

de

L = {v V : v = v0 + w,
es denominado una variedad lineal de

w W} ,

V.

El siguiente concepto es bsico en el estudio de los espacios vectoriales. En particular, servir para caracterizar ciertos espacios de un espacio vectorial. 1.2.5. Denicin. Sean v1 , v2 , . . . , vn vectores de un espacio vectorial V . Se dice que un vector v V es combinacin lineal de los vectores v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n tales que:

v = 1 v1 + 2 v2 + + n vn =
i=1
1.2.6.

i vi .

Teorema.

Sea

un subconjunto no vaco de un espacio vectorial

V. W

es un subespacio de

sii

es cerrado bajo la operacin suma de

vectores y la multiplicacin por un escalar, esto es, sii


1. Si 2. Si

uW uW

y y

v W , entonces u + v W . R, entonces u W .
9

1.2. Espacios vectoriales


1.2.7.

Prerrequisitos
W
son subespacios de un espacio vectorial

Teorema.

Si

V,

entonces:
1. La interseccin de

con

W; U W

es un subespacio vectorial

de

V. U
con

2. La suma de

W;

denida por con

U + W = {v V : v = u + w,
es un subespacio vectorial de
1.2.8.

uU

w W} ,

V.

Teorema.

vectorial de

Sea C un conjunto no vaco de vectores de un espacio V . El conjunto de todas las combinaciones lineales de los vectores
k

C; vV : v=
i=1

W =

i vi ; k N, vi C y i R, i = 1, 2, . . . , k

es un subespacio de
Sea

V. V.
El

un conjunto no vaco de vectores de un espacio vectorial

subespacio de

V,

de todas las combinaciones lineales de los vectores de

mencionado en el teorema anterior, es denominado el espacio gen-

erado por los vectores de Cuando

C o simplemente, espacio generado por C. C = {v1 , v2 , . . . , vn } (es nito), este espacio ser denotado por v1 , v2 , . . . , vn o por gen {v1 , v2 , . . . , vn }. C
de vectores de un espacio vectori-

Cuando consideramos un conjunto los vectores de

al, es a veces importante determinar cundo algn vector o algunos de

se pueden expresar como combinaciones lineales de los

restantes vectores en ella. 1.2.9.

C.

Para ello, necesitamos de la denicin de de-

pendencia lineal de un conjunto de vectores y algunos resultados sobre

Denicin
C

conjunto

(Independencia lineal) Sea C = {v1 , v2 , . . . , vn } un de vectores (distintos) de un espacio vectorial V . Se dice que

es linealmente dependiente o que los vectores

ealmente dependientes, si existen escalares tales que:

v1 , v2 , . . . , vn son lin1 , 2 , . . . , n no todos nulos


n

0 = 1 v1 + 2 v2 + + n vn =
i=1

i vi , C

en caso contrario, se dice que vectores

es linealmente independiente o que los es

v1 , v2 , . . . , vn

son linealmente independientes. Es decir,


10

Prerrequisitos
linealmente independiente si para los escalares n i=1 i vi , entonces

1.2. Espacios vectoriales


1 , 2 , . . . , n ;
si

0 =

1 = 2 = . . . , = n = 0 .
1.2.10.

Teorema.

En un espacio vectorial

se tiene:

1. Todo conjunto que contenga el vector nulo,

0,

es linealmente

dependiente.
2. Todo conjunto que contenga un subconjunto linealmente depen-

diente es linealmente dependiente.


3. Todo subconjunto de un conjunto linealmente independiente, es

linealmente independiente.
4. Un conjunto de vectores

C = {v1 , v2 , . . . , vn }, n 2, es linealmente dependiente sii uno de los vectores de C es combinacin


lineal de los restantes vectores de

C. V,
en oca-

1.2.1. Bases y dimensin.

Dado un espacio vectorial

siones es til determinar un subconjunto independientes que genere al espacio

de

de vectores linealmente

V.

Esto es, un conjunto de vectores

linealmente independientes mediante los cuales, cada vector de expresar como combinacin lineal de los vectores de esta seccin, tal conjunto

se pueda

se llamar una base

B. de V

Como veremos en y de acuerdo con

el nmero de elementos que contenga, tal base hablaremos de dimensin

nita o innita del espacio vectorial.


Se dice que un espacio vectorial conjunto nito

de vectores de

V V,

es de dimensin nita, si existe un tal que el espacio generado por

V.

Por el contrario, si no es posible generar un espacio vectorial

C en V con

un ningn subconjunto nito de vectores, diremos que dicho espacio tiene dimensin innita. Ejemplos de stos ltimos espacios son: el conjunto de funciones continuas denidas sobre espacios de dimensin nita. 1.2.11. o el conjunto de todos los poli-

R,

nomios con variable real. Nosotros sin embargo slo trataremos aqu con

Denicin
V.

(Base)

Sea

un conjunto de vectores de un espacio

vectorial ciones:

Se dice que

es una base de

si se tienen las dos condi-

(i) El espacio generado por (ii) El conjunto

es

V.

es linealmente independiente.
11

1.2. Espacios vectoriales


Si un espacio vectorial por

Prerrequisitos

V tiene una base B = {v1 , v2 , . . . , vn } compuesta n vectores, entonces se puede demostrar que el nmero de vectores de cualquier otra base de V es tambin n. Es decir, si un espacio vectorial V tiene una base B con un nmero nito, n, de elementos, cualquier otra base de dicho espacio vectorial, tiene exactamente n elementos. A dicho nmero comn se le llama dimensin del espacio V y se dice que V es de dimensin nita n y se escribe dim V = n.
1.2.12.

Denicin.
V
y

Sea

un subespacio de un espacio vectorial

V, v0

un vector en

la variedad

L = {v V : v = v0 + w, w W } ,
si

dim W = k,

se dice que la variedad lineal

tiene dimensin

k.

El siguiente teorema resume algunos aspectos importante sobre bases de espacios vectoriales, independencia lineal y conjuntos generadores. 1.2.13.

Teorema.
entonces:

Sea

un espacio vectorial de dimensin

n. V,

1. Si

B = {v1 , v2 , . . . , vn }

es un conjunto de

vectores de

2. 3.

4. 5.

6.

B es una base de V sii B es linealmente independiente. B es una base de V sii B genera a V . Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, entonces r n. Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, con r < n, entonces existen n r vectores de V ; w1 , w2 , . . . , wnr , tales que B = {u1 , u2 , . . . , ur , w1 , . . . , wnr } es una base de V. Si C = {u1 , u2 , . . . , ur } genera a V entonces r n. Si el conjunto C = {u1 , u2 , . . . , ur } genera a V y r > n, entonces existen n r vectores de C; w1 , w2 , . . . , wnr , tales que B = C \ {w1 , w2 , . . . , wnr } es una base de V. Si W es un subespacio de V entonces dim W n. Si dim W = n, entonces W = V.
a) b) Si

1.2.14.

Teorema.

son subespacios de un espacio vectorial

entonces

dim(U + W ) = dim U + dim V dim(U W ) .


12

Prerrequisitos

1.2. Espacios vectoriales

1.2.15. Nota. En el teorema anterior: U W = {0} sii dim(U + W ) = dim U +dim V . Cuando U W = {0} al espacio U +W de V se le denomina suma directa de U con W y se escribe U W en lugar de U + W . Adems, en este caso para cada vector v U W , existen vectores nicos u U y w W tales que v = u + w. 1.2.16.

Teorema.
W

Si

es un subespacio de un espacio vectorial

V,

en-

tonces existe un subespacio


El subespacio

de

tal que

U W = V.

del teorema anterior no es necesariamente nico y es

llamado complemento de complementarios.

U.

Tambin se dice que

son subespacios

1.2.2. Coordenadas.

El conjunto de coordenadas de un espacio

respecto de una base es til en el estudio de las transformaciones lineales. Para introducir este concepto es necesario denir primero lo que es una base ordenada de un espacio vectorial

V.

En la denicin 1.2.11 era irre-

levante en qu orden apareciera los elementos de una base. Sin embargo, a partir de ahora el orden ser importante. En tal sentido, nosotros consideramos la siguiente denicin. (Base ordenada) Si v1 , v2 , . . . , vn es una sucesin nita de vectores linealmente independientes de un espacio vectorial V, 1.2.17.

Denicin

que generan a

base ordenada de
1.2.18.

V , entonces V.
Si

diremos que

B = {v1 , v2 , . . . , vn }

es una

Teorema.

entonces para cada vector tales que

B = {v1 , v2 , . . . , vn } es una base ordenada de V , v V existen escalares 1 , 2 , . . . , n nicos


n

v = 1 v1 + 2 v2 + + n vn =
i=1
1.2.19.

i vi ,

B = {v1 , v2 , . . . , vn } una base ordenada de un v un vector de V y sean 1 , 2 , . . . , n los esn calares nicos tales que v = i=1 i vi , el vector (vector columna) de coordenadas de v respecto de la base ordenada B se denota por [v]B y se
Sea espacio vectorial

Denicin.

V.

Sea

dene as:

1 2 [v]B = . . . . n
13

1.2. Espacios vectoriales


Si

Prerrequisitos
y si

u y v son dos vectores de V [u]B + [v]B y [u]B = [u]B .

es un escalar, entonces

[u + v]B =
T

De otro lado, a cada vector le corresponde un nico

n i=1

n1 (matriz n1) c = 1 2 n vector v de V tal que [v]B = c, a saber v =


de

i vi . B V
determina una correspondencia biunvoentre los espacios

As, cada base ordenada ca,

v [v]B ,

Mn1 ,

que preserva las suma de

vectores y la multiplicacin de un escalar por un vector. Ms an, preserva la independencia lineal; sto es, el conjunto un conjunto de vectores linealmente independientes de

C = {u1 , u2 , . . . , uk } es V sii el conjunto

C = {[u1 ]B , [u2 ]B , . . . , [ uk ]B } independientes de Mn1 .


En el caso en que con

es un conjunto de vectores linealmente

V = Rn y B = {e1 , e2 , . . . , en } sea la base cannica, e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1), x1 x2 x = (x1 , x2 , . . . , xn ) [x]B = . . . . xn

la mencionada correspondencia est dada por

En algunas situaciones resulta conveniente tener presente esta correspondencia, que utilizaremos identicando a

con

[x]B .
En este aparta-

1.2.3. Producto interno. Bases ortonormales.


diagonalizacin de matrices simtricas. 1.2.20.

do consideraremos los conceptos de producto interno y de bases ortonormales que nos ser particularmente tiles en el captulo 3 al tratar la

Denicin (Producto interno).


u, v
y

adems

vectores arbitrarios de

ducto interno en propiedades:


(i) (ii) (iii) (iv)

es una funcin

V un espacio vectorial. Sean V y un escalar real. Un pro; : V V R que satisface las


Sea

u; v = v; u . u; u 0 y u; u = 0 si y slo u; v = u; v . u + v; w = u; w + v; w .
14

si

u = 0.

Prerrequisitos

1.2. Espacios vectoriales


Si

es una base ordenada de un espacio vectorial V , T entonces la funcin ; : V V R denida por u; v = [u]B [v]B es n un producto interno. En particular, si V = R y B es la base cannica de n R , se tiene que

Observacin.

x; y = [x]B [y]B = x1 y1 + x2 y2 + + xn yn ,
donde

x = (x1 , x2 , . . . , xn )

y = (y1 , y2 , . . . , yn ). Rn con este producto interno (producto x y o xT y para indicar a x; y .

En lo que sigue consideraremos a escalar) y a veces escribiremos Si

; v; v

es un producto interno sobre un espacio vectorial . Cuando

longitud de un vector

V , la norma o v de V se denota por v y se dene as: v = v = 1, se dice que v es un vector unitario.

1.2.21.

Teorema

(Desigualdad de Schwarz)

Sea

un espacio vectori-

al con producto interno satisface la desigualdad

. Para cada par de vectores

de

se

| u; v | u
Sean si

v .
,

u y v vectores de un espacio vectorial V con producto interno ; v no son nulos, la medida del ngulo entre ellos se dene como | u; v | = arc cos . u v

1.2.22.

Denicin.

Sea

un espacio vectorial con producto interno

1. Se dice que dos vectores

2. Se dice que un conjunto 3.

u y v de V son ortogonales si u; v = 0. C = {v1 , v2 , . . . , vn } de vectores de V es ortogonal si vi ; vj = 0 para i = j, i, j = 1, 2, . . . , n. Se dice que un conjunto C = {v1 , v2 , . . . , vn } de vectores de V es ortonormal si C es ortogonal y cada vector de C es unitario, 1 0 si i = j ; i, j = 1, 2, . . . , n . si i = j

o sea si:

vi ; vj = ij =

4. Se dice que dos conjuntos no vacos,

C1 y C2 de vectores son ortogonales, si para cada par de vectores u C1 y v C2 , u; v = 0.


15

1.3. Transformaciones lineales


1.2.23.

Prerrequisitos

Teorema. Sea V un espacio vectorial con producto interno ; . C = {v1 , v2 , . . . , vn } es un conjunto ortogonal que no contiene al vector 0, entonces C es linealmente independiente.
Si
1.2.24.

Teorema

(Proceso de ortogonalizacin de Gram-Schmidt)

Sea

W un subespacio no nulo de un espacio vectorial V de dimensin nita k con producto interno ; y sea B = {w1 , w2 , . . . , wk } una base de W. Entonces C = {v1 , v2 , . . . , vk } es una base ortogonal de W y C = {v1 , v2 , . . . , vk } es una base ortonormal de W , donde: v1 v2 v3 = w1 w2 ; v1 v1 v1 ; v1 w3 ; v 1 w3 ; v2 = w3 v1 v2 v1 ; v1 v2 ; v2 = w2
. . .
k1

vk vi vi

= wk
i=1

wk ; vi vi , vi ; vi

y donde
1.2.25.

vi =

para

i = 1, 2, . . . , k.

vectorial

Sean v1 , v2 , . . . , vk vectores no nulos de un espacio V de dimensin n > k , con producto interno ; . Si C1 = {v1 , v2 , . . . , vk } es un conjunto ortogonal (respectivamente ortonormal), entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1 , w2 , . . . , wnk } de vectores de V tal que B = C1 C2 es una base ortogonal (ortonormal) de V. Ms an, si U = v1 , v2 , . . . , vk y si W = w1 , w2 , . . . , wnk entonces V = U W y adems, U y W son ortogonales.

Teorema.

1.3. Transformaciones lineales


En esta seccin consideraremos los aspectos ms importantes sobre las transformaciones lineales. En lo que sigue; vectoriales. 1.3.1.

U, V

denotarn espacios

Denicin.

Una funcin

si para cualquier para de vectores que:

T : U V es una transformacin lineal, u1 , u2 en U y todo escalar , se tiene


16

Prerrequisitos
(i) (ii) 1.3.2.

1.3. Transformaciones lineales

T (u1 + u2 ) = T (u1 ) + T (u2 ) T (u1 ) = T (u1 ).


Algunos ejemplos de transformaciones lineales son:

Ejemplo.

1. Para cada por 1.3.3.

U,

la funcin idntica

2. Para cada matriz

A Mmn ,

la funcin

I : U U, u I(u) = u. A : Rn Rm , denida

x y = Ax.
Sean

Teorema.
U

una base de queda

U y V espacios vectoriales, B = {u1 , u2 , . . . , un } T : U V es una transformacin lineal. Entonces T determinada por los vectores T (u1 ), T (u2 ), . . . , T (un ).
y

Asociados a toda transformacin lineal hay dos subespacios importantes a saber; su ncleo y su imagen. El primero de ellos corresponde a todos lo elementos del espacio espacio

que son transformados en el elemento nulo del

V;

el segundo, corresponde a todos los elementos del espacio

que tienen al menos una preimagen en el espacio tenemos 1.3.4.

V U. En forma ms precisa

Denicin.

Sea

T :U V

es una transformacin lineal.

1. El ncleo de

se denota por

N (T )

y se dene as:

N (T ) = {u U : T (u) = 0} .
2. La imagen de

se denota por

Img(T )

y se dene as:

Img(T ) = {T (u) : u U } .
1.3.5.

Denicin.

Sea

T :U V

una transformacin lineal.

1. Diremos que

es inyectiva (biunvoca o uno a uno), si dos ele-

mentos distintos y slo si

u1 , u2 U ,

tienen imagen distinta. Esto es si

u1 = u2

implica

T (u1 ) = T (u2 ); V

para todo

u1 , u2 U. U.

2. Diremos que

es sobreyectiva (o simplemente sobre), si cada posee al menos una preimagen en

elemento de del espacio Esto es si y slo si Para todo

vV

existe un

uU

tal que

T (u) = v.

El siguiente teorema resume algunos aspectos bsicos de las transformaciones lineales. 17

1.3. Transformaciones lineales


1.3.6.

Prerrequisitos
un subconjunto de vectores

Teorema.
y sea
1. 2. 3. 4. 5.

Sea

B = {u1 , u2 , . . . , un }

de

T :U V

una transformacin lineal y .

6.

N (T ) es un subespacio vectorial de U. T es inyectiva sii N (T ) = {0} . Img(T ) es un subespacio vectorial de V. Si B es una base de U , entonces {T (u1 ), T (u2 ), . . . , T (un )} genera al espacio Img(T ). Si T es inyectiva y B es linealmente independiente, entonces {T (u1 ), T (u2 ), . . . , T (un )} es un subconjunto linealmente independiente de vectores de V . dim N (T ) + dim Img(T ) = dim U . N (T )
se le llama nulidad de

A la dimensin de

y a la dimensin de

Img(T )

se llama rango de

T.

1.3.1. Matriz de una transformacin lineal referida a un par de bases ordenadas. A cada transformacin lineal se le puede asignar
una matriz

A,

la cual est determinada por las bases de los espacios vec-

toriales involucrados en dicha transformacin. Veremos en esta seccin, que una tal asignacin simplicar muchos clculos. Es decir, ser ms conveniente trabajar con la matriz asociada a una transformacin lineal (referida a ciertas bases), que con la transformacin lineal misma. 1.3.7.

formacin lineal y sean

U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm } bases ordenadas de U y de V respectivamente. La matriz de T referida a las bases B1 y B2 se denotar por [T ]B B y corresponde a la matriz mn 1 2
Sean dada por:

Denicin.

[T ]B1 B2 =
1.3.8.

[T (u1 )]B2

[T (u2 )]B2

[T (un )]B2

Teorema.

Sean

formacin lineal y sean bases ordenadas de que:

U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm } U y de V respectivamente. Para cada u U se tiene [T (u)]B2 = [T ]B1 B2 [u]B1 .

Nota.

Por el teorema anterior y por el teorema 1.3.3, la transforma-

cin lineal las bases

T queda completamente determinada B1 y B2 , y de la matriz [T ]B1 B2 .


18

por el conocimiento de

Prerrequisitos

1.3. Transformaciones lineales

1.3.2. lgebra de transformaciones lineales. Inversa de una transformacin lineal. En esta seccin consideraremos las operaciones
de suma, multiplicacin por un escalar y composicin entre transformaciones lineales. As mismo veremos la relacin existente entre las matrices asociadas correspondientes. En este apartado vectoriales. 1.3.9.

U, V

denotan espacios

Teorema.

Sean

un escalar. Sean adems

T : U V y S : U V transformaciones lineales B1 y B2 bases ordenadas de U y V, respec-

tivamente:

1. La suma de

S ; (T + S) : U V,

denida por

(T + S)(u) =

T (u) + S(u)

es una transformacin lineal. Ms an

[T + S]B1 B2 = [T ]B1 B2 + [S]B1 B2 .


2. La funcin mltiplo escalar de

T ; (T ) : U V,

denida por

(T )(u) = T (u)

es una transformacin lineal. Ms an

[T ]B1 B2 = [T ]B1 B2 .

Nota.

El conjunto de todas las transformaciones lineales de

en

V,

L(U, V ),

junto con las operaciones mencionadas en el teorema anterior

es un espacio vectorial. adems, si

dim U = n

dim V = m

entonces

dim L(U, V ) = m n.
De otro lado, de la misma forma como una base

B1 de U determina la correspondencia biunvoca entre los espacios vectoriales V y Mm1 , dada


por , v [v]B ; las bases B1 y B2 de U y V , determinan la corresponden2 cia biunvoca entre los espacios L(U, V ) y Mmn , la cual est dada por T [T ]B B . Esta correspondencia preserva la suma de vectores y la mul1 2

tiplicacin de un escalar por un vector, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es una transformacin lineal.
1.3.10.

Teorema.
U, V
y

Sean

lineales. Entonces, la composicin cin lineal. Si adems, espacios

T : U V y S : V W transformaciones S T : U W es una transformaB1 , B2 y B3 representan bases ordenadas para los

respectivamente, entonces se tiene que:

[S T ]B1 B3 = [S]B2 B3 [T ]B1 B2 .


19

1.4. Espacios fundamentales de matrices


1.3.11.

Prerrequisitos

Teorema.

Si

entonces la funcin inversa de lineal y la matriz

T : U V es una transformacin lineal biyectiva, T , T 1 : V U es una transformacin


es invertible. Adems,

[T ]B1 B2

T 1

B2 B1

= [T ]B1 B2 .
Los conceptos

1.3.3. Matrices semejantes. Cambio de base.


de una transformacin lineal. 1.3.12.

de matrices semejantes y cambio de base nos sern particularmente tiles en el captulo 4 para el estudio de los valores propios y los vectores propios

Denicin (Matrices semejantes).


n,
se dice que

Sean

AyB

matrices cuadradas

de orden vertible
1.3.13.

tal que

B B = P 1 AP.
y

son semejantes, si existe una matriz in-

Denicin

(Matriz cambio de base)

Sean

nadas del espacio vectorial idntica. La matriz la base

U,

y sea

I :U U

B1 y B2 bases ordela transformacin lineal


de cambio de base de por el teorema 1.3.8,

[u]B2

P = [I]B1 B2 se denomina matriz B1 a la base B2 , (sto debido a lo enunciado = [T ]B1 B2 [u]B1 ).

1.3.14.

Teorema.

Sean

T :U U

una transformacin lineal y

B1

B2

bases ordenadas de

U.

1. La matriz de cambio de base de la base

[I]B1 B2 ,

B1 a la base B2 , P = es invertible y su inversa es la matriz de cambio de base B2


a la base B1 . A = [T ]B2 B2
1

de la base

2. Las matrices

B = [T ]B1 B1

son matrices seme-

jantes, adems se tiene

[T ]B1 B1 = [I]B1 B2 [T ]B2 B2 [I]B1 B2 = P 1 [T ]B2 B2 P .

1.4. Espacios fundamentales de una Matriz. Rango de una matriz. Sistemas de ecuaciones lineales
En esta seccin consideraremos los llamados espacios fundamentales de una matriz el de la transformacin lineal

A. Dos de estos espacios son precisamente el ncleo y la imagen x y = Ax, los cuales estn relacionados con conjunto solucin de un sistema de ecuaciones lineales Ax = y. El A tienen igual dimensin. A y se denota por (A).
A

lector recordar de los resultados de un primer curso de lgebra lineal, que el espacio la y es espacio columna de ese nmero comn se le denomina rango de 20

Prerrequisitos
Sea

1.4. Espacios fundamentales de matrices


m n.
El subespacio de

una matriz

Rn

generado por las las de

se denomina espacio la de

y lo denotamos por

F(A);

esto es,

A F(A) =

A1 , A2 , . . . , Am . El subespacio de Rm generado por las columnas de A se denomina espacio columna de A y lo denotamos por C(A); esto 1 2 n es, C(A) = A , A , . . . , A . El espacio formado todas soluciones de un sistema homogneo de ecuaciones lineales Ax = 0 se denomina espacio
nulo de una matriz, esto es, el espacio nulo es el conjunto

N (A) = {x Rn : Ax = 0} .
De otro lado, el subespacio de

Rn ;
algn

Img(A)

= {Ax : x Rn } = {y Rm : y = Ax para x Rn } . A. A
se tiene que

se denomina imagen de 1.4.1.

Teorema. Teorema.
1.

Para cualquier matriz

dim F(A) = dim C(A) .


1.4.2.

Sea

una matriz arbitraria entonces: son ortogonales. sto es, sus elementos son or-

F(A)

N (A)

togonales entre si. t 2. C(A) y N (A ) son ortogonales. sto es, sus elementos son ortogonales entre si.
1.4.3.

Teorema.
1.

Sean

matrices de tamao adecuado, tales que las

operaciones siguientes estn denidas.

2. Si

3. 4.

C(AB) C(A) y F(AB) F(B). P y Q son matrices invertibles de tamao apropiado a ) C(A) = C(AQ). b ) F(A) = F(P A). C(A + B) C(A) + C(B) y F(A + B) F(A) + F(B). T Para cualquier matriz A se tiene que: N (A) = N (A A). A,
entonces

Nota.
R es F(R).
si
1.4.4.

Segn el inciso 2(b) del teorema anterior y segn el teorema 1.1.10, la forma escalonada reducida de la matriz

F(A) =

Teorema.

lineal

Sea A una matriz mn. La imagen de la transformacin A : Rn Rm , x y = Ax, es el espacio columna de A; esto es,

Img(A) = C(A)

=
21

{Ax : x Rn } .

1.4. Espacios fundamentales de matrices

Prerrequisitos

Nota.

De acuerdo con el inciso (3) del teorema 1.3.6 y de acuerdo con

los teoremas 1.4.1 y 1.4.4: si

es una matriz

m n,

entonces

dim N (A) + dim F(A) = n.


Anlogamente, puesto que

F(At ) = C(A),

dim N (AT ) + dim C(A) = m.


De otra parte, con base en la nota 1.2.15,

Rn = F(A) N (A)
es decir, los subespacios mismo, los subespacios

Rm = C(A) N (AT ),
As

F(A) y N (A) de Rn son complementarios. C(A) y N (At ) de Rm son complementarios.

x Rn y cada y Rm se pueden expresar en forma nica as: x = f + n y y = c + u, donde f , n, c y u pertenecen T a F(A), N (A), C(A) y N (A ), respectivamente (ver gura 1.1).
Esto implica entonces, que cada

IR

IR x=f+n

F (A)
f n

C (A)
Ax=Af y=c+u

c
u

N (A)
Figura 1.1. Transformacin lineal

N (AT)

Nota.
y = Ax

Segn las deniciones, el ncleo de la transformacin lineal es el espacio nulo de

A. A, (A),
como el rango

De otro lado, si denimos el rango de la matriz de la transformacin lineal

x y = Ax,

entonces tenemos que rango de

es la dimensin del espacio columna de

A.
entonces:

1.4.5.

Teorema.
1. 2.

Sea

una matriz

m n,

(A) (A)

es igual al nmero mximo de las linealmente independi-

entes de entes de

A. A.
22

es el nmero mximo de columnas linealmente independi-

Prerrequisitos
3.

1.4. Espacios fundamentales de matrices


es el nmero de las no nulas de la forma escalonada re-

(A)

ducida de
5. Si 6. 7. 1.4.6.

A.

4. Para cualquier matriz

A, (A) = (AT ) = (AAT ) = (AT A). A es una matriz m n y B es una matriz n k , entonces (AB) (A) y (AB) (B). Si P es una matriz invertible mm y Q es una matriz invertible n n, entonces (A) = (P A) = (AQ) = (P AQ). Si A y B son matrices m n, entonces (A + B) (A) + (B).
Sea

Teorema.

una matriz

mn

y sea

un vector

m 1.

1. El sistema de ecuaciones 2. El sistema de ecuaciones

Ax = y tiene solucin sii y C(A). Ax = y tiene solucin sii el rango de

la matriz

A es

igual al rango de la matriz aumentada del sistema

[A | y],

es decir sii

(A) = ([A| y]). Ax = y


se da una y slo

3. Para el sistema de ecuaciones lineales

una de las opciones siguientes: a ) El sistema no tiene solucin, en cuyo caso

y C(A). /

b ) El sistema tiene innitas soluciones, en cuyo caso su conjunto solucin es una variedad lineal de la forma

S = {xp + xh : xh N (A)} , xp Axp = y,


donde que es una solucin particular del sistema; sto es, adems,

dim N (A) > 0.

c ) El sistema tiene una nica solucin. En este caso se tiene

N (A) = {0 }

El teorema siguiente recoge, tericamente, el mtodo de Gauss-Jordan para resolver sistemas de ecuaciones lineales. 1.4.7.

es una matriz invertible

A una matriz m n y y un vector n 1. Si P m m tal que P A = R, donde R es la forma escalonada reducida de A, entonces Ax = y sii Rx = P y; esto es, los sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo conjunto solucin. En particular, si y = 0; Ax = 0 sii Rx = 0.
Sean
1.4.8.

Teorema.

Teorema (Resumen).
1. 2.

Sea

una matriz cuadrada de orden

n.

Las

armaciones siguientes son equivalentes:

det(A) = 0. A es invertible. A
en

3. La forma escalonada de

In .

23

1.4. Espacios fundamentales de matrices


4. Los vectores la de 5. El espacio la de

Prerrequisitos

es

son linealmente independientes. Rn , es decir, F(A) = Rn .

6. Los vectores columna de 7. El espacio columna de 8. El rango de la matriz 9.

A son linealmente independientes. A es Rn , es decir, C(A) = Rn . A es n. Ax = 0


tiene la nica solucin

N (A) = {0}. x = 0. y Rn ,

10. El sistema de ecuaciones lineales 11. Para todo

El sistema de ecuaciones lineales

Ax = y

tiene solucin.
Por ltimo, consideramos un mtodo para calcular una base de cada uno de los espacios fundamentales de una matriz consiste en efectuar los pasos siguientes: Paso 1 Paso 2 Forme la matriz

mn arbitraria A. El mtodo

AT | In

Efecte operaciones elementales sobre las las de la matriz anterior hasta obtener la forma escalonada reducida. Al nal se obtiene la matriz que podemos describir por bloques as:

Erm 0(nr)m
donde

. . . . . .

Prn P(nr)n

r = (A). Erm
conforman una base para

Los vectores la de la matriz

C(A)

y los vectores la de la matriz

P(nr)n

conforman una

base para

N (A). [A | Im ]
se obtienen sendas bases

Al llevar a cabo el paso 2 con la matriz para

C(AT ) = F(A)

N (AT ).

24

CAPTULO 2

Matrices particionadas. Traza de una matriz


Este captulo consta de tres secciones. Las dos primeras versan sobre matrices particionadas. La tercera seccin trata sobre la traza de una matriz. Consignaremos aqu los principales resultados sobre la traza de una matriz. Existen razones para querer particionar una matriz son: (i) La particin puede simplicar la escritura de puede puede

A, algunas de ellas A. (ii) La particin exhibir detalles particulares e interesantes de A. (iii) La particin permitir simplicar clculos que involucran la matriz A.

2.1. Submatrices. Operaciones con matrices particionadas


A veces es necesario considerar matrices que resultan de eliminar algunas las y/o columnas de alguna matriz dada, como se hizo por ejemplo, al denir el menor correspondiente al elemento

aij

de una matriz

A =

[aij ]mn
2.1.1.

(vase el apartado 1.1.3 del captulo 1).

Denicin. Ejemplo.

Sea

una matriz. Una submatriz de

es una matriz

que se puede obtener al suprimir algunas las y/o columnas de la matriz

A.
2.1.2. Las matrices

S1 , S2 2 6 0

S3 dadas 4 8 . 2

a continuacin, sonson

submatrices de la matriz

1 A= 5 9 S1 = 1 9 2 0 4 2

3 7 1 A

(suprimiendo en

la la 2 y la columna 3)

25

2.1. Submatrices
S2 = 1 9 2 6 2 0 3 7 3 7 4 8
(suprimiendo en

Matrices particionadas
A
la la 3)

S3 =

(suprimiendo en

la la 3 y las columnas 1 y 4).

Dada una matriz

A = [aij ]mn ;

mediante un sistema de rectas horizon-

tales o verticales podemos particionarla en submatrices de ilustra en el siguiente ejemplo:

A,

como se

a11 a21 = a31 a41 a51

. . . . . . . . .

a12 a22 a32 a42 a52

a13 a23 a33 a43 a53

. . . . . . . . .

. . . . . .

. . . . . .

a14 a24 a34 a44 a55

Hecho esto, podemos escribir, usando una notacin obvia:

A=
donde

A11 A21

A12 A22

A13 A23

A11

a11 = a21 , a31

A12

a12 = a22 a32

a13 a23 , a33

A13

a14 = a24 , a34

A21 =

a41 a51

A22 =

a42 a52

a43 a53

A23 =

a44 a55

Debe ser claro para el lector, que una matriz puede ser particionada de diferentes maneras, por ejemplo: 26

Matrices particionadas

2.1. Submatrices

A =

1 2 1 1

2 0 2
. . . . . .

3 3 3 2 0 2

4 0 1

1 2 0 2

. . . . . .

3 3 3

4 0 1

. . . . . .

1 = 2 1 1 3 3 3 4 0 1 5 1 1

. . .

. . .

5 1 . 1

A =

2 1

. . .

Tal vez, la principal conveniencia de particionar matrices, es que se puede operar con matrices particionadas como si las submatrices fuesen elementos ordinarios, tal como se establece en el teorema siguiente. 2.1.3.

Teorema.
1. Si las matrices

B
.. .

estn particionadas as:

A11 A21 A= . . . Am1

A12 A22
. . .

Am2

A1n B11 B21 A2n y B= . . . . . . Amn Bm1

B12 B22
. . .


.. .

Bm2

B1n B2n . . . Bmn

Aij +Bij estn denidas para i = 1, 2, . . . , m, j = 1, 2, . . . , n, entonces A11 + B11 A12 + B12 A1n + B1n A21 + B21 A22 + B22 A2n + B2n A+B = . . . . .. . . . . . . . Am1 + Bm1 Am2 + Bm2 Amn + Bmn
y si las sumas
2. Si las matrices

B
.. .

estn particionadas as:

A11 A21 A= . . . Am1

A12 A22
. . .

Am2

A1n B11 B21 A2n y B= . . . . . . Amn Bn1


27

B12 B22
. . .


.. .

Bn2

B1s B2s . . . Bns

2.1. Submatrices

Matrices particionadas
Aik es igual al nmero Bkj ; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j = C12 C22
. . .

y si el nmero de columnas de cada bloque de las de cada bloque

1, 2, . . . , s,

entonces

C11 C21 AB = . . . Cm1


n


.. .

Cm2

C1s C2s , . . . Cms

donde

Cij =

Aik Bkj . es un escalar,

k=1 3. Si la matriz A est particionada como en (1) y si

entonces

A11 A21 A = . . . Am1


4. Si la matriz

A12 A22
. . .


.. .

Am2 AT 21 AT 22
. . . AT 2m

A1n A2n . . . . Amn AT n1

est particionada como en (1) , entonces

AT

AT 11


.. .

T A12 = . . . AT 1m

AT n2 . . . . AT nm

Los incisos (1), (3) y (4) del teorema anterior son fciles de vericar. La demostracin del inciso (2) es laboriosa y no la haremos. Sin embargo, el lector interesado puede consultar una indicacin de dicha demostracin en [

10] pgina 19.

A continuacin ilustraremos el inciso (2) de dicho teorema. Si

1 A= 2 1

. . . . . .

0 0 2

0 0 1

. . . . . .

0 3 0
28

. . .

. . .

3 A 4 = 11 A21 0

A12 A23

A13 A23

Matrices particionadas
y

2.2. Determinantes

B=
entonces

1 0 1 0 1

2 0 3 1 2

B11 = B21 B31

AB
pues

A11 B11 + A12 B21 + A13 B31 A21 B11 + A22 B21 + A23 B31 1 2 0 0 0 3 [1] 2 0 1 1 0 0 0 3 4 2 1 2 = 1 2 1 0 3 1 2 2 = =

4 = 2 2 2 4 0 0

8 7 5

A11 B11 A12 B21 A13 B31 A21 B11 A22 B21 A23 B31

= = = = = =

2 0 1 0 1 = 0 1 0 1

= 0 3

, 0 0 3 4 , 6 1 ,

1 0

, 0 .

2.2. Determinantes e inversas de algunas matrices especiales


En algunas situaciones es conveniente utilizar matrices particionadas para describir determinantes e inversas de ciertas matrices en trminos de las submatrices. En particular, los teoremas 2.2.3 y 2.2.8, son usados en la deduccin de las distribuciones condicionales de un vector aleatorio con distribucin normal multivariante (vase el Teorema 3.6.1 de [ ]) 29

2.2. Determinantes

Matrices particionadas

El lector recordar, que el determinante de una matriz triangular (superior o inferior) es justamente el producto de los elementos de la diagonal principal. El siguiente teorema, por ejemplo, lo podramos ver como una "generalizacin" de dicho resultado. 2.2.1.

Proposicin.
1. Si

Sean

matrices cuadradas,

M= M=

A 0 A B

B C 0 C

, ,

entonces

|M | = |A||C|. |M | = |A||C|.

2. Si

entonces

Demostracin. Para la demostracin del literal (1) usamos induc-

cin sobre el orden

de la matriz

M.
donde

Si

n=2

tenemos que

|M | = ac = |A| |C| A 0 B C =

M=

a 0

b c

Supongamos ahora que (1) es vlida para vlida para

n=k

y demostremos que es

n = k + 1.

Sea

n = k + 1 particionada como en (1). C = [cij ]ss . Denotemos por B j a la j submatriz de B que se obtiene suprimiendo en B la columna j y por C a la submatriz de C que se obtiene suprimiendo en C la columna j y la la s, j = 1, 2, . . . , s.
una matriz cuadrada de orden Suponga adems que

B = [bij ]rs

Ahora, desarrollando el determinante de

por los cofactores de la la

(vase el Teorema 1.1.5(1)), obtenemos:

det(C) = cs1 (1)s+1 |C 1 | + cs2 (1)s+2 |C 2 | + . . . + css (1)s+s |C s |.

As mismo, desarrollando el determinante de la

por los cofactores de la

k+1

obtenemos: 30

Matrices particionadas

2.2. Determinantes

det(M )

cs1 (1)2(k+1)s+1 +cs2 (1)2(k+1)s+2

A 0 A 0

B1 C1 B2 C2 A 0

+ . . . + css (1)2(k+1)s+s
Utilizando la hiptesis de induccin se obtiene:

Bs Cs

det(M )

(1)2(k+1)2s cs1 (1)s+1 |A| |C 1 | + cs2 (1)s+2 |A| |C 2 | + . . . + css (1)s+s |A| |C s |

= |A| cs1 (1)s+1 |C 1 | + cs2 (1)s+2 |C 2 | + . . . + +css (1)s+s |C s | = |A| |C| .


Lo que completa la demostracin de (1). La demostracin de (2) se sigue del hecho de que ma 1.1.6(1)) y del inciso (1). En efecto, se tiene:

|M | = M T

(teore-

det(M )

= = = =

det(M T ) det A 0 B C

det(AT ) det(C T ) det(A) det(C)

2.2.2.

Ejemplo.

Use particin de matrices y los resultados de la proposi-

cin anterior para calcular el determinante de cada una de las matrices siguientes: 31

2.2. Determinantes

Matrices particionadas
5 7 , 3 5

7 M = 4 3

0 5 7

0 6 9

1 1 N = 0 0 0 = 6 9
. . . . . . . . . . . . . . .

2 3 0 0

4 6 2 3

las cuales se pueden particionar respectivamente como sigue:

7 M = 4 3
y

. . . . . . . . . . . .

0 5 7

A B

0 C

1 1 N = 0 0
Entonces

4 6 2 3 5 . 3 7 5 1 1 2 3 2 3 3 5

2 3 0 0

|M | = |7|

5 7

6 9

= 21

|N | =

= 1.

El siguiente teorema nos brinda una alternativa para calcular determinantes de matrices ms generales particionadas por bloques. 2.2.3.

Teorema.
1. Si 2. Si

Sean

matrices cuadradas y sea

M=

A C

B D

D es invertible, entonces |M | = |D| A BD1 C . A es invertible, entonces |M | = |A| D CA1 B .

Demostracin. Haremos slo la demostracin del literal (1), el se-

gundo resultado se verica de manera anloga y se deja como ejercicio al lector. 32

Matrices particionadas
Sea

2.2. Determinantes
0 I .
Entonces

S =

I D1 C

MS =

A BD1 C 0

B D

Ahora por el teorema 1.1.6(9) y por la proposicin anterior, se tiene :

|M | = |M | |I| |I| = |M | |S| = |M S| = |D| A BD1 C .

Los siguientes resultados son consecuencia inmediata de este teorema y sus vericaciones se dejan como ejercicio. 2.2.4.

Corolario.

Sean

A, B, C M=

matrices cuadradas de orden

y sea

la matriz dada por

A C

B D

1. Si 2. Si 3. Si 4. Si 2.2.5.

D es invertible y si DB = BD, entonces |M | = |DA BC|. A es invertible y si AC = CA, entonces |M | = |AD CB|. D = 0 y A es invertible, entonces |M | = (1)n |B| |C|. A = 0 y D es invertible, entonces |M | = (1)n |B| |C|.
Utilizando los resultados del corolario anterior encon-

Ejemplo.

tremos los determinantes para las matrices

1 M = 1 1
Particionemos entonces

2 3 1 M

4 5 1
y

M yN 1 2 1 3 N = 4 5 3 3

dadas por:

2 2 0 0

1 3 . 0 0

de adecuadamente. . . . . . .

Para

tomamos

1 1 1

2 3 1

. . .

4 5 = 1 3 4

A C

B D

, siendo

D = [1].

Puesto que

es una matriz invertible entonces,

|M | = |D| A BD1 C = |1|


33

2 2

= 2 .

2.2. Determinantes
1
Similarmente para

Matrices particionadas
2 3 5 3
. . . . . .

2 2 0 0 1 3 = 0 0

N, N =

1 4 3

. . . . . .

A C

B 0

siendo

A=

1 1

2 3

. Dado que

es invertible tenemos que

|M | = (1)2 |B| |C| = 12 .


2.2.6.

Proposicin.
1. La matriz

Sean

matrices cuadradas.

M=

A 0

B C

es invertible sii las matrices

son invertibles. Adems, si

es invertible entonces

M 1 =
2. La matriz

A1 0 A B 0 C

A1 BC 1 C 1

. A
y

M=

es invertible sii las matrices

son invertibles. Adems, si

es invertible entonces

M 1 =

A1 C BA1
1

0 C 1

La prueba de este resultado se propone como ejercicio. El ejemplo siguiente, nos ilustra el inciso (1) de la proposicin anterior. 2.2.7.

Ejemplo.

Verique que la matriz

1 1 M = 0 0

2 3 0 0

1 1 2 5

1 1 1 3

es invertible y calcule su matriz inversa. 34

Matrices particionadas
Observando la estructura de la matriz

2.2. Determinantes
M
podemos ver que una buena . . . . . .

1 1 particin es: M = 0 0
las matrices

2 3 0 0

1 1 2 5

. . . . . .

1 1 = 1 3 M

A 0

B C

. Puesto que

son invertibles, entonces

tambin lo es y adems,

M 1 =

A1 0

A1 BC 1 C 1

3 1 = 0 0

2 2 1 3 0 0 . 0 3 1 0 5 2

El siguiente teorema presenta una frmula para calcular inversas de matrices ms generales 2.2.8.

Teorema.
B=

Sea

una matriz invertible particionada as:

B11 B21

B12 B22

con

B11

B22

matrices invertibles.

Si

B 1

est particionada as:

B 1 =

A11 A21

A12 A22

, Bii

donde Aii (i = 1, 2), matrices cuadradas de igual orden que la matriz respectivamente entonces:

1. Las matrices 2. Las matrices

A11 y A22 son invertibles. 1 1 B11 B12 B22 B21 y B22 B21 B11 B12
est dada por
1

son inver-

tibles.
3. La matriz

B 1

1 B11 B12 B22 B21

1 1 B11 B12 B22 B21 B11 B12 1 1 B22 B21 B11 B12 1

1 1 B22 B21 B11 B12 B22 B21

35

2.2. Determinantes
Demostracin. De la igualdad

Matrices particionadas

BB 1 =

B11 B21

B12 B22

A11 A21

A12 A22 = = = =

I 0

0 I

=I

se obtienen las igualdades

(2.1)

B11 A11 + B12 A21 B21 A11 + B22 A21 B11 A12 + B12 A22 B21 A12 + B22 A22

I 0 0 I
1 B22 , se obtiene

Ahora, premultiplicando ambos miembros de (2.1(b)) por :

1 B22 B21 A11 + A21 = 0,


Sustituyendo

o sea,

1 A21 = B22 B21 A11 .

A21

en (2.1(a)), se obtiene

1 B11 B12 B22 B21 A11 = I .


Esto quiere decir que las matrices y que una es la inversa de la otra. Premultiplicando ambos miembros de (2.1(c)) por

1 B11 B12 B22 B21

A11

son invertibles

1 B11 ,

se obtiene :

1 A12 + B11 B12 A22 = 0,

o sea,

1 A12 = B11 B12 A22 .

Sustituyendo

A12

en (2.1(d)), se obtiene:

1 B22 B21 B11 B12 A22 = I .


Esto quiere decir que las matrices y que una es la inversa de la otra. Por lo anterior,

1 B22 B21 B11 B12

A22

son invertibles

1 A11 = B11 B12 B22 B21

1 1 A12 = B11 B12 B22 B21 B11 B12 1 1 A22 = B22 B21 B11 B12 1

1 1 A21 = B22 B21 B11 B12 B22 B21

A continuacin enunciamos y demostramos un teorema que involucra matrices particionadas y el rango de una matriz. 36

Matrices particionadas
2.2.9.

2.3. Traza de una matriz


matriz in-

Teorema.
r r.
Si

vertible

A11 A12 , donde A11 es una A21 A22 (A) = (A11 ), entonces A22 = A21 A1 A12 . 11
Sea

A=

Demostracin. Puesto que

A11

es una matriz invertible, entonces

(A11 ) = r

(ver teorema 1.4.8).

Ahora, las matrices

I A21 A1 11
y la matriz

0 I

PQ =

I 0

P =

A1 A12 11 I

son invertibles, puesto que teorema 1.4.5, la matriz

|P | = |Q| = 1 = 0. A11 0

En consecuencia, por el

P AQ =

0 A22 A21 A1 A12 11

tienen rango

r.

Puesto que el nmero mximo de las linealmente inde-

pendientes de las matrices tonces necesariamente

P AQ y A11 es r (vase el teorema 1.4.5(2)), enA22 A21 A1 A12 = 0, o sea A22 = A21 A1 A12 . 11 11

2.3. Traza de una matriz


En ciertos contextos, la suma de los elementos de la diagonal de una matriz juega un papel importante. Por ejemplo, la traza de una matriz aparece en la evaluacin de las integrales requeridas en el estudio de la distribucin normal multivariante (vase el teorema 1.10.1 de [ ]) y el valor esperado de formas cuadrticas (vase el teorema 4.6.1 de [ ]).

3 4

Sea A una matriz cuadrada. La traza Tr(A) y se dene como la suma de los elementos principal de A. sto es,
2.3.1.

Denicin.

de

se deno-

ta por

de la diagonal

Tr(A) =
s=1
2.3.2.

ss

. A
son

Nota.

Puesto que los elementos de la diagonal principal de

los mismos que los elementos de la diagonal principal de

AT ,

entonces

Tr(A) = Tr(AT ) .
37

2.3. Traza de una matriz


2.3.3.

Matrices particionadas
y

Teorema.

Sean

son matrices cuadradas del mismo orden.

Si

son escalares, entonces

Tr(A + B) = Tr(A) + Tr(B) .

Demostracin. Usando la estructura de espacio vectorial de las ma-

trices, as como la denicin de traza se tiene:

Tr(A + B)

=
s=1 n

A + B ( A
s=1 n

ss

= = =

ss

+ B
n

ss )

A
s=1

ss + s=1

ss

Tr(A) + Tr(B) .

2.3.4.

Teorema.

Si

es una matriz

mn

es una matriz

nm

entonces

Tr(AB) = Tr(BA) .

Demostracin. Usando la denicin de traza y la denicin de pro-

ducto de matrices obtenemos,

Tr(AB)

=
s=1 n

AB
m

ss

=
s=1 k=1 m n

A B
k=1 s=1 m

sk

B A

ks

= =
k=1

ks

sk

BA

kk

= Tr(BA) .

38

Matrices particionadas
2.3.5.

2.4. Ejercicios
cuadrada de orden

Corolario.

matriz invertible

Sea A una matriz n n, entonces

n.

Si

es una

Tr(A) = Tr(P 1 AP ) = Tr(P AP 1 ).


Demostracin. Por el teorema anterior,

Tr(A)

= =

Tr(AI) = Tr(AP P 1 ) = Tr(P 1 AP ) Tr(P P 1 A) = Tr(P 1 P A) = Tr(P AP 1 ). m n,


n

2.3.6.

Corolario.

Si

es una matriz

entonces
m

Tr(AAT ) = Tr(AT A) =
s=1 k=1

2 sk

Adems,

Tr(AAT ) = 0

sii

A = 0.

Demostracin. Por denicin de traza y por el teorema 2.3.4,

Tr(AAT )

=
s=1 m

AAT
n

ss m n 2 sk

=
s=1 k=1
Esto es,

sk

AT

ks

=
s=1 k=1

Tr(AAT )

es la suma de los cuadrados de los elementos de

esto se sigue entonces que,

A. De Tr(AAT ) = Tr(AT A) y adems que Tr(AAT ) =

si y slo si

A = 0.

2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la matriz inversa (si existe) de cada una de las matrices siguientes :

5 3 M1 = 3 2

3 0 0 2 0 0 2 2 1 1 5 3

3 1 2 1 M2 = 0 0 0 0

1 1 1 1 1 1 4 5

2. Demuestre el inciso (2) del teorema 2.2.3. 3. Demuestre el corolario 2.2.4. 4. Demuestre la proposicin 2.2.6. 39

2.4. Ejercicios
5. Sean

Matrices particionadas
a, b, c
y

escalares no nulos y sea

n N.

Calcule el deter-

minante y la matriz inversa, cuando exista, de la matriz

M=
6. Sean

aIn cIn

bIn dIn

.
una matriz cuadra-

A una matriz cuadrada de orden n y B k.


Demuestre que si

da de orden

M =

0 B

A C

o si

M =

C B
7. Sean

A 0 A
y

, entonces

|M | = (1)nk |A| |B|. B ).

(Sug.: Utilice induc-

cin sobre el orden de la matriz

matrices cuadradas.

a ) Dar condiciones necesarias y sucientes para que la matriz

M=
sea invertible. Si de las matrices

0 B

A C
exprese

M es invertible, A, B y C . C B A 0

M 1

en trminos

b ) Dar condiciones necesarias y sucientes para que la matriz

M=
sea invertible. Si de las matrices

M es invertible, A, B y C .

exprese

M 1

en trminos

8. Utilice los resultados que obtuvo en el problema anterior para calcular la matriz inversa de cada una de las matrices siguientes:

0 0 M1 = 5 3
9. Sean

0 0 3 2

2 5 3 2

1 3 2 1

1 1 M2 = 3 2

1 1 1 1 4 5 . 1 0 0 1 0 0

A = [aij ]mn y B = [bij ]nk . Utilice matrices particionadas A B


tiene una la nula, entonces

para demostrar que:

a ) Si b ) Si

AB

tiene una la nula.

(Sug.: Particione la matriz

por las).

tiene una columna nula, entonces

na nula. (Sugerencia: Particione la matriz 40

AB tiene una columB por columnas).

Matrices particionadas
10. Sean

2.4. Ejercicios
Demuestre que si

A11 , A22 y A33 matrices cuadradas. A11 A12 A13 A11 A22 A23 M = A21 M = 0 0 0 A33 A31
entonces tonces

0 A22 A32

0 0 A33
en-

11. Demuestre que si

|M | = |A11 | |A22 | |A33 |. A11 , A22 y A33 son matrices invertibles, la matriz M = diag (A11 , A22 , A33 ) es invertible y 1 A11 0 0 M 1 = 0 A1 0 22 0 0 A1 33
y

12. Sean

aR

Ann a y

una matriz invertible, entonces

det

x A

= |A| (a xA1 y).

(Sugerencia: Use el teorema 2.2.3) 13. Verique que

det

I B

A C

= det(C BA).

(Sugerencia: Use el corolario 2.2.4) 14. Muestre que

det
y concluya que

In A

B Im

= det

Im B

A In

|Im AB| = |In BA|. I


es la matriz identica y que

15. Suponga que las matrices que abajo aparecen son de tamao apropiado, donde

A11

es una matriz

invertible. Encuentre matrices

tales que el producto que

sige tiene la forma indicada. Encuentre adems

I X Y

0 0 A11 I 0 A21 0 I A32

A12 B11 A22 = 0 A33 0

B12 B22 B32

B22 .

16. Demuestre que si 17.

A es una matriz invertible 2 2, entonces Tr(A) = det(A) Tr(A1 ). Sea V el espacio vectorial de las matrices n n; (V = Mnn ) . Demuestre que la funcin ; : V V M denida por A; B = Tr(AB T ) es un producto interno en V . (Vea el apartado
41

1.2.3 del captulo 1).

2.4. Ejercicios
18. Sean

Matrices particionadas
A
y

matrices cuadradas de orden

n.

Demuestre que

Tr(AB T ) (Tr(AAT ) Tr(BB T ))1/2 .


19. Si 20. Si

A, B Mnn , muestre que ABBA = I . (Sugerencia: Utilice

la funcin traza)

T : Mnn R es una transformacin lineal, entonces existe A tal que T (M ) = Tr(AM). (Escriba T (M ) en trminos de T (Eij ), siendo Eij los elementos de la base estndar
una matriz

de las matrices) 21. Calcule 22. Sean

a) b)

dim W , donde W = {A : Tr(A) = 0}. B matrices cuadradas del mismo orden k k Muestre que Tr((AB) ) = Tr((BA) ). k k k Muestre con un ejemplo que Tr((AB) ) = Tr(A B ). A
y

42

CAPTULO 3

Valores propios y vectores propios. Diagonalizacin


Este captulo consta de cuatro secciones. Con el n de dar una idea de lo que haremos en las dos primeras secciones, consideraremos un espacio vectorial

y una transformacin lineal

base ordenada

B = {u1 , u2 , . . . , un } 1 0 =D= . . . 0

de

T : U U. Ahora; si existe una U tal que [T ]BB es una matriz


.. .

diagonal, es decir,

[T ]BB

0 2
. . .

0 0 . , . . n

entonces

T (ui ) = i ui ;
esto es, de

i = 1, 2, . . . , n , ui .
Este hecho da informacin

T (ui )

es un mltiplo escalar de

inmediata acerca de la transformacin lineal

es el espacio generado por los vectores

T. ui

Por ejemplo, la imagen para los cuales

y el ncleo de lineales

es el espacio generado por los restantes vectores

i = 0, ui . En

la seccin 3.2 responderemos las preguntas: Para qu transformaciones

existe una tal base

B?

y si existe, Cmo encontrarla?. Las

respuestas a estas preguntas estn directamente ligadas a los conceptos de valor propio y vector propio, los cuales sern abordados en la seccin 3.1. Veremos en esta seccin, que el clculo de los valores propios y los vectores propios de una transformacin lineal

se reduce al clculo de

los valores propios y los vectores propios de una cierta matriz

A.

Por

otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor propio, vector propio y diagonalizacin de matrices simtricas, los cuales son particularmente importantes en la teora y en aplicaciones del lgebra lineal.

43

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

3.1. Valores propios y vectores propios


Un problema que se presenta con frecuencia en el lgebra lineal y sus aplicaciones es el siguiente: Dado un espacio vectorial macin lineal existan

U y dada una transforT : U U , encontrar valores de un escalar para los cuales vectores u = 0 tales que T (u) = u. Tal problema se denomina

un problema de valores propios (la gura 3.1 nos ilustra las posibles situaciones). En esta seccin veremos cmo resolver dicho problema. 3.1.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar es un valor propio de T , si existe un vector u = 0 de U tal que T (u) = u. A dicho vector no nulo u se le llama un vector propio de T correspondiente al valor propio , o se dice que es -vector de T .

Nota.

Los valores propios se denominan tambin eigenvalores o valores

caractersticos y los vectores propios se denominan tambin eigenvectores.

T(u)= u u

u T(u)= u T(u)= u

T(u)= 0 =0

>1

0<<1

<0

Figura 3.1. Interpretacin geomtrica de vector propio

3.1.2.

T : R2 R2 ,

Ejemplo.

Calcule los valores propios de la transformacin lineal

dada por

T (x, y) = (2x, x + 3y). es un vector propio T sii T [(x, y)] = (2x, x + 3y) = 2 vector u = (x, y) = 0 de R que

De acuerdo con la denicin anterior; el escalar existe un vector

u = (x, y) = 0

de

R2

tal que

(x, y),

lo que equivale a que exista un

satisfaga el sistema

2x x + 3y

= x = y .
44

Diagonalizacin de matrices
Ahora, si

3.1. Valores propios y vectores propios


=2
y por lo tanto

x = 0,

entonces se tiene que

y = x.

Esto

quiere decir que todos los vectores de la forma

u = (x, y) = (x, x); x R, x = 0


son 2-vectores propios de

T.

En efecto:

T [(x, x)] = (2x, 2x) = 2(x, x) .


De otro lado, si

x = 0 y y = 0 entonces = 3. Esto quiere decir que todos u = (x, y) = (0, y); y R, y = 0

los vectores de la forma

son 3-vectores propios de

T.

En efecto:

T [(0, y)] = (0, 3y) = 3(0, y) .

La gura 3.2 nos ilustra el ejemplo anterior.

y , T(u ) =3 (0, y)

, u = (0, y)

x u = (x, x) T(u) =2 (x, x)


Figura 3.2. Vectores propios de

T (x, y) = (2x, x + 3y)

45

3.1. Valores propios y vectores propios

Diagonalizacin de matrices
T
le cor-

En el ejemplo anterior observamos que a cada vector propio de

responde un nmero innito de vectores propios (todo un subespacio de

U R2 , sin el vector nulo). Esto es vlido en general, tal como se establece


en la proposicin siguiente. 3.1.3.

Proposicin.

propios de

Sean

un espacio vectorial,

formacin lineal y

-vectores

un valor propio de

T.

El conjunto

junto con el vector

0,

es

T : U U una transS() de todos los un subespacio de U.

Demostracin. De acuerdo con la denicin de transformacin lin-

eal, as como de vector y valor propio se tiene: 1. Si

u1 S()

u2 S()

entonces

T (u1 + u2 ) = T (u1 ) + T (u2 ) = (u1 + u2 ) .


Esto es, 2. Si

u1 + u2 S(). u S() y R entonces T (u) = T (u) = ( u) . u S(). S() es un subespacio vectorial de U. T :U U


una transfor-

Esto es,

De acuerdo con el teorema 1.2.6, 3.1.4.

Denicin.

Sean

un espacio vectorial,

macin lineal y

un valor propio de

T.

1. El subespacio de 2. La dimensin de

U, S(), S()

mencionado en el teorema anterior, se

denomina espacio propio asociado al valor propio valor propio

se denomina multiplicidad geomtrica del

3.1.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB , la matriz de la transformacin T referida a la base B. Entonces para cada u U se tiene [T (u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un -vector propio de T si y slo si u = 0 y A [u]B = [T (u)]B = [u]B = [u]B . Esto es, u es un -vector propio de T si y slo si u = 0 y A [u]B = [u]B . Por esta razn, y porque resulta en otros contextos, consideramos a continuacin los conceptos particulares de valor propio y vector propio de una matriz cuadrada A.

46

Diagonalizacin de matrices
3.1.6.

3.1. Valores propios y vectores propios


n.

Denicin.
1. 2.

Sea

una matriz cuadrada de orden

Se dice que el escalar es un valor propio de A, si existe un vector n 1, x = 0 tal que Ax = x. Si es un valor propio de A y si el vector n 1, x = 0 es tal que Ax = x. Entonces se dice que x es un vector propio de A correspondiente al valor propio , o que x es un -vector de A.
A : Rn Rn ; x y =

En el caso especial de la transformacin lineal;

Ax,

esta la denicin anterior concuerda con la denicin 3.1.1 (vase la

seccin 1.3). De otro lado, segn la denicin anterior y la nota 3.1.5, odemos enunciar el siguiente teorema. 3.1.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB .

1. 2.

es un valor propio de T sii es un valor propio de A. u U es un -vector propio de T sii x = [u]BB es un -vector propio de A.

Dicho teorema nos garatiza entonces, que el clculo de los valores y vectores propios de una transformacin lineal se reduce al clculo de los valores y vectores propios de una cierta matriz

A.

En lo que sigue, veremos

cmo calcular los valores y vectores propios de una matriz.

A una matriz n n. Por denicin, el escalar es un valor propio A sii existe un vector n 1, x = 0 tal que Ax = x, lo cual equivale a que el sistema homogneo de ecuaciones lineales (A I)x = 0 tenga una solucin no trivial x = 0. Ahora por el teorema 1.4.8 del captulo 1, el sistema de ecuaciones lineales (A I)x = 0 tiene una solucin x = 0 sii |A I| = 0. En consecuencia, el escalar es un valor propio de A sii
Sea de

pA () = |A I| =

a11 a21 a31


. . .

a12 a22 a32


. . .

a13 a23 a33


. . .


.. .

a1n a2n a3n


. . .

=0

an1

an2
47

an3

ann

3.1. Valores propios y vectores propios


La expresin

Diagonalizacin de matrices

de grado

pA () = |A I|

es un polinomio en

n,

el cual

puede expresarse as (ver ejercicio 3.5(9)).

pA () = |A I| = a0 + a1 + a2 2 + + an1 n1 + (1)n n .
3.1.8.

Denicin.

Sea

una matriz cuadrada caraccarac-

1. El polinomio

2.

pA () = |A I| se denomina polinomio A. La ecuacin pA () = |A I| = 0 se denomina ecuacin terstica de A.


terstico de

El siguiente teorema resume buena parte de la discusin anterior. 3.1.9.

Teorema.

Sea

una matriz cuadrada de orden

n
1

1. El escalar 2. 3.1.10.

es un valor propio de

de la ecuacin caracterstica de

A A.

sii

es una solucin (real)

tiene a lo ms Sea

valores propios (reales) .

Denicin.
A

una matriz cuadrada y

un valor propio de

A.

La multiplicidad algebraica de

es

k,

si

es una raz del polinomio

caracterstico de

de multiplicidad

k.

El siguiente algoritmo, recoge entonces el esquema para calcular los valores propios y los vectores propios de una matriz Paso 1 Paso 2 Paso 3

A.

pA () = |A I| . pA () = |A I| = 0. Las soluciones (reales) de sta, son los valores propios de A. Para cada valor propio de la matriz A, se resuelve el sistema de ecuaciones (A I)x = 0. Las soluciones no nulas de este sistema son los vectores propios de A.
Se determina el polinomio caracterstico Se resuelve la ecuacin caracterstica

1Un valor propio de A es un escalar, y, como hemos establecido, en estas notas los escalares sern nmeros reales a menos que se exprese lo contrario. De hecho, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. No sobra mencionar que en cursos avanzados de espacios vectoriales, la nica restriccin para los escalares es que sean elementos de un sistema matemtico llamado cuerpo o campo. 2El teorema fundamental del lgebra establece que toda ecuacin polinmica de grado n, con coecientes complejos, tiene exactamente n races complejas, contadas con sus multiplicidades.
48

Diagonalizacin de matrices
3.1.11. matriz

3.1. Valores propios y vectores propios

Ejemplo.

Determine los valores propios y vectores propios de la

1 A = 1 1

1 3 2

1 1 . 0

A, pA () = |A I| . Desarrollemos |A I| por cofactores por la primera la (vase


Determinemos inicialmente, el polinomio caracterstico de el teorema 1.1.5)

pA ()

= |A I| = (1 )

1 1 1 1

1 3 2 1

1 1 1 1 1 1 1 1 3 2

= = =
terstica de

3 2

(1 )(2 3 + 2) (1 ) ( + 1) (1 )(2 3 + 2) = (1 )2 ( 2).

De aqu se tiene, que

= 1 = 2 son las soluciones de la ecuacin caracpA () = |A I| = 0. = 1 y = 2 so pues los valores propios A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente. A. Los 1vectores propios de A son (A 1 I)x = 0.

Determinemos los vectores propios de

las soluciones no nulas del sistema de ecuaciones lineales Jordan (vase el teorema 1.4.7 ).

Resolvamos dicho sistema usando el mtodo de eliminacin de Gauss-

0 A 1 I = 1 1
Donde

1 2 2

1 1 1

1 0 0

0 1 0

1 1 = R 0 A1I
(vase el

es la forma escalonada reducida de la matriz

teorema 1.1.10).

Las soluciones del sistema de la forma:

(A 1 I)x = 0

son, por lo tanto, los vectores

x =

x1 x3 1 x2 = x3 = x3 1 , x3 x3 1
49

x3 R.

3.1. Valores propios y vectores propios


En consecuencia,

Diagonalizacin de matrices

U1
es una base para propio

1 = U1 = 1 1
y la multiplicidad geomtrica del valor

1 = 1

es

S(1 ) = S(1) 1. 2vectores

De otro lado, los

propios de

del sistema de ecuaciones lineales el clculo anterior, se tiene:

A son las soluciones no nulas (A 2 I)x = 0. Procediendo como en 1 0 0 0 1 0 0 1 = R 0


Las

A2I =
Donde

1 1 1

1 1 2

1 1 2

es la forma escalonada reducida de la matriz

soluciones del sistema

A 2 I. (A 2 I)x = 0 son los vectores de la forma: x1 0 0 = x2 = x3 = x3 1 , x3 R. x3 x3 1 0 = U2 = 1 1

En consecuencia,

U2
es una base para propio

2 = 2

es

S(2 ) = S(2) 1.

y la multiplicidad geomtrica del valor

En el ejemplo anterior, la multiplicidad geomtrica del valor propio dad geomtrica del valor propio

1 = 1

es menor que su correspondiente multiplicidad algebraica y la multiplici-

2 = 2

es igual que su correspondiente

multiplicidad algebraica (ver el ejercicio 3.5.2(10)). 3.1.12.

Ejemplo.

Calculemos los valores y vectores propios de la matriz

A=

0 1

1 0 1

. A, pA () = |A I| .

Para ello calculemos el polinomio caracterstico de

pA ()

= |A I| =
50

= 2 + 1 ,

Diagonalizacin de matrices

3.1. Valores propios y vectores propios


A, pA () = |A I| = 0 sii =i

y resolvemos la ecuacin caracterstica de

pA () = 2 + 1 = ( + i)( i)
entonces

= i.

Puesto que las soluciones de la ecuacin caracterstica de

A no son reales,

no tiene valores propios y por lo tanto no tiene vectores pro-

pios, en el sentido considerado en este texto. 3.1.13.

Ejemplo.

Sea

T : P2 P2

la transformacin lineal denida por:

T a + bx + cx2 = (a + b c) + (a + 3b c)x + (a + 2b)x2


Determine los valores y los vectores propios de la transformacin. Sea

B = 1, x, x2

la base cannica de

P2 ,

se tiene entonces que:

[T ]BB

1 = A = 1 1

1 1 3 1 . 2 0 A,
los cuales son, segn

De acuerdo con el teorema 3.1.7(1); los valores propios de la transformacin lineal

son los valores propios de la matriz

el ejemplo 3.1.11

1 = 1

2 = 2. U1 = {x1 } S(2 ), donde 0 x2 = 1 . 1 B


es una base

De otro lado, del ejemplo 3.1.11 se sabe que de

S(1 )

y que

U2 = {x2 } es una 1 x1 = 1 1

base de

Como se estableci en el teorema 3.1.7(2), stos son respectivamente, los vectores de coordenadas respecto a la base vectores de (vase apartado 1.2.2) de los

P2 ; u1 = 1 + x + x2
y

u2 = x + x2 .

U1 = {u1 } = 1 + x + x2 es una base del espacio de vectores propios de T correspondientes al valor propio 1 = 1 y U2 = {u2 } = x + x2 es una base del espacio de vectores propios de T correspondientes al valor propio 2 = 2.
En consecuencia; Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona los polimomios caractersticos de matrices semenjantes y el segundo relaciona los vectores propios de dichas matrices. 51

3.1. Valores propios y vectores propios


3.1.14.

Diagonalizacin de matrices

Teorema.
y

Si

nomios caractersticos de trices

B son matrices semejantes, entonces los poliA y B son iguales, y por consiguiente, las ma-

tienen los mismos valores propios.

Demostracin. Si

son matrices semejantes, entonces existe

una matriz invertible

tal que

B = P 1 AB.
1

De aqu:

pB ()

= |B I| = P =

AP P 1 P

P 1 (A I)P = |P 1 | |A I| |P |

= |P 1 | |P | |A I| = |A I| = pA ().

3.1.15.

Nota.

El converso del teorema anterior no es cierto; o sea, si

B A

son matrices con el mismo polinomio caracterstico, no necesariamente y

son matrices semejantes. Para mostrar esto, basta considerar el

siguiente ejemplo. 3.1.16.

Ejemplo.

Las matrices

A= ( 1)2 .

1 0 A
y

0 1 B

B=

1 3

0 1 pA () = pB () =

tienen el mismo polinomio caracterstico; explcitamente Sin embargo, cualquier matriz invertible

no son matrices semejantes, pues para

de orden

se tiene que:

P 1 AP = P 1 IP = P 1 P = I = B.
3.1.17.

Proposicin.
x
es un

Si

tonces

vector

B = P 1 AP son matrices semejantes, en1 propio de A sii P X es un vector propio de A


y

B.
Demostracin. Por denicin se tiene

Ax = x

AIx = x AP P 1 x = x P 1 AP P 1 x = P 1 x

Tomando de

si y

B = P 1 AP tenemos entonces que: x = 0 es un -vector propio 1 slo si P x = 0 es un -vector propio de B = P 1 AP.


52

Diagonalizacin de matrices

3.2. Diagonalizacin

3.2. Diagonalizacin
En esta seccin responderemos las preguntas siguientes: Dado un espacio vectorial

y dada una transformacin lineal

T :U U

Existe una base

de

tal que

[T ]BB

es una matriz diagonal? y si existe cmo encontrar

una tal base? Como se estableci en el teorema 1.3.14(2), si formacin lineal, y

B1

P = [I]B2 B1 , entonces D son semejantes.

T : U U es una transB2 son bases ordenadas de U, A = [T ]B1 B1 y D = [T ]B2 B2 = P 1 AP, esto es, las matrices A

Esta consideracin nos permite formular las preguntas anteriores en tr-

A, Existe una matriz D semejante a la matriz?, en otros trminos, existir una matriz 1 invertible P tal que P AP = D sea una matriz diagonal? y si existe cmo encontrar una tal matriz P ?
minos de matrices, as: Dada una matriz cuadrada diagonal 3.2.1.

Denicin.
A

Sea

una matriz cuadrada. Diremos que

es diago-

nalizable si
3.2.2.

es semejante a una matriz diagonal. Sea

Teorema.

una matriz cuadrada de orden

n.

Si existen

vectores propios de

linealmente independientes, entonces A es diago1 nalizable; esto es, existe una matriz invertible P tal que P AP = D es una matriz diagonal. Adems, los vectores columna de propios de

son los vectores

y los elementos de la diagonal de

son los correspondientes

valores propios de

A.

Demostracin. Sean

1 , 2 , . . . ,n ,

los

valores propios de

A,

los cuales no son necesariamente diferentes y sean tores propios de

x1 , x2 , . . . , xn ,

vec-

linealmente independientes, correspondientes respecti-

vamente a cada uno de dichos valores propios. Sea ahora

P la matriz cuya jsima columna es j = 1, 2, . . . , n, la cual particionamos como sigue: P =


Puesto que las columnas de

el vector propio

xj ,

x1 P

x2

xn

son linealmente independientes, entonces

es invertible (teorema 1.4.8). 53

3.2. Diagonalizacin
Ahora,

Diagonalizacin de matrices

AP

= =

x1 Ax1

x2 Ax2

xn Axn = 0 2
. . .

1 x1
.. .

x1

x2

xn

1 0 . . . 0

2 x2 0 0 . . . 3

n xn

=
Donde

PD

D es la matriz diagonal indicada arriba. Por lo tanto, P 1 AP = D,

y el teorema queda demostrado.

El recproco de este resultado tambin es vlido y est dado por el siguiente teorema. La demostracin se deja como ejercicio.

A una matriz cuadrada de orden n. Si A es diagonaP tal que P 1 AP = D es una matriz diagonal, entonces existen n vectores propios de A linealmente independientes. Adems, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. 4 1 2 5 6 es 3.2.4. Ejemplo. Veriquemos que la matriz A = 6 6 3 4 1 diagonalizable y encontremos una matriz invertible P tal que P AP = D sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
3.2.3.

Teorema.

Sea

lizable, es decir, si existe una matriz invertible

propios linealmente independientes. En efecto: El polinomio caracterstico de

A,

est dado por

pA () = |A I| =

4 6 6

1 5 3

2 6 4

= ( 2)2 ( 1).

La ecuacin caracterstica de como solucin a

=2

(de multiplicidad 2) y a

1). Estos escalares son pues,

A, pA () = |A I| = 0 tiene entonces = 1 (de multiplicidad los valores propios de A.

Determinemos ahora los vectores propios asociados:

54

Diagonalizacin de matrices
Los 2-vectores propios de ecuaciones

3.2. Diagonalizacin
son las soluciones no nulas del sistema de

(A 2I)x = 0,

y los 1-vectores propios de

son las soluciones

no nulas del sistema de ecuaciones son respectivamente:

(A 1I)x = 0.

Es decir, debemos re-

solver sistemas homogneos de ecuaciones cuyas matrices de coecientes

2 A 2I = 6 6

1 3 3

2 6 6

3 A 1I = 6 6

1 4 3

2 6 . 5 (A 2I)x = 0

Es fcil vericar que las soluciones del sistema homogneo son los vectores de la forma

1 x1 2 x2 x3 x2 = x2 = x3 x3 1 1 1 x2 2 + x3 0 = 2 1 0

, x2 , x3 R,

en consecuencia,

U1
es una base para

1 1 = U2 = 2 , 0 1 0

S(1 ) = S(2). (A 1I)x = 0

De otra parte, se encuentra que las soluciones del sistema son los vectores de la forma

1 x1 1 3 x3 1 3 , x3 R. x = x2 = x3 = x3 3 x3 3 x3
En consecuencia,

U2
es una base para

1 = U1 = 3 3

S(2 ) = S(1).
55

3.2. Diagonalizacin
Ahora, los vectores

Diagonalizacin de matrices

1 1 x1 = 2 , x2 = 0 0 1
son vectores propios de

1 x3 = 3 3 2, 2
y

correspondientes a los valores propios

1,

respectivamente, y son linealmente independientes como se comprueba

fcilmente. De acuerdo con el teorema 3.2.2, la matriz

es diagonalizable. Por otro

lado, segn la demostracin del teorema, la matriz

P =

x1

x2

x3

1 = 2 0 0 2 0

1 0 1

1 3 3

es invertible y es tal que:

2 P 1 AP = D = 0 0
3.2.5.

0 0 . 1

Ejemplo.

La matriz del ejemplo 3.1.11,

1 A = 1 1
dos valores propios:

1 3 2

1 1 0 A
tiene

no es diagonalizable, pues vimos en dicho ejemplo, que la matriz

1 = 1 y 2 = 2, y 1 y U1 = 1 1

que

0 U2 = 1 1 A

son bases para los espacios propios asociados, respectivamente. As que slo tiene dos vectores propios linealmente independientes. 3.2.6.

Teorema.
A
y si

Si

una matriz

entes a los valores

1 , 2 , . . . , k son los valores propios diferentes de x1 , x2 , . . . , xk son vectores propios de A correspondipropios 1 , 2 , . . . , k , respectivamente, entonces C =
es un conjunto linealmente independiente.

{x1 , , x2 , . . . , xk }

Demostracin. Haremos la demostracin utilizando induccin so-

bre el nmero

de vectores del conjunto

C.

56

Diagonalizacin de matrices
Si

3.2. Diagonalizacin
x1 = 0.

C = {x1 },

entonces

es linealmente independiente, pues

El teorema es cierto para cuando (3.1)

k = 2.

En efecto: Si

1 x1 + 2 x2 = 0, 2
se obtiene:

premultiplicando (3.1) por el escalar (3.2)

2 1 x1 + 2 2 x2 = 0. A
se llega a:

De otra parte; premultiplicando (3.1) por la matriz (3.3)

1 1 x1 + 2 2 x2 = 0. (2 1 )1 x1 = 0.

Restando (3.3) de (3.2) se obtiene:

Puesto que que

entonces que

x1 = 0, entonces (2 1 )1 = 0. Dado que 1 = 2 se tiene 1 = 0. Reemplazando este valor de 1 en (3.1) se llega a 2 x2 = 0, pero x2 = 0, entonces 2 = 0. k = j
y de-

Supongamos ahora que el teorema es cierto para cuando mostremos que el teorema es cierto para cuando (3.4)

k = j +1.

Si

1 x1 + 2 x2 + . . . + j xj + j+1 xj+1 = 0, j+1


se obtiene:

premultiplicando (3.4) por el escalar (3.5)

j+1 1 x1 + j+1 2 x2 + . . . + j+1 j xj + j+1 j+1 xj+1 = 0, A


se llega a:

De otra parte; premultiplicando (3.4) por la matriz (3.6)

1 1 x1 + 2 2 x2 + . . . + j j xj + j+1 j+1 xj+1 = 0.

Restando (3.6) de (3.5) se obtiene:

(j+1 1 )1 x1 + (j+1 2 )2 x2 + . . . + (j+1 j )j xj = 0.


Por hiptesis de induccin se tiene

(j+1 1 )1 = (j+1 2 )2 = . . . = (j+1 j )j = 0 .


De otro lado, por hiptesis del teorema los escalares diferentes, entonces se obtiene que do estos valores en 3.4 se llega entonces

1 , . . . , j , j+1 son 1 = 2 = . . . = j = 0. Reemplazana que j+1 xj+1 = 0, pero xj+1 = 0,

j+1 = 0.

El teorema queda entonces demostrado.

La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.2.6 y 3.2.2. 57

3.2. Diagonalizacin
3.2.7.

Diagonalizacin de matrices
A
una matriz cuadrada de orden

Corolario. Ejemplo.

Sea

n.

Si

posee

valores propios distintos, entonces


3.2.8. La matriz

es diagonalizable.

1 A= 0 0
3

2 4 0

3 5 6 33 A
es:

es diagonalizable. En efecto, la ecuacin caracterstica de

pA () = |A I| = (1) ( 1)( 4)( 6) = 0.


De esto se sigue que

A tiene tres valores propios distintos, a saber: 1 = 1,

2 = 4

3 = 6. A

De acuerdo con los teoremas 3.2.2 y 3.2.3, dada la matriz cuadrada de orden

n;

existe una matriz invertible

tal que

P 1 AP = D

es una

matriz diagonal sii propios de de

Adems, si existe una tal matriz

y los

A tiene n vectores propios linealmente independientes. P , los vectores columna de P son vectores elementos de la diagonal de D son los valores propios

A.

Quedan as contestadas las preguntas propuestas al comienzo de

esta seccin sobre la diagonalizacin de matrices. El siguiente teorema responde a las preguntas sobre diagonalizacin pero formuladas en el contexto de las transformaciones lineales. 3.2.9.

Teorema.

Sea

un espacio de dimensin

y sea

una transformacin lineal. Existe una base ordenada

B2

de

T : U U U tal que

[T ]B2 B2 = D
ordenada de

es una matriz diagonal sii

ealmente independientes. Adems, si

T tiene n vectores propios linB2 = { u1 , u2 , . . . , un } es un base 0 2


. . .

tal que

[T ]B2 B2

1 0 =D= . . . 0 ui


.. .

0 0 . . . n
propio de T, o sea

es una matriz diagonal, entonces

es un

i -vector

T (ui ) = i ui , i = 1, 2, . . . , n.
Demostracin. Puesto que las matrices asociadas a transforma-

ciones lineales y referidas a bases arbitrarias son semejantes, y puesto que el polinomio caracterstico de matrices semejantes es el mismo (ver teorema 3.1.14), podemos considerar una base arbitraria 58

B1

para

U.

Diagonalizacin de matrices
Sea pues base

3.2. Diagonalizacin
T
referida a dicha

A = [T ]B1 B1 ,

la matriz de la transformacin

B1 , Existe 1 [I]B2 B1 A [I]B2 B1

una base ordenada

B2

de

es una matriz diagonal sii

U tal A es

que

D = [T ]B2 B2 =

semejante a una ma-

triz diagonal. Ahora por los teoremas 3.2.2 y 3.2.3; matriz diagonal sii lo cual equivale a

A es semejante a una A tiene n vectores propios linealmente independientes, que T tenga n vectores propios linealmente independi-

entes (ver el apartado 1.2.2) Adems, si

B2 = {u1 , u2 , . . . , un } es una base ordenada 1 0 0 0 1 0 [T ]B2 B2 = D = . . . .. . . . . . . . 0 0 1


; o sea,

de

tal que

es una matriz diagonal, entonces, de acuerdo con la denicin de la matriz

[T ]B2 B2 , T (ui ) = i ui i = 1, 2, . . . , n .
3.2.10.

ui

es un

i -vector

propio de

T,

Ejemplo.

Consideremos la transformacin lineal

T : P3 P3

denida por:

T a + bx + cx2 = (4a b + 2c) + (6a + 5b 6c)x + (6a + 3b 4c)x2 .


Encontremos una base ordenada una matriz diagonal. Sea

B2

de

U = P2

tal que

[T ]B2 B2 = D

es

B1 = 1, x, x2

la llamada base cannica de

4 A = [T ]B1 B1 = 6 6 1 1 x1 = 2 , x2 = 0 0 1
respectivamente a los valores propios los vectores de

1 5 3

P2 entonces: 2 6 , 4

que es la matriz del ejemplo 3.2.4. De dicho ejemplo sabemos que

1 x3 = 3 , 3 A,
correspondientes

son vectores propios linealmente independientes de

2, 2

1.

Los vectores

x1 , x2

x3
de

son respectivamente, los vectores de coordenadas respecto a la base

B1

P2 : u2 = 1 + x2
59 y

u1 = 1 + 2x;

u3 = 1 + 3x + 3x2 .

3.2. Diagonalizacin
Ahora, los valores propios de

Diagonalizacin de matrices
T
son los valores propios de

3.1.7), esto es, los diferentes valores propios de vectores propios de valores propios el teorema

De otro lado, por lo establecido en el apartado

A (ver teorema 1 = 2 y 2 = 1. 1.2.2, u1 , u2 y u3 son


son

T linealmente independientes, correspondientes a los 2, 2 y 1, respectivamente. En consecuencia, de acuerdo con anterior, B2 = {u1 , u2 , u3 } es una base para P2 tal que: 2 0 0 [T ]B2 B2 = D = 0 2 0 . 0 0 1 A de orden n, existe una P 1 AP = D es una matriz diagonal sii existen A linealmente independientes. En el caso en que A

Como hemos visto, dada una matriz cuadrada matriz invertible

tal que

vectores propios de

no posea

vectores propios linealmente independientes, es posible, bajo

A sea semejante a una matriz triangular superior T ; es decir , que A sea semejante a una matriz T = [tij ]nn para la cual tij = 0 si i > j. El siguiente teorema explicita esta armacin.
cierta condicin, que 3.2.11.

Teorema.

Sea

una matriz cuadrada (real) de orden

n.

Todas

las soluciones de la ecuacin caracterstica de A son reales sii existe una 1 matriz invertible P (real) tal que P AP = T es una matriz triangular superior. Adems, si existe una tal matriz la diagonal de

son los valores propios de

P, A.

entonces los elementos de

Demostracin.

lizando induccin sobre el orden implicacin es

(=) Haremos la demostracin en este sentido, utin de la matriz A. Para cuando n = 2, la verdadera. En efecto, de la hiptesis se sigue que A tiene

dos valores propios (reales) los cuales no son necesariamente distintos. Sea

un valor propio de A. Existe por lo tanto un vector 2 1, x1 = 0 tal que Ax1 = x1 . Por el teorema1.2.13(3), existe un vector 21, x2 = 0 tal que B = {x1 , x2 } es una base para M21 . Ahora, la matriz P = x1 x2 1 es invertible; escribamos a P particionada por las as: P 1 =
entonces se tiene que

y1 y2

y1 , y2 M12 ,

P 1 AP =

y1 y2

x1

x2

y1 Ax2 y2 Ax2

=T

es una matriz triangular superior. 60

Diagonalizacin de matrices

3.2. Diagonalizacin
n = j 1 A una

Supongamos ahora que la implicacin es verdadera para cuando y demostremos que sta es verdadera cuando matriz cuadrada de orden caracterstica son reales. De sto se sigue que

n = j, j 3.

Sea

j para la cual todas las soluciones de su ecuacin A tiene j valores propios (reales) los cuales no son necesariamente distintos. Sea un valor propio de A. Existe por lo tanto un vector j 1, x1 = 0 tal que Ax1 = x1 . Por el teorema 1.2.13(3), existen j 1 vectores x2 , x3 , . . . , xj de Mj1 tales que B = {x1 , x2 , x3 , . . . , xj } es una base para Mj1 . Ahora por el
teorema 1.4.8, la matriz

= y1 N

x1

x2

xj
as: y

x1

es invertible. Escribamos la inversa

P 1

y1 M1j , 0

N M(j1)(j1) . 0 B C

Entonces se tiene

P 1 AP =

y1 N

x1

y1 AM N AM

= T1

es una matriz triangular superior por bloques. Ahora, las matrices rema 3.1.14):

T1

tienen el mismo polinomio caracterstico (teo-

pA () = pT1 () = (1 ) |C I| .
De sto se sigue, que todas las soluciones de la ecuacin caracterstica de la matriz cuadrada de orden induccin, existe una matriz invertible matriz triangular superior. Sea ahora:

j 1, C , son reales. Por hiptesis de Q tal que Q1 CQ = T1 es una 1 0 1 0 1 0 0 Q 0 Q1 BQ Q1 CQ , P = P1 P2 1 0 =


es tal que

P2 =

entonces se tiene que la matriz invertible

1 1 P 1 AP = P2 P1 AP1 P2

= =

B C 1 0

1 0 BQ T2

0 Q =T

es una matriz triangular superior. La demostracin de la otra implicacin y de la segunda armacin del teorema quedan como ejercicio para el lector. 61

3.2. Diagonalizacin
3.2.12.

Diagonalizacin de matrices

Ejemplo.

Todas las soluciones de la ecuacin caracterstica de la

matriz del ejemplo 3.2.5

1 1 1 3 A= 1 2
son reales, pues:

1 1 0 33 1 = 1

pA () = ( 1)2 ( 2) = 0 sii
diagonalizable, pues

2 = 2 .

De otro lado, como lo establecimos en el ejemplo 3.2.5, la matriz A no es

slo posee dos vectores propios linealmente inde-

pendientes. En particular:

1 x1 = 1 1
valores propios

0 x2 = 1 1

son vectores propios linealmente independientes correspondientes a los

1 = 1

2 = 2,

respectivamente.

Por el teorema anterior, existe una matriz invertible un vector

tal que

es una matriz triangular superior. Para encontrar una tal matriz

P 1 AP = T P , demos
el vector

x3

tal que

B = {x1 , x2 , x3 }

sea una base para

M31 ,

0 x3 = 2 3 1 = 1 1 0 2 0 0 1 1 0 2 3

sirve para tal efecto. Ahora bien, la matriz

P =
es invertible y es tal que

x1

x2

x3

1 P 1 AP = T = 0 0
es una matriz triangular superior.

1 2 1

De acuerdo con el teorema anterior, si matriz invertible

es una matriz cuadrada (real) sea una matriz triangular

cuyos valores propios no son todos reales entonces, no puede existir una

(real) tal que

P 1 AP = T
62

Diagonalizacin de matrices

3.2. Diagonalizacin

superior. Ahora bien, hemos mencionado que uno puede estudiar espacios vectoriales donde los escalares sean nmeros complejos (ver pi de pgina 2); en este caso, se pueden obtener resultados ms amplios. En particular, se tiene que para toda matriz cuadrada existe una matriz invertible

(real o compleja)

(real o compleja) tal que

P 1 AP = T

sea una matriz triangular superior. Este resultado se tiene, gracias a la propiedad importante del sistema de los nmeros complejos que establece, que todo polinomio de grado exactamente

n con coecientes reales o complejos tiene n races reales o complejas, contadas sus multiplicidades. En

el teorema siguiente se establece este resultado sin demostracin. Quien desee estudiar sobre ste, puede consultar las secciones 5.5 y 5.6 de [ ]. 3.2.13.

Teorema.

Para toda matriz cuadrada

una matriz invertible

(real o compleja) tal que

(real o compleja) existe P 1 AP = T es una

matriz triangular superior. Adems, los elementos de la diagonal de son las soluciones de la ecuacin caracterstica de
3.2.14.

A.

Ejemplo.

Consideremos la matriz (real)

1 A= 0 0
La ecuacin caracterstica de

0 0 1

0 1 . 0

es

pA () = |A I| = ( 1)(2 + 1) = ( 1)( i)( + i) = 0 .


De esto se sigue que

slo tiene un valor propio real, a saber,

1 = 1.
(real) tal

En este caso no es posible que exista una matriz invertible que

P 1 AP = T

sea una matriz triangular superior. Sin embargo, en el

contexto de los espacios vectoriales donde los escalares son nmeros complejos, podemos decir que

tiene tres valores propios complejos

1 = 1,

2 = i

3 = i

. Efectuando, en este contexto, los clculos pertinentes,

se encuentra que

1 0 x1 = 0 , x2 = i 0 1
son tres vectores propios complejos de

0 x3 = i 1 1 = 1, 2 = i
y

linealmente independientes cor-

respondientes a los valores propios complejos 63

3 = i

3.3. Matrices simtricas

Diagonalizacin de matrices

respectivamente. As que la matriz compleja:

P =

x1

x2

x3

1 = 0 0

0 i 1

0 i 1 0 1 1 0 0 0 0 i 1

es invertible y es tal que

P 1 AP

1 0 i/2 = 0 0 i/2 1 0 0 = 0 i 0 0 0 i

0 1 i/2 0 i/2 0 =D

0 0 1

0 i 1

es una matriz diagonal, y por lo tanto, es una matriz triangular superior.

3.3. Diagonalizacin de matrices simtricas


En esta seccin limitaremos el estudio de los conceptos de valor propio, vector propio y diagonalizacin a matrices simtricas. Dos resultados importantes que veremos es esta seccin son los siguientes: (i) Todas las soluciones de la ecuacin caracterstica de toda matriz simtrica (real) son reales, y (ii) Toda matriz simtrica (real) es diagonalizable, y ms an, diagonalizable en una forma especial. Como veremos en el captulo 4, los valores propios de una matriz simtrica se utilizan como criterio para decidir cundo una forma cuadrtica es positivamente (negativamente) denida (semidenida) o indenida. Como se estableci al nal de la seccin anterior, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. nicamente en la demostracin del teorema 3.3.1, utilizaremos los hechos siguientes que involucran nmeros complejos.

1. El conjugado del nmero complejo por 2. 3.

z = a+bi, a, b R, se denota z = a bi. Un nmero complejo z es real sii z = z . La matriz conjugada de la matriz compleja n n, A, se de nota por A y cuyos componentes son A = A ij , i, j = 1, 2, . . . , n. ij z
y se dene as: 64

Diagonalizacin de matrices
4. Para todo vector complejo

3.3. Matrices simtricas


n 1, x,
se tiene:

x T x = xx T y

xTx = 0

sii

x = 0.

5. Para toda matriz cuadrada

A con componentes complejas; |A| = 0 sii existe un vector x = 0, con componentes complejas, tal que Ax = 0.
Sea

3.3.1.

Teorema.

una matriz (real) cuadrada de orden

n.

Si

es

una matriz simtrica, entonces todas las soluciones de la ecuacin caracterstica de

A: pA () = |A I| = 0, son reales. Esto es, A tiene valores propios (reales) los cuales no son necesariamente diferentes.
Demostracin. Si

pA () = |A I| = 0, Ax = x

entonces por (5), existe

un vector (3.1)

x=0

tal que:

de esto se sigue que, (ver (3) y (2)): (3.2)

Ax = x . xT
y y (3.2) por

Ahora, premultiplicando (3.1) por (3.3) puesto que (3.4) De (4) se tiene que

xT

se tiene

x T Ax = x T x

xT Ax = xT x ,
de (3.3) se sigue que:

x T Ax = (x T Ax)T = xT AT x = xT Ax, x T x = xT x . x T x = xT x,

por lo tanto, de (3.4) se concluye que :

( )x T x = 0.
Ya que

x = 0,

de (4) se tiene que

( ) = 0
en consecuencia, por (2),

o sea,

= .

es un nmero real.

En lo que resta de estas notas, no haremos ms referencia al sistema de nmeros complejos. El teorema 3.2.6 establece que, para cada matriz cuadrada

A, los vectores

propios correspondientes a valores propios diferentes son linealmente independientes. Para matrices simtricas se tiene un resultado ms fuerte. Este resultado se establece en el teorema siguiente. 65

3.3. Matrices simtricas


3.3.2.

Diagonalizacin de matrices

una matriz simtrica

1 , 2 , . . . , k son los valores propios diferentes de A y si x1 , x2 , . . . , xk son vectores propios de A correspondientes a los valores propios 1 , 2 , . . . , k , respectivamente, entonces el conjunto de vectores C = {x1 , x2 , . . . , xk } es ortogonal.
Si
Demostracin. Debemos demostrar que

Teorema.

xi ; xj

= xT xj = 0 i

si

i = j,

para

i, j = 1, 2, . . . k

Por la hiptesis se tiene que: (3.5) (3.6)

Axi Axj xT Axi = i xj T xi j

= =

i xi , j xj . xt j
y

Ahora, premultiplicando (3.5) por (3.7) puesto que que: (3.8) Ya que

y a (3.6) por

xi ,

se obtiene

xT Axj = j xT xj , i i
de (3.7) se sigue

xT Axi = (xT Axi )T = xT AT xj = xT Axj , j j i i xT xi = j xT xj . j i

xT xi = xT xj j i

de (3.8) se concluye que :

(i j )xT xj = 0. i
Puesto que por hiptesis, los valores propios son distintos, entonces

xT xj = i P

0,

si

i = j, i, j = 1, 2, . . . k .

3.3.3.

Denicin. Ejemplo.

Se dice que una matriz cuadrada

es ortogonal, si

es invertible y
3.3.4.

P 1 = P T .
La matriz

1 1 P = 2 3 2
es ortogonal, pues:

2 2 1

2 1 2 2 2 1 2 1 = 0 1 2 0 0 1 0 0 0 = I. 1

PPT
3.3.5.

1 1 =P = 2 3 2

2 2 1

2 1 1 1 2 3 2 2

Proposicin.

sii el conjunto

x1 x2 Una matriz P = B = {x1 , x2 , . . . , xn } constituye una


66

xn es ortogonal base ortonormal de

Mn1 .

Diagonalizacin de matrices
La matriz bien,

3.3. Matrices simtricas


xn
es ortogonal sii

P =

x1

x2

P T P = I. xT x2 1 xT x2 2
. . .

Ahora

PTP

xT 1 xT 2 . . . xT n

x1

x2

xn

xT x1 1 xT x1 2 = . . . T xn x1


.. .

xT x2 n

xT xn 1 xT xn 2 . . . xT xn n

Es fcil entonces observar, que

PTP = I i=j ; i=j

si y slo si se cumple que:

xT xj = i

1 0

si si

i, j = 1, 2, . . . , n ,
es una base ortonormal de

lo cual equivale a que

B = {x1 , x2 , . . . , xn }

Mn1 .
3.3.6.

Teorema.

Si

tonces las multiplicidades algebraica y geomtrica de

es un valor propio de una matriz simtrica, en son iguales.

un valor propio de A. Supongamos que la multiplicidad geomtrica de es r. Por el teorema 1.2.24, existe una base ortonormal B = {x1 , x2 , . . . , xr } del espacio de vectores propios asociados a , S( ). Si r = n, la matriz P = x1 x2 xn es ortogonal (proposicin 3.3.5), y de acuerdo
Demostracin. Sea

una matriz simtrica de orden

y sea

con el teorema 3.2.2,

P T AP = P 1 AP = D = I .
Ahora, las matrices

tienen igual polinomio caracterstico:

pA () = pD () = | I I| = ( )n .
De esto se sigue que braica

es un valor propio de

con multiplicidad alge-

r = n. r < n, existen n r vectores y1 , y2 , . . . , ynr de Mn1 B = {x1 , . . . , xr , y1 , . . . , ynr } es una base ortonormal de Mn1 x1 x2 xr y1 y2
67

De otra parte, si tales que

(teorema 1.2.25). Por la proposicin 3.3.5, la matriz

P =

ynr

3.3. Matrices simtricas

Diagonalizacin de matrices
T = P T AP = P 1 AP, Y
es

es ortogonal. Consideremos ahora la matriz decir, la matriz:

= = =

XT YT I 0 I 0

X T AY Y T AY B C .
o

Puesto que sea

es simtrica,

T T = (P T AP )T = P T AT P = P T AP = T, B C = I 0 I B 0 C 0 CT . ,

I 0 B=0
y

por lo tanto

T =
Puesto que las matrices polinomio caracterstico:

son semejantes, entonces tienen el mismo

pA () = pT () = |T I| = ( )r |C I| .
De sto se sigue, que braica es un valor propio de A con multiplicidad algek r. Veamos que k = r. Si k > r, entonces se debe tener que |C I| = 0, y por lo tanto existe un vector (n r) 1, w = 0 tal que Cw = w. Consideremos ahora el vector no nulo Es decir,

u Mn1 dado

por

u=P 0 0
. . .

0 w

[x1 x2 xr y1 y2 ynr ]

u=P

0 w

0 w1 w2
. . .

wnr = w1 y1 + w2 y2 + wnr ynr .


Esto es, el vector

u y1 , y2 , . . . , ynr
68

u x1 , x2 , . . . , xr /

Diagonalizacin de matrices
De otro do, el vector

3.3. Matrices simtricas


-vector P tP 0 w 0 w
propio de

u,

es un

A.

En efecto,

Au

= P = = P P

I 0 0 Cw 0 w

0 C =P

=P

I 0

0 C

0 w

= u .
es un conjunto de

Esto indica, que

B = {x1 , x2 , . . . , xr , ur+1 }

r+1

vec-

tores propios linealmente independientes correspondientes al valor propio

,
sea

lo cual contradice el hecho de que la multiplicidad geomtrica de

r.

3.3.7.

Teorema.
n

Si

es una matriz simtrica de orden

n,

entonces

tiene

vectores propios ortogonales, y por tanto, linealmente independi-

entes.

Demostracin. Sean 1 , 2 , . . . , k los diferentes valores propios A. Supongamos que la multiplicidad algebraica de i es mi, mi = 1, 2, . . . , k; esto es, supongamos que

de

pA () = (1)n ( 1 )m1 ( 2 )m2 ( k )mk ,


donde

m1 + m2 + + mk = n. i
es

Por el teorema anterior, la multiplicidad geomtrica de

mi , i =

1, . . . , k.

Sean ahora:

U1 = x1 , . . . , x1 1 , , Uk = xk , . . . , xk k 1 m 1 m
bases ortogonales de teorema 3.3.2, el conjunto de

S(1 ), , S(k ) respectivamente. n vectores propios de A :

Entonces por el

U
es ortogonal.

= U1 U2 Uk = x1 , . . . , x1 1 , x2 , . . . , x2 2 , . . . , xk , . . . , xk k 1 m 1 m 1 m

La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.3.7 y del teorema 3.2.2. 3.3.8.

Corolario.

Toda matriz simtrica es diagonalizable.


69

3.3. Matrices simtricas


3.3.9.

Diagonalizacin de matrices
A
una matriz cuadrada. Se dice que

Denicin. Teorema.

Sea

nalmente diagonalizable si existe un matriz ortogonal

tal que

es ortogoT

P AP =

es una matriz diagonal. Si

3.3.10.

es una matriz simtrica, entonces

es ortogo-

nalmente diagonalizable; esto es, existe una matriz ortogonal P tal que P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz

son los vectores propios de

y los elementos de la diagonal de

son

los valores propios de

A.

A es una matriz simtrica de orden n, entonces x1 , x2 , . . . , xn (teorema 3.3.7). Supongamos que stos corresponden a los valores propios 1 , 2 , . . . , n , x1 x2 xn es ortogonal (prorespectivamente. La matriz P =
Demostracin. Sea

tiene

vectores propios ortonormales

posicin 3.3.5), y de acuerdo con la demostracin del teorema 3.2.2, se tiene que

1 0 P T AP = P 1 AP = D = . . . 0

0 2
. . .


.. .

0 0 . . . . n

El recproco del teorema 3.3.10 tambin es vlido y est dado por el siguiente 3.3.11.

Teorema.
A

Si una matriz

es ortogonalmente diagonalizable, en-

tonces

es simtrica.

Demostracin. Por hiptesis existe una matriz ortogonal

tal que

P T AP = D

es una matriz diagonal. De aqu que:

A = P DP T = (P DT P T )T = (P DP T )T = AT ,
o sea,

es una matriz simtrica. 70

Diagonalizacin de matrices
3.3.12.

3.3. Matrices simtricas

Ejemplo.

Para la matriz simtrica:

5 A= 2 2
encontremos una matriz ortogonal diagonal.

2 2 2 4 4 2 33 P
tal que

P t AP = D

sea una matriz

Para ello debemos encontrar tres vectores propios de Determinemos el polinomio caracterstico de

A ortonormales. A, pA () = |A I| . = ( + 3)( 6)2

pA () = |A I| =

5 2 2

2 2 4
2

2 4 2
sii

Resolvamos la ecuacin caracterstica de

A, pA () = |A I| = 0. = 3 A
son

pA () = ( + 3)( 6) = 0

=6
y

de aqu que los diferentes valores propios de Por denicin, los

1 = 3

2 = 6.

del sistema de ecuaciones lineales

A son las soluciones no nulas (A+3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A6I)x = 0. Se tiene entonces: 1 2 2 8 2 2 5 4 y A 6I = 2 4 4 . A + 3I = 2 2 4 4 2 4 5
propios de Es fcil vericar, que las soluciones del sistema homogneo son los vectores de la forma:

(3)-vectores

(A + 3I)x = 0

1 1 x1 2 x3 1 2 ; x = x2 = x3 = x3 2 2 x3 x3
En consecuencia,

x3 R.

U1 = U3
es una base para

1 = 2 , 2

S(1 ) = S(3). Aplicando el proceso de ortogonalizacin 1 1 2 , = 3 2


71

de Gram-Scmidt a esta base (vea el teorema 1.2.24), se llega a que:

U1 = U3

3.3. Matrices simtricas


es una base ortonormal de

Diagonalizacin de matrices
S(1 ) = S(3).

De otra parte, se encuentra que las soluciones del sistema homogneo

(A 6I)x = 0

son los vectores de la forma:

=
En consecuencia,

x1 2x2 + 2x3 x2 = x2 x3 x3 2 2 x2 1 +x3 0 ; x2 , x3 R. 0 1

U2
es una base para

2 2 = U6 = 1 , 0 , 1 0
Aplicando el proceso de ortogonalizacin

S(2 ) = S(6).

de Gram-Schmidt a esta base se llega a que:

U2

2 2 1 1 4 , = U6 = 1 , 5 3 5 0 5 S(2 ) = S(6).

es una base ortonormal de

Segn la demostracin del teorema 3.3.7,

U = U1 U2

2 2 1 1 1 1 2 , 1 , 4 , = 3 5 0 3 5 2 5 A.
Ahora, segn la

es un conjunto ortonormal de vectores propios de demostracin del teorema 3.3.10, la matriz,

1 3 2 P = 3 2 3

2 5 1 5 0
72

2 3 5 4 3 5 2 3 5

Diagonalizacin de matrices
es ortogonal tal que

3.3. Matrices simtricas

3 P T AP = P 1 AP = D = 0 0
3.3.13.

0 6 0

0 0 . 6 n.
Supongamos

que

entes,

Sea A una matriz simtrica (0 n) valores propios, estrictamente positivos y (0 n) que tiene

Teorema.

de orden

no necesariamente difervalores propios, no nece-

sariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible

tal que:

I P T AP = 0 0
Si adems existe otra matriz invertible

0 I 0 Q

0 0 . 0

tal que

I QT AQ = 0 0
entonces

0 I 0

0 0 , 0

=.

Demostracin. Sean

1 , 2 , . . . ,

los valores propios de

tamente positivos (no necesariamente distintos) y sean vectores propios ortonormales de lores propios. Sean adems

A estricx1 , x2 , . . . , x

A asociados respectivamente a tales va1 , 2 , . . . , los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 , y2 , . . . , y vectores propios ortonormales de A asociados a dichos valores propios negativos y sean z1 , z2 , . . . , z , = n ( + ), vectores propios ortonormales de A asociados al valor propio nulo (0). Segn la demostracin del teorema 3.3.10, la matriz M , cuyas columnas son los correspondientes vectores
propios organizados adecuadamente, es ortogonal. Es decir, la matriz

M=

x1

x2

y1

y2

z1

z2

es ortogonal. De otro lado, se tiene que

M t AM = D 0 D 0 0 0 0

es una matriz diag-

onal con los valores propios en su diagonal y dispuestos as:

D M t AM = D = 0 0
73

3.3. Matrices simtricas


donde:

Diagonalizacin de matrices

1 0 D = . . . 0
Sea ahora

0 2
. . .


.. .

0 0 . . .

1 0 D = . . . 0 0 0 I 0 0
. . .

0 2
. . .


.. .

0 0 . . . .

la matriz diagonal:

D D = 0 0
donde

0 D 0
.. .

1 1 0 D = . . . 0 D = 1 1 0
. . .

0 1 2
. . .

y.

0 0


.. .

0 0
. . .

1 2
. . .

La matriz

es invertible y es tal que:

D DD

D D D t t 0 = D M AM D = 0 I 0 0 = 0 I 0 . 0 0 0

0 D D D 0

0 0 I 0 I

En consecuencia, la matriz invertible

P = M D es I 0 0 P t AP = 0 I 0 . 0 0 0
74

tal que:

Diagonalizacin de matrices
Supongamos ahora que las matrices invertibles

3.3. Matrices simtricas


P
y

son tales que:

I P t AP = 0 0
y demostremos que

0 I 0 =

0 0 0
y y

I Qt AQ = 0 0

0 I 0

0 0 . 0

=. Q
particionadas por columnas as:

Escribamos las matrices

x1 y1

x2 y2

x y

x+1 y +1

xn yn

Q =

Por hiptesis se tiene que:

T xi Axi = 1 T x Ax = 0 j i T yi Ayi 0 T yi Ayj = 0

si i = 1, 2 . . . , si i = j (i, j = 1, 2 . . . , n) si i = + 1, + 2 . . . , n si i = j (i, j = 1, 2 . . . , n). Mn1 :

Ahora, el conjunto de vectores de

C = {x1 , x2 , . . . , x , y +1 , y +2 , . . . , yn }
es linealmente independiente. En efecto, si

1 x1 + . . . + x + 1 y +1 + . . . + n yn = 0
entonces el vector

U
es tal que:

= =

1 x1 + 2 x2 + . . . + x 1 y +1 2 y +2 . . . n yn (1 x1 + . . . + x )T A(1 x1 + . . . + x )

U T AU
y

= 2 + 2 + . . . + 2 0 1 2 U T AU = =
Por lo tanto consecuencia,

(1 y +1 + . . . + n yn )T A(1 y +1 + . . . + n yn )
2 T 2 T 2 T 1 y +1 Ay +1 + 2 y +2 Ay +2 + . . . + n yn Ayn 0

U T AU = 0.

De esto se sigue que

1 = 2 = . . . = = 0.

En

1 y +1 + 2 y +2 + . . . + n yn = 0 .
75

3.3. Matrices simtricas


Puesto que la matriz

Diagonalizacin de matrices

linealmente independientes, y por lo tanto,

Q es invertible, los vectores y +1 , y +2 , . . . , yn son 1 = 2 = . . . = n = 0. Mn1


es

Ahora bien, como la dimensin del espacio vectorial un conjunto linealmente independiente de entonces por el teorema 1.3.8(2) :

+ (n )

vectores en

C es Mn1 ,

+ (n ) n ,
o sea, de donde

. Argumentando =.

en forma similar se demuestra que

De otro lado, de la hiptesis, se tiene que

(A) = + = +
por lo tanto

=. P T AP
es igual

Nota.
a:

En la parte (1) del teorema anterior se tiene que

(i) (ii)

In , In , I 0

si si

= n. = n. ,
si

(iii)

0 0 0 0 0 I 0 I 0

0<p<n
si

= 0.
y

(iv)

I 0 I 0 I 0 0 0,
sii

, ,

0<<n 0<p<n
si

= 0. 0<<n
y y

(v)

si

+ = n.
y

(vi)

0 0 , 0

0<p<n

0<<n

+ < n.

(vii) 3.3.14.

A = 0.
Para la matriz simtrica

Ejemplo.

1 A = 2 0
encontremos una matriz invertible

2 0 2 P

0 2 1 P t AP
sea una matriz diag-

tal que

onal con las caractersticas que se establecen en el teorema anterior.

76

Diagonalizacin de matrices

3.3. Matrices simtricas

Efectuando los clculos pertinentes se encuentra que los valores propios de

son:

1 = 3, 2 = 3

3 = 0, y que la matriz 2 1 2 1 M = 2 2 1 3 1 2 2
y

ortogonal:

es tal que

3 M t AM = D = 0 0
Ahora, la matriz diagonal

0 3 0

0 0 . 0

D =
es invertible y es tal que:

1 3 0 0

0 1 3 0

0 1

D DD

Dt M t AM D 1 3 0 0 3 1 0 0 0 3 0 0 1 0 1 0 0 0 1 0 , 0 0 0

0 3 0

0 0

1 3 0 0

0 1 3 0

0 1

o sea, la matriz invertible

P = M D es tal I1 0 P t AP = 0 I1 0 0

que

0 0 . 0

En relacin con la primera parte del teorema 3.3.13 (ver su demostracin) y tal como aparece en el ejemplo anterior, un mtodo para calcular una

M que A, y despus postmultiplicar a M por una ma triz diagonal conveniente D . A continuacin damos otro mtodo para t calcular, simultneamente, una de tales matrices P y la matriz P AP. El mtodo se basa en el hecho de que la matriz P es invertible y por
de tales matrices consiste en encontrar una matriz ortogonal diagonalice a la matriz 77

3.3. Matrices simtricas

Diagonalizacin de matrices

ende se puede expresar como producto de un nmero nito de matrices elementales (vase teorema 1.1.11(2)); sto es,

P = E1 E2 Ek,

donde

E1 , E2 , , Ek,
la matriz

son matrices elementales. As que una forma de calcular

t t t P t AP = Ek E2 E1 A E1 E2 Ek,
consiste en efectuar una sucesin de operaciones elementales en las las de de de

A y la "misma" sucesin de operaciones elementales en las columnas A (vase teorema 1.1.8), hasta lograr lo deseado. Esta misma sucesin t operaciones elementales en las las de la matriz identidad I da P .

Ilustraremos este mtodo con el ejemplo siguiente. 3.3.15.

Ejemplo.

Para la matriz simtrica

1 A= 2 3
encontremos una matriz invertible

2 3 5 4 4 9
tal que

P T AP

sea una matriz diag-

onal con las caractersticas que se establecen en el teorema 3.3.13. Formemos la matriz

A | I

1 = 2 3

2 3 | 1 5 4 | 0 4 9 | 0

0 1 0

0 0 . 1

Efectuemos, en las las de la matriz

A | I , las operaciones elemenT tales; E1 ; multiplicar los elementos de la primera la por = 2 y sumar T los resultados con los correspondientes elementos de la segunda la, E2 ;
multiplicar los elementos de la primera la por la matriz

= 3 y sumar los resulta-

dos con los correspondientes elementos de la tercera la. As obtenemos

T T E2 E1 A

T T | E2 E1 I

A1

| B1

luego efectuamos las "mismas" operaciones elementales en las columnas de la matriz

A1 ,

para obtener:

T T E2 E1 A
Se tiene:

T T E1 E2 | E2 E1 I

A1

| B1

A1

| B1

1 = 0 0

2 1 2
78

3 | 1 0 0 2 | 2 1 0 0 | 3 0 1

Diagonalizacin de matrices
y

3.3. Matrices simtricas

A1

| B1

1 = 0 0

0 1 2

0 2 0 |

| 1 0 0 | 2 1 0 | 3 0 1 B1
, la operacin elemen-

Efectuemos, en las las de la matriz tal;

A1

T E3 ;

multiplicar los elementos de la segunda la por

= 2

y sumar

los resultados con los correspondientes elementos de la tercera la. As obtenemos la matriz

T T T E3 E2 E1 AE1 E2

T T T | E3 E2 E1 I

A2

| B2

luego efectuamos la "misma" operacin elemental en las columnas de la matriz

A2 ,

para obtener:

T T T T T T E3 E2 E1 AE1 E2 E3 | E3 E2 E1 I
Se tiene:

A2

| B2

A2
y

| B2

1 = 0 0 1 = 0 0

0 1 0 0 1 0

0 | 1 2 | 2 4 | 7

0 1 2

0 0 1

A2

| B2

1 0 0 0 | 0 | 2 1 0 . 3 0 1 4 | A2 | B2
la op-

Finalmente, efectuemos en las las de la matriz eracin elemental;

T E4 ;

multiplicar los elementos de la tercera la por

= 1/2.

As obtenemos la matriz

T T T T E4 E3 E2 E1 AE1 E2 E3

T T T T | E4 E3 E2 E1 I

A3

| B3

luego efectuamos la "misma" operacin elemental en las columnas de la matriz

A3 ,

para obtener:

T T T T E4 E3 E2 E1 AE1 E2 E3 E4 |
Se tiene:

T T T T E4 E3 E2 E1 I

A3

| B3

A3

| B3

1 = 0 0

0 1 0
79

0 0 2

1 | 2 | 7 | 2

0 1 1

0 0 1 2

3.3. Matrices simtricas


y

Diagonalizacin de matrices

A2

| B2

1 = 0 0

0 1 0

0 0 1

1 | 2 | 7 | 2

0 1 1

0 0 . 1 2 0 0 1 2

As que la matriz invertible

PT

1 0 2 1 T T T T = B3 = E4 E3 E2 E1 = 7 1 2 1 P T AP = D = A3 = 0 0 0 1 0 0 0 . 1

es tal que

Podemos decir entonces, que la matriz

tiene dos valores estrictamente

positivos y un valor propio estrictamente negativo. 3.3.16.

Nota.

En relacin con el mtodo ilustrado en el ejemplo anterior,

A= [aij ]nn son nulos y si aij = 0, i = j , entonces sumando la la j a la la i y la columna j a la columna i, obtendremos una matriz simtrica A = M T AM con 2aij en el lugar isimo de la diagonal principal de A .
si todos los elementos de la diagonal principal de la matriz simtrica Una vez hecho sto, se sigue el proceso descrito en el ejemplo anterior. 3.3.17.

Ejemplo.

Para la matriz simtrica

A=
encontremos una matriz invertible

0 1 P

1 0

, P T AP
sea una matriz diag-

tal que

onal con las caractersticas que se establecen en el teorema 3.3.13. Formemos la matriz:

| I

0 1

1 0

| 1 | 0

0 1

.
la operacin elemen-

Efectuemos, en las las de la matriz tal

A | I

MT ;

sumar los elementos de la segunda la con los correspondientes

elementos de la primera la. As obtenemos la matriz

MT A

| MT I
80

Diagonalizacin de matrices
M T A,

3.3. Matrices simtricas

luego efectuamos la "misma" operacin elemental en las columnas de la matriz para obtener la matriz:

M T AM
Se tiene:

| MT I

= 1 1 2 1

A 1 0 1 0

| MT | 1 | 0 | 1 | 0 1 1 1 1

MT A A

| MT I | MT

= =

A | M T , la operacin elemen1 T tal; E1 ; multiplicar los elementos de la primera la por = y sumar 2 los resultados con los correspondientes elementos de la segunda la. As
Efectuemos, en las las de la matriz obtenemos la matriz

T E1 A

T | E1 M T

A1

| B1

luego efectuamos la "misma" operacin elemental en las columnas de la matriz

A1 ,

para obtener:

T E1 A E1
Se tiene:

T | E1 M T

= 1 1 2 0 1 2

A1 1

| B1 1 1 2

.
y

A1 | B1 = A1 | B1 =

2 0 2 0

| | | 1 2 1 | | | 1 2 | B1

1 1 2

las operaciones eleA1 1 T mentales; E2 ; multiplicar los elementos de la primera la por = , 2 T y, E3 ; multiplicar los elementos de la segunda la por = 2 . As Efectuemos en las las de la matriz obtenemos la matriz

T T T E3 E2 E1 A E1

T T T | E3 E2 E1 M T

A2

| B2

luego efectuamos las "mismas" operaciones elementales en las columnas de la matriz

A2 ,

para obtener:

T T T E3 E2 E1 A

E1 E2 E3

T T T | E3 E2 E1 M T
81

A2

| B2

3.4. Diagonalizacin simultnea


Se tiene:

Diagonalizacin de matrices

A2

| B2

2 = 0

0 1 2 0 1

1 | 2 | | 1 | 2

A2

| B2

1 = 0

1 | 2 | | 1 | 2 1 2 1 2 0 1

1 2 1 2 1 2 . 1 2 1 2 1 2 .

As que la matriz invertible

T T T P T = B2 = E3 E2 E1 M T =
es tal que

P T AP = D = A3 =

1 0

Podemos decir, que la matriz

tiene un valor estrictamente positivo y

un valor propio estrictamente negativo.

3.4. Diagonalizacin simultnea de matrices simtricas


En esta seccin veremos un par de teoremas sobre diagonalizacin simultnea de matrices simtricas, los cuales son tiles en estadstica. En particular el teorema 3.4.3 es utilizado en la demostracin de la independencia de dos ciertas formas cuadrticas (ver teorema 4.5.3 de [ ]). 3.4.1.

Teorema

(Diagonalizacin simultnea)

mtricas de orden

n.

Si todos los valores propios de

positivos, entonces existe una matriz invertible

A y B matrices siA son estrictamente Q tal que QT AQ = In y


Sean

QT BQ = D

es una matriz diagonal. Adems, los elementos de la diagonal

de D, son las soluciones de la ecuacin


82

|B A| = 0, las cuales son reales.

Diagonalizacin de matrices

3.4. Diagonalizacin simultnea


A
son es-

Demostracin. Puesto que todos los valores propios de

trictamente positivos, se sigue del teorema 3.3.10, que existe una matriz

P T AP = In . Sea ahora C = P T BP. La matriz C C T = (P T BP )T = P T B T P = P T BP = C . Ahora bien, en virtud del teorema 3.3.1, existe una matriz ortogonal M tal que M T CM = D es una matriz diagonal con los valores propios de C en su
invertible

tal que

es simtrica pues,

diagonal principal. En consecuencia:

M T P T AP M = M T In M = M T M = In
esto es, la matriz la diagonal de de la ecuacin tiene:

M T P T BP M = M T CM = D ;
y

Q = PM

es tal que

QT AQ = In C,

QT BQ = D

es una

matriz diagonal. De otro lado, como lo hemos expresado, los elementos de

son los valores propios de

los cuales segn el teorema

3.3.1 son reales. Esto es, los elementos de la diagonal de

|C I| = 0.

En vista de que la matriz

D son la soluciones P es invertible se

|C I| = =

P T BP P T AP P T |B A| |P | = 0

sii

|B A| = 0,

lo cual termina la demostracin del teorema. 3.4.2.

Ejemplo.

Consideremos las matrices simtricas

1 A= 0 0
pios de

0 4 2

0 2 2

5 B= 4 4 5
y

4 8 4

4 4 . 4 5,
los cuales son

Efectuando los clculos correspondientes se encuentra que los valores pro-

son:

1 = 1, 2 = 3 + 1

3 = 3

estrictamente positivos y que la matriz invertible

P = 0 0
es tal que

0 1 2 0

0 1 2 1

P T AP = I3

5 C = P T BP = 2 2
83

2 2 2 4 . 4 2

3.4. Diagonalizacin simultnea


Por el ejemplo 3.3.12 se sabe que

Diagonalizacin de matrices

M =
es ortogonal y es tal que

1 3 2 3 2 3

2 5 1 5 0

3 5 4 3 5 2 3 5 0 6 0 0 0 . 6 2 3 5 3 3 5 5 3 5 0 6 0 0 0 . 6
Sean

3 M T CM = D = 0 0
En consecuencia, la matriz invertible

Q = PM =
es tal que

1 3 0 2 3

2 5 1

2 5 0

QT AQ = I3
3.4.3.

3 QT BQ = D = 0 0

Teorema (Diagonalizacin ortogonal simultnea).

AyB

ma-

trices simtricas de orden n. AB = BA sii existe una matriz ortogonal T T tal que P AP y P BP son matrices diagonales.

Demostracin.

(=)

En virtud del teorema 3.3.10, existe una ma-

triz ortogonal

tal que:

1 Ik1 0 RT AR = D = . . . 0

0 2 Ik2
. . .


.. .

0 0
. . .

0
84

...

m Ikm

Diagonalizacin de matrices
donde los

3.4. Diagonalizacin simultnea


A y ki es la multiplicidad i , i = 1, 2, . . . , m. AB = BA,
entonces

son los diferentes valores propios de

geomtrica (algebraica) del valor propio Sea ahora

C = RT BR.

Puesto que por hiptesis

DC = RT ARRT BR = RT BAR = RT BRRT AR = CD.


Particionando la matriz

convenientemente podemos escribir:

DC

CD

1 Ik1 0 0 C11 C12 C1m 0 C21 C22 C2m 2 Ik2 0 = . . . . . . .. .. . . . . . . . . . . . . . . 0 0 m Ikm Cm1 Cm2 Cmm 1 C11 1 C12 1 C1m 2 C21 2 C22 2 C2m = , . . . .. . . . . . . . m Cm1 m Cm2 m Cmm C11 C12 C1m 1 Ik1 0 0 C21 C22 C2m 0 2 Ik2 0 = . . . . . . .. .. . . . . . . . . . . . . . . Cm1 Cm2 Cmm 0 0 m Ikm 1 C11 2 C12 m C1m 1 C21 2 C22 m C2m = . . . . .. . . . . . . . 1 Cm1 2 Cm2 m Cmm DC = CD
y

Ya que

i = j ,

si

i = j,

entonces se tiene que

Cij = 0,

si

i=j

y por tanto

C11 0 C= . . . 0
Como la matriz

0 C22
. . .


.. .

0 0
. . .

Cmm

es simtrica, por tanto existe una matriz ortogonal

C es simtrica, cada una de las matrices Cii , i = 1, 2 . . . , m, Qi tal que QT Cii Qi = i


85

Di

es una matriz diagonal. Sea a hora:

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices
0 0 . . . . Qm

Q1 0 Q= . . . 0
La matriz

0 Q2
. . .


.. .

es una matriz diagonal. Tambin se tiene que

Q es ortogonal (vase ejercicio 3.5(14)) y es tal que QT CQ = D QT DQ = D; es decir, QT RT ARQ = D


y

QT RT BRQ = D . P T AP
y

Ya que las matrices matrices diagonales.

son ortogonales, entonces la matriz

es ortogonal (vea el ejercicio 3.5.2(13)) y es tal que

P = RQ P T BP son

(=) Supongamos que existe una matriz ortogonal P tal que P T AP = D1 T y P BP = D2 son matrices diagonales. Puesto que D1 D2 = D2 D1 , entonces :

P T AP P T BP = P T BP P T AP ,
de donde 3.4.4.

AB = BA.
En este ejemplo seguiremos los pasos hechos en la de-

Ejemplo.

mostracin del teorema anterior en el sentido clculos numricos queda a cargo del lector. Las matrices simtricas:

(=). La vericacin de los

1 1 A= 0 0
son tales que

1 1 0 0

0 0 1 0

0 0 0 1

1 0 B= 0 0

0 1 0 0

0 0 2 2

0 0 2 5

AB = BA.
de

de multiplicidad algebraica

k2 = 2

3 = 2

A son 1 = 0 k1 = 1, 2 = 1 de multiplicidad algebraica multiplicidad algebraica k3 = 1. La matriz ortogonal 1/ 2 0 0 1/ 2 1/ 2 0 0 1/ 2 R= 0 1 0 0 0 0 1 0


Los valores propios de la matriz 86

Diagonalizacin de matrices
es tal que:

3.4. Diagonalizacin simultnea

0 0 T R AR = D = 0 0
y

. . .

. . . . . .

0 1 0 0

0 0 1 0

. . .

. . . . . .

. . .

. . .

0 1 I 0 = 0 0 0 2

0 2 I 0

0 3 I

1 0 T R BR = C = 0 0
La matriz ortogonal

. . .

. . . . . .

0 2 2 0

0 2 5 0

. . .

. . . . . .

. . .

. . .

0 C11 0 = 0 0 0 1

0 C22 0

0 C33

Q= 1 0 0 0

. . .

. . . . . .

. . .

0 2/ 5 1/ 5 0

0 1/ 5 2/ 5 0

. . .

0 Q 1 0 = 0 0 0 1 0 Q2 0 0

. . . . . .

. . .

0 Q3

es tal que

1 0 QT CQ = 0 0

0 1 0 0

0 0 6 0

0 0 = QT RT BRQ = D 0 1
87

3.4. Diagonalizacin simultnea


y

Diagonalizacin de matrices
0 0 = QT RT ARQ = D . 0 2 0 0 2/ 5 1/ 5 0 0 1/ 5 2/ 5 1/ 2 1/ 2 0 0

1 0 QT DQ = 0 0

0 1 0 0

0 0 1 0

En consecuencia, la matriz ortogonal

1/ 2 1/ 2 P = RQ = 0 0
es tal que 3.4.5.

P T AP = D

P T BP = D

son matrices diagonales.

Sean A1 , A2 , . . . , Ak matrices simtricas de orden n. Una condicin necesaria y suciente para que exista una matriz ortogonal P tal que P T Ai P sea una matriz diagonal para cada i = 1, 2, . . . , k es que

Corolario.

Ai Aj = Aj Ai

para cada

j; i, j = 1, 2, . . . , k .

Demostracin. (Suciencia:) La demostracin de esta parte del teo-

rema la haremos utilizando induccin sobre el nmero de matrices cuando

k. Para

k=2

el corolario es cierto por el teorema anterior. Supongamos

k = s y demostremos que k = s + 1. Sean pues A1 , A2 , . . . , As+1 matrices simtricas de orden n tales que Ai Aj = Aj Ai para cada i y j; i, j = 1, 2, . . . , s + 1. Por el teorema 3.3.10 existe una matriz ortogonal R
ahora que el corolario es cierto para cuando el corolario es cierto para cuando tal que

donde los

1 Ik1 0 0 2 Ik2 R T A1 R = D = . . .. . . . . . 0 0 , = 1, 2, . . . , m, son los diferentes

0 0
. . .

, A1
y

m Ikm
valores propios de

es la multiplicidad geomtrica (algebraica) del valor propio

Ahora, para cada Puesto que por

i, i = 2, 3, . . . , s + 1, tomemos la hiptesis A1 Ai = Ai A1 , entonces = = RT A1 RRT Ai R = DCi ,


88

matriz

C i = R T Ai R .

Ci D

RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R

Diagonalizacin de matrices
para

3.4. Diagonalizacin simultnea

i = 2, 3, . . . , s + 1. De sto se sigue que: Ci1 0 0 0 Ci2 0 Ci = . , i = 2, 3, . . . , s + 1 . . . .. . . . . . . . 0 0 Cim Ai Aj = Aj Ai


para todo

De otra parte, como

i y todo j; i, j = 2, 3, . . . , s+

1,

entonces:

Ci Cj

= =

RT Ai RRT Aj R = RT Ai Aj R RT Aj Ai R = RT Aj RRT Ai R = Cj Ci . , = 1, 2, . . . , m. Ci Cj = Cj Ci .

De esto se sigue que para cada

De otra parte, como la matriz es simtrica para cada anterior y por la ortogonal

Ci es simtrica, entonces la matriz Ci i = 2, 3 . . . , s + 1 y cada = 1, 2, . . . , m. Por lo hiptesis de induccin; para cada , existe una matriz QT Ci Qi = D i

tal que

es una matriz diagonal. Sea ahora:

Q1 0 Q= . . . 0
La matriz Tambin

0 Q2
. . .


.. .

0 0 . . . . Qm

Q es ortogonal y es tal que QT Ci Q = Di es una matriz diagonal. T se tiene que Q DQ = D . As que:


y

QT RT Ai RQ = Di , i = 2, 3 . . . , s + 1,
Puesto que

QT RT A1 RQ = D . P
es tal que

son matrices ortogonales, entonces la matriz

es ortogonal. En consecuencia, la matriz ortogonal es una matriz diagonal para

P = RQ P T Ai P

i = 2, 3 . . . , s + 1.

P tal P T Ai P = Di es una matriz diagonal para cada i = 1, 2, . . . , k . Puesto que Di Dj = Dj Di , para todo i y todo j , i, j = 1, 2, . . . , k , entonces
(Necesidad:) Supongamos ahora que existe una matriz ortogonal que

P T Ai P P T Aj P = P T Aj P P T Ai P,
de donde se tiene que

Ai Aj = Aj Ai

para todo

i y todo j; i, j = 1, 2, . . . , k.

89

3.5. Ejercicios
3.4.6.

Diagonalizacin de matrices
Las matrices simtricas

Ejemplo.
A1 =

2 1

1 2

A2 =

3 4

4 3

A3 =

5 6

6 5

son tales que

Ai Aj = Aj Ai , i = 1, 2.

La matriz ortogonal

1 1 R= 2 1
es tal que

1 1 1 0 1 0 1

R T A1 R R T A2 R R T A3 R
es decir, la matriz ortogonal matrices

= = = R

D1 = D2 = D3 =

0 3 0 7 11 ,

diagonaliza de manera simultnea a las

A1 , A 2

A3 .

3.5. Ejercicios
3.5.1 Responda verdadero o falso, justicando su respuesta:

1. El Polinomio 2.

3. 4. 5.

p() = 3 + 2 2 + 43 puede ser el polinomio caracterstico de una matriz A M33 . 3 2 Si p() = + 4 5 + 2 es el polinomio caracterstico de una matriz A M33 , entonces |A| = 2. 1 3 1 1 x = 1 es un vector propio de M = 7 5 1 0 6 6 2 = 1 es un valor propio de la matriz M anterior. Si una matriz cuadrada A es diagonalizable, entonces existen 1 innitas matrices invertibles P tales que P AP = D es una
matriz diagonal. 90

Diagonalizacin de matrices
6. Sea y

3.5. Ejercicios
n. Si C es una matriz n invertible, entonces las matrices A, C 1 AC

una matriz cuadrada de orden

cuadrada de orden 7. Si 8. 9.

CAC 1 , tienen el mismo polinomio caracterstico. A y B son matrices simtricas de orden n, entonces la matriz AB es simtrica. Sean A y B matrices simtricas de orden n. AB es simtrica sii AB = BA. 1 Si P es una matriz ortogonal, entonces P tambin es ortogoP Si P
es una matriz ortogonal, entonces

nal. 10. Si 11. 12.

P T tambin es ortogonal. es una matriz ortogonal, entonces |P | = 1. Una matriz P de tamao n n es ortogonal sii los vectores la n de P conforman una base ortonormal de R . P = A 1 1 1 1
es ortogonal.

13. La matriz

14. Si la matriz

satisface la igualdad:

posibles valores propios de 3.5.2 Demuestre que: 1. Si 2. 3. 4. 5.

son

A2 = 3A 2I, 1 = 1, 2 = 2.

entonces los

6. 7.

8.

es un valor propio de A, entonces n es un valor propio de A , n = 1, 2, 3, . . .. Si x es un vector propio de A, entonces x es un vector propio de An , n = 1, 2, 3, . . .. = 0 es un valor propio de una matriz A sii |A| = 0. Si A es una matriz invertible y es un valor propio de A, entonces 1 es un valor propio de A1 . Si A y C son matrices cuadradas de orden n y si C es invertT 1 ible entonces las matrices A, A , C AC , CAC 1 , C 1 AT C y T 1 CA C tienen el mismo polinomio caracterstico. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la diagonal principal de T. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores propios (sugerencia: Analice los casos = 0 es un valor propio de AB y = 0 es un valor propio de AB ). Sean 1 , 2 , . . . , n los diferentes valores propios de una matriz A y sean 1 , 2 , . . . , m son los diferentes valores propios de una matriz B , entonces los diferentes valores propios de una matriz
n
91

3.5. Ejercicios
de la forma

Diagonalizacin de matrices

M=
son 9. Si

A 0

C B

1 , 2 , . . . , n , 1 , 2 , . . . , m . A es una matriz cuadrada de orden n, entonces pA () = |A I| es un polinomio de grado n en la variable que tiene
la forma:

pA () = a0 + a1 + a2 2 + + (1)n n .
(sugerencia: usar induccin sobre 10. Si

11.

12.

n). es un valor propio de una matriz A, entonces la multiplicidad geomtrica de es menor o igual que la multiplicidad algebraica de . (sugerencia: vea la demostracin del teorema 3.3.2). n Si A Mnn es tal que pA () = (1) (1 )(2 ) (n ) entonces: (i) |A| = 1 2 n y (ii) Tr A = 1 + 2 + + n . A B In In Sean A, B Mnn , M = y P = B A In In 1 1 a ) Verique que P = P. 2 1 b ) Calcule P M P y concluya que det M = det(A + B) det(A B).
c ) Use (b) para mostrar que

pM () = det(M I) = det((A + B) I) det((A B) I) .


13. Si 14. Si

son matrices ortogonales, entonces

PQ

es una matriz

ortogonal.

Q1 , Q2 , . . . , Qm son matrices ortogonales, Q1 0 0 0 Q2 0 Q= . . . . .. . . . . . . . 0 0 Qm

entonces la matriz

es tambin ortogonal . 15. Sea

x un -vector propio de A y sea y un -vector propio de AT , donde = , entonces x, y son vectores ortogonales (sugerencia: A es una matriz idempotente; esto es, tal que A2 = A, entonces los posibles valores propios de A son 1 = 0, 2 = 1.
92

vea la demostracin del teorema 3.3.2). 16. Si

Diagonalizacin de matrices
17. Si

3.5. Ejercicios
nn
entonces:

es una matriz simtrica idempotente

pA () = Tr A =
i=1 i=1

(aij )2 .

(Sugerencia: Utilice el teorema 3.3.13 y el corolario 2.3.5) 18. Sea 19. Si

a Mn1 un

vector no nulo. Entonces

una matriz simtrica de rango 1 y es tal

A = (aT a)1 aaT 2 que A = A.

es

es una matriz simtrica tal que todos los valores propios tal que propios

20.

M A = M T M. (Sugerencia: utilice el teorema 3.3.13(1)) Si A es una matriz simtrica tal que todos los valores
son positivos, entonces existe una matriz invertible invertible,

son positivos, entonces existe una matriz triangular superior e

T,

tal que

sobre el orden 21. Si

de

A = T T A. la matriz A).
y

(Sugerencia: utilice induccin

n que tiene p valores pron p valores propios nulos, entonces T existe una matriz no invertible M tal que A = M M. (Sugerenes una matriz simtrica de orden pios positivos

(p < n)

cia: utilice el teorema 3.3.13(1)). 22. Si

A es una matriz simtrica tal que A2 = A y si B es una matriz simtrica, del mismo orden de A, que tiene sus valores propios
positivos, entonces:

(ABA) = (A) = Tr A
(sugerencia: Utilice (19) y (17)). 23. Sea

una matriz cuadrada

nn

tal que

|aii | >
j=i,j=1
para todo

|aij | ,
entonces

A es invertible. (Sugerencia: T x1 x2 xn suponga que existe un vector x = = 0 tal que Ax = 0 y que |xi | = mx {|x1 | , |x2 | , . . . |xn |}. Despeje aii xi a en la i-sima ecuacin del sistema Ax = 0, tome valor absoluto
y llegue a una contradiccin). 24. Si

i = 1, 2, . . . n,

A = [aij ]nn

es una matriz simtrica tal que

|aii | >
j=i,j=1
93

|aij |

3.5. Ejercicios
para todo

Diagonalizacin de matrices
i = 1, 2, . . . n,
entonces todos los valores propios de

son positivos. (Sugerencia: suponga

es un valor propio de

A
25. Si

y utilice (23) para llegar a una contradiccin).

son dos matrices simtricas invertibles de igual or-

26.

AB = BA, entonces existe una matriz ortogonal P tal que P T AP, P T BP, P T ABP, P T AB 1 P, P T A1 BP y P T A1 B 1 P son matrices diagonales. 2 Si A es una matriz n n tal que A = mA, entonces
den tales que

Tr A = m(A).
(Sug.: considere (i)

(A) = 0,

(ii)

(A) = n

y (ii)

0 < (A) < n.

3.5.3 Clculos

1. Para cada una de las siguientes matrices: encuentre, si es posible, una matriz invertible

tal que

P 1 M P

sea una matriz diagonal

(i) M =

1 2 1 0

2 1 1 1 3 5 6 1 3 1 4 3 0 0 3 3 4 1 1 1 0 0 1 2 0 0 2 2

(ii) M =

1 2 0 2

0 2 2 0 1 5 6 1 1 2 1 1 2 0 1 4 0 0 1 4

(iii) M =

(iv) M =

1 (v) M = 3 6 3 (vii) M = 1 3 2 5 (ix) M = 0 0


2. Sea

3 (vi) M = 7 6 2 (viii) M = 0 0 0 2 (x) M = 0 0

2 0 1 0 0 1 0 2

T : P2 P2
2

la transformacin lineal denida por

T [a + bx + cx ] = (a b + 4c) + (3a + 2b c)x + (2a + b c)x2 .


a ) Calcule los valores propios y los vectores propios.
94

Diagonalizacin de matrices
b ) D, si existe, una base ordenada
una matriz diagonal.

3.5. Ejercicios
C
de

P2

tal que

[T ]CC

sea

3. Para cada una de las siguientes matrices encuentre una matriz ortogonal caso

Tr M

P , tal que P T M P y (A).

sea una matriz diagonal. D en cada

(i) M =

1 2

2 5

1 (ii) M = 1 0

1 0 0

0 0 1

2 1 1 1 1 1 1 1 (iii) M = 1 2 1 (iv) M = 1 1 1 2 1 1 1 4 4 2 4 2 2 (v) M = 2 3 0 (vi) M = 4 4 2 2 2 1 2 0 5


4. Para cada una de las siguientes matrices encuentre una matriz invertible

Q,

tal que

Qt M Q

sea de la forma

I 0 0

0 I 0

0 0 . 0

1 (i) M = 1 0 1 (iii) M = 2 0 2 (v) M = 1 1


a ) Si

1 1 0 2 0 0

0 0 1 0 0 1

0 (ii) M = 1 1 1 (iv) M = 0 1

1 1 2 2 2 1 0 1 2 1 1 1 2 1 4 2 2 8 P,
tal que

1 1 1 1 1 (vi) M = 2 1 5 1

5. Considere las matrices del ejercicio anterior:

QT M Q = I , M = P T P.

encuentre una matriz invertible

95

3.5. Ejercicios
b ) Si

Diagonalizacin de matrices
QT M Q =

6.

7.

I 0 , encuentre una matriz no invertible 0 0 T P, tal que M = P P. 1 2 3 1 4 1 5 5 4 Sean A = 2 y B = 4 14 3 5 11 1 4 6 a ) Verique que todos los valores propios de A son positivos, T encontrando una matriz invertible P tal que P AP = I. T T b ) En una matriz invertible M tal que M AM = I y M BM = D sea una matriz diagonal. 2 3 0 1 2 0 6 0 5 0 , S2 = 3 Considere la matrices S1 = 2 0 0 4 0 0 4 3 2 0 2 0 . y S3 = 2 0 0 8 a ) Verique que todos los valores propios de S1 son positivos, T encontrando una matriz invertible P tal que P S1 P = I. T T b ) Haga A = P S2 P y B = P S3 P .. Verique que AB = BA T y encuentre una matriz ortogonal Q tal que Q AQ = D1 y T Q BQ = D2 son matrices diagonales. c ) Concluya que la matriz invertible M = P Q es tal que M T S1 M = I y M T AM = D1 y M T BM = D2 son matrices diagonales.

96

CAPTULO 4

Formas cuadrticas

Este captulo consta de tres secciones. En la primera seccin introduciremos el concepto de Forma cuadrtica y sus respectivas clasicaciones (segn el signo de los elementos del rango) en formas cuadrticas positivamente (negativamente) denidas, formas cuadrticas positivamente (negativamente) semidenidas y formas cuadrticas indenidas. La segunda seccin versa sobre cambio de variables y diagonalizacin de formas cuadrticas. En esta seccin se utilizan los resultados de las secciones 3.3 y 3.4. En la tercera seccin damos algunos criterios para clasicar las formas cuadrticas segn el signo de los valores propios.

4.1. Clasicacin de las formas cuadrticas.


Las formas cuadrticas juegan un papel importante en las aplicaciones del lgebra lineal, particularmente, en la teora de modelos lineales (vase el captulo 4 de [ ]). Ellas se clasican de acuerdo al signo que tomen sus respectivas imgenes en: positivas, no negativas, negativas, no positivas e indenidas como veremos ms adelante. 4.1.1.

Denicin.

Una forma cuadrtica en

Rn

es una funcin

q : Rn

de la forma
n n

(4.1)

q [(x1 , x2 , . . . , xn )] =
i=1 j=1

aij xi xj , donde
97

aij R,

i, j = 1, 2, . . . , n.

4.1. Clasicacin

Formas cuadrticas

En trminos matriciales, dicha forma cuadrtica se puede expresar mediante

(4.2)

q (x) = xT Ax,

siendo

x1 x2 x = . Rn . . . xn S, S =
1 2 (A

Ahora bien, puesto que para la matriz simtrica satisface

+ AT ),

se

xT Sx

= = =

1 1 xT (A + AT )x = (xT Ax + xT AT x) 2 2 1 T 1 T x Ax + (x Ax)T = (xT Ax + xT Ax) 2 2 xT Ax ,

en la denicin anterior, (4.1) puede darse usando matrices simtricas as: (4.3)

q (x) = xT Sx .

Observamos entonces, que una forma cuadrtica se puede expresar matricialmente de varias maneras. Sin embargo, se puede demostrar (ejercicio 4.4.2(1)), que existe una nica representacin en trminos de matrices simtricas,

1 S = 2 (A + AT ),

para cada forma cuadrtica

q(x) = xT Ax.

Nota.

Con respecto a las formas cuadrticas podemos anotar que:

1. En la denicin 4.1.1 slo aparecen trminos cuadrticos (de or-

den

2)

de la forma

aij xi xj .

De aqu el calicativo de cuadrtica.

2. Podemos considerar slo matrices simtricas. En este sentido, en

lo que sigue, al referirnos a una forma cuadrtica pre

xT Sx,

siem-

denotar una matriz simtrica. Dicha matriz simtrica se

denomina, matriz de la forma cuadrtica.

4.1.2.

Ejemplo.
R,

De las siguientes funciones denidas sobre

R3 y con recor-

rido en

solamente la primera,

q1 ,

representa a una forma cuadrtica

q1 (x1 , x2 ) q2 (x1 , x2 ) q3 (x1 , x2 )

= =

3x1 x1 + 4x1 x2 + 2x2 x1 + 5x2 x2 ,

3x1 x1 + 4x2 x2 + 2x2 x1 + 5x2 x2 , 1 = 3x1 x1 + 4 x1 x2 + 2x2 x1 + 5x2 x2 .


98

Formas cuadrticas

4.1. Clasicacin

Dicha forma cuadrtica la podemos representar matricialmente como

q1 (x1 , x2 ) = xT Ax =

x1

x2

3 2

4 5

x1 x2 x1 x2 Rn .

o en trminos de matrices simtricas

q1 (x1 , x2 ) = xT Sx =
4.1.3.

x1

x2

3 3

3 5

Denicin.
ImaS = =

Sea

xT Sx
T

una forma cuadrtica en


n

El conjunto

x Sx : x R

r R : r = xT Sx

para algn

x Rn xT Sx. ImaS

se denomina recorrido o conjunto imagen de la forma cuadrtica

Una forma cuadrtica

xT Sx

se puede clasicar segn su recorrido

de acuerdo con la denicin siguiente. 4.1.4.

Denicin.
2. 3. 4. 5.

Se dice que una forma cuadrtica

xT Sx

es:

1. Positivamente denida, si

xT Sx > 0 para todo x = 0. T Negativamente denida, si x Sx < 0 para todo x = 0. T Positivamente semidenida, si x Sx 0 para todo x = 0, y T existe un x = 0 tal que x Sx = 0. T Negativamente semidenida, si x Sx 0 para todo x = 0, y T existe un x = 0 tal que x Sx = 0. T Indenida, si existen vectores no nulos x1 y x2 tales que x1 Sx1 > T 0 y x2 Sx2 < 0, respectivamente.
da.

6. No negativa, si es positivamente denida o positivamente semideni7. No positiva, si es negativamente denida o negativamente semideni-

da.
4.1.5.

Observacin. Denicin.

La forma cuadrtica

mente denida (semidenida) sii la forma es positivamente denida (semidenida). 4.1.6.

q1 (x) = xT Sx es negativaT cuadrtica q2 (x) = x (S)x S


es positivamente

Se dice que una matriz simtrica

(negativamente) denida (semidenida), indenida o no negativa, si la T forma cuadrtica q(x) = x Sx lo es.


99

4.1. Clasicacin
4.1.7.

Formas cuadrticas
Consideremos las siguientes tres formas cuadrticas en

R3

Ejemplo.

q1 (x1 , x2 , x3 ) q2 (x1 , x2 , x3 ) q3 (x1 , x2 , x3 )


Para la forma cuadrtica

= = =

x2 + 2x2 + 3x2 1 2 3 x2 + 2x1 x2 + x2 + x2 1 2 3 x2 2x2 + 3x2 1 2 3


se tiene:

q1 : R3 R

q1 (x1 , x2 , x3 )

= x2 + 2x2 + 3x2 1 2 3 = x1 x2 x3 1 0 0 0 2 0 0 x1 0 x2 3 x3 q1
es positivamente

= xT S1 x.
Puesto que denida. Para la forma cuadrtica

xT S1 x > 0

para todo

x = 0,

entonces

q2 : R3 R

se tiene:

q2 (x1 , x2 , x3 )

= = =

x2 + 2x1 x2 + x2 + x2 1 2 3 1 x1 x2 x3 1 0 xt S2 x.

= (x1 + x2 )2 + x2 3 x1 1 0 1 0 x2 x3 0 1
T

Puesto que se tiene

xT S2 x 0 para todo x = 0, y dado que para x = [1 1 0] T que x S2 x = 0, entonces q2 es positivamente semidenida. q3 : R3 R


se tiene:

Para la forma cuadrtica

q3 (x1 , x2 , x3 )

= = =

x2 2x2 + 3x2 1 2 3 x1 xt S3 x.
T

x2

x3

1 0 0

0 2 0

0 x1 0 x2 3 x3

Dado que

4>0

x1 = T y x2 S3 x2

[1 0 1] y x2 = [0 2 1] son vectores tales que xT S3 x1 = 1 = 5 < 0, entonces q3 es una forma cuadrtica indenida.
100

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin

4.2. Cambio de variables. Diagonalizacin simultnea de formas cuadrticas


El objetivo de esta seccin es continuar la discusin sobre la clasicacin de formas cuadrticas pero mediante la introduccin de cambios de variables adecuados. Se pretende con dichos cambios de variables, que la nueva representacin de las formas cuadrticas tengan una estructura ms sencilla, en algn sentido. Los resultados de esta seccin, son corolarios de aquellos obtenidos en las secciones 3.3 y 3.4. En tal sentido, omitiremos sus demostraciones y nos limitaremos a dar la referencia del resultado correspondiente en dichas secciones. 4.2.1.

Denicin

(Cambio de variable)

Sea

q : Rn R

una forma

cuadrtica una denida por


(4.1)

q(x) = xT Sx. P
una matriz invertible

x Rn

y sea

variable para la forma cuadrtica 1

n n. Entenderemos como un cambio de q, a la transformacin x = P y o y = P


es una matriz invertible, enn

x.

Observacin.
se tiene:
(4.2)

En la denicin anterior,

tonces la transformacin determina un nico

yx=P y x Rn y viceversa.

es biunvoca. Esto es, un

yR

Hecho un tal cambio de variables,

xT Sx = yT P T SP y = yT By

donde

B = P T SP .
invertible) como la

Podemos interpretar el cambio de variable transformacin lineal biyectiva:

x = P y (P

P : Rn y
as que

Rn x = Py .

(q P ) : Rn R

dene una nueva forma cuadrtica

q (y) = (q P )(y) = q(P y) = yT P T SP y = yT By,


que se relaciona con la forma cuadrtica (4.2).
4.2.2.

por medio de las igualdades

Ejemplo.

Sea

q : R3 R

la forma cuadrtica denida por

q [(x1 , x2 , x3 )] = x2 + 4x1 x2 6x1 x3 + 5x2 8x2 x3 + 8x2 . 1 2 3


101

4.2. Cambios de variable y diagonalizacin


Para esta forma cuadrtica podemos escribir

Formas cuadrticas

q [(x1 , x2 , x3 )] = xT Sx = x1 x2 x3

1 2 3

2 3 x1 5 4 x2 . 4 8 x3 x1 x2 x3

Ahora, si hacemos el cambio de variables:

y1 y = y2 = P 1 x y3

=
encontramos que:

1 2 3 0 1 2 0 0 1 x1 + 2x2 3x3 x2 + 2x3 x3


donde

xT Sx

yT P T SP y = yT By 1 0 2 1 7 2 1 0 0 0 1 0 0 0 5 0 1 0 2 1 3 .

B = P T SP

2 3 1 5 4 0 4 8 0

2 7 1 2 0 1

=
Por lo tanto,

xt Sx = yt By = =
es decir,

y1

y2

y3

1 0 0

y1 0 0 1 0 y2 0 5 y3

2 2 2 y1 + y2 5y3 ,

xT Sx
donde

= x2 + x1 x2 6x1 x3 + 5x2 8x2 x3 + 8x2 1 2 3


2 2 2 = y1 + y2 5y3

y1 = x1 + 2x2 3x3 ,
T

y2 = x2 + 2x3 ,
T

y3 = x3 .

Claramente es ms fcil estudiar la expresin

2 2 2 y By = y1 +y2 5y3 , que la 2 2 2 expresin x Sx = x1 +x1 x2 6x1 x3 +5x2 8x2 x3 +8x3 . Por ejemplo, una 2 T 2 2 simple inspeccin nos permite ver, que la expresin y By = y1 + y2 5y3
toma valores tanto positivos como negativos, tomando respectivamente 102

Formas cuadrticas
y1 = 0, y2 = 0, y3 = 0, T la expresin x Sx.
4.2.3. y

4.2. Cambios de variable y diagonalizacin


y1 = 0, y2 = 0, y3 = 0.
Lo que no es claro para

variables

T Dada una forma cuadrtica x Sx, si el cambio de T T T T es tal que x Sx = y P SP y = y Dy, donde D es 1 una matriz diagonal, entonces se dice que el cambio de variables y = P x T diagonaliza la forma cuadrtica x Sx.

Denicin.

y = P 1 x

4.2.4.

y = P 1 x que diagonalice la forma cuadrtica xT Sx se reduce a encontrar T una matriz invertible P tal que P SP = D sea una matriz diagonal.

Observacin.

El problema de encontrar un cambio de variables

La demostracin del siguiente resultado, es una consecuencia del teorema 3.3.10.

xT Sx existe una matriz or1 T togonal Q tal, que el cambio de variables y = Q x = Q x la diagonaliza. Adems Q tiene como columnas un conjunto ortonormal de vectores propios de la matriz S y
4.2.5.

Teorema.

Para toda forma cuadrtica

xT Sx

yT QT SQy = yT Dy 1 0 . . . 0 0 2
. . .

y1

y2


.. .

yn

0 y1 0 y2 . . . . . . n yn

=
donde los
4.2.6.

2 2 2 1 y1 + 2 y2 + . . . + n yn ,

i , i = 1, 2, . . . , n
Sea

son los valores propios de la matriz

S.

Ejemplo.

q : R3 R

la forma cuadrtica denida por:

q [(x1 , x2 , x3 )] = X t SX = x1 x2 x3

1 1 1

1 1 1

1 x1 1 x2 1 x3

= x2 + 2x1 x2 + 2x1 x3 + x2 + 2x2 x3 + x2 . 1 2 3


Segn el teorema 3.3.10, existe una matriz ortogonal es una matriz diagonal con los valores propios de de

Q tal que QT SQ = D

S en la diagonal. Despus

de efectuar los clculos pertinentes, se encuentra, que los valores propios

son

0 (con multiplicidad 2) y 3 (con multiplicidad 1), y que la matriz


103

4.2. Cambios de variable y diagonalizacin


ortogonal:

Formas cuadrticas
1/3 1/3 1/ 3 0 0 . 3 Q1 x diagonaliza

1/2 Q = 1/ 2 0

1/5 1/5 2/ 5 0 0 0 =

es tal que

0 QT SQ = D = 0 0 Por lo tanto, el cambio de variables y T cuadrtica x Sx, obtenindose: xT Sx = yT QT SQy = yT Dy

la forma

= y1 y2 y3

0 0 0

0 0 0

y1 0 2 0 y2 = 3y3 . 3 y3

El siguiente teorema est estrechamente relacionado con el literal (1) del teorema 3.3.13 y plantea la existencia de un cambio de variable ligado al signo de los valores propios de la matriz de la forma cuadrtica.

xT Sx una forma cuadrtica sobre Rn . Si la matriz S tiene (0 n) valores propios, no necesariamente diferentes, estrictamente positivos y (0 n) valores propios, no necesariamente
4.2.7.

Teorema.

Sea

diferentes, estrictamente negativos, entonces existe un cambio de variables y = P 1 x que diagonaliza la forma cuadrtica xT Sx, obtenindose:

xT Sx

yT P T SP y = yT Dy I 0 0 0 I 0 y1 0 y2 0 . . . 0 yn

y1

y2

yn

=
4.2.8.

2 2 2 2 2 2 y1 + y2 + . . . + y y+1 y+2 . . . y+ .
Sea

Ejemplo.
q (x)

q : R3 R x Sx
T

la forma cuadrtica denida por:

= =

x1 x2 x3

1 1 1

1 0 2

1 x1 2 x2 0 x3

x2 + 2x1 x2 + 2x1 x3 + 4x2 x3 . 1


104

Formas cuadrticas
Los valores propios de

4.2. Cambios de variable y diagonalizacin


1 = 3, 2 = 2 y 3 = 0. P tal que: 1 0 0 P T SP = D = 0 1 0 . 0 0 0 S
son Por el teorema

3.3.13(1) , existe una matriz invertible

Efectuando los clculos del caso se encuentra que la matriz invertible

1 P = 0 0
naliza la forma cuadrtica

1 2 1 1 0 1 y = P 1 x
diago-

sirve par tal efecto. Por lo tanto, el cambio de variables

x Sx,

obtenindose:

xT Sx

= yT P T SP y = yT Dy = y1 y2 y3 1 0 0 0 1 0 y1 0 2 2 0 y2 = y1 y2 . y3 0

El teorema siguiente, plantea un criterio para la existencia de un cambio de variables que diagonalice simultneamente a dos formas cuadrticas. Su demostracin se obtiene de la diagonalizacin simultnea de matrices simtricas (teorema 3.4.1).

q2 (x) = xT S2 x dos formas cuadrticas en R . Si todos los valores propios de S1 son estrictamente 1 positivos, entonces existe un cambio de variables y = Q x que diagoT naliza simultneamente las formas cuadrticas q1 (x) = x S1 x y q2 (x) = xT S2 x obtenindose:
4.2.9.

Teorema.

Sean

q1 (x) = xT S1 x

2 2 2 xT S1 x = yT QT S1 Qy = yT Iy = y1 + y2 + . . . + yn

xT S2 x

= yT QT S2 Qy = yT Dy = y1 y2 yn 1 0 . . . 0 0 2
. . .


.. .

0 y1 0 y2 . . . . . . n yn

2 2 2 = 1 y1 + 2 y2 + . . . + n yn ,
105

4.2. Cambios de variable y diagonalizacin


donde los

Formas cuadrticas
|S2 S1 | =

0,

i , i = 1, 2, . . . , n son las soluciones de la ecuacin las cuales son reales.

Ilustremos dicho resultado con el siguiente ejemplo. 4.2.10.

Ejemplo.

Sean

q 1 : R3 R

q2 : R3 R 1 0 0 5 4 4 0 4 2 4 8 4

las formas cuadrtica

denidas por:

q1 (x)

= xT S1 x =

x1

x2

x3

0 x1 2 x2 2 x3 x1 4 4 x2 4 x3

= x2 + 4x2 + 4x2 x3 + 2x2 , 1 2 3 q2 (x) = xT S2 x = = 2 = 3 + 5 x1 x2 x3

5x2 + 8x1 x2 + 8x1 x3 + 8x2 8x2 x3 4x2 . 1 2 3 3 = 3 S1


son:

Por el ejemplo 3.4.2 sabemos que los valores propios de y

1 = 1,

5,

los cuales son estrictamente positivos y que

la matriz invertible

Q=
es tal que

1 3 0 2 3

2 5 1 2 5 0

3 5 3 3 5 5 3 5

QT S1 Q = I3

3 QT S2 Q = D = 0 0
t

0 6 0

0 0 . 6
simultnea-

Por lo tanto, el cambio de variables mente las formas cuadrticas

y = Q1 x diagonaliza x S1 x y xt S2 x obtenindose:

2 2 2 xT S1 x = yT QT S1 Qy = yT I3 y = y1 + y2 + y3
106

Formas cuadrticas
y

4.2. Cambios de variable y diagonalizacin

xT S2 x

= yT QT S2 Qy = yT Dy = y1 y2 y3 3 0 0 0 6 0 0 y1 0 y2 6 y3

2 2 2 = 3y1 + 6y2 + 6y3 .

Los siguientes dos resultados estn relacionados de manera muy cercana con el teorema 3.4.3 y el corolario 3.4.5 respectivamente. Ellos nos brindan condiciones necesarias y sucientes bajo las cuales podemos hablar de diagonalizacin ortogonal simultnea de dos o ms formas cuadrticas. En forma ms precisa tenemos: 4.2.11.

Rn las dos formas cuadrticas q1 (x) = xT S1 x y q2 (x) = xT S2 x. S1 S2 = S2 S1 sii existe una matriz ortogonal P tal que el cambio de variables y = P 1 x = P T x diagonaliza simultneamente las formas cuadrticas xT S1 x y xT S2 x obtenindose: xT S1 x = yT P T S1 P y = yT D1 y = y1 y2 yn 1 0 . . . 0 0 2
. . .

Teorema

(Diagonalizacin ortogonal simultnea)

Considere en


.. .

0 y1 0 y2 . . . . . . n yn

2 2 2 = 1 y1 + 2 y2 + . . . + n yn ,

xT S2 x

yT P T S2 P y = yT D2 y 1 0 . . . 0 0 2
. . .

y1

y2


.. .

yn

0 y1 0 y2 . . . . . . n yn

2 2 2 1 y1 + 2 y2 + . . . + n yn ,
107

4.2. Cambios de variable y diagonalizacin


donde los

Formas cuadrticas
S1
y los

i , i = 1, 2, . . . , n
Sean

son los valores propios de

i , i =

1, 2, . . . , n
4.2.12.

son los valores propios de

S2 .
formas cuadrticas

en

Una condicin necesaria y suciente para que exista una matriz 1 ortogonal P tal que el cambio de variables y = P x = P T x diagonalice T T T simultneamente las formas cuadrticas x S1 x, x S2 x, . . . , x Sk x es que Si Sj = Sj Si para todo i y todo j; i, j = 1, 2, . . . , k .
4.2.13.

R .

Corolario.

xT S1 x, xT S2 x, . . . , xT Sk x

Ejemplo.

Sean

q 1 : R4 R

q2 : R4 R

las formas cuadrtica

denidas por:

q1 (x)

= xT S1 x = x1 x2 x3 x4 1 1 0 0 1 1 0 0 0 0 1 0 x1 0 0 x2 0 x3 1 x4

= q2 (x) = =

x2 2x1 x2 + x2 + x2 + x2 , 1 2 3 4 xT S2 x x1 x2 x3 x4 1 0 0 0 0 1 0 0 x1 0 0 0 0 x2 2 2 x3 2 5 x4

x2 + x2 + 2x2 4x3 x4 + 5x2 . 1 2 3 4 S1 S2 = S2 S1 0 0 2/ 5 1/ 5 0 0 1/ 5 2/ 5


y que la matriz ortogonal

Del ejemplo 3.4.4 sabemos que,

1/ 2 1/ 2 P = 0 0
es tal que

1/ 2 1/ 2 0 0

0 0 P t S1 P = D1 = 0 0

0 1 0 0

0 0 1 0

0 0 , 0 2

1 0 P t S2 P = D2 = 0 0

0 1 0 0

0 0 6 0

0 0 0 1

108

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin


xT S1 x y = P 1 x diagonaliza T y x S2 x obtenindose:
simultnea-

Por lo tanto, el cambio de variables mente las formas cuadrticas

xT S1 x

= =

yT P T S1 P y = yT D1 y
2 2 2 y2 + y3 + y4 ,

xT S2 x

yT P T S2 P y = yT D2 y R2 :

2 2 2 2 = y1 + y2 + 6y3 + y4 .
4.2.14.

Ejemplo.
= = =

Consideremos las formas cuadrticas en

q1 (x) q2 (x) q3 (x)

xT S1 x = xT S2 x = xT S3 x =

x1 x1 x1

x2 x2 x2

2 1 3 4 5 6

1 2 4 3 6 5

x1 x2 x1 x2 x1 x2

= 2x2 + 2x1 x2 + 2x2 1 2 = 3x2 + 8x1 x2 + 3x2 1 2 = 5x2 + 12x1 x2 + 5x2 . 1 2


y que la matriz

Del ejemplo 3.4.6 sabemos, que ortogonal

Si Sj = Sj Si , i = 1, 2, 3 1 1 1 1

P = 1/ 2
es tal que

P T S1 P = D1 =

1 0

0 3

P T S2 P = D2 = 1 0 0 11

1 0

0 7

P T S3 P = D3 =
Por lo tanto, el cambio de variables mente las formas cuadrticas

y = P 1 x diagonaliza simultneax S1 x, xT S2 x y xT S3 x, obtenindose:


T

xT S1 x xT S2 x xT S3 x

= yT P T S1 P y = yT P T S2 P y = yT P T S3 P y

= = =

y1 y1 y1

y2 y2 y2
109

1 0 1 0 1 0

0 3 0 7 0 11

y1 y2 y1 y2 y1 y2

2 2 = y1 + 3y2 2 2 = y1 + 7y2 2 2 = y1 + 11y2

4.3. Formas positivas denidas

Formas cuadrticas

4.3. Formas cuadrticas positivas, negativas e indenidas.


En esta seccin utilizaremos la discusin previa sobre cambios de variables con el objeto de introducir algunos criterios de clasicacin de formas cuadrticas. Tales criterios estarn dados en trminos de los signos de valores propios de la matriz de la forma cuadrtica. Como se recordar de la seccin anterior, toda matriz invertible

P Mnn , junto con el cambio de variables x = P y y = P 1 x (x, y Rn ), t nos permite reescribir la forma cuadrtica q(x) = x Sx en trminos de la T T variable y, mediante la expresin q (y) = y By, donde B = P SP. Esto
es, para dicho cambio de variable se tiene

q(x) = xT Sx = yT By = q (y),
De esto se sigue entonces, que decir,

con y

x = P y,

invertible.

q()

q ()

tienen la misma imagen, es

xT Sx : x Rn = yT By : y Rn .
El siguiente resultado relaciona las clasicaciones de dichas formas cuadrticas. La vericacin de ste se deja a cargo del lector. 4.3.1.

q(x) = xT Sx una forma cuadrtica en Rn y sea P t T una matriz invertible nn. Sea adems q (y) = y By, donde B = P SP , 1 la forma cuadrtica generada por el cambio de variables y = P x. EnSea tonces se tiene:
1. 2. 3.

Teorema.

q(x) = xt Sx es positivamente (negativamente) denida sii q (y) = yt By es positivamente (negativamente) denida. q(x) = xT Sx es positivamente (negativamente) semidenida sii q (y) = yT By es positivamente (negativamente) semidenida. q(x) = xT Sx es indenida sii q (y) = yT By es indenida.

El siguiente teorema relaciona el signo de las formas cuadrticas con el signo de los valores propios de la matriz simtrica que dene dicha forma cuadrtica. 4.3.2.

Teorema.
1.

Sea

xT Sx

una forma cuadrtica en

Rn , S = 0.

xT Sx S son

es positivamente denida sii todos los valores propios de estrictamente positivos.


110

Formas cuadrticas
2.

4.3. Formas positivas denidas


S
tiene

xT Sx

es positivamente semidenida sii

p (0 < p < n)

valores propios estrictamente positivos y el resto de valores pro3.

pios de S son nulos. xT Sx es indenida sii S

tiene valores propios estrictamente pos-

itivos y valores propios estrictamente negativos.

Demostracin. De acuerdo con el teorema 4.2.5, la forma cuadrti-

ca

q(x) = xT Sx, con S

una matriz simtrica, es ortogonalmente diagonal-

izable. Es decir, existe una matriz ortogonal

y un cambio de variables

y = Q1 x = Qt x,
(4.1) donde los

tal que

2 2 2 xT Sx = yT QT SQy = yT Dy = 1 y1 + 2 y2 + . . . + n yn ,

i , i = 1, 2, . . . , n
T

son los valores propios de la matriz

S,

D = Q SQ = diag

1 ,

2 ,

...,

n
T

Supongamos ahora, que la forma cuadrtica

mente denida. Entonces por el teorema 4.3.1(1),

q(x) = x Sx es positivaq (y) = yT Dy es tam T bin positivamente denida, sto es, q (y) = y Dy > 0 para todo y = 0. De (4.1) se tiene entonces que 1 > 0, 2 > 0, . . . , 2 > 0. Es decir, todos los valores propios de S son estrictamente positivos.
De otro lado, si todos los valores propios de tivos, entonces existe un cambio de variables tal que

S son estrictamente posiy = P 1 x (teorema 4.2.7),

2 2 2 xT Sx = yT P T SP y = yT y = y1 + y2 + . . . + yn . T T Puesto que y y > 0 para todo y = 0, entonces x Sx > 0, para todo T x = 0. Esto es, la forma cuadrtica x Sx, es positivamente denida, lo
que demuestra el inciso (1) de nuestro teorema. Supongamos ahora, que la forma cuadrtica ca

q(x) = xT Sx

es positiva-

mente semidenida. Por el inciso (2) del teorema 4.3.1, la forma cuadrti-

q (y) = yT Dy es tambin positivamente semidenida. Esto es, se tiene T que q (y) = y Dy 0 para todo y Mn1 y existe un y = 0 tal que T y Dy = 0. Usando (4.1) se tiene entonces, que los valores propios de S son no negativos y que por lo menos uno de ellos es nulo. Es decir, S tiene (0 < < n) valores propios estrictamente positivos y el resto de valores propios de S son nulos.
Finalmente, supongamos que la matriz tiene

de la forma cuadrtica,

valores propios estrictamente positivos, con 111

0 < < n,

xT Sx, (n )

4.3. Formas positivas denidas


y = P 1 x

Formas cuadrticas

valores propios nulos. Por el teorema 4.2.7 existe un cambio de variables tal que

2 2 2 xT Sx = yT P T SP y = yT Dy = y1 + y2 + . . . + y .
por hiptesis, ver, que para

yT Dy 0 y Mn1

para todo dado por

y Mn1 . 0

No es difcil sin embargo

. 01 . . 1 0 = = . , 1 . . . 1 . . n1 1 n1
sto quiere decir, que

se tiene

q (y) = yT Dy es positivaT mente semidenida y por consiguiente, q(x) = x Sx tambin lo es, lo que
demuestra el inciso (2) de nuestro teorema.

yT Dy = 0.

El resultado correspondiente a formas indenidas se plantea como un ejercicio para el lector. 4.3.3.

xT Sx,

Ejemplo.

Ilustremos el teorema 4.3.2 con formas cuadrticas

q(x) =

denidas en

R3 . q(x) = xT Sx denida 5x2 + 4x2 + 2 3x2 x3 + 6x2 3 1 2 5 0 0 0 4 3


por:

1. La forma cuadrtica

q(x)

x1

x2

x3

x1 0 3 x2 x3 6

= xT Sx
es positivamente denida, pues los valores propios de la matriz

son:

1 = 5, 2 = 3

3 = 7,

los cuales son estrictamente

positivos.

112

Formas cuadrticas
2. La forma cuadrtica

4.3. Formas positivas denidas


q(x) = xT Sx
denida por:

q(x)

x2 + 2x1 x2 4x1 x3 + 2x2 4x2 x3 + 4x2 1 2 3 1 1 2 1 2 2 2 x1 2 x2 4 x3

= =
triz

x1

x2

x3

xT S x 1 =
7+ 23 , 2

es positivamente semidenida, pues los valores propios de la ma-

son:

2 =

7 23 y 2

3 = 0.

3. La forma cuadrtica

q(x) = xT Sx 2x2 2

denida por:

q(x)

x2 1

4x1 x2 +

4x2 x3 + 3x2 3 2 2 2 x1 0 2 x2 x3 3 S
son:

x1

x2

x3

1 2 0

= xT Sx
es indenida, pues los valores propios de y 4.3.4.

1 = 1, 2 = 2

3 = 5.
Sea

Teorema.
1. 2.

xT Sx

una forma cuadrtica en

Rn .

xT Sx es positivamente denida sii existe una matriz invertible Q tal que S = Qt Q. xT Sx es positivamente semidenida sii existe una matriz no inT vertible Q tal que S = Q Q.

Demostracin. Demostraremos slo el inciso (1), el otro se verica

anlogamente y se deja como ejercicio. Supongamos que la forma cuadrtica tonces todos los valores propios de

xt Sx

es positivamente denida, en-

son estrictamente positivos (teorema

4.3.2(1)), adems, existe una matriz invertible rema 3.3.13(1)). De sto se sigue, que

P tal que P T SP = I (teoS = (P T )1 P 1 = QT Q, donde

Q = P 1 .
Supongamos ahora que existe una matriz invertible 113

tal que

S = QT Q.

4.3. Formas positivas denidas

Formas cuadrticas

Puesto que Q es invertible, entonces Qx = 0 para todo vector no nulo x. De sto se sigue, que xT Sx = xT QT Qx = (Qx)T (Qx) > 0, para todo x = 0. sto es, la forma cuadrtica xT Sx es positivamente denida. 4.3.5.

Ejemplo.
1. La forma cuadrtica

q : R3 R

denida por:

q(x)

= = =

4x2 1

x2 2

x1 xT Sx

4x2 x3 + 5x2 3 4 0 x2 x3 0 1 0 2

x1 0 2 x2 x3 5

es positivamente denida, pues los valores propios de la matriz

son

1 = 4, 2 = 3 +

3 = 3

5,

los cuales son estric-

tamente positivos. Efectuando los clculos pertinentes se encuentra que la matriz invertible

2 Q= 0 0

0 1 0

0 2 , 1

es tal

4 que S = 0 0

0 0 1 2 = QT Q. 2 5

2. La forma cuadrtica

q : R3 R

denida por:

q(x)

= x2 + 2x1 x2 + 2x1 x3 + x2 + 2x2 x3 + x2 1 2 3 1 1 1 x1 x1 x2 x3 1 1 1 x2 = 1 1 1 x3 = xT Sx 1 = 0, 2 = 0


y

es positivamente semidenida, pues los valores propios de la matriz

son

3 = 3.

Efectuando los clculos pertinentes se encuentra que la matriz no invertible

1 Q= 0 0

1 0 0

1 0 , 0

es tal que

1 S= 1 1

1 1 1

1 1 = QT Q. 1

114

Formas cuadrticas

4.3. Formas positivas denidas

El siguiente teorema nos da un criterio para clasicar matrices simtricas como positivamente denidas o negativamente te denidas, en trminos de los determinantes de la propia matriz y de algunas de sus submatrices. Aqu hacemos la salvedad, de que en el caso de matrices de tamao decir escalares), escribiremos con el valor absoluto. 4.3.6.

11(es det() en lugar de || , para evitar la confusin S de s1n s2n . . . . snn


orden

Teorema.

Considere una matriz simtrica

n.

s11 s21 S= . . . sn1

s12 s22
. . .


.. .

sn2

Dena ahora la secuencia de matrices

Sn = S, Sn1

s11 s21 = . . . sn1 s11 s21 s12 s22

s12 s22
. . .


.. .

sn2
y

s1(n1) s2(n1) , ... . . . sn(n1)

S2 =
Entonces:

S1 = [s11 ] .

1. La forma cuadrtica 2.

q(x) = xT Sx es positivamente denida y slo si det(S1 ) > 0, |S2 | > 0, |S3 | > 0, . . .|Sn | > 0. T La forma cuadrtica q(x) = x Sx es negativamente denida n y slo si det(S1 ) < 0, |S2 | > 0, |S3 | < 0, . . .(1) |Sn | > 0.

si si

Demostracin. Presentaremos aqu slo la demostracin de la parte

(1), la otra se deja como ejercicio: (Condicin necesaria) En primer lugar, si la forma cuadrtica denida sobre

xT Sj xj j

R ,

para

la forma cuadrtica en efecto, para todo

xj1 = =

2 j n, es positivamente denida, entonces Rj1 xT Sj1 xj1 es positivamente denida. En j1 = 0 se tiene que: xT j1 0 Sj1 st s sjj xj1 0

xT Sj xj j

xT Sj1 xj1 > 0. j1


115

4.3. Formas positivas denidas


En segundo lugar, si la forma cuadrtica

Formas cuadrticas
xT Sj xj , j
denida sobre

Rj ( 2

j n), es positivamente denida, entonces existe una matriz invertible 2 Qj tal que Sj = QT Qj , de donde |Sj | = Qt |Qj | = |Qj | > 0 (teorema j j
4.3.4(1)) Estas dos observaciones nos permiten concluir que si la forma cuadrtica

xt Sx es positivamente 0, . . .|Sn | > 0.

denida entonces

det(S1 ) > 0, |S2 | > 0, |S3 | >

(Condicin suciente) Haremos una demostracin de esta implicacin usando induccin sobre Cuando sto,

n.

n = 1, S1 = [s11 ]. Ahora, por hiptesis det(S1 ) = s11 > 0. Por xt S1 x = s11 x2 > 0 para todo x = 0; esto es, la forma cuadrtica xt S1 x es positivamente denida.
Supongamos ahora que la implicacin es vlida para cuando veriquemos que la implicacin es vlida para

n = k, y n = k + 1. Sea pues S = Sn una matriz simtrica de orden n = k + 1 tal que |Sn | = |Sk+1 | > 0, |Sn1 | = |Sk | > 0, . . . |S2 | > 0 y |S1 | > 0. Por hiptesis de induccin, t k la forma cuadrtica xk Sk xk en R es positivamente denida. Existe ent tonces una matriz invertible Qk tal que Sk = Qk Qk (teorema 4.3.4(1)).
Ahora, por el teorema 2.2.3(2) se tiene que:

|Sk+1 | =

Sk st

s s(k+1)(k+1)

1 = |Sk | det s(k+1)(k+1) st Sk s

= |Sk | det(k ).
Aqu hemos introducido la sustitucin simplicar un poco la escritura, que

1 k = s(k+1)(k+1) st Sk s para adems se tiene que det( k ) > 0, puesto

|Sk+1 | > 0

|Sk | > 0. .

Sea ahora

Qk+1 =

Qk 0
116

(Qt )1 s k k

Formas cuadrticas
La matriz

4.3. Formas positivas denidas

Qk+1

es invertible y es tal que:

Sk+1

= =

Sk sT

s s(k+1)(k+1) QT k 0 k Qk 0 (QT )1 s k k

sT (Qk )1

=
denida sobre 4.3.7.

QT Qk+1 . k+1 xT Sk+1 xk+1 , k+1


es positivamente denida.

Por lo tanto, en virtud del teorema 4.3.4(1), la forma cuadrtica

k+1

Ejemplo.
1. La forma cuadrtica

xT Sx, donde : 4 2 2 S= 2 5 1 2 1 4

es positivamente denida, pues:

det(S1 ) = det(4) = 4 > 0, |S2 | = 4 2 2 2 5 1 2 1 4

4 2

2 5

= 16 > 0

|S3 | =
2. La forma cuadrtica

= 20 > 0.

xt Sx, donde : 3 2 0 2 S = 2 4 0 2 5

es negativamente denida, pues:

det(S1 ) = det(3) = 3 < 0, |S2 | = 3 2 0 2 0 4 2 2 5


117

3 2

2 4

=8>0

|S3 | =

= 28 < 0.

4.4. Ejercicios
4.3.8. ciones

Formas cuadrticas
S = [aij ]nn
una matriz simtrica y sean

Nota.

Sea

S1 , S2 , . . . , Sn

las matrices que aparecen en el enunciado del teorema anterior. Las condicuadrtica

det(S1 ) 0, |S2 | 0, |S3 | 0, . . .|Sn | 0 no implican que la forma xt Sx sea positivamente semidenida. Por ejemplo, la matriz 1 1 2 S= 1 1 2 2 2 1 1 1 1 1

es tal que

det(S1 ) = det(1) = 1, |S2 | =


y

=0

|S3 | =
Sin embargo, la forma cuadrtica el vector

1 1 2

1 1 2

2 2 1

= 0.

xT Sx no es positivamente denida, pues T es tal que x Sx = 3 < 0.

4.4. Ejercicios
4.4.1 Responda verdadero o falso justicando su respuesta. 1. Sea 2. 3.

M una matriz cuadrada de orden n. Si xT M x = 0 para todo x Rn entonces M = 0. Si la matriz S es indenida, entonces la matriz S es indenida. 2 Si S es una matriz simtrica tal que S = S, entonces S es no
negativa.

4. Si 5. Si

S S1

es una matriz simtrica tal que y

S 3 = S,

entonces

es no

negativa.

S2

son matrices positivamente denidas (semidenidas)

entonces la matriz

S=

S1 0

0 S2

es positivamente denidas (semidenidas). 6. Si

S1

S2

son matrices positivamente denidas de igual orden,

entonces la matriz

S = S1 + S2
118

es positivamente denida.

Formas cuadrticas
7. Si 8.

4.4. Ejercicios

S2 son matrices indenidas de igual orden, entonces la S = S1 + S2 es indenida. Si S1 y S2 son matrices positivamente denidas de igual orden tales que S1 S2 = S2 S1 , entonces la matriz S = S1 S2 es positiy matriz vamente denida.

S1

9. Sea

S=

a b

b c

. Si

a > 0 y c > 0, entonces S b c

es positivamente

semidenida. 10. La matriz

S =

a b

es negativamente denida sii

a<0

ac b2 > 0.
4.4.2 Demuestre que:

1. Para cada forma cuadrtica simtrica

q : Rn R xT = A,

existe una nica matriz

de orden

tal que: con

q [(x1 , x2 , . . . , xn )] = xT Sx, S2 = AAT


la matriz la matriz 5. Si la

x1

x2

xn

.
y

2. Para cualquier matriz cuadrada son no negativas. 3. Para cualquier matriz cuadrada

las matrices

S1 = AT A (A) = n

n n, A,

se tiene:

sii

S = AT A

es positivamente denida.

4. Para cualquier matriz cuadrada

n n, A, se tiene: (A) < n sii S = AT A es positivamente semidenida. 1 matriz S es positivamente denida entonces la matriz S S
es no negativa, entonces los elementos de la diag-

es positivamente denida. 6. Si la matriz onal de

son no negativos.

7. Si la matriz

8.

S = [sij ]nn es positivamente semidenida y si sii = 0, entonces cada elemento de la la i de S y cada elemento de la columna i de S es nulo. Si S = [sij ] nn es una matriz simtrica tal que: sii >
j=i n j=1

|sij | ,

para

i = 1, 2 . . . , n,

entonces

es positivamente denida (sugerencia: vea el proble-

ma 3.5.2(23)). 119

4.4. Ejercicios
9. Si

Formas cuadrticas

10.

2 2 S1 y S2 son matrices simtricas de igual orden tales S1 + S2 = 0 entonces S1 = S2 = 0. (sugerencia: considere la expresin 2 2 xT (S1 + S2 )x). Si S es positivamente denida de orden n, a un vector n 1 y un nmero real tal que > aT Sa, entonces la matriz

S =

S aT

es positivamente denida (Sugerencia: utilice el teorema 4.3.6(1)). 11. Si

es una matriz positivamente denida, entonces existe una

12. 13. 14. 15.

S = T T T (Sugerencia: utilice induccin sobre el orden n, de la matriz S ). Si S es una matriz positivamente, entonces Tr S > 0. Si S es una matriz positivamente, entonces Tr S 0. Si S1 y S2 son matrices positivamente denidas de igual orden, entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema 4.3.4(1)). Si S1 y S2 son matrices positivamente semidenidas de igual orden, entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema
matriz invertible

triangular superior tal que

4.3.4(2)).

4.4.3 Clculos

1. Para cada una de las formas cuadrticas

xT Sx

siguientes:

a ) Haga un cambio de variables que las diagonalice. b ) Clasifquela como positivamente denida (semidenida), negativamente denida (semidenida) o indenida.

c ) Para aquellas que sean positivamente denidas, encuentre T


una matriz invertible

tal que

S = Q Q.

d ) Para aquellas que sean positivamente semidenidas, encuenT


tre una matriz no invertible 1) 2) 3) 4) 5) 6)

Q tal que S = Q Q. xT Sx = x2 + 4x1 x2 2x2 1 2 xT Sx = x2 + 2 2x1 x2 + 4x2 + x2 2 3 1 xT Sx = x2 + 4x1 x2 2x1 x3 + 4x2 4x2 x3 + 8x2 1 2 3 xT Sx = x2 + 4x12 + 6x1 x3 2x2 x3 + x2 x 1 3 2 1 2 xT Sx = x2 + 2 x1 x3 + x2 + x2 2 3 1 3 3 3 xT Sx = x2 2x1 x3 + 2x2 + 2x2 x3 + 2x2 1 2 3
120

Formas cuadrticas
2. Considere las formas cuadrticas:

4.4. Ejercicios

xT S1 x x S2 x
T

= =

x2 + 4x1 x2 + 5x2 + 2x2 x3 + 2x2 , 1 2 3 x2 1 + 2x1 x2 2x1 x3 + x2 2

2x2 x3 + 2x2 . 3 y = M 1 x que y = Q1 x, (Q

a ) Encuentre, si existe, un cambio de variables b ) Encuentre, si existe, un cambio de variables


dos formas cuadrticas. 3. Resuelva el problema (2) para cuando:

diagonalice simultneamente las dos formas cuadrticas. una matriz ortogonal), que diagonalice simultneamente las

xT S1 x x S2 x
4. Sea

= x2 2x1 x2 + 2x2 , 1 2 =
.

2x2 1

+ 4x1 x2 .

S=

2 1

1 2

a ) Verique que la matriz b ) Encuentre un vector

S es positivamente denida. a21 y un nmero , tales que la matriz S aT a

S =

sea positivamente denida.

121

CAPTULO 5

Anexo 1: Matrices no negativas. Matrices idempotentes


Las matrices no negativas, y, en particular, las matrices idempotentes, aparecen con frecuencia en la teora y en las aplicaciones de los modelos lineales. El propsito de este anexo es el recopilar los aspectos ms importantes de este tipo de matrices. No daremos las demostraciones de aquellos resultados que ya han sido demostrados en los captulos anteriores o que fueron propuestos como ejercicios.

5.1. Matrices no negativas


5.1.1.

Denicin.
1. 2. 3.

Sea

una matriz simtrica:

S S

xT Sx > 0 para todo x = 0. T es positivamente semidenida, si x Sx 0 para todo x = 0, T y existe un x = 0 tal que x Sx = 0. S es no negativa, si S es positivamente denida o si S positivaes positivamente denida, si mente semidenida. Sea

5.1.2.

Teorema.
1.

una matriz simtrica

n n.

Las siguientes ar-

maciones son equivalentes:

es positivamente denida.

2. Para cada matriz invertible

de orden

n,

la matriz

P T SP

es

positivamente denida.
3. Todos los valores propios de 4. Existe una matriz invertible 5. Existe una matriz

S son estrictamente positivos. P de orden n, tal que P T SP = In T invertible Q de orden n, tal que S = Q Q.
123

5.1. Matrices no negativas


6. Existe una matriz invertible triangular superior 7. 8.

Anexo 1
n n, T ,
tal que

S = T T T. S es invertible

S 1

es positivamente denida.

det (s11 ) > 0, det

s11 s21

s12 s22

s11 > 0, det s21 s31 n n.

s12 s22 s32

s13 s23 > s33

0, . . . , det (S) = |S| > 0.


5.1.3.

Teorema.
sii

Sea

una matriz simtrica


n

Si se cumple que

>
j=1, j=i

|sij |,

para

i = 1, 2 . . . , n,

entonces
5.1.4.

es positivamente denida. Sea

Teorema.
1. 2.

una matriz simtrica

n n.

Si

es positivamente

denida, entonces,

(S) = n. sii > 0 para i = 1, 2, . . . , n.

5.1.5.

Teorema.

1 , 2

Sean S1 y S2 matrices simtricas de igual orden y sean nmeros reales positivos. Si S1 y S2 son positivamente denidas,

entonces la matriz

S = 1 S1 + 2 S2

es positivamente denida.

5.1.6. Sean S1 y S2 matrices simtricas de igual orden. Si S1 es positivamente denida, entonces existe una matriz invertible Q tal que QT S1 Q = I y QT S2 Q = D, donde D es una matriz diagonal real, cuyos elementos en la diagonal las soluciones de la ecuacin |S2 S1 | = 0.

Teorema.

Teorema. Sean S1 y S2 matrices simtricas de igual orden. Si S1 S2 son positivamente denidas y si S1 S2 = S2 S1 , entonces la matriz S = S1 S2 es positivamente denida.
5.1.7.

5.1.8. Sean S1 y S2 matrices simtricas de orden n. Si S1 es positivamente denida, entonces existe un > 0 tal que S = S1 + S2 es

Teorema.

positivamente denida.

Demostracin. Si

que la matriz tonces que

S2 = 0 entonces para cualquier > 0 se tiene S = S1 + S2 es positivamente denida. Supongamos enS2 = 0. Por el teorema 5.1.6, existe una matriz invertible Q
124

Anexo 1
tal que

5.1. Matrices no negativas


y

QT S1 Q = In

QT S2 Q = D, 0 d22
. . .

donde

D 0 0
. . .

es una matriz diagonal.

Digamos que

d11 0 D= . . . 0
Puesto que


.. .

. D

dnn

S2 = 0,

entonces al menos un elemento de la diagonal de

es diferente de cero. Sea ahora

un nmero tal que:

0 < < m {1/dii } . n


dii =0
De esto se sigue que:

1 + dii > 0

para

i = 1, 2, . . . , n

y que la matriz

I + D
matriz

es positiva denida. En consecuencia, por el teorema 5.1.2, la

(Q1 )T [I + D]Q1 = S1 + S2 = S
es positivamente denida. 5.1.9.

Teorema.

Sea

una matriz simtrica de orden

tivamente denida, entonces para cada par de vectores tiene

n. Si S es posix, y Mn1 se

(xT y)2 (xT Sx)(yT S 1 y) .


Puesto que

es positivamente denida, por el teorema 5.1.2, existe una

matriz invertible par de vectores

tal que

S = QT Q.
se tiene

De aqu que

S 1 = Q1 (QT )1 .

Ahora, por la desigualdad de Schwarz (ver el teorema 1.2.21) para cada

x, y Mn1

Qx, (QT )1 y
o sea:

Qx

(QT )1 y

(xT QT (QT )1 y)2 (xT QT Qx) (yT Q1 (Q1 )T y) ,


esto es,

(xT y)2 (xT Sx) (yT S 1 y).


5.1.10.

Teorema.

adems Si

Sean S1 1 2 n ,

y S2 matrices simtricas de orden n. Sean las soluciones de la ecuacin |S2 S1 | = 0.

S1

es positiva denida, entonces para cada

x=0

se tiene que

x S2 x n . xT S1 x
125

5.1. Matrices no negativas


Demostracin. Puesto que

Anexo 1

triz invertible

Q,

tal que

S1 es positiva denida, existe una maQT S1 Q = In y QT S2 Q = D es una matriz diagQ


tal que

onal real, cuyos elementos en la diagonal son las soluciones de la ecuacin

|S2 S1 | = 0

(ver teorema 5.1.6). Ms an, podemos escoger

1 0 QT S2 Q = D = . . . 0
donde

0 2
. . .


.. .

2 y1

0 0 . , . . n
entonces:

1 2 n .
T T T

Ahora, si hacemos

y = Q1 x, +
2 y2

x S1 x = y Q S1 Qy = y In y =
y

2 + + yn ,

Por

2 2 2 xT S2 x = yT QT S2 Qy = yT Dy = 1 y1 + 2 y2 + + n yn . lo tanto, para cada x = 0: 2 2 2 xT S2 x 1 y1 + 2 y2 + + n yn = . 2 2 2 xT S1 x y1 + y2 + + yn

De esto se sigue que para cada

x=0: xT S2 x n . xT S1 x

5.1.11.

Teorema.
S

Sea

una matriz simtrica de orden

n.

Las arma-

ciones siguientes son equivalentes:


1. 3.

2. Para cada matriz

es positivamente semidenida. P , nn, P T SP es positivamente semidenida. valores propios positivos (estrictamente) y nulos.

S tiene (0 < n) n valores propios P T SP =

4. Existe una matriz invertible

P ;

de orden

n,

tal que

In 0 nn

0 0

0 < n. Q,
tal que

5. Existe una matriz 5.1.12.

no invertible

S = QT Q. n.
Si

Sea S = [sij ]nn una matriz simtrica de orden es positivamente semidenida, entonces
1.

Teorema.

(S) < n.
126

Anexo 1
2.

5.1. Matrices no negativas


sii 0 para i = 1, 2, . . . , n. Adems, si sii = 0, entonces cada elemento de la la i y cada elemento de la columna j de S es
nulo.

5.1.13.

S2

Sean S1 y S2 matrices simtricas de igual orden. Si S1 son positivamente semidenidas, S2 es no negativa y S1 S2 = S2 S1 ,

Teorema.

entonces la matriz
5.1.14.

S = S1 S2

es positivamente semidenida.

Sean S1 y S2 matrices simtricas de igual orden y sean nmeros reales positivos. Si S1 y S2 son positivamente semidenidas, entonces la matriz S = 1 S1 + 2 S2 es positivamente semidenida.

Teorema.

1 , 2

5.1.15.

Teorema.
AT A AT A AT A
y

Sea

una matriz

nn

de rango

r,

entonces:

1. 2. 3. 5.1.16.

AAT

son matrices no negativas.

es positivamente denida sii

es positivamente semidenida sii Sean

r = n. r < n. n.

Teorema.
a)

S1

S2

matrices simtricas de orden

1. Si

2.

S1 y S2 son matrices no negativas, entonces: Tr S1 0 b ) Tr S1 = 0 sii S1 = 0 c ) Tr (S1 S2 ) 0 d ) Tr (S1 S2 ) = 0 sii S1 S2 = 0 Si S1 y S2 son matrices positivamente denidas, a ) Tr S1 > 0 b ) Tr (S1 S2 ) > 0.
Sean

entonces:

5.1.17.

Teorema.

S1 , S2 , . . . , Sk

matrices simtricas de orden

n.

1. Si

S1 , S2 , . . . , Sk son k a ) Tr i=1 Si =
b ) Tr
k i=1 k

no negativas, entonces: k i=1 Tr (Si ) 0


k i=1 Tr (Si ) k

Si =

= 0 sii S1 = S2 = . . . = Sk =
k

0.
c)

Tr (Si Sj )
j=1 i=1 k k

0,

y
j=1 i=1, i=j

Tr (Si Sj )

0. i = j.

d)
j=1 i=1, i=j
2. Si

Tr (Si Sj )

=0

sii

Si Sj = 0

para todo

S1 , S2 , . . . , Sk

son matrices positivamente denidas, entonces:


127

5.1. Matrices no negativas


a ) Tr
k k k i=1

Anexo 1
k i=1 Tr (Si ) k k

Si =

0
Tr (Si Sj )

b)
j=1 i=1
5.1.18.

Tr (Si Sj )

>0

y
j=1 i=1, i=j

> 0. S2 = S. n. Si
Sean

Teorema.

Sea

una matriz simtrica

nn

tal que

adems

S1 , S2 , . . . , Sk

son matrices no negativas de orden


k

In = S +
i=1

Si ,

entonces

SSi = Si S = 0

para todo

i = 1, 2, . . . , k . S = S 2 = S T S es Tr (SSi ) 0 para i = 1, 2, . . . , k.

Demostracin. Por el teorema 5.1.15(1) la matriz

no negativa, y por el teorema 5.1.16(1)

Ahora; premultiplicando los dos miembros de la igualdad:

In = S +
i=1
por la matriz

Si ,

S,

se obtiene

S = S2 +
i=1
De esto se sigue que:

SSi = S +
i=1

SSi .

SSi = 0
i=1
En consecuencia, Tr (SSi )

Tr

SSi
i=1

=
i=1

Tr (SSi )

= 0.

=0

y por ende

(ver teorema 5.1.16(1)). Adems se se tiene que

(S Si ) = 0.
Sean S1 y S2 matrices simtricas de orden n. Si S1 es S2 es no negativa, entonces las soluciones de la ecuacin |S1 S2 I| = 0 son reales.
5.1.19.

S Si = 0, para i = 1, 2, . . . , k. T Si S = Si S T =

Teorema.

no negativa o

Demostracin. Supongamos que

S1

es una matriz no negativa de

rango

n.

Entonces existe una matriz invertible

tal que:

P t S1 P =

I 0

0 0

128

Anexo 1
Sea ahora

5.2. Matrices idempotentes


C = P 1 S2 (P T )1 = C C11 C21 C12 C22 ,
donde

C11

es una matriz

.
reales.

Puesto que

es una matriz simtrica, entonces

simtrica y por lo tanto las soluciones de la ecuacin

C11 es una matriz |C11 I | = 0 son

Ahora;

|S1 S2 I| = 0 P
T

sii

|S1 S2 In | (P T )1 = P T S1 S2 (P T )1 In = 0 . P T S1 S2 (P T )1 = = = P T S1 P P 1 S2 (P T )1 I 0 C11 C12 0 0 C21 C22 C11 0 C12 0 ,

Puesto que:

entonces

P T S1 S2 (P T )1 In

C11 I = 0

C12 I
son las solu-

= |C11 I | |I | .
De aqu que las soluciones de la ecuacin ciones de la ecuacin

|S1 S2 I| = 0,

|C11 I| |I | = 0,

las cuales son reales .

5.2. Matrices idempotentes


5.2.1.

Denicin. Teorema.
1. Si 2. Si

Una matriz

cuadrada de orden

es idempotente, si

satisface que
5.2.2.

A2 = A.
Sea

una matriz idempotente

nn

de rango

r:

r = n, entonces A = In . A es simtrica y r < n, entonces A

es positiva semidenida.

1. Si

r = n, entonces A es invertible. Premultiplicando por A1 2 dos miembros de la igualdad A = A, se obtiene A = In .


129

los

5.2. Matrices idempotentes


a ) Si

Anexo 1

la matriz 5.2.3.

A es simtrica y r < n, entonces por el teorema 5.1.15(3), A = A2 = AT A es positivamente semidenida.


Sea

Teorema.
A,

propio de
5.2.4.

entonces Si

A una matriz idempotente n n. = 0 = 1.

Si

es un valor

Teorema.

es una matriz simtrica idempotente, entonces:

1. Para cada matriz ortogonal

Q,

la matriz

S = QT SQ

es una

matriz simtrica idempotente. n 2. La matriz S = S , n = 1, 2, . . . , es simtrica idempotente. 3. La matriz S = I 2S, es una matriz simtrica ortogonal.
5.2.5.

Teorema.
n N,

Si

es una matriz simtrica tal que

S n+1 = S n

para

algn

entonces

es una matriz idempotente.

Demostracin. Sea

una matriz ortogonal tal que

P T SP = D

es

una matriz diagonal con los valores propios de Puesto que

en la diagonal.

S n+1 = S n , D
n+1

entonces:

(P T SP )n+1 = P T S n+1 P D
es

= P T S n P = Dn .
De esto se sigue, que cada elemento de la diagonal de tanto,

0.

Por lo

D2 = D, P

a sea:

D2 = P T S 2 P = P T SP = D,
puesto que 5.2.6. es invertible, se tiene entones que

S 2 = S. n n,
entonces:
n

Teorema.

Si

una matriz simtrica idempotente


n

(S) = Tr S = Tr S T S =
i=1 j=1
5.2.7.

s2 . ij n n.
Si

sii = 0
la

Si S es sii = 1, entonces columna i de S es nulo.

Teorema.

una matriz simtrica idempotente cada elemento de la la

y cada elemento de

Demostracin. Puesto que

es una matriz simtrica idempotente,

entonces:

sii =
k=1

sik ski =
k=1
130

s2 . ik

Anexo 1
Por lo tanto, si

5.2. Matrices idempotentes


sii = 0
o si

sii = 1,
n

se tiene

s2 = 0 , ik
k=1, k=i
es decir, 5.2.8.

si1 = si2 = = si(i1) = si(i+1) = sin = 0.


Sean k

Teorema.
S=

S1 , S2 , . . . , Sk

matrices simtricas de orden

n,

sea adems

Si .
i=1

Entonces dos de las condiciones siguientes impli-

can la tercera:
a) b) c)

S2 = S. 2 Si = Si , i = 1, 2, . . . , k . Si Sj = 0 si i = j; i, j = 1, 2, . . . , k .

Demostracin. Supongamos que las condiciones a) y b) se satis-

facen. Por la condicin a) se tiene:

k 2 Si +

S2 = (
i=1

Si )2

=
i=1

Si Sj
j=1

i=1 i=j

=
i=1
y por la condicin b), se tiene:

Si = S,

k 2 Si = i=1
y por lo tanto:

Si ,
i=1

Si Sj = 0.
j=1

De aqu que Tr

i=1 i=j

Si Sj = 0.
j=1 i=1, i=j

Puesto que cada

Si

es una matriz simtrica idempotente, entonces 131

Si ,

5.2. Matrices idempotentes


para que

Anexo 1

i = 1, 2, . . . , k, es no negativa (teorema 5.2.2), adems se tiene que Si Sj = 0 si i = j; i, j = 1, 2, . . . , k (ver teorema 5.1.17). De manera

que las condiciones a) y b) implican la condicin c).

Supongamos ahora que las condiciones a) y c) se satisfacen. Se tiene entonces que:

S = S2 = (
i=1
o sea,

Si )2

=
i=1

2 Si ,

Si =
i=1 i=1

2 Si .

Premultiplicando cada miembro de la ltima igualdad por se tiene que:

Sj , j = 1, 2, . . . , k,

2 Sj Sj = Sj Sj ,
o sea:

2 3 Sj = Sj ,
pues

cluye que

Si Sj = 0 Sj es

si

i = j; i, j = 1, 2, . . . , k .

Por el teorema 5.2.5, se con-

una matriz simtrica idempotente,

j = 1, 2, . . . , k.

As, as

condiciones a) y c) implican la condicin b). Por ltimo, si las condiciones b) y c) se satisfacen, entonces

k 2 Si +

S2 = (
i=1

Si )2

=
i=1

Si Sj
j=1

i=1 i=j

=
i=1
esto es, la condicin a) se satisface.

Si = S;

Sean S1 , S2 , . . . , Sk matrices simtricas idempotentes de rangos 1 , 2 , . . . , k . Sea Sk+1 una matriz no negativa de k+1 orden n. Si I = i=1 Si , entonces Sk+1 es una matriz simtrica idempok tente de orden n i=1 i , y Si Sj = 0 para i = j; i, j = 1, 2, . . . , k .
5.2.9.

Teorema.
n,

de orden

132

Anexo 1
Demostracin. Puesto que las matrices

5.2. Matrices idempotentes


Si
para

i = 1, 2, . . . , k , son

idempotentes, entonces:

k 2 Sk+1

(I
i=1 k

Si )2
k k 2 Si + i=1 j=1 k

= I 2
i=1

Si +

Si Sj i=1 i=j

= I
i=1

Si +
j=1

Si Sj i=1 i=j Si Sj .

= Sk+1 +
j=1

i=1 i=j
k i=1

De otro lado, como

Sk+1 = I

Si ,
k

entonces:

2 Sk+1 = Sk+1 i=1


En consecuencia:

Si Sk+1 .

Sk+1 +
j=1

Si Sj = Sk+1 i=1 i=j


i=1

Si Sk+1 .

De esto se sigue:

Si Sj +
j=1

Si Sk+1 = 0,
i=1

i=1 i=j
133

5.2. Matrices idempotentes


por lo tanto,

Anexo 1

Tr

Si Sk+1 = 0.

Si Sj +
j=1 i=1, i=j i=1

Puesto que las matrices

S1 , S2 , . . . , Sk

son simtricas idempotentes, en-

tonces por el teorema 5.2.2, las matrices

Por hiptesis se tiene que tambin la matriz

Si Sj = 0

para

S1 , S2 , . . . , Sk son no negativas. Sk+1 es no negativa. As que i = j; i, j = 1, 2, . . . , k, k + 1 (teorema 5.1.17(1)). I 2 = I = i=1 Si , se sigue del teorema anterior 1, 2, . . . , k + 1 y por lo tanto, Tr (Si ) = (Si ) (ver
k k+1

Ahora bien, puesto que

2 que, Si = Si para i = teorema 5.2.6). As:

(Si ) = Tr (Si )

Tr

I
i=1 k

Si

Tr (I )

i=1

Tr (Si )

= n
i=1 k

(Si )

= n
i=1
que es lo que se quera demostrar. 5.2.10.

i .

Teorema.
k i=1

Sean Si

y sea

S=
a) b)

Si .

S1 , S2 , . . . , Sk matrices no negativas de orden n, k 2 S = S y Tr S Tr i=1 Si , entonces:


2

2 Si = Si para i = 1, 2, . . . , k . Si Sj = 0 para i = j; i, j = 1, 2, . . . , k .

Demostracin. Puesto que

S = S2;
k k

S=
i=1

2 Si + j=1

Si Sj . i=1 i=j

134

Anexo 1
De aqu que:

5.2. Matrices idempotentes

Tr

Si Sj = Tr S Tr

k 2 Si i=1
son no negativas, entonces b) se sat-

0.

j=1 i=1, i=j


Ya que las matrices

S1 , S 2 , . . . , S k

isface. Esta condicin, junto con la hiptesis de que

S2 = S n.
Si

implican

entonces la validez de la condicin a), (ver teorema 5.2.8). 5.2.11.

Teorema.
S

Sea

una matriz simtrica de orden


r

(S) = r,

entonces

puede escribirse en la forma:

S=
i=1

i Si , i
son los

t 2 donde: Si = Si , Si = Si , Si Sj = 0 si i = j, (Si ) = 1 y los valores propios no nulos de la matriz S; i, j = 1, 2, . . . , k.

Demostracin. Existe una matriz ortogonal

tal que:

QT SQ =
donde

D 0

0 0 r

,
con los valores propios no

es una matriz diagonal de orden

nulos de la matriz

S 0 0

en su diagonal. De aqu que:

= Q

D 0

QT 0 r
. . .

[Q1 Q2

1 0 . . . Qn ] 0 0 . . . 0


.. .

0 0
. . .

0 0
. . .


.. .

0 0
. . .


. . .

r 0
. . .

0 0
. . .

0 QT 1 0 . . QT . 2 0 . . 0 . QT n 0

=
i=1 r

i Qi QT i i Si ,
i=1
135

5.2. Matrices idempotentes


donde

Anexo 1
As:

Si = Qi QT , i = 1, 2, . . . , r. i
T Si T Si

(Qi QT )T = (QT )T QT = Qi QT = Si i i i i
si

= Qi QT Qi QT = Qi I QT = Qi QT = Si i i i i = Qi QT Qj QT = Qi 0 QT = 0, i j j = (Qi QT ) i = (Qi ) = 1. i = j.

Si Sj (Si )

El teorema queda entonces demostrado.

136

CAPTULO 6

Inversa generalizada e inversa condicional de matrices.


Este captulo consta de cuatro secciones. Las dos primeras versan sobre la denicin, propiedades y clculo de la inversa generalizada de una matriz. La tercera seccin trata sobre la denicin y el clculo de inversas condicionales de una matriz. En la ltima seccin veremos aplicaciones de la inversa generalizada y de la inversa condicional de una matriz a los sistemas de ecuaciones lineales y a los mnimos cuadrados.

6.1. Inversa generalizada de una matriz


La inversa generalizada de una matriz es una herramienta de gran utilidad en los cursos de modelos lineales (vase la seccin 1.5 de [ ]). Antes de dar la denicin de inversas generalizada de una matriz, veamos un par de teoremas que nos sern tiles en el desarrollo del resto del captulo. 6.1.1.

Teorema.
Ir 0 Ir 0 Ir Ir
si

Si

es una matriz

existen matrices invertibles

P
y

tales que

m n de rango r > 0, P AQ es igual a:

entonces

1.

0 0
si

si

r<n

r < m.

2. 3. 4.

r = n < m.
si

r=m<n

r = n = m.
137

6.1. G-Inversa y C-inversa

Inversa generalizada e inversa condicional


R es la forma escalonR son nulas

Demostracin. Demostremos nicamente (1). Si

ada reducida de y

A,

entonces

R = P A, P

es un producto de matrices ele-

mentales, (vase el apartado 1.1.9). Las ltimas

mr

las de

tienen la estructura siguiente:

0 0 0
. . .

0 1 0 0 0 0
. . . . . .

a1k 0 0
. . .

0 1 0
. . .

a1k a2k 0
. . .

a1k a2k 0
. . .

0 0 1
. . .

a1k a2k a3k


. . .

0
la matriz

ahora bien, efectuando las operaciones elementales sobre las columnas de podemos obtener

F =
As que

Ir 0

0 0

F = RQ,

donde

columnas). Por lo tanto; invertibles. 6.1.2.

Q es un producto de marices elementales (por F = RQ = P AQ, donde P y Q son matrices

Ejemplo.

Consideremos la matriz

1 A = 1 2

2 2 4

1 3 0 2 2 6

claramente las dos primeras las son linealmente independientes, y la tercera es un mltiplo escalar de la primera la de mximo de las linealmente independientes de

2.

Por el teorema anterior

P AQ =

A. por lo tanto, el nmero A es 2; o sea, A tiene rango existen matrices invertibles P y Q tales que 1 0 0 0 I2 0 = 0 1 0 0 . 0 0 0 0 0 0 P
y

Procedemos ahora a calcular las matrices invertibles pautas de la demostracin del teorema anterior.

siguiendo las

PASO I: Encontremos una matriz invertible es la forma escalonada reducida de 138

P tal A.

que

P A = R,

donde

Inversa generalizada e inversa condicional

6.1. G-Inversa y C-inversa

A | I3 =

f ilas

f ilas

1 2 1 2 2 4 1 2 1 0 0 1 0 0 0 1 2 0 0 0 1 0 0 0

1 3 0 2 2 6 3 1 0 2 1 0

| 1 0 0 | 0 1 0 | 0 0 1 | 1 0 0 | 1 1 0 | 2 0 1 | 1 1 0 | 1 1 0 = | 2 0 1 Q
tal que

| P

PASO II: Encontremos una matriz invertible

RQ = F,

donde

F =

I2 0

0 0

R | I4 =

2 0 0 0 1 0 0 1 0 0 1 0

0 1 0 2 0 0 0 0 0 0 0 0

2 1 0 2 1 0 0 1 0 0 0 0

Col

Col

Col

0 0 1 0 0 1 0 0 1 0 0 F

| | | | | | | | | | | | | | | |

1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0

0 1 0 0 0 0 1 0

0 0 1 0 0 1 0 0

0 0 0 1 0 0 0 1

2 0 0 1 2 0 1 1

0 2 0 1 1 0 0 0 0 2 0 1 1 0 0 0

| Q

Luego las matrices invertibles 139

6.1. G-Inversa y C-inversa

Inversa generalizada e inversa condicional

1 P = 1 2

1 1 0

0 0 1

1 0 Q= 0 0

0 0 1 0

2 1 0 0

2 0 1 1

son tales que:

P AQ =
6.1.3.

I2 0

0 0

1 = 0 0

0 1 0

0 0 0

0 0 . 0

Teorema.

existen matrices

Si A es una matriz m n de rango r > 0, entonces Bmr y Crn , de rango r, tales que A = B C.

Demostracin.

Consideremos distintas posibilidades para rango

de la matriz

A, (A) = r.

1. Si 3.

2. Si

r = m, entonces A = BC , donde B = Ir y C = A. r = n, entonces A = BC , donde B = A y C = Ir . Si r < n y r < m, entonces por el teorema 6.1.1(1) matrices invertibles P y Q tales que: P AQ = Ir 0 0 0 .

existen

De aqu que:

= P 1 = P 1 = BC,

Ir 0 Ir 0

0 0

Q1 Ir 0 Q1

donde

B Mmr Ir 0

C Mrn

son las matrices de rango

r,

dadas por

B = P 1

C=

Ir

Q1 .

El teorema queda entonces demostrado. 140

Inversa generalizada e inversa condicional


Una forma de calcular las matrices anterior, en el caso en que que:

6.1. G-Inversa y C-inversa


aparecen en el teorema como aparece en la de-

r < n

B y C que r < m, tal

mostracin, es calculando primero las matrices invertibles

tales

P AQ =
despus calcular las matrices

Ir 0
y

0 0

P 1

Q1 ,

y por ltimo obtener:

B = P 1

Ir 0 A

C=

Ir

Q1 .

Para el caso en que la matriz

no sea de rango la completo, existe

una demostracin alternativa, la cual presentamos a continuacin. Como veremos, esta demostracin nos facilitar un algoritmo ms econmico para calcular matrices

adecuadas.

Otra prueba del teorema 6.1.3 para

r < m.

Suponga que

una matriz de rango

r < m. Sea P

una matriz invertible de orden

A es m tal que

P A = R,

donde

es la forma escalonada reducida de

(vase apartado

1.1.9). Puesto que

r < m, R

tiene la estructura siguiente:

R=

C 0

donde

es una matriz

rn

de rango

r.

Ahora, si escribimos

P 1

parti-

cionada adecuadamente

P 1 =
donde

B r R

es una matriz

mr

de rango

y adems,

= P =

B D

C 0

= BC

Presentamos a continuacin, un mtodo basado en esta demostracin para calcular matrices 6.1.4.

C,

de rango

r,

tales que

A = BC . mn

Algoritmo.

Considere una matriz 141

de tamao

6.1. G-Inversa y C-inversa


PASO I Forme la matriz

Inversa generalizada e inversa condicional


Amn | Im
.

PASO II Efecte operaciones elementales en las las de las siguientes pautas: i) Si se intercambian las las las columnas

hasta obtener

su forma escalonada reducida, y en las columnas de

Im , siguiendo

iyj

de

A, entonces intercambie A
por el nmero

de

Im .
la de

ii) Si se multiplica la

i-sima

0,

entonces se multiplica la

i-sima

columna de

Im

por el

PASO III

1 . iii) Si a la j -sima la de A se le suma veces la i-sima la de A ( = 0), entonces a la i-sima columna de Im se le suma () veces la j -sima columna de Im . R | P 1 Al nal de este paso se obtiene la matriz B = Primeras r columnas de P 1 , C = [Primeras r las de R].
nmero La matriz del ejemplo 6.1.2

6.1.5.

Ejemplo.

1 A = 1 2
tiene rango que

2 2 4

1 3 0 2 2 6
de rango

2. Existen por lo tanto matrices B32 y C24 A = BC. Calculemos matrices B y C siguiendo los 1 2 1 3 = 1 2 0 2 2 4 2 6 1 2 1 3 | 0 0 1 1 | 0 0 0 0 | = R | P 1 R . | 1 | 0 | 0 1 1 2 0 1 0

2 tales

pasos indicados

anteriormente.

| I3

0 1 0

0 0 1

0 0 1

As, tomando las primeras 2 columnas de obtenemos respectivamente las matrices

y las 2 primeras las de

P 1

1 B = 1 2

1 0 2

C=
142

1 0

2 0

0 1

2 1

Inversa generalizada e inversa condicional


las cuales tienen rango 2 y son tales que:

6.1. G-Inversa y C-inversa

BC

1 = 1 2 1 = 1 2

1 0 2 2 2 4 nm

1 0

2 0

0 1

2 1

1 3 0 2 = A . 2 6
Sea

6.1.6.

Denicin (Inversa generalizada o pseudoinversa).


Si

una ma-

triz

m n.
1. 2. 3. 4.

es una matriz

tal que:

AM es una matriz M A es una matriz AM A = A . M AM = M,

simtrica. simtrica.

entonces se dice que

A,

o simplemente que

M es una inversa generalizada M es una g-inversa de A.

(pseudoinversa) de

6.1.7.

Ejemplo.

Veriquemos que la matriz

3 1 2 M = 11 3

7 1 4

es una

g-inversa de la matriz

A= 11 0 0 11

1 1

1 0

2 1

. En efecto,

1.

AM =

1 11

2.

10 1 3 MA = 11 1

= I2 es una matriz simtrica. 3 1 2 3 es una matriz simtrica. 3 10

3.

4.

AM A = I2 A = A . 10 1 M AM = 2 3 11 1 M,

3 1 3 2 3 2 3 10 3

3 7 1 1 = 2 11 3 4

7 1 = 4

6.1.8.

Observacin.
1. Si

A es invertible, entonces la matriz A1


143

es una g-inversa de

A.

6.1. G-Inversa y C-inversa


2. Si

Inversa generalizada e inversa condicional


es una g-inversa de

A = 0mn , entonces la matriz M = 0nm

A.
6.1.9.

Teorema (Existencia de una g-inversa).


tiene una inversa generalizada.

Toda matriz

de tamao

mn

Demostracin. De acuerdo con la observacin 6.1.8(2), la demostracin

es trivial en el caso en que rango

r > 0.

Por el teorema 6.1.3, existen matrices

de tamao

A = 0. Supongamos ahora que que A = 0 tiene B de tamao m r y r n, ambas de rango r tales que A = BC.
y

Puesto que

tiene rango

r, las matrices B T B
1

CC T

son invertibles

(vase el teorema 1.4.8). Consideremos ahora la matriz

M = C T CC T
y veriquemos que

BT B A.

BT ,

es una g-inversa de

Es decir, veriquemos que

las condiciones de la denicin 6.1.6 se satisfacen. En efecto: Las matrices

AM

MA

son simtricas puesto que

AM = BCC T CC T
y

BT B
1 T

BT = B BT B

BT C

M A = C T CC T
De otro lado,

1 T

BT B
1 1 1

B T BC = C T CC T
y

AM A = B B B = = C T CC T C T CC T
y

B BC = BC = A, CC T CC T BT B
1 1

M AM

BT B

BT

B T = M. M
es una g-inversa de

Es decir,

AM A = A

M AM = A,

por lo tanto,

A.
6.1.10.

Teorema

(Unicidad de la g-inversa)

Toda matriz

tiene una

nica g-inversa.

Demostracin. Supongamos que

M1

M2

son dos g-inversas de

una matriz

A.

Utilizando la denicin de g-inversa de una matriz se ob-

tiene la cadena siguiente de igualdades:

AM2

= =

(AM1 A)M2 = (AM1 )(AM2 ) = (AM1 )T (AM2 )T ((AM2 )(AM1 )) = ((AM2 A)M1 ) = (AM1 ) = AM1 .
144

Inversa generalizada e inversa condicional


De aqu que Por lo tanto

6.1. G-Inversa y C-inversa

AM2 = AM1 . En forma anloga se obtiene que M2 A = M1 A. = M1 AM1 = (M1 A)M1 = (M2 A)M1 = M2 (AM1 ) = M2 (AM2 ) = M2 AM2 = M2 .

M1

6.1.11.

Nota.

En lo sucesivo, la g-inversa de una matriz la denotaremos como exponente. Por ejemplo, por

con el signo

respectivamente las inversas generalizadas de las 6.1.12.

A+ , B + denotarn matrices A y B . A

Teorema (Propiedades de la g-inversa).


(A+ )+ = A. (A)+ = 1 A+ , para (AT )+ = (A+ )T (AAT )+ = (AT )+ A+ (AT A)+ = A+ (AT )+

Para cualquier matriz

tiene que:
a) b) c) d) e)

todo escalar

= 0.

Demostracin. Por el teorema anterior, toda matriz tiene una ni-

ca g-inversa. Slo resta vericar en cada caso, que se satisfacen las condiciones de la denicin 6.1.6. Haremos la demostracin slo para el inciso (e), para ello, supondremos vlidas las armaciones (a)-(d) (las vericaciones ) quedan a cargo del lector) y aplicaremos las propiedades de la denicin 6.1.6:

1. La matriz

M = A+ (AT )+

satisface la igualdad

AT A M =
es simtrica.

A+ A

y por lo tanto, la matriz

AT A

A+ (AT )+

En efecto:

AT A M

=
(c)

AT A

A+ (AT )+

AT (AA+ )(A+ )T AT (AA+ )T (A+ )T A+ AA+ A+ A+ A


145

def.

=
def.

= A+ A .

6.1. G-Inversa y C-inversa


2. La matriz

Inversa generalizada e inversa condicional


satisface la igualdad

M = A+ (AT )+

M AT A =
es simtrica.

A A

y por lo tanto, la matriz

A (A )

T +

A A

En efecto:

M AT A

=
(c)

A+ (AT )+

AT A

A+ (A+ )T AT A A+ (AA+ )T A A+ AA+ A = A+ A.


def.

def.

= =

def. 3. La matriz

M = A+ (AT )+ satisface la igualdad (AT A)M (AT A) = =


(1)

A A. (AT A)M (AT A) AT A A+ A A+ (AT )+ AT A

AT A = (A+ A)T AT A
T

=
4. La matriz

A(A+ A)

A =

def.

AA+ A

A = AT A. M (AT A)M =

M = A+ (AT )+ =
(2)

satisface la igualdad

M.

En efecto

M (A A)M = M

A+ (AT )+ A+ A

AT A

A+ (AT )+

A+ (AT )+
T

=
def.

A+ AA+

AT

A+ (AT )+ .

6.1.13.

Observacin. Ejemplo.
1 5
Si

No siempre es cierto que

(AB)+ = B + A+ .

Para

mostrar este hecho consideremos el siguiente ejemplo. 6.1.14.

A=

B=

1 2

, entonces AB = [3]. Por A+ =


1 2

lo tanto

(AB)+ = 1/3. 1 2 1 5

De acuerdo con el corolario 6.2.2,

1 1

B+ =

, de donde se tiene que

B + A+ =

1 2

1 1

1 [3] = [3/10] = [3] = (AB)+ . 10

146

Inversa generalizada e inversa condicional

6.2. Clculo de la g-inversa

6.2. Clculo de la g-inversa de una matriz


En esta seccin veremos algunos teoremas que pueden ser utilizados para calcular la g-inversa de una matriz. Empezamos con el siguiente resultado, el cual se deduce de los teoremas 6.1.3, 6.1.9 y 6.1.10. 6.2.1.

Teorema.
1. Si 2. Si 3. Si 4.

Sea

una matriz

mn

de rango

r > 0.

r = n = m, r = m < n,

entonces entonces

A es invertible y A+ = A1 . 1 A+ = AT AAT .
1

r = n < m, entonces A+ = AT A AT . Si r < n y r < m, entonces existen matrices B Mmr C Mrn de rango r tales que A = B C y A+ = C T CC T
1

BT B

BT .

6.2.2.

Corolario.
1. Si 2. Si

Sea

un vector no nulo de

componentes.

a M1n , a Mn1 ,

entonces

a+ = aaT

1 1

aT .

entonces

a+ = aT a

aT .

6.2.3.

Ejemplo.

Ilustremos el teorema 6.2.1 con alguna matrices sencillas.

1. La matriz

A =
.

1 1

2 3

es invertible, as que

A+ = A1 =

3 1

2 1

2. La matriz

A=

1 1

2 1
1

3 1

tiene rango 2, as que:

A+

= AT AAT 3 1 6 42 9

14 14 14

1 = 2 3

1 1 1 42 1

3 0

0 14

147

6.2. Clculo de la g-inversa


1 A= 3 5
1

Inversa generalizada e inversa condicional


2 4 6 1 24

3. La matriz

tiene rango 2, as que:

A+

= =

AT A 1 24 A

AT =

56 44

44 35

1 2

3 4

5 6

32 8 16 26 8 10
dada por

4. La matriz

1 A = 1 2
Del ejemplo 6.1.5 se sabe

2 2 4

1 3 0 2 2 6
y que las matrices

(A) = 2 C=

1 B = 1 2
son tales que

1 0 2 A = BC. =

1 0

2 0

0 1

2 1

Luego

A+

C T CC T 2 1 4 24 9 5 1 aaT 2

BT B

BT .

20 4 40 8 55 18 15 10 3
que:

5. Para la matriz

A= =

a+

= 0 se tiene 1 1 1 T 2 a = 14 3
se tiene que,

6. La matriz

1 A= 1 =0 1 = aT a
1

a+
6.2.4.

aT =

Teorema.
1. Calcule

1 3

g-inversa de

Sea A Mmn una matriz de rango r > 0. Entonces la A se puede calcular siguiendo los pasos dados a continuacin:

M = AT A.
148

Inversa generalizada e inversa condicional


2. Haga

6.2. Clculo de la g-inversa

C1 = I .

3. Calcule 4. Calcule

1 Ci+1 = Tr(Ci M )I Ci M, para i = 1, 2, . . . , r 1. i r Cr AT , sta es la matriz A+ . Tr (Cr M ) Cr+1 M = 0


y

Adems, se tiene que

Tr (Cr M ) = 0.

Para la demostracin de este teorema, remitimos al lector a [ ] (teorema 6.5.8). Obsrvese adems, que la condicin proceder sin conocer de antemano el rango de 6.2.5.

Cr+1 M = 0 A.

nos permite

Ejemplo.

Consideremos la matriz

1 A = 1 2
del ejemplo 6.2.3(4). Calculemos Para ello calculemos

2 2 4 A+

1 0 2

3 2 6

utilizando el teorema anterior.

M = At A. Esto es, 6 12 12 24 M = 5 10 17 34

5 10 5 15

17 34 15 49

y consideremos

C1 = I4 .

Entonces tenemos que:

78 12 5 17 12 60 10 34 . C2 = Tr (C1 M ) I C1 M = 5 10 79 15 17 34 15 35
Como

C3 M = 0,

entonces

(A) = 2,

y adems

2 2 2 4 + T A = C2 A = Tr (C2 M ) 140 9 5

20 40 55 15

4 8 18 10

El siguiente teorema nos presenta una forma alternativa para calcular la g-inversa de una matriz. Para su demostracin, remitimos a [ ] (vase pginas. 14-15). 149

6.2. Clculo de la g-inversa


6.2.6.

Inversa generalizada e inversa condicional


r > 0.
La g-inversa

de

Sea A Mmn una matriz de rango se puede calcular mediante los siguientes pasos:

Teorema.

1. Forme la matriz

A | Im

2. Efecte operaciones elementales en las las de la matriz anterior

hasta conseguir la forma escalonada reducida de as:

A.

Al nal de

este paso se obtiene una matriz que podemos describir por bloques

Ern 0mrn

| Prm | Pmrm

si

r<m

Emn
(Si +

| Pmm A

si

r = m. E =I
y

r = m = n,
).

entonces

es invertible,

P = A1 =

3. Forme la matriz:

Ern AT Pmrm

| Ern | 0mrm

si

r<m

Emn AT

| Emn

si

r = m.

4. Efecte operaciones elementales en las las de la matriz anterior

hasta conseguir la forma escalonada reducida. Al nal de este paso se obtiene la matriz

Im
6.2.7.

| (A+ )T . A
del ejemplo 6.2.5

Ejemplo.

Consideremos de nuevo la matriz

1 A = 1 2
Con el objeto de calcular la matriz

2 2 4

1 0 2

3 2 . 6

A+

utilizando el teorema anterior, formemos

| I3

y apliquemos operaciones elementales en las las 150

Inversa generalizada e inversa condicional

6.2. Clculo de la g-inversa


A. 3 | 1 0 2 | 0 1 6 | 0 0 | | | | 0 1 2

hasta encontrar la forma escalonada reducida de

A | I3

1 2 = 1 2 2 4 1 2 0 0 0 0 = E24 014

1 0 2

0 0 1 1 1 0 0 0 1

0 2 1 1 0 0 .

| P23 | P13

Construyamos ahora la matriz de la forma

E24 At P13

| E24 | 014

y aplique-

mos de nuevo operaciones elementales en las las, hasta obtener la matriz identidad

I3

en el lado izquierdo de este arreglo

E24 At P13

| E24 | 014

11 4 2 0 1 0 |

9 2 0

1 0 0 =
As que

I3

| 1 2 0 2 | 0 0 1 1 | | 0 0 0 0 2 9 1 1 35 35 70 14 0 | | 2 4 11 3 0 | 7 7 14 14 | 1 | 4 9 1 2 35 35 35 7 (A+ )t . 22 8 1

2 35 A+ = 9 70 2 35

1 35

2 7 4 7

11 14 3 14

2 35 4 2 35 1 4 = 9 9 70 5 35 1 7
151

20 4 40 8 55 18 15 10

6.3. C-inversa
6.2.8.

Inversa generalizada e inversa condicional


Consideremos la matriz

Ejemplo.

del ejemplo 6.2.3(2)

A=

1 1

2 1

3 1

, A+ .

y sigamos los pasos del ejemplo anterior (teorema 6.2.6) para calcular

A | I2

= =

1 1 1 0

2 1 0 1 5 4

3 1

| 1 | 0 | 1 | 1 .

0 1 2 1

E24 E24 AT

| P23 | E23

Construyamos ahora la matriz

y reduzcmosla

E24 AT

| E23

14 6 | 1 14 3 | 0 1 0 = I2 0 1 | | | 1 3 1 14

0 1

5 4 2 14 3 14 1 3

1 3

| (A+ )T

As que

1 14 2 + A = 14 3 14

1 3 3 1 1 = 42 6 3 9 1 3

14

14 14

6.3. Inversa condicional de una matriz


Al igual que el concepto de inversa generalizada de una matriz, el concepto de inversa condicional es de gran utilidad en los cursos de modelos lineales 152

Inversa generalizada e inversa condicional

6.3. C-inversa

(vase la seccin 1.5 de [ ]) y en la caracterizacin del conjunto solucin de sistemas lineales de ecuaciones. 6.3.1.

Denicin.

Sea

una matriz

m n.

Si

es una matriz

nm

tal que:

AM A = A,
entonces se dice que que

es una inversa condicional de

o simplemente,

es una c-inversa de

A. A A+ .
sta es a su vez por denicin

6.3.2.

Observacin.
A.

De acuerdo con el teorema 6.1.10, toda matriz

tiene una nica inversa generalizada una c-inversa de Veremos aqu, que una matriz caso

As que, toda matriz

tiene al menos una

c-inversa.

puede tener varias (incluso innitas)

inversas condicionales, salvo cuando la matriz

es invertible, en cuyo

A1

es la nica c-inversa.

Nota.
6.3.3.

El teorema 6.3.5 caracteriza el conjunto de todas las inversas

condicionales de

A.
Sea

Teorema.
1.

A Mmn

una matriz de rango

r.

Entonces:

2. La dimensin del espacio

W = {N Mnm : AN A = 0} es un subespacio de Mnm . W mencionado en (1) es m n r2 .

Demostracin. Para demostrar el inciso (1) basta demostrar, segn

el teorema 1.2.6, que el conjunto

es cerrado bajo la suma y la multi-

plicacin por un escalar. En efecto, Sean

N1

N2

dos elementos (matrices) del conjunto

W,

entonces

A(N1 + N2 )A = AN1 A + AN2 A = 0 + 0 = 0,


esto implica que

N1 + N2 W.

sto es,

es cerrado bajo la suma. se tiene que

De otro lado, para cualquier escalar

R W

A(N1 )A = AN1 A = 0 = 0,
sto implica que,

N1 W.

Es decir,

es cerrado bajo la multiplicacin

por un escalar. El conjunto

es entonces un subespacio vectorial de

Mnm ,

lo que completa la demostracin del inciso (1).

Hagamos ahora la demostracin del inciso (2) en el caso en la matriz

A Mmn

tenga rango

con

0 < r < m {m, n}. n


153

Las demostraciones

en los dems casos son similares.

6.3. C-inversa
Sea entonces

Inversa generalizada e inversa condicional


una matriz

mn

de rango

r,

con

0 < r < m {m, n}. n

De acuerdo con el inciso (1) del teorema 6.1.1, existen matrices invertibles

P Mmm
(6.1)

Q Mnn Ir 0

tales que:

P AQ =

0 0

A = P 1

Ir 0

0 0

Q1 .

Consideremos ahora matrices arbitrarias

M(nr)r

W M(nr)(mr)

y la matriz

X Mrr , Y Mr(mr) , Z N Mnm dada por P.

N =Q
Ahora

X Z

Y W X Z

N W

sii

AN A = 0. Ir 0 X 0 0 0 0 0

De (6.1) se sigue que

AN A = =

P 1 P 1

Q1 Q Q1 .
sii

Y W

P P 1

Ir 0

0 0

Q1

De aqu se deduce forma:

AN A = 0

X = 0. 0 Z

Esto es,

N W

sii

es de la

N =Q
aremos el hecho de que

Y W

P.
es

Demostremos ahora que la dimensin de

dim Mkj En efecto, consideremos los espacios de matrices Mr(mr) , M(nr)r y M(nr)(mr) con las bases respectivas B1 = Y1 , Y2 , . . . , Yr(mr) , B1 = Z1 , Z2 , . . . , Zr(nr) y B3 = W1 , W2 , . . . , W(nr)(mr) . Es fcil mostrar entonces que el conjunto B = {N1 , N2 , . . . , Nmnrr } con Ni Nr(mr)+j Nr(m+n2r)+k
es una base de 6.3.4.

W = k j.

m n r2 .

Para ello, us-

= Q = Q = Q

0 0 0 Zj 0 0

Yi 0 0 0 0 Wk

P; P; P;

i = 1, 2, . . . , m r r2 j = 1, 2, . . . , n r r2 k = 1, 2, . . . , (n r) (m r),

W.
Sea

Teorema.

una matriz

m n.

El conjunto

Mc A

de todas las

c-inversas, es una variedad

Mc = {M Mnm : AM A = A} , A 2 lineal de dimensin m n r .


154

Inversa generalizada e inversa condicional

6.3. C-inversa

c Demostracin. Por el teorema 6.2.2 MA es no vaco, sea entonces M0 un elemento de Mc . Veriquemos entonces, que M Mc si y slo A A si M se puede escribir como la suma de M0 y un elemento N W, sto es, sii M = M0 + N para algn N W , siendo W el conjunto dado en el
teorema 6.3.3.

Si

A.

M = M0 + N, con N W , entonces AM A = AM0 A + AN A = A + 0 = c c sto es, M MA . De otra parte, si M MA , entonces podemos M = M + M0 M0 = M0 + (M M0 ) = M0 + N ,

escribir

donde

N = M M0 .

Puesto que

A(M M0 )A = AM A AM0 A = A A = 0 ,
se tiene entonces que

N = M M0 W

y de aqu se sigue que:

Mc = {M + N, N W } . A

El teorema siguiente establece cmo determinar los elementos de 6.3.5.

Mc . A

Teorema.

Sea

una matriz

mn

de rango

r.

Sean

P Mmm

Q Mnn
1. Si 2. Si 3. Si

matrices invertibles como en el teorema 6.1.1.

A = 0,

entonces

Mc = Mnm . A Mc = {A+ } = A1 A
.

r = n = m, r = m < n, Mc = A

entonces entonces

Ir Y

P : Y M(nr)m .

4. Si

r = n < m,

entonces

Mc = Q A

Ir

P : X Mn(mr) .
155

6.3. C-inversa
5. Si

Inversa generalizada e inversa condicional


y

0<r<n Ir Y X Z

0 < r < m,

entonces el conjunto

las inversas condicionales de la matriz

Mc de todas A est dado por

P : Z M(nr)(mr) , Y M(nr)m , X Mn(mr)

Demostracin. De acuerdo con los teoremas 6.2.4 y 6.3.4, se tiene

que en cada caso

Mc A
Sea

es una variedad lineal de dimensin

otro lado, se puede vericar que si 6.3.6.

Mc , entonces A 1 0 2 3 2 , 6

mn r2 . AM A = A.

De

Ejemplo.

1 A = 1 2
invertibles

2 2 4

la matriz del ejemplo 6.1.2. De dicho ejemplo sabemos que las matrices

0 1 P = 2
son tales que

1 1 0 I2 0 X Z

0 0 1 0 0

1 0 Q= 0 0

0 0 1 0

2 1 0 0

2 0 1 1

P AQ = Q I2 Y

, (A) = r = 2.

En este caso,

Mc = A

P : X M21 , Y M22 , Z M21 Z = 0, se 0 1 0 0 P = 1 1 0 0


y

, A,
En

representar, el conjunto de todas las inversas condicionales de particular, si tomamos de

X = 0, Y = 0 I2 0 0 0

tiene que una c-inversa

es:

M0 = Q

0 0 . 0 0

En lo que resta de esta seccin veremos un mtodo alternativo para calcular una c-inversa de una matriz. Consideremos inicialmente el caso de matrices cuadradas. 6.3.7. Una matriz cuadrada H = [hij ]nn tiene la forma Hermite superior, si satisface las condiciones siguientes: 156

Denicin.

Inversa generalizada e inversa condicional


1. 2. 3. 4.

6.3. C-inversa

H es triangular superior. hii = 0 hii = 1, i = 1, 2, . . . , n. Si hii = 0, entonces la i-sima la es nula, sto es, hij = 0 para todo j = 1, 2, . . . , n. Si hii = 1, entonces el resto de los elementos de la i-sima columna son nulos. sto es, hji = 0 para todo j = 1, 2, . . . , n; (j = i).
La matriz

6.3.8.

Ejemplo.

1 0 H= 0 0
tiene la forma Hermite superior.

2 0 0 0

0 0 1 0

0 0 0 1

El siguiente teorema establece que una matriz Hermite superior es idempotente. La demostracin de dicho resultado es consecuencia directa de la denicin y se deja como un ejercicio para el lector. 6.3.9.

Teorema.
tal que

Si

es una matriz que tiene la forma Hermite superior,

entonces
6.3.10.

H 2 = H.
Para toda matriz cuadrada

Teorema.

existe una matriz invert-

ible

BA = H

tiene la forma Hermite superior.

Demostracin. Sea

una matriz invertible tal que

PA = R

es la

forma escalonada reducida de entonces la matriz Si

A.

Si

tiene la forma Hermite superior,

B =P

satisface la condicin de que

no tiene la forma Hermite superior, intercambiamos las las de

BA = R = H . R H

hasta que el primer elemento no nulo (de izquierda a derecha) de cada la no nula de (por las)

R,

sea un elemento de la diagonal. As tenemos una matriz tales que

que tiene la forma Hermite superior. As que existen matrices elementales

E1 , E2 , . . . , Ek

E1 E2 Ek R = H
o sea:

E1 E2 Ek P A = H.
En consecuencia, la matriz invertible

B = E1 E2 Ek P

es tal que

BA =

tiene la forma Hermite superior. 157

6.3. C-inversa
6.3.11.

Inversa generalizada e inversa condicional


Para la matriz cuadrada:

Ejemplo.

1 A= 1 2
la matriz invertible

2 2 4

3 5 , 10 0 0 1 0 1 , 0
Intercambiando las las

5/2 P = 1/2 0
es tal que

3/2 1/2 2 2 0 0

1 PA = R = 0 0
donde y 3 de

R es la forma escalonada resucida de A. R obtemos la matriz: 1 2 0 H= 0 0 0 0 0 1

tiene la forma Hermite superior. Adems,

5/2 0 B= 1/2
es invertible y es tal que 6.3.12.

3/2 2 1/2

0 1 0

BA = H

Teorema.

vertible tal que una c-inversa

Sea A una BA = H tiene de A.

matriz cuadrada. Si

es una matriz in-

la forma Hermite superior, entonces

es

Como As

H tiene la forma Hermite superior, 2 que BABA = H = H = BA, o sea:

por el teorema 6.3.9,

H 2 = H.

BABA = BA.
Premultiplicando los dos miembros de la ltima igualdad por la matriz

B 1

se obtiene:

ABA = A,
esto es,

es una c-inversa de

A.
158

Inversa generalizada e inversa condicional


6.3.13.

6.3. C-inversa
ejemplo 6.3.11,

Ejemplo.

Consideremos la matriz

1 A= 1 2 5/2 0 B= 1/2
es tal que teorema anterior,

2 2 4

A del 3 5 . 10

Se sabe de dicho ejemplo, que la matriz invertible

3/2 2 1/2

0 1 , 0
superior. Por lo tanto, por

BA = H tiene la forma Hermite B es una c-inversa de A.

El siguiente corolario presenta una forma de calcular una c-inversa para el caso de matrices rectangulares. 6.3.14.

Corolario.

Sea

una matriz

mn

1. Si

m > n, sea A = A 0 , donde 0 es la matriz nula m(mn). Sea adems B una matriz invertible tal que B A = H tiene la forma Hermite superior. Si escribimos la matriz B
entonces particionada as:

B =

B B1

,
entonces

donde

es una matriz

n m,

es una c-inversa de

A.
2. Si

n > m,

sea

A =

A 0

, donde

es la matriz nula

(n m)

m. Sea adems B
particionada as:

una matriz invertible tal que

la forma Hermite superior. Si escribimos la matriz

B A = H tiene B entonces

B =
donde

B1

, B
es una c-inversa de

es una matriz

n m,

entonces

A.
Demostracin. Presentamos aqu la slo la demostracin del inciso

(1). Supongamos matriz cuadrada

A es A =

una matriz

m n,
. 159

con

m>n

y consideremos la

nn

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

Segn el teorema 6.3.10, existe una matriz invertible

B , tal que B A = H tiene la forma Hermite superior. Dicha matriz B es una c-inversa de A (teorema 6.3.10), as que, A B A = A , o sea: B A 0 A 0 A B A = B1 =
De sto se sigue que 6.3.15.

ABA

= B

= A . A.

ABA = A.

Es decir,

es una c-inversa de

Ejemplo.

Encontremos una c-inversa para la matriz:

1 A= 2 0
Sea

1 1 . 1 32

1 A = 2 0

1 1 1

0 0 . 0 33

Efectuando los clculos pertinentes se encuentra que la matriz invertible:

1 2 B = 2
es tal que

1 1 1

0 B 0 = B1 1

B A = H

tiene la forma Hermite superior. Por lo tanto, por

el corolario anterior, la matriz

B=
es una c-inversa de

1 2

1 1

0 0

23

A.

6.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mnimos cuadrados.
En esta seccin veremos aplicaciones de la g-inversa y la c-inversa de una matriz a los sistemas de ecuaciones lineales y al problema de los mnimos cuadrados. 160

Inversa generalizada e inversa condicional


6.4.1.

6.4. Mnimos cuadrados

Sea A Mmn una matriz y sea y Mm1 un vector. c El sistema de ecuaciones lineales Ax = y es consistente sii AA y = y c para cada c-inversa A de A.

Teorema.

Demostracin. Supongamos que el sistema de ecuaciones lineales

Ax = y
que:

es consistente. Esto quiere decir, que existe al menos un

x0

tal

Sea ahora

Ac

una c-inversa de

Ax0 = y . A, entonces: = AAc Ax0 = Ax0 = y.

AAc y

Supongamos ahora, que para cada c-inversa

Ac

y.

Entonces para cada c-inversa

, el vector

A, se tiene que AAc y = x0 = Ac y es una solucin


de

del sistema de ecuaciones lineales consistente. 6.4.2.

Ax = y. mn y Ax = y

Por lo tanto, el sistema es

Teorema.

Sea

una matriz

sea

Ac

una c-inversa de

A.

Si el sistema de ecuaciones lineales solucin general es


(6.1)

es consistente, entonces su

x = Ac y + (I Ac A)h,

h Mn1 .

Demostracin. Puesto que por hiptesis el sistema de ecuaciones

lineales

Ax = y

es consistente, entonces por el teorema anterior,

AAc y =

y.

En consecuencia, para cada

de la forma (6.1):

Ax

= AAc y + A(I Ac A)h = y + (A A)h = y + 0h = y,

esto es,

es una solucin del sistema dado.

De otro lado, si

x0

es solucin del sistema dado, entonces

Ax0 = y .
Premultiplicando los miembros de la ltima igualdad por

Ac

se obtiene

A Ax0 = A y ,
161

6.4. Mnimos cuadrados


de donde:

Inversa generalizada e inversa condicional


0 = Ac y Ac Ax0 .

Sumando

x0

a los dos lados de la ltima igualdad se llega a:

x0

= Ac y + x0 Ac Ax0 = Ac y + (I Ac A)x0 = Ac y + (I Ac A)h,

donde

h = x0 . A+

sto es,

x0

se puede expresar en la forma 6.1.

Puesto que 6.4.3.

es una c-inversa de

A,

se tiene el siguiente corolario.

Corolario.
Ax = y

Sea

una matriz

m n.

Si el sistema de ecuaciones

lineales
(6.2)

es consistente, entones su solucin general es

x = A+ y + (I A+ A)h,

h Mn1 .

PROBLEMA DE LOS MNIMOS CUADRADOS


Como se estableci en el teorema 1.4.3(3), para un sistema de ecuaciones

Ax = y

se presenta una y slo una de las opciones siguientes:

(i) El sistema tiene innitas soluciones. (ii) El sistema tiene solucin nica. (iii) El sistema no tiene solucin. En el trabajo experimental generalmente se da generalmente la opcin (iii), es decir, que el vector la matriz

no es un elemento del espacio columna de

A, (y C(A)) /

(vase gura 6.1). En este caso, nos pregunta-

mos si existe una solucin aproximada del sistema, para una denicin conveniente de solucin aproximada. Un problema que se presenta con frecuencia en el trabajo experimental es:
m

IR

C (A)

Ax A x0

Ax

Figura 6.1. Problema de los mnimos cuadrados

162

Inversa generalizada e inversa condicional


Dado una serie de puntos

6.4. Mnimos cuadrados

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ).


obtener una relacin

y = f (x)

entre las dos variables

y,

adaptando

(en algn sentido) una curva a dicho conjunto de puntos. Como los datos se obtienen experimentalmente, generalmente existe un error en ellos (errores de aproximacin), lo que hace prcticamente imposible encontrar una curva de la forma deseada que pase por todos los puntos. Por medio de consideraciones tericas o simplemente por acomodo de los puntos, se decide la forma general de la curva

y = f (x)

que

mejor se adapte. Algunas posibilidades son (ver gura 6.2): 1. Funciones lineales (rectas): 2. Polinomios de grado dos: 3.

y = f (x) = a + bx; a, b R y = f (x) = a + bx + cx2 ; a, b, c R. 2 3 Polinomios de grado tres: y = f (x) = a+bx+cx +dx ; a, b, c, d R.
y y

(1) Aproximacion lineal

(2) Aproximacion cuadratica (3) Aproximacion cubica

Figura 6.2. Ajuste por mnimos cuadrados

A. Adaptacin de puntos por mnimos cuadrados a una lnea recta


Considere los puntos ajustar mediante la grca de la lnea recta 163

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ), los cuales se pretende y = f (x) = a + bx. Si los

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

puntos correspondientes a los datos fuesen colineales, la recta pasara por todos los

puntos y, en consecuencia, los coecientes desconocidos

satisfaran la ecuacin de la recta. sto es, se tendran las siguientes

igualdades:

y1 y2
. . .

= a + bx1 = a + bx2
. . . . . .

yn

= a + bxn . x1 x2 a = Ax . . . . b xn

Estas igualdades se pueden escribir, utilizando notacin matricial, as:

(6.3)

y1 1 y2 1 y= . = . . . . . yn 1 a
y

Si los puntos que corresponden a los datos no son colineales, es imposible encontrar coecientes

que satisfagan (6.3). En este caso, independi-

entemente de la forma en que se escojan

b,

la diferencia

Ax y,
entre los dos miembros de (6.3) no ser cero. Entonces, el objetivo es encontrar un vector

x=

a b

que minimice la longitud del vector

Ax

y,

esto es, que minimice

Ax y ,
lo que es equivalente a minimizar su cuadrado,

Ax y

a es un vector que minimiza tal longitud, a la lnea recta b y = a + b x se le denomina recta de ajuste por mnimos cuadrados de los
Si

x0 =

datos. La gura 6.3 ilustra la adaptacin de una lnea recta por el mtodo de los mnimos cuadrados. Se tiene que

Ax y ,
2 2

Ax y

[(a + b x1 y1 )] + [(a + b x2 y2 )] + + [(a + b xn yn )] a b

son minimizados por el vector

x0 =

. En dicha gura se ve que

|a + b xi yi |

corresponde a la distancia vertical, 164

di ,

tomada desde el

Inversa generalizada e inversa condicional


punto

6.4. Mnimos cuadrados

(xi , yi )

hasta la recta

vertical en el punto

y = a + b x . Si se toma a di como el error (xi , yi ), la recta de ajuste minimiza la cantidad: d2 + d2 + + d2 , 1 2 n

que es la suma de los cuadrados de los errores verticales. De all el nombre de mtodo de los mnimos cuadrados.

y ( x n , yn ) dn (x2 , y2 ) ( x1 , y1 ) d2 d1 d3 ( x3 , y3 ) x
* y=a+b *x

Figura 6.3. Ajuste lineal por mnimos cuadrados

Damos a continuacin dos deniciones motivadas por la discusin anterior. En el ejemplo 6.4.13 veremos cmo se adapta, por mnimos cuadrados, una lnea recta 6.4.4.

y = a + bx

puntos

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ).

Denicin
Ax = y,

(Solucin Mnima Cuadrada)

Se dice que el vector

x0

es una solucin mnima cuadrada (S.M.C.) del sistema de ecuaciones si para todo vector

lineales

se tiene que:

Ax0 y < Ax y .
6.4.5.

Denicin
Ax = y,

(Mejor Solucin Aproximada)

Se dice que el vector

x0

es una mejor solucin aproximada (M.S.A.) del sistema de ecuaciones si:

lineales

1. Para todo vector

se tiene que:

Ax0 y < Ax y .
165

6.4. Mnimos cuadrados


2. Para todo vector

Inversa generalizada e inversa condicional


x = x0
tal que

Ax0 y

<

Ax y

se

tiene que

x0 < x .

Nota.
y
6.4.6.

Observe que una M.S.A de un sistema de ecuaciones lineales

Ax =

es una S.M.C. del mismo.

Teorema.

Sea

es una c-inversa de

m c una matriz m n y sea y un vector R . Si A c tal que AA es simtrica, entonces para todo vector 2

x Rn

se tiene que:

Ax y
Por hiptesis

= Ax AAc y

+ AAc y y x

AAc = (AAc )t . = =

As que para todo vector

se tiene que:

Ax y

(Ax AA y) + (AA y y) Ax AAc y + AAc y y


2 2

+ 2(Ax AAc y)T (AAc y y)

Ax AAc y + AAc y y

2 2

+ 2 (x Ac y)T AT ((AAc )T I)y

Ax AAc y + AAc y y

2 2

+ 2 (x Ac y)T (AT (AAc )T AT )y

Ax AAc y + AAc y y

2 2

+ 2 (x Ac y)T ((AAc A)t At )y

= =
6.4.7.

Ax AAc y Ax AAc y
Sea

2 2

+ 2 (x Ac y)T (0)y + AAc y y + AAc y y


2

Teorema.

una c-inversa de

m c una matriz m n y sea y un vector R . Si A es c c tal que AA es simtrica, entonces x0 = A y es una

S.M.C. para el sistema

Ax = y.

Demostracin. Por hiptesis y por el teorema anterior se tiene que

x 0 = Ac y

es tal que:

Ax y

= Ax Ax0

+ Ax0 y

Ax0 y

166

Inversa generalizada e inversa condicional


Para todo vector

6.4. Mnimos cuadrados


x:

x.

De aqu que para todo vector

Ax0 y Ax y ,
esto es, 6.4.8.

x0 = A y

es una S.M.C. para el sistema

Ax = y.

Teorema.

de ecuaciones

A una matriz mn y sea y un vector Rm . El sistema lineales Ax = y tiene una nica M.S.A., a saber
Sea

x0 = A+ y.
Demostracin. Puesto que

A+

es una c-inversa de

tal que

AA+
2

es simtrica, entonces por el teorema 6.4.6 se tiene para todo

que:

Ax y
(6.4) Esto es,

Ax AA+ y x:
+

+ AA+ y y Ax y

AA+ y y

De aqu que para todo vector

AA y y x0 = A y
+

es una S.M.C. para el sistema

Ax = y.
tal que

Mostraremos ahora que para todo vector

x = x0 = A+ y

Ax =

AA y

se tiene que

x0 < x x

Puesto que para todo vector

se tiene que:

A+ y + (I A+ A)x

A+ y

+ 2(A+ y)T (I A+ A)x +


2

(I A+ A)x = A+ y
2

+ 2yt (A+ )T (A+ )T (AA+ )T x +


2

(I A+ A)x = A+ y
2

+ 2yT (A+ )T (A+ AA+ )T x +


2 2

(I A+ A)x = =
temente, tales que

A+ y A+ y
+

2 2

+ 2yt (0)x + (I A+ A)x + (I A+ A)x


2

,
o, equivalen-

entonces para todos los vectores

x tales que Ax = AA+ y A Ax = A y, se tiene que:


+ 2

A+ y + (I A+ A)x

= =

A+ y + x A+ x A+ y A+ y
167

= x
2

2 2

+ (I A+ A)x = x0
2

6.4. Mnimos cuadrados


es decir, 6.4.9.

Inversa generalizada e inversa condicional


si

x > x0

x0 = x .
tiene una nica M.S.A. ,

Observacin.

El teorema anterior establece que todo sistema de

ecuaciones lineales

Ax = y

x0 = A+ y.

Por sto

de aqu en adelante hablaremos de la mejor solucin aproximada (M.S.A.) de un sistema de ecuaciones lineales.

Ahora bien, puesto que la mejor solucin aproximada del sistema de ecuaciones lineales iente teorema. 6.4.10.

Ax = y

es una solucin mnima cuadrada, se tiene el sigu-

Corolario. Ejemplo.

Todo sistema de ecuaciones lineales

Ax = y

tiene al

menos una S.M.C.


6.4.11. Para el sistema de ecuaciones lineales

1 1 Ax = 1
se tiene que Adems:

1 1 1 1 1

x0 = A+ y =

1 6

1 x = 2 = y, y 3 1 1 1 1 2 = 1 1 1 3 2;

es la M.S.A.

Ax0 y =
as que para todo vector

se tiene que:

2 Ax y , Ax y = 2 < x . mn

y si existe un vector que:

tal que

2,

entonces se debe tener

x0 =
6.4.12.

Teorema.

Sea

una matriz

y sea

un vector

Rm .

Si

(A) = n,

entonces el sistema de ecuaciones lineales

Ax = y

tiene una

nica S.M.C. que es justamente la M.S.A. dada por:

x0 = A+ y.
una S.M.C. del sistema de ecuaciones Ax = y. Por denicin se tiene para todo x Rn , entonces que Ax y Ax y , en particular, para el vector x0 = A+ y se tiene:
Demostracin. Sea

(6.5)

Ax y AA+ y y .
168

Inversa generalizada e inversa condicional


De otra parte, como

6.4. Mnimos cuadrados


A
tal que

A+

es una c-inversa de

AA+

es simtrica,

entonces se tiene (ver teorema 6.4.6)

Ax y

= Ax AA+ y x

+ AA+ y y
2

x Rn .
2

En particular, para el vector (6.6)

se tiene:

Ax y AA+ y y
2

Ax AA+ y

+ AA+ y y
2

.
2

De (6.5) y (6.6) se sigue que:

Ax AA+ y Ax y =0
2

+ AA+ y y
2

AA+ y y

De aqu que

Ax AA+ y

y por lo tanto:

Ax = AA+ y .
Puesto que

(A) = n,

entonces

A+ = AT A
1

AT

(teorema 6.2.1), en

consecuencia:

Ax = A AT A
Premultiplicando esta igualdad por

AT y.
1

AT A

AT ,

se obtiene:

= =

AT A AT A AT A

1 1 1

AT Ax AT A AT A
1

AT y

AT y = A+ y = x0 .

6.4.13.

Ejemplo.

Encontremos una recta de ajuste, por mnimos cuadra-

dos (ver gura 6.4), que se adapte a los puntos:

(0, 1); (1, 3); (2, 4); (3, 4) .


Para ello debemos encontrar una S.M.C. del sistema de ecuaciones lineales

Ax = y,

donde

1 1 A= 1 1

x1 1 x2 1 = x3 1 x4 1 x

0 1 , 2 3 a b
169

y1 1 y2 3 y= y3 = 4 y4 4

y el vector incgnita

est dada por

x=

6.4. Mnimos cuadrados


Puesto que

Inversa generalizada e inversa condicional


el teorema anterior, el sistema dado

tiene una nica

(A) = 2, entonces por S.M.C., a saber: x0

= A+ y = (AT A)1 AT y = 1 10 1,5 1 7 3 4 1 a b 1 1 2 3 1 3 4 4

En consecuencia, la recta de ajuste, por mnimos cuadrados, de los datos dados es:

y = a + b x = 1,5 + x.

y y=1.5+x (2,4) (1,3) (3,4)

(0,1) x

Figura 6.4. Ajuste lineal ejemplo 6.4.13

6.4.14.

Ejemplo.

Encontremos una recta de ajuste, por mnimos cuadra-

dos, que se adapte a los puntos:

(1, 1); (1, 2) .


Observe que en este caso los puntos dados pertenecen a la recta, de pendiente innita,

x = 1.(ver

gura 6.5(a)) 170

Inversa generalizada e inversa condicional


y x=1 y

6.4. Mnimos cuadrados

y=3/2x (1,2) (1,1) x


a) Ajuste por una recta de pendiente infinita

(1,2) (1,1)

y=3/4+3/4x

x
b) Ajuste por rectas de pendiente no infinita

Figura 6.5. Ajuste lineal ejemplo 6.4.14

Ahora bien, si buscamos una recta

y = a + bx,

que no tenga pendiente

innita, que se adapte por mnimos cuadrados, a los puntos dados, entonces debemos dar una S.M.C. del sistema de ecuaciones lineales (ver gura 6.5(b))

Ax

= =

1 1 1 2 1 4

x1 x2 = y1 y2 1 1

a b

= = y.

1 1

1 1

a b

Una S.M.C. del sistema dado es:

x0

A+ y =

1 1

1 2

3/4 3/4

a b

As que una recta de ajuste, por mnimos cuadrados, de los puntos dados es:

y = a + b x =
De otra parte, la matriz

3 3 + x. 4 4 0 1/2

Ac =
es una c-inversa de

0 1/2

A, AAc

es simtrica. En efecto, 171

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

AAc =

1/2 1/2

1/2 1/2

Por lo tanto, de acuerdo con el teorema 6.4.7,

x 0 = Ac y =

0 3/2

a b

es tambin una S.M.C. As que otra recta de ajuste por mnimos cuadrados, de los puntos dados es (ver gura 6.5(b)):

y = a + b x =

3 x. 2

B. Adaptacin a polinomios de grado n.


La tcnica descrita antes para adaptar una recta a

puntos dados, se

generaliza fcilmente a la adaptacin, por mnimos cuadrados, de un polinomio de cualquier grado a un conjunto de puntos dados. A continuacin se muestra cmo adaptar un polinomio de grado

m,

y = a0 + a1 x + a2 x + . . . + am x
a un conjunto de

m
mediante la

puntos

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ),

tcnica de los mnimos cuadrados. Sustituyendo estos las

n valores de x y y en la ecuacin polinmica se obtienen x1 x2


. . .

ecuaciones siguientes:

y1 1 y2 1 . = . . . . . yn 1

x2 1 x2 2
. . .


.. .

xn

x2 n

xm a0 1 xm a1 2 . . . . . . m xn am

De lo que se trata nuevamente, es de encontrar una S.M.C. del sistema de ecuaciones lineales 6.4.15.

Ax = y.
Encontrar un polinomio de grado dos que mejor se

Ejemplo.

ajuste, por mnimos cuadrados, a los puntos:

(1, 0); (0, 2); (1, 1); (2, 0) .


172

Inversa generalizada e inversa condicional

6.4. Mnimos cuadrados

Debemos encontrar una S.M.C. del sistema de ecuaciones lineales:

Ax =

1 1 1 1

1 0 1 2

1 0 a1 0 a2 = 2 1 1 a3 4 0

= y.

Puesto que dada por:

(A) = 3, el sistema dado tiene una nica S.M.C., la cual est x0 = A+ y = (At A)1 At y 3 11 9 3 1 1 3 7 1 = 20 5 5 5 5 1,55 31 1 13 = 0,65 = 20 0,75 15

0 2 1 0

En consecuencia, existe un nico polinomio de grado dos que se ajuste por mnimos cuadrados de los datos dados. Este polinomio est dado por (ver gura 6.6):

y = 1,55 0,65x + 0,75x2 .


y y=1.550.65x+0.75x
2

(1,0) (2,0) (1,1) x

(0,2)

Figura 6.6. Ajuste cuadrtico ejemplo 6.4.15

173

6.5. Ejercicios

Inversa generalizada e inversa condicional

6.5. Ejercicios
6.5.1 Responda verdadero o falso justicando su respuesta.

1. Si las matrices entonces 2. ca. 3. Si 4. 5. 6. 7. 8. 9. 10. 11. 12.

B Mmr y C Mmr tienen el mismo rango, (BC)+ = C + B + . + Si S es una matriz simtrica, entonces S es una matriz simtriS S
es una matriz simtrica tal que

S 2 = S, entonces S + = S . 3 + Si es una matriz simtrica tal que S = S, entonces S = S . + T + T Para toda matriz A se tiene que A = (A A) A . + T T + Para toda matriz A se tiene que A = A (AA ) . + 2 + + 2 Para toda matriz A se tiene que (AA ) = AA y (A A) = + A A. c c 2 Para toda c-inversa A de A se tiene que (AA ) = AAc y c 2 c (A A) = A A. c c Si A es una c-inversa de A, entonces A es una c-inversa de A . c c t Si A es una c-inversa de A, entonces (A ) es una c-inversa de At . Si A Mmn tiene rango m, entonces el sistema de ecuaciones lineales Ax = y tiene solucin para cualquier y Mm1 . Si A Mmn tiene rango n y si el sistema de ecuaciones lineales Ax = y tiene solucin, entonces el sistema tiene solucin nica.

6.5.2 Demuestre que

1. Para cualquier matriz

A se tiene que: (A) = (A+ ) = (AA+ )=

2. Si 3. 4. 5.

(A A). Ac es una c-inversa de A, entonces (Ac ) (A) = (AAc )= (Ac A). c c c Si A es una c-inversa de A, entonces Tr(AA )= Tr(A A) = (A). (sugerencia vase el ejercicio 3.5(26)). t + Si BC = 0, entonces BC = 0 y CB + = 0. B T + B+ C+ . Si A = y BC = 0 entonces A = C
174

Inversa generalizada e inversa condicional


6. Si

6.5. Ejercicios

es una matriz simtrica

la matriz la matriz:

CT = 1

1 A=

m m y si C T B = 0, donde C T es 1 1m , entonces la g-inversa de

B CT . D+ =[aij ]nn

es 7. Si

A+ = B + D = [dij ]nn

1/m C

es una matriz diagonal, entonces

es una matriz diagonal, donde

aij = B 0 0 C

1/dii 0

si

dii = 0 . si dii = 0

8. Si 9. 10. 11.

12. 13.

B+ 0 . 0 C+ + + Si S es una matriz simtrica, entonces SS = S S. T T + + Si A es una matriz tal que A A = AA , entonces A A = AA . Si A es una matriz m n, donde A ij = 1 para i = 1, 2, . . . , m 1 + A. y j = 1, 2, . . . , n, entonces A = mn Si P Mnn y Q Mmm son matices ortogonales, entonces + T + T para cualquier matriz mn, A, se tiene que (P AQ) = Q A P . + Si S es una matriz simtrica no negativa, entonces S es una A=
entonces

A+ =

matriz no negativa. 14. Para cada matriz

m n, A; AB = AA+

sii

es tal que

ABA =

15. Sea 16. 17. 18.

m n. (A) = m sii AA+ = I sii AAc = I Ac de A. + c Sea A una matriz m n. (A) = n sii A A = I sii A A = I c para cada c-inversa A de A. Si B es una c-inversa de A, entonces tambin lo es BAB . c c Si B y C son c-inversas de las matrices B y C respectivamente,
matriz para cada c-inversa entonces una c-inversa de la matriz

AB es A una

simtrica.

A=

B 0

0 C

es

Ac =

Bc 0

0 Cc

19. Si el sistema de ecuaciones lineales tonces la solucin 20.

x = A+ y

es nica sii

A+ y = Ac y para toda c-inversa Si x1 , x2 , . . . , xn son soluciones del sistema de ecuaciones lineales n Ax = y, y si 1 , 2 , . . . , n son escalares tales que i=1 i = 1,
175

Ax = y tiene solucin, enA+ A = I, y en este caso c A de A.

6.5. Ejercicios
entonces

Inversa generalizada e inversa condicional

x=
i=1
es una solucin del sistema 21. Sea

i xi

Ax = y. y = a+bx una lnea recta que se quiere adaptar, por mnimos cuadrados, a los puntos (x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ). Utilice el
teorema 6.4.2 y la regla de Cramer para demostrar que si para algn

y para algn

j , xi = xj ,

entonces existe una nica recta

de ajuste, por mnimos cuadrados, a los puntos dados:

y = a + b x
y que

a =

b =

b ,
n i=1 n i=1

donde:

n
n i=1

xi x2 i

a = det

n i=1 n i=1

yi

n i=1 n i=1

xi x2 i

= det

xi

xi yi

= det

n
n i=1

n i=1 n i=1

yi

xi

xi yi

6.5.3 Clculos

1. Calcule la g-inversa de cada una de las matrices siguientes:

(i) A1 =

(ii) A2 =

1 3

2 5

(iii) A1 =

3
176

1 (iv) A4 = 1 2

Inversa generalizada e inversa condicional


7 (v) A5 = 7 7 1 3 (vii) A7 = 0 0 7 7 7 7 7 7 2 4 0 0 1 (vi) A6 = 0 0

6.5. Ejercicios
0 5 0 2 2 0 0 0 0 0 0 0 3 3 0 0 3 3

1 1 (viii) A8 = 0 0

2.

2 1 1 3 1 2 1 1 1 (ix) A9 = 1 1 1 1 1 1 1 2 3 5 3 ,d dos c-inversa Ac Para la matriz A = 2 1 1 3 0 c c que (A1 ) > (A) y (A2 ) = (A). A1 = 1 1 1 1 , A2 = 1 1 1 1 2 3 2 3 3 3 . ,

Ac 2

tales

3. Determine el conjunto de todas las c-inversas de las matrices

1 A3 = 1 2

2 3 , 5

A4 =

4. D la M.S.A. del sistema de ecuaciones lineales

Ax = y,

donde:

2 2 A= 1 2

2 2 1 2

2 2 0 0

1 2 y= 3 . 4

5. D la ecuacin de la recta que mejor se ajuste por mnimos cuadrados a los puntos:

(0, 1); (1, 3); (2, 2); (3, 4).


6. Obtenga la ecuacin del polinomio de grado dos que mejor se adapte, por mnimos cuadrados, a los puntos:

(1, 4); (0, 2); (1, 0); (2, 1).


177

6.5. Ejercicios

Inversa generalizada e inversa condicional

7. D, si las hay, dos S.M.C. diferentes del sistema de ecuaciones lineales:

Ax =

2 2

2 2

x y

1 0

178

CAPTULO 7

Factorizacin de matrices
En este captulo estudiaremos algunas de las tcnicas ms utilizadas para factorizar matrices, es decir, tcnicas que nos permiten escribir una matriz como producto de dos o tres matrices con una estructura especial. La factorizacin de matrices es importante por ejemplo cuando se quiere resolver sistemas de ecuaciones con un nmero muy grande tanto de variables como de ecuaciones. En la seccin 7.1 trataremos la descomposicin

LU ,

en la seccin 7.2 nos ocuparemos de la descomposicin

QR,

en la

seccin 7.3 trataremos la descomposicin de Cholesky y en la seccin 7.4 trataremos la descomposicin en valores singulares.

7.1. Descomposicin

LU

En esta seccin estudiaremos, quizs la factorizacin de matrices ms sencilla pero igualmente muy til. Nos referimos a la factorizacin o descomposicin

LU ,

la cual est directamente relacionada con las operaciones

elementales aplicadas a una matriz, para llevarla a una forma triangular inferior. Como una motivacin, supongamos que se conoce cmo factorizar una matriz (7.1) donde

A, m n

en la forma

A = LU L
es una matriz triangular inferior (del ingls lower)

mm

es

una matriz escalonada (7.2)

mn

(del ingls upper). Entonces el sistema

Ax = b

puede resolverse de la siguiente forma: Usando (7.1), el sistema (7.2) se puede escribir en la forma (7.3)

L(U x) = b.
179

7.1. Descomposicin LU

Factorizacin de matrices
y = U x,

En este punto introducimos una nueva variable (por sustitucin) obteniendo as el nuevo sistema (7.4)

Ly = b. y,
mediante sustitu-

Resolvemos entonces dicho sistema para la variable resolver el sistema (7.5)

cin hacia adelante. Como paso nal, usamos sustitucin hacia atrs para

U x = y.

Es de anotar, que los sistemas (7.4) y (7.5) son relativamente fciles de resolver dado que se trata de matrices de coecientes triangulares inferiores y superiores respectivamente. La factorizacin o descomposicin

LU

es particularmente til cuando se requiere resolver de manera simultnea varios sistemas de ecuaciones que dieren nicamente en la parte no homognea. El siguiente resultado nos da condiciones sucientes para la existencia de una tal factorizacin

LU

para una matriz cuadrada

A.

Posteriormente lo

extenderemos a matrices rectangulares. 7.1.1.

Teorema
U

(Factorizacin

LU ).

Sea

una matriz cuadrada

n n.

Supongamos que perior,

se puede reducir por las a una matriz triangular su-

aplicando nicamente operaciones elementales de eliminacin

(operaciones del tipo angular inferior tal que

Fi + Fj con i < j ). Entonces existe una matriz trique es invertible y posee unos en su diagonal principal, A = LU.

Si

es invertible, entonces esta descomposicin es nica.

Demostracin. Por hiptesis, existen matrices elementales

E1 , E2 ,

. . . , Ek

del tipo (Fi

+ Fj , i > j )

y una matriz

(triangular superior)

tales que

Ek Ek1 E2 E1 A = U.
De aqu obtenemos

1 1 1 A = E1 E2 Ek U.

Ahora bien, por construccin, cada matriz elemental sus inversas

E1 , E2 , . . . , Ek

es

triangular inferior y tiene unos en su diagonal principal, por consiguiente

1 1 1 E1 , E2 , , Ek

y la matriz

1 1 1 L = E1 E2 Ek

tam-

bin tienen las mismas caractersticas (ver ejercicio 1, de la seccin 7.5.2). 180

Factorizacin de matrices

7.1. Descomposicin LU

Lo que implica que hemos obtenido la factorizacin LU buscada para la matriz

A,

es decir:

A = LU,
Consideremos ahora una matriz invertible para

y demostremos la unicidad

de dicha factorizacin. Supongamos que tenemos dos factorizaciones LU

de la forma

A = L1 U1 = L2 U2 ,
con

U1 , U2

matrices triangulares superiores y

L1 , L2

matrices triangulares

inferiores con unos en su diagonal principal. Como matrices

es invertible las

U1 , U2

tambin lo son, ms an sus inversas son igualmente

triangulares superiores (ver ejercicio 2 de la seccin 7.5.2). De esta ltima igualdad obtenemos entonces

1 L1 L1 = U2 U1 . 2
El lado izquierdo de esta lgualdad es producto de matrices triangulares inferiores con unos en la diagonal, por tanto es riangular inferior y tiene unos en la diagonal principal. Igualmente, el lado derecho es una triangulares superiores, pues es el producto de matrices triangulares superiores (ver ejercicio 2 de la seccin 7.5.2). Entonces que

L1 L1 = I, 2

de esto se sigue

L2 = L1

y por ende,

U1 = U2 .

En el ejemplo 7.1.5 consideramos una matriz no invertible, que posee innitas descomposiciones LU.

7 8 . Aplique7.1.2. Ejemplo. 12 mos operaciones elementales, sin intercambio, para llevar a A a una forma 1 Considere la matriz 3 3, A = 2 3 4 5 6
escalonada.

1 2 3

4 5 6

7 8 12

2F1 +F2 3F1 +F3

2F2 +F3

1 0 0 1 0 0

4 7 3 6 6 9 4 7 3 6 = U 0 3

181

7.1. Descomposicin LU
Si denotamos entonces con

Factorizacin de matrices
E1 , E2
y

nientes de las operaciones elementales respectivamente, entonces obtenemos

E3 las matrices elementales prove2F1 + F2 , 3F1 + F3 y 2F2 + F3

E3 E2 E1 A = A = =

U (E3 E2 E1 )1 U
1 1 1 E1 E2 E3 U

1 2 0 1 2 3

0 1 0 0 1 2

0 0 1 0 0 1

1 0 3 1 0 0

0 1 0

0 1 0 0 0 0 1 0 U 1 0 2 1 4 7 3 6 = LU . 0 3

En este caso esta factorizacin es nica. 7.1.3. con

Observacin.

i < j , (Fi +

Como slo efectuamos operaciones del tipo Fi + Fj 1 Fj ) = ()Fi + Fj y L es triangular inferior con unos

(1's) en su diagonal principal. La informacin sobre colocando los opuestos de los multiplicadores tales aplicadas del tipo

en aquellas posiciones donde se obtienen los ceros (0's) de

L se puede almacenar U, simplemente

en las operaciones elemen-

Fi + Fj

con

i < j.

En nuestro ejemplo anterior

1 2 3

4 5 6

7 8 12

2F1 +F2 3F1 +F3

1
2 3

1
2 3

2F2 +F3

4 7 3 6 6 9 4 7 3 6 2 3 4 7 3 6 0 3

de donde obtenemos que

1 L= 2 3
son tales que

0 1 2

0 0 1

1 U = 0 0

A = LU .
182

Factorizacin de matrices
7.1.4.

7.1. Descomposicin LU

Ejemplo.

Considere la matriz

2 4 A= 3 2 A
a una forma escalonada

3 2 4 10 4 0 . 2 5 2 4 4 7

Apliquemos operaciones elementales, sin intercambio, para llevar la matriz

2 4 3 2

3 2 4 10 4 0 2 5 2 4 4 7

(2)F1 +F2 (3/2)F1 +F3

2
2 -3/2 -1

(1)F1 +F4

3 4 5/2 7 3 4
5/8 7/4

2 8 2

4 8 4

6 3 2 4 8 8 3 9 20 11 2 8 3
20/3

(5/8)F2 +F3 (7/4)F2 +F4

2
2 -3/2 -1

2
2 3/2 -1

(20/3)F3 +F4

3 4
5/8 7/4

4 8 9 49

de donde obtenemos que

1 0 2 1 L= 3/2 5/8 1 7/4


son matrices tales que

0 0 0 0 3 0 20/3 1 A = LU,

2 3 0 4 U = 0 0 0 0

2 8 3 0

4 8 , 9 49

siendo esta factorizacin nica.

7.1.5.

Ejemplo.

Considere la matriz

1 A = 1 2

2 3 2 3 . 4 6

Aplique-

mos operaciones elementales, sin intercambio, para llevar la matriz 183

7.1. Descomposicin LU
una forma escalonada

Factorizacin de matrices

1 1 2 1 U = 0 0
En este caso

2 3 2 3 4 6 3 0 0

(1)F1 + F2 (2)F1 + F3 1 L = 1 2 L
no es nica.

1
-1 2

2 3 0 0 0 0

de donde obtenemos que

2 0 0

0 0 1 0 x 1

con

arbitrario.

A = LU,

donde

Consideremos ahora el caso en que se necesitan intercambio de las para poder reducir una matriz. Existe en este caso un procedimiento que permite extender la factorizacin mutacin. Como se recordar, el intercambio de dos las de una matriz expresar como las de de

LU ,

el cual hace uso de matrices per-

se puede

Pi A, siendo Pi

la matriz permutacin correspondiente a las

a una forma escaln necesitamos realizar

A que deseamos intercambiar. Ahora bien. Si durante la reduccin P1 , . . . , Pk permutaciones P = P1 Pk . El paso siguiente consiste entonces en LU a la matriz P A en lugar de la matriz A. Es buscamos ahora matrices L (triangular inferior) y U (triP A = LU .

de las, stas puede hacerse al comienzo de todo el procedimiento y producir as la matriz decir, nosotros aplicar la factorizacin

angular superior) tales que

7.1.6.

Ejemplo.

Hallemos la descomposicin para la matriz

0 A= 2 1
En este caso, para reducir

2 4 2

3 7 . 5 U
es nece-

a una matriz triangular superior

sario primero una o varias operaciones elementales del tipo permutacin de las (tambin es posible usar operaciones del tipo Una de tales operaciones de intercambio puede ser

Fi + Fj con i > j ). F12 . Si llamamos P a

la correspondiente matriz permutacin obtenemos entonces

2 PA = 0 1

4 2 2

7 3 . 5

184

Factorizacin de matrices

7.1. Descomposicin LU

A esta nueva matriz le aplicamos los pasos descritos en los ejemplos anteriores y obtenemos

2 0 1

4 2 2

3 3 5

(1/2)F1 + F3

2 0
1/2

4 2 0

7 3 3/5

de donde obtenemos que

1 L= 0 1/2
son matrices tales que

0 0 1 0 0 1

2 U = 0 0

4 2 0

7 3 3/5

P A = LU .
7.1.7.

Teorema.

Sea

matriz de permutacin

A una matriz P tal que

invertible

n n.

Entonces existe una

P A = LU
donde

es una matriz triangular inferior y

es una matriz triangular

superior. Se tiene adems, que para cada matriz

P, L

son nicas.

El siguiente teorema recoge ahora la formulacin para la descomposicin

LU

para matrices

rectangulares

m n.

7.1.8.

Teorema.

Sea

A una matriz rectangular mn que se puede reducir

a una forma escalonada efectuando nicamente operaciones elementales de eliminacin (operaciones del tipo una matriz y una

Fi + Fj con i < j ). Entonces existe m m triangular inferior L con unos en la diagonal principal matriz m n, U con uij = 0, si i > j tales que A = LU.

7.1.9.

Ejemplo.

Encontremos la descomposicin

LU

para la matriz

1 A= 2 3

4 5 6

7 8 12
185

2 1 . 3 34

7.1. Descomposicin LU

Factorizacin de matrices

Apliquemos para ello, operaciones elementales, sin intercambio, para llevar a la matriz

A 4 5 6

a una forma escalonada

1 2 3

7 8 12

2 1 3

(2)F1 + F2 (3)F1 + F3 (2)F1 + F2

1
2 3

1
2 3

4 7 2 3 6 5 6 9 3 4 7 2 3 6 5
2

de donde obtenemos que

1 L= 2 3
son tales que

0 1 2

0 0 1

1 U = 0 0

4 7 2 3 6 5 0 3 7

A = LU. LU
para una matriz que

En general, el esquema para una factorizacin

se puede reducir a una forma escalonada nicamente usando operaciones elementales de eliminacin est dado por la grca 7.1.

0 A

U 0

0 A

U 0

0 A

Figura 7.1. Esquema de la factorizacin LU

186

Factorizacin de matrices

7.1. Descomposicin LU
LU

El siguiente ejemplo, nos ilustra cmo hacer uso de la descomposicin en el proceso de resolver resolver sistemas lineales de ecuaciones. 7.1.10.

Ejemplo.

Considere el sistema de ecuaciones

x1 + 4x2 + 7x3 2x1 + 5x2 + 8x3 3x1 + 6x2 + 12x3


cuyo trmino independiente es ejemplo se tiene

= = = 2

1 2 4 A
del ejemplo 7.1.2 y

cuya matriz de coecientes corresponde a la matriz

bT =

. De acuerdo con dicho

1 A= 2 3

4 5 6

7 1 8 = 2 12 3

0 1 2

0 1 0 0 1 0

4 7 3 6 = LU 0 3

Ahora bien planteamos el sistema

Lz = b, esto es z1 =1 2z + z2 =2 , 1 3z1 + 2z2 + z3 = 4

cuya solucin es

1 z = 0 . 1
Con esta solucin planeamos el sistema

U x = z, esto x1 + 4x2 + 7x3 = 1 3x2 6x3 =0 , 3x3 =1

es el sistema

y cuya solucin es

x1 = 4/3;

x2 = 2/3
187

x3 = 1/3.

7.2. Descomposicin QR

Factorizacin de matrices

7.2. Descomposicin QR

En esta seccin hablaremos de la descomposicin QR de una matriz, donde

Q es una matriz con columnas ortogonales (ortonormales) y R es una matriz triangular inferior. Dicha descomposicin es de gran importancia para resolver problemas de mnimos cuadrados y tiene una estrecha relacin con el clculo de la inversa generalizada de una matriz. En el caso de matrices cuadradas, dicha descomposicin es la base de un algoritmo para determinar numricamente y de forma iterativa, los valores propios de la matriz

(ver captulo 8 de [ ]).

En primer lugar haremos aqu la discusin de la descomposicin QR para una matriz

de rango columna completo. En este caso, la factorizacin

se basa en el proceso de ortogonalizacin de Gram-Schmidt descrito en teorema 1.2.24. El siguiente teorema nos garantiza la existencia de una tal factorizacin en dicho caso y su demostracin resume el proceso para encontrarla. 7.2.1.

Teorema (Factorizacin QR (Parte I)).


n.

Sea

de rango columna completo invertible tales que

Entonces existen matrices

A Mmn una matriz Q Mmn con


triangular superior e

columnas ortogonales (ortonormales) y

R Mnn

A = QR

Demostracin. Consideremos la matriz

A particionada por sus colum-

nas, sto es,

A=

A1

A2

An

, n. De aqu se tiene que C(A) (el espacio colum-

la cual por hiptesis es de rango columna completo el conjunto na de

B = A1 , A2 , . . . , An

es una base de

A).

Aplicando el proceso de ortogonalizacin de Gram-Schmidt 188

Factorizacin de matrices
(teorema 1.2.24) a esta base se obtiene

7.2. Descomposicin QR

v1

= A1 = A2 = A3
. . .

v2

A2 ; v 1 v1 v1 ; v1 A3 ; v 1 A3 ; v2 v1 v2 v1 ; v1 v2 ; v2

v3

n1

vn

= An
i=1

An ; vi vi . vi ; vi

Despejando de aqu cada vector columna

Aj

obtenemos:

A1 A2 A3

v1 A2 ; v 1 v1 v1 ; v1 A3 ; v2 A3 ; v 1 v1 + v2 v1 ; v1 v2 ; v2

= v2 +

=
. . .

v3 +

n1

vn +
i=1

An ; vi vi . vi ; vi

As que podemos escribir: 189

7.2. Descomposicin QR

Factorizacin de matrices

A =

A1

A2

An 1 A2 ; v1 v1 ; v1 1 A3 ; v1 v1 ; v1 A2 ; v2 v2 ; v2 1
. . .

An ; v 1 v1 ; v1 An ; v 2 v2 ; v2 An ; v 3 v3 ; v3
. . .

A =

v1

v2

vn

0
. . .

0
. . .


.. .

0 0

0 0

An ; vn1 vn1 ; vn1 1

A =

Q0 R0 , A.

que corresponde a la descomposicin QR no normalizada de la matriz

Usamos ahora los mdulos de las columnas de la matriz la matriz diagonal invertible forma, podemos reescribir la

Q0 para denir D = diag( v1 , v2 , . . . , vn ). De esta igualdad A = Q0 R0 como sigue:

A = =

Q0 R0 Q0 D1 DR0 v1 0 . . . 0 v1 A2 ; v 1 v1 ; v1 v2
. . .


.. .

v1 v2

v1 v1

v2 v2

vn vn

An ; v1 v1 ; v1 An ; v2 v2 ; v2
. . .

vn

QR , A.

que corresponde a la descomposicin QR normalizada de la matriz 190

Factorizacin de matrices
7.2.2.

7.2. Descomposicin QR

Ejemplo.

Encontremos la descomposicin QR para la matriz

1 1 A= 1 1

2 1 1 2 = 1 2 1 1

A1

A2

A3

Aplicando el proceso de ortogonalizacin de Gram-Schmidt obtenemos

v1

1 1 = A1 = 1 ; 1 A2 ; v 1 v1 ; v1 2 1 1 1 1 v1 = 1 + 4 1 1 1 A3 ; v2 v2 v2 ; v2 9 2 3 + 3 3 3 9 1 3 = 4 3 ; 3

v2

= A2

v3

= A3 1 2 = 2 1

A3 ; v 1 v1 v1 ; v1 1 1 1 2 1 1

0 1 = 1 . 2

De aqu se tiene que

A1 A
2

A3

= v1 1 = v1 + v2 4 2 1 v1 v2 + v3 . = 2 3

Siguiendo ahora los delineamientos de la demostracin del teorema anterior obtenemos: 191

7.2. Descomposicin QR

Factorizacin de matrices

A =

A1 A2 A3 = [v1 1 1 1 1 9/4 3/4 3/4 3/4 0 1 1 2

1 1/4 1/2 1 2/3 v2 v3 ] 0 0 0 1 1 1/4 1/2 0 1 2/3 0 0 1


no normalizada).

=
podemos escribir

Q0 R0

(Descomposicn

En este caso, la matriz

D est dada por D = diag 2,

3 2

3,

. Entonces

A1 A2 A3 = Q0 D1 DR0 1/2 3/2 3 0 1/2 1/2 3 1/ 6 = 1/2 1/2 3 1/ 6 1/2 1/2 3 2/ 6 = QR

2 0 0 1/2 3 3/2 0 1 3 6

(Descomposicin normalizada).

Supongamos ahora que la matriz completo, esto es, bin existe una corolario. 7.2.3.

m n, A no tiene rango columna no 0 < r < n. En este caso se tiene, que tamdescomposicin QR pero la matriz Q en la factorizacin (A) = r
con

no normalizada contiene columnas nulas, como lo establece el siguiente

Teorema (Factorizacin QR (Parte II)).


(A) = r
con

Sea la matriz nulas, y una

tal que con

0 < r < n.

Entonces existen una matriz

r columnas ortogonales no nulas y el resto Mnn triangular superior invertible tales que A = Q0 R0
La matriz forma

A Mmn Q0 Mmn matriz R0

(Descomposicin no normalizada) .

tambin se puede descomponer de manera normalizada en la

A = QRr
192

Factorizacin de matrices
donde

7.2. Descomposicin QR

Q Mmr tiene columnas ortogonales (ortonormales) no nulas y Rr Mrn es "triangular" superior de orden r. Las r columnas no nulas de Q0 , respectivamente las r columnas de Q, conforman una base para C(A).
Demostracin. Si seguimos los pasos de la demostracin del teore-

ma 7.2.1 obtenemos la descomposicin QR no normalizada para es,

A.

sto

A = Q0 R0 .
En este caso sin embargo, y

Q0

tendr

columnas ortogonales no nulas

nr

columnas nulas. Ahora, para denir matriz diagonal

usamos

los mdulos de la columnas no nulas

Q0

respetando sus posiciones y unos

(1's) en el resto de componentes de la diagonal de

D. La matriz Q buscada DR0 ,


las las

corresponde entonces a la matriz formada por las columnas no nulas de

Q0 D1 ,

igualmente

Rr

se obtiene eliminado de la matriz

con ndices iguales a las columnas nulas de

Q0 .

El siguiente ejemplo nos ilustra el proceso para calcular la descomposicin QR en el caso de matrices que no son de rango columna completo. 7.2.4.

Ejemplo.

Encontrar la descomposicin QR para la matriz

1 1 A= 1 1

2 0 1 1 3 2 = 1 3 2 1 3 1 A,

A1

A2

A3

A4

Procedamos ahora a aplicar los pasos del mtodo de ortogonalizacin de Gram-Schmidt con las columnas de esto es:

v1 = A1 =

1 1 ; 1 1 9 1 1 3 ; v 1 = A2 + v 1 = 4 4 3 3

v2

= A2

A2 ; v 1 v1 ; v1

193

7.2. Descomposicin QR
A3 ; v 2 A3 ; v 1 v1 v1 ; v1 v2 ; v2 v4 = 1 2 A4 v1 + v2 0v3 = 2 3

Factorizacin de matrices
0 0 9 v 2 = A3 v 1 + v 2 = 0 ; 4 0 0 1 . 1 2

v3

A3

Despejando los vectores

Aj 's, en trminos de los vectores vj 's, como en el

ejemplo 7.2.2 obtenemos entonces

A1

A2

A3

A4 1/4 1 0 0 9/4 1 1 0 1/2 2/3 0 1

1 1 = 1 1 = Q0 R0 .

1 9/4 0 0 3/4 0 1 0 3/4 0 1 0 0 3/4 0 2

Tomamos ahora la matriz diagonal columnas nulas de tenemos,

D, cuyos elementos D

a los a los mdulos de las i-simas columnas no nulas de

ii corresponden Q0 . TPara las


entonces

Q0

tomamos

D = diag 2, A1 A2 A3

3 2

3,

D = 1. En nuestro ejemplo, ii 6 . Ahora bien, escribimos

A =

A4 0 0 0 0

= Q0 R0 = Q0 D1 DR0 0 2 1/2 3 3/2 0 0 9/2 1

1/2 1/2 1/2 1/2

3/2 3 1/2 3 1/2 3 1/2 3

1/ 6 0 1/ 6 0 0 2/ 6

1 3 . 1 0 0 6

Esto es, 194

Factorizacin de matrices

7.2. Descomposicin QR

= =

1/2 1/2 1/2 1/2 1/2 1/2 1/2 1/2

3/2

1/2

9/2

3/6 3/6 3/6 3/2

3/6 3/6 3/6

0 6/6 0 3 3/2 1 3 0 1 0 0 6/6 0 0 0 0 6 0 6/3 0 2 1/2 9/2 1 6/6 0 3 3/2 1 3 6/6 0 0 0 6 6/3

= QR .
La matriz

Q se obtiene al eliminar la tercera columna (columna nula) de Q0 D1 , mientras que R se obtiene al eliminar la correspondiente tercera la de DR0 .

En este punto de la discusin, invitamos al lector a recordar los conceptos dados en el captulo 6 sobre inversas condicionales (A ), inversa generalizada (A ), mejor solucin aproximada (M.S.A.) y solucin mnima cuadrada (S.M.C.). El siguiente resultado presenta la relacin existente entre la descomposicin 7.2.5.

QR

y la inversa generalizada de una matriz

A.

Teorema.
1. Si

Sea

A Mmn

una matriz real.

(A) = n

entonces existe una matriz

ortogonales (ortonormales) y una matriz e invertible

Q, m n, con columnas R triangular superior

nn

tales que

A = QR,
adems se tiene que

A+ = R1 QT .
195

7.2. Descomposicin QR
2. Si

Factorizacin de matrices

(A) = r < n entonces existe una matriz Q, m n, con las r columnas no nulas ortogonales (ortonormales) y una matriz R triangular superior n n, ambas de rango r tales que
primeras

A = QR,
adems se tiene que

A+ = RT (RRT )1 QT .
Demostracin. Supongamos que

es una matriz

mn

de rango

columna completo. Segn lo establece el teorema 7.2.1, existen matrices

Q Mmn

R Mnn

con las condiciones citadas tales que

A = QR.

De otra parte, sabemos que aqu se sigue que:

A+ = (AT A)1 AT (AT A)1 AT

(teorema 6.2.1(1)). De

A+

= =

(RT QT QR)1 RT QT

= R1 (RT )1 RT QT = R1 QT .
Lo que demuestra el inciso 1.

A no tiene rango columna completo, es decir, (A) = r; 0 < r < n. Segn el teorema 7.2.3 existen matrices Q Mrn y R Mrn con las condiciones requeridas tales que A = QR. Ahora, aplicando el teorema 6.2.1 (con B = Q y C = R), as
Supongamos ahora, que supongamos, que como el literal (iv) del teorema 6.2.1, obtenemos entonces

A+

= =

RT (RRT )1 (QT Q)1 QT RT (RRT )1 Q,


(porque (Q

Q)1 = Ir )

7.2.6. que:

Nota.
1. Si

Con respecto a los resultados anteriores podemos anotar

A Mmn

es una matriz de rango

r<n

se tiene, usando la

notacin del teorema anterior, que

A+ A = RT RRT
196

R.

Factorizacin de matrices

7.2. Descomposicin QR

2. De acuerdo con el teorema 6.4.8, todo sistema de ecuaciones

Ax = y

tiene una nica M.S.A. dada por

x = A+ y.
Puesto que el conjunto de todas la soluciones mnimas cuadradas del sistema

Ax = y

estn dadas por (ver captulo 6)

x = A+ y + (I A+ A)h;
Del literal anterior se sigue:

h Rn .

x = RT (RRT )1 QT y + (I RT (RRT )1 R)h;

h Rn ,

y de aqu, que el conjunto de todas la soluciones mnimas cuadradas del sistema

Ax = y

est dada por las soluciones

Rx = QT y .
7.2.7. siendo

Ejemplo.

Considere el sistema de ecuaciones lineales

Ax = y,

1 1 A= 1 1

2 0 1 1 3 2 1 3 2 1 3 1 (A) = 2

1 1 y= 2 . 1

De acuerdo con el ejemplo 7.2.4

y las matrices

Q=

1/2 1/2 1/2 1/2

3/2

3/6 3/6 3/6

6/6 6/6 6/3

1/2 3 3/2 0

9/2 1

R= 0 0

3 6 0

son tales que

A = QR .
197

7.3. Descomposicin de Cholesky


Entonces

Factorizacin de matrices
teorema 7.2.5), es decir,

A+ = Rt (RRt )1 Q, (ver 2 = 9 7 18 1 18 0

1 18 1 18 1 18 1 6

1 18 1 18 1 18 1 6

0 1 6 1 6 1 3

A+

y el conjunto de todas las S.M.C. (ver nota 7.2.6) est dada por las soluciones del sistema

1/2 Rx = QT y = 3/2 , 6/2


es decir por la expresin

2 1/6 1 2/3 = 0 + h 1 , 0 1/2 h = 1/18,


obtenemos las M.S.A.

h R.

En particular, si

5 1 11 . x = A+ y = 18 1 9

7.3. Descomposicin de Cholesky


A diferencia de las factorizaciones vistas hasta ahora, la factorizacin o descomposicin de Cholesky se aplica slo a matrices simtricas positivas denidas y sta consiste en expresar una tal matriz como producto de una matriz triangular superior y por su transpuesta. En forma ms precisa tenemos 198

Factorizacin de matrices

7.3. Descomposicin de Cholesky

7.3.1. (Factorizacin de Cholesky) Si A Mnn es una matriz simtrica positiva denida, entonces existe una nica matriz real T =

Teorema

[tij ]nn

triangular superior con tii

> 0 (i = 1, . . . , n),

tal que

A = TTT .
Adems,

|A| = |T | = [n tii ] . i=1


Demostracin. La demostracin la haremos haciendo induccin so-

bre el orden de la matriz. Primero lo demostraremos para

n = 2:

una matriz 2 2 simtrica positiva denida, entonces se tiene que > 0 y |A| = > 0 (teorema 4.3.6). Necesitamos a b mostrar que existe una nica matriz triangular superior T = , 0 c T con elementos de la diagonal positivos, tal que A = T T, esto es:
Sea

A=

a2 = ab =

a b

0 c

a b 0 c a=

a2 ab

ab b2 + c2

De sto se tiene que de donde, de donde,

(a > 0) y b= c= 2 (c > 0). 2 = T T T,

b2 + c2 =
sto es,

de donde,

A= =

0 2

adems, se tiene que

|A| = (t11 t22 )2 . n = k,


sto es, sea y que

Supongamos ahora que la armacin es cierta para

B Mkk
2

una simtrica positiva denida. Supongamos que existe una

nica matriz triangular superior

|A| = |U | =

k i=1

uii

U Mkk
199

tal que

A = UT U

(hiptesis de induccin).

7.3. Descomposicin de Cholesky

Factorizacin de matrices

Demostremos ahora que la armacin es cierta para emos entonces una matriz Podemos escribir la

n = k + 1. ConsiderA M(k+1)(k+1) simtrica positiva denida. matriz A por bloques en la forma a ,


con

A=
La matriz

A at

A Mkk , a Mk1 y R

es simtrica positiva denida (teorema 4.3.6), entonces por

hiptesis de induccin, existe una nica matriz triangular superior

Mkk

tal que

A = UT U

2 A = |U | = k uii i=1

. de tamao

Consideremos ahora la matriz triangular superior

(k + 1)

(k + 1),

con elementos de la diagonal principal positivos y escrita por

bloques en la forma

T =
donde

U 0

y z

,
adecuadamente tales que,

y Mk1 y z R+ deben ser escogidos A = T T ; sto es, tales que: UT 0 A a = A= T yT z a


t

U 0

y z .

UT U yT U

Uy yT y + z 2

Igualando trmino a trmino debemos tener que

U T y = a, yT y + z 2 = ,
Adems se tiene que

lo que implica

y = (U T )1 a z = ( yT y)1/2 .

lo que implica

|A| = =

|T |2 = |U |2 z 2 k uii i=1
2

z 2 = k+1 tii i=1

Veremos a continuacin dos procesos para calcular la factorizacin de Cholesky. El primero se basa en la denicin propia de la factorizacin de Cholesky, mientras que el segundo usa resultados del captulo sobre diagonalizacin de matrices positivas denidas. 200

Factorizacin de matrices

7.3. Descomposicin de Cholesky

Proceso A (clculo de la factorizacin de Cholesky):


Sea

una matriz simtrica

nn

positiva denida. Puesto que

A =

TTT

con

una matriz triangular superior con elementos positivos en su

diagonal principal, se debe tener que:

A = =

a11 a12 a13


. . .

a12 a22 a23


. . .

a13 a23 a33


. . .


.. .

a1n a2n a3n


. . .

t12 t22 0
. . .

a1n t11 t12 t13


. . .

a2n 0 t22 t23


. . .

a3n 0 0 t33
. . .


.. .

t1n

t2n

t3n

ann t11 0 0 0 0 0 . . . . . . 0 tnn

t13 t23 t33


. . .


.. .

t1n t2n t3n


. . .

tnn

Clculos directos muestran entonces que se debe cumplir que: 1. 2.

t11 = t1j =

a11 .

a1j a1j = ; j = 1, . . . , n. t11 a11


i1 k=1

3.

tii = aii tij =

t2 ki

1/2

; i = 2, . . . , n.

4.

1 aij tii

i1

tki tkj ; j > i, i = 2, . . . , n 1.


k=1

5.

tij = 0; j < i, i = 2, . . . , n.
Con respecto a este mtodo y al clculo de los elementos

Observacin.
1.

elementos no nulos tij de la matriz triangular

podemos decir que:

t2 es igual al elemento aii menos la suma de los cuadrados de los ii elementos ya calculados de la i-sima columna de T . Es decir,
i1

t2 = aii ii
k=1

t2 , ki
201

i = 1, . . . , n.

7.3. Descomposicin de Cholesky


2. El producto

Factorizacin de matrices

tii tij es igual a aij menos la suma del producto de los elementos ya calculados de las i-sima y j -sima columnas
de

T.

Es decir,
i1

tij tii = aij


k=1
7.3.2.

tki tkj ;

i, j = 1, . . . , n .

Ejemplo.

Siguiendo el esquema anterior, encuentre la descomposi-

cin de Cholesky para la matriz simtrica positiva denida

4 2 A= 0 2
Clculos directos muestran que:

2 2 3 2

0 2 3 2 . 18 0 0 4

1. 2.

t11 = t22 = t23 t24

a11 = 2; t12 =

3.

t33

a22 t2 = 2 1 = 1; 12 a23 t12 t13 3 (1) 0 =3 = = t22 1 a24 t12 t14 2 (1) 1 = = 1. = t22 1 = a33 t2 t2 = 18 32 02 = 3; 13 23

a13 a14 a12 = 1; t13 = = 0; t14 = = 1. 2 2 2

t34 =
4.

a33 t13 t14 t23 t24 0 0 1 3(1) = =1 t33 3 a44 t2 t2 t2 = 24 34 14 4 12 (1)2 12 = 1

t44 =

Es decir,

2 0 T = 0 0

1 1 0 0

0 3 3 0

1 1 , 1 1

es la matriz triangular superior tal que 202

A = T T T.

Factorizacin de matrices
7.3.3.

7.3. Descomposicin de Cholesky

Ejemplo.

Siguiendo con el esquema anterior, encuentre la descom-

posicin de Cholesky para la matriz simtrica positiva denida

4 A= 2 4
Clculos directos muestran que:

2 4 10 4 , 4 9

1.

t11 = t22 = 2.

a11 = 2; t12 = a22 t2 12

2.

a12 a13 = 2. = 1; t13 = t11 2 a23 t12 t13 4 (1)(2) = = 10 1 = 3; t23 = = t22 3 9 (2)2 (2)2 = 1.

3. Es decir,

t33 =

a33 t2 t2 = 13 23

2 T = 0 0

1 3 0

2 2 , 1 A = T T T.

es la matriz triangular superior tal que

Proceso B (clculo de la factorizacin de Cholesky):


De acuerdo con los resultados presentados en el captulo 4 se tiene que una matriz simtrica superior que

A,

es positiva denida, si existe una matriz triangular

P,

tal que

P T AP = I

(ver tambin el teorema 5.1.2). De aqu

A = (P T )1 P 1 = (P 1 )T P 1 .
As las cosas, nosotros podemos encontrar la matriz

PT

usando los pasos

ilustrados en el ejemplo 3.3.15, es decir, planteando la matriz tales en las las y columnas de de las).

| I

y realizando de manera adecuada y simultneamente operaciones elemen-

A y en las las de I

(sin hacer intercambios

Nota.
T

Existe una relacin entre la factorizacin LU para matrices positi-

vas denidas y la descomposicin de Cholesky. En efecto, si ca positiva denida entonces principal.


203

se puede expresar mediante

A es simtriA = T T T con

una matriz triangular superior con elementos positivos en la diagonal

7.3. Descomposicin de Cholesky


Ahora bien, sea

Factorizacin de matrices
entonces se tiene que:

D = diag (t11 , t22 , . . . , tnn ) A = = = = TTT T T D1 DT

(T T D1 )(DT ) LU. 4 4 . 9

7.3.4.

Ejemplo.

Consideremos la matriz simtrica positiva denida

4 A= 2 4
Del ejemplo 7.3.3 se tiene que

2 10 4

2 4 2 0 0 2 1 2 10 4 = 1 3 2 0 3 2 = TTT . 4 9 2 2 1 0 0 1 2 0 0 3 0 , se tiene que Tomando D = 0 0 0 1 2 1 2 2 0 0 2 A = 1 3 2 0 3 0 0 1 2 2 1 2 1 2 2 0 0 1/2 0 0 2 0 0 2 1/3 0 0 3 0 0 3 = 1 3 2 0 0 0 1 0 0 1 0 0 1 2 2 1 4 2 4 1 0 0 6 = LU . 1 0 0 9 = 1/2 1 2/3 1 0 0 1 4 A= 2 4


Ahora bien, supongamos que deseamos resolver el sistema de ecuaciones lineales

Ax = y,

siendo

una matriz simtrica y positiva denida. Sea

triangular positiva tal que

A = TTT,

entonces

Ax = y T T T x = y T x = (T T )1 y := z,
es decir, si se conoce la factorizacin de Cholesky para una matriz

A=

T T T , la solucin del sistema Ax = y


sistema triangular superior

se reduce a encontrar la solucin del

T x = z,

con 204

z = (T T )1 y.

Factorizacin de matrices
7.3.5.

7.4. Descomposicin en valores singulares

Ejemplo.

Consideremos el sistema de ecuaciones lineales

4x1 + 2x2 4x3 2x1 + 10x2 + 4x3 4x1 + 4x2 + 9x3

= =

12 6

= 3 .

Puesto que la matriz de coecientes es justo la matriz del ejemplo 7.3.3, la matriz aumentada del sistema se puede reducir mediante multiplicacin del sistema por la matriz

| y

4 2 4 4 = 2 10 4 4 9 2 1 2 | 0 3 2 | = 0 0 1 |

T T

(ver ejemplo), para obtener:

| | |

12 6 15 6 0 = T 3

| z

De esto ltimo se sigue que

x3 x2 x1

= 3, 6 2x3 = = = 2, 3 3 6 + 2x3 + x2 626 = = = 1. 2 2

7.4. Descomposicin en valores singulares (SVD)


En esta seccin abordaremos el estudio de la descomposicin de una matriz rectangular simtricas

A la cual involucra los valores y vectores propios de la matrices AAT y AT A. Como se recordar dichas matrices son positivas
Para toda matriz

semidenidas y por ello sus valores propios son no negativos.

trices ortogonales

A Mmn se tiene que existen maU Mmm y V Mnn y una matriz diagonal Mmn , con elementos ij = 0, si i = j y ii =: i 0, y 1 2 s , en donde s = m {m, n} tales que n
7.4.1.

Teorema.

T Amn = Umm mn Vnn .

Los nmeros

2 2 2 1 , 2 , , s

son los valores propios de

AT A

(quizs agre-

gando algunos ceros) y los vectores propios asociados son las columnas 2 2 v1 v2 vn . Adems, lo nmeros 1 , 2 , de la matriz V =
205

7.4. Descomposicin en valores singulares

Factorizacin de matrices

2 , s son igualmente los valores propios de AAT (quizs agregando algunos ceros) y los vectores propios asociados son las columnas de U =

u1 u2 estos vectores

um

Adems de tiene las siguientes relaciones entre

Avi

i ui i = 1, 2, . . . , s.
T i v i

uT A = i

Demostracin. Supongamos que

r < s.

La matriz simtrica

existe una

A Mmn tiene rango r con 0 < S = AAT Mmm es no negativa y por tanto matriz ortogonal U Mmm tal que 2 1 0 0 2 0 2 0 U T AAT U = D2 = . . . .. . . . . . . . 2 0 0 m

2 2 2 1 2 m 0 son los valores propios de S = AAT y las columnas de U = [u1 u2 um ] son vectores propios de S correpondidonde entes a dichos valores propios:

2 AAT ui = Sui = i ui ;
Como

i = 1, 2, . . . , m.

2 2 2 r = (A) = (AAT ), entonces 1 2 r > 0. ParU1 U2 con U1 Mmr . ticionemos ahora la matriz U como U =
Luego

U T AAT U = = =
es decir,

T U1

AAT U1 U2

T U2 T U1 AAT U1

T U1 AAT U2 T U2 AAT U2

T U2 AAT U1 2 Dr 0

206

Factorizacin de matrices

7.4. Descomposicin en valores singulares

U AA U

2 1 0 . . . 0 = 0 . . . 0

0 2 2
. . .


.. .

0 0
. . .

| | | | | | |

0 0
. . .


.. .

0 0
. . .


.. .

2 2 0
. . .

0 0
. . .


.. .

0 . 0 . . . 0
. . .

0 0

Esto implica que

T U2 AAT U2 = (AT U2 )T (AT U2 ) = 0,


de donde o sea:

T U2 A = 0

AT U2 = 0.

Tambin se tiene que

T 2 U1 AAT U1 = Dr ,

1 T 1 1 1 Dr U1 AAT U1 Dr = I = (AT U1 Dr )T (AT U1 Dr ).


sto signica que la matriz

1 V1 = AT U1 Dr Mnr
tiene columnas ortogonales matriz

(V1T V1 = I). V1 V2

Sea

V2 Mn(nr)

tal que la

V =

Mnn Dr 0 0 0

es ortogonal. Veamos ahora que

U t AV = =
En efecto, de una parte:

U T AV =
y de otra parte,

T U1 T U2

A V1 V2

T U1 AV1 T U2 AV1

T U1 AV2 T U2 AV2

V TV

T U2 A = 0. As mismo, T V1 V1 V2 = I= V2T

V1T V1 V2T V1

V1T V2 V2T V2

I 0 0 I

,
207

7.4. Descomposicin en valores singulares


lo que implica que

Factorizacin de matrices
de donde

1 V1T V2 = 0 = (AT U1 Dr )T V2 T U1 AV2 = 0.

y nalmente,

T U1 AV1

= =

T 1 U1 AAT U1 Dr 2 1 Dr Dr = Dr 1 0 0 2 . . .. . . . . . 0 0

0 0 . . . . m

En consecuencia,

U T AV = =

Dr 0

0 0

Nota.

Observe que
1 AV1 = AAT U1 Dr

Avi = i ui

i = 1, 2, . . . , r.

igualmente,

AT U1 = V1 Dr

AT ui = i vi

T uT A = vi i i

i = 1, 2, . . . , r.

El siguiente proceso nos ilustra cmo calcular la descomposicin en valores singulares de una matriz

A Mmn .

Supondremos en este caso, que

m n.
7.4.2.

Algoritmo.
1. Formule 3.

S = AAT Mmm .

2. Encuentre los valores propios de

4. 5.

5*.

2 2 2 S : 1 2 m 0. Encuentre un conjunto ortonormal u1 , u2 , . . . , um de vectores u1 u2 um (orpropios de S y construya la matriz U = togonal) y la matriz diagonal D = diag {1 , 2 , , m }. Si r = (A); Dr = diag {1 , 2 , , r } T 1 u1 u2 ur , las Haga V1 = A U1 Dr , siendo U1 = primeras r columnas de U. Encuentre una matriz V2 Mn(nr) V1 V2 Mnn sea ortogonal. tal que la matriz V = T Otra forma de (5) es trabajar con la matriz A A.
208

Factorizacin de matrices
7.4.3.

7.4. Descomposicin en valores singulares


A = 2 4 1 2 4 2 ; (A) = 2,

Ejemplo.

Considere la matriz

calculemos la descomposicin en valores singulares usando el proceso esbozado anteriormente.

Calculando directamente obtenemos la matriz cuyos valores propios son:

S = AAT =

9 0

0 36

2 1 = 36

2 2 2 2 = 9 ( 1 2 ) .

Calculemos ahora los vectores propios asociados a estos valores propios:

Para

2 1 = 36

tenemos el sistema

(S 36 I)X = 0, x1 x2 = 0 0 ,

es decir el sistema

25 0

0 0

cuyo conjunto solucin es de la forma

B=

0 x2

: x2 = 0 . 0 1

Como

2 1 -vector

propio podemos tomar entonces

u1 =

. Anloga-

mente podemos tomar a

u2 =

1 0

como

2 2 -vector

propio. Ahora con-

sideramos las matriz ortogonal

U=
y la matriz diagonal

u1

u2

0 1

1 0

D = diag {1 , 2 } =

6 0

0 3

Puesto que

r = (A) = 2

tenemos que 209

Dr = diag {1 , 2 } =

6 0

0 3

7.4. Descomposicin en valores singulares

Factorizacin de matrices

Con las matrices denidas hasta ahora se tiene que

V1

1 AT U1 Dr 2 4 0 1 1/6 0 = 1 4 1 0 0 1/3 2 2 2 4 0 1/3 = 1 4 1/6 0 2 2 2 2 1 2 1 = Columnas ortonormales. 3 1 2

Consideramos ahora la matriz ortogonal

2 1 2 V = 3 1

2 1 2

1 2 = 2

V1

V2

1 1 2 . con V2 = 3 2

Nosotros tenemos entonces que:

U T AV =

6 0

0 3

0 0

= . 1 A= 0 1 1 1 0 0 1 ; (A) = 3, 1

7.4.4.

Ejemplo.

Consideremos la matriz

calculemos ahora la descomposicin en valores singulares:

De nuevo calculamos la matriz

S = AAT 2 1 S = AAT = 1 2 1 1
esto es,

1 1 . 2

cuyos valores propios los calculamos de manera usual, es decir, resolviendo la ecuacin

|S I| = 0,

= |S I| 2 1 1 1 2 1 = 1 1 2
210

= ( 4)( 1)2 .

Factorizacin de matrices
Los valores propios de

7.4. Descomposicin en valores singulares


2 2 1 = 4, 2 = 1
y

son entonces

2 3 = 1.

Algunos

clculos usuales nos permiten elegir a los vectores

1 1 1 ; u1 = 3 1

2 1 1 u2 = 6 1

0 1 1 , u3 = 2 1
2 2 1 , 2
y

como vectores propios ortonormales asociados a mente. Consideramos ahora la matriz ortogonal

2 3

respectiva-

U= u1 u2 u3

1/ 3

2/ 6 1/ 6 1/ 6

= 1/ 3 1/ 3 = 3)

1/ 2 . 1/ 2

y las matrices diagonales ((A)

2 D = diag {1 , 2 , 3 } = 0 0

0 1 0

0 0 = Dr . 1

Denimos ahora la matriz

V1

1 0 = 1 1 0 1 1 0 = 1 1 0 1 1/3 = 1/3 1/ 3

1 V1 = AT U1 Dr , esto es, 1/3 2/6 0 1 1/2 0 1/3 1/6 1/2 0 1 0 1/ 6 1/ 2 1/ 3 1/23 2/6 0 1 0 1/23 1/6 1/2 1 1/ 6 1/ 2 1/2 3 1/6 1/2 1/6 1/ 2 = V 2/ 6 0

0 0 1 0 0 1

Nosotros tenemos entonces que:

4 U T AV = 0 0

0 1 0
211

0 0 = . 1

7.5. Ejercicios

Factorizacin de matrices

7.5. Ejercicios
7.5.1 Responda falso o verdadero justicando su respuesta

1. Las operaciones elementales en las las del tipo

Fi + Fj

con

i < j,
con

producen matrices elementales triangulares inferiores.

2. Las operaciones elementales en las columnas del tipo

Ci + Cj i < j , producen matrices elementales triangulares inferiores.

3. El producto de dos matrices elementales del mismo tamao, es una matriz elemental. 4. La descomposicin LU para cualquier matriz 5. Si

A es nica. Q es una matriz rectangular cuyas columnas son orgonormales T entre, entonces Q Q = I.

7.5.2. Demuestre que:

1. Suponga que ferior.

Li , (i = 1, 2), son matrices triangulares inferiores: a ) Muestre que el producto L1 L2 es una matriz triangular inb ) Mueste que si
matemtica)

L1 es

invertible, entonces su inversa

L1 1

es

tambin una matriz triangular inferior (Sug.: use induccin

c ) Muestre que si los elementos de la diagonal principal de

L1 y L2 son tosdo iguales a 1 (uno), entonces las matrices L1 L2 , L1 y L1 tambin tienen unos en su diagonal principal. 1 2
(Sug.: use induccin matemtica)

2. Use el ejercicio anterior para demostrar que las armaciones son igualmente vlidas para matrices triangulares superiores. 3. Demuestre que si

A Mmn

tiene columnas ortogonales y con unos en su diagonal

tiene rango n y A = QR, donde Q Res una matriz triangular superior principal, entonces Q y R son nicas.

7.5.5. Calcule 212

Factorizacin de matrices

7.5. Ejercicios

1. Use la factorizacin LU dada para resolver el sistema de ecuaciones lineales a)

c)

1 0 3 1 1 0 4 1 2 3

4 1 11 x= 0 1 32 0 2 2 1 2 0 0 3 1 x = 7 1 0 0 2 3 3 7 2 1 2 1 1 . 17 3

b)

1 5

0 1 0 1 3

d)

1 4 7

2 1 x= 0 7 0 1 2 0 0 3 1 0 0

2. Calcule la descomposicin LU de la matriz

1 A= 2 1 5 18 14
.

Use dicha descomposicin para resolver el sistema 3. Encuentre la matriz triangular de los siguientes casos

Ax = y, yT =
en cada uno

tal que

A = QR


a)

1 1 1

A=

1 , 1

Q=

1 3 1 3 1 3

1 2 0 1 2


b)

1 0 1

1 1 1

A=

1 , Q = 1

4.

4 Considere la matriz simtrica positiva denida S = 2 0


a ) Calcule su descomposicin LU. b ) Calcule sus descomposicin de Cholesky.

2 9 8

0 8 5

5. Calcule la descomposicin en valores singulares de la matriz

A=

2 1

1 4 0 1 1 0

2 1 0 1 1 1

6. Calcule la descomposicin QR de la matriz

1 0 A= 1 0

213

CAPTULO 8

Rectas e hiperplanos. Conjuntos convexos.

Este captulo consta de dos secciones. En la primera daremos las deniciones de recta, segmento de recta e hiperplanos en

Rn .

En la segunda

veremos algunos resultados sobre conjuntos convexos. Quien desee estudiar un poco ms sobre estos tpicos puede consultar el captulo 6 de [ ].

8.1. Rectas. Segmentos de recta. Hiperplanos


Rn

Los conceptos de recta, segmento de recta e hiperplanos en en programacin lineal (vase el captulo 6 de [

10]).
P

son tiles

Antes de proseguir

con nuestra discusin, haremos una pequea aclaracin sobre la notacin y haremos una diferencia entre lo que es un punto en el espacio

Rn

y el

segmento de recta dirigido (vector coordenado o simplemente vector), que tiene como extremo inicial el origen de coordenadas nal al punto

P.

ste lo denotaremos por

OP

y como extremo

o simplemente

p.

P Rn le asignaremos las coordenadas (x1 , x2 , . . . , xn ) y escribiremos P (x1 , x2 , . . . , xn ), mientras que al vector OP tambin le asignaremos las coordenadas (x1 , x2 , . . . , xn ), pero escribiremos OP = (x1 , x2 , . . . , x3 ) o simplemente, p = (x1 , x2 , . . . , x3 ) (ver gura 8.1 en el 3 caso de R ).
Al punto

215

8.1. Rectas y planos


IR 3 x3 x3

Hiperplanos

P(x1 , x2 , x 3)

p = 0P =(x1 , x2, x 3)
O(0, 0, 0)

x2

O(0, 0, 0)

x2

x1

x1
Figura 8.1. Puntos y vectores en

R3 .

P (x1 , x2 , . . . , xn ) y Q(x1 , x2 , . . . , xn ) en Rn , el segmento de recta dirigido o vector, que tiene como punto inicial a P y co mo punto nal Q, lo denotaremos por P Q y le asignamos las coordenadas (x1 x1 , x2 x2 , . . . , xn xn ). En tal sentido, y dado que OQ OP = (x1 , x2 , . . . , xn ) (x1 , x2 , . . . , xn )
Dados dos puntos

Nota.

=
escribiremos
8.1.1.

(x1 x1 , x2 x2 , . . . , xn xn ),

P Q = (x1 x1 , x2 x2 , . . . , xn xn ).
(Rectas)

Denicin

En

Rn ,

la recta que pasa por el punto

en

la direccin del vector


(8.1)

d=0

se dene como el conjunto de puntos:

= X Rn : OX = OP + d,

Se dice adems, que el vector

es un vector director de la recta

Segn la denicin anterior, un punto dada por (8.1) sii existe un

0 R

tal

X0 Rn pertenece a que OX0 = OP + 0 d.

la recta

216

Hiperplanos
y IR
2

8.1. Rectas y planos

OX=OP+ d P d d x

Figura 8.2. Una recta en

R2 .
en la

8.1.2.

Ejemplo.

En

direccin del vector

R3 , la recta que pasa por el punto P (1, 2, 3) d = (1, 0, 5), es el conjunto de puntos:

= X(x1 , x2 , x3 ) R3 : (x1 , x2 , x3 ) = (1, 2, 3) + (1, 0, 5),


El punto

R .

X0 (1, 2, 7)

pertenece a dicha recta, pues:

OX0 = (1, 2, 7) = (1, 2, 3) + (2)(1, 0, 5).


Sin embargo, el punto

X (2, 3, 2) no pertenece a la recta

, pues no existe

tal que :

(2, 3, 2) = (1, 2, 3) + (1, 0, 5) = (1 + , 2, 3 + 5 ).

Q de Rn est sobre la recta (8.1) y Q = P, entonces 1 existe un 0 R tal que OQ = OP + 0 d. De aqu que d = P Q, y por 0
Ahora bien, si el punto lo tanto:

= =

X Rn : OX = OP + d,

R R .

X Rn : OX = OP + P Q, 0
217

8.1. Rectas y planos


Rn

Hiperplanos
P
y

En consecuencia, podemos decir que la recta que pasa por los puntos

Q (P = Q)
(8.2)

de

es el conjunto de puntos:

= X Rn : OX = OP + t P Q,
y IR
2

tR .

Q P

OX=OP+t PQ

PQ = 0Q OP t PQ

Figura 8.3. Grca de una recta que pasa por los pun-

tos

Q.

8.1.3.

Ejemplo.
de

La recta que pasa por los puntos

P = (1, 2, 3)

Q=

(4, 1, 1)

R3 ,

es el conjunto de puntos:

= X(x1 , x2 , x3 ) R3 : (x1 , x2 , x3 ) = (1, 2, 3) + t(3, 1, 2), t R .


8.1.4.

Denicin (Segmento de recta).


P
y

El segmento de recta que une los dene as: para

puntos

PQ = =

P Q y se X Rn : OX = OP + t P Q,
de se denota por

Rn ,

0t1 .
para

X Rn : OX = tOP + (1 t) OQ, X0 Rn OX0 = OP + t0 P Q.

0t1 . PQ
sii existe

Segn la denicin anterior, un punto

pertenece a

0 t0 1

tal que

218

Hiperplanos
y IR 2

8.1. Rectas y planos

OX = OP + t 0 PQ PQ = OQ OP t0 PQ

Figura 8.4. Segmento de recta que une los puntos

8.1.5.

Ejemplo.

El segmento de recta que un al punto es el conjunto de puntos

el punto

Q(0, 1, 0, 2),

P (1, 2, 3, 4) con X(x1 , x2 , x3 , x4 ) R4 :

PQ =
El punto

X R4 : (x1 , x2 , x3 , x4 ) = (1, 2, 3, 4) + t(1, 1, 3, 2) , 1 X0 ( , 2 1 ( , 2 3 , 2 3 , 2

3 , 3) pertenece a P Q, pues 2 3 1 , 3) = (1, 2, 3, 4) + (1, 1, 3, 2). 2 2 Sin embargo, el punto X (1, 0, 3, 0) no pertenece a P Q, pues no existe t con 0 t 1 tal que (1, 0, 3, 0) = =
8.1.6.

(1, 2, 3, 4) + t (1, 1, 3, 2) (1 t , 2 t , 3 3t , 4 2t ) .

Denicin
P

(Hiperplano)

En

punto

y que es normal al vector

Rn , el hiperplano que n = 0, se dene como el

pasa por el conjunto de

puntos:

H = X Rn : (OX OP ) n = 0 , H = X Rn : OX n = OP n = cte. ,
219

o lo que es lo mismo,

8.1. Rectas y planos


n IR
3

Hiperplanos
H
x3 X P

x2

x1
Figura 8.5. Grca de un plano en

R3 .

donde   es el producto interno usual en

Rn

(vase apartado 1.2.3 1).

8.1.7.

Observacin.
1. En

En

R2

y en

R3

los hiperplanos tienen una estructura

muy particular. En efecto,

R2 ,

un hiperplano es una recta. As por ejemplo, el hiper-

plano (recta) que pasa por el punto al vector

P (4, 3)

y que es normal

n = (5, 2),

es el conjunto de puntos

X(x1 , x2 )

de

R2

que satisfacen la ecuacin:

OX n = 5x1 + 2x2 = 20 6 = 26 = OP n,
o sea,

5x1 + 2x2 = 26.


2. En

, un hiperplano es un plano. As por ejemplo, el hiperplano

(plano) que pasa por el punto vector

P (2, 1, 1)

y que es normal al de

X(x1 , x2 , x3 ) R3 que satisfacen la ecuacin: OX n = x1 + x2 + 3x3 = 2 1 + 3 = 0 = OP n,


es el conjunto de puntos

n = (1, 1, 3),

o sea,

x1 + x2 + 3x3 = 0 .
220

Hiperplanos
8.1.8.

8.1. Rectas y planos

Ejemplo. Dados los puntos Q(1, 1, 1), P (1, 1, 2) y el vector n = (1, 2, 3), encuentre el punto de interseccin, si lo hay, de la recta que pasa por el punto P en la direccin del vector n y del hiperplano (plano) que pasa por Q y es normal al vector n.
puntos de

La recta que pasa por

P en la direccin del vector n, es X(x1 , x2 , x3 ) de R3 tales que: (x1 , x2 , x3 ) = 0X = 0P + n = (1, 1, 2) + (1, 2, 3).

el conjunto de

R.

El hiperplano (plano) que pasa por conjunto de puntos de la ecuacin:

Q y que es normal al vector n, es el X(x1 , x2 , x3 ) de R3 para los cuales se satisfacen

OX n = x1 + 2x2 + 3x3 = 6 = OQ n . I
al punto de interseccin entre la recta y

Ahora bien, si denotamos por el plano, entonces:

OI = OP + n
y tambin

para algn

R,

OI n = OP n.
De esto se sigue que:

OP + n = OQ n . PQ n n
2

Utilizando las propiedades del producto interno encontramos que:

1 . 14

En consecuencia, las coordenadas del punto buscado estn dadas por:

OI = =

1 OP + n = (1, 1, 2) + (1, 2, 3) 14 15 12 31 ). ( , , 14 14 14

La gura 8.6 ilustra la situacin de la interseccin entre una recta y un plano.

221

8.1. Rectas y planos


n x3 IR
3

Hiperplanos
P

x Q

x2

x1
Figura 8.6. Grcas de un plano y una recta en

R3

8.1.9.

Denicin.

Sea

el hiperplano de

Rn

descrito por la ecuacin

OX n = OP n = c
Los conjuntos

S1 = X Rn : OX n c S2 = X Rn : OX n c
se denominan los semiespacios cerrados con frontera Los conjuntos

y , H.

S1 = X Rn : OX n < c S2 = X Rn : OX n > c
se denominan semiespacios abiertos con frontera

y , H.

Nota.

Los semiespacios abiertos no incluyen la frontera

H,

mientras que

los semiespacios cerrados si la incluyen.


222

Hiperplanos
IR
2

8.2. Conjuntos convexos


y

. x. n > c

. x. n = c

. x.n < c

Figura 8.7. Ilustracin de semiespacios abiertos

8.2. Conjuntos convexos


Los conjuntos convexos juegan un papel importante en la programacin lineal. En particular se tiene que la llamada regin factible de un problema de programacin lineal es un conjunto convexo (vea el teorema 6.6(iii) de [

10]).

8.2.1.

Denicin.
C.

Sea

un subconjunto de

Rn .

Se dice que

es convexo,

si para dos puntos cualesquiera contenido en

de

C,

el segmento de recta

PQ

est

En la gura 8.1 los conjuntos conjuntos

C1

C2

son convexos, mientras que los

C3

C4

no son convexos.

8.2.2.

Teorema.

Todo hiperplano de

Rn

es un conjunto convexo.

Demostracin. Sea

H el hiperplano de Rn OX n = OP n = c H.
Ahora, si

descrito por la ecuacin

y sean

Q1

Q2

puntos de

es un punto de

R3

cuyas

coordenadas satisfacen:

OX = OQ1 + t(Q2 Q1 ),
223

0 t 1,

8.2. Conjuntos convexos


y C 1 P Q P C2 Q P P Q C4 y C3 Q

Hiperplanos

x
(a)
(b)

Figura 8.1. Conjuntos convexos y no convexos

entonces

es un punto del segmento de recta

Q1 Q2

y se tiene que:

OX n = = = = = =
es decir, 8.2.3.

OQ1 + t(Q2 Q1 ) n OQ1 + t(0Q2 OQ1 ) n OQ1 + t 0Q2 n t OQ1 n (1 t)OQ1 n + t OQ2 n (1 t)c + t c c, H
es un conjunto convexo.

X H.

Por lo tanto

Teorema.

Sea

abierto con frontera

H el hiperplano de Rn . Todo H es un conjunto convexo. H el hiperplano de Rn OX n = OP n = c .

semiespacio cerrado o

Demostracin. Sea

descrito por la ecuacin

Demostremos nicamente que el semiespacio abierto con frontera

S = X Rn : OX n < c
es un conjunto convexo. En el caso de semiespacio cerrados con frontera

se procede de manera anloga. 224

Hiperplanos
Sean pues

8.2. Conjuntos convexos

Q1 y Q2 puntos del conjunto S y sea X un punto del segmento de recta Q1 Q2 . Puesto que Q1 S y Q2 S , entonces OQ1 n < c y OQ2 n < c, de aqu que: OX n = OQ1 + t(Q2 Q1 ) n = = = <
esto es, 8.2.4.

OQ1 + t(0Q2 OQ1 ) n OQ1 + t 0Q2 n t OQ1 n (1 t)OQ1 n + t OQ2 n (1 t)c + t c = c , S


es un conjunto convexo.

X S.

Por lo tanto

La interseccin de dos conjuntos convexos de n conjunto convexo de R .


Demostracin. Sean

Teorema.

Rn

es un

C1

C2

dos conjuntos convexos de distintos de

C3 = C1 C2 .

Si

C3

tiene solamente un punto, entonces

mente convexo. Sean

Q1

son conjuntos convexos de

OQ1 + t(OQ2 OQ1 ) C1


y

Q2 dos puntos Rn , entonces:

Rn y sea C3 es automticaS3 , ya que C1 y C2 0 t 1.

Para todo

tal que

OQ1 + t(OQ2 OQ1 ) C2 Para todo t tal que 0 t 1. En consecuencia. OQ1 + t(OQ2 OQ1 ) C3 = C1 C2 para todo t tal que 0 t 1 y por lo tanto C3 es un conjunto convexo de Rn .
La prueba del siguiente corolario se puede obtener aplicando el principio de induccin matemtica y se propone como un ejercicio. 8.2.5.

Corolario.
Rn

vexos de
8.2.6.

es un conjunto conexo de

La interseccin de un nmero nito de conjuntos conn

R .

Rn .

Teorema

(Envolvente convexa)

Sean

X1 , X2 , . . . , Xm
m

puntos de

El conjunto:

C=

X Rn : OX =

i OXi ; i 0, i = 1, . . . , m,

i = 1
i=1

i=1

es un conjunto convexo y es llamado la Envolvente convexa de los puntos

X1 , X2 , . . . , Xm .
225

8.3. Ejercicios
Demostracin. Sean

Hiperplanos
P y Q dos puntos de C; entonces existen 1 , 2 , . . . , m no negativos, tales que:
m
es-

calares

1 , 2 , . . . , m

OP =
y

i OXi ,

i = 1
i=1 m

i=1 m

OQ =
Sea ahora

i OXi ,

i = 1 .
i=1

i=1

un punto en el segmento de recta

P Q,

esto es, un

para

el cual se satisface

OX = OP + t(OQ OP ), 0 t 1.
Puesto que:

OX

=
i=1 m

i OXi + t

i OXi

i OXi

i=1

i=1

=
i=1
donde

[(1 t)i + ti ] OXi ,


para

(1 t)i + ti 0
m

i = 1, . . . , m, = = (1 t)

[(1 t)i + ti ]
i=1

i + t
i=1 i=1

(1 t) + t = 1 , C
es un conjunto convexo.

entonces

X C.

En consecuencia,

8.3. Ejercicios
8.3.1 Responda verdadero o falso, justicando su respuesta.

1. El punto 2.

X (4, 5, 0) pertenece a la recta que pasa por el P (1, 2, 3) en la direccin del vector d = (1, 1, 1). El punto X (0, 1, 2) pertenece al segmento de recta que los puntos P (1, 2, 3) y Q (4, 5, 6).
226

punto une a

Hiperplanos
3. Sean

8.3. Ejercicios
Q (1, 2, 3) , P (0, 1, 2)
y

seccin de la recta que pasa por y de hiperplano que pasa por

n = (1, 1, 1). El punto de interP en la direccin del vector n Q y que es normal al vector n, es Rn
es un conjunto con-

M (2, 0, 1).
4. La unin de dos conjuntos convexos de vexo de

5. El conjunto de todas las soluciones de un sistema de ecuaciones lineales

x = x1 x2 xn Ax = y, tales que xi 0

t
,

i = 1, . . . , n
8.3.2 Calcule 1. Sea

es un conjunto convexo.

H = X Rn : OX n = c
tal que:

un hiperplano de

Rn .

a ) Muestre que si

X = 0 H, entonces existe un vector n = 0 /

H = X Rn : OX n = 1 .
b ) Demuestre que si

b1 , b2 , . . . , bn
dependientes.

de

X = 0 H, entonces existen n puntos / H, que como vectores son linealmente inX = 0 H, /


n
entonces

c ) Demuestre que si

H=

X Rn : X =
i=1

i bi ,
i=1
son puntos de

i = 1 H,

,.

donde 2. Encuentre

b1 , b2 , . . . , bn b1 , b 2
y

que como vectores

son linealmente independientes.

b3

tales que

= =

X R : X (2, 1, 1) = 1
3 3

X R3 : X =
i=1

i bi ,
i=1

i = 1

3. Sean

b1 = (1, 0, 0), b2 = (1, 1, 0) y b3 = (1, 1, 1). a ) Demuestre que b1 , b2 y b3 son linealmente independientes. b ) Encuentre un vector n = 0 tal que: = = X R3 : OX =
3 3

i bi ,
i=1 i=1

i = 1

X R3 : OX n = 1
227

8.3. Ejercicios
4. Sea

Hiperplanos

a ) Muestre que si

H = {X Rn : X N = C} un hiperplano de Rn . X = 0 H sii C = 0. b ) Demuestre que si X = 0 H, entonces existen n 1 puntos a1 , a2 , . . . , an1 de H, que como vectores son linealmente
independientes.

c ) Demuestre que si

X = 0 H,

entonces

H=
donde 5. Encuentre

X Rn : OX =
son

n1

i ai
i=1

. H,
que como

a1 , a2 , . . . , an1 a1 = =
y

n1

puntos de

vectores son linealmente independientes.

a2

tales que

X R3 : OX (2, 1, 1) = 0 X R3 : OX = 1 a1 + 2 a2

6. Sean

a1 = (1, 1, 1) y a2 = (1, 0, 1). a ) Muestre que a1 y a2 son linealmente independientes. b ) Encuentre un vector n = 0 tal que: H = = X R3 : OX = 1 a1 + 2 a2 X R3 : v N = 0 Rn .
es una variedad lineal de

7. Demuestre que todo hiperplano de dimensin

n1

(vase el apartado 1.2.1).

8. Demuestre que si 9. Demuestre que si biyectiva,

T : R n Rm

es una transformacin lineal, lineal

entonces enva conjuntos convexos en conjuntos convexos.

T : R2 R2 es una transformacin entonces T enva tringulos en tringulos.

228

ndice alfabtico

Base, 11 cambio de, 20 cannica de Rn , 14 ortogonal, 16, 66 ortonormal, 16 c-inversa de una matriz, 152 Cholesky descomposicin, 198 Conjuntos convexos, 223 Descomposicin de Cholesky, 198 en valores singulares, 205 LU, 179 QR, 188 Desigualdad de Schwarz, 15 Determinante, matriz, 4 Diagonal principal, matriz, 2 Diagonal, matriz, 2 Diagonalizacin de matrices simtricas, 64 de una forma cuadrtica, 103 ortogonal, 70 simultnea de formas cuadrticas, 105 de matrices, 82 Diagonalizacin de matrices, 53 Eigenvalores, eigenvectores; vea valores (vectores) propios, 44 Espacio columna, matriz, 21 Espacio la, matriz, 21
229

Espacio generado, 10 Espacio nulo, matriz, 21 Espacio vectorial, 8 base, 11 base ordenada, 13 de transformaciones lineales, 19 dimensin, 11 subespacio, 9 suma directa, 13 Espacios fundamentales, matriz, 20 Factorizacin de matrices; ver descompisicin de matrices, 179 Forma cuadrtica, 97 cambio de variables, 101 clasicacin, 99 diagonalizacin de una, 103 indenida, 99, 110 negaitivamente denida, 110 negativamente denida, 99 negativamente semidenida, 110 negitivamente semidenida, 99 no negaitiva, 99 no posiitiva, 99 positivamente denida, 99, 110 positivamente semidenida, 99, 110 Forma escalonada reducuda, 6 g-inversa de una matriz, 137, 143 Gauss-Jordan, mtodo, 23 Gram-Schmidt, proceso, 191 Gram-Schmidt, proceso de, 16 Hermite

ndice alfabtico
matriz superior, 156 Idntica, matriz, 2 Identidad, matriz, 2 Imagen de una transformacin lineal, 17 Inversa condicional, 152 generalizada, 137, 143, 195 clculo de, 147 propiedades, 145 LU descomposicin, 179 Mnimos cuadrados, 162 Matrices Diagonalizacin de, 53 factorizacin, 179 no negativas, 123 semejantes polinomios caractersticos de, 52 simtricas diagonalizacin, 64 Matrices elementales, 6 Matriz, 1 adjunta, 4 cambio de base, 20 cofactor ij , 4 de cofactores, 4 de una forma cuadrtica, 98 de una transformacin lineal, 18 determinante, 4, 5 propiedades, 5 diagonal, 2 ecuacin caracterstica de una, 48 espacio columna de una, 21 espacio la de una, 21 espacio nulo de una, 21 espacios fundamentales de una, 20 forma escalonada reducida, 6 hermite superior, 156 idntica, 2 idempotente, 129 inversa, 3, 23 propiedades, 3 menor ij , 4 operaciones elmentales, 5
230

particionada, 26 determinante, 30, 32, 33 inversas, 34, 35 operaciones con, 27 polinomio caracterstico de una, 48 rango de una, 20, 22 semejante, 20 submatriz, 25 transpuesta, 3 propiedades, 3 traza de una, 37 valor propio de una, 47 vector propio de una, 47 Mejor solucin aproximada, 165 Ncleo de una transformacin lineal, 17 Operaciones elmentales en una matriz, 5 Producto interno, 14 QR descomposicin, 188 Rango de una matriz, 20 Rectas, planos e hiperplanos, 215 Sistemas de ecuaciones, 23 c-inversas,g-inversa, 160 Gauss-Jordan, 23 mnimos cuadrados, 160 mejor solucin aproximada, 165 solucin mnima cuadrada, 165 Solucin mnima cuadrada, 165 Transformacin lineal lgebra de, 19 imagen, 17 inversa de una, 20 matriz de una, 18 ncleo, 17 transformacin inyectica, 17 transformacin sobreyectiva, 17 valores propios, 44 vectores propios, 44 Transformaciones lineales, 16 Transpuesta, matriz, 3

ndice alfabtico
Valor propio, 44 espacio asociado a un, 46 multiplicidad algebraica de un, 48 multiplicidad geomtrica de un, 46 Valores (vectores) caractersticos; vea valores (vectores) propios, 44 Valores singulares descomposicin, 205 Variedad lineal, 23 Vector propio, 44 Vectores, 8, 215 coordenadas resp. a una base, 13 linealmente dependientes, 10 linealmente independiente, 56 linealmente independientes, 10, 22, 24 ortogonales, 15 ortonormales, 15 proceso de Gram-Schmidt, 16 propios ortogonales, 66

231

Bibliografa
[1] ANTON, H. Introduccin al lgebra lineal. Limusa, Mxico, 1981, [2] FLOREY, F.G. Fundamentos de lgebra lineal y aplicaciones. Prentice Hall internacional, Colombia, 1980. [3] GRAYBILL, F.A. Introduction to matrices with applications in statistic. Wadsworth Publishing Company. Inc. Belnont, California, 1969. [4] GRAYBILL, F.A. Theory and applications of linear model. Duxbury Presss, Massachusetts, 1976. [5] HADLEY, G. A. lgebra lineal, Fondo Educativo Interamericano S.A., Estados Unidos 1969. [6] LIPSCHUTZ, S. lgebra lineal, McGraw Hill, Mxico, 1979. [7] MARMOLEJO, M.A. Inversa condicional e inversa generalizada de una matriz: esquema geomtrico. Lecturas Matemticas, Soc. Col. Matemat., Pg. 129-146, Vol. IX, 1988. [8] Nakos, G., Joyner, D., legebra lineal con aplicaciones, Thonsom editores, Mxico, 1998. [9] Nering, E.D. legebra lineal y teora de matrices. Limusa, Mxico, 1977. [10] NOBLE, B. Applied linear algebra. Prentice Hall, Inc. London, 1969. [11] RORRES , C y ANTON, H, Aplicaciones del lgebra lineal. Limusa, Mxico 1979. [12] STRANG, G, lgebra lineal y sus aplicaciones. Fondo educativo interamericano, 1982.

233

También podría gustarte