0% encontró este documento útil (0 votos)
15 vistas216 páginas

Algebra. R. Guzman

Excelente texto para el desarrollo del álgebra básica.

Cargado por

Alicia Carvajal
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
15 vistas216 páginas

Algebra. R. Guzman

Excelente texto para el desarrollo del álgebra básica.

Cargado por

Alicia Carvajal
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Contents

1 MATRICES 3
1.1 CAMPOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 CAMPOS . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 LOS NÚMEROS COMPLEJOS . . . . . . . . . . . . . 7
1.2 MATRICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 SUMA DE MATRICES . . . . . . . . . . . . . . . . . 15
1.2.2 PRODUCTO POR ESCALAR . . . . . . . . . . . . . 16
1.2.3 PRODUCTO DE MATRICES . . . . . . . . . . . . . . 16
1.2.4 TRANSPUESTA DE UNA MATRIZ . . . . . . . . . . 20
1.2.5 INVERSA DE UNA MATRIZ . . . . . . . . . . . . . . 23
1.3 MATRICES COMPLEJAS . . . . . . . . . . . . . . . . . . . . 29
1.3.1 MATRICES HERMITIANAS . . . . . . . . . . . . . . 29
1.3.2 MATRICES NORMALES . . . . . . . . . . . . . . . . 30
1.3.3 MATRICES UNITARIAS . . . . . . . . . . . . . . . . 31

2 SISTEMAS DE ECUACIONES LINEALES 33

3 ESPACIOS VECTORIALES 43
3.1 ESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . . 43
3.2 SUBESPACIOS Y COMBINACIONES
LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 INDEPENDENCIA LINEAL . . . . . . . . . . . . . . . . . . 56
3.3.1 INDEPENDENCIA LINEAL SISTEMAS DE
ECUACIONES LINEALES Y MATRICES . . . . . . . 61
3.4 BASES Y DIMENSIÓN . . . . . . . . . . . . . . . . . . . . . 63
3.4.1 EXISTENCIA DE BASES EN UN ESPACIO FINI-
TAMENTE GENERADO . . . . . . . . . . . . . . . . 69
3.4.2 VECTORES DE COORDENADAS . . . . . . . . . . . 71

1
2 CONTENTS

3.5 MATRIZ DE CAMBIO DE BASE . . . . . . . . . . . . . . . 74


3.6 RANGO DE UNA MATRIZ . . . . . . . . . . . . . . . . . . . 77

4 TRANSFORMACIONES LINEALES 87

5 ESPACIOS CON PRODUCTO INTERIOR 99


5.1 ESPACIOS CON PRODUCTO INTERIOR . . . . . . . . . . 99
5.2 ORTOGONALIDAD . . . . . . . . . . . . . . . . . . . . . . . 101
5.3 ESPACIOS NORMADOS . . . . . . . . . . . . . . . . . . . . 107

6 PROYECCIÓN ORTOGONAL 115


6.1 TEOREMA FUNDAMENTAL DEL ÁLGEBRA LINEAL . . 126

7 DETERMINANTES 131
7.1 COFACTORES Y ADJUNTAS . . . . . . . . . . . . . . . . . 150

8 VALORES Y VECTORES PROPIOS 155


8.1 VALORES Y VECTORES PROPIOS . . . . . . . . . . . . . . 155
8.2 POLINOMIO CARACTERÍSTICO . . . . . . . . . . . . . . . 159
8.3 LOCALIZACIÓN DE VALORES
PROPIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.4 VALORES PROPIOS E
INDEPENDENCIA LINEAL . . . . . . . . . . . . . . . . . . 168
8.5 MATRICES DIAGONALIZABLES . . . . . . . . . . . . . . . 170
8.6 MATRICES HERMITIANAS Y
VALORES PROPIOS . . . . . . . . . . . . . . . . . . . . . . 173
8.7 MATRICES NORMALES Y VALORES PROPIOS . . . . . . 173
8.8 MATRICES UNITARIAS Y VECTORES PROPIOS . . . . . 174
8.9 LEMA DE SCHUR . . . . . . . . . . . . . . . . . . . . . . . . 178
8.10 POLINOMIOS ANULADORES . . . . . . . . . . . . . . . . . 182
8.11 DESCOMPOSICIÓN EN VALORES
SINGULARES . . . . . . . . . . . . . . . . . . . . . . . . . . 185

9 SOLUCIÓN A ALGUNOS
PROBLEMAS SELECCIONADOS 199

10 DESECHOS 207
ALGEBRA LINEAL

RICARDO GUZMAN N.

April 29, 2004


2 CONTENTS
Chapter 1

MATRICES

En este capítulo nos dedicaremos al estudio de algunas de las propiedades


básicas de las matrices con componentes en un campo general, y de algunos
tipos especiales de matrices de componentes complejas.

1.1 CAMPOS
A pesar de que en este texto asumimos que el lector posee conocimientos
básicos acerca de los campos, queremos aquí, con el ánimo de refrescar su
memoria, presentar la de…nición de campo, las principales consecuencias de
los axiomas de campo y un breve estudio de las propiedades de los números
complejos que utilizaremos más adelante.

1.1.1 CAMPOS
De…nition 1 Un campo es un conjunto no vacío K junto con dos opera-
ciones
+ : K K ! K
(adición o suma)
(k1 ; k2 ) 7 ! k1 + k2
y
: K K ! K
(multiplicación)
(k1 ; k2 ) 7 ! k1 k2
que satisfacen las siguientes propiedades:

3
4 CHAPTER 1. MATRICES

1. La adición es asociativa,

k1 + (k2 + k3 ) = (k1 + k2 ) + k3

para cualquiera k1 ; k2 y k3 de K:

2. La adición es conmutativa,

k1 + k2 = k2 + k 1
para cualquiera k1 y k2 de K:

3. Existe un elemento único 0 (cero) de K tal que k + 0 = k; para todo k


en K:

4. A cada k de K le corresponde un elemento único ( k) de K tal que


k + ( k) = 0:

5. La multiplicación es asociativa,

k1 (k2 k3 ) = (k1 k2 )k3

para cualquiera k1 ; k2 y k3 de K:

6. La multiplicación es conmutativa,

k 1 k2 = k2 k 1

para cualquiera k1 y k2 de K:

7. Existe un elemento no cero único 1 (uno o elemento identidad para


la multiplicación en K) de K tal que 1k = k; para todo k en K:

1
8. A cada elemento no cero k de K le corresponde un elemento único k
de K tal que kk 1 = 1:

9. La multiplicación es distributiva respecto de la adición; esto es,

k1 (k2 + k3 ) = k1 k2 + k1 k3

para cualquiera k1 ; k2 y k3 de K:
1.1. CAMPOS 5

De…nition 2 A los elementos de un campo los llamaremos escalares.

Ejemplos de campos son Q el conjunto de los números racionales con la


adición y multiplicación usuales y R el conjunto de los números reales con la
adición y multiplicación usuales.

Las nueve propiedades en la de…nición de campo se conocen comunmente


como los axiomas de campo y a partir de ellos se pueden deducir todas las
leyes del Álgebra elemental. Algunas de las más importantes las presentamos
a continuación en forma de teoremas. En todos estos teoremas k1 ; k2 ; k3 ; k4 ,
representan escalares cualesquiera de un campo K:

Theorem 1 Si k1 + k2 = k1 + k3 ; entonces k2 = k3 :

Demostración.
k1 + k2 = k1 + k3 ) ( k1 ) + (k1 + k2 ) = ( k1 ) + (k1 + k3 )

) (( k1 ) + k1 ) + k2 = (( k1 ) + k1 ) + k3

) 0 + k2 = 0 + k3 ) k 2 = k3 :

Theorem 2 Dados k1 ; k2 existe un único x 2 K tal que k1 + x = k2 : En


otras palabras la ecuación k1 + x = k2 tiene exactament una solución en K:

Demostración. Si x = ( k1 ) + k2 tenemos que

k1 + x = k1 + (( k1 ) + k2 ) = (k1 + ( k1 )) + k2 = 0 + k2 = k2 ;

de donde x = ( k1 ) + k2 es solución de k1 + x = k2 : Ahora, si k1 + x = k2 y


k1 + y = k2 ; entonces k1 + x = k1 + y, luego por Teorema 1 x = y: Por lo
anterior x = ( k1 ) + k2 es la única solución de k1 + x = k2 :

Theorem 3 0 = 0:

Demostración. 0 + 0 = 0 y 0 + ( 0) = 0; entonces 0 y 0 son soluciones de


0 + x = 0: Entonces por Teorema 2 0 = 0:

Theorem 4 ( k1 ) = k1 :
6 CHAPTER 1. MATRICES

Demostración. ( k1 ) + ( ( k1 ) = 0 y ( k1 ) + k1 = 0; entonces ( k1 ) y
k1 son soluciones de ( k1 ) + x = 0: Luego por Teorema 2 ( k 1 ) = k1 :

Theorem 5 0k1 = 0:

Demostración. 0k1 + 0 = 0k1 y 0k1 + 0k1 = (0 + 0)k1 = 0k1 ; de donde 0k1 y


0 son soluciones de 0k1 + x = 0k1 : Luego por Teorema 2 0k1 = 0:

Theorem 6 Si k1 k2 = k1 k3 y k1 6= 0; entonces k2 = k3 :

Demostración. Si k1 k2 = k1 k3 y k1 6= 0

) (k1 1 )(k1 k2 ) = (k1 1 )(k1 k3 ) ) (k1 1 k1 )k2 = (k1 1 k1 )k3

) 1 k2 = 1 k3 ) k 1 = k2 :

Theorem 7 Dados k1 y k2 con k1 6= 0, entonces existe un único x 2 K tal


que k1 x = k2 : Es decir, la ecuación k1 x = k2 con k1 6= 0 tiene una única
solución en K:

Demostración. Si x = k1 1 k2 ; entonces

k1 x = k1 (k1 1 k2 ) = (k1 k1 1 )k2 = 1 k2 = k2 :

Por tanto x = k1 1 k2 es solución de k1 x = k2 : Ahora, si k1 x = k2 y k1 y = k2 ;


se sigue que k1 x = k1 y y por ser k1 6= 0 se tiene que x = y según el Teorema
6. Así x = k1 1 k2 es la única solución de k1 x = k2 :

1
Theorem 8 En todo campo K se tiene que 1 = 1:

Demostración.
1
(1)(1) = 1 ) 1 = 1:

Theorem 9 Si k1 6= 0; entonces (k1 1 ) 1


= k1 :

Demostración. k1 1 k1 = 1 y k1 1 (k1 1 ) 1 = 1; entonces (k1 1 ) 1


y k1 son
soluciones de k1 1 x = 1: Luego por Teorema 7 (k1 1 ) 1 = k1 :

Theorem 10 Si k1 k2 = 0; entonces k1 = 0 o k2 = 0:
1.1. CAMPOS 7

Demostración. Si suponemos que k1 k2 = 0 con k1 6= 0 y k2 6= 0; entonces


(k2 1 k1 1 ) (k1 k2 ) = (k2 1 k1 1 ) 0 ) k2 1 (k1 1 k1 )k2 = 0

) k2 1 (1)k2 = 0

) k2 1 k 2 = 0

) 1 = 0:
Esto último va en contra de la propiedad 7 de la de…nición de campo. Luego
k1 k2 = 0 implica k1 = 0 o k2 = 0:

De…nition 3 Un subcampo de un campo K es un subconjunto K 0 no vacío


de K que es a su vez un campo respecto a las operaciones suma y multipli-
cación de K restringidas a los elementos de K 0 :

Problemas

1. ( ) Si K es un campo y k 2 K: Demuestre que k = ( 1)k:

2. Si K es un campo y k1 ; k2 ; k3 y k4 pertenecen a K; entonces:

i) ( k1 )k2 = (k1 k2 ) y ( k1 )( k2 ) = k1 k2 ;

ii) k1 1 k2 1 = (k1 k2 ) 1
si k1 6= 0 y k2 6= 0;

iii) (k1 k2 1 ) + (k3 k4 1 ) = (k1 k4 + k2 k3 )(k2 k4 ) 1


si k2 6= 0 y k4 6= 0;

iv) (k1 k2 1 )(k3 k4 1 ) = (k1 k3 )(k2 k4 ) 1


si k2 6= 0 y k4 6= 0;

v) (k1 k2 1 )(k3 k4 1 ) 1
= (k1 k4 )(k2 k3 ) 1
si k2 6= 0; k3 6= 0 y k4 6= 0:

1.1.2 LOS NÚMEROS COMPLEJOS


De…nition 4 Se de…ne el conjunto C de los números complejos como el
conjunto formado por todos los pares ordenados
z = (x ; y) (1.1)
8 CHAPTER 1. MATRICES

de números reales x e y:

Se suelen identi…car los pares (x ; 0) con los números reales x. El conjunto


de los números complejos contiene por tanto, a los números reales como
subconjunto. Los números complejos de la forma (0 ; y) se llaman números
imaginarios puros. Los números reales x e y en la Ecuación 1.1 se conocen,
respectivamente, como parte real y parte imaginaria de z. Escribiremos:

Re z = x; Im z = y: (1.2)

Dos números complejos (x1 ; y1 ) y (x2 ; y2 ) se dicen iguales si tienen iguales


las partes real e imaginaria. Es decir

(x1 ; y1 ) = (x2 ; y2 ) si y sólo si x1 = x2 e y1 = y2 : (1.3)

De…nition 5 La suma z1 +z2 y el producto z1 z2 de dos números complejos


z1 = (x1 ; y1 ) y z2 = (x2 ; y2 )se de…nen por:

i) (x1 ; y1 ) + (x2 ; y2 ) = (x1 + x2 ; y1 + y2 )

ii) (x1 ; y1 )(x2 ; y2 ) = (x1 x2 y1 y2 ; y1 x2 + x1 y2 ):

En particular (x ; 0) + (0 ; y) = (x ; y) y (0 ; 1)(y ; 0) = (0 ; y): Entonces

(x ; y) = (x ; 0) + (0 ; 1)(y ; 0): (1.4)

Nótese que las operaciones que aparecen en la De…nición 5 son las usuales
cuando se restringen a los números reales:

(x1 ; 0) + (x2 ; 0) = (x1 + x2 ; 0)


(x1 ; 0)(x2 ; 0) = (x1 x2 ; 0)

Luego el sistema de los números complejos es, en concecuencia, una extensión


natural de los números reales.
Pensando en un número real como x o como (x ; 0), y si denotando por i al
número imaginario puro (0 ; 1), podemos reescribir la Ecuación 1.4 así:

(x ; y) = x + iy: (1.5)

Asímismo, con el convenio z 2 = zz; z 3 = zzz; etc., hallamos que

i2 = (0; 1)(0; 1) = ( 1; 0);


1.1. CAMPOS 9

es decir,
i2 = 1
A la vista de la Ecuación 1.5, la De…nición 5 se convierte en

(x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i(y1 + y2 ): (1.6)

(x1 + iy1 )(x2 + iy2 ) = (x1 x2 y1 y2 ) + i(y1 x2 + x1 y2 ): (1.7)


Observe que los miembros de la derecha en las anteriores ecuaciones se pueden
obtener formalmente manipulando los términos de la izquierda como si sólo
contuvieran números reales, y sustituyendo i2 por 1 cuando aparezca.

Theorem 11 El conjunto C de los números complejos junto con las opera-


ciones dadas en la De…nición 5 es un campo.

Demostración. 1: Si z1 = x1 + iy1 ; z2 = x2 + iy2 y z3 = x3 + iy3 están en C,


entonces
z1 + (z2 + z3 ) = (x1 + iy1 ) + ((x2 + iy2 ) + (x3 + iy3 ))

= (x1 + iy1 ) + ((x2 + x3 ) + i(y2 + y3 ))

= (x1 + (x2 + x3 )) + i(y1 + (y2 + y3 ))

= ((x1 + x2 ) + x3 ) + i((y1 + y2 ) + y3 )

= ((x1 + x2 ) + i(y1 + y2 )) + (x3 + iy3 )

= (z1 + z2 ) + z3 :

2: Si z1 = x1 + iy1 y z2 = x2 + iy2 están en C, entonces


z1 + z2 = (x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i(y1 + y2 )

= (x2 + x1 ) + i(y2 + y1 ) = (x2 + iy2 ) + (x1 + iy1 )

= z2 + z1 :

3: Si x + iy 2 C, entonces

(x + iy) + (0 + i0) = (x + 0) + i(y + 0) = x + iy:


10 CHAPTER 1. MATRICES

Ahora, si existe x0 + iy0 en C tal que para todo x + iy 2 C

(x0 + iy0 ) + (x + iy) = x + iy

entonces en particuar(0 + i0) + (x0 + iy0 ) = 0 + i0. Pero también

(0 + i0) + (x0 + iy0 ) = x0 + iy0 ;

por tanto se tiene que x0 + iy0 = 0 + i0:


4: Si x + iy 2 C , entonces

(x + iy) + (( x) + i( y)) = (x + ( x)) + i(y + ( y)) = 0 + i0:

Ahora, si (x + iy) + (v + iw) = 0 + i0; entonces

(x + v) + i(y + w) = 0 + i0;

de donde x + v = 0 y y + w = 0; así v = x, w = y y (v + iw) =


(( x) + i( y)):
5: Si z1 = x1 + iy1 ; z2 = x2 + iy2 y z3 = x3 + iy3 están en C, entonces

z1 (z2 z3 ) = (x1 + iy1 )((x2 x3 y2 y3 ) + i(y2 x3 + x2 y3 ))

= (x1 (x2 x3 y2 y3 ) y1 (y2 x3 + x2 y3 ))+

i(y1 (x2 x3 y2 y3 ) + x1 (y2 x3 + x2 y3 ))

= (x1 x2 x3 x1 y2 y3 y1 y2 x3 y1 x2 y3 )

+i(y1 x2 x3 y1 y2 y3 + x1 y2 x3 + x1 x2 y3 )

= ((x1 x2 y1 y2 )x3 (y1 x2 + x1 y2 )y3 )

+i((y1 x2 + x1 y2 )x3 + (x1 x2 y1 y2 )y3 )

= ((x1 x2 y1 y2 ) + i(y1 x2 + x1 y2 )) (x3 + iy3 )

= (z1 z2 )z3 :
1.1. CAMPOS 11

6: Si z1 = x1 + iy1 y z2 = x2 + iy2 están en C, entonces


z1 z2 = (x1 + iy1 )(x2 + iy2 ) = (x1 x2 y1 y2 ) + i(y1 x2 + x1 y2 )

= (x2 x1 y2 y1 ) + i(y2 x1 + x2 y1 )

= (x2 + iy2 )(x1 + iy1 ) = z2 z1 :


7: Si x + iy 2 C y x + iy 6= 0 + iy; entonces
(1 + 0i)(x + iy) = (1x 0y) + i(0x + 1y) = x + iy
Ahora, si x0 + iy0 2 C y es tal que
(x0 + iy0 )(x + iy) = x + iy 8x + iy 2 C
entonces se tiene que
1 + 0i = (x0 + iy0 )(1 + i0) = (1 + 0i)(x0 + iy0 ) = x0 + iy0 :
8: Si x+iy 2 C y x+iy 6= 0+i0: Si existe u+iv 2 C tal que (x+iy)(u+iv) =
1 + i0, entonces se debe cumplir que
xu yv = 1 y xv + yu = 0:
Ahora, puesto que x + iy 6= 0 + i0 se tiene que x2 + y 2 > 0; por tanto
u(x2 + y 2 ) = (ux)x + (uy)y = (1 + yv)x xvy

= x + yvx xvy = x
x
implica que u = : Y de igual manera,
x2 + y2
v(x2 + y 2 ) = (vx)x + (vy)y = yux + (ux 1)y

= yux + uxy y
y
implica que v = : De lo anterior se deduce que si x+iy 2 C y x+iy 6=
x2 + y2
0 + i0; entonces el único complejo u + iv que satisface (x + iy)(u + iv) = 1 + i0
es
x y
2 2
+ i( 2 ):
x +y x + y2
12 CHAPTER 1. MATRICES

9: Si z1 = x1 + iy1 ; z2 = x2 + iy2 y z3 = x3 + iy3 están en C, entonces


z1 (z2 + z3 ) = x1 + iy1 ((x2 + iy2 ) + (x3 + iy3 ))

= (x1 + iy1 )((x2 + x3 ) + i(y2 + y3 ))

= (x1 (x2 + x3 ) y1 (y2 + y3 )) + i(y1 (x2 + x3 ) + x1 (y2 + y3 ))

= (x1 x2 + x1 x3 y1 y2 y1 y3 ) + i(y1 x2 + y1 x3 + x1 y2 + x1 y3 )

= (x1 x2 y1 y2 + x1 x3 y1 y3 ) + i(y1 x2 + x1 y2 + y1 x3 + x1 y3 )

= ((x1 x2 y1 y2 ) + i(y1 x2 + x1 y2 ))

+((x1 x3 y1 y3 ) + i(y1 x3 + x1 y3 ))

= (x1 + iy1 )(x2 + iy2 ) + (x1 + iy1 )(x3 + iy3 )

= z1 z2 + z1 z3 :

Remark 1 En adelante, cuando hagamos referencia a los números comple-


jos se entenderá que nos referimos al campo del Teorema 11.

De…nition 6 Se de…ne el módulo o valor absoluto


p de un número complejo
z = x + iy como el número real no negativo x2 + y 2 y se denota jzj ; esto
es, p
jzj = x2 + y 2 (1.8)

De la Ecuación1.2 y la de…nición anterior se sigue que los números reales jzj,


Re z = x; e Im z = y están relacionados por la ecuación

jzj2 = (Re z)2 + (Im z)2 : (1.9)

Así pues
Re z 5 jRe zj 5 jzj ; Im z 5 jIm zj 5 jzj : (1.10)

De…nition 7 El complejo conjugado, o simplemente el conjugado, de un


número complejo z = x + iy se de…ne como el número complejo x iy;
denotado por z;esto es,
z = x iy: (1.11)
1.1. CAMPOS 13

Theorem 12 Sean z; z1 ; z2 ; z 2 C . Entonces


i) z = z
ii) jzj = jzj
iii) z1 z2 = z1 z2
iv) z1 z2 = z1 z2
v) Re z = 12 (z + z)
vi) zz = jzj2
vii) jz1 z2 j = jz1 j jz2 j

Demostración. Ejercicio.

Theorem 13 Sean z1 ; z2 2 C . Entonces

jz1 + z2 j jz1 j + jz2 j

se conoce como desigualdad triangular.

Demostración. Iniciamos escribiendo

jz1 + z2 j2 = (z1 + z2 ) (z1 + z2 ) = (z1 + z2 ) (z 1 + z 2 )

y efectuando el producto de la derecha, se llega a

jz1 + z2 j2 = z1 z 1 + z1 z 2 + z1 z 2 + z2 z 2 :

Ahora bien

z1 z 2 + z1 z 2 = 2Re (z1 z 2 ) 2 jz1 z 2 j = 2 jz1 j jz2 j ;

luego
jz1 + z2 j2 jz1 j2 + 2 jz1 j jz2 j + jz2 j2 ;
o sea,
jz1 + z2 j2 (jz1 j + jz2 j)2 :
Como los módulos son no negativos, se deduce la desigualdad triangular.

Theorem 14 Sean z1 ; z2 2 C . Entonces


i) jz1 + z2 j jjz1 j jz2 jj
ii) jz1 z2 j jz1 j + jz2 j
iii) jz1 z2 j jjz1 j jz2 jj
las cuales se desprenden de la desigualdad triangular.
14 CHAPTER 1. MATRICES

Demostración. Ejercicio.

Problemas
p
1. Probar que 2 jzj jRe zj + jIm zj :

2. = implica 2 R.

1.2 MATRICES
De…nition 8 Una matriz de m …las y n columnas (o de orden m n)
con entradas en el campo K es un arreglo rectangular de la forma
2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
A = 6 .. .. . . .. 7 ;
4 . . . . 5
am1 am2 amn

donde los aij son escalares de K: ai1 ai2 ain es la …la i de la matriz
Ay
2 3
a1j
6 a2j 7
6 7
6 .. 7
4 . 5
amj
es la columna j ésima de A: aij es la componente de la matriz A hubicada
simultáneamente en la …la i y columna j de A (o el elemento en la posición
ij), algunas veces a tal elemento lo denotaremos por (A)ij : Al conjunto de
todas las matrices de m …las y n columnas con entradas en el campo K lo
notaremos Mm n (K) y si m = n lo notaremos por Mn (K) y los elementos
de Mn (K) serán llamados matrices cuadradas de orden n: Si el orden
de la matriz A es claro, utilizaremos el símbolo [aij ] para representar a A
y si hay necesidad de aclarar el orden de A; podemos utilizar la expresiones
como [aij ]m n . Finalmente, si A 2Mn (K) sus componentes (A)ii forman su
diagonal principal.
De…nition 9 Si A; B 2Mm n (K) se dice que A = B si (A)ij = (B)ij 8i; j:
1.2. MATRICES 15

1.2.1 SUMA DE MATRICES


De…nition 10 Se de…ne la suma de las matrices A; B 2Mm n (K) como la
matriz A + B 2 Mm n (K); donde

(A + B)ij = (A)ij + (B)ij :

Theorem 15 Si A; B; C 2Mm n (K); entonces (A + B)+C = A+ (B + C) :

Demostración.

((A + B) + C)ij = (A + B)ij + (C)ij = ((A)ij + (B)ij ) + (C)ij

= (A)ij + ((B)ij + (C)ij ) = (A)ij + (B + C)ij

= (A+ (B + C))ij :

Luego (A + B) + C = A+ (B + C) :

Theorem 16 Si A; B 2Mm n (K); entonces A + B = B + A:

Demostración. Ejercicio.

De…nition 11 La matriz de Mm n (K) que tiene todas sus componentes iguales


a 0 es llamada la matriz nula y se denota por 0 o por 0m n :

Theorem 17 Para toda A 2Mm n (K); A+0 = 0 + A y 0 es la única matriz


de Mm n (K) con esta propiedad.

Demostración. Ejercicio.

Theorem 18 Si A = [aij ] 2Mm n (K); entonces A = [ aij ] 2Mm n (K) es


la única matriz de Mm n (K) que al sumarse con A dá la matriz nula.

Demostración. Ejercicio.
16 CHAPTER 1. MATRICES

1.2.2 PRODUCTO POR ESCALAR


De…nition 12 Si A = [aij ] 2Mm n (K) y k 2 K: El producto por escalar
de k por A es la matriz

kA = [kaij ] 2 Mm n (K):

Theorem 19 Si A 2Mm n (K) y k1 ; k2 2 K; entonces

(k1 + k2 )A = k1 A + k2 A:

Demostración. Ejercicio.

Theorem 20 Si A; B 2Mm n (K) y k 2 K; entonces k(A + B) = kA + kB:

Demostración. Ejercicio.

Theorem 21 Si A 2Mm n (K) y k1 ; k2 2 K; entonces (k1 k2 )A = k1 (k2 A):

Demostración. Ejercicio.

Theorem 22 Si A 2Mm n (K); entonces 1A = A:

Demostración. Ejercicio.

1.2.3 PRODUCTO DE MATRICES


De…nition 13 Si A 2Mm n (K) y B 2Mn p (K); se de…ne la producto de
A por B como la matriz AB 2Mm p (K) tal que
X
n
(AB)ij = (A)it (B)tj :
t=1

Theorem 23 Si A 2Mm n (K); B 2Mn p (K) y C 2Mp q (K): Entonces

(AB)C = A(BC):

Demostración. Ejercicio.

Theorem 24 Si A; B 2Mm n (K) y C 2Mn p (K): Entonces

(A + B)C = AC + BC:
1.2. MATRICES 17

Demostración. Ejercicio.

Theorem 25 Si C 2Mm n (K) y A; B 2Mn p (K): Entonces

C(A + B) = CA + CB:

Demostración. Ejercicio.

Theorem 26 Si A 2Mm n (K); entonces A 0n p = 0m p y 0q m A = 0q n:

Demostración. Ejercicio.

Theorem 27 Si A 2Mm n (K); B 2Mn p (K) y k 2 K: Entonces

k(AB) = (kA)B = A(kB):

Demostración. Ejercicio.

De…nition 14 Una matriz A 2Mm n (K) es diagonal si (A)ij = 0 cuando


i 6= j: En tal caso notaremos a A por

diag((A)11 ; (A)22 ; :::; (A)ss );

donde s = m{n fm; ng :

De…nition 15 La matriz In 2 Mn (K) tal que


8
< 1 si i = j
(In )ij =
:
0 si i 6= j

es la matriz identidad.

Theorem 28 La matriz identidad In es la única matriz de Mn (K) que tiene


las propiedades de que 8A 2 Mm n (K) A In = A y 8B 2Mn p (K) In B = B:

Demostración. Sea A 2 Mm n (K); entonces

X
n
(AIn )ij = (A)it (In )tj = (A)ij (In )jj = (A)ij :
t=1
18 CHAPTER 1. MATRICES

Luego AIn = A: Ahora, para cada i = 1; :::; n llamaremos Ni a la matriz en


Mm n (K) que tiene un 1 en la posición 1i y 0 en las demás posiciones. Si
X 2Mn (K) es tal que AX = A 8A 2Mm n (K); tenemos entonces que para
cada i Ni X = Ni ; lo que implica (igualando la primera …la de Ni X con la
primera …la de Ni ) que (X)ij = 0 si i 6= j (j 2 f1; :::; ng) y (X)ii = 1: De lo
anterior se deduce que para i = 1; :::; n la …la i de X es igual a la …la i de In :
Luego X = In : El resto de la demostración se deja como Ejercicio.

Theorem 29 Si A 2Mm n (K); B 2Mn p (K) y B = [b1 b2 bp ] está es-


crita por columnas. Entonces

AB = [Ab1 Ab2 Abp ] :

Demostración. Veamos que para j = 1; :::; p la columna j de AB es Abj : En


efecto, supongamos que j 2 f1; :::; pg y está …ja, entonces para i = 1; :::; m

X
n X
n
(AB)ij = (A)is (B)sj = (A)is (bj )s1 = (Abj )i1 :
s=1 s=1

Luego AB = [Ab1 Ab2 Abp ] :

Theorem 30 Si A 2Mm n (K); B 2Mn p (K) y


2 3
1
6 7
A = 4 ... 5
m

está escrita por …las. Entonces


2 3
1B
6 .. 7
AB = 4 . 5:
mB

Demostración. Veamos que para i = 1; :::; m la …la i de AB es igual a i B:


En efecto, supongamos que i 2 f1; :::; mg y está …ja, entonces para j = 1; :::; p

X
n X
n
(AB)ij = (A)is (B)sj = ( i )1s (B)sj =( i B)1j :
s=1 s=1
1.2. MATRICES 19

Luego 2 3
1B
6 .. 7
AB = 4 . 5:
mB

Theorem 31 Si A 2Mm n (K); B 2Mn p (K), A = [a1 an ] está escrita


por columnas y 2 3
1
6 7
B = 4 ... 5
n

P
n
está escrita por …las. Entonces AB = a1 1+ + an n = as s:
s=1

Demostración.
X
n X
n X
n X
n
(AB)ij = (A)is (B)sj = (as )i1 ( s )1j = (as s )ij = ( as s )ij :
s=1 s=1 s=1 s=1

P
n
Así AB = as s:
s=1

Theorem 32 Si A 2Mm n (K) y AB = 0m p para toda B 2Mn p (K): En-


tonces A = 0m n :

Demostración. Ejercicio.

Theorem 33 Si A 2Mn p (K) y BA = 0m p para toda B 2Mm n (K): En-


tonces A = 0n p :

Demostración. Ejercicio.

Problemas

1. Si D1 2 Mm n (K) es una matriz diagonal y D2 2 Mn p (K) es una matriz


diagonal. Demuestre que D1 D2 es tambien una matriz diagonal en Mm p (K):

2. Si D1 ; D2 2 Mn (K) son matrices diagonales. Demuestre que D1 D2 =


D2 D1 :
20 CHAPTER 1. MATRICES

3. ( ) Sean A; B 2Mm n (K) tales que

YAX = YBX

para tada Y 2M1 m (K) y tada X 2Mn 1 (K): Demuestre que A = B:

1.2.4 TRANSPUESTA DE UNA MATRIZ


De…nition 16 Si A 2Mm n (K); se de…ne la transpuesta de A como la
matriz AT 2Mm n (K) tal que

AT ij
= (A)ji

Example 1 Si 2 3
2 8
A = 4 5 9 5 2 M3 2 (R);
7 0
entonces
2 5 7
AT = 2 M2 3 (R):
8 9 0
T
Theorem 34 Si A 2Mm n (K);entonces AT = A:

Demostración. Ejercicio.

Theorem 35 Si A; B 2Mm n (K);entonces (A + B)T = AT + BT :

Demostración. Ejercicio.

Theorem 36 Si A 2Mm n (K) y B 2Mn p (K); entonces (AB)T = BT AT :

Demostración. Ejercicio.

Theorem 37 Si A 2Mm n (K) y k 2 K; entonces kAT = kAT :

Demostración. Ejercicio.

De…nition 17 Sea A 2Mn (K): Si AT = A; entonces se dice que A es


una matriz simétrica, y si AT = A;entonces A se dice una matriz
antisimétrica.
1.2. MATRICES 21

Theorem 38 Si A 2Mn (C) y es una matriz antisimétrica, entonces todos


los elementos en su diagonal principal son cero.

Demostración.
(A)ii = ( AT )ii = (AT )ii = (A)ii ;
entonces (A)ii = 0:

Theorem 39 Sean A 2Mn (K) y k 2 K: Si A es simétrica, entonces kA es


simétrica y si A es antisimétrica, entonces kA es antisimétrica.

Demostración. Si A es simétrica, entonces

(kA)T = kAT = kA;

por lo tanto kA es simétrica.


Si A es antisimétrica, entonces

(kA)T = kAT = k( A) = (kA);

por lo tanto kA es antisimétrica.

Theorem 40 Si A; B 2Mn (K) son matrices simétricas. Entonces A + B


es simétrica.

Demostración.
(A + B)T = AT +BT = A + B;
entonces A + Bes simétrica.

Theorem 41 Si A; B 2Mn (K) son matrices antisimétricas. Entonces A + B


es antisimétrica.

Demostración.

(A + B)T = AT +BT = ( A) + ( B) = (A + B);

entonces A + B es antisimétrica.

Theorem 42 Si A 2Mm n (K); entonces AAT y AT A son matrices simétri-


cas.
22 CHAPTER 1. MATRICES

Demostración.
(AAT )T = (AT )T AT = AAT
(AT A)T = AT (AT )T = AT A
luego AAT y AT A son simétricas.

Theorem 43 Sea A 2Mn (K): Si A es simétrica entonces AT es simétrica


y si A es antisimétrica entonces AT es antisimétrica.

Demostración. Ejercicio.

Theorem 44 La única matriz de Mn (C) que es simétrica y antisimétrica al


mismo tiempo es la matriz nula.

Demostración. Si A 2Mn (C) es tal que es simétrica y antisimétrica, entonces

AT = A y AT = A

entonces
A= A ) (A )ij = (A )ij = (A )ij = 0;
entonces A = 0:

Theorem 45 Si A 2Mn (R); entonces A se deja escribir de manera única


como la suma de una matriz simétrica y una matriz antisimétrica.

Demostración. La matriz 21 (A + AT ) es simétrica, la matriz 12 (A AT ) es


antisimétrica y son tales que
1
2
(A + AT ) + 12 (A AT ) = 12 A+ 12 A + 12 AT 1 T
2
A = A:

Supongamos ahora que X; Y 2Mn (R); A = X + Y y que X es simétrica y


Y es antisimétrica. Entonces

AT = (X + Y)T = XT +YT = X + ( Y):

Luego

A + AT = X + Y + X + ( Y) =2X; por tanto X = 21 (A + AT ):

A AT = X + Y X + Y =2Y; de donde Y = 12 (A AT ):
1.2. MATRICES 23

Theorem 46 Si A 2Mm n (R) y AT A = 0n n; entonces A = 0m n:

Demostración. Para i = 1; 2; :::; n


X
m X
m X
m
T
0= (0n n )ii = A is
(A)si = (A)si (A)si = ((A)si )2
s=1 s=1 s=1

entonces (A)si = 0 para s = 1; 2; :::; m: Luego A = 0m n:

Theorem 47 Si A 2Mm n (R) y AAT = 0m m ;entonces A = 0m n:

Demostración. Ejercicio.

1.2.5 INVERSA DE UNA MATRIZ


De…nition 18 Si L 2 Mm n (K) y R 2 Mn m (K) son tales que LR = Im ;
se dice que R es una inversa por la derecha de L y que L es una inversa
por la izquierda de R:

Example 2 Para la matriz


1 0 0
A= 2 M2 3 (K);
0 1 0
las matrices de la forma
2 3
1 0
4 0 1 5 2 M3 2 (K)
a b
con a; b 2 K; son inversas por la derecha de A: Y para la matriz
2 3
1 0
B = 4 0 0 5 2 M3 2 (K)
0 1
las matrices de la forma
1 a 0
2 M2 3 (K)
0 b 1
con a; b 2 K; son inversas por la izquierda de A:
24 CHAPTER 1. MATRICES

Example 3 La matriz matriz A = 1 1 1 2 M1 3 (K) tiene inversas


por la derecha. Ellas son todas las matrices de la forma
2 3
a
4 b 5 M3 1 (K)
c
tales que a + b + c = 1: Pero A no tiene inversa por la izquierda, ya que si
2 3
x
4 y 5 M3 1 (K);
z
entonces 2 3 2 3 2 3
x x x x 1 0 0
4 y 5 1 1 1 =4 y y y 5=
6 4 0 1 0 5
z z z z 0 0 1
para cual quier escogencia de x; y; z en K:

Theorem 48 Si A; L; R 2 Mn (K) son tales que

LA = In y AR = In ;

entonces L = R:

Demostración.

L = LIn = L(AR) = (LA)R = In R = R:

Theorem 49 Si A; B; C 2 Mn (K) son tales que

AB = BA = In y AC = CA = In ;

entonces B = C:

Demostración. Una parte de la hipótesis nos dice que BA = In y AC = In ;


luego por Teorema 48 B = C:

De…nition 19 Si A 2 Mn (K) decimos que A es invertible si existe B 2


Mn (K) tal que
AB = BA = In :
B se dice la inversa de A y se denotará por el símbolo A 1 :
1.2. MATRICES 25

Theorem 50 El producto de matrices invertibles es también invertible.

Demostración. Ejercicio.

Theorem 51 Si A 2 Mn (K) es una matriz invertible, entonces AT también


es invertible.

Demostración. Ejercicio.

De…nition 20 Si A 2 Mm n (K), las operaciones elementales sobre las


…las de A son:

i) intercambiar dos …las de A;

De…nition 21 ii) multiplicar una …la de A por un k 2 K f0g ;


iii) multiplicar la …la i de A por un k 2 K f0g y sumar el resultado a la
…la j de A (j 6= i).

De…nition 22 Una matriz elemental de orden n es la que resulta de re-


alizarle a In una operación elemental de …la.

Theorem 52 Las matrices elementales son invertibles y la inversa de una


matriz elemental es también una matriz elemental.

Demostración. Ejercicio.

Theorem 53 Si A 2 Mm n (K), entonces realizar una operación elemental


a A equivale a multiplicar por la izquierda de A por una matriz elemental.

Demostración. Si B es la matriz que se obtiene al intercambiar las …las


s ésima y t ésima de A; entonces si E es la matriz que se obtiene al inter-
cambiar las …las s ésima y t ésima de Im tenemos que
8
>
> aij si i 6= s e i 6= t
>
>
<
(EA)ij = atj si i = s = (B)ij ;
>
>
>
>
:
asj si i = t
26 CHAPTER 1. MATRICES

de donde EA = B: Si B es la matriz que se obtiene al multiplicar la …la s


de A por c 2 K f0g ; entonces llamando E a la matriz que se obtiene al al
multiplicar la …la s de Im por c tenemos que
8
< aij si i 6= s
(EA)ij = = (B)ij :
:
c asj si i = s

Así EA = B: Para …nalizar, Si B es la matriz que se obtiene al sumar c veces


la …la s de A a la …la t de A; entonces si E es la matriz que se obtiene al
sumar c veces la …la s de Im a la …la t de Im tenemos que
8
< aij si i 6= t
(EA)ij = = (B)ij :
:
c asj + atj si i = t

Por tanto EA = B:

Theorem 54 Una matriz con una …la o una columna nula no es invertible.

Demostración. Ejercicio.

Theorem 55 Una matriz A 2 Mn (K) es invertible si y sólo si es un pro-


ducto …nito de matrices elementales.

Demostración. ()) Si A 2 Mn (K) es una matriz invertible, entonces para


probar que A es un producto …nito de matrices elementales de …la es su-
…ciente probar que A se puede llevar a In mediante un número …nito de
operaciones elementales de …la, ya que realizar una operación elemental de
…la a A equivale a multiplicar por la izquierda de A por una matriz elemental
de …la. En efecto, si A = In no hay nada que probar, si A 6= In es invertible
se tiene que su primera columna es no nula, entonces existe un elemento no
nulo en la primera …la de A y tal componente se puede llevar a la posición
uno uno mediante un intercambio de …las adecuado si es necesario. Acto
seguido, si el escalar (6= 0) en la posición uno uno no es 1 se multiplica la
primera …la de esta nueva matriz por un escalar tal que en la posición uno
uno obtengamos un 1; luego mediante a lo sumo n 1 operaciones de …la,
utilizando siempre la primera …la, llegamos a una matriz A1 con la primera
…la igual a la primera …la de In : En esta primera etapa se han realizado a
lo más n + 1 operaciones elementales de …la que equivalen a multiplicar por
1.2. MATRICES 27

la izquierda a A por un número no mayor de n + 1 matrices elementales


adecuadas. En la segunda etapa del proceso analizamos la segunda columna
de A1 ; de la cual podemos asegurar que no es nula por que A1 es invertible
(es producto de matrices invertibles), por tanto hay un elemento no nulo en
la segunda columna de A1 : A…rmamos que existe una componente no nula
en la segunda columna de A1 ubicada en la …la 2 o más abajo, ya que si
(A1 )12 fuese el único elemento no nulo de la …la 2 de A1 se podría hacer
una sola operación elemental de …la a (A1 )T para obtener una matriz con
la segunda …la nula y por tanto no invertible, lo cual va en contra de que
(A1 )T es invertible. Luego podemos escoger i en el conjunto f2; :::; ng tal
que (A1 )i2 6= 0; de inmediato intercambiamos las …las 2 e i de A1 si i 6= 2;
luego multiplicamos la segunda …la de esta nueva matriz por ((A1 )i2 ) 1 para
obtener un 1 en la posición dos dos y realizamos a continuación un número
no mayor a n 1 operaciones elementales de …la (utilizando siempre la …la
2) para obtener una matriz A2 invertible y con sus primeras dos columnas
iguales a In : Este proceso se puede continuar hasta llegar a una matriz An =
In ; después de haber realizado no más de n(n + 1) operaciones elementales de
…la a partir de la matriz A: Entonces existe m 2 f1; :::; n(n + 1)g y matrices
elementales E1 ; :::; Em tales que Em E1 A = In , de donde A = E1 1 Em1
y por Teorema 52 cada Ej 1 es una matriz elemental.
(() Si existen matrices elementales E1 ; :::; Em tales que E1 Em = A;
entonces como toda matriz elemental es invertible y producto de matrices
invertibles es invertible, se tiene entonces que A es invertible.

Es claro que si A 2 Mn (K) y existe un conjunto …nito de matrices elementales


E1 ; :::; Em en Mn (K) tal que

Em E1 A = In ;

entonces A es invertible y obviamente A 1 = Em E1 = Em E1 In ; de


donde notamos que las “mismas” operaciones de …la que hacemos a partir
de A para llegar a In nos sirven para llegar de In a A 1 : Esta observación
nos entrega un método fàcil para hallar la inversa de una matriz utilizando
operaciones elementales de …la . Este método lo ilustramos en el siguiente
ejemplo.
28 CHAPTER 1. MATRICES

Example 4 Hallemos la inversa de la matriz


2 3
2 4 6
A= 4 4 5 6 5 2 M3 (R)
3 1 2

Partamos de 2 3
..
2 4 6 . 1 0 0
6 . 7
6 4 5 6 .. 0 1 0 7
4 5
..
3 1 2 . 0 0 1
realizando la operación ( 21 F1 ) ! F1 obtenemos
2 3
.. 1
1 2 3 . 2 0 0
6 .. 7
6 4 5 6 . 0 1 0 7
4 5
..
3 1 2 . 0 0 1

realizando las operaciones (F2 4F1 ) ! F2 , (F3 3F1 ) ! F3 obtenemos


2 3
.
1 2 3 .. 1
0 0
6 .
2 7
6 0 3 6 .. 2 1 0 7
4 5
.
0 5 11 .. 3
2
0 1

realizando la operación ( 31 F2 ) ! F2 obtenemos


2 3
.
1 2 3 .. 1
0 0
6 .
2 7
6 0 1 2 .. 2 1
0 7
4 3 3 5
.
0 5 11 .. 3
2
0 1

realizando las operaciones (F1 2F2 ) ! F1 , (F3 + 5F2 ) ! F3 obtenemos


2 3
.
1 0 1 .. 5 2
0
6 .
6 3 7
6 0 1 2 .. 2 1
0 7
4 3 3 5
.
0 0 1 .. 11
6
5
3
1
1.3. MATRICES COMPLEJAS 29

realizando la operación ( F3 ) ! F3 obtenemos


2 3
.
1 0 1 .. 5 2
0
6 .
6 3 7
6 0 1 2 .. 2 1
0 7
4 3 3 5
.
0 0 1 .. 11
6
5
3
1

realizando las operaciones (F1 + F3 ) ! F1 , (F2 2F3 ) ! F3 obtenemos


2 3
.
1 0 0 .. 8 7
1
6 .
3 3 7
6 0 1 0 .. 13 11
2 7
4 3 3 5
.
0 0 1 .. 11
6
5
3
1

Luego 2 3 2 3
8 7
1 16 14 6
3 3 1
A 1
=4 13
3
11
3
2 5= 4 26 22 12 5
11 5 6
6 3
1 11 10 6

Problemas

1. A partir de la misma de…nición de operaciones elementales reconstruya


todo ese trabajo para columnas.
2. ( ) Sean A; B; P 2 Mn (C) con P es ivertible. Si P 1 AP y P 1 BP son
matrices diagonales, pruebe que AB = BA:

1.3 MATRICES COMPLEJAS


1.3.1 MATRICES HERMITIANAS
De…nition 23 Si A = [aij ] 2 Mm n (C); entonces la matriz conjugada de
A es la matriz A= [aij ] 2 Mm n (C); donde aij es el conjugado del número
complejo aij .

De…nition 24 Si A = [aij ] 2 Mm n (C); entonces la matriz transpuesta


conjugada de A es la matriz AH = [aji ] 2 Mn m (C).
30 CHAPTER 1. MATRICES

Example 5 Si
2+i i 2
A= ;
0 i 3 2i
entonces
2 3
2 i 0
2 i i 2
A= y AH = 4 i i 5:
0 i 3 + 2i
2 3 + 2i
Theorem 56 Si A; B 2 Mm n (C) y c 2 C; entonces
i) (AH )H = A;
ii) (A B)H = AH BH ;
iii) (cA)H = cAH :
Demostración.
Theorem 57 Si A 2 Mm n (C) y B 2 Mn p (C); entonces (AB)H = BH AH :
Demostración.
Theorem 58 Si A 2 Mn (C) es invertible, entonces AH es invertible y
además (AH ) 1 = (A 1 )H :
Demostración.
De…nition 25 Una matriz A 2 Mn (C) es hermitiana si AH = A:
Theorem 59 Si A 2 Mm n (C); entonces AH A es hermitiana.
Demostración.
H
AH A = AH (AH )H = AH A:

1.3.2 MATRICES NORMALES


De…nition 26 Una matriz A 2 Mn (C) se dice normal si AH A = AAH :
Theorem 60 Si A 2 Mn (C) es una matriz normal, entonces para todo 2
C In A es también una matriz normal.
Demostración.

Problemas

1. Demuestre que si A es normal, la condición AB = BA implica que


AH B = BAH :
1.3. MATRICES COMPLEJAS 31

1.3.3 MATRICES UNITARIAS


1
De…nition 27 Una matriz U 2 Mn (C) es unitaria si U = UH :
Theorem 61 Si U1 y U2 son matrices unitarias en Mn (C): Entonces U1 U2
es unitaria.
Demostración.
(U1 U2 )(U1 U2 )H = U1 U2 UH H
2 U1 = U1 In U1 = In :

Theorem 62 Si U 2 Mn (C) es unitaria, entonces UH es también unitaria


Theorem 63 Las matrices unitarias y las matrices hermitianas de Mn (C)
son normales.
Demostración. Si U 2 Mn (C) es unitaria, entonces
UH U = U 1 U = UU 1
= UUH :
Si H 2 Mn (C) es hermitiana, entonces
HH H = HH = HHH :

Existen matrices normales que no son hermitianas, como por ejemplo la


matriz
i i
:
i i
Luego el conjunto de las matrices normales contienen estrictamente al de las
matrices hermitianas.
Theorem 64 Si U 2 Mn (C) es una matriz unitaria y 2 C. Entonces U
es unitaria si y sólo si j j = 1:
Demostración.
U unitaria , U UH = In , UUH = In

, =1 , j j2 = 1 , j j = 1:
Problemas

1. Muestre una matriz normal que no sea ni hermitiana ni unitaria.


32 CHAPTER 1. MATRICES
Chapter 2

SISTEMAS DE ECUACIONES
LINEALES

El conjunto de todas las matrices de m …las y n columnas con entradas en


el campo K será representado por el símbolo Mm n (K);y en el caso m = n
por Mn (K):

De…nition 28 Un sistema de m ecuaciones lineales en las n incógnitas


x1 ; :::; xn y con coe…cientes en el campo K; es un arreglo rectangular de la
forma 8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a21 x1 + a22 x2 + + a2n xn = b2
.. (2.1)
>
> .
>
: a x +a x +
m1 1 m2 2 + amn xn = bm ;

donde aij , bi están en K para i = 1; :::; m y j = 1; :::; n: El sistema (2.1) es


homogéneo si b1 = = bm = 0: Una solución de (2.1) es una n tupla
ordenada k1 ; :::; kn de elementos de K tales que
8
>
> a11 k1 + a12 k2 + + a1n kn = b1
>
< a21 k1 + a22 k2 + + a2n kn = b2
..
>
> .
>
: a k +a k +
m1 1 m2 2 + amn kn = bm :

Example 6 El sistema triangular superior de n ecuaciones lineales con

33
34 CHAPTER 2. SISTEMAS DE ECUACIONES LINEALES

n incógnitas y con coe…cientes en K


a11 x1 + a12 x2 + + a1(n 1) xn 1 + a1n xn = b1
a22 x2 + + a2(n 1) xn 1 + a2n xn = b2
..
.
a(n 1)(n 1) xn 1 + a(n 1)n xn = bn 1
ann xn = bn
en el que aii 6= 0 para i = 1; :::; n tiene solución única, tal solución se puede
hallar utilizando el siguiente algoritmo llamado sustitución regresiva
Para i = n; n 1; :::; 1 hacer
!
P
n
xi = bi aij xj =aii :
j=i+1

De…nition 29 Dos sistemas de ecuaciones lineales con n incógnitas con co-


e…cientes en el que tienen solución son equivalentes si tienen exactamente
las mismas soluciones.
Las matrices son muy útiles para representar sistemas de ecuaciones. Así, el
sistema (2.1) se puede escribir como:
2 32 3 2 3
a11 a12 a13 a1n x1 b1
6 a21 a22 a23 a2n 7 6 7 6 7
6 7 6 x 2 7 6 b2 7
6 a31 a32 a33 a3n 7 6 7 6 7
6 7 6 x 3 7 = 6 b3 7 :
6 .. .. .. .. .. 7 6 . 7 6 . 7
4 . . . . . 5 4 .. 5 4 .. 5
am1 am2 am3 amn xn bm
Entonces podemos denotar estas matrices por A; x y b de manera que el
sistema se puede expresar de forma compacta por:
Ax = b:
La matriz A se llama la matriz de coe…cientes, x es la matriz de in-
cógnitas, mientras que b es la matriz de términos independientes y la
matriz 2 3
a11 a12 a13 a1n b1
6 a21 a22 a23 a2n b2 7
6 7
6 a31 a32 a33 a b 7
6 3n 3 7
6 .. .. .. .. .. .. 7
4 . . . . . . 5
am1 am2 am3 amn bm
35

es la matriz del sistema.


El objetivo fundamental de esta sección es el de hallar métodos para resolver
sistemas de ecuaciones lineales. Dado un sistema de ecuaciones cuya solución
se busca, lo transformamos mediante ciertas operaciones elementales en un
sistema equivalente más simple que podemos resolver en su lugar.

De…nition 30 En un sistema como (2.1), las operaciones elementales


que mencionamos en el párrafo anterior son de los siguientes tres tipos. (Aquí
Ei representa la i ésima ecuación del sitema.)
(i) Intercambiar dos ecuaciones del sistema: Ei ! Ej
(ii) Multiplicar una ecuación por un número c distinto de cero: c Ei ! Ei
(iii) Sumar a una ecuación un múltiplo de otra ecuación: Ei + c Ej ! Ei

Theorem 65 Si un sistema de ecuaciones lineales se obtiene a partir de otro


por medio de una sucesión …nita de operaciones elementales, los dos sistemas
son equivalentes.

Demostración. Basta con examinar el efecto de una sola aplicación de cada


operación elemental. Supongamos que una operación elemental transforma el
sistema Ax = b en el sistema Bx = d: Si la operación es del tipo (i), los dos
sistemas constan de las mismas ecuaciones aunque estén escritas en distinto
orden. Es evidente que cualquier solución del primer sistema es solución del
sugundo y viceversa. Si la operación es del tipo (ii); supongamos que fue la
i ésima ecuación del sistema Ax = b la que se multiplicó por c 2 K con
c 6= 0: Las ecuaciones i ésima y j ésima de Ax = b son:
ai1 x1 + + ain xn = bi (2.2)
y
aj1 x1 + + ajn xn = bj (2.3)
y la i ésima ecuación en Bx = d es
c ai1 x1 + + c ain xn = c bi : (2.4)
Como c 6= 0; cualquier n tupla de elementos de K que satisfaga (2.2) satis-
face la ecuación (2.4) y veceversa. Por último, si la operación es de tipo (iii)
y suponemos que se ha sumando a la i ésima ecuación de Ax = b c veces
la j ésima ecuación de Ax = b: En tal caso la i ésima ecuación de Bx = d
es:
(ai1 + c aj1 )x1 + + (ain + c ajn )xn = bi + c bj : (2.5)
36 CHAPTER 2. SISTEMAS DE ECUACIONES LINEALES

Nótese que los sistemas Ax = b y Bx = d di…eren únicamente en sus ecua-


ciones i ésimas. Ahora, cualquier solución de Ax = b es solución de (2.2)
y (2.4), en consecuencia es solución de (2.5). Por lo tanto también lo es de
Bx = d: Recíprocamente, cualquier solución de Bx = d es solución de (2.3)
y de (2.5). En consecuencia cualquier solución de Bx = d es solución de c
veces la ecuación (2.3) más (2.5), es decir de (2.2), y por tanto de Ax = b:

Theorem 66 Si M es la matriz del sistema Ax = b y Bx = d es un sis-


tema que se obtiene al realizar una operación elemental al sistema Ax = b;
entonces la matriz N que se obtiene al realizarle a la matriz M la operación
elemental de …la correspondiente a la operación elemental que convirtió al
sistema Ax = b en Bx = d es la matriz del sistema Bx = d:

Demostración. Ejercicio.

Theorem 67 Si Ax = b representa un sistema de ecuaciones lineales en


el que A 2Mn (K) es una matriz invertible, entonces la única solución del
sistema es x = A 1 b:

Demostración. Ejercicio.

Corollary 1 Si Ax = 0 representa un sistema de ecuaciones lineales ho-


mogéneo en el que A 2Mn (K) es una matriz invertible, entonces la única
solución del sistema es x = 0:

Demostración. Ejercicio.

Remark 2 Dado un sistema de ecuacione lineales que se pide resolver, los


Teoremas 65 y 66 garantizan que se pueden realizar los siguientes pasos:
primero, se construye la matriz del sistema. Segundo, se realiza inteligen-
temente un número …nito de operaciones elementales de …la a la matriz del
sistema, que nos condusca a una matriz con la propiedad de que a medida
que bajamos por sus …las encontramos cada vez más ceros en la medida de lo
posible. Tercero, a partir de la matriz hallada en el segundo paso se construye
su sistema asociado que es equivalente al dado inicialmente. Cuarto, se re-
suelve el sistema obtenido en el paso tres y se sacan conclusiones respecto a
las soluciones del sistema inicial. Este proceso se visualiza en los siguientes
ejemplos.
37

En los siguientes tres ejemplos trabajaremos en el campo K = R:

Example 7 Resolver el siguiente sistema de ecuaciones lineales:

x1 x2 + 2x3 x4 = 8
2x1 2x2 + 3x3 3x4 = 20
x1 + x2 + x3 + 0x4 = 2
x1 x2 + 4x3 + 3x4 = 4:

Solución. La matriz del sistema es:


2 3
1 1 2 1 8
6 2 2 3 3 20 7
M = M(1) = 6 4 1
7;
1 1 0 2 5
1 1 4 3 4

y efectuando las operaciones (Fi sígni…ca …la i ésima, ! se lee “reemplaza


a” y ! se lee “se intercambia con”)

(F2 2F1 ) ! (F2 ); (F3 F1 ) ! (F3 ); y (F4 F1 ) ! (F4 )

llegamos a: 2 3
1 1 2 1 8
6 0 0 1 1 4 7
M(2) =6
4 0
7:
2 1 1 6 5
0 0 2 4 12
Realizando ahora la operación (F2 ) ! (F3 ) obtenemos una nueva matriz
2 3
1 1 2 1 8
6 0 2 1 1 6 7
M(3) = 64 0
7:
0 1 1 4 5
0 0 2 4 12

Continuando la eliminación, hacemos la operación (F4 + 2F2 ) ! (F4 );dando


2 3
1 1 2 1 8
6 0 2 1 1 6 7
M(4) = 64 0
7:
0 1 1 4 5
0 0 0 2 4
38 CHAPTER 2. SISTEMAS DE ECUACIONES LINEALES

Aquí nos damos cuenta el sistema correspondiente a M(4) , que es equivalente


al inicial, es fácil de resolver. Luego podemos dejar de realizar operaciones
elementales y proseguir a escribir el sistema correspondiente a M(4) y poste-
riormente a resolverlo. El sistema correspondiente a M(4) es:
x1 x2 + 2x3 x4 = 8
2x2 x3 + x4 = 6
x3 x4 = 4
2x4 = 4:
De donde
4
x4 = = 2;
2
( 4 + x4 ) ( 4 + 2)
x3 = = = 2;
1 1

(6 + x3 x4 ) (6 + 2 2)
x2 = = = 3;
2 2

x1 = 8 + x2 2x3 + x4 = 8+3 2(2) + 2 = 7:


Luego la única solución del sistema inicial es la 4 úpla ordenada formada
por x1 = 7; x2 = 3; x3 = 2 y x4 = 2:

Example 8 Resolver el siguiente sistema de ecuaciones lineales:


x1 + 2x2 + 3x3 + 4x4 = 1
x1 + 4x2 + x3 + 6x4 = 5
x1 + x2 x3 + x4 = 2
2x1 + 5x2 + 0x3 + 7x4 = 7:
Solución. La matriz del sistema es:
2 3
1 2 3 4 1
6 1 4 1 6 5 7
M = M(1) = 6
4
7;
1 1 1 1 2 5
2 5 0 7 7
y efectuando las operaciones

(F2 + F1 ) ! (F2 ); (F3 + F1 ) ! (F3 ); y (F4 + 2F1 ) ! (F4 )


39

llegamos a: 2 3
1 2 3 4 1
6 0 6 4 10 6 7
M(2) =6
4 0
7:
3 2 5 3 5
0 9 6 15 9
Realizando ahora la operaciones
1 3
(F3 F2 ) ! (F3 ); y (F4 F2 ) ! (F4 )
2 2
obtenemos 2 3
1 2 3 4 1
6 0 6 4 10 6 7
M(3) =6
4 0
7:
0 0 0 0 5
0 0 0 0 0
El sistema correspondiente a M(3) es fácil de resolver y es:

x1 + 2x2 + 3x3 + 4x4 = 1


6x2 + 4x3 + 10x4 = 6

De donde, haciendo x4 = s y x3 = t
(6 4x3 10x4 ) (6 4t 10s)
x2 = = ;
6 6
(6 4t 10s)
x1 = 1 2 (x2 ) 3x3 4x4 = 1 2 3t 4s:
6
Luego las solucines del sistema inicial son las 4 úplas ordenadas de la forma
(6 4t 10s) (6 4t 10s)
x1 = 1 2 3t 4s; x2 = ; x3 = t y x4 = s;
6 6
donde s y t tomam valores en todo R:

Example 9 Resolver el siguiente sistema de ecuaciones lineales:

x1 + x2 + x3 = 1
2x1 + x2 + x3 = 2
3x1 + x2 + x3 = 3
4x1 + x2 + x3 = 4
40 CHAPTER 2. SISTEMAS DE ECUACIONES LINEALES

Solución. La matriz del sistema es:


2 3
1 1 1 1
6 2 1 1 2 7
M = M(1) =6
4 3
7;
1 1 3 5
4 1 1 4

y efectuando las operaciones

(F2 2F1 ) ! (F2 ); (F3 3F1 ) ! (F3 ); y (F4 4F1 ) ! (F4 )

llegamos a: 2 3
1 1 1 1
6 0 1 1 4 7
M(2) =6
4 0
7:
2 2 6 5
0 3 3 8
Realizando ahora la operaciones

(F3 2F2 ) ! (F3 ); y (F4 3F2 ) ! (F4 )

obtenemos 2 3
1 1 1 1
6 0 1 1 4 7
M(3) =6
4 0
7:
0 0 2 5
0 0 0 4
El sistema correspondiente a M(3) es:

x1 + x2 + x3 = 1
x2 x3 = 4
0 = 2
0 = 4

El cual presenta las inconsistencias 2 = 0 = 4, que son evidencia de que este


sistema no tiene solución. Luego el sistema inicial tampoco tiene solución.

Problemas.
41

1. ( ) Si A 2 Mn m (K) y P 2Mn (K) es P invertible. Demuestre que PA = 0


implica A = 0:

2. ( ) Si A 2 Mm n (K) y P 2Mn (K) es P invertible. Demuestre que PA = 0


implica A = 0:
42 CHAPTER 2. SISTEMAS DE ECUACIONES LINEALES
Chapter 3

ESPACIOS VECTORIALES

3.1 ESPACIOS VECTORIALES


De…nition 31 Un espacio vectorial consta de lo siguiente:
1. un campo K;
2. un conjunto V no vacío de objetos llamados vectores;
3. una operación llamada adición (o suma) de vectores, que asigna a
cada par ordenado (v; w) de V V un vector v + w de V , que se llama
suma de v y w; de tal modo que:
(a) la adición es conmutativa, v + w = w + v para todo v; w 2 V ;
(b) la adición es asociativa, v + (w + u) = (v + w) + u para todo v; w; u 2
V;
(c) existe un único vector 0 de V; llamado vector nulo (o cero), tal que
v + 0 = v para todo v 2 V ;
(d) para cada vector v 2 V; existe un único vector v de V , tal que v + ( v) =
0;
4. una operación, llamada multiplicación (o producto) por escalar, que
asocia a cada pareja ordenada (k; v) de K V un vector kv de V , llamado
producto de k por v; de tal modo que:
(e) 1v = v para todo v de V y donde 1 es el elemento identidad para la
multiplicación en K;
(f ) (k1 k2 )v = k1 (k2 v) para todo v 2 V y todo k1 ; k2 2 K;
(g) k(v + w) = kv + kw para todo v; w 2 V y todo k 2 K;
(h) (k1 + k2 )v = k1 v + k2 v para todo v 2 V y todo k1 ; k2 2 K:

43
44 CHAPTER 3. ESPACIOS VECTORIALES

Notación. K V denotará siempre a un espacio vectorial formado por el con-


junto no vacío V , un campo de escalares K; una suma de vectores + y una
multiplicación por escalar que satisfacen las propiedades que aparecen en la
De…nición 31.

Theorem 68 Sea K V un espacio vectorial. Entonces


1) 0v = 0 8v 2 V ;
2) ( 1)v = v 8v 2 V ;
3) k0 = 0 8k 2 K;
4) ( v) = v 8v 2 V ;
5) ( k)v = (kv) = k( v) 8k 2 K; 8v 2 V ;
6) ( k)( v) = kv 8k 2 K; 8v 2 V ;
7) u + w = v + w implica u = v 8u; v; w 2 V ;
8) k1 v = k2 v y v 6= 0 implica k1 = k2 ;
9) si k 2 K; y k 6= 0, entonces ku = kv implica u = v 8u; v 2 V ;
10) si kv = 0 entonces k = 0 o v = 0:

Demostración.
1)
0v = (0 + 0)v = 0v + 0v ) 0 = (0v) + 0v = (0v) + (0v + 0v)

= ( (0v) + 0v) + 0v = 0 + 0v = 0v:


2)
v+( 1)v = ( 1)v + 1v =(( 1) + 1))v =0v = 0 ) ( 1)v = v
3)
k0 =k(0 + 0) =k0+k0 ) 0 = k0 + ( (k0)) = (k0+k0) + ( (k0))

= k0+[k0 + ( (k0))] =k0+0 =k0:


4)
( v) + v = v + ( v) = 0 ) ( v) = v
5)
kv+( k)v = (k + ( k))v =0v = 0 ) ( k)v = (kv)

kv+k( v) = k(v+( v)) =k0 = 0 ) k( v) = (kv)


3.1. ESPACIOS VECTORIALES 45

6)
( k)( v) = (k( v) = ( (kv)) = ( 1)(( 1)kv)

= (( 1)( 1))kv = 1kv =kv


7)
u+w =v+w ) (u + w) + ( w) = (v + w) + ( w)

) u + (w + ( w)) = v + (w + ( w))

) u+0=v+0

) u=v
8) Supongamos que k1 v = k2 v y v 6= 0, entonces

(k1 + ( k2 ))v = k1 v + ( (k2 v)) = k2 v + ( (k2 v)) = 0:

Si suponemos que k1 6= k2 entonces k1 + ( k2 ) 6= 0, por tanto existiría


(k1 + ( k2 )) 1 y así

v = 1v = ((k1 + ( k2 )) 1 (k1 + ( k2 ))v = (k1 + ( k2 )) 1 ((k1 + ( k2 ))v)

= (k1 + ( k2 )) 1 0 = 0:

Lo cual sería contradictorio con la hipótesis v 6= 0: Luego k1 = k2 :

1
9) Si k 6= 0 y ku = kv; entonces existe k en K y

k 1 (ku) = k 1 (kv) ) (k 1 k)u = (k 1 k)v ) 1u =1v ) u = v:


1
10) Si kv = 0 con k 6= 0 y v 6= 0; entonces existe k en K y

v = 1v = (k 1 k)v = k 1 (kv) = k 1 0 = 0:

Lo cual sería una contradicción. Luego kv = 0 implica k = 0 o v = 0:

Problemas
46 CHAPTER 3. ESPACIOS VECTORIALES

1. Pruebe que el conjunto R2 de parejas ordenadas de númers reales, el


campo R, la suma en R2 de…nida por
x1 y1 x1 + y1
+ =
x2 y2 x2 + y2
y la multiplicación por escalar de…nida por
x1 rx1
r =
x2 rx2
forman un espacio vectorial. Pruebe además que si reemplazamos la suma
anterior de…nida en R2 por la suma de…nida por
x1 y1 x1 + y1 + 1
+ =
x2 y2 x2 + y2 + 1
y dejamos todo lo demás quieto, entonces esos elementos forman también un
espacio vectorial.

2. Pruebe que el conjunto R+ = fr 2 R : r > 0g, el campo R, la suma usual


de elementos de R+ y el producto usual de elementos de R con elementos de
R+ no forman un espacio vectorial. Pruebe además que el conjunto R+ , el
campo R, la suma de…nida por
u + v = uv (el producto usual de u y v en R+ )
y la multiplicación por escalar de…nida por
rx = xr para todo r 2 R y todo x 2 R+
forman un espacio vectorial.

3. Pruebe que un campo K, el conjunto K n formado por todas la n uplas


ordenadas 2 3
x1
6 .. 7
4 . 5
xn
con xi 2 K para i = 1; :::; n; la suma en K n de…nida por
2 3 2 3 2 3
x1 y1 x1 + y1
6 .. 7 6 .. 7 6 .. 7
4 . 5+4 . 5=4 . 5
xn yn xn + yn
3.1. ESPACIOS VECTORIALES 47

donde xi + yi para i = 1; :::; n es una suma en K y el producto por escalar


de…nido por
2 3 2 3 2 3
x1 kx1 x1
6 7 6 7 6 7
k 4 ... 5 = 4 ... 5 para toda k 2 K y todo 4 ... 5 2 K n ;
xn kxn xn

donde kxi para i = 1; :::; n es una multiplicación en K; forman un espacio


vectorial.

Comentario. Si en el ejercicio anterior n = 1 vemos que todo campo es un


espacio vectorial sobre sí mismo.

4. Pruebe que un campo K; el conjunto

Pn = fk0 + k1 x + + kn xn : k0 ; k1 ; :::; kn 2 Kg

de todos los polinomios en la variable y con coe…cientes en K; la suma en Pn


de…nida por

(k0 +k1 x+ +kn xn )+(t0 +t1 x+ +tn xn ) = (k0 +t0 )+(k1 +t1 )x+ +(kn +tn )xn ;

donde ki + ti para toda i = 1; :::; n es una suma en K, y la multiplicación por


escalar de…nida por

k(k0 + k1 x + + kn xn ) = k k 0 + k k 1 x + + k k n xn ;

donde k ki para i = 1; :::; n es una multiplicación en K; forman un espacio


vectorial.

5. Pruebe que un campo K; el conjunto


8 9
>
< >
=
Mm n (K) = A = [aij ] i = 1; :::; n : aij 2 K
>
: >
;
j = 1; :::; m
de todas las matrices de orden m n con la suma usual de matrices y el
producto por escalar de…nido por

k [aij ] = [k aij ]
48 CHAPTER 3. ESPACIOS VECTORIALES

para todo k 2 K y toda A = [aij ] 2 Mm n es un espacio vectorial.

6. Pruebe que un campo R; el conjunto

F ((a; b)) = ff : f es una función real con dominio (a; b)g ;

con la suma usual de funcuines reales y el producto escalar de…nido como

rf = h donde h : (a; b) ! R y h(x) = rf (x) 8x 2 (a; b)

para todo f 2 F ((a; b)) y todo r 2 R, forman un espacio vectorial.

7. Pruebe que si K V es un espacio vectorial y K 0 es un subcampo de K;


entonces V es también un espacio vectorial sobre K 0 :
3.2. SUBESPACIOS Y COMBINACIONES LINEALES 49

3.2 SUBESPACIOS Y COMBINACIONES


LINEALES
De…nition 32 Si K V un espacio vectorial, entonces un subespacio de K V
consta de un subconjunto no vacío W de V , K, la operación suma de vectores
de…nida en V V restringida a W W y el producto por escalar de…nido
en K V restringido a K W; de tal manera que dicho cuarteto forma un
espacio vectorial.

Acuerdo. Acordaremos utilizar expresiones más simples como “el conjunto


W es subespacio de K V ”para dar a entender toda la paráfrasis que aparece
en la de…nición 32.

Theorem 69 Si W es un subespacio de KV , entonces 0 2 W:

Demostración. Como W es un subespacio de K V; entonces W es no vacío y


por tanto existe w 2 W: Como además W es cerrado para el producto por
escalar, 0 = 0 w 2 W:

Theorem 70 Un subconjunto no vacío W de K V es un subespacio de K V


si y sólo si, para todo par de vectores u; w de W y todo k 2 K, el vector
ku + w 2 W:

Demostración. ()) Si W es un subespacio de K V , u; w 2 W y k 2 K;


entonces por ser W espacio vectorial es cerrado para la suma y producto por
escalar, por tanto ku + w 2 W:
(() Ejercicio.

Theorem 71 Sean K V un espacio vectorial e I un conjunto de índices. Si


para cada i 2 I Wi es un subespacio de K V; entonces
\
Wi
i2I

es también un subespacio de K V:

Demostración. Puesto que para cada


T i en I Wi Tes un subespacio de K V ,
entonces 0 2 Wi 8i 2 I; así 0 2 Wi ; luego Wi es no vacío. Ahora,
i2I i2I
50 CHAPTER 3. ESPACIOS VECTORIALES
T
sean k 2 K y w,u 2 Wi entonces w,u 2 Wi 8i de I. Como los Wi son
i2I T
subespacios, entonces kw + u 2 Wi 8i de I, en consecuencia kw + u 2 Wi :
T i2I
Luego por Teorema 70 Wi es subespacio de K V:
i2I

De…nition 33 Si W1 ; :::; Wm son subespacios de un espacio vectorial K V , el


conjunto de todas las sumas de vectores

w1 + + wm

donde wi 2 Wi para i = 1; :::; m se llama suma de los subespacios W1 ; :::; Wm


y se representa por
W1 + + Wm
o por
X
m
Wi :
i=1

Theorem 72 Si K V es un espacio vectorial y W1 ; W2 son subespacios de


K V; entonces W1 + W2 es también un subespacio de K V:

Demostración. Como W1 y W2 son subespacios, entonces 0 2W1 y 0 2W2 :


Luego 0 = 0 + 0 2W1 +W2 y así W1 +W2 es no vacío. Sean ahora, v; w 2W1 +
W2 y k 2 K: Entonces existen w11 ; w12 2 W1 y w21 ; w22 2 W2 tales que

v = w11 + w21 y w = w12 + w22

De donde

kv + w = k(w11 +w21 )+(w12 +w22 ) = (kw11 +w12 )+(kw21 +w22 ) 2 W1 +W2 :

Por lo que W1 + W2 es subespacio de k V:

De…nition 34 Sean K V un espacio vectorial y W; U subespacios de K V:


Diremos que K V es suma directa de W y U si K V = W +U y W \U = f0g :

De…nition 35 Sean K V un espacio vectorial y v1 ; :::; vn vectores de V . Una


combinación lineal de los vectores v1 ; :::; vn es un vector w de K V tal que

w = k1 v1 + + kn vn

para ciertos k1 ; :::; kn 2 K:


3.2. SUBESPACIOS Y COMBINACIONES LINEALES 51

Example 10 Si en el espacio vectorial R P 3 tomamos p1 (x) = x3 ; p2 (x) =


1 + x2 y p3 (x) = 3 + 2x + 5x2 + 7x3 : Entonces p(x) = 6 + 2x + 8x2 + 9x3 es
una combinación lineal de p1 (x); p2 (x) y p3 (x); ya que
p(x) = 2(p1 (x)) + 3(p2 (x)) + 1(p3 (x)):
También p1 (x) es una combinación lineal de p1 (x); p2 (x) y p3 (x); ya que
p1 (x) = 1(p1 (x)) + 0(p2 (x)) + 0(p3 (x)):
De…nition 36 Sean K V un espacio vectorial y S un subconjunto no vacío
de V . De…nimos el generado de S como
gen S = fw 2 KV : w es una combinación lineal …nita de vectores de Sg :
1
Example 11 Si en R R2 consideramos S = ; entonces
2
1
gen S = v 2 R2 : v es combinación lineal de
2

1
= v 2 R2 : v = r con r 2 R
2

r
= 2 R2 : r 2 R :
2r
82 3 2 3 2 39
< 1 0 0 =
3
Example 12 Si en R R consideramos S = 4 0 ; 1 ; 0 5 ; en-
5 4 5 4
: ;
0 0 1
tonces
8 2 3 2 3 2 39
< 1 0 0 =
gen S = v 2 R3 : v es combinación lineal de 4 0 5 ; 4 1 5 y 4 0 5
: ;
0 0 1
8 2 3 2 3 2 3 9
< 1 0 0 =
= 3 4 5 4 5 4
v 2R R : v = x 0 + y 1 + z 0 5 con x; y; z 2 R
: ;
0 0 1
82 3 9
< x =
= 4 y 5 : x; y; z 2 R = R3 :
: ;
z
52 CHAPTER 3. ESPACIOS VECTORIALES

Theorem 73 Sean K V un espacio vectorial y S un subconjunto no vacío de


V; entonces
gen fgen Sg = gen S:

Demostración. Ejercicio.

Theorem 74 Sean K V un espacio vectorial y S; A subconjuntos no vacíos


de V tales que S gen A y A gen S; entonces gen A = gen S:

Demostración. Ejercicio.

De…nition 37 Sean A = fv1 ; :::; vn g y B = fw1 ; :::; wm g dos conjuntos o


“sistemas” no vaciós de vectores en un espacio vectorial K V . Se dice que
A y B son equivalentes si gen A = gen B:

Theorem 75 Sean K V un espacio vectorial y S un subconjunto no vacío


de V . Entonces gen S es un subespacio de K V: Tal subespacio se llama el
subespacio generado por S:

Demostración. Ejercicio.

Theorem 76 Sean K V un espacio vectorial y S un subconjunto no vacío de


V . Entonces gen S es igual a la intersección de todos los subespacios de K V
que contienen a S:

Demostración. Ejercicio.

De…nition 38 Sean K V un espacio vectorial, W un subespacio de KV yS


un subconjunto de K V: Decimos que S genera a W si gen S = W:

Theorem 77 Sean K V un espacio vectorial y S un subconjunto no vacío de


V . Entonces si existe v 2 S tal que

v =k1 v1 + + kn vn

para ciertos vi en S con v 6= vi 8i; entonces gen S =gen (S fvg):

Demostración. Ejercicio.
3.2. SUBESPACIOS Y COMBINACIONES LINEALES 53

Theorem 78 Sean A = [a1 an ] 2 Mm n (K) y b 2 K m : Entonces el


sistema de ecuaciones lineales Ax = b tiene solución si y sólo si b 2gen
fa1 ; :::; an g :

Demostración. b 2gen fa1 ; :::; an g ; si y sólo si existen k1 ; :::; kn 2 K n tales


que b = k1 a1 + + kn an ; si y sólo si existe [k1 kn ]T 2 K n tal que
2 3
k1
6 7
[a1 an ] 4 ... 5 = b;
kn

si y sólo si el sistema de ecuaciones lineales Ax = b tiene solución.

De…nition 39 Un espacio vectorial K V es …nitamente generado si existe


un conjunto S formado por un número …nito de vectores de K V tal que

gen S =K V:

Problemas

n
2. Demuestre que el generado del conjunto fe1 ; :::; en g K K ; donde para
i = 1; :::; n ei es el vector que tiene un uno en la posición i y cero en las
demás posiciones, es K K n .

3. Demuestre que el generado del conjunto

fE11 ; :::; E1n ; E21 ; :::; E2n ; :::; Em1 ; :::; Emn g Mm n;

donde para 1 i m y 1 j n Eij es la matriz que tiene un uno en la


posición ij y cero en las demás posiciones, es Mm n .

4. Demuestre que genf1; x; x2 ; :::; xn g = K Pn :


1. Demuestre que

x
W = : a es un real …jo y x recorre todo R
ax

es un subespacio de R R2 :
54 CHAPTER 3. ESPACIOS VECTORIALES

2. Demuestre que si m n; entonces


n o
T n
W = x1 xm 0 0 2R R : xi 2 R para i = 1; :::; m

es un subespacio de R Rn :

3. Sea K un campo. Considérese el sistema homogeneo de m ecuaciones


lineales simultáneas en n incógnitas

a11 x1 + a12 x2 + + a1n xn = 0


a21 x1 + a22 x2 + + a2n xn = 0
.. .. ..
. . .
am1 x1 + am2 x2 + + amn xn = 0

donde aij 2 K: Demuestre que el conjunto formado por todas las soluciones
del sistema es un subespacio de K K n :

4. ¿Es el conjunto de las matrices simétricas n n sobre K un subespacio


de Mn (K)?

5. ¿Es el conjunto de las matrices antisimétricas n n sobre K un subespacio


de Mn (K)?

6. Sea K V un espacio vectorial. Demuestre que la intersección de cualquier


colección de subespacios de K V es un subespacio de K V:

7. Si K V es un espacio vectorial y W1 ; :::; Wm son subespacios de K V; en-


tonces W1 + +Wm es también un subespacio de K V y que además contiene
a cada uno de los subespacios Wi :

8. Sean W1 y W2 subespacios de un espacio vectorial K V tal que W1 [ W2


es también un subespacio de K V . Demostrar que W1 W2 o W2 W1 :

9. Sean W1 ,W2 subespacios de un espacio vectorial K V: Entonces W1 [ W2


W1 + W2 .

10. Sean W1 ,W2 ; W subespacios de un espacio vectorial K V tales que W1 [


W2 W: Entonces W1 + W2 W .
3.2. SUBESPACIOS Y COMBINACIONES LINEALES 55

11. Sean KV un espacio vectorial y W un subespacio de K V: Demuestre


que
gen W = W:

12. Sean K V un espacio vectorial y W = gen fv1 ; :::; vn g un subespacio de


K V: Si existe w 2W tal que w 6= vi 8i y w = k1 v1 + + kn vn con kj 6= 0
para algún j 2 f1; :::; ng ; entonces

gen fv1 ; :::; vn g = gen fv1 ; :::vj 1 ; w; vj+1 ; vn g :

13. Sea K un campo. Considérese el sistema de m ecuaciones lineales


simultáneas en n incógnitas

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
.. .. ..
. . .
am1 x1 + am2 x2 + + amn xn = bm

donde3aij ; bi 2 K: Demuestre que el sistema tiene solución si y sólo si el vector


2
b1
6 .. 7
4 . 5 de K m está en el subespacio de K K m generado por el conjunto de
bm
82 3 9
>
< a1j >
=
6 .. 7
vectores 4 . 5 : j = 1; :::; n :
>
: a >
;
mj

14. ( ) Sean fv1 ; :::; vn g y fu1 ; :::; un g subconjuntos de un espacio vectorial


K V tales que
v1 = a11 u1 + a12 u2 + + a1n un
..
.
vn = an1 u1 + an2 u2 + + ann un
para cietos aij 2 K: Demuestre que si la matriz A = [aij ] 2 Mn (K) es
invertible se tiene que gen fv1 ; :::; vn g = gen fu1 ; :::; un g :

15. Demuestre que la equivalencia entre sistemas de vectores es re‡exiva,


simétrica y transitiva.
56 CHAPTER 3. ESPACIOS VECTORIALES

n
16. Demuestre que los espacios vectoriales K (Pn (K)); K (Mm n (K)) y KK
son …nitamente generados.

3.3 INDEPENDENCIA LINEAL


De…nition 40 Sea K V un espacio vectorial. Un subconjunto S de K V se
dice linealmente dependiente si existen vectores distintos v1 ; :::; vn de S
y escalares k1 ; :::; kn de K, no todos cero, tales que

k1 v1 + + kn vn = 0:

Un conjunto L que no es linealmente dependiente se dice linealmente in-


dependiente. Es decir, L es linealmente independiente si para cualquier
conjunto …nito de vectores w1 ; :::; wm de L la expresión

t1 w1 + + tm wm = 0

con los ti en K; implica ti = 0 para i = 1; :::; m:

El concepto de independencia lineal es absolutamente básico y muy impor-


tante. Pasemos a ver algunas de sus propiedades.

La de…nición de independencia lineal nos dice que la única manera de es-


cribir al vector cero como combinación lineal de vectores de un conjunto
linealmente independiente es tomando todos los escalares iguales a cero. El
siguiente teorema nos muestra que el vector cero no es el único que goza de la
unicidad en su escritura como combinación lineal de vectores de un conjunto
linealmente independiente.

Theorem 79 Sean K V un espacio vectorial y S un conjunto linealmente in-


dependiente de vectores de K V: Entonces todo vector no nulo de gen S se deja
escribir de manera única (salvo orden) como combinación lineal de vectores
distintos de S con todos los escalares diferentes de cero.

Demostración. Sea v 2 gen S; entonces existen vectores distintos v1 ; :::; vn


en k1 ; :::; kn 2 K f0g tales que

v = k1 v1 + + kn vn :
3.3. INDEPENDENCIA LINEAL 57

Si w1 ; :::; wm son vectores distintos de S y t1 ; :::; tm 2 K f0g son tales que

v = t1 w1 + + tm wm

entonces
0 = k1 v1 + + kn vn + t1 w1 + + tm wm :
Ahora, si fv1 ; :::; vn g\fw1 ; :::; wm g tiene p elementos con 0 p m{n fm; ng
y si renombramos (en caso de ser necesario) a los conjuntos

fv1 ; :::; vn g y fw1 ; :::; wm g

respectivamente por fv11 ; :::; vn1 g y fw11 ; :::; wm


1
g de tal manera que

v11 = w11 ; :::; vp1 = wp1 :

Entonces

v = k11 v11 + + kn1 vn1 y v = t11 w11 + + t1m wm


1

donde ki1 = kj si vi1 = vj y t1i = tj si wi1 = wj : Así

0 = ( k11 t11 )v11 + +(kp1 t1p )vp1 +kp+1


1 1
vp+1 + +kn1 vn1 +t1p+1 wp+1
1
+ +t1m wm
1

Pero el conjunto v11 ; :::; vp1 ; vp+1


1
; :::; vn1 ; wp+1
1 1
; :::; wm es linealmente inde-
1 1 1
pendiente, entonces ki = ti para i = 1; :::; p; ki = 0 para i = p + 1; :::; n y
t1i = 0 para i = p + 1; :::; m: Pero hemos supuesto que ningún ki y ningún
ti es cero, en concecuencia p = n = m y como vi1 = w1i 8i = 1; :::; p = n
se sigue que la escritura v = t1 w1 + + tm wm es igual a la escritura
v = k1 v1 + + kn vn salvo orden.

El próximo teorema, aunque muy fácil y a primera vista, de naturaleza en


cierta forma técnica, tiene como consecuencia resultados que constituyen los
verdaderos fundamentos del tema.

Theorem 80 Sean K V un espacio vectorial y S un subconjunto no vacío de


K V: Entonces S es linealmente independiente ó existe un vector v de S tal
que v 2 gen(S fvg).
58 CHAPTER 3. ESPACIOS VECTORIALES

Demostración. Si S no es linealmente independiente, entonces existen vec-


tores distintos v1 ; :::; vn en S y k1 ; :::; kn en K con no todos los ki = 0 tales
que
k1 v1 + + kn vn = 0:
Sea t 2 f1; :::; ng tal que kt 6= 0; entonces
vt = kt 1 k1 v1 kt 1 kt 1 vt 1 kt 1 kt+1 vt+1 kt 1 kn vn
y así vt 2 gen(S fvt g). De otro lado, si no existe v en S tal que v 2
gen(S fvg), entonces para todo subconjunto …nito de vectores distintos
w1 ; :::; wm de S; la expresión
0 = k1 w1 + + km wm
con los ki en K implica k1 = = km = 0; por que en caso contrario se podría
escribir a todo wi que le correspondiera un ki 6= 0 como combinación de los
restantes, lo cual iría en contra de la hipótesis. Por tanto S es linealmente
independiente.

Theorem 81 Sean K V un espacio vectorial y v1 ; :::; vn n vectores no nulos


de K V . Entonces es posible hallar un subconjunto linealmente independiente
de fv1 ; :::; vn g que genera a gen fv1 ; :::; vn g :

Demostración. Si fv1 ; :::; vn g es linealmente independiente, no hay nada que


probar. En caso contrario, hallemos j 2 f2; :::; ng tal que j es el menor
subíndice tal que vj es combinación lineal de v1 ; :::; vj 1 ,tal j existe por
que los vectores son no nulos y además el conjunto formado por un solo
vector no nulo es linealmente independiente. Hacemos notar que el conjunto
fv1 ; :::; vj 1 g es linealmente independiente. Ahora, si fv1 ; :::; vn g fvj g es
linealmente independiente hemos terminado la prueba según Teorema 77, de
lo contrario seguimos ordenadamente el proceso de expulsión de los vectores
que queden y se dejen escribir como combinación lineal de sus predecesores
en el conjunto reducido. Como el conjunto inicial es …nito y los vectores son
todos no nulos el proceso termina con un subconjunto no vacío de fv1 ; :::; vn g
que según los Teoremas 77 y 80 que genera a gen fv1 ; :::; vn g y es linealmente
independiente.

Corollary 2 Si K V es un espacio vectorial no nulo …nitamente generado,


entonces contiene un conjunto …nito v1 ; :::; vn de elementos linealmente in-
dependientes que generan a K V:
3.3. INDEPENDENCIA LINEAL 59

Demostración. Como k V está generado por un número …nito de elemen-


tos, digamos u1 ; :::; um : Según el Teorema 81 podemos encontrar un número
…nito de éstos, al que denotamos por v1 ; :::; vn ; que constituyen un conjunto
linealmente independiente que genera a K V:

Theorem 82 Si n 2, fv1 ; :::; vn g es un conjunto linealmente independi-


ente en K V y t 2 f1; :::; n 1g : Demuestre que

gen fv1 ; ::; vt g \ gen fvt+1 ; :::; vn g = f0g :

Demostración. Como gen fv1 ; ::; vt g y gen fvt+1 ; :::; vn g son subespacios de
K V se tiene que 0 está en ambos generados, por tanto f0g gen fv1 ; ::; vt g \ gen fvt+1 ; :::; vn g :
Ahora, si
v 2 gen fv1 ; ::; vt g \ gen fvt+1 ; :::; vn g
se tiene que existen k1 ; :::; kn 2 K tales que

v =k1 v1 + + kt vt y v =kt+1 vt+1 + + kn vn :

De donde
0 =k1 v1 + + kt v t kt+1 vt+1 kn vn ;
pero fv1 ; :::; vn g linealmente independiente implica que

k1 = = kt = kt+1 = = kn = 0;

así v = 0: Por tanto gen fv1 ; ::; vt g \ gen fvt+1 ; :::; vn g f0g :

Theorem 83 Sean K V un espacio vectorial y fv1 ; :::; vn g un conjunto lin-


ealmente independiente de vectores de K V . Si v 2 gen fv1 ; :::; vn g f0g y
v = c1 v1 + + cn vn ; entonces para cada i 2 f1; :::; ng tal que ci 6= 0 se tiene
que:
1) fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g es linealmente independiente;
2) gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g = gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g :

Demostración. Sea i 2 f1; :::; ng tal que ci 6= 0; entonces:


1) Si k1 ; :::; kn 2 K son tales que

k1 v1 + + ki 1 vi 1 + ki v + ki+1 vi+1 + + kn vn = 0;
60 CHAPTER 3. ESPACIOS VECTORIALES

entonces
0 = k1 v1 + + ki 1 vi 1 + ki (c1 v1 + + cn vn ) + ki+1 vi+1 + + kn vn

= (k1 + ki c1 ) v1 + + (ki 1 + ki ci 1 ) vi 1 + (ki ci ) vi +


(ki+1 + ki ci+1 ) vi+1 + + (kn + ki cn ) vn :
Como fv1 ; :::; vn g es un conjunto linealmente independiente, se sigue que
0 = k1 + ki c 1 = = ki 1 + ki ci 1 = ki ci = ki+1 + ki ci+1 = = kn + ki c n :
Pero ci ki = 0 y ci 6= 0 implica que ki = 0; y por tanto
0 = k1 = = ki 1 = ki+1 = = kn :
Luego fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g es linealmente independiente.
2) Como v = c1 v1 + + cn vn y ci 6= 0; entonces
vi = ci 1 c1 v1 ci 1 ci 1 vi 1 +ci
1
v ci 1 ci+1 vi+1 ci 1 cn vn : (3.1)
Ahora, si w 2 gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g ; entonces
w = d1 v1 + + di 1 vi 1 + di vi + di+1 vi+1 + + dn vn
para ciertos dj en K: Luego por (3.1)
w = (d1 ci 1 c1 )v1 + + (di 1 ci 1 ci 1 )vi 1 +

(di + ci 1 )v + (di+1 ci 1 ci+1 )vi+1 + + (dn ci 1 cn )vn ;


de donde w 2 gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g : Por tanto
gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g : (3.2)
Si suponemos ahora que u 2 gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g ; entonces
u = b1 v1 + + bi 1 vi 1 + bi v + bi+1 vi+1 + + bn vn
para ciertos dj en K: Como v = c1 v1 + + cn vn se sigue que
u = (bi c1 +b1 )v1 + +(bi ci 1 +bi 1 )vi 1 +bi vi +(bi ci +bi+1 )vi+1 + +(bi ci +bn )vn ;
de donde u 2 gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g : Por tanto
gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g : (3.3)
De (3.2) y (3.3) se concluye que
gen fv1 ; :::; vi 1 ; vi ; vi+1 ; :::; vn g = gen fv1 ; :::; vi 1 ; v; vi+1 ; :::; vn g :
3.3. INDEPENDENCIA LINEAL 61

3.3.1 INDEPENDENCIA LINEAL SISTEMAS DE


ECUACIONES LINEALES Y MATRICES
Theorem 84 Sean K un campo in…nito, A = [a1 an ] 2 Mm n (K) y b 2
K m : Entonces:
i) el sistema de ecuaciones lineales Ax = b tiene solución única si y sólo si
b 2gen fa1 ; :::; an g y fa1 ; :::; an g es linealmente independiente en K K m ;
ii) el sistema de ecuaciones lineales Ax = b tiene in…nitas soluciones si y
sólo si b 2gen fa1 ; :::; an g y fa1 ; :::; an g es linealmente dependiente en K K m :

Demostración.

Theorem 85 Sea A 2 Mn (C): Entonces A es no invertible si y sólo si existe


x 2 (Cn f0g) tal que Ax = 0:

Demostración. )) Supongamos que A = [a1 an ] escrita por columnas


es no invertible, entonces fa1 ; :::; an g es linealmente dependiente en C Cn :
Entonces existen x1 ; ::::;
2 xn en3 C no todos nulos tales que 0 = x1 a1 + +xn an :
x1
6 .. 7
Luego, haciendo x = 4 . 5 6= 0 tenemos que
xn
2 3
x1
6 7
Ax = [a1 an ] 4 ... 5 = x1 a1 + + xn an = 0:
xn

() Razonemos por el absurdo: supongamos que existe x 2 (Cn f0g) tal


que Ax = 0 y que A es invertible, entonces A 1 Ax = A 1 0; de donde x = 0
lo cual es absurdo.

Corollary 3 Sea A 2 Mn (C): Entonces A es invertible si y sólo si Ax = 0


implica x = 0:

Demostración. Ejercicio.

Problemas
62 CHAPTER 3. ESPACIOS VECTORIALES

1. ( ) Decida si el conjunto

1 0 0 1 0 1 1 0
; ; ;
1 0 1 0 0 1 0 1

es linealmente independiente o no en M2 (R):

n
2. Demuestre que el conjunto fe1 ; :::; en g K K ; donde para i = 1; :::; n ei
es el vector que tiene un uno en la posición i y cero en las demás posiciones,
es un conjunto linealmente independiente.

3. Demuestre que el conjunto

fE11 ; :::; E1n ; E21 ; :::; E2n ; :::; Em1 ; :::; Emn g Mm n;

donde para 1 i m y 1 j n Eij es la matriz que tiene un uno en la


posición ij y cero en las demás posiciones, es linealmente independiente.

4. Demuestre que el conjunto f1; x; x2 ; :::; xn g K Pn es un conjunto lin-


ealmente independiente.

2. Demuestre que todo subconjunto no vacío de un conjunto linealmente


independiente es linealmente independiente.

3. Demuestre que todo conjunto de vectores que contenga a un conjuto


linealmente dependiente es linealmente dependiente.

4. Puébe que todo subconjunto de un espacio vectorial K V que conste de un


sólo vector no nulo de K V es linealmente independiente.
82 3 2 3 2 3 2 3 2 3 2 39
< 1 0 0 0 1 1 =
3
5. En R R si S = 4 5 4
0 ; 1 ; 5 4 5 4 5 4
0 ; 1 ; 0 ; 1 5 ; en-
5 4
: ;
0 0 1 1 1 0
cuentre todos los subconjuntos linealmente independientes de S que generan
a R R3 :

6. Sea K V un espacio vectorial y S un subconjunto …nito de V . Si A S es


linealmente independiente, demuestre que existe un conjunto S 0 S tal que
A S 0 , S 0 linealmente independiente y gen S 0 = gen S:
3.4. BASES Y DIMENSIÓN 63

7. Sean v1 ; :::; vn vectores del espacio vectorial K V: Demuestre que:


i) Si vi = vj para i 6= j, i; j = 1; :::; n; entonces estos vectores son linealmente
dependientes.
ii) Si existe i; 1 i n, tal que vi = 0, entonces estos vectores son
linealmente dependientes.
iii) Si el conjunto fv1 ; :::; vn g es linealmente independiente, entonces cualquier
subconjunto no vacío de él es linealmente independiente.
iv) Si el conjunto fv1 ; :::; vn g es linealmente dependiente, entonces cualquier
cunjunto de vectores de K V que lo contenga es también linealmente depen-
diente.

3.4 BASES Y DIMENSIÓN


De…nition 41 Una base de K V es un conjunto de vectores B de K V que
es linealmente independiente y tal que gen B = K V: El espacio K V es …nito
dimensional (o de dimensión …nita) si tiene una base que consta de
un número …nito de vectores ó si K V =. En caso contrario es in…nito
dimensional.

Theorem 86 Sea K V un espacio vectorial generado por un conjunto lin-


ealmenete independiente S = fv1 ; :::; vn g : Entonces todo conjunto lineal-
mente independiente de vectores de K V no contiene más de n elementos.

Demostración. Supongamos que w1 ; :::; wn+1 es un conjunto linealmente


independiente en genfv1 ; :::; vn g : w1 2genfv1 ; :::; vn g y w1 6= 0; entonces
w1 = k11 v1 + +k1n vn con no todos los k1j = 0; entonces existe j2 f1; :::; ng
tal que k1j 6= 0;entonces w1 ; v1 ; :::; vj 1 ; vj+1 ; :::; vn es linealmente inde-
pendiente y

gen fv1 ; :::; vn g = gen w1 ; v1 ; :::; vj 1 ; vj+1 ; :::; vn ;


(1) (1) (1)
renombramos el conjunto v1 ; :::; vj 1 ; vj+1 ; :::; vn por v1 ; v2 ; :::; vn 1 : Ahora
como w2 2 gen fv1 ; :::; vn g ; entonces
(1) (1)
w2 = k21 w1 + k22 v1 + + k2n vn 1

y no puede ocurrir que k22 = = k2n = 0 por que w2 2= gen fw1 g por ser
w1 ; :::; wn+1 linealmente independiente. Entonces existe j 2 f2; :::; ng tal
64 CHAPTER 3. ESPACIOS VECTORIALES
n o
(1) (1) (1) (1)
quek2j 6= 0; por tanto w1 ; w2 ; v1 ; :::; vj 1 ; vj+1 ; :::; vn 1 es linealmente
independiente y
n o
(1) (1) (1) (1)
gen fv1 ; :::; vn g = gen w1 ; w2 ; v1 ; :::; vj 1 ; vj+1 ; :::; vn 1 :

Siguiendo este proceso llegamos a sustituir todos los vj por wi y así

gen fwn ; :::; w2 ; w1 g = gen fv1 ; :::; vn g

y como wn+1 2 gen fv1 ; :::; vn g ; entonces wn+1 2 gen fwn ; :::; w2 ; w1 g lo
cual va en contra del supuesto de que fw1 ; w2 ; :::; wn+1 g es linealmente in-
dependiente. El absurdo proviene de haber supuesto que es posible tener
un subconjunto linealmente independiente den + 1 vectores en el generado
de un conjunto linealmente independiente de n vectores. Luego todo sub-
conjunto con más de n vectores en el generado de un conjunto linealmente
independiente de vectores no puede ser linealmente independiente.

Corollary 4 Si K V es un espacio vectorial …nito dimensional, entonces dos


bases cualesquiera de K V tienen el mismo número (…nito) de elementos.

Demostración. Sean fv1 ; :::; vn g y fw1 ; :::; wm g dos bases de K V: Entonces


gen fv1 ; :::; vn g = K V y como fw1 ; :::; wm g es un conjunto linealmente in-
dependiente de K V se sigue del Teorema 86 que m n: Pero también
gen fw1 ; :::; wm g = K V y fv1 ; :::; vn g es un conjunto linealmente independi-
ente de K V: Luego, de nuevo por Teorema 86 se tiene que n m: Así, m = n:

De…nition 42 La dimensión de un espacio vectorial K V …nito dimensional


se de…ne como el número de elementos de una base cualquiera de K V: Se indi-
cará la dimensión de un espacio vectorial K V …nito dimensional por dimK V:
Si K V = f0g se dirá que dimK V = 0. Si K V 6= f0g y K V no es …nito di-
mensional, entonces se dirá de dimK V = 1:

Theorem 87 Sean U y W subespacios de un espacio vectorial KV tales que


U y W tienen dimensión …nita. Entonces

dim (U + W ) = dim U + dim W dim (U \ W ) :


3.4. BASES Y DIMENSIÓN 65

Demostración. Sean dim U = n; dim W = m y dim (U \ W ) = p: Si fv1 ; :::; vp g


es una base de U \ W;entonces hallemos (si es necesario) vectores adicionales
up+1 ; :::; un ; wp+1 ; :::; wm tales que fv1 ; :::; vp ; up+1 ; :::; un g sea base de U y
v1 ; :::; vp ; wp+1 ; :::; wm sea base de W:
Ahora, si x 2 U + W , entonces existen u 2 U y w 2 W tales que x = u + w,
por tanto existen a1 ; :::; an ; b1 ; :::; bn 2 Ktales que

u = a1 v1 + + ap vp + ap+1 up+1 + +an un


w = b1 v1 + + bp vp +bp+1 wp+1 + + bn wm ;

entonces

x = (a1 + b1 ) v1 + +(ap +bp )vp +ap+1 up+1 + +an un +bp+1 wp+1 + +bn wm ;

entonces
x 2 gen v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm
por tanto

U +W gen v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm :

Pero v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm U + W y como U + W es sube-


spacio se sigue que

gen v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm U + W:

Luego
U + W = gen v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm :
De otro lado, si r1 ; :::; rp ; sp+1 ; :::; sn ; tp+1 ; :::; tm están en K y son tales que

r1 v1 + + rp vp + sp+1 up+1 + +sn un + tp+1 wp+1 + +tm wm = 0;

entonces

r1 v1 + + rp vp + sp+1 up+1 + +sn un = tp+1 wp+1 tm wm

pero el lado izquierdo de la igualdad anterior está en U y el lado derecho está


en W , entonces tp+1 wp+1 tm wm 2 U \ W:
Luego existen q1 ; :::; qp 2 K tales que

q1 v1 + + qp vp = tp+1 wp+1 tm wm ;
66 CHAPTER 3. ESPACIOS VECTORIALES

así
r1 v1 + + rp vp + sp+1 up+1 + +sn un = q1 v1 + + qp vp

= q1 v1 + + qp vp + 0u1 + + un

y como fv1 ; :::; vp ; up+1 ; :::; un g es base de U , entonces sp+1 = = sn = 0:


en concecuencia,

r1 v1 + + rp vp + tp+1 wp+1 + +tm wm = 0;

pero fv1 ; :::; vp ; wp+1 ; :::; wm g es base de W , así r1 = = rp = tp+1 = =


tm = 0:
Por lo anterior v1 ; :::; vp ; up+1 ; :::; un ; wp+1 ; :::; wm es linealmente indepen-
diente, y como genera a U + W , entonces es base de U + W . Luego

dim (U + W ) = p + (n p) + (m p) = n + m p

= dim U + dim W + dim (U \ W ) :

Corollary 5 1 dimK V = n < 1: Entonces ningún subconjunto de KV


que contenga menos de n vectores puede generar a K V:

Demostración. Ejercicio.

Theorem 88 Si dimK V = n < 1 y fv1 ; :::; vn g es linealmente independi-


ente en K V: Entonces fv1 ; :::; vn g es base de K V:

Demostración. Ejercicio.

Theorem 89 Si dimK V = n < 1 y genfv1 ; :::; vn g =K V: Entonces fv1 ; :::; vn g


es base de K V:

Demostración. Ejercicio.

Theorem 90 dimK K n = n:

Demostración. Ejercicio.
3.4. BASES Y DIMENSIÓN 67

Corollary 6 Si A 2 Mn (K), entonces A tiene a lo sumo una inversa por


la derecha.

Demostración. Ejercicio.

Corollary 7 Si A; B 2 Mn (K) y AB = In ; entonces BA = In :

Demostración. Ejercicio.

Corollary 8 Sea A una matriz n n con entradas en K. Entonces A es


invertible si y sólo si las columnas de A forman un conjunto linealmente
independiente de K K n .

Demostración. Ejercicio.

Theorem 91 Si A 2 Mm n (K) y existen L; R 2 Mn m (K) tales que


LA = In y AR = Im ;
entonces n = m.

Demostración. Si r1 ; :::; rm son las columnas de R; e1 ; :::; em son las columnas


de Im y a1 ; :::; an son las columnas de A; entonces
AR = A [r1 rm ] = [Ar Arm ]
implica que Arj = ej para todo j = 1; :::; m: Luego si rj = [r1j r2j rnj ]T se
tiene que
ej = Arj = [a1 ; :::; an ] [r1j r2j rnj ]T = r1j a1 + +rnj an :
Lo anterior muestra que las columnas de Im; que forman una base de K K m ;están
en genfa1 ; :::; an g y como cada aj 2K K m se tiene también que
gen fa1 ; :::; an g gen fe1 ; :::; en g =K K m :
Como fe1 ; :::; en g es base, entonces n m:
Si lT1 ; :::; lTn son las …las de L; eT1 ; :::; eTn son las …las de In y T
1 ; :::;
T
m son
las …las de A;entonces
2 3 2 3
lT1 lT1 A
6 7 6 7
In = LA = 4 ... 5 A = 4 ... 5
lTn lTn A
68 CHAPTER 3. ESPACIOS VECTORIALES

implica que eTi = lTi A para todo i = 1; :::; n: Ahora si lTi = [li1 lim ] se tiene
que
2 3
T
1
6 7
eTi = [li1 lim ] 4 ... 5 = li1 T
1 + + lim T
m
T
m

entonces ei = li1 1 + +lim m : Así cada ei 2 gen f 1 ; :::; m g y como cada


i 2 gen fe1 ; :::; en g ; entonces gen f 1 ; :::; m g = gen fe1 ; :::; en g : Como
fe1 ; :::; en g es base de K K n ; entonces m n:

Problemas

1. Encuentre tres bases de R R3 donde no haya dos bases que tengan algún
vector en común.

2. Diga cuál de los conjuntos dados de vectores son una base de R R3 .


a) 82 3 2 3 2 39
< 1 1 0 =
4 1 5;4 0 5;4 1 5
: ;
0 1 1
b) 82 3 2 3 2 39
< 1 2 10 =
4 1 5;4 3 5;4 14 5
: ;
2 1 0

5. Si K V es un espacio vectorial de dimensión n, entonces todo conjunto de


n vectores de K V que genere a K V es base y todo conjunto de n vectores de
K V que formen un conjunto linealmente independiente es base de K V:

6. Demuestre que la hipótesis dimK V = n < 1 en los Teoremas 88 y 89 son


escenciales.

7. Demuestre que dimR Cn = 2n:


8. Demuestre que los espacios vectoriales, K (P1 (K)) de todos los polinomios
en la variable x y coe…cientes en K y R (F ((a; b))) de todas las funciones reales
continuas de…nidas en el intervalo (a; b); no son …nitamente generados.
3.4. BASES Y DIMENSIÓN 69

9. Demuestre que si K V es un espacio vectorial …nitamente generado, en-


tonces todo subespacio W de K V también es …nitamente generado.

10. Pruebe que toda matriz se puede reducir, mediante operaciones elemen-
tales columna, a una matriz cuyas columnas no nulas forman un conjunto
linealmente independiente.

3.4.1 EXISTENCIA DE BASES EN UN ESPACIO


FINITAMENTE GENERADO
Theorem 92 Sea S un subconjunto linealmente independiente de un espacio
vectorial K V . Supóngase que v es un vector de K V que no pertenece al
subespacio generado por S. Entonces el conjunto que se obtiene agregando v
a S, es linealmente independiente.

Demostración. Ejercicio.

Theorem 93 Si K V es un espacio vectorial …nitamente generado, entonces


todo subconjunto linealmente independiente de K V es …nito y es parte de una
base (…nita) de K V:

Demostración. Ejercicio.

Theorem 94 Si W es un subespacio propio de un espacio vectorial K V y


dim K V < 1; entonces W es de dimensión …nita y dim K W < dim K V:

Demostración. Ejercicio.

Problemas

1. Pruebe que

1 0 0 1 0 0 1 0
B= ; ; ;
1 0 0 1 1 1 0 0
es una base de R (M2 (R))

2. Si W y U son subespacios de dimensión …nita de un espacio vectorial K V ,


W U y dim(W ) = dim(U ): Entonces W = U:
70 CHAPTER 3. ESPACIOS VECTORIALES

Theorem 95 Si dimK V = n y W1 ; W2 son subespacios de K V de dimen-


siones n1 y n2 respectivamente, tales que n1 + n2 = n y W1 \ W2 = f0g :
Entonces K V = W1 W2 :

3. Demuestre que todo espacio in…nito dimensional tiene una base. (Ayuda:
piense en el principio de buen orden).
3.4. BASES Y DIMENSIÓN 71

3.4.2 VECTORES DE COORDENADAS


Si K V es un espacio vectorial de dimensión n < 1 y B = fv1 ; :::; vn g es una
base de K V la cual consideramos “ordenada” con el orden indicado por las
posiciones relativas de los vectores: v1 es el primer vector, v2 es el segundo
vector, etc. (En esta sección asumiremos que todas las bases son ordenadas).
Si v 2 K V sabemos que existe una única n tupla k1 ; :::; kn de elementos de
K tal que
v = k1 v1 + + kn vn :
El vector [k1 kn ]T 2 K K n se denomina el vector de coordenadas de v
respecto a la base B y se denota por el símbolo [v]B .
n o
3 T T T
Example 13 Sean K V = R R , B = [1 1 0] ; [1 0 1] ; [0 1 1] y

v = [3 4 5]T :

Entonces [v]B = [1 2 3]T ; ya que


2 3 2 3 2 3 2 3
3 1 1 0
4 4 5 = k1 4 1 5 + k2 4 0 5 + k 3 4 1 5
5 0 1 1

implica
k1 + k 2 + = 3
k1 + k3 = 4
k2 + k3 = 5:
El sistema anterior se reduce a
k1 + k 2 = 3
k2 + k3 = 1
2 k3 = 6;

de donde
k3 = 3; k2 = 2 y k1 = 1:

Example 14 Si KV = R P3 ;

B = 1; x 1; x2 1; x3 1
72 CHAPTER 3. ESPACIOS VECTORIALES

yv= 5 + x2 + 3x3 : Entonces [v]B = [ 1 0 1 3]T ; ya que


k1 (1) + k2 (x 1) + k3 (x2 1) + k4 (x3 1) = 5 + x2 + 3x3
implica, igualando coe…cientes correspondientes, que
k1 k2 k3 k4 = 5
k2 = 0
k3 = 1
k4 = 3;
de donde
k4 = 3; k3 = 1; k2 = 0 y k1 = 1:

Example 15 Si KV = R (M2 (R)),


1 1 0 1 0 0 0 0
B= ; ; ;
1 1 1 1 1 1 0 1

1 3 T
yv= : Entonces [v]B = 1 2 1 2 ; ya que
2 4

1 1 0 1 0 0 0 0 1 3
k1 + k2 + k3 + k4 =
1 1 1 1 1 1 0 1 2 4
implica, igualando componentes correspondientes, que
k1 = 1
k1 + k2 = 3
k1 + k2 + k3 = 2
k1 + k2 + k3 + k4 = 4;
de donde
k4 = 2; k3 = 1; k2 = 2 y k1 = 1:

Theorem 96 Si KV es un espacio vectorial de dimensión n < 1 y


B = fv1 ; :::; vn g
es una base de K V: Entonces para toda pareja v; u de KV y todo k 2 K
[v + u]B = [v]B + [u]B y [kv]B = k [v]B :
3.4. BASES Y DIMENSIÓN 73

Demostración. Supongamos que

v = a1 v1 + + an vn y u = b1 v1 + + bn vn ;

entonces

u + v = (a1 + b1 )v1 + + (an + bn )vn y kv = ka1 v1 + + kan vn :

Luego
T
[v + u]B = (a1 + b1 ) (an + bn )

T T
= a1 an + b1 bn = [v]B + [u]B
y
[kv]B = ka1 kan =k a1 an = k [v]B :

Theorem 97 (Independencia lineal y vectores de coordenadas) Si


K V es un espacio vectorial de dimensión n < 1 y B = fv1 ; :::; vn g es una
base de K V . Entonces fw1 ; :::; wt g es un conjunto linealmente independiente
de K V si y sólo si f[w1 ]B ; :::; [wt ]B g es un conjunto linealmente independiente
de K K n :

Demostración. Supongamos que para j = 1; :::; t


X
n
wj = cij vi :
i=1

Sean k1 ; :::; kt en K. Entonces

k1 [w1 ]B + + kt [wt ]B = 0;

si y sólo si
2 3 2 3 2 3 2 3 2 3
c11 c1t 0 k1 c11 + + kt c1t 0
6 .. 7 6 7 6 .. 7 () 6 7 6 .. 7 ;
k1 4 . 5+ + kt 4 ... 5 = 4 . 5 4
..
. 5=4 . 5
cn1 cnt 0 k1 cn1 + + kt cnt 0

si y sólo si
k1 cj1 + + kt cjt = 0
74 CHAPTER 3. ESPACIOS VECTORIALES

para j = 1; :::n; si y sólo si

(k1 c11 + + kt c1t )v1 + + (k1 cn1 + + kt cnt )vn = 0;

si y sólo si

k1 (c11 v1 + + cn1 vn ) + + kt (c1t v1 + + cnt vn ) = 0;

si y sólo si
k1 w1 + + kt wt = 0:
Luego

fw1 ; :::; wt g es linealmente independiente ,

k1 w1 + + kt wt = 0 implica k1 = = kt = 0 ,

k1 [w1 ]B + + kt [wt ]B = 0 implica k1 = = kt = 0 ,

f[w1 ]B ; :::; [wt ]B g es linealmente independiente:

Problemas

1. Sabemos que

1 0 0 1 0 0 1 0
B= ; ; ;
1 0 0 1 1 1 0 0

es una base de R (M2 (R)): Halle los vectores de coordenadas de

1 1 0 1 0 0 0 0
; ; y
1 1 1 1 1 1 0 1

respecto a la base B:

3.5 MATRIZ DE CAMBIO DE BASE


Sea KV un espacio vectorial de dimensión n y

B1 = fv1 ; :::; vn g ; B2 = fw1 ; :::; wn g


3.5. MATRIZ DE CAMBIO DE BASE 75

dos bases ordenadas de K V: Si v 2 KV , entonces existe una n-tupla única


k1 ; :::; kn en K tal que
v = k1 v1 + + kn vn ;
T
es decir,[v]B1 = [k1 kn ] : Además si [a1i a2i ani ]T = [vi ]B2 se tiene que

v = k1 (a11 w1 + a21 w2 + + an1 wn ) +


+kn (a1n w1 + a2n w2 + + ann wn )

= (k1 a11 + + kn a1n ) w1 + (k1 a21 + + kn a2n ) w2 +


+ (k1 an1 + + kn ann ) wn ;

de donde
2 3 2 32 3
k1 a11 + + kn a1n a11 a12 a1n k1
6 k1 a21 + + kn a2n 7 6 a21 a22 a2n 76 k2 7
6 7 6 76 7
[v]B2 = 6 .. 7 = 6 .. .. .. .. 76 .. 7
4 . 5 4 . . . . 54 . 5
k1 an1 + + kn ann an1 an2 ann kn

= [v1 ]B2 [vn ]B2 [v]B1 :

La matriz [v1 ]B2 [vn ]B2 se llama la matriz de cambio de la base B1 a la


base B2 : Esta matriz es invertible, ya que sus columnas forman un conjunto
linealmente independiente por ser vectores de coordenadas correspondientes
1
a una base K V: Por tanto [v1 ]B2 [vn ]B2 existe y es la matriz de cambio
de base de B1 a B2 ya que
1
[v]B1 = [v1 ]B2 [vn ]B2 [v]B2 8v 2K V:
1
Además por analogía en el argumento [v1 ]B2 [vn ]B2 = [w1 ]B1 [wn ]Bn :

Example 16 Consideremos las bases

1 1 0 1 0 0 0 0
B1 = ; ; ;
1 1 1 1 1 1 0 1
y
1 0 0 1 0 0 1 0
B2 = ; ; ;
1 0 0 1 1 1 0 0
de R (M2 (R)) y hallemos la matriz de cambio de B1 a B2 :
76 CHAPTER 3. ESPACIOS VECTORIALES

Como
1 1 1 0 0 1 0 0 1 0
=1 +1 +0 +0 ;
1 1 1 0 0 1 1 1 0 0

0 1 1 0 0 1 0 0 1 0
=1 +1 +0 + ( 1) ;
1 1 1 0 0 1 1 1 0 0
0 0 1 0 0 1 0 0 1 0
=0 +0 +1 +0
1 1 1 0 0 1 1 1 0 0
y

0 0 1 0 0 1 0 0 1 0
= ( 1) +0 +1 +1 :
0 1 1 0 0 1 1 1 0 0

Entonces la matriz de cambio de B1 a B2 es


2 3
1 1 0 1
6 1 1 0 0 7
6 7:
4 0 0 1 1 5
0 1 0 1
3.6. RANGO DE UNA MATRIZ 77

3.6 RANGO DE UNA MATRIZ


Sea A 2 Mm n (K). R(A) denotará al subespacio de K K m generado por las
n columnas de A; llamado subespacio columna de A; y R(AT ) denotará al
subespacio de K K n generado por las m columnas de AT ; llamado subespacio
…la de A: A dim R(A) lo llamaremos rango columna de A y a dim R(AT )
rango …la de A:
Lemma 1 Si A 2Mm n (K) y B 2Mp n (K) son matrices tales que los sis-
temas Ax = 0 y Bx = 0 son equivalentes, entonces
dim R(A) = dim R(B):
Demostración. Supongamos que dim R(A) = t; A = [a1 an ] 2Mm n (K);
donde las ai son las columnas de A, B = [b1 bn ] 2Mp n (K); donde las bi
son las columnas de B, y que los sistemas Ax = 0 y Bx = 0 son equivalentes.
Como dim R(A) = t; entonces existen i1 ; :::; it en f1; :::; ng tales que i1 <
i2 < < it y fai1 ,..., ait g es un conjunto linealmente independiente en
m
K K : Probaremos que el conjunto correspondiente fbi1 ,..., bit g de columnas
de B es también linealmente independiente: supongamos que
ki1 bi1 + + kit bit = 0;
con los kij en K: Esto nos dice que el vector x0 de K K n que tiene en la
posición ij a kij para j = 1; :::; t y 0 en las demás posiciones es solución del
sistema Bx = 0: Pero como los sistemas Ax = 0 y Bx = 0 son equivalentes,
se tiene que x0 es también solución del sistema Ax = 0; de donde se sigue
que
ki1 ai1 + + kit ait = 0:
Pero como el conjunto fai1 ,..., ait g es linealmente independiente se tiene que
ki1 = =kit = 0: Por lo anterior fbi1 ,..., bit g es también un conjunto lineal-
mente independiente, y
t = dim R(A) dim R(B):
De manera similar se prueba que dim R(B) dim R(A) y se concluye …nal-
mente que dim R(A) = dim R(B):
Theorem 98 Para cualquier matriz A = [aij ] 2Mm n (K) se tiene que
dim R(A) = dim R(AT ):
78 CHAPTER 3. ESPACIOS VECTORIALES

Demostración. Sea r el rango …la de A y c el rango columna de A: Ante todo


a…rmamos que para una matriz A0 ; obtenida de A por reordenamiento de
las …las de A; se tiene que r es el rango …la de A0 y c es el rango columna de
A0 : Lo a…rmado es claro para r: Probémoslo para las columnas: supongamos
inicialmente que E se obtiene a partir de A como consecuencia de intercam-
biar 2solamente
3 dos …las de A, sean ellas la …la i y la …la j con i < j: Si
k1
6 .. 7
x0 = 4 . 5 es una solución del sistema Ax = 0; entonces
kn
2 32 3 2 3
a11 a1n k1 0
6 .. .. . 7 6
.. 5 4 .. 5 = 4 ... 7
. 7 6
4 . . 5
am1 amn kn 0

que equivale a que


a11 k1 + + a1n kn = 0
..
.
ai1 k1 + + ain kn = 0
..
.
aj1 k1 + + ajn kn = 0
..
.
an1 k1 + + amn kn = 0:
Pero esto último es equivalente a
a11 k1 + + a1n kn = 0
..
.
aj1 k1 + + ajn kn = 0
..
.
ai1 k1 + + ain kn = 0
..
.
am1 k1 + + amn kn = 0:

Que es equivalente a Ex0 = 0: Con lo que x0 es también solución del sistema


Ex = 0: De manera similar se puede probar que toda solución del sistema
Ex = 0 es solución del sistema Ax = 0; y así los sistemas Ax = 0 y Ex = 0
son equivalentes. Luego, por el Lema 1, rango columna de A es igual a
3.6. RANGO DE UNA MATRIZ 79

rango columna de E. Como la matriz A0 se obtiene por reordenamiento de


las …las de A, entonces es claro que se puede llegar a A0 desde A en un
número …nito de pasos, donde cada paso consiste en intercambiar sólo dos
…las. Así se obtiene una sucesión de matrices con igual rango columna. En
particular rango columna de A es igual a rango columna de A0 : Siguiendo con
la prueba, podemos ahora suponer que después de un reordenamiento de …las
(si es necesario) A tiene sus r primeras …las linealmente independientes y que
las restantes son combinaciones lineales de las r primeras. Si particionamos
A en la forma
B
A=
C
donde B es de orden r n con todas sus …las linealmente independientes y
C es de orden (m r) n con sus …las en el generado de las …las de B: Si
2 3 2 3
1 r+1
6 7 6 7
B = 4 ... 5 y C =4 ..
. 5
r m

están escritas por …las, entonces existen dij 2 K para i = 1; :::; r y j = 1; :::; r
tales que
r+1 = d11 1 + + d1r r
..
.
m = d(m r)1 1 + + d(m r)r r

de donde
2 3 2 3
r+1 d11 1 + + d1r r
6 .. 7 6 .. 7
C =4 . 5 = 4 . 5
m d(m r)1 1 + + d(m r)r r

2 32 3
d11 d1r 1
6 .. .. .. 7 6 .. 7
= 4 . . . 54 . 5:
d(m r)1 d(m r)r r

Entonces que C = DB para la matriz D = [dij ] de tamaño (m r) r.


A…rmamos ahora que A y B tienen el mismo rango columna: como para
todo y 2K K n
B By
A= implica Ay = ;
DB DBy
80 CHAPTER 3. ESPACIOS VECTORIALES

si Ay = 0 entonces es claro que By = 0: Ahora, si By = 0 también será


Ay = 0. Así, los sistemas Ax = 0 y Bx = 0 son equivalentes, y por tanto
los rangos columna de A y de B son iguales. Como las columnas de B son
vectores de K r se tiene que c r: Aplicando esta última desigualdad a AT
tendremos también que

rango columna de AT rango …la de AT

es decir,
rango …la de A rango columna de A;
esto es, r c:

De…nition 43 LLamaremos rango de una matriz A al número

(A) = dim R(A) = dim R(AT ):

De la de…nición anterior es claro que (A) = (AT ):

Theorem 99 Si A 2Mm n (K) y A 6= 0 entonces (A) > 0:

Demostración. Si A = [a1 an ] 6= 0; entonces existe i 2 f1; 2; :::; ng tal que


ai 6= 0: Luego

(A) = dim R(A) dim fai g = 1 > 0:

Theorem 100 Si A 2Mm n (K), entonces (A) m y (A) n:

Demostración. Como R(A), R(AT ) son subespacio de KK


m
y KK
n
respec-
tivamente, dimK K m = m y dimK K n = n: Entonces

(A) = dim R(A) n y (A) = dim R(AT ) m:

Theorem 101 Si A 2Mm n (K) y B 2Mm p (K); entonces

(AB) (A) y (AB) (B):


3.6. RANGO DE UNA MATRIZ 81

Demostración. Si A se escribe por columnas como [a1 an ] y B se escribe


por columnas como [b1 bp ], entonces

AB = [Ab1 Abp ] ;

y si i 2 f1; :::; pg y bi = [b1i bni ]T se tiene que


2 3
Abi = [a1 an ] b1i = b1i a1 + + bni an :
6 .. 7
4 . 5
bni

Entonces toda columna de AB se deja escribir como combinación lineal de


las columnas de A; por tanto R(AB) R(A); y así dim R(AB) dim R(A);
es decir, (AB) (A): De otro lado,

(AB) = ((AB)T ) = (BT AT ) (BT ) = (B).

Theorem 102 Si A 2Mm n (K) y P, Q son matrices invertibles de Mm m (K)


y Mn n (K) respectivamente, entonces

(A) = (PA) = (AQ) = (PAQ):

Demostración. Sabemos que (PA) (A) y como

(A) = (P 1 (PA)) (PA);

entonces (A) = (PA): Por otro lado, (AQ) (A) y

(A) = ((AQ)Q 1 )) (AQ);

luego (A) = (AQ): Finalmente,

(A) = (PA) = ((PA)Q) = (PAQ):

Theorem 103 Si A; B 2 Mn (K) son matrices semejantes, entonces (A) =


(B):

Demostración. Como A y B son semejantes, entonces existe una matriz


invertible P 2 Mn (K) tal que B = P 1 AP:Luego por Teorema 102

(A) = (P 1 AP) = (B):


82 CHAPTER 3. ESPACIOS VECTORIALES

Theorem 104 Para cada matriz A 2 Mn (K), A es invertible si y sólo si


(A) = n:
Demostración. )) Por Corolario 8 A es invertible si y sólo si sus columnas
forman una base de K K n ; si y sólo si las n columnas de A forman un conjunto
linealmente independiente, si y sólo si (A) = n:

Lo que haremos a continuación es describir un método fácil para encontrar


(A) y una base de R(A) para cualquier matriz A 2 Mm n (K): Como
i) R(AE) R(A) para toda matriz E 2 Mn p (K)
ii) (A) = (AE) para toda matriz invertible E 2 Mn (K)
iii) i) y ii) implican R(AE) =R(A) para toda matriz invertible E 2 Mn (K)
iv) toda matriz elemental es invertible
v) realizar una operación elemental de columna a una matriz es equivalente
a multiplicar por la derecha a la matriz por una matriz elemental adecuada
vi) toda matriz se puede reducir, mediante operaciones elementales columna,
a una matriz cuyas columnas no nulas forman un conjunto linealmente inde-
pendiente.
Entonces si tomamos una matriz A 2 Mm n (K) y le realizamos un número
…nito de operaciones elementales de columna para obtener una matriz B
en la que se observa fácilmente que sus columnas no nulas forman un con-
junto linealmente independiente de K K m : Luego como (A) = (B), en-
tonces (A) resulta ser el número de columnas no nulas de B y como además
R(A) =R(B), entonces las columnas no nulas de B forman una base de R(A):
Example 17 Si A 2 M3 5 (R) y
2 3
1 4 2 5 3
A=4 2 5 2 7 6 5;
3 6 0 9 9
entonces al realizar un buen número de operaciones elementales de columna
llegamos a la matriz 2 3
1 0 0 0 0
B = 4 2 1 0 0 0 5:
3 2 1 0 0
Luego podemos concluir que (A) = 3 y que una base para R(A) es
82 3 2 3 2 39
< 1 0 0 =
4 2 5; 4 1 5; 4 0 5 :
: ;
3 2 1
3.6. RANGO DE UNA MATRIZ 83

De…nition 44 Una matriz A 2 Mm n (K) se dice que tiene rango com-


pleto si (A) = m{n fm; ng :

Theorem 105 A 2 Mm n (K) con m n tiene rango completo si y sólo si


Ax = Ay en K K m implica x = y en K K n :

Demostración. )) Supongamos que A = [a1 an ] está escrita por columnas


y que (A) = n: Entonces si
2 3 2 3
x1 y1
6 7 6 7
x = 4 ... 5 y y = 4 ... 5
xn yn
m
son tales que Ax = Ay en KK ;

) x1 a1 + + xn an = y1 a1 + + yn an

) 0 = (x1 y1 )a1 + (xn yn )an :

Pero (A) = n implican que fa1 ; :::; an g es un conjunto linealmente inde-


pendiente en K K m ; por tanto 0 = x1 y1 = = xn yn ; de donde
x1 = y1 ; :::; xn = yn y así x = y:
() Supongamos ahora que siempre que Ax = Ay en K K m se tiene que x = y
en K K n : Entonces si k1 ; :::; kn 2 K son tales que k1 a1 + + kn an = 0, esto
implica que 2 3 2 3
k1 0
6 .. 7 6 .. 7
A4 . 5 = 0 = A4 . 5:
kn 0
Luego k1 = = kn = 0, así fa1 ; :::; an g es linealmente independiente en
m
KK y puesto que (A) m{n fm; ng ; entonces (A) =n:

Theorem 106 Si A 2 Mm n (K), entonces existe R 2 Mn m (K) tal que


AR = Im si y sólo si m n y A tiene rango completo.

Demostración. )) Si existe R 2 Mn m (K) tal que AR = Im ; entonces si


rj es la columna j de R y ej es la columna j de Im se sigue que ej = Arj ,
de donde cada columna de Im está en el generado de las columnas de A y
como las columnas de Im forman una base de K K m ; entonces A debe tener
84 CHAPTER 3. ESPACIOS VECTORIALES

un número de columnas mayor o igual a m; es decir, m n: Además como


las columnas de A generan a K K m , entonces podemos conseguir un conjunto
formado por m columnas de A que formen una base de K K m y como las
columnas de A están en K K m no podemos hallar un subconjunto de las
columnas de A linealmente independiente con más de m elementos. Luego
(A) =m y por tanto A tiene rango completo.
() Ahora, si m n y A tiene rango completo y aj es la columna j de
A; entonces existen j1 < < jm en f1; :::; ng tales que faj1 ; :::; ajm g es
una base de K K m . Luego las columnas de Im están en genfaj1 ; :::; ajm g : Por
tanto, para t = 1; :::; m existe rj1 ; :::; rjm 2 K tales que

et = rt1 aj1 + + rtm ajm :

Ahora, si para t = 1; :::; m rt es el vector de K K n que tiene a rts en la posición


js para s = 1; :::; m y 0 en las demás posiciones, entonces

A [r1 rm ] = Im :

Por tanto A tiene al menos una inversa a derecha.

Problemas

1. Si 2 3
1 0 1 3 1 0
4
A= 2 2 0 2 1 3 5 2 M3 6 (R):
3 1 3 1 1 2
Halle (A) y una base para R(A):

2. Si A 2 Mm n (K) y B 2 Mm p (K): Demuestre que

([A B]) (A) + (B):

3. Si A; B 2 Mm n (K): Demuestre que

(A + B) ([A B]) :

Ayuda:
In
A + B = [A B] :
In
3.6. RANGO DE UNA MATRIZ 85

4. ( ) Pruebe que si A 2 Mm n (K) con m n tiene inversa a derecha,


T
entonces A tiene inversa a izquierda.
Prueba. Si existe R 2 Mn m (K) tal que AR = Im ; entonces

(AR)T = (Im )T = Im ;

de donde RT AT = Im ; es decir, RT es inversa a izquierda AT .

5. Si A 2 Mm n (K), entonces existe L 2 Mn m (K) tal que LA = In si y


sólo si m n y A tiene rango completo.

6. Pruebe que si A 2 Mm n (K) con m n tiene inversa a izquierda,


entonces AT tiene inversa a derecha.
86 CHAPTER 3. ESPACIOS VECTORIALES
Chapter 4

TRANSFORMACIONES
LINEALES

De…nition 45 Sean K V y K W dos espacios vectoriales. Una transforma-


ción lineal de K V en K W es una función T de K V en K W tal que

T (kv1 + v2 ) = kT (v1 ) + T (v2 )

para todos los vectores v1 y v2 de KV y todos los escalares k de K:

Example 18 Si K V y K W son espacios vectoriales, la transformación


identidad, I; de…nida por
I(v) = v
8 v 2 K V es una transformación lineal de K V en K V: Si T : K V ! K W es
una transformación lineal, entonces la transformación negativa, denotada
por T , de…nida por
T (v) = T (v)
para todo v 2 K V es una transformación lineal de KV en K W: La trans-
formación cero, O; de…nida por

O(v) = 0

para todo v 2 KV es una transformación lineal de KV en K W:

Theorem 107 Sea T : KV ! KW una transformación lineal. Entonces


i)T (0) = 0;

87
88 CHAPTER 4. TRANSFORMACIONES LINEALES

ii) T ( v) = T (v) para todo v 2 V ;


iii) T (k1 v1 + + kn vn ) = k1 T (v1 ) + + kn T (vn ) si los vi están en KV ,
los ki en K y n 2 N.

Demostración. i)
T (0) = T (0 + 0) = T (0) + T (0)
entonces

T (0) T (0) = T (0) + T (0) T (0) ) 0 = T (0):

ii)
T ( v) + T (v) = T ( v + v) = T (0) = 0:
iii) Ejercicio.

Theorem 108 Sean K V un espacio vectorial de dimensión n < 1; K W un


espacio vectorial y T : K V ! K W una transformación lineal. Entonces T
está de…nida por el efecto de T sobre cualquier base de K V:

Demostración. Sea fv1 ; :::; vn g una base de k V talque se conoce a T (v1 ); T (v2 ); :::; T (vn ):
Ahora si v 2 k V; entonces existen k1; k2 ; :::; kn únicos en K tal que v =
k1 v1 + k2 v2 + +kn vn ; entonces

T (v) = T (k1 v1 + k2 v2 + +kn vn ) = k1 T (v1 ) + k2 T (v2 ) + +kn T (vn ):

Theorem 109 Sean K V un espacio vectorial de dimensión n < 1; fv1 ; :::; vn g


una base ordenada de K V: Sean K W un espacio vectorial y w1 ; :::; wn vec-
tores cualesquiera de K W (no necesariamente distintos). Entonces existe una
única transformación lineal T de K V en K W tal que

T (vi ) = wi para i = 1; :::; n:

Demostración. De…namos
T : KV ! KW
v ! T (v)

Si i 2 f1; :::; ng ; entonces

vi =0v1 + +0vi 1 +1vi +0vi+1 + +0vn :


89

Luego

T (vi )=0w1 + +0wi 1 +1wi +0wi+1 + +0wn = 1wi = wi :

Sean u1 ; u2 2K V; entonces

u1 = a1 v1 + +an vn y u2 = b1 v1 + +bn vn

Luego
u1 + u2 = (a1 + b1 )v1 + + (an + bn )vn
implica que

T (u1 + u2 ) = (a1 + b1 )w1 + + (an + bn )wn

= (a1 w1 + an wn )+ + (b1 w1 + bn wn )

= T (u1 ) + T ( u2 ):

Si k 2 K y u 2K V; entonces u = c1 v1 + +cn vn : Entonces

ku = kc1 v1 + +kcn vn

Luego
T (ku) = kc1 w1 + +kcn wn

= k(c1 w1 + +cn wn ) = kT (u);


entonces T es transformación lineal.
Unicidad. Ejercicio.

Theorem 110 Si K V; K W , K U son espacios vectoriales, T1 una transfor-


mación lineal de K V en K W y T2 una transformación lineal de K W en K U:
Entonces T2 T1 es una transformación lineal de K V en K U:

Demostración. Sean v1 ; v2 2K V; entonces

(T2 T1 )(v1 + v2 ) = T2 (T1 (v1 + v2 )) = T2 (T1 (v1 ) + T1 (v2 ))

= T2 (T1 (v1 )) + T2 (T1 (v2 )) = (T2 T1 )(v1 ) + (T2 T1 )(v2 ):


90 CHAPTER 4. TRANSFORMACIONES LINEALES

Ahora, si k 2 K y v 2K V; entonces
(T2 T1 )(kv) = T2 (T1 (kv)) = T2 (kT1 (v))

= k [T2 (T1 (v))] = k [(T2 T1 )(v)] :


Entonces T2 T1 es transformación lineal.
Theorem 111 Sean K V y K W espacios vectoriales y T una transformación
lineal de K V en K W: Si fv1 ; :::; vn g es un conjunto linealmente dependiente
de K V; entonces fT (v1 ); :::; T (vn )g es un conjunto linealmente dependiente
de K W:
Demostración. como fv1 ; :::; vn ges linealmente dependiente, entonces existen
k1 ; k2 ; :::; kn 2 K no todos ceros tal que 0 =k1 v1 + k2 v2 + + kn vn : entonces
0 =T (0) = T (k1 v1 + k2 v2 + + kn vn ) = k1 T (v1 ) + k2 T (v2 ) + + kn T (vn )
como no todos los ki son nulos, entonces fT (v1 ); :::; T (vn )g es linealmente
dependiente .
Theorem 112 Sean K V y K W espacios vectoriales y T una transformación
lineal de K V en K W . Si fw1 ; :::; wn g es un conjunto linealmente independi-
ente de K W tal que w1 = T (v1 ), ..., wn = T (vn ) para ciertos v1 ; :::; vn de
K V . Entonces fv1 ; :::; vn g es un conjunto linealmente independiente de K V:

Demostración. Si k1 ; :::; kn 2 K son tales que


k1 v1 + + kn vn = 0;
entonces
0 = T (0) = T (k1 v1 + +kn vn ) = k1 T (v1 )+ +kn T (vn ) = k1 w1 + +kn wn ;
pero fw1 ; :::; wn g es un conjunto linealmente independiente de K W; lo que
implica que k1 = = kn = 0: Luego fv1 ; :::; vn g es un conjunto linealmente
independiente de K V:
Theorem 113 Sean K V y K W espacios vectoriales y T transformación lin-
eal de K V en K W . Si U es un subespacio de K V; entonces
T (U ) = fw 2 KW : w = T (u) para algún u 2 U g
es un subespacio de K W: Cuando U = K V tal subespacio se denomina es-
pacio rango de T y se denota por RT ; además llamaremos rango de T a la
dimensión de RT y la notaremos por (T ):
91

Demostración. T (U ) 6= ya que 0 2 U implica que T (0) = 0 2T (U ):


Sean k 2 K, w1 ; w2 2 T (U ); como w1 ; w2 2 T (U ) entonces existen u1 ; u2 2
U tales que T (u1 ) = w1 y T (u2 ) = w2 ; entonces

T (ku1 + u2 ) = kT (u1 ) + T (u2 ) = kw1 +w2 2 T (U );

entonces T (U )es un subespacio de K W:

Theorem 114 Sean K V y K W espacios vectoriales y T una transformación


lineal de K V en K W . Si U es un subespacio de K W , entonces
1
T (U ) = fv 2 KV : T (v) 2 U g

es un subespacio de K V: Cuando U = f0g tal subespacio se denomina espa-


cio nulo de T y se denota por NT ; además llamaremos nulidad de T a la
dimensión de NT y la notaremos por (T ):

Demostración. Ejercicio.

He aquí uno de los resultados más importantes del álgebra lineal.

Theorem 115 Sean K V , K W espacios vectoriales y T transformación lineal


de K V en K W: Supongase que dim(K V ) = n < 1. Entonces

(T ) + (T ) = dim(K V ):

Demostración. NT es un subespacio de K V: Sea v1 ; :::; v (T ) una base de


NT : Completemos (si es necesario) una base para K V apartir de un con-
junto v1 ; v2 ; :::; v (T ) ;es decirl, tomemos v (T )+1 ; :::; vn en k V NT tal que
fv1 ; :::; vn g sea base de k V . Ahora, si w 2 RT , entonces existe v 2K V tal
que T (v) = w: Si v = k1 v1 + + kn vn ; entonces

w = T (k1 v1 + + kn vn ) = k1 T (v1 ) + + kn T (vn )

= Kv (T )+1 T (v (T )+1 ) + + kn T (vn ):

) w 2 gen T (v (T )+1 ); :::; T (vn )

) RT gen T (v (T )+1 ); :::; T (vn ) :


92 CHAPTER 4. TRANSFORMACIONES LINEALES

Como T (vi ) 2 RT ; 8i = (T ) + 1; :::; n; entonces

gen T (v (T )+1 ); :::; T (vn ) RT

Porlo tanto
RT = gen T (v (T )+1 ); :::; T (vn ) :
Ahora, si

t(v (T )+1 ); :::; tvn 2 K y t(v (T )+1 )T (v (T )+1 ) + + tn T (vn )= 0

) T (t (T )+1 v (T )+1 + +tn vn ) = 0

) t (T )+1 v (T )+1 + +tn vn 2 NT 2 gen v (T )+1 ; :::; vn

) t (T )+1 v (T )+1 + +tn vn = 0


pero v (T )+1 ; :::; vn es linealmente independiente, entonces

ti = 08i 2 v (T )+1 ; :::; vn ;

) T (v (T )+1 ); :::; T (vn ) es linealmente independiente

) T (v (T )+1 ); :::; T (vn ) es base para RT

) (T ) = n (T )

) n = (T ) + (T ):

Theorem 116 Sean K V y K W espacios vectoriales y T una transforma-


ción lineal de K V en K W: Si fv1 ; :::; vn g es una base de K V , entonces
fT (v1 ); :::; T (vn )g es un conjunto generador de RT :

Demostración. Sea w 2 RT ; entonces existe v 2 k V tal que T (v) = w: Si

v = k1 v1 + + kn vn ) w = T (v) = T (k1 v1 + + kn vn )

) w 2 gen fT (v1 ); :::; T (vn )g

) RT gen fT (v1 ); :::; T (vn )g :


93

Como cada T (vi ) 2 RT , entonces

gen fT (v1 ); :::; T (vn )g RT

por que RT es un subespacio.

Theorem 117 Sean K V y K W espacios vectoriales y T una transformación


lineal de K V en K W . Entonces T es inyectiva si y sólo si NT = f0g :

Demostración.( )) Como T (0) = 0 y T es inyectiva, entonces no existe v 6= 0


en K V tal que T (v) = 0; entonces NT = f0g :
(() Sean v1 ; v2 2 K V; si T (v1 ) =T (v2 ):entonces

T (v1 ) T (v2 ) = 0 ) T (v1 )+T ( v2 ) = 0

) T (v1 v2 ) = 0

) v1 v2 2 NT = f0g

) v1 v2 = 0 ) v1 = v2 :

Por lo tanto T es inyectiva.

Theorem 118 Sean K V y K W espacios vectoriales, dimensión de K V < 1


y T una transformación lineal de K V en K W . Entonces T es inyectiva si y
sólo si dim(K V ) = (T ):

Demostración.
T es inyectiva , NT = f0g

, (T ) = 0

, dim(K V ) = (T ):

Theorem 119 Sean K V y K W espacios vectoriales y T una transformación


lineal de K V en K W . Si fv1 ; :::; vn g es una base de K V , entonces T es inyec-
tiva si y sólo si fT (v1 ); :::; T (vn )g es un conjunto linealmente independiente
de K W:
94 CHAPTER 4. TRANSFORMACIONES LINEALES

Demostración. ()) Sabemos que por ser fv1 ; :::; vn g base de KV , entonces
el
gen fT (v1 ); :::; T (vn )g = RT
Ahora si
k1 ; :::; kn 2 K y k1 T (v1 ); :::; kn T (vn ) = 0
entonces T (k1 v1 + + kn vn ) = 0: Luego k1 v1 + + kn vn 2 NT ; pero
como T es inyectiva, entonces k1 v1 + + kn vn = 0: Como fv1 ; :::; vn g es
una base de K V , entonces k1 = = kn = 0: Luego fT (v1 ); :::; T (vn )g es
linealmente independiente, entonces fT (v1 ); :::; T (vn )g es base de RT :
(() Sabemos que T (0) = 0. Ahora, si

v = t1 v1 + + tn vn y T (v) = 0 , v 2NT ;

entonces
t1 T (v1 ) + + tn T (vn ) = 0 :
Como fT (v1 ); :::; T (vn )g es linealmente independiente,

t1 = = tn = 0 ) v=0 ) NT = f0g :

Por lo tanto tes inyectiva.

Theorem 120 Sean K V y K W espacios vectoriales y T una transformación


lineal de K V en K W . Entonces T es inyectiva si y sólo si la imagen bajo T
de todo conjunto linealmente independiente de vectores de K V es un conjunto
linealmente independiente de vectores de K W:

Demostración. ()) Sea fv1 ; ::; vn g un conjuto linealmente independiente de


K V: Si k1 ; :::; kn 2 K y son tales que

k1 T (v1 ) + + kn T (vn ) = 0;

entonces T (k1 v1 + + kn vn ) = 0; pero T inyectiva implica que k1 v1 + +


kn vn = 0 y como fv1 ; ::; vn g un conjuto linealmente independiente se sigue
que k1 = = kn = 0: Así fT (v1 ) ; ::: ; T (vn )g es linealmente independiente
en K W:
(() Sabemos que 0 2NT : Si x 6= 0 está en NT , entonces como fxg es lin-
ealmente independiente en K V , por hipótesis fT (x)g = f0g es linealmente
independiente, lo cual es absurdo. Luego NT = f0g y por tanto T es inyec-
tiva.
95

Theorem 121 Sean K V y K W espacios vectoriales, dim(K W ) < 1 y T


una transformación lineal de K V en K W . Entonces T es sobreyectiva si y
sólo si hay alguna base de K W contenida en RT :
Demostración. ()) Como dim(K V ) es …nita, entonces existe una base de
K W . Como T es sobre, entonces RT = K W: Por tanto RT :
(() Si fw1 ; :::; wn g es base de K W y fw1 ; :::; wn g RT ; entonces existen
v1 ; :::; vm 2 K V tal que T (vi ) = wi 8i = 1; :::; m. Ahora si w 2 K W ,
entonces w = a1 w1 + +am wm con ai 2 K:Luego si v = a1 v1 + +am vm 2
K V; entonces
T (v) = T (a1 v1 + + am vm )

= a1 T (v1 ) + + am T (vm )

= a1 w1 + + am wm = w:
en concecuencia w 2 RT lo cual implica que RT = K W; y así se tiene que
tes sobreyectiva.
De…nition 46 Si T : K V ! K W es una transformación lineal biyectiva,
entonces diremos que T es un isomor…smo de K V en K W y que los espacios
vectoriales K V y K W son isomorfos, lo cual notaremos por K V KW
n
Theorem 122 Si dim KV = n; entonces KV KK :
Demostración. Si K V es un espacio vectorial de n < 1 y B = fv1 ; :::; vn g
es una base de K V . Entonces la función
T : KV ! KKn
v 7 ! [v]B
es una transformación lineal: si v1 ; v2 2 KV yk2K
T (kv1 + v2 ) = [kv1 + v2 ]B = k [v1 ]B + [v2 ]B = kT (v1 ) + T (v2 ):
Además T es biyectiva: como T es transformación lineal se tiene que T (0) =
0 y si v 2 K V con T (v) = 0;entonces
[v]B = 0 ) v = 0:
Luego NT = f0g y pot tanto T es inyectiva. Ahora, como ei = [vi ]B para
i = 1; :::; n entonces ei = T (vi ) para i = 1; :::; n, entonces fe1 ; :::; en g RT
y como fe1 ; :::; en g es base de K K n ; se sigue por Teorema 121 que T es
sobreyectiva.
96 CHAPTER 4. TRANSFORMACIONES LINEALES

Theorem 123 (Matriz que representa a una transformación lineal)


Si K V es un espacio vectorial de dimensión n, B1 = fv1 ; :::; vn g es una base
de K V , K W es un espacio vectorial de dimensión m; B2 = fw1 ; :::; wm g es
base de K W y T : K V ! K W es una transformación lineal. Entonces
existe una única matriz A 2Mm n (K) tal que

A [v]B1 = [T (v)]B2 para toda v 2 K V:

Demostración. Si v 2 KV y [v]B1 = [k1 kn ]T ; entonces

[T (v)]B2 = [T (k1 v1 + + kn vn )]B2

= [k1 T (v1 )]B2 + + [kn T (vn )]B2

= k1 [T (v1 )]B2 + + kn [T (vn )]B2


2 3
k1
6 .. 7
= [T (v1 )]B2 [T (vn )]B2 4 . 5
kn

= A [v]B1 ;

donde A = [T (v1 )]B2 [T (vn )]B2 2 Mm n (K). Ahora, si X = [x1 xn ] 2


Mm n (K) y X [v]B1 = [T (v)]B2 para todo v 2 K V; entonces para i = 1; :::; n

X [vi ]B1 = [T (vi )]B2 ;

y también
X [vi ]B1 = X ei = xi :
Por tanto X = A:

Theorem 124 Si K V , K W son espacios vectoriales …nitodimensionales e


isomorfos, B1 , B2 son bases de K V y K W respectivamente, T un isomor…smo
de K V en K W y A es la matriz que representa a T en las bases B1 y B2 :
Entonces A es invertible.

Demostración. Ejercicio.
97

Theorem 125 Si K V , K W; K U son espacios vectoriales de dimensión n; m,


p y bases B1 ; B2 ; B3 respectivamente,

T1 : KV ! KW ; T2 : KW ! KU

son transformaciones lineales tales que A representa a T1 en las bases B1


y B2 y B representa a T1 en las bases B1 y B2 : Entonces BA representa a
T2 T1 en las bases B1 y B3:

Demostración. Si v 2 KV , entonces

(BA) [v]B1 = B(A [v]B1 ) = B [T1 (v)]B2 = [T2 (T1 (v))]B3

= [(T2 T1 )(v)]B3 :

Problemas

1. Pruebe que para n 1 la función

T : K Pn ! K Pn 1
0
p(x) 7 ! p (x)

es una transformación lineal y se conoce como transformación derivación.

2. Pruebe que si A 2 Mm n (K); entonces las funciones


n m
T : KK ! KK
x 7 ! Ax
y
m n
L : KK ! KK
y 7 ! yA
son transformaciones lineales.

3. Pruebe que si P 2 Mm m (K) y Q 2 Mn n (K); entonces la función

T : K (Mm n (K)) ! K (Mm n (K))


A 7 ! PAQ

es una transformación lineal.


98 CHAPTER 4. TRANSFORMACIONES LINEALES

4. Si T es una transformación lineal de R R2 en R R3 tal que


2 3 2 3
1 1
1 4 5 1
T( )= 0 y T( ) = 3 5:
4
1 1
1 0

x
Halle T ( ):
y
Chapter 5

ESPACIOS CON PRODUCTO


INTERIOR

5.1 ESPACIOS CON PRODUCTO INTERIOR


En éste capítulo K representará al campo de los números reales ó de los
complejos.

De…nition 47 Sea K V un espacio vectorial. Un producto interior, h ; i,


en K V es una función que asigna a cada par ordenado de vectores v; w de
K V un escalar hv; wi de K de tal modo que para cualesquiera v; w; u de
K V y todos los escalares c 2 K

(a) hv + w ; ui = hv ; ui + hw ; ui ;
(b) hc v ; wi = c hv ; wi ;
(c) hv ; wi = hw ; vi;
(d) hv ; vi > 0 si v 6= 0:

Si K = R es claro que (c) se convierte en hv ; wi = hw ; vi :

De…nition 48 Un espacio con producto interior es un par (K V; h ; i)


donde K V es un espacio vectorial y h ; i es un producto interior en K V:

99
100 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

Theorem 126 Sea (K V; h ; i) un espacio con producto interior: Entonces


para v; w; u en K V y c en K tenemos:

hv ; w + ui = hv ; wi + hv ; ui y hv ; c wi = c hv ; wi :

Demostración.

hv ; w + ui = hw + u ; vi = hw ; vi + hu ; vi = hw ; vi + hu ; vi

= hv ; wi + hv ; ui = hv ; wi + hv ; ui
y

hv ; c wi = hc w ; vi = c hw ; vi = c hw ; vi = c hv ; wi = c hv ; wi :

Theorem 127 Sea (K V; h ; i) un espacio con producto interior. Entonces


para todo v 2 K V
h0 ; vi = 0 = hv ; 0i :

Demostración.

h0 ; vi = h0 0 ; vi = 0 h0 ; vi = 0 = 0 = h 0 ; vi

= hv ; 0i = hv ; 0i :

Del Teorema 127 y la parte (d) de la de…nición de producto interior se sigue


que en un espacio con producto interior hv ; vi = 0 si y sólo si v = 0.

Problemas

1. Si (K V; h ; i) es un espacio con producto interior, v; w; u 2 KV . En-


tonces
(a) hv w ; ui = hv ; ui hw ; ui ;
(b) hv ; w ui = hv ; wi hv ; ui :

2. Si (K V; h ; i) es un espacio con producto interior, v; w 2 KV con v 6= 0


hw ; vi
yu=w v: Entonces hu ; vi = 0:
hv ; vi
5.2. ORTOGONALIDAD 101

3. Demuestre que la aplicación


n n
h ; i2 : KK KK ! K

P
n
(v ; w) 7 ! hv ; wi2 = wi vi = wH v
i=1

donde v = [v1 vn ]T y w = [w1 wn ]T , es un producto interior en KK


n
:

4. Pruebe que
h; i : R P3 R P3 ! R
R1
(p(x) ; q(x)) 7 ! hp(x) ; q(x)i = 0
p(x)q(x) dx
es un producto interior en el espacio vectorial, R P3 ; de los polinomios de
grado menor o igual a 3 con coe…cientes en R.

4. Pruebe que si R (C [a ; b]) es el espacio vectorial de todas las funciones


continuas en el intervalo [a ; b] y h(x) es una función positiva y continua
de…nida en [a ; b] : Entonces
h; i : R (C [a ; b]) R (C [a ; b]) ! R
Rb
(f (x) ; g(x)) 7 ! hp(x) ; q(x)i = a
f (x)g(x)h(x) dx
es un producto interior en R (C [a ; b]):

5.2 ORTOGONALIDAD
Theorem 128 Sea (K V; h ; i) un espacio con producto interior. Entonces
para toda pareja v; w de K V se tiene que
hv ; wi = 0 () hw ; vi = 0:
Demostración.
hv ; wi = 0 =) hw ; vi = hv ; wi = 0 = 0:
y
hw ; vi = 0 =) hv ; wi = hw ; vi = 0 = 0:
102 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

De…nition 49 Sean v y w en un espacio con producto interior (K V; h ; i):


Diremos que v es ortogonal a w si hv ; wi = 0; como esto equivale a que
hw ; vi = 0; a menudo sólo se diremos que v y w son ortogonales, y lo
notaremos v?w.

De…nition 50 Si v está en un espacio con producto interior (K V; h ; i), S


V y v?w para todo w 2 S: Entonces diremos que v es ortogonal a S y lo
notaremos v?S:

Theorem 129 Sea (K V; h ; i) un espacio con producto interior. Entonces el


único vector de K V que es ortogonal a todos los vectores de K V es el vector
cero.

Demostración. Sabemos que para todo v 2 K V h0 ; vi = 0: Si suponemos


que existe w 2 K V que es ortogonal a todo vector de K V , entonces en
particular tendremos que hw ; wi = 0; pero ésto ocurre si y sólo si w = 0:

Theorem 130 Sea (K V; h ; i) un espacio con producto interior. Si v 2 KV


y S = fv1 ; :::; vn g V . Entonces v?gen S si y sólo si v?S:

Demostración. ()) Si v?gen S; entonces como cada vi 2 gen S se tiene que


v?vi 8i = 1; :::; n: Luego v?S:
(() Si v?S y w 2 gen S; entonces existen c1 ; :::; cn en K tales que

w = c1 v1 + + cn vn ;

entonces
hw ; vi = hc1 v1 + + cn vn ; vi = c1 hv1 ; vi + + cn hvn ; vi

= c1 0 + + cn 0 = 0:

Así v?w; y por tanto v? gen S:

Theorem 131 Si (K V; h ; i) un espacio con producto interior y fv1 ; :::; vn g


es una base de K V . Entonces el conjunto fw1 ; :::; wn g, donde

wi = hv1 ; vi i v1 + + hvn ; vi i vn

para i = 1; :::; n; es un conjunto linealmente independiente.


5.2. ORTOGONALIDAD 103

Demostración. Supongamos que x1 ; :::; xn están en K y son tales que

x1 w1 + + xn wn = 0:

Entonces

x1 (hv1 ; v1 i v1 + +hvn ; v1 i vn )+ +xn (hv1 ; vn i v1 + +hvn ; vn i vn ) = 0;

luego

(x1 hv1 ; v1 i+ +xn hv1 ; vn i)v1 + +(x1 hvn ; v1 i+ +xn hvn ; vn i)vn = 0:

Pero fv1 ; :::; vn g linealmente independiente implica

0 = x1 hv1 ; v1 i + + xn hv1 ; vn i = = x1 hvn ; v1 i + + xn hvn ; vn i ;

de donde

0 = hv1 ; x1 v1 + + xn vn i = = hv1 ; x1 v1 + + xn vn i :

Luego por Teorema 130 t1 v1 + + tn vn es ortogonal a gen fv1 ; :::; vn g =


K V , lo cual implica, por Teorema 129, que x1 v1 + + xn vn = 0; y como
fv1 ; :::; vn g es linealmente independiente se sigue que x1 = = xn = 0:
Así, x1 = = xn = 0 y por tanto fw1 ; :::; wn g es un conjunto linealmente
independiente.

Theorem 132 Sean (K V; h ; i) un espacio con producto interior y fv1 ; :::; vn g


una base de K V: Entonces asociada a cada n tupla k1 ; :::; kn de escalares de
K existe un único vector v 2 K V tal que hv ; vi i = ki :

Demostración. Sean k1 ; :::; kn 2 K; entonces existe un único v 2 K V tal que


hv ; vi i = ki para i = 1; :::; n si y sólo si para i = 1; :::; n existe un único
v = x1 v1 + + xn vn 2 K V tal que
* n +
X Xn
ki = hv ; vi i = xj vj ; vi = xj hvj ; vi i ;
j=1 j=1

si y sólo si el sistema de ecuaciones lineales (escrito en forma matricial)


T T
Ax = k, donde k = k1 kn ; x = x1 xn y A 2 Mn (K)
es tal que (A)ij = hvj ; vi i, tiene solución única, si y sólo si las columnas de
104 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

A forman un conjunto linealmente independiente de K K n : Pero las columnas


de A son, respectivamente, los vectores de coordenadas respecto a la base
fv1 ; :::; vn g de los vectores
wi = hvi ; v1 i v1 + + hvi ; vn i vn
para i = 1; :::; n: Luego, por Teorema 97, las columnas de A forman un
conjunto linealmente independiente de K K n si y sólo si fw1 ; :::; wn g es un
conjunto linealmente independiente en K V; lo cual es cierto por Teorema 131.

De…nition 51 Si S es un conjunto de vectores de un espacio con producto


interior (K V; h ; i). Diremos que S es un conjunto ortogonal si para todo
par de vectores v; w de S con v 6= w se tiene que v?w.
Theorem 133 Si (K V; h ; i) es un espacio con producto interior y S es un
conjunto ortogonal de vectores no nulos de K V . Entonces S es un conjunto
linealmente independiente.
Demostración. Supóngase que fv1 ; :::; vn g S y que c1 ; :::; cn 2 K son tales
que
0 = c1 v1 + + cn vn :
Entonces para j 2 f1; :::; ng
0 = h0 ; vj i = hc1 v1 + + cn vn ; vj i

P
n
= ci hvi ; vj i = cj hvj ; vj i :
i=1

Como hvj ; vj i =
6 0; se sigue que 8j cj = 0: Así, S es un conjunto linealmente
independiente.

Es consecuencia inmediata del Teorema 133 que si fw1 ; :::; wm g es un con-


junto ortogonal de vectores no nulos en un espacio con producto interior
(K V; h ; i) y dimensión …nita, entonces m dimK V:
Theorem 134 Si un vector v es combinación lineal de vectores no nulos
v1 ; :::; vn que forman un conjunto ortogonal en un espacio con producto in-
terior (K V; h ; i), entonces
Xn
hv ; vi i
v= vi :
i=1
hvi ; vi i
5.2. ORTOGONALIDAD 105

Demostración. Supóngase que

v = c1 v1 + + cn vn

con c1 ; :::; cn 2 K: Entonces para j 2 f1; :::; ng

v ; vj = hc1 v1 + + cn vn ; vj i

P
n
= ci hvi ; vj i = cj hvj ; vj i :
i=1

Como hvj ; vj i =
6 0; se sigue que

v ; vj
cj =
hvj ; vj i
y así
Xn
hv ; vi i
v= vi :
i=1
hvi ; vi i

De…nition 52 Si W; U son subespacios de un espacio con producto interior


(K V; h ; i). decimos que W y U son subespacios ortogonales si cada vector
de W es ortogonal a cada vector de U: En este caso utilizaremos la notación
W ?U:

De la De…nición 52 y de las propiedades del producto interior es claro que


W ?U () U ?W:

De…nition 53 Sean (K V; h ; i) un espacio con producto interior y S un sub-


conjunto no vacío de V: El complemento ortogonal de S es el conjunto
S ? de todos los vectores de K V ortogonales a todo vector de S:

Theorem 135 Sean (K V; h ; i) un espacio con producto interior y S un sub-


conjunto no vacío de V: Entonces S ? es un subespacio de K V:

Demostración. Como S ? no es vacío, por que contiene a 0, y para todo v y


w en S ? , todo u 2 S y c 2 K se tiene

hc v + w ; ui = c hv ; ui + hw ; ui = c 0 + 0 = 0:

Así c v + w también está en S ? : Luego S ? es un subespacio de K V:


106 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

Theorem 136 Si W es un subespacio de un espacio con producto interior


(K V; h ; i): Entonces W ? ?W:
Demostración. Por De…nición 53 se tiene que cada vector de W ? es ortogonal
a cada vector de W: Entonces W ? ?W (() W ?W ? ).
Theorem 137 Para W1 ; W2 subespacios de un espacio con producto interior
(K V; h ; i) se tiene que
W1 ?W2 =) W1 \ W2 = f0g :
Demostración. Supongamos que W1 ?W2 :
v 2 W1 \ W2 =) v 2 W1 y v 2 W2 =) hv ; vi = 0

=) v = 0:
Corollary 9 Si W es un subespacio de un espacio con producto interior
(K V; h ; i): Entonces W ? \ W = f0g :
Demostración. Se sigue de los Teoremas 136 y 137.

Problemas

1. Considere el producto interior h ; i2 de R R3 y determine si el conjunto


n o
T T T
1 1 0 ; 0 0 1 ; 1 1 0
es ortogonal.

2. Considerar R R4 ; con el producto interior h ; i2 . Sea W el subespacio de


4
R R que consta de todos los vectores ortogonales a
T T
v= 1 0 1 1 y w= 2 3 1 2 :
Hallar una base para W:

3. Demuestre que el recíproco del Teorema 137 no es cierto en general.

4. Dótese a R P3 con el producto interior


Z 1
hp(x) ; q(x)i = p(x)q(x) dx:
0
Halle el complemento ortogonal del subespacio de R P3 formado por los poli-
nomios de grado cero.
5.3. ESPACIOS NORMADOS 107

5.3 ESPACIOS NORMADOS


De…nition 54 Sea K V un espacio vectorial. Una norma en KV es una
función k k de K V en R+ [ f0g que satisface:

(1) kvk > 0 si v 6= 0; v 2 K V ;


(2) kc vk = jcj kvk si v 2 K V y c 2 K;
(3) kv + wk kvk + kwk si v; w están en KV (desigualdad triangular).

De…nition 55 Un espacio normado es un par (K V; k k) donde KV es un


espacio vectorial y k k es una norma en K V:

Theorem 138 Sea (K V; k k) un espacio normado: Entonces la norma del


vector cero es cero.

Demostración.
k0k = k0 0k = j0j k0k = 0 k0k = 0:
Como kvk > 0 si v 6= 0 y k0k = 0, entonces se tiene como conclusión que
kvk = 0 si y sólo si v = 0:

Theorem 139 En un espacio normado (K V; k k) tenemos:


a) k vk = kvk para todo v 2 K V ;
b) j kvk kwk j kv wk para todo v; w 2 K V:

Demostración. a)

k vk = k( 1)vk = j 1j kvk = kvk :

Para probar b) observamos que v = v w + w: Luego

kvk = kv w + wk kv wk + kwk ;

por lo tanto
kvk kwk kv wk : (5.1)
Análogamente,

kwk = kw v + vk kw vk + kvk :

De donde obtenemos que

kwk kvk kw vk ;
108 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

es decir
kw vk kvk kwk : (5.2)
De las desigualdades (5.1) y (5.2), deducimos que

kv wk kvk kwk kv wk :

Esto equivale a
j kvk kwk j kv wk :

Theorem 140 Sean (K V; h ; i) un espacio con producto interior y w; u en


K V: Entonces p p
jhu; wij hu; ui hw; wi
(esta igualdad se conoce como desigualdad de Cauchy - Schwarz). Además
la igualdad se tiene si, y sólo si, fu; wg es linealmente dependiente.

Demostración. Supongamos que fu; wg es linealmente independiente, y hag-


amos
hw; ui
v=w u:
hu; ui
Entonces v 6= 0 y
hw; ui hw; ui
0 < hv; vi = w u; w u
hu; ui hu; ui

hw; ui hw; ui hw; ui hw; ui


= hw; wi hw; ui hu; wi + hu; ui
hu; ui hu; ui hu; ui hu; ui

hw; ui hw; ui hw; ui hu; wi hw; ui hw; ui


= hw; wi +
hu; ui hu; ui hu; ui

hw; ui hu; wi hu; wi hu; wi


= hw; wi = hw; wi
hu; ui hu; ui

jhu; wij2 jhu; wij2


= hw; wi = hw; wi ;
hu; ui hu; ui
de donde
0 < hu; ui hw; wi jhu; wij2
5.3. ESPACIOS NORMADOS 109

y luego
p p
jhu; wij < hu; ui hw; wi:
Ahora, si u = 0 la iguadad es evidente,
p y enpparticular fu; wg es linealmente
dependiente. Si u 6= 0 y jhu; wij = hu; ui hw; wi; entonces

hw; ui hw; ui jhu; wij2


w u; w u = hw; wi = 0;
hu; ui hu; ui hu; ui

hw; ui hw; ui
de donde 0 = w u y por tanto w = u; y fu; wg es linealmente
hu; ui hu; ui
dependiente: Recíprocamente, si existe c 2 K tal que w = c u; entonces

jhu; wij2 = hu; wi hu; wi = hu; wi hw; ui = hu; c ui hc u; ui

= c hu; ui hcu; ui = hu; ui hc u; c ui

= hu; ui hw; wi = hu; ui hw; wi :


p p
entonces jhu; wij = hu; ui hw; wi:

Theorem 141 Sea (K V; h ; i) es un espacio con producto interior: Entonces

kk : KV ! R+ [
pf0g
v 7 ! kvk = hv; vi

es una norma sobre K V: (LLamada la norma inducida por el producto


interior h ; i)

Demostración. (1) Sea v 2 K V; v 6= 0: Entonces


p
kvk = hv; vi > 0;

por que hv; vi > 0:


(2) Supongamos que v 2 KV y c 2 K; entonces
p p q p
kc vk = hc v; c vi = c c hv; vi = jcj2 hv; vi = jvj hv; vi = jcj kvk :
110 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

(3) Sean v y w en K V; entonces

kv + wk2 = hv + w; v + wi = hv; vi + hv; wi + hw; vi + hw; wi

= hv; vi + ( hv; wi + hv; wi ) + hw; wi

= kvk2 + 2 Re hv; wi + kwk2 ;


pero q
kvk kwk jhv; wij = (Re hv; wi)2 + (Im hv; wi)2
q
(Re hv; wi)2 = jRe hv; wij Re hv; wi ;
luego
kv + wk2 kvk2 + 2 kvk kwk + kwk2

= (kvk + kwk)2 ,
con lo que kv + wk kvk + kwk :

Theorem 142 (regla pitagórica) Si (K V; h ; i) es un espacio con producto


interior, k k es la norma en K V inducida por h ; i y v; w 2 K V con v?w,
entonces
kv + wk2 = kvk2 + kwk2 :

Demostración.
kv + wk2 = hv + w; v + wi = hv; vi + hv; wi + hw; vi + hv; vi

= hv; vi + 0 + 0 + hw; wi = kvk2 + kwk2 :

De…nition 56 Sea (K V; h ; i) es un espacio con producto interior y k k la


norma en K V inducida por h ; i : Si S es un conjunto de vectores de K V , se
dice que S es un conjunto ortonormal, si S es un conjunto ortogonal y
kvk = 1 para todo v 2 S:

De la de…nición 56 se deduce que un conjunto fv1 ; :::; vn g es ortonormal si y


sólo si
0 si i 6= j
hvi ; vj i =
1 si i = j:
5.3. ESPACIOS NORMADOS 111

De…nition 57 Sea (K V; h ; i) es un espacio con producto interior y k k la


norma en K V inducida por h ; i : Si fv1 ; :::; vn g es una base de K V y al
mismo tiempo fv1 ; :::; vn g es un conjunto ortogonal, entonces fv1 ; :::; vn g es
una base ortogonal de K V; y si además kvi k = 1 para toda i = 1; :::; n,
entonces fv1 ; :::; vn g es una base ortonormal de K V:

Proposition 1 Si (K V; k k) es un espacio normado y v 2 KV f0g : En-


tonces (kvk) 1 v = 1:

Demostración.
1 1
(kvk) v = (kvk) kvk = 1:

Theorem 143 Si U 2Mn (C) es una matriz unitaria y z 2C Cn : Entonces

kUzk2 = kzk2 :

Demostración.

kUzk22 = hUz ; Uzi2 = (Uz)H Uz = zH UH Uz = zH z = hz ; zi2 = kzk22 :

De donde kUzk2 = kzk2 :

Theorem 144 Si A 2 Mn (C) es hermitiana, entonces para todo x; y 2 C Cn :

hAx ; yi2 = hx ; A yi2

Demostración.
hAx , yi2 = yH (Ax) = (yH A)x = (AH y)H x

= (A y)H x = hx , A yi2 :

Theorem 145 Si U 2 Mn (C) es una matriz unitaria y u es una columna


de U: Entonces kuk2 = 1:

Demostración.
UH U = In ) uH u =1 ) hu ; ui2 = 1

) kuk22 = 1 ) kuk2 = 1:
112 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

Theorem 146 Una matriz U 2 Mn (C) es unitaria si y sólo si sus columnas


forman una base ortonormal de C Cn :

Demostración. Para i = 1; :::; n sea ui la columna i ésima de U: Entonces


U es unitaria si y sólo si UH U = In ; lo cual equivale a que (ui )H uj es 0 si
i 6= j y 1 si i = j: Esto último también equivale a que fu1 ; :::; un g es una
base ortonormal de C Cn :

Theorem 147 Si U 2 Mn (C) es una matriz unitaria y x 2 C Cn : Entonces


kUxk2 = kxk2 :

Demostración.

kUxk22 = hUx ; Uxi2 = (Ux)H Ux = xH UH Ux = xH x = kxk22 :

Luego kUxk2 = kxk2 :


Problemas

1. En C Cn , pruebe que las siguientes funciones determinan normas:


n
k k1 : CC ! R+ [ f0g
T
v1 vn 7 ! jv1 j + + jvn j

n
k k1 : CC ! R+ [ f0g
T
v1 vn 7 ! max fjv1 j ; :::; jvn jg

n
k k2 : CC ! R+ [ f0g
1
T
v1 vn 7 ! jv1 j2 + + jvn j2 2

T
Solución para k k2 : nótese que si v = v1 vn 2 Cn ; entonces
q
kvk2 = hv; vi2 ;

donde
X
n X
n
hv; vi2 = vi vi = jvi j2 :
i=1 i=1
5.3. ESPACIOS NORMADOS 113

Como sabemos que la fórmula


X
n
hv; wi2 = vi wi
i=1

T T
de…nida 8v = v1 vn 2 C Cn 8w = w1 wn 2 C Cn de…ne
n
un producto interior en C C ; entonces es claro que k k2 no es más que la
norma en C Cn inducida por el producto interior h ; i2 (ver Teorema 141).

2. Dados 2 3 2
3
5 2+i
v=4 3 5 y w=4 1 i 5
2 2
en C C3 halle kvk1 ; kwk1 ; kvk2 ; kwk2 ; kvk1 y kwk1 :

3. Es claro que en el Ejercicio 1 de la presente sección podemos cambiar,


siempre que aparezca, a C Cn por R Rn y las funciones que obtenemos k k1 ; k k2
y k k1 son normas en R Rn : Para estas normas demuestre que
kvk1 kvk2 kvk1
para todo v 2 R Rn ; y que las igualdades pueden darse aun para vectores
distintos
p de cero. Demuestre además que kvk1 n kvk1 y que kvk2
n
n kvk1 para todo v 2 R R :

4. Determine si las siguientes funciones de…nen normas en R Rn


(a)
n
kk : RR ! R [ f0g
T
v1 vn 7 ! max fjv2 j ; jv3 j ; :::; jvn jg
Solución. Si llamamos e1 = [1 0 0]T ; tenemos que
ke1 k = max fj0j ; j0j ; :::; j0jg = 0:
Luego k k no puede de…nir una norma en R Rn ; ya que ke1 k = 0 con e1 6= 0
y ello contradice la de…nición de norma.
(b)
n
kk : RR ! R [ f0g
T Pn
v1 vn 7 ! jvi j3
i=1
114 CHAPTER 5. ESPACIOS CON PRODUCTO INTERIOR

(c)
n
kk : RR ! R [ f0g
2
T P
n 1
v1 vn 7 ! jvi j 2
i=1

(d)
n
kk : RR ! R [ f0g
T
v1 vn 7 ! max fjv1 v2 j ; jv1 + v2 j ; jv3 j ; :::; jvn jg

(e)
n
kk : RR ! R [ f0g
T P
n
v1 vn 7 ! 2i jvi j
i=1

5. Pruebe que una norma de…nida en K K n debe de alguna manera tomar en


cuenta todas las componentes de un vector.

6. Sean fu1 ; :::; un g una base ortonormal de un espacio con producto inte-
rior (K V ; h ; i) y k k la norma en K V inducida por tal producto interior.
Demuestre que para v; w 2 K V

2
X
n
2
X
n
kvk = jhv; ui ij y hv ; wi = hv; ui i hw; ui i:
i=1 i=1
Chapter 6

PROYECCIÓN ORTOGONAL

En este capítulo K representará a R ó C.

De…nition 58 Sean (K V; h ; i) un espacio con producto interior y k k la


norma en K V inducida por h ; i : De…nimos la distancia entre los vectores
v y w de K V como
d(v; w) = kv wk :
Theorem 148 Para d(v; w) = kv wk ; tenemos

(1) d(v; w) 0 y d(v; w) = 0 si y sólo si v = w


(2) d(v; w) = d(w; v)
(3) d(v; w) d(v; u) + d(u; w):
Demostración. (1)
d(v; w) = kv wk 0
y
d(v; w) = 0 si y sólo si kv wk = 0 si y sólo si v w = 0 si y sólo si v = w:
(2)
d(v; w) = kv wk = k 1(w v)k = j 1j kw vk = kw vk = d(w; v):
La prueba de (3) se sigue de la desigualdad triangular. Para verlo, obsérvese
que
d(v; w) = kv wk = k(v u) + (u w)k

kv uk + ku wk = d(v; u) + d(u; w):

115
116 CHAPTER 6. PROYECCIÓN ORTOGONAL

De…nition 59 Sean (K V; h ; i) un espacio con producto interior, k k la norma


en K V inducida por h ; i, W un subespacio de K V y v un vector de K V: Una
mejor aproximación a v por vectores de W es un vector w de W tal que

d(v; w) = kv wk kv uk = d(v; u)

para todo vector u de W:

Theorem 149 Sean (K V; h ; i) un espacio con producto interior, k k la norma


en K V inducida por h ; i, W un subespacio de K V y v un vector de K V: En-
tonces el vector w en W es una mejor aproximación a v por vectores de W
si y sólo si v w es ortogonal a todo vector de W:

Demostración. Supongamos que w 2 W es tal que v w es ortogonal a


cada vector de W: Si u 2 W; entonces v u = (v w) + (w u); y

kv uk2 = hv u; v ui = h(v w) + (w u); (v w) + (w u)i

= hv w; v wi + hv w; w ui + hw u; v wi

+ hw u; w ui

= kv wk2 + hv w; w ui + hv w; w ui + kw uk2

= kv wk2 + 2 Re hv w; w ui + kw uk2 :

Como w u está en W , entonces hv w; w ui = 0 y así

2 Re hv w; w ui = 0:

Luego
kv uk2 = kv wk2 + kw uk2 kv wk2 :
Entonces kv wk kv uk : Recíprocamente, supongamos que w es una
mejor aproximación a v por vectores de W: Es decir, w 2 W y kv wk
kv uk para todo u en W . Luego kv wk2 kv uk2 y como

v u = (v w) + (w u)

se tiene que

kv uk2 = kv wk2 + 2 Re hv w; w ui + kw uk2 ;


117

entonces

0 kv uk2 kv wk2 = 2 Re hv w; w ui + kw uk2 ;

luego para todo u 2 W

2 Re hv w; w ui + kw uk2 0: (6.1)

Sea ahora z un vector cual quiera de W: Si z = 0; es claro que hv w; zi = 0:


Si z 6= 0; tomemos
hv w; zi
u = w+ z 2W
kzk2
y lo reemplazamos en (6.1) para obtener
2
hv w; zi hv w; zi
2 Re v w; w ( w+ z) + w ( w+ z) 0:
kzk2 kzk2

Pero
2 2
hv w; zi hv w; zi jhv w; zij2
w ( w+ z) = z = kzk2
kzk2 kzk2 kzk 4

jhv w; zij2
=
kzk2
y

hv w; zi hv w; zi
2 Re v w; w (w + z) = 2 Re v w; z
kzk2 kzk2

hv w; zi
= 2 Re ( hv w ; zi)
kzk2

2
= Re (jhv w ; zij2 )
kzk2

2
= jhv w ; zij2 ;
kzk2
118 CHAPTER 6. PROYECCIÓN ORTOGONAL

por tanto
2 jhv w ; zij2 jhv w; zij2 jhv w ; zij2
0 + = :
kzk2 kzk2 kzk2
Lo cual se cumple si y sólo si,
jhv w ; zij2
0= () jhv w ; zij2 = 0 () hv w; zi = 0:
kzk2
Por tanto, v w es ortogonal a todo vector de W:
Theorem 150 Sean (K V; h ; i) un espacio con producto interior, k k la norma
en K V inducida por h ; i ; W un subespacio de K V y v 2 K V: Cuando existe
una mejor aproximación a v por vectores de W; entonces es única.
Demostración. Si w y w0 son mejores aproximaciones a v por vectores de W
distintas, entonces
2
kv wk2 = (v w0 )+(w0 w)

= kv w0 k2 + 2 Re hv w0 ; w0 wi + kw0 wk2 ;
pero como w0 es una mejor aproximación a v por vectores de W; por Teorema
149
2 Re hv w0 ; w0 wi = 2 Re(0) = 0;
y puesto que w 6= w0 se tiene que kw0 wk2 > 0: Luego
2 2 2
kv wk2 = kv w0 k + kw0 wk > kv w0 k ;
entonces kv wk > kv w0 k ; lo cual va en contra de que w es una mejor
aproximación a v por vectores de W: La contradicción proviene de haber
supuesto que puede existir más de una mejor aproximación a v por vectores
de W:
Theorem 151 Sean (K V ; h ; i) un espacio con producto interior, W un
subespacio deK V y fu1 ; :::; un g una base ortonormal de W . Entonces para
todo v 2 K V el vector
Xn
w= hv; ui i ui
i=1
es la mejor aproximación a v por vectores de W:
119

Demostración. Según el Teorema 149 es su…ciente con probar que v w es


ortogonal a todo vector de W: Pero fu1 ; :::; un g es base de W; entonces por
Teorema 130 basta mostrar que v w es ortogonal a uj para j = 1; :::; n:
En efecto, para j = 1; :::; n
P
n P
n
v hv; ui i ui , uj = hv; uj i hv; ui i ui ; uj
i=1 i=1

P
n
= hv; uj i hv; ui i hui ; uj i
i=1

= hv; uj i hv; uj i huj ; uj i

= hv; uj i hv; uj i = 0:

De…nition 60 Sea W un subespacio de un espacio con producto interior


(K V; h ; i) y sea v un vector de K V: Siempre que existe w igual a la mejor
aproximación a v por vectores de W; w será llamado proyección ortogonal
de v sobre W; y lo notaremos ProyW v:

Theorem 152 Sean (K V; h ; i) un espacio con producto interior, k k la norma


inducida por h ; i en K V , W un subespacio de K V y v 2 K V: Si existe
ProyW v; entonces también existe ProyW ? v y además

ProyW ? v = v ProyW v :

Demostración. Por Teorema 149 v ProyW v está en W ? y para cualquier


u en W ? , v u = ProyW v + (v ProyW v u): Como ProyW v está en W
y v ProyW v u está en W ? ; se sigue por la regla pitagórica que

kv uk2 = kProyW vk2 + kv ProyW v uk2

kProyW vk2 = kv (v ProyW vk2 :

De donde kv uk kv (v ProyW v)k ; por tanto, v ProyW v es la


mejor aproximación a v por vectores de W ? :

El clásico proceso de Gram-Schmidt se puede utilizar en cualquier espacio


con producto interior (F V; h ; i) para obtener conjuntos ortonormales a partir
de conjuntos linealmente independientes.
120 CHAPTER 6. PROYECCIÓN ORTOGONAL

Theorem 153 (Proceso de Ortonormalización de Gram - Schmidt)


Sean (K V; h ; i) un espacio con producto interior, fv1 ; ::: ; vn g base de un
subespacio U de K V y k k la norma en K V inducida por h ; i : De…namos
recursivamente:
1 !
X
i 1 X
i 1
ui = vi hvi ; uj i uj vi hvi ; uj i uj (i = 1; 2; :::; n)
j=1 j=1

Entonces fu1 ; u2 ; ::::; un g es una base ortonormal de U:


Demostración. Denotemos con Ui al subespacio generado por fv1 ; v2 ; :::; vi g
(nótese que Un = U ) y demostremos por inducción sobre i que fu1 ; u2 ; :::; ui g
es una base ortonormal de Ui :
Para i = 1 vemos de inmediato que u1 2 U1 y que ku1 k = 1; por tanto fu1 g
es una base ortonormal de U1 : Supongamos que fu1 ; u2 ; :::; ui 1 g es una base
ortonormal de Ui 1 con 2 i n: Entonces fu1 ; u2 ; :::; ui 1 g Ui 1 y
vi 2
= Ui 1 : Por lo tanto vi no es una combinación lineal de fu1 ; u2 ; :::; ui 1 g ;
iP1
y vi hvi ; uj i uj 6= 0: Esto implica que
j=1

1 !
X
i 1 X
i 1
ui = vi hvi ; uj i uj vi hvi ; uj i uj
j=1 j=1

está bien de…nido y pertenece a Ui : Por ende fu1 ; u2 ; :::; ui g Ui : Ahora,


iP1
en vista de que hvi ; uj i uj es la mejor aproximación a vi por vectores de
j=1
Ui 1 , tenemos entonces que
!
X
i 1
vi hvi ; uj i uj ? Ui 1 ;
j=1

de donde
1 !
X
i 1 X
i 1
ui = vi hvi ; uj i uj vi hvi ; uj i uj ? Ui 1 :
j=1 j=1

Resulta entonces que ui ? fu1 ; u2 ; :::; ui 1 g y que, obviamente, kui k = 1:


Luego fu1 ; u2 ; :::; ui g Ui y es un conjunto ortonormal y por tanto lineal-
mente independiente. Pero como dim Ui = i y fu1 ; u2 ; :::; ui g es un conjunto
121

linealmente independiente de i vectores en Ui ; entonces fu1 ; u2 ; :::; ui g es una


base ortonormal de Ui :

Example 19 Consideremos en R R3 el producto interior de…nido por

hx; yi2 = yT x 8 x; y 2R R3 ;

k k2 la norma en R R3 inducida por h ; i2 y la base


8 2 3 2 3 2 39
< 1 1 2 =
v1 = 4 1 5 ; v2 = 4 2 5 ; v3 = 4 1 5
: ;
2 1 1

de R R3 : Utilicemos el proceso de ortonormalización de Gram - Schmidt para


que a partir de tal base construir una base ortonormal para R R3 :

Solución: siguiendo el proceso de Gram - Schmidt tenemos que


3 2
1
1
u1 = kv1 k2 1 v1 = p 4 1 5 :
6 2

Luego
2
3 *2 1 3 2 3+ 2 3
1 1 1
v2 hv2 ; u1 i2 u1 = 4 2 5 4 2 5 ; p1 4 1 5 p1 4 1 5
1 1 6 2 6 2
2
2
3 2 3 2 3
1 1 1
54 5 14
= 4 2 5 1 = 7 5;
6 6
1 2 4

de donde
2 3 2 3
p ! 1 1
6 14 1
u2 = kv2 hv2 ; u1 i2 k2 1 (v2 hv2 ; u1 i2 ) = p 7 5= p 4 7 5:
11 6 4 66 4
122 CHAPTER 6. PROYECCIÓN ORTOGONAL

De otro lado,

v3 hv3 ; u1 i2 u1 hv3 ; u2 i2 u2
2
3 2
3 2 3
2 1 1
5 1 5 1
=4 1 5 p p 4 1 5 p p 4 7 5
1 6 6 2 66 66 4
2
3 2 3 2 3 02 3 2 3 2 31
2 1 1 132 55 5
54 5 5 4 1 @4
=4 1 5 1 7 5= 66 5 4 55 5 4 35 5A
6 66 66
1 2 4 66 110 20
2 3 2 3 2 3
72 12 3
1 4 1 4 4 4
= 24 5 = 4 5= 1 5
66 11 11
24 4 1

y así

u3 = kv3 hv3 ; u1 i2 u1 hv3 ; u2 i2 u2 k2 1 (v3 hv3 ; u1 i2 u1 hv3 ; u2 i2 u2 )


! 2 3 2 3
p 3 3
11 4 4 1
= 1 5= p 4 1 5:
4 11 11
1 1

Luego 8 2 3 2 3 2 39
< 1 1
1
1
1
3 =
p 4 1 5; p 4 7 5; p 4 1 5
: 6 66 11 ;
2 4 1
es una base ortonormal de R R3 :

Theorem 154 Sea W un subespacio de dimensión …nita de un espacio con


producto interior (K V; h ; i) y k k la norma inducida por h ; i en K V: En-
tonces
KV = W W ?:

Demostración. Sea v un vector de K V . Como W es de dimensión …nita tiene


una base y por Gram-Schmidt W tiene una base ortonormal, entonces por
Teorema 151 ProyW v existe y por Teorema 152
123

v = ProyW v + ProyW ? v
como ProyW v 2 W y ProyW ? v 2 W ? entonces K V = W + W ? ; más aún,
como W y W ? son subespacios de K V 0 2W \ W ? y si v 2 W \ W ? ;
entonces v es ortogonal a v; así hv; vi = 0; lo que implica que v = 0: Por lo
tanto W \ W ? = f0g : De todo lo anterior K V = W W ? :

Theorem 155 Sea W un subespacio de dimensión …nita de un espacio con


producto interior (K V; h ; i). Entonces existe un único subespacio U de K V
que cumple
KV = W U y W ?U: (6.2)

Demostración. Por el Teorema 154 sabemos que K V = W W ? y por


?
Teorema 136 W ?W : Supongamos que existe otro subespacio U de K V tal
que K V = W U y W ?U: Probaremos que U = W ? : Sea u 2 U; como
KV = W W ? ; entonces u = u1 + u2 con u1 2 W y u2 2 W ? : Luego

0 = hu; u1 i = hu1 + u2 ; u1 i = hu1 ; u1 i + hu2 ; u1 i = hu1 ; u1 i ;

de donde u1 = 0 y así u = u2 2 W ? : Esto muestra que U W ? ; similar-


?
mente se prueba que W U: Luego el único subespacio que de K V que
?
satisface (6.2) es W :

Theorem 156 Sea (K V; h ; i) un espacio con producto interior de dimensión


…nita y W un subespacio de K V . Entonces

(W ? )? = W:

Demostración. Por Teorema 155 el único subespacio U de K V que cumple


?
KV = W U y W ? ?U es U = (W ? )? ; pero K V = W W ? = W ? W
y W ? ?W: Entonces (W ? )? = W:

Theorem 157 (Representación de Riez) Sean (K V; h ; i) un espacio con


producto interior de dimensión …nita y T una transformación lineal de K V
en K K: Entonces, existe un único vector w de K V tal que T (v) = hv; wi
para todo v 2 K V:
124 CHAPTER 6. PROYECCIÓN ORTOGONAL

Demostración. Sea fu1 ; :::; un g una base ortonormal de K V; entonces si


v 2 K V se tiene por Teorema 151 que
X
n
P royK V v = hv; ui i ui ;
j=1

pero como v 2 K V; entonces P royK V v = v; por tanto


X
n
v= hv; ui i ui :
j=1

P
n
Ahora, si w = T (uj ) uj tenemos que
j=1
* + * +
P
n P
n P
n P
n
hv; wi = hv; ui i ui ; T (ui ) ui = hv; ui i ui ; T (uj ) uj
i=1 j=1 i=1 j=1

!
P
n n D
P E
= hv; ui i ui ; T (uj ) uj
i=1 j=1

!
: P
n P
n P
n
= hv; ui i T (uj ) hui ; uj i = hv; ui i T (ui ) hui ; ui i
i=1 j=1 i=1

P
n P
n
= hv; ui i T (ui ) = T (hv; ui i ui )
i=1 i=1

P
n
= T hv; ui i ui = T (v):
i=1

Supongamos ahora que w0 es un vector de K V para el que hv; wi = hv; w0 i


para todo v 2 K V . Entonces hv ; w w0 i = 0 para todo v 2 K V; en
particular hw w0 ; w w0 i = 0; por tanto w w0 = 0 y así w = w0 :

De…nition 61 Sean (K V; h ; i) un espacio con producto interior y W un


subespacio de K V . Si todo vector de K V tiene proyección ortogonal sobre W;
la aplicación E de K V en W que asigna a cada vector de K V su proyección
ortogonal sobre W , se llamará proyección ortogonal de K V sobre W:
125

Theorem 158 Sean (K V; h ; i) un espacio con producto interior, k k la norma


inducida por h ; i en K V , W un subespacio de K V de dimensión …nita y E
la proyección ortogonal de K V sobre W: Entonces la aplicación
E0 : KV ! W?
v 7 ! v E(v)

es la proyección ortogonal de KV sobre W ? :

Demostración. Se sigue del Teorema 152.

Theorem 159 Sean (K V; h ; i) un espacio con producto interior, k k la norma


inducida por h ; i en K V; W un subespacio de K V de dimensión …nita y sea
E la proyección ortogonal de K V sobre W: Entonces E es una transformación
lineal idempotente (es decir, E 2 = E) y W ? es el espacio nulo de E

Demostración. Sea v un vector arbitrario en K V . Entonces E(v) 2 W y


como E(w) = w para todo w 2 W: Por tanto, E 2 (v) = E(E(v)) = E(v)
para todo v 2 K V:
Para demostrar que E es una transformación lineal, sean u y v vectores
cualesquiera de K V y c un elemento arbitrario de K. Probaremos que

cE(u) + E(v)

es la proyección ortogonal de c u + v sobre W : en efecto, por Teorema 149


u E(u) y v E(v) son ambos ortogonales a todo vector de W: Luego si
w 2 W; se tiene que
h(c u + v) (cE(u) + E(v)) , wi = hc (u E(u)) + (v E(v)) , wi

= c hu E(u) ; wi + hv E(v) , wi

= c 0 + 0 = 0:

Por lo anterior E(c u + v) = cE(u)+E(v): Veamos que W ? es el espacio nulo


de E: inicialmente tomemos a v en W ? ; entonces como 0 2 W y 8 w 2 W

hv 0 ; wi = hv ; wi = 0

se sigue que E(v) = 0: Sea ahora v 2 K V tal que E(v) = 0; entonces como
v E(v) 2 W ? y E(v) = 0 se concluye que v 2 W ? : Luego NE = W ? :
126 CHAPTER 6. PROYECCIÓN ORTOGONAL

6.1 TEOREMA FUNDAMENTAL DEL ÁL-


GEBRA LINEAL
Theorem 160 Si A 2Mm n (K); entonces
n
fx 2 KK : Ax = 0g

es un subespacio de K K n : Tal subespacio lo denotaremos por N(A) y lo


llamaremos espacio nulo de A:

Demostración. Ejercicio.

Theorem 161 (Teorema fundamental del Álgebra Lineal) En el espa-


cio con producto interior (R Rn ; h ; i2 ); si A 2Mm n (R) se tiene que

N(A) = (R(AT ))? :

Demostración. Digamos que a1 ; :::; am (en R Rn ) son las columnas de AT ; de


manera que aT1 ; :::; aTm son entonces las …las de A; y sea x 2 R Rn : Como

x 2 N(A) () A x = 0

() aTi x =0 i = 1; :::; m

() x es ortogonal a cada columna de AT

() x es ortogonal al generado de las columnas de AT

() 8 y 2 R(AT ); hx; yi = 0;

entonces
8x 2N(A); 8y 2R(AT ); hx; yi = 0:
Luego N(A)?(R(AT )): Lo anterior implica, por Teorema 137; que

N(A) \ (R(AT )) = f0g :

Veamos ahora que dim N(A)+ dim R(AT ) = n: si A es la matriz cero, en-
tonces el resultado es evidente, ya que en tal caso N(A) = R Rn . Supongamos
que A no es la matriz cero, en consecuencia (A) > 0; sea r = (A): Como
6.1. TEOREMA FUNDAMENTAL DEL ÁLGEBRA LINEAL 127

x = x1 xn 2N(A) si y sólo si x es solución del sistema Ax = 0;


pero como (A) =r se tiene que en A se pueden escoger r …las linealmente
independientes, de tal manera que las …las restantes de A son combinaciones
lineales de las r escogidas, por tanto las ecuaciones correspondientes a las
…las restantes son redundantes (se pueden eliminar) en el sistema, y es por
tal motivo que Ax = 0 es equivalente a un sistema de la forma

Br nx = 0;

donde el subíndice indica el orden de la matriz B: Ahora, en este nuevo


sistema podemos realizar operaciones …la y columna con el …n de reducir tal
sistema a el sistema equivalente

Ir Cr (n r) x = 0;

donde Ir es la matriz identidad de orden r y C es una matriz que sesulta del


proceso de reducción. En conclusión, y 2N(A) si y sólo si y es solución del
sistema reducido anterior. Supongamos que
2 3
c11 c1(n r)
6 .. .. .. 7
C =4 . . . 5;
cr1 cr(n r)

entonces el sistema reducido se puede escribir como:

x1 + c11 xr+1 + + c1(n r) xn= 0


x2 + c21 xr+1 + + c2(n x
r) n = 0
..
.
xr + cr1 xr+1 + + cr(n r) xn = 0

que equivale a
x1 = c11 xr+1 c1(n r) xn
x2 = c21 xr+1 c2(n r) xn
.. ..
. .
xr = cr1 xr+1 cr(n r) xn :
128 CHAPTER 6. PROYECCIÓN ORTOGONAL

Así,
2 3 2 3 2 3 2 3
x1 c11 c12 c1(n r)
6 .. 7 6 .. 7 6 .. 7 6 .. 7
6 . 7 6 . 7 6 . 7 6 . 7
6 7 6 7 6 7 6 7
6 xr 7 6 cr1 7 6 cr2 7 6 cr(n r) 7
6 7 6 7 6 7 6 7
6 xr+1 7 = xr+1 6 1 7 + xr+2 6 0 7+ + xn 6 0 7
6 7 6 7 6 7 6 7
6 xr+2 7 6 0 7 6 1 7 6 0 7
6 . 7 6 7
.. 5 6 .. 7 6 .. 7
4 .. 5 4 . 4 . 5 4 . 5
xn 0 0 1

de donde se hace evidente que los n r vectores


2 3 2 3 2 3
c11 c12 c1(n r)
6 .. 7 6 .. 7 6 .. 7
6 . 7 6 . 7 6 . 7
6 7 6 7 6 7
6 c r1 7 6 c r2 7 6 cr(n r) 7
6 7 6 7 6 7
6 1 7; 6 0 7; ::: ; 6 0 7
6 7 6 7 6 7
6 0 7 6 1 7 6 0 7
6 . 7 6 . 7 6 .. 7
4 .. 5 4 .. 5 4 . 5
0 0 1

son una base para N(A): Por tanto dim N (A) = n (A) = n dim R(AT ):
Como hemos visto, N(A) y (R(AT ) son subespacios de R Rn tales que

N(A) \ (R(AT )) = f0g

y
dim N(A)+ dim R(AT ) = n = dimR Rn ;
por tanto R Rn = N(A) (R(AT )); y como además N(A)?(R(AT )) se sigue
entonces por Teorema 155 que N(A) = (R(AT ))? :

Corollary 10 Si consideramos a R Rn y R Rm con sus respectivos productos


interiores h ; i2 , y A 2 Mn m (R): Entonces
a) N(AT ) = (R(A))? ;
b) (N(A))? =R(AT );
c) (N(AT ))? =R(A):

Demostración. Se sigue inmediatemente del Teorema 161.


6.1. TEOREMA FUNDAMENTAL DEL ÁLGEBRA LINEAL 129

Problemas

1. Sea W un subespacio de dimensión …nita de un espacio con producto


interior (K V; h ; i): Demuestre que para todo v y u de K V

hProyW v , ui = hv , ProyW ui :

2. Considere en R R3 el producto interior usual y su norma inducida. Halle


una base ortonormal de R R3 a partir del vector

[1 1 1]T :

3. Sean (K V; h ; i) un espacio con producto interior, k k la norma en K V


inducida por h ; i ; U un subespacio de K V y fu1 ; :::; un g una base ortonormal
Pn
de U: De…na P :K V ! U con la fórmula P (v) = hv ; ui i ui : Demuestre
i=1
que:
(a) P es una transformación lineal;
(b) P es idenpotente (es decir, P 2 = P );
(c) P (u) = u para todo u 2 U ;
(d) kP (v)k kvk para todo v 2 K V:

4. Dótese a R P2 con el producto interior


Z 1
hp(x) ; q(x)i = p(x)q(x) dx:
0

Considere la norma inducida por tal producto interior y aplique el proceso


de Gram - Schmidt a la base de R P2 f1; x; x2 g para obtener una base orto-
normal de R P2 :

5. ( ) Sea fv1 ; v2 ; :::; vn g un conjunto ortogonal de vectores no nulos en


un espacio con producto interior (K V; h ; i) : Si v es cualquier vector de K V;
pruebe que

X
n
jhv; vk ij2
2 kvk2 (Desigualdad de Bessel)
k=1
kvk k
130 CHAPTER 6. PROYECCIÓN ORTOGONAL

y la igualdad vale si, y solo si, v 2 gen fv1 ; :::; vn g :

6. En R R3 con el producto interior usual, y dado el subespacio


n o
W = [x y z]T : x = y = z

de R R3 . Hallar W ? :

7. Si (K V; h ; i) es un espacio con producto interior y fu1 ; :::; un g es una


base ortonormal de K V: Demuestre que si v 2 K V es tal que hv; ui i = 0 para
i = 1; :::; n; entonces v = 0:

8. Sea K V un espacio vectorial de dimensión …nita y sea h ; i un producto


interior sobre K V: Sea fv1 ; :::; vn g un conjunto ortogonal de vectores no nulos
de K V . Si el único vector ortogonal a cada vector del conjunto fv1 ; :::; vn g
es el vector cero. Puebe que fv1 ; :::; vn g es un base de K V:
Chapter 7

DETERMINANTES

De…nition 62
82 3 9
>
< k1 >
=
n 6 .. 7 : k 2 K
K = 4 . 5 j para j = 1; :::; n
>
: >
;
kn
y
(K n )T = k1 kn : kj 2 K para j = 1; :::; n :

Las columnas de las matrices de Mn (K) pueden verse como elementos de K n


y las …las de las matrices de Mn (K) pueden verse como elementos de (K n )T :

De…nition 63 Una función

D : Mn (K) ! K
A 7 ! D(A)

se dice que es n lineal en Mn (K); si para toda matriz A en Mn (K) cuyas


…las son 1 ; :::; n ; D se puede considerar como función de las …las de A
(D(A) = D( 1 ; :::; n )) y además para s = 1; :::; n, k 2 K y 2 (K n )T se
debe cumplir

D( 1 ; :::; s 1; s +k ; s+1 ; :::; n) =

D( 1 ; :::; n) + k D( 1 ; :::; s 1; ; s+1 ; :::; n ):

131
132 CHAPTER 7. DETERMINANTES

Theorem 162 Si m1 ; :::; mn 2 f1; :::; ng y k0 2 K; entonces

D : Mn (K) ! K
A 7 ! k0 (A)1m1 (A)2m2 (A)nmn

es una función n lineal.

2 3
1
6 7
Demostración. Si A= 4 ... 5 2 Mn (K); = b1 bn 2 (K n )T y
n
k 2 K, entonces
D( 1 ; :::; s 1; s +k ; s+1 ; :::; n)

= k0 a1k1 a(s 1)ks 1 asks + k bks ) a(s+1)ks+1 ankn

= (k0 a1k1 ankn ) + (k k0 a1k1 a(s 1)ks 1 bks a(s+1)ks+1 ankn )

= (k0 a1k1 ankn ) + k (k0 a1k1 a(s 1)ks 1 bks a(s+1)ks+1 ankn )

= D( 1 ; :::; n) + k D( 1 ; :::; s 1; ; s+1 ; :::; n ):

Proposition 2 Una combinación lineal de funciones n lineales en Mn (K)


es también n lineal en Mn (K):

Demostración. Sean c1 ; c2 2 K y D1 ; D2 funciones n lineales en Mn (K):


Veamos que la función c1 D1 + c2 D2 es n lineal en Mn (K): En efecto, si
2 3
1
6 7
A= 4 ... 5 2 Mn (K); 2 (K n )T , k 2 K y s 2 f1; :::; ng
n

tenemos que

(c1 D1 +c2 D2 )( 1 ; :::; s 1; s +k ; s+1 ; :::; n) =


133

(c1 D1 )( 1 ; :::; s 1 ; s + k ; s+1 ; :::; n )


+ (c2 D2 )( 1 ; :::; s 1 ; s + k ; s+1 ; :::; n )

= c1 [D1 ( 1 ; :::; s 1 ; s ; s+1 ; :::; n )


+ k D1 ( 1 ; :::; s 1 ; ; s+1 ; :::; n )]
+ c2 [D2 ( 1 ; :::; s 1 ; s ; s+1 ; :::; n )
+ k D2 ( 1 ; :::; s 1 ; ; s+1 ; :::; n )]

= [c1 D1 ( 1 ; :::; s 1 ; s ; s+1 ; :::; n )


+ k c1 D1 ( 1 ; :::; s 1 ; ; s+1 ; :::; n )]
+ [c2 D2 ( 1 ; :::; s 1 ; s ; s+1 ; :::; n )
+ k c2 D2 ( 1 ; :::; s 1 ; ; s+1 ; :::; n )]

= (c1 D1 + c2 D2 )( 1 ; :::; s 1 ; s ; s+1 ; :::; n )


+ k (c1 D1 + c2 D2 )( 1 ; :::; s 1 ; ; s+1 ; :::; n ):

De…nition 64 Sea D una función n lineal en Mn (K); decimos que D es


una función alternada si se cumplen las siguientes dos propiedades:
i) D(A) = 0 si A tiene dos …las iguales;
ii) si B se obtiene al intercambiar dos …las de A, entonces D(A) = D(B):

Lemma 2 Sea D una función n lineal en Mn (K): Si D tiene la propiedad


de que D(A) = 0; siempre que dos …las adyacentes de A sean iguales, en-
tonces D es alternada.

Demostración. Supongamos
2 inicialmente que B se obtiene al intercambiar
3
1
6 7
las …las i e i + 1 de A= 4 ... 5 2 Mn (K): Probaremos que D(A) = D(B) :
n
por hipótesis
0 = D( 1 ; :::; i 1; i + i+1 ; i + i+1 ; i+2 ; :::; n)
" "
posición i posición i+1

= D( 1 ; :::; i 1 ; i ; i ; i+2 ; :::; n)+ D( 1 ; :::; i 1; i; i+1 ; i+2 ; :::; n)


+ D( 1 ; :::; i 1 ; i+1 ; i ; i+2 ; :::; n )
+D( 1 ; :::; i 1 ; i+1 ; i+1 ; i+2 ; :::; n )

= 0 + D(A) + D(B)+0;
de donde D(A) = D(B):
134 CHAPTER 7. DETERMINANTES

Ahora, si B se obtiene al intercambiar en A las …las i y j con i < j, entonces


se puede obtener B de A por medio de una sucesión …nita de intercambios
de pares de …las adyacentes. Se comienza intercambiando la …la i con la …la
i + 1 y continuando hasta que las …las queden el el orden siguiente:

1 ; :::; i 2; i 1; i+1 ; i+2 ; :::; j 1; j; i; j+1 ; j+2 ; :::; n

esto requiere de j i intercambios de …la adyacentes. Se mueve ahora j a


la posición i haciendo j i 1 intercambios de …las adyacentes, con lo que

D(B) = ( 1)2(j i) 1
D(A) = D(A):

Veamos ahora que si la matriz A tiene dos …las iguales i y j con i < j;
entonces D(A) = 0 : si j = i + 1 D(A) = 0 por hipótesis. Si j > i + 1
se intercambian las …las j e i + 1; entonces la matriz resultante B tiene dos
…las adyacente iguales, por tanto D(B) = 0; pero D(A) = D(B), y así
D(A) = 0:

De…nition 65 Sea D una función n lineal en Mn (K); decimos que D es


una función determinante si D es alternada y D(In ) = 1:

Notación. Si n > 1 y A2Mn (K); denotaremos por A(inj) a la matriz


(n 1) (n 1) que se obtiene al eliminar la …la i y la columna j de A.

Theorem 163 Sea n > 1 y sea D una función (n 1) lineal en Mn 1 (K)


alternada. Entonces para t = 1; :::; n; la función Et de…nida por:

Et : Mn (K) ! K
P
n
A= [aij ] 7 ! ( 1)i+t ait D(A(int))
i=1

es n lineal en Mn (K) y alternada. Si además D es una función determi-


nante, entonces también lo es Et para t = 1; :::; n:

Demostración. 2Si t 2 3
f1; :::; ng probaremos que Et es n lineal: sea A2Mn (K)
1
6 7
con A= [aij ] = 4 ... 5, y para i = 1; :::; n sean i = [ai1 ai2 ain ],
n
135

T
bn ] 2 (K n )T ,
t
i = ai1 ai(t 1) ai(t+1) ain 2 (K n 1 ) , = [b1 b2
t T
= [b1 bt 1 bt+1 bn ] 2 (K n 1 ) , c 2 K, s 2 f1; :::; ng,
2 3 2 3
1 1
6 .. 7 6 .. 7
6 . 7 6 . 7
6 7 6 7
B = [bij ] = 6 s+c 7 y D = [dij ] = 6 7 posición s:
6 .. 7 6 .. 7
4 . 5 4 . 5
n n
Luego
X
n
Et ( 1 ; :::; s + c ; :::; n ) = Et (B) = ( 1)i+t bit D(B(int));
i=1

luego si de la última sumatoria extraemos el s ésimo sumando tenemos que


X
n X
n
i+t s+t
( 1) bit D(B(int)) = ( 1) bst D(B(snt)) + ( 1)i+t bit D(B(int));
i=1 i=1;i6=s

y como bst = ast + cbt entonces


P
n
( 1)s+t bst D(B(snt)) + ( 1)i+t bit D(B(int))
i=1;i6=s

P
n
= ( 1)s+t (ast + cbt )D(B(snt)) + ( 1)i+t bit D(B(int))
i=1;i6=s

P
n
= ( 1)s+t ast D(B(snt)) + c( 1)s+t bt D(B(snt)) + ( 1)i+t bit D(B(int));
i=1;i6=s

pero como A y D se diferencia de B solamente en la …la s se tiene entonces que


D(B(snt)) = D(A(snt)) y D(B(snt)) = D(D(snt)); además bt es el elemento
de D en la …la s columna t; es decir bt = dst : Luego
P
n
( 1)s+t ast D(B(snt)) + c( 1)s+t bt D(B(snt)) + ( 1)i+t bit D(B(int))
i=1;i6=s

P
n
= ( 1)s+t ast D(A(snt)) + c( 1)s+t dst D(D(snt)) + ( 1)i+t bit D(B(int)):
i=1;i6=s
136 CHAPTER 7. DETERMINANTES

Nótese ahora que para i 6= s

D(B(int)) = D( t
1 ; :::;
t
i 1;
t
i+1 ; :::;
t
s 1;
t
s + c t; t
s+1 ; :::;
t
n );

donde hemos abusado en la escritura al hubicar la posición i antes que la posi-


ción s; ya que i también toma valores mayores que s (cuando s < n): Luego
por la (n 1) linealidad de D tenemos que

D( t
1 ; :::;
t
i 1;
t
i+1 ; :::;
t
s 1;
t
s + c t; t
s+1 ; :::;
t
n)

t t t t t t t t t t
= D( 1 ; :::; i 1; i+1 ; :::; s ; :::; n) + cD( 1 ; :::; i 1; i+1 ; :::; ; :::; n)

= D(A(int)) + cD(D(int)):

Y así
P
n
( 1)s+t ast D(A(snt)) + c( 1)s+t dst D(D(snt)) + ( 1)i+t bit D(B(int))
i=1;i6=s

= ( 1)s+t ast D(A(snt)) + c( 1)s+t dst D(D(snt))

P
n
+ ( 1)i+t bit (D(A(int)) + cD(D(int)))
i=1;i6=s

= ( 1)s+t ast D(A(snt)) + c( 1)s+t dst D(D(snt))

P
n P
n
+ ( 1)i+t bit D(A(int)) + c ( 1)i+t bit D(D(int))
i=1;i6=s i=1;i6=s

P
n P
n
= ( 1)i+t bit D(A(int)) + c ( 1)i+t bit D(D(int)) = Et (A) + cEt (D)
i=1 i=1

= Et ( 1 ; :::; s ; :::; n) + cEt ( 1 ; :::; ; :::; n ):

Por lo anterior Et es n lineal. 2 3


1
6 7
Veamos ahora que Et es alternada: sea A2Mn (K), A= 4 ... 5 y s = s+1

n
con s 2 f1; :::; n 1g ; es decir, A es una matriz con dos …las adyacentes
137

iguales. Entonces
P
n
Et (A) = ( 1)i+t ait D(A(int))
i=1

y como A(int) tiene dos …las iguales si i 6= s o i 6= s + 1, luego por ser D


alternada

Et (A) = ( 1)s+t ast D(A(snt)) + ( 1)(s+1)+t a(s+1)t D(A((s + 1)nt)):

Ahora, como la …la s de A es igual a la …la s + 1 de A; entonces ast = a(s+1)t


y A(snt) =A(s + 1nt), por tanto

( 1)s+t ast D(A(snt)) + ( 1)(s+1)+t a(s+1)t D(A((s + 1)nt))

= ( 1)s+t ast D(A(snt)) ( 1)s+t ast D(A(snt)) = 0:

Luego por Lema 2 Et es alternada.


Veamos ahora que si D es determinante, entonces Et también lo es: sea
In = [eij ] ; donde eij = 0 si i 6= j y eij = 1 si i = j: Entonces
P
n
Et (In ) = ( 1)i+t eit D(In (int));
i=1

pero eit = 0 si i 6= t; por tanto

Et (In ) = ( 1)t+t ett D(In (tnt));

y como ( 1)t+1 = 1, ett = 1 y D(In (tnt)) = 1 por ser D una función deter-
minante, entonces
Et (In ) = (1)(1)(1) = 1:
Luego Et es una función determinante.

Theorem 164 Existe al menos una función determinante en Mn (K):

Demostración. Por inducción sobre el tamaño de las matrices.


n = 1 : de…namos
D1 : M1 (K) ! K
A= [a] 7 ! a
138 CHAPTER 7. DETERMINANTES

entonces para (b) 2 (K 1 )T y c 2 K tenemos que

D1 ((a) + c(b)) = D(a + cb) = a + cb = D1 (a) + cD1 (b);

por tanto D1 es 1 limeal : De otro lado D1 es trivialmente alternada. Y


además D1 ([1]) = 1: Por todo lo anterior D1 es una función determinante en
M1 (K).
Si suponemos, como hipótesis de inducción, que existe una función determi-
nante Dn 1 en Mn 1 (K): Entonces por Teorema 163

Et : Mn (K) ! K
P
n
A= [aij ] 7 ! ( 1)i+t ait Dn 1 (A(int))
i=1

es una función determinante en Mn (K) para t = 1; :::; n:

De…nition 66 Sea Jn = f1; 2; :::; ng. Una biyección : Jn ! Jn se dice


una permutación de grado n: El símbolo Sn representará al conjunto de
todas las permutaciones de grado n.

Una permutación de grado n se acostumbra a representar por la expresión

1 2 n
=
(1) (2) (n)

o en la forma compacta

= ( (1) (2) (n)):

Por ejemplo, la permutación

: J4 ! J4
1 7 ! (1) = 2
2 7 ! (2) = 4
3 7 ! (3) = 1
4 7 ! (4) = 3

queda representada en forma compacta por = (2 4 1 3):

De…nition 67 La permutación = (1 2 3 (n 1) n) de Sn se denomina


permutación identidad.
139

De…nition 68 En una permutación 2 Sn se dice que ha ocurrido una


invesión siempre que en la lista ( (1) (2) (n)) un número mayor está
a la izquierda de uno menor.

Example 20 En S5 1 = (5 1 2 3 4); 5 está a la izquierda de 1; 2; 3 y 4; y


5 es mayor que cada uno de ellos. Además no existe otro número en la lista
que tenga números menores que él a su derecha. Luego se concluye que en
1 han ocurrido o hay 4 inversiones.

Example 21 En S5 2 = (1 3 5 2 4) tenemos que:


respecto a 1 nunca hay inversiones;
respecto a 2 no hay inversiones;
respecto a 3 hay una inversión;
respecto a 4 no hay inversiones;
respecto a 5 hay dos inversiones.
Luego en 2 hay 1 + 2 = 3 inversiones.

De…nition 69 Si en una permutación = ( (1) (2) (n)) de Sn han


ocurrido m inversiones, entonces si m es un número par decimos que es
una permutación par, y si m es un número impar decimos que es una
permutación impar (recordemos que 0 es par).

Remark 3 Después de un análisis riguroso se llega a la conclusión de que


el número de inversiones que ocurren en una permutación es igual al número
mínimo de intercambios de números adyacentes en la lista ( (1) (2)
(n)); que corresponde a la permutación ; para llegar a (1 2 n); la cual
corresponde a la permutación identidad.

De…nition 70 Se de…ne el signo de una permutación 2 Sn como

1 si es par
sgn( ) =
1 si es impar

A continuación presentaremos dos proposiciones que desnudan el espíritu del


Teorema 166.

Proposition 3 Sólo hay una función determinante en M1 (K):


140 CHAPTER 7. DETERMINANTES

Demostración. Si D es una función determinante en M1 (K) se tiene que


D([1]) = 1 y para toda matriz A = [a] 2 M1 (K)

D(A) = D([a]) = D([a 1]) = aD([1]) = a 1 = a:

Luego existe una única función determinante en M1 (K) y ella es

D : M1 (K) ! K
:
A = [a] 7 ! a

Theorem 165 Sólo hay una función determinante en M2 (K):

Demostración. Supongamos que D es una función determinante en M2 (K),


1 a11 a12
I2 = la matriz identidad de orden 2 escrita por …las y A =
2 a21 a22
una matriz cualquiera de M2 (K); entonces

D(A) = D([a11 a12 ] ; [a21 a22 ])

= D(a11 1 + a12 2 , a21 1 + a22 2 )

= a11 a21 D( 1 ; 1 ) + a11 a22 D( 1 ; 2 ) + a12 a21 D( 2 ; 1 ) + a12 a22 D( 2 ; 2 )

= a11 a22 D( 1 ; 2 ) + a12 a21 D( 2 ; 1 )

= a11 a22 a12 a21 :

Luego la única función determinante en M2 (K) es

D : M2 (K) ! K
a11 a12
A= 7 ! a11 a22 a12 a21
a21 a22

Theorem 166 Existe una única función determinante en Mn (K):

Demostración. Sea D : Mn (K) ! una función determinante. Sean


2 K 3
1
6 7
además A 2 Mn (K) con A= [aij ] = 4 ... 5
n
141
2 3
1
6 7
donde i es la …la i ésima de A, e In = 4 ... 5 donde i es la …la i ésima
n
de In : Luego para i = 1; :::; n tenemos que
X
n

i = ai1 1 + ai2 2 + + ain n = aiki ki :


ki =1

Luego

D(A) = D( 1; 2 ; :::; n)

P
n P
n P
n
= D( a1k1 k1 ; a2k2 k2 ; :::; ankn kn )
k1 =1 k2 =1 kn =1

P
n P
n P
n
= (a1k1 a2k2 ankn D( k1 ; k2 ; :::; kn ))
k1 =1 k2 =1 kn =1

como D es alternada, entonces D( k1 ; k2 ; :::; kn ) = 0 si en la lista (k1 ; k2 ; :::; kn )


hay elementos repetidos. Entonces
X
D(A) = a1k1 a2k2 ankn D( k1 ; k2 ; :::; kn );
=(k1 ;k2 ;:::;kn )2Sn

pero según la Nota 3

D( k1 ; k2 ; :::; kn ) = sgn( = (k1 ; k2 ; :::; kn ))D( 1 ; 2 ; :::; n)

= sgn( = (k1 ; k2 ; :::; kn )):

Así
X X
D(A) = sgn( ) a1k1 ankn = sgn( ) a1 (1) an (n):
=(k1 ;:::;kn )2Sn 2Sn

Y por tanto, la única función determinante en Mn (K) es

D : Mn (K) ! P K
A = [aij ] 7 ! sgn( )a1 (1) a2 (2) an (n)
2Sn
142 CHAPTER 7. DETERMINANTES

Remark 4 A la única función determinante en Mn (K) se notará det :

Example 22 Hallemos det A si A = [aij ] 2 M4 (K) : para tal cuestión con-


sideremos la siguiente tabla

# inv sgn( ) # inv sgn( )


(1 2 3 4) 0 + (3 1 2 4) 2 +
(1 2 4 3) 1 (3 1 4 2) 3
(1 3 2 4) 1 (3 2 1 4) 3
(1 3 4 2) 2 + (3 2 4 1) 4 +
(1 4 2 3) 2 + (3 4 1 2) 4 +
(1 4 3 2) 3 (3 4 2 1) 5
(2 1 4 3) 2 + (4 1 3 2) 4 +
(2 1 3 4) 1 (4 1 2 3) 3
(2 3 1 4) 2 + (4 2 3 1) 5
(2 3 4 1) 3 (4 2 1 3) 4 +
(2 4 1 3) 3 (4 3 2 1) 6 +
(2 4 3 1) 4 + (4 3 1 2) 5

# inv : número de inversiones


Luego

det(A) = a11 a22 a33 a44 a11 a22 a34 a43 a11 a23 a32 a44 +
a11 a23 a34 a42 + a11 a24 a32 a43 a11 a24 a33 a42 +
a12 a21 a34 a43 a12 a21 a33 a44 + a12 a23 a31 a44
a12 a23 a34 a41 a12 a24 a31 a43 + a12 a24 a33 a41 +
a13 a21 a32 a44 a13 a21 a34 a42 a13 a22 a31 a44 +
a13 a22 a34 a41 + a13 a24 a31 a42 a13 a24 a32 a41 +
a14 a21 a33 a42 a14 a21 a32 a43 a14 a22 a33 a41 +
a14 a22 a31 a43 + a14 a23 a32 a41 a14 a23 a31 a42 :

Theorem 167 Si D es una función alternada en Mn (K), entonces para toda


matriz A 2Mn (K) se tiene que

D(A) = D(In ) det(A) :

Demostración. En la prueba del Teorema 166 vimos, usando la última no-


143

tación, que si D es alternada


P
D(A) = 2Sn sgn( ) a1 (1) a2 (2) an (n): D( 1 ; 2 ; :::; n)

P
= D( 1 ; 2 ; :::; n) 2Sn sgn( ) a1 (1) a2 (2) an (n):

= D(In ) det(A):
Theorem 168 Si A; B 2 Mn (K); entonces det(AB) = det(A) det(B):
Demostración. Sean A; B 2 Mn (K). De…namos la función
D : Mn (K) ! K
M 7 ! det(MB)
y veamos inicialmente que D es alternada:
2 3 sean 2 (K n )T ; c 2 K; s 2
1
6 7
f1; 2; :::; ng, y supongamos que M = 4 ... 5 es cualquier matriz de Mn (K)
n
escrita por …las. Entonces
D( 1 ; :::; s + c ; :::; n) =
02 3 1 02 31
1 1B
B6 .. 7 C B6 .. 7C
B6 . 7 C B6 . 7C
B6 + c 7 C B6 ( + c )B 7C
det B6 s 7 C
B = det B6 s 7C
B6 .. 7 C B6 .. 7C
@4 . 5 A @4 . 5A
n nB
02 31
1B
B6 .. 7C
B6 . 7C
B6 B + c B 7C
= det B6 s 7C
B6 .. 7C
@4 . 5A
nB

= det( 1 B; :::; sB + c B; :::; n B)

= det( 1 B; :::; s B; :::; n B) + c det( 1 B; :::; B; :::; n B)

= D( 1 ; :::; s ; :::; n) + c D( 1 ; :::; ; :::; n ):


144 CHAPTER 7. DETERMINANTES
2 3
1
6 7
Luego D es n lineal. Supongamos que M = 4 ... 5 tiene dos …las iguales,
n
sean ellas las …las i y j con i < j: Entonces

D(M) = det(MB) = det( 1 B; :::; i B; :::; j B; :::; n B)


= det( 1 B; :::; i B; :::; i B; :::; n B) = 0:
2 3
1
6 7
Ahora, si M = 4 ... 5 2 Mn (K) y E es la matriz que se obtiene al inter-
n
cambiar las …las i y j de M con i < j, entonces

D(M) = det(MB) = det( 1 B; :::; i B; :::; j B; :::; n B)


= det( 1 B; :::; j B; :::; i B; :::; n B) = D(M):

Por todo lo anterior D es una función alternada. Y por Teorema 167

det(AB) = D(A) = det(A) D(In ) = det(A) det(In B)

= det(A) det(B):

De…nition 71 Si x 2 Cn f0g, la matriz de Householder de orden n,


Hx ; se de…ne como
2
Hx = In xxH :
xH x

Theorem 169 det(Hx ) = 1:

Demostración. Tomemos a x y completemos una base fx; x2 ; :::; xn g para


n
C C , luego a tal base le aplicamos el proceso de ortogonalización de Gram -
0 0
Schmidt para obtener una base ortogonal x; x2 ; :::; xn de C Cn (obviamente
estamos considerando el producto interior de…nido en C Cn por la fórmula
145

0 0
hx; yi = yH x). Ahora, sea A = x x2 xn 2 Mn (C), entonces

2
det(Hx ) det(A) = det(Hx A) = det((In xxH ) A)
xH x

2 0 0
= det(A xxH x x2 xn )
xH x

2 h 0
i
0
= det(A xxH x xxH x2 xxH xn )
xH x

2
= det(A xxH x x0 x0 )
xH x

2
= det(A xxH x 0 0 )
xH x
0 0
= det( x x2 xn [2x 0 0])
2 3
xT
6 0
x2T 7
0 0 6 7
= det( x x2 xn ) = det(6 .. 7)
4 . 5
0
xnT
2 3
xT
6 x2T
0
7
6 7
= det(6 .. 7) = det(AT ) = det(A):
4 . 5
0
xnT

Luego det(Hx ) = 1:

Theorem 170 Si A 2 Mn (K) es invertible, entonces det(A) 6= 0 y


1
det(A 1 ) = :
det(A)
Demostración.

1 = det(In ) = det(A A 1 ) = det(A) det(A 1 );


146 CHAPTER 7. DETERMINANTES

1
de donde se sigue que det(A) 6= 0 y det(A 1 ) 6= 0 y que det(A 1 ) = :
det(A)

De…nition 72 Dos matrices A; B 2Mn (K) se dicen semejantes si existe


una matriz invertible P tal que A = P 1 BP:

Theorem 171 Si A; B 2Mn (K) son semejantes, entonces det(A) = det(B):

Demostración. Como A y B son semejantes, entonces existe una matriz


invertible P tal que A = P 1 BP: Luego
1
det(A) = det(P 1 BP) = det(P 1 ) det(B) det(P) = det(B) det(P)
det(P)
= det(B):

Theorem 172 Si ; 2 Sn ; entonces

(sgn( )) (sgn( )) = sgn( ):

Demostración. Como la composición de biyecciones es biyección, entonces


; 2 Sn implica ( ) 2 Sn y por lo tanto tiene sentido hablar de sgn( ):
Para j = 1; :::; n sea j la …la j ésima de la matriz identidad n n con
entradas en el campo K: Luego las matrices escritas por …las
2 3 2 3
(1) (1)
6 .. 7 6 .. 7
A=4 . 5 yB=4 . 5
(n) (n)

son tales que0det(A)


2 =1sgn( ) y det(B) = sgn( ) (aún mas, si
3 2 Sn ;
(1)
B6 .. 7C
entonces det @4 . 5A = sgn( )). Como A y B tienen un 1 en cada …la
(n)
y cada columna y 0 en las demás posiciones, entonces AB también goza de
esa propiedad. Dado que la …la i de A es (i) ; en la cual su único elemento no
nulo 1 está en la posición (i); es por tanto que el único elemento no nulo 1
de la …la i de AB se obtiene al multiplicar la …la i de A por la única columna
de B que tiene un 1 en la posición (i); pero ese 1 está al mismo tiempo en
la …la (i) de B que es ( (i)) . Por tanto el único elemento no nulo 1 de la
147

…la i de AB se obtiene al multiplicar la …la i de A por2la columna


3 ( (i))
( )(1)
6 .. 7
de B; en consecuencia la …la i de AB es ( (i)) y AB = 4 . 5 : Y por
( )(n)
Teorema 168

(sgn( )) (sgn( )) = det(A) det(B) = det(AB) = sgn( ):

Theorem 173 Si A = [aij ] 2 Mn (K), entonces det(A) = det(AT ):

Demostración. Para toda 2 Sn existe 1 en Sn y si 1 6= 2 están en Sn


entonces 1 1 6= 2 1 : Además por Teorema 172 tenemos que
1 1
1 = sgn(Id) = sgn( ) = sgn( ) sgn( );

entonces sgn( ) = sgn( 1 ); y puesto que cuando recorre todo Sn 1

también lo hace, tenemos entonces que


P P 1
det(A) = sgn( )a1 (1) an (n) = sgn( )a1 1 (1) an 1 (n) ;
2Sn 1 2S
n

pero 8 2 Sn tenemos, reordenando adecuadamente y teniendo muy presente


que es biyección, que

a1 1 (1) an 1 (n) =a (1) 1( (1)) a (n) 1( (n)) =a (1)1 a (n)n ;

entonces
P 1
P
sgn( )a1 1 (1) an 1 (n) = sgn( )a (1)1 a (n)n
1 2S 2Sn
n

= det(AT ):

Theorem 174 Si A = [aij ] 2 Mn (K) es una matriz triangular, entonces


det(A) = a11 a22 a33 ann :

Demostración. Supongamos que A es una matriz triangular superior, en-


tonces aij = 0 si i < j: Como para toda permutación = ( 1 ; :::; n ) 2 Sn
148 CHAPTER 7. DETERMINANTES

que no sea la permutación identidad existe t 2 f1; :::; ng tal que t < (t);
que implica que at (t) = 0: Entonces si Id es la permutación identidad
P
det(A) = 2Sn sgn( )a1 (1) a2 (2) an (n)
2 3
P
= 4 sgn( )a1 (1) a2 (2) an (n)
5 + sgn(Id) a11 a22 ann
2Sn
6=Id

= 0 + a11 a22 a33 ann = a11 a22 a33 ann :


Por otra parte, si A es triangular superior, entonces AT es triangular superior
y por Teorema 173 det(A) = det(AT ) = a11 a22 a33 ann :
Theorem 175 Si A 2 Mn (K) y tiene una …la o una columna nula, entonces
det(A) = 0:
Demostración. Supongamos que A tiene una …la nula, entonces existe i 2
f1; :::; ng tal que ai1 = ai2 = = ain = 0; entonces para toda 2 Sn se
tiene que ai (i) = 0: Luego
X
det(A) = sgn( )a1 (1) a2 (2) an (n) = 0:
2Sn

Ahora, si A tiene una columna nula, entonces AT tiene una …la nula y por
tanto det(AT ) = 0; pero det(A) = det(AT ); entonces det(A) = 0:
Theorem 176 Si B se obtiene de A = [aij ] 2 Mn (K) al multiplicar una …la
de A por un escalar c 6= 0; entonces
det(B) =c det(A):
Demostración. Si 1 ; :::; n son las …las de A, entonces
det(B) = det( 1 ; :::; c i ; :::; n) = c det( 1 ; :::; i ; :::; n)

= c det(A):
Theorem 177 Si B se obtiene de A 2 Mn (K) por adición de un múltiplo
de una …la de A a otra …la de A (o un múltiplo de una columna de A a otra
columna de A), entonces
det(B) = det(A):
149
2 3
1
6 7
Demostración. Si A = 4 ... 5 está escrita por …las, i; j 2 f1; :::; ng, i < j,
n
c 2 K y B se obtiene al sumar c veces la …la i de A a la …la j de A; entonces

det(B) = det( 1 ; :::; i ; :::; j +c i ; :::; n)

= det( 1 ; :::; i ; :::; j ; :::; n) + c det( 1 ; :::; i ; :::; i ; :::; n)

= det(A) + c0 = det(A):

Ahora, si B se obtiene al sumar c veces la columna i de A a la columna j de


A; entonces
det(B) = det(BT ) = det(AT ) = det(A);
donde la primera y la tercera igualdad se dan por el Teorema 173 y la segunda
igualdad se dá por que BT se obtiene al sumar c veces la …la i de AT a la
…la j de AT :

Example 23 Hallemos
02 31
0 1 2
det @4 2 4 6 5A :
2 8 4

Aplicando las propiedades del determinante y los Teoremas 176, 177 y 174
tenemos que
02 31 02 31 02 31
0 1 2 2 4 6 1 2 3
det @4 2 4 6 5A = det @4 0 1 2 5A = 2 det @4 0 1 2 5A
2 8 4 2 8 4 2 8 4
02 31
1 2 3
= 2 det @ 4 0 1 2 5A
0 4 2
02 31
1 2 3
= 2 det @4 0 1 2 5A = ( 2)( 10) = 20:
0 0 10
150 CHAPTER 7. DETERMINANTES

7.1 COFACTORES Y ADJUNTAS


Según los Teoremas 164 , 166 y la de…nición de determinante se tiene que
para toda matriz A = [aij ] 2Mn (K) y para toda t = 1; :::; n
X
n
det(A) = ( 1)i+t ait det(A(int)); (7.1)
i=1

donde det(A) es el determinante de la matriz A n n y det(A(int)) es el


determinante de la matriz A(int) que es (n 1) (n 1): La fórmula (7.1)
se conoce como desarrollo del determinante de A por la t ésima columna
de A. El escalar ( 1)i+t det(A(int)) se suele llamar cofactor i; t de A y se
denota Cit : Así las cosas,
X
n
det(A) = ait Cit : (7.2)
i=1

(7.2) se conoce como un desarrollo del determinante de A por cofactores y


por la t ésima columna. Tenemos entonces n fórmulas para el determinante
de A en desarrollo por columnas, pero dado que det(A) = det(AT ) y que las
columnas de AT son las …las de A; entonces los n desarrollos del det(AT )
por columnas son desarrollos del determinante de A por sus …las. En conse-
cuencia tenemos un total de 2n desarrollos (ó fórmulas) para el determinante
de cualquier matriz de orden n: Ahora, si k 2 f1; :::; ng con k 6= t y B = [bij ]
es la matriz que se obtiene al remplazar la columna t de A por la columna k
de A; entonces B tiene dos …las iguales y B(int)) = A(int) para i = 1; :::; n.
Luego desarrollando el determinante de B por su columna t ésima tenemos
que
P P
0 = det(B) = ni=1 ( 1)i+t bit det(B(int)) = ni=1 ( 1)i+t aik det(A(int))
Pn
= i=1 aik Cit :
En resumen 8
X
n < det(A) si k = t
aik Cit = (7.3)
:
i=1 0 si k 6= t
A la matriz C = [Cij ] se le conoce como matriz de cofactores de A y a la
transpuesta de la matriz de cofactores se le llama la matriz adjunta de A
y se denota Adj(A):
7.1. COFACTORES Y ADJUNTAS 151

Theorem 178 Si A = [aij ] 2Mn (K) y det(A) 6= 0; entonces A es invertible


y
1
A 1= Adj(A):
det(A)

Demostración. Por (7.3) A(Adj(A)) = det(A)In ; de donde


1
A Adj(A) = In ;
det(A)

luego
1 1
A = Adj(A):
det(A)
Finalizamos este capítulo demostrando las fórmulas de Cramer para re-
solver un sistema de ecuaciones lineales.

Theorem 179 Sea A = [aij ] 2Mn (K) con det(A) 6= 0 y b 2 K n : Entonces


la única solucion del sistema Ax = b está dada por

det(Bi )
xi =
det(A)

para i = 1; :::; n; donde Bi es la matriz que se obtiene al quitarle la i ésima


columna a A y colocar en su lugar a b:

Demostración. Ax = b , xT AT = bT , y si T
1 ; :::;
T
n son las columnas de A
(las T signi…can transposición). Entonces

det(Bi ) = det((Bi )T ) = det( 1 ; :::; i 1; b


T
; i+1 ; :::; n)

= det( 1 ; :::; i 1 ; x1 1 + + xn n; i+1 ; :::; n)

P
n
= xk det( 1 ; :::; i 1; k; i+1 ; :::; n)
k=1

= xi det( 1 ; :::; i 1; i; i+1 ; :::; n) = xi det(AT ) = xi det(A):

Problemas
152 CHAPTER 7. DETERMINANTES

1. Demuestre que Sn tiene n! elementos.


P
En los jercicios del 1 al 7 utilice la fórmula det(A) = sgn( )a1 (1) an (n)
2Sn
para:

2. Hallar 02 31
1 3 2
det @ 4 3 2 1 5A :
4 0 3

3. Hallar 02 31
0 a b
det @ 4 a 0 c 5A :
b c 0

4. Si xi 6= xj cuando i 6= j. Demuestre que el determinante de la matriz de


Vandermonde (n + 1) (n + 1)
2 3
1 x0 x20 xn0 2 xn0 1
xn0
6 1 x1 x2 xn1 2 xn1 1
xn1 7
6 1 7
6 .. .. 7
4 . . 5
1 xn x2n xnn 2 xnn 1 n
xn
Q
es igual a (xi xj ):
0 j<i n

5. Hallar 02 31
a11 a12 a13
det @4 a21 a22 a23 5A :
a31 a32 a33

6. Hallar 02 31
2 3 2 4
B6 3 2 1 2 7C
det B 6
@4 3
7C
2 3 4 5A
2 4 0 5
Respuesta: -286.
7.1. COFACTORES Y ADJUNTAS 153

7. Hallar 02 31
a11 a12 a13 a14
B6 a21 a22 a23 a24 7C
det B 6
@4 a31
7C :
a32 a33 a34 5A
a41 a42 a43 a44

8. Si A 2 Mn (C). Demuestre que det( A) = ( 1)n det(A):

9. ( ) Si
2 3
1 n
6 n+1 2n 7
6 7
A =6 .. .. . 7 2 Mn (K); n 3:
4 . . .. 5
(n 1)n + 1 n2

Demuestre que det (A) = 0:


154 CHAPTER 7. DETERMINANTES
Chapter 8

VALORES Y VECTORES
PROPIOS

8.1 VALORES Y VECTORES PROPIOS


De…nition 73 Sea A 2 Mn (C). Un escalar 2 C es un valor propio de
A si existe x 2 Cn , x 6= 0 tal que Ax = x: Ahora, si Ax = x con x 6= 0;
entonces x es un vector propio de A asociado al valor propio :

Example 24 El número real 2 es un valor propio de la matriz


2 3
2 0 1
A =4 5 1 2 5 2 M3 (C);
3 2 5=4
2 3
1
ya que 4 3 5 2 C3 f0g y
4
2 32 3 2 3 2 3
2 0 1 1 2 1
4 5 1 2 54 3 5=4 6 5= 24 3 5:
3 2 5=4 4 8 4
2 3
1
Además 4 3 5 es un vector propio de A asociado al valor propio 2:
4

155
156 CHAPTER 8. VALORES Y VECTORES PROPIOS

De…nition 74 Si A 2 Mn (C) el espectro de A es


Spec A = f 2 C : es un valor propio de Ag :
Notación: el símbolo C [x] denotará al conjunto de todos los polinomios en
la variable x y coe…cientes en C y para todo p(x) 2 C [x] el símbolo grd(p(x))
denotará al grado del polinomio p(x):

La evaluación de un polinomio p(x) = a0 + a1 x + + at xt 2 C [x] en una


matriz A 2 Mn (C) es la matriz
p(A) = a0 In + a1 A+ + at At ;
donde Ai para todo i = 1; :::; t es el producto usual de matrices de A con
sigo misma i veces.
Theorem 180 Sean p(x) 2 C [x], un valor propio de la matriz A 2 Mn (C)
y x es un vector propio de A asociado a : Entonces p( ) es un valor propio
de la matriz p(A) y x es un vector propio de p(A) asociado al valor propio
p( ):
Demostración. Supongamos que p(x) = a0 + a1 x + + at xt ; entonces
p(A)x = a0 x + a1 Ax+ + at At x;
pero Aj x = Aj 1 Ax = Aj 1 x = Aj 1 x = = j x para todo j = 1; :::; t:
Luego
p(A)x = a0 x + a1 x+ + at t x = p( )x:
Theorem 181 Sea A 2 Mn (C) y un valor propio de A: Entonces
EA ( ) = fx 2 Cn : Ax = xg
es un subespacio de C Cn :
Demostración. Claramente A0 = 0; por tanto 0 2 EA ( ): Ahora, si x; y 2
EA ( ) y k 2 K; entonces
A(kx + y) = kAx + Ay = k x + y = (kx + y);
por tanto (kx + y) 2 EA ( ): Luego EA ( ) es un subespacio de C Cn :

Nótese que EA ( ) es igual a f0g unido con el conjunto formado por todos
los vectores propios de A asociados al valor propio :
8.1. VALORES Y VECTORES PROPIOS 157

De…nition 75 El subespacio de C Cn ; EA ( ); que aparece en el Teorema 181


se denomina subespacio propio de A asociado al valor propio : Además,
dim EA ( ) se llamará la multiplicidad geométrica del valor propio de
A:

De la de…nición de vector propio es claro que EA ( ) tiene al menos un vector


no nulo, por tanto dim EA ( ) 1:

Theorem 182 Sea A 2Mn (C): Entonces = 0 es un valor propio de A si


y sólo si A es no invertible.

Demostración. = 0 es un valor propio de A si y sólo si existe x 2 (Cn f0g)


tal que Ax = 0x = 0; y esto último, según Teorema 85, equivale a que A es
no invertible.

Theorem 183 Sea A 2Mn (C): Entonces A es invertible si y sólo si ningún


valor propio de A es cero.

Demostración. Se sigue inmediatamente del Teorema 182.

Theorem 184 Si A; B 2 Mn (C): Entonces Spec(AB) = Spec(BA):

Demostración. Probaremos inicialmente que todo valor propio de AB es


valor propio de BA: Sea un valor de AB; entonces existe x 2 (Cn f0g)
tal que ABx = x: Si 6= 0; entonces Bx 6= 0; ya que de no ser así

x = ABx = A(Bx) = A 0 = 0;

lo cual contradice que 6= 0 y x 6= 0: Luego si y = Bx se tiene que y 6= 0 y

BAy = BABx = B x = Bx = y;

entonces es un valor propio de BA: Ahora, si = 0 se sigue del Teorema


182 que AB es no invertible, por tanto

0 = det(AB) = det(A) det(B) = det(B) det(A) = det(BA):

Luego BA es no invertible y de nuevo por Teorema 182 se sigue que = 0


es un valor propio de BA:
De manera similar se prueba que todo valor propio de BA es valor propio de
AB:
158 CHAPTER 8. VALORES Y VECTORES PROPIOS

Theorem 185 Si A 2 Mn (C) es una matriz invertible. Entonces es un


valor propio de A si y sólo si 1 es un valor propio de A 1 :

Demostración. Puesto que A es invertible ninguno de sus valores propios es


cero. Luego 2 C es un valor propio de A; si y sólo si, existe x 2 (Cn f0g)
tal que Ax = x; si y sólo si, existe x 2 (Cn f0g) tal que A 1 Ax = A 1 x;
si y sólo si, existe x 2 (Cn f0g) tal que A 1 x = 1 x; si y sólo si, 1 es
un valor propio de A 1 :

Theorem 186 Si A 2 Mn (C) es una matriz invertible. Entonces para todo


2 Spec(A) se tiene que
1
EA ( ) = EA 1 ( ):

Demostración. Es claro que, por ser EA ( ) y EA 1 ( 1 ) subespacios de C Cn ;


0 2 EA ( ) y 0 2 EA 1 ( 1 ): Ahora, en la demostración del Teorema 185 se
observa que x 2 (Cn f0g) es un vector propio de A asociado al valor propio
, si y sólo si, x es un vector propio de A 1 asociado al valor propio 1 : Así
EA ( ) = EA 1 ( 1 ):

Problemas

1. ( ) Si A 2Mn (C), 2 Spec A, x es un vector propio de A asociado a ,


1
2 C f g y In A es invertible. Demuestre que x = ( In A) 1 x:

2. Si A = [aij ] 2Mn (C) y s 2 f1; :::; ng es un númer …jo. Demuestre que si


asj = 0 para j = 1; :::; s 1; s + 1; :::; n, entonces ass es un valor propio de A:

3. Si Spec A = f 1; 2g ; A 2 M2 (C); determine Spec A2 :

4. Si diag (d11 ; d22 ; ::: ; dnn ) 2 Mn (C); determine SpecD:

5. Si A 2Mn (C) es tal que la suma de los elementos de cada …la de A es 1;


pruebe que 1 2 Spec(A): Aún más, pruebe que si la suma de los elementos
de cada …la de B 2Mn (C) es siempre igual a 2 C, entonces 2 SpecB.

6. Si A 2Mn (C) es una matriz invertible tal que la suma de los elementos
de cada …la de A es siempre igual a 1; pruebe la suma de los elementos de
cada …la de A 1 es también igual a 1:
8.2. POLINOMIO CARACTERÍSTICO 159

7. Una matriz A 2Mn (C) es idempotente si A2 = A. Pruebe que cada


valor propio de una matriz idempotente es igual a 0 o 1:

8. Una matriz A 2Mn (C) es nilpotente si Aq = 0 para algún entero positivo


q: Pruebe que todos los valores propios de una matriz nilpotente son 0. En
el proceso, muestre una matriz no nula que tenga a todos sus valores propios
iguales a 0:

9. Si A 2 Mn (R) y 2 R es un valor propio de A: Demuestre que existe


x 2 ( (Rn f0g) \ EA ( ) ):

10. Sea A 2Mn (C) con un conjunto de n vectores propios fx1 ; :::; xn g lineal-
mente independiente. Sean Axi = i xi para i = 1; :::; n y P la matriz cuyas
columnas son, en su orden, x1 ; :::; xn : ¿ Cómo es P 1 AP ?

11. Si alguna de las matrices A o B de Mn (C) es invertible, demuestre que


In AB tiene los mismos valores propios de In BA:

12. Si A 2 Mn (C): Demuestre que para todo número complejo


dim fx 2 Cn : Ax = xg = n ( In A):

8.2 POLINOMIO CARACTERÍSTICO


Theorem 187 Sea A 2Mn (C): Entonces 2 C es un valor propio de A si
y sólo si det( In A) = 0:
Demostración.
es valor propio de A , 9x 2 (Cn f0g) : A x = x

, 9x 2 (Cn f0g) : ( In A)x = 0

, ( In A) es no invertible (Teorema 85)

, det( In A) = 0:
160 CHAPTER 8. VALORES Y VECTORES PROPIOS

De…nition 76 Sea A 2Mn (C): El polinomio característico de A; PA ( );


es el polinomio en la variable dado por

PA ( ) = det( In A):

La expresión PA ( ) = 0 se llama la ecuación característica de A:

Según el resultado del Teorama 187 2 C es un valor propio de A 2 Mn (C)


si y sólo si es solución de la ecuación característica de A; si y sólo si es
una raiz de PA ( ):

De…nition 77 Si es un valor propio de la matriz A; entonces el número de


veces que se repita como raiz de PA ( ) será la multiplicidad algebraica
del valor propio de A:

Presentamos a continuación algunos ejemplos que ilustran la forma como se


pueden hallar valores propios y espacios propios, inspirada en el resultado
del Teorema 187.

Example 25 Encuentre los valores propios y los espacios propios de la ma-


triz
2 12
A= :
1 5

Solución. La ecuación característica de A es


2 12 2
det( In A) = det = + 3 + 2 = ( + 1)( + 2) = 0;
1 +5

con lo que se obtienen 1 = 1 y 2 = 2 como los valores propios de A:


Para determinar los valores propios correspondientes se resuelven los sistemas
homogéneos ( 1 I2 A)x = 0 y ( 2 I2 A)x = 0 : para 1 = 1; la matriz
de coe…cientes es
1 2 12 3 12
( 1)I2 A= = ;
1 1+5 1 4

que se reduce por …las a


1 4
:
0 0
8.2. POLINOMIO CARACTERÍSTICO 161

Por consiguiente, x1 4x2 = 0: Se concluye que todo vector propio de A


asociado a 1 = 1 es de la forma

x1 4x2 4
x= = = x2 ; x2 6= 0:
x2 x2 1

4
Luego EA ( 1 ) = gen : Para 2 = 2; la matriz de coe…cientes es
1

2 2 12 4 12
( 2)I2 A= = ;
1 2+5 1 3

que se reduce por …las a


1 3
:
0 0
Por consiguiente, x1 3x2 = 0: Luego todo vector propio de A asociado a
1 = 2 es de la forma

x1 3x2 3
x= = = x2 ; x2 6= 0:
x2 x2 1

3
Luego EA ( 2 ) = gen :
1

Example 26 Encuentre los valores propios y los espacios propios de la ma-


triz 2 3
2 1 0
A =4 0 2 0 5:
0 0 2

Solución. La ecuación característica de A es


02 31
2 1 0
det( In A) = det @4 0 2 0 5A = ( 2)3 = 0:
0 0 2

Por tanto, 1 = 2 es el único valor propio de A: Ahora,


2 3
0 1 0
2I3 A = 0 4 0 0 5
0 0 0
162 CHAPTER 8. VALORES Y VECTORES PROPIOS

implica que x2 = 0: Con lo que x1 y x3 están libres. Luego todo vector propio
de A asociado a 1 = 2 es de la forma
2 3 2 3 2 3 2 3
x1 x1 1 0
4
x = x2 = 5 4 0 5 = x1 0 + x3 0 5 :
4 5 4
x3 x3 0 1
82 3 2 39
< 1 0 =
Luego EA ( 1 ) = gen 4 0 ;5 4 0 5 :
: ;
0 1

Example 27 Encuentre los valores propios y los espacios propios de la ma-


triz 2 3
1 0 0 0
6 0 1 5 10 7
A =6 4 1 0 2
7:
0 5
1 0 0 3

Solución. La ecuación característica de A es


02 31
1 0 0 0
B6 0 1 5 10 7 C
det( In A) = det B @4
6 7C
1 0 2 0 5A
1 0 0 3

= ( 1)2 ( 2)( 3) = 0:

Así los valores propios de A son 1 = 1; 2 = 2 y 3 = 3: Una base para el


espacio propio de 1 = 1 se encuentra como sigue:
2 3
0 0 0 0
6 0 0 5 10 7
(1)I3 A = 64 1 0
7
1 0 5
1 0 0 2

y se reduce a la matriz 2 3
1 0 0 2
6 0 0 1 2 7
6 7:
4 0 0 0 0 5
0 0 0 0
8.2. POLINOMIO CARACTERÍSTICO 163

Lo cual implica que x1 + 2x4 = 0 y x3 2x4 = 0; y x2 está libre. Así, todo


vector propio de A asociado a 1 = 1 es de la forma
2 3 2 3 2 3 2 3
x1 2x4 0 2
6 x2 7 6 x2 7 6 7 6 7
x=6 7=6 7 = x2 6 1 7 + x4 6 0 7 :
4 x3 5 4 2x4 5 4 0 5 4 2 5
x4 x4 0 1
82 3 2 39
>
> 0 2 >
>
< 6 1 7 6 0 7=
6
Luego EA ( 1 ) = gen 4 5 ; 4 7 6 7 :
>
> 0 2 5>
>
: ;
0 1
Para 2 = 2 y 3 = 3 se sigue el mismo patrón para obtener que
82 39 82 39
>
> 0 > > 0 >
<6 7> = >
<6 >
7=
6 5 7 6 5 7
EA ( 2 ) = gen 4 5 y que EA ( 3 ) = gen 4 :
>
> 1 > > >
> 0 5> >
: ; : ;
0 1

Theorem 188 Si A = [aij ] 2 Mn (C) y


n n
PA ( ) = det( In A) = an + an 1 + + a1 + a0 ;
P
n
entonces a0 = ( 1)n det(A), an 1 = aii y an = 1:
i=1

Demostración. det( In A) es igual a la suma de todos los productos posi-


bles (con signos adecuados) de los elementos de In A; en donde en cada
producto debe haber exactamente un elemento de cada …la y un elemento de
cada columna de In A: El único producto en el que aparece más veces
como factor es
( a11 ) ( a22 ) ( ann )
y está precedido por un signo +: De allí que PA ( ) es un polinomio de grado
n y que an = 1: De otro lado, el término independiente de PA ( ) es igual a
PA (0): Así,

a0 = PA (0) = det(0In A) = det( A) = ( 1)n det (A):

Para …nalizar, el único producto en el desarrollo de det( In A) que puede


tener a n 1 es ( a11 ) ( a22 ) ( ann ); ésto por la condición de
164 CHAPTER 8. VALORES Y VECTORES PROPIOS

que en cada producto debe haber exactamente un elemento de cada …la y


un elemento de cada columna de In A; evidentemente el coe…ciente que
acompaña a n 1 en ese producto es

X
n
an 1 = aii = tr (A):
i=1

Si A 2 Mn (C), hemos probado que PA ( ) es un polinomio de grado n en la


variable y tiene sus coe…cientes en C, entonces por el Teorema Funda-
mental del Álgebra PA ( ) tiene n ceros en C no necesariamente distintos;
en consecuencia, toda matriz A 2 Mn (C) tiene exactamente n valores propios
no necesariamente distintos y todos ellos en C:

Theorem 189 Si A 2 Mn (C). Entonces det(A) es igual al producto de los


n valores propios de A:

Demostración.
n 1 n
PA ( ) = det( In A) =a0 + a1 + + an 1 + :

Por Teorema 188 a0 = ( 1)n det(A): De otro lado, si 1 ; :::; n son los valores
propios de A; entonces éstos valores propios son las raíces de PA ( ) y puesto
que PA ( ) es mónico se puede factorizar como

PA ( ) = ( 1 )( 2) ( n ):

De donde es claro que el término independiente de PA ( ),

a0 = PA (0) = ( 1 )( 2) ( n) = ( 1)n det(A):

Por todo lo anterior det(A) = 1 2 n:

Theorem 190 Sean A; B 2Mn (C): Si A y B son semejantes, entonces A


y B tienen el mismo polinomio característico, y por tanto los mismos valores
propios con las mismas multiplicicades algebraicas respectivas y la misma
traza.
8.3. LOCALIZACIÓN DE VALORES PROPIOS 165

Demotración. Como A y B son semejantes, existe P 2Mn (C) invertible tal


que A = P 1 BP; luego

PA ( ) = det( In A) = det( In P 1 BP)

1
= det(P In P P 1 BP) = det(P 1 ( In B)P)

= det(P 1 ) det( In B) det(P) = det( In B) = PB ( ):

Problemas

1. Demuestre que el polinomio característico de la matriz nula de Mn (C) es


n
:

2. Demuestre que los valores propios de una matriz triangular son los ele-
mentos de su diagonal principal.

3. Si A 2 Mn (C). Demuestre que A y AT tienen los mismos valores propios.

4. ( ) Demuestre que existen matrices no nulas en Mn (C) cuyo polinomio


característico es n :
p
5. (p) Si A 2 Mn (C) y 2 R+ es un valor propio de A2 : Demuestre que
o es valor propio de A:

6. ( ) Si A; B 2Mn (C); n > 1 y PA ( ) = PB ( ): Demuestre que no nece-


sariamente A y B son semejantes.

8.3 LOCALIZACIÓN DE VALORES


PROPIOS
En la literatura sobre localización de valores propios hay una multitud de
teoremas que indican de forma burda dónde se sitúan los valores propios de
una matriz en el plano complejo. El más famoso de ellos es el Teorema de
Gershgorin, el cual presentamos más adelante.
166 CHAPTER 8. VALORES Y VECTORES PROPIOS

De…nition 78 Si A 2 Mn (C), el radio espectral de A es el número real


no negativo
rad(A) = max fj j : 2 Spec Ag :

El radio espectral de una matriz A 2 Mn (C) es justamente el radio del disco


más pequeño centrado en el origen del plano complejo que contiene a todos
los valores propios de A:

Theorem 191 Si A 2 Mn (C); 2 Spec A y k k es una norma en C Cn ;


entonces existe x 2 C Cn f0g tal que x es un vector propio de A asociado
a con kxk = 1:
1
Demostración. Sea y un vector propio de A asociado a y sea x = kyk y;
entonces
kxk = kyk 1 y = kyk 1 kyk = 1
y además

Ax = A(kyk 1 y) = kyk 1 Ay = kyk 1


y = (kyk 1 y) = x:

Theorem 192 (Teorema de Gershgorin) Si A = [aij ] 2 Mn (C); entonces


Spec A está contenido en la unión de los siguientes n discos de Gersh-
gorin, Di ; en el plano complejo:
( )
Xn
Di = z 2 C : jz aii j jaij j (1 i n):
j=1; j6=i

Demostración. Sea un valor propio de A. Elijamos x = [x1 xn ]T un


vector propio de A asociado al valor propio tal que kxk1 = 1: Sea i 2
f1; :::; ng para el cual jxi j = 1: Entonces Ax = x implica que

X
n
xi = aij xj ;
j=1

luego
X
n
( aii )xi = aij xj :
j=1; j6=i
8.3. LOCALIZACIÓN DE VALORES PROPIOS 167

Tomando módulos, aplicando la desigualdad triangular y utilizando las de-


sigualdades jxj j 1 = jxi j para j 6= i; tenemos que
X
n X
n
j aii j jaij j jxj j jaij j ;
j=1; j6=i j=1; j6=i

de modo que 2 Di :

Problemas

1. Halle los discos de Gershgorin para la matriz


2 3
1 + i 0 1=4
A = 4 1=4 1 1=4 5
1 1 3
y dedusca a partir de ello que todos los valores propios de A satisfacen la
desigualdad 12 j j 5:

2. Demuestre que los valores propios de una matriz A = [aij ] 2Mn (C) se
encuentran en la intersección de los siguientes conjuntos D y E :
( )
[
n Xn
D= z 2 C : jz aii j jaij j
i=1 j=1; j6=i
( )
[
n X
n
E= z 2 C : jz aii j jaji j :
i=1 j=1; j6=i

3. Si A = [aij ] 2Mn (C), entonces


( )
X
n X
n
rad(A) m{n max jaij j ; max jaij j :
i j
j=1 i=1

4. Demuestre, sin calcularlos, que los valores propios de la matriz


2 3
6 2 1
4 1 5 0 5
2 1 4
168 CHAPTER 8. VALORES Y VECTORES PROPIOS

satisfacen la desigualdad 1 j j 9:

5. Demuestre que las partes imaginarias de los valores propios de la matriz


2 3
3 1=3 2=3
4 1 4 0 5
1=2 1=2 1

están situadas en el intervalo [ 1 ; 1] :

8.4 VALORES PROPIOS E


INDEPENDENCIA LINEAL
Theorem 193 Sea A 2 Mn (C). Supongamos que 1 ; 2 ; :::; r son valores
propios distintos de A y si x1 ; x2 ; :::; xr son vectores propios de A asocia-
dos a 1 ; 2 ; :::; r respectivamente, entonces fx1 ; x2 ; :::; xs g es linealmente
independiente en C Cn para todo s = 1; :::; r:

Demostración. Como x1 6= 0; entonces fx1 g es linealmente independiente.


Supongamos que para s 2 f1; :::; r 1g se ha demostrado que el conjunto
fx1 ; x2 ; :::; xs g es linealmente independiente. Luego si c1 ; :::; cs ; cs+1 2 C son
tales que c1 x1 + + cs xs + cs+1 xs+1 = 0,
) A(c1 x1 + + cs+1 xs+1 ) = 0 y s+1 (c1 x1 + + cs+1 xs+1 ) = 0

) c1 Ax1 + + cs+1 Axs+1 = 0 y c1 s+1 x1 + + cs+1 s+1 xs+1 ) =0

) c1 1 x1 + + cs+1 s+1 xs+1 = 0 y c1 s+1 x1 + + cs+1 s+1 xs+1 ) =0

) c1 ( 1 s+1 )x1 + + cs ( s s+1 )xs =0

) c1 = = cs = 0. (fx1 ; x2 ; :::; xs g es linealmente independiente)


Como c1 x1 + + cs xs + cs+1 xs+1 = 0; entonces cs+1 xs+1 = 0; lo que implica
que cs+1 = 0: Esto muestra que x1 ; :::; xs+1 es linealmente independiente
en C Cn .

Corollary 11 Sean 1 ; :::; r valores propios distintos de A 2Mn (C): Si para


cada i 2 f1; :::; rg Si es un conjunto linealmente independiente de vectores
8.4. VALORES PROPIOS E INDEPENDENCIA LINEAL 169

propios de A asociados a i ; entonces S = S1 [ [Sr es todavía un conjunto


linealmente independiente.
Demostración. Para i = 1; :::; r sea Si = xi1 ; :::; xiki un conjunto lineal-
mente independiente de vectores propios de la matriz A asociados al valor
propio i : Si c11 ; :::; c1k1 ; :::; cr1 ; :::; crkr 2 C son tales que
c11 x11 + + c1k1 x1k1 + + cr1 xr1 + + xrkr = 0:
Entonces haciendo xi = ci1 xi1 + + ciki xiki para i = 1; :::; r se tiene que
x1 + + xr = 0;
pero xi 2 EA ( i ) para i = 1; :::; r y por Teorema 193 la única posibilidad
para cada xi es la de ser el vector cero. Luego para i = 1; :::; r ci1 xi1 + +
ciki xiki = 0 y como xi1 ; :::; xiki es linealmente independiente se tiene que
ci1 = = ciki = 0: Así c11 = = c1k1 = = cr1 = = crkr = 0 y S es
un conjunto linealmente independiente.
Theorem 194 Sea A 2 Mn (C) y i un valor propio de A. Entonces
multiplicidad geométrica de i multiplicidad algebraica de i:

Demostración. Sea d = dim(EA ( i )). Tomemos una base fx1 ; :::; xd g de


EA ( i ); la completamos hasta una base B = fx1 ; :::; xd ; xd+1 ; :::; xn g de C Cn
y consideremos la matriz
P = [x1 xd xd+1 xn ] :
De las igualdades Ax1 = i x1 ; :::, Axd = i xd se sigue que
A [x1 xd xd+1 xn ] = [ i x1 i xd Axd+1 Axn ] ;
| {z }
P
esto es
2 3
..
6 i . 7
6 .. .. 7
6 . . B 7
6 .. 7
6 . 7
AP = [x1 xd xd+1 xn ] 6
6
i 7
7
4 5
..
0 . C
| {z }
D
170 CHAPTER 8. VALORES Y VECTORES PROPIOS

para ciertas matrices Bd (n d) y C(n d) (n d) ; y como P es invertible,

P 1 AP = D:

A y D (por ser semejantes) tienen el mismo polinomio característico, así que


d
PA ( ) = PD ( ) = ( i) det( In d C)

por tanto i es un valor propio de A, de multiplicidad algebraica por lo menos


d:

8.5 MATRICES DIAGONALIZABLES


De…nition 79 Una matriz A 2 Mn (C) es diagonalizable si es semejante
a una matriz diagonal.
2 3
3 1 0
Example 28 La matriz A = 4 1 2 1 5 es diagonalizable, ya que la
2 3 0 1 3
1 1 1
4
matriz P = 2 0 1 5 es invertible y
1 1 1
2 32 32 3
1=6 2=6 1=6 3 1 0 1 1 1
P 1 AP = 4 3=6 0=6 3=6 5 4 1 2 1 54 2 0 1 5
2=6 2=6 2=6 0 1 3 1 1 1

= diag(1; 3; 4):

Theorem 195 Si A 2 Mn (C) y A tiene n valores propios distintos, entonces


A es diagonalizable.

Demostración. Sean 1 ; :::; n los valores propios de A y x1 ; :::; xn vec-


tores propios de A asociados a 1 ; :::; n respectivamente. Como i 6= j
si i 6= j; entonces fx1 ; :::; xn g es linealmente independiente, entonces la ma-
triz P = [x1 xn ] es invertible. Si para i = 1; :::; n yiT es la …la i de P 1 ;
entonces
0 si p 6= q
ypT xq =
1 si p = q
8.5. MATRICES DIAGONALIZABLES 171

y
P 1 AP = P 1
[Ax1 Axn ] = P 1
[ 1 x1 n xn ]

2 3 2 3
y1T y1T 1 x1 y1T n xn
6 7 6 7
= 4 ... 5 [ 1 x1 n xn ] =4 ..
.
... ..
. 5
ynT ynT 1 x1 ynT n xn

= diag( 1 ; :::; n ):

Lemma 3 Sean A 2 Mn (C) y 1 ; :::; r los valores propios distintos de A


con r > 1, entonces ningún vector propio de A puede estar asociado a valores
propios distintos de A:

Demostración. Si suponemos que x es un vector propio de A asociado a


valores propios distintos i y j de A con i 6= j ; entonces i 6= j y x 6= 0
implican ( i 6 0: Pero
j )x =

( i j )x = ix jx = Ax Ax = 0;

lo cual es contradictorio. Luego ningún vector propio de A puede estar


asociado a valores propios distintos de A:

Theorem 196 Sean A 2 Mn (C) y 1 ; :::; r los valores propios distintos de


A; entonces las siguientes a…rmaciones son equivalentes:
i) A es diagonalizable;
ii) existe una base de C Cn formada por vectores propios de A;
iii) para i = 1; :::; r dim(EA ( i )) es igual a la multiplicidad algebraica, mi ;
de i como valor propio de A:

Demostración. i) ) ii) Si existen P = [x1 xn ] 2 Mn (C) invertible y


1
D =diag(d1 ; :::; dn ) 2 Mn (C) tales que P AP = D; entonces AP = PD.
Luego
AP = [Ax1 Axn ] = PD

= [x1 xn ] diag(d1 ; :::; dn ) = [d1 x1 dn xn ] ;

de donde Axi = di xi para i = 1; :::; n, por tanto x1 ,...,xn son vectores propios
de A asociados a los valores propios d1 ; :::; dn de A; respectivamente. Como
172 CHAPTER 8. VALORES Y VECTORES PROPIOS

P es invertible fx1 ; :::; xn g es un conjunto linealmente independiente de n


vectores de C Cn y como dim C Cn = n; entonces fx1 ; :::; xn g es una base de
n
C C y está formada por vectores propios de A:
ii) ) iii) Supongamos que existe una base, fx1 ; :::; xn g ; de C Cn formada
por vectores propios de A: Si para i = 1; :::; r si es el número de vectores en
fx1 ; :::; xn g asociados al valor propio i ; entonces
n = s1 + s2 + + sr :
Pero, para i = 1; :::; r si dim(EA ( i )) mi , ningún vector propio de A
puede estar asociado a más de un valor propio de A y
n = m1 + m2 + + mr :
Entonces si = dim(EA ( i )) = mi para i = 1; :::; r:
iii) ) i) Supongamos que dim(EA ( i )) = mi para i = 1; :::; r: Luego podemos
tomar para i = 1; :::; r mi vectores propios de A xi1 ; :::; ximi asociados al valor
propio i de A que formen un conjunto linealmente independiente, entonces
por Corolario 11
fx11 ; :::; x1m1 ; x21 ; :::; x2m2 ; :::; xr1 ; :::; xrmr g
es un conjunto linealmente independiente de n vectores propios de A; en
consecuencia
P = [x11 x1m1 x21 x2m2 xr1 xrmr ]
2T
3
y11
6 7
es una matriz invertible en Mn (C): Si P 1
= 4 ... 5 tenemos
T
yrm r

P 1 AP = P 1
[Ax11 Axrmr ] = P 1
[ 1 x11 r xrmr ]

2 T
3
y11
6 7
= 4 ... 5 [ 1 x11 r xrmr ] = diag( 1 ; :::; 1 ; :::; r ; :::; r ):
T
yrm r

Por tanto A es diagonalizable.

Problemas

1. Si A 2 Mn (C) es semejante a diag( 1 ; :::; n ); entonces para toda 2 Sn


A es semejante a diag( (1) ; :::; (n) ):
8.6. MATRICES HERMITIANAS Y VALORES PROPIOS 173

8.6 MATRICES HERMITIANAS Y


VALORES PROPIOS
Theorem 197 Los valores propios de una matriz hermitiana son reales.

Demostración. Sean A 2 Mn (C) una matriz hermitiana y un valor propio


de A: Si x es un valor propio de A asociado al valor propio , entonces

hx , xi2 = h x , xi2 = hAx , xi2

= hx , Axi2 = hx , xi2 = hx , xi2 :

Luego como hx , xi2 6= 0 se tiene que = y por tanto 2 R:

Theorem 198 Si A 2 Mn (C) es hermitiana y i; j son valores propios


distintos de A: Entonces EA ( i ) ? EA ( j ):

Demostración. Sean x 2 EA ( i ) y y 2 EA ( j ); entonces

i hx , yi2 = h i x , yi2 = hAx , yi2 = hx , Ayi2

= hx , j yi2 = j hx , yi2 = j hx , yi2 ;

de donde ( i j ) hx , yi2 = 0; pero i 6= j ; entonces hx , yi2 = 0 y así


x?y: Como x es arbitrario en EA ( i ) e y es arbitrario en EA ( j ) se sigue
que EA ( i ) ? EA ( j ):

8.7 MATRICES NORMALES Y VALORES


PROPIOS
Theorem 199 Si A 2 Mn (C) es normal, entonces para cada valor propio
de A se tiene que es un valor propio de AH : Aún más, EA ( ) = EAH ( )
para todo 2 Spec(A):

Demostración. Sea 2 Spec(A) y x 2 EA ( ) un vector no nulo. Entonces


Ax = x y
174 CHAPTER 8. VALORES Y VECTORES PROPIOS

2
AH x x 2
= AH x x ; AH x x 2

= AH x ; AH x 2
AH x ; x 2
x ; AH x 2
+ x; x 2

= AAH x ; x 2
x; Ax 2
Ax ; x 2
+ x; x 2

= AH Ax ; x 2
x; x 2
x; x 2
+ x; x 2

= hAx ; Axi2 hx ; xi2 hx ; xi2 + hx ; xi2

= h x; xi2 hx ; xi2 hx ; xi2 + hx ; xi2

= hx ; xi2 hx ; xi2 hx ; xi2 + hx ; xi2 = 0:


De donde AH x x = 0 y por tanto AH x = x: Lo anterior nos dice que
2 Spec(AH ) y x 2 EAH ( ): Como 0 está tanto en EA ( ) como en EAH ( );
se sigue que EA ( ) EAH ( ): De manera similar se puede probar la otra
contenencia para obtener la igualdad buscada.
Theorem 200 Si A 2 Mn (C) es normal y 1; 2 son valores propios distin-
tos de A: Entonces EA ( 1 )?EA ( 2 ):
Demostración. Como el vector cero es ortogonal a cualquier vector, sólo resta
probar que si x; y son vectores no nulos en EA ( 1 ) y EA ( 2 ) respectivamente,
entonces x?y: En efecto,
( 1 2 ) hx ; yi = h( 1 2 )x ; yi = h 1 x ; yi h 2 x ; yi

= h 1 x ; yi x; 2y = hAx ; yi x ; AH y

= hAx ; yi hAx ; yi = 0:
Como 1 2 6= 0 se concluye que hx ; yi = 0:

8.8 MATRICES UNITARIAS Y VECTORES


PROPIOS
Theorem 201 Si U 2 Mn (C) es una matriz unitaria y u es una columna
de U: Entonces kuk2 = 1:
8.8. MATRICES UNITARIAS Y VECTORES PROPIOS 175

Demostración.
UH U = In ) uH u =1 ) hu ; ui2 = 1

) kuk22 = 1 ) kuk2 = 1:

Theorem 202 Una matriz U 2 Mn (C) es unitaria si y sólo si sus columnas


forman una base ortonormal de C Cn :

Demostración. Para i = 1; :::; n sea ui la columna i ésima de U: Entonces


U es unitaria si y sólo si UH U = In ; lo cual equivale a que (ui )H uj es 0 si
i 6= j y 1 si i = j: Esto último también equivale a que fu1 ; :::; un g es una
base ortonormal de C Cn :

Theorem 203 Si U 2 Mn (C) es una matriz unitaria y x 2 C Cn : Entonces


kUxk2 = kxk2 :

Demostración.

kUxk22 = hUx ; Uxi2 = (Ux)H Ux = xH UH Ux = xH x = kxk22 :

Luego kUxk2 = kxk2 :

Theorem 204 Si U 2 Mn (C) es una matriz unitaria y es un valor propio


de U: Entonces j j = 1:

Demostración. Sea x un vector propio de U asociado al valor propio ;


entonces
kxk2 = kUxk2 = k xk2 = j j kxk2 :
Luego j j = 1:

Otra demostración. Sea x un vector propio de U asociado al valor propio


con kxk2 = 1; entonces

j j2 = = kxk2 = xH x = xH x =( x)H x

= (Ux)H Ux = x H UH U x = x H In x = x H x

= hx ; xi2 = kxk22 = 1:
Luego j j = 1:
176 CHAPTER 8. VALORES Y VECTORES PROPIOS

Theorem 205 Si U 2 Mn (C) es una matriz unitaria. Entonces

jdet(U)j = 1:

Demostración. Si 1 ; :::; n son los valores propios de U; entonces por Teo-


rema 189 det(U) = 1 n y por Teorema 204 j i j = 1 para i = 1; :::; n:
Luego
jdet(U)j = j 1 nj =j 1 j j nj =1 1 = 1:

Lemma 4 Sean x, y dos vectores de C Cn tales que kxk2 = kyk2 y hx ; yi2


es real. Entonces existe una matriz unitaria U 2 Mn (C) tal que Ux = y:
p
Demostración. Sean z =c(x y); donde c = 2= kx yk2 , y U = In z zH :
Entonces

UUH = (In z zH )(In z zH )H = (In z zH )(In z zH )

= In 2 z zH + z zH z zH = In 2 z zH + z (zH z) zH

= In 2 z zH + (zH z) z zH = In (2 zH z) z zH
pero

zH z = c(xH yH ) c(x y) = c2 (xH x xH y yH x + yH y)

2
= (kxk22 h y ; xi2 hx ; yi2 + kyk22 )
kx yk22

2 2
= 2 (kxk2 h y ; xi2 hx ; yi2 + kyk22 )
kx yk2

2
= kx yk22 = 2
kx yk22

y así UUH = In ; es decir, U es unitaria. De otro lado

Ux y = (In z zH )x y =x z zH x y

= x y c2 (x y)(xH yH )x = (x y) 1 c2 (xH x yH x)
8.8. MATRICES UNITARIAS Y VECTORES PROPIOS 177

pero por hipótesis xH x = yH y y yH x = xH y; entonces


1 2
1 c2 (xH x yH x) = 1 2
c (xH x + xH x yH x yH x)

1 2
= 1 2
c (xH x + yH y yH x xH y)

= 1 1 2
2
c (xH yH )(x y) = 1 1 2
2
c kx yk22 = 0:
Y en consecuencia Ux = y:

De…nition 80 Una matriz A 2 Mn (C) es unitariamente semejante a


una matriz B 2 Mn (C); si existe U 2 Mn (C) unitaria tal que

A = U 1 BU = UH BU:

Theorem 206 Una matriz A 2 Mn (C) es unitariamente semejante a una


matriz diagonal si y sólo si es normal.

Demostración. (() Supongamos que existen U; D en Mn (C) con U unitaria


y D diagonal tales que D = UH AU: Entonces

AH A = (UDUH )H (UDUH ) = UDH UH UDUH

= UDH DUH = UDDH UH = UDUH UDH UH

= (UDUH )(UDUH )H = A AH :
Luego A es normal.
()) Supongamos ahora que AH A = AAH y sean U; T en Mn (C) con U
unitaria y T = [tij ] triangular superior tales que T = UH AU; entonces

TH T = (UH AU)H UH AU = UH AH UUH AU

= UH AH AU = UH AAH U = UH AUUH AH U

= (UH AU)(UH AU)H = TH T:

Luego para cada i = 1; :::; n el elemento en la posición (i; i) de TH T es igual


al elemento en la posición (i; i) de TTH : Se sigue entonces que

jt11 j2 = jt11 j2 + jt12 j2 + + jt1n j2 ;


178 CHAPTER 8. VALORES Y VECTORES PROPIOS

de donde t1j = 0 para j = 2; :::; n; igualando ahora los elementos en la


posición (2; 2); se obtiene
jt12 j2 + jt22 j2 = jt22 j2 + jt23 j2 + + jt2n j2
de donde t2j = 0 para j = 3; :::; n: Continuando de esta forma encontramos
que T es diagonal.

Problemas

1. Si x = [x1 xn ]T 2 Cn y kxk2 = 1: Demuestre que para cada i = 1; :::; n


existe una matriz unitaria Ui 2 Mn (C) que tiene a x como su columna
i ésima.

2. Si U 2 Mn (C) es una matriz unitaria y x; y 2 C Cn : Entonces


hx ; yi2 = 0 , hUx ; Uyi2 = 0:

8.9 LEMA DE SCHUR


Theorem 207 (Lema de Schur) Toda matriz A 2 Mn (C) es unitaria-
mente semejante a una matriz triangular superior.
Demostración. Procederemos por inducción sobre n; el orden de la matriz
A: El teorema es trivial cuando n = 1: Supongamos que el teorema ya se
demostró para todas las matrices de orden n 1; y consideremos una matriz
A de orden n: Sea un valor propio de A; y x = [x1 x2 xn ]T un vector
propio de A asociado a con kxk2 = 1: Sea c = x1 = jx1 j si x1 6= 0 ó c = 1 si
x1 = 0: Como kxk2 = 1 = kc e1 k2 y hx ; c e1 i2 = c x1 2 R, entonces por Lema
4 existe una matriz unitaria U 2 Mn (C) tal que Ux =c e1 : Dado que U es
unitaria, U 1 = UH y c 1 x = UH e1 ;por tanto
UAUH e1 = UAc 1 x =c 1
Ux =c 1
ce1 = e1 :
Esto demuestra que la primera columna de UAUH es e1 : Sea A e la matriz
que se obtiene al eliminar en UAUH la primera …la y la primera columna.
Por hipótesis de inducción, existe una matriz unitaria Q 2 Mn 1 (C) tal que
e H es triangular superior de orden n 1. La matriz
QAQ
1 0
0 Q n n
8.9. LEMA DE SCHUR 179

es unitaria, ya que
H
1 0 1 0 1 0 1 0 1 0
= =
0 Q 0 Q 0 Q 0 QH 0 QQH

1 0
= = In ;
0 In 1
y como el producto de matrices unitarias es unitaria, entonces
1 0
V= U
0 Q
es unitaria. Además,

1 0 1 0 1 0 w 1 0
VAVH = UAUH = e
0 Q 0 QH 0 Q 0 A 0 QH

1 0 wQH wQH
= e H = e H
0 Q 0 AQ 0 QAQ

(w es el vector que se obtiene al eliminar de la primera …la de UAUH su


primera componente) es una matriz triangular superior de orden n:
Debemos hacer notar que la demostración que acabamos de ver es construc-
tiva, pues apela a (y hace uso de) la existencia de valores propios, y no aborda
el problema de cómo se pueden calcular tales valores propios.

Theorem 208 (Teorema espectral) Si A 2 Mn (C) es hermitiana, en-


tonces A es unitariamente semejante a una matriz diagonal.

Demostración. Según el Lema de Shur, existen U; T en Mn (C) con U uni-


taria y T triangular superior tales que T = UH AU: Como A es hermitiana,
entonces
TH = (UH AU)H = UH AH U = UH AU = T:
Luego T es triangular superior y TH = T; implican que T es diagonal.
Otra demostración. A hermitiana implica A normal y A normal implica A
unitariamente semejante a una matriz diagonal.

Corollary 12 Si A 2 Mn (C) es hermitiana, entonces existe una base orto-


normal de C Cn formada por vectores propios de A:
180 CHAPTER 8. VALORES Y VECTORES PROPIOS

Demostración. Por Teorema espectral existen matrices U 2 Mn (C) unitaria


y diag(d1 ; :::; dn ) tales que

A U = U diag(d1 ; :::; dn );

esto implica que si u1 ; :::; un son las columnas de U, entonces Aui = di ui


para i = 1; :::; n; por tanto fu1 ; :::; un g es un conjunto de vectores propios
de A y por Teorema 202 tal conjunto es también una base ortonormal de
n
CC :

Corollary 13 Si A 2 Mn (C) es una matriz hermitiana y 1 ; :::; r son los


distintos valores propios no nulos de A con multiplicidades algebraicas m1 ,
..., mr respectivas. Entonces
X
r
(A) = mi :
i=1

Demostración. Por Teorema espectral A es unitariamente P semejante a una


matriz diagonal, la cual tiene es su diagonal principal ri=1 mi elementos no
nulos (los valores propios no nulos de A repetidos según P su multiplicidad
algebraica) por tanto el rango de esa matriz diagonal es ri=1 mi ; lo cual
implica que, por ser semejantes,
X
r
(A) = mi :
i=1

En el Corolario 13 la hipotesis A hermitiana es fundamental, ya que en genral


el rango de una matriz no siempre es igual a la suma de las multiplicidades
algebraicas de los valores propios no nulos de una matriz. Por ejemplo, la
matriz 2 3
1 0 0
4 0 0 1 5
0 0 0
tiene rango 2 y la suma de las multiplicidades algebraicas de sus valores
propios no nulos es 1:

Corollary 14 Si A 2 Mn (C) es hermitiana con valores propios 1


n : Entonces
H
1x x xH Ax H
nx x 8x 2Cn :
8.9. LEMA DE SCHUR 181

Demostración. Por Teorema espectral existen matrices U 2 Mn (C) unitaria


y diag(d1 ; :::; dn ) tales que

UH A U = diag(d1 ; :::; dn );

donde cada di es igual a un j y viceversa. Ahora, si x 2Cn tomamos


UH x = y = [y1 yn ], entonces

xH Ax = yH UH AUy = yH (diag(d1 ; :::; dn ))y


Pn Pn
= t=1 di jyt j2 n t=1 jyt j2 = ny
H
y

H H H H H H
= n (U x) (U x) = n x UU x = n x x:

La otra desigualdad se prueba de manera análoga.

Problemas

1. Demuestre para z 2 Cn la matriz In z zH es unitaria en Mn (C) si y sólo


si kzk22 = 2 ó z = 0:

2. Demuestre que la traza de una matriz A 2 Mn (C) es igual a la suma de


sus valores propios. (El Lema de Schur puede ser útil en este caso.)

3. Demuestre que si 1 ; :::; n son los valores propios de A 2 Mn (C), la traza


de Am es
m m m
tr(A) = 1 + 2 + + n

para toda m 2 N:

4. Demuestre, utilizando el Lema Schur, que si A; B 2 Mn (C); entonces las


matrices AB y BA tienen los mismos valores propios.

6. Si 1 ; :::; n son los valores propios de la matriz A 2 Mn (C): Demuestre


que para toda 2 Sn existe una matriz triangular T = [tij ] semejante a A
tal que tii = (i) para i = 1; :::; n:
182 CHAPTER 8. VALORES Y VECTORES PROPIOS

8.10 POLINOMIOS ANULADORES


Theorem 209 (Teorema de Cayley - Hamilton) Si A 2 Mn (C), en-
tonces PA (A) = 0:
Demostración. Supongamos que PA ( ) = a0 + a1 + + an n : Por Lema
de Shur existen U; T en Mn (C) con U unitaria y T triangular superior tales
que A = UH TU, entonces
PA (A) = a0 In + a1 (UH TU) + + an (UH TU)n

= UH (a0 In )U + UH (a1 T)U) + + UH (an Tn )U

= UH (PA (T))U:
Ahora, supongamos que 1 ; :::; n son los valores propios de A ordenados
de tal manera que si T = [tij ] ; entonces tii = i para i = 1; :::; n: Luego
PA ( ) = ( 1 )( 2) ( n ) implica que

PA (T) = (T 1 In )(T 2 In ) (T n In ):

Pero T i In es una matriz triangular superior con la columna i nula para


i = 1; :::; n; por tanto el producto (T 1 In )(T 2 In ) (T n In ) es la
matriz nula. En consecuencia
PA (A) = UH (PA (T))U = UH 0 U = 0:

Una consecuencia inmediata del Teorema de Cayley - Hamilton es una fór-


mula para encontrar fácilmente la inversa de una matriz conocido su poli-
nomio característico: si A 2 Mn (C) es una matriz invertible y PA ( ) =
a0 + a1 + + an n ; entonces a0 = det(A) 6= 0, luego por Teorema de
Cayley - Hamilton
1
a0 In = a1 A + + an An ) A 1
= a1 In + a2 A + + an An 1
.
a0
De…nition 81 Para toda A 2 Mn (C) se de…ne el anulador de A como

Ann (A) = fp(x) 2 C [x] : p(A) = 0g :


Los elementos de Ann (A) se llaman los polinomios anuladores de A:
8.10. POLINOMIOS ANULADORES 183

Theorem 210 (Algoritmo de la división para C [x]) Sean

f (x) = an xn + an 1 xn 1
+ + a0

y
g(x) = bm xm + bm 1 xm 1
+ + b0
dos elementos de C [x] ; con an y bn ambos números distintos de cero y m > 0:
Entonces, existen polinomios q(x) y r(x) en C [x] tales que

f (x) = g(x) q(x) + r(x)

donde el grado de r(x) es menor que m = grado de g(x):

Demostración. Consideremos el conjunto

S = ff (x) g(x) s(x) : s(x) 2 C [x]g :

sea r(x) un elemento de grado minimal en S. Entonces,

f (x) = g(x) q(x) + r(x)

para algún q(x) 2 C [x] : Probaremos que el grado de r(x) es menor que m:
Supongamos que
r(x) = ct xt + ct 1 xt 1 + + c0 ;
con cj 2 C para j = 0; :::; t y ct 6= 0 si t 6= 0: Si t m; entonces
ct t m ct t m
f (x) q(x)g(x) ( )x g(x) = r(x) ( )x g(x); (8.1)
bm bm
y el lado derecho de la igualdad anterior es de la forma

r(x) (ct xt + términos de grado menor),

lo cual es un polinomio de grado menor que t; el grado de r(x): Sin embargo,


el polinomio en la ecuación (8.1) puede escribirse en la forma

ct t m
f (x) g(x) q(x) ( )x ;
bm

de modo que está en S; contradiciendo el hecho de que r(x) se seleccionó con


grado minimal en S: Así, el grado de r(x) es menor que m = grado de g(x):
184 CHAPTER 8. VALORES Y VECTORES PROPIOS

Para la unicidad, si
f (x) = g(x) q1 (x) + r2 (x)
y
f (x) = g(x) q2 (x) + r2 (x);
entonces,
g(x) [q1 (x) q2 (x)] = r1 (x) r2 (x):
Como el grado de r1 (x) r2 (x) es menor que el grado de g(x); entonces
q1 (x) q2 (x) = 0, de donde q1 (x) = q2 (x); y por tanto r1 (x) r2 (x) = 0; por
tanto r1 (x) = r2 (x):

Theorem 211 Para toda A 2 Mn (C) existe un único polinomio mómico


(por tanto no nulo) en Ann (A) que divide a todo polinomio de Ann (A):

Demostración. Sean A 2 Mn (C) y qmA (x) un polinomio mónico de menor


grado en Ann (A): Tal polinomio existe por que sabemos por Teorema de
Cayley - Hamilton que en Ann (A) hay polinomios no nulos y por que además,
si p(x) 2 Ann (A) entonces para toda c 2 C el polinomio c p(x) también está
en Ann (A): Ahora, si h(x) 2 Ann (A) se tiene por el Algoritmo de la División
que existen g(x); r(x) en C [x] únicos, tales que h(x) = qmA (x)g(x) + r(x);
con r(x) = 0 o grd(r(x)) < grd(qmA (x)): Pero

0 = h(A) = qmA (A)g(A) + r(A) = 0g(A) + r(A) = r(A);

de donde r(A) 2 Ann (A): Luego por la minimalidad de qmA (x) se sigue que
r(x) es el polinomio cero y por tanto qmA (x) divide a h(x): qmA (x) es único
ya que si p(x) 2 Ann (A) es mónico y divide a todo polinomio de Ann (A);
entonces p(x) divide a qmA (x) y qmA (x) divide a p(x); entonces p(x) y qmA (x)
tienen igual grado y como se dividen mutuamente existe entonces c 2 C tal
que qmA (x) = c p(x); pero como ambos som mónicos se debe cumplir que
c = 1: Así p(x) = qmA (x):

De…nition 82 Si A 2 Mn (C), entonces el polinomio qmA (x) del que habla


el Teorema 211 se llama el polinomio minimal de A:

Theorem 212 Si A 2 Mn (C), entonces el polinomio característico y el poli-


nomio minimal de A tienen las mismas raíces, salvo multiplicidades.
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 185

Demostración. Sabemos que las raíces del polinomio característico de A son


los valores propios de A: Probaremos que c 2 C es raíz del polinomio minimal
de A si y sólo si c es valor propio de A: En efecto, si c es raiz del polinomio
minimal de A; qmA (x); entonces qmA (c) = 0; de donde qmA (x) = (x c)p(x)
para algún polinomio no nulo p(x) 2 C [x] con grd(p(x)) < grd(qmA (x)):
Luego por la minimalidad de qmA (x) en Ann (A) se tiene que p(A) no es la
matriz cero, es por tanto que se puede elegir un y en Cn tal que p(A)y 6= 0;
entonces si x = p(A)y tenemos que

0 = qmA (A)y = (A cIn )p(A)y = (A cIn )x;

por tanto Ax = cx y así c es un valor propio de A: Recíprocamente, si c es


un valor propio de A; entonces por Teorema 180

0 = qmA (A)x = qmA (c)x;

pero x 6= 0 implica qmA (c) = 0; así c es una raiz de qmA (x):

8.11 DESCOMPOSICIÓN EN VALORES


SINGULARES
De…nition 83 Sea A 2Mn (C): A es semide…nida positiva si

xH A x 0 8x 2 C Cn :

Theorem 213 Sea A 2 Mn (C); A semide…nida positiva. Entonces los val-


ores propios de A son no negativos.

Demostración. Sean un valor propio de A y x 6= 0 un vector propio de A


asociado a ; entonces

0 xH Ax = xH x = xH x = kxk22 :

Pero kxk2 > 0 y por tanto 0:

Theorem 214 Sea A 2Mm n (C);entonces AH A es semide…nida positiva.

Demostración. Si x 2 C Cn , entonces

xH AH A x = (Ax)H (Ax) = hAx ; Axi 0:


186 CHAPTER 8. VALORES Y VECTORES PROPIOS

De…nition 84 Si A 2 Mm n (C); entonces los valores singulares de A


son las raíces cuadradas de los valores propios de AH A:

Theorem 215 (Descomposición en valores singulares) Toda matriz


A 2 Mm n (C) puede factorizarse en la forma

A = P D Q;

donde P 2 Mm (C) es unitaria, D 2 Mm n (C) es diagonal y Q 2 Mn (C) es


unitaria.

Demostración. La matriz AH A es una matriz hermitiana y semide…nida


positiva. Luego por Teorema 213 los valores propios de AH A son no nega-
tivos. Sean 21 ; 22 ; :::; 2n los valores propios de AH A de tal manera que en
tal lista cada 2i se repite según su multiplicidad como raíz de la ecuación
característica y además, la lista está ordenada de modo que 21 ; 22 ; :::; 2r son
positivos y 2r+1 ; 2r+2 ; :::; 2n son cero. Por Corolario 12 existe una base orto-
normal fu1 ; u2 ; :::; un g de C Cn formada en su totalidad por vectores propios
de AH A, la cual podemos suponer que está dispuesta de tal manera que

AH Aui = 2
i ui :

Entonces
kAui k22 = uH H H
i A Aui = ui
2
i ui = 2
i:

Esto nos muestra que Aui = 0 cuando i = r +1: Por Corolario 13 y teoremas
de rango

r= AH A 5 m{n (AH ) ; ( A) 5 m{n fm; ng :

Ahora formamos una matriz Q de n n cuyas …las son uH H H


1 ; u2 ; :::; un y
de…nimos
vi = i 1 Aui 1 5 i 5 r:
Los vectores vi forman un conjunto ortonormal, ya que para 1 5 i ; j 5 r
tenemos que
1 1
vjH vi = i (Aui )H j (Auj ) = ( i j ) 1 (uH H
i A Auj )

0 si i 6= j
= ( i j ) 1 (uH
i
2
j uj ) =
1 si i = j:
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 187

Elejimos vectores adicionales vr+1 ; :::; vm de modo que fv1 ; :::; vm g sea una
base ortonormal de C Cm : Sea P la matriz de m m cuyas columnas son
v1 ,...,vm : Sea D la matriz de m n que tiene 1 ; 2 ; :::; r en la diagonal y
ceros en los lugares restantes. En tal caso

A = PDQ:

Para demostrar esto vamos a ver que

PH DQH = D:

En efecto,
PH DQH ij
= viH Auj :
Cuando j = r + 1; esto es igual a cero. En cambio, si j 5 r , el término es

j0 = 0 si i 6= j
viH j vj =
j 1 = j si i = j:

De…nition 85 Si A 2 Mm n (C), entonces la factorización

A = P D Q;

donde P 2 Mm (C) es unitaria, D 2 Mm n (C) es diagonal y Q 2 Mn (C) es


unitaria , es una descomposición en valores singulares de A:

Debemos hacer notar que la descomposición en valores singulares de una


matriz no es única, ya que en la demostración del Teorema 215 es claro
que tenemos cirerto grado de libertad para decidir con que bases trabajar
para luego con ellas construir las matrices P y Q; además, los 2i positivos
se pueden tomar en cualquier orden y lo único que se exige de ellos es que
aparezcan al inicio de la diagonal principal de D; por tanto existen varias
posibilidades para D:

Theorem 216 (de Penrose) Para cada matriz A 2Mm n (C) existe a lo
más una matriz X 2 Mn m (C) que cumple con las siguientes propiedades :
i) AXA = A
ii) XAX = X
iii) (AX)H = AX
iv) (XA)H = XA:
188 CHAPTER 8. VALORES Y VECTORES PROPIOS

Demostración. Si X1 ; X2 2 Mn m (C) son tales que tienen las propiedades i)


a iv); entonces

X1 = X1 A X1 = X1 A X2 A X1 = X1 AX2 A X2 A X2 A X1

= (X1 A)H (X2 A)H X2 ( AX2 )H ( AX1 )H

= AH XH
1 A
H
XH H
2 X2 X2 A
H
XH
1 A
H

= (A X1 A )H XH H
2 X2 X2 (A X1 A )
H

H
= A H XH H
2 X2 X2 A = (X2 A) X2 (AX2 )
H

= X2 AX2 AX2 = X2 AX2 = X2 :

De…nition 86 Para las matrices diagonales en Mm n (C) de la forma


D = diag ( 1 ; :::; r ; 0; :::; 0) ;

donde i > 0; de…nimos la seudoinversa de D como la matriz diagonal en


Mn m (C)
D+ = diag( 1 1 ; :::; r 1 ; 0; :::; 0):

Theorem 217 Si la matriz


D = diag ( 1 ; :::; r ; 0; :::; 0) 2 Mm n (C)

con los i > 0: Entonces D+ cumple las propiedades del Teorema de Penrose
respecto a D:

Demostración. i)
D D+ D = D (diag ( 1 ; :::; r ; 0; :::; 0)) diag( 1
1
; :::; r
1
; 0; :::; 0)

= (diag ( 1 ; :::; r ; 0; :::; 0)) (diag(1; :::; 1; 0; :::; 0) = D:


ii)
1
D+ D D+ = D+ (diag ( 1 ; :::; r ; 0; :::; 0)) diag( 1 ; :::; r
1
; 0; :::; 0)

1 1
= diag( 1 ; :::; r ; 0; :::; 0) (diag(1; :::; 1; 0; :::; 0) = D+ :
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 189

iii)

(DD+ )H = (D+ )H DH

1 1
= diag( 1 ; :::; r ; 0; :::; 0) (diag ( 1 ; :::; r ; 0; :::; 0))

= (diag(1; :::; 1; 0; :::; 0)


de otro lado
DD+ = (diag ( 1 ; :::; r ; 0; :::; 0)) diag( 1
1
; :::; r
1
; 0; :::; 0)

= (diag(1; :::; 1; 0; :::; 0)

Luego (DD+ )H = DD+ :


iv)

(D+ D)H = DH (D+ )H

1 1
= (diag ( 1 ; :::; r ; 0; :::; 0)) diag( 1 ; :::; r ; 0; :::; 0)

= diag(1; :::; 1; 0; :::; 0)


pero
1
D+ D = diag( 1 ; :::; r
1
; 0; :::; 0) (diag ( 1 ; :::; r ; 0; :::; 0))

= diag(1; :::; 1; 0; :::; 0)

Luego (D+ D)H = D+ D:

Theorem 218 Si A 2Mm n (C) y A = PDQ, A = P0 D0 Q0 son dos descom-


posiciones en valores singulares de A: Entonces

QH D+ PH = (Q0 )H (D0 )+ (P0 )H :

Demostración. Demostraremos inicialmente que QH D+ PH cumple las cuatro


propiedades del Teorema de Penrose respecto a A: En efecto:
i)
A(QH D+ PH )A = PDQ QH D+ PH PDQ = PDD+ DQ

= PDQ = A:
190 CHAPTER 8. VALORES Y VECTORES PROPIOS

ii)

(QH D+ PH ) A (QH D+ PH ) = QH D+ PH PDQ QH D+ PH

= QH D+ DD+ PH = QH D+ PH :

iii)

(A(QH D+ PH ))H = P(D+ )H QAH = P(D+ )H Q (PDQ)H

= P(D+ )H Q QH DH PH = P(D+ )H DH PH

= P(DD+ )H PH = PDD+ PH

H
= PDQ QH D+ PH = A(QH D+ P ):

iv)

((QH D+ PH )A)H = AH P(D+ )H Q = (PDQ)H P(D+ )H Q

= QH DH PH P(D+ )H Q = QH DH (D+ )H Q

= QH (D+ D)H Q = QH D+ DQ

H
= QH D+ PH PDQ = (QH D+ P ) A:

De manera similar se prueba que (Q0 )H (D0 )+ (P0 )H cumple también las cuatro
propiedades del Teorema de Penrose. Por tanto

QH D+ PH = (Q0 )H (D0 )+ (P0 )H :

De…nition 87 Si A 2 Mm n (C) y A = PDQ es una descomposición en


valores singulares de A; entonces de…nimos la seudoinversa de A por

A+ = QH D+ PH :

Theorem 219 Si A 2 Mn (C) y A es invertible, entonces A+ = A 1 :


8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 191

Demostración. A invertible implica que si A = PDQ es una descomposición


en valores singulares de A; entonces D es invertible, de donde D+ = D 1 :
Además,

AA+ = (PDQ)(QH D+ PH ) = (PDQ)(Q 1 D 1 P 1 ) = In :

En consecuencia A+ = A 1 :

Theorem 220 Si A 2 Mm n (C) y (A) = n; entonces A+ = (AH A) 1 AH :

Demostración. Veamos que (AH A) 1 existe y que (AH A) 1 AH cumple las


cuatro propiedades de Penrose junto con A: En efecto: si

AH Ax = 0 ) xH AH Ax =0 ) (Ax)H Ax =0

) hAx ; Axi2 = 0 ) kAxk22 = 0

) Ax = 0;
pero rango de A igual a n implica que si a1 ; :::; an son las columnas de A; en-
tonces fa1 ; :::; an g es linealmente independiente en C Cm ; y si x = [x1 x n ]T
se tiene que Ax = 0 implica

x1 a1 + + xn an = 0:

Pero como fa1 ; :::; an g es linealmente independiente, entonces x1 = =


xn = 0; de donde x = 0: Luego por Corolario 3 AH A es invertible.
Ahora ;
i) A(AH A) 1 AH A = AIn = A:

ii) (AH A) 1 AH A(AH A) 1 AH = In (AH A) 1 AH = (AH A) 1 AH :

iii)
(A(AH A) 1 AH )H = A((AH A) 1 )H AH = A((AH A)H ) 1 AH

= A(AH A) 1 AH :

iv) ((AH A) 1 AH A)H = IH H 1 H


n = In = (A A) A A:
192 CHAPTER 8. VALORES Y VECTORES PROPIOS

Theorem 221 Si A 2 Mn m (C) y (A) = n; entonces A+ = AH (AAH ) 1 :

Demostración.
i) AAH (AAH ) 1 A = In A = A:

ii) AH (AAH ) 1 AAH (AAH ) 1


= AH (AAH ) 1 In = AH (AAH ) 1 :

iii) (AAH (AAH ) 1 )H = IH H H 1


n = In = AA (AA ) :

iv) (AH (AAH ) 1 A)H = AH ((AAH ) 1 )H A = AH (AAH ) 1 A:

Theorem 222 Si A 2 Mm n (C) y b 2 C Cm : Entonces existe

m{n fkAx bk2 : x 2 C Cn g :

Demostración. Con la misma notacón del Teorema de descomposición en


valores singulares, sean A = PDQ una descomposición en valores singulares
de A,
PH b = c = [c1 cm ]T y Q x = y = [y1 y n ]T :
En la medida en que x recorre todo C Cn , también lo hace y; por que Q es
invertible. Por consiguiente

fkAx bk2 : x 2 C Cn g = fk(PDQ)x bk2 : x 2 C Cn g

= fkPDy bk2 : y 2 C Cn g :

Como además PH es unitaria se tiene que

kPDy bk2 = PH (PDy b) 2


= Dy PH b 2
;

luego

fkPDy bk2 : y 2 C Cn g = Dy PH b 2
: y 2 C Cn

= fkDy ck2 : y 2 C Cn g :

Ahora, por la naturaleza misma de D, tenemos:


X
r X
m
kDy ck22 = j i yi 2
ci j + jci j2 :
i=1 i = r+1
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 193

Esta cantidad se minimiza tomando yi = ci = i para i = 1; :::; r y permitiendo


que yr+1 ; :::; yn tomen valores arbitrarios. Como kDy ck2 minimiza si y sólo
si kDy ck22 minimiza. Así, el mínimo del conjunto fkAx bk2 : x 2 C Cn g
se dá en los x 2 C Cn tal que

x = QH [c1 = 1 cr = r yr+1 yn ]T ;

donde yr+1 ; :::; yn pueden tomar valores arbitrarios. Además el valor mínimo
Pm
en cuestión es jci j2 :
i = r+1

Theorem 223 Si A 2Mm n (C), b 2C Cm y

N = fz 2 C Cn : kAz bk2 = m{n fkAx bk2 : x 2 C Cn gg :

Entonces, con la misma notación utilizada en la demostración del Teorema


222,
A+ b = QH D+ PH b = QH D+ c
tiene las siguientes dos propiedades:
i) A+ b 2 N ;
ii) 8x 2N fA+ bg se tiene que kA+ bk2 < kxk2 :

Demostración. i)

1 T
QH D+ c = QH diag( 1 ; :::; r
1
; 0; :::; 0) c1 cm

T
= QH c1 = 1 cr = r 0 0 2 N:

ii) Sea x 2N QH D+ c ; entonces x = QH [c1 = 1 cr = r yr+1 y n ]T


donde yr+1 ; :::; yn son números complejos no todos nulos. Luego

A+ b 2
= QH D+ c 2
= D+ c 2
< kxk2 :

El Teorema 223 nos dice que el vector A+ b es el vector de C Cn con menor


k k2 en el conjunto

N = fz 2 C Cn : kAz bk2 = m{n fkAx bk2 : x 2 C Cn gg :

Esto motiva la siguiente:


194 CHAPTER 8. VALORES Y VECTORES PROPIOS

De…nition 88 Si A 2Mm n (C), b 2C Cm ; entonces de…nimos la solución


mínima del sistema Ax = b como el vector x = A+ b:

Theorem 224 Si A tiene una descomposición A = PDQ en valores singu-


lares tal como se describe en el Teorema 215, entonces
(a) el rango de A es r;
(b) ur+1 ; ur+2 ; :::; un es una base ortonormal del espacio nulo de A;
(c) fv1 ; v2 ; :::; vr g es una base ortonormal de R(A);
(d) kAk2 = max j i j :
1 i n

Demostración. Puesto que P y Q son no singulares, A y D tienen el mismo


rango, que es r:
Si r i n entonces Aui = 0; como se demostró en el Teorema 215. Dado
que el rango de A es r, el espacio nulo de A tiene dimensión n r. Por lo
tanto, ur+1 ; ur+2 ; :::; un es una base de un espacio nulo.
Como (A) =r y para i = 1; :::; r vi = i 1 Aui , entonces cada vi es combi-
nación lineal de las columnas de A, entonces fv1 ; v2 ; :::; vr g es un conjunto
ortonormal de r vectores en R(A) y dim(R(A)) = r; entonces fv1 ; v2 ; :::; vr g es
una base ortonormal de R(A):
Sea max j i j = j : Si x es un vector propio de AH A asociado a 2j con
1 i n
kxk2 = 1, entonces

kAxk22 = hAx ; Axi2 = x ; AH Ax 2


= x; 2
jx 2 = 2
j kxk2 = 2
j;

de donde kAxk2 = j: Luego

kAk2 = sup fkAxk2 : kxk2 = 1g j:

Ahora, si x es un vector con kxk2 = 1, entonces por Corolario 14

kAxk22 = hAx ; Axi2 = xH AH Ax 2 H


jx x = 2
j kxk2 = 2
j;

por tanto kAxk2 j: En consecuencia

kAk2 = sup fkAxk2 : kxk2 = 1g j:

Problemas
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 195

1. Elija una matriz y halle dos descomposiciones en valores singulares dis-


tintas de ella.

2. Encuentre las descomposiciones en valores singulares de las matrices:


2 3
4 0 0
6 0 0 0 7 5
6 7 2 1 y
4 0 0 7 5; 4
:
0 0 0

3. Encuentre las soluciones mínimas de los siguientes sistemas de ecuaciones:


8
8 > 4x1 = b1
< x 1 = b1 >
<
0x1 = b2
(a) x1 + x2 = b1 (b) x1 = b2 (c)
: >
> 7x3 = b3
x 1 = b3 :
0x2 = b4

4. Sea A 2Mm n (C): Encuentre A+ en el caso en que AAH es invertible.

5. Sea A 2Mm n (C): Encuentre A+ en el caso en que AAH = Im :

6. Sea A 2Mm n (C): Encuentre A+ en el caso en que A es hermitiana e


idempotente:

7. Sea A 2Mm n (C): Demuestre que si A es hermitiana, entonces A+ tam-


bién lo es.

8. Sea A 2Mm n (C); si A es hermitiana y semide…nida positiva, ¿cuál es su


descomposición en valores singulares?.

9. Sea A 2Mm n (C): si A es hermitiana, ¿cuál es la relación entre sus valores


propios y sus valores singulares?.

10. Sea A 2Mm n (C): Demuestre las siguientes propiedades de la seudoin-


versa:
+
(a) (A+ ) = A:
H +
(b) (A+ ) = AH
H
(c)(AAH )+ = (A+ ) A+
196 CHAPTER 8. VALORES Y VECTORES PROPIOS

(d) A+ = AH (AAH )+

11. Sean A 2Mm n (C) y B 2Mn p (C). Demuestre mediante un ejemplo


apropiado, que en general

(AB)+ 6= B+ A+ :

12. Demuestre que si A tiene rango r, com m = n = r; entonces A se puede


factorizar en la forma A = VSU; en donde V 2Mm r (C) con columnas orto-
normales, S 2Mr r (C) es una matriz diagonal no singular y U 2Mr n (C) con
…las ortonormales. (Está es llamada la versión económica de la descomposi-
ción en valores singulares.)

13. Re…érase al Teorema 215 y demuestre que


X
r
H
A= j vj uj :
j=1

14. Sea A 2Mm n (C) de rango r, con m = n = r y descomposición en valores


singulares A = PDQ: Demuestre que el sistema de ecuaciones Ax = b tiene
solución si y sólo si (PH b)i = 0 para r < i 5 m:

15. Sea A 2Mm n (C) de rango r; de…na ui ; vi y i igual que en la demostración


del Teorema 215 y demuestre que
X
r
+ 1
A = j uj vjH :
j=1

Compare con el Problema 13 y concluya.

16. Sea A 2Mn (C); si A es hermitiana y semide…nida positiva, entonces sus


valores propios son idénticos a sus valores singulares.

17. Demuestre que si dos matrices son unitariamente equivalentes, entonces


sus valores singulares son iguales. (Dos matrices A y B son unitariamente
equivalentes si A = UBV; con U y V matrices unitarias.)
8.11. DESCOMPOSICIÓN EN VALORES SINGULARES 197

18. Sea A 2Mn (C) con valores singulares 1; 2 ; :::; n: Demuestre que el
determinante de A es
det(A) = 1 2 n

20. Sea A 2Mm n (C) y 1 = 2 = = n los valores singulares de A:


Demuestre que kAk2 = 1:

21. Sea A 2Mn (C) con descomposición en valores singulares A = PDQ.


Demuestre que
PA ( ) = det( PH QH D):

22. Demuestre que si A 2Mm n (C) de rango n; entonces

A+ = (AH A) 1 AH :

23. Demuestre que la seudoinversa de una matriz diagonal D 2Mm n (C) es


una matriz diagonal:

24. Encuentre las seudoinversas de una matriz cualesquiera A 2Mm 1 (C) y


de una matriz arbitraria B 2M1 n (C):

25. Sea A 2Mm n (C): Demuestre que si A es simétrica, entonces A+ también


lo es.

26. Si A 2Mm n (C) y B 2Mn p (C) son de rango n entonces

(AB)+ = B+ A+ :

27. Encuentre la seudoinversa de una matriz A 2Mm n (C) en la que todas


sus componentes son 1:
198 CHAPTER 8. VALORES Y VECTORES PROPIOS
Chapter 9

SOLUCIÓN A ALGUNOS
PROBLEMAS
SELECCIONADOS

En este capítulo …nal queremos presentar una variable gama de ejercicios re-
sueltos que fuerón propuestos en los capítulos previos. Pedimos a los lectores
que en lo posible intenten resolver los problemas antes de leer éste capítulo.
La idea de presentar este solucionario es la de ayudar a aquellos estudiantes
que presentan bastante di…cultad en el aprendizage de los princípios básicos
del álgebra lineal, y en general de la Matemática básica, debido principal
mente a una mala fundamentación en las técnicas de demostración y redac-
ción de problemas abstractos.
1. Si K es un campo y k 2 K: Demuestre que k = ( 1)k:
Demostración. k + ( k) = 0 y k + ( 1)k = (1)k + ( 1)k = ((1) + ( 1))k =
0k = 0; por tanto k y ( 1)k son soluciones de la ecuación k + x = 0: Luego
por Teorema 2 k = ( 1)k:

3. Sean A; B 2Mm n (K) tales que

YAX = YBX

para tada Y 2M1 m (K) y tada X 2Mn 1 (K): Demuestre que A = B:


Demostración. Probaremos que para toda i 2 f1; :::; mg y toda j 2 f1; :::; ng
(A)ij = (B)ij ; lo cual implica que A = B: En efecto, sean i 2 f1; :::; mg y
j 2 f1; :::; ng : Ahora, si X 2Mn 1 (K) es tal que tiene un 1 en la posición j y

199
200CHAPTER 9. SOLUCIÓN A ALGUNOSPROBLEMAS SELECCIONADOS

0 en las demás posiciones, y Y 2M1 m (K) es tal que tiene un 1 en la posición


i y 0 en las demás posiciones, entonces AX es igual a la columna j de A y
BX es igual a la columna j de B: Luego YAX = (A)ij y YBX = (B)ij ;
pero YAX = YBX; entonces (A)ij = (B)ij :
1. Decida si el conjunto
1 0 0 1 0 1 1 0
; ; ;
1 0 1 0 0 1 0 1

es linealmente independiente o no en M2 (R):

Solución. El conjunto en cuestión no es linealmente independiente, ya que


1 0 0 1 0 1 1 0 0 0
k1 + k2 + k3 + k4 =
1 0 1 0 0 1 0 1 0 0
con k1 ; :::; k4 2 R implica
8
>
> k 1 + k4 = 0
<
k 1 + k2 = 0
>
> k 2 + k3 = 0
:
k 3 + k4 = 0
de donde
k4 = k1 = k2 = k3 :
Tomando k4 = 1 tenemos k1 = 1; k2 = 1 y k3 = 1y
1 0 0 1 0 1 1 0 0 0
1 +1 1 +1 =
1 0 1 0 0 1 0 1 0 0

con no todos los escalares (ninguno) iguales a cero.

14. ( ) Sean fv1 ; :::; vn g y fu1 ; :::; un g subconjuntos de un espacio vec-


torial K V tales que
v1 = a11 u1 + a12 u2 + + a1n un
..
.
vn = an1 u1 + an2 u2 + + ann un

para cietos aij 2 K: Demuestre que si la matriz A = [aij ] 2 Mn (K) es


invertible se tiene que gen fv1 ; :::; vn g = gen fu1 ; :::; un g :
201

Demostración. Si v 2 gen fv1 ; :::; vn g entonces v = k1 v1 + + kn vn para


ciertos ki 2 K; luego

v = k1 (a11 u1 + a12 u2 + + a1n un ) + + kn (an1 u1 + an2 u2 + + ann un )

= (k1 a11 + + kn an1 )u1 + + (k1 a1n + + kn ann )un 2 gen fu1 ; :::; un g :

En consecuencia gen fv1 ; :::; vn g gen fu1 ; :::; un g : Recíprocamente, si u 2


gen fu1 ; :::; un g existen escalares t1 ; :::; tn de K tales que u = t1 u1 + +tn un :
Ahora, si t = [t1 tn ]T se tiene que, por ser A invertible, existe un único
T
x = [x1 xn ] 2 K n tal que Ax = t; de donde ti = ai1 x1 + + ain xn para
i = 1; :::; n: Luego

u = (a11 x1 + + a1n xn )u1 + + (an1 x1 + + ann xn )un

= x1 (a11 u1 + a12 u2 + + a1n un ) + + xn (an1 u1 + an2 u2 + + ann un )

= x1 v1 + + xn vn 2 gen fv1 ; :::; vn g :

Por tanto gen fu1 ; :::; un g gen fv1 ; :::; vn g :

Problema. Si A = [aij ] 2Mn (C) y s 2 f1; :::; ng es un númer …jo. Demuestre


que si asj = 0 para j = 1; :::; s 1; s + 1; :::; n, entonces ass es un valor propio
de A:

Demostración.
A es = ass es
y como es 6= 0; entonces ass 2 Spec A:
Problemas resueltos

1. Si A 2 Mn (C) es una matriz invertible. es un valor propio de A si y


sólo si 1 es un valor propio de A 1 :
Demostración. Sea un valor propio de la matriz A y x un vector propio de
A asociado al valor propio ; entonces
1 1
Ax = x () A 1 Ax = A 1 x () A 1 x = x:
202CHAPTER 9. SOLUCIÓN A ALGUNOSPROBLEMAS SELECCIONADOS

2. Sea A 2Mn (C) con un conjunto de n vectores propios fx1 ; :::; xn g lineal-
mente independiente. Sean Axi = i xi para i = 1; :::; n y P la matriz cuyas
columnas son, en su orden, x1 ; :::; xn : ¿ Cómo es P 1 AP ?
Solución. Si ei para i = 1; :::; n es la columna i ésima de In tenemos que
1
In = [e1 en ] = P 1 P = P [x1 xn ] = P 1 x1 P 1 xn :
Luego
P 1 AP = P 1 A [x1 xn ] = P 1
[Ax1 Axn ]

1 1 1
= P [ 1 x1 n xn ] = [P 1 x1 P n xn ]

= [ 1 P 1 x1 nP
1
xn ] = [ 1 e1 n e1 ]

= diag ( 1 ::: ; n ):

3. Si alguna de las matrices A o B de Mn (C) es invertible, demuestre que


In AB tiene los mismos valores propios de In BA:
Solución. Sin pérdida de generalidad supongamos que A es invertible. Si
es un valor propio de In BA; entonces existe x 6= 0 en Cn tal que
(In BA)x = x ) x BAx = x

) BAx = (1 )x:
Ahora, como x 6= 0 y A es invertible, se tiene que Ax 6= 0; y además
(In AB)Ax = Ax ABAx

= Ax A((1 )x)

= Ax:
Por tanto es un valor propio de In AB: Recíprocamente, Si es un valor
propio de In AB; entonces existe x 6= 0 en Cn tal que
(In AB)x = x ) x ABx = x

) ABx = (1 )x

) Bx = (1 )A 1 x
203

1
Ahora, como x 6= 0 y A es invertible, se tiene que A 1 x 6= 0; y además
(In BA)A 1 x = A 1 x Bx

= A 1x ((1 )A 1 x)

= A 1 x:
Por tanto es un valor propio de In AB:

4. Demuestre que para todo número complejo

dim fx 2 Cn : Ax = xg = n ( In A): (9.1)

Demostración. Si dim fx 2 Cn : Ax = xg = 0; entonces fx 2 Cn : Ax = xg


= f0g ; lo cual implica que x = 0 es la única solución del sistema ( In
A)x = 0, por tanto In A es invertible y así ( In A) = n: Luego se
satisface (9.1). Si dim fx 2 Cn : Ax = xg = t > 0 (que equivale a de-
cir que es un valor propio de A), sea entonces fx1 ; :::; xt g una base de
fx 2 Cn : Ax = xg y hallemos vectores xt+1 ; :::; xn en Cn (de ser necesario)
tales que fx1 ; :::; xt ; xt+1 ; :::; xn g es una base de C Cn : Sabemos que el rango
de CB es igual al rango de C si C es invertible. Luego

( In A) = (( In A) [x1 xt xt+1 xn ])

= ( ( In A)x1 ( In A)xt ( In A)xt+1 ( In A)xn )

= ([ x1 Ax1 xt Axt xt+1 Axt+1 xn Axn ])

= ([0 0 xt+1 Axt+1 xn Axn ]):

Pero f xt+1 Axt+1 ; :::; xn Axn g es un conjunto linealmente indepen-


diente, ya que si ct+1 ; :::; cn están en C y

ct+1 ( xt+1 Axt+1 ) + + cn ( xn Axn ) = 0

entonces

(ct+1 xt+1 + + cn xn ) A(ct+1 xt+1 + + cn xn ) = 0;


204CHAPTER 9. SOLUCIÓN A ALGUNOSPROBLEMAS SELECCIONADOS

por tanto ct+1 xt+1 + + cn xn 2 fx 2 Cn : Ax = xg = gen fx1 ; :::; xt g y


como además ct+1 xt+1 + + cn xn 2 gen fxt+1 ; :::; xn g y gen fx1 ; :::; xt g \
gen fxt+1 ; :::; xn g = f0g por ser fx1 ; :::; xt ; xt+1 ; :::; xn g linealmente indepen-
diente, entonces ct+1 xt+1 + + cn xn = 0 y como fxt+1 ; :::; xn g es lineal-
mente independiente, se sigue que ct+1 = = cn = 0: Por todo lo an-
terior ( In A) = n t que equivale a que dim fx 2 Cn : Ax = xg =
n ( In A):
Problema. Sea fv1 ; v2 ; :::; vn g un conjunto ortogonal de vectores no
nulos en un espacio con producto interior (K V; h ; i) : Si v es cualquier vector
de K V; pruebe que

X
n
jhv; vk ij2
2 kvk2 (Desigualdad de Bessel)
k=1
kvk k

y la igualdad vale si, y solo si, v 2 gen fv1 ; :::; vn g :


Demostración. Sea W = gen fv1 ; v2 ; ..., vn g ; y supongamos que v es un
elemento cualquiera de K V: Si v 2 W; entonces por Teorema 134

X
n
hv; vk i
v= vk
k=1
kvk k2

Pn hv; v i
k Pn hv; v i
t
kvk2 = hv; vi = 2 vk , 2 vt
k=1 kvk k t=1 kvt k

!
Pn hv; v i
k Pn hv; v i
t Pn hv; v i
k Pn hv; v i
t
= 2 vk , 2 vt = 2 2 hvk , vt i
k=1 kvk k t=1 kvt k k=1 kvk k t=1 kvt k

Pn hv; v i hv; v i Pn jhv; v ij2


k k k
= 2 2 hvk , vk i = 4 hvk ; vk i
k=1 kvk k kvk k k=1 kvk k

Pn jhv ; v ij2
k
= :
k=1 kvk k2

= W; entonces como K V = W W ? existen vectores únicos


Ahora, si v 2
w1 2 W y w2 2 W ? f0g tales que v = w1 + w2 : Como w2 2 W ? f0g ;
205

entonces fv1 ; v2 ; ..., vn ; w1 g es ortogonal. Por tanto


!
Xn
hv; vk i hv; w2 i
v= 2 vk + w2 ;
k=1
kvk k kw2 k2

de donde
X
n
hv; vk i hv; w2 i
w1 = 2 vk ; w2 = w2 y naturalmente hw1 ; w2 i = 0:
k=1
kvk k kw2 k2

Luego, por la regla pitagorica

2 2 2 2
X
n
jhv; vk ij2
kvk = kw1 k + kw2 k > kw1 k = :
k=1
kvk k2

En el caso especial en que fv1 ; :::; vn g es un conjunto ortonormal, la desigual-


dad de Bessel dice que
Xn
jhv; vk ij2 kvk2 :
k=1

5. Pruebe que una norma de…nida en K K n debe de alguna manera tomar en


cuenta todas las componentes de un vector.

Prueba. Supongamos que en K K n existe una norma k k? que no tiene en


cuenta a la componente i ésima de los vectores de K K n , entonces todos
los vectores que tienen las componentes 1; 2; :::; i 1; i + 1; :::; n iguales a
cero deberán tener igual norma k k? que el vector cero, es decir, deberán
tener norma k k? igual a cero. Lo anterior va en contra de que en un espacio
normado el único vector que tiene norma igual a cero es el vector cero. Luego
es imposible tener una norma en K K n que no tenga en cuente a alguna de
las componentes de los vectores de K K n :
206CHAPTER 9. SOLUCIÓN A ALGUNOSPROBLEMAS SELECCIONADOS
Chapter 10

DESECHOS

2. Si A 2 Mn m (C): Demuestre que (A) = (A) = (AH ):


1. Sean (K V; h ; i un espacio con producto interior, k k la norma en K V
inducida por el producto interior h ; i, fu1 ; :::; un g una base ortonormal de
K V y v; w vectores de K V: Demuestre que

X
n
hv; wi = hv; ui i hui ; wi :
i=1

2. Sean (K V; h ; i un espacio con producto interior, fu1 ; :::; un g una base


ortonormal de K V y T : K V ! K F una transformación lineal. Veri…que
que para todo v 2 K V
T (v) = hv; wi ;
P
n
donde w = T (ui ) ui : Además demuestre que tal w es el único con esa
i=1
propiedad.
1. Sea T :K V !K W una transformación lineal. Demuestre que T es
inyectiva si y sólo si la imagen de todo conjunto linealmente independiente
de K V es un conjunto linealmente independiente de K W:

Si T : R R ! R V es una transformación lineal, entonces existe v0 2 R V


tal que T (x) = xv0 8x 2 R.

Problemas

207
208 CHAPTER 10. DESECHOS

2. Si A 2 Mn (C) y A es semejante a una matriz diagonal. Halle todas las


matrices diagonales que son semejantes a A:
Demostración. Si A es semejante a la matriz diagonal DId = diag( 1 ; :::; n );
entonces 1 ; :::; n son los valores propios de A y existe una matriz invertible
PId = [p1 pn ] tal que APId = PId (diag( 1 ; :::; n )); luego
Api = i pi 8i = 1; :::; n:
Entonces para toda 2 Sn la matriz P = p (1) p (n) es invertible y
AP = Ap (1) Ap (n) = (1) p (1) (n) p (n) = P (diag( (1) ; :::; (n) )) =P D :
Luego 8 2 Sn A es semejante a la matriz diagonal D : Es decir, A es
semejante a todas las matrices diagonales que tienen a los n valores propios
(algunos pueden estar repetidos) de A en su diagonal en cualquier orden
posible. Además, A no puede ser semejante a una matriz diagonal D distinta
de las D ; ya que en tal caso no tendrían el mismo polinomio característico,
por que existiría diferencia en la multiplidad algebraica de algún valor propio
j de A como raíz de PA ( ) y la multiplicidad algebraica de j (que puede
ser cero) como raíz de PD ( ):
p
3. (p) Si A 2 Mn (C) y 2 R+ es un valor propio de A2 : Demuestre que
o es valor propio de A:
Demostración. valor propio de A2
) det( In A2 ) = 0
p p
) det(( In A)( In + A)) = 0
p p
) det( In A) det( In + A) = 0
p p
) det( In A) = 0 o det( In + A) = 0
p p
) det( In A) = 0 o ( 1)n det( In A) = 0
p p
) det( In A) = 0 o det( In A) = 0
p p
) valor propio de A o valor propio de A:
1. ( ) Sean A; B; P 2 Mn (C) con P es ivertible. Si P 1 AP y P 1 BP son
matrices diagonales, pruebe entonces que AB = BA:
209

Demostración. Puesto que matrices diagonales conmutan,


) (P 1 AP)(P 1 BP) = (P 1 BP)(P 1 AP)

) P 1 ABP = P 1 BAP

) AB = BA:
2. ( ) Demuestre que existen matrices no nulas en Mn (C) cuyo polinomio
característico es n :
Demostración. Si A 2Mn (C) es triangular superior con la propiedad adi-
cional de que todos los escalares en diagonal principal son cero, entonces
In A es triangular superior y todos sus componente en la diagonal prin-
cipal son iguales a ; por tanto PA ( ) = det( In A) = n :

1. ( ) Si A 2 Mn m (K) y P 2Mn (K) es P invertible. Demuestre que PA = 0


implica A = 0:
Demostración. Si a1 ; :::; am son las columnas de A; entonces PA = 0 implica
que [Pa1 Pam ] = 0; de donde Pai = 0 para i = 1; :::; m. Luego todas las
columnas de A son solución del sistema homogéneo Px = 0; y por ser P
invertible, se sigue por Corolario 1, que todas las columnas de A son nulas,
por tanto A es la matriz nula.

2. ( ) Si A 2 Mm n (K) y P 2Mn (K) es P invertible. Demuestre que PA = 0


implica A = 0:
Demostración. AP = 0 implica que PT AT = (AP)T = 0T = 0 y como PT
es también invertible, entonces por problema anterior AT = 0 y por tanto
A = 0:
1. Si x = [x1 xn ]T 2 Cn y kxk2 = 1: Demuestre que para cada i = 1; :::; n
existe una matriz unitaria Ui 2 Mn (C) que tiene a x como su columna
i ésima.

Demostración. Sea i 2 f1; :::; ng y ei el i ésimo vector canónico de Cn : Si


xi = 0; entonces hei ; xi = 0 2 R, y como kxk2 = 1 = kei k2 se tiene, por
Lema 4, que existe Ui 2 Mn (C) unitaria tal que Ui ei = x: Pero Ui ei dá
xi
como resultado la columna i de Ui : Ahora, si xi 6= 0 notamos que ei
jxi j
cumple con:
xi jxi j xi xi
ei = kei k2 = 1 = kxk2 y ei ; x = xi = jxi j 2 R.
jxi j 2 jxi j jxi j jxi j
210 CHAPTER 10. DESECHOS

xi
Luego, por Lema 4, existe una matriz unitaria U0i 2 Mn (C) tal que U0i ( ei ) =
jxi j
xi xi 0
x: Pero como = 1; entonces, por Teorema 64, Ui = U es unitaria
jxi j jxi j i
y la columna i de Ui es Ui ei = x:

De…nition 89 Si A; B 2 Mn n (K) decimos que A es semejante a B si


existe una matriz invertible P 2 Mn n (K) tal que B = P 1 AP. Como la
igualdad anterior equivale a que A = PBP 1 = (P 1 ) 1 BP 1 con P 1 2
Mn n (K) invertible, entonces se tiene que A semejante a B equivale a B
semejante a A: Por lo tanto diremos que A y B son matrices semejantes
para indicar que A es semejante a B o que B es semejante a A:

problema. Si Q 2Mn (C) es una matriz invertible. Demuestre que la


función
' : C C n ! C Cn
x 7 ! Qx
es biyectiva. (hubicar en T.L)
1. ( ) Si A 2Mn (C), 2 Spec A, x es un vector propio de A asociado a ,
1
2 C f g y In A es invertible. Demuestre que x = ( In A) 1 x:
Demostración.

( In A)x = In x Ax = x x=( )x;


1
entonces x = ( In A) 1 x:
6. ( ) Si A; B 2Mn (C); n > 1 y PA ( ) = PB ( ): Demuestre que no nece-
sariamente A y B son semejantes.
Demostración. Si A 2Mn (C) es una matriz triangular superior con su columna
n ésima, an ; no nula y con su diagonal principal nula, entonces PA ( ) =
n
= P0 ( ): Si suponemos que A y 0 son semejantes, entonces existe P 2
Mn (C) invertible tal que PA = P 0 = 0; de donde P an = 0; en consecuencia
el sitema homogéneo Px = 0 tiene soluciones no triviales, por tanto P es no
invertible. Tal contradicción se ha presentado por haber supuesto que A y
0 son semejantes. Luego A y 0 no son semejantes, pero tienen el mismo
polinomio característico.
2. Sean T : C Cn ! C Cn una transformación lineal y B1 = fx1 ; :::; xn g ;
B2 = fy1 ; ::::; yn g bases ortonormales de C Cn : Demuestre que la matriz que
representa a T respecto de las bases B1 ; B2 es una matriz unitaria.(REHUBICAR)
211

( ) Si
2 3
1 n
6 n+1 2n 7
6 7
A =6 .. .. . 7 2 Mn (K); n 3:
4 . . .. 5
(n 1)n + 1 n2

Demuestre que det (A) = 0:


Demostración. Multiplicando por 4 la …la 2 de A y por 2 la …la 3 de A;
obtenemos la matriz

2 3
1 2 3 n
6 4n + 4 4n + 8 4n + 12 4n + 4n 7
6 7
6 4n + 2 4n + 4 4n + 6 4n + 2n 7
6 7
A1 = 6 3n + 1 3n + 2 3n + 3 3n + n 7
6 7
6 .. .. .. ... .. 7
4 . . . . 5
(n 1)n + 1 (n 1)n + 2 (n 1)n + 3 (n 1)n + n

Restandole a la …la 2 de A1 la …la 3 de A1 ; obtenemos la matriz

2 3
1 2 3 n
6 2 4 6 2n 7
6 7
6 4n + 2 4n + 4 4n + 6 4n + 2n 7
6 7
A2 = 6 3n + 1 3n + 2 3n + 3 3n + n 7
6 7
6 .. .. .. .. .. 7
4 . . . . . 5
(n 1)n + 1 (n 1)n + 2 (n 1)n + 3 (n 1)n + n

y multiplicando la …la 2 de A2 por 1=2 obtenemos la matriz

2 3
1 2 3 n
6 1 2 3 n 7
6 7
6 4n + 2 4n + 4 4n + 6 4n + 2n 7
6 7
A3 = 6 3n + 1 3n + 2 3n + 3 3n + n 7:
6 7
6 .. .. .. .. .. 7
4 . . . . . 5
(n 1)n + 1 (n 1)n + 2 (n 1)n + 3 (n 1)n + n
212 CHAPTER 10. DESECHOS

Luego
det(A) = (1=4)(1=2) det(A1 ) = (1=8) det(A2 ) = (1=8)(2) det(A3 ) = (1=4)(0) = 0:
4. Si xi 6= xj cuando i 6= j. Demuestre que el determinante de la matriz de
Vandermonde (n + 1) (n + 1)
2 3
1 x0 x20 xn0 2 xn0 1
xn0
6 1 x1 x 2
xn1 2 xn1 1
xn1 7
6 1 7
6 .. .. 7
4 . . 5
1 xn x2n xnn 2 xnn 1 n
xn
Q
es igual a (xi xj ):
0 j<i n
Demostración por inducción sobre n. Para n = 1 tenemos que

1 x0 Y
det = x1 x0 = (xi xj ):
1 x1
0 j<i 1

Luego lo a…rmado es cierto para n = 1: Supongamos que la fórmula para


el determinante de las matrices de Vandermonde n n es válida. Entonces,
si para i = 2; :::; n restamos x0 veces la columna i 1 a la columna i de la
matriz 2 3
1 x0 x20 xn0 1 xn0
6 1 x1 x2 xn1 1 xn1 7
6 1 7
6 .. .. 7
4 . . 5
2 n 1 n
1 xn xn xn xn
Q
n
y factorizando (xi x0 ) del resultado, tenemos que
i=1
2 3
1 x0 x20 xn0 1
xn0
6 1 x1 x21 xn1 1
xn1 7
6 7
det 6 .. .. .. .. .. 7
4 . . . . . 5
1 xn x2n xnn 1
xnn
2 3
1 x0 x0 x20 x20 xn0 1 xn0 1 xn0 xn0
6 1 x1 x0 x21 x0 x1 xn1 1 x0 xn1 2 xn1 x0 xn1 1 7
6 7
= det 6 .. .. .. .. .. 7
4 . . . . . 5
1 xn x0 x2n x0 xn xnn 1
x0 xnn 2
xnn x0 xnn 1
213
2 3
1 0 0 0 0
6 1 7
6 xn1 2
xn1 1 7
Y
n
6 x1 x0 1 x1 7
= (xix0 ) det 6
6 .. .. .. .. .. 7:
7
i=1 6 . . . . . 7
4 1 5
1 xn xnn 2
xnn 1
xn x0
Ahora, desarrollando el determinante de la matriz
2 3
1 0 0 0 0
6 1 7
6 xn1 2 xn1 1 7
6 x1 x0 1 x1 7
6 .. .. .. .. .. 7
6 . . . . . 7
6 7
4 1 5
1 xn xnn 2 xnn 1
xn x0
por la primera …la y usando la hipótesis inductiva tenemos que
2 3
1 x0 x20 xn0 1 xn0
6 1 x1 x2 xn1 1 xn1 7
6 1 7
det 6 .. .. .. .. .. 7
4 . . . . . 5
2 n 1
1 xn xn xn xnn
2 3
1 0 0 0 0
6 1 7
6 xn1 2 xn1 1 7
Y
n
6 x1 x0 1 x1 7
= (xi x0 ) det 6
6 .. .. .. .. .. 7
7
i=1 6 . . . . . 7
4 1 5
1 xn xnn 2 xnn 1
xn x0
" #
Y
n Y Y
= (xi x0 ) ( 1)1+1 (1) (xi xj ) = (xi xj ):
i=1 1 j<i n 0 j<i n
214 CHAPTER 10. DESECHOS

PARCIAL

1. Sea W un subespacio de dimensión …nita de un espacio con producto


interior (K V; h ; i): Demuestre que para todo v y u de K V

hProyW v , ui = hv , ProyW ui :

2. Sean (K V; h ; i) un espacio con producto interior, k k la norma en K V


inducida por h ; i ; U un subespacio de K V y fu1 ; :::; un g una base ortonormal
Pn
de U: De…na P :K V ! U con la fórmula P (v) = hv ; ui i ui : Demuestre
i=1
que:
(a) P es una transformación lineal;
(b) P es idenpotente (es decir, P 2 = P );
(c) P (u) = u para todo u 2 U ;
(d) kP (v)k kvk para todo v 2 K V:

3. Dótese a R P2 con el producto interior


Z 1
hp(x) ; q(x)i = p(x)q(x) dx:
0

Considere la norma inducida por tal producto interior y aplique el proceso


de Gram - Schmidt a la base de R P2 f1; x; x2 g para obtener una base orto-
normal de R P2 :

También podría gustarte