Algebra lineal
Espacios vectoriales
Integrantes
Ariel Seas
Bladdimir Seña Romero
Robert Daniel Jiménez Macoñó
Jorge Villarroel Castedo
Espacios vectoriales
Un espacio vectorial E=(V,F)
Es un conjunto de elementos llamados
vectores sobre un campo F donde
x+y=y+x y pertenece a V
x+(y+z)=(x+y)+z
Existe el vector 0, tal que 0+x=x+0=x
Para cada vector x existe el –x, tal que x-x=0
Espacios vectoriales
Cada elemento dol campo es llamado un
escalar
µ(x+y)= µx+µy
µx= xµ
(µ1+ µ2)x= µ1(x)+ µ2(y)
1x=x 1 la unidad multiplicativa del campo
Espacios vectoriales
ejemplos
Espacios vectoriales
Teorema
0v=v0=0
0v=0v+0v-0v=(0+0)v-0v=0v-0v=0
(-1)v=-v
v+(-1)v=1v+(-1)v=(1-1)v=0v=0
Agregando –v a ambos lados se tiene el
resultado
Subespacio
Sea (V,F) un espacio, entonces (S,F) es
un subespacio de (V,F) si preserva todas
las características de espacio y S es un
subconjunto de V
Subespacio
ejemplos
Creación de espacios
Teorema.
Espacio vectorial (V,F)
S subconjunto de V
Si v1,…vn están en S, entonces también 1v1+…
+nvn, donde i son elementos del campo
(S,F) es un subespacio
Demo en clase por los alumnos
Creación de espacios
Preguntas importantes
¿En qué condiciones dos conjuntos S1, S2
crean el mismo espacio vectorial?
¿Cúal es la cardinalidad mínima de QS tal
que Q y S crean el mismo espacio vectorial?
¿Cúando S crea el mismo espacio que
contiene a los vectores de S?
Dependencia e independencia
lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. El vector
y=1v1+2v2+...+nvn donde los
coeficientes son escalares será llamada
combinación lineal de S.
Dependencia e independencia
lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. S es linealmente
independiente si 1v1+2v2+...
+nvn=0 tiene como única solución la
trivial. De lo contrario se llamarán
linealmente dependientes.
Dependencia e independencia
lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. Si S es linealmente
independiente, entonces el espacio
creado por S será llamado espacio
generado por S.
Dependencia e independencia
lineal
Sea S={v1,v2,...vn} un conjunto de
vectores. Para mostrar si es linealmente
independiente se resuelve la ecuación:
1
2
[v1 v2 ... vn] ... =0
n
Dependencia e independencia
lineal
Entonces ya podemos aplicar Gauss para
resolver el sistema y ver su solución
Si la matriz [v1 ...vn] es de rango n entonces
tiene solución única
Si la matriz [v1 ... vn] es de rango menor a
n, entonces tiene más de una solución.
Dependencia e independencia
lineal
Ejemplos en clase
Bases, Dimensión y
coordenadas
Definición. Sea (V,F) un espacio vectorial,
entonces el conjunto S={v1, v2, ...vn}
será una base para (V,F) si S genera
(V,F).
S es linealmente independiente
S genera (V,F)
Bases, Dimensión y
coordenadas
ejemplos de bases en diferentes espacios
Bases, Dimensión y
coordenadas
Notita. Si z es una C.L. (combinación lineal) de
los vectores x1,...,xr; y xi es una C.L. de los
vectores y1,...,ys. Entonces z es una C.L. de los
vectores y1,...,ys.
z=a1x1+...+arxr
z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys)
Es una propiedad de transitividad
Bases, Dimensión y
coordenadas
Notita. Si algunos vectores x1,...,xn son
linealmente dependientes (L.D.) entonces
todo el sistema x1,...,xn son L.D.
Suponer que x1,...,xk (k<n) son L.D.
a1x1+...+akxk=0 con ai diferente de nulo.
a1x1+...+akxk+0xk+1+...+0xn=0 es
solución y el sistema es L.D.
Bases, Dimensión y Coordenadas
coordenadas
La base B={v1, ..., vn} es un conjunto,
pero tiene un orden para facilitar trabajos
futuros. 1
Representación. Un vector v se puede 2
reescribir en términos de una base.
v=1v1+2v2+...+nvn, a donde ...
Es la representación del vector
n
Bases, Dimensión y
coordenadas
Ejemplos de representación de vectores
Bases, Dimensión y
coordenadas
Teorema. La representación del vector es
única
v=1v1+2v2+...+nvn=
1’v1+2’v2+...+n’vn
(1-1’)v1+...+ (n-n’)vn=0
base L.I. entonces la única solución
es cero (i-i)=0 i=i’
Bases, Dimensión y
coordenadas
Notita. El teorema anterior es cierto si
dice que z=a1x1+...+akxk los ai son únicos
ssi los xi son L.I.
Bases, Dimensión y
coordenadas
Definición. Sea (V,F) un espacio vectorial.
Dos subespacios de (V,F); (V1,F) y (V2,F)
se dicen equivalentes si los vectores de
uno se pueden escribir como C.L. del otro
y viceversa.
Bases, Dimensión y
coordenadas
Teorema. Suponer que B={v1, ...,vp} es
una base para (V,F) y suponer que
D={u1,...,uq} es un subconjunto L.I. en
(V,F), entonces qp
Demostración.
Como B es una base, entonces uiD,
(V,F) se puede expresar como una C.L.
de B
Bases, Dimensión y
coordenadas
S1={u1,e1,...,ep} es L.I. Existe un vector que
es C.L. de los anteriores, digamos que es ei.
Por transitividad el resto {u2,...,uq} es una C.L.
de S1-{ei} y se puede aplicar el mismo
procedimiento
Como se observa el procedimiento no puede
eliminar todos los vp vectores antes de que los ui
vectores se hayan agotado y qp.
Bases, Dimensión y
coordenadas
Teorema. Número de vectores en la base.
Suponer que para un espacio (V,F) se tiene una
base con p vectores. Entonces todas las bases
tienen p vectores.
Demo. Aplicar teorema anterior suponiendo que
se tiene otra base con q vectores. qp.
Aplicar partiendo de la base con q vectores
pq q=p.
Bases, Dimensión y
coordenadas
Definición. Al número de vectores en la base de un
espacio (V,F) se le llama dimensión de (V,F).
En especial, todos los subespacios equivalentes también
tienen un conjunto de vectores que lo generan (ya que
son un espacio en sí) y se tiene una base y por tanto
también tienen su dimensión. En tal caso es más
adecuado hablar de rango que de dimensión, ya que
podemos hablar de un subespacio en R3, pero de rango 2.
A su vez, a la dimensión del espacio completo se le puede
llamar rango, pero es mejor hablar de dimensión.
Bases, Dimensión y
coordenadas
El espacio Rn tiene timensión n.
Si la dimensión de un espacio es p
cualquier conjunto con s vectores s>p es
L.D.
En efecto, la base tiene p vectores y el
resto será una C.L. de la base.
Bases, Dimensión y
coordenadas
Teorema. Un espacio tiene dimensión finita k ssi
k es el maximo número de vectores que se
pueden obtener en el espacio.
Demo. Si la dimensión es k la base tiene k
vectores son L.I. y cualquier otro es una C.L.
de la base (ya no es L.I.).
Si el máximo número de vectores L.I. es k
estos generan todo el espacio y por tanto es
una base k es la dimensión.
Bases, Dimensión y
coordenadas
Ok, regresemos a la representación de
vectores
B1={ 1 0 }
0 1
4 1 0
=4 +4
4 0 1
Bases, Dimensión y
coordenadas
El mismo vector en otra base
B2={ 1 0 }
1 1
4 1 0
=4 +0
0 1 1
Bases, Dimensión y
coordenadas
Si el mismo vector se puede representar
en diferentes bases, ¿se podrá
transformar de una en otra?
1 0 4 1 0 4
=
0 1 4 1 1 0
Bases, Dimensión y
coordenadas
-1
1 0 1 0 4 4
=
1 1 0 1 4 0
Matriz de cambio de base de B1 a B2
Bases, Dimensión y
coordenadas
• El concepto fácilmente se puede
generalizar a cualquier par de bases
• Lo que es más chido...
• (P[x]2,R) una posible base es B={1, x, x2}
1
• v1=1 en la base
0
0
Bases, Dimensión y
coordenadas
• v2=x en la base 0
1
0
0
• v3=x2 0
1
Bases, Dimensión y
coordenadas
• v4=1-x
• v5=3+x
• v6=-2+2x+x2
• v7=2+3x+7x2
• ¿Son L.I.?
¡¡¡Todo cambia a matrices!!!
Espacios vectoriales
Kernel, imagen, espacio columna y espacio fila de una
matriz
Ecuaciones lineales y espacios vectoriales
Cambio de base
Espacio cociente
Sumas y sumas directas
Pausa: Cosas de una Matriz
Kernel.
Todos los x tales que Ax=0
Kernel={x|Ax=0}
Se puede hablar de dos kerneles, el
izquierdo y el derecho
KerI={y|yTA=0}
KerD={x|Ax=0}
Pausa: Cosas de una Matriz
Imagen
Todos los y que son obtenidos de A
multiplicado por un vector
Imagen={y|Ax=y}
Pausa: Cosas de una Matriz
Teorema (operaciones columna y dependencia
lineal). Suponer que una secuencia de
operaciones elementales por renglón transforma
la matriz A en la matriz B, entonces:
Una colección de columnas de A es linealmente
dependiente (independiente) ssi la collección
correspondiente de columnas de B es linealmente
dependiente (independiente).
Una matriz renglón puede ser escrita como una
combinación lineal de (esto es linealmente dependiendte
de) todos los renglones de A ssi puede ser escrita como
una combinación lineal de todos los renglones de B.
Pausa: Cosas de una Matriz
Demostración caso 1.-
Sea F=E1E2...En la secuencia de matrices elementales que
realizan las operaciones elementales que transforman a A
en B.
F tiene inversa=no singular
FA=B
Fx=0 x=0 (solución única)
Si las columnas de A son L.D. entonces
1a1+2a2+...+nan=A[]
FA[ ]=B[ ]
Si A es LD hay muchas combinaciones
Pausa: Cosas de una Matriz
que dan cero esas mismas combinaciones en B
dan cero y sus columnas son LI.
Si A tiene una sola combinación que da cero,
entonces en B será la única posibilidad de dar cero,
ya que sólo es este caso FA[]=0
Apliquemos esto a cualquier colección de columnas
de A y se tendrá la demostración de la primera parte.
Demostración caso 2.-
Un matriz renglón y es una CL de los renglones de A
ssi y=xA para alguan matriz renglón x, pero y=xF-
1FA=x’B, para x’=xF-1
Pausa: Cosas de una Matriz
como FA=B; y y=x´B ssi y es una CL de
los renglones de B.
Pausa: Cosas de una Matriz
Veamos más a fondo el método de Gauss
1 -1 2 3 1 -1 2 3
-1 1 1 2 0 0 3 5
1 2 4 1 0 3 2 -2
1 3 1 2 0 4 -1 -1
Pausa: Cosas de una Matriz
Veamos más a fondo el método de Gauss
1 -1 2 3 1 -1 2 3
0 3 2 -2 0 1 2/3 5/3
0 0 3 5 0 0 2 -2
0 4 -1 -1 0 0 -11/3 -23/3
Pausa: Cosas de una Matriz
Veamos más a fondo el método de Gauss
1 -1 2 3 1 -1 2 3
0 1 2/3 -5/3 0 1 2/3 5/3
0 0 1 -1 0 0 1 -1
0 0 -11/3 -23/3 0 0 0 1
Pausa: Cosas de una Matriz
Columnas dominantes
2 3 1 1.5
1 1 0 1
Matriz Forma de Gauss
Pausa: Cosas de una Matriz
Columnas dominantes
1 -1 1 -1
-1 1 0 0
Matriz Forma de Gauss
Pausa: Cosas de una Matriz
Columnas dominantes
0 -1 0 1
0 1 0 0
Matriz Forma de Gauss
Matrices
1. Por intercambio de renglones hacer que
el elemento (1,1) sea diferente de cero.
2. Si no es posible es porque toda la
columna 1 es igual a cero, tacharla y
tratar de hacer lo mismo para la
submatriz generada
3. El proceso se repite hasta tener un
elemento diferente de cero.
Matrices
4. Todo el renglón se divide entre el
elemento diferente de cero y se procede
a hacer cero el resto de los elementos
de esta columna de acuerdo al método
de Gauss
Matrices
5. Una vez hecho esto se tacha el renglón
y se obtiene una nueva submatriz
6. Con esta nueva submatriz se procede
desde el punto 1)
7. El resultado es la matriz en la forma de
Gauss
Matrices
Si se tiene un renglón diferente de cero,
entonces a la primer columna diferente
de cero se le llamará dominante o líder.
Pausa: Cosas de una Matriz
Teorema (matrices reducidas y dependencias)
Suponer que G es una matriz en la forma de
Gauss y de rango k
a) El conjunto de las k columnas líderes es
linealmente independiente
b) Cualquier columna a la izquierda de la
primera columna líder es una columna cero.
Cualquier columna a la izquierda de la i-ésima
columna líder es combinación lineal de las
anteriores columnas líderes.
Pausa: Cosas de una Matriz
Definición.- Sea A una matriz de p*q
a) El espacio columna de A es el
subespacio que es generado por el
conjunto de columnas de A
b) El espacio renglón de A es el
subespacio generado por los renglones
de A.
Pausa: Cosas de una Matriz
Poner ejemplos
Dar las condiciones para que el sistema
tenga solución.
Ax=b
Pausa: Cosas de una Matriz
Teorema. Sea una matriz A de rango k.
Entonces
a) El espacio columna de A tiene diemnsión k.
Una base son las columnas líderes.
b) El espacio renglón es de dimensión k, una
base son los renglones diferentes de cero.
c) Una matriz p*p es no singular si sus
columnas son LI rango p
d) Una matriz p*p es no singular si sus
renglones son LI rango p
Matrices
Corolario
Rango por columnas = rango por filas
Teorema (espacios renglón iguales). Sea
A1 y A2 matrices de tamaño r*q y s*q
respectivamente. El espacio renglón de
A1 es igual al espacio rengloón de A2 ssi
los renglones no cero de las matrices de
Gauss coinciden.
El maldito Kernel otra vez
Definición: Sea f:XY una función de X a Y.
Con f se asocia una relación de equivalencia
llamada equivalencia kernel de f y se denota por
Ker f y está definida como sigue:
x1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que sí es una relación de equivalencia y por
tanto particiona a X)
Por qué se le llama
equivalencia kernel
Sucede que en el caso de homomorfismos si
f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e.
x1-x2 está en el kernel de f.
Claramente una matriz A puede ser considereda
como una función (y aún más, un
homomerfismo, chequen en clase esto y verán
que si la hace). Entonces el kernel que
definimos de A es consistente con el kernel en
homomerfismos y sucede que:
Por qué se le llama
equivalencia kernel
El kernel de A es un subespacio
La imagen de A es un subespacio
Ya qué no saben qué, A/ker A es un
espacio y se le llama espacio cociente.
Entendamos bien esto, que
está demasiado fácil, salvo la
primera vez
Encontrar Kernel, imagen (range, no
rank), A/Ker A de la siguiente matriz A.
1 -1
-1 1
Sistemas Lineales III:
Control Geométrico-1.8
Sean X y Y dos conjuntos cualesquiera. Sea A:XY una
función cualquiera. Entonces se puede definir la relación
Ker A de la siguiente forma:
x1~x2 ssi A(x1)=A(x2)
Note que la relación Ker A es una relación de
equivalencia.
Como es una relación de equivalencia, entonces diremos
que x1x2 (mod Ker A) –x1 es equivalente a x2 módulo
Ker A- -También se dice que x1 es congruente a x2 vía
Ker A o que la relación Ker A es una congruencia-
Significado geométrico de esta relación
X Y
clusters
x1 y1
x2
x3 y2
x4
x5 y3
y4
x6
Imagen de A
Observe que hay tantos clusters como imágenes de A
Podemos hacer el conjunto de los clusters
Significado geométrico de esta relación
clusters
A este conjunto lo llamaremos X/Ker A,
o conjunto cociente X/Ker A
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
(A menudo yo le llamo conjunto de clustercillos)
Significado geométrico de esta relación
X/Ker A
Noten que la relación Ker A está dando
c1={x1, x2, x3} una medida de la inyectividad de A. Si
el número de clusters es igual al
número de elementos en X, entonces A
es inyectiva.
c2={x4}
c3={x5, x6}
A los clusters se les llama coconjuntos (cosets) y son justamente los
subconjuntos de X sobre los cuales A tiene diferente valor. También se
les suele llamar las “fibras” de A.
Significado geométrico de esta relación
Ejem. A(x)=x módulo 4 -es el residuo de la división, no la congruencia
X
1 5 9
0 4 8 3 7 Aquí está A
2 6
X/Ker A Y
c2=[1 5 9] 1 3
0
c1=[0 4 8] c4=[3 7]
c3=[2 6] 2
Como X/Ker A y la imagen de A tienen la misma cantidad de elementos,
entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker AIm(A)]
Significado geométrico de esta relación
Proposición. Sea A:XY y sea PA:XX/Ker A su proyección canónica,
entonces g:X/ker Aim(A) tal que A=gPA, donde g es un isomorfismo.
X
1 5 9
0 4 8 3 7 Aquí está A
2 6
PA
X/Ker A Y
c2=[1 5 9] 1 3
c1=[0 4 8] 0
c4=[3 7]
c3=[2 6] 2
Demostración
Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es
función
Cubre todo X. Como A es función, entonces a cubre todo X, y
por la definición anterior, g también cubrirá todo X
Un valor de X/Ker A no está asociado a dos valores de Y.
Suponer que si es así, (z,y1), (z,y2)g.
Entonces y1y2. Por la definición de g se tiene:
z= PA(x1), y1=A(x1) y además
z= PA(x2), y2=A(x2)
Como PA(x1),= PA(x2) implica que A(x1)= A(x2)
Entonces y1=y2, una contradicción, entonces
Un valor de X/Ker A no está asociado a dos valores de Y
Por tanto g(z) si es función.
Demostración
Ahora veremos que g es un isomorfismo.
g es inyectiva. Suponer que no es así, i.e. (z,y),(z’,y)g
Entonces zz’
Entonces z=PA(x) y z’=PA(x’)
Además A(x)=A(x’)=y.
Como tienen la misma y, entonces PA(x)=PA(x’), una
contradicción. Por tanto es inyectiva.
g es sobre. Como g:X/Ker AIm(A), sólo abarca las imágenes
de A. Por definición de g, cualquier imagen de A tiene una
preimagen en X/Ker A. Por lo tanto g es sobre.
Como es inyectiva y sobre, es un isomorfismo.
Demostración
Por definición A=g PA
o
Significado geométrico de esta relación
Estamos en los límites...
Si los conjuntos tienen estructura matemática, p.e. X, Y son espacios
vectoriales y la función A resulta ser un operador lineal.
Ax1=Ax2 es la relación Ker A. Un caso particular es para la imagen
cero.
En este caso todos los x, tales que Ax=0 formarán una clase de
equivalencia. Las demás clases de equivalencia las obtendremos al
estudiar las otras imágenes de A.
Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y
tiene un número infinito de elementos. Una forma más adecuada es
estudiarlos a través de la clase de equivalencia del 0 [0].
Significado geométrico de esta relación
Estamos en los límites...
Por ejemplo, si queremos estudiar el caso para la imagen y, entonces
debemos encontrar todos los x tales que Ax=y.
x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se
tiene que x2[x] ssi (x1-x2)[0].
Como la clase [0] es un subespacio de X
De hecho si Ax=0 y Ay=0, entonces A(x+y)=0 y por tanto es
un subespacio
entonces (x1-x2) span[0], o (x1-x2) = 1e1+2e2+...+nen
Si x1 está fijo, entonces x2= x1-1e1-2e2-...-nen.............................(1)
Como con la clase de equivalencia [0] se generan todas las demás, a está
clase la llamaremos genéricamente Kernel de A.
Significado geométrico de esta relación
Estamos en los límites...
Como se observa, la ecuación (1) es un método para calcular todas las
clases de equivalencia [x2].
Se puede ver que es un un espacio vectorial (el del Kernel) desplazado
por x1 (cualquier vector de la clase).
A esta clase de equivalencia, y sólo cuando hablamos de operadores
lineales en espacios vectoriales, le llamaremos una variedad lineal. No es
un espacio, ya que en general, el cero no está incluído en dicha variedad,
pero si será un espacio vectorial vía módulo algún vector de la clase.
Ejemplos
Significado geométrico de esta relación
Estamos en los límites...
A:22 tal que A([x y]T)=[x–y y-x]T. Claramente A es un operador
lineal y un vector de la forma [k k]T está en la clase de equivalencia [0] o
Kernel de A.
El vector [2 1]T no está en la clase [0], pero si está en la clase [[2 1]T].
Los vectores que pertenecen a esta clase, de acuerdo a la ecuación (1)
son:
X=[2 1]T-[1 1]T
Significado geométrico de esta relación
Estamos en los límites...
Clase [0]
Clase [2 1]T
Significado geométrico de esta relación
Estamos en los límites...
En realidad, cada clase forma una
línea paralela al Kernel de A.
Significado geométrico de esta relación
Si tenemos un operador lineal A:VW, entonces el Kernel de A será un
subespacio de V, y cada una de las clases de equivalencia será una
variedad lineal paralela al Kernel de A.
Más aún, el conjunto de las clases de equivalencia se denotará en la
forma común V/Ker A y será llamado el espacio cociente V/Ker A.
Proposición. Sea un operador lineal A:VW, entonces el conjunto
V/Ker A es un espacio vectorial.
Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene
Significado geométrico de esta relación
[v1]=[v1]+[0] para cualquier v1V. De la ecuación (1) x2= v1-1e1-
2e2-...-nen se observa que esto es cierto, ya que x2[v1].
Los escalares, son los del campo definido en V.
La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y
x1+x2[v3]. Note que está bien definida ya que cualquier x1[v1] y
x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]
Todas las propiedades se pueden demostrar y resulta un espacio vectorial
Significado geométrico de esta relación
,... Pero hay más cosas
Claramente, Im(A)V/Ker A. Vimos que esto se cumple aún en el caso
que no sean espacios vectoriales.
Ahora volvamos a los conjuntos.
Vimos que si A:XY, entonces Ker A es una relación de equivalencia.
Por la definición, cualquier función deja una relación de equivalencia en
su dominio. Pero, además, nosotros sabemos que una relación de
equivalencia sobre un conjunto X es equivalente a una partición de X
Espacios vectoriales con producto interno
Espacios vectoriales con producto
interno
5.1 Producto interno
5.2 Desigualdad de Cauchy-Schwarz
5.3 Ortogonalidad
5.4 Procedimiento de Gram-Schmidt
5.5 Espacios normados
Norma
Definición.- Una norma (o norma
vectorial) en (V,F) es una funcional que
asigna a cada vector v un número real no
negativo, llamado norma del vector v, y
es denotado por ||v|| y satisface:
||v||>0 para v0, y ||0||=0
||v||=|| ||v|| escalar y v vector
||u+v||||u||+||v||
Norma
Definición.- Para vectores x=[x1 x2 ...
xp]T, las normas ||||1, ||||2, |||| son
llamadas norma 1, norma 2 y norma
infinito respectivamente y se definen
como:
||||1=|x1|+|x2|+...+|xp|
||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}
Norma
Definición.- Sea |||| una norma en (V,F). Una
secuencia de vectores vi se dice que converje al
vector v ssi la secuencia de número reales ||vi-
v|| Para vectores x=[x1 x2 ... xp]T, las normas ||
||1, ||||2, |||| son llamadas norma 1, norma 2 y
norma infinito respectivamente y se definen como:
||||1=|x1|+|x2|+...+|xp|
||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}
Norma
Teorema: Sean x, y dos vectores. Entonces |xTy|
||x||2||y||2
Demostración.
sabemos 0||x+y||=(x+y)T(x+y)=||x||22+ 2 ||y||22+2
|xTy|
si =-||x||22/xTy, entonces
0-||x||22+(||x||24||y||22/xTy|2)
Despejando se llega a la desigualdad
Producto interno
Definición. El producto interno en (V,F) sobre un
par de vectores (u,v) que satisface:
(u,v)=(v,u)
(u+v,w)= (u,w)+ (v,w)
(w,u+v)= (w,u)+ (w,v)
(u,u)>0, y es igual a cero si u es cero.
Producto interno
El producto interno (u,v)1/2 induce una norma en el espacio
vectorial.
Definición. Sean el producto interno (,)
u, v son ortogonales ssi (u,v)=0
Un conjunto de vectores son ortogonales ssi cada par de vectores (u,v)
son ortogonales
Si un vector u es usado para producir u/||u|| tal que ||v||=1, entonces
u se dice ser normalizado para producir el vector normalizado v
Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v||=1
para todo vector v
Producto interno
Diferentes productos internos
(u,v)=uTv
si f y g son funciones real valuadas continuas en 0t1,
entonces (f,g)= f (t ) g (t )dt
0
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un
subespacio generado por los vectores ortogonales
S={v1,...,vq}. Defínase la proyección ortogonal como
sigue. Para cualquier vector v
P0v=1v1+...+qvq, donde i=(vi,v)/(vi,vi)
entonces
v-P0v es ortogonal a todo vector v en (V0,F)
P0(u+v)=P0u+P0v
P0(v)= P0v
Proyecciones ortogonales
Demostración
(vi,v-P0v)=(vi,v)-1(vi,v1)-...-q(vi,vq)=(vi,v)- i(vi,vi)=0
Los otros puntos salen de la definición de los
coeficientes .
v
v-P0v
vi
P0v= vi
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial con
producto interno y con su norma inducida por el
producto interno ||||. Sea (V0,F) un subespacio
generado por los vectores ortogonales
S={v1,...,vq}. Entonces para cualquier v, P0v es el
único punto más cercano en (V0,F) a v, y ||v-P0v||
es la distancia de v a (V0,F)
||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)
Proyecciones ortogonales
Demostración.
||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v, v-
P0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)
Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces
se obtiene que:
||v-v0||=||v- P0v||+|| P0v-v0||
entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v- P0v||
+||
Proyecciones ortogonales
Sea S={v1,...,vq} un conjunto de vectores
ortogonales, entonces estos vectores son
linealmente independientes.
si se toma el vector 0=c1v1+...+cqvq, tenemos
que saber el valor de cada ci.
0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi)
como (vi,vi)>0 ci=0 y son L.I.
Proyecciones ortogonales
Se sigue que si el vector proyectado v está en el
espacio (V0,F), entonces P0v será el mismo v y los
valores de las i será la representación del vector
en la base seleccionada S.
Proyecciones ortogonales
Teorema. Sea B={v1,...vq} una base ortogonal. La
representación del vector v se calcula como
v=1v1+...+qvq, donde
i=(vi,v)/(vi,vi)
Note que si la base es ortonormal, entonces los i se
calculan fácilmente
Proyecciones ortogonales
Si tenemos S={v1,...,vq} un conjunto de vetores
que genera (V,F)
Tomar u1=v1,
desde 2 hasta q, ui=vi-Pi-1vi
Transformaciones lineales
Transformaciones lineales
6.1 Definición
6.2 Propiedades
6.3 Kernel e imagen de una transformación lineal
6.4 Representación matricial de una transformación lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales
Transformaciones lineales
Definición. Sean (V,F) y (W,G) dos espacios vectoriales.
Una transformación lineal T de (V,F) a (W,G) es una
correspondencia que asigna a cada vector v en V un
vector w en W tal que:
T(v1+v2)=T(v1)+T(v2)
T(v)= T(v)
Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo
que implica que T(0) debe ser el cero de W.
Transformaciones lineales
El espacio imagen
Todos los vectores w en (W,G) tal que w=T(v)
Solución. Si w es fijo, entonces existe v en (V,F) tal que
T(v)=w ssi w está en la imagen de T.
Se aplica Sobre
Claramente el problema Solución tiene solución si T es
onto.
Transformaciones lineales
Otro problema es si la solución es única.
T(v1)=T(v2)=w
Se aplica Inyectividad
Claramente la solución es única si w esta en la imagen de
T y T es inyectiva.
T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0
También T tiene kernel.
Transformaciones lineales
Más propiedades de las transformaciones lineales
T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v)
T(1v1+...+nvn)= 1v1+...+nvn
Esto se puede ver por asociatividad e inducción
Teorema. Sea (V,F) un espacio vectorial de dimensión finita con
base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si
T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en
(V,F).
Demo, como cualquier vector de (V,F) se escribe como v=
1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)= T1(1v1)+...
+T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)
Transformaciones lineales
Teorema. Sea (V,F) un espacio vectorial de dimensión
finita con base B={v1,...vn} y (W,G) un espacio vectorial
que contiene a los vectores w1,...,wn, entonces existe una
única transformación lineal tal que T(vi)=wi, para vi en B.
Demo. Como cualquier vector de (V,F) se escribe como v=
1v1+...+nvn, entonces T se define como T(v)=1w1+...
+nwn
T será una transformación lineal T(u+v)=T[(1v1+...+nvn)
+(1v1+...+ nvn)]=
=T[(1+1) v1+...+( n+n) vn] Por la definición de T,
= (1+1) w1+...+( n+n) wn=T(u)+T(v)
Transformaciones lineales
De igual forma
T(u)=T[(1v1+...+ nvn)] Por la definición de T,
1w1+...+ nwn= T(u)
Por teorema anterior se tiene la unicidad
Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T:
(V,F)(W,G) una transformación lineal. Demsotrar que el
kernel de T es un subespacio de (V,F) y que la imagen de
T es un subespacio de (W,G).
Transformaciones lineales
Definición. Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformación lineal.
Nulidad de T = (T) =dim (Ker (T))
rango de T = (T) = dim (Im (T))
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformación lineal.
(T)+ (T) = dim (V,F)
Demo. Suponer que (T)=r y que {v1,...vr} es una base
para el kernel; además (T)=k y {w1,...wk} es una base
para la imagen de T.
Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
Transformaciones lineales
Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK
Al Vector v lo podemos escribir como
v= 1u1+...+kuK-v’ v´= 1u1+...+kuK-v
T(v’)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v)
= 1w1+...+kwK-T(v)=0 v’ está en el kernel de T
Como {v1,...vr} es una base de Kernel de T, existen escalares 1
,.., r tal que v’= 1v1+ ... +rvr=1u1+...+kuK-v
Por tanto v= 1u1+...+kuK- 1v1- ... -rvr
y {u1,...,uk, v1,..., vr} genera (V,F)
Ahora hay que ver que sean L.I.
Transformaciones lineales
Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0
Entonces T(1u1+...+ kuK+ 1v1+ ... + rvr)=0
Como los vi están en el kernel
0= 1w1+...+ kwK, como los wi son una base de la
magen, entonces son L.I. y la única solución es i=0
Entonces el vector se reescribe como
1v1+ ... + rvr=0 , como los vi son una base para el kernel
son L.I., entonces la única solución i=0 y los vectores
son L.I.
y por lo tanto es una base y la dimensión de (V,F) es
(T)+ (T) = dim (V,F)
Transformaciones lineales
Sean (V,F) y (W,G) dos espacios vectoriales y T:
(V,F)(W,G) , entonces existe una única matriz A
(dim(v), dim(W)) tal que T(x)=Ax
A est la matriz de transformación correspondiente a T.
Demo
sea B={e1,...,en} la base canónica en (V,F)
T(ei)=wi
Se puede formar la matriz A=[w1 wn]
entonces Aei=wi (T(ei)=wi)
En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn
También Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)
Transformaciones lineales
Suponer que T(x)=Ax=Bx (A-B)x=0,
para x=ei (A-B)ei=0 que la i-ésima columna de (A-B)
es cero, por lo que las matrices son iguales y A es única.
Teorema Sea A la matriz de transformación
correspondiente a T, entonces
i) Im T Im A, pero isomorfo
ii)(T)=(A)
iii)Ker TKer A, pero isomorfo
iv)(T)=(A)
Transformaciones lineales
Teorema. Sean (V,F), (W,G) dos espacios vectoriales de
dimensiones n y m respectivamente. Sea T(V,F)(W,G)
una transformación lineal. Sean B1={v1,...,vn} y
B2={w1,...,wm} las bases de los espacios
respectivamente. Entonces existe una única matriz A
(m,n) tal que:
[T(x)]B2=A(xB1)
[T(x)]B2la representación de T(x) en B2
T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T
xB1 es la representación del vector en B1
La matriz A se conoce como la matriz de transformación
correspondiente a T con respecto a las bases B1 y B2
Transformaciones lineales
Considere los vectores T(v1, ...,T(vn), escríbase
A=[[T(v1)]B2 ... [T(vn)]B2]
Como AviB1=Aei= [T(vi)]B2
y xB1 es la representación del vector en B1, i.e. [1 ... n]T
entonces
A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n
Por otro lado
T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn)
Al poner cada uno de estos vectores en la representación
de la base B2 se obtiene que:
A xB1= T(xB1)
La unicidad es similar al teorema anterior
Transformaciones lineales
Teorema.- Sea A (m,n) la matriz de transformación
correspondiente a T:(V,F)(W,G) con respecto a las
bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente.
Suponga que hay otras bases B1’={v1’,...,vn’} y
B2’={w1’,...,wm’} de los espacios respectivos.
Entonces la matriz A’ correspondiente a la misma
transformación T con respecto a las bases B1’ y B2’ está
dada por:
A’=P-1AQ
P es la matriz de transición (de paso) de la base B2’ en B2
Q es la matriz de transición (de paso) de la base B1’ en
B1
Transformaciones lineales
Demo.
Sabemos que [T(x)]B2=AxB1
Ahora,
xB1=QxB1’ y [T(x)]B2=P[T(x)]B2’
Por tanto
P[T(x)]B2’=A QxB1’
[T(x)]B2’=P-1A QxB1’
A’=P-1AQ es la matriz de transformación
Transformaciones lineales
En especial, si (V,F) y (W,G) son los mismos, entonces
A’=P-1AP
Definición. Se dice que dos matrices cuadradas A y B son
similares si existe una matriz P no singular (determinante
diferente de cero) tal que
B=P-1AP
Transformaciones lineales
Transformaciones T
Inyectiva Kernel T = {0}
Sobre
Teorema. T:VW una transformación lineal y dim v=n y
dim w=m
i) si n>m, T no es inyectiva
ii) si m>n T no es sobre
Demo. Tarea.
Transformaciones lineales
Definición. Una T.L es un Isomorfismos ssi es inyectiva y sobre.
La matriz de un isomorfismo es invertible.
Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe un
isomorfismo entre ambos
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de
dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim
(V,F)=dim (W,G)
Demo. Obtener bases para cada uno. Entonces quedan
representados en (Rn,R). Como son bases en el mismo espacio,
existe una matriz de cambio de base A. por teoremas anteriores
existe una T.L. asociada a A que es un isomorfismo.
Si existe el isomorfismo entre las representaciones, lo existe
entre los espacios.
Transformaciones lineales
Corolario. Cualquier espacio de dimensión n es isomorfo a (Rn,R)
Teorema. Si T:(V,F)(W,G) es un isomorfismo
i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera
(W,G)
ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I.
iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una
base.
Demo.
i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)}
genera (W,G)
iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ...
+nvn)=0, como T es isomorfismo T(0)=0 es el único. Entonces 1v1+ ...
+nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.
iii) se sigue de anteriores.
Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo
vector wW existe un único vector v V tal que
T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la
transformación inversa de T.
Demo. 2 partes T-1 es T.L. y T-1(w)=v único
T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2
T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2
T(v1)= T(v1)= w1 T-1(w1)= v1
Como T es isomorfiso, la definición de T-1 hace que exista un
único valor de regreso.
Nota. T es T.L. A es su operador
T-1 es la inversa de T, entonces A-1 es el operador de T-1
Transformaciones lineales
Operaciones con transformaciones lineales
Sean (V,F) y (W,F) dos espacios vectoriales sobre el
mismo campo F. Hom(V,W) es el conjutno de todas las
transformaciones lineales entre (V,F) y (W,F).
Sean T1 y T2 dos T.L. entre (V,F) y (W,F)
Se define la suma T1+T2 como
T1+T2:VW (T1+T2)(v)=T1(v)+T2(v)
para todo F, T1 es
(T1)(v)=T1(v)
Transformaciones lineales
El conjunto Hom(V,W) definido anteriormente es un
espacio vectorial sobre el campo F.
Demo. Tarea.
Algebra de Transformaciones
lineales
Definición. Un álgebra A sobre un campo F es un espacio
vectorial sobre F en el que se tiene definida una
operación producto que satisface para todos los
elementos T1, T2, T3 A y F:
T1(T2+T3)=T1T2+T1T3
(T2+T3)T1=T2T1+T3T1
(T1T2)=(T1)T2=T1(T2)
Si además se cumple que
(T1T2)T3=T1(T2T3)
entonces A es un álgebra asociativa
Algebra de Transformaciones
lineales
Definición. Sean V, U y W espacios vectoriales sobre el mismo
campo F. Sean T1:VU y T2:UW dos transformaciones
lineales.
Se define la composición de T2 seguida de T1 T2T1 como la
función de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v))
Proposición. Si T1 y T2 son TL, entonces T2T1 también lo es.
Demo. Sean u,v V y , F, entonces
(T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u))
= (T2T1)(v)+ (T2T1)(u)
(T2T1) es T.L.
Puede verse que Hom(V,V) con la composición es un álgebra
asociativa.
Adicional de Transformaciones
lineales
Sean A, B dos matrices de qxn y nxp con coeficientes en
el mismo campo.
Entonces (A)+(B)-n (AB) min((A), (B))
Demo
(A) R(A) R(AB)
(B) R(B)
d
p n
n(A)
n(B)
Adicional de Transformaciones
lineales
De la figura (AB)min((A), (B)).
También (AB)= (B)-d (la intersección de R(B) y n(A).
La dimensión de n(A)=n- (A) d n+ (A)
y se sigue que (AB) (A)-n+ (B)
Si B es no singular
(A)+(B)-n = (A) (AB) min((A),n) = (A)
(A) R(A) R(AB)
(B) R(B)
d
p n
n(A)
n(B)
4. Valores y vectores propios
Valores y vectores propios
Definición y propiedades
Teorema de Cayley-Hamilton
Diagonalización de matrices
Valores y vectores propios
Definición. Sea V un espacio vectorial y
T:VV una transformación lineal del
espacio en sí mismo. Sea vV un vector
diferente de cero pa el cual existe un
escalar tal que T(v)=v,
entonces se dice que es un valor propio
de T y que v es un vector propio de T
asociado a .
Valores y vectores propios
Cuando V es un espacio de dimensión finita, la
transformación T la podemos representar como
una matriz A de n,n. Entonces podemos redefir
los valores y vectores propios de la siguiente
forma.
Definición. Sea A una matriz de n,n. El escalar
se denomina valor propio de A si existe un
vector x diferente del nulo, tal que Ax= x
nuevamente x es el vector propio asociado a .
Valores y vectores propios
Teorema. Sea A una matriz de n,n. Entonces
es un valor propio de A ssi det(I-A)=0
Demo.
Sólo si. Suponga que es un valor propio de A;
entonces existe un vector x diferente de cero tal
que Ax= x
(I-A)x=0, como x diferente de cero (I-A)
es singular det(I-A)=0
Valores y vectores propios
(si). Si det( I-A)=0 ( I-A) es singular
( I-A)x=0 tiene soluciones diferentes de
cero, entonces existe x diferente de cero
tal que Ax= x.
Valores y vectores propios
Definición. La ecuación det(I-A)=0 se conoce como
ecuación característica de A, y el polinomio p()=det(I-A)
Observe que p()=(det(I-A)=a0+a1+...+an
por el teorema fundamental del álgebra, cualquier
polinomio de grado n tiene n raíces (contando
multiplicidades).
p()=(det(I-A)=a0+a1+...+an=
(- 1)r1...(- m)rm
Los número ri son la multiplicidad algebraica de los valores
propios de 1,..., m.
Valores y vectores propios
Teorema. Sea un valor propio de A y
E={x|Ax= x}. Entonces E es un
subespacio vectorial de Cn
Nótese que E son las soluciones de (I-
A)x=0, es decir el kernel de un operador
lineal es un subespacio vectorial.
Valores y vectores propios
Definición. Sean un valor propio de A.
Entonces E se denomina espacio propio de A
correspondiente a .
Definición. Sea E el espacio propio de A debido
a . A la dimensión de E se le conoce como
multiplicidad geométrica de .
Multiplicidad geométrica de =dim E=dim{Ker
(I-A)}
Valores y vectores propios
Ejemplos y procedimientos de cálculo.
4 -2 2 -1 1 -1
1 1 -4 2 2 -1
Valores y vectores propios
Teorema. Sea un valor propio de A.
Entonces se cumple que la multiplicidad
geométrica de multiplicidad algebraica
de
Valores y vectores propios
Teorema. Sean 1, 2, ..., m valores propios diferentes
de A (n,n), donde mn y sean x1, x2,..., xm sus vectores
propios correspondientes. Entonces x1, x2, ..., xm son
linealmente independientes.
Demostración.
Suponga que {x1,...,xm} son L.D. y que xs es el primer
vector L.D. de los previos
xs=1x1+2x2+...+s-1xs-1
Multiplicando por A
Axs= 1Ax1+2Ax2+...+s-1Axs-1
Valores y vectores propios
sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1
Restando ecuaciones y multiplicando por s se tiene
0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1
Como xs es el primer vector L.D. entonces
1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0
como is i=0 xs=0, lo cual contradice la
suposición las vectores son L.I.
Valores y vectores propios
Teorema. La matriz A (n,n) tiene n
vectores propios L.I. ssi la multiplicidad
geométrica de cada valor propio es igual
a su multiplicidad algebraica.
Tarea (Grossman, pag 545)
Valores y vectores propios
Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio
y A una matriz cuadrada
Se define el polinomio f(x) en la matriz A como:
F(A)=a0I+a1A+a2A2+...+anAn
Sy f(A) es igual a la matriz cero, entonces se dice que A
es raíz (o cero) del polinomio f(x).
Sea F() (n,n) una matriz polinomial en la variable , i.e.
F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm
donde F0, F1,...,Fm son matrices cuadradas reales.
Valores y vectores propios
Se dice que F() es de orden n; y si Fm0, entonces F()
es de grado m. Además F() se dice regular si det(Fm)0
Definicion. Sean F() y G() matrices polinomiales de
orden n., y G() es regular. Las matrices polinomiales
Q() y R() se conocen como cociente derecho y residuo
derecho respectivamente de F() dicidida por G() si
F()= Q() G() + R()
y si el grado de R() es menor que el grado de G() [R()
puede ser cero]
Valores y vectores propios
De manera similar se pueden definir el
cociente izquierdo y residuo izquierdo
Sea A (n,n) y denota F(A) la evaluación por
la derecha de A en la matriz polinomial
F() , esto es, si
F()=F0+F1+...+Fmm=
F()= F0+F1A+...+FmAm
Valores y vectores propios
Teorema. Si la matriz polimial F() es dividida por
la derecha por la matriz (I-A) entonces el residuo
es F(A), y si es dividida por la izquierda por (I-A)
entonces el resiudo es F’(A) (por la izquierdA).
Demostración. Tarea.
(teorema generalizado de Bezout, Grantmatcher,
pag 81)
Valores y vectores propios
Corolario. La matriz polinomial F() es divisible por la
derecha por la matriz (I-A) sin residuo (R()=0) ssi
F(A)=0
(De manera similar se puede hacer por la izquierda)
Teorema (Cayley-Hamilton). Toda matriz A (n,n) es
raíz de su polinomio característico.
Demostración. P()=det(I-A)=a0+a1+...+n
Hay que mostrar que P(A)=0
Valores y vectores propios
de teoremas previos
(I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A)
Lo cual puede verse como
P()=(I-A)Q()=Q()(I-A)
donde Q()=adj(I-A) es una matriz polinomial en y
P()=det(I-A)I=a0I+a1I+...+nI
como P() es divisible por la derecha y por la izquierda
por (I-A) sin residuos, entonces
P(A)=a0I+a1AI+...+AnI
Valores y vectores propios
Definición. Se dice que el polinomio F() es
un polinomio aniquilador de la matriz A
(n,n) si F(A)=0
(p.e. el polinomio característico de A)
Definición. Al polinomio aniquilador mónico
Q() de A de menor grado se le conoce
como polinomio mínimo de A.
Diagonalización de matrices
Definición. Se dice que A (n,n) es
diagonalizable (bajo similaridad) si existe
una matriz no singular P tal que P-1AP es
diagonal
Diagonalización de matrices
Teorema. La matriz A (n,n) es diagonalizable ssi
tiene n vectores propios linealmente
independientes
Si 1, 2, ..., n son los valores propios de A y los
vectores propios x1, x2, ..., xn correspondientes a
estos valores propios son linealmente
independientes, entonces P-1AP=diag{1, 2, ...,
n}, donde P=[x1 x2 ... Xn]
Diagonalización de matrices
Demostración.
(si) Suponga que A tiene n vectores propios L.I. x1 x2 ... xn
correspondientes a los valores propios 1, 2, ..., n (algunos
pueden ser repetidos).
Sea P la matriz [x1 x2 ... xn], entonces
AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn]
= [x1 x2 ... xn]diag{1, 2, ..., n}
=Pdiag{1, 2, ..., n}
Como P es no singular tiene inversa
P-1AP=diag{1, 2, ..., n}
Diagonalización de matrices
Demostración.
(sólo si) Suponga que existe una matriz no singular P
tal que
P-1AP=diag{1, 2, ..., n}
AP=Pdiag{1, 2, ..., n}
Para cada xi de P se tiene que:
Axi= ix
xi es vector propio de A i es valor propio de A
P es no singular A tiene n vectores propios L.I.
Diagonalización de matrices
Corolario. La matriz A (n,n) es
diagonalizable ssi la multiplicidad
geométrica de cada valor propio es igual a
su multiplicidad algebraica. En particular A
es diagonalizable si todos sus valores
propios son distintos
Diagonalización de matrices
Teorema. Si A y B son similares, entonces
tienen el mismo polinomio característico, y
por consiguiente los mismos valores
propios.
Demo. det(I-B)=det(I-P-1AP)=det(P-1P-
P-1AP)=det(P-1(I-A)P)=det(P-1)det(I-
A)det(P)=det(I-A)
Diagonalización de matrices
Teorema. Si A y B son similares, i.e. existe
una matriz no singular tal que B=P-1AP.
Entonces:
i) Bk=P-1AkP
ii)Si f(x)=a0+a1x+...+anxn es un polinomio
cualquiera, entonces f(B)=P-1f(A)P
Diagonalización de matrices
Demo
Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)=
P-1AkP
ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)=
=P-1(a0+a1A+...+anAn)P=P-1f(A)P
Diagonalización de matrices
1 1 2
0 1 3
0 0 2
Diagonalización de matrices
Tiene dos propio valores 1=1, 2=2 con
multiplicidades algebraicas 2 y 1 y
geométricas 1 y 1 respectivamente no es
posible diagonalizar A, pero ¿es posible
encontrar una bse donde A sea casi
diagonal?
Diagonalización de matrices
Definición.- Un vector v es llamado un vector
propio generalizado de rango k de A asociado
con iff
(A- I)kv=0
(A- I)k-1v0
Note que si k=1 coincide con vector propio
Diagonalización de matrices
Definición.-
vk=v vector propio generalizado
vk-1=(A-I)v=(A-I)vk
vk-2=(A-I)2v=(A-I)vk-1
...
v1=(A-I)k-1v=(A-I)v2
Diagonalización de matrices
...
vk-2=(A-I)2v=(A-I)vk-1
...
Entonces para 1ik vi es un vector propio
generalizado de rango i, por ejemplo
(A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0
(A- I)k-1vk-2=(A-I)k-1v0
Diagonalización de matrices
Definición.- Lleamaremos a los vectores {v1,
v2,...,vk} una cadena de vectores propios
generalizados si vk es un vector propio
generalizado que dio origen a todos los
demás vectores
Diagonalización de matrices
Teorema. El conjunto de vectores propios
generalizados v1, v2, ..., vk definidos anteriormente es
L.I.
Demostración.-
Suponer que v1, v2, ..., vk son L.D., entonces existen
soluciones diferentes de la trivial a:
1v1+2v2+...+kvk=0
Multiplicando por (A-I)k-1 y observando que
vi=vk-(k-i)=(A-I)k-iv por definición
Diagonalización de matrices
entonces
(A-I)k-1vi=(A-I)2k-(i+1)v=0
para i=1,2,...,k-1
k(A-I)k-1vk=0
y sabiendo de la def. de vector propio generalizado que
(A-I)k-1vk0, k=0
Aplicando ahora (A-I)k-2 se demuestra que k-1=0
Siguiendo esto se tiene que i=0, lo que contradice la
suposición. son L.I.
Diagonalización de matrices
Teorema: Los vectores propios generalizados de A asociados
con diferentes propio valores son L.I.
Demostración.
Sea v vector propio generalizado 1
vi=(A-1I)vi+1=(A-1I)k-iv
Sea u vector propio generalizado 2
ui=(A-2I)ui+1=(A-2I)l-iu
Del teorema anterior los vi son L.I. y los ui son L.I, falta ver que
{ui}, {vi} son L.I.
Diagonalización de matrices
Suponer que vi es L.D. en {u1,...,ul}
vi=1u1+2u2+...+lul
Aplicando (A-1I)i
0= (A-1I)i [1u1+2u2+...+lul ]
Ahora aplicando (A-2I)l-1 y observando que
(A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1
y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1
0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1
Como (A-2I)u1=0 o Au1=2u1, la ecuación anterior se reduce a
l(2-1)iu1=0
Diagonalización de matrices
se reduce a
l(2-1)iu1=0
lo cual implica que l=0.
Un procedimiento similar llega a la conclusión
de que todos los i=0, lo que contradice la
suposición y los vectores son L.I.
Diagonalización de matrices
Teorema. Sean u y v propio vectores de
rango o y l respectivamente, asociados con el
mismo valor propio .
vi=(A-I)vi+1=(A-1I)k-iv
ui=(A-I)ui+1=(A-2I)l-iu
Si u1 y v1 son L.I. las cadenas son L.I.
Diagonalización de matrices
El tratar de construir la forma casi diagonal (diagonal por
bloques o forma de Jordan) se convierte en un proceso
iterativo.
1.- se calculan propio valores y propio vectores de la forma
tradicional.
2.- Si la multiplicidad algebraica es mayor que la geométrica
tratar de encontrar una cadena lo suficientemente larga
de vectores generalizados para construir los vectores L.I.
independientes faltantes, de lo contrario construir cadenas
más pequeñas hasta completarlos
Matrices unitarias
Si P es no singular B=P-1AP transformación de
similaridad
Sirven para cambio de bases
Más conveniente si las bases son ortogonales y
ortonormales
Si {x1,...,xp} es un conjunto ortonormal xiTxi=1 y
xiTxj=0
Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1
Matrices unitarias
Definición. Una matriz P (de reales) para la cual PT=P-1
tal que PTP=I, se dice ser unitaria.
Teorema.
a) P unitaria el conjunto de vectores columna es
ortonormal
b) P unitiaria |det(P)|=1
c) P unitaria <PX,Py>=<x,y>
d) P unitaria si valor propio de P ||=1
Demo. Clara
Matrices unitarias
Teorema.
Si B=P-1AP donde P es unitaria (se dice
transformación de similaridad unitaria)
todo lo que se vió de propiedades de
similaridad sigue valiendo.
Matrices unitarias
Teorema.
Si A es una matriz de pxp.
a) A es similar unitaria a una matriz triangular superior T; T=P-
1AP con P unitaria y con los propiovalores de A en su diagonal
principal. T es llamada la forma de Shur de A y la
descomposición A=PTP-1= PTPT es la descomposición Shur de A.
Demo.
Si p=1 ya terminamos.
Suponer que para p=k es cierto
Para p=k+1 tenemos.
Matrices unitarias
1 es el propio valor asociado a x1, podemos
normalizar este vector para que ||x1||2=1
Entonces x1 entra a la base que ya teníamos de
propiovectores ortonormalizados {w1,...,wk} si no es
otronormal a esta base, aplicamos Gram-Schmidt y
tenemos la nueva base {x1,w1,...,wk}
U= [x1,w1,...,wk]=[x1,W]
A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=
1 x1TAW 1 bT
=
0 WTAW 0 C
Matrices unitarias
Definición. Una matriz A de pxp es normal si
ATA=AAT
Teorema. A normal D=PTAP, D es
diagonal, y P es unitaria.
Por tanto los propio vectores de A son p
linealmente independientes
Matrices unitarias
Veamos ahora el caso en que A=UVT, con U
y V unitarias de pxp y qxq, es pxq casi
cero, excepto en la diagonal que vale ii=i
que es un real no negativo.
4 0
2 0 0 3 0 0 0 6
0 0 0 0 2 0
0 0
Así son
Matrices unitarias
Claramente se tendría AV=U Avi=iui para 1imin(p,q),
dende los ui, vi son las columnas de U y V respectivamente.
Además
ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT
donde T=D=VTATAV es diagonal de qxq
que los propio vectores de ATA sirven para construir V y D
tiene los valores propios D=T
Similarmente para el caso
AAT=U(T)UT en este caso D= T
Matrices unitarias
Definición. A la descomposición que hemos venido manejando,
A=UVT, se le conoce como descomposición en valores
singulares de A.
Viendo lo que hicimos para la descomposición de Schur,
podemos ver que la descomposición en valores singulares
siempre existe.
Los valores singulares de A son los i, y el número de valores no
cero es el rango de A. Los ui son los vetores singulares izquierdos
y los vi los vectores singulares derechos relacionados con i.
1 1
9 9
A= 2 2 ATA
2 2 9 9
propiovalores 18 y 0. 1=18(1/2) y 2=0
Un par de vectores propios de ATA normalizados son
v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T
Entonces V=[V1 v2]
1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8
propiovalores 18 y 0. 1=18 y 2=0
Vectores propios de AAT normalizados son
u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T
Entonces U=[u1 u2 u3]
1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8
3(2)1/2 0
0 0
0 0
Mínimos cuadrados
Suponer que A=UVT, es la descomposición en valores singulares,
donde A es de rango k. El problema es minimizar ||Ax-b||2 con
respecto a x.
||Ax-b||2=||UVTx-b||2=||y-UTb||2
y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y.
||y-b’||22=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
b’=UTb
Es minimizado si yi=bi’/i
Mínimos cuadrados
Entonces para ||Ax-b||2 con respecto a x.
Encontrar A=UVT
Calcular b’=UTb
Calcular yi=bi’/i para 1ik, yi=0 otro caso
x0=Vy
y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y.
||y-b’||22=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
b’=UTb
Es minimizado si yi=bi’/i