0% encontró este documento útil (0 votos)
17 vistas43 páginas

Definición y Propiedades de Espacios Vectoriales

Cargado por

Natu Vargas
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
17 vistas43 páginas

Definición y Propiedades de Espacios Vectoriales

Cargado por

Natu Vargas
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ESPACIO VECTORIAL

Definición:( V ,+, K ,* ) es un Espacio Vectorial si y sólo si:


{v1∈V ,v2∈V ,v3∈V ¿ ¿¿¿se cumple
lo siguiente:

1. (
v 1 + v 2 ) + v 3 =v 1 + ( v 2 + v 3 )
Propiedad Asociativa.
2. v 1 +v 2 =v 2 +v 1 Propiedad Conmutativa.
3.
∃0v ∈ V /∀ v ∈ V : v +0 v=0v +v=v Existencia de Elemento Neutro para la adición de
vectores.
4. Propiedad distributiva con respecto a la adición de vectores.
5. Propiedad distributiva con respecto a la adición de escalares.
6. ( k 1 k 2 )∗v 1 =k 1∗( k 2∗v 1 ) Asociatividad mixta.
7. Existencia de Elemento Neutro para *.

Ejemplos:

a. ( ℜ ,+, ℜ,* )
2

b.
c. ( ℜ ,+, ℜ,* )
n

d. ( 2
P ,+ , ℜ ,* )

e. ( ℜ ,+, ℜ ,* )
nxm

Ejemplo: Demostrar que es un E.V.

SUBESPACIO VECTORIAL

Sea W ≠φ y W ⊂ V donde V ,, K ,* es un Espacio Vectorial.

Definición: ( W ,+, K ,* ) es un subespacio de V ,, K ,* sii:

a.∀ w1 ∈ W , ∀ w 2 ∈W :w 1 +w 2 ∈W
b. ∀ k ∈ K∧∀ w ∈ W :kw ∈W

( ⊲ simboliza subespacio vectorial)


NOTA: ( W ,+, K ,* )

COMBINACIONES LINEALES

Sea un Espacio Vectorial.

Definición: x ∈ V es CL de A sii:
∃α i ∈ K / x=α 1 v 1 +α 2 v 2 +. ..+α n v n
n
x=∑ α i v i
Es decir: i =1

CONJUNTO GENERADO POR A

Sea A≠φ , A ⊂V , ( V ,+, K ,* ) un EV .


Definición: el conjunto generado por A denotado por Ā es:

{ }
n
Ā= x ∈V / x=∑ α i v i∧α i ∈ K ∧v i ∈ A
i=1

Teorema 1: ( Ā ,+, K ,* ) ⊲ ( V ,+, K ,* )

Demostración:

1.
0 v=0 v 1 +0 v 2 +. ..+0 v n ⇒0 v ∈ Ā ⇒ Ā≠φ
n
x ∈ Ā ⇒ x=∑ α i vi ∧α i ∈ K ∧v i ∈ A ⇒ x ∈V ∴ Ā ⊂ V
2. i =1
n n
x ∈ Ā∧ y ∈ Ā ⇒ x=∑ α i v i ∧α i ∈ K∧v i ∈ A∧ y=∑ β i v i ∧β i ∈ K∧v i ∈ A ⇒
3. i =1 i =1
n n
x + y=∑ α i vi + ∑ β i v i∧α i ∈ K ∧β i ∈ K∧v i ∈ A ⇒
i =1 i=1
n
x + y=∑ ( α i v i + β i v i ) ∧α i ∈ K∧ βi ∈ K ∧v i ∈ A ⇒
i =1
n
x + y=∑ ( α i + β i ) v i ¿ α i ∈ K ∧β i ∈ K∧v i ∈ A ⇒
i=1

γi
n
x + y=∑ γ i v i ¿ γ i ∈ K∧v i ∈ A ⇒ x+ y ∈ Ā
i=1

4.
n
kx =k ∑ α i v i∧α i ∈ K∧v i ∈ A∧k ∈ K ⇒
i=1
n
kx =∑ k ( α i v i )∧α i ∈ K ∧v i ∈ A∧k ∈ K ⇒
i=1
n
kx =∑ ( kα i ) v i ¿ α i ∈ K∧v i ∈ A∧k ∈ K ⇒
i=1

βi
n
kx =∑ β i v i ¿ β i ∈ K∧v i ∈ A ⇒ kx ∈ Ā
i=1

Definición: ( Ā ,+, K ,* ) es el subespacio generado por A.

CONJUNTO LINEALMENTE INDEPENDIENTE


n
∑ αi v i=0 v ⇒∀ i : α i=0
Definición: Sea A ⊂V ∧ (V ,+, K ,* ) EV . A es LI sii i=1 .
Propiedad 1: Sea A un conjunto LI. Si x es CL de A entonces la CL es única.
n
x=∑ α i v i ∧α i ∈ K∧v i ∈ A
H) A ⊂ V y i =1 .
α
T) Los i son únicos.

D) Supongamos que no es única:


n n n n n
∃ β i ∈ K / x=∑ β i v i ⇒ ∑ α i v i=∑ β i v i ⇒ ∑ α i v i−∑ βi v i=0 v ⇒
i=1 i=1 i =1 i=1 i=1
n
⇒ ∑ ( α i−β i ) v i=0 v ⇒ ∀ i : ( α i −β i )=0⇒ ∀ i : α i =β i
i=1

Lo que demuestra que los


α i son únicos.

CONJUNTO LINEALMENTE DEPENDIENTE


n
∃ i / ∑ α i v i=0 v ∧α i ≠0
Definición: Sea A ⊂V ∧ (V ,+, K ,* ) es un EV . A es LD sii i=1 .
Propiedades:

1. ∀ x ∈V ∧x≠0 v : { x } es LI.
x=0 v ⇒ { 0v }
2. es LD.

¿ j≠i ¿ ¿ ¿ ¿
3. Sea A ⊂V , A≠φ , A es finito. A es LD sii n
Demostración:

( ⇒ ) A es LD ⇒

¿ j≠i ¿ ¿ ¿ ∧ x i ∈ A ¿
n
( ⇐)
n
¿ j ≠i ¿ ¿ ¿ ¿+ α i x i = 0v ⇒ ∑ α j x j =0 v ¿ α i ¿ 0 ⇒ ¿
n
j=i
⇒ A es LD.

¿ j≠i ¿ ¿ ¿ ¿
4. Sea A ⊂V , A≠φ , A es finito. A es LI sii n
TAREA: Demostrar las propiedades 1,2 y 4.

SISTEMAS DE GENERADORES

Definición: A es un SG sii ∀ x ∈V : x es CL de A.

BASE

Definición: A es base sii A es SG ( V ,+, K ,* ) y LI.

Propiedad: Dos bases son coordinables si tienen la misma cantidad de vectores.

DIMENSIÓN

Definición: dim V= #[B], donde B es una base cualquiera de V.

n
v=∑ αi vi ⇒v=¿ ( α1 ¿) ( α2 ¿ ) (. ... ¿) ¿ ¿¿
i=1 ¿ [ Bv ]={ v 1 , v 2 , . .. , v n }
Propiedades:

1. n vectores LI de un EV n dimensional es una base del EV.


2. n vectores sistema de generadores de un EV de dim V = n es base.
3. Todo conjunto con más de n vectores en un EV n dimensional es LD.

TAREA: Demostrar las propiedades 1,2 y 3.

ESPACIO VECTORIAL EUCLIDEO (EVE)

PRODUCTO INTERIOR
Sea ( V ,+, ℜ,* ) un EV.

2
Definición: < , > : V → ℜ es un producto interior sii:

i.⟨ x, y⟩=⟨ y ,x⟩


ii. ⟨ x+ y, z⟩=⟨x , z⟩+⟨ y ,z⟩
iii.⟨αx , y⟩=α ⟨ x, y⟩
iv. ⟨ x, x⟩≥0
v.
⟨ x , x ⟩=0⇔ x=0 v

Definición: Un EV ( V ,+, ℜ,* ) dotado con un producto interior es un Espacio Euclideo.

Ejemplos:

a.

b.

c.

d.
a) Probamos que se cumplan las cinco condiciones para el ejemplo a:

i.
⟨ x, y⟩=x 1 y 1 +x 2 y 2 = y 1 x 1 + y 2 x 2=⟨ y , x⟩
⟨ x+ y , z ⟩=( x 1 + y 1 ) z 1 + ( x 2 + y 2 ) z 2 =x 1 z 1 + y 1 z 1 +x 2 z 2 + y 2 z 2 ⇒
ii.
( x 1 z 1+x 2 z 2) +( y 1 z 1+ y 2 z 2 ) =⟨ x , z⟩+⟨ y , z⟩
⟨αx , y ⟩=αx1 y 1 +αx2 y 2 =α ( x1 y1 +x 2 y 2 ) =α ⟨ x , y ⟩
iii.
2 2
iv. ⟨ x , x ⟩=x1 x 1 +x 2 x 2 =x 1 +x 2 ≥0
2 2
v. ⟨ x , x ⟩=0⇔ x 1 + x 2=0⇔ x1 =x 2 =0⇔ x=0 v

c) Probamos que el ejemplo c es un EVE.


1

(C [−1, 1] ,+, ℜ ,* ) con ⟨ f , g⟩=∫ f . g


d) Demostramos que −1 es un EVE,

i.

ii.
iii.

iv.

(*) Por teorema del valor medio del cálculo integral.


v.

f=0

(C [−1, 1] ,+, ℜ ,* ) con ⟨ f , g⟩=∫ f . g


Por lo tanto −1 es un EVE.

Propiedad:

1.
⟨0v , x⟩=0

Demostración

NORMA DE UN VECTOR EN UN EVE

Definición: ‖x‖= √ ⟨x ,x⟩


DISTANCIA ENTRE DOS VECTORES

Definición: d ( x, y )=‖x− y‖
Propiedades:

1. d ( x , y )≥0

Demostración

d ( x, y )=‖x−y‖=√ ⟨x− y, x−y⟩≥0


2. d ( x , y )=d ( y , x )

Demostración

d ( x, y )=‖x− y‖=√ ⟨x− y, x− y⟩= √⟨ (−1 )( y−x ) , (−1 )( y−x ) ⟩=√ ⟨ y−x, y−x⟩=‖y−x‖=d ( y, x )
3. d ( x , y )≤d ( x , z ) +d ( z , y )

Demostración

d ( x, z ) +d ( z, y )=‖x−z‖+‖z− y‖≥‖x−z+z− y‖=‖x− y‖=d ( x , y )


NOTA: Aquí se usa la desigualdad triangular que se demuestra más adelante.

4. ‖αx‖=|α|.‖x‖

Demostración

2
‖αx‖ =( √ ⟨αx ,αx⟩ ) ⇒
2 2 2
‖αx‖ =⟨αx ,αx ⟩ ⇒ ‖αx‖ =α ⟨x ,αx⟩ ⇒
‖αx‖2=α ⟨αx , x⟩ ⇒ ‖αx‖2=α2 ⟨ x, x⟩ ⇒ √‖αx‖2=√ α 2‖x‖2 ⇒
‖αx‖=|α|.‖x‖
x
‖ ‖=1
5. ‖x‖

Demostración:
x x
‖x‖
x
‖x‖
x x x
‖x‖ ‖x‖ ‖x‖
1 1

‖ ‖=‖y‖⇒‖ ‖=√ ⟨ y, y⟩⇒‖ ‖= ⟨ , ⟩⇒‖ ‖= ⟨ . x, . x⟩⇒
‖x‖ ‖x‖ ‖x‖ √
x 1
‖x‖ ‖x‖ √ x
‖x‖ ‖x‖
1 x
⇒‖ ‖= 2 .⟨x ,x⟩⇒‖ ‖= 2 .‖x‖2 ⇒‖ ‖=1
‖x‖ √
ORTOGONALIDAD

Definición: Sea (V,+,K,*) un EVE, si x ∈ V ∧ y ∈V se dice que x⊥ y⇔⟨ x , y⟩=0 .


Ejemplos:

1)

( ℜ2 ,+, ℜ,* )
v 1 =( 2,−1 ) ¿ } ¿ v 1 v 2 =2. (−1 ) +1.2=0⇒ v1 ⊥v 2 ¿
¿
2)
( ℜ3 ,+, ℜ,* )
v 1 =( 1,−3,2 ) ¿ } ¿ v 1 v 2=1−3+2=0⇒ v 1 ⊥v 2 ¿
¿
3)

4)
(P2,+[−1],*) 1 1 2 1 3 x4 21 1 1
1} ()
¿P=x ¿ ⟨P12⟩=∫−P1.2dx¿⟨P12⟩=∫−1x(−1)dx¿⟨P12⟩=∫−1(x−)d¿⟨P12⟩= − |−1¿⟨P12⟩= − − ¿⟨P12⟩=0 ⇒ P1⊥2¿
4 2 42 42
¿ DESIGUALDAD DE SCHWARZ

Propiedad: ∀ x∀ y∈V :|⟨x, y⟩|≤‖x‖.‖y‖

Demostración

1.
x=0 v (vale lo mismo si y=0v )
⟨0v , y⟩=0⇒|⟨0 v , y⟩|=|0|=0
‖x‖.‖y‖=‖0v‖.‖y‖=0
∴|⟨x , y⟩|≤‖x‖.‖y‖ pues 0≤0.[ ]
2.
x≠0 v ∧ y≠0 v
Sea z=tx+uy , ( ∀ t ,u∈ ℜ )∧( ∀ x, y ∈V )
⟨tx+uy ,tx+uy⟩≥0 pues ⟨ z ,z⟩≥0∀ z ∈V ⇒
⟨tx ,tx +uy⟩+⟨uy ,tx+uy⟩≥0 ⇒
⟨tx+uy ,tx ⟩+⟨tx+uy ,uy⟩≥0 ⇒
⟨tx ,tx ⟩+⟨uy ,tx ⟩+⟨tx ,uy⟩+⟨uy ,uy⟩≥0 ⇒
t .⟨x , x⟩+uy ⟨ y , x⟩+tu ⟨x , y⟩+u2 ⟨ y , y⟩≥0 ⇒
t 2‖x‖2 +2tu⟨x , y⟩+u 2‖y‖2≥0
Llamemos:
{t=⟨y,y⟩=‖y‖ ¿ ¿¿¿
2

‖y‖4 .‖x‖2−2‖y‖2 ( ⟨ x , y⟩ )2+( ⟨ x , y⟩ )2‖y‖2≥0 ⇒


‖y‖2 .‖x‖2−( ⟨ x, y⟩ )2≥0⇒‖y‖2 .‖x‖2≥( ⟨x , y⟩)2 ⇒
√‖y‖2 .‖x‖2≥√ ( ⟨x , y ⟩)2 ⇒ ‖y‖.‖x‖≥|( ⟨x , y⟩)|
Ángulo entre dos vectores en un EVE

|⟨x, y⟩|≤‖x‖.‖y‖⇒−‖x‖.‖y‖≤⟨x , y⟩≤‖x‖.‖y‖

Si
x≠0 v ∧ y≠0 v ⇒‖x‖≠0∧‖y‖≠0
⟨ x, y⟩
−1≤ ≤1
Entonces. ‖x‖.‖y‖

⟨x , y⟩
cos ϕ=
Definición: ‖x‖.‖y‖ con 0≤ϕ≤π

DESIGUALDAD TRIANGULAR

Definición: ∀ x ∀ y ∈V :‖x+ y‖≤‖x‖+‖y‖

Demostración

‖x+ y‖2=⟨ x+ y ,x+ y⟩ ⇒


‖x+ y‖2=⟨ x ,x+ y⟩+⟨ y , x+ y⟩ ⇒
‖x+ y‖2=⟨ x+ y ,x⟩+⟨x+ y , y⟩ ⇒
‖x+ y‖2=⟨ x ,x⟩+⟨ y , x⟩+⟨ x, y⟩+⟨ y, y⟩ ⇒
‖x+ y‖2=‖x‖2+‖y‖2+2⟨x , y⟩ ⇒

‖x+ y‖2≤‖x‖2+‖y‖2+2.‖x‖.‖y‖ ⇒ x, y  x y
2
‖x+ y‖2≤(‖x‖+‖y‖) ⇒
‖x+ y‖≤‖x‖+‖y‖
CONJUNTO ORTOGONAL DE VECTORES

A={ x 1 , x2 ,. .. , x n }
Definición: sea un EVE y . Decimos que A es un conjunto ortogonal sii

∀ x i , x j ¿ {i=1,2,...,n ¿ ¿¿(salvo cuando i=j).


Propiedad:

Un conjunto A de vectores ortogonales en un EVE al que no pertenece el vector nulo es


A={ x 1 , x2 ,. .. , x n } 0 ∉ A se
conjunto es LI. Es decir: en un EVE donde es ortogonal y v
cumple que A es LI.

Demostración
n
∑ α i x i=0v
Sea i=1

Sabemos que
⟨0v ,x j ⟩=0 ∀ j=1,2,...,n
n n n
⟨ ∑ α i x i , x j ⟩=0⇒ ∑ ⟨ α i x i , x j ⟩=0⇒ ∑ α i ⟨ x i , x j ⟩=0⇒
i=1 i =1 i=1
α 1 ⟨x 1 , x j ⟩+α2 ⟨ x 2 ,x j ⟩+...+α j ⟨ x j ,x j ⟩+...+α n ⟨x n ,x j ⟩=0
Sabemos que i j
⟨ x , x ⟩=0 ∀ i≠ j ⇒ α j ⟨x j , x j ⟩=0⇒ α j‖x j‖2=0 .
Sabemos por hipótesis que
x j ≠0 ⇒ α j=0 ∀ j=1,2,...,n⇒ A es LI.

BASE ORTONORMAL

Definición: Sea ( V ,+, ℜ,* ) un EVE de dimensión finita y A una base de V.


Se dice que A es una base ortonormal sii A es ortogonal
¿∀ x i ∈ A :‖x i‖=1

ORTONORMALIZACIÓN DE UNA BASE


PROCESO DE GRAM – SCHMIDT

Propiedad: Sea ( V ,+, ℜ,* ) EVE de dimensión finita entonces el espacio siempre admite
una base ortonormal.

Demostración

Sea
A={ x 1 , x2 ,. .. , x n }
una base de V. Como A es LI
⇒ 0v ∉ A ⇒‖x i‖≠0
xi
y 1=
Definimos ‖x i‖ y así ‖y 1‖=1

Supongamos que { y 1 , y 2 ,. .. , y k }
es ortonormal

Luego {
y 1 , y 2 ,. .. , y k +1 }
es ortonormal. Luego{
y 1 , y 2 ,. .. , y n }
es una base ortonormal.

TRANSFORMACIONES LINEALES. (HOMOMORFISMO)

Definición: Sean ( V ,+, K ,* )∧( W ,+, K ,* ) dos EV y F : V →W una función. Se dice que F
es una transformación Lineal sii ∀ x , y∈ V ∧∀ α ∈ K se cumplen:
1. F ( x + y )=F ( x )+F ( y )
2. F ( α x )=α . F ( x )

Ejemplos:

b
(a
Falignl (¿ )d )=( a,0,2c−d ) ¿
2x2 3 (c
1. F : ℜ →ℜ : ¿ ES UNA TL.
a2
a1 0
F ( a0 +a1 x +a 2 x )=(
2
¿)0 )¿
2 x3 a 1−a2 0
2. F : P2 →ℜ : ¿ . ES UNA TL.
3. G : ℜ → ℜ : G ( x , y ,u , v )=( u ,1 , 0 ) . NO ES UNA TL.
4 3 2

2 2 2
4. H : ℜ → P 2 H ( a , b ) =a+2 x−b x . NO ES UNA TL.

Propiedad 1:

F : V →W es una TL sii ∀ x , y ∈ V , ∀ α , β ∈ K :F ( αx+βy ) =α . F ( x )+ β . F ( y )

Demostración:

(⇒)
F ( αx+βy )=F ( αx ) +F ( βy ) ⇒ F ( αx+ βy )=α . F ( x ) +β . F ( y )
(⇐ )

a ) α=β=1
F ( x + y )=F ( 1. x +1. y )=1 . F ( x )+1 . F ( y )=F ( x ) +F ( y )
b ) β=0
F ( α . x )=F ( α . x +0 v )=F ( α . x+0. y )=α . F ( x )+0. F ( y )
⇒ F ( α . x )=α . F ( x ) +0w ⇒ F ( α . x )=α . F ( x )

A continuación demostramos que el ejemplo 1 es una T.L. usando la propiedad 1.

Propiedad 2:

La imagen del vector nulo del primer espacio por cualquier TL es el vector nulo del
segundo espacio.
Probaremos que: ( v ) w .
F 0 =0

Demostración
F ( 0v )=F 0⏟
( ) ∈V

. x =0 . F ( x ) =0 . F ( x ) =0w
∈W

De otra forma:

F ( 0v )=F ( 0v +0v ) ⇒
F ( 0v )=F ( 0v ) + F ( 0v ) ⇒
F ( 0v ) +0 w=F ( 0 v ) + F ( 0 v ) ⇒
0 w =F ( 0 v )

Propiedad 3:

La imagen del opuesto de un vector del primer EV por una TL es el vector opuesto de la
imagen de dicho vector en el segundo EV.

Probar que F (−x )=−F ( x )

Demostración

F (−x )=F (−1. x )=−1 . F ( x )=−F ( x )

Definiciones
a. Una transformación lineal se llama Monomorfismo sii F es inyectiva.
b. Una transformación lineal se llama Epimorfismo sii F es sobreyectiva.
c. Una transformación lineal se llama Isomorfismo sii F es biyectiva.
d. Una transformación lineal se llama Endomorfismo sii V=W.
e. Una transformación lineal se llama Automorfismo sii es Endo e Iso
(F es biyectiva y V=W).

NÚCLEO Ó KER DE UNA TL

Nu ( f )= { x ∈ V / f ( x )=0 w }
Definición:

V W
X 0w
Nu(f)

Propiedad: Nu ( f )≠φ
Como el
0 v tiene por imagen a 0 w , es decir f ( 0v )=0w entonces y por ende
Nu ( f )≠φ .

Propiedad: ( Nu ( f ) ,+, K ,* ) ⊲ ( V ,+, K ,* )

Demostración:

1. Nu ( f )≠φ pues el 0 v ∈ Nu ( f ) ya que ( v )


f 0 =0w
.
2. Nu ( f ) ⊂V por definición de núcleo.
3. Sean
x ∈ Nu ( f )∧ y ∈ Nu ( f ) ⇒ f ( x )=0 w ∧f ( y )=0 w ⇒
f ( x ) + f ( y )=0 w +0 w ⇒ f ( x+ y )=0w ⇒ x + y ∈ Nu ( f )
4. Sean
α ∈ K∧x ∈ Nu ( f ) ⇒ α ∈ K∧f ( x )=0 w ⇒
α . . f ( x )=α . . 0w ⇒ f ( α . x )=0w ⇒ α . x ∈ Nu ( f )

∴ ( Nu ( f ) ,+, K ,* ) ⊲ ( V ,+, K ,* )

IMAGEN O RECORRIDO DE UNA TL

Definición: Im ( f )= { y ∈ W /∃x ∈V ∧f ( x )= y }
V W Im(f)
f
x f x 

Propiedad: ( Im ( f ) ,+, K ,* ) ⊲ ( W ,+, K ,* )

Demostración:

1. Im ( f )≠φ pues 0 w ∈ Im ( f ) .
2. Im ( f ) ⊂W por definición de conjunto imagen.
y ∈ Im ( f ) ∧ y 2 ∈Im ( f ) ⇒ y 1 + y 2 =f ( x 1 ) + f ( x 2 ) ⇒ y 1 + y 2=f ( x 1 + x 2 )
3. Sean 1
∃ x 1 + x 2 ∈V / f ( x1 + x 2 ) = y 1 + y 2 ⇒ y 1 + y 2 ∈ Im ( f )
Por ser f una TL .
4. Seanα ∈ K∧ y ∈ Im ( f ) ⇒ α ∈ K∧∃ x ∈V / y=f ( x ) ⇒ α . y=α . f ( x )
Por ser f una TL ∃α . x∈ V /f ( α . x )=α . y . Entoncesα . y ∈Im ( f )
∴ ( Im ( f ) ,+, K ,* ) ⊲ ( W ,+, K ,* )

Nu ( f )= {0 v }
Propiedad: La TL f : V →W es inyectiva sii .

Demostración:

Recordar que una función es inyectiva sii:


x 1≠ x 2 ⇒ f ( x 1 ) ≠ f ( x2 ) f ( x1 )=f ( x 2 ) ⇒ x 1 =x 2
o bien

(*) ya que
Por lo tanto f es inyectiva.

Corolario: si el núcleo es unitario la f es inyectiva.

Propiedad: La imagen de cualquier conjunto LD por una TL es un conjunto LD.


Es decir:

Si f : V →W es TL y { 1 2 es LD, entonces { f ( v 1 ) , f ( v 2 ) , . .. , f ( v r ) } es LD
v , v , . .. , v r }

Demostración
r
∃ i / ∑ α i v i=0v ∧α i≠0 ⇒
i=1

(∑ )
r
f α i vi =f ( 0 v ) ∧α i≠0 ⇒
i =1
r
∑ αi f ( v i ) =0 w ∧αi ≠0 ⇒
i=1

{f ( v 1 ) , f ( v 2 ) ,. .. , f ( v r ) } es LD .

Propiedad: La preimagen de cualquier conjunto LI por una TL es un conjunto LI.


Demostración
n
∑ αi v i=0 v
Sea una combinación lineal cualquiera de la preimágenes: i=1 .

(*) Las imágenes son LI.

Propiedad: La imagen de cualquier conjunto LI por una TL inyectiva es LI.

Demostración
n
∑ αi f ( v i )=0 w
Sea una combinación lineal cualquiera de las imágenes: i=1 .

(*) por ser f inyectiva.

Teorema de la dimensión:

Si ( V ,+, K ,* ) es un EV de dim = n y f : V →W es TL, entonces:

Dim ( Nu ( f ) ) + Dim ( Im ( f ) )=Dim ( V )

COMPOSICIÓN DE TL

Definición: Sea f : U →V una TL y g : V →W una TL.


gof :U →W / gof ( x )=g [ f ( x ) ]

U V W
f g
x f(x) g[f(x)]

gof(x)
Propiedad: gof es TL de U en W.

Demostración:

Sean x , y ∈U ∧α , β ∈ K : gof [ α . x+ β . y ] ⇒ g [ f ( α . x + β . y ) ] ⇒
g [ α . f ( x ) + β . f ( y ) ] ⇒α . g ( f ( x ) ) + β . g ( f ( y ) ) ⇒ α . gof ( x )+ β . gof ( y )

TRANSFORMACIÓN LINEAL INVERSA

−1 −1
Definición: Sea f : V →W un isomorfismo. f :W →V / f ( y )=x

TL NO SINGULAR O REGULAR

Definición: Una TL f : V →W es no singular sii f es biyectiva.

−1
Propiedad: Si f : V →W es una TL no singular, entonces f :W →V es una TL.

Demostración:

−1
Por lo tanto f :W →V es una TL.

Otra forma de hacer la demostración:

1.

2.
f −1 ( α . y 1 ) =f −1 ( α . f ( x 1 ) ) ⇒ f −1 ( α . y 1 ) =f −1 ( f ( α . x 1 ) ) ⇒
f −1 ( α . y 1 ) =f −1 of ( α . x 1 ) ⇒ f −1 ( α . y 1 )=id ( α . x1 ) ⇒
−1 −1 −1
f ( α . y 1 ) =α . x 1 ⇒ f ( α . y 1 ) =α . f ( y 1 )

TEOREMA FUNDAMENTAL DE LAS TL


Sean ( V ,+, K ,* ) y ( W ,+, K ,* ) dos EV y [ V ] ={ v 1 , v 2 , . .. , v n } una base para V y
f ( v i ) =w i
una función f : V →W que es TL /
∀i=1,2,...,n .

Demostración:

Parte a) f es función.
n
x ∈ V ⇒ ∃! α i ∈ K / x=∑ α i v i (ya que cada vector se expresa de forma única como
Sea i=1 C.L de los vectores de una base)
n
f : V →W / f ( x )=∑ α i wi
Sea i=1

f es función pues ∀ x ∈V :∃! y=f ( x ) con y ∈W .

Parte b) f es TL .

Sean x 1 , x2 ∈ V ∧α , β ∈ K

[ ]
n n
f [ α . x 1 + β . x 2 ]=f α . ∑ α i v i + β ∑ βi v i ⇒
i=1 i=1
n
f ( α . x1 + β . x 2 )=f ( ∑ ( α . α i . vi + β . βi . v i ) ) ⇒
i=1

[∑ ( ]
n
f ( α . x1 + β . x 2 )=f α . α i + β . βi ) . v i ⇒
i =1
n
f (α . x1 + β . x 2 )=∑ ( α .α i + β . β i ) . wi ⇒
i=1
n n
f (α . x1 + β . x 2 )=α . ∑ α i . w i + β . ∑ β i . wi ⇒
i=1 i=1
f (α . x1 + β . x 2 )=α . f ( x 1 ) + β . f ( x 2 )

∀ i=1, . .. , n :f ( v i ) =wi
Parte c)

v 1=1.v 1+0.v 2+...+0.v n


v 2=0.v 1+1.v 2 +...+0.v n
.....................................
v n=0. v 1+0.v 2+...+1.v n
Parte d) f es ùnica.

∃ g: V →W / g ( v i )=wi ∀i=1,2,...,n
Supongamos que que es TL
Tomamos:

( )
n n
g ( x )=g ∑ αi v i ⇒ g( x )=∑ g ( α i v i ) ⇒
i=1 i =1
n n
g( x )=∑ α i . g ( v i ) ⇒ g( x )=∑ α i wi ⇒
i=1
⏟ i=1
wi

∀ x ∈V

MATRIZ ASOCIADA
Definición:

Sea f : V →W una TL entre dos EV: V y W de dim ( V )=n∧dim ( W )=m . Sean


[v] y [w] bases de V y W respectivamente.

x =¿ ( α 1 ¿)( α2 ¿) ( ...¿) ¿
¿¿
[v]
∀ j=1 , 2 ,. .. , n : f v j ) ∈W
¿(
f ( v 1 ) =α 11 w 1 +α 21 w 2 +. ..+ α m 1 wm
f ( v 1 ) =α 12 w1 + α 22 w2 + .. .+α m 2 wm
. .. .. . .. .=. .. .. . .. .. . .. .. . .. .. . .. .. . .. .. . .. .. ..
f ( v n )=α 1 n w 1 +α 2n w2 +. . .+ α mn wm
( )
α 11 α 12 . .. α 1n
α α 22 . .. α 2n mxn
A = 21 ∈ℜ
.. . .. . . .. . ..
αm 1 αm 2 . .. α mn
(n ) (m )
f :V →W
Por otra parte:

(∑ )
n n
f ( x )=f α j vj ⇒ f ( x )= ∑ f ( α j v j ) ⇒
j=1 j=1
n n m
f ( x )= ∑ α j f ( v j ) ⇒ f ( x ) =∑ α j ∑ α ij wi
j=1 j=1 i=1

( )
n m m n m m n
f ( x )= ∑ ∑ α j α ij w i ⇒ f ( x )=∑ ∑ α j α ij wi ⇒ ∑ α wi =∑ ∑ α j α ij
´
wi
i
j=1 i=1 i=1 j=1 i =1 i =1 j=1
n

∀i=1,2,...,m :
α ´i = ∑ α j αij
j=1

( )( ) ( )
α 11 α 12 . .. α 1n α1 α 1 α 11 +α 2 α 12+.. .+α n α 1n
α 21 α 22 . .. α 2n α2 = α 1 α 21+α 2 α 22 +.. .+α n α 2n
.. . .. . . .. . .. .. . . . .. .. . .. .. . .. .. . .. .. . .. .. . .. .. .. . .. ..
α m1 α m 2 . .. α mn αn α 1 α m 1 +α 2 α m 2 +.. .+α n α mn
⏟ ⏟
A Y [W ]

Y =A . X [V ]
Por lo tanto: [ W ]

CAMBIO DE BASE

Definición: Sea ( V ,+, K ,* ) un EV de dim ( V )=n y [V] y [V´] dos bases de V.


n
g : V →V / g ( v ) ´ ´
j =v j ∧v j= ∑ Pij v i ∀ =1,...,n
Definimos un endomorfismo i=1 j
T
Sea ( ij ) , la matriz asociada a la TL g. También llamada Matriz de pasaje de la base
P= P
[V] a la base [V´].
n
h : V →V / g ( v ) =v j ¿ v j =∑ Pij v
j i
Definimos otro endomorfismo i=1
P =( Pij )
T

Sea la matriz asociada a la TL h. También llamada Matriz de pasaje de la base [V


´] a la base [V].

´
Propiedad: P . P =I

TRANSFORMACIÓN DE COORDENADAS

Definición: Sea P la matriz de pasaje de la base [V] a [V´].

X [v ]=P . X [ v ´ ]
Probaremos que:

Demostración:

(∑ ) (⏟ )
n n n n n n n
x=∑ α j v j ⇒ x=∑ α j P ij v i ⇒ x=∑ ∑ α j Pij v i ⇒ x [ v ] =∑ ∑ α j P ij v i
j=1 j=1 i=1 j=1 i=1 i=1 j=1
αi

( )( )( )
α1 P11 P 12 .. . P1 n α1
α2 P P 22 .. . P2 n α2
= 21
.. . . .. ... .. . . .. ...
αn Pm 1 Pm2 .. . Pmn αn

TL Y CAMBIO DE BASE

Definición: Sea f : V →W una TL. Sea A ∈ ℜ la matriz asociada a f con respecto a la


mxn

base
[ V ] ={ v 1 , .. . , v n }∧[ W ]= {w1 ,. .. , w n } .
Si efectuamos un cambio de base en cada espacio vectorial habrá una nueva base asociada
B∈ ℜmxn , que es la matriz asociada con respecto a las bases [V´] y [W´].
−1
Probaremos que: B=Q AP .
V  A
W 
Demostración:
P Q
V ` B
W `
Luego:

OPERACIONES ELEMENTALES

Definición: se definen como operaciones elementales las siguientes, con o entre filas o
columnas de una matriz:

1. Permutar filas (o columnas).


2. Multiplicar por un escalar no nulo una fila (o columna).
3. Sumarle o restarle a una fila (o columna) otra fila (otra columna).

MATRIZ EQUIVALENTES
nxm
Definición: Sean A y B matrices que pertenecen a K . Se dice que B≈ A sii B se puede
obtener realizando un número finito de operaciones elementales sobre la matriz A.

Ejemplo:
(12 23 )≈(−46 −34 ) pues

Propiedades:

nxm
1. A≈ B sii ∃ P ,Q no singulares ¿ B=P . A .Q A , B ∈ K , P ∈ K nxn , Q∈ K mxm
P hace todos los arreglos fila.
Q hace todos los arreglos columna.

Es decir, dos matrices semejantes están definiendo la misma TL pero en distinta base.
2. Si A≈ B donde son EV con n y m como sus dimensiones
respectivamente sobre el cuerpo K, entonces A y B caracterizan la misma TL definida
F : V →W .

RANGO DE UNA TL

Definición: r (F) es la dimensión del conjunto imagen de una TL F : V →W .

RANGO DE UNA MATRIZ


nxm
Definición: el rango de una matriz A ∈ K (r(A)) es el mayor número de filas o columnas
linealmente independiente de la matriz A.

MATRICES SEMEJANTES

Definición: Sea F : V →V un endomorfismo. Dim ( V )=n∧¿ ¿y A es la matriz asociada a la


TL F con respecto a una[ V ] en ambos espacios. Si se cambia la base a una nueva [ V ´ ]
mediante una matriz P se obtiene una nueva matriz asociada a la TL B con respecto a [ V ´ ]
−1
en ambos espacios que tiene la siguiente forma: B=P AP ,donde B≈ A .

Propiedad: B≈ A ⇔∃ P no singular ¿ B=P AP ( A , B∈ K )


−1 nxn

Propiedades de las Matrices Semejantes: Recordemos:

1. Si A≈ B∧B≈C ⇒ A≈C

Demostración

A≈ B⇒ ∃P no singular ¿ B=P−1 AP
B≈C ⇒∃Q no singular¿C=Q−1 BQ
C=Q−1 BQ
C=Q−1 ( P−1 AP ) Q
C=(⏟
Q−1 P−1 ) A (⏟
PQ )
H−1 H
−1
C=H AH
Con H no singular, pues es producto de matrices no singulares. ⇒ A≈C

Tr ( AB )=Tr ( BA )
2. A≈C ⇒Tr ( C )=Tr ( A ) Recordemos:
Demostración
A≈C ⇒∃ P no singular ¿ C=P−1 AP⇒ Tr ( C )=Tr ( P−1 AP ) ⇒
Tr ( C ) =Tr ( P−1 ( AP )) ⇒ Tr ( C )=Tr ( ( AP ) P−1 ) ⇒
Tr ( C ) =Tr ( AI ) ⇒ Tr ( C )=Tr ( A )

3. Si A≈ B⇒|A|=|B|
1
|P|= −1
Demostración
Recordemos: |A.B|=|A|.|B| y |P |
−1
no singular ¿ B=P AP⇒
|B|=|P−1 AP|⇒|B|=|P−1|.|A|.|P|⇒
1
|B|= .|A|.|P|⇒|B|=|A|
|P| (Pues por ser P no singular)

n −1 n
4. Si A≈ B⇒ A =P B P

Demostración

Por inducción
a. Para . Se verifica
b. Suponemos que vale para .

c. Para

A k +1 =( P−1 Bk P )( P−1 BP ) ⇒ A k +1 =( P−1 Bk )(⏟


PP−1 ) ( BP )
I
k +1 −1 k k +1 −1 k +1
A =P B BP ⇒ A =P B P

5. A≈ B⇒ r ( A )=r ( B )

Demostración

Si ambas matrices definen la misma TL, f definida de V en V, pero con respecto a


distintas bases.

f : V →V
r ( A )=dim ( Im f )
r ( B )=dim ( Im f ) }
⇒ r ( A )=r ( B )

DIAGONALIZACIÓN DE MATRICES
AUTOVECTORES Y AUTOVALORES

Definición: Sea F : V →V , una TL donde ( V ,+, K ,* ) es un EV. Entonces λ ∈ K es


autovalor o valor propio de F sii ∃ x ∈ V , x≠0 v /F ( x ) =λ . x .

2 2
Ejemplo: F : ℜ → ℜ / F ( x , y ) =( 2 x + y , 6 x+ y )
2
λ=4 es autovalor de F pues ∃ ( 1 ,2 ) ∈ ℜ / F ( 1 , 2 )=( 4 , 8 )=4. ( 1,2 ) .
También existen otros vectores que satisfacen la misma condición.

F (−1 ,−2 )=(−4 ,−8 )=4 . (−1 ,−2 )


F ( 3, 6 ) =( 12 ,24 )=4 . (3 ,6 )

Autovectores: es el conjunto de vectores relacionados con un autovalor λ ∈ K .

Autovalor de una matriz

nxn nx1
Definición: λ ∈ K es un autovalor de A∈ K ⇔∃ x ∈ K ∧x≠0 / Ax=λ . x

Definición: S λ= { x ∈V / F x =λ . x } S λ =S ´λ∪{0 v }
´
( ) ∧

´
Propiedad: Si λ es un valor propio de una TL f :V →V , y S λ es el conjunto de los
vectores propios asociados a λ , entonces S λ=S λ ∪ {0 v } es un subespacio de V. Es decir:
´

( S λ ,+, K ,* ) ⊲ ( V ,+, K ,* )
Demostración:

1.
2.
S λ ⊂ V por definición de S λ
3. Sean x e y dos vectores pertenecientes a
Sλ .
a. Si
x=0 V ∨ y=0V ⇒ x+ y ∈ S λ .
b. Supongamos que
x≠0 V ∧ y≠0 V
x ∈ S ´λ ¿ y ∈ S´λ ⇒ f ( x )= λ . x∧f ( y )=λ . y ⇒
f ( x ) + f ( y )=λ . x+ λ . y ⇒ f ( x + y ) =λ . ( x + y ) ⇒
x + y ∈ S ´λ ⇒ x+ y ∈ S λ
4. Sean
α ∈ K∧x ∈ S λ
a. Si
α=0∨x=0V ⇒ α . x ∈ S λ
b. Consideremos el caso
x≠0 V ∧α ≠0
α ∈ K∧x ∈ S´λ ⇒α ∈ K∧f ( x )=λ . x ⇒
αf ( x ) =α ( λ . x ) ⇒ f ( α . x )=λ . ( α . x ) ⇒ α . x ∈ S´λ ⇒α . x ∈ S λ

∴ ( S λ ,+, K ,* ) ⊲ ( V ,+, K ,* )

Propiedad: Los vectores propios asociados a autovalores propios distintos son LI.

Hipótesis:
F : V →V es una TL
{ λ1 , λ2 , . .. , λn } son autovalores de F.
{ x 1 , x 2 , .. . , x n } son autovectores asociados a los λ i .
∀ i≠ j : λi ≠λ j i = 1,…,n j = 1,…,n

Tesis:
{ x 1 , x 2 , .. . , x n } es LI.

Demostración:

1.
n=1⇒ { x 1 } x ≠0
es LI pues 1 v por ser autovector.
2. Supongamos que { 1 2
x , x , .. . , x k }
es LI.
k +1
{ x 1 , x 2 , .. . , x k +1 }∧∑ αi x i=0v
3. Sea i=1 (I) una CL cualquiera.

( )
k +1 k+1 k+1
F ∑ α i x i =F ( 0v ) ⇒ ∑ α i . F ( xi ) =0 v ⇒ ∑ α i . λi xi =0 v

i =1 i=1 i=1
a. Aplicamos F sobre (I): λi xi
(II)
k +1
λ k +1 : ∑ α i λk +1 x i=0v
b. Multiplicamos (I) por i=1 (III)

c. Restamos (II) – (III):

⇒ α ´i =0 ∀ i=1,...,k Pues los { x 1 , x 2 , .. . , x k } son LI. Por hipótesis inductiva.

Por lo tanto: ∀i=1,...,k


⇒ α i =0 ∀i=1,...,k
k +1

α ∑ αi x i =0V ⇒ α k +1 x k +1 =0V ⇒ α k +1=0


Reemplazamos i =0 en (I): i=1 pues
x k +1≠0v ⇒ ∀ i=1 ,. . ., k +1: α i =0

Luego {
x 1 , x 2 , .. . , x n }
es LI.

Propiedad: Sea F : V →V un endomorfismo. λ es autovalor de F sii es singular (i


denota la función identidad :i ( x ) =x ).

Demostración:

( ⇒)
λ ∈ K∧λ es autovalor de F⇒∃ x ∈ V ∧x≠0v /F ( x )=λ . x ⇒ F ( x ) −λ . x =0v ⇒
F ( x )− λi ( x )=0 v ⇒ F ( x )−( λi ) ( x )=0 v ⇒ ( F−λi ) ( x ) =0v ⇒
x ∈ Nu ( F−λi ) ⇒ Nu ( F− λi ) ≠{0 v } ⇒
F−λ . i no es inyectiva. Luego F−λ . i no es regular y entonces F−λ . i es singular.
( ⇐)
Supongamos ahora que F−λ . i es singular, o sea, no inversible. Esto significa que
F−λ . i :V →V / N ( F−λ . i )≠ {0V } .

En consecuencia, existe x ∈ V , x≠0V / ( F−λi ) ( x ) =0V . De acuerdo con el álgebra de las


TL, se tiene F ( x )− ( λi ) ( x )=0V . Es decir F ( x )= λ .i ( x ) =λ . x y por consiguiente λ es un
valor propio de F.

En términos de matrices esta propiedad se traduce de la siguiente manera:


nxn
Sea A ∈ K . λ ∈ K es un autovalor de A ⇔ A−λ . I es singular.
nxn
Equivalentemente λ es un valor propio A ∈ K ⇔ D ( A−λ . I )=0

Propiedad: sea F : V →V un endomorfismo con dim ( V )=n ,


[ V ] ={ x 1 , x 2 , .. . , x n }/ x i es
autovector de F asociado a
λ i ∀i=1,2,...n .

La matriz asociada a F con respecto a la base [ V ] es


D=( λi δ ij )
donde
δ ij= {
1 i= j
0 i≠ j y
nxn
D∈R .

Demostración:

La matriz de F con respecto a


[ V ] ={ v 1 , v 2 , . .. , v n } se obtiene determinando las imágenes de
f ( v i ) =λ i v i
los vectores de dicha base, es decir:
{f (v1)=λ1v1=λ1v1+0v2+.. +0vn¿{f (v2)=λ2v2=0v1+λ2v2+.. +0vn¿¿ ¿
1  i  n

Luego: ⇒ D=( λi. ∂ij ) 1  j  n

Cuando es posible hallar la matriz Diagonal decimos que F es Diagonalizable

Corolario: Sea F : V →V un endomorfismo y , si F admite n valores propios


distintos entonces F es diagonalizable.
nxn
En términos de matrices: si A ∈ K admite ¨n¨ valores propios distintos entonces
∃ P∈ K no singular ¿ D=P AP∧P=[ x 1 , x2 ,. .. , x n ] .
nxn −1

POLINOMIO CARACTERÍSTICO

Definición: Sea A ∈ K nxn ,P ( λ )=|A−λI|es el polinomio característico.


a11 −λ a12 .. . a1 n
a a22−λ .. . a2 n
P ( λ ) =| 21 |
.. . .. . .. . . ..
a n1 a n2 .. . a nn−λ
P ( λ ) =(−λ ) +α 1 (−λ )n−1 +α 2 (−λ )n−2 +. . .+ α n−1 (−λ )+ α n
n

Caso 1
A ∈ ℜ2 x 2
a −λ a12
P ( λ ) =| 11 |
a21 a22−λ
P ( λ ) =( a11−λ )( a 22−λ ) −a12 a21
P ( λ ) =(−λ )2 + ( a 11+a 22) (−λ ) + [ ( a11 a22−a12 a21 ) ]
⏟ ⏟
Tr ( A ) |A|

Caso 2
A ∈ ℜ3∗3
a11 −λ a12 a13
P ( λ ) =| a21 a22−λ a23 |
a31 a32 a33 −λ

RELACIONES ENTRE LOS COEFICIENTES DEL POLINOMIO


CARACTERÍSTICO, LOS VALORES PROPIOS
Y LOS ELEMENTOS DE LA MATRIZ A

P ( λ ) =(−λ )n +α 1 (−λ )n−1 +α 2 (−λ )n−2 +. . .+ α n−1 (−λ )+ α n

1. la suma de los valores propios de A es igual al coeficiente α 1 y es igual a la traza de


A.
n n
α 1=∑ λi =∑ aii =tr ( A )
i=1 i=1

2. el producto de los valores propios de A es igual al coeficiente


α n y es igual al
determinante de A.
n
α n =∏ λi=|A|
i =1

3. los coeficientes i son iguales a las sumas de todos los menores de orden i de |A|
α
que contienen en su diagonal principal elementos de la diagonal principal de A. Hay
(n ¿) ¿ ¿¿
¿ menores principales de orden i. También son iguales a la suma de todos los
(n ¿) ¿ ¿¿
productos posibles de los valores propios de A tomados de i en i. Hay ¿ productos
posibles.

La observación 1) corresponde a i = 1 y la 2) a i = n.

Propiedades:
nxn
1. λ ∈ K es autovalor de A ∈ K ⇔ P A ( λ ) =0
P A ( λ ) polinomio característico asociado a la matriz A.

Demostración:
λ es autovalor de A ⇔ A−λ . I es singular ⇔|A−λ . I|=0⇔ P A ( λ )=0

nxn
2. Si A ∈ K es involutiva entonces sus autovalores son 1 y -1.
nxn 2
Demostración: Recordar: A ∈ K es involutivo sii A =I

Sea λ ∈ K un autovalor de A ⇒∃ x ∈ V ∧x≠0 v / A . x=λ . x ⇒ A . ( A . x ) =A . ( λ . x ) ⇒


A2 x= λ ( A . x ) ⇒ I . x=λ ( λx ) ⇒ x−λ 2 x=0 v ⇒ ( 1− λ2 ) x=0 v ⇒ ( 1−λ2 )=0 pues x no es
2
el 0 v ⇒ λ =1 ⇒ λ=1∨ λ=−1
nxn
3. Si A ∈ K es idempotente entonces sus autovalores son 0 ó 1.

nxn 2
Recordar: A ∈ K es idempotente sii A = A

Demostración:

Sea λ ∈ K un autovalor de A ⇒∃ x ∈ V ∧x≠0 v / A . x=λ . x ⇒ A . ( A . x ) =A . ( λ . x ) ⇒


A2 x= λ . ( A . x ) ⇒ Ax=λ . ( λx ) ⇒ λx−λ 2 x=0v ⇒ ( 1−λ ) λx=0v ⇒ (1−λ ) . λ=0
pues x no es el
0 v ⇒ λ=1∨λ=1

4. Dos matrices semejantes ( A≈ B ) tienen el mismo polinomio característico.

Demostración Recordar: I =P−1 P

A≈ B⇒ ∃P ∈ K nxn , P no singular ¿ A=P−1 BP ⇒

OBSERVACIÓN: La reciproca no es verdadera

DIAGONALIZACIÓN DE MATRICES
nxn
Definición: A ∈ K es diagonalizable sii es semejante a una matriz D.
( D ∈ K nxn∧Diagonal )
A ∈ K nxn es diagonalizable sii ∃ P∈ K nxn / D=P−1 AP
Propiedades:

1. A ∈ K
nxn
es diagonalizable
⇒∃ D ∈ K nxn / D=( λi δ ij ) donde λ i es autovalor de A
∀ i=1,...,n
Demostración:

A es diagonalizable
⇒ A≈D ⇒ P A ( λ )=P D ( λ ) ⇒|A−λ . I|=|D−λ . I|⇒
d 1− λ 0 .. . 0
n n n
d 2 −λ
∏ ( λ i−λ )=|0 .. . 0
|⇒ ∏ ( λ i−λ )=∏ ( di −λ ) ⇒ λi =d i
i=1 .. . . .. .. . . .. i=1 i=1
0 0 .. . d n −λ
∀ i=1, . .. , n ⇒ D=( λi δ ij )

nxn
2. A ∈ K es diagonalizable sii A admite ¨n¨ vectores propios LI.

Demostración:

( ⇒) A es diagonalizable ⇒ A≈D ⇒∃ P ∈ K nxn no singular /D=P−1 AP⇒ PD=AP


(expresamos P particionada en ¨n¨ columnas
Xi )
P=( X 1 , X 2 ,. .. , X n )

( )
λ1 0 .. . 0
0 λ2 .. . 0
PD=( X 1 , X 2 , . .. , X n )
... .. . .. . . ..
0 0 .. . λn
PD=( λ1 X 1 , λ 2 X 2 , . .. , λn X n ) (1 )

AP= A ( X 1 , X 2 , .. . , X n ) ⇒ AP= ( AX 1 , AX 2 , .. . , AX n ) (2)

Igualamos (1) = (2)

( AX 1 , AX 2 , . .. , AX n )=( λ1 X 1 , λ2 X 2 ,. . ., λ n X n ) ⇒ ∀ i=1, . .. , n : AX i =λi X i ⇒


⇒ ∀ i=1 ,. . ., n : X i es vector propio para λ i .
Luego {
X 1 , X 2 , .. . , X n }
es el conjunto de autovectores. Pero P es no singular y por lo tanto
|P|≠0⇒ { X 1 , X 2 , .. . , X n } son LI.
( ⇐) A ∈ K nxn admite ¨n¨ vectores propios LI.
Sean { X 1 , X 2 , .. . , X n } los n vectores propios asociados a ( λ1 , λ2 , . .. , λn ) valores propios de
A / AX i= λi X i ∀i=1,2,...,n .

Definimos P=( X 1 , X 2 ,. .. , X n ) ∈ K
nxn

AP= A ( X 1 , X 2 , .. . , X n ) ⇒ AP=( AX 1 , AX 2 , .. . , AX n )
⇒ AP=( λ1 X 1 , λ2 X 2 ,. .. , λ n X n ) ⇒ PD= AP
D=( λi δ ij )
Donde .
Como { X 1 , X 2 , .. . , X n } es LI⇒|P|≠0 ⇒
∃ P−1 ( P no singular ) ⇒ D=P−1 AP⇒ A≈D ⇒ A es diagonalizable.

Propiedad:

Si A es diagonalizable entonces la cantidad de autovalores distintos de cero de A es igual al


rango de A.

Demostración: (# : cantidad de elementos)

A es diagonalizable ⇒∃ P ∈ K
nxn
no singular / A=P−1 DP con D diagonal ⇒
A≈ D ⇒ r( A )=r (D )
r ( D )=¿ { λi / λ i es autovalor de A∧λi ≠0 } ⇒
Pero
r ( A )=¿ { λi / λi es autovalor de A∧λi ≠0 }

Propiedad:

Si el vector no nulo
x i es autovector de A asociado al autovalor λ i , dicho vector también es
n
autovector para el autovalor λ i para A .
n

x ≠O ∧ Ax = λ i xi ⇒ A n x i= λ n x i
En símbolos i v i
i

1. Para n = 1 se cumple.
Ah x i =λ h x i
2. Supongamos que se cumple para n=h: i

3. Demostrémoslo para n = h+1.


Ah x i =λ h x i ⇒ AA h x i= Aλ h xi ⇒ A h+1 xi =λ h ⏟
Axi ⇒
i i i
λi x i
h+1 h+1
A x i= λ h λ i x i ⇒ A x i= λ h+1 x i ⇒
i i

x i es autovector asociado a λ h+1 h+1


i para A .

Observación:
 Podemos asegurar que una matriz cuadrada A que tiene n autovalores distintos es
diagonalizable.
 Si una matriz A cuadrada tiene autovalores de multiplicidad p es condición
necesaria y suficiente para que A sea diagonalizable que el sistema homogéneo
( A−λ . I ) X=0 tenga solución de dimensión p.

Ejemplo 1: Hallar los autovalores y autovectores de la siguiente matriz:

No existe otro autovalor LI B no es Diagonalizable.

Ejemplo 2: Hallar los autovalores y autovectores de la siguiente matriz:


.

Planteamos la matriz

Realizando las operaciones queda:

Ahora para averiguar el polinomio característico calculamos el determinante:


Desarrollamos el determinante por el método de Laplace, desarrollando por la primera fila.

Igualamos a cero:

Para calcular las raíces pueden aplicar el teorema de Gauss, y ver que el polinomio
característico se anula con . Aplicamos la Regla de Ruffini y obtenemos:
Luego:
Aplicamos la fórmula resolvente:

Como vemos las raíces son distintas. Una de las propiedades establece que con tres
autovalores distintos hay con seguridad tres autovectores linealmente independientes.
Busquemos los autovectores. Primero con .

Tenemos que resolver ese sistema de ecuaciones homogéneo, por ejemplo por el método de
triángulación de Gauss

Primero multiplico por :

Segundo multiplico por :

Tercero multiplico por :

Entonces armando nuevamente el sistema y queda:

De donde el autovector asociado el autovalor es:

. Finalmente un autovector es: .


De la misma forma se calculan los otros autovectores para y .

FORMA CANÓNICA DE JORDÁN


Cuando el número de vectores propios linealmente independientes de A es menor
que n, la diagonalización es imposible. Sin embargo es posible someter A a una
−1
transformación semejante J=V AV donde V es una matriz no singular que reduce la
matriz A a su forma canónica de Jordán.
La forma canónica de Jordán de cualquier matriz cuadrada A es una matriz cuadrada
J de la misma dimensión que A con las siguientes propiedades:

1. los elementos de su diagonal principal son los valores propios de A, apareciendo los
valores propios múltiples en posiciones adyacentes.
2. los elementos de la diagonal de arriba de la diagonal principal son cero o la unidad.
Solamente los elementos que están a la derecha de un valor propio que va a ser
repetido pueden ser iguales a la unidad.
3. todos los demás elementos de la matriz son ceros.

[ ]
λ1 1 0 0
0 λ2 0 0
J=
0 0 λ3 1
0 0 0 λ4 λ 1=λ 2 ∧λ3 =λ 4
Por ejemplo: donde

CÁLCULO DE LOS VECTORES PROPIOS POR ADJUNTOS

x
Para obtener un vector propio i correspondiente al valor propio i debemos resolver
λ
el sistema (
A−λ i I ) x i=θ
. (1)
¿
y i a su adjunta resulta i (
B ( A−λ I ) B |B |=| A−λ i I )|=0
Si llamamos i a la matriz i
¿
Bi . B =|B i|I=θ
(2) y i , ya que el producto de una matriz por su adjunta es la matriz diagonal
cuyos elementos diagonales son iguales al determinante de la matriz. Si
λ i es raíz simple de
la ecuación característica (2) el rango de
Bi es (n-1); existe, entonces, por lo menos un
¿
B
adjunto no nulo, por lo que el rango de la matriz i será también, al menos, 1.
Pero el rango de esta matriz es, como máximo, el orden de la matriz menos el rango
de Bi : n− ( n−1 ) =1 (si el rango de la matriz
Amxp es r y si la matriz B pxn tal que A . B=θ , el
rango de B no puede ser mayor que p-r).
¿ ¿
B B
Por lo tanto, el rango de i es 1; esto significa que toda columna i es CL de las
restantes (son todas proporcionales entre sí).
¿ ¿ ¿
k B Bi . k =θ
Si llamamos i a una columna cualquier k de la matriz i resulta i por lo
¿
k
tanto i es solución de la ecuación (1) y es un vector propio correspondiente al valor propio
λ i , siempre que no sea el vector nulo.
¿
B
En lugar de construir la matriz i se puede obtener directamente una de sus
columnas calculando los adjuntos de una fila cualquiera de
Bi (siempre que no sean todos
nulos) y formando con ellos el vector columna
xi .

Teorema: ninguna raíz característica de la matriz cuadrada A puede tener módulo mayor
que la máxima suma de los módulos de los elementos de cada fila ni que la máxima suma
de los módulos de los elementos de cada columna, o sea |λ|≤min { F ,C } donde λ denota
cualquier raíz característica de la matriz.
n n
F=max F i ⇒ F i = ∑ |aij| C=max C j ⇒ C j =∑ |aij|
i j=1 j i =1

Demostración:

Si λ es raíz característica de A, entonces, existe un vector no nulo

[]
x1
x= x2 /λx=Ax⇒¿ { λx1=a11 x1+a12 x2+...+a1n xn ¿ { λx2=a21 x1+a22 x2+...+a2n xn ¿ {. .............................................¿¿¿
...
xn
(1)
Tomando módulo miembro a miembro la 1era ecuación resulta:

|λx 1|≤|a11 x 1|+|a12 x 2|+...+|a1 n x n| por desigualdad triangular


|λ||x 1|≤|a11||x1|+|a 12||x 2|+...+|a 1n||x n| por módulo de producto de escalares.
Operando de modo similar con las demás ecuaciones, el sistema (1) resulta:

{|λx1|≤a1|x1+|a12|x2+. +|a1n|xn¿{|λx2|≤a21|x1+|a2|x2+. +|a2n|xn¿{. . . . . . . . . . . ¿ ¿


Sumando miembro a miembro estas desigualdades y sacando factor común |λ|en el primer
miembro y
|x i|en cada columna del segundo miembro obtenemos:

|λ|(|x 1|+|x 2|+. ..+|x n|) ≤(|a11|+|a21|+. ..+|an 1|)|x 1|+ (|a 12|+|a22|+. . .+|an 2|)|x 2|+
⏟ ⏟
C1 C2
. ..+ (|a1 n|+|a2 n|+. . .+|a nn|)|x n|

Cn

resulta ( 1 n) ( 1 2 n)
C ≤C 2 |λ| |x |+|x |+. ..+|x | ≤C |x |+|x |+. ..+|x |
Como j
Como x es un vector propio sus componentes no pueden ser todas nulas, de modo que la
suma de sus módulos será positiva. Dividiendo miembro a miembro por dicha suma|λ|≤C .
t
Como una matriz cuadrada A y su transpuesta A tienen el mismo polinomio característico,
y por lo tanto, iguales raíces, partiendo de la ecuación λx= A x se demuestra que |λ|≤F .
t

|λ|≤C ¿} ¿ ¿|λ|≤min {F ,C } ¿ que es lo que se quería demostrar.


TEOREMA DE CAYLEY - HAMILTON

Toda matriz cuadrada satisface a su propia ecuación característica, es decir, si A nxn tiene por
ecuación característica |A−λI|=0 , donde |A−λI| es un polinomio de grado n en λ :
2 n−1 n
P ( λ ) =c 0 +c1 λ +c 2 λ +.. .+c n−1 λ +c n λ (1), se verifica P(A)=0, o sea:
θ=c 0 I+c 1 A +c 2 A 2 +. . .+c n−1 A n−1 +cn A n (2)

Demostración:

Llamemos M a la matriz ( A−λI ) y M´ a su adjunta

1 1
M −1 = Adj ( M )= .M ´ ⇒ M ´=|M|M −1
Como |M| |M|
Premultiplicando por M MM ´=|M|I ⇒ MM ´=P ( λ ) I (3)
Pero la matriz M´ es una matriz cuyos elementos son polinomios de grado a lo sumo (n-1)
en λ (los determinantes adjuntos de cada elemento de la matriz transpuesta de M) y por lo
tanto puede escribirse como un polinomio matricial de grado (n-1) en λ o sea:
M ´=M 0 + M 1 λ+M 2 λ2 +.. .+M n−2 λn−2 +M n−1 λ n−1 (4) donde las M i son matrices.
Por otro lado MM ´= ( A−λI ) M ´ ⇒ MM ´= AM ´−λM ´ (5).
Igualando 3 y 5 resulta P ( λ ) I= AM ´− λM ´
Reemplazo M´ por 4 y P ( λ ) por 1:

A ( M 0 + M 1 λ+ M 2 λ 2 +. ..+ M n−2 λn−2 + M n−1 λn−1 )−λ ( M 0 + M 1 λ+ M 2 λ 2 +.. .+ M n−2 λn−2 + M n−1 λ n−1 )=
( c 0 + c1 λ +c 2 λ2 +.. .+c n−1 λn−1 +c n λ n ) I
Efectuando las operaciones indicadas:
AM 0 + ( AM 1 −M 0 ) λ+ ( AM 2 −M 1 ) λ2 +.. .+ ( AM n− 2− M n−3 ) λn−2 + ( M n−1 −M n−2 ) λ n−1 −M n−1 λ n=
c 0 I +c 1 Iλ+ c2 Iλ 2 +. . .+ c n−1 Iλ n−1 + c n Iλ n (6)

Igualando coeficientes Premultiplicados por Resulta


homólogos en (6)
AM 0 =c 0 I I AM 0 =c 0 I
AM 1 −M 0 =c 1 I A A2 M 1 − AM 0 =c1 A
AM 2 −M 1=c 2 I A2 A3 M 2 − A2 M 1 =c 2 A2
…………………………. ………………….. …………………………
AM n−2 −M n−3 =c n−2 I An-2 An−1 M n−2 − An−2 M n−3 =c n−2 A n−2
AM n−1 −M n−2 =c n−1 I An-1 An M n−1 −A n−1 M n−2=c n−1 An−1
−M n−1 =c n I An − A n M n−1 =c n A n

Sumando miembro a miembro las igualdades de la última columna obtenemos (2) q.q.d.
Otro método para calcular A-1: si A es una matriz no singular no hay valores propios nulos
y, por lo tanto,
c 0 ≠0 . Si multiplicamos miembro a miembro (2) por A -1 y despejamos
1
c0 ( 1
A−1 =− c I +c 2 A+c3 A 2 +. ..+cn−1 A n−1 +c n A n−1 )

DIAGONALIZACIÓN DE MATRICES SIMÉTRICAS

Teorema: los autovalores de una matriz simétrica real, son todos reales.

A ∈ ℜnxn / A= At T T T T
Recordar que ⟨ X ,Y ⟩=X Y y que ( AB ) =B A .
Demostración:
P(x) es de coeficientes reales y

Supongamos que
∃ λ1 ∈ C/|A−λ 1 I|=0 pero P A ( λ )=|A−λI|tiene coeficientes reales.
⇒ λ2 =λ1 es tal que 0=|A−λ2 I|
⇒ λ1 =α + βi es autovalor ⇒ λ2 =α −βi es autovalor.

B=( A−λ 1 I )( A−λ 2 I ) ⇒ B= A2 −λ 1 A−λ 2 A + ( λ1 λ2 ) I 2 ⇒ B= A2 − A ( λ 1 + λ 2 ) + ( λ1 λ 2 ) I


B= A 2−2 αA + [ α 2 −( βi )2 ] I ⇒ B=A 2 −2 αA + [ α 2 + β 2 ] I ⇒ B=A
⏟ 2
−2 αA +α 2 I + β 2 I
( A−αI )2
2 2
Sea B=( A−αI ) + β I

Como B es singular (por su producto de matrices singulares) el sistema homogéneo BX=0


es no trivial, entonces existe un X distinto de cero que es solución.
X T BX=X T 0 con X ≠0

Propiedad:

1. Los autovectores de una matriz simétrica asociada a autovalores distintos son


ortogonales.

A ∈ K nxn / A=A T
λ 1∧λ 2 ( AV )/λ 1≠ λ2

Y x 1∧x 2 autovectores correspondientes, es decir Ax1 =λ 1 x1 ∧ Ax 2 =λ2 x 2

Demostración:

2. Toda matriz simétrica real es diagonalizable sobre los reales con matriz P ortogonal.
3. A cada valor propio de una matriz simétrica real corresponden tantos autovectores
LI como el orden de multiplicidad del valor propio.

También podría gustarte