0% encontró este documento útil (0 votos)
96 vistas4 páginas

Subespacios Invariantes en Transformaciones Lineales

1) Un subespacio W de un espacio vectorial V se dice invariante por una transformación lineal T: V → V si T(w) pertenece a W para todo vector w en W. 2) Si W es invariante por T, entonces T induce una transformación lineal TW: W → W. 3) Una transformación lineal T es triangularizable si existe una base ordenada de V en la que la matriz asociada a T es triangular.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
96 vistas4 páginas

Subespacios Invariantes en Transformaciones Lineales

1) Un subespacio W de un espacio vectorial V se dice invariante por una transformación lineal T: V → V si T(w) pertenece a W para todo vector w en W. 2) Si W es invariante por T, entonces T induce una transformación lineal TW: W → W. 3) Una transformación lineal T es triangularizable si existe una base ordenada de V en la que la matriz asociada a T es triangular.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

SUBESPACIOS INVARIANTES

Verónica Gruenberg Stern

Definición: Sea T : V −→ V lineal. Si W ≤ V , diremos que W es invariante por T ó


T −invariante si ∀ w ∈ W : T (w) ∈ W , ó dicho de otro modo, T (W ) ⊆ W .
Ejemplos:
1. Si T : V −→ V lineal, entonces tanto V como el subespacio vectorial {0V } son
T −invariantes. Claramente, Im(T ) también es T −invariante.
2. Si D : Kn [x] −→ Kn [x] es el operador derivación sobre el espacio de los polinomios de
grado menor ó igual a n, claramente, para cada m ∈ N : m ≤ n se tiene que W = Km [x]
es T −invariante.
3. Si T es
 la transformación
 lineal representada en la base canónica ordenada por la matriz
0 −1
A= , se puede ver que los únicos subespacios de R2 que son inveriantes
1 0
por T son los triviales.
Podemos ver esto de dos maneras:
Considerar W un subespacio de dimensión 1, generado por un vector w ∈ W .
Notamos que Aw ∈/ W.
Si W fuese un subespacio T −invariante de dimensión 1, generado por un vector
w ∈ W, w 6= 0, querría decir que w es un vector propio, pero sabemos que A no
tiene valores propios reales.

Observación: Si T : V −→ V es lineal y si W ≤ V tal que W es T −invariante, se tiene


que T induce la aplicación TW = T |W : W −→ W , con TW (v) = T (v), ∀v ∈ W .

Supongamos que dimV = n; podemos interpretar la invarianza de W por T matricialmente


del siguiente modo:
Escojamos E = {v1 , · · · , vr , vr+1 , · · · , vn } base de V , de modo que

E 0 = {v1 , · · · , vr } es base de W .
n
X
Si A = [T ]E , entonces T (vj ) = aij vi . Luego, como ∀j ≤ r : T (vj ) ∈ W :
i=1
r
X
T (vj ) = aij vi , j≤r
i=1

Es decir,
 aij = 0 si j ≤ r ∧ i > r. Así, la matriz asociada a T se ve de la forma
B C
A = donde B ∈ Mr×r (K), C ∈ Mr×(n×r) (K), D ∈ M(n×r)×(n×r) (K)
0 D
y B representa a la matriz de TW en la base E 0 , es decir, B = [TW ]E 0 .
Lema: Sea W invariante por T . Entonces, PTW (x) divide a PT (x). Además, mTW (x)
divide a mT (x).
Dem.:
 
B C
A= ⇒ det(xI − A) = det(xI − B) det(xI − D).
0 D
 k 
k B Ck
A = implica que si un polinomio anula a A también anula a B (y a
0 Dk
D).

Definición: T : V −→ V lineal se dice triangularizable si existe una base ordenada de V


en la que [T ]B es una matriz triangular.

Lema: Sea V de dimensión finita sobre K, y sea T : V −→ V lineal, tal que

mT (x) = (x − λ1 )r1 · · · (x − λk )rk , λi ∈ K ∀ i = 1, · · · , k

Sea W  V , T (W ) ⊆ W . Entonces,

∃v ∈ V − W : (T − λI)(v) ∈ W, para algún valor propio λ de T.

TEO: Sea V de dimensión finita sobre K, y sea T : V −→ V lineal. Entonces,

T es triangularizable ⇔ mT (x) = (x − λ1 )r1 · · · (x − λk )rk

es decir, ssi mT (x) es producto de factores lineales con multiplicidad.

OBS: Antes de hacer la demostración, y para una mejor comprensión, haremos un ejemplo
"ilustrativo":  
3 1 −1
Sea A =  2 2 −1 . Sabemos que esta matriz tiene polinomio característico
2 2 0
PA (x) = (x − 1)(x − 2)2 .
Un vector propio asociado al valor propio λ = 1 es v1 = (1, 0, 2).
Para λ = 2 encontramos solo un vector propio l.i., digamos v2 = (1, 1, 2).
De acuerdo al lema anterior, ∃v ∈ V −W : (T −λI)(v) ∈ W, para algún valor propio λ de T.
En este caso, el valor propio que tiene multiplicidad mayor que 1 es λ = 2. Luego, el vector
que buscamos es v3 :
(A − 2I)(v3 ) ∈ W es decir buscamos v3 = (x, y, z) :
    
1 1 −1 x α
 2 0 −1   y  =  α 
2 2 −2 z 2α
Haciendo α = 1 y x = 1, determinamos v3 = (1, 1, 1).
Consideremos ahora la base ordenada B de R3 : B = {v1 , v2 , v3 }.
Calculamos
  Av1 = v1 , Av2 = 2 v2 (ambos son vectores propios) y finalmente
3
Av3 =  3  = 0 · v1 + 1 · v2 + 2 · v3
4
Luego, en la base B, la matriz asociada a la transformación lineal que estaba representada
por A es:
 
1 0 0
[T ]B =  0 2 1 , que es una matriz triangular
0 0 2
Veamos ahora la:
Demostración del teorema: Supongamos que el polinomio minimal está factorizado en
la forma
mT (x) = (x − λ1 )r1 · · · (x − λk )rk
Aplicando reiteradamente el lema anterior (no solo 1 vez, como en el ejemplo), obtenemos
una base ordenada B = {v1 , v2 , · · · , vn } respecto de la cual la matriz que representa a T es
triangular superior:  
a11 a12 a13 · · · a1n
 0 a22 a23 · · · a2n 
 
[T ]B =  0
 0 a33 · · · a3n  
 .. .. .. .. .. 
 . . . . . 
0 0 0 · · · ann
Luego, T (vj ) = a1j v1 +· · ·+ajj vj , para j = 1, 2, · · · , n. Así, T (vj ) ∈ hv1 , v2 , · · · , vj i.
Otra forma de determinar los vectores vj (diferente a lo realizado en el ejemplo, donde
utilizamos información privilegiada) es comenzar aplicando el lema anterior al espacio vectorial
nulo. Así, obtenemos un vector, v1 y formamos W1 = hv1 i. Aplicamos el lema ahora a W1 ,
obteniendo un v2 , con el que formamos W2 = hv1 , v2 i, y así sucesivamente.
Luego, T es triangularizable.
Supongamos ahora que T es triangularizable. Luego, el polinomio característico es de la
forma:
PT (x) = (x − λ1 )d1 · · · (x − λk )dk
Claramente, los elementos de la diagonal son los valores propios λi repetidos di veces. Pero, si
el polinomio característico es de esta forma, como el minimal tiene las mismas raíces y divide
al característico, es de la forma pedida.

Consecuencia: Si K es un cuerpo algebraicamente cerrado (como C), toda matriz es seme-


jante a una matriz triangular, ó, dicho de otra forma, toda matriz es triangularizable.

TEO: Sea V de dimensión finita sobre K, y sea T : V −→ V lineal. Entonces,

T es diagonalizable ⇔ mT (x) = (x − λ1 ) · · · (x − λk )
donde λi 6= λj si i 6= j, es decir, si mT (x) es producto de factores lineales sin multiplicidad.

Dem Ya vimos que si T es diagonalizable, entonces su polinomio minimal es producto de


factores lineales distintos. Veamos el recíproco:
Sea W el subespacio generado por todos los vectores propios de T , y supongamos que
W 6= V (si son iguales, entonces T es diagonalizable). Por el mismo lema que usamos arriba:

∃v ∈ V − W y un valor propio λj de T : w = (T − λj I)(v) ∈ W

Luego: w = w1 + · · · + wk , donde T (wi ) = λi wi , 1 ≤ i ≤ k. Por lo tanto:

h(T )(w) = h(λ1 )w1 + · · · + h(λk )wk ∈ W, ∀ polinomio h


Como para algún polinomio q podemos escribir: mT (x) = (x − λj )q(x) se tiene que
q − q(λj ) = (x − λj )h.

Así: q(T )(v) − q(λj )(v) = h(T )(T − λj I)(v) = h(T )(w).

Como h(T )(w) ∈ W y 0 = mT (T )(V ) = (T − λj I)q(T )(v), el vector q(T )(v) ∈ W.


∴ q(λj )v ∈ W .

Como v ∈
/ W : q(λj ) = 0. Esto contradice que las raíces sean distintas.

También podría gustarte