0% encontró este documento útil (0 votos)
13 vistas34 páginas

Cap 3

El capítulo 3 aborda las propiedades de los endomorfismos, su relación con tensores y la importancia de elegir la base adecuada para simplificar cálculos. Se presenta un desarrollo histórico de la teoría de matrices, desde Cayley hasta Frobenius, y se exploran las aplicaciones lineales en espacios de suma directa y producto tensorial. Se definen las representaciones matriciales de endomorfismos en estos espacios y se establece la relación entre las matrices asociadas a los endomorfismos de los espacios factores.

Cargado por

andres.vese
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
13 vistas34 páginas

Cap 3

El capítulo 3 aborda las propiedades de los endomorfismos, su relación con tensores y la importancia de elegir la base adecuada para simplificar cálculos. Se presenta un desarrollo histórico de la teoría de matrices, desde Cayley hasta Frobenius, y se exploran las aplicaciones lineales en espacios de suma directa y producto tensorial. Se definen las representaciones matriciales de endomorfismos en estos espacios y se establece la relación entre las matrices asociadas a los endomorfismos de los espacios factores.

Cargado por

andres.vese
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Capítulo 3

Propiedades de endomorfismos

1. ¿Por qué?
En el capítulo 1 hemos introducido los endomorfismos y hemos comentado su
importancia en física; en el capítulo 2 hemos visto su relación con los tensores, así
como la traza y el determinante como invariantes de cada endomorfismo. También
vimos que la representación matricial variaba en función de la base elegida, así que se
plantea el problema de escoger la base más adecuada para poder desarrollar los cálculos
necesarios de forma más eficiente. Esto nos lleva a la pregunta de cuán simple puede
ser la representación de un endomorfismo, y en qué base se da esa representación.
1.1. Un poco de historia. Continuando con la sección de historia del capítu-
lo anterior, vamos a culminar el desarrollo histórico de los conceptos de teoría de
matrices.
Tras la introducción por Cayley de la notación para el concepto de determinante,
el nuevo elemento a señalar debería de ser la introducción por Ferdinand Gotthold
Max Eisenstein de una sola letra para la representación de una “sustitución lineal”, y
el darse cuenta de que tales objetos podían componerse por multiplicación. Es él pues
quien concibe la noción de álgebra de matrices.

Figura 1. Retratos de Eisenstein y Sylvester

En 1850, Sylvester introdujo por primera vez el término “matriz” para representar
el cuadro de números asociado al sistema de ecuaciones. En 1858, Cayley daría la
primera definición abstracta del concepto, en la obra titulada Memoir on the theory of
matrices. En ella, se introducía el concepto, se probaba la existencia de una estructura
de álgebra, y de la estructura lineal. Podemos decir que en este momento nace de
forma definitiva la teoría moderna de matrices.
77
78 3. PROPIEDADES DE ENDOMORFISMOS

Figura 2. Retratos de Hamilton y Cayley

Cayley prueba también que una matriz de dimensión dos satisface su propia ecua-
ción característica, resultado que Hamilton probará poco después para matrices de
dimensión cuatro al estudiar los cuaterniones.

Figura 3. Retratos de Jordan y Frobenius

Para la prueba en el caso general del teorema deberemos esperar a que Ferdinand
Georg Frobenius publique en 1878 "Über lineare Substitutionen und bilineare Formen"
(“Sobre substituciones lineales y formas bilineales”).
Jordan introduce también en 1870 la noción de forma canónica que lleva su nom-
bre en el trabajo Traité des substitutions et des équations algebraiques (Tratado de las
substituciones y de las ecuaciones algebraicas) proporcionando una nueva visión sobre
la descripción de las aplicaciones lineales. Pero será también cuando en 1903 sean
publicadas las lecciones de Weierstrass y Kronecker sobre álgebra en la universidad
de Berlin el momento en que esta línea de las matemáticas se encamine a su forma
definitiva. En particular, el concepto de determinante que Weierstrass había definido
2. ENDOMORFISMOS EN ESPACIOS SUMA DIRECTA Y PRODUCTO TENSORIAL 79

axiomáticamente tomó su forma final (aproximadamente la que hemos presentado)


mientras que la teoría de las aplicaciones lineales debería esperar todavía hasta el
segundo cuarto del siglo XX.

Figura 4. Retratos de Weierstrass y Kronecker

2. Endomorfismos en espacios suma directa y producto tensorial


Vamos ahora a poner en relación el concepto de endomorfismo con el concepto de
suma directa y de producto tensorial de espacios vectoriales que vimos en el capítulo
anterior. Evidentemente, una vez definido el espacio compuesto, sea el suma directa
o el espacio producto tensorial, podemos definir aplicaciones lineales sobre él. Pero el
interés de la construcción radica en la caracterización de aplicaciones lineales y matri-
ces del espacio compuesto en función de las aplicaciones lineales y matrices de cada
uno de los espacios factores.
Consideremos pues dos espacios vectoriales, V1 , V2 y dos endomorfismos
f1 : V1 → V1 f2 : V2 → V2 .
Si consideramos bases en cada uno de los espacios, {|ej1 ⟩} en V1 y {|ej2 ⟩} en V2 ,
podemos definir las matrices asociadas:
 1
T 1 T 12 . . . T 1n1
 1
U 12 . . . U 1n2
 
U1
 T 21 T 22 . . . T 2n  U 21 U 22 . . . U 2n2 
1
f1 → T =  . .. .. ..  f2 → U =  . .. .. .. 
  
 .. . . .   .. . . . 
n1 n1
T 1 T 2 . . . T n1 n1
U n12 U n22 n2
. . . U n2
Sabemos ahora que podemos definir bases del espacio suma directa o del producto
tensorial componiendo las bases mencionadas:
para el espacio suma directa, consideraremos la base de elementos de la forma
B⊕ = |ej1 ⟩ × {⃗0}, {⃗0} × |ek2 ⟩}| j = 1, . . . , n1 ; k = 1, . . . n2 (180)


para el espacio producto tensorial, consideraremos la base:


B⊗ = |ej1 ⟩ ⊗ |ek2 ⟩}| j = 1, . . . , n1 ; k = 1, . . . n2 (181)

80 3. PROPIEDADES DE ENDOMORFISMOS

¿Podemos ahora componer los dos endomorfismos definidos sobre los factores y
definir un endomorfismo sobre el espacio suma directa o sobre el espacio producto
tensorial?
Vamos a analizar separadamente cada caso:

2.1. Suma directa V1 ⊕ V2 . Consideremos la aplicación definida sobre la suma


directa en la forma:
F+ : V1 ⊕ V2 → V1 ⊕ V2
F+ (v1 ⊕ v2 ) = f1 (v1 ) ⊕ ⃗02 + ⃗01 ⊕ f2 (v2 ) = f1 (v1 ) ⊕ f2 (v2 ) (182)

Lema 3.1. La aplicación (182) es lineal sobre V1 ⊕ V2 .


Demostración. Para probar la propiedad tenemos que demostrar que dados dos
elementos cualesquiera va , vb ∈ V1 ⊕ V2 y dos escalares αa , αb ∈ K, se cumple que
F+ (αa va + αb vb ) = αa F+ (va ) + αb F+ (vb ) (183)
Sabemos por el teorema 1.2 que dado un elemento va ∈ V1 ⊕ V2 , existen una
pareja de elementos wa1 ∈ V1 y wa2 ∈ V2 tales que
va = wa1 ⊕ wa2 .
Análogamente, existe otra pareja de elementos que descompone vb , es decir,
vb = wb1 ⊕ wb2 .
La aplicación se puede escribir entonces, por las propiedades de la suma directa, como
F+ (αa va +αb vb ) = F+ (αa wa1 ⊕wa2 +αb wb1 ⊕wb2 ) = F+ ((αa wa1 +αb wb1 )⊕(αa wa2 +αb wb2 ))
Si re-escribimos la ecuación (182) empleando esta descomposición, tendremos:
F+ (αa va + αb vb ) = (f1 (αa wa1 + αb wb1 )) ⊕ (f2 (αa wa2 + αb wb2 ))
Ahora, por la linealidad de f1 y f2 sabemos que
f1 (αa wa1 +αb wb1 ) = αa f1 (wa1 )+αb f1 (wb1 ); f2 (αa wa2 +αb wb2 ) = αa f2 (wa2 )+αb f2 (wb2 )
Con lo cual concluimos:
F+ (αa va + αb vb ) = (αa f1 (wa1 ) + αb f1 (wb1 )) ⊕ (αa f2 (wa2 ) + αb f2 (wb2 ))
= αa (f1 (wa1 ) ⊕ f2 (wa2 )) + αb (f1 (wb1 ) ⊕ f2 (wb2 ))
= αa F+ (va ) + αb F+ (vb )

¿Qué forma toma la matriz de esta aplicación lineal en la base B⊕ ? Para calcularlo
basta con tomar los elementos de la base y aplicar la expresión de F+ :
F+ |ej1 ⟩ × {⃗0} = (f1 |ej1 ⟩) × {⃗0} F+ {⃗0} × |ek2 ⟩} = {⃗0} × (f2 |ek2 ⟩)
De aquí deducimos que la matriz completa toma la forma:
 
T 0
0 U
2. ENDOMORFISMOS EN ESPACIOS SUMA DIRECTA Y PRODUCTO TENSORIAL 81

donde
T 11 T 12 T 1n1 U 11 U 12 . . . U 1n2
   
...
 T 21 T 22 ... T 2n1  U 21 U 22 . . . U 2n2 
T = . .. .. ..  U= . .. .. .. 
   
 .. . . .   .. . . . 
T n11 T n21 ... T nn11 U n12 U n22 n2
. . . U n2

2.2. Producto tensorial V1 ⊗V2 . El caso del producto tensorial va a ser un poco
más complicado. Consideremos el espacio vectorial obtenido como producto tensorial
de dos factores
V = V1 ⊗ V2 .

Recordemos que este espacio está definido como la clausura lineal de (es decir, el
conjunto generado por) los tensores (|ei1 ⟩ ⊗ |ej2 ⟩), con B1 = (|ei1 ⟩) y B2 = (|ej2 ⟩)
bases de V1 y V2 , respectivamente: V1 ⊗ V2 = span(|ei1 ⟩ ⊗ |ej2 ⟩, i = 1, . . . , dim(V1 ), j =
1, . . . , dim(V2 )).
Consideremos dos aplicaciones f1 : V1 → V1 y f2 : V2 → V2 . Definamos sobre V ,
la aplicación
F× : V → V F× (v1 ⊗ v2 ) = f1 (v1 ) ⊗ f2 (v2 ). (184)

Notemos que esta aplicación no está definida sobre todos los elementos del es-
pacio V1 ⊗ V2 , sino solamente sobre aquellos que habíamos definido como separables
en el capítulo anterior. Podemos sin embargo considerar una aplicación más general,
definida sobre todos los elementos del espacio, extendiendo por linealidad la aplicación
F× . Consideremos entonces:
Definición 3.1. Consideremos el producto tensorial de dos espacios V1 ⊗ V2 y un
endomofismo en cada uno de los factores, f1 : V1 → V1 y f2 : V2 → V2 . Denominaremos
producto tensorial de f1 y f2 y denotaremos como f1 ⊗ f2 a la aplicación lineal que
sobre estados separables es igual a (184).
La aplicación está bien definida porque sabemos que el producto tensorial de
bases de los factores define una base para el espacio producto. Esto implica que es
posible generar cualquier elemento de V1 ⊗ V2 como combinación lineal de elementos
separables. Por consiguiente, fijar el valor sobre estos y exigir que la aplicación sea
lineal es suficiente para definir correctamente la misma.
Una vez definida la aplicación es sencillo proceder a determinar la expresión de la
misma en una base, es decir, la representación matricial correspondiente.
Consideremos pues dos espacios vectoriales, V1 , V2 y dos endomorfismos

f1 : V1 → V1 f2 : V2 → V2 .

Si consideramos las bases B1 en V1 y B2 en V2 , podemos definir las matrices asociadas:


 1
T 1 T 12 . . . T 1n1
 1
U 1 U 12 . . . U 1n2
 
 T 21 T 22 . . . T 2n  U 21 U 22 . . . U 2n 
1 2
f1 → T =  . .. .. ..  f2 → U =  . .. .. .. 
 
 .. . . .   .
. . . . 
T n11 T n21 ... T nn11 U n12 U n22 ... U nn22
82 3. PROPIEDADES DE ENDOMORFISMOS

Consideremos entonces la imagen por la aplicación (184) del elemento genérico


de la base del espacio producto tensorial:
X X X
F× (|ej1 ⟩⊗|ek2 ⟩) = f1 (|ej1 ⟩)⊗f2 (|ek2 ⟩)) = (T )l j |el1 ⟩⊗ (U)mk |em
2
⟩= (T )l j (U)mk |el1 ⟩⊗|em
2

l m l,m
(185)
Recuperamos entonces, a partir de la expresión general, la expresión de la repre-
sentación matricial asociada a esta aplicación lineal.
Definición 3.2. Denominaremos producto tensorial de las matrices T y U a la
matriz, de dimensiones dim T dim U obtenida a partir de las anteriores como
(T )l j (U)mk . (186)
Esta matriz es la representación matricial de la aplicación lineal definida sobre el
espacio vectorial V1 ⊗ V2 por la aplicación F× , escrita en la base {|ej1 ⟩ ⊗ ek2 ⟩}, donde
{|ej1 ⟩} es una base de V1 y {|ek2 ⟩} lo es de V2 .

Ejercicio 3.1. Consideremos de nuevo las matrices de Pauli introducidas en el


Ejercicio ??,
     
0 1 0 −i 1 0
σ1 = σ2 = σ3 = . (187)
1 0 i 0 0 −1
El producto tensorial
 
    
0 1 0 1 0 0 0 1
0 ∗ 1 0 1∗
1 0  0 0 1 0
σ1 ⊗ σ1 =      =  
 0 1 0 1  0 1 0 0
1∗ 0∗
1 0 1 0 1 0 0 0
y
      
0 −i 0 −i 0 0 0 −i
0 ∗ i 0
1∗
i 0  0 0 i 0
σ1 ⊗ σ2 =   = 
 0 −i 0 −i  0 −i 0 0
1∗ 0∗
i 0 i 0 i 0 0 0
Determinar el resto de productos σj ⊗ σk para j, k = 1, . . . , 3.

3. Subespacios invariantes
Vamos a analizar el siguiente ejemplo de aplicación lineal para un espacio vectorial
V = R3 :
Ejemplo 3.1. Sea V = R3 y consideremos la transformación dada por la siguiente
matriz en la base canónica {ex , ey , ez }:
 
cos α sin α 0
R = − sin α cos α 0 . (188)
0 0 1
La aplicación transforma la posición de todos los puntos del espacio a excepción
del eje z. Sin embargo, podemos observar que las transformaciones tienen una peculia-
ridad: los puntos describen circunferencias alrededor del eje z, de forma que podemos
afirmar que cualquier plano perpendicular a ez se transforma en si mismo.
3. SUBESPACIOS INVARIANTES 83

Este ejemplo nos sirve pues para introducir un concepto muy importante en las
secciones siguientes:
Definición 3.3. Sea f : V → V un endomorfismo definido sobre un espacio
vectorial V . Diremos que un subespacio W ⊂ V es invariante bajo la aplicación f
si se verifica que la imagen de cualquier punto de W está contenida en él mismo, es
decir
f (w ) ∈ W ∀w ∈ W (189)
Es evidente que la identificación de subespacios invariantes asociados a un endo-
morfismo es de gran utilidad en la caracterización del mismo. Pero es también evidente
que no siempre pueden determinarse. Consideremos por ejemplo:

Ejemplo 3.2. Sea el endomorfismo f : C → C definido por la relación


f (z) = i z , (190)
donde i es la unidad imaginaria. Es sencillo verificar que esta aplicación no puede tener
ningún subespacio invariante excepto el origen.

Si consideramos una base del espacio vectorial V adaptada al subespacio W


{|ek ⟩}, y asumiendo por simplicidad que son los primeros n1 < n elementos los que
forman la base de W , es sencillo entender que

Lema 3.2. La expresión matricial correspondiente a la aplicación lineal será de la


forma:
 
a11 . . . a1n1 a1(n1 +1) . . . a1n
 .. .. .. .. .. 
 . ... . . . . 
 
 an1 1 . . . an1 n1 an1 (n1 +1) . . . a n1 n 
A= ,

 a (n1 +1)(n1 +1) . . . a(n1 +1n) 

.. ..
0
 
 . ... . 
an(n1 +1) ... ann
en una base adaptada al subespacio W ⊂ V donde dim W = n1 .

Demostración. Basta con calcular la acción de la aplicación lineal sobre los ele-
mentos de la base de V que son también una base para W . Si calculamos
f (|ej ⟩) 1 ≤ j ≤ n1
sabemos que la imagen tiene que pertenecer al subespacio W , y por consiguiente que
se debe poder escribir como una combinación lineal de los n1 primeros elementos. Es
por ello que la contribución de los siguientes elementos es nula, y de ahí el cero de la
matriz. Respecto a la imagen de los restantes elementos de la base, nada podemos
decir, y por consiguiente debemos asumir que puedo necesitar todos los elementos de
la base para escribir las imágenes. □

Ejercicio 3.2. Demostrar que la aplicación


F+ : V1 ⊕ V2 → V1 ⊕ V2
definida por la Ecuación (182) deja invariantes tanto el subespacio V1 × {0} como el
subespacio {0} × V2 .
84 3. PROPIEDADES DE ENDOMORFISMOS

Esta es una interesante propiedad general que buscaremos en las siguientes sec-
ciones. Podemos introducir ya, sin embargo, el concepto general que será desarrollado
en las próximas páginas:
Definición 3.4. Decimos que una aplicación lineal f : V → V es reducible si
existen dos subespacios W1 y W2 , invariantes bajo f , y tales que
V = W1 ⊕ W2 .
En esas circunstancias, respecto a una base adaptada a la descomposición en subes-
pacios, encontraremos que la matriz asociada a la aplicación f se escribirá:
 
a11 . . . a1n1
 .. ..
0 
 . ... . 
 
 an1 1 . . . an1 n1 
A=  
 a(n1 +1)(n1 +1) . . . a 
(n1 +1)n 
.. ..
0
 
 . ... . 
an(n1 +1) ... ann

4. Valores y vectores propios: espectro


El objetivo de esta sección es la definición del concepto de vector propio y del
correspondiente autovalor. Es este un concepto fundamental en varias disciplinas,
pero sobre todo en Mecánica Cuántica, donde los posibles resultados de una medida
corresponderán a uno de los autovalores que el operador que represente a la magnitud
física. Tras la medida, el sistema pasará a estar en un vector propio correspondiente
a este autovalor.
Definición 3.5. Sea f : V → V un endomorfismo. Diremos que |vk ⟩ ∈ V es un
vector propio o autoestado con valor propio (o autovalor) αk ∈ K si se cumple
que
f |vk ⟩ = αk |vk ⟩. (191)
Análogamente, podemos formular la condición respecto a una base de V y decir que
el vector representado por las componentes de |vk ⟩ en la base escogida es autoestado
de la matriz correspondiente al endomorfismo si se verifica que
   1  1
a11 . . . a1n vk vk
 .. ..   ..   .. 
 . ... .   .  = αk  .  ;
an1 ... ann vkn vkn
donde por supuesto asumimos que en la base escogida,
 1  
vk a11 . . . a1n
 ..   .. .. 
|vk ⟩ →  .  f → . ... . .
vkn an1 . . . ann
El conjunto de todos los autovalores de un endomorfismo dado se conoce con el
nombre de espectro del endomorfismo.
Una forma de caracterizar estos estados consiste en escribir de forma adecuada
la definición: si consideramos la diferencia de ambos lados, tenemos
f |vk ⟩ − αk |vk ⟩ = 0.
4. VALORES Y VECTORES PROPIOS: ESPECTRO 85

Sin embargo, observemos que esta propiedad no individualiza un estado único en


muchos casos:
Ejemplo 3.3. Consideremos un endomorfismo sobre C3 que en la base canónica
toma la forma:  
1 0 0
A = 0 3 0 . (192)
0 0 3
Es inmediato verificar que el elemento de la base canónica
 
0
|v2 ⟩ = 1
0
verifica la condición de ser un autoestado con autovalor 3. Efectivamente, si conside-
ramos el endomorfismo  
−2 0 0
A − 3I3 =  0 0 0
0 0 0
contiene, en su núcleo, al vector |v2 ⟩. Pero hay más vectores en ese conjunto, como
por ejemplo  
0
|v3 ⟩ = 0 ,
1
o cualquier combinación lineal de ambos.
Ejercicio 3.3. Para el ejemplo anterior, verificar que si |v ⟩ es un vector propio
con valor propio α, lo mismo ocurre con el vector λ|v ⟩ para λ ∈ K. Probar que esa
propiedad es cierta para cualquier vector propio de cualquier endomorfismo.
Vemos entonces que es posible que más de un vector del espacio vectorial sea un
valor propio de una aplicación con un valor propio dado. De hecho, la combinación de
ese resultado con el ejercicio anterior, lleva a la siguiente proposición:
Teorema 3.1. Sea V un espacio vectorial y f : V → V un endomorfismo. Sea
λ ∈ K un escalar y Vλ el conjunto de vectores de V que son vectores propios de f con
autovalor λ. Entonces Vλ tiene estructura de subespacio vectorial.
Demostración. El ejercicio anterior demuestra que la multiplicación por escalares
mantiene a un vector en el subconjunto de vectores propios, es decir
|v ⟩ ∈ Vλ ⇒ α|v ⟩ ∈ Vλ ∀α ∈ K
Partiendo de esta propiedad unicamente tenemos que probar que la suma de dos
autovectores de autovalor λ es de nuevo un autovector con el mismo autovalor. Pero
esto es una consecuencia inmediata de la linealidad del operador: efectivamente, si
|v1λ ⟩ y |v2λ ⟩ verifican:
f |v1λ ⟩ = λ|v1λ ⟩ f |v2λ ⟩ = λ|v2λ ⟩;
la suma de ambos cumple la misma propiedad:
f (|v1λ ⟩ + |v2λ ⟩)) = f |v1λ ⟩ + f |v2λ ⟩ = λ|v1λ ⟩ + λ|v2λ ⟩) = λ(|v1λ ⟩ + |v2λ ⟩))

86 3. PROPIEDADES DE ENDOMORFISMOS

Definición 3.6. Llamaremos multiplicidad del autovalor λ a la dimensión del


subespacio Vλ ⊂ V , que recibe el nombre de subespacio propio del autovalor λ.
Sin embargo, la propiedad anterior implica también que el conjunto de vectores
de Vλ , al ser transformados por la aplicación f , permanecen en el propio subespacio,
puesto que sabemos que son simplemente multiplicados por el escalar λ, y que este
hecho no saca a los elementos de un subespacio vectorial. Esto por tanto prueba que:
Lema 3.3. El subespacio propio Vλ es un subespacio invariante de f . En conse-
cuencia, la matriz en una base adaptada toma la forma:
 
λ ... 0 a1(n1 +1) . . . a1n
 .. . . . .. .. ..
. ..

 . . . . 
 
 0 ... λ a n1 (n1 +1) . . . a n1 n

A=  ,
 a(n1 +1)(n1 +1) . . . a (n1 +1n)


.. . . .
.
0
 
 . . . 
an(n1 +1) ... ann
¿Podemos decir algo sobre la relación entre sí de los vectores propios con auto-
valores diferentes? Vamos a ver que el hecho de corresponder a autovalores diferentes
de alguna manera permite clasificar de una manera particular los autovectores:
Teorema 3.2. Sea V un espacio vectorial y f : V → V un endomorfismo. Consi-
deremos un conjunto de autovectores
{|vλ1 ⟩, . . . |vλk ⟩}
cada uno correspondiendo a autovalores diferentes
λj ̸= λl ∀j, l.
Entonces, los autovectores son linealmente independientes.
Demostración. La prueba se hace por inducción sobre k. Consideremos enton-
ces el caso k = 1: este es trivial, pues evidentemente un autovector es linealmente
independiente.
Consideremos la combinación lineal
|w ⟩ = c1 |vλ1 ⟩ + c2 |vλ2 ⟩ + . . . + ck |vλk ⟩
Se trata de probar entonces que la única solución para la combinación anterior igua-
lada a cero es que todos los coeficientes cj sean nulos, asumiendo que los vectores
{|vλ1 ⟩, . . . |vλk−1 ⟩} sabemos que son linealmente independientes.
Para ello, consideremos la acción de f sobre |w ⟩:
f |w ⟩ = c1 λ1 |vλ1 ⟩ + c2 λ2 |vλ2 ⟩ + . . . + ck λk |vλk ⟩.
Consideremos también la combinación:
λk |w ⟩ = c1 λk |vλ1 ⟩ + c2 λk |vλ2 ⟩ + . . . + ck λk |vλk ⟩
Si calculamos la diferencia:
f |w ⟩ − λk |w ⟩ = c1 (λ1 − λk )|vλ1 ⟩ + c2 (λ2 − λk )|vλ2 ⟩ + . . . + ck (λk−1 − λk )|vλk−1 ⟩
Si imponemos que |w ⟩ = 0, encontramos:
c1 (λ1 − λk )|vλ1 ⟩ + c2 (λ2 − λk )|vλ2 ⟩ + . . . + ck (λk−1 − λk )|vλk−1 ⟩ = 0
5. VALORES PROPIOS DE ENDOMORFISMOS: EL POLINOMIO CARACTERÍSTICO 87

Pero sabemos que {|vλ1 ⟩, . . . |vλk−1 ⟩} son linealmente independientes, lo que implica
que, dado que por hipótesis λj ̸= λk para todo j, k, encontramos:
cj = 0 ∀j = 1, . . . , k − 1.
Pero esto implica que
|w ⟩ = ck |vλk ⟩ = 0 ⇒ ck = 0.
Esto completa la demostración: los k vectores son linealmente independientes. □

5. Valores propios de endomorfismos: el polinomio característico


Una vez hemos introducido el concepto anterior, nos queda por determinar los
valores propios y los vectores propios partiendo de un endomorfismo dado.
Comencemos considerando la siguiente pregunta: ¿cuándo podemos afirmar que
un cierto escalar λ ∈ K es un autovalor de un endomorfismo f : V → V ? La respuesta
obvia, aunque no práctica es decir: “un escalar es un autovalor de un endomorfismo
si somos capaces de encontrar un autovector que lo tenga como autovalor”. Lo que
buscamos ahora es una caracterización alternativa que permita un uso directo del
resultado.
Consideremos entonces un espacio vectorial de dimensión finita y un endomor-
fismo f : V → V . Para cualquier elemento λ ∈ K podemos considerar la aplicación
lineal f − λId y verificar:
Lema 3.4. Sea V un espacio vectorial de dimensión finita. Un estado |v ⟩ es un
autoestado del endomorfismo f : V → V con autovalor λ ∈ K si y solo si
|v ⟩ ∈ Ker (f − λId ). (193)
Demostración. Si |v ⟩ es un vector propio con autovalor λ,
f |v ⟩ = λ|v ⟩ ⇒ (f − λId )|v ⟩ = ⃗0 ⇒ |v ⟩ ∈ Ker (f − λId ).
Recíprocamente,
|v ⟩ ∈ Ker (f − λId ) ⇒ (f − λId )|v ⟩ = ⃗0 ⇒ f |v ⟩ = λ|v ⟩

De la misma forma podemos afirmar:


Lema 3.5. Si una matriz A ∈ Mn (K) tiene un autovalor λ ∈ K, la matriz A − λIn
no es invertible, o, equivalentemente,
det(A − λIn ) = 0 (194)
Demostración. La implicación directa es inmediata, y equivalente a la demostra-
ción anterior. La implicación inversa se prueba recordando que el teorema 1.5 asegura
que la no invertibilidad es equivalente a tener un núcleo no trivial, es decir, implica
que existe algún elemento |v ⟩ ∈ V tal que:
(A − λIn )|v ⟩ = ⃗0 ⇒ A|v ⟩ = λ|v ⟩.

Esto lleva por tanto a la siguiente definición:


88 3. PROPIEDADES DE ENDOMORFISMOS

Definición 3.7. Sea A ∈ Mn (K) una matriz cuadrada. Denominamos polinomio


característico de A al polinomio que se obtiene al desarrollar la expresión
PA (x) = det(A − xIn ). (195)
Y con ello podemos escribir las propiedades anteriores de una forma simple:
Corolario 3.1. Un escalar λ ∈ K es un autovalor de una matriz A ∈ Mn (K) (o
equivalentemente de un endomorfismo que tiene a A como representación matricial)
si y solo si λ es una raiz del polinomio mínimo de A, es decir, si
PA (λ) = det(A − λIn ) = 0
Hay sin embargo una propiedad muy importante que no hemos puesto todavía de
relevancia: parece haber cierta simetría cuando hablamos de los endomorfismos y las
matrices, pero nos falta por cerrar definitivamente el nexo:
Teorema 3.3. Sea V un espacio vectorial de dimensión finita, y f : V → V un en-
domorfismo. Sabemos por el Teorema 1.4 que si consideramos diferentes bases sobre
V , asociamos con f diferentes matrices conjugadas entre sí. Entonces, los autovalores
de todas ellas coinciden.
Demostración. Basta con emplear las propiedades de los determinantes. Si consi-
deramos dos bases {|vj ⟩} y {|wα ⟩} y las correspondientes representaciones matriciales
de f (T kj y
T βα
), sabemos que existe una matriz invertible C que cumple que:
U = C −1 T C.
Si calculamos ahora el polinomio característico de U, encontramos que

PU (λ) =det(U − λIn ) = det(C −1 T C − λC −1 C) = det[C −1 (T − λIn )C] =


det(T − λIn ) = PT (λ)
Con esto hemos probado que para dos matrices que están conjugadas entre sí, los
polinomios característicos coinciden. Pero esto supone que lo hacen también todas
sus raíces. Esto completa la prueba. □

Con ello concluímos que los autovalores son una propiedad del endomorfismo,
algo que no depende de la base en la que escojamos escribirlo. Desde el punto de
vista de la Física, esta es una propiedad muy importante, dado que implica que es un
valor al que se le puede dar significado físico. Así, en Mecánica Cuántica, asociaremos
los posibles autovalores de un endomorfismo con los valores experimentales que se
pueden obtener al medir la magnitud física representada por el endomorfismo, como
la energía, el momento lineal, la posición, etc.
Falta por analizar un aspecto importante como es el del número de autovalores.
Esto es, consideremos un espacio vectorial V de dimensión n ∈ N y un endomorfismo
f : V → V . ¿Cuántos autovalores puede tener f ?
Lema 3.6. Sea V un espacio vectorial complejo. El endomorfismo f : V → V
tiene n autovalores, contando la multiplicidad.
6. PROYECTORES 89

Demostración. Sabemos que los autovalores son raíces del polinomio caracterís-
tico, que es un polinomio de grado n = dim V . Dado que es un polinomio sobre los
números complejos, y es éste un cuerpo algebraicamente cerrado, por el Teorema 1.1
sabemos que debe tener n raíces, aunque no todas tengan que ser diferentes.

6. Proyectores
En esta sección vamos a considerar un tipo particular de endomorfismo que, aparte
de su interés intrínseco por caracterizar propiedades de gran relevancia en Física, nos
van a resultar fundamentales a la hora de caracterizar a las aplicaciones lineales.

6.1. Definición. La idea del concepto de proyector es simple si pensamos en


términos geométricos:



Figura 5. Proyección de un vector v ∈ R3 definiendo el vector w ∈ R2 .

Podemos mirar a la proyección desde dos puntos de vista, una desde el punto de
vista de los vectores en los que se descompone uno dado, y otro desde el punto de
vista de la aplicación que define la descomposición. Tenemos así:
Definición 3.8. Sea V un espacio vectorial y sea P : V → V un endomorfismo.
Decimos que P es una proyección si se verifica que
P2 = P (196)
90 3. PROPIEDADES DE ENDOMORFISMOS

Si ahora pensamos en los elementos del espacio vectorial total (R3 en el gráfico
anterior) y el proyectado (el plano XY en el caso anterior), podemos caracterizarlo
de una forma análoga:
Definición 3.9. Sea un espacio vectorial V que escribimos como suma directa de
dos subespacios
V = V1 ⊕ V2 .
Denominamos proyección de V sobre V1 a lo largo de V2 a la aplicación que a todo
elemento
v ∈ V → v = (v1 , v2 ) v1 ∈ V1 v2 ∈ V2 ;
le asigna el valor de la primera componente:
P (v1 , v2 ) = v1 ∈ V1 .
Es sencillo probar la equivalencia de las dos definiciones:
Lema 3.7. Sea V un espacio vectorial. Dado un endormorfismo P : V → V que
verifique
P 2 = P,
V puede descomponerse en la suma directa de dos subespacios, y P es la proyección
de uno de ellos a lo largo del otro.
Demostración. Consideremos los posibles valores propios del operador P : es sen-
cillo verificar que sólo pueden ser igual a cero o a uno, porque si |v ⟩ es un vector
propio de valor propio λ obtendremos:
(
2 P (λ|v ⟩) = λ2 |v ⟩
P |v ⟩ =
λ|v ⟩
Concluímos entonces que
(
2 1
λ = λ ⇒ λ(λ − 1) = 0 ⇒ λ =
0
Veamos ahora que siempre podemos descomponer un vector en suma de uno que tiene
autovalor uno y otro que tiene autovalor cero. Si consideramos un elemento |w ⟩ ∈ V ,
siempre podemos escribir
|w ⟩ = P |w ⟩ + (Id − P )|w ⟩ = |w1 ⟩ + |w2 ⟩,
con |w1 ⟩ = P |w ⟩ y |w2 ⟩ = (Id − P )|w ⟩, siendo esta descomposición única para cada
elemento.
Evidentemente, se cumple que
P |w1 ⟩ = |w1 ⟩ P |w2 ⟩ = 0.
Por consiguiente, hemos identificado un autovector con autovalor uno, y otro con
autovalor cero. Si eso lo hacemos considerando todos los posibles estados del espacio
V , es evidente que:
V = P (V ) + (Id − P )(V ) ⇒ V1 = P (V ) V2 = (Id − P )(V )

Análogamente, se puede demostrar el otro sentido de la equivalencia:
7. POLINOMIO MÍNIMO DE UN ENDOMORFISMO 91

Lema 3.8. Consideremos un espacio vectorial, una descomposición en suma di-


recta V = V1 ⊕ V2 y una proyección sobre uno de los factores a lo largo del otro.
Entonces, podemos construir un proyector P : V → V tal que P 2 = P .
Demostración. Basta con definir
P : V → V1 P (v1 , v2 ) = v1 .

Pero esto equivale también a afirmar:
Lema 3.9. Sea un espacio vectorial V . Un endomorfismo P : V → V es un
proyector si y sólo si Id − P también lo es.
Demostración. Se deja como ejercicio. □

7. Polinomio mínimo de un endomorfismo


7.1. La estructura de producto. Vimos ya en el capítulo anterior cómo en
el conjunto de endomorfismos podíamos definir una aplicación de composición, que
denotamos por el símbolo ◦. Vimos también cómo esta operación se traduce, una
vez escogemos una base sobre el espacio vectorial, en el producto de las matrices
asociadas a cada uno de los factores. Y recordemos que el producto de matrices
(o equivalentemente la composición de endomorfismos) es una operación interna, es
decir, el producto de dos matrices es de nuevo una matriz. Por consiguiente, debería
de poder escribirse como una combinación lineal de cualquier base de ese espacio
vectorial. Esto es, si T es una matriz y tiene una descomposición en una base, también
la tendrá la matriz T 2 = T.T . Y la matriz T 3 = T.T 2 = T.T.T .
Ejemplo 3.4. Consideremos la matriz
 
0 1 3i
T = 0 0 1.
0 0 0
Respecto a la base canónica de M3 (C) la descomposición de T es:
T = E12 + E23 + 3i E13 .
Si consideramos el producto de la matriz por sí misma obtenemos
 
0 0 1
T 2 = 0 0 0 .
0 0 0
De nuevo esta matriz tiene una descomposición en función de la base canónica:
T 2 = E13 .
Si consideramos la siguiente potencia, vemos que:
 
0 0 0
T 3 = 0 0 0 ,
0 0 0
que evidentemente corresponde al vector nulo.
92 3. PROPIEDADES DE ENDOMORFISMOS

Ejemplo 3.5. Consideremos otro caso sencillo. Sea la matriz


 
2 0 0
A = 0 3 0 = 2E11 + 3E22 + E33 .
0 0 1
Si consideramos su cuadrado:
 
4 0 0
A2 = 0 9 0 = 4E11 + 9E22 + E33 .
0 0 1
Finalmente la tercera y la cuarta potencias:
   
8 0 0 16 0 0
3 4
A = 0 27 0
  A = 0 81
 0
0 0 1 0 0 1
Es evidente que cualquier potencia va a pertenecer al subespacio de las matrices
diagonales, es decir, de aquellas obtenidas como combinación lineal de las matrices
E11 , E22 y E33 . Por consiguiente, son elementos de un subespacio vectorial de dimen-
sión 3.
Ejercicio 3.4. ¿Qué dimensión tiene el subespacio al que pertenecen las potencias
de la matriz T del Ejemplo 3.4?
7.2. Polinomio mínimo. Hemos visto ya cómo podemos definir diferentes ele-
mentos del espacio vectorial Mn (K) empleando potencias de una matriz dada. Equi-
valentemente podemos pensar la misma propiedad respecto al espacio vectorial de
endomorfismos. Sin embargo, dado que sabemos que se trata de un espacio vectorial
de dimensión finita, es evidente que tras un número suficiente de potencias, debemos
encontrar alguna potencia que sea combinación lineal de las anteriores. Así ocurre,
por ejemplo, en el caso del Ejemplo 3.5, donde es evidente que
A4 = 6A − 11A2 + 6A3 .
En un caso arbitrario siempre existe una potencia N ≤ n2 + 1 (menor o igual
que la dimensión del espacio Mn (K) más uno), que satisface que existen escalares
{α0 , α1 , . . . , αN−1 }, no todos ellos nulos, tales que se cumple que
AN = α0 + α1 A + α2 A2 + . . . + αN−1 AN−1
Por consiguiente, podemos afirmar que el polinomio
p(x) = x N − αN−1 x N−1 − . . . − α1 x − α0
tiene la propiedad de ser anulado por la matriz A, es decir
p(A) = 0.
Evidentemente, cualquier polinomio obtenido a partir de p(x) multiplicando por
otro factor, es decir, algo como
q(x) = p(x)(x − λ), λ∈K
cumple también que q(A) = 0.
7. POLINOMIO MÍNIMO DE UN ENDOMORFISMO 93

Definición 3.10. Denominaremos polinomio mínimo de la matriz A a aquel


polinomio que anule A y que satisfaga:
no hay ningún polinomio de menor grado que sea también anulado por A,
y el coeficiente de mayor grado tiene que tener coeficiente igual a uno (esto
se suele denominar como polinomio mónico).
Usaremos como notación mA (x) para representarlo.
Lema 3.10. El polinomio mínimo de una matriz siempre existe y es único.
Demostración. La existencia está demostrada más arriba por el hecho de que el
conjunto de matrices es de dimensión finita. Debe, por tanto, existir una potencia de la
matriz que es combinación lineal de las anteriores. Si existe un conjunto de polinomios
que anula a la matriz, es evidente que habrá uno que tenga grado mínimo. El hecho
de ser mónico puede conseguirse inmediatamente dividiendo todo el polinomio por el
coeficiente del monomio de mayor grado.
La unicidad puede demostrarse sencillamente, por reducción al absurdo. Suponga-
mos que existieran dos polinomios mínimos p1 (x) y p2 (x). Por ser mínimos, deberían
ser mónicos, y por tanto en ambos casos el término de mayor grado tendría coeficiente
igual a uno. Pero entonces, el polinomio
p1 (x) − p2 (x)
es un polinomio que es anulado por la matriz A (es trivial dado que p1 (A) − p2 (A)
es evidentemente igual a cero) y que tiene un grado menor que ambos, dado que
el término de mayor grado es anulado en la diferencia. Pero entonces, satisfaría las
condiciones del polinomio mínimo con un grado menor, lo que contradice la hipótesis
de que p1 y p2 son mínimos. □

Dos son las propiedades que vamos a estudiar del polinomio mínimo:
Lema 3.11. Un polinomio p(x) se anula sobre una matriz A, si y solo si el poli-
nomio mínimo de mA (x) divide a p(x).
Demostración. La implicación recíproca es trivial: si el polinomio p(x) se puede
escribir como el producto
p(x) = mA (x)q(x),
donde q(x) es también un polinomio, es trivial verificar que p(A) = 0.
La implicación directa necesita del uso del algoritmo de la división, aplicado a la
división de polinomios. Sabemos que dado un polinomio p(x) y un polinomio mA (x)
de grado menor, siempre podemos encontrar una pareja de polinomios, a los que
denominamos cociente q(x) y resto r (x) que satisfacen
p(x) = q(x)mA (x) + r (x),
donde el grado de r (x) es menor que el de mA (x). Dado que suponemos que p(x) se
anula sobre A tenemos que
p(A) = 0 ⇒ r (A) = 0.
Por tanto, el polinomio r (x), de grado menor que el del polinomio mínimo, se anula
sobre A. Pero esto va contra la hipótesis de que mA (x) es el de grado mínimo que
94 3. PROPIEDADES DE ENDOMORFISMOS

satisface esa propiedad. La única alternativa es suponer que r (x) = 0 para todo x y
que por tanto existe q(x) tal que
p(x) = q(x)mA (x).

Finalmente, vamos a comentar una propiedad muy sencilla pero importante. Aun-
que hemos introducido el polinomio mínimo como una propiedad de una matriz A, es
sencillo darse cuenta de que, en realidad, es también una propiedad característica del
endomorfismo que la matriz representa. Esto puede probarse de forma sencilla:
Lema 3.12. Sea A una matriz que representa un endomorfismo f : V → V en
una cierta base. Entonces, cualquier matriz conjugada de A es también raíz de mA (x).
Demostración. Basta darse cuenta de que, si consideramos una matriz B conju-
gada de A, por una cierta matriz S, es decir
B = SAS −1 ,
las potencias de B están también conjugadas con las potencias de A, es decir

k
z }| {
B k = (SAS −1 ) . . . (SAS −1 ) = SAk S −1 .
En consecuencia, el polinomio mínimo evaluado en B satisface:
mA (B) = SmA (A)S −1 = 0.

La conclusión que obtenemos por tanto es que el polinomio mínimo es una pro-
piedad del endomorfismo f y no de la matriz que lo representa.

7.3. El teorema de Cayley-Hamilton. Así como es sencillo determinar el poli-


nomio característico de un endomorfismo, dado que basta con desarrollar la expresión
del determinante, no parece tan simple determinar su polinomio mínimo.
Para suplir estas carencias, en esta sección vamos a probar un resultado clásico,
que prueba que el polinomio mínimo se va a poder escribir a partir del característico
de una forma sencilla.
Teorema 3.4 (Cayley-Hamilton). Sea f : V → V un endomorfismo sobre un
espacio vectorial V . Sea
Pf (x) = x n + αn−1 x n−1 + . . . + α1 x + α0
el polinomio característico del endomorfismo y consideremos el polinomio idéntico
definido sobre el espacio de endomorfismos, es decir:
Pf (f ) = f n + αn−1 f n−1 + . . . + α1 f + α0 .
Entonces,
Pf (f ) = 0.

Demostración. Consideremos el endomorfismo


fλ = f − λid
7. POLINOMIO MÍNIMO DE UN ENDOMORFISMO 95

y su representación matricial en una base cualquiera, Afλ . Sabemos, que el polinomio


característico de f , se obtiene como el determinante de Afλ . Pero por definición, éste
puede escribirse como
PA (λ)I = det Afλ I = Afλ adjAfλ
Consideremos ahora la matriz adjAfλ . Considerados como polinomios en λ, sus
entradas son polinomios de grado n − 1 como máximo. Por tanto, podemos escribir
que
n−1
X
adjAfλ = λk Bk ,
k=0

donde Bk son matrices n × n que no dependen de λ.


Si ahora consideramos el producto:
n−1
X n−1
X n−1
X
Afλ adjAfλ = Afλ λk Bk = (A−λI) λk Bk = −(λn Bn−1 + λk (Bk−1 −ABk )−AB0 )
k=0 k=0 k=1

Tenemos entonces una igualdad de polinomios matriciales en λ:


n−1
X
n
PA (λ)I = −(λ Bn−1 + λk (Bk−1 − ABk ) − AB0 )
k=1

Escribiendo
n
X
PA (λ) = λk αk ,
k=0
encontramos 
αn I = −Bn−1

..


.



αj I = ABj − Bj−1
...







α I = AB
0 0

Si multiplicamos cada igualdad anterior por Aj y sumamos, encontramos:


n
X
αk Ak = −An Bn−1 − (An−1 Bn−1 − An Bn−1 ) + · · · = 0 = PA (A)
k=0

Esto prueba el resultado. □

El resultado implica que, por el Lema 3.11, el polinomio mínimo divide al polino-
mio característico. Por tanto, sabemos que se puede escribir como un producto de
monomios de la forma:

(x − λ1 )(x − λ2 )(x − λ1 ) . . . = (x − λ1 )s1 · · · (x − λr )sr

donde λj son los autovalores de f , y estamos asumiendo que K = C. En el resto del


capítulo mantendremos esta hipótesis para el cuerpo K a no ser que lo explicitemos.
96 3. PROPIEDADES DE ENDOMORFISMOS

8. Endomorfismos diagonalizables
Este va a ser uno de los conceptos fundamentales de todos nuestros análisis.
Desde el punto de vista físico la diagonalizabilidad de un operador va a ser una de
las características que van a identificar a los operadores que representen magnitudes
físicas, puesto que la Mecánica Cuántica afirma que en el proceso de medida de
una magnitud (pensemos por ejemplo en la energía, o el momento lineal) durante
un experimento, sólo podremos obtener como resultado uno de los autovalores del
operador que lo representa. Por tanto el estudio de los conjuntos de autovalores y
autovectores de los mismos es fundamental.
Hasta ahora hemos introducido el concepto de autovector y autovalor individual-
mente, es decir, hemos afirmado que tal vector era vector propio y que tenía tal
autovalor. El concepto de diagonalizabilidad es característico de todo el endomorfis-
mo, y se refiere a aquellos casos en los que podemos identificar una base completa de
vectores propios de un endomorfismo dado que permite escribir la matriz correspon-
diente de forma diagonal:
Definición 3.11. Sea F : V → V un endomorfismo definido sobre un espacio
vectorial V . Diremos que el endomorfismo es diagonalizable si existe una base en la
que la expresión de la matriz correspondiente es diagonal, es decir
 
λ1 . . . 0
. .
A =  .. . . . ..  (197)
0 ... λr
(con r ≤ n). Evidentemente los elementos de la base son vectores propios de f y
tienen como valor propio el correspondiente a la entrada de la diagonal de la matriz.
¿Cuándo vamos a poder garantizar que un endomorfismo admita una base de este
tipo? Esta es la pregunta que vamos a intentar responder en lo que sigue.
Vamos a comenzar identificando condiciones para relacionar la existencia de au-
tovalores y el polinomio mínimos. Veremos a lo largo de esta sección que es la mayor
fuente de información a este respecto:
Lema 3.13. Sea f : V → V un endormofismo. Un número λ ∈ K es un autovalor
de f si y solo si λ anula (es una raíz d)el polinomio mínimo de f , es decir
mf (λ) = 0
Demostración. Consideremos un λ ∈ K que es raíz del polinomio mínimo. Eso
supone que existe un polinomio p(x) que cumple que
mf (x) = (x − λId )p(x).
Evidentemente p(x) tiene un grado menos que mA , por lo que sabemos que f no puede
ser también raíz de p(x). Esto supone que, considerando que mf (f ) es la aplicación
identicamente nula, tenemos:
mf (f )|v ⟩ = 0 ∀|v ⟩ ∈ V ⇒ (f − λId )p(f )v ⟩ = 0∀|v ⟩ ∈ V.
Pero p(f ) no puede ser la aplicación nula, porque tiene menos grado que el polinomio
mínimo, por lo que concluímos que
p(f )|v ⟩ = |w ⟩ ∈ V ;
8. ENDOMORFISMOS DIAGONALIZABLES 97

y este vector |w ⟩ cumple que


f |w ⟩ − λ|w ⟩ = 0 ⇒ f |w ⟩ = λ|w ⟩.
Por consiguiente, existe un autovector que tiene a λ como autovalor.
Recíprocamente, consideremos que λ es un autovalor de f , y por tanto que existe
un vector |v ⟩ ∈ V que cumple que
f |v ⟩ = λ|v ⟩.
Vamos a probar que λ va a anular el polinomio mínimo. Sabemos que mf (f ) es la
aplicación nula, y por consiguiente que
mf (f )|v ⟩ = 0.
Pero es evidente que
mf (f )|v ⟩ = mf (λ)|v ⟩ ⇒ mf (λ) = 0.

Vamos a ver, que esta propiedad nos va a permitir caracterizar el hecho de que
un endomorfismo sea diagonalizable:
Lema 3.14. Sea f : V → V un endomorfismo. Si f es diagonalizable, con
{λ1 , . . . , λr } los autovalores, y λi ̸= λj por i ̸= j, entonces el polinomio mínimo
es:
mf (x) = (x − λ1 ) . . . (x − λr )
Demostración. Siendo f diagonalizable, existe una base de autovectores: {|vj ⟩}.
Consideremos la transformación:
p(f ) = (f − λ1 Id )(f − λ2 Id ) . . . (f − λr Id ).
En la base de autovectores, es evidente que
p(f )|vj ⟩ = 0 ∀j
Por tanto, la transformación es la transformación nula y en consecuencia, sabemos
que el polinomio p(x) debe de ser dividido por el polinomio mínimo. Pero dado que
el polinomio p(x) es un producto de monomios de grado uno, también debe de serlo
el polinomio mínimo. Por otro lado, si quitamos uno de los r factores de p(x), el
polinomio resultante no será idénticamente nulo sobre los autovectores relativos al
termino quitado, así que debe ser p(x) = mf (x). □
Y podemos probar también la afirmación recíproca:
Lema 3.15. Sea f : V → V un endomorfismo. Si su polinomio mínimo es de la
forma
mf (x) = (x − λ1 ) . . . (x − λr ) λj ̸= λk j ̸= k;
entonces f es diagonalizable.
Demostración. Sabemos por el Teorema 3.2 que los autovectores de un endo-
morfismo correspondientes a autovalores diferentes forman un conjunto de vectores
{|vj ⟩} linealmente independientes. Por consiguiente, si un vector se puede escribir co-
mo combinación lineal de ellos, la descomposición es necesariamente única. Tenemos
98 3. PROPIEDADES DE ENDOMORFISMOS

que probar que este conjunto de vectores {|vj ⟩} definen una base para todo el espacio
vectorial.
Para ello, consideremos el siguiente polinomio:
r
Y x − λi
pj (x) = .
λj − λi
i̸=j

Por construcción es un polinomio que tiene como raíces a todos los elementos {λi }
excepto a λj , es decir
pj (λi ) = 0 ∀i ̸= j.

Además, sobre el valor λj es igual a uno:

pj (λj ) = 1

Si consideramos entonces el polinomio:


X
pj (x) − 1,
j

tenemos pues un polinomio de grado r − 1, que tiene r raíces diferentes. Esto solo
puede ocurrir si el polinomio es identicamente nulo.
Consideremos ahora la extensión a los endomorfismos:
r
Y f − λi Id
pj (f ) = ,
λj − λi
i̸=j

y consideremos la suma:
X X Y f − λi Id
p(f ) = pj (f ) = .
λj − λi
j j i̸=j

El polinomio p(f ) debe ser el endomorfismo identidad, y por tanto, para todo elemento
|v ⟩ ∈ V , se debe cumplir que
X X
p(f )|v ⟩ = |v ⟩ = pj (f )|v ⟩ := |vj ⟩.
j j

Hemos descompuesto entonces todo vector |v ⟩ ∈ V como combinación lineal de estos


vectores |vj ⟩ que cumplen que:
Y f − λi Id mf (f )
(f − λj Id )|vj ⟩ = (f − λj Id ) |v ⟩ = Q |v ⟩.
λj − λi i̸=j (λj − λi )
i̸=j

Pero sabemos que mf (f ) se anula, y por tanto que cada uno de los vectores |vj ⟩
son autovectores con autovalor λj . Por tanto, hemos conseguido escribir un vector
arbitrario del espacio vectorial como una combinación lineal de autovectores. Esto
completa la prueba.

9. FORMA DE JORDAN DE UN ENDOMORFISMO 99

9. Forma de Jordan de un endomorfismo


Hemos visto como, cuando el polinomio mínimo de un endomorfismo se puede
escribir como un producto de monomios de grado uno todos ellos diferentes, el endo-
morfismo es diagonalizable. Sin embargo, ¿qué podemos decir cuando esa propiedad
no se satisface?
Vamos a ver que podemos llegar a encontrar una base en la que la matriz asociada
al endomorfismo tendrá una expresión que, si bien no es tan simple como el caso
diagonal, va a permitir también una gran versatilidad desde el punto de vista de las
aplicaciones.
Definición 3.12. Sea f : V → V un endomorfismo. Entonces, el polinomio míni-
mo de f se escribirá como:
mA (x) = (x − λ1 )s1 . . . (x − λr )sr , (198)
donde {λi } son los autovalores de f que son diferentes, es decir λj ̸= λk para todo par
j ̸= k. Denominaremos espacios propios generalizados a los subespacios vectoriales
que forman el núcleo de cada factor, es decir:
Vj = ker[(f − λj Id )]sj (199)
Es con estos subespacios propios generalizados con los que vamos a construir la
base que nos interesa. Escogeremos una base para cada uno de ellos y veremos cómo el
espacio vectorial se descompone en suma directa de estos subespacios generalizados.
Hay que señalar que cuando los exponentes sj son todos iguales a uno, el endo-
morfismo será diagonalizable, y la expresión de la matriz será por tanto diagonal.
El resultado de Jordan se reduce a determinar:
que la suma directa de los subespacios Vj es igual a todo V
y que existe una base en casa subespacio para la que, sin ser completamente
diagonal, la matriz que representa el endomorfismo es muy sencilla.
Para ello, dado que hemos conseguido codificar la información que manejamos
en el polinomio, necesitamos probar un resultado accesorio con el que proseguir el
estudio:

Lema 3.16 (Identidad de Bézout para polinomios). Sean dos polinomios p(x) y
q(x) que no tienen raíces comunes. Entonces, existen dos polinomios t(x) y s(x) que
satisfacen
s(x)p(x) + t(x)q(x) = 1.

Demostración. Vamos a justificar la prueba sin entrar en todos los detalles. Se


trata de una generalización de la identidad similar para números reales. Inicialmente,
se propuso para calcular el máximo común divisor de dos números, justificándolo de la
siguiente forma: sea D(x) el máximo común divisor de ambos polinomios (o números,
en la construcción original). Entonces, si ambos polinomios son múltiplos de D(x),
existirá una combinación lineal de ellos que sea igual a D(x). Dado que asumimos
que los dos polinomios no tienen raíces comunes, el máximo común divisor debe ser
uno. □

Ejercicio 3.5. Dar una demostración completa y rigurosa del lema anterior.
100 3. PROPIEDADES DE ENDOMORFISMOS

Consideremos ahora el polinomio mínimo, mf (x) y la descomposición que vimos


más arriba. Tomemos el primer factor, y escribamos:
mf (x) = (x − λ1 )s1 q(x);
donde, evidentemente,
q(x) = (x − λ2 )s1 . . . (x − λr )sr .
Pretendemos probar que, de acuerdo a esa descomposición, podemos descomponer el
espacio en suma directa de dos subespacios:
V1 = ker(f − λ1 Id )s1 ;
y un cierto complementario W1 , que verificará
V = V1 ⊕ W1 ,
por lo que
W1 = ker q(f ).
Veámos cómo.
Lema 3.17. Sea un endomorfismo f : V → V con un polinomio mínimo en la
forma
mf (x) = (x − λ1 )s1 . . . (x − λr )sr .
Entonces, si
V1 = ker(f − λ1 I)s1 ;
y
W1 = ker(f − λ1 I)s2 . . . (f − λr I)sr ;
el espacio vectorial se descompone en suma directa
V = V1 ⊕ W1 .
Demostración. Sea q(x) = (x − λ2 )s1 . . . (x − λr )sr .. Por el Lema 3.16 sabemos
que al no tener (x − λ1 ) y q(x) raíces en común, existirán dos polinomios s(x) y t(x)
que cumplen que:
s(x)(x − λ1 )s1 + t(x)q(x) = 1.
Si ahora extendemos los polinomios al espacio vectorial de endomorfismos, podemos
considerar:
[s(f )(f − λ1 In )s1 + t(f )q(f )] |v ⟩ = |v ⟩ ∀|v ⟩ ∈ V.
Escribimos entonces:

|v ⟩ = [s(f )(f − λ1 In )s1 ] |v ⟩ + [t(f )q(f )] |v ⟩ = |w1 ⟩ + |v1 ⟩.


Esta descomposición es de la forma que buscamos, porque
q(f )|w1 ⟩ = q(f ) [s(f )(f − λ1 In )s1 ] = s(f )mf (f ) = 0 ⇒ |w1 ⟩ ∈ W1 ,
|w1 ⟩ pertenece al núcleo de q(f ), y
(f − λ1 In )s1 |v1 ⟩ = (f − λ1 In )s1 [t(f )q(f )] = t(f )mf (f ) = 0 ⇒ |v1 ⟩ ∈ V1 .
|v1 ⟩ está en el núcleo de (f − λ1 In )s1 . Siendo que esta descomposición vale por cual-
quier vector |v ⟩ de V , hemos logrado escribir V = V1 + W1 . Queda por demonstrar
que la suma es directa, es decir, que el conjunto de elementos que pertenecen a la
intersección de V1 y W1 se reduce al vector ⃗0.
9. FORMA DE JORDAN DE UN ENDOMORFISMO 101

Pero que la intersección es nula es evidente, porque si un cierto vector pertenece


a la intersección de los dos subespacios es anulado por el polinomio completo. Se
puede escribir, como hemos demostrado, como una suma:

|w ⟩ ∈ V1 ∩ W1 ⇒ |w ⟩ = |w1 ⟩ + |v1 ⟩ |v1 ⟩ ∈ V1 |w1 ⟩ ∈ W1

Pero como |w ⟩ tiene que estar en el núcleo de (f − λ1 )s1 y de q(f ), se cumple


que:
(
q(f )|w ⟩ = 0 → t(f )q(f )|w ⟩ = |v1 ⟩ = 0
⇒ |v1 ⟩ = |w1 ⟩ = 0.
(f − λ1 In )s1 |w ⟩ = 0 → [s(f )(f − λ1 In )s1 ] |w ⟩ = |w1 ⟩ = 0

Por consiguiente, la intersección es nula, y la suma V = V1 ⊕ W1 es directa. □

Evidentemente, extendiendo el resultado al resto de factores, probamos trivial-


mente:
Teorema 3.5. Sea un endomorfismo f : V → V con un polinomio mínimo en la
forma
mf (x) = (x − λ1 )s1 . . . (x − λr )sr .
Entonces
V = V1 ⊕ . . . ⊕ Vr ,
donde
Vj = ker(f − λj I)sj .
Vemos pues que, a diferencia de lo que pasa con los subespacios propios, la suma de
los subespacios propios generalizados no solo es directa, sino que también coincide con
todo el espacio V . En consecuencia, será posible encontrar una base de V construida
por unión de las bases de cada subespacio proprio generalizado.
Además, es fácil probar que los subespacios propios generalizados son invariantes
para el endomorfismo f :

Lema 3.18. Si |v j ⟩ ∈ Vj , entonces también f (|v j ⟩) ∈ Vj

Demostración. Para un vector |v j ⟩ ∈ Vj = ker(f −λj I)sj , se cumple (f −λj I)sj |v j ⟩ =


0. Nos preguntamos pues si también f (|v j ⟩) ∈ ker(f − λj I)sj : tenemos

(f − λj I)sj · f (|v j ⟩) = f · (f − λj I)sj (|v j ⟩) = 0

donde hemos utilizado el hecho que f conmuta con todas sus potencias y con la
identidad. □

De lo que hemos aprendido hasta el momento, sabemos también que si escogemos


una base para cada subespacio:

{|vαj ⟩}α=1,...,nj =dimVj ;

y consideramos una base para todo V uniendo las anteriores, por ser Vj invariantes
sabemos que la expresión matricial del endomorfismo en esta base será diagonal por
102 3. PROPIEDADES DE ENDOMORFISMOS

cajas, es decir, en la forma:


1 1
a11 ... a1n
 
1
.. ..

 . ... . 0 ... 0 

 

 an11 1 ... an11 n1 

2 2

 a11 ... a1n 2


 .. .. 
 0 . ... . ... 0 
A=
 
an22 1 ... an22 n2

 
..
 
 
 0 0 . 0 
r r
 

 a11 ... a1n r


 .. .. 
 0 0 ... . ... . 
anr r 1 ... anr r nr
Se trata de determinar entonces una base adecuada para que la forma sea lo más
sencilla posible. Vamos pues a determinar la base que nos interesa en cada subespacio.
Al ser todos equivalentes, vamos a considerar solamente uno de ellos.
Tomemos pues el subespacio Vj = ker(f − λj I)sj . Por simplicidad de notación,
dejamos caer el índice j de la sj , y llamamos sencillamente s la multiplicidad. Es sencillo
verificar que:
Lema 3.19. ker(f − λj I)sj −1 ⊂ ker(f − λj I)sj
Demostración. Es inmediato:
|v ⟩ ∈ ker(f − λj I)sj −1 ⇒ (f − λj I)sj |v ⟩ = (f − λj I)(f − λj I)sj −1 |v ⟩ = 0

Sabemos entonces, que para cada valor de la potencia aumentamos el subespacio
que consideramos. Vamos a empezar con la primera potencia: consideremos una base
para el subespacio:
Vj 1 = {|v ⟩ ∈ V | (f − λj I)|v ⟩ = 0}.
Vamos a denotar a los elementos de la base como {|v11 ⟩, . . . |vm1 1 ⟩}.
Ahora, para considerar una base del subespacio
Vj 2 = {|v ⟩ ∈ V | (f − λj I)2 |v ⟩ = 0},
podemos considerar la anterior, pero debemos completarla con {|v12 ⟩, . . . |vm2 2 ⟩} para
cubrir la parte del subespacio Vj 2 que no está contenida en Vj 1 . Ambas juntas forman
un conjunto
{|v11 ⟩, . . . |vm1 1 ⟩, |v12 ⟩, . . . , |vm2 2 ⟩}
Si repetimos el proceso, vamos a determinar una base:
{|v11 ⟩, . . . |vm1 1 ⟩, |v12 ⟩, . . . , |vm2 2 ⟩, . . . |v1s ⟩, . . . |vms s ⟩}
Tomemos ahora los últimos elementos,
Ps = {|v1s ⟩, . . . |vms s ⟩}
que pertenecen al núcleo de (f − λj I)s pero no al de (f − λj I)s−1 : Esos van a ser los
primeros vectores que seleccionemos para la base completa.
Pasemos ahora al siguiente nivel. Si consideramos la imagen
{(f − λj I)|v1s ⟩, . . . (f − λj I)|vms s ⟩};
9. FORMA DE JORDAN DE UN ENDOMORFISMO 103

es sencillo probar que estos elementos pertenecen al núcleo de (f − λj I)s−1 , dado que:

(f − λj I)s−1 (f − λj I)|vks ⟩ = (f − λj I)s |vks ⟩ = 0.

Sin embargo, hay que destacar que estos vectores no pertenecen a Vj s−2 = ker((f −
λj I)s−2 ): de lo contrario, tendríamos

(f − λj I)s−2 (f − λj I)|vks ⟩ = (f − λj I)s−1 |vks ⟩ = 0,

lo que implicaría que |vks ⟩ ∈ Vj s−1 , contra la hipótesis. Evidentemente, hay tantos
de estos vectores como los había en Ps , y van a ser linealmente independientes.
Efectivamente, es sencillo demostrar que lo contrario es absurdo: asumamos que existe
una cierta combinación lineal que permite escribir uno de ellos como combinación lineal
de los demás:

|(f − λj I)v1s ⟩ = α2 (f − λj I)|v2s ⟩ + · · · + αms (f − λj I)||vm2 s ⟩.

Es inmediato ver que, al ser f − λj I una aplicación lineal, podríamos escribir que

(f − λj I) |v1s ⟩ − α2 |v2s ⟩ − · · · − αms |vms s ⟩ = 0.




Pero esto es absurdo, porque implicaría que una combinación lineal de los elementos
{|v1s ⟩, · · · |vms s ⟩} es un vector propio, es decir, está contenido en Vj 1 ⊂ Ker(f −λj I)sj −1 ,
y hemos supuesto que formaban una base del complementario a Ker(f −λj I)sj −1 dentro
de Ker(f − λj I)sj .
Por tanto, los vectores son linealmente independientes, y por tanto pueden ser
completados con vectores escogidos entre {|v1s−1 ⟩, . . . |vms−1 s−1
⟩} para formar una base
del conjunto de elementos de ker(f − λj I)s−1 que no están en ker(f − λj I)s−2 . Si
repetimos el proceso, vamos obteniendo un conjunto de familias de vectores:

{|wis ⟩ = |vis ⟩, i = 1, . . . , ms }
{|wis−1 ⟩ = (f − λj I)|wis ⟩, i = 1, . . . , ms } ∪ {|wms−1
s +1
⟩ . . . |wms−1
s−1
⟩}
..
.
{|wi1 ⟩ = (f − λj I)|wi2 ⟩, i = 1, . . . , m2 } ∪ {|wm1 2 +1 ⟩ . . . |wm1 1 ⟩}

Ps
con k=1 mk = nj . Consideremos ahora la base
104 3. PROPIEDADES DE ENDOMORFISMOS

Bj = {|w11 ⟩, |w12 ⟩, . . . , |w1s ⟩,


...,
|wm1 s ⟩, . . . , |wms s ⟩,
|wm1 s +1 ⟩, . . . , |wms−1
s +1
⟩,
...
|wm1 s−1 ⟩, . . . , |wms−1
s−1
⟩,
...
|wm1 3 +1 ⟩, |wm2 3 +1 ⟩,
...,
|wm1 2 ⟩, |wm2 2 ⟩,
|wm1 2 +1 ⟩,
...,
|wm1 1 ⟩}

La expresión matricial de f − λj I sobre esta base está hecha, por construcción,


de bloques de la forma:
 
0 1 0 ... 0
0 0 1 ... 0
. . . .. .. 
 
f − λj I|Bj →  .. .. .. . .
 
0 0 0 ... 1
0 0 0 ... 0

Y por tanto, la expresión de f :


 
λj 1 0 ... 0
0 λj 1 ... 0
. .. .. . . .. 
 
f |Bj →  .. . . . .
 
0 0 0 ... 1
0 0 0 ... λj

De estos bloques, caracterizados por el mismo valor del autovalor λj , habría un


número igual a m1 , generando “cadenas” de diferentes longitudes de entradas iguales
a uno, en la diagonal secundaria, paralela a la principal. Hay que notar en efecto que
en esa diagonal tendremos entradas igual a uno mientras recorremos los elementos
|wij ⟩ (j = l(i ), . . . , 2) de la cadena i , de longitud l(i ) (dado que, por construcción
(f − λI)|wij ⟩ = |wij−1 ⟩), e igual a cero cuando consideremos el extremo de la cadena
|wi1 ⟩, que es un vector propio para cualquier i . (Observamos que l(i ) se determina
encontrando el valor k tal que ms−k+1 < i ≤ ms−k , con que l(i ) = s − k, donde
k = 0, . . . , s − 1 e imponemos ms+1 = 0).
9. FORMA DE JORDAN DE UN ENDOMORFISMO 105

Definición 3.13. Denominaremos forma canónica de Jordan a la expresión ma-


tricial del endomorfismo f en la base del espacio vectorial
V = V1 ⊕ . . . ⊕ Vp ;
obtenida como unión de las bases Bj . La matriz tomará una estructura por bloques,
en la forma:
 
λ1 1 0 ... 0
 0 λ1 1 ... 0 
 
 .. .. .. .. ..
0 ... 0

 .
 . . . . 

 0 0 0 ... 1 
 
 0 0 0 ... λ1 
 

 λ2 1 0 ... 0 


 0 λ2 1 ... 0 

 .. .. .. .. . 

 0 . . . . .. ... 0 

0 0 0 ... 1
 
 
0 0 0 . . . λ2
 
 
..
 
.
 
 0 0 0 
 

 λp 1 0 ... 0 

 0 λp 1 ... 0 
.. .. .. . . .
 
0 0 ... . ..
 

 . . . 

 0 0 0 ... 1 
0 0 0 . . . λp
(200)
donde algunos de los autovalores pueden ser iguales entre bloques diferentes.
El aspecto más importante de la forma de Jordan es su sencillez dado el hecho de
que existe para cualquier endomorfismo que podamos definir. En aquellos endomorfis-
mos que sean diagonalizables lo único que ocurre es que las cajas correspondientes a
cada subespacio propio tienen dimensión uno, y por consiguiente solamente contienen
el autovalor.
Ejemplo 3.6. Vamos a considerar la construcción de la forma canónica anterior
para el caso de V = C3 y la aplicación lineal dada por
   
z1 z1 + z2 + √12 z3
f z2  = z1 + z2 + √12 z3 
 
z3 2z3
Vamos a considerar en primer lugar una representación matricial en base canónica.
Escribiremos entonces  
1 1 √12
Af = 1 1 √12 
 
0 0 2
Si calculamos el polinomio característico correspondiente encontramos
1−λ 1 √1
2
det(Af − λI) = 0 = 1 1−λ √1 = (2 − λ)((1 − λ)2 − 1) = −λ(λ − 2)2
2
0 0 2−λ
106 3. PROPIEDADES DE ENDOMORFISMOS

Encontramos por tanto dos raíces,


λ=0 λ = 2.
Los vectores propios correspondientes se obtienen pues como
λ=0
     
1 1 √1
 
 z1

2 z1 0 
Af |v ⟩ = ⃗0 ⇒ |v ⟩ ∈ KerAf = z2  ∈ C3 | 1 1 √1  z2  = 0
 
2
 z3

0 0 2 z3 0 

Encontramos entonces que:


    
1 1 √12 z1 0 (
z1 = −z2
1 1 √12  z2  = 0 ⇒
 
z3 0 z3 = 0
0 0 2
Vemos por tanto que el conjunto de vectores propios con valor propio igual
a 2 es el subespacio unidimensional
  
 α 
V0 = −α |α ∈ C
0
 

λ=2
     
−1 1 √1
 
 z1

2 z1 0 

Af |v ⟩ = 2|v ⟩ ⇒ |v ⟩ ∈ Ker(Af −2Id) = z2  ∈ C3 |  1 −1 √1  z2  = 0
 
2
 z3

0 0 0 z3 0 

Encontramos entonces:
    
−1 1 √1 z1 0 ( (
2
1  
−z1 + z2 + √z32 = 0 z1 = z2
1 −1 √ z = 0 ⇒ ⇒

2
 
2
z1 − z2 + √z32 = 0

z3 0 z3 = 0
0 0 0
Vemos por tanto que el conjunto de vectores propios con valor propio igual
a 2 es el subespacio unidimensional
  
 β 
V2 = β  |β ∈ C
0
 

Entonces, la multiplicidad algebraica y geométrica del valor propio λ = 2 no


coinciden, como se puede ver si estudiamos la matriz
 
−1 1 √1
2
Af − 2I =  1 −1 √12 
 
0 0 0
y su cuadrado:
 
2 −2 0
(Af − 2I)2 = −2 2 0
0 0 0
9. FORMA DE JORDAN DE UN ENDOMORFISMO 107

Vemos que el subespacio propio generalizado para el valor propio dos está gene-
rado entonces por
     
 2 −2 0 z1 0 
V22 = Ker(Af − 2I)2 = −2 2 0 z2  = 0 .
0 0 0 z3 0
 

Esto corresponde a:    
 1 0 
V22 = span 1 , 0
0 1
 
Como debe ocurrir, se tiene que
V21 ⊂ V22 .
En el caso del autovalor λ = 0, su multiplicidad algebraica y geométrica coinciden.
A partir de este análisis podemos estudiar el polinomio mínimo del endomorfismo.
Sabemos que debe dividir al polinomio característico y tener todas las raíces de aquel,
por lo que sólo podemos considerar dos candidatos:
mf (λ) = λ(λ − 2) y
mf (λ) = λ(λ − 2)2 .
El primer caso debe descartarse por verificarse que:
 √   
0 0 √2 0 0 0
Af (Af − 2I) = 0 0 2 ̸= 0 0 0
0 0 0 0 0 0
Concluimos entonces que el polinomio mínimo es
mf (λ) = λ(λ − 2)2 ,
y que por consiguiente el endomorfismo no es diagonalizable, por tener mf exponentes
mayores que uno, escrito como producto de raíces.
Efectivamente,
 
1 1 √12
  
2 −2 0 0 0 0
Af (Af − 2I)2 = 1 1 √12  −2 2 0 = 0 0 0
 
0 0 2 0 0 0 0 0 0
Para determinar la base en la que se escribe la forma canónica de Jordan proce-
demos entonces como sigue:
Para V0 basta con coger una base del subespacio de vectores propios, es decir
 
 1 
B0 = −1
0
 

Para el caso del autovalor λ = 2, tenemos que considerar una base (de dos
elementos, por tener dimensión dos) escogida de forma que el primero de
ellos pertenezca a V22 pero no esté contenido en V21 (esto es, no sea un
vector propio). Una elección simple es
 
0
|v ⟩ = 0
1
108 3. PROPIEDADES DE ENDOMORFISMOS

Ahora, definimos un segundo vector como


    
−1 1 √1 0 √1
2 2

|v ⟩ = (Af − 2I)|v ⟩ =  1 −1 √2  0 =  √12  .
1
   
0 0 0 1 0
Se puede comprobar facilmente que este vector es un vector propio con valor
propio 2.
La base completa se escribe entonces en la forma
     
√1
 1

2 0 
1   
B= −1 ,  2  , 0

  
 0

0 1 

Y calculando entonces la representación matricial en esta base encontramos que:


   
1 0
f −1 = 0
0 0
   
√1 √1
 2  2
f  √12  = 2  √12 
0 0
   
√1 √1
   
0 2 2 0
f 0 =  √12  =  √12  + 2 0
   
1 2 0 1
En consecuencia, hemos determinado las tres columnas de la matriz, que, como
sabíamos a partir del polinomio mínimo, se escribe como
 
0 0 0
Jf = 0 2 1
0 0 2

Ejemplo 3.7. Considerar la aplicación lineal sobre C3 definida por


   
z1 z1
f z2  = z1 + z2 + z3 
z3 z3
Vamos a repetir el análisis anterior. En primer lugar, determinaremos la representación
matricial en base canónica, que resulta ser:
 
1 0 0
Af = 1 1 1
0 0 1
El polinomio característico correspondiente se escribe como
1−λ 0 0
Pf (λ) = 1 1−λ 1 = (1 − λ)3 .
0 0 1−λ
9. FORMA DE JORDAN DE UN ENDOMORFISMO 109

Tenemos por consiguiente tres raíces iguales a 1. El conjunto de vectores propios


se obtiene como
       
 z1 0 0 0 z1 0 
V11 = Ker(Af − I) = z2  ∈ C3 | 1 0 1 z2  = 0
z3 0 0 0 z3 0
 

Este conjunto está formado por los vectores que satisfacen:


     
z1  0 1 
z2  tales que z1 + z3 = 0 ⇒ V11 = span 1 ,  0 
z3 0 −1
 

Vemos por tanto que tenemos un solo valor propio (con multiplicidad tres) pero un
subespacio propio de dimensión tan solo dos. Esto ya nos indica que el endomorfismo
no será diagonalizable. Podemos confirmarlo, si estudiamos el polinomio mínimo. Al
tener que dividir al polinomio característico, tenemos tres posibilidades:

mf (λ) = (λ − 1)

mf (λ) = (λ − 1)2

mf (λ) = (λ − 1)3

Sólo en el primer caso estaríamos ante un caso diagonalizable. Podemos verificar que
   
0 0 0 0 0 0
Af − I = 1 0 1 ̸= 0 0 0
0 0 0 0 0 0
En cambio, podemos verificar que
 
0 0 0
(Af − I)2 = 0 0 0
0 0 0
Probamos con ello que el polinomio mínimo del sistema es
mf (λ) = (λ − 1)2
y en consecuencia sabemos que el endomorfismo no será diagonalizable.
Podemos buscar por tanto la base en la que la representación matricial asociada
sea la forma canónica de Jordan. Para ello, una vez identificados los vectores propios,
queda por estudiar el subespacio propio generalizado. Sabemos, al conocer el polinomio
mínimo, que
V12 = Ker(Af − I)2 = V.
Debemos, por consiguiente, construir la base tomando:
un elemento de V12 que no esté contenido en V11 . Para ello, basta completar
el par de elementos    
 0 1 
1 ,  0 
0 −1
 

hasta formar una base de V . Una posible elección es


 
1
|v ⟩ = 0
0
110 3. PROPIEDADES DE ENDOMORFISMOS

A este vector, debemos yuxtaponerle el resultante de actuar sobre él con


(Af − I):
    
0 0 0 1 0
(Af − I)|v ⟩ = 1 0 1 0 = 1 .
0 0 0 0 0
Como era de esperar, el vector resultante es un vector propio.
y por fin, el resto de elementos de la base de V11 .
Basta entonces considerar como base para el espacio completo:
     
 1 0 1 
B =  0  , 1 , 0
−1 0 0
 

Podemos comprobar que las imágenes de estos vectores definen efectivamente las
columnas de la matriz definen la forma esperada:
 
1 0 0
Jf = 0 1 1
0 0 1

También podría gustarte