Cap 3
Cap 3
Propiedades de endomorfismos
1. ¿Por qué?
En el capítulo 1 hemos introducido los endomorfismos y hemos comentado su
importancia en física; en el capítulo 2 hemos visto su relación con los tensores, así
como la traza y el determinante como invariantes de cada endomorfismo. También
vimos que la representación matricial variaba en función de la base elegida, así que se
plantea el problema de escoger la base más adecuada para poder desarrollar los cálculos
necesarios de forma más eficiente. Esto nos lleva a la pregunta de cuán simple puede
ser la representación de un endomorfismo, y en qué base se da esa representación.
1.1. Un poco de historia. Continuando con la sección de historia del capítu-
lo anterior, vamos a culminar el desarrollo histórico de los conceptos de teoría de
matrices.
Tras la introducción por Cayley de la notación para el concepto de determinante,
el nuevo elemento a señalar debería de ser la introducción por Ferdinand Gotthold
Max Eisenstein de una sola letra para la representación de una “sustitución lineal”, y
el darse cuenta de que tales objetos podían componerse por multiplicación. Es él pues
quien concibe la noción de álgebra de matrices.
En 1850, Sylvester introdujo por primera vez el término “matriz” para representar
el cuadro de números asociado al sistema de ecuaciones. En 1858, Cayley daría la
primera definición abstracta del concepto, en la obra titulada Memoir on the theory of
matrices. En ella, se introducía el concepto, se probaba la existencia de una estructura
de álgebra, y de la estructura lineal. Podemos decir que en este momento nace de
forma definitiva la teoría moderna de matrices.
77
78 3. PROPIEDADES DE ENDOMORFISMOS
Cayley prueba también que una matriz de dimensión dos satisface su propia ecua-
ción característica, resultado que Hamilton probará poco después para matrices de
dimensión cuatro al estudiar los cuaterniones.
Para la prueba en el caso general del teorema deberemos esperar a que Ferdinand
Georg Frobenius publique en 1878 "Über lineare Substitutionen und bilineare Formen"
(“Sobre substituciones lineales y formas bilineales”).
Jordan introduce también en 1870 la noción de forma canónica que lleva su nom-
bre en el trabajo Traité des substitutions et des équations algebraiques (Tratado de las
substituciones y de las ecuaciones algebraicas) proporcionando una nueva visión sobre
la descripción de las aplicaciones lineales. Pero será también cuando en 1903 sean
publicadas las lecciones de Weierstrass y Kronecker sobre álgebra en la universidad
de Berlin el momento en que esta línea de las matemáticas se encamine a su forma
definitiva. En particular, el concepto de determinante que Weierstrass había definido
2. ENDOMORFISMOS EN ESPACIOS SUMA DIRECTA Y PRODUCTO TENSORIAL 79
¿Podemos ahora componer los dos endomorfismos definidos sobre los factores y
definir un endomorfismo sobre el espacio suma directa o sobre el espacio producto
tensorial?
Vamos a analizar separadamente cada caso:
¿Qué forma toma la matriz de esta aplicación lineal en la base B⊕ ? Para calcularlo
basta con tomar los elementos de la base y aplicar la expresión de F+ :
F+ |ej1 ⟩ × {⃗0} = (f1 |ej1 ⟩) × {⃗0} F+ {⃗0} × |ek2 ⟩} = {⃗0} × (f2 |ek2 ⟩)
De aquí deducimos que la matriz completa toma la forma:
T 0
0 U
2. ENDOMORFISMOS EN ESPACIOS SUMA DIRECTA Y PRODUCTO TENSORIAL 81
donde
T 11 T 12 T 1n1 U 11 U 12 . . . U 1n2
...
T 21 T 22 ... T 2n1 U 21 U 22 . . . U 2n2
T = . .. .. .. U= . .. .. ..
.. . . . .. . . .
T n11 T n21 ... T nn11 U n12 U n22 n2
. . . U n2
2.2. Producto tensorial V1 ⊗V2 . El caso del producto tensorial va a ser un poco
más complicado. Consideremos el espacio vectorial obtenido como producto tensorial
de dos factores
V = V1 ⊗ V2 .
Recordemos que este espacio está definido como la clausura lineal de (es decir, el
conjunto generado por) los tensores (|ei1 ⟩ ⊗ |ej2 ⟩), con B1 = (|ei1 ⟩) y B2 = (|ej2 ⟩)
bases de V1 y V2 , respectivamente: V1 ⊗ V2 = span(|ei1 ⟩ ⊗ |ej2 ⟩, i = 1, . . . , dim(V1 ), j =
1, . . . , dim(V2 )).
Consideremos dos aplicaciones f1 : V1 → V1 y f2 : V2 → V2 . Definamos sobre V ,
la aplicación
F× : V → V F× (v1 ⊗ v2 ) = f1 (v1 ) ⊗ f2 (v2 ). (184)
Notemos que esta aplicación no está definida sobre todos los elementos del es-
pacio V1 ⊗ V2 , sino solamente sobre aquellos que habíamos definido como separables
en el capítulo anterior. Podemos sin embargo considerar una aplicación más general,
definida sobre todos los elementos del espacio, extendiendo por linealidad la aplicación
F× . Consideremos entonces:
Definición 3.1. Consideremos el producto tensorial de dos espacios V1 ⊗ V2 y un
endomofismo en cada uno de los factores, f1 : V1 → V1 y f2 : V2 → V2 . Denominaremos
producto tensorial de f1 y f2 y denotaremos como f1 ⊗ f2 a la aplicación lineal que
sobre estados separables es igual a (184).
La aplicación está bien definida porque sabemos que el producto tensorial de
bases de los factores define una base para el espacio producto. Esto implica que es
posible generar cualquier elemento de V1 ⊗ V2 como combinación lineal de elementos
separables. Por consiguiente, fijar el valor sobre estos y exigir que la aplicación sea
lineal es suficiente para definir correctamente la misma.
Una vez definida la aplicación es sencillo proceder a determinar la expresión de la
misma en una base, es decir, la representación matricial correspondiente.
Consideremos pues dos espacios vectoriales, V1 , V2 y dos endomorfismos
f1 : V1 → V1 f2 : V2 → V2 .
3. Subespacios invariantes
Vamos a analizar el siguiente ejemplo de aplicación lineal para un espacio vectorial
V = R3 :
Ejemplo 3.1. Sea V = R3 y consideremos la transformación dada por la siguiente
matriz en la base canónica {ex , ey , ez }:
cos α sin α 0
R = − sin α cos α 0 . (188)
0 0 1
La aplicación transforma la posición de todos los puntos del espacio a excepción
del eje z. Sin embargo, podemos observar que las transformaciones tienen una peculia-
ridad: los puntos describen circunferencias alrededor del eje z, de forma que podemos
afirmar que cualquier plano perpendicular a ez se transforma en si mismo.
3. SUBESPACIOS INVARIANTES 83
Este ejemplo nos sirve pues para introducir un concepto muy importante en las
secciones siguientes:
Definición 3.3. Sea f : V → V un endomorfismo definido sobre un espacio
vectorial V . Diremos que un subespacio W ⊂ V es invariante bajo la aplicación f
si se verifica que la imagen de cualquier punto de W está contenida en él mismo, es
decir
f (w ) ∈ W ∀w ∈ W (189)
Es evidente que la identificación de subespacios invariantes asociados a un endo-
morfismo es de gran utilidad en la caracterización del mismo. Pero es también evidente
que no siempre pueden determinarse. Consideremos por ejemplo:
Demostración. Basta con calcular la acción de la aplicación lineal sobre los ele-
mentos de la base de V que son también una base para W . Si calculamos
f (|ej ⟩) 1 ≤ j ≤ n1
sabemos que la imagen tiene que pertenecer al subespacio W , y por consiguiente que
se debe poder escribir como una combinación lineal de los n1 primeros elementos. Es
por ello que la contribución de los siguientes elementos es nula, y de ahí el cero de la
matriz. Respecto a la imagen de los restantes elementos de la base, nada podemos
decir, y por consiguiente debemos asumir que puedo necesitar todos los elementos de
la base para escribir las imágenes. □
Esta es una interesante propiedad general que buscaremos en las siguientes sec-
ciones. Podemos introducir ya, sin embargo, el concepto general que será desarrollado
en las próximas páginas:
Definición 3.4. Decimos que una aplicación lineal f : V → V es reducible si
existen dos subespacios W1 y W2 , invariantes bajo f , y tales que
V = W1 ⊕ W2 .
En esas circunstancias, respecto a una base adaptada a la descomposición en subes-
pacios, encontraremos que la matriz asociada a la aplicación f se escribirá:
a11 . . . a1n1
.. ..
0
. ... .
an1 1 . . . an1 n1
A=
a(n1 +1)(n1 +1) . . . a
(n1 +1)n
.. ..
0
. ... .
an(n1 +1) ... ann
Pero sabemos que {|vλ1 ⟩, . . . |vλk−1 ⟩} son linealmente independientes, lo que implica
que, dado que por hipótesis λj ̸= λk para todo j, k, encontramos:
cj = 0 ∀j = 1, . . . , k − 1.
Pero esto implica que
|w ⟩ = ck |vλk ⟩ = 0 ⇒ ck = 0.
Esto completa la demostración: los k vectores son linealmente independientes. □
Con ello concluímos que los autovalores son una propiedad del endomorfismo,
algo que no depende de la base en la que escojamos escribirlo. Desde el punto de
vista de la Física, esta es una propiedad muy importante, dado que implica que es un
valor al que se le puede dar significado físico. Así, en Mecánica Cuántica, asociaremos
los posibles autovalores de un endomorfismo con los valores experimentales que se
pueden obtener al medir la magnitud física representada por el endomorfismo, como
la energía, el momento lineal, la posición, etc.
Falta por analizar un aspecto importante como es el del número de autovalores.
Esto es, consideremos un espacio vectorial V de dimensión n ∈ N y un endomorfismo
f : V → V . ¿Cuántos autovalores puede tener f ?
Lema 3.6. Sea V un espacio vectorial complejo. El endomorfismo f : V → V
tiene n autovalores, contando la multiplicidad.
6. PROYECTORES 89
Demostración. Sabemos que los autovalores son raíces del polinomio caracterís-
tico, que es un polinomio de grado n = dim V . Dado que es un polinomio sobre los
números complejos, y es éste un cuerpo algebraicamente cerrado, por el Teorema 1.1
sabemos que debe tener n raíces, aunque no todas tengan que ser diferentes.
□
6. Proyectores
En esta sección vamos a considerar un tipo particular de endomorfismo que, aparte
de su interés intrínseco por caracterizar propiedades de gran relevancia en Física, nos
van a resultar fundamentales a la hora de caracterizar a las aplicaciones lineales.
Podemos mirar a la proyección desde dos puntos de vista, una desde el punto de
vista de los vectores en los que se descompone uno dado, y otro desde el punto de
vista de la aplicación que define la descomposición. Tenemos así:
Definición 3.8. Sea V un espacio vectorial y sea P : V → V un endomorfismo.
Decimos que P es una proyección si se verifica que
P2 = P (196)
90 3. PROPIEDADES DE ENDOMORFISMOS
Si ahora pensamos en los elementos del espacio vectorial total (R3 en el gráfico
anterior) y el proyectado (el plano XY en el caso anterior), podemos caracterizarlo
de una forma análoga:
Definición 3.9. Sea un espacio vectorial V que escribimos como suma directa de
dos subespacios
V = V1 ⊕ V2 .
Denominamos proyección de V sobre V1 a lo largo de V2 a la aplicación que a todo
elemento
v ∈ V → v = (v1 , v2 ) v1 ∈ V1 v2 ∈ V2 ;
le asigna el valor de la primera componente:
P (v1 , v2 ) = v1 ∈ V1 .
Es sencillo probar la equivalencia de las dos definiciones:
Lema 3.7. Sea V un espacio vectorial. Dado un endormorfismo P : V → V que
verifique
P 2 = P,
V puede descomponerse en la suma directa de dos subespacios, y P es la proyección
de uno de ellos a lo largo del otro.
Demostración. Consideremos los posibles valores propios del operador P : es sen-
cillo verificar que sólo pueden ser igual a cero o a uno, porque si |v ⟩ es un vector
propio de valor propio λ obtendremos:
(
2 P (λ|v ⟩) = λ2 |v ⟩
P |v ⟩ =
λ|v ⟩
Concluímos entonces que
(
2 1
λ = λ ⇒ λ(λ − 1) = 0 ⇒ λ =
0
Veamos ahora que siempre podemos descomponer un vector en suma de uno que tiene
autovalor uno y otro que tiene autovalor cero. Si consideramos un elemento |w ⟩ ∈ V ,
siempre podemos escribir
|w ⟩ = P |w ⟩ + (Id − P )|w ⟩ = |w1 ⟩ + |w2 ⟩,
con |w1 ⟩ = P |w ⟩ y |w2 ⟩ = (Id − P )|w ⟩, siendo esta descomposición única para cada
elemento.
Evidentemente, se cumple que
P |w1 ⟩ = |w1 ⟩ P |w2 ⟩ = 0.
Por consiguiente, hemos identificado un autovector con autovalor uno, y otro con
autovalor cero. Si eso lo hacemos considerando todos los posibles estados del espacio
V , es evidente que:
V = P (V ) + (Id − P )(V ) ⇒ V1 = P (V ) V2 = (Id − P )(V )
□
Análogamente, se puede demostrar el otro sentido de la equivalencia:
7. POLINOMIO MÍNIMO DE UN ENDOMORFISMO 91
Dos son las propiedades que vamos a estudiar del polinomio mínimo:
Lema 3.11. Un polinomio p(x) se anula sobre una matriz A, si y solo si el poli-
nomio mínimo de mA (x) divide a p(x).
Demostración. La implicación recíproca es trivial: si el polinomio p(x) se puede
escribir como el producto
p(x) = mA (x)q(x),
donde q(x) es también un polinomio, es trivial verificar que p(A) = 0.
La implicación directa necesita del uso del algoritmo de la división, aplicado a la
división de polinomios. Sabemos que dado un polinomio p(x) y un polinomio mA (x)
de grado menor, siempre podemos encontrar una pareja de polinomios, a los que
denominamos cociente q(x) y resto r (x) que satisfacen
p(x) = q(x)mA (x) + r (x),
donde el grado de r (x) es menor que el de mA (x). Dado que suponemos que p(x) se
anula sobre A tenemos que
p(A) = 0 ⇒ r (A) = 0.
Por tanto, el polinomio r (x), de grado menor que el del polinomio mínimo, se anula
sobre A. Pero esto va contra la hipótesis de que mA (x) es el de grado mínimo que
94 3. PROPIEDADES DE ENDOMORFISMOS
satisface esa propiedad. La única alternativa es suponer que r (x) = 0 para todo x y
que por tanto existe q(x) tal que
p(x) = q(x)mA (x).
□
Finalmente, vamos a comentar una propiedad muy sencilla pero importante. Aun-
que hemos introducido el polinomio mínimo como una propiedad de una matriz A, es
sencillo darse cuenta de que, en realidad, es también una propiedad característica del
endomorfismo que la matriz representa. Esto puede probarse de forma sencilla:
Lema 3.12. Sea A una matriz que representa un endomorfismo f : V → V en
una cierta base. Entonces, cualquier matriz conjugada de A es también raíz de mA (x).
Demostración. Basta darse cuenta de que, si consideramos una matriz B conju-
gada de A, por una cierta matriz S, es decir
B = SAS −1 ,
las potencias de B están también conjugadas con las potencias de A, es decir
k
z }| {
B k = (SAS −1 ) . . . (SAS −1 ) = SAk S −1 .
En consecuencia, el polinomio mínimo evaluado en B satisface:
mA (B) = SmA (A)S −1 = 0.
□
La conclusión que obtenemos por tanto es que el polinomio mínimo es una pro-
piedad del endomorfismo f y no de la matriz que lo representa.
Escribiendo
n
X
PA (λ) = λk αk ,
k=0
encontramos
αn I = −Bn−1
..
.
αj I = ABj − Bj−1
...
α I = AB
0 0
El resultado implica que, por el Lema 3.11, el polinomio mínimo divide al polino-
mio característico. Por tanto, sabemos que se puede escribir como un producto de
monomios de la forma:
8. Endomorfismos diagonalizables
Este va a ser uno de los conceptos fundamentales de todos nuestros análisis.
Desde el punto de vista físico la diagonalizabilidad de un operador va a ser una de
las características que van a identificar a los operadores que representen magnitudes
físicas, puesto que la Mecánica Cuántica afirma que en el proceso de medida de
una magnitud (pensemos por ejemplo en la energía, o el momento lineal) durante
un experimento, sólo podremos obtener como resultado uno de los autovalores del
operador que lo representa. Por tanto el estudio de los conjuntos de autovalores y
autovectores de los mismos es fundamental.
Hasta ahora hemos introducido el concepto de autovector y autovalor individual-
mente, es decir, hemos afirmado que tal vector era vector propio y que tenía tal
autovalor. El concepto de diagonalizabilidad es característico de todo el endomorfis-
mo, y se refiere a aquellos casos en los que podemos identificar una base completa de
vectores propios de un endomorfismo dado que permite escribir la matriz correspon-
diente de forma diagonal:
Definición 3.11. Sea F : V → V un endomorfismo definido sobre un espacio
vectorial V . Diremos que el endomorfismo es diagonalizable si existe una base en la
que la expresión de la matriz correspondiente es diagonal, es decir
λ1 . . . 0
. .
A = .. . . . .. (197)
0 ... λr
(con r ≤ n). Evidentemente los elementos de la base son vectores propios de f y
tienen como valor propio el correspondiente a la entrada de la diagonal de la matriz.
¿Cuándo vamos a poder garantizar que un endomorfismo admita una base de este
tipo? Esta es la pregunta que vamos a intentar responder en lo que sigue.
Vamos a comenzar identificando condiciones para relacionar la existencia de au-
tovalores y el polinomio mínimos. Veremos a lo largo de esta sección que es la mayor
fuente de información a este respecto:
Lema 3.13. Sea f : V → V un endormofismo. Un número λ ∈ K es un autovalor
de f si y solo si λ anula (es una raíz d)el polinomio mínimo de f , es decir
mf (λ) = 0
Demostración. Consideremos un λ ∈ K que es raíz del polinomio mínimo. Eso
supone que existe un polinomio p(x) que cumple que
mf (x) = (x − λId )p(x).
Evidentemente p(x) tiene un grado menos que mA , por lo que sabemos que f no puede
ser también raíz de p(x). Esto supone que, considerando que mf (f ) es la aplicación
identicamente nula, tenemos:
mf (f )|v ⟩ = 0 ∀|v ⟩ ∈ V ⇒ (f − λId )p(f )v ⟩ = 0∀|v ⟩ ∈ V.
Pero p(f ) no puede ser la aplicación nula, porque tiene menos grado que el polinomio
mínimo, por lo que concluímos que
p(f )|v ⟩ = |w ⟩ ∈ V ;
8. ENDOMORFISMOS DIAGONALIZABLES 97
que probar que este conjunto de vectores {|vj ⟩} definen una base para todo el espacio
vectorial.
Para ello, consideremos el siguiente polinomio:
r
Y x − λi
pj (x) = .
λj − λi
i̸=j
Por construcción es un polinomio que tiene como raíces a todos los elementos {λi }
excepto a λj , es decir
pj (λi ) = 0 ∀i ̸= j.
pj (λj ) = 1
tenemos pues un polinomio de grado r − 1, que tiene r raíces diferentes. Esto solo
puede ocurrir si el polinomio es identicamente nulo.
Consideremos ahora la extensión a los endomorfismos:
r
Y f − λi Id
pj (f ) = ,
λj − λi
i̸=j
y consideremos la suma:
X X Y f − λi Id
p(f ) = pj (f ) = .
λj − λi
j j i̸=j
El polinomio p(f ) debe ser el endomorfismo identidad, y por tanto, para todo elemento
|v ⟩ ∈ V , se debe cumplir que
X X
p(f )|v ⟩ = |v ⟩ = pj (f )|v ⟩ := |vj ⟩.
j j
Pero sabemos que mf (f ) se anula, y por tanto que cada uno de los vectores |vj ⟩
son autovectores con autovalor λj . Por tanto, hemos conseguido escribir un vector
arbitrario del espacio vectorial como una combinación lineal de autovectores. Esto
completa la prueba.
□
9. FORMA DE JORDAN DE UN ENDOMORFISMO 99
Lema 3.16 (Identidad de Bézout para polinomios). Sean dos polinomios p(x) y
q(x) que no tienen raíces comunes. Entonces, existen dos polinomios t(x) y s(x) que
satisfacen
s(x)p(x) + t(x)q(x) = 1.
Ejercicio 3.5. Dar una demostración completa y rigurosa del lema anterior.
100 3. PROPIEDADES DE ENDOMORFISMOS
donde hemos utilizado el hecho que f conmuta con todas sus potencias y con la
identidad. □
y consideramos una base para todo V uniendo las anteriores, por ser Vj invariantes
sabemos que la expresión matricial del endomorfismo en esta base será diagonal por
102 3. PROPIEDADES DE ENDOMORFISMOS
es sencillo probar que estos elementos pertenecen al núcleo de (f − λj I)s−1 , dado que:
Sin embargo, hay que destacar que estos vectores no pertenecen a Vj s−2 = ker((f −
λj I)s−2 ): de lo contrario, tendríamos
lo que implicaría que |vks ⟩ ∈ Vj s−1 , contra la hipótesis. Evidentemente, hay tantos
de estos vectores como los había en Ps , y van a ser linealmente independientes.
Efectivamente, es sencillo demostrar que lo contrario es absurdo: asumamos que existe
una cierta combinación lineal que permite escribir uno de ellos como combinación lineal
de los demás:
Es inmediato ver que, al ser f − λj I una aplicación lineal, podríamos escribir que
Pero esto es absurdo, porque implicaría que una combinación lineal de los elementos
{|v1s ⟩, · · · |vms s ⟩} es un vector propio, es decir, está contenido en Vj 1 ⊂ Ker(f −λj I)sj −1 ,
y hemos supuesto que formaban una base del complementario a Ker(f −λj I)sj −1 dentro
de Ker(f − λj I)sj .
Por tanto, los vectores son linealmente independientes, y por tanto pueden ser
completados con vectores escogidos entre {|v1s−1 ⟩, . . . |vms−1 s−1
⟩} para formar una base
del conjunto de elementos de ker(f − λj I)s−1 que no están en ker(f − λj I)s−2 . Si
repetimos el proceso, vamos obteniendo un conjunto de familias de vectores:
{|wis ⟩ = |vis ⟩, i = 1, . . . , ms }
{|wis−1 ⟩ = (f − λj I)|wis ⟩, i = 1, . . . , ms } ∪ {|wms−1
s +1
⟩ . . . |wms−1
s−1
⟩}
..
.
{|wi1 ⟩ = (f − λj I)|wi2 ⟩, i = 1, . . . , m2 } ∪ {|wm1 2 +1 ⟩ . . . |wm1 1 ⟩}
Ps
con k=1 mk = nj . Consideremos ahora la base
104 3. PROPIEDADES DE ENDOMORFISMOS
λ=2
−1 1 √1
z1
2 z1 0
Af |v ⟩ = 2|v ⟩ ⇒ |v ⟩ ∈ Ker(Af −2Id) = z2 ∈ C3 | 1 −1 √1 z2 = 0
2
z3
0 0 0 z3 0
Encontramos entonces:
−1 1 √1 z1 0 ( (
2
1
−z1 + z2 + √z32 = 0 z1 = z2
1 −1 √ z = 0 ⇒ ⇒
2
2
z1 − z2 + √z32 = 0
z3 0 z3 = 0
0 0 0
Vemos por tanto que el conjunto de vectores propios con valor propio igual
a 2 es el subespacio unidimensional
β
V2 = β |β ∈ C
0
Vemos que el subespacio propio generalizado para el valor propio dos está gene-
rado entonces por
2 −2 0 z1 0
V22 = Ker(Af − 2I)2 = −2 2 0 z2 = 0 .
0 0 0 z3 0
Esto corresponde a:
1 0
V22 = span 1 , 0
0 1
Como debe ocurrir, se tiene que
V21 ⊂ V22 .
En el caso del autovalor λ = 0, su multiplicidad algebraica y geométrica coinciden.
A partir de este análisis podemos estudiar el polinomio mínimo del endomorfismo.
Sabemos que debe dividir al polinomio característico y tener todas las raíces de aquel,
por lo que sólo podemos considerar dos candidatos:
mf (λ) = λ(λ − 2) y
mf (λ) = λ(λ − 2)2 .
El primer caso debe descartarse por verificarse que:
√
0 0 √2 0 0 0
Af (Af − 2I) = 0 0 2 ̸= 0 0 0
0 0 0 0 0 0
Concluimos entonces que el polinomio mínimo es
mf (λ) = λ(λ − 2)2 ,
y que por consiguiente el endomorfismo no es diagonalizable, por tener mf exponentes
mayores que uno, escrito como producto de raíces.
Efectivamente,
1 1 √12
2 −2 0 0 0 0
Af (Af − 2I)2 = 1 1 √12 −2 2 0 = 0 0 0
0 0 2 0 0 0 0 0 0
Para determinar la base en la que se escribe la forma canónica de Jordan proce-
demos entonces como sigue:
Para V0 basta con coger una base del subespacio de vectores propios, es decir
1
B0 = −1
0
Para el caso del autovalor λ = 2, tenemos que considerar una base (de dos
elementos, por tener dimensión dos) escogida de forma que el primero de
ellos pertenezca a V22 pero no esté contenido en V21 (esto es, no sea un
vector propio). Una elección simple es
0
|v ⟩ = 0
1
108 3. PROPIEDADES DE ENDOMORFISMOS
Vemos por tanto que tenemos un solo valor propio (con multiplicidad tres) pero un
subespacio propio de dimensión tan solo dos. Esto ya nos indica que el endomorfismo
no será diagonalizable. Podemos confirmarlo, si estudiamos el polinomio mínimo. Al
tener que dividir al polinomio característico, tenemos tres posibilidades:
mf (λ) = (λ − 1)
mf (λ) = (λ − 1)2
mf (λ) = (λ − 1)3
Sólo en el primer caso estaríamos ante un caso diagonalizable. Podemos verificar que
0 0 0 0 0 0
Af − I = 1 0 1 ̸= 0 0 0
0 0 0 0 0 0
En cambio, podemos verificar que
0 0 0
(Af − I)2 = 0 0 0
0 0 0
Probamos con ello que el polinomio mínimo del sistema es
mf (λ) = (λ − 1)2
y en consecuencia sabemos que el endomorfismo no será diagonalizable.
Podemos buscar por tanto la base en la que la representación matricial asociada
sea la forma canónica de Jordan. Para ello, una vez identificados los vectores propios,
queda por estudiar el subespacio propio generalizado. Sabemos, al conocer el polinomio
mínimo, que
V12 = Ker(Af − I)2 = V.
Debemos, por consiguiente, construir la base tomando:
un elemento de V12 que no esté contenido en V11 . Para ello, basta completar
el par de elementos
0 1
1 , 0
0 −1
Podemos comprobar que las imágenes de estos vectores definen efectivamente las
columnas de la matriz definen la forma esperada:
1 0 0
Jf = 0 1 1
0 0 1