Universidad Nacional Autónoma de México
Facultad de Ciencias
Algebra lineal II
Tarea-Examen
Salgado Téllez Alan Atzin
Tarea Examen 2
Ejercicio 1
Sea T : V → V una transformación lineal en un espacio vectorial de dimensión finita F V . Sea
x ∈ V \ {0} y W es subespacio T -cíclico de V generado por x. Demuestra que para todo y ∈ V ,
y ∈ W si y solo si existe un polinomio g(x) con coeficientes en F tal que y = g(T )[x].
Prueba
[→]
Si existe un polinomio g(x) con coeficientes en F tal que y = g(T )(x), entonces y ∈ W .
Dado que W es el subespacio T -cíclico de V generado por x, sabemos que:
W = subespaciogenerado{x, T (x), T 2 (x), . . . , T n (x), . . .}.
Si existe un polinomio g(x) tal que y = g(T )(x), podemos expresar y como una combinación lineal de x, T (x), T 2 (x), . . .
de la siguiente manera:
y = g(T )(x) = a0 x + a1 T (x) + a2 T 2 (x) + . . . + an T n (x),
donde ai son los coeficientes de g(x). Por lo tanto, como y es una combinación lineal de vectores que pertenecen a
W , entonces y ∈ W .
−]
[←
Si y ∈ W , entonces existe un polinomio g(x) con coeficientes en F tal que y = g(T )(x).
Dado que y ∈ W , podemos expresar y como una combinación lineal de vectores de {x, T (x), T 2 (x), . . . , T n (x), . . .}:
y = c0 x + c1 T (x) + c2 T 2 (x) + . . . + cn T n (x),
Esto es equivalente a la aplicación de un polinomio g(T ) a x donde g(x) = c0 + c1 x + c2 x2 + . . . + cn xn .
Por lo tanto, podemos ver que existe un polinomio g(x) con coeficientes en F tal que y = g(T )(x).
Ejercicio 2
Sea T : V → V una transformación lineal en un espacio vectorial de dimensión finita F V que es
T -cíclico. Sea U : V → V una transformación lineal. Demuestra que U T = T U si y solo si U =
g(T ) para algún polinomio g(x) con coeficientes en F .
Prueba
→]
[−
Si U = g(T ) para algún polinomio g(x), entonces U T = T U . Supongamos que U = g(T ) para algún polinomio g(x)
con coeficientes en F . Queremos demostrar que U T = T U .
Dado que U = g(T ), entonces:
U T (x) = g(T )(T (x)) = g(T 2 (x)).
Por otro lado, sabemos que:
T U (x) = T (g(T )(x)) = g(T 2 (x)).
Por lo tanto, para cualquier x ∈ V , se tiene que U T (x) = T U (x), lo que significa que U T = T U .
−]
[←
Si U T = T U , entonces U = g(T ) para algún polinomio g(x) con coeficientes en F . Supongamos que U T = T U .
Queremos demostrar que existe un polinomio g(x) tal que U = g(T ).
Dado que U T = T U , y considerando que V es un espacio vectorial de dimensión finita y V es T -cíclico, esto significa
que existe un vector v ∈ V tal que el subespacio T -cíclico generado por v sea V , es decir,
V = span{v, T (v), T 2 (v), . . . , T n (v)}.
En este caso, cualquier vector en V puede escribirse como combinación lineal de v, T (v), T 2 (v), . . . , T n (v).
Ahora, consideremos el efecto de U en v, T (v), T 2 (v), . . . , T n (v):
Dado que U T = T U , podemos ver que:
U (T k (v)) = T k (U (v)).
Esto significa que el operador U conserva la estructura del subespacio generado por v, T (v), T 2 (v), . . . , T n (v).
Por lo tanto, dado que el subespacio es T -cíclico, U puede representarse como una combinación lineal de I, T, T 2 , . . . , T n
aplicados a v, lo que significa que existe un polinomio g(x) tal que U = g(T ).
Por lo tanto, se sigue que U = g(T ) para algún polinomio g(x) con coeficientes en F .
Ejercicio 3
Sea A una matriz de n × n con coeficientes en un campo F con polinomio característico:
f (x) = (−1)n tn + an−1 tn−1 + . . . + a1 t + a0 .
a) Demuestra que A es invertible si y solo si a0 ̸= 0. b) Demuestra que si A es invertible, entonces:
1
A−1 = − ((−1)n An−1 + An−2 tn−1 + . . . + a1 In ).
a0
Prueba
El polinomio característico de A está dado por:
f (x) = det(xI − A) = det(tI − A) = (−1)n det(A − tI) = (−1)n tn + an−1 tn−1 + . . . + a1 t + a0
Donde n es el tamaño de la matriz, a0 , a1 , . . . , an−1 son los coeficientes del polinomio característico, y det(tI − A)
es el determinante de la matriz tI − A.
a) Demostrar que A es invertible si y solo si a0 ̸= 0.
Una matriz A es invertible si y solo si su determinante no es cero. El determinante de A es el término constante
del polinomio característico f (x):
det(A) = f (0) = a0 .
Por lo tanto, A es invertible si y solo si a0 ̸= 0.
b) Demostrar que si A es invertible, entonces:
1
A−1 = ((−1)n An−1 + an−1 An−2 + . . . + a1 I).
a0
Dado que f (A) = (−1)n An + an−1 An−1 + . . . + a1 A + a0 I = 0, podemos despejar la ecuación:
(−1)n An + an−1 An−1 + . . . + a1 A + a0 I = 0.
1
Multiplicamos la ecuación por a0 :
An an−1 An−1
a1 I
(−1)n + + ... + = I.
a0 a0 a0
Esto se puede reordenar como:
1
A−1 = ((−1)n An + an−1 An−1 + . . . + a1 I).
a0
Ejercicio 4
Sea T : V → V una transformación lineal diagonalizable en un espacio vectorial de dimensión finita
F V y W un subespacio T -invariante de V . Sean x1 , . . . , xk vectores propios de T asociados a valores
propios distintos de T . Demuestra que si x1 +. . .+xk ∈ W , entonces xi ∈ W para toda i ∈ {1, . . . , k}.
Prueba
Para demostrar que si x1 + . . . + xk ∈ W , entonces xi ∈ W para toda i ∈ {1, . . . , k}, utilizaremos las propiedades
de la transformación lineal diagonalizable y el hecho de que W es un subespacio T -invariante.
Supongamos que x1 , . . . , xk son vectores propios de T asociados a valores propios distintos λ1 , . . . , λk . Es decir,
tenemos:
T (xi ) = λi xi para i = 1, . . . , k.
Dado que W es un subespacio T -invariante de V , si y ∈ W , entonces T (y) ∈ W .
Dado que se nos da que x1 + . . . + xk ∈ W , queremos demostrar que cada uno de los vectores propios xi ∈ W .
Apliquemos la transformación T a la suma de los vectores propios:
T (x1 + . . . + xk ) = T (x1 ) + . . . + T (xk ) = λ1 x1 + . . . + λk xk .
Dado que x1 + . . . + xk ∈ W y W es T -invariante, entonces T (x1 + . . . + xk ) ∈ W . Es decir, λ1 x1 + . . . + λk xk ∈ W .
Ahora, consideremos los vectores propios xi y sus valores propios λi . Dado que los valores propios son distintos
entre sí, y sabemos que W es un subespacio, entonces la suma λ1 x1 + . . . + λk xk es una combinación lineal de
x1 , . . . , x k .
Dado que λ1 x1 + . . . + λk xk ∈ W , podemos restar los otros términos para obtener:
λ1 x1 = (λ1 x1 + . . . + λk xk ) − (λ2 x2 + . . . + λk xk ).
De la misma forma, podemos hacer lo mismo para cada i, obteniendo que:
xi ∈ W para cada i = 1, . . . , k.
Ejercicio 5
Sean U, T : V → V dos transformaciones lineales diagonalizables en un espacio vectorial de dimensión
finita F V tales que U T = T U . Demuestra que existe β base de V tal que [T ]β y [U ]β son matrices
diagonales.
Prueba
Dado que U y T son transformaciones lineales diagonalizables, existen bases de V en las que ambas transformaciones
son representadas por matrices diagonales. Por ejemplo, existen bases β1 y β2 tales que:
En la base β1 , [T ]β1 es una matriz diagonal.
En la base β2 , [U ]β2 es una matriz diagonal.
Dado que U T = T U , esto significa que U y T conmutan. Podemos utilizar esta propiedad para deducir que U y T
comparten una base de vectores propios:
Dado que U T = T U , U y T preservan los mismos subespacios invariante de V . En particular, para cada valor
propio λ de T , el correspondiente subespacio propio Eλ = {v ∈ V | T (v) = λv} es invariante bajo la acción de U .
Esto se debe a que, si v ∈ Eλ , entonces:
U (T (v)) = U (λv) = λU (v),
T (U (v)) = T (U (v)) = λU (v).
Esto muestra que U (v) ∈ Eλ .
Como los subespacios propios de T son invariante bajo U , U debe actuar en cada subespacio propio de T . Dado
que ambas transformaciones son diagonalizables, es posible descomponer el espacio V en una suma directa de los
subespacios propios de T , y U debe preservar esa descomposición. Por lo tanto, en cada subespacio propio de T , U
también puede ser diagonalizado.
Al combinar los resultados de los puntos anteriores, podemos concluir que existe una base de V que consiste en
vectores propios comunes de U y T . Esto significa que existe una base β de V en la que ambas transformaciones
son representadas por matrices diagonales. Por lo tanto, existe una base común β tal que tanto [T ]β como [U ]β son
matrices diagonales.
Ejercicio 6
Sea A ∈ Mn (C). Demuestra que si A2 + 2A = −In , entonces A es diagonalizable si y sólo si A =
−In .
Prueba
Vamos a demostrar que si A2 + 2A = −In , entonces A es diagonalizable si y solo si A = −In .
Primero, consideremos la ecuación dada:
A2 + 2A = −In
Reordenando la ecuación, obtenemos:
A2 + 2A + In = 0
Esto se puede factorizar de la siguiente manera:
(A + In )(A + In ) = 0
(A + In )2 = 0
Lo que significa que A + In es una matriz nilpotente de orden 2. Esto implica que A + In tiene un espectro (conjunto
de valores propios) que está compuesto únicamente por 0.
Ahora, veamos qué significa para A:
Dado que A+In es nilpotente y tiene un espectro compuesto únicamente por 0, esto significa que la única posibilidad
es que A + In sea la matriz cero. En otras palabras:
A + In = 0
De aquí se sigue que:
A = −In
Ahora, para verificar si A es diagonalizable si y solo si A = −In , examinemos los posibles valores propios de A.
Si A = −In , entonces todos los valores propios de A son iguales a -1, porque la matriz escalar negativa tiene un
solo valor propio: -1.
Por otro lado, una matriz es diagonalizable si y solo si tiene una base de vectores propios y todos sus valores propios
son distintos (o tiene valores propios con multiplicidad algebraica igual a la multiplicidad geométrica para cada
valor propio).
Ya que todos los valores propios de A serían -1 (con multiplicidad algebraica de n), y dado que la matriz escalar
tiene una base completa de vectores propios (cualquier base estándar), A es diagonalizable.
Ejercicio 7
No le entendí:((((((
Ejercicio 8
Sean V un espacio vectorial con producto interior. Demuestra que ⟨x, y⟩ = ∥x∥∥y∥ si y solo si x
o y son múltiplos del otro.
Prueba
Vamos a demostrar que en un espacio vectorial con producto interior V , la ecuación ⟨x, y⟩ = ∥x∥∥y∥ se cumple si y
solo si x y y son múltiplos uno del otro.
Primero, recordemos la propiedad de Cauchy-Schwarz para un espacio vectorial con producto interior:
|⟨x, y⟩| ≤ ∥x∥∥y∥
Por lo tanto, si ⟨x, y⟩ = ∥x∥∥y∥, entonces la desigualdad de Cauchy-Schwarz se convierte en una igualdad. Esto
sucede si y solo si los vectores x y y son linealmente dependientes, es decir, x y y son múltiplos uno del otro.
Vamos a demostrar ambas direcciones de la afirmación.
→]
[−
Si ⟨x, y⟩ = ∥x∥∥y∥, entonces x y y son múltiplos uno del otro.
Dado que ⟨x, y⟩ = ∥x∥∥y∥, la desigualdad de Cauchy-Schwarz se convierte en una igualdad:
|⟨x, y⟩| = ∥x∥∥y∥
Por la propiedad de Cauchy-Schwarz, esto significa que x y y son linealmente dependientes. En otras palabras,
existe un escalar λ tal que:
y = λx o x = λy
Esto demuestra que x y y son múltiplos uno del otro.
−]
[←
Si x y y son múltiplos uno del otro, entonces ⟨x, y⟩ = ∥x∥∥y∥.
Supongamos que y = λx o x = λy para algún escalar λ. Calculemos el producto interior:
⟨x, y⟩ = ⟨x, λx⟩ = λ⟨x, x⟩ = λ∥x∥2
Y calculamos los productos de los modos respectivos:
∥y∥ = ∥λx∥ = |λ|∥x∥
∥x∥∥y∥ = ∥x∥ · |λ|∥x∥ = |λ|∥x∥2
Dado que λ es un escalar, si ⟨x, y⟩ = ∥x∥∥y∥ significa:
|⟨x, y⟩| = |λ|∥x∥2 = ∥x∥2 · ∥y∥ = |λ|∥x∥2