VECTORES Y VALORES PROPIOS
En este capítulo desarrollaremos conceptos de valores propios y vectores propios
de una transformación lineal. Estos son esenciales para entender a las
transformaciones lineales, y tienen un rango de aplicabilidad impresionante:
aparecen en la física, las ecuaciones diferenciales parciales, la ciencia de datos, la
topología algebraica y la probabilidad.
En álgebra lineal, los vectores propios, eigenvectores o autovectores de
un operador lineal son los vectores no nulos que, cuando son transformados por el
operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su
dirección. Este escalar recibe el nombre valor propio, autovalor o valor
característico. A menudo, una transformación queda completamente
determinada por sus vectores propios y valores propios.
8.1 DEFINICION
Sea la transformación lineal
T : ( V, +,𝕂,● ) ( V, + ,𝕂,● )
En varios problemas es necesarios encontrar un vector 𝑥⃗ ∈ 𝑉 , tal que los vectores
T(𝑥⃗) y 𝑥⃗ sean paralelos.
𝜆 𝑥⃗
𝑥⃗
Un escalar o número “ ” tal que 𝜆 ∈ 𝕂 es un “valor propio” de la transformación
lineal “T”, si existe un vector 𝑥⃗ ≠ 0
⃗⃗ , tal que:
T 𝑥⃗ = 𝜆 𝑥⃗
JULIO CESAR RODRIGUEZ B. Página 1
Los valores y vectores propios se utilizan para analizar matrices cuadradas. Los
valores propios son escalares que, cuando se aplican a una matriz, no cambian la
dirección del vector asociado (vector propio), sino que lo escalan. En esencia, los
valores propios representan cómo se estira o contrae un vector propio al aplicar
la transformación lineal representada por la matriz. Los Valores propios son los
escalares que, multiplicados por un vector propio, dan el mismo resultado que la
matriz aplicada al vector propio. Los Vectores propios Son aquellos vectores
que, cuando se les aplica una transformación lineal (representada por una
matriz), solo cambian de escala y no de dirección. Un vector propio se puede
escalar, pero su dirección permanece constante. El valor propio determina la
magnitud de ese escalado.
Una transformación lineal se puede expresar como una matriz cuadrada:
T = A = ( 𝑎𝑖𝑗 )nxn
A 𝑥⃗ = 𝜆 𝑥⃗
⃗⃗
𝜆 𝑥⃗ − A 𝑥⃗ = 0
Multiplicando m/m por la matriz identidad I
𝜆 I 𝑥⃗ – A I 𝑥⃗ = 0⃗⃗
𝜆 I 𝑥⃗ – A 𝑥⃗ = 0⃗⃗
( 𝜆 I – A ) 𝑥⃗ = 0⃗⃗
El sistema de ecuaciones lineales admite soluciones no triviales: 𝑥⃗ ≠ 0
⃗⃗ ,
𝑑𝑜𝑛𝑑𝑒 𝑒𝑙 𝑣𝑒𝑐𝑡𝑜𝑟 𝝀 se llama vector propio.
Para que “𝜆” sea un valor propio, tiene que satisfacer soluciones no triviales 𝑥⃗
≠ 0⃗⃗, por tanto para analizar si el sistema de ec. lineales tiene o no tiene solución,
hallamos el valor de “𝜆 ” en el determinante:
|𝝀 𝐼 – 𝐴 | = 0
JULIO CESAR RODRIGUEZ B. Página 2
Esta expresión se conoce como ecuación característica de A, y los escalares “𝜆”
que satisfacen esta ecuación son los valores propios de A.
Desarrollando el determinante:
|𝝀 𝐼 – 𝐴 | = 0
Tenemos el polinomio característico de A:
P (𝜆) = 𝜆n + pn-1 𝜆n-1+ pn-2 𝜆n-2 +. . . . . . . . . . . + p0 = 0
TEOREMA
Si A=(𝑎𝑖𝑗 )nxn es una matriz cuadrada por tanto las siguientes proposiciones son
equivalentes:
i) “ 𝜆 ” es un valor propio de A
ii) El sistema de ecuaciones ( 𝜆 I – A ) 𝑥⃗ = 0
⃗⃗ , admite soluciones no
triviales
iii) Existe un: 𝑥⃗ ≠ 0
⃗⃗, en ℝ𝑛 , tal que A 𝑥⃗ = 𝜆 𝑥⃗
iv) “ 𝜆 ” es un escalar real de |𝝀 𝐼 – 𝐴 | = 0
8.2 PROCESO PARA HALLAR VALORES Y VECTORES PROPIOS
1º Forme la ecuación característica de |𝝀 𝐼 – 𝐴 | = 0, será una ecuación
polinomial de grado “n” en la variables (incógnita) “𝜆 ”
2º Determine las raíces reales de la ecuación característica. Estos son los valores
propios “𝜆” .
3º Para todo valor propio “ 𝜆 ” , determine los vectores propios que le
corresponden a “ 𝜆 ” ; al resolver el sistema homogéneo ( 𝜆 I – A ) 𝑥⃗ = 0
⃗⃗
JULIO CESAR RODRIGUEZ B. Página 3
8.3 TEOREMA DE CAYLEY-HAMILTON
Si el polinomio característico de la matriz A = ( 𝑎𝑖𝑗 )nxn es igual a:
P (𝜆) = 𝜆n + pn-1 𝜆n-1+ pn-2 𝜆n-2 +. . . . . . . . . . . + p0
Donde los 𝜆 son los valores propios, si 𝜆 = A, por tanto:
P (A) = 0
8.3.1 CASO DE RAICES DE UNA MATRIZ DE 2X2
𝑎 𝑏
A=( )
𝑐 𝑑
1 0 𝑎 𝑏
DET [𝜆 ( )– ( )]=0
0 1 𝑐 𝑑
𝜆 –𝑎 –𝑏
=0
–c 𝜆 –𝑑
( 𝜆 – 𝑎 ) ( – 𝑑) – 𝑏 c = 0 ( 𝜆 – 𝑎 ) ( 𝜆 – 𝑑 ) = 𝑏c como 𝝀 = A
(A – 𝑎 )(A – 𝑑 ) = 𝑏c, m/m por matriz identidad I (AI – 𝑎𝐼)(A𝐼 – 𝑑𝐼) = 𝑏c)I
( A – 𝑎𝐼) ( A – 𝑑𝐼) – (𝑏c)I =0
Por tanto, la matriz A es raíz del polinomio característico
8.3.2 MATRIZ INVERSA
Si p0 ≠ 0 y |𝐴| ≠0
An + pn-1 An-1+ pn-2 An-2 +. . . . . . . . . . . + p1A + p0 In = 0
A (An-1 + pn-1 An-2+ pn-2 An-3 +. . . . . . . . . . . + p1 In ) = – p0 In
Por definición:
1
A-1 = – (An-1 + pn-1 An-2+ pn-2 An-3 . . . . . . . . . . . + p1 In )
𝑝0
JULIO CESAR RODRIGUEZ B. Página 4
PROPIEDADES
1. En el Teorema de Hamilton-Cayley: el polinomio característico: P(A)=0.
2. La suma de los n valores propios de una matriz es igual a su traza.
3. Los valores propios de una matriz coinciden con los de su traspuesta.
4. El producto de “n” valores propios es igual a su determinante.
5. Si 𝜆i son los valores propios de A, 𝜆𝑛𝑖 son los valores propios de An . Además
A y An tienen los mismos vectores propios.
6. “n” vectores propios distintos correspondientes a “n” valores propios
distintos de orden de multiplicidad uno, constituyen una base.
7. Dada una matriz simétrica de coeficientes reales se verifica que sus valores
propios son números reales y que los vectores propios asociados a valores
propios distintos son ortogonales.
8. Los vectores propios de una matriz y de su traspuesta, si corresponden a
valores propios distintos, son ortogonales.
9. Una matriz triangular tiene como valores propios los elementos de la diagonal
principal.
10. El conjunto de vectores propios asociados a un determinado valor propio
constituye un espacio vectorial cuya dimensión es mayor o igual que 1 y menor
o igual que el orden de multiplicidad del valor propio.
12. A valores propios distintos le corresponden vectores propios linealmente
independientes.
13. Todas las raíces del polinomio característico de una matriz real simétrica
son números reales.
14. Si A es una matriz simétrica de nxn, entonces los vectores propios que
corresponden a valores propios distintos de A son ortogonales.
15. Una matriz A de orden nxn es ortogonal si y solo si sus vectores columna o
filas forman un conjunto ortonormal.
JULIO CESAR RODRIGUEZ B. Página 5
EJEMPLO
3 4
A=( )
5 7
1 0 3 4
DET [𝜆 ( )– ( )]=0
0 1 5 7
𝜆 –3 –4
=0
–5 𝜆 –7
( 𝜆 – 3) ( 𝜆 – 7) + 20 = 0
𝜆 2 – 10𝜆 + 1 = 0
P(𝜆 ) = 𝜆 2 – 10𝜆 + 1
P(A) = A 2 – 10A + I P(A) = A 2 – 10A + I = 0
A 2 – 10A + I = 0 I = 10A – A 2 I A-1 = 10A A-1 – A2 A-1
1 0 3 4
A-1 = 10 I –A A-1 = 10 ( ) –( )
0 1 5 7
10 0 3 4
A-1 = ( ) –( )
0 10 5 7
𝟕 −𝟒
A-1 = ( )
−𝟓 𝟑
JULIO CESAR RODRIGUEZ B. Página 6
8.3.3 POTENCIAS DE UNA MATRIZ
EJEMPLO
3 −2
A=( )
1 −5
1 0 3 −2
DET [𝜆 ( )– ( )]=0
0 1 1 −5
𝜆 –3 2
=0
–1 𝜆+5
( 𝜆 – 3) ( 𝜆 +5) + 2 = 0
𝜆 2 +2𝜆 – 13 = 0
P(𝜆 ) = 𝜆 2 +2𝜆 – 13 = 0
P(A) = A 2 +2A – 13 P(A) = A 2 +2A – 13I = 0
A 2 = 13I – 2𝐴
1 0 3 –2 𝟕 𝟒
A 2 = 13 ( ) –2( )= ( )
0 1 1 –5 −𝟐 𝟐𝟑
Post-multiplicando por la matriz A, hallamos una expresión para A 3
A 2 = 13I – 2𝐴
A 3 = 13A – 2𝐴2
3 –2 7 4
A3 = 13 ( ) –2 ( )
1 –5 −2 23
A3 = (𝟐𝟓 – 𝟑𝟒
)
𝟏𝟕 – 𝟏𝟏𝟏
Procediendo análogamente o similarmente es posible hallar cualquier potencia de
la matriz A, la ventaja es de no multiplicar para este cometido.
JULIO CESAR RODRIGUEZ B. Página 7
DIAGONALIZACION
¿Qué es diagonalizar una matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo más
sencilla posible. Diagonalizar una matriz A es precisamente, escribirla de manera
simple encontrando una matriz inversible P y una diagonal D (si se puede) tales
que A = PDP-1. La matriz P se llama matriz de paso
Puede que esto, al principio, no parezca más simple de lo que ya era A
directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las
matrices suelen usarse para representar aplicaciones lineales, la expresión
anterior puede verse como un cambio de base de la aplicación representada por
A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación
lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para
clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan
para representar otras cosas como cónicas, cuádricas o formas bilineales, y en
estos casos también resulta útil esta forma de expresarlas.
Cuando dos matrices cuadradas A y B verifican que A = PDP-1para cierta matriz
cuadrada P (invertible, claro) decimos que A y B son semejantes. Una matriz es
diagonalizable cuando se puede diagonalizar; es decir, cuando podemos
encontrar una matriz diagonal y una invertible de forma que la matriz se escriba
como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando
es semejante a una matriz diagonal. En estas prácticas sólo consideraremos
como diagonalizables las matrices que sean semejantes a una matriz diagonal
real. Entonces, más exactamente: una matriz es diagonalizable cuando es
semejante a una matriz diagonal real.
JULIO CESAR RODRIGUEZ B. Página 8
9.1 DEFINICION
La Diagonalización de matrices, nos conduce a dos casos el primer, un proceso de
Diagonalización propiamente dicho, y el otro un proceso de Diagonalización
Ortogonal.
9.2 PRIMER CASO: DIAGONALIZACIÓN
Sea la transformación lineal T : ( V, +,𝕂,● ) ( V, + ,𝕂,● ), en un espacio
vectorial de dimensión finita.
¿Existe una Base para el espacio ( V, +,𝕂,● ), respecto de la cual la matriz de la
transformación lineal T sea diagonal?
TEOREMA
Condiciones que tiene que cumplir una matriz para ser diagonalizable
Sea T = A = ( 𝑎𝑖𝑗 )nxn
una matriz A cuadrada es diagonalizable si existe una matriz P inversible y una
matriz D diagonal, tal que P-1AP sea diagonal, por tanto, P diagonaliza a la
matriz A.
La condición para que A sea diagonalizable si y sólo si A tiene n vectores propios
linealmente independientes.
P-1AP = D
PP-1AP = PD
AP = PD
𝒑𝟏𝟏 𝒑𝟏𝟐 ⋯ 𝒑𝟏𝒏 𝝀𝟏 𝟎⋯ 𝟎 𝝀𝟏 𝒑𝟏𝟏 𝝀𝟐 𝒑𝟏𝟐 ⋯ 𝝀𝒏 𝒑𝟏𝒏
AP=(𝒑𝟐𝟏 𝒑𝟐𝟐 ⋱ 𝒑𝟐𝒏 ) ( 𝟎 𝝀𝟐 ⋱ 𝟎 )=(𝝀𝟏 𝒑𝟐𝟏 𝝀𝟐 𝒑𝟐𝟐 ⋱ 𝝀𝒏 𝒑𝟐𝒏 )
𝒑𝒏𝟏 𝒑𝒏𝟐 ⋯ 𝒑𝒏𝒏 𝟎 𝟎 ⋯ 𝝀𝒏 𝝀𝟏 𝒑𝒏𝟏 𝝀𝟐 𝒑𝒏𝟐 ⋯ 𝝀𝒏 𝒑𝒏𝒏
⃗⃗ 1
𝒑 ⃗⃗2
𝒑 ⃗⃗n vectores propios
𝒑 ⃗⃗ 1
𝒑 ⃗⃗2
𝒑 ⃗⃗n
𝒑
𝝀𝟏 , 𝝀𝟐 , 𝝀𝒏 Valores propios
JULIO CESAR RODRIGUEZ B. Página 9
Los vectores columna de P son 𝒑
⃗⃗ 1 , 𝒑
⃗⃗2 ,. . . . . 𝒑
⃗⃗n
Las columnas sucesivas de AP serán ⃗⃗ 1 , 𝝀𝟐 𝒑
𝝀𝟏 𝒑 ⃗⃗2 ,. . . . 𝝀𝒏 𝒑
⃗⃗ n
Por Cayley-Hamilton entonces es equivalente a 𝑨 𝒑
⃗⃗ 1 , 𝑨 𝒑
⃗⃗2 ,. . ., 𝑨 𝒑
⃗⃗⃗⃗n
Si P es inversible por tanto 𝒑
⃗⃗ 1 , 𝒑
⃗⃗2 , . . . . . . 𝒑
⃗⃗n son linealmente independientes
PROPIEDADES
i) La matriz diagonal D tiene en su diagonal los valores propios de A
ii) La columna i de P es el vector propio asociado al valor propio de la
posición i de la diagonal de D
9.2.2 PROCESO DE DIAGONALIZACIÓN
Sea: A = ( 𝑎𝑖𝑗 )nxn
1er PASO: Hallar los valores propios: 𝝀𝟏 , 𝝀𝟐 , . . . . 𝝀𝒏 , también los vectores
propios linealmente independientes: 𝒑
⃗⃗ 1 , 𝒑
⃗⃗2 , . . . . . . 𝒑
⃗⃗ n
2º PASO: Formar la matriz P, con los vectores propios 𝒑
⃗⃗ 1 , 𝒑 ⃗⃗ n en
⃗⃗2 , . . . . . . 𝒑
forma de columnas.
3er PASO: P-1AP diagonaliza a la matriz A, si y solo si P-1AP = D
EJEMPLO: DIAGONALIZAR LA MATRIZ
−1 4 −2
A = −3 4 0
−3 1 3 3X3
JULIO CESAR RODRIGUEZ B. Página 10
Recordemos:
( 𝜆 I – A ) 𝑥⃗ = 0⃗⃗
ddd
𝜸 0 0 -1 4 -2 x1 0
0 𝜸 0 − -3 4 0 x2 = 0
0 0 𝜸 -3 1 3 x3 0
𝜸 +1 − 4 2 x1 0
3 𝜸 −4 0 x2 = 0 (1)
3 −1 𝜸 -3 x3 0
El sistema de ecuaciones lineales admite soluciones no triviales: 𝑥⃗ ≠ 0
⃗⃗
|𝝀 𝐼 – 𝐴 | = 0
𝜸 0 0 -1 4 -2 0 0 0
DETERMINANTE 0 𝜸 0 − -3 4 0 =0
0 0 𝜸 -3 1 3
𝜸+1 −4 2
3 𝜸−4 0 =0
3 −1 𝜸 −3
JULIO CESAR RODRIGUEZ B. Página 11
𝜸 3− 6 𝜸 2 + 11 𝜸 −6 = 0
Resolviendo la ecuación, tenemos los valores propios:
𝜸=1 𝜸=2 𝜸=3
Sustituyendo en (1), para los valores propios y resolviendo los sistemas de
ecuaciones lineales:
Si 𝜸=1
2 −4 2 x1 0
3 −3 0 x2 = 0
3 −1 −2 x3 0
El sistema de ecuaciones lineales admite soluciones no triviales: 𝑥⃗ ≠ 0
⃗⃗ ,
|𝝀 𝐼 – 𝐴 | = 0
2 x 1 − 4 x2 + 2 x 3 = 0
3 x 1 − 3 x2 2 x 3 = 0
3 x1 − x2 −2 x3 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 = r x2 = r x3 = r ∀ 𝑟 ∈ ℝ
(x1 , x2 , x3 ) = (r ,r , r ) = r (1 ,1,1 )
x1 1
x2 =r 1 ∀𝑟∈ℝ
x3 1
𝒑𝟏 vector propio para 𝜸 = 1
⃗⃗⃗⃗⃗
JULIO CESAR RODRIGUEZ B. Página 12
Si 𝜸=2
3 −4 2 x1 0
3 −2 0 x2 = 0
3 −1 −1 x3 0
3 x1 − 4 x2 + 2 x3 = 0
3 x1 − 2 x2 2 x3 = 0
3 x1 − x2 − x3 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 = −2r x2 = r x3 = r ∀𝑟∈ℝ
(x1 , x2 , x3 ) = (−2r ,r , r ) = r (−2 ,1,1 )
x1 −2
x2 =r 1 ∀𝑟∈ℝ
x3 1
𝒑𝟐
⃗⃗⃗⃗⃗ vector propio para 𝜸=2
Si 𝜸=3
4 −4 2 x1 0
3 −1 0 x2 = 0
3 −1 0 x3 0
JULIO CESAR RODRIGUEZ B. Página 13
4 x1 − 4 x2 + 2 x3 = 0
3 x1 − x2 2 x3 = 0
3 x 1 − x2 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 = r x2 = 3r x3 = 4r
(x1 , x2 , x3 ) = (r ,3r , 4r ) = r (1 ,3,4 )
x1 1
x2 =r 3 ∀𝑟∈ℝ
x3 4
𝒑𝟑 vector propio para 𝜸=3
⃗⃗⃗⃗⃗
1 −2 1
P = 1 1 3 Matriz que Diagonaliza a la matriz A.
1 1 4
EJEMPLO: DIAGONALIZAR
2 1 -1
A = -1 4 -1
4 -4 7
𝜸 0 0 2 1 -1 0 0 0
DETERMINANTE 0 𝜸 0 − -1 4 -1 = 0 0 0
0 𝟎 𝜸 4 -4 7 0 0 0
JULIO CESAR RODRIGUEZ B. Página 14
𝜸−2 −1 1
1 𝜸−4 1 =0
−4 4 𝜸 −7
Resolviendo la ecuación, tenemos los valores propios:
𝜸=3 𝜸=7
Si 𝜸=3
1 −1 1 x1 0
1 −1 1 x2 = 0
−4 4 −4 x3 0
x1 − x2 + x3 = 0
x1 − x2 + x32= 0
− 4 x1 + 4x2 −4 x3 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 − x2 + x3 = 0
x1 = x 2 − x3
x2 = r ∀𝑟∈ℝ
x3 = s ∀𝑠∈ℝ
x1 = r − s
JULIO CESAR RODRIGUEZ B. Página 15
x1 1 −1
x2 =r 1 + s 0
x3 0 1
𝒑𝟏
⃗⃗⃗⃗⃗ 𝒑𝟐
⃗⃗⃗⃗⃗
Vectores propios para 𝜸=3
Si 𝜸=7
5 −1 1 x1 0
1 3 1 x2 = 0
−4 4 0 x3 0
5x1 − x2 + x3 = 0
x1 + 3x2 + x32= 0
− 4 x1 + 4x2 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 1
x2 =r 1
x3 −4
𝒑𝟑 vector propio para 𝜸=7
⃗⃗⃗⃗⃗
JULIO CESAR RODRIGUEZ B. Página 16
1 −1 1
P = 1 0 1 Matriz que Diagonaliza a la matriz A.
0 1 −4
COMPROBACION:
P-1AP = D
9.3 SEGUNDO CASO: DIAGONALIZACIÓN ORTOGONAL
Sea la transformación lineal T : ( V, +,𝕂,● ) ( V, + ,𝕂,● ), en un espacio
vectorial de dimensión finita.
¿Existe una Base Ortonormal para el espacio ( V, +,𝕂,● ), respecto de la cual la
matriz de la transformación lineal T sea diagonal ortogonalmente?
Sea: A = ( 𝑎𝑖𝑗 )nxn
La condición para que A sea diagonalizable ortogonalmente es que la matriz
A sea simétrica
La característica de una matriz ortogonal, es que la traspuesta de la matriz es
igual a la inversa: P-1AP = PTAP
Una matriz es ortogonal si y sólo si:
Sus columnas son ortogonales entre sí
El módulo (norma) de cada columna es 1
JULIO CESAR RODRIGUEZ B. Página 17
Conocemos: D = P-1AP (1)
Pre multiplicando por P
PD = (PP-1 ) AP
PD = (I ) AP
PD = AP
Postmultiplicando por P-1
PD P-1 = A (P P-1)
PD P-1 = A(I)
PD P-1 = A
Pero P-1 = PT PD PT = A (2)
A = PD PT
Aplicando m/m la traspuesta
(A)T = (PD PT )T
AT = (PT )T DTPT
AT = P DTPT pero DT = D
AT = P DPT
Por la ecuación (2) AT = A
9.3.1 PROCESO DE DIAGONALIZACIÓN ORTOGONAL
Sea: A = ( 𝑎𝑖𝑗 )nxn una matriz simétrica (AT = A)
1er PASO: Hallar los valores propios: 𝝀𝟏 , 𝝀𝟐 , . . . . 𝝀𝒏 , también los vectores
propios linealmente independientes: 𝒑
⃗⃗ 1 , 𝒑
⃗⃗2 , . . . . . . 𝒑
⃗⃗ n
2º PASO: Formar la matriz P, con los vectores propios 𝒑
⃗⃗ 1 , 𝒑 ⃗⃗ n en
⃗⃗2 , . . . . . . 𝒑
forma de columnas.
JULIO CESAR RODRIGUEZ B. Página 18
3er PASO: Con los vectores propios { 𝒑
⃗⃗ 1 , 𝒑 ⃗⃗n } Hallar una base
⃗⃗2 , . . . . . . 𝒑
ortonormal.
4º PASO: Con los vectores de la base ortonormal formar una matriz
5º PASO: PTAP diagonaliza ortogonalmente a la matriz A, si y solo si
PTAP = D
EJEMPLO: DIAGONALIZAR ORTOGONALMENTE
0 0 0
A = 0 2 2
0 2 2
𝜸 0 0 0 0 0 0 0 0
DETERMINANTE 0 𝜸 0 − 0 2 2 = 0 0 0
0 𝟎 𝜸 0 2 2 0 0 0
𝜸 0 0
0 𝜸−2 −2 =0
0 −2 𝜸 −2
𝜸[(𝜸 − 𝟐)( 𝜸 − 𝟐) − 4]=0
𝜸[𝜸 2 − 4𝜸]=0
𝜸 2 [𝜸 − 4]=0
𝜸=0 𝜸=4
JULIO CESAR RODRIGUEZ B. Página 19
Si 𝜸=0
0 0 0 x1 0
0 −2 −2 x2 = 0
0 −2 −2 x3 0
− 2x2 − 2 x3 = 0
− 2x2 − 2 x3 = 0
Resolviendo el sistema tiene infinitas soluciones:
− x2 − x3 = 0
x2 = − x3
x3 = r ∀𝑟∈ℝ
x2 = − r
x1 = s ∀𝑠∈ℝ
x1 0 1
x2 = r −1 + s 0
x3 1 0
𝒑𝟏
⃗⃗⃗⃗⃗ 𝒑𝟐
⃗⃗⃗⃗⃗
Vectores propios para 𝜸=0
JULIO CESAR RODRIGUEZ B. Página 20
Si 𝜸=4
4 0 0 x1 0
0 2 −2 x2 = 0
0 −2 2 x3 0
4x1 = 0
2x2 −2 x32= 0
− 4x2 + 4 x3 = 0
Resolviendo el sistema tiene infinitas soluciones:
x1 = 0
x2 = x 3
x3 = r ∀𝑟∈ℝ
x2 = r
x1 0
x2 =r 1
x3 1
𝒑𝟑
⃗⃗⃗⃗⃗ vector propio para 𝜸=4
0 1 0
p = −1 0 1 Matriz que solo diagonaliza
1 0 1
JULIO CESAR RODRIGUEZ B. Página 21
Aplicando GRAM-SCHMIDT
0 −1 1
‖𝑃⃗⃗1 ‖ =‖( , , ) ‖=1
√2 √ 2 √2
𝑝⃗2 − ≺ 𝑝⃗2 ,𝑃⃗⃗1 ≻𝑃⃗⃗1
𝑃⃗⃗2 =
‖ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑝⃗ − ≺ 𝑝⃗ ,𝑃⃗⃗ ≻𝑃⃗⃗ ‖
2 2 1 1
‖𝑃⃗⃗2 ‖ =‖(1,0,0)‖ = 1
⃗⃗⃗𝟏 , 𝑷
≺𝑷 ⃗⃗⃗𝟐 ≻ = 0
𝑢 ⃗⃗3 ,𝑃⃗⃗1 ≻𝑃⃗⃗1 − ≺ 𝑢
⃗⃗3 − ≺ 𝑢 ⃗⃗3 ,𝑃⃗⃗2 ≻𝑃⃗⃗2
𝑃⃗⃗3 =
‖𝑢 ⃗⃗3 ,𝑃⃗⃗1 ≻𝑃⃗⃗1 − ≺ 𝑢
⃗⃗3 − ≺ 𝑢 ⃗⃗3 ,𝑃⃗⃗2 ≻𝑃⃗⃗2 ‖
0 1 1
‖𝑃⃗⃗3 ‖ =‖( , , ) ‖=1
√2 √ 2 √2
≺ ⃗⃗⃗
𝑷𝟏 , ⃗⃗⃗
𝑷𝟑 ≻ = 0
≺ ⃗⃗⃗
𝑷𝟐 , ⃗⃗⃗
𝑷𝟑 ≻ = 0
0 1 0
−1 1
P = √2
0
√2
1 1
0
√2 √2
MATRIZ que DIAGONALIZA ORTOGONALMENTE a la MATRIZ A
COMPROBACION:
PTAP = D
ATENTAMENTE: Ing. Julio César Rodríguez Blacutt
DOCENTE MAT1103 “ALGEBRA LINEALI”
JULIO CESAR RODRIGUEZ B. Página 22
JULIO CESAR RODRIGUEZ B. Página 23