Apuntes de Algebra Lineal
Segunda Parte
VV
Universidad Mayor de San Simón
Facultad de Ciencias y Tecnologia
Curso de Verano 3/2016
Omonte Cabrera Tito
13 de febrero de 2017
1
1 ESPACIOS VECTORIALES 2
1. Espacios Vectoriales
Es necesario introducir algunas definiciones preliminares, los cuales seran herramientas de
uso frecuente en lo que sigue. Para hablar de espacios vectoriales tenemos que tener en claro que
es un cuerpo, termino asociado a una estructura.
Por ejemplo el conjunto de numeros reales que conocemos cumple con esta estructura, el
conjunto de numeros complejos, por mencionar.
1.1. Primeras Definiciones
Definición 1. El conjunto de números reales R provisto de las operaciones adición y multipli-
cación de números reales posee una estructura de cuerpo ya que:
1. La adición es asociativa.
(a + b) + c = a + (b + c) ∀a, b, c ∈ R
2. La adición es conmutativa
a+b= b+a ∀a, b ∈ R
3. Existe un neutro aditivo
∃0 ∈ R, ∀a ∈ R : a+0 = 0+a= a
4. Existen un inverso aditivo
∀a ∈ R, ∃b ∈ R : a+b=b+a=0
5. La multiplicación es asociativa
(a · b) · c = a · (b · c) ∀a, b ∈ R
6. Existe un neutro multiplicativo
∃1 ∈ R, ∀a ∈ R : a·1 =1·a=a
7. Existen un inverso multiplicativo
∀a ∈ R, ∃b ∈ R − {0} : a·b=b·a=1
8. La multiplicación es conmutativa
a·b=b·a ∀a, b ∈ R
9. La multiplicación es distributiva en relación a la adición
a) a · (b + c) = a · b + a · c ∀a, b, c ∈ R
b) (a + b) · c = a · c + b · c ∀a, b, c ∈ R
Nota 1. Un conjunto provisto de una operación binaria que cumple los axiomas 1, 3 y 4
es llamado grupo, y si cumple los tres incluido el axioma 2 es llamado grupo conmutativo.
Nota 2. Un conjunto provisto de dos operaciones binarias que satisface todos los axiomas
excepto la 8 es llamado cuerpo, si cumple todos los axiomas sin excepción será llamado
cuerpo conmutativo.
Un cuerpo es un elemento escencial para definir correctamente la estructura de un Espacio
Vectorial. En el resto del texto se considera el cuerpo de los reales R; de manera general
todo elemento de R es llamado escalar.
Apuntes de Algebra Lineal
1 ESPACIOS VECTORIALES 3
1.2. Espacios Vectoriales
Definición 2. Un espacio vectorial sobre el cuerpo de los reales R es una terna (V , +, ·), donde
V es un conjunto no vacı́o, (+) y (·) son dos operaciones binarias como sigue
(+) una operación interna definida por:
+: V ×V →V
(u, v) 7→ u + v
(·) una operación externa definida por:
·: R×V →V
(α, v) 7→ α · v
VVvvvvvvvvvvvvvvvvvvvvvvv
a las que llamaremos suma de vectores y producto por escalar respectivamente, las cuales
deben satisfacer las propiedades siguientes:
1. u + (v + w) = (u + v) + w, ∀u, v, w ∈ V. (Asociatividad)
2. u + v = v + u, ∀u, v ∈ V. (Conmutatividad)
3. ∃ e ∈ V tal que e + v = v + e = v, ∀v ∈ V. (Existencia del elemento neutro)
4. ∀ v ∈ V ∃ w tal que v + w = w + v = e (Existencia del elemento opuesto)
5. α · (β · v) = (α · β) · v, ∀v ∈ V, ∀α, β ∈ R. (Asociatividad mixta)
6. α · (u + v) = α · u + α · v, ∀u, v ∈ V, ∀α ∈ R. (Distributiva respecto a la suma en R)
7. (α + β) · v = α · v + β · v, ∀α, β ∈ R. (Distributiva respecto a la suma en V )
8. El escalar unidad 1 ∈ R cumple 1 · v = v, ∀v ∈ V .
b v
b
u 0V
b
b
u+v b
αu
En adelante, en lugar de denotar al espacio vectorial como (V , +, ·) simplemente diremos
que V es un espacio vectorial asociado al cuerpo R, con las operaciones: suma de vectores y
producto por escalar.
Para usos practicos nos referiremos a V como el espacio vectorial y a sus elementos los
llamaremos vectores.
Apuntes de Algebra Lineal
1 ESPACIOS VECTORIALES 4
1.2.1. Subespacios Vectoriales
Definición 3. Sea V un espacio vectorial. Un subconjunto W no vacı́o de V es llamado subes-
pacio vectorial de V , si es a su vez espacio vectorial sobre R respecto a las operaciones suma de
vectores y producto por escalar establecidos en la sección anterior.
Teorema 1.1. Supongamos que W es un subconjunto de un espacio vectorial V . Entonces W
es un subespacio vectorial de V si y solo si se cumple:
i) 0 ∈ W
ii) ∀ u, v ∈ W , la suma u + v ∈ W. (cerrado respecto a la suma)
iii) ∀ u ∈ W y ∀ α ∈ R, el multiplo α · u ∈ W
Corolario 1. W es un subespacio vectorial de V si y sólo si:
i) 0 ∈ W.
ii) αu + βv ∈ W , para todos los u, v ∈ W y α, β ∈ R.
W
b
w2
w1 0V
b
b
b
βw1
w1 + w2
b
1.2.2. Combinación Lineal (CL)
Sea V un espacio vectorial sobre el cuerpo R. Consideremos el subconjunto B = {v1 , v2 , ..., vm },
de vectores de V .
Una combinación lineal de los vectores de B, es una expresión de la forma:
α1 v1 + α2 v2 + ... + αm vm
donde los escalares α1 , α2 , ..., αm se denominan coeficientes de la misma.
Sea v ∈ V , diremos que v es Combinación Lineal de los vectores de B si es posible escribir v
como:
v = α1 v1 + α2 v2 + ... + αm vm
Apuntes de Algebra Lineal
1 ESPACIOS VECTORIALES 5
Ilustración grafica en R3
R3
W
αu2 v
u2
αu1
u1
v = αu1 + αu2
1.2.3. Sistema de Generadores (SG)
Sea V un espacio vectorial sobre el cuerpo R, G = {v1 , v2 , ..., vr } talque G ⊂ V . Diremos que
los vectores del conjunto G generan a todo el espacio vectorial V o simplemente que G genera a
V y denotaremos por V =< G >, si para todo vector v ∈ V existen escalares α1 , α2 , ..., αr tales
que:
v = α1 v1 + α2 v2 + ... + αr vr
esto es si v es combinación lineal de los elementos de G.
De manera general, si un conjunto de vectores {v1 , v2 , ..., vr } del espacio vectorial V genera
a V , se dirá que el conjunto {v1 , v2 , ..., vr } es un sistema de generadores de V .
1.2.4. Dependencia e Independencia Lineal
Definición 4. Sea V un espacio vectorial sobre el cuerpo R, v1 , v2 , ..., vm elementos de V . Los
vectores v1 , v2 , ..., vm son linealmente dependientes (LD) o simplemente dependientes, si
existen escalares α1 , α2 , ..., αm ∈ R, no todos nulos tales que:
α1 v1 + α2 v2 + ... + αm vm = 0
Caso contrario se dirá que v1 , v2 , ..., vm son linealmente independientes (LI). Esto sig-
nifica que si tenemos una relación de la forma
α1 v1 + α2 v2 + ... + αm vm = 0
donde α1 , α2 , ..., αm son escalares, entonces: α1 = α2 = ... = αm = 0
Apuntes de Algebra Lineal
1 ESPACIOS VECTORIALES 6
1.2.5. Base y dimensión
Definición 5. Un conjunto de vectores {v1 , v2 , · · · , vn } de V , forma una base para el espacio
vectorial V si y solo si :
1. {v1 , v2 , · · · , vn } es un conjunto linealmente independiente.
2. {v1 , v2 , · · · , vn } es un sistema de generadores de V .
Definición 6. Sea V un espacio vectorial, B = {v1 , v2 , · · · , vn } una base de V . Si B es un
conjunto finito de n vectores, se dirá entonces que V es de dimensión finita, y se denotará a la
dimensión de V como dim(V ) = n.
Proposición 1. Sea k un entero positivo, {v1 , v2 , · · · , vk } un conjunto vectores linealmente
independientes del espacio vectorial V y v0 un vector de V . Entonces v0 es combinación lineal
de {v1 , v2 , · · · , vk } si y solamente si el conjunto de vectores {v1 , v2 , · · · , vk , v0 } es linealmente
dependiente.
Teorema 1.2. Sea V un espacio vectorial de dimension finita, entonces
i) Todo conjunto que genera a V contiene una base.
ii) Todo conjunto linealmente independiente en V está contenida en una base.
Proposición 1.1. Sea V un espacio vectorial de dimensión finita, entonces
i) V posee base.
ii) Dos bases cualesquiera de V tienen el mismo numero de elementos.
Definición 7. El número de elementos de una base del espacio vectorial V es llamado dimensión
de V y se lo denota por dim(V ).
En el caso del espacio vectorial trivial {0}, se toma dim({0}) = 0.
Corolario 1.1. Sea V un espacio vectorial de dimensión finita n y A un conjunto de vectores
de V , se tienen los siguientes casos:
i) Todo conjunto generador de V , contiene al menos n elementos.
ii) Todo conjunto linealmente independiente en V , contiene a lo más n elementos.
iii) Si A es un sistema de generadores de n elementos de V , entonces A es una base de V .
iv) Si A es un conjunto de n elementos en V y además es linealmente independiente, entonces
A es una base de V .
Teorema 1. La suma U + W de los subespacios U y W de V es tambien un subespacio de V .
Teorema 2. La intersección U ∩ W de los subespacios U y W de V es tambien un subespacio
de V .
Teorema 3. El espacio vectorial V es la suma directa de sus subespacios U y W si y solo si
i. V = U + V
ii. U ∩ W = 0
Apuntes de Algebra Lineal
1 ESPACIOS VECTORIALES 7
Nota 3. Se dice que el espacio vectorial V es suma directa de sus subespacios U y W , denotado
por
V =U ⊕W
si todo vector v ∈ V puede escribirse de una única forma como v = u + w, con u ∈ U y w ∈ W .
Teorema 4. Sean U y W subespacios de dimensión finita de un espacio vectorial V . En ese
caso U + W tiene dimensión finita y
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )
Proposición 1.2. Sea V un espacio vectorial de dimensión finita n, {v1 , v2 , ..., vn } una base de
V . Para todo v ∈ V existen escalares únicos α1 , α2 , · · · , αn ∈ R tales que:
v = α1 v1 + α2 v2 + ... + αn vn
Los escalares α1 , α2 , · · · , αn son llamados componentes de v en la base {v1 , v2 , ..., vn } o coor-
denadas de v en la base {v1 , v2 , ..., vn }.
1.2.6. Cambio de Base
Supongamos que α1 , α2 , · · · , αn son las coordenadas de un vector v respecto a una base
B = {v1 , v2 , ..., vn } de V . Es decir
v = α1 v1 + α2 v2 + ... + αn vn
En este caso podemos representar a v como
α1
α2
[v]B = .
..
αn
La expresión [α1 , α2 , · · · , αn ]t indica que los escalares α1 , α2 , · · · , αn son las coordenadas de v
en la base B.
De manera natural surge una pregunta, ¿Como variará la representación de v si se elige
otra base?. Para poder responder esta cuestion, supongamos que B = {v1 , v2 , ..., vn } y B ′ =
{u1 , u2 , ..., un } son dos bases distintas del espacio vectorial V . Ya que B es base, es posible
escribir cada vector de B ′ de manera única como combinación lineal de los elementos de B.
u1 = a11 v1 + a12 v2 + · · · + a1n vn
u2 = a21 v1 + a22 v2 + · · · + a2n vn
··· = ··· + ··· + ··· + ···
un = an1 v1 + an2 v2 + · · · + ann vn
Sea P la matriz transpuesta de coeficientes, del sistema anterior:
a11 a21 · · · an1
a12 a22 · · · an2
P = · · ·
··· ··· ···
a1n a2n · · · ann
Apuntes de Algebra Lineal
2 APLICACIONES LINEALES 8
La matriz P puede denotarse por P = (pij ), para i = 1, · · · n y j = 1, · · · , n donde las entradas
pij de la matriz P son las coordenadas de cada vector ui en la base B.
P recibe el nombre de matriz de cambio de base o matriz de transición de la base B a la
base B ′ .
Teorema 5. Sea P la matriz de cambio de base de una base B a otra base B ′ en un espacio
vectorial V . En ese caso, para todo vector v ∈ V , tenemos:
P [v]B ′ = [v]B
. por consiguiente
P −1 [v]B = [v]B ′
Nota 4. Puesto que los vectores de B ′ son linealmente independiente, se deduce que P es
invertible, luego P −1 es la matriz de cambio de base de la base B ′ a la base B.
2. Aplicaciones Lineales
Las transformaciones que conservan la estructura de los espacios vectoriales, tales como la
suma de vectores y el producto por escalar, son las transformaciones lineales , las cuales son de
muy extensa utilidad en diversos campos de la matemática.
Definición 8. Sean V , U espacios vectoriales definidas sobre el campo R. Una aplicación T :
V → U se llama aplicación lineal si satisface:
1. T (v1 + v2 ) = T (v1 ) + T (v2 ) ∀v1 , v2 ∈ V
2. T (α · v) = α · T (v) ∀v ∈ V, α ∈ R
V U
v1 T
T (v1 )
v2
T (v2 )
0V αv 0U
αT (v)
αT (v1 ) + βT (v2 )
αv1 + βv2
Si T es una aplicación lineal diremos que T es un homomorfismo.
Si T es una aplicación lineal inyectiva diremos que T es monomorfismo.
Si T es una aplicación lineal sobreyectiva, diremos que T es epimorfismo.
Si T es una aplicación lineal biyectiva, diremos que T es isomorfismo.
Apuntes de Algebra Lineal
2 APLICACIONES LINEALES 9
Proposición 2. La combinación lineal de aplicaciones lineales es una aplicación lineal.
Proposición 3. La composicion de aplicaciones lineales es una aplicación lineal.
2.1. Nucleo e Imagen de una Transformación Lineal
Definición 2.1. Sean V , U espacios vectoriales, T : V → U una aplicación lineal.
Se llama núcleo de T y se denota por Ker(T ) al subconjunto de V dado por:
Ker(T ) = {v ∈ V /T (v) = 0}
Se llama imagen de F y se denota por Im(T ) al subconjunto de U dado por:
Im(T ) = {u ∈ U/T (v) = u, para algún v ∈ V }
2.2. Algunas propiedades de aplicaciones lineales
Proposición 4. Una aplicación lineal T : V → U es inyectiva si y solo si ker(T ) = {0}.
T es sobreyectiva si y solo si Im(T ) = U .
Proposición 5. Sea T : V → U una aplicación lineal. T ◦ T = 0 si y solo si Im(T ) ⊂ Ker(T ).
2.3. Matriz Asociada a una Aplicación Lineal
Sea T : V → U una aplicación lineal y BV = {v1 , v2 , · · · , vn }, BU = {u1 , u2 , ..., um } bases de
V y W respectivamente. La imagen de cada elemento de BV bajo T debe escribirse como como
combinación lineal de los elementos de BU , luego
T (v1 ) = a11 u1 + a21 u2 + · · · + am1 um
T (v2 ) = a12 u1 + a22 u2 + · · · + am2 um
.. . . .
. = .. + .. + · · · + ..
T (vn ) = a1n u1 + a2n u2 + · · · + amn um
Los coeficientes aij son las coordenadas de cada vector T (vi ) en la base BU . Estos pueden
ser colocados en una matriz m × n, como sigue:
a11 a12 · · · a1n
a21 a22 · · · a2n
MT
··· ··· ··· ···
am1 am2 · · · amn
Donde la primera columna contiene las coordenadas de la imagen de v1 bajo T en la base
BU , la segunda columna contiene las coordenadas de la imagen de v2 bajo T en la base BU , y
ası́ sucesivamente hasta el n-esimo elemento de la base BV .
La matriz MT es la representación matricial de la aplicación lineal T .
Apuntes de Algebra Lineal
3 ESPACIOS VECTORIALES EUCLIDEOS 10
3. Espacios Vectoriales Euclideos
Para poder hablar de distancia, longitud, ángulo y ortogonalidad es necesario dotar al es-
pacio vectorial V de una estructura más rica. En este capı́tulo introduciremos el concepto de
producto escalar.
3.1. Producto Escalar
Definición 9. Sea V un espacio vectorial asociado al cuerpo R. Un producto escalar ϕ sobre V
es una forma bilineal, simetrica y definida positiva. Es decir la aplicación
ϕ : V × V −→ R
(u, v) 7−→ ϕ(u, v) = hu, vi
es producto escalar si cumple para todo u, v, w ∈ V y α, β ∈ R.
1. hαu + βv, wi = αhu, wi + βhv, wi
2. hu, vi = hv, ui
3. hv, vi ≥ 0, hv, vi = 0 ⇔ v = 0
Definición 10. Un espacio vectorial V , provisto de un producto escalar ϕ es llamado espacio
vectorial euclideo y se lo denota de manera formal como E = (V, ϕ).
Definición 11. Rn es un espacio vectorial euclidiano con el producto escalar estandar definido
por:
hu, vi = u1 v1 + u2 v2 + · · · + un vn ∀u, v ∈ Rn
Notese que u = (u1 , u2 , · · · , un ) y v = (v1 , v2 , · · · , vn ).
Definición 12. Se llama norma Euclideana del vector v = (v1 , v2 , · · · , vn ) de V al número:
p q
kvk = hv, vi = v12 + v22 + · · · + vn2
Nota 5. Sea dirá que un vector v es normado o que es vector unitario si kvk = 1.
Apuntes de Algebra Lineal
3 ESPACIOS VECTORIALES EUCLIDEOS 11
Proposición 6. Sea E un espacio vectorial Euclideo, entonces la aplicación
kk : E −→ R
p
v 7−→ kvk = hv, vi
cumple las siguientes propiedades:
1. kvk = 0 ⇔ v = 0
2. kαvk = |α|kvk ∀v ∈ E.
3. kv + wk ≤ kvk + kwk
Proposición 7. (Desigualdad de Cauchy-Schwarz.) Sea E un espacio vectorial euclideo, enton-
ces:
|hu, vi| ≤ kukkvk
|hu, vi| = kuk · kvk si y solo si los vectores u y v son linealmente dependientes. Es decir si u
y v son multiplos.
3.2. Ángulo no orientados
Por la desigualdad de Cauchy-Schwarz para u, v no nulos se tiene:
|hu, vi|
≤1
kukkvk
Desarrollando el valor absoluto
|hu, vi|
−1 ≤ ≤1
kukkvk
Afirmamos que existe α ∈ [0, 2π] tal que
|hu, vi|
= cos α
kukkvk
El escalar α es denominado ángulo no orientado entre los vectores u y v.
Apuntes de Algebra Lineal
3 ESPACIOS VECTORIALES EUCLIDEOS 12
Definición 3.1. Dos vectores u, v ∈ E son ortogonales si hu, vi = 0.
Definición 3.2. El conjunto de vectores {v1 , v2 , · · · , vn } de E es llamado conjunto ortogonal si
sus elementos son ortogonales dos a dos.
Esto es si hvi , vj i = 0, para todo i, j donde i 6= j.
Proposición 3.1. Si el conjunto {v1 , v2 , · · · , vn } de E es un conjunto ortogonal entonces es un
conjunto linealmente independiente.
Proposición 3.2. Sea {v1 , v2 , · · · , vn } una base ortogonal de un espacio euclı́deo E, v un ele-
mento cualquiera de E, entonces
v = α1 v1 + α2 v2 + · · · + αn vn
|hv, vi i|
donde αi = .
kvi k2
3.3. Procedimiento de ortogonalización de Gram Schmidt.
Sea E un espacio vectorial euclı́deo, B = {v1 , v2 , · · · , vn } una base cualquiera de E. Podemos
encontrar una base ortogonal B̄ = {w1 , w2 , · · · , wn } de E a partir de los elementos de la base
B, con el siguiente procedimiento o algoritmo:
w1 = v1
hv2 , w1 i
w2 = v2 − w1
kw1 k2
hv3 , w2 i hv3 , w1 i
w3 = v3 − 2
w2 − w1
kw2 k kw1 k2
.. . .. ..
. = .. . .
hvn , wn−1 i hvn , w1 i
wn = vn − 2
wn−1 − · · · − w1
kwn−1 k kw1 k2
Luego {w1 , w2 , · · · , wn } es una base ortogonal del espacio euclı́deo E, respecto de la base
{v1 , v2 , · · · , vn }, obtenida utilizando del proceso de Gram Schmidt.
3.4. Bases Ortonormales
Definición 3.3. Una base B = {v1 , v2 , · · · , vn } del espacio vectorial euclı́deo E es llamada base
ortonormal, si B es base ortogonal y sus elementos son vectores normados.
Nota 1. Si {w1 , w2 , · · · , wn } es una base ortogonal del espacio euclı́deo E, podemos hallar una
base ortonormal a partir de éste, dividiendo a cada uno de sus elementos sobre su norma.
w1 w2 wn
{ , ,··· , }
kw1 k kw2 k kwn k
Proposición 3.3. Si {v1 , · · · , vn } es base ortonormal del espacio euclı́deo E, entonces para todo
v ∈ E, se tiene
v = hv, v1 iv1 + · · · + hv, vn ivn
Apuntes de Algebra Lineal
3 ESPACIOS VECTORIALES EUCLIDEOS 13
Lema 3.1. Si {v1 , · · · , vn } es una base ortonormal del espacio euclı́deo E y v, w son elementos
de E, donde
v = α1 v1 + · · · + αn vn .
w = β1 v1 + · · · + βn vn .
se tiene que:
n
X n
X
2
hv, wi = αi βi y kvk = α2i
i=1 i=1
3.5. Complemento Ortogonal
Definición 3.4. Sea F u subespacio vectorial de E. El complemento ortogonal de F es el sub-
conjunto
F ⊥ = {u ∈ E/hu, vi = 0, ∀v ∈ F }
F ⊥ esta formado por todos los vectores ortogonales a F .
Proposición 3.4. Sea F un subespacio vectorial de E. Entonces todo vector v ∈ E se desconpone
de manera única como:
v = v1 + v2
donde v1 ∈ F y v2 ∈ F ⊥ .
Teorema 6. Sera W un subespacio de V . Entonces V es la suma directa de W y W ⊥ , es decir
V = W ⊕ W ⊥.
F b
0v F⊥
3.6. Proyecciones
La nocion de proyeccion incluye la de un vector a lo largo de un subespacio como se explica
a continuación.
Supongamos que W es un subespacio de de V y que v ∈ V . Por el teorema anterior V =
W ⊕ W ⊥ , por consiguiente v puede expresarse de forma unica como:
v = w + w′ con w ∈ W, w′ ∈ W ⊥
Apuntes de Algebra Lineal
4 VALORES PROPIOS Y VECTORES PROPIOS 14
Llamaremos a w la proyección de v a lo largo de W , y lo denotaremos por w = P roy(v, W ).
En particular si W = hw1 , w2 , · · · , wr i, donde wi es una base ortogonal, entonces
P roy(v, W ) = c1 w1 + c2 w2 + · · · + cr wr
hv, wi i
Donde ci =
kwi k2
Ilustración gráfica
v
v − P roy(v, W )
0V
b
P roy(v, W )
4. Valores Propios y Vectores Propios
Consideremos una matriz cuadrada de orden n,
a11 a12 · · · a1n
a21 a22 · · · a2n
A= . .. ..
.. ..
. . .
an1 an2 · · · ann
La matriz λI − A se denomina matriz caracterı́stica de A.
Su determinante
∆A (λ) = det(λI − A)
recibe el nombre de polinomio caracterı́stico y si igualamos a cero:
∆A (λ) = det(λI − A) = 0
recibe el nombre de ecuación caracterı́stica.
Nota 6.
1. Si la matriz A es de orden 2, vale decir de tamaño 2 × 2, entonces
∆A (λ) = λ2 − tr(A) + det(A)
Apuntes de Algebra Lineal
4 VALORES PROPIOS Y VECTORES PROPIOS 15
2. Si la matriz A es de orden 3, vale decir de tamaño 3 × 3, entonces
∆A (λ) = λ3 − tr(A)λ2 + (A11 + A22 + A33 )λ − det(A)
donde Aii denota los cofactores de los elementos diagonales
Definición 13. Sea A una matriz cuadrada de orden n sobre un cuerpo K. Un escalar λ ∈ K
se denomina valor propio de A si existe un vector no nulo v ∈ K n para el que
Av = λv
Asi mismo todo vector que satisfaga esta relación se denomina vector propio de A correspon-
diente o asociado al valor propio λ.
Teorema 7. Sea A una matriz cuadrada de orden n sobre un cuerpo K. Las siguientes afirma-
ciones son equivalentes:
i). Un escalar λ ∈ K es un valor propio de A.
ii). La matriz M = λI − A es singular
iii). El escalar λ es una raiz del polinomio caracterı́stico ∆(λ) de A.
4.1. Matrices Diagonalizables
Definición 14. Se dice que una matriz A es diagonalizable si existe una matriz no singular
(regular) P talque D = P −1 AP es una matriz diagonal. Es decir si A es similar a una matriz
diagonal D.
Teorema 8. Una matriz cuadrada de orden n A es similar a una matriz diagonal D si y solo si
A tiene n vectores propios linealmente independientes. En tal caso los elementos diagonales de
D son los valores propios correspondientes y D = P −1 AP , siendo P la matriz cuyas columnas
son los vectores propios.
4.1.1. Algoritmo de Diagonalización
La entrada es una matriz cuadrada A
1. Hallar el polinomio caracteristico ∆(λ) de A
2. Hallar las raices de ∆(λ) para obtener los valores propios de A.
3. Repetir a), b) para cada valor propio λ de A
a) contruir M = λI − A
b) encontrar una base para el espacio solución de M X = O (Los vectores de la base son
vectores propios linealmente independientes de A pertenecientes a λ).
4. Considerar la familia S = {v1 , v2 , · · · , vm } de todos los vectores obtenidos en el paso 3.
a) Si m 6= n, A no es diagonalizable.
b) Si m = n, Sea P la matriz cuyas columnas son los vectores propios {v1 , v2 , · · · , vn }
Entonces D = P −1 AP donde D es una matriz diagonal con los valores propios de A
como elementos de la diagonal de D.
Apuntes de Algebra Lineal
REFERENCIAS 16
4.2. Diagonalizacion de Matrices Simétricas
Hay muchas matrices A que no son diagonalizables. No obstante si A es simetrica es posible
diagonalizar.
Teorema 9. Sea A una matriz real simetrica. Toda raiz λ de su polinomio caracterı́stico es real.
Teorema 10. Sea A una matriz simetrica. Supongamos que u y v son vectores propios no nulos
asociados a A pertenecientes a valores propios distintos λ1 , λ2 . Entonces u y v son ortogonales,
es decir hu, vi = 0.
Teorema 11. Sea A un matriz real simetrica. Existe una matriz ortogonal P tal que D = P t AP
es diagonal.
Referencias
[1] ALGEBRA LINEAL. Seymour Lipschutz, Coleccion Schaum segunda edición.
[2] ALGEBRA LINEAL, Serge Lang, Editorial trillas cuarta edición.
[3] ALGEBRA II, Ar,Armando Rojo. Editorial Athenas 1999.
Apuntes de Algebra Lineal