Fundamentos de Álgebra Lineal y Matrices
Fundamentos de Álgebra Lineal y Matrices
Matriz diagonal. Es una matriz cuadrada en la que todos los elementos son 0
excepto aquéllos que están en la diagonal principal.
Matriz simétrica. Es una matriz cuadrada en la que aij = aji para todo i, j.
Matriz anti-simétrica. Es una matriz cuadrada en la que aij = −aji para todo
Tema 1 i, j.
Matriz Nula (Θ). Todos sus elementos son 0.
Introducción al Álgebra Lineal Matriz Identidad de orden n (In ). Es una matriz diagonal en la que aii = 1
para todo i = 1, . . . , n.
Una matriz es una tabla rectangular de números o “entradas”. Si A tiene m filas y n A + B = (aij + bij )
columnas, es una matriz m × n (m por n):
Propiedades:
a11 a12 · · · a1n
a21 a22 · · · a2n Propiedad Commutativa: A + B = B + A.
A = .. .. ..
. ...
. . Propiedad Asociativa: A + (B + C) = (A + B) + C.
am1 am2 · · · amn
Elemento neutro: (Θ): A + Θ = Θ + A = A.
Esto es A = (aij ). Elemento opuesto: Dada una matriz A, existe una matriz (−A) tal que A + (−A) =
(−A) + A = Θ.
Habitualmente trabajaremos con matrices cuyas entradas son números reales.
Producto por un escalar: Sea A = (aij ) una matriz y α un número. El producto α · A
La diagonal principal de una matriz es la formada por a11 , a22 ,..., akk , con k =
es la matriz
min(m, n).
α · A = (α · aij )
Dos matrices se dice que son iguales si tienen el mismo número de filas, el mismo
número de columnas y sus elementos correspondientes son iguales. Propiedades: (A y B matrices, α y β escalares)
α · (A + B) = α · A + α · B.
1.1.1. Tipos de matrices
(α + β) · A = α · A + β · A.
Matriz cuadrada. Satisface m = n, es decir, tiene el mismo número de filas que
de columnas. Se dice que es una matriz cuadrada de orden n. α · (β · A) = (α · β) · A.
Matriz fila. Es una matriz con una única fila, por tanto su dimensión es 1 × n. 1 · A = A.
Matriz columna. Es una matriz con una única columna, por tanto su dimensión
es m × 1. Producto: Sean A = (aij ) una matriz m × n y B = (bij ) una matriz n × p. Su producto
es la matriz m × p:
Matriz triangular superior. Todos los elementos bajo la diagonal principal son
0. Esto es aij = 0 si i > j. n
X
A · B = C = (cij ) = ( aik · bkj )
Matriz triangular inferior. Todos los elementos sobre la diagonal principal son k=1
0. Esto es aij = 0 si i < j.
Propiedades:
1
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 3 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 4
Hay divisores de cero, es decir, cuando A · B = Θ es posible que A ̸= Θ y B ̸= Θ. Permutar dos filas (o columnas) de la matriz.
Ası́, la propiedad cancelativa tampoco se cumple, i.e. A · B = A · C y A ̸= Θ, no
Multiplicar una fila (o columna) por un número no nulo.
implica B = C.
Sumar una fila (o columna) a otra fila (o columna) multiplicada por un número no
nulo.
1.1.3. Matriz traspuesta
Una matriz elemental es una matriz cuadrada obtenida al aplicar una transforma-
La traspuesta de una matriz A = (aij ) de dimensión m × n es la que se obtiene cam- ción elemental a la matriz identidad:
biando sus filas por sus columnas. Denotamos At a la matriz traspuesta de A que es la
matriz n × m dada por (aji ). Fij (o Cij ): Permuta las filas (resp. columnas) i y j.
(At )t = A. Fij (α) (o Cij (α)): Suma la fila (resp. columna) j multiplicada por α a la fila (resp.
columna) i.
(A + B)t = At + B t .
Teorema: Para realizar cualquiera de estas tres transformaciones por filas (o columnas)
(A · B)t = B t · At . en una matriz A, basta con tomar el producto E · A (resp. A · E), donde E es la matriz
(α · A)t = α · At . elemental obtenida realizando la transformación por filas (o columnas) deseada en la
matriz identidad.
A simétrica ⇔ At = A. Observación: Las inversas de las matrices elementales son también matrices elementales.
Además,
A anti-simétrica ⇔ At = −A. 1
Fij−1 = Fij Fi (α)−1 = Fi Fij (α)−1 = Fij (−α)
α
1.1.4. Matriz Inversa
Cálculo de A−1 por Gauss-Jordan:
Una matriz cuadrada A de dimensión n se dice invertible (también no singular o no
Dada un matriz A de dimensión n × n, usando transformaciones elementales sobre la
degenerada), si existe una matriz B cuadrada n × n tal que A · B = B · A = In .
matriz ampliada (A|In ), si A es una matriz invertible, se obtiene la matriz inversa de A
al transformar A en In .
B = A−1 se llama matriz inversa de A.
El resultado final de estas transformaciones será (In |A−1 ).
Si existe, la matriz A−1 está unı́vocamente determinada por A.
1.1.6. Determinantes
Propiedades: Considera el conjunto {1, 2, . . . , n}. Una transposición es una permutación de estos
A invertible ⇒ A−1 es invertible y (A−1 )−1 = A. n elementos que intercambia dos de ellos y deja el resto sin cambios. Por ejemplo, (32145),
es una transposición.
A y B invertibles ⇒ A · B es invertible y
(A · B)−1 = B −1 · A−1 . Sea σ una permutación de {1, 2, . . . , n}. El ı́ndice de σ es i(σ), el número mı́nimo de
−1 −1 −1
transposiciones que hay en σ. Por ejemplo, si n = 4 y σ = (1342), entonces i(σ) = 2.
A invertible y α ̸= 0 ⇒ α · A es invertible y (α · A) =α ·A .
donde mij es el determinante de la submatriz Mij de orden n − 1 obtenida al suprimir 1.1.7. Rango de una matriz
en A la fila i y la columna j.
Dada A matriz de dimensión m x n, se denomina menor de orden p a un determi-
nante de orden p que puede formarse al suprimir m − p filas y n − p columnas de A.
El determinante de A es el producto escalar (usual) de cualquier fila (o columna) de
A por su fila (columna) de cofactores:
Se define el rango de A, y se denota rg(A), como el orden del mayor menor distinto
de cero contenido en A.
|A| = ai1 · Ai1 + . . . + ain · Ain = a1j · A1j + . . . + anj · Anj
Propiedad: El rango de una matriz no varı́a si se le realizan transformaciones elemen-
para todo i = 1, . . . , n y para todo j = 1, . . . , n.
tales. Tampoco cambia si se añade o suprime una fila (o columna) que sea combinación
lineal de las demás.
Propiedades de los determinantes:
|A−1 | = 1
|A|
.
El método del orlado para calcular el rango de una matriz consiste en partir de un
Si una fila (o columna) de A está formada por ceros, entonces |A| = 0. menor de orden uno distinto de cero y en cada paso obtener orlando un menor de
orden superior no nulo.
Si hay dos filas (o columnas) proporcionales en A, entonces |A| = 0. El proceso finaliza cuando se obtiene un menor de orden r no nulo tal que todos
Si la fila Fi es una combinación lineal de otras filas F1 , . . . , Fi−1 , Fi+1 , . . . , Fm , i.e. si los menores de orden r + 1 obtenidos al orlar dicho menor, o bien no existen o son
existen escalares α1 , . . . αi−1 , αi+1 , . . . , αm tales que todos nulos. En este caso se tiene que rg(A) = r.
Una matriz en forma escalonada por filas se dice que está en forma reducida Si Ax = b es compatible, entonces el conjunto de soluciones S es S = p + SH ,
por fila si tiene además las siguientes propiedades: donde p es una solución particular de S, y SH es el conjunto de soluciones del
Todos los pivotes son 1. sistema homogéneo asociado Ax = Θ.
Todos los elementos situados sobre cada pivote son nulos.
1.2.2. Regla de Cramer
Observación: Las matrices en forma escalonada por filas y las matrices en forma reducida
Teorema (Regla de Cramer). Si A es matriz invertible n × n, para cualquier matriz
por filas dan sistemas de ecuaciones fáciles de resolver.
columna b, el sistema A · x = b tiene una úncia solución dada por
n
1 X
xj = bi Aij for j = 1, 2, . . . , n.
|A| i=1
1.2. Teorı́a de matrices. Sistemas de ecuaciones li-
neales. 1.2.3. Método de Gauss
Un sistema de m ecuaciones lineales con n incógnitas Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
Las transformaciones elementales por filas sobre la matriz de coeficientes ampliada de
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2 un sistema de ecuaciones lineales producen sistemas equivalentes.
.. .. .. ..
. . . . A sistema de ecuaciones lineales se dice que es un sistema escalonado si la matriz de
am1 x1 + am2 x2 + · · · + amn xn = bm coeficientes ampliada está en forma escalonada por filas.
se puede representar también matricialmente como El Método de Gauss para resolver sistemas de ecuaciones lineales consiste en aplicar
transformaciones elementales por filas a su matriz de coeficientes ampliada, hasta trans-
a11 a12 · · · a1n x1 b1 formar el sistema original en un sistema escalonado que se resolverá de manera sencilla
a21 a22 · · · a2n
x2
b2
por remontada.
..
.. .. .. .. = ..
. . . . .
.
Este método es computacionalmente menos costoso que la Regla de Cramer, es decir,
am1 am2 · · · amn xn bm requiere menos operaciones.
A·x=b Desventajas del método de Gauss:
donde A es la matriz de coeficientes, x es la matriz columna (o vector) de incógnitas, con Los pivotes no deben estar demasiado cerca de cero, porque dividir entre dichos
componentes (x1 , . . . , xn ), y b es la matriz columna (o vector) de términos independientes pivotes producirı́a números muy grandes. Este problema se resuelve eligiendo pivotes
(b1 , . . . , bm ). adecuados (”pivotes parciales”).
Si b1 = · · · = bm = 0, el sistema es homogéneo.
Este método no se recomienda para matrices muy grandes y dispersas. En estos
casos es mejor utilizar métodos numéricos.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 9 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 10
(V, +, ·K) es un espacio vectorial sobre K si 1. (Rn , +, ·R) es un espacio vectorial sobre R con:
“+” se llama suma de vectores y V es cerrado para esta operación. 2. (Mm×n (R), +, ·R), donde Mm×n (R) es el conjunto de m×n matrices cuyas entradas
están en R, es un espacio vectorial sobre R con estas operaciones:
+: V × V −→ V
(→
−u ,→
−
v ) −→ →
−
u +→−
v (aij ) + (bij ) = (aij + bij ).
“·” se llama multiplicación escalar. Para cada escalar α ∈ K y cada vector en →
−
u ∈ V se α · (aij ) = (αaij ), con α ∈ R.
obtiene el vector α→
−
u ∈V.
· : K×V −→ V 3. (Pn (R), +, ·R), donde Pn (R) es el conjunto de polinomios de grado ≤ n con coefi-
(α, →
−
u) −→ α·→
−u cientes en R, es un espacio vectorial sobre R con estas operaciones:
Verificándose las siguientes propiedades: a) (a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn ) = (a0 + b0 ) + (a1 + b1 )x +
· · · (an + bn )xn .
(V, +) es un grupo conmutativo, esto significa que la suma de elementos de V cumple:
b) α · (a0 + a1 x + · · · + an xn ) =
Conmutatividad de la suma de vectores: = αa0 + αa1 x + · · · + αan xn , con α ∈ R.
→
−
u +→−
v =→ −
v +→ −
u ∀→−
u ,→
−
v ∈V.
Asociatividad de la suma de vectores: 1.3.1. Dependencia e independencia lineal.
→
−
u + (→
−v +→ −
w ) = (→
−u +→−
v)+→ −w ∀→
−u ,→
−
v ,→
−
w ∈V. Sea (V, +, ·K) un espacio vectorial.
Existencia de un vector cero o nulo:
→
− →
− −
∃ 0 ∈ V tal que 0 + → u =→ −u ∀→−
u ∈V. Un vector → −v es combinación lineal de los vectores → −
v 1, . . . , →
−
v k si existen escalares
α1 , . . . , αk tal que
Existencia de “ negativos ” u opuestos: →
−
v = α1 · →−
v 1 + · · · + αk · →
−
vk
→
−
∀→
−
u ∈ V, ∃→ −u ′ = −→
−
u ∈ V tal que →−u +→ −
u′ = 0.
Observaciones:
Para cualesquiera vectores →
−
u ,→
−
v ∈ V y cualesquiera escalares α, β ∈ K, el producto →
−
1. El vector 0 es combinación lineal de cualquier conjunto de vectores.
escalar satisface:
2. →
−
v es combinación lineal de cualquier conjunto de vectores que contenga al propio →
−
v.
Distributividad:
α · (→
−
u +→ −
v)=α·→ −
u +α·→ −
v.
→
− →
− →
− Los vectores →
−
v 1, . . . , →
−
v k son linealmente dependiente si existen escalares α1 , . . . , αk
(α + β) · u = α · u + β · u . no todos cero tales que
→
−
Asociatividad: α · (β · →
−
u ) = (αβ) · →
−
u. α1 · →
−
v 1 + · · · + αk · →
−
vk= 0
→
− →
−
Existencia de unidad: 1 · u = u .
Los vectores →
−
v 1, . . . , →
−
v k son linealmente independiente si
El vector (−2, 3, 0) es combinación lineal de (−1, 1, 0) y (0, 1, 0), ya que (−2, 3, 0) = Existe (siempre) una base de V .
2(−1, 1, 0) + 1(0, 1, 0).
Cualquier base de V tiene el mismo número de vectores. El número de vectores de
Los vectores (−1, 1, 0), (0, 1, 0) y (−2, 3, 0) son linealmente dependientes (l.d.), ya cualquier base de V es la dimensión de V , denotada dim(V ).
que 2(−1, 1, 0) + 1(0, 1, 0) + (−1)(−2, 3, 0) = 0.
Ejemplos:
Los vectores (−1, 1, 0), (0, 1, 0) y (2, 0, 1) son linealmente independientes (l.i.), ya
que si escribimos α1 (−1, 1, 0) + α2 (0, 1, 0) + α3 (2, 0, 1) = (0, 0, 0) llegaremos a que 1. dim(Rn ) = n.
α1 = α2 = α3 = 0.
2. dim(Mm×n (R)) = m · n.
Propiedades: 3. dim(Pn (R)) = n + 1.
→
− →
−
Si 0 ∈ {→
−
v 1, . . . , →
−
v k } entonces →
−
v 1, . . . , →
−
v k son l.d. 4. Si V = { 0 }, entonces dim(V ) = 0.
Un conjunto está formado por vectores l.d. si y sólo si alguno de ellos es una com-
binación lineal del resto. Sea V un espacio vectorial con dim(V ) = n. Entonces:
Si S es un conjunto de vectores l.d., entonces cualquier conjunto que contenga a S
Cada conjunto de n vectores linealmente independientes es una base de V .
también es un conjunto de vectores l.d.
Cada conjunto generador de n vectores es una base de V .
Si S es un conjunto de l.i. vectores, entonces cualquier subconjunto de S también
es un conjunto de vectores l.i. Si hay más de n vectores en un conjunto, entonces es un conjunto linealmente
dependiente.
Un espacio vectorial V tiene dimensión finita si existe un conjunto finito de vectores
Cada conjunto generador de V tiene al menos n vectores.
{→
−
v 1, . . . , →
−
v k } tal que cualquier vector →
−
v en V es combinación lineal de ellos. El conjunto
{→
−
v 1, . . . , →
−
v k } se llama conjunto generador de V . Cada conjunto de k vectores linealmente independientes, con k < n, se puede am-
pliar a una base de V .
(De ahora en adelante V será un espacio vectorial de dimensión finita.)
Cada conjunto generador de V con k vectores, siendo k > n, contiene una base de
V.
1.3.2. Bases y dimensión. Cambios de bases
Sea (V, +, ·K) un espacio vectorial. Coordenadas de un vector con respecto a una base.
Teorema. Sea B = {→ −v 1, . . . , →
−
v n } una base de V y →
−
v cualquier vector de V . Entonces
El conjunto {→
−v 1, . . . , →
−
v k } es una base de V si está formado por vectores linealmente existen escalares únicos α1 , . . . , αn tales que
independientes que “generan” V .
→
−
v = α1 · →
−
v 1 + · · · + αn · →
−
v n.
Sea S un conjunto de vectores del espacio vectorial V . El conjunto de todas las com- Ejercicio: En V = R4 , encuentra una base, un conjunto de ecuaciones paramétricas y
binaciones lineales de vectores de S se denota < S > o L(S). un sistema de ecuaciones implı́citas independientes del subespacio
Propiedades: U =< (1, 1, 0, 0), (1, 0, 1, 0), (1, 2, −1, 0), (0, 0, 0, 1) > .
4
Ejercicio: En R , tenemos el subespacio dado por las siguientes ecuaciones paramétricas:
< S > es un subespacio vectorial de V . Además, es el menor subespacio de V que
contiene a S.
x = λ+µ
y = λ + 2µ
Si S ⊆ T entonces < S >⊆< T >.
z = λ−µ
t = µ
Un subespacio vectorial U ⊆ V se puede representar mediante: Encuentra una base, y un sistema de ecuaciones implı́citas independientes.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 15 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 16
Intersección y suma de subespacios. Existen diferentes nombres para una aplicación lineal según sus propiedades:
Teorema. Si U1 y U2 son subespacios vectoriales de V entonces U1 ∩ U2 es un subespacio Endomorfismo: Es una aplicación lineal de V a V .
vectorial de V llamado intersección de U1 y U2 .
Monomorfismo: Es una aplicación lineal inyectiva.
Propiedad: Dada una base B de V , si E1 es un sistema de ecuaciones implı́citas para
U1 con respecto a B y E2 es un sistema de ecuaciones implı́citas para U2 con respecto Epimorfismo: Es una aplicación lineal sobreyectiva.
a B, entonces E1 ∪E2 es un sistema de ecuaciones implı́citas para U1 ∩U2 con respecto a B.
Isomorfismo: Es una aplicación lineal biyectiva.
La unión de subespacios vectoriales no siempre es un subespacio vectorial. Dados U1 Automorfismo: Es un endomorfismo biyectivo.
y U2 , subespacios vectoriales de V , la suma de ellos es el menor subespacio vectorial de
V que contiene a U1 ∪ U2 , es decir, U1 + U2 =< U1 ∪ U2 >. Si hay un isomorfismo de V a W , entonces se dice que V y W son espacios vectoriales
isomorfos (V ≈ W ).
Teorema. Si U1 y U2 son subespacios en V entonces Propiedades: Sea f una aplicación lineal de V a W . Entonces:
U1 + U2 = {→
−
v ∈V :→
−
v =→
−
u1+→
−
u 2 , con →
−
u 1 ∈ U1 , →
−
u 2 ∈ U2 } →
− →
−
f( 0 ) = 0 .
donde MB′ ,B (f ) es la matriz de f con respecto a las bases B y B ′ . Las columnas de Si f es una aplicación lineal de V en V , (i.e. un endomorfismo de V ), y B1 y B2 son bases
esta matriz son f (→−v j )B′ . de V , entonces
MB1 ,B1 (f ) = MB−1
2 ,B1
· MB2 ,B2 (f ) · MB2 ,B1
Propiedades:
Cuando B1 = B2 = B escribiremos MB,B (f ) = MB (f ).
Para la aplicación identidad idV : V −→ V ,
MB′ ,B (idV ) = MB′ ,B .
Dos matrices cuadradas A y B se dice que son semejantes si existe una matriz
Si f es un isomorfismo entonces invertible P , llamada matriz de paso, tal que
|MB′ ,B (f )| =
̸ 0. B = P −1 · A · P.
−1
MB,B′ (f −1
) = (MB′ ,B (f )) .
Ejercicio: Sea f : R3 −→ R2 una aplicación lineal tal que f (1, 0, 1) = (0, 1), f (0, 1, 1) = El Núcleo y la Imagen de una aplicación lineal
(0, 2) y f (1, 1, 0) = (1, 1). Halla la matriz de f con respecto a las bases canónicas.
Sea f : V −→ W una aplicación lineal de V en W .
Operaciones con aplicaciones lineales
El subconjunto de todos los vectores de V cuya imagen es el vector nulo se llama el
Suma: Si f y g son aplicaciones lineales de V en W , entonces f + g : V −→ W es una Núcleo de f ,
aplicación lineal definida como (f + g)(→
−
v ) = f (→
−
v ) + g(→
− →
−
v ). Ker(f ) = {→−
v ∈ V : f (→
−
v ) = 0 }.
Producto por un escalar: Si f es una aplicación lineal de V en W y α es un escalar, El subconjunto de todos los vectores de W que son imagen de algún vector de V se
entonces α · f : V −→ W es una aplicación lineal definida como (α · f )(→
−
v ) = α · f (→
−
v ). llama la Imagen de f ,
Propiedades: Observaciones:
→
−
Sean f, g : V −→ W aplicaciones lineales, α ∈ K un escalar, B una base de V y B ′ Ker(f ) = f −1 ({ 0 }).
una base de W . Entonces
Im(f ) = f (V ).
MB′ ,B (f + g) = MB′ ,B (f ) + MB′ ,B (g)
Propiedades:
MB′ ,B (α · f ) = α · MB′ ,B (f )
Ker(f ) es un subespacio vectorial de V .
Sean f : V −→ W y g : W −→ X aplicaciones lineales, B una base de V , B ′ una
base de W y B ′′ una base de X. Entonces Im(f ) es un subespacio vectorial de W .
MB′′ ,B (g ◦ f ) = MB′′ ,B′ (g) · MB′ ,B (f ) f es sobreyectiva si y sólo si dim(Im(f )) = dim(W ).
→
−
f es inyectiva si y sólo si Ker(f ) = { 0 }.
Im(f ) =< f (→
−
v 1 ), . . . , f (→
−
v n ) >. Si λ1 , . . . , λr son autovalores de A distintos y → −
v i es un autovector asociado a λi ,
para i = 1, . . . , r, entonces →
−v 1, . . . , →
−
v r son vectores linealmente independientes.
Ejercicio: Sea f : R4 −→ R3 una aplicación lineal definida como Sea λ un autovalor de A. La multiplicidad algebraica (ma ) de λ es el número de veces
que aparece λ como raı́z de |A − λI| = 0. La multiplicidad geométrica (mg ) es el número
f (1, 0, 0, 0) = (1, −1, 2) f (0, 1, 0, 0) = (2, 1, 1) de autovectores independientes para λ, esto es, mg (λ) = dim(Vλ ) = n − rg(A − λIn ).
f (0, 0, 1, 0) = (4, −1, 5) f (0, 0, 0, 1) = (−1, −5, 4) Propiedad: Si λ es un autovalor de A entonces
Determina una base y un conjunto de ecuaciones implı́citas para Ker(f ) y para Im(f ). 1 ≤ mg (λ) ≤ ma (λ).
Sea K un cuerpo (K = R o C) y A ∈ Mn (K). Teorema. Sea A ∈ Mn (K). Estas afirmaciones son equivalentes:
Ciertos vectores excepcionales →
−
x están en la misma dirección que A→−x . Éstos son los A es diagonalizable sobre K.
llamados autovectores de A.
→
−
Un escalar λ ∈ K es un autovalor de A si existe un vector → −v ∈ Kn , →
−v ̸= 0 , tal que Hay un conjunto de n autovectores de A que son linealmente independientes, esto
→
− →
− →
−
A v = λ v . Diremos que este vector v es un autovector de A asociado al autovalor λ. es, existe una base para Kn formada por autovectores de A.
vectores unitarios y ortogonales dos a dos con respecto al producto escalar habitual en Rn ).
Ejercicio: Averigua si estas matrices son diagonalizables en R. Cuando sea posible, cal-
cula una matriz semejante diagonal y una matriz de paso.
1 0 0 −4 −2 3 0 −2 5
0 1 0
8 −12 2
2 −7 8
−1 0 2 0 0 −8 5 −8 6
Ak = P · Dk · P −1 ,
A−1 = P · D−1 · P −1 .
Como D−1 = diag(1/λ1 , · · · , 1/λn ), los autovalores de A−1 son 1/λi , y se tiene que A−1
también es diagonalizable.