0% encontró este documento útil (0 votos)
47 vistas22 páginas

Tema 3

Cargado por

David Rodríguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
47 vistas22 páginas

Tema 3

Cargado por

David Rodríguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 3

Matrices

3.1. Álgebra de matrices Lección 4,


martes, 3
mar 2020
Suma, resta y multiplicación por escalares
Las matrices de un mismo tamaño se pueden sumar entre sí. Esta operación de sumar se puede
definir de dos formas ligeramente distintas aunque equivalentes: La primera forma de calcular la
suma de dos matrices es operando elemento a elemento. Por ejemplo, consideremos las siguientes
dos matrices del mismo tamaño (2 × 3):
   
1 2 3 7 −1 0
A= , B= ;
4 5 6 −4 1 −2

operar elemento a elemento es poner:


   
1+7 2−1 3+0 8 1 3
A+B = = .
4−4 5+1 6−2 0 6 4

La segunda forma de calcular la suma de dos matrices es operando columna a columna.


En el caso anterior, operar columna a columna es considerar las columnas de A = [a1 a2 a3 ] y
B = [b1 b2 b3 ], es decir:
           
1 2 3 7 −1 0
a1 = , a2 = , a3 = , b1 = , b2 = , b3 = ,
4 5 6 −4 1 −2

y sumar la primera columna de A con la primera de B, etc.:


                 
1 7 8 2 −1 1 3 0 3
a1 + b1 = + = , a2 + b2 = + = , a3 + b3 = + = ,
4 −4 0 5 1 6 6 −2 4

y entonces  
8 1 3
A + B = [ a1 + b1 | a2 + b2 | a3 + b3 ] = .
0 6 4
Evidentemente el resultado es el mismo que operando elemento a elemento. También se podría
Versión de 3 de marzo de 2020, 8:20 h.

definir la suma de matrices operando fila a fila, pero esto no aportaría nada nuevo.
¿Qué ventaja hay en definir la suma de matrices de una forma u otra? La ventaja de operar
elemento a elemento es la sencillez del procedimiento a la hora de calcular una suma a mano
como en el ejemplo anterior. Por otra parte, la ventaja de pensar en la suma columna a columna
es que permite hacer demostraciones más sencillas de las propiedades de matrices.

1
3.1. Álgebra de matrices 3. Matrices

Igual que ocurre con la suma de matrices, la multiplicación de números por matrices se puede
definir elemento a elemento o por columnas. Por ejemplo, si queremos multiplicar por 3 la matriz
B anterior, podemos poner:
   
3×7 3 × (−1) 3 × 0 21 −3 0
3B = =
3 × (−4) 3 × 1 3 × (−2) −12 3 −6

o podemos multiplicar por 3 cada columna de B:


       
21 −3 0 21 −3 0
3b1 = , 3b2 = , 3b3 = , y 3B = [3b1 3b2 3b3 ] = .
−12 3 −6 −12 3 −6

Usando cualquiera de esas definiciones de suma y multiplicación por números no tiene


ninguna dificultad el demostrar que estas operaciones de las matrices de un tamaño fijo m × n
cumplen los axiomas de espacio vectorial donde la matriz cero m × n, denotada 0, es aquella todos
cuyos elementos son cero y la matriz opuesta, − A, de una matriz A es aquella cuyos elementos
son los opuestos de los de A:

(a) Propiedades de la suma de matrices m × n (“Grupo conmutativo”):


1. Propiedad asociativa de la suma: A + ( B + C ) = ( A + B) + C.
2. Matriz cero: 0 + A = A + 0 = A.
3. Opuesta de una matriz: − A + A = A + (− A) = 0.
(abreviación: en lugar de A + (− B) se suele escribir por brevedad A − B).
4. Propiedad conmutativa de la suma: B + A = A + B.

(b) Propiedades distributivas de la multiplicación de matrices m × n por números:


1. Propiedad distributiva para la suma de matrices: x ( A + B) = xA + xB.
2. Propiedad distributiva para la suma de números: ( x + y) A = xA + yA.

(c) “Acción de los escalares” sobre las matrices m × n:


1. Propiedad asociativa del producto de números por matrices: x (yA) = ( xy) A.
2. Ley de identidad: 1 A = A.
(El número 1 es neutro para la multiplicación de números por matrices.)

Además, se deben tener presentes las siguiente propiedades, las cuales se pueden deducir de
las anteriores, aunque también se pueden demostrar directamente a partir de la definición del
producto de un número por una matriz:

1. Toda matriz m × n multiplicada por el número cero da la matriz cero m × n: 0A = 0.


2. Todo múltiplo de la matriz cero m × n es la matriz cero m × n: c 0 = 0.
3. Multiplicar una matriz por −1 da la matriz opuesta: (−1) A = − A.

Producto de matrices
Si multiplicamos una matriz A por un vector x el resultado es el vector b = Ax que es la
imagen de x por la aplicación lineal x 7→ Ax. Supongamos ahora que tenemos otra matriz, B,
que se puede multiplicar por b y que calculamos el vector Bb = B( Ax). Problema: ¿Qué matriz
hay que multiplicar por x para obtener directamente el vector B( Ax)? En otras palabras: ¿Cuál es
la matriz canónica de la aplicación lineal compuesta x 7→ Ax 7→ B( Ax)?
Para contestar a esto basta recordar que el producto Ax es la combinación lineal de las
columnas de A que tiene por coeficientes los elementos de x (Ax = x1 a1 + · · · + xn an ) y que

2
3. Matrices 3.1. Álgebra de matrices

la operación de producto de una matriz por un vector es una aplicación lineal, por lo que el
producto B( x1 a1 + · · · + xn an ) es igual a una combinación lineal de los vectores Ba1 , . . . , Ban
B( Ax) = B( x1 a1 + · · · + xn an ) = x1 Ba1 + · · · + xn Ban .
Por otra parte, toda combinación lineal puede escribirse como un producto matriz por vector; en
este caso el producto de la matriz C = [ Ba1 Ba2 . . . Ban ] por el vector x,
B( Ax) = [ Ba1 Ba2 . . . Ban ]x = Cx.

En consecuencia, la matriz de la aplicación compuesta x 7→ Ax 7→ B( Ax) es la matriz C que


tiene por columnas los productos de B por las columnas de A:
C = [ Ba1 Ba2 . . . Ban ].

Esta matriz es, por definición, el producto de B por A. Definición del


producto de
matrices.
DEFINICIÓN 3.1.1

Definición del producto de matrices


El producto de una matriz A por una matriz B = [b1 b2 . . . bn ] es la matriz, denotada AB, cuyas
columnas son el resultado de multiplicar A por cada columna de B. Es decir: cada columna del
producto AB es el producto de A por la correspondiente columna de B:

AB = [ Ab1 Ab2 . . . Abn ] o sea: col j ( AB) = A · col j ( B). (3.1)

Según esta definición, cada columna del producto AB, al ser un producto matriz por vector,
Abi , es, a su vez, una combinación lineal de las columnas de A usando como coeficientes los
elementos de la correspondiente columna de B.
La propiedad característica del producto así definido es que para cualquier vector x que tenga propiedad
tantos elementos como columnas tiene B, se cumple característica
del producto
( AB)x = A( Bx).

Dicho de otra forma: La propiedad característica del producto de matrices es la siguiente:


El producto de dos matrices es la matriz de la composición de las aplicaciones lineales definidas por las
matrices dadas: AB es la matriz de la aplicaación compuesta TB ◦ TA . O también:
TAB = TA ◦ TB .

La regla “fila por columna”: Suponiendo que las columnas de B son b1 , . . . , b p y que para
calcular AB calculamos cada uno de los productos Ab j por la regla “fila×columna”, llegamos a la
conclusión de que cada fila del producto AB es igual a la correspondiente fila de A multiplicada
por B:
filai ( AB) = filai ( A) · B (3.2)

3.1.1 Ejercicio de tarea. Usa las ecuaciones (3.1) y (3.2) como corresponda para calcular la columna 2
y la fila 3 del producto AB y lo mismo para el producto BA, donde:
   
1 1 1 2 0 0
A = 1 2 3 , B = 0 3 0 .
4×3
1 4 7 5×4
0 0 5
Solución: col2 ( AB) = 2×3 , fila3 ( AB) = (1 × 2 4 × 3 7 × 5), col2 ( BA) = 3×2 , fila3 ( BA) = (5 × 1 5 × 4 5 × 7).
1×3 2×1
   

3
3.1. Álgebra de matrices 3. Matrices

Propiedades del producto de matrices


Se llama matriz escalar a toda matriz que sea un múltiplo escalar de una matriz identidad (o
sea, que sea de la forma λIk para algún número λ). Las matrices escalares son matrices diagonales
con diagonal constante. Por ejemplo si tomamos λ = 5 y k = 3, la correspondiente matriz escalar
es:  
5 0 0
5I3 = 0 5 0 .
0 0 5
A continuación se presenta la lista de las propiedades de la multiplicación de matrices. Aquí λ es
un número cualquiera e Ik denota la matriz identidad k × k.

Propiedades:

1. A( BC ) = ( AB)C (propiedad asociativa).


2. A( B + C ) = AB + AC (propiedad distributiva por la izquierda).
3. ( B + C ) A = BA + CA (propiedad distributiva por la derecha).
En las propiedades (4) y (5) se supone que A tiene m filas y n columnas.
4. Im A = A = AIn .
(Las matrices identidad son neutros por la derecha y por la izquierda.)
5. (λIm ) A = λA = A(λIn ).
(Multiplicar una matriz a derecha o izquierda por una matriz escalar tiene el mismo efecto que
multiplicar dicha matriz por un número.)
De ésta, junto con la propiedad asociativa, se puede deducir la siguiente, de la cual ésta es
un caso particular:
6. (λA) B = λ( AB) = A(λB).
(Multiplicar una matriz por la derecha o por la izquierda por un múltiplo escalar de otra es lo mismo
que multiplicar ese escalar por el producto de las dos matrices ¡en el mismo orden!.)

3.1.2 Ejercicio de tarea. Demuestra que la propiedad (6) se deduce de las propiedades (1) y (5).
Solución: (λA) B = (λIm ) A B = (λIm )( AB) = λ( AB) = ( AB)(λIm ) = A B(λIm ) = A(λB).
 

Sobre la no-conmutatividad del producto de matrices y otras advertencias.

1. No conmutatividad: En general AB 6= BA. Por ejemplo:


     
1  3 4  1
3 4 = mientras que 3 4 = (11).
2 6 8 2

Pero la razón de la no-conmutatividad no es que los resultados puedan ser matrices de


distinto tamaño, pues en general AB 6= BA incluso para matrices cuadradas:
         
0 1 4 0 ∗ 5 4 0 0 1 ∗ 4
= mientras que = .
2 3 0 5 ∗ ∗ 0 5 2 3 ∗ ∗

2. Divisores de cero: Un producto de matrices igual a cero no implica que algún factor sea
cero, es decir, si AB = 0, en general no se puede concluir que A = 0 o B = 0. Por ejemplo:
 
 0
1 0 = 0.
1

4
3. Matrices 3.1. Álgebra de matrices

3. Matrices nilpotentes: Existen matrices A 6= 0 tales que A2 = 0. Por ejemplo,


 2     
0 1 0 1 0 1 0 0
= = .
0 0 0 0 0 0 0 0

4. No se cumple la Ley de cancelación: De AB = AC, en general no se puede deducir B = C.


Por ejemplo:
     
0 1 0 2 0 1 0 3
= .
0 0 0 0 0 0 0 0

Traspuesta de una matriz y sus propiedades.


 
a1
Para cualquier vector (o matriz de una sola columna) a =  ... , la matriz traspuesta es la
 

am
matriz fila que tiene los mismos elementos que a:

aT = a1

... am .

Para una matriz general de varias columnas A = [a1 . . . an ], la traspuesta es la matriz cuyas filas
son las traspuestas de las columnas de A:

aT1


AT =  ...  .
 

aTn

De esta definición se deduce que la traspuesta de una matriz m × n es una matriz n × m.


Por ejemplo:
 
 T 1 4
1 2 3
= 2 5.
4 5 6
3 6

La operación de calcular la matriz traspuesta tiene las siguientes propiedades cuya demostra-
ción es un ejercicio que debe hacer el estudiante:
T
1. AT = A
2. ( A + B)T = AT + BT
3. (λA)T = λ AT
4. ( AB)T = BT AT (¡cambian de orden!)

Potencias de una matriz cuadrada


El producto de dos matrices cuadradas del mismo tamaño vuelve a ser otra matriz cuadrada
del mismo tamaño que las iniciales. Esto implica que si A es una matriz cuadrada entonces
existe el producto de A por sí misma y el resultado es otra matriz cuadrada del mismo tamaño
se puede multiplicar de nuevo por A. En consecuencia A puede multiplicarse por sí misma
cualquier número finito, k, de veces. El resultado se conoce como la potencia k-ésima de A y se
denota Ak :
Ak = |A ·{z
· · A}
k factores

5
3.1. Álgebra de matrices 3. Matrices

Si A es una matriz cuadrada no nula es posible dar significado incluso a la potencia A0 , es


decir, el producto de A por sí misma ninguna vez. Para ello, supongamos que A es de orden
n (es decir, tiene n filas y n columnas) e imaginemos que x es un vector cualquiera de Rn . Si
pensamos que en general Ak x es el resultado de multiplicar A por la izquierda de x k veces,
entonces debemos pensar que A0 x es el resultado de multiplicar A por la izquierda de x ninguna
vez, lo cual significa no alterar x y por tanto llegamos a que para todo x ∈ Rn debe ser A0 x = x.
La única matriz que cumple esto para todo x es la matriz identidad y por tanto llegamos a la
conclusión de que si A es una matriz cuadrada n × n:

Si A 6= 0 entonces A0 = In .

La salvedad de A 6= 0 es necesaria porque en el caso A = 0 no hay un criterio claro para dar


significado a la potencia 00 . En ese caso, para cualquier k ≥ 1 se cumple Ak = 0.

Enlaces a los ejercicios de tarea de esta sección


Usa los siguientes enlaces para visualizar cada uno de los ejercicios de tarea que aparecen en
esta sección:
Enlaces: Ejercicio 1, Ejercicio 2.

Ejercicios sección 3.1

1. Dado que los vectores en Rn pueden ser considerados


 
4 −1
como matrices n × 1, las propiedades de las 5. Dada la matriz A = calcula 3I2 − A y (3I2 ) A.
 traspuestas
 5 −2
1 −3
también se aplican a vectores. Sean A = y
−2 4
 
5
 
x= Calcula ( Ax) T , x T A T , xx T , y x T x. ¿Está definido 9 −1 3
3 6. Dada la matriz A = −8 7 −6 calcula A − 5I3
el producto A T x T ? −4 1 8
y (5I3 ) A.
2. Sean A una matriz 4 × 4 y x un vector en R4 . ¿Cuál es
la forma más rápida de calcular A2 x: Haciendo A( Ax) o En los ejercicios 7 y 8, calcula el producto AB en dos
haciendo ( A · A)x?. Cuenta las multiplicaciones que hay formas: (a) mediante la definición, donde Ab1 y Ab2 se cal-
que hacer en cada caso. culan por separado, y (b) mediante la regla fila-por-columna
para calcular AB.
En los ejercicios 3 y 4, sean
 
    −1 2  
2 0 −1 7 −5 1 3 −2
A= , B= , 7. A =  5 4, B =
4 −5 2 1 −4−3 −2 1
2 −3
     
1 2 3 5 −5
C= , D= , E= .
−2 1 −1 4 3  
4 −2  
Calcula cada suma o producto si la matriz está definida. Si 1 3
8. A = −3 0, B =
alguna expresión no está definida, explica por qué. 2 −1
3 5

3. −2A, B − 2A, AC, CD. 9. Si una matriz A es de orden 5 × 3 y el producto AB es


de orden 5 × 7, ¿cuál es el orden de B?
4. A + 2B, 3C − E, CB, EB.
10. ¿Cuántas filas tiene B si BC es una matriz de orden
3 × 4?.
En el resto de esta serie de ejercicios y en las series
que siguen, debe suponerse que cada expresión de matrices    
está definida. Esto es, los tamaños de las matrices (y de 2 5 4 −5
11. Sean A ,yB= . ¿Qué valor(es) de
los vectores) involucrados “se corresponden” de manera −3 1 3 k
apropiada. k, si hay, hacen que AB = BA?.

6
3. Matrices 3.1. Álgebra de matrices

     
2 −3 8 4 5 −2 22. Supongamos que la última columna de AB es comple-
12. Sean A = ,B= ,yC= .
−4 6 5 5 3 1 tamente cero, pero B por sí sola no tiene ninguna columna
Comprueba que AB = AC a pesar de que B 6= C. de ceros. ¿Qué puede decirse acerca de las columnas de A?
   
1 1 1 2 0 0 23. Demuestra que si las columnas de B son linealmente
13. Sean A = 1 2 3 y D = 0 3 0. Calcula dependientes, también lo son las columnas de AB.
1 4 5 0 0 5
AD y DA. Explica cómo cambian las filas o columnas de 24. Supongamos que CA = In (la matriz identidad n × n).
A cuando se multiplica por D a la derecha o a la izquierda. Demuestra que la ecuación Ax = 0 tiene únicamente la
Halla una matriz B de orden 3 × 3, que no sea la matriz solución trivial. Explica por qué A no puede tener más
identidad o la matriz cero, tal que AB = BA. columnas que filas.
 
3 −6 25. Supongamos que AD = Im , (la matriz identidad m × m).
14. Sea A = . Construye una matriz B de orden
−1 2 Demuestra que para todo b en Rm , la ecuación Ax = b tiene
2 × 2 tal que AB sea igual a la matriz cero. Las columnas una solución. [Sugerencia: Piensa en la ecuación ADb = b.]
de B no deben ser iguales entre sí y deben ser distintas de Explica por qué A no puede tener más filas que columnas.
cero.
26. Supongamos que A es una matriz de orden m × n y
15. Sean r1 , . . . , r p vectores en Rn , y sea Q una matriz de que existen matrices n × m, C y D, tales que CA = In y
orden m × n. Escribe la matriz [ Qr1 . . . Qr p ] como un pro- AD = Im . Demuestra que m = n y C = D. [Sugerencia:
ducto de dos matrices sin usar una matriz identidad. Piensa en el producto CAD).]

Los ejercicios 16 y 17 tratan de matrices arbitrarias A, B 27. Supongamos que A es una matriz de orden 3 × n cuyas
y C para las cuales las sumas y productos indicados están columnas generan R3 . Explica cómo construir una matriz
definidos. Indica para cada una de las siguientes afirmacio- D de orden n × 3 tal que AD = I3 .
nes si es verdadera o falsa. Justifica tus respuestas.
En los ejercicios 28 y 29, considera los vectores en Rn
16. como matrices n × 1. Para u y v en Rn , el producto de ma-
trices u T v es una matriz 1 × 1, llamada producto escalar, o
(a) Si A y B son matrices de orden 2 × 2 con co- producto interno, de u y v. Por lo general, se escribe como un
lumnas a1 , a2 y b1 , b2 , respectivamente, entonces único número real sin paréntesis o corchetes. El producto
AB = [a1 b1 a2 b2 ]. de matrices uv T es una matriz de orden n × n, llamada
(b) Toda columna de AB es una combinación lineal de producto exterior de u y v.
las columnas de B usando como coeficientes los
elementos de la columna correspondiente de A.
   
−2 a
(c) AB + AC = A( B + C ) 28. Sean u =  3 y v = b . Calcula u T v, v T u, u v T ,
(d) A T + B T = ( A + B) T −4 c
v uT .
(e) La traspuesta de un producto de matrices es igual
al producto de sus traspuestas en el mismo orden.
29. Si u y v están en Rn , ¿qué relación hay entre u T v y v T u?
¿Y entre u v T y v u T ?
17.
(a) Si A y B son matrices 3 × 3 y B = [b1 b2 b3 ], enton- 30. Demuestra que Im A = A cuando A es una matriz de
ces AB = [ Ab1 + Ab2 + Ab3 ]. orden m × n. Puedes utilizar el hecho de que Im x = x para
todo x en Rm .
(b) La segunda fila de AB es la segunda fila de A mul-
tiplicada a la derecha por B.
31. Demuestra que AIn = A cuando A es una matriz de
(c) ( AB)C = ( AC ) B orden m × n. [Sugerencia: Usa la definición (de columnas)
(d) ( AB) T = A T B T del producto de matrices AIn .]
(e) La traspuesta de una suma de matrices es igual a la
suma de sus traspuestas. 32. Halla una fórmula para ( ABx) T , donde x es un vector
y A y B son matrices con los tamaños apropiados.
18. Si A = −12 −52 y AB = −1 2 −1
 
6 −9 3 , halla la primera y
0 1 0 0 0
 
la segunda columna de B.
0 0 1 0 0
33. Dada la matriz S = 0 0 0 1 0, calcula Sk
 
19. Supongamos que las dos primeras columnas de B son 0
iguales. ¿Qué puede decirse acerca de las columnas de AB 0 0 0 1
(suponiendo que este producto está definido)?. ¿Por qué? 0 0 0 0 0
para k = 2, . . . , 6.
20. Supongamos que la tercera columna de B es la suma de
00 5
 
las primeras dos columnas. ¿Qué puede decirse acerca de 1/6 1/3
la tercera columna de AB? ¿Por qué? 34. Dada la matriz A =  00 5 1/4 1/4, describe con
1/3 1/4 5/12
21. Supongamos que la segunda columna de B es toda cero. palabras qué pasa al calcular A5 , A10 , A20 y A30 .
¿Qué puede decirse acerca de la segunda columna de AB? (Para hacer con Mathematica en una práctica de ordenador.)

7
3.2. Matrices inversas 3. Matrices

3.2. Matrices inversas

Inversa por la derecha


inversa por la Se llama matriz inversa por la derecha de una matriz A a toda matriz C tal que AC = I. Si A
derecha tiene m filas y n columnas tal matriz C debe tener n filas por ser multiplicable por la derecha de
A y debe tener tantas columnas como el resultado del producto AC, que es Im , es decir, C tendrá
m columnas: toda inversa por la derecha de una matriz m × n es una matriz n × m.
Algunas matrices no tienen ninguna inversa por la derecha, pero hay matrices que tienen
muchas inversas por la derecha distintas.
Si una matriz A m × n tiene una inversa por la derecha, entonces todo sistema Ax = b será
compatible cualquiera que sea b ∈ Rm ya que, si C es una inversa por la derecha de A, al menos el
vector x = Cb será una solución (como se comprueba haciendo el cálculo Ax = ACb = Im b = b).
Por tanto:
Si una matriz A m × n tiene una inversa por la derecha, entonces las columnas de A generan Rm
(Col A = Rm ), la aplicación lineal T (x) = Ax es sobreyectiva, A tiene un pivote en cada fila y A no
puede tener más filas que columnas: m ≤ n.
Recíprocamente: Si A tiene un pivote en cada una de sus m filas, entonces A tiene al menos una
inversa por la derecha.
La razón de ello es que en ese caso las columnas de A generan Rm y por tanto, si e1 , . . . , em
son las columnas de la matriz identidad m × m, los m sistemas Ax = e1 , . . . , Ax = em son
compatibles. Eligiendo vectores c1 , . . . , cm que sean respectivas soluciones de dichos sistemas, la
matriz C = [c1 . . . cm ] verifica AC = I y por tanto es una inversa por la derecha de A.

Inversa por la izquierda


inversa por la Se llama matriz inversa por la izquierda de A a toda matriz B tal que BA = I. Si B es una
izquierda inversa por la izquierda de A entonces, evidentemente, A es una inversa por la derecha de B y si
A tiene m filas y n columnas, B será una matriz n × m.
Si una matriz A m × n tiene una inversa por la izquierda, el sistema homogéneo Ax = 0
tiene solución única (el vector 0 es la única solución porque para cualquier solución x, se cumple
x = Ix = BAx = B0 = 0). Como Ax = 0 tiene solución única, representa un sistema que no tiene
variables libres. Por tanto:
Si A tiene una inversa por la izquierda, las columnas de A son linelmente independientes, todo sistema
compatible de la forma Ax = b tiene solución única, la aplicación lineal T (x) = Ax es inyectiva, A tiene
un pivote en cada columna y A no puede tener menos filas que columnas: m ≥ n.
Recíprocamente: Si A tiene un pivote en cada columna entonces A tiene una inversa por la izquierda.
La razón de ello es que en ese caso, como toda matriz tiene el mismo número de pivotes
que su traspuesta, AT tiene un pivote en cada fila, lo que implica —por lo visto más arriba—
que tiene una inversa por la derecha. La traspuesta de esa inversa por la derecha de AT es una
inversa por la izquierda de A.

Matriz inversible e inversa de una matriz inversible


matriz inversible Una matriz A se llama inversible si tiene una inversa por la derecha y una inversa por la
izquierda. En tal caso, es un sencillo ejercicio de la propiedad asociativa del producto de matrices

8
3. Matrices 3.2. Matrices inversas

demostrar que la inversa por la izquierda es la misma matriz que la inversa por la derecha1
(llamándose entonces simplemente la matriz inversa de A). Por lo dicho antes, la matriz A es
necesariamente una matriz cuadrada (al igual que su inversa). Por tanto una matriz es inversible
si y sólo si existe una matriz B tal que

BA = I y AB = I.

Toda matriz inversible es una matriz cuadrada. La matriz inversa de A se denota por A−1 .
Se llama matriz singular a toda matriz cuadrada que no sea inversible. matriz singular

3.2.1 Ejercicio de tarea. Suponiendo que M es una inversa de A por la izquierda y que N es una
inversa de A por la derecha, demuestra:

(a) M = N.
(b) M y N tienen el mismo número de filas y columnas que la traspuesta de A.
(c) A es una matriz cuadrada.
(c) Por tener inversa por la derecha, A tiene un pivote en cada fila y por tener inversa por la izquierda lo tiene en cada columna.
Como AN es una matriz cuadrada: n o columnas de N = n o columnas de AN = n o filas de AN = n o filas de A.
(b) Como MA es una matriz cuadrada: n o filas de M = n o filas de MA = n o columnas de MA = n o columnas de A.
Solución: (a) M = MI = M ( AN ) = ( MA) N = I N = N.

3.2.2 Ejercicio de tarea. Demostrar que si A es una matriz cuadrada entonces basta que tenga una
inversa por un lado para que sea inversible.
Pista: Tener una inversa por la derecha es tener un pivote en cada fila. Tener un pivote en cada columna es tener inversa por la izquierda.

Propiedades de la inversa
 −1  −1
(b) ( AB)−1 = B−1 A−1 .
T
(a) A −1 = A. (c) AT = A −1 .

De la segunda de estas propiedades se deduce que el producto de varias matrices inversibles


de tamaño n × n es de nuevo una matriz inversible y su inversa es el producto de las inversas en
el orden opuesto:
 −1
A1 · · · A k = A− 1 −1
k · · · A1 .

Inversa de una matriz 2 × 2


Dada una matriz cuadrada de orden 2, A = ac db , consideremos la matriz B = −dc −ab que
 

se obtiene al intercambiar las posiciones de los elementos de la diagonal y cambiar de signo a los
otros dos. Esta matriz tiene la propiedad de que conmuta con A y que el producto de ambas es
un múltiplo de la identidad
         
d −b a b a b d −b ad − bc 0 1 0
= = = ( ad − bc) .
−c a c d c d −c a 0 ad − bc 0 1

De este cálculo se deduce que la matriz A tiene inversa si y sólo si ad − bc 6= 0, en cuyo caso la
inversa es   −1  
a b 1 d −b
= . (3.3)
c d ad − bc −c a

1 Si AC = Im y BA = In entonces C = ( BA)C = B( AC ) = B.

9
3.2. Matrices inversas 3. Matrices

Uso de la inversa en la resolución de sistemas


Para aquellos sistemas de ecuaciones lineales Ax = b en los que la matriz de coeficientes, A,
sea una matriz inversible existe automáticamente solución única y esa solución está dada por

x = A−1 b.

Evidentemente esto sólo se aplica a sistemas con el mismo número de ecuaciones que
incógnitas.
Los casos en los que esta fórmula para la solución tiene mayor utilidad son los de sistemas de
dos ecuaciones con dos incógnitas, en los cuales es muy sencillo ver si la matriz de coeficientes
tiene inversa y apenas es nada costoso el calcular la inversa.

Ejemplo: El sistema
3x1 + 4x2 = 3
5x1 + 6x2 = 7
tiene matriz de coeficientes inversible y su inversa es la matriz
  −1    
3 4 1 6 −4 1 −6 4
= =
5 6 18 − 20 −5 3 2 5 −3

por tanto la solución del sistema es:


      
x1 1 −6 4 3 5
= A −1 b = = .
x2 2 5 −3 7 −3

Las inversas de las matrices elementales


Toda matriz elemental tiene inversa y su inversa es otra matriz elemental: La correspondiente
a la operación elemental inversa. En consecuencia, es muy sencillo escribir la matriz inversa de
una matriz elemental.
Por ejemplo, la matriz E = 01 10 es la matriz elemental de la operación de intercambio de las


filas 1 y 2 en matrices de dos filas. Como la inversa de una matriz de intercambio es ella misma,
la inversa de E también es ella misma:
 
−1 0 1
E = .
1 0

La matriz  
1 0 0
E = 0 1 λ
0 0 1
es la matriz elemental de la operación de reemplazo en matrices de tres filas que consiste en
sumar a la fila 2 la fila 3 multiplicada por λ, por tanto su matriz inversa es la que corresponde a
la operación de reemplazo que consiste en restar a la fila 2 la fila 3 multiplicada por λ, es decir:
 
1 0 0
E −1 =  0 1 −λ .
0 0 1

Finalmente, una matriz elemental que corresponda a una operación de reescalado tal como
“multiplicar la segunda fila por k” tiene por inversa la que corresponde a la operación de

10
3. Matrices 3.2. Matrices inversas

reescalado de “multiplicar la segunda fila por 1k ”, por tanto, poniendo como ejemplo las matrices
de operaciones elementales sobre matrices de tres filas:
  −1  
1 0 0 1 0 0
0 k 0 = 0 1
k 0 .
0 0 1 0 0 1

Las inversas de las matrices diagonales

Una matriz diagonal todos cuyos elementos diagonales sean distintos de cero es igual a un
producto de matrices elementales de reescalado porque es el resultado de realizar reescalados de
filas en una matriz identidad. En consecuencia, la inversa de una matriz diagonal todos cuyos
elementos diagonales sean distintos de cero es otra matriz diagonal cuyos elementos diagonales
son los inversos de los de la matriz original.
Por ejemplo,
  −1 1 
3 0 0 3 0 0
−2 =  0 − 12
0 0 0
 
 
1
0 0 5 0 0 5

En general, si d1 , . . . , dn son todos distintos de cero,


 −1  1 
0 ... 0

d1 0 ... 0 d
 .. .. ..  1 .. .. ..
 0 . . .
 =

0 . . .


..  . .
.. .. .. ..
 ..
 
. . . 0 . . 0
  
0 ... 0 dn 1
0 ... 0 dn

3.2.3 Ejercicio de tarea. Explica por qué una matriz diagonal que tenga alguno de los elementos de la
diagonal igual a cero no es inversible.
Sugerencia: ¿Cumple la condición de tener inversa por la derecha? ¿Por qué esa consideración es suficiente?

Algoritmo para averiguar si una matriz es inversible y calcular su inversa

TEOREMA 3.2.1

Una matriz cuadrada A es inversible si y sólo si es equivalente por filas a la correspondiente matriz
identidad. En ese caso, cualquier sucesión de operaciones elementales de filas que reducen A a la identidad
I también reducen I a la inversa de A.

Demostración: Cada paso de la reducción corresponde a la multiplicación por la izquierda por


una matriz elemental:

A ∼ E1 A ∼ E2 E1 A ∼ · · · ∼ E p ( E p−1 · · · E1 ) A = I

por tanto ( E p · · · E1 ) A = I, lo que significa que A es inversible y su inversa es ese producto de


matrices elementales:
A−1 = E p · · · E1 .

11
3.2. Matrices inversas 3. Matrices

COROLARIO 3.2.1

Sea A una matriz cuadrada. Si A es inversible entonces su forma escalonada reducida es la matriz
identidad del mismo tamaño que A y la forma escalonada reducida de ( A| I ) es ( I | A−1 ). Recíprocamente,
si la forma escalonada reducida de ( A| I ) es ( I | M ) entonces A es inversible y A−1 = M.

De esto se deduce que la forma escalonada reducida de la matriz por bloques formada por
una fila de dos bloques en la que el primero es la matriz A y el segundo la matriz identidad, es
la que tiene como primer bloque la identidad y segundo la inversa de A:
( A | I ) ∼ · · · ∼ ( I | A −1 )
En otras palabras: Las mismas operaciones elementales que transforman una matriz inversible en la
matriz identidad, transforman la matriz identidad en la inversa de la matriz.

Cómo calcular solamente una columna (o fila) particular de la matriz inversa. Para calcular
la columna j de A−1 basta resolver el sistema
Ax = e j
donde e j es la columna j de la matriz identidad. En consecuencia, otra forma de calcular la
matriz inversa de una matriz inversible A de n filas y n columnas es resolver cada uno de los
siguientes n sistemas de ecuaciones:
Ax = e1 , . . . , Ax = en .
 −1
Para calcular la fila i de A−1 basta calcular la columna i de AT , para lo cual, según lo
dicho antes, basta resolver el sistema
AT x = e i .

Caracterizaciones de las matrices inversibles

TEOREMA 3.2.2

Teorema de la matriz inversible


Una matriz cuadrada A de orden n es una matriz inversible si y sólo si se cumple cualquiera de las
siguientes condiciones:

(a) A tiene una inversa por la derecha.


(b) A tiene una inversa por la izquierda.
(c) El sistema homogéneo representado por la ecuación Ax = 0 es determinado (no tiene más solución
que la trivial).
(d) A tiene n columnas pivote (tantos pivotes como columnas).
(e) La forma escalonada reducida de A es la matriz identidad de orden n.
(f) Para todo b ∈ Rn el sistema representado por la ecuación Ax = b es compatible.
(g) Las columnas de A generan Rn .
(h) AT es una matriz inversible.

Aplicaciones lineales inversibles


Se llama aplicación inversible a toda aplicación f : A → B tal que existe una aplicación
g : B → A tal que
f ◦ g = 1B y g ◦ f = 1A.

12
3. Matrices 3.2. Matrices inversas

En general, una aplicación es inversible si y sólo si es biyectiva, es decir inyectiva y sobreyec-


tiva.
Si una aplicación lineal T : Rn → Rm es inyectiva entonces el sistema correspondiente a la
ecuación T (x) = 0 tiene solución única x = 0 y esto implica que la matriz canónica de T tiene
una inversa por la izquierda. Si, además, T es sobreyectiva entonces para todo b ∈ Rm el sistema
correspondiente a la ecuación T (x) = b es compatible, lo que implica que la matriz canónica de
T tiene una inversa por la derecha. En consecuencia, si T es una aplicación lineal biyectiva su
matriz canónica es inversible.

Enlaces a los ejercicios de tarea de esta sección


Usa los siguientes enlaces para visualizar cada uno de los ejercicios de tarea que aparecen en
esta sección:
Enlaces: Ejercicio 1, Ejercicio 2, Ejercicio 3.

Ejercicios sección 3.2

 
1 2 (a) Halla A−1 y utilízala para resolver las cuatro ecua-
1. Sea A =  1 3 . Construye una matriz C de 2 × 3 ciones
1 5
Ax = b1 , Ax = b2 , Ax = b3 , Ax = b4
(mediante ensayo y error) usando sólo los números 1, −1 y
0 como elementos, de tal forma que CA = I2 . Calcula AC y (b) Las cuatro ecuaciones del apartado (a) pueden re-
observa que AC 6= I3 . solverse con el mismo conjunto de operaciones de
fila, puesto que la matriz de coeficientes es la mis-
  ma en cada caso. Resuelve las cuatro ecuaciones del
1 1 1 0 apartado (a) reduciendo por filas la matriz ampliada
2. Sea A = . Construye una matriz D de
0 1 1 1 [ A b1 b2 b3 b4 ] para hallar su forma escalonada
4 × 2 usando sólo los números 1 y 0 como elementos, de tal reducida.
forma que AD = I2 . ¿Es posible que CA = I4 para alguna
matriz C de orden 4 × 2?. ¿Por qué sí o por qué no?.
10. Usa el álgebra de matrices para mostrar que si A es
inversible y D satisface AD = I, entonces D = A−1 .
En los ejercicios 3 a 6 halla las inversas de las matrices
dadas.
En los ejercicios 11 y 12, indica para cada afirmación si

8 6
 
3 2
 es verdadera o falsa. Justifica tus respuestas.
3. . 4. .
5 4 7 4
    11.
8 5 3 −4
5. . 6. .
−7 −5 7 −8 (a) Para que una matriz B sea inversa de A, ambas
ecuaciones AB = I y BA = I deben ser ciertas.
(b) Si A y B son matrices n × n inversibles, entonces
7. Usa la inversa de la matriz del ejercicio 3 para resolver el
A−1 B−1 es la inversa de AB.
sistema  
a b
8x1 + 6x2 = 2 (c) Si A = , y ab − cd = 0, entonces A es
c d
5x1 + 4x2 = −1 inversible.
(d) Si A es una matriz inversible n × n, entonces la ecua-
ción A x = b es compatible para toda b en Rn .
8. Usa la inversa de la matriz del ejercicio 5 para resolver el
sistema (e) Toda matriz elemental es inversible.
8x1 + 5x2 = −9
12.
−7x2 − 5x2 = 11
(a) Un producto de matrices n × n inversibles es inver-
      sible, y la inversa del producto es el producto de sus
1 2 −1 1
9. Sean A = , b1 = , b2 = , inversas en el mismo orden.
5 12 3 −5
(b) Si A es inversible, entonces la inversa de A−1 es la
   
2 3
b3 = , b4 = . propia A.
6 5

13
3.2. Matrices inversas 3. Matrices

 
a b 24. Explica por qué las columnas de una matriz A de orden
(c) Si A = , y ad = bc, entonces A no es in-
c d n × n generan Rn cuando A es inversible.
versible.
(d) Si A se puede reducir por filas a la matriz identidad, 25. Supongamos que A es n × n y que la ecuación A x = 0
entonces A es inversible. tiene solamente la solución trivial. Explica por qué A tiene n
(e) Si A es una matriz inversible n × n, entonces las columnas pivote y es equivalente por filas a In . Observación:
operaciones elementales de filas que reducen A a la Esto implica que A debe ser inversible.
identidad In también reducen A−1 a In .
26. Supongamos que para una matriz cuadrada A de orden
13. Sea A una matriz inversible de n × n y sea B una matriz n la ecuación Ax = b tiene una solución para todo b en Rn .
n × p. Demuestra que la ecuación AX = B tiene una única Explica por qué A debe ser inversible.
solución A−1 B.
Sugerencia: Piensa si A es equivalente por filas a In

14. Sea A una matriz inversible n × n, y sea B una matriz


n × p. Explica por qué A−1 B puede calcularse mediante Los ejercicios 27 y 28 demuestran el teorema que dice:
reducción por filas: 
a b

Si A = entonces A es inversible sólo si ad −
Si [ A B] ∼ · · · ∼ [ I X ] entonces X = A−1 B c d
bc 6= 0 y en ese caso su inversa es
Observación: Si A tiene orden más grande que 2 × 2, enton- 1

d −b

ces la reducción por filas de [ A B] es mucho más rápida A −1 = .
ad − bc −c a
(requiere menos operaciones) que calcular A−1 y luego el
producto A−1 B.
27. Demuestra que si ad − bc = 0, entonces la ecuación
Ax = 0 tiene más de una solución. ¿Por qué implica esto
15. Supongamos que AB = AC, donde B y C son matrices
que A no es inversible?
n × p y A es inversible. Demuestra que B = C. ¿Es esto
cierto en general si A no es inversible? Sugerencia: Primero, considera el caso a = b = 0. Después,
 
−b
si a y b no son ambos cero, considera el vector x = .
a
16. Supongamos ( B − C ) D = 0, donde B y C son matrices
m × n y D es inversible. Demuestra que B = C.
28. Demuestra que si ad − bc 6= 0, la fórmula para A−1 es
17. Supongamos que A, B y C son matrices inversibles n × n. correcta.
Demuestra que ABC también es inversible construyendo
una matriz D tal que ( ABC ) D = I y D ( ABC ) = I. Halla las inversas de las matrices dadas en los ejercicios
29 a 32, caso de que existan. Usa el algoritmo explicado en
18. Supongamos que A y B son matrices n × n, y que AB clase consistente en hallar la forma escalonada reducida de
es inversible. Demuestra que A y B son inversibles. la matriz ampliada [ A I ].
Sugerencia: Pon C = AB deduce qué se debe multiplicar a    
1 2 5 10
derecha/izquierda de C −1 para obtener las inversas reque- 29. 30.
4 7 4 7
ridas y luego demuestra que efectivamente son las inversas
requeridas...
   
1 0 −2 1 −2 1
31. −3
 1 4  32.  4 −7 3
19. Despeja A en la ecuación AB = BC suponiendo que A, 2 −3 4 −2 6 −4
B y C son cuadradas y que B es inversible.
33. Usa el algoritmo explicado en clase para hallar las in-
20. Supongamos que P es inversible y A = PBP−1 . Halla B versas de
en términos de A.  
  1 0 0 0
1 0 0
 1 1 0  y  1 1 0 0 .
 
21. Si A, B y C son matrices inversibles n × n, la ecuación 1 1 1 0
C −1 ( A + X ) B−1 = In ¿tiene alguna solución para X? Si es 1 1 1
1 1 1 1
así, hállala.
Para cada una de las inversas halladas verifica que efectiva-
mente es la inversa comprobando que cumple AB = I.
22. Supongamos que A, B y X son matrices n × n con A, X,
y A − AX inversibles, y supongamos que  
−2 −7 −9
( A − AX )−1 = X −1 B (3.4)
34. Sea A =  2 5 6 . Halla la tercera columna
(a) Explica por qué B es inversible. 1 3 4
(b) Resuelve la ecuación (3.4) en X. Si es necesario usar de A−1 sin calcular las otras columnas.
la inversa de una matriz, explique por qué dicha
matriz es inversible. 35. Si existe, halla la inversa de la matriz
 
1 −2 −1
23. Explica por qué las columnas de una matriz A de n × n A =  −1 5 6 .
son linealmente independientes cuando A es inversible. 5 −4 5

14
3. Matrices 3.3. Matrices por bloques

3.3. Matrices por bloques


En la introducción de matrices como tablas de números que representaban sistemas de
ecuaciones y en el método de las operaciones elementales para su resolución predominaba la
idea de matriz como conjunto de filas, una para cada ecuación. Por otra parte, la definición del
producto de matrices y de la matriz traspuesta se ha basado en considerar una matriz como un
conjunto ordenado de columnas y no simplemente como un rectángulo de números. En otras
palabras, hemos estado considerando una matriz como una fila de matrices columna. Esto se
podría llamar “una descomposición de una matriz en bloques-columna”. En esta sección vamos
a ver que la descomposición de las matrices en otros tipos de bloques puede ser enormemente
útil. En general, podemos partir tanto las filas como las columnas de una matriz m × n, A, para
obtener una descomposición de A en submatrices A I J , donde I = 1, 2, . . . , p y J = 1, 2, . . . , q:
 
A11 A12 ... A1q m1
 A21 A22 ... A2q  m2
A=
 
 .. .. ..  ..
 . . .  .
A p1 A p2 ... A pq mp
n1 n2 ... nq

donde la submatriz A I J tiene m I filas y n J columnas, es decir tamaño m I × n J .


Esta descomposición se llama descomposición por bloques de la matriz A. Los números m1 ,
m2 , . . . , m p y n1 , n2 , . . . , nq que indican los tamaños de los bloques verifican, evidentemente, que

m1 + m2 + · · · + m p = m y n1 + n2 + . . . nq = n.

La submatriz A I J es el bloque I J de esta descomposición por bloques de A.

Operaciones con matrices por bloques


Lo interesante de operar con matrices por bloques es que podemos actuar como si cada
bloque fuese un número. Entonces las operaciones con matrices por bloques se reducen a las
operaciones con matrices que ya conocemos, excepto que hay que asegurarse de que cuando
vayamos a sumar o multiplicar dos bloques sus tamaños sean compatibles para la operación que
queremos realizar.

Multiplicación por escalares El caso de multiplicación de una matriz por bloques por un
escalar no ofrece dificultad ya que todo bloque, independientemente de su tamaño, se puede
multiplicar por cualquier número.

Suma de matrices por bloques Para poder sumar dos matrices por bloques, es necesario no
sólo que sean matrices del mismo tamaño sino también que estén divididas en bloques de la
misma forma de tal manera que bloques correspondientes sean del mismo tamaño y se puedan
sumar.

Producto de matrices por bloques Para hallar el producto AB de dos matrices por bloques se
puede usar la regla usual de “fila por columna” siempre que el número de bloques en cada “fila
de bloques” de A sea igual al número de bloques en cada “columna de bloques” de B y además

15
3.3. Matrices por bloques 3. Matrices

que los bloques en esa fila de bloques de A sean compatibles para multiplicación por los bloques
de la columna de bloques de B.
Una de las consecuencias de la multiplicación de matrices por bloques es la siguiente
alternativa a la regla “fila por columna” para la multiplicación de matrices:

Regla columna por fila: Sean a1 , . . . , an las columnas de A y sean b1 , . . . , bn las filas de B.
Entonces el producto matricial a1 b1 es una matriz con tantas filas como A y tantas columnas
como B. Lo mismo ocurre con los demás productos ai bi y el producto de matrices AB es igual a
la suma:
AB = a1 b1 + · · · + an bn

Ejemplo. Sea
 
A1 A2
A=
A3 A4

una matriz cuadrada de orden 2n descompuesta en cuatro bloques n × n, A1 , A2 , A3 , A4 . Se trata


de encontrar una matriz
 
P1 P2
P=
P3 P4

con P1 , P2 , P3 , P4 bloques n × n, verificando que el producto PA intercambie la primera y la


segunda fila de bloques de la matriz A, es decir, tal que
 
A3 A4
PA = .
A1 A2

Dado que el intercambio de filas es una operación elemental, basta realizar esta operación
sobre la matriz identidad por bloques:
   
I 0 0 I
, P=
0 I I 0

Efectuando el producto PA por bloques obtenemos

P1 A1 + P2 A3 = 0A1 + I A3 = A3
P1 A2 + P2 A4 = 0A2 + I A4 = A4
P3 A1 + P4 A3 = I A1 + 0A3 = A1
P3 A2 + P4 A4 = I A2 + 0A4 = A2

y se verifica lo pedido.

3.3.1 Ejercicio de tarea. En las condiciones del ejemplo anterior hállense:

(a) Una matriz P tal que PA sea igual al resultado de multiplicar la primera fila de bloques de
A por la izquierda por una matriz inversible X de orden n.
(b) Una matriz P tal que PA sea igual al resultado de sumar a la segunda fila de bloques de
A la primera fila de bloques multiplicada por la izquierda por una matriz cuadrada X de
orden n.

16
3. Matrices 3.3. Matrices por bloques

Inversa de una matriz por bloques


En general no es sencillo calcular la inversa de una matriz por bloques realizando solamente
operaciones por bloques, pero hay un caso especial en el que sí es posible: Es el caso de una
matriz partida en 2 × 2 bloques, que sea triangular por bloques y tal que los bloques en la
diagonal sean cuadrados.
Sean A y C matrices cuadradas (no necesariamente del mismo tamaño) y sea B una matriz
con el mismo número de filas que A y el mismo número de columnas que C, de forma que se
puede formar la matriz por bloques A0 CB , que resulta ser una matriz cuadrada. Entonces
 −1
A −1 − A−1 BC −1
  
A B
= . (3.5)
0 C 0 C −1

Es sencillo demostrar la fórmula (3.5) por medio de la multiplicación directa, es decir,


calculando el producto  −1
− A−1 BC −1
 
A A B
.
0 C −1 0 C

3.3.2 Ejercicio de tarea. Usando las propiedades de la traspuesta deduce la siguiente fórmula a partir
de (3.5):
 −1 
A −1
 
A 0 0
= . (3.6)
B C −C −1 BA−1 C −1

3.3.3 Ejercicio de tarea. Usa las fórmulas (3.5) y (3.6) según convenga para calcular la siguiente matriz
inversa:   −1
1 2 −2 0 0
3 7 3 0 0
 
0 0 1 0 0
  .
1 2 −1 2 1
3 2 5 3 2
−27 8 −91 −3 2
 13 −4 45 2 −1
Solución: 
 0 0 1 0 0
 −3 1 −9 0 0
 
7 −2 20 0 0
 

Enlaces a los ejercicios de tarea de esta sección


Usa los siguientes enlaces para visualizar cada uno de los ejercicios de tarea que aparecen en
esta sección:
Enlaces: Ejercicio 1, Ejercicio 2, Ejercicio 3.

Ejercicios sección 3.3

     
En los ejercicios siguientes en los que aparezcan pro- 0 I A B I 0 W X
3. . 4. .
ductos de matrices por bloques, se debe suponer que las I 0 C D −E I Y Z
matrices están partidas en bloques conformes para la mul-
tiplicación por bloques. En los ejercicios 5 a 8 halla fórmulas para X, Y y Z en
Calcula los productos indicados en los ejercicios 1 a 4. términos de A, B y C.

          
I 0 A B E 0 P Q A B I 0 0 I
1. . 2. . 5. = .
E I C D 0 F R S C 0 X Y Z 0

17
3.4. Factorización LU 3. Matrices

    
X 0 A 0 I 0 11.
6. = .
Y Z B C 0 I  
A1
(a) Sean A1 , A2 , B1 , y B2 matrices n × n y A = ,
A2
 
B = B1 B2 . Entonces el producto BA está defi-

A B

A B
 
I 0
 nido pero el producto AB no lo está.
7. = .
C D C D 0 I
 
P Q
(b) La transpuesta de la matriz A = es la
R S
 
T
P Q T
matriz AT = .

A B

X Y Z
 
I 0 0
 RT ST
8. = .
0 I 0 0 I 0 0 I
 
B 0
12. Sea A = donde B y C son matrices cuadradas.
0 C
9. Sabiendo que Demuestra que A es inversible si y sólo si tanto B como
    C son inversibles.
I 0 0 I 0 0
la inversa de A I 0 es P I 0 , 13.
B D I Q R I 
1 0

(a) Comprueba que si A = entonces A2 = I.
halla P, Q y R. 2 −1
(b) Usa el producto de matrices por bloques para
En los ejercicios 10 y 11 indica para cada enunciado si
demostrar que M2 = I siendo
es verdadero o falso.
 
1 0 0 0
2 −1 0 0
M= 1 0 −1 0 .

10.
0 1 −2 1
   
(a) Si A = A1 A2 y B = B1 B2 con A1 y A2
de los mismos tamaños
  B1 y B2 ,
respectivos que
entonces A + B = A1 + B1 A2 + B2 .
1 1 0 0 0
 
   
A11 A12 B1 3 5 0 0 0
(b) Si A = y B = entonces las
A21 A22 B2 14. Calcula la inversa de A = 0 0 2 0 0.
 
0 0 0 7 8
particiones de A y B son conformes para la multi-
plicación por bloques. 0 0 0 5 6

3.4. Factorización LU
Supongamos que necesitamos resolver varios sistemas de ecuaciones que tienen la misma
matriz de coeficientes A y sólo se diferencian en los términos independientes. Si se conocen dos
Una matriz se matrices L, U tales que L es una matriz unitriangular inferior, es decir, triangular inferior con unos
llama en la diagonal, U es una matriz escalonada y son tales que LU = A, entonces el sistema Ax = b
unitriangular si
es una matriz
o L(Ux) = b se puede resolver en dos pasos muy sencillos: Primero resolvemos el sistema
triangular y
todos los Ly = b
elementos de
su diagonal y después el sistema
son iguales a 1. Ux = y.
Una descomposición de una matriz, A = LU, como producto de dos matrices como las descritas
se conoce como una factorización LU (o factorización “Lower-Upper") de A (leído: « factorización
“L”-“U” »).

Existencia y unicidad
No toda matriz admite una factorización LU, pero, como se verá más abajo, una matriz A
la admitirá siempre que sea posible obtener una forma escalonada de A sin realizar operaciones
elementales de intercambio de filas (ni, evidentemente, operaciones de reemplazo que se puedan
combinar para conseguir un intercambio de filas). Esta condición excluye las operaciones de
reemplazo “regresivas” en que se suma un múltiplo de una fila a otra fila anterior ya que
combinando tales operaciones con operaciones de reemplazo “progresivas” es posible conseguir

18
3. Matrices 3.4. Factorización LU

un intercambio de filas). En otras palabras: La matriz A admite una factorización LU si se puede


poner A en forma escalonada utilizando únicamente operaciones de reemplazo progresivas (sumar
un múltplo de una fila a otra posterior a ella.
Recíprocamente, si A admite una factorización LU, entonces es evidente que L, por ser una
matriz triangular inferior, se puede poner en forma escalonada utilizando únicamente operaciones
de reemplazo progresivas (¡obteniéndose una matriz identidad!). Esas operaciones transformarán
A en U y por tanto A se puede poner en forma escalonada utilizando únicamente operaciones
de reemplazo progresivas. En consecuencia:

PROPOSICIÓN 3.4.1

Existencia de la factorización LU.


La factorización LU de una matriz A existe si y sólo si A se puede poner en forma escalonada utilizando
únicamente operaciones elementales de reemplazo progresivas (sumar un múltplo de una fila a otra
posterior a ella).

En general, la factorización LU de una matriz no es única, como muestra el siguiente ejemplo.


Sean      
1 0 0 1 0 0 1 2
L1 = 2 1 0 , L2 = 2 1 0 , U = 0 0 .
3 0 1 3 1 1 0 0
Evidentemente L1 y U constituyen una factorización LU de su producto L1 U e igualmente L2 y
U constituyen una factorización LU de su producto L2 U. Por otra parte, es fácil comprobar que
L1 U = L2 U, por consiguiente tenemos aquí dos factorizaciones LU de la misma matriz.
La razón por la que falla la unicidad en el caso anterior es que la matriz A tiene rango menor
que el número de filas menos 1. En el caso de matrices cuadradas inversibles es fácil demostrar
que la factorización LU sí es única:

PROPOSICIÓN 3.4.2

Unicidad de la factorización LU para matrices cuadradas inversibles.


Si A es una matriz cuadrada inversible que admite factorización LU, ésta es única.

3.4.1 Ejercicio de tarea. Demostrar la proposición anterior.


Pista: L2−1 L1 = U2 U1−1 implica, por la forma de las L y de las U, L2−1 L1 = I = U2 U1−1 .

Algoritmo de la factorización LU

(a) Se reduce A a una forma escalonada, U, mediante una sucesión de operaciones de reem-
plazo progresivas si es posible. Si no es posible, la matriz A no tiene factorización LU.

(b) Se colocan los elementos bajo la diagonal de unos de L de forma que la misma sucesión de
operaciones elementales reduzcan L a la matriz identidad.

Entonces
( E p · · · E1 ) A = U y ( E p · · · E1 ) L = I.
De aquí se deduce
A = ( E p · · · E1 )−1 U = LU.

19
3.4. Factorización LU 3. Matrices

Ejemplo

En este ejemplo usaremos un método abreviado para calcular la matriz L de la factorización


LU de la matriz  
2 4 −1 5 −2
 −4 −5 3 −8 1
A=  2 −5 −4
.
1 8
−6 0 7 −3 1

La primera columna de L es la primera columna pivote de A dividida por el primer elemento:


 
1 0 0 0
 −2 1 0 0
L= 1
.
1 0
−3 1

Claramente, las operaciones elementales que produzcan ceros en la primera columna de A


también producirán ceros en la primera columna de L. Ahora intentamos hallar una forma
escalonada de A utilizando solamente operaciones de reemplazo. Después de crear ceros en la
primera columna, el problema ha sido reducido a uno con una fila y una columna menos:
   
2 4 −1 5 −2 2 4 −1 5 −2
 −4 −5 3 −8 1 2 −3
 ∼ 0 3 1

A=  2 −5 −4
,
1 8 0 −9 −3 −4 10
−6 0 7 −3 1 0 12 4 12 −5
 
    1 0 0 0
3 1 2 −3 1 0 0  −2 1 0 0
A 0 =  −9 −3 −4 10 de donde L 0 =  −3 1 0 y L=
 .
1 −3 1 0
12 4 12 −5 4 1
−3 4 1
En el siguiente paso realizamos en A0 las operaciones elementales F2 + 3F1 y F3 − 4F1 :
   
3 1 2 −3 3 1 2 −3
A0 = −9 −3 −4 10 ∼ 0 0 2 1
12 4 12 −5 0 0 4 7
 
    1 0 0 0
2 1 1 0  −2 1 0 0
A00 = de donde L00 = y L= 
4 7 2 1  1 −3 1 0
−3 4 2 1

y, puesto que A00 = 21 21


 
47 ∼ 05 , tenemos:

−1 −2 −1 −2
   
2 4 5 2 4 5
 −4 −5 3 −8 1 0 3 1 2 −3
A=
2 −5 −4 1 8
∼ 0 0 0 2 1
= U.
−6 0 7 −3 1 0 0 0 0 5

¡Atención! Cuidado con este error.– Obsérvese que si sobre la matriz A0 hubiésemos realizado
las operaciones elementales F3 + 43 F2 y F2 + 3F1 hubiésemos obtenido
   
3 1 2 −3 3 1 2 −3
A 0 =  −9 −3 −4 10 ∼ 0 0 2 1
12 4 12 −5 20 25
0 0 3 3

20
3. Matrices 3.4. Factorización LU

 
    1 0 0 0
2 1 1 0  −2 1 0 0
A00 = 20 25 de donde L00 = 10 y L= 
3 3 3 1  1 −3 1 0
10
−3 4 3 1
que es una matriz L errónea. Esto nos enseña que para usar este método simplificado para hallar
la matriz L es esencial realizar operaciones de reemplazo basadas en el elemento pivote.

Enlaces a los ejercicios de tarea de esta sección


Usa los siguientes enlaces para visualizar cada uno de los ejercicios de tarea que aparecen en
esta sección:
Enlaces: Ejercicio 1.

Ejercicios sección 3.4

   
En los ejercicios ejercicios 1 a 6, resuelve la ecuación 1 3 2 0 1
 −2 −3 −4 12  −2
Ax = b usando la factorización LU dada para A. En los

6. A = 
 ,b= 

ejercicios 1 y 2 resuelve Ax = b también por el método 3 0 4 −36 −1
usual de reducción. −5 −3 −8 49 2
  
    1 0 0 0 1 3 2 0
3 −7 −2 −7  −2 1 0 0 0 3 0 12

1. A = −3 5 1, b =  5 A=  3 −3

1 0 0 0 −2 0
6 −4 0 2 −5 4 −1 1 0 0 0 1
  
1 0 0 3 −7 −2 En los ejercicios 7 a 16 halla un factorización LU de la
A =  −1 1 0 0 −2 −1 matriz dada.
2 −5 1 0 0 −1
   
2 5 6 4
7. 8.
   
2 −6 4 2 −3 4 12 5
2. A = −4 8 0, b =  −4
0 −4 6 6
   
3 1 2 −5 0 4

1 0 0

2 −6 4
 9. −9 0 −4 10.  10 2 −5
A =  −2 1 0 0 −4 8 9 9 14 10 10 16
0 1 1 0 0 −2    
3 7 2 2 3 2
    11.  6 19 4 12.  4 13 9
2 −4 2 6
−3 −2 3 −6 5 4
3. A = −4 5 2, b = 0
6 −9 1 6 
1 3 −5 −3
 
1 3 1 5


1 0 0

2 −4 2
  −1 −5 8 4  5 20 6 31
13. 
  14. 
 
A =  −2 1 0 0 −3 6 4 2 −5 −7 −2 −1 −1 −4
3 −1 1 0 0 1 −2 −4 7 5 −1 7 1 7
 
2 0 5 2 2 −3 4
     
1 −1 2 0 15. 16.
4. A = 1 −3 1, b =  −5  −6 3 −13 −3  −4 8 −7
4 9 16 17  6 −5 14
 
3 7 5 7  −6
   9 −12
1 0 0 1 −1 2 8 −6 19
A = 1 1 0 0 −2 −1
3 −5 1 0 0 −6

1 −2 −2 −3
  
1 17. Para calcular la inversa de una matriz inversible A, el
 3 −9 0 −9 programa MATLAB calcula primero una factorización
, b = 6
 
5. A = 
 −1 A = LU, luego halla las inversas de L y U y finalmente
2 4 7 0
−3 −6 26 2 3 calcula U −1 L−1 . Usa este método para calcular la inversa
   de la matriz A del ejercicio 2.
1 0 0 0 1 −2 −2 −3
 3 1 0 0 0 −3
  6 0
A=  −1

0 1 0 0 0 2 4 18. Usa el método del ejercicio anterior para calcular la in-
−3 4 −2 1 0 0 0 1 versa de la matriz A del ejercicio 3.

21
3.4. Factorización LU 3. Matrices

19. Sea A una matriz triangular inferior n × n cuyos elemen- 20. Supón que A tiene una factorización LU, A = LU. Ex-
tos de la diagonal son todos no nulos. Demuestra que plica por qué A puede reducirse a U usando solamente
A es inversible y que su inversa también es triangular operaciones de reemplazo progresivas.
inferior.
Sugerencia: Piensa por qué A puede reducirse a I usando sola-
mente operaciones de reescalado y de reemplazo progresivas.
¿Cuáles son las posiciones pivote? Explica por qué las mismas
operaciones de fila que reducen A a I transforman I en una ma-
triz triangular inferior.

22

También podría gustarte