Introducción al Álgebra de Matrices
Introducción al Álgebra de Matrices
En este capítulo estudiaremos la base del lenguaje del álgebra lineal: las matrices. Ellas son arreglos
rectangulares de números reales (aunque puede permitirse el uso de otros conjuntos numéricos, como
el conjunto C de los números complejos), que guardan información de distintos objetos estudiados en
álgebra lineal. Ya hemos visto por ejemplo que un sistema de ecuaciones puede representarse en términos
de su matriz asociada y su matriz ampliada, pero además, esas matrices guardan mucha información
sobre el sistema, ya que la relación entre sus rangos determina si dicho sistema es compatible. Las
matrices también aparecerán en otras áreas de estudio del álgebra lineal, como la geometría en el espacio
y en la teoría de espacios vectoriales y transformaciones lineales.
Definición 2.1
Nos decantaremos por la última notación, cuando ya el número de filas y columnas estén
sobreentendidos.
21
El conjunto de todas las matrices de m filas y n columnas con coeficientes en R será denotado por
Mmˆn pRq.
A “ B,
En otras palabras, dos matrices (de la misma dimensión) son iguales si coinciden coeficiente a coeficiente.
Ejemplo 11.
1. Las matrices ˆ ˙ ˆ ? ˙
8 1 fi 4 ´ 2
A“ y B“ .
´2 1{2 8 1{3 0
no son iguales, por tener tamaños diferentes.
2. Las matrices ` ˘ ` ˘
A“ 1 2 3 y B“ 3 1 2
son diferentes aunque sus coeficientes tomen todos los valores en el conjunto t1, 2, 3u.
3. Las matrices ¨ ˛ ¨ ˛
1 ´1 20 1 ´1 20
A“˝ 3 0 ´5 ‚ y B “ ˝ ´5 0 ´5 ‚
2 7 ´4 2 7 ´4
no son iguales, porque no coinciden en el coeficiente p2, 1q (a pesar de sí hacerlo en el resto de los
coeficientes).
22
Definición 2.2
Dadas dos matrices A “ paij q, B “ pbij q P Mmˆn pRq, se define su suma como la matriz A ` B P
Mmˆn pRq dada por
A ` B :“ paij ` bij q.
Es decir, para sumar dos matrices (del mismo tamaño), debemos sumar coeficiente-a-coeficiente.
se obtiene ˆ ˙ ˆ ˙
3 ` 11 ´1 ´ 7 8`1 14 ´8 9
A`B “ “ .
1`5 0´2 5`3 6 ´2 8
La suma de matrices toma dos elementos en Mmˆn pRq y le asocia un elemento en ese mismo conjunto.
Esto se conoce como operación binaria, y suele denotarse como
Probemos en el siguiente resultado las propiedades de la suma, las cuales se heredan de las propiedades
homónimas en R.
A ` B “ B ` A.
pA ` Bq ` C “ A ` pB ` Cq.
[existencia del elemento neutro]: Existe una única matriz 0mˆn P Mmˆn pRq tal que
A ` 0mˆn “ A
Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices,
por lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq. Por otro lado, en las
demostraciones donde se pide probar la unicidad de un elemento x que satisface cierta propiedad P , se
asume la existencia de otro elemento x1 que también satisface P , y se demuestra que x “ x1 .
23
Demostración: Demostramos las propiedades en el orden que se enuncian.
Consideremos A “ paij q y B “ pbij q. Luego, como la suma en R es conmutativa, se tiene
A ` B “ paij q ` pbij q “ paij ` bij q “ pbij ` aij q “ pbij q ` paij q “ B ` A.
es decir, 0ij “ 0 P R para todo i P t1, 2, . . . , mu y j P t1, 2, . . . , nu. Luego, por la propiedad del
elemento neutro en R, se tiene para cualquier A “ paij q P Mmˆn pRq que
A ` 0mˆn “ paij ` 0ij q “ paij ` 0q “ paij q “ A.
Ahora probemos la unicidad de 0mˆn . Supongamos que existe 01 P Mmˆn pRq tal que
A ` 01 “ A
para toda A P Mmˆn pRq. Haciendo A “ 0mˆn (se toma una A particular) en la igualdad anterior,
se tiene
0mˆn ` 01 “ 0mˆn .
Por otro lado, de la parte anterior de la demostración se tiene que
01 “ 01 ` 0mˆn “ 0mˆn ` 01 .
Conectando las dos igualdades anteriores, se tiene que 01 “ 0mˆn . Por lo tanto, el elemento neutro
0mˆn de la suma en Mmˆn pRq es único.
Sea A “ paij q P Mmˆn pRq. Definimos ´A P Mmˆn pRq como
¨ ˛
´a11 ´a12 ¨ ¨ ¨ ´a1n
˚ ´a21 ´a22 ¨ ¨ ¨ ´a2n ‹
˚ ‹
´A “ p´aij q “ ˚ .. .. .. .. ‹.
˝ . . . . ‚
´am1 ´am2 ¨¨¨ ´amn
Luego,
A ` p´Aq “ paij ` p´aij qq “ p0ij q “ 0mˆn ,
debido a la propiedad del opuesto de la suma en R. Probemos que tal matriz ´A es la única que
satisface la propiedad A ` p´Aq “ 0mˆn . Supongamos entonces que existe B P Mmˆn pRq tal que
A ` B “ 0mˆn pRq. Por las propiedades anteriores, se tiene:
A ` B “ 0mˆn
´A ` pA ` Bq “ ´A ` 0mˆn
p´A ` Aq ` B “ ´A
pA ` p´Aqq ` B “ ´A
0mˆn ` B “ ´A
B “ ´A.
24
2.3. Producto de una matriz por un escalar
Otra de las operaciones básicas aplicables a Mmˆn pRq es el producto por un escalar.
Definición 2.3
Dada una matriz A “ paij q P Mmˆn pRq y – P R, se define el producto de A por el escalar – como
la matriz – ¨ A P Mmˆn pRq dada por
– ¨ A :“ p– ¨ aij q.
Es decir, para multiplicar A por –, debemos multiplicar todos los coeficientes de A por –. Para
simplificar, esta operación también se denota por
– A.
La operación anterior es lo que en matemática se conoce como una acción de R sobre Mmˆn pRq:
Ejemplo 13.
¨ ˛
2 ´4
1. Para A “ ˝ 6 4 ‚y – “ 1{2, se tiene
´22 24
¨ ˛
1 1
¨ ˛ 2 p´4q ‹ ¨ ˛
2 ´4 ˚ 2 2 1 ´2
1 ˝ ˚ 1 1 ‹
6 4 ‚“ ˚ 6 4 ‹‹“
˝ 3 2 ‚.
2 ˚
˝ 1 2 2
´22 24 1 ‚ ´11 12
p´22q 24
2 2
2. Sea Inˆn P Mnˆn pRq la matriz cuadrada de n filas y n columnas dada por
¨ ˛
1 0 ¨¨¨ 0 0
˚ 0 1 ¨¨¨ 0 0 ‹
˚ ‹
Inˆn “ ˚ ... ... . . . ... ... ‹
˚ ‹
.
˚ ‹
˝ 0 0 ¨¨¨ 1 0 ‚
0 0 ¨ ¨ ¨ 0 1 nˆn
Es decir, "
1 si i “ j,
Iij “
0 si i ‰ j.
A esta matriz se le conoce como matriz identidad.
[elemento neutro]:
1 A “ A.
p– ` —q A “ – A ` — A.
– pA ` Bq “ – A ` – B.
Geométricamente, podemos pensar en A y B como vectores en el plano R2 , y notar que A¨B es justamente
el coseno del ángulo que se forma entre A y B (en este caso 45 grados sexagesimales o, equivalentemente,
fi{4 radianes):
26
De manera más general, si tenemos
¨ ˛
b11
` ˘ ˚ b21 ‹
˚ ‹
A“ a11 a12 ¨¨¨ a1p y B“˚ .. ‹
˝ . ‚
bp1
entonces ˜ ¸
p
ÿ
` ˘
A¨B “ a11 ¨ b11 ` a12 ¨ b21 ` ¨ ¨ ¨ ` a1p ¨ bp1 “ a1k ¨ bk1 ,
k“1
¨
1 1 ˛ ¨ 1 1 1 1 ˛ ˆ ˙
? ´? ? ¨? ´? ¨ ?
˚ 2 2 ‹ ˚ 2 2 2 2 ‹ 0
A“˝ 1 1 ‚ ˝ 1 1 1 1 ‚“ “A¨B
? ? ? ¨? `? ¨ ? 1
2 2 2 2 2 2
Geométricamente, en este caso multiplicar A por B representa rotar al vector B alrededor del origen en
un ángulo de fi{4 radianes:
27
De manera más general, si tenemos
¨ ˛
b11
ˆ ˙ ˚ b21 ‹
a11 a12 ¨¨¨ a1p ˚ ‹
A“ y B“˚ .. ‹
a21 a22 ¨¨¨ a2p ˝ . ‚
bp1
entonces ¨ ÿ ˛
p
ˆ ˙ ˚ a1k ¨ bk1 ‹
a11 ¨ b11 ` a12 ¨ b21 ` ¨ ¨ ¨ ` a1p ¨ bp1 ˚ k“1 ‹
A¨B “ “˚ ÿp ‹,
a21 ¨ b11 ` a22 ¨ b21 ` ¨ ¨ ¨ ` a2p ¨ bp1 ˝ ‚
a2k ¨ bk1
k“1
Definición 2.4
Sean
A P Mmˆp pRq y B P Mpˆn pRq
dos matrices con las dimensiones indicadas. Se define el producto o multiplicación entre A y B
como la matriz
A ¨ B P Mmˆn pRq
(o simplemente AB) cuyo coeficiente ij (con i P t1, . . . , mu y j P t1, . . . , nu) está dado por
p
ÿ
pA ¨ Bqij “ Fi pAq ¨ Cj pBq “ aik ¨ bkj .
k“1
28
Es decir,
¨ ˛
b11 ¨¨¨ b1j ¨¨¨ b1n
˚ b21 ¨¨¨ b2j ¨¨¨ b2n ‹
˚ ‹
˚ .. .. .. .. .. ‹ “B
˝ . . . . . ‚
bp1 ¨¨¨ bpj ¨¨¨ bpn pˆn
¨ ˛
a11 a12 ¨¨¨ a1p ¨ ˛
˚ .. .. .. .. ‹ ..
˚ .
˚ . . . ‹‹ ˚ . ‹
A“˚
˚ ai1 ai2 ¨¨¨ aip ‹‹
˚ ¨¨¨
˝ ai1 bij ` ai2 b2j ` ¨ ¨ ¨ ` aip bpj ¨¨¨ ‹
‚ “ A ¨ B.
˚ . .. .. .. ‹ ..
˝ .. . . . ‚ . mˆn
am1 am2 ¨¨¨ amp mˆp
¨ ˛
1 0 ˆ ˙
˚ ´2 3 ‹ 0 6 1
Ejemplo 16. Sean A “ ˚
˝ 5
‹yB “ . Luego,
4 ‚ 3 8 ´2
0 1
ˆ ˙
0 6 1
3 8 ´2
¨ ˛ ¨ ˛ ¨ ˛
1 0 1¨0`0¨3 1¨6`0¨8 1 ¨ 1 ` 0 ¨ p´2q 0 6 1
˚ ´2
˚ 3 ‹ ˚ ´2 ¨ 0 ` 3 ¨ 3
‹ ˚ ´2 ¨ 6 ` 3 ¨ 8 ´2 ¨ 1 ` 3 ¨ p´2q ‹ ˚ 9 12
‹“˚ ´8 ‹
‹ “ AB.
˝ 5 4 ‚ ˝ 5¨0`4¨3 5¨6`4¨8 5 ¨ 1 ` 4 ¨ p´2q ‚ ˝ 12 62 ´3 ‚
0 1 0¨0`1¨3 0¨6`1¨8 0 ¨ 1 ` 1 ¨ p´2q 3 8 ´2
Observación 2.1
El producto de matrices no es conmutativo. Para empezar, aunque AB esté definido, puede darse
que BA no, porque el número de columnas de B puede no coincidir con el número de filas de A.
Esto ocurre por ejemplo con
¨ ˛
` ˘ ´1 0
A“ 1 1 0 y B “ ˝ 2 3 ‚,
´2 1
29
Si bien la conmutatividad no se cumple para el producto de matrices, hay propiedades que sí lo harán,
las cuales probaremos a continuación.
pABqC “ ApBCq.
pA ` BqC “ AC ` BC.
CpA ` Bq “ CA ` CB.
Imˆm A “ A y A Inˆn “ A.
Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices, por
lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq.
Demostración:
Propiedad asociativa: Probemos que rpABqCsij “ rApBCqsij .
q q
˜ p ¸ q ÿ p q ÿ
p
ÿ ÿ ÿ ÿ ÿ
rpABqCsij “ pABqik ckj “ ail blk ckj “ pail blk qckj “ ail pblk ckj q
k“1 k“1 l“1 k“1 l“1 k“1 l“1
p ÿq p
˜ q
¸ p
ÿ ÿ ÿ ÿ
“ ail pblk ckj q “ ail blk ckj “ ail pBCqlj “ rApBCqsij .
l“1 k“1 l“1 k“1 l“1
30
"
1 si k “ i,
Tenga en cuenta que pImˆm qik “ .
0 si k ‰ i.
Observación 2.2
Una aplicación del producto de matrices es poder representar un sistema de ecuaciones lineales
mediante una notación más simple. En efecto, sea
$
’
’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ b1 ,
’
& a21 x1 ` a22 x2 ` ¨ ¨ ¨ ` a2n xn “ b2 ,
pSq : ..
’
’ .
’
%
am1 x1 ` am2 x2 ` ¨ ¨ ¨ ` amn xn “ bm .
un sistema de ecuaciones lineales. Podemos notar que los números que aparecen del lado
izquierdo de las igualdades corresponden a las entradas de la matriz producto AX, donde
¨ ˛ ¨ ˛
a11 a12 ¨ ¨ ¨ a1n x1
˚ a21 a22 ¨ ¨ ¨ a2n ‹ ˚ x2 ‹
˚ ‹ ˚ ‹
A“˚ . . . . ‹ P Mmˆn pRq y X “ ˚ . ‹ P Mnˆ1 pRq.
˝ .. .. .. .. ‚ ˝ .. ‚
am1 am2 ¨ ¨ ¨ amn xn
¨ ˛
b1
˚ b2 ‹
˚ ‹
Luego, si denotamos b “ ˚ .. ‹ P Mmˆ1 pRq, entonces pSq es la ecuación matricial AX “ b.
˝ . ‚
bm
Definición 2.5
Sea A “ paij q P Mmˆn pRq. Se define la traspuesta de A como la matriz At P Mnˆm pRq (note
que se invierte la dimensión de A) cuyo coeficiente ji viene dado por
31
¨ ˛ ¨ ˛
ˆ ˙ a11 a21 2 3
2 4 1
Ejemplo 17. Para A “ , tenemos que At “ ˝ a12 a22 ‚ “˝ 4 0 ‚.
3 0 ´1 2ˆ3 a a23 3ˆ2 1 ´1
¨ ˛ 13
ˆ ˙ 2 3
2 4 1 p´qt
De manera más visual, tenemos ›››Ñ ˝ 4 0 ‚.
3 0 ´1 œ
1 ´1
[involución]: pAt qt “ A.
Para el caso en el cual A P Mmˆp pRq y B P Mpˆn pRq, se cumple:
[inversión del orden del producto]:
pABqt “ B t At .
Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices, por
lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq.
Demostración: Para A “ paij q, B “ pbij q P Mmˆn pRq, tenemos que
De manera análoga, se puede probar que rp– Aqt sji “ –rAt sji y rpAt qt sij “ aij .
AX “ b.
Hallar una solución de pSq consiste en encontrar una matriz columna X P Mnˆ1 pRq que satisfaga esta
ecuación matricial.
Para el caso en el cual n “ 1, es bastante claro el proceder. Si A (en este caso un número real) vale
cero, concluimos que la ecuación (numérica) AX “ b no tiene solución para b ‰ 0, o que tiene infinitas
32
soluciones (todos los número reales) para b “ 0. Ahora, si A ‰ 0, entonces existe un número real A´1 tal
que A´1 A “ 1. Luego, hacemos el procedimiento
lo que informalmente llamamos “pasar A dividiendo al otro lado”. Por lo tanto, X “ A´1 b es la solución
a la ecuación numérica en este caso.
¿Qué pasa si n ° 1? ¿Qué significa en este caso que exista una matriz A´1 tal que A´1 A “ Inˆn ? La
siguiente definición da respuesta a esto.
Definición 2.6
Una matriz cuadrada A P Mnˆn pRq se dice invertible si existe B P Mnˆn pRq tal que
A B “ Inˆn y B A “ Inˆn .
Observación 2.3
pB Aq B 1 “ B
Inˆn B 1 “ B
B 1 “ B.
33
Ejemplo 18.
¨ ˛ ¨ ˛
5 0 0 1{5 0 0
3. La matriz A “ ˝ 1 5 0 ‚es invertible y A´1 “ ˝ ´1{25 1{5 0 ‚.
0 1 5 1{125 ´1{25 1{5
Como ejercicio, verifique que A´1 A “ I3ˆ3 y A A´1 “ I3ˆ3 . Más adelante, veremos métodos para
determinar cuándo una matriz A es invertible y a su vez hallar A´1 .
ˆ ˙
2 2
4. La matriz A “ no es invertible.
1 1
Como mencionamos en el ejemplo anterior, más adelante definiremos métodos para poder notar
esto de forma eficaz. Por el momento, tenemos pocas herramientas. Algo que podemos hacer es
usar el método de demostración por reducción al absurdo, es decir, suponer que A sí es invertible
y llegar a una contradicción.
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
a b 2 2 a b 1 0
Entonces, supongamos que existe B “ tal que “ .
c d 1 1 c d 0 1
Luego, ˆ ˙ ˆ ˙
2a ` 2c 2b ` 2d 1 0
“ .
a`c b`d 0 1
Tenemos en particular que 2a ` 2c “ 1 y a ` c “ 0, de donde se sigue que 0 “ 1, lo cual claramente
es una contradicción. Por lo tanto, A no es invertible.
34
Proposición 2.5: propiedades de las matrices invertibles
[involución]: Si A es invertible, entonces A´1 también lo es. Más aún, pA´1 q´1 “ A.
[inversión del orden del producto]: A y B son invertibles si, y sólo si, A B lo es. En caso de
cumplirse cualquiera de estas afirmaciones equivalentes, se tiene que pA Bq´1 “ B ´1 A´1 .
[conmutatividad con la transposición]: A es invertible si, y sólo si, At lo es. En caso de
cumplirse cualquiera de estas afirmaciones equivalentes, se tiene que pAt q´1 “ pA´1 qt .
Idea de la demostración: Note que muchas de las afirmaciones consisten en construir una nueva matriz
invertible a partir de matrices invertibles dadas. En cada afirmación se enuncia quién debería ser la
inversa de la nueva matriz invertible construida. La idea general es la siguiente: para probar que C es
invertible, se propone una candidata a inversa, digamos D, y luego verificamos que C D “ Inˆn y
D C “ Inˆn . Entonces, por la unicidad de la inversa, se concluye que D “ C ´1 . Por ejemplo, para probar
que A´1 es invertible, se propone como candidata a inversa de A´1 a la propia matriz A.
Tenga en cuenta además que para probar la igualdad pA´1 q´1 “ A (o cualquiera de las otras igualdades
enunciadas), se sigue una estrategia diferente a la que estamos acostumbrados. En resultados anteriores,
se demostraban igualdades entre matrices verificando que había coincidencia coeficiente a coeficiente.
Esto no lo podemos hacer para las propiedades de las matrices invertibles, ya que desconocemos (por el
momento) quiénes son explícitamente los coeficientes de la inversa de una matriz (es decir, no tenemos
una fórmula que nos dice cuánto vale pA´1 qij a partir de los coeficientes de A).
Demostración:
Involución: Partimos con la hipótesis de que A es invertible, por lo que existe su inversa A´1 . Ahora,
queremos probar que A´1 es invertible. Proponemos entonces como candidata a inversa a la matriz
A. Vemos que, como A´1 es la inversa de A, se cumple que
Es decir, existe una matriz (en este caso A) tal que al multiplicarla por A´1 a ambos lados se obtiene
la identidad. Se tiene entonces que A´1 es invertible. Más aún, por la unicidad de la inversa, se tiene
que la inversa de A´1 es A, es decir, pA´1 q´1 “ A.
Si A es invertible, entonces A´1 también lo es. Más aún, pA´1 q´1 “ A.
Inversión del orden del producto: Tenemos un enunciado del tipo “si, y sólo si”, por lo que se deben
probar dos implicaciones:
• A y B invertibles ùñ A B invertible: Como A y B son invertible, se tiene que existen A´1
y B ´1 . Entonces, podemos considerar el producto B ´1 A´1 . Este producto va a ser nuestro
candidato a inversa de A B. En efecto, podemos notar usando las propiedades asociativa del
producto y de la identidad que
De manera análoga, se puede verificar que pA BqpB ´1 A´1 q “ Inˆn . Por lo tanto, A B es
invertible y su inversa viene dada por B ´1 A´1 , es decir, pA Bq´1 “ B ´1 A´1 .
35
• A B invertible ùñ A y B invertibles:
Conmutatividad con la transposición: Nuevamente, debemos demostrar un enunciado del tipo “si,
y sólo si”.
• A invertible ùñ At invertible: Como A es invertible, existe A´1 . Luego, proponemos a pA´1 qt
como candidata a inversa. Usando las propiedades de la transposición, tenemos que
De manera análoga, se verifica también que At pA´1 qt “ Inˆn . Por lo tanto, At es invertible
con inversa dada por pA´1 qt , es decir, pAt q´1 “ pA´1 qt .
• At invertible ùñ A invertible: Por la implicación anterior aplicada a At , tenemos que A “
pAt qt es invertible.
Proposición 2.6
Sea A P Mnˆn pRq. Entonces, A es invertible si, y sólo si, existe X P Mnˆn pRq tal que A X “ Inˆn .
En otras palabras, para demostrar que una matriz es invertible, basta solamente con verificar una de
las condiciones de la Definición 2.6 una vez que se tiene una candidata a matriz inversa.
Pensemos ahora en cómo hallar X dada A (en caso de ser posible) tal que AX “ Inˆn . Note que
básicamente lo que se nos pide es resolver una ecuación matricial donde A e Inˆn son matrices conocidas,
y X es la matriz incógnita. Para un mejor entendimiento, explicaremos este procedimiento mediante un
ejemplo, y luego lo enunciaremos de manera general.
¨ ˛
1 ´1 2
Ejemplo 19. Determine si la matriz A “ ˝ ´2 0 4 ‚es invertible, y en caso de serlo, hallar A´1 .
0 ´2 7
36
¨ ˛
x11 x12 x13
Queremos ver si es posible hallar X “ ˝ x21 x22 x23 ‚tal que
x31 x32 x33
¨ ˛
x11 x12 x13
˝ x21 x22 x23 ‚
x31 x32 x33
¨ ˛ ¨ ˛ ¨ ˛
1 ´1 2 x11 ´ x21 ` 2x31 x12 ´ x22 ` 2x32 x13 ´ x23 ` 2x33 1 0 0
˝ ´2 0 4 ‚ ˝ ´2x11 ` 4x31 ´2x12 ` 4x32 ´2x13 ` 4x33 ‚ “ ˝ 0 1 0 ‚
0 ´2 7 ´2x21 ` 7x31 ´2x22 ` 7x32 ´2x23 ` 7x33 0 0 1
Vemos que se desprenden así los sistemas de ecuaciones
$ $ $
& x11 ´ x21 ` 2x31 “ 1 & x12 ´ x22 ` 2x32 “ 0 & x13 ´ x23 ` 2x33 “ 0
pS1 q : ´2x11 ` 4x31 “ 0 , pS2 q : ´2x12 ` 4x32 “ 1 y pS3 q : ´2x13 ` 4x33 “ 0 .
% % %
´2x21 ` 7x31 “ 0 ´2x22 ` 7x32 “ 0 ´2x23 ` 7x33 “ 1
Equivalentemente,
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x11 1
pS1 q : ˝ ´2 0 4 ‚˝ x21 ‚ “ ˝ 0 ‚,
0 ´2 7 x31 0
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x12 0
pS2 q : ˝ ´2 0 4 ‚˝ x22 ‚ “ ˝ 1 ‚,
0 ´2 7 x32 0
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x13 0
pS3 q : ˝ ´2 0 4 ‚˝ x23 ‚ “ ˝ 0 ‚.
0 ´2 7 x33 1
Entonces, encontrar la matriz X es equivalente ha resolver cada uno de los sistemas anteriores y que a su
vez todos tengan solución. Como los tres sistemas tienen la mista matriz asociada A, podemos escalerizar
las tres matrices ampliadas simultáneamente en el siguiente arreglo:
¨ ˛
1 ´1 2 1 0 0
˝ ´2 0 4 0 1 0 ‚.
0 ´2 7 0 0 1
Procedemos a escalerizar:
¨ ˛ ¨ ˛ ¨ ˛
1 ´1 2 1 0 0 1 ´1 2 1 00 1 ´1 2 1 0 0
F2 –pF2 `2F1 q F3 –pF3 ´F2 q
˝ ´2 0 4 0 1 0 ‚ ›››››››››Ñ ˝ 0 ´2 8 2 1
0 ‚ ››››››››Ñ ˝ 0 ´2 8 2 1 0 ‚
0 ´2 7 0 0 1 0 ´2 7 0 10 0 0 ´1 ´2 ´1 1
¨ ˛ ¨ ˛
1 ´1 0 ´3 ´2 2 1 ´1 0 ´3 ´2 2
F1 –pF1 `2F3 q ´F3 ˝
›››››1››››Ñ ˝ 0 1 ´4 ´1 ´1{2 0 ‚ ›››Ñ 0 1 ´4 ´1 ´1{2 0 ‚
´ 2 F2
0 0 ´1 ´2 ´1 1 0 0 1 2 1 ´1
¨ ˛ ¨ ˛
1 ´1 0 ´3 ´2 2 1 0 0 4 3{2 ´2
F2 –pF2 `4F3 q F1 –pF1 `F2 q
›››››››››Ñ ˝ 0 1 0 7 7{2 ´4 ‚ ››››››››Ñ ˝ 0 1 0 7 7{2 ´4 ‚.
0 0 1 2 1 ´1 0 0 1 2 1 ´1
Tenemos entonces que las soluciones a los sistemas (S1 ), (S2 ) y (S3 ) vienen dadas por
¨ ˛ ¨ ˛ ¨ ˛
4 3{2 ´2
˝ 7 ‚, ˝ 7{2 ‚ y ˝ ´4 ‚,
2 1 ´1
37
respectivamente, por lo que concluimos que A es invertible y que
¨ ˛
4 3{2 ´2
A´1 “ X “ ˝ 7 7{2 ´4 ‚.
2 1 ´1
Una vez asimilado el ejemplo anterior, podemos explicar el método general para determinar si una
matriz ¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ a21 a22 ¨ ¨ ¨ a2n ‹
˚ ‹
A“˚ . .. .. .. ‹ P Mnˆn pRq
˝ .. . . . ‚
an1 an2 ¨ ¨ ¨ ann
es invertible de la siguiente manera.
1. Se quiere determinar si es posible resolver la ecuación matricial AX “ Inˆn .
2. Lo anterior es equivalente a resolver simultáneamente los sistemas de ecuaciones (de n ecuaciones
y n incógnitas) A Cj pXq “ ej con j P t1, . . . , nu, donde
¨ ˛
0
˚ 0 ‹
¨ ˛ ˚ ‹
x1j ˚ .. ‹
˚ . ‹
˚ x2j ‹ ˚ ‹
˚ ‹ ˚ 0 ‹
Cj pXq “ ˚ . ‹ y ej “ ˚ ˚ 1 ‹
‹
˝ .. ‚ ˚ ‹
˚ 0 ‹
xnj ˚ ‹
˚ . ‹
˝ .. ‚
0
Es decir, se aplican transformaciones elementales a toda la matriz anterior hasta llegar a la forma
escalerizada reducida de A, llamémosla R. Si A es invertible, R “ Inˆn . En este caso, A´1 va a ser
la matriz resultante de aplicar a Inˆn las mismas transformaciones elementales que se le aplicaron
a A.
En este caso, R no va a ser la identidad, y va a tener al menos una fila de ceros. En la práctica,
si al escalerizar pA | Inˆn q obtenemos una fila de ceros en el bloque correspondiente a A,
detenemos el proceso y concluimos que A no es invertible. Esto quedará más claro con el
siguiente ejemplo.
1
Si bien para ser coherentes, habríamos tenido que denotar por Cj pInˆn q a la j-ésima columna de Inˆn , la notación ej es más
popular, y será empleada ampliamente cuando lleguemos al capítulo de espacios vectoriales.
38
Ejemplo 20. Determine si la matriz
¨ ˛
8 11 2 8
˚ 0 ´7 2 ´1 ‹
A“˚ ‹
˝ ´3 ´7 2 1 ‚
5 ´3 6 8
Llegamos dentro del bloque izquierdo a una matriz con una fila de ceros. No hace falta seguir
escalerizando para llegar a la forma escalerizada reducida de A, porque en este punto ya sabemos que
tendrá al menos una fila de ceros. Concluimos entonces que A no es invertible.
Dentro del bloque de la derecha nunca se va a generar una fila de ceros. Esto se debe a que
la identidad Inˆn tiene rango n (con n “ 4 en el ejemplo anterior), y las transformaciones
elementales no alteran el rango de una matriz.
Observación 2.4
En este punto podemos dar una prueba de que AB invertible implica A y B invertibles. En efecto,
si AB es invertible, por la Proposición 2.7 existe X tal que pABqX “ Inˆn . Luego, ApBXq “ Inˆn ,
de donde se sigue que A es invertible (usando de nuevo 2.7). Al multiplicar la igualdad anterior por
A´1 , tenemos que BX “ A´1 , lo cual implica que BX es invertible. Entonces, existe Y tal que
pBXqY “ Inˆn , es decir, BpXY q “ Inˆn . Por lo tanto, B es invertible.
39
2.8. Matrices elementales
En esta última sección describiremos otro método para hallar la inversa de una matriz invertible. En
la práctica, este método no será utilizado ya que notacionalmente es más pesado que el anterior. Su
importancia radica más en los conceptos y propiedades teóricas que tiene presentes y que serán de gran
utilidad en el siguiente capítulo sobre determinantes.
Tal como hicimos en la sección anterior, describiremos el método mediante un ejemplo, para luego
plantearlo de forma general. A su vez, haremos en paralelo el método estudiado en la sección anterior.
Ejemplo 21. Sabemos del Ejemplo 18 3. que la matriz
¨ ˛
5 0 0
A“˝ 1 5 0 ‚
0 1 5
1
Es decir, aplicar la transformación elemental F1 a A es equivalente a multiplicar A por la matriz
5
E1 .
¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1 0 0 1{5 0 0
F2 –pF2 ´F1 q
2. pA1 | E1 q “ ˝ 1 5 0 0 1 0 ‚ ››››››››Ñ ˝ 0 5 0 ´1{5 1 0 ‚ “ pA2 | E2 E1 q:
0 1 5 0 0 1 0 1 5 0 0 1
Por otro lado, si
¨ ˛
1 0 0
E2 “ ˝ ´1 1 0 ‚ (es decir, E2 resulta de aplicar F2 – pF2 ´ F1 q a la matriz I3ˆ3 )
0 0 1
notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0 0
E2 A1 “ ˝ ´1 1 0 ‚˝ 1 5 0 ‚“ ˝ 0 5 0 ‚ “ A2 ,
0 0 1 0 1 5 0 1 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E2 E1 “ ˝ ´1 1 0 ‚˝ 0 1 0 ‚ “ ˝ ´1{5 1 0 ‚.
0 0 1 0 0 1 0 0 1
40
Donde
¨ ˛
1 0 0
1
E3 “ ˝ 0 1{5 0 ‚ (es decir, E3 resulta de aplicar F2 a la matriz I3ˆ3 ).
5
0 0 1
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0 0
E 3 A2 “ ˝ 0 1{5 0 ‚˝ 0 5
0 ‚ “ ˝ 0 1 0 ‚ “ A3 ,
0 0 1 0 5 1 0 1 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E3 E 2 E1 “ ˝ 0 1{5 0 ‚˝ ´1{5 1 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 0 1 0 0 1 0 0 1
1
Entonces, aplicar la transformación elemental F2 a A2 es equivalente a multiplicar A2 por la
5
matriz E3 .
˜ ¸ ˜ ¸
1 0 0 1{5 0 0 1 0 0 1{5 0 0
F3 –pF3 ´F2 q
4. pA3 | E3 E2 E1 q “ 0 1 0 ´1{25 1{5 0 ›››››››››Ñ 0 1 0 ´1{25 1{5 0 “ pA4 |E4 E3 E2 E1 q:
0 1 5 0 0 1 0 0 5 1{25 ´1{5 1
Donde
¨ ˛
1 0 0
E4 “ ˝ 0 1 0 ‚ (es decir, E4 resulta de aplicar F3 – pF3 ´ F2 q a la matriz I3ˆ3 ).
0 ´1 1
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 01 0 0
E 4 A3 “ ˝ 0 1 0 ‚˝ 0 1
0 ‚“ ˝ 0 1 0 ‚ “ A4 ,
0 ´1 1 0 5 10 0 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E 4 E3 E2 E 1 “ ˝ 0 1 0 ‚˝ ´1{25 1{5 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 ´1 1 0 0 1 1{25 ´1{5 1
Donde
¨ ˛
1 0 0
1
E5 “ ˝ 0 1 0 ‚ (es decir, E5 resulta de aplicar F3 a la matriz I3ˆ3 ).
5
0 0 1{5
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0
0
E 5 A4 “ ˝ 0 1 0 ‚˝ 0 1 0 ‚“ ˝ 0 1
0 ‚ “ I3ˆ3 ,
0 0 1{5 0 0 5 0 0
1
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E5 E4 E 3 E2 E 1 “ ˝ 0 1 0 ‚˝ ´1{25 1{5 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 0 1{5 1{25 ´1{5 1 1{125 ´1{25 1{5
41
1
Entonces, aplicar la transformación elemental F3 a A4 es equivalente a multiplicar A4 por la
5
matriz E5 .
De lo anterior, notamos que
E5 E4 E3 E2 E1 A “ I3ˆ3 .
Por lo tanto, ¨ ˛
1{5 0 0
A´1 “ E5 E4 E3 E2 E1 “ ˝ ´1{25 1{5 0 ‚.
1{125 ´1{25 1{5
Las matrices Ei con i P t1, 2, 3, 4, 5u son un tipo especial de matrices que definimos a continuación.
Definición 2.7
Una matriz elemental E P Mnˆn pRq es aquélla que se obtiene de aplicar a la identidad Inˆn una
transformación elemental. Al haber tres tipos de transformaciones elementales, tendremos tres
tipos de matrices elementales:
Matriz elemental asociada a la transformación elemental – Fi (con – ‰ 0):
¨ ˛
1 ¨¨¨ 0 ¨¨¨ 0
˚ .. . . . .. . ‹
˚ .
˚ . .. . .. ‹
‹
˚ 0 ¨¨¨ – ¨¨¨ 0 ‹.
– Fi
Inˆn ›››Ñ E“˚ ‹
˚ . . . . . ‹
˝ .. . . .. . . .. ‚
0 ¨¨¨ 0 ¨¨¨ 1
42
En el ejemplo anterior vimos que es posible hallar la inversa de una matriz invertible multiplicando
dicha matriz por un número finito de matrices elementales. Esta idea puede llevarse también al método
de escalerización o eliminación de Gauss-Jordan para hallar la forma escalerizada reducida de cualquier
matriz (no necesariamente cuadrada). Formalizamos esto a continuación.
Proposición 2.7
Sea A P Mmˆn pRq y B la matriz que se obtiene al aplicarle a A una transformación elemental.
Sea E P Mmˆm pRq la matriz elemental asociada a dicha transformación. Entonces, B “ E A.
Sabemos que se puede obtener la forma escalerizada reducida de cualquier matriz a partir de un
número finito de transformaciones elementales aplicadas a dicha matriz. Este resultado se puede
representar en el lenguaje de multipliciación por matrices elementales, aplicando la propisición anterior
un número finito de veces.
Corolario 2.1
Sea A P Mmˆn pRq y R su forma escalerizada reducida. Entonces, existe un número finito de
matrices elementales E1 , . . . , Ek tales que R “ Ek ¨ ¨ ¨ E1 A.
ˆ ˙
transformación elemental # 1 transformación elemental # 2 transformación elemental # k
A ››››››››››››››››Ñ A1 ››››››››››››››››Ñ ¨ ¨ ¨ ››››››››››››››››Ñ R
pE1 q pE2 q pEk q
En cuando a matrices invertibles, resumimos lo aprendido en este capítulo dentro del siguiente
resultado.
Teorema 2.1
43