0% encontró este documento útil (0 votos)
32 vistas23 páginas

Introducción al Álgebra de Matrices

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
32 vistas23 páginas

Introducción al Álgebra de Matrices

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

2 ÁLGEBRA DE MATRICES

En este capítulo estudiaremos la base del lenguaje del álgebra lineal: las matrices. Ellas son arreglos
rectangulares de números reales (aunque puede permitirse el uso de otros conjuntos numéricos, como
el conjunto C de los números complejos), que guardan información de distintos objetos estudiados en
álgebra lineal. Ya hemos visto por ejemplo que un sistema de ecuaciones puede representarse en términos
de su matriz asociada y su matriz ampliada, pero además, esas matrices guardan mucha información
sobre el sistema, ya que la relación entre sus rangos determina si dicho sistema es compatible. Las
matrices también aparecerán en otras áreas de estudio del álgebra lineal, como la geometría en el espacio
y en la teoría de espacios vectoriales y transformaciones lineales.

2.1. El conjunto de matrices


Si bien ya sabemos qué es una matriz, volvamos a declararlo en la siguiente definición, y así aprovechar
de introducir parte de la notación que estaremos utilizando a futuro.

Definición 2.1

Una matriz de m filas y n columnas es un arreglo rectangular de números reales (o complejos),


representado como ¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ a21 a22 ¨ ¨ ¨ a2n ‹
˚ ‹
A“˚ . .. .. .. ‹ .
˝ .. . . . ‚
am1 am2 ¨ ¨ ¨ amn
A cada elemento aij P R (o aij P C) se le denomina entrada o coeficiente pi, jq de la matriz A,
donde i P t1, 2, . . . , mu y j P t1, 2, . . . , nu. Es decir, i y j determinan la posición de aij dentro de
la matriz, i indica la fila y j la columna en las cuales aij está ubicado. El producto simbólico m ˆ n
se conoce como orden, tamaño o dimensión de la matriz A.

De manera más compacta, las matrices también pueden denotarse como

j“1,...,n o A “ ppaij qq o A “ paij q.


A “ ppaij qqi“1,...,m

Nos decantaremos por la última notación, cuando ya el número de filas y columnas estén
sobreentendidos.

21
El conjunto de todas las matrices de m filas y n columnas con coeficientes en R será denotado por

Mmˆn pRq.

Por el momento, trabajaremos únicamente con matrices con coeficientes en R.


Antes de definir operaciones entre matrices, debemos saber primero cuándo dos matrices son iguales.
Se define en Mmˆn pRq la relación de igualdad

A “ B,

donde A “ paij q y B “ pbij q como

A “ B si aij “ bij para todo i P t1, . . . , mu y j P t1, . . . , nu.

En otras palabras, dos matrices (de la misma dimensión) son iguales si coinciden coeficiente a coeficiente.
Ejemplo 11.
1. Las matrices ˆ ˙ ˆ ? ˙
8 1 fi 4 ´ 2
A“ y B“ .
´2 1{2 8 1{3 0
no son iguales, por tener tamaños diferentes.
2. Las matrices ` ˘ ` ˘
A“ 1 2 3 y B“ 3 1 2
son diferentes aunque sus coeficientes tomen todos los valores en el conjunto t1, 2, 3u.

3. Las matrices ¨ ˛ ¨ ˛
1 ´1 20 1 ´1 20
A“˝ 3 0 ´5 ‚ y B “ ˝ ´5 0 ´5 ‚
2 7 ´4 2 7 ´4
no son iguales, porque no coinciden en el coeficiente p2, 1q (a pesar de sí hacerlo en el resto de los
coeficientes).

4. A las matrices de la forma ` ˘


A“ a1 a2 ¨¨¨ an 1ˆn
se les conoce como matrices fila, mientras que a aquéllas de la forma
¨ ˛
b1
˚ b2 ‹
˚ ‹
B“˚ . ‹
˝ . ‚.
bm mˆ1

se le conocen como matrices columna.

2.2. Suma de matrices


Comenzaremos estudiando la primera operación entre matrices, la suma.

22
Definición 2.2

Dadas dos matrices A “ paij q, B “ pbij q P Mmˆn pRq, se define su suma como la matriz A ` B P
Mmˆn pRq dada por
A ` B :“ paij ` bij q.
Es decir, para sumar dos matrices (del mismo tamaño), debemos sumar coeficiente-a-coeficiente.

Ejemplo 12. Al sumar las matrices


ˆ ˙ ˆ ˙
3 ´1 8 11 ´7 1
A“ y B“
1 0 5 4 ´2 3

se obtiene ˆ ˙ ˆ ˙
3 ` 11 ´1 ´ 7 8`1 14 ´8 9
A`B “ “ .
1`5 0´2 5`3 6 ´2 8

La suma de matrices toma dos elementos en Mmˆn pRq y le asocia un elemento en ese mismo conjunto.
Esto se conoce como operación binaria, y suele denotarse como

` : Mmˆn pRq ˆ Mmˆn pRq Ñ Mmˆn pRq


pA, Bq ބ A ` B.

Probemos en el siguiente resultado las propiedades de la suma, las cuales se heredan de las propiedades
homónimas en R.

Proposición 2.1: propiedades de la suma

[propiedad conmutativa]: Para todas A, B P Mmˆn pRq, se tiene que

A ` B “ B ` A.

[propiedad asociativa]: Para todas A, B, C P Mmˆn pRq, se tiene que

pA ` Bq ` C “ A ` pB ` Cq.

[existencia del elemento neutro]: Existe una única matriz 0mˆn P Mmˆn pRq tal que

A ` 0mˆn “ A

para toda A P Mmˆn pRq.


[existencia del elemento opuesto]: Para cada A P Mmˆn pRq, existe una única ´A P
Mmˆn pRq tal que
A ` p´Aq “ 0mˆn .

Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices,
por lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq. Por otro lado, en las
demostraciones donde se pide probar la unicidad de un elemento x que satisface cierta propiedad P , se
asume la existencia de otro elemento x1 que también satisface P , y se demuestra que x “ x1 .

23
Demostración: Demostramos las propiedades en el orden que se enuncian.
Consideremos A “ paij q y B “ pbij q. Luego, como la suma en R es conmutativa, se tiene
A ` B “ paij q ` pbij q “ paij ` bij q “ pbij ` aij q “ pbij q ` paij q “ B ` A.

Consideremos A “ paij q, B “ pbij q y C “ pCij q. Luego, como la suma en R es asociativa, se tiene


pA ` Bq ` C “ paij ` bij q ` pcij q “ ppaij ` bij q ` cij q “ paij ` pbij ` cij qq “ A ` pB ` Cq.

Primero veamos que existe tal 0mˆn . Definimos la matriz


¨ ˛
0 0 ¨¨¨ 0
˚ 0 0 ¨¨¨ 0 ‹
˚ ‹
0mˆn :“ ˚ . . .
. . ... ‹ ,
˝ .. .. ‚
0 0 ¨¨¨ 0 mˆn

es decir, 0ij “ 0 P R para todo i P t1, 2, . . . , mu y j P t1, 2, . . . , nu. Luego, por la propiedad del
elemento neutro en R, se tiene para cualquier A “ paij q P Mmˆn pRq que
A ` 0mˆn “ paij ` 0ij q “ paij ` 0q “ paij q “ A.
Ahora probemos la unicidad de 0mˆn . Supongamos que existe 01 P Mmˆn pRq tal que
A ` 01 “ A
para toda A P Mmˆn pRq. Haciendo A “ 0mˆn (se toma una A particular) en la igualdad anterior,
se tiene
0mˆn ` 01 “ 0mˆn .
Por otro lado, de la parte anterior de la demostración se tiene que
01 “ 01 ` 0mˆn “ 0mˆn ` 01 .
Conectando las dos igualdades anteriores, se tiene que 01 “ 0mˆn . Por lo tanto, el elemento neutro
0mˆn de la suma en Mmˆn pRq es único.
Sea A “ paij q P Mmˆn pRq. Definimos ´A P Mmˆn pRq como
¨ ˛
´a11 ´a12 ¨ ¨ ¨ ´a1n
˚ ´a21 ´a22 ¨ ¨ ¨ ´a2n ‹
˚ ‹
´A “ p´aij q “ ˚ .. .. .. .. ‹.
˝ . . . . ‚
´am1 ´am2 ¨¨¨ ´amn
Luego,
A ` p´Aq “ paij ` p´aij qq “ p0ij q “ 0mˆn ,
debido a la propiedad del opuesto de la suma en R. Probemos que tal matriz ´A es la única que
satisface la propiedad A ` p´Aq “ 0mˆn . Supongamos entonces que existe B P Mmˆn pRq tal que
A ` B “ 0mˆn pRq. Por las propiedades anteriores, se tiene:
A ` B “ 0mˆn
´A ` pA ` Bq “ ´A ` 0mˆn
p´A ` Aq ` B “ ´A
pA ` p´Aqq ` B “ ´A
0mˆn ` B “ ´A
B “ ´A.

24
2.3. Producto de una matriz por un escalar
Otra de las operaciones básicas aplicables a Mmˆn pRq es el producto por un escalar.

Definición 2.3

Dada una matriz A “ paij q P Mmˆn pRq y – P R, se define el producto de A por el escalar – como
la matriz – ¨ A P Mmˆn pRq dada por

– ¨ A :“ p– ¨ aij q.

Es decir, para multiplicar A por –, debemos multiplicar todos los coeficientes de A por –. Para
simplificar, esta operación también se denota por

– A.

La operación anterior es lo que en matemática se conoce como una acción de R sobre Mmˆn pRq:

R ˆ Mmˆn pRq Ñ Mmˆn pRq


p–, Aq fiÑ – A.

Ejemplo 13.
¨ ˛
2 ´4
1. Para A “ ˝ 6 4 ‚y – “ 1{2, se tiene
´22 24
¨ ˛
1 1
¨ ˛ 2 p´4q ‹ ¨ ˛
2 ´4 ˚ 2 2 1 ´2
1 ˝ ˚ 1 1 ‹
6 4 ‚“ ˚ 6 4 ‹‹“
˝ 3 2 ‚.
2 ˚
˝ 1 2 2
´22 24 1 ‚ ´11 12
p´22q 24
2 2

2. Sea Inˆn P Mnˆn pRq la matriz cuadrada de n filas y n columnas dada por
¨ ˛
1 0 ¨¨¨ 0 0
˚ 0 1 ¨¨¨ 0 0 ‹
˚ ‹
Inˆn “ ˚ ... ... . . . ... ... ‹
˚ ‹
.
˚ ‹
˝ 0 0 ¨¨¨ 1 0 ‚
0 0 ¨ ¨ ¨ 0 1 nˆn

Es decir, "
1 si i “ j,
Iij “
0 si i ‰ j.
A esta matriz se le conoce como matriz identidad.

A toda matriz de la forma – Inˆn , con – P R, se le conoce como matriz escalar.


Enunciemos a continuación algunas de las propiedades del producto por un escalar. La demostración
de las mismas se deja como ejercicio.
25
Proposición 2.2: propiedades del producto por un escalar

Las siguientes afirmaciones valen para cualesquiera A, B P Mmˆn pRq y –, — P R.


[propiedad asociativa]:
p–—q A “ – p— Aq.

[elemento neutro]:
1 A “ A.

[propiedad distributiva respecto a la suma de escalares]:

p– ` —q A “ – A ` — A.

[propiedad distributiva respecto a la suma de matrices]:

– pA ` Bq “ – A ` – B.

2.4. Producto de matrices


Esta sección está dedicada a lo que probablemente sea la operación más importante entre matrices.
Un problema con esta operación es que a priori no tiene una definición intuitiva (a diferencia de la suma
y del producto por un escalar), y por ende pensamos que es conveniente dar un par de motivaciones
geométricas antes de dar la definición precisa de qué significa multiplicar dos matrices A y B para obtener
una nueva matriz A ¨ B. Previo a presentar estas motivaciones convengamos en que para multiplicar A
y B, deberá cumplirse que el número de columnas de A coincida con el número de filas de B, es decir,
A P Mmˆp pRq y B P Mpˆn pRq, con m y n arbitrarios. Entonces, el producto o multiplicación de matrices
será una operación de la forma

¨ : Mmˆn pRq ˆ Mpˆn pRq Ñ Mmˆn pRq


pA, Bq fiÑ A ¨ B.

Ejemplo 14 (Motivación 1 - caso m “ 1 y p “ 1). Supongamos que tenemos las matrices


ˆ ˙ ˆ ˙
1 1 1
A“ ? ? y B“ .
2 2 0

Multiplicar estas dos matrices corresponde a hacer la operación


1 1 1
a11 ¨ b11 ` a12 ¨ b21 “ ? ¨ 1 ` ? ¨ 0 “ ? .
2 2 2
?
Entonces, A ¨ B “ p1{ 2q. Esta operación también podemos representarla como:
´ ¯
1
“B
0
´ 1 1 ¯ ´ 1 1 ¯
A“ ? ? ? ¨1` ? ¨0 “A¨B
2 2 2 2

Geométricamente, podemos pensar en A y B como vectores en el plano R2 , y notar que A¨B es justamente
el coseno del ángulo que se forma entre A y B (en este caso 45 grados sexagesimales o, equivalentemente,
fi{4 radianes):

26
De manera más general, si tenemos
¨ ˛
b11
` ˘ ˚ b21 ‹
˚ ‹
A“ a11 a12 ¨¨¨ a1p y B“˚ .. ‹
˝ . ‚
bp1

entonces ˜ ¸
p
ÿ
` ˘
A¨B “ a11 ¨ b11 ` a12 ¨ b21 ` ¨ ¨ ¨ ` a1p ¨ bp1 “ a1k ¨ bk1 ,
k“1

aunque por supuesto para p ° 3 se pierde la representación geométrica de A ¨ B como el coseno de un


ángulo.
Ejemplo 15 (Motivación 2 - caso m “ 2 y p “ 1). Considere las matrices
¨ 1 1 ˛ ¨ 1 ˛
? ´? ?
A “ ˝ 12 2 ‹
˚ ˚ 2 ‹
1 ‚ y B “ ˝ 1 ‚.
? ? ?
2 2 2
En este caso, la idea de operar A ¨ B viene del ejemplo anterior. Concretamente, se calcula F1 pAq ¨ B y
F2 pAq ¨ B, donde Fi pAq denota la i-ésima fila de A:
¨ 1 ˛
?
˚ 2 ‹
˝ 1 ‚“ B
?
2

¨
1 1 ˛ ¨ 1 1 1 1 ˛ ˆ ˙
? ´? ? ¨? ´? ¨ ?
˚ 2 2 ‹ ˚ 2 2 2 2 ‹ 0
A“˝ 1 1 ‚ ˝ 1 1 1 1 ‚“ “A¨B
? ? ? ¨? `? ¨ ? 1
2 2 2 2 2 2
Geométricamente, en este caso multiplicar A por B representa rotar al vector B alrededor del origen en
un ángulo de fi{4 radianes:

27
De manera más general, si tenemos
¨ ˛
b11
ˆ ˙ ˚ b21 ‹
a11 a12 ¨¨¨ a1p ˚ ‹
A“ y B“˚ .. ‹
a21 a22 ¨¨¨ a2p ˝ . ‚
bp1

entonces ¨ ÿ ˛
p
ˆ ˙ ˚ a1k ¨ bk1 ‹
a11 ¨ b11 ` a12 ¨ b21 ` ¨ ¨ ¨ ` a1p ¨ bp1 ˚ k“1 ‹
A¨B “ “˚ ÿp ‹,
a21 ¨ b11 ` a22 ¨ b21 ` ¨ ¨ ¨ ` a2p ¨ bp1 ˝ ‚
a2k ¨ bk1
k“1

aunque por supuesto para p ° 3 se pierde la representación geométrica de A ¨ B como la rotación de B


alrededor del origen a razón de cierto ángulo.
Una cosa que podemos notar de los ejemplos anteriores es que, para determinar el término ij de A ¨ B,
necesitamos la fila i de A, la columna j de B y operar Fi pAq ¨ Cj pBq como en el Ejemplo 14. Pasamos
entonces a estar listos para definir formalmente el producto entre matrices.

Definición 2.4

Sean
A P Mmˆp pRq y B P Mpˆn pRq
dos matrices con las dimensiones indicadas. Se define el producto o multiplicación entre A y B
como la matriz
A ¨ B P Mmˆn pRq
(o simplemente AB) cuyo coeficiente ij (con i P t1, . . . , mu y j P t1, . . . , nu) está dado por
p
ÿ
pA ¨ Bqij “ Fi pAq ¨ Cj pBq “ aik ¨ bkj .
k“1

28
Es decir,
¨ ˛
b11 ¨¨¨ b1j ¨¨¨ b1n
˚ b21 ¨¨¨ b2j ¨¨¨ b2n ‹
˚ ‹
˚ .. .. .. .. .. ‹ “B
˝ . . . . . ‚
bp1 ¨¨¨ bpj ¨¨¨ bpn pˆn

¨ ˛
a11 a12 ¨¨¨ a1p ¨ ˛
˚ .. .. .. .. ‹ ..
˚ .
˚ . . . ‹‹ ˚ . ‹
A“˚
˚ ai1 ai2 ¨¨¨ aip ‹‹
˚ ¨¨¨
˝ ai1 bij ` ai2 b2j ` ¨ ¨ ¨ ` aip bpj ¨¨¨ ‹
‚ “ A ¨ B.
˚ . .. .. .. ‹ ..
˝ .. . . . ‚ . mˆn
am1 am2 ¨¨¨ amp mˆp
¨ ˛
1 0 ˆ ˙
˚ ´2 3 ‹ 0 6 1
Ejemplo 16. Sean A “ ˚
˝ 5
‹yB “ . Luego,
4 ‚ 3 8 ´2
0 1
ˆ ˙
0 6 1
3 8 ´2

¨ ˛ ¨ ˛ ¨ ˛
1 0 1¨0`0¨3 1¨6`0¨8 1 ¨ 1 ` 0 ¨ p´2q 0 6 1
˚ ´2
˚ 3 ‹ ˚ ´2 ¨ 0 ` 3 ¨ 3
‹ ˚ ´2 ¨ 6 ` 3 ¨ 8 ´2 ¨ 1 ` 3 ¨ p´2q ‹ ˚ 9 12
‹“˚ ´8 ‹
‹ “ AB.
˝ 5 4 ‚ ˝ 5¨0`4¨3 5¨6`4¨8 5 ¨ 1 ` 4 ¨ p´2q ‚ ˝ 12 62 ´3 ‚
0 1 0¨0`1¨3 0¨6`1¨8 0 ¨ 1 ` 1 ¨ p´2q 3 8 ´2

Observación 2.1

El producto de matrices no es conmutativo. Para empezar, aunque AB esté definido, puede darse
que BA no, porque el número de columnas de B puede no coincidir con el número de filas de A.
Esto ocurre por ejemplo con
¨ ˛
` ˘ ´1 0
A“ 1 1 0 y B “ ˝ 2 3 ‚,
´2 1

donde se puede calcular AB, pero BA no.


Incluso en el caso en el cual tanto AB como BA estén definidos, no necesariamente va a ocurrir
que AB “ BA. Considere por ejemplo las matrices
ˆ ˙ ˆ ˙
1 0 1 1
A“ y B“ .
0 ´1 0 1

Puede notar que ˆ ˙ ˆ ˙


1 1 1 ´1
AB “ pero BA “ .
0 ´1 0 ´1

29
Si bien la conmutatividad no se cumple para el producto de matrices, hay propiedades que sí lo harán,
las cuales probaremos a continuación.

Proposición 2.3: propiedades del producto de matrices

[propiedad asociativa]: Si A P Mmˆp pRq, B P Mpˆq pRq y C P Mqˆn pRq, entonces

pABqC “ ApBCq.

[propiedad distributiva 1]: Si A, B P Mmˆp pRq y C P Mpˆn pRq, entonces

pA ` BqC “ AC ` BC.

[propiedad distributiva 2]: Si A, B P Mpˆn pRq y C P Mmˆp pRq, entonces

CpA ` Bq “ CA ` CB.

Si A P Mmˆn pRq, entonces

Imˆm A “ A y A Inˆn “ A.

Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices, por
lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq.
Demostración:
Propiedad asociativa: Probemos que rpABqCsij “ rApBCqsij .
q q
˜ p ¸ q ÿ p q ÿ
p
ÿ ÿ ÿ ÿ ÿ
rpABqCsij “ pABqik ckj “ ail blk ckj “ pail blk qckj “ ail pblk ckj q
k“1 k“1 l“1 k“1 l“1 k“1 l“1
p ÿq p
˜ q
¸ p
ÿ ÿ ÿ ÿ
“ ail pblk ckj q “ ail blk ckj “ ail pBCqlj “ rApBCqsij .
l“1 k“1 l“1 k“1 l“1

Propiedad distributiva 1: Probemos que rpA ` BqCsij “ rAC ` BCqsij .


p
ÿ p
ÿ p
ÿ
rpA ` BqCsij “ pA ` Bqik ckj “ paik ` bik qckj “ paik ckj ` bik ckj q
k“1 k“1 k“1
ÿp p
ÿ
“ aik ckj ` bik ckj “ pACqij ` pBCqij “ rAC ` BCsij .
k“1 k“1

Propiedad distributiva 2: La demostración es análoga a lo que se hizo para probar la propiedad


distributiva 1.
Solamente demostraremos Imˆm A “ A, ya que la igualdad A Inˆn “ A se sigue de manera
análoga. Debemos verificar que rImˆm Asij “ aij .
ÿ
m
rImˆm Asij “ pImˆm qik akj “ pImˆm qii aij “ 1 ¨ aij “ aij .
k“1

30
"
1 si k “ i,
Tenga en cuenta que pImˆm qik “ .
0 si k ‰ i.

Observación 2.2

Una aplicación del producto de matrices es poder representar un sistema de ecuaciones lineales
mediante una notación más simple. En efecto, sea
$

’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ b1 ,

& a21 x1 ` a22 x2 ` ¨ ¨ ¨ ` a2n xn “ b2 ,
pSq : ..

’ .

%
am1 x1 ` am2 x2 ` ¨ ¨ ¨ ` amn xn “ bm .

un sistema de ecuaciones lineales. Podemos notar que los números que aparecen del lado
izquierdo de las igualdades corresponden a las entradas de la matriz producto AX, donde
¨ ˛ ¨ ˛
a11 a12 ¨ ¨ ¨ a1n x1
˚ a21 a22 ¨ ¨ ¨ a2n ‹ ˚ x2 ‹
˚ ‹ ˚ ‹
A“˚ . . . . ‹ P Mmˆn pRq y X “ ˚ . ‹ P Mnˆ1 pRq.
˝ .. .. .. .. ‚ ˝ .. ‚
am1 am2 ¨ ¨ ¨ amn xn
¨ ˛
b1
˚ b2 ‹
˚ ‹
Luego, si denotamos b “ ˚ .. ‹ P Mmˆ1 pRq, entonces pSq es la ecuación matricial AX “ b.
˝ . ‚
bm

2.5. Traspuesta de una matriz


La última operación con matrices que vamos a estudiar corresponde a la transposición. Se trata de un
concepto que permite definir ciertos tipos de simetría asociados a una matriz, que a su vez pueden arrojar
mucha información sobre dicha matriz. Esto último será tema de discusión en capítulos posteriores.
Informalmente hablando, la transposición “refleja” una matriz respecto a su diagonal. Formalmente, se
tiene la siguiente definición.

Definición 2.5

Sea A “ paij q P Mmˆn pRq. Se define la traspuesta de A como la matriz At P Mnˆm pRq (note
que se invierte la dimensión de A) cuyo coeficiente ji viene dado por

pAt qji “ aij

para todo j P t1, . . . , nu e i P t1, . . . , mu.

31
¨ ˛ ¨ ˛
ˆ ˙ a11 a21 2 3
2 4 1
Ejemplo 17. Para A “ , tenemos que At “ ˝ a12 a22 ‚ “˝ 4 0 ‚.
3 0 ´1 2ˆ3 a a23 3ˆ2 1 ´1
¨ ˛ 13
ˆ ˙ 2 3
2 4 1 p´qt
De manera más visual, tenemos ›››Ñ ˝ 4 0 ‚.
3 0 ´1 œ
1 ´1

Proposición 2.4: propiedades de la transposición

Las siguientes afirmaciones se cumplen para cualesquiera matrices A, B P Mmˆn pRq y – P R:


[preservación de la suma de matrices]: pA ` Bqt “ At ` B t .
[preservación del producto por un escalar]: p– Aqt “ – At .

[involución]: pAt qt “ A.
Para el caso en el cual A P Mmˆp pRq y B P Mpˆn pRq, se cumple:
[inversión del orden del producto]:

pABqt “ B t At .

Idea de la demostración: En todas las afirmaciones se debe demostrar una igualdad entre matrices, por
lo que se debe aplicar la definición de la relación de igualdad en Mmˆn pRq.
Demostración: Para A “ paij q, B “ pbij q P Mmˆn pRq, tenemos que

rpA ` Bqt sji “ pA ` Bqij “ aij ` bij “ pAt qji ` pB t qji .

De manera análoga, se puede probar que rp– Aqt sji “ –rAt sji y rpAt qt sij “ aij .

Ahora supongamos que A P Mmˆp pRq y B P Mpˆn pRq. Luego,


p
ÿ p
ÿ p
ÿ
t t t t
rB A sji “ pB qjk pA qki “ bkj aik “ aik bkj “ pABqij “ rpABqt sji .
k“1 k“1 k“1

2.6. Matrices invertibles


Supongamos que tenemos un sistema de n ecuaciones lineales pSq con n incógnitas, escrito (ver
Observación 2.6) como una ecuación matricial

AX “ b.

Hallar una solución de pSq consiste en encontrar una matriz columna X P Mnˆ1 pRq que satisfaga esta
ecuación matricial.
Para el caso en el cual n “ 1, es bastante claro el proceder. Si A (en este caso un número real) vale
cero, concluimos que la ecuación (numérica) AX “ b no tiene solución para b ‰ 0, o que tiene infinitas

32
soluciones (todos los número reales) para b “ 0. Ahora, si A ‰ 0, entonces existe un número real A´1 tal
que A´1 A “ 1. Luego, hacemos el procedimiento

A´1 pAXq “ A´1 b


pA´1 AqX “ A´1 b
1 X “ A´1 b
X “ A´1 b

lo que informalmente llamamos “pasar A dividiendo al otro lado”. Por lo tanto, X “ A´1 b es la solución
a la ecuación numérica en este caso.
¿Qué pasa si n ° 1? ¿Qué significa en este caso que exista una matriz A´1 tal que A´1 A “ Inˆn ? La
siguiente definición da respuesta a esto.

Definición 2.6

Una matriz cuadrada A P Mnˆn pRq se dice invertible si existe B P Mnˆn pRq tal que

A B “ Inˆn y B A “ Inˆn .

A pesar de tener el concepto anterior, no es apropiado hablar de “división de matrices”. En efecto,


si tenemos dos matrices A, B P Mnˆn pRq, donde B es invertible, una notación del tipo A{B es
inconveniente, ya que A{B puede interpretarse (si hacemos la analogía con la división en R) como
A{B “ A B ´1 o como A{B “ B ´1 A. Por otro lado, sabemos que el producto de matrices no es
conmutativo, por lo que A{B tendría un significado ambiguo.

Observación 2.3

Respecto a la definición anterior:


1. En principio, se deben verificar ambas igualdades A B “ Inˆn y B A “ Inˆn ya que el
producto de matrices no es conmutativo. Sin embargo, por un resultado que enunciaremos
posteriormente, basta solamente con verificar una de estas dos igualdades.

2. La matriz B es única, y se conoce como la inversa de A, denotada por B “ A´1 .


En efecto, supongamos que existe otra matriz B 1 P Mnˆn pRq tal que A B 1 “ Inˆn y B 1 A “
Inˆn . Luego, al multiplicar la primera igualdad por B, y usando las propiedades asociativa
del producto y del producto por la identidad, nos queda

pB Aq B 1 “ B
Inˆn B 1 “ B
B 1 “ B.

33
Ejemplo 18.

1. Toma matriz escalar – Inˆn es invertible para – ‰ 0, y su inversa es

p– Inˆn q´1 “ –´1 Inˆn .

En particular, la matriz identidad es invertible, y su inversa es ella misma.

2. Una matriz diagonal ¨ ˛


d11 0 ¨¨¨ 0 0
˚
˚ 0 d22 ¨¨¨ 0 0 ‹

˚
D“˚ .. .. .. .. .. ‹
˚ . . . . . ‹

˝ 0 0 ¨¨¨ dn´1 n´1 0 ‚
0 0 ¨¨¨ 0 dnn
es invertible si, y sólo si, d11 , d22 , . . . , dn´1 n´1 , dnn ‰ 0. En tal caso, se tiene
¨ ´1 ˛
d11 0 ¨¨¨ 0 0
˚ 0 d´1
22 ¨¨¨ 0 0 ‹
˚ ‹
D “ ˚ ..
´1 ˚ . .
.. . .. .
.. .. ‹
˚ . ‹‹
˝ 0 0 ¨¨¨ d ´1
0 ‚
n´1 n´1
0 0 ¨¨¨ 0 d´1
nn

¨ ˛ ¨ ˛
5 0 0 1{5 0 0
3. La matriz A “ ˝ 1 5 0 ‚es invertible y A´1 “ ˝ ´1{25 1{5 0 ‚.
0 1 5 1{125 ´1{25 1{5
Como ejercicio, verifique que A´1 A “ I3ˆ3 y A A´1 “ I3ˆ3 . Más adelante, veremos métodos para
determinar cuándo una matriz A es invertible y a su vez hallar A´1 .
ˆ ˙
2 2
4. La matriz A “ no es invertible.
1 1
Como mencionamos en el ejemplo anterior, más adelante definiremos métodos para poder notar
esto de forma eficaz. Por el momento, tenemos pocas herramientas. Algo que podemos hacer es
usar el método de demostración por reducción al absurdo, es decir, suponer que A sí es invertible
y llegar a una contradicción.
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
a b 2 2 a b 1 0
Entonces, supongamos que existe B “ tal que “ .
c d 1 1 c d 0 1
Luego, ˆ ˙ ˆ ˙
2a ` 2c 2b ` 2d 1 0
“ .
a`c b`d 0 1
Tenemos en particular que 2a ` 2c “ 1 y a ` c “ 0, de donde se sigue que 0 “ 1, lo cual claramente
es una contradicción. Por lo tanto, A no es invertible.

34
Proposición 2.5: propiedades de las matrices invertibles

Las siguientes afirmaciones se cumplen para cualesquiera matrices A, B P Mnˆn pRq:

[involución]: Si A es invertible, entonces A´1 también lo es. Más aún, pA´1 q´1 “ A.
[inversión del orden del producto]: A y B son invertibles si, y sólo si, A B lo es. En caso de
cumplirse cualquiera de estas afirmaciones equivalentes, se tiene que pA Bq´1 “ B ´1 A´1 .
[conmutatividad con la transposición]: A es invertible si, y sólo si, At lo es. En caso de
cumplirse cualquiera de estas afirmaciones equivalentes, se tiene que pAt q´1 “ pA´1 qt .

Idea de la demostración: Note que muchas de las afirmaciones consisten en construir una nueva matriz
invertible a partir de matrices invertibles dadas. En cada afirmación se enuncia quién debería ser la
inversa de la nueva matriz invertible construida. La idea general es la siguiente: para probar que C es
invertible, se propone una candidata a inversa, digamos D, y luego verificamos que C D “ Inˆn y
D C “ Inˆn . Entonces, por la unicidad de la inversa, se concluye que D “ C ´1 . Por ejemplo, para probar
que A´1 es invertible, se propone como candidata a inversa de A´1 a la propia matriz A.
Tenga en cuenta además que para probar la igualdad pA´1 q´1 “ A (o cualquiera de las otras igualdades
enunciadas), se sigue una estrategia diferente a la que estamos acostumbrados. En resultados anteriores,
se demostraban igualdades entre matrices verificando que había coincidencia coeficiente a coeficiente.
Esto no lo podemos hacer para las propiedades de las matrices invertibles, ya que desconocemos (por el
momento) quiénes son explícitamente los coeficientes de la inversa de una matriz (es decir, no tenemos
una fórmula que nos dice cuánto vale pA´1 qij a partir de los coeficientes de A).
Demostración:

Involución: Partimos con la hipótesis de que A es invertible, por lo que existe su inversa A´1 . Ahora,
queremos probar que A´1 es invertible. Proponemos entonces como candidata a inversa a la matriz
A. Vemos que, como A´1 es la inversa de A, se cumple que

A´1 A “ Inˆn y A A´1 “ Inˆn .

Es decir, existe una matriz (en este caso A) tal que al multiplicarla por A´1 a ambos lados se obtiene
la identidad. Se tiene entonces que A´1 es invertible. Más aún, por la unicidad de la inversa, se tiene
que la inversa de A´1 es A, es decir, pA´1 q´1 “ A.
Si A es invertible, entonces A´1 también lo es. Más aún, pA´1 q´1 “ A.

Inversión del orden del producto: Tenemos un enunciado del tipo “si, y sólo si”, por lo que se deben
probar dos implicaciones:
• A y B invertibles ùñ A B invertible: Como A y B son invertible, se tiene que existen A´1
y B ´1 . Entonces, podemos considerar el producto B ´1 A´1 . Este producto va a ser nuestro
candidato a inversa de A B. En efecto, podemos notar usando las propiedades asociativa del
producto y de la identidad que

pB ´1 A´1 q pA Bq “ B ´1 pA´1 Aq B “ B ´1 Inˆn B “ B ´1 B “ Inˆn .

De manera análoga, se puede verificar que pA BqpB ´1 A´1 q “ Inˆn . Por lo tanto, A B es
invertible y su inversa viene dada por B ´1 A´1 , es decir, pA Bq´1 “ B ´1 A´1 .

35
• A B invertible ùñ A y B invertibles:

Vamos a posponer la demostración de esta implicación, ya que de momento


no tenemos las herramientas teóricas para encararla. Veremos más adelante dos
demostraciones a este hecho, y una más en el siguiente capítulo.

Conmutatividad con la transposición: Nuevamente, debemos demostrar un enunciado del tipo “si,
y sólo si”.
• A invertible ùñ At invertible: Como A es invertible, existe A´1 . Luego, proponemos a pA´1 qt
como candidata a inversa. Usando las propiedades de la transposición, tenemos que

pA´1 qt At “ pA A´1 qt “ pInˆn qt “ Inˆn .

De manera análoga, se verifica también que At pA´1 qt “ Inˆn . Por lo tanto, At es invertible
con inversa dada por pA´1 qt , es decir, pAt q´1 “ pA´1 qt .
• At invertible ùñ A invertible: Por la implicación anterior aplicada a At , tenemos que A “
pAt qt es invertible.

2.7. Método para hallar la inversa de una matriz invertible


Hasta el momento hemos estudiado cuáles propiedades cumple la inversa de una matriz, una vez
que ya se sabe que dicha inversa existe. Ahora, ¿cómo respondemos a esto último? En las últimas dos
secciones de este capítulo, analizaremos dos métodos que dan respuesta a lo anterior. Estos métodos no
solamente determinan si cualquier matriz (cuadrada) A es invertible o no, sino que, en caso de serlo, dan
explícitamente a A´1 .
El primer método que vamos a ver está basado en el método de eliminación de Gauss-Jordan, junto con
el siguiente resultado (cuya demostración omitiremos).

Proposición 2.6

Sea A P Mnˆn pRq. Entonces, A es invertible si, y sólo si, existe X P Mnˆn pRq tal que A X “ Inˆn .

En otras palabras, para demostrar que una matriz es invertible, basta solamente con verificar una de
las condiciones de la Definición 2.6 una vez que se tiene una candidata a matriz inversa.
Pensemos ahora en cómo hallar X dada A (en caso de ser posible) tal que AX “ Inˆn . Note que
básicamente lo que se nos pide es resolver una ecuación matricial donde A e Inˆn son matrices conocidas,
y X es la matriz incógnita. Para un mejor entendimiento, explicaremos este procedimiento mediante un
ejemplo, y luego lo enunciaremos de manera general.
¨ ˛
1 ´1 2
Ejemplo 19. Determine si la matriz A “ ˝ ´2 0 4 ‚es invertible, y en caso de serlo, hallar A´1 .
0 ´2 7
36
¨ ˛
x11 x12 x13
Queremos ver si es posible hallar X “ ˝ x21 x22 x23 ‚tal que
x31 x32 x33
¨ ˛
x11 x12 x13
˝ x21 x22 x23 ‚
x31 x32 x33

¨ ˛ ¨ ˛ ¨ ˛
1 ´1 2 x11 ´ x21 ` 2x31 x12 ´ x22 ` 2x32 x13 ´ x23 ` 2x33 1 0 0
˝ ´2 0 4 ‚ ˝ ´2x11 ` 4x31 ´2x12 ` 4x32 ´2x13 ` 4x33 ‚ “ ˝ 0 1 0 ‚
0 ´2 7 ´2x21 ` 7x31 ´2x22 ` 7x32 ´2x23 ` 7x33 0 0 1
Vemos que se desprenden así los sistemas de ecuaciones
$ $ $
& x11 ´ x21 ` 2x31 “ 1 & x12 ´ x22 ` 2x32 “ 0 & x13 ´ x23 ` 2x33 “ 0
pS1 q : ´2x11 ` 4x31 “ 0 , pS2 q : ´2x12 ` 4x32 “ 1 y pS3 q : ´2x13 ` 4x33 “ 0 .
% % %
´2x21 ` 7x31 “ 0 ´2x22 ` 7x32 “ 0 ´2x23 ` 7x33 “ 1
Equivalentemente,
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x11 1
pS1 q : ˝ ´2 0 4 ‚˝ x21 ‚ “ ˝ 0 ‚,
0 ´2 7 x31 0
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x12 0
pS2 q : ˝ ´2 0 4 ‚˝ x22 ‚ “ ˝ 1 ‚,
0 ´2 7 x32 0
¨ ˛¨ ˛ ¨ ˛
1 ´1 2 x13 0
pS3 q : ˝ ´2 0 4 ‚˝ x23 ‚ “ ˝ 0 ‚.
0 ´2 7 x33 1
Entonces, encontrar la matriz X es equivalente ha resolver cada uno de los sistemas anteriores y que a su
vez todos tengan solución. Como los tres sistemas tienen la mista matriz asociada A, podemos escalerizar
las tres matrices ampliadas simultáneamente en el siguiente arreglo:
¨ ˛
1 ´1 2 1 0 0
˝ ´2 0 4 0 1 0 ‚.
0 ´2 7 0 0 1
Procedemos a escalerizar:
¨ ˛ ¨ ˛ ¨ ˛
1 ´1 2 1 0 0 1 ´1 2 1 00 1 ´1 2 1 0 0
F2 –pF2 `2F1 q F3 –pF3 ´F2 q
˝ ´2 0 4 0 1 0 ‚ ›››››››››Ñ ˝ 0 ´2 8 2 1
0 ‚ ››››››››Ñ ˝ 0 ´2 8 2 1 0 ‚
0 ´2 7 0 0 1 0 ´2 7 0 10 0 0 ´1 ´2 ´1 1
¨ ˛ ¨ ˛
1 ´1 0 ´3 ´2 2 1 ´1 0 ´3 ´2 2
F1 –pF1 `2F3 q ´F3 ˝
›››››1››››Ñ ˝ 0 1 ´4 ´1 ´1{2 0 ‚ ›››Ñ 0 1 ´4 ´1 ´1{2 0 ‚
´ 2 F2
0 0 ´1 ´2 ´1 1 0 0 1 2 1 ´1
¨ ˛ ¨ ˛
1 ´1 0 ´3 ´2 2 1 0 0 4 3{2 ´2
F2 –pF2 `4F3 q F1 –pF1 `F2 q
›››››››››Ñ ˝ 0 1 0 7 7{2 ´4 ‚ ››››››››Ñ ˝ 0 1 0 7 7{2 ´4 ‚.
0 0 1 2 1 ´1 0 0 1 2 1 ´1
Tenemos entonces que las soluciones a los sistemas (S1 ), (S2 ) y (S3 ) vienen dadas por
¨ ˛ ¨ ˛ ¨ ˛
4 3{2 ´2
˝ 7 ‚, ˝ 7{2 ‚ y ˝ ´4 ‚,
2 1 ´1
37
respectivamente, por lo que concluimos que A es invertible y que
¨ ˛
4 3{2 ´2
A´1 “ X “ ˝ 7 7{2 ´4 ‚.
2 1 ´1
Una vez asimilado el ejemplo anterior, podemos explicar el método general para determinar si una
matriz ¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ a21 a22 ¨ ¨ ¨ a2n ‹
˚ ‹
A“˚ . .. .. .. ‹ P Mnˆn pRq
˝ .. . . . ‚
an1 an2 ¨ ¨ ¨ ann
es invertible de la siguiente manera.
1. Se quiere determinar si es posible resolver la ecuación matricial AX “ Inˆn .
2. Lo anterior es equivalente a resolver simultáneamente los sistemas de ecuaciones (de n ecuaciones
y n incógnitas) A Cj pXq “ ej con j P t1, . . . , nu, donde
¨ ˛
0
˚ 0 ‹
¨ ˛ ˚ ‹
x1j ˚ .. ‹
˚ . ‹
˚ x2j ‹ ˚ ‹
˚ ‹ ˚ 0 ‹
Cj pXq “ ˚ . ‹ y ej “ ˚ ˚ 1 ‹

˝ .. ‚ ˚ ‹
˚ 0 ‹
xnj ˚ ‹
˚ . ‹
˝ .. ‚
0

denotan la j-ésima columna de X y de Inˆn , respectivamente.1


3. La matriz A es invertible si, y sólo si, todos los sistemas A Cj pXq “ ej son compatibles. En tal caso,
se determina la inversa de A escalerizando la matriz
` ˘
A Inˆn .

Es decir, se aplican transformaciones elementales a toda la matriz anterior hasta llegar a la forma
escalerizada reducida de A, llamémosla R. Si A es invertible, R “ Inˆn . En este caso, A´1 va a ser
la matriz resultante de aplicar a Inˆn las mismas transformaciones elementales que se le aplicaron
a A.

¿Qué pasa cuando A no es invertible?

En este caso, R no va a ser la identidad, y va a tener al menos una fila de ceros. En la práctica,
si al escalerizar pA | Inˆn q obtenemos una fila de ceros en el bloque correspondiente a A,
detenemos el proceso y concluimos que A no es invertible. Esto quedará más claro con el
siguiente ejemplo.

1
Si bien para ser coherentes, habríamos tenido que denotar por Cj pInˆn q a la j-ésima columna de Inˆn , la notación ej es más
popular, y será empleada ampliamente cuando lleguemos al capítulo de espacios vectoriales.

38
Ejemplo 20. Determine si la matriz
¨ ˛
8 11 2 8
˚ 0 ´7 2 ´1 ‹
A“˚ ‹
˝ ´3 ´7 2 1 ‚
5 ´3 6 8

es invertible o no. En caso afirmativo, hallar su inversa.

Aplicamos el algoritmo descrito anteriormente:


¨ ˛ ¨ ˛
8 11 2 8 1 0 0 0 8 11 2 8 1 0 00
˚ 0 ´7 2 ´1 0 1 0 0 ‹ F4 –pF4 ´F1 q ˚ 0 ´7 2 ´1 0 1 00 ‹
˚ ‹ ››››››››Ñ ˚ ‹
˝ ´3 ´7 2 1 0 0 1 0 ‚ ˝ ´3 ´7 2 1 0 0 10 ‚
5 ´3 6 8 0 0 0 1 ´3 ´14 4 0 ´1 0 01
¨ ˛
8 11 2 8 1 0 0 0
F4 –pF4 ´F3 q ˚ 0 ´7 2 ´1 0 1 0 0 ‹
››››››››Ñ ˚ ‹
˝ ´3 ´7 2 1 0 0 1 0 ‚
0 ´7 2 ´1 ´1 0 ´1 1
¨ ˛
8 11 2 8 1 0 0 0
F4 –pF4 ´F2 q ˚
˚ 0 ´7 2 ´1 0 1 0 0 ‹‹
››››››››Ñ ˝
´3 ´7 2 1 0 0 1 0 ‚
0 0 0 0 ´1 ´1 ´1 1

Llegamos dentro del bloque izquierdo a una matriz con una fila de ceros. No hace falta seguir
escalerizando para llegar a la forma escalerizada reducida de A, porque en este punto ya sabemos que
tendrá al menos una fila de ceros. Concluimos entonces que A no es invertible.

Dentro del bloque de la derecha nunca se va a generar una fila de ceros. Esto se debe a que
la identidad Inˆn tiene rango n (con n “ 4 en el ejemplo anterior), y las transformaciones
elementales no alteran el rango de una matriz.

Observación 2.4

En este punto podemos dar una prueba de que AB invertible implica A y B invertibles. En efecto,
si AB es invertible, por la Proposición 2.7 existe X tal que pABqX “ Inˆn . Luego, ApBXq “ Inˆn ,
de donde se sigue que A es invertible (usando de nuevo 2.7). Al multiplicar la igualdad anterior por
A´1 , tenemos que BX “ A´1 , lo cual implica que BX es invertible. Entonces, existe Y tal que
pBXqY “ Inˆn , es decir, BpXY q “ Inˆn . Por lo tanto, B es invertible.

39
2.8. Matrices elementales
En esta última sección describiremos otro método para hallar la inversa de una matriz invertible. En
la práctica, este método no será utilizado ya que notacionalmente es más pesado que el anterior. Su
importancia radica más en los conceptos y propiedades teóricas que tiene presentes y que serán de gran
utilidad en el siguiente capítulo sobre determinantes.
Tal como hicimos en la sección anterior, describiremos el método mediante un ejemplo, para luego
plantearlo de forma general. A su vez, haremos en paralelo el método estudiado en la sección anterior.
Ejemplo 21. Sabemos del Ejemplo 18 3. que la matriz
¨ ˛
5 0 0
A“˝ 1 5 0 ‚
0 1 5

es invertible. Vamos ahora a hallar su inversa paso a paso:


¨ ˛ ¨ ˛
5 0 0 1 0 0 1 1 0 0 1{5 0 0
F1
1. pA | I3ˆ3 q “ ˝ 1 5 0 0 1 0 ‚ ›› 5
›Ñ ˝ 1 5 0 0 1 0 ‚ “ pA1 | E1 q:
0 1 5 0 0 1 0 1 5 0 0 1
Por otro lado, notamos que
¨ ˛¨ ˛ ¨ ˛
1{5 0 0 5 0 0 1 0 0
E1 A “ ˝ 0 1 0 ‚˝ 1 5 0 ‚“ ˝ 1 5 0 ‚ “ A1 .
0 0 1 0 1 5 0 1 5

1
Es decir, aplicar la transformación elemental F1 a A es equivalente a multiplicar A por la matriz
5
E1 .
¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1 0 0 1{5 0 0
F2 –pF2 ´F1 q
2. pA1 | E1 q “ ˝ 1 5 0 0 1 0 ‚ ››››››››Ñ ˝ 0 5 0 ´1{5 1 0 ‚ “ pA2 | E2 E1 q:
0 1 5 0 0 1 0 1 5 0 0 1
Por otro lado, si
¨ ˛
1 0 0
E2 “ ˝ ´1 1 0 ‚ (es decir, E2 resulta de aplicar F2 – pF2 ´ F1 q a la matriz I3ˆ3 )
0 0 1

notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0 0
E2 A1 “ ˝ ´1 1 0 ‚˝ 1 5 0 ‚“ ˝ 0 5 0 ‚ “ A2 ,
0 0 1 0 1 5 0 1 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E2 E1 “ ˝ ´1 1 0 ‚˝ 0 1 0 ‚ “ ˝ ´1{5 1 0 ‚.
0 0 1 0 0 1 0 0 1

Entonces, aplicar la transformación elemental F2 – pF2 ´ F1 q a A1 es equivalente a multiplicar A1


por la matriz E2 .
˜ ¸ ˜ ¸
1 0 0 1{5 0 0 1
F2
1 0 0 1{5 0 0
3. pA2 | E2 E1 q “ 0 5 0 ´1{5 1 0 ›5››Ñ 0 1 0 ´1{25 1{5 0 “ pA3 | E3 E2 E1 q:
0 1 5 0 0 1 0 1 5 0 0 1

40
Donde
¨ ˛
1 0 0
1
E3 “ ˝ 0 1{5 0 ‚ (es decir, E3 resulta de aplicar F2 a la matriz I3ˆ3 ).
5
0 0 1
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0 0
E 3 A2 “ ˝ 0 1{5 0 ‚˝ 0 5
0 ‚ “ ˝ 0 1 0 ‚ “ A3 ,
0 0 1 0 5 1 0 1 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E3 E 2 E1 “ ˝ 0 1{5 0 ‚˝ ´1{5 1 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 0 1 0 0 1 0 0 1
1
Entonces, aplicar la transformación elemental F2 a A2 es equivalente a multiplicar A2 por la
5
matriz E3 .
˜ ¸ ˜ ¸
1 0 0 1{5 0 0 1 0 0 1{5 0 0
F3 –pF3 ´F2 q
4. pA3 | E3 E2 E1 q “ 0 1 0 ´1{25 1{5 0 ›››››››››Ñ 0 1 0 ´1{25 1{5 0 “ pA4 |E4 E3 E2 E1 q:
0 1 5 0 0 1 0 0 5 1{25 ´1{5 1
Donde
¨ ˛
1 0 0
E4 “ ˝ 0 1 0 ‚ (es decir, E4 resulta de aplicar F3 – pF3 ´ F2 q a la matriz I3ˆ3 ).
0 ´1 1
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 01 0 0
E 4 A3 “ ˝ 0 1 0 ‚˝ 0 1
0 ‚“ ˝ 0 1 0 ‚ “ A4 ,
0 ´1 1 0 5 10 0 5
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E 4 E3 E2 E 1 “ ˝ 0 1 0 ‚˝ ´1{25 1{5 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 ´1 1 0 0 1 1{25 ´1{5 1

Entonces, aplicar la transformación elemental F3 – pF3 ´ F2 q a A3 es equivalente a multiplicar A3


por la matriz E4 .
ˆ ˙ ˆ ˙
1 0 0 1{5 0 0 1 1 0 0 1{5 0 0
5 F3
5. pA4 | E4 E3 E2 E1 q “ 0 1 0 ´1{25 1{5 0 ›››Ñ 0 1 0 ´1{25 1{5 0 “ pI3ˆ3 |E5 E4 E3 E2 E1 q:
0 0 5 1{25 ´1{5 1 0 0 1 1{125 ´1{25 1{5

Donde
¨ ˛
1 0 0
1
E5 “ ˝ 0 1 0 ‚ (es decir, E5 resulta de aplicar F3 a la matriz I3ˆ3 ).
5
0 0 1{5
Notamos que
¨ ˛¨ ˛ ¨ ˛
1 0 0 1 0 0 1 0
0
E 5 A4 “ ˝ 0 1 0 ‚˝ 0 1 0 ‚“ ˝ 0 1
0 ‚ “ I3ˆ3 ,
0 0 1{5 0 0 5 0 0
1
¨ ˛¨ ˛ ¨ ˛
1 0 0 1{5 0 0 1{5 0 0
E5 E4 E 3 E2 E 1 “ ˝ 0 1 0 ‚˝ ´1{25 1{5 0 ‚ “ ˝ ´1{25 1{5 0 ‚.
0 0 1{5 1{25 ´1{5 1 1{125 ´1{25 1{5

41
1
Entonces, aplicar la transformación elemental F3 a A4 es equivalente a multiplicar A4 por la
5
matriz E5 .
De lo anterior, notamos que
E5 E4 E3 E2 E1 A “ I3ˆ3 .
Por lo tanto, ¨ ˛
1{5 0 0
A´1 “ E5 E4 E3 E2 E1 “ ˝ ´1{25 1{5 0 ‚.
1{125 ´1{25 1{5

Las matrices Ei con i P t1, 2, 3, 4, 5u son un tipo especial de matrices que definimos a continuación.

Definición 2.7

Una matriz elemental E P Mnˆn pRq es aquélla que se obtiene de aplicar a la identidad Inˆn una
transformación elemental. Al haber tres tipos de transformaciones elementales, tendremos tres
tipos de matrices elementales:
Matriz elemental asociada a la transformación elemental – Fi (con – ‰ 0):
¨ ˛
1 ¨¨¨ 0 ¨¨¨ 0
˚ .. . . . .. . ‹
˚ .
˚ . .. . .. ‹

˚ 0 ¨¨¨ – ¨¨¨ 0 ‹.
– Fi
Inˆn ›››Ñ E“˚ ‹
˚ . . . . . ‹
˝ .. . . .. . . .. ‚
0 ¨¨¨ 0 ¨¨¨ 1

Matriz elemental asociada a la transformación elemental Fi Ø Fj :


¨ ˛
1 ¨¨¨ 0 ¨¨¨ 0 ¨¨¨ 0
˚ .. .. .. .. .. .. .. ‹
˚ . . . . . . . ‹
˚ ‹
˚ 0 ¨¨¨ 0 ¨¨¨ 1 ¨¨¨ 0 ‹
˚ ‹
››››Ñ E “ ˚ ... .. .. .. .. .. .. ‹ .
Fi ØFj ˚
Inˆn
˚ . . . . . . ‹‹
˚ 0 ¨¨¨ 1 ¨¨¨ 0 ¨¨¨ 0 ‹
˚ ‹
˚ . .. .. .. .. .. .. ‹
˝ .. . . . . . . ‚
0 ¨¨¨ 0 ¨¨¨ 0 ¨¨¨ 1

Matriz elemental asociada a la transformación elemental Fi – pFi ` – Fj q:


¨ ˛
1 ¨¨¨ 0 ¨¨¨ 0 ¨¨¨ 0
˚ .. .. .. .. .. .. .. ‹
˚ . . . . . . . ‹
˚ ‹
˚ 0 ¨¨¨ 1 ¨¨¨ 0 ¨¨¨ 0 ‹
˚ ‹
›››››››››Ñ E “ ˚ ... .. .. .. .. .. .. ‹ .
Fi –pFi `– Fj q ˚
Inˆn
˚ . . . . . . ‹‹
˚ 0 ¨¨¨ – ¨¨¨ 1 ¨¨¨ 0 ‹
˚ ‹
˚ . .. .. .. .. .. .. ‹
˝ .. . . . . . . ‚
0 ¨¨¨ 0 ¨¨¨ 0 ¨¨¨ 1

42
En el ejemplo anterior vimos que es posible hallar la inversa de una matriz invertible multiplicando
dicha matriz por un número finito de matrices elementales. Esta idea puede llevarse también al método
de escalerización o eliminación de Gauss-Jordan para hallar la forma escalerizada reducida de cualquier
matriz (no necesariamente cuadrada). Formalizamos esto a continuación.

Proposición 2.7

Sea A P Mmˆn pRq y B la matriz que se obtiene al aplicarle a A una transformación elemental.
Sea E P Mmˆm pRq la matriz elemental asociada a dicha transformación. Entonces, B “ E A.

Sabemos que se puede obtener la forma escalerizada reducida de cualquier matriz a partir de un
número finito de transformaciones elementales aplicadas a dicha matriz. Este resultado se puede
representar en el lenguaje de multipliciación por matrices elementales, aplicando la propisición anterior
un número finito de veces.

Corolario 2.1

Sea A P Mmˆn pRq y R su forma escalerizada reducida. Entonces, existe un número finito de
matrices elementales E1 , . . . , Ek tales que R “ Ek ¨ ¨ ¨ E1 A.
ˆ ˙
transformación elemental # 1 transformación elemental # 2 transformación elemental # k
A ››››››››››››››››Ñ A1 ››››››››››››››››Ñ ¨ ¨ ¨ ››››››››››››››››Ñ R
pE1 q pE2 q pEk q

En cuando a matrices invertibles, resumimos lo aprendido en este capítulo dentro del siguiente
resultado.

Teorema 2.1

Sea A P Mnˆn pRq. Las siguientes condiciones son equivalentes:


(a) A es invertible.
(b) Existen matrices elementales E1 , . . . , Ek tales que A “ E1 E2 ¨ ¨ ¨ Ek .

(c) Existe X P Mnˆn pRq tal que A X “ Inˆn .


(d) rgpAq “ n.

Escrito en LATEX por:


Marco A. Pérez, Ph.D.
Profesor Adjunto Grado 3
Instituto de Matemática y Estadística “Prof. Ing. Rafael Laguardia”
Facultad de Ingeniería - Universidad de la República
Oficina 122
[email protected]

43

También podría gustarte