0% encontró este documento útil (0 votos)
76 vistas17 páginas

Cap1 09

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
76 vistas17 páginas

Cap1 09

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 1

Sistemas de ecuaciones lineales y


álgebra matricial

La resolución de ecuaciones, ya sean algebraicas, diferenciales o de cualquier otro tipo, es quizás el


problema central del álgebra, y por ende, uno de los problemas básicos de las matemáticas. A lo largo de
este curso nos vamos a ocupar de las llamadas ecuaciones lineales, ya sean estas algebraicas o diferenciales.
El interés de estas es múltiple. Algunas razones que motivan este interés son:

Son el tipo de ecuaciones más simple.


Mediante ecuaciones lineales se modeliza una enorme cantidad de fenómenos en las más variadas
disciplinas.
Muchos modelos, aunque no sean lineales, pueden reducirse a uno lineal con una buena aproxi-
mación.
Disponemos de métodos eficaces de resolución.

Comenzamos aquı́ tratando en primer lugar las ecuaciones lineales. En lo que sigue, los coeficientes
que aparecen en las ecuaciones se suponen reales o complejos.
Ejemplo 1.1
Consideremos un circuito eléctrico como en la figura adjunta. Según una de las leyes de Kirchoff,
la suma de las intensidades que entran en cada nodo es igual a la suma de las que salen. Ası́, las
intensidades en el circuito verifican el siguiente sistema de ecuaciones:

−I1 +I2 −I4 = 0


I1 −I3 −I6 = 0
−I2 +I3 +I5 = 0
I4 −I5 +I6 = 0.

El cálculo de las posibles intensidades requiere resolver un sistema de 4 ecuaciones lineales con 6
incógnitas. Observemos que “a ojo”se encuentra una solución de la ecuación: I1 = I2 = I3 = I4 = I5 =
I6 = 0. Esta solución representa el caso en que no pasa corriente (solución trivial). Habitualmente
estamos interesados en el resto de las soluciones. Por otra parte, veremos más tarde que el sistema
anterior tiene múltiples soluciones. Una de ellas, podemos comprobar que es I = (8, 2, 3, −6, −1, 5).
Dado que las intensidades de corriente no pueden ser números negativos, también deberı́amos descartar
2 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

esta solución. Estas y otras consideraciones muestran que a la hora de resolver un sistema (o en
general cualquier problema matemático), además de las consideraciones de tipo puramente matemático
debemos tener en cuenta otras muchas derivadas de la naturaleza del problema inicial.
3
s
¡@ @
¡ @
¡ @
¡ I5 6 @
¡ @ I3
I2 ¡¡
ª
©H
s
© © 4HH @
I
@
¡ © H @
¡ © © H
I4© I 6 HH @
¡ ©© * YH @
H
¡©© HH@
©¡
s¡© - H@ Hs
1 2
I1

1.1. Sistemas de ecuaciones lineales


Llamaremos sistema lineal de n ecuaciones y m incógnitas a un conjunto de expresiones del
tipo 

 a11 x1 +a12 x2 +··· +a1m xm = b1

 a21 x1 +a22 x2 +··· +a2m xm = b2
.. .. ..

 . . .


an1 x1 +an2 x2 +··· +anm xm = bn ,
donde aij ∈ K (K = R, C ó cualquier otro cuerpo).
Una solución del sistema es una familia de números x1 , . . . , xm ∈ K que satisfagan las igualdades
anteriores. Diremos que un sistema es:

Incompatible, si no tiene ninguna solución.


Compatible, si tiene alguna solución.

Si un sistema es compatible, diremos que es:

Determinado, si hay una única solución.


Indeterminado, si tiene varias soluciones.
Ejemplo 1.2

1. El sistema
2x1 − 3x2 = 1
2x1 − 3x2 = 2.
es incompatible.

2. El sistema
2x1 − 3x2 = −1
x1 + 2x2 = 3
es compatible. Su única solución es x1 = 1, x2 = 1.

3. El sistema
x1 − 2x2 + x3 = 0
2x1 + x2 − x3 = 2
1.1. SISTEMAS DE ECUACIONES LINEALES 3

es compatible indeterminado. Si a es un número real cualquiera, x1 = 1 + a, x2 = 1 + 3a,


x3 = 1 + 5a son soluciones.

Ası́ pues, el estudio de un sistema de ecuaciones lineales implica el tratamiento de dos problemas:

1. Discusión de la compatibilidad del sistema, y en su caso, de la unicidad de la solución.


2. Cálculo de la(s) soluciones, caso de que existan.

El método que expondremos aquı́ para la discusión y resolución de un sistema es el método de


Gauss, o eliminación gaussiana. Este método consta de dos fases:

1. Eliminación.
2. Sustitución regresiva.

La idea básica en la que se basa este (y otros) métodos de resolución es la de convertir el sistema en
uno equivalente, y que sea más sencillo de resolver.
Definición 1.3
Dos sistemas del mismo tamaño son equivalentes si tienen el mismo conjunto de soluciones.

Para transformar un sistema en otro equivalente empleamos las llamadas operaciones elementales
con el sistema. Se denominan operaciones elementales a las siguientes:

1. Añadir a una ecuación un número multiplicado por otra.


2. Multiplicar una ecuación por un número a 6= 0.
3. Intercambiar dos ecuaciones.
Teorema 1.4
Si un sistema (S 0 ) se obtiene a partir de otro (S) aplicando una sucesión de operaciones elementales,
entonces (S) y (S 0 ) son equivalentes.

Demostración : Daremos una idea de la prueba. Observemos que basta considerar el caso en que (S 0 ) se
obtiene a partir de (S) empleando una única operación elemental (¿por qué?).
Supongamos que (S 0 ) se obtiene de (S) aplicando una operación de tipo 1. Para simplificar, supongamos
que a la segunda ecuación de (S) le hemos sumado la primera multiplicada por c. Es decir, si (S) es

a11 x1 + a12 x2 + · · · + a1m xm = b1


a21 x1 + a22 x2 + · · · + a2m xm = b2
··· ··· ,

entonces (S 0 ) es

a11 x1 + a12 x2 + · · · + a1m xm = b1


(a21 + ca11 )x1 + (a22 + ca12 )x2 + · · · + (a2m + cx1m )xm = b2 + cb1
··· ··· .

Si los números x1 , . . . , xm verifican (S), debemos comprobar que verifican (S 0 ). Para ellos, basta comprobar
que verifican la segunda ecuación de (S 0 ) (puesto que las demás no cambian), lo cual no presenta dificultad.
Por tanto, toda solución de (S) es también solución de (S 0 ).
Observemos ahora que las operaciones elementales son reversibles. Esto es, si (S 0 ) se obtiene de
(S) por medio de una secuencia de operaciones elementales, también (S) se obtiene de (S 0 ) sumando a
la segunda ecuación la primera multiplicada por −c. Ası́ pues, aplicando el razonamiento anterior, toda
solución de (S 0 ) es también solución de (S), y por consiguiente ambos sistemas tiene las mismas soluciones.
Dejamos al lector analizar qué pasa si (S 0 ) se obtiene de (S) aplicando una operación de tipo 2 o de
tipo 3.
4 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

Los pasos, a grandes rasgos, del método de Gauss, en su forma más simplificada, son los siguientes:

1. Eliminamos la incógnita x1 en todas las ecuaciones salvo la primera, empleando operaciones de tipo
ai1
1. Ası́, se resta a la ecuación i-ésima (i 6= 1) la primera multiplicada por . El término a11 se
a11
ai1
llama pivote, y , multiplicador.
a11
2. Nos olvidamos de la primera ecuación, y nos quedamos con el sistema de n − 1 ecuaciones y m − 1
incógnitas restante.
3. Repetimos el proceso, eliminando x2 en todas las ecuaciones menos la segunda (que ahora es la
primera).
4. Continuamos hasta que nos quedemos sin ecuaciones, o sin incógnitas.

Al final de esta fase, llegamos a un sistema escalonado, es decir, de la forma siguiente:

a11 x1 + a12 x2 + a13 x3 + · · · = b1


a22 x2 + a23 x3 + · · · = b2
a33 x3 + · · · = b3
··· .

La fase de sustitución regresiva comienza ahora:

1. En la última ecuación que nos quede, despejamos una incógnita.


2. Sustituimos el valor de esa incógnita en la penúltima ecuación, y despejamos la última incógnita
eliminada.
3. Repetimos el proceso, sustituyendo el valor despejado en la ecuación anterior, y despejando la
incógnita anterior.
4. Ası́ sucesivamente, despejamos todas las incógnitas.
Ejemplo 1.5
Resolver el sistema
x1 +3x2 +2x3 = 2
−x1 −x2 +3x3 = −5
2x1 +9x2 +5x3 = 6.
Eliminamos x1 . Para la segunda fila, el multiplicador es −1, y para la tercera, 2.
x1 +3x2 +2x3 = 2
2x2 +5x3 = −3
+3x2 +x3 = 2.
Eliminamos x2 . El multiplicador para la tercera fila es 3/2.
x1 +3x2 +2x3 = 2
2x2 +5x3 = −3
− 13
2 x3 = 13
2 .

Llegamos a un sistema escalonado, y comenzamos la sustitución regresiva. Despejamos x3 = −1.


Sustituimos en la segunda ecuación:
2x2 − 5 = −3 ⇒ 2x2 = 2.
Despejamos x2 = 1. Sustituimos en la primera ecuación:
x1 + 3 − 2 = 2 ⇒ x1 = 1.
1.2. ÁLGEBRA MATRICIAL 5

Ya está despejada x1 . En este ejemplo, no ha habido obstrucciones en la aplicación del método, y


hemos comprobado que el sistema original tenı́a solución única.

Pero las cosas no siempre son tan fáciles, y en ocasiones topamos con situaciones en las que se
presentan problemas, y que hemos de saber interpretar, y en su caso, corregir. Veamos alguna de las
cosas que pueden pasar:

1. En el paso r-ésimo, la incógnita xr no aparece en la ecuación r-ésima, pero sı́ en alguna de las
siguientes. En este caso, debemos intercambiar el orden de ambas ecuaciones (operación elemental
de tipo 3) para poder continuar.

2. Llegamos al paso r-ésimo, y la incógnita xr ha desaparecido de la ecuación r-ésima, y de todas las


siguientes. En este caso, seguimos el proceso con la incógnita xr+1 . Al final, si el sistema es compat-
ible, la incógnita xr podrá tomar cualquier valor, y en consecuencia el sistema será indeterminado.

3. Llegado el paso r-ésimo, la ecuación r-ésima ha desaparecido, pero no ası́ alguna de las siguientes.
Un cambio de orden de ecuaciones permite proseguir.

4. Llegamos al paso r-ésimo y han desaparecido todas las ecuaciones, desde la ecuación r-ésima en
adelante. Damos aquı́ por concluida la fase de eliminación, y comenzamos la de sustitución regresiva.

5. En la ecuación r-ésima han desaparecido todas las incógnitas. Es decir, llegamos a una ecuación del
tipo 0 = b, con b 6= 0. El sistema es incompatible.

6. El proceso de eliminación ha concluido porque no nos quedan más ecuaciones. En la última de ellas
aparecen varias incógnitas. En este caso, debemos despejar una de ellas en términos de las restantes.
El sistema será compatible indeterminado.

Lo anterior responde a los problemas de ı́ndole algebraica o formal que podemos encontrar. Hay otros
problemas, de ı́ndole computacional o numérica que no abordaremos aquı́ y que nos obligan a modificar
en ocasiones el algoritmo descrito anteriormente.
Veremos ejemplos de todas las situaciones anteriores.
Ejemplo 1.6
Analı́cense, y en su caso resuélvanse, los sistemas de ecuaciones lineales siguientes:
x1 + 2x2 − x3 + 3x4 = 1 x1 + x2 + 3x3 = 2
1. x1 + 2x2 + 4x4 = 0 2. x1 + x2 + 4x3 = −1
−2x1 + x3 + 3x4 = 3. 2x1 + 2x2 − 3x3 = 0.
x1 − 2x2 − 3x3 + 4x4 = 0
2x1 + 3x2 − x3 = 3
3x1 + x2 = 2
3. 4. 2x1 + 4x2 + 4x3 = 1
4x1 − x2 − 3x3 + 4x4 = 2
−2x1 − 5x2 − 9x3 = 0.
−2x1 − 3x2 − 3x3 + 4x4 = −2.

1.2. Álgebra matricial


En la manipulación de los sistemas anteriores observamos que las operaciones las hacemos exclusiva-
mente con los coeficientes. Ası́, para simplificar, podrı́amos representar el sistema

2x1 −3x2 +x3 = 3


x1 +x2 +7x4 = 0
x1 −3x2 −x3 +2x4 = 1
6 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

por medio del conjunto de números


 
2 −3 1 0 3
1 1 0 7 0 .
1 −3 −1 −2 1

Esto constituye una de las motivaciones de la introducción del concepto de matriz, ası́ como de la
notación matricial. Desarrollamos esta noción a lo largo del presente apartado, y posteriormente veremos
como una matriz representa una aplicación lineal, idea esta que permite una mejor interpretación de gran
número de conceptos del álgebra lineal.
Ası́, llamamos matriz de n filas y m columnas a un conjunto de nm coeficientes dispuestos
rectangularmente como sigue:  
a11 a12 · · · a1m
 a21 a22 · · · a2m 
 
A= . .. .. ..  .
 .. . . . 
an1 an2 · · · anm
El conjunto de todas las matrices n × m con coeficientes sobre un cuerpo K se denotará Mn,m (K), o
abreviadamente Mn,m si no ha lugar a especificar el cuerpo. Hay algunos tipos particulares de matrices,
como son:

1. Matrices cuadradas (n = m). Escribimos Mn .

2. Matrices fila (n = 1), llamadas también vectores fila.


3. Matrices columna (m = 1), llamadas también vectores columna.

En el conjunto Mn,m se define una operación, la suma. Si A, B ∈ Mn,m , el coeficiente (i, j) (fila i,
columna j) de A + B se define como la suma de los coeficientes (i, j) de A y de B. Esta operación goza
de algunas propiedades elementales:

1. A + (B + C) = (A + B) + C.
2. A + B = B + A.
3. Si denotamos −A a la matriz obtenida tomando el opuesto de cada elemento de A, entonces A +
(−A) = (−A) + A = 0 (denotamos 0 la matriz nula, aquella todos cuyos coeficientes son ceros).
4. A + 0 = 0 + A = A.

Ası́, decimos que (Mn,m , +) es un grupo abeliano.


Dada una matriz A ∈ Mn,m y un número a ∈ K, definimos el producto a · A ∈ Mn,m de tal forma
que
(a · A)i,j = a · (A)i,j
(representamos Aij el elemento de la posición (i, j) de la matriz A). Esta nueva operación verifica:

1. a · (A + B) = a · A + a · B.
2. (a + b) · A = a · A + b · A.
3. (a · b) · A = a · (b · A).
4. 1 · A = A.
Ejercicio 1.7
Deducir de lo anterior que si a · A = 0, entonces o bien a = 0 o bien A = 0.
1.2. ÁLGEBRA MATRICIAL 7

1
Solución.- Si a 6= 0, multiplicamos por a:
µ ¶
1 1
0= · (a · A) = · a · A = 1 · A = A.
a a

Una tercera operación con matrices es la multiplicación. Si A ∈ Mn,m y B ∈ Mm,p , definimos la


matriz A · B ∈ Mn,p por
m
X
(A · B)i,j = Aik · Bkj .
k=1

Observemos en primer lugar que para multiplicar dos matrices A, B, es preciso que el número de columnas
de la primera sea igual al número de filas de la segunda. Propiedades:

1. A · (B · C) = (A · B) · C.

2. A · (B + C) = A · B + A · C; (B + C) · A = B · A + C · A.

3. a · (A · B) = (a · A) · B = A · (a · B).

4. Denotamos In la matriz identidad de tamaño n, es decir, In es una matriz cuadrada de n filas


y columnas tal que (
0 si i 6= j
(In )i,j =
1 si i = j.
Es decir, tiene 1 en la diagonal principal, y 0 en el resto de las posiciones. Entonces, si A ∈ Mn,m :

In · A = A · Im = A.

Observaciones.-

1. No es cierto, en general, que A · B = B · A. De hecho, en buena parte de los casos, la operación


A · B puede realizarse mientras que B · A no. Para que ambas puedan realizarse, es preciso que
A ∈ Mn,m y B ∈ Mm,n . En este caso, A · B ∈ Mn y B · A ∈ Mm , y si n 6= m, no pueden ser
iguales puesto que sus tamaños difieren. Pero aunque n = m, no se da necesariamente la igualdad.

2. Si A · B = 0, no es cierto que necesariamente A = 0 ó B = 0. Por ejemplo, si


µ ¶ µ ¶
1 2 −6 2
A= ; B= ,
2 4 3 −1

entonces A · B = 0 (y B · A 6= 0).

3. Asimismo, si A · B = A · C, no puede deducirse que B = C. Basta, en el ejemplo anterior, considerar


C = 0.

Mencionemos una última operación con matrices, la trasposición. Si A ∈ Mn,m , la matriz traspues-
ta de A, que denotamos At , es una matriz de m filas y n columnas, tal que

(At )i,j = Aj,i .

Propiedades:

1. (At )t = A.

2. (A + B)t = At + B t .
8 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

3. (a · A)t = a · At .
4. (A · B)t = B t · At .

Dada una matriz A ∈ Mn , decimos que B es una inversa de A si A · B = B · A = In . Obviamente,


B ∈ Mn .
Proposición 1.8
La inversa, si existe, es única.

Demostración : Si B, C son dos inversas de A, entonces

B = B · In = B · (A · C) = (B · A) · C = In · C = C.

Ası́, a la única inversa de A, si existe, la denotamos A−1 . Decimos que A es inversible si posee
inversa.
Propiedades:

1. (A−1 )−1 = A.
2. Si A es inversible, lo es At , y (At )−1 = (A−1 )t .
3. Si A, B son inversibles, y del mismo tamaño, lo es A · B, y (A · B)−1 = B −1 · A−1 .

Posteriormente veremos otras propiedades, ası́ como una caracterización de la inversibilidad de ma-
trices.

1.3. Interpretación matricial de los sistemas de ecuaciones


Utilizando el lenguaje de las matrices que acabamos de introducir, podemos representar un sistema
de ecuaciones
a11 x1 +a12 x2 + · · · +a1m xm = b1
a21 x1 +a22 x2 + · · · +a2m xm = b2
.. .. ..
. . .
an1 x1 +an2 x2 +··· +anm xm = bn
como Ax = b, donde x = (x1 , . . . , xm )t , b = (b1 , . . . , bn )t son vectores columna, y A la matriz n × m
formada por los coeficientes del sistema. Algunas propiedades de las operaciones anteriores se aplican de
manera inmediata al análisis de los sistemas. Ası́:

Si A ∈ Mn es inversible, el sistema tiene solución única. En efecto, si Ax = b es el sistema,


x = A−1 b es la única solución, como fácilmente se comprueba.
Más generalmente, si A ∈ Mn,m , y existe una matriz B ∈ Mm,n con B · A = Im , el sistema tiene
solución única, o bien es incompatible. En efecto, el único candidato a solución es x = B · b. No
obstante, esto no tiene por qué ser solución. Por ejemplo, el sistema
   
2 1 µ ¶ 1
 1 0 x = 0
y
−1 1 0
no tiene solución, y sin embargo
 
µ ¶ 2 1
0 1 0 
1 0  = I2 .
0 1 1
−1 1
1.3. INTERPRETACIÓN MATRICIAL DE LOS SISTEMAS DE ECUACIONES 9

Interpretemos el proceso de eliminación gaussiana a partir del álgebra matricial. Al igual que antes,
si A ∈ Mn,m , llamaremos operaciones elementales por filas en A a las siguientes:

1. Sumar a una fila otra multiplicada por un número.


2. Multiplicar una fila por un número a 6= 0.
3. Intercambiar dos filas.

Dado el sistema anterior, llamaremos A ∈ Mn,m la matriz del sistema, y A∗ = (A | b) ∈ Mn,m+1


matriz ampliada. Es claro que el proceso de eliminación gaussiana puede llevarse a cabo realizando
operaciones elementales por filas con la matriz A∗ .
Definición 1.9
Diremos que una matriz A está en forma escalonada superior si:
1. Todas las filas con ceros se encuentran en la parte baja.
2. Si en la fila i, llamamos entrada principal i-ésima a la primera posición no nula, la entrada
principal de cada fila está a la derecha de la entrada principal de las filas superiores.
3. Debajo de cada entrada principal hay ceros.

El proceso de eliminación gaussiana se interpreta aquı́ como:


Proposición 1.10
Toda matriz es equivalente por filas (es decir, puede transformarse mediante una sucesión de
transformaciones elementales por filas) a una matriz escalonada.

Observemos que las operaciones elementales por filas pueden realizarse multiplicando A por la izquier-
da por una matriz inversible n × n, llamada matriz elemental. Ası́:

Operación 1: Corresponde a multiplicar por la matriz identidad a la que se le ha añadido un elemento


a 6= 0 en la posición (i, j).
Operación 2: Multiplicación por la matriz identidad, donde el 1 del lugar (i, i) se ha sustituido por
a 6= 0.
Operación 3: Matriz identidad con las filas i, j permutadas.
Proposición 1.11
Sea A ∈ Mn,m .
1. Existen matrices elementales E1 , . . . , Er tales que Er · · · E1 A está en forma escalonada.
2. Existe C ∈ Mn inversible tal que C · A es escalonada.

Llamamos pivotes a las posiciones de las entradas principales i-ésimas. El proceso de intercambiar
dos lı́neas se denomina pivotaje. Ası́, hemos visto que todo sistema de ecuaciones lineales es equivalente
a un sistema
U x = b,
donde U ∈ Mn,m es una matriz escalonada. En este caso:

1. El sistema es compatible si y sólo si las filas nulas de U se corresponden con elementos nulos del
vector columna b.
2. El sistema es compatible para todo vector b si y sólo si no hay filas nulas en U , es decir, hay n
pivotes (es necesario para esto que n ≤ m).
10 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

Comentemos algunos casos. El que un sistema sea determinado o indeterminado depende sólo del
sistema homogéneo asociado. Más precisamente observemos lo siguiente:

Sea Ax = b un sistema de ecuaciones n × m y x1 , x2 dos soluciones del mismo. Restando las


igualdades
Ax1 = b; Ax2 = b,
obtenemos que A(x1 − x2 ) = 0. Es decir, x1 − x2 es solución del sistema homogéneo corre-
spondiente.

Concretando:
Proposición 1.12
Sea Ax = b un sistema compatible. Entonces es determinado si y sólo si el sistema homogéneo asociado
Ax = 0 sólo tiene la solución trivial.

Estudiamos, por consiguiente, los sistemas homogéneos. Por lo anterior, si n < m (es decir, si hay
menos ecuaciones que incógnitas), el sistema es indeterminado, puesto que es compatible, y hay
menos pivotes que incógnitas. La solución no es única. Con más generalidad, si un sistema ho-
mogéneo con n ecuaciones y m incógnitas tiene r pivotes, la solución dependerá de m − r parámetros. El
sistema tendrá sólo la solución trivial si y sólo si r = m. Lo anterior admite una interpretación desde el
punto de vista matricial, que describiremos a continuación. En primer lugar, observemos que, mediante
transformaciones elementales podemos llevar A más lejos que en forma escalonada:
Definición 1.13
Decimos que A está en forma escalonada reducida si además de estar en forma escalonada se tiene:
4. El valor de cada pivote es 1.
5. En cada columna donde hay un pivote, este es el único elemento no nulo de dicha columna.

Juntando todo lo anterior obtenemos el siguiente teorema:


Teorema 1.14

1. El sistema n × m Ax = 0 tiene solución única si y sólo si existe una matriz B ∈ Mm,n con
B · A = Im . En este caso, necesariamente debe ser n ≥ m.

2. Si n = m, Ax = 0 tiene solución única si y sólo si A es inversible.

Demostración : El “si”de ambos puntos ya está visto. Supongamos que Ax = 0 tiene solución única. Mul-
tiplicando por C ∈ Mn , producto de matrices elementales, tenemos que C · A tiene m pivotes y está en
forma escalonada reducida. Es decir:  
Im
C ·A= .
0
Tomamos B la matriz formada por las m primeras filas de C. Entonces B · A = Im .
Aplicando esto al apartado 2, Ax = 0 tiene solución única si y sólo si existe B ∈ Mn con B · A = In .
Veamos que, en este caso, A es inversible y además B = A−1 . Para ello, sea ei = (0, . . . , 1, 0, . . . , 0)t y
consideramos el sistema Ax = ei .
Tiene solución única xi . Formamos la matriz C = (e1 | · · · | en ), que obviamente verifica A · C = In .
Un sencillo cálculo muestra que C = B y ası́ B · A = A · B = In , de donde se sigue el resultado.

Nota 1.15 (Matrices en bloques)


En la prueba anterior, hemos utilizado para la matriz C una notación denominada por bloques.
Frecuentemente se utiliza ésta: se divide una matriz en cajas rectangulares de tamaños compatibles,
1.4. SISTEMAS CUADRADOS. FACTORIZACIÓN LU 11

como si la matriz original estuviera compuesta por submatrices dispuestas rectangularmente. Siempre
que los tamaños sean compatibles, con esta notación pueden sumarse y multiplicarse matrices como
se harı́a si en vez de bloques fueran números.

El uso de la forma escalonada reducida, en particular, nos propocrciona un método para el cálculo de
la matriz inversa, cuando exista, denominado método de Gauss-Jordan, y que detallaremos en ejercicios.
Este método también nos permitirá la resolución simultánea de varios sistemas de ecuaciones.
Hemos mostrado, además, de forma adicional, lo siguiente:
Proposición 1.16
Sea A ∈ Mn . A es inversible si y sólo si A es producto de matrices elementales.

Demostración : Las matrices elementales son inversibles y su producto también. Si A es inversible, el proceso
de eliminación gaussiana muestra que A−1 = Er · · · E1 , Ei elementales. Ası́

A = E1−1 · · · Er−1 ,

y la inversa de una matriz elemental es elemental.

El resultado anterior, para nosotros, es esencialmente teórico, aunque resulta de utilidad, por ejemplo,
para probar la propiedad de los determinantes de conservar los productos de matrices, como veremos en
el tema correspondiente.
Ejemplo 1.17

1. Una matriz diagonal  


d11 0
 0 d22 
 
D= .. 
 . 
dnn
es inversible si y sólo si dii 6= 0. En este caso,
 
1/d11 0
 0 1/d 
 22 
D−1 =  .. .
 . 
1/dnn

2. Una matriz triangular A (superior o inferior) es inversible si y sólo si todos los elementos de su
diagonal principal son no nulos. En efecto, en este caso, el sistema Ax = 0 tiene solución única,
lo que caracteriza la inversibilidad.

1.4. Sistemas cuadrados. Factorización LU


Un tipo particular notablemente importante de sistemas son los cuadrados, es decir, aquellos en los
que hay una misma cantidad de ecuaciones que de incógnitas. Si Ax = b es un tal sistema, como corolario
del teorema 11.14 obtenemos que tiene solución única si y sólo si A es inversible. Estudiemos con algo
más de detalle estos sistemas. Sin duda el tipo más simple son aquellos tales que
 
a11 0
 0 a22 
 
D= . 
 .. 
ann
12 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

bi
con aii 6= 0. La única solución es xi = . Si la matriz del sistema es
aii
 
l11 0 0 ··· 0
 l21 l22 0 · · · 0 
 
 l31 l32 l33 · · · 0 
L= 
 .. .. .. .. .. 
 . . . . . 
ln1 ln2 ln3 ··· lnn

b1
(triangular inferior), con lii 6= 0, la solución también es fácil. Despejamos en primer lugar x1 = ,y
l11
sustituyendo, proseguimos con x2 , x3 ,. . .
Si la matriz es  
u11 u12 u13 ··· u1n
 0 u22 u23 ··· u2n 
 
 u3n 
U = 0 0 u33 ··· 
 .. .. .. .. .. 
 . . . . . 
0 0 0 ··· unn
bn
con uii 6= 0, podemos hacer lo mismo, empezando a despejar xn = , y continuando hacia atrás. Por
unn
último, si el sistema tiene la forma
LU x = b,
con L, U como antes, podemos resolverlo en dos fases: en primer lugar resolvemos

Lz = b,

y en segundo lugar,
U x = z.
Si una matriz A ∈ Mn inversible puede factorizarse como A = LU , decimos que admite una factor-
ización LU . Observemos que el conocimiento de esta factorización para una matriz A permite sistem-
atizar la resolución de los sistemas
Ax = b,
sea cual sea el vector b.
Proposición 1.18
Si el método de Gauss puede llevarse a cabo sin pivotaje, entonces A admite factorización LU .

Demostración : En efecto, en la fase de eliminación estamos multiplicando por una matriz elemental que es
diagonal inferior. Tras esta fase, llegamos a un sistema cuya matriz es U , diagonal superior. es decir,

Er · · · E1 A = U,

con Ei matriz elemental correspodiente a una operación elemental del primer tipo, y por tanto, diagonal
inferior. Ası́, A = E1−1 · · · Er−1 U , y si L = E1−1 · · · Er−1 , tenemos la factorización buscada.
El recı́proco también es cierto: si existe factorización LU , el método de Gauss a partir de A se lleva a
cabo sin pivotaje.

Es posible saber de antemano si una matriz dada admite factorización LU . Si A ∈ Mn , llamamos


menores principales de A a las matrices formadas por las r primeras filas y columnas de A. Entonces:
Proposición 1.19
Una matriz A ∈ Mn tiene una factorización LU si y sólo si todos sus menores principales son
inversibles.
1.5. EJERCICIOS 13

Demostración : Veamos sólo una implicación. Supongamos que A posee una factorización LU , y sean Ar ,
Lr , Ur los menores principales de tamaño r de A, L, U , respectivamente. Tenemos

    
Lr 0 Ur ∗ Ar ∗
= .
∗ L0r 0 Ur0 ∗ ∗

con lo que Lr Ur = Ar . Como Lr , Ur son inversibles, lo es Ar .

La factorización LU de una matriz no es única. Supongamos que A = L1 U1 = L2 U2 . Operando,

L−1 −1
2 L1 = U2 U1

es una matriz diagonal D. Ası́, L2 = L1 D−1 , U2 = DU , y por tanto si D es cualquier matriz diagonal
inversible y A = LU , entonces (LD)(D−1 U ) es otra. Habitualmente se elige una factorización de manera
que los elementos de la diagonal de L sean unos.
En un ejemplo veamos cuál es el método práctico para llevar a cabo esta factorización.

Ejemplo 1.20
Calcular una factorización LU para la matriz
 
2 1 3
A = −1 1 2 .
1 0 1

Eliminamos los elementos de las posiciones (2, 1) y (3, 1). Los multiplicadores respectivos son −1/2,
1/2. Tras este paso obtenemos  
2 1 3
0 3/2 7/2  .
0 −1/2 −1/2
Eliminamos ahora el elemento de la posición (3, 2). El nuevo multiplicador es −1/3. Llegamos a:
 
2 1 3
U = 0 3/2 7/2 .
0 0 2/3

La matriz L es ahora la obtenida a partir de los multiplicadores:


 
1 0 0
L = −1/2 1 0 .
1/2 −1/3 1

1.5. Ejercicios

1. Discutir y resolver los siguientes sistemas:


 
2x +8y +6z = 20  x +2y +z −2t = 10 
a) 4x +2y −2z = −2 b) −x +2y −z +t = 6
 
3x −y +z = 11 y +z = 2
14 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

2. Discutir y resolver, en su caso,los siguientes sistemas de ecuaciones:


ax +y +z = a  

 x +2y +z = 2 
x +ay −z = 1
a) b) x +y +2z = 3
3x +y +bz = 2   
 x +2y +z = b
x −y −z = 1

x +y +az +bt = a+b+1 


2x +3y +az +2bt = 3a + 2b + 1
c)
x +y +2az +2bt = 2b + 2 


x +2y +2bt = a + 2b

 
λx +y +z = λ2  (1 + λ)x +y +z = 1 
d) x +y +λz = λ e) x +(1 + λ)y +z = λ
 
x +y +2λz = 2 x +y +(1 + λ)z = λ2
3. Probar que el sistema
    
1 1 1 x α
 −1 0 1   y  =  β  α, β, γ ∈ R
−1 −1 0 z γ
posee solución única para cualquier valor de α, β, γ, y hallar ésta.
4. De una matriz A ∈ M3×4 (R) se sabe que una forma escalonada es
 
1 0 0 0
U = 0 2 0 2 .
0 0 −1 −1
Se sabe que para pasar de la matriz A a la matriz U :
Hay pivotaje entre la primera y la tercera fila antes de comenzar el proceso de hacer ceros
debajo de los pivotes.
Los multiplicadores del proceso valen: −2, 0 (para el primer pivote) y −1 (para el segundo).
Determina la matriz A.
5. Considera el sistema de ecuaciones, escrito en forma matricial:
   
1 0 µ ¶ a
0 1 x =  b  .
y
2 3 c
¿Para qué vectores columna (a, b, c)t el sistema tiene solución? ¿Es única?
6. Considera la reacción quı́mica siguiente:
PbN6 + CrMn2 O8 → Pb3 O4 + Cr2 O3 + MnO2 + NO,
en la que falta el número de moléculas de cada tipo necesarios para que la reacción esté equilibrada.
Escribe un sistema de ecuaciones para calcular el número de moléculas de cada tipo necesarias. De
las infinitas soluciones del sistema, extrae las que tengan sentido para el problema.
7. Evaluar las siguientes operaciones con matrices:
µ ¶ µ ¶
5 ¡ ¢ ¡ ¢ 5
a) 2 −6 . b) 2 −6 .
3 3
 
µ ¶ 1 1
2 1 −4 
c) −2 5.
0 1 −3
−1 0
1.5. EJERCICIOS 15

8. Una empresa fabrica televisores de 14, 21 y 25 pulgadas, en sus fábricas de Valladolid, Burgos, Soria
y Palencia. En la fábrica de Valladolid fabrica a la semana 400 televisores de 14 pulgadas, 100 de
21 y 500 de 25. En la de Burgos, 300, 150 y 40 de 14, 21 y 25 pulgadas, respectivamente. En la de
Soria, 100, 100 y 20, y en la de Palencia, 200, 150 y 300. Los precios de venta de cada uno de los
televisores son 110 , 150 y 200 , respectivamente.

a) Escribe una matriz A que represente las producciones de televisores en las distintas fábricas,
y un vector columna x que represente los precios.
b) ¿Qué representa el vector Ax?

9. Calcular la inversa de las siguientes matrices:


 
  −1 1 −1 1
4 2 5  1 −1 −1 1 
a)  2 2 −1  b)   −1 −1

1 1 
0 −1 4
1 1 1 1
   
1 1 −2 1 2 −1 1 1
 2 0 1 3   0 0 1 0 
c)  −1 1
 d)  
2 1   2 1 1 1 
3 2 1 2 0 0 0 1
 
1 1/2 1/3
e) 1/2 1/3 1/4
1/3 1/4 1/5

10. Probar que si A, B son matrices cuadradas n × n tales que AB es inversible, entonces A y B son
inversibles y
A−1 = B(AB)−1 B −1 = (AB)−1 A.

11. Diremos que una matriz A es antisimétrica si At = −A.

a) Mostrar que toda matriz antisimétrica es cuadrada.


b) Probar que si A ∈ Mn (R) es antisimétrica, entonces los elementos de su diagonal principal
son ceros.
 
1 α α2 /2
12. Sea A(α) =  0 1 α . Se pide:
0 0 1

a) Demostrar que A(α)A(β) = A(α + β).


b) Calcular la inversa de A(α).
c) Demostrar que A(3α) − 3A(2α) + 3A(α) = I3 .

13. Sea A(a, h) la familia de matrices dada por


 
ah a a ··· a
 a ah a ··· a 
 
 
A(a, h) =  a a ah ··· a 
 .. .. .. .. .. 
 . . . . . 
a a a ··· ah

a) Comprobar si el producto de 2 matrices de esta familia es de nuevo una matriz de la familia


b) Estudiar si A(a, h) tiene inversa perteneciente a la familia

14. Probar que si A es una matriz simétrica e inversible, entonces A−1 también es simétrica.
16 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL

15. Sean A ∈ Mn , C ∈ Mm dos matrices inversibles, y B ∈ Mn,m . Calcula una matriz X ∈ Mn,m de
manera que la inversa de la matriz por bloques
µ ¶
A B
M=
0 C
sea µ ¶
A−1 X
.
0 C −1

16. Una matriz A se llama idempotente si A2 = A.

a) Prueba que una matriz idempotente es cuadrada.


b) ¿Son idempotentes las matrices siguientes?
 
µ ¶ µ ¶ 0 0 1
1 0 0 1 0
; ; 1 0 .
0 0 1 0
1 0 0

c) Calcula a, b y c para que la matriz µ ¶


a 0
b c
sea idempotente.

17. Calcula A−1 B, sin calcular previamente A−1 , donde A y B son las matrices
   
0 1 3 4 1 2
A = −2 1 4 ; B = −2 0 3 .
1 −3 −9 3 5 −6

18. Sin calcular A−1 , calcula el producto A−1 x, donde A es la matriz


 
1 2 −7 5
0 1 −4 0
A= 1 1
,
1 6
2 −1 3 9

y x el vector columna (1, −2, 1, 3)t .

19. Resuelve simultáneamente los dos sistemas de ecuaciones lineales siguientes:


 

 x1 +x2 +x3 +x4 = 7 
 x1 +x2 +x3 +x4 = 7
 
x1 +x2 +2x4 = 8 x1 +x2 +2x4 = 5
;

 2x1 +2x2 +3x3 = 10 
 2x1 +2x2 +3x3 = 10
 
−x1 −x2 −2x3 +2x4 = 0 −x1 −x2 −2x3 +2x4 = 0

20. Halla una matriz elemental E que transforme la matriz A en B, donde:


       
2 1 2 1 2 1 2 1
−1 3  0 4 −1 3 −1 3
a) A =   0 4 ;
 B= −1 3 .
 b) A =  0
; B =  
 0 4 .
4
1 2 1 2 1 2 5 4
   
2 1 2 1
−1 3 −1 3
c) A =   0 4 ;
 B=  0 3 .

1 2 1 2
1.5. EJERCICIOS 17

P
n
21. Un vector columna (x1 , . . . , xn )t se llama vector de probabilidad si xi ≥ 0, ∀i y xi = 1.
i=1
Asimismo, una matriz M ∈ Mn,m (R) se llama matriz de probabilidad si sus columnas son
vectores de probabilidad.

a) Probar que el producto de dos matrices de probabilidad es una matriz de probabilidad.


b) Probar que si M ∈ Mn×m (R) es una matriz de probabilidad, y x ∈ Rm es un vector de
probabilidad, M x es un vector de probabilidad.
22. Las matrices de probabilidad, introducidas en el ejercicio anterior, sirven para representar las tran-
siciones entre los diferentes estados de un sistema en una unidad de tiempo. Ası́, por ejemplo,
supongamos que un sistema tiene n estados diferentes. Tras una unidad de tiempo, la probabilidad
de pasar del estado j al estado i es pij . Formamos la matriz P = (pij )i,j . Esta es una matriz de
probabilidad.
Veamos un ejemplo. Hay dos empresas de televisión por cable, A y B. Tras un mes, un 20 % de los
abonados a A se pasan a B, y un 15 % dejan de tener televisión por cable. De aquellos abonados a
B, un 15 % se pasan a la compañı́a A, mientras que otro 15 % deja de tener cable. Por último, de los
ciudadanos que no tienen televisión por cable, al cabo de un mes un 10 % se abonan a la compañı́a
A, y un 5 % a la compañı́a B.

a) Escribe la matriz P de transición de este sistema.


b) Si en el instante inicial hay 15000 abonados a la compañı́a A, 20000 a la compañı́a B y 65000
sin cable, calcula matricialmente cuántos ciudadanos hay en cada una de estas situaciones al
cabo de un mes.
c) Lo mismo que el apartado anterior, pero al cabo de dos meses, y al cabo de tres meses.

23. De una población de 10000 habitantes, 5000 no fuman, 2500 fuman un paquete al dı́a o menos, y
2500 fuman más de un paquete al dı́a. Tras un mes, un 5 % de los no fumadores pasan a fumar un
paquete o menos, y un 2 %, más de un paquete. De aquellos que fuman como mucho un paquete,
un 10 % deja de fumar, mientras que otro 10 % pasa a fumar más de un paquete. Por último, de los
que fuman más de un paquete diario, al cabo de un mes un 5 % deja de fumar, y un 10 % pasa a
fumar un paquete o menos.

a) Escribe una matriz de transición P para este sistema.


b) Calcula matricialmente cuánta gente hay en cada una de las situaciones al cabo de un mes, y
de dos, y de tres.
24. Calcula una factorización LU para las matrices siguientes:
   
−5 2 −1 1 0 3
a)  1 0 3  b)  3 1 6 
3 1 6 −5 2 −1

25. Calcula una factorización LDU para la matriz siguiente:


 
10 7 8
7 5 6
8 6 10

¿Qué relación observas entre las matrices L y U ? ¿A qué lo atribuyes?

También podría gustarte