Cap1 09
Cap1 09
Comenzamos aquı́ tratando en primer lugar las ecuaciones lineales. En lo que sigue, los coeficientes
que aparecen en las ecuaciones se suponen reales o complejos.
Ejemplo 1.1
Consideremos un circuito eléctrico como en la figura adjunta. Según una de las leyes de Kirchoff,
la suma de las intensidades que entran en cada nodo es igual a la suma de las que salen. Ası́, las
intensidades en el circuito verifican el siguiente sistema de ecuaciones:
El cálculo de las posibles intensidades requiere resolver un sistema de 4 ecuaciones lineales con 6
incógnitas. Observemos que “a ojo”se encuentra una solución de la ecuación: I1 = I2 = I3 = I4 = I5 =
I6 = 0. Esta solución representa el caso en que no pasa corriente (solución trivial). Habitualmente
estamos interesados en el resto de las soluciones. Por otra parte, veremos más tarde que el sistema
anterior tiene múltiples soluciones. Una de ellas, podemos comprobar que es I = (8, 2, 3, −6, −1, 5).
Dado que las intensidades de corriente no pueden ser números negativos, también deberı́amos descartar
2 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL
esta solución. Estas y otras consideraciones muestran que a la hora de resolver un sistema (o en
general cualquier problema matemático), además de las consideraciones de tipo puramente matemático
debemos tener en cuenta otras muchas derivadas de la naturaleza del problema inicial.
3
s
¡@ @
¡ @
¡ @
¡ I5 6 @
¡ @ I3
I2 ¡¡
ª
©H
s
© © 4HH @
I
@
¡ © H @
¡ © © H
I4© I 6 HH @
¡ ©© * YH @
H
¡©© HH@
©¡
s¡© - H@ Hs
1 2
I1
1. El sistema
2x1 − 3x2 = 1
2x1 − 3x2 = 2.
es incompatible.
2. El sistema
2x1 − 3x2 = −1
x1 + 2x2 = 3
es compatible. Su única solución es x1 = 1, x2 = 1.
3. El sistema
x1 − 2x2 + x3 = 0
2x1 + x2 − x3 = 2
1.1. SISTEMAS DE ECUACIONES LINEALES 3
Ası́ pues, el estudio de un sistema de ecuaciones lineales implica el tratamiento de dos problemas:
1. Eliminación.
2. Sustitución regresiva.
La idea básica en la que se basa este (y otros) métodos de resolución es la de convertir el sistema en
uno equivalente, y que sea más sencillo de resolver.
Definición 1.3
Dos sistemas del mismo tamaño son equivalentes si tienen el mismo conjunto de soluciones.
Para transformar un sistema en otro equivalente empleamos las llamadas operaciones elementales
con el sistema. Se denominan operaciones elementales a las siguientes:
Demostración : Daremos una idea de la prueba. Observemos que basta considerar el caso en que (S 0 ) se
obtiene a partir de (S) empleando una única operación elemental (¿por qué?).
Supongamos que (S 0 ) se obtiene de (S) aplicando una operación de tipo 1. Para simplificar, supongamos
que a la segunda ecuación de (S) le hemos sumado la primera multiplicada por c. Es decir, si (S) es
entonces (S 0 ) es
Si los números x1 , . . . , xm verifican (S), debemos comprobar que verifican (S 0 ). Para ellos, basta comprobar
que verifican la segunda ecuación de (S 0 ) (puesto que las demás no cambian), lo cual no presenta dificultad.
Por tanto, toda solución de (S) es también solución de (S 0 ).
Observemos ahora que las operaciones elementales son reversibles. Esto es, si (S 0 ) se obtiene de
(S) por medio de una secuencia de operaciones elementales, también (S) se obtiene de (S 0 ) sumando a
la segunda ecuación la primera multiplicada por −c. Ası́ pues, aplicando el razonamiento anterior, toda
solución de (S 0 ) es también solución de (S), y por consiguiente ambos sistemas tiene las mismas soluciones.
Dejamos al lector analizar qué pasa si (S 0 ) se obtiene de (S) aplicando una operación de tipo 2 o de
tipo 3.
4 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL
Los pasos, a grandes rasgos, del método de Gauss, en su forma más simplificada, son los siguientes:
1. Eliminamos la incógnita x1 en todas las ecuaciones salvo la primera, empleando operaciones de tipo
ai1
1. Ası́, se resta a la ecuación i-ésima (i 6= 1) la primera multiplicada por . El término a11 se
a11
ai1
llama pivote, y , multiplicador.
a11
2. Nos olvidamos de la primera ecuación, y nos quedamos con el sistema de n − 1 ecuaciones y m − 1
incógnitas restante.
3. Repetimos el proceso, eliminando x2 en todas las ecuaciones menos la segunda (que ahora es la
primera).
4. Continuamos hasta que nos quedemos sin ecuaciones, o sin incógnitas.
Pero las cosas no siempre son tan fáciles, y en ocasiones topamos con situaciones en las que se
presentan problemas, y que hemos de saber interpretar, y en su caso, corregir. Veamos alguna de las
cosas que pueden pasar:
1. En el paso r-ésimo, la incógnita xr no aparece en la ecuación r-ésima, pero sı́ en alguna de las
siguientes. En este caso, debemos intercambiar el orden de ambas ecuaciones (operación elemental
de tipo 3) para poder continuar.
3. Llegado el paso r-ésimo, la ecuación r-ésima ha desaparecido, pero no ası́ alguna de las siguientes.
Un cambio de orden de ecuaciones permite proseguir.
4. Llegamos al paso r-ésimo y han desaparecido todas las ecuaciones, desde la ecuación r-ésima en
adelante. Damos aquı́ por concluida la fase de eliminación, y comenzamos la de sustitución regresiva.
5. En la ecuación r-ésima han desaparecido todas las incógnitas. Es decir, llegamos a una ecuación del
tipo 0 = b, con b 6= 0. El sistema es incompatible.
6. El proceso de eliminación ha concluido porque no nos quedan más ecuaciones. En la última de ellas
aparecen varias incógnitas. En este caso, debemos despejar una de ellas en términos de las restantes.
El sistema será compatible indeterminado.
Lo anterior responde a los problemas de ı́ndole algebraica o formal que podemos encontrar. Hay otros
problemas, de ı́ndole computacional o numérica que no abordaremos aquı́ y que nos obligan a modificar
en ocasiones el algoritmo descrito anteriormente.
Veremos ejemplos de todas las situaciones anteriores.
Ejemplo 1.6
Analı́cense, y en su caso resuélvanse, los sistemas de ecuaciones lineales siguientes:
x1 + 2x2 − x3 + 3x4 = 1 x1 + x2 + 3x3 = 2
1. x1 + 2x2 + 4x4 = 0 2. x1 + x2 + 4x3 = −1
−2x1 + x3 + 3x4 = 3. 2x1 + 2x2 − 3x3 = 0.
x1 − 2x2 − 3x3 + 4x4 = 0
2x1 + 3x2 − x3 = 3
3x1 + x2 = 2
3. 4. 2x1 + 4x2 + 4x3 = 1
4x1 − x2 − 3x3 + 4x4 = 2
−2x1 − 5x2 − 9x3 = 0.
−2x1 − 3x2 − 3x3 + 4x4 = −2.
Esto constituye una de las motivaciones de la introducción del concepto de matriz, ası́ como de la
notación matricial. Desarrollamos esta noción a lo largo del presente apartado, y posteriormente veremos
como una matriz representa una aplicación lineal, idea esta que permite una mejor interpretación de gran
número de conceptos del álgebra lineal.
Ası́, llamamos matriz de n filas y m columnas a un conjunto de nm coeficientes dispuestos
rectangularmente como sigue:
a11 a12 · · · a1m
a21 a22 · · · a2m
A= . .. .. .. .
.. . . .
an1 an2 · · · anm
El conjunto de todas las matrices n × m con coeficientes sobre un cuerpo K se denotará Mn,m (K), o
abreviadamente Mn,m si no ha lugar a especificar el cuerpo. Hay algunos tipos particulares de matrices,
como son:
En el conjunto Mn,m se define una operación, la suma. Si A, B ∈ Mn,m , el coeficiente (i, j) (fila i,
columna j) de A + B se define como la suma de los coeficientes (i, j) de A y de B. Esta operación goza
de algunas propiedades elementales:
1. A + (B + C) = (A + B) + C.
2. A + B = B + A.
3. Si denotamos −A a la matriz obtenida tomando el opuesto de cada elemento de A, entonces A +
(−A) = (−A) + A = 0 (denotamos 0 la matriz nula, aquella todos cuyos coeficientes son ceros).
4. A + 0 = 0 + A = A.
1. a · (A + B) = a · A + a · B.
2. (a + b) · A = a · A + b · A.
3. (a · b) · A = a · (b · A).
4. 1 · A = A.
Ejercicio 1.7
Deducir de lo anterior que si a · A = 0, entonces o bien a = 0 o bien A = 0.
1.2. ÁLGEBRA MATRICIAL 7
1
Solución.- Si a 6= 0, multiplicamos por a:
µ ¶
1 1
0= · (a · A) = · a · A = 1 · A = A.
a a
Observemos en primer lugar que para multiplicar dos matrices A, B, es preciso que el número de columnas
de la primera sea igual al número de filas de la segunda. Propiedades:
1. A · (B · C) = (A · B) · C.
2. A · (B + C) = A · B + A · C; (B + C) · A = B · A + C · A.
3. a · (A · B) = (a · A) · B = A · (a · B).
In · A = A · Im = A.
Observaciones.-
entonces A · B = 0 (y B · A 6= 0).
Mencionemos una última operación con matrices, la trasposición. Si A ∈ Mn,m , la matriz traspues-
ta de A, que denotamos At , es una matriz de m filas y n columnas, tal que
Propiedades:
1. (At )t = A.
2. (A + B)t = At + B t .
8 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL
3. (a · A)t = a · At .
4. (A · B)t = B t · At .
B = B · In = B · (A · C) = (B · A) · C = In · C = C.
Ası́, a la única inversa de A, si existe, la denotamos A−1 . Decimos que A es inversible si posee
inversa.
Propiedades:
1. (A−1 )−1 = A.
2. Si A es inversible, lo es At , y (At )−1 = (A−1 )t .
3. Si A, B son inversibles, y del mismo tamaño, lo es A · B, y (A · B)−1 = B −1 · A−1 .
Posteriormente veremos otras propiedades, ası́ como una caracterización de la inversibilidad de ma-
trices.
Interpretemos el proceso de eliminación gaussiana a partir del álgebra matricial. Al igual que antes,
si A ∈ Mn,m , llamaremos operaciones elementales por filas en A a las siguientes:
Observemos que las operaciones elementales por filas pueden realizarse multiplicando A por la izquier-
da por una matriz inversible n × n, llamada matriz elemental. Ası́:
Llamamos pivotes a las posiciones de las entradas principales i-ésimas. El proceso de intercambiar
dos lı́neas se denomina pivotaje. Ası́, hemos visto que todo sistema de ecuaciones lineales es equivalente
a un sistema
U x = b,
donde U ∈ Mn,m es una matriz escalonada. En este caso:
1. El sistema es compatible si y sólo si las filas nulas de U se corresponden con elementos nulos del
vector columna b.
2. El sistema es compatible para todo vector b si y sólo si no hay filas nulas en U , es decir, hay n
pivotes (es necesario para esto que n ≤ m).
10 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL
Comentemos algunos casos. El que un sistema sea determinado o indeterminado depende sólo del
sistema homogéneo asociado. Más precisamente observemos lo siguiente:
Concretando:
Proposición 1.12
Sea Ax = b un sistema compatible. Entonces es determinado si y sólo si el sistema homogéneo asociado
Ax = 0 sólo tiene la solución trivial.
Estudiamos, por consiguiente, los sistemas homogéneos. Por lo anterior, si n < m (es decir, si hay
menos ecuaciones que incógnitas), el sistema es indeterminado, puesto que es compatible, y hay
menos pivotes que incógnitas. La solución no es única. Con más generalidad, si un sistema ho-
mogéneo con n ecuaciones y m incógnitas tiene r pivotes, la solución dependerá de m − r parámetros. El
sistema tendrá sólo la solución trivial si y sólo si r = m. Lo anterior admite una interpretación desde el
punto de vista matricial, que describiremos a continuación. En primer lugar, observemos que, mediante
transformaciones elementales podemos llevar A más lejos que en forma escalonada:
Definición 1.13
Decimos que A está en forma escalonada reducida si además de estar en forma escalonada se tiene:
4. El valor de cada pivote es 1.
5. En cada columna donde hay un pivote, este es el único elemento no nulo de dicha columna.
1. El sistema n × m Ax = 0 tiene solución única si y sólo si existe una matriz B ∈ Mm,n con
B · A = Im . En este caso, necesariamente debe ser n ≥ m.
Demostración : El “si”de ambos puntos ya está visto. Supongamos que Ax = 0 tiene solución única. Mul-
tiplicando por C ∈ Mn , producto de matrices elementales, tenemos que C · A tiene m pivotes y está en
forma escalonada reducida. Es decir:
Im
C ·A= .
0
Tomamos B la matriz formada por las m primeras filas de C. Entonces B · A = Im .
Aplicando esto al apartado 2, Ax = 0 tiene solución única si y sólo si existe B ∈ Mn con B · A = In .
Veamos que, en este caso, A es inversible y además B = A−1 . Para ello, sea ei = (0, . . . , 1, 0, . . . , 0)t y
consideramos el sistema Ax = ei .
Tiene solución única xi . Formamos la matriz C = (e1 | · · · | en ), que obviamente verifica A · C = In .
Un sencillo cálculo muestra que C = B y ası́ B · A = A · B = In , de donde se sigue el resultado.
como si la matriz original estuviera compuesta por submatrices dispuestas rectangularmente. Siempre
que los tamaños sean compatibles, con esta notación pueden sumarse y multiplicarse matrices como
se harı́a si en vez de bloques fueran números.
El uso de la forma escalonada reducida, en particular, nos propocrciona un método para el cálculo de
la matriz inversa, cuando exista, denominado método de Gauss-Jordan, y que detallaremos en ejercicios.
Este método también nos permitirá la resolución simultánea de varios sistemas de ecuaciones.
Hemos mostrado, además, de forma adicional, lo siguiente:
Proposición 1.16
Sea A ∈ Mn . A es inversible si y sólo si A es producto de matrices elementales.
Demostración : Las matrices elementales son inversibles y su producto también. Si A es inversible, el proceso
de eliminación gaussiana muestra que A−1 = Er · · · E1 , Ei elementales. Ası́
A = E1−1 · · · Er−1 ,
El resultado anterior, para nosotros, es esencialmente teórico, aunque resulta de utilidad, por ejemplo,
para probar la propiedad de los determinantes de conservar los productos de matrices, como veremos en
el tema correspondiente.
Ejemplo 1.17
2. Una matriz triangular A (superior o inferior) es inversible si y sólo si todos los elementos de su
diagonal principal son no nulos. En efecto, en este caso, el sistema Ax = 0 tiene solución única,
lo que caracteriza la inversibilidad.
bi
con aii 6= 0. La única solución es xi = . Si la matriz del sistema es
aii
l11 0 0 ··· 0
l21 l22 0 · · · 0
l31 l32 l33 · · · 0
L=
.. .. .. .. ..
. . . . .
ln1 ln2 ln3 ··· lnn
b1
(triangular inferior), con lii 6= 0, la solución también es fácil. Despejamos en primer lugar x1 = ,y
l11
sustituyendo, proseguimos con x2 , x3 ,. . .
Si la matriz es
u11 u12 u13 ··· u1n
0 u22 u23 ··· u2n
u3n
U = 0 0 u33 ···
.. .. .. .. ..
. . . . .
0 0 0 ··· unn
bn
con uii 6= 0, podemos hacer lo mismo, empezando a despejar xn = , y continuando hacia atrás. Por
unn
último, si el sistema tiene la forma
LU x = b,
con L, U como antes, podemos resolverlo en dos fases: en primer lugar resolvemos
Lz = b,
y en segundo lugar,
U x = z.
Si una matriz A ∈ Mn inversible puede factorizarse como A = LU , decimos que admite una factor-
ización LU . Observemos que el conocimiento de esta factorización para una matriz A permite sistem-
atizar la resolución de los sistemas
Ax = b,
sea cual sea el vector b.
Proposición 1.18
Si el método de Gauss puede llevarse a cabo sin pivotaje, entonces A admite factorización LU .
Demostración : En efecto, en la fase de eliminación estamos multiplicando por una matriz elemental que es
diagonal inferior. Tras esta fase, llegamos a un sistema cuya matriz es U , diagonal superior. es decir,
Er · · · E1 A = U,
con Ei matriz elemental correspodiente a una operación elemental del primer tipo, y por tanto, diagonal
inferior. Ası́, A = E1−1 · · · Er−1 U , y si L = E1−1 · · · Er−1 , tenemos la factorización buscada.
El recı́proco también es cierto: si existe factorización LU , el método de Gauss a partir de A se lleva a
cabo sin pivotaje.
Demostración : Veamos sólo una implicación. Supongamos que A posee una factorización LU , y sean Ar ,
Lr , Ur los menores principales de tamaño r de A, L, U , respectivamente. Tenemos
Lr 0 Ur ∗ Ar ∗
= .
∗ L0r 0 Ur0 ∗ ∗
L−1 −1
2 L1 = U2 U1
es una matriz diagonal D. Ası́, L2 = L1 D−1 , U2 = DU , y por tanto si D es cualquier matriz diagonal
inversible y A = LU , entonces (LD)(D−1 U ) es otra. Habitualmente se elige una factorización de manera
que los elementos de la diagonal de L sean unos.
En un ejemplo veamos cuál es el método práctico para llevar a cabo esta factorización.
Ejemplo 1.20
Calcular una factorización LU para la matriz
2 1 3
A = −1 1 2 .
1 0 1
Eliminamos los elementos de las posiciones (2, 1) y (3, 1). Los multiplicadores respectivos son −1/2,
1/2. Tras este paso obtenemos
2 1 3
0 3/2 7/2 .
0 −1/2 −1/2
Eliminamos ahora el elemento de la posición (3, 2). El nuevo multiplicador es −1/3. Llegamos a:
2 1 3
U = 0 3/2 7/2 .
0 0 2/3
1.5. Ejercicios
λx +y +z = λ2 (1 + λ)x +y +z = 1
d) x +y +λz = λ e) x +(1 + λ)y +z = λ
x +y +2λz = 2 x +y +(1 + λ)z = λ2
3. Probar que el sistema
1 1 1 x α
−1 0 1 y = β α, β, γ ∈ R
−1 −1 0 z γ
posee solución única para cualquier valor de α, β, γ, y hallar ésta.
4. De una matriz A ∈ M3×4 (R) se sabe que una forma escalonada es
1 0 0 0
U = 0 2 0 2 .
0 0 −1 −1
Se sabe que para pasar de la matriz A a la matriz U :
Hay pivotaje entre la primera y la tercera fila antes de comenzar el proceso de hacer ceros
debajo de los pivotes.
Los multiplicadores del proceso valen: −2, 0 (para el primer pivote) y −1 (para el segundo).
Determina la matriz A.
5. Considera el sistema de ecuaciones, escrito en forma matricial:
1 0 µ ¶ a
0 1 x = b .
y
2 3 c
¿Para qué vectores columna (a, b, c)t el sistema tiene solución? ¿Es única?
6. Considera la reacción quı́mica siguiente:
PbN6 + CrMn2 O8 → Pb3 O4 + Cr2 O3 + MnO2 + NO,
en la que falta el número de moléculas de cada tipo necesarios para que la reacción esté equilibrada.
Escribe un sistema de ecuaciones para calcular el número de moléculas de cada tipo necesarias. De
las infinitas soluciones del sistema, extrae las que tengan sentido para el problema.
7. Evaluar las siguientes operaciones con matrices:
µ ¶ µ ¶
5 ¡ ¢ ¡ ¢ 5
a) 2 −6 . b) 2 −6 .
3 3
µ ¶ 1 1
2 1 −4
c) −2 5.
0 1 −3
−1 0
1.5. EJERCICIOS 15
8. Una empresa fabrica televisores de 14, 21 y 25 pulgadas, en sus fábricas de Valladolid, Burgos, Soria
y Palencia. En la fábrica de Valladolid fabrica a la semana 400 televisores de 14 pulgadas, 100 de
21 y 500 de 25. En la de Burgos, 300, 150 y 40 de 14, 21 y 25 pulgadas, respectivamente. En la de
Soria, 100, 100 y 20, y en la de Palencia, 200, 150 y 300. Los precios de venta de cada uno de los
televisores son 110 , 150 y 200 , respectivamente.
a) Escribe una matriz A que represente las producciones de televisores en las distintas fábricas,
y un vector columna x que represente los precios.
b) ¿Qué representa el vector Ax?
10. Probar que si A, B son matrices cuadradas n × n tales que AB es inversible, entonces A y B son
inversibles y
A−1 = B(AB)−1 B −1 = (AB)−1 A.
14. Probar que si A es una matriz simétrica e inversible, entonces A−1 también es simétrica.
16 TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ÁLGEBRA MATRICIAL
15. Sean A ∈ Mn , C ∈ Mm dos matrices inversibles, y B ∈ Mn,m . Calcula una matriz X ∈ Mn,m de
manera que la inversa de la matriz por bloques
µ ¶
A B
M=
0 C
sea µ ¶
A−1 X
.
0 C −1
17. Calcula A−1 B, sin calcular previamente A−1 , donde A y B son las matrices
0 1 3 4 1 2
A = −2 1 4 ; B = −2 0 3 .
1 −3 −9 3 5 −6
1 2 1 2
1.5. EJERCICIOS 17
P
n
21. Un vector columna (x1 , . . . , xn )t se llama vector de probabilidad si xi ≥ 0, ∀i y xi = 1.
i=1
Asimismo, una matriz M ∈ Mn,m (R) se llama matriz de probabilidad si sus columnas son
vectores de probabilidad.
23. De una población de 10000 habitantes, 5000 no fuman, 2500 fuman un paquete al dı́a o menos, y
2500 fuman más de un paquete al dı́a. Tras un mes, un 5 % de los no fumadores pasan a fumar un
paquete o menos, y un 2 %, más de un paquete. De aquellos que fuman como mucho un paquete,
un 10 % deja de fumar, mientras que otro 10 % pasa a fumar más de un paquete. Por último, de los
que fuman más de un paquete diario, al cabo de un mes un 5 % deja de fumar, y un 10 % pasa a
fumar un paquete o menos.