08 Almeida
08 Almeida
de ecuaciones lineales
Fecha de recepción: Abil, 1996
E du cación Matemáti ca
Vol. JO No . I Abril 1998
Pedro Ramón Almeida Benítez y José Ramón Franco Brañas
pp. 74-88
Uni versidad de La Laguna, Dcpto de Análisis Matemático
38721. La Laguna, Tenerife, España
jfranco@ull .es
Abstract. The solution of linear systems of equations is the central problem of linear
algebra. Indeed, many engineering lead to mathematical models whose solution requires
methods of linear algebra. The formula called Cramer's rule involving determinants is
very laborious to so/ve systems with more than four or five variables. In this paper, the
Gaussian elimination is considered and its computational costs are evaluated.
Computing techniques for solving large sets of linear equations rely on matrix methods
and LU descoposition and its variants Doolittlee, Crout and Cholesky are studied in the
next fines.
Introducción.
e 74
1'11 E LIMINACIÓN GAUSSIANA PARA SISTEMAS DE ECUACIONES LINEALES B Pág . 75 R
A=
[
~ 11 .. ·
.
a 1,! ]
ª111 •. . ª1111
. ; X
_Ü
r
-~l
- b [; ,
b¡
l
donde suponemos que det (A) -:t O.
Vamos a intentar resolver dicho sistema empleando el método conocido con el nom-
bre de regla de Cramer, calculando la incógnita x¡ en la forma:
X¡ =
det (A)
¿Cuál será el número de operaciones a realizar empleando éste método?. Será
preciso calcular n + 1 determinantes de orden n (*). En total:
(n + 1) · n! · (n - 1) multiplicaciones
n divisiones
Sumando:
(n + 1) · n! · (n - 1) + n = (n 2 - 1) · n! + n
Hay que advertir que hemos considerado únicamente multiplicaciones y
divisiones. Esto no es demasiado riguroso, pero dado que un ordenador suele tardar
más tiempo en realizar una multiplicación que una suma, no tomamos en consideración
éstas últimas a la hora de evaluar el número de operaciones.
Por otra parte, al resolver un problema técnico, suelen aparecer sistemas
con un elevado número de ecuaciones, varios cientos o miles de ellas en muchas ocasio-
nes. La tabla siguiente indica el número de operaciones necesarias para distintos va-
lores den:
n operac10nes
3 51
5 2885
10 358,657,210
(*) Recordemos que se llama determinante de la matriz cuadrada A = (a;j) E Mnxn a la suma de los n! productos de la forma
(-l)cr(i1, i2, .. .. .in) ªu,. ª2;2 ... ª•in
en donde cada uno de éstos elementos, y sólo uno, procede de una fila cualquiera y uno, y sólo uno, de una columna cualquiera.
Pág . 76 • E oucACióN MATEMÁTICA • Vo l. 1 O No. l · Abril 1998 • © GEi •
anterior ne cesitaría alrededo r de 6 minutos de trab ajo . Estos cálculos son muy
aproximados puesto que la velocidad de los ordenadores varía día a día y depende mucho
del tip o de ordenador.
Por otra parte, si para resolver un sistema tan pequeño (n = 1O) se nece-
sita tanto tiempo, dicho méto do es abso lutamente inserv ible para sistemas con un
" elevado" número de ecuaciones.
n operaciones
3 48
5 2330
10 322,963,400
El método de Gauss.
Otra forma de poder resolver el sistema podría ser la conocida con el nombre de mé-
todo de Gauss o eliminación gaussiana, que consiste ~n transformar el sistema dado
A .X= b 1
en otro equivalente
U .x = e
en el que la matriz U es triangular superior.
• E LIMINACIÓN GAUSSIANA PARA SISTEMAS DE ECUACIONES LINEALE-5
• Pág . 77 •
2x \ ; : ; =-= _ 1)
27
- 2, + 2y + z
Vamos a dar los siguientes pasos:
(1) Sustraemos de la segunda ecuación, la primera multiplicada por 2.
A este multiplicador lo llamaremos 121 = 2 y ha sido obtenido en la forma
l
a21la¡¡ = 4/2 = 2.
Tenemos el sistema equivalente resultante:
2x +y+ z = 1
-y - 2z = -4
-2x + 2y + z = 7
(2) Sustraemos de la tercera ecuación, la primera multiplicada por - 1.
l
El multiplicador 1 31 = a 31 !a 11 = -2/ 2 = -1. Obtenemos el sistema
equivalente:
2x + y + z = 1
-y - 2z = -4
3y + 2z = 8
(3) Sustraemos de la tercera ecuación, la segunda multiplicada por - 3, siendo
132 = a 3 / 2)!a2/ 2) = 3/-1 = - 3 (*), y resultando el sistema triangular equivalente:
2x+y+z = I)
-y - 2z = -4 ~ UX = c
-4z = -4
Los números 121 = 2, 131 = -1 y 132 = -3, son los llamados multiplica-
dores de la eliminación gaussiana. En general, 1ij representa la cantidad por la que
multiplicamos la ecuación} para sustraerla de la ecuación i y así producir un cero en la
entrada (i,j) .
A los números a 11 = a 1/ 2) = 2, a 2/ 2) = - 1 y a 33 (3) = -4, que se utilizan
para eliminar entradas que están en su misma columna, los llamaremos pivotes.
Hemos seguido los pasos anteriores de un modo sistematizado, con el fin
de que conduzcan a un algoritmo fácilmente programable.
Con esto hemos terminado la primera fase del proceso de eliminación gau-
ssiana, la llamada eliminación hacia adelante, que nos ha permitido obtener un sis-
tema reducido equivalente al inicial. Para culminar la resolución del sistema·nos queda
una segunda fase, llamada sustitución hacia atrás o regresiva, que consiste en hallar
el valor de la incógnita de la última ecuación, sustituirla en la ecuación anterior calculan-
do el valor de la otra incógnita, y así sucesivamente.
En el sistema de nuestro ejemplo, de la tercera ecuación resulta z = I y, lle-
vado éste valor a la segunda obtenemos y = 2. Finalmente, de la primera se obtiene
X = - ].
Vamos ahora a calcular el coste computacional de éste método:
a) Para la eliminación hacia adelante, esto es, para transformar el sistema
A· x = b en el U· x = c, tenemos que efectuar:
(*) Hemos llamado a 2Pl y a 32(2l a los coeficientes resultantes del paso (2), para distinguirlos de los a22 y a32 originales.
: 1
1
Pág . 7 8 • E DUCACIÓN MATEMÁTICA • Vol. l O No. l · Ab ril 1998 • © GEi B
=
11
L, i (i - 1) +
n-1
1> = I .,
11
l -
11
L, i +
11 - I
L, i 17 (17 + 1)( 217 + 1)
i == 1 i= I 1=2 i=1 i= I 6
- 1 - 17 + 1 = 17 3/3 + n 2!2 Sn/6
11 - I
17(11 - 1)
Di visio nes: (11 - 1) + (n - 2) + ... + 2 + 1 L, i necesarias
i=I 2
para hallar los multiplicadores.
b) Para la sustitución hacia atrás tenemos que efectuar:
Divis iones: n.
j(n) = O(g(n))
si para una constante K y n sufic ientemente grande l/(11)/g(11)I $ K. Decimos ento nces que f(n) tie ne el orden de magnitud
de g(n) co mo mucho .
Por ejemplo, si /{n) = 11 3/3 + n2rl - Sn/6 , escribimos/{n) = O (11 3/3), ya que para valores de 11 "grandes", la contribu-
ción de n 2/2 y 511/6 es despreciable frente a la de n3/3.
E U MINACIÓN GAUSS IANA PARA SISTEMAS DE EC UACI ONES LI NEA LES • Pág . 79 a
¡
1
1 1
Pág. 80 a E DUCACIÓN MATEMÁTICA a Vol. 1O No. 1 · Abril 1998 • © GEi a
Escalamiento.
Otra técnica es la conocida con el nombre de pivoteo escalado de columna, que consiste
en definir para cada ecuación un factor de escala s ¡ = máx la¡¡I.A continuación, elegimos
ISJSn
el entero k que verifique:
Otro modo de proceder es el llamado pivoteo total, que consiste en realizar los cambios
necesarios entre filas y/o columnas para situar en la posición del pivote el mayor ele-
mento en valor absoluto de la submatriz A/r) en cada paso r (ver figura):
• ELIMI NACIÓN GAUSSIANA PARA SISTEMAS DE ECUACIONES LINEALES • Pág. 81 •
e o l umna r
f- flla r
1
1
I¡
bios hemos· de decir que, dado que sólo consideramos las operaciones elementales
aritméticas (que son las que producen errores de redondeo), nos va a dar el mismo coste 1
que en el método de Gauss simple, si bien el tiempo de cálculo será algo mayor en la
práctica debido a las operaciones necesarias para el intercambio de filas o columnas.
Por tanto, el tiempo empleado en resolver el sistema será algo superior al del
método de Gauss simple y también ventajoso.
\:/vE R 11 - {O} .
Teorema.- La matriz AE Mnxn es definida positiva si y sólo si:
det=
~ll
:
...ª1.k]
: > O, k = 1, ... , n.
rªkt ... ªkk
Factorización de Doolittle.
Volvamos al método de Gauss simple y consideremos de nuevo el sistema:
2x+y+z=l)
4x +y= -2
-2x + 2y + z = 7
a Pág. 82 a ED UCACIÓN MATEMÁTICA a Vol. lONo. l ·Abril 1998 a © GEi a
Aplicarnos los pasos (1 ), (2) y (3), en éste orden, de ia eliminación hacia adelante
y llegamos al sistema escalonado Ux = c siguiente:
E21 [-; ~ g]
OO 1
Ax= b
E21AX = E2 1b
Resultando:
E3¡ [1
= O o1 O
1 O 1
º] Ax
E 21 Ax
= b
= E 21 b
E 31 E 21 Ax E 31 E 21 b
[H-ífü] Hl
Asimismo, la transformación (3) podemos representarla con la matriz elemen-
Ax b
E 21 Ax E 21 b
E 31 E 21 Ax E 31 E 21 b
E32E3¡E21 Ax E32E3¡E21b
(*) Las transformaciones elementales permitidas en un sistema, que conducen a un sistema equivalente, son tres:
1) Una ecuación puede multiplicarse por una constante k, distinta de cero, y sustituir en el sistema la anterior ecuación por
la así obtenida.
2) La ec.u ación Ej puede multiplicarse por una constante k, sumarla a la ecuación E¡, y sumar la ecuación resultante en lugar
de la E¡.
3) Dos ecuaciones cualesquiera se pueden intercamb iar.
11 ELIMINACIÓN GAUSSIANA PARA SIST EMAS DE ECUACIONES LI NEALES • Pág . 83 •
Tenemos , pues :
a) E 32E 31 E 21 A == U ; E 32E 3 1E 21 b == e
b) Para sustraer de la ecuación i la ecuación j multiplicada por liJ, se constituye
la matriz elemental E¡j cuya entrada no diagonal no nula es la que ocupa la posición (i,j)
y vale -liJ.
De ésta manera, la matriz que convierte A y ben U y e, respectivamente, es:
Aún tiene mayor interés determinar la matriz E-1, que deshace los pasos de
eliminación gaussiana, i . e., regresa de U a A y de e a b. Para ello comenzamos por
invertir el paso (3), que fue el último en realizarse; el segundo paso por invertir es el
(2) y el último es el paso (1). Esto está en consonancia con la regla para calcular la
inversa del producto, es decir, las inversas están en orden opuesto a la sucesión ori-
ginal de operaciones:
t;-l == (E32E3¡E21t 1 == E21- 1E3¡-IE32-I
L == [~ ~
O O 1
~i [~ ~ ~] [~~ ~]
-1 O 1 O -3 1
= [ ~~
-1 -3
~]
1
Notas
La matriz:
b = o
A-[~~J-w~ a~:; ac + d == O
A = [~ ~] = [~ ~][~ ~]
• E LIMINACIÓN GAUSSIANA PARA SISTEMAS DE ECUACIONES LINEALES • Pág. 85 •
embargo PA = [~ ~ J · [~ ~ J = [ ~ ~ J sí la admite.
5) Si la matriz A es invertible y factorizable Doolittle, ésta factorización
es única.
'
En efecto, supongamos que existen dos factorizaciones distintas: A = ,¡
·,
Factorización LU.
(* ) Una matriz de permutación es aquella que tiene un elemento cuyo valor es I en cada fila y en cada columna y todos
sus demás elementos son cero. Es decir, es aquella que se obtiene a partir de la matriz unidad intercambiando filas y co-
lumnas entre sí. Por ejemplo:
p ¡ o
= O O1
[O1 O
º]
1!
1t I!i:
1
· 86
Pag. • EoucAcióN MATEMÁTICA • Vol. 1 O No. 1 • Abril 1998 • © GE.! •
2x +y+ z== 11
4x + y == -2
-2x + 2y + z == 7
tenemos que:
Si identificamos coeficientes:
A == LU == [ ~ ~
-1 -3 1
~] [~ -~
O O -4
-1]
que es la factorización de Doolittle, que ya obtuvimos anteriormente.
Volviendo al principio, si requerimos que u 11 = u 22 = u 33 = 1, tenemos
la factorización conocida con el nombre de método de Crout, similar a la de Doolittle.
Procediendo de modo análogo, factorizamos por el método de Crout la anterior matriz:
Por tanto, toda matriz A, o bien PA, siendo Puna matriz de permutación, pode-
mos factorizarla con éste método de Crout.
,.
1
A= LU = [4
2 52221
Identificando coeficientes:
1 2 2
= [1~ o
/3
131 132 rn~ U¡2
/3
o
u,11
U23
y
A= LU [4 221
= 2 S 2 =
[ 1
2 O
2 O
O 1[2O I2 1/2
1 1
1 2 2 1/2 3/4 [Link].¡4 O O [Link].¡4
Otra consideración importante acerca de la factorizac ión de Cholesky la
constituye el hecho de que si la matriz A es simétrica, entonces la matriz U = Lt, y
Notas
:1
!
Pág. 88 • E DUCACI ÓN MATEMÁTI CA • Vol. 1 o No. l • Abril 1998 • © GEi •
Referencias
i
1
¡