Tema 2
Tema 2
6
Ejemplos de normas vectoriales:
Norma k:
Dado un vector x se define su norma k mediante:
n k
∑x
k k k
x k =k i = k
x1 + x2 + ... + xn
i =1
Norma 1: n
x 1 = ∑ xi = x1 + x2 + ... + xn
i =1
Norma 2 o euclídea:
n
∑x
2 2 2 2
x2= i = x1 + x2 + ... + xn
i =1
7
Norma infinita:
x ∞
= max i xi
Ejemplo:
Dado el vector x=(2, -3, 4, -5) resulta:
x 1 = 2 + 3 + 4 + 5 = 14
x 2 = 4 + 9 + 16 + 25 = 54
x ∞
=5
y para la norma 4:
x 4 = 4 16 + 81 + 256 + 625 = 4 978
8
Norma Matricial:
Es una aplicación de las matrices en R, que verifica las 4
propiedades de norma y además:
5) Para cualesquiera matrices A y B se verifica : AB ≤ A B
Normas inducidas:
Para cada norma vectorial existe una norma matricial
inducida definida por:
A N
= max x =1 Ax
10
Norma de Frobernius:
Es un ejemplo de norma no inducida por una norma
vectorial ya que:
|| I || F = n (n orden de la matriz)
Se define por:
1/ 2
= ∑∑ ai , j
2
AF
i j
11
Ejemplo: Dadas las matrices A y B hallar sus distintas
normas matriciales. 2 0 - 1
- 2 3 0
A= 0 1 3 B =
- 2 3 5 0 − 1 1
A F = 4 + 1 + 1 + 9 + 4 + 9 + 25 = 53
8 6 8 8 - λ 6 8
A' A = 6 10 18 6 10 - λ 18 = 0 ⇒
8 18 35 8 18 35 - λ
p(λ ) = −λ 3 + 53λ 2 − 286λ + 36 = 0 que tiene las raices :
0.1289 5.9501 y 46.921, por tanto ρ ( A'A) = 46.921 y
A = 46.921 ≈ 6.8499 12
− 2 3 0
B = ⇒ B 1 = max{2,4,−1}, B = max{5,2} = 5
0 −1 1
∞
B F
= 4 + 9 + 1 + 1 = 15
4 −B6=B =− 2 − 023 30 0⇒ ⇒B4B=−=maxmax
λ −6 0
0 0 − 1 − 1 1
{2{
, 4
2
1 1
, −
4,1}
− =
1},4, B B= =
max {
max
5,
∞
{
2}
5∞
,=2}5= 5
6 10
B ' BB=' B -=6 −10 - 1 − 1-6⇒ 10
− -λ
6 10
0 0- 1 −11 1 0
-1 − λ= 0 ⇒ −1 = 0 ⇒
-01 1-λλ −1 1− λ
2 3 3 2 2
p(λ ) = -λ 3 + 15λ - 17λ = 0 que tiene las raices :
p ( λp(
) =λ )−=λ -λ+ 15+ 15λ
λ − 17 λ ==00 que
- 17λ quetiene
tienelas
lasraices
raices::
0, 1.235
0, 1.235y 13.765,
y 13.765,
por tanto ρ(B'B )ρ(B'
por tanto = 13B) = 13.765
.765 y y
0, 1.235 y 13.765, por
B B= =13.13
765 ≈ 3≈
.765
2
3tanto
.7101
2
.7101 ρ(B' B) = 13.765 y
B 2 = 13.765 ≈ 3.7101
13
Propiedades de las normas matriciales:
14
Definiciones:
Limite de una sucesión matricial:
{ An } → A ⇔ lim n →∞ An − A = 0
15
Ejemplos: 3 0 0 −1
5 3 1 −1 3 1 0
B=
A = 1 − 4 − 2 0 2 −4 1
4 2
7 2 0 − 2 − 5
n ,n
x = b − a x
∑
n
+ = −
n −1 n −1, n n
a1,1 x1 a x ... a x
+ a3, 3x 3 + a x ... + a3, nx n = b b 3 ⇒ n −1
a bi ai , k x k
1, 2 2 1, 3 3 1, n n 1 x
... i = k =i +1
n −1, n −1
a x
2, 2 2 + a x ... + a x = b
2,3 3
... 2,n n
...
1
a
b −∑ i , i
n
a x
3, 3 3... + a x = b ⇒
3, n n 3 ia x i ,k k
x = ...
k =i +1
x = a
1 k =2 1, k k
x1 =
1
a1,1
1,1
obteniendose la solución del sistema con n2 operaciones.
El determinante de A:
A = ∏ ai ,i
i
19
Matriz triangular inferior:
b1
x1 =
a1,1 x1 = b1 a
1,1
a2,1 x1 + a2, 2 x2 = b2 x = b2 − a2,1 x1
2 a2 , 2
a3,1 x1 + a3, 2 x2 + a3,3 x3 = b3 ⇒x = b
...
1
1
a x =b a
1,1
a x...
∑
1,1 1 1
x = b − a x i −1
b − ai ,k xk
+a x =b
a
2 2 ,1 1
2 ,1 1 2, 2 2
2 2
i
an ,1 x1 + an , 2 x2 + an ,3 x3 + ......+ an ,n xn = bn b − ∑... axix =
a x +a x +a x =b ⇒ k
2, 2
=1
3,1 1 3, 2 2 3, 3 3 3
a
i −1
a
i i ,k k
x =
k =1
a x + a x + a x + ... + a x = b
n ,1 1 n,2 2 n ,3 3 n,n n n i 2, 2
...
2, 2
...
3 2 1 5 f ← f − 2 f 3 2 1 5
2 2 1
2 2 −1 7 → 3
4 → 0 2 / 3 − 5 / 3 11 / 3
4 1 − 1 4 f 3 ← f 3 − f1 0 − 5 / 3 − 7 / 3 − 8 / 3
3
3 2 1 5 z = −1
5 11 / 3 + (5 / 3)(−1) 2
→ f 3 ← f 3 + f 2 → 0 2 / 3 − 5 / 3 11 / 3 ⇒ y = = = 3
2 2/3 2/3
0 0 − 13 / 2 13 / 2 z= 5 − 2 (3 ) − ( −1) 0
= =0
3 3
24
Dado un sistema de ecuaciones lineales, para hacer cero
debajo de la diagonal k, se toma como pivote el término ak,k
si es diferente de cero en otro caso se intercambia la fila k
con otra j>k cuyo |aj,i| sea máximo.
A continuación se hace cero debajo de la diagonal en la
columna k, mediante:
k
k +1 k ai ,k k i = k + 1,.., n
ai , j = ai , j − ak , j
j = k + 1,.., n, n + 1
k
ak , k
Número de operaciones: Viene dado por:
4n 3 + 9n 2 − 7 n 2 3
Nop = ≈ n
6 3
NOTA: La fila que está en su lugar no debe ser multi-
plicada por ningún factor y solo se suma o resta una
combinación lineal de la fila pivote. 25
Gauss con pivotaje:
Si en el paso k-ésimo ak,k=0 debemos intercambiar filas,
pero si es próximo a cero, cualquier error en los coeficien-
tes se incrementa innecesariamente para evitarlo se emplea
el pivotaje.
Pivotaje parcial:
Al elegir el pivote en la columna k-ésima tomamos el
término de mayor valor absoluto de los que están en dicha
columna en o por debajo de la diagonal. En caso de que esté
por debajo se intercambiarán filas.
Pivotaje total:
Al elegir el pivote en la columna k-ésima tomamos el
término de mayor valor absoluto de la submatriz formada
por las filas y columnas k, k+1,...n. Usualmente será
necesario intercambiar filas y columnas. 26
NOTA: En el pivotaje total se deberá controlar especial-
mente los intercambios de columna para asignar el valor
correcto a cada variable al efectuar la sustitución regresiva.
31
Método de Gauss-Jordan:
Trata de reducir el sistema en diagonal mediante opera-
ciones por filas:
k
k +1 k ai ,k k i = 1,2 ,...,k-1,k + 1,...,n
ai , j = ai , j − ak , j
j = k + 1, k + 2,..., n, n + 1
k
ak , k
2 − 1 4 − 1314 1 0 0 f ← f − 1 f 2 − 1 4 − 13 14 1
0 0
2 1
→ 0 3 1 0
2
1 1 1 4 5 0 1 0 → 2 − 1 21 − 2 − 1
f ← f − 3 f 2 2 2
3 2 − 1 19 7 0 0 1 3 3
2 0
1 7 − 7 77 − 14 − 3 0 1
2 2 2
2 2 0 10 − 6 38 2 2 0
10
f
1 ← f + f 2
3 3 3 3 f ← f + f3
→
1
3
→ 0 3 − 1 21 − 2 − 1 1
0 →
1 1
14
7 2 2 2 3
f3 ← f3 − f 2 − 14 14 − 28 −1 −7 f ← f − f3
0 0 1 2 2
3 3 3 3 3 14
33
3 −1 5 f ← f /2 3 −1 5
2 0 0 4 6 7 7 1 1 1 0 0 2 3 14 2 14
0 2
3 0 15 0 −3 3 −3 → f ← f → 0 1 0 5 0 −2 1 −1
2 2 7 2 14 2
3
2 7 7
0 − 28
0 − 14 14 3
−1 −7 1 − 3 0 0 1 − 32 1 1 −3
3 3 3 f3 ← f3 14 2 14
14
Re solvemos Ux = y : − 1
0 0 1 1 21 14 zx 74 - 1
y = 5
⇒ y= x = =2
( )
5 2 + (12 )(−41)− 2 2 − (− 1) 4
z = −
7 1
1 1 ( )
= 1
0 1
2 2 1
0 0
1 z - 1
7 − 2(1 )− (− 1)(1 )
1
4 2 4 =1
x =
1
38
Determinante: Podrá calcularse mediante:
Si A = LU entonces : A = L U = ∏ li ,i
i
40
Método de Cholesky o de la raíz cuadrada:
Resolución:
Dado el sistema Ax=b, se transforma en TT’x=b, y
llamando T’x=y, resultan dos sistemas triangulares Ty=b y
T’x=y que se resolverán mediante sustitución progresiva y
regresiva. 41
Ejemplo:
Comprobar que la matriz A es simétrica definida positiva y
resolver el sistema Ax=b, siendo: 4 2 − 1 11
A= 2 5 1 b = 11
−1 1 3 − 2
Descomponemos A:
2
a 0 0 a b c 4 2 − 1 a = 4 → a = 2
b d 0 0 d e = 2 5 1 ⇒ ba = 2 → b = 1
c e f 0 0 f − 1 1 3 ca = −1 → c = − 1
2
b 2
+ d 2
= 5 → d 2
= 4 → d = 2
−1
3
→ bc + de = 1 → + 2e = 1 → e =
2 4
c 2 + e 2 + f 2 = 3 → 1 + 9 + f 2 = 3 → f 2 = 35 → f = 35
4 16 16 4 42
La matriz A es simétrica definida positiva por ser simétrica
y de diagonal estrictamente positiva y términos positivos.
Hemos obtenido la descomposición:
−1
2 1
2 0 0 2 4 2 − 1
3
1 2 0 0 2 = 2 5 1
4
−1 3 35 −1 1 3
35
2 4 4 0 0
4
que se resuelve mediante dos sustituciones:
11
y1 =
2 0
0 y1 11 2
11 11
progresiva : 1 2 0 y 2 = 11 ⇒ + 2y 2 = 11 → y 2 =
35 y − 2 2 4
−1 3
3 − 11 33 35 − 21
2 4 4 + + y 3 = −2 → y 3 =
4 16 4 4 35
43
−1 11 35 z = − 21 → z = − 3 = −0.6
2 1
2 x 2 4 4 35 5
3 11 ⇒ 2y + 3 − 3 = 11 → y = 8 = 1.6
regresiva : 0 2 y
=
4 4 4 5 4 5
z
35 − 21 8 1 − 3 11
2x + −
0 0 9
= → x = = 1.8
4 4 35 5 2 5 2 5
45
Métodos de ortogonalización. Sistemas
sobredeterminados.
Matriz ortogonal: Una matriz Q se dice ortogonal
si y solo si QQ’=I. (Esto implica Q’Q=I)
-1
La condición anterior es equivalente a: Q =Q’.
En una matriz ortogonal los vectores fila que la forman
deben ser de norma 1 y ortogonales entre sí.
48
2) Buscamos una recta y=mx+b que pase por los
puntos (2,3), (-1,2), (-2,2), (0,2), (3,4).
Por lo que se debe verificar:
3=2m+b; 2=-m+b; 2=-2m+b; 2=b; 4=3m+b que no tiene
solución (sistema sobredeterminado). La mejor solución
es la que se obtiene por mínimos cuadrados y se obtiene
de forma eficiente por el método QR.
2 1 3 - 0.4714 - 0.3558 0.2170 - 0.1729 - 0.7577 - 4.2426 - 0.4714
-1 1 2 0.2357 - 0.5083 - 0.7079 - 0.4298 - 0.0126 0 - 2.1858
A= - 2 1 b= 2 ⇒ Q = 0.4714 - 0.5592 0.6410 - 0.1414 0.1851 R = 0 0
0 1 2 0 - 0.4575 - 0.1967 0.8663 - 0.0392 0 0
3 1 4 - 0.3050 0.0467 - 0.1222 0.6244
- 0.7071 0 0
- 2.8284
- 5.3374
0.3953
b' = Q' b = 0.3104 ⇒ x = La recta es : y = 0.3953x + 2.4419
2.4419
- 0.4174
0.4910 49
Métodos iterativos:
Para grandes sistemas los métodos directos son inservibles
a causa de la propagación de los errores de cálculo. Puede
considerarse que para sistemas con n>50 el método a em-
plear debe ser iterativo.
Los iterativos toman como vector inicial en cada paso el
obtenido en el paso anterior y por tanto no propagan errores.
Es fácil resolver un sistema mediante un método iterativo
sin guardar la matriz A en memoria.
En los sistemas grandes que surgen en la práctica tienen la
matriz A esparcida y aunque existen métodos directos espe-
ciales, son resueltos usualmente por métodos iterativos.
Los problemas de los iterativos serán: convergencia, velo-
cidad de la misma, vector inicial, condición de parada.
50
Generalidades:
Dado un sistema Ax=b, buscamos una sucesión de
vectores x (m) que converja hacia la solución del sistema.
Usualmente el vector siguiente se obtiene como función
del anterior: ( m +1)
x = F (x
(m)
)
y para los sistemas lineales resulta:
( m +1)
x = Bx (m)
+C
donde B es la matriz del método y C es un vector columna.
Condición de convergencia:
La condición necesaria y suficiente para que un
método iterativo converja es que el radio espectral
de la matriz B sea menor que 1. ρ (B) < 1 51
Los métodos iterativos usuales están preparados para que
el punto fijo sea la solución del sistema, es decir:
x=Bx+C cuando x verifica Ax=b
despejando podemos obtener: C=(I-B)x=(I-B)A-1 b, aunque
no es necesario comprobarlo.
NOTA: La convergencia no depende del vector b.
Métodos de partición regular:
Se basan en descomponer la matriz A como A=M-N de
forma que el sistema queda:
-1 -1
Ax=b Æ (M-N)x=b Æ Mx=Nx+b Æ x=M Nx+M b
que resultará útil si M es inversible y el radio espectral de
( )
-1
la matriz del método M N es menor que 1. ρ M −1 N < 1
El algoritmo iterativo resultante es:
( m +1) −1 −1
x = M Nx (m)
+M b 52
Método de Jacobi:
Dado un sistema de a1,1 x1 + a1, 2 x2 + a1,3 x3 + ... + a1,n xn = b1
ecuaciones lineales: a2,1 x1 + a2, 2 x2 + a2,3 x3 + ... + a2,n xn = b2
a3,1 x1 + a3, 2 x2 + a3,3 x3 + ... + a3,n xn = b3
...
an ,1 x1 + an , 2 x2 + an ,3 x3 + ... + an ,n xn = bn
x1 =
1
(b1 − a1,2 x2 − a1,3 x3 − ... − a1,n xn )
despejamos en la fila i a1,1
1
la incógnita i-ésima: x2 = (b2 − a2,1 x1 − a2,3 x3 − ... − a2,n xn )
a2 , 2
...
1
xi = (bi − ai,1 x1 − ai,2 x2 − ... − ai,n xn )
ai ,i
...
1
xn = (bn − an,2 x2 − an,3 x3 − ... − an,n−1 xn−153)
an , n
que conduce al método iterativo de Jacobi:
x1
( m +1)
=
1
(
a1,1
(m) (m)
b1 − a1, 2 x2 − a1,3 x3 − ... − a1,n xn
(m)
)
x2
( m +1)
=
1
(
a2 , 2
(m) (m)
b2 − a2,1 x1 − a2,3 x3 − ... − a2,n xn
(m)
)
...
xi
( m +1)
= (
1
ai ,i
(m) (m)
bi − ai ,1 x1 − ai , 2 x2 − ... − ai ,n xn
(m)
)
...
xn
( m +1)
= (
1
a2 , 2
(m) (m)
b2 − an ,1 x1 − an , 2 x2 − ... − an ,n −1 xn −1
(m)
)
Matricialmente: Descomponemos la matriz A=D+L+R
con D= matriz con sus términos 0 excepto la diagonal en
la que coincide con A. L con sus términos cero excepto
los que están por debajo de la diagonal y R lo mismo con
los que están por encima de la diagonal coincidentes con A.
54
Expresión matricial del método de Jacobi:
Ax=b Æ (D+L+R)x=b Æ Dx=-(L+R)x+b Æ
-1 -1
x=-D (L+R)x+D b
-1 -1
Por tanto: BJ = =-D (L+R) y CJ= D b
3− 2y + z ( m +1) 3 − 2 y ( m) + z ( m)
x= x =
3x + 2 y − z = 3 3 3
(m)
9 − x − 2 z ( m +1) 9 − x (m)
− 2 z
x + 4 y + 2z = 9 ⇒ y = ⇒ y =
4 4
2 x + 2 y − 5 z = −1 −1− 2x − 2 y
1 + 2 x (m)
+ 2 y (m)
z= z ( m +1)
=
−5 5 56
3 − 2( 9 ) + ( 1 )
3 − 2(0) + (0) 4 5 − 13
3
0 3 1 1 ) 30
9 − 0 − 2( 0) 9 9 − 1 − 2(
x
(0)
= 0 ⇒ x
(1)
= = ⇒x
( 2)
= 5 = 19
4 4 4 20
0
1 + 2(0) + 2(0) 1 1 + 2 (1) + 2 ( 9 ) 3
4
5 5 5 2
− 13 19 3
3 + 2 − − 3 − 68
30 20 2 15
− 13 19 3 − 39
r = Ax − b = + 4 + 2 − 9 = ⇒ r = 6.1
∞
30 20 2 −10
2 − 13 + 2 19 − 5 3 + 1 61
30 20 2 10
57
Método de Gauss-Seidel:
Pretende acelerar el método anterior empleando la
versión más actualizada de la variable en cada cálculo.
Continuando con el ejemplo:
3− 2y + z ( m +1) 3 − 2 y (m)
+ z (m)
x= x =
3x + 2 y − z = 3 3 3
(m)
9 − x − 2 z ( m +1) 9 − x ( m +1)
− 2 z
x + 4 y + 2z = 9 ⇒ y = ⇒ y =
4 4
2 x + 2 y − 5 z = −1
−1 − 2x − 2 y 1 + 2x ( m +1)
+ 2y ( m +1)
z= z ( m +1)
=
−5 5
3 − 2(2) + ( 7 )
5
3 − 2(0) + (0) 3 2
3
2 15
0 1 9 − − 2( 7 5 ) 91
9 − 1 − 2(0)
=
(0) (1) ( 2)
x = 0 ⇒ x = = 2 ⇒x = 15
4 7 4 60
0 1 + 2(1) + 2(2)
1 + 2( 2 ) + 2(91 ) 43
5 15 60
5 50
5
58
2 91 43
3 + 2 − − 3 − 32
15 60 50 75
2 91 43 − 27
r = Ax − b = + 4 + 2 − 9 = ⇒ r = 27/25 = 1.08
∞
15 60 50 25
2 2 + 2 91 − 5 43 + 1 0
15 60 50
Comparaciones:
El método de Gauss-Seidel es en general más rápido que
el de Jacobi.
Sin embargo el método de Jacobi permite paralelismo y
el de Gauss-Seidel no.
También puede ocurrir que uno sea convergente y el
otro no lo sea. 60
Método de sobre-relajación (SOR):
Consiste en añadir un parámetro w de relajación que ace-
lere la convergencia del método de Gauss-Seidel.
Se ha comprobado que usualmente los pasos que da el mé-
todo de Gauss-Seidel son demasiado cortos y lo que este
método hace es agrandar dichos pasos.
Esto se hace componente a componente. Así, si una com-
ponente en la iteración m vale ‘a’ y cuando aplicamos la
fórmula de Gauss-Seidel pasaría a valer ‘b’, el método SOR
le asigna en la iteración m+1 el valor a +w(b-a)
Este sería el valor que se emplea para calcular las
sucesivas componentes.
NOTA: El método SOR con w=1 es el de Gauss-Seidel.
Si w<1 (sub-relajación) y si w>1 (sobre-relajación).
61
Fórmulas para iterar:
( m +1) (m) ( m +1) ( m) ( m +1) (m) (m) ( m +1)
∆ SOR = w∆ GS = w( xi ,GS − xi ) ⇒ xi , SOR = xi + w( xi ,GS − xi ) = (1 − w) xi + wxi ,GS ⇒
( m +1) w
(m) (m) (m) (m)
x1 = (1 − w) x1 + (b1 − a1, 2 x2 − a1,3 x3 − ... − a1,n xn )
a1,1
w
− a2,3 x3 − ... − a2,n xn )
( m +1) (m) ( m +1) (m) (m)
x2 = (1 − w) x2 + (b2 − a2,1 x1
a2 , 2
( m +1) (m) w ( m +1) ( m +1) (m)
x3 = (1 − w) x3 + (b3 − a3,1 x1 − a3, 2 x2 − ... − a3,n xn )
a3,3
...
( m +1) ( m) w ( m +1) ( m +1) ( m +1)
xn = (1 − w) xn + (b2 − an ,1 x1 − a n , 2 x2 − ... − an ,n −1 xn −1 )
an , n
Matricialmente: /
Ax = b ⇒ w( D + L + R ) x = wb ⇒ (1 − w) Dx + w( D + L + R) x = (1 − w) Dx + wb ⇒
( D + wL + wR ) x = (1 − w) Dx + wb ⇒ ( D + wL ) x = − wRx + (1 − w) Dx + wb ⇒
( D + wL) x = [(1 − w) D − wR ]x + wb ⇒ x = ( D + wL ) −1[(1 − w) D − wR ]x + ( D + wL) −1 wb
3 − 2( 0) + 0
− 0. 2 ( 0 ) + 1 . 2
x 0 x
(0) (1)
3 1.2
( 0 ) (1) 9 − 1.2 − 2(0)
y = 0 ⇒ y = − 0.2(0) + 1.2 = 2.34
( 0 ) (1) 4
z 0 z 1.9392
− 0.2(0) + 1.2 1 + 2 (1. 2 ) + 2( 2. 34 )
5
63
3 − 2(2.34) + 1.9392
− 0 . 2(1 .2 ) + 1 .2
x
( 2)
3 − 0.1363
( 2) 9 − (−0.1363) − 2(1.9392)
y = − 0.2(2.34) + 1.2 = 1.1094 ⇒
z ( 2) 4
0.3192
− 0.2(1.9392) + 1.2 1 + 2 ( −0 .1363 ) + 2 (1 .1094 )
5
64
Condiciones de convergencia para los métodos
iterativos usuales:
1) La condición necesaria y suficiente de convergencia
será que el radio espectral de la matriz del método sea
estrictamente menor que la unidad. Asi:
Jacobi converge si y solo si : ρ(-D-1 (R + L)) < 1
Gauss - Seidel converge si y solo si : ρ(-(D + L)-1 R)) < 1
Para Jacobi y Gauss-Seidel obtenemos:
2) Jacobi converge si y solo si ningún término de la dia-
gonal principal de A es nulo y
Las soluciones de λD + L + R = 0 verifican λ i < 1
3) Gauss-Seidel converge si y solo si ningún término de
la diagonal principal de A es nulo y
Las soluciones de λD + λL + R = 0 verifican λ i < 1
65
Demostración para Jacobi:
ρ(BJ ) < 1 ⇔ Todos los autovalores de BJ son menores que 1 ⇔ - D -1 (L + R) - λI = 0
tiene sus raices verificando λ i < 1 pero : - D -1 (L + R) - λI = - D -1 (L + R) - λD -1D =
= - D -1 (L + R + λD) = - D -1 | | L + R + λD luego como - D -1 ≠ 0, la ecuación
- D -1 (L + R) - λI = 0 tiene las mismas raices que : | L + R + λD |= 0 y Jacobi
converge si son menores que 1.
66
Ejemplos:
Estudiar la convergencia de los métodos de Jacobi y Gauss-
Seidel para los sistemas: Ax=b y Cx=d siendo:
3 −1 2 − 1 3 −1 1 1
A = 4 2 5 b = 2 C = 4 9 5 d = 5
0 −1 3 3 1 −1 3 7
3λ − 1 2
Para el sistema Ax = b y Jacobi : λD + L + R = 0 ⇒ 4 2λ 5 = 0 ⇒
0 − 1 3λ
18λ 3 − 8 + 15λ + 12λ = 0 ⇒ 18λ 3 + 27λ - 8 = 0 ⇒ λ1 = -0.1407 + 1.2488i;
λ 2 = -0.1407 - 1.2488i; λ 3 = 0.2814 ⇒| λ1 |=| λ 2 |= 1.2567 > 1
r
y por tanto: 1 r A ∆x A −1 r r
= −1 ≤ ≤ = c(A) /
c(A) b A b x b b
A
1 r r ∆x
≤ δx ≤ c(A) con δx = , c(A) = A A -1
c(A) b b x
73
Número de condición de una matriz:
Al producto de la norma de una matriz por la norma de su
inversa se denomina número de condición
−1
c(A) = A A
y da una medida de los errores que se van a producir al
resolver un sistema con dicha matriz.
Propiedades:
1) El número de condición siempre es mayor que 1.
c(A) = A A −1 ≥ AA −1 = I = 1
2) Cuanto mayor es c(A), peor condicionada estará el
sistema. Puede considerarse que para una matriz con
c(A)=10 la última cifra de la solución no será fiable, para
c(A)=100, las dos últimas, etc,... 74
Ejemplo:
Resolver el sistema Ax=b con 1
para n=10 y acotar el error A i, j = , bi = 1
cometido en cada variable.
i + j −1
Con MATLAB resulta: x=(-9.99629431, 989.67863835,
-23753.13525466, 240177.44656281, -1260961.06074487,
3782956.91108005, -6725367.75688302, 6999971.72699231,
-3937532.49575707, 923628.67899107) que produce un vector
residuo: r=1e-9*(0.01455191522837, -0.04365574568510
-0.05820766091347, -0.08731149137020, 0.02910383045673
-0.05093170329928, 0.12369127944112, -0.05820766091347
0.08003553375602, -0.14551915228367)
luego: r ∞ = 1.455191522836685 10-10
Calculando la inversa y su norma infinita resulta:
A −1 = 1.207036531817908 1013 ⇒ ∆x ∞
≤ A -1 r ∞
= 1756.469328855612
75
∞ ∞
Esto significa que el valor obtenido en cada incógnita
oscila en más menos 1756.4, lo que deja algunas incóg-
nitas sin cifras significativas.
La matriz del problema propuesto es conocida como
matriz de Hilbert y está muy mal condicionada:
c(A)=3.535371683074594e+013 (norma infinita)
81
Acotación del error cuando existen
errores en los datos:
Suponemos ahora que los coeficientes del sistema están
afectados de errores y queremos estimar como se propaga-
rán al resultado.
Estamos resolviendo en realidad el sistema:
(A + ∆A)(x + ∆x) = b + ∆b
del que obtenemos la solución exacta x’, pero en realidad
queremos resolver Ax=b, entonces el error ∆x = x'-x
verifica:
(A + ∆A)(x + ∆x) = b + ∆b ⇒ Ax + ∆A x + A∆ x + ∆A∆x = b + ∆b ⇒
{despreciando el término ∆A∆x} ⇒ A∆ x + ∆A x = ∆b ⇒ /
∆x ≈ A -1 (∆ b - ∆A x)
82
Para el error relativo tenemos el siguiente teorema:
TEOREMA:
∆x ∆b ∆A
Llamando : rel(x) = , rel(b) = , rel(A) = :
x b A
se obtiene la fórmula:
rel(A) + rel(b)
rel(x) ≤ c(A)
1 - c(A)rel(A)
Nota:
Las fórmulas obtenidas para los errores son válidas para
cualquier norma (siempre la misma).
La más usada es la norma infinito.
83
Ejemplo: Dado el sistema Ax=b donde los coeficientes
vienen afectados de errores, encontrar intervalos para las
incógnitas.
(3 ± 0.(201 + ± − ± = 14 ± 0.005
(3 ± 0.01) x + (4 ± 0.01) y − (1 ± 0.001) z = 14 ± 0.005
) x ( 4
± 0.001) x − (1 ± 0.001) y0 .01 ) y = 0 ± 0.005 0.001) z
( 1
b ∞
14 - 0.18519 0.07407 0.40741
⇒ c(A) = A ∞
A −1 = 8(0.66667) ≈ 5.33333 84
∞
rel(A) + rel(b) 0.002625 + 0.00035714
rel(x) ≤ c(A) = 5.33333 ≈ 0.01613
1 − c(A)rel(A) 1 − 5.33333(0.002625)
∆x
rel(x) = ∞
≤ 0.01613 ⇒ ∆x ∞
≤ 3(0.01613) = 0.04239 < 0.05
x ∞
85
Inversión por vectores columnas:
El cálculo de la matriz inversa puede realizarse columna
a columna resolviendo el sistema: Aci = e i
c i = (columna i - ésima de la inversa ), ei = (0,0,0,...,1,0,...,0,0)'
86
Ejemplo:
3 4 - 1
Hallar la inversa de la matriz A = 2 − 1 0 mediante vectores columnas :
1 2 2
Aunque no es el método usual emplearemos Gauss, para
mostrar como puede realizarse una rutina que resuelva
varios sistemas simultáneamente (en eso consiste el cálculo
de la inversa).
3 4 -1 1 0 0 2
f
2 ← f 2 − f1
Partimos de : (A | I) = 2 - 1 0 0 1 0 y triangularizamos : 3 →
1
1 2 2 0 0 1 f 3 ← f 3 − f1
3
3 4 -1 1 0 0 2 3 4 -1 1 0 0
3
0 - 11/3 2/3 - 2/3 1 0 → f 3 ← f 3 − -11 f 2 → 0 - 11/3 2/3 - 2/3 1 0
0 2/3 7/3 - 1/3 0 1 3 0 0 27/11 - 5/11 2/11 1
87
3 4 -1 1 0 0
11 −3 2
Sustitución hacia atrás : f 3 ← f 3 * → 0 - 11/3 2/3 - 2/3 1 0 → f2 ← f 2 − f 3
27 11 3
0 0 1 - 5/27 2/27 11/27
3 4 -1 1 0 0 1 0 0 2/27 10/27 1/27 2/27 10/27 1/27
1
→ 0 1 0 4/27 - 7/27 2/27 → f1 ← ( f1 − 4 f 2 + f 3 ) → 0 1 0 4/27 - 7/27 2/27 ⇒ A−1 = 4/27 - 7/27 2/27
0 0 1 - 5/27 2/27 11/27 3 - 5/27 2/27 11/27
0 0 1 - 5/27 2/27 11/27
-1
-2
-3
-8 -6 -4 -2 0 2 4 6