Cours Decomposition
Cours Decomposition
Proposition 1. Formules de Cramer. (p.80 [Cia], Prop.5.1.1 [AK]) Soit A ∈ Mn (K) inversible et
a1 , ..., an ∈ Kn les colonnes de A :
A = (a1 |a2 |...|an ).
Soit b ∈ Kn . Alors l’unique solution x ∈ Kn du système Ax = b est donnée par x = (x1 , ..., xn ) avec
Remarque 1. Les formules de Cramer sont très peu adaptées au calcul sur ordinateur puisque calculer un
déterminant est très coûteux (le coût d’un déterminant n × n est cn = n(1 + cn−1 ) ≥ ncn−1 donc cn ≥ n!
et nous devons évaluer n + 1 déterminants donc le coût des formules de Cramer est de l’ordre de (n + 1)!).
(Ch.5 [AK]).
Il faut donc savoir résoudre le système Ax = b lorsque A est triangulaire inférieure (ou supérieure) :
c’est l’algorithme de descente (ou de remontée).
Proposition 2. Algorithme de descente. (p. 89 [Ser]) Soit A triangulaire inférieure et inversible (i.e
ai,i 6= 0, ∀i ∈ {1, ..., n})
a1,1 0 0
a2,1 a2,2 0
A= . .
.. ..
. 0
an,1 an,2 . . . an,n
La solution x de Ax = b est alors donnée par
b
x1 = 1 ,
a1,1
Pi−1
bi − j=1 ai,j xj
xi = , pour i ∈ {2, ..., n}.
ai,i
Remarque 3. Si A est triangulaire supérieure, on trouve xn en premier puis on en déduit xn−1 , xn−2 , ..., x1 ,
il s’agit de l’algorithme de remontée. (§4.1 [Cia]).
1 Méthode de Gauss
1.1 Opérations élémentaires sur les lignes
Remarque 4. Matrices de dilatation. Pour λ ∈ K∗ et p ∈ {1, ..., n}, la matrice de dilatation Dp (λ) est
définie par
1 p 0
..
. ↓
1
Dp (λ) =
λ ← p .
1
..
0 .
1
Pour toute matrice M ∈ Mn (K), la multiplication à gauche par la matrice Dp (λ) multiplie la ligne p de M
par λ.
Matrices de transposition. Pour (p, q) ∈ {1, ..., n}2 , la matrice de transposition Pp,q (cas particulier
d’une matrice de permutation) est définie par
1 p q
..
. ↓ ↓
1
0 1 ← p
1
Pp,q = .
. .
.
1
1 0 ← q
..
.
1
Pour toute matrice M ∈ Mn (K), la multiplication à gauche par la matrice de transposition Pp,q inverse les
lignes p et q de la matrice.
Matrices de transvection. Pour (p, q) ∈ {1, ..., n}2 et λ ∈ K∗ on appelle la matrice de transvection,
la matrice suivante
1 q
..
. ↓
Tp,q (λ) =
.. .
. λ ← p
..
.
1
Pour toute matrice M ∈ Mn (K), la multiplication à gauche par la matrice Tp,q (λ) change Lp , la p-ième
ligne de M , en Lp + λLq .
Proposition 3. La matrice de transvection Tp,q (λ) est inversible, d’inverse Tp,q (λ)−1 = Tp,q (−λ).
Définition 1. On appelle opération élémentaire sur les lignes une application de la forme Mn (K) 3 M 7→
U M où U est une matrice de transvection, transposition ou dilatation.
Remarque 5. Pour obtenir que M A soit une matrice triangulaire inférieure, il faudrait raisonner sur des
opérations élémentaires sur les colonnes.
Démonstration du Théorème 1. L’idée est de construire en n − 1 étapes une suite de matrices Ai ayant
toutes des zéros en dessous de la diagonale dans les i premières colonnes.
Initialisation : On pose A0 = A.
Étape i, i ≥ 1 : On suppose qu’à la fin de l’étape i − 1, on a construit une matrice Ai−1 telle que
Ai−1
k,j = 0, si k > j, pour tout j ∈ {1, ..., i − 1}.
Les coefficients de Ai−1 sont bien nuls au dessous de la diagonale dans les i − 1 premières colonnes.
∗
..
. ∗
∗
i−1 Ai−1
A = i,i
i−1
0 Ai+1,i ∗
..
.
Ai−1
in,i
• Si A est inversible.
i−1
1. Si Ai,i = 0, on choisit j > i tel que Ai−1
j,i 6= 0 (un tel j existe puisque sinon, la i-ème ligne serait
combinaison linéaire des i − 1 premières lignes et la matrice A ne serait pas inversible). On choisit
ce Ai−1
j,i comme pivôt et on échange les lignes i et j de A
i−1 : L ↔ L .
i j
Du point de vue matriciel, cela revient à multiplier la matrice Ai−1 par la matrice de transposition
Pi,j . On notera P i cette matrice : P i = Pi,j .
(par la suite Lj , Li , Ai−1 i−1
i,i , Aj,i seront les lignes et les coefficients de la matrice A
i−1 après cette
étape de permutation).
Ai−1
2. On fait la somme de chaque ligne Lj de Ai−1 avec − j,i
i−1 Li pour j > i
Ai,i
Ai−1
j,i
Lj → Lj − Li , ∀j > i.
Ai−1
i,i
Du point de vue matriciel, cela revient à multiplier Ai−1 à gauche par une somme de matrices de
Ai−1
transvection nj=i+1 Tj,i (− j,i i
P
i−1 ). Notons E cette matrice
Ai,i
1
..
.
0
n i−1
1
i
X Aj,i
Ai−1
E = Tj,i (− i−1 ) = − i+1,i .
i−1 1
j=i+1
A i,i
Ai,i
.. ..
0
. .
Ai−1
− n,i
i−1 1
Ai,i
Ai = E i P i Ai−1 = E i P i ...E 1 P 1 A.
i−1
• Si A est non inversible, alors les éléments Aj,i , j > i, sont tous égaux à 0 pour au moins un i. Dans ce
cas, la matrice A i−1 est déjà sous la forme souhaitée et on pose P i = E i = In , la matrice identité.
triangulaire supérieure.
On pose M = E n−1 P n−1 ...E 1 P 1 et on a
• M A triangulaire supérieure par construction
• M inversible et det(M ) = ±1 selon le nombre de permutations de deux lignes effectuées (det(M ) = 1 si
le nombre de permutations est pair et det(M ) = −1 si ce nombre est impair).
Remarque 6. Attention, en pratique, on ne calcule pas les E i et P i (et on ne les stocke pas même si ce
sont des matrices creuses !), on implémente directement la transformation sur les lignes Li .
Pour résoudre Ax = b, il suffit de résoudre An−1 x = M b par l’algorithme de remontée (pour calculer M b,
i−1
Aj,i
on effectue les mêmes opérations d’échanges de lignes et de multiplications par − sur le vecteur b). Si A
Ai−1
i,i
n’est pas inversible, on pourra toujours écrire la décomposition An−1 x = M b, mais il n’y aura pas forcément
de solution.
2 Décomposition LU
Objectif. Décomposer la matrice A en produit de deux matrices triangulaires, et ainsi ramener le
système Ax = b à la résolution de deux systèmes triangulaires.
Nous verrons que cela revient à appliquer la méthode de Gauss sans l’étape de permutation des lignes
(puisqu’on suppose des hypothèses supplémentaires sur la matrice A).
Définition 2. Soit A ∈ Mn (K). On appelle sous-matrice d’ordre k de A la matrice ∆k ∈ Mk (K) construite
à partir de A par
∆ki,j = Ai,j , ∀(i, j) ∈ {1, ..., k}2 .
On appelle «mineur principal» d’ordre k de A le déterminant det(∆k ).
Théorème 2 (Thm 4.3-1 du [Cia], Thm 8.1.1 [Ser], Thm 6.2.1 [AK]). Soit A ∈ Mn (K). Si toutes les
sous-matrices ∆k d’ordre k de A sont inversibles alors il existe un unique couple (L, U ) de matrices avec
L ∈ Mn (K) triangulaire inférieure à diagonale unitaire (i.e Li,i = 1) et U ∈ Mn (K) triangulaire supérieure
tels que A = LU .
Remarque 7. L’appellation «décomposition LU » vient de la forme des matrices
L = "lower triangular matrix" et U = "upper triangular matrix".
Remarque 8. En particulier, si A est une matrice symétrique définie positive (i.e xT Ax > 0 pour x 6= 0)
alors A vérifie bien les hypothèses du théorème de décomposition LU : det(∆k ) 6= 0 pour tout k ∈ {1, ..., n}
(on a même det(∆k ) > 0 dans ce cas particulier, la preuve se trouve à l’exercice 4 p.247 [Gou]).
Démonstration du Théorème 2. Unicité : Supposons (L1 , U1 ) et (L2 , U2 ) comme dans le théorème 2. On a
donc
A = L1 U1 = L2 U2 . (1)
Pour j ∈ {1, 2}, (Lj )i,i = 1 et Lj est triangulaire (inférieure) donc Lj est bien inversible. De même, A = ∆n
qui est bien supposé inversible donc Uj = L−1 j A est bien inversible pour j ∈ {1, 2}. L’équation (1) implique
donc
L−1
2 L1 = U2 U1 .
−1
Comme L−1 −1 −1 −1
2 L1 est triangulaire inférieure et U2 U1 est triangulaire supérieure, on a que L2 L1 et U2 U1
sont diagonales.
Mais L1 et L2 sont à diagonale unitaire donc L−1 2 L1 est, elle aussi, à diagonale unitaire. Donc
U2 U1−1 = L−1
2 L1 = In .
En posant M i−1 = E i−1 ...E 1 , on a donc en considérant les matrices précédentes par blocs
i−1 i−1 i
(A )1,..,i ∗ (M )1,...,i 0 ∆ ∗
= .
∗ ∗ ∗ In−i ∗ ∗
On a donc : det ∆i det(M i−1 )1,...,i = det(Ai−1 )1,...,i . Puisque det ∆i 6= 0 par hypothèse et det(M i−1 )1,...,i =
Remarque 9. Lorsque la matrice A est tridiagonale (et qu’elle vérifie les hypothèses du théorème 2) alors
les matrices L et U sont des matrices bandes. (p.85 [Cia]).
3 Décomposition de Cholesky
Dans cette section, K = R et on se restreindra à des matrices A symétriques définies positives. Pour
de telles matrices, on a vu précédemment qu’une décomposition LU existait, mais il existe une décomposi-
tion «plus simple» dans le sens où elle ne fait intervenir qu’une seule matrice : la décomposition de Cholesky.
Rappel. Une matrice A est dite symétrique définie positive si et seulement si xT Ax > 0 pour tout x 6= 0
(la forme quadratique définie par A est strictement positive).
Théorème 3 (Thm 4.4-1 [Cia], Thm 8.2.1 [Ser], Thm 6.3.1 [AK]). Soit A ∈ Mn (R) symétrique définie
positive, alors il existe une unique matrice B ∈ Mn (R) triangulaire inférieure avec des éléments diagonaux
strictement positifs telle que A = BB T .
Démonstration du Théorème 3. Existence : La matrice A étant symétrique définie positive, ses mineurs
principaux sont tous strictement positifs (voir remarque 8), elle admet donc une décomposition LU .
On a donc
1
| ∗
U1,1
∆i 1 0
| U2,2 ∗
− − Ai,i
. ..
. .
= . .
..
. . .
0 .
∗ 1
∗ ∗ Un,n
1
En regardant les blocs en haut à gauche de chaque matrice (argument déjà utilisé dans la preuve de la
décomposition LU ) nous avons l’égalité des déterminants
i
Y
Uj,j = det(∆i ) > 0.
j=1
Donc par récurrence, chaque Ui,i est strictement positif, on peut donc définir la matrice (inversible) D
suivante : p p p
D = diag( U1,1 , U2,2 , ..., Un,n ).
−1
On a A = |{z}
LD D | {z U}.
=B =C
Montrons que C = B T : Par hypothèse sur A, on a A = AT et en même temps A = BC. Donc
BC = C T B T =⇒ (C T )−1 B = B T C −1 .
Or (C T )−1 B est une matrice triangulaire inférieure et B T C −1 est une matrice triangulaire supérieure. Ainsi
(C T )−1 B et B T C −1 sont toutes deux des matrices diagonales.
Or nous avons, pour tout i ∈ J1, nK,
p
Bi,i = Ui,i (puisque Li,i = 1)
et
−1 Ui,i p
Ci,i = Di,i Ui,i = p = Ui,i .
Ui,i
Donc (C T )i,i = Ui,i et (C T )−1 √1 , pour tout i ∈ {1, ..., n}.
p
i,i = Ui,i
Ainsi nous obtenons
n
X
T −1
((C ) B)i,i = (C T )−1
i,k Bk,i
k=1
n
X
= (C T )−1
i,k Bk,i (car B est triangulaire inférieure)
k=i
= (C T )−1
i,i Bi,i (car (C T )−1 est triangulaire supérieure)
= 1.
Remarque 12. Il existe une décomposition de Cholesky lorsque A est une matrice hermitienne définie
positive (K = C). Les coefficients de la matrice B sont alors complexes sauf les coefficients diagonaux (qui
restent réels positifs). (p. 96 [Ser]).
4 Factorisation QR
Principe. C’est la décomposition de A en une matrice unitaire Q et une matrice triangulaire supérieure
R. L’avantage de la décomposition QR c’est qu’elle s’applique à toutes matrices (pas de contrainte sur les
mineurs principaux comme pour LU ni sur le caractère symétrique défini positif comme pour Cholesky).
Cette méthode peut même s’appliquer sur des matrices non carrées. L’inconvénient de cette méthode est
qu’elle est «moins efficace» que les décompositions LU ou de Cholesky (car Q est une matrice unitaire et
non triangulaire).
Définition 3. Une matrice Q ∈ Mn (R) est dite orthogonale (ou unitaire) si et seulement si Q−1 = QT .
Une matrice Q ∈ Mn (C) est dite unitaire si et seulement si Q−1 = Q∗ = Q̄T .
Théorème 4 (Thm 4.5-2 [Cia], Prop 8.3.1 [Ser], Thm 6.4.1 [AK]). Soit A ∈ Mn (K) inversible. Alors
il existe un unique couple (Q, R) avec Q unitaire, R triangulaire supérieure à diagonale positive, tel que
A = QR.
Remarque 13. Résoudre le système Ax = b revient alors à résoudre Rx = QT b au moyen d’un algorithme
de remontée.
Démonstration du Théorème 4. Il existe une preuve de la décomposition QR se basant sur le procédé d’or-
thonormalisation de Gramm-Schmidt dans Cn (p. 97 [Ser], p.117 [AK]). Mais nous lui préfèrerons la mé-
thode de Householder développée ci-après (puisque c’est elle qu’on codera en pratique). Cette méthode de
Householder consiste à multiplier la matrice A par une succession de matrices unitaires (les matrices de
Householder) pour rendre A progressivement triangulaire supérieure.
Remarque 14. Lorsque la matrice A n’est pas inversible, il existe une décomposition QR mais elle n’est
pas unique (p.98 [Ser]).
2vv T
Hv = In − ∈ Mn (R).
||v||2
Remarque 15. Le vecteur v étant un vecteur colonne, v T est un vecteur ligne. Le produit vv T est donc une
matrice n × n dont le coefficient d’indice (i, j) s’écrit vi vj .
Remarque 16. Si v = 0 ∈ Rn , alors H0 = In (la matrice identité est donc considérée comme une matrice
de Householder).
Proposition 4 (Lem 7.3.1 [AK], Thm 4.5-1 [Cia]). Soit v ∈ Rn ,
• la matrice de Householder Hv est symétrique et orthogonale.
• Soit ei le ième vecteur de la base canonique de Rn , on a Hv±||v||ei v = ∓||v||ei (attention, au changement
de signe).
Démonstration de la proposition 4. • Le coefficient d’indice (i, j) de la matrice Hv vaut
2vi vj
(Hv )i,j = δi,j − = (Hv )j,i .
||v||2
Ainsi la matrice Hv est bien symétrique.
• Puisque Hv est symétrique, nous avons
2vv T 2vv T
HH T = HH = In − I n −
||v||2 ||v||2
4vv T 4(vv )(vv T )
T
= In − +
||v||2 ||v||4
4vv T 4v(v T v)v T
= In − + .
||v||2 ||v||4
4vv T 4v||v||2 v T
HH T = In − + .
||v||2 ||v||4
0
sont inchangées).
À la fin de n − 1 étapes, on a une matrice
An = H n ...H 1 A
Remarque 17. Nous n’avons pas encore utilisé le caractère inversible de la matrice A (il sera primordial
pour l’uncité des matrices Q et R). La décomposition QR existe donc pour une matrice A non inversible (et
non carrée).
A = Q1 R1 = Q2 R2 .
Or Ri est triangulaire supérieure, donc T l’est aussi. De plus on a (R1 )i,i > 0 et (R2 )i,i > 0 donc Ti,i =
(R2 )i,i
(R1 )i,i > 0. L’égalité précédente n’est donc rien d’autre qu’une décomposition de Cholesky de la matrice
identité. Par unicité d’une telle décomposition, on a T = In et donc R1 = R2 . On en déduit alors facilement
que Q1 = Q2 .
Cadre. Les méthodes directes donnent des solutions exactes de Ax = b mais le calcul est souvent assez
coûteux (par exemple si la matrice est pleine ou si elle est de grande taille). L’idée des méthodes itératives
est de construire une suite de vecteurs (xk )k ∈ Kn qui converge vers la solution x de Ax = b.
Remarque 18. Les méthodes itératives que nous étudierons ici sont toutes basées sur une décomposition
de la matrice A en A = M − N avec M une matrice inversible (et facilement inversible, par exemple M
diagonalisable ou M triangulaire). On a alors
Ax = b ⇔ (M − N )x = b
⇔ Mx = Nx + b
⇔ x = M −1 N x + M −1 b.
Cette forme suggère d’étudier les points fixes de la fonction
y ∈ Kn 7→ M −1 N y + M −1 b.
Rappel. Le rayon spectral ρ(A) d’une matrice A est défini par ρ(A) = max |λi | où les λi sont les
i∈J1,nK
valeurs propres complexes (comptées avec multiplicité) de la matrice A.
De plus le rayon spectral vérifie les deux inégalités suivantes : (Thm 1.4-3 [Cia], Prop 3.1.4 [AK], Cor
4.4.1 [Ser])
1. Pour toute matrice A ∈ Mn (K) et pour toute norme matricielle |||·||| sur Mn (K), on a ρ(A) ≤ |||A|||.
2. Pour tout > 0 et pour toute matrice A ∈ Mn (K), il existe une norme matricielle ||| · ||| (qui dépend
de A) telle que |||A||| ≤ ρ(A) + .
Démonstration du rappel. • Soit A ∈ Mn (K) et ||| · ||| une norme matricielle. Si la norme est subordonnée
à une norme vectorielle, alors |||A||| = sup ||Ax|| n
||x|| . Soit λ ∈ K tel que |λ| = ρ(A) et soit u un vecteur
x∈Kn \{0}
propre associé. Alors on a ρ(A)||u|| = ||λu|| = ||Au|| ≤ |||A|||.||u||.
Si la norme est non subordonnée à une norme vectorielle. On prend λ ∈ Kn et u comme précédemment.
On choisit aussi un vecteur v ∈ Kn tel que uv ∗ 6= 0 ∈ Mn (K). Alors |λ||||uv ∗ ||| = |||λuv ∗ ||| = |||Auv ∗ ||| ≤
|||A|||.|||uv ∗ ||| (car ||| · ||| est une norme matricielle).
• Soit A ∈ Mn (K). Il existe U inversible tel que U −1 AU = T où T est une matrice triangulaire avec Ti,i
les valeurs propres de A, pour i ∈ {1, ..., n}.
Soit δ > 0, on définie la matrice Dδ diagonale suivante Dδ = diag(1, δ, δ 2 , ..., δ n−1 ) et on montre que
. . . δ n−1 T1,n
T1,1 δT1,2
T2,2 δT2,3 . . . δ n−2 T2,n
.. ..
(U Dδ )−1 A(U Dδ ) =
. . .
. . .
.
0 . .
Tn,n
Définissions la norme suivante :
n
X
−1
|||A|||δ = ||(U Dδ ) A(U Dδ )||∞ = max |(U Dδ )−1 A(U Dδ )|i,j .
i∈J1,nK
j=1
Pn j−1 T |
Soit > 0 fixé, il ne nous reste plus qu’à choisir δ > 0 tel que j=1 |δ i,j ≤ et on aura dans ce cas
|||A|||δ ≤ ρ(A) + .
Démonstration du Théorème 5. Par définition, la méthode itérative converge si et seulement si, pour tout
x0 ∈ Kn , nous avons xk −→ x, avec nécessairement Ax = b (soit x = M −1 N x + M −1 b). C’est-à-dire, si
k→+∞
et seulement si, pour tout e0 ∈ Kn donné, ek = xk − x −→ 0.
k→+∞
Or xk+1 = M −1 N xk + M −1 b ce qui implique que
xk+1 − x = M −1 N xk + M −1 b − x = M −1 N xk + M −1 b − M −1 N x − M −1 b = M −1 N (xk − x).
Ainsi, ek −→ 0 si et seulement si (M −1 N )k+1 −→ 0 (pour une certaine norme matricielle) ce qui
k→+∞ k→+∞
est équivalent aux deux propositions suivantes :
• ρ(M −1 N ) < 1,
• |||M −1 N ||| < 1 pour au moins une norme matricielle ||| · |||, d’après le rappel précédent.
Remarque 20. Les méthode itératives reposent sur la recherche des points fixes de
F : y ∈ Kn 7→ M −1 N y + M −1 b
par la méthode des approximations successives (ou méthode de Picard). Nous savons que cette méthode de
Picard converge si F est contractante ce qui revient à supposer |||M −1 N ||| < 1 comme dans le théorème 5.
Il n’est donc pas étonnant que la méthode itérative converge si et seulement si cette condition est respectée
(voir p.96 [Cia]).
5.1 Condition suffisante de convergence pour les matrices hermitiennes définies posi-
tives
Dans certains cas, il n’est pas nécessaire de calculer le rayon spectral de la matrice B pour savoir s’il y
a convergence ou pas. C’est le cas notamment des matrices hermitiennes définies positives, comme expliqué
dans le théorème suivant.
Théorème 6 (Thm 8.1.2 [AK], Thm 5.3-1 [Cia], Lem 9.3.1 [Ser]). Soit A une matrice hermitienne définie
positive et M, N telles que A = M − N avec M inversible. Alors, si la matrice M ∗ + N , qui est hermitienne,
est aussi définie positive, la méthode itérative de matrice M −1 N converge.
Démonstration du théorème 6. Matrice hermitienne : La matrice M ∗ + N est bien hermitienne car A est
hermitienne, donc A = A∗ soit encore (M − N )∗ = M − N . Donc M ∗ − N ∗ = M − N donc M ∗ + N =
M + N ∗ = (M ∗ + N )∗ .
Condition du théorème 5 vérifiée : On montre que si M ∗ + N est définie positive alors, il existe une
norme matricielle ||| · ||| telle que |||M −1 N ||| < 1. p
Puisque A est hermitienne définie positive, on peut définir une norme sur Kn par ||x||A = hAx, xi.
Soit ||| · |||A la norme matricielle subordonnée à || · ||A . Par définition, on a donc |||M −1 N |||A =
sup ||M −1 N x||A . Soit x ∈ Kn tel que ||x||A = 1 alors hAx, xi = 1 et on a
||x||A =1
||M −1 N x||2A = 1 − hAv, xi − hM v, vi + hAv, vi (car x est choisi tel que hAx, xi = 1)
= 1 − hv, M vi − hM v, vi + hAv, vi (car A est hermitienne donc hAv, xi = hv, Axi = hv, M vi)
∗
= 1 − h(M + M − A)v, vi
= 1 − h(M ∗ + N )v, vi
Or M ∗ + N est supposé définie positive donc pour v 6= 0 on a h(M ∗ + N )v, vi > 0 donc
Soit |||M −1 N |||A < 1. Le théorème 5 sur les critères de convergence permet de conclure quant à la conver-
gence de la méthode itérative.
telles que A = D − E − F = D − (E + F )
Définition 7 (Def 8.2.1, 8.2.2, 8.2.3 [AK], §9.2 [Ser], §5.2 [Cia]). Soit A ∈ Mn (K) avec une décomposition
en les matrices D, −E, −F comme précédemment. Supposons de plus D inversible (par exemple, A inversible
suffit).
— La méhode de Jacobi se base sur la décomposition
A = D − (D − A) = |{z}
D − (E + F )
| {z }
M N
(i.e on ne distingue pas séparément les matrices −E et −F ici). La matrice de la méthode est
J = D−1 (D − A) = In − D−1 A.
— La méthode de Gauss-Seidel est basée sur la décomposition
A = (D − E) − |{z}
F .
| {z }
M N
D
−1 1−ω
La matrice de la méthode est donnée par Gω = ω −E ω D +F .
Calcul pratique. Une itération pour calculer xk+1 à partide xk dans ces méthodes est donnée par
Dxk+1 = (D − A)xk + b (méthode de Jacobi),
(D − E)xk+1 = F xk + b (méthode de Gauss-Seidel),
D 1−ω
( − E)xk+1 = ( D + F )xk + b (méthode de relaxation).
ω ω
Remarque 22. Si ω = 1 dans la méthode de relaxation, on retrouve la méthode de Gauss-Seidel. Le choix
de ω dans la méthode de relaxation est important puisque qu’il permet de minimiser ρ(Gω ) et ainsi d’avoir
une méthode qui converge plus rapidement.
Remarque 23. Ces trois méthodes sont bien définies si la matrice diagonale D est inversible.
Remarque 24. La méthode de relaxation est aussi appelée méthode SOR pour "Successive OverRelaxation
method".
On a donc
n n n
X X Ai,j 1 X
|(In − D−1 A)i,j | = = |Ai,j | < 1.
Ai,i |Ai,i |
j=1 j=1,j6=i j=1,j6=i
Soit λ une valeur propre de (D − E)−1 F , alors par définition det(λ(D − E) − F ) = 0, soit encore
det(λD − (λE + F )) = 0. Ainsi, λ apparaît comme une valeur propre de la matrice D−1 (λE + F ). Le
coefficient d’indice (i, j) de cette matrice D−1 (λE + F ) vaut
n
X
−1
D−1 (λE + F ) i,j =
Di,k (λEk,j + Fk,j )
k=1
−1
= Di,i (λEi,j + Fi,j ) (puisque D est une matrice diagonale)
1
(−λAi,j ) , si i > j,
Ai,i
= 1 d’après les définitions des matrices D, E, F.
(−Ai,j ) , si i < j,
A i,i
0, si i = j.
D’après le théorème de Gerschgörin, rappelé précédemment, il existe donc i0 ∈ {1, ..., n} tel que
X Ai0 ,j X Ai ,j
|λ − 0| ≤ −λ + − 0 .
Ai0 ,i0 Ai0 ,i0
j<i0 j>i0
n o
1 P
L’inégalité précédente fournit |λ| ≤ max(|λ|, 1) max |Ai,i | j6=i |A i,j | .
i∈{1,...,n}
Puisque A est supposée à diagonale strictement dominante, nous obtenons |λ| < max(|λ|, 1) ce qui n’est
vrai que si |λ| < 1. Nous avons donc montré que toutes les valeurs propres de (D − E)−1 F étaient de module
strictement inférieur à 1, on a donc bien ρ((D − E)−1 F ) < 1.
Démonstration de la proposition 6. Si A est définie positive alors Dii > 0 donc D est bien inversible (donc
la méthode de Jacobi est bien définie). De plus, M ∗ + N = D∗ + D − A = 2D − A. Le théorème 6 permet
de conclure quant à la convergence de cette méthode.
M ∗ + N = (D − E)∗ + F = D∗ − E ∗ + F = D
qui est définie positive car Dii = Aii > 0 et D est diagonale.
Les hypothèses du théorème 6 sont donc vérifiées et la méthode de Gauss-Seidel converge donc.
Remarque 26. Il existe aussi un critère de convergence pour la méthode de relaxation sur les matrices
hermitiennes définies positives : (Thm 8.2.1 [AK], Thm 5.3-2 [Cia], Thm 9.3.1 [Ser])
Si A est hermitienne définie positive et si ω ∈]0, 2[ alors la méthode de relaxation converge.
Remarque 27. Notons également le cas particulier des matrices tridiagonales (§9.4 [Ser], §8.3 [AK], Thm
5.3-4, Thm 5.3-5 [Cia])...
Références
[AK] G. Allaire and S. M. Kaber. Numerical Linear Algebra, volume 55 of Texts in Applied Mathematics.
Springer, 2008.
[Cia] P. G. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimsation. Dunod, 2006.
[Gou] X. Gourdon. Algèbre. Les maths en tête. Ellipses, 2009.
[Ser] D. Serre. Les Matrices. Dunod, 2001.