Cour Methode Numerique
Cour Methode Numerique
1 Itroduction 2
1.1 Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Stabilité numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Conditionement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Principales notations et definitions . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Rappels et compléments sur les matrices . . . . . . . . . . . . . . . . . . . . . . 5
1
Chapitre 1
Itroduction
2
1.1.1 Stabilité numérique
Les méthodes numériques utilisées pour résoudre un problème approché conduisent à un résultat
qui est toujours entaché d’erreur. Cette erreur doit être suffisamment petite pour que la solution
numérique converge vers la solution réelle. Dans ce cas l’algorithme (ou la méthode) est dit
convergent.
La stabilité garantit que les erreurs ne s’amplifient pas au cours du déroulement de l’algorithme
et que la méthode reste stable
Lorqu’un problème (P ) admet une solution, il est intéressant d’envisager le problème perturbé,
noté (Pε ), où ε est un petit paramètre et de se demander si les solutions du système perturbé
sont voisines de la solution du système non perturbé
1.1.2 Conditionement
Le conditionnement mesure l’influence des erreurs d’arrondi sur la solution d’un problème donné.
Il est mis en évidence par une légère perturbation des données initiales. Il est mis en évidence
par une légère perturbation des données initiales.
Exemple 1.3.
On considère le système linéaire suivant :
S1 : Ax = b
! !
2 6 8
avec A = et b =
2 6.00001 8.00001
!
1
La solution est donnée par x =
1
Si par contre on considère le système linéaire S2 obtenu en "perturbant" très légèrement le
système S1 ! ! !
2 6 x1 8
S2 : =
2 5.99999 x2 8.00002
!
10
On trouve x =
−2
D’où la nécessité d’introduire la notion de conditionnement d’une matrice, vis-à-vis de la réso-
lution des systèmes linéaires. On dit que la matrice A du système linéaire (S1 ) est en fait "mal
conditionnée".
Pour une matrice A "bien conditionnèe" vis-à-vis de la résolution des systèmes linéaires, une
"petite" perturbation de A ou du second membre b engendre une "petite perturbation" de la
solution du système linéaire Ax = b
3
Remarque 1.1.
Pour conclure, on peut rappeler que si l’on veut obtenir des résultats numériquement précis
avec un ordinateur, il faut :
1. un probl‘eme bien conditionné,
2. un algorithme qui est numériquement stable lorsque l’on exécute avec une précision arith-
métique finie
3. un logiciel qui soit une bonne transcription de l’algorithme.
Un algorithme numériquement stable ne pourra pas résoudre un probl‘eme mal condi-
tionné avec plus de précision que celle contenue dans les données. Cependant, un algo-
rithme numériquement instable produira de mauvaises solutions pour des problèmes bien
conditionnés.
xi , 1 ≤ i ≤ n i-ème composante de x
En notation matricielle, le vecteur x s’identifie à un vecteur colonne de Kn
x1
x2
x=
x
n−1
xn
on notera par :
x1
x2
x=
conjugué de x
xn
xt = (x1 , x2 , . . . , xn ) transposé de x
x∗ = (x1 , x2 , . . . , xn ) transconjugué de x
4
∗ ∗ ∗ Soit A = (ai,j )1≤i,j≤n une matrice à n lignes et n colonnes, à coefficients réels ou complexes
( i : indice de ligne ; j : indice de colonne). On désigne par :
et par Mn,m (K) lensemble des matrices à n lignes et m colonnes et à coefficients dans K(K =
RouK = C). Lorsque m = n on utilisera la notation Mn (K).
La matrice identitée de Mn (R) (ou Mn (C)) est notée I. Le produit scalaire sur Rn est défini
pour x, y ∈ Rn par :
n
X
t
(x, y) = x y = xi yi
i=1
et vérifie (
(λx, y) = λ(x, y)
∀λ ∈ R, ∀ x Rn , ∀ x ∈ Rn :
(x, λy) = (x, y)
n
X
n n ∗
Le produit hermitien de C est défini pour x, y ∈ C par : (x, y) = x y = xi yi et vérifie
i=1
(
(λx, y) = λ(x, y)
∀λ ∈ C, ∀ x ∈ Cn , ∀ x ∈ Cn :
(x, λy) = (x, y)
Propriétés 1.1.
5
1. Si A ∈ Mn (R) est inversible, alors At est inversible et on a :
AAt = At A = I
Définition 1.2.
Soit A ∈ Mn (K)
1. Une matrice A ∈ Mn (K) est dite triangulaire supérieure, si aij = 0 pour tout i > j, 1≤
i, j ≤ n
2. Une matrice A ∈ Mn (K) est dite triangulaire inférieure, si aij = 0 pour tout i < j, 1≤
i, j ≤ n
Proposition 1.1.
Soit A ∈ Mn (K) alors
1. Si A est triangulaire inférieure et triangulaire supérieure, alors A est diagonale
2. Si A est triangulaire inférieure (resp. supérieure), alors A est inversible, et A−1 est trian-
gulaire supérieure (resp.inférieure )
3. Si A est triangulaire inférieure et triangulaire supérieure, alors le déterminant de A est le
produit des coefficients diagonaux de A
n
Y
det(A) = aij
i=1
Définition 1.3.
Soit A ∈ Mn (R) (ou. Mn (C)) une matrice symétrique (ou hermitienne). Alors, A est dite définie
positive, si elle vérifie les deux propriétés suivantes :
∀x ∈ Rn (ou Cn ), (Ax, x) ≥ 0
Dans le cas où A vérifie uniquement (Ax, x) ≥ 0 on dit qu’elle est semi-définie positive
Proposition 1.2.
6
2. Si A est inversible, alors la matrice AA∗ est définie positive.
Définition 1.4.
Soient λ ∈ C, et A ∈ Mn (R) (ou Mn (C).) Alors λ est appelée valeur propre de A, si elle est
racine du polynôme caractéristique PA (λ) de A :
Propriétés 1.2.
Soit A ∈ Mn (R) (ou Mn (C)) et λ une valeur propre de A. Alors on a
1. La matrice A − λI est non inversible
2. Il existe un vecteur x ∈ Rn (ou Cn ) non nul tel que Ax = λx.
Un tel vecteur x est appelé vecteur propre de A associé à la valeur propre λ
3. Soit A ∈ Mn (R) une matrice symétrique. Alors A est définie positive si et seulement si
toutes ses valeurs propres sont strictement positives.
7
Série 1
Exercice 1.1.
1 1 1
1. Soit A =
1 1 0
1 0 1
√ √
Vérifier que SP (A) = {1, 1 + 2, 1 − 2}. A est elle définie positive ?
2 −1 0
2. A = −1 2 0
0 0 1
Vérifier que SP (A) = {1, 1, 3}. A est elle définie positive ?
Exercice 1.2.
Soit T = (tij )1≤i,j≤n ∈ Mn (R) et U = (uij )1≤i,j≤n ∈ Mn (R) deux matrice triangulaires inférieures
(resp. supérieures).
Montrer que la matrice A = T U est triangulaires inférieure (resp. supérieure)
Exercice 1.3.
Soit T = (tij )1≤i,j≤n ∈ Mn (R) une matrice inversible et triangulaire inférieure.
1. Soit b = (bi )1≤i≤j ∈ Rn vérifiant
8
En effet 1.1.
Soit T = (tij )1≤i,j≤n ∈ Mn (R) et U = (uij )1≤i,j≤n ∈ Mn (R) deux matrice triangulaires infé-
rieures.
tij = 0 si i < j
uij = 0 si i < j
Montrons que A = T U est triangulaires inférieure. aij = 0 si i < j
X
Soit i < j. On a aij = tik ukj
k=1n
X i n
X
= tik ukj + tik ukj
|{z} |{z}
k=1 0 k=i+1 0
Soit T = (tij )1≤i,j≤n ∈ Mn (R) et U = (uij )1≤i,j≤n ∈ Mn (R) deux matrice triangulaires su-
périeurs. Alors At = (T U )t = U t T t est une matrice tiangulaire inférieur et par suite A est
supérieur.
En effet 1.2.
2. Pour i = 2, n
i−1
X
bi − til xl
l=1
xi =
tll
bk
alors x1 = x2 = . . . xk−1 = 0; xk =
tkk
3. En déduire que T −1 est tiangulaire inférieur
La colonne j de T −1 est la solution du système linéaire :
T x = ej
9
Ainsi la colonne j Tj−1 de T −1 est donnée d’après 1) par
0
..
.
0
Tj−1 =⇒ T −1 = 1 ; 1 ≤ i ≤ n
= ij
1/t
jj
tii
0
..
.
10
Chapitre 2
Ax = b (2.1)
|a(1) (1)
1,1 )| = max |ai,1 )|
1≤i≤n
11
On annule ensuite tous les éléments de la première colonne de la matrice A(1) situés sous la
diagonale, (la première ligne restant inchangée.) par des combinaisons linéaire appropriées de
la première ligne et des autres lignes de la matrice A(1) .
Soit de la forme
La seconde étape d’élimination consiste à effectuer les même opération que précédemment, mais
(2)
seulement sur la sous matrice (ai,j )2≤i,j≤n .
On obtient de proche en proche comme résultat de la (k − 1)−ème étape de l’élimination
2 ≤ k ≤ n, une matrice
(k)
A = E (k−1) P (k−1) . . . P (2) E (1) P (1) A
(k)
On annule ensuite tous les éléments de la k− ème colonne de la matrice A situés sous la
diagonale, (la k− ème ligne restant inchangée.) par des combinaisons linéaire appropriées de la
12
(k)
k− ème ligne et des autres lignes de la matrice A .
(k+1) (k)
Les coefficients de la matrice A = E (k) P (k) A sont alors donnée par :
(k+1) (k)
ai,j = ai,j 1 ≤ i ≤ k, 1 ≤ j ≤ n
(k)
ai,k (k)
(k+1) (k)
ai,j = ai,j − (k) ak,j k + 1 ≤ i, j ≤ n
ak,k
(k+1)
ai,k = 0 k+1≤i≤n
Après la (n-1)-ème étape de l’élimination on obtient une matrice U triangulaire supérieure :
(1) (1) (1)
a1,1 a1,2 . . . . . . . . . a1,n
(2) (2)
a2,2 . . . . . . . . . a2,n
.. ..
.
.
U = (k)
(k)
ak,k . . . ak,n
. . ..
. .
(n)
0 an,n
La seconde phase de la méthode de Gauss est la résolution du système linéaire :
Ux = d (2.3)
où d = E (n−1) P (n−1) . . . E (1) P (1) b.
La résolution du système (2.3) est immédiate. On calcule successivement xn à partir de la
dernière équation, puis xn−1 à partir de l’avant-dernière et ainsi de suite. ce qui donne
dn
xn = (n)
an,n
n−1
X (k)
(dk − ak,j xj )
j=k+1
xk =
(k)
ak,k
Exemple 2.1.
Considérons le système linéaire
2 8 4 x 1
2 10 6 y = 1
1 8 2 z 1
1. Montrer que le système admet une solution unique x
1
4
1
2. En utilisant la méthode de causs vérifier que x =
8
1
−
8
13
2.1.2 La factorisation LU d’une matrice
Théorème 2.1. (Factorisation LU)
Soit A = (aij )1≤i,j≤n une matrice carée d’ordre n, inversible. Alors A possède une facorisation
A = LU où L est une matrice triangulaire inférieure à diagonale unité et U est une triangulaire
supérieure, si et seulement si toutes les sous-matrices
a11 ... ... a1k
. ... ..
.. .
M (k) = . 1≤k≤n
.. .. ..
. .
ak1 ... akk
de A sont inversibles.
De plus, si une telle factorisation existe, alors elle est unique.
u1j = a1j, 1 ≤ j ≤ n,
14
p−1
X
aip − lik ukp
k=1
lip =
upp
Ce qui donne comme alorithme de déterminer des matrices L et U
Pour p = 1 à n faire
Début
Pour j = p à n faire
p−1
X
upj = apj − lpk ukj
k=1
Fin
Pour i = p + 1 à n faire
p−1
X
aip − lik ukp
k=1
lip =
upp
Fin
Fin
Alors résoudre le système linéaire Ax = b revient à résoudre successivement les deux systèmes
linéaires triangulaires :
Ly = b puis Ux = y
Remarque 2.1.
Un intérêt majeur de la factorisation LU d’une matrice est de pouvoir résoudre plusieurs sys-
tèmes linéaires correspondant à la même matrice A.
Théorème 2.2.
Soit A une matrice symétrique définie positive. Alors, il existe une matrice réelle triangulaire
inférieure B telle que
A = BB t
De plus, l’on peut imposer que les éléments diagonaux de la matrice B soient tous strictement
positifs, et la factorisation A = BB t est alors unique.
La méthode de cholesky :
15
La méthode de Cholesky, pour résoudre un système linéaire Ax = b où A est une matrice
symétrique définie positive, consiste à calculer la factorisation de cholesky A = BB t , puis à
résoudre successivement les deux système linéaires suivants à matrice triangulaires :
By = b, puis, Btx = y
Ax = BB t = By = b
16
ensuite
j−1
X
aij − bik bjk
k=1
bij = i = j + 1, . . . n
bjj
Ce qui donne pour algorithme de calcul de B colonne par colonne :
Pour j = 1 à n faire
Début v
u j−1
u X
bjj = ajj −
t b2jk
k=1
Pour i = j + 1 à n faire
j−1
X
aij − bik bjk
k=1
bij =
bjj
Fin
Fin
Fin
Calcul de B ligne par ligne
En suivant la même démarche que ci-dessus, l’algorithme de calcul de B ligne par ligne est
donné par :
Pour i = 1 à nfaire
Début
Pour j = 1 à i − 1 faire
Début
j−1
X
aij − bik bjk
k=1
bij =
bjj
Fin v
u i−1
X
u
bii = aii −
t b2ik
k=1
Fin
Fin
2.2.1 Introduction
On va étudier les méthodes itératives pour résoudre un système linéair :
Ax = b (2.5)
17
Une méthode itérative engendre une suite de vecteur qui doit tendre vers la solution de l’équation
(2.5).
Soit A = (aij )1≤i,j≤n une matrice à coefficents complexes inversible et b un vecteur donné de
Cn . Les méthodes qu’on va étudier peuvent se formuler de la manière suivante :
1. On décompose A sous la forme A = M − N où M est une matrice facilement inversible.
On a :
Ax = b ⇐⇒ M x = N x + b
Lemme 2.1.
Soit B ∈ Mn (C), alors les quatre propriétés suivantes son t équivalentes :
1. B k tend vers 0, lorsque k tend vers +∞.
2. B k v tend vers 0 pour tout choix de v dans Cn , lorsque k tend vers +∞.
3. ρ(B) < 1
4. kBk < 1 pour au moins une norme matricielle subordonnée.
Théorème 2.3.
Soient B ∈ Mn (C), H = I − B et c ∈ Cn . La suite définie par
(
x0 donn
xk+1 = Bxk + c
Hx
e=c
18
2.2.2 La méthode de Jacobi
La méthode de Jacobi nest pas utilisable que si aii 6= 0. À partir d’un vecteur x0 donné, la
méthode de Jacobi consiste à construire la suite xk de la manière suivante :
Pour i = 1 à n, on calcule
1 X
xik+1 = bi − aij xjk (2.7)
aii j=1 j6=i
Pour écrire la relation 2.7 sous forme matricielle, on décompose la matrice A sous la forme
A=D−E−F
(
eij = 0 si i ≤ j
E = (eij ) tel que (2.8)
eij = −aij si i > j
(
fij = 0 si i ≤ j
F = (fij ) tel que
fij = −aij si i < j
Alors, comme on a supposé que aii 6= 0 pour i = 1 à n, D est inversible est la relation (2.7)
s’écrit
xk+1 = D−1 (E + F )xk + D−1 b
Théorème 2.4. !
X
Soit A une matrice à diagonale strictement dominante c’est-à-dire si |aii | > |aij | . Alors
j6=j
la méthode de Jacobi pour la résolution d’un système linéaire de matrice A est convergente.
Exemple 2.2.
Considérons le système
4 2 1 x 4
−1 2 0 y = 2
2 1 4 z 9
Soit x0 = (0, 0, 0) le vecteur initial,
19
2.2.3 La méthode de Gauss-Seidel
Dans la méthode de Gauss-Seidel, publiée en 1874 par ludwig Seidel, on choisit M = D − E et
N = F, ce qui conduit à considérer la relation de récurrence
Dans la méthode de Gauss-Seidel au lieu d’attendre une itération entière pour corriger les
composantes de xk , les valeurs calculées sont utilisées au fur et à mesure du calcul. On améliore
ainsi la vitesse de convergence. Supposons qu’à l’interieur de la (k + 1)-ieme itération, on ait
déjà obtenu x1k+1 , x2k+1 ,. . .xi−1
k+1 , alors en supposant toujour aii 6= 0, on calcule
i−1 n
!
1 X X
xik+1 = bi − aij xjk+1 − aij xjk+1
aii j=1 j=1+1
Exemple 2.3.
2. Résoudre le système y
x = sin(xy) −
2π
y = 2πx − (π − 1 )(e2x−1 − 1)
4
2
Partant du point ( , 3)
5
20
Théorème 2.5.
Soit A une matrice à diagonale strictement dominante, alors la méthode de Gauss-Seidel pour
la résolution d’un système linéaire de matrice A est convergente.
Remarques 2.1.
Proposition 2.1.
La méthode de relaxation diverge Pour tout w ∈ R \ [0, 2].
Théorème 2.6.
Soit A une matrice symétrique définie positive décomposée sous la forme A = D − E − F. Alors
la méthode de relaxation est converge pour w ∈]0, 2[.
Théorème 2.7.
Soit A une matrice tridiagonale. On suppose que toutes les valeurs propres de la matrice de
Jacobi J sont réelles et strictement inférieures à 1 en valeur absolue. Alors, la méthode de
21
relaxation converge pour tout w ∈]0, 2[. De plus, il existe une valeur optimale de w notée w0
donnée par
2
w0 = p
1+ 1 − (ρ(J))2
Pour la quelle ρ(Lw ) est minimal et ρ(Lw ) = w0 − 1
avec ρ(J) c’est le rayon spectral (c’est-à-dire le plus grand module des valeurs propres de J)
ek = xk − x = B k e0
où xk est la valeur calculé à la k ieme itération à l’aide de (2.6) et x est la solution de système
pour une norme choisie, on a :
kek k = kB k e0 k
On va voir dans la suite de cette section qu’une méthode itérative est d’autant plus rapide à
converger que le rayon spectral de sa matrice d’itération B est plus petit. Ceci découle du lemme
suivant.
Lemme 2.2.
Pour B ∈ Mn (C), on a pour tout norme matricielle subordonnée :
1
lim kB k k k = ρ(B)
k→+∞
Remarque 2.2.
Une deuxième méthode itérative dont la matrice de l’itération B
e a un rayon spectral ρ(B)
e et
tel que ρ(B)
e < ρ(B) converge plus rapide que la méthode itérative de la matrice B
22
Série 2
Exercice 2.1.
On se propose de résoudre numériquement le système linéaire Ax = b.
Etudier la convergence des méthodes de Jacobi et Gauss-Seidel dans les deux cas suivants :
1 2 −2 2 −1 −1
A= 1 1
1 A= 2
2 2
2 2 1 −1 −1 2
Exercice 2.2.
Etudier la convergence des méthodes de Jacobi et de relaxation avec
1 2 0
A= 1 1 0
1 1 1
Exercice 2.3.
On considère le système Ax = b, où
2 −1 0 7
−1 2 −1
et b=
1
0 −1 2 1
Exercice 2.4.
Soit α ∈ R et soit le système linéaire Ax = b, avec
1 α α
A= α 1 α
α α 1
1. Déterminer les valeurs propres de A puis déduire les valeurs de α, pour lesquelles la matrice
est-elle definie positive ?
1
2. Montrer que pour tout α ∈] − , 1[ la méthode de relaxation converge pour tout w ∈]0, 2[
2
3. Ecrire la matrice J de la méthode de Jacobi correspondante. Pour quelle valeurs de α, la
méthode de Jacobi converge-t-elle ?
4. Ecrire la matrice L de la méthode de Gauss-Seidel correspondante. Calculer ρ(L)
23
5. Pour quelles valeurs de α, la méthode de Gauss-Seidel converge-t-elle plus vite que celle
de Jacobi ?
ind : Si A est symétrique alors A est définie positive ssi toutes ses valeurs propres sont strictement
positives.
24