TD 07-Corrigé
TD 07-Corrigé
Généralités
n n
! 12
X X
∥x∥1 = |xk | (norme 1), ∥x∥2 = |xk |2 (norme 2), ∥x∥∞ = max |xk | (norme infinie)
k∈J1,nK
k=1 k=1
n
! p1
X
p
∥x∥p = |xk | .
k=1
Correction 1.
Soit x ∈ Rn . Il existe alors i ∈ J1, nK (pas forcément unique) tel que
d’où 1
∥x∥∞ ≤ ∥x∥p ≤ n p ∥x∥∞ , ∀ p ∈ N∗ .
1
Maintenant, comme lim n p = 1, le théorème des encadrements assure que
p→∞
1
ENSEM 1A-ISN Analyse Numérique
1. À partir des normes vectorielles 1 et infinie, on définit les normes matricielles subordonnées 1 et infinie par
∥Ax∥1 ∥Ax∥∞
∥A∥1 = sup , ∥A∥∞ = sup .
x ∈ Cn ∥x∥1 x ∈ Cn ∥x∥∞
x ̸= 0 x ̸= 0
Montrer que X X
∥A∥1 = max |ai,j |, ∥A∥∞ = max |ai,j |,
j i
i j
2. Application : calculer la norme infinie (et/ou 1 !) de la matrice A suivante ainsi que celle de son inverse
10 7 8 7 25 −41 10 −6
7 5 6 5 −1
−41 68 −17 10
A= 8 6 10 9 A = 10 −17
5 −3
7 5 9 10 −6 10 −3 2
Correction 2.
Pour éviter d’introduire trop de notations la correction, est faite dans le cas d’une matrice A = (ai,j ) carrée
d’ordre n. Vous pouvez essayer de reproduire ce corrigé pour des matrices à m lignes et n colonnes.
X
1. (a) ∥A∥1 = max |ai,j |
j
i
Soit x ∈ Rn . Nous avons alors
n X
n n X
n n n
X X X X
∥Ax∥1 =
ai,j j ≤
x |ai,j ||xj | ≤ |xj | |ai,j |
i=1 j=1 i=1 j=1 j=1 i=1
Xn n
X n
X
≤ |xj | max |ai,j | ≤ ∥x∥1 max |ai,j |.
j∈J1,nK j∈J1,nK
j=1 i=1 i=1
Par conséquent
n
X
∥A∥1 ≤ max |ai,j |.
j∈J1,nK
i=1
par conséquent
n
X n
X n
X
∥Ay∥1 = |(Ay)i | = |ai,p | = max |ai,j |.
j∈J1,nK
i=1 i=1 i=1
2
ENSEM 1A-ISN Analyse Numérique
X
(b) ∥A∥∞ = max |ai,j |
i
j
Soit x ∈ Rn . Nous avons alors pour tout i ∈ J1, nK
n n n n
X X X X
|(Ax)i | = ai,j xj ≤ |ai,j ||xj | ≤ |ai,j | ∥x∥∞ ≤ max |ai,j | ∥x∥∞ .
j=1 j=1 i∈J1,nK
j=1 j=1
D’où
n
X
∥Ax∥∞ = max |(Ax)i | ≤ max |ai,j | ∥x∥∞ .
i∈J1,nK i∈J1,nK
j=1
Par conséquent
n
X
∥A∥∞ ≤ max |ai,j |.
i∈J1,nK
j=1
ap,j
Soit y le vecteur de Rn défini par yj = si ap,j ̸= 0 et yj = 1 si ap,j = 0. Par construction, ∥y∥∞ = 1.
|ap,j |
Nous avons alors
Xn
Ay = ai,j yj
j=1
i∈J1,nK
et en particulier
n n n n n
X X X a2p,j X X
(Ay)p = ap,j yj = ap,j yj = = |ap,j | = |ap,j |.
j=1 j=1 j=1
|ap,j | j=1 j=1
ap,j ̸=0 ap,j ̸=0 ap,j ̸=0
3
ENSEM 1A-ISN Analyse Numérique
3. Que peut-on dire du conditionnement de la matrice A ? À l’aide de l’exercice précédent donner le condi-
tionnement en norme infinie de la matrice A.
Correction 3.
1 −1, 1
On remarque qu’une petite perturbation du second membre donne une modification assez conséquente de
la solution obtenue. D’un point de vue des erreurs relatives, nous avons
Remarque à faire :
Nous avons vu en cours le résultat suivant :
∥δx∥ ∥δb∥
≤ cond(A) .
∥x∥ ∥b∥
Cet exemple montre que cette estimation est optimale puisque nous avons ici
∥δx∥∞ 0, 1 ∥δb∥∞
= 13, 6 = 136 × 33 × = cond∞ (A) .
∥x∥∞ 33 ∥b∥∞
4
ENSEM 1A-ISN Analyse Numérique
Correction 4.
1. Soit λ Sp(A). Il existe alors une vecteur non nul x tel que Ax = λx. Nous avons alors pour tout i ∈ J1, nK
n
X
ai,j xj = λxi ,
j=1
soit encore
n
X
(λ − ai,i )xi = ai,j xi .
j=1
j̸=i
Maintenant, il existe p ∈ J1, nK tel que |xp | = maxi∈J1,nK |xi | = ∥x∥∞ . Remarquons que puisque x ̸= 0,
alors |xp | =
̸ 0 et que pour cet indice p nous avons alors
n
X
|λ − ap,p ||xp | ≤
|ai,j |
|xp |,
j=1
j̸=i
d’où
n
X
|λ − ap,p | ≤ |ai,j |.
j=1
j̸=i
5
ENSEM 1A-ISN Analyse Numérique
Or,
n n
X
X
≤ |ap,j |
ap,j yj |yp | < |ap,p ||yp |.
j=1 j=1
j̸=p j̸=p
Par conséquent,
n n
X X
∥Ay∥∞ ≥ |ap,p ||yp | − ap,j yj ≥
|ap,p | − |yp |.
|ap,j |
j=1 j=1
j̸=p j̸=p
∀ y ̸= 0, ∥Ay∥∞ ≥ δ∥y∥∞
soit encore
∥y∥∞ 1
∀ y ̸= 0, ≤ .
∥Ay∥∞ δ
Ceci peut maintenant se réécrire en posant x = Ay soit y = A−1 x
∥A−1 x∥∞ 1
∀ x ̸= 0, ≤
∥x∥∞ δ
d’où ∥A−1 ∥∞ ≤ δ −1 .
Remarque : pour une matrice strictement diagonalement dominante, il est donc très facile d’obtenir une
majoration du conditionnement en norme infinie (sans calculer A−1 ).
Méthodes itératives
Exercice 5.
Rappel, on note J la matrice de Jacobi et L1 la matrice de Gauss-Seidel. Pour chacune des deux matrices suivantes
calculer les rayons spectraux ρ(J) et ρ(L1 ) et en déduire s’il y a convergence de la méthode de Jacobi et de la
méthode de Gauss-Seidel :
1 2 −2 2 −1 1
A = 1 1 1 , B = 2 2 2 .
2 2 1 −1 −1 2
Correction 5.
Par conséquent
0 −2 2
J = D−1 (E + F ) = −1 0 −1
−2 −2 0
6
ENSEM 1A-ISN Analyse Numérique
1 0 0 0 −2 2 0 −2 2
L1 = (D − E)−1 F = −1 1 0 0 0 −1 = 0 2 −3 .
0 −2 1 0 0 0 0 0 2
Nous pouvons maintenant calculer les valeurs propres : Pour Jacobi
−λ −2 2
−λ −1 = −λ3 .
−1
−2 −2 −λ
Exercice 6.
On considère le système linéaire Ax = b où A est une matrice triangulaire inférieure inversible.
1. Montrer que le rayon spectral de la matrice de Jacobi J est nul. La méthode de Jacobi est-elle convergente ?
7
ENSEM 1A-ISN Analyse Numérique
Correction 6.
1. Tout d’abord, remarquons que si la matrice A est une matrice triangulaire inférieure, alors A = D−E −F =
D − E puisque ici F = 0 et la matrice J = D−1 (E + F ) = D−1 E est aussi triangulaire inférieure.
Nous savons aussi que A est inversible, donc det(A) ̸= 0 et comme A est triangulaire inférieure det(A) =
Qn
ai,i ̸= 0.
i=1
Maintenant, nous avons vu dans les exercices précédents que
λ ∈ Sp(J) ⇔ det(λD − E − F ) = det(λD − E) = 0.
Or
n
Y n
Y
det(λD − E) = λai,i = λn ai,i .
i=1 i=1
Donc
λ ∈ Sp(J) ⇔ λ = 0.
Le rayon spectral de la matrice J est donc nul et la méthode de Jacobi est donc toujours convergente pour
une matrice triangulaire inférieure inversible.
2. Il s’agit simplement d’une application du théorème de Cayley Hamilton. Puisque J est triangulaire inférieure,
son polynôme caractéristique est de la forme
n
Y
PJ (X) = det(J − XId ) = (Ji,i − X).
i=1
Or nous avons vu que 0 est l’unique valeur propre de J, donc pour tout i ∈ J0, nK, Ji,i = 0 et PJ (X) = X n .
Le théorème de Cayley Hamilton assure alors que
PJ (J) = J n = 0.
8
ENSEM 1A-ISN Analyse Numérique
4. Il est facile de montrer à partir de la question précédente et à l’aide d’une démonstration par récurrence
que pour
∀ k ≥ 0, (xk − x) = J k (x0 − x).
Maintenant, comme nous avons vu que J n = 0, nous avons donc
(xn − x) = 0.
Exercice 7.
Soit A = (aij ) une matrice d’ordre n strictement diagonalement dominante :
X
|aii | > |aij |, ∀ i ∈ J1, nK.
j̸=i
Correction 7.
1. Méthode de Jacobi :
Soit λ ∈ Sp(J). Alors il existe x ̸= 0 tel que (E + F )x = λDx.
Soit p ∈ J1, nK tel que |xp | = max |xi |. Remarquons que xp ̸= 0 puisque x ̸= 0.
i∈J1,nK
En considérant la p-ième composante du vecteur (E + F )x = λDx, nous avons
n
X
− ap,j xj = λap,p xp ,
j = 1
j ̸= p
d’où
n
X n
X
|λ||ap,p ||xp | ≤ |ap,j ||xj | ≤ |xp | |ap,j |.
j = 1 j = 1
j ̸= p j ̸= p
Par conséquent Pn
j = 1 |ap,j |
j ̸= p
|λ| ≤ <1
|ap,p |
puisque A est strictement diagonalement dominante. Conclusion ρ(J) < 1 et la méthode de Jacobi converge.
9
ENSEM 1A-ISN Analyse Numérique
2. Méthode de Gauss-Seidel :
Soit λ ∈ Sp(L1 ), λ ̸= 0. Alors il existe x ̸= 0 tel que (λE + F )x = λDx.
Soit p ∈ J1, nK tel que |xp | = max |xi |. Remarquons que xp ̸= 0 puisque x ̸= 0.
i∈J1,nK
En considérant la p-ième composante du vecteur (λE + F )x = λDx, nous avons
X X
− λap,j xj − ap,j xj = λap,p xp ,
1≤j<p p<j≤n
d’où
X X X X
|λ||ap,p ||xp | ≤ |λ||ap,j ||xj | + |ap,j ||xj | ≤ |λ||ap,j | + |ap,j | |xp |
1≤j<p p<j≤n 1≤j<p p<j≤n
Par conséquent X X
|λ||ap,p | ≤ |λ| |ap,j | + |ap,j |.
1≤j<p p<j≤n
X
Or, puisque A est strictement diagonalement dominante, |ap,j | < |ap,p |. Il en résulte (rappel λ ̸= 0) que
j̸=p
X X X
|λ| |ap,j | < |λ| |ap,j | + |ap,j |
j̸=p 1≤j<p p<j≤n
et donc que X
(1 − |λ|) |ap,j | > 0.
p<j≤n
Nous avons donc |λ| < 1. Conclusion ρ(L1 ) < 1 et la méthode de Gauss-Seidel converge.
Exercice 8.
Considérons le système linéaire :
1 1 1
x1 − 4 x3 − 4 x4 = 2
1 1 1
x2 − 4 x3 − 4 x4 =
2
− 1 x1 − 1
4 x2 + x3 = 1
41 2
1 1
− 4 x1 − 4 x2 + x4 = 2
1. Sans calculer les rayons spectraux, montrer que les méthodes de Jacobi et Gauss-Seidel convergent.
2. En choisissant x0 = (0, 0, 0, 0)T , calculer les quatre premières itérations des méthodes de Jacobi et de
Gauss-Seidel. Faire la comparaison.
Correction 8.
1. Ici la matrice est strictement diagonalement dominante. Elle est donc inversible et les méthodes de Jacobi
et de Gauss Seidel convergent d’après l’exercice précédent !
2. Je vous laisse faire...
10
ENSEM 1A-ISN Analyse Numérique
Factorisation LU
Exercice 9. Factorisation LU
1. Déterminer la factorisation LU de la matrice
1 2 3 4
2 5 1 10
A=
3
1 35 2
4 10 2 45
−49
Correction 9.
1. Étape 1 :
1 2 3 4 1 0 0 0
0 1 −5 2 2 1 0 0
A1 = L=
0 −5 26 −10 3 . 1 0
0 2 −10 29 4 . . 1
Étape 2 :
1 2 3 4 1 0 0 0
0 1 −5 2 2 1 0 0
A2 = L=
0 0 1 0 3 −5 1 0
0 0 0 25 4 2 . 1
Étape 3 : la troisième colonne étant déjà réduite, il n’y a rien à faire. On obtient directement :
1 2 3 4 1 0 0 0
0 1 −5 2 2 1 0 0
U = A3 = 0
L=
3 −5
0 1 0 1 0
0 0 0 25 4 2 0 1
−1
11
ENSEM 1A-ISN Analyse Numérique
Correction 10.
1. Voici un premier algorithme qui stocke les matrices L et U dans deux tableaux distincts :
Algorithm 1 Factorisation LU
L ← Id
U ←A
for j ← 1, n − 1 do
if U (j, j) ̸= 0 then
for i ← j + 1, n do
L(i, j) ← U (i, j)/U (j, j)
U (i, j) ← 0
for k ← j + 1, n do
U (i, k) ← U (i, k) − L(i, j) ∗ U (j, k)
end for
end for
else
Stop
end if
end for
Il est aussi possible de stocker les deux matrices L et U dans un unique tableau (noté ci-après LU ) et
d’économiser ainsi un peu de mémoire.
Pour cela, il faut modifier un peu l’algorithme précédent qui devient alors :
Algorithm 2 Factorisation LU
LU ← A
for j ← 1, n − 1 do
if LU (j, j) ̸= 0 then
for i ← j + 1, n do
LU (i, j) ← LU (i, j)/LU (j, j)
for k ← j + 1, n do
LU (i, k) ← LU (i, k) − LU (i, j) ∗ LU (j, k)
end for
end for
else
Stop
end if
end for
12
ENSEM 1A-ISN Analyse Numérique
Algorithm 3 Descente-Remontée
y←b ▷ Descente
for j ← 1, n − 1 do
for i ← j + 1, n do
y(i) ← y(i) − L(i, j) ∗ y(j)
end for
end for
x←y ▷ Remontée
for j ← n, 1 do
x(j) ← x(j)/U (j, j)
for i ← 1, j − 1 do
x(i) = x(i) − U (i, j) ∗ x(j)
end for
end for
4. Le nombre d’opérations élémentaires est : n(n − 1) pour la descente et n2 pour la remontée soit de l’ordre
de 2n2 .
Correction 11.
Supposons que la matrice A admette deux factorisations LU . Soient (L, U ) et (L̃, Ũ ) tels que
A = LU = L̃Ũ
où L et L̃ sont triangulaires inférieures avec des éléments diagonaux tous égaux à 1 et U et Ũ sont triangulaires
supérieures.
Nous avons alors
L̃−1 L = Ũ U −1 .
La matrice L̃−1 est aussi triangulaire inférieure avec des éléments diagonaux tous égaux à 1, donc la matrice L̃−1 L
est triangulaire inférieure avec des éléments diagonaux tous égaux à 1.
De même, la matrice U −1 est aussi triangulaire supérieure, donc la matrice Ũ U −1 est triangulaire supérieure.
Par conséquent L̃−1 L = Ũ U −1 est une matrice à la fois triangulaire supérieure et triangulaire inférieure, elle est
donc diagonale.
De plus, comme tous les coefficients diagonaux de L̃−1 L sont égaux à 1. Nous avons donc
L̃−1 L = Ũ U −1 = I.
13
ENSEM 1A-ISN Analyse Numérique
Factorisation de Choleski
Correction 12.
1. Pour toute matrice diagonale inversible D, nous pouvons écrire A = LU = (LD)(D−1 U ) où alors LD est
triangulaire inférieure et D−1 U est triangulaire supérieure (rappel le produit de deux matrices triangulaires
inférieures est une matrice triangulaire inférieure, de même pour les matrices triangulaires supérieures).
On peut aussi remarquer que les matrices L et U obtenues précédemment sont ”presque” symétriques. On
choisit ici (rappel dans la factorisation de Choleski les coefficients diagonaux sont strictement positifs) :
1 0 0 0
0 1 0 0
D= 0 0 1 0
0 0 0 5
A = (LD)(D−1 U )
1 0 0 0
1 0 0 0 1 0 0 0 1 2 3 4
2 1 0 0 0 1 0 0 0
1 0 0 0 1 −5 2
=
0 0 0 1 0
3 −5 1 0 0 0 1
0
0 1 0
1
4 2 0 1 0 0 0 5 0 0 0 0 0 0 25
5
1 0 0 0 1 2 3 4
2 1 0 0 0 1 −5 2
= BB T
=
3 −5 1 0
0 0 1 0
4 2 0 5 0 0 0 5
14
ENSEM 1A-ISN Analyse Numérique
b3,2 = (a3,2 − b2,1 b3,1 )/b2,2 = (1 − 2 × 3) = −5, b4,2 = (a4,2 − b2,1 b4,1 )/b2,2 = (10 − 2 × 4) = 2.
Étape 3 : j = 3 q √
b3,3 = a3,3 − b23,1 − b23,2 = 35 − 9 − 25 = 1,
Conclusion :
1 0 0 0
2 1 0 0
B=
3 −5 1 0
4 2 0 5
Exercice 13.
Soit A une matrice carrée d’ordre n, symétrique définie positive. On cherche à résoudre le système A2 x = b.
1. On propose la la méthode suivante pour la résolution de ce système :
• On calcule la matrice C = A2 .
• On effectue ensuite la factorisation de Choleski C = BB T .
• On résout enfin le système linéaire par une méthode de descente remontée.
Calculer le nombre d’opérations élémentaires nécessaires pour réaliser cette méthode.
2. Proposer maintenant une autre méthode nécessitant moins d’opérations élémentaires.
Correction 13.
1. La méthode proposée est en trois parties. Calculons le nombre d’opérations pour chaque partie :
2
■ Calcul de la matrice C = A :
Rappelons qu’en notant A = (ai,j ) et C = (ci,j ), nous avons
n
X
∀ (i, j) ∈ (J1, nK)2 , ci,j = ai,k × ak,j .
k=1
Le calcul de chaque coefficients nécessite donc n multiplications et (n − 1) additions, soit pour les
n2 coefficients de la matrice C : n3 multiplications et n2 (n − 1) additions, soit un total de 2n3 − n2
opérations élémentaires.
■ Factorisation de Choleski C = BB T :
3 3 2
Nous avons vu dans le cours qu’elle nécessite n6 additions, n6 multiplications, n2 divisions et n extrac-
3 2
tions de racines, soit un total de n3 + n2 opérations élémentaires et n extractions de racines.
15
ENSEM 1A-ISN Analyse Numérique
A = BB T
On a alors
BB T BB T x = b
On fait alors deux descentes et remontées :
By = b, B T z = y, Bw = z, B T x = w.
On fait une descente remontée de plus, mais on ne calcule plus la matrice C. Or le calcul de celle-ci est
beaucoup plus couteux qu’une descente remontée !
En effet, une descente remontée nécessite 2n2 opérations élémentaires tandis que le calcul de C nécessite
2n3 − n2 opérations élémentaires. Le gain est donc important.
16