Méthodes Numériques pour Licence ST
Méthodes Numériques pour Licence ST
Méthodes numériques
(Cours et Exercices)
.
De science et technique
I
Sommaire________________________________________________________
Sommaire
I
Sommaire________________________________________________________
II
Introduction Générale______________________________________________
Introduction Générale
Les méthodes numériques sont des techniques d'approximation de procédures
mathématiques. Des approximations sont nécessaires car nous ne pouvons pas non plus
résoudre la procédure analytiquement. La plupart des problèmes mathématiques qui se posent
en sciences et en génie sont très difficiles et parfois impossible à résoudre exactement. Ainsi,
une approximation d'un problème mathématique difficile est très importante pour le rendre
plus facile à résoudre. En raison de l'immense développement de la technologie informatique,
l'approximation numérique est devenue plus populaire et un outil moderne pour les
scientifiques et les ingénieurs.
Les deux objectifs principaux de l’analyse numérique sont, d’une part, de pouvoir
résoudre numériquement des problèmes concrets dont on connaît ou pas la solution analytique
et d’autre part, d’analyser le comportement des méthodes utilisées (la rapidité de convergence
vers la solution approchée et la précision par rapport aux erreurs inhérentes au calcul
numérique).
Ce polycopié est rédigé pour les étudiants de deuxième année universitaire d’une Licence
des Sciences et Techniques. Il constitue un manuel de cours et d’exercices corrigés recouvre
le programme d’analyse numérique.
Ce polycopié est structuré en six chapitres comme suit :
Le premier chapitre mis en lumière les diverses techniques de résolution numérique des
équations non linéaire (la méthode de bissection, point fixe et Newton).
Dans le deuxième chapitre, le problème de l’interpolation polynomiale est traité par la
méthode de Lagrange et la méthode de Newton.
Les techniques d’intégration numérique sont présentées dans le troisième chapitre qui se
divise en deux parties: simple et composée. Les méthodes proposées sont: méthode des
rectangles, du trapèze et celle de Simpson.
Le quatrième chapitre est consacré à la résolution numérique des équations différentielles
ordinaires. Deux méthodes sont présentées à savoir, la méthode d’Euler et la méthode de
Runge-Kutta.
L’analyse numérique matricielle occupe les derniers chapitres (5 et 6). On présente tout
d’abord les techniques de résolution des systèmes linéaires par les trois grandes catégories de
méthodes classiques, à savoir les méthodes directes (méthode de Gauss, factorisation LU et
factorisation de Choleski), et les méthodes itératives (méthodes de Jacobi, de Gauss-Seidel, de
relaxation).
A la fin de chaque chapitre nous avons proposé des exercices avec quelques corrigés.
1
Chapitre 1 Méthodes de résolution des équations non linéaires
1.1 Introduction
L’un des problèmes en mathématiques appliquées est de calculer les zéros d’une fonction f
(c’est-à-dire trouver les racines d’une équation f(x)=0). Dans certains cas bien particuliers,
comme pour les équations algébriques polynomiales à faible degré:
n 1
an x an1 x ... a0 x a0 0 , le problème est simple car il existe pour ces fonctions des
n
formules qui donnent les zéros explicitement. Toutefois, pour la plupart des fonctions f (les
polynômes de degré supérieur à 4 ou les équations transcendantes qui comprennent
trigonométriques, exponentielles et logarithmiques : an ln( x ) bn e x cn cos( x ) ... 0 ), il n’est
pas possible de résoudre l’équation f(x)=0 explicitement et il faut recourir à des méthodes
numériques. Celles-ci se sont avérées très efficaces et très utilisées dans la pratique. Elles
permettent de calculer les zéros de f par approximations successives avec la précision désirée.
Dans ce chapitre, nous présentons plusieurs techniques de résolution des équations non
linéaires. Ces méthodes se distinguent par leurs principes et leurs vitesses de convergence.
Les méthodes proposées sont : méthode de la bissection, point fixe et Newton-Raphson.
2
Chapitre 1 Méthodes de résolution des équations non linéaires
1) f (a ) . f (b) 0 , alors f possède au moins une racine α sur l’intervalle a, b tel que f(α)=0.
2) f est monotone sur l’intervalle a, b , alors la racine α est unique sur a, b .
a x0 α
x2 x1 b x
ba
L’estimation de l’erreur : xn
2 n1
3
Chapitre 1 Méthodes de résolution des équations non linéaires
ba
log ( )
ba
n 1
2n 1 log 2
Exemple :
Calculer la racine au millième près de l’équation f ( x) x3 4x 2 0 dans l’intervalle 0,1 .
Solution
La fonction est un polynôme donc continue sur l’intervalle 0,1 .
f (0) 2
f (0). f (1) 0, Donc d’après le théorème des valeurs intermédiaires, il existe au
f (1) 3
moins une racine 0,1 tel que f(α)=0.
On obtient :
Il faut effectuer 9 itérations pour avoir la racine approchée avec une précision 10 3 .
4
Chapitre 1 Méthodes de résolution des équations non linéaires
x0 a, b
xn g ( xn 1 )
Cette suite converge vers la solution α point fixe de g(x) et solution de l’équation f ( x ) 0 .
x0 a, b
Alors g(x) admet un point fixe unique dans I a, b et la suite récurrente :
xn g ( xn 1 )
converge vers le point fixe α.
kn
Et on a l’estimation de l’erreur suivante: xn x1 x0
1 k
kn
xn x1 x0
1 k
5
Chapitre 1 Méthodes de résolution des équations non linéaires
Donc
(1 k )
ln
x x
n , k Max g ' ( x )
1 0
ln(k ) a , b
y y y=g(x) g’(x)<0
g’(x)>0
y=x
y=x
y=g(x)
x0 x1 x2 x3 α x x0 x2 α x3 x1 x
Exemple :
Calculer la racine approchée de l’équation f ( x) x3 4x 2 qui appartient à 0,1 avec une
précision 10 3 .
Solution :
On écrit l’équation f ( x ) 0 sous la forme x = g(x) et on vérifie les conditions de
convergence. On peut écrire :
2 2
f ( x ) 0 x 3 4 x 2 0 x ( x 2 4) 2 x g ( x) 2
x 42
x 4
6
Chapitre 1 Méthodes de résolution des équations non linéaires
b) g ' ( x) k 1, x 0,1?
4x 4
On a : g ' ( x) 0 , x 0,1 k Max g ' ( x) g ' (1) 1
(4 x )
2 0,1 25
g ' ( x) 1, x 0,1
Les conditions a) et b) sont vérifiés donc la méthode du point fixe converge vers la solution
sur l’intervalle 0,1 .
i xi g(xi) xi x i 1
0 0.5 0.47058 /
1 0.47058 0.47377 0.02941
2 0.47377 0.47343 0.00319
3 0.47343 0.47346 0.00034
7
Chapitre 1 Méthodes de résolution des équations non linéaires
f ( xn )
f ( xn ) f ' ( xn ) ( xn ) 0 xn
f ' ( xn )
f ( xn )
xn1 xn , n 0,1, 2, ...
f ' ( xn )
Cette suite, si elle converge, elle doit converger vers la solution α de f(x)=0.
1) f (a ) . f (b) 0
2) f ' ( x) 0 , x a, b
3) f '' ( x) 0 , x a, b
f’(x) et f ‘’(x) sont non nulles et gardent des signes constants sur l’intervalle a, b .
f ( xn )
xn1 xn , n 0,1, 2, ... converge vers l’unique solution de f(x)=0.
f ' ( xn )
M 2
xn xn 1 , n 0
2m
8
Chapitre 1 Méthodes de résolution des équations non linéaires
y=f(x)
α
x2 x1 x0 x
Figure 3 : Interprétation géométrique de la méthode de Newton
A partir d'un point x0 bien choisi dans a, b , x1 est l'abscisse du point d'intersection de la
tangente de graphe de f au point (x0, f(x0)) avec l'axe des abscisses. D'où :
f ( x1 ) f ( x0 ) 0 f ( x0 ) f ( x0 ) f (x )
f ' ( x0 ) x1 x0 ' 0 ( si f ' ( x) 0 ).
x1 x0 x1 x0 x1 x0 f ( x0 )
f ( xn )
Les points xn nIN vérifient donc la relation de récurrence : xn1 xn , n 0,1, 2, ...
f ' ( xn )
C’est la formule de Newton-Raphson la plus utilisée dans la recherche des racines.
Exemple :
Trouver l’approximation de la valeur 10 par la méthode de Newton à une précision 10 5
près.
Solution :
On considère la fonction f qui possède 10 comme une solution définie par :
f ( x) x 2 10
f ( 10 ) 0 x 10 0 car x 10
On cherche à trouver l'intervalle a, b :
La racine carrée de 10 est d’environ trois, donc on peut utiliser l’intervalle [3, 4].
On a : a 10 b 3 3.162277 4
Vérifions maintenant les conditions du théorème de Newton sur l’intervalle [3, 4]:
1/ f ( x) x 2 10 est de classe C2 sur l’intervalle [3, 4],
9
Chapitre 1 Méthodes de résolution des équations non linéaires
f (3) 1
f (3). f (4) 0
f ( 4) 6
2/ f ' ( x) 2x 0, x 3, 4, f ' ( x) 0
3/ f '' ( x) 2 , x 3, 4, f ' ' ( x) 0
Le choix de x0 :
f ( 4) 6
f (4). f ' ' ( 4) 0
f ' ' (4) 2
Alors :
x0 4
La suite de Newton-Raphson : f ( xi ) xi2 10 converge vers la solution α.
x
i 1 x i x i
f ' ( xi ) 2 xi
i xi f(xi) f’(xi) f ( xi )
f ' ( xi )
0 4 6 8 0.75
4 3.162278
10
Chapitre 1 Méthodes de résolution des équations non linéaires
1.4 Exercices
Exercice 1:
1/ Séparer les racines réelles de l’équation suivante : x x 1 0
4
2/ Déterminer par la méthode de Dichotomie une valeur approchée à 10-2 près de chacune de
ces solutions.
Exercice 2 :
1/Effectuer trois itérations de la méthode de la Bissection pour calculer la racine de l’équation
f (x) = 0 sur les intervalles indiqués pour les fonctions suivantes :
2/Déterminer le nombre d’itérations nécessaires pour obtenir une solution dont le chiffre des
millièmes est significatif.
Exercice 3 :
3 2
On considère la fonction f ( x) x 4 x 10 sur l'intervalle [1,2].
1/ Montrer qu’il existe un zéro pour la fonction f(x) dans [1,2] et qu’il est unique.
2/ Il existe plusieurs façons pour écrire l’équation f(x)=0 sous la forme x=g(x) :
12
10
a / x g1 ( x) x x3 4 x 2 10 et b / x g 2 ( x)
4 x
Quelle est parmi les deux fonctions x=gi(x), i=1,2, celles qui vérifient les conditions du
point fixe ?
Exercice 4 :
En utilisant la méthode du Point-fixe, calculer la racine des équations suivantes :
1/ f ( x) x 3 x 1 [1,2], 10 2
11
Chapitre 1 Méthodes de résolution des équations non linéaires
Exercice 5 :
Soit la fonction f ( x ) x 3 2 x 1 définie sur R+.
2/ Déduire que l’équation f (x) = 0 admet une racine unique. Donner une suite de Newton qui
converge vers cette racine.
2/ f ( x) x 5 x 1 avec x0 = 0.9.
Exercice 7 :
En utilisant les trois méthodes étudiées pour trouver une approximation de la valeur 3 25 .
On a f ( x ) x x 1
4
f ( x) x 4 x 1 est une fonction polynomiale donc elle est continue sur IR.
D IR
lim f ( x ) lim f ( x )
x x
f ' ( x) 4 x3 1
f ' ( x ) 0 x 1 4 1 3 0 .63
12
Chapitre 1 Méthodes de résolution des équations non linéaires
x 1 4 1 3
f’(x) - 0 +
f(x)
f 1 4
13
1.47
D’après le tableau de variation f est continue, décroissante sur , 1 4 1 3 et croissante sur
1 4
13
, .
-3 -2 α1 -1 0 α2 1 2 3 x
1 est unique dans 2, 1 car f(x) est monotone (strictement décroissante) et f (2). f (1) 0 .
2 est unique dans 0,1 car f(x) est monotone (strictement croissante) et f (0). f (1) 0 .
13
Chapitre 1 Méthodes de résolution des équations non linéaires
Exercice 2 :
1/ Calcul trois itérations de la méthode de la Bissection :
1. f ( x) 1 xe x , [0, 1]
La fonction f est un polynôme, donc elle est continue sur IR et donc sur l’intervalle [0, 1].
f (0) 1, f (1) 1 e f (0). f (1) 0 il existe au moins une racine dans l’intervalle [0, 1].
14
Chapitre 1 Méthodes de résolution des équations non linéaires
2. f ( x) x 5 x 1 n 8
3. f ( x) ( x 1) 2 1 e x n 8
2
Exercice 3 :
On a : f ( x) x3 4x 2 10
1/ L’existence et l’unicité d’un zéro α dans l’intervalle [1,2]:
f est continue sur [1,2].
1, 2, f ( ) 0
f (1) 5, f (2) 14 f (1). f (2) 0
a / f ( x) 0 x x x 3 4 x 2 10 0
x x x 3 4 x 2 10
x x x 3 4 x 2 10 g1 ( x)
x g1 ( x) est un point fixe, il faut vérifier les deux points suivants :
1) g1 (1,2) 1,2?
15
Chapitre 1 Méthodes de résolution des équations non linéaires
g' (2) g' (x) g' (1) 27 g' (x) 10 1 g1 (x) n’est pas contractante.
b / f ( x ) 0 x 3 4 x 2 10 0 x 2 ( x 4) 10
10
x2
x4
1
10 2
x g 2 ( x)
x4
x g2 ( x) est un point fixe, il faut vérifier les deux points suivants :
1) g 2 (1,2) 1,2?
5 5
g'2 (x) 0, x 1,2 g 2 ( x) est décroissante.
10 4 x
32
10
4 x 2
4 x
g' (2) g' (x) g' (1) 0.10 g' (x) 0.14
Exercice 4 :
On écrit les équations f ( x ) 0 sous la forme x = g(x) et on vérifie les conditions de
convergence.
1/ f ( x) x 3 x 1 , [1,2], 10 2
16
Chapitre 1 Méthodes de résolution des équations non linéaires
On peut écrire:
f ( x) 0 x 3 x 1 0 x 3 x 1
x 3 x 1 g ( x)
x g (x) est un point fixe, il faut vérifier les deux points suivants :
1
g' (x) 0, x 1,2 g ( x) est croissante.
3 3
( x 1) 2
g' (2) g' (x) g' (1) 0.16 g' (x) 0.21
x n g ( x k 1 ) 3 x k 1 1
Exercice 5 :
1/ Les variations de f :
On a : f ( x ) x 3 2 x 1
D IR
lim f ( x ) , lim f ( x )
x x
1
f ' ( x) 3x 2
2x
2
f ' ( x) 0 x 1 5
0.56
3 2
x 0 0.56
f’(x) - 0 +
-1
f(x)
f 0.56
1.88
2
D’après le tableau de variation f est continue, décroissante sur 0, 1 3 2 5 et croissante sur
2
1 3 2 , .
5
2/ On remarque que l’équation f(x)=0 n’admet pas de zéro sur l’intervalle 0, 1 3 2
25
mais
sur 1 3 2
25
, elle est continue, change de signe et monotone alors f(x) a une solution
unique.
f (1) 2
f (1). f ( 2) 0
f ( 2) 5
18
Chapitre 1 Méthodes de résolution des équations non linéaires
f ( 2) 0
On a f (2). f ' ' ( 2) 0
f ' ' ( 2) 0
x0 2
Alors la suite de Newton f ( xi ) converge vers la solution unique.
x i 1 x i
f ' ( xi )
i xi f(xi) f’(xi) f ( xi )
f ' ( xi )
0 2 5 11.5 0.4347
4 1.3864
Exercice 6 :
1/ f ( x) x(1 e x ) e x , x0 = 0 0.6590
2/ f ( x) x 5 x 1 , x0 = 0.9 1.1673
Exercice 7 :
19
Chapitre 2 Interpolation polynomiale
Interpolation polynomiale
2.1 Introduction
Dans ce chapitre, on dispose d'une fonction f connue uniquement par ses valeurs en
certains points, et on cherche à approcher f par une fonction polynôme. Le problème de
l’interpolation polynomiale consiste à trouver un polynôme de degré inférieur ou égal à n dont
la courbe passe par les n + 1 points donnés.
Supposons par exemple que nous connaissons les valeurs d’une fonction 𝑓 en un nombre
fini de points distincts x0, x1,…, xn de l'intervalle [a, b] selon le tableau suivant :
xi x0 x1 … xn
f(xi) f(x0) f( x1) … f( xn)
avec yi f ( xi )
Où
20
Chapitre 2 Interpolation polynomiale
n (x x j ) ( x x0 )( x x1 )....(x xi 1 )( x xi 1 )....(x xn )
Li ( x)
j 0, j i ( xi x j )
( xi x0 )( xi x1 )....(xi xi 1 )( xi xi 1 )....(x i xn )
P1 ( x) f 0 L0 ( x) f1 L1 ( x) P1(x)
f1
( x x1 ) ( x x0 )
f0 f1
( x0 x1 ) ( x1 x0 )
f0
Ce qui s’écrit encore :
( y1 y0 )
P1 ( x) ( x x0 ) y 0 x0 x1
( x1 x0 )
- Polynôme de degré 2 (n = 2) :
Le polynôme de Lagrange, passant par 3 points, est une f
2
parabole. P2(x)
f1
P2 ( x) f 0 L0 ( x) f1 L1 ( x) f 2 L2 ( x) f0
( x x1 )( x x2 ) ( x x0 )( x x2 )
f0 f1 x0 x1 x2
( x0 x1 )( x0 x2 ) ( x1 x0 )( x1 x2 )
( x x0 )( x x1 )
f2
( x2 x0 )( x2 x1 )
Exemple :
Déterminer le polynôme d’interpolation de Lagrange satisfaisant au tableau ci-dessous :
21
Chapitre 2 Interpolation polynomiale
Solution :
Dans ce cas on a 4 points, donc le polynôme de degré inférieur ou égal à 3.
P3 ( x) x 3 2 x 2 3x 4
Pn ( x0 ) a0 f ( x0 )
f ( x1 ) f ( x0 )
Pn ( x1 ) a0 a1 ( x1 x0 ) f ( x0 ) a1 ( x1 x0 ) f ( x1 ) a1
x1 x0
22
Chapitre 2 Interpolation polynomiale
Définition 2.1:
Soit une fonction définie sur [a, b] et x0, x1,…, xn (n+1) points de [a, b] distincts. On
appelle différences divisées d’ordre k de f les relations de récurrences suivantes :
- d’ordre 0 : f xi f ( xi )
f ( xi 1 ) f ( xi )
- d’ordre 1 : f xi , xi 1
xi 1 xi
f xi 1 , xi 2 f xi , xi 1
- d’ordre 2 : f xi , xi 1 , xi 2
xi 2 x i
…
f xi 1 , xi k f xi , xi k 1
- d’ordre k : f xi , xi 1 ,..., xi k
xi k xi
D’après cette définition on a :
a 0 f x 0 f ( x 0 )
a1 f x 0 , x1 f ( x1 ) f ( x0 )
x1 x0
f ( x 2 ) f ( x1 ) f ( x1 ) f ( x 0 )
f x1 , x 2 f x0 , x1 x 2 x1 x1 x 0
a 2 f x 0 , x1 , x 2
x2 x0 x2 x0
a n f x 0 , x1 ,..., x n
Théorème 2.1:
Le polynôme d’interpolation Pn(x) de degré inférieur ou égal à n passant par les points (xi ,
f(xi)), i=0,1,.., n peut s’écrire:
23
Chapitre 2 Interpolation polynomiale
x0 f x0
f x0 , x1
x1 f x1 f x0 , x1 , x2
f x1 , x2 …
f x0 , x1 ,..., xn
x2 f x2 …
...
…
… … f xn 2 , xn 1 , xn
f xn 1 , xn
xn f xn
Exemple :
Trouver le polynôme d’interpolation de Newton qui passe par les points suivants (0,1), (2,5)
et (4,17).
Solution:
On a 3 points, donc le degré du polynôme est 2.
f x2 17
x2 4
On obtient :
P2 ( x ) 1 2 x x ( x 2)
P2 ( x) 1 x 2
24
Chapitre 2 Interpolation polynomiale
Définition 2.2:
Soient f ( xi ) yi pour i=0, 1, …, n des nombres réels. On appelle différences finies
d’ordre k de f les relations de récurrences suivantes :
x0 f ( x0 )
f ( x0 )
x1 f ( x1 ) 2 f ( x0 )
f ( x1 ) 3 f ( x0 )
…
x2 f ( x2 ) 2 f ( x1 )
… n f ( x0 )
f ( x2 )
…
x3 f ( x3 ) …
... 3 f ( xn 3 )
… … 2 f ( xn2 )
f ( xn 1 )
xn f ( xn )
k ( f ( xi ))
f xi , xi 1 , ...., xi k pour 0 i i k n
h k k!
Où f xi , xi 1 , ...., xi k est la différence divisée d’ordre k de f aux points xi , xi 1 , ...., xi k et
k ( f ( xi )) est la différence finie d’ordre k au point f ( xi ) .
On remarque que les points donnés sont équidistants avec le pas d'interpolation h =2, alors
sous la forme de Newton par les différences finies, le polynôme d'interpolation de f est donné
par :
f ( x0 ) 2 f ( x0 )
P2 ( x) f ( x0 ) ( x x0 ) ( x x0 )( x x1 )
1!h 2 !h 2
Où : h x1 x0 x2 x1 2
xi f ( xi ) f ( xi ) 2 f ( xi )
x0 0 f ( x0 ) 1
f ( x0 ) 5 1 4
x1 2 f ( x1 ) 5 2 f ( x0 ) 12 4 8
f ( x1 ) 17 5 12
x2 4 f ( x2 ) 17
26
Chapitre 2 Interpolation polynomiale
D'où,
P2 ( x ) 1 2 x x ( x 2)
P2 ( x) 1 x 2
x1,…, xn dans a, b . Alors pour tout x a , b , il existe c a, b tel que :
f n 1 (c) n M n
E n ( x) f ( x) Pn ( x) ( x xi ) (n 1)!
( n 1)! i 0 i 0
( x xi )
n 1
Où M sup f ( x)
xa ,b
2.4 Exercices
Exercice 1:
Soit les points d’interpolation suivants : (0,1), (1,3), (2,7).
27
Chapitre 2 Interpolation polynomiale
Exercice 4 :
On considère la table de différences divisées suivante:
1 .9 0.94630
0.127975
1 .5 0.99749 ?
0.314725 ?
2 .3 0.74571 ?
0.795824
2. 7 0.42738
1/ Compléter la table.
3/ Sachant que f ( x) sin ( x) , calculer une borne supérieure de la valeur absolue de l’erreur
d’interpolation en x 1.8 .
4/ Quel polynôme est le plus précis, celui trouvé en (2), où le polynôme de Lagrange passant
par f(x) en x 1.5, 1.9 et 2.3 ? Justifier votre réponse.
a/ Le polynôme d’interpolation du deuxième degré qui passe par les trois points de
coordonnées (x0, y0), (x1, y1) et (x2, y2) est de la forme :
P ( x) a x 2 b x c
28
Chapitre 2 Interpolation polynomiale
P(0) 1 a 1
b c 2 (1)
P(1) 3 a b c 3
P(2) 7 a 2b 4c 7 2b 4c 6 (2)
Alors le polynôme P qui interpole f aux points f(0)=1, f(1)=3 et f(2)=7 est :
P ( x) x 2 x 1
( x x1 )( x x2 ) ( x x0 )( x x2 ) ( x x0 )( x x1 )
f ( x0 ) f ( x1 ) f ( x2 )
( x0 x1 )( x0 x2 ) ( x1 x0 )( x1 x2 ) ( x2 x0 )( x2 x1 )
( x 1)( x 2) ( x 0)( x 2) ( x 0)( x 1)
(1) (3) (7 )
(0 1)(0 2) (1 0)(1 2) ( 2 0)( 2 1)
1 7
( x 1)( x 2) 3 x( x 2) x( x 1)
2 2
P2 ( x ) x 2 x 1
Exercice 2:
1
On remplace les valeurs de x0, x1, x2 dans la fonction f ( x) , on trouve :
x 1
xi 0 2 4
f(xi) 1 0.5 0.25
29
Chapitre 2 Interpolation polynomiale
2
P2 ( x ) f ( xi ) Li ( x ) f ( x0 ) L0 ( x ) f ( x1 ) L1 ( x ) f ( x2 ) L2 ( x )
i0
( x x1 )( x x2 ) ( x x0 )( x x2 ) ( x x0 )( x x1 )
f ( x0 ) f ( x1 ) f ( x2 )
( x0 x1 )( x0 x2 ) ( x1 x0 )( x1 x2 ) ( x2 x0 )( x2 x1 )
( x 1)( x 3) ( x 0)( x 3) ( x 0)( x 1)
(1) (0.5) (0.25)
(0 1)(0 3) (1 0)(1 3) (3 0)(3 1)
1 1 1
( x 1)( x 3) x ( x 3) x ( x 1)
3 4 24
P2 ( x ) 0.125 x 2 0.625 x 1
2/ Approximation de f (1.5) :
En utilisant le polynôme de Lagrange, on trouve :
On a :
1
f ( x)
x 1 et n=2
1 2 6
f ' ( x) , f ( 2) ( x ) , f ( 3) ( x )
( x 1) 2
( x 1) 3
( x 1) 4
6 6
M Max f (3) ( x) Max 6
x0 , 3 x0 , 3 ( x 1) 4
(0 1) 4
D'où,
2
M 6
E Max ( x) ( x xi ) x( x 1)( x 2) , x 0, 3
( n 1)! i 0 3* 2
Exercice 3 :
1/ L’approximation de f (3.6) par interpolation de Newton :
Puisque 3.5 < 3.6 < 4, on peut choisir de faire une interpolation entre les deux points
d’abscisses x0 = 3.5 et x1 = 4.0 qui sont les plus proches pour minimiser l’erreur.
30
Chapitre 2 Interpolation polynomiale
xi f xi f xi , xi 1
Le polynôme d’interpolation de Newton qui passe par ces deux points est:
P1 ( x) f ( x0 ) f x0 , x1 ( x x0 )
P1 ( x ) 0.1828 x 0.2688
2
M
On a : E1 ( x )
2!
(x x )
i 0
i Où M sup f ( 2) ( x)
x3.5, 4
M
E1 ( x ) ( x 3.5)( x 4)
2!
5 5
1 4 3
1 4 3
On déduit :
5
1 4 3
18 3
E1 ( x ) ( x 3.5)( x 4)
2!
31
Chapitre 2 Interpolation polynomiale
5
1 4 3
18 3
E1 (3.6) (3.6 3.5)(3.6 4) 0.18 10 2
2!
Exercice 4 :
1/ On obtient la table de différences divisées suivante:
1 .9 0.94630
0.127975
1 .5 0.99749 -0.466875
0.314725 0.082448
2 .3 0.74571 -0.400917
0.795824
2. 7 0.42738
cos (2.3)
3/ E2 (1.8) (1.8 1.9)(1.8 1.5)(1.8 2.3)
3!
4/ On obtient le même résultat car le polynôme de degré 2 qui passe par les points d’abscisses
x=1.5, 1.9 et 2.3 est unique.
32
Chapitre 3 Intégration Numérique
Intégration Numérique
3.1 Introduction
On veut évaluer l'intégrale d'une fonction f sur un intervalle a, b . Si l'on connait sa
b
primitive F, on peut calculer directement I : I ( f ) f ( x) dx F (b) F (a)
a
Mais dans de nombreux cas, la fonction f ne dispose pas d’expression analytique pour sa
primitive où elle est trop compliquée (problème physique).
b b b b
1 1
e log x dx
x2
Exemples : dx , 1 cos x dx ,
2
dx ,
a a a 1 sin x a
Pour cette raison, on fait appel à des méthodes numériques, afin de calculer une
approximation de l’intégrale I ( f ) . Dans ces méthodes d'intégration, l'intégrale d'une fonction
continue sur un intervalle borné a, b est remplacée par une somme finie. Dans ce chapitre, on
va étudier quelques méthodes usuelles (rectangle, trapèze et Simpson) dédiées à l’intégration
numérique.
b
Avec wi Li ( x) dx
a
33
Chapitre 3 Intégration Numérique
I ( f ) I n ( f ) En ( f )
n
Où I n ( f ) wi f ( xi )
i 0
Avec :
En ( f ) : L’erreur d’intégration
Théorème
Soient a x0 x1 ... xn b n+1 points équidistants avec xi x0 i h, i 0,1, ..., n ,
ba
h . Alors la formule générale de quadrature de Newton-Cotes est donnée par :
n
b n
I( f ) f ( x ) dx (b a ) wi( n ) f ( xi )
a i 0
1
b y
b a a
Où wi( n ) Li ( x) dx
P0(x)
f(x)
3.3.1 Formule des rectangles (n = 0) f(α)
[Link] Formule de base
Cette formule est obtenue en remplaçant f par un polynôme
a b x
constant égale à la valeur de f en un point a, b: P0 ( x) f ( )
Figure 1: méthode simple de rectangle
(polynôme qui interpole f en le point ( , f ( )) et donc de degré
34
Chapitre 3 Intégration Numérique
( 0)
Donc w0 1 y=f(x)
Formule du rectangle à gauche : I RG ( f ) (b a ) f ( a ) f(α)
b a n 1 x i xi 1
I PM C ( f ) f( 2 )
n i 0
35
Chapitre 3 Intégration Numérique
(b a) 2 (b a) 2
ER ( f ) M et ERC ( f ) M
2 2n
b- Erreur du Point-Milieu :
b
ab f ' ' (c )
E PM ( f ) I ( f ) I PM ( f ) f ' ' (c ) ( x ) dx (b a ) 3
a
2 24
(b a) 3 (b a) 3
EPM ( f ) M et E PM C ( f ) M
24 24n 2
Exemple :
1
2
Solution :
2
On pose f ( x) e x
1) Formule simple :
1 ab 1
a 0, b , .
2 2 4
La formule de l’intégration par la méthode simple du rectangle Point-Milieu est :
ab
I PM ( f ) (b a ) f ( )
2
1 1
0 f ( ) 0.469707
2 4
36
Chapitre 3 Intégration Numérique
2) Formule composite :
La formule d’intégration par la méthode composée du rectangle est :
1
b a n1 ba 21
I RC ( f )
n i 0
f ( i ), h
n
3 6
1 1 1
6 3 2
αi 0
ba 2 ba
I RC ( f ) f ( i ) f ( 0 ) f (1 ) f ( 2 )
n i 0 n
1 1 1
h f (0) f f 1 0.972583 0.894849 0.477905
6 3 6
(b a ) 2
L’erreur de la méthode des rectangles est : E RC ( f ) M où M Max f ' (c)
2n ca , b
On a :
2 2
f ( x ) e x f ' ( x ) 2 x e x
14
E RC ( f ) (0.77881) 0.03245
6
1
w0(1) w1(1)
2
L’intégrale est donc remplacée par la surface du trapèze :
ba
IT ( f ) f (a) f (b) y
2
f(xi+1)
(b a) 3 (b a) 3
ET ( f ) M et ETC ( f ) M
12 12n 2
Exemple :
1
2
Utiliser la formule simple puis la formule composite des Trapèzes avec trois sous-intervalles.
1) Formule simple :
La formule d’intégration par la méthode des Trapèzes est :
IT ( f )
ba
f (a) f (b) 1 f (0) f 1 0.4447
2 4 2
38
Chapitre 3 Intégration Numérique
2) Formule composite :
b a 1 n 1
ba 1
I TC ( f ) f ( a ) f (b ) f ( xi ) , h
n 2 i 1 n 6
b a 1 1 1 1
I TC ( f ) f 0 f 3 f1 f 2 h f (0) f f f 0.459472
1
n 2 2 2 6 3
(b a)3
L’erreur de la méthode des Trapèzes est : ETC ( f ) M où M Max f ' ' (c)
12n 2 ca , b
On a :
2 2 2
f ( x) e x , f ' ( x ) 2 x e x , f ' ' ( x ) ( 4 x 2 2 ) e x
18
On obtient : E RC ( f ) ( 2) 0.0023
108
y
3.3.3 Formule de Simpson (n = 2) f(a)
f((a+b)/2)
[Link] Formule de base
La méthode de Simpson consiste à remplacer la fonction
f(b)
f par le polynôme d’interpolation P2(x) qui passe par les trois
ab ba
points équidistants: x0 a , x1 , x2 b , avec h (Fig. 6) a(a+b)/2 b x
2 2 Figure 6: méthode simple de Simpson
ce qui donne :
b
I S ( f ) I 2 ( f ) P2 ( x) dx
a
ab ab
(x )( x b) ( x a )( x )
a b ( x a )( x b)
b
f (a) 2 f ( b ) 2 f dx
a
h2 h2 2 h2
b a ba
IS ( f ) f (a) 4 f f (b)
6 2
Donc
1 4
w0( 2 ) w2( 2 ) et w1( 2 )
6 6
39
Chapitre 3 Intégration Numérique
ba
égaux de longueur h , on a alors :
2n
h n n 1
I S C ( f ) f ( x0 ) f ( x2 n ) 4 f ( x2i 1 ) 2 f ( x2i ) xi+1
3 xi x
i 1 i 1
Figure 7: méthode composée de Simpson
h
f ( a ) f (b ) 4 f ( xi ) 2 f ( xi )
3
i impair i pair
f ' ' ( c ) (b a ) 3
b
f ' ' ' (c ) ab f ( 4 ) (c )
6 a
ES ( f ) I ( f ) I S ( f ) ( x a )( x )( x b ) dx (b a ) 5
2 2 6 90
(b a) 5 (b a ) 5
ES ( f ) M et E SC ( f ) M où
90 180 n 4
M Max f ( 4 ) ( c )
ca ,b
Exemple :
1
2
Solution :
La formule composite de Simpson est :
h ba 1
I SC ( f ) f (a ) f (b) 4 f ( xi ) 2 f ( xi ) , h
3 n 6
i impair i pair
I SC ( f )
h
f 0 f 3 4 f1 2 f 2 h f (0) 1 1 1
f 4 f 2 f 0.414380
3 3 2 6 3
(b a ) 5
L’erreur de la méthode de Simpson est : E SC ( f ) M où M Max f ( 4 ) ( c )
180 n 4 ca ,b
On a :
2 2 2
f ( x ) e x f ' ( x ) 2 x e x f ' ' ( x ) ( 4 x 2 2) e x
3 2 2
f (3) ( x ) 8 x x 2 e x f ( 4 ) ( x ) (16 x 4 4 x 2 12)e x
2 40
Chapitre 3 Intégration Numérique
On obtient :
1 32
E SC ( f ) (12) 2,57.10 5
180 (3) 4
3.4 Exercices
Exercice 1 :
Soit la fonction f(x) définie par le tableau suivant :
x 0 3
8 4 8 2
/2
1- Déterminer f ( x) dx par la méthode des trapèzes puis par celle de Simpson.
0
2- Sachant que f ( x) sin x , comparer alors les résultats obtenus avec la valeur exacte.
Exercice 2 :
Trouver le nombre n de subdivisions nécessaires de l’intervalle d’intégration , , pour
évaluer à 0.5*10-3 près, grâce à la méthode de Simpson, l’intégrale cos x dx .
Exercice 3:
2
Calculer x dx par la formule des rectangles en décomposant l’intervalle d’intégration en
1
dix parties. Evaluer l’erreur commise.
41
Chapitre 3 Intégration Numérique
b a 1 n 1
ba 20
I TC ( f ) f ( a ) f (b ) f ( xi ) , h
n 2 i 1 n 4 8
1
I TC ( f ) h f ( x0 ) f ( x4 ) f ( x1 ) f ( x2 ) f ( x3 )
2
1
0 1 0.382683 0.707107 0.923880 0.987116
8 2
h ba
I SC ( f ) f (a) f (b) 4 f ( xi ) 2 f ( xi ) , h
3 i impair i pair n 8
h
f 0 f 4 4( f 1 f 3 ) 2 f 2
3
0 1 4(0.382683 0.923880) 2.0.707107 1.00135
24
2/ Comparaison :
I
2
sin x dx cos x
2
I exacte 0 1
0
On constate que l’approximation de I par Simpson est meilleure que celle par les Trapèzes.
Exercice 2 :
b a 2
On a : I cos x dx , h
n n
(b a ) 5
où M Max f
( 4)
E SC ( f ) M (c )
180 n 4 ca ,b
42
Chapitre 3 Intégration Numérique
On a :
f ( x) f ( 4) ( x) cos x M Max f ( 4) (c) cos c 1
c ,
4
(b a ) 5 2 2
E SC ( f ) M
180 n 4 180 n
16 4 1
4 0.5.10 3 n 4 3
16 4 n 18 .6
90 n 0.5.10 90
43
Chapitre 4 Résolution des équations différentielles ordinaires
4.1 Introduction
Les équations différentielles sont l'un des outils mathématiques les plus importants utilisés
dans la modélisation des problèmes en sciences physiques. Trouver la solution d'une équation
différentielle ordinaire EDO est un problème courant, souvent difficile ou impossible à
résoudre de façon analytique. Il est alors nécessaire de recourir à des méthodes numériques
pour résoudre ces équations.
y ' (t ) f t , y (t )
d y (t )
y ' (t ) f t , y (t )
dt
y (t 0 ) y0 , t 0 I , y0 IR
Si on suppose que la fonction f est continue par rapport aux deux variables t, y et que f
vérifie une condition de Lipschitz (fonction Lipschitzienne) par rapport à y c’est à dire que :
K 0 tel que t a, b, y1 , y2 IR, on a f (t , y1 ) f (t, y2 ) K y1 y2
f (t , y )
En pratique pour vérifier cette condition, on calcule : K Max
t a , b
yIR
y
Alors que la solution du problème de Cauchy existe et est unique sur a, b (C’est le Théorème
de Cauchy).
44
Chapitre 4 Résolution des équations différentielles ordinaires
y ' (t ) f t , y (t )
y (t 0 ) y 0
On suppose que ce problème admet une solution unique dans l’intervalle a, b .
Pour obtenir une approximation numérique de cette solution y(t) sur l'intervalle a, b , on
divise l’intervalle donné en n points équidistants t0, t1, t2, …, tn, avec t0=a et tn=b qui
déterminent le pas d’intégration h b a et le point d’abscisse ti est donné par ti a i h
n
(pour i = 0, 1,…, n).
La solution exacte au point ti est notée y(ti), la solution approchée est notée yi y(ti ) yi ,
une méthode numérique est un système d’équations aux différences impliquant un certain
nombre d’approximations successives yn, yn+1, …, yn+k où k désigne le nombre de pas de la
méthode.
Si k > 1, la méthode à pas multiples (à pas liés) : ils permettent d’obtenir yn+1 en utilisant les
valeurs yn, yn+1, …, yn-k (k fixé).
La solution à estimer peut être approchée par un développement limité de Taylor.
Le développement de la série de Taylor de y(tn+1) jusqu’à l’ordre m autour du point tn s’écrit :
h 2 ( 2) hm (m)
y(tn1 ) y(tn ) h y' (tn ) y (tn ) ... y (tn ) O (hm1 )
2! m!
y (t n 1 ) y (t n ) h y ' (t n ) ( h 2 )
Le terme (h 2 ) étant le terme d’erreur (à l’ordre 2). On peut alors réécrire cette équation en
négligeant les termes du deuxième ordre :
y (t n 1 ) y (t n ) h y ' (t n )
45
Chapitre 4 Résolution des équations différentielles ordinaires
Soit yi une approximation de y(ti) yi y(ti ), la méthode d’Euler d’ordre 1 s’écrit
yi 1 yi h f (t i , yi ), i 0, 1, ..., n
y 0 y (t 0 )
Interprétation Géométrique :
La méthode d’Euler revient à remplacer localement en chaque point ti la courbe solution
passant par yi par sa tangente.
Y0 (t ) y (t 0 ) y ' (t 0 )( t t 0 )
Y0 (t ) y (t 0 ) f t 0 , y (t 0 ) (t t 0 ) y(t)
y
Ou: Y0 (t ) y0 f t 0 , y0 (t t 0 )
y i 1 y i h f t i , y i
Exemple :
Soit l’équation différentielle à condition initiale: y ' (t ) y (t ) t 1 et 𝑦(0)=1.
46
Chapitre 4 Résolution des équations différentielles ordinaires
Solution:
On a : y ' (t ) y (t ) t 1, y (0) 1, n 5 et l’intégrale d’intégration est 0, 0.5 .
Remarquons que la fonction f (t , y) y(t ) t 1 est continue sur 0, 0.5 IR. De plus, elle est
Lipschitzienne par rapport à y sur 0, 0.5 avec la constante de Lipschitz K=1. En effet, pour
tout t 0, 0.5 et y1, y2 IR, on a :
f (t , y1 ) f (t , y2 ) y1 t 1 y2 t 1
(1) y1 y2
y1 y2
Où
f (t , y ) ( y t 1)
K Max Max 1 1 Condition vérifiée.
y y
47
Chapitre 4 Résolution des équations différentielles ordinaires
yi 1 yi b1 k1 b2 k2 b3 k3 ...
Où
k1 h f ( xi , yi )
k 2 h f ( xi c2 h, yi c2 k1 )
k3 h f ( xi c3 h, yi (c3 a32 ) k1 a32 k 2 )
48
Chapitre 4 Résolution des équations différentielles ordinaires
Exemple :
Résoudre le problème de Cauchy précédant par les deux méthodes RK2 et RK4 les cinq
premières valeurs de la solution en prenant un pas d’intégration h=0.1.
On a : f (t , y ) y (t ) t 1, y (0) 1 et h 0.1 .
En utilisant cette méthode on obtient les approximations successives y1, y2, …, y5.
- Pour i=0 :
1
y1 y0 (k1 k2 ),
2
k1 h f (t0 , y0 ) h y0 t0 1 0.1(1 1 0 1) 0
k2 h f (t0 h, y0 k1 ) h f (h, y0 ) 0.1(1 0.1 1) 0.01
1
Alors y1 1 (0 0.01) 1.005
2
-Pour i=1 :
1
y2 y1 (k1 k2 ),
2
k1 h f (t1 , y1 ) h y1 t1 1 0.1(1.005 0.1 1) 0.0095
k2 h f (t1 h, y1 k1 ) 0.1(1.0145 0.3 1) 0.02855
1
Alors y2 1.005 (0.0095 0.02855) 0.019025
2
Le tableau suivant rassemble les résultats des cinq premières itérations :
i ti yi (solution approchée) y(ti )(solution exacte) Erreur
0 0 1.000000 1.000000 0.000000
1 0.1 1.005000 1.004837 0.000163
2 0.2 1.019025 1.018731 0.000294
3 0.3 1.041218 1.040818 0.000400
4 0.4 1.070802 1.070302 0.000482
5 0.5 1.107075 1.106531 0.000544
Alors l’approximation de y(t) en t=0.5 par la méthode de RK2 est : y5 =1.107075
49
Chapitre 4 Résolution des équations différentielles ordinaires
On remarque que l'erreur est plus petite avec la méthode de RK2 qu'avec la méthode d'Euler.
-Pour i=0 :
k1 h f (t0 , y0 ) 0
k2 h f (t0 h , y0 k1 ) 0.005
2 2
k h f (t h , y k2 ) 0.00475
3 0
2
0
2
k h f (t h, y k ) 0.00952
4 0 0 3
1
Ce qui donne :
y1 y0 k1 2 k2 2 k3 k4 1.004837
6
-Pour i=1
k1 h f (t1 , y1 ) 0.09516
k2 h f (t1 h , y1 k1 ) 0.0140404
2 2
k3 h f (t1 h , y1 k2 ) 0.013814
2 2
k h f (t h, y k ) 0.018730
4 1 1 3
1
Ce qui donne :
y2 y1 k1 2 k2 2 k3 k4 1.01873
6
Le tableau suivant rassemble les résultats des cinq premières itérations :
i ti yi (solution approchée) y(ti )(solution exacte) Erreur
0 0 1.000000 1.000000 0.000000
1 0.1 1.004837 1.004837 0.819 10-7
2 0.2 1.018730 1.018731 0.148 10-6
3 0.3 1.040818 1.040818 0.210 10-6
4 0.4 1.070320 1.070302 0.242 10-6
5 0.5 1.106530 1.106531 0.274 10-6
50
Chapitre 4 Résolution des équations différentielles ordinaires
4.3 Exercices
Exercice 1 :
Soit l’équation différentielle à condition initiale :
y ' (t ) y (t ) t
y (0 ) 1
Exercice 2 :
Soit le problème de Cauchy suivant :
' 2t
y (t ) y (t )
y
y (0) 1
Exercice 3 :
Soit le problème de Cauchy suivant :
y ' (t ) e t 2 y (t ), t 0, 1
y (0) 1
1/ Montrer que f (t , y) est Lipschitzienne par rapport à y uniformément par rapport à t, et
donner une constante de Lipschitz.
51
Chapitre 4 Résolution des équations différentielles ordinaires
i ti yi
0 0 1.0000
1 0.1 1.1000
2 0.2 1.2200
3 0.3 1.3620
4 0.4 1.5282
5 0.5 1.7210
6 0.6 1.9431
7 0.7 2.1974
8 0.8 2.4871
9 0.9 2.8158
10 1.0 3.1874
52
Chapitre 4 Résolution des équations différentielles ordinaires
Exercice 2 :
1/ Calcul la solution approximative de l’équation différentielle en t=1 par la méthode Runge-
Kutta d’ordre 2 :
2t
On a: f (t , y ) y , y (0) 1
y
L’intervalle est 0, 0.2 , h 0.2
La méthode de RK2 est donnée par :
1
yi 1 yi ( k1 k 2 ),
2
k1 h f ( xi , yi )
k 2 h f ( xi h, yi k1 )
En utilisant cette méthode on obtient les approximations successives y1, y2, …, y5.
Pour i=0 :
1
y1 y0 (k1 k 2 ),
2
k1 h f (t 0 , y0 ) 0.2
k 2 h f (t 0 h, y0 k1 ) h f (0.2, 1.2) 0.8666
h
Alors : y1 1 (k1 k 2 ) 1.1866
2
Alors l’approximation de y(t) en t=0.2 par la méthode de RK2 est :
y1 =y(0.2)=1.1866.
53
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
5.1 Introduction
Les systèmes d'équations linéaires apparaissent dans un grand nombre de domaines, à la
fois directement dans la modélisation de situations physiques et indirectement dans la solution
numérique d'autres modèles mathématiques. Ces applications se produisent dans pratiquement
tous les domaines des sciences physiques, biologiques et sociales. En raison de l’importance
généralisée des systèmes linéaires, de nombreuses recherches ont été consacrées à leur
solution numérique. D'excellents algorithmes ont été développés pour la plupart types de
problèmes courants pour les systèmes linéaires, et certains d’entre eux sont définis et illustrés
dans ce chapitre. Le type de problème le plus courant consiste à résoudre un système linéaire
carré dont le nombre d’équations est égal à ceux d’inconnues et dont le déterminant est non
nul. C’est-à-dire les systèmes qui ont une solution unique. Un système d’équations linéaire de
n équations à n inconnues s’écrit alors :
Les aij sont appelés les coefficients du système, les xi sont les inconnues (ou les solutions) et
les bi forment le second membre.
Avec
54
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
Si n est élevé, le nombre d’opérations augmente et par conséquent le temps de calcul (elle
devient très lente en temps de calculs).
Alors, on fait appel à des méthodes numériques ayant des temps de calcul acceptables (rapides
et plus précises) et dont le nombre d’opérations est d’ordre n3.
55
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
bn
xn a
La solution du système A x b est : nn
n
bi ai j x j
j i 1
xi , i n 1, ...,1.
aii
- Une matrice A ( a ij )1i , j n est dite triangulaire inférieure si aij=0 pour i < j.
a11 0 ... 0
a a22
A 21
0
an1 a n 2 ... ann
b1
x1 a
La solution du système A x b est : 11
i 1
bi ai j x j
j 1
xi , i 2, ..., n.
aii
- Une matrice bande est une matrice dans tous les éléments sont nuls (aij=0) sauf sur une
bande autour de la diagonale principale.
a11 0 ... ... 0
0 a
22
A
0
0 ... ... 0 a nn
56
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
bi
La résolution de A x b est alors immédiate : xi , i 1, ..., n .
aii
Remarque :
1) Le nombre d'opérations élémentaires (addition, multiplication, division) nécessaires pour
mener à bien le calcul de tous les xi est au total n2 opérations élémentaires pour résoudre un
système d’ordre n.
a
Pour éliminer les termes a21 et a31 de L(21) et L(31) , on multiplie la ligne L1 par 21 et on
a11
a
soustrait avec L(21) , et on multiplie L1 par 31 et on soustrait avec L(31) , on obtient :
a11
57
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
(1) a21
L2 L2 L1
(1)
a11
L(1) L(1) a31 L
3 3 a 1
11
Ce qui donne :
( 2) ai1
aij aij a1 j , i, j 2,3
a11
b ( 2) b ai1 b , i 2,3
i i a 1
11
Étape 2: En supposant que a22 0. Pour éliminer le terme a 32( 2 ) de L(32 ) , on doit utiliser la
transformation élémentaire :
a ( 2) ( 2)
L(32) L(32 ) 32 L
( 2) 2
a22
Ce qui donne :
a22
b (3) b ( 2) a32 b ( 2)
( 2)
3 3 a ( 2) 2
22
58
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
Remarque :
Les termes diagonaux a kk( k ) à chaque étape sont appelés les pivots (sont non nuls).
Exemple :
Résoudre par la méthode de Gauss le système suivant :
x1 2 x2 3 x3 4 x4 11
2 x 3 x 4 x x 12
1 2 3 4
3
1 x 4 x2 x3 2 x 4 13
4 x1 x2 2 x3 3 x4 14
Solution:
Soit le système d’équations représenté par la matrice augmentée suivante :
1 2 3 4 11 L1
A (1)
b (1) =
2 3 4 1 12 L(21)
3 4 1 2 13 L(31)
4 1 2 3 14 L(41)
À chaque étape, on doit utiliser les transformations élémentaires pour obtenir les systèmes
équivalents au système initial :
1 2 3 4 11 L1
L(21) L(21) 2 L1
0 1 2 7 10 L(22 )
(1)
L3 L3 3 L1
(1)
A ( 2)
b (2)
(1) 0 2 8 10 20 L(32 )
L4 L4 4 L1
(1)
0 7 10 1 3 3 L( 2 )
4
1 2 3 4 11 L1
0 1 2 7 10 L(23)
L L 2 L
A
( 2) ( 2) ( 2)
3
( 2)
3 2
( 3)
b ( 3)
L4 L(42) 7 L(22) 0 0 4 4 0 L(33)
0 0 4 36 40 L( 3)
4
1 2 3 4 11 L1
0 1 2 7 10 L(24 )
L(43) L(43) L(33) A (4)
b (4)
0 0 4 4 0 L(34 )
0 0 0 40 40 L( 4 )
4
On résout alors ce système triangulaire supérieur par substitution inverse, on obtient :
40 x4 40 x4 1
4 x 4 x 0 x x 1
3 4 3 4
x2 2 x3 7 x4 10 x2 10 2 7 2
x1 2 x2 3 x3 4 x4 11 x1 11 2 3 4 2
59
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
2
2
Donc la solution du système est : x
1
1
Remarque :
3
1) La méthode de Gauss nécessite 2 n opérations pour résoudre un système d’ordre n.
3
2) Si l’un des pivots aii est nul, on permute la ligne du pivot avec une ligne supérieure.
n
3) det ( A) (1) p akk( k ) avec p le nombre de permutation de lignes ou de colonnes
k 1
Dans ce cas, on utilise la permutation des lignes ceci n’a aucun effet sur la solution du
système.
Pivot total :
Le pivot est un des éléments de la sous-matrice ai(kj ) , k ≤ i, j ≤ n vérifiant :
Dans ce cas, si le pivot n'est pas dans la kième colonne, il faut procéder à un échange de
colonnes en plus d'un éventuel échange de lignes.
Exemple :
Utiliser la méthode de Gauss avec pivot partiel pour résoudre le système suivant :
60
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
x1 3 x2 3 x3 0
x1 x2 1
3x 2 x 6 x 11
1 2 3
Solution:
1 3 3 0
On a : 1 1 0 1
3 2 6 11
Étape 1: (k=1), Max (1, 1, 3)=3, On permute les lignes 1 et 3, on obtient :
3 2 6 11
1 3 3 0 3 2 6 11
1 8
1 1 0 1 1 1 0 1 0 2
3 2 6 11 1 3 3 0 3 3
0 7 11
1
3 3
3 2 6 11 3 2 11 3
6 2 11
6
1 8 7 11 7 11
0 2 0 1 0 1
3 3 3 3 3 3
0 7 11 1 8 15 15
1 0 2 0 0
3 3 3 3 7 7
On résout alors ce système triangulaire supérieur par substitution inverse, on obtient :
15 15
7 x3 7 x3 1
x3 1
Ax b 7 11 3 11
x2 2
x 2 x3 x 2 x3
3 3 7 3 x 3
1
1
3 x1 2 x2 6 x3 11 x1 11 2 x2 6 x3
3
1
Donc la solution du système est : x 2
3
61
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
A LU
Où L est une matrice triangulaire inférieure unitaire et U est une matrice triangulaire
supérieure.
Le système A x b s’écrit alors :
L y b
Ax b L U
x b
y U x y
ij ij
k 1
ik
u jj
Une fois les composantes lij et uij sont déterminées on résout le système L y b après on
résout le système U x y.
Exemple :
Utiliser la méthode de factorisation LU pour résoudre le système suivant :
2 x1 x2 2 x3 10
6 x1 4 x2 26
8 x 5 x x 35
1 2 3
Solution :
On a :
2 1 2 10
6 4 0 26
8 5 1 35
62
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
l21 3
(2) u 22 1
u 6
23
l31 4
(3) l32 1
u 1
33
Alors :
1 0 0 2 1 2
L 3 1 0 , U 0 1 6
4 1 1 0 0 1
1 0 0 y1 10
3 1 0 y2 26
4
1 1 y3 35
y1 10 y1 10
L y b 3 y1 y 2 26 y 2 4
4 y y y 35 y 1
1 2 3 3
2 1 2 x1 10
0 1 6 x2 4
0 0 1 x 1
3
63
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
2 x1 x2 2 x3 10 x1 3
U x y x2 6 x3 4 x2 2
x 1 x 1
3 3
3
Donc la solution du système est : x 2
1
A L Lt
Où L est une matrice triangulaire inférieure et Lt est une matrice triangulaire transposée de L.
Si les éléments diagonaux de L sont strictement positifs, alors la factorisation est unique.
Le système A x b s’écrit alors :
L y b
Ax b L L
t
x b t
y L x y
a11 a12 ... a1n l11 0 ... 0 l11 l12 ... l1n
a a 22 . .. a 2 n l21 l22 ... 0 0 l22 ... l2 n
A 21
... ... ... ... ... ... ... ... ... ... ... ...
a
n1 an 2 .. . ann ln1 ln 2 ... lnn 0 0 ... lnn
k 1
l 1 a l l ; j i 1, ..., n
j 1
ij
lii
ij ik jk
k 1
64
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
Une fois les composantes lii et lij sont déterminées, on résout donc d’abord le système
L y b après on résout le système Lt x y .
Remarque :
n3
1) La méthode de Cholesky nécessite opérations élémentaires (meilleure que celle de
3
Gauss).
i 1
i 1
3) Pour une matrice définie positive, on a : lii2 a jj l ik2 0
k 1
Exemple :
Utiliser la méthode de factorisation de Choleski pour résoudre le système suivant :
3x1 x2 x3 1
x1 x2 2
x x 1
1 3
Solution :
3 1 1
On a : 1 1 0
1 0 1
A est symétrique ai j a j i .
3 1 1
1 0
A est positive : a11=3 > 0, Det 1 0 et Det 1 1 0 1 0
0 1 1 0 1
65
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
3
l11 3 3 l31
l21 3
3
3
(1) l21 (2) 3
(3) l32
3 l 2 3
3 22 3 3
l31 l33
3 3
Alors :
3 3
3 0 0 3
3 3
3 2 et 2 3
L 0 Lt 0
3 3 3 3
3 3 3 0 3
0
3 3 3 3
3 0 0
y 1
1
On résout d’abord le système L y b , c'est-à-dire : 3 2
0 y2 2
3 3 y 1
3
3 3 3
3 3 3
3 y1 1
y1 0.5773
3 2
Lyb y1 y2 2 y 2 2.0412
3 3 y 1.4228
3 3
3 3
y1 y2 y3 1
3 3 3
3 3
3
3 3
x1 0.5773
2 3
On résout maintenant Lt x y , c'est-à-dire : 0 x2 2.0412
3 3
x3 1.4228
0 3
0
3
66
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
3
x3 1.4228
3
x3 2.4643
2 3
L xy
t
x2 x3 2.0412 x 2 0.7574
3 3 x 0.6617
1
3 3
3 x1 x2 x3 0.5773
3 3
0.6617
Donc la solution du système est : x 0.7574
2.4643
5.4 Exercices
Exercice 1 :
Soit le système d’équations linéaires suivant :
6 x1 x2 x3 12
2 x1 4 x2 0
x 2x 6x 6
1 2 3
Exercice 2 :
Soit le système d’équations linéaires suivant :
3/ Sachant que la solution exacte du système est x1 , x 2 1 3 , 2 3, que peut-on conclure à
partir des deux résultats précédentes ?
67
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
Exercice 3 :
Soit le système d’équations linéaires suivant :
2 x1 x2 x3 1
x1 2 x2 x3 2
x x 2x 3
1 2 3
1/ Ecrire ce système sous la forme matricielle A x b et montrer que ce système admet une
solution unique.
2/ Peut-on décomposer la matrice A sous la forme A L Lt ; où L est une matrice triangulaire
inférieure ?
3/ Si la réponse est oui, résoudre ce système par la méthode de Cholesky, en déduire la valeur
du déterminant de A.
Exercice 4 :
Soit le paramètre 0 . Calculer l’inverse de la matrice suivante :
1 2
A 2 2 1 3
1 2
6 1 1 x1 12
2 4 0 x2 0
1
2 6 x3 6
6 1 1 12 L1
2 4 0 0 L2
1 2 6 6 L
3
68
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
2 6 1 1 12
L2 L2 6 L1
Etape 1 : 0 11 3 1 3 4
L L 1 L 0 11 6 35 6 4
3 3
6
1
6 1 1 12
3
Etape 2 : L3 L3 L 2 0 11 3 1 3 4
6 0 0
6 6
6 1 1 x1 12
0 11 3 1 3 x2 4
0
0 6 x3 6
Donc :
6 x1 x 2 x3 12
11 x3 1
1
x 2 x 3 4 x 2 1
3 3 x 2
6 x3 6 1
2
Donc la solution du système est : x 1
1
3/ On déduit le déterminant de A :
11
det A 6 6 242
3
4/ Factorisation de la matrice A :
On a : A LU
69
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
l 21 1 3 l31 1 6
( 2) u 22 11 3 (3) l32 1 2
u 1 3 u 6
23 33
Alors :
1 0 0 6 1 1
L 1 3 1 0 , U 0 11 3 1 3
1 6 1 2 1 0 0 6
1 0 0 y1 12 y1 12
1 3 1 0 y2 0 y 2 4
1 6 1 2
1 y 3 6 y 6
3
6 1 1 x1 12 x3 1
0 11 3 1 3 x2 4 x 2 1
0
0 6 x3 6 x 2
1
2
Donc la solution du système est : x 1
1
Exercice 2 :
1/ Résolution du système par la méthode de Gauss :
On écrit le système sous la forme matricielle suivante :
70
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires
On choisit l’élément le plus grand dans la 1ére colonne, le pivot est donc 1.0000. Alors on
effectue une permutation entre les lignes 1 et 2, ceci donne :
3/ Conclusion :
On a : xexacte
13 0.3333
2 3 0 . 6667
On remarque à partir des deux résultats précédents que la méthode de Gauss avec pivot
donne une solution plus proche de la solution exacte. On conclue que la méthode de Gauss
avec pivot permet de minimiser les erreurs de calculs.
71
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
6.1 Introduction
La solution par les méthodes directes pose certains problèmes lorsque les systèmes
deviennent plus grands ou lorsque la plupart des coefficients sont nuls (les matrices creuses).
Quand n est assez grand, ces méthodes ne sont plus concevables vu le nombre très grand
d'opérations à effectuer qui engendre la propagation des erreurs d'arrondi. On a alors recours
aux méthodes itératives ou approximatives qui consistent à générer une suite de vecteurs x(k)
(les itérés) convergente vers la solution x du système linéaire A x b .
Partant d’un vecteur initial x(0), on engendre une suite x(k) définie par :
x( k 1) B x( k ) C
A x b M N x b
M x N xb
x M 1 N x M 1 b
La méthode itérative consiste à partir d’un vecteur initial x(0) à générer une suite x(k+1) définie
par :
x ( k 1) M 1 N x ( k ) M 1 b
Cette suite peut être représentée par la relation itérative suivante :
72
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
U
A D L U D
L
Avec :
D D
d ij 0 , i j
0
0 ... ... 0 a nn
A x b D x L U x b
73
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
1 (k)
bi aij xi , i 1, 2, ..., n
( k 1)
x i
aii j 1
j i
Cette méthode nécessite des pivots non nuls aii 0 pour i 1, 2, ..., n (c’est à dire D
inversible).
A x b D L x U x b
La méthode de Gauss-Seidel s’exprime alors par la suite :
x ( k 1) D L U x ( k ) D L b
1 1
D x ( k 1) L x ( k 1) U x ( k ) b
x ( k 1) D 1 L x ( k 1) D 1 U x ( k ) D 1 b
1 i 1 n
xi( k 1) bi aij x (jk 1) a x (jk ) , i 1, 2, ..., n
aii ij
j 1 j i 1
D D
A M N L D U , w IR*
w w
Cette décomposition conduit à :
D 1 w
A x b L x D U x b
w w
La méthode de relaxation s’exprime alors par la suite :
1 1
( k 1) D 1 w D
x L D U x (k ) L b
w w w
74
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
w i 1 n
xi( k 1) xi( k ) bi aij x (jk 1) a x (jk ) , i 1, 2, ..., n
aii ij
j 1 j i 1
Remarque :
Si D est inversible : R I wD 1 L 1 w I w D
1 1
U
- Si w = 1, on retrouve la méthode de Gauss-Seidel.
- Si w > 1, procédé de sur-relaxation.
- Si w < 1, procédé de sous-relaxation.
n
B max aij maximum sur les lignes.
1i n
j 1
n
B 1 max aij maximum sur les colonnes.
1 j n
i 1
a
2
B2 ij
est le rayon spectral de la matrice symétrique semi-définie positive At A.
ij
Cette condition est équivalente à dire que la matrice A est diagonalement dominante.
n
Pour toutes les lignes, aii a
j 1, j i
ij , i 1, ..., n.
n
Pour toutes les colonnes, a jj a
i 1, i j
ij , j 1, ..., n.
75
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
x ( k 1) x ( k )
Pour estimer l’erreur des approximations du processus itératif on utilise la formule suivante :
k
B
xx (k )
x (1) x (0)
1 B
Exemple :
Considérons le système linéaire :
4 2 1 x 4
1 2 0 y 2
2 1 4 z 9
Résoudre ce système par les méthode de Jacobi et de Gauss-Seidel en utilisant le vecteur
initial x (0)=(0, 0,0)t.
Solution:
Le système s’écrira en forme réduite :
y z
x 1 2 4
x
y 1
2
9 x y
z 4 2 4
( k 1) y (k ) z (k )
x 1
2 4
( k 1) x(k )
y 1
2
( k 1) 9 x ( k ) y ( k )
z
4 2 4
76
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
1 1 3 3 1 61
0 0 1 1 1 2 2 1 32 32
1
2 4 1 2 4 16 2 4 1 2 4 5
8 128
0 x ( 2) 1 1 3 , 1 ( 4) 1 15
x (1) 1 1 , 2 2 x 1
16 8
2 132 , x 1
( 3)
2 2 16
9
9 0 0 4 9 1 1 3 2 3 61 265
9 1 32
1 1 128
4 2 4 4 2 4 16 2 1 8 32
4 2 4 2 4
La suite x(k) converge vers (0,1,2)t la solution du système au bout de quatre itérations.
( k 1) y (k ) z (k )
x 1
2 4
( k 1)
( k 1) x
y 1
2
( k 1) 9 x ( k 1) y ( k 1)
z
4 2 4
A partir de x (0)=(0, 0,0)t, On obtient les itérations suivantes :
0 0 3 11 3 61
1 1 8 1 32 64
2 4 1 2 4 3 2 4
32
9
3 1024
3 , ( 2)
1 (3) 91024
x (1)
1 32 61 2047
2 2 x 1 2 64 , x 1
2
2048
11
3 3 61 527 16349
9 1 2 8 9 2047
9
32 64 256 9
1024 2048 8192
4 2 4 4 2 4 4 2 4
La suite x(k) converge vers (0,1,2)t la solution du système au bout de trois itérations.
77
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
6.7 Exercices
Exercice 1 :
Soit le système d’équations linéaires suivant :
5 x1 x2 x3 x4 4
x 10 x x x 12
1 2 3 4
x1 x2 5 x3 x4 8
x1 x2 x3 10 x4 34
2/ Donner la condition suffisante pour avoir la convergence des méthodes de Jacobi et Gauss-
Seidel pour la résolution du système.
3/ Résoudre le système d’équations linéaires par la méthode de Jacobi, en suite par la méthode
de Gauss-Seidel avec le vecteur initial x (0)=(0, 0, 0, 0)t.
4/ Sachant que la solution exacte est x 1, 2, 3, 4T , que peut-on conclure ?
Exercice 2 :
1- Réécrire le système linéaire de façon qu’il soit diagonale dominante :
2 x1 10 x3 7
10 x1 x2 9
x 10 x 2 x 10
1 2 3
2- En utilisant la méthode de Jacobi puis celle de Gauss-Seidel, calculer les trois premières
itérations en prenant x(0)=(0, 0, 0)t.
Exercice 3 :
Donner une condition suffisante sur le coefficient α pour avoir convergence des méthodes de
Jacobi et Gauss-Seidel pour la résolution d’un système linéaire associé à la matrice :
0 1
A0 0
1 0
Exercice 4 :
Soit le système d’équations linéaires suivant :
78
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
4 x1 x2 2 x3 4
( S ) 3x1 5 x2 x3 7
x x 3x 3
1 2 3
Donner le nombre suffisant d’itérations pour que les deux méthodes (Jacobi et Gauss-Seidel)
donnent une solution approchée de (S) à 10 -2 près.
5 1 1 1 x1 4
1 10 1 1 x2 12
A
On a : 1 1 5 1 x3 8
1 1 1 10 x4 34
On écrit la matrice A sous la forme A D L U où :
5 0 0 0 0 0 0 0 0 1 1 1
0 10 0 0 1 0 0 0 0 0 1 1
D , L , U
0 0 5 0 1 1 0 0 0 0 0 1
0 0 0 10 1 1 1 0 0 0 0 0
La matrice de Jacobi J est donnée par :
J D 1 L U
1 5 0 0 0 0 1 1 1
0 1 10 0 0 1 0 1 1
D L U
1
0 0 1 5 0 1 1 0 1
0 0 0 1 10 1 1 1 0
Alors :
0 15 15 15
1 10 0 1 10 1 10
J
15 15 0 15
1 10 1 10 1 10 0
79
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
G D L U
1
5 0 0 0 15 0 0 0
1 10 0 0 1 50 1 10 0 0
D L D L 1
1 1 5 0 11 250 1 50 15 0
1 1 1 10 33 1250 3 250 1 50 1 10
15 0 0 0 0 1 1 1
1 50 1 10 0 0 0 0 1 1
D L U
1
11 250 1 50 15 0 0 0 0 1
33 1250 3 250 1 50 1 10 0 0 0 0
Alors, on obtient :
0 15 15 15
0 1 50 3 25 3 25
G
0 11 250 8 125 3 125
0 33 1250 24 625 75 1250
on a B 1 .
0 15 15 15 0 15 15 15
1 10 0 1 10 1 10 0 1 50 3 25 3 25
On a : J , G
15 15 0 15 0 11 250 8 125 3 125
1 10 1 10 1 10 0 0 33 1250 24 625 75 1250
Alors :
4
B J max aij max ai1 ai 2 ai 3 ai 4
1i 4
j 1 1i 4
max a11 a12 a13 a14 ; a21 a22 a23 a24 ; a31 a32 a33 a34 ; a41 a42 a43 a44
max1 5 1 5 1 5 ,1 10 1 10 1 10 , 1 5 1 5 1 5 ,1 10 1 10 1 10
max3 5 , 3 10 , 3 5 , 3 10 3 5 1
4
B G max aij max ai1 ai 2 ai 3 ai 4 3 5 1
1i 4 1i 4
j 1
80
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
- Méthode de Jacobi:
Le système récursif pour la méthode de Jacobi s’écrit :
( k 1) 1 ( k )
x1
x 2 x3( k ) x4( k ) 4
5
10
x ( k 1) 1 x ( k ) x ( k ) x ( k ) 12
2 1 3 4
5
1 2 4
x ( k 1) 1 x ( k ) x ( k ) x ( k ) 8
3
x1( k 1)
1 (k )
x1 x2( k ) x3( k ) 34
10
A partir de x(0)=(0, 0, 0, 0)t, On obtient les itérations suivantes :
k x1( k ) x 2( k ) x 3( k ) x 4( k )
0 0 0 0 0
1 -0.8000 1.2000 1.6000 3.4000
2 0.4400 1.6200 2.3600 3.6000
3 0.7160 1.8400 2.7320 3.8420
4 0.8828 1.9290 2.8796 3.9288
5 0.9474 1.9691 2.9484 3.9691
0.9474
1.9691
La solution approchée est : x J
2.9484
3.9691
- Méthode de Gauss-Seidel :
Le système récursif pour la méthode de Gauss-Seidel s’écrit :
( k 1) 1 ( k )
x1 5 x2 x3 x4 4
(k ) (k )
10
x ( k 1) 1 x ( k 1) x ( k ) x ( k ) 12
2 1 3 4
5
x ( k 1) 1 x ( k 1) x ( k 1) x ( k ) 8
3 1 2 4
x1( k 1)
1 ( k 1)
x1 x2( k 1) x3( k 1) 34
10
81
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
0.9770
1.9905
La solution approchée est : xG
2.9894
3.9957
4/ Conclusion :
En comparant les résultats approximatifs des deux méthodes avec la valeur exacte de la
solution, on peut dire que la méthode de Gauss-Seidel est la plus précise que la méthode de
Jacobi.
Exercice 2 :
2 x1 10 x3 7
On a : 10 x1 x2 9
x 10 x 2 x 10
1 2 3
10 x1 x2 9
x1 10 x2 2 x3 10
2 x 10 x 7
1 3
Parce que :
82
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
1 0 10
1 2 10
2 0 10
2- Calcul les trois premières itérations en utilisant la méthode de Jacobi et de Gauss-Seidel :
- Méthode de Jacobi :
Le système récursif pour la méthode de Jacobi s’écrit :
( k 1) x2( k ) 9
x1 10
( k 1) x1( k ) 2 x3( k ) 10
x2
10
( k 1) 2 x1 7
(k )
x3
10
A partir de x(0)=(0, 0, 0)t, On obtient les trois itérations suivantes :
K x1( k ) x 2( k ) x 3( k )
0 0 0 0
1 0.9000 1.0000 0.7000
2 1.0000 1.2300 0.8800
3 1.0230 1.2760 0.9000
1.0230
La solution approchée est : x 1.2760
0.9000
- Méthode de Gauss-Seidel :
Le système récursif pour la méthode de Gauss-Seidel s’écrit :
( k 1) x2( k ) 9
x1 10
( k 1) x1( k 1) 2 x3( k ) 10
x2
10
( k 1) 2 x1 7
( k 1)
x3
10
(0) t
A partir de x =(0, 0, 0) , On obtient les trois itérations suivantes :
k x1( k ) x 2( k ) x 3( k )
0 0 0 0
1 0.9000 1.0900 0.8800
2 1.0090 1.2769 0.9018
3 1.0277 1.2831 0.9055
83
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires
1.0277
La solution approchée est : x 1.2831
0.9055
Exercice 3 :
0 1
A0 0
On a :
1 0
Une condition suffisante pour la convergence des méthodes de Jacobi et de Gauss-Seidel est
que A est à diagonale strictement dominante :
3
0 1
aij aii , j 1, 2, 3 0 0
i 1
1 0
j i
Exercice 4 :
On utilise la formule d’estimation d’erreur des approximations du processus itératif :
k
B
xx (k )
x (1) x (0)
1 B
Ce qui nous permet d’estimer le nombre suffisant d’itérations k pour approximer x avec la
précision ε=10 -2.
On obtient :
kJ 29, kG 20.
84
Bibliographie_____________________________________________
Bibliographie
[1] M. A. Aziz Alaoui et C. Bertelle, Méthode numériques appliquées : cours, exercices
corrigés et mise en œuvre en JAVA, Université Le Havre Normandie, 2002.
[2] K. E. Atkinson, An introduction to numerical analysis, 2nd ed., University of Iowa, John
Wiley Sons, 1989.
[5] F. Curtis., P.O. Gerald Wheatdey, Applied Numerical Analysis, Addison- Wesley Pub.
Compagny, 2003.
[8] J. F. Epperson, An introduction to numerical methods and analysis, 2nd ed., Math.
Reviews, John Wiley Sons, 2013.
[9] A. Boutayeb M. Derouich, Analyse numérique, Université Mohamed 1er Maroc, 2010-
2011.
[16] A. Fortin, Analyse numérique pour ingénieurs, 4ème ed., Presses internationales
Polytechnique, Université Laval 2011.
[17] M. Pierre et A. Henrot, Analyse Numérique, Ecole des Mines de Nancy, 2013-2014.
85