0% ont trouvé ce document utile (0 vote)
493 vues88 pages

Méthodes Numériques pour Licence ST

Transféré par

David David
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
493 vues88 pages

Méthodes Numériques pour Licence ST

Transféré par

David David
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L'ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE


SCIENTIFIQUE
UNIVERSITE TAHRI MOHAMED BECHAR
FACULTE DE TECHNOLOGIE
DEPARTEMENT DE GENIE-ELECTRIQUE

Méthodes numériques
(Cours et Exercices)

Réalisé par : Dr. Iftikhar Benchikh Lehocine

Destiné aux étudiants de 2ème année Licence ST

.
De science et technique

Année Universitaire 2020/ 2021

I
Sommaire________________________________________________________

Sommaire

Introduction Générale ................................................................................................................. 1


Chapitre 1: Méthodes de résolution des équations non linéaires
1.1 Introduction ..................................................................................................................... 2
1.2. Séparation des racines .................................................................................................... 2
1.3 Méthodes numériques ...................................................................................................... 3
1.3.1 Méthode de la Bissection (Dichotomie).................................................................... 3
1.3.2 Méthode du Point fixe (Approximations successives)............................................. 5
1.3.3 Méthode de Newton-Raphson (Tangentes) ............................................................. 7
1.4 Exercices ........................................................................................................................ 11
1.5 Corrigés des exercices .................................................................................................... 12
Chapitre 2: Interpolation polynomiale
2.1 Introduction ................................................................................................................... 20
2.2 Méthodes Numériques ................................................................................................... 20
2.2.1 Interpolation de Lagrange ....................................................................................... 20
2.2.2 Interpolation de Newton.......................................................................................... 22
2.3 Estimation de l’erreur d’interpolation ........................................................................... 27
2.4 Exercices ........................................................................................................................ 27
2.5 Corrigés des exercices ................................................................................................... 28
Chapitre 3: Intégration Numérique
3.1 Introduction ................................................................................................................... 33
3.2 Formule de quadrature de type interpolation ................................................................. 33
3.3 Formules de Newton-Cotes ........................................................................................... 34
3.3.1 Formule des rectangles (n = 0)................................................................................ 34
3.3.2 Formule des Trapèzes (n =1) .................................................................................. 37
3.3.3 Formule de Simpson (n = 2) ................................................................................... 39
3.4 Exercices ........................................................................................................................ 41
3.5 Corrigés des exercices ................................................................................................... 42
Chapitre 4: Résolution des équations différentielles ordinaires (Problème de Cauchy)
4.1 Introduction ................................................................................................................... 44
4.2 Méthodes numériques ................................................................................................... 45

I
Sommaire________________________________________________________

4.2.1 Principe générale ..................................................................................................... 45


4.2.2 Méthode d’Euler ..................................................................................................... 45
4.2.3 Méthode de Runge-Kutta ........................................................................................ 48
4.3 Exercices ........................................................................................................................ 51
4.4 Corrigés des exercices ................................................................................................... 52
Chapitre 5: Méthode de résolution directe des systèmes d’équations linéaires
5.1 Introduction ................................................................................................................... 54
5.2 Rappels sur les systèmes linéaires ................................................................................. 55
5.2.1 Méthode de Cramer ................................................................................................. 55
5.2.2 Méthode d’inversion de la matrice : ....................................................................... 55
5.3 Méthodes directes ......................................................................................................... 56
5.3.1 Méthode d'élimination de Gauss: ............................................................................ 56
5.3.2 Méthode de factorisation LU .................................................................................. 61
5.3.3 Méthode de factorisation de Choleski : .................................................................. 64
5.4 Exercices ........................................................................................................................ 67
5.5 Corrigés des exercices ................................................................................................... 68
Chapitre 6: Méthode de résolution approximative des systèmes d’équations linéaires
6.1 Introduction ................................................................................................................... 72
6.2 Principe des méthodes itératives.................................................................................... 72
6.3 Décomposition de la matrice A: .................................................................................... 72
6.4 Méthodes itératives ........................................................................................................ 73
6.4.1 Méthode de Jacobi .................................................................................................. 73
6.4.2 Méthode de Gauss-Seidel........................................................................................ 74
6.4.3 Méthode de relaxation............................................................................................. 74
6.5 Condition de convergence ............................................................................................. 75
6.6 Critère d’arrêt ................................................................................................................ 76
6.7 Exercices ........................................................................................................................ 78
6.8 Corrigés des exercices .................................................................................................. 79
Bibliographie ............................................................................................................................ 85

II
Introduction Générale______________________________________________

Introduction Générale
Les méthodes numériques sont des techniques d'approximation de procédures
mathématiques. Des approximations sont nécessaires car nous ne pouvons pas non plus
résoudre la procédure analytiquement. La plupart des problèmes mathématiques qui se posent
en sciences et en génie sont très difficiles et parfois impossible à résoudre exactement. Ainsi,
une approximation d'un problème mathématique difficile est très importante pour le rendre
plus facile à résoudre. En raison de l'immense développement de la technologie informatique,
l'approximation numérique est devenue plus populaire et un outil moderne pour les
scientifiques et les ingénieurs.
Les deux objectifs principaux de l’analyse numérique sont, d’une part, de pouvoir
résoudre numériquement des problèmes concrets dont on connaît ou pas la solution analytique
et d’autre part, d’analyser le comportement des méthodes utilisées (la rapidité de convergence
vers la solution approchée et la précision par rapport aux erreurs inhérentes au calcul
numérique).
Ce polycopié est rédigé pour les étudiants de deuxième année universitaire d’une Licence
des Sciences et Techniques. Il constitue un manuel de cours et d’exercices corrigés recouvre
le programme d’analyse numérique.
Ce polycopié est structuré en six chapitres comme suit :
Le premier chapitre mis en lumière les diverses techniques de résolution numérique des
équations non linéaire (la méthode de bissection, point fixe et Newton).
Dans le deuxième chapitre, le problème de l’interpolation polynomiale est traité par la
méthode de Lagrange et la méthode de Newton.
Les techniques d’intégration numérique sont présentées dans le troisième chapitre qui se
divise en deux parties: simple et composée. Les méthodes proposées sont: méthode des
rectangles, du trapèze et celle de Simpson.
Le quatrième chapitre est consacré à la résolution numérique des équations différentielles
ordinaires. Deux méthodes sont présentées à savoir, la méthode d’Euler et la méthode de
Runge-Kutta.
L’analyse numérique matricielle occupe les derniers chapitres (5 et 6). On présente tout
d’abord les techniques de résolution des systèmes linéaires par les trois grandes catégories de
méthodes classiques, à savoir les méthodes directes (méthode de Gauss, factorisation LU et
factorisation de Choleski), et les méthodes itératives (méthodes de Jacobi, de Gauss-Seidel, de
relaxation).
A la fin de chaque chapitre nous avons proposé des exercices avec quelques corrigés.

Une liste de références bibliographiques est donnée à la fin de ce manuscrit.

1
Chapitre 1 Méthodes de résolution des équations non linéaires

Méthodes de résolution des équations


non linéaires

1.1 Introduction
L’un des problèmes en mathématiques appliquées est de calculer les zéros d’une fonction f
(c’est-à-dire trouver les racines d’une équation f(x)=0). Dans certains cas bien particuliers,
comme pour les équations algébriques polynomiales à faible degré:
n 1
an x  an1 x  ...  a0 x  a0  0 , le problème est simple car il existe pour ces fonctions des
n

formules qui donnent les zéros explicitement. Toutefois, pour la plupart des fonctions f (les
polynômes de degré supérieur à 4 ou les équations transcendantes qui comprennent
trigonométriques, exponentielles et logarithmiques : an ln( x )  bn e x  cn cos( x )  ...  0 ), il n’est
pas possible de résoudre l’équation f(x)=0 explicitement et il faut recourir à des méthodes
numériques. Celles-ci se sont avérées très efficaces et très utilisées dans la pratique. Elles
permettent de calculer les zéros de f par approximations successives avec la précision désirée.
Dans ce chapitre, nous présentons plusieurs techniques de résolution des équations non
linéaires. Ces méthodes se distinguent par leurs principes et leurs vitesses de convergence.
Les méthodes proposées sont : méthode de la bissection, point fixe et Newton-Raphson.

1.2. Séparation des racines


Soit f(x) une fonction définie, continue et dérivable sur l’intervalle a, b . On cherche à
approcher numériquement les racines simples de l’équation : f ( x )  0.
La première étape consiste à séparer les racines, c’est à dire déterminer un intervalle fermé
et borné a, b dans lequel f admet une et une seule racine.
Pour trouver cet intervalle on peut :
_ Soit utiliser la méthode graphique : étudier les variations de f, tracer la courbe et situer la
solution d'où le choix de a, b .

_ Soit utiliser la méthode algébrique : en utilisant le théorème des valeurs intermédiaires.


Théorème des valeurs intermédiaires
Soit f une fonction définie et continue sur l’intervalle a, b .
–Si f (a ) . f (b)  0 , alors il existe au moins un réel   a, b tel que f(α)=0.
–Si de plus f(x) est monotone sur l’intervalle a, b , alors la solution α est unique.

2
Chapitre 1 Méthodes de résolution des équations non linéaires

1.3 Méthodes numériques


1.3.1 Méthode de la Bissection (Dichotomie)
La méthode de bissection est basée sur le théorème des valeurs intermédiaires. Soit f une
fonction continue et dérivable sur a, b satisfaisant les deux conditions suivantes :

1) f (a ) . f (b)  0 , alors f possède au moins une racine α sur l’intervalle a, b tel que f(α)=0.

2) f est monotone sur l’intervalle a, b , alors la racine α est unique sur a, b .

[Link] Principe de la méthode


Cette méthode qui permet de déterminer la racine de la fonction f(x) se base sur les
éliminations successives des domaines en suivant les étapes données ci-dessous :

1/ On divise l’intervalle a, b en deux parties égales a , x0  et x0 , b avec x0  a  b .


2
2/ On garde l’intervalle vérifiant la condition d’existence de racine, c'est-à-dire :

Si f (a) . f ( x0 )  0 le nouvel intervalle soit a , b   a , x0  sinon a, b   x0 , b  .


3/ On répète les étapes 1/ et 2/ jusqu’à ce que xi  xi 1   avec  un nombre positif très
petit (précision de convergence).

a x0 α

x2 x1 b x

Figure 1 : Principe de la méthode de Dichotomie.

[Link] Convergence et estimation de l’erreur


Pour montrer que la méthode de Bissection est convergente vers la solution unique de
l’équation f(x)=0 dans l’intervalle a, b , il faut que :

ba
L’estimation de l’erreur : xn    
2 n1

Cette relation permet de calculer le nombre max d’itérations nécessaires :

3
Chapitre 1 Méthodes de résolution des équations non linéaires

ba
log ( )
ba 
  n 1
2n 1 log 2

Exemple :
Calculer la racine au millième près de l’équation f ( x)  x3  4x  2  0 dans l’intervalle 0,1 .

Solution
La fonction est un polynôme donc continue sur l’intervalle 0,1 .

f (0)  2
  f (0). f (1)  0, Donc d’après le théorème des valeurs intermédiaires, il existe au
f (1)  3 
moins une racine   0,1 tel que f(α)=0.

De plus, f ' ( x)  3x  4  0, x  0,1 f ' ( x)  0  f  (f est monotone).


2

On déduit que la racine de f est unique.


Alors, on peut appliquer la méthode de bissection sur cet intervalle.
Pour calculer le nombre d’itérations nécessaire pour avoir la solution avec une précision
log (b  a )  log 2
  10 3 , on utilise la formule suivante: n 
log 2

On obtient :

log (1)  log 2.10 3  log 2.10 3


n n  8.96578 D’où n=9
log 2 log 2

Il faut effectuer 9 itérations pour avoir la racine approchée avec une précision   10 3 .

Application de la méthode de Dichotomie :

i ai xi bi f(ai) f(xi) f(bi) xi  x i 1


0 0 0.5 1 - + + /
1 0 0.25 0.5 - - + 0.25
2 0.25 0.375 0.5 - - + 0.125
3 0.375 0.4375 0.5 - - + 0.0625
4 0.4375 0.4687 0.5 - - + 0.0312
5 0.4687 0.4843 0.5 - + + 0.0156
6 0.4687 0.4765 0.4843 - + + 0.0078
7 0.4687 0.4726 0.4765 - - + 0.0039
8 0.4726 0.4745 0.4765 - + + 0.0019
9 0.4726 0.4735 0.4745 0.0009

4
Chapitre 1 Méthodes de résolution des équations non linéaires

On arrète les calculs jusqu’à ce que x9  x8  0.0009    0.001


Alors la racine approchée est :
  0 .4735

1.3.2 Méthode du Point fixe (Approximations successives)


Soit fxune fonction définie et continue sur l’intervalle a, b et possède une racine
  a, b . La méthode du point fixe permet de passer de la recherche de la racine de
f ( x )  0 sur a, b à la recherche du point fixe de la fonction gxtel que x  g (x ) .

En effet, les deux problèmes sont équivalents ( f ( x )  0  x  g (x ) 

[Link] Principe de la méthode


On remplace l'équation f ( x )  0 par une équation équivalente x  g (x ) où g est continue,
et on construit la suite récurrente définie par :

 x0  a, b 

 xn  g ( xn 1 )

Cette suite converge vers la solution α point fixe de g(x) et solution de l’équation f ( x )  0 .

[Link] Conditions de convergence et estimation de l’erreur


Soit g(x) une fonction définie et continue sur l’intervalle a, b telle que :

1/ g ( x )  a, b ,  x  a, b (condition de stabilité).

2/  k  IR , 0  k  1 tel que g ' ( x)  k  1, k  Max g ' ( x) (condition de contraction stricte).


a , b 

 x0  a, b 
Alors g(x) admet un point fixe unique dans I  a, b et la suite récurrente : 
 xn  g ( xn 1 )
converge vers le point fixe α.

kn
Et on a l’estimation de l’erreur suivante: xn    x1  x0
1 k

Cette relation permet de calculer le nombre d’itérations nécessaires à l’approximation de α :

kn
xn      x1  x0  
1 k

5
Chapitre 1 Méthodes de résolution des équations non linéaires

Donc

 (1  k )  
ln  

x  x
n   , k  Max g ' ( x )
1 0

ln(k ) a , b 

[Link] Interprétation géométrique


Chercher α tel que g(α)=(α) revient à chercher l'intersection du graphe de g (y=g(x)) avec
la droite y = x, c'est à dire à trouver le point fixe de g.
On voit clairement que la pente de la courbe y=g(x) dans le voisinage de la racine α est
faible c’est-à-dire g ' ( x)  1et on converge vers la solution unique α.

y y y=g(x) g’(x)<0
g’(x)>0

y=x
y=x

y=g(x)

x0 x1 x2 x3 α x x0 x2 α x3 x1 x

Figure 2 : Interprétation géométrique de la méthode du point fixe.

Exemple :
Calculer la racine approchée de l’équation f ( x)  x3  4x  2 qui appartient à 0,1 avec une
précision   10 3 .

Solution :
On écrit l’équation f ( x )  0 sous la forme x = g(x) et on vérifie les conditions de
convergence. On peut écrire :
2 2
f ( x )  0  x 3  4 x  2  0  x ( x 2  4)  2  x   g ( x)  2
x 42
x 4

6
Chapitre 1 Méthodes de résolution des équations non linéaires

Maintenant, on vérifie les conditions de convergence pour cette méthode.

Il faut prouver les deux points suivants :

a) Stabilité : g0,1  0,1?

La fonction g(x) est définie et continue sur 0,1 .

g (0)  0.5  0,1


  x  0,1, g0,1  0,1
g (1)  0.4  0,1 

b) g ' ( x)  k  1, x  0,1?

 4x 4
On a : g ' ( x)   0 , x  0,1  k  Max g ' ( x)  g ' (1)  1
(4  x )
2 0,1 25

 g ' ( x)  1, x  0,1

Les conditions a) et b) sont vérifiés donc la méthode du point fixe converge vers la solution
sur l’intervalle 0,1 .

Calcul la racine approchée :   10 3 , x0  0.5

i xi g(xi) xi  x i 1
0 0.5 0.47058 /
1 0.47058 0.47377 0.02941
2 0.47377 0.47343 0.00319
3 0.47343 0.47346 0.00034

On arrète les calculs jusqu’à ce que x3  x2  0.00034    0.001


Alors la racine approchée est :
  0 .47343

1.3.3 Méthode de Newton-Raphson (Tangentes)


[Link] Principe de la méthode
Cette méthode repose sur le théorème de Taylor (dévelppement de Taylor d’une fonction
au premier ordre). Soit la racine α de l’équation f(x)=0 séparée sur a, b . Si f(x) est continue et
continument dérivable dans le voisinage de α solution de f(x)=0, alors le développement en
série de Taylor autour d’un estimé xn proche de α s’écrit :
f ' ' ( xn )
f ( )  f ( xn )  f ' ( xn ) (  xn )  (  xn ) 2
2!

7
Chapitre 1 Méthodes de résolution des équations non linéaires

Et comme f ( )  0 , en supposant que f ' ( xn )  0 et gardant seulement les dérivées du 1er


ordre on aura :

f ( xn )
f ( xn )  f ' ( xn ) (  xn )  0    xn 
f ' ( xn )

Alors la formule de récurrence de Newton est donnée par :

f ( xn )
xn1  xn  , n  0,1, 2, ...
f ' ( xn )

Cette suite, si elle converge, elle doit converger vers la solution α de f(x)=0.

[Link] Conditions de convergence et estimation de l’erreur :


Théorème de Newton :
Soit f(x) une fonction de classe C2 sur l’intervalle a, b , telle que :

1) f (a ) . f (b)  0

2) f ' ( x)  0 ,  x  a, b

3) f '' ( x)  0 ,  x  a, b

f’(x) et f ‘’(x) sont non nulles et gardent des signes constants sur l’intervalle a, b .

Alors pour un choix de x0 : x0  a, b tel que f ( x0 ) . f '' ( x0 )  0 , la suite de Newton-Raphson:

f ( xn )
xn1  xn  , n  0,1, 2, ... converge vers l’unique solution de f(x)=0.
f ' ( xn )

Et on a l’estimation d’erreurs suivante :

M 2
xn    xn 1   , n  0
2m

Avec M  Max f ' ' ( x) , m  Min f ' ' ( x)


xa , b  xa , b 

[Link] Interprétation géométrique:


L’idée est de remplacer d’un petit arc de la courbe y=fxpar sa tangente menée par un
certains points de cette courbe.

8
Chapitre 1 Méthodes de résolution des équations non linéaires

y=f(x)

α
x2 x1 x0 x
Figure 3 : Interprétation géométrique de la méthode de Newton

A partir d'un point x0 bien choisi dans a, b , x1 est l'abscisse du point d'intersection de la
tangente de graphe de f au point (x0, f(x0)) avec l'axe des abscisses. D'où :

f ( x1 )  f ( x0 ) 0  f ( x0 )  f ( x0 ) f (x )
f ' ( x0 )     x1  x0  ' 0 ( si f ' ( x)  0 ).
x1  x0 x1  x0 x1  x0 f ( x0 )

En répétant le processus sur x1 on obtient un point x2, et ainsi de suite.

f ( xn )
Les points xn nIN vérifient donc la relation de récurrence : xn1  xn  , n  0,1, 2, ...
f ' ( xn )
C’est la formule de Newton-Raphson la plus utilisée dans la recherche des racines.

Exemple :
Trouver l’approximation de la valeur 10 par la méthode de Newton à une précision   10 5
près.
Solution :
On considère la fonction f qui possède 10 comme une solution définie par :

f ( x)  x 2  10

f ( 10 )  0  x  10  0 car x  10
On cherche à trouver l'intervalle a, b :
La racine carrée de 10 est d’environ trois, donc on peut utiliser l’intervalle [3, 4].
On a : a  10  b  3  3.162277  4
Vérifions maintenant les conditions du théorème de Newton sur l’intervalle [3, 4]:
1/ f ( x)  x 2  10 est de classe C2 sur l’intervalle [3, 4],

9
Chapitre 1 Méthodes de résolution des équations non linéaires

f (3)  1
  f (3). f (4)  0
f ( 4)  6 
2/ f ' ( x)  2x  0, x 3, 4, f ' ( x)  0
3/ f '' ( x)  2 ,  x  3, 4, f ' ' ( x)  0

La fonction f vérifie les conditions de convergence.

Le choix de x0 :

f ( 4)  6 
  f (4). f ' ' ( 4)  0
f ' ' (4)  2

Alors :

 x0  4

La suite de Newton-Raphson :  f ( xi ) xi2  10 converge vers la solution α.
x
 i 1  x i   x i 
 f ' ( xi ) 2 xi

Calcul de la solution approximative :

i xi f(xi) f’(xi) f ( xi )
f ' ( xi )

0 4 6 8 0.75

1 3.25 0.5625 6.5 0.086538

2 3.163462 0.007491 6,326924 0,001183

3 3.162279 0.000008 6,324558 0.000001

4 3.162278

On arrète les calculs jusqu’à ce que x4  x3  0.000001    0.00001


Alors la solution approchée obtenue par la méthode de Newton est :
  3 .162278

10
Chapitre 1 Méthodes de résolution des équations non linéaires

1.4 Exercices
Exercice 1:
1/ Séparer les racines réelles de l’équation suivante : x  x  1  0
4

2/ Déterminer par la méthode de Dichotomie une valeur approchée à 10-2 près de chacune de
ces solutions.
Exercice 2 :
1/Effectuer trois itérations de la méthode de la Bissection pour calculer la racine de l’équation
f (x) = 0 sur les intervalles indiqués pour les fonctions suivantes :

1. f ( x)  1  xe x dans l’intervalle [0, 1].

2. f ( x)  x 5  x  1 dans l’intervalle [0.9, 1.2].

3. f ( x)  ( x  1)2  1 e x dans l’intervalle 0, 1  .


2 
 2

2/Déterminer le nombre d’itérations nécessaires pour obtenir une solution dont le chiffre des
millièmes est significatif.
Exercice 3 :
3 2
On considère la fonction f ( x)  x  4 x  10 sur l'intervalle [1,2].

1/ Montrer qu’il existe un zéro  pour la fonction f(x) dans [1,2] et qu’il est unique.

2/ Il existe plusieurs façons pour écrire l’équation f(x)=0 sous la forme x=g(x) :
12
 10 
a / x  g1 ( x)  x  x3  4 x 2  10 et b / x  g 2 ( x)   
 4 x 

Quelle est parmi les deux fonctions x=gi(x), i=1,2, celles qui vérifient les conditions du
point fixe ?

Exercice 4 :
En utilisant la méthode du Point-fixe, calculer la racine des équations suivantes :

1/ f ( x)  x 3  x  1 [1,2],   10 2

2/ f ( x)  10 x  2 cos ( x) [0.2, 0.3],   10 2

3/ f ( x)  x 3  x  1000 [9, 10],   0.5 *105

11
Chapitre 1 Méthodes de résolution des équations non linéaires

Exercice 5 :
Soit la fonction f ( x )  x 3  2 x  1 définie sur R+.

1/ Etudier les variations de la fonction f (x).

2/ Déduire que l’équation f (x) = 0 admet une racine unique. Donner une suite de Newton qui
converge vers cette racine.

3/ Faire le calcul aux millièmes près.


Exercice 6 :
Trouver aux dix millième près la racine de chacune des équations suivantes avec la méthode
de Newton en partant du point x0 donné.
1/ f ( x)  x(1  e x )  e x avec x0 = 0.

2/ f ( x)  x 5  x  1 avec x0 = 0.9.

3/ f ( x)  x  0.8  0.2 sin x avec x0 =  et   105 .


4

Exercice 7 :
En utilisant les trois méthodes étudiées pour trouver une approximation de la valeur 3 25 .

1.5 Corrigés des exercices


Exercice 1:
1/ Séparation des racines :

On a f ( x )  x  x  1
4

En étudiant les variations de f :

f ( x)  x 4  x  1 est une fonction polynomiale donc elle est continue sur IR.
D  IR
lim f ( x )     lim f ( x )
x   x  

f ' ( x)  4 x3  1
f ' ( x )  0  x   1 4 1 3   0 .63

12
Chapitre 1 Méthodes de résolution des équations non linéaires

x   1 4 1 3

f’(x) - 0 +
 
f(x)

f  1 4
13

 1.47


D’après le tableau de variation f est continue, décroissante sur   ,  1 4 1 3 et croissante sur 
 1 4 
13

,  .

-3 -2 α1 -1 0 α2 1 2 3 x

D’après le graphe de f ( x )  x 4  x  1 , on conclut que f admet deux zéros (racines)


1   2,  1 et  2  0,1.

On remarque que f (2)  13  0 et f (1)  1  0 : f admet un zéro entre -2 et -1. De même


f (0)  1  0 et f (1)  1  0 donc l’autre zéro entre 0 et 1.

1 est unique dans  2,  1 car f(x) est monotone (strictement décroissante) et f (2). f (1)  0 .

 2 est unique dans 0,1 car f(x) est monotone (strictement croissante) et f (0). f (1)  0 .

D’où la séparation des racines.

2/ Calcul la valeur approchée des solutions par la méthode de Dichotomie :

13
Chapitre 1 Méthodes de résolution des équations non linéaires

On applique la méthode de Dichotomie avec   102 . On prend 3 ou 4 chiffres après la


virgule et le nombre d’itérations n est calculé par la formule :

log (b  a)  log 2  log 2.10 2


n   5.64  n  6
log 2 log 2

i ai xi bi f(ai) f(xi) f(bi) xi  x i 1


0 -2 -1.5 -1 + + - /
1 -1.5 -1.25 -1 + + - 0.25
2 -1.25 -1.125 -1 + - - 0.125
3 -1.25 -1.1875 -1.125 + - - 0.0625
4 -1.25 -1.2187 -1.1875 + - - 0.0312
5 -1.25 -1.2343 -1.2187 + + - 0.0156
6 -1.2343 -1.2265 -1.2187 + + - 0.0078

On arrète les calculs jusqu’à ce que x6  x5  0.0078    0.01


Alors la racine approchée est :
1  1.2265
On peut écrire : 1  1.2265  0.0100
De même, on trouve l’autre zéro  2 :  2  0.7265
 2  0.7265  0.0100

Exercice 2 :
1/ Calcul trois itérations de la méthode de la Bissection :

1. f ( x)  1  xe x , [0, 1]

La fonction f est un polynôme, donc elle est continue sur IR et donc sur l’intervalle [0, 1].
f (0)  1, f (1)  1  e  f (0). f (1)  0  il existe au moins une racine dans l’intervalle [0, 1].

De plus, f ' ( x)  e x (1  x)  0,  x  0,1  f 

f(x) est monotone   est unique.

Le tableau suivant rassemble les trois premières itérations :


i ai xi bi f(ai) f(xi) f(bi) xi  x i 1
0 0 0.5 1 + + - /
1 0.5 0.75 1 + - - 0.25
2 0.5 0.625 0.75 + - - 0.125
3 0.5 0.5625 0.625 + + - 0.0625

14
Chapitre 1 Méthodes de résolution des équations non linéaires

2/ Calcul le nombre d’itérations n avec   103

log (b  a)  log 2  log 2.10 3


n   8.9  n  9
log 2 log 2

2. f ( x)  x 5  x  1  n  8

3. f ( x)  ( x  1) 2  1 e x  n  8
2

Exercice 3 :

On a : f ( x)  x3  4x 2 10
1/ L’existence et l’unicité d’un zéro α dans l’intervalle [1,2]:
f est continue sur [1,2]. 
    1, 2, f ( )  0
f (1)  5, f (2)  14  f (1). f (2)  0

De plus, f ' ( x)  3x 2  4  0,  x  1, 2  f 

f(x) est monotone   est unique.

2/ Vérification des conditions du point fixe :

a / f ( x)  0  x  x  x 3  4 x 2  10  0
  x   x  x 3  4 x 2  10
 x  x  x 3  4 x 2  10  g1 ( x)
x  g1 ( x) est un point fixe, il faut vérifier les deux points suivants :

1) Stabilité : g(I)  I



2) g' (x)  k < 1 ,  x  I

1) g1 (1,2)  1,2?

g1 ( x) est bien définie et continue sur I= [1,2].

g1 (1)  6  1,2


  g1 (1,2)  1,2  g1 ( x) n’est pas stable.
g1 (2)  -12  1,2

2) g' (x)  k < 1 ,  x  1,2?

Ou k  Max g' (x) pour x  1,2

g'1 (x)  1 - 3x 2  8 x  0,  x  1,2 g1 ( x) est décroissante.

15
Chapitre 1 Méthodes de résolution des équations non linéaires

g' (2)  g' (x)  g' (1)  27  g' (x)  10  1 g1 (x) n’est pas contractante.

Alors g1(x) ne vérifie pas les conditions du Point fixe.

b / f ( x )  0  x 3  4 x 2  10  0  x 2 ( x  4)  10
10
 x2 
x4
1
 10  2
 x   g 2 ( x)
 x4
x  g2 ( x) est un point fixe, il faut vérifier les deux points suivants :

1) Stabilité : g(I)  I



2) g' (x)  k < 1 ,  x  I

1) g 2 (1,2)  1,2?

g2 ( x) est bien définie et continue sur I= [1,2].

g 2 (1)  2  1.41 1,2



 5  g(1,2)  1,2  g 2 ( x) est stable.
g 2 (2)   1.29  1,2
 3

2) g' (x)  k < 1 ,  x  1,2?

Ou k  Max g' (x) pour x  1,2

5 5
g'2 (x)    0,  x  1,2 g 2 ( x) est décroissante.
10 4  x 
32
10
4  x 2
4 x

g' (2)  g' (x)  g' (1)  0.10  g' (x)  0.14

k  Max g'2 (x)  g'2 (1)  0.14  1  g 2 (x) est contractante.

Alors, g2(x) vérifie les conditions du Point fixe.

Exercice 4 :
On écrit les équations f ( x )  0 sous la forme x = g(x) et on vérifie les conditions de
convergence.

1/ f ( x)  x 3  x  1 , [1,2],   10 2

16
Chapitre 1 Méthodes de résolution des équations non linéaires

On peut écrire:

f ( x)  0  x 3  x  1  0  x 3  x  1
 x  3 x  1  g ( x)
x  g (x) est un point fixe, il faut vérifier les deux points suivants :

1/ Stabilité : g(I)  I



2 / g' (x)  k < 1 ,  x  I
1) g(1,2)  1,2?

g (x) est bien définie et continue sur I= [1,2].

g(1)  1.26  1,2


  g(1,2)  1,2  g ( x) est stable.
g(2)  1.44  1,2

2) g' (x)  k < 1 ,  x  1,2?

Ou k  Max g' (x) pour x  1,2

1
g' (x)   0,  x  1,2 g ( x) est croissante.
3 3
( x  1) 2

g' (2)  g' (x)  g' (1)  0.16  g' (x)  0.21

k  Max g' (x)  g' (1)  0.21  1  g(x) est contractante.

Les conditions sont vérifiées donc la méthode du point fixe converge.


La suite est définie par la formule récursive suivante :

x n  g ( x k 1 )  3 x k 1  1

Calcul la solution approximative :   102 , x0  1.5


I xi g(xi) xi  x i 1
0 1.5 1.357 /
1 1.357 1.331 0.143
2 1.331 1.326 0.019
3 1.326 1.324 0.005

La solution approchée est :   1.326


2/ f ( x)  10 x  2 cos ( x)    0.283
3/ f ( x)  x 3  x  1000    9.9667
17
Chapitre 1 Méthodes de résolution des équations non linéaires

Exercice 5 :
1/ Les variations de f :
On a : f ( x )  x 3  2 x  1
D  IR 
lim f ( x )    , lim f ( x )  
x   x  

1
f ' ( x)  3x 2 
2x
2

f ' ( x)  0  x   1 5
   0.56
3 2 
x 0 0.56 
f’(x) - 0 +

-1 
f(x)

f 0.56 
 1.88


 
2
D’après le tableau de variation f est continue, décroissante sur 0, 1 3 2 5  et croissante sur
 

  2

 1 3 2 ,   .
5

 
2/ On remarque que l’équation f(x)=0 n’admet pas de zéro sur l’intervalle  0, 1 3 2

 25
 mais




sur  1 3 2 
25
,    elle est continue, change de signe et monotone alors f(x) a une solution

unique.

On peut localiser encore plus cette solution :

f (1)   2 
  f (1). f ( 2)  0
f ( 2)  5 

On peut donc remplacer  1 3 2



 
25
,    par l’intervalle [1, 2].

1
f ' ( x)  3x 2   0 ,  x  1, 2
2x
1
f ' ' ( x)  6 x   0 ,  x  1, 2 
2 x 3 2

18
Chapitre 1 Méthodes de résolution des équations non linéaires

f ( 2)  0 
On a   f (2). f ' ' ( 2)  0
f ' ' ( 2)  0 
 x0  2
Alors la suite de Newton  f ( xi ) converge vers la solution unique.
 x i 1  x i 
 f ' ( xi )

3/ Calcul de la solution approximative :

i xi f(xi) f’(xi) f ( xi )
f ' ( xi )

0 2 5 11.5 0.4347

1 1.5652 1.0653 6.7845 0.1570

2 1.4081 0.1142 5.3531 0.0213

3 1.3868 0.0019 5.1696 0.0003

4 1.3864

On arrète les calculs jusqu’à ce que x4  x3  0.0004    0.001


Alors la solution approchée est :   1 .3864

Exercice 6 :

1/ f ( x)  x(1  e x )  e x , x0 = 0    0.6590

2/ f ( x)  x 5  x  1 , x0 = 0.9    1.1673

3/ f ( x )  x  0.8  0.2 sin x, x0 =     0.964334


4

Exercice 7 :

On définit la fonction f qui possède 3


25 comme une solution c’est-à-dire : f (3 25 )  0
f ( 3 25 )  0  x 3  25  0 car x  3 25

Alors la fonction est définie par f ( x)  x 3  25

On cherche à trouver l'intervalle a, b :


x  3 25  2.924

On a : a  3 25  b  2  2.924  3. Donc on peut utiliser l’intervalle [3, 4].


On applique les trois méthodes étudiées pour trouver une approximation de la valeur 3 25 à
une précision   10 2.

19
Chapitre 2 Interpolation polynomiale

Interpolation polynomiale

2.1 Introduction
Dans ce chapitre, on dispose d'une fonction f connue uniquement par ses valeurs en
certains points, et on cherche à approcher f par une fonction polynôme. Le problème de
l’interpolation polynomiale consiste à trouver un polynôme de degré inférieur ou égal à n dont
la courbe passe par les n + 1 points donnés.
Supposons par exemple que nous connaissons les valeurs d’une fonction 𝑓 en un nombre
fini de points distincts x0, x1,…, xn de l'intervalle [a, b] selon le tableau suivant :
xi x0 x1 … xn
f(xi) f(x0) f( x1) … f( xn)

Pour estimer la valeur de f en un point quelconque x  IR , on peut construire un polynôme


P de degré inférieur ou égal à 𝑛 tel que :

P( xi )  f ( xi ) pour i  0,1, 2, ....n et utiliser l’approximation P ( x)  f ( x) .


C’est ce qu’on appelle Interpolation polynomiale : interpolation de la fonction f par le
polynôme Pn(x) aux points x0, x1,…, xn.

Les points x0, x1,…, xn sont appelés points d'interpolation (nœuds).

2.2 Méthodes Numériques


2.2.1 Interpolation de Lagrange
[Link] Théorème et définition
Soient n+1 points distincts x0, x1,…, xn de l'intervalle [a, b] et et f une fonction dont les
valeurs sont f(x0), f(x1), … … , f(xn), il existe un unique polynôme Pn de degré inférieur ou
égal à n tel que :
f ( xi )  Pn ( xi ) pour i  0, 1, 2, .... n
Le polynôme s'écrit :
n
Pn ( x)   f ( xi ) Li ( x)  f ( x0 ) L0 ( x)  f ( x1 ) L1 ( x)  ....  f ( xn ) Ln ( x)
i 0

avec yi  f ( xi )


20
Chapitre 2 Interpolation polynomiale

n (x  x j ) ( x  x0 )( x  x1 )....(x  xi 1 )( x  xi 1 )....(x  xn )
Li ( x)  
j 0, j i ( xi  x j )

( xi  x0 )( xi  x1 )....(xi  xi 1 )( xi  xi 1 )....(x i  xn )

Le polynôme Pn est appelé polynôme d'interpolation de Lagrange de la fonction f aux points


x0, x1,…, xn.
Les polynômes Li(x) sont appelés coefficients polynômes de Lagrange.

[Link] Quelques exemples simples


- Polynôme de degré 1 (n = 1) :
Le polynôme de Lagrange, passant par 2 points, est une droite.

P1 ( x)  f 0 L0 ( x)  f1 L1 ( x) P1(x)
f1
( x  x1 ) ( x  x0 )
 f0  f1
( x0  x1 ) ( x1  x0 )
f0
Ce qui s’écrit encore :

( y1  y0 )
P1 ( x)  ( x  x0 )  y 0 x0 x1
( x1  x0 )

- Polynôme de degré 2 (n = 2) :
Le polynôme de Lagrange, passant par 3 points, est une f
2

parabole. P2(x)
f1
P2 ( x)  f 0 L0 ( x)  f1 L1 ( x)  f 2 L2 ( x) f0

( x  x1 )( x  x2 ) ( x  x0 )( x  x2 )
 f0  f1 x0 x1 x2
( x0  x1 )( x0  x2 ) ( x1  x0 )( x1  x2 )
( x  x0 )( x  x1 )
 f2
( x2  x0 )( x2  x1 )

Exemple :
Déterminer le polynôme d’interpolation de Lagrange satisfaisant au tableau ci-dessous :

xi x0 =0 x1=1 x2=2 x3=3


f(xi ) f0=-4 f1=-2 f2=2 f3=14

21
Chapitre 2 Interpolation polynomiale

Solution :
Dans ce cas on a 4 points, donc le polynôme de degré inférieur ou égal à 3.

Le polynôme d’interpolation de Lagrange est :


3
P3 ( x)   f ( xi ) Li ( x)  f ( x0 ) L0 ( x)  f ( x1 ) L1 ( x)  f ( x2 ) L2 ( x)  f ( x3 ) L3 ( x)
i 0
On calcul les coefficients polynômes de Lagrange :
( x  x1 )( x  x2 )( x  x3 ) ( x  1)( x  2)( x  3) 1
L0 ( x)     ( x 3  6 x 2  11x  6)
( x0  x1 )( x0  x2 )( x0  x3 ) (0  1)(0  2)(0  3) 6
( x  x0 )( x  x2 )( x  x3 ) ( x  0)( x  2)( x  3) 1 3
L1 ( x)    ( x  5 x 2  6 x)
( x1  x0 )( x1  x2 )( x1  x3 ) (1  0)(1  2)(1  3) 2
( x  x0 )( x  x1 )( x  x3 ) ( x  0)( x  1)( x  3) 1
L2 ( x)     ( x3  4 x 2  3x)
( x2  x0 )( x2  x1 )( x2  x3 ) (2  0)(2  1)(2  3) 2
( x  x0 )( x  x1 )( x  x2 ) ( x  0)(x  1)( x  2) 1 3
L3 ( x)    ( x  3x 2  2 x )
( x3  x0 )( x3  x1 )( x3  x2 ) (3  0)(3  1)(3  2) 6
Finalement on remplace les coefficients polynômes et on obtient :
 1  1   1 
P3 ( x)  ( 4)  ( x 3  6 x 2  11x  6)   (2) ( x 3  5 x 2  6 x)   2  ( x 3  4 x 2  3 x) 
 6  2   2 
1 
 14 ( x 3  3 x 2  2 x) 
6 

P3 ( x)  x 3  2 x 2  3x  4

2.2.2 Interpolation de Newton


[Link] Différences divisées d’une fonction
Forme générale :
La forme de Newton du polynôme d’interpolation est :
Pn ( x)  a0  a1 ( x  x0 )  a2 ( x  x0 )( x  x1 )  ....  an ( x  x0 )( x  x1 )....( x  xn1 )
Où Pn est le polynôme de degré inférieur ou égal à n qui interpole f aux points x0, x1,…, xn.
Les coefficients an seront trouvés en utilisant des différences divisées d’ordre n de la fonction
f.

Pn ( x0 )  a0  f ( x0 )
f ( x1 )  f ( x0 )
Pn ( x1 )  a0  a1 ( x1  x0 )  f ( x0 )  a1 ( x1  x0 )  f ( x1 )  a1 
x1  x0

On procède de la même manière jusqu’à l’obtention de an.

22
Chapitre 2 Interpolation polynomiale

Définition 2.1:
Soit une fonction définie sur [a, b] et x0, x1,…, xn (n+1) points de [a, b] distincts. On
appelle différences divisées d’ordre k de f les relations de récurrences suivantes :

- d’ordre 0 : f xi   f ( xi )
f ( xi 1 )  f ( xi )
- d’ordre 1 : f xi , xi 1  
xi 1  xi
f xi 1 , xi  2   f xi , xi 1 
- d’ordre 2 : f xi , xi 1 , xi  2  
xi  2  x i

f xi 1 , xi  k   f xi , xi  k 1 
- d’ordre k : f xi , xi 1 ,..., xi  k  
xi  k  xi
D’après cette définition on a :
a 0  f x 0   f ( x 0 )

a1  f x 0 , x1   f ( x1 )  f ( x0 )
 x1  x0

 f ( x 2 )  f ( x1 ) f ( x1 )  f ( x 0 )

 f x1 , x 2   f x0 , x1  x 2  x1 x1  x 0
a 2  f x 0 , x1 , x 2   
 x2  x0 x2  x0
 

a n  f x 0 , x1 ,..., x n 




Ces coefficients an sont les différences divisées d’ordre n de la fonction f.

Théorème 2.1:
Le polynôme d’interpolation Pn(x) de degré inférieur ou égal à n passant par les points (xi ,
f(xi)), i=0,1,.., n peut s’écrire:

Pn ( x)  f ( x0 )  f x0 , x1 ( x  x0 )  f x0 , x1 , x 2 ( x  x0 )( x  x1 )  .... 


 f x0 , x1 ,..., xn ( x  x0 )( x  x1 )....( x  x n1 )
Ce polynôme d’interpolation est appelé forme de Newton du polynôme d’interpolation par les
différences divisées.

Calcul des différences divisées :


Le tableau des différences divisées permet de calculer les différences divisées d'une fonction
selon le schéma suivant :

23
Chapitre 2 Interpolation polynomiale

xi f xi  f xi , xi 1  f xi , xi 1 , xi  2  … f xi ,..., xi  n 

x0 f x0 
f x0 , x1 
x1 f x1  f x0 , x1 , x2 
f x1 , x2  …
f x0 , x1 ,..., xn 
x2 f x2  …
...

… … f xn  2 , xn 1 , xn 
f xn 1 , xn 
xn f xn 

Exemple :
Trouver le polynôme d’interpolation de Newton qui passe par les points suivants (0,1), (2,5)
et (4,17).
Solution:
On a 3 points, donc le degré du polynôme est 2.

Le polynôme d’interpolation de Newton est :


P2 ( x)  f ( x0 )  f x0 , x1 ( x  x0 )  f x0 , x1 , x2 ( x  x0 )( x  x1 )

On construit le tableau des différences divisées de f :

xi f xi  f xi , xi 1  f xi , xi 1 , xi  2 


x0  0 f x0   1
5 1
f x0 , x1   2
20
x1  2 f x1   5 62
f x0 , x1 , x2   1
17  5 40
f x1 , x2   6
42

f x2   17
x2  4

On obtient :

P2 ( x )  1  2 x  x ( x  2)

P2 ( x)  1  x 2

24
Chapitre 2 Interpolation polynomiale

[Link] Différences finies progressives (cas des points équidistants)


Dans ce cas les points d’interpolation sont en progression arithmétiques, i.e. :
x0 , x1  x0  h, x2  x0  2h, ...., xn  x0  nh, h0

Définition 2.2:
Soient f ( xi )  yi pour i=0, 1, …, n des nombres réels. On appelle différences finies
d’ordre k de f les relations de récurrences suivantes :

- d’ordre 1 :  f ( xi )  f ( xi 1 )  f ( xi ) pour i  0,1, ....., n  1


d’ordre 2 :  f ( xi )   f ( xi 1 )   f ( xi ) pour i  0,1, ....., n  2
2
-

k 1
- d’ordre k :  f ( xi )  
k
f ( xi 1 )  k 1 f ( xi ) pour i  0,1, ....., n  k

Convention  f ( xi )  f ( xi ) , pour i  0,1, ....., n


0

Table des différences finies progressives :


xi f ( xi )  f ( xi ) 2 f ( xi ) 3 f ( xi ) …
n f ( xi )

x0 f ( x0 )
 f ( x0 )
x1 f ( x1 ) 2 f ( x0 )
 f ( x1 ) 3 f ( x0 )

x2 f ( x2 ) 2 f ( x1 )
… n f ( x0 )
 f ( x2 )

x3 f ( x3 ) …
... 3 f ( xn  3 )

… … 2 f ( xn2 )
 f ( xn 1 )
xn f ( xn )

Relation entre les différences finies progressives et les différences


divisées :
Théorème 2.2:
Soit f une fonction dont on connait les valeurs f ( xi )  yi , i=0, 1, …, n, avec
xi  xi 1  ih, h  0 . Alors :
25
Chapitre 2 Interpolation polynomiale

k ( f ( xi ))
f xi , xi 1 , ...., xi  k   pour 0  i  i  k  n
h k k!
Où f xi , xi 1 , ...., xi  k  est la différence divisée d’ordre k de f aux points xi , xi 1 , ...., xi  k et
k ( f ( xi )) est la différence finie d’ordre k au point f ( xi ) .

Polynôme d’interpolation de Newton par les différences finies :


Théorème 2.3:
Soient x0, x1,…, xn points équidistants. Le polynôme d’interpolation Pn(x) de degré
inférieur ou égal à n passant par ces points peut s’écrire:
 f ( x0 ) 2 f ( x0 )
Pn ( x)  f ( x0 )  ( x  x0 )  ( x  x0 )( x  x1 )  .... 
1!h 2 !h 2
n f ( x0 )
 ( x  x0 )( x  x1 )....( x  x n1 )
n !h n
Ce polynôme d’interpolation est appelé forme de Newton du polynôme d’interpolation par les
différences finies.
Exemple :
Trouver le polynôme d’interpolation de Newton passant par les points suivants :
xi 0 2 4
f(xi) 1 5 17
Solution :
On a 3 points, donc le degré de polynôme est n=2.

On remarque que les points donnés sont équidistants avec le pas d'interpolation h =2, alors
sous la forme de Newton par les différences finies, le polynôme d'interpolation de f est donné
par :
 f ( x0 ) 2 f ( x0 )
P2 ( x)  f ( x0 )  ( x  x0 )  ( x  x0 )( x  x1 )
1!h 2 !h 2
Où : h  x1  x0  x2  x1  2

Le calcul des différences finies se fait comme suit :

xi f ( xi )  f ( xi ) 2 f ( xi )
x0  0 f ( x0 )  1
 f ( x0 )  5  1  4
x1  2 f ( x1 )  5 2 f ( x0 )  12  4  8
 f ( x1 )  17  5  12
x2  4 f ( x2 )  17

26
Chapitre 2 Interpolation polynomiale

D'où,

P2 ( x )  1  2 x  x ( x  2)

P2 ( x)  1  x 2

2.3 Estimation de l’erreur d’interpolation


Soit f : a , b   IR de classe C . Notons Pn son polynôme d’interpolation aux nœuds x0,
n 1

x1,…, xn dans a, b  . Alors pour tout x  a , b  , il existe c  a, b  tel que :

f n 1 (c) n M n
E n ( x)  f ( x)  Pn ( x)   ( x  xi )  (n  1)! 
( n  1)! i 0 i 0
( x  xi )

n 1
Où M  sup f ( x)
xa ,b 

2.4 Exercices
Exercice 1:
Soit les points d’interpolation suivants : (0,1), (1,3), (2,7).

1/ Quel est le degré n du polynôme d’interpolation P ?


2/ Trouver le polynôme d’interpolation passant par les trois points :
a/ Par une méthode d’identification.
b/ à l’aide des polynômes de Lagrange.
Exercice 2 :
1
Soit la fonction f ( x) 
x 1
1/ Déterminer le polynôme de degré 2 qui interpole la fonction f (x) en x0  0, x1  1, x2  3

2/ Estimer la valeur de f(1.5) en utilisant le polynôme trouvé en (a).

3/ Donner une borne supérieure de l’erreur commise.


Exercice 3 :
Les valeurs d’une fonction f (x) pour trois valeurs de x sont données par :
X 3.5 4.0 4.5

f (x ) 0.9086 1.0000 1.0772

27
Chapitre 2 Interpolation polynomiale

1/ Donner une approximation de f (3.6) par interpolation linéaire de Newton.


5
1 4 3
2/ On suppose que f ' ' ( x )    sur l’intervalle [3.5, 4]. Estimer l’erreur de
18  3 
l’approximation.

Exercice 4 :
On considère la table de différences divisées suivante:

xi f xi  f xi , xi 1  f xi , xi 1 , xi  2  f xi ,..., xi3 

1 .9 0.94630
 0.127975
1 .5 0.99749 ?
 0.314725 ?
2 .3 0.74571 ?
 0.795824
2. 7 0.42738

1/ Compléter la table.

2/ En vous servant de la table de différences divisées, calculer une approximation de f (1.8)


en utilisant le polynôme de Newton passant par les 3 premiers points.

3/ Sachant que f ( x)  sin ( x) , calculer une borne supérieure de la valeur absolue de l’erreur
d’interpolation en x  1.8 .

4/ Quel polynôme est le plus précis, celui trouvé en (2), où le polynôme de Lagrange passant
par f(x) en x  1.5, 1.9 et 2.3 ? Justifier votre réponse.

2.5 Corrigés des exercices


Exercice 1:
1/ Le degré n du polynôme d’interpolation P :

On a : n = Nombre des points d’interpolation - 1= 3 - 1= 2

2/ Le polynôme d’interpolation passant par les trois points :

a/ Le polynôme d’interpolation du deuxième degré qui passe par les trois points de
coordonnées (x0, y0), (x1, y1) et (x2, y2) est de la forme :
P ( x)  a x 2  b x  c

28
Chapitre 2 Interpolation polynomiale

Pour déterminer les coefficients a, b, c, il faut le polynôme P interpole f en ces points,

On a donc à résoudre le système suivant :

P(0)  1 a  1
  b  c  2 (1)
P(1)  3  a  b  c  3  
P(2)  7 a  2b  4c  7 2b  4c  6 (2)
 

On multiplie (1) par 2 et qu’on soustraie à (2), on a :


2b  4c  2b  2c  2c  6  4  2

On obtient : c=1 et b=1.

Alors le polynôme P qui interpole f aux points f(0)=1, f(1)=3 et f(2)=7 est :
P ( x)  x 2  x  1

b/ Le polynôme d’interpolation à l’aide des polynômes de Lagrange :

Le polynôme d’interpolation de Lagrange est :


n
Pn ( x )   f ( x i ) Li ( x ) avec n=2.
i 0
2
P2 ( x )   f ( xi ) Li ( x )  f ( x0 ) L0 ( x )  f ( x1 ) L1 ( x )  f ( x2 ) L2 ( x )
i0

( x  x1 )( x  x2 ) ( x  x0 )( x  x2 ) ( x  x0 )( x  x1 )
 f ( x0 )  f ( x1 )  f ( x2 )
( x0  x1 )( x0  x2 ) ( x1  x0 )( x1  x2 ) ( x2  x0 )( x2  x1 )
( x  1)( x  2) ( x  0)( x  2) ( x  0)( x  1)
 (1)  (3)  (7 )
(0  1)(0  2) (1  0)(1  2) ( 2  0)( 2  1)
1 7
 ( x  1)( x  2)  3 x( x  2)  x( x  1)
2 2
P2 ( x )  x 2  x  1

Exercice 2:
1
On remplace les valeurs de x0, x1, x2 dans la fonction f ( x)  , on trouve :
x 1
xi 0 2 4
f(xi) 1 0.5 0.25

1/ Le polynôme d’interpolation de Lagrange est :


n
Pn ( x )   f ( x i ) Li ( x ) avec n=2.
i 0

29
Chapitre 2 Interpolation polynomiale

2
P2 ( x )   f ( xi ) Li ( x )  f ( x0 ) L0 ( x )  f ( x1 ) L1 ( x )  f ( x2 ) L2 ( x )
i0

( x  x1 )( x  x2 ) ( x  x0 )( x  x2 ) ( x  x0 )( x  x1 )
 f ( x0 )  f ( x1 )  f ( x2 )
( x0  x1 )( x0  x2 ) ( x1  x0 )( x1  x2 ) ( x2  x0 )( x2  x1 )
( x  1)( x  3) ( x  0)( x  3) ( x  0)( x  1)
 (1)  (0.5)  (0.25)
(0  1)(0  3) (1  0)(1  3) (3  0)(3  1)
1 1 1
 ( x  1)( x  3)  x ( x  3)  x ( x  1)
3 4 24
P2 ( x )  0.125 x 2  0.625 x  1
2/ Approximation de f (1.5) :
En utilisant le polynôme de Lagrange, on trouve :

f (1.5)  P2 (1.5)  0.344


3/ Calcul de l’erreur maximale :
n
En ( x)  f ( x)  Pn ( x)  E Max ( x) avec E Max ( x )  M
 ( x  xi ) ou M  Max
( n  1)! i 0 xa ,b 
f n 1 ( x)

On a :

1
f ( x) 
x  1 et n=2

1 2 6
f ' ( x)   , f ( 2) ( x )  , f ( 3) ( x )  
( x  1) 2
( x  1) 3
( x  1) 4

6 6
M  Max f (3) ( x)  Max   6
x0 , 3 x0 , 3  ( x  1) 4
(0  1) 4

D'où,

2
M 6
E Max ( x)   ( x  xi )  x( x  1)( x  2) , x  0, 3
( n  1)! i 0 3* 2

Pour x=1.5, E Max (1 .5)  1 .5(1 .5  1)(1 .5  3)

EMax (1.5)  1.125

Exercice 3 :
1/ L’approximation de f (3.6) par interpolation de Newton :

Puisque 3.5 < 3.6 < 4, on peut choisir de faire une interpolation entre les deux points
d’abscisses x0 = 3.5 et x1 = 4.0 qui sont les plus proches pour minimiser l’erreur.

30
Chapitre 2 Interpolation polynomiale

La table des différences divisées de ces points :

xi f xi  f xi , xi 1 

x0  3.5 f x0   0.9086


1.000  0.9086
f x0 , x1  
x1  4.0 4.0  3.5
f x1   1.0000  0.1828

Le polynôme d’interpolation de Newton qui passe par ces deux points est:

P1 ( x)  f ( x0 )  f x0 , x1 ( x  x0 )

P1 ( x )  0.9086  0.1828 ( x  3.5)

P1 ( x )  0.1828 x  0.2688

L’approximation de f (3.6) est :

f (3.6)  P1 (3.6)  0.9268

2/ Estimation de l’erreur d’approximation :

2
M
On a : E1 ( x ) 
2!
 (x  x )
i 0
i Où M  sup f ( 2) ( x)
x3.5, 4 

M
 E1 ( x )  ( x  3.5)( x  4)
2!
5 5
1  4 3
1 4 3

Puisque : f ' ' ( x)    M  


18  3  18  3 

On déduit :
5
1 4 3
 
18  3 
E1 ( x )  ( x  3.5)( x  4)
2!

Pour x=3.6, on obtient :

31
Chapitre 2 Interpolation polynomiale

5
1 4 3
 
18  3 
E1 (3.6)  (3.6  3.5)(3.6  4)  0.18  10 2
2!

Exercice 4 :
1/ On obtient la table de différences divisées suivante:

xi f xi  f xi , xi 1  f xi , xi 1 , xi  2  f xi ,..., xi3 

1 .9 0.94630
 0.127975
1 .5 0.99749 -0.466875
 0.314725 0.082448
2 .3 0.74571 -0.400917
 0.795824
2. 7 0.42738

2/ f (1.8)  P2 (1.8)  0.973104

cos (2.3)
3/ E2 (1.8)  (1.8  1.9)(1.8  1.5)(1.8  2.3)
3!

 E2 (1.8)  0.123672 102

4/ On obtient le même résultat car le polynôme de degré 2 qui passe par les points d’abscisses
x=1.5, 1.9 et 2.3 est unique.

32
Chapitre 3 Intégration Numérique

Intégration Numérique

3.1 Introduction
On veut évaluer l'intégrale d'une fonction f sur un intervalle a, b . Si l'on connait sa
b
primitive F, on peut calculer directement I : I ( f )   f ( x) dx  F (b)  F (a)
a

Mais dans de nombreux cas, la fonction f ne dispose pas d’expression analytique pour sa
primitive où elle est trop compliquée (problème physique).
b b b b
1 1
e    log x dx
 x2
Exemples : dx , 1  cos x dx ,
2
dx ,
a a a 1  sin x a

Pour cette raison, on fait appel à des méthodes numériques, afin de calculer une
approximation de l’intégrale I ( f ) . Dans ces méthodes d'intégration, l'intégrale d'une fonction
continue sur un intervalle borné a, b est remplacée par une somme finie. Dans ce chapitre, on
va étudier quelques méthodes usuelles (rectangle, trapèze et Simpson) dédiées à l’intégration
numérique.

3.2 Formule de quadrature de type interpolation


b
Pour approcher la valeur nombre exacte de l’intégrale I ( f )   f ( x ) dx
a
par une formule de

quadrature globale, l’idée est la suivante :


1) On remplace (𝑥) par son polynôme d’interpolation (𝑥).
b
2) On calcule I n ( f )   Pn ( x) dx
a

3) On estime l’erreur du résultat En ( f )  I ( f )  I n ( f )


Supposons qu'il y en ait n + 1 points d’interpolation tel que a  x0  x1  ...  xn  b et que
P(x) soit le polynôme d'interpolation unique de f en ces points.

On peut utiliser le formulaire de Lagrange pour ce polynôme d'interpolation afin d’obtenir :


b b b n n b  n
I ( f )   f ( x) dx  I n ( f )   Pn ( x) dx    f ( xi ) Li ( x) dx   f ( xi )   Li ( x) dx    wi f ( xi )
a a a i 0 i 0 a  i 0

b
Avec wi   Li ( x) dx
a

En générale, une méthode d’intégration numérique s’écrit :

33
Chapitre 3 Intégration Numérique

I ( f )  I n ( f )  En ( f )

n
Où I n ( f )   wi f ( xi )
i 0

Avec :

xi , i  0,1, 2, ....., n : Nœuds ou points d’intégration numérique.

wi , i  0,1, 2, ....., n : Poids de la formule de quadrature (d’intégration numérique).

En ( f ) : L’erreur d’intégration

On peut calculer l’erreur comme suit :


b b
f n1 (c ) n
En ( f )  I ( f )  I n ( f )    f ( x)  Pn ( x)  dx  
a a
 ( x  xi ) dx
( n  1)! i 0
n 1 b n
f (c )
 ( x  xi ) dx, c  a, b 
( n  1)! a i 0

3.3 Formules de Newton-Cotes


Les formules de quadrature de type interpolation les plus simples sont les formules de
Newton-Cotes. Elles sont basées sur une interpolation polynomiale équidistante.

Théorème
Soient a  x0  x1  ...  xn  b n+1 points équidistants avec xi  x0  i h, i  0,1, ..., n ,
ba
h . Alors la formule générale de quadrature de Newton-Cotes est donnée par :
n

b n
I( f )   f ( x ) dx  (b  a )  wi( n ) f ( xi )
a i 0

1
b y
b  a a
Où wi( n )  Li ( x) dx
P0(x)
f(x)
3.3.1 Formule des rectangles (n = 0) f(α)
[Link] Formule de base
Cette formule est obtenue en remplaçant f par un polynôme
a b x
constant égale à la valeur de f en un point   a, b: P0 ( x)  f ( )
Figure 1: méthode simple de rectangle
(polynôme qui interpole f en le point ( , f ( )) et donc de degré

34
Chapitre 3 Intégration Numérique

0) (Fig.1), ce qui donne :


b b
I R ( f )  I 0 ( f )   P0 ( x ) dx   f ( ) dx (b  a ) f ( ) y
a a

( 0)
Donc w0 1 y=f(x)
Formule du rectangle à gauche : I RG ( f )  (b  a ) f ( a ) f(α)

Formule du rectangle à droite : I RD ( f )  (b  a) f (b)


a α b x
Dans le cas particulier où le point α est le milieu
Figure 2: méthode simple du rectangle
de a, b   a  b , on obtient :
2
Point-Milieu
b
ab
I PM ( f )  I 0 ( f )   P0 ( x ) dx  (b  a ) f ( )
a
2

C’est la formule simple du rectangle Point-Milieu.

[Link] Formule composite :


On décompose l’intervalle d’intégration a, b en y
y=f(x)
ba
n sous-intervalles de même longueur h  et
n
f(αi)
on pose xi  x0  i h, i  0,1, ..., n . En appliquant la

formule du rectangle à chaque sous intervalle xi , xi1 


αi x
(Fig. 2), on obtient la formule composite des rectangles :
Figure 3: méthode composée des rectangles
n 1 xi 1
b  a n1
I RC ( f )    f ( i ) dx   f ( i )
i  0 xi n i 0

Dans le cas des rectangles point-milieu :

b  a n 1 x i  xi 1
I PM C ( f )   f( 2 )
n i 0

35
Chapitre 3 Intégration Numérique

[Link] Formule des erreurs d’intégration :


a- Erreur de Rectangles :
L’erreur d’intégration de la méthode des rectangles est :
b
f ' (c )
E R ( f )  I ( f )  I R ( f )  f ' (c)  ( x  a ) dx  (b  a ) 2
a
2

(b  a) 2 (b  a) 2
ER ( f )  M et ERC ( f )  M
2 2n

où M  Max f ' (c)


ca , b 

b- Erreur du Point-Milieu :
b
ab f ' ' (c )
E PM ( f )  I ( f )  I PM ( f )  f ' ' (c )  ( x  ) dx  (b  a ) 3
a
2 24

(b  a) 3 (b  a) 3
EPM ( f )  M et E PM C ( f )  M
24 24n 2

où M  Max f ' ' (c)


ca , b 

Exemple :
1
2

On veut calculer l’intégrale suivant : I   e  x dx


2

1/ Donner une valeur approchée de I en utilisant la méthode du point-milieu.

2/ Calculer I par la formule du rectangle à gauche en décomposant l’intervalle d’intégration


en trois parties. Evaluer l’erreur commise.

Solution :
2
On pose f ( x)  e x

1) Formule simple :
1 ab 1
a  0, b  ,    .
2 2 4
La formule de l’intégration par la méthode simple du rectangle Point-Milieu est :
ab
I PM ( f )  (b  a ) f ( )
2
1  1
   0  f ( )  0.469707
2  4

36
Chapitre 3 Intégration Numérique

2) Formule composite :
La formule d’intégration par la méthode composée du rectangle est :
1
b  a n1 ba 21
I RC ( f )  
n i 0
f ( i ), h 
n

3 6

1 1 1
6 3 2
αi 0

f(αi) 1 0,972583 0,894849 0,778801

La formule du rectangle à gauche :

ba 2 ba
I RC ( f )   f ( i )   f ( 0 )  f (1 )  f ( 2 ) 
n i 0 n
 1  1  1
 h  f (0)  f    f     1  0.972583  0.894849   0.477905
 6  3  6
(b  a ) 2
L’erreur de la méthode des rectangles est : E RC ( f )  M où M  Max f ' (c)
2n ca , b 

On a :
2 2
f ( x )  e  x  f ' ( x )  2 x e  x

Sur 0, 1 , M  f ' ( 1 )  0.778801


 2 2

14
E RC ( f )  (0.77881)  0.03245
6

3.3.2 Formule des Trapèzes (n =1)


[Link] Formule de base
On remplace la fonction f par le polynôme d’interpolation y
P1(x) qui passe par les deux points d’extrémité (a,f(a)) et (b,f(b)) P(x)
f(b) f(x)
(Fig. 4). On obtient :
b b
f(a)
 xb x  a
I T ( f )  I1 ( f )   P1 ( x) dx    f ( a )  f (b ) dx
a a 
ab b  a 
a b x
ba ba
 f ( a )   f (b ) 
 2   2  Figure 4: méthode simple des Trapèzes
ba
   f ( a )  f (b ) 
 2 
37
Chapitre 3 Intégration Numérique

1
w0(1)  w1(1) 
2
L’intégrale est donc remplacée par la surface du trapèze :

ba
IT ( f )   f (a)  f (b) y
2
f(xi+1)

[Link] Formule composite f(xi)

On généralise la formule de Trapèze à chaque sous

intervalle xi , xi1  (Fig. 5), on obtient :


xi xi+1 x
n 1 xi 1
ba ( f ( xi )  f ( xi 1 ))
n 1
I TC ( f )    f ( x ) dx 
i  Figure 5: méthode composée des Trapèzes
i  0 xi n i 0 2
b  a 1 n 1

   f ( a )  f ( b )    f ( xi ) 
n 2 i 1 

[Link] Formule des erreurs d’intégration des Trapèzes :


f ' ' ( c )  (b  a ) 3 
b
f ' ' (c) f ' ' (c )
ET ( f )  I ( f )  I T ( f ) 
2 a  ( x  a )( x  b ) dx 
2 
 
6 
  
12
(b  a ) 3

(b  a) 3 (b  a) 3
ET ( f )  M et ETC ( f )  M
12 12n 2

où M  Max f ' ' (c)


ca , b 

Exemple :
1
2

On veut calculer l’intégrale suivant : I   e  x dx


2

Utiliser la formule simple puis la formule composite des Trapèzes avec trois sous-intervalles.

Evaluer l’erreur commise.


Solution :
2
On pose f ( x)  e x

1) Formule simple :
La formule d’intégration par la méthode des Trapèzes est :

IT ( f ) 
ba
 f (a)  f (b)   1  f (0)  f  1    0.4447
2 4  2 

38
Chapitre 3 Intégration Numérique

2) Formule composite :

b  a 1 n 1
 ba 1
I TC ( f )    f ( a )  f (b )    f ( xi ) , h  
n 2 i 1  n 6
b  a 1 1 1  1 
I TC ( f )    f 0  f 3   f1  f 2   h   f (0)  f     f    f     0.459472
1
n 2  2  2  6  3 

(b  a)3
L’erreur de la méthode des Trapèzes est : ETC ( f )  M où M  Max f ' ' (c)
12n 2 ca , b 

On a :
2 2 2
f ( x)  e  x , f ' ( x )  2 x e  x , f ' ' ( x )  ( 4 x 2  2 ) e  x

Sur 0, 1 , M  f ' ' (0)  2


 2

18
On obtient : E RC ( f )  ( 2)  0.0023
108
y
3.3.3 Formule de Simpson (n = 2) f(a)

f((a+b)/2)
[Link] Formule de base
La méthode de Simpson consiste à remplacer la fonction
f(b)
f par le polynôme d’interpolation P2(x) qui passe par les trois

ab ba
points équidistants: x0  a , x1  , x2  b , avec h  (Fig. 6) a(a+b)/2 b x
2 2 Figure 6: méthode simple de Simpson
ce qui donne :
b
I S ( f )  I 2 ( f )   P2 ( x) dx
a

 ab ab 
 (x  )( x  b) ( x  a )( x  )
 a  b  ( x  a )( x  b) 
b
   f (a) 2  f ( b ) 2  f   dx
a 
h2 h2  2  h2 
 

La formule de Simpson s’écrit :

 b  a  ba 
IS ( f )    f (a)  4 f    f (b) 
 6   2  

Donc
1 4
w0( 2 )  w2( 2 )  et w1( 2 ) 
6 6
39
Chapitre 3 Intégration Numérique

[Link] Formule composite : y


On généralise la formule de Simpson pour 2n sous intervalles

ba
égaux de longueur h  , on a alors :
2n

h n n 1

I S C ( f )   f ( x0 )  f ( x2 n )  4 f ( x2i 1 )  2 f ( x2i )  xi+1
3 xi x
i 1 i 1 
Figure 7: méthode composée de Simpson
h 
  f ( a )  f (b )  4  f ( xi )  2  f ( xi ) 

3 
i impair i pair 

[Link] Formule des erreurs d’intégration de Simpson :


La méthode de Simpson est caractérisée par l’erreur :

f ' ' ( c )  (b  a ) 3 
b
f ' ' ' (c ) ab f ( 4 ) (c )
6 a
ES ( f )  I ( f )  I S ( f )  ( x  a )( x  )( x  b ) dx       (b  a ) 5
2 2  6  90
(b  a) 5 (b  a ) 5
ES ( f )  M et E SC ( f )  M où
90 180 n 4

M  Max f ( 4 ) ( c )
ca ,b 

Exemple :
1
2

Calculer l’intégrale I   e  x dx par la formule de Simpson en décomposant l’intervalle


2

d’intégration en trois parties. Evaluer l’erreur commise.

Solution :
La formule composite de Simpson est :

h  ba 1
I SC ( f )   f (a )  f (b)  4  f ( xi )  2  f ( xi ) , h  

3  n 6
i impair i pair 

I SC ( f ) 
h
 f 0  f 3  4 f1  2 f 2  h  f (0)  1 1  1 
f    4 f    2 f     0.414380
3 3 2 6  3 

(b  a ) 5
L’erreur de la méthode de Simpson est : E SC ( f )  M où M  Max f ( 4 ) ( c )
180 n 4 ca ,b 

On a :
2 2 2
f ( x )  e  x  f ' ( x )   2 x e  x  f ' ' ( x )  ( 4 x 2  2) e  x
 3 2 2
 f (3) ( x )  8 x  x 2  e  x  f ( 4 ) ( x )  (16 x 4  4 x 2  12)e  x
 2 40
Chapitre 3 Intégration Numérique

Sur 0, 1 , M  f ( 4 ) (0)  12


 2

On obtient :

1 32
E SC ( f )  (12)  2,57.10 5
180 (3) 4

3.4 Exercices
Exercice 1 :
Soit la fonction f(x) définie par le tableau suivant :

x 0   3 
8 4 8 2

f(x) 0 0.382683 0.707107 0.923880 1

 /2
1- Déterminer  f ( x) dx par la méthode des trapèzes puis par celle de Simpson.
0

2- Sachant que f ( x)  sin x , comparer alors les résultats obtenus avec la valeur exacte.

Exercice 2 :
Trouver le nombre n de subdivisions nécessaires de l’intervalle d’intégration   ,   , pour

évaluer à 0.5*10-3 près, grâce à la méthode de Simpson, l’intégrale  cos x dx .


Exercice 3:
2
Calculer  x dx par la formule des rectangles en décomposant l’intervalle d’intégration en
1
dix parties. Evaluer l’erreur commise.

41
Chapitre 3 Intégration Numérique

3.5 Corrigés des exercices


Exercice 1 :
1/ Calcul de l’intégrale par la méthode des trapèzes

b  a 1 n 1
 ba  20 
I TC ( f )    f ( a )  f (b )    f ( xi ) , h   
n 2 i 1  n 4 8

1 
I TC ( f )  h   f ( x0 )  f ( x4 )   f ( x1 )  f ( x2 )  f ( x3 )
2 
 1 
  0  1  0.382683  0.707107  0.923880  0.987116
8 2 

- Calcul de l’intégrale par la méthode de Simpson

h  ba 
I SC ( f )   f (a)  f (b)  4  f ( xi )  2  f ( xi ) , h  
3 i impair i pair  n 8

h
  f 0  f 4  4( f 1  f 3 )  2 f 2 
3

 0  1  4(0.382683  0.923880)  2.0.707107  1.00135
24
2/ Comparaison :
I

 2

 sin x dx  cos x
 2
I exacte  0 1
0

I exacte  I TC  1  0.987116  0.012884

I exacte  I SC  1  1.000135  0.000135

On constate que l’approximation de I par Simpson est meilleure que celle par les Trapèzes.

Exercice 2 :
 b  a 2
On a : I   cos x dx , h  
 n n

L’erreur de la méthode de Simpson est donnée par :

(b  a ) 5
où M  Max f
( 4)
E SC ( f )  M (c )
180 n 4 ca ,b 

42
Chapitre 3 Intégration Numérique

On a :

f ( x)  f ( 4) ( x)  cos x  M  Max f ( 4) (c)  cos c   1
c , 

4
(b  a ) 5 2  2 
 E SC ( f )  M   
180 n 4 180  n 

Ainsi pour que E SC ( f )  0.5 *10 3 alors :

  16  4  1 
 4   0.5.10 3  n 4  3
16  4  n  18 .6
90  n  0.5.10 90

On prend n=20, car le nombre de subdivision de l’intervalle a, b pour la méthode de


Simpson doit toujours être pair.

43
Chapitre 4 Résolution des équations différentielles ordinaires

Résolution des équations différentielles


ordinaires (Problème de Cauchy)

4.1 Introduction
Les équations différentielles sont l'un des outils mathématiques les plus importants utilisés
dans la modélisation des problèmes en sciences physiques. Trouver la solution d'une équation
différentielle ordinaire EDO est un problème courant, souvent difficile ou impossible à
résoudre de façon analytique. Il est alors nécessaire de recourir à des méthodes numériques
pour résoudre ces équations.

La précision des diverses méthodes de résolution proposées dans ce cours est


proportionnelle à l'ordre de ces méthodes. Nous commençons par la méthode simple d'Euler
(a une interprétation géométrique) qui nous conduira progressivement à des méthodes plus
complexes telles les méthodes de Runge-Kutta d'ordre 4, qui permettent d'obtenir des résultats
d'une grande précision.

Dans ce chapitre, On s’intéresse aux équations différentielles du premier ordre de la


forme :

y ' (t )  f t , y (t ) 

Le problème de Cauchy (problème de la condition initiale) consiste à trouver une fonction


y(t) définie sur l'intervalle I  a, b telle que :

 d y (t )
  y ' (t )  f t , y (t ) 
 dt
 y (t 0 )  y0 , t 0  I , y0  IR

La condition y (t 0 )  y0 est une condition initiale ou la condition de Cauchy.

Si on suppose que la fonction f est continue par rapport aux deux variables t, y et que f
vérifie une condition de Lipschitz (fonction Lipschitzienne) par rapport à y c’est à dire que :
K  0 tel que  t  a, b,  y1 , y2  IR, on a f (t , y1 )  f (t, y2 )  K y1  y2

 f (t , y )
En pratique pour vérifier cette condition, on calcule : K  Max
t a , b 
yIR
y

Alors que la solution du problème de Cauchy existe et est unique sur a, b (C’est le Théorème
de Cauchy).

44
Chapitre 4 Résolution des équations différentielles ordinaires

4.2 Méthodes numériques


4.2.1 Principe générale
Considérons le problème de Cauchy à condition initiale suivant :

 y ' (t )  f t , y (t ) 

 y (t 0 )  y 0

On suppose que ce problème admet une solution unique dans l’intervalle a, b .

Pour obtenir une approximation numérique de cette solution y(t) sur l'intervalle a, b , on
divise l’intervalle donné en n points équidistants t0, t1, t2, …, tn, avec t0=a et tn=b qui
déterminent le pas d’intégration h  b  a et le point d’abscisse ti est donné par ti  a  i h
n
(pour i = 0, 1,…, n).

La solution exacte au point ti est notée y(ti), la solution approchée est notée yi  y(ti )  yi  ,
une méthode numérique est un système d’équations aux différences impliquant un certain
nombre d’approximations successives yn, yn+1, …, yn+k où k désigne le nombre de pas de la
méthode.

Si k = 1, on parle de méthode à un pas (à pas séparés) : ils permettent de calculer yn+1 en


n’utilisant que la valeur yn.

Si k > 1, la méthode à pas multiples (à pas liés) : ils permettent d’obtenir yn+1 en utilisant les
valeurs yn, yn+1, …, yn-k (k fixé).
La solution à estimer peut être approchée par un développement limité de Taylor.
Le développement de la série de Taylor de y(tn+1) jusqu’à l’ordre m autour du point tn s’écrit :

h 2 ( 2) hm (m)
y(tn1 )  y(tn )  h y' (tn )  y (tn )  ...  y (tn )  O (hm1 )
2! m!

4.2.2 Méthode d’Euler


La méthode d’Euler est la plus ancienne et la plus simple des méthodes numériques
d’approximation des équations différentielles ordinaires du premier ordre. Si les fonctions y(t)
et y’(t) sont continues, on peut écrire le développement en série de Taylor pour y(t) au
voisinage de tn.

y (t n 1 )  y (t n )  h y ' (t n )   ( h 2 )

Le terme (h 2 ) étant le terme d’erreur (à l’ordre 2). On peut alors réécrire cette équation en
négligeant les termes du deuxième ordre :
y (t n 1 )  y (t n )  h y ' (t n )

45
Chapitre 4 Résolution des équations différentielles ordinaires

Soit yi une approximation de y(ti)  yi  y(ti ), la méthode d’Euler d’ordre 1 s’écrit

 yi 1  yi  h f (t i , yi ), i  0, 1, ..., n

 y 0  y (t 0 )

Interprétation Géométrique :
La méthode d’Euler revient à remplacer localement en chaque point ti la courbe solution
passant par yi par sa tangente.

La tangente à la courbe y=y(t) en t=t0 a pour équation :

Y0 (t )  y (t 0 )  y ' (t 0 )( t  t 0 )

 Y0 (t )  y (t 0 )  f t 0 , y (t 0 ) (t  t 0 ) y(t)
y
Ou: Y0 (t )  y0  f t 0 , y0 (t  t 0 )

Au point t=t1 : Y0 (t1 )  y0  f t0 , y0 (t1  t0 ) (t2, y(t2)) Y1(t


 Y0 (t1 )  y0  h f t0 , y0  (t1,
(t0, y0) (t2, y2)
En approximant Y0 (t1 )  y1 , on peut écrire :
(t1, y1) Y0(t
y1  y0  h f t0 , y0 
h h
De même considérons la droite d’équation : t0 t1 t2 t

Y1 (t )  y (t1 )  y ' (t1 )( t  t1 ) Figure : Méthode d’Euler

Au point t=t2 : Y1 (t2 )  y1  f t1, y1 (t2  t1 )

 Y1 (t 2 )  y1  h f t1 , y1 Y0 (t1 )

En faisant de même nous aurons :

y i 1  y i  h f t i , y i 

Exemple :
Soit l’équation différentielle à condition initiale: y ' (t )   y (t )  t  1 et 𝑦(0)=1.

1) Approcher la solution de cette équation en t=0.5 à l’aide de la méthode d’Euler en


subdivisant l’intervalle de travail en 5 parties égales (effectuer les calculs avec six décimales).
2) Comparer les résultats obtenus avec la solution exacte : y (t )  e  t  t

46
Chapitre 4 Résolution des équations différentielles ordinaires

Solution:
On a : y ' (t )   y (t )  t  1, y (0)  1, n  5 et l’intégrale d’intégration est 0, 0.5 .

Vérifions la condition de Lipchitz sur t  0, 0.5 et y  IR :

Remarquons que la fonction f (t , y)   y(t )  t  1 est continue sur 0, 0.5 IR. De plus, elle est
Lipschitzienne par rapport à y sur 0, 0.5 avec la constante de Lipschitz K=1. En effet, pour
tout t  0, 0.5 et y1, y2  IR, on a :

f (t , y1 )  f (t , y2 )   y1  t  1  y2  t  1
 (1) y1  y2
 y1  y2

 f (t , y )  (  y  t  1)
K  Max  Max   1  1 Condition vérifiée.
y y

Alors le problème de Cauchy admet une solution unique.


Calcul la solution approchée par la méthode d’Euler : Où
On a : f (t , y )   y (t )  t  1, t0  0, y 0  y (0)  1, h  b  a  0 .5  0  0.1
n 5
La méthode d’Euler est donnée par :
 yi 1  yi  h f (ti , yi )  yi  h  yi  ti  1, i  0, 1, ..., 5

 ti  t 0  i h  i h, y 0  y ( 0)  1

En utilisant cette méthode on obtient successivement des approximations de y(0.1), y(0.2),


y(0.3), … notées y1, y2, y3,….
Pour i=0 : y1  y0  h  y0  t0  1  1  0.1(1  0  1)  1.000
Pour i=1 : y2  y1  h  y1  t1  1  1  0.1(1  0.1  1)  1.010

Le tableau suivant rassemble les résultats des cinq premières itérations.


La solution analytique de cette équation différentielle est : y (t )  e  t  t . Ce qui permet de
comparer les solutions numériques (approchées) et analytiques (exactes) et de constater la
croissance de l’erreur.

i ti yi (solution approchée) y(ti )(solution exacte) y (t i )  yi


0 0 1.000000 1.000000 0.000000
1 0.1 1.000000 1.004837 0.004837
2 0.2 1.010000 1.018731 0.008731
3 0.3 1.029000 1.040818 0.011818
4 0.4 1.056100 1.070302 0.014220
5 0.5 1.090490 1.106531 0.016041

47
Chapitre 4 Résolution des équations différentielles ordinaires

Alors l’approximation de y(t) en t=0.5 par la méthode d’Euler est : y5 =1.090490

4.2.3 Méthode de Runge-Kutta


Les méthodes de Runge-Kutta sont les généralisations de la méthode d’Euler à des ordres
supérieurs à un (ordre élevé). Ces méthodes permettent d’obtenir une plus grande précision
(elles génèrent des solutions numériques plus proches des solutions analytiques) que la
méthode d’Euler. Ces méthodes sont de la forme :

yi 1  yi  b1 k1  b2 k2  b3 k3  ...


k1  h f ( xi , yi )
k 2  h f ( xi  c2 h, yi  c2 k1 )
k3  h f ( xi  c3 h, yi  (c3  a32 ) k1  a32 k 2 )

[Link] Runge Kutta d’ordre 2 : RK2


Les méthodes de Runge-Kutta l’ordre 2 sont de la forme :
yi1  yi  b1 k1  b2 k 2 ,
k1  h f ( xi , yi )
k 2  h f ( xi  c2 h, yi  c2 k1 )
Le calcul des valeurs de b1, b2 , c1, c2, k1 et k2 nécessite le calcul de y(2), y(3) et y(4) à partir de
y '  f ( x, y ) et le développement de Taylor. On obtient :
1
yi 1  yi  ( k1  k 2 ),
2
k1  h f ( xi , yi )
k 2  h f ( xi  h, yi  k1 )

[Link] Runge Kutta d’ordre 4 : RK4


C’est la méthode la plus précise et la plus utilisée, elle est d’ordre 4. Elle calcule la valeur
de la fonction en quatre points intermédiaires selon :
1
yi 1  yi   k1  2 k 2  2 k3  k 4 ,
6
k1  h f (ti , yi )
h k
k 2  h f ( t i  , yi  1 )
2 2
h k2
k3  h f (ti  , yi  )
2 2
k 4  h f (t i  h , y i  k 3 )

48
Chapitre 4 Résolution des équations différentielles ordinaires

Exemple :
Résoudre le problème de Cauchy précédant par les deux méthodes RK2 et RK4 les cinq
premières valeurs de la solution en prenant un pas d’intégration h=0.1.

Comparer à la solution exacte.


Solution

On a : f (t , y )   y (t )  t  1, y (0)  1 et h  0.1 .

La méthode de RK2 est donnée par :


1
yi 1  yi  ( k1  k 2 ),
2
k1  h f ( xi , yi )
k 2  h f ( xi  h, yi  k1 )

En utilisant cette méthode on obtient les approximations successives y1, y2, …, y5.
- Pour i=0 :
1
y1  y0  (k1  k2 ),
2
k1  h f (t0 , y0 )  h  y0  t0  1  0.1(1  1  0  1)  0
k2  h f (t0  h, y0  k1 )  h f (h, y0 )  0.1(1  0.1  1)  0.01
1
Alors y1  1  (0  0.01)  1.005
2

-Pour i=1 :
1
y2  y1  (k1  k2 ),
2
k1  h f (t1 , y1 )  h  y1  t1  1  0.1(1.005  0.1  1)  0.0095
k2  h f (t1  h, y1  k1 )  0.1(1.0145  0.3  1)  0.02855
1
Alors y2  1.005  (0.0095  0.02855)  0.019025
2
Le tableau suivant rassemble les résultats des cinq premières itérations :
i ti yi (solution approchée) y(ti )(solution exacte) Erreur
0 0 1.000000 1.000000 0.000000
1 0.1 1.005000 1.004837 0.000163
2 0.2 1.019025 1.018731 0.000294
3 0.3 1.041218 1.040818 0.000400
4 0.4 1.070802 1.070302 0.000482
5 0.5 1.107075 1.106531 0.000544
Alors l’approximation de y(t) en t=0.5 par la méthode de RK2 est : y5 =1.107075

49
Chapitre 4 Résolution des équations différentielles ordinaires

On remarque que l'erreur est plus petite avec la méthode de RK2 qu'avec la méthode d'Euler.

La méthode de RK4 est donnée par :


1
y i 1  y i   k1  2 k 2  2 k 3  k 4 ,
6
k1  h f (t i , yi )
h k
k 2  h f (t i  , yi  1 )
2 2
h k2
k 3  h f (t i  , y i  )
2 2
k 4  h f (t i  h, yi  k 3 )

-Pour i=0 :
k1  h f (t0 , y0 )  0

k2  h f (t0  h , y0  k1 )  0.005
 2 2

k  h f (t  h , y  k2 )  0.00475
 3 0
2
0
2
k  h f (t  h, y  k )  0.00952
 4 0 0 3

1
Ce qui donne :
y1  y0   k1  2 k2  2 k3  k4   1.004837
6

-Pour i=1
k1  h f (t1 , y1 )  0.09516

k2  h f (t1  h , y1  k1 )  0.0140404
 2 2

k3  h f (t1  h , y1  k2 )  0.013814
 2 2
k  h f (t  h, y  k )  0.018730
 4 1 1 3

1
Ce qui donne :
y2  y1   k1  2 k2  2 k3  k4   1.01873
6
Le tableau suivant rassemble les résultats des cinq premières itérations :
i ti yi (solution approchée) y(ti )(solution exacte) Erreur
0 0 1.000000 1.000000 0.000000
1 0.1 1.004837 1.004837 0.819  10-7
2 0.2 1.018730 1.018731 0.148  10-6
3 0.3 1.040818 1.040818 0.210  10-6
4 0.4 1.070320 1.070302 0.242  10-6
5 0.5 1.106530 1.106531 0.274  10-6

50
Chapitre 4 Résolution des équations différentielles ordinaires

Alors l’approximation de y(t) en t=0.5 par la méthode de RK4 est : y5 =1.106530


On constate que l'erreur se situe autour de 10-6 ce qui se compare avantageusement avec les
erreurs obtenues à l'aide de méthodes d'ordre moins élevé (Euler, Runge-Kutta d'ordre 2).

4.3 Exercices
Exercice 1 :
Soit l’équation différentielle à condition initiale :

 y ' (t )  y (t )  t

 y (0 )  1

1/ Calculer la solution approximative de cette équation en t = 1 à l’aide de la méthode d’Euler


en subdivisant l’intervalle 0, 1 en 10 parties égales.

2/ Sachant que la solution exacte est y (t )  2 e t  t  1 , comparer le résultat obtenu avec la


solution exacte.

Exercice 2 :
Soit le problème de Cauchy suivant :

 ' 2t
 y (t )  y (t ) 
 y
 y (0)  1

1/ Calculer la solution approximative de cette équation en t = 0.2 à l’aide de méthode de


Runge-Kutta d’ordre 2 avec un pas h=0.2.

2/ Sachant que la solution exacte est y (t )  2 x  1 , comparer le résultat obtenu avec la


solution exacte.

Exercice 3 :
Soit le problème de Cauchy suivant :

 y ' (t )  e  t  2 y (t ), t  0, 1

 y (0)  1
1/ Montrer que f (t , y) est Lipschitzienne par rapport à y uniformément par rapport à t, et
donner une constante de Lipschitz.

51
Chapitre 4 Résolution des équations différentielles ordinaires

2/ Montrer que ce problème admet une solution unique.

3/ Donner la solution exacte de ce problème ainsi que y (0.2).

4/ Appliquer la méthode d’Euler à ce problème, et donner l’approximation y2 de y(0.2)


obtenue à l’aide d’un pas de discrétisation h=0.1.

5/ Comparer le résultat obtenu avec la solution exacte.

4.4 Corrigés des exercices


Exercice 1 :
1/Calcul la solution approximative de l’équation différentielle en t=1 par la méthode d’Euler :
On a: f (t , y )  y  t
L’intervalle est 0,1  h  b  a  1  0  0 .1
n 10
La méthode d’Euler est donnée par :
 y i 1  y i  h f (t i , y i )  y i  h  y i  t i , i  0, 1, ..., 10

 t i  t 0  i h, y 0  y (0 )  1
En utilisant cette méthode on obtient successivement des approximations de y(0.1), y(0.2),
y(0.3), … notées y1, y2, y3,….

Pour i=0 : y1  y 0  h  y 0  t 0   1  0.1(1  0)  1.1


Pour i=1 : y2  y1  h  y1  t1   1.1  0.1(1.1  0.1)  1.22
Le tableau suivant rassemble les résultats des dix premières itérations :

i ti yi
0 0 1.0000
1 0.1 1.1000
2 0.2 1.2200
3 0.3 1.3620
4 0.4 1.5282
5 0.5 1.7210
6 0.6 1.9431
7 0.7 2.1974
8 0.8 2.4871
9 0.9 2.8158
10 1.0 3.1874

Alors l’approximation de y(t) en t=1 par la méthode d’Euler est :


y10 =y(1)=3.1874

52
Chapitre 4 Résolution des équations différentielles ordinaires

2/ Comparaison du résultat obtenu avec la solution exacte :

La solution exacte est : y (t )  2 e t  t  1

y exacte (1)  2 e 1  1  1  3 .4365

Donc l’erreur commise est :

E  yexacte (1)  y (1)  3.4365  3.1874  0.2491

Exercice 2 :
1/ Calcul la solution approximative de l’équation différentielle en t=1 par la méthode Runge-
Kutta d’ordre 2 :
2t
On a: f (t , y )  y  , y (0)  1
y
L’intervalle est 0, 0.2 , h  0.2
La méthode de RK2 est donnée par :
1
yi 1  yi  ( k1  k 2 ),
2
k1  h f ( xi , yi )
k 2  h f ( xi  h, yi  k1 )

En utilisant cette méthode on obtient les approximations successives y1, y2, …, y5.
Pour i=0 :
1
y1  y0  (k1  k 2 ),
2
k1  h f (t 0 , y0 )  0.2
k 2  h f (t 0  h, y0  k1 )  h f (0.2, 1.2)  0.8666
h
Alors : y1  1  (k1  k 2 )  1.1866
2
Alors l’approximation de y(t) en t=0.2 par la méthode de RK2 est :

y1 =y(0.2)=1.1866.

2/ Comparaison du résultat obtenu avec la solution exacte :

La solution exacte est : y (t )  2 x  1

La solution exacte en t=0.2 donne : yexacte (0.2)  1.4  1.1832.

Donc l’erreur commise est :

E  yexacte (0.2)  y (0.2)  1.1866  1.1832  0.0034

53
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

Méthode de résolution directe des systèmes


d’équations linéaires

5.1 Introduction
Les systèmes d'équations linéaires apparaissent dans un grand nombre de domaines, à la
fois directement dans la modélisation de situations physiques et indirectement dans la solution
numérique d'autres modèles mathématiques. Ces applications se produisent dans pratiquement
tous les domaines des sciences physiques, biologiques et sociales. En raison de l’importance
généralisée des systèmes linéaires, de nombreuses recherches ont été consacrées à leur
solution numérique. D'excellents algorithmes ont été développés pour la plupart types de
problèmes courants pour les systèmes linéaires, et certains d’entre eux sont définis et illustrés
dans ce chapitre. Le type de problème le plus courant consiste à résoudre un système linéaire
carré dont le nombre d’équations est égal à ceux d’inconnues et dont le déterminant est non
nul. C’est-à-dire les systèmes qui ont une solution unique. Un système d’équations linéaire de
n équations à n inconnues s’écrit alors :

a11 x1  a12 x 2  a13 x 3  ...  a1n x n  b1


a x  a x  a x  ...  a x  b
 21 1 22 2 23 3 2n n 2

... ... ... ... ... ... ... ... ... ... ... ... ...
a n1 x1  a n 2 x 2  a n 3 x 3  ...  a nn x n  bn

Les aij sont appelés les coefficients du système, les xi sont les inconnues (ou les solutions) et
les bi forment le second membre.

Alors ce système peut s’écrire sous forme matricielle :


Ax  b

Avec

 a11 a12 a13 ... a1n   x1  b1 


a x  b 
a 22 a 23 ... a 2 n   2
A   21  ( aij ) et x , b   2
... ... ... ... ... ...     
     
 a n1 an 2 an 3 ... a nn   xn  bn 
Où A est une matrice carrée d’ordre n ; x et b sont des vecteurs colonnes de dimension n.

Notons que dans ai j, l’indice i représente le numéro de la ligne et j représente le numéro de la


colonne.

La notation précédente est équivalente à :

54
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 a11 a12 a13 .. . a1n  b1 


 
 a 21 a 22 a 23 .. . a 2 n  b2 
 ... ... ... ... ... ...   
 
a an2 a n3 .. . a nn  bn 
 n1
Cette matrice est appelée la matrice augmentée du système.
La résolution du système A x  b peut s’effectuer par plusieurs méthodes :

- Une méthode classique (Cramer).

- Les méthodes directes.

- Les méthodes itératives.

5.2 Rappels sur les systèmes linéaires


5.2.1 Méthode de Cramer
Cette méthode repose sur le calcul du déterminant de la matrice A et les déterminants
associés aux inconnues xi (i=1,…, n). Si det A  0 alors le système A x  b admet une solution
unique telle que :
det A1 det A2 det An
x1  , x2  , ..., xn 
det A det A det A

Où Ai est une matrice obtenue en remplaçant la ième colonne de A par le vecteur b.

Pour résoudre le système A x  b par la méthode de Cramer nécessite au total (n  1) 2 n !  1


opérations élémentaires ou n est le rang de la matrice.

Si n est élevé, le nombre d’opérations augmente et par conséquent le temps de calcul (elle
devient très lente en temps de calculs).

5.2.2 Méthode d’inversion de la matrice :


Si la matrice A est inversible alors le système linéaire A x  b admet une unique
solution :
x  A1 b
Où A-1 est la matrice inverse de A.

Dans cette méthode, on utilise au total n !(n 2  n  1)  3 n 2  n opérations élémentaires. Cette


méthode n’est donc pas plus avantageuse que Cramer.

Alors, on fait appel à des méthodes numériques ayant des temps de calcul acceptables (rapides
et plus précises) et dont le nombre d’opérations est d’ordre n3.

55
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

5.3 Méthodes directes


Une méthode de résolution d’un système d’équations est dite directe si on obtient des
valeurs finies après un nombre limité d’opérations qui permettent de résoudre le système
linéaire soit par triangularisation ou soit par factorisation de la matrice A. Ces méthodes sont
utilisées pour les matrices pleines et les petits systèmes (n peu élevé).

5.3.1 Méthode d'élimination de Gauss:


La méthode de Gauss engendre un algorithme fini exact dont l’idée est de transformer le
système A x  b en un système triangulaire (inférieur ou supérieur).

[Link] Résolution des systèmes triangulaires :


- Une matrice A  ( a ij )1i , j  n est dite triangulaire supérieure si aij=0 pour i >j.

 a11 a12 ... a1n 


0 a 22 ... a2 n 
A
    
 
0 ... 0 a nn 

 bn
 xn  a
La solution du système A x  b est :  nn

 n

 bi   ai j x j
j  i 1
 xi  , i  n  1, ...,1.
 aii

- Une matrice A  ( a ij )1i , j  n est dite triangulaire inférieure si aij=0 pour i < j.

 a11 0 ... 0
a a22   
A   21
   0 
 
 an1 a n 2 ... ann 

 b1
 x1  a
La solution du système A x  b est :  11
i 1

 bi   ai j x j
j 1
 xi  , i  2, ..., n.
 aii

- Une matrice bande est une matrice dans tous les éléments sont nuls (aij=0) sauf sur une
bande autour de la diagonale principale.
 a11 0 ... ... 0
0 a   
 22

A       
 
   0 
0 ... ... 0 a nn 

56
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

bi
La résolution de A x  b est alors immédiate : xi  , i  1, ..., n .
aii

Remarque :
1) Le nombre d'opérations élémentaires (addition, multiplication, division) nécessaires pour
mener à bien le calcul de tous les xi est au total n2 opérations élémentaires pour résoudre un
système d’ordre n.

2) Le déterminant d’une matrice triangulaire (supérieure ou inférieure) est le produit des


n
éléments de la diagonale de cette matrice : det ( A)   akk  a11 a22 ... a nn
k 1

[Link] Méthode d'élimination de Gauss (pivot de Gauss)


Principe de la méthode
Cette méthode consiste à transformer le système linéaire A x  b par un système
équivalent (c'est-à-dire ayant la même solution) de la forme :
A(n) x  b (n)
Où A(n) est une matrice triangulaire supérieure et b(n) est un second membre convenablement
modifié.

La transformation de la matrice A en A(n) et le vecteur b en b(n) passe par plusieurs étapes.


Considérons un système de 3 équations à 3 inconnues suivant :

a11 x1  a12 x 2  a13 x3  b1 : L1



(1) : a 21 x1  a 22 x 2  a 23 x3  b2 : L(21)

a31 x1  a32 x 2  a33 x3  b3 : L3
(1)

 a11 a12 a13  b1  L1


 
Ou encore sous la forme dite augmentée A  b (1) (1)
   a 21 a 22 a 23  b2  L(21)
a  (1)
 31 a32 a33  b3  L3

On pose A(1)=A et b(1) =b.

Étape 1: On suppose que a11  0 (pivot de la première étape).

a 
Pour éliminer les termes a21 et a31 de L(21) et L(31) , on multiplie la ligne L1 par  21  et on
 a11 
a 
soustrait avec L(21) , et on multiplie L1 par  31  et on soustrait avec L(31) , on obtient :
 a11 

57
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 (1)  a21 
 L2  L2    L1
(1)

  a11 

 L(1)  L(1)   a31  L
 3 3 a  1
  11 

Ce qui donne :

 a11 a12 a13  b1  L1


 
A (2)
b ( 2)
  0 ( 2)
a 22 (2)
a 23  b2( 2 )  L(22 )
  ( 2)
0
( 2)
a 32 (2)
a33  b3( 2 )  L3

Les coefficients aij( 2 ) et bi( 2 ) sont définis par :

 ( 2)  ai1 
aij  aij    a1 j , i, j  2,3
  a11 

b ( 2)  b   ai1  b , i  2,3
 i i a  1
  11 

Étape 2: En supposant que a22  0. Pour éliminer le terme a 32( 2 ) de L(32 ) , on doit utiliser la
transformation élémentaire :
 a ( 2)  ( 2)
L(32)  L(32 )   32 L
( 2)  2
 a22 

Ce qui donne :

 a11 a12 a13  b1  L1(1)


 
A ( 3)
 b ( 3)   0 ( 2)
a 22 (2)
a 23  b2( 2 )  L(22 )
  ( 3)
0 0
( 3)
a 33  b3( 3)  L3

Les nouveaux coefficients sont définis par :


 ( 3)  a32
( 2)
 ( 2)
a33  a33   ( 2)  a23
( 2)

  a22 

b (3)  b ( 2)   a32  b ( 2)
( 2)

 3 3  a ( 2)  2
  22 

Étape 3: En utilisant la substitution inverse pour résoudre successivement x3, x2 et x1, on


obtient :
 b3(3)
 x3  ( 3)
 a33
 b2( 2)  a23 (2)
x3
 x2  ( 2)
 a22
 b1  a12 x2  a13 x3
 x1 
 a11

58
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

Remarque :
Les termes diagonaux a kk( k ) à chaque étape sont appelés les pivots (sont non nuls).

Exemple :
Résoudre par la méthode de Gauss le système suivant :
 x1  2 x2  3 x3  4 x4  11
2 x  3 x  4 x  x  12
 1 2 3 4

3
 1 x  4 x2  x3  2 x 4  13
4 x1  x2  2 x3  3 x4  14

Solution:
Soit le système d’équations représenté par la matrice augmentée suivante :
1 2 3 4  11  L1
 
A (1)
 b (1)  = 
2 3 4 1  12  L(21)
3 4 1 2  13  L(31)
 
4 1 2 3  14  L(41)

À chaque étape, on doit utiliser les transformations élémentaires pour obtenir les systèmes
équivalents au système initial :

1 2 3 4  11  L1
 L(21)  L(21)  2 L1  
0  1  2  7   10  L(22 )
 (1)
 L3  L3  3 L1
(1)
 A ( 2)
 b (2)  

 (1) 0  2  8  10   20  L(32 )
 
 L4  L4  4 L1
(1)
 0  7  10  1 3   3  L( 2 )
  4

1 2 3 4  11  L1
 
0  1  2  7   10  L(23)
L  L  2 L
A  
( 2) ( 2) ( 2)
3
 ( 2)
3 2

( 3)
 b ( 3) 
L4  L(42)  7 L(22) 0 0 4 4  0  L(33)
 
 0 0 4 36  40  L( 3)
  4

1 2 3 4  11  L1
 
0  1  2  7   10  L(24 )
L(43)  L(43)  L(33)  A (4)
 b (4)  

0 0 4 4  0  L(34 )
 
 0 0 0 40  40  L( 4 )
  4
On résout alors ce système triangulaire supérieur par substitution inverse, on obtient :
40 x4  40  x4  1
 4 x  4 x  0  x  x  1
 3 4 3 4

 x2  2 x3  7 x4  10  x2  10  2  7  2
 x1  2 x2  3 x3  4 x4  11  x1  11  2  3  4  2

59
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

2
 
2
Donc la solution du système est : x   
1
 
1 
 

Remarque :
3
1) La méthode de Gauss nécessite 2 n opérations pour résoudre un système d’ordre n.
3

2) Si l’un des pivots aii est nul, on permute la ligne du pivot avec une ligne supérieure.
n
3) det ( A)  (1) p  akk( k ) avec p le nombre de permutation de lignes ou de colonnes
k 1

effectuées lors de l’application de l’algorithme de Gauss.

[Link] Méthode de Gauss avec pivot


Dans la Méthode d'élimination de Gauss, on a supposé que les pivots a kk( k ) sont non nuls à
chaque étape k (k = 1, …, n-1) mais cette supposition n’est pas toujours vraie. Si le terme
diagonal a kk( k ) est nul, il faut choisir un autre élément non nul de la colonne k en permutant
l'ordre des lignes de la matrice. Cette méthode se généralise assez facilement bien qu’il faut
être prudent avec le choix du pivot. En pratique, il faut éviter de prendre des pivots "trop"
petits et choisir le plus grand pivot en valeur absolue. Pour cela, On peut utiliser la technique
de pivot soit partiel ou total.
Pivot partiel :
Le pivot est un des éléments ai(kk ) , k ≤ i ≤ n, de la kième colonne situés sous la diagonale
vérifiant :

ai(kk )  Max a (pkk)


ik , n 

Dans ce cas, on utilise la permutation des lignes ceci n’a aucun effet sur la solution du
système.

Pivot total :
Le pivot est un des éléments de la sous-matrice ai(kj ) , k ≤ i, j ≤ n vérifiant :

ai( kj )  Max a (pkq)


p , q k , n 

Dans ce cas, si le pivot n'est pas dans la kième colonne, il faut procéder à un échange de
colonnes en plus d'un éventuel échange de lignes.
Exemple :
Utiliser la méthode de Gauss avec pivot partiel pour résoudre le système suivant :

60
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 x1  3 x2  3 x3  0

 x1  x2  1
3x  2 x  6 x  11
 1 2 3

Solution:
1 3 3  0 
 
On a : 1 1 0  1 
 3 2 6  11 
 
Étape 1: (k=1), Max (1, 1, 3)=3, On permute les lignes 1 et 3, on obtient :

 
3 2 6  11 
1 3 3  0   3 2 6  11  
     1 8
1 1 0  1   1 1 0  1    0 2   
 3 2 6  11  1 3 3  0  3 3
     
0 7 11 
 1   
 3 3

Étape 2: (k=2), Max  ,   , On permute les lignes 2 et 3, on obtient :


1 7 7
3 3 3

     
3 2 6  11   3 2  11   3
6 2  11 
6
     
 1 8  7 11   7 11 
0  2    0 1     0 1 
3 3 3 3 3 3 
     
0 7 11   1 8  15 15 
 1    0  2    0 0   
 3 3  3 3  7 7
On résout alors ce système triangulaire supérieur par substitution inverse, on obtient :
 15 15
  7 x3   7  x3  1
  x3  1
Ax  b  7 11 3   11  
  x2  2
 x 2  x3    x 2    x3 
3 3 7 3  x 3
 1
 1
3 x1  2 x2  6 x3  11  x1  11  2 x2  6 x3 
 3

 1
 
Donc la solution du système est : x    2
 3
 

5.3.2 Méthode de factorisation LU


[Link] Principe de la méthode
Cette méthode consiste à transformer la matrice A en un produit de deux matrices
triangulaires L et U :

61
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

A LU
Où L est une matrice triangulaire inférieure unitaire et U est une matrice triangulaire
supérieure.
Le système A x  b s’écrit alors :

L y  b
Ax  b L U
 x  b  
y U x  y

Donc la résolution du système A x  b revient à la résolution de deux systèmes triangulaires.

[Link] Détermination des matrices L et U


La matrice A s’écrit : A  L U tel que L est une matrice triangulaire inférieure avec lii =1

(i=1,…,n) et U est une matrice triangulaire supérieure.

 a11 a12 ... a1n  1 0 ... 0   u11 u12 ... u1n 


    
a a 22 ... a 2 n   l 21 1 ... 0   0 u 22 ... u 2 n 
A   21 
... ... ... ...   ... ... 1 ....   ... ... ... ... 

   
a
 n1 an 2 ... a nn   l n1 l n 2 ... 1   0 0 ... u nn 

Les éléments de chaque matrice sont donnés par :


 i 1
u
 ij  aij   lik ukj , i  j  n
 k 1
 ; j  2, ..., n
l  a   l ukj , j  1  i  n
j 1

 ij ij
k 1
ik
u jj

Une fois les composantes lij et uij sont déterminées on résout le système L y  b après on
résout le système U x  y.

Exemple :
Utiliser la méthode de factorisation LU pour résoudre le système suivant :
2 x1  x2  2 x3  10

6 x1  4 x2  26
8 x  5 x  x  35
 1 2 3

Solution :
On a :

 2 1 2  10 
 
 6 4 0  26 
 8 5 1  35 
 

62
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 2 1 2  1 0 0   u11 u12 u13 


    
 6 4 0    l21 1 0   0 u 22 u 23 
8 5 1  l  
   31 l32 1   0 0 u33 

 u11 u12 u13 


 
  l21u11 l21 u12  u 22 l21 u13  u 23 
 
 l31u11 l31 u12  l32 u 22 l31 u13  l32 u 23  u33 

u11  2 l 21u11  6 l31u11  8


  
 (1) u12  1 ( 2) l 21 u12  u 22  4 (3) l31 u12  l32 u 22  5
u  2  l u  l u  u  1
 13 l 21 u13  u 23  0  31 13 32 23 33

l21  3

(2)  u 22  1
u  6
 23

 l31  4

(3)  l32  1
u  1
 33
Alors :

1 0 0 2 1 2 
   
L  3 1 0 , U  0 1  6
4 1 1   0 0  1
  

Pour résoudre le système linéaire on résout d'abord le système triangulaire L y  b.

1 0 0   y1  10 
    
3 1 0   y2    26 
4
 1 1   y3   35 

En utilisant la substitution pour résoudre successivement y1, y2 et y3, on obtient :

 y1  10  y1  10
 
L y  b  3 y1  y 2  26   y 2  4
4 y  y  y  35  y  1
 1 2 3  3

On résout maintenant le système triangulaire U x  y , c'est-à-dire :

 2 1 2   x1  10 
    
 0 1  6   x2     4 
 0 0  1  x    1 
  3   

63
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

2 x1  x2  2 x3  10  x1  3
 
U x  y   x2  6 x3  4   x2  2
 x  1 x  1
 3  3

3
 
Donc la solution du système est : x   2
1 
 

5.3.3 Méthode de factorisation de Choleski


[Link] Principe de la méthode
La méthode de factorisation pour une matrice A symétrique ai j  a j i , définie et positive
( Det ( A)  0 et aij réels). Il existe une unique matrice triangulaire inférieure L telle que :

A L Lt
Où L est une matrice triangulaire inférieure et Lt est une matrice triangulaire transposée de L.

Si les éléments diagonaux de L sont strictement positifs, alors la factorisation est unique.
Le système A x  b s’écrit alors :

L y  b
Ax  b L L

t
x  b   t
y L x  y

Le système à résoudre A x  b se ramène alors à la résolution de deux systèmes triangulaires :


L y  b et Lt x  y.

[Link] Détermination des matrices L et Lt


La matrice A s’écrit : A L Lt où L  lij 1 i , j  n , lij  0 si j > i et L est une matrice
triangulaire inférieure et Lt une matrice triangulaire transposée de L.

 a11 a12 ... a1n   l11 0 ... 0   l11 l12 ... l1n 
    
a a 22 . .. a 2 n   l21 l22 ... 0   0 l22 ... l2 n 
A   21 
... ... ... ...   ... ... ... ...   ... ... ... ... 

   
a
 n1 an 2 .. . ann   ln1 ln 2 ... lnn   0 0 ... lnn 

Les éléments de matrice sont déterminés par les relations suivantes :


 i 1
lii  aii   l ik ; i  1, ..., n
2

 k 1

l  1  a  l l ; j  i  1, ..., n
j 1

 ij
lii 
ij  ik jk 
 k 1 

64
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

Une fois les composantes lii et lij sont déterminées, on résout donc d’abord le système
L y  b après on résout le système Lt x  y .

Remarque :
n3
1) La méthode de Cholesky nécessite opérations élémentaires (meilleure que celle de
3

Gauss).

2) Det ( A)  Det L Lt   Det L 2   lii2


n

i 1

i 1
3) Pour une matrice définie positive, on a : lii2  a jj   l ik2  0
k 1

Exemple :
Utiliser la méthode de factorisation de Choleski pour résoudre le système suivant :

3x1  x2  x3  1

 x1  x2  2
 x  x  1
 1 3

Solution :
3 1 1 
 
On a : 1 1 0 
 1 0 1 
 
A est symétrique ai j  a j i .

3 1 1 
1 0  
A est positive : a11=3 > 0, Det    1  0 et Det 1 1 0   1  0
0 1  1 0 1 
 

Alors il existe une unique matrice triangulaire inférieure L telle que : A L Lt

 3 1  1   l11 0 0   l11 l21 l31 


     
A  1 1 0    l21 l22 0  0 l22 l32 
 1 0 1  l  
   31 l32 l33  0 0 l33 

 l112 l11 l 21 l11 l31 


 
  l21 l11 2
l21  l22
2
l21 l31  l22 l32 
 
 l31 l11 l31 l21  l32 l22 l312  l322  l332 
 

65
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

l112  3 l 21 l11  1 l31 l11  1


  
 (1) l11 l21  1 ( 2) l 212  l222  1 (3) l31 l 21  l32 l22  0
l l  1 l l  l l  0 2 2
l31  l32  l33  1
33
 11 31  21 31 22 32

  3
l11  3  3 l31  
 l21   3
 3
 3 
 (1) l21  (2)  3
(3) l32 
 3 l  2  3
 3  22 3  3
l31   l33 
 3  3

Alors :
   3 3 
 3 0 0   3  
  3 3 
 3 2  et  2 3 
L 0 Lt   0 
 3 3   3 3 
  
3 3 3  0 3 
   0
 3 3 3   3 

 
 3 0 0 
  y  1 
  1   
On résout d’abord le système L y  b , c'est-à-dire :  3 2
0   y2    2 
 3 3   y  1 
  3  
3 3 3
 
 3 3 3 


 3 y1  1
  y1  0.5773
 3 2 
Lyb  y1  y2  2   y 2  2.0412
 3 3  y  1.4228
 3  3
3 3
 y1  y2  y3  1
 3 3 3

 3 3 
 3  
 3 3 
  x1   0.5773 
2 3     
On résout maintenant Lt x  y , c'est-à-dire :  0  x2    2.0412 
 3 3    
   x3  1.4228 
 0 3 
 0
 3 

66
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 3
 x3  1.4228
 3
 x3  2.4643
 2 3 
L xy
t
  x2  x3  2.0412   x 2  0.7574
 3 3  x  0.6617
  1
3 3
 3 x1  x2  x3  0.5773
 3 3

 0.6617 
 
Donc la solution du système est : x   0.7574 
 2.4643 
 

5.4 Exercices
Exercice 1 :
Soit le système d’équations linéaires suivant :

6 x1  x2  x3  12

 2 x1  4 x2  0
x  2x  6x  6
 1 2 3

1/ Ecrire la forme matricielle A x  b de ce système.

2/ Obtenir un système triangulaire supérieur A x  b par la méthode d’élimination de

Gauss et le résoudre à l’aide de cette méthode.

3/ Déduire le déterminant de la matrice A.


4/ Factoriser la matrice A du système en produit LU, puis résoudre ce système.

Exercice 2 :
Soit le système d’équations linéaires suivant :

0.0003 x1  3.0000 x2  2.0001



1.0000 x1  1.0000 x2  1.0000

1/ Résoudre le système en utilisant la méthode de Gauss.

2/ Résoudre le système en utilisant la méthode de Gauss avec pivot.

3/ Sachant que la solution exacte du système est  x1 , x 2   1 3 , 2 3, que peut-on conclure à
partir des deux résultats précédentes ?

67
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

Exercice 3 :
Soit le système d’équations linéaires suivant :

2 x1  x2  x3  1

 x1  2 x2  x3  2
x  x  2x  3
 1 2 3

1/ Ecrire ce système sous la forme matricielle A x  b et montrer que ce système admet une
solution unique.
2/ Peut-on décomposer la matrice A sous la forme A L Lt ; où L est une matrice triangulaire
inférieure ?
3/ Si la réponse est oui, résoudre ce système par la méthode de Cholesky, en déduire la valeur
du déterminant de A.

Exercice 4 :
Soit le paramètre   0 . Calculer l’inverse de la matrice suivante :

1  2 
 
A 2 2  1 3 
 1   2  

5.5 Corrigés des exercices


Exercice 1 :
1/ Le système sous forme matricielle A x  b :

6 1 1  x1  12 
    
2 4 0   x2    0 
1
 2 6   x3   6 

2/ Triangularisation du système par la méthode de Gauss :


On construit le système augmenté :

 6 1 1  12  L1
 
 2 4 0  0  L2
1 2 6  6  L
  3

68
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 2 6 1 1  12 
L2  L2  6 L1  
Etape 1 :    0 11 3  1 3   4 
L  L  1 L  0 11 6 35 6  4 
 3 3
6
1  

6 1 1  12 
3  
Etape 2 : L3  L3  L 2   0 11 3  1 3   4 
6 0 0
 6  6 

Ce qui correspond au système triangulaire A x  b :

6 1 1   x1   12 
    
 0 11 3  1 3   x2     4 
0
 0 6   x3   6 

Donc :
6 x1  x 2  x3  12
11  x3  1
 1 
 x 2  x 3  4   x 2  1
3 3 x 2
 6 x3  6  1

 2
 
Donc la solution du système est : x    1
 1
 

3/ On déduit le déterminant de A :
11
det A  6   6  242
3
4/ Factorisation de la matrice A :
On a : A LU

6 1 1  1 0 0   u11 u12 u13 


    
2 4 0    l 21 1 0   0 u 22 u 23 
 
1 2
 6   l31 l 32 1   0 0 u 33 

 u11 u12 u13 


 
  l21u11 l21 u12  u 22 l21 u13  u 23 
 
 l31u11 l31 u12  l32 u 22 l31 u13  l32 u 23  u33 

u11  6 l 21u11  2 l31u11  1


  
 (1) u12  1 ( 2) l 21 u12  u 22  4 (3) l31 u12  l 32 u 22  2
u  1  l u  l u  u  6
 13 l 21 u13  u 23  0  31 13 32 23 33

69
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

l 21  1 3  l31  1 6
 
( 2)  u 22  11 3 (3)  l32  1 2
u  1 3 u  6
 23  33
Alors :

1 0 0 6 1 1 
   
L  1 3 1 0  , U   0 11 3  1 3 
1 6 1 2 1 0 0 6 
 

Pour résoudre le système linéaire on résout d'abord le système triangulaire L y  b.

1 0 0   y1  12   y1  12
     
1 3 1 0   y2    0    y 2  4
1 6 1 2
 1  y 3   6  y  6
 3

On résout maintenant le système triangulaire U x  y , c'est-à-dire :

6 1 1   x1  12   x3  1
     
 0 11 3  1 3   x2     4    x 2  1
0
 0 6   x3   6  x  2
 1

 2
 
Donc la solution du système est : x    1
 1
 

Exercice 2 :
1/ Résolution du système par la méthode de Gauss :
On écrit le système sous la forme matricielle suivante :

 0.0003 3.0000  x1   2.0001


     
1.0000 1.0000  x2  1.0000 

On forme la matrice augmentée :

 0.0003 3.0000  2.0001  L1


 
1.0000 1.0000  1.0000  L2

 0.0003 3.0000  2.0001 


L2  L2  3333.3333L1   
 0  9998.9999   6665.9999 

La résolution du système à matrice triangulaire supérieur donne :

70
Chapitre 5 Méthode de résolution directe des systèmes d’équations linéaires

 9998 .9999 x2   6665 .9999  x2  0.6667



0.0003 x1  3.0000 x2  2.0001  x1  0.0000
 0.0000 
Donc, la solution du système est : x   0.6667 
 

2/ Résolution du système par la méthode de Gauss avec pivot :

 0.0003 3.0000  2.0001  L1


 
1.0000 1.0000  1.0000  L2

On choisit l’élément le plus grand dans la 1ére colonne, le pivot est donc 1.0000. Alors on
effectue une permutation entre les lignes 1 et 2, ceci donne :

1.0000 1.0000  1.0000  L1


 
 0.0003 3.0000  2.0001  L2

1.0000 1.0000  1.0000  L1


L2  L2  0.0003L1   
 0 2.9997  1.9998  L2
La résolution du système à matrice triangulaire supérieur donne :

2.9997 x2  1.9998  x2  0.6667



1.0000 x1  1.0000 x2  1.0000  x1  0.3333
 0.3333 
Donc, la solution du système est : x   0.6667 
 

3/ Conclusion :
On a : xexacte      
13 0.3333

 2 3   0 . 6667 

On remarque à partir des deux résultats précédents que la méthode de Gauss avec pivot
donne une solution plus proche de la solution exacte. On conclue que la méthode de Gauss
avec pivot permet de minimiser les erreurs de calculs.

71
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

Méthode de résolution approximative


des systèmes d’équations linéaires

6.1 Introduction
La solution par les méthodes directes pose certains problèmes lorsque les systèmes
deviennent plus grands ou lorsque la plupart des coefficients sont nuls (les matrices creuses).
Quand n est assez grand, ces méthodes ne sont plus concevables vu le nombre très grand
d'opérations à effectuer qui engendre la propagation des erreurs d'arrondi. On a alors recours
aux méthodes itératives ou approximatives qui consistent à générer une suite de vecteurs x(k)
(les itérés) convergente vers la solution x du système linéaire A x  b .

Partant d’un vecteur initial x(0), on engendre une suite x(k) définie par :

x( k 1)  B x( k )  C

Où la matrice carrée B d’ordre n appelée matrice d'itération de la méthode, et C est un vecteur


de IRn. La matrice B et le vecteur C sont en fonction de A et b.

6.2 Principe des méthodes itératives


On décompose la matrice A inversible sous la forme A  M  N où M est inversible,
alors :

A x  b  M  N  x  b
 M x  N xb
 x  M 1 N x  M 1 b
La méthode itérative consiste à partir d’un vecteur initial x(0) à générer une suite x(k+1) définie
par :

x ( k 1)  M 1 N x ( k )  M 1 b
Cette suite peut être représentée par la relation itérative suivante :

x( k 1)  B x ( k )  C , k  0,1, 2, ...


Avec : B  M 1 N et C  M 1 b

6.3 Décomposition de la matrice A:


On considère la décomposition suivante de la matrice A:

72
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

 U 
 
A  D  L U   D 
 L 
 

Avec :

D est la matrice diagonale formée des éléments aii 1in :

 a11 0 ... ... 0 


0 a   
d ii  aii ,  i  22

D  D       
d ij  0 ,  i  j 
  0 


0 ... ... 0 a nn 
 

L est la matrice formée des éléments sous-diagonaux de A :


0 0 ... 0
lij   a ij ,  i  j   a 21 0 ...  
L  L
 0 , i  j  ... ... 0 
 
  a n1  a n 2 ... 0 

U est la matrice formée des éléments sur diagonaux de A :


0  a12 ...  a1n 
u ij   aij ,  i  j 0 0 ...  a 2 n 
U   U 
 0 ,  i  j  ... ... ... 
 
0 0 ... 0 

6.4 Méthodes itératives


6.4.1 Méthode de Jacobi
La matrice A étant décomposée en :
A  M  N  D  L  U 

Cette décomposition conduit à :

A x  b  D x  L  U  x  b

et à la méthode itérative de Jacobi :


x ( k 1)  D 1 L  U  x ( k )  D 1 b

La matrice J  D 1 L  U  est appelée "matrice de Jacobi" associée à la matrice A. Si x(0) est


le vecteur initial (donné), la méthode de Jacobi est de la forme :

73
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

 
1  (k) 

 bi   aij xi  , i  1, 2, ..., n
( k 1)
x i 
aii  j 1 
 j i 
Cette méthode nécessite des pivots non nuls aii  0 pour i  1, 2, ..., n (c’est à dire D
inversible).

6.4.2 Méthode de Gauss-Seidel


La matrice A étant décomposée en:
A  M  N  D  L   U

Cette décomposition conduit à :

A x  b  D  L  x  U x  b
La méthode de Gauss-Seidel s’exprime alors par la suite :

x ( k 1)  D  L  U x ( k )  D  L  b
1 1

La matrice G  D  L 1 U est appelée "matrice de Gauss-Seidel" associée à la matrice A.

Comme l’inverse de la matrice D  L peut être compliqué à calculer, on préfère écrire le


système comme suit :

D x ( k 1)  L x ( k 1)  U x ( k )  b 
x ( k 1)  D 1 L x ( k 1)  D 1 U x ( k )  D 1 b

Si x(0) est le vecteur initial (donné), la méthode de Gauss-Seidel est de la forme :

1  i 1 n 
xi( k 1)   bi   aij x (jk 1)  a x (jk )  , i  1, 2, ..., n
aii  ij
 j 1 j i 1 

6.4.3 Méthode de relaxation


La matrice A étant décomposée en:

D   D 
A  M  N    L    D   U , w  IR*
w   w 
Cette décomposition conduit à :

D  1 w 
A x  b    L x   D U  x  b
w   w 
La méthode de relaxation s’exprime alors par la suite :
1 1
( k 1) D   1 w  D 
x    L  D  U  x (k )    L  b
w   w  w 
74
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

Cette équation peut être remplacé par :


1
D  D 1  ( k )  D 1 
x ( k 1)    L x ( k 1)   1  w  U  x    b
 w  w   w 
1
D  1  w 
La matrice de relaxation est donnée par : R    L   D U 
w   w 

Si x(0) est le vecteur initial (donné), la méthode de relaxation est de la forme :

w  i 1 n 
xi( k 1)  xi( k )   bi   aij x (jk 1)  a x (jk )  , i  1, 2, ..., n
aii  ij
 j 1 j i 1 

Remarque :
Si D est inversible : R  I  wD 1 L   1  w I  w D
1 1
U 
- Si w = 1, on retrouve la méthode de Gauss-Seidel.
- Si w > 1, procédé de sur-relaxation.
- Si w < 1, procédé de sous-relaxation.

6.5 Condition de convergence


La condition nécessaire et suffisante de convergence d'une méthode itérative
( k 1)
x  B x ( k )  C est que le rayon spectral de la matrice soit inférieur à l’unité (la norme
matricielle B  1 ).

Où les normes matricielles sont donnée par :

 n 
B   max  aij  maximum sur les lignes.

1i n
 j 1 

 n 
B 1  max  aij  maximum sur les colonnes.
1 j  n
 i 1 

a
2
B2 ij
est le rayon spectral de la matrice symétrique semi-définie positive At A.
ij

Cette condition est équivalente à dire que la matrice A est diagonalement dominante.
n
Pour toutes les lignes, aii  a
j 1, j i
ij ,  i  1, ..., n.

n
Pour toutes les colonnes, a jj  a
i 1, i  j
ij ,  j  1, ..., n.

75
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

Alors, Si la matrice A est à diagonale strictement dominante (condition suffisante), les


méthodes itératives sont convergentes.

6.6 Critère d’arrêt


On arrête les calculs pour les méthodes itératives lorsque la différence absolue entre deux
itérations successives soit inférieure à une certaine précision 𝜀 donnée.

x ( k 1)  x ( k )  

Pour estimer l’erreur des approximations du processus itératif on utilise la formule suivante :

k
B
xx (k )
 x (1)  x (0)
1 B

Exemple :
Considérons le système linéaire :

 4 2 1   x   4
    
 1 2 0   y    2
 2 1 4   z   9 

Résoudre ce système par les méthode de Jacobi et de Gauss-Seidel en utilisant le vecteur
initial x (0)=(0, 0,0)t.

Solution:
Le système s’écrira en forme réduite :

 y z
x  1  2  4

 x
y  1
 2
 9 x y
z  4  2  4

En calculant les itérées avec la méthode de Jacobi, en considérant la suite :

 ( k 1) y (k ) z (k )
x  1 
 2 4
 ( k 1) x(k )
 y  1 
 2
 ( k 1) 9 x ( k ) y ( k )
z   
 4 2 4

76
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

A partir de x (0)=(0, 0,0)t, On obtient les itérations suivantes :

 1 1   3 3   1 61 
 0 0  1     1  1  2  2  1  32  32 
1    
 2 4   1   2 4    16   2 4   1  2 4   5 
    8     128 
 0    x ( 2)   1  1    3 ,   1    ( 4)   1   15 
x (1)   1  1 ,  2   2  x  1 
16 8
2        132 , x   1   
( 3)

    2 2 16 
9         
 9  0  0   4  9  1  1   3 2  3   61  265 
    
9 1  32 
 1 1   128
4 2 4  4 2 4   16  2  1  8  32   
4 2 4   2 4 
   

Le tableau suivant rassemble les résultats des quatre premières itérations.


k x(k) y(k) z(k)
0 0 0 0
1 1 1 2.25
2 -0.0625 1.5 1.5
3 -0.125 -0.0312 1.9062
4 0.03906 0.9375 2.0703

La suite x(k) converge vers (0,1,2)t la solution du système au bout de quatre itérations.

En calculant les itérées avec la méthode de Gauss-Seidel, en considérant la suite :

 ( k 1) y (k ) z (k )
x  1 
 2 4
( k 1)
 ( k 1) x
y  1
 2
 ( k 1) 9 x ( k 1) y ( k 1)
z   
 4 2 4
A partir de x (0)=(0, 0,0)t, On obtient les itérations suivantes :

 0 0   3 11   3 61 
1    1   8  1  32  64 
 2 4   1   2 4   3   2 4  
 
  32    
9 
   3 1024 
   3 , ( 2) 
1    (3)  91024  
x (1)
  1 32 61 2047 
 2   2  x   1 2    64 , x  1 
2
 2048 
  11        
3    3 61   527     16349 
9  1  2  8    9 2047
  9
  32  64  256 9
  1024  2048   8192 
4 2 4  4 2 4  4 2 4 
   

Le tableau suivant rassemble les résultats des trois premières itérations.


k x(k) y(k) z(k)
0 0 0 0
1 1 1.5 1.375
2 - 0.0937 0.9531 2.0585
3 0.0087 0.9995 1.9957

La suite x(k) converge vers (0,1,2)t la solution du système au bout de trois itérations.

77
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

6.7 Exercices
Exercice 1 :
Soit le système d’équations linéaires suivant :

 5 x1  x2  x3  x4  4
 x  10 x  x  x  12
 1 2 3 4

 x1  x2  5 x3  x4  8
 x1  x2  x3  10 x4  34

1/ Ecrire les matrices J de l’itération de Jacobi et G de l’itération de Gauss-Seidel associées au


système.

2/ Donner la condition suffisante pour avoir la convergence des méthodes de Jacobi et Gauss-
Seidel pour la résolution du système.

3/ Résoudre le système d’équations linéaires par la méthode de Jacobi, en suite par la méthode
de Gauss-Seidel avec le vecteur initial x (0)=(0, 0, 0, 0)t.

4/ Sachant que la solution exacte est x  1, 2, 3, 4T , que peut-on conclure ?

Exercice 2 :
1- Réécrire le système linéaire de façon qu’il soit diagonale dominante :

 2 x1  10 x3  7

 10 x1  x2  9
 x  10 x  2 x  10
 1 2 3

2- En utilisant la méthode de Jacobi puis celle de Gauss-Seidel, calculer les trois premières
itérations en prenant x(0)=(0, 0, 0)t.
Exercice 3 :
Donner une condition suffisante sur le coefficient α pour avoir convergence des méthodes de
Jacobi et Gauss-Seidel pour la résolution d’un système linéaire associé à la matrice :

 0 1
 
A0  0
1 0  

Exercice 4 :
Soit le système d’équations linéaires suivant :

78
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

4 x1  x2  2 x3  4

( S ) 3x1  5 x2  x3  7
 x  x  3x  3
 1 2 3

Donner le nombre suffisant d’itérations pour que les deux méthodes (Jacobi et Gauss-Seidel)
donnent une solution approchée de (S) à 10 -2 près.

6.8 Corrigés des exercices


Exercice 1 :
1/ Ecriture des matrices J de l’itération de Jacobi et G de l’itération de Gauss-Seidel :

 5 1  1  1   x1    4 
    
 1 10  1  1   x2   12 
A 
On a : 1 1 5  1   x3   8 
    
 1 1  1 10   x4   34 

On écrit la matrice A sous la forme A  D  L  U où :

5 0 0 0  0 0 0 0 0 1 1 1
     
 0 10 0 0  1 0 0 0 0 0 1 1
D , L  , U 
0 0 5 0 1 1 0 0 0 0 0 1
     
 0 0 0 10  1 1 1 0  0 0 0 0 
   
La matrice de Jacobi J est donnée par :

J  D 1 L  U 

1 5 0 0 0 0 1 1 1
  
 0 1 10 0 0  1 0 1 1
D L  U   
1

0 0 1 5 0  1 1 0 1
  
 0 0 0 1 10  1 1 1 0 
 

Alors :

 0 15 15 15 
 
1 10 0 1 10 1 10 
J 
15 15 0 15 
 
1 10 1 10 1 10 0 

79
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

La matrice de Gauss-Seidel G est donnée par :

G  D  L  U
1

 5 0 0 0  15 0 0 0 
   
  1 10 0 0   1 50 1 10 0 0 
D  L     D  L 1 
1 1 5 0  11 250 1 50 15 0 
   
  1  1  1 10   33 1250 3 250 1 50 1 10 
   

 15 0 0 0 0 1 1 1
  
 1 50 1 10 0 0 0 0 1 1
D  L  U  
1

11 250 1 50 15 0 0 0 0 1
  
 33 1250 3 250 1 50 1 10   0 0 0 0 
 

Alors, on obtient :

0 15 15 15 
 
0 1 50 3 25 3 25 
G
0 11 250 8 125 3 125 
 
0 33 1250 24 625 75 1250 

2/ La convergence des méthodes de Jacobi et Gauss-Seidel :

La méthode itérative x ( k 1)  B x ( k )  C converge si pour une norme matricielle donnée,

on a B  1 .

 0 15 15 15  0 15 15 15 
   
1 10 0 1 10 1 10  0 1 50 3 25 3 25 
On a : J  , G
15 15 0 15  0 11 250 8 125 3 125 
   
1 10 1 10 1 10 0  0 33 1250 24 625 75 1250 
 

Alors :
 4 
B  J  max  aij   max ai1  ai 2  ai 3  ai 4 
1i  4
 j 1  1i 4
 max a11  a12  a13  a14 ; a21  a22  a23  a24 ; a31  a32  a33  a34 ; a41  a42  a43  a44 
 max1 5  1 5  1 5 ,1 10  1 10  1 10 , 1 5  1 5  1 5 ,1 10  1 10  1 10
 max3 5 , 3 10 , 3 5 , 3 10  3 5  1
 4 
B  G  max  aij   max  ai1  ai 2  ai 3  ai 4   3 5  1
1i  4  1i  4
 j 1 

Donc les méthodes de Jacobi et Gauss-Seidel convergent.

80
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

3/ Résolution du système par les méthode de Jacobi et de Gauss-Seidel en utilisant le vecteur


initial x (0)=(0, 0, 0, 0)t :

- Méthode de Jacobi:
Le système récursif pour la méthode de Jacobi s’écrit :

 ( k 1) 1 ( k )
 x1 
 x 2  x3( k )  x4( k )  4
5

10

 x ( k 1)  1 x ( k )  x ( k )  x ( k )  12
 2 1 3 4 

5
1 2 4 
 x ( k 1)  1 x ( k )  x ( k )  x ( k )  8
 3

 x1( k 1)  
1 (k )
x1  x2( k )  x3( k )  34 
 10
A partir de x(0)=(0, 0, 0, 0)t, On obtient les itérations suivantes :
k x1( k ) x 2( k ) x 3( k ) x 4( k )
0 0 0 0 0
1 -0.8000 1.2000 1.6000 3.4000
2 0.4400 1.6200 2.3600 3.6000
3 0.7160 1.8400 2.7320 3.8420
4 0.8828 1.9290 2.8796 3.9288
5 0.9474 1.9691 2.9484 3.9691

 0.9474 
 
1.9691 
La solution approchée est : x J  
2.9484 
 
 3.9691 
 

- Méthode de Gauss-Seidel :
Le système récursif pour la méthode de Gauss-Seidel s’écrit :

 ( k 1) 1 ( k )

 x1  5 x2  x3  x4  4
(k ) (k )

10

 x ( k 1)  1 x ( k 1)  x ( k )  x ( k )  12
 2 1 3 4 

5

 x ( k 1)  1 x ( k 1)  x ( k 1)  x ( k )  8
 3 1 2 4 

 x1( k 1)  
1 ( k 1)
x1  x2( k 1)  x3( k 1)  34 
 10

81
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

A partir de x(0)=(0, 0, 0, 0)t, On obtient les itérations suivantes :


k x1( k ) x 2( k ) x 3( k ) x 4( k )
0 0 0 0 0
1 -0.8000 1.1200 1.6640 3.5984
2 0.4764 1.7773 2.7697 3.9020
3 0.8891 1.9560 2.9494 3.9794
4 0.9770 1.9905 2.9894 3.9957

 0.9770 
 
1.9905 
La solution approchée est : xG  
2.9894
 
 3.9957 
 

4/ Conclusion :

En comparant les résultats approximatifs des deux méthodes avec la valeur exacte de la
solution, on peut dire que la méthode de Gauss-Seidel est la plus précise que la méthode de
Jacobi.

Exercice 2 :
 2 x1  10 x3  7

On a :  10 x1  x2  9
 x  10 x  2 x  10
 1 2 3

1- Réécriture du système pour qu’il soit à diagonale dominante :


Pour que le système soit à diagonale dominante, il faut que la condition suivante satisfaite :
3
aii  a
j 1, j i
ij ,  i  1, 2, 3.

Le système qui vérifie cette condition est :

 10 x1  x2  9

 x1  10 x2  2 x3  10
  2 x  10 x  7
 1 3

Parce que :

82
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

  1  0  10

  1   2  10

  2  0  10
2- Calcul les trois premières itérations en utilisant la méthode de Jacobi et de Gauss-Seidel :

- Méthode de Jacobi :
Le système récursif pour la méthode de Jacobi s’écrit :

 ( k 1) x2( k )  9
 x1  10

 ( k 1) x1( k )  2 x3( k )  10
 x2 
 10
 ( k 1) 2 x1  7
(k )

 x3 
 10
A partir de x(0)=(0, 0, 0)t, On obtient les trois itérations suivantes :
K x1( k ) x 2( k ) x 3( k )
0 0 0 0
1 0.9000 1.0000 0.7000
2 1.0000 1.2300 0.8800
3 1.0230 1.2760 0.9000
1.0230 
 
La solution approchée est : x  1.2760 
 0.9000 
 
- Méthode de Gauss-Seidel :
Le système récursif pour la méthode de Gauss-Seidel s’écrit :
 ( k 1) x2( k )  9
 x1  10

 ( k 1) x1( k 1)  2 x3( k )  10
 x2 
 10
 ( k 1) 2 x1  7
( k 1)

 x3 
 10
(0) t
A partir de x =(0, 0, 0) , On obtient les trois itérations suivantes :
k x1( k ) x 2( k ) x 3( k )
0 0 0 0
1 0.9000 1.0900 0.8800
2 1.0090 1.2769 0.9018
3 1.0277 1.2831 0.9055

83
Chapitre 6 Méthode de résolution approximative des systèmes d’équations linéaires

1.0277 
 
La solution approchée est : x  1.2831 
 0.9055 
 

Exercice 3 :
 0 1
 
A0  0
On a :
1 0  

Une condition suffisante pour la convergence des méthodes de Jacobi et de Gauss-Seidel est
que A est à diagonale strictement dominante :
3
 0 1

 aij  aii ,  j  1, 2, 3   0  0  
i 1 
1  0  
j i

La matrice A vérifie cette condition si et seulement si   1.

Exercice 4 :
On utilise la formule d’estimation d’erreur des approximations du processus itératif :
k
B
xx (k )
 x (1)  x (0)
1 B
Ce qui nous permet d’estimer le nombre suffisant d’itérations k pour approximer x avec la
précision ε=10 -2.
On obtient :

kJ  29, kG  20.

84
Bibliographie_____________________________________________

Bibliographie
[1] M. A. Aziz Alaoui et C. Bertelle, Méthode numériques appliquées : cours, exercices
corrigés et mise en œuvre en JAVA, Université Le Havre Normandie, 2002.

[2] K. E. Atkinson, An introduction to numerical analysis, 2nd ed., University of Iowa, John
Wiley Sons, 1989.

[3] S. Baskar, Introduction to Numerical Analysis, IITB Math - IIT Bombay.

[4] T. Cluzeau, Analyse numérique, École Nationale Supérieure d’Ingénieurs de Limoges,


Université Limoges.

[5] F. Curtis., P.O. Gerald Wheatdey, Applied Numerical Analysis, Addison- Wesley Pub.
Compagny, 2003.

[6] E. da Silva, Méthodes et Analyse Numériques, Institut Polytechnique de Grenoble,


Université Grenoble Alpes, 2011.

[7] G. Faccanoni, Analyse numérique - Recueil d’exercices corrigés et aide-mémoire,


Université du Sud Toulon, 2014.

[8] J. F. Epperson, An introduction to numerical methods and analysis, 2nd ed., Math.
Reviews, John Wiley Sons, 2013.

[9] A. Boutayeb M. Derouich, Analyse numérique, Université Mohamed 1er Maroc, 2010-
2011.

[10] S. K. Khadka, A Notebook on Numerical Methods - For Be-V Semester (Computer


Engineering), 2016.

[11] S. Benkouda, Méthodes Numériques, Université frères Mentouri Constantine.

[12] J. R. Chasnov, Numerical Methods, Hong Kong University, 2012.

[13] M. Saad, Analyse numérique, Ecole Centrale de Nantes, 2011-2012.

[14] K. MEBARKI, Analyse Numérique- Cours 2ème année licence mathématiques,


Université Abderrahmane Mira Béjaia.

[15] G. Legendre, Méthodes numériques – Introduction à l'analyse numérique et au


calcul scientifique, Université Paris I- Dauphine, 2018.

[16] A. Fortin, Analyse numérique pour ingénieurs, 4ème ed., Presses internationales
Polytechnique, Université Laval 2011.

[17] M. Pierre et A. Henrot, Analyse Numérique, Ecole des Mines de Nancy, 2013-2014.

[18] J.P. Calvi, Analyse Numérique, UPS Université de Toulouse, 2011.

85

Vous aimerez peut-être aussi