0% ont trouvé ce document utile (0 vote)
32 vues10 pages

Chapitre 1

Transféré par

harounchiraz999
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
32 vues10 pages

Chapitre 1

Transféré par

harounchiraz999
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1.

Résolution des équations non linéaires f(x)=0

1.1.Méthodes numériques
1.2. Erreurs absolues et Erreurs relatives
1.3. Méthode de bissection,
1.4. Méthode des approximations successives (point fixe),
1.5. Méthode de Newton-Raphson.
1.1. Méthodes numériques
Au cœur d’une démarche de calcul scientifique se trouve une méthode numérique, qui permet
de calculer de manière approchée une propriété d’intérêt. Une telle méthode est fondée sur un
algorithme implémenté informatiquement, son bras armé en quelque sorte. Un algorithme est
une suite de tâches élémentaires qui s’enchaînent selon des règles précises, et qui est exécuté
automatiquement par un langage informatique.

1.2. Erreurs absolues et Erreurs relatives


Un nombre approché x est légèrement diffèrent du nombre exact X, et qui dans les calculs
remplace X.
• Si x < X, x est dit valeur par défaut.
• Si x > X, x est dit valeur par excès.
On note généralement x ≈ X.
Exemple
1,41 <√2 < 1,42
 On appelle erreur ∆x d’un nombre approche, la valeur :
∆x = X − x,
C’est-a-dire `
X = x +∆x
 On appelle erreur absolue ∆ d’un nombre x la valeur
∆ =| X − x |
 Si X est connu, l’erreur absolue est déterminée par ∆ =| X − x |
 Si X est inconnu, l’erreur absolue ∆ est impossible à déterminer.
Dans ce cas on introduit la limite supérieure de l’erreur absolue. ´
Si ∆x désigne la borne supérieure, donc
x −∆x ≤ X ≤ x +∆x
On note
L’erreur relative est définie par :
|𝑋 − 𝑥| ∆𝑋 ∆𝑋
E, (x) = = ≈
|𝑋| |𝑋| |𝑥|
De plus en multipliant par 100%, on obtient l’erreur relative en pourcentage.
En pratique, il est difficile d’évaluer les erreurs absolue et relative, car on ne connait
généralement pas la valeur exacte de X et l’on n’a que x. C’est pourquoi on utilise
∆𝑋
l’approximation |𝑥| pour l’erreur relative. Dans le cas de quantités mesurées expérimentalement

dont on ne connait que la valeur approximative, on dispose souvent d’une borne supérieure pour
l’erreur absolue qui dépend de la précision des instruments de mesure utilisés. Cette borne est
quand même appelée erreur absolue, alors qu’en fait on a :
 On appelle borne supérieure de l’erreur absolue tout nombre supérieur ou égal à l’erreur
absolue de ce nombre.
C’est-a-dire : ∆ =| X − x |≤ ∆x
Si ∆x désigne la borne supérieure, donc
x −∆x ≤ X ≤ x +∆x
On note
X = x ±∆x
Soit X, un nombre, et x, une approximation de ce nombre.
L’erreur absolue donne une mesure quantitative de l’erreur commise et l’erreur relative en
mesure l’importance.
Par exemple, si l’on fait usage d’un chronomètre dont la précision est de l’ordre du dixième de
seconde, l’erreur absolue est bornée par 0,1 s. Mais est-ce une erreur importante ? Dans le
contexte d’un marathon d’une durée approximative de 2h 20min, l’erreur relative liée au
chronométrage est très faible :
0.1
= 0.0000119
20 ∗ 60 ∗ 60 + 20 ∗ 60

.et ne devrait pas avoir de conséquence sur le classement des coureurs. Par contre, s’il s’agit
d’une course de 100m d’une durée d’environ 10s, l’erreur relative est beaucoup plus
importante :
0.1
= 0.01
10.0
Soit 1% du temps de course. Avec une telle erreur, on ne pourra vraisemblablement pas
distinguer le premier du dernier courseur. Cela nous améne à parler de précision et de chiffres
significatifs au sens de la définition suivante.

1.3. Résolution numérique des équations non linéaires à une seule variable

Dans ce chapitre on va étudier trois méthodes pour la résolution des équations non linéaires à
une variable aussi dites équations à variable transcendante. Comme exemple de ces équations,
on peut citer (𝐱) = 𝐬𝐢(𝒙) + 𝒙 = 𝟎, 𝐟(𝐱) = 𝐥𝐧(𝒙)− 𝟐𝒙 +𝟑 = 𝟎. Ces équations ne possèdent pas une
ou des racines exactes qui peuvent être calculées directement, c’est pourquoi on fait recours
aux méthodes numériques pour trouver les solutions approchées de ces équations. Les racines
calculées sont autant précises que l’on veut surtout lorsqu’on dispose des moyens de calcul. Ces
méthodes numériques permettent seulement le calcul d’une seule racine sur un intervalle bien
choisi. Donc si l’équation possède plus d’une racine, il est nécessaire de les localiser dans des
intervalles choisis soigneusement et de faire le calcul pour chaque racine à part.
1 Localisation des racines d’une équation f(x)=0.
Soit une équation f(x)=0 dont on cherche la solution sur un intervalle [a, b], on commence par
un tracé grossier de la fonction sur l’intervalle donnée puis on isole chaque racine dans un sous
intervalle le plus étroit possible. La Fig. 1 montre le tracé d’une fonction f qui coupe l’axe des
x en trois points, c’est-à-dire que l’équation f(x)=0 possède trois racines, on note les racines
exactes par 𝒙̅𝟏, 𝒙̅𝟐 et 𝒙̅𝟑.

Figure 1. Localisation des racines


On remarque que la fonction est continue sur chaque sous intervalle, aussi chaque sous
intervalle :
• Englobe une seule racine tel que 𝒙̅𝟏 ∈ [ , 𝒃 ], 𝒙̅𝟐 ∈ [𝒂′, 𝒃′]et 𝒙̅𝟑 ∈ [𝒂′′, 𝒃′′].
• Vérifie la condition (𝒂)𝒇(𝒃) < 𝟎, 𝒇(𝒂′)𝒇(𝒃′) < 𝟎 𝐞𝐭 𝒇(𝒂′′)𝒇(𝒃′′) < 𝟎.
La forme de l’équation f(x)=0 peut être compliquée, dans ce cas s’il est possible on peut la
décomposer en deux parties simples g(x)=h(x).
Par exemple (𝒙) = 𝐥𝐧(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎, qui est assez compliqué pour le tracé, peut être
décomposée en : 𝒈(𝒙) = 𝒉(𝒙) avec 𝒈(𝒙) = 𝐥𝐧(𝒙) 𝐞𝐭 𝒉(𝒙) = 𝒙 𝟐 − 𝟐
Le tracé de g et h est très simple, la solution de f(x)=0 se situe à l’intersection de g et h.
Ensuite, on projete les points des intersections sur l’axe des x et on localise les racines. On peut
facilement vérifier les intervalles trouvées en calculant (𝒂𝒊 )𝒇(𝒃𝒊) < 𝟎.
Exemple :
Prenons l’équation : 𝐥(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎 localisant ses racines, à ce point on ne connait pas le
nombre de racines de cette équation. On trace la courbe de la fonction :
(𝒙) = 𝐥𝐧(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎, les intersections de la courbe avec l’axe des x représentent les racines
de cette fonction.

Figure 1.2. Tracé de la fonction f Figure 1.3. Tracés des fonctions f1 et f2


On note que cette équations a deux racines (Fig. 1.2) qui appartiennent par exemple aux
intervalles [0.1, 0.5] et [1,2]. On peut aussi réécrire la fonction f(x)=0 sous une forme plus
simple, par exemple : 𝐥(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎 ⇔ 𝐥𝐧(𝒙) = 𝒙𝟐 − 𝟐 ou bien 𝑓1(𝑥) = 𝑓2(𝑥) ;
avec 𝑓1(𝑥) = 𝐥𝐧(𝒙) et 𝑓2(𝑥) = 𝒙𝟐 − 𝟐 .
Ensuite on trace ces deux fonctions (Fig. 1.3), qui sont faciles sur les mêmes axes, leurs
intersections représentent les racines de f(x)=0.
1.3.1. Méthode de bissection où de dichothomie
C’est la méthode la plus simple et qui nécessite le plus de calculs, elle est basée
sur le cas particulier (Théorème de Bolzano) du théorème des valeurs intermédiaires
qui dit que :
1. Si f(x) est continue sur l’intervalle [a,b],
2. Si f(a) et f(b) ne sont pas de même signe, il existe au moins un réel c compris
entre a et b tel que f(c) = 0 (car 0 est compris entre f(a) et f(b)).
Principe de la méthode
Une fois les racines sont localisées chacune dans un intervalle, pour simplifier l’écriture soit
par exemple [a , b] :
1. On divise l’intervalle en deux parties égales tel que 𝒙𝟎 =(𝒂+𝒃)/2
2. On obtient deux sous intervalles [a, 𝒙𝟎] et [𝒙 ,b] , la racine 𝑥̅ doit obligatoirement appartenir
à l’un d’eux. Pour vérifier, on calcule (𝒂)𝒇(𝒙𝟎) et 𝒇(𝒙𝟎)𝒇(𝒃) le produit qui est négatif c’est celui
qui correspond à l’intervalle qui contient la solution.
Notons le nouvel intervalle par [𝒂𝟏, 𝒃𝟏] tel que (Fig. 4):

Figure1.4. Illustration de la méthode de bissection

En répétant (itérant) la même méthode pour l’intervalle obtenu on aura les valeurs :
𝑎 +𝑏 𝑎 +𝑏 𝑎 +𝑏
𝑥1 = 1 2 1 ; 𝑥2 = 2 2 2 ;… … … ; 𝑥𝑛 = 𝑛 2 𝑛

La suite {𝑥𝑛 }𝑛→∞ converge vers la solution 𝒙̅ de f(x)=0 lorsque n ∞


Nombre de divisions pour avoir une précision ε donné.
Puisque chaque fois on divise l’intervalle en deux parties égales, on a :

Puisque

Il faut que la différence |𝒙𝒏 − 𝒙̅| qui est l’erreur du calcul soit inférieure à une précision donnée
ε, c’est-à-dire : |𝒙𝒏 − 𝒙| ≤ 𝜺
Alors, il suffit que
𝑏−𝑎
≤𝜀
2𝑛+1
Cela donne
𝑏−𝑎
𝑙𝑛 ( 2𝜀 )
𝑛≥
𝑙𝑛(2)
Le nombre de divisions ne dépend que de la longueur de l’intervalle est de la précision.
Cette méthode est inconditionnellement convergente, son problème c’est qu’elle est lente c’est
pourquoi elle est utilisée pour démarrer d’autres méthodes plus élaborées.
Exemple : Calculons la première racine de l’équation 𝐥(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎 qui appartient à [0.1,
0.5] avec une précision de 0.01.
Calculons le nombre de divisions à faire :

On prend n=5 puisque n est entier et supérieur à 4.32.


𝒇(𝒂𝟏) = 𝒇(𝟎. 𝟏) = −𝟎. 𝟑𝟏𝟑 et (𝒃𝟏) = 𝒇(𝟎. 𝟓) = 𝟏. 𝟎𝟓𝟕
1.3.2.Méthode des approximations successives où du point fixe.
Soit g une fonction définie sur un intervalle [a,b], le point 𝒙̅ qui vérifie 𝒙̅ = 𝒈(𝒙̅) avec 𝒙̅ ∈ [𝒂,
𝒃] est dit point fixe de la fonction g.
Cette méthode est basée sur le principe du point fixe d’une fonction, on écrit l’équation f(x)=0
sous la forme x=g(x), ensuite on cherche le point fixe 𝒙̅ de la fonction g. Pour cela on crée la
suite 𝒙𝒏+𝟏 = (𝒙𝒏) ( n=0,1,2….) avec 𝑥0 donnée par dichotomie par exemple.
On démarre de 𝒙𝟎 pour n=0, on calcule 𝒙𝟏 = (𝒙𝟎) ensuite n=1, on calcule 𝒙𝟐 = 𝒈(𝒙𝟏),..., 𝒙𝒏+𝟏
= 𝒈(𝒙𝒏). Sous certaines conditions, la suite {𝒙𝒏}=𝟎,∞ converge vers la solution 𝒙̅ point fixe
de g et solution de l’équation f(x)=0.
Exemple : Ecrire l’équation f(x)=0 sous la forme x = g(x) si (𝒙) = 𝒙𝟐 + 𝟑𝒆𝒙 − 𝟏𝟐.
On peut écrire 𝒙 = 𝒈(𝒙) = 𝒙𝟐 + 𝟑𝒆𝒙 − 𝟏𝟐 + 𝒙
𝒙 = 𝒈𝟐(𝒙) = √𝟏𝟐 − 𝟑𝒆𝒙
𝟏𝟐 − 𝒙𝟐
𝒙 = 𝒈𝟑 (𝒙) = 𝐥𝐧( )
𝟑
Pour pouvoir choisir la forme de g adéquate pour le calcul, un critère de convergence de cette
méthode doit être vérifié.
Critère de convergence et d’arrêt de calculs pour la méthode des approximations
successives.
Soit g une fonction dérivable définie de [a,b] → [a,b] tel que (condition suffisante) :
|𝒈′(𝒙)| ≤ 𝒌 < 𝟏 ∀ 𝒙 ∈ [𝒂, 𝒃]
Alors la suite {𝒙𝒏}=𝟎,∞ définie par 𝒙𝒏+𝟏 = 𝒈(𝒙𝒏) ( n=0,1,2….) converge indépendamment de la
valeur de 𝒙𝟎 vers l’unique point fixe 𝒙̅ de g.
Si plusieurs formes de g vérifient cette condition, on aura plusieurs valeurs de k. On choisit
celle avec la valeur minimale de k. En pratique, on calcule 𝒌 =𝒎𝒂𝒙𝒙∈[𝒂,𝒃]|𝒈′(𝒙)| qui doit être
inférieure à l’unité pour que la méthode converge.
On arrête les calculs pour cette méthode lorsque la différence absolue entre deux itérations
successives est inférieure à une certaine précision 𝜀 donnée.
|𝒙𝒏+𝟏 − 𝒙𝒏| < 𝜺
Exemple : Trouver la première racine de l’équation 𝐥(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎 qui
appartient à [0.1, 0.5] avec une précision ε=0.001. On écrit cette équation sous la
forme x = g(x) et on vérifie les conditions de convergence. On peut écrire :
𝟐
𝒙 = 𝒆𝒙 − 𝟐 = 𝒈𝟏 (𝒙)
et
𝒙 = √𝒍𝒏(𝒙) + 𝟐 = 𝒈𝟐(𝒙)
Vérifions la condition de convergence pour cette méthode 𝒌 = 𝒎𝒂𝒙𝒙∈[𝒂,𝒃]|𝒈′(𝒙)|
2
𝒌𝟏 = 𝒎𝒂𝒙𝒙∈[𝟎.𝟏,𝟎.𝟓]|𝒈𝟏′(𝒙)| = 𝒎𝒂𝒙𝒙∈[𝟎.𝟏,𝟎.𝟓] |𝟐𝒙𝑒 𝑥 −𝟐| on a 𝒈𝟏′(𝒙) strictement croissante
2
donc 𝒌𝟏 = 𝒎𝒂𝒙𝒙=𝟎.𝟓 |𝟐 ∗ 𝟎. 𝟓𝑒 0.5 −𝟐| = 𝟎. 𝟏𝟕𝟒 < 𝟏 cette forme converge.
2
On écrit : 𝒙𝒏+𝟏 = 𝒈(𝒙𝒏) = 𝑒 𝑥𝑛 −𝟐 (n=0,1,2,…..)
Commençons x0=0.3 le milieu de l’intervalle initial donné :
2
𝒏 = 𝟎, 𝒙𝟏 = 𝒈(𝒙𝟎) = 𝑒 𝑥0 −𝟐 = 0.148
On calcule |𝑥1 − 𝑥0| = 0,152 > 𝜀 ;
2
On continue 𝒏 = 𝟏, 𝒙𝟐 = 𝒈(𝒙𝟏) = 𝑒 𝑥1 −𝟐 = 0,138.
On calcule |𝑥2 − 𝑥1| = 0,01 > 𝜀
2
On continue 𝒏 = 𝟐, 𝒙𝟑 = 𝒈(𝒙𝟐) = 𝑒 𝑥2 −𝟐 = 0,138.
On calcule |𝑥3 − 𝑥2| = 0.00 < 𝜀, La solution est 𝒙𝟐 = 𝟎, 𝟏𝟑𝟖

1.3.3.Méthode de Newton-Raphson
C’est la méthode la plus efficace et la plus utilisée, elle repose sur le développement de Taylor.
Si f(x) est continue et continument dérivable dans le voisinage de 𝒙̅ solution de f(x)=0, alors le
développement en série de Taylor autour d’un estimé 𝒙𝒏 proche de 𝒙̅ s’écrit :

Si 𝒙𝒏 est un estimé proche de 𝒙̅, alors le carré de l’erreur 𝜺𝒏 = 𝒙̅ − 𝒙𝒏 et les termes de degrés
supérieurs sont négligeable. Sachant que (𝒙̅) = 𝟎 on obtient la relation approximative :
𝒇(𝒙𝒏) + (𝒙̅ − 𝒙𝒏)𝒇′(𝒙𝒏) ≈ 𝟎
Donc
𝒇(𝒙𝒏 )
̅ = 𝒙𝒏 −
𝒙
𝒇′ (𝒙𝒏 )
On peut écrire la (𝒏 + 𝟏)𝒎𝒆 itération approximant 𝑥̅ est :
𝒇(𝒙𝒏 )
𝒙𝒏+𝟏 = 𝒙𝒏 − (n=0,1,2,…..)
𝒇′ (𝒙𝒏 )

Cette suite, si elle converge, doit converger vers la solution 𝒙̅ de f(x)=0. On remarque que
f’(x) doit être non nulle.
4.1 Critère de convergence de la méthode de Newton-Raphson
Soit une fonction f définie sur [a,b] telle que :
i. (𝒂)𝒇(𝒃) < 𝟎
ii. 𝒇′(𝒙) 𝒆𝒕 𝒇′′(𝒙) sont non nulles et gardent un signe constant sur l’intervalle donné.
4.2 Critère d’arrêt de calcul pour la méthode de Newton-Raphson
Si la condition de convergence est vérifiée, le procédé itératif doit converger.
Cela veut dire que chaque nouvelle itération est meilleure que la précédente, de ce fait on peut
dire que si on a une précision 𝜺, on arrête le calcul lorsque la différence absolue entre deux
approximations successives est inférieure à la précision donnée.
C’est-à-dire :
|𝒙𝒏+𝟏 − 𝒙𝒏
|≤𝜺
Si cette condition est vérifiée on prend 𝒙𝒏+𝟏 comme solution de f(x)=0.
Exemple : Trouver la première racine de l’équation (𝒙) = 𝐥𝐧(𝒙) − 𝒙𝟐 + 𝟐 = 𝟎 qui appartient à
[0.1, 0.5] avec une précision ε=0,0001. On calcule la dérivée première et seconde de f et on
vérifie les conditions de convergence.
On a : 𝒇′(𝒙) =(1/x)− 𝟐𝒙 qui est strictement décroissante et positive sur l’intervalle donné.
𝒇′(𝒙) > 𝟎 et 𝒇’’(𝒙) = −(1/x2)-2, 𝒇’’(𝒙) < 𝟎 sur l’intervalle donné.
La condition de convergence est vérifiée. On écrit donc :

Commençons x0=0.3 le milieu de l’intervalle initial donné :

On calcule |𝑥1 − 𝑥0| > 𝜀 ;


On continue 𝒏 = 𝟏, 𝒙𝟐 = 0.0910.
On calcule |𝑥2 − 𝑥1| => 𝜀
On continue 𝒏 = 𝟐, 𝒙𝟑 = 0.1285.
On calcule |𝑥3 − 𝑥2| > 𝜀 ;
On continue 𝒏 = 𝟑, 𝒙𝟒 = 0.1376.
On calcule |𝑥4 − 𝑥3| => 𝜀
On continue 𝒏 = 𝟒, 𝒙𝟓 = 0.1379.
On calcule |𝑥5 − 𝑥4| => 𝜀
On continue 𝒏 = 𝟓, 𝒙𝟔 = 𝟎. 𝟏𝟑𝟕𝟗. La solution est 𝒙𝟒 = 𝟎. 𝟏𝟑𝟕𝟗
Remarque :
• La méthode de bissection est inconditionnellement convergente, son inconvénient est sa
lenteur pour obtenir la solution avec une grande précision. Elle peut servir pour démarrer
d’autres méthodes plus performantes.
• La méthode des approximations successives est plus rapide que celle de bissection à condition
qu’elle converge.
• La méthode de Newton-Raphson est la plus rapide, elle permet d’obtenir des solutions très
précises en un nombre réduit d’itérations.

Vous aimerez peut-être aussi