0% ont trouvé ce document utile (0 vote)
72 vues10 pages

Chapitre1 20

cours analyse numerique

Transféré par

Sylvestre Zon
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
72 vues10 pages

Chapitre1 20

cours analyse numerique

Transféré par

Sylvestre Zon
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Equations non linéaires

1.1 Position du problème


Soit F une application non linéaire de D ⊂ Rk (ou Ck ) dans Rk (ou Ck ).
On cherche le (ou les) x̄ ∈ D vérifiant

F (x̄) = 0. (1.1)

Les méthodes numériques pour approcher x̄ consistent à


— localiser grossièrement le ou les zéros de F . Notons x0 cette solution
grossière.
— construire à partir à partir de x0 , une suite x1 , x2 , . . ., xn , . . .telle que
lim xn = x̄, où x̄ satisfait à (1.1).
n→+∞
On dit alors que la méthode est convergente.

1.2 Encadrement d’une racine. Dichotomie


L’existence, le nombre des racines éventuelles de l’équation (1.1) posent
des problèmes qui ne sont pas résolus par une méthode générale.

Exemple 1.2.1
1. D = R, f (x) = ax2 + bx + c. Il y a au plus deux racines distinctes,
mais il peut n’y en avoir aucune :
(a) F (x) = x2 + 5x + 4 : deux racines
(b) F (x) = x2 + 2x + 1 : une racine
(c) F (x) = x2 + 4 : zéro racine.
2. D = R+ , F (x) = sin x. Il y a un nombre infini dénombrable de racines.

1
Définition 1.2.1 On dira qu’une racine r de (1.1) est séparable dans D s’il
existe un voisinage V de r, inclus dans D, tel que r soit la seule racine de
(1.1).

Dans toute la suite, nous supposons que les racines cherchées sont sépa-
rées.

1.2.1 Séparation des racines


Lorsque l’on cherche à calculer une racine de (1.1), il faut commencer par
en trouver un encadrement. Pour cela, il n’existe pas de méthode générale.
Dans la pratique, en dehors de l’étude théorique de F , on utilise deux
types de méthodes : les méthodes graphiques et les méthodes algébriques.

Méthodes graphiques
Dans le cas d’une variable, on trace le graphe de la fonction F et on
cherche son intersection avec l’axe Ox. Si on peut décomposer F en deux
fonctions f1 et f2 plus simples à étudier, et telles que F = f1 − f2 , on cherche
les points d’intersection des graphes de f1 et f2 . 
f (x, y)
Dans le cas de deux variables, F (X) = avec X = (x, y).
g(x, y)
F (X) = 0 se décompose en

f (x, y) = 0
g(x, y) = 0

on trace alors les deux courbes f (x, y) = 0 et g(x, y) = 0.

Méthodes algébriques
Nous nous restreingnons à l’étude du cas d’une variable.
Commençons par énoncer un corollaire du théorème de Rolle

Corollaire 1.2.1 Entre deux racines successives x0 et x1 de F 0 (x), il y a


une seule racine r de F (x) si F (x0 ) × F (x1 ) < 0.

Remarque 1.2.1 On notera que l’utilisation de cette propriété nécessite la


connaissance, au moins approchée, des racines de l’équation F 0 (x) = 0.

2
1.2.2 Dichotomie (ou méthode de Bolzano)
On suppose que r est une racine séparée de l’équation (1.1) dans [a, b]
(et qu’elle est la seule racine de (1.1) dans [a, b]). On utilise la condition
F (a)F (b) < 0.
Méthode : on détermine une suite d’intervalles In = [an , bn ], n = 0, 1, . . .
emboîtés dans [a, b] contenant r et telle que la longueur de In soit inférieure
à celle de In−1 .
En général, pour des raisons de calcul, la longueur de In est la moitié de
celle de In−1 .
Algorithme de dichotomie
— on pose a0 = a, b0 = b et pour n ≥ 1
1
cn = (an−1 + bn−1 )
2
— si F (an−1 )F (cn ) > 0, on pose
an = c n , et bn = bn−1
si F (an−1 )F (cn ) < 0, on pose
an = an−1 , et bn = c n .
Théorème 1.2.1 La suite (an ) définie par l’algorithme de dichotomie converge
vers r. Pour que |an − r| ≤ , il faut et il suffit que
ln( b−a

)
n≥ .
ln 2

1.3 Méthode itérative


Les méthodes itératives sont développées pour calculer une racine x̄ de
F.

1.3.1 Généralités sur les méthodes itérative


Définition 1.3.1 On appelle formule itérative à un point toute formule de
la forme :  (0)
x donné
(1.2)
x(n+1) = φ(x(n) )
Définition 1.3.2 Une méthode itérative à un point est dite convergente, si et
seulement si, quel que soit x(0) dans un domaine, la suite x(n) est convergente
vers x̄, solution de F (x) = 0.

3
Définition 1.3.3 Une méthode itérative convergente est dite d’ordre p si et
seulement s’il existe une constante C telle que

kx(n+1) − x̄k ≤ Ckkx(n) − x̄kp (1.3)

Remarque 1.3.1
— si p = 1 (et C < 1), on parle de convergence linéaire
— si p = 2, on parle de convergence quadratique
— si p = 3, on parle de convergence de convergence cubique
— si p = 1 et C = Cn , où Cn depend de n est tel que lim Cn = 0, on
n→+∞
parle de convergence sublinéaire.

Remarque 1.3.2
— une méthode est d’autant meilleure que son ordre est grand
— L’ordre, s’il existe, est défini de façon unique par 1.3.

Théorème 1.3.1 (Théorème du point fixe)


Si la fonction φ satisfait à la condition de Lipschitz

kφ(y1 ) − φ(y2 )k ≤ Kkky1 − y2 k (1.4)

avec 0 < K < 1 et pour tout y1 et y2 appartenant à la boule fermée B de


centre w et de rayon ρ telle que :

kw − φ(w)k ≤ (1 − K)ρ (1.5)

alors l’équation x = φ(x) admet une seule racine α ∈ B. Cette racine est la
limite de la suite

x(0) , x(1) = φ(x(0) ), . . . , x(n+1) = φ(x(n) )

quel que soit le choix x(0) ∈ B.

Démonstration L’équation φ(x) = x a au plus une racine dans B. En


effet, soient x et y distincts dans B tels que φ(x) = x et φ(y) = y alors

kφ(y) − φ(x)k = ky − xk ≤ Kky − xk < ky − xk

d’où l’absurdité.
La suite x(n) est dans B. Raisonnons par récurrence sur n. C’est vrai pour
n = 0, supposons x(n) ∈ B, alors

kφ(x(n) ) − φ(w)k ≤ kx(n) − wk ≤ Kρ


kφ(x(n) ) − wk ≤ kφ(x(n) ) − φ(w)k + kφ(w) − wk ≤ ρ

4
Soit x(n+1) ∈ B.
La suite x(n) est de Cauchy.
On a immédiatement :
kx(n+1) − x(n) k ≤ K n kx(1) − x(0) k
≤ K n β avec β = kx(1) − x(0) k

d’où
p−1
X
kx(n+1) − x(n) k ≤ kx(n+p−i) − x(n+p−i−1) k
i=0
p−1
X
≤ K n+p−i β
i=0
1 − K p−1 β
≤ Kn β≤ Kn
1−K 1−K
donc cette suite admet une limite α ∈ B.
φ, étant lipschitzienne, est continue, alors de
x(n+1) = φ(x(n) )
on en déduit φ(α) = α. 
Remarque 1.3.3
1. La méthode est construite une fois que l’on connait w, K et β, et de
plus elle donne la majoration de l’erreur :
Kn
kα − x(n) k ≤ kx(1) − x(0) k
1−K
elle converge d’autant plus vite que K est petit, et que x(1) est voisin
de x(0) .
2. Si l’on suppose que φ est une fonction dérivable, on a :
φ(y1 ) − φ(y2 ) = φ0 (y3 )(y1 − y2 )
avec y3 entre y1 et y2 .
Alors si |φ0 (α)| < 1, et si φ0 est continue au voisinage de α, on peut
construire (théoriquement, pas numériquement en général) la boule
fermée B, donc l’algorithme
x(0) ∈ B, x(n+1) = φ(x(n) )

5
est convergent et de plus

|φ0 (α2 )|kx(n) − αk ≤ kx(n+1) − φ(α)k ≤ |φ0 (α1 )|kx(n) − αk


|φ0 (α1 )| = sup |φ0 (x)|
x∈B
|φ0 (α2 )| = inf |φ0 (x)|
x∈B

alors si φ0 (α) 6= 0, la méthode converge à l’ordre 1.


3. Si φ est autant de fois dérivable que l’on veut, on a

0 (x − α)2 00 (x − α)m−1 (m−1)


φ(x) − φ(α) = (x − α)φ (α) + φ (α) + · · · + φ (α)
2 (m − 1)!
(x − α)m (m)
+ φ (ξ)
(m)!
(1.6)

donc si φ0 (α) = φ00 (α) = · · · = φ(m−1) (α) = 0 et φ(m) (α) 6= 0, on a :

x(n+1) − α φ(m) (ξ)


=
(x(n) − α)m m!

donc si φ(m) est continue, l’ordre de convergence est m.

Problème 1.3.1 Connaissant F , comment construire φ ?

1.3.2 Approximation successive


On pose φ(x) = x − G(x) où G est une équation équivalente à F alors
(1.1) équivaut à
φ(x) = x
Attention : Une telle opération peut-être possible de plusieurs façons ! ! !

Exemple 1.3.1

F (x) = x3 − x − 1
On peut écrire,
1 1
x = x3 − 1, x= ou x = (x + 1) 3
x2 −1
d’où trois expressions possibles pour φ (elles ne conviennent pas toutes les
trois).

6
1.3.3 La méthode de Newton-Raphson
On suppose F différentiable, et la différentielle Dx F inversible, et que
x 7→ (Dx F )−1 continue au voisinage de x̄.
On pose
φ(x) = x − (Dx F )−1 (F (x))
Alors si φ satisfait au théorème du point fixe, la suite x(n+1) = φ(x(n) )
converge vers β tel que
φ(β) = β
donc
0 = −(Dβ )−1 (F (β))
d’où F (β) = 0 ; Soit x̄ = β car x̄ a été isolé.
Donc si φ satisfait au thèorème du point fixe, l’agorithme est convergent.

Remarque 1.3.4
1. Dans la pratique, on écrit l’algorithme

xk+1 = xk − (Dx F )−1 F (xk )

où  
∂1 f1 (x) · · · ··· ∂n f1 (x)
D xk T = 
 .. .. 
. . 
∂1 fn (x) · · · · · · ∂n fn (x) (x=x
k)

(Matrice jacobienne de F)
donc
(Dx F )(xk+1 − xk ) = −F (xk )
on pose y = xk+1 − xk ;
on résoud le système linéaire

(Dx F )y = −F (xk )

puis on calcule xk+1 = xk + y.


2. Si F (x) = 0 est une équation scalaire ; il est suffisant que F soit conti-
nûment dérivable et que F 0 (x̄) soit non nul, alors l’lgorithme s’écrit :

F (xk )
xk+1 = xk −
F 0 (xk )

7
alors si F est deux fois continûment dérivable, alors, l’algorithme est
convergent, l’ordre de la convergence est supérieur à deux, en effet :
F (xk ) − F (x̄)
xk+1 − x̄ = xk − x̄ −
F 0 (xk )
1 F 00 (ξ)
= xk − x̄ − (xk − x̄) + (xk − x̄)2 0
2 F (xk )
(1.7)
donc
xk+1 − x̄ 1 F 00 (ξ)
=
(xk − x̄)2 2 F 0 (xk )
d’où le résutat.
Cette méthode peut s’interpreter graphiquement (méthode de la tan-
gente).
3. Si F (x) = 0 est une équation scalaire et si x̄ est une racine multiple
d’ordre m, et alors F 0 (x̄) = 0, on applique l’algorithme à la fonction
1
G(x) = (F (x)) m
d’où
F (xk )
xk+1 = xk − m
F 0 (xk )
Alors l’ordre de convergence est 1.
4. Lorsque F (x) = 0 n’est pas scalaire, mais que F est deux fois continû-
ment différentiable, alors l’lagorithme est convergent, l’ordre de conver-
gence est supérieur ou égal à 2.

1.3.4 Autres méthodes


La méthode de Lagrange
Elle est aussi appelée la méthode des parties proportionnelles.
On est dans le cas scalaire.
On remplace le graphe de F restreint à l’intervalle [a, b] par la droite
passant par A = (a, F (a)) et B = (b, F (b)) c’est à dire que l’on interpole la
fonction F par un polynôme P de degré un et on résout P (x) = 0.
On pose
x−a aF (x) − xf (a)
φ(x) = a − F (a) =
F (x) − F (a) F (x) − F (a)
d’où l’algorithme
aF (x(k) ) − x(k) F (a)
x(k+1) =
F (x(k) ) − F (a)

8
La méthode de la fausse position
Elle est aussi appelée regula falsi et on se place une fois de plus dans le
cas scalaire.
L’idée consiste à remplacer dans la méthode de Newton la dérivée de F
(qui peut être difficle à calculer) par une approximation de F 0 (x(k) ) ne faisant
intervenir que des valeurs de F .
Par exemple :
F (x(k) ) − F (x(k−1) )
F 0 (x(k) ) ≈
x(k) − x(k−1)
C’est la méthode de la fausse position. On a alors l’algorithme :

x(k−1) F (x(k) ) − x(k) F (x(k−1) )


x(k+1) =
F (x(k) ) − F (x(k−1) )

1.3.5 Tests d’arrêt des itérations


On se place toujours dans le cas scalaire.
Le test d’arrêt usuel consiste à arrêter les itérations dès que

|x(k+1) − x(k) | < ε

ε étant la précision désirée, où

x(k+1) = φ(x(k) ).

Lorsque φ0 (x) est négatif au voisinage de la solution α,


Comme

x(k+1) − α = φ(x(k) ) − φ(α) = φ(ξk )(x(k) − α)

on a
(x(k+1) − α)(x(k) − α) < 0
Alors
|(x(k+1) − α)| ≤ |(x(k+1) − x(k) | ≤ ε.
Lorsque φ0 (x) est positif, la suite est monotone.
On a une approximation soit par excès soit par défaut.
Mais on ne peut conclure que |(x(k+1) − x(k) | petit entraine |(x(k+1) − α)|
petit.
On utilise alors le test suivant :
On arrête les itérations dès que |F (x(k) )| ≤ η où η est une valeur fixée.

9
On a
F (x(k) ) = F (x(k) ) − F (α) ≈ (x(k) − α)F 0 (α)
donc
|F (x(k) )| ≈ |(x(k) − α)||F 0 (α)|
C’est donc un bon test surtout lorsque |F 0 (α)| n’est pas trop petit.

10

Vous aimerez peut-être aussi