Résolution de systèmes linéaires par LU
Résolution de systèmes linéaires par LU
En générale, les systèmes linéaires sont issues de problèmes physiques complexes (équations
aux dérivées partielles ou équations différentielles) et la dimension de la matrice est souvent très
grande. Par conséquent, la résolution peut avoir un coup de calcul plus ou moins important suivant
la nature/structure de la matrice. Pour cette raison, il existe différentes méthodes numériques dans
la littérature. Nous allons nous intéresser à la factorisation LU d’une matrice A afin de résoudre un
système Ax = f . Une telle factorisation est toujours possible quand la matrice A est symétrique
définie positive.
La factorisation LU consiste à écrire une matrice non- singulière A comme le produit de deux
matrices L et U. L est une matrice triangulaire inférieure et U est une matrice triangulaire supé-
rieure. Il s’agit de décomposer une matrice A deux matrices de type L et U telles que A = LU .
22 a32 · · ·
0 a a2n
0 0 a · · · a
33 3n
A= ,
. . . . .
.. . . . .
. . . .
0 0 ... 0 ann
1
1.1. MATRICES TRIANGULAIRES. 2
Une matrice élémentaire est une matrice obtenue en faisant une seule opération élémentaire sur
les lignes de la matrice unitaire In .
Proposition 1.1. Soit A une matrice de type n × m et E une matrice élémentaire de In . Alors
la matrice EA est égale à la matrice obtenue en effectuant les mêmes opérations sur A que sur In
pour obtenir E.
Proposition 1.2. Soit A une matrice carrée d’ordre n inversible. Il existe une famille de matrice
élémentaire E1 , E2 , · · · , Ek telles que :
(Ek · · · E2 E1 )A = In .
Comme chaque matrice élémentaire est inversible, on a :
A = E1−1 E2−1 · · · Ek−1 et A−1 = Ek−1 · · · E2−1 E1−1
Processus
Etape 1 : On construit une matrice de type n × (2n) sous la forme : (A|In )
Etape 2 : On effectue les opérations élémentaires sur la nouvelle matrice de taille n × 2n jusqu’à
obtenir une matrice de type n × 2n de la forme (In |B)
Etape 3 : On déduit l’inverse de A qui est A−1 = B.
1 2 1
Exemple 1.3. Déterminons l’inverse de la matrice A = 0 3 −1 ,
1 0 0
On pose
1 2 1 1 0 0
A= 0 3 -1 0 1 0
1 0 0 0 0 1
Propriété 1.4. Soit une matrice A de type n×m. On suppose qu’il existe des matrices élémentaires
E1 , E2 , · · · , Ek telles que (Ek Ek−1 · · · E1 )A soit une matrice triangulaire supérieure. On effectue les
mêmes opérations correspondantes aux matrices élémentaires sur la matrice In dans le même ordre.
On note B cette nouvelle matrice. On a évidemment B = Ek Ek−1 · · · E1 .
La matrice B est inversible et est égale à la matrice inverse de L. On a : L = B −1
Alors la décomposition
LU de A est donnée par :
U = (Ek Ek−1 · · · E1 )A
A = LU avec B = (Ek Ek−1 · · · E1 )
L = B −1
1 2 1
Exemple 1.5. Déterminons la factorisation LU de la matrice A = 0 3 −1 ,
1 0 0
1.2. APPLICATIONS AUX EDP. 3
1.1.3 Résolution des systèmes linéaires.
Soit un système d’équations linéaires défini par AX = b où A est une matrice de type n × m
sur R et b un vecteur de Rm .
Si
( A possède une décomposition LU alors le système linéaire peut se ramener sous la forme :
UX = Y
LY = b
L étant inversible, on détermine d’abord Y = L−1 b puis on résout le système U X = Y .
Les matrices triangulaires L et U auraient pu être inversées aisément en utilisant l’élimination
de Gauss-Jordan. Mais si l’on compte simplement le nombre d’opérations que cela représente pour
un système à n équations AX = b, on trouvera que la complexité algorithmique du calcul des
matrices inverses est supérieure, de sorte que si l’on veut résoudre ce système pour divers b, il est
plus intéressant de réaliser la décomposition LU une fois pour toute et d’effectuer les substitutions
de descente-remontée pour les différents b plutôt que d’utiliser l’élimination de Gauss-Jordan à de
multiples reprises.
Exercice 1.6. Utiliser la décomposition LU pour résoudre chacun des systèmes suivants :
3x − 7y − 2z + 2t = a
x + 2y + z = a x + 2y − 3z = a
−3x + 5y + z
= b
(S1 ) : 3y − z = b (S2 ) : −3x − 4y + 13z = b (S3 ) :
6x − 4y − 5t = c
2x + y − 5z
x = c
= c
−9x + 5y − 5z + 12t = d
Pour calculer l’erreur commise par ces approximations, on rappelle le développement de Taylor-
Lagrange.
Propriété 1.7. Soit y : [a; b] −→ R une fonction de classe C n+1 sur [a ; b] ( n + 1 fois dérivable
et la dérivée (n+1)ième de f est continue sur [a ; b]). Alors :
pour tout (x; y) ∈ [a; b]2 , il existe ϵ appartenant à l’intervalle ouvert défini par x et y tels que :
n
1 (k) 1
f (x)(x − y)k + f (n+1) (ϵ)(x − y)n+1
X
f (x) = f (y) + (1.1)
k=1 k! (n + 1)!
∀x ∈ [a; b], ∀h ∈ R∗ vérifiant (x + h) ∈ [a; b], alors il existe ϵ ∈] min{x, x + h}, max{x, x + h}[
tel quel
1.2. APPLICATIONS AUX EDP. 4
n
1 (k) 1
f (x)hk + f (n+1) (ϵ)hn+1
X
f (x + h) = f (y) + (1.2)
k=1 k! (n + 1)!
n
1 (k)
f (x)hk + O(hn+1 )
X
f (x + h) = f (y) + (1.3)
k=1 k!
où l’expression O(hn+1 ) se lit grand O de hn+1 . C’est-à-dire qu’il existe M > 0 et C > 0 tels
1
que (n+1)! f (n+1) (ϵ)hn+1 ≤ C|hn+1 | ∀h ∈] − M ; M [
(
y ′ (t) = f (t, y) ∀t ∈ [a; b]
(1.4)
y(a) = y0
1
(
y ′ (t) = (y(t)) 3 ∀t ∈ [0; +∞[
(1.5)
y(0) = 0
1
Ce problème est un problème de Cauchy en dimension 1 dont f (t, y) = y 3 . Le problème possède
3 solutions qui sont :q q
8t3 3
y(t) = 0 ; y(t) = 27
et y(t) = − 8t27
Donc le problème ne possède pas une solution unique.
Le théorème suivant assure l’existence et l’unicité sous certaines conditions en dimension 1.
Théorème 1.8. Soit le problème de Cauchy donné par la définition par la relation (1.4) On suppose
que la fonction f est continue sur un ouvert U de R × R et quelle est localement lipschitzienne en y.
C’est-à-dire pour tout couple (t, y) appartenant à U , il existe un voisinage W de t et un voisinage
V de y, il existe L > 0 tels que :
1.2. APPLICATIONS AUX EDP. 5
Sous ces hypothèses le problème de Cauchy (1.4) admet une unique solution.
∂f (t,y)
Propriété 1.9. Si ∂y
est continue et bornée, alors f satisfait la condition de Lipschitz.
Exercice 1.10. Pour chacune des E.D.O. suivantes écrire le problème de Cauchy associé
′′
+ αy ′ (t) + βcos(y(t)) = sin(t) ∀t ∈]0; +2π]
y (t)
y(0) = 0
′
y (0) = 1
′′ L ′ R1
LCy (t) + ( R2 + R1 C)y (t) + ( R2 + 1)y(t) = e ∀t ∈]0; +100]
′
y(0) = 0
y (0) = 0
′′ 2 ′
y (t) = µ(1 − y (t))y (t) + y(t) ∀t ∈]0; +10]
y(0) = 1
′
y (0) = 1
(3)
y (t) − cos(t)y (2) (t) + 2sin(t)y (1) (t) − y(t) = 0 ∀t ∈]0; +2π]
y(0) = u0
′
y (0) = v0
y””(0) = w0
h2
y(ti+1 ) − y(ti ) = hf (ti , y(ti )) + y”(ϵi ) (1.7)
2
On note yi une approximation de y(ti ) pour i ∈ [|0; n − 1|].
La méthode d’Euler progressive est donnée par le schéma
(
yi+1 = yi + hf (ti , yi ) i ∈ [|0; n − 1|]
(1.8)
y0 = y(t0 )
(
yi+1 = yi + hf (ti+1 , yi+1 ) i ∈ [|0; n − 1|]
(1.9)
y0 = y(t0 )
Ce schéma est implicite, car yi est définit implicitement en fonction de yi+1 . Il faut donc résoudre
à chaque pas de temps une équation non-linéaire en utilisant des méthodes de point fixe par exemple.
1.3. NOTIONS DE CONDITIONNEMENT ET STABILITÉ 6
Exercice 1.11. On veut résoudre
( numériquement le problème (P) suivant qui consiste à trouver
y ′ (t) = cos(t) + 1 t ∈ [0; 4π]
ytelleque :to (1.10)dont la solution exacte est
y0 = 0
y(t) = sin(t) + t.
1. Expliquer en détail comment utiliser le schéma d’Euler progressif pour résoudre le problème
(P) en précisant entre autres les données, les inconnues, les dimensions des variables, lien
entre yi et la fonction y.
(
−u′′ (xi ) = f (xi )
2. Montrer que le problème initial écrit au point xi comme suit peut
u(0) = 0
(
Au = f
être approché par le système par le système linéaire suivant : (S) : avec
u(0) = 0
u = (u1 , u2 , · · · , un−i )T , f = (f1 , f2 , · · · , fn−i )T et A est une matrice à déterminer.
3. Résoudre (S) par la décomposition LU.
xf ′ (x)
cond(f )x = (1.11)
f (x)
√
Exemple 1.14. Pour f (x) = x on a cond(f)x = 12 unbonconditionnement, puisquel′ erreurrelativesurf seraau
x
Pour f (x) = x − a on a cond(f )x = x−a ce qui est un mauvais conditionnement surtout si x est
voisin de a.
1.3.2 Stabilité
La stabilité décrit la sensibilité d’un algorithme numérique
√pour le calcul
√ d’une fonction fq(x).
x
Le conditionnement de cette fonction est égal à : f (x) = x + 1 − x est cond(f )x = 12 x+1
Cette dernière expression étant proche de 1 2pour xgrand.Donc, sixestgrand, leconditionnementdef estbon.Cepend
√ √
(12345) = 12345 + 1 − 12345 = 111.113 − 111.108 = 0.500000.10−2 .
Or un calcul précis donne : f (12345) = 0.4500032.... × 10−2 . On a donc une erreur de 10% ce
qui est important et peu en accord avec le bon conditionnement de f. Ceci est dû à l’algorithme
utilisé dans ce calcul que l’on peut expliciter comme suit :
x0 = 12345 ;
x1 = x0 + 1 ;
√
x2 = x0 ;
√
x3 = x1 ;
x4 = x3 − x2
L’objectif de ce chapitre est d’étudier les algorithmes les plus fréquemment utilisés pour résoudre
des équations non linéaires du type f (x) = 0 où x peut-être une variable réelle, complexe ou
vectorielle et f est une fonction.
Exemple 2.1. On veut résoudre l’équation f (x) = x − 0.2sinx − 0.5 = 0. Il est évident que f
est dérivable et f ′ (x) = 1 − 0.2cos(x) > 0 pour tout x ∈ R. f est donc continue et strictement
monotone sur tout intervalle de R. f (0) = −0.5 < 0, f (π) = π − 0.5 > 0 alors l’équation f (x) = 0
admet une unique solution appartenant à [o, π].
La deuxième étape de la résolution est mettre la main sur la solution ou de trouver une valeur
approchée à cette solution. Les algorithme suivants vont nous permettre de gérer cette partie qui
est en réalité la plus importante.
9
2.1. CAS DES FONCTIONS D’UNE VARIABLE 10
Algorithme
Soit une fonction f : [a, b] −→ R continue telle que f (a)f (b) < 0
1. Pour n = 0, · · · , N Faire :
an +bn
(a) m = 2
;
(b) Si f (a)f (b) < 0 Faire :
i. an+1 = an ;
ii. bn+1 = m ;
(c) Sinon Faire :
i. an+1 = m ;
ii. bn+1 = bn ;
(d) Retourner en (b).
On a : an+1 − bn+1 = 12 (an − bn ), soit par récurrence an − bn = 21n (a0 − b0 ). Il en résulte que
cette méthode est toujours convergente puisque an − bn ) tend vers 0 quand n tend vers l’infini. On
peut choisir le temps d’arrêt N pour que : 21N (a0 − b0 ) < ε où ε est la précision choisie On obtient
alors un encadrement de la solution cherchée à la précision voulue. Bien que cette situation soit
très alléchante, on verra qu’en fait cette méthode converge plutôt lentement comparée à celles qui
suivent.
Critère d’arrêt
Cet algorithme n’est évidemment pas complet tant qu’on n’a pas précisé un critère d’arrêt.
Nous verrons plus loin que, généralement, xn converge vers la solution x∞ cherchée ce qui signifie
que pour n grand, xn est voisin de x∞ . Sans plus d’informations, il est difficile de savoir ce que
signifie numériquement "n grand", et c’est là une difficulté fréquente en analyse numérique. Un
critère d’arrêt souvent utilisé consiste à choisir a priori une tolérance ε et à terminer l’algorithme
lorsque |xn − xn+1 | ≤ ε
2.1. CAS DES FONCTIONS D’UNE VARIABLE 11
2.1.4 Méthode de Newton
Ici, au lieu d’assimiler la courbe y = f (x) à une sécante, on l’assimile à la tangente en un point
(xn , f (xn )) soit, la droite d’équation : y = f (xn ) + f ′ (xn )(x − xn ).
Son intersection avec l’axe des abscisses fournit une approximation de la solution x∞ . A nouveau,
on renouvelle
le procédé jusqu’à obtenir une approximation suffisante, d’où l’algorithme :
x0 ∈ R
∀ n = 0, 1, · · · , N
xn+1 = xn − ff′(x n)
(xn )
Cet algorithme est initié à l’aide d’un seul point. Il peut être vu comme une modification de
−xn−1
l’algorithme précédent où le quotient f (xxnn)−f (xn−1 )
a été remplacé par f ′ (x1 n ) Nous verrons plus loin
qu’il donne lieu à une convergence beaucoup plus rapide.
xn+1 = g(xn )
Propriété 2.3. Soit une fonction g définie de I = [a, b] à valeurs dans I et dérivable telle qu’il
existe K ∈ [0, 1[ tels que |g ′ (x)| ≤ K ∀ x ∈ [a, b]. (
x0 ∈ R
Alors, pour tout x0 ∈ [a, b], la suite définie par converge vers
xn+1 = g(xn ), ∀n ≥ 0
l’unique point fixe de g.
Preuve 2.4. Notons d’abord que la suite est définie pour tout n puisque ∀ x ∈ [a, b], g(x) ∈ [a, b].
La fonction g a un point fixe et un seul dans l’intervalle [a, b], car la fonction h(x) = g(x) − x
vérifie :
— h est continue sur [a, b]
— h(x) = g(x) − 1 ≤ k − 1 < 0, donc h est strictement monotone.
— h(a) = g(a) − a ≥ 0 puisque g(a) ∈ [a, b]
— h(b) = g(b) − b ≥ 0 puisque g(b) ∈ [a, b].
2.1. CAS DES FONCTIONS D’UNE VARIABLE 12
Soit x ce point fixe, on a
où εn ∈]a, b[ d’après le théorème des accroissements finis. Ainsi, en utilisant le fait g ′ soit bornée,
on obtient
et par récurrence, on a
|xn − x| ≤ K n |x0 − x| ∀ n ∈ N. Puisque 0 ≤ K < 1, ceci prouve que n−→∞
lim |xn − x| = 0
Quand une suite xn converge vers x selon la relation (2.2), on dit que la convergence est au
moins linéaire. Plus généralement, on définit
Définition 2.5. Soit xn une suite convergeant vers x. S’il existe un nombre p et une constante
C , 0 tels que
|xn+1 − x|
lim =C
n−→∞ |xn − x|p
(2.3)
Méthode de Newton
Partons de la méthode du point fixe. Supposons que la fonction g est suffisamment régulière.
Alors il existe εn entre xn et x tel que
1
xn+1 − x = g(xn ) − g(x) = g ′ (x)(xn − x) + g”(εn )(xn − x)2 (2.4)
2
Pour n grand, on déduit que
et la vitesse de convergence sera d’autant plus grande que g(x) est plus petit. Le cas le plus favorable
est celui où g(x) = 0. Si M est majorant de g”(x) sur [a, b], on a alors :
M
|xn+1 − x| ≤ |xn − x|2 (2.6)
2
2.2. SYSTÈME D’ÉQUATIONS NON LINÉAIRES 13
Alors la convergence est au moins d’ordre 2. Revenons maintenant sur l’algorithme de Newton que
nous pouvons interpréter comme l’algorithme de point fixe sur la fonction g(x) = x − ff′(x) (x)
La dérivée de g est donnée par :
′
g ′ (x) = 1 − ff ′ (x)
(x)
+ f (x)f ”(x)
f ′2 (x)
= f (x)f ”(x)
f ′2 (x)
Si f ′ (x) , 0 et comme f (x) = 0 on a g ′ (x) = 0
Ceci montre que la méthode de Newton converge de façon quadratique si elle converge.
Pour s’assurer de sa convergence, on peut essayer d’appliquer à g la propriété 2.3. Il est clair
que l’hypothèse de la propriété 2.3 est vérifiée sur un voisinage suffisamment petit de x(puisque
g(x) = 0 et on suppose g continue). L’hypothèse plus difficile à vérifier est que g envoie un voisinage
[a, b] de x dans lui-même(g([a, b]) ⊂ [a, b]). On a en fait le résultat suivant :
Théorème 2.8. Soit f deux fois continûment différentiable sur un intervalle ouvert de centre x
vérifiant : f (x) = 0 et f ′ (x) , 0.
Alors, si x0 est choisi assez près de x, la méthode de Newton :
xn+1 = x − ff′(x n)
(xn )
,n≥0
produit une suite xn convergeant au moins quadratiquement vers x.
x1 = g(x1 , x2 , · · · , xn )
x2 = g(x1 , x2 , · · · , xn )
(S) : .. .. .. (2.7)
. . .
xn = g(x1 , x2 , · · · , xn )
Il est assez rare que la méthode de point fixe écrite à partir du système (2.7) converge, les
conditions de convergence étant plus difficiles à réaliser qu’en dimension un. Il faut en effet que pour
une certaine norme matricielle, la norme de la matrice Jacobienne de F soit strictement inférieure à
1 au point recherché. On peut bien sûr envisager des méthodes d’accélération de convergence comme
dans les cas précédents. Nous faisons le choix de présenter plutôt ici les méthodes généralisant la
méthode de Newton et celle de la sécante.
x1 = g(x1 , x2 , · · · , xn )
x2 = g(x1 , x2 , · · · , xn )
(S) : .. .. .. (2.8)
. . .
xn = g(x1 , x2 , · · · , xn )
Le second membre de (2.10) est parfaitement défini car on effectue le produit d’une matrice
n × n par un vecteur de Rn . Dans la pratique, on ne calcule pas explicitement l’inverse de la
matrice Jacobienne, ce qui s’avèrerait trop coûteux, et on préfère écrire l’algorithme sous la forme
suivante :
X0 ∈ Rn ;
∀ n = 0, 1, · · · , N
Tester : l’arrêt puis faire (2.11)
Résoud : [JF (Xn )]Yn = F (Xn )
Xn+1 = Xn + Yn
Remarque 2.9. 1. Encore plus qu’en dimension 1, le choix de l’initialisation est crucial et le
risque de divergence, si on ne démarre pas à proximité de la solution cherchée, est grand.
2. La convergence est là aussi d’ordre 2, donc très rapide (quand il y a convergence !)
3. Dans le cas des systèmes de grande dimension, la méthode de Newton-Raphson s’avère assez
coûteuse puisqu’il faut évaluer à chaque itération n2 + n fonctions (les n2 dérivées partielles
de la matrice Jacobienne, plus les n fonctions coordonnées). De plus, il y a un système
linéaire n × n (dont la matrice est en général pleine) à résoudre. Pour pallier le premier
inconvénient, il est fréquent qu’on ne recalcule pas la matrice Jacobienne à chaque itération,
mais seulement de temps en temps. Bien sûr, à ce moment-là, la convergence n’est plus
quadratique, mais en temps de calcul il arrive qu’on y gagne beaucoup, en particulier quand
les dérivées de F sont très coûteuses à calculer.
Bien sûr, la relation (2.12) ne définit pas la matrice Bn . Elle n’impose que sa valeur dans une
direction. Broyden a fait le choix simple de considérer qu’on pouvait passer de Bn à Bn+1 en
rajoutant simplement une matrice de rang 1. Ainsi, sa formule d’actualisation s’écrit :
2.2. SYSTÈME D’ÉQUATIONS NON LINÉAIRES 15
X0 , B0 sont donnés;
∀ n = 0, 1, · · · , N
Tester : l’arrêt puis faire
(2.14)
Résoud : Bn δn = −F (Xn )
T
Bn−1 = Bn + δFn −B∥X n δXn )(Xn )
n∥
2 )
Remarque 2.10. 1. On peut prendre comme matrice initiale B0 = Id, il faut évidemment
attendre un certain temps avant d’avoir une approximation raisonnable de la matrice Jaco-
bienne.
2. On peut démontrer qu’en général, comme pour la méthode de la sécante, la convergence est
superlinéaire. La suite de matrices Bn ne converge pas forcément vers la matrice Jacobienne
de F.
Exercice 2.12. Pour les fonctions suivantes, trouver un algorithme de point fixe (autre que la
méthode de Newton !) qui converge vers le plus petit zéro positif :
g1 : x 7→ x − x − 1 = 0
g1 : x 7→ x − tan(x) = 0
g1 : x 7→ e−x − cos(x) = 0
Chapitre Trois
Interpolation et approximation
polynomiale.
Dans ce chapitre, on dispose d’une fonction f, connue par exemple uniquement par ses valeurs
en certains points, et on cherche à remplacer ou à approcher f par une fonction plus simple, le plus
souvent par un polynôme. Nous verrons dans ce contexte, l’interpolation qui consiste à rechercher
un polynôme qui passe exactement par les points donnés, l’interpolation par morceaux, en parti-
culier les fonctions splines où l’expression du polynôme est différente sur chaque sous-intervalle,
l’approximation uniforme ou l’approximation au sens des moindres carrés ou on cherche à appro-
cher au mieux la fonction, soit pour la norme uniforme (ou norme infinie), soit pour la norme
euclidienne. Cette dernière approche conduira naturellement aux fonctions trigonométriques et aux
séries de Fourier, et on présentera la Transformée de Fourier Rapide ou F.F.T.
Théorème 3.1. Il existe un et un seul polynôme de degré inférieur ou égal à n solution de (3.1).
Le polynôme s’écrit
n
X
Pn (x) = f (xi )Li (x) (3.2)
i=0
avec
(x − xk )
Li (x) = Πnk=0,k,i (3.3)
(xi − xk )
Le polynôme Pn est appelé polynôme d’interpolation de Lagrange de la fonction f aux points
x0 , x1 , · · · , xn .
Les polynômes Li (x) sont appelés polynômes de base de Lagrange associés à ces points.
Pour n = 1 on a
(x−x1 ) (x−x0 ) (x−x1 ) (x−x0 )
L0 (x) = (x 0 −x1 )
, L1 (x) = (x 1 −x0 )
et P1 (x) = f (x0 ) (x 0 −x1 )
+ f (x1 ) (x 1 −x0 )
16
3.1. INTERPOLATION DE LAGRANGE 17
P1 peut s’écrit comme :
f (x1 ) − f (x0 )
P1 (x) = f (x0 ) + (x − x0 ) (3.4)
(x1 − x0 )
Remarque 3.2. L’écriture (3.2) du polynôme d’interpolation est intéressante au point de vue
théorique, mais peu du point de vue numérique : elle a un caractère peu algorithmique. De plus, son
évaluation requiert trop d’opérations élémentaires. On lui préfère la formule de Newton qui consiste
à écrire le polynôme d’interpolation Pn aux points x0 , x1 , · · · , xn sous une forme généralisant (3.4)
soit
Notons d’abord que tout polynôme de degré inférieur ou égal à n peut se mettre sous cette
forme dès que les xi sont tous distincts. L’avantage de cette écriture est que la partie tronquée
an0 + an1 (x − x0 ) + · · · + ann (x − x0 )(x − x1 ) · · · (x − xn−2 )
n’est pas autre chose que Pn−1 (x) : en effet, il s’agit d’un polynôme de degré inférieur ou égal
à n − 1 tel que :
pour tout i = 0, 1, · · · , n − 1 la valeur en xi soit égale à Pn (xi ) = f (xi ).
Donc, connaissant Pn−1 , il suffit de calculer ann pour connaître Pn (ann est aussi le coefficient de
xn dans Pn écrit sous forme usuelle). Les ain sont donnés par la formule de Newton :
Théorème 3.3. (Formule d’interpolation de Newton)
Le polynôme d’interpolation de Lagrange de la fonction f aux points distincts x0 , x1 , · · · , xn est
donné par :
n
i−1
X
Pn (x) = f [x0 , x1 , · · · , xi ]Πk=0 (x − xk )
i=0
(3.6)