0% ont trouvé ce document utile (0 vote)
63 vues261 pages

Analyse numérique : cours et méthodes

Transféré par

divosopro
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
63 vues261 pages

Analyse numérique : cours et méthodes

Transféré par

divosopro
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Analyse numérique élémentaire

Notes de cours
Sup Galilée, Ingénieurs MACS 1ère année & L3-MIM
Version du 2023/10/10

Francois Cuvelier
Université Paris XIII / Institut Galilée
L.A.G.A./Département de Mathématiques
[Link]
cuvelier@[Link]
Table des matières

1 Représentation des nombres en machine, erreurs d’arrondis 1


1.1 Un exemple : calcul approché de à . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Représentation scientifique des nombres dans différentes bases . . . . . . . . . . . . . . . . 2
1.2.1 Partie entière, mantisse et exposant . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Nombres flottants : le système IEEE 754 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Simple précision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Double précision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Calculs sur les nombres flottants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Erreurs d’arrondi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Monotonicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.4 Erreurs d’annulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Quelques catastrophes dûes à l’arithmétique flottante . . . . . . . . . . . . . . . . . . . . . 9

2 Résolution de systèmes non linéaires 13


2.1 Recherche des zéros d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Méthode de dichotomie ou de bissection . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Points fixes d’une fonction (dimension 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Points fixes attractifs et répulsifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 Interprétations graphiques de la méthode du point fixe . . . . . . . . . . . . . . . . 26
2.2.3 Algorithme générique du point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.4 Méthodes de points fixes pour la recherche de racines . . . . . . . . . . . . . . . . 31
2.2.5 La méthode de la sécante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.6 Méthode Regula-Falsi ou fausse position . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3 Résolution de systèmes non linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.1 Point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3 Résolution de systèmes linéaires 55


3.1 Méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.1 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.2 Exercices et résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
iv TABLE DES MATIÈRES

3.1.3 Méthode de Gauss-Jordan, écriture matricielle . . . . . . . . . . . . . . . . . . . . 66


3.1.4 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.5 Factorisation LDL˚ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.1.6 Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.1.7 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Normes vectorielles et normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.1 Normes vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.2 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.3 Suites de vecteurs et de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3 Conditionnement d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4.2 Présentation des méthodes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4.3 Etude de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.4.4 Algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

4 Interpolation 127
4.1 Polynôme d’interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.1.1 Erreur de l’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.1.2 Points de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.1.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.2 Polynôme d’interpolation de Lagrange-Hermite . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

5 Intégration numérique 151


0.0.0

5.1 Méthodes de quadrature élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152


5.1.1 Méthodes simplistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.1.2 Quelques résultats théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.1.3 Formules élémentaires de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . 165
[Link] DES MATIÈRES

5.1.4 Formules élémentaires de Gauss-Legendre . . . . . . . . . . . . . . . . . . . . . . . 169


5.2 Méthodes de quadrature composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.2.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
0.0. TABLE DES MATIÈRES

5.2.2 Erreurs des méthodes de quadrature composées . . . . . . . . . . . . . . . . . . . . 181


5.3 Intégrales multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

A Langage algorithmique 189


A.1 Pseudo-langage algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
A.1.1 Données et constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
A.1.2 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
A.1.3 Opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
A.1.4 Expressions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
A.1.5 Instructions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
A.1.6 Fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
A.2 Méthodologie d’élaboration d’un algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . 194
A.2.1 Description du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
A.2.2 Recherche d’une méthode de résolution . . . . . . . . . . . . . . . . . . . . . . . . 194
A.2.3 Réalisation d’un algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
A.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
A.3 Principes de «bonne» programmation pour attaquer de «gros» problèmes . . . . . . . . . 197

B Annexes 199
B.1 Analyse : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
B.1.1 En vrac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
B.1.2 Espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
B.2 Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
B.2.1 Vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
B.2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.2.3 Normes vectorielles et normes matricielles . . . . . . . . . . . . . . . . . . . . . . . 211
B.2.4 Réduction des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

Compiled on 2023/10/10 at [Link]


TABLE DES MATIÈRES v

B.2.5 Suites de vecteurs et de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215


B.3 Receuil d’exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
B.4 Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
B.4.1 Sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
B.4.2 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
B.5 Normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
B.5.1 Normes vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
B.5.2 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
B.6 Listings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
B.6.1 Codes sur la méthode de dichotomie/bissection . . . . . . . . . . . . . . . . . . . . 247

0.0.0
[Link] DES MATIÈRES
[Link] DES MATIÈRES

Compiled on 2023/10/10 at [Link]


Chapitre 1
Représentation des nombres en machine, erreurs
d’arrondis

. Toute cette partie est le contenu quasi-intégral d’un document réalisé par C. Japhet

Ce chapitre est une introduction à la représentation des nombres en machine et aux erreurs d’arrondis,
basé sur [5], [4].

1.1 Un exemple : calcul approché de π

Cet exemple est extrait de [5], [4]. Le nombre à est connu depuis l’antiquité, en tant que méthode de
calcul du périmètre du cercle ou de l’aire du disque. Le problème de la quadrature du cercle étudié par les
anciens Grecs consiste à construire un carré de même aire qu’un cercle donné à l’aide d’une règle et d’un
compas. Ce problème resta insoluble jusqu’au 19ème siècle, où la démonstration de la transcendance de
à montra que le problème ne peut être résolu en utilisant une règle et un compas.
Nous savons aujourd’hui que l’aire d’un cercle de rayon r est A < Ãr2 . Parmi les solutions proposées pour
approcher A, une méthode consiste à construire un polygône dont le nombre de côté augmenterait jusqu’à
ce qu’il devienne équivalent au cercle circonscrit. C’est Archimède vers 250 avant J-C qui appliquera cette
propriété au calcul des décimales du nombre Ã, en utilisant à la fois un polygône inscrit et circonscrit au
cercle. Il utilise ainsi un algorithme pour le calcul et parvient à l’approximation de à dans l’intervalle
10
p3 ` 71 , 3 ` 71 q en faisant tendre le nombre de côtés jusqu’à 96.
Regardons l’algorithme de calcul par les polygônes inscrits. On considère un cercle de rayon r < 1 et on
note An l’aire associée au polygône inscrit à n côtés. En notant ³n < 2Ã
n , An est égale à n fois l’aire du
triangle ABC représenté sur la figure 1.1, c’est-à-dire

³n ³n
An < n cos sin ,
2 2

que l’on peut réécrire


n ³n ³n n n 2Ã
An < p2 cos sin q < sin ³n < sinp q.
2 2 2 2 2 n
2 Représentation des nombres en machine, erreurs d’arrondis


A ³n < n

Figure 1.1: Quadrature du cercle


1.2.1 Partie entière, mantisse et exposant

Comme on cherche à calculer à à l’aide de An , on ne peut pas utiliser l’expression ci-dessus pour calculer
An , mais on peut exprimer A2n en fonction de An en utilisant la relation
c d a
³n 1 ´ cos ³n 1 ´ 1 ´ sin2 ³n
sin < < .
2 2 2
Ainsi, en prenant n < 2k , on définit l’approximation de à par récurrence
c ?
2k 2Ã 1 ´ 1 ´ sk´1
x k < A2 k < sk , avec sk < sinp k q <
2 2 2
En partant de k < 2 (i.e. n < 4 et s < 1) on obtient l’algorithme suivant:
1. Représentation des nombres en machine, erreurs d’arrondis

Algorithme 1.1 Algorithme de calcul de Ã, version naïve

1: s Ð 1, n Ð 4 z Initialisations
2: Tantque s ą 1e ´ 10 faire z Arrêt si s < sin p³q est petit
3: s Ð sqrtpp1 ´ sqrtp1 ´ s ˚ sqq{2q z nouvelle valeur de sinp³{2q
4: nÐ2˚n z nouvelle valeur de n
5: A Ð pn{2q ˚ s z nouvelle valeur de l’aire du polygône
6: Fin Tantque
1.2. Représentation scientifique des nombres dans différentes bases

On a limkÝÑ`8 xk < Ã. Ce n’est pourtant pas du tout ce que l’on va observer sur machine! Les résultats
en Python (sous Sage) de la table 1.1 montre que l’algorithme commence par converger vers à puis pour
n ą 65536, l’erreur augmente et finalement on obtient An < 0!! “Although the theory and the program
are correct, we obtain incorrect answers” ([5]).
Ceci résulte du codage des valeurs réelles sur un nombre fini de bits, ce que nous allons détailler dans ce
chapitre.

1.2 Représentation scientifique des nombres dans différentes


bases
Dans cette section nous introduisons les notions de mantisse, exposant, et la façon dont sont représentés
les nombres sur une calculatrice ou un ordinateur.

1.2.1 Partie entière, mantisse et exposant


Exemple en base 10
La base 10 est la base naturelle avec laquelle on travaille et celle que l’on retrouve dans les calculatrices.
Un nombre à virgule, ou nombre décimal, a plusieurs écritures différentes en changeant simplement la
position du point décimal et en rajoutant à la fin une puissance de 10 dans l’écriture de ce nombre. La
partie à gauche du point décimal est la partie entière, celle à droite avant l’exposant s’appelle la mantisse.
Par exemple le nombre x < 1234.5678 a plusieurs représentations :
x < 1234.5678 < 1234.5678 100 < 1.2345678 103 < 0.0012345678 106 , (1.1)

Compiled on 2023/10/10 at [Link]


Représentation scientifique des nombres dans différentes bases 3

n An |An ´ Ã| sinp³n q
4 2.00000000000000 1.141593e+00 1.000000e+00
8 2.82842712474619 3.131655e-01 7.071068e-01
16 3.06146745892072 8.012519e-02 3.826834e-01
32 3.12144515225805 2.014750e-02 1.950903e-01
64 3.13654849054594 5.044163e-03 9.801714e-02
128 3.14033115695474 1.261497e-03 4.906767e-02
256 3.14127725093276 3.154027e-04 2.454123e-02
512 3.14151380114415 7.885245e-05 1.227154e-02
1024 3.14157294036788 1.971322e-05 6.135885e-03
2048 3.14158772527996 4.928310e-06 3.067957e-03
4096 3.14159142150464 1.232085e-06 1.533980e-03

1.2.1 Partie entière, mantisse et exposant


8192 3.14159234561108 3.079787e-07 7.669903e-04
16384 3.14159257654500 7.704479e-08 3.834952e-04
32768 3.14159263346325 2.012654e-08 1.917476e-04
65536 3.14159265480759 1.217796e-09 9.587380e-05
131072 3.14159264532122 8.268578e-09 4.793690e-05
262144 3.14159260737572 4.621407e-08 2.396845e-05
524288 3.14159291093967 2.573499e-07 1.198423e-05
1048576 3.14159412519519 1.471605e-06 5.992115e-06
2097152 3.14159655370482 3.900115e-06 2.996060e-06
4194304 3.14159655370482 3.900115e-06 1.498030e-06
8388608 3.14167426502176 8.161143e-05 7.490335e-07

1. Représentation des nombres en machine, erreurs d’arrondis


16777216 3.14182968188920 2.370283e-04 3.745353e-07
33554432 3.14245127249413 8.586189e-04 1.873047e-07
67108864 3.14245127249413 8.586189e-04 9.365235e-08
134217728 3.16227766016838 2.068501e-02 4.712161e-08
268435456 3.16227766016838 2.068501e-02 2.356080e-08
536870912 3.46410161513775 3.225090e-01 1.290478e-08
1073741824 4.00000000000000 8.584073e-01 7.450581e-09
2147483648 0.000000000000000 3.141593e+00 0.000000e+00

[Link]ésentation scientifique des nombres dans différentes bases


Table 1.1: Calcul de à avec l’algorithme naïf 1.1

avec
• Partie entière : 1234
• Mantisse : 0.5678 ou 1.2345678 ou 0.0012345678
• Exposant : 4 ou 6
Selon le décalage et l’exposant que l’on aura choisi, le couple mantisse-exposant va changer mais le nombre
représenté est le même. Afin d’avoir une représentation unique, la troisième dans (1.1) sera utilisée, avec
1.2345678 pour mantisse et 3 pour exposant. Elle correspond à l’écriture avec un premier chiffre avant le
point décimal non nul dans la mantisse.

Exemple en base 2
La base 2 est la base utilisée par les ordinateurs. Les chiffres utilisables dans cette base sont 0 et 1 que
l’on appelle bit pour binary digit, les ordinateurs travaillent en binaire. Par exemple

39 < 32 ` 4 ` 2 ` 1 < 25 ` 22 ` 21 ` 20 < p100111q2 ,


3.625 < 21 ` 20 ` 2´1 ` 2´3 < p11.101q2 < p1.1101q2 21

Représentation d’un nombre en machine : nombres flottants


De façon générale tout nombre réel x sera représenté dans une base b (b < 10 pour une calculatrice b < 2
pour un ordinateur) par son signe (` ou ´), la mantisse m (appelée aussi significande), la base b et un

Compiled on 2023/10/10 at [Link]


4 Représentation des nombres en machine, erreurs d’arrondis

exposant e tel que le couple pm, eq caractérise le nombre. En faisant varier e, on fait « flotter » la virgule
décimale. La limitation fondamentale est que la place mémoire d’un ordinateur est limitée, c’est-à-dire
qu’il ne pourra stocker qu’un ensemble fini de nombres. Ainsi un nombre machine réel ou nombre à
virgule flottante s’écrira :

x̃ < ˘m ¨ be
m < D.D ¨ ¨ ¨ D
e < D¨¨¨D

où D P t0, 1, ..., b´1u représente un chiffre. Des représentations approchées de à sont : (0.031,2), (3.142,0),
(0.003,3) et on observe qu’elles ne donnent pas la même précision. Pour rendre la représentation unique
1.2.1 Partie entière, mantisse et exposant

et garder la meilleure précision, on utilisera une mantisse normalisée : le premier chiffre avant le point
décimal dans la mantisse est non nul. Les nombres machine correspondants sont appelés normalisés.
En base 2, le premier bit dans la mantisse sera donc toujours 1, et on n’écrit pas ce 1 ce qui permet
d’économiser un bit. L’exposant est un nombre variant dans un intervalle fini de valeurs admissibles :
L ď e ď U (typiquement L ă 0 et U ą 0). Le système est donc caractérisé par quatre entiers :

• la base b (b < 2),

• le nombre de chiffres t dans la mantisse (en base b),

• l’exposant minimal L et maximal U .


1. Représentation des nombres en machine, erreurs d’arrondis

En mathématiques on effectue les calculs avec des nombres réels x provenant de l’intervalle continu
x P r´8, 8s. A ? cause de la limitation ci-dessus, la plupart des réels seront approchés sur un ordinateur.
Par exemple, 31 , 2, Ã possèdent une infinité de décimales et ne peuvent donc pas avoir de représentation
exacte en machine. Le plus simple des calculs devient alors approché. L’expérience pratique montre que
cette quantité limitée de nombres représentables est largement suffisante pour les calculs. Sur l’ordinateur,
les nombres utilisés lors des calculs sont des nombres machine x̃ provenant d’un ensemble discret de
nombres machine x̃ P tx̃min , . . . , x̃max u. Ainsi, chaque nombre réel x doit être transformé en un nombre
1.2. Représentation scientifique des nombres dans différentes bases

machine x̃ afin de pouvoir être utilisé sur un ordinateur. Un exemple est donné sur la figure 1.2.

Figure 1.2: Représentation des nombres réels R par les nombres machine F

Prenons un exemple, beaucoup trop simple pour être utilisé mais pour fixer les idées: t < 3, L < ´1, U <
2. Dans ce cas on a 3 chiffres significatifs et 33 nombres dans le système F. Ils se répartissent avec 0
d’une part, 16 nombres négatifs que l’on ne représente pas ici, et 16 nombres positifs représentés sur la
figure 1.3.

Figure 1.3: Nombres positifs de F dans le cas t < 3, L < ´1, U < 2

Compiled on 2023/10/10 at [Link]


Nombres flottants : le système IEEE 754 5

1
Dans cet exemple, l’écriture en binaire des nombres entre 2 et 1 est

1 3 1 1
< p0.100q2 , < ` < p0.110q2 ,
2 4 2 4
5 1 1 7 1 1 1
< ` < p0.101q2 , < ` ` < p0.111q2 .
8 2 8 8 2 4 8

On obtient ensuite les autres nombres en multipliant par une puissance de 2. Le plus grand nombre
représentable dans ce système est 72 (en particulier 4 n’est pas représentable). On remarque que les
nombres ne sont pas espacés régulièrement. Ils sont beaucoup plus resserrés du côté de 0 entre 41 et 21 que
entre 1 et 2 et encore plus qu’entre 2 et 3. Plus précisément, chaque fois que l’on passe par une puissance
de 2, l’espacement absolu est multiplié par 2, mais l’espacement relatif reste constant ce qui est une bonne
chose pour un calcul d’ingéniérie car on a besoin d’une précision absolue beaucoup plus grande pour des
nombres petits (autour de un millième par exemple) que des nombres très grands (de l’ordre du million
par exemple). Mais la précision ou l’erreur relative sera du même ordre. L’erreur absolue ou relative est
définie à section 1.4.1.
Précision machine. elle est décrite par le nombre machine eps. eps est le plus petit nombre machine
positif tel que 1 ` eps ą 1 sur la machine. C’est la distance entre l’entier 1 et le nombre machine x̃ P F
le plus proche, qui lui est supérieur. Dans l’exemple précédent eps < 1{4.

1.3.1 Simple précision


Sur une calculatrice

1. Représentation des nombres en machine, erreurs d’arrondis


Le système utilisé est la base 10 (b < 10). Typiquement, il y a 10 chiffres pour la mantisse et 2 pour
l’exposant (L < ´99 et U < 99).

• Le plus grand nombre machine

x̃max < 9.999999999 ˆ 10`99

• Le plus petit nombre machine

[Link] flottants : le système IEEE 754


x̃min < ´9.999999999 ˆ 10`99

• Le plus petit nombre machine strictement positif

x̃` < 1.000000000 ˆ 10´99

Notez qu’avec des nombres dénormalisés, ce nombre serait 0.000000001 ˆ 10´99 , c’est-à-dire avec
seulement un chiffre significatif!

Les différences de représentation des nombres flottants d’un ordinateur à un autre obligeaient à reprendre
les programmes de calcul scientifique pour les porter d’une machine à une autre. Pour assurer la compat-
ibilité entre les machines, depuis 1985 une norme a été proposée par l’IEEE (Institute of Electrical and
Electronics Engineers), c’est la norme 754.

1.3 Nombres flottants : le système IEEE 754

Le système IEEE 754 est un standard pour la représentation des nombres à virgule flottante en binaire. Il
définit les formats de représentation des nombres à virgule flottante (signe, mantisse, exposant, nombres
dénormalisés) et valeurs spéciales (infinis et NaN). Le bit de poids fort est le bit de signe. Cela signifie
que si ce bit est à 1, le nombre est négatif, et s’il est à 0, le nombre est positif. Les Ne bits suivants
représentent l’exposant décalé, et les Nm bits suivants représentent la mantisse.
L’exposant est décalé de 2Ne ´1 ´ 1 (Ne représente le nombre de bits de l’exposant), afin de le stocker
sous forme d’un nombre non signé.

Compiled on 2023/10/10 at [Link]


6 Représentation des nombres en machine, erreurs d’arrondis

1.3.1 Simple précision


C’est le format 32 bits : 1 bit de signe, Ne < 8 bits d’exposant (-126 à 127), 23 bits de mantisse comme
sur le tableau 1.2. L’exposant est décalé de 2Ne ´1 ´ 1 < 27 ´ 1 < 127.
signe
hkkikkjs exposant e
hkkkkkkkkikkkkkkkkj mantisse m
hkkkkkkkkkkkkkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkkkkkkkkkkkkkj
S EEEEEEEE FFFFFFFFFFFFFFFFFFFFFFF
0 1à8 9 à 31

Table 1.2: Représentation en simple précision

x̃ exposant e mantisse m
x̃ < 0 psi S < 0) e<0 m<0
x̃ < ´0 psi S < 1)
Nombre normalisé 0 ă e ă 255 quelconque
x̃ < p´1qS ˆ 2e´127 ˆ 1.m
Nombre dénormalisé e<0 m‰0
x̃ < p´1qS ˆ 2e´126 ˆ 0.m
x̃ < Inf psi S < 0) e < 255 m<0
1.3.2 Double précision

x̃ < ´Inf psi S < 1)


x̃ < NaN (Not a Number) e < 255 m‰0

Table 1.3: Représentation en simple précision


1. Représentation des nombres en machine, erreurs d’arrondis

• Le plus petit nombre positif normalisé différent de zéro, et le plus grand nombre négatif normalisé
différent de zéro sont :
˘2´126 < ˘1, 175494351 ˆ 10´38
• Le plus grand nombre positif fini, et le plus petit nombre négatif fini sont : ˘p224 ´ 1q ˆ 2104 <
˘3, 4028235 ˆ 1038

x̃ signe exposant e mantisse m valeur


1.3. Nombres flottants : le système IEEE 754

zéro 0 0000 0000 000 0000 0000 0000 0000 0000 0,0
1 0000 0000 000 0000 0000 0000 0000 0000 -0,0
1 0 0111 1111 000 0000 0000 0000 0000 0000 1,0
Plus grand nombre normalisé 0 1111 1110 111 1111 1111 1111 1111 1111 3, 4 ˆ 1038
Plus petit x̃ ě 0 normalisé 0 0000 0001 000 0000 0000 0000 0000 0000 2´126
Plus petit x̃ ě 0 dénormalisé 0 0000 0000 000 0000 0000 0000 0000 0001 2´149
Infini 0 1111 1111 000 0000 0000 0000 0000 0000 Inf
1 1111 1111 000 0000 0000 0000 0000 0000 -Inf
NaN 0 1111 1111 010 0000 0000 0000 0000 0000 NaN
2 0 1000 0000 000 0000 0000 0000 0000 0000 2,0
exemple 1 0 1000 0001 101 0000 0000 0000 0000 0000 6,5
exemple 2 1 1000 0001 101 0000 0000 0000 0000 0000 -6,5
exemple 3 1 1000 0101 110 1101 0100 0000 0000 0000 -118,625

Table 1.4: Exemples en simple précision

Détaillons l’exemple 3 : on code le nombre décimal -118,625 en utilisant le système IEEE 754.
a. C’est un nombre négatif, le bit de signe est donc "1",
b. On écrit le nombre (sans le signe) en binaire. Nous obtenons 1110110,101,
c. On décale la virgule vers la gauche, en laissant seulement un 1 sur sa gauche (nombre flottant
normalisé): 1110110, 101 < 1, 110110101 ˆ 26 . La mantisse est la partie à droite de la virgule,
remplie de 0 vers la droite pour obtenir 23 bits. Cela donne 11011010100000000000000,
d. L’exposant est égal à 6, et nous devons le convertir en binaire et le décaler. Pour le format 32-bit
IEEE 754, le décalage est 127. Donc 6 + 127 = 133. En binaire, cela donne 10000101.

Compiled on 2023/10/10 at [Link]


Nombres flottants : le système IEEE 754 7

1.3.2 Double précision


C’est le format 64 bits : 1 bit de signe, 11 bits d’exposant (-1022 à 1023), 52 bits de mantisse. L’exposant
est décalé de 2Ne ´1 ´ 1 < 210 ´ 1 < 1023.
signe
hkkikkjs exposant e
hkkkkkkkkkkkkikkkkkkkkkkkkj mantisse m
hkkkkkkkkkkkkkkikkkkkkkkkkkkkkj
S EEEEEEEEEEE FFFFF ...FFFFFF
0 1 à 11 12 à 63

Table 1.5: Représentation en double précision

x̃ exposant e mantisse m
x̃ < 0 psi S < 0) e<0 m<0
x̃ < ´0 psi S < 1)
Nombre normalisé 0 ă e ă 2047 quelconque
x̃ < p´1qS ˆ 2e´1023 ˆ 1.m
Nombre dénormalisé e<0 m‰0
x̃ < p´1qS ˆ 2e´1022 ˆ 0.m
x̃ < Inf psi S < 0) e < 2047 m<0

1.4.1 Erreurs d’arrondi


x̃ < ´Inf psi S < 1)
x̃ < NaN (Not a Number) e < 2047 m‰0

Table 1.6: Représentation en double précision

1. Représentation des nombres en machine, erreurs d’arrondis


• La précision machine est eps < 2´52 .
• Le plus grand nombre positif fini, et le plus petit nombre négatif fini sont : x̃˘
max < ˘p2
1024
´ 2971 q <
308
˘1, 7976931348623157 ˆ 10
• Overflow: L’intervalle de calcul est rx̃´ `
max , x̃max s. Si un calcul produit un nombre x qui n’est pas
dans cet intervalle, on dit qu’il y a overflow. La valeur de x est alors mise à ˘Inf. Cela peut arriver
au milieu du calcul, même si le résultat final peut être représenté par un nombre machine.
• Le plus petit nombre positif normalisé différent de zéro, et le plus grand nombre négatif normalisé

[Link] flottants : le système IEEE 754


différent de zéro sont :
x̃˘
min < ˘2
´1022
< ˘2, 2250738585072020 ˆ 10´308
• Le système IEEE permet les calculs avec des nombres dénormalisés dans l’intervalle rx̃` `
min ˚eps, x̃min s.

• Underflow: Si un calcul produit un nombre positif x qui est plus petit que x̃` min ˚ eps, on dit qu’il
y a underflow. Néanmoins, le calcul ne s’arrête pas dans ce cas, il continue avec la valeur de x mise
à zéro.

1.3.3 Matlab
Sous Matlab, les calculs réels sont en double précision par défaut. La fonction single peut être utilisée
pour convertir les nombres en simple précision. Pour voir la représentation des nombres réels sous Matlab,
on peut les afficher au format hexadécimal avec la commande format hex.

Le système hexadécimal est celui en base 16 et utilise 16 symboles : 0 à 9 pour représenter les valeurs
de 0 à 9, et A, B, C, D, E, F pour représenter les valeurs de 10 à 15. La lecture s’effectue de droite à
gauche. La valeur vaut la somme des chiffres affectés de poids correspondant aux puissances successives
du nombre 16. Par exemple, 5EB5216 vaut 2 ˚ 160 ` 5 ˚ 161 ` 11 ˚ 162 ` 14 ˚ 163 ` 5 ˚ 164 < 387922.
Pour passer du binaire au format hexadecimal, c’est facile en regardant la chaîne binaire en groupe de 4
chiffres, et en représentant chaque groupe en un chiffre hexadécimal. Par exemple,
387922 < 010111101011010100102 < 0101 1110 1011 0101 00102
< 5 E B 5 216
< 5EB5216
La conversion de l’hexadécimal au binaire est le processus inverse.

Compiled on 2023/10/10 at [Link]


8 Représentation des nombres en machine, erreurs d’arrondis

1.4 Calculs sur les nombres flottants

1.4.1 Erreurs d’arrondi


Si x̃ et ỹ sont deux nombres machine, alors z < x̃ˆ ỹ ne correspondra pas en général à un nombre machine
puisque le produit demande une quantité double de chiffres. Le résultat sera un nombre machine z̃ proche
de z.

On définit l’erreur absolue entre un nombre réel x et le nombre machine correspondant x̃ par

ra < |x ´ x̃|.

L’erreur relative entre ces nombres (si x ‰ 0) est définie par

|x ´ x̃|
r< .
|x|

Opérations machine: On désigne par flop (de l’anglais floating operation) une opération élémentaire à
virgule flottante (addition, soustraction, multiplication ou division) de l’ordinateur. Sur les calculateurs
actuels on peut s’attendre à la précision suivante, obtenue dans les opérations basiques:
1.4.4 Erreurs d’annulation

˜ < px̃ ‘ ỹqp1 ` rq


x̃‘ỹ
˜ représente
où |r| ă eps, la précision machine, et ‘ représente l’opération exacte, ‘ P t`, ´, ˚, {u et ‘
1. Représentation des nombres en machine, erreurs d’arrondis

l’opération de l’ordinateur (flop ).

1.4.2 Associativité
L’associativité des opérations élémentaires comme par exemple l’addition:

px ` yq ` z < x ` py ` zq,

n’est plus valide en arithmétique finie. Par exemple, avec 6 chiffres de précision, si on prend les trois
nombres
x < 1.23456e ´ 3, y < 1.00000e0, z < ´y,
on obtient px ` yq ` z < p0.00123 ` 1.00000e0q ´ 1.00000e0 < 1.23000e ´ 3 alors que x ` py ` zq < x <
1.4. Calculs sur les nombres flottants

1.23456e ´ 3. Il est donc essentiel de considérer l’ordre des opérations et faire attention où l’on met les
parenthèses.

1.4.3 Monotonicité
Supposons que l’on a une fonction f strictement croissante sur un intervalle ra, bs. Peut-on assurer en
arithmétique finie que
x̃ ă ỹ ñ f px̃q ă f pỹq?
En général non. Dans la norme IEEE les fonctions standard sont implémentées de façon à respecter la
monotonicité (mais pas la stricte monotonicité).

1.4.4 Erreurs d’annulation


Ce sont les erreurs dûes à l’annulation numérique de chiffres significatifs, quand les nombres ne sont
représentés qu’avec une quantité finie de chiffres, comme les nombres machine. Il est donc important en
pratique d’être attentif aux signes dans les expressions, comme l’exemple suivant le montre :
Exemple : on cherche à évaluer sur l’ordinateur de façon précise, pour de petites valeurs de x, la fonction
1
f pxq < ? .
1´ 1 ´ x2
? ?
Pour |x| ă eps , on risque d’avoir le nombre 1 ´ x2 remplacé par 1, par la machine, et donc lors du
?
eps
calcul de f pxq, on risque d’effectuer une division par 0. Par exemple, pour x < 2 , on obtient :

Compiled on 2023/10/10 at [Link]


Quelques catastrophes dûes à l’arithmétique flottante 9

» f=@(x) 1./(1-sqrt(1-x.^2));
» f(0.5*sqrt(eps))

ans =

Inf

On ne peut donc pas évaluer précisément f pxq sur l’ordinateur


? dans ce cas. Maintenant, si on multiplie
dans f pxq le numérateur et le dénominateur par 1 ` 1 ´ x2 , on obtient
?
1` 1 ´ x2
f pxq <
x2
Cette fois, on peut évaluer f pxq de façon précise :

>> f=@(x) (1+sqrt(1-x.^2))./x.^2;


>> f(0.5*sqrt(eps))

1.5.0 Erreurs d’annulation


ans =

3.6029e+16

C’est ce qui se passe dans la cas du calcul de à avec l’algorithme naïf 1.1. En utilisant la formule

1. Représentation des nombres en machine, erreurs d’arrondis


c d a
³n 1 ´ cos ³n 1´ 1 ´ sin2 ³n
sin < < ,
2 2 2
comme sin ³n Ñ 0, le numérateur à droite est de la forme
a
1 ´ 1 ´ ε2 , avec ε < sin ³n petit ,

donc sujet aux erreurs d’annulation. Pour y palier, il faut reformuler les équations de façon à s’affranchir

[Link] catastrophes dûes à l’arithmétique flottante


a
des erreurs d’annulations, par exemple en multipliant le numérateur et le dénominateur par p1` 1 ´ sin2 ³n q.

b ? c ? ?
³n 1´ 1´sin2 ³n p1´ 1´sin2 ³n qp1` 1´sin2 ³n q
sin < 2 < ?
2 2p1` 1´sin2 ³n q
c
1´p1´sin2 ³n q sin ³n
< ? < b ? .
2p1` 1´sin2 ³n q 2p1` 1´sin2 ³n q

On peut alors écrire l’Algorithme 1.2 correspondant au calcul de à avec cette nouvelle formule.

Algorithme 1.2 Algorithme de calcul de Ã, version stable

1: s Ð 1, n Ð 4, z Initialisations
2: Tantque s ą 1e ´ 10 faire z Arrêt si s < sin p³q est petit
3: s Ð s{sqrtp2 ˚ p1 ` sqrtp1 ´ s ˚ sqqq z nouvelle valeur de sinp³{2q
4: nÐ2˚n z nouvelle valeur de n
5: A Ð pn{2q ˚ s z nouvelle valeur de l’aire du polygône
6: Fin Tantque

1.5 Quelques catastrophes dûes à l’arithmétique flottante


Il y a un petit nombre “connu” de catastrophes dans la vie réelle qui sont attribuables à une mauvaise
gestion de l’arithmétique des ordinateurs (erreurs d’arondis, d’annulation), voir [6]. Dans le premier
exemple ci-dessous cela c’est payé en vies humaines.

Compiled on 2023/10/10 at [Link]


10 Représentation des nombres en machine, erreurs d’arrondis

n An |An ´ Ã| sinp³n q
4 2.00000000000000 1.141593e+00 1.000000e+00
8 2.82842712474619 3.131655e-01 7.071068e-01
16 3.06146745892072 8.012519e-02 3.826834e-01
32 3.12144515225805 2.014750e-02 1.950903e-01
64 3.13654849054594 5.044163e-03 9.801714e-02
128 3.14033115695475 1.261497e-03 4.906767e-02
256 3.14127725093277 3.154027e-04 2.454123e-02
512 3.14151380114430 7.885245e-05 1.227154e-02
1024 3.14157294036709 1.971322e-05 6.135885e-03
2048 3.14158772527716 4.928313e-06 3.067957e-03
4096 3.14159142151120 1.232079e-06 1.533980e-03
8192 3.14159234557012 3.080197e-07 7.669903e-04
16384 3.14159257658487 7.700492e-08 3.834952e-04
32768 3.14159263433856 1.925123e-08 1.917476e-04
65536 3.14159264877699 4.812807e-09 9.587380e-05
1.203202e-09 4.793690e-05
1.5.0 Erreurs d’annulation

131072 3.14159265238659
262144 3.14159265328899 3.008003e-10 2.396845e-05
524288 3.14159265351459 7.519985e-11 1.198422e-05
1048576 3.14159265357099 1.879963e-11 5.992112e-06
2097152 3.14159265358509 4.699352e-12 2.996056e-06
4194304 3.14159265358862 1.174172e-12 1.498028e-06
8388608 3.14159265358950 2.926548e-13 7.490141e-07
1. Représentation des nombres en machine, erreurs d’arrondis

16777216 3.14159265358972 7.238654e-14 3.745070e-07


33554432 3.14159265358978 1.731948e-14 1.872535e-07
67108864 3.14159265358979 3.552714e-15 9.362676e-08
134217728 3.14159265358979 0.000000e+00 4.681338e-08
268435456 3.14159265358979 8.881784e-16 2.340669e-08
536870912 3.14159265358979 1.332268e-15 1.170334e-08
1073741824 3.14159265358979 1.332268e-15 5.851672e-09
2147483648 3.14159265358979 1.332268e-15 2.925836e-09
1.5. Quelques catastrophes dûes à l’arithmétique flottante

4294967296 3.14159265358979 1.332268e-15 1.462918e-09


8589934592 3.14159265358979 1.332268e-15 7.314590e-10
17179869184 3.14159265358979 1.332268e-15 3.657295e-10
34359738368 3.14159265358979 1.332268e-15 1.828648e-10
68719476736 3.14159265358979 1.332268e-15 9.143238e-11

Table 1.7: Calcul de à avec l’algorithme stable

Missile Patriot
En février 1991, pendant la Guerre du Golfe, une batterie américaine de missiles Patriot, à Dharan (Arabie
Saoudite), a échoué dans l’interception d’un missile Scud irakien. Le Scud a frappé un baraquement de
l’armée américaine et a tué 28 soldats. La commission d’enquête a conclu à un calcul incorrect du temps
de parcours, dû à un problème d’arrondi. Les nombres étaient représentés en virgule fixe sur 24 bits,
donc 24 chiffres binaires. Le temps était compté par l’horloge interne du système en 1/10 de seconde.
Malheureusement, 1/10 n’a pas d’écriture finie dans le système binaire : 1/10 = 0,1 (dans le système
décimal) = 0,0001100110011001100110011... (dans le système binaire). L’ordinateur de bord arrondissait
1/10 à 24 chiffres, d’où une petite erreur dans le décompte du temps pour chaque 1/10 de seconde. Au
moment de l’attaque, la batterie de missile Patriot était allumée depuis environ 100 heures, ce qui avait
entraîné une accumulation des erreurs d’arrondi de 0,34 s. Pendant ce temps, un missile Scud parcourt
environ 500 m, ce qui explique que le Patriot soit passé à côté de sa cible. Ce qu’il aurait fallu faire
c’était redémarrer régulièrement le système de guidage du missile.

Explosion d’Ariane 5
Le 4 juin 1996, une fusée Ariane 5, à son premier lancement, a explosé 40 secondes après l’allumage.
La fusée et son chargement avaient coûté 500 millions de dollars. La commission d’enquête a rendu son

Compiled on 2023/10/10 at [Link]


Quelques catastrophes dûes à l’arithmétique flottante 11

rapport au bout de deux semaines. Il s’agissait d’une erreur de programmation dans le système inertiel
de référence. À un moment donné, un nombre codé en virgule flottante sur 64 bits (qui représentait la
vitesse horizontale de la fusée par rapport à la plate-forme de tir) était converti en un entier sur 16 bits.
Malheureusement, le nombre en question était plus grand que 32768 (overflow), le plus grand entier que
l’on peut coder sur 16 bits, et la conversion a été incorrecte.

Bourse de Vancouver
Un autre exemple où les erreurs de calcul ont conduit à une erreur notable est le cas de l’indice de la
Bourse de Vancouver. En 1982, elle a crée un nouvel indice avec une valeur nominale de 1000. Après
chaque transaction boursière, cet indice était recalculé et tronqué après le troisième chiffre décimal et,
au bout de 22 mois, la valeur obtenue était 524,881, alors que la valeur correcte était 1098.811. Cette
différence s’explique par le fait que toutes les erreurs d’arrondi étaient dans le même sens : l’opération
de troncature diminuait à chaque fois la valeur de l’indice.

1.5.0 Erreurs d’annulation


1. Représentation des nombres en machine, erreurs d’arrondis
[Link] catastrophes dûes à l’arithmétique flottante

Compiled on 2023/10/10 at [Link]


Chapitre 2
Résolution de systèmes non linéaires

(a) Scipione del Ferro 1465-1526, (b) Niccolo Fontana 1499-1557, (c) Ludovico Ferrari 1522-1565,
mathématicien italien mathématicien italien mathématicien italien

(d) Paolo Ruffini 1765-1822, (e) Bernard Bolzano 1781- (f) Niels Henrick Abel 1802-1829,
mathématicien italien 1848, mathématicien, logicien, mathématicien norvégien
philosophe et théologien de
l’empire d’Autriche
14 Résolution de systèmes non linéaires

Un problème simple comme la recherche des zéros/racines d’un polynôme n’est pas ... simple. Depuis
tout petit, on sait trouver les racines d’un polynôme de degré 2 : a2 x2 ` a1 x ` a0 < 0. Quid des racines
de polynômes de degré plus élevé?

. • degré 2 : Babylonniens en 1600 avant J.-C.

• degré 3 : Scipione del Ferro (1465-1526, mathématicien italien) et Niccolo Fontana (1499-
1557, mathématicien italien)
• degré 4 : Lodovico Ferrari (1522-1565, mathématicien italien)

• degré 5 : Paolo Ruffini (1765-1822, mathématicien italien) en 1799, Niels Henrick Abel (1802-
1829, mathématicien norvégien) en 1824, montrent qu’il n’existe pas de solution analytique.

L’objectif de ce chapitre est de rechercher numériquement les zéros/racines d’une fonction ou d’un
systéme d’équations lorsqu’ils existent :
2.1.1 Méthode de dichotomie ou de bissection

‚ Soit f : ra, bs Ă R ÝÑ R, trouver x P ra, bs tel que f pxq < 0, étudier en section 2.1
‚ Soit f : Ω Ă Kn ÝÑ Kn , trouver x P Ω tel que f px
xq < 0 (K < R ou K < C). étudier en section 2.3

Avant de commencer une petite piqure de rappels par la lecture de l’Annexe B.1

2.1 Recherche des zéros d’une fonction


Soit f : ra, bs Ă R ÝÑ R une fonction continue. On cherche à déterminer les zéros de f ou plus
précisément l’ensemble des x P ra, bs tels que f pxq < 0.
Dans un premier temps, on étudiera la méthode de dichotomie qui est assez naturelle. Puis on étudiera
2. Résolution de systèmes non linéaires

plusieurs algorithmes liés à la méthode du point fixe.

2.1.1 Méthode de dichotomie ou de bissection


Principe et résultats

. principe de la méthode de dichotomie : Soit I un intervalle contenant un unique zéro de


la fonction f, on le divise par son milieu en deux intervalles et on détermine lequel des deux contient
le zéro. On itére ce processus sur le nouvel intervalle.
2.1. Recherche des zéros d’une fonction

Plus précisement, on suppose que la fonction f vérifie f paqf pbq ă 0. D’après le théorème des valeurs
intermédiaires ou le théorème de Bolzano, il existe alors un À Psa, br tel que f pxq < 0.
On note I p0q <sa, br et x0 < pa`bq{2. Si f px0 q < 0 alors on a fini! Supposons f px0 q ‰ 0, alors À appartient
à sa, x0 r si f paqf px0 q ă 0, sinon il appartient à sx0 , br. On vient donc de déterminer une méthode
permettant de diviser par 2 la longueur de l’intervalle de recherche de À. On peut bien évidemment itérer
ce principe en définissant les trois suites pak qkPN , pbk qkPN et pxk qkPN par
a`b
‚ a0 < a, b0 < b et x0 < 2 ,

‚ @k P N, $
& ak`1 < bk`1 < xk
’ si f pxk q < 0,
ak`1 < xk , bk`1 < bk si f pbk qf pxk q ă 0,

ak`1 < ak , bk`1 < xk si f pak qf pxk q ă 0.
%

et
xk`1 < pak`1 ` bk`1 q{2.

Par construction on a ak ď xk ď bk .
En Figure 2.2, on représente les intervalles successifs obtenus par la méthode de dichotomie pour a < 0.1,
b < 2.4 et f : x ÞÑ px ` 2qpx ` 1qpx ´ 1q.

Compiled on 2023/10/10 at [Link]


Recherche des zéros d’une fonction 15

y
35

30

y = f(x)
25

a9 b9
a8 b8
20

a7 b7

15
a6 b6
a5 b5

10
a4 b4
a3 b3

5 a2 b2
a1 b1
x
a0 0.5 1.0 1.5 2.0 b0 2.5

Figure 2.2: Méthode de dichotomie: f pxq < px ` 2qpx ` 1qpx ´ 1q,

2.1.1 Méthode de dichotomie ou de bissection


Exercice 2.1.1

On suppose que la fonction f est continue sur ra, bs, vérifie f paqf pbq ă 0 et qu’il existe un unique
³ Psa, br tel que f p³q < 0.
Q. 1 a. Montrer que les suites pak q et pbk q convergent vers ³.
b. En déduire que la suite pxk q converge vers ³.
˝
b´a
Q. 2 a. Montrer que pour tout k P N, |xk ´ ³| ď 2k`1
.

2. Résolution de systèmes non linéaires


logp b´a
ϵ q
b. Soit ϵ ą 0. En déduire que si k ě logp2q ´ 1 alors |xk ´ ³| ď ϵ.
˝

Correction 2.1.1
R. 1 a. Supposons qu’il existe k P N tel que f pxk q < 0, (i.e. xk < ³ car xk P ra, bs) alors par
construction ak`i < bk`i < xk`i < ³ pour tout i P N˚ . Ceci assure la convergence des 3 suites vers
³.
Supposons maintenant que @k P N, f pxk q ‰ 0. Par construction, nous avons ak ď ak`1 ď b,
a ď bk`1 ď bk et ak ď bk . La suite pak q est convergente car elle est croissante et majorée. La suite
b ´a
pbk q est décroissante et minorée : elle est donc convergente. De plus 0 ď bk ´ ak ď k´1 2 k´1 et

[Link] des zéros d’une fonction


b´a
donc 0 ď bk ´ ak ď 2k . On en déduit que les suites pak q et pbk q ont même limite. Comme par
construction, @k P N, ³ P rak , bk s ceci entraine que ³ est la limite de ces 2 suites.
b. Par construction, @k P N,, ak ď xk ď bk . D’après le théorème des gendarmes, les suites pak q et pbk q
convergeant vers ³, on obtient la convergence de la suite pxk q vers ³.

ak `bk bk ´ak
R. 2 a. On a @k P N, xk < 2 et ak ď ³ ď bk d’où |xk ´ ³| ď 2 . Ce qui donne

b´a
|xk ´ ³| ď .
2k`1
b´a
b. Pour avoir |xk ´ ³| ď ϵ, il suffit d’avoir 2k`1
ď ϵ, et la fonction log étant croissante on obtient

logp b´a
ϵ q
kě ´ 1.
logp2q
˛

On peut alors écrire la proposition suivante :

Compiled on 2023/10/10 at [Link]


16 Résolution de systèmes non linéaires

Proposition 2.1: Méthode de dichotomie/bissection

Soit f : ra, bs Ă R ÝÑ R une fonction continue vérifiant f paqf pbq ă 0 et admettant ³ Psa, br comme
unique solution de f pxq < 0. Alors la suite pxk qkPN définie par la méthode de dichotomie converge
vers ³ et
b´a
|xk ´ ³| ď k`1 , @k P N.
2
logp b´a
ϵ q
On a alors @ϵ ą 0, @k ě logp2q ´1
|xk ´ ³| ď ϵ.

A partir de ce résultat, on va proposer plusieurs variantes de l’algorithme de dichotomie.


On note tout d’abord que pour déterminer ³ il faut calculer la limite d’une suite et donc une infinité de
termes! Numériquement et algorithmiquement, on se limite donc à déterminer une approximation de ³.
La proposition 2.1 permet d’obtenir une approximation ³ϵ de ³ en un nombre fini d’itérations avec une
logp b´a
ϵ q
précision ϵ donnée: on choisi ³ϵ < xkmin avec kmin < Ep logp2q q où Ep.q est la fonction partie entière.
2.1.1 Méthode de dichotomie ou de bissection

Algorithmique
Tout d’abord nous allons poser "correctement" le problème pour lever toute ambiguité. En effet, si
le problème est rechercher une racine de f sur l’intervalle ra, bs par la méthode de dichotomie, dois-je
uniquement rechercher une approximation d’une racine ou calculer la suite pxk q ou l’ensemble des suites
pxk q, pak q et pbk q? C’est ce que nous appelerons le(s) résultat(s)/objectif (s) de l’algorithme. L’écriture
d’un algorithme est fortement corrélée aux objectifs souhaités.
Sauf note contraire, on choisira par la suite comme objectif de déterminer une approximation de la racine
³ de f :
2. Résolution de systèmes non linéaires

Résultat : ³ϵ : un réel tel que |³ϵ ´ ³| ď ϵ.

Ensuite, pour aboutir à cet objectif on détermine les données (avec hypothèses) nécessaires et suffisantes
:
Données : a, b : deux réels a ă b,
f : f : ra, bs Ă R ÝÑ R vérifiant les hypothèses de la proposition 2.1,
ϵ : un réel strictement positif.

On peut alors noter (formellement pour le moment) Dichotomie la fonction permettant, à partir des
données f, a, b, et ϵ, de trouver ³ϵ . Cette fonction algorithmique aura la syntaxe suivante :
2.1. Recherche des zéros d’une fonction

³ϵ Ð Dichotomie pf, a, b, ϵq

Nous allons maintenant proposer une manière d’aborder l’écriture de cette fonction dans un langage algo-
rithmique présenté au chapitre A. On doit s’affranchir de tout (ou presque) symbolismes mathématiques
pour s’approcher au plus près des langages de programmation. Par exemple, la notation mathématique
k“0 pour noter les 11 premiers itérés d’une suite n’est pas directement disponible dans les langages
pxk q10
de programmations : on peut par exemple passer par un tableau X de dimension 11 (au moins) pour
stocker les valeurs de la suite. Suivant les langages, l’accès aux composantes d’un tableau diffère : sous
Matlab/Octave l’accès au 1er élément d’un tableau X se fait par X(1) et en C/C++/Python par X[0].
Lors de l’écriture d’un algorithme, nous utiliserons l’opérateur () ou(exclusif) [] pour accéder aux dif-
férentes composantes d’un tableau : () si le 1er élément est d’indice 1 ou [] si le 1er élément est d’indice
0.
Pour écrire un algorithme non trivial, nous utiliserons une technique de raffinements d’algorithme (voir
chapitre A) : par raffinements succéssifs, nous allons écrire des algorithmes équivalents pour aboutir au
final à un algorithme n’utilisant que

• des instructions élémentaires (affectation, addition, somme, ...)

• des instructions composées (conditionnelle, boucles pour, tantque, ...)

• des fonctions usuelles, mathématiques (cos , exp , E partie entière, ...), entrées/sorties , ...

Compiled on 2023/10/10 at [Link]


Recherche des zéros d’une fonction 17

présentent dans tous les langages.


L’idée est donc de partir d’un algorithme formel facile à comprendre puis de le détailler de plus en plus
au fur et à mesure des raffinements. Le passage entre deux raffinements successifs doit être simple.
Un petit rappel pour les algorithmes qui suivent : les données sont supposées ... données!
Algorithme 2.1 R0 Algorithme 2.1 R1
logp b´a
ϵ q logp b´a
ϵ q
1: kmin Ð Ep logp2q q z E , partie entière 1: kmin Ð Ep logp2q q z E , partie entière
Calcul de la suite pxk qkk“0
min
par dichotomie 2: Initialisation de x0
2:
3: ³ϵ Ð xkmin 3: Pour k Ð 0 à kmin ´ 1 faire
4: Calcul de la suite pxk`1 q par dichotomie
5: Fin Pour

6: ³ϵ Ð xkmin

Entre les raffinements R0 et R1 , nous avons juste décrit le principe de calcul de toute suite récurrente

2.1.1 Méthode de dichotomie ou de bissection


d’ordre 1.
Pour faciliter la lecture, nous rappelons la méthode de dichotomie :
a`b
‚ a0 < a, b0 < b et x0 < 2 ,

‚ @k P v0, kmin ´ 1w, $


& ak`1 < bk`1 < xk
’ si f pxk q < 0,
ak`1 < xk , bk`1 < bk si f pbk qf pxk q ă 0,
si f pak qf pxk q ă 0.

ak`1 < ak , bk`1 < xk
%

et
ak`1 ` bk`1

2. Résolution de systèmes non linéaires


xk`1 <
2
Ecrit sous cette forme, le calcul de la suite pxk q nécessite le calcul simultané des suites pak q et pbk q.
Algorithme 2.1 R1 Algorithme 2.1 R2
logp b´a
ϵ q logp b´a
ϵ q
1: kmin Ð Ep logp2q q z E , partie entière 1: kmin Ð Ep logp2q q
Initialisation de x0
2: 2: a0 Ð a, b0 Ð b
3: Pour k Ð 0 à kmin ´ 1 faire 3: x0 Ð a0 `b
2
0

Calcul de la suite pxk`1 q par dichotomie


4:
4: Pour k Ð 0 à kmin ´ 1 faire

[Link] des zéros d’une fonction


5: Fin Pour
6: ³ϵ Ð xkmin
5: Si f pxk q << 0 alors
6: ak`1 Ð xk , bk`1 Ð xk
7: Sinon Si f pxk qf pbk q ă 0q alors
8: ak`1 Ð xk , bk`1 Ð bk
9: Sinon
10: ak`1 Ð ak , bk`1 Ð xk
11: Fin Si
a `b
12: xk`1 Ð k`1 2 k`1

13: Fin Pour


14: ³ϵ Ð xkmin

La transcription de ce raffinement dans un langage de programmation n’est pas forcément triviale pour
tout le monde. Quid de ak , ϵ, ... qui sont syntaxiquement incorrectes dans un langage de programmation?
Le cas du ϵ est très simple : les lettres grecques étant prohibées, on la remplacera par exemple par
eps. Pour les suites pak q, pbk q et pxk q, tronquées à kmin , on pourra utiliser des tableaux (vecteurs) de
kmin ` 1 réels notés A , B et X qui contiendront respectivement l’ensemble des valeurs ak , bk et xk pour
0 ď k ď kmin . Plus précisément nous pourrons utiliser les opérateurs pq (indice des tableaux commence à
1) ou rs (indice des tableaux commence à 0) pour accéder aux différents éléments des tableaux et nous

Compiled on 2023/10/10 at [Link]


18 Résolution de systèmes non linéaires

aurons par convention Apk ` 1q < Arks < ak , @k P v0, kmin w. Par la suite nous utiliserons les opérateurs
pq et nous aurons alors les relations suivantes entre les notations algorithmiques et mathématiques.

@k P v0, kmin w, A pk ` 1q < ak , B pk ` 1q < bk et X pk ` 1q < xk .

En utilisant ces changements de notations nous obtenons (enfin) l’Algorithme 2.1.

Algorithme 2.1 Méthode de dichotomie : version 1


Données : a, b : deux réels a ă b,
f : f : ra, bs Ă R ÝÑ R vérifiant
les hypothèses de la proposition 2.1,
eps : un réel strictement positif.
Résultat : x : un réel tel que |x ´ ³| ď eps.

1: Fonction x Ð Dichotomie1 ( f, a, b, eps )


2.1.1 Méthode de dichotomie ou de bissection

2: kmin Ð Eplogppb ´ aq{epsq{ logp2qq


3: A , B , X P Rkmin`1 z A pk ` 1q contiendra ak , ...
4: A p1q Ð a, B p1q Ð b, X p1q Ð pa ` bq{2
5: Pour k Ð 1 à kmin faire
6: Si f pX
X pkqq << 0 alors
7: A pk ` 1q Ð X pkq, B pk ` 1q Ð X pkq
8: Sinon Si f pBB pkqqf pX
X pkqq ă 0 alors
9: A pk ` 1q Ð X pkq, B pk ` 1q Ð B pkq
10: Sinon
11: A pk ` 1q Ð A pkq, B pk ` 1q Ð X pkq
12: Fin Si
2. Résolution de systèmes non linéaires

13: X pk ` 1q Ð pAApk ` 1q ` B pk ` 1qq{2


14: Fin Pour
15: x Ð X pkmin ` 1q
16: Fin Fonction

Des codes Matlab/Octave et C correspondant de cette fonction sont données en Annexe B.6.1, respec-
tivement en Listing 18 et 28. Les Listings 8 et 25 correspondent respectivement à un script Matlab et
un main C utilisant cette fonction.
On peut noter qu’une réécriture de la méthode de dichotomie permet d’éviter d’utiliser les deux suites
2.1. Recherche des zéros d’une fonction

pak q et pbk q. En effet, on a

A`B
‚ A < a, B < b et x0 < 2 ,

‚ @k P v0, kmin ´ 1w,


$
& A < B < xk
’ si f pxk q < 0,
A < xk , B inchangé si f pBqf pxk q ă 0,

B < xk , A inchangé sinon (i.e. f pAqf pxk q ă 0.)
%

et

A`B
xk`1 <
2

On utilise, ces formules dans l’Algorithme 2.2.

Compiled on 2023/10/10 at [Link]


Recherche des zéros d’une fonction 19

Algorithme 2.2 Méthode de dichotomie : version 2


Données : a, b : deux réels a ă b,
f : f : ra, bs Ă R ÝÑ R vérifiant
les hypothèses de la proposition 2.1,
eps : un réel strictement positif.
Résultat : x : un réel tel que |x ´ ³| ď eps.

1: Fonction x Ð Dichotomie2 ( f, a, b, eps )


2: kmin Ð Eplogppb ´ aq{epsq{ logp2qq
3: X P Rkmin`1 z X pk ` 1q contiendra xk , ...
4: A Ð a, B Ð b, X p1q Ð pA ` Bq{2
5: Pour k Ð 1 à kmin faire
6: Si f pX
X pkqq << 0 alors
7: A Ð X pkq, B Ð X pkq
8: Sinon Si f pBqf pX
X pkqq ă 0 alors
9: A Ð X pkq z B inchangé
10: Sinon

2.1.1 Méthode de dichotomie ou de bissection


11: B Ð X pkq z A inchangé
12: Fin Si
13: X pk ` 1q Ð pA ` Bq{2
14: Fin Pour
15: x Ð X pkmin ` 1q
16: Fin Fonction

Si notre objectif n’est que de calculer ³ϵ , on peut, sur le même principe, s’affranchir d’utiliser un

2. Résolution de systèmes non linéaires


tableau pour stocker tous les termes de la suite xk : seul le dernier nous interesse. On propose dans
l’Algorithme 2.3, une version n’utilisant pas de tableaux.

Algorithme 2.3 Méthode de dichotomie : version 3


Données : a, b : deux réels a ă b,
f : f : ra, bs Ă R ÝÑ R vérifiant
les hypothèses de la proposition 2.1,
eps : un réel strictement positif.
Résultat : x : un réel tel que |x ´ ³| ď eps.

[Link] des zéros d’une fonction


1: Fonction x Ð Dichotomie3 ( f, a, b, eps )
2: kmin Ð Eplogppb ´ aq{epsq{ logp2qq
3: A, B P R
4: A Ð a, B Ð b, x Ð pa ` bq{2
5: Pour k Ð 1 à kmin faire
6: Si f pxq << 0 alors
7: A Ð x, B Ð x
8: Sinon Si f pBqf pxq ă 0 alors
9: AÐx z B inchangé
10: Sinon
11: BÐx z A inchangé
12: Fin Si
13: x Ð pA ` Bq{2
14: Fin Pour
15: Fin Fonction

Une autre écriture est possible sans utiliser le nombre kmin et donc en utilisant une boucle Tantque
(pour les anglophobes!) ou While (pour les anglophiles!). Celle-ci est présentée dans l’Algorithme 2.4

Compiled on 2023/10/10 at [Link]


20 Résolution de systèmes non linéaires

Algorithme 2.4 Méthode de dichotomie : version 4


Données : a, b : deux réels a ă b,
f : f P C 0 pra, bs; Rq et f paqf pbq ă 0
eps : un réel strictement positif.
Résultat : x : un réel tel que |x ´ ³| ď eps.

1: Fonction x Ð Dichotomie4 ( f, a, b, eps )


2: A, B P R
3: A Ð a, B Ð b, x Ð pa ` bq{2
4: Tantque |x ´ A| ą eps faire
5: Si f pxq << 0 alors
6: A Ð x, B Ð x
7: Sinon Si f pBqf pxq ă 0 alors
8: AÐx z B inchangé
9: Sinon
10: BÐx z A inchangé
2.2.0 Méthode de dichotomie ou de bissection

11: Fin Si
12: x Ð pA ` Bq{2
13: Fin Tantque
14: Fin Fonction

Que pensez-vous de l’algorithme suivant ?

Algorithme 2.5 Méthode de dichotomie : version 5


Données : a, b : deux réels a ă b,
f : f P C 0 pra, bs; Rq et f paqf pbq ă 0.
Résultat : x : un réel tel que f pxq < 0.
2. Résolution de systèmes non linéaires

1: Fonction x Ð Dichotomie5 ( f, a, b )
2: A, B P R
3: A Ð a, B Ð b, x Ð pa ` bq{2, xp Ð a
4: Tantque x >< xp faire
5: Si f pBqf pxq ă 0 alors
6: AÐx z B inchangé
7: Sinon
8: BÐx z A inchangé
9: Fin Si
2.2. Points fixes d’une fonction (dimension 1)

10: xp Ð x
11: x Ð pA ` Bq{2
12: Fin Tantque
13: Fin Fonction

Des codes Matlab/Octave et C correspondant à cette fonction sont données en Annexe B.6.1, respective-
ment en Listing 15 et 16. Les Listings 8 et 17 correspondent respectivement à un script Matlab et un
main C utilisant cette fonction.

2.2 Points fixes d’une fonction (dimension 1)


Soit Φ : ra, bs Ă R ÝÑ R une fonction donnée. Rechercher un point fixe de Φ revient à

Trouver ³ P ra, bs tel que

³ < Φp³q.

L’algorithme de la méthode du point fixe consiste en la construction, si elle existe, de la suite

xk`1 < Φpxk q, @k P N (2.1)

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 21

avec x0 P ra, bs donné.


Avant de formuler le théorème du point fixe, un petit rappel peut être utile:

Definition 2.2

On dit qu’une suite pxk qkPN obtenue par une méthode numérique, converge vers ³ avec un ordre
p ě 1 au moins si

Dk0 P N, DC ą 0 tels que |xk`1 ´ ³| ď C|xk ´ ³|p , @k ě k0 . (2.2)

où C ă 1 si p < 1.

Voici une version du théorème du point fixe dans R. Pour la résolution des systèmes non linéaires un
théorème plus général sera proposé (Théorème 2.13): le théorème du point fixe dans un espace de Banach.

2.2.0 Méthode de dichotomie ou de bissection


Théorème 2.3: Théorème du point fixe dans R

Soient ra, bs un intervalle non vide de R et Φ une application continue de ra, bs dans lui-même.
Alors, il existe au moins un point ³ P ra, bs vérifiant Φp³q < ³. Le point ³ est appelé point fixe
de la fonction Φ.
De plus, si Φ est contractante (lipschitzienne de rapport L P r0, 1r), c’est à dire

DL ă 1 t.q. |Φpxq ´ Φpyq| ď L|x ´ y| @px, yq P ra, bs2 , (2.3)

alors Φ admet un unique point fixe ³ P ra, bs.


Pour tout x0 P ra, bs, la suite
xk`1 < Φpxk q, @k P N (2.4)

2. Résolution de systèmes non linéaires


est bien définie et elle converge vers ³ avec un ordre 1 au moins.
On a les deux estimations suivantes :

|xk ´ ³| ď Lk |x0 ´ ³|, @k ě 0, (2.5)


L
|xk ´ ³| ď |xk ´ xk´1 |, @k ě 0, (2.6)
1´L

Preuve. 1ère approche :

‚ On montre tout d’abord l’existence du point fixe. Pour celà, on note f pxq < Φpxq ´ x. f est donc

[Link] fixes d’une fonction (dimension 1)


une application continue de ra, bs à valeurs réelles. On a f paq < Φpaq ´ a ě 0 et f pbq < Φpbq ´ b ď 0
car a ď Φpxq ď b, pour tout x P ra, bs. Si f paq < 0 ou f pbq < 0, alors l’existence est immédiate.
Sinon (i.e. f paq ‰ 0 et f pbq ‰ 0), on a f paqf pbq ă 0 et par application directe du Théorème B.1 de
Bolzano (ou TVI) on obtient l’existence.

‚ On montre ensuite l’unicité sous l’hypothèse de contraction (2.3). On suppose qu’il existe ³1 et ³2
dans ra, bs tels que Φp³1 q < ³1 et Φp³2 q < ³2 . Dans ce cas on a

|³1 ´ ³2 | < |Φp³1 q ´ Φp³2 q| ď L|³1 ´ ³2 |.

On en déduit
p1 ´ Lq|³1 ´ ³2 | ď 0
Comme L ă 1 on a 1 ´ L ą 0 et donc |³1 ´ ³2 | ď 0 ce qui entraine ³1 < ³2 .

‚ On a Φpra, bsq Ă ra, bs et comme x0 P ra, bs, la suite pxk qkPN est bien définie. On va démontrer la
convergence de la suite xk vers l’unique point fixe ³ de Φ. Pour celà, en utilisant la définition de la
suite et du point fixe, on a
|xk`1 ´ ³| < |Φpxk q ´ Φp³q|
Comme Φ est contractante, xk P ra, bs et ³ P ra, bs on obtient

|xk`1 ´ ³| ď L|xk ´ ³| (2.7)

Compiled on 2023/10/10 at [Link]


22 Résolution de systèmes non linéaires

et une simple récurrence donne alors @k P N

|xk ´ ³| ď Lk |x0 ´ ³|

ce qui démontre la formule 2.5. En faisant tendre k vers `8 on obtient la convergence de xk vers
³.
De plus, d’après (2.7), comme 0 ă L ă 1, la convergence est au moins d’ordre 1.
Pour la dernière estimation, on a:

|xk ´ ³| ď L|xk´1 ´ ³| car Φ contractante


inégalité triangulaire
` ˘
ď L |xk´1 ´ xk | ` |xk ´ ³|

ce qui donne
p1 ´ Lq|xk ´ ³| ď L|xk´1 ´ xk |
Comme 1 ´ L ą 0, on en déduit immédiatement l’estimation (2.6).
2.2.0 Méthode de dichotomie ou de bissection

2ème approche :
L’objectif de cette approche est de proposer une démonstration très proche de celle utilisée pour des
espaces plus complexes (par exemple C, Rn , ...). Dans la 1ère approche le théorème de Bolzano et des
inégalités ont été utilisées pour démontrer l’existence d’un point fixe: ceci n’est plus possible dans un
cadre plus générale.
On va donc supposer, dès le départ, que l’application Φ est contractante de ra, bs dans lui-même. Ceci va
permettre d’établir que la suite xk est de Cauchy.

‚ Comme x0 P ra, bs et Φ est une application continue de ra, bs dans lui-même, la suite xk est bien
définie @k P N.

‚ On démontre ensuite que xk est une suite de Cauchy. Soit k ą 0. On a


2. Résolution de systèmes non linéaires

|xk`1 ´ xk | < |Φpxk q ´ Φpxk´1 q| ď L|xk ´ xk´1 |,

et on obtient par récurrence


|xk`1 ´ xk | ď Lk |x1 ´ x0 |
et
@l ě 0, |xk`l ´ xk`l´1 | ď Ll |xk ´ xk´1 |.
Soit p ą 2. On en déduit par application répétée de l’inégalité triangulaire que
p´1
ÿ
2.2. Points fixes d’une fonction (dimension 1)

|xk`p ´ xk | < |pxk`p ´ xk`p´1 q ` pxk`p´1 ´ xk`p´2 q ` . . . ` pxk`1 ´ xk q| < | pxk`l`1 ´ xk`l q|
l“0
p´1
ÿ
ď |xk`l`1 ´ xk`l |
l“0
p´1
ÿ 1 ´ Lp
ď Ll |xk`1 ´ xk | < |xk`1 ´ xk | (voir somme partielle d’une série géométrique)
l“0
1´L
1 ´ Lp k
ď L |x1 ´ x0 |.
1´L

Comme Lk Ñ 0 quand k Ñ `8, on conclu que pxk q est une suite de Cauchy. En effet, pour que
pxk q soit une suite de Cauchy, il faut montrer que

@ϵ ą 0, DM P N, tel que @k P N, k ě M, @p P N, |xk`p ´ xk | ă ϵ.

Comme 0 ă L ă 1, on a
1
|xk`p ´ xk | ď Lk |x1 ´ x0 |
1´L
Soit ϵ ą 0, pour avoir |xk`p ´ xk | ă ϵ, il est suffisant d’avoir

1
Lk |x1 ´ x0 | ă ϵ
1´L

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 23

c’est à dire, comme 1 ´ L ą 0,


p1 ´ Lqϵ
Lk ă .
|x1 ´ x0 |
La fonction ln étant croissante strictement on obtient
` p1 ´ Lqϵ ˘
lnpLk q < k lnpLq ă ln .
|x1 ´ x0 |

Or lnpLq ă 0, ce qui donne


1 ` p1 ´ Lqϵ ˘
ką ln .
lnpLq |x1 ´ x0 |
En prenant M P N tel que
1 ` p1 ´ Lqϵ ˘
Mě ln
lnpLq |x1 ´ x0 |
alors

2.2.0 Méthode de dichotomie ou de bissection


@k P N, k ě M, @p P N, |x
xk`p ´ x k | ă ϵ.

‚ La suite pxk q est une suite de Cauchy dans R espace complet donc elle converge vers ´ dans R. De
plus pour tout k, xk appartient à ra, bs fermé borné, donc sa limite ´ aussi.
‚ Φ étant contractante sur ra, bs, elle est donc continue. On a alors par continuité de Φ

lim Φpxk q < Φp´q.


kÑ`8

Comme xk`1 < Φpxk q on aussi

lim Φpxk q < lim xk`1 < ´


kÑ`8 kÑ`8

2. Résolution de systèmes non linéaires


et donc ´ est un point fixe de Φ. L’existence d’un point fixe est donc établi.
La suite de la démonstration est inchangée.

Théorème 2.4: Convergence globale de la méthode du point fixe

Soit Φ P C 1 pra, bsq vérifiant Φpra, bsq Ă ra, bs et

DL ă 1 tel que @x P ra, bs, |Φ1 pxq| ď L, (2.8)

[Link] fixes d’une fonction (dimension 1)


Soit x0 P ra, bs et pxk qkPN la suite définie par xk`1 < Φpxk q. On a alors

a. la fonction Φ admet un unique point fixe ³ P ra, bs,


b. @k P N, xk P ra, bs,
c. la suite pxk q converge vers ³ avec un ordre 1 au moins.

d. Si x0 ‰ ³, alors
xk`1 ´ ³
lim < Φ1 p³q. (2.9)
kÑ`8 xk ´ ³

Preuve. Pour démontrer les trois premiers points il suffit de montrer que (2.8) entraine que Φ est con-
tractante sur ra, bs pour pouvoir appliquer le théorème 2.3.
En effet, soit px, yq P ra, bs2 , x ‰ y. D’après le théorème B.2 des accroissements finis il existe À P
s minpx, yq, maxpx, yqr tel que
Φpxq ´ Φpyq
< Φ1 pÀq.
x´y
Ce résultat s’obtient aussi par un développement de Taylor. On obtient alors

|Φpxq ´ Φpyq| < |x ´ y||Φ1 pÀq| ď L|x ´ y|.

Compiled on 2023/10/10 at [Link]


24 Résolution de systèmes non linéaires

L’application Φ est donc contractante sur ra, bs et le théorème 2.3 s’applique.


Pour le dernier point, on utilise la définition de la suite et du point fixe ³:
xk`1 ´ ³ < Φpxk q ´ Φp³q.
On utilise le théorème B.2 des accroissements finis pour obtenir: DÀk Ps minpxk , ³q, maxpxk , ³qr tel que
Φpxk q ´ Φp³q
< Φ1 pÀk q.
xk ´ ³
Quand k Ñ `8, on a xk Ñ ³ et donc Àk Ñ ³. Par continuité de la fonction Φ1 on obtient (2.9).

Théorème 2.5: Convergence locale de la méthode du point fixe

Soit ³ un point fixe d’une fonction Φ de classe C 1 au voisinage de ³.


Si |Φ1 p³q| ă 1, alors il existe ¶ ą 0 pour lequel xk converge vers ³ pour tout x0 tel que |x0 ´ ³| ď ¶.
2.2.0 Méthode de dichotomie ou de bissection

De plus, si x0 ‰ ³, on a
xk`1 ´ ³
lim < Φ1 p³q. (2.10)
kÑ`8 xk ´ ³

Preuve. On va construire un intervalle fermé borné, noté V, pour lequel les hypothèses du Théorème 2.4
sont vérifiées.
Comme Φ1 est continue dans un voisinage de ³ avec |Φ1 p³q| ă 1, alors il existe ´ ą 0 tel que
@x Ps³ ´ ´, ³ ` ´r, |Φ1 pxq| ă 1.
En posant ¶ < ´{2 (par ex.), on a en posant V < r³ ´ ¶, ³ ` ¶s,
@x P V, |Φ1 pxq| ă 1.
2. Résolution de systèmes non linéaires

Comme l’intervalle V est un fermé et que l’application |Φ1 | est continue sa borne supérieure est atteinte
dans V :
Dx̄ P V tel que |Φ1 px̄q| < sup |Φ1 pxq|.
xPV
1
On a donc L < |Φ px̄q| ă 1.
Montrons que ΦpVq Ă V. En effet, d’après la formule de Taylor-Lagrange:
@x P V, DÀ Ps minpx, ³q, maxpx, ³qrĂ V tel que
Φpxq < Φp³q ` px ´ ³qΦ1 pÀq.
On en déduit
2.2. Points fixes d’une fonction (dimension 1)

|Φpxq ´ Φp³q| < |x ´ ³||Φ1 pÀq| ď ¶|Φ1 pÀq| ď ¶


Comme Φp³q < ³, on obtient |Φpxq ´ ³| ď ¶ i.e. Φpxq P V.
On peut donc appliquer le Théorème 2.4 avec ra, bs < V < r³ ´ ¶, ³ ` ¶sq ce qui permet de conclure.

Exercice 2.2.1

Soit ³ un point fixe d’une fonction Φ de classe C 1 au voisinage de ³ et vérifiant Φ1 p³q < 0.

Q. 1 Montrer qu’il existe ¶ ą 0 tel que @x0 Ps³´¶, ³`¶r la suite définie par xk`1 < Φpxk q converge
vers ³. ˝
On suppose de plus que Φ1 est dérivable sur s³ ´ ¶, ³ ` ¶r et qu’il existe M P R` tel que

@x P r³ ´ ¶, ³ ` ¶s, |Φ2 pxq| ď M

Q. 2 a. Montrer que
ˆ ˙2k
2 1
@x0 P r³ ´ ¶, ³ ` ¶s, |xk ´ ³| ď M |x0 ´ ³|
M 2

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 25

b. Quel est l’ordre de convergence dans ce cas.


˝

Q. 3 A quelle condition a-t’on


2 ´2k
|xk ´ ³| ď 10 .
M
˝

Correction 2.2.1

R. 1

R. 2 a. D’après la formule de Taylor-Lagrange rappelée au Théorème B.3, on a D¸ Ps minp³, xq, maxp³, xqr
tel que

2.2.0 Méthode de dichotomie ou de bissection


px ´ ³q2 2
Φpxq < Φp³q ` px ´ ³qΦ1 p³q ` Φ p¸q
2!
1
< ³ ` Φ2 p¸qpx ´ ³q2 .
2

On en déduit que |Φpxq ´ ³| ď M M M


2 |x ´ ³| ce qui s’écrit encore 2 |Φpxq ´ ³| ď p 2 |x ´ ³|q . Or si
2 2
˚
x0 P r³ ´ ¶, ³ ` ¶s, alors xk´1 P r³ ´ ¶, ³ ` ¶s, @k P N . On a alors

M M M
|Φpxk´1 q ´ ³| < |xk ´ ³| ď p |xk´1 ´ ³|q2
2 2 2
et donc par récurrence
M M k
|xk ´ ³| ď p |x0 ´ ³|q2 .

2. Résolution de systèmes non linéaires


2 2
b. On a
2 M
|xk ´ ³| ď p |xk´1 ´ ³|q2
M 2
c’est à dire
|xk ´ ³| M
2
ď
|xk´1 ´ ³| 2
et donc la méthode est d’ordre 2.

[Link] fixes d’une fonction (dimension 1)


1
R. 3 En supposant de plus que |x0 ´ ³| ď 5M , on obtient immédiatement le résultat.

On va maintenant généraliser le résultat de cet exercice:

Proposition 2.6

Soit p P N˚ , et Φ P C p`1 pVq pour un certain voisinage V de ³ point fixe de Φ. Si Φpiq p³q < 0, pour
1 ď i ď p et si Φpp`1q p³q ‰ 0, alors la méthode de point fixe associée à la fonction Φ est d’ordre
p ` 1 et
xk`1 ´ ³ Φpp`1q p³q
lim < . (2.11)
kÑ`8 pxk ´ ³qp`1 pp ` 1q!

Preuve. Les hypothèses du théorème 2.5 étant vérifiées (Φ1 p³q < 0), la suite pxk q converge vers ³. D’après
un développement de Taylor-Lagrange (voir le Théorème B.3) de Φ en ³, il existe ¸k entre xk et ³ vérifiant
p
ÿ pxk ´ ³qi piq pxk ´ ³qp`1 pp`1q
Φpxk q < Φ p³q ` Φ p¸k q.
i“0
i! pp ` 1q!

Compiled on 2023/10/10 at [Link]


26 Résolution de systèmes non linéaires

Comme ³ < Φp³q et Φpiq p³q < 0, pour 1 ď i ď p on obtient


p
ÿ pxk ´ ³qi piq pxk ´ ³qp`1 pp`1q
xk`1 < Φp³q ` Φ p³q ` Φ p¸k q
i“1
i! pp ` 1q!
pxk ´ ³qp`1 pp`1q
<³` Φ p¸k q
pp ` 1q!

De plus p¸k q converge vers ³ car ¸k est entre xk et ³ et donc comme Φpp`1q est continue au voisinage de
³ on obtient
xk`1 ´ ³ Φpp`1q p¸k q Φpp`1q p³q
lim p`1
< lim < .
kÑ`8 pxk ´ ³q kÑ`8 pp ` 1q! pp ` 1q!
2.2.2 Interprétations graphiques de la méthode du point fixe

2.2.1 Points fixes attractifs et répulsifs


Soit Φ : ra, bs ÝÑ ra, bs une application de classe C 1 admettant un point fixe ³ P ra, bs.

Points fixes attractifs


On suppose |Φ1 p³q| ă 1. D’après le théorème 2.5, il existe ¶ ą 0 tel que

@x0 P r³ ´ ¶, ³ ` ¶s, lim xk < ³.


kÑ`8

Dans ce cas on dit que ³ est un point fixe attractif pour Φ.


2. Résolution de systèmes non linéaires

Points fixes répulsifs


Cas |Φ1 p³q| ą 1. Par définition de la dérivée en ³ on a
ˇ ˇ
ˇ Φpxq ´ Φp³q ˇ
lim ˇ ˇ < |Φ1 p³q| ą 1.
xѳ ˇ
x‰³
x´³ ˇ

Il existe alors ¶ ą 0 tel que

@x P r³ ´ h, ³ ` ¶szt³u, |Φpxq ´ ³| ą |x ´ ³|

et donc la suite pxk q ne peut converger vers ³ et ceci même si x0 est très proche de ³. Dans ce cas on dit
que ³ est un point fixe répulsif pour Φ.
2.2. Points fixes d’une fonction (dimension 1)

Toutefois, on peut rattrapper le coup. En effet, comme Φ1 est non nulle et de signe constant au voisinage
de ³ : il existe h ą 0 tel que la fonction Φ soit strictement monotone sur I < r³ ´ h, ³ ` hs.. D’après le
corollaire B.4 Φ est une bijection de I dans l’intervalle fermé J < Φ´1 pIq. Comme ³ < Φp³q, on a ³ P J
et Φ´1 p³q < ³. Le problème de point fixe trouver x P I tel que Φpxq < x revient alors à trouver x P J tel
que Φ´1 pxq < x. Or Φ1 p³q ‰ 0 et Φp³q < ³, la proposition B.5 donne alors pΦ´1 q1 p³q < 1{Φ1 p³q et donc
|pΦ´1 q1 p³q| ă 1. Le point ³ est un point fixe attractif pour Φ´1 .

Points fixes indéterminés


Dans le cas |Φ1 p³q| < 1, on ne peut conclure dans le cas général.

2.2.2 Interprétations graphiques de la méthode du point fixe


Exemple 1 : point fixe de la fonction x ÞÑ x2 .
On s’interesse ici au point fixe ³ < 1 de la fonction Φ : x ÞÑ x2 .
Comme Φ1 p³q < 2 le point fixe ³ est répulsif. On donne dans le tableau suivant les premiers termes de
deux suites : l’une avec x0 < 1.05 et l’autre avec x0 < 0.95. Dans ce dernier cas, la suite va converger ...

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 27

2.0

1.5

1.0

0.5

α x

2.2.2 Interprétations graphiques de la méthode du point fixe


y = Φ(x) 1.0 p
y = Φ −1 (x) = x
1.5 0.5 0.5 1.0 1.5

y=x
α = Φ(α)
y=x 0.5

?
Figure 2.3: fonction x2 et son fonction inverse x sur r0, `8r

vers un autre point fixe.


k xk xk
0 1.05000 0.950000
1 1.10250 0.902500
2 1.21551 0.814506
3 1.47746 0.663420
.. .. ..
. . .

2. Résolution de systèmes non linéaires


8 265742. 1.98264 ˆ 10´6
Les premières itérations de ces deux suites sont représentées en Figure 2.4.

y
y
1.4
y = Φ(x) = x 2
y = Φ(x) = x 2 y=x
y=x
2.0 1.2

1.0

Φ( x2 )
1.5 Φ(x0 )
Φ( x)
0.81

[Link] fixes d’une fonction (dimension 1)


Φ(x1 )
Φ(x2 )
Φ(x0 )
0.6
1.0

Φ(x3 )
0.4

0.5
Φ( x4 )
0.2

Φ(x )
Φ(x765 )
xx87 6 x x x3 x x1x1.0
x
xx0 1 x2 x3
x 5
0.2 0.4
4
0.6
2
0.8
0
1.2 1.4
0.2 0.4 0.6 0.8 1.0 1.2 1.4
0.2

(a) x0 “ 1.05 (b) x0 “ 0.950

Figure 2.4: ³ < 1, point fixe répulsif de x ÞÑ x2


?
Sur l’intervalle r0, `8r, la fonction Φ admet comme fonction inverse Φ´1 pxq < x et on a aussi Φ´1 p1q <
1 (i.e. ³ < 1 est un point fixe de Φ´1 ). De plus pΦ´1 q1 p1q < 1{2 ă 1, ce qui permet d’affirmer que ³ < 1
est un point fixe attractif de Φ´1 ). On donne dans le tableau suivant les premiers termes de deux suites

Compiled on 2023/10/10 at [Link]


28 Résolution de systèmes non linéaires

: l’une avec x0 < 1.40 et l’autre avec x0 < 0.200.

k xk xk
0 1.40000 0.200000
1 1.18322 0.447214
2 1.08776 0.668740
3 1.04296 0.817765
.. .. ..
. . .
8 1.00132 0.993733

Les premières itérations de ces deux suites sont représentées en Figure 2.5.

y
2.2.2 Interprétations graphiques de la méthode du point fixe

p
y= x
1.4
y=x
y 1.2

p
y= x
1.4
y=x
1.0
Φ(x4 )
Φ( x0 )
1.2 Φ(x3 )
Φ(x1 )
Φ(x2 )
Φ( x)
0.82
1.0

Φ(x1 )
0.8 0.6

0.6 Φ(x0 )
0.4

0.4

0.2
2. Résolution de systèmes non linéaires

0.2

x x x1 x2 x x4x51.0
x
0.2 0.4 0.6 0.8
x3x2 x1.2
1.0
1 x 0
1.4
0
0.2 0.4 0.6
3
0.8 1.2 1.4

(a) x0 “ 1.40 (b) x0 “ 0.200


?
Figure 2.5: ³ < 1, point fixe attractif de x ÞÑ x

Exemple 2 : point fixe de la fonction x ÞÑ x2 ´ x ` 1.


On s’interesse ici au point fixe ³ < 1 de la fonction Φ : x ÞÑ x2 ´ x ` 1 représenté en Figure 2.6. On note
que Φ1 p³q < 1.
2.2. Points fixes d’une fonction (dimension 1)

On donne dans le tableau suivant les premiers termes de deux suites : l’une avec x0 < 1.20 diverge et
l’autre avec x0 < 0.500 converge vers ³.

diverge converge
x0 < 1.20000 x0 < 0.500000
x1 < 1.24000 x1 < 0.750000
x2 < 1.29760 x2 < 0.812500
x3 < 1.38617 x3 < 0.847656
.. ..
. .
x15 < 2.32096 ˆ 10161 x5000 < 0.999800

Les premières itérations de ces deux suites sont représentées en Figure 2.7.

Exemple 3 : point fixe de fonctions affines particulières


On va étudier les points fixes des trois fonctions affines vérifiant

Φ1 p1q < Φ2 p1q < Φ3 p1q < 1 et Φ11 p1q < ´1, Φ12 p1q < ´3{4, Φ13 p1q < ´4{3.

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 29

y
3.0
x x2 − x + 1

2.5

2.0

1.5

2.2.2 Interprétations graphiques de la méthode du point fixe


1.0

0.5

α x
0.5 0.5 1.0 1.5 2.0

y=x 0.5

Figure 2.6: fonction x2 ´ x ` 1 et son point fixe ³ < 1.

2. Résolution de systèmes non linéaires


y
y = Φ(x) = x 2 − x + 1
y y=x
1.5

y = Φ(x) = x 2
−x+1
y=x
1.5

Φ(x2 )
Φ(x1 )
Φ(x0 )

[Link] fixes d’une fonction (dimension 1)


1.0

Φ(x45 ))
1.0
Φ(
Φ(
Φ( xx3 ))
Φ(x12 )
Φ(x0 )

0.5

0.5

x x0 0.6 x0.8
x
xx x x
01 2 3 1xx
2xx3x456 1.0
0.2 0.4 0.6 0.8 1.0 1.2 1.4 0.2 0.4 1.2 1.4

(b) x0 “ 0.50, α point attractif


(a) x0 “ 1.2, α point répulsif

Figure 2.7: ³ < 1, point fixe attractif ou répulsif de x ÞÑ x2 ´ x ` 1

Compiled on 2023/10/10 at [Link]


30 Résolution de systèmes non linéaires

Ces trois fonctions sont données par


3 7 4 7
Φ1 pxq < ´x ` 2, Φ2 pxq < ´ x ` et Φ3 pxq < ´ x ` .
4 4 3 3
On donne dans le tableau suivant les premiers termes de trois suites obtenues avec x0 < 1.5 pour les
suites associées à Φ1 et Φ2 , et avec x0 < 1.1 pour celle associée à Φ3 .

k xk pΦ1 q xk pΦ2 q xk pΦ3 q


0 1.50000 1.50000 1.10000
1 0.500000 0.625000 0.866667
2 1.50000 1.28125 1.17778
3 0.500000 0.789062 0.762963
.. .. .. ..
. . . .
19 0.500000 0.997886 ´22.6503
20 1.50000 1.00159 32.5337
2.2.3 Algorithme générique du point fixe

Les premières itérations des trois suites obtenues sont représentées en Figure 2.8.

y y
2.0 2.0 y = Φ(x) = − 3
4
x + 74
y=x y
Φ( x7 )
2.0 y = Φ(x) = − 4
3
x + 73
y=x
Φ( x1357 )
1.5 1.5

Φ(x1 ) Φ(x5 )
1.5
Φ(x3 )
Φ(x5 ) Φ(x3 )
Φ(x7 )
xx68 )) Φ(x1 )
1.0 1.0
Φ(
Φ(
Φ(x4 )
Φ(x2 ) 1.0

Φ(x0 )
Φ(x0 )
2. Résolution de systèmes non linéaires

Φ(x2 )
Φ( x02468 )
0.5 0.5
Φ(x4 )
0.5

y = Φ(x) = −x+2 Φ(x6 )


y=x
x x
x x1 x3 x5xx71.0
x x8 x
1
3
5
7
9 0
2
4
6
8 9 xx
8 6x4 x2 x 0 x7 x5 x3 x1 x0x2 x4 x6
0.5 1.0 1.5 2.0 0.5 1.5 2.0 0.5 1.0 1.5 2.0

(a) x0 “ 1.50 (b) x0 “ 1.50 (c) x0 “ 1.10

Figure 2.8: ³ < 1, point fixe de fonctions affines particulières


2.2. Points fixes d’une fonction (dimension 1)

2.2.3 Algorithme générique du point fixe


Le principe de base est très simple et donné par les Algorithmes 2.6 et 2.7, écrit respectivement avec une
boucle Tantque et une boucle Répéter.

Algorithme 2.6 Méthode de point fixe : version Algorithme 2.7 Méthode de point fixe : version
Tantque formel Répéter formel

1: kÐ0 1: kÐ0
2: Tantque non convergence faire 2: Répéter
3: xk`1 Ð Φpxk q 3: k Ðk`1
4: k Ðk`1 4: xk Ð Φpxk´1 q
5: Fin Tantque 5: jusqu’à convergence
6: ³tol Ð xk z le dernier calculé. 6: ³tol Ð xk z le dernier calculé.

Nous allons plus particulièrement étudier les critères d’arrêt des boucles Tantque et Répéter (négation
l’un de l’autre) qui sont bien trop flous : on s’arrête quand on converge!
Tout d’abord, on n’est pas sur de converger : il faudra donc n’autoriser qu’un nombre maximum
d’itérations kmax. De plus, si l’on converge vers une certaine valeur ³ celle-ci n’étant pas connue à
l’avance (sinon l’algo n’a aucun intérêt), on ne peut utiliser, comme condition du Tantque, |xk ´ ³| ą ϵ

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 31

( |xk ´ ³| ď ϵ pour la condition du Répéter) où ϵ serait la précision souhaitée. L’idée serait de comparer
xk`1 et xk et donc de tester s’ils sont suffisament proches : la condition serait alors |Φpxk q ´ xk | <
|xk`1 ´ xk | ą tol, (boucle Tantque) ou |Φpxk q ´ xk | ď tol, (boucle Répéter) avec tol la tolérance
souhaitée. Il faut noter que dans ce cas la valeur tol doit être choisie correctement et dépend de l’ordre
de grandeur de ³. Si ³ est de l’ordre de 108 , tol < 1 comme valeur est raisonnable. Toutefois on peut lui
préférer une condition relative |Φpx k q´xk |
|xk |`1 ą tol (boucle Tantque) ou |Φpx k q´xk |
|xk |`1 ď tol (boucle Répéter)
qui permet à tol de correspondre à une tolérance relative souhaitée que ce soit pour de grandes valeurs
de ³ ou pour des petites. Les algorithmes du point fixe (recherche de ³ solution de Φpxq < x) avec no-
tations mathématiques sont donnés par Algorithme 2.8 et 2.9, respectivement avec des boucles Tantque
et Répéter.

Algorithme 2.8 Méthode de point fixe : version


Algorithme 2.9 Méthode de point fixe : version
Tantque formel avec critères d’arrêt

2.2.4 Méthodes de points fixes pour la recherche de racines


Répéter formel avec critères d’arrêt
1: kÐ0
1: kÐ0
2: err Ð |Φpx0 q ´ x0 | z ou |Φpx 0 q´x0 |
|x0 |`1 2: Répéter
3: Tantque err ą ϵ et k ď kmax faire
3: err Ð |Φpxk q ´ xk | z ou |Φpx k q´xk |
4: k Ðk`1 |xk |`1

5: xk Ð Φpxk´1 q 4: xk`1 Ð Φpxk q


5: k Ðk`1
6: err Ð |Φpxk q ´ xk | z ou |Φpx k q´xk |
|xk |`1 6: jusqu’à err ď tol ou k ą kmax
7: Fin Tantque
7: Si err ď tol alors z Convergence
8: Si err ď tol alors z Convergence
8: ³tol Ð xk z |Φp³tol q ´ ³tol | ď tol
9: ³tol Ð xk z |Φp³tol q ´ ³tol | ď tol
9: Fin Si
10: Fin Si

Des versions, sous forme de fonction, plus proches de la programmation sont proposées en Algorithme 2.10
et 2.11. Bien évidemment, suivant l’usage que l’on souhaite de ces fonctions, il est facile de les adapter
pour retourner plus d’informations (nombre d’itération effectives, statut de convergence, ...)

2. Résolution de systèmes non linéaires


Algorithme 2.10 Méthode de point fixe : version
Tantque avec critères d’arrêt Algorithme 2.11 Méthode de point fixe : version
Répéter avec critères d’arrêt
Données :
Φ : Φ : R ÝÑ R , Données :
x0 : donnée initiale, x0 P R, Φ : Φ : R ÝÑ R ,
tol : la tolérence, tol P R , ` x 0 : donnée initiale, xP R,
kmax : nombre maximum d’itérations, kmax P N ˚ tol : la tolérence, tol P R` ,
Résultat : kmax : nombre maximum d’itérations, kmax P N˚
³tol : un réel tel que |Φp³tol q ´ ³tol | ď tol Résultat :
|Φpαtol q´αtol | ³tol : un réel tel que |Φp³tol q ´ ³tol | ď tol
(ou ď tol)
|αtol |`1
(ou |Φpα tol q´αtol |
|αtol |`1 ď tol)
Fonction ³tol Ð PtFixe ( Φ, x0 , tol, kmax )

[Link] fixes d’une fonction (dimension 1)


1:
2: k Ð 0, ³tol Ð H 1: Fonction ³tol Ð PtFixe ( Φ, x0 , tol, kmax )
3: x Ð x0 , fx Ð Φpx0 q, 2: k Ð 0, ³tol Ð H
3: x Ð x0
4: err Ð |fx ´ x| z ou |fx´x|
|x|`1 4: Répéter
5: Tantque err ą tol et k ď kmax faire 5: xp Ð x
6: k Ðk`1 6: x Ð Φpxpq
7: x Ð fx
7: err Ð |x ´ xp| z ou |x´xp|
|xp|`1
8: fx Ð Φpxq
8: k Ðk`1
9: err Ð |fx ´ x| z ou |fx´x|
|x|`1 9: jusqu’à err ď tol ou k ą kmax
10: Fin Tantque 10: Si err ď tol alors z Convergence
11: Si err ď tol alors z Convergence 11: ³tol Ð x
12: ³tol Ð x 12: Fin Si
13: Fin Si 13: Fin Fonction
14: Fin Fonction

2.2.4 Méthodes de points fixes pour la recherche de racines


On peut noter que résoudre f pxq < 0 revient, par exemple, à résoudre Φpxq :< x ` f pxq < x. De manière
plus générale, si F est une fonction continue vérifiant Fp0q < 0 alors Φpxq < x ` Fpf pxqq est un autre

Compiled on 2023/10/10 at [Link]


32 Résolution de systèmes non linéaires

choix possible.
Soit f une fonction de classe C 1 dans un voisinage d’une de ses racines simple ³.
Selectionner une version :
Version 1 En appliquant la formule de Taylor pour tout x dans ce voisinage, il existe À Ps minpx, ³q, maxpx, ³qr
tel que
f p³q < 0 < f pxq ` p³ ´ xqf 1 pÀq.
Ceci conduit à la méthode itérative suivante : x0 étant donné dans le voisinage de ³, on doit,
@k P N, déterminer xk`1 vérifiant f pxk q ` pxk`1 ´ xk qqk < 0 sachant que qk est une approximation
de f 1 pÀq.
Version 2 On cherche à déterminer une méthode itérative permettant de calculer xk`1 en fonction des
valeurs précédentes en espérant que |xk`1 ´ ³| ď |xk ´ ³|. Pour celà, on écrit une formule de taylor
en xk supposé proche de ³ et on note h < ³ ´ xk
2.2.4 Méthodes de points fixes pour la recherche de racines

f p³q < 0 < f pxk q ` hf 1 pxk q ` ophq


L’idéal serait de trouver la valeur exacte de h et de prendre xk`1 < xk ` h mais ceci n’est pas
possible dans un cadre général. C’est pourquoi on cherche une approximation h̃ de h. De plus,
on ne connait pas forcément explicitement la dérivée de f. On note donc qk une approximation de
f 1 pxk q. On choisi alors h̃ comme solution de
f pxk q ` h̃qk < 0

Si qk ‰ 0, on obtient la suite itérative


f pxk q
xk`1 < xk ´ , @k P N (2.12)
qk
La valeur xk`1 est de fait l’intersection de la droite passant par le point ppxk q, f pxk qq et de pente qk avec
l’axe des x.
2. Résolution de systèmes non linéaires

Par la suite, on va écrire un algorithme du point fixe et étudier différentes méthodes :


‚ la méthode de la corde :
f pbq ´ f paq
qk < q <
b´a
‚ la méthode de la sécante :
f pxk q ´ f pxk´1 q
qk <
xk ´ xk´1
où x´1 et x0 sont données,
‚ la méthode de Newton : en supposant f 1 connu, on prend
qk < f 1 pxk q.
2.2. Points fixes d’une fonction (dimension 1)

La méthode de la corde
Soit f une fonction de classe C 1 sur ra, bs tel que f paq ‰ f pbq. Soit x0 P ra, bs donné. La suite obtenue
par la méthode de la corde est donnée par
b´a
xk`1 < xk ´ f pxk q, @k P N. (2.13)
f pbq ´ f paq
On peut voir cette relation comme un cas particulier de la méthode du point fixe. En effet, en prenant
b´a
Φpxq < x ´ f pbq´f paq f pxq, la suite définie en (2.13) s’écrit xk`1 < Φpxk q.
On a alors le résultat suivant

Proposition 2.7: convergence de la méthode de la corde

f pbq´f paq
Soit f P C 1 pra, bsq tel que f pbq ‰ f paq et ¼ < b´a . On note pxk qkPN la suite définie par x0 P ra, bs
et pour tout k ě 0
f pxk q
xk`1 < xk ´ . (2.14)
¼

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 33

On suppose de plus que @x P ra, bs

minp¼px ´ aq, ¼px ´ bqq ď f pxq ď maxp¼px ´ aq, ¼px ´ bqq (2.15)
1
minp0, 2¼q ă f pxq ă maxp0, 2¼q (2.16)

alors la suite pxk q converge vers l’unique racine ³ P ra, bs de f.

Preuve. voir correction Exercice 2.2.2

Exercice 2.2.2

f pbq´f paq
Soit f une fonction de classe C 1 sur ra, bs vérifiant f paqf pbq ă 0. et ¼ < b´a . Soit x0 P ra, bs
donné. La suite obtenue par la méthode de la corde est donnée par

2.2.4 Méthodes de points fixes pour la recherche de racines


f pxk q
xk`1 < xk ´ , @k P N.
¼
f pxq
On note Φpxq < x ´ λ .

Q. 1 Montrer que si pour tout x P ra, bs on a

minp¼px ´ aq, ¼px ´ bqq ď f pxq ď maxp¼px ´ aq, ¼px ´ bqq (2.17)

alors Φpra, bsq Ă ra, bs. ˝

Q. 2 Montrer que si pour tout x P ra, bs on a

minp0, 2¼q ă f 1 pxq ă maxp0, 2¼q (2.18)

2. Résolution de systèmes non linéaires


alors |Φ1 pxq| ă 1. ˝

Q. 3 En déduire que sous les deux conditions précédentes la méthode de la corde converge vers
l’unique solution ³ P ra, bs de f pxq < 0. ˝

Correction 2.2.2
R. 1 Si ¼ ą 0, l’inéquation (2.17) devient
f pxq
¼px ´ bq ď f pxq ď ¼px ´ aq ô a ď x ´ ďb
¼
ô a ď Φpxq ď b.
Si ¼ ă 0, l’inéquation (2.17) devient

[Link] fixes d’une fonction (dimension 1)


f pxq
¼px ´ aq ď f pxq ď ¼px ´ bq ô a ď x ´ ďb
¼
ô a ď Φpxq ď b.

R. 2 Si ¼ ą 0, l’inéquation (2.18) devient


f 1 pxq
0 ă f 1 pxq ă 2¼ ô 0 ă ă2
¼
f 1 pxq
ô ´1 ă 1 ´ ă1
¼
ô ´1 ă Φ1 pxq ă 1.
Si ¼ ă 0, l’inéquation (2.18) devient
f 1 pxq
2¼ ă f 1 pxq ă 0 ô 0 ă ă2
¼
f 1 pxq
ô ´1 ă 1 ´ ă1
¼
ô ´1 ă Φ1 pxq ă 1.

Compiled on 2023/10/10 at [Link]


34 Résolution de systèmes non linéaires

R. 3 Sous les hypothèses (2.17) et (2.18) on a Φpra, bsq Ă ra, bs et @x P ra, bs, |Φ1 pxq| ă 1. Comme f
est de classe C 1 sur ra, bs, la fonction Φ l’est aussi. La suite pxk q est définie par xk`1 < Φpxk q. Ainsi les
hypothèses du théorème 2.4 sont vérifiées ce qui assure l’unicité du point fixe ainsi que la convergence de
la suite pxk q vers ce point fixe.
˛

Proposition 2.8: ordre de convergence de la méthode de la corde

Soit f P C 1 pra, bsq tel que f pbq ‰ f paq. Si la suite pxk q définie par la méthode de la corde en (2.14)
converge vers ³ Psa, br alors la convergence est au moins d’ordre 1.
2.2.4 Méthodes de points fixes pour la recherche de racines

De plus, si f est de classe C 2 sur un certain voisinage V de ³ et si f 1 p³q < f pbq´f b´a
paq
alors la
convergence est au moins d’ordre 2.

Preuve. ‚ Order 1 : On note ¼ < f pbq´f b´a


paq
. On a par définition xk`1 < xk ´ f pxλk q (ce qui suppose
que f pxk q soit bien définie, i.e. xk P ra, bs). Comme ¼ ‰ 0 et f continue, l’hypothèse pxk q converge
vers ³ entraine que f p³q < 0.
Pour définir l’ordre de convergence, on suppose de plus que @k P N, xk ‰ ³. On peut alors appliquer
la formule de Taylor-Lagrange : il existe Àk compris entre xk et ³ tel que

p³qon `pxk ´ ³qf 1 pÀk q < pxk ´ ³qf 1 pÀk q.


f pxk q < lofomo
“0

On a alors en utilisant cette expression dans la définition de la suite xk


f 1 pÀk q
2. Résolution de systèmes non linéaires

xk`1 < xk ´ pxk ´ ³q .


¼
En soustrayant ³ à cette équation on obtient
f 1 pÀk q f 1 pÀk q
xk`1 ´ ³ < xk ´ ³ ´ pxk ´ ³q < pxk ´ ³qp1 ´ q.
¼ ¼
Comme xk ‰ ³, on a alors
xk`1 ´ ³ f 1 pÀk q
<1´ .
xk ´ ³ ¼
Or xk converge vers ³ et Àk compris entre xk et ³, ce qui entraine que Àk converge vers ³. La
fonction f 1 étant continue, on en déduit que f 1 pÀk q converge vers f 1 p³q. Ceci donne donc

xk`1 ´ ³ f 1 p³q
2.2. Points fixes d’une fonction (dimension 1)

lim <1´ .
kÑ`8 xk ´ ³ ¼
La convergence est donc (au moins) d’ordre 1.
‚ Order 2 : La suite étant convergente, il existe k0 P N tel que @k ě k0 , xk P V. Soit k ě k0 , comme
f P C 2 pVq, on peut appliquer la formule de Taylor-Lagrange : il existe ¸k P V compris entre xk et
³ que
pxk ´ ³q2 p2q
p³qon `pxk ´ ³qf 1 p³q `
f pxk q < lofomo f p¸k q.
2!
“0

On a alors en utilisant cette expression dans la définition de la suite xk

pxk ´ ³q2 p2q


ˆ ˙
1 1
xk`1 < xk ´ pxk ´ ³qf p³q ` f p¸k q .
¼ 2!
En soustrayant ³ à cette équation on obtient

f 1 p³q 1 pxk ´ ³q2 p2q


xk`1 ´ ³ < pxk ´ ³qp 1 ´ q` f p¸k q.
¼
loooomoooon ¼ 2!
“0 par hyp.

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 35

Comme ¸k P V converge vers ³ (car compris entre xk et ³) et f p2q continue sur V, on en déduit

xk`1 ´ ³ f p2q p³q


lim < .
kÑ`8 pxk ´ ³q2 2¼

La convergence est donc (au moins) d’ordre 2.

On présente en Algorithme 2.12 l’implémentation usuelle de la méthode de la corde. Une autre version
utilisant la fonction PtFixe est donnée en Algorithme 2.13.

Algorithme 2.12 Méthode de la corde

2.2.4 Méthodes de points fixes pour la recherche de racines


Données :
f : f : R ÝÑ R ,
a, b : deux réels tels que f paq ‰ f pbq,
x0 : donnée initiale, x0 P R, Algorithme 2.13 Méthode de la corde utilisant la
tol : la tolérence, tol P R` , fonction PtFixe
kmax : nombre maximum d’itérations, kmax P N˚ Données :
Résultat : f : f : R ÝÑ R ,
³tol : un réel tel que |f p³tol q| ď tol a, b : deux réels tels que f paq ‰ f pbq,
x0 : donnée initiale, x0 P R,
1: Fonction ³tol Ð Corde ( f, a, b, x0 , tol, kmax ) tol : la tolérence, tol P R` ,
2: k Ð 0, ³tol Ð H kmax : nombre maximum d’itérations, kmax P N˚
3: b´a
q Ð f pbq´f Résultat :
paq
4: x Ð x0 , ³tol : un réel tel que |f p³tol q| ď tol
5: err Ð tol ` 1
6: Tantque err ą tol et k ď kmax faire 1: Fonction ³tol Ð Corde ( f, a, b, x0 , tol, kmax )
b´a
7: k Ðk`1 2: q Ð f pbq´f

2. Résolution de systèmes non linéaires


paq
z définition de
` ˘
8: xp Ð x 3: Φ Ð x ÞÑ x ´ q ˚ f pxq
9: x Ð xp ´ q ˚ f pxpq fonction
10: err Ð |x ´ xp| 4: ³tol Ð PtFixepΦ, x0 , tol, kmaxq
11: Fin Tantque 5: Fin Fonction
12: Si err ď tol alors z Convergence
13: ³tol Ð x
14: Fin Si
15: Fin Fonction

Pour illustrer ces résultats de convergence, on va rechercher la racine positive de f pxq < x2 ´ 1 par la
méthode de la corde avec comme données

‚ exemple 1 : a < 0.000, b < 2.000, x0 < 1.800,

[Link] fixes d’une fonction (dimension 1)


‚ exemple 2 : a < 0.5000, b < 1.900, x0 < 1.800.

On représente en Figure 2.9 les itérations de la méthode de la corde pour l’exemple 1 à partir du graphe
de la fonction f (figure de gauche) et à partir du graphe de la fonction Φ (figure de droite). Même chose
pour l’exemple 2 avec la Figure 2.10.
Dans le tableau suivant on donne l’erreur commise par les suites dérivées des exemples 1 et 2 et ceci pour
quelques itérations.
exemple 1 exemple 2
k |xk ´ ³| |xk ´ ³|
0 8.0000e-01 8.0000e-01
1 3.2000e-01 1.3333e-01
2 5.1200e-02 2.9630e-02
3 1.3107e-03 5.3041e-03
4 8.5899e-07 8.9573e-04
5 3.6893e-13 1.4962e-04
6 0.0000e+00 2.4947e-05
.. .. ..
. . .
15 0.0000e+00 2.4756e-12

Compiled on 2023/10/10 at [Link]


36 Résolution de systèmes non linéaires

y = f(a) + q(x − a)
3.0

y = f(x) y
2.5 2.0

f(x0 )
y = Φ(x)
y=x
2.0

1.5
1.5
2.2.4 Méthodes de points fixes pour la recherche de racines

1.0

Φ( x2 )
Φ(x1 )
1.0

0.5

Φ(x0 )

f(x345 ) x1 xx2 345


f(x2 ) x0 0.5
0.5 1.0 1.5 2.0

f0.5
(x1 )

x1 x1.0
x3 x0
x
2
1.0 0.5 1.5 2.0

(a) représentation usuelle


(b) Représentation point fixe

Figure 2.9: Exemple 1, méthode de la corde, ³ < 1, racine de f : x ÞÑ x2 ´ 1 avec a < 0.00, b < 2.00,
x0 < 1.80,
2. Résolution de systèmes non linéaires

y = f(a) + q(x − a)
3.0

y = f(x) y
2.5 2.0

f(x0 )
y = Φ(x)
y=x
2.0
2.2. Points fixes d’une fonction (dimension 1)

1.5
1.5

1.0

Φ( xx12 ))
1.0
Φ(
Φ(x0 )
0.5

ff((x x1xx23456
x56234 )) x0 0.5
0.5 1.0 1.5 2.0
f(x1 )

0.5

x1 x1.0
x23 x0
x
1.0 0.5 1.5 2.0

(a) représentation usuelle


(b) Représentation point fixe

Figure 2.10: Exemple 2, méthode de la corde, ³ < 1, racine de f : x ÞÑ x2 ´ 1 avec a < 0.50, b < 1.90,
x0 < 1.80,

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 37

ek

exemple 1
exemple 2
10-2

10-4

10-6

10-8

10-10

10-12

2.2.4 Méthodes de points fixes pour la recherche de racines


k
0 2 4 6 8 10 12 14 16

Figure 2.11: Erreurs en fonctions des itérations

On remarque qu’avec les données de l’exemple 1 la convergence est beaucoup plus rapide. Ceci est
illustré en Figure 2.11. En effet dans ce cas on a

f pbq ´ f paq
< 2 et f 1 p³q < 2.
b´a
D’après la proposition 2.8, la convergence est d’ordre 2 pour l’exemple 1. Par contre, on a pour l’exemple
2
f pbq ´ f paq

2. Résolution de systèmes non linéaires


< 2.400 ‰ f 1 p³q < 2
b´a
et donc la convergence est d’ordre 1. On retrouve ces résultats sur la Figure 2.12 ou l’on a représenté
en échelle logarithmique ek`1 < |xk`1 ´ ³| en fonction de ek < |xk ´ ³|. En effet si une méthode est
convergente d’ordre p exactement on aura pour k suffisament grand ek`1 « Cepk .

ek + 1
10-1 exemple 1 : pente=2.000
exemple 2 : pente=1.000

10-3

10-5

[Link] fixes d’une fonction (dimension 1)


10-7

10-9

10-11

ek
10-10 10-8 10-6 10-4 10-2

Figure 2.12: Représentation en échelle logarithmique de ek`1 en fonction de ek . Les pentes sont calculées
numériquement

Ajouter un autre exemple

La méthode de Newton
Soient f une fonction de classe C 1 et x0 un réel donné. La suite obtenue par la méthode de Newton est
donnée par

Compiled on 2023/10/10 at [Link]


38 Résolution de systèmes non linéaires

f pxk q
xk`1 < xk ´ , @k P N. (2.19)
f 1 pxk q
Bien évidemment, il faudra s’assurer que f 1 pxk q ‰ 0. On peut voir cette relation comme un cas particulier
de la méthode du point fixe. En effet, en prenant Φpxq < x ´ ff1pxq pxq , la suite définie en (2.21) s’écrit
xk`1 < Φpxk q.

Proposition 2.9: convergence de la méthode de Newton

Soit f une fonction de classe C 2 sur un certain voisinage d’une racine simple ³ de f. Soit x0 donné
dans ce voisinage, la suite pxk qkPN définie par la méthode de Newton
2.2.4 Méthodes de points fixes pour la recherche de racines

f pxk q
xk`1 < xk ´ , @k P N. (2.20)
f 1 pxk q
est localement convergente d’ordre 2.

Preuve. Comme ³ est racine simple de f (i.e. f p³q < 0 et f 1 p³q ‰ 0) et f 1 continue, il existe un voisinage
V de ³ tel que pour tout x P V, f 1 pxq ‰ 0. On peut alors définir la fonction Φ sur V par

f pxq
@x P V, Φpxq < x ´ .
f 1 pxq
On a alors xk`1 < Φpxk q. La fonction Φ est de classe C 1 sur V et

pf 1 pxqq2 ´ f pxqf 2 pxq f pxqf 2 pxq


Φ1 pxq < 1 ´ < .
pf 1 pxqq2 pf 1 pxqq2
On a donc Φ1 p³q < 0 car f p³q < 0. D’après le théorème de convergence locale du point fixe (théorème 2.5),
2. Résolution de systèmes non linéaires

on en déduit que la suite pxk q converge vers ³ (et que la convergence est au moins d’ordre 1. Pour
démontrer qu’elle est d’ordre 2, on ne peut utiliser le théorème 2.6 car Φ n’est pas de classe C 2 . Toutefois
comme f est de classe C 2 , on applique la formule de Taylor-Lagrange aux points xk , ³ (en supposant
xk ‰ ³) : il existe Àk compris entre xk et ³ tel que

p³ ´ xk q2 p2q
p³qon < f pxk q ` p³ ´ xk qf 1 pxk q `
lofomo f pÀk q.
2!
“0
1
Comme f pxk q ‰ 0, l’équation précédente s’écrit aussi

p2q
f pxk q 2f pÀk q
³ < xk ´ ´ p³ ´ x q
2.2. Points fixes d’une fonction (dimension 1)

1 k 1
f pxk q 2f pxk q
f p2q pÀk q
< xk`1 ´ p³ ´ xk q2 .
2f 1 pxk q

On obtient alors

³ ´ xk`1 f p2q pÀk q


2
<´ 1 .
p³ ´ xk q 2f pxk q
La fonction f est de classe C 2 et la suite Àk converge vers ³ (car Àk compris entre xk et ³). Ceci entraine
par passage à la limite que

xk`1 ´ ³ f p2q p³q


lim < .
kÑ`8 pxk ´ ³q2 2f 1 p³q
La convergence est donc d’ordre 2.

Soit f une fonction de classe C 2 au voisinage de ³, racine de f. On suppose que f 1 pxq ‰ 0 pour tout x P V
(i.e. ³ racine simple de f ). Soit x0 P V donné. La suite obtenue par la méthode de Newton est donnée
par

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 39

f pxk q
xk`1 < xk ´ , @k P N. (2.21)
f 1 pxk q
On peut voir cette relation comme un cas particulier de la méthode du point fixe. En effet, en prenant
Φpxq < x ´ ff1pxq
pxq , la suite définie en (2.21) s’écrit xk`1 < Φpxk q et on note que Φp³q < ³ (i.e. ³ point
fixe de Φ).
De plus f étant de classe C 3 et sa dérivée non nulle sur V, on obtient que Φ est de classe C 2 sur V, et
@x P V,

pf 1 pxqq2 ´ f pxqf 2 pxq f pxqf 2 pxq


Φ1 pxq < 1 ´ <
pf 1 pxqq2 pf 1 pxqq2
et

2.2.4 Méthodes de points fixes pour la recherche de racines


pf 1 pxqf 2 pxq ` f pxqf p3q pxqqpf 1 pxqq2 ´ 2f pxqf 1 pxqpf 2 pxqq2
Φ2 pxq <
pf 1 pxqq4
On a alors

f 2 p³q
Φ1 p³q < 0, Φ2 p³q < .
f 1 p³q
D’après la proposition 2.6, si f 2 p³q ‰ 0 alors la méthode de Newton est d’ordre 2.
Faire méthode de Newton modifiés dans le cas de racine de multiplicité m ą 1.???

Exercice 2.2.3

En ´1700 av. J.-C., les babyloniens ne connais-

2. Résolution de systèmes non linéaires


saient que les nombres rationnels (fractions) et ils
utilisaient le système?sexagésimal (base 60). Pour
approcher la valeur 2, ils utilisaient comme ap-
proximation (voir tablette YBC 7289)
24 51 10 30547
³<1` ` 2` 3 <
60 60 60 21600
?
L’erreur commise est |³ ´ 2| « 5.994e ´ 7.

Q. 1 Comment feriez-vous
? pour trouver à la main une méthode permettant de trouver des nombres
rationnels approchant 2. ˝

[Link] fixes d’une fonction (dimension 1)


?
Q. 2 Généraliser la méthode pour trouver une approximation rationnelle de a où a est un réel
positif. ˝
?
Q. 3 Généraliser la méthode pour trouver une approximation rationnelle de n a où a est un réel
positif et n P N˚ . ˝

Correction 2.2.3
?
R. 1 Il suffit de voir que 2 est la racine positive de f pxq < x2 ´ 2 et d’appliquer la méthode de Newton
par exemple. La suite des itérés de Newton s’écrit alors

f pxk q x2k ´ 2 x2k ` 2


xk`1 < xk ´ < x k ´ <
f 1 pxk q 2xk 2xk

Avec x0 < 1, on obtient ?


k xk | 2 ´ xk |
3
1 2 8.57864e-02
17
2 12 2.45310e-03
577
3 408 2.12390e-06

Compiled on 2023/10/10 at [Link]


40 Résolution de systèmes non linéaires

Avec x0 < 54 , on obtient


?
k xk | 2 ´ xk |
57
1 40 1.07864e-02
6449
2 4560 4.08236e-05
83176801
3 58814880 5.89203e-10

?
R. 2 Il suffit de voir que a est la racine positive de f pxq < x2 ´ a et d’appliquer la méthode de Newton
par exemple. La suite des itérés de Newton s’écrit alors
f pxk q x2k ´ a x2k ` a
xk`1 < xk ´ < x k ´ <
f 1 pxk q 2xk 2xk
Avec a < 3 et x0 < 1, on obtient ?
2.2.4 Méthodes de points fixes pour la recherche de racines

k xk | 3 ´ xk |
1 2 2.67949e-01
7
2 4 1.79492e-02
97
3 56 9.20496e-05

?
R. 3 Il suffit de voir que n a est la racine positive de f pxq < xn ´ a et d’appliquer la méthode de Newton
par exemple. La suite des itérés de Newton s’écrit alors
f pxk q xn ´ a pn ´ 1qxnk ´ a
xk`1 << xk ´ < xk ´ k n´1 <
1
f pxk q nxk nxkn´1
Avec a < 3, n < 4 et x0 < 1, on obtient
?
k xk | 4 3 ´ xk |
3
1 2 1.83926e-01
97
2. Résolution de systèmes non linéaires

2 72 3.11482e-02
115403137
3 87616608 1.06368e-03
236297297271008837816738085152257
4 179546943199700984864483416264832 1.28780e-06
˛

On présente en Algorithme 2.14 l’implémentation standard de la méthode de Newton. Une autre version
utilisant la fonction PtFixe est donnée en Algorithme 2.15.

Algorithme 2.14 Méthode de Newton


Données :
f : f : R ÝÑ R ,
df : la dérivée de f ,
2.2. Points fixes d’une fonction (dimension 1)

x0 : donnée initiale, x0 P R,
tol : la tolérence, tol P R` , Algorithme 2.15 Méthode de Newton scalaire
kmax : nombre maximum d’itérations, kmax P N˚ Données :
Résultat : f : f : R ÝÑ R ,
³tol : un réel tel que |Φp³tol q ´ ³tol | ď tol df : la dérivée de f ,
x0 : donnée initiale, x0 P R,
1: Fonction ³tol Ð Newton ( f, df, x0 , tol, kmax ) tol : la tolérence, tol P R` ,
2: k Ð 0, ³tol Ð H kmax : nombre maximum d’itérations, kmax P N˚
3: x Ð x0 , Résultat :
4: err Ð tol ` 1 ³tol : un réel tel que
5: Tantque err ą tol et k ď kmax faire
6: k Ðk`1 ` ³tol Ð Newton ( ˘f, df, x0 , tol, kmax )
1: Fonction
7: xp Ð x 2: Φ Ð x ÞÑ x ´ f pxq{dfpxq
8: x Ð xp ´ f pxpq{dfpxpq z dfpxpq ‰ 0 3: ³tol Ð PtFixepΦ, x0 , tol, kmaxq
9: err Ð |x ´ xp| 4: Fin Fonction
10: Fin Tantque
11: Si err ď tol alors z Convergence
12: ³tol Ð x
13: Fin Si
14: Fin Fonction

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 41

Comme premier exemple, on prend f pxq < x2 ´ 1 avec x0 < 0.40 et pour le second f pxq < x2 cos pxq avec
x0 < 2.00.
On représente en Figures 2.13 and 2.14, respectivement pour les exemples 1 et 2, les itérations de la
méthode de Newton à partir du graphe de la fonction f (figure de gauche) et à partir du graphe de la
fonction Φ (figure de droite).

y
2.0

y = Φ(x)
y=x
3.0 x=α
f : x x2 − 1
: y = f (x0 )(x − x0 ) + f(x0 )
Φ(x0 )
D0
0
1.5

2.2.4 Méthodes de points fixes pour la recherche de racines


: y = f (x1 )(x − x1 ) + f(x1 )
0
2.5 D1

: y = f (x2 )(x − x2 ) + f(x2 )


0
D2

: y = f (x3 )(x − x3 ) + f(x3 )


0
D3
2.0

Φ(x1 )
1.5 Φ( x2 )
1.0

f(x1 )
1.0

0.5
0.5
f(x2 ) x0
f(x3 ) x x2 x1
3
0.5 1.0 1.5 2.0

0.5

f(x0 ) x0 0.5 xx x1.5


x
3 2 1
1.0 1.0 2.0

(a) représentation usuelle x2 ´1


(b) Représentation point fixe, Φ : x ÞÑ x ´ 2x

2. Résolution de systèmes non linéaires


Figure 2.13: Exemple 1, méthode de Newton, ³ < 1, racine de f : x ÞÑ x2 ´ 1 avec x0 < 0.40,

y
2.0
y = Φ(x)
y=x

Φ(x0 )

2.0
Φ(x21 ))
Φ(
1.5

1.5

1.0

x=α 1.0
0.5

[Link] fixes d’une fonction (dimension 1)


xx32 x1 x0
ff((x
x32 ))
0.5 1.0 1.5 2.0

f(x1 )
0.5
0.5

1.0
f : x x cos x
2
( )

D0 : y = f (x0 )(x − x0 ) + f(x0 )


0

D1 : y = f (x1 )(x − x1 ) + f(x1 )


0

x
1.5
f(x0 ) : y = f (x2 )(x − x2 ) + f(x2 )
0
D2

D3 : y = f (x3 )(x − x3 ) + f(x3 )


0
xx32 x1 x0
2.0 0.5 1.0 1.5 2.0

(a) représentation usuelle (b) Représentation point fixe, Φ :


x2 cospxq
x ÞÑ x2 sinpxq´2 x cospxq
`x

1
Figure 2.14: Exemple 2, méthode de Newton, ³ < 2 Ã, racine de f : x ÞÑ x2 cos pxq avec x0 < 0.40,

On illustre la convergence et l’ordre de convergence respectivement en Figures 2.15a et 2.15b. Pour cette
dernière, on a représenté en échelle logarithmique ek`1 < |xk`1 ´ ³| en fonction de ek < |xk ´ ³|. En
effet si une méthode est convergente d’ordre p exactement on aura pour k suffisament grand ek`1 « Cepk .

Compiled on 2023/10/10 at [Link]


42 Résolution de systèmes non linéaires

ek ek + 1

10-1 exemple : f(x) = x − 1


2
10-1 exemple : = x2 − 1 pente=2.074
exemple : f(x) = x cos x
2
( )
exemple :
f(x)

f(x)
,

pente=1.953
= x 2 cos (x),

10-3 10-3

10-5 10-5
10-7 10-7
10-9
10-9
10-11
10-11
10-13
10-13

k ek
0 1 2 3 4 5 6 10-7 10-6 10-5 10-4 10-3 10-2 10-1

(a) Représentation de la convergence, ek en fonction (b) Représentation de l’ordre de convergence en


de k échelle logarithmique, ek`1 en fonction de ek . Or-
2.2.6 Méthode Regula-Falsi ou fausse position

dre théorique 2

Figure 2.15: Méthode de Newton, convergence et ordre

2.2.5 La méthode de la sécante


Cette méthode est une alternative à la méthode de Newton lorsque l’on ne connait pas la dérivée de la
f pxk q´f pxk´1 q
fonction f. A l’itération k, de la méthode de Newton, on approche f 1 pxk q par xk ´xk´1 . En effet,
d’après la formule de Taylor-Lagrange, il existe Àk compris entre xk´1 et xk vérifiant
pxk´1 ´ xk q2 p2q
f pxk´1 q < f pxk q ` pxk´1 ´ xk qf 1 pxk q ` f pÀk q
2!
2. Résolution de systèmes non linéaires

ce qui donne
f pxk q ´ f pxk´1 q xk´1 ´ xk p2q
f 1 pxk q < ` f pÀk q.
xk´1 ´ xk 2!
x ´x
Si la suite est convergente, on a k´12! k f p2q pÀk q Ñ 0, ce qui justifie l’approximation précédente. On a
alors la méthode de la sécante donnée en (2.22). Cette méthode est une méthode à deux pas : le
calcul de xk`1 nécessite de connaitre xk et xk´1 . Il faut donc deux valeurs d’initialisations x´1 et x0
pour définir la suite pxk q.

Proposition 2.10: Convergence méthode de la sécante (Admis)


2.2. Points fixes d’une fonction (dimension 1)

Soit f une fonction de classe C 2 sur un certain voisinage d’une racine simple ³ de f. Soient x´1 et
x0 donnés dans ce voisinage tels que f px´1 q ‰ f px0 q , la suite pxk qkPN définie par la méthode de la
sécante
xk ´ xk´1
xk`1 < xk ´ f pxk q, @k P N. (2.22)
f pxk q ´ f pxk´1 q
?
1` 5
est localement convergente d’ordre 2 « 1.618.

Comme premier exemple, on recherche une racine de x2 ´ 1 avec x´1 < 0.000 et x0 < 2.000. Une
représentation graphique des premières itérés de la suite est donnée en Figure 2.16. Sur cette figure, les
droites Dk sont celles passant par les points pxk´1 , f pxk´1 qq et pxk , f pxk qq. Pour deuxième exemple, on
recherche une racine de x2 cos pxq avec x´1 < 1.000 et x0 < 3.000. Une représentation graphique des
premières itérés de la suite est donnée en Figure 2.17.
On illustre la convergence et l’ordre de convergence respectivement en Figures 2.18a et 2.18b. Pour cette
dernière, on a représenté en échelle logarithmique ek`1 < |xk`1 ´ ³| en fonction de ek < |xk ´ ³|. En
effet si une méthode est convergente d’ordre p exactement on aura pour k suffisament grand ek`1 « Cepk .

2.2.6 Méthode Regula-Falsi ou fausse position


Cette méthode diffère de la méthode de dichotomie par le choix de xk à chaque itération. Pour la méthode
de dichotomie on a pris xk < ak `b
2
k
point milieux du segment rak , bk s. Pour la méthode Regula-Falsi, on

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 43

f(x
30 ) y =α

2.2.6 Méthode Regula-Falsi ou fausse position


1

f(x3
x) − 1 x1 x2
x3 x0
0.5 1.0 1.5 2.0
f(x2 )

f(x1 )


f(x 11 ) 2

D →
f : x x 1
− −
D →
0 : (x 1 , f(x 1 )) (x0 , f(x0 ))

D →
1 : (x0 , f(x0 )) (x1 , f(x1 ))

D →
2 : (x1 , f(x1 )) (x2 , f(x2 ))
3 : (x2 , f(x2 )) (x3 , f(x3 ))
2

2. Résolution de systèmes non linéaires


Figure 2.16: Méthode de la sécante pour f pxq < x2 ´ 1, x´1 < 0.000 et x0 < 2.000

D →
f : x x cos (x)

[Link] fixes d’une fonction (dimension 1)


− −
D →
6 0 : (x 1 , f(x 1 )) (x0 , f(x0 ))

D →
1 : (x0 , f(x0 )) (x1 , f(x1 ))

D →
2 : (x1 , f(x1 )) (x2 , f(x2 ))

D →
3 : (x2 , f(x2 )) (x3 , f(x3 ))
4
4 : (x3 , f(x3 )) (x4 , f(x4 ))

f(
fx
f −
(x4)
x1
2 ) y =α
x3 x0

0.5

x 1 x1 x2 x4
1.0 1.5 2.0 2.5 3.0

6
f(x3 )

f(x0 )

Figure 2.17: Méthode de la sécante pour f pxq < x2 cos pxq , x´1 < 1.000 et x0 < 3.000

Compiled on 2023/10/10 at [Link]


44 Résolution de systèmes non linéaires

ek ek + 1

10-1 exemple : f(x) = x − 1


2
exemple : = x2 − 1 pente=1.612
exemple : f(x) = x cos x
2
( )
10-3 exemple :
f(x)

f(x)
,

pente=1.608
= x 2 cos (x),

10-3
10-5
10-5
10-7
10-7

10-9 10-9

10-11 10-11

10-13 10-13
10-15
10-15
k ek
0 2 4 6 8 10 12 14 10-9 10-8 10-7 10-6 10-5 10-4 10-3 10-2

(a) Représentation de la convergence, ek en fonction (b) Représentation de l’ordre de convergence en


de k échelle logarithmique, ek`1 en fonction de ek . Or-
2.2.6 Méthode Regula-Falsi ou fausse position

?
dre théorique 1`2 5 « 1.618

Figure 2.18: Méthode de la sécante, convergence et ordre

prend pour xk l’intersection de la droite passant par les points pak , f pak qq et pbk , f pbk qq avec l’axe des
abscisses. Si f pak qf pbk q ă 0 cela nous assure que xk Psak , bk r.
L’équation de la droite est donnée par

f pbk q ´ f pak q bk f pak q ´ ak f pbk q


y < cx ` d, avec c < et d < .
bk ´ a k bk ´ a k

On a alors
2. Résolution de systèmes non linéaires

ak f pbk q ´ bk f pak q
xk < ´d{c < .
f pbk q ´ f pak q
En résumé, on définit les trois suites pak qkPN , pbk qkPN et pxk qkPN par
a0 f pb0 q´b0 f pa0 q
‚ a0 < a, b0 < b et x0 < f pb0 q´f pa0 q ,

‚ @k P N,
si
$

’ ak`1 < bk`1 < xk`1 < xk , f pxk q < 0,
k`1 < xk , bk`1 < bk , si f pbk qf pxk q ă 0,

&a
2.2. Points fixes d’une fonction (dimension 1)


’ a k`1 < ak , bk`1 < xk , si f pak qf pxk q ă 0,
a f pbk`1 q´bk`1 f pak`1 q

xk`1 < k`1f pbk`1 , si f pxk q ‰ 0.
%
q´f pak`1 q

Exercice 2.2.4

On suppose que la fonction f est continue sur ra, bs, vérifie f paqf pbq ă 0 et qu’il existe un unique
À Psa, br tel que f pÀq < 0.
Q. 1 Montrer que
af pbq ´ bf paq
aď ď b.
f pbq ´ f paq
˝

Q. 2 Montrer que a0 ď a1 ď . . . ď ak ď xk ď bk ď . . . ď b1 ď b0 pour tout k P N. et que si


f pxk q ‰ 0 alors f pak qf pbk q ă 0. ˝

Q. 3 En déduire la convergence de la suite pxk q vers À. ˝

Correction 2.2.4

Compiled on 2023/10/10 at [Link]


Points fixes d’une fonction (dimension 1) 45

pbq´bf paq
R. 1 On pose x < aff pbq´f paq qui est bien défini car f paq ‰ f pbq. En effet si f paq < f pbq alors f paqf pbq <
f paq2 ě 0 qui est en contradiction avec l’hypothèse f paqf pbq ă 0. On a

af pbq ´ bf paq ´ apf pbq ´ f paqq f paq


x´a< < pb ´ aq
f pbq ´ f paq f paq ´ f pbq
f paq
Comme f paqf pbq ă 0, f paq ´ f pbq est du même signe que f paq et alors f paq´f pbq ě 0. De plus b ´ a ą 0
et donc on a x ´ a ě 0.
De la même manière, on a

af pbq ´ bf paq ´ bpf pbq ´ f paqq f pbq


x´b< < pa ´ bq
f pbq ´ f paq f pbq ´ f paq
f pbq
Comme f paqf pbq ă 0, f pbq ´ f paq est du même signe que f pbq et alors f pbq´f paq ě 0. De plus a ´ b ă 0
et donc on a x ´ b ď 0.

2.2.6 Méthode Regula-Falsi ou fausse position


R. 2 On va démontrer par récurrence la validité de la proposition pPk q suivante @k P N :

(i) f pak qf pbk q ă 0 si f pxk q ‰ 0


"
pPk q
(ii) a0 ď a1 ď . . . ď ak ď xk ď bk ď . . . ď b1 ď b0 ,

Initialisation On vérifie la proposition pPk q pour k < 0. On a f paqf pbq ă 0 donc pP0 q ´ piq est vérifiée.
D’après Q. 1, on obtient a0 ď x0 ď b0 . La proposition pP0 q est donc vérifiée.
Hérédité Soit k ě 1. On suppose la proposition pPk q est vraie. Montrons que pPk`1 q est vérifiée.
Si f pxk q < 0 alors ak`1 < bk`1 < xk`1 < xk et la proposition pPk`1 q est vérifiée.
On suppose maintenant que f pxk q ‰ 0.

2. Résolution de systèmes non linéaires


De pPk q ´ piq on a f pak q ‰ 0 et f pbk q ‰ 0. De plus f pak q ‰ f pbk q car sinon f pak qf pbk q < f pak q2 ě 0
ce qui est en contradiction avec pPk q´piq. Par hypothèse pPk q, on a ak ď xk ď bk et f pak qf pbk q ă 0.
Par continuité de f, on a alors soit f pbk qf pxk q ă 0 (et donc f pak qf pxk q ą 0) soit f pbk qf pxk q ą 0
(et donc f pak qf pxk q ă 0).
‚ Si f pbk qf pxk q ă 0 on a ak`1 < xk et bk`1 < bk . Comme f pak q ‰ f pbk q, xk`1 est bien défini.
D’après Q. 1 en prenant rak`1 , bk`1 s comme intervalle, et sachant que f pak`1 qf pbk`1 q <
f pxk qf pbk q ă 0 on obtient
ak`1 ď xk`1 ď bk`1 .
De plus par hypothèse ak ď xk < ak`1 et donc ak ď ak`1 et bk`1 ď bk . La proposition pPk`1 q

[Link] fixes d’une fonction (dimension 1)


est donc vérifiée.
‚ Si f pak qf pxk q ă 0 on a ak`1 < ak et bk`1 < xk . Comme f pak q ‰ f pbk q, xk`1 est bien défini.
D’après Q. 1 en prenant rak`1 , bk`1 s comme intervalle, et sachant que f pak`1 qf pbk`1 q <
f pak qf pxk q ă 0 on obtient
ak`1 ď xk`1 ď bk`1 .
La proposition pPk`1 q est donc vérifiée.

R. 3 Supposons qu’il existe s P N tel que f pxs q < 0. Alors, pour tout i ď 1, on a as`i < bs`i <
xs`i < xs . Les trois suites convergent donc vers xs . D’après la question précédente, xs P ra, bs. Comme
f paq ‰ 0 et f pbq ‰ 0, on en déduit xs Psa, br. Par hypothèse il existe un unique À Psa, br tel que f pÀq < 0,
on a alors xs < À.
Supposons que @k P N, f pxk q ‰ 0. D’après Q. 2, la suite pak q est croissante majorée par b et la suite
pbk q est décroissante minorée par a. Elles sont donc convergentes et l’on note respectivement l et L les
limites de pak q et pbk q. Comme a ď ak ď bk ď b, on a a ď l ď L ď b.

‚ Supposons f plq < f pLq. On a f pak qf pbk q ă 0. Comme f est continue, à la limite on obtient
f plqf pLq < f plq2 < f pLq2 ď 0 et donc f plq < f pLq < 0. On a necessairement l et L dans sa, br
car f paqf pbq ă 0 et donc f paq et f pbq non nuls. Par unicité du zéro de f dans sa, br on obtient
l < L < À. Comme ak ď xk ď bk , on en déduit que la suite pxk q converge aussi vers À.

Compiled on 2023/10/10 at [Link]


46 Résolution de systèmes non linéaires

‚ Supposons f plq ‰ f pLq. Par continuité de la fonction f la suite pxk q converge alors vers M <
lf pLq´Lf plq
f pLq´f plq . Comme ak ď xk ď bk on a aussi

lf pLq ´ Lf plq
lďM < ď L. (2.23)
f pLq ´ f plq
De plus ayant f pxk q ‰ 0 @k P N, on a f pak qf pbk q ă 0 @k P N. En passant à la limite et par
continuité de f on obtient f plqf pLq ď 0.
Montrons que f plq < 0 ou f pLq < 0.
– Si f plq ă f pLq, alors de (2.23) on obtient
lpf pLq ´ f plqq ď lf pLq ´ Lf plq ď Lpf pLq ´ f plqq
ce qui donne lf plq ě Lf plq et lf pLq ď Lf pLq i.e. pl ´ Lqf plq ě 0 et pL ´ lqf pLq ď 0. Comme
L ´ l ě 0, on en déduit f plq ď 0 et f pLq ď 0. Or f plqf pLq ď 0, ce qui donne f plq < 0 ou
f pLq < 0.
– Si f plq ą f pLq, alors de (2.23) on obtient
2.3.0 Méthode Regula-Falsi ou fausse position

lpf pLq ´ f plqq ě lf pLq ´ Lf plq ě Lpf pLq ´ f plqq


ce qui donne lf plq ď Lf plq et lf pLq ě Lf pLq i.e. pL ´ lqf plq ě 0 et pL ´ lqf pLq ď 0. Comme
L ´ l ě 0, on en déduit f plq ě 0 et f pLq ě 0. Or f plqf pLq ď 0, ce qui donne f plq < 0 ou
f pLq < 0.
On a donc démontré que si f plq ‰ f pLq, alors f plq < 0 ou f pLq < 0 et donc
lf pLq´Lf plq
– si f plq < 0 alors M < f pLq´f plq < l et donc f pM q < 0.
lf pLq´Lf plq
– si f pLq < 0 alors M < f pLq´f plq < L et donc f pM q < 0.

Puisque l et L appartiennent à sa, br, on a M Psa, br. Par unicité du zéro de f sur sa, br on en déduit
2. Résolution de systèmes non linéaires

que M < À.
˛

On vient de démontrer le théorème suivant

Théorème 2.11

Soit f : ra, bs Ă R ÝÑ R une fonction continue vérifiant f paqf pbq ă 0 et admettant ³ Psa, br comme
unique solution de f pxq < 0. Alors la suite pxk qkPN définie par la méthode Regula-Falsi converge
vers ³
2.3. Résolution de systèmes non linéaires

On a aussi la proposition suivante

Proposition 2.12: ordre de la méthode de Regula-Falsi

Soit f : ra, bs Ă R ÝÑ R une fonction continue vérifiant f paqf pbq ă 0 et admettant ³ Psa, br comme
unique solution de f pxq < 0. Si f est deux fois dérivables sur ra, bs et si f 2 est monotone sur sa, br
alors il existe C P R tel que
|xk`1 ´ ³|
lim ďC (2.24)
kÑ`8 |xk ´ ³|

La méthode de Regula-Falsi est alors à convergence linéaire (d’ordre 1).

2.3 Résolution de systèmes non linéaires


Nous allons (très rapidement) introduire les premières notions permettant la résolution de systèmes
d’équations non linéaires. Par exemple, dans R2 nous allons regarder le problème suivant avec c une
constante réelle #
f1 px1 , x2 q < ´x31 ` x2 ´ 21 <0
1 2 (2.25)
f2 px1 , x2 q < 25 p10 x2 ` 1q ` c ´ x1 < 0.

Compiled on 2023/10/10 at [Link]


Résolution de systèmes non linéaires 47

En Figures 2.19 et 2.21, on représente pour différentes valeurs de c les courbes f1 px1 , x2 q < 0 et
f2 px1 , x2 q < 0 : les intersections de ces deux courbes sont les solutions du problème (2.25). Comme
on le voit graphiquemment, il peut y avoir, suivant les valeurs de c, 0, 1, 2 ou 4 solutions.

1.0 1.0

c = 0.00 c ∼ − 0 825 .

0.5 0.5
0

0
0.

0.
=

=
f 2(
2)

2)
x2

x2
x 1,

0.0 0.0
x

x
1,

1,
x 2)
1 (x

1 (x
f

f
=0

f (
2 x
.0

1, x
0.5 0.5 2) =0

2.3.0 Méthode Regula-Falsi ou fausse position


.0

1.0 1.0

1.5 1.0 0.5 0.0 0.5 1.0 1.5 1.0 0.5 0.0 0.5 1.0

x1 x1

Figure 2.19: Résolution graphique de 2.25 avec c < 0.00 (gauche) et c > ´0.825 (droite)

2. Résolution de systèmes non linéaires


1.0 1.0

c = − 1 00
. c = − 1 50.

0.5 0.5
0

0
0.

0.
=

=
2)

2)
x2

x2

0.0 0.0
x

x
1,

1,
1 (x

1 (x
f

f (
2 x
0.5 1, x 0.5
2) = 0.
0

2.3.Résolution de systèmes non linéaires


f2 (x
1 , x2 ) = 0.0
1.0 1.0

1.5 1.0 0.5 0.0 0.5 1.0 1.5 1.0 0.5 0.0 0.5 1.0

x1 x1

Figure 2.20: Résolution graphique de 2.25 avec c < ´1.00 (gauche) et c < ´1.50 (droite)

De manière plus générale, soient U Ă RN un ouvert et f une application continue de U dans RN . Le


problème que l’on souhaite résoudre est le suivant

Trouver ³ P U Ă RN tel que


$

’ f 1 p³
³1 , . . . , ³ N q < 0
f 2 p³
³1 , . . . , ³ N q < 0

&
f p³
³q < 0 ðñ ..


’ .
f N p³
³1 , . . . , ³ N q < 0
%

Comme dans le cas scalaire, pour résoudre numériquement ce genre de problème on utilise des suites
itératives et plus particulièrement celles basées sur les méthodes de points fixes. En effet, nous allons voir
que le théorème du point fixe se généralise très facilement (voir Théorème 2.13).

Compiled on 2023/10/10 at [Link]


48 Résolution de systèmes non linéaires

En définissant, par exemple, la fonction Φ P C 0 pU ; RN q par Φpx xq, on peut remarquer f px


xq < x `ff px xq < 0
est équivalent à px q < . On peut donc se ramener à la recherche d’un point fixe (s’il existe) de la
Φ x x
fonction Φ.

Trouver ³ P U Ă RN tel que


$
’ Φ 1 p³
’ ³1 , . . . , ³ N q < ³ 1
& Φ 2 p³
’ ³1 , . . . , ³ N q < ³ 2
Φ p³
³q < ³ ðñ ..


’ .
Φ N p³
³1 , . . . , ³ N q < ³ N
%

Les suites itératives sont donc de la forme

x rk`1s < Φ px
xrks q

où Φ est une fonction à déterminer et x r0s P RN . Bien évidemment le choix d’une bonne fonction Φ est
primordiale pour espérer avoir convergence.
Ce type de problème peut s’avérer délicat à traiter : comment choisir Φ ? x r0s ? Si l’on converge vers quel
point fixe?

2.3.1 Point fixe


2.3.1 Point fixe

Théorème 2.13

Soit B un espace de Banach et U Ă B un sous-ensemble fermé. On suppose que Φ : U ÝÑ U est


une application strictement contractante, i.e.
2. Résolution de systèmes non linéaires

DL Ps0, 1r, }Φ
Φpx
xq ´ Φ pyy q} ď L }x
x ´ y } , @px
x, y q P U ˆ U. (2.26)

Alors
2.3. Résolution de systèmes non linéaires

a. Φ admet un unique point fixe ³ P U (i.e. unique solution de x < Φ px


xq).

b. La suite des itérés x rk`1s < Φ px


x rks q converge vers ³ pour toute valeur initiale x r0s P U.

c. Pour tout k P N,
› › Lk´l ›› rl`1s ›
³ ´ x rks › ď x ´ x rls › , 0 ď l ď k (2.27)
› › ›
1´L
›³ ›x

Preuve. On démontre tout d’abord l’existence d’un point fixe. Pour celà on va démontrer que la suite
x rks est de Cauchy dans U fermé d’un espace de Banach (donc elle converge dans U ).
Comme Φ est contractante, on a pour tout k P N˚
› › › › › ›
› rk`1s
´ x rks › < ›Φ x rks q ´ Φ px
x rk´1s q› ď L ›x
› rks
x Φpx x ´ x rk´1s ›
› › › ›
›x

ce qui donne par récurrence pour tout 0 ď j ď k


› › › ›
›x rk`1s x rks › ›x rk`1´js x rk´js ›
›x ´ › ď Lj ›x ´ › (2.28)

ou encore pour tout 0 ď l ď k, (l < k ´ j)


› › › ›
› rk`1s
´ x rks › ď Lk´l ›x
› rl`1s
x x ´ x rls › (2.29)
› ›
›x

On obtient aussi par récurrence


› › › ›
›x rk`1`ls x rk`ls › ›x rk`1s x rks ›
@l ě 0, ›x ´ › ď Ll ›x ´ ›. (2.30)

Compiled on 2023/10/10 at [Link]


Résolution de systèmes non linéaires 49

Soit p ě 1. On en déduit par application répétée de l’inégalité triangulaire que


› › › ›
› rk`ps
´ x rks › < ›px
› › rk`ps
x x ´ x rk`p´1s q ` pxx rk`p´1s ´ x rk`p´2s q ` . . . ` px
x rk`1s ´ x rks q›

›x
› ›
›p´1 ›
› ÿ rk`l`1s rk`ls ›
< › px x ´x q›
› ›
l“0
p´1
ÿ› ›
› rk`l`1s
ď x ´ x rk`ls ›

›x
l“0
p´1 › 1 ´ Lp ›
(2.30) ÿ ›
› rk`1s

´ x rks › <
› rk`1s
ď Ll ›x
x x ´ x rks ›
› ›
1 ´ L
›x
l“0
1 ´ Lp k ›› r1s ›
ď L ›x x ´ x r0s › . (en utilisant (2.29), avec l < 0)

1´L

Comme Lk Ñ 0 quand k Ñ `8, on conclu que px x rks q est une suite de Cauchy. De plus, par construction
x rks P U Ă B, pour tout k P N, et B étant un espace de Banach et U un fermé, la suite px x rks q converge
alors vers ³ P U. Comme Φ est contractante, elle est donc continue et en passant à la limite dans
x rk`1s < Φpx
x rks q, on abouti à ³ < Φp³³q, i.e. ³ est un point fixe de Φ dans U.
L’unicité se déduit immédiatement par la contraction de la fonction Φ. En effet, soit ³1 et ³2 deux points

2.3.2 Méthode de Newton


fixes de Φ, alors

³1 ´ ³ 2 } < }Φ
Φp³
³1 q ´ Φ p³ ³2 q} ď L }³
³1 ´ ³ 2 }
Or L ă 1, et donc nécessairement on a ³ 1 < ³ 2 .
Il reste à démontrer l’inégalité (2.27). On a vu que pour p ě 1
› › 1 ´ Lp › ›
› rk`ps
´ x rks › ď
› rk`1s
x x ´ x rks ›
› ›
1´L
›x ›x

2. Résolution de systèmes non linéaires


L’application norme étant continue et L ă 1, on obtient à la limite quand p Ñ `8
› › 1 ›› rk`1s ›
³ ´ x rks › ď x ´ x rks ›
› › ›
1´L
›³ ›x

On obtient l’inégalité en utilisant (2.29).

2.3.Résolution de systèmes non linéaires


2.3.2 Méthode de Newton
On commence par rappeler un résultat de calcul différentiel. Soit f : RN ÝÑ RN une fonction suffisament
régulière. On défini la matrice Jacobienne de f , notée Jf , par
¨ Bf Bf1 Bf1
˛
1
Bx1 Bx2 . . . Bx N
˚ Bf2 Bf Bf ‹
˚ Bx1 Bx22 . . . BxN2 ‹
Jf < ˚ .
˚ .. .. ‹
˝ .. . . ‚

BfN BfN BfN
Bx1 Bx2 ... BxN

On a alors @h
h P RN à l’ordre 1
f px
x ` h q « f px
xq ` Jf px
xq.h
h. (2.31)
Nous voulons trouver ³ tel que f p³ ³q < 0. Si x xrks est proche de ³ , alors en utilisant (2.31) avec x < x rks
et ³ < x rks ` h (i.e. h < ³ ´ x rks ) on obtient

f p³ xrks q ` Jf px
³q « f px xrks q.h
h

Au lieu de résoudre f px
xq < 0, on résoud le système linéarisé

xrks q ` Jf px
f px xrks q.h̃ < 0

c’est à dire le système linéaire


xrks q.h̃ < ´ff px
Jf px xrks q. (2.32)

Compiled on 2023/10/10 at [Link]


50 Résolution de systèmes non linéaires

On espère alors que h̃ est une bonne approximation de h au sens ou xrks `h̃ est une meilleur approximation
de ³ que xrks . On note alors xrk`1s < xrks ` h̃
h̃. En posant Φpx xq < x ´ ppJf px xqq´1 f px
xq la méthode de
Newton s’écrit alors
´ ¯´1
x rk`1s < Φpx
xrks q < x rks ´ pJf px
xrks q xrks q
f px (2.33)

Cette formule est une généralisation de celle vue dans le cas scalaire (voir ??). Il faut noter qu’a chaque
˘´1
itération la matrice Jacobienne est modifiée et qu’il faut calculer le vecteur ´ pJf pxxrks q xrks q. Nu-
`
f px
meriquement, on ne calcule que très rarement l’inverse d’une matrice car celà est très couteux en temps
mais on résoud le système linéaire (2.32) ce qui est bien plus efficace.
On admet dans ce cours le théorème suivant

Théorème 2.14

Soit f P C 3 pRN ; RN q. On suppose que la matrice Jacobienne appliquée en x , Jf px xq est inversible


³q < 0. Alors pour tout x r0s suffisament proche de ³ la suite définie
dans un voisinage de ³ , avec f p³
par
´ ¯´1
x rk`1s < x rks ´ pJf px
xrks q xrks q
f px

converge vers ³ et la convergence est d’ordre 2.


2.3.3 Exemples

On donne ensuite l’algorithme 2.16 permettant de déterminer une approximation d’un point fixe d’une
fonction f . Dans cet algorithme on suppose donnée la fonction Solve permettant de résoudre un système
linéaire.
2. Résolution de systèmes non linéaires

Algorithme 2.16 Méthode de Newton


Données :
f : f : RN ÝÑ RN ,
2.3. Résolution de systèmes non linéaires

Jf : la matrice Jacobienne de f ,
x0 : donnée initiale, x0 P RN ,
tol : la tolérence, tol P R` ,
kmax : nombre maximum d’itérations, kmax P N˚
Résultat :
³ tol : un élément de RN proche de ³ .

1: Fonction ³tol Ð Newton ( f , Jf, x0, tol, kmax )


2: k Ð 0, ³tol Ð H
3: x Ð x0,
4: err Ð tol ` 1
5: Tantque err ą tol et k ď kmax faire
6: k Ðk`1
7: xp Ð x
8: h Ð SolvepJfpxpq, ´f pxpqq z x Ð SolvepA, bq : résoud le système linéaire Ax
x<b
9: x Ð xp ` h
10: err Ð Normpx ´ xpq
11: Fin Tantque
12: Si err ď tol alors z Convergence
13: ³tol Ð x
14: Fin Si
15: Fin Fonction

Remarque 1. Si l’on ne connait pas explicitement la Jacobienne de f, il est possible de calculer une
approximation de celle-ci en utilisant des formules de dérivation numérique.

Compiled on 2023/10/10 at [Link]


Résolution de systèmes non linéaires 51

2.3.3 Exemples
Exemple modèle
Comme premier exemple, nous reprenons le système 2.25 avec c < ´1.5
#
f1 px1 , x2 q < ´x31 ` x2 ´ 21 <0
1 2 3
(2.34)
f2 px1 , x2 q < 25 p10 x2 ` 1q ´ x1 ´ 2 < 0.

On représente en Figure 2.21 les itérées succéssives pour 4 suites avec une initialisation différentes. On
remarque qu’il est très difficile, si l’on n’est pas suffisament proche d’un point fixe, de prédire vers lequel
on converge.

x0 = (0.00; 1.45)
x0 −
= ( 0.31; −
0.98)
4 x0 −
= ( 0.74; 1.46)
x0 −
= ( 0.90; −
0.03)

2.3.3 Exemples
2
= − 1 50
x2

c .

2. Résolution de systèmes non linéaires


0

2.3.Résolution de systèmes non linéaires


1
3 2 1 0 1
x1

Figure 2.21: Représentation de 4 suites pour le système 2.34

En Figure 2.22a, on représente les bassins d’attraction pour les itérées de Newton associés au système
2.34 : à chaque point initial x0 < px, yq on associe le point fixe vers lequel la suite de Newton converge et
chaque point fixe correspond une couleur. En Figure 2.22b, on représente le nombre d’itérations assurant
la convergence des itérées de Newton : à chaque point initial x0 < px, yq on associe le nombre d’itérations
nécessaire à la convergence et une échelle de couleur permet de visualer ces nombres.

Exemple complexe : z 3 ´ 1 < 0


On souhaite trouver les racines complexes de z 3 ´ 1. Pour celà on peut poser z < x ` ıy, et le système
équivalent devient #
f1 px, yq < x3 ´ 3xy 2 ´ 1 < 0
(2.35)
f2 px, yq < 3x2 y ´ y 3 < 0.

Bien évidemment en restant dans le corps des complexes, l’algorithme de Newton est le même (encore
faut-il que le langage de programmation utilisé le supporte ).
On représente en Figure 2.23 les bassins d’attraction et le nombre d’itérations de convergence associé à
des données initiales dans r´1.5, 1.5s ˆ r´1.5, 1.5s. On obtient alors une fractale de Newton. Pour illustrer
ce caractère fractale des représentations, on donne en Figures 2.24 et 2.25 des zooms successifs sur les
graphes.

Compiled on 2023/10/10 at [Link]


52 Résolution de systèmes non linéaires

50

45

40
α2
α4
α3 35

30

25
α1
20

15

10

(a) Bassin d’attraction des racines (b) Nombre d’itérations de convergence


2.3.3 Exemples

Figure 2.22: Méthode de Newton, système (2.34)


2. Résolution de systèmes non linéaires
2.3. Résolution de systèmes non linéaires

45

3
2 2 40

35

30

3 3
2
25

20

15
1 1

1
10

(a) Bassin d’attraction des racines (b) Nombre d’itérations de convergence

Figure 2.23: Méthode de Newton, système (2.35)

Compiled on 2023/10/10 at [Link]


Résolution de systèmes non linéaires 53

3 3
2

3
2 2

1 1

2.3.3 Exemples
1

Figure 2.24: Méthode de Newton, système (2.35), zooms sur les bassins d’attraction

2. Résolution de systèmes non linéaires


2.3.Résolution de systèmes non linéaires
60
45

2 40
50

35

40
30

3
25
30

20

15 20
1

10
10

50

45

40

35

30

25

20

15

10

Figure 2.25: Méthode de Newton, système (2.35), zooms sur les nombres d’itérations

Compiled on 2023/10/10 at [Link]


54 Résolution de systèmes non linéaires

Exemple complexe : z 5 ´ 1 < 0


On représente en Figure 2.26 les bassins d’attraction et le nombre d’itérations de convergence associé à
des données initiales dans r´1.5, 1.5s ˆ r´1.5, 1.5s.

120
α5

α4 100

80
α2

60

α1
40
α3
20

(a) Bassin d’attraction des racines (b) Nombre d’itérations de convergence

Figure 2.26: Méthode de Newton pour z 5 ´ 1 < 0


2.3.3 Exemples

Exemple complexe : z 3 ´ 2z ` 2 < 0


On représente en Figure 2.27 les bassins d’attraction et le nombre d’itérations de convergence associé à
des données initiales dans r´2, 2s ˆ r´2, 2s.
2. Résolution de systèmes non linéaires

40

35
2.3. Résolution de systèmes non linéaires

30
α3
25
α1
20

α2
15

10

(a) Bassin d’attraction des racines. En rouge zône (b) Nombre d’itérations de convergence. En blanc
de divergence zône de divergence

Figure 2.27: Méthode de Newton pour z 3 ´ 2z ` 2 < 0

Compiled on 2023/10/10 at [Link]


Chapitre 3
Résolution de systèmes linéaires

Dans cette partie nous allons consisérer la résolution numérique d’un système linéaire Ax x < b dont la
matrice A est inversible.
On pourrait penser que pour résoudre le système linéaire Ax x < b , A inversible, le plus simple serait de
calculer la matrice A-1 , inverse de A, puis d’effectuer un produit matrice-vecteur pour obtenir x < A-1b .
Or pour calculer l’inverse d’une matrice d’ordre n on doit résoudre n systèmes linéaires d’ordre n! En
effet, déterminer l’inverse d’une matrice A revient à rechercher la matrice X solution de
¨ ˛¨ ˛ ¨ ˛
A1,1 A1,2 ... A1,n X1,1 X1,2 ... X1,n 1 0 ... 0
˚ .. 9 ˚ .. 9 ˚ .9
˚ A2,1 . . . ..
. . 9 ˚ ..
.
..
. . 9 ˚ .. ..
. . .. 9
AX < I ðñ ˚ 9 ˚ X2,1 9 < ˚0 9
˚ . .. .. 9˚ . .. .. 9 ˚. . 9
˝ .. . . An´1,n ‚˝ .. . . Xn´1,n ‚ ˝ .. . . . . . 0‚
An,1 . . . An,n´1 An,n Xn,1 . . . Xn,n´1 Xn,n 0 ... 0 1

Si on note X i,: le i-ème vecteur colonne de la matrice X et e i le i-ème de la base canonique de Rn alors
le système précédant s’écrit
¨ ˛
A1,1 A1,2 ... A1,n ¨ ˛ ¨ ˛
˚ .. 9
˚ A2,1 . . . ..
. 9
. 9˝
˚ X 1 . . . X n ‚ < ˝ e1 . . . en ‚
˚ . . . 9
˝ . . . . . . An´1,n ‚
An,1 . . . An,n´1 An,n

Ce dernier système est alors équivalent à résoudre les n systèmes linéaires

X j < e j , @j P v1, nw.


AX

. Pour résoudre un système linéaire, on ne calcule pas la matrice inverse associée.

Nous allons en section 3.1 étudier quelques méthodes directes pour la résolution d’un système linéaire
basées sur la recherche d’une matrice M inversible telle quel la matrice MA soit triangulaire supérieure.
Ceci conduit à la résolution du système linéaire équivalent

x < Mbb.
MAx
56 Résolution de systèmes linéaires

par la méthode de la remontée décrite en section 3.1.1).


En section 3.4, nous nous intéresserons aux méthodes itératives pour la résolution d’un système
linéaire qui peuvent s’écrire sous la forme

x rk`1s < Bx
xrks ` c , k ě 0, x r0s donné

où la matrice B et le vecteur c sont construits à partir de la matrice A et du vecteur b . On espère alors


avoir limkÑ`8 x rks < x .

3.1 Méthodes directes


Pour résoudre le système linéaire Ax
x < b, nous allons le transformer en un système linéaire triangulaire
supérieure équivalent
MAx x < Mbb
où M est une matrice inversible telle que MA soit triangulaire supérieure. Nous allons voir que ce nouveau
système est très facile à résoudre par la méthode de la remontée.
Nous étudierons la méthode de Gauss-Jordan que nous réécrions sous forme algébrique. Puis nous ferons
le lien avec les méthodes utilisant la factorisation LU et la factorisation de Cholesky. Nous finirons par
une méthode utilisant la factorisation QR d’une matrice, factorisation qui sera réutilisée pour le calcul de
valeurs propres et vecteurs propres en section ??.
Nous allons tout d’abord regarder quelques cas particuliers : la matrice du système est diagonale, trian-
gulaire inférieure ou triangulaire supérieure.
3.1.1 Matrices particulières

3.1.1 Matrices particulières


Matrices diagonales
Soit A une matrice de Mn pKq diagonale inversible et b P Kn . Dans ce cas les coefficients diagonaux de A
3. Résolution de systèmes linéaires

sont tous non nuls et l’on a


xi < bi {Ai,i , @i P v1, nw. (3.1)
On a immédiadement l’algorithme

Algorithme 3.1 Fonction RSLMatDiag permettant de résoudre le système linéaire à matrice diagonale
inversible
x < b.
Ax

Données : A : matrice diagonale de Mn pRq inversible.


3.1. Méthodes directes

b : vecteur de Rn .
Résultat : x : vecteur de Rn .

1: Fonction x Ð RSLMatDiag ( A, b )
2: Pour i Ð 1 à n faire
3: xpiq Ð bpiq{Api, iq
4: Fin Pour
5: Fin Fonction

Matrices triangulaires inférieures


Soit A une matrice de Mn pKq triangulaire inférieure inversible et b P Kn . On veut résoudre le système
linéaire
¨ ˛¨ ˛ ¨ ˛
A1,1 0 . . . 0 x1 b1
˚ .. . . . . .. 9 ˚ .. 9 ˚ .. 9
˚ . . . . 9 ˚ 9 ˚ 9
x < b ðñ ˚
Ax 9˚ . 9 < ˚ . 9
˚ . . 9˚ . 9 ˚ . 9
˝ .. .. 0 ‚˝ .. ‚ ˝ .. ‚
An,1 . . . . . . An,n xn bn

Compiled on 2023/10/10 at [Link]


Méthodes directes 57

Exercice 3.1.1

Soit A P Mn pKq une matrice triangulaire. Montrer que

A inversible ðñ Ai,i ‰ 0, @i P v1, nw.

On remarque que l’on peut calculer successivement x1 , x1 , . . . , xn , car il est possible de calculer xi si on
connait x1 , . . . , xi´1 : c’est la méthode de descente. En effet, on a

pAx
xqi < bi , @i P v1, nw.

et donc, par définition d’un produit matrice-vecteur,


n
ÿ
Ai,j xj < bi , @i P v1, nw.
j<1

Comme A est une matrice triangulaire inférieure, on a (voir Définition B.44) Ai,j < 0 si j ą i. Ceci donne
alors pour tout i P v1, nw

i´1
ÿ n
ÿ
bi < Ai,j xj ` Ai,i xi ` loAi,jon xj
omo
j<1 j<i`1

3.1.1 Matrices particulières


<0
i´1
ÿ
< Ai,j xj ` Ai,i xi
j<1

De plus la matrice A étant triangulaire inversible ses éléments diagonaux sont tous non nuls. On obtient

3. Résolution de systèmes linéaires


alors xi en fonction des x1 , . . . , xi´1 :
˜ ¸
i´1
ÿ
1
xi < bi ´ Ai,j xj , @i P v1, nw. (3.2)
Ai,i j<1

On écrit en détail les raffinements successifs permettant d’aboutir à l’Algorithme 3.2 final ne comportant
que des opérations élémentaires(.... à finaliser) de telle sorte que le passage entre deux raffinements
successifs soit le plus compréhensible possible.
Algorithme 3.2 R0 Algorithme 3.2 R1

3.1.Méthodes directes
Résoudre Axx < b en calculant 1: Pour i Ð 1 ˜à n faire ¸
i´1
ÿ
successivement x1 , x2 , . . . , xn . 1
1: 2: xi Ð bi ´ Ai,j xj
Ai,i j<1
3: Fin Pour

i´1
ÿ
Dans le raffinement R1 , la seule difficulté restante est le calcul de la somme Ai,j xj . En effet, l’opérateur
ř j<1
mathématique n’est pas défini dans notre langage algorithmique : il va donc falloir détailler un peu
plus l’algorithme. Pour isoler le calcul de cette somme, on la note S. La ligne 2 peut donc s’écrire

1
xi Ð pbi ´ Sq .
Ai,i

Mais où calculer la valeur S? 4 choix possible : avant la ligne 1, entre les lignes 1 et 2, entre les lignes 2
et 3 ou après la ligne 3.
On ne peut pas calculer S après utilisation de sa valeur dans le calcul de xi ! ce qui élimine les 2 derniers
choix. Ensuite, on ne peut sortir le calcul de S de la boucle puique la somme dépend de l’indice de boucle
i : ce qui élimine le premier choix. On doit donc calculer S dans la boucle et avant le calcul de xi .

Compiled on 2023/10/10 at [Link]


58 Résolution de systèmes linéaires

Algorithme 3.2 R1 Algorithme 3.2 R2

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


˜ ¸
i´1
ÿ
1 i´1
xi Ð bi ´ Ai,j xj ÿ
Ai,i j<1 2: SÐ Ai,j xj
2: j<1
3: Fin Pour 3: xi Ð pbi ´ Sq{Ai,i

4: Fin Pour
Maintenant que l’on a isolé la difficulté, il reste à détailler le calcul de S. Celui-ci se fait intégralement
en lieu et place de la ligne 2.
Algorithme 3.2 R2 Algorithme 3.2 R3

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


i´1
ÿ
SÐ Ai,j xj 2: SÐ0
2:
j<1 3: Pour j Ð 1 à i ´ 1 faire
3: xi Ð pbi ´ Sq{Ai,i 4: S Ð S ` Api, jq ˚ xpjq
4: Fin Pour 5: Fin Pour

6: xi Ð pbi ´ Sq{Ai,i
7: Fin Pour
3.1.1 Matrices particulières

Insister sur S Ð 0 à l’intérieur de la boucle en i? (erreur trop courante des débutants)


On obtient alors l’algorithme final

Algorithme 3.2 Fonction RSLTriInf permettant de résoudre le système linéaire triangulaire inférieur
inversible
3. Résolution de systèmes linéaires

x < b.
Ax

Données : A : matrice triangulaire de Mn pKq inférieure inversible.


b : vecteur de Kn .
Résultat : x : vecteur de Kn .

1: Fonction x Ð RSLTriInf ( A, b )
2: Pour i Ð 1 à n faire
3: SÐ0
4: Pour j Ð 1 à i ´ 1 faire
3.1. Méthodes directes

5: S Ð S ` Api, jq ˚ xpjq
6: Fin Pour
7: xpiq Ð pbpiq ´ Sq{Api, iq
8: Fin Pour
9: Fin Fonction

Matrices triangulaires supérieures


Soit A une matrice de Mn pRq triangulaire supérieure inversible et b P Rn . On veut résoudre le système
linéaire
¨ ˛¨ ˛ ¨ ˛
A1,1 . . . . . . A1,n x1 b1
˚ . .. .. 9 ˚ .. 9 ˚ ... 9
. 9 ˚ . 9 ˚
˚ 0 9
x < b ðñ ˚
Ax ˚ . ..
9˚ 9 < ˚ 9
9 ˚ . 9 ˚ .9
˝ .. .. ..
. . . ‚˝ .. ‚ ˝ .. ‚
0 . . . 0 An,n xn bn
On remarque que l’on peut calculer successivement xn , xn´1 , . . . , x1 , car il est possible de calculer xi si
on connait xi`1 , . . . , xn : c’est la méthode de remontée. En effet, on a

pAx
xqi < bi , @i P v1, nw.

Compiled on 2023/10/10 at [Link]


Méthodes directes 59

et donc, par définition d’un produit matrice-vecteur,

n
ÿ
Ai,j xj < bi , @i P v1, nw.
j<1

Comme A est une matrice triangulaire supérieure, on a (voir Définition B.44) Ai,j < 0 si j ă i. Ceci
donne alors pour tout i P v1, nw

i´1
ÿ n
ÿ
bi < loAi,jon xj ` Ai,i xi `
omo Ai,j xj
j<1 j<i`1
<0
n
ÿ
< Ai,i xi ` Ai,j xj
j<i`1

De plus la matrice A étant triangulaire inversible ses éléments diagonaux sont tous non nuls. On obtient
donc xi en fonction des xi`1 , . . . , xn :

˜ ¸
n
ÿ
1

3.1.1 Matrices particulières


xi < bi ´ Ai,j xj , @i P v1, nw. (3.3)
Ai,i j<i`1

Algorithme 3.3 R0 Algorithme 3.3 R1

3. Résolution de systèmes linéaires


Résoudre Axx < b en calculant 1: Pour i Ð n à 1 faire(pas de ´1)
successivement xn , xn´1 , . . . , x1 . calculer xi connaissant xi`1 , . . . , xn
1: 2:
à l’aide de l’équation (3.3)
3: Fin Pour

Algorithme 3.3 R1 Algorithme 3.3 R2

1: Pour i Ð n à 1 faire(pas de ´1) 1: Pour i Ð n à 1 faire(pas de ´1)

3.1.Méthodes directes
Calculer xi connaissant xi`1 , . . . , xn n
ÿ
à l’aide de l’équation (3.3) 2: SÐ Ai,j xj
2:
j<i`1
3: Fin Pour
3: xi Ð pbi ´ Sq{Ai,i

4: Fin Pour

Algorithme 3.3 R2 Algorithme 3.3 R3

1: Pour i Ð n à 1 faire(pas de ´1) 1: Pour i Ð n à 1 faire(pas de ´1)


n
ÿ
SÐ Ai,j xj 2: SÐ0
j<i`1 3: Pour j Ð i ` 1 à n faire
2:
4: S Ð S ` Api, jq ˚ xpjq
3: xi Ð pbi ´ Sq{Ai,i
5: Fin Pour
4: Fin Pour
6: xi Ð pbi ´ Sq{Ai,i
7: Fin Pour

On obtient alors l’algorithme final

Compiled on 2023/10/10 at [Link]


60 Résolution de systèmes linéaires

Algorithme 3.3 Fonction RSLTriSup permettant de résoudre le système linéaire triangulaire supérieur
inversible
x < b.
Ax

Données : A : matrice triangulaire de Mn pRq supérieure inversible.


b : vecteur de Rn .
Résultat : x : vecteur de Rn .

1: Fonction x Ð RSLTriSup ( A, b )
2: Pour i Ð n à 1 faire(pas de ´1)
3: SÐ0
4: Pour j Ð i ` 1 à n faire
5: S Ð S ` Api, jq ˚ xpjq
6: Fin Pour
7: xpiq Ð pbpiq ´ Sq{Api, iq
8: Fin Pour
9: Fin Fonction

3.1.2 Exercices et résultats préliminaires


3.1.2 Exercices et résultats préliminaires

Exercice 3.1.2: correction page ??

Soit A P Mn,n pCq une matrice et p¼, u q un élément propre de A avec }u


u}2 < 1.

Q. 1 a. En s’aidant de la base canonique tee1 , . . . , e n u , construire une base orthonormée tx


x1 , . . . , x n u
telle que x 1 < u .
b. Ecrire la fonction algorithmique BaseOrtho permettant de construire la base orthonormée
3. Résolution de systèmes linéaires

tx
x1 , . . . , x n u à partir d’un vecteur u donné. Les vecteurs x k seront stockés dans une matrice
de Mn,n pCq, le vecteur x k étant en colonne k de la matrice. On pourra pour celà utiliser
les fonctions prédéfinies s Ð dotpu u, v q qui retourne le produit scalaire de deux vecteurs, s Ð
abspxq qui retourne le module d’un nombre complexe, ...
˝

Notons par P la matrice de Mn,n pCq définie par


¨ ˛

P < ˝ x1 . . . xn ‚

et par B la matrice définie par B < P˚ AP.


3.1. Méthodes directes

Q. 2 a. Calculer la matrice P˚ P. Que peut-on en conclure?


b. Exprimer les coefficients de la matrice B en fonction de la matrice A et des vecteurs x i ,
i P v1, nw.
B < P˚ AP.

c. En déduire que la première colonne de B est p¼, 0, . . . , 0qt .


˝

Q. 3 Montrer par récurrence sur l’ordre de la matrice que la matrice A s’écrit

A < UTU˚

où U est une matrice unitaire et T une matrice triangulaire supérieure. ˝

Compiled on 2023/10/10 at [Link]


Méthodes directes 61

Q. 4 On dispose des fonctions x Ð ResTriSuppU, bq et x Ð ResTriInfpL, bq permettant de ré-


x < b et le système triangulaire inférieur
soudre respectivement le système triangulaire supérieur Ux
Lx < . En supposant A inversible et la décomposition A < UTU˚ connue, expliquez comment
x b
résoudre "simplement" le système linéaire Axx < b. ˝

On tire de cet exercice le théorème suivant

Théorème 3.1: Décomposition de Schur

Soit A P Mn pCq. Il existe une matrice unitaire U et une matrice triangulaire supérieure T telles que

A < UTU˚ (3.4)

Preuve. voir Exercice 3.1.2

Théorème 3.2: Réduction de matrices

a. Soit A P Mn pCq. Il existe une matrice unitaire U telle que U-1 AU soit triangulaire.
b. Soit A P Mn pCq une matrice normale. Il existe une matrice unitaire U telle que U-1 AU soit

3.1.2 Exercices et résultats préliminaires


diagonale.
c. Soit A P Mn pRq une matrice symétrique. Il existe une matrice orthogonale P telle que
P-1 AP soit diagonale.

Preuve. voir [1] Théorème 1.2-1 page 9

3. Résolution de systèmes linéaires


Exercice 3.1.3: Matrice d’élimination

Soit v P Cn avec v1 ‰ 0. On note Ervv s P Mn pCq la matrice triangulaire inférieure à diagonale unité
définie par ¨ ˛
1 0 ... ... 0
˚ ´v2 {v1 1 0 . . . 0 9
˚ 9
˚ .. .. .. .. 9
rv
vs ˚ . . . 9
E <˚ . 0 9 (3.5)
˚ 9
˚ .. .. . . . . 9
˝ . . . . 0 ‚
´vn {v1 0 . . . 0 1

Q. 1 a. Calculer le déterminant de Ervv s .

3.1.Méthodes directes
b. Déterminer l’inverse de Ervv s .
˝

Soit A P Mn pCq avec A1,1 ‰ 0. On note A :,j le j-ème vecteur colonne de A et A i,: son i-ème vecteur
ligne. On pose A 1 < A :,1 .

Q. 2 a. Calculer à < ErA


A1 s
A en fonction des vecteurs lignes de A.
t
b. Montrer que la première colonne de à est le vecteur pA1,1 , 0, . . . , 0q i.e.

ErA
A1 s
Aee1 < A1,1e 1 (3.6)

où e 1 est le premier vecteur de la base canonique de Cn .


˝

Compiled on 2023/10/10 at [Link]


62 Résolution de systèmes linéaires

Soit m P N˚ . On note Erm,vv s P Mm`n pCq la matrice triangulaire inférieure à diagonale unité définie
par ˆ ˙
Im O
Erm,vv s < (3.7)
O Ervv s

Q. 3 a. Calculer le déterminant de Erm,vv s .


b. Déterminer l’inverse de Erm,vv s en fonction de l’inverse de Ervv s .
˝

Soit C la matrice bloc définie par ˆ ˙


C1,1 C1,2
C<
O A
où C1,1 P Mm pCq et C1,2 P Mm,n pCq.

Q. 4 Déterminer la matrice produit Erm,A


A1 s
C en fonction des matrices C1,1 , C1,2 et Ã. ˝

Correction 3.1.3

R. 1 a. La matrice Ervv s est triangulaire : son déterminant est donc le produit de ses éléments diago-
naux (Proposition B.53 page 211) On a alors detpErvv s q < 1.
3.1.2 Exercices et résultats préliminaires

b. Pour calculer son inverse qui existe puisque detpErvv s q ‰ 0, on écrit Ervv s sous forme bloc :
¨ ˛
1 0 ... 0
˚ 9
Ervv s < ˚
˝ e
9

In´1
3. Résolution de systèmes linéaires

t
avec e < p´v2 {v1 , . . . , ´vn {v1 q P Cn´1 On note X P Mn pCq son inverse qui s’écrit avec la même
structure bloc ¨ ˛
a b˚
˚ 9
X<˚ ˝ c
9

D

avec a P C, b P Cn´1 , c P Cn´1 et D P Mn´1 pCq.


La matrice X est donc solution de Ervv s X < I. Grace à l’écriture bloc des matrices on en déduit
rapidement la matrice X. En effet, en utilisant les produits blocs des matrices, on obtient
¨ ˛¨ ˛ ¨ ˛
1 0 tn´1 a b˚ 1ˆa 1 ˆ b ˚ ` 0 tn´1 ˆ D
˚ 9˚ 9 ˚ 9
3.1. Méthodes directes

Ervv s X < ˚
˝

‚˝ c
9<˚
‚ ˝ eˆa`I ˚
9

e In´1 D n´1 ˆ c e ˆ b ` In´1 ˆ D

¨ ˛
a b˚
˚ 9

˝ ˚
9

aee ` c eb ` D

Comme X est l’inverse de Ervv s , on a Ervv s X < I et donc en écriture bloc


¨ ˛ ¨ ˛
a b˚ 1 0 tn´1
˚ 9 ˚ 9
˚ 9<˚ 9.
˝ aee ` c ˚
eb ` D ‚ ˝ 0 n´1 In´1 ‚

Ceci revient à résoudre les 4 équations

a < 1, b ˚ < 0 tn´1 , aee ` c < 0 n´1 et eb ˚ ` D < In´1

Compiled on 2023/10/10 at [Link]


Méthodes directes 63

qui donnent immédiatement a < 1, b < 0n´1 , c < ´ee et D < In´1 . On obtient le résultat suivant
¨ ˛¨ ˛
1 0 ... 0 1 0 ... 0
˚ 9˚ 9
˚ 9˚ 9 < In .
˝ ´ee In´1 ‚ ˝ e In´1 ‚

. Il aurait été plus rapide d’utiliser la Proposition B.54, page 211.

R. 2 a. Pour simplifier les notations, on note E < ErA A1 s


. Par définition du produit de deux matrices
on a
ÿn
Ãi,j < Ei,k Ak,j , @pi, jq P v1, nw2 .
k<1

Quand i < 1, on a par construction E1,k < ¶1,k et donc

Ã1,j < A1,j , @j P v1, nw ðñ Ã1,: < A1,: . (3.8)

3.1.2 Exercices et résultats préliminaires


Pour i ě 2, on a Ei,1 < ´ vv1i et Ei,k < ¶i,k , @k P v2, nw. On obtient alors pour tout j P v1, nw
n
ÿ ÿn
vi vi
Ãi,j < Ei,1 A1,j ` Ei,k Ak,j < ´ A1,j ` ¶i,k Ak,j < ´ A1,j ` Ai,j
k<2
v1 k<2
v 1

ce qui donne pour tout i P v2, nw


vi vi
Ãi,j < Ai,j ´ A1,j , @j P v1, nw ðñ Ã i,: < ´ A 1,: ` A i,: (3.9)

3. Résolution de systèmes linéaires


v1 v1

En conclusion, la matrice à s’écrit


¨ ˛
A 1,:
˚ A 2,: ´ pv2 {v1 qA
A1,: 9
˚ 9
à < ˚
˚ ..
9
9
˝ . ‚
A n,: ´ pvn {v1 qA
A1,:

b. De (3.8), on tire Ã1,1 < A1,1 . A partir de (3.9) on obtient pour tout i P v2, nw, Ãi,1 < Ai,1 ´ vv1i A1,1 .
Par construction vj < Aj,1 pour tout j P v1, nw, ce qui donne Ãi,1 < 0.
t
La première colonne de à est p1, 0, . . . , 0q .

R. 3 a. La matrice Erm,vv s est triangulaire inférieure. Son déterminant est donc le produit de ses 3.1.Méthodes directes
éléments diagonaux. Comme cette matrice est à diagonale unité (i.e. tous ses éléments diagonaux
valent 1 ), on obtient det Erm,vv s < 1.
Une autre manière de le démontrer. On peut voir que la matrice Erm,vv s est bloc-diagonale. D’après
la Proposition B.54, page 211, son déterminant est le produit des déterminant des blocs diagonaux
: det Erm,vv s < det Im ˆ det Ervv s < 1.
b. On note X l’inverse de la matrice Erm,vv s . Cette matrice s’écrit avec la même structure bloc
ˆ ˙
X1,1 X1,2
X< avec X1,1 P Mm pCq et X2,2 P Mn pCq
X2,1 X2,2

On a donc XErm,vv s < Im`n c’est à dire en écriture bloc


ˆ ˙ˆ ˙ ˆ ˙
X1,1 X1,2 Im O Im O
rv
vs < <
X2,1 X2,2 O E O In

Compiled on 2023/10/10 at [Link]


64 Résolution de systèmes linéaires

On doit donc résoudre les 4 équations suivantes :


X1,1 Im < Im , X1,2 In < O, X2,1 Im < O et X2,2 Ervv s < In .
Comme la matrice Ervv s est inversible, on obtient
˜ ¸
Im O
X< ` rvv s ˘-1
O E

. Plus rapidement, comme la matrice Erm,vv s est bloc-diagonale, on en déduit ( Proposition B.54,
page 211) directement le résultat.

R. 4 Le produit Erm,vv s C peut s’effectuer par bloc car les blocs sont de dimensions compatibles et on a
ˆ ˙ˆ ˙ ˆ ˙
rm,v
vs Im Om,n C1,1 C1,2 Im C1,1 ` Om,n On,m Im C1,2 ` Om,n A
E C< <
On,m E On,m A On,m C1,1 ` EOn,m On,m C1,2 ` EA
ˆ ˙ ˜ ¸
C1,1 C1,2 C1,1 C1,2
< <
On,m EA On,m Ã
3.1.2 Exercices et résultats préliminaires

On tire de cet exercice le lemme suivant

Lemme 3.3

Soit A P Mn pCq avec A1,1 ‰ 0. Il existe une matrice E P Mn pCq triangulaire inférieure à diagonale
unité telle que
3. Résolution de systèmes linéaires

EAee1 < A1,1e 1 (3.10)


où e1 est le premier vecteur de la base canonique de Cn .

Exercice 3.1.4: Matrice de permutation

ri,js
Soit pi, jq P v1, nw2 , i ‰ j, on note Pn P Mn pRq la matrice identitée dont on a permuté les lignes
i et j.

Q. 1 Représenter cette matrice et la définir proprement. ˝


3.1. Méthodes directes

Soit A P Mn [Link] note Ar,: le r-ème vecteur ligne de A et A:,s le s-ème vecteur colonne de A.
ri,js
Q. 2 a. Déterminer les lignes de la matrice D < Pn A en fonction des vecteurs lignes de A.
ri,js
b. Déterminer les colonnes de la matrice E < APn en fonction des vecteurs colonnes de A.
˝
ri,js
Q. 3 a. Calculer le déterminant de Pn .
ri,js
b. Déterminer l’inverse de Pn .
˝

Correction 3.1.4
ri,js
R. 1 On note, dans toute la correction, P < Pn .
On peut définir cette matrice par ligne,
$
& @r P v1, nwzti, ju, Pr,s < ¶r,s , @s P v1, nw,
Pi,s < ¶j,s , @s P v1, nw,
%
Pj,s < ¶i,s , @s P v1, nw.

Compiled on 2023/10/10 at [Link]


Méthodes directes 65

ou par colonne $
& @s P v1, nwzti, ju, Pr,s < ¶r,s , @r P v1, nw,
Pr,i < ¶r,j , @r P v1, nw,
%
Pr,j < ¶r,i , @r P v1, nw.

ri,js
. Ne pas utiliser les indices i et j qui sont déjà fixés dans la définition de la matrice P < Pn .

On peut noter que la matrice P est symétrique. Pour la représentation, on suppose i ă j. On effectue
une représentation bloc 5 ˆ 5 avec des blocs diagonaux carrés sachant que tous les blocs non décrits sont
nuls:
i´1 j´i´1 n´j
¨ i j ˛
˚ I 9 i´1
˚ 9
˚ 9
˚ 9
˚ 0 1 9i
˚ 9
˚ 9
˚ 9
P<˚
˚ I 9 j´i´1
9
˚ 9
˚ 9
˚ 1 0 9j

3.1.2 Exercices et résultats préliminaires


˚ 9
˚ 9
˚ 9
˝ I ‚ n´j

R. 2 a. On note D < PA. Par définition du produit matriciel on a

3. Résolution de systèmes linéaires


n
ÿ
Dr,s < Pr,k Ak,s .
k<1

On obtient, @s P v1, nw,


$ n
’ ÿ

’ Dr,s < ¶r,k Ak,s < Ar,s , @r P v1, nwzti, ju,



’ k<1

& ÿn
Di,s < ¶j,k Ak,s < Aj,s ,



’ k<1
n

’ ÿ

’ Dj,s < ¶i,k Ak,s < Ai,s .
%

3.1.Méthodes directes
k<1

ce qui donne $
& D r,: < A r,: , @r P v1, nwzti, ju,
D i,: < A j,: ,
%
D j,: < A i,: .

. La notation D i,: correspond au vecteur ligne pDi,1 , . . . , Di,n q et D :,j correspond au vecteur
¨ ˛
D1,j
˚ 9
colonne ˝ ... ‚
Dn,j

b. On note E < AP. Par définition du produit matriciel et par symétrie de P on a


n
ÿ n
ÿ
Er,s < Ar,k Pk,s < Ar,k Ps,k .
k<1 k<1

Compiled on 2023/10/10 at [Link]


66 Résolution de systèmes linéaires

. Ne pas utiliser les indices i et j qui sont déjà fixés dans la définition de la matrice P <
ri,js
Pn .

On obtient en raisonnant par colonne, @r P v1, nw,


$ n
’ ÿ

’ E < Ar,k ¶s,k < Ar,s , @s P v1, nwzti, ju,

’ r,s

’ k<1

& ÿn
Er,i < Ar,k ¶j,k < Ar,j ,



’ k<1
n

’ ÿ

’ E < Ar,k ¶i,k < Ar,i .
% r,j
k<1

ce qui donne $
& E :,s < A :,s , @s P v1, nwzti, ju,
E :,i < A :,j ,
%
E :,j < A :,i .
3.1.3 Méthode de Gauss-Jordan, écriture matricielle

R. 3 a. detpPq < ´1, si i ‰ j et detpPq < 1 sinon.

b. Immédiat par calcul direct on a PP < I et donc la matrice P est inversible et P-1 < P.

˛
On tire de cet exercice le lemme suivant

Lemme 3.4

ri,js
3. Résolution de systèmes linéaires

Soit pi, jq P v1, nw2 . On note Pn P Mn pRq la matrice identitée dont on a permuté les lignes i et j.
ri,js
Alors la matrice Pn est symétrique et orthogonale. Pour toute matrice A P Mn pKq,
ri,js
a. la matrice Pn A est la matrice A dont on a permuté les lignes i et j,
ri,js
b. la matrice APn est la matrice A dont on a permuté les colonnes i et j,

3.1.3 Méthode de Gauss-Jordan, écriture matricielle


Soient A P MK p) une matrice inversible et b P Kn .
On va tout d’abord rappeller (très) brièvement l’algorithme d’élimination ou algorithme de Gauss-
Jordan permettant de transformer le système linéaire Ax x < b en un système linéaire équivalent dont la
matrice est triangulaire supérieure. Ce dernier système se résoud par la méthode de remontée.
Ensuite, on va réécrire cet algorithme sous forme algébrique pour obtenir le théorème ...
3.1. Méthodes directes

. Cette méthode doit son nom aux mathématiciens Carl Friedrich Gauss (1777-1855, mathémati-
cien, astronome et physicien allemand) et Wilhelm Jordan (1842-1899, mathématicien et géodésien
allemand) mais elle est connue des Chinois depuis au moins le Ier siècle de notre ère. Elle est
référencée dans l’important livre chinois Jiuzhang suanshu ou Les Neuf Chapitres sur l’art mathé-
matique, dont elle constitue le huitième chapitre, sous le titre « Fang cheng » (la disposition rect-
angulaire). La méthode est présentée au moyen de dix-huit exercices. Dans son commentaire daté
de 263, Liu Hui en attribue la paternité à Chang Ts’ang, chancelier de l’empereur de Chine au IIe
siècle avant notre ère.

Algorithme de Gauss-Jordan usuel


Pour la résolution du système linéaire Ax x < b l’algorithme de Gauss-Jordan produit la forme échelon-
née (réduite) d’une matrice à l’aide d’opérations élémentaires sur les lignes du système. Trois types
d’opérations élémentaires sont utilisées:

Compiled on 2023/10/10 at [Link]


Méthodes directes 67

‚ Permutation de deux lignes ;

‚ Multiplication d’une ligne par un scalaire non nul ;

‚ Ajout du multiple d’une ligne à une autre ligne.

A l’aide de ces opérations élémentaires cet algorithme permet donc de transformer le système linéaire
Axx < b en le système équivalent Ux x < f où U est triangulaire supérieure. En fait, l’algorithme va
transformer la matrice A et le second membre b pour aboutir à un système dont la matrice est triangulaire
supérieure.

Algorithme 3.4 Algorithme de Gauss-Jordan formel pour la résolution de Ax


x<b

1: Pour j Ð 1 à n ´ 1 faire
2: Rechercher l’indice k de la ligne du pivot (sur la colonne j, k P vj, nw)
3: Permuter les lignes j (Lj ) et k (Lk ) du système si besoin.
4: Pour i Ð j ` 1 à n faire
Ai,j
5: Eliminer en effectuant Li Ð Li ´ Aj,j Lj

3.1.3 Méthode de Gauss-Jordan, écriture matricielle


6: Fin Pour
7: Fin Pour
8: Résoudre le système triangulaire supérieur par la méthode de la remontée.

On va maintenant voir comment écrire cet algorithme de manière plus détaillée. Pour conserver sa
lisibilité, on choisi pour chaque ligne un peu délicate de créer et d’utiliser une fonction dédiée à cette
tâche.

3. Résolution de systèmes linéaires


Algorithme 3.5 Algorithme de Gauss-Jordan avec fonctions pour la résolution de Ax
x<b
Données : A : matrice de Mn pKq inversible.
b : vecteur de Kn .
Résultat : x : vecteur de Kn .

1: Fonction x Ð RSLGauss ( A, b )
2: Pour j Ð 1 à n ´ 1 faire
3: k Ð ChercheIndPivot pA, jq z ChercheIndPivot à écrire
4: rA, b s Ð PermLignesSys pA, b , j, kq z PermLignesSys à écrire
5: Pour i Ð j ` 1 à n faire
6: rA, b s Ð CombLignesSys pA, b , j, i, ´Api, jq{Apj, jqq z CombLignesSys à écrire
7: Fin Pour
8: Fin Pour
9: x Ð RSLTriSuppA, b q z RSLTriSup déjà écrite
3.1.Méthodes directes
10: Fin Fonction

Bien évidemment, il reste à décrire et écrire les différentes fonctions utilisées dans cette fonction :

Fonction k Ð ChercheIndPivotpA, jq : recherche k P vj, nw tel que @l P vj, nw, |Al,j | ď |Ak,j |.

Fonction rA, b s Ð PermLignesSyspA, b , i, kq : permute les lignes i et k de la matrice A ainsi que celles
du vecteur b .

Fonction rA, b s Ð CombLignesSyspA, b , j, i, ³q : remplace la ligne i de la matrice A par la combinaison


linéaire Li Ð Li ` ³Lj . De même on remplace la ligne i de b par bi ` ³bj .

Ces trois fonctions sont simples à écrire et sont données en Algorithmes 3.6, 3.7 et 3.8.

Compiled on 2023/10/10 at [Link]


68 Résolution de systèmes linéaires

Algorithme 3.6 Recherche d’un pivot pour


Algorithme 3.7 Permutte deux lignes d’une ma-
l’algorithme de Gauss-Jordan.
trice et d’un vecteur.
Données : A : matrice de Mn pKq.
Données : A : matrice de Mn pKq.
j : entier, 1 ď j ď n.
b : vecteur de Kn .
Résultat : k : entier, indice ligne pivot j, k : entiers, 1 ď j, k ď n.
Résultat : A et b modifiés.
1: Fonction k Ð ChercheIndPivot ( A, j )
2: k Ð j, pivot Ð |Apj, jq|
1: Fonction rA, b s Ð PermLignesSys ( A, b , j, k )
3: Pour i Ð j ` 1 à n faire
2: Pour l Ð 1 à n faire
4: Si |Api, jq| ą pivot alors
3: t Ð Apj, lq, Apj, lq Ð Apk, lq, Apk, lq Ð t
5: k Ð i, pivot Ð |Api, jq|
4: Fin Pour
6: Fin Si
5: t Ð b pjq, b pjq Ð b pkq, b pkq Ð t
7: Fin Pour
6: Fin Fonction
8: Fin Fonction

Algorithme 3.8 Combinaison linéaire Li Ð Li `


³Lj appliqué à une matrice et à un vecteur.
Données : A : matrice de Mn pKq.
b : vecteur de Kn .
3.1.3 Méthode de Gauss-Jordan, écriture matricielle

j, i : entiers, 1 ď j, i ď n.
alpha : scalaire de K
Résultat : A et b modifiés.

1: Fonction rA, b s Ð CombLignesSys ( A, b , j, i, ³


)
2: Pour k Ð 1 à n faire
3: Api, kq Ð Api, kq ` ³ ˚ Apj, kq
4: Fin Pour
5: b piq Ð b piq ` ³bbpjq
6: Fin Fonction
3. Résolution de systèmes linéaires

Ecriture algébrique
Sous forme d’exercice :

Exercice 3.1.5

Soit A P Mn pCq inversible.


Q. 1 Montrer qu’il existe une matrice G P Mn pCq telle que | detpGq| < 1 et GAee1 < ³ee1 avec ³ ‰ 0
et e 1 premier vecteur de la base canonique de C n . ˝

Q. 2 a. Montrer par récurrence sur l’ordre des matrices que pour toute matrice An P Mn pCq
inversible, il existe une matrice Sn P Mn pCq telle que | det Sn | < 1 et Sn An < Un avec Un
matrice triangulaire supérieure inversible.
3.1. Méthodes directes

b. Soit b P Cn . En supposant connue la décompostion précédente Sn An < Un , expliquer comment


résoudre le système Anx < b .
˝

Q. 3 Que peut-on dire si A est non inversible? ˝

Indication : utiliser les résultats des exercices 3.1.3 et 3.1.4.

Correction 3.1.5
R. 1 D’après le Lemme 3.3, si A1,1 ‰ 0 le résultat est immédiat. Dans l’énoncé rien ne vient corroborer
cette hypothèse. Toutefois, comme la matrice A est inversible, il existe au moins un p P v1, nw tel que
Ap,1 ‰ 0. On peut même choisir le premier indice p tel que |Ap,1 | < maxiPv1,nw |Ai,1 | ą 0 (pivot de
r1,ps
l’algorithme de Gauss-Jordan). On note P < Pn la matrice de permutation des lignes 1 et p (voir
exercice 3.1.4, page 64). De plus on a
| det P| < 1 et P-1 < P.

Compiled on 2023/10/10 at [Link]


Méthodes directes 69

Par construction pPAq1,1 < Ap,1 ‰ 0, et on peut alors appliquer le Lemme 3.3 à la matrice pPAq pour
obtenir l’existence d’une matrice E P Mn pCq vérifiant det E < 1 et telle que
EpPAqee1 < Ap,1e 1 .
En posant G < EP et ³ < Ap,1 , on obtient bien GAee1 < ³ee1 . De plus, on a
| det G| < | detpEPq| < | det E ˆ det P| < 1.
Remarque 2. La matrice G étant inversible, on a
x < b ðñ GAx
Ax x < Gbb
ce qui correspond à la première permutation/élimination de l’algorithme de Gauss-Jordan.

R. 2 a. On veut démontrer par récurrence la propriété pPn q,


"
@An P Mn pCq, inversible DSn P Mn pCq, | det Sn | < 1, tel que
pPn q
la matrice Un < Sn A soit une triangulaire supérieure inversible
Initialisation : Pour n < 2. Soit A2 P M2 pCq inversible. En utilisant la question précédente il
existe G2 P M2 pCq telle que | det G2 | < 1 et G2 A2e 1 < ³ee1 avec ³ ‰ 0 et e 1 premier vecteur de

3.1.3 Méthode de Gauss-Jordan, écriture matricielle


la base canonique de C2 . On note U2 < G2 A2 . Cette matrice s’écrit donc sous la forme
ˆ ˙
³ ‚
U2 <
0 ‚
et elle est triangulaire supérieure. Les matrices G2 et A2 étant inversible, leur produit U2 l’est
aussi. La proposition pP2 q est donc vérifiée avec S2 < G2 .
Hérédité : Soit n ě 3. On suppose que pPn´1 q est vraie. Montrons que pPn q est vérifiée.
Soit An P Mn pCq inversible. En utilisant la question précédente il existe Gn P Mn pCq telle
que | det Gn | < 1 et Gn Ane 1 < ³ne 1 avec ³n ‰ 0 et e 1 premier vecteur de la base canonique

3. Résolution de systèmes linéaires


de Cn . On note Vn < Gn An . Cette matrice s’écrit donc sous la forme
¨ ˛ ¨ ˛
³n ‚ . . . ‚ ³n c ˚n´1
˚ 0 ‚ ... ‚ 9 ˚ 0 9
˚ 9 def ˚ 9
Vn < ˚ . . . 9<˚ . 9
˝ .. .. .. ‚ ˝ .. Bn´1 ‚
0 ‚ ... ‚ 0
où c n´1 P Cn´1 et Bn´1 P Mn´1 pCq. Comme Gn et An sont inversibles, Vn l’est aussi. On en
déduit donc que Bn´1 est inversible car 0 ‰ det Vn < ³n ˆ det Bn´1 et ³n ‰ 0.
On peut donc utiliser la propriété pPn´1 q (hyp. de récurrence) sur la matrice Bn´1 : il existe
donc Sn´1 P Mn´1 pCq, avec | det Sn´1 | < 1, tel que la matrice Un´1 < Sn´1 Bn´1 soit une
triangulaire supérieure inversible.
Soit Qn P Mn pCq la matrice définie par
¨ ˛
1 0 ... 0
˚ 0
˚
9
9 3.1.Méthodes directes
Qn < ˚ . 9
˝ .. Sn´1 ‚
0
On a alors
¨ ˛¨ ˛
1 0 ... 0 ³n c ˚n´1
˚ 0 9˚ 0 9
˚ 9˚ 9
Qn Gn An < Qn Vn < ˚ .. 9˚ .. 9
˝ . Sn´1 ‚˝ . Bn´1 ‚
0 0
¨ ˛ ¨ ˛
³n c ˚n´1 ³n c ˚n´1
˚ 0 9 ˚ 0 9
˚ 9 ˚ 9 def
<˚ .. 9<˚ . 9 < Un
˝ . Sn´1 Bn´1 ‚ ˝ .. Un´1 ‚
0 0

Compiled on 2023/10/10 at [Link]


70 Résolution de systèmes linéaires

La matrice Un est triangulaire supérieure inversible car Un´1 l’est aussi et ³n ‰ 0.


On pose Sn < Qn Gn . On a donc
S n An < U n .
De plus, comme on a det Sn < det Qn ˆ det Gn , et det Qn < det Sn´1 , on obtient, en utilisant
| det Gn | < 1 et l’hypothèse de récurrence | det Sn´1 | < 1, que
| det Sn | < 1.
Ceci prouve la véracité de la proposition pPn q.
b. Comme Sn est inversible, on a en multipliant à gauche le système par Sn
Anx < b ðñ Sn Anx < Snb ðñ Unx < Snb
Pour déterminer le vecteur x , on peut alors résoudre le dernier système par l’algorithme de remontée.

R. 3 Si A est non inversible, alors dans la première question nous ne sommes pas assurés d’avoir ³ ‰ 0.
Cependant l’existence de la matrice G reste avérée.
Pour la deuxième question, le seul changement vient du fait que la matrice Un n’est plus inversible.
˛
On a donc démontré le théorème suivant

Théorème 3.5

Soit A une matrice carrée, inversible ou non. Il existe (au moins) une matrice inversible G telle que
GA soit triangulaire supérieure.
3.1.4 Factorisation LU

Preuve. voir Exercice 3.1.5, page 68.


3. Résolution de systèmes linéaires

3.1.4 Factorisation LU
Avant de citer le théorème principal, on va faire un "petit" exercice...

Exercice 3.1.6:

Soit A P Mn pCq une matrice dont les sous-matrices principales d’ordre i, notées ∆i , i P v1, nw (voir
Definition B.48, page 209) sont inversibles.
Montrer qu’il existe des matrices Erks P Mn pCq, k P v1, n ´ 1w, triangulaires inférieures à diagonale
unité telles que la matrice U définie par
3.1. Méthodes directes

U < Ern´1s ¨ ¨ ¨ Er1s A

soit triangulaire supérieure avec Ui,i < det ∆i {pU1,1 ˆ ¨ ¨ ¨ ˆ Ui´1,i´1 q, @i P v1, nw.

Correction 3.1.6
On note Ar0s < A. On va démontrer par récurrence finie sur k P v1, n ´ 1w, qu’il existe une matrice
Erks P Mn pCq, triangulaire inférieure à diagonale unité, telle que la matrice Arks définie itérativement par
Arks < Erks Ark´1s
s’écrit sous la forme bloc ¨ ˛
³1 ‚ ¨¨¨ ‚ ‚ ¨¨¨ ‚
˚ .. .. . .. .. 9
˚
˚ 0 . . .. . . 9
9
˚ .. .. .. .. .. 9
˚ . . ‚ 9
˚ . . . 9
˚ 9
˚ 0 ... 0 ³k ‚ ¨¨¨ ‚ 9
Arks <˚ 9 (3.11)
˚ 0 ... ... 0 ‚ ¨¨¨ ‚ 9
˚ 9
˚ .. .. .. . .. .. 9
˚ . . . .. . . 9
˚ 9
˚ .. .. .. . .. .. 9
˝ . . . .. . . ‚
0 ... ... 0 ‚ ¨¨¨ ‚

Compiled on 2023/10/10 at [Link]


Méthodes directes 71

avec ³1 < A1,1 et @i P v2, kw, ³i < det ∆i {p³1 ˆ ¨ ¨ ¨ ˆ ³i´1 q.


Initialisation pk < 1q: On a A1,1 ‰ 0 car ∆1 < A1,1 et det ∆1 ‰ 0. D’après le Lemme 3.3, il existe une
matrice Er1s P Mn pCq, triangulaire inférieure à diagonale unité, telle que Er1s Aee1 < A1,1e 1 où e 1
est le premier vecteur de la base canonique de Cn . On a alors
¨ ˛
³1 ‚ ¨ ¨ ¨ ‚
˚ 0 ‚ ¨¨¨ ‚ 9
˚ 9
Ar1s < Er1s A < ˚ . .. .. 9
˝ .. . . ‚
0 ‚ ¨¨¨ ‚
avec ³1 < A1,1 < det ∆1 .
Hérédité pk ă n ´ 1q: Supposons construite la matrice Arks . Il existe donc k matrices, Er1s , . . . , Erks ,
triangulaires inférieures à diagonale unité telles que
Arks < Erks ¨ ¨ ¨ Er1s A.
def rks
‚ On va montrer que ³k`1 < Ak`1,k`1 ‰ 0. Pour celà, on réécrit la matrice Arks sous forme bloc,
avec comme premier bloc diagonale le bloc de dimension k ` 1 :
k`1
¨ ˛
³1 ‚ ¨ ¨ ¨ ‚ ‚ ‚ ¨¨¨ ‚
˚ 0 . . . . . . ... .. .. 9
˚
˚ ‚ . . 9 9
˚ . .. .. .. .. 9
˚ . . . ‚ 9
˚ . ‚ . . 9
˚ 9
˚ .. .. 9
Arks < ˚ 0 . . . 0 ³k ‚ . ¨ ¨ ¨ . 9

3.1.4 Factorisation LU
˚ 9
˚ 0 . . . . . . 0 ³k`1 ‚ ¨ ¨ ¨ ‚ 9
˚ 9
˚ 0 ¨¨¨ ¨¨¨ 0 ‚ ‚ ¨¨¨ ‚ 9
˚ 9
˚ . .. .. .. 9
˝ .. . ‚ . . ‚

3. Résolution de systèmes linéaires


0 ... ... 0 ‚ ‚ ¨¨¨ ‚

def
La matrice Grks < Erks ¨ ¨ ¨ Er1s est triangulaire inférieure à diagonale unité car produit de
matrices triangulaires inférieures à diagonale unité (voir Exercice ??, page ??). Le produit de
Grks A s’écrit alors sous forme bloc
k`1
¨ ˛
1 0 ¨¨¨ 0 0 ¨¨¨ ¨¨¨ 0
k`1
˚ ‚ . . . . . . ... ... .. 9
˚
. 9¨ ‚ ¨¨¨ ‚
˛
˚ 9
˚ . . 9 .. .. 9
. . . . . 0 ... .. 9˚

3.1.Méthodes directes
˚ .
˚ . . 9˚
˚ ∆k`1 . . 99
˚ 9˚ 9
rks ˚ ‚ . . . ‚ 1 0 ¨ ¨ ¨ ¨ ¨ ¨ 0 9˚ ‚ ¨ ¨ ¨ ‚ 9
G A<˚ 9˚
˚ ‚ . . . . . . ‚ 1 0 ¨ ¨ ¨ 0 9˚ ‚ ¨¨¨ ‚ ‚ ¨¨¨ ‚ 9 9
˚ 9
˚ .. . . . . .. .. .. .. 9˚ ˝ .. .. .. .. 9
˚ .
˚
. . . ‚ . . . 9 .
9 . . . ‚
˚ . . 9
˝ .. . . . . . ... ... . . . . . . 0 ‚ ‚ ¨¨¨ ‚ ‚ ¨¨¨ ‚

‚ ... ... ‚ ‚ ¨¨¨ ‚ 1

Comme Arks < Grks A, en utilisant les règles de multiplication par blocs des matrices on obtient
¨ ˛
³1 ‚ ¨ ¨ ¨ ‚ ‚ ¨ ˛
˚ . 9 1 0 ¨¨¨ 0 ¨
. .
. . . . .. ˛
˚0 ‚ 9 ˚ .9
˚ 9 ˚‚ . . . . . . .. 9
˚ . . 9<˚ 9 ˝ ∆k`1 ‚
˚ .. .. ... ‚ ‚ 99 ˝ ... . . . . . . 0‚
˚ 9
˚
˝ 0 . . . 0 ³k ‚ ‚
‚ ... ‚ 1
0 . . . . . . 0 ³k`1
En prenant le déterminant de cette dernière équation, et en utilisant le fait que le determinant
d’une matrice triangulaire est le produit de ses coefficients diagonaux, on obtient
k`1
ź
³i < det ∆k`1 .
i<1

Compiled on 2023/10/10 at [Link]


72 Résolution de systèmes linéaires

Par hypothèse ∆k`1 inversible , ce qui entraine det ∆k`1 ‰ 0 et donc ³i ‰ 0, @i P v1, k ` 1w.
On a donc
det ∆k`1
³k`1 < k
‰ 0.
ź
³i
i<1

• Montrons l’existence d’une matrice triangulaire inférieure à diagonale unité permettant d’éliminer
les termes sous diagonaux de la colonne k ` 1 de Arks .
Revenons à l’écriture bloc de premier bloc diagonal de dimension k. On a
¨ ˛
³1 ‚ ¨¨¨ ‚ ‚ ¨¨¨ ¨¨¨ ‚
˚ .. .. . .. .. 9
˚
˚ 0 . . .. . . 9
9
˚ .. .. .. .. .. 9
˚ . . ‚ 9
˚ . . . 9 ˜ ¸
˚ 9
rks ˚ 0 ... 0 ³k ‚ ¨¨¨ ¨¨¨ ‚ 9 def Urks Frks
A <˚ 9<
˚ 0 ... ... 0 ³k`1 ‚ ¨¨¨ ‚ 9 O Vrks
˚ 9
˚ .. .. .. . 9
˚ . . . .. ‚ ¨¨¨ ¨¨¨ ‚ 9
˚ 9
˚ .. .. .. . .. .. 9
˝ . . . .. . . ‚
0 ... ... 0 ‚ ¨¨¨ ¨¨¨ ‚

Nous sommes exactement dans le cas de figure étudié dans l’exercice 3.1.3, page 61. En effet,
rks rks rks t
avec les notations de cet exercice et si l’on pose v < V:,1 < pAk`1,k`1 , . . . , An,k`1 q P Cn´pk`1q
3.1.4 Factorisation LU

rks
(en bleu dans l’expression de Arks précédente) on a alors v1 < Ak`1,k`1 < ³k`1 ‰ 0 et l’on
peut définir la matrice Erk`1s P Mn pCq, triangulaire inférieure à diagonale unité, par
ˆ ˙
Ik O
Erk`1s < Erk,vv s <
def
3. Résolution de systèmes linéaires

O Ervv s

avec Ervv s P Mn´k pCq triangulaire inférieure à diagonale unité (définie dans l’exercice 3.1.3)
telle que
¨ ˛
³k`1 ‚ ¨ ¨ ¨ ‚
˚ .. .. 9
˚ 0 . .9
rv
v s rks
E V <˚ . ˚ 9
. .. 9
˝ .. .. .‚
3.1. Méthodes directes

0 ‚ ¨¨¨ ‚
On a alors
ˆ ˙˜ ¸
rk`1s def rk`1s rks Ik O Urks Frks
A <E A <
O Ervv s O Vrks
˜ ¸
Urks Frks
<
O Ervv s Vrks

et donc Ark`1s s’écrit bien sous la forme (3.11) au rang k ` 1.

Final pk < n ´ 1q: On a donc


¨ ˛
³1 ‚ ¨¨¨ ¨¨¨ ‚
˚ .. .. .. 9
˚ 0 . . . 9
˚ 9
U < Arn´1s rn´1s
ˆ ¨¨¨ ˆ E ˆ A < ˚
r1s 9
def
<E ˚ .. .. .. .. .. 9 (3.12)
˚ . . . . . 9
˝ 0 ¨ ¨ ¨ 0 ³n´1 ‚ ‚
0 ¨¨¨ ¨¨¨ 0 ‚

où pour tout k P v1, n ´ 1w les matrices Erks sont triangulaires inférieures à diagonale unité.

Compiled on 2023/10/10 at [Link]


Méthodes directes 73

Pour achever l’exercice, il reste à démontrer que

Un,n < det ∆n {pU1,1 ˆ ¨ ¨ ¨ ˆ Un´1,n´1 q.

En effet, en prenant le déterminant dans (3.12) on obtient


¨ ˛
U1,1 ‚ ¨¨¨ ¨¨¨ ‚
˚ .. .. .. 9
˚ 0 . . . 9
´ ¯ ˚ 9
rn´1s r1s ˚ 9
det E ˆ ¨ ¨ ¨ ˆ E ˆ A < det ˚ .. .. .. .. .. 9
˚ . . . . . 9
˚ 9
˝ 0 ¨ ¨ ¨ 0 Un´1,n´1 ‚ ‚
0 ¨¨¨ ¨¨¨ 0 Un,n

Comme le déterminant d’un produit de matrices est égale au produit des déterminants des matrices on a
´ ¯
det Ern´1s ˆ ¨ ¨ ¨ ˆ Er1s ˆ A < det Ern´1s ˆ ¨ ¨ ¨ ˆ det Er1s ˆ det A
< det A

car les matrices Erks sont triangulaires inférieures à diagonale unité et donc det Erks < 1, @k P v1, n ´ 1w.
De plus, le déterminant d’une matrice traingulaire supérieure est égale au produit de ses coefficients
diagonaux et donc
¨ ˛
U1,1 ‚ ¨ ¨ ¨ ¨¨¨ ‚
˚ .. .. .. 9
˚ 0 . . . 9
˚ 9 n´1
ź
˚ . .. 9

3.1.4 Factorisation LU
det ˚ . .. .. .. 9 < Un,n U k, k.
˚ . . . . . 9
˚ 9 k<1
˝ 0 ¨ ¨ ¨ 0 Un´1,n´1 ‚ ‚
0 ¨¨¨ ¨¨¨ 0 Un,n

3. Résolution de systèmes linéaires


On a alors
n´1
ź
det A < det ∆n < Un,n U k, k ‰ 0.
k<1
˛

Théorème 3.6: Factorisation LU

Soit A P Mn pCq une matrice dont les sous-matrices principales sont inversibles alors il existe une

3.1.Méthodes directes
unique matrice L P Mn pCq triangulaire inférieure (lower triangular en anglais) à diagonale unité
et une unique matrice U P Mn pCq triangulaire supérieure (upper triangular en anglais) inversible
telles ques
A < LU.

Preuve. Nous allons voir deux méthodes pour démontrer l’existence.


méthode 1 En utilisant le résultat de l’exercice 3.1.6, il existe des matrices Erks P Mn pCq, k P v1, n ´ 1w,
triangulaires inférieures à diagonale unité telles que la matrice U définie par

U < Ern´1s ¨ ¨ ¨ Er1s A

soit triangulaire supérieure avec Ui,i ‰ 0, @i P v1, nw. On pose G < Ern´1s ¨ ¨ ¨ Er1s . La matrice G
est donc aussi triangulaire inférieure à diagonale unité. Elle est donc inversible est son inverse est
triangulaire inférieure à diagonale unité (voir Proposition B.46, page 209). En notant L < G-1 on
a A < LU.
méthode 2 Nous allons effectuer une démonstration par récurrence sur l’ordre n de la matrice A.
Propriété: Pour tout n P N˚ , si une matrice A P Mn pCq a toutes ses sous-
matrices principales inversibles alors il existe une unique matrice L P Mn pCq
triangulaire inférieure à diagonale unité et une unique matrice U P Mn pCq
triangulaire supérieure inversible telles ques A < LU.

Compiled on 2023/10/10 at [Link]


74 Résolution de systèmes linéaires

Initialisation: Pour n < 1, c’est trivial L < 1 et U < A.


Hérédité: Supposons la propriété vraie au rang n, montrons qu’alors, la propriété est vraie au
rang n ` 1.
Soit A P Mn`1 pCq telle que toutes les sous-matrices principales soient inversibles. On peut la
décomposer sous la forme bloc suivante
¨ ˛
˚ A f 9
A<˚
˝
9

e˚ d

• A est la matrice de Mn pCq telle que Ai,j < Ai,j , @pi, jq P v1, nw2 ,
• f est le vecteur de Cn tel que fi < Ai,n`1 , @i P v1, nw,
• e est le vecteur de Cn tel que ei < An`1,i , @i P v1, nw
• d P C est le scalaire d < An`1,n`1 .

Comme les sous-matrices principales de A sont les n premières sous-matrices principales de A,


elles sont donc inversibles. Par hypothèse de récurrence, il existe une unique matrice L P Mn pCq
triangulaire inférieure à diagonale unité et une unique matrice U P Mn pCq triangulaire supérieure
inversible telles ques
A < L U.
3.1.4 Factorisation LU

On va construire des matrices L et U vérifiant la propriété. Soient L P Mn`1 pCq et U P Mn`1 pCq
décomposées sous la forme bloc
¨ ˛ ¨ ˛
3. Résolution de systèmes linéaires

˚ L 0 9 ˚ U h 9
L<˚
˝
9 et U < ˚
‚ ˝
9

g˚ 1 0˚ ³

où g P Cn , h P Cn and ³ P C. Les deux matrices sont blocs compatibles pour la multiplication et


on a alors ¨ ˛¨ ˛ ¨ ˛
˚ L 0 9˚ U h 9 ˚ LU h
Lh 9
LU < ˚ 9˚ 9<˚ 9
3.1. Méthodes directes

˝ ‚˝ ‚ ˝ ‚
g˚ 1 0˚ ³ g ˚U g ˚h ` ³
Comme A < L U, on va idenfier bloc par bloc les matrices LU et A, puis vérifier que le système est
resolvable. On obtient donc par identification le système:
$
& Lh h < f
g ˚U < e˚
% ˚
g h`³ < d

Par hypothèse de récurrence L est triangulaire inférieure à diagonale unité et U triangulaire su-
perieure inversible: le système précédant admet donc comme solution
$ -1
& h < L f
-1
g < U˚ e
%
³ < d ´ g ˚h

On a donc construit une matrice L triangulaire inférieure à diagonale unité et une matrice U
triangulaire superieure telles que A < LU. Comme la matrice A est inversible, on en déduit que

det A < detpLUq < det L ˆ det U ‰ 0

On obtient alors det U ‰ 0 ce qui entraine l’inversibilité de la matrice U.

Compiled on 2023/10/10 at [Link]


Méthodes directes 75

On vient de démontrer l’existence d’une factorisation LU de la matrice A. Pour démontrer l’unicité, on


va supposer qu’il existe deux factorisations LU de A i.e.
A < L1 U 1 < L2 U 2 .
avec L1 , L2 matrices triangulaires inférieures à diagonale unité et U1 , U2 matrices triangulaires supérieures
(inversibles). En multipliant l’équation L1 U1 < L2 U2 à gauche par L-1 1 et à droite par U2 on obtient
-1

U1 U-1 -1
2 < L1 L 2 . (3.13)
La matrice L-11 L2 est triangulaire inférieure à diagonale unité car produit de deux matrices triangulaires
inférieures à diagonale unité. Elle est égale à la matrice U1 U-12 qui elle est triangulaire supérieure (car
prduit de deux matrices triangulaires supérieures). Donc L-1 1 L2 est à la fois une matrice triangulaire
supérieure et inférieure : elle est donc diagonale. Comme elle est à diagonale unité on en déduit que
1 L2 < I et donc L1 < L2 . De l’équation (3.13), on tire alors U1 < U2 .
L-1

Exercice 3.1.7

Montrer que si A inversible admet une factorisation LU alors toutes ses sous-matrices principales
sont inversibles.

Remarque 3. Si la matrice A P Mn pCq est inversible et si ses sous-matrices principales ne sont pas
toutes inversibles, il est possible par des permutations préalables de lignes de la matrice de se ramener à
une matrice telle que ses sous-matrices principales soient inversibles.

3.1.4 Factorisation LU
Théorème 3.7: Factorisation LU avec permutations

Soit A P Mn pCq une matrice inversible. Il existe une matrice P, produit de matrices de permuta-
tion, une matrice L P Mn pCq triangulaire inférieure à diagonale unité et une matrice U P Mn pCq

3. Résolution de systèmes linéaires


triangulaire supérieure telles ques
PA < LU. (3.14)

Corollaire 3.8:

Si A P Mn pCq est une matrice hermitienne définie positive alors elle admet une unique factorisation
LU.

3.1.Méthodes directes
Preuve. (indication) Si la matrice A est hermitienne définie positive alors toutes ses sous-matrices prin-
cipales sont définies positives et donc inversibles.

Résolution d’un système linéaire par factorisation LU


Soit A P Mn pKq une matrice dont les sous-matrices principales sont inversibles et b P Kn . On veut ré-
soudre le système linéaire Ax
x < b . Pour celà, grâce au théorème 3.6, on obtient :

Trouver x P Kn tel que

x < b.
Ax (3.15)

est équivalent à

Trouver x P Kn solution de

x<y
Ux (3.16)
avec y P Kn solution de
Lyy < b . (3.17)

Compiled on 2023/10/10 at [Link]


76 Résolution de systèmes linéaires

Ceci permet donc de découper le problème initial en trois sous-problèmes plus simples. De plus, ceux-ci
peuvent se traiter de manière indépendante. On obtient alors l’algorithme suivant

Algorithme 3.9 Fonction RSLFactLU permettant de résoudre, par une factorisation LU, le système
linéaire Ax
x < b où A est une matrice de Mn pKq, dont toutes les sous-matrices principales sont inversibles,
et b P Kn .
, Données : A : matrice de Mn pKq dont les sous-matrices
principales sont inversibles;
b : vecteur de Kn .
Résultat : x : vecteur de Kn .

1: Fonction x Ð RSLFactLU ( A, b )
2: rL, Us Ð FactLUpAq z Factorisation LU
3: y Ð RSLTriInfpL, b q z Résolution du système Lyy < b
4: x Ð RSLTriSuppU, y q z Résolution du système Ux x<y
5: Fin Fonction

Il nous faut donc écrire la fonction FactLU (les deux fonctions RSLTriInf et RSLTriSup ayant déjà
été écrites).

Détermination des matrices L et U


Soit A P Mn pKq une matrice dont les sous-matrices principales sont inversibles. D’après le théorème 3.6,
il existe une unique matrice L P Mn pKq triangulaire inférieure avec Li,i < 1, @i P v1, nw, et une unique
3.1.4 Factorisation LU

matrice L P Mn pKq triangulaire supérieure telles que

A < LU (3.18)

c’est à dire
3. Résolution de systèmes linéaires

¨ ˛¨ ˛
¨ ˛ 1 0 ... 0 U1,1 ... ... Un,1
A1,1 ... A1,n ˚ .. .. .. 9 ˚ .. .. 9
˚ .. .. 9 ˚˚ L2,1 . . .9 ˚
9˚ 0 . . 99
˝ . . <
... ‚ ˚ . 9˚ . .. 9 . (3.19)
˝ .. .. .. ..
An,1 ... An,n . 0‚˝ .. . . . ‚
Ln,1 ... Ln,n´1 1 0 ... 0 Un,n

Pour déterminer les matrices L et U, on remarque que la 1ère ligne de L est déjà déterminée. On peut
alors l’utiliser pour calculer la première ligne de U : @j P v1, nw
3.1. Méthodes directes

n
ÿ
A1,j < L1,k Uk,j
k<1
< L1,1 U1,j car L triangulaire inférieure
< U1,j

On a donc

U1,j < A1,j , @j P v1, nw. (3.20)


La première colonne de U est aussi déterminée, on peut alors l’utiliser pour calculer la première colonne
de L : @i P v2, nw
n
ÿ
Ai,1 < Li,k U1,j
k<1
< Li,1 U1,1 car U triangulaire supérieure

On peut démontrer, de part les hypothèses sur la matrice A, que U1,1 ‰ 0 et alors

L1,j < Ai,j {U1,1 , @i P v2, nw. (3.21)

La première ligne de U et la première colonne de L sont donc déterminées par les formules (3.20) et (3.21).

Compiled on 2023/10/10 at [Link]


Méthodes directes 77

Par récurrence, on suppose connues les i ´ 1 premières lignes de U et les i ´ 1 premières colonnes de L.
On va montrer que l’on peux expliciter la i-ème ligne de U et la i-ème colonne de L.
En effet, @j P vi, nw, on a

n
ÿ
Ai,j < Li,k Uk,j
k<1
i´1
ÿ n
ÿ
< Li,k Uk,j ` Li,i Ui,j ` Li,k Uk,j
k<1 k<i`1
i´1
ÿ
< Li,k Uk,j ` Li,i Ui,j car L triangulaire inférieure
k<1

ři´1
Dans l’expression k<1 Li,k Uk,j tous les termes sont connus (hypothèse de récurrence) et Li,i < 1. On
en déduit,

" ři´1
Ai,j ´ Li,k Uk,j , @j P vi, nw.
Pour i allant de 1 à n : Ui,j < k<1 (3.22)
0, @j P v1, i ´ 1w.

Maintenant, on calcule, @j P vi ` 1, nw,

3.1.4 Factorisation LU
n
ÿ
Aj,i < Lj,k Uk,i
k<1

3. Résolution de systèmes linéaires


i´1
ÿ n
ÿ
< Lj,k Uk,i ` Lj,i Ui,i ` Lj,k Uk,i
k<1 k<i`1
i´1
ÿ
< Lj,k Uk,i ` Lj,i Ui,i car U triangulaire supérieure
k<1

i´1
ÿ
Dans l’expression Lj,k Uk,i tous les termes sont connus (hypothèse de récurrence). De plus Ui,i est

3.1.Méthodes directes
k<1
donné par (3.22) et on peut démontrer, de part les hypothèses sur la matrice A, que Ui,i ‰ 0. On a alors

$

’ 0, @j P v1, i ´ 1w.

& 1,
˜ ¸ j<i
Pour i allant de 1 à n : Lj,i < i´1
ÿ (3.23)

’ 1
% Ui,i Aj,i ´
’ Lj,k Uk,i , @j P vi ` 1, nw,
k<1

On écrit en détail les raffinements successifs permettant d’aboutir à l’algorithme final de telle sorte que
le passage entre deux raffinements successifs soit le plus compréhensible possible.

Algorithme 3.10 R0 Algorithme 3.10 R1

1: Calculer les matrices L et U 1: Pour i Ð 1 à n faire


2: Calculer la ligne i de U.
3: Calculer la colonne i de L.
4: Fin Pour

Compiled on 2023/10/10 at [Link]


78 Résolution de systèmes linéaires

Algorithme 3.10 R1 Algorithme 3.10 R2

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


Calculer la ligne i de U.
2:
2: Pour j Ð 1 à i ´ 1 faire
3: Calculer la colonne i de L.
3: U pi, jq Ð 0
4: Fin Pour 4: Fin Pour
5: Pour j Ð i à n faire
i´1
ÿ
6: Ui,j Ð Ai,j ´ Li,k Uk,j
k<1
7: Fin Pour

8: Pour j Ð 1 à i ´ 1 faire
9: Lj,i Ð 0
10: Fin Pour
11: Li,i Ð 1
12: Pour j Ð i `˜1 à n faire ¸
i´1
ÿ
1
13: Lj,i Ð Ui,i Aj,i ´ Lj,k Uk,i
k<1
14: Fin Pour

15: Fin Pour

Algorithme 3.10 R2 Algorithme 3.10 R3


3.1.4 Factorisation LU

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


2: Pour j Ð 1 à i ´ 1 faire 2: Pour j Ð 1 à i ´ 1 faire
3: U pi, jq Ð 0 3: U pi, jq Ð 0
Fin Pour Fin Pour
3. Résolution de systèmes linéaires

4: 4:
5: Pour j Ð i à n faire 5: Pour j Ð i à n faire
i´1
ÿ i´1
ÿ
Ui,j Ð Ai,j ´ Li,k Uk,j
6: S1 Ð Li,k Uk,j
k<1
6: k<1
7: Fin Pour 7: Ui,j Ð Ai,j ´ S1
8: Pour j Ð 1 à i ´ 1 faire
9: Lj,i Ð 0 8: Fin Pour
10: Fin Pour 9: Pour j Ð 1 à i ´ 1 faire
3.1. Méthodes directes

11: Li,i Ð 1 10: Lj,i Ð 0


12: Pour j Ð i ` 1 à n faire 11: Fin Pour
˜ ¸ 12: Li,i Ð 1
i´1
ÿ
1
Lj,i Ð Ui,i Aj,i ´ Lj,k Uk,i 13: Pour j Ð i ` 1 à n faire
k<1
13: i´1
ÿ
14: Fin Pour 14: S2 Ð Lj,k Uk,i
15: Fin Pour k<1
1
15: Lj,i Ð pAj,i ´ S2 q .
Ui,i
16: Fin Pour
17: Fin Pour

Compiled on 2023/10/10 at [Link]


Méthodes directes 79

Algorithme 3.10 R3 Algorithme 3.10 R4

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


2: Pour j Ð 1 à i ´ 1 faire 2: Pour j Ð 1 à i ´ 1 faire
3: U pi, jq Ð 0 3: U pi, jq Ð 0
4: Fin Pour 4: Fin Pour
5: Pour j Ð i à n faire 5: Pour j Ð i à n faire
i´1
ÿ
S1 Ð Li,k Uk,j 6: S1 Ð 0
6:
k<1 7: Pour k Ð 1 à i ´ 1 faire
7: Ui,j Ð Ai,j ´ S1 8: S1 Ð S1 ` Li,k ˚ Uk,j
8: Fin Pour 9: Fin Pour
9: Pour j Ð 1 à i ´ 1 faire
10: Lj,i Ð 0 10: Ui,j Ð Ai,j ´ S1
11: Fin Pour 11: Fin Pour
12: Li,i Ð 1 12: Pour j Ð 1 à i ´ 1 faire
13: Pour j Ð i ` 1 à n faire 13: Lj,i Ð 0
14: Fin Pour
i´1
ÿ 15: Li,i Ð 1
S2 Ð Lj,k Uk,i
16: Pour j Ð i ` 1 à n faire
k<1
14:
1
15: Lj,i Ð pAj,i ´ S2 q . 17: S2 Ð 0
Ui,i 18: Pour k Ð 1 à i ´ 1 faire
16: Fin Pour
19: S2 Ð S2 ` Lj,k ˚ Uk,i
17: Fin Pour
20: Fin Pour

3.1.4 Factorisation LU
1
21: Lj,i Ð pAj,i ´ S2 q .
Ui,i
22: Fin Pour
23: Fin Pour

3. Résolution de systèmes linéaires


3.1.Méthodes directes

L’algorithme peut être amélioré, pour gagner en lisibilité... En effet, il est possible d’initialiser la matrice
U par la matrice nulle et la matrice L par la matrice identitée, ce qui permet alors de supprimer les
boucles U pi, jq Ð 0 et Lpj, iq Ð 0 ainsi que la commande Lpi, iq Ð 1. On obtient alors l’algorithme final

Compiled on 2023/10/10 at [Link]


80 Résolution de systèmes linéaires

Algorithme 3.10 Fonction FactLU permet de calculer les matrices L et U dites matrice de factorisation
LU associée à la matrice A, telle que
A < LU
Données : A : matrice de Mn pKq dont les sous-matrices principales
sont inversibles.
Résultat : L : matrice de Mn pKq triangulaire inférieure
avec Li,i < 1, @i P v1, nw
U : matrice de Mn pKq triangulaire supérieure.

1: Fonction rL, Us Ð FactLU ( A )


2: U Ð On z On matrice nulle n ˆ n
3: L Ð In z In matrice identitée n ˆ n
4: Pour i Ð 1 à n faire
5: Pour j Ð i à n faire z Calcul de la ligne i de U
6: S1 Ð 0
7: Pour k Ð 1 à i ´ 1 faire
8: S1 Ð S1 ` Lpi, kq ˚ U pk, jq
9: Fin Pour
10: U pi, jq Ð Api, jq ´ S1
11: Fin Pour
12: Pour j Ð i ` 1 à n faire z Calcul de la colonne i de L
13: S2 Ð 0
14: Pour k Ð 1 à i ´ 1 faire
15: S2 Ð S2 ` Lpj, kq ˚ U pk, iq
16: Fin Pour
3.1.4 Factorisation LU

17: Lpj, iq Ð pAj,i ´ S2 q {U pi, iq.


18: Fin Pour
19: Fin Pour
20: Fin Fonction
3. Résolution de systèmes linéaires

Remarque 4. Pour optimiser en mémoire cette fonction, il est possible de stocker les matrices L et U
dans une même matrice de Mn pKq ...

Pour faciliter la lecture d’un tel algorithme, il aurait pu être judiscieux d’utiliser deux fonctions intermé-
diaires FactLUligU et FactLUcolL qui à l’étape i de l’algorithme calculent respectivement la ligne
i de U et la colonne i de L.
3.1. Méthodes directes

Algorithme 3.11 Fonction FactLUligU permet de calculer la ligne Algorithme 3.12 Fonction FactLUcolL permet de calculer la
i de U à partir de (3.22) colonne i de L à partir de (3.23)
Données : A : matrice de Mn pKq dont les Données : A : matrice de Mn pKq dont les
sous-matrices principales sont inversibles. sous-matrices principales sont inversibles.
L : matrice de Mn pKq dont les i ´ 1 L : matrice de Mn pKq dont les i ´ 1
premières colonnes ont été calculées premières colonnes ont été calculées
U : matrice de Mn pKq dont les i ´ 1 U : matrice de Mn pKq dont les i
premières lignes ont été calculées premières lignes ont été calculées
Résultat : U : matrice de Mn pKq dont les i Résultat : L : matrice de Mn pKq dont les i
premières lignes ont été calculées premières colonnes ont été calculées

1: Fonction U Ð FactLUligU ( A, L, U, i ) 1: Fonction L Ð FactLUcolL ( A, L, U, i )


2: Pour j Ð 1 à i ´ 1 faire 2: Pour j Ð 1 à i ´ 1 faire
3: U pi, jq Ð 0 3: Lpj, iq Ð 0
4: Fin Pour 4: Fin Pour
5: Pour j Ð i à n faire 5: Lpi, iq Ð 1
6: S1 Ð 0 6: Pour j Ð i ` 1 à n faire
7: Pour k Ð 1 à i ´ 1 faire 7: S2 Ð 0
8: S1 Ð S1 ` Lpi, kq ˚ U pk, jq 8: Pour k Ð 1 à i ´ 1 faire
9: Fin Pour 9: S2 Ð S2 ` Lpj, kq ˚ U pk, iq
10: U pi, jq Ð Api, jq ´ S1 10: Fin Pour
11: Fin Pour 11: Lpj, iq Ð pAj,i ´ S2 q {U pi, iq.
12: Fin Fonction 12: Fin Pour
13: Fin Fonction

On a alors

Compiled on 2023/10/10 at [Link]


Méthodes directes 81

Algorithme 3.13 Fonction FactLU permet de calculer les matrices L et U dites


matrice de factorisation LU associée à la matrice A, telle que
A < LU
en utilisant des fonctions intermédiaires.
1: Fonction rL, Us Ð FactLU ( A )
2: Pour i Ð 1 à n faire
3: U Ð FactLUligUpA, L, U, iq
4: L Ð FactLUcolLpA, L, U, iq
5: Fin Pour
6: Fin Fonction

3.1.5 Factorisation LDL˚


Soit A P Mn pCq une matrice hermitienne inversible admettant une factorisation LU. On note D la matrice
diagonale inversible définie par D < diag U (i.e. Di,i < Ui,i ‰ 0, @i P v1, nw) et R < D-1 U. La matrice R
est donc matrice triangulaire supérieure à diagonale unité car
n
ÿ 1
Ri,i < pD-1 Uqi,i < pD-1 qi,k Uk,i < pD-1 qi,i Ui,i < Ui,i < 1.
k<1
Ui,i

On a alors
A < LU < LDD-1 U < LDR.

3.1.5 Factorisation LDL˚


De plus comme A est hermitienne on a

A˚ < A ðñ R˚ D˚ L˚ < LDR

Ce qui donne

3. Résolution de systèmes linéaires


A < R˚ pD˚ L˚ q < LpDRq
et donc par unicité de la factorisation LU on a R˚ < L et D˚ L˚ < DR. On obtient alors

R˚ < L et D˚ < D

et on a le théorème suivant

Théorème 3.9: Factorisation LDL˚

3.1.Méthodes directes
Soit A P Mn pCq une matrice hermitienne inversible admettant une factorisation LU. Alors A s’écrit
sous la forme
A < LDL˚ (3.24)
où D < diag U est une matrice à coefficients réels.

Corollaire 3.10:

Une matrice A P Mn pCq admet une factorisation LDL˚ avec L P Mn pCq matrice triangulaire
inférieure à diagonale unité et D P Mn pRq matrice diagonale à coefficients diagonaux strictement
positifs si et seulement si la matrice A est hermitienne définie positive.

Preuve. ùñ Soit A P Mn pCq admettant une factorisation LDL˚ avec L P Mn pCq matrice triangulaire
inférieure à diagonale unité et D P Mn pRq matrice diagonale à coeffcients diagonaux strictement
positifs.
La matrice A est alors hermitienne car
˚ ˚
A˚ < pLDL˚ q < L˚ D˚ L˚ < LDL˚ .

De plus @x
x P Cn zt0u on a
x, x y < xLDL˚x , x y < xDL˚x , L˚x y
xAx

Compiled on 2023/10/10 at [Link]


82 Résolution de systèmes linéaires

On pose y < L˚x ‰ 0 car x ‰ 0 et L˚ inversible. On obtient alors


n
ÿ
xAx
x, x y < xDyy , y y < Di,i |yi |2 ą 0
i<1

car D diagonale, Di,i ą 0, @i P v1, nw et y ‰ 0.


La matrice hermitienne A est donc bien définie positive.

ðù Soit A P Mn pCq une matrice hermitienne définie positive.


D’après le Corollaire 3.8, page 75, la matrice A admet une unique factorisation LU et donc d’après
le Théorème 3.10, page 81, la matrice hermitienne A peut s’écrire sous la forme A < LDL˚ où D est
diagonale à coefficients réels et L triangulaire inférieure à diagonale unité. Il reste à démontrer que
Di,i ą 0, @i P v1, nw.
Comme A est définie positive, on a @x x, x y ą 0. Or on a
x P Cn zt0u, xAx

x, x y < xLDL˚x , x y < xDL˚x , L˚x y


xAx

On note tee1 , ¨ ¨ ¨ , e n u, la base canonique de Cn et on rappelle que @i P v1, nw, xDeei , e i y < Di,i . Soit
-1
i P v1, nw. En choisissant x < pL˚ q e i ‰ 0, on obtient alors

xDL˚x , L˚x y < xDeei , e i y < Di,i ą 0.


3.1.6 Factorisation de Cholesky

3.1.6 Factorisation de Cholesky

Definition 3.11

Une factorisation régulière de Cholesky d’une matrice A P Mn pCq est une factorisation A <
3. Résolution de systèmes linéaires

BB˚ où B est une matrice triangulaire inférieure inversible.


Si les coefficients diagonaux de B sont positifs, on parle alors d’une factorisation positive de
Cholesky.

Théorème 3.12: Factorisation de Cholesky

La matrice A P Mn pCq admet une factorisation régulière de Cholesky si et seulement si la matrice


A est hermitienne définie positive. Dans ce cas, elle admet une unique factorisation positive.
3.1. Méthodes directes

Preuve. ùñ Soit A P Mn pCq admettant une factorisation régulière de Cholesky A < BB˚ avec B est
une matrice triangulaire inférieure inversible.
La matrice A est hermitienne car
˚ ˚
A˚ < pBB˚ q < pB˚ q B˚ < BB˚ < A.

Soit x P Cn zt0u, on a
2
x, x y < xBB˚x , x y < xB˚x , B˚x y < }B˚x } ą 0
xAx

car B˚x ‰ 0 (B˚ inversible et x ‰ 0). Donc la matrice A est bien hermitienne définie positive.

ðù Soit A P Mn pCq une matrice hermitienne définie positive.


D’après le Corollaire 3.10, page 81, il existe alors une matrice L P Mn pCq triangulaire inférieure à
diagonale unité et une matrice D P Mn pRq diagonale à coefficient strictement positifs telles que

A < LDL˚ .
a
On note H P Mn pRq une matrice diagonale inversible vérifiant H2 < D (i.e. Hi,i < ˘ Di,i ‰ 0,
@i P v1, nw). On a alors
˚
A < LHHL˚ < pLHqpLHq

Compiled on 2023/10/10 at [Link]


Méthodes directes 83

En posant B < LH, la matrice B est bien triangulaire inférieure inversible car produit d’une matrice
triangulaire inférieure inversible par une matrice diagonale inversible et on a A < BB˚ .
Montrons qu’une factorisation positive de Cholesky est unique.
Soient B1 et B2 deux factorisations positives de la matrice A, on a donc

A < B1 B˚1 < B2 B˚2 .

˚ -1
En multipliant à gauche par B-1
2 et à droite par pB1 q cette équation on obtient

˚ ˚ -1 ˚ ˚
B-1
2 B1 < B2 pB1 q < B˚2 pB-1 -1
1 q < pB1 B2 q

En notant G < B-1


2 B1 , on tire de l’équation précédente

˚
G < pG-1 q . (3.25)

On déduit de la (voir Proposition B.46, page 209), que l’inverse d’une matrice triangulaire inférieure à
coefficients diagonaux réels strictement positifs est aussi une matrice triangulaire inférieure à coefficients
diagonaux réels strictement positifs. De la (voir Proposition B.45, page 209), on obtient que le produit
de matrices triangulaires inférieures à coefficients diagonaux réels strictement positifs reste triangulaire
inférieure à coefficients diagonaux réels strictement positifs, on en déduit que les matrices G < B-1 2 B1 et
G-1 < B-11 B2 sont triangulaires inférieures à coefficients diagonaux réels strictement positifs. Or l’équation
˚

3.1.6 Factorisation de Cholesky


(3.25) identifie la matrice triangulaire inférieure G à la matrice triangulaire supérieure pG-1 q : ce sont
˚
donc des matrices diagonales à coefficients diagonaux réels strictement positifs et on a alors pG-1 q < G-1 .
De l’équation (3.25), on obtient alors G < G , c’est à dire G < I < B2 B1 et donc B1 < B2 .
-1 -1

Résolution d’un système linéaire par la factorisation de Cholesky

3. Résolution de systèmes linéaires


Pour commencer, avec la factorisation de Cholesky point de salut sans matrice hermitienne définie posi-
tive!

. N’utiliser la factorisation de Cholesky pour la résolution d’un système linéaire que si la matrice
du système est hermitienne définie positive.

Soit A P Mn pCq une matrice hermitienne définie positive et b P Cn . Grâce au théorème 3.12, on obtient :

3.1.Méthodes directes
Trouver x P Cn tel que

x < b.
Ax (3.26)

est équivalent à

Trouver x P Cn solution de

B˚x < y (3.27)


avec B la matrice de factorisation positive de Cholesky de la ma-
trice A avec y P Cn solution de

Byy < b . (3.28)

On est donc ramené à

Compiled on 2023/10/10 at [Link]


84 Résolution de systèmes linéaires

Algorithme 3.14 Algorithme de base permettant de résoudre, par une factorisation de Cholesky positive,
le système linéaire
x<b
Ax
où A une matrice de Mn pCq hermitienne définie positive et b P Cn .
Données : A : matrice de Mn pCq hermitienne définie positive,
b : vecteur de Cn .
Résultat : x : vecteur de Cn .
1: Trouver la factorisation positive de Cholesky B de la matrice A,
2: résoudre le système triangulaire inférieur Byy < b ,
3: résoudre le système triangulaire supérieur B˚x < y .

Ceci permet donc de découper le problème initial en trois sous-problèmes plus simples. De plus, ceux-ci
peuvent se traiter de manière indépendante.

Algorithme 3.15 Fonction RSLCholesky permettant de résoudre, par une factorisation de Cholesky
positive, le système linéaire
x<b
Ax
où A une matrice hermitienne de Mn pCq définie positive et b P Cn .
Données : A : matrice de Mn pCq hermitienne définie positive,
: vecteur de Cn .
3.1.6 Factorisation de Cholesky

b
Résultat : x : vecteur de Cn .

1: Fonction x Ð RSLCholesky ( A, b )
2: B Ð CholeskypAq z Factorisation positive de Cholesky
3: y Ð RSLTriInfpB, b q z Résolution du système Byy < b
4: U Ð MatAdjointepBq z Calcul de la matrice adjointe de B
3. Résolution de systèmes linéaires

5: x Ð RSLTriSuppU, y q z Résolution du système B˚x < y


6: Fin Fonction

Il nous faut donc écrire la fonction Cholesky (les deux fonctions RSLTriInf et RSLTriSup ayant déjà
été écrites et la fonction MatAdjointe étant simple à écrire).

Factorisation positive de Cholesky : écriture de l’algorithme


3.1. Méthodes directes

Soit A P Mn pCq une matrice hermitienne définie positive. D’après le Théorème 3.12, il existe une unique
matrice B P Mn pCq triangulaire inférieure avec bi,i P R`˚ , @i P v1, nw, telle que

A < BB˚ (3.29)

c’est à dire
¨ ˛¨ ˛
¨ ˛ b1,1 0 ... 0 b1,1 ... ... bn,1
a1,1 ... a1,n ˚ .. .. .. .. 9 ˚ .. .. 9
˚ .. .. 9 ˚˚ . . . . 9 ˚
9˚ 0 . . 99
˝ . . . . . ‚< ˚ . 9˚ . .. 9 . (3.30)
˝ .. .. .. ..
an,1 ... an,n . 0 ‚˝ .. . . . ‚
bn,1 ... ... bn,n 0 ... 0 bn,n

Pour déterminer la matrice B, on commence par calculer b1,1 (la 1ère ligne de B est donc déterminée) ce
qui nous permet de calculer la 1ère colonne de B.
Ensuite, on calcule b2,2 (la 2ème ligne de B est donc déterminée) ce qui nous permet de calculer la 2ème
colonne de B. Etc ...
On écrit en détail les raffinements successifs permettant d’aboutir à l’algorithme final de telle manière
que le passage entre deux raffinements successifs soit le plus simple possible.

Compiled on 2023/10/10 at [Link]


Méthodes directes 85

Algorithme 3.16 R0 Algorithme 3.16 R1

1: Calculer la matrice B 1: Pour i Ð 1 à n faire


2: Calculer bi,i , connaissant les i ´ 1 pre-
mières colonnes de B.
3: Calculer la ième colonne de B.
4: Fin Pour

Pour calculer bi,i , connaissant les i ´ 1 premières colonnes de B. on utilise (3.29) :


n
ÿ n
ÿ
ai,i < bi,j pB˚ qj,i < |bi,j |2 ,
j<1 j<1

et comme B est triangulaire inférieure on obtient


i
ÿ i´1
ÿ
ai,i < |bi,j |2 < |bi,j |2 ` |bi,i |2 .
j<1 j<1

On a donc ˜ ¸1{2
i´1
ÿ
2
bi,i < ai,i ´ |bi,j | , @i P v1, nw, (3.31)
j<1
Comme les i ´ 1 premières colonnes de B ont déjà été calculées, bi,i est parfaitement déterminée par la

3.1.6 Factorisation de Cholesky


formule précédente.
ři´1
Remarque 5. Les hypothèses sur la matrice A permettent d’affirmer que, @i P v1, nw, ai,i ´ j<1 |bi,j |2 ą
0 et donc bi,i ą 0.
Pour calculer la ième colonne de B, il suffit de déterminer bj,i , @j P vi ` 1, nw. Pour celà on utilise (3.29)
n
ÿ n
ÿ

3. Résolution de systèmes linéaires


aj,i < bj,k pB˚ qk,i < bj,k bi,k , @j P vi ` 1, nw
k<1 k<1

Comme L est triangulaire inférieure on obtient


i
ÿ i´1
ÿ
aj,i < bj,k bi,k < bj,k bi,k ` bj,i bi,i , @j P vi ` 1, nw
k<1 k<1

Or bi,i ą 0 vient d’être calculé et les i ´ 1 premières colonnes de B ont déjà été calculées, ce qui donne
˜ ¸
i´1
ÿ
1
bj,i < aj,i ´ bj,k bi,k , @j P vi ` 1, nw (3.32)
bi,i k<1

3.1.Méthodes directes
bj,i < 0, @j P v1, i ´ 1w. (3.33)
Avec (3.31) et (3.32), on a

Algorithme 3.16 R1 Algorithme 3.16 R2

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


Calculer bi,i , connaissant les ˜ ¸1{2
i´1
ÿ
i ´ 1 premières colonnes de B. 2
2: 2: bi,i Ð ai,i ´ |bi,j |
3: Calculer la ième colonne de B. j<1

4: Fin Pour 3: Pour j Ð 1 à i ´ 1 faire


4: bj,i Ð 0
5: Fin Pour
6: Pour j Ð i `˜1 à n faire ¸
i´1
ÿ
1
7: bj,i Ð aj,i ´ bj,k bi,k .
bi,i k<1
8: Fin Pour

9: Fin Pour

Compiled on 2023/10/10 at [Link]


86 Résolution de systèmes linéaires

Algorithme 3.16 R2 Algorithme 3.16 R3

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


˜ ¸1{2
i´1
ÿ i´1
ÿ
bi,i Ð ai,i ´ |bi,j |2
2: S1 Ð |bi,j |2
j<1
2: j<1
1{2
3: Pour j Ð 1 à i ´ 1 faire 3: bi,i Ð pai,i ´ S1 q
4: bj,i Ð 0
5: Fin Pour 4: Pour j Ð 1 à i ´ 1 faire
6: Pour j Ð i ` 1 à n faire 5: bj,i Ð 0
˜ ¸
1 ÿ
i´1 6: Fin Pour
bj,i Ð aj,i ´ bj,k bi,k . 7: Pour j Ð i ` 1 à n faire
bi,i k“1
7:
i´1
ÿ
8: Fin Pour
8: S2 Ð bj,k bi,k
9: Fin Pour k<1
1
9: bj,i Ð paj,i ´ S2 q .
bi,i
10: Fin Pour
11: Fin Pour

Algorithme 3.16 R3 Algorithme 3.16 R4


3.1.6 Factorisation de Cholesky

1: Pour i Ð 1 à n faire 1: Pour i Ð 1 à n faire


i´1
ÿ
S1 Ð |bi,j |2 2: S1 Ð 0
2:
j<1 3: Pour j Ð 1 à i ´ 1 faire
3: bi,i Ð pai,i ´ S1 q
1{2 4: S1 Ð S1 ` |bi,j |2
4: Pour j Ð 1 à i ´ 1 faire 5: Fin Pour
3. Résolution de systèmes linéaires

5: bj,i Ð 0 1{2
6: Fin Pour 6: bi,i Ð pai,i ´ S1 q
7: Pour j Ð i ` 1 à n faire 7: Pour j Ð 1 à i ´ 1 faire
i´1
8: bj,i Ð 0
ÿ 9: Fin Pour
S2 Ð bj,k bi,k
k<1
10: Pour j Ð i ` 1 à n faire
8:
1
9: bj,i Ð paj,i ´ S2 q . 11: S2 Ð 0
bi,i
10: Fin Pour 12: Pour k Ð 1 à i ´ 1 faire
11: Fin Pour
13: S2 Ð S2 ` bj,k bi,k
14: Fin Pour
3.1. Méthodes directes

1
15: bj,i Ð paj,i ´ S2 q .
bi,i
16: Fin Pour
17: Fin Pour

On obtient alors l’algorithme final

Compiled on 2023/10/10 at [Link]


Méthodes directes 87

Algorithme 3.16 Fonction Cholesky permettant de calculer la matrice B, dites matrice de factorisation
positive de Cholesky associée à la matrice A, telle que A < BB˚ .
Données : A : matrice de Mn pCq hermitienne définie positive.
Résultat : B : matrice de Mn pCq triangulaire inférieure
avec Bpi, iq ą 0, @i P v1, nw

1: Fonction B Ð Cholesky ( A )
2: Pour i Ð 1 à n faire
3: S1 Ð 0
4: Pour j Ð 1 à i ´ 1 faire
5: S1 Ð S1 ` |Bpi, jq|2
6: Fin Pour
7: Bpi, iq Ð sqrtpApi, iq ´ S1 q
8: Pour j Ð 1 à i ´ 1 faire
9: Bpj, iq Ð 0
10: Fin Pour
11: Pour j Ð i ` 1 à n faire
12: S2 Ð 0
13: Pour k Ð 1 à i ´ 1 faire
14: S2 Ð S2 ` Bpj, kq ˚ Bpi, kq
15: Fin Pour
16: Bpj, iq Ð pApj, iq ´ S2 q{Bpi, iq.
17: Fin Pour
18: Fin Pour
19: Fin Fonction

3.1.7 Factorisation QR
3.1.7 Factorisation QR

3. Résolution de systèmes linéaires


La tranformation de Householder

Definition 3.13: Matrice élémentaire de Householder

Soit u P Cn tel que }uu}2 < 1. On appelle matrice élémentaire de Householder la matrice
uq P Mn pCq définie par
Hpu
Hpu uu ˚ .
uq < I ´ 2u (3.34)

3.1.Méthodes directes
Propriété 3.14

Toute matrice élémentaire de Householder est hermitienne et unitaire.

Preuve. Pour simplifier, on note H < Hpu


uq. Cette matrice est hermitienne car
˚ ˚
H˚ < pI ´ 2u
uu ˚ q < I ´ 2pu
uu ˚ q < I ´ 2u
uu ˚ < H.

Montrons qu’elle est unitaire (i.e. H˚ H < I). On a

H˚ H < HH < pI ´ 2u
uu ˚ qpI ´ 2u
uu ˚ q
˚
< I ´ 4u
uu ` 4u uu uu ˚ .
˚

Or on a u ˚u < }u
u}2 < 1 par hypothèse et donc

H˚ H < I ´ 4u
uu ˚ ` 4u u˚u qu
upu u˚ < I.

Compiled on 2023/10/10 at [Link]


88 Résolution de systèmes linéaires

Propriété 3.15

def
Soient x P Kn et u P Kn , }u
u}2 < 1. On note x ∥ < proju px u, x y u et x K < x ´ x ∥ . On a alors
xq < xu

uqpx
Hpu xK ` x ∥ q < x K ´ x ∥ . (3.35)

et
x < x , si xx
uqx
Hpu x, u y < 0. (3.36)

Preuve. On note que par construction xu


u, x K y < 0. On a

uqpx
Hpu uu ˚ q px
xK ` x ∥ q < pI ´ 2u xK ` x ∥ q < x K ` x ∥ ´ 2u uo˚mo
u lo uu ˚x ∥
on ´2u
xK
<0
uu ˚u xu
< x K ` x ∥ ´ 2u u, x y < x K ` x ∥ ´ 2u ˚
u louomouon u ˚x
<1
uu ˚x < x K ` x ∥ ´ 2x
< x K ` x ∥ ´ 2u x∥
< xK ´ x∥.

Si xx
x, u y < 0 alors x ∥ < 0 et x < x K .

Théorème 3.16
3.1.7 Factorisation QR

Soient a , b deux vecteurs non colinéaires de Cn avec }bb}2 < 1. Soit ³ P C tel que |³| < }a
a}2 et
arg ³ < ´ arg xaa, b y rÃs. On a alors
ˆ ˙
a ´ ³bb
H a < ³bb. (3.37)
3. Résolution de systèmes linéaires

}a
a ´ ³bb}2

Preuve. (voir Exercice 3.1.8, page 88)

Exercice 3.1.8

Soient a et b deux vecteurs non colinéaires de Cn avec }bb}2 < 1. On va chercher ³ P C et u P Cn


vérifiant
3.1. Méthodes directes

uqa
Hpu a < ³bb. (3.38)

Q. 1 a. Montrer que si ³ vérifie (3.38) alors |³| < }a


a}2 .

b. Montrer que si arg ³ < ´ argpxa


a, b yq rÃs alors ³ xa
a, b y P R.
˝

Q. 2 Soient ³ et u vérifiant (3.38).


a. Montrer que
xa
a, a y ´ ³ xa
a, b y
u, a y |2 <
| xu (3.39)
2
b. Montrer que si arg ³ < ´ argpxa
a, b yq rÃs alors xa a, b y P R˚` .
a, a y ´ ³ xa

c. En déduire que
ˆ ˙1{2
1 xa
a, a y ´ ³ xa
a, b y
u< pa
a ´ ³bbq, avec ¼ < ˘ (3.40)
2¼ 2
˝

Correction 3.1.8

Compiled on 2023/10/10 at [Link]


Méthodes directes 89

R. 1 Dans la suite de l’exercice, on pose H < Hpu


uq pour alléger les notations.
a. On a

a}22 < xa
}a a, a y < xH˚ Ha
a, a y car H unitaire
< xHa ay par définition du produit scalaire
a, Ha
2 2 2
a}2 < }³bb}2 < |³|2 }bb}2 < |³|2 .
< }Ha

b. On a par définition de l’argument ³ < |³|eı arg α et xa a, b y |eı argpxaa,bbyq ce qui donne
a, b y < | xa

³ xa a, b y |eıparg α`argpxaa,bbyqq
a, b y < |³|| xa (3.41)

et donc ³ xa
a, b y est réel si arg ³ ` argpxa
a, b yq < 0 rÃs.

R. 2 a. On a

uqa
Hpu uu ˚ qa
a < ³bb ðñ pI ´ 2u a < ³bb
˚
ðñ ´ 2u pu q < ³bb
a u u a

et donc
a ´ 2 xu
u, a y u < ³bb (3.42)
En effectuant le produit scalaire avec a de cette dernière équation, on obtient

xa
a, a y ´ 2 xu
u, a y xa
a, u y < ³ xa
a, b y

3.1.7 Factorisation QR
ce qui prouve (3.39).
b. On a montré en Q.1 que ³ xa
a, b y P R et donc xa a, b y P R. Il reste donc à montrer que
a, a y ´ ³ xa
xa
a, a y ´ ³ xa
a, b y ą 0.

3. Résolution de systèmes linéaires


‚ Si arg ³ < ´ argpxa
a, b yq`Ã r2Ãs, alors de (3.41) on obtient ³ xa
a, b y ď 0 et donc xa
a, a y´³ xa
a, b y ě
a}2 ą 0 car a ‰ 0.
}a
‚ Si arg ³ < ´ argpxa
a, b yq r2Ãs, alors de (3.41) on obtient ³ xa a, b y ě 0.
Comme les vecteurs a et b ne sont pas colinéaires, on a inégalité stricte dans Cauchy-Schwarz
:
| xa
a, b y | ă }a
a}2 }bb}2 < }a
a}2 .
On obtient donc
2

3.1.Méthodes directes
0 ď ³ xa
a, b y ď |³|| xa
a, b y | ă |³| }a
a}2 < }a
a}2
Attention, dans ce cas xa a, b y peut-être très petit.
a, a y ´ ³ xa
c. De (3.42), on en déduit immédiatement (3.40).
Vérifions que }u
u}2 < 1. On a
1
u}22 < xu
}u u, u y < xa
a ´ ³bb, a ´ ³bby
4|¼|2
Or

xa
a ´ ³bb, a ´ ³bby < xa
a, a y ´ ³ xbb, a y ´ ³ xa a}22 ´ ³ xbb, a y ´ ³ xa
a, b y ` |³|2 xbb, b y < }a a, b y ` |³|2
a}22 ´ ³ xbb, ay ´ ³ xa
< 2 }a a, by
2
< 2 }a a, b y car ³ xa
a}2 ´ 2³ xa a, b y < p³ xa
a, b yq < ³ xbb, a y P R

De plus

4|¼|2 < 2pxa


a, a y ´ ³ xbb, a yq P R
2
< 2 }a
a}2 ´ 2³ xbb, a y

Compiled on 2023/10/10 at [Link]


90 Résolution de systèmes linéaires

Exercice 3.1.9

Soient a et b deux vecteurs non nuls et non colinéaires de Cn avec }bb}2 < 1.

Q. 1 Ecrire la fonction algorithmique Householder permettant de retourner une matrice de


Householder H et ³ P C tels que Hpu uqa a < ³bb. Le choix du ³ est fait par le paramètre ¶ (0 ou
1) de telle sorte que arg ³ < ´ argpxa a, b yq ` ¶Ã avec |³| < }a
a}2 .
Des fonctions comme dotpa a, b q (produit scalaire de deux vecteurs), normpa
aq (norme 2 d’un vecteur),
argpzq (argument d’un nombre complexe), matprodpA, Bq (produit de deux matrices), ctransposepAq
(adjoint d’une matrice), ... pourront être utilisées ˝

Q. 2 Proposer un programme permettant de tester cette fonction. On pourra utiliser la fonction


vecrandpnq retournant un vecteur aléatoire de Cn , les parties réelles et imaginaires de chacune de
ses composantes étant dans s0, 1r (loi uniforme). ˝

Q. 3 Proposer un programme permettant de vérifier que ¶ < 1 est le "meilleur" choix. ˝

Correction 3.1.9

R. 1 Soient a et b deux vecteurs non nuls et non colinéaires de Cn .

Les données du problème sont a , b et ¶. On veut calculer ³ et la matrice Hpu


uq.

Algorithme 3.17 Calcul du ³ et de la matrice de Householder Hpu


uq telle que Hpu
uqa
a < ³bb.
3.1.7 Factorisation QR

Données : a , b : deux vecteurs de Cn non nuls et non colinéaires.


¶ : 0 ou 1, permet de déterminer ³.
Résultat : H : matrice de Householder dans Mn pCq,
³ : nombre complexe, de module }a a}2 et d’argument ´ argpxa
a, b yq ` ¶Ã.
3. Résolution de systèmes linéaires

1: Fonction rH, ³s Ð Householder ( a , b , ¶ )


2: ab Ð dotpaa, b q z dot produit scalaire dans C.
3: ³ Ð normpaaq ˚ exppi ˚ p¶ ˚ Ã ´ argpabqqq
4: u Ð a ´³˚b
5: u Ð u {normpu uq
6: H Ð eyepnq ´ 2 ˚ matprodpu u, ctransposepu
uqq
7: Fin Fonction
3.1. Méthodes directes

R. 2 1: n Ð 100
2: a Ð vecrandpnq
3: b Ð vecrandpnq
4: b Ð b{normpb
b, 2q
5: rH, ³s Ð Householderpa
a, b, 0q
6: error Ð normpH ˚ ´ ³ ˚ b, 2q
a

R. 3 1: n Ð 100
2: a Ð vecrandpnq
3: b Ð a ` 1e ´ 6 ˚ vecrandpnq
4: b Ð b {normpb b, 2q
5: rH1 , ³1 s Ð Householderpa
a, b , 1q
6: rH0 , ³0 s Ð Householderpa
a, b , 0q
7: error0 Ð normpH0 ˚ a ´ ³0 ˚ b , 2q{p1 ` absp³0 qq
8: error1 Ð normpH1 ˚ a ´ ³1 ˚ b , 2q{p1 ` absp³1 qq

Compiled on 2023/10/10 at [Link]


Méthodes directes 91

10 -9

10 -10

δ=1
10 -11 δ=0
||Ha- α b|| 2 /| α|

10 -12

10 -13

10 -14

10 -15

10 -16
10 2 10 3 10 4
n

Figure 3.1: Choix de ³ dans Householder : erreur relative en norme L2

3.1.7 Factorisation QR
˛

. Si l’on souhaite calculer le produit matrice-vecteur Hpu uqx


x, il n’est pas nécessaire de calculer

3. Résolution de systèmes linéaires


uq. En effet, on pose v < 2¼u
explicitement la matrice Hpu u < a ´ ³bb et ´ < 2¼2 < }a}22 ´ ³ xa a, b y ą 0.
On choisi ³ de manière à maximiser ´ pour éviter une division par un nombre trop petit. On prend
donc
³ < }a}2 eıpπ´argpxaa,bbyqq
On obtient alors
1 ˚ xvv , x y
uqx
Hpu x<x´ vv x < x ´ v. (3.43)
´ ´

3.1.Méthodes directes
Corollaire 3.17

Soit a P Cn avec a1 ‰ 0 et Dj P v2, nw tel que aj ‰ 0. Soient ¹ < arg a1 et

a}2 eıθe 1
a ˘ }a
u˘ <
}a a}2 eıθe 1 }
a ˘ }a

Alors
u˘ qa
Hpu a}2 eıθe 1
a < ¯ }a (3.44)
où e 1 désigne le premier vecteur de la base canonique de Cn .

Preuve. On va utiliser le Théorème 3.16.


On pose ³ < ˘ }a a}2 eıθ et b < e 1 . Comme argpxa a, b yq < arg a1 < ´ arg a1 < ´¹, on a arg ³ < ¹ rÃs <
´ argpxaa, b yq rÃs.
Les autres hypothèses du Théorème 3.16 sont vérifiées puisque le vecteur a n’est pas colinéaire à e 1 et
que }ee1 }2 < 1. On a donc
ˆ ˙
a}2 eıθe 1
a ˘ }a
H a}2 eıθe 1 .
a < ¯ }a
}a a}2 eıθe 1 }
a ˘ }a

Compiled on 2023/10/10 at [Link]


92 Résolution de systèmes linéaires

Sur le même principe que l’écriture algébrique de la méthode de Gauss, nous allons transformer la matrice
A P Mn pKq en une matrice triangulaire supérieure à l’aide de matrices de Householder. On a le théorème

Théorème 3.18

Soit A P Mn pCq une matrice. Il existe une matrice unitaire Q P Mn pCq produit d’au plus n ´ 1
matrices de Householder et une matrice triangulaire supérieure R P Mn pCq telles que

A < QR. (3.45)

Si A est réelle alors Q et R sont aussi réelles et l’on peut choisir Q de telle sorte que les coefficients
diagonaux de R soient positifs. De plus, si A est inversible alors la factorisation est unique.

Exercice 3.1.10

Soit B P Mm`n pKq la matrice bloc


ˆ ˙
B1,1 B1,2
B<
O S

où B1,1 P Mm pKq et S P Mn pKq. On note s P Kn le premier vecteur colonne de S et on suppose


que s ‰ 0 et s non colinéaire à e n1 premier vecteur de la base canonique de Kn .
3.1.7 Factorisation QR

Q. 1 uq P Mn pKq et ³ P K˚ tel que


a. Montrer qu’il existe une matrice de Householder H < Hpu
¨ ˛
˘³ ‚ ¨¨¨ ‚
˚ 0 ‚ ¨¨¨ ‚ 9
˚ 9
3. Résolution de systèmes linéaires

HS < ˚ .. .. .. 9.
˝ . . . ‚
0 ‚ ¨¨¨ ‚

b. On note u P Km`n , le vecteur défini par ui < 0, @i P v1, mw et um`i < ui , @i P v1, nw. Montrer
que ˆ ˙
B1,1 B1,2
uqB <
Hpu .
O HS
3.1. Méthodes directes

˝
Soient k P v0, n ´ 1w et Arks P Mn pKq la matrice bloc définie par
˜ ¸
rks Rrks Frks
A <
O Arks

où Rrks est une matrice triangulaire supérieure d’ordre k et Arks une matrice d’ordre n ´ k.

Q. 2 a. Sous certaines hypothèses, montrer qu’il existe une matrice de Householder Hrk`1s telle
que Hrk`1s Arks < Ark`1s .
b. Soit A P Mn pKq. Montrer qu’il existe une matrice unitaire Q P Mn pKq, produit d’au plus
n ´ 1 matrices de Housholder, et une matrice triangulaire supérieure R telles que A < QR.
c. Montrer que si A est réelle alors les coefficient diagonaux de R peuvent être choisis positifs ou
nuls.
d. Montrer que si A est réelle inversible alors la factorisation QR, avec R à coefficient diagonaux
strictement positifs, est unique.
˝

Correction 3.1.10

Compiled on 2023/10/10 at [Link]


Méthodes directes 93

R. 1 a. D’après le Corollaire 3.21, page 93, avec a < s, en posant ³ < ˘ }ss}2 eı arg s1 et
s ´ ³een1
u<
}ss ´ ³een1 }

on obtient Hpu
uq < ³een1 .
On pose H < Hpu uq. On a alors sous forme bloc
¨ ˛
¨ ˛ ˘³ ‚ ¨¨¨ ‚
‚ ¨¨¨ ‚ ˚
˚ 0 ‚ ¨¨¨ ‚ 9
HS < H˝ s .. .. 9 <
˚
˚
9
. . ‚
˝ .. .. .. 9
. . . ‚
‚ ¨¨¨ ‚
0 ‚ ¨¨¨ ‚
ˆ ˙
0m
b. On a u < et
u
ˆ ˙ ˆ ˙
˚ Im Om,n 0m ` ˚ ˘
uq < I ´ 2u
Hpu uu < ´2 0m u˚
On,m In u
ˆ ˙ ˆ ˙
Im Om,n Om Om,n
< ´2
On,m In On,m uu ˚
ˆ ˙ ˆ ˙
Im Om,n Im Om,n
< <
On,m In ´ 2uuu ˚ On,m H

Ce qui donne

3.1.7 Factorisation QR
ˆ ˙ˆ ˙ ˆ ˙
Im Om,n B1,1 B1,2 B1,1 B1,2
uqB <
Hpu < .
On,m H O S O HS

˙ ˆ

3. Résolution de systèmes linéaires


0k
R. 2 a. On note s P Kn´k le premier vecteur colonne de Arks . et u < . D’après la question
s
précédente si s ‰ 0 et s non colinéaire à e 1n´k premier vecteur de la base canonique de Kn´k alors
il existe une matrice de Householder Hrk`1s < Hpu uq et ³ P K˚ tels que
¨ ˛
Rrks Frks
˚ ¨ ˛ 9
˚ 9
˚ ˚ 9 9
˚ ˚ 9 9
˚ ˚ 9 9 ˜ ¸
˚ ˚ 9 9
˚ 9 rk`1s rk`1s

3.1.Méthodes directes
˚ 9 9< R F
Ark`1s < Hrk`1s Arks < ˚
def
˚ O ˚ 9
˚ ˚ ˘³ ‚ ¨ ¨ ¨ ‚ 9 9 O Ark`1s
˚ ˚ 9 9
9
˚ ˚ 0 ‚ ¨¨¨ ‚ 9 9
˚ ˚ 9
˚ ˚ .. .. .. 9 9
9
˝ ˝ . . . ‚‚
0 ‚ ¨¨¨ ‚

On peut remarquer que si s < 0 ou s colinéaire à e 1n´k alors Arks est déjà sous la forme Ark`1s et
donc Hrk`1s < I.
b. il suffit d’appliquer itérativement le résultat précédent n ´ 1 fois en posant Ar0s < A et Ark`1s <
Hrk`1s Arks où Hrk`1s est soit une matrice de Householder soit la matrice identité. Par construction
la matrice Arn´1s est triangulaire supérieure et l’on a

Arn´1s < Hrn´1s ˆ ¨ ¨ ¨ ˆ Hr1s A

On pose H < Hrn´1s ˆ ¨ ¨ ¨ ˆ Hr1s et R < Arn´1s . La matrice H est unitaire car produit de matrices
unitaires. On note Q < H˚ On a
Q < Hr1s ˆ ¨ ¨ ¨ ˆ Hrn´1s
car les matrices de Householder et matrice identité sont unitaires et hermitiennes.
c. Si A est réelle alors par construction Q et R sont réelles. Les coefficients diagonaux peuvent alors
être choisi positif lors de la construction de chaque matrice de Householder.

Compiled on 2023/10/10 at [Link]


94 Résolution de systèmes linéaires

d. Pour montrer l’unicité d’une telle factorisation, on note Q1 , Q2 , deux matrices orthogonales et R1 ,
R2 , deux matrices triangulaires à coefficients diagonaux positifs telles que

A < Q1 R1 < Q2 R2 .

Comme A est inversible les coefficients diagonaux de R1 et R2 sont strictement positifs. On a alors

I < AA-1 < Q1 R1 R-1 -1


2 Q2

et donc
def
Q-1 -1
1 Q2 < R1 R2 < T.

Comme Q1 est orthogonale on a T < Qt1 Q2 et


t
Tt T < pQt1 Q2 q Qt1 Q2 < Qt2 Q1 Qt1 Q2 < I.

La matrice T est donc orthogonal. De plus T < R1 R-1 2 est une matrice triangulaire supérieure à
coefficients diagonaux strictement positifs puisque produit de triangulaire supérieure à coefficients
diagonaux strictement positifs. La matrice I étant symétrique définie positive, d’après le Théorème
3.15(factorisation positive de Cholesky) il existe une unique matrice L triangulaire inférieure à
coefficients diagonaux strictement positifs telle que LLt < I. Cette matrice L est évidemment la
matrice identité. On en déduit que T < Lt < I et donc Q1 < Q2 et R1 < R2 .

˛
3.1.7 Factorisation QR

Exercice 3.1.11: Algorithmique

Q. 1 Ecrire une fonction FactQR permettant de calculer la factorisation QR d’une matrice A P


Mn pCq.
3. Résolution de systèmes linéaires

On pourra utiliser la fonction Householder (voir Exercice 3.1.9, page 90). ˝

Q. 2 Ecrire un programme permettant de tester cette fonction. ˝

Correction 3.1.11

R. 1 L’objectif est de déterminer les matrices Q, matrice unitaire, et R matrice triangulaire supérieure
telle que A < QR.
3.1. Méthodes directes

Données : A : matrice de Mn pKq.


Résultat : Q : matrice unitaire de Mn pKq.
R : matrice triangulaire supérieure de Mn pKq.

On rappelle la technique utilisée dans la correction de l’exercice 3.1.10 pour déterminer l’ensemble des
matrices de Householder permettant de transformer la matrice A en une matrice triangulaire supérieure.
On pose
Ar0s < A, Ark`1s < Hrk`1s Arks , @k P v0, n ´ 2w
où Hrk`1s est soit une matrice de Householder soit la matrice identité. Plus précisement, on note
ˆ s P˙ Kn´k
0k
le vecteur composé des n ´ k dernières composantes de la k ` 1-ème colonne de Arks et a < .
s

‚ Si s1 < 0 ou s colinéaire à en´k


1 premier vecteur de la base canonique de Kn´k alors

Hrk`1s < I.

En notant e nk`1 le k ` 1-ème vecteur de la base canonique de Kn , cette matrice peut-être calculée
avec la fonction Householder par

rHrk`1s , ³s Ð Householderpa
a, e nk`1 , 1q

‚ sinon Hrk`1s < I.

Compiled on 2023/10/10 at [Link]


Méthodes directes 95

On a vu que dans ce cas Arn´1s est triangulaire supérieure. On pose H < Hrn´1s ˆ ¨ ¨ ¨ ˆ Hr1s qui est une
matrice unitaire. On a alors R < Arn´1s < HA et Q < H˚ .

Algorithme 3.18 R0 Algorithme 3.18 R1

Calculer Q et R 1: H Ð Hrn´1s ˆ ¨ ¨ ¨ ˆ Hr1s


1:
2: RÐH˚A
3: Q Ð H˚

Algorithme 3.18 R1 Algorithme 3.18 R2

1:
H Ð Hrn´1s ˆ ¨ ¨ ¨ ˆ Hr1s 1: HÐI
RÐH˚A 2: Ar0s Ð A

3.1.7 Factorisation QR
2:
3: Q Ð H˚ 3: Pour k Ð 0 à n ´ 2 faire
4: Calculer Hrk`1s à partir de Arks
5: Ark`1s Ð Hrk`1s ˚ Arks
6: H Ð Hrk`1s ˚ H

3. Résolution de systèmes linéaires


7: Fin Pour

8: RÐH˚A z ou R Ð Arn´1s
9: Q Ð H˚

Il est inutile de stocker les matrices Arks et Hrk`1s :


Algorithme 3.18 R2 Algorithme 3.18 R3

1: H Ð I, Ar0s Ð A 1: H Ð I, R Ð A

3.1.Méthodes directes
2: Pour k Ð 0 à n ´ 2 faire 2: Pour k Ð 0 `à n ´ 2 faire
˘ `
3: Calculer Hrk`1s à partir de Arks 3: Calculer S < Hrk`1s à partir de R <
˘
4: Ark`1s Ð Hrk`1s ˚ Arks Arks
5: H Ð Hrk`1s ˚ H 4: RÐS˚R z compute Ark`1s
6: Fin Pour 5: HÐS˚H
7: R Ð Arn´1s 6: Fin Pour
8: Q Ð H˚ 7: Q Ð H˚

Algorithme 3.18 R3 Algorithme 3.18 R4

1: H Ð I, R Ð A 1: H Ð I, R Ð A
2: Pour k Ð 0 à n ´ 2 faire 2: Pour k Ð 0 à n ´ 2 faire
` ˘
Calculer S < Hrk`1s à partir de R
3: 3: a Ð r00k ; Rpk ` 1 : n, k ` 1qs
4: RÐS˚R 4: e nk`1 P Cn , enk`1 piq < ¶k`1,i , @i P v1, nw.
5: HÐS˚H 5: rR, ³s Ð Householderpa a, e nk`1 , 1q
6: Fin Pour
7: Q Ð H˚ 6: RÐS˚R
7: H Ð SH
8: Fin Pour
9: Q Ð H˚

Compiled on 2023/10/10 at [Link]


96 Résolution de systèmes linéaires

Algorithme 3.18 Fonction FactQR


Données : A : matrice de Mn pKq.
Résultat : Q : matrice unitaire de Mn pKq.
R : matrice triangulaire supérieure de Mn pKq.

1: Fonction rQ, Rs Ð FactQR ( A )


2: HÐI
3: RÐA
4: Pour k Ð 0 à n ´ 2 faire
5: a Ð 0n
6: Pour i Ð k ` 1 à n faire
7: a piq Ð Rpi, k ` 1q
8: Fin Pour
9: e Ð 0 n , e pk ` 1q Ð 1
10: rS, ³s Ð Householderpa a, e , 1q
11: RÐS˚R
12: HÐS˚H
13: Fin Pour
14: Q Ð H˚
Fin Fonction
3.2.1 Normes vectorielles

15:

R. 2 A faire!
˛
3. Résolution de systèmes linéaires

3.2 Normes vectorielles et normes matricielles

3.2.1 Normes vectorielles


3.2. Normes vectorielles et normes matricielles

Definition 3.19

Une norme sur un espace vectoriel V est une application }‚} : V Ñ R` qui vérifie les propriétés
suivantes
˛ }vv } < 0 ðñ v < 0,

˛ }³vv } < |³| }vv } , @³ P K, @vv P V,


˛ }u
u ` vv} ď }u u, vvq P V 2 (inégalité triangulaire).
u} ` }vv } , @ pu,

Une norme sur V est également appelée norme vectorielle . On appelle espace vectoriel normé
un espace vectoriel muni d’une norme.

Les trois normes suivantes sont les plus couramment utilisées :


n
ÿ
}vv }1 < |vi |
i<1
˜ ¸1{2
n
ÿ 2
}vv }2 < |vi |
i<1
}vv }8 < max |vi | .
iPv1,nw

Compiled on 2023/10/10 at [Link]


Normes vectorielles et normes matricielles 97

Proposition 3.20

Soit v P Kn . Pour tout nombre réel p ě 1, l’application }‚}p définie par


˜ ¸1{p
n
ÿ p
}vv }p < |vi |
i<1

est une norme sur Kn .

Lemme 3.21: Inégalité de Cauchy-Schwarz

x , y P Kn
@x
| xx x}2 }yy }2 .
x, y y | ď }x (3.46)
Cette inégalité s’appelle l’inégalité de Cauchy-Schwarz. On a égalité si et seulement si x et y
sont colinéaires.

3.2.2 Normes matricielles


Preuve. Exercice ??, page ??

Lemme 3.22: Inégalité de Hölder

1 1
Pour p ą 1 et p ` q < 1, on a @x
x , y P Kn
˜ ¸1{p ˜ ¸1{q
n
ÿ n
ÿ n
ÿ
p q
|xi yi | ď |xi | |yi | x}p }yy }q .
< }x (3.47)

3. Résolution de systèmes linéaires


i<1 i<1 i<1

Cette inégalité s’appelle l’inégalité de Hölder.

Preuve. Exercice ??, page ??

[Link] vectorielles et normes matricielles


Definition 3.23
1
Deux normes }‚} et }‚} , définies sur un même espace vectoriel V, sont équivalentes s’il exite
deux constantes C et C 1 telles que

x}1 ď C }x
}x x} et }x x}1 pour tout x P V.
x} ď C 1 }x (3.48)

Proposition 3.24

Sur un espace vectoriel de dimension finie toutes les normes sont équivalentes.

3.2.2 Normes matricielles

Definition 3.25

Une norme matricielle sur Mn pKq est une application }‚} : Mn pKq Ñ R` vérifiant
a. }A} < 0 ðñ A < 0,
b. }³A} < |³| }A}, @³ P K, @A P Mn pKq,

c. }A ` B} ď }A} ` }B} , @ pA, Bq P Mn pKq2 (inégalité triangulaire)

Compiled on 2023/10/10 at [Link]


98 Résolution de systèmes linéaires

d. }AB} ď }A} }B} , @ pA, Bq P Mn pKq2

Proposition 3.26

Etant donné une norme vectorielle }‚} sur Kn , l’application }‚}s : Mn pKq Ñ R` définie par

def }Avv }
}A}s < sup (3.49)
v PKn }vv }
v ‰0

est une norme matricielle, appelée norme matricielle subordonnée (à la norme vectorielle don-
née).
Elle vérifie

}A}s < sup }Avv } < sup }Avv } < inf t³ P R : }Avv } ď ³ }vv } , @vv P Kn u . (3.50)
v PKn v PKn
}v
v }ď1 }v
v }<1

De plus, pour tout v P Kn on a


}Avv } ď }A}s }vv } (3.51)
3.2.2 Normes matricielles

et il existe au moins un vecteur u P K zt0u tel que


n

}Au
u} < }A}s }u
u} . (3.52)

Soit I la matrice identité d’ordre n, on a


}I}s < 1. (3.53)

Preuve. On note B < tvv P Kn ; }vv } ď 1u la boule unitée de Kn et S < tvv P Kn ; }vv } < 1u la sphère
unitée de Kn . On note que les ensembles B et S sont des compacts car image réciproque de l’application
3. Résolution de systèmes linéaires

continue v ÞÑ }vv } par le fermé borné r0, 1s (pour la boule) et le singleton t1u (pour la sphère).

‚ Vérifions que les égalités suivantes sont vraies :

def }Avv }
3.2. Normes vectorielles et normes matricielles

}A}s < sup < sup }Avv } < sup }Avv }


v PKn }vv } v PB v PS
v ‰0

On a : :
}Avv } : v :
}A}s < sup < sup ::A : < sup }Avv }
v PKn }vv } v PKn }vv } : v PS
v ‰0 v ‰0

Comme S Ă B on a aussi
sup }Avv } ě sup }Avv } . (3.54)
v PB v PS

On peut aussi remarquer que


sup }Avv } < sup }Avv } (3.55)
v PB v PB
v ‰0
w
De plus, @w
w P Bzt0u, en posant u < }w
w} P S. on a w < }w
w } u et

}Aw
w } < }w
w } }Au u} car }w
u} ď }Au w } ď 1.

Or on a
}Au
u} ď sup }Avv } .
v PS

et on obtient alors
sup }Aw
w } ď sup }Avv } .
w PB v PS
w ‰0

En utilisant (B.87) et (B.88), on en déduit

w } < sup }Au


sup }Aw u} .
w PB u PS

Compiled on 2023/10/10 at [Link]


Normes vectorielles et normes matricielles 99

‚ Vérifions que l’application }‚}s est bien définie sur Mn pKq i.e. @A P Mn pKq, }A}s ă `8.
L’application v ÞÑ }Avv } est continue donc son sup sur la sphère unitée qui est compacte est atteint.

‚ Montrons que @vv P Kn , }Avv } ď }A}s }vv } .


On a par définition du sup

}Auu} }Avv }
}A}s < sup ě , @vv P Kn zt0u.
u PK n }u
u} }vv }
u ‰0

et donc
}Avv } ď }A}s }vv } , @vv P Kn zt0u.

‚ Montrons qu’il existe u P Kn tel que

u ‰ 0 et }Au
u} < }A}s }u
u} .

On a
}A}s < sup }Avv }
v PS

3.2.2 Normes matricielles


La sphère unité étant compacte et l’application v ÞÑ }Avv } étant continue , il existe w P S tel que
w } . Soit ¼ P K˚ et u < ¼w
}A}s < }Aw w ‰ 0. On a }u
u} < |¼| et
: :
: u :
}A}s < }Aw :
w } < :A : < 1 }Au
u} .
}u } : }u
u u}

‚ On a immédiatement
}Ivv } }vv }
}I}s < sup < sup < 1.

3. Résolution de systèmes linéaires


v PK n }vv } v PK n }vv}
v ‰0 v ‰0

‚ Montrons que }‚}s est une norme matricielle.

[Link] vectorielles et normes matricielles


a. }A}s < 0 ðñ As < O ?
ðù trivial.
ùñ Soit A P Mn pKq.

}Avv }
}A}s < 0 < sup ùñ }Avv } < 0, @vv P Kn zt0u
v PK n }vv }
v ‰0

ùñ Avv < 0 , @vv P Kn zt0u

Soit tee1 , . . . , e n u la base canonique de Kn . On a alors @j P v1, nw, Aeej < 0 et on en déduit que

ai,j < xeei , Aeej y < 0, @pi, jq P v1, nw.

et donc A < O.
b. Montrons que }³A} < |³| }A}, @³ P K, @A P Mn pKq,.
Soient ³ P K et A P Mn pKq. On a ³A P Mn pKq (car Mn pKq est un espace vectoriel) et

}³Avv } |³| }Avv }


}³A}s < sup < sup car }³u
u} < |³| }u
u}
v PKn }vv } v PK n }vv }
v ‰0 v ‰0
}Avv }
< |³| sup < |³| }A}s .
v PK n }vv }
v ‰0

c. Montrons que }A ` B}s ď }A}s ` }B}s , @ pA, Bq P Mn pKq2


Soient A et B deux matrices de Mn pKq. On a A ` B P Mn pKq car Mn pKq est un espace

Compiled on 2023/10/10 at [Link]


100 Résolution de systèmes linéaires

vectoriel et
}pA ` Bqvv } }Avv ` Bvv }
}A ` B}s < sup < sup
v PKn }vv } v PK n }vv }
v ‰0 v ‰0
}Avv } ` }Bvv }
ď sup par inégalité triangulaire dans Kn
v PK n }vv }
v ‰0
}Avv } }Bvv }
ď sup ` sup < }A}s ` }B}s .
v PKn }vv } v PK n }vv}
v ‰0 v ‰0

d. Montrons que }AB}s ď }A}s }B}s , @ pA, Bq P Mn pKq2 .


Soient A et B deux matrices de Mn pKq. On a AB P Mn pKq par définition du produit matriciel
et
}pABqvv } }ApBvv q}
}AB}s < sup < sup
v PKn }vv } v PKn }vv }
v ‰0 v ‰0
}A}s }Bvv }
ď sup car }Au
u} ď }A}s }u u P Kn
u} @u
v PK n }vv }
v ‰0
3.2.2 Normes matricielles

}Bvv }
ď }A}s sup < }A}s }B}s .
v PK n }vv }
v ‰0

Théorème 3.27

Soit A P Mn pKq. On a
3. Résolution de systèmes linéaires

ÿn
def }Avv }1
}A}1 < sup < max |aij | (3.56)
v PKn }vv }1 jPv1,nw
i<1
v ‰0

def }Avv }2 a
}A}2 < sup < Ä pA˚ Aq (3.57)
3.2. Normes vectorielles et normes matricielles

v PKn }vv }2
v ‰0
ÿn
def }Avv }8
}A}8 < sup < max |aij | (3.58)
v PKn }vv }8 iPv1,nw
j<1
v ‰0

La norme }‚}2 est invariante par transformation unitaire :

UU˚ < I ùñ }A}2 < }AU}2 < }UA}2 < }U˚ AU}2 . (3.59)

Preuve. Exercice ??, page ??

Corollaire 3.28

a. Si une matrice A est hermitienne,on a }A}2 < ÄpAq.


b. Si une matrice A est unitaire, on a }A}2 < 1.

Preuve. a. Soit A P Mn pCq une matrice hermitienne. Elle est donc normale. D’après le théorème 3.2
(réduction des matrice) page 61, il existe une matrice unitaire U et une matrice diagonale D telles
que
A < UDU˚ .
Les matrices A et D sont semblables: elles ont les mêmes valeurs propres et donc
ÄpAq < ÄpDq.

Compiled on 2023/10/10 at [Link]


Normes vectorielles et normes matricielles 101

De plus, comme A est hermitienne, ses valeurs propres sont réelles et donc D P Mn pRq. Comme la
norme 2 est invariante par transformation unitaire, on a

}A}2 < }UDU˚ }2 < }D}2 .

De plus, D étant réelle, on obtient


a a
}D}2 < Ä pD˚ Dq < Ä pD2 q

La matrice D étant diagonale on en déduit que


` ˘
Ä D2 < ÄpDq2 .

On obtient donc
}A}2 < ÄpDq < ÄpAq.

b. Si A P Mn pCq est unitaire ou si A P Mn pRq est orthogonale alors AA˚ < I et donc
a a
}A}2 < Ä pAA˚ q < Ä pIq < 1.

3.2.2 Normes matricielles


Théorème 3.29

a. Soit A une matrice carrée quelconque et }‚} une norme matricielle subordonnée ou non, quel-
conque. Alors
ÄpAq ď }A} . (3.60)

b. Etant donné une matrice A et un nombre ε ą 0, il existe au moins une norme matricielle

3. Résolution de systèmes linéaires


subordonnée telle que
}A} ď ÄpAq ` ε. (3.61)

Preuve. a. Soient A P Mn pKq et p¼, u q un élément propre de A :

[Link] vectorielles et normes matricielles


u P Cn zt00u, et u < ¼u
Au u.

‚ Si la norme matricielle est subordonnée à la norme vectorielle }‚} alors

}¼u
u} < |¼| }u
u} < }Au
u} ď }A} }u
u}

Or u P Cn zt00u et donc on en déduit que

@¼ P ÄpAq, |¼| ď }A} .

‚ Si la norme est quelconque (non forcément subordonnée), l’inégalité suivante n’est plus vérifiée

}Au
u} ď }A} }u
u} .

Par contre on a pour toute matrice B P Mn pKq

}AB} ď }A} }B} .

Comme p¼, u q un élément propre de A, on a

uu ˚ < ¼u
Au uu ˚

et donc
uu ˚ q} < }¼pu
}Apu uu ˚ q} < |¼| }u
uu ˚ } .
De plus on a
uu ˚ q} ď }A} }pu
}Apu uu ˚ q}

Compiled on 2023/10/10 at [Link]


102 Résolution de systèmes linéaires

ce qui donne
uu˚ } ď }A} }pu
|¼| }u uu˚ q}
Comme la matrice B < uu ˚ est non nulle car u non nul et

uu ˚ qu
pu u˚ qu
u < u pu uq < u xu
u, u y ‰ 0.

on obtient
|¼| ď }A}
et on en déduit alors
@¼ P ÄpAq, |¼| ď }A} .
b. voir [1], théorème 1.4-3 page 18-19.

Théorème 3.30

L’application }‚}E : Mn Ñ R` définie par


¨ ˛1{2
3.2.2 Normes matricielles

ÿ 2‚
a
}A}E < ˝ |aij | < tr pA˚ Aq, (3.62)
pi,jq<Pv1,nw2

pour toute matrice A < paij q d’ordre n, est une norme matricielle non subordonnée (pour n ě 2),
invariante par transformation unitaire et qui vérifie
?
}A}2 ď }A}E ď n }A}2 , @A P Mn . (3.63)
?
De plus }I}E < n.
3. Résolution de systèmes linéaires

Théorème 3.31

a. Soit }‚} une norme matricielle subordonnée, et B une matrice vérifiant


3.2. Normes vectorielles et normes matricielles

}B} ă 1.

Alors la matrice pI ` Bq est inversible, et


: : 1
: ´1 :
:pI ` Bq : ď .
1 ´ }B}

b. Si une matrice de la forme pI ` Bq est singulière, alors nécessairement

}B} ě 1

pour toute norme matricielle, subordonnée ou non.

Preuve. a. Par l’absurde, on suppose la matrice I ` B singulière (non inversible). Alors 0 est une de
ses valeurs propres. On note p0, u q un élément propre de I ` B. On a donc

pI ` Bqu
u<0 ô Bu
u < ´u u
ô p´1, u q élément propre de B

ce qui est en contradiction avec ÄpBq ď }B} ă 1.


La matrice I ` B est donc inversible.
Par définition de l’inverse
-1
pI ` BqpI ` Bq < I
et donc
-1 -1
pI ` Bq ` BpI ` Bq <I

Compiled on 2023/10/10 at [Link]


Normes vectorielles et normes matricielles 103

ce qui s’écrit aussi


-1 -1
pI ` Bq < I ´ BpI ` Bq .

En prenant sa norme on obtient


: : : :
: -1 : : -1 :
:pI ` Bq : < :I ´ BpI ` Bq :
: :
: -1 :
ď }I} ` :BpI ` Bq : par l’inégalité triangulaire
: :
: -1 :
ď 1 ` :BpI ` Bq : car pour une norme subordonnée }I} < 1
: :
: -1 :
ď 1 ` }B} :pI ` Bq :

Ce qui donne
: : : :
: -1 : : -1 :
:pI ` Bq : ´ }B} :pI ` Bq : ď 1

3.3.0 Suites de vecteurs et de matrices


et donc l’inégalité est démontrée.

b. On a démontré lors de la démontration par l’absurde que si I ` B est singulière (non inversible)
alors ÄpBq ě 1. Comme pour toute norme ÄpBq ď }B} (voir théorème 3.29, page 101), on obtient

}B} ě 1.

3.2.3 Suites de vecteurs et de matrices

3. Résolution de systèmes linéaires


Definition 3.32

Soit V un espace vectoriel muni d’une norme }‚}, on dit qu’une suite pvv k q d’éléments de V converge
vers un élément v P V , si
lim }vv k ´ v } < 0
kÑ8

et on écrit

[Link] vectorielles et normes matricielles


v < lim v k .
kÑ8

Théorème 3.33: admis, voir [1] Théorème 1.5-1 page 21-22

Soit B une matrice carrée. Les conditions suivantes sont équivalentes :


a. limkÑ8 Bk < 0,
b. limkÑ8 Bkv < 0 pour tout vecteur v ,

c. ÄpBq ă 1,
d. }B} ă 1 pour au moins une norme matricielle subordonnée }‚} .

Théorème 3.34: admis, voir [1] Théorème 1.5-2 page 22

Soit B une matrice carrée, et }‚} une norme matricielle quelconque. Alors
: :1{k
lim :Bk : < ÄpBq.
kÑ8

Compiled on 2023/10/10 at [Link]


104 Résolution de systèmes linéaires

3.3 Conditionnement d’un système linéaire


Pour la résolution numérique d’un système linéaire Axx < b , il est rare que les données A et b du problème
ne soient pas entachées d’erreurs (aussi minimes soient-elles). La question qui se pose alors est de savoir
si de petites perturbations sur les données ne peuvent pas entrainer des erreurs importantes sur le calcul
de la solution.

Exemple de R.S. Wilson


Soient ¨ ˛ ¨ ˛
1 1
10 7 8 7 0 0 10 5
˚ 7 5 6 5 9 ˚ 2 1
0 0 9
A<˝ ˚ 9 , ∆A < ˚ 25 25 9
8 6 10 9 ‚ ˝ 1
0 ´ 50 ´ 10011
0 ‚
1 1 1
7 5 9 10 ´ 100 ´ 100 0 ´ 50
t ` ˘
et b t < p32, 23, 33, 31q , p∆bq < 100
1
, 1
´ 100 1
, 100 1
, ´ 100 . Des calculs exacts donnent
3.3.0 Suites de vecteurs et de matrices

x<b
Ax ðñ xt < p1, 1, 1, 1q
ˆ ˙
t 91 9 27 79
u < pbb ` ∆b
Au ∆bq ðñ u < ,´ , ,
50 25 20 100
« p1.8, ´0.36, 1.3, 0.79q
t
pA ` ∆Aqvv < b ðñ v < p´81, 137, ´34, 22q
ˆ ˙
t 18283543 31504261 3741501 5235241
pA ` ∆Aqyy < pbb ` ∆b
∆bq ðñ y < ´ , ,´ ,
461600 461600 230800 461600
« p´39.61, 68.25, ´16.21, 11.34q
3. Résolution de systèmes linéaires

Il est clair sur cet exemple que de petites perturbations sur les données peuvent entrainer des erreurs
importantes sur la solution exacte.
On dit que le système linéaire prédédent est mal conditionné ou qu’il a un mauvais conditionnement
car il est sujet à de fortes variations de la solution pour de petites perturbations des données. A contrario,
on dit qu’il est bien conditionné ou qu’il a un bon conditionnement si de petites perturbations des
données n’entrainent qu’une variation raisonnable de la solution.
Une nouvelle question : est-il possible de "mesurer" le conditionnement d’une matrice?
3.3. Conditionnement d’un système linéaire

Définitions et résultats

Definition 3.35

Soit }.} une norme matricielle subordonnée, le conditionnement d’une matrice régulière A, associé
à cette norme, est le nombre : :
condpAq < }A} :A-1 : .
Nous noterons condp pAq < }A}p }A-1 }p .

Proposition 3.36

Soit A une matrice régulière. On a les propriétés suivantes


a. @³ P K˚ , condp³Aq < condpAq.
b. condp pAq ě 1, @p P v1, `8w.

c. cond2 pAq < 1 si et seulement si A < ³Q avec ³ P K˚ et Q matrice unitaire

Preuve. Soit A une matrice régulière.

Compiled on 2023/10/10 at [Link]


Conditionnement d’un système linéaire 105

a. Soit ³ P K˚ , on a
: : : :
: -1 : : 1 -1 :
condp³Aq < }³A} :p³Aq : < |³| }A} : A ::
:
def

³
1 :: -1 :: : -1 :
< |³| }A} A < }A} :A :
|³|
< condpAq

b. On a I < AA-1 . Or pour toute norme subordonnée, on a }I} < 1 et donc 1 < }AA-1 } ď }A} }A-1 } <
condpAq.
c. Admis. Voir par exemple [7] Théorème 2 page 142-143.

Théorème 3.37

Soit A une matrice inversible. Soient x et x ` ∆x les solutions respectives de

3.3.0 Suites de vecteurs et de matrices


x<b
Ax et A px
x ` ∆x
∆xq < b ` ∆b
∆b.

Supposons b ‰ 0 , alors l’inégalité


∆x
}∆x
∆x} ∆b
}∆b
∆b}
ď condpAq
}x
x} }bb}
est satisfaite, et c’est la meilleure possible : pour une matrice A donnée, on peut trouver des vecteurs
b ‰ 0 et ∆b ‰ 0 tels qu’elle devienne une égalité.

Preuve. On a

3. Résolution de systèmes linéaires


x<b
Ax et x ` ∆x
A px ∆xq < b ` ∆b
or A px
x ` ∆x
∆xq < Ax ∆x et donc A∆x
x ` A∆x ∆x < ∆b ou encore ∆x < A-1∆b
∆b. Ceci donne
: -1 : : -1 :
∆x} < :A ∆b : ď :A : }∆b
∆x
}∆x ∆b
∆b}

et
}bb} < }Ax
x} ď }A} }x
x} .
On en déduit : :
x} :A-1 : }∆b

[Link] d’un système linéaire


∆x
}∆x
∆x} }bb} ď }A} }x ∆b
∆b} .
Comme b ‰ 0 , on a x < A-1b ‰ 0 et, les normes étant positives, on obtient
∆x
}∆x
∆x} ∆b
}∆b
∆b}
ď condpAq
}x
x} }bb}
D’après la Proposition 3.26, pour toute norme matricielle subordonnée il existe au moins un vecteur
u P Kn zt0u et un vecteur v P Kn zt0u tel que
: -1 : : -1 :
:A u: < :A : }u
u} et }Avv } < }A} }vv } .

En posant b < Avv et ∆b < u on a bien égalité.

Théorème 3.38

Soient A et A ` ∆A deux matrices inversibles. Soient x et x ` ∆x les solutions respectives de

x < b et pA ` ∆Aq px
Ax ∆xq < b .
x ` ∆x

Supposons b ‰ 0 , alors on a
∆x
}∆x
∆x} }∆A}
ď condpAq .
}x
x ` ∆x
∆x} }A}

Compiled on 2023/10/10 at [Link]


106 Résolution de systèmes linéaires

Preuve. On a
x < b < pA ` ∆Aq px
Ax x ` ∆x
∆xq < Ax ∆x ` ∆A px
x ` A∆x x ` ∆x
∆xq

et donc
∆x ` ∆A px
A∆x ∆xq < 0 ðñ ∆x < ´A-1 ∆A px
x ` ∆x x ` ∆x
∆xq

On en déduit alors
: : : : : :
∆x} < :A-1 ∆A px
∆x
}∆x ∆xq: ď :A-1 : }∆A px
x ` ∆x ∆xq} ď :A-1 : }∆A} }x
x ` ∆x x ` ∆x
∆x}

def condpAq
De plus, on a condpAq < }A} }A-1 } et donc }A-1 } < }A} ce qui donne

}∆A}
∆x
}∆x
∆x} ď condpAq }x
x ` ∆x
∆x} .
}A}
-1
Comme b ‰ 0, on a x ` ∆x < pA ` ∆Aq b ‰ 0 et de l’inégalité précédente, on déduit alors

∆x
}∆x
∆x} }∆A}
ď condpAq .
` ∆x
}x ∆x}
x }A}
3.4.2 Présentation des méthodes usuelles

Remarque 6. a. Plus le conditionnement d’une matrice est proche de 1, meilleur il est.

b. Si une matrice A est mal conditionnée, il est possible de trouver une matrice P inversible tel que la
matrice P-1 A soit mieux conditionné... Résoudre Ax x < b est alors équivalent à résoudre P-1 Axx<
-1
P b . La matrice P est appelé préconditionneur. Le choix P < A est idéal mais n’est pas réellement
utilisable. Si A est une matrice dominante alors on peut utiliser le préconditionneur de Jacobi:
3. Résolution de systèmes linéaires

P < diagpAq.

3.4 Méthodes itératives

3.4.1 Principe
On souhaite résoudre le système linéaire Ax
x < b par des méthodes itératives. Ces dernières consitent
en la détermination d’une matrice d’itération B et d’un vecteur c tels que la suite de vecteurs x rks
définie par
x rk`1s < Bxxrks ` c , k ě 0, x r0s arbitraire
3.4. Méthodes itératives

soit telle que limkÑ8 x rks < x et x solution de Ax


x < b . Bien évidemment les matrices B et les vecteurs c
dépendront de A et b .
Nous allons étudier plusieurs méthodes itératives et pour chacune d’entre elles nous expliciterons la
matrice d’itération B et le vecteur c associé.

3.4.2 Présentation des méthodes usuelles


Soit A P Mn pKq une matrice régulière, d’éléments diagonaux non-nuls, et b P Kn . On note D la matrice
diagonale telle que D < diagpAq, E la matrice triangulaire inférieure à diagonale nulle définie par
"
eij < 0, iďj
(3.64)
eij < ´aij iąj

et F la matrice triangulaire supérieure à diagonale nulle définie par


"
fij < 0, iěj
(3.65)
fij < ´aij i ă j

Compiled on 2023/10/10 at [Link]


Méthodes itératives 107

On a alors
¨ ˛ ¨ ˛ ¨ ˛
¨¨¨
a1,10 0 0 ¨¨¨ ¨¨¨ 0 0 a1,2 ¨¨¨ a1,n
˚ .. .. .. 9 ˚ .. .. 9 ˚ .. .. .. .. 9
˚ . . 9 ˚ a . . 9 ˚ . . 9
˚ 0 . 9 ˚ 2,1 9 ˚ . . 9
A < ˚ 9`˚ 9`˚ 9
˚ .. .. .. 9 ˚ .. .. .. .. 9 ˚ .. .. 9
˝ . . 0 . ‚ ˝ . . . . ‚ ˝ . . an´1,n ‚
0 0 an,n ¨¨¨ an,1 ¨ ¨ ¨ an,n´1 0 0 ¨¨¨ ¨¨¨ 0
¨ ˛
..
˚ . ´F9
< D´E´F<˚
˝ D 9
‚ (3.66)
..
´E .
On rappelle que la i-ème équation du système linéaire Ax
x < b s’écrit
n
ÿ i´1
ÿ n
ÿ
bi < ai,j xj < ai,j xj ` ai,i xi ` ai,j xj . (3.67)
j<1 j<1 j<i`1

Il faut aussi noter que la matrice diagonale D est inversible car les éléments diagonaux de A sont non nuls
par hypothèse.

Méthode de Jacobi

3.4.2 Présentation des méthodes usuelles


Pour obtenir la méthode itérative de Jacobi, il suffit de mettre, dans la formule (3.4.2), l’itéré k ` 1 sur
le terme diagonale et l’itéré k sur les autres termes pour avoir
i´1
ÿ n
ÿ
rks rk`1s rks
bi < ai,j xj ` ai,i xi ` ai,j xj .
j<1 j<i`1

ce qui donne ˜ ¸
n
ÿ
rk`1s 1 rks
xi < bi ´ aij xj @i P v1, nw (3.68)

3. Résolution de systèmes linéaires


aii j<1,j‰i

Méthode de Gauss-Seidel
Pour obtenir la méthode itérative de Jacobi, il suffit de mettre, dans la formule (3.4.2), l’itéré k ` 1 sur
la partie triangulaire inférieure et l’itéré k sur les autres termes pour avoir
i´1
ÿ n
ÿ
rk`1s rk`1s rks
bi < ai,j xj ` ai,i xi ` ai,j xj .
j<1 j<i`1

ce qui donne ˜ ¸
i´1
ÿ n
ÿ
pk`1q 1 rk`1s rks
xi < bi ´ aij xj ´ aij xj @i P v1, nw (3.69)
aii

3.4.Méthodes itératives
j<1 j<i`1

Méthodes de relaxation
Ces méthodes sont basées sur un paramètre de relaxation w P R˚ et sont données par
rk`1s rk`1s rks
xi < wxi ` p1 ´ wqxi
rk`1s
où xi est obtenu à partir de l’une des deux méthodes précédentes.
Avec la méthode de Jacobi
˜ ¸
ÿn
pk`1q w rks rks
xi < bi ´ aij xj ` p1 ´ wqxi @i P v1, nw.
aii j<1,j‰i

Avec la méthode de Gauss-Seidel


˜ ¸
i´1
ÿ ÿn
rk`1s w rk`1s rks rks
xi < bi ´ aij xj ´ aij xj ` p1 ´ wqxi @i P v1, nw
aii j<1 j<i`1

Cette dernière méthode de relaxation, utilisant la méthode de Gauss-Seidel, est appelée méthode S.O.R.
(successive over relaxation)

Compiled on 2023/10/10 at [Link]


108 Résolution de systèmes linéaires

Exercice 3.4.1

En écrivant A sous la forme A < D ´ E ´ F, montrer que les méthodes itératives de Jacobi, Gauss-
Seidel et S.O.R. s’écrivent sous la forme x rk`1s < Bx
xrks ` c , où l’on exprimera les matrices B et les
vecteurs c en fonction de D, E, F et b .

Correction 3.4.1 On rappelle que la i-ème équation du système linéaire Ax


x < b s’écrit
n
ÿ i´1
ÿ n
ÿ
bi < ai,j xj < ai,j xj ` ai,i xi ` ai,j xj .
j<1 j<1 j<i`1

et que ceci correspond à l’écriture matricielle

b < Dx
x ´ Ex
x ´ Fx
x

‚ Pour la méthode de Jacobi on a, @i P v1, nw,


i´1
ÿ n
ÿ
rk`1s rks rks
bi < ai,i xi ` ai,j xj ` ai,j xj .
j<1 j<i`1
3.4.2 Présentation des méthodes usuelles

ce qui s’écrit matriciellement


xrk`1s ´ Ex
b < Dx xrks ´ Fx
xrks .
On a donc
xrk`1s < b ` pE ` Fqx
Dx xrks
Comme la matrice D est inversible, on obtient

x rk`1s < D-1 pE ` Fqx


xrks ` D-1b
3. Résolution de systèmes linéaires

La matrice d’itération de Jacobi est B < D-1 pE ` Fq et le vecteur c < D-1b .


‚ Pour la méthode de Gauss-Seidel on a, @i P v1, nw,
i´1
ÿ n
ÿ
rk`1s rk`1s rks
bi < ai,i xi ` ai,j xj ` ai,j xj .
j<1 j<i`1

ce qui s’écrit matriciellement


xrk`1s ´ Ex
b < Dx xrk`1s ´ Fx
xrks .
On a donc
xrk`1s < b ` Fx
pD ´ Eqx xrks
Comme la matrice D ´ E est inversible (matrice triangulaire inférieure d’éléments diagonaux non
3.4. Méthodes itératives

nuls), on obtient
x rk`1s < pD ´ Eq Fxxrks ` pD ´ Eq-1b
-1

-1 -1
La matrice d’itération de Gauss-Seidel est B < pD ´ Eq F et le vecteur c < pD ´ Eq b .
‚ Pour la méthode S.O.R. on a , @i P v1, nw,
˜ ¸
i´1
ÿ ÿn
rk`1s w rk`1s rks rks
xi < bi ´ aij xj ´ aij xj ` p1 ´ wqxi
aii j<1 j<i`1

ce qui s’écrit aussi


i´1 n
aii rk`1s ÿ rk`1s
ÿ rks 1´w rks
xi ` aij xj < bi ´ aij xj ` aii xi
w j<1 j<i`1
w

et matriciellement on obtient
ˆ ˙ ˆ ˙
D rk`1s 1´w
´E x < D ` F x rks ` b .
w w

Compiled on 2023/10/10 at [Link]


Méthodes itératives 109

`D ˘
Comme la matrice w ´ E est inversible (car triangulaire inférieure à éléments diagonaux non
nuls), on a
ˆ ˙-1 ˆ ˙ ˆ ˙-1
rk`1s D 1´w rks D
x < ´E D`F x ` ´E b
w w w
`D ˘-1 ` 1´w ˘ `D ˘-1
La matrice d’itération de S.O.R. est B < w ´E w D ` F et le vecteur c < w ´ E b.

Proposition 3.39

Soit A une matrice régulière telle que tous ses éléments diagonaux soient non nuls. On note D <
diagpAq et E, F, les matrices à diagonales nulles respectivement triangulaire inférieure et supérieure
telles que A < D ´ E ´ F. On pose L < D-1 E et U < D-1 F.
La matrice d’itération de la méthode de Jacobi, notée J, est donnée par

J < D-1 pE ` Fq < L ` U, (3.70)

La matrice d’itération de la méthode S.O.R., notée Lw , est donnée par

3.4.2 Présentation des méthodes usuelles


ˆ ˙-1 ˆ ˙
D 1´w -1
Lw < ´E D`F < pI ´ wLq pp1 ´ wqI ` wUq . (3.71)
w w

et elle vérifie
ÄpLw q ě |w ´ 1|. (3.72)
La matrice d’itération de Gauss-Seidel est L1 et elle correspond à

3. Résolution de systèmes linéaires


-1 -1
L1 < pD ´ Eq F < pI ´ Lq U. (3.73)

Preuve. Les résultats découlent de l’Exercice 3.4.1 pour l’écriture en fonction des matrices D, E et F.
Pour l’écriture en fonction des matrices L et U seule l’équation (3.71) n’est pas forcément immédiate. On
a vu que
ˆ ˙-1 ˆ ˙
D 1´w
Lw < ´E D`F
w w
et comme E < DL et F < DU on obtient
ˆ ˙-1 ˆ ˙
D 1´w
Lw < ´ DL D ` DU
w w
ˆ ˙-1 ˆ ˙

3.4.Méthodes itératives
1 1
< DrI ´ wLs Drp1 ´ wqI ` wUs
w w
ˆ ˙-1 ˆ ˙
-1 1 1
< pI ´ wLq D D pp1 ´ wqI ` wUq
w w
-1
< pI ´ wLq pp1 ´ wqI ` wUq

Il reste à démontrer l’inégalité (3.72). La matrice L est triangulaire inférieure à diagonale nulle car elle
est le produit d’une matrice diagonale (et donc triangulaire inférieure) D-1 et d’une matrice triangulaire
inférieure E à diagonale nulle. De même la matrice U est triangulaire supérieure à diagonale nulle.
On sait que le déterminant d’une matrice est égale aux produits de ses valeurs propres comptées avec
leurs multiplicités. En notant n la dimension de la matrice Lw , et en notant ¼i pLw q ses n valeurs propres,
on a donc
n
ź
detpLw q < ¼i pLw q.
i<1

Le rayon spectrale de Lw , noté ÄpLw q, correspond au plus grand des modules des valeurs propres. On a
alors
ÄpLw q < max |¼i pLw q| ě | detpLw q|1{n
iPv1,nw

Compiled on 2023/10/10 at [Link]


110 Résolution de systèmes linéaires

De plus on a
´ ¯ ´ ¯
-1 -1
detpLw q < det pI ´ wLq pp1 ´ wqI ` wUq < det pI ´ wLq det ppp1 ´ wqI ` wUqq

La ´matrice I ´¯wL est triangulaire inférieure à diagonale unité donc son inverse aussi. On en déduit
-1
det pI ´ wLq < 1. La matrice p1´wqI`wU est triangulaire supérieure avec tous ses éléments diagonaux
valant 1 ´ w et donc det ppp1 ´ wqI ` wUqq < p1 ´ wqn . On a alors | detpLw q| < |1 ´ w|n et
ÄpLw q ě | detpLw q|1{n < |1 ´ w|.

3.4.3 Etude de la convergence

Théorème 3.40

Soit A une matrice régulière décomposée sous la forme A < M ´ N avec M régulière. On pose

B < M-1 N et c < M-1b .

Alors la suite définie par


x r0s P Kn et x rk`1s < Bx
xrks ` c
3.4.3 Etude de la convergence

x < A-1b quelque soit x r0s si et seulement si ÄpBq ă 1.


converge vers x̄

Preuve. Comme x̄
x < A-1b (sans présupposer la convergence) on a Mx̄ x ` b et alors
x < Nx̄

x < M-1 Nx̄


x̄ x ` M-1b < Bx̄
x `c
3. Résolution de systèmes linéaires

On obtient donc
x ´ x rk`1s < Bpx̄
x̄ x ´ x rks q
def
Or la suite x rks converge vers x̄
x si et seulement si la suite e rks < x̄
x ´ x rks converge vers 0 . On a

e rks < Bke r0s , @k P N.

D’après le Théoréme 3.33, page 103, on a limkÑ`8 Bke r0s < 0, @eer0s P Kn si et seulement si ÄpBq ă 1.

Corollaire 3.41
3.4. Méthodes itératives

Soit A une matrice vérifiant ai,i ‰ 0 @i. Une condition nécessaire de convergence pour la méthode
S.O.R. est que 0 ă w ă 2.

Preuve. On a vu en (voir Proposition 3.39, page 109) que ÄpLw q ě |w ´ 1|. Donc si ÄpLw q ě 1, la
non-convergence est certaine d’après le Théoréme 3.33, page 103. Une condition nécessaire (mais non
suffisante) de convergence est que |w ´ 1| ă 1 i.e. w Ps0, 2r.

Théorème 3.42

Soit A une matrice à diagonale strictement dominante ou une matrice inversible à diagonale forte-
ment dominante alors
• la méthode de Jacobi est convergente,
• si w Ps0, 1s la méthode de Relaxation est convergente.

Preuve. voir [7], vol.2, Théorème 19 et 20, pages 346 à 349.

Compiled on 2023/10/10 at [Link]


Méthodes itératives 111

Théorème 3.43

Soit A une matrice hermitienne inversible en décomposée en A < M ´ N où M est inversible. Soit
B < I ´ M-1 A, la matrice de l’itération. Supposons que M˚ ` N (qui est hermitienne) soit définie
positive. Alors ÄpBq ă 1 si et seulement si A est définie positive.

Preuve. (voir Exercice 3.4.2, page 111)

Exercice 3.4.2

Soit A P Mn,n pCq une matrice hermitienne inversible décomposée en A < M ´ N où M est inversible.
On note B < I ´ M-1 A.

Q. 1 Montrer que la matrice M˚ ` N est hermitienne. ˝


On suppose maintenant que M˚ ` N est définie positive.
Q. 2 Soit x un vecteur quelconque de Cn et y < Bx
x.

a. Montrer que
@ D @ D @ D
xx xy ´ xyy , Ayy y < x , AM-1 Ax
x, Ax x ` M-1 Ax x ´ M-1 Ax
x, Ax x, AM-1 Ax
x (3.74)

3.4.3 Etude de la convergence


et
x ´ y < M-1 Ax
x. (3.75)

b. En déduire que
xx x ´ y q, pM˚ ` Nqpx
xy ´ xyy , Ayy y < xpx
x, Ax x ´ y qy . (3.76)

3. Résolution de systèmes linéaires


˝

Q. 3 Montrer que si A est définie positive alors ÄpBq ă 1. ˝

Q. 4 Démontrer par l’absurde que si ÄpBq ă 1 alors A est définie positive. ˝

Correction 3.4.2
R. 1 On a
` ˘˚
M˚ ` N < M ` N˚

3.4.Méthodes itératives
< A ` N ` N˚ < A˚ ` N ` N˚ car A est hermitienne
< M˚ ` N.

La matrice M˚ ` N est donc hermitienne.

R. 2 a. On a y < Bx
x avec B < I ´ M-1 A ce qui donne
` ˘
x ´ y < x ´ Bxx < I ´ B x < M-1 Ax
x.

L’équation (3.75) est donc démontrée. Pour prouver (3.74), on note que

y < x ´ M-1 Ax
x

et donc
@ ` ˘D
xyy , Ayy y < x ´ M-1 Axx, A x ´ M-1 Ax
x
@ D @ D @ D
< xx xy ´ M-1 Ax
x, Ax x ´ x , AM-1 Ax
x, Ax x ` M-1 Ax
x, AM-1 Ax
x .

On en déduit immédiatement (3.74).

Compiled on 2023/10/10 at [Link]


112 Résolution de systèmes linéaires

b. En utilisant (3.75), on obtient


@ ` ˘ D @ ` ˘ D
x ´ y , M˚ ` N px x, M˚ ` N M-1 Ax
x ´ y q < M-1 Ax x
@ ` ˘ D
x, M ` N˚ M-1 Ax
< M-1 Ax x car M˚ ` N hermitienne
@ ` ˘ D
x, M ` M˚ ´ A˚ M-1 Ax
< M-1 Ax x car N < M ´ A
@ D @ D @ D
< M-1 Ax
x, Ax x, M˚ M-1 Ax
x ` M-1 Ax x ´ M-1 Ax x car A hermitienne
x, AM-1 Ax

Or, par propriété du produit scalaire, on a


@ -1 D @ D @ D @ D
M Ax x, M˚ M-1 Ax
x < MM-1 Ax x, M-1 Ax
x < Ax x < x , A˚ M-1 Ax
x, M-1 Ax x .

Comme A est hermitienne, on obtient


@ -1 D @ D
M Ax x, M˚ M-1 Ax
x < x , AM-1 Ax
x .

On abouti alors à
@ ` ˘ D @ D @ D @ D
x ´ y , M˚ ` N px
x ´ y q < M-1 Ax x ` x , AM-1 Ax
x, Ax x ´ M-1 Ax
x, AM-1 Ax
x .

L’équation (3.76) est obtenue en utilisant (3.74).

R. 3 On veut démontrer que sous les hypothèses A hermitienne définie positive et M˚ ` N (hermitienne)
3.4.3 Etude de la convergence

définie positive on a ÄpBq ă 1, c’est à dire que pour tout élément propre p¼, u q de B alors |¼| ă 1.
Soit p¼, u q P C ˆ Cn zt0u un élément propre de B. On a Bu u. En prenant x < u dans Q.2, on a
u < ¼u
y < Buu < ¼u u et donc x ´ y < p1 ´ ¼quu. De (3.76) on obtient

xu uy ´ x¼u
u, Au u, pM˚ ` Nqpp1 ´ ¼qu
uy < xp1 ´ ¼qu
u, ¼Au uqy
3. Résolution de systèmes linéaires

c’est à dire
p1 ´ |¼|2 q xu
u, Au u, pM˚ ` Nqu
uy < |1 ´ ¼|2 xu uy . (3.77)
Comme par hypothèse, la matrice M˚ ` N (hermitienne) est définie positive et u ‰ 0, on obtient

u, pM˚ ` Nqu
xu uy ą 0

et donc on déduit de (3.77) que


p1 ´ |¼|2 q xu uy ě 0.
u, Au
Comme A hermitienne définie positive et u ‰ 0, on déduit de (3.77) que 1 ´ |¼|2 ě 0 et donc |¼| ď 1.
On va démontrer par l’absurde que |¼| ‰ 1. On suppose |¼| < 1, de (3.77) on déduit
3.4. Méthodes itératives

u, pM˚ ` Nqu
|1 ´ ¼|2 xu uy < 0.

Comme par hypothèse, la matrice M˚ `N (hermitienne) est définie positive et u ‰ 0, on obtient |1´¼|2 < 0,
c’est à dire ¼ < 1. Or dans ce cas on a

y < Bx
x < Bu
u < ¼u
u < u.

L’équation (3.75) donne alors


0 < M-1 Au
u.
Comme u ‰ 0, et que M-1 A est inversible, l’équation ci-dessus est impossible, donc |¼| ‰ 1.

R. 4 On veut démontrer par l’absurde que, sous les hypothèses M˚ ` N (hermitienne) définie positive, A
hermitienne inversible et ÄpBq ă 1, on a A définie positive.
On suppose que A n’est pas définie positive. Alors il existe x P Cn zt0u tel que xx xy R R`˚ .
x, Ax
Pour une matrice quelconque que xx xy P C, or comme A est hermitienne on a xx
x, Ax xy P R. En effet,
x, Ax
par propriété du produit scalaire on a

xx xy < xA˚x , x y < xAx


x, Ax x, x y < xx xy.
x, Ax

Compiled on 2023/10/10 at [Link]


Méthodes itératives 113

@ D
On note xr0s < x et ³0 < xr0s , Ax
xr0s le nombre réel négatif ou nul (³0 ď 0). On défini alors pour les
suites A E
xrks < Bx
xrk´1s et ³k < xrks , Ax
xrks .
On a alors
x rks < Bkx r0s , @k P N.
D’après le théorème du cours (Théorème B.72 page 195),
ÄpBq ă 1 ðñ lim Bkv < 0, @vv P Cn .
kÑ`8

On a donc
lim x rks < 0 et lim ³k < 0
kÑ`8 kÑ`8

On utilise maintenant l’égalité (3.76) avec x < x rk´1s et y < Bxx < x rks
A E A E A E
x rk´1s , Ax
xrk´1s ´ x rks , Ax
xrks < px xrk´1s ´ x rks q, pM˚ ` Nqpx
xrk´1s ´ x rks q

On peut noter que x rk´1s ´ x rks ‰ 0, car sinon x rk´1s < x rks < Bx
xrk´1s et ¼ < 1 serait valeur propre de
rk´1s
B . il faudrait montrer que x ‰0
Dans ce cas, comme M˚ ` N est définie positive, on obtient
A E A E
xrk´1s , Ax
xrk´1s ´ xrks , Ax xrks < ³k´1 ´ ³k ą 0.

La suite p³k qkPN est donc strictement décroissante de premier terme ³0 ď 0: elle ne peut converger vers

3.4.3 Etude de la convergence


0.
Montrons par récurrence forte que x rks ‰ 0, x rks ´ x rk´1s ‰ 0, et 0 ě ³k´1 ą ³k , k P N˚ .
‚ Initialisation : On a x r0s ‰ 0 et x r1s < Bxxr0s .
On montre par l’absurde que x ‰ 0. Supposons x r1s < 0, alors ³1 < 0 et x r0s ´ x r1s < x r0s ‰ 0.
r1s

Comme M˚ ` N est hermitienne définie positive on obtient

3. Résolution de systèmes linéaires


A E
³0 ´ ³1 < px xr0s ´ x r1s q, pM˚ ` Nqpx
xr0s ´ x r1s q ą 0

et contradiction avec ³0 ď 0.
On montre ensuite par l’absurde que x r0s ‰ x r1s . Supposons x r1s < x r0s . Par construction x r1s <
xr0s , et dans ce cas, comme x r0s ‰ 0, p1, x r0s q serait un élément propre de B: contradiction avec
Bx
ÄpBq ă 1.
Comme x r0s ´ x r1s ‰ 0, on a
A E
³0 ´ ³1 < px xr0s ´ xr1s q, pM˚ ` Nqpx xr0s ´ xr1s q ą 0

3.4.Méthodes itératives
et donc 0 ě ³0 ą ³1 .
‚ Hérédité : On suppose la propriété vraie jusqu’au rang k. On a alors x rks ‰ 0, x rk`1s < Bx xrks et
³k ď 0.
On montre par l’absurde que x rk`1s ‰ 0. Supposons x rk`1s < 0, alors ³k`1 < 0 et x rks ´ x rk`1s <
x rks ‰ 0. Comme M˚ ` N est hermitienne définie positive on obtient
A E
³k ´ ³k`1 < px xrks ´ x rk`1s q, pM˚ ` Nqpx
xrks ´ x rk`1s q ą 0

et contradiction avec ³k ď 0.
On montre ensuite par l’absurde que x rks ‰ x rk`1s . Supposons x rk`1s < x rks . Par construction
x rk`1s < Bx
xrks , et dans ce cas, comme x rks ‰ 0, p1, x rks q serait un élément propre de B: contradiction
avec ÄpBq ă 1.
Comme x rks ´ x rk`1s ‰ 0, on a
A E
³k ´ ³k`1 < px xrks ´ xrk`1s q, pM˚ ` Nqpx xrks ´ xrk`1s q ą 0

et donc 0 ě ³k ą ³k`1 .
˛

Compiled on 2023/10/10 at [Link]


114 Résolution de systèmes linéaires

Théorème 3.44

Soit A une matrice hermitienne définie positive, alors la méthode de relaxation converge si et seule-
ment si w Ps0, 2r.

Preuve. voir [7], vol.2, Corollaire 24, page 351.

3.4.4 Algorithmes

Nous allons écrire des algorithmes pour chacune des méthodes itératives proposées. L’objectif n’est pas
d’écrire des algorithmes "optimisés" mais de voir la méthodologie permettant la construction d’algorithmes
simples et fonctionnels.

Principe de base

Les méthodes itératives pour la résolution d’un système linéaire Ax


x < b s’écrivent sous la forme

x r0s P Kn et x rk`1s < Bx


xrks ` c

La matrice d’itération B et le vecteur c sont construits de telle sorte que si la suite px xrks qkPN converge
3.4.4 Algorithmes

vers x̄ alors x̄ est aussi solution du système linéaire Ax < .


x x x b
Comme pour les méthodes de point fixe, La convergence de ces méthodes n’est pas assurée et si il y a
convergence le nombre d’itération nécessaire n’est (à priori) pas connu. C’est pourquoi algorithmiquement
3. Résolution de systèmes linéaires

on utilise une boucle Tantque. On défini alors un nombre maximum d’itérations au delà du quel
les calculs itératifs sont stoppés et une valeur ε ą 0 permettant d’arrêter les calculs lorsque x rks est
suffisament proche de x̄ x. Pour être plus précis, on note r rks < b ´ Ax
xrks le résidu. On a alors

r rks < Ax̄ xrks < Aeerks


x ´ Ax

Si on prend comme critère d’arrêt


3.4. Méthodes itératives

: rks :
:r :
ďε
}bb}

alors
: : : : : :
: rks : : -1 rks : :: -1 :: : rks : : : : : : :
x} ď ε :A-1 : }A} }x̄
:ee : < :A r : ď A :rr : ď ε :A-1 : }bb} < ε :A-1 : }Ax̄ x} < ε condpAq }x̄
x}

et donc
: rks :
:e :
ď ε condpAq
}x̄
x}

Pour éviter des soucis lorsque }bb} est proche de zéro, on peut utiliser comme critère d’arrêt de convergence
: rks :
:r :
ď ε.
}bb} ` 1

Comme vu avec les méthodes itératives de type point fixe (voir section 2.2.3, page 30), il n’est pas
forcément utile de stocker l’intégralité des termes de la suite x rks puisque seul le "dernier" nous intéresse.
On a alors L’Algorithme 3.19 correspondant à un algorithme itératif générique sans stockage des valeurs
intermédiaires.

Compiled on 2023/10/10 at [Link]


Méthodes itératives 115

Algorithme 3.19 Méthode itérative pour la résolution d’un système linéaire Ax


x<b

Données :
A : matrice de Mn pKq ,
b : vecteur de Kn ,
x0 : vecteur initial de Kn ,
ε : la tolérence, ε P R` ,
kmax : nombre maximum d’itérations, kmax P N˚
Résultat :
x tol : un vecteur de Kn si convergence, sinon H

1: k Ð 0, x tol Ð H
2: x Ð x0 , r Ð b ´ Ax x,
3: tol Ð εp}bb} ` 1q
4: Tantque }rr } ą tol et k ď kmax faire
5: k Ðk`1
6: p Ðx z p contient le vecteur précédent
7: x Ð calcul de l’itérée suivante en fonction de p , A, b , ...
8: r Ð b ´ Ax x,
9: Fin Tantque
10: Si }rr } ď tol alors z Convergence
11: x tol Ð x
12: Fin Si

3.4.4 Algorithmes
Méthode de Jacobi

3. Résolution de systèmes linéaires


Pour Jacobi, la suite des itérées est définie par

˜ ¸
n
ÿ
rk`1s 1 rks
xi < bi ´ aij xj , @i P v1, nw.
aii j<1,j‰i

3.4.Méthodes itératives
Cette formule donne explicitement les composantes du vecteur x rk`1s en fonction de la matrice A, et des
vecteurs b et x rks . A partir de l’Algorithme 3.19, on va construire par raffinements successifs la RSLJacobi
donnée dans l’Algorithme 3.20.

Algorithme 3.20 R0 Algorithme 3.20 R1

1: k Ð 0, xtol Ð H 1: k Ð 0, xtol Ð H
2: x Ð x 0 , r Ð b ´ Ax
x, 2: x Ð x 0 , r Ð b ´ Ax
x,
3: tol Ð εp}bb} ` 1q 3: tol Ð εp}bb} ` 1q
4: Tantque }rr } ą tol et k ď kmax faire 4: Tantque }rr } ą tol et k ď kmax faire
5: k Ðk`1 5: k Ðk`1
6: p Ðx 6: p Ðx
7:
x Ð calcul par Jacobi 7: Pour i Ð 1˜à n faire ¸
8: ÿn
1
9: r Ð b ´ Ax x, 8: xi Ð bi ´ aij p j
10: Fin Tantque aii j<1,j‰i
11: Si }r
r } ď tol alors z Convergence 9: Fin Pour
12: x tol Ð x
13: Fin Si 10: r Ð b ´ Ax x,
11: Fin Tantque
12: Si }rr } ď tol alors z Convergence
13: x tol Ð x
14: Fin Si

Compiled on 2023/10/10 at [Link]


116 Résolution de systèmes linéaires

Algorithme 3.20 R1 Algorithme 3.20 R2

1: k Ð 0, x tol Ð H 1: k Ð 0, x tol Ð H
2: x Ð x 0 , r Ð b ´ Ax x, 2: x Ð x 0 , r Ð b ´ Ax
x,
3: tol Ð εp}bb} ` 1q 3: tol Ð εp}bb} ` 1q
4: Tantque }rr } ą tol et k ď kmax faire 4: Tantque }rr } ą tol et k ď kmax faire
5: k Ðk`1 5: k Ðk`1
6: p Ðx 6: p Ðx
7: Pour i Ð 1 à n faire 7: Pour i Ð 1 à n faire
˜ ¸
ÿn
1
xi Ð bi ´ aij p j 8: SÐ0
aii
8:
j<1,j‰i 9: Pour j Ð 1 à n pj ‰ iq faire
9: Fin Pour 10: S Ð S ` ai,j pj
10: r Ð b ´ Ax x, 11: Fin Pour
1
11: Fin Tantque 12: xi Ð pbi ´ Sq
aii
12: Si }rr } ď tol alors
13: x tol Ð x 13: Fin Pour
14: Fin Si 14: r Ð b ´ Ax x,
15: Fin Tantque
16: Si }rr } ď tol alors
17: x tol Ð x
18: Fin Si

On peut alors écrire la fonction RSLJacobi :


3.4.4 Algorithmes
3. Résolution de systèmes linéaires

Algorithme 3.20 Méthode itérative de Jacobi pour la résolution d’un système


linéaire Ax
x<b
Données :
A : matrice de Mn pKq ,
b : vecteur de Kn ,
x0 : vecteur initial de Kn ,
ε : la tolérence, ε P R` ,
kmax : nombre maximum d’itérations, kmax P N˚
3.4. Méthodes itératives

Résultat :
X : un vecteur de Kn

1: Fonction X Ð RSLJacobi ( A, b , x 0 , ε, kmax )


2: k Ð 0, X Ð H
3: x Ð x0, r Ð b ´ A ˚ x,
4: tol Ð εp}bb} ` 1q
5: Tantque }rr } ą tol et k ď kmax faire
6: k Ðk`1
7: p Ðx
8: Pour i Ð 1 à n faire
9: SÐ0
10: Pour j Ð 1 à n pj ‰ iq faire
11: S Ð S ` Api, jq ˚ ppjq
12: Fin Pour
13: xpiq Ð pbpiq ´ Sq{Api, iq
14: Fin Pour
15: r Ð b ´ A ˚ x,
16: Fin Tantque
17: Si }rr } ď tol alors
18: X Ðx
19: Fin Si
20: Fin Fonction

Compiled on 2023/10/10 at [Link]


Méthodes itératives 117

Méthode de Gauss-Seidel

Pour Gauss-Seidel, la suite des itérées est définie par


˜ ¸
i´1
ÿ n
ÿ
pk`1q 1 rk`1s rks
xi < bi ´ aij xj ´ aij xj @i P v1, nw
aii j<1 j<i`1

Cette formule donne explicitement la composante i du vecteur x rk`1s en fonction de la matrice A, et des
vecteurs b et x rks , mais aussi des i ´ 1 premières composantes de x rk`1s . Contrairement à la méthode de
rk`1s rk`1s
Jacobi, il est impératif de calculer sussessivement x1 , x2 , ... A partir de l’Algorithme 3.19, on va
construire par raffinements successifs la RSLGaussSeidel donnée dans l’Algorithme 3.21.

Algorithme 3.21 R0 Algorithme 3.21 R1

1: k Ð 0, x tol Ð H 1: k Ð 0, x tol Ð H
2: x Ð x 0 , r Ð b ´ Ax
x, 2: x Ð x 0 , r Ð b ´ Ax
x,
3: tol Ð εp}bb} ` 1q 3: tol Ð εp}bb} ` 1q
4: Tantque }rr } ą tol et k ď kmax faire 4: Tantque }rr } ą tol et k ď kmax faire
5: k Ðk`1 5: k Ðk`1
6: p Ðx 6: p Ðx
7:
x Ð calcul par Gauss-Seidel 7: Pour i Ð 1˜à n faire ¸
8: i´1
ÿ ÿn
1

3.4.4 Algorithmes
9: r Ð b ´ Ax x, 8: xi Ð bi ´ aij xj ´ aij pj
10: Fin Tantque aii j<1 j<i`1
11: Si }rr } ď tol alors 9: Fin Pour
12: x tol Ð x
r Ð b ´ Ax x,

3. Résolution de systèmes linéaires


13: Fin Si 10:
11: Fin Tantque
12: Si }rr } ď tol alors
13: x tol Ð x
14: Fin Si

Algorithme 3.21 R1 Algorithme 3.21 R2

1: k Ð 0, x tol Ð H 1: k Ð 0, x tol Ð H

3.4.Méthodes itératives
2: x Ð x 0 , r Ð b ´ Ax x, 2: x Ð x 0 , r Ð b ´ Ax
x,
3: tol Ð εp}bb} ` 1q 3: tol Ð εp}bb} ` 1q
4: Tantque }rr } ą tol et k ď kmax faire 4: Tantque }rr } ą tol et k ď kmax faire
5: k Ðk`1 5: k Ðk`1
6: p Ðx 6: p Ðx
7: Pour i Ð 1 à n faire 7: Pour i Ð 1 à n faire
˜ ¸
i´1
ÿ ÿn
1
xi Ð bi ´ aij xj ´ aij pj 8: SÐ0
aii
8:
j<1 j<i`1 9: Pour j Ð 1 à i ´ 1 faire
9: Fin Pour 10: S Ð S ` ai,j xj
10: r Ð b ´ Ax x, 11: Fin Pour
11: Fin Tantque 12: Pour j Ð i ` 1 à n faire
12: Si }r
r } ď tol alors 13: S Ð S ` ai,j pj
13: xtol Ð x 14: Fin Pour
1
14: Fin Si 15: xi Ð pbi ´ Sq
aii
16: Fin Pour
17: r Ð b ´ Ax x,
18: Fin Tantque
19: Si }r
r } ď tol alors
20: x tol Ð x
21: Fin Si

On peut alors écrire la fonction RSLGaussSeidel :

Compiled on 2023/10/10 at [Link]


118 Résolution de systèmes linéaires

Algorithme 3.21 Méthode itérative de Gauss-Seidel pour la résolution d’un sys-


tème linéaire Ax
x<b
Données :
A : matrice de Mn pKq ,
b : vecteur de Kn ,
0
x : vecteur initial de Kn ,
ε : la tolérence, ε P R` ,
kmax : nombre maximum d’itérations, kmax P N˚
Résultat :
X : un vecteur de Kn

1: Fonction X Ð RSLGaussSeidel ( A, b, x0 , ε, kmax )


2: k Ð 0, X Ð H
3: x Ð x0, r Ð b ´ A ˚ x,
4: tol Ð εp}bb} ` 1q
5: Tantque }rr } ą tol et k ď kmax faire
6: k Ðk`1
7: p Ðx
8: Pour i Ð 1 à n faire
9: SÐ0
10: Pour j Ð 1 à i ´ 1 faire
11: S Ð S ` Api, jq ˚ xpjq
12: Fin Pour
13: Pour j Ð i ` 1 à n faire
14: S Ð S ` Api, jq ˚ ppjq
3.4.4 Algorithmes

15: Fin Pour


16: xpiq Ð pbpiq ´ Sq{Api, iq
17: Fin Pour
3. Résolution de systèmes linéaires

18: r Ð b ´ A ˚ x,
19: Fin Tantque
20: Si }rr } ď tol alors
21: X Ðx
22: Fin Si
23: Fin Fonction
3.4. Méthodes itératives

Jeux algorithmiques

On a bien sûr noté que les fonctions RSLJacobi et RSLGaussSeidel ont la même ossature puisque
toutes deux basées sur l’Algorithme 3.19 générique. En effet seule la transcription de la ligne 7 de
l’Algorithme 3.19 différe :

Compiled on 2023/10/10 at [Link]


Méthodes itératives 119

Fonction X Ð RSLJacobi ( A, b , x 0 , ε, kmax ) Fonction X Ð RSLGaussSeidel ( A, b , x 0 , ε, kmax )


k Ð 0, X Ð H k Ð 0, X Ð H
x Ð x0, r Ð b ´ A ˚ x, x Ð x0, r Ð b ´ A ˚ x,
tol Ð εp}bb} ` 1q tol Ð εp}bb} ` 1q
Tantque }rr } ą tol et k ď kmax faire Tantque }rr } ą tol et k ď kmax faire
k Ðk`1 k Ðk`1
p Ðx p Ðx
Pour i Ð 1 à n faire Pour i Ð 1 à n faire
SÐ0 SÐ0
Pour j Ð 1 à n pj ‰ iq faire Pour j Ð 1 à i ´ 1 faire
S Ð S ` Api, jq ˚ ppjq S Ð S ` Api, jq ˚ xpjq
Fin Pour Fin Pour
xpiq Ð pbpiq ´ Sq{Api, iq Pour j Ð i ` 1 à n faire
Fin Pour S Ð S ` Api, jq ˚ ppjq
r Ð b ´ A ˚ x, Fin Pour
Fin Tantque xpiq Ð pbpiq ´ Sq{Api, iq
Si }rr } ď tol alors Fin Pour
X Ðx r Ð b ´ A ˚ x,
Fin Si Fin Tantque
Fin Fonction Si }rr } ď tol alors
X Ðx
Fin Si
Fin Fonction

On va écrire les fonctions algorithmiques IterJacobi et IterGaussSeidel permettant le calcul d’une


itérée respectivement pour les méthodes de Jacobi et Gauss-Seidel (voir Algorithmes 3.22 et 3.23).

Algorithme 3.22 Itération de Jacobi : calcul de x tel Algorithme 3.23 Itération de Gauss-Seidel : calcul de x

3.4.4 Algorithmes
que ˜ ¸ tel que ˜ ¸
ÿn i´1
ÿ ÿn
1 1
xi < bi ´ aij yj , @i P v1, nw. xi < bi ´ ai,j xj ´ ai,j yj , @i P v1, nw.
aii j<1,j‰i
aii j<1 j<i`1
Données : Données :

3. Résolution de systèmes linéaires


A : matrice de Mn pKq , A : matrice de Mn pKq ,
b : vecteur de Kn , b : vecteur de Kn ,
y : vecteur de Kn , y : vecteur de Kn ,
Résultat : Résultat :
x : un vecteur de Kn x : un vecteur de Kn

1: Fonction x Ð IterJacobi ( A, b, y ) 1: Fonction x Ð IterGaussSeidel ( A, b, y )


2: Pour i Ð 1 à n faire 2: Pour i Ð 1 à n faire
3: SÐ0 3: SÐ0
Pour j Ð 1 à n pj ‰ iq faire Pour j Ð 1 à i ´ 1 faire

3.4.Méthodes itératives
4: 4:
5: S Ð S ` Api, jq ˚ ypjq 5: S Ð S ` Api, jq ˚ xpjq
6: Fin Pour 6: Fin Pour
7: xpiq Ð pbpiq ´ Sq{Api, iq 7: Pour j Ð i ` 1 à n faire
8: Fin Pour 8: S Ð S ` Api, jq ˚ ypjq
9: Fin Fonction 9: Fin Pour
10: xpiq Ð pbpiq ´ Sq{Api, iq
11: Fin Pour
12: Fin Fonction

En utilisant ces deux fonctions, les algorithmes de résolutions de systèmes linéaires par les méthodes de
Jacobi et Gauss-Seidel peuvent se réécrire sous la forme suivante :

Fonction X Ð RSLJacobiV2 ( A, b , x 0 , ε, kmax ) Fonction X Ð RSLGaussSeidelV2 ( A, b , x 0 , ε, kmax )


k Ð 0, X Ð H k Ð 0, X Ð H
x Ð x0, r Ð b ´ A ˚ x, x Ð x0, r Ð b ´ A ˚ x,
tol Ð εp}bb} ` 1q tol Ð εp}bb} ` 1q
Tantque }rr } ą tol et k ď kmax faire Tantque }rr } ą tol et k ď kmax faire
k Ðk`1 k Ðk`1
p Ðx p Ðx
x Ð IterJacobipA, b , p q x Ð IterGaussSeidelpA, b , p q
r Ð b ´ A ˚ x, r Ð b ´ A ˚ x,
Fin Tantque Fin Tantque
Si }rr } ď tol alors Si }rr } ď tol alors
X Ðx X Ðx
Fin Si Fin Si
Fin Fonction Fin Fonction

Compiled on 2023/10/10 at [Link]


120 Résolution de systèmes linéaires

En programmation, dès que l’on commence à faire des copier/coller1 il faut se poser la question : est-il
possible de faire sans?
La plupart du temps la réponse est oui, et celà permet souvent de simplifier, clarifier et racourcir le
code ce qui simplifie grandement sa maitenance. Dans notre cas, on écrit l’Algorithme générique 3.19
sous forme d’une fonction à laquelle on ajoute aux paramètres d’entrées une fonction formelle IterFonc
permettant le calcul d’une itérée :

x Ð IterFoncpA, b , y q.

Cette fonction est donc une donnée du problème. On a alors

Algorithme 3.24 Méthode itérative pour la résolution d’un système linéaire Ax


x<b

Données :
A : matrice de Mn pKq ,
b : vecteur de Kn ,
IterFonc : fonction de paramètres une matrice d’ordre n,
: et deux vecteurs de Kn . retourne un vecteur de Kn .
x0 : vecteur initial de Kn ,
ε : la tolérence, ε P R` ,
kmax : nombre maximum d’itérations, kmax P N˚
Résultat :
x tol : un vecteur de Kn si convergence, sinon H
3.4.4 Algorithmes

1: Fonction X Ð RSLMethIter (A, b , IterFonc, x 0 , ε, kmax)


2: k Ð 0, x tol Ð H
3: x Ð x 0 , r Ð b ´ Ax x,
3. Résolution de systèmes linéaires

4: tol Ð εp}bb} ` 1q
5: Tantque }rr } ą tol et k ď kmax faire
6: k Ðk`1
7: p Ðx
8: x Ð IterFoncpA, b , p q
9: r Ð b ´ Ax x,
10: Fin Tantque
11: Si }rr } ď tol alors
3.4. Méthodes itératives

12: x tol Ð x
13: Fin Si
14: Fin Fonction

En utilisant cette fonction, les algorithmes de résolutions de systèmes linéaires par les méthodes de Jacobi
et Gauss-Seidel peuvent se réécrire sous la forme suivante :

Fonction X Ð RSLJacobiV3 ( A, b, x0 , ε, kmax ) Fonction X Ð RSLGaussSeidelV3 ( A, b, x0 , ε, kmax )


X Ð RSLMethIterpA, b , IterJacobi, x 0 , ε, kmaxq X Ð RSLMethIterpA, b , IterGaussSeidel, x 0 , ε, kmaxq
Fin Fonction Fin Fonction

Méthode S.O.R.

Pour la méthode de relaxation utilisant Gauss-Seidel,avec w P R˚ , la suite des itérées est définie par
˜ ¸
i´1
ÿ n
ÿ
rk`1s w rk`1s rks rks
xi < bi ´ aij xj ´ aij xj ` p1 ´ wqxi @i P v1, nw
aii j<1 j<i`1

1 Opération qui pour un bon programmeur est une chose très fatiguante!

Compiled on 2023/10/10 at [Link]


Méthodes itératives 121

Fonction X Ð RSLSORV3 ( A, b , w, x 0 , ε, kmax )


˜ 3.25 Itération S.O.R. : ¸
Algorithme calcul de x tel que IterFun Ð ppM, r , s q ÞÑ IterSORpM, r , s , wqq
i´1
ÿ ÿn
w X Ð RSLMethIterpA, b , IterFun, x 0 , ε, kmaxq
xi < bi ´ aij xj ´ aij yj ` p1 ´ wqyi
aii j<1 j<i`1 Fin Fonction
Données :
A : matrice de Mn pKq ,
b : vecteur de Kn ,
y : vecteur de Kn ,
w : réel non nul.
Résultat :
x : un vecteur de Kn

1: Fonction x Ð IterSOR ( A, b, y, w )
2: Pour i Ð 1 à n faire
3: SÐ0
4: Pour j Ð 1 à i ´ 1 faire
5: S Ð S ` Api, jq ˚ xpjq
6: Fin Pour
7: Pour j Ð i ` 1 à n faire
8: S Ð S ` Api, jq ˚ ypjq
9: Fin Pour
10: xpiq Ð w ˚ pbpiq ´ Sq{Api, iq ` p1 ´ wq ˚ ypiq
11: Fin Pour
12: Fin Fonction

Une ch’tite remarque


Les méthodes itératives que l’on a étudiées sont basées sur l’expression

3.4.5 Exercices
x rk`1s < Bx
xrks ` c

Si l’on pose

3. Résolution de systèmes linéaires


Φ : x ÞÑ Bx
x `c
alors
x rk`1s < Φ px
xrks q.
Celà vous rappelle-t’il quelque chose?

3.4.Méthodes itératives
3.4.5 Exercices

Exercice 3.4.3

Q. 1 Etudier la convergence des méthodes de Jacobi et Gauss-Seidel pour la matrice


¨ ˛
1 2 ´2
A1 < ˝ 1 1 1 ‚
2 2 1
˝

Q. 2 Etudier la convergence des méthodes de Jacobi et Gauss-Seidel pour la matrice


¨ ˛
2 ´1 1
A2 < ˝ 2 2 2 ‚
´1 ´1 2
˝

Correction

R. 1 La matrice A1 s’écrit sous la forme A1 < D1 ´ E1 ´ F1 où D1 < diagpA1 q, E1 est triangulaire


inférieure et d’éléments nuls sur la diagonale et F1 est triangulaire supérieure et d’éléments nuls sur la

Compiled on 2023/10/10 at [Link]


122 Résolution de systèmes linéaires

¨ ˛ ¨ ˛ ¨ ˛
0 0 0 0 ´2 2 1 0 0
diagonale. On a donc E1 < ˝ ´1 0 0 ‚, F1 < ˝ 0 0 ´1 ‚ et D1 < ˝ 0 1 0 ‚. On note
´2 ´2 0 0 0 0 0 0 1
que D1 est inversible.
• Pour la méthode de Jacobi, de matrice d’itération J1 < D-1 1 pE1 ` F1 q, on a convergence si et
seulement si ÄpJ1 q ă 1, c’est à dire si les moduless de valeurs propres de J1 sont strictement plus
petit que 1.
On a ¨ ˛
0 ´2 2
J1 < ˝ ´1 0 ´1 ‚
´2 ´2 0
Les valeurs propres de J1 sont les racines du polynôme caractéristique donné par
Pp¼q < detp¼I ´ J1 q
¨ ˛
¼ 2 ´2
< det ˝ 1 ¼ 1 ‚
2 2 ¼
< ¼3
Ses racines étant p0, 0, 0q , on a ÄpJ1 q < 0 et donc la méthode de Jacobi converge.
-1
• Pour la méthode de Gauss-Seidel, de matrice d’itération B1 < pD1 ´ E1 q F1 , on a convergence si
et seulement si ÄpB1 q ă 1, c’est à dire si les modules des valeurs propres de B1 sont strictement plus
petit que 1.
On a ¨ ˛
0 ´2 2
B1 < ˝ 0 2 ´3 ‚
3.4.5 Exercices

0 0 2
Les valeurs propres de B1 sont les racines du polynôme caractéristique donné par
3. Résolution de systèmes linéaires

Pp¼q < detp¼I ´ B1 q


¨ ˛
¼ 2 ´2
< det ˝ 0 ¼ ´ 2 3 ‚
0 0 ¼´2
< ¼3 ´ 4 ¼2 ` 4 ¼
Ses racines étant p2, 2, 0q , on a ÄpB1 q < 2 et donc la méthode de Gauss-Seidel diverge.
3.4. Méthodes itératives

R. 2 La matrice A2 s’écrit sous la forme A2 < D2 ´ E2 ´ F2 où D2 < diagpA2 q, E2 est triangulaire


inférieure et d’éléments nuls¨sur la diagonale
˛ et F2¨est triangulaire
˛ supérieure
¨ et d’éléments
˛ nuls sur la
0 0 0 0 1 ´1 1 0 0
diagonale. On a donc E2 < ˝ ´2 0 0 ‚, F2 < ˝ 0 0 ´2 ‚ et D2 < ˝ 0 1 0 ‚. On note que
1 1 0 0 0 0 0 0 1
D2 est inversible.
• Pour la méthode de Jacobi, de matrice d’itération J2 < D-1 2 pE2 ` F2 q, on a convergence si et
seulement si ÄpJ2 q ă 1, c’est à dire si les modules des valeurs propres de J2 sont strictement plus
petit que 1.
On a ¨ ˛
0 12 ´ 12
J2 < ˝ ´1 0 ´1 ‚
1 1
2 2 0
Les valeurs propres de J2 sont les racines du polynôme caractéristique donné par
Pp¼q < detp¼I ´ J2 q
¨ ˛
¼ ´ 12 1
2
< det ˝ 1 ¼ 1 ‚
´ 12 ´ 21 ¼
5
< t3 ` t
4

Compiled on 2023/10/10 at [Link]


Méthodes itératives 123

` ? ? ˘ ?
Ses racines étant ´ 21 i 5, 21 i 5, 0 , on a ÄpJ2 q < 1
2 5 et donc la méthode de Jacobi diverge.
-1
• Pour la méthode de Gauss-Seidel, de matrice d’itération B2 < pD2 ´ E2 q F2 , on a convergence si
et seulement si ÄpB2 q ă 1, c’est à dire si les modules des valeurs propres de B2 sont strictement plus
petit que 1.
On a ¨ ˛
1
0 2 ´ 12
B2 < ˝ 0 ´ 21 ´ 12 ‚
0 0 ´ 12
Les valeurs propres de B2 sont les racines du polynôme caractéristique donné par

Pp¼q < detp¼I ´ B2 q


¨ ˛
¼ ´ 21 1
2
< det ˝ 0 ¼ ` 12 1
2

1
0 0 ¼` 2
1
< ¼3 ` ¼2 ` ¼
4
` ˘
Ses racines étant ´ 12 , ´ 21 , 0 , on a ÄpB2 q < 1
2 et donc la méthode de Gauss-Seidel converge.

Exercice 3.4.4

3.4.5 Exercices
Soit A P Mn pCq une matrice hermitienne définie positive décomposée (par points) sous la forme
A < D ´ E ´ F où D < diagpAq, E est triangulaire inférieure et d’éléments nuls sur la diagonale et F
est triangulaire supérieure et d’éléments nuls sur la diagonale.

3. Résolution de systèmes linéaires


On étudie une méthode itérative de résolution su système linéaire Ax x < b . Soit x 0 P Cn , on définit
la suite px
xk qkPN par

pD ´ Eqx
xk`1{2 < Fx
xk ` b (3.78)
pD ´ Fqxxk`1 < Ex
xk`1{2 ` b (3.79)

Q. 1 Ecrire le vecteur x k`1 sous la forme

3.4.Méthodes itératives
x k`1 < Bx
xk ` c (3.80)

en explicitant le matrice B et le vecteur c . ˝

Q. 2 a. Montrer que
D-1 < pD ´ Eq´1 ´ D-1 EpD ´ Eq´1 . (3.81)

b. Soit p¼, p q un élément propre de la matrice B. Montrer que

¼App ` p¼ ´ 1qED-1 Fpp < 0. (3.82)

x < b.
Q. 3 En déduire la convergence de cette méthode vers la solution x de Ax ˝

Q. 4 Etendre ces résultats au cas d’une décomposition A < D ´ E ´ F par blocs. ˝

Correction

R. 1 La matrice D est inversible. En effet, pour tout i P v1, nw, di,i < ai,i < xAeei , e i y ą 0 car A définie
positive et e i , i-ème vecteur de la base canonique est non nul.
On en déduit que les matrices D ´ E (triangulaire inférieure de diagonale la diagonale de D) et D ´ F
(triangulaire supérieure de diagonale la diagonale de D) sont inversibles.

Compiled on 2023/10/10 at [Link]


124 Résolution de systèmes linéaires

-1
De (3.78), on obtient en multipliant à gauche par pD ´ Eq
-1
x k`1{2 < pD ´ Eq Fxxk ` pD ´ Eq-1b .

En remplaçant cette expression de x k`1{2 dans (3.79), on a


´ ¯
pD ´ Fqxxk`1 < E pD ´ Eq-1 Fx xk ` pD ´ Eq-1b ` b
´ ¯
-1
< EpD ´ Eq Fx xk ` EpD ´ Eq-1 ` I b

-1
En multipliant à gauche cette équation par pD ´ Fq , on abouti a
´ ¯
-1 -1
x k`1 < pD ´ Fq EpD ´ Eq Fx xk pD ´ Fq-1 EpD ´ Eq-1 ` I b

En posant
-1 -1
B < pD ´ Fq EpD ´ Eq F
´ ¯
-1 -1
c < pD ´ Fq EpD ´ Eq ` I b

on obtient (3.80).

R. 2 a. L’expression à démontrer est bien définie car D et D ´ E inversibles. De plus on a


-1
I < pD ´ EqpD ´ Eq
3.4.5 Exercices

En multipliant à gauche cette équation par D-1 on obtient


-1
D-1 < D-1 pD ´ EqpD ´ Eq
3. Résolution de systèmes linéaires

-1 -1
< pD ´ Eq ´ D-1 EpD ´ Eq .

b. Soit p¼, p q un élément propre de la matrice B. on a alors


-1 -1
Bpp < ¼pp ô pD ´ Fq EpD ´ Eq Fpp < ¼pp
-1
ô EpD ´ Eq Fpp < ¼pD ´ Fqpp
3.4. Méthodes itératives

-1
ô D-1 EpD ´ Eq Fpp < ¼D-1 pD ´ Fqpp

De (3.81), on a
-1 -1
D-1 EpD ´ Eq < pD ´ Eq ´ D-1
et donc
´ ¯
-1
Bpp < ¼pp ô pD ´ Eq ´ D-1 Fpp < ¼D-1 pD ´ Fqpp
´ ¯
-1
ô pD ´ Eq pD ´ Eq ´ D-1 Fpp < ¼pD ´ EqD-1 pD ´ Fqpp
` ˘
ô I ´ I ` ED-1 Fpp < ¼pI ´ ED-1 qpD ´ Fqpp
ô ED-1 Fpp < ¼pD ´ E ´ F ` ED-1 Fqpp
ô ED-1 Fpp < ¼pA ` ED-1 Fqpp

On en déduit alors
¼App ` p¼ ´ 1qED-1 Fpp < 0.

R. 3 La matrice A est inversible car elle est définie positive et donc x est bien définie. De l’équation
(3.78), on déduit
pD ´ Eqxxk`1{2 < Fx xk ` Ax x < Fx
xk ` pD ´ E ´ Fqxx
et donc
xk`1{2 ´ x q < Fpx
pD ´ Eqpx xk ´ x q (3.83)

Compiled on 2023/10/10 at [Link]


Méthodes itératives 125

De la même manière à partir de l’équation (3.79), on déduit

pD ´ Fqpx
xk`1 ´ x q < Epx
xk`1{2 ´ x q (3.84)

En utilisant (3.83), l’équation (3.85) devient

xk`1 ´ x q < EpD ´ Eq-1 Fpx


pD ´ Fqpx xk ´ x q

c’est à dire
x k`1 ´ x < Bpx
xk ´ x q.
En posant e k < x k ´ x on a alors
e k < Bke 0 , @k ě 0.
Or la suite x k converge vers x si et seulement si la suite e k converge vers 0 . Pour celà, d’après le
Théorème 3.33, page 103, il est nécessaire et suffisant d’avoir ÄpBq ă 1.
Soit p¼, p q un élément propre de B. Montrons que |¼| ă 1.
On déduit de l’équation (3.82)
@ D
0 < p , ¼App ` p¼ ´ 1qED-1 Fpp
@ D
< ¼ xpp, Appy ` p¼ ´ 1q p , ED-1 Fpp (3.85)

Comme la matrice A est définie positive on a xApp, p y ą 0 car p ‰ 0 (vecteur propre) et donc

xpp, Appy < xApp, p y < xApp, p y ą 0.

De plus on a @ D @ D
p , ED-1 Fpp < E˚p , D-1 Fpp .

3.4.5 Exercices
La matrice A étant hermitienne, on a E˚ < F. La matrice A étant définie positive, la matrice diagonale D
est définie positive car di,i ą 0, @i P v1, nw, et donc D-1 aussi. Comme Fpp n’est pas nécessairement non

3. Résolution de systèmes linéaires


nul, on a @ -1 D
D Fpp, Fpp P R` .
On en déduit @ D @ D
Fpp, D-1 Fpp < xD-1 Fpp, Fppy < D-1 Fpp, Fpp ě 0.
De l’équation (3.85), on obtient
@ D @ D
¼pxpp, Appy ` Fpp, D-1 Fpp q < Fpp, D-1 Fpp

3.4.Méthodes itératives
or @ D
xpp, Appy ` Fpp, D-1 Fpp ‰ 0
ce qui donne
xFpp, D-1 Fppy
¼< .
xpp, Appy ` xFpp, D-1 Fppy
On a alors ¼ P r0, 1r.

R. 4 Comme la matrice A est hermitienne définie positive, chaque bloc diadonal l’est aussi. Donc la
matrice diagonale bloc D est aussi hermitienne définie positive ainsi que son inverse . Les résultats
précédents sont donc toujours valable.

Compiled on 2023/10/10 at [Link]


Chapitre 4
Interpolation

L’interpolation est un outil mathématique permettant de construire des fonctions à partir de la donnée
d’un nombre fini de valeurs.
A developper...
Les protagonistes de cette histoire

(a) Joseph-Louis Lagrange 1736- (b) Pafnouti Lvovitch Tchebychev


1813, mathématicien italien puis 1821-1894, mathématicien russe
français

(c) Charles Hermite 1822-1901, (d) Henri-Léon Lebesgue 1875-


mathématicien français 1941, mathématicien français

4.1 Polynôme d’interpolation de Lagrange


128 Interpolation

Exercice 4.1.1

Soient n P N˚ et n ` 1 couples de R2 , pxi , yi qiPv0,nw , tels que les xi sont distincts deux à deux. On
note

Q. 1 a. Soit i P v0, nw. Montrer qu’il existe un unique polynôme Li de degré n vérifiant

Li pxj q < ¶ij , @j P v0, nw. (4.1)

b. Montrer que les pLi qiPv0,nw forment une base de Rn rXs (espace vectoriel des polynômes à
coefficients réels de degré inférieur ou égal à n).
˝

On défini le polynôme Pn par


n
ÿ
Pn pxq < yi Li pxq. (4.2)
i<0

Q. 2 Montrer que polynôme Pn est l’unique polynôme de degré au plus n vérifiant Pn pxi q < yi ,
@i P v1, nw. ˝

Correction
4.1.0 Exercices

R. 1 a. De (4.1), on déduit que les n points distincts xj pour j P v0, nwztiu sont les n zéros du
polynôme Li de degré n : il s’écrit donc sous la forme
n
ź
Li pxq < C px ´ xj q avec C P R
j<0
j‰i

Pour déterminer la constante C, on utilise (4.1) avec j < i


n
ź
Li pxi q < 1 < C pxi ´ xj q
4. Interpolation
4.1. Polynôme d’interpolation de Lagrange

j<0
j‰i
śn
Les points xi sont distincts deux à deux, on a j<0 pxi ´ xj q ‰ 0 et donc
j‰i

1
C < śn
j<0 pxi ´ xj q
j‰i

d’où
źn
x ´ xj
Li pxq < , @i P v0, nw. (4.3)
x
j<0 i
´ xj
j‰i

Il reste à démontrer l’unicité. On suppose qu’il existe Li et Ui deux polynômes de Rn rXs vérifiant
(4.1). Alors Qi < Li ´ Ui est polynôme de degré n (au plus) admettant n ` 1 zéros distincts, c’est
donc le polynôme nul et on a nécessairement Li < Ui .
b. On sait que dim Rn rXs < n ` 1. Pour que les tLi uiPv0,nw forment une base de Rn rXs il suffit de
démontrer qu’ils sont linéairement indépendants.
Soit ¼0 , ¨ ¨ ¨ , ¼n n ` 1 scalaires. Montrons pour celà que
n
ÿ
¼i Li < 0 ùñ ¼i < 0, @i P v0, nw
i<1

Noter que la première égalité est dans l’espace vectoriel Rn rXs et donc le 0 est pris au sens polynôme
nul.
On a
ÿn ÿn
¼i Li < 0 ðñ ¼i Li pxq < 0, @x P R
i<1 i<1

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange 129

řn
Soit k P v0, nw. En choisissant x < xk , on a par (4.1) i<1 ¼i Li pxk q < ¼k et donc
n
ÿ n
ÿ
¼i Li < 0 ùñ ¼i Li pxk q < 0, @k P v0, nw ðñ ¼k < 0, @k P v0, nw.
i<1 i<1

Les tLi uiPv0,nw sont donc linéairement indépendants.

R. 2 Par construction Pn P Rn rXs et on a, @j P v0, nw1 ,


n
ÿ
def
Pn pxj q < yi Li pxj q
i<0
ÿn
< yi ¶i,j par (4.1)
i<0
< yj .

Pour demontrer l’unicité, on propose ici deux méthodes

‚ On note Pa et Pb deux polynômes de Rn rXs vérifiant (4.1). Le polynôme Q < Pa ´ Pb appartient


aussi à Rn rXs et il vérifie, @i P v0, nw,

4.1.0 Exercices
Qpxi q < Pa pxi q ´ Pb pxi q < 0.

Les n ` 1 points xi étant distincts, ce sont donc n ` 1 racines distinctes du polynôme Q. Or tout
polynôme de degré n admet au plus n racines disctinctes2 . On en déduit que le seul polynôme de
degré au plus n admettant n ` 1 racines distinctes est le polynôme nulle et donc Pa < Pb .

‚ c’est l’unique polynôme de degré au plus n vérifiant (4.2) car la décomposition dans la base
tLi uiPv0,nw est unique.

4. Interpolation
˛

[Link]ôme d’interpolation de Lagrange


Definition 4.1

Soient n P N˚ et pxi , yi qiPv0,nw avec pxi , yi q P R2 et les xi distincts deux à deux. Le polynôme
d’interpolation de Lagrange associé aux n ` 1 points pxi , yi qiPv0,nw , noté Pn , est donné par
n
ÿ
Pn pxq < yi Li pxq, @x P R (4.4)
i<0

avec
źn
x ´ xj
Li pxq < , @i P v0, nw, @x P R. (4.5)
x ´ xj
j<0 i
j‰i

Théorème 4.2

Le polynôme d’interpolation de Lagrange, Pn , associé aux n ` 1 points pxi , yi qiPv0,nw , est


l’unique polynôme de degré au plus n, vérifiant

Pn pxi q < yi , @i P v0, nw. (4.6)

1A noter le choix de l’indice j. Que doit-on faire dans ce qui suit si l’on choisi i comme indice?
2 Le théorème de d’Alembert-Gauss affirme que tout polynôme à coefficients complexes de degré n admet n racines
complexes qui ne sont pas nécessairement distinctes

Compiled on 2023/10/10 at [Link]


130 Interpolation

Remarque 7. Il est aussi possible d’obtenir l’existence et l’unicité du polynôme d’interpolation de La-
grange sans passer par sa construction. Pour celà on défini Φ : Rn rXs ÝÑ Rn`1 par

@P P Rn rXs, ΦpPq < pPpx0 q, ¨ ¨ ¨ , Ppxn qq.

L’existence et l’unicité du polynôme Pn est équivalente à la bijectivité de l’application Φ. Or celle-ci est


une application linéaire entre deux espaces de dimension n ` 1. Elle est donc bijective si et seulement si
elle injective (ou surjective). Pour vérifier l’injectivité de Φ il est nécessaire et suffisant de vérifier que
son noyau est réduit au polynôme nul.
Soit P P ker Φ. On a alors ΦpPq < 0 n`1 et donc px0 , ¨ ¨ ¨ , xn q sont n ` 1 racines distinctes de P. Or le
seul polynôme de Rn rXs ayant n ` 1 racines distinctes est le polynôme nul et donc P < 0.

A titre d’exemple, on représente, En figure 4.2, le polynôme d’interpolation de Lagrange associé à 7 points
donnés.
4.1.0 Exercices
4. Interpolation
4.1. Polynôme d’interpolation de Lagrange

Figure 4.2: Polynôme d’interpolation de Lagrange avec 7 points donnés)

Exercice 4.1.2

Ecrire la fonction Lagrange permettant de calculer Pn (polynôme d’interpolation de Lagrange


associé aux n ` 1 points pxi , yi qiPv0,nw ) au point t P R.

Correction
But : Calculer le polynôme Pn ptq définit par (4.4)
Données : X : vecteur/tableau de Rn`1 , Xpiq < xi´1 @i P v1, n ` 1w et
Xpiq ‰ Xpjq pour i ‰ j,
Y : vecteur/tableau de Rn`1 , Y piq < yi´1 @i P v1, n ` 1w,
t : un réel.
Résultat : y : le réel y < Pn ptq.
Algorithme 4.1 R0 Algorithme 4.1 R1

ÿ
n`1
1: yÐ0
Calcul de y “ Pn ptq “ Y piqLi´1 ptq
i“1
2: Pour i Ð 1 à n ` 1 faire
1: 3: y Ð y ` Y piq ˚ Li´1 ptq
4: Fin Pour

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange 131

Algorithme 4.1 R1 Algorithme 4.1 R2


1: yÐ0 1: yÐ0
2: Pour i Ð 1 à n ` 1 faire 2: Pour i Ð 1 à n ` 1 faire
y Ð y ` Y piq ˚ Li´1 ptq
3: n`1
ź t ´ Xpjq
4: Fin Pour 3: LÐ
j<1
Xpiq ´ Xpjq
j‰i
4: y Ð y ` Y piq ˚ L

5: Fin Pour

Algorithme 4.1 R2 Algorithme 4.1 R3


1: yÐ0 1: yÐ0
2: Pour i Ð 1 à n ` 1 faire 2: Pour i Ð 1 à n ` 1 faire
ź
n`1
t ´ Xpjq
LÐ 3: LÐ1
j“1
Xpiq ´ Xpjq
j‰i 4: Pour j Ð 1 à n ` 1, pj >< iq faire
3:
L Ð L ˚ pt ´ Xpjqq{pXpiq ´ Xpjqq

4.1.1 Erreur de l’interpolation


5:
4: y Ð y ` Y piq ˚ L 6: Fin Pour
5: Fin Pour
7: y Ð y ` Y piq ˚ L
8: Fin Pour

On obtient alors l’algorithme final

Algorithme 4.1 Fonction Lagrange permettant de calculer le polynôme d’interpolation de Lagrange


Pn pxq définit par (4.4)
Données : X :
vecteur/tableau de Rn`1 , Xpiq < xi´1 @i P v1, n ` 1w et
Xpiq ‰ Xpjq pour i ‰ j,
Y : vecteur/tableau de Rn`1 , Y piq < yi´1 @i P v1, n ` 1w,

4. Interpolation
t : un réel.
Résultat : y : le réel y < Pn ptq.

Fonction y Ð Lagrange ( t, X, Y )

[Link]ôme d’interpolation de Lagrange


1:
2: yÐ0
3: Pour i Ð 1 à n ` 1 faire
4: LÐ1
5: Pour j Ð 1 à n ` 1, pj >< iq faire
6: L Ð L ˚ pt ´ Xpjqq{pXpiq ´ Xpjqq
7: Fin Pour
8: y Ð y ` Y piq ˚ L
9: Fin Pour
10: return y
11: Fin Fonction

4.1.1 Erreur de l’interpolation


Soit une fonction f : ra, bs ÝÑ R. On suppose que les yi sont donnés par

yi < f pxi q, @i P v0, nw. (4.7)

On cherche à évaluer l’erreur En ptq < f ptq ´ Pn ptq, @t P ra, bs.


On propose en figures 4.3 à 4.5 d’etudier deux exemples. Le premier (figure de gauche) correspond à
l’interpolation de la fonction sinptq par le polynôme d’interpolation de Lagrange aux points équidistants

Compiled on 2023/10/10 at [Link]


132 Interpolation

ti < a ` ih avec a < 0 et h < 2Ã{n. Le second (figure de droite) correspond à l’interpolation de la fonction
1
1`t2 par le polynôme d’interpolation de Lagrange aux points xi < a ` ih avec a < ´5 et h < 10{n.

Figure 4.3: Polynômes d’interpolation de lagrange avec n < 6 (7 points) uniformément répartis. A gauche
pour la fonction f : t ÝÑ sinptq avec x0 < 0, x6 < 2Ã et à droite pour la fonction f : t ÝÑ 1{p1 ` t2 q
4.1.1 Erreur de l’interpolation

avec x0 < ´5, x6 < 5.


4. Interpolation
4.1. Polynôme d’interpolation de Lagrange

Figure 4.4: Polynômes d’interpolation de lagrange avec n < 10 (11 points) uniformément répartis. A
gauche pour la fonction f : t ÝÑ sinptq avec x0 < 0, x10 < 2Ã et à droite pour la fonction f : tx ÝÑ
1{p1 ` t2 q avec x0 < ´5, x10 < 5.

Exercice 4.1.3

Soit f P C n`1 pra; bs; Rq. Soient n P N˚ et n ` 1 couples de R2 , pxi , yi qiPv0,nw , tels que les xi sont
distincts deux à deux et yi < f pxi q.
On note par Pn le polynôme d’interpolation de Lagrange associé aux points pxi , yi qiPv0,nw et Ãn le
polynôme de degré n ` 1 défini par
n
ź
Ãn pxq < px ´ xi q. (4.8)
i<0

Q. 1 Montrer que, @x P ra; bs, il existe Àx appartenant au plus petit intervalle fermé contenant
x, x0 , . . . , xn tel que
Ãn pxq pn`1q
f pxq ´ Pn pxq < f pÀx q. (4.9)
pn ` 1q!

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange 133

Figure 4.5: Polynômes d’interpolation de lagrange avec n < 18 (19 points) uniformément répartis. A
gauche pour la fonction f : t ÝÑ sinptq avec x0 < 0, x18 < 2Ã et à droite pour la fonction f : t ÝÑ
1{p1 ` t2 q avec x0 < ´5, x18 < 5.

f pxq ´ Pn pxq

4.1.1 Erreur de l’interpolation


Indication : Etudier les zéros de la fonction F ptq < f ptq ´ Pn ptq ´ Ãn ptq. ˝
Ãn pxq

Correction
R. 1 S’il existe i P v0, nw tel que x < xi alors l’équation (4.9) est immédiatement vérifiée.
Soit x P ra, bs distinct de tous les xi . Comme f P C n`1 pra; bs; Rq, Pn P Rn rXs et Ãn P Rn`1 rXs, on en
déduit que la fonction F est dans C n`1 pra; bs; Rq. La fonction F admet aussi n ` 2 zéros : x, x0 , ¨ ¨ ¨ , xn .
r0s r0s r0s r0s
On note Àx,1 , ¨ ¨ ¨ , Àx,n`2 ces n ` 2 zéros ordonnés Àx,1 ă ¨ ¨ ¨ ă Àx,n`2 . La fonction F étant continue sur
ra, bs et dérivable sur sa, br, le théorème de Rolle dit qu’entre deux zéros consécutifs de F, il existe au
moins un zéro de F 1 < F p1q . Plus précisemment on a
r1s r0s r0s r1s
@i P v1, n ` 1w, DÀx,i PsÀx,i , Àx,i`1 r tels que F p1q pÀx,i q < 0

4. Interpolation
r1s r1s r0s r1s
et on en déduit que la fonction F p1q admet n ` 1 zéros Àx,1 , ¨ ¨ ¨ , Àx,n`1 et l’on a Àx,1 ă Àx,1 ă ¨ ¨ ¨ ă
r1s r0s
Àx,n`1 ă Àx,n`2 . Il faut noter la dépendance en x des zéros de F 1 d’où la notation un peu "lourde".
Montrons par récurrence finie que pPk q est vraie pour tout k P v1, n ` 1w

[Link]ôme d’interpolation de Lagrange


rks r0s rks rks r0s rks
pPk q : DÀx,i , i P v1, n ` 2 ´ kw, Àx,1 ă Àx,1 ă ¨ ¨ ¨ ă Àx,n`2´k ă Àx,n`2 tels que F pkq pÀx,i q < 0

Initialisation : Pour k < 1, la preuve a déjà été faites.


Hérédité : Soit 1 ă k ´ 1 ă n ` 1, on suppose pPk´1 q vérifiée. La fonction F pk´1q étant continue sur
ra, bs et dérivable sur sa, br, le théorème de Rolle dit qu’entre deux zéros consécutifs de F pk´1q , il
existe au moins un zéro de F pkq . Par hypothèse F pk´1q admet n ` 2 ´ pk ´ 1q zéros vérifiant
r0s rk´1s rk´1s r0s
Àx,1 ă Àx,1 ă ¨ ¨ ¨ ă Àx,n`2´pk´1q ă Àx,n`2

La fonction F pk´1q est continue sur ra, bs et dérivable sur sa, br puisque F P C n`1 pra; bs; Rq. Par
application du théorème de Rolle, entre deux zéros de F pk´1q , il existe au moins un zéro de F pkq .
Plus précisemment pour tout i P v1, n ` 2 ´ kw on a
rks rk´1s rk´1s rks
DÀx,i PsÀx,i , Àx,i`1 r, F pkq pÀx,i q < 0
r0s rks rks r0s
De plus, par construction, Àx,1 ă Àx,1 ă ¨ ¨ ¨ ă Àx,n`2´k ă Àx,n`2 . et donc pPk q est vraie.
Avec k < n ` 1 on obtient
rn`1s r0s r0s rn`1s
pPn`1 q : DÀx,1 PsÀx,1 , Àx,n`2 r tel que F pn`1q pÀx,1 q<0

et donc
rn`1s rn`1s rn`1s f pxq ´ Pn pxq pn`1q rn`1s
0 < F pn`1q pÀx,1 q < f pn`1q pÀx,1 q ´ Ppn`1q
n pÀx,1 q´ Ãn pÀx,1 q
Ãn pxq

Compiled on 2023/10/10 at [Link]


134 Interpolation

pn`1q
Comme Pn P Rn rXs, on a Pn < 0. De plus Ãn P Rn`1 rXs, et comme Ãn pxq < xn`1 ` Qpxq avec
pn`1q
Q P Rn rXs (i.e. son monône de puissance n ` 1 à pour coefficient 1) on obtient Ãn pxq < pn ` 1q! On
a alors
rn`1s f pxq ´ Pn pxq
f pn`1q pÀx,1 q < pn ` 1q!
Ãn pxq
˛

Le résultat suivant est du à Cauchy (1840)

Théorème 4.3

Soient n P N˚ et x0 , ¨ ¨ ¨ , xn n ` 1 points distincts de l’intervalle ra, bs. Soient f P C n`1 pra; bs; Rq et
Pn le polynôme d’interpolation de Lagrange de degré n passant par pxi , f pxi qq, @i P v0, nw. Alors,
@x P ra, bs, DÀx P pminpxi , xq, maxpxi , xqq,
n
f pn`1q pÀx q ź
f pxq ´ Pn pxq < px ´ xi q (4.10)
pn ` 1q! i<0

4.1.2 Points de Chebyshev


Pour minimiser l’erreur commise lors de l’interpolation d’une fonction f par un polynôme d’interpolation
4.1.3 Stabilité

de Lagrange, on peut, pour un n donné, "jouer" sur le choix des points xi :


Trouver px̄i qni<0 , x̄i P ra, bs, distincts deux à deux, tels que
n
ź n
ź
max |t ´ x̄i | ď max |t ´ xi |, @pxi qni<0 , xi P ra, bs, distincts 2 à 2 (4.11)
tPra,bs tPra,bs
i<0 i<0

On a alors le résultat suivant

Théorème 4.4
4.1. Polynôme d’interpolation de Lagrange
4. Interpolation

Les points réalisant (4.11) sont les points de Chebyshev donnés par

a`b b´a p2i ` 1qÃ


x̄i < ` cosp q, @i P v0, nw. (4.12)
2 2 2n ` 2

Figure 4.6: Erreurs d’interpolation avec n < 6

4.1.3 Stabilité
Inspiré du polycopié de G. Barles : ici

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange 135

Figure 4.7: Erreurs d’interpolation avec n < 10

4.1.3 Stabilité
4. Interpolation
[Link]ôme d’interpolation de Lagrange

Figure 4.8: Erreurs d’interpolation avec n < 18

Compiled on 2023/10/10 at [Link]


136 Interpolation

On suppose que l’on commet des erreurs lors du calcul des f pxi q et l’on note fi « f pxi q les valeurs
numériques obtenues. Dans ce cadre, on a deux polynômes d’interpolation de Lagrange l’un "exact" avec
les couples de points pxi , yi q < pxi , f pxi qq noté Pn , et l’autre "approché" avec les couples de points pxi , fi q
noté Pp n . On a donc
ÿn n
ÿ
Pn pxq < f pxi qLi pxq et P p n pxq < fi Li pxq
i<0 i<0

L’erreur commise est alors majorée par :


n
ÿ
p n pxq ´ Pn pxq| < |
|P pfi ´ f pxi qqLi pxq|
i<0
n
ÿ
ď |fi ´ f pxi q||Li pxq|
i<0
n
ÿ
ď max |fi ´ f pxi q| |Li pxq|.
iPv0,nw
i<0

n
ÿ
On note Λn < max |Li pxq|, dites Constante de Lebesgue. Cette constante est bien définie car
xPra,bs
řn i<0
l’application x ÞÑ i<0 |Li pxq| est continue sur ra, bs intervalle fermé borné de R et donc le maximum est
bien atteint : il est donc fini.
4.1.3 Stabilité

On obtient alors : :
:p :
:Pn ´ Pn : ď Λn max |fi ´ f pxi q|. (4.13)
8 iPv0,nw

Proposition 4.5

Soient n P N ˚ et x0 , ¨ ¨ ¨ , xn des points distincts de ra, bs. L’application Ln : C 0 pra, bs; Rq ÝÑ Rn rXs
qui a toute fonction f P C 0 pra, bs; Rq donne le polynôme d’interpolation de Lagrange Pn associés
aux couples de pxi , f pxi qqiPv0,nw est bien définie et linéaire. De plus on a
4.1. Polynôme d’interpolation de Lagrange
4. Interpolation

def }Ln pf q}8


}Ln } < sup < Λn . (4.14)
f PC 0
pra,bs;Rq }f }8
f ‰0

Preuve. Bien définie et linéaire : facile mais à écrire


On montre tout d’abord que }Ln } ď Λn . En effet, on a pour tout x P ra, bs et pour tout f P C 0 pra, bs; Rq,
n
ÿ
|Ln pf qpxq| < | f pxi qLi pxq|
i<0
n
ÿ n
ÿ
ď |f pxi qLi pxq| ď }f }8 |Li pxq|
i<0 i<0
ď Λn }f }8 .

On obtient alors
}Ln pf q}8 ď Λn }f }8 .

et donc
}Ln pf q}8
sup ď Λn .
f PC 0 pra,bs;Rq }f }8
f ‰0

Pour obtenir l’égalité (4.14), il suffit donc, en reprenant les calculs précédents, de regarder si l’on peut
trouver x̄ P ra, bs et f¯ P C 0 pra, bs; Rq vérifiant
: :
|Ln pf¯qpx̄q| < Λn :f¯:8 .

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange 137

řn
On détermine x̄ pour que ř la dernière majoration, correspondant à i<0 |Li pxq| ď Λn , devienne une
n
égalité. L’application x ÞÑ i<0 |Li pxq| étant continue sur le fermé borné ra, bs, il existe alors x̄ P ra, bs
tel que
ÿn n
ÿ
Λn < max |Li pxq| < |Li px̄q|.
xPra,bs
i<0 i<0

On va maintenant regarder s’il est possible de construire une fonction f¯ P C 0 pra, bs; Rq telle que
n
ÿ n
ÿ : : ÿ n
| f¯pxi qLi px̄q| < |f¯pxi qLi px̄q| < :f¯:8 |Li px̄q|.
i<0 i<0 i<0

Si c’est le cas, on aura bien le résultat souhaité.


Sans déroger à la généralité, on peut supposer les points xi ordonnés : x0 ă x1 ă ¨ ¨ ¨ ă xn . Pour avoir
la première égalité, il faut que tous les f¯pxi qLi px̄q soient de même signe. On choisi le signe positif, et on
impose par exemple les valeurs de f¯pxi q, @i P v0, nw,
"
f¯pxi q < 1, si Li px̄q ě 0,
f¯pxi q < ´1, si Li px̄q ă 0.

Il existe une multitude de :fonctions


: de C 0 pra, bs; Rq mais il faut controler son maximum pour qu’il vaille
¯
1 et avoir ainsi |f pxi q| < f 8 , @i P v0, nw. On peut alors choisir f¯ affine sur chacun des intervalles
: ¯:
rxk , xk`1 s, @k P v0, n ´ 1w, pusique l’on connait les valeurs aux extrémités de chaque intervalle (`1 ou
´1). En dehors de ces intervalles, on prend par exemple f¯pxq < f¯px0 q, @x P ra, x0 s, et f¯pxq < f¯pxn q,

4.1.3 Stabilité
@x P rxn , bs. Cette fonction est par construction continue sur ra, bs et vérifie
n
ÿ
|Ln pf¯qpx̄q| < | f¯pxi qLi px̄q|
i<0
n
ÿ n
: : ÿ
< |f¯pxi qLi px̄q| < :f¯:8 |Li px̄q|
i<0 i<0
: :
< Λn :f¯:8 .

Or on a : : : :

4. Interpolation
:Ln pf¯q: < sup |Ln pf¯qpxq| ě |Ln pf¯qpx̄q| < Λn :f¯: .

[Link]ôme d’interpolation de Lagrange


8 8
xPra,bs

ce qui donne
}Ln pf q}8
sup ě Λn .
f PC 0
pra,bs;Rq }f }8
f ‰0

Théorème 4.6

Pour toute fonction f P C 0 pra, bs; Rq, on a

}f ´ Ln pf q}8 ď p1 ` Λn q inf }f ´ Q}8 (4.15)


QPRn rXs

Preuve. Soit Q P Rn rXs. Par unicité du théorème d’interpolation on a Ln pQq < Q et alors

}f ´ Ln pf q}8 < }f ´ Q ` Ln pQq ´ Ln pf q}8


ď }f ´ Q}8 ` }Ln pQ ´ f q}8 par linéarité de Ln
ď }f ´ Q}8 ` Λn }f ´ Q}8

d’où le résultat.

‚ Pour les points équidistants xi < a ` ih, i P v0, nw et h < pb ´ aq{n, on a la minoration suivante
(voir [3] p. 49)
2n
Λn ě 2 (4.16)
4n

Compiled on 2023/10/10 at [Link]


138 Interpolation

et le comportement asymptotique
2n`1
Λn « quand n Ñ `8 (4.17)
e.n lnpnq

‚ Pour les points de Tchebychev, on a la majoration suivante : il existe C ą 0 tel que


Λn ď C lnpnq (4.18)
et le comportement asymptotique
2
Λn « lnpnq quand n Ñ `8 (4.19)
Ã

Proposition 4.7: admis

Pour toute famille de points d’interpolation, il existe une fonction f P C 0 pra, bs; Rq telle que la suite
des polynômes d’interpolation associés ne converge pas uniformément.

Proposition 4.8: admis


4.2.0 Stabilité

Soit f une fonction lipschitzienne sur ra, bs à valeurs réelles, i.e. il existe une constante K ě 0 telle
que @px, yq P ra, bs2 , on ait |f pxq ´ f pyq| ď K|x ´ y|. Soient n P N ˚ et x0 , ¨ ¨ ¨ , xn les points de
Tchebychev ra, bs. On note Ln pf q le polynôme d’interpolation de Lagrange associés aux couples de
pxi , f pxi qqiPv0,nw .
Alors la suite pLn pf qqně1 des polynômes d’interpolation converge uniformémént vers f sur ra, bs.

Pour conclure, l’interpolation de Lagrange en des points équidistants n’est à utiliser qu’avec un nombre
de points assez faible : des phénomènes d’instabilités pouvant apparaître.
4.2. Polynôme d’interpolation de Lagrange-Hermite

4.2 Polynôme d’interpolation de Lagrange-Hermite


4. Interpolation

Exercice 4.2.1

Soient pxi , yi , zi qiPv0,nw n ` 1 triplets de R3 , où les xi sont des points distincts deux à deux de
l’intervalle ra, bs. Le polynôme d’interpolation de Lagrange-Hermite, noté Hn , associé aux n ` 1
triplets pxi , yi , zi qiPv0,nw , est défini par

Hn pxi q < yi et H1n pxi q < zi , @i P v0, nw (4.20)

Q. 1 Quel est a priori le degré de Hn ? ˝

On défini le polynôme Pn par


n
ÿ n
ÿ
Pn pxq < yi Ai pxq ` zi Bi pxq (4.21)
i<0 i<0

avec, pour i P v0, nw, Ai et Bi polynômes de degré au plus 2n ` 1 indépendants des valeurs yi et zi .

Q. 2 a. Déterminer des conditions suffisantes sur Ai et Bi pour que Pn vérifie (4.20).


b. En déduire les expressions de Ai et Bi en fonction de Li et de L1i pxi q où

źn
x ´ xj
Li pxq < .
x
j<0 i
´ xj
j‰i

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange-Hermite 139

Q. 3 Démontrer qu’il existe un unique polynôme d’interpolation de Lagrange-Hermite de degré au


plus 2n ` 1 défini par (4.20). ˝

Correction
R. 1 On a 2n ` 2 équations, donc à priori Hn est de degré 2n ` 1.

R. 2 a. D’après (4.21) on a pour tout j P v0, nw


n
ÿ n
ÿ
Pn pxj q < yi Ai pxj q ` zi Bi pxj q
i<0 i<0

Pour avoir Pn pxj q < yj il suffit d’avoir


Ai pxj q < ¶i,j et Bi pxj q < 0, @i P v0, nw. (4.22)
De même, on a
n
ÿ n
ÿ
P1n pxj q < yi A1i pxj q ` zi Bi1 pxj q
i<0 i<0
et donc pour avoir P1n pxj q < zj il suffit d’avoir
A1i pxj q < 0 et Bi1 pxj q < ¶i,j , @i P v0, nw. (4.23)

4.2.0 Stabilité
b. Soit i P v0, nw. On commence par déterminer le polynôme Ai P R2n`1 rXs vérifiant
Ai pxj q < ¶i,j et A1i pxj q < 0, @j P v0, nw.
Les points pxj qjPv0,nwztiu sont racines doubles de Ai . Le polynôme Li P Rn rXs admet les mêmes
racines (simples) que Ai et donc L2i P R2n rXs admet les mêmes racines doubles que Ai . On peut
alors écrire
Ai pxq < ³i pxqL2i pxq avec ³i pxq P R1 rXs.
Il reste à déterminer le polynôme ³i . Or on a

[Link]ôme d’interpolation de Lagrange-Hermite


Ai pxi q < 1 et A1i pxi q < 0.

4. Interpolation
Comme Li pxi q < 1, on obtient
Ai pxi q < ³i pxi qL2i pxi q < ³i pxi q < 1
et
A1i pxi q < ³i1 pxi qL2i pxi q ` 2³i pxi qL1i pxi qLi pxi q < ³i1 pxi q ` 2³i pxi qL1i pxi q < 0
c’est à dire
³i pxi q < 1 et ³i1 pxi q < ´2L1i pxi q.
Comme ³i est un polynôme de degré 1 on en déduit
³i pxq < 1 ´ 2L1i pxi qpx ´ xi q
et donc
Ai pxq < p1 ´ 2L1i pxi qpx ´ xi qqL2i pxq. (4.24)
On détermine ensuite le polynôme Bi P R2n`1 rXs vérifiant
Bi pxj q < 0 et Bi1 pxj q < ¶i,j , @j P v0, nw.
Les points pxj qjPv0,nwztiu sont racines doubles de Bi et le point xi est racine simple. Le polynôme
L2i P R2n rXs admet les mêmes racines doubles. On peut alors écrire
Bi pxq < Cpx ´ xi qL2i pxq avec C P R.
Il reste à déterminer la constante C. Or Li pxi q < 1 et comme Bi1 pxi q < 1 on obtient
Bi1 pxi q < CL2i pxi q ` 2Cpxi ´ xi qL1i pxi qLi pxi q < C < 1
ce qui donne
Bi pxq < px ´ xi qL2i pxq. (4.25)
On vient de démontrer l’existence en construisant un polynôme de degré 2n ` 1 vérifiant (4.20).

Compiled on 2023/10/10 at [Link]


140 Interpolation

R. 3 Deux démonstrations pour l’unicité sont proposées (la deuxième donne aussi l’existence).
dém. 1: Soient P et Q deux polynômes de R2n`1 rXs vérifiant (4.20). Le polynôme R < P´Q P R2n`1 rXs
admet alors n ` 1 racines doubles distinctes :px0 , ¨ ¨ ¨ , xn q. Or le seul polynôme de R2n`1 rXs ayant
n ` 1 racines doubles est le polynôme nul et donc R < 0, i.e. P < Q.
dém. 2: Soit Φ : R2n`1 rXs ÝÑ R2n`2 définie par
@P P R2n`1 rXs, ΦpPq < pPpx0 q, ¨ ¨ ¨ , Ppxn q, P1 px0 q, ¨ ¨ ¨ , P1 pxn qq.
L’existence et l’unicité du polynôme Hn est équivalente à la bijectivité de l’application Φ. Or celle-ci
est une application linéaire entre deux espaces de dimension 2n ` 2. Elle est donc bijective si et
seulement si elle injective (ou surjective). Pour vérifier l’injectivité de Φ il est nécessaire et suffisant
de vérifier que son noyau est réduit au polynôme nul.
Soit P P ker Φ. On a alors ΦpPq < 0 2n`2 et donc px0 , ¨ ¨ ¨ , xn q sont n ` 1 racines doubles distinctes
de P. Or le seul polynôme de R2n`1 rXs ayant n ` 1 racines doubles est le polynôme nul et donc
P < 0.
˛

Definition 4.9
4.2.0 Stabilité

Soient n P N˚ et pxi , yi , zi qiPv0,nw n ` 1 triplets de R3 , où les xi sont des points distincts deux à deux
de l’intervalle ra, bs. Le polynôme d’interpolation de Lagrange-Hermite, noté Hn , associé aux
n ` 1 triplets pxi , yi , zi qiPv0,nw , est défini par
n
ÿ n
ÿ
Hn pxq < yi Ai pxq ` zi Bi pxq (4.26)
i<0 i<0

avec
Ai pxq < p1 ´ 2L1i pxi qpx ´ xi qqL2i pxq et Bi pxq < px ´ xi qL2i pxq (4.27)
4.2. Polynôme d’interpolation de Lagrange-Hermite


źn
x ´ xj
4. Interpolation

Li pxq < .
x
j<0 i
´ xj
j‰i

Théorème 4.10

Le polynôme d’interpolation de Lagrange-Hermite, Hn , associé aux n`1 triplets pxi , yi , zi qiPv0,nw ,


est l’unique polynôme de degré au plus 2n ` 1, vérifiant

Hn pxi q < yi et H1n pxi q < zi , @i P v0, nw (4.28)

Exercice 4.2.2

Soit f P C 2n`2 pra, bs; Rq. On suppose de plus que, @i P v0, nw, xi P ra, bs, yi < f pxi q et zi < f 1 pxi q.
On note
n
ź
Ãn2 pxq < px ´ xi q2
i<0

et Hn le polynôme d’interpolation de Lagrange-Hermite associé aux triplets pxi , f pxi q, f 1 pxi qqiPv0,nw .
Q. 1 Montrer que : p2n`2q :
:f :
8 2
|f pxq ´ Hn pxq| ď Ã pxq. (4.29)
p2n ` 2q! n
f pxq ´ Hn pxq 2
Indications : Etudier les zéros de la fonction F pyq < f pyq ´ Hn pyq ´ Ãn pyq et
Ãn2 pxq

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange-Hermite 141

appliquer le théorème de Rolle. ˝

Correction
R. 1 Soit i P v1, nw, on a f pxi q ´ Hn pxi q < 0 et l’inégalité (4.29) est donc vérifiée pour x < xi .
Soit x P ra, bs tel que x ‰ xi , @i P v1, nw. On a alors Ãn2 pxq ‰ 0. Comme f P C 2n`2 pra; bs; Rq, Hn P R2n`1 rXs
et Ãn P Rn`1 rXs, on en déduit que
F P C 2n`2 pra; bs; Rq.
On note que Ãn2 admet px0 , ¨ ¨ ¨ , xn q comme racines doubles distinctes. Par construction f ´ Hn admet
les mêmes racines doubles. On en déduit alors que F admet aussi px0 , ¨ ¨ ¨ , xn q comme racines doubles.
De plus, on a F pxq < 0 (i.e. x est racine simple) et donc
F admet au moins 2n ` 3 racines (comptées avec leurs multiplicités).
Les points x, x0 , ¨ ¨ ¨ , xn étant distincts, la fonction F 1 admet par le théorème de Rolle n`1 zeros distincts
entre eux et distincts des points x, x0 , ¨ ¨ ¨ , xn . De plus les points x0 , ¨ ¨ ¨ , xn sont racines de F 1 puisque
racines doubles de F. On en déduit alors que
F 1 admet au moins 2n ` 2 racines distinctes deux à deux.
Par applications successives du théorème de Rolle, on abouti a :

4.2.0 Stabilité
F p2n`2q admet au moins une racine notée Àx Psa, br.
On a alors
f pxq ´ Hn pxq d2n`2 Ãn2
F p2n`2q pÀx q < 0 < f p2n`2q pÀx q ´ Hnp2n`2q pÀx q ´ pÀx q
Ãn2 pxq dx2n`2
n
ź
p2n`2q
Comme Hn P R2n`1 rXs on a Hn = 0. De plus comme Ãn2 pxq < px ´ xi q2 P R2n`2 rXs sa dérivée
i<0
d’ordre 2n ` 2 est constante et
d2n`2 Ãn2
< p2n ` 2q!
dx2n`2

[Link]ôme d’interpolation de Lagrange-Hermite


On en déduit alors
f pxq ´ Hn pxq

4. Interpolation
f p2n`2q pÀx q < p2n ` 2q!
Ãn2 pxq
On a donc montrer que @x P ra, bs DÀx Psa, br tels que

Ãn2 pxq p2n`2q


f pxq ´ Hn pxq < f pÀx q.
p2n ` 2q!

Comme Ãn2 pxq ě 0 on obtient bien (4.29).


˛

Théorème 4.11

Soient n P N˚ et x0 , ¨ ¨ ¨ , xn , n ` 1 points distincts de l’intervalle ra, bs. Soient f P C 2n`2 pra; bs; Rq et
Hn le polynôme d’interpolation de Lagrange-Hermite associé aux n`1 triplets pxi , f pxi q, f 1 pxi qqiPv0,nw .
On a alors @x P ra, bs, DÀx P pminpxi , xq, maxpxi , xqq, tels que
n
f p2n`2q pÀx q ź
f pxq ´ Hn pxq < px ´ xi q2 (4.30)
p2n ` 2q! i<0

Exercice 4.2.3

Ecrire une fonction algorithmique Hermite permettant de calculer Hn (polynôme d’interpolation


de Lagrange-Hermite associé aux n ` 1 triplets pxi , yi , zi qiPv0,nw ) en t P R.

Compiled on 2023/10/10 at [Link]


142 Interpolation

Figure 4.9: Polynôme d’interpolation de lagrange-Hermite avec n < 6 (7 points) pour la fonction f : x ÝÑ
1{p1 ` 25x2 q. A gauche avec des points uniforméments répartis et à droite avec des points de Tchebychev
4.2.0 Stabilité
4.2. Polynôme d’interpolation de Lagrange-Hermite
4. Interpolation

Figure 4.10: Polynôme d’interpolation de lagrange-Hermite avec n < 10 (11 points) pour la fonction
f : x ÝÑ 1{p1 ` 25x2 q. A gauche avec des points uniforméments répartis et à droite avec des points de
Tchebychev

Figure 4.11: Polynôme d’interpolation de lagrange-Hermite avec n < 18 (19 points) pour la fonction
f : x ÝÑ 1{p1 ` 25x2 q. A gauche avec des points uniforméments répartis et à droite avec des points de
Tchebychev

Compiled on 2023/10/10 at [Link]


Polynôme d’interpolation de Lagrange-Hermite 143

Correction
But : Calculer le polynôme Hn ptq définit par (4.26)
Données : X : vecteur/tableau de Rn`1 , Xpiq < xi´1 @i P v1, n ` 1w et
Xpiq ‰ Xpjq pour i ‰ j,
Y : vecteur/tableau de Rn`1 , Y piq < yi´1 @i P v1, n ` 1w,
Z : vecteur/tableau de Rn`1 , Zpiq < zi´1 @i P v1, n ` 1w,
t : un réel.
Résultat : pH : le réel pH < Hn ptq.
D’après la Définition 4.9, on a
n
ÿ n
ÿ n
ÿ
Hn ptq < yi Ai ptq ` zi Bi ptq < pyi Ai ptq ` zi Bi ptqq
i<0 i<0 i<0

avec
Ai ptq < p1 ´ 2L1i pxi qpt ´ xi qqL2i ptq et Bi ptq < pt ´ xi qL2i ptq

źn
t ´ xj
Li ptq < .
x ´ xj
j<0 i
j‰i

4.2.0 Stabilité
Pour rendre effectif le calcul de Hn ptq, il reste à déterminer L1i pxi q. On a
n
ÿ źn
1 t ´ xj
L1i pxq <
k<0
x i ´ x k x
j<0 i
´ xj
k‰i j‰i
j‰k

d’où
n
ÿ 1
L1i pxi q < . (4.31)
k<0
x i ´ xk

[Link]ôme d’interpolation de Lagrange-Hermite


k‰i

La fonction que l’on va écrire use (et certains diront abuse) de fonctions.

4. Interpolation
Algorithme 4.2 Fonction Hermite permettant de calculer le polynôme d’interpolation de Lagrange-
Hermite Hn ptq définit par (4.26)

1: Fonction pH Ð Hermite ( X, Y, Z, t )
2: pH Ð 0
3: Pour i Ð 0 à n faire
4: pH Ð pH ` polyApi, X, tq ˚ Y pi ` 1q ` polyBpi, X, tq ˚ Zpi ` 1q
5: Fin Pour
6: Fin Fonction

Les différentes fonctions utilisées pour la fonction Hermite (directement ou indirectement) sont les
suivantes :

polyA : calcul du polynôme Ai en t, (données i, X, t)

polyB : calcul du polynôme Bi en t, (données i, X, t)

polyL : calcul du polynôme Li en t, (données i, X, t)

polyLp : calcul de L1i pxi q, (données i, X)

Algorithme 4.3 Fonction polyA permettant de calculer le polynôme Algorithme 4.4 Fonction polyB permettant de calculer le polynôme
Ai en t P R donné par Ai ptq < p1 ´ 2L1i pxi qpt ´ xi qqL2i ptq Bi en t P R donné par Bi ptq < pt ´ xi qL2i ptq

1: Fonction y Ð polyA ( i, X , t ) 1: Fonction y Ð polyB ( i, X , t )


2: y Ð p1 ´ 2 ˚ polyLppi, Xq ˚ pt ´ Xpi ` 1qqq ˚ ppolyLpi, X, tqq2 2: y Ð pt ´ Xpi ` 1qq ˚ ppolyLpi, X, tqq2
3: Fin Fonction 3: Fin Fonction

Compiled on 2023/10/10 at [Link]


144 Interpolation

Algorithme 4.5 Fonction polyL permettant de calculer le polynôme Algorithme 4.6 Fonction polyLp permettant de calculer L1i pxi q <
źn ÿn
t ´ xj 1
Li en t P R donné par Li ptq <
x ´ xj
j<0,j‰i i
x ´ xk
k<0,k‰i i

1: Fonction y Ð polyL ( i, X , t ) 1: Fonction y Ð polyLp ( i, X )


2: yÐ1 2: yÐ0
3: Pour j Ð 0 à n, pj >< iq faire 3: Pour k Ð 0 à n, pk >< iq faire
4: y Ð y ˚ pt ´ Xpj ` 1qq{pXpi ` 1q ´ Xpj ` 1qq 4: y Ð y ` 1{pXpi ` 1q ´ Xpk ` 1qq
5: Fin Pour 5: Fin Pour
6: Fin Fonction 6: Fin Fonction

Bien évidemment une telle écriture est loin d’être optimale mais elle a l’avantage d’être facile à program-
mer et facile à lire car elle "colle" aux formules mathématiques.
On laisse le soin au lecteur d’écrire des fonctions plus performantes... ˛

4.3 Exercices

Exercice 4.3.1

Q. 1 a. Ecrire explicitement un polynôme P de degré 2 passant par les points A < p1; 2q, B <
p2; 6q et C < p3; 12q.
b. Démontrer que le polynôme P est l’unique polynôme de degré 2 passant par les points A, B et
C.
˝

Q. 2 Ecrire explicitement un polynôme Q de degré 3 tel que


4.3.0 Stabilité

Qp1q < 4, Qp2q < 5,


Q1 p1q < 3, Q1 p2q < 2.

˝
4. Interpolation

Exercice 4.3.2

Q. 1 a. Construire les polynômes h00 , h10 , h01 et h11 de degré 3 vérifiant


4.3. Exercices

h00 p0q < 1,h100 p0q < h00 p1q < h100 p1q < 0, (4.32)
h10 p1q < 1,h10 p0q < h110 p0q < h110 p1q
< 0, (4.33)
1
h01 p0q < 1,h01 p0q < h01 p1q < h101 p1q
< 0, (4.34)
h111 p1q < 1,h11 p0q < h111 p0q < h11 p1q < 0; (4.35)

b. Démontrer que th00 , h10 , h01 , h11 u est une base de R3 rXs.
˝
On pose
Ppxq < ³h00 pxq ` ´h10 pxq ` µh01 pxq ` ¶h11 pxq. (4.36)

Q. 2 Quelles sont les particularités de P? ˝

Soient a et b deux réels, a ă b et Q un polynôme de degré R3 rXs vérifiant

Qpaq < ua , Q1 paq < va , Qpbq < ub et Q1 pbq < vb . (4.37)


t´a
On note x < φptq < b´a le changement de variable de ra; bs dans r0; 1s et on défini
def def def def
Ha0 < h00 ˝ φ, Hb0 < h10 ˝ φ, Ha1 < h01 ˝ φ, et Hb1 < h11 ˝ φ.

Compiled on 2023/10/10 at [Link]


Exercices 145

Q. 3 a. Déterminer les 4 équations vérifées par chacune des fonctions Ha0 , Ha1 , Hb0 et Hb1 ?
(i.e. 4 équations par fonction)
b. Exprimer le polynôme Q avec les fonctions Ha0 , Hb0 , Ha1 et Hb1 .
c. Le polynôme Q est-il l’unique polynôme de R3 rXs vérifiant (4.37)? Justifier.
˝

Exercice 4.3.3
t1 ´t0
Soit t0 ă t1 deux nombres réels et soit ε un réel tel que 0 ă ε ă 2 .

Q. 1 Expliciter un polynôme Pε de degré 3 tel que

Pε pt0 q < Pε pt0 ` εq < 1, (4.38)


Pε pt1 q < Pε pt1 ` εq < 0. (4.39)

On note Φ0 ptq < lim Pε ptq.


εÑ0

Q. 2 a. Montrer que Φ0 pt0 q < 1, Φ10 pt0 q < 0, Φ0 pt1 q < 0 et Φ10 pt1 q < 0 (i.e. Φ0 est une fonction
de base des polynômes de degré 3 pour l’interpolation de Hermite).
b. Peut-on obtenir toutes les fonctions de base de Hermite par des procédés analogues. Si oui,
expliquer comment!
˝

4.3.0 Stabilité
Exercice 4.3.4

Soient pxi qiPN une suite de points distincts de l’intervalle ra, bs et f une fonction définie sur ra, bs à

4. Interpolation
valeurs réelles.
On désigne par f rs les différences divisées de la fonction f définie par

f rxi s < f pxi q, @i P N, (ordre 0) (4.40)

et

[Link]
f rxk`1 , . . . , xk`r s ´ f rxk , . . . , xk`r´1 s
f rxk , . . . , xk`r s < , @k P N, @r P N˚ , (ordre r) (4.41)
xk`r ´ xk

Q. 1 Montrer que
k`r
ÿ f pxi q
f rxk , . . . , xk`r s < k`r
, @k P N, @r P N˚ . (4.42)
i<k
ź
pxi ´ xj q
j<k
j‰i

Q. 2 Soit à une permutation des entiers tk, . . . , k ` ru. Montrer que

f rxk , . . . , xk`r s < f rxσp1q , . . . , xσpr`1q s. (4.43)

On note Qk,r le polynôme d’interpolation associé aux r ` 1 couples pxk`i , f pxk`i qqiPv0,rw .

Q. 3 a. Exprimer le polynôme Qk,1 en fonction de Qk,0 .

Compiled on 2023/10/10 at [Link]


146 Interpolation

b. Exprimer le polynôme Qk,1 en fonction de Qk,0 et Qk`1,0 .


c. En déduire que
Qk,1 pxq < Qk,0 pxq ` f rxk , xk`1 spx ´ xk q. (4.44)
˝

Q. 4 a. Exprimer le polynôme Qk,2 en fonction de Qk,1 .


b. Exprimer le polynôme Qk,2 en fonction de Qk,1 et Qk`1,1 .
c. En déduire que

Qk,2 pxq < Qk,1 pxq ` f rxk , xk`1 , xk`2 spx ´ xk qpx ´ xk`1 q. (4.45)

Q. 5 a. Montrer que
r´1
ź
Qk,r pxq < Qk,r´1 pxq ` f rxk , . . . , xk`r s px ´ xk`j q (4.46)
j<0

Indication : Effectuer une démonstration par récurrence en écrirant le polynôme Qk,r sous
deux formes : l’une en fonction de Qk,r´1 et l’autre en fonction de Qk,r´1 et Qk`1,r´1 .
b. En déduire
r
ÿ i´1
ź
Qk,r pxq < f rxk s ` f rxk , . . . , xk`i s px ´ xk`j q (4.47)
i<1 j<0
˝
4.3.0 Stabilité

Q. 6 On suppose que f P C r pra, bs; Rq. Montrer qu’il existe À Ps min xk`i ; max xk`i r tel que
iPv0,rw iPv0,rw

f prq pÀq
f rxk , . . . , xk`r s < . (4.48)
r!
4. Interpolation

Q. 7 On suppose f P C r`1 pra; bs; Rq. Montrer que, @x P ra; bs, il existe Àx appartenant au plus petit
intervalle fermé contenant x, xk , . . . , xk`r tel que
4.3. Exercices

r
ź
px ´ xk`j q
j<0
f pxq ´ Qk,r pxq < f pr`1q pÀx q. (4.49)
pr ` 1q!
˝

Exercice 4.3.5

Soit X < pxi qiPv0,nw n ` 1 points deux à deux distincts de l’intervalle ra, bs. On note s le changement
de variables s : t ÝÑ a ` pb ´ aqt de r0, 1s à valeurs dans ra, bs. Pour tout i P v0, nw, on note
i ´a
ti < s-1 pxi q < xb´a et T < pti qiPv0,nw .
Les polynômes d’interpolation de Lagrange Ln pf q et Ln pgq associés respectivement aux points

Compiled on 2023/10/10 at [Link]


Exercices 147

pxi , f pxi qqiPv0,nw et pti , gpti qqiPv0,nw sont définis par


n
ÿ źn
x ´ xj
Ln pf qpxq < LX X
i pxqf pxi q avec Li pxq <
i<0
x
j<0 i
´ xj
j‰i
n
ÿ źn
t ´ tj
Ln pgqptq < LTi ptqgpti q avec LTi ptq <
i<0
t
j<0 i
´ tj
j‰i

Q. 1 Montrer que LX T
i ˝ s < Li . ˝

Q. 2 En déduire que Ln pf ˝ sq < Ln pf q ˝ s < Ln pgq. ˝

Correction
R. 1
źn źn
sptq ´ xj sptq ´ sptj q
LX
i ˝ sptq < <
j<0
x i ´ x j j<0
spt i q ´ sptj q
j‰i j‰i
źn
a ` tpb ´ aq ´ pa ` tj pb ´ aqq
<
j<0
a ` ti pb ´ aq ´ pa ` tj pb ´ aqq
j‰i
źn
t ´ tj
< < LTi ptq
t
j<0 i
´ t j
j‰i

4.3.0 Stabilité
R. 2 On a
n
ÿ
LTi ptqf ˝ spti q
def
Ln pf ˝ sqptq <

4. Interpolation
i<0
ÿn
< LTi ptqgpti q < Ln pgq
i<0

et

[Link]
n
ÿ
LX
def
Ln pf q ˝ sptq < i ˝ sptqf pxi q
i<0
ÿn
< LTi ptqf ˝ spti q < Ln pgq
i<0

Exercice 4.3.6: Spline cubique

Soient n ě 3 un entier et a < x0 ă x1 . . . ă xn´1 ă xn < b une discrétisation régulière de l’intervalle


ra, bs. On note h < xk`1 ´ xk . Une fonction s définie sur ra; bs à valeurs réelles s’appelle spline
cubique si elle est deux fois continûment différentiable et si, sur chaque intervalle rxk´1 ; xk s, elle
est polynomiale de degré inférieur ou égal à 3.
Soit f P C 2 pra; bs; Rq et s une spline cubique vérifiant

spxi q < f pxi q < fi , @i P v0, nw. (4.50)

Q. 1 Montrer que si
s2 pbqpf 1 pbq ´ s1 pbqq < s2 paqpf 1 paq ´ s1 paqq (4.51)

Compiled on 2023/10/10 at [Link]


148 Interpolation

alors żb żb
2 2
ps pxqq dx ď pf 2 pxqq2 dx. (4.52)
a a
˝
şb
Indications : Poser r < f ´ s et montrer par intégrations par parties que a
s2 pxqr2 pxqdx < 0.

Soient k P v1, nw et Sk un polynôme de degré inférieur ou égal à 3 vérifiant


$

’ Sk pxk´1 q < fk´1 (4.53a)

& S px q
k k < fk (4.53b)
2

’ Sk pxk´1 q < mk´1 (4.53c)

% 2
Sk pxk q < mk . (4.53d)

Q. 2 a. Montrer l’existence et l’unicité du polynôme Sk .


b. Montrer que polynôme Sk peut s’écrire sous la forme

Sk pxq < ak pxk ´ xq3 ` bk px ´ xk´1 q3 ` ³k pxk ´ xq ` ´k px ´ xk´1 q (4.54)

en explicitant les coefficients pak , bk , ³k , ´k q en fonction de pfk´1 , fk , mk´1 , mk q et h.


˝

On note g la fonction dont la restriction à chaque intervalle rxk´1 ; xk s, k P v1, nw, est Sk .
Q. 3 a. Vérifier que g est bien définie sur ra; bs.
b. Montrer que g est une spline cubique si et seulement si, @k P v1, n ´ 1w,
6
4.3.0 Stabilité

mk`1 ` 4mk ` mk´1 < pfk`1 ´ 2fk ` fk´1 q. (4.55)


h2
˝

Q. 4 a. Montrer qu’une condition nécessaire et suffisante pour que g soit une spline cubique et
4. Interpolation

vérifie g 2 paq < 0, g 2 pbq < 0, est que le vecteur M P Rn`1 < pm0 , m1 , . . . , mn qt soit solution
d’un système linéaire de la forme
M <b
AM (4.56)
que l’on précisera.
4.3. Exercices

b. Montrer que la matrice A est inversible.


˝

Correction

Théorème 4.12: Intégration par parties

R. 1 Soient u P C 1 pra; bs; Rq et v P C 1 pra; bs; Rq alors


żb żb
1
u pxqvpxqdx < rupxqvpxqsba ´ upxqv 1 pxqdx.
a a

On pose r < f ´ s. On a alors r P C 2 pra; bs; Rq et,

@i P v0, nw, rpxi q < 0. (4.57)

De plus
żb żb
pf 2 pxqq2 dx < ps2 pxq ` r2 pxqq2 dx
a a
żb żb żb
< ps2 pxqq2 dx ` 2 s2 pxqr2 pxqdx ` pr2 pxqq2 dx (4.58)
a a a

Compiled on 2023/10/10 at [Link]


Exercices 149

şb
Montrons que a
s2 pxqr2 pxqdx < 0.
şb
On ne peut effectuer une intégration par partie pour a s2 pxqr2 pxqdx car r2 et s2 ne sont pas dérivables.
Par contre, on a
żb n ż xi
ÿ
s2 pxqr2 pxqdx < s2 pxqr2 pxqdx
a i<1 xi´1

et, sur chaque intervalle rxi´1 , xi s, s2 est un polynôme de degré au plus 1. On a donc s2 P C 1 prxi´1 , xi s; Rq
et r1 P C 1 prxi´1 , xi s; Rq et il est alors possible de faire une intégration par partie avec u < r1 et v < s2
sur rxi´1 , xi s : ż ż
xi xi
s2 pxqr2 pxqdx < rs2 pxqh1 pxqsxxii´1 ´ s3 pxqr1 pxqdx. (4.59)
xi´1 xi´1

Or, sur rxi´1 , xi s, s P R3 rXs et donc s3 est constante, ce qui donne, en utilisant (4.57),
ż xi ż xi
3 1 3
s pxqr pxqdx < s pxi q r1 pxqdx < s3 pxi qprpxi q ´ rpxi´1 qq < 0.
xi´1 xi´1

De (4.59), On a alors, @i P v1, nw,


ż xi
s3 pxqr1 pxqdx < s2 pxi qh1 pxi q ´ s2 pxi´1 qh1 pxi´1 q.
xi´1

En sommant, on abouti a
żb
s2 pxqr2 pxqdx < s2 pxn qh1 pxn q ´ s2 px0 qh1 px0 q < s2 pbqh1 pbq ´ s2 paqh1 paq.
a
şb
Sous l’hypothèse (4.51) on a bien a
s2 pxqr2 pxqdx < 0. L’équation (4.58) devient alors

4.3.0 Stabilité
żb żb żb
pf 2 pxqq2 dx < ps2 pxqq2 dx ` pr2 pxqq2 dx.
a a a

D’où żb żb

4. Interpolation
pf 2 pxqq2 dx ě ps2 pxqq2 dx.
a a

R. 2 a. Soit Φk : R3 rXs ÝÑ R4 définie par

Φk pP q < pP pxk´1 q, P pxk q, P 2 pxk´1 q, P 2 pxk qqt .

[Link]
L’existence et l’unicité du polynôme Sk est équivalente à la bijectivité de Φk . Cette dernière étant
une application entre deux espaces vectoriels de même dimension finie 4, elle est bijective si et
seulement si elle est injective. Pour établir l’injectivité de Φk il faut montrer que son noyau est
réduit au polynôme nul.
Soit P P ker Φk alors Φk pP q < 0R4 . On en déduit que xk´1 et xk sont racines de P, et P s’écrit
alors sous la forme
P pxq < px ´ xk´1 qpx ´ xk qQpxq
avec Qpxq < ³x ` ´ polynôme de degré 1.
On a
P 1 pxq < px ´ xk´1 qQpxq ` px ´ xk qQpxq ` ³px ´ xk´1 qpx ´ xk q
et
P 2 pxq < 2pQpxq ` ³px ´ xk´1 q ` ³px ´ xk q.
Comme P 2 pxk´1 q < P 2 pxk q < 0, on obtient
" "
Qpxk´1 q ` ³pxk´1 ´ xk q < 0, ³pxk´1 ´ hq ` ´ < 0,
ðñ
Qpxk q ` ³pxk ´ xk´1 q < 0, ³pxk ` hq ` ´ < 0,

En soustrayant la première équation à la deuxième, on obtient 3³h < 0. Comme h ‰ 0, on obtient


³ < ´ < 0. D’où Q = 0 et donc P = 0.

Compiled on 2023/10/10 at [Link]


150 Interpolation

b. On a Sk2 pxq < 6ak pxk ´ xq ` 6bk px ´ xk´1 q. Pour déterminer ak et bk , on utilise les équations (4.53c)
et (4.53d) qui deviennent respectivement 6hak < mk´1 et 6hbak < mk . On obtient
mk´1 mk
ak < et bk < .
6h 6h
Pour déterminer ³k et ´k on utilise les équations (4.53c) et (4.53d) qui deviennent respectivement
ak h3 ` ³k h < fk´1 et bk h3 ` ´k h < fk .
En remplaçant ak et bk par leurs valeurs, on obtient
fk´1 h fk h
³k < ´ mk´1 et ´k < ´ mk .
h 6 h 6

R. 3 a. On a par définition @k P v1, nw, gpxq < Sk pxq, @x P rxk´1 , xk s. Le problème de définition de
g provient du fait que g est définie deux fois en xk , k P v1, n ´ 1w. En effet, on a
gpxk q < Sk pxk q et gpxk q < Sk`1 pxk q.
Or par construction des Sk , on a Sk pxk q < Sk`1 pxk q < fk et donc la fonction g est bien définie sur
ra, bs.
b. Par construction, sur chaque intervalle rxk´1 ; xk s, la fonction g est polynomiale de degré inférieur
ou égal à 3. Pour quelle soit un spline cubique, il reste à démontrer qu’elle est deux fois continûment
différentiable sur ra, bs. Il suffit pour celà de vérifier qu’en chaque point xk , k P v1, n ´ 1w, la fonction
g est continue et admet des dérivées premières et secondes.
La continuité est immédiate puisque gpxk q < fk . Pour les dérivées premières et secondes, il faut que
leurs limites à gauche et à droite soient égales, c’est à dire
@k P v1, n ´ 1w, Sk1 pxk q < Sk`1
1
pxk q et Sk2 pxk q < Sk`1
2
pxk q.
Par construction des Sk , la seconde équation est immédiate : Sk2 pxk q < Sk`1
2
pxk q < mk . On a
1
Sk pxq < ´3ak pxk ´ xq ` 3bk px ´ xk´1 q ´ ³k ` ´k et donc
2 2
4.3.0 Stabilité

h 1 h
Sk1 pxk q < 3bk h2 ´ ³k ` ´k < mk ` pfk ´ f k ´ 1q ´ pmk ´ mk´1 q
2 h 6
De même, on obtient
1
4. Interpolation

1 h h
Sk`1 pxk q < ´3ak`1 h2 ´ ³k`1 ` ´k`1 < ´ mk ` pfk`1 ´ f kq ´ pmk`1 ´ mk q
2 h 6
1 1
Donc g sera dérivable en xk si Sk pxk q < Sk`1 pxk q, c’est à dire si
h 1 h h 1 h
mk ` pfk ´ f k ´ 1q ´ pmk ´ mk´1 q < ´ mk ` pfk`1 ´ f kq ´ pmk`1 ´ mk q
2 h 6 2 h 6
4.3. Exercices

ce qui s’écrit encore, @k P v1, n ´ 1w,


6
mk`1 ` 4mk ` mk´1 < pfk`1 ´ 2fk ` fk´1 q
h2

R. 4 a. La condition g 2 paq < 0 se traduit par S12 px0 q < 0 or par (4.53c) avec k < 1 on a S12 px0 q < m0
d’où m0 < 0.
La condition g 2 pbq < 0 se traduit par Sn2 pxn q < 0 or par (4.53d) avec k < n on a Sn2 pxn q < mn d’où
mn < 0.
Pour déterminer les mk , k P v0, nw, on a n ` 1 équations linéaires qui s’écrivent sous la forme
matricielle AM
M < b avec
¨ ˛
1 0 0 ... 0 ¨ ˛
˚ . . 9 0
˚1 4 1 . . .. 9 ˚ f0 ´ 2f1 ` f2 9
˚ 9 6 ˚ 9
˚ 9
A < ˚0 . . . . . . . . . 09 et b < 2 ˚
˚ .. 9
. 9
˚ 9 h ˚ 9
˚. . 9 ˝fn´2 ´ 2fn´1 ` fn ‚
˝. . . . 1 4 1‚
0
0 ... 0 0 1
b. La matrice A est à diagonale strictement dominante : elle est donc inversible.
˛

Compiled on 2023/10/10 at [Link]


Chapitre 5
Intégration numérique

Soit f une fonction définie et intégrable sur un intervalle ra, bs donné. On propose de chercher des
approximations de
żb
I< f pxqdx
a
dans le cas où l’on ne connait pas de primitive de f.

y = f(x)

f(b)

Z b
f(a)
f(x)dx
a

a b

şb
Figure 5.1: Représentation de a
f pxqdx (aire de la surface colorée)

Definition 5.1

Soient f P C 0 pra, bs; Rq et Qn pf, a, bq la formule de quadrature élémentaire donnée par :


n
ÿ
def
Qn pf, a, bq < pb ´ aq wj f pxj q (5.1)
j<0

avec @j P v0, nw wj P R et xj P ra, bs distincts deux à deux. L’erreur associée à cette formule de
152 Intégration numérique

quadrature, notée Ea,b pf q, est définie par


żb
Ea,b pf q < f pxqdx ´ Qn pf, a, bq, @f P C 0 pra, bs; Rq (5.2)
a

Definition 5.2

On dit qu’une formule d’intégration (ou formule de quadrature) est d’ordre p ou a pour degré
d’exactitude p si elle est exacte pour les polynômes de degré inférieur ou égal à p.

5.1 Méthodes de quadrature élémentaires


On suppose que les points xj de la formule de quadrature (5.1) sont deux à deux disticts.

5.1.1 Méthodes simplistes


On peut approcher f par un polynôme constant. Les trois formules usuels sont
5.1.1 Méthodes simplistes

şb
Méthode du rectangle à gauche : En figure 5.2, on représente l’approximation de a
f pxqdx lorsque
f est approché par le polynôme constant P pxq < f paq.

y = f(x)

f(b)
5. Intégration numérique

f(a)
5.1. Méthodes de quadrature élémentaires

a b

şb
Figure 5.2: Formule du rectangle à gauche : a
f pxqdx « pb ´ aqf paq (aire de la surface colorée)

On a alors
żb
f pxqdx « Q0 pf, a, bq < pb ´ aqf paq, formule du rectangle (à gauche)
a

et son degré d’exactitude est 0.


şb
Méthode du rectangle à droite : En figure 5.3, on représente l’approximation de a
f pxqdx lorsque
f est approché par le polynôme constant P pxq < f pbq.
On a alors
żb
f pxqdx « Q0 pf, a, bq < pb ´ aqf pbq, formule du rectangle (à droite)
a

et son degré d’exactitude est 0.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 153

y = f(x)

f(b)

f(a)

5.1.1 Méthodes simplistes


a b

şb
Figure 5.3: Formule du rectangle à droite : a
f pxqdx « pb ´ aqf pbq (aire de la surface colorée)

5. Intégration numérique
5.1.Méthodes de quadrature élémentaires
f(c) y = f(x)

f(b)

f(a)

a c = a +2 b b

şb
Figure 5.4: Formule du point milieu : a
f pxqdx « pb ´ aqf p a`b
2 q (aire de la surface colorée)

Compiled on 2023/10/10 at [Link]


154 Intégration numérique

şb
Méthode du point milieu : En figure 5.4, on représente l’approximation de a
f pxqdx lorsque f est
approché par le polynôme constant P pxq < f ppa ` bq{2q. On a alors
żb ˆ ˙
a`b
f pxqdx « Q0 pf, a, bq < pb ´ aqf , formule du point milieu
a 2

et son degré d’exactitude est 1.

La précision de ces formules est toute relative!


Nous allons maintenant voir comment généraliser en approchant la fonction f par des polynômes d’interpolation
de Lagrange de degré plus élevés.

5.1.2 Quelques résultats théoriques


Pour obtenir certains résultats associés à une formule de quadrature sur l’intervalle ra; bs, il serait souvent
plus simple de les déterminer sur les intervalles d’intégration r0; 1s ou r´1; 1s. La proposition suivante va
nous permettre d’affirmer qu’étudier le degré d’exactitude d’une formule de quadrature sur l’intervalle
ra; bs est équivalent à l’étudier sur l’intervalle r0; 1s ou sur l’intervalle r´1; 1s moyennant respectivemment
5.1.2 Quelques résultats théoriques

les changements de variables

a`b b´a
x < φptq < a ` pb ´ aqt ou x < φptq < ` t
2 2

Proposition 5.3

Soit Qn pf, a, bq definie en (5.1), une formule de quadrature élémentaire à n ` 1 points pxi qiPv0,nw
(distincts deux à deux dans ra, bs).
On note x < φptq < ³ ` ´t, ´ P R˚ , le changement de variable affine, ti < φ´1 pxi q, @i P v0, nw, et
5. Intégration numérique

n
` ˘ÿ
Qn pg, φ´1 paq, φ´1 pbqq < φ´1 pbq ´ φ´1 paq wi gpti q. (5.3)
i<0

Alors Qn pf, a, bq est de degré d’exactitude k si et seulement si Qn pg, φ´1 paq, φ´1 pbqq est de degré
d’exactitude k.
5.1. Méthodes de quadrature élémentaires

x´α
Preuve. On a φ´1 pxq < β .

ñ On suppose que Qn pf, a, bq est de degré d’exactitude k. Soit Q P Rk rXs. On a


ż ϕ´1 pbq żb
1
Qptqdt < Q ˝ φ´1 pxqdx.
ϕ´1 paq ´ a

Or φ´1 est un polynôme de degré 1 et Q ˝ φ´1 est la composé de deux polynômes: c’est donc
un polynôme de degré le produit des degrés des deux polynômes, i.e. Q ˝ φ´1 P Rk rXs. Comme
Qn pf, a, bq est de degré d’exactitude k, on en déduit que
żb n
ÿ n
ÿ
Q ˝ φ´1 pxqdx < Qn pQ ˝ φ´1 , a, bq < pb ´ aq wi Q ˝ φ´1 pxi q < pb ´ aq wi Qpti q.
a i<0 i<0

On a alors
ż ϕ´1 pbq n
b´a ÿ
Qptqdt < wi Qpti q
ϕ´1 paq ´ i<0
or
b´³ a´³ b´a
φ´1 pbq ´ φ´1 paq < ´ < .
´ ´ ´
On en conclu donc que Qn pg, φ´1 paq, φ´1 pbqq est de degré d’exactitude k.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 155

ð On suppose que Qn pg, φ´1 paq, φ´1 pbqq est de degré d’exactitude k. Soit P P Rk rXs. On a
żb ż ϕ´1 pbq
Ppxqdx < ´ P ˝ φptqdt.
a ϕ´1 paq

Or φ est un polynôme de degré 1 et P ˝ φ´1 est la composé de deux polynômes: c’est donc
un polynôme de degré le produit des degrés des deux polynômes, i.e. P ˝ φ P Rk rXs. Comme
Qn pg, φ´1 paq, φ´1 pbqq est de degré d’exactitude k, on en déduit que
ż ϕ´1 pbq
P ˝ φptqdt < Qn pP ˝ φ, φ´1 paq, φ´1 pbqq
ϕ´1 paq
n
` ˘ÿ
< φ´1 pbq ´ φ´1 paq wi P ˝ φpti q
i<0
n
` ˘ÿ
< φ´1 pbq ´ φ´1 paq wi Ppxi q.
i<0

On a alors żb n
` ˘ÿ

5.1.2 Quelques résultats théoriques


Ppxqdx < ´ φ´1 pbq ´ φ´1 paq wi Ppxi q
a i<0
´1 ´1 b´a
et comme φ pbq ´ φ paq < β , on en déduit que Qn pf, a, bq est de degré d’exactitude k.

Proposition 5.4

Soit Qn pf, a, bq definie en (5.1), une formule de quadrature élémentaire à n ` 1 points.


L’application f ÞÝÑ Qn pf, a, bq définie de f P C 0 pra, bs; Rq, muni de la norme infini, à valeurs dans
R est linéaire continue.

5. Intégration numérique
Preuve. On commence par démontrer la linéarité. Soient f et g dans P C 0 pra, bs; Rq, et ¼ et µ deux réels.
Alors ¼f ` µg P C 0 pra, bs; Rq, et on a
n
ÿ
Qn p¼f ` µg, a, bq < pb ´ aq wj p¼f ` µgqpxj q
j<0

5.1.Méthodes de quadrature élémentaires


ÿn
` ˘
< pb ´ aq wj ¼f pxj q ` µgpxj q
j<0
n
ÿ n
ÿ
< ¼pb ´ aq wj f pxj q ` µpb ´ aq wj gpxj q
j<0 j<0

< ¼Qn pf, a, bq ` µQn pg, a, bq.


L’application f ÞÝÑ Qn pf, a, bq est donc linéaire. Pour démontrer qu’elle est continue, il suffit alors de
démontrer que
DC ą 0, tel que |Qn pf, a, bq| ď C }f }8 , @f P C 0 pra, bs; Rq.
Or, on a, pour tout f P C 0 pra, bs; Rq,
n
ÿ
|Qn pf, a, bq| < |pb ´ aq wj f pxj q|
j<0
n
ÿ
ď pb ´ aq |wj ||f pxj q|
j<0
n
ÿ
ď C }f }8 , avec C < pb ´ aq |wj | indépendant de f.
j<0

Compiled on 2023/10/10 at [Link]


156 Intégration numérique

Proposition 5.5

La formule de quadrature élémentaire (5.1) à n ` 1 points est de degré d’exactitude k (au moins) si
et seulement si
ÿn
br`1 ´ ar`1
pb ´ aq wi xri < , @r P v0, kw. (5.4)
i<0
r`1

Preuve. • ñ Si la formule (5.1) est de degré d’exactitude k, elle est donc exacte pour tout polynôme
de Rk rXs et plus particulièrement pour tous les monômes 1, X, X 2 , . . . , X k . Soit r P v0, kw. En
prenant f pxq < xr , la formule (5.1) étant exacte par hypothèse, on obtient
ÿn żb
hyp br`1 ´ ar`1
Qn px ÞÑ xr , a, bq < pb ´ aq wi xri < xr dx <
i<0 a r`1

• ð On suppose que l’on a (5.4). Soit P P Rk rXs. On va montrer que la formule de quadrature
(5.1) est alors exacte.
Le polynôme P peut s’écrire comme combinaison linéaire des monômes de t1, X, X 2 , . . . , X k u, base
5.1.2 Quelques résultats théoriques

de Rk rXs.
1ère démonstration: On a donc
k
ÿ
Ppxq < ³j xj , @x P R.
j<0

En prenant f < P, la formule de quadrature (5.1) donne


żb n
ÿ n
ÿ k
ÿ
Ppxqdx « pb ´ aq wi Ppxi q < pb ´ aq wi ³j xji
a i<0 i<0 j<0

De plus, par linéarité de l’intégrale, on a


5. Intégration numérique

żb k
ÿ żb k
ÿ bj`1 ´ aj`1
Ppxqdx < ³j xj dx < ³j
a j<0 a j<0
j`1

et en utilisant (5.4) on obtient


żb k
ÿ n
ÿ
5.1. Méthodes de quadrature élémentaires

Ppxqdx < pb ´ aq ³j wi xji


a j<0 i<0

Ce qui donne
żb n
ÿ
Ppxqdx < pb ´ aq wi Ppxi q.
a i<0
La formule de quadrature est donc de degré d’exactitude k.
2ème démonstration: On a donc
k
ÿ
P< ³j X j
j<0

et par linéarité de l’application f ÞÝÑ Qn pf, a, bq (voir Proposition 5.4) on obtient


k
ÿ
Qn pP, a, bq < Qn p ³j X j , a, bq
j<0
k
ÿ
< ³j Qn pX j , a, bq.
j<0

Par hypothèse, on a (5.4) et, comme par définition X j est le polynôme x ÞÑ xj , on obtient
żb żb
hyp bj`1 ´ aj`1
@j P v0, kw, Qn pX j , a, bq < X j pxqdx < xj dx < .
a a j`1

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 157

De plus, par linéarité de l’intégrale, on a


żb ÿk żb ÿk
bj`1 ´ aj`1
Ppxqdx < ³j xj dx < ³j
a j<0 a j<0
j`1

et donc
żb k
ÿ
Ppxqdx < ³j Qn pX j , a, bq < Qn pP, a, bq.
a j<0

En appliquant la Proposition 5.5 avec k < 0, on obtient immédiatemment le corolaire suivant.

Corollaire 5.6

La formule de quadrature élémentaire (5.1) à n ` 1 points est de degré d’exactitude 0 au moins si


et seulement si
ÿn
wi < 1.
i<0

5.1.2 Quelques résultats théoriques


Proposition 5.7

Soient pxi qiPv0,nw des points deux à deux distincts de l’intervalle ra, bs donnés. Il existe alors une
unique formule de quadrature élémentaire (5.1) à n ` 1 points de degré d’exactitude n au moins.

Preuve. En fixant les points pxi qiPv0,nw deux à deux distincts, pour obtenir explicitement la formule de
quadrature de type (5.1) il faut déterminer les n ` 1 poids pwi qiPv0,nw . Or, de (5.4), en prenant k < n, on
obtient exactement n ` 1 équations linéaires en les pwi q s’écrivant matriciellement sous la forme :
¨ ˛¨ ˛ ¨ ˛
1 1 ¨¨¨ 1 w0 b´a

5. Intégration numérique
2 2
˚ x0 x1 ¨ ¨ ¨ xn 9 ˚ w 1 9 ˚ b ´a 9
˚ 9˚ 9 ˚ 2 9
pb ´ aq ˚ . . . 9 ˚ . 9 <˚ .
.. 9
˝ .. .. .. ‚˝ .. ‚ ˝ ‚
xn0 xn1 ¨¨¨ xnn wn bn`1 ´an`1
n`1

La matrice intervenant dans le système précédent s’appelle la matrice de Vandermonde et elle est
inversible (car les pxi q sont deux à deux distincts, voir Exercice ??). Ceci établi donc l’existence et

5.1.Méthodes de quadrature élémentaires


l’unicité de poids pwi qiPv0,nw tels que la formule de quadrature élémentaire (5.1) soit d’ordre (au moins)
n.
Il est aussi possible de démontrer l’unicité classiquement. Supposons qu’il existe pwi qiPv0,nw et pw̃i qiPv0,nw
tels que pour tout P P Rn rXs, on ait
żb ÿn n
ÿ
Ppxqdx < pb ´ aq wi Ppxi q < pb ´ aq w̃i Ppxi q.
a i<0 i<0

On a alors @P P Rn rXs,
n
ÿ
pwi ´ w̃i qPpxi q < 0. (5.5)
i<0
On rappelle que les fonctions de base de Lagrange associées aux pn ` 1q points pxi qiPv0,nw définies en (4.5),
notées Li , sont dans Rn rXs et vérifient
Li pxj q < ¶i,j , @j P v0, nw
Soit j P v0, nw. En choisissant P < Lj dans (5.5), on obtient
n
ÿ
0< pwi ´ w̃i qLj pxi q < pwj ´ w̃j q
i<0

ce qui prouve l’unicité.

Compiled on 2023/10/10 at [Link]


158 Intégration numérique

Exercice 5.1.1

Soient pxi qni<0 pn ` 1q points donnés et distincts 2 à 2 d’un intervalle ra, bs (a ă b). Ecrire une
fonction algorithmique WeightsFromPoints permettant de déterminer les poids pwi qni<0 de telle
sorte que la formule de quadrature élémentaire associée soit de degré d’exactitude n au moins en
s’inspirant de résultats obtenus dans la démonstration de la Proposition 5.7. On pourra utiliser la
fonction algorithmique x Ð SolvepA, b q permettant de résoudre le système linéaire Ax x < b.

CorrectionNous avons vu, dans la Proposition 5.7, que pour avoir une formule de quadrature élémentaire
de degré d’exactitude n, il est nécessaire et suffisant que les pn`1q poids pwi qni<0 soient solution du système
linéaire suivant: ¨ ˛¨ ˛ ¨ ˛
1 1 ¨¨¨ 1 w0 b´a
2 2
˚ x0 x1 ¨ ¨ ¨ xn 9 ˚ w1 9 ˚ b ´a 9
˚ 9˚ 9 ˚ 2 9
pb ´ aq ˚ . .. .. 9 ˚ .. 9 < ˚ .. 9
˝ .. . . ‚˝ . ‚ ˝ . ‚
n n n n`1 n`1
x0 x1 ¨ ¨ ¨ xn wn b ´a
n`1

Algorithme 5.1 Fonction WeightsFromPoints retournant le tableau des poids w associé à un tableau
5.1.2 Quelques résultats théoriques

de points x donnés (points 2 à 2 distincts) appartenant à un intervalle ra, bs.


Données : x :tableau de Rn`1 contenant pn ` 1q points distincts deux à deux
dans un intervalle ra, bs avec la convention
x piq < xi´1 , @i P v1, n ` 1w
a, b : deux réels, a ă b.
Résultat : w : vecteur de Rn`1 avec w piq < wi´1 , @i P v1, n ` 1w

1: Fonction w Ð WeightsFromPoints ( x, a, b )
2: b Ð O n`1
3: A Ð On`1,n`1
4: Pour i Ð 1 à n ` 1 faire
5: Pour j Ð 1 à n ` 1 faire
5. Intégration numérique

^
6: Api, jq Ð x pjq pi ´ 1q
7: Fin Pour
8: b piq Ð pb^ i ´ a^ iq{pi ˚ pb ´ aqq
9: Fin Pour
10: w Ð SolvepA, b q
11: Fin Fonction
5.1. Méthodes de quadrature élémentaires

Proposition 5.8: symétrie

Soit Qn pf, a, bq definie en (5.1), une formule de quadrature élémentaire à n ` 1 points (distincts
deux à deux et ordonnés). On dit qu’elle est symétrique si

xi ` xn´i a`b
@i P v0, nw, < et wi < wn´i . (5.6)
2 2
Dans ce cas si cette formule est exacte pour les polynômes de degré 2m alors elle est nécessairement
exacte pour les polynômes de degré 2m ` 1.

Preuve. Soit P P R2m`1 rXs. Il peut alors s’écrire sous la forme


ˆ ˙2m`1
a`b
Ppxq < C x ´ ` Rpxq
2
avec C une constante réelle et R P R2m rXs. On a alors
żb żbˆ ˙2m`1 żb
a`b
Ppxqdx < C x´ dx ` Rpxqdx
a a 2 a

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 159

et en appliquant la formule de quadrature au polynôme P on obtient


ÿn ÿn ˆ ˙2m`1 ÿ n
a`b
wi Ppxi q < C w i xi ´ ` wi Rpxi q
i<0 i<0
2 i<0

On veut donc démontrer que


żb n
ÿ
Ppxqdx < pb ´ aq wi Ppxi q
a i<0
c’est à dire
żbˆ ˙2m`1 żb ÿn ˆ ˙2m`1 ÿn
a`b a`b
C x´ dx ` Rpxqdx < pb ´ aqC w i xi ´ ` pb ´ aq wi Rpxi q
a 2 a i<0
2 i<0

Comme la formule de quadrature est supposée exacte pour les polynôme de degré 2m, on a
żb n
ÿ
Rpxqdx < pb ´ aq wi Rpxi q.
a i<0

Il reste donc à démontrer que


żbˆ ˙2m`1 ˆ ˙2m`1

5.1.2 Quelques résultats théoriques


ÿn
a`b a`b
x´ dx < pb ´ aq w i xi ´ .
a 2 i<0
2

Or en effectuant le changement de variable t ÞÑ a`b b´a


2 ` t 2 on obtient
żbˆ ˙2m`1 ż
a`b b ´ a 1 2m`1
x´ dx < t dt < 0.
a 2 2 ´1

Des propriétés de symétrie de la formule, on déduit


ˆ ˙
a`b a`b
xi ` xn´i < a ` b ô xi ´ <´ xn´i ´
2 2
‚ Si n < 2k, (n paire), on a alors un nombre impair de points avec nécessairement xk < xn´k < a`b

5. Intégration numérique
2
et
ÿ n ˆ ˙2m`1 k´1
ÿ ˆ ˙2m`1 2k
ÿ ˆ ˙2m`1
a`b a`b a`b
w i xi ´ < w i xi ´ ` 0 ˆ wk ` w i xi ´
i<0
2 i<0
2 i<k`1
2
k´1
ÿ ˆ ˙2m`1 ÿ2k ˆ ˙2m`1
a`b a`b

5.1.Méthodes de quadrature élémentaires


< w i xi ´ ´ wn´i xn´i ´
i<0
2 i<k`1
2
k´1
ÿ ˆ ˙2m`1 k´1
ÿ ˆ ˙2m`1
a`b a`b
< w i xi ´ ´ w j xj ´
i<0
2 j<0
2
< 0.
a`b
‚ Si n < 2k ´ 1, (n impaire), on alors un nombre pair de points (avec xi ‰ 2 , @i P v0, nw) et
n
ÿ ˆ ˙2m`1 k´1
ÿ ˆ ˙2m`1 2k´1
ÿ ˆ ˙2m`1
a`b a`b a`b
w i xi ´ < w i xi ´ ` w i xi ´
i<0
2 i<0
2 i<k
2
k´1
ÿ ˆ ˙2m`1 2k´1
ÿ ˆ ˙2m`1
a`b a`b
< w i xi ´ ´ wn´i xn´i ´
i<0
2 i<k
2
k´1
ÿ ˆ ˙2m`1 k´1
ÿ ˆ ˙2m`1
a`b a`b
< w i xi ´ ´ w j xj ´
i<0
2 j<0
2
< 0.

Le résultat suivant fait le lien avec les polynômes d’interpolation de Lagrange pour établir une majoration
de l’erreur associée à une formule de quadrature élémentaire.

Compiled on 2023/10/10 at [Link]


160 Intégration numérique

Proposition 5.9

Soit Qn pf, a, bq definie en (5.1), une formule de quadrature élémentaire à n ` 1 points pxi qiPv0,nw
(distincts deux à deux).
La formule de quadrature est de degré d’exactitude n au moins si et seulement si pour tout i P v0, nw,
les poids wi sont donnés par
żbź
n ż1ź
n
1
def x ´ xj t ´ tj
wi < dx < dx, @i P v0, nw (5.7)
b´a a x
j<0 i
´ xj 0 t
j<0 i
´ tj
j‰i j‰i

avec ti < pxi ´ aq{pb ´ aq.


Si f P C n`1 pra, bs; Rq alors on a

1 : : żb ź n
: pn`1q :
|Ea,b pf q| ď :f : | px ´ xi q|dx (5.8)
pn ` 1q! 8 a
i<0

Preuve. Montrons tout d’abord que l’on a l’égalité suivante


5.1.2 Quelques résultats théoriques

żbź n ż1ź n
1 x ´ xj t ´ tj
dx < dx.
b ´ a a j<0 xi ´ xj 0 j<0 i ´ tj
t
j‰i j‰i

Par le changement de variables s : t ÝÑ a ` pb ´ aqt on obtient


żb ż1
Li pxqdx < pb ´ aq Li ˝ sptqdt
a 0

et l’on a xi < spti q < a ` pb ´ aqti où ti < pxi ´ aq{pb ´ aq. On en déduit
ż1 ż1ź n ż1ź n
sptq ´ sptj q pb ´ aqpt ´ tj q
Li ˝ sptqdt < dt < dt
0 j<0 spti q ´ sptj q 0 j<0 pb ´ aqpti ´ tj q
5. Intégration numérique

0
j‰i j‰i
ż1ź
n
t ´ tj
< dt
0 t ´ tj
j<0 i
j‰i

L’égalité est donc démontré.


5.1. Méthodes de quadrature élémentaires

Pour démontrer la proposition, on note Ln pf q le polynôme d’interpolation de Lagrange associés aux


points pxi , f pxi qqiPv0,nw :
n
ÿ źn
x ´ xj
Ln pf qpxq < Li pxqf pxi q avec Li pxq <
i<0
x ´ xj
j<0 i
j‰i

On a alors żb żb
n
ÿ
Ln pf qpxqdx < f pxi q Li pxqdx.
a i<0 a

ñ On suppose que la formule de quadrature est de degré d’exactitude n. Soit i P v0, nw, Li P Rn rXs
et on a alors par hypothèse
żb
hyp
Qn pLi , a, bq < Li pxqdx.
a
Or comme Li pxj q < ¶i,j on a
n
ÿ
Qn pLi , a, bq < pb ´ aq wj Li pxj q < pb ´ aqwi .
j<0

On obtient donc żb
1
wi < Li pxqdx.
b´a a

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 161

ð On suppose les poids pwi qni<0 donnés par (5.7). La formule de quadrature s’écrit alors
n
ÿ żb
hyp
Qn pf, a, bq < f pxi q Li pxqdx.
i<0 a

Soit P P Rn rXs. Par unicité du polynôme d’interpolation de Lagrange, on a P < Ln pP q et


żb żb
Ppxqdx < Ln pP qpxqdx
a a
żbÿ n
< Li pxqPpxi qdx
a i<0
n
ÿ żb
< Ppxi q Li pxqdx
i<0 a
n
ÿ
< pb ´ aq wi Ppxi q < Qn pP, a, bq.
i<0

5.1.2 Quelques résultats théoriques


La formule de quadrature est donc exacte pour tout les polynômes de degré n au moins.

Pour démontrer l’inégalité (5.8), comme f P C n`1 pra, bs; Rq, on peut appliquer le théorème 4.3 pour
obtenir
n
f pn`1q pÀx q ź
@x P ra, bs, DÀx P ra, bs, f pxq ´ Ln pf qpxq < px ´ xi q
pn ` 1q! i<0

On en déduit
ˇ pn`1q ˇ
ˇf pÀx q ˇ
ˇ
|f pxq ´ Ln pf qpxq| < ˇ Ãn pxqˇˇ
pn ` 1q!
: :
: pn`1q :
:f :
8
ď |Ãn pxq|

5. Intégration numérique
pn ` 1q!

L’application f ´ Ln pf q étant intégrable sur ra, bs, l’application |f ´ Ln pf q| l’est aussi. De même |Ãn pxq|
est intégrable sur ra, bs. On obtient alors
: :
żb : pn`1q : ż
:f : b

5.1.Méthodes de quadrature élémentaires


8
|f pxq ´ Ln pf qpxq|dx ď |Ãn pxq|dx.
a pn ` 1q! a

De plus ˇż ˇ ż
ˇ b ˇ b
ˇ ˇ
ˇ f pxq ´ Ln pf qpxqdxˇ ď |f pxq ´ Ln pf qpxq|dx
ˇ a ˇ a

ce qui donne : :
ˇż żb ˇ : pn`1q : żb ź
ˇ b ˇ :f : n
ˇ ˇ 8
ˇ f pxqdx ´ Ln pf qpxqdxˇ ď | px ´ xi q|dx.
ˇ a a ˇ pn ` 1q! a i<0

La formule de quadrature est de degré d’exactitude n au moins et le polynôme d’interpolation de Lagrange


Ln pf q est de degré n donc on a
żb
Ln pf qpxqdx < Qn pLn pf q, a, bq
a
n
ÿ
< pb ´ aq wi Ln pf qpxi q
i<0
ÿn
< pb ´ aq wi f pxi q car Ln pf qpxi q < f pxi q
i<0
< Qn pf, a, bq

Compiled on 2023/10/10 at [Link]


162 Intégration numérique

ce qui donne
ˇż ˇ
ˇ b ˇ
ˇ ˇ
|Ea,b pf q| < ˇ f pxqdx ´ Qn pf, a, bqˇ
ˇ a ˇ
ˇż ż ˇ
ˇ b b ˇ
ˇ ˇ
< ˇ f pxqdx ´ Ln pf qpxqdxˇ
ˇ a a ˇ
: :
: pn`1q : ż
:f : b ź n
8
ď | px ´ xi q|dx.
pn ` 1q! a i<0

Exercice 5.1.2

Soient pxi qni<0 des points distincts 2 à 2 de l’intervalle ra, bs vérifiant

xi ` xn´i a`b
5.1.2 Quelques résultats théoriques

@i P v0, nw, < .


2 2
On note Li P Rn rXs, i P v0, nw les pn ` 1q polynômes de base de Lagrange définis par

źn
x ´ xj
Li pxq <
x
j<0 i
´ xj
j‰i

et vérifiant Li pxj q < ¶i,j , @pi, jq P v0, nw2

Q. 1 Soit i P v0, nw. Montrer que

@x P R, Li ppa ` bq ´ xq < Ln´i pxq.


5. Intégration numérique

Q. 2 Soient pwi qni<0 définis par


żb
1
wi < Li ptqdt, @i P v0, nw
5.1. Méthodes de quadrature élémentaires

b´a a

Montrer que l’on a alors


@i P v0, nw, wi < wn´i
˝

Correction
R. 1 Soit i P v0, nw. On note φpxq < pa ` bq ´ x le polynôme de degré 1 et P < Li ˝ φ le polynôme de
Rn rXs (la composé de 2 polynômes est de degré le produit des degrés des 2 polynômes).
On a
@j P v0, nw, xn´j < pa ` bq ´ xj
et
# #
1, si i < n ´ j 1, si j < n ´ i
Ppxj q < Li ppa ` bq ´ xj q < Li pxn´j q < ¶i,n´j < < < ¶n´i,j .
0, sinon 0, sinon

C’est à dire
@j P v0, nw, Ppxj q < ¶n´i,j .
Or Ln´i est l’unique polynôme de Rn rXs vérifiant la relation précédente dont P < Ln´i (voir Exer-
cice 4.1.1, page 128).

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 163

R. 2 Soit i P v0, nw. On note t < φpxq < pa ` bq ´ x le changement de variable affine. On a alors
φ-1 ptq < pa ` bq ´ t et
żb
1
wi < Li ptqdt
b´a a
ż ϕ-1 pbq
1
< Li ˝ φpxqφ1 pxqdt
b ´ a ϕ-1 paq
ża
1
< Li ppa ` bq ´ xqp´1qdx
b´a b
żb
1
< Li ppa ` bq ´ xqdx
b´a a
żb
1
< Ln´i pxqdx d’après la question précédente
b´a a
< wn´i .
˛
De l’Exercice 5.1.2 et de la Proposition 5.8, on obtient le lemme suivant

5.1.2 Quelques résultats théoriques


Lemme 5.10

Soient pxi qni<0 des points distincts 2 à 2 de l’intervalle ra, bs vérifiant

xi ` xn´i a`b
@i P v0, nw, < .
2 2
Soient pwi qni<0 définis par
żbź
n
1 x ´ xj
wi < dx, @i P v0, nw
b´a a x
j<0 i
´ xj
j‰i

5. Intégration numérique
On a alors
@i P v0, nw, wi < wn´i
et la formule de quadrature élémentaire associée est de degré d’exactitude au moins n si n est
impaire et au moins n ` 1 sinon.

5.1.Méthodes de quadrature élémentaires


Proposition 5.11: Degré maximal d’exactitude

Soit Qn pf, a, bq défini par (5.1) une formule de quadrature élémentaire de degré d’exactitude au
moins n. Elle est alors de degré d’exactitude n ` m, m P N˚ , au moins si et seulement si
żb
Ãn pxqQpxqdx < 0, @Q P Rm´1 rXs (5.9)
a

où Ãn est le polynôme de degré n ` 1 défini par


n
ź
Ãn pxq < px ´ xi q. (5.10)
i<0

Le degré maximal d’exactitude d’une formule de quadrature élémentaire à n ` 1 points est 2n ` 1.


De plus, on a
żb
(5.9) ðñ Ãn pxqxk dx < 0, @k P v0, m ´ 1w. (5.11)
a

Preuve. On a par définition


n
ÿ
Qn pf, a, bq < pb ´ aq wj f pxj q
j<1

Compiled on 2023/10/10 at [Link]


164 Intégration numérique

où les n ` 1 points xj sont distincts deux à deux dans l’intervalle ra, bs.
La formule de quadrature est exacte pour les polynômes de degré n ` m si et seulement si
żb
Ppxqdx < Qn pP, a, bq, @P P Rn`m rXs
a

Soit P P Rn`m rXs, on peut effectuer la division euclidienne de P par Ãn P Rn`1 rXs. Il existe donc
Q P Rm´1 rXs (quotient) et R P Rn rXs (reste) tels que

P < QÃn ` R.

On a alors par linéarite de l’intégrale


żb żb żb
Ppxqdx < QpxqÃn pxqdx ` Rpxqdx
a a a

et par linéarite de Qn
Qn pP, a, bq < Qn pQÃn , a, bq ` Qn pR, a, bq.
5.1.2 Quelques résultats théoriques

Par hypothèse, la formule de quadrature a pour degré d’exactitude n et comme R P Rn rXs on obtient
żb
Rpxqdx < Qn pR, a, bq.
a

On en déduit alors que


żb żb
Ppxqdx ´ Qn pP, a, bq < QpxqÃn pxqdx ´ Qn pQÃn , a, bq.
a a

Par construction Ãn pxj q < 0, @j P v0, nw, ce qui donne


n
ÿ
5. Intégration numérique

Qn pQÃn , a, bq < pb ´ aq wj Qpxj qÃn pxj q < 0


j<0

et donc
żb żb
Ppxqdx ´ Qn pP, a, bq < QpxqÃn pxqdx. (5.12)
5.1. Méthodes de quadrature élémentaires

a a

ð si (5.9) est vérifié alors,


żb
Ppxqdx ´ Qn pP, a, bq < 0.
a

La formule de quadrature est donc de degré d’exactitude n ` m.

ñ si la formule de quadrature est de degré d’exactitude n ` m alors pour tout Q P Rm´1 rXs, le
polynôme P < QÃn P Rn`m rXs et donc
żb
Ppxqdx ´ Qn pP, a, bq < 0.
a

En utilisant (5.12), on obtient alors


żb
QpxqÃn pxqdx < 0.
a

‚ La plus grande valeur que puisse prendre m est n ` 1 (i.e. m ` n < 2n ` 1). En effet si m < n ` 2
alors Q P Rn`1 rXs dans (5.9). Or Ãn P Rn`1 rXs et en prenant Q < Ãn on obtient
żb żb
Ãn pxqQpxqdx < Q2 pxqdx ą 0.
a a

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 165

‚ Dans l’équivalence (5.11), ñ est immédiat car x ÞÑ xk P Rm´1 rXs.


Pour établir l’implication ð , on utilise la linéarite de l’intégrale. En effet, soit P P Rm´1 rXs, il
existe p³0 , . . . , ³m´1 q P Rm tel que
m´1
ÿ
@x P R, Ppxq < ³k xk .
k<0

On a alors
żb żb m´1
ÿ
PpxqÃn pxqdx < Ãn pxq ³k xk dx
a a k<0
m´1
ÿ żb
< ³k Ãn pxqxk dx
k<0 a
m´1
ÿ
hyp
< ³k ˆ 0 < 0.
k<0

5.1.3 Formules élémentaires de Newton-Cotes


Cette proposition sera utilisée pour déterminer les points de quadrature de la méthode de Gauss-Legendre.
Une fois connu les points de quadrature xi , les poids wi pourront être calculés par (5.7).
Si l’on choisi comme points de quadrature les n ` 1 points de la discrétisation régulière de l’intervalle
ra, bs, on obtient la méthode de Newton-Cotes.
Bien d’autres méthodes peuvent être obtenues (avec d’autres points), certaines permettant le calcul
şb
d’intégrales avec poids de la forme a wpxqf pxqdx :
‚ méthode de Newton-Cotes ouvertes,
‚ méthode de Gauss-Legendre,
‚ méthode de Gauss-Jacobi,
‚ méthode de Gauss-Tchebychev,

5. Intégration numérique
‚ méthode de Gauss-Laguerre,
‚ méthode de Gauss-Lobatto,
‚ méthode de Romberg...

5.1.3 Formules élémentaires de Newton-Cotes

5.1.Méthodes de quadrature élémentaires


Soit pxi qiPv0,nw une discrétisation régulière de l’intervalle ra, bs:
@i P v0, nw, xi < a ` ih avec h < pb ´ aq{n.
On a alors
xi ` xn´i a`b
@i P v0, nw, < .
2 2

Proposition 5.12

Soient f P C 0 pra, bs; Rq et pxi qiPv0,nw une discrétisation régulière de l’intervalle ra, bs: xi < a ` ih
avec h < pb ´ aq{n.
Les formules de quadrature élémentaires de Newton-Cotes s’écrivent sous la forme
żb n
ÿ
f pxqdx « pb ´ aq wi f pxi q
a i<0

où les poids pwi qni<0 sont donnés par (5.7).


Elles sont symétriques et leur degré d’exactitude (d.e. dans le tableau suivant) est égal à n si n est
impair et à n ` 1 sinon.

Compiled on 2023/10/10 at [Link]


166 Intégration numérique

n d.e. wi (poids) nom


1 1
1 1 2 2 trapèze
1 2 1
2 3 6 3 6 Simpson
1 3 3 1
3 3 8 8 8 8 Newton
7 16 2 16 7
4 5 90 45 15 45 90 Villarceau
19 25 25 25 25 19
5 5 288 96 144 144 96 288 ?
41 9 9 34 9 9 41
6 7 840 35 280 105 280 35 840 Weddle
751 3577 49 2989 2989 49 3577 751
7 7 17280 17280 640 17280 17280 640 17280 17280 ?
989 2944 464 5248 454 5248 464 2944 989
8 9 28350 14175 ´ 14175 14175 ´ 2835 14175 ´ 14175 14175 28350 ?

Table 5.1: Méthodes de Newton-Cotes


5.1.3 Formules élémentaires de Newton-Cotes

Par exemple, la formule de Simpson (n < 2) est


żb ˆ ˙
b´a a`b
f pxqdx « f paq ` 4f p q ` f pbq (5.13)
a 6 2

Pour un n donné, déterminer les coefficients wi de la formule de Newton-Cotes est assez simple.

Démonstration 1: En effet, il suffit de remarquer que la formule doit être exacte si f est un polynôme
de degré au plus n. Ensuite par linéarité de la formule, on est ramené à résoudre une système
linéaire à n ` 1 inconnues (les pwi qiPv0,nw ) en écrivant que pour chaque monôme
n
ÿ żb
pb ´ aq wi f pxi q < f pxqdx, @f P t1, X, X 2 , . . . , X n u Ă Rn rXs. (5.14)
i<0 a
5. Intégration numérique

Par exemple, pour n < 2, on a b < a ` 2h. A partir de (5.14) on obtient les trois équations :
$
& w0 ` w1 ` w2
’ < 1,
şb
pf pxq < 1q
1
aw0 ` pa ` hqw1 ` pa ` 2hqw2 < b´a xdx < a ` h, pf pxq < xq

% a2 w ` pa ` hq2 w ` pa ` 2hq2 w < 1
şab 2 1 2 2
0 1 2 b´a a x dx < 3 p3a ` 6ah ` 4h q, pf pxq < x2 q.

On a alors
5.1. Méthodes de quadrature élémentaires

$
& w0 < ´w1 ´ w2 ` 1,
ap´w1 ´ w2 ` 1q ` pa ` hqw1 ` pa ` 2hqw2 < a ` h,
% 2
a p´w1 ´ w2 ` 1q ` pa ` hq2 w1 ` pa ` 2hq2 w2 < a2 ` 2ah ` 34 h2 .

c’est à dire $
& w0 < ´w1 ´ w2 ` 1,
w1 ` 2w2 < 1,
%
2apw1 ` 2w2 q ` hpw1 ` 4w2 q < 2a ` 4h{3,
Par substitution, de la deuxième équation dans la troisième, on obtient enfin
$
& w0 < ´w1 ´ w2 ` 1,
w1 ` 2w2 < 1,
%
w1 ` 4w2 < 4{3,
1
ce qui donne w0 < w2 < 6 et w1 < 23 .

Démonstration 2: En utilisant la Proposition 5.9, on a


żbź
n ż1ź
n
def 1 x ´ xj t ´ tj
wi < dx < dx, @i P v0, nw
b´a a x
j<0 i
´ xj 0 t
j<0 i
´ tj
j‰i j‰i

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 167

On a donc dans le cadre des points équidistants sur r0, 1s, ti < i{n, @i P v0, nw et

źn źn źn
t ´ tj t ´ j{n nt ´ j
< <
t
j<0 i
´ t j j<0
pi ´ jq{n j<0
i´j
j‰i j‰i j‰i

Par exemple, pour n < 2, on a

2t ´ 1 2t ´ 2
L0 ptq < < p2 ¼ ´ 1qp¼ ´ 1q
´1 ´2
2t 2t ´ 2
L1 ptq < < ´4 p¼ ´ 1q¼
1 ´1
2t 2t ´ 1
L2 ptq < < p2 ¼ ´ 1q¼
2 1

et

5.1.3 Formules élémentaires de Newton-Cotes


ż1 ż1 ż1
1 2 1
w0 < L0 ptq < , w1 < L1 ptq < , w2 < L2 ptq <
0 6 0 3 0 6

On sait par le Lemme 5.10 que, n < 2 étant paire, la formule de quadrature élémentaire de Simpson est
au moins de degré d’exactitude 3. Pour montrer qu’elle est de degré d’exactitude 3, il suffit de vérifier
qu’elle n’est plus exacte pour le monôme x4 sur l’intervalle r0, 1s.
En effet, on a
ˆ ˙ ż1
1 1 5 1
04 ` 4p q4 ` 14 < ‰ x4 dx <
6 2 24 0 5

5. Intégration numérique
Exercice 5.1.3

Q. 1 Ecrire une fonction algorithmique WeightsPointsNC retournant les pn ` 1q points et les


pn ` 1q poids de la formule de quadrature élémentaire de Newton-Cotes à pn ` 1q points. ˝

Q. 2 Ecrire une fonction algorithmique QuadElemNC retournant la valeur de Qn pf, a, bq corre-


pondant à la formule de quadrature élémentaire de Newton-Cotes à pn ` 1q points. ˝

5.1.Méthodes de quadrature élémentaires


Correction

Algorithme 5.2 Fonction WeightsPointsNC retournant le tableau de points x donnés correspondant


à la discrétisation régulière intervalle ra, bs. et le tableau des poids w associé à un
Données : a, b : deux réels, a ă b,
n : n P N˚ .
Résultat : x : vecteur de Rn`1 avec x piq < xi´1 , @i P v1, n ` 1w
et xi´1 < a ` pi ´ 1qh, h < pb ´ aq{n,
w : vecteur de Rn`1 avec w piq < wi´1 , @i P v1, n ` 1w
R. 1 1: Fonction rx x, w s Ð WeightsPointsNC ( a, b, n )
2: x Ð a : pb ´ aq{n : b
3: w Ð WeightsFromPointspx x, a, bq
4: Fin Fonction

R. 2 On a de manière générique l’algorithme suivant:

Compiled on 2023/10/10 at [Link]


168 Intégration numérique

řn
Algorithme 5.3 Fonction QuadElemGen retourne la valeur de I < pb ´ aq j<0 wj f pxj q.
Données : f : une fonction définie de ra, bs dans R,
a, b : deux réels avec a ă b
x : vecteur de Rn`1 contenant pn ` 1q points distincts deux à deux
dans un intervalle ra, bs avec la convention
x piq < xi´1 , @i P v1, n ` 1w
w : vecteur de Rn`1 tel que w piq < wi´1 , @i P v1, n ` 1w
Résultat : I : un réel

1: Fonction I Ð QuadElemGen ( f, a, b, x , w )
2: IÐ0
3: Pour i Ð 1 à Lengthpx xq faire
4: I Ð I ` w piq ˚ f px
xpiqq
5: Fin Pour
6: I Ð pb ´ aq ˚ I
7: Fin Fonction
5.1.3 Formules élémentaires de Newton-Cotes

On peut noter que si l’on dispose de la fonction s Ð Dotpu


u, v q correpondant au produit scalaire de deux
vecteurs du même espace alors on a directement

I Ð pb ´ aq ˚ Dotpw
w , f px
xqq.

řn
Algorithme 5.4 Fonction QuadElemGen retourne la valeur de I < pb ´ aq j<0 wj f pxj q où les poids
wi et les points xi sont ceux définis par la formule de quadrature élémentaire de Newton-Cotes
Données : f : une fonction définie de ra, bs dans R,
a, b : deux réels avec a ă b,
n : n P N˚
Résultat : I : un réel
5. Intégration numérique

1: Fonction I Ð QuadElemNC ( f, a, b, n )
2: x, w s Ð WeightsPointsNCpa, b, nq
rx
3: I Ð QuadElemGenpf, a, b, x , w q
4: Fin Fonction

˛
5.1. Méthodes de quadrature élémentaires

Remarque 8. Pour les méthode de Newton-Cotes, il ne faut pas trop "monter" en ordre car le phénomène
de Runge (forte oscillation possible du polynôme d’interpolation sur les bords de l’intervalle) peut conduire
à de très grande erreurs. Au delà de n < 7, des poids négatifs apparaissent dans les formules et les rendent
beaucoup plus sensibles aux erreurs d’arrondis.

Sur un exemple très simple, il est possible d’illustrer ce phénomène. Soit f pxq < 3x ` 2. On a démontré
şb
que toutes les formules de Newton-Cotes à n`1 points, n ě 1, sont exactes pour le calcul de a f pxqdx car
f est un polynôme de degré 1. De plus les poids pwi qiPv0,nw peuvent être calculés sous forme fractionnaire
: il est immédiat à partir de la formule (5.7) que wi P Q.
En choissant, par exemple, a < 0 et b < 1 les n ` 1 points xi de la formule de Newton-Cotes sont aussi
des nombres rationnels. La fonction f étant polynomiale, on obtient f pxi q P Q. On en déduit que la
formule de Newton-Cotes à n ` 1 points donne dans ce cas un résultat (exacte) sous forme fractionnaire.
Numériquement, les poids wi P Q et les points xi P Q vont être approchés en commettant de très
petites erreurs. Sous Sage, logiciel gratuit de calcul formel (entre autres), on peut programmer à la fois
le calcul des méthodes de Newton-Cotes exactes (en restant dans le corps Q) et le calcul "approché"
correspondant aux méthodes de Newton-Cotes approchées (i.e. les wi et les xi sont approchés avant le
calcul de la somme). On représente en Figure 5.5 les erreurs obtenues en fonction de n par ces deux
approches. Ces courbes en échelle logarithmique en ordonnées ont été obtenues en ajoutant aux erreurs
le nombre 1e ´ 16 (pour éviter de prendre le log de zéro).

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 169

error
Numerical Newton-Cotes
Analytical Newton-Cotes
10-5

10-7

10-9

10-11

10-13

10-15
n
0 10 20 30 40 50 60

5.1.4 Formules élémentaires de Gauss-Legendre


Figure 5.5: Instabilité des méthodes de Newton-Cotes élémentaires

Pour pallier ce problème, on étudiera les méthodes de quadrature composées.

5.1.4 Formules élémentaires de Gauss-Legendre

Exercice 5.1.4

Q. 1 Déterminer les points t0 , t1 de l’intervalle r´1, 1s et les poids w0 , w1 tel que la formule de
quadrature
ż1 ÿ1
gptqdt « 2 wi gpti q
´1 i<0

5. Intégration numérique
soit de degré d’exactitude 3. ˝
şb
Q. 2 En déduire une formule de quadrature pour le calcul de a
f pxqdx qui soit de degré d’exactitude
3. ˝

Correction
R. 1 D’après la Proposition 5.9, si t0 et t1 sont distincts et dans l’intervalle r´1, 1s alors avec

5.1.Méthodes de quadrature élémentaires


ż ż
1 1 t ´ t1 1 1 t ´ t0
w0 < dt et w1 < dt
2 ´1 t0 ´ t1 2 ´1 t1 ´ t0
la formule de quadrature est de degré d’exactitude 1.
Pour déterminer les points t0 et t1 , on utilise la Proposition 5.11 (degré maximal d’exactitude) avec
m < n ` 1 < 2: la formule de quadrature est de degré 2n ` 1 < 3 ssi
ż1
Ã1 ptqQptqdt < 0, @Q P R1 rXs
´1

avec Ã1 ptq < pt ´ t0 qpt ´ t1 q. Par linéarité ceci est équivalent à


ż1
Ã1 ptqtk dt < 0, @k P v0, 1w
´1

c’est à dire ż1 ż1
Ã1 ptqdt < 0 et Ã1 ptqtdt < 0.
´1 ´1
Or on a ż1 ż1
2
Ã1 ptqdt < t2 ´ pt0 ` t1 qt ` t0 t1 dt < ` 2t0 t1
´1 ´1 3

Compiled on 2023/10/10 at [Link]


170 Intégration numérique

et ż1 ż1
2
Ã1 ptqtdt < t3 ´ pt0 ` t1 qt2 ` t0 t1 tdt < ´ pt0 ` t1 q.
´1 ´1 3
On est amené à résoudre le système non linéaire
1 2
t0 t1 < ´ et ´ pt0 ` t1 q < 0
3 3
a a
ce qui donne t0 < ´ p3q{3 et t1 < p3q{3.
Il reste à calculer w0 et w1 . On a
ż a ż a
1 1 t ´ p3q{3 1 1 ´ p3q{3
w0 < a dt < a dt < 1{2
2 ´1 ´2 p3q{3 2 ´1 ´2 p3q{3
et ż1 a ż a
1 t ` p3q{3 1 1 p3q{3
w1 < a dt < a dt < 1{2.
2 ´1 2 p3q{3 2 ´1 2 p3q{3
5.1.4 Formules élémentaires de Gauss-Legendre

La formule de quadrature ? ?
ż1
3 3
gptqdt « gp´ q ` gp q
´1 3 3
est donc d’ordre 3.

R. 2 On effectue le changement de variable x < φptq < a`b b´a


2 ` 2 t en appliquant la Proposition 5.3
(changement de variable affine) pour obtenir que
ˆ ˙
1 1
pb ´ aq f px0 q ` f px1 q
2 2
şb
est une formule de quadrature approchant a f pxqdx avec un degré d’exactitude de 3 où x0 < φpt0 q et
x1 < φpt1 q.
5. Intégration numérique

Avant d’établir des résultats plus généraux, on donne quelques résultats classiques sur les polynômes de
Legendre [?].
Les polynômes de Legendre peuvent être définis par la formule de récurrence de Bonnet
pn ` 1qPn`1 ptq < p2n ` 1qtPn ptq ´ nPn´1 ptq, @n ě 1 (5.15)
avec P0 ptq < 1 et P1 ptq < t.
5.1. Méthodes de quadrature élémentaires

On a les propriétés suivantes:


prop.1 le polynôme de Legendre Pn est de degré n,
prop.2 la famille tPk unk<0 est une base de Rn rXs,
prop.3 pour tout pm, nq P N2 , on a
ż1
2
Pm ptqPn ptqdt < ¶m,n , (5.16)
´1 2n ` 1
ce qui correspond à l’orthogonalité des polynômes de Legendre pour le produit scalaire
ż1
xPm , Pn y < Pm ptqPn ptqdt.
´1

prop.4 Pour n ě 1, Pn est scindé sur R et ses n racines sont simples dans s ´ 1, 1r, c’est à dire
n´1
ź
Pn ptq < C pt ´ ti q, C P R˚
i<0

où les ti sont 2 à 2 distincts (et ordonnés). Les pn ` 1q racines simples de Pn`1 sont alors chacunes
dans l’un des pn ` 1q intervalles s ´ 1, t0 r, st0 , t1 r, . . . , stn´2 , tn´1 r, stn´1 , 1r.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 171

Proposition 5.13

Soit pti qni<0 les n ` 1 racines distinctes du polynôme de Legendre de degré pn ` 1q. On note xi <
a`b b´a
2 ` 2 ti , @i P v0, nw et wi les poids donnés par (5.7). La formule de quadrature élémentaire
żb n
ÿ
f pxqdx « pb ´ aq wi f pxi q
a i<0

est appelée la formule de quadrature de Gauss-Legendre. C’est l’unique formule de quadrature


élémentaire à pn ` 1q points ayant pour degré d’exactitude 2n ` 1.

n exactitude wi (poids) ti (points)


0 1 1 0
a a
1 3 1{2, 1{2 ´ 1{3, 1{3
a a

5.1.4 Formules élémentaires de Gauss-Legendre


2 5 5{18, 8{18, 5{18 ´ 3{5, 0, 3{5

Table 5.2: Méthodes de Gauss-Legendre sur r´1, 1s

Preuve. D’après la Proposition 5.3, il suffit de démontrer ce résultat sur l’intervalle r´1, 1s à l’aide du
changement de variable affine x < φptq < a`b b´a
2 ` 2 t.
Montrons donc que la formule de quadrature élémentaire
ż1 n
ÿ
gptqdt « 2 wi gpti q
´1 i<0

est de degré d’exactitude 2n ` 1.


Comme les poids wi sont donnés par (5.7), cette formule est de degré d’exactitude au moins n. Pour
établir qu’elle est de degré d’exactitude 2n ` 1, il faut, d’après la Proposition 5.11 avec m < n ` 1, que

5. Intégration numérique
ż1
Ãn ptqQptqdt < 0, @Q P Rn rXs
´1
śn
avec Ãn ptq < i<0 pt ´ ti q. D’après les propriétés des polynômes de Legendre Pn , on a Pn`1 ptq < CÃn ptq
avec C P R˚ . On doit donc avoir de manière équivalente
ż1
Pn`1 ptqQptqdt < 0, @Q P Rn rXs.

5.1.Méthodes de quadrature élémentaires


´1

Or, la famille des les polynômes de Legendre tP0 , . . . , Pn u est une base de Rn rXs et comme les polynômes
de Legendre sont orthogonaux, la relation précedente est vérifiée.
Pour démontrer l’unicité de la formule, il suffit d’établir l’unicité des points de quadrature, les poids étant
calculés à partir de ces points.
L’unicité du pn ` 1q-uplet px0 , . . . , xn q revient à établirśl’unicité du pn ` 1q-uplet śnpt0 , . . . , tn q. Supposons
n
qu’il existe pt0 , . . . , tn q et pt̃0 , . . . , t̃n q. Notons Ãn ptq < i<0 pt ´ ti q et Ã̃n ptq < i<0 pt ´ t̃i q. On a donc
ż1 ż1
Ãn ptqQptqdt < Ã̃n ptqQptqdt < 0, @Q P Rn rXs
´1 ´1

Le polynôme R < Ãn ´ Ã̃ est dans Rn rXs car les polynômes Ãn et Ã̃n de Rn`1 rXs sont unitaires. On a
alors ż1
RptqQptqdt < 0, @Q P Rn rXs
´1
En choisissant Q < R, on obtient ż1
R2 ptqdt < 0
´1
ce qui entraine R < 0.

Compiled on 2023/10/10 at [Link]


172 Intégration numérique

Théorème 5.14

Soient f P C 2n`2 pra, bs; Rq et Qn pf, a, bq la formule de quadrature de Gauss-Legendre définie dans
la Proposition 5.13. Alors on a
żb : p2n`2q : ż
:f : b
8
| f pxqdx ´ Qn pf, a, bq| ď Ãn pxq2 dx (5.17)
a p2n ` 2q! a
śn
où Ãn pxq < i<0 px ´ xi q, les xi étant les points de la formule de quadrature.

Preuve. On va utiliser Hn , le polynôme d’interpolation de Lagrange-Hermite aux pn ` 1q points de la


quadrature. D’après le Théorème 4.10, c’est l’unique polynôme de degré au plus 2n ` 1 vérifiant
Hn pxi q < f pxi q et H1n pxi q < f 1 pxi q, @i P v0, nw.
La fonction f étant dans C 2n`2 pra, bs; Rq, on peut appliquer le Théorème 4.11 et pour tout x P ra, bs,
5.1.4 Formules élémentaires de Gauss-Legendre

DÀx Psa, br tel que


n
f p2n`2q pÀx q ź
f pxq ´ Hn pxq < px ´ xi q2 .
p2n ` 2q! i<0
Ensuite on intégre cette relation:
żb ż b p2n`2q n
f pÀx q ź
pf pxq ´ Hn pxqqdx < px ´ xi q2 dx.
a a p2n ` 2q! i<0

Le polynôme Hn étant de degré 2n ` 1, la formule de quadrature est donc exacte et on a:


żb
Hn pxqdx < Qn pHn , a, bq
a
n
ÿ
< pb ´ aq wi Hn pxi q
5. Intégration numérique

i<0
ÿn
< pb ´ aq wi f pxi q
i<0
< Qn pf, a, bq.
On a donc żb żb
f p2n`2q pÀx q
f pxqdx ´ Qn pf, a, bq < pÃn pxqq2 dx.
a a p2n ` 2q!
5.1. Méthodes de quadrature élémentaires

Ce qui donne : p2n`2q : ż


żb :f : b
8
| f pxqdx ´ Qn pf, a, bq| ď Ãn pxq2 dx.
a p2n ` 2q! a

Exercice 5.1.5

L’objectif de cet exercice est de calculer les points et les poids de la formule de quadrature de
Gauss-Legendre à pn ` 1q points. La formule de quadrature de Gauss-Legendre à pn ` 1q points sur
r´1, 1s est donnée par
ż1 ÿn
gptqdt « 2 wi gpti q
´1 i<0

où les pti qni<0 sont les n ` 1 racines du polynôme de Legendre Pn`1 ptq. Cette formule à pour degré
d’exactitude 2n ` ş1 1. 1{2
Soient xP, Qy < ´1 PptqQptqdt le produit scalaire sur RrXs et }P} < xP, Py la norme associée.
Pn
Soit Mn le polynôme de Legendre normalisé de degré pn ` 1q, Mn < }P n}
. On utilisera les résultats
sur les polynômes de Legendre rappelés en cours.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 173

Q. 1 Montrer que
cn`1 Mn`1 ptq < tMn ptq ´ cn Mn´1 ptq, n ą 1 (5.18)
avec c c c
1 3 n2
M0 ptq < , M1 ptq < t et cn <
2 2 4n2´1
˝
On définit le vecteur M ptq de Rn`1 par

M ptq < pM0 ptq, . . . , Mn ptqqt .

Q. 2 Montrer que l’on a


M ptq < AM
tM M ptq ` cn`1 Mn`1 ptqeen`1 (5.19)
où l’on explictera la matrice tridiagonale A P Mn`1 pRq en fonction des coefficients c1 , . . . , cn . Le

5.1.4 Formules élémentaires de Gauss-Legendre


vecteur e n`1 étant le pn ` 1q-ème vecteur de la base canonique de Rn`1 . ˝

Q. 3 En déduire que les pn ` 1q racines distinctes de Mn`1 P Rn`1 rXs sont les pn ` 1q valeurs
propres de A. ˝

Q. 4 Montrer que
n
ÿ
2 wk Mi ptk qMj ptk q < ¶i,j , @pi, jq P v0, nw2 (5.20)
k<0

où ¶i,j < 0, si i ‰ j et ¶i,i < 1. ˝

On note W P Mn`1 pRq la matrice diagonale, de diagonale pw0 , . . . , wn q et P P Mn`1 pRq la matrice
définie par Pi`1,j`1 < Mj pti q, @pi, jq P v0, nw2 .

Q. 5 a. Montrer que 2Pt WP < I.

5. Intégration numérique
b. En déduire que W-1 < 2PPt .
řn 2
c. En déduire que w1i < 2 k<0 pMk pti qq , @i P v0, nw.
˝

On suppose que l’on dispose de la fonction algorithmique eigpAq retournant l’ensemble des valeurs
propres d’une matrice symétrique A P Mn`1 pRq dans l’ordre croissant sous la forme d’un vecteur
de Rn`1 .

5.1.Méthodes de quadrature élémentaires


Q. 6 a. Ecrire la fonction rtt, w s Ð GaussLegendrepnq retournant le tableau des points t et le
tableau des poids w en utilisant les résultats obtenus dans cet exercice.
b. Ecrire la fonction I Ð QuadElemGaussLegendrepf, a, b, nq retournant une approximation
şb
de a f pxqdx en utilisant la formule de quadrature de Gauss-Legendre à pn ` 1q points sur
l’intervalle ra, bs.
˝

Correction
Pn
R. 1 Par définition, on a Mn < }Pn } et
ż1
2 2
}Pn } < xPn , Pn y < Pn ptqPn ptqdx < .
´1 2n ` 1
On en déduit que c
2n ` 1
Mn < Pn .
2
De plus, par la formule de récurrence de Bonnet, on obtient
c c
1 3
M0 ptq < et M1 ptq < t
2 2

Compiled on 2023/10/10 at [Link]


174 Intégration numérique

ainsi que, @n ě 1,
c c c
2 2 2
pn ` 1q Mn`1 ptq < p2n ` 1q tMn ptq ´ n Mn´1
2n ` 3 2n ` 1 2n ´ 1
c
a 2
< 2p2n ` 1qtMn ptq ´ n Mn´1
2n ´ 1

b
1
En multipliant cette équation par 2p2n`1q , on a

c d c d
2 1 2 1
pn ` 1q Mn`1 ptq < tMn ptq ´ n Mn´1
2n ` 3 2p2n ` 1q 2n ´ 1 2p2n ` 1q

Or on a c d d
2 1 n2
5.1.4 Formules élémentaires de Gauss-Legendre

n < < cn
2n ´ 1 2p2n ` 1q p2n ´ 1qp2n ` 1q
et c d d
2 1 pn ` 1q2
pn ` 1q < < cn`1
2n ` 3 2p2n ` 1q p2pn ` 1q ´ 1qp2pn ` 1q ` 1q
ce qui démontre le résultat voulu.

R. 2 On déduit de la question précédente que


c
1
tM0 ptq < t < c1 M1 ptq
3
et
tMi ptq < ci Mi´1 ptq ` ci`1 Mi`1 ptq, @i P v1, nw.
5. Intégration numérique

Ces pn ` 1q équations peuvent s’écrire matriciellement sous la forme


¨ ˛ ¨ ˛¨ ˛ ¨ 0
˛
M0 ptq 0 c1 0 ... ... 0 M0 ptq
˚ M1 ptq 9 ˚c1 09 ˚ 9 ˚ .. 9
˚ 9 ˚ 0 c2 0 ... 9 ˚ M1 ptq 9 ˚
˚ . 9
9
˚ .. 9 ˚ .. .. .. .. .. 9 ˚ .. 9 ˚ . 9
˚ . 9 ˚0 . . . . .9 ˚ . 9 ˚ . 9
t˚ 9<˚ 9˚ 9`˚ . 9
˚
˚ .
..
9 ˚.
9 ˚ .. .. .. .. .. 9˚ .
.
9 ˚ . 9
˚ 9 ˚ . . . . 09 9˚
˚ . 9 ˚
9 ˚ .
. 9
9
5.1. Méthodes de quadrature élémentaires

˝Mn´1 ptq‚ ˝ 0 ... 0 cn´1 0 cn ‚˝Mn´1 ptq‚ ˝ ‚


0
Mn ptq 0 ... ... 0 cn 0 Mn ptq cn`1 Mn`1 ptq
< AM
M ptq ` cn`1 Mn`1 ptqeen`1 .

R. 3 Le polynôme de Legendre Pn`1 P Rn`1 rXs admet pn ` 1q racines simples distinctes dans s ´ 1, 1r
notées pti qni<0 . (voir rappels) Donc le polynôme de Legendre normalisé Mn`1 P Rn`1 rXs a les mêmes
racines et on déduit de la question précédente que

M pti q < tiM pti q, @i P v0, nw.


AM

Comme les pn`1q racines de Pn`1 séparent strictement les n racines de Pn (voir rappels), alors Pn pti q ‰ 0
et donc Mn pti q ‰ 0. On en déduit que le vecteur M pti q est non nul et,

@i P v0, nw, pti , M pti qq est un mode propre de A.

On peut noter que A est symétrique et donc ses valeurs propres sont réelles.
Les pn ` 1q valeurs propres de la matrice A sont les pn ` 1q racines de Pn`1 , et donc les pn ` 1q points de
la formule de quadrature de Gauss-Legendre.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature élémentaires 175

R. 4 Par construction, on a
ż1
Mi ptqMj ptqdx < ¶i,j , @pi, jq P v0, nw.
´1

On a Mi P Ri rXs et Mj P Rj rXs, ce qui donne Mi Mj P Ri`j rXs avec i ` j ď 2n. Or la formule de


quadrature de Gauss-Legendre à pn ` 1q points a pour degré d’exactitude 2n ` 1, elle est donc exacte
pour le polynôme Mi Mj . On en déduit alors
ż1 n
ÿ
¶i,j < Mi ptqMj ptqdt < 2 wk Mi ptk qMj ptk q, @pi, jq P v0, nw
´1 k<0

R. 5 a. Soit pi, jq P v1, n ` 1w2 , on a


n`1
ÿ
pPt WPqi,j < pPt qi,k pWPqk,j
k<1

5.1.4 Formules élémentaires de Gauss-Legendre


n`1
ÿ
< Pk,i pWPqk,j
k<1

et, comme W est diagonale,


n`1
ÿ
pWPqk,j < Wk,l Pl,j < Wk,k Pk,j .
l<1

On obtient donc
n`1
ÿ n`1
ÿ
pPt WPqi,j < Pk,i Wk,k Pk,j < wk´1 Mi´1 ptk´1 qMj´1 ptk´1 q.
k<1 k<1

En utilisant la relation démontré dans la question précédente, on a


1 1

5. Intégration numérique
pPt WPqi,j < ¶i´1,j´1 < ¶i,j
2 2
c’est à dire
1
Pt WP < I
2
et on en déduit que P et W sont inversibles .
b. A partir de Pt WP < 12 I, on déduit
` ˘-1 ` ˘-1

5.1.Méthodes de quadrature élémentaires


2I < Pt WP < 2I < P-1 W-1 Pt
En multipliant par P à gauche et par Pt à droite, on obtient
W-1 < 2PPt .

c. Comme la matrice W est diagonale inversible, son inverse est diagonale et on a


` ˘ 1 1
W-1 i,i
< < , @i P v1, n ` 1w.
Wi,i wi´1
On a donc
1 ` ˘
< 2 PPt i,i
wi´1
n`1
ÿ ` ˘
<2 Pi,j Pt j,i
j<1
n`1
ÿ
<2 P2i,j
j<1
ÿn
2
<2 pMk pti´1 qq , @i P v1, n ` 1w.
k<0

Compiled on 2023/10/10 at [Link]


176 Intégration numérique

R. 6 a. Les pn ` 1q points pti qni<0 de la méthode de quadrature de Gauss-Legendre sur r´1, 1s, sont
les racines du polynôme de Legendre Pn`1 de degré n ` 1. Pour les calculer, on va utiliser le fait
que ce sont les valeurs propres de la matrice symétrique A P Mn`1 pRq
¨ ˛
0 c1 0 ... ... 0
˚c1 0 c2 0 ... 0 9
˚ 9
˚ . .. ... . .. .. .. 9
˚0 . .9
˚ 9
˚. . 9
˚ .. .. ... ..
.
..
. 0 9
˚ 9
˝ 0 . . . 0 cn´1 0 cn ‚
0 ... ... 0 cn 0
b
2
avec ck < 4kk2 ´1 , @k ě 1.
Pour calculer les poids pwi qni<0 , on va utiliser la formule
5.1.4 Formules élémentaires de Gauss-Legendre

ÿn
1 2
<2 pMk pti qq , @i P v0, nw
wi k<0

conjointement avec la formule de récurrence


c c
1` ˘ 1 3
Mk ptq < tMk´1 ptq ´ ck´1 Mk´2 ptq , k ě 2, avec M0 ptq < , M1 ptq < t.
ck 2 2

Algorithme 5.5 Fonction GaussLegendre retournant le tableau des points t et le tableau des poids w
Données : n : n P N
Résultat : t : vecteur de Rn`1 avec t piq < ti´1 , @i P v1, n ` 1w
w : vecteur de Rn`1 avec w piq < wi´1 , @i P v1, n ` 1w

1: Fonction rtt, w s Ð GaussLegendre ( n )


5. Intégration numérique

2: c Ð On
3: A Ð On`1,n`1
4: Pour k Ð 1 à n faire
5: c pkq Ð sqrtpk 2 {p4 ˚ k ^ 2 ´ 1qq
6: Apk, k ` 1q Ð c pkq
7: Apk ` 1, kq Ð c pkq
8: Fin Pour
9: t Ð eigpAq
5.1. Méthodes de quadrature élémentaires

10: Pour i Ð 1 à n ` 1 faire


11: M 0 Ð sqrtp1{2q
12: M 1 Ð sqrtp3{2q ˚ t piq
13: S Ð M 0^ 2 ` M 1^ 2
14: Pour k Ð 2 à n faire
15: M Ð p1{ccpkqq ˚ pM 1 ˚ t piq ´ c pk ´ 1q ˚ M 0q
16: S Ð S ` M ^2
17: M0 Ð M1
18: M1 Ð M
19: Fin Pour
20: wpiq Ð 1{p2 ˚ Sq
21: Fin Pour
22: Fin Fonction

b. On va utiliser la formule
n
ÿ
I < pb ´ aq < wi f pxi q
i<0

avec xi < a`b b´a


2 ` 2 ti où les points pti qi<0 et les poids pwi qi<0 sont ceux de la méthode de quadrature
n n

de Gauss-Legendre sur r´1, 1s.

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature composées 177

şb
Algorithme 5.6 Fonction QuadElemGaussLegendre retournant une approximation de a
f pxqdx en
utilisant la formule de quadrature de Gauss-Legendre à n ` 1 points sur l’intervalle ra, bs.
Données : f : une fonction de ra, bs à valeurs réels
a, b : deux réels avec a ă b
n : nPN
Résultat : I : un réel

1: Fonction I Ð QuadElemGaussLegendre ( f, a, b, n )
2: rtt, w s Ð GaussLegendrepnq
3: IÐ0
4: Pour i Ð 1 à n ` 1 faire
5: I Ð I ` w piq ˚ f ppa ` bq{2 ` pb ´ aq{2 ˚ tpiqq
6: Fin Pour
7: I Ð pb ´ aq ˚ I
8: Fin Fonction

5.2.0 Formules élémentaires de Gauss-Legendre


˛

5.2 Méthodes de quadrature composées


Soit f une fonction définie et intégrable sur un intervalle r³, ´s donné. On propose de chercher une
approximation de
żβ
I< f pxqdx.
α
Ces méthodes consistent en l’utilisation de la relation de Chasles pour décomposer l’intégrale en une
somme d’intégrales sur des domaines plus petits puis à approcher ces dernières par une formule de
quadrature élémentaire à n ` 1 points.

5. Intégration numérique
La méthode de quadrature composée associée à Qn , notée Qcomp k,n , est alors donnée par

k
ÿ żβ
Qcomp
k,n pf, ³, ´q < Qn pf, ³i´1 , ³i q « f pxqdx (5.21)
i<1 α

Definition 5.15

5.2.Méthodes de quadrature composées


Soit p³i qiPv0,kw une subdivison de l’intervalle r³, ´s:

³ < ³0 ă ³1 ă ¨ ¨ ¨ ă ³k < ´.

On a alors
żβ k ż αi
ÿ
f pxqdx < f pxqdx. (5.22)
α i<1 αi´1

Soit Qn pg, a, bq la formule de quadrature élémentaire à n ` 1 points d’ordre p donnée par


n
ÿ żb
def
Qn pg, a, bq < pb ´ aq wj gpxj q « gpxqdx.
j<0 a

La méthode de quadrature composée associée à Qn , notée Qcomp


k,n , est donnée par

k
ÿ żβ
Qcomp
k,n pf, ³, ´q < Qn pf, ³i´1 , ³i q « f pxqdx (5.23)
i<1 α

La proposition suivante est immédiate

Compiled on 2023/10/10 at [Link]


178 Intégration numérique

Proposition 5.16

Soit Qn une formule de quadrature élémentaire à n ` 1 points. Si Qn est d’ordre p alors la méthode
de quadrature composée associée est aussi d’ordre p : elle est exacte pour tout polynôme de degré
p.

5.2.1 Exemples
Pour les trois formules composites qui suivent on choisit une discrétisation régulière. Soit p³i qiPv0,kw une
discrétisation régulière de l’intervalle r³; ´s : ³i < ³ ` ih avec h < p´ ´ ³q{k le pas de la discrétisation.

Formule composite des points milieux


La formule élémentaire des points milieux est donnée par
def a`b
Q0 pg, a, bq < pb ´ aqgp q
2
αj´1 `αj
On note mj < 2 le point milieu de l’intervalle r³j´1 , ³j s.
żβ ÿk ż αj ÿk k
ÿ
f pxqdx < f pxqdx « Q0 pf, ³j´1 , ³j q < h f pmj q (5.24)
α j<1 αj´1 j<1 j<1
5.2.1 Exemples

On illustre graphiquement l’approximation d’une intégrale par cette formule en Figure 5.6.

y = f(x)
f(m )6
5. Intégration numérique

f(m )5

f(m )7
5.2. Méthodes de quadrature composées

ff((m
m ))
4
1

ff((m
m ))
2
3 αm m m m m m m m m β
1 2 3 4 5 6 7 8 9
f(m )
8

f(m )9

k
ÿ
şβ
Figure 5.6: Formule composite des points milieux : α
f pxqdx « h f pmj q (aire de la surface colorée)
j<1

Formule composite des trapèzes


La formule élémentaire des points trapèzes est donnée par
def b´a
Q1 pg, a, bq < pgpaq ` gpbqq
2
On obtient alors
żb k ż αj
ÿ k
ÿ k
h ÿ
f pxqdx < f pxqdx « Q0 pf, ³j´1 , ³j q < pf p³j´1 q ` f p³j qq
a j<1 αj´1 j<1
2 j<1
˜ ¸
k´1
ÿ
h
« f p³0 q ` 2 f p³j q ` f p³k q (5.25)
2 j<1

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature composées 179

C’est une formule d’ordre 2 par rapport à h.

On illustre graphiquement l’approximation d’une intégrale par cette formule en Figure 5.7.

y = f(x)
f(α5 )
f(α6 )

f(α4 )

f(α0 )
f(α7 )
f(α )
f(α31 )
f(α2 ) α0 α 1 α 2 α3 α4 α 5 α6 α7 α8

f(α8 )

5.2.1 Exemples
f(α9 )

˜ ¸
k´1
ÿ
hşβ
Figure 5.7: Formule composite des trapèzes : α f pxqdx « f p³0 q ` 2 f p³j q ` f p³k q (aire de la
2 j<1
surface colorée)

5. Intégration numérique
5.2.Méthodes de quadrature composées
Formule composite de Simpson

Exercice 5.2.1

Ecrire une fonction algorithmique QuadSimpson retournant une approximation de l’intégrale d’une
fonction f sur l’intervalle r³, ´s utilisant la méthode de quadrature composée de Simpson en min-
imisant le nombre d’appels à la fonction f. On rappelle que la formule élémentaire de Simpson est
donnée par
def b ´ a a`b
Q2 pg, a, bq < pgpaq ` 4gp q ` gpbqq.
6 2

αj´1 `αj
CorrectionEn notant mj < 2 le point milieu de l’intervalle r³j´1 , ³j s, on obtient

żb k ż αj
ÿ k
ÿ k
h ÿ
f pxqdx f pxqdx « Q2 pf, ³j´1 , ³j q < pf p³j´1 q ` 4f pmj q ` f p³j qq
a j<1 αj´1 j<1
6 j<1
˜ ¸
ÿk k´1
ÿ
h
« 4 f pmj q ` f p³0 q ` 2 f p³j q ` f p³k q (5.26)
6 j<1 j<1

Compiled on 2023/10/10 at [Link]


180 Intégration numérique

Algorithme 5.7 Fonction QuadSimpson retourne une approximation de l’intégrale d’une fonction f sur
l’intervalle r³, ´s utilisant la méthode de quadrature composée de Simpson en minimisant le nombre
d’appels à la fonction f.
Données : f : une fonction définie de ralpha, betas dans R,
alpha, beta : deux réels avec alpha ă beta,
k : n P N˚
Résultat : I : un réel

1: Fonction I Ð QuadSimpson ( f, alpha, beta, k )


2: h Ð pbeta ´ alphaq{k
3: x Ð alpha : h : beta
4: m Ð alpha ` h{2 : h : beta
k
ÿ
5: SÐ0 z Calcul de f pmj q
j<1
6: Pour j Ð 1 à k faire
5.2.2 Erreurs des méthodes de quadrature composées

7: S Ð S ` f pm
mpjqq
8: Fin Pour
9: I Ð4˚S
k´1
ÿ k
ÿ
10: SÐ0 z Calcul de f p³j q < f px
xj q
j<1 j<2
11: Pour j Ð 2 à k faire
12: S Ð S ` f pxxpjqq
13: Fin Pour
14: I Ð ph{6q ˚ pI ` 2 ˚ S ` f px
xp1qq ` f px
xpk ` 1qqq
15: Fin Fonction
5. Intégration numérique

˛
5.2. Méthodes de quadrature composées

y = f(x)
f(m )
2

f(α )
2

f(α )
3

f(α )
f(m )
0
1

f(m )
0

f(α )
1 α m α m α m α m α
0 0 1 1 2 2 3 3 4

f(m )
3

˜ ¸
k
ÿ k´1
ÿ
şβ h
Figure 5.8: Formule composite de Simpson : α f pxqdx « 4 f pmj q ` f p³0 q ` 2 f p³j q ` f p³k q
6 j<1 j<1
(aire de la surface colorée)

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature composées 181

5.2.2 Erreurs des méthodes de quadrature composées

Soit Qcomp
k,n une méthode de quadrature composée associée à une méthode de quadrature élémentaire Qn .
comp
On note Eα,β pf q l’erreur de cette méthode de quadrature composée :

żβ
comp
Eα,β pf q < f pxqdx ´ Qcomp
k,n pf, ³, ´q. (5.27)
α

On a alors
˜ż ¸
k
ÿ αj k
ÿ
comp
Eα,β pf q < f pxqdx ´ Qn pf, ³j´1 , ³j q < Eαj´1 ,αj pf q
j<1 αj´1 j<1

5.2.2 Erreurs des méthodes de quadrature composées


Dans le cadre des méthodes composées de Newton-Cotes, on peut démontrer (voir [2]), la majoration
suivante
n
ź e´n
max | px ´ xi q| ď C ? pb ´ aqn`1 . (5.28)
xPra,bs
i<0
n logpnq

où pxi qiPv0,nw est la discrétisation régulière de ra, bs et C ą 0. On suppose que f P C n`1 pra, bs; Rq. En
notant hj < ³j ´ ³j´1 et en utilisant les majorations (5.8) et (5.28) on obtient

k
ÿ
comp
|Eα,β pf q| ď |Eαj´1 ,αj pf q|
j<1
k
ÿ Kn e´n
ď max | f pn`1q pxq|hn`2
j avec Kn < C ?
j<1
pn ` 1q! xPrαj´1 ,αj s n logpnq

5. Intégration numérique
ÿk
hn`1
ď Kn max | f pn`1q pxq| hj avec h < max hj
pn ` 1q! xPrα,βs j<1
jPv1,kw

hn`1 :: pn`1q ::
ď Kn p´ ´ ³q :f :
pn ` 1q! 8

Cette majoration n’est pas optimale et n’est valable que pour les formules composées de Newton-Cotes.
A l’aide des noyaux de Peano, on peut démontrer le théorème suivant :

5.2.Méthodes de quadrature composées


Théorème 5.17: [2], page 43 (admis)

Soient Qcomp
k,n une méthode de quadrature composée associée à une méthode de quadrature élémen-
taire Qn de degré d’exactitude p ě n et f P C p`1 pr³, ´s; Rq. On a alors
żβ : :
p`1 : pp`1q :
| f pxqdx ´ Qcomp
k,n pf, ³, ´q| ď C p p´ ´ ³qh :f : (5.29)
α 8

avec h < max p³j ´ ³j´1 q et Cp ą 0. Ceci s’écrit aussi sous la forme
jPv1,kw

żβ
| f pxqdx ´ Qcomp
k,n pf, ³, ´q| < O ph
p`1
q (5.30)
α

et son ordre de convergence est p ` 1.

On illustre ce théorème pour les méthodes de Newton-Cotes composées Qcomp


k,n , pour n P v1, 8w, par les
Figures 5.9 et 5.10.

Compiled on 2023/10/10 at [Link]


182 Intégration numérique

10 0
NC(1)
NC(2)
NC(3)
NC(4)
NC(5)
NC(6)
10 -5 NC(7)
NC(8)
2
O(h )

relative error
O(h 4 )
6
O(h )
O(h 8 )
10 -10 10
O(h )

10 -15
5.2.2 Erreurs des méthodes de quadrature composées

10 -1 10 0 10 1
h

ż 5π{2
Figure 5.9: Erreur des méthodes de Newton-Cotes composées pour le calcul de cospxqdx, NC(n)
0
correspondant à Qcomp
k,n et h < 5π
2k .
5. Intégration numérique

10 0
NC(1)
NC(2)
NC(3)
5.2. Méthodes de quadrature composées

NC(4)
NC(5)
NC(6)
10 -5 NC(7)
NC(8)
O(h 2 )
relative error

4
O(h )
O(h 6 )
O(h 8 )
10 -10
O(h 10 )

10 -15

10 -1 10 0 10 1
h

ż5
1
Figure 5.10: Erreur des méthodes de Newton-Cotes composées pour le calcul de dx, NC(n)
´5 1 ` x2
correspondant à Qcomp
k,n et h < 10
k .

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature composées 183

10 0
GL(1)
GL(2)
GL(3)
GL(4)
GL(5)
4
O(h )
10 -5 O(h )
6
8
O(h )
10

relative error
O(h )
12
O(h )

10 -10

10 -15

5.2.2 Erreurs des méthodes de quadrature composées


10 -1 10 0 10 1
h

ż 5π{2
Figure 5.11: Erreur des méthodes de Gauss-Legendre composées pour le calcul de cospxqdx, GL(n)
0
correspondant à Qcomp
k,n et h < 5π
2k .

10 0
GL(1)
GL(2)
GL(3)
GL(4)
GL(5)
O(h 4 )
10 -5 6

5. Intégration numérique
O(h )
O(h 8 )
10
relative error

O(h )
O(h 12 )

10 -10

10 -15

5.2.Méthodes de quadrature composées


10 -1 10 0 10 1
h

ż5
1
Figure 5.12: Erreur des méthodes de Gauss-Legendre composées pour le calcul de dx, GL(n)
´5 1 ` x2
correspondant à Qcomp
k,n et h < 10
k .

Comprendre les ordres de convergence de méthodes numériques

De manière générale, l’ordre de convergence de l’approximation d’une formule, d’un schéma, d’une méth-
ode est donné par une majoration de la norme de la différence entre la solution exacte uex d’un problème
et son approximation uh où usuellement h est un paramètre correspondant à la finesse de l’approximation
numérique (plus la méthode numérique est précise, plus h est proche de 0). On dit alors qu’une méthode
numérique est convergente d’ordre p si

}uex ´ uh } < Ophp q.

Compiled on 2023/10/10 at [Link]


184 Intégration numérique

On retouve cette notion d’ordre dans la résolution numérique d’E.D.O.1 , dans la résolution numérique
d’E.D.P.2 par différences finies, éléments finis, volumes finis. Ceci permettra de vérifier/valider les
méthodes numériques implémentées.
Dans le cadre de l’intégration numérique, le Théorème 5.17 et plus particulièrement la formule (5.2.2),
affirme que si une méthode de quadrature élémentaire Qn est de degré d’exactitude p ě n et que f P
C p`1 pr³, ´s; Rq alors
żβ
| f pxqdx ´ Qcomp
k,n pf, ³, ´q| < O ph
p`1
q.
α

et donc son ordre de convergence est p ` 1.


Il est possible de "retrouver" numériquement l’ordre de convergence de méthodes numériques en représen-
tant en échelle logarithmique (en abscisses et ordonnées) la fonction erreur h Ñ Ephq pour chacune des
méthodes.
Par exemple, pour la méthode composite de Simpson, on a vu que pour un h < pb ´ aq{N donné (i.e. un
N donné)
żb N
hÿ
5.2.2 Erreurs des méthodes de quadrature composées

Ephq < | f pxqdx ´ pf pxi´1 q ` 4f pmi q ` f pxi qq| < Oph4 q


a 6 i<1

Pour h suffisament petit, il existe alors C ą 0 tel que

Ephq < Ch4 .

On en déduit que si l’on multiplie N par 10 alors l’erreur sera divisée par 104 . En effet, on a
`h˘ ` h ˘4 Ephq
E <C < .
10 10 104
şπ{2
Pour illustrer ceci, on propose le Listing 5.1 où est calculé une approximation de 0 cospxqdx par la
méthode composée des trapèzes (degré d’exactitude 1) et par la méthode composée de Simpson (degré
d’exactitude 3): on remarque que l’erreur pour la méthode des trapèzes entre N < 10 et N < 100 est
bien divisée par 102 et, pour la méthode de Simpson, elle est bien divisée par 104 .
5. Intégration numérique

Listing 5.1: : script Matlab pour illustrer l’ordre des méthodes des Trapèzes et de Simpson
f = @ ( x ) cos ( x ) ;
F = @ ( x ) sin ( x ) ;
a =0; b = pi /2;
Iex = F ( b ) -F ( a ) ;
I1 = QuadTrapeze (f ,a ,b ,10) ;
I2 = QuadTrapeze (f ,a ,b ,100) ;
fprintf ( ’ Erreurs ␣ Trapeze : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =100) ␣ %.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) )
I1 = QuadSimpson (f ,a ,b ,10) ;
I2 = QuadSimpson (f ,a ,b ,100) ;
fprintf ( ’ Erreurs ␣ Simpson : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =100) ␣ %.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) )

Output
Erreurs Trapeze: (N=10) 2.05701e-03 - (N=100) 2.05618e-05
5.2. Méthodes de quadrature composées

Erreurs Simpson: (N=10) 2.11547e-07 - (N=100) 2.11393e-11

Nous allons maintenant représenter graphiquement ce phénomène. On note tout d’abord que

logpEphqq < logpCq ` 4 logphq,

et donc, en échelle logarithmique, on va représenter logphq Ñ logpEphqq qui est une droite de pente 4. En
Figure 5.13, on représente en échelle logarithmique les différentes erreurs ainsi que les fonctions h Ñ h2
et h Ñ h4 . Le code Matlab/Octave est donné en Listing 5.2.
f = @ ( x ) cos ( x ) ;
F = @ ( x ) sin ( x ) ;
a =0; b = pi /2;
Iex = F ( b ) -F ( a ) ;
LN =[Link];
k =1;
for N = LN
H ( k ) =( b - a ) / N ;
1 Equations Différentielles Ordinaires
2 Equations aux Dérivées Partielles

Compiled on 2023/10/10 at [Link]


Méthodes de quadrature composées 185

E1 ( k ) = abs ( QuadTrapeze (f ,a ,b , N ) - Iex ) ;


E2 ( k ) = abs ( QuadSimpson (f ,a ,b , N ) - Iex ) ;
k = k +1;
end
loglog (H , E1 , ’b ’ ,H , E2 , ’r ’ ,H , H .^2 , ’k -. s ’ , ...
H ,0.01* H .^4 , ’k -. d ’)
xlabel ( ’h ’) ; ylabel ( ’E ( h ) ’)
legend ( ’ Trapeze ’ , ’ Simpson ’ , ’O ( h ^2) ’ , ’O ( h ^4) ’)

Listing 5.2: Ordre des méthodes composites des trapèzes et de Simpson

10 -2
Trapeze

5.2.2 Erreurs des méthodes de quadrature composées


Simpson
2
O(h )
10 -4 O(h 4 )

10 -6
E(h)

10 -8

10 -10

10 -12
10 -2 10 -1

5. Intégration numérique
h

şπ{2
Figure 5.13: Ordre des méthodes composites des Trapèzes et de Simpson pour le calcul de 0
cospxqdx

ş1
On donne en Listing 5.3, un exemple pour le calcul approché de 0
x3{2 dx dont les résultats posent
question.

5.2.Méthodes de quadrature composées


Listing 5.3: : Exemple 1, script Matlab/Octave pour illustrer des changements de comportements des ordres
f = @ ( x ) x .^(3/2) ;
F = @ ( x ) x .^(3/2+1) /(3/2+1) ;
a =0; b =1;
Iex = F ( b ) -F ( a ) ;
I1 = QuadTrapeze (f ,a ,b ,10) ;
I2 = QuadTrapeze (f ,a ,b ,100) ;
fprintf ( ’ Erreurs ␣ Trapeze : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =100) ␣ %.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) )
I1 = QuadSimpson (f ,a ,b ,10) ;
I2 = QuadSimpson (f ,a ,b ,100) ;
fprintf ( ’ Erreurs ␣ Simpson : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =100) ␣ %.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) )

Output
Erreurs Trapeze: (N=10) 1.16946e-03 - (N=100) 1.22452e-05
Erreurs Simpson: (N=10) 7.85521e-06 - (N=100) 2.48802e-08

On ne retrouve le bon ordre pour la méthode de Simpson car la fonction ne vérifie par les hypothèses du
Théorème 5.17: la dérivée seconde de la fonction x ÞÑ x3{2 n’est pas définie en 0.
ş1
On donne en Listing 5.4, un autre exemple pour le calcul approché de ´1 |x|dx dont les résultats posent
question.

Compiled on 2023/10/10 at [Link]


186 Intégration numérique

Listing 5.4: : Exemple 2, script Matlab/Octave pour illustrer des changements de comportements des erreurs
f = @ ( x ) abs ( x ) ;
a = -1; b =1;
Iex =1;
I1 = QuadTrapeze (f ,a ,b ,10) ;
I2 = QuadTrapeze (f ,a ,b ,11) ;
I3 = QuadTrapeze (f ,a ,b ,12) ;
I4 = QuadTrapeze (f ,a ,b ,13) ;
fprintf ( ’ Erreurs ␣ Trapeze : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =11) ␣ %.5 e␣ -␣ ( N =12) ␣ %.5 e ␣ -( N =13) ␣...
%.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) , abs ( I3 - Iex ) , abs ( I4 - Iex ) )
I1 = QuadSimpson (f ,a ,b ,10) ;
I2 = QuadSimpson (f ,a ,b ,11) ;
I3 = QuadSimpson (f ,a ,b ,12) ;
I4 = QuadSimpson (f ,a ,b ,13) ;
fprintf ( ’ Erreurs ␣ Simpson : ␣ ( N =10) ␣ %.5 e ␣ -␣ ( N =11) ␣ %.5 e␣ -␣ ( N =12) ␣ %.5 e ␣ -( N =13) ␣...
%.5 e \ n ’ , abs ( I1 - Iex ) , abs ( I2 - Iex ) , abs ( I3 - Iex ) , abs ( I4 - Iex ) )

Output
Erreurs Trapeze: (N=10) 0.00000e+00 - (N=11) 8.26446e-03 - (N=12) 0.00000e+00 -(N=13) 5.91716e-03
Erreurs Simpson: (N=10) 0.00000e+00 - (N=11) 2.75482e-03 - (N=12) 0.00000e+00 -(N=13) 1.97239e-03

Cette fois la fonction n’est pas dérivable en 0! Le Théorème 5.17 ne peut s’appliquer. Toutefois, les
deux formules donnent un résultat exacte pour N pair. En effet, dans ce cas le point 0 est un point de
discrétisation
ş0 des méthodes
ş1 composées et dans ce cas on est ramené à calculer numériquement les deux
intégrales ´1 p´xqdx et 0 pxqdx ce qui donnera des résultats exactes puisque les 2 méthodes sont exactes
.0.0 Erreurs des méthodes de quadrature composées

pour les polynômes de degré 1.

5.3 Intégrales multiples


On veut approcher, en utilisant la formule de Simpson, l’intégrale
żbżd
I< f px, yqdydx
a c

Par utilisation de la formule de quadrature de Simpson (5.13) en y on a


żd ˆ ˙
d´c c`d
gpxq < f px, yqdy « g̃pxq < f px, cq ` 4f px, q ` f px, dq .
6 2
. Intégration numérique

Une nouvelle utilisation de Simpson en x donne


żb ˆ ˙
b´a a`b
I< gpxqdx « gpaq ` 4gp q ` gpbq
a 6 2
ˆ ˙
b´a a`b
« g̃paq ` 4g̃p q ` g̃pbq
6 2
a`b c`d
En posant ³ < 2 et ´ < on obtient la formule de quadrature de Simpson "2D" :
2 ,
¨ ˛
f pa, cq ` 4f pa, ´q ` f pa, dq
b´ad´c˝
I« `4pf p³, cq ` 4f p³, ´q ` f p³, dqq ‚ (5.31)
6 6
`f pb, cq ` 4f pb, ´q ` f pb, dq
.0. Intégrales multiples

La méthodologie pour obtenir la formule composite de Simpson "2D" est la suivante


b´a
a. Discrétisation régulière de ra, bs: @k P v0, nw, xk < a ` khx avec hx < n .
d´c
b. Discrétisation régulière de rc, ds: @l P v0, mw, yl < a ` lhy avec hy < m .

c. Relation de Chasles :
żbżd m ż x k ż yl
n ÿ
ÿ
f px, yqdydx < f px, yqdydx.
a c k<1 l<1 xk´1 yl´1

d. Formule composite de Simpson "2D" :


şb şd
f px, yqdydxa c
¨ < ˛
hx hy
n
ÿ ÿm f px k´1 , yl´1 q ` 4f px k´1 , ´ l q ` f px k´1 , yl q
˝ `4pf p³k , yl´1 q ` 4f p³k , ´l q ` f p³k , yl qq ‚
36 k<1 l<1
`f pxk , yl´1 q ` 4f pxk , ´l q ` f pxk , yl q

Compiled on 2023/10/10 at [Link]


avec ³k <
Intégrales multiples

2
xk´1 `xk
et ´l <
2
yl´1 `yl
.
187

Compiled on 2023/10/10 at [Link]


. Intégration numérique
.[Link]égrales multiples .0.0 Erreurs des méthodes de quadrature composées
Chapitre A
Langage algorithmique

A.1 Pseudo-langage algorithmique

Pour uniformiser l’écriture des algorithmes nous employons un pseudo-langage contenant l’indispensable :

‚ variables,

‚ opérateurs (arithmétiques, relationnels, logiques),

‚ expressions,

‚ instructions (simples et composées),

‚ fonctions.

Ce pseudo-langage sera de fait très proche du langage de programmation de Matlab.

A.1.1 Données et constantes

Une donnée est une valeur introduite par l’utilisateur (par ex. une température, une vitesse, ...). Une
constante est un symbole ou un identificateur non modifiable (par ex. Ã, la constante de gravitation,...).

A.1.2 Variables

Definition A.1

Une variable est un objet dont la valeur est modifiable, qui possède un nom et un type (entier,
charactère, réel, complexe, ...). Elle est rangée en mémoire à partir d’une certaine adresse.
190 Langage algorithmique

A.1.3 Opérateurs
Opérateurs arithmétiques

Nom Symbole example


addition ` a`b
soustraction ´ a´b
opposé ´ ´a
produit ˚ a˚b
division { a{b
^
puissance ab a^ b

Table A.1: Opérateurs arithmétiques

Opérateurs relationnels

Nom Symbole example Commentaires


identique << a << b vrai si a et b ont même valeur, faux sinon.
différent >< a >< b faux si a et b ont même valeur, vrai sinon.
inférieur ă aăb vrai si a est plus petit que b, faux sinon.
supérieur ą aąb vrai si a est plus grand que b, faux sinon.
inférieur ou égal ă< a ă< b vrai si a est plus petit ou égal à b, faux sinon.
A.1.4 Expressions

supérieur ou égal ą< a ą< b vrai si a est plus grand ou égal à b, faux sinon.

Table A.2: Opérateurs relationnels

Opérateurs logiques
A. Langage algorithmique

Nom Symbole example Commentaires


négation > >a vrai si a est faux (ou nul), faux sinon.
ou | a|b vrai si a ou b est vrai (non nul), faux sinon.
et & a&b vrai si a et b sont vrais (non nul), faux sinon.
A.1. Pseudo-langage algorithmique

Table A.3: Opérateurs logiques

Opérateur d’affectation

Nom Symbole example Commentaires


affectation Ð aÐb On affecte à la variable a le contenu de b

Table A.4: Opérateurs d’affectation

A.1.4 Expressions

Definition A.2

Une expression est un groupe d’opérandes (i.e. nombres, constantes, variables, ...) liées par certains
opérateurs pour former un terme algébrique qui représente une valeur (i.e. un élément de donnée
simple)

Exemple A.3. • Voici un exemple classique d’expression numérique :

pb ˚ b ´ 4 ˚ a ˚ cq{p2 ˚ aq.

On appelle opérandes les identifiants a, b et c, et les nombres 4 et 2. Les symboles ˚, ´ et { sont


les opérateurs.

Compiled on 2023/10/10 at [Link]


Pseudo-langage algorithmique 191

• Voici un exemple classique d’expression booléenne (logique) :

px ă 3.14q

On teste px ă 3.14q avec x une variable numérique réelle. si x ă 3.14 alors cette expression renverra
la valeur vraie (i.e. 1), faux sinon (i.e. 0).

A.1.5 Instructions

Definition A.4

Une instruction est un ordre ou un groupe d’ordres qui déclenche l’exécution de certaines actions
par l’ordinateur. Il y a deux types d’instructions : simple et structuré.
Les instructions simples sont essentiellement des ordres seuls et inconditionnels réalisant l’une
des tâches suivantes :

a. affectation d’une valeur a une variable.


b. appel d’une fonction (procedure, subroutine, ... suivant les langages).
Les instructions structurées sont essentiellement :

a. les instructions composées, groupe de plusieurs instructions simples,

A.1.5 Instructions
b. les instructions répétitives, permettant l’exécution répétée d’instructions simples, (i.e. boucles
«pour», «tant que»)
c. les instructions conditionnelles, lesquelles ne sont exécutées que si une certaine condition est
respectée (i.e. «si»)

A. Langage algorithmique
Les exemples qui suivent sont écrits dans un pseudo langage algorithmique mais sont facilement trans-
posable dans la plupart des langages de programmation.

[Link]-langage algorithmique
Instructions simples

Voici un exemple de l’instruction simple d’affectation :

1: a Ð 3.14 ˚ R

On évalue l’expression 3.14 ˚ R et affecte le résultat à la variable a.


Un autre exemple est donné par l’instruction simple d’affichage :
affiche(’bonjour’)
Affiche la chaine de caractères ’bonjour’ à l’écran. Cette instruction fait appel à la fonction affiche.

Instructions composées

Instructions répétitives, boucle «pour»

Algorithme A.1 Exemple de boucle «pour»


Données : n : un entier.

1: SÐ0
2: Pour i Ð 1 à n faire
3: S Ð S ` cospi2 q
4: Fin Pour

Compiled on 2023/10/10 at [Link]


192 Langage algorithmique

Instruction répétitive, boucle «tant que»

Algorithme A.2 Exemple de boucle «tant que»

1: i Ð 0, x Ð 1
2: Tantque i ă 1000 faire
3: xÐx`i˚i
4: iÐi`1
5: Fin Tantque

Instruction répétitive, boucle «répéter ...jusqu’à»

Algorithme A.3 Exemple de boucle «répéter ...jusqu’à»

1: i Ð 0, x Ð 1
2: Répéter
3: xÐx`i˚i
4: iÐi`1
5: jusqu’à i>=1000
A.1.6 Fonctions

Instructions conditionnelles «si»

Algorithme A.4 Exemple d’instructions conditionnelle «si»


Données : age : un réel.

1: Si age ą< 18 alors


A. Langage algorithmique

2: affiche(’majeur’)
3: Sinon Si age ą< 0 alors
4: affiche(’mineur’)
5: Sinon
A.1. Pseudo-langage algorithmique

6: affiche(’en devenir’)
7: Fin Si

A.1.6 Fonctions
Les fonctions permettent

• d’automatiser certaines tâches répétitives au sein d’un même programme,

• d’ajouter à la clarté d’un programme,

• l’utilisation de portion de code dans un autre programme,

• ...

Fonctions prédéfinies
Pour faciliter leur usage, tous les langages de programmation possèdent des fonctions prédéfinies. On
pourra donc supposer que dans notre langage algorithmique un grand nombre de fonctions soient prédéfinies
: par exemple, les fonctions mathématiques sin, cos, exp, abs, ¨ ¨ ¨ (pour ne citer qu’elles)

Syntaxe
On utilise la syntaxe suivante pour la définition d’une fonction

Compiled on 2023/10/10 at [Link]


Pseudo-langage algorithmique 193

Fonction rargs1 , . . . , argsn s Ð NomFonction ( arge1 , . . . , argem )


instructions
Fin Fonction

La fonction se nomme NomFonction . Elle admet comme paramètres d’entrée (données) les m argu-
ments arge1 , . . . , argem et comme paramètres de sortie (résultats) les n arguments args1 , . . . , argsn . Ces
derniers doivent être déterminés dans le corps de la fonction (partie instructions).
Dans le cas ou la fonction n’admet qu’un seul paramètre de sortie, l’écriture se simplifie :

Fonction args Ð NomFonction ( arge1 , . . . , argem )


instructions
Fin Fonction

Ecrire ses propres fonctions

Pour écrire une fonction «propre», il faut tout d’abord déterminer exactement ce que devra faire cette
fonction.
Puis, il faut pouvoir répondre à quelques questions :

a. Quelles sont les données (avec leurs limitations)?

A.1.6 Fonctions
b. Que doit-on calculer ?

Et, ensuite il faut la commenter : expliquer son usage, type des paramètres, ....

Exemple : résolution d’une équation du premier degré

A. Langage algorithmique
Nous voulons écrire une fonction calculant la solution de l’équation

ax ` b < 0,

[Link]-langage algorithmique
où nous supposons que a P R˚ et b P R. La solution de ce problème est donc

b
x<´ .
a

Les données de cette fonction sont a P R˚ et b P R. Elle doit retourner x < ´ ab solution de ax ` b < 0.

Algorithme A.5 Exemple de fonction : Résolution de l’équation du premier degré ax ` b < 0.


Données : a : nombre réel différent de 0
b : nombre réel.
Résultat : x : un réel.

1: Fonction x Ð REPD( a, b )
2: x Ð ´b{a
3: Fin Fonction

Remarque 9. Cette fonction est très simple, toutefois pour ne pas «alourdir» le code nous n’avons pas
vérifié la validité des données fournies.

Exercice A.1.1

Ecrire un algorithme permettant de valider cette fonction.

Compiled on 2023/10/10 at [Link]


194 Langage algorithmique

Exemple : résolution d’une équation du second degré


Nous cherchons les solutions réelles de l’équation

ax2 ` bx ` c < 0, (A.1)

où nous supposons que a P R˚ , b P R et c P R sont donnés.


Mathématiquement, l’étude des solutions réelles de cette équation nous amène à envisager trois cas suivant
les valeurs du discriminant ∆ < b2 ´ 4ac

• si ∆ ă 0 alors les deux solutions sont complexes,


b
• si ∆ < 0 alors la solution est x < ´ 2a ,
? ?
´b´ ∆ ´b´ ∆
• si ∆ ą 0 alors les deux solutions sont x1 < 2˚a et x2 < 2˚a .

Exercice A.1.2
A.2.3 Réalisation d’un algorithme

a. Ecrire la fonction discriminant permettant de calculer le discriminant de l’équation (A.1).


b. Ecrire la fonction RESD permettant de résoudre l’équation (A.1) en utilisant la fonction
discriminant.
c. Ecrire un programme permettant de valider ces deux fonctions.

Exercice A.1.3

Même question que précédemment dans le cas complexe (solutions et coefficients).


A. Langage algorithmique

A.2 Méthodologie d’élaboration d’un algorithme

A.2.1 Description du problème


A.2. Méthodologie d’élaboration d’un algorithme

‚ Spécification d’un ensemble de données


Origine : énoncé, hypothèses, sources externes, ...

‚ Spécification d’un ensemble de buts à atteindre


Origine : résultats, opérations à effectuer, ...

‚ Spécification des contraintes

A.2.2 Recherche d’une méthode de résolution


‚ Clarifier l’énoncé.

‚ Simplifier le problème.

‚ Ne pas chercher à le traiter directement dans sa globalité.

‚ S’assurer que le problème est soluble (sinon problème d’indécidabilité!)

‚ Recherche d’une stratégie de construction de l’algorithme

‚ Décomposer le problème en sous problèmes partiels plus simples : raffinement.

‚ Effectuer des raffinements successifs.

‚ Le niveau de raffinement le plus élémentaire est celui des instructions.

Compiled on 2023/10/10 at [Link]


Méthodologie d’élaboration d’un algorithme 195

A.2.3 Réalisation d’un algorithme


Il doit être conçu indépendamment du langage de programmation et du système informatique (sauf cas
très particulier)

‚ L’algorithme doit être exécuté en un nombre fini d’opérations.


‚ L’algorithme doit être spécifié clairement, sans la moindre ambiguïté.
‚ Le type de données doit être précisé.
‚ L’algorithme doit fournir au moins un résultat.
‚ L’algorithme doit être effectif : toutes les opérations doivent pouvoir être simulées par un homme
en temps fini.

Pour écrire un algorithme détaillé, il faut tout d’abord savoir répondre a quelques questions :

• Que doit-il faire ? (i.e. Quel problème est-il censé résoudre?)


• Quelles sont les données necessaires à la résolution de ce problème?
• Comment résoudre ce problème «à la main» (sur papier)?

A.2.4 Exercices
Si l’on ne sait pas répondre à l’une de ces questions, l’écriture de l’algorithme est fortement compromise.

A.2.4 Exercices

Exercice A.2.1: Algorithme pour une somme

Ecrire un algorithme permettant de calculer


n
ÿ

A. Langage algorithmique
Spxq < k sinp2 ˚ k ˚ xq

A.2.Méthodologie d’élaboration d’un algorithme


k<1

Correction A.2.1 L’énoncé de cet exercice est imprécis. On choisit alors x P R et n P N pour rendre
possible le calcul. Le problème est donc de calculer
n
ÿ
k sinp2kxq.
k<1

Toutefois, on aurait pu choisir x P C ou encore un tout autre problème :


n
ÿ
Trouver x P R tel que Spxq < k sinp2kxq
k<1

où n P N et S, fonction de R à valeurs réelles, sont les données!


řn
Algorithme A.6 Calcul de S < k<1 k sinp2kxq
Données : x : nombre réel,
n : nombre entier.
Résultat : S : un réel.
1: SÐ0
2: Pour k Ð 1 à n faire
3: S Ð S ` k ˚ sinp2 ˚ k ˚ xq
4: Fin Pour

Compiled on 2023/10/10 at [Link]


196 Langage algorithmique

Exercice A.2.2: Algorithme pour un produit

Ecrire un algorithme permettant de calculer


k
ź
P pzq < sinp2 ˚ k ˚ z{nqk
n<1

Correction A.2.2 L’énoncé de cet exercice est imprécis. On choisit alors z P R et k P N pour rendre
possible le calcul.

k
ź
Algorithme A.7 Calcul de P < sinp2kz{nqk
n<1
Données : z : nombre réel,
k : nombre entier.
Résultat : P : un réel.
1: P Ð1
2: Pour n Ð 1 à k faire
P Ð P ˚ sinp2 ˚ k ˚ z{nq^ k
A.2.4 Exercices

3:
4: Fin Pour

Exercice A.2.3: Série de Fourier

Soit la série de Fourier


A. Langage algorithmique

" *
A.2. Méthodologie d’élaboration d’un algorithme

4A 1 1 1
xptq < cos Ét ´ cos 3Ét ` cos 5Ét ´ cos 7Ét ` ¨ ¨ ¨ .
à 3 5 7

Ecrire la fonction SFT permettant de calculer xn ptq.

Correction A.2.3 Nous devons écrire la fonction permettant de calculer


n
4A ÿ 1
xn ptq < p´1qk`1 cospp2k ´ 1qÉtq
à k<1 2k ´ 1

Les données de la fonction sont A P R, É P R, n P N˚ et t P R.


Grâce à ces renseignements nous pouvons déjà écrire l’entête de la fonction :

Algorithme A.8 En-tête de la fonction SFT retournant valeur de la série de Fourier en t tronquée au
n premiers termes de l’exercice A.2.3.
Données : t : nombre réel,
n : nombre entier strictement positif
A, É : deux nombres réels.
Résultat : x : un réel.

1: Fonction x Ð SFT( t, n, A, É )
2: ...
3: Fin Fonction

Maintenant nous pouvons écrire progressivement l’algorithme pour aboutir au final à une version ne
contenant que des opérations élémentaires.

Compiled on 2023/10/10 at [Link]


Principes de «bonne» programmation pour attaquer de «gros» problèmes 197

Algorithme A.9 R0 Algorithme A.9 R1

n ˆ ˙ n
ÿ
4A ÿ p´1qk`1 2k´1
1
ˆ 1
xÐ 1: SÐ p´1qk`1 cospp2k ´ 1qÉtq
π k“1 cospp2k ´ 1qωtq
k<1
2k ´ 1
1:
4A
2: xÐ S
Ã

Algorithme A.9 R1 Algorithme A.9 R2

ÿ
n
1 1: SÐ0
SÐ p´1qk`1 cospp2k ´ 1qωtq
k“1
2k ´ 1 2: Pour k < 1 à n faire
1: 3: S Ð S ` p´1qk`1 2k´1
1
˚ cospp2k ´ 1qωtq
4A
2: x Ð S 4: Fin Pour
Ã

A.3.0 Exercices
4A
5: x Ð S
π

Finalement la fonction est

Algorithme A.9 Fonction SFT retournant la valeur de la série de Fourier en t tronquée au n premiers
termes de l’exercice A.2.3.
Données : t : nombre réel,
n : nombre entier strictement positif
A, É : deux nombres réels.
Résultat : x : un réel.

[Link] de «bonne» programmation pour attaquer de «gros» problèmes


1: Fonction x Ð SFT( t, n, A, É )
2: SÐ0
3: Pour k < 1 à n faire
4: S Ð S ` pp´1q^ pk ` 1qq ˚ cospp2 ˚ k ´ 1q ˚ É ˚ tq{p2 ˚ k ´ 1q

A. Langage algorithmique
5: Fin Pour
6: x Ð 4 ˚ A ˚ S{Ã
7: Fin Fonction

Exercice A.2.4

Reprendre les trois exercices précédents en utilisant les boucles «tant que».

A.3 Principes de «bonne» programmation pour attaquer de


«gros» problèmes
Tous les exemples vus sont assez courts. Cependant, il peut arriver que l’on ait des programmes plus
longs à écrire (milliers de lignes, voir des dizaines de milliers de lignes). Dans l’industrie, il arrive que des
équipes produisent des codes de millions de lignes, dont certains mettent en jeux des vies humaines (con-
trôler un avion de ligne, une centrale nucléaire, ...). Le problème est évidemment d’écrire des programmes
sûrs. Or, un programme à 100% sûr, cela n’existe pas! Cependant, plus un programme est simple, moins
le risque d’erreur est grand : c’est sur cette remarque de bon sens que se basent les «bonnes» méthodes.
Ainsi :

Tout problème compliqué doit être découpé en sous-problèmes plus simples

Il s’agit, lorsqu’on a un problème P à résoudre, de l’analyser et de le décomposer en un ensemble de


problèmes P1 , P2 , P3 , . . . plus simples. Puis, P1 , est lui-même analysé et décomposé en P11 , P12 , . . . , et

Compiled on 2023/10/10 at [Link]


198 Langage algorithmique

P2 en P21 , P22 , etc. On poursuit cette analyse jusqu’à ce qu’on n’ait plus que des problèmes élémentaires
à résoudre. Chacun de ces problèmes élémentaires est donc traité séparément dans un module, c’est à
dire un morceau de programme relativement indépendant du reste. Chaque module sera testé et validé
séparément dans la mesure du possible et naturellement largement docummenté. Enfin ces modules
élémentaires sont assemblés en modules de plus en plus complexes, jusqu’à remonter au problème initiale.
A chaque niveau, il sera important de bien réaliser les phases de test, validation et documentation des
modules.

Dans ce document, on s’évertue à écrire des algorithmes!


Ceux-ci ne seront pas optimisésa !
a améliorés pour minimiser le nombre d’opérations élémentaires,
l’occupation mémoire, ..
A.3.0 Exercices
A.3. Principes de «bonne» programmation pour attaquer de «gros» problèmes
A. Langage algorithmique

Compiled on 2023/10/10 at [Link]


Chapitre B
Annexes

B.1 Analyse : rappels

B.1.1 En vrac

Théorème B.1: Théorème de Bolzano ou des valeurs intermédiaires

Soit f : ra, bs Ă R ÝÑ R une application continue. Si f paq et f pbq ne sont pas de même signe (i.e.
f paqf pbq ă 0) alors il existe au moins c Psa, br tel que f pcq < 0.

Théorème B.2: Théorème des accroissements finis

Soient a et b deux réels, a ă b et f une fonction continue sur l’intervalle fermé ra, bs, dérivable sur
l’intervalle ouvert sa, br. Alors il existe À Psa, br tel que

f pbq ´ f paq
f 1 pÀq < .
b´a

Proposition B.3: Formule de Taylor-Lagrange

Soit n P N et f P C n pra, bsq dont la dérivée n-ième est dérivable. Alors pour tout x, y dans ra, bs,
x ‰ y, il existe À Ps minpx, yq, maxpx, yqr tel que

ÿn
px ´ yqk pkq px ´ yqn`1 pn`1q
f pxq < f pyq ` f pyq ` f pÀq (B.1)
k<1
k! pn ` 1q!

Corollaire B.4: Théorème de la bijection

Si f est une fonction continue et strictement monotone sur un intervalle ra, bs et à valeurs réelles,
200 Annexes

alors elle constitue une bijection entre ra, bs et l’intervalle fermé dont les bornes sont f paq et f pbq.

Preuve. Notons J < f ´1 pra, bsq cet intervalle fermé, c’est-à-dire l’ensemble des réels compris entre f paq
et f pbq.
‚ La monotonie de la fonction implique que l’image de l’intervalle ra, bs est contenue dans J :

– si f est croissante, pour tout x P ra, bs on a f paq ď f pxq ď f pbq


– si f est décroissante, pour tout x P ra, bs on a f pbq ď f pxq ď f paq.
‚ Le fait que cette monotonie soit stricte assure que deux réels distincts ne peuvent avoir la même
image, autrement dit la fonction est injective sur ra, bs.

‚ Enfin, le théorème des valeurs intermédiaires (qui s’appuie sur l’hypothèse de continuité) garantit
que tout élément de J admet au moins un antécédent par f , c’est-à-dire que la fonction est surjective
dans J.

Proposition B.5

Soit f est une fonction bijective continue d’un intervalle ouvert I Ă R sur un intervalle ouvert
J Ă R. Si f est dérivable en ³ P I et que f 1 p³q ‰ 0 alors sa réciproque f ´1 est dérivable en
´ < f p³q P J et
1 1
pf ´1 q1 p´q < 1 ou encore pf ´1 q1 p´q < 1 ´1
B.1.2 Espace métrique

f p³q f pf p´qq

Preuve. On pose g < f ´1 et on écrit son taux d’accroissement :

gpyq ´ gp´q x´³


<
y´´ f pxq ´ f p³q
f pxq´f pαq
avec y < f pxq. Cette fraction est l’inverse de x´α qui tend vers f 1 p³q ‰ 0 quand x tend vers ³.
B. Annexes

B.1.2 Espace métrique

Definition B.6: Distance sur un ensemble


B.1. Analyse : rappels

On appelle distance sur un ensemble E, une application d de E 2 dans R` telle que pour tout
x, y , z q P E 3 on a
px

‚ symétrie : dpx
x, y q < dpyy , xq,

‚ séparation : dpx
x, y q < 0 ô x < y ,

‚ inégalité triangulaire : dpx


x, z q ď dpx
x, y q ` dpyy , z q

Voici quelques exemples de distances:


• dpx, yq < |x ´ y| dans R, C, Z ou Q

• dpx x ´ y } dans Rn , où }.} est l’une quelconque des normes habituelles.


x, y q < }x

Definition B.7: Espace métrique

On appelle pE, dq un espace métrique si E est un ensemble et d une distance sur E.

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 201

Definition B.8: Suite convergente

urks qkPN une suite d’éléments de E. On dit que la suite


Soient pE, dq un espace métrique et pu
rks
u qkPN converge vers ³ P E si
pu
rks
@ϵ ą 0, DN P N tel que @k ą N, dpu
u , ³ q ă ϵ. (B.2)

Definition B.9: Ordre de convergence

urks qkPN une suite d’éléments de E convergeant vers ³ P E.


Soient pE, dq un espace métrique et pu
On dit que cette suite converge vers avec un ordre p ě 1 au moins si
³

urk`1s , ³ q ď C dpu
Dk0 P N, DC ą 0 tels que dpu urks , ³ qp , @k ě k0 . (B.3)

où C ă 1 si p < 1.

Definition B.10: Suite de Cauchy

x rks qkPN d’éléments de E est dites de Cauchy si


Soit pE, dq un espace métrique. Une suite px

x rps ,x
@ϵ ą 0, DM P N, tel que @pp, qq P N2 , p, q ě M, dpx x rqs q ă ϵ.

ce qui correspond à

B.2.0 Espace métrique


lim x rps ,x
sup dpx x rqs q < 0.
mÑ`8 p,qěm

Une autre manière de l’écrire est

x rk`ls ,x
@ϵ ą 0, DM P N, tel que @k P N, k ě M, @l P N, dpx x rks q ă ϵ.

ce qui correspond à
rk`ls
lim sup dpx
x x rks q < 0.
,x
mÑ`8 kěm,lě0

B. Annexes
Definition B.11: Espace métrique complet

Un espace metrique est dit complet si toute suite de Cauchy converge.

[Link]èbre linéaire
Proposition B.12

Si E est un espace vectoriel normé de norme }.} alors E est un espace métrique pour la distance d
issue de sa norme et définie par dpx
x, y q < }x x, y q P E 2 .
x ´ y } , @px

Definition B.13: Espace de Banach

On appelle espace de Banach un espace vectoriel normé complet pour la distance issue de sa
norme.

B.2 Algèbre linéaire

. Toute cette partie peut être joyeusement omise par tout Homo sapiens algebra linearis compatible.
Toutefois une lecture rapide permet de se raffraichir la mémoire.

Compiled on 2023/10/10 at [Link]


202 Annexes

Soit V un espace vectoriel de dimension finie n, sur le corps R des nombres réels, ou sur le corps C des
nombres complexes. Notons plus généralement K le corps R ou C.

B.2.1 Vecteurs
Une base de V est un ensemble tee1 , e 2 , . . . , e n u de n vecteurs linéairement indépendants. Le vecteur
ř
n
v< vie i sera représenté par le vecteur colonne
i<1
¨˛
v1
˚ v2 9
˚ 9
v<˚ . 9
˝ .. ‚
vn

et on désignera par v t et v ˚ les vecteurs lignes suivants


` ˘ ` ˘
v t < v1 v2 ¨ ¨ ¨ vn , v ˚ < v1 v2 ¨¨¨ vn

où ³ est le nombre complexe conjugué du nombre ³.

Definition B.14

• Le vecteur ligne v t est le vecteur transposé du vecteur colonne v .

• Le vecteur ligne v ˚ est le vecteur adjoint du vecteur colonne v .


B.2.1 Vecteurs

Definition B.15

L’application x‚, ‚y : Kn ˆ Kn Ñ K définie pour tout pu


u, v q P Kn ˆ Kn par
n
ÿ
u, v y < u t .vv < v t .u
xu u< ui vi , si K < R (B.4)
B. Annexes

i<1
n
ÿ
u, v y < u ˚ .vv < v ˚ .u
xu u < xvv , u y < ui vi , si K < C (B.5)
i<1
B.2. Algèbre linéaire

est appelée produit scalaire euclidien si K < R, hermitiena si K < C. Pour rappeler la dimension
de l’espace, on écrit
xuu, v y < xu
u, v yn .
a La convention choisie pour le produit scalaire hermitien étant ici : linéarité à droite et semi-linéarité à gauche.

Il est aussi possible de définir le produit scalaire hermitien par le complexe conjugué de (B.5) :
n
ÿ
u, v y “ v ˚ .u
xu u“ ui v i .
i“1

Dans ce cas le produit scalaire est une forme sesquilinéaire à droite.

Definition B.16

Soit V est un espace vectoriel muni d’un produit scalaire.

˛ Deux vecteurs u et v sont orthogonaux si xu


u, v y < 0.

˛ Un vecteur v est orthogonal à une partie U de V si

@u
u P U, xu
u, v y < 0.

On note v K U.

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 203

˛ Un ensemble de vecteurs tvv 1 , v 2 , . . . , v k u de l’espace V est dit orthonormal si

xvv i , v j y < ¶ij , @pi, jq P v1, kw2


"
1 si i < j,
où ¶ij est le symbole de Kronecker : ¶ij <
0 si i ‰ j.

Definition B.17

Le vecteur nul de Kn est représenté par 0 n ou 0 lorsqu’il n’y a pas d’ambiguité.

Definition B.18

Soit u P Kn non nul. On définit l’opérateur de projection sur u par

xu
u, v y 1
proju pvv q < u< uu ˚v , @vv P Kn . (B.6)
xu
u, u y xu
u, u y

La matrice Pu < uu ˚ s’appelle la matrice de la projection orthogonale suivant le vecteur u .

Proposition B.19: Procédé de Gram-Schmidt

Soit tvv i uiPv1,nw une base de Kn . On construit successivement les vecteurs u i

B.2.2 Matrices
i´1
ÿ i´1
ÿ xu
uk , v i y
ui < v i ´ proju k pvv i q < v i ´ u k , @i P v1, nw.
k<1 k<1
xu
uk , u k y

Ils forment une base orthogonale de Kn et Vect pu u1 , . . . , u i q < Vect pvv 1 , . . . , v i q , @i P v1, nw (voir
Exercice ??, page ??).
Pour construire une base orthonormale tzz i uiPv1,nw , il suffit de normaliser les vecteurs de la base

B. Annexes
orthogonale:
ui
zi < , @i P v1, nw.
ui , u i y1{2
xu

[Link]èbre linéaire
B.2.2 Matrices
Généralités
Une matrice à m lignes et n colonnes est appelée matrice de type pm, nq , et on note Mm,n pKq, ou
simplement Mm,n , l’espace vectoriel sur le corps K formé par les matrices de type pm, nq à éléments
dans K.
Une matrice A P Mm,n pKq d’éléments aij P K est notée

A < paij q1ďiďm, 1ďjďn ,

le premier indice i correspond aux lignes et le second j aux colonnes. On désigne par pAqij l’élément de
la ième ligne et de la j ème colonne. On peut aussi le noter ai,j .

Definition B.20

La matrice nulle de Mm,n pKq est représentée par Om,n ou O lorsqu’il n’y a pas d’ambiguité. Si
m < n on peut aussi noter On cette matrice.

Compiled on 2023/10/10 at [Link]


204 Annexes

Definition B.21

˛ Soit une matrice A P Mm,n pCq, on note A˚ P Mn,m pCq la matrice adjointe de la matrice
A, définie de façon unique par

xAu u, A˚v yn , @u
u, v ym < xu u P Cn , @vv P Cm

qui entraine pA˚ qij < aji .


˛ Soit une matrice A P Mm,n pRq, on note At P Mn,m pRq la matrice transposée de la matrice
A, définie de façon unique par

xAu
u, v ym < xu u P Rn , @vv P Rm
u, Atv yn , @u

qui entraine pAt qij < aji .

Definition B.22

Si A P Mm,p pKq et B P Mp,n pKq, leur produit AB P Mm,n pKq est défini par
p
ÿ
pABqij < aik bkj , @i P v1, mw, @j P v1, nw. (B.7)
k<1

Exercice B.2.1: résultats à savoir


B.2.2 Matrices

Soient A P Mm,p pKq et B P Mp,n pKq, montrer que


t
pABq < Bt At , si K < R, (B.8)
˚ ˚ ˚
pABq < B A , si K < C (B.9)

Les matrices considérées jusqu’à la fin de ce paragraphe sont carrées.


B. Annexes

Definition B.23

Si A P Mn alors les éléments aii < pAqii sont appelés éléments diagonaux et les éléments
B.2. Algèbre linéaire

aii < pAqij , i ‰ j sont appelés éléments hors-diagonaux.

Definition B.24

On appelle matrice identitée de Mn la matrice dont les éléments diagonaux sont tous égals à 1
et les éléments hors-diagonaux nulles. On la note I ou encore In et on a

pIqi,j < ¶ij , @pi, jq P v1, nw2 .

Definition B.25

Une matrice A P Mn pKq est inversible ou régulière s’il existe une matrice B P Mn pKq vérifiant

AB < BA < I (B.10)

Dans le cas contraire, on dit que la matrice A est singulière ou non inversible.

On peut noter que la matrice B est unique. En effet, soient B1 et B2 vérifiant (B.10). On a alors AB2 < I
et donc B1 pAB2 q < B1 . On a aussi B1 A < I et donc pB1 AqB2 < B2 . Le produit des matrices étant associatif
on a B1 pAB2 q < pB1 AqB2 et donc B1 < B2 .

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 205

Definition B.26

Soit A P Mn une matrice inversible. On note A-1 P Mn l’unique matrice vérifiant

AA-1 < A-1 A < I. (B.11)

Cette matrice est appelée matrice inverse de A.

Definition B.27

Soit A P Mm,n pKq

˛ On note kerpAq < tvv P Kn ; Avv < 0u le noyau de A.


˛ On note impAq < tAvv P Km ; v P Kn u l’image de A.
def
˛ On note rankpAq < dimpimpAqq le rang de A.

Théorème B.28: (théorème du rang)

Soit A P Mm,n pKq. On a


rankpAq ` dimpkerpAqq < n

Proposition B.29

B.2.2 Matrices
Soit A P Mn pKq. Les propriétés suivantes sont équivalentes
a. A est inversible,
b. rankpAq < n,

c. x P Kn , Ax
x < 0 ñ x < 0, (i.e. ker A < t0u)

B. Annexes
d. detpAq ‰ 0,
e. toutes les valeurs propres de A sont non nulles,

[Link]èbre linéaire
f. il existe B P Mn pKq tel que AB < I,
g. il existe B P Mn pKq tel que BA < I.

Exercice B.2.2: résultats à savoir

Soient A P Mn pKq et B P Mn pKq inversibles. Montrer que AB inversible et


-1 t
pAt q < pA-1 q , si K < R, (B.12)
˚ -1 -1 ˚
pA q < pA q , si K < C. (B.13)
-1
pABq < B-1 A-1 (B.14)
-1
pA-1 q < A (B.15)

Definition B.30

Une matrice carrée A est :


˛ symétrique si A est réelle et A < At ,
˛ hermitienne si A < A˚ ,

Compiled on 2023/10/10 at [Link]


206 Annexes

˛ normale si AA˚ < A˚ A,


˛ orthogonale si A est réelle et AAt < At A < I,
˛ unitaire si AA˚ < A˚ A < I,

Proposition B.31

‚ une matrice symétrique ou hermitienne est nécessairement normale.


‚ une matrice orthogonale (resp. unitaire) est nécessairement normale et inversible d’inverse At
(resp. A˚ ).

Definition B.32

Soit A P Mn pCq une matrice hermitienne.

˛ Elle est définie positive si


xAu u P Cn zt0u
u, u y ą 0, @u (B.16)

˛ Elle est semi définie positive si

xAu u P Cn zt0u
u, u y ě 0, @u (B.17)
B.2.2 Matrices

Exercice B.2.3

Soit A P Mn pCq.
Q. 1 Que peut-on dire de la matrice AA˚ ? Et si la matrice A est inversible? ˝

Q. 2 Proposer une technique permettant de générer une matrice hermitienne semi-définie positive
à partir d’une matrice aléatoire quelconque. ˝
B. Annexes

Q. 3 Proposer une technique permettant de générer une matrice hermitienne définie positive à
partir d’une matrice triangulaire inférieure inversible aléatoire. ˝
B.2. Algèbre linéaire

Definition B.33

Soit A P Mn . La trace d’une matrice carrée A < paij q est définie par
n
ÿ
tr pAq < aii .
i<1

Definition B.34

Soit Tn le groupe des permutations de l’ensemble t1, 2, . . . , nu . A tout élément à P Tn , on


associe la matrice de permutation de Pσ P Mn est définie par

pPσ qi,j < ¶iσpjq .

Exercice B.2.4: résultats à savoir

Montrer qu’une matrice de permutation est orthogonale.

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 207

Definition B.35

Soient A < pai,j qni,j<1 P Mn et Tn le groupe des permutations de l’ensemble t1, 2, . . . , nu .. Le


déterminant d’une matrice A est défini par
ÿ n
ź
det pAq < εσ aσpjqj
σPTn j<1

où εσ désigne la signature de la permutation Ã.

Proposition B.36: Méthode de Laplace ou des coffacteurs

Soit A < pai,j qni,j<1 P Mn . On note Ari,js P Mn´1 la matrice obtenue en supprimant la ligne i et la
colonne j de A. On a alors le développement par rapport à la ligne i P v1, nw
n
ÿ ´ ¯
det pAq < p´1qi`j ai,j det Ari,js , (B.18)
j<1

et le développement par rapport à la colonne j P v1, nw


n
ÿ ´ ¯
det pAq < p´1qi`j ai,j det Ari,js . (B.19)
i<1

B.2.2 Matrices
` ˘
Le terme p´1qi`j det Ari,js est appellé le cofacteur du terme ai,j .

Definition B.37

Soit A P Mn pKq. On dit que ¼ P C est valeur propre de A s’il existe u P Cn non nul tel que

B. Annexes
u < ¼u
Au u. (B.20)

Le vecteur u est appelé vecteur propre associé à la valeur propre ¼.

[Link]èbre linéaire
Le couple p¼, u q est appelé élément propre de A.

Definition B.38

Soit A P Mn pKq. Soit ¼ P C une valeur propre de A. Le sous-espace

u P Cn : Au
Eλ < tu uu < kerpA ´ ¼Iq
u < ¼u (B.21)

est appelé sous-espace propre associé à la valeur propre ¼. La dimension de Eλ est appelée
multiplicité géométrique de la valeur propre ¼.

Definition B.39

Soit A P Mn pKq. Le polynôme de degré n défini par

PA p¼q < detpA ´ ¼Iq (B.22)

est appellé polynôme caractéristique de la matrice A.

Compiled on 2023/10/10 at [Link]


208 Annexes

Proposition B.40

Soit A P Mn pKq.

˛ Les racines complexes du polynôme caractéristique PA sont les valeurs propres de la matrice
A.
˛ Si la racine ¼ de PA est de multiplicité k, on dit que la valeur propre ¼ est de multiplicité
algébrique k.
˛ La matrice A possède n valeurs propres distinctes ou non.

Definition B.41

Soit A P Mn pKq. On note ¼i pAq , i P v1, nw, les n valeurs propres de A. Le spectre de la matrice A
est le sous-ensemble
ďn
Sp pAq < t¼i pAqu (B.23)
i<1

du plan complexe.

Proposition B.42

Soient A P Mn et B P Mn . On a les relations suivantes


B.2.2 Matrices

n
ÿ
tr pAq < ¼i pAq , (B.24)
i<1
źn
detpAq < ¼i pAq, (B.25)
i<1
tr pABq < tr pBAq , (B.26)
B. Annexes

tr pA ` Bq < tr A ` tr B, (B.27)
det pABq < det pAq det pBq < det pBAq , (B.28)
detpA˚ q < detpAq. (B.29)
B.2. Algèbre linéaire

Definition B.43

Le rayon spectral d’une matrice A P Mn est le nombre ě 0 défini par

ÄpAq < max t|¼i pAq| ; i P v1, nwu

Matrices particulières

Definition B.44

Une matrice carrée A P Mn est :

˛ diagonale si aij < 0 pour i ‰ j,


˛ triangulaire supérieure si aij < 0 pour i ą j,

˛ triangulaire inférieure si aij < 0 pour i ă j,


˛ triangulaire si elle est triangulaire supérieure ou triangulaire inférieure

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 209

˛ à diagonale dominante si
ÿ
|aii | ě |aij | , @i P v1, nw, (B.30)
j‰i

˛ à diagonale strictement dominante si


ÿ
|aii | ą |aij | , @i P v1, nw. (B.31)
j‰i

Proposition B.45

Soient A et B deux matrices de Mn pKq triangulaires inférieures (resp. triangulaires supérieures).


Alors la matrice AB est aussi triangulaire inférieure (resp. triangulaire supérieure).
De plus on a
pABqi,i < Ai,i Bi,i , @i P v1, nw.

Preuve. (voir Exercice ??, page ??)

Proposition B.46

Soit A P Mn pKq une matrice triangulaire inférieure (resp. triangulaire supérieure).


a. A est inversible si et seulement si ses éléments diagonaux sont tous non nuls (i.e. Ai,i ‰ 0,

B.2.2 Matrices
@i P v1, nw).
b. Si A est inversible alors son inverse est triangulaire inférieure (resp. triangulaire supérieure)
et
1
pA-1 qi,i <
pAqi,i

B. Annexes
Preuve. (voir Exercice ??, page ??)

Definition B.47

[Link]èbre linéaire
On appelle matrice bande une matrice A telle que aij ‰ 0 pour |j ´ i| ď c. c est la demi largeur
de bande.
Lorsque c < 1, la matrice est dite tridiagonale . Lorsque c < 2, la matrice est dite pentadiagonale
.

Definition B.48

On appelle sous-matrice d’une matrice donnée, la matrice obtenue en supprimant certaines lignes
et certaines colonnes. En particulier, si on supprime les pn ´ kq dernières lignes et colonnes d’une
matrice carrée A d’ordre n, on obtient la sous matrice principale d’ordre k.

Definition B.49

On appelle matrice bloc une matrice A P MN,M écrite sous la forme


¨ ˛
A1,1 ¨¨¨ A1,q
˚ . .. 9
A < ˝ .. . ‚
Ap,1 ¨¨¨ Ap,q

Compiled on 2023/10/10 at [Link]


210 Annexes

p
ÿ q
ÿ
où @i P v1, pw, @j P v1, qw, Ai,j est une matrice de Mni ,mj . On a N < ni et M < mj .
i<1 j<1
On dit que A et une matrice bloc-carrée si p < q et si tous les blocs diagonaux sont des matrices
carrées.

Propriété B.50: Multiplication de matrices blocs

Soient A P MN,M et B P MM,S . Le produit P < AB P MN,S peut s’écrire sous forme bloc si les
matrices A et B sont compatibles par blocs : il faut que le nombre de blocs colonne de A soit égale
au nombre de blocs ligne de B avec correspondance des dimensions.
¨ ˛ ¨ ˛
A1,1 ¨¨¨ A1,q B1,1 ¨¨¨ A1,r
˚ . .. 9 ˚ . .. 9
A < ˝ .. . ‚ et B < ˝ .. . ‚
Ap,1 ¨¨¨ Ap,q Bq,1 ¨¨¨ Aq,r

avec Ai,k P Mni ,mk et Bk,j P Mmk ,sj pour tout i P v1, pw, k P v1, qw et j P v1, rw. La matrice produit
P s’écrit alors sous la forme bloc
¨ ˛
P1,1 ¨ ¨ ¨ P1,r
˚ .. 9
P < ˝ ... . ‚
Pp,1 ¨ ¨ ¨ Pp,r

avec @i P v1, pw, @j P v1, rw Pi,j P Mni ,sj et


B.2.2 Matrices

q
ÿ
Pi,j < Ai,k Bk,j .
k<1

Definition B.51
B. Annexes

On dit qu’une matrice bloc-carrée A est triangulaire inférieure (resp. supérieure) par blocs si
elle peut s’écrire sous la forme d’une matrice bloc avec les sous matrices Ai,j < 0 pour i ă j (resp.
i ą j). . Elle s’écrit donc sous la forme
¨ ˛ ¨ ˛
B.2. Algèbre linéaire

A1,1 O ¨ ¨ ¨ O A1,1 ¨ ¨ ¨ ¨ ¨ ¨ An,1


˚ . .. .. .. 9 ˚ .. .. .. 9
˚ . . . 9 ˚ . . 9
˚ . . 9 ˚ O . 9
A<˚ 9 (resp. A < ˚ 9).
˚ .. .. .. 9 ˚ .. .. .. .. 9
˝ . . . O ‚ ˝ . . . . ‚
An,1 ¨ ¨ ¨ ¨ ¨ ¨ An,n O ¨ ¨ ¨ O An,n

Definition B.52

On dit qu’une matrice bloc-carrée A est diagonale par blocs ou bloc-diagonale si elle peut
s’écrire sous la forme d’une matrice bloc avec les sous matrices Ai,j < 0 pour i ‰ j . Elle s’écrit
donc sous la forme ¨ ˛
A1,1 O ¨ ¨ ¨ O
˚ .. .. .. 9
˚ . . 9
˚ O . 9
A<˚ 9
˚ .. .. .. 9
˝ . . . O ‚
O ¨ ¨ ¨ O An,n

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 211

Proposition B.53

Soit A une matrice bloc-carré décomposée en n ˆ n blocs. Si A est bloc-diagonale ou triangulaire


par blocs alors son déterminant est le produit des déterminant des blocs diagonaux :
n
ź
det A < det Ai,i (B.32)
i<1

Proposition B.54

Soit A une matrice bloc-carré inversible décomposée en n ˆ n blocs.

• Si A est bloc-diagonale alors son inverse (décomposée en n ˆ n blocs) est aussi bloc-
diagonale.
• Si A est triangulaire inférieure par blocs (resp. supérieure) alors son inverse (décomposée
en n ˆ n blocs) est aussi triangulaire inférieure par blocs (resp. supérieure).

B.2.3 Normes vectorielles et normes matricielles


Dans ces deux cas les blocs diagonaux de la matrice inverse sont les inverses des blocs diagonaux
de A. On a donc
¨ ˛ ¨ ˛
A1,1 O ¨¨¨ O A-1
1,1 O ¨¨¨ O
˚ .. .. .. 9 ˚ .. .. .. 9
˚ . . 9 ˚ . . 9
˚ O . 9 ˚ O . 9
A<˚ 9 et A < ˚
-1
9
˚ .. .. .. 9 ˚ .. .. .. 9
˝ . . . O ‚ ˝ . . . O ‚
O ¨¨¨ ˝ An,n O ¨¨¨ O A-1
n,n

¨ ˛ ¨ ˛
A1,1 O ¨¨¨ O A-1
1,1 O ¨¨¨ O
˚ .. .. .. .. 9 ˚ .. .. .. 9
˚ . . 9 ˚ . . 9
˚ . . 9 ˚ ‚ . 9
A<˚ 9 et A-1 < ˚ 9
˚ .. .. .. 9 ˚ .. .. .. 9

B. Annexes
˝ . . . O ‚ ˝ . . . O ‚
An,1 ¨¨¨ ¨¨¨ An,n ‚ ¨¨¨ ‚ A-1
n,n
¨ ˛ ¨ ˛
A1,1 ¨¨¨ ¨¨¨ An,1 A-1
1,1 ‚ ¨¨¨ ‚
˚ .. .. .. 9 ˚ .. .. .. 9
˚ . . 9 ˚ . . 9
˚ O . 9 ˚ O . 9
A<˚ 9 et A < ˚
-1
9
˚ .. .. .. .. 9 ˚ .. .. .. 9
˝ . . . . ‚ ˝ . . . ‚ ‚
O ¨¨¨ O An,n O ¨¨¨ O A-1
n,n

[Link]èbre linéaire
B.2.3 Normes vectorielles et normes matricielles

Definition B.55

Une norme sur un espace vectoriel V est une application }‚} : V Ñ R` qui vérifie les propriétés
suivantes
˛ }vv } < 0 ðñ v < 0,
˛ }³vv } < |³| }vv } , @³ P K, @vv P V,

˛ }u
u ` vv} ď }u u, vvq P V 2 (inégalité triangulaire).
u} ` }vv } , @ pu,

Une norme sur V est également appelée norme vectorielle . On appelle espace vectoriel normé
un espace vectoriel muni d’une norme.

Compiled on 2023/10/10 at [Link]


212 Annexes

Les trois normes suivantes sont les plus couramment utilisées :


n
ÿ
}vv }1 < |vi |
i<1
˜ ¸1{2
n
ÿ 2
}vv }2 < |vi |
i<1
}vv }8 < max |vi | .
i

Théorème B.56

Soit V un espace de dimension finie. Pour tout nombre réel p ě 1, l’application }‚}p définie par
˜ ¸1{p
n
ÿ p
}vv }p < |vi |
i<1

est une norme.


B.2.3 Normes vectorielles et normes matricielles

Proposition B.57

1 1
Pour p ą 1 et p ` q < 1, on a @u
u , v P Kn
˜ ¸1{p ˜ ¸1{q
n
ÿ n
ÿ n
ÿ
p q
|ui vi | ď |ui | |vi | u}p }vv }q .
< }u (B.33)
i<1 i<1 i<1

Cette inégalité s’appelle l’inégalité de Hölder.


B. Annexes

Definition B.58
1
Deux normes }‚} et }‚} , définies sur un même espace vectoriel V, sont équivalentes s’il exite
deux constantes C et C 1 telles que
1 1
}vv } ď C }vv } et }vv } ď C 1 }vv } pour tout v P V. (B.34)

Proposition B.59
B.2. Algèbre linéaire

Sur un espace vectoriel de dimension finie toutes les normes sont équivalentes.

Definition B.60

Une norme matricielle sur Mn pKq est une application }‚} : Mn pKq Ñ R` vérifiant
a. }A} < 0 ðñ A < 0,

b. }³A} < |³| }A}, @³ P K, @A P Mn pKq,


c. }A ` B} ď }A} ` }B} , @ pA, Bq P Mn pKq2 (inégalité triangulaire)
d. }AB} ď }A} }B} , @ pA, Bq P Mn pKq2

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 213

Proposition B.61

Etant donné une norme vectorielle }‚} sur Kn , l’application }‚}s : Mn pKq Ñ R` définie par

}Avv }
}A}s < sup < sup }Avv } < sup }Avv } , (B.35)
v PK n }vv } v PKn v PKn
v ‰0 }v
v }ď1 }v
v }<1

est une norme matricielle, appelée norme matricielle subordonnée (à la norme vectorielle don-
née).
De plus
}Avv } ď }A}s }vv } @vv P Kn (B.36)
et la norme }A} peut se définir aussi par

}A}s < inf t³ P R : }Avv } ď ³ }vv } , @vv P Kn u . (B.37)

Il existe au moins un vecteur u P Kn tel que

u ‰ 0 et }Au
u} < }A}s }u
u} . (B.38)

B.2.3 Normes vectorielles et normes matricielles


Enfin une norme subordonnée vérifie toujours

}I}s < 1 (B.39)

Théorème B.62

Soit A P Mn pCq. On a

ÿn
déf. }Avv }1
}A}1 < sup < max |aij | (B.40)
v PCn }vv }1 jPv1,nw
i<1
v ‰0

déf. }Avv }2 a a
< Ä pA˚ Aq < Ä pAA˚ q < }A˚ }2

B. Annexes
}A}2 < sup (B.41)
v PCn }vv }2
v ‰0
ÿn
déf. }Avv }8
}A}8 < sup < max |aij | (B.42)
v PCn }vv }8 iPv1,nw
j<1
v ‰0

La norme }‚}2 est invariante par transformation unitaire :

UU˚ < I ùñ }A}2 < }AU}2 < }UA}2 < }U˚ AU}2 . (B.43)

Par ailleurs, si la matrice A est normale :


[Link]èbre linéaire
AA˚ < A˚ A ùñ }A}2 < ÄpAq. (B.44)

Proposition B.63

a. Si une matrice A est hermitienne, ou symétrique (donc normale), on a }A}2 < ÄpAq.
b. Si une matrice A est unitaire, ou orthogonale (donc normale), on a }A}2 < 1.

Théorème B.64

a. Soit A une matrice carrée quelconque et }‚} une norme matricielle subordonnée ou non, quel-

Compiled on 2023/10/10 at [Link]


214 Annexes

conque. Alors
ÄpAq ď }A} . (B.45)

b. Etant donné une matrice A et un nombre ε ą 0, il existe au moins une norme matricielle
subordonnée telle que
}A} ď ÄpAq ` ε. (B.46)

Théorème B.65

L’application }‚}E : Mn Ñ R` définie par


¨ ˛1{2
ÿ 2
a
}A}E < ˝ |aij | ‚ < tr pA˚ Aq, (B.47)
pi,jq<Pv1,nw2

pour toute matrice A < paij q d’ordre n, est une norme matricielle non subordonnée (pour n ě 2),
invariante par transformation unitaire et qui vérifie
?
}A}2 ď }A}E ď n }A}2 , @A P Mn . (B.48)
?
De plus }I}E < n.
B.2.4 Réduction des matrices

Théorème B.66

a. Soit }‚} une norme matricielle subordonnée, et B une matrice vérifiant

}B} ă 1.

Alors la matrice pI ` Bq est inversible, et


: : 1
: ´1 :
:pI ` Bq : ď .
1 ´ }B}
B. Annexes

b. Si une matrice de la forme pI ` Bq est singulière, alors nécessairement

}B} ě 1

pour toute norme matricielle, subordonnée ou non.


B.2. Algèbre linéaire

B.2.4 Réduction des matrices

Definition B.67

Soit A : V Ñ V une application linéaire, représenté par une matrice carrée A P Mn relativement à
une base teei uiPv1,nw . Relativement à une autre base tff i uiPv1,nw , la même application est représentée
par la matrice
B < P-1 AP (B.49)
où P est la matrice inversible dont le j-ème vecteur colonne est formé des composantes du vecteur
f j dans la base teei uiPv1,nw :
¨ ˛
xee1 , f 1 y xee1 , f 2 y ¨¨¨ xee1 , f n y
˚ .. .. 9
˚ xee2 , f 1 y xee1 , f 2 y . . 9
P<˚
˚ ..
9
9 (B.50)
˝ .. ..
. . . xeen´1 , f n y‚
xeen , f 1 y ¨¨¨ xeen , f n´1 y xeen , f n y

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 215

La matrice P est appelée matrice de passage de la base teei uiPv1,nw dans le base tff i uiPv1,nw .

Definition B.68

On dit que la matrice carrée A est diagonalisable s’il existe une matrice inversible P telle que la
matrice P´1 AP soit diagonale.

Remarque 10. On notera que, dans le cas où A P Mn est diagonalisable, les éléments diagonaux de la
matrice P-1 AP sont les valeurs propres ¼1 , ¼2 , . . . , ¼n de la matrice A, et que le j-ème vecteur colonne p j
de la matrice P est formé des composantes, dans la même base que A, d’un vecteur propre associé à la
valeur propre ¼j . On a

P-1 AP < diag p¼1 , . . . , ¼n q ðñ Appj < ¼j p j , @j P v1, nw. (B.51)

C’est à dire qu’une matrice est diagonalisable si, et seulement si, il existe une base de vecteurs propres.

Théorème B.69

a. Etant donnée une matrice carrée A, il existe une matrice unitaire U telle que la matrice
U-1 AU soit triangulaire.

B.2.5 Suites de vecteurs et de matrices


b. Etant donnée une matrice normale A, il existe une matrice unitaire U telle que la matrice
U-1 AU soit diagonale.

c. Etant donnée une matrice symétrique A, il existe une matrice orthogonale O telle que la
matrice O-1 AO soit diagonale.

B.2.5 Suites de vecteurs et de matrices

Definition B.70

B. Annexes
Soit V un espace vectoriel muni d’une norme }‚}, on dit qu’une suite pvv k q d’éléments de V converge
vers un élément v P V , si
lim }vv k ´ v } < 0
kÑ8

et on écrit
v < lim v k .
kÑ8

[Link]èbre linéaire
Théorème B.71

Soit B une matrice carrée. Les conditions suivantes sont équivalentes :


a. limkÑ8 Bk < 0,
b. limkÑ8 Bkv < 0 pour tout vecteur v ,

c. ÄpBq ă 1,
d. }B} ă 1 pour au moins une norme matricielle subordonnée }‚} .

Théorème B.72

Compiled on 2023/10/10 at [Link]


216 Annexes

Soit B une matrice carrée, et }‚} une norme matricielle quelconque. Alors
: :1{k
lim :Bk : < ÄpBq.
kÑ8

B.3 Receuil d’exercices

B.4 Algèbre linéaire

B.4.1 Sur les matrices

Exercice B.4.1

Soit A P Mm,n pRq et B P Mn,m pRq telles que

u, v ym < xu
xAu u P Rn , @vv P Rm .
u, Bvv yn , @u

Exprimer les éléments de la matrice B en fonction de ceux de la matrice A.

Exercice B.4.2
B.4.1 Sur les matrices

Soient A et B deux matrices triangulaires supérieures de Mn . Soient E et F deux matrices triangu-


laires inférieures de Mn .
˚
Q. 1 a. Que peut-on dire des matrices A˚ et pA˚ q ?
b. Montrer que C < AB est triangulaire supérieure et que Ci,i < Ai,i Bi,i , @i P v1, nw.
c. Montrer que G < EF est triangulaire inférieure et que Gi,i < Ei,i Fi,i , @i P v1, nw.
B. Annexes

d. Que peut-on dire des matrices AE et EA?


˝

Q. 2 a. Calculer detpAq.
B.4. Receuil d’exercices

b. Déterminer les valeurs propres de A.


c. Que peut-on dire si les éléments diagonaux de A sont tous distincts?
˝

Q. 3 Soit D la matrice définie par ¨ ˛


2 1 0
D ˝0 2 1‚.
0 0 2
a. La matrice D est-elle inversible? Si oui calculer son inverse.
b. Pour chacune des valeurs propres, déterminer l’espace propre associé.
c. La matrice D est-elle diagonalisable? Justifier.
˝

Exercice B.4.3

Q. 1 Montrer par récurrence sur l’ordre des matrices, que si une matrice est normale et triangulaire
supérieure alors elle est diagonale. ˝

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 217

On rappelle le théorème de décomposition de Schur:

Théorème

Soit A P Mn pCq, il existe une matrice unitaire U P Mn pCq et une matrice


triangulaire inférieure T P Mn pCq telles que

A < UTU˚ . (B.52)

Q. 2 Montrer que A P Mn pCq est une matrice normale si et seulement si il existe U P Mn pCq
unitaire et D P Mn pCq diagonale telle que A < UDU˚ . ˝

Q. 3 En déduire qu’une matrice normale est diagonalisable et que ses vecteurs propres sont orthog-
onaux. ˝

Correction

R. 1 On va démontrer, par récurrence, que la propriété suivante est vérifiée pour tout n ě 2:
` ˘
Pn : @T P Mn pCq normale et triangulaire supérieure ñ T diagonale

Initialisation : n < 2. Soit T P M2 pCq une matrice normale et triangulaire supérieure. Comme T est
normale, on a TT˚ < T˚ T, ce qui entraine
` ˚˘ ` ˘
TT i,j < T˚ T i,j , @pi, jq P v1, 2w2 .

B.4.1 Sur les matrices


ou encore ˆ ˙ˆ ˙ ˆ ˙ˆ ˙
T1,1 T1,2 T1,1 0 T1,1 0 T1,1 T1,2
< .
0 T2,2 T1,2 T2,2 T1,2 T2,2 0 T2,2
On a donc

|T1,1 |2 ` |T1,2 |2 < |T1,1 |2 ,

B. Annexes
T1,2 T2,2 < T1,1 T1,2 ,
T2,2 T1,2 < T1,2 T1,1 ,
|T2,2 |2 < |T1,2 |2 ` |T2,2 |2 .

[Link]èbre linéaire
De la première équation ou de la dernière, on obtient T1,2 < 0. Les deux autres équations reviennent à
0 < 0, ce qui laisse libre les paramètres T1,1 et `T2,2˘ .
La matrice T est donc diagonale. La propriété P2 est vérifiée.

` ˘
Hérédité : Soit n ą 2. On suppose que Pn´1 est vraie. Soit T P Mn pCq une matrice normale et
triangulaire supérieure. On décompose la matrice T en une matrice bloc 2 ˆ 2 dont le deuxième bloc
diagonal, noté U est dans Mn´1 pCq
¨ ˛
T1,1 c˚
˚ 0 9
˚ 9
T<˚ .. 9
˝ . U ‚
0

avec c ˚ < pT1,2 , . . . , T1,n q P Cn´1 . On peut noter que U est triangulaire supérieure. On a alors TT˚ < T˚ T
qui s’écrit sous forme bloc :
¨ ˛¨ ˛ ¨ ˛¨ T ˛
T1,1 c˚ T 0 ... 0 T1,1 0 ... 0 1,1 c˚
˚ 0 9˚ 1,1 9 ˚ 9˚ 0 9
˚ 9˚ 9<˚ 9˚ 9
˚ .. 9˝ ‚˚ 9
˝ . U ‚ c U˚ ‚ ˝ c U˚ ˝ ... U ‚
0 0

Compiled on 2023/10/10 at [Link]


218 Annexes

c’est à dire ¨ ˛ ¨ ˛
|T1,1 |2 ` c ˚c c ˚ U˚ |T1,1 |2 T1,1c ˚
˚ 9 ˚ 9
˚ 9<˚ 9.
˝ Ucc UU ˚ ‚ ˝ T1,1c ˚
U U ‚

En identifiant bloc par bloc, on obtient


2
|T1,1 |2 ` }cc}2 < |T1,1 |2
c ˚ U˚ < T1,1c ˚
Ucc < T1,1c
UU˚ < U˚ U
De la première équation, bloc p1, 1q, on obtient
c < 0.
De la dernière équation, le bloc p2, 2q, on déduit U normale. Les deux autre équations s’auto-détruisent.
Comme U P Mn´1 pCq est normale et triangulaire supérieure, on obtient, par hypothèse de récurrence,
que U est diagonale.

R. 2 On rappele le théorème

Théorème B.73
B.4.1 Sur les matrices

Soit A P Mn pCq, il existe une matrice unitaire U P Mn pCq et une matrice triangulaire inférieure
T P Mn pCq telles que
A < UTU˚ . (B.53)

ð Montrons que si A est une matrice normale alors il existe une matrice unitaire U P Mn pCq et une
matrice diagonale D P Mn pCq telles que A < UDU˚ .
En effet, d’après le théorème B.73, il existe une matrice unitaire U P Mn pCq et une matrice triangulaire
inférieure T P Mn pCq telles que A < UTU˚ . Il suffit, grâce à la première question, de démontrer que la
B. Annexes

matrice T est normale. On a


A normale ô A˚ A < AA˚
ô pUT˚ U˚ qpUTU˚ q < pUTU˚ qpUT˚ U˚ q
Or la matrice U est unitaire, U˚ < U-1 , on a donc
B.4. Algèbre linéaire

A normale ô UT˚ TU˚ < UTT˚ U˚


En multipliant cette équation par U˚ à gauche et par U à droite, on obtient
A normale ô T˚ T < TT˚
ô T normale.
D’après la question 1, la matrice T est donc diagonale.
ñ Montrons que si il existe une matrice unitaire U P Mn pCq et une matrice diagonale D P Mn pCq
telles que A < UDU˚ alors A est une matrice normale.
En effet, on a
A˚ A < pUD˚ U˚ qpUDU˚ q
< UD˚ DU˚ car U unitaire
Comme la matrice D est diagonale, elle est normale : DD˚ < D˚ D. On obtient alors
A˚ A < UDD˚ U˚
< pUDU˚ qpUD˚ U˚ q car U unitaire
< AA˚ .
La matrice A est donc normale.

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 219

R. 3 On a
A < UDU˚ < UDU-1 .
La matrice A est donc diagonalisable.
Notons p¼1 , . . . , ¼n q la diagonale de D et u i le i-ème vecteur colonne de la matrice U.
Comme U est unitaire, U˚ U < I, et que
¨ ˛
xu
u1 , u 1 y . . . xu
u1 , u n y
U˚ U < ˝
˚ .. .. .. 9
. . . ‚
xu
un , u 1 y . . . xu
un , u n y

on obtient
ui , u j y < ¶i,j , @pi, jq P v1, nw2
xu
De plus, on a ¨ ˛
xu
u1 , u j y
˚
U˚ u j < ˝ .. 9
. ‚ < ej ,
xuun , u j y
où ej est le j-ème vecteur de la base canonique.
On a donc
uj < UDU˚u j < UDeej < Up¼j e j q < ¼j u j .
Au
On en déduit que @j P v1, nw, p¼j , u j q est un élément propre de A et les vecteurs propres de A sont
orthogonaux.

B.4.1 Sur les matrices


˛

Exercice B.4.4

Soit A P Mn pCq une matrice hermitienne

B. Annexes
Q. 1 Montrer que
u P Cn .
u, u y P R, @u
xAu (B.54)
˝

On suppose de plus que la matrice A est définie positve.

[Link]èbre linéaire
Q. 2 a. Montrer que les éléments diagonaux de A sont strictement positifs.
b. Montrer que les sous matrices principales de A sont elles aussi hermitiennes et définies positves.
˝

Exercice B.4.5: : Procédé de Gram-Schmidt

Soit tvv i uiPv1,nw une base de Kn . On construit successivement les vecteurs u i

i´1
ÿ xu
uk , v i y
ui < v i ´ u k , @i P v1, nw.
k<1
xu
uk , u k y

Montrer qu’ils forment une base orthogonale de Kn et que Vect pu


u1 , . . . , u i q < Vect pvv 1 , . . . , v i q ,
@i P v1, nw.

CorrectionMontrons par récurrence sur i que

pHqi : Vect pu
u1 , . . . , u i q est une famille orthogonale et Vect pu
u1 , . . . , u i q < Vect pvv 1 , . . . , v i q

Compiled on 2023/10/10 at [Link]


220 Annexes

Initialisation : Pour i < 1, on a u1 < v 1 et pHq1 est vérifiée.

Hérédité : Soit i ă n. Supposons pHqi vérifiée. Montrons alors que pHqi`1 est vraie.
On a
ÿi
xu
uk , v i`1 y
u i`1 < v i`1 ´ uk . (B.55)
k<1
xu
uk , u k y

‚ En effectuant le produit scalaire de (B.55) par u j avec j P v1, iw on obtient

ÿi
xu
uk , v i`1 y
xu
uj , u i`1 y < xu
uj , v i`1 y ´ xu
uj , u k y .
k<1
xu
uk , u k y

Par hypothèse de récurrence, la famille Vect pu u1 , . . . , u i q est orthogonale, c’est à dire @pr, sq P
ur , u s y < 0 si r ‰ s et u r ‰ 0. On obtient donc
v1, iw2 , xu

xu
uj , v i`1 y
xu
uj , u i`1 y < xu
uj , v i`1 y ´ xu
uj , u j y < 0, @j P v1, iw.
xu
uj , u j y

‚ On montre maintenant par l’absurde que u i`1 ‰ 0.


Supposons u i`1 < 0. Alors de (B.55), on obtient

ÿi
xu
uk , v i`1 y
v i`1 < uk
k<1
uk , u k y
xu

pHqi
u1 , . . . , u i q < Vect pvv 1 , . . . , v i q . Ceci entre en contradiction avec Vect pvv 1 , . . . , v n q
et donc v i`1 P Vect pu
B.4.1 Sur les matrices

base de Kn .
‚ On déduit de (B.55) que u i`1 P Vect pu u1 , . . . , u i , v i`1 q . Par hypothèse de récurrence, Vect pu
u1 , . . . , u i q <
Vect pvv 1 , . . . , v i q , ce qui donne u i`1 P Vect pvv 1 , . . . , v i`1 q et donc

u1 , . . . , u i`1 q < Vect pvv 1 , . . . , v i`1 q .


Vect pu

˛
B. Annexes

Exercice B.4.6: : factorisation QR

Soit A P Mn pCq une matrice inversible. Pour tout i P v1, nw, on note a i < A:,i ses n vecteurs
colonnes. En utilisant le procédé de Gram-schmidt sur la base ta a1 , . . . , a n u montrer qu’il existe
B.4. Algèbre linéaire

une matrice Q unitaire et une matrice triangulaire supérieure R à coefficients diagonaux strictement
positifs tel que A < QR.

CorrectionOn utilise le procédé d’orthonormalisation de Gram-Schmidt (voir Proposition B.19, page 203)
pour obtenir la base orthogonale tu
u1 , . . . , u n u en calculant successivement
i´1
ÿ xu
uk , a i y
ui < ai ´ u k , @i P v1, nw. (B.56)
k<1
xu
uk , u k y

De plus on a Vect pu a1 , . . . , a i q , @i P v1, nw On normalise la base orthogonale tu


u1 , . . . , u i q < Vect pa u1 , . . . , u n u
pour obtenir la base orthonormée Q < tqq 1 , . . . , q n u :
ui
qi < , @i P v1, nw
}u
ui }2

et l’on a aussi Vect pqq 1 , . . . , q i q < Vect pa


a1 , . . . , a i q , @i P v1, nw.
On note Q P Mn pKq la matrice définie par
¨ ˛

Q < ˝ q1 ¨ ¨ ¨ qn ‚

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 221

Cette matrice est clairement unitaire puisque la base tqq 1 , . . . , q n u est orthonormée.
Montrons que Q˚ A est triangulaire supérieure. On a
¨ ˛¨ ˛ ¨ ˛
q ˚1 xqq 1 , a 1 y ¨¨¨ xqq 1 , a n y
˚ .. 9˝ ˚
‚< ˝ .. .. .. 9
Q˚ A < ˝ . ‚ a1 ¨ ¨ ¨ an . . . ‚
q ˚n xq n , a1 y
q ¨¨¨ xq n , n y
q a
c’est à dire pQ˚ Aqi,j < xqq i , a j y , @pi, jq P v1, nw. Par définition cette matrice est triangulaire`supérieure si˘
pQ˚ Aqi,j < 0 pour
` tout i ą˘j. Soit i P v1, n ´ 1w. La base Q étant orthonormée, on a q i K Vect q 1 , . . . , q i´1 .
Comme Vect q 1 , . . . , q i´1 < Vect pa a1 , . . . , a i´1 q , on en déduit que
xqq i , a j y < 0, @j P v1, i ´ 1w.
La matrice Q˚ A est donc triangulaire supérieure.
De plus, on a
xu
ui , a i y
pQ˚ Aqi,i < xqq i , a i y <
}u
ui }2
En prenant le produit scalaire de (B.56) avec u i on obtient
i´1
ÿ uk , a i y
xu
xu
ui , u i y < xu
ui , a i y ´ xu
ui , u k y
k<1
xu
u k , uk y

ui , ai y car xu
< xu ui , uk y < 0, @k ‰ i (base orthogonale)
Comme u i ‰ 0, on obtient pQ˚ Aqi,i ą 0.
On note R < Q˚ A cette matrice triangulaire supérieure avec Ri,i ą 0, @i P v1, nw. La matrice Q étant
unitaire (i.e. QQ˚ < I) alors A < QR. ˛

B.4.1 Sur les matrices


Exercice B.4.7

Soit A P Mn,n pCq une matrice et p¼, uq un élément propre de A avec }u


u}2 < 1.

Q. 1 a. En s’aidant de la base canonique tee1 , . . . , e n u , construire une base orthonormée tx


x1 , . . . , x n u
telle que x 1 < u .

B. Annexes
b. Ecrire la fonction algorithmique BaseOrtho permettant de construire la base orthonormée
tx
x1 , . . . , x n u à partir d’un vecteur u donné. Les vecteurs x k seront stockés dans une matrice
de Mn,n pCq, le vecteur x k étant en colonne k de la matrice. On pourra pour celà utiliser
les fonctions prédéfinies s Ð dotpu u, v q qui retourne le produit scalaire de deux vecteurs, s Ð
abspxq qui retourne le module d’un nombre complexe, ...

[Link]èbre linéaire
˝

Notons par P la matrice de Mn,n pCq définie par


¨ ˛

P < ˝ x1 . . . xn ‚

et par B la matrice définie par B < P˚ AP.


Q. 2 a. Calculer la matrice P˚ P. Que peut-on en conclure?

b. Exprimer les coefficients de la matrice B en fonction de la matrice A et des vecteurs x i ,


i P v1, nw.
B < P˚ AP.

c. En déduire que la première colonne de B est p¼, 0, . . . , 0qt .


˝

Q. 3 Montrer par récurrence sur l’ordre de la matrice que la matrice A s’écrit

A < UTU˚

Compiled on 2023/10/10 at [Link]


222 Annexes

où U est une matrice unitaire et T une matrice triangulaire supérieure. ˝

Q. 4 On dispose des fonctions x Ð ResTriSuppU, b q et x Ð ResTriInfpL, b q permettant de ré-


x < b et le système triangulaire inférieur
soudre respectivement le système triangulaire supérieur Ux
x < b . En supposant A inversible et la décomposition A < UTU˚ connue, expliquez comment
Lx
résoudre "simplement" le système linéaire Axx < b. ˝

Correction

R. 1 a. La première chose à faire est de construire une base contenant u à partir de la base canonique
tee1 , . . . , e n u. Comme le vecteur propre u est non nul, il existe j P v1, nw tel que xu u, e j y ‰ 0. La famille
tuu, e 1 , . . . , e j´1 , e j`1 , . . . , e n u forme alors une base de Cn car u n’est pas combinaison linéaire des
tee1 , . . . , e j´1 , e j`1 , . . . , e n u.
On note tzz 1 , . . . , z n u la base dont le premier élément est z 1 < u :

tzz 1 , . . . , z n u < tu
u, e 1 , . . . , e j´1 , e j`1 , . . . , e n u.
B.4.1 Sur les matrices

On peut ensuite utiliser le procédé de Gram-Schmidt, rappelé en Proposition B.19, pour con-
struire une base orthonormée à partir de cette base.
On calcule successivement les vecteurs x i à partir de la base tzz 1 , . . . , z n u en construisant un vecteur
w i orthogonal aux vecteurs x 1 , . . . , x i´1 .
B. Annexes

i´1
ÿ
wi < zi ´ xx
xk , z i y x k
k<1
B.4. Algèbre linéaire

puis on obtient le vecteur x i en normalisant

wi
xi <
}w
wi}

b. Nous allons tout d’abord rechercher un indice imax tel que |uimax | < maxiPv1,nw |ui |. Ensuite, nous
construisons la matrice Z P Mn,n pCq telle que la colonne i de Z contienne le vecteur z i avec

tzz 1 , . . . , z n u < tu
u, e 1 , . . . , e imax ´1 , e imax `1 , . . . , e n u.

Ensuite, à l’aide des formules précédentes nous calculons la matrice P P Mn,n pCq telle que la colonne
i de Z contienne le vecteur x i . Voici donc l’algorithme:

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 223

Algorithme B.1
Données : u : un vecteur de Cn tel que }u
u}2 < 1.
Résultat : P : matrice n ˆ n dont les vecteurs colonnes
forment une base orthonormée de Cn et telle que la
première colonne de P soit u .

1: Fonction P Ð BaseOrtho ( u )
2: umax Ð 0, imax Ð 0 z On calcule imax
3: Pour i Ð 1 à n faire
4: Si umax ď abspu upiqq alors
5: umax Ð abspu piqq, imax Ð i
u
6: Fin Si
7: Fin Pour
8: Z Ð zerospn, nq z On calcule Z < pzz 1 , . . . , z n q
9: Zp:, 1q Ð u
10: iÐ2
11: Pour k Ð 1 à imax ´ 1 faire
12: Zpk, iq Ð 1
13: iÐi`1
14: Fin Pour
15: Pour k Ð imax ` 1 à n faire
16: Zpk, iq Ð 1
17: iÐi`1

B.4.1 Sur les matrices


18: Fin Pour
19: P Ð zerospn, nq z On calcule P < px x1 , . . . , x n q
20: Pour i Ð 1 à n faire
21: Pp:, iq Ð Zp:, iq
22: Pour k Ð 1 à i ´ 1 faire
23: Pp:, iq Ð Pp:, iq ´ dotpPp:, kq, Zp:, iqq ˚ Pp:, kq
24: Fin Pour
25: Pp:, iq Ð Pp:, iq{sqrtpdotpPp:, iq, Pp:, iqqq

B. Annexes
26: Fin Pour
27: Fin Fonction

a. Notons S < P˚ P la matrice de Mn,n pCq. On a pour tout pi, jq PP v1, nw2

[Link]èbre linéaire
R. 2

Si,j < xPp:, iq, Pp:, jqy < xx


xi , x j y < ¶i,j .

On a donc
P˚ P < I
et la matrice P est unitaire.
b. En conservant l’écriture colonne de la matrice P on obtient
¨ ˛ ¨ ˛
x ˚1 ¨ ˛ x ˚1 ¨ ˛
˚ x2 ˚ 9 ˚ x ˚2 9
˚ 9 ˚ 9
B<˚ ˚ ..
9A˝ x1 x 2 . . . x n ‚ < ˚
9 ˚ ..
9˝ Ax
9 x1 x2
Ax ... xn ‚
Ax
˝ . ‚ ˝ . ‚
x ˚n x ˚n

Ce qui donne
¨ ˚ ˛
x 1 Ax x1 x1 ˚ Ax x2 . . . x1 ˚ Ax xn
˚x ˚2 Axx1 x ˚2 Ax x2 . . . x ˚2 Ax xn 9
˚ 9
B<˚ . .. .. 9
˝ . . . . ‚
x ˚n Ax
x1 x ˚n Ax
x2 . . . x ˚n Ax xn

Compiled on 2023/10/10 at [Link]


224 Annexes

On a donc
Bi,j < x˚i Ax
xj , @pi, jq P v1, nw2
.
c. On a Au
u < ¼u u} < 1, la base tx
u, }u x1 , . . . , x n u est orthonormée et x 1 < u . on obtient alors
¨ ˛ ¨ ˛
u˚u u˚ Ax
¼u x2 . . . u˚ Ax xn ¼ u˚ Ax x2 . . . u˚ Ax xn
˚ ˚ ˚ ˚ x 9 ˚ ˚ x ˚ x 9
˚ x2 u x 2 Ax
¼x x2 . . . x 2 Ax n 9 ˚ 0 x 2 Ax 2 . . . x 2 Ax n 9
B<˚ .. .. .. 9<˚ .. .. .. 9
˝ . . . ‚ ˝ . . . ‚
x˚nu x ˚n Ax
¼x x2 . . . x ˚n Ax xn 0 x ˚n Ax x2 . . . x ˚n Ax xn

R. 3 On veut démontrer, par récurrence faible, la proposition suivante pour n ě 2

pPn q @A P Mn pCq, DU P Mn pCq unitaire, DT P Mn pCq triangulaire supérieure, telles que A < UTU˚ .

Initialisation : Montrons que pP2 q est vérifié.


Soit A2 P M2 pCq. Elle admet au moins un élément propre p¼, u q (voir Proposition B.46 par ex.)
avec }u
u} < 1. On peut donc appliquer le résultat de la question précédente : il existe une matrice
unitaire P2 P M2 pCq telle que la matrice B2 < P2 A2 P˚2 ait comme premier vecteur colonne p¼, 0qt .
La matrice B2 est donc triangulaire supérieure et comme P2 est unitaire on en déduit

A2 < P˚2 B2 P2 .

On pose U2 < P˚2 matrice unitaire et T2 < B2 matrice triangulaire supérieure pour conclure que la
B.4.1 Sur les matrices

propostion pP2 q est vraie.


Hérédité : Supposons que pPn´1 q soit vérifiée. Montrons que pPn q est vraie.
Soit An P Mn pCq. Elle admet au moins un élément propre p¼, u q (voir Proposition B.46 par ex.)
avec }u
u} < 1. On peut donc appliquer le résultat de la question précédente : il existe une matrice
unitaire Pn P Mn pCq telle que la matrice Bn < Pn An P˚n s’écrivent
¨ ˛
¼ c ˚n´1
˚ 0 9
B. Annexes

˚ 9
Bn < ˚ .. 9
˝ . An´1 ‚
0

où c n´1 P Mn´1 pCq et An´1 P Mn´1 pCq. Par hypothèse de récurrence, DUn´1 P Mn´1 pCq unitaire
B.4. Algèbre linéaire

et Tn´1 P Mn´1 pCq triangulaire supérieure telles que

An´1 < Un´1 Tn´1 U˚n´1

ou encore
Tn´1 < U˚n´1 An´1 Un´1 .
Soit Qn P Mn pCq la matrice définie par
¨ ˛
1 0 ... 0
˚ 0 9
˚ 9
Qn < ˚ .. 9.
˝ . Un´1 ‚
0

La matrice Qn est unitaire. En effet on a


¨ ˛
¨ ˛¨ ˛ 1 0 ... 0
1 0 ... 0 1 0 ... 0 ˚ 0 9
˚ 0 9˚ 0 9 ˚ 9
˚ 9˚ 9 ˚ .. 9
Qn Q˚n < ˚ .. 9˚ .. 9<˚ . Un´1 U˚n´1 9 < In .
˝ . Un´1 ‚˝ . U˚n´1 ‚ ˚
˚ looooomooooon 9
9
˝ <In´1 ‚
0 0
0

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 225

On note Tn la matrice définie par Tn < Q˚n Bn Qn . On a alors


¨ ˛¨ ˛¨ ˛
1 0 ... 0 ¼ c ˚n´1 1 0 ... 0
˚ 0 9˚ 0 9˚ 0 9
˚ 9˚ 9˚ 9
Tn <˚ . 9˚ .. 9˚ .. 9
˝ .. ˚ ‚˝ ‚˝ . ‚
U n´1 . An´1 Un´1
0 0 0
¨ ˛
¨ ˛¨ ˛ ¼ c ˚n´1 U˚n´1
¼ c ˚n´1 1 0 ... 0 ˚ 9
˚ 9˚ 0
˚ 0 9˚ 0 9 ˚ 9
9 ˚ .. 9

˚ .. 9˚
9˝ .. 9<˚ . U˚n´1 An´1 Un´1 < 9
˝ . U˚n´1 An´1 ‚ . Un´1 ‚ ˚
˚ loooooooomoooooooon 9
9
˝ <Tn´1 ‚
0 0
0
La matrice Tn est donc triangulaire supérieure et on a par définition de Bn
Tn < Q˚n Pn An P˚n Qn .
On note Un < P˚n Qn . Cette matrice est unitaire car les matrices Qn et Pn le sont. En effet, on a
˚
Un U˚n < P˚n Qn pP˚n Qn q < P˚n lo Qo˚nn Pn < P˚n Pn < In .
Qonmo
<In

On a Tn < U˚n An Unet en multipliant cette équation à gauche par Un et à droite par U˚n on
obtient l’équation équivalente An < Un Tn U˚n . La propriété pPn q est donc vérifiée. Ce qui achève la
démonstration.

B.4.2 Inverse d’une matrice


R. 4 Résoudre Ax
x < b est équivalent à résoudre
UTU˚x < b . (B.57)
Comme U est unitaire, on a UU˚ < I et U˚ inversible. Donc en multipliant (B.57) par U˚ on obtient le
système équivalent
˚ ˚ ˚ ˚ ˚
loUomoUon TU x < U b ðñ TU x < U b .
<I
On pose y < U˚x . Le système précédant se résoud en deux étapes

B. Annexes
a. on cherche y solution de Tyy < U˚b . Comme U est unitaire on a detpUq detpU˚ q < detpIq < 1 et donc
detpAq < detpUTU˚ q < detpUq detpTq detpU˚ q
< detpTq
Or A inversible équivalent à detpAq ‰ 0 et donc la matrice T est inversible. La matrice T étant

[Link]èbre linéaire
triangulaire inférieure on peut résoudre facilement le système par la méthode de remontée.
b. une fois y déterminé, on résoud U˚x < y . Comme U est unitaire, on obtient directement x < Uyy .
˛

B.4.2 Inverse d’une matrice

Exercice B.4.8

Q. 1 Soit A une matrice inversible et symétrique, montrer que A´1 est symétrique.
˝

Q. 2 Soit A une matrice carrée telle que I ´ A est inversible. Montrer que
´1 ´1
A pI ´ Aq < pI ´ Aq A.

Compiled on 2023/10/10 at [Link]


226 Annexes

Q. 3 Soient A, B des matrices carrées inversibles de même dimension telle que A`B soit inversible.
Montrer que
´1 ´1 ` ˘´1
A pA ` Bq B < B pA ` Bq A < A´1 ` B´1
˝

Exercice B.4.9

Soient A et B, deux matrices de Mn pKq.


Q. 1 Montrer que
AB < I ñ BA < I (B.58)
Conclure. ˝

Exercice B.4.10

Soit A P M3 pRq définie par ¨ ˛


1 1 1
A < ˝1 2 2‚
1 2 3

Q. 1 Calculer le déterminant de la matrice A. Que peut-on en conclure? ˝


B.4.2 Inverse d’une matrice

Q. 2 Calculer si possible l’inverse de la matrice A en utilisant la technique de la matrice augmentée.


˝

Exercice B.4.11

Soit L P Mn pCq une matrice triangulaire inférieure.

Q. 1 A quelle(s) condition(s) la matrice L est-elle inversible? ˝


B. Annexes

On suppose L inversible et on note X < L-1 .

Q. 2 Montrer que X est une matrice triangulaire inférieure avec


1
Xi,i < , @i P v1, nw.
B.4. Algèbre linéaire

Li,i
˝

Correction
R. 1 La matrice L est inversible si et seulement si son déterminant est non nul. Or le déterminant d’une
matrice triangulaire est égal au produit de ses éléments diagonaux. Pour avoir L, matrice triangulaire,
inversible, il faut et il suffit que
Lii ‰ 0, @i P v1, nw.

R. 2 La matrice M est la matrice inverse de L donc


LM < I
c’est à dire
n
ÿ
Li,k Mk,j < ¶i,j , @pi, jq P v1, nw. (B.59)
k<1
Montrons par récurrence forte finie que, @i P v1, nw, la proposition suivante est vérifiée
1
Ppiq : Mi,j < 0, @j P vi ` 1, nw et Mi,i < .
Li,i

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 227

‚ Montrons que Pp1q est vraie.


Soit j P v2, nw. On a, d’après (B.59) en i < 1,
n
ÿ n
ÿ
0 < pLMq1,j < L1,k Mk,j < L1,1 M1,j ` L1,k Mk,j .
k<1 k<2

Comme la matrice L est triangulaire inférieure, on a

@k P v2, nw, L1,k < 0

et donc
L1,1 M1,j < 0.
Or L1,1 ‰ 0 d’après Q.1, on obtient alors

M1,j < 0.

D’après (B.59) en i < j < 1, on a


n
ÿ n
ÿ
1< L1,k Mk,1 < L1,1 M1,1 ` L1,k Mk,1 .
k<1 k<2

Or L1,k < 0, @k P v2, nw, car L triangulaire inférieure. On en déduit L1,1 M1,1 < 1 et donc, comme
L1,1 ‰ 0
1
M1,1 < .
L1,1

B.4.2 Inverse d’une matrice


L’assertion Pp1q est donc vraie.
‚ Soit i P v1, n ´ 1w. On suppose que Ppkq est vérifiée @k P v1, iw. Montrons que Ppi ` 1q est vérifiée.
Soit j P vi ` 2, nw. On a, d’après (B.59) en pi ` 1, jq
n
ÿ i
ÿ n
ÿ
0< Li`1,k Mk,j < Li`1,k Mk,j ` Li`1,i`1 Mi`1,j ` Li`1,k Mk,j .
k<1 k<1 k<i`2

Or Li`1,k < 0, @k P vi ` 2, nw, car L triangulaire inférieure et Mk,j < 0 @k P v1, iw par hypothèse

B. Annexes
de récurrence. On a alors
Li`1,i`1 Mi`1,j < 0.
Comme Li`1,i`1 ‰ 0 d’après Q.1, on a

Mi`1,j < 0.

D’après (B.59) en pi ` 1, i ` 1q on a

[Link]èbre linéaire
n
ÿ i
ÿ n
ÿ
1< Li`1,k Mk,i`1 < Li`1,k Mk,i`1 ` Li`1,i`1 Mi`1,i`1 ` Li`1,k Mk,i`1 .
k<1 k<1 k<i`2

Or Li`1,k < 0, @k P vi ` 2, nw, car L triangulaire inférieure et Mk,i`1 < 0 @k P v1, iw par hypothèse
de récurrence. On a alors
Li`1,i`1 Mi`1,i`1 < 1.
Comme Li`1,i`1 ‰ 0 d’après Q.1, on a
1
Mi`1,i`1 < .
Li`1,i`1
L’assertion Ppi ` 1q est donc vraie.
On a donc démontré que Ppiq est vraie @i P v1, nw. La matrice M est donc triangulaire inférieure et
1
Mi,i < , @i P v1, nw.
Li,i
˛

Compiled on 2023/10/10 at [Link]


228 Annexes

Exercice B.4.12

Soit A P Mn,n pKq et U, B, V trois matrices rectangulaires.


Q. 1 Sous quelles hypothèses les plus générales possibles peut-on définir la matrice G suivante
` ˘´1
G < A´1 ´ A´1 U I ` BVA´1 U BVA´1 ?

Q. 2 Montrer que pA ` UBVq G < I. Conclure. ˝


´1
Q. 3 Soit ´ P R et u , v P Cn . Calculer pA ` ´u
uv t q en fonction de l’inverse de A. ˝

Correction

R. 1 Pour que la matrice G soit bien définie il est nécessaire et suffisant que

‚ la matrice A soit inversible,

‚ la matrice I ` BVA´1 U soit inversible (et donc carrée).

‚ les sommes et produits matriciels dans la définition de G soient compatibles.

Précisons ce dernier point. Les matrices U, V et B sont rectangulaires : on a U P Ml,m pKq, B P Mp,q pKq
B.4.2 Inverse d’une matrice

et V P Mr,s pKq. Pour définir I ` BVA´1 U, qui est une matrice carrée, il faut avoir compatibilité des
produits :
BV ñ q < r, VA´1 ñ s < n, A´1 U ñ l < n.
Ensuite pour que la matrice soit carrée il faut que BVA´1 U le soit : c’est à dire p < m. On a donc

U P Mn,m pKq, B P Mm,q pKq, V P Mq,n pKq

et alors I ` BVA´1 U P Mm,m pKq. On en déduit


B. Annexes

A´1 U P Mn,m pKq et BVA´1 P Mm,n pKq

ce qui donne
` ˘´1
A´1 U I ` BVA´1 U BVA´1 P Mn,n pKq.
Pour résumer, la matrice G est bien définie si et seulement si
B.4. Algèbre linéaire

‚ la matrice A est inversible,

‚ U P Mn,m pKq, B P Mm,q pKqn V P Mq,n pKq

‚ la matrice I ` BVA´1 U est inversible.

R. 2 hypothèses précédentes, on a
´ ` ˘´1 ¯
pA ` UBVq G < pA ` UBVq A-1 ´ A-1 U I ` BVA-1 U BVA´1
` ˘´1 ` ˘´1
< I ` UBVA-1 ´ AA-1 U I ` BVA-1 U BVA´1 ´ UBVA-1 U I ` BVA-1 U BVA´1
` ˘ ` ˘ ´1
< I ` UBVA-1 ´ U I ` BVA-1 U I ` BVA-1 U BVA´1
< I ` UBVA-1 ´ UBVA-1
< I.

On a donc
´1
pA ` UBVq < G. (B.60)

Compiled on 2023/10/10 at [Link]


Algèbre linéaire 229

R. 3 On prend m < q < 1, B < ´, U < u et V < v ˚ . On a alors

´1 ` ˘´1 ˚ ´1
uv ˚ q
pA ` ´u < A´1 ´ A´1u I ` ´vv ˚ A´1u ´vv A

Or I ` ´vv ˚ A´1u P K, donc

´1 ´
uv ˚ q
pA ` ´u < A´1 ´ A´1uv ˚ A´1 .
1 ` ´vv ˚ A´1u

Exercice B.4.13

Etant donnée une matrice D P Mn,n pCq, on pose

D < A ` ıB avec A, B P Mn,n pRq

Sous certaines hypothèses à préciser, établir la relation


` ˘´1 ` ˘´1
D´1 < A ` BA´1 B ´ ıA´1 B A ` BA´1 B .

B.4.2 Inverse d’une matrice


Correction
˛

Exercice B.4.14: : Matrice de Vandermonde

Soient pzi qni<0 n ` 1 points distincts 2 à 2 de C. Soit V P Mn`1 pCq la matrice définie par

B. Annexes
j´1
Vi,j < zi´1 , @pi, jq P v1, n ` 1w.

Q. 1 Ecrire la matrice V. ˝
Soient w < pwi qn`1
i<1 un vecteur de C
n`1
. On note Pw P Cn rXs, le polynôme défini par

[Link]èbre linéaire
n
ÿ
Pw pzq < wi`1 z i
i<0

Q. 2 Exprimer v < Vw
w en fonction de Pw . ˝

Q. 3 En déduire que V est inversible. ˝

Correction

R. 1 On a
¨ ˛
1 z0 ¨¨¨ z0n
˚1 z1 ¨¨¨ z1n 9
˚ 9
V < ˚. .. .. 9
˝ .. . .‚
1 zn ¨¨¨ znn

Compiled on 2023/10/10 at [Link]


230 Annexes

R. 2 On a v P Cn`1 et, pour tout i P v1, n ` 1w,


n`1
ÿ
vi < Vi,j w j
j<1
n`1
ÿ j´1
< zi´1 wj
j<1
ÿn
j
< wj`1 zi´1 < Pw pzi´1 q.
j<0

c’est à dire ¨ ˛
Pw pz0 q
v < ˝ ... ‚.
˚ 9

Pw pzn q

R. 3 La matrice V est inversible si et seulement si son noyau est réduit à l’élément nul, c’est à dire
kerpVq < t00u.
Soit u < pu1 , . . . , un`1 q˚ P Cn`1 , tel que Vu
u < 0, montrons qu’alors u < 0 .
On a ¨ ˛ ¨ ˛
u1 Pu pz0 q
˚ .. 9 ˚ .. 9
u < V˝ .
Vu ‚ < ˝ . ‚ < 0.
un`1 Pu pzn q
B.4.2 Inverse d’une matrice

Les n ` 1 points sont distincts 2 à 2, donc le polynôme Pu admet n ` 1 racines distinctes hors
pzi qni<0
Pu P Cn rXs, c’est donc le polynôme nul, c’est à dire ui < 0, @i P v1, n ` 1w. On a donc u < 0 .
La matrice V est donc inversible.
˛

Matrices blocs
B. Annexes

Exercice B.4.15

On considère les matrices blocs suivantes


¨ ˛ ¨ ˛
1 2 1 0 ˆ ˙ 1 0 0 0 ˆ ˙
˚ 3 4 0 1 9 C I ˚ 0 1 0 0 9 I 0
A<˚ ˝ 1 0 0 0 ‚<
9 et B < ˚ 9<
B.4. Algèbre linéaire

I 0 ˝ 1 2 1 2 ‚ C C
0 1 0 0 3 4 3 4
avec par identification ˆ ˙ ˆ ˙
1 0 1 2
I< et C <
0 1 3 4

Q. 1 Calculer les matrices AB et BA en utilisant l’écriture bloc. ˝

Q. 2 Exprimer les matrices ApA ` Bq et p2B ´ AqpB ` Aq en fonction des matrices C et I. ˝

Exercice B.4.16

Soient A P Mn,k pKq et B P Mk,n pKq. On note L la matrice


ˆ ˙
I ´ BA B
L< .
2A ´ ABA AB ´ I

Q. 1 Montrer que la matrice L est bien définie et spécifier les dimensions des blocs. ˝

Compiled on 2023/10/10 at [Link]


Normes 231

Q. 2 Calculer L2 . Que peut-on en conclure? ˝

Exercice B.4.17

Soient A P Mm pCq, B P Mn pCq et D P Mm,n pCq.

Q. 1 Calculer, en fonction des déterminant de A et B, le déterminant des matrices


ˆ ˙ ˆ ˙ ˆ ˙
A O Im O A 0
E< , F< , et G < .
O In O B 0 B
˝
ˆ ˙
A D
Q. 2 Soit H < . En utilisant les factorisations QR des matrices A et B, montrer que
0 B

detpHq < detpAq detpBq. (B.61)

Q. 3 En déduire qu’une matrice triangulaire supérieure par blocs est inversible si et


seulement si ses matrices blocs diagonales sont inversibles. ˝

Q. 4 En déduire qu’une matrice triangulaire inférieure par blocs est inversible si et seule-
ment si ses matrices blocs diagonales sont inversibles. ˝

B.5.1 Normes vectorielles


B.5 Normes

B.5.1 Normes vectorielles

Exercice B.5.1

B. Annexes
Soient x et y deux vecteurs de Cn .
Q. 1 Trouver ³ P C tel que x³x
x ´ y , x y < 0. ˝

x ´ y }22 , montrer que


Q. 2 En calculant }³x

| xx x}2 }yy }2 .
x, y y | ď }x (B.62)

[Link]
˝

Q. 3 Soit x ‰ 0. Montrer alors que l’inégalité (B.62) est une égalité si et seulement si y < ³x
x. ˝

Correction
R. 1 ‚ Si x < 0, alors ³ quelconque.
‚ Si x ‰ 0, alors

x³x
x ´ y , xy < 0 ðñ ³ xx
x, x y ´ xyy , x y < 0

Or x ‰ 0, ce qui donne
xyy , x y
³< .
xx
x, x y
et , comme xx x, y y , on obtient
x, xy P R et xyy , xy < xx
xx
x, y y
³< . (B.63)
xx
x, x y

Compiled on 2023/10/10 at [Link]


232 Annexes

R. 2 On a
x ´ y }22
}³x < x³x x ´ yy
x ´ y , ³x
< ³ x³xx ´ y , x y ´ x³x
x ´ y, yy
< ´ x³xx ´ y , y y , car x³x
x ´ y , xy < 0
< ´³ xx
x, y y ` xyy , y y
En utilisant (B.63), on obtient alors
xyy , x y
x ´ y }22
}³x < ´ xx
x, y y ` xyy , y y
xxx, x y
´ xyy , xy xx
x, y y ` xyy , y y xx
x, xy
<
xxx, x y

x, y y, on a xyy , x y xx
Comme xyy , x y < xx x, y y |2 et donc
x, y y < | xx
1 ´ ¯
}³x x ´ y }22 < ´| xx x}22 }yy }22
x, y y |2 ` }x (B.64)
xx
x, x y
ě 0.
On a alors
2 2
x, y y |2 ď }x
| xx x}2 }yy }2
?
La fonction x ÞÑ x étant croissante sur r0; `8r, on obtient (B.62).
B.5.1 Normes vectorielles

R. 3 Soit x ‰ 0. On veut montrer que


| xx x}2 }yy }2 ðñ y < ³x
x, y y | < }x x
ð On suppose y < ³x
x. On a alors

xx
x, y y < ³ xx x}22 ùñ | xx
x, x y < ³ }x x}22 .
x, y y | < |³| }x
Comme }yy }2 < |³| }x
x}2 , on a aussi
B. Annexes

}x x}22 .
x}2 }yy }2 < |³| }x
On en déduit alors
| xx x}2 }yy }2 .
x, y y | < }x

ñ On suppose | xx x}2 }yy }2 . Avec cette hypothèse, l’équation (B.64) devient


x, y y | < }x
B.5. Normes

x ´ y }22 < 0
}³x
et donc ³x
x ´ y < 0, c’est à dire y < ³x
x.
˛

Exercice B.5.2

Soient x et y deux vecteurs de Cn .

Q. 1 Démontrer l’inégalité triangulaire

}x x}2 ` }yy }2 .
x ` y }2 ď }x (B.65)

Q. 2 Si x et y sont non nuls, prouver que l’inégalité (B.65) est une égalité si et seulement si y < ³x
x
avec ³ un réel strictement positif. ˝

Compiled on 2023/10/10 at [Link]


Normes 233

Q. 3 Déduire de (B.65) l’inégalité suivante :

| }x
x}2 ´ }yy }2 | ď }x
x ´ y }2 . (B.66)

Q. 4 Soient x 1 , . . . , x p , p vecteurs de Cn . Montrer que


: :
:ÿp : ÿp
: :
: xi: ď }x
xi }2 . (B.67)
:i<1 : i<1 2

Correction
x}22 < xx
R. 1 On rappele que }x x, xy . On obtient, en utilisant les propriétés du produit scalaire,

x ` y }22
}x < xx
x ` y, x ` yy
< xx
x, x y ` xx
x, y y ` xyy , x y ` xx
x, x y
x}22 ` }yy }22 ` xx
< }x x, y y ` xyy , x y .

Pour tout nombre complexe z, on a z ` z < 2 Repzq, et |z| ě Repzq. 1


Comme xyy , x y < xx
x, y y, on a

x ` y }22
}x x}22 ` }yy }22 ` 2 Re pxx
< }x x, y yq (B.68)
ď x}22
}x `
2
}yy }2 ` 2| xx
x, y y |.

L’inégalité de Cauchy-Schwarz donne

B.5.1 Normes vectorielles


| xx
x, y y | ď }x
x}2 }yy }2
et donc
x ` y }22
}x x}22 ` }yy }22 ` 2 }x
ď }x x}2 }yy }2
x}2 ` }yy }2 q2 .
< p}x
?
La fonction x ÞÑ x étant croissante sur r0; `8r, on obtient

B. Annexes
}x
x ` y }2 ď }x
x}2 ` }yy }2 .

R. 2 Soient x et y deux vecteurs de Cn non nuls. On veut démontrer que

}x
x ` y }2 < }x
x}2 ` }yy }2 ðñ y < ³x
x, ³ ą 0.

[Link]
ð On suppose y < ³x
x avec ³ ą 0.
On a alors

}x
x ` y }2 < }x
x ` ³x
x}2
< }p1 ` ³qx
x}2
< |1 ` ³| }x
x}2 .

Comme ³ ą 0, on a |1 ` ³| < 1 ` ³ et donc

}x
x ` y }2 < }x
x}2 ` ³ }x
x}2 . (B.69)

De plus, on a

}yy }2 < }³xx}2


< |³| }x
x}2
< ³ }x }2 , car ³ ą 0.
x

D’après (B.69), on en déduit


}x
x ` y }2 < }x
x}2 ` }yy }2 .
1 En effet, z < a ` ıb et z < a ´ ıb d’où z ` z < 2a. De plus, |z|2 < a2 ` b2 ě a2 ce qui donne |z| ě |a| ě a.

Compiled on 2023/10/10 at [Link]


234 Annexes

ñ On suppose que
}x
x ` y }2 < }x
x}2 ` }yy }2 . (B.70)

Ce qui donne

x ` y }22 < }x
}x x}22 ` }yy }22 ` 2 }x
x}2 }yy }2 (B.71)

On déduit alors de l’égalité (B.68) que

Re pxx
x, y yq < }x
x}2 }yy }2 . (B.72)

Or, on a, @z P C, Repzq ď |z| et donc, en utilisant l’inégalité de Cauchy-Schwarz

}x
x}2 }yy }2 < Re pxx
x, y yq ď | xx x}2 }yy }2
x, y y | ď }x

ce qui impose
| xx
x, y y | < }x
x}2 }yy }2 .
xy xy
y ,x
D’après l’exercice précédant, cette égalité est vérifiée si et seulement si y < ³x
x avec ³ < xx
x,xxy .
Il nous reste à vérifier que ³ ą 0.
L’hypothèse (B.70) avec y < ³x x devient

}x
x ` y }2 < |1 ` ³| }x
x}2 < }x
x}2 ` }yy }2 < 1 ` |³| }x
x}2 . (B.73)

On a donc
B.5.1 Normes vectorielles

|1 ` ³| < 1 ` |³| ðñ |1 ` ³|2 < p1 ` |³|q2


ðñ p1 ` ³qp1 ` ³q < 1 ` 2|³| ` |³|2
ðñ p1 ` ³qp1 ` ³q < 1 ` 2|³| ` |³|2
ðñ 1 ` ³³ ` ³ ` ³ < 1 ` 2|³| ` |³|2
ðñ Rep³q < |³|
B. Annexes

Donc ³ est un réel et ³ < Rep³q < |³| ě 0.


Comme y < ³x x et y ‰ 0, on a ³ ‰ 0 et donc ³ ą 0.

R. 3 On a x < px
x ´ y q ` y , et par application de l’inégalité triangulaire (B.65) on obtient
B.5. Normes

}x
x}2 < }px
x ´ y q ` y }2 ď }x
x ´ y }2 ` }yy }2 ùñ }x
x}2 ´ }yy }2 ď }x
x ´ y }2 .

De même, avec y < pyy ´ x q ` x , et par application de l’inégalité triangulaire (B.65) on a

}yy }2 < }pyy ´ x q ` x }2 ď }yy ´ x }2 ` }x


x}2 ùñ }yy }2 ´ }x
x}2 ď }x
x ´ y }2 .

En combinant ces deux inégalités, on obtient alors

| }x
x}2 ´ }yy }2 | ď }x
x ´ y }2 .

R. 4 On effectue une démonstration par récurrence.


Soit n P N, n ą 1. On définit la propriété Ppnq par
: :
:ÿn : ÿn
: :
Ppnq : : x i : ď }x
xi }2 . (B.74)
:i<1 : i<12

‚ On a démontré, en Q.1, que la propriété Pp2q est vraie.

Compiled on 2023/10/10 at [Link]


Normes 235

‚ Soit n ą 2, on suppose que Ppnq est vérifiée (hypothèse de récurrence). On veut alors montrer que
Ppn ` 1q est vraie.
On a
: : : :
:n`1 : :ÿn :
:ÿ : : :
: x i : < : x i ` x n`1 :
: i<1 : :i<1 :
2 2
: :
:ÿn :
: :
ď : x i : ` }x xn`1 }2 , d’après (B.65)
:i<1 :
2
n
ÿ
ď }x xn`1 }2 , car Ppnq est vérifiée
xi }2 ` }x
i<1
n`1
ÿ
< }x
xi }2 .
i<1

La propriété Ppn ` 1q est donc vérifiée.


On a donc démontré par récurrence que la propriété Ppnq est vraie pour tout n ě 2.
˛

Exercice B.5.3

Q. 1 Soit la fonction f ptq < p1 ´ ¼q ` ¼t ´ tλ avec 0 ă ¼ ă 1. Montrer que pour tous ³ ě 0 et


´ ě 0 on a
³λ ´ 1´λ ď ¼³ ` p1 ´ ¼q´. (B.75)

B.5.1 Normes vectorielles


˝
1 1
Soient x et y deux vecteurs non nuls de Cn . Soient p ą 1 et q ą 1 vérifiant p ` q < 1.
x y
Q. 2 On pose u < }x
x }p et v < y }q .
}y En utilisant l’inégalite (B.75), montrer que l’on a l’inégalité

n
ÿ n n
1ÿ 1ÿ
|ui vi | ď |ui |p ` |vi |q < 1. (B.76)

B. Annexes
i<1
p i<1 q i<1

Q. 3 En déduire l’inégalité de Holder suivante


n
ÿ
| xx
x, y y | ď x}p }yy }q .
|xi yi | ď }x (B.77)

[Link]
i<1

Quel est le lien entre l’inégalité de Hölder et l’inégalité de Cauchy-Schwarz? ˝

Correction
R. 1 L’inégalité (B.75) est vérifiée si ³ < 0 ou ´ < 0. Il nous reste donc à la vérifier pour ³ ą 0 et ´ ą 0.
Dans ce cas (B.75) s’écrit
ˆ ˙λ
³ ³
ď ¼ ` p1 ´ ¼q
´ ´
c’est à dire
³
f p q ě 0.
´
Montrons que f ptq ě 0, @t Ps0, `8r.
On a f 1 ptq < ¼p1 ´ tλ´1 q et
f 1 ptq < 0 ô 1 ´ tλ´1 < 0, car ¼ ‰ 0

De plus, on a tλ´1 < epλ´1q lnptq et comme ¼ ´ 1 ‰ 0, on obtient


f 1 ptq < 0 ô t < 1.

Compiled on 2023/10/10 at [Link]


236 Annexes

• Etudions la fonction sur s0, 1r. On a pour t Ps0, 1r, lnptq ă 0 et donc p¼ ´ 1q lnptq ą 0. Comme la
fonction exp est croissante, on en déduit exppp¼ ´ 1q lnptqq ą 1 et alors f 1 ptq ă 0.

• Etudions la fonction sur s1, `8r. On a pour t Ps1, `8r, lnptq ą 0 et donc p¼ ´ 1q lnptq ă 0. Comme
la fonction exp est croissante, on en déduit 0 ă exppp¼ ´ 1q lnptqq ă 1 et alors f 1 ptq ą 0.
Le minimum de f est donc atteint en t < 1 et on a
@t Ps0, `8r, f pxq ě f p1q < 0.
L’inégalité (B.75) est donc vérifiée @³ ě 0, @´ ě 0 et @¼ Ps0, 1r.

1
R. 2 On pose ¼ < p Ps0, 1r. on a alors 1 ´ ¼ < 1q . On pose

³ < |ui |p ě 0, ´ < |vi |q ě 0.


En utilisant (B.75), on obtient directement
1 1
|ui ||vi | ď |ui |p ` |vi |q , @i P v1, nw.
p q
En sommant sur i on obtient:
n
ÿ n n
1ÿ 1ÿ 1 1
|ui vi | ď |ui |p ` u}pp ` }vv }qq
|vi |q < }u
i<1
p i<1 q i<1 p q

Comme par construction }u


u}p < }vv }q < 1, on obtient
B.5.1 Normes vectorielles

n
ÿ 1 1
|ui vi | ď ` < 1.
i<1
p q

R. 3 Par construction, on a
n
ÿ ÿn
1
|ui vi | < |xi yi |
i<1
}x
x}p }yy }q i<1
B. Annexes

et donc en utilisant l’inégalité (B.77) on obtient


n
ÿ
x}p }yy }q .
|xi yi | ď }x
i<1

De plus
n
ÿ n
ÿ n
ÿ
| xx
x, y y | < | x i yi | ď |xi yi | < x}p }yy }q .
|xi yi | ď }x
B.5. Normes

i<1 i<1 i<1


Pour p < q < 2, l’inégalité de Hölder entraine l’inégalité de Cauchy-Schwarz.
˛

Exercice B.5.4
1
Soit p ą 1 et q le nombre tel que q < 1 ´ p1 .

Q. 1 Vérifier que @p³, ´q P C2 on a

|³ ` ´|p ď |³||³ ` ´|p{q ` |´||³ ` ´|p{q . (B.78)

Q. 2 En utilisant l’inégalité de Hölder et (B.78), démontrer l’inégalité de Minkowski :

}x
x ` y }p ď }x x P Cn , @yy P Cn , p ě 1.
x}p ` }yy }p , @x (B.79)

Compiled on 2023/10/10 at [Link]


Normes 237

B.5.2 Normes matricielles

Exercice B.5.5: : Norme de Frobenious

Soit A P Mn pCq. On définit l’application }‚}F par


n ÿ
ÿ n
2
}A}F < |aij |2 . (B.80)
i<1 j<1

Q. 1 On note, respectivement, A i,: , @i P v1, nw et A :,j , @j P v1, nw les vecteurs lignes et colonnes de
A. Montrer que
ÿn n
ÿ
2
}A}F < Ai,: }22 <
}A }AA:,j }22 < tr A˚ A. (B.81)
i<1 j<1
˝

Q. 2 Montrer que
}Ax
x}2 ď }A}F }x x P Cn .
x}2 , @x (B.82)
˝

Q. 3 Montrer que cette application est une norme matricielle (nommée norme de Frobenius). ˝

Q. 4 Calculer }A˚ }F et }In }F où In est la matrice identitée de Mn pCq.

B.5.2 Normes matricielles


˝

Exercice B.5.6

Soit A P Mm,n pCq. Montrer les propriétés suivantes

a. }A}2 < max | xAx


x, y y |.

B. Annexes
x}2 <1
}x
y }2 <1
}y

b. }A}2 < }A˚ }2 .


2
c. }A˚ A}2 < }A}2 .
d. }U˚ AV}2 < }A}2 quand UU˚ < I et VV˚ < I

[Link]
Exercice B.5.7

Etant donné une norme vectorielle }‚} sur Kn , on définit l’application }‚}s : Mn pKq Ñ R` par

def }Avv }
}A}s < sup (B.83)
v PKn }vv }
v ‰0

Q. 1 Montrer que }I}s < 1. ˝

On note B < tvv P Kn ; }vv } ď 1u la boule unitée de Kn et S < tvv P Kn ; }vv } < 1u la sphère unitée
de Kn .
Q. 2 a. Montrer que B et S sont des compacts.
b. Montrer que
}A}s < sup }Avv } (B.84)
v PS

Compiled on 2023/10/10 at [Link]


238 Annexes

c. En déduire que
}A}s < sup }Avv } (B.85)
v PB

d. En déduire que l’application }‚}s est bien définie sur Mn pKq i.e. @A P Mn pKq, }A}s ă `8.
˝

Q. 3 a. Montrer
}A}s ď inf t³ P R : }Avv } ď ³ }vv } , @vv P Kn u .

b. Montrer qu’il existe w P S tel que }A}s < }Aw


w} .

c. En déduire que
}A}s < inf t³ P R : }Avv } ď ³ }vv } , @vv P Kn u . (B.86)
˝

Q. 4 a. Montrer que @vv P Kn , }Avv } ď }A}s }vv } .


b. Soit ¼ P K˚ . Montrer qu’il existe u P Kn tel que }u
u} < |¼| vérifiant

}Au
u} < }A}s }u
u} .

Q. 5 Montrer que }‚}s est une norme matricielle. ˝

Correction
B.5.2 Normes matricielles

R. 1 On a immédiatement
}Ivv } }vv }
}I}s < sup < sup < 1.
v PK n }vv } v PK n }vv}
v ‰0 v ‰0

R. 2 a. Les ensembles B et S sont des compacts car image réciproque de l’application continue v ÞÑ
}v } par le fermé borné r0, 1s (pour la boule) et le singleton t1u (pour la sphère).
v
B. Annexes

b. On a : :
}Avv } : v :
}A}s < sup < sup ::A : < sup }Au
u}
v PKn }vv } v PKn }vv } : u PS
v ‰0 v ‰0

c. Comme S Ă B on a aussi
sup }Avv } ě sup }Avv } . (B.87)
v PB v PS
B.5. Normes

On peut aussi remarquer que


sup }Avv } < sup }Avv } (B.88)
v PB v PB
v ‰0
w
De plus, @w
w P Bzt0u, en posant u < }w
w} P S. on a w < }w
w } u et

}Aw
w } < }w
w } }Au u} car }w
u} ď }Au w } ď 1.

Or on a
}Au
u} ď sup }Avv } .
v PS

et on obtient alors
sup }Aw
w } ď sup }Avv } .
w PB v PS
w ‰0

En utilisant (B.87) et (B.88), on en déduit

sup }Aw
w } < sup }Au
u} .
w PB uPS

d. L’application v ÞÑ }Avv } est continue donc son sup sur la sphère unitée qui est compacte est atteint.

Compiled on 2023/10/10 at [Link]


Normes 239

R. 3 a. Comme }‚}s est bien définie il existe ³ P R` tel que }A}s ď ³. Soit ³ P R` tel que }A}s ď ³.
On a
}Avv }
}A}s ď ³ ô sup ď³
v PKn }vv }
v ‰0
}Avv }
ô ď ³, @vv P Kn zt0u
}vv }
ô }Avv } ď ³ }vv } , @vv P Kn zt0u
ô }Avv } ď ³ }vv } , @vv P Kn

On en déduit que
}A}s ď inft³ P R : }Avv } ď ³ }vv } , @vv P Kn u (B.89)

b. Comme S est compact et l’application v ÞÑ }Avv } est continue, il existe w P S tel que

}A}s < sup }Avv } < }Aw


w} .
v PS

c. On en déduit }A}s }w w } car }w


w } < }Aw w } < 1. On a alors

}A}s P t³ P R : }Avv } ď ³ }vv } , @vv P Kn u

et donc
inft³ P R : }Avv } ď ³ }vv } , @vv P Kn u ď }A}s .

B.5.2 Normes matricielles


On conclut en utilisant (B.89).

R. 4 a. On a par définition du sup

}Auu} }Avv }
}A}s < sup ě , @vv P Kn zt0u.
}u
u} }vv }

B. Annexes
u PKn
u ‰0

et donc
}Avv } ď }A}s }vv } , @vv P Kn zt0u.
qui est équivalent à
}Avv } ď }A}s }vv } , @vv P Kn .

[Link]
b. D’après la Q. 3 b. ,il existe w P S tel que }A}s < }Aww } . Soit ¼ P K˚ et u < ¼ww ‰ 0. On a }u
u} < |¼|
et : :
: u :
}A}s < }Aww } < ::A : < 1 }Auu} ô }A}s }u u} < }Auu}
u} : }u
}u u}

R. 5 • }A}s < 0 ðñ As < O ?


ðù trivial.
ùñ Soit A P Mn pKq.

}Avv }
}A}s < 0 < sup ùñ }Avv } < 0, @vv P Kn zt0u
v PKn }vv }
v ‰0

ùñ Avv < 0 , @vv P Kn zt0u

Soit tee1 , . . . , e n u la base canonique de Kn . On a alors @j P v1, nw, Aeej < 0 et on en déduit que

ai,j < xeei , Aeej y < 0, @pi, jq P v1, nw.

et donc A < O.

Compiled on 2023/10/10 at [Link]


240 Annexes

• Montrons que }³A} < |³| }A}, @³ P K, @A P Mn pKq,.


Soient ³ P K et A P Mn pKq. On a ³A P Mn pKq (car Mn pKq est un espace vectoriel) et
}³Avv } |³| }Avv }
}³A}s < sup < sup car }³u
u} < |³| }u
u}
v PK n }vv } v PK n }vv }
v ‰0 v ‰0
}Avv }
< |³| sup < |³| }A}s .
n }v
v}
v PK
v ‰0

• Montrons que }A ` B}s ď }A}s ` }B}s , @ pA, Bq P Mn pKq2


Soient A et B deux matrices de Mn pKq. On a A ` B P Mn pKq car Mn pKq est un espace vectoriel
et
}pA ` Bqvv } }Avv ` Bvv }
}A ` B}s < sup < sup
v PKn }vv } v PK n }vv }
v ‰0 v ‰0
}Avv } ` }Bvv }
ď sup par inégalité triangulaire dans Kn
v PKn }vv }
v ‰0
}Avv } }Bvv }
ď sup ` sup < }A}s ` }B}s .
v PKn }vv } v PK n }vv }
v ‰0 v ‰0

• Montrons que }AB}s ď }A}s }B}s , @ pA, Bq P Mn pKq2 .


Soient A et B deux matrices de Mn pKq. On a AB P Mn pKq par définition du produit matriciel et
}pABqvv } }ApBvv q}
}AB}s < sup < sup
B.5.2 Normes matricielles

v PK n }vv } v PK n }vv }
v ‰0 v ‰0
}A}s }Bvv }
ď sup car }Au
u} ď }A}s }u u P Kn
u} @u
v PK n }vv }
v ‰0
}Bvv }
ď }A}s sup < }A}s }B}s .
v PKn }vv }
v ‰0
B. Annexes

Exercice B.5.8

Soit A P Mn pCq. On note


def }Axx}1
}A}1 < sup
B.5. Normes

n
x PC }x
x}1
x ‰0

la norme matricielle suboordonnée à la norme vectorielle }‚}1 .


Q. 1 Montrer que
n
ÿ
x}1 ď max
sup }Ax |ai,j |.
x PCn jPv1,nw
i<1
x}1 <1
}x

Q. 2 a. Déterminer un y P Cn , }yy }1 < 1 tel que


n
ÿ
}Ayy }1 < max |ai,j |.
jPv1,nw
i<1

b. Conclure.
˝

Correction

Compiled on 2023/10/10 at [Link]


Normes 241

x}1 < 1. On a
R. 1 Soit x P Cn tel que }x
ˇ ˇ
ÿn ÿn ˇÿ n ˇ
ˇ ˇ
}Axx}1 < |pAx
xqi | < ˇ aij xj ˇ
i<1
ˇ
i<1 j<1
ˇ
˜ ¸
ÿn ÿ n ÿn ÿ n
ď |aij xj | < |xj | |aij |
i<1 j<1 j<1 i<1
˜ ¸
n
ÿ n
ÿ n
ÿ n
ÿ
ď max |aij | |xj | < max |aij | car }x
x}1 < |xj | < 1.
jPv1,nw jPv1,nw
i<1 j<1 i<1 j<1

On obtient donc
n
ÿ
sup }Ax
x}1 ď max |ai,j |.
x PCn jPv1,nw
i<1
x}1 <1
}x

R. 2 a. Soit k P v1, nw tel que


n
ÿ n
ÿ
|ai,k | < max |ai,j |.
jPv1,nw
i<1 i<1
On a
n
ÿ n n
ˇ ˇ ÿ ˇÿ ˇ
}Ayy }1 < ˇpAyy qi ˇ < ˇ ai,j yj ˇ.
i<1 i<1 j<1

Pour obtenir
n
ÿ n ˇ ÿ
ÿ n ˇ
|ai,k | < ˇ ai,j yj ˇ
i<1 i<1 j<1

B.5.2 Normes matricielles


on prend yj < ¶k,j , @j P v1, nw, c’est à dire y < e k le k ème vecteur de la base canonique. Dans ce
cas on a }yy }1 < 1 et
}Ayy }1 < }Aeek }1 < }A:,k }1
ÿn n
ÿ
< |ai,k | < max |ai,j |.
jPv1,nw
i<1 i<1

B. Annexes
b. D’après la proposition/définition des normes matricielles suboordonnées, on a
}A}1 < sup }Ax
x}1 .
x PCn
x}1 <1
}x

En utilisant les résultats de Q.1 et Q.2, on obtient


n
ÿ

[Link]
}A}1 < max |ai,j |.
jPv1,nw
i<1
˛

Exercice B.5.9

Soit A P Mn pCq. On note


def }Axx}8
}A}8 < sup
x PC n }x
x}8
x ‰0

la norme matricielle suboordonnée à la norme vectorielle }‚}8 .

Q. 1 Montrer que
n
ÿ
sup }Ax
x}8 ď max |ai,j |.
x PCn iPv1,nw
j<1
x}8 <1
}x

Compiled on 2023/10/10 at [Link]


242 Annexes

Q. 2 a. Déterminer un y P Cn , }yy }8 < 1 tel que


n
ÿ
}Ayy }8 < max |ai,j |.
iPv1,nw
j<1

b. Conclure.
˝
Correction
R. 1 Soit x P Cn tel que }x
x}8 < 1. On a
ˇ ˇ
ˇÿn ˇ
ˇ ˇ
}Ax
x}8 < max |pAxxqi | < max ˇ ai,j xj ˇ
iPv1,nw iPv1,nw ˇj<1
ˇ
n
ÿ
ď max |ai,j ||xj |
iPv1,nw
j<1
ÿn
ď max |ai,j | car |xj | ď max |xi | < }x
x}8 < 1.
iPv1,nw iPv1,nw
j<1

On obtient donc
n
ÿ
sup }Ax
x}8 ď max |ai,j |.
x PCn iPv1,nw
j<1
x}8 <1
}x

R. 2 a. Soit k P v1, nw tel que


B.5.2 Normes matricielles

n
ÿ n
ÿ
|ak,j | < max |ai,j |.
iPv1,nw
j<1 j<1

On a, pour tout y P Cn ,
ˇ ˇ ˇÿn
ˇ
}Ayy }8 < max ˇpAyy qi ˇ < max ˇ ai,j yj ˇ.
iPv1,nw iPv1,nw
j<1
B. Annexes

On va construire un vecteur y P Cn , }yy }8 < 1, tel que


ˇÿn ˇ ÿ n
max ˇ ai,j yj ˇ < |ak,j |.
iPv1,nw
j<1 j<1

On sait déjà que, si }yy }8 < 1,


ˇÿn n
ˇ ÿ
B.5. Normes

@i P v1, nw, ˇ ai,j yj ˇ ď |ak,j |.


j<1 j<1

On va donc construire y P C , }yy }8 < 1, de telle sorte que


n

ˇÿn ˇ ÿ n
ˇ ak,j yj ˇ < |ak,j |.
j<1 j<1

Il suffit pour celà de prendre,


# |ak,j |
ak,j si akj ‰ 0
@j P v1, nw, yj < .
1 si ak,j < 0
et on a bien }yy }8 < 1. On a alors
n n n n
ˇÿ ˇ ÿ ˇÿ ˇ ÿ
ˇ ak,j yj ˇ < |ak,j | et @i P v1, nw, ˇ ai,j yj ˇ ď |ak,j |
j<1 j<1 j<1 j<1

et donc
n
ÿ n
ÿ
}Ayy }8 < |ak,j | < max |ai,j |.
iPv1,nw
j<1 j<1

Compiled on 2023/10/10 at [Link]


Normes 243

b. D’après la proposition/définition des normes matricielles suboordonnées, on a

}A}8 < sup }Ax


x}8 .
x PCn
x}8 <1
}x

En utilisant les résultats de Q.1 et Q.2, on obtient


n
ÿ
}A}8 < max |ai,j |.
iPv1,nw
j<1

Exercice B.5.10

Soit A P Mn pCq. On note B < A˚ A.


Q. 1 Soit p¼, u q P C ˆ Cn zt0u un élément propre de B.

a. Montrer que la matrice B est hermitienne.


b. Montrer que les valeurs propres de B sont réelles.
c. En déduire que
u}22
}Au
¼< .
u}22
}u

B.5.2 Normes matricielles


˝
La matrice B étant hermitienne (elle est donc normale), d’après le Théorème de réduction 3.2
page 63, il existe alors une matrice U unitaire et une matrice D diagonale telle que

B < UDU˚ .

On note p¼i , e i qiPv1,nw les éléments propres de D. Les vecteurs e i sont les vecteurs de la base canonique
de Cn et ¼i < Dii .

B. Annexes
Q. 2 a. Démontrer que les p¼i , v i qiPv1,nw sont les éléments propres de B où v i est le i-ème vecteur
colonne de U.
b. En déduire que tvv 1 , . . . , v n u est une base orthonormée de Cn .
˝

Soit x P Cn tel que }x


x}2 < 1 décomposée dans la base tvv 1 , . . . , v n u:

[Link]
n
ÿ
Dp³1 , . . . , ³n q P Cn , tels que x < ³i v i .
i<1

Q. 3 a. Montrer que
n
ÿ
xx
x, x y < |³i |2 < 1.
i<1

b. Montrer que
2
sup }Avv }2 ď ÄpA˚ Aq.
v PCn
v }2 <1
}v

c. Déterminer un vecteur w P Cn , tel que

w }22 < ÄpA˚ Aq.


}Aw

Compiled on 2023/10/10 at [Link]


244 Annexes

d. En déduire que
def }Axx}2 a
}A}2 < sup < ÄpA˚ Aq.
n
x PC }x
x}2
x ‰0
˝

Q. 4 a. Montrer que la norme }‚}2 est invariante par transformation unitaire :

UU˚ < I ùñ }A}2 < }UA}2 < }AU}2 < }U˚ AU}2 .

b. Montrer que si A est hermitienne alors

}A}2 < ÄpAq.

Correction
R. 1 a. Il faut montrer que B < B˚ . Or on a
` ˘˚ ` ˘˚
B˚ < A˚ A < A˚ A˚ < A˚ A < B.

b. Comme p¼, u q est un élément propre de B, on a Bu u. On en déduit que


u < ¼u

xBu u, u y < ¼ xu
u, u y < x¼u u}22 .
u, u y < ¼ }u

De plus par propriété du produit scalaire, on a


B.5.2 Normes matricielles

xBu u, B˚u y .
u, u y < xu

Comme B est hermitienne, on obtient

xBu
u, u y < xu uy
u, Bu
2
< xu uy < ¼ xu
u, ¼u u, u y < ¼ }u
u}2 .

On a donc
B. Annexes

2 2
u}2 < ¼ }u
¼ }u u}2
et comme }u
u}2 ‰ 0 (u
u est un vecteur propre) on obtient ¼ < ¼, c’est à dire ¼ P R.
c. On a

u, u y < xA˚ Au
xBu u, u y
< xAu uy par propriété du produit scalaire
u, Au
B.5. Normes

2
< }Au
u}2 .

De plus, on a vu que xBu u}22 avec }u


u, u y < ¼ }u u}2 ą 0. On en déduit alors

u}22
}Au
¼< ě 0.
u}22
}u

R. 2 a. On a B < UDU˚ . Or U est unitaire, donc inversible d’inverse U˚ . En multipliant à gauche


par U˚ et à droite par U on obtient

U˚ BU < U˚ pUDU˚ qU < pU˚ UqDpU˚ Uq < D.

On obtient alors

Deei < ¼ie i ðñ U˚ BUeei < ¼ie i


ðñ BUeei < ¼i Ueei .

C’est à dire en posant v i < Ueei (i-ème vecteur colonne de U), les éléments propres de B sont les
p¼i , v i qiPv1,nw . On peut noter que v i ‰ 0 car U est inversible.

Compiled on 2023/10/10 at [Link]


Normes 245

b. On a ¨ ˛
¨ ˛ v ˚1
˚ v ˚2 9
˚ 9
U < ˝ v1 . . . vn ‚ et U˚ < ˚ ..
9
˚ 9
˝ . ‚
v ˚n
On a donc
¨ ˚ ˛
v 1 v1 v1 ˚ v 2 . . . v1 ˚ v n
˚v ˚2 v1 v ˚2 v 2 . . . v ˚2 v n 9
˚ 9
U˚ U < ˚ . .. .. 9
˝ .. . . ‚
v ˚nv1 v ˚nv 2 ˚
. . . v nv n
et donc
@pi, jq P v1, nw2 , pU˚ Uqi,j < v ˚i v j < xvv i , v j y .
Comme U est unitaire, on a U˚ U < I et donc

@pi, jq P v1, nw2 , pU˚ Uqi,j < ¶i,j .

On en déduit alors
@pi, jq P v1, nw2 , xvv i , v j y < ¶i,j .
tvv 1 , . . . , v n u est donc une base orthonormée de Cn .

R. 3 a. On peut voir que


C G

B.5.2 Normes matricielles


n
ÿ n
ÿ
xx
x, x y < ³i v i , ³j v j
i<1 j<1
n
ÿ
< ³i ³j xvv i , v j y
i<1
ÿn
< ³i ³i car xvv i , v j y < ¶ij

B. Annexes
i<1
ÿn
< |³i |2 .
i<1

x}22 < xx
De plus }x x, x y < 1.
b. On a

[Link]
x}22
}Ax < xAx xy < xA˚ Ax
x, Ax x, x y < xBx
x, x y
C G
ÿn n
ÿ
< ³i Bvv i , ³j v j
i<1 j<1
C G
n
ÿ n
ÿ
< ³ i ¼i v i , ³j v j
i<1 j<1
n
ÿ n
ÿ
< ³ i ¼i ³j xvv i , v j y
i<1 j<1
ÿn
< ¼i |³i |2 car ¼i P R et xvv i , v j y < ¶ij
i<1
n n
` ˘ÿ ÿ
ď max ¼i |³i |2 < ÄpA˚ Aq car ¼i ě 0 et |³i |2 < 1.
iPv1,nw
i<1 i<1

On en déduit alors
2
sup }Avv }2 ď ÄpA˚ Aq.
v PCn
v }2 <1
}v

Compiled on 2023/10/10 at [Link]


246 Annexes

c. Pour démontrer que l’on a en fait égalité il suffit de trouver un vecteur la vérifiant, c’est à dire un
vecteur w P Cn , }w
w }2 < 1, tel que
w }22 < max ¼i
}Aw
iPv1,nw

où les ¼i sont positifs ou nuls (valeurs propres de B. Pour celà on note k P v1, nw l’indice tel que
¼k < maxiPv1,nw ¼i . En choisissant w < v k (qui est de norme 1) on obtient alors

2
}Avv k }2 < xAvv k , Avv k y < xA˚ Avv k , v k y < x¼k v k , v k y < ¼k < ÄpA˚ Aq.

d. D’après la proposition/définition des normes matricielles suboordonnées, on a

}A}2 < sup }Ax


x}2 .
x PCn
x}2 <1
}x

En utilisant les résultats de Q.3, 2. et 3., on obtient


a
}A}2 < ÄpA˚ Aq.
B.6.1 Codes sur la méthode de dichotomie/bissection

R. 4 a. Soit U P Mn pCq unitaire, i.e.


UU˚ < U˚ U < I.

‚ Montrons quea}A}2 < }UA}2 .


On a }A}2 < ÄpA˚ Aq et donc
b a a
}UA}2 < ÄppUAq˚ UAq < ÄpA˚ pU˚ UqAq < ÄpA˚ Aq < }A}2 .

‚ Montrons que }A}2 < }AU}2 .


On a
B. Annexes

def }AUxx}2
}AU}2 < sup .
x PCn }x
x}2
x ‰0

x, on a x < U˚y car U-1 < U˚ (U étant unitaire). Comme U est inversible on
En posant y < Ux
a
␣ ˚ (
U y , @yy P Cn zt0u < Cn zt0u

}AUxx}2 }Ayy }2
sup < sup ˚
.
x PC n }x
x}2 y PC }U y }2
n
x ‰0 y ‰0
B.6. Normes

De plus, on a
2 2
}U˚y }2 < xU˚y , U˚y y < xyy , UU˚y y < xyy , y y < }yy }2

et donc }AU}2 < }A}2 .


‚ Montrons que }A}2 < }U˚ AU}2 .
Ceci découle des deux égalités précédentes. En effet,

}U˚ AU}2 < }U˚ pAUq}2 < }AU}2 car U˚ unitaire


< }A}2 car U unitaire

Compiled on 2023/10/10 at [Link]


Listings 247

B.6 Listings

B.6.1 Codes sur la méthode de dichotomie/bissection

Transcription de l’Algorithme 2.1(page 18)

double dichotomie1 ( double (∗ f ) ( double ) , 1

double a , double b , double eps ) { 2

d o u b l e ∗A, ∗ B, ∗X, x ; 3

i n t kmin , k ; 4

size_t Size ; 5
1 f u n c t i o n x=d i c h o t o m i e 1 ( f , a , b , e p s i l o n )
a s s e r t ( f ( a ) ∗ f ( b ) <0) ; 6
2 kmin=f l o o r ( ...
kmin=( i n t ) f l o o r ( l o g ( ( b−a ) / e p s ) / l o g ( 2 . ) ) ; 7
l o g ( ( b−a ) / e p s i l o n ) / l o g ( 2 ) ) ;
S i z e =(kmin+1)∗ s i z e o f ( d o u b l e ) ; 8
3 X=z e r o s ( kmin +1 ,1) ;
a s s e r t ( X=( d o u b l e ∗ ) m a l l o c ( S i z e ) ) ; 9
4 A=z e r o s ( kmin +1 ,1) ; B=z e r o s ( kmin +1 ,1) ;
a s s e r t ( A=( d o u b l e ∗ ) m a l l o c ( S i z e ) ) ; 10
5 A( 1 )=a ; B( 1 )=b ;X( 1 ) =(a+b ) / 2 ;
a s s e r t ( B=( d o u b l e ∗ ) m a l l o c ( S i z e ) ) ; 11
6 f o r k=1: kmin
// ou a s s e r t ( A && B && X ) ; 12
7 i f f (X( k ) )==0
A[ 0 ] = a ; B[ 0 ] = b ;X[ 0 ] = ( a+b ) / 2 . ; 13
8 A( k+1)=X( k ) ; B( k+1)=X( k ) ;
f o r ( k =0;k<kmin ; k++){ 14

B.6.1 Codes sur la méthode de dichotomie/bissection


9 e l s e i f f (B( k ) ) ∗ f (X( k ) )<0
i f ( f (X[ k ] ) ==0){ 15
10 A( k+1)=X( k ) ; B( k+1)=B( k ) ;
A[ k+1]=X[ k ] ; B [ k+1]=X[ k ] ; 16
11 else
} e l s e i f ( f (B [ k ] ) ∗ f (X[ k ] ) <0 ) { 17
12 A( k+1)=A( k ) ; B( k+1)=X( k ) ;
A[ k+1]=X[ k ] ; B [ k+1]=B [ k ] ; 18
13 end
} else { 19
14 X( k+1)=(A( k+1)+B( k+1) ) / 2 ;
A[ k+1]=A[ k ] ; B [ k+1]=X[ k ] ; 20
15 end
} 21
16 x=X( kmin+1) ;
X[ k+1]=(A[ k+1]+B [ k +1]) / 2 ; 22
17 end
} 23

Listing B.1: fonction dichotomie1 (Matlab) x=X[ kmin ] ; 24

f r e e (X) ; f r e e (A) ; f r e e (B) ; 25

return x ; 26

} 27

Listing B.2: fonction dichotomie1 (C)

B. Annexes
#i n c l u d e <s t d i o . h> 1

#i n c l u d e < s t d l i b . h> 2

#i n c l u d e <math . h> 3

#i n c l u d e <a s s e r t . h> 4

double dichotomie1 ( 6

double (∗ f ) ( double ) , 7

double a , double b , double eps 8

); 9
1 clear all
d o u b l e g1 ( d o u b l e x ) { 10
2 close all
r e t u r n ( x+2) ∗ ( x+2) ∗ ( x−M_PI) ;
[Link]
11
3 f=@( x ) ( x+2) ∗ ( x+2) ∗ ( x−p i ) ;
} 12
4 x=d i c h o t o m i e 1 ( f , −1 ,2∗ pi , 1 e −8) ;
13
5 f p r i n t f ( ’x =%.16 f\n ’ , x )
i n t main ( ) { 14
6 x=d i c h o t o m i e 1 ( @cos , 2 , pi , 1 e −8) ;
double x ; 15
7 f p r i n t f ( ’x =%.16 f\n ’ , x )
x=d i c h o t o m i e 1 ( g1 , −1 ,2∗M_PI, 1 e −8) ; 16

Listing B.3: script dichotomie1 (Matlab) p r i n t f ( "x =%.16 lf ,␣ error =%.6 e\n" , 17

x , f a b s ( x−M_PI) ) ; 18

x=d i c h o t o m i e 1 ( cos , −1 ,M_PI, 1 e −8) ; 19

p r i n t f ( "x =%.16 lf ,␣ error =%.6 e\n" , 20

x , f a b s ( x−M_PI_2) ) ; 21

return 1; 22

} 23

// D e f i n i t i o n de d i c h o t o m i e 1 e n s u i t e . . . 24

Listing B.4: main dichotomie1 (C)

Compiled on 2023/10/10 at [Link]


248 Annexes

Transcription de l’Algorithme 2.5 (page 20)

double dichotomie5 ( double (∗ f ) ( double ) , 1


1 f u n c t i o n x=d i c h o t o m i e 5 ( f , a , b )
double a , double b) { 2
2 a s s e r t ( f ( a ) ∗ f ( b ) <0, . . .
d o u b l e A, B, x , xp ; 3
3 ’ test ␣f(a)*f(b) <0␣ failed ’ ) ;
a s s e r t ( f ( a ) ∗ f ( b ) <0) ; 4
4 A=a ; B=b ; x=(A+B) / 2 ; xp=A;
A=a ; B=b ; x=(A+B) / 2 . ; xp=A; 5
5 w h i l e x~=xp
w h i l e ( x!=xp ) { 6
6 i f f (B) ∗ f ( x )<0
i f ( f (B) ∗ f ( x ) <0) 7
7 A=x ;
A=x ; 8
8 else
else 9
9 B=x ;
B=x ; 10
10 end
xp=x ; 11
11 xp=x ;
x=(A+B) / 2 ; 12
12 x=(A+B) / 2 ;
} 13
13 end
return x ; 14
14 end
} 15

Listing B.5: fonction dichotomie5 (Matlab)


Listing B.6: fonction dichotomie5 (C)

#i n c l u d e <s t d i o . h> 1

#i n c l u d e <math . h> 2

#i n c l u d e <a s s e r t . h>
B.6.1 Codes sur la méthode de dichotomie/bissection

double dichotomie5 ( double (∗ f ) ( double ) , 5


1 clear all
double a , double b) ; 6
2 close all
d o u b l e g1 ( d o u b l e x ) { 7
3 f=@( x ) ( x+2) ∗ ( x+2) ∗ ( x−p i ) ;
r e t u r n ( x+2) ∗ ( x+2) ∗ ( x−M_PI) ; 8
4 x=d i c h o t o m i e 5 ( f , −1 ,2∗ p i ) ;
} 9
5 f p r i n t f ( ’x =%.16 f\n ’ , x )
10
6 x=d i c h o t o m i e 5 ( @cos , 2 , p i ) ;
i n t main ( ) { 11
7 f p r i n t f ( ’x =%.16 f\n ’ , x )
double x ; 12

Listing B.7: script dichotomie5 (Matlab) x=d i c h o t o m i e 5 ( g1 , −1 ,2∗M_PI) ; 13

p r i n t f ( "x =%.16 lf \n" , x ) ; 14

x=d i c h o t o m i e 5 ( cos , −1 ,M_PI) ; 15

p r i n t f ( "x =%.16 lf \n" , x ) ; 16

Listing B.8: main dichotomie5 (C)


B. Annexes
B.6. Listings

Compiled on 2023/10/10 at [Link]


List of algorithms

1.1 Algorithme de calcul de Ã, version naïve . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2


1.2 Algorithme de calcul de Ã, version stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1 Méthode de dichotomie : version 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Méthode de dichotomie : version 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Méthode de dichotomie : version 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Méthode de dichotomie : version 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Méthode de dichotomie : version 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Méthode de point fixe : version Tantque formel . . . . . . . . . . . . . . . . . . . . . . . 30
2.7 Méthode de point fixe : version Répéter formel . . . . . . . . . . . . . . . . . . . . . . . 30
2.8 Méthode de point fixe : version Tantque formel avec critères d’arrêt . . . . . . . . . . . . 31
2.9 Méthode de point fixe : version Répéter formel avec critères d’arrêt . . . . . . . . . . . . 31
2.10 Méthode de point fixe : version Tantque avec critères d’arrêt . . . . . . . . . . . . . . . . 31
2.11 Méthode de point fixe : version Répéter avec critères d’arrêt . . . . . . . . . . . . . . . . 31
2.12 Méthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.13 Méthode de la corde utilisant la fonction PtFixe . . . . . . . . . . . . . . . . . . . . . . . 35
2.14 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.15 Méthode de Newton scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.16 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1 Fonction RSLMatDiag permettant de résoudre le système linéaire à matrice diagonale in-
versible x < b.
Ax
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Fonction RSLTriInf permettant de résoudre le système linéaire triangulaire inférieur in-
versible x < b.
Ax
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Fonction RSLTriSup permettant de résoudre le système linéaire triangulaire supérieur in-
versible x < b.
Ax
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4 Algorithme de Gauss-Jordan formel pour la résolution de Ax x<b . . . . . . . . . . . . . . 67
3.5 Algorithme de Gauss-Jordan avec fonctions pour la résolution de Ax x<b . . . . . . . . . . 67
3.6 Recherche d’un pivot pour l’algorithme de Gauss-Jordan. . . . . . . . . . . . . . . . . . . 68
3.7 Permutte deux lignes d’une matrice et d’un vecteur. . . . . . . . . . . . . . . . . . . . . . 68
3.8 Combinaison linéaire Li Ð Li ` ³Lj appliqué à une matrice et à un vecteur. . . . . . . . 68
250 LIST OF ALGORITHMS

3.9 Fonction RSLFactLU permettant de résoudre, par une factorisation LU, le système linéaire
Axx < b où A est une matrice de Mn pKq, dont toutes les sous-matrices principales sont
inversibles, et b P Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.10 Fonction FactLU permet de calculer les matrices L et U dites matrice de factorisation LU
associée à la matrice A, telle que A < LU
3.11 Fonction FactLUligU permet de calculer la ligne i de U à partir de (3.22) . . . . . . . . 80
3.12 Fonction FactLUcolL permet de calculer la colonne i de L à partir de (3.23) . . . . . . . 80
3.13 Fonction FactLU permet de calculer les matrices L et U dites matrice de factorisation LU
associée à la matrice A, telle que A < LU
en utilisant des fonctions intermédiaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.14 Algorithme de base permettant de résoudre, par une factorisation de Cholesky positive, le
système linéaire Axx<b
où A une matrice de Mn pCq hermitienne définie positive et b P Cn . . . . . . . . . . . . . . 84
3.15 Fonction RSLCholesky permettant de résoudre, par une factorisation de Cholesky posi-
B.6.1 Codes sur la méthode de dichotomie/bissection

tive, le système linéaire Axx<b


où A une matrice hermitienne de Mn pCq définie positive et b P Cn . . . . . . . . . . . . . . 84
3.16 Fonction Cholesky permettant de calculer la matrice B, dites matrice de factorisation
positive de Cholesky associée à la matrice A, telle que A < BB˚ . . . . . . . . . . . . . . . . 87
3.17 Calcul du ³ et de la matrice de Householder Hpu uq telle que Hpu
uqaa < ³bb. . . . . . . . . . . 90
3.18 Fonction FactQR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.19 Méthode itérative pour la résolution d’un système linéaire Ax x<b . . . . . . . . . . . . . 115
3.20 Méthode itérative de Jacobi pour la résolution d’un système linéaire Ax x<b . . . . . . . . 116
3.21 Méthode itérative de Gauss-Seidel pour la résolution d’un système linéaire Ax x<b . . . . 118
3.22 Itération ˜de Jacobi : calcul ¸ de x tel que
ÿn
1
xi < bi ´ aij yj , @i P v1, nw. . . . . . . . . . . . . . . . . . . . . . . . . . . 119
aii j<1,j‰i
3.23 Itération ˜de Gauss-Seidel : calcul de x ¸ tel que
i´1
ÿ ÿn
1
xi < bi ´ ai,j xj ´ ai,j yj , @i P v1, nw. . . . . . . . . . . . . . . . . . . . . 119
[Link] OF ALGORITHMS

aii j<1 j<i`1


3.24 Méthode itérative pour la résolution d’un système linéaire Ax x<b . . . . . . . . . . . . . 120
3.25 Itération ˜ S.O.R. : calcul de x tel que ¸
i´1
ÿ ÿn
w
xi < bi ´ aij xj ´ aij yj ` p1 ´ wqyi . . . . . . . . . . . . . . . . . . . . . 121
aii j<1 j<i`1
4.1 Fonction Lagrange permettant de calculer le polynôme d’interpolation de Lagrange
Pn pxq définit par (4.4) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2 Fonction Hermite permettant de calculer le polynôme d’interpolation de Lagrange-
Hermite Hn ptq définit par (4.26) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.3 Fonction polyA permettant de calculer le polynôme Ai en t P R donné par Ai ptq <
p1 ´ 2L1i pxi qpt ´ xi qqL2i ptq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.4 Fonction polyB permettant de calculer le polynôme Bi en t P R donné par Bi ptq <
pt ´ xi qL2i ptq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.5 Fonction polyL permettant de calculer le polynôme Li en t P R donné par Li ptq <
B.6. LIST OF ALGORITHMS

źn
t ´ xj
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
j<0,j‰i i
x ´ xj
ÿn
1
4.6 Fonction polyLp permettant de calculer L1i pxi q < . . . . . . . . . . . . . 144
k<0,k‰i i
x ´ xk
5.1 Fonction WeightsFromPoints retournant le tableau des poids w associé à un tableau de
points x donnés (points 2 à 2 distincts) appartenant à un intervalle ra, bs. . . . . . . . . . 158
5.2 Fonction WeightsPointsNC retournant le tableau de points x donnés correspondant à la
discrétisation régulière intervalle ra, bs. et le tableau des poids řn w associé à un . . . . . . . 167
5.3 Fonction QuadElemGen retourne la valeur de I < pb ´ aq j<0 wj f pxj q. . . . . . . . . . 168
řn
5.4 Fonction QuadElemGen retourne la valeur de I < pb ´ aq j<0 wj f pxj q où les poids wi
et les points xi sont ceux définis par la formule de quadrature élémentaire de Newton-Cotes 168
5.5 Fonction GaussLegendre retournant le tableau des points t et le tableau des poids w . . 176
şb
5.6 Fonction QuadElemGaussLegendre retournant une approximation de a f pxqdx en util-
isant la formule de quadrature de Gauss-Legendre à n ` 1 points sur l’intervalle ra, bs. . . 177

Compiled on 2023/10/10 at [Link]


LIST OF ALGORITHMS 251

5.7 Fonction QuadSimpson retourne une approximation de l’intégrale d’une fonction f sur
l’intervalle r³, ´s utilisant la méthode de quadrature composée de Simpson en minimisant
le nombre d’appels à la fonction f. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
A.1 Exemple de boucle «pour» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
A.2 Exemple de boucle «tant que» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
A.3 Exemple de boucle «répéter ...jusqu’à» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
A.4 Exemple d’instructions conditionnelle «si» . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
A.5 Exemple de fonction
řn : Résolution de l’équation du premier degré ax ` b < 0. . . . . . . . 193
A.6 Calcul de S < k<1 k sinp2kxq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
źk
A.7 Calcul de P < sinp2kz{nqk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
n<1
A.8 En-tête de la fonction SFT retournant valeur de la série de Fourier en t tronquée au n
premiers termes de l’exercice A.2.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

B.6.1 Codes sur la méthode de dichotomie/bissection


A.9 Fonction SFT retournant la valeur de la série de Fourier en t tronquée au n premiers termes
de l’exercice A.2.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
B.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

[Link] OF ALGORITHMS
[Link] OF ALGORITHMS

Compiled on 2023/10/10 at [Link]


Index

K, 200 adjointe, 202


det pAq, 205 bande, 207
impAq, 203 bloc, 207
kerpAq, 203 bloc-carrée, 208
rankpAq, 203 diagonale, 206
Mm,n , 201 diagonale dominante, 207
Sp pAq, 206 diagonale par blocs, 208
ÄpAq, 206 diagonale strictement dominante, 207
tr pAq, 204 diagonalisable, 213
définie positive, 204
adjointe, 202 déterminant, 205
elément propre, 205
base, 200
hermitienne, 203
base orthogonale, 201
identitée, 202
demi largeur de bande, 207 inverse, 203
diagonale, 206 inversible, 202
diagonale dominante, 207 matrice de passage..., 213
diagonale strictement dominante, 207 normale, 204
diagonalisable, 213 norme, 96, 210
déterminant, 205 orthogonale, 204
pentadigonale, 207
elément propre, 205 permutation, 204
espace vectoriel normé, 95, 209 polynôme caractéristique, 205
rayon spectrale, 206
groupe des permutations, 204 régulière, 202
semi définie positive, 204
hermitienne, 203 singulière, 202
sous matrice, 207
identitée, 202
sous matrice principale, 207
inverse, 203
sous-espace propre, 205
inversible, 202
spectre, 206
Inégalité de Cauchy-Schwarz, 95
Inégalité de Hölder, 96, 210 symétrique, 203
trace, 204
Kronecker, 201 transposée, 202
triangulaire, 206
matrice triangulaire inférieure, 206
INDEX 253

triangulaire par blocs, 208 transposé, 200


triangulaire supérieure, 206 vecteur propre, 205
tridiagonale, 207 vecteurs
unitaire, 204 ensemble de vecteurs orthonormal, 201
valeur propre, 205 orthogonaux, 200
vecteur propre, 205 produit scalaire de, 200
matrice:image, 203
matrice:noyau, 203
matrice:rang, 203
matrices
produit de, 202

normale, 204
norme
invariance par transformation unitaire, 99, 211
matricielle non subordonnée, 100, 212
matricielle subordonnée, 96, 211
vectorielle, 95, 209

B.6.1 Codes sur la méthode de dichotomie/bissection


norme matricielle, 96, 210
normes
équivalentes, 96, 210

opérateur de projection, 201


orthogonale, 204
orthogonaux (vecteurs), 200
orthonormal, 201

permutations, 204
polynôme caractéristique, 205
produit, 202
produit scalaire, 200
projection orthogonale:matrice, 201
projection orthogonale:opérateur, 201

[Link]
rayon spectral, 206
régulière, 202

singulière, 202
sous matrice, 207
sous matrice principale, 207
sous-espace propre, 205
spectre, 206
symetrique, 203

trace d’une matrice, 204


transposée, 202
triangulaire, 206
triangulaire inférieure, 206
triangulaire supérieure, 206
[Link]

unitaire, 204

valeur propre, 205


multiplicité algébrique, 206
multiplicité géométrique, 205
vecteur
adjoint, 200
colonne, 200
convergence, 102, 213
ligne, 200
orthogonal à une partie, 200

Compiled on 2023/10/10 at [Link]


Bibliography

[1] P.G. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimisation. DUNOD, 2006.
[2] M. Crouzeix and A.L. Mignot. Analyse numérique des équations différentielles. Mathématiques
appliquées pour la maîtrise. Masson, 1992.
[3] J.-P. Demailly. Analyse numérique et équations différentielles. Grenoble Sciences. EDP Sciences,
2006.
[4] J.P. Demailly. Analyse Numérique et Equations Différentielles. PUG, 1994.
[5] W. Gander, M.J. Gander, and F. Kwok. Scientific computing : an introduction using Maple and
MATLAB. Springer, Cham, 2014.

[6] T. Huckle. Collection of software bugs [Link]


[Link]/persons/huckle/[Link].
[7] P. Lascaux and R. Théodor. Analyse numérique matricielle appliquée à l’art de l’ingénieur. Number
vol. 1 et 2 in Analyse numérique matricielle appliquée à l’art de l’ingénieur. Dunod, 2004.

Vous aimerez peut-être aussi