0% ont trouvé ce document utile (0 vote)
42 vues68 pages

Cours AnalNum

Cours anal numérique.

Transféré par

andrey.kolmogorov1903
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
42 vues68 pages

Cours AnalNum

Cours anal numérique.

Transféré par

andrey.kolmogorov1903
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Analyse Numérique

Institut de Mathématiques de Bourgogne (IMB)


Université de Bourgogne Franche-Comté

Organisation
- CM: 24 heures, 12 séances. TD: 18 heures, 9 séances. TD: 8 heures, 4 séances.

- Page web :
http://jaramillo.perso.math.cnrs.fr/Courses/AnalyseNumerique/AnalyseNumerique.html

Intervenants

- J.L. Jaramillo (resp. Bureau : A323), CM ([email protected]).

- X. Dupuis (Bureau: A329), TD et TP (([email protected]).


2
Table des matières

I Problèmes linéaires 5

1 Introduction: problèmes linéaires 7


1.1 Le problème et les méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Diagonalisation de matrices réelles symétriques . . . . . . . . . . . . . . . . . . . 7
1.3 Exemples de matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Méthodes directes 15
2.1 Décomposition LU (méthode de Gauss/ d'échelonnement) . . . . . . . . . . . . . 15
2.1.1 Algorithme LU, sans permutation . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Algorithme LU, avec permutation . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Décomposition de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Normes et conditionnement d'une matrice 35


3.1 Norme matricielle, norme matricielle induite et rayon spectral . . . . . . . . . . . 35
3.1.1 Rappel sur les normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.2 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Relation entre norme matricielle et rayon spectral . . . . . . . . . . . . . . . . . . 39
3.2.1 Convergence et rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Conditionnement d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.1 Conditionnement et ses propriétés élémentaires . . . . . . . . . . . . . . . 41
3.3.2 Majoration des erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4 Méthodes itératives 45
5 Méthodes de descente 47

II Interpolation 49

6 Interpolation polynomiale 51

III Annexes 53

A Espaces linéaires 55
A.1 Rappel sur les espaces linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.2 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
A.3 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3
4 TABLE DES MATIÈRES

B Matrices 59
B.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
B.1.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 60
B.1.2 Rang et noyau d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 61
B.1.3 Inverse d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
B.2 Applications linéaires et matrice d'une application linéaire . . . . . . . . . . . . . 62
B.2.1 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
B.3 Matrices et géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

C Factorisation de matrices 65
D Diagonalisation 67
D.1 Notion de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
D.2 Diagonalisation de matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . 68
Part I

Problèmes linéaires

5
Chapitre 1

Introduction: problèmes linéaires

1.1 Le problème et les méthodes


Le problème fondamental que nous allons aborder est la résolution de l'équation

Ax = b , (1.1)

avec A une matrice et b un vecteur donnés dans des espaces linéaires de dimension ni. Un
problème lié qui va aussi nous occuper est la résolution du problème spectral de la matrice A

Ax = λx . (1.2)

Les appendices A-C orent un rappel des éléments de base sur les espaces linéaires et sujets liés.

La résolution ecace de l'équation (1.1) pour des dimensions élevées pose un problème di-
cile dont la résolution demande le concours de diérentes techniques mathématiques. L'esprit ici
est de souligner l'enchevêtrement de l'Algèbre Linéaire, la Géométrie et l'Analyse Mathématique
dans l'Analyse Numérique. Le problème abordé dans la section suivante illustre ce point.

1.2 Diagonalisation de matrices réelles symétriques


Les matrices carrées réelles et symétriques sont diagonalisables, avec des valeurs et vecteurs
propres réels. D'un côté, ceci est un résultat fondamental dans le contexte du problème abordé
dans ce cours. D'un autre côté, la preuve de ce résultat nous permet d'illustrer concrètement
la puissance de la combinaison d'Analyse Mathématique et de l'Algèbre Linéaire, un leitmotiv
dans ce cours.

Lemme 1.1. (Une matrice symétrique réelle est diagonalisable sur R).
Soit V un espace vectoriel
sur R de dimension nie: dim(V ) = n, n ∈ , muni d'un produit scalaire h , i; V × V → R, avec
N∗
norme associée ||x|| = hx, xi 2 , ∀x ∈ V . Soit T une application linéaire T : V → V , symétrique
1

hT (x), yi = hT (y), xi, (1.3)

Alors, il existe une base orthonormée e1 , . . . , en de V (c.à.d hei , ej i = δij ) et (λ1 , . . . , λn ) ∈ Rn


tels que T ei = λi ei , ∀i ∈ {1, . . . , n}.
Preuve : Par récurrence sur n = dim(V ).

7
8 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

i) Nous supposons d'abord dim(V ) = 1.


v
Soit v ∈V, v = 6 0, alors V = LinR (v) = LinR (e1 ) avec e1 = ||v|| . En particulier he1 , e1 i =

1. Soit T : V → V linéaire (symétrique), on a T e1 ∈ V = LinR (e1 ) =⇒ ∃λ1 ∈ R tel que


T e1 = λ1 e1 .
Notez que le raisonnement peut être étendu au cas complexe .
1

ii) On suppose que le résultat est vrai pour dim(V ) < n (hypothèse de récurrence). On le
montre pour dim(V ) = n.
Soit V un espace linéaire avec produit scalaire, avec dim(V ) = n < ∞ et T : V → V
linéaire symétrique. On dénit :

ϕ:V → R
x 7→ hT x, xi .

Cette application est continue. En particulier, sa restriction à la sphère unité S1 = {x ∈


V ; ||x|| = 1}, qui est compacte (fermée et bornée, parce dim(V ) = n < ∞), est aussi
continue. L'image de ϕ est alors compacte dans R (intervalle fermé) alors ϕ atteint son
maximum. C'est-à-dire ∃v ∈ S1 tel que

ϕ(x) ≤ ϕ(v) = hT v, vi := λ, ∀x ∈ S1 . (1.4)

On va montrer que T v = λv .
Soit y ∈ V \ {0} et soit
1
t ∈]0, ||y|| [, alors v + ty 6= 02 On en déduit :

v + ty
∈ S1 (1.5)
||v + ty||
et donc :

v + ty v + ty
ϕ(v) ≥ hT , i ⇔ λ||v + ty||2 ≥ hT (v + ty), v + tyi . (1.6)
| {z } ||v + ty|| ||v + ty||
λ

En développant à gauche :
 

λ||v + ty||2 = λh(v + ty), v + tyi = λ ||v||2 +2thv, y)i + t2 ||u||2  , (1.7)
| {z }
=1

et à droite :

hT (v + ty), v + tyi = hT v, vi +thT v, yi + t hT y, vi +t2 hT y, yi , (1.8)


| {z } | {z }
λ hy,T vi=hT v,yi

et on conclut (en utilisant t>0 pour pouvoir simplier par t) :

λ 2hv, yi + t||y||2 ≥ 2hT v, yi + thT y, yi .



(1.9)

1
Il faut utiliser une application linéaire T symétrique (hermitien) par rapport au produit scalaire hermitien
(voir Appendix A.3).
2
6 0.
Avec |||x|| − ||y||| ≤ ||x − y||, on a ||v + ty|| ≥ |||v|| − ||ty||| = |1 − t||y|| | =
| {z }
6=0
1.2. DIAGONALISATION DE MATRICES RÉELLES SYMÉTRIQUES 9

Si on prend la limite lorsque t → 0+ , on a :

2λhv, yi ≥ 2hT v, yi ⇒ 0 ≥ hT v − λv, yi , ∀y ∈ V \ {0} . (1.10)

Si on prend maintenant z = −y , on dérive aussi :

0 ≥ hT v − λv, zi = hT v − λv, −yi = −hT v − λv, yi


⇒ hT v − λv, yi ≥ 0 , ∀y ∈ V \ {0} (1.11)

On a alors :

hT v − λv, yi = 0 , ∀y ∈ V \ {0} ⇒ T v − λv = 0 ⇔ T v = λv (1.12)

On pose en = v et λn = λ.
Maintenant, on utilise l'hypothèse de récurrence. Soit W = {x ∈ V ; hx, en i = 0}. Alors
V 6= W et V = W ⊕ LinR (en ). On peut décomposer x∈V

x = x − hx, en ien +hx, en ien . (1.13)


| {z }
∈W

Si on note T |W la restriction de T à W, l'application T |W : W → W est linéaire et


symétrique (exercice). On peut alors faire usage de l'hypothèse de récurrence sur T |W :

∃ {e1 , . . . , en−1 } et (λ1 , . . . , λn−1 ) ∈ Rn−1 , (1.14)

tels que :

T |W ei = T |W ei = λi ei , ∀i ∈ {1, . . . , n − 1} , hei , ej i = 0 . (1.15)

On choisit nalement :

{e1 , . . . , en−1 , en } et (λ1 , . . . , λn−1 , λn ) , (1.16)

qui montrent le théorème.

Corollaire 1.1. Une matrice A ∈ Mn (R) symétrique est diagonalisable sur R.


Preuve :
On considère V = Rn avec le produit scalaire canonique

n
X
hx, yi = xt · y = xi y i ,
i=1

où x = xi ei avec B = {e1 , . . . , en } la base canonique. Si A ∈ Mn (R) est une matrice symétrique,


l'application

T : Rn → Rn
x 7→ A · x , où x = xi ei , B = {ei∈N } base canonique (1.17)
10 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

est linéaire et symétrique. Notez que A est la matrice de T dans la base canonique

A = M (T, B, B) (1.18)

Pour la symétrie,

t t t
hx, T yi = xt · A · y = xt · A · y = (A · y)t · xt = yt · A · x = yt · A · x
= (A · x)t · y = hT x, yi . (1.19)

Par le lemme précédent, ∃B 0 = {e01 , . . . , e0n } et {λ1 , . . . , λn } tels que

Ae0i = T e0i = λi e0i , et he0i , e0j i = δij (1.20)

Par la dénition D.2 on conclut que A est diagonalisable

Remarque 1.1. La matrice A est semblable à une matrice diagonale. En eet, on a

A = M (T, B) = M (T, B, B) et D = M (T, B 0 ) = M (T, B 0 , B 0 ) , (1.21)

et on peut écrire

A = M (T, B, B) = M (I, B 0 , B)M (T, B 0 , B 0 )M (I, B, B 0 )


= M (B 0 → B)M (T, B 0 , B 0 )M (B → B 0 ) = P DP −1 (1.22)

où P est la matrice de changement de base P = M (B 0 → B). On a

A = P DP −1 , D = P −1 AP (1.23)

Étant donné que P est la matrice de changement de base entre des bases orthonormées, la matrice
P est orthogonale, c.à.d P −1 = P t .

1.3 Exemples de matrices symétriques


Exemple 1.1 (Opérateur Laplacien: discrétisation) . Le premier exemple de matrice symétrique
est placé dans le contexte des équations aux dérivées partielles (EDP), en particulier dans une
classe de problèmes qui amènent à une équation

Ax = b , (1.24)

avec A symétrique et le vecteur b donnés.

a) EDP et Laplacien:
L'équation de Poisson est

∂2 ∂2 ∂2
−∆u = f , où ∆= + + . (1.25)
∂x2 ∂y 2 ∂z 2
L'opérateur ∆ est le Laplacien et cette équation est un exemple d'EDP de type dit ellip-
tique. Elle joue un rôle fondamental dans plusieurs contextes mathématiques et physiques.
Voici quelques exemples :
1.3. EXEMPLES DE MATRICES SYMÉTRIQUES 11

 Détermination du potentiel gravitationnel de Newton

−∆φgrav = −4πGρmasse . (1.26)

 Potentiel électrostatique

ρcharge
−∆φlec = . (1.27)

 états stationnaires de l'équation de la chaleur, avec une densité de ux de chaleur q
∂T
ρcp = k∆T + q (1.28)
∂t
Celle-ci est une EDP de type parabolique.
 états stationnaires de l'équation d'ondes avec forçage g

∂2u
− + c2 ∆u = g . (1.29)
∂t2
L'équation d'ondes est le prototype d'EDP de type hyperbolique.

b) Le Laplacien: un opérateur symétrique, (en fait, auto-adjoint 3 ). Nous con-


2 n
sidérons l'espace linéaire L (D ⊂ R ) de fonctions de carré intégrable, c.à.d f ∈ L2 (D) ssi
R 2 n 2 n
D f d x < ∞. L (D ⊂ R ) est un espace de Hilbert avec produit scalaire
Z
hf, gi = f gdn x . (1.30)
D

Remarque 1.2. espace de Hilbert complexe. Nous pouvons aussi considérer des fonctions
ϕ : D ⊂ Rn → C, |ϕ|2 dn x < ∞,
R
avec qui est aussi un espace de Hilbert avec produit
D
hermitien (sesquilinéaire)
Z
hϕ, φi = ϕ̄φdn x (1.31)
D

On va étudier une discrétisation de cet opérateur, notamment ce qu'on appelle des diérences
nies. Pour simplier, nous allons étudier le cas en dimension 1, avec des condiitions aux bords
dites "Dirichlet honogèenes". L'équation (1.25) devient

d2 u


= f (x) (1.32)
dx2
 u(0) = u(1) = 0

avec f ∈ C([0, 1], R). On peut montrer que u ∈ C 2 ([0, R]).


1
Étant donné N ∈ N, on dénit le pas de la discrétisation h =
N +1 , et on introduit les points
:

i
xi = ih = , ∀i ∈ {0, 1, . . . , N + 1} (1.33)
N +1
3
La notion d'opérateur auto-adjoint dans un espace linéaire de dimension innie implique des aspects subtils
sur le domaine de l'opérateur. Dans ce cours, nous ne discutons pas de ces questions.
12 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

Figure 1.1: Schéma de la discrétrisation par diérences nies.

On évalue l'équation (1.32) dans les points xi ∈ {1, . . . , N }. Notons que u(x0 ) = u(xN +1 ) = 0.
Ainsi :

−u00 (xi ) = f (xi ) , ∀i ∈ {0, 1, . . . , N + 1} (1.34)

où f (xi ) sont les valeurs exactes de la solution u(x) evalué sur xi . On va suposser que u ∈
C 4 ([0, 1], R). On peut alors écrire le développement de Taylor-Lagrange :

h2 00 h3 h4
u(xi+1 ) = u(xi + h) = u(xi ) + hu0 (xi ) + u (xi ) + u(3) + u(4) (ξi ) , ξi ∈]xi , xi+1 [ .(1.35)
2 6 24
De la même manière :

h2 00 h3 h4
u(xi−1 ) = u(xi − h) = u(xi ) − hu0 (xi ) + u (xi ) − u(3) + u(4) (ηi ) , ηi ∈]xi−1 , xi [ .(1.36)
2 6 24
Si on ajoute les deux expressions, on obtient :

h4 (4)
u(xi+1 ) + u(xi−1 ) = 2u(xi ) + h2 u00 (xi ) + (u (ξi ) + u(4) (ηi )) . (1.37)
24
Alors, on peut écrire :

−u(xi+1 + 2u(xi ) − u(xi−1 ) h2 (4)


−u00 (xi ) − = (u (ξi ) + u(4) (ηi )) (1.38)
h2 24
Si on dénit maintenant l'erreur de consistance Ri par :

−u(xi+1 + 2u(xi ) − u(xi−1 )


Ri = −u00 (xi ) − , (1.39)
h2
on a

h2 (4)
Ri = (u (ξi ) + u(4) (ηi )) , (1.40)
24
de telle manière que :
 
h2 (4) h2 
|u (ξi ) + u(4) (ηi )| ≤ |u(4) (ξi )| |u(4) (ηi )|

|Ri | =  + 
24 24  | {z } | {z } 
≤supx∈]0,1[ |u(4) (x)| ≤supx∈]0,1[ |u(4) (x)|

h2 h2 (4)
= sup |u(4) (x)| = ||u ||∞ . (1.41)
12 x∈]0,1[ 12 | {z }
<∞
1.3. EXEMPLES DE MATRICES SYMÉTRIQUES 13

Cela nous dit que l'erreur de consistance tend vers 0 comme h2 (on dit que le schéma est consistant
à l'ordre 2).
L'idée maintenant est de se rapprocher du problème originel par un problème discret, en
faisant

d2 u −u(xi+1 ) + 2u(xi ) − u(xi−1 )


2
∼ . (1.42)
dx h2
Néanmoins, cette expression utilise les valeurs exactes u(xi ), mais ces valeurs sont précisément
les inconnues qu'on cherche à trouver. À ce point, nous introduisons des valeurs ui qui vont
représenter des approximations des vraies valeurs de u(xi ). Si on a aussi bi = f (xi ) (valeurs
exactes du membre à droite!), nous pouvons dénir le problème discret

( −ui+1 + 2ui − ui−1


− = bi , i ∈ {1, . . . , N }
h2 (1.43)
u0 = uN +1 = 0

Si on dénit la matrice ∆N , par ses éléments matriciels :

2

 h2
, i = j , i, j ∈ {1, . . . , N }
(∆N )ij = − h12 , |i − j| = 1 , i, j ∈ {1, . . . , N } (1.44)
0 , |i − j| > 1 , i, j ∈ {1, . . . , N }

on peut écrire le problème (1.43) comme

∆N u = b (1.45)

Pour avoir une idée, les premières matrices ∆N sont de la forme :

 
  2 −1 0 0
  2 −1 0
2 −1 −1 2 −1 0
∆2 = , ∆3 = −1 2 −1 , ∆4 =  ,
−1 2  0 −1 2 −1
0 −1 2
0 0 −1 2

On verra que cette matrice est inversible (en fait elle symétrique dénie positive), ce qui nous
permet de trouver la solution approchée comme :

u = (∆N )−1 b . (1.46)

Cette équation diérentielle nous amène à notre premier problème matriciel de type Ax = b, et
on peut déjà voir que si N devient très grand, le problème d'inversion de ∆N devient non-trivial.
Ce problème d'inversion des matrices de grande taille, et en particulier des matrices symétriques,
sera un des sujets fondamentaux de ce cours.
Un autre aspect important, déjà présent dans ce problème? concerne la convergence de la
méthode. Notamment, l'attente est que, lorsque h → 0, la solution approchée ui tend vers u(xi ).
C'est-à-dire que, si on dénit l'erreur comme :

ei = u(xi ) − ui , i ∈ {1, . . . , N } , (1.47)

on peut voir en appliquant les résultats précédents que :

∆n e = R , (1.48)
14 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

où Ri est donné par (1.40). Alors,

e = (∆N )−1 R . (1.49)

Le fait que |Ri | tende vers 0 h → 0 est bon, mais ce n'est pas susant pour garantir que
quand
e → 0. Pour ça, il faut montrer que ∆N , qui dépend de h, est telle que l'on puisse donner un
sens à la norme ||(∆N )
−1 || et elle qu'elle soir, notamment bornée indépendamment de h. Ce

type de question liant la convergence d'un schéma avec la norme d'une matrice approprié sera
aussi l'objet de notre cours.
Chapitre 2

Méthodes directes

Dénition 2.1 (méthode directe) . On appelle méthode directe de résolution de

Ax = b , A ∈ Mn (R) , x, b ∈ Rn (2.1)

une méthode qui donne exactement x (A et b étant connus), solution de (3.34) après un nombre
ni d'opérations élémentaires.

2.1 Décomposition LU (méthode de Gauss/ d'échelonnement)


Le principe de la méthode est de transformer un système linéaire, par des combinaisons linéaires et
des permutations de lignes, dans un système triangulaire équivalent. On va rappeler la procédure
de cette méthode, étudiée dans les cours précédents avec un exemple.

Exemple 2.1. On considère le problème (3.34) avec :

   
4 −2 6 12
A =  2 −4 9  , b = −24 . (2.2)
−4 5 −9 12

On construit la matrice augmentée:

 
4 −2 6 12

à = A b =  2 −4 9 −24 , (2.3)
−4 5 −9 12

Et on procède avec la méthode de pivot déjà étudiée pour transformer A en une matrice tri-
angulaire supérieure. Simplement, dans ce process, on va garder systématiquement l'information
des lignes qu'on retranche à chaque pas de l'itération. Concrètement, vu que `1 (1) = 4 6= 0, nous
pouvons l'utiliser comme pivot. Si on note Ã0 =Ã
 
`2 →`2 − 42 `1
4 −2 6 12
Ã0 −→ Ã1 =  0 −3 6 −30 . (2.4)
−4 5 −9 12

Notons que cette transformation de à et b, qui change la deuxième ligne en lui retranchant la
1
première ligne multipliée par un facteur
2 est le résultat de multiplier Ã0 par la gauche par la

15
16 CHAPITRE 2. MÉTHODES DIRECTES

matrice :
     
1 0 0 0 0 0 1 0 0
1
E1 = 0 1 0 − 1 0 0 = − 12 1 0 (2.5)
2
0 0 1 0 0 0 0 0 1

On procède de la même manière pour échelonner la matrice :


   
`3 →`3 − −4 `
4 −2 6 12 −3
`3 →`3 − −3 `1
4 −2 6 12
4 1
Ã1 −→ Ã2 = 0 −3 6 −30 −→ Ã3 = 0 −3 6 −30 , (2.6)
E2 E3
0 3 −3 24 0 0 3 −6
avec
   
1 0 0 1 0 0
E2 = 0 1 0 , E3 = 0 1 0 (2.7)
1 0 1 0 1 1

Comme résultat de la procédure, autant que tous les pivots qu'on trouve soient diérents de zéro,
on construit un système linéaire équivalent Ã3 x = b̃ échelonné qu'on peut résoudre facilement
par remontée. Le résultat est
 
9
x= 6  (2.8)
−2

Si on a besoin de résoudre ce système pour diérents vecteurs b, dans chaque cas on doit répéter le
calcul du vecteur b̃ (dans le process d'échelonnement de A). Si le nombre d'équations à résoudre
est élevé, cette répétition est clairement à éviter en cherchant une méthode plus ecace. Si on
regarde notre exemple, on note que c'est ce qu'on a fait, on peut l'écrire :

Ax = b −→ E3 E2 E1 A x = E3 E2 E1 b , (2.9)
| {z }
U

où U est une matrice triangulaire supérieure (c.à.d. uij = 0, si i > j ). Le matrices Ei sont
inversibles et on peut alors multiplier l'expression à gauche

Ax = (E3 E2 E1 )−1 U x = b = E1−1 E2−1 E3−1 U x = LU x = b (2.10)


| {z }
L

avec
     
1 0 0 1 0 0 1 0 0
(E1 )−1 =  12 1 0 , E2−1 =  0 1 0 , E3−1 = 0 1 0 (2.11)
0 0 1 −1 0 1 0 −1 1

Ce qui amène à :
 
1
0 0
L =  12 1 0 (2.12)
−1 −1 1

L est une matrice triangulaire inférieure (lij = 0, i < j ) avec des 1 dans la diagonale principale
et les éléments non nuls sont les coecients qu'on a utilisé pour retrancher chaque ligne dont
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 17

le pivot est non nul dans le process d'échelonnement


1 . En particulier nous avons décomposé la

matrice A comme le produit d'une matrice triangulaire inférieure L et d'une matrice triangulaire
supérieure U

A = LU . (2.15)

En particulier, dans notre exemple


  
1
0 0 4 −2 6
A =  12 1 0 0 −3 6 (2.16)
−1 −1 1 0 0 3
Notez que la décomposition de A comme produit d'une matrice triangulaire inférieure et d'une
matrice triangulaire supérieure n'est pas unique. Par exemple, on peut multiplier la première
1
par 2 et la deuxième par
2
  
2 0 0 2 −1 3
A=  1 2 0  0 − 32 3 , (2.17)
3
−2 −2 2 0 0 2

et on peut aussi trouver d'autres paires de matrices


  
2 0 0 2 −1 3
A =  1 −3 0 0 1 −2 . (2.18)
−2 3 1 0 0 3

Ce qui est particulier de la décomposition (2.16) c'est que les éléments de la diagonale principale
de la matrice L sont seulement des 1. Comme va le voir plus tard, une telle décomposition est
unique et on l'appelle décomposition LU de la matrice A.
Si on utilise cette décomposition, on peut résoudre le système original

Ax = b
LU x = b (2.19)

en deux pas, en introduisant un vecteur y intermédiaire

Ly = b
Ux = y (2.20)

1
En général, la structure de matrice sera toujours
     
1 0 0 1 0 0 1 0 0
(E1 ) = −a 1 0 , E2 = 0 1 0 , E3 = 0 1 0
 0 0 1
 −b 0 1 0 −c 1
(2.13)
1 0 0 1 0 0 1 0 0
(E1 )−1 = a 1 0 , E2−1 = 0 1 0 , E3−1 = 0 1 0
0 0 1 b 0 1 0 c 1
Ce qui amène à :
 
1 0 0
L = E1−1 E2−1 E3−1 = a 1 0 (2.14)
b c 1
18 CHAPITRE 2. MÉTHODES DIRECTES

Étant donné b, la résolution pour y est directe car L est échelonnée. En particulier, vu que L
est triangulaire inférieure, on va résoudre par descente. Une fois y calculé, on résout pour x par
remontée. La procédure peut être répétée en commençant toujours avec b.

2.1.1 Algorithme LU, sans permutation

Nous présentons maintenant les pas pour résoudre le système par factorisation, dans le cas que
tous les pivots qu'on trouve soient diérents de zéro.

1. Factorisation.
On passe en n−1 pas de la matrice A(1) à une matrice A(n) = U triangulaire supérieure.
Dans le process, on construit la matrice L.

i) Pas k = 1: On initialise la matrice A(1) = A et on dénit la première ligne de U. Si


a11 6 0 (pivot non-nul), on fait
=
(1)
aij = aij , i, j ∈ {1, . . . , n}
(1)
u1j = a1j , j ∈ {1, . . . , n} (2.21)

ii) Pas k + 1 < n: On construit la colonne k de L, la matrice A(k+1) et la ligne k+1 de


U . Si ak,k 6= 0 (pivot non-nul)
a) Pour L:
(k)
aik
li,k = 0 , i < k , lkk = 1 , lik = (k)
, i>k . (2.22)
akk

b) Pour A(k+1) :
(k+1) (k)
aij = aij , i ∈ {1, . . . , k}, j ∈ {1, . . . , n}
(k+1) (k) (k)
aij = aij − lik akj , i ∈ {k + 1, . . . , n}, j ∈ {1, . . . , n} . (2.23)

c) Pour U:
(k+1)
uk+1,j = ak+1,j , j ∈ {1, . . . , n} (2.24)

iii) Pas k = n: On agit comme dans le cas k+1<n et on nit la dernière colonne de L
li,n = 0 , i < n , lnn = 1 . (2.25)

On constate que U = A(n) .


2. Descente: On calcule y (où Ly = b)
i−1
X
yi = bi − lik yk , i ∈ {1, . . . , n} (2.26)
k=1

3. Remontée: On calcule x (où U x = y)


n
!
1 X
xi = yi − uik xk , i ∈ {n, . . . , 1} (2.27)
uii
k=i+1
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 19

Remarque 2.1 (Factorisation, version matricielle) . Le pas 1 de la procédure précédente peut


s'écrire d'une façon plus compacte :

i) Pas k = 1:

A(1) = A . (2.28)

ii) Pas k + 1 ≤ n: On introduit la matrice Ek avec des zéros partout sauf dans la diagonale
principale (diag[1 . . . 1]) et en dessous de la diagonale principale dans la colonne k:

1 ... 0 ... ... 0 1 ... 0 ... ... 0


   
 .. . . .
.
0 . 0 0 . . 0 .

. .
. .
 . .

. . . .
. 1 0 . . 1 0 .
. (k) (k)
.
 −1
. .

Ek =  −ak+1,k , Ek =  ak+1,k (2.29)
 .. (k) 1 .
.  .. (k) 1 .
.
 akk   akk 
. . ..
 . . ..

 .. .
. . 0
  .. .
. . 0
  
(k) (k)
−an,k an,k
   
0 ... (k) ... 0 1 0 ... (k) ... 0 1
akk akk

On a alors

A(k+1) = Ek A(k) (2.30)

iii) Une fois le process ni, on construit :

U = A(n)
1 ... 0 ... ... 0
 
 a(1) .. .
.
 2,1 . 0 .
 a(1)
 11

 .. .

.
 . 1 0 .
L = E1−1 · . . . · En−1 =  .. (k)
. (2.31)
 ak+1,k

.
 . (k) 1 .
 akk 
 . . ..

 .. .
. . 0
 
 a(1) (k) (n−1)
n,1 an,k an,n−1

(1) ... (k) ... (n−1) 1
a11 akk an−1,n−1

Notez:

a) Comme on peut le voir dans la notation adoptée dans le pas ii), on a regroupé dans la
matrice Ek tous les coecients utilisés pour obtenir des zéros sous la diagonale principale
à la colonne k. En général, une matrice Ek est une matrice triangulaire inférieure, avec
des 1 dans la diagonale principale et des éléments non nuls seulement dans la colonne k en
dessous de la diagonale.

b) La matrice L a une forme très simple: elle est triangulaire inférieure, avec pour diagonale
diag(1, . . . , 1) et l'élément lij est le coecient par lequel on a multiplié la ligne de pivot
(j)
ajj avant de la retrancher de la ligne i.
20 CHAPITRE 2. MÉTHODES DIRECTES

2.1.2 Algorithme LU, avec permutation

Dans la discussion précédente, on a supposé qu'à chaque pas de l'itération, on trouve un pivot
non nul. Ceci n'est pas le cas en général. Pour illustrer la manière de procéder quand on trouve
un pivot nul, on commence avec un exemple.

Exemple 2.2 (Une première décomposition LU .


avec permutation) On considère l'exemple de
la matrice :
 
1 1 1
A = 1 1 −1 . (2.32)
2 1 1
Le premier pas de la méthode LU :
 
`2 → `2 − `1 1 1 1
`3 → `3 − 2`1
A(1) = A  −→  A(2) = 0 0 −2 (2.33)
1 0 0
E1 =−1 1 0
0 −1 −1
−2 0 1

produit un zéro pour le deuxième pivot. Pour pouvoir continuer, on interchange simplement la
deuxième et la troisième ligne. En eet, cette opération ne change le système linéaire associé.
Concrètement :
 
1 1 1
`2 ↔`3
A(2) −→  Ã(3) = 0 −1 −1 (2.34)
1 0 0
P2 =0 0 1
0 0 −2
0 1 0

Dans ce cas, l'itération a déjà abouti à une matrice triangulaire supérieure. On peut écrire les
pas suivants :

P2 E1 A = U (2.35)

Notons que P2 E1 n'est pas triangulaire inférieure. En eet,


    
1 0 0 1 0 0 1 0 0
P2 E1 = 0 0 1 −1 1 0 = −2 0 1 6= L (2.36)
0 1 0 −2 0 1 −1 1 0
Notez, néanmoins, qu'on peut écrire :
    
1 0 0 1 0 0 1 0 0
P2 E1 = −2 0 1 = −2
   1 0 0 0 1 = E10 P2 (2.37)
−1 1 0 −1 0 1 0 1 0
| {z }
E10

où E10 est obtenue à partir de E1 en interchangeant, dans la colonne 1, deux éléments (dans ce
cas, les deuxième et troisième). Ainsi, on peut réécrire (2.35)

E10 P2 A = U
P2 A = (E10 )−1 U = LU . (2.38)
| {z }
L
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 21

Autrement dit,

     
1 0 0 1 1 1 1 0 0 1 1 1
0 0 1 1 1 −1 = 2 1 0 0 −1 −1 (2.39)
0 1 0 2 1 1 1 0 1 0 0 −2
| {z }| {z } | {z }| {z }
P2 A L U

On a pas réussi
2 à écrire A = LU . Par contre, on a trouvé un réarrangement des lignes de A,
donné par P 2 A, qui admet en fait la décomposition P2 A = LU . Dans le théorème 2.1, on va
montrer qu'on peut toujours trouver une telle décomposition.

La matrice P2 dans l'exemple précédent est un cas de matrice de permutation P, qui nous a
servi à réordonner les lignes dans la procédure de Gauss pour trouver un pivot non nul.

Erreur d'arrondi est choix de pivot.


Même si nous ne sommes pas obligés de réarranger les lignes pour obtenir un pivot non nul, nous
pouvons nous intéresser à un tel changement d'ordre. En général, étant donnée une matrice A,
il n'y a pas une seule matrice de permutation P telle qu'on puisse écrire P A = LU . Diérents
P sont possibles et chaque P amène génériquement a un couple (L, U ) diérent.
Un choix privilégié du point de vue numérique consiste à arranger les lignes de telle manière
qu'on choisisse comme pivot, à chaque pas de l'itération de la méthode de Gauss, le coecient
avec la plus grande valeur absolue. La raison est la limitation des erreurs d'arrondi: si on peut
garder seulement un nombre ni de chires signicatifs, comme c'est le cas avec un ordinateur,
c'est mieux de travailler avec des nombres avec des petites valeurs absolues plutôt qu'avec des
nombres des grandes valeurs absolues. Vu que, dans la méthode de Gauss, il faut diviser à chaque
pas le pivot, ça nous amène au choix signalé.
On reprend l'exemple 2.2 pour illustrer ce point.

Exemple 2.3 (Non-unicité de P dans la décomposition P A = LU ). Si on considère à nouveau


la matrice (2.32), en regardant la colonne 1, on voit que, dans le premier pas de l'itération, on
peux interchanger les lignes 1 et 3 de manière à ce que le pivot choisi soit celui avec la valeur
absolue la plus grande. Explicitement, cela donne :

   
1 1 1 2 1 1
`1 ↔`3
A(1) = A = 1 1 −1 −→  Ã(1) = 1 1 −1
0 0 1
2 1 1 1 1 1
P 1 =0 1 0
1 0 0

1`
 
`2 → `2 − 2 1 2 1 1
`3 → `3 − 1 `
2 1
 −→  A(2) = 0 21 − 32 
1 0 0
E1 =− 12 1 0
0 21 1
2
− 21 0 1
 
2 1 1
`3 →`3 −`2
 −→  A(3) = 0 21 − 32  (2.40)
1 0 0
E2 =0 1 0
0 0 2
0 −1 1

2
En fait, on peut montrer que pour cette matrice, ce n'est possible à faire (voir caractérisation dans le théorème
2.1).
22 CHAPITRE 2. MÉTHODES DIRECTES

Finalement, on a obtenu la matrice triangulaire supérieure U = A(3) en faisant

E2 E1 P1 A = U , (2.41)

qu'on peut réexprimer comme suit :

P1 A = E1−1 E2−1 U (2.42)


| {z }
L

     
0 0 1 1 1 1 1 0 0 2 1 1
0 1 0 1 1 −1 =  12 1 0 0 12 − 23  (2.43)
1
1 0 0 2 1 1 1 1 0 0 2
| {z }| {z } | 2 {z }| {z }
P1 A L U

Ici, P1 est à nouveau une matrice de permutations mais elle est diérente de celle de l'exemple
(2.2).

Dénition 2.2 (matrice de permutation). Une matrice P ∈ Mn (N) est une matrice dont les
éléments sont des 0 ou des 1 et telle qu'il y a un seul 1 par ligne et par colonne. Autrement
dit, étant donnée une permutation {σ(1), . . . , σ(n)} des éléments {1, . . . , n}, les éléments de la
matrice de permutation associée à σ P σ s'écrivent :

σ 1, σ(i) = j
Pij = δσ(i),j = (2.44)
0, σ(i) 6= j

Remarque 2.2. Dans notre contexte, nous commentons quelques points:

i) Si on voit P σ comme la matrice d'une application linéaire dans une base B = (e1 , ..., en ),
σ
la matrice P réordonne simplement les éléments de la base pour donner une nouvelle base
0
ordonnée B = (eσ(1) , . . . , eσ(n) ).

ii) étant donnée une matrice A ∈ Mn (R),en multipliant par P à gauche (A → P A), on
réordonne les lignes de A, tandis qu'en multipliant à droite (A → AP ), on réordonne les
colonnes.

iii) Transpositions. Pour notre problème, il sut de considérer des transpositions, c'est-à-dire
des permutations qui interchangent simplement deux éléments. Dans ce cas, l'expression
matricielle est particulièrement simple :

1
 
..
.
 
 

 0 ... ... ... 1 

. .
. .
 

 . 1 . 

. .. .
P (i,j) = . . (2.45)
 
. . . 
. .
 
. .
 
 . 1 . 
 
 1 ... ... ... 0 
..
 
.
 
1

Avec cette notation, la matrice P2 de l'exemple 2.2 est écrite P2 = P (23)


2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 23

Nous pouvons maintenant présenter le procédé de factorisation dans la décomposition LU


dans le cas général d'un possible arrangement des lignes à chaque pas de l'itération.

Factorisation dans l'algorithme LU avec permutations (version matricielle).


Nous suivons les trois pas dans 2.1:

i) Pas k = 1:

A(1) = A . (2.46)

ii) Pas k + 1 ≤ n: D'abord, on arrange les lignes de la matrice en multipliant à gauche par
une permutation Pk (notamment une transposition) qui change seulement l'ordre des lignes
`(i) avec i ≥ k. Après, on multiplie (à gauche) par la matrice Ek de (2.29). On a alors

A(k+1) = Ek Pk A(k) (2.47)

iii) Une fois le procédé ni, on construit une matrice triangulaire supérieure

(En−1 Pn−1 ) . . . (E2 P2 )(E1 P1 )A = A(n) = U . (2.48)

La diérence fondamentale avec le cas sans permutation est que les pas précédents n'amènent
pas directement, en général, à une matrice triangulaire inférieure comme L = (E1 )−1 . . . (En−1 )−1 .
En eet, en général, les matrices Ek et Pk+l (avec l ≥ 1) ne commutent pas, ce qui empêche de
factoriser la matrice En−1 . . . E1 à gauche dans (2.48). On peut illustrer ceci avec un exemple.
Si on considère le cas n = 4, on peut écrire (2.48) comme :

(E3 P3 )(E2 P2 )(E1 P1 )A = U (2.49)

Comme on l'a dit, les matrices Ei et Pj ne commutent pas en général, alors on ne peut pas écrire
(E3 E2 E1 )(P3 P2 P1 )A = U . En eet, si on considère par exemple le troisième pas de l'algorithme,
on peut écrire :

   
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
E2 = 
0
 , P3 =   , (2.50)
a 1 0 0 0 0 1
0 b 0 1 0 0 1 0

pour certains a et b. Si on calcule P3 E2 et E2 P3 , on obtient :

   
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
P3 E2 = 
0
 , E2 P3 =   (2.51)
b 0 1 0 a 0 1
0 a 1 0 0 b 1 0

et on constate que P3 E2 − E2 P3 6= 0. Néanmoins on peut observer que si dans P3 E2 , on


interchange la troisième et la quatrième colonne (ce qu'on fait en multipliant à droite par P3 ),
on récupère une matrice type Ek . Plus spéciquement, on a :

P3 E2 = P3 E2 (P3 P3 −1 ) = E20 P3 , (2.52)


| {z }
I4
24 CHAPITRE 2. MÉTHODES DIRECTES

où (on a aussi utilisé P3 −1 = P3 )


 
1 0 0 0
0
0 1 0 0
E2 = 
0
 (2.53)
b 1 0
0 a 0 1
est, en eet, une matrice type Ek dans (2.29), obtenue de E2 précisément en interchangeant les
coecients 3 et 4 (ceux interchangés par P3 ) dans la colonne 2.
Cette propriété de commutation n'est pas valable pour n'importe quelle permutation et ma-
trice typeEk , mais il n'est pas dicile à se convaincre qu'elle est en fait valide pour les matrices
spéciques qu'on est en train considérer: notamment, les permutations Pk+l (l ≥ 1) correspon-
dant à l'arrangement de lignes après la ligne dont le pivot correspond à Ek . Dans ce cas, on
a

Pk+l Ek = Ek0 Pk+l , l ≥ 1 , (2.54)

où Ek0 est obtenue à partir de Ek en interchangeant les éléments dans la colonne k sous la diagonale
0
principale, d'accord avec la permutation Pk+l (cf. E2 et E2 en (2.50) et (2.53), respectivement).
Pour l'expression générale, pour le cas des transpositions, on a :

(i ,jo ) (i ,jo )
o
Pk+l Ek = Ek0 Pk+l
o
, (2.55)

avec

(Ek0 )io ,k = (Ek )jo ,k


(Ek0 )jo ,k = (Ek )io ,k
(Ek0 )i,j = (Ek )i,j pour le reste, c.à.d. j 6= k ou (i 6= io , jo ) . (2.56)

Nous sommes maintenant en condition pour énoncer et démontrer le théorème de décompo-


sition LU avec permutations.

Théorème 2.1 (Décomposition LU ). Soit A ∈ Mn (R) une matrice inversible. Alors il existe une
permutation P (non unique) telle que, pour ce P , il existe un et un seul couple de matrices (L, U )
où L est triangulaire inférieure de termes diagonaux égaux à 1 et U triangulaire supérieure, avec
P A = LU . (2.57)

Preuve :
• Existence.
L'existence découle directement de l'expression (2.48) comme résultat de la factorisation
dans l'algorithme LU avec permutations. On peut alors écrire :

En−1 Pn−1 . . . E2 P2 E1 P1 A = U. (2.58)

Si on utilise maintenant (2.54) pour passer les permutations Pi vers la droite, on a :

0
En−1 En−2 Pn−1 . . . E20 P3 E10 P2 P1 A = U
...
0 n−3) n−2)
(En−1 En−2 . . . E2 E1 ) (Pn−1 Pn−2 . . . P3 P2 P1 )A = U . (2.59)
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 25

Si on dénit maintenant L et P comme :

0 n−3) n−2) −1 n−2) −1 n−3) −1 0


L = (En−1 En−2 . . . E2 E1 ) = (E1 ) (E2 ) (En−2 )−1 (En−1 )−1
P = Pn−1 Pn−2 . . . P3 P2 P1 , (2.60)

on peut écrire

P A = LU . (2.61)

Notez que la preuve d'existence n'utilise pas le fait que A soit inversible.

• Unicité.
On suppose que pour P donné, il existe deux couples (L1 , U1 ) et (L2 , U2 ), tels que:

P A = L1 U1 , P A = L2 U2 , (2.62)

alors

L1 U1 = L2 U2 (2.63)

Si A est inversible, vu que L1 et L2 sont inversibles, on conclut que U1 et U2 sont inversibles.


Ainsi, on peut multiplier (2.63) à gauche par L−1 −1
2 et à droite par U1 . On obtient

L−1 −1
2 L1 = U2 U1 (2.64)

3 le fait que L−1


Maintenant, on utilise 2 L1 est une matrice triangulaire inférieure avec
−1
diag(1, . . . , 1) pour diagonale principale et U2 U1 est une matrice triangulaire supérieure.
Alors, nécessairement, on a :

L−1 −1
2 L1 = In = U2 U1 , (2.65)

et on conclut

L1 = L2 , U1 = U2 (2.66)

Remarque 2.3 . Faisons quelques remarques générales sur le résultat de la décomposition PA =


LU :

i) Dans le résultat de la décomposition P A = LU , on arme l'existence de P, mais pas son


unicité.

ii) étant donnée P , si A est inversible, L et U sont uniques. Mais si A n'est pas inversible, la
décomposition P A = LU peut toujours se faire, mais elle n'est pas unique.

3
Exercice! (Matrices triangulaires). Montrer que pour L1 , L2 matrices triangulaires inférieures (respectivement
U1 , U2 matrices triangulaires supérieures), les matrices L−1
1 , L2 , L1 · L2 sont triangulaires inférieures (respective-
−1

ment, U1 , U2 , U1 · U2 sont triangulaires supérieures).


−1 −1
26 CHAPITRE 2. MÉTHODES DIRECTES

Exemple 2.4 (Non-unicité de P A = LU , A non-inversible).


pour Si on considère
 
0 1
A= (2.67)
0 1
on peut vérier ∀λ ∈ R
    
0 1 1 0 0 1
= (2.68)
0 1 λ 1 0 1−λ
Cette non-unicité est consistent avec la non-inversibilité de A

i) Pivot partiel versus pivot total. Dans l'algorithme qui amène à la construction des matrices
L et U (partie d'existence), on interchange seulement les lignes, et pas les colonnes, pour
trouver le pivot avec la valeur absolue la plus grande. On parle de pivot partiel. Pour le
pivot total, on chercherait le plus grand pivot en changeant aussi les colonnes.

ii) L'algorithme du pivot partiel dans le problème Ax = b, ne réarrange pas les composantes
de x vu qu'on ne change pas le colonnes de A. Le vecteur b, par contre, est en général
réarrangé.

Caractérisation A = LU sans permutation


Avant de considérer plus spéciquement le cas de matrices symétriques dénies positives, nous
allons donner une caractérisation de la possibilité d'écrire A = LU sans matrice de permutation
P. D'abord, nous devons introduire la dénition suivante.

Dénition 2.3 (matrice principale, mineur principal) . Soit A ∈ Mn (R) et k ∈ {1, . . . , k}. On
appelle:

i) Matrice principale d'ordre k de A, la matrice Ak ∈ Mk (R) dénie par (Ak )ij = Aij , ∀i, j ∈
{1, . . . , k}.

ii) Mineur principal d'ordre k, le déterminant de la matrice principale d'ordre k.

Avec ces éléments, nous pouvons énoncer la caractérisation suivante.

Proposition 2.1 (Caractérisation de A = LU , sans permutation) . Soit A ∈ Mn (R). Les deux


propriétés suivantes sont équivalentes:
i) Il existe une unique couple (L, U ), avec L matrice triangulaire inférieure dont les coecients
diagonaux sont égaux à 1 et U une matrice inversible triangulaire supérieure, tel que A =
LU .

ii) Les mineurs principaux de A sont tous non nuls.


Avant de démontrer ce résultat, on va introduire le lemme technique suivant.

Lemme 2.1. Soit A ∈ Mn (R) et k ∈ {1, . . . , n}. On suppose que pour chaque matrice principale
Ak de A, il existe une matrice Lk ∈ Mk (R) triangulaire inférieure avec des coecients diagonaux
tous égaux à 1 et une matrice triangulaire supérieure Uk ∈ Mk (R) inversible, telles que Ak =
Lk Uk . On a alors:
2.2. DÉCOMPOSITION DE CHOLESKI 27

a) On peut écrire A sous la forme :


  
Lk 0k×(n−k) Uk Bk
A= , (2.69)
Ck In−k 0(n−k)×k Dk

où Bk ∈ Mk,n−k (R), Ck ∈ Mn−k;k (R) et Dk ∈ Mn−k;n−k (R).


b) En particulier, la matrice principale d'ordre k + 1 s'écrit sous la forme
  
Lk 01×k Uk bk
Ak+1 = , (2.70)
ck 1 0k×1 dk

où (bk ) ∈ Mk,1 (R) est la première colonne de la matrice Bk , (ck ) ∈ M,k (R) est la première
ligne de la matrice Ck , et dk est le coecient de la ligne 1 et colonne 1 de Dk .
Preuve: À compléter.
Preuve (de la proposition 2.1): À compléter.

2.2 Décomposition de Choleski


Dans cette section, nous allons nous concentrer sur le cas des matrices symétriques dénies
positives.

Dénition 2.4 (Matrice dénie positive) . A ∈ Mn (R) est symétrique dénie positive si :
i) A = At (symétrique).

ii) Ax · x > 0, ∀x ∈ Rn \ {0} (dénie positive).

Un exemple important de ce type de matrice est la discrétisation du Laplacien qu'on a étudié


dans l'exemple 1.1.
Une caractérisation très utile des matrices symétriques dénies positives est donnée en termes
de mineurs principaux.

Proposition 2.2 (Caractérisation d'une matrice symétrique dénie positive par ses mineurs
principaux). A ∈ Mn (R) est symétrique dénie positive si et seulement si tous ses mineurs
principaux sont strictement positifs.

En particulier, comme conséquence de la proposition 2.1, une matrice A symétrique dénie


positive admet toujours une (unique) décomposition A = LU sans permutation. Dans cette
section nous allons discuter une autre factorisation spécialement adaptée au caractère symétrique
et déni positif de ces matrices. Nous commençons avec un exemple qui part de la décomposition
LU .

Exemple 2.5 (Premier contact avec la factorisation de Choleski) . Nous considérons la matrice

 
1 1 2
A = 1 5 6  . (2.71)
2 6 17
28 CHAPITRE 2. MÉTHODES DIRECTES

La matrice A est symétrique et, comme on peut le vérier à partir e.g. du calcul de ses mineurs
principaux, elle est aussi dénie positive. Alors, elle admet une décomposition A = LU unique.
On va construire explicitement une telle décomposition.
     
1 1 2 `2 → `2 − `1 1 1 2 1 1 2
`3 → `3 − 2`1 `3 →`3 −`2
1 5 6  −→
 
0 4 4  −→
 
0 4 4 . (2.72)
1 0 0 1 0 0
2 6 17 (E −1 =1 1 0
0 4 13 (E −1 =0 1 0
0 0 9
1) 2)
2 0 1 0 1 1

Alors, on peut écrire


    
1 1 2 1 0 0 1 1 2
1 5 6  = 1 1 0  0 4 4 (2.73)
2 6 17 2 1 1 0 0 9
| {z }| {z }
L U

Notez qu'on peut écrire :


    
1 1 2 1 0 0 1 1 2
U = 0 4 4  = 0 4 0  0 1 1 (2.74)
0 0 9 0 0 9 0 0 1
| {z }| {z }
D Lt

où D est la diagonale principale de U. Alors,

A = LDLt (2.75)

Nous notons que tous les coecients de D sont strictement positifs. Alors, nous pouvons intro-
duire la matrice racine carrée
 
1 0 0
1
D 2 = 0 2 0  (2.76)
0 0 3
pour écrire :
     
1 0 0 1 0 0 1 0 0 1 1 2
1 1
A = LD 2 D 2 Lt = 1 1 0 0 2 0 0 2 0 0 1 1
2 1 1 0 0 3 0 0 3 0 0 1
| {z } | {z }
L̃ L̃t
   
1 0 0 1 1 2
= 1 2 0 0 2 2 (2.77)
2 2 3 0 0 3
| {z } | {z }
L̃ L̃t

C'est-à-dire, on a écrit
 
1 0 0
A = L̃L̃t , avec L̃ = 1 2 0 . (2.78)
2 2 3

La matrice L̃ est triangulaire inférieure avec coecients positifs dans la diagonale principale.
L'expression (2.78) s'appelle la décomposition de Choleski de A.
2.2. DÉCOMPOSITION DE CHOLESKI 29

Le pas clé, dans l'exemple précédent, est la possibilité de prendre (dans les réels) la racine
carrée de la matrice D dénie pour la diagonale principale de U. Dans l'exemple suivant, le cas
de la décomposition de Choleski dans M2 (R), on voit que ceci est une conséquence du caractère
symétrique déni positif des matrices considérées. Après l'exemple, ceci est énoncé en toute
généralité.

Exemple 2.6 (Décomposition de Choleski: cas n = 2). On considère une matrice A ∈ M2 (R)
symétrique dénie positive, on peut toujours écrire :
 
a b
A= . (2.79)
b c
 
1
Si on prends x= , le caractère déni positif de A implique
0
  
t
 a b 1
Ax · x = x Ax = 1 0 =a>0. (2.80)
b c 0
Autrement dit, le mineur principal A1 = a > 0, comme il en résulte de la caractérisation 2.2.
Ainsi, étant donné que a > 0, on peut procéder à la décomposition LU
   
a b `2 →`2 − ab `1 a b
A= −→  2 . (2.81)
b c 
1 0 0 c − ba
L= b
a
1

Alors, on peut écrire :

1 ab
      
1 0 a b 1 0 a 0
A= b 2 = b 2 (2.82)
a 1 0 c − ba a 1 0 c − ba 0 1
| {z } | {z } | {z } | {z } | {z }
L U L D Lt

Si on utilise maintenant le reste de l'information sur A, notamment la positivité du mineur


b 2
A2 = ac − b2 > 0, on conclut (avec a > 0) c − > 0. On peut alors écrire :
a
 √a 0
! √
a q 0
!
1 ab
 
1 0
A = b
q
2 2 (2.83)
1 0 c − ba 0 c − ba 0 1
| a {z } | {z } | {z } | {zt }
L 1 1 L
D2 D2
√ ! √
√b
!
a q 0 a
= q a (2.84)
b b2 b2

a
c− a 0 c− a
| {z }| {z }
L̃ L̃t

1
Comme on l'a annoncé ci-dessus, la proposition suivante nous garantit que D2 peut toujours
être construite comme matrice réelle, pour des matrices symétriques dénies positives.

Proposition 2.3 (Caractérisation d'une matrice symétrique dénie positive à partir de sa dé-
composition LU ). Soit A ∈ Mn (R) une matrice symétrique admettant une décomposition LU
sans permutation. Alors A est symétrique dénie positive si et seulement si tous les pivots
(c.à.d. les coecients diagonaux de la matrice U ) sont strictement positifs.
30 CHAPITRE 2. MÉTHODES DIRECTES

Preuve: À compléter.

Pour continuer, nous allons énoncer et prouver le théorème de décomposition de Choleski,


qui présente une partie d'existence et une autre d'unicité. En particulier, la partie d'existence
suit l'esprit du schéma de l'exemple 2.6 pour le cas n = 2, dont le contenu est essentiellement
celui de la proposition 2.3. La partie de l'unicité, qui utilise d'une manière basique le résultat
d'existence, proportionne l'algorithme de Choleski proprement dit.

Théorème 2.2 (Décomposition de Choleski). Soit A ∈ Mn (R), une matrice symétrique dénie
positive. Alors il existe une unique matrice L̃ ∈ Mn (R) telle que:
i) L̃ est triangulaire inférieure.
ii) ˜lii > 0, ∀i ∈ {1, . . . , n}.
iii) A = L̃L̃t .
Preuve:
• Existence. Par récurrence sur la dimension n.

1) Cas n = 1.
On a A = (a11 ). A est automatiquement symétrique et elle est dénie positive si et

seulement si a11 > 0. On dénit L̃ = (˜
l11 ), avec ˜l11 = a11 et on a

A = L̃L̃t . (2.85)

2) On suppose A = L̃L̃t , avec L̃ triangulaire inférieure et ˜lii > 0, ∀A ∈ Mp (R), 1 ≤ p ≤ n.


On va démontrer que, pour A ∈ Mn+1 (R) symétrique et dénie positive, il existe une
décomposition de Choleski . On considère A ∈ Mn+1 (R), que l'on peut écrire :

 
B a
A= (2.86)
at α

où a ∈ Rn est un vecteur colonne, B est symétrique et α ∈ R. D'abord, on montre


que B est dénie positive à partir du fait que A est t
dénie positive, i.e. x Ax >
 
y
0, ∀x ∈ Rn+1 , x 6= 0. Si on prend en particulier x= n
, avec y ∈ R , on a :
0
  
t
 B a y
0 < x Ax = y 0 t = y t By , ∀y ∈ Rn . (2.87)
a α 0

Alors B est symétrique dénie positive. Par hypothèse de récurrence ∃M ∈ Mn (R)


triangulaire inférieure telle que

B = M M t , mii > 0 , ∀i ∈ {1, . . . , n} . (2.88)

On cherche une matrice L̃ avec l'hypothèse (Ansatz) de la forme :

 
M 0
L̃ = (2.89)
bt λ
2.2. DÉCOMPOSITION DE CHOLESKI 31

où b ∈ Rn et λ∈R (on veut que λ > 0). On veut imposer :

A = L̃L̃t . (2.90)

D'abord, nous évaluons :


 t
MMt
     
t M 0 M b Mb B Mb
L̃L̃ = = = (2.91)
bt λ 0 λ bt M t bt b + λ 2 (M b)t bt b + λ2

où on a utilisé (2.88). Maintenant, si on impose (2.90) en utilisant (2.86), on obtient


:

Mb = a
b b + λ2 = α .
t
(2.92)

Par hypothèse de récurrence, M est inversible (mii > 0), alors :

b = M −1 a , (2.93)

et

α = (M −1 a)t (M −1 a) + λ2 = . . . = at (M M}t )−1 a + λ2 = at B −1 a + λ2 ,


| {z (2.94)

et on peut écrire :

λ2 = α − at B −1 a . (2.95)

On va montrer que α − at B −1 a > 0, en utilisant la pièce d'information qu'on n'a pas


encore utilisé, notamment que A est aussi dénie positive pour un vecteur x avec la
composante x
n+1 6= 0. Pour ça, on choisit:

 −1 
B a
x= (2.96)
−1
On a x 6= 0, alors :
 In 
   −1 
 B a B a z }| {
0 < xt Ax = (B −1 a)t = (B −1 a)t −1 BB −1 a − a

−1 t
a α −1
at B −1 a − α
 
0
(B −1 a)t = α − at B −1 a

= −1 (2.97)
at B −1 a − α

Alors, de (2.95) on peut écrire


p
λ= α − at B −1 a , (2.98)

et, nalement
 
M √ 0
L̃ = , (2.99)
(M −1 a)t α − at B −1 a

est une matrice triangulaire inférieure, avec ˜


lii , ∀i ∈ {1, . . . , n + 1} et telle que (2.90)
est satisfaite.
32 CHAPITRE 2. MÉTHODES DIRECTES

• Unicité.
Dans la deuxième de partie de la preuve, on utilise de manière fondamentale l'existence
montrée dans la première partie. Cela nous garantit, en particulier, de prendre la racine
carrée des expressions qu'on va trouver dans l'algorithme.

Étant donnée A symétrique dénie positive, dans la première partie on a montré l'existence
d'une matrice L̃ telle que :

A = L̃L̃t ; ˜lij = 0 , j > i ; ˜lii > 0 ∀i . (2.100)

Alors, si on écrit le produit de matrices en termes des coecients :

n
X n
X
aij = ˜lik ˜lt = ˜lik ˜ljk (2.101)
kj
k=1 k=1

On va employer cette expression pour déterminer d'une manière constructive l'expression


des coecients ˜
lij en termes des données aij , en particulier de forme unique.
On va procéder colonne par colonne.

i) On commence avec la première colonne. Si on fait j=1 dans (2.101) on a, pour la


première ligne

n
X n
X
a11 = ˜l1k ˜l1k = ˜l11 ˜l11 + ˜l1k ˜l1k = (˜l11 )2 . (2.102)
|{z}
k=1 k=2
=0
(k > 1)

Alors


l11 = a11 > 0 . (2.103)

On a la garantie qu'on peut prendre la racine carrée de a11 parce qu'on a montré dans
la première partie de la preuve l'existence d'un l11 > 0: dans le cas de trouver a11 ≤ 0,
il y aurait donc une contradiction avec le résultat déjà prouvé.

On continue avec le reste des lignes dans la première colonne :

n
X n
X
a21 = ˜l2k ˜l1k = ˜l21 ˜l11 + ˜l2k ˜l1k = ˜l21 ˜l11
|{z}
k=1 k=2
=0
(k > 1)

˜l21 = a21 a21


=√
˜l11 a11
.
.
.
n
X
ai1 = ˜lik ˜l1k = . . . = ˜li1 ˜l11
k=1
˜li1 = ai1
√ (2.104)
a11

Ceci xe la première colonne de manière unique.


2.2. DÉCOMPOSITION DE CHOLESKI 33

ii) Nous continuons avec le reste des colonnes, de façon récursive. Si on a déjà calculé
les q premières colonnes, on calcule la colonne q + 1. Pour ça, on commence dans la
ligne ˜ 1,
q+ dans la diagonale principale, car dans le résultat d'existence, on a montré
que la matrice est diagonale inférieure. Ainsi

n
X q+1
X q
X
aq+1,q+1 = ˜lq+1,k ˜lq+1,k = (˜lq+1,k )2 = (˜lq+1,q+1 )2 + (˜lq+1,k )2
k=1 k=1 k=1
q
!1
X 2
˜lq+1,q+1 = aq+1,q+1 − (˜lq+1,k )2 >0 (2.105)
k=1
On note que l'expression sous la racine carrée est positive: sinon on serait en contra-
diction avec le résultat d'existence de la matrice L̃. On continue avec le reste de la
colonne. Pour i ∈ {q + 2, . . . , n}
n
X q+1
X Xq
ai,q+1 = ˜li,k ˜lq+1,k = ˜li,k ˜lq+1,k = ˜li,q+1 ˜lq+1,q+1 + ˜li,k ˜lq+1,k
| {z }
k=1 k=1 k=1
>0
q
!
˜li,q+1 = 1 X
˜li,k ˜lq+1,k
ai,q+1 − (2.106)
˜lq+1,q+1
k=1

De cette manière, nous pouvons calculer toutes les colonnes de L̃ et celle-ci est com-
plètement xée de manière unique.

Remarque 2.4 (Décomposition de Choleski: quelques points) . Nous soulignons les points suivants:

i) En général, toute matrice symétrique admet une décomposition unique P A = LU . Si A


est symétrique dénie positive, on peut choisir
√ P = In , alors on a A = LU = L̃L̃t , avec
L̃ = L D où D = diag(U).
ii) Coût de la méthode Choleski: la méthode de Choleski (avec l'algorithme donné dans la
partie d'unicité du théorème) est deux fois plus rapide que celui de la méthode de Gauss
(décomposition LU ).
iii) Conservation du prol de A. Étant donnée la matrice symetrique A on peut denir pour
chaque ligne i l'entier ji
ji = min {j ∈ {1, . . . n}} tels que aij 6= 0 . (2.107)

L'ensemble {ji }i∈{1,...,n} détermine le prol de la matrice. En particulier (pour A symétrique),


seuls les éléments aij avec j ∈ {ji , . . . , i} doivent être stockés. Une propriété importante
de la décomposition de Choleski est qu'elle préserve le prol {ji }i∈{1,...,n} de la matrice A.
Ceci peut être démontré à partir de la preuve d'unicité de la décomposition de Choleski
en appliquant à chaque ligne i un raisonnement par l'absurde ou par récurrence sur les
colonnes.

iv) Si on étudie le problème Ax = b avec A inversible mais non-symétrique, on peut utiliser


la méthode de Choleski en notant que la matrice AAt est symétrique dénie positive:

Ax = b ⇔ At (Ax = b) ⇔ At Ax = At b (2.108)

La matrice At A, admet une décomposition de Choleski At A = L̃L̃.


34 CHAPITRE 2. MÉTHODES DIRECTES
Chapitre 3

Normes et conditionnement d'une

matrice

Dans ce chapitre, nous introduisons des éléments de base autour les notions de norme matricielle
et de conditionnement d'une matrice. Le but fondamental est la formulation de conditions
susantes pour la convergence des suites dénies par l'itération de l'action d'une matrice. Un
objectif secondaire est la discussion de la majoration des erreurs d'arrondis dans la résolution du
problème

Ax = b , (3.1)

en conséquence d'une erreur dans A ou dans b.

3.1 Norme matricielle, norme matricielle induite et rayon spec-


tral
3.1.1 Rappel sur les normes

Nous commençons par rappeler la notion de norme dans un espace linéaire (sur C).

Dénition 3.1 (Norme). Étant donné un espace linéaire V sur C, une norme est une application
|| · || : V → R telle que

i) ||αx|| = |α|||x|| , ∀α ∈ C, x ∈ V .

ii) ||x + y|| ≤ ||x|| + ||y|| , ∀x, y ∈ V

iii) ||x|| = 0 ⇔ x = 0.

Nous allons travailler avec des espaces linéaires réels de dimension ni.

Exemple 3.1 (Exemples de normes sur Rn ). Nous donnons trois exemples des normes en Rn .
Étant donnée x = (x1 , . . . , xn ) dans la base canonique, on dénit :

i) La norme ||x||∞ : ||x||∞ = max{|x1 |, . . . , |xn |}.


n
X
ii) La norme ||x||1 : ||x||1 = |x1 | + . . . + |xn | = |xi |.
i=1

35
36 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE

n
!1
2
1 X
iii) La norme ||x||2 : ||x||2 = |x1 |2 + . . . + |xn | 2 2
= |xi |2 .
i=1

iv) Les deux dernières sont cas particuliers de la norme ||x||p , avec p ∈ R, p ≥ 1:
n
!1
p
1 X
||x||p = (|x1 |p + . . . + |xn |p ) p = |xi |p .
i=1

Dénition 3.2 (Normes équivalentes) . Deux normes || · ||1 et || · ||2 sur V sont équivalentes s'il
existe deux constantes réelles C1 > 0 et C2 > 0 telles que

C1 ||x||1 ≤ ||x||2 ≤ C2 ||x||2 , ∀x ∈ V . (3.2)

Remarque .
3.1 Dans la suite, on va utiliser les deux propriétés suivantes :

• Deux normes équivalentes induisent la même topologie sur V.


• Si V est de dimension nie, toutes les normes sont équivalentes.

3.1.2 Normes matricielles

Dénition 3.3 (Norme matricielle) . Étant donnée l'espace vectoriel Mn (R):


i) On appelle em norme matricielle sur Mn (R) une norme || · || sur R telle que
||AB|| ≤ ||A|| ||B|| , ∀A, B ∈ Mn (R) . (3.3)

ii) Si Rn est muni d'une norme || · ||, on appelle norme matricielle induite (ou subordonnée)
sur Mn (R) par || · || à la norme sur Mn (R) dénie par

||A|| = sup {||Ax||} , ∀A ∈ Mn (R) . (3.4)


x∈Rn ,||x||=1

Proposition 3.1 (propriété de la norme induite) . . Soit Mn (Rn ) muni d'une norme induite
|| · ||. Alors, pour tout A ∈ Mn (R) on a:
i) ||Ax|| ≤ ||A|| ||x|| , ∀x ∈ Rn .
ii) ||A|| = max {||Ax||} .
x∈Rn ,||x||=1
 
||Ax||
iii) ||A|| = max n
; x ∈ R \ {0}
||x||
iv) || · || est une norme matricielle.
Preuve:
x
i) Soit x ∈ Rn , x 6= 0. On prend y = ||x|| , alors ||y|| = 1. De la dénition de norme induite

on a Ay ≤ ||A||(= sup{||Ay||; ||y|| = 1}). Alors

x 1
||A|| ≥ ||A || = ||Ax|| ⇔ ||A|| ||x|| ≥ ||Ax||, ∀x ∈ Rn \ 0 . (3.5)
||x|| ||x||
Si x = 0, il se suit Ax = 0 et ||x||, alors ||Ax|| ≤ ||A|| ||x|| est vérié.
3.1. NORME MATRICIELLE, NORME MATRICIELLE INDUITE ET RAYON SPECTRAL37

ii) On dénie ϕ : Rn → R, avec ϕ(x) = ||Ax||. L'application ϕ est continue sur S 1 =


{x ∈ Rn , ||x|| = 1}, que c'est un compact dans Rn . Alors, l'image de S 1 par ϕ est un
compacte, dons ϕ est bornée est atteint ses bornes. On conclut qu'il existe xmax , tel que
||A|| = ||Axmax ||.

iii) On prend ||x 6= 0||. Alors

 
||Ax|| ||x|| ||Ax||
=A , x ∈ S 1 ⇒ max = max{||Ax||} = ||A||. (3.6)
||x|| ||x|| x∈Rn \{0} ||x|| x∈S 1

iv) Étant donnés A et B ∈ Mn (R), on a ||AB|| = max{||ABx|| : ||x|| = 1, x ∈ Rn }. Or, en


utilisant deux fois la propriété dans le point i):

||ABx|| ≤ ||A|| ||Bx|| ≤ ||A|| ||B|| ||x|| = ||A|| ||B|| (3.7)

Alors

||AB|| = max{||ABx|| : ||x|| = 1, x ∈ Rn } ≤ ||A|| ||B|| . (3.8)

On conclut que || · || est une norme matricielle

Dénition 3.4 (Rayon spectral) . Soit A ∈ Mn (R) inversible. On appelle rayon spectral ρ(A)
de A à:

ρ(A) = max{|λ|; λ ∈ C, λ valeur propre de A} (3.9)

Proposition 3.2 (Caractérisation de de normes induites; calculs eectifs)) . Soit A = (aij ) ∈


Mn (R). Montrer:
i) On munit Rn de la norme || · ||∞ et Mn (R) de la norme induite correspondante; notée aussi
|| · ||∞ . Alors
n
X
||A||∞ = max |aij |
i∈{1,...,n}
j=1

ii) On munit Rn de la norme || · ||1 et Mn (R) de la norme induite correspondante; notée aussi
|| · ||1 . Alors
n
X
||A||1 = max |aij |
j∈{1,...,n}
i=1

iii) On munit Rn de la norme || · ||2 et Mn (R) de la norme induite correspondante; notée aussi
|| · ||2 . Alors
1
||A||2 = ρ(At A) 2

En particulier; si A est symétrique, ||A||2 = ρ(A).


38 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE

Preuve: i) et ii) Exercice.


iii) Par dénition

 2  2
1
||A||22 = max {||Ax||2 } = max {(Ax · Ax) } 2
x∈Rn ,||x||=1 x∈Rn ,||x||=1

= max {Ax · Ax} = max {At Ax · x} (3.10)


x∈Rn ,||x||=1 x∈Rn ,||x||=1

La matrice At A est symétrique de non-negative. En eet

xt At Ax = x · At Ax = Ax · Ax ≥ 0 . (3.11)

(Noter que Ax=0 n'implique pas x en générale, au moins que A soit inversible). Alors, on
peut
t
diagonaliser A A sur une base orthonormée B = {ei , i ∈ {1, . . . , n}} avec valeurs propres
non-négatifs :

At Aei = λi ei , ei · ej δij
0 ≤ λ1 ≤ λ2 ≤ . . . ≤ λn . (3.12)

n
X
On considère x= xi ei . Alors
i=1
!   !  
X X X X
At Ax · x = At A xi e i ·  xj e j  = xi λi ei · xj ej 
i j i j
X X X X
= λi xi xj ei · ej = λi (xi )2 ≤ λn (xi )2 = λn (xi )2 (3.13)
| {z }
i,j i i i
δij | {z }
||x||22

Avec ceci, on conclut

x x At Ax · x
hAt A , i= ≤ λn = max{|λ|, λ valeur propre de At A} = ρ(At A) , (3.14)
||x|| ||x|| ||x||2
Avec, (3.10) on a

||A||22 ≤ ρ(At A) . (3.15)

Pour l'égalité, on considère x = en , ||e|| = 1, et on a

||Aen ||22 = hAen , Aen i = hAt Aen , en i = hλn en , en i = λn = ρ(At A) . (3.16)

Alors

||A||22 = ρ(At A) , (3.17)

qui montre le résultat. En particulier, si A est symétrique elle diagonalisable avec des valeurs
propres λA t
i , on a A A = A
2 et λi = (λA 2
i ) , ∀i ∈ {1, . . . , n}. En particulier, pour i = n on a
λn = (|λA 2 A
n |) , où |λn | = ρ(A) et on conclut

||A||22 = ρ(At A) = λn = (ρ(A))2 ⇒ ||A||2 = ρ(A) . (3.18)


3.2. RELATION ENTRE NORME MATRICIELLE ET RAYON SPECTRAL 39

3.2 Relation entre norme matricielle et rayon spectral


Théorème 3.1 (Approximation spectral du rayon spectral par une norme induite). On considère
Rn et Mn (R):
i) Soit || · || une norme induite en Mn (R). Alors
ρ(A) ≤ ||A|| , ∀A ∈ Mn (R) . (3.19)

ii) Étant donnés A ∈ Mn (Rn ) et ε > 0, il exixte une norme sur Rn (qui dépend de A est de
ε) telle que la correspondante norme induite sur Mn (R), notée || · ||A,ε , vérie
||A||A,ε ≤ ρ(A) + ε , ∀A ∈ Mn (R) . (3.20)

Preuve: Pour i), étant donnée A on considère λ ∈ C valeur propre de A, c'est-à-dire, ∃x 6= 0


tel que Ax = λx. Alors

||Ax|| = ||λx|| = |λ|||x|| , ||Ax|| ≤ ||A||||x|| , (3.21)

donc |λ| ≤ ||A|| et ceci ∀λ valeur propre de A. Alors ρ(A) ≤ ||A||.


On laisse ii) comme exercice.

Remarque 3.2 . Après le théorème précédent, pour une matrice A ∈ Mn (R) donnée, on peut
considérer ρ(A) comme le inmum sur l'ensemble {||A||; avec || · || norme induite sur Mn (R)}.

3.2.1 Convergence et rayon spectral

Corollaire 3.1 (Convergence et rayon spectral). Soit A ∈ Mn (R). A condition nécessaire et


susante pour la convergence à zéro de la suite de matrices {Ak }k∈N est:
ρ(A) < 1 ⇔ Ak → 0 . (3.22)

Preuve: On montre d'abord la direction ⇒ (condition susante). Si ρ(A) < 1, on peut


toujours choisir ε < 0 tel que ρ(A) < 1 − 2ε. Par le théorème 3.1 d'approximation du rayon
spectral, il existe une norme induite || · ||A,ε telle que:
||A||A,ε ≡ µ ≤ ρ(A) + ε < 1 − 2ε + ε = 1 − ε < 1 . (3.23)

Étant donné que la norme induite est une norme matricielle, on a

||Ak ||A,ε ≤ ||A||A,ε ||Ak−1 ||A,ε ≤ . . . ≤ ||A||kA,ε = µk → 0(quand k → ∞) . (3.24)

Notons que dans l'espace Mn (R), de dimension nie, toutes les normes sont équivalentes (génèrent
la même topologie, alors la même convergence) alors, pour n'importe quelle norme ||Ak || →
0|| (k → 0) ⇒ Ak → 0.
Pour la condition nécessaire (⇐), supposons Ak → 0 (k → 0). On considère λ une valeur
propre de A et x 6= 0 un vecteur propre associé. Alors

Ak x = λ k x . (3.25)

Si Ak → 0, on a Ak x → 0 et alors λk x. Vu que x 6= 0, λk → 0, ce qui est vrai si et seulement si


|λ| < 1. Ceci est vrai pour n'importe quel valeur propre λ. Alors
ρ(A) = max{|λ|, λ valeur propre de A} < 1 . (3.26)
40 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE

Remarque 3.3 (Convergence de suites de vecteurs) . Du corollaire précédent on déduit que la suite
{x(k) } k∈N dénie par x
(0) = xo et x(k+1) = Ax(k) , on a

xk → 0, ∀x(0) = xo ⇔ ρ(A) < 1 . (3.27)

Cette caractérisation sera utilisé dans l'étude des méthodes itératifs pour la résolution d'un
problème linéaire.

Nous venons de voir que pour montrer la convergence d'une suite de vecteurs {x(k) }k∈N
donnée par x
(k+1) = Ax(k) , il faut contrôler la valeur du rayon spectrale. Le calcul de ρ(A) peut
être dicile mais, après le théorème 3.1, il sut de trouver une norme induite || · || pour laquelle
||A|| < 1. Nous allons donner maintenant une condition susante plus générale, en montrant
qu'on peut relaxer la condition sur le caractère induit de la norme matricielle employée. Pour
montrer ça nous donons d'abord la caractérisation suivante du rayon spectrale (valable aussi en
dimension innie).

Proposition 3.3 (Caractérisation du rayon spectrale). On munit Mn (R) d'une norme générale,
notée || · ||. Soit A ∈ Mn (R). Alors
1
ρ(A) = lim ||Ak || k . (3.28)
k→∞

Preuve: Exercice.

Remarque 3.4. Noter que la norme dans la proposition est une norme générale, pas nécessairement
matricielle.

Nous pouvons maintenant prouver le résultat annoncé.

Corollaire 3.2 (Comparaison rayon spectrale et norme matricielle) . . On munit Mn (R) d'une
norme matricielle générale, notée || · ||. Soit A ∈ Mn (R). Alors
ρ(A) ≤ ||A|| (3.29)

Preuve: Si || · || est matricielle, on a ||Ak || ≤ ||A||k et donc, en utilisant la caractérisation


(3.28) du rayon spectral, on a

1
 1
k
ρ(A) = lim ||Ak || k ≤ lim ||A||k = ||A|| (3.30)
k→∞ k→∞

Remarque 3.5. C'est fondamental que la norme || · || soit matricielle. Ça ne marche pas pour une
norme générique non-matricielle (exercice !).

Nous nissons cette section en énonçant un résultat sur les matrices perturbation de l'identité.

Théorème 3.2 (Matrices de la forme In + A). Soit || · || une norme matricielle induite sur
Mn (R).

i) Étant donnés In ∈ Mn (R) la matrice identité et A ∈ Mn (R) telle que ||A|| < 1, on a que
la matrice In + A est inversible et
1
||(In + A)−1 || ≤ . (3.31)
1 − ||A||
3.3. CONDITIONNEMENT D'UNE MATRICE 41

ii) Si un matrice de la forme In + A ∈ Mn (R) est singulière, alors ||A|| ≥ 1 pour tout norme
matricielle.
Preuve:
i) Exercice.

ii) Si In + A ∈ Mn (R) est singulière, alors ∃x 6= 0 tel que

(In + A) x = 0 ⇔ Ax = −x ⇒ λ = −1 est un valeur propre. (3.32)

Alors ρ(A) ≥ 1. Si on utilise (3.29), étant donnée que || · || est matricielle, on a

||A|| ≥ ρ(A) ≥ 1 . (3.33)

3.3 Conditionnement d'une matrice


Quand on étudie le problème

Ax = b , (3.34)

en particulier sa résolution numérique par un ordinateur, un problème crucial à considérer est


posé par la question suivante : quel est le changement de x si on fait un petit erreur sur A ou b
par rapport à ses vrais valeurs ?
Si un petit changement δA dans A ou un petit erreur δb entraînent un grand changement
δx dans la valeur de δx, alors le problème est très mal posé pour être résolu par un ordinateur,
étant donné que la résolution dans A et b par l'ordinateur sera toujours nie.
D'une manière plus précise, on veut estimer l'erreur δx en x, si on fait des erreurs δA en A
et δb en b, en résolvant l'équation

(A + δA) (x + δx) = b + δb . (3.35)

Si δA A + δA est inversible et le problème posé par (3.51) a


est susamment petite, la matrice
du sens. D'une manière plus précise, si |A−1 δA | < 1,le théorème 3.2 garantie que la matrice
In +A−1 δA est inversible, donc A+δA = A In + A−1 δA est aussi inversible. Dans ces conditions
on peut estimer δx dans (3.51) en fonction de δA et δb.

3.3.1 Conditionnement et ses propriétés élémentaires

Dénition 3.5. Rn muni d'une norme || · || et Mn (R) muni de la norme matricielle induite.
Soit
Étant donnée A ∈ Mn (R) inversible, on appelle conditionnement de A par rapport à la norme
|| · || le nombre réel positif

cond(A) = ||A|| ||A−1 || . (3.36)

Proposition 3.4 (propriétés générales du conditionnement) . . Soit Rn muni d'une norme || · ||


et Mn (R) muni de la norme matricielle induite, et A, B ∈ Mn (R) inversibles et α ∈ R∗ . On a :
i) cond(A) ≥ 1.
42 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE

ii) cond(αA) = cond(A).


iii) cond(AB) ≤ cond(A) cond(B).
Preuve:
i) On utilise que || · || est matricielle. Alors

||In || = ||AA−1 || ≤ ||A|| ||A−1 || = cond(A) . (3.37)

D'autre part

||In || = sup {||In x||} = 1 (3.38)


||x||=1

Alors 1 ≤ cond(A) (noter qu'on a utilisé que la norme est induite, et pas seulement ma-
tricielle).

ii) En utilisant la dénition (3.36)

1
cond(αA) = ||αA|| ||(αA)−1 || = |α|||A|| · ||A−1 || = ||A|| ||A−1 || = cond(A) (3.39)
|α|

iii) Étant donné que A et B sont inversibles, alors AB est aussi inversible et, utilisant le fait
que || · || est matricielle, on a

cond(AB) = ||AB|| ||(AB)−1 || = ||AB|| ||B −1 A−1 ||


≤ ||A|| ||B|| ||B −1 || ||A−1 || = cond(A) cond(B) . (3.40)

3.3.2 Majoration des erreurs

Nous allons étudier le cas d'une perturbation seulement par δA et le cas d'une perturbation
seulement par δb. Le cas plus général d'une perturbation simultanée par δA et δb suit une
stratégie pareille, mais avec une expression plus compliquée.

Proposition 3.5 (majoration de l'erreur relative par rapport à une erreur dans le deuxième
membre). Soit A ∈ Mn (R) inversible et b ∈ R , avec b 6= 0. On munit R d'une norme || · || et
n n

Mn (R) de la norme matricielle induite associée. Étant donné δb ∈ Rn , si x est solution de


Ax = b , b 6= 0 , (3.41)

et x + δx est solution de
A (x + δx) = b + δb , (3.42)

on a la majoration suivante de l'erreur relative en x


||δx|| ||δb||
≤ cond(A) (3.43)
||x|| ||b||
3.3. CONDITIONNEMENT D'UNE MATRICE 43

Preuve: On considère

Ax = b
A (x + δx) = b + δb . (3.44)

Si on retranche la première à la deuxième, on a :

Aδx = δb ⇔ δx = A−1 δb , (3.45)

donc

||δx|| ≤ ||A−1 ||||δb|| . (3.46)

D'autre part, de b = Ax, on a

||b|| = ||Ax|| ≤ ||A||||x|| . (3.47)

Si on utilise que b 6= 0, on a x 6= 0, donc on peut écrire

1 ||A||
≤ . (3.48)
||x|| ||b||

Si on multiplie, membre à membre, cette expression par celle dans (3.46) on obtient

||δx|| ||δb|| ||δb||


≤ ||A|| ||A−1 || = cond(A) . (3.49)
||x|| | {z } ||b|| ||b||
cond(A)

Remarque 3.6 . L'inégalité (3.52) est optimale, c'est à dire, il y a des choix que la rendre une
égalité.

Proposition 3.6 (majoration de l'erreur relative par rapport à une erreur sur la matrice). Soit
A ∈ Mn (R) inversible et b ∈ , avec b 6= 0. On munit
Rn d'une norme || · || et Mn (R) de
Rn
la norme matricielle induite associée. Étant donné δA ∈ Mn (R), on suppose que A + δA est
inversible. Si x est solution de

Ax = b , b 6= 0 , (3.50)

et x + δx est solution de

(A + δA) (x + δx) = b , (3.51)

alors
||δx|| ||δA||
≤ cond(A) . (3.52)
||x + δx|| ||A||
44 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE

Preuve: On part de

(A + δA) (x + δx) = b . (3.53)

En le développant

Ax + Aδx + δAx + δAδx = b . (3.54)

Si on retranche Ax = b on trouve

Aδx + δAx + δAδx = 0 , (3.55)

c'est à dire

Aδx = −AδA (x + δx)


δx = A−1 δA (x + δx) . (3.56)

Alors,

||δx|| ≤ ||A−1 || ||δA|| ||x + δx|| . (3.57)

Si on utilise maintenant que b 6= 0 et A + δA est inversible, on conclut x + δx 6= 0 et on diviser


par ||x + δx|| pour trouver

||δx||
≤ ||A−1 || ||δA|| . (3.58)
||x + δx||

||A||
Si on multiplie maintenant le deuxième par =1
||A||

||δx|| ||δA|| ||δA||


≤ ||A−1 || ||A|| ≤ cond(A) . (3.59)
||x + δx|| | {z } ||A|| ||A||
cond(A)
Chapitre 4

Méthodes itératives

45
46 CHAPITRE 4. MÉTHODES ITÉRATIVES
Chapitre 5

Méthodes de descente

47
48 CHAPITRE 5. MÉTHODES DE DESCENTE
Part II

Interpolation

49
Chapitre 6

Interpolation polynomiale

51
52 CHAPITRE 6. INTERPOLATION POLYNOMIALE
Part III

Annexes

53
Appendix A

Espaces linéaires

A.1 Rappel sur les espaces linéaires


Dénition A.1 (espace linéaire ou vectoriel). Un espace linéaire sur un corps K (ici K=R ou
K = C) est un ensemble non vide V, dont les éléments sont appelés vecteurs et où on a deux
opérations dénies l' addition et la multiplication par un scalaire, avec les propriétés:
1. L'addition est commutative et associative.

2. Il existe un élément 0 ( vecteur zéro ou nul) tel que v + 0 = v, ∀v ∈ V .


3. 0 · v = 0, 1 · v = v, ∀v ∈ V , où 0 et 1 sont le zéro et l'unité de K.

4. Pour chaque v∈V il exite un unique opposé, −v ∈ V , tel que v − v = 0.

5. Proprieté distributive:

α (v + w) = αv + αw, ∀α ∈ K, ∀v, w ∈ V (A.1)

(α + β) v = αv + βv, ∀α, β ∈ K, ∀v ∈ V (A.2)

6. Proprieté associative:

(αβ) v = α (βv) ∀α, β ∈ K, ∀v ∈ V (A.3)

Exemple A.1. On donne plusieurs exemples d'espace linéaire.

i) V = Rn , V = Rn , Mm×n (R) ≡ Rm×n .


Pn i
ii) V = Pn , ensemble de polynômes pn (x) = i=0 ai x

iii) V = C p ([a, b]), ensemble des fonctions réelles (complexes) continues jusqu'à la derivée
p-ième.

Dénition A.2 (espace linéaire ou vectoriel). Un sous-espace non vide W de V es un sous-espace


linéaire de V si W est un espace linéaire sur K.

Exemple A.2. V = Pn est un sous espace linéaire de V = C ∞ (R).

55
56 APPENDIX A. ESPACES LINÉAIRES

Dénition A.3 (système de générateurs). Étant donné un ensemble {v1 , . . . , vp }, le sous-espace

W = Lin{v1 , . . . , vp } = hv1 , . . . , vp i = {w = α1 v1 + · · · + α1 vp , avec αi ∈}} (A.4)

est un espace linéaire et {v1 , . . . , vp } est appelé système de générateurs de W . Si W1 , . . . , W m


sont des sous-espaces linéaires de V , et Wi ∩ Wj = {0}∀i 6= j , l'ensemble

S = {w ∈ V, tel que w = w1 + . . . wm , avec wi ∈ W i } (A.5)

est un espace linéaire appelé somme directe et on note S = W1 ⊕ · · · ⊕ Wm .


Dénition A.4 (Indépendance linéaire) . Un système de vecteurs {v1 , . . . , vm } es dit linéaire-
ment indépendant si
α1 v1 + · · · + α1 vm = 0 , αi ∈ K (A.6)

implique α1 = · · · = αm = 0. Dans le cas contraire, le système est dit linéairement dépendant.


Dénition A.5 (base). Une base de V est un système linéairement indépendant de générateurs
de V.

Propriétés (base) . Les bases d'un espace linéaire satisfont:

i) Si B = {e1 , . . . , en } (avec n < ∞) est une base de V , l'expression de v ∈ V v = v1 e1 +


. . . vn en est appelée la décomposition de v en B . Les composants vi sont uniques.

ii) Dans le cas où n < ∞, chaque système de vecteurs linéairement indépendants a un maxi-
mum de n vecteurs. En particulier, toutes les bases de V on le même nombre des vecteurs
n < ∞, appeleé dimension de V : dim(V ) = n.

iii) Si pour chaque n il y a un système de vecteurs linéairement indépendant, l'espace linéaire


V est dit de dimension innie. Ici, on va se focaliser sur des V de dimension nie.

A.2 Application linéaire


Dénition A.6 (application linéaire) . Étant donnés deux espaces linéaires V et W, une appli-
cation A:V →W est dite linéaire si elle respecte la structure de espace linéaire, ceci signie
que

A(αv + βw) = αA(v) + βA(w) , v, w ∈ V, α, β ∈ K. (A.7)

A.3 Produit scalaire


Dénition (produit scalaire). Un produit scalaire est une application bilinéaire h·, ·i : V × V →
R, symétrique et positivement dénie. Cela veut dire

i) Application bilinéaire:

hαv + βw, xi = αhv, xi + βhw, xi


hx, αvi + βwi = αhx, vi + βhx, wi , v, w, x ∈ V, α, β ∈ K (A.8)
A.3. PRODUIT SCALAIRE 57

ii) Symétrique:

hv, wi = hw, vi , v, w ∈ V (A.9)

iii) Dénie positive:

hv, vi ≥ 0 et hv, vi = 0 sii v = 0. (A.10)

Dénition (produit scalaire hermitien). Un produit scalaire est une application h·, ·i : V ×
V →C qui satisfait:

i) Linéaire dans la deuxième variable et anti-linéaire dans la première variable:

hαv + βw, xi = ᾱhv, xi + β̄hw, xi


hx, αv + βwi = αhx, vi + βhx, wi , v, w, x ∈ V, α, β ∈ K (A.11)

ii) Symétrique hermitienne:

hv, w) = hw, vi , v, w ∈ V (A.12)

iii) Dénie positive:

hv, vi ≥ 0 et hv, vi = 0 sii v = 0. (A.13)


58 APPENDIX A. ESPACES LINÉAIRES
Appendix B

Matrices

B.1 Dénitions
Dénition B.1 (matrice) . Étant donnés m etn deux entiers positifs, on appelle matrice A à
m lignes et n colonnes l'ensemble ordonné de m · n éléments de K
 
a11 ··· a1n
A =  ... .. .
. (B.1)
 
. . 
am1 · · · amn

On note par Mm,n (K) l'ensemble de matrices de m lignes et n colonnes, avec des coecients
dans K.

Remarques :

i) Notation: A = (Aij ) avec i = 1, . . . , m,j = 1, . . . , n.

ii) Matrice carrée: m = n. Diagonale principale: diag(a11 , . . . , ann ).

iii) Une matrice avec une ligne est un vecteur ligne et une matrice avec une seule colonne est
un vecteur colonne
v1
 
. t

v= .  , α = (α1 , . . . , αn ) , α = α1 . . . αn (B.2)
 
.
vn

iv)

 
A1j
Ligne-i : `i = (Ai1 , . . . , Ain ) , Colonne-j : cj =  ...  (B.3)
 

Amj

iv) Mm,n (K) = {(Aij ), aij ∈ K; i = 1, . . . , m, j = 1, . . . , n}

59
60 APPENDIX B. MATRICES

B.1.1 Opérations sur les matrices

i) Somme. Pour A ∈ Mm×n (K), B ∈ Mm×n (K):

C = A + B , (cij ) = (aij ) + (bij ) (B.4)

ii) Produit par un scalaire. Pour A ∈ Mm×n (K) et λ ∈ K:

C = λA , (cij ) = (λaij ) (B.5)

iii) Produit de matrices. Pour A ∈ Mm×n (K), B ∈ Mn×p (K), on dénit la matrice A ∈
Mm×p (K)
n
X
C = A · B , (cij ) = ( aik bkj ) (B.6)
k=1

Exercice B.1. Montrer que le produit de matrices est associatif est distributif par rapport
à l'addition.

Remarque B.1 . :

i) Pour des matrices carrées d'ordre n, la matrice In = (δij ) est la matrice unité, ce qui veut
dire A · In = In · A = A.

ii) Matrice diagonale: D = (dii δij ).

iii) Ap = A
| · .{z
. . · A}
pf ois

iv) Dénition (matrice transposée). Étant donnée une matrice A ∈ Mm×n (R), on appelle
matrice transposée de A la matrice A
t ∈ Mn×m (R) telle que

(at ij ) = (aji ) (B.7)

Proprietés:

(At )t = A (B.8)
t t t
(A · B) = B ·A (B.9)

Dénition (matrice conjuguée transposée). Étant donnée une matrice A ∈ Mm×n (C),
on appelle matrice conjuguée transposéede A (ou adjointe, A† ∈
voir ci-après) la matrice
Mn×m (C) telle que

(a† ij ) = (āji ) (B.10)

où z̄ le complexe conjugué de z∈C (l'adjointe de A est souvent notée A∗ .) Proprietés:

(A† )† = A (B.11)
† † †
(A · B) = B ·A (B.12)
B.1. DÉFINITIONS 61

v) Un vecteur v ∈ Kn sera consideré comme un vecteur colonne. On peut dénir un produit


scalaire naturel en Rn 1
n
X
hv, wi = v · w := v t w = v i wi . (B.13)
i

Un vecteur ligne sera considéré comme un élément de l'espace dual α ∈ (Kn )∗ , avec la
relation de dualité

α(v) = αv = αt · v (B.14)

vi) L'expression (B.6) peut être écrite cij = `i cj .

vii) Les colonnes de AB sont des combinaison linéaires des colonnes de A.


Les lignes de AB sont de combinaisons linéaires de lignes de B .
n
X
`i (AB) = aik `k (B)
k=1
Xn
cj (AB) = bkj ck (A)
k=1

Rélévant pour la méthode d'élimination de Gauss.

Exemple B.1 .

B.1.2 Rang et noyau d'une matrice

Dénition B.2 (rang) . Étant donnée A ∈ Mm,n , l'image de A (notée Im(A)) est donnée par
Im(A) = {y ∈ Km ; y = Ax, x ∈ n
K }. Le rang de A est déni par rang(A) = dim(Im(A)).

Dénition B.3 (Noyau) . Étant donnée A ∈ Mm,n , le noyau de A (notée par Ker(A)) est donné
par Ker(A) = {x ∈ Kn ; Ax = 0}.

Proposition B.1. Étant donnée A ∈ Mm,n , les relations suivantes sont satisfaites
i) rang(A) = rang(At ).
ii) rang(A) + Ker(A) = n.

B.1.3 Inverse d'une matrice

Dénition B.4 (matrice inverse) . Una matrice carrée d'ordre n est inversible (ou régulière ou
non-singulière) s'il existe une matrice B telle que: A · B = B · A = In . On note B = A−1 .

Une matrice qui n'est pas inversible est dite singulière. Propriétés:

(A−1 )−1 = A (B.15)


−1 −1 −1
(A · B) = B ·A (B.16)
1
Cas complexe: produit scalaire hermitien
62 APPENDIX B. MATRICES

B.2 Applications linéaires et matrice d'une application linéaire


Dénition B.5 (matrice d'une application unitaire dans bases données) . Soit une application
linéaire A : V → W , avec dim(V ) = n et dim(W ) = m. Soient B = (e1 , . . . , en ) et B 0 =
(f1 , . . . , fn ) des bases de V et W . On introduit la matrice de A dans les bases B et B 0 , A = (aij )
X
Aej = Aij fi (B.17)
i

Alors, si les composantes de v∈V dans B sont v = v i ei , les composantes de w = Av dans


B 0 sont (w i
P
= i w fi )
 
X X
Av =  aij v j  fi (B.18)
i j
X
i
w = aij v j (B.19)
j
   
w1 v1
 ..  .
 .  = A ·  ..  (B.20)

wm vn

La matriceA ainsi construite est nommée matrice de A dans les bases B et B 0 et on peut la
0 0
noter A = M (A, B, B ). En particulier, l'action de la matrice M (A, B, B ) sur le vecteur dans
Rn donnée par les composantes de v en B , renvoient le vecteur w dans Rm avec les composantes
de w = Av dans B
0
       
v1 w1 v1 v1
 ..   ..   ..  0  .. 
 .  7→  .  = A ·  .  = M (A, B, B ) ·  .  (B.21)

vn wn vn vn

En particulier, si V =W et A = In , la matrice M (In , B, B 0 ) est la matrice de changement de


0 0
base de B à B dans le sens (passif ) qu'elle prend les composantes en B et donne les composantes
0
P i P 0 i 0 0 0
en B . Ainsi, si v = i v ei = i (v ) ei et si on note M (In , B, B ) = M (B → B ), on a

v10
     
v1 v1
. 0 . 0 .
.  = M (In , B, B ) ·  ..  = M (B → B ) ·  ..  (B.22)
 
 .
vn0 vn vn

où les colonnes de M (In , B, B 0 ) = M (B → B 0 ) sont données par les vecteurs colonnes de ei


exprimées dans la
0
base B = (f1 , . . . , fn )

M (B → B 0 ) = e1 · · ·

en (B.23)

B.2.1 Matrices semblables

Dénition B.6 (matrices semblables) . Deux matrices carrées A, B ∈ Mn (K) sont semblables
ssi ∃P inversible, telle que

A = P · B · P −1 (B.24)
B.3. MATRICES ET GÉOMÉTRIE 63

Proposition B.2. Deux matrices semblables correspondent à l'expression matricielle d'un même
endomorphisme dans deux bases diérentes.
Remarque B.2 . La notion de matrice semblable est un cas particulier dans le cas de matrices
rectangulaires équivalentes, qui correspondent à l'expression matricielle d'une même application
linéaire dans des bases diérentes.

B.3 Matrices et géométrie


En utilisant le produit de matrices, l'application suivante dénit un produit scalaire en Cn .

h·, ·i : Cn × Rn → R (B.25)
t
(v, v) 7→ hv, vi = v · v (B.26)

Dénition (matrice symétrique). Une matrice A est dite symétrique si

A = At ⇔ aij = aji (B.27)

Dénition (matrice hermitienne). Une matrice A est dite hermitienne si

A = A∗ ⇔ aij = āji (B.28)

Dénition (matrice orthogonale). Une matrice U est dite orthogonale si

OOt = I (B.29)

Dénition (matrice unitaire). Une matrice U est dite unitaire si

UU∗ = I (B.30)

Dénition (matrice normale). Une matrice A est dite normale si

AA∗ = A∗ A (B.31)
64 APPENDIX B. MATRICES
Appendix C

Factorisation de matrices

Théorème C.1 (Factorisation unitaire d'une matrice: Décomposition de Schur) . Toute matrice
carrée (réelle ou complexes) peut s'écrire
A = UTU∗ , (C.1)

avec U une matrice unitaire U −1 = U ∗ et T une matrice triangulaire supérieure.

65
66 APPENDIX C. FACTORISATION DE MATRICES
Appendix D

Diagonalisation

D.1 Notion de diagonalisation


On commence par introduire la notion de valeur propre.

Dénition D.1. (valeur propres). Soit A ∈ Mn (K). On appelle valeur propre de A tout λ∈C
tel qu'il existe x∈ Cn , x 6= 0, qui satisfait Ax = λx. L'élément x est appelé vecteur propre ("à
droite") de A associé à λ.

Ceci nous amène à la notion de diagonalisation.

Dénition D.2. (diagonalisation/réduction des endomorphismes). Soit A ∈ Mn (K). On dit


que A est diagonalisable dans K s'il existe une base (v1 , . . . , vn ) avec vi ∈ Kn et des valeurs
λ1 , . . . , λn ∈ K telles que Aλi = λi vi .

Lemme D.1. Une matrice diagonalisable est semblable à une matrice diagonale D donnée par
 
λ1
 λ2 
D= ...  , (D.1)
 
 
λn

c.à.d., s'il existe une matrice inversible P , telle que A = P DP −1 .


Lemme D.2. Les valeurs propres sont les racines du polynôme caractéristique pA (λ) = det(A −
λI).

Preuve (idée) : Le déterminant de A − λI s'annule si son noyau n'est pas trivial. On montre
que x ∈ Ker(A − λI) ssi λ est une racine de pA (λ).
Dans le cas K = C, le théorème fondamental de l'algèbre nous garantit l'existence de n
solutions complexes pour le polynôme caracteristique de A ∈ Mn (C). La proposition suivante
caractérise la possibilité de diagonaliser une matrice.

Lemme D.3. Étant donné A ∈ Mn (C), une condition nécessaire et susante pour pouvoir
diagonaliser A est que la dimension géometrique de chaque valeur propre λ, c.à.d. dim Eλ , avec
Eλ = A − λI le sous-espace propre de λ, coïncide avec sa dimension algébrique (multiplicité
comme racine de pA (λ).

67
68 APPENDIX D. DIAGONALISATION

Exemple D.1. Nous considérons les exemples suivants:

i) La matrice σx
 
0 1
σx = ∈ M2 (R) , (D.2)
1 0
est réelle et symétrique. Ses valeurs propres sont λ1 = 1 et λ2 = −1. On peut vérier que
A est diagonalisable dans R.
ii) La matrice A
 
0 1
A= ∈ M2 (R) , (D.3)
−1 0
n'est pas diagonalisable en R. En eet, ses valeurs propres sont λ1 = i et λ2 = −i. Elle
est diagonalisable dans C.
iii) La matrice σy
 
0 i
σy = ∈ M2 (C) , (D.4)
−i 0
est une matrice hermitienne. Ses valeurs propres sont λ1 = 1 et λ2 = −1, alors la matrice
est diagonalisable dans C. Noter que λ1 et λ2 sont réels. Néanmoins, les vecteurs propres
sont complexes.

iv) La matrice N
 
0 1
N= ∈ M2 (R) , (D.5)
0 0
n'est pas diagonalisable dans C. En eet, sa seule valeur propre est λ = 0. Si elle était
diagonalisable, elle serait la matrice nulle, et ce n'est pas le cas. De la même manière, la
matrice J
 
1 a
N= ∈ M2 (C) , (D.6)
0 1
n'est pas diagonalisable dans C. En eet, la seule valeur propre et λ = 1. Si J était
diagonalisable, elle serait semblable à la matrice unité, ce qui amène à une contradiction.

v) On peut construire des exemples de manière systématique en utilisant laforme normale de


Jordan, valable pour n'importe quelle matrice complexe carrée (preuve par récurrence).

D.2 Diagonalisation de matrices normales


Théorème D.1. Une matrice A est normale si et seulement si il existe U une matrice unitaire
telle que
A = U DU ∗ (D.7)

avec D la matrice diagonale formée des valeurs propres. C'est-à-dire, une matrice normale est
diagonalisable et ses vecteurs propres sont orthonormés.
Dém: (voir Nantes)

Vous aimerez peut-être aussi