Cours AnalNum
Cours AnalNum
Organisation
- CM: 24 heures, 12 séances. TD: 18 heures, 9 séances. TD: 8 heures, 4 séances.
- Page web :
http://jaramillo.perso.math.cnrs.fr/Courses/AnalyseNumerique/AnalyseNumerique.html
Intervenants
I Problèmes linéaires 5
2 Méthodes directes 15
2.1 Décomposition LU (méthode de Gauss/ d'échelonnement) . . . . . . . . . . . . . 15
2.1.1 Algorithme LU, sans permutation . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Algorithme LU, avec permutation . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Décomposition de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Méthodes itératives 45
5 Méthodes de descente 47
II Interpolation 49
6 Interpolation polynomiale 51
III Annexes 53
A Espaces linéaires 55
A.1 Rappel sur les espaces linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.2 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
A.3 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3
4 TABLE DES MATIÈRES
B Matrices 59
B.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
B.1.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 60
B.1.2 Rang et noyau d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 61
B.1.3 Inverse d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
B.2 Applications linéaires et matrice d'une application linéaire . . . . . . . . . . . . . 62
B.2.1 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
B.3 Matrices et géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
C Factorisation de matrices 65
D Diagonalisation 67
D.1 Notion de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
D.2 Diagonalisation de matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . 68
Part I
Problèmes linéaires
5
Chapitre 1
Ax = b , (1.1)
avec A une matrice et b un vecteur donnés dans des espaces linéaires de dimension ni. Un
problème lié qui va aussi nous occuper est la résolution du problème spectral de la matrice A
Ax = λx . (1.2)
Les appendices A-C orent un rappel des éléments de base sur les espaces linéaires et sujets liés.
La résolution ecace de l'équation (1.1) pour des dimensions élevées pose un problème di-
cile dont la résolution demande le concours de diérentes techniques mathématiques. L'esprit ici
est de souligner l'enchevêtrement de l'Algèbre Linéaire, la Géométrie et l'Analyse Mathématique
dans l'Analyse Numérique. Le problème abordé dans la section suivante illustre ce point.
Lemme 1.1. (Une matrice symétrique réelle est diagonalisable sur R).
Soit V un espace vectoriel
sur R de dimension nie: dim(V ) = n, n ∈ , muni d'un produit scalaire h , i; V × V → R, avec
N∗
norme associée ||x|| = hx, xi 2 , ∀x ∈ V . Soit T une application linéaire T : V → V , symétrique
1
7
8 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES
ii) On suppose que le résultat est vrai pour dim(V ) < n (hypothèse de récurrence). On le
montre pour dim(V ) = n.
Soit V un espace linéaire avec produit scalaire, avec dim(V ) = n < ∞ et T : V → V
linéaire symétrique. On dénit :
ϕ:V → R
x 7→ hT x, xi .
On va montrer que T v = λv .
Soit y ∈ V \ {0} et soit
1
t ∈]0, ||y|| [, alors v + ty 6= 02 On en déduit :
v + ty
∈ S1 (1.5)
||v + ty||
et donc :
v + ty v + ty
ϕ(v) ≥ hT , i ⇔ λ||v + ty||2 ≥ hT (v + ty), v + tyi . (1.6)
| {z } ||v + ty|| ||v + ty||
λ
En développant à gauche :
λ||v + ty||2 = λh(v + ty), v + tyi = λ ||v||2 +2thv, y)i + t2 ||u||2 , (1.7)
| {z }
=1
et à droite :
1
Il faut utiliser une application linéaire T symétrique (hermitien) par rapport au produit scalaire hermitien
(voir Appendix A.3).
2
6 0.
Avec |||x|| − ||y||| ≤ ||x − y||, on a ||v + ty|| ≥ |||v|| − ||ty||| = |1 − t||y|| | =
| {z }
6=0
1.2. DIAGONALISATION DE MATRICES RÉELLES SYMÉTRIQUES 9
On a alors :
On pose en = v et λn = λ.
Maintenant, on utilise l'hypothèse de récurrence. Soit W = {x ∈ V ; hx, en i = 0}. Alors
V 6= W et V = W ⊕ LinR (en ). On peut décomposer x∈V
tels que :
On choisit nalement :
n
X
hx, yi = xt · y = xi y i ,
i=1
T : Rn → Rn
x 7→ A · x , où x = xi ei , B = {ei∈N } base canonique (1.17)
10 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES
est linéaire et symétrique. Notez que A est la matrice de T dans la base canonique
A = M (T, B, B) (1.18)
Pour la symétrie,
t t t
hx, T yi = xt · A · y = xt · A · y = (A · y)t · xt = yt · A · x = yt · A · x
= (A · x)t · y = hT x, yi . (1.19)
et on peut écrire
A = P DP −1 , D = P −1 AP (1.23)
Étant donné que P est la matrice de changement de base entre des bases orthonormées, la matrice
P est orthogonale, c.à.d P −1 = P t .
Ax = b , (1.24)
a) EDP et Laplacien:
L'équation de Poisson est
∂2 ∂2 ∂2
−∆u = f , où ∆= + + . (1.25)
∂x2 ∂y 2 ∂z 2
L'opérateur ∆ est le Laplacien et cette équation est un exemple d'EDP de type dit ellip-
tique. Elle joue un rôle fondamental dans plusieurs contextes mathématiques et physiques.
Voici quelques exemples :
1.3. EXEMPLES DE MATRICES SYMÉTRIQUES 11
Potentiel électrostatique
ρcharge
−∆φlec = . (1.27)
états stationnaires de l'équation de la chaleur, avec une densité de ux de chaleur q
∂T
ρcp = k∆T + q (1.28)
∂t
Celle-ci est une EDP de type parabolique.
états stationnaires de l'équation d'ondes avec forçage g
∂2u
− + c2 ∆u = g . (1.29)
∂t2
L'équation d'ondes est le prototype d'EDP de type hyperbolique.
Remarque 1.2. espace de Hilbert complexe. Nous pouvons aussi considérer des fonctions
ϕ : D ⊂ Rn → C, |ϕ|2 dn x < ∞,
R
avec qui est aussi un espace de Hilbert avec produit
D
hermitien (sesquilinéaire)
Z
hϕ, φi = ϕ̄φdn x (1.31)
D
On va étudier une discrétisation de cet opérateur, notamment ce qu'on appelle des diérences
nies. Pour simplier, nous allons étudier le cas en dimension 1, avec des condiitions aux bords
dites "Dirichlet honogèenes". L'équation (1.25) devient
d2 u
−
= f (x) (1.32)
dx2
u(0) = u(1) = 0
i
xi = ih = , ∀i ∈ {0, 1, . . . , N + 1} (1.33)
N +1
3
La notion d'opérateur auto-adjoint dans un espace linéaire de dimension innie implique des aspects subtils
sur le domaine de l'opérateur. Dans ce cours, nous ne discutons pas de ces questions.
12 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES
On évalue l'équation (1.32) dans les points xi ∈ {1, . . . , N }. Notons que u(x0 ) = u(xN +1 ) = 0.
Ainsi :
où f (xi ) sont les valeurs exactes de la solution u(x) evalué sur xi . On va suposser que u ∈
C 4 ([0, 1], R). On peut alors écrire le développement de Taylor-Lagrange :
h2 00 h3 h4
u(xi+1 ) = u(xi + h) = u(xi ) + hu0 (xi ) + u (xi ) + u(3) + u(4) (ξi ) , ξi ∈]xi , xi+1 [ .(1.35)
2 6 24
De la même manière :
h2 00 h3 h4
u(xi−1 ) = u(xi − h) = u(xi ) − hu0 (xi ) + u (xi ) − u(3) + u(4) (ηi ) , ηi ∈]xi−1 , xi [ .(1.36)
2 6 24
Si on ajoute les deux expressions, on obtient :
h4 (4)
u(xi+1 ) + u(xi−1 ) = 2u(xi ) + h2 u00 (xi ) + (u (ξi ) + u(4) (ηi )) . (1.37)
24
Alors, on peut écrire :
h2 (4)
Ri = (u (ξi ) + u(4) (ηi )) , (1.40)
24
de telle manière que :
h2 (4) h2
|u (ξi ) + u(4) (ηi )| ≤ |u(4) (ξi )| |u(4) (ηi )|
|Ri | = +
24 24 | {z } | {z }
≤supx∈]0,1[ |u(4) (x)| ≤supx∈]0,1[ |u(4) (x)|
h2 h2 (4)
= sup |u(4) (x)| = ||u ||∞ . (1.41)
12 x∈]0,1[ 12 | {z }
<∞
1.3. EXEMPLES DE MATRICES SYMÉTRIQUES 13
Cela nous dit que l'erreur de consistance tend vers 0 comme h2 (on dit que le schéma est consistant
à l'ordre 2).
L'idée maintenant est de se rapprocher du problème originel par un problème discret, en
faisant
2
h2
, i = j , i, j ∈ {1, . . . , N }
(∆N )ij = − h12 , |i − j| = 1 , i, j ∈ {1, . . . , N } (1.44)
0 , |i − j| > 1 , i, j ∈ {1, . . . , N }
∆N u = b (1.45)
2 −1 0 0
2 −1 0
2 −1 −1 2 −1 0
∆2 = , ∆3 = −1 2 −1 , ∆4 = ,
−1 2 0 −1 2 −1
0 −1 2
0 0 −1 2
On verra que cette matrice est inversible (en fait elle symétrique dénie positive), ce qui nous
permet de trouver la solution approchée comme :
Cette équation diérentielle nous amène à notre premier problème matriciel de type Ax = b, et
on peut déjà voir que si N devient très grand, le problème d'inversion de ∆N devient non-trivial.
Ce problème d'inversion des matrices de grande taille, et en particulier des matrices symétriques,
sera un des sujets fondamentaux de ce cours.
Un autre aspect important, déjà présent dans ce problème? concerne la convergence de la
méthode. Notamment, l'attente est que, lorsque h → 0, la solution approchée ui tend vers u(xi ).
C'est-à-dire que, si on dénit l'erreur comme :
∆n e = R , (1.48)
14 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES
Le fait que |Ri | tende vers 0 h → 0 est bon, mais ce n'est pas susant pour garantir que
quand
e → 0. Pour ça, il faut montrer que ∆N , qui dépend de h, est telle que l'on puisse donner un
sens à la norme ||(∆N )
−1 || et elle qu'elle soir, notamment bornée indépendamment de h. Ce
type de question liant la convergence d'un schéma avec la norme d'une matrice approprié sera
aussi l'objet de notre cours.
Chapitre 2
Méthodes directes
Ax = b , A ∈ Mn (R) , x, b ∈ Rn (2.1)
une méthode qui donne exactement x (A et b étant connus), solution de (3.34) après un nombre
ni d'opérations élémentaires.
4 −2 6 12
A = 2 −4 9 , b = −24 . (2.2)
−4 5 −9 12
4 −2 6 12
à = A b = 2 −4 9 −24 , (2.3)
−4 5 −9 12
Et on procède avec la méthode de pivot déjà étudiée pour transformer A en une matrice tri-
angulaire supérieure. Simplement, dans ce process, on va garder systématiquement l'information
des lignes qu'on retranche à chaque pas de l'itération. Concrètement, vu que `1 (1) = 4 6= 0, nous
pouvons l'utiliser comme pivot. Si on note Ã0 =Ã
`2 →`2 − 42 `1
4 −2 6 12
Ã0 −→ Ã1 = 0 −3 6 −30 . (2.4)
−4 5 −9 12
Notons que cette transformation de à et b, qui change la deuxième ligne en lui retranchant la
1
première ligne multipliée par un facteur
2 est le résultat de multiplier Ã0 par la gauche par la
15
16 CHAPITRE 2. MÉTHODES DIRECTES
matrice :
1 0 0 0 0 0 1 0 0
1
E1 = 0 1 0 − 1 0 0 = − 12 1 0 (2.5)
2
0 0 1 0 0 0 0 0 1
Comme résultat de la procédure, autant que tous les pivots qu'on trouve soient diérents de zéro,
on construit un système linéaire équivalent Ã3 x = b̃ échelonné qu'on peut résoudre facilement
par remontée. Le résultat est
9
x= 6 (2.8)
−2
Si on a besoin de résoudre ce système pour diérents vecteurs b, dans chaque cas on doit répéter le
calcul du vecteur b̃ (dans le process d'échelonnement de A). Si le nombre d'équations à résoudre
est élevé, cette répétition est clairement à éviter en cherchant une méthode plus ecace. Si on
regarde notre exemple, on note que c'est ce qu'on a fait, on peut l'écrire :
Ax = b −→ E3 E2 E1 A x = E3 E2 E1 b , (2.9)
| {z }
U
où U est une matrice triangulaire supérieure (c.à.d. uij = 0, si i > j ). Le matrices Ei sont
inversibles et on peut alors multiplier l'expression à gauche
avec
1 0 0 1 0 0 1 0 0
(E1 )−1 = 12 1 0 , E2−1 = 0 1 0 , E3−1 = 0 1 0 (2.11)
0 0 1 −1 0 1 0 −1 1
Ce qui amène à :
1
0 0
L = 12 1 0 (2.12)
−1 −1 1
L est une matrice triangulaire inférieure (lij = 0, i < j ) avec des 1 dans la diagonale principale
et les éléments non nuls sont les coecients qu'on a utilisé pour retrancher chaque ligne dont
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 17
matrice A comme le produit d'une matrice triangulaire inférieure L et d'une matrice triangulaire
supérieure U
A = LU . (2.15)
Ce qui est particulier de la décomposition (2.16) c'est que les éléments de la diagonale principale
de la matrice L sont seulement des 1. Comme va le voir plus tard, une telle décomposition est
unique et on l'appelle décomposition LU de la matrice A.
Si on utilise cette décomposition, on peut résoudre le système original
Ax = b
LU x = b (2.19)
Ly = b
Ux = y (2.20)
1
En général, la structure de matrice sera toujours
1 0 0 1 0 0 1 0 0
(E1 ) = −a 1 0 , E2 = 0 1 0 , E3 = 0 1 0
0 0 1
−b 0 1 0 −c 1
(2.13)
1 0 0 1 0 0 1 0 0
(E1 )−1 = a 1 0 , E2−1 = 0 1 0 , E3−1 = 0 1 0
0 0 1 b 0 1 0 c 1
Ce qui amène à :
1 0 0
L = E1−1 E2−1 E3−1 = a 1 0 (2.14)
b c 1
18 CHAPITRE 2. MÉTHODES DIRECTES
Étant donné b, la résolution pour y est directe car L est échelonnée. En particulier, vu que L
est triangulaire inférieure, on va résoudre par descente. Une fois y calculé, on résout pour x par
remontée. La procédure peut être répétée en commençant toujours avec b.
Nous présentons maintenant les pas pour résoudre le système par factorisation, dans le cas que
tous les pivots qu'on trouve soient diérents de zéro.
1. Factorisation.
On passe en n−1 pas de la matrice A(1) à une matrice A(n) = U triangulaire supérieure.
Dans le process, on construit la matrice L.
b) Pour A(k+1) :
(k+1) (k)
aij = aij , i ∈ {1, . . . , k}, j ∈ {1, . . . , n}
(k+1) (k) (k)
aij = aij − lik akj , i ∈ {k + 1, . . . , n}, j ∈ {1, . . . , n} . (2.23)
c) Pour U:
(k+1)
uk+1,j = ak+1,j , j ∈ {1, . . . , n} (2.24)
iii) Pas k = n: On agit comme dans le cas k+1<n et on nit la dernière colonne de L
li,n = 0 , i < n , lnn = 1 . (2.25)
i) Pas k = 1:
A(1) = A . (2.28)
ii) Pas k + 1 ≤ n: On introduit la matrice Ek avec des zéros partout sauf dans la diagonale
principale (diag[1 . . . 1]) et en dessous de la diagonale principale dans la colonne k:
On a alors
U = A(n)
1 ... 0 ... ... 0
a(1) .. .
.
2,1 . 0 .
a(1)
11
.. .
.
. 1 0 .
L = E1−1 · . . . · En−1 = .. (k)
. (2.31)
ak+1,k
.
. (k) 1 .
akk
. . ..
.. .
. . 0
a(1) (k) (n−1)
n,1 an,k an,n−1
(1) ... (k) ... (n−1) 1
a11 akk an−1,n−1
Notez:
a) Comme on peut le voir dans la notation adoptée dans le pas ii), on a regroupé dans la
matrice Ek tous les coecients utilisés pour obtenir des zéros sous la diagonale principale
à la colonne k. En général, une matrice Ek est une matrice triangulaire inférieure, avec
des 1 dans la diagonale principale et des éléments non nuls seulement dans la colonne k en
dessous de la diagonale.
b) La matrice L a une forme très simple: elle est triangulaire inférieure, avec pour diagonale
diag(1, . . . , 1) et l'élément lij est le coecient par lequel on a multiplié la ligne de pivot
(j)
ajj avant de la retrancher de la ligne i.
20 CHAPITRE 2. MÉTHODES DIRECTES
Dans la discussion précédente, on a supposé qu'à chaque pas de l'itération, on trouve un pivot
non nul. Ceci n'est pas le cas en général. Pour illustrer la manière de procéder quand on trouve
un pivot nul, on commence avec un exemple.
produit un zéro pour le deuxième pivot. Pour pouvoir continuer, on interchange simplement la
deuxième et la troisième ligne. En eet, cette opération ne change le système linéaire associé.
Concrètement :
1 1 1
`2 ↔`3
A(2) −→ Ã(3) = 0 −1 −1 (2.34)
1 0 0
P2 =0 0 1
0 0 −2
0 1 0
Dans ce cas, l'itération a déjà abouti à une matrice triangulaire supérieure. On peut écrire les
pas suivants :
P2 E1 A = U (2.35)
où E10 est obtenue à partir de E1 en interchangeant, dans la colonne 1, deux éléments (dans ce
cas, les deuxième et troisième). Ainsi, on peut réécrire (2.35)
E10 P2 A = U
P2 A = (E10 )−1 U = LU . (2.38)
| {z }
L
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 21
Autrement dit,
1 0 0 1 1 1 1 0 0 1 1 1
0 0 1 1 1 −1 = 2 1 0 0 −1 −1 (2.39)
0 1 0 2 1 1 1 0 1 0 0 −2
| {z }| {z } | {z }| {z }
P2 A L U
On a pas réussi
2 à écrire A = LU . Par contre, on a trouvé un réarrangement des lignes de A,
donné par P 2 A, qui admet en fait la décomposition P2 A = LU . Dans le théorème 2.1, on va
montrer qu'on peut toujours trouver une telle décomposition.
La matrice P2 dans l'exemple précédent est un cas de matrice de permutation P, qui nous a
servi à réordonner les lignes dans la procédure de Gauss pour trouver un pivot non nul.
1 1 1 2 1 1
`1 ↔`3
A(1) = A = 1 1 −1 −→ Ã(1) = 1 1 −1
0 0 1
2 1 1 1 1 1
P 1 =0 1 0
1 0 0
1`
`2 → `2 − 2 1 2 1 1
`3 → `3 − 1 `
2 1
−→ A(2) = 0 21 − 32
1 0 0
E1 =− 12 1 0
0 21 1
2
− 21 0 1
2 1 1
`3 →`3 −`2
−→ A(3) = 0 21 − 32 (2.40)
1 0 0
E2 =0 1 0
0 0 2
0 −1 1
2
En fait, on peut montrer que pour cette matrice, ce n'est possible à faire (voir caractérisation dans le théorème
2.1).
22 CHAPITRE 2. MÉTHODES DIRECTES
E2 E1 P1 A = U , (2.41)
0 0 1 1 1 1 1 0 0 2 1 1
0 1 0 1 1 −1 = 12 1 0 0 12 − 23 (2.43)
1
1 0 0 2 1 1 1 1 0 0 2
| {z }| {z } | 2 {z }| {z }
P1 A L U
Ici, P1 est à nouveau une matrice de permutations mais elle est diérente de celle de l'exemple
(2.2).
Dénition 2.2 (matrice de permutation). Une matrice P ∈ Mn (N) est une matrice dont les
éléments sont des 0 ou des 1 et telle qu'il y a un seul 1 par ligne et par colonne. Autrement
dit, étant donnée une permutation {σ(1), . . . , σ(n)} des éléments {1, . . . , n}, les éléments de la
matrice de permutation associée à σ P σ s'écrivent :
σ 1, σ(i) = j
Pij = δσ(i),j = (2.44)
0, σ(i) 6= j
i) Si on voit P σ comme la matrice d'une application linéaire dans une base B = (e1 , ..., en ),
σ
la matrice P réordonne simplement les éléments de la base pour donner une nouvelle base
0
ordonnée B = (eσ(1) , . . . , eσ(n) ).
ii) étant donnée une matrice A ∈ Mn (R),en multipliant par P à gauche (A → P A), on
réordonne les lignes de A, tandis qu'en multipliant à droite (A → AP ), on réordonne les
colonnes.
iii) Transpositions. Pour notre problème, il sut de considérer des transpositions, c'est-à-dire
des permutations qui interchangent simplement deux éléments. Dans ce cas, l'expression
matricielle est particulièrement simple :
1
..
.
0 ... ... ... 1
. .
. .
. 1 .
. .. .
P (i,j) = . . (2.45)
. . .
. .
. .
. 1 .
1 ... ... ... 0
..
.
1
i) Pas k = 1:
A(1) = A . (2.46)
ii) Pas k + 1 ≤ n: D'abord, on arrange les lignes de la matrice en multipliant à gauche par
une permutation Pk (notamment une transposition) qui change seulement l'ordre des lignes
`(i) avec i ≥ k. Après, on multiplie (à gauche) par la matrice Ek de (2.29). On a alors
iii) Une fois le procédé ni, on construit une matrice triangulaire supérieure
La diérence fondamentale avec le cas sans permutation est que les pas précédents n'amènent
pas directement, en général, à une matrice triangulaire inférieure comme L = (E1 )−1 . . . (En−1 )−1 .
En eet, en général, les matrices Ek et Pk+l (avec l ≥ 1) ne commutent pas, ce qui empêche de
factoriser la matrice En−1 . . . E1 à gauche dans (2.48). On peut illustrer ceci avec un exemple.
Si on considère le cas n = 4, on peut écrire (2.48) comme :
Comme on l'a dit, les matrices Ei et Pj ne commutent pas en général, alors on ne peut pas écrire
(E3 E2 E1 )(P3 P2 P1 )A = U . En eet, si on considère par exemple le troisième pas de l'algorithme,
on peut écrire :
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
E2 =
0
, P3 = , (2.50)
a 1 0 0 0 0 1
0 b 0 1 0 0 1 0
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
P3 E2 =
0
, E2 P3 = (2.51)
b 0 1 0 a 0 1
0 a 1 0 0 b 1 0
où Ek0 est obtenue à partir de Ek en interchangeant les éléments dans la colonne k sous la diagonale
0
principale, d'accord avec la permutation Pk+l (cf. E2 et E2 en (2.50) et (2.53), respectivement).
Pour l'expression générale, pour le cas des transpositions, on a :
(i ,jo ) (i ,jo )
o
Pk+l Ek = Ek0 Pk+l
o
, (2.55)
avec
Théorème 2.1 (Décomposition LU ). Soit A ∈ Mn (R) une matrice inversible. Alors il existe une
permutation P (non unique) telle que, pour ce P , il existe un et un seul couple de matrices (L, U )
où L est triangulaire inférieure de termes diagonaux égaux à 1 et U triangulaire supérieure, avec
P A = LU . (2.57)
Preuve :
• Existence.
L'existence découle directement de l'expression (2.48) comme résultat de la factorisation
dans l'algorithme LU avec permutations. On peut alors écrire :
0
En−1 En−2 Pn−1 . . . E20 P3 E10 P2 P1 A = U
...
0 n−3) n−2)
(En−1 En−2 . . . E2 E1 ) (Pn−1 Pn−2 . . . P3 P2 P1 )A = U . (2.59)
2.1. DÉCOMPOSITION LU (MÉTHODE DE GAUSS/ D'ÉCHELONNEMENT) 25
on peut écrire
P A = LU . (2.61)
Notez que la preuve d'existence n'utilise pas le fait que A soit inversible.
• Unicité.
On suppose que pour P donné, il existe deux couples (L1 , U1 ) et (L2 , U2 ), tels que:
P A = L1 U1 , P A = L2 U2 , (2.62)
alors
L1 U1 = L2 U2 (2.63)
L−1 −1
2 L1 = U2 U1 (2.64)
L−1 −1
2 L1 = In = U2 U1 , (2.65)
et on conclut
L1 = L2 , U1 = U2 (2.66)
ii) étant donnée P , si A est inversible, L et U sont uniques. Mais si A n'est pas inversible, la
décomposition P A = LU peut toujours se faire, mais elle n'est pas unique.
3
Exercice! (Matrices triangulaires). Montrer que pour L1 , L2 matrices triangulaires inférieures (respectivement
U1 , U2 matrices triangulaires supérieures), les matrices L−1
1 , L2 , L1 · L2 sont triangulaires inférieures (respective-
−1
i) Pivot partiel versus pivot total. Dans l'algorithme qui amène à la construction des matrices
L et U (partie d'existence), on interchange seulement les lignes, et pas les colonnes, pour
trouver le pivot avec la valeur absolue la plus grande. On parle de pivot partiel. Pour le
pivot total, on chercherait le plus grand pivot en changeant aussi les colonnes.
ii) L'algorithme du pivot partiel dans le problème Ax = b, ne réarrange pas les composantes
de x vu qu'on ne change pas le colonnes de A. Le vecteur b, par contre, est en général
réarrangé.
Dénition 2.3 (matrice principale, mineur principal) . Soit A ∈ Mn (R) et k ∈ {1, . . . , k}. On
appelle:
i) Matrice principale d'ordre k de A, la matrice Ak ∈ Mk (R) dénie par (Ak )ij = Aij , ∀i, j ∈
{1, . . . , k}.
Lemme 2.1. Soit A ∈ Mn (R) et k ∈ {1, . . . , n}. On suppose que pour chaque matrice principale
Ak de A, il existe une matrice Lk ∈ Mk (R) triangulaire inférieure avec des coecients diagonaux
tous égaux à 1 et une matrice triangulaire supérieure Uk ∈ Mk (R) inversible, telles que Ak =
Lk Uk . On a alors:
2.2. DÉCOMPOSITION DE CHOLESKI 27
où (bk ) ∈ Mk,1 (R) est la première colonne de la matrice Bk , (ck ) ∈ M,k (R) est la première
ligne de la matrice Ck , et dk est le coecient de la ligne 1 et colonne 1 de Dk .
Preuve: À compléter.
Preuve (de la proposition 2.1): À compléter.
Dénition 2.4 (Matrice dénie positive) . A ∈ Mn (R) est symétrique dénie positive si :
i) A = At (symétrique).
Proposition 2.2 (Caractérisation d'une matrice symétrique dénie positive par ses mineurs
principaux). A ∈ Mn (R) est symétrique dénie positive si et seulement si tous ses mineurs
principaux sont strictement positifs.
Exemple 2.5 (Premier contact avec la factorisation de Choleski) . Nous considérons la matrice
1 1 2
A = 1 5 6 . (2.71)
2 6 17
28 CHAPITRE 2. MÉTHODES DIRECTES
La matrice A est symétrique et, comme on peut le vérier à partir e.g. du calcul de ses mineurs
principaux, elle est aussi dénie positive. Alors, elle admet une décomposition A = LU unique.
On va construire explicitement une telle décomposition.
1 1 2 `2 → `2 − `1 1 1 2 1 1 2
`3 → `3 − 2`1 `3 →`3 −`2
1 5 6 −→
0 4 4 −→
0 4 4 . (2.72)
1 0 0 1 0 0
2 6 17 (E −1 =1 1 0
0 4 13 (E −1 =0 1 0
0 0 9
1) 2)
2 0 1 0 1 1
A = LDLt (2.75)
Nous notons que tous les coecients de D sont strictement positifs. Alors, nous pouvons intro-
duire la matrice racine carrée
1 0 0
1
D 2 = 0 2 0 (2.76)
0 0 3
pour écrire :
1 0 0 1 0 0 1 0 0 1 1 2
1 1
A = LD 2 D 2 Lt = 1 1 0 0 2 0 0 2 0 0 1 1
2 1 1 0 0 3 0 0 3 0 0 1
| {z } | {z }
L̃ L̃t
1 0 0 1 1 2
= 1 2 0 0 2 2 (2.77)
2 2 3 0 0 3
| {z } | {z }
L̃ L̃t
C'est-à-dire, on a écrit
1 0 0
A = L̃L̃t , avec L̃ = 1 2 0 . (2.78)
2 2 3
La matrice L̃ est triangulaire inférieure avec coecients positifs dans la diagonale principale.
L'expression (2.78) s'appelle la décomposition de Choleski de A.
2.2. DÉCOMPOSITION DE CHOLESKI 29
Le pas clé, dans l'exemple précédent, est la possibilité de prendre (dans les réels) la racine
carrée de la matrice D dénie pour la diagonale principale de U. Dans l'exemple suivant, le cas
de la décomposition de Choleski dans M2 (R), on voit que ceci est une conséquence du caractère
symétrique déni positif des matrices considérées. Après l'exemple, ceci est énoncé en toute
généralité.
Exemple 2.6 (Décomposition de Choleski: cas n = 2). On considère une matrice A ∈ M2 (R)
symétrique dénie positive, on peut toujours écrire :
a b
A= . (2.79)
b c
1
Si on prends x= , le caractère déni positif de A implique
0
t
a b 1
Ax · x = x Ax = 1 0 =a>0. (2.80)
b c 0
Autrement dit, le mineur principal A1 = a > 0, comme il en résulte de la caractérisation 2.2.
Ainsi, étant donné que a > 0, on peut procéder à la décomposition LU
a b `2 →`2 − ab `1 a b
A= −→ 2 . (2.81)
b c
1 0 0 c − ba
L= b
a
1
1 ab
1 0 a b 1 0 a 0
A= b 2 = b 2 (2.82)
a 1 0 c − ba a 1 0 c − ba 0 1
| {z } | {z } | {z } | {z } | {z }
L U L D Lt
1
Comme on l'a annoncé ci-dessus, la proposition suivante nous garantit que D2 peut toujours
être construite comme matrice réelle, pour des matrices symétriques dénies positives.
Proposition 2.3 (Caractérisation d'une matrice symétrique dénie positive à partir de sa dé-
composition LU ). Soit A ∈ Mn (R) une matrice symétrique admettant une décomposition LU
sans permutation. Alors A est symétrique dénie positive si et seulement si tous les pivots
(c.à.d. les coecients diagonaux de la matrice U ) sont strictement positifs.
30 CHAPITRE 2. MÉTHODES DIRECTES
Preuve: À compléter.
Théorème 2.2 (Décomposition de Choleski). Soit A ∈ Mn (R), une matrice symétrique dénie
positive. Alors il existe une unique matrice L̃ ∈ Mn (R) telle que:
i) L̃ est triangulaire inférieure.
ii) ˜lii > 0, ∀i ∈ {1, . . . , n}.
iii) A = L̃L̃t .
Preuve:
• Existence. Par récurrence sur la dimension n.
1) Cas n = 1.
On a A = (a11 ). A est automatiquement symétrique et elle est dénie positive si et
√
seulement si a11 > 0. On dénit L̃ = (˜
l11 ), avec ˜l11 = a11 et on a
A = L̃L̃t . (2.85)
B a
A= (2.86)
at α
M 0
L̃ = (2.89)
bt λ
2.2. DÉCOMPOSITION DE CHOLESKI 31
A = L̃L̃t . (2.90)
Mb = a
b b + λ2 = α .
t
(2.92)
b = M −1 a , (2.93)
et
et on peut écrire :
λ2 = α − at B −1 a . (2.95)
−1
B a
x= (2.96)
−1
On a x 6= 0, alors :
In
−1
B a B a z }| {
0 < xt Ax = (B −1 a)t = (B −1 a)t −1 BB −1 a − a
−1 t
a α −1
at B −1 a − α
0
(B −1 a)t = α − at B −1 a
= −1 (2.97)
at B −1 a − α
et, nalement
M √ 0
L̃ = , (2.99)
(M −1 a)t α − at B −1 a
• Unicité.
Dans la deuxième de partie de la preuve, on utilise de manière fondamentale l'existence
montrée dans la première partie. Cela nous garantit, en particulier, de prendre la racine
carrée des expressions qu'on va trouver dans l'algorithme.
Étant donnée A symétrique dénie positive, dans la première partie on a montré l'existence
d'une matrice L̃ telle que :
n
X n
X
aij = ˜lik ˜lt = ˜lik ˜ljk (2.101)
kj
k=1 k=1
n
X n
X
a11 = ˜l1k ˜l1k = ˜l11 ˜l11 + ˜l1k ˜l1k = (˜l11 )2 . (2.102)
|{z}
k=1 k=2
=0
(k > 1)
Alors
√
l11 = a11 > 0 . (2.103)
On a la garantie qu'on peut prendre la racine carrée de a11 parce qu'on a montré dans
la première partie de la preuve l'existence d'un l11 > 0: dans le cas de trouver a11 ≤ 0,
il y aurait donc une contradiction avec le résultat déjà prouvé.
n
X n
X
a21 = ˜l2k ˜l1k = ˜l21 ˜l11 + ˜l2k ˜l1k = ˜l21 ˜l11
|{z}
k=1 k=2
=0
(k > 1)
ii) Nous continuons avec le reste des colonnes, de façon récursive. Si on a déjà calculé
les q premières colonnes, on calcule la colonne q + 1. Pour ça, on commence dans la
ligne ˜ 1,
q+ dans la diagonale principale, car dans le résultat d'existence, on a montré
que la matrice est diagonale inférieure. Ainsi
n
X q+1
X q
X
aq+1,q+1 = ˜lq+1,k ˜lq+1,k = (˜lq+1,k )2 = (˜lq+1,q+1 )2 + (˜lq+1,k )2
k=1 k=1 k=1
q
!1
X 2
˜lq+1,q+1 = aq+1,q+1 − (˜lq+1,k )2 >0 (2.105)
k=1
On note que l'expression sous la racine carrée est positive: sinon on serait en contra-
diction avec le résultat d'existence de la matrice L̃. On continue avec le reste de la
colonne. Pour i ∈ {q + 2, . . . , n}
n
X q+1
X Xq
ai,q+1 = ˜li,k ˜lq+1,k = ˜li,k ˜lq+1,k = ˜li,q+1 ˜lq+1,q+1 + ˜li,k ˜lq+1,k
| {z }
k=1 k=1 k=1
>0
q
!
˜li,q+1 = 1 X
˜li,k ˜lq+1,k
ai,q+1 − (2.106)
˜lq+1,q+1
k=1
De cette manière, nous pouvons calculer toutes les colonnes de L̃ et celle-ci est com-
plètement xée de manière unique.
Remarque 2.4 (Décomposition de Choleski: quelques points) . Nous soulignons les points suivants:
Ax = b ⇔ At (Ax = b) ⇔ At Ax = At b (2.108)
matrice
Dans ce chapitre, nous introduisons des éléments de base autour les notions de norme matricielle
et de conditionnement d'une matrice. Le but fondamental est la formulation de conditions
susantes pour la convergence des suites dénies par l'itération de l'action d'une matrice. Un
objectif secondaire est la discussion de la majoration des erreurs d'arrondis dans la résolution du
problème
Ax = b , (3.1)
Nous commençons par rappeler la notion de norme dans un espace linéaire (sur C).
Dénition 3.1 (Norme). Étant donné un espace linéaire V sur C, une norme est une application
|| · || : V → R telle que
i) ||αx|| = |α|||x|| , ∀α ∈ C, x ∈ V .
iii) ||x|| = 0 ⇔ x = 0.
Nous allons travailler avec des espaces linéaires réels de dimension ni.
Exemple 3.1 (Exemples de normes sur Rn ). Nous donnons trois exemples des normes en Rn .
Étant donnée x = (x1 , . . . , xn ) dans la base canonique, on dénit :
35
36 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE
n
!1
2
1 X
iii) La norme ||x||2 : ||x||2 = |x1 |2 + . . . + |xn | 2 2
= |xi |2 .
i=1
iv) Les deux dernières sont cas particuliers de la norme ||x||p , avec p ∈ R, p ≥ 1:
n
!1
p
1 X
||x||p = (|x1 |p + . . . + |xn |p ) p = |xi |p .
i=1
Dénition 3.2 (Normes équivalentes) . Deux normes || · ||1 et || · ||2 sur V sont équivalentes s'il
existe deux constantes réelles C1 > 0 et C2 > 0 telles que
Remarque .
3.1 Dans la suite, on va utiliser les deux propriétés suivantes :
ii) Si Rn est muni d'une norme || · ||, on appelle norme matricielle induite (ou subordonnée)
sur Mn (R) par || · || à la norme sur Mn (R) dénie par
Proposition 3.1 (propriété de la norme induite) . . Soit Mn (Rn ) muni d'une norme induite
|| · ||. Alors, pour tout A ∈ Mn (R) on a:
i) ||Ax|| ≤ ||A|| ||x|| , ∀x ∈ Rn .
ii) ||A|| = max {||Ax||} .
x∈Rn ,||x||=1
||Ax||
iii) ||A|| = max n
; x ∈ R \ {0}
||x||
iv) || · || est une norme matricielle.
Preuve:
x
i) Soit x ∈ Rn , x 6= 0. On prend y = ||x|| , alors ||y|| = 1. De la dénition de norme induite
x 1
||A|| ≥ ||A || = ||Ax|| ⇔ ||A|| ||x|| ≥ ||Ax||, ∀x ∈ Rn \ 0 . (3.5)
||x|| ||x||
Si x = 0, il se suit Ax = 0 et ||x||, alors ||Ax|| ≤ ||A|| ||x|| est vérié.
3.1. NORME MATRICIELLE, NORME MATRICIELLE INDUITE ET RAYON SPECTRAL37
||Ax|| ||x|| ||Ax||
=A , x ∈ S 1 ⇒ max = max{||Ax||} = ||A||. (3.6)
||x|| ||x|| x∈Rn \{0} ||x|| x∈S 1
Alors
Dénition 3.4 (Rayon spectral) . Soit A ∈ Mn (R) inversible. On appelle rayon spectral ρ(A)
de A à:
ii) On munit Rn de la norme || · ||1 et Mn (R) de la norme induite correspondante; notée aussi
|| · ||1 . Alors
n
X
||A||1 = max |aij |
j∈{1,...,n}
i=1
iii) On munit Rn de la norme || · ||2 et Mn (R) de la norme induite correspondante; notée aussi
|| · ||2 . Alors
1
||A||2 = ρ(At A) 2
2 2
1
||A||22 = max {||Ax||2 } = max {(Ax · Ax) } 2
x∈Rn ,||x||=1 x∈Rn ,||x||=1
xt At Ax = x · At Ax = Ax · Ax ≥ 0 . (3.11)
(Noter que Ax=0 n'implique pas x en générale, au moins que A soit inversible). Alors, on
peut
t
diagonaliser A A sur une base orthonormée B = {ei , i ∈ {1, . . . , n}} avec valeurs propres
non-négatifs :
At Aei = λi ei , ei · ej δij
0 ≤ λ1 ≤ λ2 ≤ . . . ≤ λn . (3.12)
n
X
On considère x= xi ei . Alors
i=1
! !
X X X X
At Ax · x = At A xi e i · xj e j = xi λi ei · xj ej
i j i j
X X X X
= λi xi xj ei · ej = λi (xi )2 ≤ λn (xi )2 = λn (xi )2 (3.13)
| {z }
i,j i i i
δij | {z }
||x||22
x x At Ax · x
hAt A , i= ≤ λn = max{|λ|, λ valeur propre de At A} = ρ(At A) , (3.14)
||x|| ||x|| ||x||2
Avec, (3.10) on a
Alors
qui montre le résultat. En particulier, si A est symétrique elle diagonalisable avec des valeurs
propres λA t
i , on a A A = A
2 et λi = (λA 2
i ) , ∀i ∈ {1, . . . , n}. En particulier, pour i = n on a
λn = (|λA 2 A
n |) , où |λn | = ρ(A) et on conclut
ii) Étant donnés A ∈ Mn (Rn ) et ε > 0, il exixte une norme sur Rn (qui dépend de A est de
ε) telle que la correspondante norme induite sur Mn (R), notée || · ||A,ε , vérie
||A||A,ε ≤ ρ(A) + ε , ∀A ∈ Mn (R) . (3.20)
Remarque 3.2 . Après le théorème précédent, pour une matrice A ∈ Mn (R) donnée, on peut
considérer ρ(A) comme le inmum sur l'ensemble {||A||; avec || · || norme induite sur Mn (R)}.
Notons que dans l'espace Mn (R), de dimension nie, toutes les normes sont équivalentes (génèrent
la même topologie, alors la même convergence) alors, pour n'importe quelle norme ||Ak || →
0|| (k → 0) ⇒ Ak → 0.
Pour la condition nécessaire (⇐), supposons Ak → 0 (k → 0). On considère λ une valeur
propre de A et x 6= 0 un vecteur propre associé. Alors
Ak x = λ k x . (3.25)
Remarque 3.3 (Convergence de suites de vecteurs) . Du corollaire précédent on déduit que la suite
{x(k) } k∈N dénie par x
(0) = xo et x(k+1) = Ax(k) , on a
Cette caractérisation sera utilisé dans l'étude des méthodes itératifs pour la résolution d'un
problème linéaire.
Nous venons de voir que pour montrer la convergence d'une suite de vecteurs {x(k) }k∈N
donnée par x
(k+1) = Ax(k) , il faut contrôler la valeur du rayon spectrale. Le calcul de ρ(A) peut
être dicile mais, après le théorème 3.1, il sut de trouver une norme induite || · || pour laquelle
||A|| < 1. Nous allons donner maintenant une condition susante plus générale, en montrant
qu'on peut relaxer la condition sur le caractère induit de la norme matricielle employée. Pour
montrer ça nous donons d'abord la caractérisation suivante du rayon spectrale (valable aussi en
dimension innie).
Proposition 3.3 (Caractérisation du rayon spectrale). On munit Mn (R) d'une norme générale,
notée || · ||. Soit A ∈ Mn (R). Alors
1
ρ(A) = lim ||Ak || k . (3.28)
k→∞
Preuve: Exercice.
Remarque 3.4. Noter que la norme dans la proposition est une norme générale, pas nécessairement
matricielle.
Corollaire 3.2 (Comparaison rayon spectrale et norme matricielle) . . On munit Mn (R) d'une
norme matricielle générale, notée || · ||. Soit A ∈ Mn (R). Alors
ρ(A) ≤ ||A|| (3.29)
1
1
k
ρ(A) = lim ||Ak || k ≤ lim ||A||k = ||A|| (3.30)
k→∞ k→∞
Remarque 3.5. C'est fondamental que la norme || · || soit matricielle. Ça ne marche pas pour une
norme générique non-matricielle (exercice !).
Nous nissons cette section en énonçant un résultat sur les matrices perturbation de l'identité.
Théorème 3.2 (Matrices de la forme In + A). Soit || · || une norme matricielle induite sur
Mn (R).
i) Étant donnés In ∈ Mn (R) la matrice identité et A ∈ Mn (R) telle que ||A|| < 1, on a que
la matrice In + A est inversible et
1
||(In + A)−1 || ≤ . (3.31)
1 − ||A||
3.3. CONDITIONNEMENT D'UNE MATRICE 41
ii) Si un matrice de la forme In + A ∈ Mn (R) est singulière, alors ||A|| ≥ 1 pour tout norme
matricielle.
Preuve:
i) Exercice.
Ax = b , (3.34)
Dénition 3.5. Rn muni d'une norme || · || et Mn (R) muni de la norme matricielle induite.
Soit
Étant donnée A ∈ Mn (R) inversible, on appelle conditionnement de A par rapport à la norme
|| · || le nombre réel positif
D'autre part
Alors 1 ≤ cond(A) (noter qu'on a utilisé que la norme est induite, et pas seulement ma-
tricielle).
1
cond(αA) = ||αA|| ||(αA)−1 || = |α|||A|| · ||A−1 || = ||A|| ||A−1 || = cond(A) (3.39)
|α|
iii) Étant donné que A et B sont inversibles, alors AB est aussi inversible et, utilisant le fait
que || · || est matricielle, on a
Nous allons étudier le cas d'une perturbation seulement par δA et le cas d'une perturbation
seulement par δb. Le cas plus général d'une perturbation simultanée par δA et δb suit une
stratégie pareille, mais avec une expression plus compliquée.
Proposition 3.5 (majoration de l'erreur relative par rapport à une erreur dans le deuxième
membre). Soit A ∈ Mn (R) inversible et b ∈ R , avec b 6= 0. On munit R d'une norme || · || et
n n
et x + δx est solution de
A (x + δx) = b + δb , (3.42)
Preuve: On considère
Ax = b
A (x + δx) = b + δb . (3.44)
donc
1 ||A||
≤ . (3.48)
||x|| ||b||
Si on multiplie, membre à membre, cette expression par celle dans (3.46) on obtient
Remarque 3.6 . L'inégalité (3.52) est optimale, c'est à dire, il y a des choix que la rendre une
égalité.
Proposition 3.6 (majoration de l'erreur relative par rapport à une erreur sur la matrice). Soit
A ∈ Mn (R) inversible et b ∈ , avec b 6= 0. On munit
Rn d'une norme || · || et Mn (R) de
Rn
la norme matricielle induite associée. Étant donné δA ∈ Mn (R), on suppose que A + δA est
inversible. Si x est solution de
Ax = b , b 6= 0 , (3.50)
et x + δx est solution de
alors
||δx|| ||δA||
≤ cond(A) . (3.52)
||x + δx|| ||A||
44 CHAPITRE 3. NORMES ET CONDITIONNEMENT D'UNE MATRICE
Preuve: On part de
En le développant
Si on retranche Ax = b on trouve
c'est à dire
Alors,
||δx||
≤ ||A−1 || ||δA|| . (3.58)
||x + δx||
||A||
Si on multiplie maintenant le deuxième par =1
||A||
Méthodes itératives
45
46 CHAPITRE 4. MÉTHODES ITÉRATIVES
Chapitre 5
Méthodes de descente
47
48 CHAPITRE 5. MÉTHODES DE DESCENTE
Part II
Interpolation
49
Chapitre 6
Interpolation polynomiale
51
52 CHAPITRE 6. INTERPOLATION POLYNOMIALE
Part III
Annexes
53
Appendix A
Espaces linéaires
5. Proprieté distributive:
6. Proprieté associative:
iii) V = C p ([a, b]), ensemble des fonctions réelles (complexes) continues jusqu'à la derivée
p-ième.
55
56 APPENDIX A. ESPACES LINÉAIRES
ii) Dans le cas où n < ∞, chaque système de vecteurs linéairement indépendants a un maxi-
mum de n vecteurs. En particulier, toutes les bases de V on le même nombre des vecteurs
n < ∞, appeleé dimension de V : dim(V ) = n.
i) Application bilinéaire:
ii) Symétrique:
Dénition (produit scalaire hermitien). Un produit scalaire est une application h·, ·i : V ×
V →C qui satisfait:
Matrices
B.1 Dénitions
Dénition B.1 (matrice) . Étant donnés m etn deux entiers positifs, on appelle matrice A à
m lignes et n colonnes l'ensemble ordonné de m · n éléments de K
a11 ··· a1n
A = ... .. .
. (B.1)
. .
am1 · · · amn
On note par Mm,n (K) l'ensemble de matrices de m lignes et n colonnes, avec des coecients
dans K.
Remarques :
iii) Une matrice avec une ligne est un vecteur ligne et une matrice avec une seule colonne est
un vecteur colonne
v1
. t
v= . , α = (α1 , . . . , αn ) , α = α1 . . . αn (B.2)
.
vn
iv)
A1j
Ligne-i : `i = (Ai1 , . . . , Ain ) , Colonne-j : cj = ... (B.3)
Amj
59
60 APPENDIX B. MATRICES
iii) Produit de matrices. Pour A ∈ Mm×n (K), B ∈ Mn×p (K), on dénit la matrice A ∈
Mm×p (K)
n
X
C = A · B , (cij ) = ( aik bkj ) (B.6)
k=1
Exercice B.1. Montrer que le produit de matrices est associatif est distributif par rapport
à l'addition.
Remarque B.1 . :
i) Pour des matrices carrées d'ordre n, la matrice In = (δij ) est la matrice unité, ce qui veut
dire A · In = In · A = A.
iii) Ap = A
| · .{z
. . · A}
pf ois
iv) Dénition (matrice transposée). Étant donnée une matrice A ∈ Mm×n (R), on appelle
matrice transposée de A la matrice A
t ∈ Mn×m (R) telle que
Proprietés:
(At )t = A (B.8)
t t t
(A · B) = B ·A (B.9)
Dénition (matrice conjuguée transposée). Étant donnée une matrice A ∈ Mm×n (C),
on appelle matrice conjuguée transposéede A (ou adjointe, A† ∈
voir ci-après) la matrice
Mn×m (C) telle que
(A† )† = A (B.11)
† † †
(A · B) = B ·A (B.12)
B.1. DÉFINITIONS 61
Un vecteur ligne sera considéré comme un élément de l'espace dual α ∈ (Kn )∗ , avec la
relation de dualité
α(v) = αv = αt · v (B.14)
Exemple B.1 .
Dénition B.2 (rang) . Étant donnée A ∈ Mm,n , l'image de A (notée Im(A)) est donnée par
Im(A) = {y ∈ Km ; y = Ax, x ∈ n
K }. Le rang de A est déni par rang(A) = dim(Im(A)).
Dénition B.3 (Noyau) . Étant donnée A ∈ Mm,n , le noyau de A (notée par Ker(A)) est donné
par Ker(A) = {x ∈ Kn ; Ax = 0}.
Proposition B.1. Étant donnée A ∈ Mm,n , les relations suivantes sont satisfaites
i) rang(A) = rang(At ).
ii) rang(A) + Ker(A) = n.
Dénition B.4 (matrice inverse) . Una matrice carrée d'ordre n est inversible (ou régulière ou
non-singulière) s'il existe une matrice B telle que: A · B = B · A = In . On note B = A−1 .
Une matrice qui n'est pas inversible est dite singulière. Propriétés:
wm vn
La matriceA ainsi construite est nommée matrice de A dans les bases B et B 0 et on peut la
0 0
noter A = M (A, B, B ). En particulier, l'action de la matrice M (A, B, B ) sur le vecteur dans
Rn donnée par les composantes de v en B , renvoient le vecteur w dans Rm avec les composantes
de w = Av dans B
0
v1 w1 v1 v1
.. .. .. 0 ..
. 7→ . = A · . = M (A, B, B ) · . (B.21)
vn wn vn vn
v10
v1 v1
. 0 . 0 .
. = M (In , B, B ) · .. = M (B → B ) · .. (B.22)
.
vn0 vn vn
M (B → B 0 ) = e1 · · ·
en (B.23)
Dénition B.6 (matrices semblables) . Deux matrices carrées A, B ∈ Mn (K) sont semblables
ssi ∃P inversible, telle que
A = P · B · P −1 (B.24)
B.3. MATRICES ET GÉOMÉTRIE 63
Proposition B.2. Deux matrices semblables correspondent à l'expression matricielle d'un même
endomorphisme dans deux bases diérentes.
Remarque B.2 . La notion de matrice semblable est un cas particulier dans le cas de matrices
rectangulaires équivalentes, qui correspondent à l'expression matricielle d'une même application
linéaire dans des bases diérentes.
h·, ·i : Cn × Rn → R (B.25)
t
(v, v) 7→ hv, vi = v · v (B.26)
OOt = I (B.29)
UU∗ = I (B.30)
AA∗ = A∗ A (B.31)
64 APPENDIX B. MATRICES
Appendix C
Factorisation de matrices
Théorème C.1 (Factorisation unitaire d'une matrice: Décomposition de Schur) . Toute matrice
carrée (réelle ou complexes) peut s'écrire
A = UTU∗ , (C.1)
65
66 APPENDIX C. FACTORISATION DE MATRICES
Appendix D
Diagonalisation
Dénition D.1. (valeur propres). Soit A ∈ Mn (K). On appelle valeur propre de A tout λ∈C
tel qu'il existe x∈ Cn , x 6= 0, qui satisfait Ax = λx. L'élément x est appelé vecteur propre ("à
droite") de A associé à λ.
Lemme D.1. Une matrice diagonalisable est semblable à une matrice diagonale D donnée par
λ1
λ2
D= ... , (D.1)
λn
Preuve (idée) : Le déterminant de A − λI s'annule si son noyau n'est pas trivial. On montre
que x ∈ Ker(A − λI) ssi λ est une racine de pA (λ).
Dans le cas K = C, le théorème fondamental de l'algèbre nous garantit l'existence de n
solutions complexes pour le polynôme caracteristique de A ∈ Mn (C). La proposition suivante
caractérise la possibilité de diagonaliser une matrice.
Lemme D.3. Étant donné A ∈ Mn (C), une condition nécessaire et susante pour pouvoir
diagonaliser A est que la dimension géometrique de chaque valeur propre λ, c.à.d. dim Eλ , avec
Eλ = A − λI le sous-espace propre de λ, coïncide avec sa dimension algébrique (multiplicité
comme racine de pA (λ).
67
68 APPENDIX D. DIAGONALISATION
i) La matrice σx
0 1
σx = ∈ M2 (R) , (D.2)
1 0
est réelle et symétrique. Ses valeurs propres sont λ1 = 1 et λ2 = −1. On peut vérier que
A est diagonalisable dans R.
ii) La matrice A
0 1
A= ∈ M2 (R) , (D.3)
−1 0
n'est pas diagonalisable en R. En eet, ses valeurs propres sont λ1 = i et λ2 = −i. Elle
est diagonalisable dans C.
iii) La matrice σy
0 i
σy = ∈ M2 (C) , (D.4)
−i 0
est une matrice hermitienne. Ses valeurs propres sont λ1 = 1 et λ2 = −1, alors la matrice
est diagonalisable dans C. Noter que λ1 et λ2 sont réels. Néanmoins, les vecteurs propres
sont complexes.
iv) La matrice N
0 1
N= ∈ M2 (R) , (D.5)
0 0
n'est pas diagonalisable dans C. En eet, sa seule valeur propre est λ = 0. Si elle était
diagonalisable, elle serait la matrice nulle, et ce n'est pas le cas. De la même manière, la
matrice J
1 a
N= ∈ M2 (C) , (D.6)
0 1
n'est pas diagonalisable dans C. En eet, la seule valeur propre et λ = 1. Si J était
diagonalisable, elle serait semblable à la matrice unité, ce qui amène à une contradiction.
avec D la matrice diagonale formée des valeurs propres. C'est-à-dire, une matrice normale est
diagonalisable et ses vecteurs propres sont orthonormés.
Dém: (voir Nantes)