Introduction au calcul matriciel
Introduction au calcul matriciel
Fabien Priziac
1 Dualité linéaire 7
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Formes linéaires sur un espace vectoriel et espace dual . . . . . . . . . . . . . . 7
1.3 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Aspects matriciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Annulateur d’un sous-espace vectoriel et correspondance duale . . . . . . . . . . 15
1.6 Application transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Espaces euclidiens 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Produit scalaire sur un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . 23
2.3 Orthogonalité dans les espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Orthogonalité et dualité dans les espaces euclidiens . . . . . . . . . . . . . . . . 30
2.5 Bases orthogonales et bases orthonormales . . . . . . . . . . . . . . . . . . . . . 31
2.6 Représentation matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . 35
2.7 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8 Endomorphismes orthogonaux et matrices orthogonales . . . . . . . . . . . . . . 41
2.9 Décomposition QR d’une matrice inversible . . . . . . . . . . . . . . . . . . . . 45
3
4 TABLE DES MATIÈRES
4 Exponentielle de matrices 77
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Norme de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3 Définition et propriétés de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Calcul via la réduction de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Résolution des systèmes différentiels linéaires . . . . . . . . . . . . . . . . . . . 86
5 Orthogonalité et réduction 91
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Diagonalisabilité des endomorphismes auto-adjoints . . . . . . . . . . . . . . . . 91
5.3 Matrices symétriques positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.4 Décomposition polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.5 Réduction des endomorphismes et matrices orthogonaux . . . . . . . . . . . . . 105
• MatB pvq : vecteur colonne (matrice colonne) des coordonnées du vecteur v dans la base
B.
• tA : transposée de la matrice A.
• PBÑB1 : matrice de passage de la base B à la base B 1 (il s’agit de la matrice MatB1 ,B pIdE q).
• Kn rXs : espace vectoriel sur K des polynômes en une indéterminée à coefficients dans K
et de degré au plus n.
5
6 TABLE DES MATIÈRES
• Mn,p pKq : espace vectoriel des matrices à n lignes et p colonnes et à coefficients dans K.
Dualité linéaire
1.1 Introduction
La dualité linéaire est la théorie des formes linéaires sur un espace vectoriel, c’est-à-dire,
pour K un corps commutatif quelconque, la théorie des applications linéaires E Ñ K où E
est un espace vectoriel sur K. On peut également voir la dualité linéaire comme la théorie des
équations linéaires sur un espace vectoriel. En particulier, cette théorie nous donne une cor-
respondance explicite entre les sous-espaces vectoriels d’un espace vectoriel E et les systèmes
d’équations linéaires sur E. La dualité linéaire nous fournit également une interprétation vec-
torielle de l’opération de transposition sur les matrices.
Définition 1.2.1. On appelle forme linéaire sur E toute application linéaire de E dans K.
L’ensemble des formes linéaires sur E est appelé espace dual de E et noté E ˚ .
R3 Ñ R
Exemple 1.2.2 (exemple “fil rouge”). L’application ϕ : est une
px, y, zq ÞÑ 2x ` 3y ´ 5z
forme linéaire sur R3 .
Remarque 1.2.3. ‚ E ˚ “ LpE, Kq est un espace vectoriel sur K.
‚ Si E est de dimension finie n P Nzt0u ¨ B “ te1 , . . . , en u est une base de E, alors, pour
et si ˛
x1
˚ .. ‹
tout vecteur v de E de coordonnées ˝ . ‚ dans la base B et toute forme linéaire ϕ de
xn
7
8 CHAPITRE 1. DUALITÉ LINÉAIRE
E ˚ , on a
ϕpvq “ ϕpx1 e1 ` ¨ ¨ ¨ ` xn en q
“ x1 lo
ϕpe
omo1oqn ` ¨ ¨ ¨ ` xn lo
ϕpe
omonoqn
PK PK
¨ ˛
x1
“ pϕpe1 q ¨ ¨ ¨ ϕpen qq ˝ ... ‚
˚ ‹
xn
Exemple 1.2.4 (suite de l’exemple “fil rouge”). Pour tout vecteur px, y, zq de R3 , on a
¨ ˛
x
ϕpx, y, zq “ p2 3 ´ 5q y ‚
˝
z
Définition 1.2.5. Soit ϕ P E ˚ une forme linéaire sur E non identiquement nulle. On appelle
hyperplan de E déterminé par ϕ le sous-espace vectoriel Ker ϕ de E.
ϕpe
omo1oqn x1 ` ¨ ¨ ¨ ` lo
lo ϕpe
omonoqn xn “ 0
PK PK
¨ ˛
x1
˚ .. ‹
en les coordonnées ˝ . ‚ dans la base B.
xn
Réciproquement, à tout sous-espace vectoriel H de E caractérisé par une équation linéaire
a1 x1 ` ¨ ¨ ¨ ` an xn “ 0
E Ñ K
ϕ: ,
x1 e1 ` ¨ ¨ ¨ ` xn en ÞÑ a1 x1 ` ¨ ¨ ¨ ` an xn
et alors H “ Ker ϕ.
On obtient ainsi une “correspondance” entre l’espace dual E ˚ de E et les équations linéaires
en les coordonnées dans la base B. A noter que l’espace des solutions d’un système d’équations
linéaires peut être vu comme une intersection d’hyperplans.
La famille te˚1 , . . . , e˚n u de E ˚ est une base de E ˚ , appelée base duale de B. On la note B ˚ .
Démonstration. Soit i P t1, . . ¨
. , nu.˛Commençons par remarquer que, par définition, si v est un
x1
˚ .. ‹
vecteur de E de coordonnées ˝ . ‚ dans la base B,
xn
autrement dit e˚i associe à tout vecteur v de E sa ième coordonnée dans la base B.
10 CHAPITRE 1. DUALITÉ LINÉAIRE
A présent, montrons que la famille te˚1 , . . . , e˚n u de E ˚ est libre : soient λ1 , . . . , λn P K tels
que λ1 e˚1 ` . . . ` λn e˚n soit la forme linéaire nulle, i.e., pour tout vecteur v de E, λ1 e˚1 pvq ` . . . `
λn e˚n pvq “ 0. En particulier, pour tout j P t1, . . . , nu, 0 “ λ1 e˚1 pej q ` . . . ` λn e˚n pej q “ λj et la
famille te˚1 , . . . , e˚n u de E ˚ est donc libre.
˚ ˚ ˚ ˚
Montrons ensuite que ¨ la ˛famille te1 , . . . , en u engendre E . Soit donc ϕ P E , et soit v un
x1
˚ .. ‹
vecteur de coordonnées ˝ . ‚ dans la base B. On a alors
xn
˚ ˚
ϕpvq “ ϕpx1 e1 ` ¨ ¨ ¨ ` xn en q “ lo
ϕpe
omo1oqn x1 ` ¨ ¨ ¨ ` lo
ϕpe
omonoqn xn “ ϕpe1 qe1 pvq ` ¨ ¨ ¨ ` ϕpen qen pvq.
PK PK
Ainsi, ϕ “ ϕpe1 qe˚1 ` ¨ ¨ ¨ ` ϕpen qe˚n P Vectte˚1 , . . . , e˚n u et la famille te˚1 , . . . , e˚n u est donc généra-
trice de E ˚ .
‚ E et E ˚ étant deux espaces vectoriels de même dimension finie, ils sont isomorphes.
Cependant, en général, ils ne le sont pas de façon “canonique” : un isomorphisme entre
ces deux espaces vectoriels dépend, en général, d’un choix de bases pour E et E ˚ .
Exemple 1.3.3. Si B “ te1 , . . . , en u est la base canonique de Kn , pour tout i P t1, . . . , nu, e˚i est
la forme linéaire
Kn Ñ K
e˚i :
px1 , . . . , xn q ÞÑ xi
Exemple 1.3.4. On considère la base B “ te1 , e2 , e3 u de R3 formé par les vecteurs e1 :“ p1, 1, 1q,
e2 :“ p1, 0, ´1q et e3 :“ p0, 1, 1q. Déterminons la base duale B ˚ de B : précisément, nous allons
déterminer les expressions des formes linéaires e˚1 , e˚2 et e˚3 sur R3 .
On cherche a, b, c P R tels que, pour tout px1 , x2 , x3 q P R3 , e˚1 px1 , x2 , x3 q “ ax1 ` bx2 ` cx3 .
Or
$ $ $
˚
&e1 pe1 q “ 1
’ &a ` b ` c “ 1
’ &a “ 1
’
˚
e1 pe2 q “ 0 ô a ´ c “ 0 ô b “ ´1
’
% ˚ ’ ’
e1 pe3 q “ 0 b`c“0 c“1
% %
R3 Ñ R
e˚1 :
px1 , x2 , x3 q ÞÑ x1 ´ x2 ` x3
1.3. BASE DUALE 11
Enfin, on cherche a, b, c P R tels que, pour tout px1 , x2 , x3 q P R3 , v3˚ px1 , x2 , x3 q “ ax1 `bx2 `cx3 .
Or $ $ $
˚
&v3 pe1 q “ 0
’ &a ` b ` c “ 0
’ &a “ 1
’
˚
v3 pe2 q “ 0 ô a ´ c “ 0 ô b “ ´2
’
% ˚ ’ ’
v3 pv3 q “ 1 a “1 c“1
% %
R3 Ñ R
v3˚ :
px1 , x2 , x3 q ÞÑ x1 ´ 2x2 ` x3
˚ ˚
On remarque ainsi que e2 B “ e˚2 B mais que e1 B ‰ e˚1 B . A noter également que, même si v3 est le
1 1
˚ 1 R3 Ñ R
troisième vecteur de la base canonique de R3 , v3 B n’est pas l’application .
px1 , x2 , x3 q ÞÑ x3
Dans la suite, B “ te1 , . . . , en u désignera une base de E.
ÿn
Proposition 1.3.6. 1. Pour toute forme linéaire ϕ P E ˚ , ϕ “ ϕpei qe˚i , autrement dit ϕ
¨ ˛ i“1
ϕpe1 q
a pour coordonnées ˝ ... ‚ dans la base duale B ˚ de B.
˚ ‹
ϕpen q
¨ ˚ ˛
n e1 pvq
ÿ
˚ ˚ .. ‹
2. Pour tout vecteur v P E, v “ ej pvqej , autrement dit v a pour coordonnées ˝ . ‚
j“1 e˚n pvq
dans la base B.
Remarque 1.3.7. Cela peut constituer un moyen “efficace” de déterminer les coordonnées d’une
forme linéaire dans une base duale donnée, resp. (“respectivement”) d’un vecteur dans une base
donnée.
R3 Ñ R
Exemple 1.3.8. ‚ Reprenons la forme linéaire ϕ : de
px1 , x2 , x3 q ÞÑ 2x1 ` 3x2 ´ 5x3
l’exemple fil rouge et déterminons ses coordonnées dans la base duale B ˚ de l’exemple
1.4. ASPECTS MATRICIELS 13
‚ Si l’on considère le vecteur v “ p3, ´4, 1q de R3 , on obtient ses coordonnées dans la base
B de l’exemple 1.3.4 en calculant e˚1 pvq “ 8, e˚2 pvq “ ´5 et e˚3 pvq “ ´12. On a donc
v “ 8e1 ´ 5e2 ´ 12e3 .
La proposition 1.3.6 nous permet également de montrer de l’opération qui à toute base de
E associe sa base duale est injective. Nous montrerons sa surjectivité dans la section suivante.
Ainsi B “ B 1 .
Remarque 1.3.10. Comme, sur l’espace vectoriel de dimension finie E ˚ , on a accès à des bases,
on peut utiliser les outils matriciels pour étudier les formes linéaires de E ˚ .
A présent, nous allons nous intéresser au changement de base pour les bases duales : préci-
sément, soit B 1 “ tf1 , . . . , fn u une autre base de E, on peut calculer la matrice de passage de
la base duale B ˚ à la base duale B 1 ˚ à partir de la matrice de passage de la base B à la base B 1 .
Proposition 1.4.1. On a
PB˚ ÑB1 ˚ “ tPBÑB1 ´1 “ tPB1 ÑB
(rappel : la transposition et l’inversion des matrices inversibles commutent).
Soient i, j P t1, . . . , nu. Le coefficient situé sur la ligne i et la colonne j de la matrice identité
In est δi,j et, par définition de la base duale B 1 ˚ “ tf1˚ , . . . , fn˚ u, on a
˜ ¸˜ ¸
n
ÿ n
ÿ
δi,j “ fi˚ pfj q “ qk i e˚k pl j el
k“1 l“1
n ÿ
ÿ n
“ qk i pl j e˚k pel q
k“1 l“1
ÿn ÿ n
“ qk i pl j δk,l
k“1 l“1
ÿn
“ qk i p k j
k“1
n
ÿ
Or qk i pk j est justement le coefficient situé sur la ligne i et la colonne j de la matrice produit
k“1
t QP . Ainsi, on a bien In “ t QP i.e. Q “ tP ´1 i.e. PB˚ ÑB1 ˚ “ tPBÑB1 ´1 .
R3 Ñ R
Exemple 1.4.3. On considère les formes linéaires ϕ1 : , ϕ2 :
px1 , x2 , x3 q Ñ x1 ` x2 ` x3
R3 Ñ R R3 Ñ R
et ϕ3 : sur R3 . La famille C “ tϕ1 , ϕ2 , ϕ3 u
px1 , x2 , x3 q Ñ ´x1 ` x3 px1 , x2 , x3 q Ñ x2 ` x3
` ˘˚
est une base de R3 . Pour le voir, on écrit les coordonnées de ϕ1 , ϕ2 et ϕ3 dans la base duale
B0˚ “ te˚1 , e˚2 , e˚3 u de la base canonique B0 “ te1 , e2 , e3 u de R3 : on a ϕ1 “ e˚1 ` e˚2 ` e˚3 ,
ϕ2 “ ´e˚1 ` e˚3 et ϕ3 “ e˚2 ` e˚3 , et la matrice
¨ ˛
1 ´1 0
P :“ ˝1 0 1‚
1 1 1
1.5. ANNULATEUR D’UN SOUS-ESPACE VECTORIEL ET CORRESPONDANCE DUALE15
dont les colonnes sont les coordonnées de ϕ1 , ϕ2 et ϕ3 dans la base B ˚ , est inversible.
On cherche maintenant à déterminer la base antéduale B “ tv1 , v2 , v3 u de la base C. On
procède comme dans la démonstration précédente : la matrice P ci-dessus est la matrice de
passage de B0˚ à C et la matrice de passage de la base B0 à la base B est alors la matrice tP ´1 .
On obtient ¨ ˛
1 0 ´1
t ´1
P “ ˝´1 ´1 2 ‚
1 1 ´1
et on a donc v1 “ e1 ´ e2 ` e3 “ p1, ´1, 1q, v2 “ ´e2 ` e3 “ p0, ´1, 1q et v3 “ ´e1 ` 2e2 ´ e3 “
p´1, 2, ´1q.
Définition 1.5.1. ‚ L’ensemble, noté F 0 , des formes linéaires de E ˚ qui s’annulent sur F
est appelé annulateur de F .
‚ L’ensemble, noté W 0 , des vecteurs de E qui sont annulés par toutes les formes linéaires
de W est appelé annulateur de W .
et ϕ appartient donc à F 0 .
16 CHAPITRE 1. DUALITÉ LINÉAIRE
et v appartient donc à W 0 .
Proposition 1.5.3. On a
` ˘ ` ˘
1. dimpEq “ dimpF q ` dim F 0 et dim pE ˚ q “ dimpW q ` dim W 0 ,
` ˘0 ` ˘0
2. F 0 “ F et W 0 “ W .
` ˘
Démonstration. 1. Montrons tout d’abord que dimpEq “ dimpF q`dim F 0 . Soit tv1 , . . . , vp u
une base de F que l’on complète en une base B “ ( tv1 , . . . , vp , vp`1 , . . . , vn u de E. Considé-(
rons la base duale B “ v1 , . . . , vp , vp`1 , . . . , vn et montrons que la famille vp`1 , . . . , vn˚
˚ ˚ ˚ ˚ ˚ ˚
‚ Soit i P tp ` 1, . . . , nu, alors vi˚ P F 0 car, pour tout j P t1, . . . , pu, vi˚ pvj q “ 0 (i ‰ j)
et les vecteurs v1 , . . . , vp engendrent F .
(
˚ , . . . , v ˚ de E ˚ est libre comme sous-famille de la base B ˚ .
‚ La famille vp`1 n
‚ De plus, elle engendre F 0 : en effet, soit ϕ P F 0 , alors, d’après la proposition 1.3.6
i),
` ˘ ` ˘
L’égalité dim E 0 “ dimpW q ` dim W 0 se démontre de façon tout à fait similaire, à
l’aide de la notion de base antéduale (corollaire et définition 1.4.2) : soit tϕ1 , . . . , ϕq u
une base de W que l’on complète en une base C “ tϕ1 , . . . , ϕq , ϕq`1 , . . . , ϕn u de E ˚ et
notons B “ tv1 , . . . , vq , vq`1 , . . . , vn u la base antéduale de C. On montre que la famille
tvq`1 , . . . , vn u est une base de W 0 :
‚ Soit j P tq`1, . . . , nu, alors vj P W 0 car, pour tout i P t1, . . . , qu, ϕi pvj q “ vi˚ pvj q “ 0
(i ‰ j) et les vecteurs ϕ1 , . . . , ϕq engendrent W .
‚ La famille tvq`1 , . . . , vn u de E est libre comme sous-famille de la base B.
‚ De plus, elle engendre W 0 : en effet, soit v P W 0 , alors, d’après la proposition 1.3.6
ii),
` ˘0 ` ˘0
De même, W 0 “ W car W Ă W 0 (si ϕ P W et v P W 0 alors ϕpvq “ 0) et
´` ˘0 ¯
W0 “ dimpEq ´ dim W 0 “ dimpEq ´ pdimpEq ´ dimpW qq “ dimpW q.
` ˘
dim
R3 Ñ R
de v3˚ sur R3 est v3˚ : . Ainsi
px1 , x2 , x3 q ÞÑ ´x1 ` 2x2 ´ x3
` ˘0
F “ F0 px1 , x2 , x3 q P R3 | v2˚ px1 , x2 , x3 q “ 0, v3˚ px1 , x2 , x3 q “ 0
(
“
px1 , x2 , x3 q P R3 | x2 ´ x3 “ 0, ´x1 ` 2x2 ´ x3 “ 0 .
(
“
Une méthode analogue permet d’obtenir, à partir d’une description de F comme ensemble
des solutions d’un système d’équations linéaires linéairement indépendantes, une base de F :
Exemple 1.5.5. Notons B0 “ te1 , e2 , e3 u la base canonique de R3 et considérons les formes
˚
linéaires ϕ1 “ e˚1 ` e˚2 ` e˚3 et ϕ2 “ ´e˚1 ` e˚3 sur R3 . On note W :“ Vecttϕ1 , ϕ2 u Ă R3 et(on
cherche à déterminer une base de W 0 “ px1 , x2 , x3 q P R3 | x1 ` x2 ` x3 “ 0, ´x1 ` x3 “ 0 .
Tout d’abord, remarquons que les formes linéaires ϕ1 et ϕ2 sont linéairement indépendantes :
on peut par exemple constituer la matrice dont les colonnes sont les coordonnées de ϕ1 et ϕ2
dans la base B0˚ et montrer qu’elle est bien de rang 2. On note ` 3ensuite
˘˚ ϕ3 :“ e˚2 ` e˚3 et on
complète la famille libre tϕ1 , ϕ2 u en la base C :“ tϕ1 , ϕ2 u de R . D’après l’exemple 1.4.3,
la base préduale de C est la base B “ tp1, ´1, 1q, p0, ´1, 1q, p´1, 2, ´1qu de R3 et, d’après la
démonstration de la proposition 1.5.3, W 0 “ Vecttp´1, 2, ´1qu.
Remarque 1.5.6. On a t0E u0 “ E ˚ , E 0 “ t0E ˚ u, t0E ˚ u0 “ E et pE ˚ q0 “ t0E u.
t F ˚ Ñ E˚
f:
ϕ ÞÑ ϕ ˝ f
Les propriétés de base de la transposée d’une application linéaire sont réunies dans la pro-
position suivante :
2. Pour tout ϕ P F ˚ , on a
t
pλf ` µgq pϕq “ ϕ ˝ pf ` gq “ ϕ ˝ f ` ϕ ˝ g “ tf pϕq ` tgpϕq “ tf ` tg pϕq.
` ˘
3. Pour tout ϕ P G˚ , on a
t
pg ˝ f q pϕq “ ϕ ˝ pg ˝ f q “ pϕ ˝ gq ˝ f “ tgpϕq ˝ f “ tf tgpϕq “ tf ˝ tg pϕq.
` ˘ ` ˘
` ˘ ` ˘ ` ˘ ` ˘
4. On a tf ˝ t f ´1 “ t f ´1 ˝ f “ t pIdE q “ IdE ˚ et t f ´1 ˝ tf “ t f ˝ f ´1 “ t pIdF q “ IdF ˚ .
autrement dit la matrice de la transposée tf de f dans les bases duales C ˚ et B ˚ est la transposée
de la matrice de f dans les bases B et C, ou encore, symétriquement, la transposée de la matrice
de f dans les bases B et C est la matrice de la transposée tf de f dans les bases duales C ˚ et B ˚ .
Démonstration. Soit j P t1, . . . , mu et notons A “ pak l q1ďkďm,1ďlďn :“ MatB,C pf q. Alors
n
ÿ
t
` ˘
f vj˚ “ lo
vj˚omo
˝ ofn “ vj˚ ˝ f pei qe˚i par la proposition 1.3.6, 1.
i“1
PE ˚
n
ÿ
“ vj˚ pf pei qq e˚i
i“1
˜ ¸
ÿn m
ÿ
“ vj˚ ak i vk e˚i
i“1 k“1
ÿn ÿm
“ ak i vj˚ pvk qe˚i
i“1 k“1
ÿn
“ aj i e˚i
i“1
` ˘
Ainsi la matrice MatC ˚ ,B˚ tf est exactement la transposée de la matrice A “ MatB,C pf q.
20 CHAPITRE 1. DUALITÉ LINÉAIRE
Remarque 1.6.5. Ce résultat est également à mettre en lien avec la propriété 1.4.1 concernant la
matrice de passage d’une base duale à une autre : si B et B 1 sont deux bases d’un espace vectoriel
de dimension finie E, la matrice de passage PBÑB1 est la matrice MatB1 ,B pIdE q de l’identité
de E dans les bases B 1 et B, et la transposée de cette matrice est, d’après les propositions
précédentes, la matrice MatB˚ ,B1 ˚ pIdE ˚ q, i.e. la matrice de passage PB1 ˚ ÑB˚ . Autrement dit,
tP ´1
“ tPBÑB1 ´1 “ tPB1 ÑB .
BÑB1 “ PB1 ˚ ÑB˚ et donc, de façon équivalente, PB˚ ÑB1 ˚ “ PB1 ˚ ÑB˚
1.7 Bidual
Soit E un espace vectoriel sur K. Son dual E ˚ est également un espace vectoriel sur K : on
peut donc aussi considérer son dual que l’on note E ˚˚ . On a alors, par définition,
On a vu qu’un espace vectoriel de dimension finie est isomorphe à son dual et donc, comme
le dual est isomorphe à son propre dual, à son bidual. Néanmoins, comme on l’a dit plus haut, on
ne dispose pas, en général, d’isomorphisme “canonique” entre un espace vectoriel de dimension
finie et son dual. Une propriété remarquable du bidual est que, en dimension finie, tout espace
vectoriel est canoniquement isomorphe à son bidual :
Proposition 1.7.2. On suppose que E est de dimension finie. Alors E est canoniquement
isomorphe à son bidual E ˚˚ , i.e. on peut construire un isomorphisme linéaire de E sur E ˚˚
sans faire appel à des choix de bases.
E˚ Ñ K
Démonstration. Pour v P E, définissons tout d’abord l’application Φv : (l’ap-
ϕ ÞÑ ϕpvq
plication d’“évaluation” des formes linéaires sur E en le vecteur v). Pour tout v P E, l’application
Φv est linéaire : si ϕ, ψ P E ˚ et λ, µ P K,
Φv pλϕ ` µψq “ pλϕ ` µψq pvq “ λϕpvq ` µψpvq “ λΦv pϕq ` µΦv pψq.
E Ñ E ˚˚
Φ:
v Ñ Φv
1.7. BIDUAL 21
Espaces euclidiens
2.1 Introduction
On introduit sur les R-espaces vectoriels de dimension finie une structure supplémentaire : le
produit scalaire, notion qui généralise le produit scalaire classique sur R2 ou R3 . Cette structure
supplémentaire nous donne accès aux notions géométriques d’orthogonalité et de distance.
EˆE Ñ R
Définition 2.2.1. Considérons une application x¨, ¨y : . On dit que x¨, ¨y
pv, wq ÞÑ xv, wy
est un produit scalaire sur E si x¨, ¨y est
23
24 CHAPITRE 2. ESPACES EUCLIDIENS
EˆE Ñ R
L’application x¨, ¨yB : est alors un produit scalaire sur E, appelé
pv, wq ÞÑ xv, wyB
produit scalaire associé à la base B.
3. Soit n P Nzt0u. Pour toutes matrices A “ pai j q1ďi,jďn et B “ pbi j q1ďi,jďn dans Mn pRq,
on définit ÿ
ai j bi j “ Tr tA B .
` ˘
xA, By :“
1ďi,jďn
Mn pRq ˆ Mn pRq Ñ R
L’application x¨, ¨y : est alors un produit scalaire sur
pA, Bq ÞÑ xA, By
Mn pRq : il s’agit du produit scalaire associé à la base canonique tEi j u1ďi,jďn de Mn pRq.
Rn rXs ˆ Rn rXs Ñ R
L’application x¨, ¨y : est alors un produit scalaire sur Rn rXs.
pP, Qq ÞÑ xP, Qy
La bilinéarité de l’application x¨, ¨y provient de la linéarité de l’intégrale. Montrons que
ż1
x¨, ¨y est bien définie positive. Soit P P Rn rXs, on a xP, P y “ pP ptqq2 dt ě 0 (l’inté-
0 ż1
grale sur un segment d’une fonction positive est positive). Si xP, P y “ pP ptqq2 dt “ 0,
0
comme la fonction R Ñ R ; t ÞÑ P ptq2 est continue et positive, on a, pour tout t P r0, 1s,
pP ptqq2 “ 0 (l’intégrale d’une fonction continue et positive sur un segment est nulle si
et seulement si la fonction est identiquement nulle sur ce segment) et donc, pour tout
t P r0, 1s, P ptq “ 0, donc (un polynôme ayant une infinité de racines étant nécessairement
nul) le polynôme P est nul.
Remarque 2.2.3. Si x¨, ¨y est un produit scalaire sur E et si F est un sous-espace vectoriel de E,
la restriction
F ˆF Ñ R
x¨, ¨y|F ˆF :
pv, wq ÞÑ xv, wy
est un produit scalaire sur F .
Définition 2.2.4. Si E est un espace vectoriel de dimension finie muni d’un produit scalaire
x¨, ¨y, le couple pE, x¨, ¨yq est appelé espace euclidien.
2.2. PRODUIT SCALAIRE SUR UN ESPACE VECTORIEL RÉEL 25
Démonstration. Soient v, w P E.
Ainsi, pour tout λ P R, }w}2 λ2 `2xv, wyλ`}v}2 ě 0, en d’autres termes, la fonction polynomiale
du second degré (remarquons que }w}2 ‰ 0 car xw, wy ‰ 0 car w ‰ 0E )
R Ñ R
λ ÞÑ }w}2 λ2 ` 2xv, wyλ ` }v}2
est positive sur tout R, ce qui est équivalent au fait que le discriminant associé 4xv, wy2 ´
4}w}2 }v}2 soit négatif ou nul. Ainsi, on a xv, wy2 ď }v}2 }w}2 i.e. |xv, wy| ď }v}}w}.
De plus, si |xv, wy| “ }v}}w} ô xv, wy2 “ }v}2 }w}2 , le discriminant associé à la fonction
polynomiale du second degré ci-dessus est nul et donc le polynôme associé possède une racine
(double) λ0 P R. On a ainsi
µ1 2
B F
2
xv, wy “ v, v
µ2
ˆ ˙2
µ1
“ xv, vy2
µ2
B F
µ1 µ1
“ xv, vy v, v
µ2 µ2
“ }v}2 }w}2 .
E Ñ r0, `8r
Corollaire et Définition 2.2.7. L’application } ¨ } : est une norme, i.e.
v ÞÑ }v}
1. pour tous v P E et λ P R, }λv} “ |λ|}v},
2. pour tout v P E, }v} “ 0 si et seulement si v “ 0E ,
3. pour tous v, w P E, }v ` w} ď }v} ` }w}.
En conséquence, le couple pE, } ¨ }q est un espace vectoriel normé. La norme } ¨ } est appelée
norme euclidienne associée au produit scalaire x¨, ¨y.
Démonstration. 1. Soient v P E et λ P R, alors
a ? a
}λv} “ xλv, λvy “ λ2 xv, vy “ |λ|}v}.
a
2. Soit v P E, alors }v} “ xv, vy “ 0 ssi xv, vy “ 0 ssi v “ 0E .
3. Soient v, w P E. Alors
}v ` w}2 “ xv ` w, v ` wy
“ xv, vy ` xv, wy ` xw, vy ` xw, wy
“ }v}2 ` 2xv, wy ` }w}2
ď }v}2 ` 2|xv, wy| ` }w}2
ď }v}2 ` 2}v}2 }w}2 ` }w}2 (par l’inégalité de Cauchy-Schwarz)
“ p}v} ` }w}q2
Remarque 2.3.2. Une famille finie tv1 , . . . , vp u de vecteurs non nuls de E deux à deux ortho-
gonaux (i.e., pour tous i, j P t1, . . . , pu, si i ‰ j alors xvi , vj y “ 0) est libre. En effet, soient
λ1 , . . . , λp P R tels que λ1 v1 ` ¨ ¨ ¨ ` λp vp “ 0E , alors, pour i P t1, . . . , pu,
C p
G p
ÿ ÿ
0 “ vi , λj vj “ λj xvi , vj y “ λi xvi , vi y
j“1 j“1
2. E “ F ‘ F K ,
` ˘K
3. F K “ F .
Démonstration. 1. Il s’agit du corollaire 2.4.4 de la section suivante.
Remarque 2.3.11. • La distance euclidienne d’un vecteur de E à un autre est bien une
distance, dans le sens où
Plus généralement, toute norme sur un espace vectoriel induit, de cette façon, une distance.
dpv, F q “ }v ´ pF pvq} .
Démonstration. Soit w P F . On a
par le théorème de Pythagore (lemme 2.3.6) car v ´ pF pvq P F K (par définition de la projection
orthogonale : il existe un unique vecteur u P F K tel que v “ pF pvq ` u) et pF pvq ´ w P F (car
F est un sous-espace vectoriel de E).
Ainsi, pour tout w P F , }v ´ w}2 ě }v ´ pF pvq}2 donc }v ´ w} ě }v ´ pF pvq} donc inf t}v ´ w} | w P F u ě
}v ´ pF pvq}. De plus, comme pF pvq P F , inf t}v ´ w} | w P F u ď }v ´ pF pvq}. Au total, }v ´ pF pvq} “
inf t}v ´ w} | w P F u “ dpv, F q.
Définition 2.3.13. On appelle symétrie orthogonale par rapport à F la symétrie par rapport à
F parallèlement à F K . Il s’agit de l’involution linéaire de E qui à tout vecteur v “ w ` u de E
avec w P F et u P F K associe le vecteur w ´ u. On note sF cette application.
30 CHAPITRE 2. ESPACES EUCLIDIENS
Remarque 2.3.14. • “Involution linéaire de E” signifie que sF est une application linéaire de
E dans E telle que sF ˝ sF “ IdE . Autrement dit, sF est un automorphisme linéaire de
E d’inverse lui-même.
• Si te1 , . . . , ep u est une base de F et tep`1 , . . . , en u est une base de F K alors B :“ te1 , . . . , ep , ep`1 , . . . , en u
est une base de E dans laquelle la matrice représentative de sF est
¨ ˛
1
˚ .. ‹
˚ . ‹
˚ ‹ ˆ ˙
˚ 1 ‹ Ip 0p,n´p
MatB psF q “ ˚˚
‹ “ 0n´p,p ´In´p
‹
˚ ´1 ‹
˚ .. ‹
˝ . ‚
´1
Théorème 2.4.1. Soit pE, x¨, ¨yq un espace euclidien. Pour tout v P E, on définit l’application
linéaire Λv : E Ñ R ; w ÞÑ xv, wy. On définit ensuite l’application
E Ñ E˚
Λ:
v ÞÑ Λv
Démonstration. Remarquons tout d’abord que, si v P E, Λv est bien une application linéaire de
E dans R (en d’autres termes Λv P E ˚ ) car le produit scalaire x¨, ¨y est bilinéaire.
Montrons ensuite que l’application Λ est bien linéaire. Soient donc v1 , v2 P E et λ, µ P R,
alors, pour tout w P E,
Montrons enfin que Λ est injective : comme dimpEq “ dim pE ˚ q, on obtiendra alors (par le
théorème du rang) que Λ est bijective. Soit donc v P E tel que Λv est l’application identiquement
nulle. En particulier, Λv pvq “ xv, vy “ 0 donc v “ 0E . L’application Λ est donc bien injective,
et Λ est donc un isomorphisme.
Remarque 2.4.2. La surjectivité de Λ nous dit que pour toute forme linéaire ϕ P E ˚ , il existe
v P E tel que, pour tout w P E, ϕpwq “ xv, wy. De plus, comme Λ est bijective, v “ Λ´1 pϕq.
Intéressant en soi, ce résultat nous permet également de mettre une évidence une corres-
pondance entre les notions d’orthogonal et d’annulateur d’un sous-espace vectoriel d’un espace
euclidien :
Λ´1 F 0 “ v P E | Λpvq P F 0
` ˘ (
Soient pE, x¨, ¨yq un espace euclidien et F un sous-espace vectoriel de E. Le corollaire pré-
K 0
cédent affirme en` particulier
K
˘ ` 0 ˘Λ induit, par restriction, un isomorphisme linéaire F Ñ F ,
que
et donc que dim F “ dim F . On obtient ainsi le résultat qui nous permet de terminer la
preuve de la proposition 2.3.7 :
` ˘
Corollaire 2.4.4. On a dimpEq “ dimpF q ` dim F K .
Démonstration. On a, en utilisant proposition 1.5.3 1.,
On aimerait une base de E dans laquelle cette expression du produit scalaire x¨, ¨y sur E soit
la plus simple possible. Cela nous mène à la notion de base orthogonale et de base orthonormale :
32 CHAPITRE 2. ESPACES EUCLIDIENS
1. On dit que B est une base orthogonale de E si pour tous i, j P t1, . . . , nu tels que i ‰ j,
on a xei , ej y “ 0.
2. On dit que B est une base orthonormale de E si B est une base orthogonale de E et si tous
les vecteurs de B sont de norme euclidienne 1. Autrement dit, B est une base orthonormale
de E si et seulement si pour tous i, j P t1, . . . , nu, xei , ej y “ δi j (pour tout v P E, }v} “ 1
ssi xv, vy “ 1).
Exemple 2.5.2. • La base canonique de Rn est une base orthonormale pour le produit sca-
laire canonique sur Rn (exemple 2.2.2 1.).
• Par définition, une base B de E est une base orthonormale pour le produit scalaire associé
x¨, ¨yB (exemple 2.2.2 2.).
Remarque 2.5.3. 1. Si B “ te1 , . . . , en u est une base¨orthonormale
˛ ¨ ˛ pour x¨, ¨y et si v et w sont
x1 y1
˚ .. ‹ ˚ .. ‹
deux vecteurs de E de coordonnées respectives ˝ . ‚ et ˝ . ‚ dans B, alors
xn yn
ÿ n
ÿ
xv, wy “ xi yj xei , ej y “ x i yi .
1ďi,jďn i“1
2. Si la famille t1 , . . . , n u est une base orthogonale de E, alors la famille te1 , . . . , en u avec,
pour tout i P t1, . . . , nu, ei :“ }ii } , est une base orthonormale de E. En effet, pour tout
› ›
i P t1, . . . , nu, }ei } “ › }ii } › “ }1i } }i } “ 1.
› ›
xk`1 , i y “ 0 ô xvk`1 ` λ1 1 ` ¨ ¨ ¨ ` λk k , i y “ 0
ô xvk`1 , i y ` λi xi , i y “ 0
xvk`1 , i y
ô λi “ ´
}i }2
,i y
Ainsi, par construction, la famille t1 , . . . , k`1 u avec k`1 “ vk`1 ´ ki“1 k`1
ř xv
}i }2
i est orthogo-
nale et engendre bien Vect tv1 , . . . , vk , vk`1 u car Vect tv1 , . . . , vk , vk`1 u “ Vect t1 , . . . , k , vk`1 u “
,i y
Vect t1 , . . . , k , k`1 u (car k`1 “ vk`1 ´ ki“1 k`1
ř xv
}i }2
i P Vect t1 , . . . , k , vk`1 u et vk`1 “
řk xvk`1 ,i y
k`1 ` i“1 }i }2 i P Vect t1 , . . . , k , k`1 u).
Remarque 2.5.5. Au terme de l’étape k ` 1 du procédé ci-dessus, on peut remplacer k`1 par
n’importe quel vecteur non nul 1k`1 de la droite vectorielle engendrée par k`1 : la famille
t1 , . . . , k , 1k`1 u ainsi obtenue reste orthogonale et engendre toujours Vect tv1 , . . . , vk`1 u. Cela
peut être utile pour simplifier les calculs (notamment pour éviter de manipuler des fractions).
Exemple 2.5.6. On détermine une base orthonormée pour le sous-espace vectoriel F de R4
engendré par les vecteurs v1 “ p1, 1, 0, 0q, v2 “ p1, 0, ´1, 1q et v3 “ p0, 1, 1, 1q. La famille
tv1 , v2 , v3 u est libre (c’est donc une base de F “ Vecttv1 , v2 , v3 u) et on applique le procédé
d’orthonormalisation de Gram-Schmidt pour déterminer une base orthonormale de F .
On pose
1 :“ v1 “ p1, 1, 0, 0q
ˆ ˙
xv2 , 1 y 1 1 1 1
2 :“ v2 ´ 2
1 “ v2 ´ 1 “ , ´ , ´1, 1 “ p1, ´1, ´2, 2q
}1 } 2 2 2 2
1
2 :“ p1, ´1, ´2, 2q (pour simplifier les calculs)
ˆ ˙
xv3 , 1 y xv3 , 12 y 1 1 1 1 2 2 4 6 2
3 :“ v3 ´ 1 ´ “ v 3 ´ 1 ` “ ´ , , , “ p´1, 1, 2, 3q
}1 }2 }12 }2 2 2 10 2 5 5 5 5 5
1
3 :“ p´1, 1, 2, 3q
34 CHAPITRE 2. ESPACES EUCLIDIENS
et la famille t1 , 12 , 13 u est alors une base orthogonale de F . La famille
" *
1 1 1
? p1, 1, 0, 0q, ? p1, ´1, ´2, 2q, ? p´1, 1, 2, 3q
2 10 15
Corollaire 2.5.7. Il existe une base orthonormale pour l’espace euclidien pE, x¨, ¨yq
Démonstration. Soit tv1 , . . . , vn u une base de E. En particulier, la famille tv1 , . . . , vn u est libre
et, d’après le théorème 2.5.4, on peut construire une base orthonormale pour Vecttv1 , . . . , vn u “
E.
Remarque 2.5.8. Soit B “ te1 , . . . , en u une base orthonormale pour x¨, ¨y. Alors x¨, ¨y “ ¨
x¨, ¨y˛
B
x1
(exemple 2.2.2 2.). En effet, pour tous vecteurs v et w de E, de coordonnées respectives ˝ ... ‚
˚ ‹
xn
¨ ˛
y1 n
˚ .. ‹ ÿ
et ˝ . ‚ dans la base B, on a xv, wy “ xi yi “ xv, wyB .
yn i“1
Le choix d’une base orthonormale pour l’espace euclidien pE, x¨, ¨yq permet d’identifier E
avec l’espace euclidien pRn , x¨, ¨ycan q muni du produit scalaire canonique. Précisément :
Corollaire 2.5.9. Il existe un isomorphisme (non canonique) ψ : E Ñ Rn tel que, pour tous
vecteurs v et w de E, xψpvq, ψpwqycan “ xv, wy.
Démonstration. Soit B “ te1 , . . . , en u une base orthonormale pour x¨, ¨y et notons B 1 “ te11 , . . . , e1n u
la base canonique de Rn . Notons ensuite ψB l’application linéaire de E dans Rn qui, pour tout
i P t1, . . . , nu,¨associe 1
˛ ei à ei . Autrement dit, ψB est l’application qui à tout vecteur v de E de
x1
˚ .. ‹
coordonnées ˝ . ‚ dans la base B associe le vecteur px1 , . . . , xn q de Rn . Il s’agit d’un isomor-
xn
¨ ˛ ¨ ˛
x1 y1
˚ .. ‹ ˚ .. ‹
phisme linéaire et, si v et w sont deux vecteurs de E de coordonnées respectives ˝ . ‚ et ˝ . ‚
xn yn
dans B, on a
n
ÿ
xψB pvq, ψB pwqycan “ xpx1 , . . . , xn q, py1 , . . . , yn qycan “ xi yi “ xv, wy
i“1
xn yn
ÿ
xv, wy “ xi yj xei , ej y.
1ďi,jďn
˛¨ ¨ ˛
x1 y1
˚ .. ‹ ˚ .. ‹
Ecrivons X :“ ˝ . ‚ “ MatB pvq, Y :“ ˝ . ‚ “ MatB pwq et A la matrice pxei , ej yq1ďi,jďn .
xn yn
On a alors
ÿ
xv, wy “ xi yj xei , ej y
1ďi,jďn
ÿ
“ xi xei , ej yyj
1ďi,jďn
˜ ¸
n
ÿ n
ÿ
“ xi xei , ej yyj
i“1 j“1
ÿn
“ xi pAY qi (où pAY qi désigne la ième coordonnée du vecteur colonne AY )
i“1
t
“ XAY
Définition 2.6.1. On appelle matrice représentative du produit scalaire x¨, ¨y dans la base B la
matrice
¨ ˛
xe1 , e1 y ¨ ¨ ¨ xe1 , en y
˚ .. .. ‹
Matps
B px¨, ¨yq :“ pxei , ej yq1ďi,jďn “˝ . . ‚
xen , e1 y ¨ ¨ ¨ xen , en y
• On a Matps
B px¨, ¨yB q “ In .
36 CHAPITRE 2. ESPACES EUCLIDIENS
• Considérons sur l’espace vectoriel R2 rXs de dimension 3 le produit scalaire x¨, ¨y défini
dans l’exemple 2.2.2 4.. On note B la base t1, X, X 2 u de R2 rXs et on calcule alors
ż1
x1, 1y “ 1 dt “ rts10 “ 1
0
ż1 1
t2
„
1
x1, Xy “ xX, 1y “ t dt “ “
0 2 0 2
ż1 „ 3 1
t 1
1, X 2 “ X 2 , 1 “ t2 dt “
@ D @ D
“
0 3 0 3
ż1 „ 3 1
t 1
xX, Xy “ t2 dt “ “
0 3 0 3
ż1 „ 4 1
t 1
X, X 2 “ X 2 , X t3 dt “
@ D @ D
“ “
0 4 0 4
ż1 „ 5 1
t 1
X 2, X 2 t4 dt “
@ D
“ “
0 5 0 5
Ainsi, ¨ ˛
1 1
1 2 3
Matps
˚ 1 1 1
‹
B px¨, ¨yq “ ˝
˚ ‹
2 3 4 ‚
1 1 1
3 4 5
Remarque 2.6.3. • Attention aux confusions avec la matrice représentative d’une application
linéaire !
• Comme le produit scalaire est symétrique, on a, pour tous i, j P t1, . . . , nu, xei , ej y “
xej , ei y et la matrice Matps t ps ps
B px¨, ¨yq est donc symétrique i.e. MatB px¨, ¨yq “ MatB px¨, ¨yq.
Le fait que le produit scalaire x¨, ¨y soit “défini” s’exprime dans le fait que MatpsB px¨, ¨yq est
inversible. En effet, si on note A :“ Matps B px¨, ¨yq et si X est un vecteur colonne de taille
n quelconque tel que AX est le vecteur colonne nul de taille n, alors t XAX “ 0 et donc
xv, vy “ 0 où v désigne le vecteur de coordonnées X dans la base B. Par suite, v “ 0E et
X est donc le vecteur colonne nul. Comme le noyau de la matrice carrée A est réduit au
vecteur colonne nul, A est inversible.
On peut à présent se demander comment sont reliées les matrices représentatives de x¨, ¨y dans
deux bases (quelconques) différentes, autrement dit s’intéresser à la question du changement de
base pour la matrice représentative d’un produit scalaire.
Soit donc B 1 une autre base de E et considérons la matrice de passage PBÑB1 de la base B
à la base B 1 . On a l’égalité suivante :
Proposition 2.6.4. On a
Matps t ps
B1 px¨, ¨yq “ PBÑB MatB px¨, ¨yq PBÑB
1 1
Remarquons maintenant que, si M “ pmi j q1ďi,jďn est une matrice carrée de taille n quel-
conque et si, pour i P t1, . . . , nu, Xi désigne le vecteur colonne avec coordonnées 1 à la ligne i
et 0 sur les autres lignes, on a, pour tous i, j P t1, . . . , nu, t Xi M Xj “ mi j . ´ ¯
Soient alors i, j P t1, . . . , nu et notons B 1 “ te11 , . . . , e1n u. On a MatB1 pe1i q “ Xi et MatB1 e1j “
Xj et, par l’égalité ci-dessus,
@ 1 1 D t `t ˘
ei , ej “ Xi PBÑB1 A PBÑB1 Xj .
Remarque 2.6.5. Attention à ne surtout pas confondre ce changement de base pour les produits
scalaires avec le changement de base pour les applications linéaires.
De plus, f ˚ est une application linéaire (et donc un endomorphisme de E). On appelle f ˚
l’endomorphisme adjoint de f .
38 CHAPITRE 2. ESPACES EUCLIDIENS
E Ñ R
ϕw :
v ÞÑ xf pvq, wy
Cette application est linéaire car f l’est et ϕw est donc un élément du dual E ˚ de E. D’après
le théorème 2.4.1, il existe donc un unique vecteur f ˚ pwq de E tel que ϕw “ Λ pf ˚ pwqq i.e. tel
que, pour tout v P E,
On note alors f ˚ l’application qui à tout vecteur w de E associe f ˚ pwq. L’unicité évoquée ci-
dessus montre l’unicité de l’application f ˚ : E Ñ E telle que, pour tous v, w P E, xf pvq, wy “
xv, f ˚ pwqy.
Montrons à présent sa linéarité : soient w1 , w2 P E et λ, µ P R alors, pour tout v P E,
Ainsi, Λ pf ˚ pλw1 ` µw2 qq “ Λ pλf ˚ pw1 q ` µf ˚ pw2 qq. Par injectivité de l’application Λ, on ob-
tient alors l’égalité f ˚ pλw1 ` µw2 q “ λf ˚ pw1 q ` µf ˚ pw2 q et f ˚ est donc bien linéaire.
4. pf ˚ q˚ “ f .
Démonstration. 1. Pour tous v, w P E, on a xIdE pvq, wy “ xv, wy “ xv, IdE pwqy donc
˚
pIdE q “ IdE (par unicité de l’adjoint).
2. Pour tous v, w P E, on a
Pour tous v, w P E, on a
xg ˝ f pvq, wy “ xg pf pvqq , wy
“ xf pvq, g ˚ pwqy
“ xv, f ˚ pg ˚ pwqqy
“ xv, f ˚ ˝ g ˚ pwqy
donc pg ˝ f q˚ “ f ˚ ˝ g ˚ .
` ˘˚ ` ˘˚ ` ˘˚ ` ˘˚
3. On a f ˚ ˝ f ´1 “ f ´1 ˝ f “ pIdE q˚ “ IdE et f ´1 ˝ f ˚ “ f ˝ f ´1 “ pIdE q˚ “
IdE .
4. Pour tous v, w P E, on a
donc pf ˚ q˚ “ f .
Remarque 2.7.3. On dit que l’endomorphisme f est auto-adjoint si f ˚ “ f . IdE est un exemple
d’endomorphisme auto-adjoint de E.
Donnons également deux égalités intéressantes reliant noyaux et images de f et de son
adjoint via l’opération “orthogonal d’un sous-ensemble” :
“ pKer f qK
40 CHAPITRE 2. ESPACES EUCLIDIENS
MatB pf ˚ q “ t MatB pf q.
xf pvq, wy “ xv, f ˚ pwqy ô t pMatB pf qMatB pvqq MatB pwq “ t MatB pvq pMatB pf ˚ q MatB pwqq
i.e.
t
MatB pvq t MatB pf q MatB pwq “ t MatB pvq MatB pf ˚ q MatB pwq
En prenant pour v et w les vecteurs de la base B, on obtient, pour tous i, j P t1, . . . , nu l’égalité
t
Xi t MatB pf qXj “ t Xi MatB pf ˚ q Xj
et
det pf ˚ q “ det pMatB pf ˚ qq “ det t MatB pf q “ det pMatB pf qq “ det pf q .
` ˘
Proposition 2.7.7. On a
f ˚ “ Λ´1 ˝ tf ˝ Λ.
2.8. ENDOMORPHISMES ORTHOGONAUX ET MATRICES ORTHOGONALES 41
et
xv, f ˚ pwqy “ pΛ pf ˚ pwqqq pvq “ pΛ ˝ f ˚ pwqq pvq,
d’où l’égalité tf ˝ Λ “ Λ ˝ f ˚ et le résultat (Λ est un isomorphisme).
¨ ˛
x1
˚ .. ‹
Or, si i P t1, . . . , nu et si v est un vecteur de E de coordonnées ˝ . ‚ dans B, on a
xn
C G
ÿn ÿn
Λpei qpvq “ ei , xj ej “ xj xei , ej y “ xi “ e˚i pvq
j“1 j“1
donc Λpei q “ e˚i et la matrice représentative de Λ dans les bases B et B ˚ est la matrice identité
In . Ainsi, on a bien
MatB pf ˚ q “ MatB˚ tf .
` ˘
˚
`t ˘2.7.9. La proposition 2.7.7 nous donne une raison “intrinsèque” de l’égalité MatB pf q “
Remarque
MatB˚ f que l’on pouvait déjà obtenir à partir de la proposition 2.7.5.
1. f est orthogonal,
sont équivalentes.
Montrons tout d’abord 1 ñ 2 : supposons que f est orthogonal, alors, pour tous v, w P E,
Montrons ensuite 2 ñ 3 : si f préserve le produit scalaire x¨, ¨y, alors, pour tout v P E,
a a
}f pvq} “ xf pvq, f pvqy “ xv, vy “ }v}.
Montrons également 3 ñ 4 : si f préserve la norme euclidienne associé à x¨, ¨y, alors, pour
tous v, w P E,
Montrons enfin 4 ñ 1 : Commençons par remarquer que 4 ñ 3 ñ ` 2 car f est linéaire et,˘
pour tout u P E, dpu, 0q “ }u} et, pour tous v, w P E, xv, wy “ 21 }v ` w}2 ´ }v}2 ´ }w}2
(remarque 2.2.8). Si f préserve la distance euclidienne, f préserve donc également le produit
scalaire et, pour tous v, w P E, on a alors
Démonstration. Supposons que f est orthogonal et soit te1 , . . . , en u une base orthonormale de
E. Comme f est orthogonal, on a, par la proposition précédente, xf pei q, f pej qy “ xei , ej y “ δi j ,
donc la famille de n vecteurs tf pe1 q, . . . , f pen qu est orthonormale : il s’agit donc d’une base
orthonormale de E.
Réciproquement, soit B “ te1 , . . . , en u une base orthonormale de E et supposons que la
famille
¨ ˛ tf¨ pe1 q,˛. . . , f pen qu est orthonormale. Soient alors v, w P E, de coordonnées respectives
x1 y1
˚ .. ‹ ˚ .. ‹
˝ . ‚ et ˝ . ‚ dans la base B. On a
xn yn
C ˜ ¸ ˜ ¸G
n
ÿ n
ÿ ÿ n
ÿ
xf pvq, f pwqy “ f xi e i ,f yj ej “ xi yj xf pei q, f pej qy “ xi yi “ xv, wy.
i“1 j“1 1ďi,jďn i“1
Remarque 2.8.7. Remarquons que, d’après la démonstration ci-dessus, il suffit qu’il existe une
base orthonormale te1 , . . . , en u de E telle que la famille tf pe1 q, . . . , f pen qu soit orthonormale
pour que l’endomorphisme f soit orthogonal.
Passons maintenant à la caractérisation matricielle de l’orthogonalité. Soit B une base
orthonormale de E.
1. La matrice ¨ ˛
2 ´1 2
1
A :“ ˝ 2 2 ´1‚
3
´1 2 2
est orthogonale.
2. Une symétrie orthogonale est un endomorphisme orthogonal (remarque 2.3.14). Une pro-
jection orthogonale sur un sous-espace vectoriel strict n’est pas un endomorphisme ortho-
gonal (remarque 2.3.9).
44 CHAPITRE 2. ESPACES EUCLIDIENS
Un point de vue supplémentaire donné par l’égalité “ t AA “ In ” est le suivant : une matrice
A P Mn pRq est orthogonale si et seulement si les vecteurs colonnes la composant forment une
base orthonormale de Rn muni du produit scalaire canonique. Dans ce cas, la matrice A est la
matrice de passage de la base canonique de Rn à la base orthonormale formée par ses vecteurs
colonnes. On peut généraliser cela de la façon suivante :
Ainsi, la matrice de passage P “ PBÑB1 est orthogonale ssi la famille de vecteurs te11 , . . . , e1n u
est orthonormale.
Remarque 2.8.13. En particulier, toute matrice de passage d’une base orthonormale à une autre
est orthogonale.
Remarquons ensuite que l’égalité “ t AA “ In ” permet le calcul du déterminant d’une matrice
orthogonale et donc d’un endormorphisme orthogonal :
Proposition et Définition 2.8.14. Soit A une matrice orthogonale de Mn pRq. Alors detpAq “
1 ou detpAq “ ´1. Ainsi, si f est orthogonal, det pf q “ 1 ou det pf q “ ´1.
Si detpAq “ 1, resp. det pf q “ 1, on dit que A, resp. f , est une matrice orthogonale directe,
resp. endomorphisme orthogonal direct. Si detpAq “ ´1, resp. det pf q “ ´1, on dit que A, resp.
f , est une matrice orthogonale indirecte, resp. endomorphisme orthogonal indirect.
detpAq “ 1 ou detpAq “ ´1
Ainsi, si f est orthogonal, comme sa matrice représentative dans une base orthonormale est
orthogonale (proposition 2.8.8), on a det pf q “ 1 ou det pf q “ ´1.
Corollaire et Définition 2.8.17. L’ensemble, noté O pE, x¨, ¨yq ou simplement OpEq lorsque
le contexte est clair, des endomorphismes orthogonaux de l’espace euclidien pE, x¨, ¨yq est un
sous-groupe du groupe pGLpEq, ˝q des automorphismes linéaires de E muni de la composition
(appelé groupe linéaire de E). On a appelle pOpEq, ˝q le groupe orthogonal de pE, x¨, ¨yq.
De manière équivalente, l’ensemble On pRq des matrices orthogonales de Mn pRq est un sous-
groupe du groupe pGLn pRq, ¨q des matrices réelles inversibles de taille n muni du produit ma-
triciel. On pRq est appelé groupe orthogonal de Mn pRq.
Remarque 2.8.18. Le sous-ensemble de OpEq des endomorphismes orthogonaux directs est un
sous-groupe de pOpEq, ˝q appelé groupe spécial orthogonal de E et noté SOpEq.
Le sous-ensemble de On pRq des matrices orthogonales directes est un sous-groupe de pOn pRq, ¨q
appelé groupe spécial orthogonal de Mn pRq et noté SOn pRq.
Lemme 2.9.2. Soit A P GLn pRq une matrice orthogonale et triangulaire supérieure à coeffi-
cients strictement positifs. Alors A “ In .
Démonstration. Notons v1 , . . . , vn les vecteurs colonnes qui, dans l’ordre, forment la matrice
A “ pai j q1ďi,jďn . Le fait que A soit orthogonale signifie que, pour tout i, j P t1, . . . , nu, xvi , vj y “
δi j . En particulier, xv1 , v1 y “ 1. Mais, comme A est triangulaire supérieure, xv1 , v1 y “ a21 1 et,
comme a1 1 est strictement positif, on a nécessairement a1 1 “ 1. Pour tout j P t2, . . . , nu, on a
alors xv1 , vj y “ a1 j “ 0 (autrement dit, la première ligne n’a que des coefficients nuls sauf le
coefficient a1 1 qui est égal à 1).
Soit k P t1, n ´ 1u et supposons que l’on a déjà montré que, pour tout i P t1, . . . , ku et tout
j P t1, . . . , nu, ai j “ δi j (autrement dit que pour les k premières lignes, tous les coefficients
d’une ligne i donnée sont nuls sauf le coefficient ai i qui est égal à 1). On considère alors le
vecteur colonne vk`1 dont, par hypothèse de récurrence, la seule coordonnée non nulle est
ak`1 k`1 ą 0. Comme xvk`1 , vk`1 y “ ak`1 k`1 2 “ 1, on a ak`1 k`1 “ 1 et, par suite, pour tout
j P tk ` 2, . . . , nu, xvk`1 , vj y “ ak`1 j “ 0 : la ligne k ` 1 n’a donc que des coefficients nuls sauf
le coefficient ak`1 k`1 qui est égal à 1.
¨ ˛
1 1 0
A :“ ˝1 2 0‚
0 0 1
1 :“ v1 “ p1, 1, 0q
ˆ ˙
xv2 , 1 y 3 1 1 1
2 :“ v2 ´ 1 “ v2 ´ 1 “ ´ , , 0 “ p´1, 1, 0q
}1 }2 2 2 2 2
1
2 :“ p´1, 1, 0q
xv3 , 1 y xv3 , 12 y 1
3 :“ v3 ´ 1 ´ “ v3 “ p0, 0, 1q
}1 }2 }12 }2 2
1 1
e1 :“ 1 “ ? p1, 1, 0q
}1 } 2
1 1 1
e2 :“ “ ? p´1, 1, 0q
}12 } 2 2
1
e3 :“ 3 “ p0, 0, 1q
}3 }
Comme
?
v1 “ 1 “ 2e1
3 3 1 3 1
v2 “ 1 ` 2 “ 1 ` 12 “ ? e1 ` ? e2
2 2 2 2 2
v3 “ 3 “ e3
Si on note Q la matrice ¨ ˛
?1 ´ ?12 0
˚ ?12 ?1 0‚
‹
˝ 2 2
0 0 1
formée par les coordonnées (dans la base canonique de R3 ) des vecteurs e1 , e2 , e3 , l’égalité
¨ 1 ˛ ¨? ˛
? ´ ?1 0 2 ?3 0
˚ 2 2 2
A “ QR “ ˝ ?12 ?1 0 0 ?1 0‚
‹˚ ‹
2 2
‚ ˝
0 0 1 0 0 1
est la décomposition QR de A.
48 CHAPITRE 2. ESPACES EUCLIDIENS
Chapitre 3
3.1 Introduction
On donne dans ce chapitre des rappels sur la théorie de réduction des endomorphismes,
c’est-à-dire l’étude des bases dans lesquelles un endomorphisme donné possède la représentation
matricielle la plus “simple” possible (la plus “réduite” possible).
On étudiera notamment les critères nécessaires et suffisants classiques de diagonalisabilité,
directs (via la recherche des espaces propres) ou via les polynômes d’endomorphismes. On
étudiera également la triangularisabilité et la réduction la plus aboutie des endomorphismes
triangularisables, à savoir la réduction de Jordan pour laquelle nous donnerons une méthode
systématique de réduction.
La première partie de ce chapitre étant constituée de rappels, les assertions seront la plupart
du temps données sans preuve (on renvoie au cours de l’année passée pour les démonstrations).
Nous les illustrerons cependant, ainsi que les méthodes, par des exemples. La preuve de l’exis-
tence de la réduction de Jordan pour les endomorphismes triangularisables sera elle donnée,
notamment afin de dégager une méthode systématique de réduction.
Tout au long de ce chapitre, K désigne un corps commutatif quelconque et E désigne un
espace vectoriel sur K de dimension finie.
49
50 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
qu’un vecteur v de E est un vecteur propre de f s’il existe une valeur propre λ P K de f telle
que v est un vecteur propre de f associé à λ.
Exemple 3.2.2. 2 est une valeur propre de l’endomorphisme
R2 Ñ R2
f:
px, yq ÞÑ px ` 2y, ´x ` 4yq
Soit n P Nzt0u et soit A une matrice carrée de Mn pKq. On peut, de façon analogue, définir une
notion de valeur propre, d’espace propre et de vecteur propre pour A : un scalaire λ P K est une
valeur propre de A s’il existe un vecteur colonne non nul X de Mn,1 pKq tel que AX “ λX, autre-
ment dit si le sous-espace vectoriel Eλ :“ Ker pA ´ λIn q de Mn,1 pKq n’est pas réduit au vecteur
colonne nul, et, dans ce cas, Eλ est appelé sous-espace propre de A associé à la valeur propre λ
et tout vecteur colonne non nul de Eλ est appelé vecteur propre de A associé à la valeur propre λ.
Remarque 3.2.3. Supposons que dimpEq “ n et soit B une base de E. Soient λ P K et v P E. Si
A “ MatB pf q, alors λ est une valeur propre de f ssi λ est une valeur propre de A et, dans ce
cas, v est un vecteur propre de f associé à λ ssi MatB pvq est un vecteur propre de A associé à
λ.
Définition 3.2.4. L’ensemble des valeurs propres de f , resp. A, dans K est appelé spectre de f ,
resp. spectre de A, et noté Sppf q, resp. SppAq.
On note χf le polynôme
det pf ´ XIdE q P KrXs,
appelé polynôme caractéristique de f . Ainsi, λ P Sppf q ssi λ est une racine (dans K) de χpf q.
Exemple 3.3.2. Reprenons l’endomorphisme f de l’exemple 3.2.2. La matrice représentative de
f dans la base canonique de R2 est ˆ ˙
1 2
´1 4
et donc
ˆˆ ˙ ˙ ˆ ˙
1 2 1´X 2
χf “ det pf ´ XIdE q “ det ´ XI2 “ det “ p3 ´ Xqp2 ´ Xq
´1 4 ´1 4´X
Remarquons que f est donc diagonalisable ssi il existe une base de E formée de vecteurs
propres de f . Mais on peut énoncer une caractérisation plus précise et pratique. Pour cela,
commençons par énoncer le fait suivant :
Proposition 3.4.2. Soient λ1 , . . . , λk , k P Nzt0u, des valeurs propres deux à deux distinctes
de f . Alors les sous-espaces propres Eλ1 , . . . , Eλk correspondants sont en somme directe.
En conséquence, si λ1 , . . . , λp , p P N, désignent les valeurs propres deux à deux distinctes de
f :
52 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
p
ÿ
Théorème 3.4.3. f est diagonalisable ssi Eλ1 ‘ ¨ ¨ ¨ ‘ Eλn “ E ssi dim pEλi q “ dimpEq.
i“1
Exemple 3.4.4. Reprenons l’endomorphisme f des ( exemples 3.2.2 et 3.3.2. On avait déterminé
2
que Sppf q “ t2; 3u et E2 “ px, yq P R | x “ 2y “ Vecttp2, 1qu. Enfin,
` ˘
Ainsi, dim pE1 q ` dim pE2 q “ 2 “ dim R2 et f est donc diagonalisable. De plus, la famille
B :“ tp2, 1q, p1, 1qu est une base de E formée de vecteurs propres de f et on a
ˆ ˙
2 0
MatB pf q “
0 3
On peut tout de suite remarquer que, si λ1 , . . . , λp désignent les valeurs propres de f , alors
la somme mλ1 ` ¨ ¨ ¨ ` mλp est inférieure ou égale à deg pχf q “ n “ dimpEq, et qu’il y a égalité
ssi χf est scindé sur K. De plus :
1 ď dim pEλ q ď mλ .
Ainsi :
Théorème 3.4.8. f est diagonalisable ssi χf est scindé et, pour tout λ P Sppf q, dim pEλ q “ mλ .
Exemple 3.4.9. Si f admet n “ dimpEq valeurs propres deux à deux distinctes, alors f est
diagonalisable.
La diagonalisation d’un endomorphisme correspond à un changement de base vers une base
dans laquelle la matrice représentative de l’endomorphisme considéré est diagonale. L’analogue
matriciel du changement de base est l’opération de “conjugaison” par une matrice inversible.
Soit A une matrice de Mn pKq.
Définition 3.4.10. On dit que A est diagonalisable s’il existe une matrice inversible P P
GLn pKq et une matrice diagonale D de Mn pKq telles que
P ´1 AP “ D.
3.4. DIAGONALISABILITÉ ET DIAGONALISATION 53
Remarque 3.4.11. Si B P Mn pKq, on dit que A est semblable à B s’il existe une matrice inversible
P P GLn pKq telle que P ´1 AP “ B (la relation de similitude sur Mn pKq est une relation
d’équivalence).
Ainsi, A est diagonalisable ssi A est semblable à une matrice diagonale.
Les résultats de diagonalisabilité d’un endomorphisme énoncés ci-dessus ont leurs analogues
matriciels, à savoir :
• Diagonaliser une matrice diagonalisable permet entre autres de calculer ses puissances,
comme présenté dans l’exemple ci-dessous.
Exemple 3.4.14. On considère la matrice
ˆ ˙
1 ´1
A :“
2 4
de M2 pRq. Son polynôme caractéristique χA “ pX ´ 2qpX ´ 3q est scindé à racines simples donc
A est diagonalisable. "ˆ ˙* "ˆ ˙*
1 1
Une base de E2 est , une base de E3 est et on pose
´1 ´2
ˆ ˙
1 1
P :“ .
´1 ´2
On a alors ˆ ˙
2 0
“ P ´1 AP
0 3
ˆ ˙
2 0
donc A “ P P ´1 et, par associativité du produit matriciel, pour k P Nzt0u, Ak “
0 3
ˆ k ˙
2 0
P P ´1 .
0 3k
ˆ ˙
´1 2 1
Or P “ donc
´1 ´1
ˆ ˙
k 2k`1 ´ 3k 2k ` 3k
A “ .
´2k`1 ` 2 ¨ 3k ´2k ´ 2 ¨ 3k
54 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
P pAq :“ aN AN ` aN ´1 AN ´1 ` ¨ ¨ ¨ ` a1 A ` a0 In P Mn pKq,
de M3 pRq. Son polynôme caractéristique est χA “ ´pX ` 1qpX ` 2qpX ´ 3q. Ainsi, néces-
sairement, µA “ pX ` 1qpX ` 2qpX ´ 3q.
2. On considère la matrice ¨ ˛
´1 1 1
A “ ˝ 1 ´1 1 ‚
1 1 ´1
de M3 pRq. Son polynôme caractéristique est χA “ ´pX ´ 1qpX ` 2q2 . Ainsi, nécessaire-
2
` µA “ pX ´ 1qpX
ment,
2
˘ ` 2q ou µA “ pX ´ 1qpX ` 2q . Comme deg ppX ´ 1qpX ` 2qq ă
deg pX ´ 1qpX ` 2q , on commence par tester si le polynôme pX ´ 1qpX ` 2q annule A.
On a ¨ ˛¨ ˛ ¨ ˛
´2 1 1 1 1 1 0 0 0
pA ´ I3 qpA ` 2I3 q “ ˝ 1 ´2 1 ‚˝1 1 1‚ “ ˝0 0 0‚
1 1 ´2 1 1 1 0 0 0
et donc pX ´ 1qpX ` 2q est le polynôme minimal de A.
3. On considère la matrice ¨ ˛
3 ´1 1
A “ ˝2 0 1‚
1 ´1 2
de M3 pRq. Son polynôme caractéristique est χA “ ´pX ´ 1qpX ´ 2q2 . Ainsi, nécessaire-
` µA “ pX ´ 1qpX
ment, ˘ ´ 2q ou µA “ pX ´ 1qpX ´ 2q2 . Comme deg ppX ´ 1qpX ´ 2qq ă
deg pX ´ 1qpX ´ 2q2 , on commence par tester si le polynôme pX ´ 1qpX ´ 2q annule A.
Or on constate que la matrice pA ´ I3 qpA ´ 2I3 q n’est pas la matrice nulle de M3 pRq donc,
nécessairement, µA “ pX ´ 1qpX ´ 2q2 .
On termine cette section par un critère de diagonalisabilité permettant de décider, à partir
de la donnée du polynôme minimal de f , si f est diagonalisable ou non :
Exemple 3.6.7. Les matrices des exemples 3.6.5 1. et 2. sont diagonalisables, la matrice de
l’exemple 3.6.5 3. n’est pas diagonalisable.
Remarque 3.6.8. Le théorème 3.6.6 permet de déterminer si un endomorphisme est diagonali-
sable ou non sans passer par le calcul des dimensions de ses espaces propres.
Définition 3.7.1. On dit que l’endomorphisme f est triangularisable s’il existe une base B de
E telle que MatB pf q est triangulaire (supérieure ou inférieure).
3.7. TRIANGULARISABILITÉ ET TRIANGULARISATION 57
de l’exemple 3.6.5 3. On a vu plus haut que χA “ ´pX ´1qpX ´2q2 est scindé sur R. Donc, même
si A n’est pas diagonalisable, A est triangularisable d’après le théorème ci-dessus. Cherchons
une matrice triangulaire T de M2 pRq semblable à A.
Commençons
¨ par˛remarquer que chaque espace propre de A est de dimension 1. On a
2 ´1 1
A ´ I3 “ ˝2 ´1 1‚ donc
1 ´1 1
$¨ ˛ , $¨ ˛,
& x & 0 .
#
2x ´ y ` z “ 0 .
E1 “ ˝y ‚ P M3 pRq | “ Vect ˝1‚
%
z x ´ y ` z “ 0- %
1
-
¨ ˛
1 ´1 1
et A ´ 2I3 “ ˝2 ´2 1‚ donc
1 ´1 0
$¨ ˛ , $¨ ˛,
& x & 1 .
#
x´y`z “0 .
E2 “ ˝ y P M3 pRq |
‚ “ Vect ˝1‚
%
z x ´ y “ 0 - %
0
-
$¨ ˛ ¨ ˛,
& 0 1 .
Si on complétait la famille ˝1‚, ˝1‚ de M3,1 pRq ainsi obtenue en une base, i.e. de
1 0
% -
façon à ce que la matrice ¨ ˛
0 1 ‹
P :“ ˝1 1 ‹‚
1 0 ‹
58 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
de l’exemple 3.7.5. Son polynôme caractéristique est χA “ ´pX ´ 1qpX ´ 2q2 . Le sous-espace
caractéristique de A associé à la valeur propre 1 est N1 “ Ker pA ´ I3 q “ E1 et le sous-espace
caractéristique de A associé à la valeur propre 2 est N2 “ Ker pA ´ 2I3 q2 . Or
¨ ˛
0 0 0
pA ´ 2I3 q2 “ ˝´1 1 0‚
´1 1 0
$¨ ˛ ¨ ˛ ,
& 1 0 .
donc N2 “ Ker pA ´ 2I3 q2 “ Vect ˝1‚, ˝0‚ .
0 1
% -
Dans la suite de cette section, on supposera que f est triangularisable i.e. que son polynôme
caractéristique est scindé et on gardera les notations de la définition précédente.
Proposition 3.7.11. Les sous-espaces caractéristiques de f sont en somme directe et, si l’on
reprend les notations de la définition ci-dessus,
E “ Nλ1 ‘ ¨ ¨ ¨ ‘ Nλp .
Remarque 3.7.12. Cette proposition est une conséquence du lemme des noyaux : si P1 , . . . , Pm P
KrXs sont des polynômes premiers entre eux deux à deux et si P :“ P1 ¨ ¨ ¨ Pm , alors
Théorème 3.7.13. Pour tout i P t1, . . . , pu, dim pNλi qq “ mλi et il existe une base Bi de Nλi
telle que, si B :“ tB1 , . . . , B2 u, MatB pf q est la matrice-blocs
¨ ˛
Mλ 1 0
˚ .. ‹
˝ . ‚
0 M λp
´ ¯
où, pour tout i P t1, . . . , pu, Mλi P Mmλi pKq est la matrice MatBi f|Nλ et est de la forme
i
¨ ˛
λi ‹
˚ .. ‚.
‹
˝ .
0 λi
60 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
$¨ ˛ ,
& 0 .
Exemple 3.7.14. Reprenons la matrice A de l’exemple 3.7.10. La famille B1 :“ ˝1‚ est une
1
% -
$¨ ˛ ¨ ˛,
& 1 0 .
base de N1 “ E1 , la famille B2 :“ ˝1‚, ˝0‚ est une base de N2 et, si P désigne la matrice
0 1
% -
inversible ¨ ˛
0 1 0
˝1 1 0‚,
1 0 1
on a ¨ ˛
1 0 0
P ´1 AP “ ˝0 2 1‚
0 0 2
$¨ ˛ ¨ ˛, ¨ ˛
& 1 0 . 0 1 0
Remarque 3.7.15. Si on avait pris B2 :“ ˝1‚, ˝0‚ et P :“ ˝1 1 0‚, on aurait eu
0 3 1 0 3
% -
¨ ˛
1 0 0
P ´1 AP “ ˝0 2 3‚
0 0 2
Mais on peut aller encore plus loin dans la simplification de la représentation triangulaire de
l’endomorphisme triangularisable f : cette simplification “ultime” appelée réduction de Jordan
est l’objet de la section suivante. En particulier, on décrira un algorithme systématique de
triangularisation d’un endomorphisme triangularisable f sous “sa” forme dite de Jordan.
Pour m1 , . . . , mk P Nzt0u, on note Jm1 ,...,mk pλq la matrice diagonale par blocs
¨ ˛
Jm1 pλq 0
˚ .. ‹
˝ . ‚
0 Jmk pλq
de Mm1 `¨¨¨`mk pKq.
Dans cette section, nous allons précisément montrer le résultat de réduction suivant :
Théorème 3.8.2. Il existe une base B de E et, pour tout i P t1, . . . , pu, des entiers mi1 , . . . , miki P
Nzt0u telle que
¨ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚
MatB pf q “ ˝ .. ‹
‹.
˚ . ‚
0 Jmp1 ,...,mp pλp q
kp
3.8.1 Etape 1
La première étape de cette réduction est une réduction suivant les sous-espaces caractéris-
tiques de f . Pour i P t1, . . . , pu, soit Bi une base de Nλi et notons B0 :“ tB1 , . . . , Bp u. On a alors,
comme E “ Nλ1 ‘ ¨ ¨ ¨ ‘ Nλp (proposition 3.7.11) et comme chaque sous-espace caractéristique
de f est stable par f (remarque 3.7.9),
¨ ˛
A1 0
MatB0 pf q “ ˝
˚ .. ‹
. ‚
0 Ap
62 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
´ ¯
où, pour tout i P t1, . . . , pu, Ai :“ MatBi f|Nλ (cette réduction n’est pas nécessairement une
i
triangularisation comme dans le théorème 3.7.13 : il s’agit simplement d’une “diagonalisation
par blocs”).
1
¯ à présent que si, pour tout i P t1, . . . , pu, on trouve une base Bi de Nλi telle que
Remarquons
´
MatBi1 f|Nλ “ Jmi ,...,mi pλi q avec mi1 , . . . , miki P Nzt0u, alors, en notant B :“ tB11 , . . . , Bp1 u,
i 1 ki
on a
¨ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚
MatB pf q “ ˚ .. ‹
‹.
˝ . ‚
0 Jmp1 ,...,mp pλp q
kp
On va donc rechercher une telle base Bi1 pour tout i P t1, . . . , pu.
3.8.2 Etape 2
1
Soit donc λ une valeur propre de f . Nous allons
` ˘montrer qu’il existe une base B de Nλ et
des entiers m1 , . . . , mk P Nzt0u tels que MatB1 f|Nλ “ Jm1 ,...,mk pλq. Pour simplifier encore un
peu plus les écritures, notons N :“ Nλ .
On écrit
f|N “ λIdN ` f|N ´ λIdN .
Nous allons` en fait montrer
˘ qu’il existe une base B 1 de N et des entiers m1 , . . . , mk P Nzt0u tels
0
que MatB1 f|Nλ ´ λIdN “ Jm1 ,...,mk où
¨ 0 ˛
Jm1 0
0
Jm :“ ˝
˚ .. ‹
1 ,...,mk . ‚
0 0
Jm k
et, si m P Nzt0u, ¨ ˛
0 1 0
˚ .. .. ‹
0
˚ . . ‹
Jm :“ ˚
˚ ..
‹ “ Jm p0q P Mm pKq
‹
˝ . 1‚
0 0
0
(Jm “ Jm1 ,...,mk p0q et J10 “ p0q).
1 ,...,mk
On aura alors
0
` ˘ ` ˘
MatB1 f|N “ MatB1 pλIdN q ` MatB1 f|Nλ ´ λIdN “ λImλ ` Jm 1 ,...,mk
“ Jm1 ,...,mk pλq
(à noter que l’indice de nilpotence de u, i.e. le plus petit entier l P Nzt0u tel que ul ” 0, est
donc inférieur ou égal à mλ ).
Nous allons montrer, de façon algorithmique, que tout endomorphisme nilpotent peut être
réduit à une forme (de Jordan) Jm 0 avec m1 , . . . , mk P Nzt0u.
1 ,...,mk
Remarque 3.8.5. Si u est un endomorphisme nilpotent quelconque de E, alors 0 est une valeur
propre de u et c’est la seule. En effet, comme il existe l P Nzt0u tel que ul ” 0, le polynôme X l
est un polynôme annulateur de u et donc le polynôme minimal de u est de la forme µu “ X ν
avec 1 ď ν ď l. 0 est donc l’unique valeur propre de u. De plus, le degré ν du polynôme minimal
X ν de u est l’indice de nilpotence de u.
0
MatB puq “ Jm 1 ,...,mk
.
Pour n “ 1, le résultat est vrai. En effet, soit E un espace vectoriel sur K de dimension 1 et
soit u un endomorphisme nilpotent de E. Soit v0 P E un vecteur engendrant E. Comme u est
un endomorphisme de E, il existe α P K tel que upv0 q “ αv0 . Soit maintenant l P Nzt0u tel que
ul soit identiquement nul, alors 0 “ ul pv0 q “ αl v0 et donc α “ 0 car v0 engendre E qui est de
dimension 1. Ainsi, si on note B :“ tv0 u, on a MatB puq “ p0q “ J10 .
Supposons maintenant le résultat vrai pour tout entier naturel non nul strictement inférieur
à un entier n P Nzt0u fixé, et soient E un espace vectoriel sur K de dimension n et u un
endomorphisme nilpotent de E.
On note ν l’indice de nilpotence de u. Si ν “ 1, u est identiquement nul et, dans toute base
B de E, MatB puq “ J1,...,10 . Si ν ą 1, Ker uν´1 ‰ E (ν est le plus petit entier naturel non plus
tel que uν ” 0 donc uν´1 n’est pas identiquement nul). (
Soit alors v P EzKer uν´1 : nous allons montrer que la famille uν´1 pvq, uν´2 pvq, . . . , upvq, v
est libre. Soient λ0 , . . . , λν´1 P K tels que
λ0 uν´1 pvq “ 0E
et donc λ0 “ 0 car uν´1 pvq ‰ 0E par hypothèse. On applique ensuite uν´2 à l’égalité
pour obtenir λ1 uν´1 pvq “ 0E et donc λ1 “ 0. De proche en (proche, on obtient ainsi que
λ0 “ λ1 “ . . . “ λν´1 “ 0 et la famille B 1 :“ uν´1 pvq, . . . , upvq, v (est donc libre. Il s’agit donc
d’une base du sous-espace vectoriel F :“ Vect uν´1 pvq, . . . , upvq, v de E.
Remarquons ensuite que F est stable par u (i.e. upF q Ă F ) et
¨ ˛
0 1 0
` ˘ ˚ ... ... ‹
˚ ‹
MatB1 u|F “ ˚ ˚ ‹ “ Jν0 .
.. ‹
˝ . 1‚
0 0
` ˘
Si ν “ n, alors F “ E et MatB1 u|F “ MatB1 puq “ Jν0 . Supposons à présent que ν ă n. Nous
allons construire un supplémentaire G de F dans E qui soit également stable par u. Comme
dimpGq ă dimpEq, on pourra alors appliquer l’hypothèse de récurrence ` ˘ à G et u|G et considérer
une base B 2 de G et des entiers ν1 , . . . , νl P Nzt0u tels que MatB2 u|G “ Jν01 ,...,νl . De sorte que,
si B :“ tB 1 , B 2 u,
ˆ ` ˘ ˙ ˆ 0 ˙
MatB1 u|F 0` ˘ Jν 0 0
MatB puq “ “ “ Jν,ν .
0 MatB2 u|G 0 Jν01 ,...,νl 1 ,...,νl
` ˘
On construit un tel espace G en utilisant la dualité linéaire. Soit ϕ P E ˚ tel que ϕ uν´1 pvq ‰
0 (un tel ϕ existe car, sinon, uν´1 pvq serait nécessairement le vecteur nul par la proposition 1.3.6 (
2., ce qui n’est pas le cas par hypothèse sur v) et montrons que la famille ϕ, tupϕq, . . . , t uν´1 pϕq
de E ˚ est libre (tu est la transposée de u : cf définition 1.6.1). Soient µ0 , . . . , µν´1 P K tels que
0 “ µ0 ϕ uν´1 pvq ` µ1 tupϕq uν´1 pvq ` ¨ ¨ ¨ ` µν´1 tuν´1 pϕq uν´1 pvq
` ˘ ` ˘ ` ˘
“ µ0 ϕ uν´1 pvq
` ˘
` ˘
(car uν ” 0). Comme ϕ uν´1 pvq ‰ 0 par hypothèse, nécessairement µ0 “ 0. En appliquant
l’égalité
µ1 tupϕq ` ¨ ¨ ¨ ` µν´1 tuν´1 pϕq ” 0.
à uν´2 pvq, on déduit ensuite que µ1 “ 0. De proche en proche, ( on obtient ainsi que µ0 “ µ1 “
. . . “ µν´1 “ 0 et la famille C :“ ϕ, tupϕq, . . . , t uν´1 pϕq de E(˚ est donc libre. Il s’agit d’une
base du sous-espace vectoriel W :“ Vect ϕ, tupϕq, . . . , t uν´1 pϕq de E ˚ .
On considère ensuite l’annulateur W 0 de W (définition 1.5.1). Montrons que F XW 0 “ t0E u :
soit w “ λ0 v ` λ1 upvq ` ¨ ¨ ¨ ` λν´1 uν´1 pvq, λ0 , . . . , λν´1 P K, un vecteur de F annulé par toutes
les formes linéaires de W . En particulier,
t ν´1
0 “ u pϕqpwq
“ λ0 u pϕq pvq ` λ1 t uν´1 pϕq pupvqq ` ¨ ¨ ¨ ` λν´1 t uν´1 pϕq uν´1 pvq
t ν´1
` ˘
“ λ0 ϕ uν´1 pvq
` ˘
3.8. RÉDUCTION DE JORDAN 65
` ˘
(uν ” 0) et donc, comme ϕ uν´1 pvq ‰ 0, λ0 “ 0 et w “ λ1 upvq`¨ ¨ ¨`λν´1 uν´1 pvq. Le vecteur
w est également annulé par t uν´2 pϕq et on en déduit de façon analogue que λ1 “ 0. De proche
en proche, on obtient ainsi que λ0 “ λ1 “ . . . “ λν´1 “ 0 et donc w “ 0E . Les sous-espaces
vectoriels F et W `0 de ˘E sont donc en somme directe.
De
` plus,
˘ dim W 0 “ dimpEq ´ dimpW q “ n ´ ν (proposition 1.5.3) donc dimpF q `
dim W 0 “ ν ` n ´ ν “ n “ dimpEq et F et W 0 sont donc des sous-espaces vectoriels
supplémentaires dans E.
Montrons enfin que W 0 est stable par u : soit w P W 0 et soit ψ “ µ0 ϕ ` µ1 tupϕq ` ¨ ¨ ¨ `
µν´1 tuν´1 pϕq, µ0 , . . . , µν´1 P K, une forme linéaire de W . Alors
Etape 1 : Pour tout i P t1, . . . , pu, calculer la matrice pA ´ λi In qmλi et déterminer une base Bi de
Nλi “ Ker pA ´ λi In qmλi Ă Mn,1 pKq. Considérer la base B0 :“ tB1 , . . . , Bp u de Mn,1 pKq
et la matrice P0 dont les colonnes sont, dans l’ordre, les vecteurs colonnes de la base B0 .
Calculer la matrice P0´1 AP0 : elle est de la forme
¨ ˛
A1 0
˚ .. ‹
˝ . ‚
0 Ap
où, pour tout i P t1, . . . , pu, Ai P Mmλi pKq (et χAi “ p´1qmλi pX ´ λi qmλi ).
66 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
Etape 2 : Pour chaque i P t1, . . . , pu, calculer la matrice Ui :“ Ai ´λi Imλi de Mmλi pKq puis appliquer
à la matrice nilpotente Ui la méthode décrite ci-après de réduction des matrices nilpotentes
à la forme de Jordan : on obtient des entiers mi1 , . . . , miki P Nzt0u et une matrice inversible
Qi de taille mλi tels que Q´1 0
i Ui Qi “ Jmi ,...,mi
1 ki
Etape 3 : On note ¨ ˛
Q1 0
Pr :“ ˝
˚ .. ‚ P GLn pKq
‹
.
0 Qp
et alors
¨ ˛ ¨ ˛ ¨J 0 0
˛
A1 0 λ1 Imλ1 0 m11 ,...,m1k
1
Pr´1 ˝
˚ .. ‚Pr “ ˝
‹ ˚ .. ‹
‚` ˚
˚ .. ‹
. . ˝ . ‹
‚
0 λp Imλp 0 0
Jm
0 Ap p
,...,mp
1 kp
¨ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚
“ ˝ .. ‹
‹.
˚ . ‚
0 Jmp1 ,...,mp pλp q
kp
P ´1 AP “ ˚
˚ .. ‹
‹.
˝ . ‚
0 Jmp1 ,...,mp pλp q
kp
Etape b : Choisir un vecteur colonne Y P Mm,1 pKq (le vecteur colonne des coordonnées dans la
base canonique d’un vecteur v de Km ) tel que( le vecteur colonne U ν´1 Y n’est pas nul, et
constituer la famille libre U ν´1 Y, . . . , U Y, Y de Mm,1 pKq.
Etape c : Si ν “ m, on note Q la matrice de GLm pKq dont les colonnes (sont, dans l’ordre, les
coordonnées des vecteurs colonnes de la base U ν´1 Y, . . . , U Y, Y de Mm,1 pKq, et on a
alors
0
Q´1 U Q “ Jm .
Si ν ‰ m, passer à l’étape d.
3.8. RÉDUCTION DE JORDAN 67
Etape d : Si ν ‰ m, choisir un vecteur colonne Z P Mm,1 pKq (le vecteur colonne des coordonnées
m ˚
dans la base duale de la base canonique` ˘ forme linéaire ϕ de pK q ) tel que la quantité
d’une
tZU ν´1 Y (qui est la quantité ϕ uν´1 pvq ) ne soit pas nulle, et constituer la famille libre
(
tZ, t U Z, . . . , t U ν´1 Zu de Mm,1 pKq (correspondant à la famille ϕ, tupϕq, . . . , t uν´1 pϕq de
pKm q˚ ).
Etape e : Déterminer une famille libre tX`1 , . . . ,˘Xm´n u de Mm,1 pKq telle que, pour tout i P t1, . . . , m´
νu et tout j P t0, . . . , ν ´ 1u, t t U j Z Xi “ tZU j Xi “ 0 (la famille libre
( tX1 , . . . , Xm´n u
correspond à une base de l’annulateur de Vect ϕ, tupϕq, . . . , t uν´1 pϕq ).
Etape f : On note Q0 la matrice de GLm pKq dont les colonnes sont, dans l’ordre, les coordonnées
des vecteurs colonnes de la base tY, U Y, . . . , U ν´1 Y, X1 , . . . , Xm´n u de Mm,1 pKq. Calculer
la matrice Q´1
0 AQ0 : elle est de la forme
ˆ 0 ˙
Jν 0
0 U
r
où U
r est une matrice nilpotente de Mm´ν,1 pKq.
Etape h : On note
ˆ ˙
Iν 0
Q :“ Q0 r P GLm pKq,
0 Q
et on a
0
Q´1 U Q “ Jν,ν 1 ,...,νl
.
¨ ˛
1 0 0 0
˚´1 4 1 ´2‹
A :“ ˚
˝2
‹
1 2 ´1‚
1 2 1 0
de M4 pRq.
68 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
1´X 0 0 0
´1 4´X 1 ´2
χA “ det pA ´ XI4 q “
2 1 2 ´ X ´1
1 2 1 ´X
4´X 1 ´2
“ p1 ´ Xq 1 2 ´ X ´1
2 1 ´X
2´X 1 ´2
“ p1 ´ Xq 0 2 ´ X ´1
C1 ÐC1 `C3
2´X 1 ´X
1 1 ´2
“ p1 ´ Xqp2 ´ Xq 0 2 ´ X ´1
1 1 ´X
1 1 ´2
“ p1 ´ Xqp2 ´ Xq 0 2 ´ X ´1
L3ÐL3 ´L1
0 0 2´X
“ p1 ´ Xqp2 ´ Xq3
¨ ˛ $¨ ˛ ,
0 0 0 0 ’
’ 1 /
&˚ ‹ /
3 1 ´2‹ 1‹
˚´1 ‹ .
E1 “ Ker pA ´ I4 q “ Ker ˚
˝2 “ Vect ˝ ‚ .
˚
1 1 ´1‚ ’
’ ´4 //
% -
1 2 1 ´1 ´1
et donc
$¨ ˛ ¨ ˛ ¨ ˛ ,
’ 0
’ 0 0 / /
& ˚1‹ ˚0‹ ˚0‹.
N2 “ Vect ˝ ‚, ˝ ‚, ˝ ‚ .
˚ ‹ ˚ ‹ ˚ ‹
’
’ 0 1 0 / /
% -
0 0 1
3.8. RÉDUCTION DE JORDAN 69
et on obtient ¨ ˛
4 1 ´2 0 ˆ ˙
˚1 2 ´1 0‹‹ “ A1 0
P0´1 AP0 “ ˚
˝2 1 0 0‚ 0 A2
0 0 0 1
Etape 2 : Le bloc A2 “ p1q P M1 pRq est déjà un bloc de Jordan J1 p1q.
On note U1 la matrice
¨ ˛ ¨ ˛
4 1 ´2 2 1 ´2
A1 ´ 2I3 “ ˝1 2 ´1‚´ 2I3 “ ˝1 0 ´1‚ P M3 pRq
2 1 0 2 1 ´2
2
Etape b : On choisit ensuite un vecteur¨colonne
˛ ¨ ˛le noyau de¨U1˛ : on
qui ne soit pas dans
1 2 1
prend par exemple le vecteur colonne Y :“ ˝0‚ et on calcule U1 Y “ ˝1‚ et U12 Y “ ˝0‚.
0 2 1
Etape c : Comme l’indice de nilpotence de U1 est égal à la multiplicité de la valeur propre
2 dans χA , la famille libre tU12 Y, U1 Y, Y u est une base de M3,1 pRq et on pose
¨ ˛
1 2 1
Q1 :“ ˝0 1 0‚.
1 2 0
On a alors ¨ ˛
0 1 0
Q1´1 U1 Q “ ˝0 0 1‚.
0 0 0
70 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
Etape 3 : On note
¨ ˛
ˆ ˙ 1 2 1 0
Q1 0 ˚0 1 0 0‹
Pr :“ “˚ ‹
0 1 ˝1 2 0 0‚
0 0 0 1
et
¨ ˛
0 0 0 1
˚1 2 1 1‹
P :“ P0 Pr “ ˚
˝0
‹,
1 0 ´4‚
1 2 0 ´1
et on a
¨ ˛
2 1 0 0 ˆ ˙
˚ 0 2 1 0‹
‹ “ J3 p2q 0
P ´1 AP “ ˚
˝0 .
0 2 0‚ 0 J1 p1q
0 0 0 1
¨ ˛
5 0 4 ´2 ´3
˚´2
˚ 3 ´3 2 4‹‹
˚0
A :“ ˚ 0 3 0 0‹‹
˝0 0 0 3 1‚
1 0 2 ´1 1
de M5 pRq.
3.8. RÉDUCTION DE JORDAN 71
5´X 0 4 ´2 ´3
´2 3´X ´3 2 4
χA “ det pA ´ XI5 q “ 0 0 3´X 0 0
0 0 0 3´X 1
1 0 2 ´1 1´X
5´X 0 ´2 ´3
´2 3´X 2 4
“ p3 ´ Xq
0 0 3´X 1
1 0 ´1 1´X
5´X ´2 ´3
“ p3 ´ Xq2 0 3´X 1
1 ´1 1´X
3´X ´2 ´3
“ p3 ´ Xq2 3 ´ X 3 ´ X 1
C1 ÐC1 `C2
0 ´1 1´X
1 ´2 ´3
3
“ p3 ´ Xq 1 3´X 1
0 ´1 1´X
1 ´2 ´3
3
“ p3 ´ Xq 0 5´X 4
L2 ÐL2 ´L1
0 ´1 1´X
5´X 4
“ p3 ´ Xq3
´1 1´X
“ p3 ´ Xq3 rp5 ´ Xqp1 ´ Xq ` 4s
“ p3 ´ Xq3 pX 2 ´ 6X ` 9q
“ p3 ´ Xq5
¨ ˛
1 0 2 ´1 ´2
˚0 0 0 0 0‹
˚ ‹
U2 “ ˚
˚0 0 0 0 0‹‹
˝1 0 2 ´1 ´2‚
0 0 0 0 0
Etape b : On
¨ choisit
˛ à présent un vecteur
¨ colonne
˛ soit˛ pas dans le noyau de U 2 , par
qui ne ¨
1 2 1
˚0‹ ˚´2‹ ˚0‹
˚ ‹ ˚ ‹ 2
˚ ‹
˚0‹, puis on calcule U Y “ ˚ 0 ‹ et U Y “ ˚0‹.
exemple Y :“ ˚ ‹ ˚ ‹ ˚ ‹
˝0‚ ˝0‚ ˝1‚
0 1 0
Etape c : L’indice de nilpotence de U est strictement inférieur à 5.
Etape d : On choisit un vecteur colonne Z P M5,1 pRq tel que tZU 2 Y ‰ 0, par exemple
¨ ˛
1
˚0‹
˚ ‹
Z :“ ˚˚0‹ (attention Z est “moralement différent de Y ” : Z correspond à une forme linéaire),
‹
˝0‚
0
¨ ˛ ¨ ˛
2 1
˚0‹ ˚0‹
˚ ‹ ˚ ‹
et on calcule Z1 :“ t U Z “ ˚ t 2
˚ 4 ‹ et Z2 :“ U Z “ ˚ 2 ‹.
‹ ˚ ‹
˝´2‚ ˝´1‚
´3 ´2
Etape e : On détermine à présent une base du sous-espace vectoriel de M5,1 pRq des vecteurs
¨ ˛
x1
˚x2 ‹
˚ ‹ t t t
colonnes X “ ˚ ˚x3 ‹ qui vérifient ZX “ Z1 X “ Z2 X “ 0, i.e.
‹
˝x4 ‚
x5
$
&x1
’ “0
2x1 ` 4x3 ´ 2x4 ´ 3x5 “0
’
x1 ` 2x3 ´ x4 ´ 2x5 “0
%
3.8. RÉDUCTION DE JORDAN 73
$¨ ˛ ¨ ˛,
’
’ 0 0 //
&˚1‹ ˚0‹
’
’ ˚ ‹ ˚ /
/
‹.
par exemple la famille ˚0‹ , ˚1‹ .
˚ ‹ ˚ ‹
’
’
’ ˝0‚ ˝2‚/ /
/
’
% /
-
0 0
Etape f : On note ¨ ˛
1 2 1 0 0
˚0 ´2 0 1 0‹
˚ ‹
˚0 0 0 0 1‹
Q0 :“ ˚ ‹
˝1 0 0 0 2‚
0 1 0 0 0
et on a ¨ ˛
0 1 0 0 0
˚0 0 1 0 0‹
˚ ‹ 0
Q´1
0 U Q0 “ ˚0
˚ 0 0 0 0‹
‹ “ J3,2 .
˝0 0 0 0 1‚
0 0 0 0 0
Etape 3 : On note P :“ Q0 et on a
¨ ˛
3 1 0 0 0
˚0 3 1 0 0‹
˚ ‹
P ´1 ˚0
AP “ ˚ 0 3 0 0‹‹ “ J3,2 p3q.
˝0 0 0 3 1‚
0 0 0 0 3
Remarque 3.8.9. Le fait que, dans l’exemple 3.8.8 ci-dessus, la matrice Q´1
0 U Q0 ait directement
été de la forme voulue est un “heureux hasard”. Si l’on avait choisi, pour
$¨ ˛ base¨ du
˛,sous-espace
’
’ 0 0 /
/
1 ‹ ˚0‹/
’
’
&˚˚ ‹ ˚ ‹
/
.
t t t
vectoriel tX P M5,1 pRq | ZX “ Z1 X “ Z2 Xu de M5,1 pRq, la famille ˚ 1 ‹ , ˚1‹ , on aurait
˚ ‹ ˚ ‹/
’ 2
’
’
’ ˝ ‚ ˝2‚/ /
% /
-
0 0
posé ¨ ˛
1 2 1 0 0
˚0 ´2 0 1 0‹
˚ ‹
˚0 0 0 1 1‹ .
Q0 :“ ˚ ‹
˝1 0 0 2 2‚
0 1 0 0 0
Pour cette matrice Q0 , on a
¨ ˛
0 1 0 0 0
˚0 0 1 0 0‹ ˆ 0 ˙
˚ ‹ J3 0
Q´1
0 U Q0 “ ˚0
˚ 0 0 0 0 ‹“
‹
r .
˝0 0 U
0 0 1 1‚
0 0 0 ´1 ´1
74 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
Dans
ˆ ce cas,˙on passe alors à l’étape g : on applique le procédé récursif à laˆmatrice
˙ nilpotente
1 1 1
U
r“ de M2 pRq : l’ordre de nilpotence de U
r est 2, le vecteur Yr :“ n’est pas dans
´1 ´1 0
ˆ ˙ ˆ ˙ ˆ ˙
1 1 1 0 1
son noyau et U Y “
r r . Si l’on note Q la matrice
r r ´1
, on a Q U Q “
r r “ J20 .
´1 0 ´1 0 0
ˆ ˙
I3 0
On passe ensuite à l’étape h : on note Q :“ Q0 r et on a
0 Q
ˆ 0 ˙
´1 J3 0 0
Q UQ “ “ J3,2
0 J20
¨ ˛
0 1 0 0 0
˚0 0 1 0 0‹
˚ ‹
“ ˚˚0 0 0 0 0‹
‹
˝0 0 0 0 1‚
0 0 0 0 0
A l’étape 3 de la méthode appliquée à A, on note alors P :“ Q et on a
¨ ˛
3 1 0 0 0
˚0 3 1 0 0‹
˚ ‹
P ´1 AP “ ˚
˚0 0 3 0 0‹ ‹.
˝0 0 0 3 1‚
0 0 0 0 3
Remarque 3.8.10. La réduction de Jordan permet entre autres de calculer les puissances suc-
cessives d’une matrice triangularisable. Précisément, soit A une matrice triangularisable de
Mn pKq, soient λ1 , . . . , λp les valeurs propres deux à deux distinctes de A et soient P P GLn pKq
et mi1 , . . . , miki P Nzt0u, i P t1, . . . , pu, tels que P ´1 AP soit de forme de Jordan
¨
Jm11 ,...,m1 pλ1 q 0
˛ ¨ ˛ ¨J 0 0
˛
Im 0 m 1 ,...,m1
1
˚ k1
.. ‹ ˚ λ1 . ‹ ˚
k1
.. ‹
˚ . ‹“˝ .. ‚ ` ˚ . ‹.
˝ ‚ ˝ ‚
0 Jmp1 ,...,mp pλp q 0 Imλp 0 0
Jm p p
kp 1,...,m
kp
` ˘k
Comme les deux matrices de cette dernière somme commutent, on peut calculer P ´1 AP “
P ´1 Ak P – et donc Ak – pour tout k P N à l’aide du binôme de Newton. De plus, la nilpotence
de la matrice de droite simplifie l’expression du développement.
¨ ˛
3 ´1 1
Exemple 3.8.11. Reprenons la matrice A “ ˝2 0 1‚ P M2 pRq de l’exemple 3.7.14. Pour
1 ´1 2
¨ ˛
0 1 0
P :“ ˝1 1 0‚ P GL3 pRq, on a
1 0 1
¨ ˛ ¨ ˛ ¨ ˛
1 0 0 1 0 0 0 0 0
P ´1 AP “ ˝0 2 1‚ “ ˝0 2 0‚` ˝0 0 1‚.
0 0 2 0 0 2 0 0 0
3.8. RÉDUCTION DE JORDAN 75
¨ ˛ ¨ ˛
1 0 0 0 0 0
Soit k P N. Comme les matrices ˝0 2 0‚ et ˝0 0 1‚ commutent, on a
0 0 2 0 0 0
¨ ˛k´i ¨ ˛i
k ˆ ˙ 1 0 0 0 0 0
ÿ i
P ´1 Ak P “ ˝0 2 0‚ ˝0 0 1‚
k
i“0 0 0 2 0 0 0
¨ ˛k ¨ ˛k´1 ¨ ˛ ¨ ˛2
1 0 0 1 0 0 0 0 0 0 0 0
“ ˝0 2 0‚ ` k ˝0 2 0‚ ˝0 0 1‚ (car la matrice ˝0 0 1‚ est nulle)
0 0 2 0 0 2 0 0 0 0 0 0
¨ ˛ ¨ ˛
1 0 0 0 0 0
“ ˝0 2k 0 ‚` k ˝0 0 2k´1 ‚
0 0 2k 0 0 0
¨ ˛
1 0 0
“ ˝0 2k k2k´1 ‚
0 0 2k
¨ ˛
´1 1 0
Enfin, P ´1 “˝ 1 0 0‚ donc
1 ´1 1
¨ k
2 ` k2k´1 ´k2k´1 k2k´1
¨ ˛ ˛
1 0 0
Ak “ P ˝0 2k k2k´1 ‚P ´1 “ ˝2k ` k2k´1 ´ 1 ´k2k´1 ` 1 k2k´1 ‚.
0 0 2k 2k ´ 1 ´2k ` 1 2k
76 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES
Chapitre 4
Exponentielle de matrices
4.1 Introduction
On introduit dans ce chapitre une généralisation de la fonction exponentielle aux espaces
de matrices. Cette “exponentielle de matrices” permet notamment de résoudre les systèmes dif-
férentiels linéaires du premier ordre à coefficients constants, et peut se calculer à l’aide de la
réduction de Jordan.
Dans tout ce chapitre, K désigne les corps R ou C, et m est un entier naturel non nul.
Mm pRq Ñ r0,a`8r
Démonstration. Si K “ R, l’application } ¨ } : est la norme
A ÞÑ }A} “ Tr ptA Aq
Mm pRq ˆ Mm pRq Ñ `R ˘ défini dans
euclidienne associée au produit scalaire x¨, ¨y :
pA, Bq ÞÑ Tr tAB
l’exemple 2.2.2 3.
77
78 CHAPITRE 4. EXPONENTIELLE DE MATRICES
Mm pCq Ñ r0,
b`8r
Si K “ C, l’application }¨} : ` ˘ est la norme induite de façon
A ÞÑ }A} “ Tr t A A
Mm pCq ˆ Mm pCq Ñ `C ˘ qui est un produit scalaire hermitien.
analogue par l’application
pA, Bq ÞÑ Tr t AB
Cn ˆ Cn Ñ C
L’application x¨, ¨ycan : est alors un produit scalaire hermitien
pv, wq ÞÑ xv, wycan
sur Cn , appelé produit scalaire hermitien canonique sur Cn .
Cette norme } ¨ } sur Mm pKq possède une propriété qui n’est, en général, pas vérifiée par la
norme d’un espace vectoriel normé quelconque :
Lemme 4.2.3. Soient A, B P Mm pKq. On a }AB} ď }A}}B}.
Démonstration. On note A “ pai j q1ďi,jďm et B “ pbi j q1ďi,jďm . Pour i, j P t1, . . . , mu, on note
également vi :“ pai 1 , . . . , ai m q, wj :“ pb1 j , . . . , bm j q P Km (il s’agit respectivement de la ième
ligne de A et de la transposée de la j ème colonne de B. On a alors
ˇ ˇ2
ÿ ˇˇ ÿ m ˇ
2
ai k bk j ˇ
ˇ
}AB} “ ˇ
ˇ
1ďi,jďm k“1
ˇ
ˇxvi , wj y ˇ2
ÿ ˇ ˇ
“ can
1ďi,jďm
ÿ
ď }vi }2can }wj }2can
1ďi,jďm
˜ ¸˜ ¸
m m ˇ
ˇbl j ˇ2
ÿ ÿ 2
ÿ ˇ
“ |ai k |
1ďi,jďm k“1 l“1
¨ ˛¨ ˛
ÿ ÿ
“ ˝ |ai k |2 ‚˝ |bl j |2 ‚
1ďi,kďm 1ďj,lďm
2 2
“ }A} }B}
4.3. DÉFINITION ET PROPRIÉTÉS DE BASE 79
et
}M A ´ M0 A} “ }pM ´ M0 qA} ď }M ´ M0 }}A}.
On peut également définir une notion de convergence pour les suites et les séries de matrices.
Nous allons, dans la section suivante, associer à toute matrice de Mn pKq la somme d’une série de
matrices absolument convergente, dont l’expression généralise le développement en série entière
de la fonction exponentielle sur R (et C).
ÿ An
Démonstration. Rappelons tout d’abord que la notation désigne la suite des sommes
n
n!
˜ ¸
k
ÿ An
partielles . Une série est dite convergente si sa suite des sommes partielles est
n“0
n!
kPN
convergente et, dans ce cas, on appelle somme de la série la limite de la suite des sommes
partielles.
ÿ An
Nous allons montrer que la série est absolument convergente i.e. que la série numé-
n
n!
ÿ › An ›
› ›
rique › › est convergente. Rappelons qu’une série absolument convergente est en particulier
› n! ›
n
convergente.
› n› n
Pour tout n P N, on a 0 ď › An! › ď }A}n! (par le lemme 4.2.3), or la série (numérique)
ÿ }A}n
est (absolument) convergente (sa somme est l’exponentielle de }A}), donc la série
n ›
n!
ÿ › An › ÿ An
›
› › converge également. Ainsi, la série est absolument convergente.
› n! › n!
n n
80 CHAPITRE 4. EXPONENTIELLE DE MATRICES
Mn pKq Ñ Mn pKq
`8
ÿ An
exp :
A ÞÑ exppAq “
n“0
n!
0 am 0 n
am
on a
¨ ˛ ¨ an ˛
a1 0 `8
1
0
ÿ ˚ n!
exp ˝
˚ .. ‹
‚ “ .. ‹
. ˝ . ‚
n“0 a n
0 am 0 m
n!
¨ř`8 an ˛
n“0 n!
1
0
“ ˝
˚ .. ‹
. ‚
ř`8 anm
0
¨ a ˛ n“0 n!
e 1 0
“ ˝
˚ . .. ‹
‚
0 eam
¨ A ˛
e 1 0
A
e “˝
˚ .. ‚.
‹
.
0 eAr
4.3. DÉFINITION ET PROPRIÉTÉS DE BASE 81
3. Soit J P Mm pKq une matrice nilpotente d’indice de nilpotence ν P Nzt0u. Alors, pour tout
n P N, si n ě ν, J n “ 0m et on a donc
ν
ÿ
J Jn J2 J ν´1
e “ “ Im ` J ` ` ¨¨¨ ` .
n“0
n! 2! pν ´ 1q!
¨ ˛
0 1 0
Par exemple, si J désigne la matrice nilpotente ˝0 0 1‚p“ J30 q de M3 pRq, on a J 2 “
0 0 0
¨ ˛
0 0 1
˝0 0 0‚, J 3 “ 03 et donc
0 0 0
J2
eJ “ I3 ` J `
2! ¨
0 0 12
¨ ˛ ˛ ¨ ˛
1 0 0 0 1 0
“ ˝0 1 0‚` ˝0 0 1‚` ˝0 0 0 ‚
0 0 1 0 0 0 0 0 0
1 1 12
¨ ˛
“ ˝ 0 1 1 ‚.
0 0 1
Avant d’énoncer la proposition suivante, on rappelle un résultat relatif
ř au produit
ř de Cauchy
de séries d’un espace vectoriel normé, appliqué ici à pMm pKq,ř} ¨ }qř: si n An et n Bn sont deux
séries absolument convergentes de Mm pKq, alors la série n p nk“0 Ak Bn´k q est absolument
`ř`8 ˘ `ř`8 ˘
convergente et a pour somme n“0 An n“0 B n .
Proposition 4.3.5. Soient A, B P Mm pKq et supposons que AB “ BA. Alors
eA`B “ eA eB .
Démonstration. Comme A et B commutent,ˆon˙peut appliquer la formule du binôme de New-
n
n
ÿ n k n´k
ton : pour tout n P N, on a pA ` Bq “ A B et donc
k“0
k
`8 `8 n
pA ` Bqn
ˆ ˙
A`B
ÿ ÿ ÿ 1 n k n´k
e “ “ A B
n“0
n! n“0 k“0
n! k
`8 n
ÿ ÿ 1
“ Ak B n´k
n“0 k“0
k!pn ´ kq!
`8 n
ÿ ÿ Ak B n´k
“
n“0 k“0
k! pn ´ kq!
˜ ¸˜ ¸
`8
ÿ An `8
ÿ Bn
“ (les deux séries sont absolument convergentes)
n“0
n! n“0
n!
“ eA eB
82 CHAPITRE 4. EXPONENTIELLE DE MATRICES
Soit A P Mm pKq et soit P P GLm pKq une matrice inversible. L’exponentielle de la conjuguée
de A par P est la conjuguée de exppAq par P :
Proposition 4.3.8. On a
exp P ´1 AP “ P ´1 eA P.
` ˘
ÿ P ´1 AP n
` ˘
` ´1 ˘
Démonstration. exp P AP est la somme de la série . Or, si k P N,
n
n!
˘n ˜ ¸
k ` ´1 k n k n
ÿ P AP ÿ A ÿ A
“ P ´1 P “ P ´1 P,
n“0
n! n“0
n! n“0
n!
donc
k ` ´1 ˘n
` ´1
˘ ÿ P AP
exp P AP “ lim
kÑ`8
n“0
n!
˜ ¸
k
´1
ÿ An
“ lim P P
kÑ`8
n“0
n!
˜ ˜ ¸¸
k n
ÿ A Mm pKq Ñ Mm pKq
“ P ´1 lim P (l’application est continue)
kÑ`8 n! M ÞÑ P ´1 M P
n“0
“ P ´1 eA P.
Démonstration. Considérons A comme une matrice de Mm pCq. En tant que telle, elle est tri-
angularisable dans¨ Mm pCq (corollaire
˛ 3.7.4) : il existe une matrice Q P Mm pCq et une matrice
λ1 ‹
triangulaire B “ ˝
˚ .. ‚ P Mm pCq telles que B “ Q´1 AQ (les scalaires λ1 , . . . , λm P C
‹
.
0 λm
sont les valeurs propres complexes, non nécessairement deux à deux distinctes, de A).
4.4. CALCUL VIA LA RÉDUCTION DE JORDAN 83
¨ n ˛
λ1 ‹
Remarquons que, pour tout n P N, B n “ ˝
˚ .. ‚ (le produit de deux matrices
‹
.
0 n
λm
triangulaires supérieures reste triangulaire supérieur) et donc
`8
Bn ÿ
eB “
n“0
n!
¨ λn ˛
1
`8 ‹
ÿ ˚ n!
“ .. ‹
˝ . ‚
n“0 λn
0 m
n!
¨ř`8 λn
1
˛
n“0 n! ‹
˚
“ ˝ .. ‹
. ‚
ř`8 λn
0 m
n“0 n!
¨ ˛
eλ1 ‹
˚
“ ˝ .. ‹
. ‚
0 e λm
et donc
¨ ˛
eλ1 ‹ m řm
det eA “ det ˝
` ˘ ˚ .. ‹ ź λj
“ e “ e j“1 λj “ eTrpBq “ eTrpAq
. ‚
0 e λm j“1
¨ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚
P ´1 AP “ ˚ .. ‹
‹.
˝ . ‚
0 Jmp1 ,...,mp pλp q
kp
Alors
¨ ¨ ˛ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚ ˚
exppAq “ exp ˚ P .. ‹ ´1 ‹
‹P ‹
˝ ˝
˚ . ‚ ‚
0 Jm1 ,...,m pλp q
p p
kp
¨ ˛
Jm11 ,...,m1 pλ1 q 0
k1
˚
“ P exp ˚ .. ‹ ´1
‹P (par proposition 4.3.8)
˝ . ‚
0 Jmp1 ,...,mp pλp q
kp
¨ ´ ¯ ˛
exp Jm11 ,...,m1 pλ1 q 0
˚ k1 ‹
“ P˚
˚ .. ‹ ´1
‹P (exemple 4.3.4 3.).
. ´ ¯‚
˝
0 exp Jmp1 ,...,mp pλp q
kp
Ainsi, pour pouvoir calculer exppAq, il nous suffit de savoir calculer exp pJm1 ,...,mk pλqq pour
tous k P Nzt0u, m1 , . . . , mk P Nzt0u et λ P C. Soient donc k P Nzt0u, m1 , . . . , mk P Nzt0u et
λ P C. Notons m0 :“ m1 ` ¨ ¨ ¨ ` mk . On a Jm1 ,...,mk pλq “ λIm0 ` Jm 0 . Or les matrices
1 ,...,mk
0 0
λIm0 et Jm1 ,...,mk commutent et la matrice Jm1 ,...,mk est nilpotente. Si on note ν l’indice de
nilpotence de cette dernière matrice que l’on note simplement J, on a alors
Or,
`8
ÿ in n `8 `8 `8
ÿ p´iqn ÿ in ` p´iqn ÿ 2p´1qp ÿ p´1qp
ei ` e´i “ ` “ “ “2 “ 2 cosp1q
k“0
n! k“0
n! k“0
n! p“0
p2pq! p“0
p2pq!
et
`8
ÿ in n `8 `8 `8
ÿ p´iqn ÿ in`1 ` p´iqn`1 ÿ 2p´1qp`1 ÿ p´1qp
iei ´ie´i “ i ´i “ “ “ ´2 “ ´2 sinp1q.
k“0
n! k“0
n! k“0
n! p“0
p2p ` 1q! p“0
p2p ` 1q!
Ainsi,
ˆ ˙
cosp1q sinp1q
exppAq “ .
´ sinp1q cosp1q
¨ ˛ ¨ ˛
3 ´1 1 0 1 0
2. Reprenons la matrice A “ ˝2 0 1‚ P M2 pRq de l’exemple 3.8.11. Pour P :“ ˝1 1 0‚ P
1 ´1 2 1 0 1
GL3 pRq, on a ¨ ˛
1 0 0 ˆ ˙
J1 p1q 0
P ´1 AP “ ˝0 2 1‚ “
0 J2 p2q
0 0 2
donc ˆ ˙
exppI1 q 0
exppAq “ P P ´1 .
0 exp pJ2 p2qq
ˆ ˙
0 1
Or J2 p2q “ 2I2 ` J20 et, si on note J :“ J20 “ , J 2 “ 02 donc
0 0
ˆˆ ˙ ˆ ˙˙ ˆ ˙
2 2 1 0 0 1 2 1 1
exp pJ2 p2qq “ e pI2 ` Jq “ e ` “e .
0 1 0 0 0 1
Ainsi, ¨ ˛
e 0 0
exppAq “ P ˝0 e2 e2 ‚P ´1 .
0 0 e2
¨ ˛
´1 1 0
Comme P ´1 “ ˝ 1 0 0‚, on a enfin
1 ´1 1
2e2 ´e2 e2
¨ ˛
Remarque 4.4.3. Dans le premier exemple, plutôt que de passer par la réduction de Jordan, on
aurait pu remarquer que, pour tout n P N,
$˜ ¸
’ 1 0
si n “ 4q, q P N,
’
’
’
’
’
’
’ ˜0 1 ¸ $˜ ¸
p
’
’
’ 0 1 ’ p´1q 0
si n “ 4q ` 1, q P N, si n “ 2p, p P N,
’ ’
ˆ ˙n ’ ’
& ´1 0
’
’ p
n 0 1
& 0 p´1q
A “ “ ˜ ¸ “ ˜ ¸
´1 0 ’ ´1 0 ’ 0 p´1q p
si n “ 4q ` 2, q P N, si n “ 2p ` 1, p P N.
’
’ ’
’
’
’
’ 0 ´1 % p´1qp`1
’
0
’
’ ˜ ¸
’
’
’ 0 ´1
si n “ 4q ` 3, q P N,
’
’
’
% 1 0
X 1 “ AX
où A est une matrice de Mm pKq quelconque fixée et où la fonction inconnue X désigne une
fonction vectorielle dérivable
R Ñ Km¨– Mm,1˛pKq
x1 ptq
˚ .. ‹ ,
t ÞÑ ˝ . ‚
xm ptq
autrement dit aux systèmes de la forme
$
1
&x1 “ a1 1 x1 ` ¨ ¨ ¨ ` a1 m xm
’
’
.. ..
’ . .
’
%x1
m “ am 1 x1 ` ¨ ¨ ¨ ` am m xm
où pai j q1ďi,jďm P Mm pKq et les fonctions inconnues x1 , . . . , xm sont des fonctions dérivables de
R dans R.
Précisément, soit A une matrice de Mm pKq. On souhaite déterminer l’ensemble des fonctions
vectorielles dérivables X : R Ñ Rm telles que, pour tout t P R, X 1 ptq “ AXptq.
R Ñ Mm pKq
ϕ:
t ÞÑ etA
Nous allons montrer que ϕ est dérivable sur R et donner l’expression de la dérivée de ϕ :
4.5. RÉSOLUTION DES SYSTÈMES DIFFÉRENTIELS LINÉAIRES 87
Proposition 4.5.1. La fonction ϕ est dérivable sur R et, pour tout t P R, ϕ1 ptq “ AetA .
ept`hqA ´ etA
h
possède une limite finie quand h tend vers 0 et que cette limite est égale à AetA .
Soit donc h P R˚ . Remarquons tout d’abord que, puisque les matrices tA et hA commutent,
phAqn ÿ phAqn
`8
ÿ `8
Comme ehA “ “ Im ` hA ` , on a
n“0
n! n“2
n!
› ›
› › `8 n› `8
ÿ }hA}n
› › ÿ phAq ›
›
› hA
›e ´ Im ´ hA› “ › ›ď “ e}hA} ´ 1 ´ }hA} “ e|h|}A} ´ 1 ´ |h|}A},
›n“2 n! › n“2 n!
donc › hA ›
› e ´ Im ´ hA › e|h|}A} ´ 1
› ›ď ´ }A}.
› h › |h|
e|h|}A} ´1
Or, quand h tend vers 0, |h| tend vers 0 et la quantité |h|tend alors vers la dérivée de
› hA ›
la fonction R Ñ R ; t ÞÑ et}A} en 0, c’est-à-dire }A}. Ainsi, la quantité › e ´Ihm ´hA › tend donc
› ›
bien vers 0 quand h tend vers 0.
pt`hqA tA hA
Au total, la quantité e h
´e
“ e h´Im etA tend donc bien vers AetA quand h tend vers
0 : l’application ϕ est donc bien dérivable en t et ϕ1 ptq “ AetA .
Proposition 4.5.2. Les solutions de pSq sont les fonctions vectorielles de la forme
R Ñ Km
X:
t Ñ etA X0
avec X0 P Km .
88 CHAPITRE 4. EXPONENTIELLE DE MATRICES
donc il existe un vecteur X0 P Rm tel que, pour tout t P R, Y ptq “ X0 ô Xptq “ etA X0 .
donc ¨ ˛
t 0 0 ˆ ˙
´1 t 0
tA “ P 0 2t t P “ P
˝ ‚ P ´1
0 tJ2 p2q
0 0 2t
et ˆ ˙
expptq 0
expptAq “ P P ´1 .
0 exp ptJ2 p2qq
Ainsi,
¨ t ˛
e 0 0
expptAq “ P ˝ 0 e2t te2t ‚P ´1
0 0 e2t
e2t ` te2t ´te2t te2t
¨ ˛
“ ˝ t 2t
´e ` e ` te 2t e ´ te2t
t te2t ‚
t
´e ` e 2t et ´ e2t e2t
Les solutions du système différentiel pSq sont donc les fonctions de la forme
R Ñ ¨ R3
e2t te2t ´te2t te2t
˛
`
t Þ Ñ ˝´et ` e2t ` te2t e ´ te2t
t te2t ‚X0
´et ` e2t et ´ e2t e2t
avec X0 P R3 .
90 CHAPITRE 4. EXPONENTIELLE DE MATRICES
Chapitre 5
Orthogonalité et réduction
5.1 Introduction
Dans ce chapitre, on aborde la question de la réductibilité de certaines classes d’endomor-
phismes des espaces euclidiens. En particulier, on montre que tout endomorphisme auto-adjoint
est diagonalisable dans une base orthonormale, et que tout endomorphisme orthogonal est dia-
gonalisable par blocs, suivant des blocs de rotations vectorielles de dimension 2 ou 1.
On abordera également la notion de positivité d’une matrice symétrique, montrant no-
tamment qu’une matrice symétrique positive possède une “racine carrée”. Cela nous permettra
d’établir l’existence d’une “décomposition polaire” pour toute matrice à coefficients réels inver-
sible.
91
92 CHAPITRE 5. ORTHOGONALITÉ ET RÉDUCTION
• f est diagonalisable,
En particulier, si l’on considère, pour chacun de ces espaces propres, une base orthonormale, la
réunion de ces bases est une base orthonormale de E : f est donc diagonalisable dans une base
orthonormale de E.
Démonstration. On commence par montrer que le polynôme caractéristique de f est scindé sur
R. Pour cela, soit B0 une base orthonormale de E et considérons la matrice A :“ MatB0 pf q de
f dans B0 . A est une matrice de Mn pRq et peut être également considérée comme une matrice
de Mn pCq. Nous allons montrer que les racines complexes du polynôme caractéristique de A
(autrement dit les valeurs propres complexes de A) sont toutes réelles : χf “ χA sera donc
également scindé sur R. ¨ ˛
x1
˚ .. ‹
Soit donc une valeur propre complexe λ P C de A et montrons que λ P R. Soit X “ ˝ . ‚ P
xn
Mn,1 pCq un vecteur propre de A associé à λ : on a donc AX “ λX. Nous allons appliquer la
conjugaison complexe à cette dernière égalité : si M “ pmi j q1ďiďp,1ďjďq est une matrice de
Mp,q pCq, la matrice conjuguée M de M est la matrice pmi j q1ďi,jďn de Mn pCq. On obtient alors
AX “ λX ô AX “ λ X ô AX “ λ X
(les coefficients de A sont réels).
On considère d’autre part l’égalité t pAXqX “ t XAX, satisfaite car t A “ A (car f est
symétrique : proposition 5.2.3). On y remplace AX par λX (X est un vecteur propre associé à
ÿn n
ÿ
λ) pour obtenir t pλXqX “ t Xλ X i.e. λ |xi |2 “ λ |xi |2 et donc λ “ λ car X n’est pas le
i“1 i“1
vecteur colonne nul (X est un vecteur propre). Ainsi, λ P R.
Le polynôme caractéristique de l’endomorphisme symétrique f est donc scindé sur R. En
particulier, le spectre de f est non-vide.
5.2. DIAGONALISABILITÉ DES ENDOMORPHISMES AUTO-ADJOINTS 93
On montre à présent que f est diagonalisable. On le montre par récurrence sur la dimension
n de E. Précisément, on montre par récurrence l’assertion suivante : pour tout n P Nzt0u, pour
tout espace euclidien pE, x¨, ¨yq de dimension n, pour tout endomorphisme symétrique f de E,
f est diagonalisable.
Toute matrice carrée de taille 1 étant diagonale, le résultat est vrai pour n “ 1.
Supposons à présent la propriété vraie au rang n ´ 1 pour n P Nzt0; 1u fixé, et montrons-la
pour l’endomorphisme symétrique f de l’espace euclidien E de dimension n. Soit λ P R une
valeur propre de f (un tel λ existe car SpR pf q ‰ H). Soit ensuite v un vecteur propre de f
associé à λ et notons F :“ tvuK “ pVect tvuqK . Montrons que F est stable par f : soit w P F
alors
xf pwq, vy “ xw, f pvqy (f est symétrique)
“ xw, λvy (v P Eλ )
“ λ xw, vy
“ 0 (car w P F “ tvuK ).
Ainsi F est stable par F et on peut donc restreindre f en un endomorphisme f|F de F , qui
est également symétrique
´ ¯ rapport à la restriction du produit scalaire x¨, ¨y sur F ). Comme
(par
K
dimpF q “ dim pVect tvuq “ dimpEq ´ dim pVecttvuq “ n ´ 1, on peut ensuite appliquer
l’hypothèse de récurrence à l’endomorphisme symétrique f|F de F : f|F est diagonalisable i.e. il
existe une base de F formée de vecteurs propres e2 , . . . , en pour f|F . Les sous-espaces vectoriels
Vecttxu et F étant en somme directe, la famille tv, e2 , . . . , en u est alors une base de E, formée
de vecteurs propres pour f donc f est diagonalisable.
On montre enfin que les sous-espaces propres de f sont deux à deux orthogonaux. Soient
donc λ1 et λ2 deux valeurs propres distinctes de f et soient v1 P Eλ1 , v2 P Eλ2 . Montrons que
les vecteurs v1 et v2 sont orthogonaux. On a d’une part
xf pv1 q, v2 y “ xλ1 v1 , v2 y “ λ1 xv1 , v2 y
et, d’autre part, comme f est symétrique,
xf pv1 q, v2 y “ xv1 , f pv2 qy “ xv1 , λ2 v2 y “ λ2 xv1 , v2 y.
Ainsi, λ1 xv1 , v2 y “ λ2 xv1 , v2 y i.e. pλ1 ´ λ2 qxv1 , v2 y “ 0 et donc xv1 , v2 y “ 0 car λ1 ‰ λ2 . Les
vecteurs v1 et v2 sont donc orthogonaux.
et
E0 “ Ker f.
La famille tp2, 0, 1q, p1, 1, 0qu est une base de E6 . En appliquant le procédé d’orthonor-
malisation de Gram-Schmidt 3
! ) à cette famille libre de R , on obtient la base orthonormale
?1 p2, 0, 1q, ?1 p1, ´5, ´2q de E6 .
5 30
D’autre part, le vecteur ?16 p´1, ´1, 2q de norme 1 engendre E0 .
! )
Si l’on note B :“ ?15 p2, 0, 1q, ?130 p1, ´5, ´2q, ?16 p´1, ´1, 2q , la famille B est alors une base
orthonormale de R3 et la matrice représentative de f dans B est
¨ ˛
6 0 0
˝0 6 0‚.
0 0 0
Corollaire 5.2.7. Soit A une matrice de Mn pRq. On suppose que A est symétrique i.e. tA “ A.
Alors il existe une matrice orthogonale O P On pRq et une matrice diagonale D P Mn pRq telles
que
D “ O´1 AO “ t OAO
¨
˛
5 ´1 2
Exemple 5.2.8. Si l’on reprend la matrice A :“ ˝´1 5 2‚ définie dans l’exemple 5.2.6
2 2 2
précédent et si l’on note
?2 ?1 ?1
¨ ˛
5 30 6
O :“ ˝ 0
˚ ´5
? ?1 ‹ ,
30 6‚
?1 ´2
? ´2
?
5 30 6
5.3. MATRICES SYMÉTRIQUES POSITIVES 95
¨ ˛
1 1 0
Exemple 5.3.2. 1. La matrice symétrique A :“ ˝1 2 0‚ P M3 pRq est définie positive :
0 0 3
¨ ˛
x
pour tout X “ ˝y ‚ P M3,1 pRq,
z
t
XAX “ x2 ` 2y 2 ` 3z 2 ` 2xy “ px ` yq2 ` y 2 ` 3z 2 ě 0,
¨ ˛
0
et cette quantité est égale à 0 ssi x “ y “ z “ 0 ssi X “ 0‚.
˝
0
˛¨
2 ´3 0
2. La matrice symétrique B :“ ˝´3 11 0‚ P M3 pRq est positive car, pour tous X “
0 0 0
¨ ˛
x
˝y ‚ P M3,1 pRq,
z
t
XBX “ 2x2 ` 11y 2 ´ 6xy “ px ´ 3yq2 ` x2 ` 2y 2 ě 0,
¨ ˛
` ˘ 0
mais elle n’est pas définie positive car 0 0 1 B ˝0‚ “ 0.
1
96 CHAPITRE 5. ORTHOGONALITÉ ET RÉDUCTION
Remarque 5.3.3. Une matrice symétrique A de Sn pRq est définie positive si et seulement si elle
représente un produit scalaire. En effet, notons tout d’abord B “ te1 , . . . , en u la base canonique
de Rn et définissons l’application
Rn ˆ Rn Ñ R ¨˛
y1
x¨, ¨y : ´ ¯
xn A ˝ ... ‚
řn řn t
` ˘ ˚ ‹
v“ i“1 xi ei , w “ j“1 yj ej ÞÑ x1 ¨ ¨ ¨
yn
Cette application est bilinéaire, symétrique (car A est symétrique), et elle est définie positive
ssi A est définie positive. L’application x¨, ¨y est donc un produit scalaire sur Rn ssi A est définie
positive et, dans ce cas, A “ Matps t
B px¨, ¨yq car, pour tout i, j P t1, . . . , nu, Xi AXj “ xei , ej y (cf
preuve de la proposition 2.6.4).
Réciproquement, si A représente un produit scalaire x¨, ¨y d’un espace euclidien E de di-
mension n dans une base B, alors A est une matrice symétrique définie positive : pour tous
X, Y P Mn,1 pRq, t XAY “ xv, wy où v et w sont respectivement les vecteurs de E de coordon-
nées les coordonnées des vecteurs colonnes X et Y dans la base B, et le produit scalaire x¨, ¨y
est défini positif.
Soit A P Sn pRq. Nous allons à présent exhiber une caractérisation du caractère positif, resp.
défini positif, de A en termes de ses valeurs propres. Rappelons que, comme A est symétrique,
son polynôme caractéristique est scindé sur R (cf preuve du théorème 5.2.5).
Proposition 5.3.4. La matrice symétrique A est positive, resp. définie positive, si et seulement
si toutes ses valeurs propres sont positives ou nulles, resp. strictement positives.
Démonstration. Comme A est symétrique, d’après ¨ le corollaire˛5.2.7, il existe une matrice ortho-
λ1 0
gonale O P On pRq et une matrice diagonale D “ ˝
˚ . .. ‚ P Mn pRq telles que t OAO “ D.
‹
0 λn
En particulier, les scalaires λ1 , . . . , λn sont les valeurs propres (non nécessairement deux à deux
distinctes) de A.
Alors
pour tout X P Mn,1 pRq, t XAX ě 0 ssi pour tout Y P Mn,1 pRq, t pOY qApOY q ě 0 (O P GLn pRq)
` ˘
ssi pour tout Y P Mn,1 pRq, t Y t OAO Y ě 0
¨ ˛
y1
˚ .. ‹
ssi pour tout Y “ ˝ . ‚ P Mn,1 pRq, t Y DY ě 0
yn
n
ÿ
ssi pour tous y1 , . . . , yn P R, λi yi2 ě 0.
i“1
n
ÿ
Or, pour tous y1 , . . . , yn P R, λi yi2 ě 0 ssi pour tout i P t1, . . . , nu, λi ě 0 (car, si j P
i“1
5.3. MATRICES SYMÉTRIQUES POSITIVES 97
n
ÿ
t1, . . . , nu, λj “ λi δi2j ).
i“1
Ainsi, la matrice symétrique A est positive si et seulement si toutes ses valeurs propres sont
positives ou nulles.
De façon analogue,
$¨ ˛,
& 0 /
’ .
A est définie positive ssi pour tout X P Mn,1 pRqz ˝ ... ‚ , t XAX ą 0
˚ ‹
’ /
0
% -
n
ÿ
ssi pour tout py1 , . . . , yn q P Rn ztp0, . . . , 0qu, λi yi2 ą 0
i“1
ssi pour tout i P t1, . . . , nu, λi ą 0
n
ÿ
(si pour tout i P t1, . . . , nu, λi ą 0, alors, pour tout py1 , . . . , yn q P Rn , λi yi2 “ 0 ssi pour
i“1
tout i P t1, . . . , nu, yi “ 0).
! ? ? )
1. On a χA “ X 2 ´ 3X ` 1 p3 ´ Xq donc SppAq “ 3´2 5 , 3`2 5 , 3 , et on peut donc
` ˘
directement en déduire que la matrice symétrique B est positive, non définie positive.
Remarque 5.3.6. Une matrice symétrique définie positive est en particulier inversible.
Nous allons montrer plus bas qu’une matrice symétrique positive possède une “racine carrée”.
Pour pouvoir démontrer ce résultat, nous aurons besoin de la propriété de “diagonalisation
simultanée” suivante :
Soit i P t1, . . . , pu et montrons que le sous-espace propre Eλi de f associé à la valeur propre
λi est stable par g. Soit donc v P Eλi et montrons que gpvq P Eλi : on a
donc gpvq appartient bien à Eλi . Comme Eλi est un sev de E stable par l’endomorphisme
diagonalisable g, la restriction g|Eλ de g à Eλi est un endomorphisme diagonalisable de Eλi :
i
il existe donc une base Bi de Eλi dans laquelle la matrice représentative de g|Eλ est diagonale.
i
Mais comme Eλi est le sous-espace propre de f associé à la valeur propre λi , Eλi est stable par
f et la matrice de la restriction f|Eλ est également diagonale dans cette base Bi .
i
Si l’on pose enfin B :“ tB1 , . . . , Bp u, les matrices représentatives de f et g dans la base B
de E sont toutes deux diagonales.
Théorème et Définition 5.3.9. Soit A P Sn pRq une matrice positive. Il existe une unique
matrice R P Sn pRq positive telle que A “ R2 “ RR. De plus, si A est définie positive, R l’est
également. On appelle R la racine carrée de A.
Démonstration. Montrons tout d’abord l’existence de cette décomposition. Comme A est une
matrice symétrique
¨ ˛ il existe une matrice orthogonale O P On pRq et une matrice dia-
positive,
λ1 0
gonale D “ ˝
˚ .. ‚ P Mn pRq telles que t OAO “ D (car A est symétrique : corollaire
‹
.
0 λn
5.2.7), avec, pour tout i P t1, . . . , nu, ?
λi ě 0 (car A est positive : proposition précédente 5.3.4).
Pour i P t1, . . . , nu, notons µi :“ λi ě 0 et posons
¨ ˛
µ1 0
R :“ O ˝
˚ .. ‹t
‚ O.
.
0 µn
Remarquons que si A est définie positive alors, pour tout i P t1, . . . , pu, λi ą 0 donc µi ą 0, et
R est donc également définie positive.
Montrons ensuite l’unicité de la matrice R en tant que matrice symétrique positive dont le
carré est A. Soit R r2 “ A. En particulier, R
r P Sn pRq une matrice positive telle que R r commute
avec A donc avec tout polynôme de matrice en A. Or, si l’on considère un polynôme L P RrXs
100 CHAPITRE 5. ORTHOGONALITÉ ET RÉDUCTION
tel que, pour tout i P t1, . . . , nu, Lpλi q “ µi (par exemple le polynôme donné par l’interpolation
de Lagrange), on a
LpAq “ L OD t O
` ˘
“ OLpDqt O
¨ ˛
Lpλ1 q 0
“ O˝
˚ .. ‹t
‚O
.
0 Lpλn q
¨ ˛
µ1 0
“ O˝
˚ . .. ‹t
‚O
0 µn
“ R
et donc R r commute avec R “ LpAq. Comme, de plus, les matrices R et R r sont diagonalisables
(car symétriques), elles sont co-diagonalisables d’après la proposition 5.3.7 : il existe une matrice
inversible P P GLn pRq et des matrices diagonales D1 , D2 P Mn pRq de coefficients diagonaux
positifs ou nuls (R et Rr sont positives) telles que P ´1 RP “ D1 et P ´1 RP
r “ D2 . Alors
D12 “ P ´1 R2 P “ P ´1 AP “ P ´1 R
r2 P “ D2 .
2
Les matrices D1 et D2 étant toutes deux diagonales à coefficients positifs ou nuls, on obtient
finalement l’égalité D1 “ D2 et donc R “ P D1 P ´1 “ P D2 P ´1 “ R.
r
La preuve de l’existence de la racine carrée d’une matrice symétrique positive nous donne
une méthode pour la calculer :
¨ ˛
11 ´5 5
A :“ ˝´5 3 ´3‚ P S3 pRq.
5 ´3 3
5.3. MATRICES SYMÉTRIQUES POSITIVES 101
On a
11 ´ X ´5 5
χA “ det pA ´ XI3 q “ ´5 3´X ´3
5 ´3 3´X
11 ´ X 0 5
“ ´5 ´X ´3
C2 ÐC2 `C3
5 ´X 3 ´ X
11 ´ X 0 5
“ p´Xq ´5 1 ´3
5 1 3´X
11 ´ X 0 5
“ p´Xq ´5 1 ´3
L3 ÐL3 ´L2
10 0 6´X
11 ´ X 5
“ p´Xq
10 6´X
16 ´ X 5
“ p´Xq
C1 ÐC1 `C2 16 ´ X 6 ´ X
1 5
“ p´Xqp16 ´ Xq
1 6´X
“ p´Xqp16 ´ Xqp1 ´ Xq.
En particulier, comme les valeurs propres de A sont positives ou nulles, A est positive (non
définie positive car 0 est une valeur propre de A). $¨ ˛,
& 0 /
¨ ˛ ¨ ˛ ¨ ˛
0 2 1 ’ .
˚ ?1 ‹
Par ailleurs, 1 P E0 (“ Ker A), ´1 P E16 et
˝ ‚ ˝ ‚ ˝ 1 P E1 donc ˝ 2 ‚ est une
‚
1 1 ´1 % ?1 /
’ -
$¨ 2 ˛, $¨2 1 ˛,
? ?
6 3
’
& /
. ’
& /
.
˚´ ?1 ‹ ˚ ?1 ‹
base orthonormale de E0 , ˝ 6‚
est une base orthonormale de E 16 et ˝ 3 ‚ est
% ?1 /
’ - % ´ ?1 /
’ -
6 3
une base orthonormale de E1 . La matrice
?2 ?1
¨ ˛
0 6 3
P :“ ˝ ?12 ´ ?16 ?1 ‹
˚
3 ‚
?1 ?1 ´ ?13
2 6
Théorème 5.4.1 (Décomposition polaire). Soit A P GLn pRq une matrice inversible. Il existe
une matrice orthogonale O P On pRq et une matrice symétrique définie positive S P Sn pRq
telles que A “ OS. De plus, le couple pO, Sq est unique, et l’égalité A “ OS est appelée
la décomposition polaire de A.
Lemme 5.4.2. Soit M P Mn pRq. La matrice tM M de Mn pRq est symétrique positive. Si M est
de plus inversible, la matrice symétrique tM M est alors définie positive.
Montrons à présent que toutes les valeurs propres de la matrice symétrique tM M P Sn pRq
sont positives. Pour cela, notons f l’endomorphisme de Rn représenté par M dans la base
canonique. Alors la matrice symétrique tM M est la matrice représentative de l’endomorphisme
auto-adjoint f ˚ ˝ f de pRn , x¨, ¨ycan q dans la base canonique.
Soit donc λ P R une valeur propre de tM M et soit v P Rn un vecteur propre de f associé à
λ. D’une part, on a
xf ˚ ˝ f pvq, vycan “ xf pvq, f pvqycan “ }f pvq}2
et, d’autre part,
xf ˚ ˝ f pvq, vycan “ xλv, vycan “ λ}v}2 .
2
Ainsi, λ “ }f}v}
pvq}
2 ě 0.
Si l’on suppose de plus que M est inversible, alors f est un isomorphisme et, avec les
notations ci-dessus, f pvq ‰ 0Rn . On a donc }f pvq}2 ‰ 0 et λ ‰ 0. La matrice symétrique tM M
est donc dans ce cas définie positive.
Démonstration du théorème 5.4.1. On considère la matrice tAA P Mn pRq, qui est symétrique
définie positive par le lemme précédent. On note ensuite S la racine carrée de tAA : S est
également symétrique définie positive.
5.4. DÉCOMPOSITION POLAIRE 103
On pose ensuite O :“ AS ´1 . On a
t t
` ˘
OO “ AS ´1 AS ´1
t ´1 t
“ S A A S ´1
t ´1
“ S S 2 S ´1 (S est la racine carrée de tAA)
t ´1
“ S S
“ S ´1
S (S est symétrique donc t S “ S)
“ In
Montrons l’unicité de ce couple pO, Sq. Soient donc O r P On pRq une matrice orthogonale et
S P Sn pRq une matrice définie positive telle que A “ OS. Alors
r r r
´ ¯
t t
AA “ r Sr O
O r Sr
t rt
“ S O rOr Sr
tr
“ S Sr (O est orthogonale donc t O rO
r “ In )
“ Sr2 (Sr est symétrique donc t Sr “ S)
r
La preuve de l’existence de la décomposition polaire pour une matrice inversible nous donne
une méthode pour déterminer cette décomposition :
¨ ˛
1 2 1
A :“ ˝´2 ´1 ´1‚ P GL3 pRq.
´1 ´1 ´2
5 5 6
6´X 5 5
χA “ detpA ´ XI3 q “ 5 6´X 5
5 5 6´X
16 ´ X 5 5
“ 16 ´ X 6 ´ X 5
C1 ÐC1 `C2 `C3
16 ´ X 5 6´X
1 5 5
“ p16 ´ Xq 1 6 ´ X 5
1 5 6´X
1 5 5
“ p16 ´ Xq 0 1 ´ X 0
L2 ÐL2 ´L1 , L3 ÐL3 ´L1
0 0 1´X
“ p16 ´ Xqp1 ´ Xq2
$¨ 1 ˛ , $¨ ˛ ¨ ˛ ,
?
’
& 3 .
/ & 1 1 .
Une base orthonormale de E16 est ˝ ?13 ‚ . Une base de E1 est ˝´1‚, ˝ 0 ‚ . En ap-
˚ ‹
% ?1 /
’ - %
0 ´1
-
3
pliquant le procédé $ ¨ 1 ˛ ¨ 1 ˛,à cette dernière famille libre de M3,1 pRq, on obtient la
d’orthonormalisation
?
& ?2
’ 6
/
.
˚ ?1 ‹ ˚ ?1 ‹
base orthonormale ˝´ 2 ‚, ˝ 6 ‚ de E1 .
´ ?26 -
’ /
% 0
¨ 1 1 1
˛
? ? ?
3 2 6
˚ ?1 ´ ?12 ?1 ‹
En posant P :“ ˝ 3 6 ‚
P O3 pRq, on a alors
?1 0 ´ 6
?2
3
¨ ˛
16 0 0
t
AA “ P ˝ 0 1 0‚t P
0 0 1
Remarque 5.4.4. A l’aide d’arguments “topologiques”, on peut montrer que toute matrice de
Mn pRq admet une décomposition polaire (non unique en général).
Théorème 5.5.1. Il existe une base orthonormale B de E dans laquelle la matrice représentative
de f est de la forme
¨ ˛
1 0
˚ .. ‹
˚ . ‹
˚ ‹
˚ r ‹
MatB pf q “ ˚ ‹
˚
˚ Rpθ1 q ‹
‹
˚ .. ‹
˝ . ‚
0 Rpθs q
ˆ r, s P N, pour
où ˙ tout i P t1, . . . , ru, i P t`1; ´1u et, pour tout j P t1, . . . , su, Rpθj q “
cos θj ´ sin θj
avec θj P Rztkπ | k P Zu.
sin θj cos θj
• ¨
Les isométries directes
˛ de R3 sont les rotations autour d’un axe, chacune de matrice
1 0 0
˝0 cos θ ´ sin θ‚, θ P R, dans une base orthonormale correspondante (quand θ “ π,
0 sin θ cos θ
on parle de retournement).
Les isométries indirectes de R3 sont les compositions d’une symétrie orthogonale par rap-
port à un plan (une telle transformation est également appelée réflexion) et d’une rotation
autour de l’axe orthogonal à ce plan
¨ (par rapport au produit
˛ scalaire canonique de R3 ),
´1 0 0
chacune de matrice représentative ˝ 0 cos θ ´ sin θ‚, θ P R, dans une base orthonor-
0 sin θ cos θ
¨ ˛ ¨ ˛¨ ˛
´1 0 0 1 0 0 ´1 0 0
male correspondante (˝ 0 cos θ ´ sin θ‚ “ ˝0 cos θ ´ sin θ‚˝ 0 1 0‚).
0 sin θ cos θ 0 sin θ cos θ 0 0 1
Pour montrer le théorème 5.5.1, nous utiliserons le lemme suivant :
Lemme 5.5.3. Soit F un sev de E. Si F est stable par l’endomorphisme orthogonal f , alors
l’orthogonal F K de F est également stable par f .
Démonstration. Soit v P F K . On montre que f pvq P F K . Soit donc w P F . Comme, pour tous
w1 , w2 P F , on a xf pw1 q, f pw2 qy “ xw1 , w2 y (car f est orthogonal), la restriction f|F de f à F
(F est stable par f ) est un endomorphisme orthogonal de F , en particulier, il est bijectif : il
existe donc w r P F tel que w “ f pwq. r
On a alors
xf pvq, wy “ xf pvq, f pwqy
r
“ xv, wy
r (car f est orthogonal)
“ 0 (car v P F K et w
r P F ).
Supposons maintenant la propriété vérifiée pour tout entier naturel non nul strictement
plus petit que n avec n P Nzt0u fixé et considérons l’endomorphisme orthogonal f de l’espace
euclidien E de dimension n.
5.5. RÉDUCTION DES ENDOMORPHISMES ET MATRICES ORTHOGONAUX 107
On commence par traiter le cas où f possède une valeur propre réelle λ P R (i.e. le polynôme
caractéristique de f possède une racine dans R). Soit alors v un vecteur propre de f pour la
valeur propre λ. On a }f pvq} “ }λv} “ |λ|}v} et, d’autre part, }f pvq} “ }v} car f est orthogonal.
Ainsi |λ|}v} “ }v} et donc |λ| “ 1 (car v est un vecteur propre de f donc v ‰ 0E donc }v} ‰ 0).
Ainsi, λ P t`1; ´1u. De plus, comme F :“ Vecttvu est stable par f (car v est un vecteur
K
propre
` Kde˘ f ), l’orthogonal F de F est également stable par f par le lemme 5.5.3 : comme
dim F “ n ´ 1 ă n, on peut alors appliquer l’hypothèse de récurrence à l’endomorphisme
orthogonal f|F K de F K et obtenir l’existence d’une base orthonormale B0 de F K telle que
¨ ˛
1 0
˚ .. ‹
˚ . ‹
´ ¯ ˚˚ r
‹
‹
MatB0 f|F K “ ˚ ‹
˚
˚ Rpθ1 q ‹
‹
˚ .. ‹
˝ . ‚
0 Rpθs q
où r, s P N, pour
ˆ ˙ tout i P t1, . . . , ru, i P t`1; ´1u et, pour tout j P t1, . . . , su, Rpθj q :“
cos θj ´ sin θj
avec θj P Rztkπ | k P Zu. Considérant l’égalité F ‘ F K “ E (proposi-
sin θj cos θj ! )
v
tion 2.3.7) et la base orthonormale B 1 :“ }v} de F , la famille B :“ tB 1 , B0 u est une base
orthonormale de E et on a
¨ ˛
λ 0
˚
˚ 1 ‹
‹
˚
˚ . .. ‹
‹
˚ ‹
MatB pf q “ ˚
˚ r ‹
‹
˚
˚ Rpθ 1 q ‹
‹
˚ .. ‹
˝ . ‚
0 Rpθs q
Supposons à présent que f ne possède pas de valeur propre réelle (i.e. le polynôme caracté-
ristique de f ne possède pas de racine dans R). On considère alors l’endomorphisme h :“ f ` f ˚
de E. h est auto-adjoint : on a h˚ “ pf ` f ˚ q˚ “ f ˚ ` pf ˚ q˚ “ f ˚ ` f “ h. Considérons alors
une valeur propre λ P R de h (tout endomorphisme auto-adjoint est diagonalisable : cf théorème
5.2.5) et un vecteur propre v P E associé. D’une part, la famille tv, f pvqu est libre, car
• f pvq ne peut s’écrire µv avec µ P R car f n’admet pas de valeur propre réelle.
108 CHAPITRE 5. ORTHOGONALITÉ ET RÉDUCTION
D’autre part, le sev F :“ Vecttv, f pvqu de E de dimension 2 est stable par f : on a hpvq “ λv
i.e. pf ` f ˚ q pvq “ λv, donc
Remarque 5.5.4. • Au cours de la preuve, on a montré en particulier que les seules valeurs
propres réelles possibles pour un endomorphisme orthogonal sont 1 et ´1.
et d’autre part
xf pvq, f pwqy “ xv, wy
5.5. RÉDUCTION DES ENDOMORPHISMES ET MATRICES ORTHOGONAUX 109
2
3 ´X ´ 13 2
3
2 2
χA “ det pA ´ XI3 q “ 3 3 ´X ´ 31
´ 13 2
3
2
3 ´X
1´X ´ 13 2
3
2
“ 1´X 3 ´X ´ 13
C1 ÐC1 `C2 `C3 2 2
1´X 3 3 ´X
1 ´ 13 2
3
2
“ p1 ´ Xq 1 3 ´X ´ 13
2 2
1 3 3 ´X
1 2
3 ´ 31
“ p1 ´ Xq 0 1 ´ X ´1
L2 ÐL2 ´L1 , L3 ÐL3 ´L1
0 1 ´X
` 2 ˘
“ p1 ´ Xq X ´ X ` 1
¨ ¨ ˛˛ ¨ ˛
´1 ´1 2 1
On a E1 “ Ker ˝ 13 ˝ 2 ´1 ´1‚‚ et le vecteur colonne Y1 :“ ?13 ˝1‚ de norme 1
´1 2 ´1 1
engendre E1 .
¨ $ ¨ ˛,˛K $¨ ˛ ,
& 1 . & x .
De plus, ˝Vect ?13 ˝1‚ ‚ “ ˝y ‚ P M3,1 pRq | x ` y ` z “ 0 , dont une base ortho-
1 z
% - % -
¨ ˛ ¨ ˛
1 1
normale est formée des vecteurs Y2 :“ ?12 ˝´1‚ et Y3 :“ ?16 ˝ 1 ‚.
0 ´2
110 CHAPITRE 5. ORTHOGONALITÉ ET RÉDUCTION
On a
¨ ˛ ¨ ˛
?1 ?1
¨ ˛
1 ?
˚ 2 ‹ 2 1 1 ´? ? ¯ 1 3
AY2 “ A ˝´ ?12 ‚ “ ˝ 0 ‚“ ? 0 “ ? 2 Y2 ` 6Y3 “ Y2 ` Y3
˚ ‹ ˝ ‚
2 ´1 2 2 2 2
0 ´ ?12
et
?1
¨ ˛ ¨ 1 ˛
6
´ ?6 ¨ ˛
´1 ´ ? ?
1 1 ? ¯ 3 1
A ˝ ?16 ‚ “
˚ ?2 ‹
AY3 “ ˝ 6 ‚ “ ? ˝ 2 ‚ “ ? ´3 2Y2 ` 6Y3 “ ´ Y2 ` Y3 .
˚ ‹
6 ´1 2 6 2 2
´ ?26 ´ ?16
Ainsi, si on note
?1 ?1 ?1
¨ ˛
3 2 2
P :“ ˝
˚ ?1 ´ ?12 0 ‹ ‚ P O3 pRq,
3
?1 0 ´ ?12
3
on a
¨ ˛ ¨
1 0 0?
˛
1 0` ˘ 0` ˘
t
´1
P AP “ P AP “ ˝0 1
´ 23 ‚ “ ˝0 cos ` π3 ˘ ´ sin` π3˘ ‚
˚ ‹
?2
0 3 1 0 sin π3 cos π3
2 2
6.1 Introduction
Dans ce chapitre, on étudie des normes particulières sur les espaces de matrices carrées
à coefficients réels ou complexes : les normes dites subordonnées. Ces normes possèdent des
propriétés adaptées à l’étude des matrices dans différents aspects et utilisations.
On fait également le lien avec la notion de rayon spectral : il s’agit du plus grand module des
valeurs propres complexes d’une matrice carrée complexe. On verra notamment que la donnée
du rayon spectral d’une matrice permet de déterminer si la suite de ses puissances successives
converge vers la matrice nulle ou non.
Enfin, on aborde la question de la sensibilité de la solution d’un système linéaire inversible
aux erreurs d’approximations sur les données, des perturbations que l’on maîtrise à l’aide d’une
quantité nommée conditionnement.
Dans tout ce chapitre, K désigne les corps R ou C, et n est un entier naturel non nul.
111
112 CHAPITRE 6. NORMES SUBORDONNÉES ET RAYON SPECTRAL
et proposition 4.2.1), et nous avions montré qu’il s’agissait, dans les deux cas, d’une norme
matricielle :
Définition 6.2.1. Soit } ¨ } : Mn pKq Ñ r0, `8r une norme sur Mn pKq. On dit que } ¨ } est une
norme matricielle si pour tous A, B P Mn pKq, }AB} ď }A}}B}.
“ }A}1 }B}1
• La norme
Mn pKq Ñ r0, `8r
} ¨ }8 : ,
A ÞÑ }A}8
avec, pour A “ pai j q1ďi,jďn P Mn pKq, }A}8 :“ max |ai j |, n’est pas une norme ma-
1ďi,jďn
ˆ ˙ ˆ ˙
1 ´1 1 0
tricielle. En effet, si l’on considère par exemple les matrices et de
0 0 ´1 0
M2 pRq Ă M2 pCq, on a
›ˆ ˙ˆ ˙› ›ˆ ˙›
› 1 ´1 1 0 ›› › 2 0 ›
› “ › › “2
› 0 0 ´1 0 ›8 › 0 0 ›8
›ˆ ˙› ›ˆ ˙›
› 1 ´1 › › 1 0 ›
alors que ›
› › “ › › “ 1.
0 0 ›8 › ´1 0 ›8
6.2. NORMES MATRICIELLES SUBORDONNÉES 113
?
Remarquons que }In }2 “ n et }In }1 “ n. Pour différents usages, on aimerait construire
des normes matricielles pour lesquelles la norme de la matrice identité est 1. Les normes dites
“subordonnées” satisfont cette condition. Soit } ¨ } : Kn Ñ r0, `8r une norme sur Kn .
}Av}
~A~ :“ max .
vPKn ztp0,...,0qu }v}
v n´1
et que }v} appartient à la sphère unité S}¨} :“ tw P Kn | }w} “ 1u.
Considérons alors l’application
n´1
S}¨} Ñ r0, `8r
f:
w ÞÑ }Aw}
f est une application continue (comme composée des applications continues } ¨ } : Kn Ñ r0, `8r
n´1
et Kn Ñ Kn ; w ÞÑ Aw) sur le compact S}¨} de Kn (la sphère Sn´1
}¨} est fermée bornée dans le
n
K-espace vectoriel normé de dimension finie pK , } ¨ }q) : f est donc bornée et atteint ses bornes.
Ensuite, pour tout v P Kn ztp0, . . . , 0qu,
› ˆ ˙› ˆ ˙
› v ›› v
ψpvq “ ›A
› “f ď max f pwq
}v} › }v} wPSn´1
}¨}
donc l’application ψ est bornée et sup ψpvq ď max f pwq. Enfin, si w P Sn´1
}¨} , f pwq “
vPKn ztp0,...,0qu wPSn´1
}¨}
ψpwq donc
max f pwq “ sup ψpvq “ max ψpvq.
wPSn´1 vPKn ztp0,...,0qu vPKn ztp0,...,0qu
}¨}
}Av}
~A~ “ max “ max }Av} .
vPKn ztp0,...,0qu }v} vPKn , }v}“1
114 CHAPITRE 6. NORMES SUBORDONNÉES ET RAYON SPECTRAL
est une norme matricielle sur Mn pKq, appelée norme subordonnée à la norme } ¨ }. De plus,
~In ~ “ 1.
}In v} }v}
~In ~ “ max “ max “ 1.
vPKn ztp0,...,0qu }v} vPKn ztp0,...,0qu }v}
Montrons ensuite que ~ ¨ ~ : Mn pKq Ñ r0, `8r est une norme sur Mn pKq :
• soient A P Mn pKq et λ P K, on a
}pλAqv} }Av}
~λA~ “ max “ max |λ| “ |λ|~A~.
vPKn ztp0,...,0qu }v} vPKn ztp0,...,0qu }v}
}Av}
• soit A P Mn pKq telle que ~A~ “ max “ 0, alors, pour tout v P Kn ztp0, . . . , 0qu,
}v}
vPKn ztp0,...,0qu
}Av} n
}v} “ 0 donc }Av} “ 0 donc Av “ p0, . . . , 0q (car } ¨ } est une norme sur K ). En parti-
culier, si te1 , . . . , en u désigne la base canonique de Kn , pour tout i P t1, . . . , nu, Aei “ 0
i.e. la ième colonne de A est nulle, et donc A “ 0n .
n´1
• soient A, B P Mn pKq, alors, pour tout v P S}¨} ,
et donc
~A ` B~ “ max }pA ` Bqv} ď ~A~ ` ~B~.
vPSn´1
}¨}
Montrons enfin que la norme ~ ¨ ~ sur Mn pKq est une norme matricielle. Soient donc A, B P
Mn pKq et soit v P Kn ztp0, . . . , 0qu. Si Bv “ p0, . . . , 0q, on a }pABqv}
}v} “ }ApBvq}
}v} “ 0 ď ~A~~B~.
Si Bv ‰ p0, . . . , 0q, on a
}pABqv}
Ainsi, ~AB~ “ max ď ~A~~B~.
vPKn ztp0,...,0qu }v}
6.2. NORMES MATRICIELLES SUBORDONNÉES 115
Théorème 6.2.6. On a
n
ÿ
• ~A~1 “ max |ai j |,
1ďjďn
i“1
n
ÿ
• ~A~8 “ max |ai j |.
1ďiďn
j“1
Remarque 6.2.7. • Pour i et j dans t1, . . . , nu, si on note Li la ième ligne de A et Cj la j ème
colonne de A et si on les considère comme des vecteurs de Kn , on a
n n
}Av}1 ÿ ÿ
et ainsi ď max |ai j | et ~A~1 ď max |ai j |.
}v}1 1ďjďn
i“1
1ďjďn
i“1
ÿn n
ÿ
Mais, si l’on note j0 l’indice de t1, . . . , nu tel que |ai j0 | “ max |ai j | et si te1 , . . . , en u
1ďjďn
i“1 i“1
désigne la base canonique de Kn , on a
n n
}Aej0 }1 ÿ ÿ
“ }Aej0 }1 “ |ai j0 | “ max |ai j |
}ej0 }1 i“1
1ďjďn
i“1
et donc
n
ÿ }Aej0 }1
~A~1 ď max |ai j | “ ď ~A~1 ,
1ďjďn
i“1
}ej0 }1
n
ÿ
d’où l’égalité ~A~1 “ max |ai j |.
1ďjďn
i“1
n
ÿ
Montrons à présent l’égalité ~A~8 “ max |ai j |.
1ďiďn
i“1
Avec les notations ci-dessus, on a
ˇ ˇ
ˇÿn ˇ
“ max ˇ ai k xk ˇ
ˇ ˇ
}Av}8
1ďiďn ˇ ˇ
k“1
n
ÿ
ď max |ai k xk |
1ďiďn
k“1
ÿn
“ max |ai k | |xk |
1ďiďn
k“1
ÿn ˆ ˙
ď max |ai k | max |xj |
1ďiďn 1ďjďn
k“1
ÿn
“ max |ai k | }v}8
1ďiďn
k“1
˜ ¸
ÿn
“ max |ai k | }v}8
1ďiďn
k“1
n n
}Av}8 ÿ ÿ
et ainsi ď max |ai k | et ~A~8 ď max |ai k |.
}v}8 1ďiďn
k“1
1ďiďn
k“1
ÿn n
ÿ
Notons ensuite i0 l’indice de t1, . . . , nu tel que |ai0 k | “ max |ai k | et notons v0 le
1ďiďn
k“1 k“1
vecteur de Kn dont, pour tout j P t1, . . . , nu, la j ème coordonnée notée yj est
#
e´i Argpai0 j q si ai0 j ‰ 0 (si ai0 j P R, e´i Argpai0 j q P t´1; 1u),
0 si ai0 j “ 0,
6.3. RAYON SPECTRAL 117
n
ÿ n
ÿ
alors a i0 k yk “ |ai0 k |.
k“1 k“1
Si v0 est le vecteur nul de Kn , cela signifie que tous les coefficients de la matrice A sont
n
ÿ
nuls et, dans ce cas, on a bien l’égalité ~A~8 “ max |ai j |. Si v0 n’est pas le vecteur nul,
1ďiďn
i“1
alors, comme les coefficients non nuls de v0 sont de module 1, v0 appartient à la sphère unité
Sn´1 n
}¨}8 “ tw P K | }w}8 “ 1u et on a
ˇ ˇ ˇ ˇ
n
ÿ n
ÿ n
ÿ ˇÿn ˇ ˇÿn ˇ
~A~8 ď max ai0 k yk ď ˇ ai0 k yk ˇ ď max ˇ ai k yk ˇ “ }Av0 }8 ď ~A~8 .
ˇ ˇ ˇ ˇ
|ai k | “ |ai0 k | “
1ďiďn ˇ ˇ 1ďiďn ˇ ˇ
k“1 k“1 k“1 k“1 k“1
n
ÿ
D’où l’égalité ~A~8 “ max |ai k |.
1ďiďn
k“1
˛ ¨
1 0 ´6
Exemple 6.2.8. Pour A :“ ˝´2 ´4 3 ‚ P M3 pRq, on a ~A~1 “ maxt1 ` 2 ` 1, 0 ` 4 ` 5, 6 `
´1 5 2
3 ` 2u “ 11 et ~A~8 “ maxt1 ` 0 ` 6, 2 ` 4 ` 3, 1 ` 5 ` 2u “ 9.
Remarque 6.2.9. Si A est une matrice symétrique ~A~1 “ ~A~8 .
Définition 6.3.1. On appelle rayon spectral de A la quantité ρpAq :“ max |λ| P r0, `8r.
λPSpC pAq
ˆ ˙
1 0
Exemple 6.3.2. • Le rayon spectral de la matrice P M2 pRq est 2.
0 ´2
ˆ ˙
´3i 0
• Le rayon spectral de la matrice P M2 pCq est 3.
0 i
ˆ ˙
1 2
• Si A :“ P M2 pRq, SpC pAq “ SpR pAq “ t2; 3u (exemple 3.3.2) donc ρpAq “ 3.
´1 4
ˆ ˙
0 1
• Si A :“ P M2 pRq, SpC pAq “ t´i; iu (remarque 3.3.3) donc ρpAq “ 1.
´1 0
¨ ˛
1 0 0 `? ˘` ? ˘
• Si A :“ ˝0 0 ´2‚ P M3 pRq, χA “ p1 ´ XqpX 2 ` 2q “ p1 ´ Xq 2 i ´ X ´ 2 i ´ X
0 1 0
? ? ( ?
donc SpC pAq “ 1, 2 i, ´ 2 i donc ρpAq “ 2.
118 CHAPITRE 6. NORMES SUBORDONNÉES ET RAYON SPECTRAL
Remarque 6.3.3. Si A P Mn pRq et χA est scindé sur R, SpC pAq “ SpR pAq et donc ρpAq “ max |λ|.
λPSpR pAq
Dans cette section, nous allons établir deux résultats importants en relation avec le rayon
spectral. Le premier consiste en une expression de la norme matricielle subordonnée à la norme
euclidienne de Rn mettant en jeu le rayon spectral. Le second est un lien entre le rayon spectral
d’une matrice complexe et la convergence de la suite de ses puissances successives.
Lemme 6.3.5. Soit S P Sn pRq une matrice symétrique positive. On considère l’application
Rn ztp0, . . . , 0qu Ñ R
RS : t vSv
v ÞÑ t vv
Démonstration. Comme S est une matrice symétrique positive, d’après le corollaire 5.2.7 et
la proposition
¨ 5.3.4,˛il existe une matrice orthogonale O P On pRq et une matrice diagonale
λ1 0
D “ ˝
˚ . . ‚ P Mn pRq avec λ1 , . . . , λn P r0, `8r telles que t OSO “ D. On peut
‹
.
0 λn
supposer, quitte à permuter les colonnes de la matrice O (ce qui modifie pas son caractère
orthogonal), que 0 ď λ1 ď ¨ ¨ ¨ ď λn . En particulier, ρpSq “ λn .
Soit maintenant v P Rn ztp0, . . . , 0qu et notons w “ pw1 , . . . , wn q :“ t Ov P Rn ztp0, . . . , 0qu
(les matrices O et t O sont inversibles). On a t w w “ t v O t O v “ t v v et
n
ÿ n
ÿ
λi wi2 λn wi2
t vSv tv O D tO v t wDw
i“1 i“1
RS pvq “ t vv
“ t vv
“ t ww
“ n ď n “ λn .
ÿ ÿ
wi2 wi2
i“1 i“1
La fonction RS est donc bornée. De plus, pour v0 :“ Oen , avec en le nème vecteur p0, . . . , 0, 1q
de la base canonique de Rn , on a t Ov0 “ en et
tv te
0 Sv0 n D en
RS pv0 q “ tv v
“ te e
“ t en D e n “ λn
0 0 n n
6.3. RAYON SPECTRAL 119
a
et donc ~A~2 “ ρ ptAAq.
Démonstration.
¨ A étant
˛ une matrice symétrique, il existe O P On pRq et une matrice diagonale
λ1 0
D “ ˝
˚ .. ‚ P Mn pRq telles que t OSO “ D. En particulier, SpC pAq “ SpR pAq “
‹
.
0 λn
tλ1 , . . . , λn u. Ainsi,
¨ 2 ˛
λ1 0
t 2
` t
˘2 2t .. ‹t
AA “ A “ OD O “ OD O “ O ˝ ‚O
˚
.
0 λ2n
` ˘ (
et SpR A2 “ λ21 , . . . , λ2n . Finalement,
~A~22 “ ρ tAA “
` ˘
max |µ|
µPSpR pA2 q
ˇ ˇ
“ max ˇλ2 ˇ
λPSpR pAq
“ max |λ|2
λPSpR pAq
ˆ ˙2
“ max |λ|
λPSpR pAq
“ ρpAq2
• On considère la matrice ¨ ˛
1 1 1
S :“ ˝1 1 1‚ P M3 pRq.
1 1 1
Il s’agit d’une matrice symétrique donc ~S~2 “ ρpSq. Or SpC pSq “ SpR pSq “ t0; 3u donc
~S~2 “ 3.
2. ρpAq ă 1.
´ ¯
pkq
Remarque 6.3.9. Considérons, pour tout k P N, une matrice Ak “ ai j de Mn pKq.
´ 1ďi,jďn
¯
pkq
Alors la suite pAk qkPN converge ssi pour tous i, j P t1, . . . , nu, la suite ai j converge, et
kPN
pAk qkPN converge vers une matrice B “ pbi j q1ďi,jďn ssi pour pour tous i, j P t1, . . . , nu, la suite
´ ¯
pkq
ai j converge vers bi j .
kPN
Cette convergence matricielle est au sens de n’importe quelle norme sur Mn pKq (en effet
Mn pKq est un K-espace vectoriel de dimension finie) et on peut par exemple montrer ces équi-
valences à l’aide de la norme } ¨ }8 sur Mn pKq.
Pour prouver le théorème 6.3.8, nous utiliserons une démonstration circulaire en faisant
intervenir deux assertions supplémentaires : nous montrerons le théorème
3. ρpAq ă 1,
4. il existe une norme matricielle subordonnée ~ ¨ ~ sur Mn pCq telle que ~A~ ă 1.
6.3. RAYON SPECTRAL 121
Dans la preuve de ce théorème, nous utiliserons le résultat qui suit. Nous ne démontrerons
pas celui-ci : pour une preuve, on pourra par exemple consulter le livre de Philippe G. Ciarlet
intitulé Introduction à l’analyse numérique matricielle et à l’optimisation (Théorème 1.4-3.).
Théorème 6.3.11. Soit }¨} une norme matricielle sur Mn pCq. Alors ρpAq ď }A}. De plus, pour
tout ą 0 il existe une norme matricielle subordonnée ~¨~ sur Mn pCq telle que ~A~ ď ρpAq`.
Remarque 6.3.12. On peut néanmoins donner une justification rapide du premier fait énoncé.
Soit λ P SpC pAq tel que ρpAq “ |λ| et soit v P Eλ ztp0, . . . , 0u. Soit maintenant w P Cn tel que
la matrice v t w de Mn pCq ne soit pas nulle (par exemple le k ème vecteur de la base canonique
de Cn si la k ème coordonnée de v est non nulle). Alors
› › › › › ` ˘› › › › › › ` › ›
ρpAq ›v t w› “ |λ| ›v t w› “ ›λ v t w › “ ›pλvq t w› “ ›pAvq t w› “ ›A v t w › ď }A} ›v t w›
˘›
› ›
(} ¨ } est une norme matricielle par hypothèse) et donc, comme ›v t w› ‰ 0 car v t w ‰ 0n et } ¨ }
est une norme, ρpAq ď }A}.
ˆ ˙
´31
Exemple 6.3.13. • La suite des puissances successives de la matrice 1 1 P M2 pRq, de
( 8 ´4
spectre 21 , 41 et de rayon spectral 12 , converge vers la matrice nulle de taille 2.
• Pour chacune des matrices de l’exemple 6.3.2, la suite de ses puissances successives ne
converge pas vers la matrice nulle.
` ˘
• La suite Ink kPN converge, vers la matrice identité.
6.4 Conditionnement
Pour amener et motiver la notion de “conditionnement” d’une matrice carrée inversible, on
étudie en préambule l’exemple suivant issu du livre cité précédemment de Philippe G. Ciarlet
(section 2.2).
On considère la matrice ¨ ˛
10 7 8 7
˚7 5 6 5‹
A :“ ˚
˝ 8 6 10 9 ‚
‹
7 5 9 10
de M4 pRq. Le déterminant de A est 1 et A est donc inversible. En particulier, pour tout vecteur
colonne B P M4,1 pRq, le système
AX “ B, X P M4,1 pRq
¨ ˛
32
˚ 23‹
possède une unique solution X “ A´1 B. Considérons par exemple le vecteur colonne B :“ ˚ ˝33‚
‹
31
¨ ˛
1
˚1‹
et le système linéaire AX “ B de solution X “ ˚ ˝1‚.
‹
1
¨ ˛
0, 1
˚´0, 1‹
Nous allons “perturber” le système AX “ B : on considère le vecteur B 1 :“ B ` ˚ ˝ 0, 1 ‚
‹
´0, 1
¨ ˛
9, 2
˚´12, 6‹
et la solution du système AX 1 “ B 1 est alors le vecteur X 1 “ ˚
˝ 4, 5 ‚. On constate ainsi que,
‹
´1, 1
}B´B 1 }8 0,1
même si l’“erreur relative” }B}8 de B 1 par rapport à B n’est “que” de 33 » 0, 003, l’erreur
6.4. CONDITIONNEMENT 123
}X´X 1 }8 13,6
relative de X 1 par rapport à X est elle de }X}8 “ 1 “ 13, 6 : le rapport d’“amplification”
13,6
de l’erreur est de 0,1 “ 4488 !
33
Si l’on remplace à présent la matrice A par la matrice
¨ ˛
0 0 0, 1 0, 2
˚ 0, 08 0, 04 0 0 ‹
A2 :“ A ` ˚˝ 0
‹,
´0, 02 ´0, 11 0 ‚
´0, 01 ´0, 01 0 ´0, 02
¨ ˛
´81
˚ 137 ‹
le système A2 X 2 “ B a pour solution X 2 “ ˚ 2
˝´34‚. L’erreur relative de A par rapport à A
‹
22
2 2
est }A´A
}A}8
}8
“ 0,2 2
10 “ 0, 02 et l’erreur relative de X par rapport à X est
}X´X }8
}X}8 “ 136, d’où
136
un rapport d’amplification de 0,02 “ 6800 !
Perturber même légèrement les données du système AX “ B peut donc entraîner des
perturbations très importantes sur sa solution, alors même que la matrice A peut paraître
“sympathique”
¨ (ici, la matrice
˛ est symétrique, son déterminant est 1, son inverse est A´1 “
25 ´41 10 ´6
˚´41 68 ´17 10 ‹
˚ ‹).
˝ 10 ´17 5 ´3‚
´6 10 ´3 2
Nous allons définir une notion qui va permettre d’étudier et de maîtriser ce phénomène. Soit
A une matrice inversible de Mn pKq.
Définition 6.4.1. Soit }¨} une norme sur Kn et ~¨~ la norme subordonnée sur Mn pKq associée.
Le conditionnement de A par rapport à la norme } ¨ } est la quantité
~A~~A´1 ~,
que l’on note condpAq.
Remarque 6.4.2. Le conditionnement de la matrice A dépend de la norme choisie sur Kn .
Usuellement, on note cond1 , cond2 et cond8 les conditionnements respectifs par rapport aux
normes } ¨ }1 , } ¨ }2 et } ¨ }8 sur Kn .
Exemple 6.4.3. • Pour la matrice A considérée ci-dessus, on a cond1 pAq “ cond8 pAq “
~A~8 ~A´1 ~8 “ 33 ˆ 136 “ 4488 (ici, on a utilisé le théorème 6.2.6 ainsi que la remarque
6.2.9).
¨ ˛ ¨ ˛
1 1 0 1 ´1 1
• Si A :“ ˝0 1 1‚ P M3 pRq, A´1 “ ˝0 1 ´1‚ et donc
0 0 1 0 0 1
cond8 pAq “ ~A~8 ~A´1 ~8 “ 2 ˆ 3 “ 6
et
cond1 pAq “ ~A~1 ~A´1 ~1 “ 2 ˆ 3 “ 6.
124 CHAPITRE 6. NORMES SUBORDONNÉES ET RAYON SPECTRAL
¨ ˛
6 5 5
• On considère la matrice symétrique A :“ ˝5 6 5‚ P S3 pRq. On a SpC pAq “ SpR pAq “
5 5 6
` ´1 ˘ 1
(
t1, 16u (voir exemple 5.4.3) et Sp A “ 16 , 1 donc
cond2 pAq “ ~A~2 ~A´1 ~2 “ 16 ˆ 1 “ 16
(on a utilisé ici le corollaire 6.3.6).
Soit } ¨ } une norme sur Kn . Nous allons tout d’abord énoncer quelques propriétés de base
du conditionnement cond associé :
Proposition 6.4.4. On a
` ˘
1. condpAq “ cond A´1 ,
2. pour tout λ P Kzt0u, condpλAq “ condpAq,
3. condpAq ě 1.
Démonstration. 1. On a
` ˘ ` ˘´1
cond A´1 “ A´1 A´1 “ A´1 ~A~ “ condpAq.
2. Soit λ P Kzt0u, on a
ˇ ˇ
´1
1 ´1 ˇ1ˇ
condpλAq “ ~λA~~pλAq ~ “ ~λA~ A “ |λ| ˇˇ ˇˇ ~A~~A´1 ~ “ ~A~~A´1 ~ “ condpAq.
λ λ
3. On a
1 “ ~In ~ “ ~AA´1 ~ ď ~A~~A´1 ~ “ condpAq
(~ ¨ ~ est une norme matricielle).
1
En conséquence, l’erreur relative }X´X}X}
}
sur la solution est d’autant plus petite que la
conditionnement de la matrice A (ainsi que l’erreur relative sur la donnée du second membre
}B´B 1 }
}B} ) est petit.
Le résultat relatif à la perturbation du premier membre autrement dit de la matrice A est
le suivant :
Théorème 6.4.6. Soit B P Mn,1 pKq différent du vecteur colonne nul. Soit A1 P GLn pKq et
notons X la solution du système linéaire AX “ B et X 1 la solution du système linéaire A1 X 1 “
B. On a
1 ´1
}X ´ X }1 1
~A ´ A ~ }X ´ X } 1 1
~A ´ A ~ A
1
ď condpAq et ď condpAq ´1
}X } ~A~ }X} ~A~ ~A ~
Démonstration. On a AX “ B “ A1 X 1 donc 0n “ AX ´ A1 X 1 “ AX ´ AX 1 ` AX 1 ´ A1 X 1 “
ApX ´ X 1 q ` pA ´ A1 qX 1 d’où X ´ X 1 “ ´A´1 pA ´ A1 qX 1 et donc
› ›
}X ´ X 1 } “ ›A´1 pA ´ A1 qX 1 › ď A´1 pA ´ A1 q }X 1 }
ď A´1 A ´ A1 }X 1 }
~A ´ A1 ~ 1
“ A´1 ~A ~ }X }
~A ~
~A ´ A1 ~ 1
“ condpAq }X }
~A ~
1 1
Finalement, }X´X } ~A´A ~
}X 1 } ď condpAq ~A~ .
Pour établir l’autre inégalité, on considère l’égalité 0n “ AX ´ A1 X 1 “ AX ´ A1 X ` A1 X ´
A X 1 “ pA ´ A1 qX ` A1 pX ´ X 1 q d’où X ´ X 1 “ ´A1 ´1 pA ´ A1 qX et donc
1
› ›
› ´1 ´1
}X ´ X 1 } “ ›A1 pA ´ A1 qX › ď A1 pA ´ A1 q }X}
›
´1
ď A1 A ´ A1 }X}
1 ´1 condpAq
“ A A ´ A1 }X}
~A ~ ~A´1 ~
1 ´1
1
~A ´ A ~ A
“ condpAq }X}
~A ~ ~A´1 ~
}X´X 1 } 1 ~A1 ´1 ~
Finalement, }X} ď condpAq ~A´A
~A~
~
~A´1 ~
.
Remarque 6.4.7. Par continuité de l’application qui à une matrice inversible de GLn pKq associe
~A1 ´1 ~
son inverse, la quantité ~A´1 ~ tend vers 1 quand A1 tend vers A (i.e. quand ~A ´ A1 ~ tend
vers 0).
Ainsi, le conditionnement de la matrice inversible A permet de majorer l’erreur (relative)
sur la solution du système AX “ B quand il y a perturbations sur les données du premier ou
126 CHAPITRE 6. NORMES SUBORDONNÉES ET RAYON SPECTRAL
du second membre du système. Si l’on maîtrise les erreurs d’approximations sur les données, on
peut alors maîtriser les erreurs sur les solutions obtenues.
Un système AX “ B dont la matrice A possède un conditionnement petit (proche de 1)
sera d’autant plus robuste face aux perturbations (i.e. sa solution sera peu sensible aux erreurs
sur les données) et on dira qu’un tel système est bien conditionné. Dans le cas contraire (si le
conditionnement de A est grand), on dira que le système est mal conditionné.
Chapitre 7
7.1 Introduction
On commence par un exemple de situation qui motive la progression du chapitre et les ré-
sultats qui y sont énoncés. Ces derniers sont appliqués dans d’autres situations plus générales
et complexes, comme l’algorithme de classification des pages web utilisé (en tout cas à ses dé-
buts) par un célèbre moteur de recherche dont l’appellation commence par la septième lettre
de l’alphabet latin.
Remarque : Cet exemple est repris du cours des années précédentes et toute ressemblance
avec une situation existante lors de l’année en cours (2020) est absolument fortuite.
La situation que nous considèrerons dans cet exemple introductif est celui de l’évolution
d’une maladie donnée au sein d’une population donnée. Pour la maladie considérée, chaque
individu de la population revêt l’un des trois états suivants :
• M : Malade
D’une semaine sur l’autre, un individu peut “passer” d’un état à un autre : on parle de
transition d’un état à un autre. On modélise l’évolution de la maladie semaine après semaine par
la probabilité pour un individu de passer d’un état donné à un autre. Les différentes transitions
ainsi que leurs probabilités d’avènement sont représentées par le graphe suivant :
127
128 CHAPITRE 7. MATRICES STOCHASTIQUES ET THÉORÈME DE PERRON
0, 9
I 0, 8
0, 1 M 0, 2
S 0, 5
0, 5
Par exemple,
• la probabilité de passer, d’une semaine sur l’autre, de l’état I à l’état S (i.e. de perdre son
immunité) est de 0,1,
• la probabilité de passer, d’une semaine sur l’autre, de l’état S à l’état M (i.e. de tomber
malade) est de 0,5,
• la probabilité de passer, d’une semaine sur l’autre, de l’état M à l’état M (i.e. de rester
malade) est de 0,2.
On peut rassembler les probabilités d’avènement des différentes transitions dans une matrice
I S M
¨Ó Ó Ó ˛
0, 9 0 0, 8 ÐI
˝0, 1 0, 5 0 ‚ ÐS
0 0, 5 0, 2 ÐM
Par exemple, 90% des personnes immunisées sont restées immunisées et 80% des personnes
malades sont devenues immunisées.
Si k P N, notons Vk le vecteur de l’“état” de la population après k semaines. On a la relation
de récurrence Vk`1 “ AVk , k P N, et donc, pour tout k P N,
Vk “ Ak V.
I S M
Ó Ó Ó ˛
2 ¨
A “ 0, 81 0, 4 0, 88 ÐI
˝0, 14 0, 25 0, 08‚ ÐS
0, 05 0, 35 0, 04 ÐM
Par exemple,
où les trois colonnes de la matrice sont identiques. Ainsi, au bout d’un temps “suffisamment
130 CHAPITRE 7. MATRICES STOCHASTIQUES ET THÉORÈME DE PERRON
• peut-on déterminer l’“état limite” de la population a priori, i.e. sans passer par le calcul
des puissances successives de A ?
Définition 7.2.1. Une matrice A de Mn pRq est dite stochastique si tous ses coefficients sont
positifs ou nuls et si, sur chaque ligne de A, la somme des coefficients est égale à 1.
Démonstration. Notons A “ pai j q1ďi,jďn et B “ pbi j q1ďi,jďn . Comme les matrices A et B sont
n
ÿ n
ÿ
stochastiques, on a, pour tout i P t1, . . . , nu, ai j “ 1 et bi j “ 1.
j“1 j“1
Soit maintenant i P t1, . . . , nu. Si j P t1, . . . , nu, la coefficient à la ligne i et la colonne j de
n
ÿ
AB est la somme ai k bk j , qui est positive ou nulle, et la somme des coefficients de la ligne i
k“1
de AB est donc
˜ ¸ ˜ ¸
ÿn n
ÿ n
ÿ n
ÿ
ai k bk j “ ai k bk j
j“1 k“1 k“1 j“1
ÿn n
ÿ
“ ai k (car B est stochastique donc, pour tout k P t1, . . . , nu, bk j “ 1)
k“1 j“1
n
ÿ
“ 1 (car A est stochastique donc ai k “ 1).
k“1
Proposition 7.2.5. La limite d’une suite convergente de matrices stochastiques de Mn pRq est
une matrice stochastique.
Démonstration. L’ensemble
# +
n
ÿ
pai j q1ďi,jďn P Mn pRq | @i, j P t1, . . . , nu, ai j ě 0, et, @i P t1, . . . , nu, ai j “ 1
j“1
Définition 7.2.7. Un vecteur de Rn est dit stochastique si toutes ses coordonnées sont positives
ou nulles et si leur somme est égale à 1.
Remarque 7.2.9. Deux vecteurs stochastiques de Rn proportionnels sont égaux. En effet, soient
v “ pv1 , . . . , vn q et w “ pw1 , . . . , wn q deux vecteurs stochastiques de Rn et supposons qu’ils sont
proportionnels : il existe λ P Rzt0u tel que w “ λv (λ ne peut être nul car w est stochastique
donc en particulier différent du vecteur nul). On a alors
n
ÿ n
ÿ n
ÿ
1“ wj “ λvj “ λ vj “ λ
j“1 j“1 j“1
• `irréductible
˘ ˘ tous i, j P t1, . . . , nu, il existe k P N (k dépend de i et j) telk que
si` pour
k k
A i j ą 0 ( A i j désigne le coefficient à la ligne i et la colonne j de la matrice A ).
• La matrice A de l’introduction est une matrice primitive (son carré A2 est une matrice
strictement positive) non strictement positive.
Remarque 7.3.3. Attention : il ne faut surtout pas confondre les notions de “positivité” de
matrices introduites ci-dessus avec les notions de matrice symétrique positive ou définie positive.
ˆ ˙
2 ´1
A titre d’exemple, la matrice S :“ est une matrice symétrique (définie) positive mais
´1 2
n’est pas une matrice positive.
3. pour tout λ P SpC pAqztρpAqu, |λ| ă ρpAq (on dit que la valeur propre ρpAq de A est
dominante).
Nous allons établir certaines de ces conclusions sous des hypothèses plus fortes. Précisément,
nous montrerons le résultat suivant et nous admettrons le cas général énoncé ci-dessus (pour
une preuve du théorème de Perron 7.4.1, on renvoie au document de Bachir Bekka intitulé
“Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche”,
disponible sur sa page web).
Théorème 7.4.2. Soit A une matrice strictement positive telle que ρpAq “ 1. Alors
1. ρpAq “ 1 est une valeur propre (réelle) de A,
zn |zn |
Démonstration du théorème 7.4.2. Soit λ P SpC pAq telle que |λ| “ 1 (existe car ρpAq “ 1) et
soit u P Cn un vecteur propre (complexe) de A pour la valeur propre λ.
On montre tout d’abord que |u| ď A|u|. On a, d’une part, Au “ λu donc, si z1 , . . . , zn sont
les coordonnées de u dans Cn ,
¨ ˛ ¨ ˛ ¨ ˛
|λz1 | |λ||z1 | |z1 |
|Au| “ |λu| “ ˝ ... ‚ “ ˝ ... ‚ “ |λ| ˝ ... ‚ “ |u|
˚ ‹ ˚ ‹ ˚ ‹
(car |λ| “ 1). D’autre part, si on note A “ pai j q1ďi,jďn , pour tout i P t1, . . . , nu, la ième
n
ÿ
coordonnée pAuqi du vecteur Au est ai j zj et on a
j“1
ˇ ˇ
ˇÿn ˇ ÿ n ÿn
ai j zj ˇ ď ai j |zj | “ pA|u|qi
ˇ ˇ
p|Au|qi “ |pAuqi | “ ˇ |ai j | |zj | “
ˇj“1 ˇ j“1 j“1
Nous allons maintenant montrer que, nécessairement, |u| “ A|u|. Pour cela, on procède par
l’absurde : on suppose qu’il existe i P t1, . . . , nu tel que pA|u| ´ |u|qi ą 0. Comme A est une
matrice strictement positive, on a alors A pA|u| ´ |u|q ą 0 (appliquer une matrice de coefficients
tous strictement positifs à un vecteur de coordonnées positives ou nulles avec au moins une
coordonnée strictement positive donne un vecteur ´de coordonnées¯ strictement positives). Il
1
existe alors ą 0 tel que A pA|u| ´ |u|q ą A|u| i.e. 1` A A|u| ą A|u| (on peut par exemple
choisir de telle sorte que la plus grande coordonnée du vecteur A|u| soit strictement plus
petite que la plus petite coordonnée du vecteur A pA|u| ´ |u|q).
7.4. LES THÉORÈMES DE PERRON-FROBENIUS 135
´ ¯
1
On a ensuite, puisque la matrice 1` A est également à coefficients strictement positifs
´ ¯
1
(et préserve donc la relation 1` A A|u| ą A|u|),
ˆ ˙2 ˆ ˙
1 1
A A|u| ą A A|u| ą A|u|
1` 1`
puis, par récurrence, pour tout k P N,
ˆ ˙k
1
A A|u| ą A|u|.
1`
´ ¯
1 1 1
Or ρ 1` A “ 1` ρpAq “ ă 1. D’après le théorème 6.3.8 du chapitre précédent, la
1`
ˆ´ ¯k ˙ ´ ¯k
1 1
suite 1` A converge donc vers 0. Le vecteur 1` A A|u| converge donc vers le
kPN ´ ¯k
1
vecteur nul et, en faisant tendre k vers `8 dans l’inégalité de vecteurs 1` A A|u| ą A|u|,
on obtient que les coordonnées du vecteur A|u| sont négatives ou nulles, ce qui est impossible
car
• |u| ě 0,
• u n’est pas le vecteur nul (car vecteur propre),
• la matrice A est strictement positive (i.e. tous ses coefficients sont strictement positifs).
Ainsi, nécessairement, |u| “ A|u| i.e A|u| “ |u| et, comme |u| n’est pas le vecteur nul,
1p“ ρpAqq est donc une valeur propre de A. De plus, |u| “ A|u| ą 0 car |u| ě 0, u n’est pas le
vecteur nul et A est strictement positive. Le vecteur |u| de Rn est donc un vecteur propre pour
la valeur propre 1 “ ρpAq de coordonnées strictement positives.
Remarque 7.4.4. Les conclusions du théorème de Perron ne sont plus vraies si l’on retire
l’hypothèse
ˆ de positivité
˙ de la matrice A. Si l’on considère par exemple la matrice primitive
0 ´1
M :“ de l’exemple 7.3.2, son polynôme caractéristique est χM “ X 2 ` X ´ 1 “
´1 ´1
´ ?
¯´ ?¯ ?
´1´ 5 ´1` 5 1` 5
X´ 2 X´ 2 donc ρpM q “ 2 n’est pas une valeur propre de M .
On énonce ensuite le théorème de Frobenius, théorème que nous admettrons également (pour
une preuve du théorème de Frobenius, on renvoie aux références citées dans le document de
Bachir Bekka déjà mentionné plus haut). Ce théorème généralise les deux premières conclusions
du théorème de Perron aux matrices positives et irréductibles.
Théorème 7.4.5 (Théorème de Frobenius). Soit A une matrice positive et irréductible. Alors
Remarque 7.4.6. Si A est une matrice positive et irréductible, la valeur propre ρpAq de A n’est
pas nécessairement
ˆ ˙ dominante. Si on considère par exemple la matrice positive et irréductible
0 1
A :“ de M2 pRq, SppAq “ t´1; 1u et la valeur propre ρpAq “ 1 de A n’est pas dominante.
1 0
Nous allons à présent nous intéresser aux matrices stochastiques primitives, pour lesquelles
on peut appliquer le théorème de Perron :
7.5. LE CAS DES MATRICES PRIMITIVES STOCHASTIQUES 137
Théorème
` k˘ 7.5.2. Supposons que la matrice stochastique A est de plus primitive. Alors la suite
A kPN des puissances successives de A converge, vers une matrice stochastique de la forme
¨ ˛
x1 ¨ ¨ ¨ xn
˚ .. .. ‹
˝. .‚
x1 ¨ ¨ ¨ xn
De plus, pour tout i P t1, . . . , su, |λi | ă 1 : en effet, comme A est stochastique, ρpAq “ 1 (par
proposition 7.5.1) et, comme A est primitive, ρpAq est une valeur propre simple de A et cette
valeur propre est dominante (par le théorème de Perron : théorème 7.4.1).
Afin de simplifier les écritures, notons, pour i P t1, . . . , su, Ji :“ Jmi pλi q. Alors, pour tout
k P N, on a
¨ ˛
1 0
˚ Jk ‹
k 1 ‹ ´1
A “P˚ ‹P .
˚
..
˝ . ‚
0 Jsk
` ˘
Pour tout i P t1, . . . , su, comme ρ pJi q “ |λi | ă 1, d’après le théorème 6.3.8, la suite Jik kě0
de Mmi pRq converge vers la matrice nulle 0mi . Ainsi,
¨ ˛ ¨ ˛
1 0 1 0
˚ Jk ‹ ˚ 0m1 ‹
˚ 1 ‹ ˚ ‹
˚ .. ‹ ÝÝÝÝÑ ˚ .. ‹
˝ . ‚ kÑ`8 ˝ . ‚
0 Jsk 0 0ms
138 CHAPITRE 7. MATRICES STOCHASTIQUES ET THÉORÈME DE PERRON
Mn pKq Ñ Mn pKq
et, par continuité de l’application ,
M ÞÑ P ´1 M P
¨ ˛
1 0
˚ 0m ‹
1
Ak ÝÝÝÝÑ P ˚
‹ ´1
‹P .
˚
..
kÑ`8 ˝ . ‚
0 0ms
Proposition 7.5.4. Supposons que la matrice stochastique A est primitive et notons l P M1,n pRq
son état limite. La matrice tA transposée de A possède un unique vecteur propre associé à la
valeur propre 1 qui soit stochastique, et ce vecteur est le vecteur colonne t l.
Démonstration. Comme la matrice A est primitive, se transposée tA l’est également (pour tout
` ˘k ` ˘ ` ˘
k P N, tA “ t Ak ). De plus, on a χtA “ χA donc 1 “ ρpAq “ ρ tA est une valeur propre
simple (par le théorème de Perron 7.4.1) de tA. L’espace propre E1 de tA est donc de dimension
1. De plus, comme tA est primitive, ` ˘ d’après le théorème de Perron 7.4.1, il existe un vecteur
propre v pour la valeur propre ρ tA “ 1 de tA qui soient de coordonnées strictement positives.
1
Si on note v1 , . . . , vn les coordonnées du vecteur v, le vecteur w :“ ÿ
n v est alors un vecteur
vi
i“1
stochastique de Rn , qui est également un vecteur propre pour la valeur propre 1 de tA. Comme
E1 est de dimension 1, tout vecteur propre stochastique de E1 sera proportionnel à w et donc
égal à w (remarque 7.2.9).
` ˘k
` Montrons
˘ à présent que w “ t l. On a tAw “ w et donc, pour tout k P N, tA w “ w ô
t Ak w “ w. Comme la transposition est une application continue sur M pRq, si L désigne la
n
matrice limite de la suite des puissances successives de A, on a alors, par passage `à la limite,˘
tLw “ w, autrement dit w “ tLw et w est donc dans l’image de la matrice tL. Or tL “ t l | ¨ ¨ ¨ | t l
(
et donc w P Im tL “ Vect t l . Il existe donc un scalaire α P R tel que w “ α t l. Mais le vecteur
t l “ pl , . . . , l q est, comme le vecteur w, un vecteur stochastique donc finalement w “ t l par la
1 n
remarque 7.2.9.
Ainsi, si la matrice stochastique A est primitive, son état limite est l’unique vecteur ligne
stochastique l tel que tAt l “ t l. Nous allons appliquer cette propriété à notre exemple introduc-
tif :
¨ ˛
0, 9 0, 1 0
A :“ ˝ 0 0, 5 0, 5‚
0, 8 0 0, 2
(il s’agit de la transposée de la matrice que nous avions considérée dans l’exemple) est primitive
car la matrice A2 est strictement positive, et l’état limite de A est le vecteur ligne stochastique
140 CHAPITRE 7. MATRICES STOCHASTIQUES ET THÉORÈME DE PERRON
` ˘
l “ l1 l2 l3 tel que
¨ ˛¨ ˛ ¨ ˛
0, 9 0 0, 8 l1 l1
t t
A l “ tl ô ˝0, 1 0, 5 0 ‚˝l2 ‚ “ ˝l2 ‚
0 0, 5 0, 2 l3 l3
$
&0, 9l1
’ ` 0, 8l3 “ l1 ,
ô 0, 1l1 ` 0, 5l2 “ l2
’
0, 5l2 ` 0, 2l3 “ l3
%
$
&´0, 1l1
’ ` 0, 8l3 “ 0
ô 0, 1l1 ´ 0, 5l2 “0
’
0, 5l2 ´ 0, 8l3 “ 0
%
#
l1 “ 8l3
ô , l3 P R
l2 “ 85 l3
De plus,
8 53 5
l1 ` l2 ` l3 “ 1 ô 8l3 ` l3 ` l3 “ 1 ô l3 “ 1 ô l3 “ ,
5 5 53
` 40 8 5
˘ ` ˘
donc l’état limite de A est le vecteur ligne l “ 53 53 53 “ 0, 7547 . . . 0, 1509 . . . 0, 0943 . . . .
Le théorème de Perron a également été utilisé pour le classement des pages web :
Exemple 7.5.6. Notons W :“ txi , i P Iu l’ensemble des pages web présentes sur le “World Wide
Web”, où I :“ t1, . . . , N u avec N entier supérieur à 13 ˆ 1013 .
et on forme la matrice de transition A :“ pai j q1ďi,jďN (et, par exemple, si i, j P t1, . . . , nu, le
N
ÿ
coefficient A2 i j “
` ˘
ai k ak j de A2 est la probabilité, partant de la page xi , d’aboutir à la
k“1
page xj en deux clics).
N
ÿ
Soit i P I. Remarquons que s’il y a au moins un lien sur la page xi , alors la somme ai j
j“1
7.5. LE CAS DES MATRICES PRIMITIVES STOCHASTIQUES 141
ÿ 1 1
des coefficients de la ligne i de A est “ di ˆ “ 1 et que, s’il n’y a aucun lien
di di
j | xi Ñ xj
sur la page xi , tous les coefficients de la ligne i de A sont nuls. Afin de “rendre” cette matrice
stochastique, on remplace tous les coefficients des lignes nulles de A, lignes qui correspondent
à des pages sans lien, par N1 . On note A r la matrice ainsi obtenue, qui est alors une matrice
stochastique.
Cependant, la matrice A r n’est pas nécessairement primitive. Pour remédier à cela, on consi-
dère la matrice
Gα :“ αA r ` p1 ´ αqE
où α Ps0; 1r et E est la matrice de MN pRq dont les coefficients sont tous égaux à N1 . Alors la
matrice Gα est stochastique et strictement positive (en particulier primitive) : on peut donc
lui appliquer le théorème 7.5.2 et la proposition 7.5.4. En classant ensuite les coordonnées du
vecteur d’état limite de cette matrice de la plus grande à la plus petite valeur, on obtient un
classement des pages web, suivant “leur probabilité d’être visitée à la limite”.
Dans la pratique, il faut choisir un nombre α qui soit “proche” de 1 pour que la matrice Gα
soit “proche” de la matrice A, r mais “pas trop proche” pour que le calcul de l’état limite ne soit
“pas trop difficile”. Dans les derniers documents publics détaillant cette méthode de classement
des pages web, α avait été choisi égal à 0, 85.
142 CHAPITRE 7. MATRICES STOCHASTIQUES ET THÉORÈME DE PERRON
Chapitre 8
8.1 Introduction
Soit K “ R ou C et soit n un entier naturel non nul.
Soient une matrice A P Mn pKq et un vecteur colonne B P Mn,1 pKq, et considérons le système
linéaire
pSq AX “ B
de vecteur inconnu X P Mn,1 pRq. L’objectif de ce chapitre est de présenter des méthodes de
résolution d’un tel système qui soient “peu” coûteuses en calculs pour n “grand”.
Supposons tout d’abord que A est une matrice inversible. Dans ce cas, le système pSq possède
une unique solution X “ A´1 B. En particulier, le calcul de l’inverse A´1 de A permet de
résoudre le système pSq. Une méthode
` de ˘calcul de cet inverse consiste à déterminer les vecteurs
´1
colonnes de la matrice A “ Y1 | ¨ ¨ ¨ |Yn à l’aide de la résolution des n systèmes linéaires
$
&AY1 “ X1
’
’
..
’ .
’
%AY
n“X n
de vecteurs inconnus Y1 , . . . , Yn P Mn,1 pRq, où, pour i P t1, . . . , u, Xi désigne le vecteur colonne
de Mn,1 pRq dont toutes les coordonnées sont nulles sauf la ième coordonnée qui est 1 : on a
` ˘ ` ˘
AA´1 “ In ssi A Y1 | ¨ ¨ ¨ |Yn “ X1 | ¨ ¨ ¨ |Xn ssi @i P t1, . . . , nu, AYi “ Xi .
Dans la visée de la résolution du seul système pSq, cette méthode est bien trop coûteuse en
calculs. Il faut donc recourir à d’autres méthodes plus “efficaces”.
143
144 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
Par exemple, lorsque A, en plus d’être inversible, est une matrice triangulaire supérieure,
il existe une méthode permettant de résoudre le système pSq avec un minimum de calculs :
la méthode dite de remontée. Cette méthode consiste à partir de la dernière équation du
système pSq et puis “remonter” les équations une à une pour déterminer successivement les
coordonnées
¨ du vecteur
˛ solution.
¨ ˛ Précisément,
¨ ˛on procède de la manière suivante. Notons
a1 1 ¨ ¨ ¨ a1 n b1 x1
A“˝ . .. .
.. ‚, B “ ˝ .. ‚ et X “ ˝ ... ‹
.
‚, alors
˚ ‹ ˚ ‹ ˚
0 an n bn xn
¨ ˛¨ ˛ ¨ ˛
a1 1 ¨ ¨ ¨ a1 n x1 b1
pSq AX “ B ô
˚ . .. .
.. ‚˝ .. ‚ “ ˝ ... ‹
‹ ˚ . ‹ ˚
˝ ‚
0 an n xn bn
$
’a1 1 x1 ` . . . ` a1 n xn “ b1
’
&
.. ..
ô . .
’
’
% an n xn “ bn
$
&a1 1 x1 ` . . . ` a1 n xn “ b1
’
’
.. ..
ô . .
’
xn “ abnnn
’
%
$
’
’ a1 1 x1 ` ... ` a1 n xn “ b1
’
’ .. ..
.
&
.
ô
’
’
’ an´1 n´1 xn´1 ` an´1 n xn “ bn´1
’
xn “ abnnn
%
$
’
’ a1 1 x1 ` . . . ` a1 n xn “ b1
’
’ .. ..
& . .
ô
’
’
’ xn´1 “ an´11 n´1 pbn´1 ´ pan´1 n xn qq
’
“ an1 n bn
%
xn
$
’
’
’ x1 “ a11 1 pb1 ´ pa1 2 x2 ` . . . ` a1 n xn qq
“ a21 2 pb2 ´ pa2 3 x3 ` . . . ` a2 n xn qq
’
’x2
’
’
..
&
ô .
’
’xn´1 “ a 1
’
’
’
’ n´1 n´1
pbn´1 ´ an´1 n xn q
bn
’
%x
n “ an n
(il est ici à noter que, pour¨tout˛ i P t1, . . . , nu, ai i ‰ 0, car A est inversible). On dit que l’on
x1
˚ .. ‹
a obtenu la solution X “ ˝ . ‚ du système pSq par “remontées successives” : on obtient une
xn
8.1. INTRODUCTION 145
coordonnée xi , i P t1, . . . , nu, à partir des coordonnées xj , j ą i déterminées “plus bas”. Les
calculs mis en œuvre dans cette méthode sont en particulier simples et “peu” nombreux.
Exemple 8.1.1. On considère le système
$
&x ´ 2y ` 5z “2
¨ ˛¨ ˛ ¨ ˛
1 ´2 5 x 2 ’
pSq 0 ´4 3
˝ ‚˝ y “ 0 ô
‚ ˝ ‚ ´4y ` 3z “0
0 0 ´1 z 3
’
“3
%
´z
¨ ˛
x
de vecteur inconnu ˝y ‚ P M3,1 pRq. Alors
z
$ $
&x ´ 2y ` 5z
’ “2 &x ´ 2y ` 5z “ 2
’
pSq ´4y ` 3z “0 ô ´4y ` 3z “ 0
’ ’
“3 z
% %
´z “ ´3
$
&x ´ 2y ` 5z “ 2
’
ô y “ ´3ˆp´3q
´4 “ ´ 49
’
z
%
“ ´3
$ ` 9˘ 25
&x “ 2 ` 2 ˆ ´ 4 ´ 5 ˆ p´3q “
’ 2
ô y “ ´ 94
’
z “ ´3
%
Remarque 8.1.2. On peut adapter la méthode de remontée décrite ci-dessus dans le cas où A
est une matrice triangulaire supérieure non inversible (i.e. au moins un coefficient diagonal de
A est nul). Considérons par exemple les deux systèmes suivants.
¨ ˛
x
Soit ˝y ‚ P M3,1 pRq. Alors le système
z
$
&3x ` 7y “1
¨ ˛¨ ˛ ¨ ˛
3 7 0 x 1 ’
˝0 0 2 ‚˝y ‚ “ ˝ 7 ‚ ô 2z “ 7
0 0 ´5 z
’
´2 %
´5z “ ´2
$
&3x ` 7y
’ “1
ô 2z “ 7
’
z “ 52
%
$
&3x ` 7y
’ “1
ô 0 “ 7 ´ 45
’
z “ 25
%
146 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
Si la matrice A est triangulaire inférieure, il existe une méthode dite de descente, analogue
de la méthode de remontée pour les systèmes triangulaires supérieurs.
¨ ˛ On illustre la méthode
x
de descente avec le système triangulaire inférieur suivant : si ˝y ‚ P M3,1 pRq, alors
z
$
& 2x “3
¨ ˛¨ ˛ ¨ ˛
2 0 0 x 3 ’
˝´1 7 0‚˝y ‚ “ ˝ 2 ‚ ô ´x ` 7y “2
1 3 4 z
’
´1 %
x ` 3y ` 4z “ ´1
$
&x
’ “ 32
ô ´x ` 7y “2
’
x ` 3y ` 4z “ ´1
%
$
&x
’ “ 32
` ˘
ô y “ 71 2 ` 32 “ 12
’
x ` 3y ` 4z “ ´1
%
$
3
&x “ 2
’
ô y “ 12
’ ` ˘
z “ 14 ´1 ´ 23 ´ 3 ˆ 12 “ ´1
%
Les méthodes de résolution des systèmes linéaires que nous allons présenter dans ce chapitre
vont consister en des “factorisations matricielles” permettant de se ramener à des systèmes
triangulaires, systèmes triangulaires que l’on résout ensuite à l’aide des méthodes de remontée
et/ou de descente décrites plus haut.
Nous allons étudier une méthode qui permet de ramener la résolution du système pSq à la
résolution d’un système triangulaire supérieur.
8.2. MÉTHODE DU PIVOT DE GAUSS 147
¨ On introduit
˛ cette méthode avec l’exemple suivant. On
¨ suppose
˛ que A est la matrice
5 2 1 12
˝ 5 ´6 2‚ de M3 pRq et que B est le vecteur colonne ˝´1‚ de M3,1 pRq. Alors, si X “
´4 2 1 3
¨ ˛
x
˝y ‚ P M3,1 pRq,
z
$
& 5x ` 2y ` z “ 12
¨ ˛¨ ˛ ¨ ˛
’ 5 2 1 x 12
pSq AX “ B ô 5x ´ 6y ` 2z “ ´1 ô ˝ 5 ´6 2‚˝y ‚ “ ˝´1‚
´4 2 1 z 3
’
´4x ` 2y ` z “3
%
$
& 5x ` 2y ` z “ 12
¨ ˛¨ ˛ ¨ ˛
’ 5 2 1 x 12
ô ´8y ` z “ ´13 ô ˝0 ´8 1 ‚˝y ‚ “ ˝´13‚
L2 ÐL2 ´L1 , L3 ÐL3 ` 54 L1
0 18 9
z 63
’ 18 9
5 y ` 5z “ 63
%
5 5 5 5
$
& 5x ` 2y ` z “ 12
¨ ˛¨ ˛ ¨ ˛
’ 5 2 1 x 12
ô ´8y ` z “ ´13 ô ˝0 ´8 1 ‚˝y ‚ “ ˝´13‚
L3 ÐL3 ` 18 1
L
8 2 0 0 94 z 27
’ 9
5
4z “ 27
%
4 4
¨ ˛ ¨ ˛
x 1
et le système pSq possède donc une unique solution ˝y ‚ “ ˝2‚.
z 3
Les opérations sur les lignes du système effectuées ci-dessus à chaque étape de l’algorithme
du pivot de Gauss reviennent à multiplier à gauche la matrice A et le vecteur B par certaines
matrices particulières, appelées matrices d’élimination :
148 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
k
¨ Ó ˛
1
˚ .. ‹
˚ . ‹
˚ ‹
˚
˚ 1 ‹
‹ Ðk
˚
˚ α k`1
‹
‹
˚ .. .. ‹
˝ . . ‚
αn 1
(où tous les coefficients non indiqués sont nuls) avec k P t1, . . . , nu et αk`1 , . . . , αn P K. La
matrice ci-dessus est notée Ek pαk`1 , . . . , αn q.
Lorsque l’on applique l’algorithme du pivot de Gauss pour résoudre un système linéaire, on
peut également être amené à effectuer un échange de lignes pour “déplacer” un pivot à la “bonne
place”. Par exemple, dans le système
¨ ˛¨ ˛ ¨ ˛
0 1 1 x ´1
˝1 0 1‚˝y ‚ “ ˝ 0 ‚
1 1 1 z 5
le coefficient situé à la ligne 1 et la colonne 1 de la matrice est nulle et on échange alors, par
exemple, les deux premières lignes de la matrice, afin de se ramener au système équivalent
¨ ˛¨ ˛ ¨ ˛
1 0 1 x 0
˝0 1 1‚˝y ‚ “ ˝´1‚
1 1 1 z 5
où le coefficient non nul situé à la ligne 1 et la colonne 1 peut être utilisé comme premier pivot.
Les échanges de deux lignes ainsi appliqués au cours de l’algorithme du pivot de Gauss
correspondent à des multiplications à gauche par des matrices dites de transposition :
Définition 8.2.4. On appelle matrice de transposition toute matrice obtenue à partir de la
matrice identité In en échangeant deux lignes. Pour i, j P t1, . . . , nu, la matrice de transposition
obtenue en échangeant les lignes i et j de In est notée Ti,j .
Lemme 8.2.5. Soient i, j P t1, . . . , nu. La matrice Ti,j A est la matrice obtenue à partir de la
matrice A en échangeant les lignes i et j de A.
Démonstration. Soit k, l P t1, . . . , nu. Si k R ti, ju, le coefficient situé à la ligne k et la colonne
n
ÿ
l de la matrice Ti,j A est δk,m am l “ ak l . Le coefficient situé à la ligne i et la colonne l de
m“1
la matrice Ti,j A, quant à lui, est aj l . Enfin, le coefficient situé à la ligne j et la colonne l de la
matrice Ti,j A est lui ai l .
Dans l’exemple considéré plus haut, on a¨multiplié˛à gauche la matrice et le vecteur consi-
0 1 0
dérés par la matrice de transposition T1,2 “ ˝1 0 0‚.
0 0 1
Remarque 8.2.6. Soient i, j P t1, . . . , nu. On a
• Ti,j “ Tj,i ,
• la matrice Ti,j est inversible et l’inverse de Ti,j est Ti,j elle-même,
• det pTi,j q “ ´1.
Nous allons à présent montrer que la méthode du pivot de Gauss pour la résolution de
systèmes linéaires fonctionne toujours, autrement dit qu’il est toujours possible, à partir d’un
système pSq AX “ B quelconque, de se ramener à un système triangulaire supérieur à l’aide
d’opérations élémentaires sur les lignes, i.e. à l’aide de produits à gauche par des matrices
d’éliminations et de transpositions :
150 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
Théorème 8.2.7 (Méthode du pivot de Gauss). Il existe une matrice M P GLn pKq, produit
de matrices d’éliminations et de transpositions, telle que M A soit une matrice triangulaire
supérieure.
Remarque 8.2.8. Si M est une telle matrice alors, en particulier, le système pSq AX “ B est
équivalent au système M AX “ M B, qui est triangulaire supérieur.
Le résultat est vrai pour n “ 1 car toute matrice carrée de taille 1 est en particulier trian-
gulaire supérieure.
où B P Mn´1 pKq : d’après l’hypothèse de récurrence, il existe alors une matrice N P GLn´1 pKq,
produit de matrices N1 , . . . , Nm où m P N et, pour tout s P t1, . . . , mu, Ns est une matrice
d’élimination ou une matrice de transposition de Mn´1 pKq, telle que N B soit une matrice
triangulaire supérieure de Mn´1 pKq. Si l’on note alors
¨ ˛
1 0 ¨¨¨ 0
˚0 ‹
M :“ ˚ . ‹ P GLn pKq.
˚ ‹
˝ .. N ‚
0
8.3 La décomposition LU
La décomposition dite LU consiste en la “factorisation” de matrices vérifiant une certaine
condition de “régularité” en le produit d’une matrice triangulaire inférieure (L pour “Lower”)
par une matrice triangulaire supérieure (U pour “Upper”). Cela permet de ramener la résolution
de systèmes linéaires mettant en jeu ces matrices particulières à la résolution de deux systèmes
triangulaires.
Précisément, la décomposition LU existe pour les matrices dont toutes les sous-matrices
principales sont inversibles :
Définition 8.3.1. Soit A P Mn pKq et soit i P t1, . . . , nu. La sous-matrice principale de taille i
de A est la sous-matrice de A obtenue en en supprimant les n ´ i dernières lignes et n ´ i
dernières colonnes. On appelle également mineur principal d’ordre i de A le déterminant de la
sous-matrice principale de taille i de A.
152 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
¨ ˛
5 2 1 ˆ
` ˘ 5 2
˙
Exemple 8.3.2. Les sous-matrices principales de la matrice ˝ 5 ´6 2 sont 5 ,
‚
5 ´6
´4 2 1
¨ ˛
5 2 1
et ˝ 5 ´6 2‚, et les mineurs principaux de A sont donc 5, ´40 et ´90.
´4 2 1
Soit A P Mn pKq.
Théorème 8.3.3 (Décomposition LU ). On suppose que tous les mineurs principaux de A sont
non nuls (i.e. toutes les sous-matrices principales de A sont inversibles). Alors il existe des
matrices L et U de GLn pKq uniques telles que
• L est une matrice triangulaire inférieure dont tous les coefficients diagonaux sont égaux
à 1,
• A “ LU .
Remarque 8.3.4. Si tous les mineurs principaux de la matrice A sont non nuls, alors A est en par-
ticulier inversible (car la sous-matrice principale d’ordre n de A est A elle-même).
ˆ La ˙réciproque
0 1
est fausse : par exemple, le mineur principal d’ordre 1 de la matrice inversible P M2 pRq
1 0
est égal à 0.
La démonstration de l’existence de la décomposition LU va consister à appliquer l’algorithme
du pivot de Gauss. Dans la preuve du théorème 8.3.3, nous aurons également besoin du lemme
suivant :
Lemme 8.3.5. Supposons que tous les mineurs principaux de A sont non nuls, et soit E P
Mn pKq une matrice d’élimination. Alors tous les mineurs principaux de la matrice produit EA
sont non nuls.
avec B P Mi,n´i pKq, C P Mn´i,i pKq et D P Mn´i pKq. Quant à la matrice d’élimination E, elle
est de la forme ˆ 1 ˙
E 0i,n´i
C1 D1
où E 1 P Mi pKq et D1 P Mn´i pKq sont également des matrices d’éliminations, et C 1 P Mn´i,i pKq.
On a alors
ˆ 1 ˙ˆ ˙ ˆ 1 ˙ ˆ ˙
E 0i,n´i Ai B E Ai ` 0i,n´i C E 1 B ` 0i,n´i D E 1 Ai E1B
EA “ “ “
C1 D1 C D C 1 Ai ` D 1 C C 1 B ` D1 D C 1 Ai ` D 1 C C 1 B ` D 1 D
8.3. LA DÉCOMPOSITION LU 153
Maintenant, supposons la propriété vérifiée au rang n´1 pour n P Nzt0, 1u fixé, et reprenons
notre matrice A P Mn pKq dont tous les mineurs principaux sont supposés non nuls.
Notons A “ pai j q1ďi,jďn . On applique la première étape de l’algorithme du pivot de Gauss
à A en choisissant le coefficient a1 1 comme
´ pivot : a1 1 est¯le mineur principal d’ordre 1 de A et
est donc non nul. Si l’on note E1 :“ E1 ´ aa12 11 , . . . , ´ aan1 11 , on a alors
¨ ˛
a1 1 a1 2 ¨ ¨ ¨ a1 n
˚ 0 ‹
E1 A “ ˚ .
˚ ‹
˝ ..
‹
A1 ‚
0
et, d’après le lemme 8.3.5, det ppE1 Aqi`1 q ‰ 0. Or det ppE1 Aqi`1 q “ a1 1 det pA1i q donc det pA1i q ‰ 0.
On a ainsi montré que tous les mineurs principaux de la matrice A1 de Mn´1 pKq étaient non
nuls. On peut appliquer l’hypothèse de récurrence l’hypothèse de récurrence à A1 : il existe une
matrice triangulaire inférieure L1 P GLn´1 pKq de coefficients diagonaux tous égaux à 1 et une
matrice triangulaire supérieure U 1 P GLn´1 pKq telles que A1 “ L1 U 1 . On a alors
¨ ˛ ¨ ˛¨ ˛
a1 1 a1 2 ¨ ¨ ¨ a1 n 1 0 ¨¨¨ 0 a1 1 a1 2 ¨ ¨ ¨ a1 n
˚ 0 ‹ ˚0 ‹˚ 0 ‹
E1 A “ ˚ . ‹.
˚ ‹ ˚ ‹˚ ‹
“ ˚. .
˝ .. LU1 1
‹
‚ ˝. . L1
‹ ˚
‚˝ . . U 1 ‚
0 0 0
154 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
et on pose
¨ ˛ ¨ ˛ ¨ ˛
1 0 ¨¨¨ 0 1 0 ¨¨¨ 0 a1 1 a1 2 ¨ ¨ ¨ a1 n
˚0 ‹ ˆ
a2 1 an 1 ˚0
˙˚ ‹ ˚ 0 ‹
L :“ pE1 q´1 ˚ . ‹ “ E1 ,..., ‹ et U :“ ˚ ..
˚ ‹ ‹ ˚ ‹
˚.
˝ .. a1 1 ˝ ..
‹
L1 ‚ a1 1 L1 ‚ ˝ . U1 ‚
0 0 0
La matrice L est une matrice triangulaire inférieure de GLn pKq dont tous les coefficients dia-
gonaux sont égaux à 1 (car L1 P Mn´1 pKq et pE1 q´1 P Mn pKq sont des matrices triangulaires
inférieures de coefficients diagonaux tous égaux à 1) et U est une matrice triangulaire supérieure
inversible de Mn pKq (car U 1 est une matrice triangulaire supérieure inversible de Mn´1 pKq et
a1 1 ‰ 0).
8.4 La décomposition P LU
Une généralisation de la décomposition LU existe pour toute matrice de Mn pKq. Cette
décomposition fait apparaître, en plus d’une matrice triangulaire inférieure de coefficients dia-
gonaux tous égaux à 1 et d’une matrice triangulaire supérieure, une matrice dite de permutation,
due aux éventuels échanges de lignes dans l’application de l’algorithme du pivot de Gauss.
Définition 8.4.1. Une matrice de permutation de Mn pKq est une matrice dans laquelle chaque
ligne et chaque colonne ne contient qu’un seul coefficient non nul, égal à 1.
Remarque 8.4.2. • Une matrice de permutation est obtenue par permutation (au sens du
groupe symétrique) des lignes de la matrice identité In i.e. en appliquant une permutation
du groupe symétrique Sn à l’ensemble des lignes de la matrice In . Il est à noter que, une
permutation de Sn étant une composition de transpositions et une matrice de transposi-
tion (définition 8.2.4) étant obtenue en appliquant une transposition (au sens du groupe
symétrique) à l’ensemble des lignes de la matrice In , une matrice de permutation est un
produit de matrices de transpositions.
• L est une matrice triangulaire inférieure dont tous les coefficients diagonaux sont égaux
à 1,
• A “ P LU .
k
¨ Ó ˛
1
˚ .. ‹
˚ . ‹
˚ ‹
˚
˚ 1 ‹
‹ Ðk
˚
˚ αk`1 ‹
‹
˚ .. .. ‹
˝ . . ‚
αn 1
Démonstration du théorème 8.4.3. Nous allons montrer le résultat suivant, par récurrence sur
n P N : pour tout n P Nzt0u, pour toute matrice A dans Mn pKq, il existe une matrice triangulaire
supérieure U P Mn pKq, il existe r, s P N et des matrices de transposition T1 , . . . , Tr P Mn pKq
ainsi que des matrices d’élimination E1 , . . . , Es P Mn pKq telles que
˜ ¸˜ ¸
ź r źs
A“ Ti Ej U :
i“1 j“1
˜ ¸ ˜ ¸
źr s
ź
un tel produit Ti forme une matrice de permutation et le produit Ej forme une
i“1 j“1
matrice triangulaire inférieure de coefficients diagonaux tous égaux à 1.
Le résultat est vrai pour n “ 1 pour la même raison que celle évoquée dans la preuve du
théorème 8.3.3. Supposons donc maintenant le résultat vrai au rang n ´ 1 pour n P Nzt0, 1u
fixé, et considérons notre matrice quelconque A de Mn pKq.
Si la première colonne de A est nulle, A est de la forme
¨ ˛
0 a1 2 ¨ ¨ ¨ a1 n
˚0 ‹
˚ ‹
˚ .. ‹
˝. B ‚
0
8.4. LA DÉCOMPOSITION P LU 159
où B P Mn´1 pKq : d’après l’hypothèse de récurrence, il existe alors une matrice triangulaire
supérieure U 1 P Mn´1 pKq, il existe des entiers naturels r et s, il existe des matrices de trans-
1 1 1 1
˜ T1 , .¸. .˜, Tr P M
position ¸n´1 pKq et des matrices d’élimination E1 , . . . , Es P Mn´1 pKq telles que
źr źs
B“ Ti1 Ej1 U 1 .
i“1 j“1
On pose alors
¨ ˛
0 a1 2 ¨ ¨ ¨ a1 n
˚0 ‹
U :“ ˚ . ‹ P Mn pKq
˚ ‹
˝ .. U1 ‚
0
Pour i P t1, . . . , r1 u, la matrice Ti est une matrice de transposition de Mn pKq et, pour j P
t1, . . . , s1 u, la matrice Ej est une matrice d’élimination de Mn pKq. Enfin,
˜ ¸˜ ¸
źr s
ź
A“ Ti Ej U.
i“1 j“1
Si la première colonne de A est non nulle, notons i0 le plus petit indice i P t1, . . . , nu tel
que ai 1 ‰ 0 : si i0 ‰ 1, on commence par multiplier à gauche la matrice A par la matrice de
transposition T :“ Ti0´ 1 1
,1 et¯on considère la matrice A :“ T A, et, si i0 “ 1, on pose A :“ A.
Ainsi, si on note A1 “ a1i j , a11 1 ‰ 0, on peut ensuite multiplier à gauche la matrice A1
1ďi,jďn
´ 1 ¯
a a1
par la matrice d’élimination E :“ E1 ´ a12 1 , . . . , ´ an1 1 afin d’éliminer les autres coefficients
11 11
de la première colonne de A1 : on a
¨ 1 ˛
a1 1 a11 2 ¨ ¨ ¨ a11 n
˚ 0 ‹
EA1 “ ˚ .
˚ ‹
˝ ..
‹
B ‚
0
où B P Mn´1 pKq. En procédant de la même manière que dans le cas précédent (i.e. en appliquant
l’hypothèse de récurrence à B) et en conservant les mêmes notations, on obtient alors l’égalité
˜ ¸˜ ¸
źr s
ź
EA1 “ Ti Ej U
i“1 j“1
160 CHAPITRE 8. RÉSOLUTION DE SYSTÈMES LINÉAIRES
i.e. ˜ ¸˜ ¸
źr s
ź
A1 “ E ´1 Ti Ej U.
i“1 j“1
´ ´ 1 ¯¯´1 ´ 1 ¯
a a1 a a1
Maintenant, E ´1 “ E1 ´ a12 1 , . . . , ´ an1 1 “ E1 a21 1 , . . . , an1 1 . Comme les matrices de
11 11 11 11
transposition Ti , i P t1, . . . , ru, échangent des lignes d’indices strictement plus grands
˜ ¸ 1,˜il
que ¸
źr źr
existe, d’après le lemme 8.4.4, une matrice d’élimination E r P Mn pKq telle que E ´1 Ti “ Ti E,
r
i“1 i“1
et alors ˜ ¸ ˜ ¸
źr s
ź
1
A “ Ti E
r Ej U.
i“1 j“1
Puis on élimine le coefficient non nul de la première colonne de cette dernière matrice :
¨ ˛
1 0 1
E1 p0, ´1q T2,1 A “ ˝0 1 1‚.
0 1 0
Enfin, on utilise le coefficient situé sur la ligne 2 et la colonne 2 de cette dernière matrice comme
pivot et on a : ¨ ˛
1 0 1
E2 p´1q E1 p0, ´1q T2,1 A “ ˝0 1 1 ‚.
0 0 ´1
8.4. LA DÉCOMPOSITION P LU 161
¨ ˛
1 0 1
On pose alors U :“ ˝0 1 1 ‚ (la matrice U P M3 pRq est triangulaire supérieure) et on a :
0 0 ´1
M3,1 pRq : on a
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
0 0 1 0 α 0
P Z “ ˝´1‚ ô ˝1 0 0‚˝β ‚ “ ˝´1‚
5 0 0 1 γ 5
$
&β
’ “0
ô α “ ´1
’
γ “5
%
$
&α
’ “ ´1
ô β “0
’
γ “5
%
¨ ˛ ¨ ˛
´1 a
Puis on résout le système LY “ ˝ 0 de vecteur inconnu Y “ b ‚ P M3,1 pRq : on a
‚ ˝
5 c
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
´1 1 0 0 a ´1
LY “ ˝ 0 ‚ ô ˝0 1 0‚˝ b ‚ “ ˝ 0 ‚
5 1 1 1 c 5
$
&a
’ “ ´1
ô b “0
’
a`b`c “5
%
$
&a “ ´1
’
ô b “0
’
c “ 5 ´ p´1q ´ 0 “ 6
%
8.5. LA DÉCOMPOSITION DE CHOLESKY 163
¨ ˛
´1
Enfin, on résout le système U X “ ˝ 0 ‚ : on a
6
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
´1 1 0 1 x ´1
U X “ ˝ 0 ‚ ô ˝0 1 1 ‚˝y ‚ “ ˝ 0 ‚
6 0 0 ´1 z 6
$
&x
’ ` z “ ´1
ô y`z “0
’
´z “ 6
%
$
&x
’ ` z “ ´1
ô y`z “0
’
z “ ´6
%
$
&x
’ ` z “ ´1
ô y “ ´p´6q “ 6
’
z “ ´6
%
$
&x “ ´1 ´ p´6q “ 5
’
ô y “6
’
z “ ´6
%
¨ ˛ ¨ ˛
5 0
et le vecteur X “ ˝ 6 est l’unique solution du système AX “ ´1‚.
‚ ˝
´6 5
Proposition 8.5.1. Soit S P Sn pRq une matrice symétrique définie positive. Alors tous les
mineurs principaux de S sont strictement positifs.
Corollaire 8.5.2. Soit S P Sn pRq une matrice symétrique définie positive. Alors S admet une
décomposition LU . De plus, les coefficients diagonaux de U sont strictement positifs.
Démonstration. D’après la proposition précédente, tous les mineurs principaux de S sont stric-
tement positifs, en particulier non nuls : on peut donc appliquer le¨théorème ˛8.3.3 à la ma-
1 0
˚ ..
trice S qui possède alors une décomposition S “ LU avec L “ ˝ . ‚ P Mn pRq et
‹
‹ 1
¨ ˛
u1 1 ‹
U “˝
˚ . . ‚ P Mn pRq.
‹
.
0 un n
Soit i P t1, . . . , nu et notons
¨ Si , L˛i et Ui les
¨ sous-matrices˛ principales de taille i respectives
1 0 u1 1 ‹
˚ .. . ..
de S, L et U : on a Li “ ˝ . ‚, Ui “ ˝ ‚ P Mi pRq et
‹ ˚ ‹
‹ 1 0 ui i
ˆ ˙ ˆ ˙ ˆ ˙
Si A Li 0i,n´i Ui F
S“ ,L “ ,U “
B C D E 0n´i,i G
i
ź
et, en particulier, Si “ Li Ui et donc det pSi q “ det pLi q det pUi q “ uj j . Or det pSi q ą 0 (par
j“1
i
ź
la preuve de la proposition précédente) donc uj j ą 0.
j“1
i
ź
On a ainsi montré que, pour tout i P t1, . . . , nu, uj j ą 0. En particulier u1 1 ą 0 et, si
j“1
8.5. LA DÉCOMPOSITION DE CHOLESKY 165
i
ź
uj j
i i´1
j“1
ź ź
i P t2, . . . , nu, uj j ą 0 et uj j ą 0 donc, nécessairement, ui i “ i´1
ą 0.
ź
j“1 j“1
uj j
j“1
Soit S P Sn pRq une matrice symétrique définie positive. Considérons donc la décomposition
LU de S suivant les notations de la preuve précédente. Nous allons utiliser cette factorisation
pour écrire S comme le produit d’une matrice triangulaire inférieure de coefficients diagonaux
strictement positifs et de de sa transposée :
Théorème 8.5.3 (Décomposition de Cholesky). Il existe une unique matrice T P Mn pRq trian-
gulaire inférieure à coefficients diagonaux strictement positifs (en particulier T est inversible)
telle que
S “ T t T.
Nous allons maintenant montrer que Tr “ t T . Comme S est une matrice symétrique, on a
T Tr “ S “ t S “ t Tr t T
et donc Tr “ t T .
0 tn n
´1
S “ T 1 t T 1 “ T 1 D1 D1 t T 1 :
comme T 1 D1 ´1 P M¨n pKq est une matrice triangulaire inférieure de coefficients diagonaux tous
1 ˛
t1 1 0
égaux à 1 (D 1 ´1 ˚
“˝ . .. ‚) et D1 t T 1 P Mn pKq est une matrice triangulaire supérieure,
‹
1
0 tn n
´ ¯`
l’égalité S “ T 1 D1 ´1 D1 t T 1 est la décomposition LU de S.
˘
On a alors
?
1. a2 “ 6 donc a “ 6 (car a ą 0),
2. ba “ 2 donc b “ ?2 ,
6
3. da “ ´2 donc d “ ´ ?26 ,
? b
16
4. b2 ` c2 “ 6 donc c “ 6 ´ b2 “ 3 (c ą 0),
b ` ˘ b
1 3 2
5. db ` ec “ ´2 donc e “ c p´2 ´ dbq “ 16 ´2 ` 3 “ ´ 43 3
16 ,
b
2 1
6. d2 ` e2 ` f 2 “ 10 donc f “ 10 ´ 3 ´ 3 “ 3 (f ą 0).
Ainsi ¨? ˛ ?
6 b0 0 ¨ 6 ?2 ´ ?26
˛
˚ ?2 16 ‹ b6 b ‹
S“˚ 0‹ ˚ 0 16
´ 43 163 ‚
˝ 6 b3 ‚ ˝ 3
´ ?26 ´ 43 3
16 3 0 0 3
est la décomposition de Cholesky de la matrice symétrique définie positive S.
Remarque 8.5.5. • Comme illustré dans l’exemple ci-dessus, le calcul de la décomposition
de Cholesky de S est plus avantageux que le calcul de la décomposition LU de S (il y a
moins de coefficients à déterminer).