Éléments D'optimisation I
Éléments D'optimisation I
vecteurs propres
Dans ce chapitre, nous allons définir et étudier les valeurs propres et les vecteurs propres d’une matrice.
Ce chapitre peut être vu comme un cours minimal pour comprendre la diagonalisation ou comme une
introduction à la théorie de la réduction des endomorphismes.
Notations.
K est un corps. Dans les exemples de ce chapitre, K sera R ou C. Les matrices seront des éléments de Mn (K),
c’est-à-dire des matrices carrées, de taille n × n, à coefficients dans K.
1.1. Motivation
Voici deux transformations simples définies par une matrice :
1.
x 2 0 x 2x
h: 7→ =
y 0 2 y 2y
L’application h est une homothétie de R2 (centrée à l’origine). Si D est une droite passant par l’origine,
alors elle est globalement invariante par cette transformation, c’est-à-dire si P ∈ D alors h(P) ∈ D (mais
on n’a pas h(P) = P). On retient ici que n’importe quel vecteur xy est envoyé sur son double 2 xy .
2.
x 2 0 x 2x
k: 7→ =
y 0 3 y 3y
L’application k n’est plus une homothétie. Cependant l’axe (O x) est globalement invariant par k ; de
même, l’axe (O y) est globalement invariant. On retient qu’un vecteur du type ( 0x ) est envoyé sur son
double 2 ( 0x ), alors qu’un vecteur du type 0y est envoyé sur son triple 3 0y .
Pour une matrice quelconque, il s’agit de voir comment on se ramène à ces situations géométriques simples.
C’est ce qui nous amène à la notion de vecteurs propres et valeurs propres.
1.2. Définitions
Définition 1.
Soit A ∈ Mn (K).
• λ est dite valeur propre de la matrice A s’il existe un vecteur non nul X ∈ Kn tel que
AX = λX .
1.3. Exemples
Exemple 1.
Soit A ∈ M3 (R) la matrice
1 3 3
A = −2 11 −2 .
8 −7 6
−1
• Vérifions que X 1 = 0 est vecteur propre de A.
1
En effet,
1 3 3 −1 2 −1
AX 1 = −2 11 −2
0 = 0 = −2 0 = −2X 1 .
8 −7 6 1 −2 1
Donc X 1 est un vecteur
propre de A associé à la valeur propre λ 1 = −2.
0
• Vérifions que X 2 = 1 est vecteur propre de A.
−1
On calcule AX 2 et on vérifie que :
AX 2 = 13X 2
Donc X 2 est un vecteur propre de A associé à la valeur propre λ2 = 13.
• Vérifions que λ3 = 7 est valeur propre de A.
x1
Il s’agit donc de trouver un vecteur X 3 = x 2 tel que AX 3 = 7X 3 .
x3
1 3 3 x1 x1
AX 3 = 7X 3 ⇐⇒ −2 11 −2
x2 = 7 x2
8 −7 6 x3 x3
x 1 + 3x 2 + 3x 3
7x 1
⇐⇒ −2x 1 + 11x 2 − 2x 3 = 7x 2
8x 1 − 7x 2 + 6x 3 7x 3
−6x 1 + 3x 2 + 3x 3 = 0
⇐⇒ −2x 1 + 4x 2 − 2x 3 = 0
8x 1 − 7x 2 − x 3 = 0
¦ t ©
On résout ce système linéaire et on trouve comme ensemble de solutions : t | t ∈ R . Autrement dit,
t
1
les solutions sont engendrées par le vecteur X 3 = 1.
1
On vient de calculer que AX 3 = 7X 3 . Ainsi X 3 est un vecteur propre de A associé à la valeur propre
λ3 = 7.
Exemple 2.
Soit
0 1
A= .
1 1
p
1+ 5
Le réel α = 2 est une valeur propre de A. En effet :
1 1
A =α
α α
VALEURS PROPRES, VECTEURS PROPRES 1. VALEURS PROPRES ET VECTEURS PROPRES 3
Exemple 3.
Soit
cos θ − sin θ
0
Aθ = sin θ
cos θ 0
0 0 1
0
la matrice de la rotation de l’espace d’angle θ et d’axe (Oz). Soit X 3 = 0 . Alors Aθ X 3 = X 3 . Donc X 3 est
1
un vecteur propre de Aθ et la valeur propre associée est 1.
Exemple 4.
Soit
0 1
A= .
−1 −1
p 2π
Le complexe j = − 12 + i 2
3
= ei 3 est une valeur propre de A. En effet :
1 1
A =j
j j
Théorème 1.
Soit A ∈ Mn (K). Soient λ1 , λ2 , . . . , λ r des valeurs propres distinctes de A, et soit X i un vecteur propre associé
à λi (pour 1 6 i 6 r). Alors les vecteurs X 1 , X 2 , . . . , X r sont linéairement indépendants.
Mini-exercices.
1. Soit A = 23 54 . Montrer que X 1 = 11 et X 2 = −3
5
sont des vecteurs propres de A. Quelles sont les
p2 p2
valeurs propres associées ? Même question avec A = −1 3 , X1 =
2 −1
5−1 , X 2 = − 5−1 .
−1 −1 0
2. Soit A = 0 −2 0 . Montrer que λ1 = −2, λ2 = −1 et λ3 = 0 sont valeurs propres de A. Pour chaque
−1 0 0
valeur propre, trouver un vecteur propre associé.
3. Quelles sont les valeurs propres et les vecteurs propres de la matrice identité I n ? Et de la matrice
nulle 0n ?
4. Montrer qu’une matrice A ∈ Mn (K) a au plus n valeurs propres distinctes (utiliser un résultat du
cours).
5 −7 7 3 0 5
5. Soit A = 0 5 0 . Montrer que les vecteurs X 1 = −1 , X 2 = 2 , X 3 = 1 sont vecteurs propres de
0 7 −2 −1 2 1
A. Montrer que {X 1 , X 2 , X 3 } ne forme pas une famille libre. Est-ce que cela contredit un résultat du
VALEURS PROPRES, VECTEURS PROPRES 2. POLYNÔME CARACTÉRISTIQUE 5
cours ?
2. Polynôme caractéristique
Comment trouver les valeurs propres d’une matrice parmi tous les éléments de K ?
Démonstration.
λ est une valeur propre de A ⇐⇒ ∃X ∈ Kn \ {0}, AX = λX
n
⇐⇒ ∃X ∈ K \ {0}, (A − λI n )X = 0
⇐⇒ Ker(A − λI n ) 6= {0}
⇐⇒ A − λI n n’est pas injective
⇐⇒ A − λI n n’est pas inversible
⇐⇒ det(A − λI n ) = 0.
χA(X ) = det(A − X I n ).
Remarque.
• La matrice A − X I n est à coefficients dans K[X ], donc son déterminant χA(X ) appartient à K[X ].
• On notera aussi souvent χA(λ) = det(A − λI n ) comme un polynôme en λ, plutôt que χA(X ).
• Pour tout λ ∈ K, det(λI n − A) = (−1)n χA(λ).
La matrice A étant de taille n × n, alors le polynôme caractéristique de A est un polynôme de degré n. Cela
conduit aux propriétés suivantes :
Corollaire 1.
• Soit A ∈ Mn (K). Alors A admet au plus n valeurs propres.
• Si le corps K = C, alors toute matrice A ∈ Mn (C) admet au moins une valeur propre.
VALEURS PROPRES, VECTEURS PROPRES 2. POLYNÔME CARACTÉRISTIQUE 6
En effet, nous savons qu’un polynôme de degré n a au plus n racines. Et sur C un polynôme non constant
admet toujours au moins une racine.
Proposition 2.
Deux matrices semblables ont le même polynôme caractéristique. Autrement dit, si B = P −1 AP alors
χA(X ) = χB (X ).
Démonstration. On écrit
B − X I n = P −1 AP − X (P −1 I n P) = P −1 (A − X I n )P.
Mais on sait que le déterminant vérifie det(M N ) = det(M )·det(N ) pour toutes matrices M et N et det(M −1 ) =
1
det(M ) pour une matrice M inversible. Donc
1
χB (X ) = det(B − X I n ) = · det(A − X I n ) · det(P) = det(A − X I n ) = χA(X ).
det(P)
2.3. Exemples
Reprenons les exemples du début de ce chapitre et traitons-les en utilisant le polynôme caractéristique.
Exemple 6.
1 3 3
A = −2 11 −2
8 −7 6
Alors
χA(X ) = det(A − X I3 )
1 3 3 1 0 0
= det −2 11 −2 − X 0 1 0
8 −7 6 0 0 1
1−X 3 3
= −2 11 − X −2
8 −7 6−X
= ···
= −X 3 + 18X 2 − 51X − 182
= −(X + 2)(X − 7)(X − 13).
Donc les valeurs propres sont :
−2, 7 et 13.
Exemple 7.
0 1
A=
1 1
Alors p p
1+ 5
0−X 1 2 1− 5
χA(X ) = = X −X −1= X − X−
1 1−X 2 2
donc les valeurs propres sont :
p p
1− 5 1+ 5
et .
2 2
VALEURS PROPRES, VECTEURS PROPRES 2. POLYNÔME CARACTÉRISTIQUE 7
Exemple 8.
0 1
A=
−1 −1
Alors :
0−X 1
χA(X ) = = X 2 + X + 1 = (X − j)(X − j̄)
−1 −1 − X
p
où j = − 12 + i 23 . Bilan :
• sur K = R, la matrice A n’a aucune valeur propre,
• sur K = C, la matrice A a deux valeurs propres : j et j̄.
Exemple 9.
cos θ − sin θ
A=
sin θ cos θ
Alors :
cos θ − X − sin θ
χA(X ) = = X 2 − 2 cos(θ )X + 1 = (X − ei θ )(X − e− i θ ).
sin θ cos θ − X
Sur C, les valeurs propres sont e− i θ et ei θ .
Exemple 10 (Cas des matrices triangulaires).
Soit A une matrice triangulaire supérieure
a11 a12 · · · · · · · · · a1n
22 · · · · · · · · · a2n
0 a
. .. .. ..
.. . . .
A= . .. .
.. .. ..
. . .
.. .. .. ..
. . . .
0 · · · · · · · · · 0 ann
Alors
a11 − X a12 ··· ··· ··· a1n
0 a22 − X ··· ··· ··· a2n
.. .. .. .. n n
. . . . Y Y
χA(X ) = .. .. .. .. = (aii − X ) = (−1) n
(X − aii ).
. . . . i=1 i=1
.. .. .. ..
. . . .
0 ··· ··· ··· 0 ann − X
Le calcul de ce déterminant se fait d’abord en développant la première colonne, puis par récurrence.
L’ensemble des valeurs propres est donc {aii | 1 6 i 6 n}. On retient :
Les valeurs propres d’une matrice triangulaire sont exactement ses éléments diagonaux.
Exemple 11.
a b
Voici le cas n = 2. Soit A = . On a
c d
a−X b
χA(X ) = = (a − X )(d − X ) − bc = X 2 − (a + d) X + |ad {z
− bc} .
c d−X | {z }
tr A det A
Exemple 12.
Si λ1 , λ2 , . . . , λn ∈ K sont les valeurs propres de A, alors le polynôme caractéristique s’écrit aussi
χA(X ) = (−1)n (X − λ1 )(X − λ2 ) · · · (X − λn ).
En développant cette expression, on trouve
χA(X ) = (−1)n X n − (λ1 + · · · + λn )X n−1 + · · · + (−1)n (λ1 · λ2 · · · λn ) .
En identifiant ce polynôme avec l’expression de la proposition 4, on obtient la proposition 3.
Voici les grandes lignes de la preuve de la proposition 4 (on reviendra sur cette preuve dans le chapitre
suivant « Diagonalisation »).
P:
0 · · · · · · 0 −c0
. .. ..
1 . . . .
. . . ..
A = 0 . . . . ..
.
. . ..
.. .. ... 0 .
0 · · · 0 1 −cn−1
Alors
Exemple 13.
Soit A la matrice :
0 ··· ··· 0 1
. ..
1 . . . 0
.. .. .. ..
A= 0 . . . . ∈ Mn (C)
. .
. . . . . 0 ...
..
0 ··· 0 1 0
Alors χA(X ) = (−1) (X − 1). Les valeurs propres de A sont donc les racines n-ièmes de l’unité.
n n
VALEURS PROPRES, VECTEURS PROPRES 3. DIAGONALISER À LA MAIN 10
Mini-exercices.
1. Calculer le polynôme caractéristique
−3 −1des matrices suivantes, et en déduire leurs valeurs propres :
−6 3 −7 0 0
A = 7 4 , B = 5 0 5 , C = 0 0 −1 2 .
23 1 −3 0 0
5 −1 6 0 0 5 2
2. Calculer,
a11 aà12 la main, les coefficients du polynôme caractéristique d’une matrice A de taille 3 × 3 :
a13
A = aa21 aa22 aa23 .
31 32 33
3. Trouver plusieurs matrices de taille 2 × 2 dont la somme des valeurs propres fait 6 et le produit des
valeurs propres fait 2.
4. Trouver une matrice, ni diagonale ni triangulaire, dont le polynôme caractéristique est (X − 1)2 (X 2 +
X + 1). Trouver une matrice, ni diagonale ni triangulaire, dont l’ensemble des valeurs propres est
{0, 1, −1, i, − i}.
3. Diagonaliser à la main
Nous avons vu qu’une matrice A et une matrice semblable P −1 AP ont le même polynôme caractéristique,
donc les mêmes valeurs propres. Nous allons voir un critère simple (mais pas le plus général) pour obtenir
une matrice P −1 AP qui est diagonale, les coefficients diagonaux étant les valeurs propres de A.
Définition 3.
Soit A ∈ Mn (K). On dit que A est diagonalisable sur K s’il existe une matrice P ∈ Mn (K) inversible telle
que P −1 AP soit une matrice diagonale.
Il y a beaucoup d’intérêt à se ramener à une matrice diagonale. Voici juste une application.
Exemple 14.
Soient 1
− 27
1 2 1 1 −1
A= P= P = 7
.
3 −4 −3 21 6
7
2
7
Alors
(−5)k
−1 −5 0 0
D=P AP = donc k
D = .
0 2 0 2k
La matrice D étant diagonale, la matrice A est diagonalisable. Calculons maintenant Ak .
Comme D = P −1 AP alors A = P DP −1 , donc
Ak = (P DP −1 )k = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P D k P −1 .
| {z }
k occurrences
D’où 6 1 2 2
× 2k + × (−5)k × 2k − × (−5)k
A =k 7
3
7
3
7
1
7
6 .
7 × 2k − 7 × (−5)k 7 × 2k + 7 × (−5)k
Proposition 6.
Soit A ∈ Mn (K) une matrice. Supposons que A admette n valeurs propres distinctes λ1 , . . . , λn ∈ K. Soient
X 1 , . . . , X n des vecteurs propres associés. Alors :
• La matrice A est diagonalisable.
• Si on note P la matrice dont les vecteurs colonnes sont les (X 1 , . . . , X n ), alors D = P −1 AP est la matrice
diagonale formée des valeurs propres de A.
Démonstration.
• Par le théorème 1, la famille (X 1 , . . . , X n ) est une famille libre, car les valeurs propres sont distinctes.
Comme cette famille possède n éléments, c’est une base de Kn .
• La matrice P est inversible car ses vecteurs colonnes forment une base de Kn . On pose D = P −1 AP.
.
..
0
• Notons (Y1 , . . . , Yn ) la base canonique de K : Yi = 1 (où le 1 est en position i). On remarque que la
n
0
..
.
multiplication M Yi renvoie la i-ème colonne de la matrice M . En particulier, PYi = X i et donc Yi = P −1 X i .
Calculons DYi pour chaque 1 6 i 6 n :
DYi = (P −1 AP)Yi = (P −1 A)PYi
= (P −1 A)X i = P −1 (AX i )
= P −1 (λi X i ) = λi P −1 X i
= λi Yi
Nous avons utilisé le fait que X i est un vecteur propre associé à
la valeur
propre λi . Ainsi on vient de
..
.
0
prouver que la i-ème colonne de D, qui est DYi , est aussi λi Yi = λi
.
0
..
.
La matrice D est donc bien la matrice diagonale dont les coefficients sont les λi :
λ1 0 · · · 0
.
0 λ2 . . . ..
D= . .
..
.. . . . 0
0 ··· 0 λn
3.4. Exemples
Exemple 15.
Diagonalisons la matrice
4 −2
A= .
1 1
1. Pour cela, on détermine ses valeurs propres :
4 − λ −2
det(A − λI) = = (4 − λ)(1 − λ) + 2 = λ2 − 5λ + 6 = (λ − 2)(λ − 3).
1 1−λ
2. Ainsi, la matrice A admet deux valeurs propres distinctes, qui sont λ1 = 2 et λ2 = 3. Par la proposition 6,
elle est diagonalisable.
3. Déterminons une base de vecteurs propres. Tout d’abord pour λ1 = 2 :
4 −2 x 2x
= ⇐⇒ x = y,
1 1 y 2y
d’où le vecteur propre X 1 = 11 associé à la valeur propre λ1 = 2. Pour la valeur propre λ2 = 3 :
4 −2 x 3x
= ⇐⇒ x = 2 y,
1 1 y 3y
d’où le vecteur propre X 2 = 21 associé à la valeur propre λ2 = 3.
4. Dans la base (X 1 , X 2 ), la matrice s’écrit
2 0
D= .
0 3
Plus précisément D = P −1 AP, où
1 2 −1 −1 2
P= et P = .
1 1 1 −1
Exemple 16.
Soit
1 0 0
A = 5 −4 0 .
6 −6 2
Démontrons que A est diagonalisable et trouvons une matrice P telle que P −1 AP soit diagonale.
Mini-exercices.
−4 5 0
1. Soit A = 0 1 0 . Calculer les valeurs propres de A. Trouver un vecteur propre pour chaque valeur
−7 7 3
propre. Trouver une matrice P telle que D = P −1 AP soit une matrice diagonale. Calculer P −1 . Calculer
D k (k ∈ N). En déduire Ak .
1 −2 0 0
2. Même exercice avec A = −1 1 0 0
0 0 1 −3 .
0 0 −3 1
3. Dans le cas d’une matrice A ∈ Mn (K) ayant n valeurs propres distinctes, donner une nouvelle preuve
des assertions : « La somme des valeurs propres vaut tr A. » et « Le produit des valeurs propres vaut
det A. »
4. Soit T une matrice triangulaire, non diagonale, dont les coefficients sur la diagonale sont tous 1.
Montrer qu’elle n’est pas diagonalisable. Indications : (a) Quelles sont les valeurs propres de T ? (b)
Si T était diagonalisable en une matrice D, que vaudrait D ? (c) À quoi pourrait être semblable cette
matrice D ?
Auteurs du chapitre
D’après un cours de Sandra Delaunay et un cours d’Alexis Tchoudjem.
Revu et augmenté par Arnaud Bodin.
Relu par Stéphanie Bodin et Vianney Combet.
Diagonalisation
La diagonalisation est une opération fondamentale des matrices. Nous allons énoncer des conditions
qui déterminent exactement quand une matrice est diagonalisable. Nous reprenons pas à pas les
notions du chapitre « Valeurs propres, vecteurs propres », mais du point de vue plus théorique des
applications linéaires.
Notations.
Dans ce chapitre, E est un K-espace vectoriel. K est un corps. Dans les exemples de ce chapitre, K
sera R ou C. Sauf mention contraire, E sera de dimension finie.
1.1. Définitions
Rappel. f : E → E est appelé un endomorphisme si f est une application linéaire de E dans
lui-même. Autrement dit, pour tout v ∈ E, f (v) ∈ E et, en plus, pour tous u, v ∈ E et tout α ∈ K :
f (u + v) = f (u) + f (v) et f (αv) = α f (v)
Définition 1.
Soit f : E → E un endomorphisme.
• λ ∈ K est dite valeur propre de l’endomorphisme f s’il existe un vecteur non nul v ∈ E tel
que
f (v) = λv.
Si v est un vecteur propre alors, pour tout α ∈ K∗ , αv est aussi un vecteur propre.
Ces définitions sont bien sûr compatibles avec celles pour les matrices. Soit A ∈ Mn (K). Soit
f : Kn → Kn l’application linéaire définie par f (v) = Av (où v est considéré comme un vecteur
colonne). Alors les valeurs propres (et les vecteurs propres) de f sont celles de A.
DIAGONALISATION 1. VALEURS PROPRES, VECTEURS PROPRES 2
1.2. Exemples
La principale source d’exemples provient des matrices et nous renvoyons encore une fois au
chapitre « Valeurs propres, vecteurs propres ».
Exemple 1.
Soit f : R3 → R3 définie par
f (x, y, z) = − 2x − 2 y + 2z, −3x − y + 3z, −x + y + z .
1. Écriture en terme de matrice. L’application f s’écrit aussi f (X ) = AX avec :
x −2 −2 2
X = y et A = −3 −1 3
z −1 1 1
2. Le vecteur v1 = (1, 1, 0) est vecteur propre.
En effet, f (1, 1, 0) = (−4, −4, 0), autrement dit f (v1 ) = −4v1 . Ainsi v1 est un vecteur propre
associé à la valeur propre λ1 = −4.
Si on préfère faire les calculs avec les matrices, on considère v1 comme un vecteur colonne et
on calcule Av1 = −4v1 .
3. λ2 = 2 est valeur propre.
Pour le prouver, il s’agit de trouver un vecteur non nul dans Ker( f − λ2 idR3 ) pour λ2 = 2. Pour
cela, on calcule A − λ2 I3 :
−4 −2 2
A − 2I3 = −3 −3 3
−1 1 −1
On trouve que v2 = (0, 1, 1) est dans le noyau de A − 2I3 , c’est-à-dire (A − 2I3 )v2 est le vecteur
nul. En d’autres termes, v2 ∈ Ker( f − λ2 idR3 ), c’est-à-dire f (v2 ) − 2v2 = 0, donc f (v2 ) = 2v2 .
Bilan : v2 est un vecteur propre associé à la valeur propre λ2 = 2.
4. λ3 = 0 est valeur propre.
On peut faire juste comme au-dessus et trouver que v3 = (1, 0, 1) vérifie f (v3 ) = (0, 0, 0). Ainsi
f (v3 ) = 0 · v3 . Bilan : v3 est vecteur propre associé à la valeur propre λ3 = 0.
5. On a trouvé 3 valeurs propres, et il ne peut y en avoir plus car la matrice A est de taille 3 × 3.
Conclusion : sp( f ) = {−4, 2, 0}.
Exemple 2.
Soit f : Rn → Rn l’application linéaire définie par (x 1 , . . . , x n−1 , x n ) 7→ (x 1 , . . . , x n−1 , 0). Géométri-
quement, f est une projection sur Rn−1 × {0} ⊂ Rn . Notons e1 = (1, 0, 0, . . .), e2 = (0, 1, 0, . . .),. . . ,
en = (0, . . . , 0, 1) les n vecteurs de la base canonique de Rn .
Alors
f (e1 ) = e1 f (e2 ) = e2 . . . f (en−1 ) = en−1 et f (en ) = 0.
Ainsi e1 , . . . , en−1 sont des vecteurs propres associés à la valeur propre 1. Et en est un vecteur propre
associé à la valeur propre 0. Conclusion : sp( f ) = {0, 1}.
Voici d’autres exemples plus théoriques.
Exemple 3.
DIAGONALISATION 1. VALEURS PROPRES, VECTEURS PROPRES 3
Eλ = Ker( f − λ id E )
C’est le sous-espace vectoriel de E constitué des vecteurs propres de f associés à la valeur propre
λ, auquel on ajoute le vecteur nul. Être valeur propre, c’est donc exactement avoir un sous-espace
propre non trivial :
λ valeur propre ⇐⇒ Eλ 6= {0}
Remarque.
Plaçons-nous dans le cas où E est de dimension finie.
• Si λ est une valeur propre de f , alors le sous-espace propre associé Eλ est de dimension > 1.
• Le sous-espace propre Eλ est stable par f , c’est-à-dire f (Eλ ) ⊂ Eλ . En effet :
v ∈ Ker( f − λ id E ) =⇒ f ( f (v)) = f (λv) = λ f (v) =⇒ f (v) ∈ Ker( f − λ id E )
Théorème 1.
Soit f un endomorphisme de E. Soient λ1 , . . . , λ r des valeurs propres distinctes de f . Alors les
sous-espaces propres associés Eλ1 , . . . , Eλr sont en somme directe.
DIAGONALISATION 1. VALEURS PROPRES, VECTEURS PROPRES 4
(le vecteur vr n’apparaît plus dans cette expression). On applique l’hypothèse de récurrence à la
famille de n − 1 vecteurs (λ1 − λ r )v1 , . . . ,(λ r−1 − λ r )vr−1 , ce qui implique que tous ces vecteurs
sont nuls :
(λ1 − λ r )v1 = 0 ... (λ r−1 − λ r )vr−1 = 0
Comme les valeurs propres sont distinctes, alors λi − λ r 6= 0 (pour i = 1, . . . , r − 1). Ainsi
v1 = 0 ... vr−1 = 0.
L’équation (1) implique en plus
vr = 0.
Cela termine la récurrence.
Exemple 6.
• Si (v1 , . . . , vn ) est une famille libre de E, alors les droites Kv1 , . . . , Kvn sont en somme directe.
• Si (v1 , . . . , vn ) est une base de E, alors les droites Kv1 , . . . , Kvn sont en somme directe dans E :
E = Kv1 ⊕ · · · ⊕ Kvn .
La notion de somme directe généralise celle de base :
Proposition 1.
Les sous-espaces vectoriels E1 , . . . , E r sont en somme directe si et seulement si, pour chaque v ∈
E1 + · · · + E r , il existe vi ∈ Ei unique (1 6 i 6 r) tel que
v = v1 + v2 + · · · + vr .
DIAGONALISATION 1. VALEURS PROPRES, VECTEURS PROPRES 6
2. Polynôme caractéristique
Le polynôme caractéristique permet de trouver facilement les valeurs propres. Encore une fois, le
chapitre « Valeurs propres, vecteurs propres » sur les matrices fournit de nombreux exemples.
Définition 5.
Soit f : E → E un endomorphisme d’un K-espace vectoriel E de dimension finie n. Soit
A ∈ Mn (K) la matrice de f dans une base B.
Le polynôme caractéristique de f est égal au polynôme caractéristique de la matrice A :
χ f (X ) = χA(X ) = det(A − X I n ).
Le polynôme caractéristique est indépendant de la matrice A (et du choix de la base B). En effet,
si B est la matrice du même endomorphisme f mais dans une autre base B 0 , alors on sait qu’il
existe P ∈ Mn (K) inversible telle que B = P −1 AP. On écrit :
B − X I n = P −1 (A − X I n )P.
Alors,
1
χB (X ) = det(B − X I n ) = · det(A − X I n ) · det(P) = det(A − X I n ) = χA(X ).
det(P)
Proposition 3.
Voyons une autre formulation. Soit f : E → E. Soit A ∈ Mn (K) sa matrice dans une base B. Soit
λ ∈ K. Alors :
λ valeur propre de f ⇐⇒ det(A − λI n ) = 0
Démonstration.
λ est une valeur propre de f ⇐⇒ ∃v ∈ E \ {0}, f (v) = λv
⇐⇒ Ker( f − λ id E ) 6= {0}
⇐⇒ f − λ id E n’est pas injective
⇐⇒ f − λ id E n’est pas bijective
⇐⇒ A − λI n n’est pas inversible
⇐⇒ det(A − λI n ) = 0
⇐⇒ χ f (λ) = 0
Noter que l’équivalence entre « f − λ id E non injective » et « f − λ id E non bijective » repose sur le
fait que : (a) f − λ id E est un endomorphisme (il va de E dans lui-même) et (b) E est de dimension
finie.
DIAGONALISATION 2. POLYNÔME CARACTÉRISTIQUE 8
Exemple 7.
Si D est la matrice diagonale
λ1 0
··· 0
.. ..
0 λ . .
D= . . 2 ..
.. ..
. 0
0 ··· 0 λn
alors χ D (X ) = (λ1 − X ) · · · (λn − X ) et donc les λi sont les racines de χ D (X ) et aussi les valeurs
propres de D.
Exemple 8.
Soit E un C-espace vectoriel de dimension finie. Soit f : E → E une symétrie, c’est-à-dire un
endomorphisme qui vérifie f 2 = − f . Montrons que le polynôme caractéristique est de la forme
χ f (X ) = ±X a (X + 1) b avec a, b > 0.
Pour cela, cherchons quelle peut être une valeur propre de f . Soit λ ∈ K une valeur propre, et soit
v ∈ E \ {0} un vecteur propre associé. Alors :
f (v) = λv =⇒ f f (v) = f (λv)
=⇒ − f (v) = λ f (v) car f 2 = − f
=⇒ −λv = λ2 v car v vecteur propre
=⇒ −λ = λ2 car v non nul
=⇒ λ(λ + 1) = 0
=⇒ λ = 0 ou λ = −1
Conséquence : les seules valeurs propres possibles sont 0 ou −1. Par la proposition 3, les seules
racines possibles de χ f (X ) sont 0 et −1. Donc χ f (X ) = αX a (X + 1) b où α ∈ C∗ , a, b > 0. Nous
verrons juste après que le coefficient dominant est ±1. Ainsi χ f (X ) = ±X a (X + 1) b .
Proposition 4.
Soit E un K-espace vectoriel de dimension n. Soit f : E → E un endomorphisme. Soit A la matrice
de f dans une base B. Le polynôme caractéristique de f est de degré n et vérifie :
χ f (X ) = (−1)n X n + (−1)n−1 (tr A)X n−1 + · · · + det A.
Si f admet n valeurs propres, qui sont donc toutes les racines de χ f (X ), alors de l’égalité
n
Y
χ f (X ) = (−1) n
(X − λi )
i=1
on en déduit :
Démonstration. Considérons la matrice A ∈ Mn (R) comme une matrice de Mn (C). Alors A possède
une valeur propre λ = a + i b ∈ C (a, b réels), et un vecteur propre associé Z = X + i Y ∈ Cn \ {0}
où X , Y ∈ Rn .
Alors :
AZ = λZ =⇒ A(X + i Y ) = (a + i b)(X + i Y )
=⇒ AX + i AY = (aX − bY ) + i(bX + aY )
AX = aX − bY
=⇒
AY = bX + aY
DIAGONALISATION 3. DIAGONALISATION 10
Exemple 10.
Soit f un endomorphisme de E. Si E est de dimension n et si le polynôme caractéristique χ f (X ) ∈
K[X ] admet n racines distinctes dans K, alors il existe une base de E formée de vecteurs propres
de f .
Mini-exercices.
1. Calculer le polynôme caractéristique d’une matrice triangulaire.
2. Trouver une application linéaire f : R2 → R2 qui n’admet aucune valeur propre réelle. Montrer
que les valeurs propres complexes d’un tel endomorphisme f seront toujours conjuguées.
−1 α+1 0
3. Calculer le polynôme caractéristique de A = 1 α 1 en fonction de α ∈ R. Montrer que
3 −α−1 2
−1 est valeur propre et en déduire les autres valeurs propres. Quelle est la multiplicité de
chaque valeur propre ? Trouver un vecteur propre pour chaque valeur propre.
4. Soit E un C-espace vectoriel de dimension n. Soit f : E → E un endomorphisme tel que f n
soit l’application nulle (c’est-à-dire, pour tout x ∈ E, f ◦ f ◦ · · · ◦ f (x) = 0). Si λ est une valeur
propre de f , que peut valoir λ ? En déduire le polynôme caractéristique de f .
3. Diagonalisation
Dans le chapitre « Valeurs propres, vecteurs propres », nous avions énoncé un critère qui permet
de diagonaliser certaines matrices. Ici nous allons énoncer un critère plus fort : nous trouvons des
conditions qui sont exactement équivalentes à ce qu’une matrice soit diagonalisable.
Définition 6.
On dit qu’un endomorphisme f : E → E est diagonalisable s’il existe une base de E formée de
vecteurs propres de f .
Rappelons que :
Définition 7.
Soit A une matrice de Mn (K). On dit que A est diagonalisable sur K s’il existe une matrice
P ∈ Mn (K) inversible telle que P −1 AP soit diagonale.
f diagonalisable ⇐⇒ A diagonalisable
Démonstration.
• =⇒. Soit f un endomorphisme diagonalisable.
— Si D est la matrice de f dans la base (v1 , . . . , vn ) formée de vecteurs propres, alors D est
une matrice diagonale. En effet, comme f (vi ) = λi vi , la matrice D est diagonale et le i-ème
coefficient de la diagonale est λi .
— Si A est la matrice de f dans une base B quelconque, alors A est semblable à la matrice D
ci-dessus. Il existe donc P inversible telle que D = P −1 AP soit diagonale.
• ⇐=. Soit A une matrice diagonalisable.
L’endomorphisme f , considéré comme une application f : Kn → Kn , s’écrit f (X ) = AX où les
coordonnées de X s’expriment dans la base canonique (Y1 , . . . , Yn ) :
1 0
0 1
Y1 = 0 Y2 = 0 ···
.. ..
. .
Soit P une matrice telle que D = P −1 AP soit une matrice diagonale. Notons λ1 , . . . , λn les
coefficients de la diagonale. Notons (X 1 , . . . , X n ) les vecteurs colonnes de P. Ils s’obtiennent
aussi comme X i = PYi . Montrons que X i est un vecteur propre de f , associé à la valeur propre
λi :
f (X i ) = AX i = (P DP −1 )(PYi ) = P DYi = P(λi Yi ) = λi (PYi ) = λi X i .
Comme P est inversible, alors (X 1 , . . . , X n ) est une base de vecteurs propres.
Exemple 11 (Projection).
On suppose que E = F ⊕ G avec F et G deux sous-espaces vectoriels de E. N’importe quel v ∈ E se
décompose de façon unique en v = x + y avec x ∈ F , y ∈ G. La projection sur F suivant G est
l’endomorphisme de E défini par :
p: E −→ E
v = x + y 7−→ x
• Pour v = x ∈ F , on a p(x) = x ; ces x sont les vecteurs propres pour la valeur propre 1 :
F = Ker(p − id E ) = E1 (p).
• Pour v = y ∈ G, on a p( y) = 0 ; ces y sont les vecteurs propres pour la valeur propre 0 :
G = Ker p = E0 (p).
• Comme E = F ⊕ G, alors l’union d’une base de vecteurs propres de E1 (p) et d’une base de
vecteurs propres de E0 (p) forme une base de vecteurs propres de E.
• Conclusion : p est diagonalisable.
Exemple 12 (Réflexion).
On suppose encore que E = F ⊕ G. On définit la réflexion par rapport à F suivant G par :
r: E −→ E
v = x + y 7−→ x − y
De façon semblable à l’exemple précédent, on montre que r est diagonalisable avec
F = Ker(r − id E ) = E1 (r) et G = Ker(r + id E ) = E−1 (r).
DIAGONALISATION 3. DIAGONALISATION 12
Proposition 6.
Si f est un endomorphisme de E et si on note λ1 , . . . , λ r ses valeurs propres distinctes alors :
f est diagonalisable ⇐⇒ E = Ker( f − λ1 id E ) ⊕ · · · ⊕ Ker( f − λ r id E ).
Autrement dit, f est diagonalisable si et seulement si E est somme directe des sous-espaces propres
de f .
Notons que, dans les deux exemples précédents (la projection et la symétrie), l’espace vectoriel E
est bien la somme directe des deux seuls sous-espaces propres.
Démonstration.
• =⇒. Par le théorème 1, les sous-espaces propres de f sont en somme directe. Notons F =
Eλ1 ⊕ · · · ⊕ Eλr . Comme f est supposé diagonalisable, alors il existe une base de E formée de
vecteurs propres de f . Mais ces vecteurs propres sont aussi des éléments de F . Ainsi F contient
une base de E. On en conclut que E = F = Eλ1 ⊕ · · · ⊕ Eλr .
• ⇐=. Par hypothèse, les sous-espaces propres sont en somme directe dans E. On choisit une
base pour chacun des sous-espaces propres Eλ = Ker( f − λ id E ). Les vecteurs de chacune de
ces bases sont des vecteurs propres de f . L’union de ces bases est une base de E formée de
vecteurs propres de f , donc f est diagonalisable.
pour certains λi ∈ K et un an ∈ K∗ .
• Et donc, si K = C, on a toujours :
X
deg P = m(λ).
λ racine de P
3.3. Diagonalisation
Nous allons énoncer un critère simple qui caractérise si un endomorphisme est diagonalisable ou
pas. Ce critère se base sur le polynôme caractéristique et la dimension des sous-espaces propres,
pour lesquels on établit un premier lien dans la proposition suivante. Les preuves seront faites
dans la section 3.6.
Proposition 7.
Soient f un endomorphisme de E et χ f son polynôme caractéristique. Soit λ une valeur propre de
f , de multiplicité m(λ) comme racine de χ f , et soit Eλ le sous-espace propre associé. Alors on a
1 6 dim Eλ 6 m(λ).
Corollaire 2.
Si le polynôme χ f (X ) (resp. χA(X )) est scindé et si les racines sont simples, alors f (resp. A) est
diagonalisable.
En effet, dans ce cas, la multiplicité m(λ) vaut 1 pour chaque valeur. Par la proposition 7, on a
1 6 dim Eλ 6 m(λ), donc la dimension de chaque sous-espace propre est aussi 1. Par le théorème
2, l’endomorphisme (ou la matrice) est diagonalisable.
3.4. Exemples
Exemple 16.
a b
Toute matrice réelle 2 × 2 symétrique A = est diagonalisable sur R.
b d
La trace vaut tr A = a+d, le déterminant vaut det A = ad − b2 . On utilise la formule de la proposition
4 pour en déduire, sans calculs, que le polynôme caractéristique est :
χA(X ) = X 2 − tr(A)X + det(A) = X 2 − (a + d)X + ad − b2 .
Sans les calculer, montrons que χA(X ) admet deux racines réelles. On calcule le discriminant de
l’équation du second degré donnée par χA(X ) = 0 :
∆ = (a + d)2 − 4(ad − b2 ) = a2 + d 2 − 2ad + 4b2 = (a − d)2 + 4b2 . (3)
Cela prouve que ∆ > 0. Ainsi les deux racines λ1 et λ2 du polynôme caractéristique sont réelles.
Conclusion :
• Si ∆ > 0 alors ces deux racines sont réelles et distinctes. Ainsi χA(X ) = (X − λ1 )(X − λ2 ) est
scindé à racines simples, donc la matrice A est diagonalisable.
• Si ∆ = 0 alors, par l’équation (3), on a (a − d)2 = 0 et b2 = 0. Donc a = d et b = 0. La matrice
A est une matrice diagonale (donc diagonalisable !).
Exemple 17.
La matrice de permutation circulaire
0 ··· ··· 0 1
1 0 · · · · · · 0
.. ..
A = 0 1 . . ∈ Mn (C)
. . . . . . ..
.. . . . . .
0 ··· 0 1 0
est diagonalisable sur C.
DIAGONALISATION 3. DIAGONALISATION 15
En effet :
• son polynôme caractéristique est χA(X ) = (−1)n (X n − 1) (voir le chapitre « Valeurs propres,
vecteurs propres », section « Matrice compagnon »),
• les valeurs propres sont les racines n-ièmes de l’unité :
2π 2(n−1)π
1, ei n , . . . , ei n
3.5. Diagonaliser
Diagonaliser une matrice A ∈ Mn (K) signifie trouver, si elles existent, P ∈ Mn (K) inversible et
D ∈ Mn (K) diagonale telles que
A = P DP −1 .
On renvoie une dernière fois au chapitre « Valeurs propres, vecteurs propres » pour des exemples
de diagonalisation.
Exemple 19.
Soit
1 0 0
A = 0 1 0 .
1 −1 2
Démontrons que A est diagonalisable sur R et trouvons une matrice P telle que P −1 AP soit diagonale.
1. Commençons par calculer le polynôme caractéristique de A :
1−X 0 0
χA(X ) = det(A − X I3 ) = 0 1−X 0 = (1 − X )2 (2 − X )
1 −1 2−X
2. Les racines du polynôme caractéristique sont les réels 1 avec la multiplicité m(1) = 2, et 2 avec
la multiplicité m(2) = 1. On remarque de plus que le polynôme est scindé sur R.
3. Déterminons les sous-espaces propres associés.
x à la valeur propre double 1 : E1 = Ker(A − I3 ) = {X ∈
• Soit E1 le sous-espace propre associé
R | A · X = X }. Si on note X = zy alors :
3
x = x
X ∈ E1 ⇐⇒ AX = X ⇐⇒ y = y ⇐⇒ x − y + z = 0
x − y + 2z = z
¦ x ©
E1 = −x+ y | x ∈ R, y ∈ R est donc un plan vectoriel dont, par exemple, les vecteurs
1 y 0
X 1 = 0 et X 2 = 1 forment une base.
−1 1
• Soit E2 le sous-espace propre associé à la valeur propre simple 2 : E2 = Ker(A − 2I3 ) = {X ∈
R3 | A · X = 2X }. Alors :
x = 2x
X ∈ E2 ⇐⇒ AX = 2X ⇐⇒ y = 2 y ⇐⇒ x = 0 et y = 0
x − y + 2z = 2z
¦ 0 © 0
E2 = 0 | z ∈ R est donc une droite vectorielle, dont le vecteur X 3 = 0 est une base.
z 1
4. Les dimensions des sous-espaces propres sont égales aux multiplicités des valeurs propres
correspondantes : dim E1 = 2 = m(1), dim E2 = 1 = m(2). La matrice A est donc diagonalisable.
5. Dans la base (X 1 , X 2 , X 3 ), l’endomorphisme représenté par A (dans la base canonique) a pour
matrice
1 0 0
D = 0 1 0 .
0 0 2
Autrement dit, si on note P la matrice de passage dont les vecteurs colonnes sont X 1 , X 2 et X 3 ,
c’est-à-dire
1 0 0
P = 0 1 0 ,
−1 1 1
alors P AP = D.
−1
DIAGONALISATION 3. DIAGONALISATION 17
3.6. Preuves
Il nous reste à prouver la proposition 7 et le théorème 2 de la section 3.3. Rappelons l’énoncé de
la proposition 7.
Proposition (Proposition 7).
Soient f un endomorphisme de E et χ f son polynôme caractéristique. Soient λ une valeur propre
de f , de multiplicité m(λ) comme racine de χ f , et Eλ le sous-espace propre associé. Alors on a
1 6 dim Eλ 6 m(λ).
Démonstration. Tout d’abord, par définition d’une valeur propre et d’un sous-espace propre, on a
dim Eλ > 1. Notons p = dim Eλ et (e1 , . . . , e p ) une base de Eλ . On complète cette base en une base
(e1 , . . . , e p , e p+1 , . . . , en ) de E. Dans cette base, la matrice de f est de la forme
λI p C
A= .
0 B
En effet, pour chaque 1 6 i 6 p, on a f (ei ) = λei . Maintenant, en calculant le déterminant d’une
matrice triangulaire par blocs :
det(A − X I n ) = det((λ − X )I p ) · det(B − X I n−p ) = (λ − X ) p det(B − X I n−p ).
Cela prouve que (λ − X ) p divise χ f (X ) et donc, par définition de la multiplicité d’une racine, on a
m(λ) > p.
Démonstration.
• =⇒. Supposons f diagonalisable et notons λ1 , . . . , λ r ses valeurs propres et m(λ1 ), . . . , m(λ r )
leurs multiplicités respectives dans χ f (X ). Comme f est diagonalisable, alors il existe une base
B dans laquelle la matrice de f est une matrice diagonale D. Notons ni le nombre de fois où
λi apparaît dans la diagonale de D. On a alors
r
Y
χ f (X ) = χ D (X ) = (λi − X )ni .
i=1
Cela prouve que χ f (X ) est scindé sur K et que m(λi ) = ni pour tout 1 6 i 6 r.
Comme D est diagonale, pour tout 1 6 i 6 r, il existe ni vecteurs v de la base B de E tels que
f (v) = λi v. Il existe donc ni vecteurs linéairement indépendants dans Eλi , d’où dim Eλi > ni .
Mais on sait que ni = m(λi ), donc dim Eλi > m(λi ). Enfin, on a démontré dans la proposition 7
que dim Eλi 6 m(λi ), d’où l’égalité.
• ⇐=. On suppose que χ f (X ) est scindé sur K et que, pour toute racine λi (avec 1 6 i 6 r), on
a dim Eλi = m(λi ). En particulier, on a
r
Y
χ f (X ) = (λi − X )m(λi ) .
i=1
DIAGONALISATION 3. DIAGONALISATION 18
Notons F = Eλ1 + · · · + Eλr . On sait que les sous-espaces propres sont en somme directe d’après
Pr
le théorème 1, donc F = Eλ1 ⊕ · · · ⊕ Eλr . Ainsi, par la proposition 2, dim F = i=1 dim Eλi =
Pr
i=1
m(λi ) = deg χ f = dim E. On en conclut que F ⊂ E et dim F = dim E, d’où F = E.
Sr
Pour chaque 1 6 i 6 r, on note Bi une base de Eλi . Soit B = i=1 Bi . Alors B est une base de
E (puisque c’est une base de F ). Les vecteurs de Eλi sont des vecteurs propres. Ainsi, il existe
une base de E formée de vecteurs propres de f , ce qui prouve que f est diagonalisable.
Mini-exercices.
1. Montrer que si λ est racine simple du polynôme caractéristique alors dim Eλ = 1. Que peut-on
dire pour une racine double ?
1 1 1
2. Soit A = 1 1 1 . Calculer le polynôme caractéristique de A. En déduire les valeurs propres.
1 1 1
Déterminer une base de chaque sous-espace propre. La matrice A est-elle diagonalisable ?
Généraliser au cas d’une matrice de taille n × n dont tous les coefficients sont 1.
3. Soit
1 1 0 ··· 0
. . ..
0 1 1 . .
.
. . . . . . . . . . 0 ∈ Mn (R).
A= .
. . .
.. . . . . 1
0 ··· ··· 0 1
Calculer le polynôme caractéristique de A, ses valeurs propres, leur multiplicité et la dimension
des sous-espaces propres. A est-elle diagonalisable ?
4. Soit f un endomorphisme d’un K-espace vectoriel E. On suppose qu’il existe un sous-espace
F de E laissé stable par f . Notons χ f |F le polynôme caractéristique de la restriction à F .
Montrer alors que χ f |F (X ) divise χ f (X ) dans K[X ]. Indication : s’inspirer de la preuve de la
proposition 7.
Auteurs du chapitre
D’après un cours de Sandra Delaunay et un cours d’Alexis Tchoudjem.
Revu et augmenté par Arnaud Bodin.
Relu par Stéphanie Bodin et Vianney Combet.
Polynômes
d’endomorphismes
1.1. Définition
Polynôme de matrice.
Soit A ∈ Mn (K) une matrice. À X k , on associe Ak ; à 1, on associe la matrice identité I n . Plus
généralement, pour un polynôme
P(X ) = a0 + a1 X + a2 X 2 + · · · + am X m ∈ K[X ],
on définit la matrice :
P(A) = a0 I n + a1 A + a2 A2 + · · · + am Am ∈ Mn (K)
Exemple 1.
1 −1
Soient A = et P(X ) = X 4 − 5X 2 − 2X + 1. On calcule
−1 2
2 −3 13 −21 2 −4
A =
2
A = (A ) =
4 2 2
P(A) = A − 5A − 2A + I2 =
4 2
−3 5 −21 34 −4 6
Polynôme d’endomorphisme.
Soit f ∈ L (E). À X k , on associe f k , c’est-à-dire f ◦ f ◦ · · · ◦ f . À 1, on associe l’application identité
| {z }
k occurrences
id E . Plus généralement, pour un polynôme
P(X ) = a0 + a1 X + a2 X 2 + · · · + am X m ∈ K[X ],
on définit l’endomorphisme :
P( f ) = a0 id E +a1 f + a2 f 2 + · · · + am f m ∈ L (E)
POLYNÔMES D’ENDOMORPHISMES 1. POLYNÔME DE MATRICE, POLYNÔME D’ENDOMORPHISME 2
Exemple 2.
Soit f : R2 → R2 la rotation d’angle θ = π6 centrée à l’origine. Soit P(X ) = X 11 . Calculons P( f ).
Pour k ∈ Z, f k est la rotation d’angle kθ = kπ 6 . Donc P( f ) = f
11
est la rotation d’angle 11π
6 , qui est
π
aussi la rotation d’angle − 6 . Ainsi P( f ) = f = f .
11 −1
Remarque (importante).
En particulier, pour tous P, Q ∈ K[X ], les matrices P(A) et Q(A) commutent :
P(A)Q(A) = Q(A)P(A).
De même, les endomorphismes P( f ) et Q( f ) commutent.
1.2. Exemples
Exemple 3 (Polynôme d’une matrice diagonale).
Pour
λ1 0 · · ·
0
. ..
0 λ2 . . .
D= . .
.. .. ...
0
0 ··· 0 λn
on a :
P(λ1 )
0 ··· 0
.. ..
0 P(λ2 ) . .
P(D) = . .. ..
..
. . 0
0 ··· 0 P(λn )
quel que soit le polynôme P(X ) ∈ K[X ].
POLYNÔMES D’ENDOMORPHISMES 2. SOUS-ESPACES STABLES 3
Exemple 4.
Montrer plus généralement que pour une matrice triangulaire
λ1 ∗ · · · ∗
. .
0 λ2 . . ..
T = . .
.. .. ... ∗
0 · · · 0 λn
on a :
P(λ1 )
∗ ··· ∗
. ..
0 P(λ2 ) . . .
P(T ) = . .. ..
..
. . ∗
0 ··· 0 P(λn )
pour tout polynôme P(X ) ∈ K[X ]. Les coefficients au-dessus de la diagonale peuvent avoir une
expression compliquée, mais les coefficients diagonaux sont obtenus simplement en leur appliquant
le polynôme P.
Mini-exercices.
1. Soit A = −2 1
0 3 . Pour P(X ) = X 2 − X , calculer P(A). Idem avec P(X ) = X 3 − X , puis P(X ) =
X4 − X.
y
2. Soit f : R3 → R3 , f (x, y, z) = ( 2 , −x, 3z). Pour P(X ) = X n , calculer P( f ) en fonction de
n > 1 (commencer par les petites valeurs de n : n = 1, 2, 3, 4, . . .).
3. Soient A = −4 1 , P(X ) = X − 3X . Montrer
2 −3 2
que P(A) = 10I2 . Factoriser P(X ) et en déduire
1 0 −2
A−1 . Faire un travail similaire pour A = 0 −4 1 , P(X ) = X 3 + 4X 2 + X .
1 0 −1
4. Soient A, A , B des matrices (avec B inversible) telles que A0 = BAB −1 . Montrer que, pour tout
0
2. Sous-espaces stables
2.1. Définition
Définition 1.
Soit E un K-espace vectoriel. Soit f ∈ L (E). Le sous-espace vectoriel F de E est stable par f
si :
∀x ∈ F f (x) ∈ F.
sin θ cos θ 0 .
0 0 1
La matrice de cet exemple a une structure particulière. Voyons pourquoi.
Lemme 1.
Si F est un sous-espace vectoriel stable par f alors, pour tout polynôme P ∈ K[X ], F est stable par
P( f ).
Démonstration. Si x ∈ F , alors f (x) ∈ F et donc f ( f (x)) ∈ F . Par récurrence sur k, on montre que
Pm
f k (x) ∈ F , pour tout k > 0. Maintenant, si P(X ) = k=0 ak X k , alors P( f ) est l’endomorphisme
défini par
P( f ) = a0 id E +a1 f + a2 f 2 + · · · + am f m .
POLYNÔMES D’ENDOMORPHISMES 2. SOUS-ESPACES STABLES 5
Donc
P( f )(x) = a0 x + a1 f (x) + a2 f 2 (x) + · · · + am f m (x).
Chaque terme ak f k (x) ∈ F , donc P( f )(x) ∈ F car F est un espace vectoriel. Conclusion : F est
stable par P( f ).
Démonstration.
• Soit x ∈ Ker g. On a g(x) = 0, d’où g( f (x)) = f (g(x)) = f (0) = 0, donc f (x) ∈ Ker g.
• Soit y ∈ Im g. Il existe x ∈ E tel que y = g(x), d’où f ( y) = f (g(x)) = g( f (x)), donc
f ( y) ∈ Im g.
Mini-exercices.
1. Soit f : R3 → R3 , f (x, y, z) = (2x − y, 3x − 2 y, 31 z). Calculer la matrice de f dans la base
canonique et déterminer le polynôme caractéristique de f . En déduire les sous-espaces stables
de l’application f .
POLYNÔMES D’ENDOMORPHISMES 3. THÉORÈME DE CAYLEY-HAMILTON 6
1 −1 0
2. Soit A = . Trouver une valeur propre de A et un vecteur propre associé. Montrer
−2 −1 −1
−1 −2 1 −1 0
que les vecteurs w1 = 0 et w2 = 1 engendrent un sous-espace stable de dimension 2
1 1
de cette matrice. En déduire une matrice P telle que P −1 AP soit une matrice diagonale par
blocs.
−2 0 −2
3. Soit f l’application linéaire définie par la matrice A = −1 1 −1 . Soit g l’application linéaire
2 0 1 4 0 4
définie par la matrice B = 3 3 3 . Montrer que f ◦ g = g ◦ f . Calculer Ker g et Im g, et
−2 0 −1
vérifier qu’ils sont stables par f . Calculer Ker f et Im f , et vérifier qu’ils sont stables par g.
3. Théorème de Cayley-Hamilton
3.1. Énoncé
χA(A) = 0.
χ f ( f ) = 0.
L’égalité χA(A) = 0 signifie que le polynôme caractéristique appliqué à A donne la matrice nulle.
L’égalité χ f ( f ) = 0 signifie que le polynôme caractéristique appliqué à f donne l’application nulle.
Exemple6.
1 −2
Soit A = ∈ M2 (R). Le polynôme caractéristique de A est
1 −1
1−X −2
χA(X ) = det(A − X I2 ) = = (1 − X )(−1 − X ) + 2 = X 2 + 1.
1 −1 − X
Vérifions le théorème de Cayley-Hamilton sur cet exemple, en calculant χA(A) :
χA(A) = A2 + I2 = −I2 + I2 = 0.
Exemple 7.
Plus généralement, en dimension 2, posons
a b
A= ∈ M2 (R).
c d
On sait que
χA(X ) = X 2 − (a + d)X + ad − bc.
Vérifions que χA(A) = 0 :
POLYNÔMES D’ENDOMORPHISMES 3. THÉORÈME DE CAYLEY-HAMILTON 7
3.2. Preuve
Démonstration du théorème de Cayley-Hamilton.
On suppose E de dimension finie n. Soit f un endomorphisme de E. Soit x un vecteur non nul de
E. Soit 1 6 p 6 n le plus grand entier tel que la famille
x, f (x), . . . , f p−1 (x)
soit libre. Alors, forcément, la famille
x, f (x), . . . , f p−1 (x), f p (x)
est liée et, plus précisément,
c0 x + c1 f (x) + · · · + c p−1 f p−1 (x) + f p (x) = 0 (1)
pour certains coefficients c0 , . . . , c p−1 ∈ K.
Posons F = Vect(x, f (x), . . . , f p−1 (x)). C’est un sous-espace vectoriel de E (de dimension p) stable
par f . En effet, notons v0 = x, v1 = f (x), . . . , vp−1 = f p−1 (x). Alors, pour 0 6 k 6 p − 2, on a
f (vk ) = vk+1 ∈ F ; et, par la relation (1),
f (vp−1 ) = f p (x) = −c0 v0 − c1 v1 − · · · − c p−1 vp−1 ∈ F.
De plus, la matrice de la restriction f|F dans la base
x, f (x), . . . , f p−1 (x)
est la matrice
0 · · · · · · 0 −c0
.. .. ..
1 . . .
. . . . .. ..
A=
0 . . . . .
. .. .. ..
.. . . 0 .
0 · · · 0 1 −c p−1
POLYNÔMES D’ENDOMORPHISMES 3. THÉORÈME DE CAYLEY-HAMILTON 8
Définition 2.
On dit qu’un polynôme P(X ) est un polynôme annulateur de la matrice A (ou de l’endomor-
phisme f ) si P(A) = 0 (ou P( f ) = 0).
Exemple 9.
• Soit p : E → E tel que p2 = p (c’est une projection). Alors X 2 − X est un polynôme annulateur
de p.
• Soit r : E → E tel que r 2 = id E (c’est une réflexion). Alors X 2 − 1 est un polynôme annulateur
de r.
Reformulation du théorème de Cayley-Hamilton :
Où chercher les valeurs propres, connaissant un polynôme annulateur mais ne connaissant pas le
polynôme caractéristique ?
Proposition 3.
Si P est un polynôme annulateur de f , alors
sp( f ) ⊂ { racines de P }.
Démonstration. Soit x est vecteur propre de f , associé à une valeur propre λ. Comme f (x) = λx,
on a :
∀k > 0 f k (x) = λk x
et plus généralement, pour tout polynôme Q(X ) :
Q( f )(x) = Q(λ)x
En particulier, comme P( f )(x) = 0, alors P(λ)x = 0, ce qui implique P(λ) = 0 car x 6= 0.
POLYNÔMES D’ENDOMORPHISMES 4. POLYNÔME MINIMAL 9
Mini-exercices.
−5 −3 3
1. Soit A = 7 3 −3 . Calculer le polynôme caractéristique de A. Vérifier que χA(A) = 0.
1 −2 2
2. Soit f : R → R défini par f (x 1 , x 2 , x 3 , x 4 ) = (3x 1 +5x 2 , −2x 1 −4x 2 , −x 4 , x 3 +2x 4 ). Calculer
4 4
4. Polynôme minimal
Nous venons de démontrer que si f est un endomorphisme et χ f est son polynôme caractéristique
alors χ f ( f ) = 0 (et de même χA(A) = 0 pour A ∈ Mn (K)). Nous allons démontrer qu’il existe un plus
petit polynôme ayant cette propriété, ce polynôme n’étant pas toujours le polynôme caractéristique.
4.1. Définition
Proposition 4.
Soit f un endomorphisme de E. Il existe un unique polynôme µ f (X ) ∈ K[X ] qui vérifie les trois
conditions suivantes :
• µ f (X ) est un polynôme annulateur pour f ;
• µ f (X ) est unitaire ;
• si P(X ) ∈ K[X ] est un polynôme annulateur de f alors deg µ f (X ) 6 deg P(X ).
Ce polynôme est appelé le polynôme minimal de f . C’est donc le polynôme unitaire de degré le
plus petit qui annule f . On définit de même le polynôme minimal µA(X ) d’une matrice A ∈ Mn (K).
Exemple 10.
Soit
0 −1 1
A = 1 2 −1 ∈ M3 (R).
1 1 0
Montrons que µA(X ) = X 2 − X .
• On vérifie que A2 − A = 0, donc le polynôme X 2 − X annule A.
• On vérifie que A− λI3 n’est jamais la matrice nulle (quel que soit λ ∈ R). Donc aucun polynôme
de degré 1 n’annule A.
• Le polynôme X 2 − X est donc le polynôme unitaire de plus petit degré annulant A. Conclusion :
µA(X ) = X 2 − X .
Autres exemples. Le polynôme minimal de la matrice identité I n est µA(X ) = X − 1 (quel que soit
n > 1). Le polynôme minimal de la matrice nulle est X .
Non seulement le polynôme minimal est le polynôme annulateur de degré le plus petit, mais c’est
aussi le plus petit au sens de la division des polynômes.
Proposition 5.
POLYNÔMES D’ENDOMORPHISMES 4. POLYNÔME MINIMAL 10
Démonstration.
• Notons n = dim E. Soit f un endomorphisme de E et soit χ f son polynôme caractéristique. Par
le théorème de Cayley-Hamilton, le polynôme χ f annule f . Ainsi, l’ensemble des polynômes P
non nuls vérifiant P( f ) = 0 n’est pas vide. Choisissons dans cet ensemble un polynôme Q de
degré minimal.
• Il est clair que tout polynôme multiple de Q s’annule également en f . En effet, si P = BQ, alors
P( f ) = B( f ) ◦ Q( f ) = 0 car Q( f ) = 0.
• Réciproquement, soit P ∈ K[X ] tel que P( f ) = 0. On effectue la division euclidienne de P par
Q : on obtient P = BQ + R avec deg R < deg Q. Ainsi
P( f ) = B( f ) ◦ Q( f ) + R( f ) = 0.
Comme de plus Q( f ) = 0, alors on déduit de la division euclidienne que l’on a aussi R( f ) = 0.
Par l’absurde, si R(X ) n’est pas le polynôme nul, alors on a obtenu un polynôme non nul qui
annule f et qui est de degré strictement inférieur à celui de Q ; c’est contradictoire avec le
choix de Q. Bilan : R = 0. D’où P = BQ, c’est-à-dire Q divise P.
• Vérifions l’unicité d’un tel Q s’il est choisi unitaire. Supposons qu’il existe Q 1 et Q 2 , tous deux
de degré minimal, unitaires et annulant f . Alors, par ce qui précède, Q 1 divise Q 2 et de même
Q 2 divise Q 1 , ce qui prouve que Q 1 = Q 2 .
µ f (X ) divise χ f (X )
Cela va impliquer que les racines du polynôme minimal sont exactement les valeurs propres :
Proposition 6.
Soit λ ∈ K. Alors :
Démonstration.
• ⇐=. On sait que µ f divise χ f . Comme χ f (X ) = B(X ) × µ f (X ) alors, si λ est racine du polynôme
minimal, µ f (λ) = 0 et donc χ f (λ) = B(λ) × µ f (λ) = 0. Donc λ est racine du polynôme
caractéristique : c’est donc une valeur propre de f .
POLYNÔMES D’ENDOMORPHISMES 4. POLYNÔME MINIMAL 11
• =⇒. Réciproquement, supposons que λ soit une valeur propre de f et notons x un vecteur
propre, de sorte que f (x) = λx. Alors, pour tout k > 0, f k (x) = λk x et plus généralement, pour
tout polynôme P ∈ K[X ], P( f )(x) = P(λ)x. Donc P(λ) est valeur propre de l’endomorphisme
P( f ). On applique ceci au polynôme minimal µ f (X ) : µ f ( f )(x) = µ f (λ)x. Or, par définition
du polynôme minimal, µ f ( f ) est l’endomorphisme identiquement nul. Ainsi µ f ( f )(x) = 0,
donc par l’égalité précédente µ f (λ)x = 0. Comme x 6= 0, alors µ f (λ) = 0.
Un cas particulier important : si le polynôme caractéristique est ±(X − λ)n , alors le polynôme
minimal est (X − λ)d avec 1 6 d 6 n.
Exemple 11.
Voici trois exemples, à vous de faire les calculs.
0 1 0 0 0 1 0 0 0 1 0 0
0 0 0 0 0 0 1 0 0 0 1 0
A
0 0 0 1 0
0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0
χA(X ) X 4
X4 X4
µA(X ) X2 X3 X4
Exemple 12 (Polynôme minimal d’une matrice diagonale).
Soit
λ1 0 · · · 0
. .
0 λ2 . . ..
D= . . .
.. .. ... 0
0 · · · 0 λn
Alors µ D (X ) = λ∈sp(D) (X − λ) où sp(D) = {λ1 , . . . , λn } et les valeurs propres sont comptées sans
Q
4.3. Diagonalisation
Nous arrivons à une nouvelle condition nécessaire et suffisante de diagonalisation.
Théorème 2.
Une matrice A ∈ Mn (K) (resp. un endomorphisme f ∈ L (E)) est diagonalisable sur K si et
seulement si son polynôme minimal est scindé à racines simples dans K.
On rappelle qu’un polynôme P(X ) ∈ K[X ] est scindé à racines simples dans K s’il se factorise
en :
P(X ) = a(X − λ1 ) · · · (X − λ r )
où a ∈ K et λ1 , . . . , λ r ∈ K sont deux à deux distincts.
∗
Exemple 13.
Soit
2 1 −1
A = −1 −1 3 .
0 −1 3
On a
2−X 1 −1
χA(X ) = −1 −1 − X 3 = (2 − X )(1 − X )2 .
0 −1 3−X
Le polynôme minimal µA de A divise χA et admet les mêmes racines : il est donc égal à (X −1)(X −2)
ou (X − 1)2 (X − 2). Or
−1 −1 1
(A − I3 )(A − 2I3 ) = 2 2 −2 6= 0,
1 1 −1
donc le polynôme minimal de A n’est pas (X − 1)(X − 2). Ainsi, le polynôme minimal est égal
à (X − 1)2 (X − 2), et en particulier il admet une racine double. Par conséquent, le théorème 2
implique que A n’est diagonalisable ni dans R ni dans C.
Démonstration.
• =⇒. Si A est diagonalisable, A est semblable à une matrice diagonale. Or deux matrices
semblables ont le même polynôme minimal (à faire en exercice). Donc il suffit de calculer le
polynôme minimal d’une matrice diagonale, ce qui est l’objet d’un exercice précédent (exemple
12) : ce polynôme est scindé à racines simples.
• ⇐=. On suppose que le polynôme minimal de A est scindé à racines simples : µA(X ) =
(X − λ1 ) · · · (X − λ r ) avec λ1 , . . . , λ r ∈ K deux à deux distincts.
— La décomposition en éléments simples de la fraction µA1(X ) donne :
1 a1 ar
= + ··· +
µA(X ) X − λ1 X − λr
où ai ∈ K pour tout 1 6 i 6 r. On multiplie par µA(X ) des deux côtés :
∗
µ (X ) µ (X )
1 = a1 A + · · · + ar A
X − λ1 X − λr
On définit les polynômes :
µ (X ) Y
Q i (X ) = A = (X − λ j )
X − λi j=1,...,r
j6=i
POLYNÔMES D’ENDOMORPHISMES 4. POLYNÔME MINIMAL 13
Donc
1 = a1Q 1 (X ) + · · · + a r Q r (X ).
— Si on applique cette égalité à la matrice A, on trouve :
I n = a1Q 1 (A) + · · · + a r Q r (A).
Soit un vecteur v ∈ Kn . On a :
v = a1Q 1 (A)(v) + · · · + a r Q r (A)(v). (2)
— Or, pour tout 1 6 i 6 r, Q i (A)(v) ∈ Ker(A − λi I n ). En effet,
(A − λi I n )(Q i (A)(v)) = µA(A)(v) = 0.
— Par conséquent, l’égalité (2) implique que v ∈ Ker(A− λ1 I n ) + · · · + Ker(A− λ r I n ). Ceci étant
vrai quel que soit v ∈ Kn , alors
Kn = Ker(A − λ1 I n ) + · · · + Ker(A − λ r I n ).
Mais, d’autre part, les valeurs propres étant distinctes, les sous-espaces propres sont en
somme directe (voir le chapitre « Diagonalisation »). En conclusion :
Kn = Ker(A − λ1 I n ) ⊕ · · · ⊕ Ker(A − λ r I n )
C’est exactement dire que A est diagonalisable.
Remarque : pour la réciproque, on peut aussi utiliser le lemme des noyaux (voir le chapitre
« Décomposition de Dunford et réduction de Jordan »).
Corollaire 1.
Une matrice A ∈ Mn (K) est diagonalisable sur K si et seulement si elle admet un polynôme
annulateur scindé à racines simples dans K.
Corollaire 2.
Soit f un endomorphisme de E, diagonalisable sur K. Si F est un sous-espace vectoriel de E stable
par f , alors la restriction f|F est encore diagonalisable sur K.
Démonstration. En effet,
µ f ( f ) = 0 =⇒ µ f ( f|F ) = 0 =⇒ µ f|F divise µ f .
Mais si µ f est scindé à racines simples dans K, tous ses diviseurs le sont aussi. En particulier, µ f|F
est scindé à racines simples dans K, donc f|F est diagonalisable.
Mini-exercices.
1. Soit P un polynôme annulateur d’un endomorphisme f . Montrer que, pour tout λ ∈ sp( f ),
P(λ) = 0.
2. Montrer que deux matrices semblables ont le même polynôme minimal.
3. Trouver le polynôme minimal de A = −1 1
. Cette matrice est-elle diagonalisable ? Même
1 1 −2 −4
3 1 0 −1
exercice avec B = 30 −13 , C =
12 −5 0 2 0 , D = 3 −2 5 .
−1 1 0 0 0 1
Auteurs du chapitre
D’après un cours de Sandra Delaunay et un cours d’Alexis Tchoudjem.
Revu et augmenté par Arnaud Bodin.
POLYNÔMES D’ENDOMORPHISMES 4. POLYNÔME MINIMAL 14
Nous avons vu que les matrices ne sont pas toutes diagonalisables. On peut néanmoins décomposer
certaines d’entre elles, en une forme la plus simple possible. Nous verrons trois décompositions.
• La trigonalisation : transformer une matrice en une matrice triangulaire.
• La décomposition de Dunford : écrire une matrice comme la somme d’une matrice diagonali-
sable et d’une matrice nilpotente.
• La réduction de Jordan : transformer une matrice en une matrice diagonale par blocs.
K sera le corps R ou C, E un K-espace vectoriel de dimension finie.
1. Trigonalisation
Nous allons montrer que toute matrice, dont le polynôme caractéristique est scindé, est semblable
à une matrice triangulaire.
1.1. Trigonalisation
On rappelle qu’une matrice A = (ai, j )16i, j 6n est triangulaire supérieure si ai, j = 0 dès que i > j :
a1,1 a1,2 · · · a1,n
. ..
0 a2,2 . . .
A= . . . .
.. .. .. a
n−1,n
0 ··· 0 an,n
Les coefficients sous la diagonale sont tous nuls. Ceux sur la diagonale ou au-dessus peuvent être
nuls ou pas.
Définition 1.
• Une matrice A ∈ Mn (K) est trigonalisable sur K s’il existe une matrice inversible P ∈ Mn (K)
inversible telle que P −1 AP soit triangulaire supérieure.
• Un endomorphisme f de E est trigonalisable s’il existe une base de E dans laquelle la
matrice de f soit triangulaire supérieure.
On rappelle qu’un polynôme est scindé sur K s’il se décompose en produit de facteurs linéaires
dans K[X ].
Remarquons que si K = C, par le théorème de d’Alembert-Gauss, on a :
Corollaire 1.
Toute matrice A ∈ Mn (C) est trigonalisable sur C.
1.2. Preuve
Démonstration.
• =⇒. Si f est trigonalisable, il existe une base de E dans laquelle la matrice de f s’écrit
a1,1 a1,2 · · · a1,n
. ..
0 a2,2 . . .
A= . . . .
.. .. .. a
n−1,n
0 ··· 0 an,n
On a alors
n
Y
χ f (X ) = χA(X ) = (ai,i − X ),
i=1
ce qui prouve que χ f se décompose en produit de facteurs linéaires dans K[X ].
• ⇐=. La démonstration se fait par récurrence sur la dimension n de l’espace vectoriel E. Si n = 1,
il n’y a rien à démontrer. Supposons le résultat vrai pour n − 1, n > 2 étant arbitrairement fixé.
Le polynôme χ f ayant au moins une racine dans K, notons λ l’une d’entre elles et v1 un vecteur
propre associé. Soit F l’hyperplan supplémentaire de la droite Kv1 : on a donc E = Kv1 ⊕ F .
On considère alors une base (v1 , v2 , . . . , vn ) de E avec, pour 2 6 i 6 n, vi ∈ F . La matrice de f
dans cette base s’écrit
λ ···
0
.
..
B
0
où B est une matrice carrée de taille (n − 1) × (n − 1). On a
χ f (X ) = (λ − X ) det(B − X I n−1 ) = (λ − X )χB (X ).
Notons g la restriction de f à F : la matrice de g dans la base (v2 , . . . , vn ) est égale à B. Par
hypothèse de récurrence, g (et donc B) est trigonalisable : en effet, χ f (X ) = (λ − X )χ g (X ),
et comme χ f est supposé scindé sur K, χ g l’est également. Par conséquent, il existe une base
(w2 , . . . , w n ) de F dans laquelle la matrice de g est triangulaire supérieure. Ainsi, dans la base
(v1 , w2 , . . . , w n ), la matrice de f est triangulaire supérieure.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 1. TRIGONALISATION 3
1.3. Exemple
Exemple 2.
Soit
1 4 −2
A = 0 6 −3 ∈ M3 (R).
−1 4 0
Démontrons que A est trigonalisable sur R et trouvons une matrice P telle que P −1 AP soit triangu-
laire supérieure.
1. Commençons par calculer le polynôme caractéristique de A :
1−X 4 −2
χA(X ) = 0 6−X −3 = · · · = (3 − X )(2 − X )2
−1 4 −X
Comme χA est scindé sur R, la matrice est trigonalisable sur R. (Nous verrons plus tard si elle
est diagonalisable ou pas.)
2. Les racines du polynôme caractéristique sont les réels 3 (avec la multiplicité 1), et 2 (avec la
multiplicité 2).
Déterminons les sous-espaces propres associés.
• Soit E3 le sous-espace propre associé à la valeur propre simple 3 : E3 = {v = (x, y, z) ∈ R3 |
Av = 3v}.
x + 4 y − 2z = 3x
v ∈ E3 ⇐⇒ Av = 3v ⇐⇒ 6 y − 3z = 3 y ⇐⇒ x = y = z
−x + 4 y = 3z
E3 est donc la droite vectorielle engendrée par le vecteur v1 = (1, 1, 1).
• Soit E2 le sous-espace propre associé à la valeur propre double 2 : E2 = {v = (x, y, z) ∈ R3 |
Av = 2v}.
x + 4 y − 2z = 2x
x = z
v ∈ E2 ⇐⇒ Av = 2v ⇐⇒ 6 y − 3z = 2 y ⇐⇒
4 y = 3z
−x + 4 y = 2z
Mini-exercices.
1. La matrice A = 28 −27
12 −8 est-elle trigonalisable sur R ? Si oui, trouver P telle que P −1 AP soit
triangulaire supérieure. Même question avec :
−7 −1 7 4 3 7 0
4 −3 5 2 −4 1 2 2 0
7 1 −2 −1 2 −1 0 0 0
−4 −7 −14 −3
2. Trouver deux matrices T, T 0 ∈ M3 (R) qui soient distinctes, triangulaires supérieures et sem-
blables.
2. Sous-espaces caractéristiques
Généralisation : soient P1 , . . . , Pr des polynômes deux à deux premiers entre eux. Alors :
Rappels.
• Soient P, Q ∈ K[X ]. On dit que P(X ) et Q(X ) sont premiers entre eux dans K[X ] si les seuls
polynômes qui divisent à la fois P et Q sont les polynômes constants.
• En particulier, sur C, deux polynômes sont premiers entre eux si et seulement s’ils n’ont pas de
racine commune.
• Le théorème de Bézout s’énonce ainsi :
P et Q sont premiers entre eux ⇐⇒ ∃A, B ∈ K[X ] AP + BQ = 1.
Démonstration. Soient P et Q deux polynômes premiers entre eux. Alors, d’après le théorème de
Bézout, il existe des polynômes A et B tels que AP + BQ = 1. On a donc, pour tout endomorphisme
f :
A( f ) ◦ P( f ) + B( f ) ◦ Q( f ) = id E .
Autrement dit, pour tout x ∈ E :
A( f ) ◦ P( f )(x) + B( f ) ◦ Q( f )(x) = x.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 2. SOUS-ESPACES CARACTÉRISTIQUES 5
Pour λ valeur propre de f , on a Eλ ⊂ Nλ , car Ker( f − λ id E ) ⊂ Ker( f − λ id E )k quel que soit k > 1.
Exemple 3.
Soit
−2 3 0 0
−3 4 0 0
A=
1
∈ M (R).
4
1 1 0
9 −5 −1 3
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 2. SOUS-ESPACES CARACTÉRISTIQUES 6
Théorème 2.
Soit f un endomorphisme de E tel que χ f est scindé sur K. Notons χ f (X ) = ±(X − λ1 )m1 · · · (X −
λ r )mr et, pour 1 6 i 6 r, Nλi le sous-espace caractéristique associé à la valeur propre λi . Alors :
1. Chaque Nλi est stable par f .
2. E = Nλ1 ⊕ · · · ⊕ Nλr .
3. dim Nλi = mi .
Autrement dit, l’espace vectoriel E est la somme directe des sous-espaces caractéristiques. En plus,
la dimension du sous-espace caractéristique associé à la valeur propre λ est la multiplicité de λ
comme racine du polynôme caractéristique.
Exemple 4.
Reprenons l’exemple 3 :
• 3 est valeur propre de multiplicité 1, et on a bien dim N3 = 1,
• 1 est valeur propre de multiplicité 3, et on a bien dim N1 = 3,
• on a bien R4 = N3 ⊕ N1 .
Démonstration.
1. Soit x ∈ Nλ = Ker( f − λ id E )m . On a ( f − λ id E )m (x) = 0. Or
( f − λ id E )m ◦ f (x) = f ◦ ( f − λ id E )m (x) = 0,
d’où f (x) ∈ Nλ .
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 7
Mini-exercices.
−2 −2 −1 −3
1. Calculer les sous-espaces caractéristiques de la matrice A = 00 −2 0 3
1 −2 1 . Même exercice
1 −2 2 2 2 0 −3 0 4
2 6 −5 −3 −4
avec B = 2 3 −2 −3 −5 .
0 1 −1 2 0
0 −1 1 1 4
3. Décomposition de Dunford
Nous allons montrer que toute matrice, dont le polynôme caractéristique est scindé, peut s’écrire
comme somme d’une matrice diagonalisable et d’une matrice nilpotente. Autrement dit, cette
matrice est semblable à la somme d’une matrice diagonale et d’une matrice nilpotente.
3.1. Énoncé
Définition 3.
On dit qu’un endomorphisme f (resp. une matrice A) est nilpotent(e) s’il existe k ∈ N∗ tel que
f k = 0 (resp. Ak = 0).
Nous allons démontrer que les endomorphismes nilpotents et les endomorphismes diagonalisables
permettent de décrire tous les endomorphismes dont le polynôme caractéristique est scindé sur K
(c’est-à-dire ceux trigonalisables).
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 8
Remarque importante.
Attention ! ∆ est une matrice diagonalisable, pas nécessairement une matrice diagonale.
Comme ∆ est diagonalisable, alors il existe une matrice inversible P et une matrice diagonale D
telles que D = P −1 ∆P. Si on note N 0 = P −1 N P alors N 0 est encore nilpotente et N 0 D = DN 0 . Une
autre façon d’écrire la décomposition de Dunford est alors P −1 AP = D + N 0 . C’est dire que A est
semblable à la somme d’une matrice diagonale avec une matrice nilpotente.
3.2. Lemmes
Avant de démontrer ces théorèmes, nous allons démontrer des lemmes dont les résultats nous
seront utiles.
Lemme 2.
Si f est nilpotent, alors 0 est son unique valeur propre et on a
χ f (X ) = (−1)n X n .
Démonstration.
• Notons A la matrice de f dans une base. Comme f est nilpotent, il existe k > 1 tel que Ak = 0.
Cela implique det(Ak ) = 0, donc det(A) = 0. La matrice A n’est donc pas inversible : cela
entraîne que f n’est pas bijectif, et comme f est un endomorphisme, f n’est pas non plus
injectif (la dimension de l’espace de départ égale la dimension de l’espace d’arrivée). Ainsi,
Ker f 6= {0}, ce qui est exactement dire que 0 est une valeur propre de f .
• Supposons que λ soit une valeur propre de f : il existe alors x 6= 0 tel que f (x) = λx. Par
récurrence sur n, f n (x) = λn x. Or, f est supposé nilpotent, il existe donc k ∈ N∗ tel que f k = 0.
D’où λk x = 0, ce qui implique λk = 0 (car x 6= 0), donc λ = 0.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 9
• Ainsi, 0 est la seule valeur propre de f , donc la seule racine de son polynôme caractéristique.
• Si K = R, on considère l’endomorphisme comme aussi défini sur C. En termes de matrice, cela
revient à dire que la matrice à coefficients réels A peut être vue aussi comme à coefficients
complexes. Or, sur C, un polynôme dont la seule racine est 0 est de la forme αX n , donc
χ f (X ) = (−1)n X n puisque le coefficient dominant d’un polynôme caractéristique est (−1)n .
Lemme 3.
Soit f un endomorphisme de E diagonalisable. On note λ1 , . . . , λ r ses valeurs propres et Eλ1 , . . . , Eλr
les sous-espaces propres correspondants. Si F est un sous-espace de E stable par f , alors on a
F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).
Lemme 4.
Si f est diagonalisable et F est un sous-espace vectoriel de E, stable par f , alors la restriction de f
à F est aussi diagonalisable.
Démonstration. Notons g la restriction de f au sous-espace F : g = f|F qui est bien définie car
F est stable par f . Soient λ1 , . . . , λ r les valeurs propres de f . L’endomorphisme f étant supposé
diagonalisable, on a
E = Eλ1 ⊕ · · · ⊕ Eλr ,
où les Eλi sont les sous-espaces propres de f . On obtient grâce au lemme 3 que
F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).
Or, quel que soit µ ∈ K, Ker(g − µ id F ) = F ∩ Ker( f − µ id E ), donc les valeurs propres de g, notées
µ1 , . . . , µs , appartiennent à l’ensemble {λ1 , . . . , λ r }. Ces µi forment exactement l’ensemble des
valeurs de {λ1 , . . . , λ r } pour lesquelles F ∩ Eλi 6= {0}. On a donc
F = Ker(g − µ1 id F ) ⊕ · · · ⊕ Ker(g − µs id F ),
ce qui prouve que g est diagonalisable.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 10
Lemme 5.
Soient f et g deux endomorphismes diagonalisables. On suppose que f ◦ g = g ◦ f . Alors il existe
une base commune de vecteurs propres de f et de g.
Autrement dit, si A, B ∈ Mn (K) sont diagonalisables et commutent, alors on peut les diagonaliser
dans une base commune, c’est-à-dire qu’il existe une matrice P ∈ Mn (K) inversible telle que P −1 AP
et P −1 BP soient toutes les deux diagonales.
3.3. Preuve
Passons à la démonstration du théorème de décomposition de Dunford. Voici l’idée générale :
• On décompose l’espace vectoriel E en somme des sous-espaces caractéristiques Nλi , où les λi
sont les valeurs propres de f .
• Sur chacun de ces sous-espaces, on décompose la restriction de f en di + ni , avec di = λi idNλi
qui est bien sûr diagonalisable.
• On montre que ni , qui est f − di restreint à Nλi , est nilpotent.
• Comme di est λi fois l’identité, alors di commute en particulier avec ni .
Démonstration.
Construction.
• Soit χ f le polynôme caractéristique de f qui, par hypothèse, est scindé sur K. Notons λi une
valeur propre de f , et mi sa multiplicité en tant que racine du polynôme caractéristique :
Yr
χ f (X ) = ± (X − λi )mi .
i=1
On pose enfin
n(x) = f (x) − d(x).
Il nous reste à vérifier que n et d conviennent.
Propriétés.
1. Par construction, d est diagonalisable. En effet, fixons une base pour chaque sous-espace Nλi .
Pour chaque vecteur x de cette base, d(x) = λi x. Comme E est somme directe des Nλi alors,
dans la base de E formée de l’union des bases des Nλi (1 6 i 6 r), la matrice de d est diagonale.
2. On a défini n = f − d. Nλi est stable par n (car c’est vrai pour f et d). On pose ni = n|Nλ =
i
m m
f|Nλ −λi idNλ . Alors, par définition, Nλi = Ker(ni i ), et donc ni i = 0. Ainsi, en posant m = max mi
i i
(1 6 i 6 r), puisque nm s’annule sur chaque Nλi , alors nm = 0, ce qui prouve que n est nilpotent.
3. On va vérifier que d ◦ n = n ◦ d. Si x ∈ E, il se décompose en x = x 1 + · · · + x r avec x i ∈ Nλi
pour 1 6 i 6 r. Sur chaque Nλi , d|Nλ = λi idNλ donc commute avec tout endomorphisme. En
i i
particulier, d ◦ n(x i ) = n ◦ d(x i ) puisque Nλi est stable par n. On a donc
d ◦ n(x) = d ◦ n(x 1 + · · · + x r ) = d ◦ n(x 1 ) + · · · + d ◦ n(x r ) = n ◦ d(x 1 ) + · · · + n ◦ d(x r ) = n ◦ d(x).
Ainsi, d et n commutent.
4. Il reste à prouver l’unicité. Supposons que (n, d) soit le couple construit ci-dessus et soit (n0 , d 0 )
un autre couple vérifiant les propriétés (i), (ii), (iii) de la décomposition de Dunford.
• Montrons que d et d 0 commutent, ainsi que n et n0 .
On a f = d + n = d 0 + n0 , d’où
d ◦ f = d ◦ (d + n) = d ◦ d + d ◦ n = d ◦ d + n ◦ d = (d + n) ◦ d = f ◦ d.
Ainsi, f et d commutent et on montre de même que f et d 0 commutent. Montrons que Nλi
est stable par d 0 . Soit x ∈ Nλi = Ker( f − λi id E )mi . Alors
( f − λi id E )mi ◦ d 0 (x) = d 0 ◦ ( f − λi id E )mi (x) = 0.
Donc d 0 (x) ∈ Nλi .
Par construction, d|Nλ = λi idNλ , donc d et d 0 commutent sur chaque Nλi , donc sur E tout
i i
entier.
Or n = f − d et n0 = f − d 0 donc, comme d et d 0 commutent et f commute avec d et d 0 ,
alors n et n0 commutent également.
• Comme d et d 0 commutent, d’après le lemme 5, il existe une base commune de vecteurs
propres. En particulier, d − d 0 est diagonalisable.
• Comme les endomorphismes n et n0 sont nilpotents et commutent, n − n0 est également
nilpotent. En effet, si p et q sont des entiers tels que n p = 0 et n0q = 0, alors (n − n0 ) p+q = 0
(écrire la formule du binôme de Newton et voir que, dans chaque terme nk n0p+q−k , on a
k > p ou p + q − k > q).
• Ainsi d − d 0 = n0 − n est un endomorphisme qui est à la fois diagonalisable et nilpotent.
Comme il est nilpotent, sa seule valeur propre est 0 (c’est le lemme 2). Et comme il est
diagonalisable, c’est nécessairement l’endomorphisme nul. On a donc d − d 0 = n0 − n = 0.
• Conclusion : d = d 0 , n = n0 , ce qui termine la preuve de l’unicité.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 12
3.4. Exemples
Piège classique
Attention, une matrice triangulaire peut toujours s’écrire comme somme d’une matrice diagonale
et d’une matrice nilpotente, mais, en général, celles-ci ne commutent pas.
Retenez bien ce contre-exemple pour éviter ce piège classique.
Exemple 5.
Soient
1 3 1 0 0 3
A= D̃ = Ñ = .
0 2 0 2 0 0
Alors on a bien A = D̃ + Ñ , D̃ est diagonale, Ñ est nilpotente (Ñ 2 = 0). Pourtant, ce n’est pas la
décomposition de Dunford car les matrices ne commutent pas : D̃ Ñ 6= Ñ D̃.
La décomposition de Dunford est tout simplement D = A, et N est la matrice nulle. D est bien
diagonalisable (son polynôme caractéristique est scindé à racines simples) mais n’est pas diagonale ;
N est nilpotente et DN = N D.
Pratique de la décomposition
La méthode pour trouver la décomposition de Dunford d’une matrice A ∈ Mn (K) consiste à suivre
les étapes de la preuve.
1. On calcule le polynôme caractéristique χA de A : il doit être scindé. On calcule ses racines, qui
sont les valeurs propres de A.
2. Pour chaque valeur propre λ, de multiplicité m comme racine de χA, on note Nλ = Ker(A−λI n )m .
C’est un espace vectoriel de dimension m. On détermine m vecteurs formant une base de Nλ .
L’union de toutes les bases Bλ des Nλ forme une base B = (v1 , . . . , vn ) de Kn .
3. On définit l’endomorphisme d par d(vi ) = λvi pour chaque vi ∈ Nλ . (Dans la base B, la matrice
de d est diagonale.) On note B0 = (e1 , . . . , en ) la base canonique de Kn . (A est la matrice de
l’endomorphisme f dans la base B0 .) ∆ sera la matrice de d dans la base B0 , c’est-à-dire que
les colonnes de ∆ sont les coordonnées des d(ei ) exprimées dans la base (e1 , . . . , en ).
4. On pose N = A− ∆. Par la démonstration du théorème 4, ∆ est diagonalisable, N est nilpotente
et ∆N = N ∆. La matrice de passage P de la base B vers la base canonique B0 transforme ∆
en une matrice diagonale D = P −1 ∆P.
On commence par un exemple où les calculs sont assez simples.
Exemple 6.
Calculons la décomposition de Dunford de la matrice
1 1 1
A = 0 1 1 ∈ M3 (R).
0 0 2
Évitons le piège d’écrire :
1 0 0 0 1 1
A = 0 1 0 + 0 0 1
0 0 2 0 0 0
| {z } | {z }
D̃ Ñ
D̃ est diagonale (donc diagonalisable) et Ñ est nilpotente, mais on peut vérifier que les matrices
ne commutent pas : D̃ Ñ 6= Ñ D̃.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 3. DÉCOMPOSITION DE DUNFORD 13
Le sous-espace N2 = Ker(A − 2I3 ) est donc la droite vectorielle engendrée par le vecteur
v3 = (2, 1, 1) : N2 = Rv3 .
• La famille B = (v1 , v2 , v3 ) est une base de R3 :
R3 = Rv1 ⊕ Rv2 ⊕ Rv3 .
| {z } |{z}
N1 N2
Donc
d(e1 ) d(e2 ) d(e3 )
e1 1 0 2
∆ = MatB0 d = e2 0 1 1 .
e3 0 0 2
4. On pose
0 1 −1
N = A − ∆ = 0 0 0 .
0 0 0
La décomposition de Dunford est A = ∆ + N . La preuve du théorème de la décomposition
affirme que ∆ est diagonalisable, N est nilpotente et ∆N = N ∆ (c’est un bon exercice de le
vérifier à la main).
5. On note P la matrice de passage de la base B0 vers la base B. P contient donc, en colonnes,
les vecteurs de la nouvelle base B = (v1 , v2 , v3 ) exprimés dans l’ancienne base B0 = (e1 , e2 , e3 ).
Comme v1 = e1 , v2 = e2 et v3 = 2e1 + e2 + e3 , alors
v1 v2 v3
e1 1 0 2 1 0 −2
P = e2 0 1 1 et on calcule P −1 = 0 1 −1 .
e3 0 0 1 0 0 1
Si besoin, on peut diagonaliser ∆ :
1 0 0
D = P −1 ∆P = 0 1 0
0 0 2
Remarque. D et N sont uniques, mais il y a plusieurs choix possibles pour les vecteurs vi et donc
pour la matrice P.
Exemple 8.
Calculons Ap , quel que soit p ∈ N, pour
2 1 −1
A = 3 3 −4 ∈ M3 (R).
3 1 −2
1. Nous avons déjà calculé la décomposition de Dunford de A :
2 0 0 0 1 −1
∆ = 3 2 −3 N = 0 1 −1 .
3 0 −1 0 1 −1
2. On a aussi calculé la matrice de passage P qui diagonalise ∆.
0 1 1 −1 0 0
Avec P = 1 1 0 on a D = P −1 ∆P = 0 2 0 .
1 1 1 0 0 2
Et donc, pour tout k > 0 :
(−1)k 0 0
Dk = 0 2k 0 .
0 0 2k
3. Pour la partie nilpotente, on pose
0 0 0
N 0 = P −1 N P = 0 0 −1 avec N 02 = 0.
0 0 0
4. La formule du binôme de Newton se réduit donc à seulement deux termes :
p p−1 0 p p−2 02
(D + N ) = D +
0 p p
D N + D N + · · · = D p + pD p−1 N 0
1 2
Donc
(−1) p 0 0 (−1) p 0
0 0 0 0
(D + N 0 ) p = 0 2 p 0 + p 0 0 −2 p−1 = 0 2 p −p2 p−1 .
0 0 2p 0 0 0 0 0 2p
5. Ainsi, pour p > 0 :
2p p2 p−1 −p2 p−1
Ap = P(D + N 0 ) p P −1 = 2 p − (−1) p p2 p−1 + 2 p −p2 p−1 − 2 p + (−1) p
2 p − (−1) p p2 p−1 −p2 p−1 + (−1) p
Mini-exercices.
−6 −5 −5
1. Montrer que la décomposition de Dunford de la matrice A = 2 0 6 est A = ∆ + N avec
−6 −5 −5 0 0 0 −2 4 −2
∆ = 0 −1 5 et N = 2 1 1 . Même exercice avec
0 5 −1 −2 −1 −1
1 2 3 1 2 −2 0 0 5
A = 0 −2 3
0
∆0 = 0 −2 3 N0 = 0 0 0 .
0 0 1 0 0 1 0 0 0
−3 3 6 −2 1 0 3 −2
2. Calculer la décomposition de Dunford de 1 −1 0 0 . Même exercice avec 33 40 −3
−3 3 6 −2 0
1 −2 .
−7 9 10 −4 3 0 −3 4
3. Montrer que la décomposition
de Dunford de la matrice A = 7 1
−1 5 est A = ∆ + N avec
∆ = 60 06 et N = −11 1
−1 . Calculer Ap
pour tout p > 0.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 4. RÉDUCTION DE JORDAN 17
4. Réduction de Jordan
Nous allons montrer que toute matrice, dont le polynôme caractéristique est scindé, est semblable
à une matrice diagonale par blocs, avec des blocs « presque » diagonaux.
Définition 4.
Un bloc de Jordan est une matrice de la forme
λ 1 0
0
..
0 λ . 0
J(λ) = . . ∈ M p (K)
.. . . . . . 1
0 ... 0 λ
avec λ ∈ K et p > 1.
C’est donc une matrice triangulaire supérieure, avec des coefficients λ sur la diagonale, des 1 juste
au-dessus de la diagonale, puis des 0 encore au-dessus.
Exercice 1.
Pour un bloc de Jordan de taille p × p, calculer (J(λ) − λI p )k pour tout k > 1. En particulier,
montrer que, pour (J(λ) − λI p ) p−1 , il ne reste plus qu’un coefficient 1, tout en haut à droite, et que
(J(λ) − λI p ) p est la matrice nulle.
Exercice 2.
Pour un bloc de Jordan J(λ) ∈ M p (K), montrer que son polynôme caractéristique est (−1) p (X −λ) p
et que son polynôme minimal est (X − λ) p .
Définition 5.
Une matrice de Jordan est une matrice diagonale par blocs de la forme
J1 (λ1 ) O O O
O
J2 (λ2 ) O O
..
O O . O
O O O J r (λ r )
où les Ji (λi ) sont des blocs de Jordan.
Les blocs de Jordan peuvent être de tailles différentes, et les valeurs λi ∈ K sont quelconques
(certaines d’entre elles peuvent être égales). La notation O désigne une matrice nulle (elles peuvent
être de tailles différentes).
Exemple 9.
Voici une matrice de Jordan :
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 4. RÉDUCTION DE JORDAN 18
−3 1 0 0 0 0 0 0 0
0 −3 0 0 0 0 0 0 0
0 0 −3 1 0 0 0 0 0
0 0 0 −3 1 0 0 0 0
0 0 0 0 −3 0 0 0 0
0 0 0 0 0 2 0 0 0
0 0 0 0 0 0 5 1 0
0 0 0 0 0 0 0 5 1
0 0 0 0 0 0 0 0 5
4.2. Énoncé
Théorème 5.
Si A ∈ Mn (K) a son polynôme caractéristique scindé sur K, alors A est semblable (sur K) à une
matrice de Jordan, appelée réduite de Jordan de A. Il existe donc P ∈ Mn (K) inversible telle que
J1 O O
P −1 AP = O . . . O
O O Jr
où les Ji sont des blocs de Jordan.
O O Jr
Nous admettons ces théorèmes, mais nous verrons sur des exemples comment obtenir la matrice
de Jordan.
• Unicité. Cette décomposition est unique dans le sens où le nombre et la taille des blocs de
Jordan ne dépendent que de A (ou de f ). Par contre, on s’autorise à permuter les blocs de
Jordan entre eux.
4.3. Exemples
Voici une méthode basique pour trouver la réduite de Jordan d’une matrice A ∈ Mn (K), ainsi qu’une
matrice de passage :
• Calculer le polynôme caractéristique et les valeurs propres de A.
• Pour chaque valeur propre λ, calculer le sous-espace propre Eλ = Ker(A − λI n ) et trouver une
base de Eλ . Le nombre de blocs de Jordan associés à λ est dim Eλ .
• Pour chaque vecteur propre de la base de Eλ , on construit le bloc de Jordan associé :
— Si v1 ∈ Eλ est un vecteur propre de la base de Eλ , alors on cherche v2 ∈ Kn tel que
(A − λI n )v2 = v1 .
— Puis on cherche s’il existe v3 ∈ Kn tel que (A − λI n )v3 = v2 .
— On arrête le processus lorsqu’il n’y pas de solution.
— On a Av1 = λv1 , puis Av2 = v1 + λv2 , . . . , Avp = vp−1 + λvp .
— Donc, dans le sous-espace engendré par ces (v1 , v2 , . . . , vp ), la matrice associée à A, dans
cette base, est exactement le bloc de Jordan :
Av1 Av2 ··· Avp
v1 λ 1 0 0
..
v2 0 λ . 0
J(λ) = . .. .. ..
..
. . . 1
vp 0 ... 0 λ
— On peut aussi savoir quand s’arrêter en utilisant le fait que le bloc de Jordan est toujours d’une
taille p inférieure ou égale à la multiplicité de λ comme racine du polynôme caractéristique
(et même du polynôme minimal).
• On recommence avec v10 , un autre vecteur de la base de Eλ : on construit v20 , v30 ,. . . ce qui
conduit à un autre bloc de Jordan pour la valeur λ. On procède ainsi de suite pour tous les
vecteurs de la base de Eλ et ensuite bien sûr pour les autres valeurs propres.
Exemple 10.
Soit
4 3 −2
A = −3 −1 3 ∈ M3 (R).
2 3 0
Calculons sa réduite de Jordan J et une matrice de passage P telle que P −1 AP = J.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 4. RÉDUCTION DE JORDAN 20
2x + 3 y − 2z = 1 2x + 3 y = 1 + 2z x = −1 + z
⇐⇒ ⇐⇒ ⇐⇒
x + y −z = 0 x+y = z y = 1
En prenant par exemple z = 0 (n’importe quelle valeur conviendrait), on choisit v3 = (−1, 1, 0).
5. Matrice de Jordan.
Dans la base (v1 , v2 , v3 ), on a Av1 = −v1 , Av2 = 2v2 , et comme (A−2I3 )v3 = v2 alors Av3 = v2 +2v3 .
La matrice associée à A dans la base (v1 , v2 , v3 ) est donc :
Av1 Av2 Av3
v1 −1 0 0
J = v2 0 2 1
v3 0 0 2
Autrement dit, J = P −1 AP où P est la matrice dont les colonnes sont les vecteurs v1 , v2 , v3
exprimés dans la base canonique :
−1 1 −1 1 1 −1
P = 1 0 1 et on a P −1 = 1 1 0 .
−1 1 0 −1 0 1
Exemple 11.
Soit
5 0 4 −2 −3
−2 3 −3 2 4
A= 0 0 3 0 0 ∈ M5 (R).
0 0 0 3 1
1 0 2 −1 1
Calculons sa réduite de Jordan J.
1. Le polynôme caractéristique de A vaut
χA(X ) = det(A − X I5 ) = · · · = −(X − 3)5 .
Il y a donc une seule valeur propre : λ = 3.
2. Valeur propre 3.
La valeur propre 3 est de multiplicité 5. Il faut ensuite calculer le sous-espace propre associé :
E3 = Ker(A − 3I5 ) = {v ∈ R5 | Av = 3v}. On calcule A − 3I5 , et on trouve une base (v1 , v3 ) de
E3 :
v1 = (0, 1, 0, 0, 0) et v3 = (1, 0, 0, 1, 0).
Ainsi dim E3 = 2 alors que la multiplicité de λ est 5. La matrice A n’est pas diagonalisable. Il y
aura donc deux blocs de Jordan associés à la valeur propre 3. (Cela peut être un de taille 1 × 1
avec un de taille 4 × 4, ou bien 2 × 2 avec 3 × 3.)
3. Matrice de Jordan.
• On cherche si on peut trouver v2 ∈ R5 tel que (A − 3I5 )v2 = v1 . Une solution possible
est v2 = (−2, 0, 1, 0, 0). Le processus s’arrête là, car il n’y a aucune solution v au système
(A − 3I5 )v = v2 . (En effet, la troisième ligne de A − 3I5 est nulle, alors que la troisième
coordonnée de v2 ne l’est pas.) On obtient donc un bloc de Jordan 2 × 2.
• On fait le même travail pour l’autre bloc de Jordan, en partant du vecteur v3 = (1, 0, 0, 1, 0) ∈
E3 . On cherche maintenant v4 ∈ R5 tel que (A − 3I5 )v4 = v3 . Après calculs, on trouve
v4 = (2, 0, 0, 0, 1). On cherche v5 tel que (A − 3I5 )v5 = v4 . On trouve v5 = (−3, 0, 2, 0, 0). Le
processus s’arrête là, ce qui correspond à un bloc de Jordan de taille 3 × 3.
On a Av1 = 3v1 , Av2 = v1 + 3v2 , Av3 = 3v3 , Av4 = v3 + 3v4 , Av5 = v4 + 3v5 .
Dans la base (v1 , v2 , v3 , v4 , v5 ), la matrice associée à A est :
3 1 0 0 0
0 3 0 0 0
J = 0 0 3 1 0
0 0 0 3 1
0 0 0 0 3
Ainsi J = P −1 AP, où la matrice P est la matrice dont les colonnes sont les vecteurs v1 , . . . , v5
exprimés dans la base canonique.
4.4. Applications
Exemple 12.
Si A ∈ Mn (C), alors A est semblable à sa transposée AT .
En effet, il suffit de le vérifier lorsque A est un bloc de Jordan.
DÉCOMPOSITION DE DUNFORD ET RÉDUCTION DE JORDAN 4. RÉDUCTION DE JORDAN 22
Exemple 13.
Si N ∈ M4 (K) est nilpotente (c’est-à-dire N 4 = 0), alors N est semblable à une et une seule des 5
matrices suivantes :
0 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0
0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Il y a une infinité de matrices nilpotentes 4 × 4, mais il n’y en a que 5 à similitude près.
Exemple 14.
Si A ∈ M3 (K) a pour polynôme caractéristique χA(X ) = −(X − 1)(X − 2)2 , alors A est semblable à
l’une des deux matrices suivantes :
1 0 0 1 0 0
0 2 0 0 2 1
0 0 2 0 0 2
Mini-exercices.
1. Montrer que J(λ) − µI p est inversible si µ 6= λ.
2. Montrer qu’une matrice de Jordan est diagonalisable si et seulement si ses blocs sont tous de
taille 1.
3. Montrer qu’un bloc de Jordan J est semblable à sa transposée J T .
2 2 −8
4. Calculer la réduction de Jordan de la matrice A = 8 −4 −17 , c’est-à-dire trouver P telle que
−1 1 0
J = P −1 AP soit une matrice de Jordan. Même exercice avec :
2 −3 3 −2 0
3 −1 −1 −2 2 −4 9 2 −1 0 1 −2
−1 5 1 −2 2 −3 6 −3 0 5 −6 3
2 0 4 1 −1 2 −3 −4 0 5 −6 4
0 0 0 1 −2 −3 7 −6 4
Auteurs du chapitre
D’après un cours de Sandra Delaunay et un cours d’Alexis Tchoudjem.
Revu et augmenté par Arnaud Bodin.
Relu par Stéphanie Bodin et Vianney Combet.
Systèmes différentiels
Nous allons voir comment des méthodes d’algèbre linéaire permettent de résoudre des problèmes
d’analyse.
Dans ce chapitre, les matrices sont à coefficients réels ou complexes.
1.1. Introduction
Vous savez résoudre les équations différentielles du type x 0 (t) = ax(t), où la dérivée x 0 (t) est liée
à la fonction x(t). Par exemple, si a est une constante, les fonctions solutions sont les x(t) = x 0 e at
(où x 0 ∈ R). Plus généralement, on apprend à résoudre les équations x 0 (t) = a(t)x(t) + b(t) où a
et b sont des fonctions de t. Dans tous les cas, l’exponentielle joue un rôle central dans l’écriture
des solutions.
Considérons maintenant le système différentiel suivant :
x (t) = a x(t) + b y(t)
0
(S)
y 0 (t) = c x(t) + d y(t)
La situation se complique car les équations sont enchevêtrées : x 0 (t) est liée à x(t), mais aussi
à y(t). Donc il faudrait d’abord trouver y(t) pour résoudre la première équation. Mais, dans la
seconde équation, y 0 (t) est liée à y(t), mais aussi à x(t), que l’on n’a pas encore su trouver !
Pour s’en sortir, la solution consiste à considérer le couple (x(t), y(t)) comme une seule variable.
On pose
(t)
0
x(t) x a b
X (t) = , X 0 (t) = , A= .
y(t) y 0 (t) c d
Le système différentiel (S) s’écrit alors simplement :
X 0 (t) = AX (t).
On a alors envie de dire que, comme pour une équation du type x 0 (t) = ax(t), les solutions de ce
type d’équation seraient les fonctions définies par
X (t) = e tA · X 0
(où X 0 ∈ R2 ) et ce sera effectivement le cas, une fois que l’on aura défini ce qu’est l’exponentielle
d’une matrice !
Pour l’instant, nous allons voir comment résoudre un système différentiel dans le cas particulier
où la matrice est diagonalisable.
SYSTÈMES DIFFÉRENTIELS 1. CAS D’UNE MATRICE DIAGONALISABLE 2
X 0 (t) = AX (t).
Résoudre le système linéaire X 0 = AX , avec A ∈ Mn (R) (ou A ∈ Mn (C)) une matrice constante,
c’est donc trouver X (t) dérivable (c’est-à-dire n fonctions x 1 (t), . . . , x n (t) dérivables) tel que
X 0 (t) = AX (t), pour tout t ∈ R.
Remarque.
• Dans le cas n = 1, on retrouve simplement une seule équation que l’on écrit x 0 (t) = ax(t) et
dont les solutions sont les x(t) = x 0 e at , pour n’importe quelle constante (réelle ou complexe)
x0.
• L’ensemble des solutions est un espace vectoriel. En effet, on prouve facilement que l’ensemble
des solutions est un sous-espace vectoriel de l’ensemble des fonctions dérivables de R dans
Rn : la fonction identiquement nulle est solution et, si X 1 et X 2 sont solutions, alors λX 1 + µX 2
est aussi solution (avec λ, µ ∈ R).
Exemple 1 (Système diagonal).
Si A est une matrice diagonale à coefficients réels, alors le système s’écrit X 0 = AX avec
λ1 0 · · · 0
x 1 (t) = λ1 x 1 (t)
0
.. ..
0
. . ..
A= . . , c’est-à-dire .
.. .. 0
x n (t) = λn x n (t).
0
0 · · · 0 λn
On résout indépendamment chaque équation x i0 (t) = λi x i (t), dont les solutions sont les x i (t) =
ki eλi t , ki ∈ R. Les solutions X (t) sont donc les fonctions
λ1 t
k1 e
.
X (t) = ..
k n e λn t
où k1 , . . . , kn sont des constantes réelles.
Exemple 2 (Système triangulaire).
Un système triangulaire n’est pas tellement plus compliqué à résoudre. En effet, si A est une matrice
SYSTÈMES DIFFÉRENTIELS 1. CAS D’UNE MATRICE DIAGONALISABLE 3
triangulaire, on a :
x 1 = a11 x 1 + · · · + · · · + a1n x n
0
x0 =
a22 x 2 + · · · + a2n x n
2
..
.
xn =
0
ann x n
On résout le système de proche en proche : on peut d’abord intégrer la dernière équation, puis
reporter la solution dans l’équation précédente (qui devient une équation du type x 0 (t) = ax(t) +
b(t)) et ainsi en remontant intégrer tout le système.
Exemple 3.
Soit A = −1 1 . On a χA(X ) = (X − 2) , la seule valeur propre de A est donc λ = 2. Déterminons un
3 1 2
Théorème 1.
Soit A ∈ Mn (R) une matrice diagonalisable sur R. Notons (V1 , . . . , Vn ) une base de vecteurs propres
et λ1 , . . . , λn les valeurs propres correspondantes. Alors les fonctions X i (t) = eλi t Vi (1 6 i 6 n)
forment une base de l’espace des solutions du système X 0 = AX .
Démonstration.
• Tout d’abord, par la proposition 1, les X i (t) = eλi t Vi sont bien des solutions du système diffé-
rentiel.
• Montrons que ces solutions sont linéairement indépendantes. Soient c1 , . . . , cn des réels tels que
c1 X 1 (t) + · · · + cn X n (t) = 0.
Cette égalité étant vraie pour tout t ∈ R, elle est vraie en particulier pour t = 0 où elle devient
c1 V1 + · · · + cn Vn = 0.
Cela implique c1 = · · · = cn = 0 car les Vi forment une base de Rn .
SYSTÈMES DIFFÉRENTIELS 1. CAS D’UNE MATRICE DIAGONALISABLE 4
• Soit P la matrice dont les colonnes sont les vecteurs V1 , . . . , Vn . Alors la matrice P −1 AP = D est
diagonale.
• Soit X (t) une solution du système différentiel X 0 = AX . La matrice de passage P étant inversible,
notons Y = P −1 X (donc X = PY ). Alors Y 0 = P −1 X 0 = P −1 AX = P −1 APY = DY . Ainsi Y est la
solution d’un système différentiel diagonal :
λ1 t
y1 = λ 1 y1
0
k1 e
.. .
. d’où Y (t) = .. .
yn = λn yn k n e λn t
0
Exemple 4.
On veut résoudre le système différentiel X 0 = AX avec X (0) = X 0 où
1 4 −4 1
A = 3 2 −4 et X 0 = 2 .
3 −3 1 3
• Valeurs propres et vecteurs propres.
Les valeurs propres de A sont λ1 = 1, λ2 = −2 et λ3 = 5. Les vecteurs propres associés sont
1 0 1
V1 = 1 , V2 = 1 , V3 = 1 .
1 1 0
• Solutions générales.
Nous obtenons trois solutions
t
e 0 e5t
λ1 t
X 1 (t) = e V1 = e t ,
X 2 (t) = eλ2 t V2 = e−2t , X 3 (t) = eλ3 t V3 = e5t .
et e−2t 0
Les solutions du système X 0 = AX sont donc les fonctions de la forme
X (t) = αX 1 (t) + β X 2 (t) + γX 3 (t)
avec α, β, γ ∈ R.
• Condition initiale.
On cherche quelle solution vérifie en plus X (0) = X 0 . Or
α+γ
Mini-exercices.
1. Résoudre l’équation différentielle linéaire d’ordre 1 : x 0 (t) = −3x(t). Trouver la solution
vérifiant x(0) = 1. Idem avec x 0 (t) + x(t) = cos t, puis x 0 (t) + x(t) = t e t .
2. Résoudre
le système différentiel X 0
= AX où A = −1 0
0 2 . Trouver la solution vérifiant X (0) =
−1 . Même question avec A =
1 −1 1
0 2 .
3. Trouver les valeurs propres et les vecteurs propres de la matrice A = −1 2
2 2 . En déduire les
solutions du système différentiel X 0 = AX .
4 2 −2
4. Trouver les solutions du système différentiel X = AX où A = 0 2 −1 .
0
0 0 3
2. Exponentielle de matrices
2.1. Rappels
Avant de définir l’exponentielle de matrices, voici quelques petits rappels sur l’exponentielle réelle
ou complexe. Tout d’abord, pour z ∈ C, l’exponentielle peut être définie par une série :
+∞ k
X z
exp(z) = .
k=0
k!
On la note aussi ez . Retenons quelques propriétés principales :
1. exp(0) = 1,
2. exp(z + z 0 ) = exp(z) · exp(z 0 ) (∀z, z 0 ∈ C),
1
3. exp(−z) = exp(z) (∀z ∈ C),
4. exp(kz) = (exp(z))k (∀z ∈ C, ∀k ∈ Z).
Une autre propriété essentielle est que l’exponentielle définit une fonction dérivable et (pour
a ∈ C) :
d
exp(at) = a exp(at).
dt
L’espace vectoriel Mn (R) étant un espace vectoriel de dimension finie sur lequel toutes les normes
sont équivalentes, on en choisit une que l’on note k · k. Par exemple, kAk = max16i, j 6n (|ai j |).
Rappels : Rappelons la définition d’une série. Soit (un )n∈N une suite. On appelle série de terme
n
X
général un la suite (Sn )n∈N de terme général Sn = uk . Si cette suite admet une limite, quand n
k=0
+∞
X
tend vers l’infini, on dit que la série converge et on note S = uk sa limite.
k=0
Nous allons maintenant définir ce qu’est l’exponentielle d’une matrice.
SYSTÈMES DIFFÉRENTIELS 2. EXPONENTIELLE DE MATRICES 6
+∞ k
X A
exp(A) =
k=0
k!
sa limite. C’est la matrice exponentielle de A.
2.3. Propriétés
L’exponentielle de matrices (réelles ou complexes) vérifie les propriétés suivantes :
Proposition 2 (Propriétés de l’exponentielle).
1. Si on note On la matrice nulle, alors exp(On ) = I n .
2. Si A et B ∈ Mn (R) (ou Mn (C)) vérifient AB = BA, alors exp(A + B) = exp(A) · exp(B).
3. Pour toute matrice A ∈ Mn (R) (ou Mn (C)), la matrice exp(A) est inversible et (exp(A))−1 =
exp(−A).
4. exp(kA) = (exp(A))k pour tout k ∈ Z.
SYSTÈMES DIFFÉRENTIELS 2. EXPONENTIELLE DE MATRICES 7
Remarque.
Attention ! Si A et B ne commutent pas, alors, en général, exp(A + B) 6= exp(A) · exp(B).
Nous ne démontrerons pas ces propriétés, mais nous pouvons cependant faire les remarques
suivantes :
• Le 1 est évident.
• Le 2 se démontre comme dans le cas de l’exponentielle complexe, le fait que les matrices
commutent permettant d’utiliser la formule du binôme de Newton.
• Pour le 3, on remarque que les matrices A et −A commutent, d’où
exp(A) · exp(−A) = exp(A − A) = exp(0n ) = I n .
• Pour le 4, c’est d’abord une récurrence sur k > 0, puis on utilise le 3 pour obtenir la propriété
pour k 6 0.
2.4. Calculs
Le calcul de l’exponentielle d’une matrice peut s’effectuer en se ramenant aux calculs de l’exponen-
tielle d’une matrice diagonale et d’une matrice nilpotente. On se ramènera à une telle situation
par le résultat suivant :
Lemme 1.
Si A, P ∈ Mn (C), et P est inversible, on a exp(P −1 AP) = P −1 exp(A)P.
k=0
k! k=0
k!
Ici D est déjà une matrice diagonale puisque D = 2I3 , ce qui va simplifier les calculs.
• La matrice diagonale. 2
e 0 0
exp(D) = 0 e2 0 = e2 I
0 0 e2
• La matrice nilpotente.
La matrice N est nilpotente :
1 −1 −1
N 2 = 1 −1 −1 et N 3 = 0.
0 0 0
Ainsi
1 1
− 12
2 2
1 1 1
exp(N ) = I + N + N 2 = − 32 .
2 2
2!
−1 1 2
• Exponentielle de A.
1 1 1
1 2 1
e2 − 12 e2
e2 0 0 2 2 − 2 2 e 2
1 1 3
exp(A) = exp(D) · exp(N ) = 0 e 0
2
2 2 −2 = 21 e2
1
2e2 − 32 e2
0 0 e2 −1 1 2 −e2 e2 2 e2
Exemple 8.
Soit A la matrice
−5 0 1
A = 12 6 6 .
−1 0 −7
• Décomposition de Dunford.
La décomposition de Dunford est A = ∆ + N avec
−6 0 0 1 0 1
∆ = 25
2 6 132
et N = − 1 0 − 1 .
2 2
0 0 −6 −1 0 −1
• La matrice nilpotente.
La matrice N est nilpotente, avec N 2 la matrice nulle. Ainsi exp(N ) = I + N .
• La matrice diagonalisable.
La matrice ∆ se transforme en une matrice diagonale par D = P −1 ∆P où
25 13
6 0 0 0 1 0 24 1 24
D = 0 −6 0 et P = 1 0 1 , P −1 = 1 0 0 .
0 0 −6 0 − 25 24
13 − 13 − 25 13
24 0 − 24
0 0 e−6 0 0 e−6
• Exponentielle de A.
2e−6 0 e−6
1 1
exp(A) = exp(∆) · exp(N ) = 24 (25e − 37e ) e6
6 −6
24 (13e − 25e )
6 −6
−e−6 0 0
SYSTÈMES DIFFÉRENTIELS 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 9
2.5. Dérivée
Si M (t) est une matrice dont les coefficients ai j (t) sont des fonctions dérivables de la variable
t, alors la dérivée de A(t) est la matrice A0 (t) dont les coefficients sont les dérivées ai0 j (t). La
dérivée d’une matrice vérifie les propriétés usuelles des dérivées. En particulier, elle vérifie que, si
les matrices M (t) et N (t) sont dérivables, alors le produit aussi et on a (attention à l’ordre des
produits !) :
(M N )0 (t) = M 0 (t)N (t) + M (t)N 0 (t).
Proposition 3.
Soit A ∈ Mn (R). L’application de R dans Mn (R) définie par t 7→ exp(tA) est dérivable et on a
d
exp(tA) = Aexp(tA).
dt
d
Remarque : comme les matrices A et exp(tA) commutent, alors on a aussi dt exp(tA) = exp(tA)A.
Démonstration. Notons
+∞ +∞
X 1 k k X
E(t) = exp(tA) = t A = Ek (t)
k=0
k! k=0
1 k k
où Ek (t) = On a E00 (t) = 0 et, pour tout k > 0,
k! t A .
1
Ek0 (t) = t k−1 Ak = AEk−1 (t).
(k − 1)!
Pour des raisons de convergence normale, comme dans le cas des séries de fonctions, on a
+∞
X +∞
X
E (t) =
0
Ek (t) =
0
AEk−1 (t) = AE(t).
k=0 k=1
Mini-exercices.
1. Vérifier que exp t · 0 −1
1 0 = cos t − sin t
sin t cos t pour tout t réel.
2. Montrer que, pour toute matrice A ∈ Mn (C), det(exp(A)) = etr A. Commencer par le cas où A
est triangulaire.
1 0 0 −2 2 0
3. Soient ∆ = 0 1 0 , N = −2 2 0 . Montrer que A = ∆ + N est la décomposition de Dunford
−3 3 −2 0 0 0
de A. Calculer exp(∆), exp(N ) et exp(A).
Théorème 3.
Soit A ∈ Mn (R). Les solutions du système différentiel homogène X 0 = AX sont les fonctions X :
R −→ Rn définies par
X (t) = exp(tA) · X 0
n
où X 0 est un vecteur de R quelconque.
Remarque.
• En particulier, les solutions sont définies sur R tout entier.
• Ce théorème est aussi vrai sur C.
• Il est clair que X (0) = X 0 .
Tirons deux conséquences importantes de ce théorème. La première est que si on impose une
condition initiale, alors on a existence et unicité de la solution.
Corollaire 1 (Théorème de Cauchy-Lipschitz).
Pour X 0 ∈ Rn fixé, il existe une et une seule solution X (t) vérifiant le système différentiel X 0 = AX
et la condition initiale X (0) = X 0 .
Seconde conséquence : comme à chaque X 0 ∈ Rn on associe une unique solution, alors l’espace
vectoriel des solutions est aussi de dimension n.
Corollaire 2.
L’ensemble des solutions du système différentiel X 0 = AX (avec A ∈ Mn (R)) est un R-espace vectoriel
de dimension n.
Preuve du théorème.
• D’une part, la dérivée de exp(tA) est Aexp(tA), donc X (t) = exp(tA) · X 0 est bien solution de
l’équation X 0 = AX .
• Réciproquement, si on pose Y (t) = exp(−tA)X (t), alors
Y 0 (t) = exp(−tA)(X 0 − AX ) = 0.
Donc, sur R, Y est une fonction constante que l’on note X 0 ∈ Rn . Ainsi X (t) = exp(tA) · X 0 pour
tout t.
3.2. Méthode
Dans la pratique, que fait-on ?
1. Forme des solutions.
Il s’agit d’intégrer l’équation X 0 = AX dont les solutions s’écrivent
X (t) = exp(tA) · X 0 avec X 0 ∈ Rn .
2. Réduction à la forme D + N .
Si le polynôme caractéristique de A est scindé (ce qui est toujours vrai sur C), alors la décom-
position de Dunford permet d’écrire A sous la forme « diagonalisable + nilpotente ». Autrement
SYSTÈMES DIFFÉRENTIELS 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 11
dit, il existe une matrice inversible P telle que la matrice P −1 AP = D + N avec D diagonale, N
nilpotente et N D = DN .
On note cette matrice B = P −1 AP = D + N .
3. Équation en Y .
Posons Y = P −1 X (donc X = PY ). L’équation X 0 = AX devient une équation de Y 0 :
Y 0 = P −1 X 0 = P −1 AX = P −1 APY = BY.
4. Solutions en Y .
Les solutions Y (t) sont donc de la forme Y (t) = exp(t B)V où V ∈ Rn . De plus, exp(t B) =
exp(t D + t N ) = exp(t D) · exp(t N ) et les matrices exp(t D) et exp(t N ) sont faciles à calculer
puisque D est diagonale et N est nilpotente.
5. Solutions en X .
On obtient alors X = PY = P exp(t B)V (V ∈ Rn ). Ainsi, les solutions de l’équation X 0 = AX
sont de la forme
X (t) = P exp(t D) · exp(t N )V avec V ∈ Rn
et il est inutile de calculer la matrice P −1 .
3.3. Exemple
Exemple 9.
Résoudre le système différentiel :
0
x 1 (t) = x 1 (t) − 3x 3 (t)
x 20 (t) = x 1 (t) − x 2 (t) − 6x 3 (t)
x 3 (t) = −x 1 (t) + 2x 2 (t) + 5x 3 (t)
0
Mini-exercices.
1. Soit A ∈ Mn (R). Soient t 0 ∈ R et X 0 ∈ Rn . Trouver l’expression de la solution du système
X 0 = AX vérifiant X (t 0 ) = X 0 .
2. Prouver ce résultat du cours : « L’ensemble des solutions du système différentiel X 0 = AX
(avec A ∈ Mn (R)) est un R-espace vectoriel de dimension n. »
−2 0 0
3. Soit A = 1 −2 0 . Trouver la décomposition de Dunford de A. Résoudre le système diffé-
1 1 −2 0
rentiel X = AX . Trouver la solution vérifiant X (0) = 1 .
0
0
4. Soient 0 0 0
−1 0 1
3 0 0
0 1 0
A= 2 3 0 , D= 0 −1 0 , N= 0 −4 −8 , P= 1 0 1 .
0 0 −1 0 0 −1 0 2 4 0 −4 −8
Montrer que P AP = D + N correspond à la décomposition de Dunford de A. Calculer
−1
exp(t D), exp(t N) et exp(tA). Résoudre le système différentiel X 0 = AX . Trouver la solution
1
vérifiant X (0) = 1 .
1
SYSTÈMES DIFFÉRENTIELS 4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 13
Quel est le lien avec nos systèmes différentiels ? On se ramène à l’étude des systèmes du para-
graphe précédent en posant y = x 0 . L’équation différentielle (E) est alors équivalente au système
différentiel :
x = y
0
y 0 = −qx − p y
En effet, la première équation x 0 = y implique en particulier x 00 = y 0 , donc la deuxième équation
devient l’équation (E) x 00 = −qx − px 0 . On vient donc de justifier le résultat suivant :
Proposition 4.
La fonction x : R → R est solution de l’équation différentielle
x 00 + px 0 + qx = 0
si et seulement si l’application X : R → R2 définie par
x(t) x(t)
X (t) = =
y(t) x 0 (t)
est solution du système X 0 = AX avec
0 1
A= .
−q −p
Théorème 4.
Soit l’équation différentielle x 00 (t)+px 0 (t)+qx(t) = 0 et son équation caractéristique X 2 +pX +q =
0, où p, q ∈ R.
• Si λ1 et λ2 sont deux racines réelles distinctes de l’équation caractéristique, les solutions de
l’équation différentielle sont les :
αeλ1 t + β eλ2 t (α, β ∈ R).
• Si λ0 est une racine réelle double, les solutions sont les :
(αt + β)eλ0 t (α, β ∈ R).
• Si a + i b et a − i b sont deux racines complexes conjuguées, les solutions réelles de l’équation
différentielle sont les :
e at α cos(bt) + β sin(bt) (α, β ∈ R).
Démonstration. La preuve est une simple vérification. On vérifie que les solutions proposées sont
bien des solutions (à faire). Ainsi, dans chacun des cas, on trouve que les solutions forment
un espace vectoriel de dimension 2. En conclusion, par le corollaire 3, on a trouvé toutes les
solutions.
Exemple 10.
Quelles sont les solutions de l’équation différentielle x 00 + x = 0 ?
• Première méthode. L’équation caractéristique est x 2 + 1 = 0, dont les solutions sont ± i, c’est-
à-dire a = 0 et b = 1. On trouve deux solutions x 1 (t) = cos t et x 2 (t) = sin t. L’ensemble des
solutions est alors
t 7→ α cos t + β sin t (α, β ∈ R).
On a la certitude qu’il n’y a pas d’autres solutions par le corollaire 3.
• Seconde méthode.
Écrivons l’équation sous la forme du système différentiel X 0 = AX avec
(t)
0
x(t) x 0 1
X (t) = , X 0 (t) = , A= .
x 0 (t) x 00 (t) −1 0
On retrouve les solutions de notre système précédent via la matrice exp(tA), c’est-à-dire après
calculs
cos t sin t
exp(tA) = ,
− sin t cos t
dont les colonnes sont des solutions linéairement indépendantes du système X 0 = AX . La
α
solution générale s’écrit X (t) = exp(tA)X 0 pour X 0 = β , ou autrement dit
cos t sin t
X (t) = α +β .
− sin t cos t
Et en particulier x(t) = α cos t + β sin t, avec α, β ∈ R.
Attention, les conditions initiales sont bien toutes pour le même paramètre t = t 0 .
De même, le corollaire 2 devient :
Corollaire 5.
L’ensemble des solutions de l’équation différentielle (E) est un espace vectoriel de dimension n.
Un calcul simple de déterminant justifie le lien entre : (a) l’équation différentielle (E), (b) les
racines de l’équation caractéristique χA(X ) = 0 et (c) les valeurs propres de A. Voir le paragraphe
sur la matrice compagnon d’un polynôme dans le chapitre « Valeurs propres, vecteurs propres ».
SYSTÈMES DIFFÉRENTIELS 4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 16
Lemme 2.
Le polynôme caractéristique de A est
χA(X ) = (−1)n X n + a1 X n−1 + · · · + an−1 X + an
où les ai sont les coefficients de l’équation différentielle (E).
On termine par l’énoncé d’un théorème qui donne toutes les solutions.
Théorème 5.
Soit l’équation différentielle
x (n) (t) + a1 x (n−1) (t) + · · · + an−1 x 0 (t) + an x(t) = 0
où a1 , a2 , . . . , an ∈ R. Notons λ1 , λ2 , . . . , λ r ∈ C les racines deux à deux distinctes du polynôme
caractéristique χA(X ) et m1 , m2 , . . . , m r les multiplicités. Autrement dit :
χA(X ) = (−1)n X n + a1 X n−1 + · · · + an = (−1)n (X − λ1 )m1 · · · (X − λ r )mr .
Alors chaque solution x(t) de l’équation différentielle est la partie réelle de
X r
Pk (t)eλk t
k=1
pour des polynômes Pk de degré < mk (pour tout k).
La preuve consiste encore une fois à vérifier que les fonctions proposées sont bien des solutions.
Comme l’équation caractéristique est à coefficients réels, si λk est une solution complexe alors son
conjugué l’est aussi. Ainsi, une base de solutions réelles est donnée par :
• les Pk (t)eλk t avec deg Pk < mk , si λk est réel ;
• et les Pk (t)e ak t cos(bk t) ainsi que les Pk (t)e ak t sin(bk t) avec deg Pk < mk , si λk = ak + i bk est
complexe.
Exemple 11.
Résoudre l’équation x 000 − 3x 00 + 4x = 0.
• L’équation caractéristique est X 3 − 3X 2 + 4 = 0, ce qui s’écrit aussi (X − 2)2 (X + 1) = 0. Les
valeurs propres sont λ1 = 2 (de multiplicité m1 = 2) et λ2 = −1 (de multiplicité m2 = 1).
• La valeur propre λ1 = 2 conduit aux solutions (a + bt)e2t avec a, b ∈ R.
• La valeur propre λ2 = −1 conduit aux solutions ce−t avec c ∈ R.
• L’ensemble des solutions est donc
t 7→ (a + bt)e2t + ce−t | a, b, c ∈ R .
Exemple 12.
Résoudre l’équation x 000 − 2x 00 − 2x 0 − 3x = 0.
• L’équation caractéristique est X 3 − 2X 2 − 2X − 3 = 0, ce qui s’écrit aussi (X − 3)(X 2 + X + 1)
p
= 0.
1 3
Une valeurppropre est donc λ1 = 3. Les solutions de X + X + 1 = 0 sont λ2 = − 2 + 2 i et
2
λ3 = − 12 − 23 i.
• La valeur propre λ1 = 3 conduit à la solution t 7→ e3t .
• Les valeurs propres λ2 et λ3 conduisent aux solutions complexes eλ2 t et eλ3 t . Comme on
s’intéresse aux solutions réelles, alorsp on considère les deux fonctions définies par la partie
1 3
réelle et la partie imaginaire de e− 2 t e 2 i t :
p p
− 12 t 3 − 21 t 3
t 7→ e cos t et t 7→ e sin t .
2 2
SYSTÈMES DIFFÉRENTIELS 4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 17
Théorème 6.
SYSTÈMES DIFFÉRENTIELS 4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 18
Remarque.
• Les Pi peuvent être déterminés par u0 , . . . , un−1 .
• Pour n = 1, les suites vérifiant uk+1 = auk sont les suites géométriques. L’équation caractéristique
est X = a. Elles s’écrivent bien uk = u0 a k .
Revenons à la suite de Fibonacci.
Exemple 13.
1. Quelles sont les suites réelles (uk ) vérifiant uk+2 = uk+1 + uk ?
p
1+ 5
L’équation
p
caractéristique est X 2 = X + 1. Autrement dit (X − λ1 )(X − λ2 ) = 0, avec λ1 = 2 ,
λ2 = 1−2 5 , chacune de multiplicité 1. Les suites (uk ) sont donc de la forme uk = αλ1k + βλ2k ,
c’est-à-dire :
p k p k
1+ 5
1− 5
uk = α +β pour α, β ∈ R.
2 2
2. Quelle suite vérifie en plus u0 = 0 et u1 = 1 ?
Comme u0 = αλ01 + βλ02 = α + β, alors la condition initiale u0 = 0 implique β = −α.
p
Comme u1 = αλ1 + βλ2 = α(λ1 − λ2 ) = α 5, alors la condition initiale u1 = 1 implique
α = p15 .
Conclusion : la suite de Fibonacci est la suite définie par
p k p k
1 1+ 5 1− 5
uk = p − .
5 2 2
Mini-exercices.
1. Trouver les solutions de l’équation différentielle x 00 = x. Trouver la solution vérifiant x(0) = 1,
x 0 (0) = −1.
2. Mêmes questions avec x 00 − 2x 0 + x = 0. Puis x 00 + 2x 0 − x = 0.
3. Trouver les solutions réelles des équations différentielles x 000 = x, x 000 − 2x 00 − x 0 + 2x = 0 et
x 000 − x 00 + x 0 − x = 0.
4. Trouver les suites vérifiant la relation de récurrence uk+2 = 3uk+1 + 4uk . Trouver la suite
vérifiant la condition initiale u0 = 0, u1 = 1. Idem avec la relation uk+2 = 2uk+1 − uk , puis
uk+2 = −uk+1 − 2uk . Idem avec uk+3 − uk+2 − 8uk+1 + 6uk = 0 (sans conditions initiales).
SYSTÈMES DIFFÉRENTIELS 5. EXEMPLES EN DIMENSION 2 19
5. Exemples en dimension 2
5.1. Trajectoires
Soit A ∈ M2 (R). Les solutions du système X 0 = AX sont des applications t 7→ X (t) de R dans R2
qui peuvent être considérées comme des courbes paramétrées.
Une trajectoire T du systèmedifférentiel X 0 = AX est (le support de) la courbe paramétrée définie
par une solution X (t) = x(t)
y(t) :
T = x(t), y(t) | t ∈ R .
La trajectoire associée à X (t) a pour vecteurs tangents les X 0 (t) et est donc tangente au champ de
vecteurs A( xy ).
Les trajectoires sont en général des courbes, mais le point d’équilibre {(0, 0)} constitue à lui tout
seul une trajectoire spéciale.
Nous n’allons pas étudier systématiquement toutes les trajectoires possibles, mais nous allons
étudier quelques cas emblématiques.
y(t) = be−2t
où a et b sont des constantes réelles. Étudions plus précisément les trajectoires obtenues selon les
valeurs des constantes a et b.
• Si a = b = 0, la solution du système obtenue est l’application nulle de R dans R2 , et sa
trajectoire est réduite au point (0, 0) ∈ R2 .
• Si a = 0 et b =6 0 alors, pour tout t ∈ R, x(t) = 0 et y(t) est du signe de b. Ainsi les trajectoires
sont les demi-axes verticaux. Si a 6= 0 et b = 0, les trajectoires sont les demi-axes horizontaux.
2
• Si a 6= 0 et b 6= 0 alors, pour tout t ∈ R, on a y(t) = b x(t) , et les trajectoires sont donc les
a
courbes d’équation y x 2 = a2 b. Ce sont des courbes qui ressemblent à des branches d’hyperboles.
Exemple 15.
Considérons le système X 0 = AX avec cette fois la matrice
1 0
A= .
0 +2
Les solutions sont de la forme
x(t) = ae t
y(t) = be+2t
où a, b ∈ R. Dans le cas où a 6= 0 et b =
6 0, les trajectoires vérifient cette fois y = b
a2 x 2 et sont des
branches de paraboles.
SYSTÈMES DIFFÉRENTIELS 5. EXEMPLES EN DIMENSION 2 21
solutions :
cos(2t)e t − sin(2t)e t
X 1 (t) = Re X 1C (t) = X 2 (t) = Im X 1C (t) =
− sin(2t)e t − cos(2t)e t
Ces deux solutions X 1 et X 2 forment une base de l’espace vectoriel des solutions. Ainsi, si X (t) est
une solution, elle s’écrit X (t) = aX 1 (t) + bX 2 (t).
Conclusion : les solutions sont de la forme
x(t) = a cos(2t) − b sin(2t) et
y(t) = be t
Mini-exercices.
x0 = y
1. Trouver les solutions du système différentiel . Montrer que les trajectoires des
y 0 = −x
solutions sont des cercles centrés à l’origine.
2. Trouver les solutions du système différentiel X 0 = AX où A = 21 11 . Trouver la trajectoire
passant par le point (1, 0).
3. Diagonaliser la matrice A = 01 10 , c’est-à-dire déterminer une matrice diagonale D semblable
à A. Trouver les solutions du système différentiel X 0 = DX , et tracer les trajectoires. En
déduire les solutions et les trajectoires du système X 0 = AX .
Auteurs du chapitre
D’après un cours de Sandra Delaunay et un cours d’Alexis Tchoudjem.
Revu et augmenté par Arnaud Bodin.
Relu par Stéphanie Bodin et Vianney Combet.