0% ont trouvé ce document utile (0 vote)
87 vues66 pages

Reduction Cours de MR Fall

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
87 vues66 pages

Reduction Cours de MR Fall

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Cheikh Anta Diop de Dakar

Faculté des Sciences et Techniques


(UCAD-FST)
Département de Mathématiques et Informatique
(DMI)

COURS D’ALGÈBRE L2

Chargé du cours : Pr Amadou Lamine FALL


Assistants TD : Dr Moussa SALL
Dr Mame Abdou DIAW
Dr Gilbert NOLAN
Dr Cheikh Tidiane GUEYE
Dr Andre DIABANG
Table des matières

Chapitre 1. Diagonalisation et Applications 3


1. Diagonalisation d’endomorphisme 3
2. Applications 11

Chapitre 2. Trigonalisation et Théorème de Cayley-Hamilton 15


1. Trigonalisation 15
2. Polynômes annulateurs et Théorème de Cayley-Hamilton 18

Chapitre 3. Décomposition de Dunford 23


1. Lemme de Noyaux 23
2. Diagonalisation à l’aide des polynômes annulateurs 25
3. Diagonalisation simultanée de deux endomorphismes 26
4. Décomposition spectrale ou décomposition de Dunford 27

Chapitre 4. Réduction de Jordan 33


1. Introduction 33
2. Réduction de Jordan d’un endomorphisme nilpotent 35
3. Réduction dans le cas Pf (X) = (λ − X)n avec λ 6= 0 44
4. Réduction de Jordan dans le cas général 47

Chapitre 5. Systèmes différentiels et Équations différentielles linéaires d’ordre n à


coéfficients constants 51
1. Systèmes différentiels linéaires 51
2. Équations différentielles linéaires d’ordre n à coéfficients constants 63

1
Chapitre 1

Diagonalisation et Applications

Dans tout le cours , E sera un espace vectoriel de dimension finie sur un corps K.

1. Diagonalisation d’endomorphisme

1.1. Valeurs propres et Sous espaces propres.

Définition 1.1. Soient f ∈ L (E), un scalaire λ ∈ K est une valeur propre de f s’il
existe u 6= 0 tel que f (u) = λu.

Définition 1.2. Soient f ∈ L (E) et u ∈ E et λ ∈ K une valeur propre de f .


u est un vecteur propre de f associé à la valeur propre λ si u 6= 0 et f (u) = λu.

Remarque 1.3. f ∈ L (E) et λ ∈ K une valeur propre de f , il existe u ∈ E non nul


tel que f (u) = λu, c’est à dire (f − λidE )(u) = 0. On en déduit que si λ ∈ K est une
valeur propre de f alors l’endomorphisme (f − λidE ) n’est pas bijectif.
Soit A = matB (f ) la matrice de f relativement à une base B de E. Alors λ ∈ K une
valeur propre de f si et seulement si det(A − λI) = 0 où I est la matrice unité.

Définition 1.4. f ∈ L (E) et λ une valeur propre de f.


Le sous espace propre de f associé à la valeur propre λ est

Eλ = {u ∈ E / f (u) = λu} = ker (f − λ idE ) .

Le sous espace propre de f , Eλ est constitué du vecteur nul et de l’ensemble des


vecteurs propres de f associé à la valeur propre λ.

Définition 1.5. f ∈ L (E), B une base de E et A = matB (f ) la matrice f relative-


ment à la base B, le polynôme Pf (X) = det(A − XI) est appelé polynôme caractéristique
de f .

Remarque 1.6. λ ∈ K est une valeur propre de f si et seulement si λ est racine du


polynôme caractéristique de f .

Définition : f ∈ L (E) .
Le spectre de f est l’ensemble de ses valeurs propres.
3
4 1. DIAGONALISATION ET APPLICATIONS

Définition 1.7. Soit A ∈ Mn (R) et k ∈ N tel que 1 ≤ k ≤ n. On appelle sous


matrice principale d’ordre k de A la sous matrice d’ordre n − k obtenue à partir de A en
supprimant n − k lignes et les n − k colonnes correspondantes.
Un mineur principal d’ordre de A est le determinant d’une sous matrice principale d’ordre
k de A.

Proposition 1.8. f ∈ L (E), B une base de E et A = (ai,j )1≤i,j≤n = matB (f ) la


matrice f relativement à la base B, le polynôme caractéristique Pf (X) = det(A − XI) est
donné par :
Si n = 2 alors
Pf (X) = X 2 − Tr(A)X + det A

Tr(A) etant la trace de la matrice A.


Et si n ≥ 3 on a
n−1
X
n n n−1 n−1
Pf (X) = (−1) X + (−1) Tr(A)X + (−1)n−k ωk X n−k + det A.
k=2

Le scalaire ωk est la somme des mineurs principaux d’ordre k de A.

Exemple 1.9. Soit f ∈ L (R3 ) de matrice


 
−1 1 1
A =  1 −1 1 .
 

1 1 −1

Déterminer les valeurs propres et les sous espaces propres de f.


Déterminons d’abord le polynôme caractéristique.
D’après la formule Pf (X) = −X 3 + Tr(A)X 2 − ω2 X + det A.
La trace de A est la somme des éléments diagonaux de A donc Tr(A) = −3. Le détermi-
nant est det(A) = 4. Le scalaire ω2 est donné par :

−1 1 −1 1 −1 1
ω2 = + + = 0.
1 −1 1 −1 1 −1
Donc Pf (X) = −X 3 − X 2 + 4 = −(X + 2)2 (X − 1). Déterminons les sous espaces propres.
Soit (x, y, z) ∈ E1 = ker(f − idE ), on a
    
x 0  −2x + y + z = 0

(A − I3 )  y  =  0  ⇔ x − 2y + z = 0
   

z 0 x + y − 2z = 0

1. DIAGONALISATION D’ENDOMORPHISME 5

La résolution du systeème montre que

E1 = (x, y, z) ∈ R3 /x = y = z = Vect(u1 )


avec u1 = (1, 1, 1).


Soit (x, y, z) ∈ E−2 = ker(f + 2 idE ), on a
   
x 0
(A + 2I3 )  y  =  0  ⇔ x + y + z = 0.
   

z 0

E−2 = (x, y, z) ∈ R3 /x + y + z = 0 = Vect(u2 , u3 )




avec u2 = (1, 0, −1) et u3 = (0, 1, −1).

1.2. Propriétés des sous espaces propres.

Théorème 1.10. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux à


deux distinctes et u1 , u2 , · · · , um des vecteurs propres associés aux λi respectivement. Alors
la famille S = {u1 , u2 , · · · , um } est libre.

Démonstration. Elle se fait par récurrence sur l’entier m ≥ 2.


Si m = 2, S = {u1 , u2 } avec f (u1 = λ1 u1 et f (u2 = λ2 u2 .
Soit α1 , α2 ∈ K tel que α1 u1 + α2 u2 = 0.

α1 u1 + α2 u2 = 0 =⇒ α1 f (u1 ) + α2 f (u2 ) = 0
=⇒ α1 λ1 u1 + α2 λ2 u2 = 0
=⇒ α1 (λ1 − λ2 )u1 = 0.

Comme λ1 6= λ2 et u1 6= 0, on a α1 = 0 et par suite α2 = 0, ainsi S est libre.


Supposons m ≥ 3 et propriété vraie pour m − 1.
m
X
Soit α1 , α2 , · · · , αm ∈ K tel que αk uk = 0.
k=1
m
X m
X m−1
X
αk uk = 0 =⇒ αk f (uk ) = 0 et αm um = − αk uk
k=1 k=1 k=1
m−1
X
=⇒ αk (λk − λm )uk = 0
k=1

Par hypothèse de récurrence on a αk (λk − λm )uk = 0 pour 1 ≤ k ≤ m − 1, comme


λk 6= λm on a αk = 0 pour 1 ≤ k ≤ m − 1 ce qui implique que αm um = 0 d’où αm = 0.
Ainsi la famille S = {u1 , u2 , · · · , um } est libre. 
6 1. DIAGONALISATION ET APPLICATIONS

Corollaire 1.11. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux à


deux distinctes. Alors les sous espaces propres (Eλk )1≤k≤m sont en somme directe c’est à
Xm Mm
dire si F = Eλk alors F = Eλk .
k=1 k=1

Démonstration. Les sous espaces Eλk sont en somme directe si et seulement si


m
Y
∀(uk )1≤k≤m ∈ Eλk on a l’implication suivante :
k=1
m
X
uk = 0 =⇒ uk = 0, ∀k.
k=1
m
X
Soit 1 ≤ k ≤ m un entier naturel et uk ∈ Eλk tel que uk = 0. Si les uk ne sont pas tous
k=1
m
X
nuls la relation uk = 0 est une combinaison linéaire nulle de vecteurs propres associés
k=1
à des valeurs propres deux à deux distinctes, ce qui contredit le théorème ci-dessus. On
en déduit que uk = 0, ∀k, donc les sous espaces Eλk sont en somme directe. 

Définition 1.12. Soit n ∈ N∗ et P ∈ K[X] un polynôme de degré n à coéfficients


dans K et x0 ∈ K une racine de P .
On dit que x0 est une racine de P d’ordre de multiplicité α ∈ N∗ , si (X − x0 )α divise
P (X) et (X − x0 )α+1 ne divise pas P (X).
Le polynôme P est dit scindé dans K s’il possède n racines dans K chaque racine étant
comptée un nombre de fois égal à sa multiplicité. C’est à dire P se factorise dans K,
m
Y m
X
P (X) = a (X − ai )αi avec αi = n.
i=1 i=1

Les ai sont les racines deux à deux distincts de P .

Définition 1.13. f ∈ L (E) et λ ∈ K une valeur propre de f , la multiciplicité de λ est


sa multiciplicité comme racine du polynôme caractéristique. On dit que l’endomorphisme
f est scindé si son polynôme caractéristique est scindé.

Théorème 1.14. f ∈ L (E) et λ ∈ K une valeur propre de f d’ordre de multiciplicité


α. Alors on a 1 ≤ dim Eλ ≤ α.

Démonstration. Comme Eλ 6= {0E } on a dim Eλ ≥ 1. Posons k = dim Eλ et soit


{e1 , . . . , ek } une base de Eλ . Complétons la par des vecteurs ek+1 , . . . , en pour avoir une
base B = {e1 , . . . , en } de E.
Déterminons la matrice M de f relativement à B. On a f (ej ) = λej , 1 ≤ j ≤ k et
1. DIAGONALISATION D’ENDOMORPHISME 7

n
P
f (ej ) = aij ei , k + 1 ≤ j ≤ n; aij ∈ K, donc on a
i=1
 
λ ··· 0 a1,k+1 · · · a1,n
 . .
. . ... .. .. 
 .. . . 
  !
 
 0 ··· λ ak,k+1 ··· ak,n  λIk C
M =
 0 ··· 0
= .
 ak+1,k+1 · · · ak+1,n 
 0 D
 . .. .. .. 
 .. . . . 
 
0 ··· 0 an,k+1 ··· an,n

Ainsi Pf (X) = (λ − X)k PD (X) = (−1)k (X − λ)k PD (X) d’où (X − λ)k divise Pf (X), ainsi
k ≤ α, on en déduit que 1 ≤ dim Eλ ≤ α. 

1.3. Conditions de diagonalisabilité.

Définition 1.15. Soient f ∈ L(E) un endomorphisme. On dit que f est diagona-


lisable si E admet une base formée de vecteurs propres de f . Cela revient à dire qu’il
existe une base de E relativement à la quelle la matrice de f est diagonale.

Définition 1.16. Une matrice carrée A ∈ Mn (K) est dite diagonalisable s’il existe
P ∈ GLn (K) tel que D = P −1 AP soit une matrice diagonale.

Théorème 1.17. Soient E un K-espace vectoriel de dimension n ∈ N∗ , f ∈ L(E) un


r
endomorphisme de E et Pf (X) = (−1)n (X − λi )αi son polynôme caractéristique. Alors
Q
i=1
f est diagonalisable si et seulement si
r
M
E= E λi
i=1

où Eλi est le sous-espace propre associé à λi .


r
L
Démonstration. Supposons E = Eλi et pour tout 1 ≤ i ≤ r soit Bi une base de
i=1
r
[
Eλi . L’ensemble B = Bi est une base de E formée de vecteurs propres de f .
i=1
Réciproquement si f est diagonalisable il existe une base

B = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , e1,λr , · · · , eαr ,λr }

de E formée de vecteurs propres de f , où pour tout j, ej,λj ∈ Eλj .


Xr
On a card(B) = αi = dim(E). Montrons que αi = dim(Eλi ) ∀j ∈ [[1, r]].
i=1
8 1. DIAGONALISATION ET APPLICATIONS

Supposons qu’il existe l ∈ [[1, r]] tel que αl < dim(Eλl ) = βl . La famille {e1,λl , · · · , eαl ,λl }
est une famille libre, complètons la pour avoir une base {e1,λl , · · · , eαl ,λl , · · · , eβl ,λl } de Eλl .
La famille

S = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , eαl ,λl , · · · , eβl ,λl · · · , e1,λr , · · · , eαr ,λr }

est une famille libre de E avec dim(E) = card(B) < card(S) ce qui impossible donc
r
P
αi = dim(Eλi ) ∀j ∈ [[1, r]]. Ainsi dim(E) = dim(Eλi ), comme les Eλi sont en somme
i=1
r
L
directe, on a E = Eλi . 
i=1

Théorème 1.18 (Condition nécéssaire suffisante). Soient E un K-espace vectoriel de


dimension n ∈ N∗ , f ∈ L(E) un endomorphisme de E. Alors f est diagonalisable si et
seulement si les propriétés suivantes sont vérifiée :
1) Le polynôme caractéristique Pf (X) est scindé dans K.
2) Pour chaque valeur propre λ de multiplicité α, on a dim(Eλ ) = α

Démonstration. ⇐) Supposons que 1) et 2) soient vérifiées.


r r
La condition 1) entraîne Pf (X) = (−1)n (X − λi )αi avec
Q P
αi = n.
i=1 i=1
La condition 2) entraîne dim Eλi = αi , donc
r
X Mr
dim E = n = dim Eλi = dim( Eλi ),
i=1 i=1
r
L
doù E = Eλi . D’après le théorème ci-dessus, f est diagonalisable.
i=1
Réciproquement, supposons f est diagonalisable.
a) Supposons que le polynôme caractéristique n’est pas scindé.
r
On a Pf (X) = (−1)n (X − λi )αi Q(X) avec deg(Q) ≥ 2 et Q n’a pas de racine dans K.
Q
i=1

r
X r
X
dim E = αi + deg(Q) =⇒ dim Eλi < dim E
i=1 i=1
Mr
=⇒ dim( Eλi ) < dim E
i=1
r
L
Donc E 6= Eλi donc f n’est pas diagonalisable.
i=1
b) On suppose qu’il existe i0 ∈ [[1, r]] tel que dim Eλi < αi .
On a
r
X r
X r
X
dim Eλi = dim Eλi0 + dim Eλi < αi0 + αi ,
i=1 i=1,i6=i0 i=1,i6=i0
1. DIAGONALISATION D’ENDOMORPHISME 9

r
P r
P
donc dim Eλi < dim αi < dim E. On en déduit que f n’est pas diagonalisable. 
i=1 i=1

Corollaire 1.19. (Condition suffisante)


Soit E un K-espace vectoriel de dimension n et f ∈ L(E) un endomorphisme de E
admettant n valeurs propres distinctes. Alors f est diagonalisable.

Exemple 1.20. L’endomorphisme f de R3 associé à la matrice A suivante est il dia-


gonalisable ?
 
−1 1 1
A= 1 −1 1 .
 

1 1 −1
Le polynôme caractéristique de A est PA (X) = −(X + 2)2 (X − 1) il est scindé dans R.
La dimension de chaque sous espace propre est égal à la multiciplicité de cette valeur
propre : E−2 = Vect(u1 , u2 ) avec u1 = (1, 0, −1) et u2 = (0, 1, −1) on a ; dim E−2 = 2
cette dimension est égale à la multiplicité de la valeur propre λ = −2. De même E1 =
Vect(u3 ), u3 = (1, 1, 1), dim E1 = 1 = multiplicité de λ = 1. L’endomorphisme f est donc
 
1 0 1
diagonalisable. Les matrices de passage et diagonale associées sont P =  0 1 1 
 

−1 −1 1
 
−2 0 0
et D =  0 −2 0 
 

0 0 1

 Exemple 1.21.
 Même question pour l’endomorphisme associé à la matrice A =
3 0 −1
 2 4 2 
 

−1 0 3
PA (X) = −X 3 + T r(A)X 2 − w2 X + det A; on a T r(A) = 10 et
4 2 3 −1 3 0
w2 = + + = 12 + 8 + 12 = 32;
0 3 −1 3 2 4
4 2 2 4
det A = 3 − = 36 − 4 = 32 ; donc
0 3 −1 0
PA (X) = −X 3 + 10X 2 − 32X + 32 = −(X − 2)(X − 4)2 est scindé.
dim E2 = 1; dim E4 = dim R3 − rg(A − 4I) = 3 − 1 = 2.
Donc PA (X) est scindé et la dimension de chaque sous-espace propre est égale à la mul-
tiplicité de la valeur propre, ainsi A est diagonalisable.
Diagonalisons l’endomorphisme f associé à A :
10 1. DIAGONALISATION ET APPLICATIONS

   
x 0
(x, y, z) ∈ E2 ⇐⇒ (A − 2I)  y  =  0 
   

z 0
    
1 0 −1 x 0
⇐⇒  2 2 2   y = 0 
    

−1 0 1 z 0
(
x−z = 0
⇐⇒
x+y+z = 0
(
x = z
⇐⇒
y = −2x
Donc E2 = {(x, −2x, x)/x ∈ R} = Vect(u1 ) avec u1 = (1, −2, 1).
(x, y, z) ∈ E4 ⇐⇒ x + y = 0 ⇔ z = −x, ainsi
E4 = {(x, y, −x)/x, y ∈ R} = Vect{u2 , u3 } avec u2 = (1, 0, −1), u2 = (0, 1, 0). Posons
B = {u1 , u2 , u3 }, on a
   
1 1 0 2 0 0
P =  −2 0 1  et D =  0 4 0  .
   

1 −1 0 0 0 4
On a D = P −1 AP ainsi A = P DP −1 .
 
0 −1 1
Exercice 1.22. Soit f de matrice M =  −1 0 1  dans la base canonique de
 

1 −1 0
R3 .
Montrer que 0, 1 et −1 sont valeurs propres de f.
En déduire une matrice P inversible telle que M = P · D · P −1 avec D de diagonale 0, 1
et −1.
 
4 −1 −1 0
 
 0 3 −1 0 
Exercice 1.23. Soit f ∈ L (R4 ) de matrice M = 
 0 −1 3 0  dans la base

 
2 −1 −1 2
4
canonique de R .
Montrer que 2 et 4 sont valeurs propres de f et déterminer les sous espaces propres
associés.
En déduire que f est diagonalisable ainsi qu’une base de vecteurs propres.
2. APPLICATIONS 11

2. Applications

2.1. Puissances de matrice et suites récurrentes linéaires. Soit (Un )n∈N une
suite de matrices colonnes de Rm où m ≥ 2 est un entier naturel. On suppose que la
suite (Un )n∈N est définie par le terme initial U0 ∈ Rm et par la relation Un+1 = A · Un
où A est une matrice diagonalisable. Pour tout entier naturel n on a Un = An · U0 de
sorte que déterminer Un revient à déterminer la puissance An de la matrice A. Comme A
est diagonalisable il existe une matrice diagonale D et une matrice inversible P tel que
A = P · D · P −1 , on a An = P · Dn · P −1 . La matrice Dn est la matrice diagonale dont les
éléments diagonaux sont les puissances de valeurs propres de A.

2.2. Système différentiel linéaire à coéfficients constants.

Définition 2.1. On appelle système différentiel linéaire à coefficient constant, un


système d’équations différentielles de la forme :


dx1


 dt
= a11 x1 + a12 x2 + . . . + a1n xn


 dx2 = a x + a x + . . . + a x

dt 21 1 22 2 2n n
 .
..




 dxn = a x + a x + . . . + a x

dt n1 1 n2 2 nn n

où aij ∈ C et xi : R → R est une application dérivable.


 
x1
x2
 
 
Posons A = (aij )1≤i≤n,1≤j≤n et X =  .. 
.
 
 
xn
le système différentiel s’ecrit :

 dx1
  
dt
a11 x1 + a12 x2 + · · · + a1n xn
dx2
  a21 x1 + a22 x2 + · · · + a2n xn
   
dX  dt

= . 

=
 .. 
dt .
 .   .


dxn
dt
an1 x1 + an2 x2 + · · · + ann xn

dX
On a donc dt
= AX
12 1. DIAGONALISATION ET APPLICATIONS

2.3. Résolution dans le cas où A est diagonalisable. Comme A est diagonali-


sable, il existe P ∈ GLn (K) telle que A0 = P −1 AP soit diagonale. Posons

   
λ1 0 ··· 0 z1
0 λ2 · · · 0  z2 
   
 
D= .. .. . .  , Z =  .  et X = P Z.
..  . 

 . . . 
.  . 
0 0 ··· λn zn

d(P Z)
On a dX
dt
= dt
= P dZ
dt
= AX = (AP )Z, donc dZ
dt
= (P −1 AP ) = DZ, . Ainsi :

 dz1
   
dt
λ1 0 ··· 0 z1
dz2
0 λ2 · · · 0 z2
    
dZ    dt
 
= . = .. .. . . ..  .. ,
dt  ..   . . . . .
    
 
dzn
dt
0 0 ··· λn zn

dzi
donc nous avons dt
= λi zi ⇒ zi = αi eλi t , il en résulte que

 
α1 eλ1 t
 α2 eλ2 t
 

Z= .. .
.
 
 
αn eλn t

La solution du système est donc donnée par X = P Z


 dx

 dt
= −x + y + z
dy
Exemple 2.2. Résoudre dt
= x−y+z

dz
= x+y−z

dt
   
−1 1 1 x
Posons A =  1 −1 1  et X =  y 
   

1 1 −1 z
La matrice A est diagonalisable et sa diagonalisée ainsi que la matrice de passage sont
respectivement

   
1 0 0 1 1 0
D =  0 −2 0  et P =  1 0 1 .
   

0 0 −2 1 −1 −1
2. APPLICATIONS 13
 
z1
Posons X = P Z avec Z =  z2 . Le système différentiel dX = AX est équivalente au
 
dt
z3
 
aet
système dZ = DZ dont la solution est donnée par Z =  be−2t .
 
dt
ce−2t
    
1 1 0 aet aet + be−2t
On en déduit que X = P Z =  1 0 1   be−2t  =  aet + ce−2t
    

−2t t −2t −2t
1 −1 −1 ce ae − be − ce
d’où



 x = aet + be−2t

y = aet + ce−2t


z = aet − be−2t − ce−2t .

Chapitre 2

Trigonalisation et Théorème de Cayley-Hamilton

1. Trigonalisation

Définition 1.1. Soient E un K−espace vectoriel de dimension n ∈ N∗ et f ∈ L(E).


On dit que f est trigonalisable s’il existe une base β de E relativemment à la quelle la
matrice de f est triangulaire.

Définition 1.2. Une matrice carreé A ∈ Mn (K) est dite trigonalisable s’il existe
P ∈ GLn (K) telle que A0 = P −1 AP soit triangulaire.

Théorème 1.3. Soient E un K−espace vectoriel de dimension n ∈ N∗ et f ∈ L(E).


Alors f est trigonalisable dans K si et seulement si le polynôme caractéristique Pf (X) est
scindé dans K.

Démonstration. (1) Supposons que f trigonalisable.


Comme f est trigonalisable, il existe une base β de E relativemment à la quelle la
matrice de f est triangulaire
 
λ1 a12 · · · a1n
0 λ2 · · · a2n 
 
0

A = .. .. .. .. 

 . . . . 

0 0 · · · λn
n
Q
Dans ce le polynôme caractéristique Pf (X) = PA0 (X) = (λi − X) est scindé.
i=1
(2) Réciproquement, supposons que Pf (X) est scindé et montrons par récurrence sur
n = dim E que f est trigonalisable. Si n=1, f est trigonalisable, supposons n ≥ 2
et la propriété soit vraie pour tout endomorphisme g d’un K− espace vectoriel F
de dimension n − 1 dont le polynôme caractéristique est scindé.
Soit λ une valeur propre de f et e1 un vecteur propre de f associé à λ, complètons
e1 par 2 , . . . , n pour avoir une base de B = {e1 , 2 , . . . , n } de E.
Posons E1 = vec(e1 ) et F = vect(2 , . . . , n ), on a dim F = n − 1.
On considère π la projection sur F parallèlement à E1 , on a E = E1 ⊕ F . nous
f π
avons π : E → E, ker π = E1 , im(π) = F et π ◦ f : E → E → E.
Le sous espace vectoriel F est stable par π ◦ f , donc la restriction g de π ◦ f à F
15
16 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON

induit un endomorphisme g : F → F . Soit MB (f ) la matrice de f relativement à


n
P
la base B, nous avons f (e1 ) = λe1 et f (j ) = a1j e1 + aij i , avec j ∈ [[2 ; n]]. La
i=2
matrice MB (f ) est donnée par :
 
λ  a12 · · · a1n 
· · · a2n
 
 0 a22 
MB (f ) =  ..  .. .. .  .

 .  . . ..  
  
0 an2 · · · ann

Montrons
 
a22 · · · a2n
 . ... .. 
K= .. . 
 
an2 · · · ann

est la matrice de g relativement à la base {2 , . . . , n } de F .


Pn Pn
g(j ) = π ◦ f (j ) = π(f (j )) = π(a1j e1 + aij i ) = aij i ce qui montre que K
i=2 i=2
 
λ a12 · · · a1n
 
 
est bien la matrice de g. On a A =   ..

 . K


0
λ − X a12 ··· a1n

Ainsi nous avons Pf (X) = .. = (λ − X)PK (X)


. K − XIn−1
0
Donc Pf (X) = (λ − X)Pg (X), Pf est scindé donc Pg est scindé. Donc il existe une
base {e2 , . . . , en } de F relativement à la quelle la matrice K 0 de g est triangulaire.
A = {e1 , e2 , . . . , en } est une base de E relativement à la quelle la matrice A0 de f
est triangulaire

n
Corollaire 1.4. Soit A ∈ Mn (K tel que PA (X) = (−1)n
Q
(X − λi ) alors
i=1

n
Y n
X
det A = λi et Tr A = λi .
i=1 i=1

Exemple 1.5. Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à


la base canonique est
1. TRIGONALISATION 17

 
3 2 −2
A =  −1 0 1 .
 

1 1 0
Le polynôme caractésistique de A est

3−X 2 −2
PA (X) = −1 −X 1 = (1 − X)3 = −(X − 1)3 .
1 1 −X

Déterminons le sous espace propre E1 .    


x ( 0
2x + 2y − 2z = 0
Soit (x, y, z) ∈ E1 si et seulement si (A − I3 )  y  =  0  ⇔
   
x+y−z = 0
z 0
si et seulement si z = x + y ainsi (x, y, z) = (x, y, x + y) = x(1, 0, 1) + y(0, 1, 1) d’où
E1 = Vect(u1 , u2 ) avec u1 = (1, 0, 1), u2 = (0, 1, 1), ainsi dim E1 = 2.
Posons B = {u1 , u2 , u3 } avec u3 = (0, 0, 1). On a f (u1 ) = u1 , f (u2 ) = u2 , f (u3 ) =
(−2, 1, 0) = αu1 + βu2 + γu3 = (−2, 0, −2) + (0, 1, 1) + (0, 0, 1) = −2u1 + u2 + u3 . On en
déduit que
   
1 0 −2 1 0 0
A0 =  0 1 1  et P =  0 1 0  .
   

0 0 1 1 1 1

Exemple 1.6. Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à


la base canonique est

 
1 −3 0 3
 
 −2 −6 0 13 
A=
 
 0 −3 1 3 

−1 −4 0 8

On a PA (X) = (X − 1)4 et E1 = Vect(u1 , u2 ) avec u1 = (3, 1, 0, 1), u2 = (0, 0, 1, 0).


Posons B = {u1 , u2 , u3 , u4 } avec u3 = (0, 1, 0, 0), u4 = (0, 0, 0, 1). On a f (u1 ) = u1 ,
f (u2 ) = u2 , f (u3 ) = (−3, −6, −3, −4), f (u4 ) = (3, 13, 3, 8). Déterminons les coordonnées
de f (u3 ) et f (u4 ) dans la base B. Soit a, b, c et d les coordonnées de f (u3 ), on a f (u3 ) =
au1 + bu2 + cu3 + du4 = f (u3 ) = −u1 − 3u2 − 5u3 − 3u4 .
de même si a0 , b0 , c0 et d0 sont les coordonnées de f (u4 ) on a f (u4 ) = a0 u1 + b0 u2 +
c0 u3 + d0 u4 = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 . La matrice de f relativement à la base B
18 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON

est donc  
1 0 −1 1
 
 0 1 −3 3 
M = ! .
 0 0
 −5 12 

0 0 −3 7
!
−5 12
Soit K = et F = Vect(u3 , u4 ), le polynôme caractésistique de K est
−3 7
PK (X) = (X − 1)2 .
Déterminons dans F le sous-espace propre de K associé à la valeur propre 1. Soit
(α, β) ∈ F1 . Donc α = 2β, ainsi F1 = Vect{(2, 1)}. Les nombres 2 et 1 représentent les
coordonnées d’un vecteur v3 ∈ F dans la base (u3 , u4 ) de F , donc v3 = (2, 1) = 2u3 + u4 .
Complétons par le vecteur v4 ∈ F dont les coordonnées dans base (u3 , u4 ) est (0, 1) ce qui
donne v4 = u4 . On a v1 = u1 , v2 = u2 , v3 = 2u3 + u4 et v4 = u4 . Donc f (v1 ) = v1 , f (v2 ) =
v2 , f (v3 ) = 2f (u3 ) + f (u4 ) = −v1 − 3v2 + v3 .
f (v4 ) = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 = v1 + 3v2 + 6v3 + v4 d’où
 
1 0 −1 1
 
0 1 −3 3
A0 = 
 
 0 0 1 6 .

 
0 0 0 1

2. Polynômes annulateurs et Théorème de Cayley-Hamilton


m
X
Définition 2.1. Soit f ∈ L(E) un endomorphisme de E et P (X) = ak X k un
k=0
m
X
polynôme à coéfficients dans K. On dit que P est annulateur de f si P (f ) = ak f k = 0.
k=0

Proposition 2.2. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors


il existe au moins un polynôme annulateurs de f .

Démonstration. Comme dim(E) = n, on a dim(L(E)) = n2 , donc la famille


2
{idE , f, · · · , f n } de n2 + 1 vecteurs de L(E) est liée. il existe a0 , a1 , · · · , an2 ∈ K non tous
Xn2 Xn2
k
nuls tel que ak f = 0. Le polynôme Q(X) = ak X k est annulateur de f . 
k=0 k=0

Proposition 2.3. Soit E un K-espace vectoriel de dimension n et f ∈ L(E) et


m
X
P (X) = ak X k un polynôme annulateur de f . Alors toute valeur propre de f est une
k=0
racine de P .
2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 19

Démonstration. Soit λ une valeur propre de f et u un vecteur propre associé.


On a f k (u) = λk u pour tout k ∈ N, donc

m
X
P (f )(u) = ( ak f k (u))
k=0
m
X
= ak f k (u))
k=0
Xm
=( ak λk )u
k=0

= P (λ)u

Comme P est annulateur de f , on a P (λ) = 0. 

Théorème 2.4. Cayley-Hamilton


Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors le polynôme carac-
téristique Pf de f est annulateur de f .

Démonstration. Soit M la matrice f relativement à une base B de E. Posons


N = M − XIn où In est la matrice unité d’ordre n et soit soit N ∗ la comatrice de N . On
a:

t
N ∗ × N = det(N )In
= PM (X)In .

Les coéfficients de N et t N ∗ sont des polynômes de degré inérieur ou égal à n − 1 donc


n−1
X
t ∗
N = Aj X j où les Aj sont des matrices carrées à coéfficients dans K. Nous avons
j=0

Xn−1
t ∗
N × N = (M − XIn )( Aj X j )
j=0

= PM (X)In .
20 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON

n
X
Posons PM (X) = aj X j avec an = (−1)n .
j=0
D’une part on a
Xn−1
t ∗
N × N = (M − XIn )( Aj X j )
j=0
n−1
X n−1
X
j
= M Aj X − Aj X j+1
j=0 j=0

= M A0 + M A1 X + · · · + M An−1 X n−1 − A0 X − A1 X 2 − · · · − An−1 X n


= M A0 + (M A1 − A0 )X + · · · + (M An−1 − An−2 )X n−1 − An−1 X n .

D’autre part on a PM (X)In = a0 In + a1 In X + · · · + an In X n . En identifiant les coéfficients


de même degré, on a

M A0 = a0 In , (M A1 − A0 ) = a0 In , · · · , (M An−1 − An−2 ) = an−1 In et − An−1 = an In .

On en déduit que
n
X
PM (M ) = aj M j )
j=0

= M A0 + M (M A1 − A0 ) + M 2 (M A2 − A1 ) + · · · + M n−1 (M An−1 − An−1 ) − An−1 M n


= 0.

Définition 2.5. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). On appelle


polynôme ninimal de f l’unique polynôme mf (X) vérifiant les propriétés suivantes :
(1) Le polynôme mf (X) est normalisé c’est à dire que son coéfficient dominant vaut 1.
(2) Le polynôme mf (X) est annulateur de f .
(3) Si P est un polynôme annulateur non nul de f alors deg(mf ) ≤ deg(P ).

Théorème 2.6. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors le


polynôme minimal de f divise le polynôme caractéristique Pf de f .

Démonstration. La division euclidienne de Pf par mf donne Pf (X) = mf (X)Q(X)+


R(X) avec deg(R) < deg(mf ). Puisque mf (f ) = 0 et Pf (f ) = 0, on a R(f ) = 0 donc
R = 0. On en déduit que Pf (X) = mf (X)Q(X). 

Remarque 2.7. Comme le polynôme minimal mf de f divise le polynôme caracté-


ristique Pf de f les racines de mf sont des valeurs propres de f et comme de plus mf
2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 21

est annulateur de f , toute valeur propre de f est une racine de mf . On en déduit que les
valeurs propres sont exactement les racines de mf .
Yr Xr r
Y
Si Pf (X) = (−1)n (X − λi )αi avec αi = n alors mf (X) = (X − λi )βi
i=1 i=1 i=1
avec 1 ≤ βi ≤ αi .
Chapitre 3

Décomposition de Dunford

1. Lemme de Noyaux

Théorème 1.1. Lemme des noyaux Soit E un K − ev, f ∈ L(E) un endomorphisme


et P ∈ K[X] un polynôme à coéfficient dans K :
(1) Le sous espace vectoriel ker(P (f )) est stable par f
(2) Si P = P1 P2 · · · Pr où les Pi sont deux à deux premiers entre eux, alors
r
M
ker(P (f )) = ker(Pi (f )).
i=1

m
X m
X
k
Démonstration. (1) Posons P (X) = ak X et P (f ) = ak f k .
k=0 k=0
Xm m
X Xm
k k+1
On a f ◦ P (f ) = f ◦ ( ak f ) = ak f =( ak f k ) ◦ f , donc f et P (f )
k=0 k=0 k=0
commutent. Montrons que ker(P (f )) est stable par f . Soit x ∈ ker(P (f )), on a
P (f )(x) = 0E , donc P (f )(f (x)) = f (P (f )(x)) = f (0E ) = 0 ainsi f (x) ∈ ker(P (f ))
d’où
f (ker(P (f ))) ⊆ ker(P (f )).

(2) Elle se fait par récurrence sur r.


Si r = 2, P = P1 P2 avec P1 , P2 premiers entre eux, d’après l’identité de Bézout, il
existe Q1 , Q2 ∈ K[X] tel que Q1 P1 + Q2 P2 = 1, en appliquant f on a

Q1 (f ) ◦ P1 (f ) + Q2 (f ) ◦ P2 (f ) = idE .

Soit x ∈ ker(P (f )), on a x = Q1 (f )(P1 (f (x))) + Q2 (f )(P2 (f (x))). En posant


x1 = Q2 (f )(P2 (f (x))) et x2 = Q1 (f )(P1 (f (x))), nous avons

P1 (f )(x1 ) = Q2 (f )(P1 (f ) ◦ P2 (f )(x))


= Q2 (f )(P (f )(x))
= 0E

donc x1 ∈ ker(P1 (f ))). On montre de la même manière que x2 ∈ ker(P2 (f ))). Nous
avons ainsi ker(P (f )) = ker(P1 (f ))) + ker(P2 (f ))).
23
24 3. DÉCOMPOSITION DE DUNFORD

Soit x ∈ ker(P1 (f ))) ∩ ker(P2 (f )), on a x ∈ ker(P1 (f )) et x ∈ ker(P2 (f )) donc


P1 (f )(x) = 0 et P2 (f )(x) = 0E , d’où x = Q1 (f )(P1 (f )(x))+Q2 (f )(P2 (f )(x)) = 0E .
il s’en suit que ker(P1 (f )) ∩ ker(P2 (f )) = 0E . Ainsi nous avons

ker(P (f )) = ker(P1 (f )) ⊕ ker(P2 (f )).

On suppose r ≥ 3 et la propriété vraie pour r − 1.


On a P = (P1 P2 · · · Pr−1 )Pr = QPr avec Q = P1 P2 · · · Pr−1 . Comme les poly-
nômes Pi sont deux à deux premiers entre eux, Q et Pr sont premiers entre eux
donc d’après le cas r = 2 on a ker(P (f )) = ker(Q(f )) ⊕ ker(Pr (f )). Par hypothèse
M r
de récurrence ker(Q(f )) = ker(Pi (f )), ainsi
i=1
r
M
ker(P (f )) = ker(Pi (f )).
i=1

Corollaire 1.2. Soit E un K-ev, f ∈ L(E) et P = P1 P2 · · · Pr un polynôme à


coéfficients dans K décomposé en produit de polynômes deux á deux premiers entre eux.
Mr
Si P est annulateur de f alors E = ker(Pi (f ))
i=1

Démonstration. Si P est annulateur de f alors ker(P (f )) = E et on obtient le


résultat en appliquant le théorème ci dessus.


Définition 1.3. Soit E un K-espace vectoriel de dimension n et f ∈ L(E) dont


r
Y
le polynôme caractéristique est Pf (X) = (−1) n
(X − λi )αi avec λi 6= λj si i 6= j et
i=1
r
X
αi = n. Le sous espace Nλ = ker[(f − λi idE )αi ] est appelé sous espace caractéristique
i=1
associé à la valeur propre λ.

On a aussi Nλ = ker[(f − λi idE )βi ] où βi est la multiplicité de la valeur propre λi dans


le polynôme minimal de f .

Théorème 1.4. Soit E un K-espace vectoriel de dimension n, f ∈ L(E) dont le


r
Y
polynm̂e caractéristique est scindé Pf (X) = (−1) n
(X − λi )αi . Alors
i=1
r
M
E= Nλi .
i=1
2. DIAGONALISATION À L’AIDE DES POLYNÔMES ANNULATEURS 25

r
Y
Démonstration. Nous avons Pf (X) = (−1)n (X − λi )αi = P1 P2 · · · Pr où
i=1
Pi = (λi − X)αi . Comme les Pi sont deux à deux premiers entre eux et que Pf est
annulateur de f , on a
r
M r
M
E= ker(Pi (f )) = Nλi .
i=1 i=1

Remarque 1.5. (1) Le sous espace propre Eλi est inclue dans le sous espace ca-
ractéristique Nλi c’est à dire Eλi ⊂ Nλi .

(2) Chaque sous espace caractéristique Nλi est stable par f .

2. Diagonalisation à l’aide des polynômes annulateurs

Théorème 2.1. Soit E un K-ev de dimension n, f ∈ L(E) et λ1 , λ2 , · · · , λr les valeurs


propres deux à deux distinctes de f . Alors les assertions suivantes sont équivalentes :

(1) f est diagonalisable.

(2) Le polynôme minimal mf (X) de f est scindé et ses racines sont simples.

(3) L’endomorphisme f admet un polynôme annulateur P scindé dont les racines sont
simples.

Démonstration. Démontrons que 1 =⇒ 2. Si f diagonalisable alors E admet une


base B = {e1 , e2 , · · · , en } formée de vecteurs propres de f .Comme les valeurs propres sont
Yr
les racines du polynôme minimal, on a Q(X) = (X − λi ) divise le polynôme minimal.
i=1
r
Y
Montrons que mf (x) = (X − λi ), pour cela, il suffit de montrer que le polynôme Q est
i=1
annulateur de f . Comme les (ej )1≤j≤n sont des vecteurs propres de f , pour tout j ∈ [[1, n]]
il existe i ∈ [[1, r]] tel que (f − λi idE )(ej ) = 0E .
On a
r
Y
Q(f )(ej ) = (f − λk idE ) ◦ (f − λi idE (ej ) = 0E .
k=1,k6=i
26 3. DÉCOMPOSITION DE DUNFORD

n
P
Soit x = xj ej et g = Q(f ), on a
j=1

Xn
g(x) = g( xj e j )
j=1
n
X
= xj g(ej )
j=1
n
X
= xj Q(f )(ej ) = 0E .
j=1

Ainsi Q(f )(x) = 0E pour tout x ∈ E, donc Q(f ) = 0 et Q est annulateur de f . On en


déduit que mf divise Q d’où mf = Q il s’en suit que le polynôme minimal est scindé et
ses racines sont simples.
L’implication 2 =⇒ 3 est évident, il suffit de prendre P = mf .
Démontrons que 3 =⇒ 1. On suppose qu’il existe un polynôme annulateur P (X) =
m
Y
(X − ai ) scindé dont les racines sont simples. Comme P est est annulateur de f ses
i=1
valeurs propres sont des racines de P . On peut supposer que les valeurs propres λ1 , · · · , λr
sont respectivement a1 , · · · , ar . Dans ce cas on a

E = ker(f − λ id ) si 1 ≤ i ≤ r
λi i E
.
ker(f − a id ) = {0 } si r + 1 ≤ i ≤ m.
i E E

m
M r
M
D’après le lemme des noyaux, on a E = ker(f − ai idE ) = Eλi donc f est diago-
i=1 i=1
nalisable. 
   
1 3 −1 1
0 0
Exemple 2.2. A = 4−1 3 B = 2 0 1
   

−2 4
4 1 −1 2
   
1 a 1 1 0 1
C = 0 1 b  D =  −1 2 1
   

0 0 c 2−m m−2 m
PD (X) = −(X − 1)(X − 2)(X − m)

3. Diagonalisation simultanée de deux endomorphismes

Définition 3.1. Soit E un K-ev, f ∈ L(E), F un sous espace vectorielle de E stable


par f . L’endomorphisme g ∈ L(F ) défini par g(x) = f (x) ∀x ∈ F est appelé endomor-
phisme de F induit par f .
4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD 27

Proposition 3.2. soit E un K-ev de dimension finie, f ∈ L(E) et F un sous espace


vectoriel de E stable par f .Si f est diagonalisable alors l’endomorphisme induit g ∈ L(F )
est diagonalisable.

Démonstration. Comme f est diagonalisable, il existe un polynôme scindé P ∈


K[X] dont racines simples tel que P (f ) = O. Pour tout x ∈ F , on a

P (g)(x) = P (f )(x) = 0.

Donc P est annulateur de g et est á racines simples, on en déduit que g est diagonalisable.


Théorème 3.3. Soit E un K-ev de dimension n, f et g deux endomorphismes diago-


nalisables de E tel que f ◦ g = g ◦ f . Alors E admet une base formée de vecteur propres
commun à f et g,c’est à dire f et g sont diagonalisable dans une même base de E.
r
M
Démonstration. Comme f est diagonalisable, E = Eλi oú les Eλi sont les sous
i=1
espaces propres de f associés aux valeurs propres λi de f .
Montrons que ∀i ∈ [[1, r]] , le sous espace propre Eλi est stable par g.
Soit x ∈ Eλi , on a
f (g(x)) = f ◦ g(x) = g ◦ f (x)
= g(f (x))
= λi g(x)
Donc g(x) ∈ Eλi d’où g(Eλi ) ⊂ Eλi . Comme g est diagonalisable, l’endomorphisme ϕi
induit par g sur Eλi est diagonalisable. Donc il existe une base Bi de Eλi formée de
[ r
vecteurs propres de ϕi donc de g. L’ensemble B = Bi est une base de E formée de
i=1
vecteurs propres communs à f et g. 

Corollaire 3.4. Soit A, B ∈ Mn (K) deux matrices diagonalisables tel que AB = BA.
Alors il existe P ∈ GLn (K) et deux matrices diagonales D et D0 telles que A = P DP −1
et B = P D0 P −1

4. Décomposition spectrale ou décomposition de Dunford

4.1. Les projecteurs spectraux. Soit E un K−ev de dimension n ∈ N∗ et f ∈ L(E)


r r
un endomorphisme scindé et Pf (x) = (−1)n (X − λi )αi et mf (x) = (X − λi )βi avec
Q Q
i=1 i=1
1 ≤ βi ≤ α i .
mf (X) r
(X − λj )βj . Les polynômes Pi sont deux à
Q
Soit i ∈ [[1, r]], posons Pi = =
(x − λi )βi j6=i
28 3. DÉCOMPOSITION DE DUNFORD

deux premiers entre eux d’aprés l’identité de Bezout , il existe des polynômes Q1 , · · · , Qr
r
P
tels que Pi Qi = 1. On dit que les polynômes Qi sont asociés aux polynômes Pi
i=1

Définition 4.1. On appelle projecteur spectral associé à f et à λi l’endomorphisme

πi = Pi (f ) ◦ Qi (f )

Lemme 4.2. Les endomorphismes πi vérifient les propriétés suivantes


r
P
(1) πi = idE
i=1

(2) πi ◦ πj = 0 si i 6= j

(3) πi2 = πi
r
P r
P
Démonstration. (1) Comme Pi Qi = 1, on a πi = idE .
i=1 i=1

(2) On a, pour tout j 6= i, que le polynôme minimal mf de f divise Pi Pj , donc


Pi Pj (f ) = 0 et on a les égalités

πi ◦ πj = Qi Pi (f ) ◦ Qj Pj (f )
= Qi Pi Qj Pj (f )
= Qi Qj Pi Pj (f )
= Qi Qj (f ) ◦ Pi Pj (f ) = 0

r
X
(3) Soit i ∈ {1, . . . , r}, comme πj = Q1 P1 (f ) + · · · + Qr Pr (f ) = idE , on a les éga-
j=1
lités
r
X r
X
πi = πi ◦ πj = πi ◦ πj = πi2 .
j=1 j=1

Ainsi les πi sont bien des projecteurs.




Lemme 4.3. L’endomorphisme πi est la projection sur le sous espaces carcatéristique


Ni = ker(f − λi idE )αi parallèlement au sous espace Nj .
L
j6=i

Démonstration. (1) Montrons pour tout i ∈ {1, . . . , r}, l’égalité Imπi = Ni .


Soit y = πi (x) ∈ Imπi , on a les égalités
4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD 29

(X − λi )βi (f ) (y) = (X − λi )βi (f ) ◦ Qi Pi (f ) (x)


= Qi (f ) ◦ mf (f ) (x)
=0

Donc on obtient l’inclusion Imπi ⊂ Ni .


Soit x ∈ Ni , pour tout j 6= i, montrons que πj (x) = Qj (f )◦Pj (f ) (x)
! = 0. Nous
(X − λk )βk = Qj (X − λk )βk (X − λi )βi .
Q Q
avons les égalités Qj Pj = Qj
k6=j k6=j;k6=i
!
(X − λk )βk , on a Qj Pj = H(X − λi )βi .
Q
En posant H(X) = Qj
k6=j;k6=i

Il s’en suit que πj (x) = Qj (f ) ◦ Pj (f ) (x) = H(f )((f − λi idE )βi (x)) = 0.
Xr
Donc on obtient l’inclusion Ni ⊂ ker πj et et l’égalité x = πj (x) = πi (x).
j=1
D’où, x = πi (x) ∈ Imπi et Imπi = Ni
L
(2) Montrons pour tout i ∈ {1, . . . , r}, on a l’égalité ker πi = Nj :
j=1, j6=i
L
On a déjà vu, l’inclusion Nj ⊂ ker πi , pour tout j 6= i, donc Nj ⊂ ker πi .
j=1,j6=i
X L
Soit x ∈ ker πi , on a x = πj (x) ∈ Nj , donc on a bien
j=1,j6=i j=1,j6=i

M
ker πi = Nj .
j=1,j6=i

Les résultats 1) et 2) montrent que πi est la projection sur le sous espaces carcatéris-
tique Ni = ker(f − λi idE )αi parallèlement au sous espace
L
Nj . 
j=1,j6=i

4.2. Décomposition de Dunford. Le théorème suivant est appelé décomposition


spectrale ou décomposition de Dunford d’un endomorphisme.

Théorème 4.4. Soit f un endomorphisme trigonalisable. Il existe un unique couple


(N, D) ∈ L (E)2 tel que :
(1) D est diagonalisable et N est nilpotent
(2) f = D + N et D ◦ N = N ◦ D

Démonstration. (1) Montrons d’abord l’existence de D et N .


Soit Pf le polynôme caractéristique de f , il est scindé sur K car f est trigona-
lisable. Distinguons deux cas :
30 3. DÉCOMPOSITION DE DUNFORD

L’endomorphisme f a une seule valeur propre.


Soit E un K − ev de dimension n et f ∈ L(E) un endomorphisme de E. Suppo-
sons Pf (X) = (−1)n (X − λ)n et posons D = λidE et N = f − λidE , d’après le
théorème de Cayley-Hamilton N n = 0, donc N est nilpotent, D est diagonale donc
diagonalisable, D ◦ N = N ◦ D et f = D + N est la dćomposition de Dunford de f .
L’endomorphisme f a plusieurs valeurs propres.
Dans ce cas le polynôme caractéristique est donné par
r
Y
Pf (X) = (−1) n
(X − λi )αi
i=1

D’après le thórème de décomposition des noyaux et le théorème de Cayley-Hamilton,


l’espace E est somme directe des sous-espaces caractéristiques Ni = ker (f − λi id)αi :
r
M
E= Ni
i=1

Soit D l’endomorphisme de E défini par


Lr r
L
D: E= Ni −→ E= Ni
i=1 i=1
Pr Pr
u= ui 7−→ D(u) = λi ui .
i=1 i=1

Où pour tout i ∈ [[1, r]], on a ui ∈ Ni . De plus, on a D(u) = λi u pour tout u ∈ Ni ,


donc D est l’endomorphisme de E dont la restriction à chaque Ni est λi idNi . En
d’autres termes, l’endomorphisme D admet chaque sous-espace Ni comme espace
r
[
propre pour la valeur propre λi . Si Bi est une base de Ni alors B = Bi est une
i=1
base de E formée de vecteurs propres de D, donc D est diagonalisable.
r r
 r 
P P P
De plus on a D(u) = λi ui = λi πi (u) = λi πi (u). On en déduit que
i=1 i=1 i=1
r
X
D= λ i πi .
i=1

Posons N = f − D. Comme les Ni sont stables par f et D, ils le sont également


par N . Soit fi , gi et hi les restriction à Ni de f , D et N , on a hi = fi − gi . Or, par
définition de Ni , on a l’égalité hαi i (x) = (fi − λi idNi )αi (x) = 0 pour tout x ∈ Ni ,
donc hαi i = 0, donc hi est nilpotent et commute avec gi .
r
P
Soit α = max (αi ) et x = xi ∈ E où xi ∈ Ni . On a
1≤i≤r i=1
r
X r
X
α α
N (x) = N (xi ) = hαi (xi ) = 0.
i=1 i=1
4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD 31

On en déduit que N α = 0, d’où l’endomorphisme N est nilpotent et commute


avec D.
(2) Montrons que D et N sont uniques.
Soit (D0 , N 0 ) un couple vérifiant les assertions du théorème.
Comme f = D0 + N 0 et D0 commute avec N 0 , l’endomorphisme D0 commute
avec f , donc avec chacun des πi . En particulier, l’endomorphisme D0 commute avec
D, ainsi, D et D0 sont diagonalisables dans une même base, il existe une matrice
inversible P ∈ GLn (E) et des matrices diagonales D1 et D10 tel que
D = P D1 P −1 et D0 = P D10 P −1 donc D − D0 = P (D1 − D10 )P −1 est diagonali-
sable. De même, l’endomorphisme N 0 commute avec N .
Soit d l’indice de nilpotence de N , d0 celui de N 0 et m = d + d0 . En appliquant
la formule du binôme, on a
m
!
m
X m
(N − N 0 ) = (−1)j N 0j N m−j
j=0
j
d0
! m
!
X m 0
X m
= (−1)j N 0j N d N d −j + (−1)j N 0j N m−j
j=0
j j=d0 +1
j

Or, puisque N d = 0, N 0j = 0 pour j ≥ d0 on a l’égalité (N − N 0 )m = 0 donc


l’endomorphisme N − N 0 est nilpotent. Or, puisque

N − N 0 = f − D − (f − D0 ) = D0 − D,

l’endomorphisme N − N 0 est nilpotent et diagonalisable, donc on a N − N 0 = 0


d’où N = N 0 et D = D0 .


Exemple 4.5. Donner la décomposition spectrale de l’endomorphisme f de R3 dont


la matrice relativement à la base canonique est
 
2 −1 2
A =  10 −5 7 
 

4 −2 2

Le polynôme caractéristique et le polynôme minimal de f sont respectivement PA (X) =


−X 2 (X + 1) et mA (X) = X 2 (X + 1).
Déterminons les projecteurs spectraux associés à λ1 = 0 et λ2 = −1. Nous avons
mf (X) mA (X)
P1 (X) = 2
et P2 (X) = .
X X +1
32 3. DÉCOMPOSITION DE DUNFORD

1
Posons g(X) = , la décomposition en éléments simples de g(X) est donnée par
mA (X)
1 a b c
g(X) = 2 = + 2+ . Nous avons
X (X + 1) X X X +1


 lim X 2 g(X) =b=1


 X→0

lim (X + 1)g(X) = c = 1
 X→−1


 lim Xg(X)
 =a+c=0
X→+∞

1 −X + 1 1
Donc on a a = −1, b = 1 et c = 1 ce qui donne g(X) = = 2
+ ,
mA (X) X X +1
mA (X) mA (X)
ainsi 1 = 2
(−X + 1) + , d’où Q1 (X) = −X + 1 et Q2 (X) = 1.
X X +1
On en déduit que π1 = P1 (A)Q1 (A) = (A + I)(−A + I), π2 = P2 (A)Q2 (A) = A2 ,
D = 0π1 + (−1)π2 = −π2 = −A2 et N = A − D = A + A2 .

Exemple 4.6. Déterminer la décomposition de Dunford l’endomorphisme de R4 dont


la matrice relativement à la base canonique est
 
1 −3 0 3
 
−2 −6 0 13
A=  0 −3

 1 3
−1 −4 0 8
Le polynômes caractéristique de f est PA (X) = (X − 1)4 , la matrice A a une unique
valeur propre et sa décomposition de Dunford est donnée par
 
0 −3 0 3
 
−2 −7 0 13
D = I et N = A − I =   0 −3
.
 0 3
−1 −4 0 7

Exemple 4.7. Donner la décomposition spectrale de l’endomorphisme g de R3 dont


la matrice relativement à la base canonique est
 
3 −1 1
B= 2 0 1 
 

1 −1 2
Le polynômes caractéristique et le polynôme minimal de g sont respectivement PB (X) =
−(X − 1)(X − 2)2 et mB (X) = (X − 1)(X − 2)2
Chapitre 4

Réduction de Jordan

1. Introduction

Définition 1.1. Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K. On


appelle cellule de Jordan de taille n associée à λ, la matrice
 
λ 1 0 ··· 0
1 ··· 0 
 
 0 λ
 . . . . . . . .. 
 
Jλ =  .. . 
 .
..

 . . 1 
 . 
0 ··· ··· ··· λ

 λ si i = j

c’est à dire Jλ = (aij )1≤i,j≤n avec aij = 1 si j = i + 1

0 sinon

Théorème 1.2. Soit Jλ une cellule de Jordan de taille n, alors


(1) Le polynôme caractéristique est PJλ (X) = (λ − X)n
(2) Le polynôme minimal est mJλ (X) = (X − λ)n
(3) On a dim Eλ = 1 où Eλ est le sous-espace propre associé à λ.

Démonstration. 1) évident car le déterminant d’une matrice triangulaire est le


produit des éléments diagonaux.
   
x1 0
 ..   .. 
 .   . 
3) (x1 , . . . , xn ) ∈ Eλ si et seulement si (Jλ − λI)  =  si et seulement si
   
.. ..

 .  
  . 

xn 0
 
0 1 0 ··· 0    
x1 0
1 ··· 0
 
 0 0  ..   .. 

.. . . . . . . ..
 .   . 
. . = ,
    
  .. ..

..
 .   . 

0 0 ··· . 1    
xn 0
 
0 ··· ··· ··· 0
33
34 4. RÉDUCTION DE JORDAN

donc Eλ = Vect(e1 ) avec e1 = (1, 0, . . . , 0) d’où dim Eλ = 1.


2) Posons N = Jλ − λI. D’après le théorème de Cayley-Hamilton on a PJλ (Jλ ) =
N n = 0, donc N est nilpotent. Pour montrer que mJλ = (X − λ)n il suffit de
montrer que l’indice de nilpotence de N est n. On a N = (aij )1≤i,j≤n avec
(
1 si j = i + 1
aij =
0 si j 6= i + 1
n
On a N 2 = (bik )1≤i,k≤n avec bik =
P
aij ajk , si j 6= i + 1 ou k 6= j + 1 on a aij = 0
j=1
ou ajk = 0, donc bik = 0 si j 6= i + 1. Si j = i + 1 et k = j + 1, on a aij = 1 et
ajk = 1, donc bik = 1 si k = i + 2. Ainsi N 2 = (bik )1≤i,k≤n avec
(
1 si k = i + 2
bik =
0 sinon
Montrons par récurrence sur p ≥ 2 que N p = (cij )1≤i,j≤n avec
(
1 si j = i + p
bij =
0 sinon
La propriété est vraie pour 2, supposons la vraie pour p − 1 c’est à dire que N p−1 =
(dij )1≤i,j≤n avec
(
1 si j = i + p − 1
dij =
0 sinon
n
Nous avons N p = N p−1 N = (cik )1≤i,k≤n avec cik =
P
dij ajk .
j=1
Si k 6= i + p alors on a cik = 0 et si k = i + p, on a cik = 1 d’où la proprété est
vraie au rang [Link] calcul précédent montre que N n−1 = (gij )1≤i,j≤n avec
(
1 si j = n et i = 1
gij =
0 sinon

On en déduit que N n−1 6= 0 et N n = 0, ainsi N est nilpotent d’indice n.




Remarque 1.3. Soient E un K−espace vectoriel de dimension n et f ∈ L(E). On


suppose Pf (X) est scindé dans K. La réduction de Jordan consiste à montrer qu’il existe
une base B de E relativement à la quelle la matrice de f est décomposée en bloc
 
Jλ1 0
A0 = 
 .. 
.
 . 
0 Jλt
2. RÉDUCTION DE JORDAN D’UN ENDOMORPHISME NILPOTENT 35

où les Jλi sont des cellules de Jordan, si t = 1, on a un seul bloc de Jordan et si de plus
t = n, la matrice est diagonale

2. Réduction de Jordan d’un endomorphisme nilpotent

Définition 2.1. Soient E un K−espace vectoriel de dimension n et f ∈ L(E).On dit


que f est nilpotent sur K s’il existe p ∈ N tel que f p = 0 dans L (E). Pour f nilpotent,
on note r = min {n ∈ N, f n = 0} que l’on appelle indice de nilpotence de f . On note N
l’ensemble des endomorphismes nilpotents.

Théorème 2.2. (de caractérisation) Soient E un K−espace vectoriel de dimension n


et f ∈ L(E). Les assertions suivantes sont équivalentes :
(1) f est nilpotente sur K.
(2) Le polynôme caractéristique est Pf (X) = (−1)n X n dans K [X]
(3) Il existe r ≤ n tel que le polynôme minimal de f soit mf (X) = X r dans K [X]
(4) f trigonalisable sur K et Sp (f ) = {0}

Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un endomorphisme


nilpotent d’indice r. On a 1 ≤ r ≤ n.

2.1. Réduction de Jordan d’un endomorphisme nilpotent d’indice n.

Définition 2.3. On appelle cellule de Jordan élémentaire une matrice carrée du type :
 
0 1 ∗
 . ... 
 . . 
J =
 
.. 

 . 1 

0 0

Théorème 2.4. Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un


endomorphisme nilpotent d’indice r = n. Alors
(1) Le polynôme caractéristique et le polynôme minimal de f sont respectivement Pf (X) =
(−1)n X n et mf (X) = X n .
(2) Il existe x tel que B = {f n−1 (x), f n−2 (x), . . . , f (x), x} soit une base de E.
(3) Relativement à B la matrice de f est un bloc de Jordan élémentaire c’est à dire
MatB (f ) = J.

Démonstration. Soient E un K−espace vectoriel de dimension n et f un endomor-


phisme nilpotent de E d’indice de nilpotence n. On a f n = 0 et f n−1 6= 0 et il existe
36 4. RÉDUCTION DE JORDAN

x ∈ E tel que f n−1 (x) 6= 0E . Il est claire que B = {f n−1 (x), f n−2 (x), . . . , f (x), x} est une
base de E adaptée à la réduction de Jordan de f . Relativement à cette base
 
0 1 0 ··· 0
1 ··· 0 
 
 0 0
 . . . . . . . .. 
 
MB (f ) =  .. . 
 .
..

 . . 1 
 . 
0 ··· ··· ··· 0

 
4 −5 −2
Exemple 2.5. A =  −2 −2 −8 
 

−5 4 −2
Déterminer la réduction de Jordan de l’endomorphisme f associé à A.
Le polynôme caractéristique de f est donné par PA (X) = −X 3 et d’après e théorème
Cayley-Hamilton on a A3 = 0M3 . De plus
 
36 −18 36
2
A =  36 −18 36  6= 0M3 ,
 

−18 9 −18
donc A est nilpotent d’indice 3. On a f 2 (e3 ) = (36, 36, −18) 6= (0, 0, 0), donc B =
{f 2 (e3 ), f (e3 ), e3 } avec f (e3 ) = (−2, −8, −2) et e3 = (0, 0, 1) est une base de R3 adaptée
   
36 −2 0 0 1 0
à la réduction de Jordan de f . On a P =  36 −8 0  et A0 =  0 0 1 .
   

−18 −2 1 0 0 0
Exemple 2.6. Donner la réduction de Jordan de l’endomorphisme associé à la matrice
 
4 −4 0 2
 
 4 −4 −2 4 
B=  .
 0 0 4 −8 

0 0 2 −4
2.2. Réduction de Jordan d’un endomorphisme nilpotent d’indice r < n.
Soient E de dimension n, f ∈ L(E) nilpotent d’indice r < n et p ∈ N, 0 ≤ p ≤ r.
Posons kp = ker f p et , dp = dim(kp ). La réduction de jordan de f consiste à trouver une
base de E relativement à la quelle la matrice de f est décomposée en blocs de [Link]
obtenir cette décomposition on utilise les lemmes suivants :

Lemme 2.7. On a une suite d’inclusions strictes des noyaux :

{0E } = k0 ( k1 ( . . . ( kr = E.
2. RÉDUCTION DE JORDAN D’UN ENDOMORPHISME NILPOTENT 37

Démonstration. Soit p ∈ [[0, r]] et soit x ∈ kp , nous avons f p (x) = 0E ce qui entraîne
f p+1 (x) = f (f p (x)) = f (0E ) = 0E d’où kp ⊂ kp+1 . Puisque f est nilpotent d’indice r, on
a f r−1 6= 0 et il existe u ∈ E tel que f r−1 (u) 6= 0E .
Pour tout entier p ∈ [[1, r − 1]],on a f r−p (f p (u)) = f r (u) = 0E et f r−p−1 (f p (u)) =
f r−1 (u) 6= 0E , donc f p (u) ∈
/ kr−p−1 . Ainsi nous avons

kr−p−1 ( kr−p .

Lemme 2.8. Il existe des sous-espaces vectoriels F1 , F2 , . . . , Fr non réduits à {0E }, tels
que
(
kp = kp−1 ⊕ Fp , 1 ≤ p ≤ r
f (Fp ) ⊂ Fp−1 , 2 ≤ p ≤ r

Démonstration. Elle se fait par récurrence descendante sur p.


Supposons p = r, comme kr−1 ( kr ,le sous espace kr−1 admet un supplémentaire Fr dans
kr c’est à dire kr = kr−1 ⊕ Fr donc la propriété est vraie si p = r.
Supposons construits les sous-espaces Fr , Fr−1 , Fp vérifiant les conditions du Lemme 1 et
construisons Fp−1 .
Soit x ∈ Fp ; comme Fp ⊂ kp , on a f p (x) = 0E d’où f p−1 (f (x)) = 0E ainsi f (x) ∈ kp−1 ,
donc f (Fp ) ⊂ kp−1 . Montrons que f (Fp ) et kp−2 sont en somme directe dans kp−1 . Soit
y ∈ f (Fp ) ∩ kp−2 . On a y ∈ f (Fp ) ∩ kp−2 entraîne y ∈ f (Fp ) et y ∈ kp−1 , donc il existe
t ∈ Fp tel que y = f (t) et f p−2 (y) = 0E .
Donc f p−1 (t) = f p−2 (y) = 0E , on en déduit que t ∈ kp−1 . Ainsi t ∈ kp−1 ∩ Fp = {0E }
d’où t = 0E et y = f (t) = 0E , par suite f (Fp ) ∩ kp−2 = {0E }. Donc les sous espaces f (Fp )
et kp−1 sont en somme directe dans kp−1 . On a deux possibilité : f (Fp ) ⊕ kp−2 = kp−1 ou
f (Fp ) ⊕ kp−2 ( kp−1 .
Si f (Fp ) ⊕ kp−2 = kp−1 , il suffit de prendre Fp−1 = f (Fp ).
Si f (Fp ) ⊕ kp−2 ( kp−1 ,le sous espace f (Fp ) ⊕ kp−2 admet un supplément Gp−1 dans kp−1
donc kp−1 = f (Fp ) ⊕ Gp−1 ⊕ kp−2 . il suffit de prendre Fp−1 = f (Fp ) ⊕ Gp−1 . 

Lemme 2.9. L’espace E est somme directe des Fi

r
M
E= Fi .
i=1
38 4. RÉDUCTION DE JORDAN

Démonstration.

E = kr = kr−1 ⊕ Fr
= kr−2 ⊕ Fr−1 ⊕ Fr
=
..
.
= Fr ⊕ Fr−1 ⊕ . . . ⊕ F1 .

Lemme 2.10. L’image par f d’une base de Fp est une famille libre de Fp−1 .

Démonstration. Soient {v1 , . . . vm }, une base de Fp et α1 , . . . , αm ∈ K tel que


m
P
αi f (vi ) = 0E . Nous avons les implications suivantes :
i=1

m
X m
X
αi f (vi ) = 0E =⇒ f ( αi vi ) = 0E
i=1 i=1
m
X
=⇒ αi vi ∈ ker f = k1 ⊂ kp−1
i=1
Xm
=⇒ αi vi ∈ Fp ∩ kp−1 = 0E
i=1
Xm
=⇒ αi vi = 0E
i=1

=⇒ α1 = . . . = αm = 0.

On en déduit que {f (v1 ), . . . , f (vm )} est libre dans Fp−1 . 

Les lemmes ci-dessus permettent de construire une base E adaptée à la réduction de


Jordan.

Définition 2.11. À toute suite finie d’entiers (n1 , . . . , nr ) vérifiant 0 < n1 ≤ n2 ≤


· · · ≤ nr , on peut associer un tableau à r lignes, dont la i-ème ligne comporte ni cases.
On note TY (n1 , . . . , nr ) ce tableau appelé tableau de Young. Un tableau de Young est
un tableau formé de cases disposées en lignes et dont les longueurs vont en croissant. Le
nombre de tableaux de Young en tout n cases est égal au nombre de partitions de l’entier
n.
2. RÉDUCTION DE JORDAN D’UN ENDOMORPHISME NILPOTENT 39

Un exemple de tableau de Young, TY (1, 3, 4, 6) est donné par

1
3
4
6

Théorème 2.12. (décomposition de Jordan pour les nilpotents)


Soient E un K-espace vectoriel de dimension n et f ∈ L(E) nilpotent d’indice r < n.
Alors il existe une base B telle que

MatB (f ) = Diag (J1 , . . . , Jn1 ) =: J˜

où Ji est un cellele de Jordan élémentaire. La matrice J˜ est appelée la réduite de Jordan


de f .
r
[
Démonstration. Soit 1 ≤ p ≤ r − 1 et Bp une base de Fp . L’ensemble B = Bp
p=1
est une base de E adaptée à la réduction de Jordan de f . 

Posons dp = dim(kp ) comme kp = kp−1 ⊕ Fp on a dim(Fp ) = dp − dp−1 . À partir de la


suite (dp − dp−1 )1≤p≤r−1 on construit le tableau de Young associé à la valeur propre λ = 0,
en plaçant à la première ligne le nombre de cases égal la dimension de Fr où r est l’indice
de nilpotence de f et les vecteurs qui composent cette ligne sont ceux qui engendrent Fr .
La deuxième ligne est composée de dim(Fr−1 ) cases et les vecteurs qui composent cette
ligne sont images par f des vecteurs engendrant Fr complétés au besoin par des vecteurs
appartenant à kr−1 qui ne sont pas dans kr−2 , ainsi de suite et le nombre de cases de la
dernière ligne est égal à la dimension du sous espace propre E0 associée à la valeur propre
0.
Nous avons le tableau de Young suivant

Fr u1 u2
Fr−1 f (u1 ) f (u2 ) W1
.. .. .. ..
. . . .
F1 f r−1 (u1 ) f r−1 (u2 ) · · · ···

Chaque colonne du tableau correspond à un bloc de Jordan donc le nombre de blocs


de valeurs est égal à la dimension du sous-espace propre. La taille de la plus grande cellule
de Jordan est égale à l’indice de nilpotence r de l’endomorphisme f c’est aussi le degré
du polynôme minimal de f .
40 4. RÉDUCTION DE JORDAN

Exemple 2.13. Donnons la réduction de Jordan de l’endomorphisme f ∈ L(R4 ) as-


socié à la matrice A avec  
0 0 3 4
 
0 0 2 4
A=
0
.
 0 0 2

0 0 0 0
Le polynôme caractéristique est donné par PA (X) = X 4 et on
 
0 0 0 6
 
0 0 0 4
A2 = 0
 A3 = 0.
 0 0 0 
0 0 0 0

L’endomorphisme f est nilpotent d’indice 3. Déterminons la suite des noyaux. On a k3 =


ker f 3 = R4 car f 3 = 0,
  
 


 x 
 0
     
2 y  0 
    
k2 = ker f 2 = (x, y, z, t) ∈ R4 / A  =  .



  z   0 


 
 t 0 

Ce qui donne k2 = Vect(e1 , e2 , e3 ) e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0).



 3z + 4t = 0

k1 = ker f donc (x, y, z, t) ∈ k1 ⇐⇒ 2z + 3t = 0 ⇐⇒ z = t = 0, donc

t = 0

k1 = Vect(e1 , e2 ) avec e1 = (1, 0, 0, 0) et e2 = (0, 1, 0, 0).
La suite des dimensions des Fp est donnée par d3 − d2 = 1 ; d2 − d1 = 1 ; d1 − d0 =
4
d1 = 2. le sous espace F3 est un supplémentaire de k2 dans R c’est à dire k3 = k2 ⊕F3 , donc
on peut prendre F3 = Vect(e4 ). Le vecteur f (e4 ) appartient à F2 et comme dim(F2 ) = 1,
on peut prendre F2 = Vect(f (e4 )). De plus comme f 2 (e4 ) ∈ F1 , on complète f 2 (e4 ) par
e2 pour avoir une base de F1 . Ce qui donne le tableau de Young T Y (1, 1, 2) suivant :

F3 e4
F2 f (e4 ) .
F1 f 2 (e4 ) e2

Ce tableau indique qu’il y a deux blocs de Jordan associée à valeur propre 0 de la matrice
A, un bloc de taille 3 et un bloc de taille 1.
Posons v1 = f 2 (e4 ) = (6, 4, 0, 0) = 6e1 + 4e2 , v2 = f (e4 ) = (4, 3, 2, 0) = 4e1 + 3e2 + 2e3 ,
v3 = e4 et v4 = e2 de sorte que A = {v1 , v2 , v3 , v4 } soit une base de R4 adaptée à la
2. RÉDUCTION DE JORDAN D’UN ENDOMORPHISME NILPOTENT 41

réduction de Jordan de A. Ce qui montre qu’une réduction de Jordan de A est donnée


par :
   
0 1 0 0 6 4 0 0
!    
J1 0 0 0 1 0
 et P = 4 3 0 1
A0 =

= .
0 J2 0 0 0 0
  0 2
 0 0

0 0 0 0 0 0 1 0
Avec
 
0 1 0
J1 = 0 0 1 et J2 = (0)
 

0 0 0

Exemple 2.14. Donner la réduction de la matrice


 
0 0 0 0
 
0 0 0 0 
A= 1

 2 2 1
−2 −4 −4 −2

Le polynôme caractéristique de A est PA (X) = X 4 . On a A2 = 0 donc A est nilpotent


d’indice 2. Déterminons la suite des noyaux k2 = ker f 2 = R4 .
Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc

k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = Vect{u1 , u2 , u3 },

avec u1 = (1, 0, 0, −1); u1 = (1, 0, 0, −1); u3 = (0, 0, 1, −2). On a d2 = 4; d1 = 3 donc


d2 − d1 = 1; d1 − d0 = d1 = 3. Le sous espace F2 est un supplémentaire de k1 dans R4
(R4 = k2 = k1 ⊕ F2 ), donc on peut prendre F2 = Vect(e4 ).
Le vecteur f (e4 ) = (0, 0, 1, −2) = u3 appartient à F1 . On peut compléter f (e4 ) par
u1 = (1, 0, 0, −1) et u1 = (1, 0, 0, −1) pour avoir

F1 = Vect(f (e4 ), u1 , u2 ).

Posons v1 = f (e4 ) = (0, 0, 1, −2), v2 = e4 , v3 = u1 et v4 = u2 .


L’ensemble B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de A. Ce qui
donne le tableau de Young T Y (1, 3) suivant :

F2 e4
k1 = F1 f (e4 ) u1 u2

La réduction de Jordan de A est donnée par


42 4. RÉDUCTION DE JORDAN

   
0 1 0 0 0 0 1 0
   
0 0 0 0
0  et P =  0 0 0 1

A =
0 0 (0)

 0 
1 0 0
 0

0 0 0 (0) −2 1 −2 −2

Exemple 2.15. Donner la réduction de la matrice


 
1 1 0 0 0 0
 
−1 0 1 0 0 0
 
 1 0 −1 0 0 0
A=
 

−1 0 1 1 1 0
 
 1 0 −1 −1 −1 0
 
−1 0 1 1 1 0
Le polynôme caractéristique de A est PA (X) = X 6 . Les puissances successives de A sont
 
0 1 1 0 0 0
 
0 −1 −1 0 0 0
 
0 1 1 0 0 0
2
A =  et A3 = 0.
 
0 −1 −1 0 0 0
 
0 1 1 0 0 0
 
0 −1 −1 0 0 0
L’endomorphisme f est nilpotent d’indice 3. Déterminons la suite des noyaux : (x1 , x2 , x3 , x4 , x5 , x6 ) ∈
 
 x1 + x2
 = 0  x2 = −x1

k1 ⇐⇒ −x1 + x3 = 0 ⇐⇒ x3 = x1
 
−x2 + x3 + x4 + x5 = 0 x5 = −x4
 

donc
k1 = Vect{e1 − e2 + e3 , e4 − e5 , e6 } = Vect{u1 , u2 , e6 }
avec u1 = (1, −1, 1, 0, 0, 0) = e1 − e2 + e3 ; u2 = (0, 0, 0, 1, −1, 0) = e4 − e5 et u3 =
(0, 0, 0, 0, 0, 1) = e6 .
De même (x1 , x2 , x3 , x4 , x5 , x6 ) ∈ k2 ⇐⇒ x2 + x3 = 0, donc

k2 = Vect{e1 , e2 − e3 , e4 , e5 , e6 }.

d1 = 3; d2 = 5; d3 = 6 ; d3 − d2 = 1; d2 − d1 = 2; d1 − d0 = d1 = 3.
Déterminons le tableau de Young associé à l’unique valeur propre λ = 0 de la matrice A.
Ce tableau est le tableau de Young associé à la suite

(d3 − d2 , d2 − d1 , d1 ) = (1, 2, 3)
2. RÉDUCTION DE JORDAN D’UN ENDOMORPHISME NILPOTENT 43

qui constitue une partition de l’entier 6 = dim(R6 ).


Comme R6 = k3 = k2 ⊕F3 , on peut prendre F3 = Vect{e3 }. On a f (e3 ) = (0, 1, −1, 1, −1, 1) =
e2 − e3 + e4 − e5 + e6 ∈ F2 . Le sous espace F2 est un supplémentaire de k1 dans k2 , c’est
à dire k2 = k1 ⊕ F2 , donc on peut compléter f (e3 ) par e4 pour avoir F2 = Vect(f (e3 ), e4 ).
Les vecteurs f 2 (e3 ) = (1, −1, 1, −1, 1, 1) et f (e4 ) = (0, 0, 0, 1, −1, 1) sont dans F1 = k1 on
peut les compléter par e6 pour avoir F1 = k1 = Vect(f 2 (e3 ), f (e4 ), e6 ). Ce qui donne le
tableau de Young T Y (1, 2, 3) suivant :

F3 e3
F2 f (e3 ) e4
F1 f 2 (e3 ) f (e4 ) e6

Le tableau indique qu’il y’a trois blocs de Jordan, un bloc de taille 3, un de taille 2 et un
bloc de taille 1. Posons v1 = f 2 (e3 ), v2 = f (e3 ), v3 = e3 , v4 = f (e4 ), v5 = e4 et v6 = e6 de
sorte que B = {v1 , v2 , v3 , v4 , v5 , v6 } soit une base de R6 adaptée à la réduction de Jordan
de A. Ce qui montre qu’une réduction de Jordan de A est donnée par :

     
1 0 0 0 0 0 0 1 0 0 0 0
   
−1 1 0 0 0 0 0 0 1 0 0 0
 
 
   
 1 −1 1 0 0 0  0 0 0 0 0 0 
P =  et A0 = 
   ! 

−1 1 0 1 1 0  0 0 0 1 0 0 
   
 1 −1 0 −1 0 0 0 0 0
0 0 0
 
   
1 1 0 1 0 1 0 0 0 0 0 (0)

Exemple 2.16. Donner la réduction de Jordan de la matrice


 
0 −1 2 −2 −1
0 0 0 0 0
 
 
A= 0 1 0 0 0
0 1 0 0 0
 

0 1 −1 1 0

On a
 
0 −1 1 −1 0
0 0 0 0 0
 
 
A2 = 
0 0 0 0 0 ,

0 0 0 0 0
 

0 0 0 0 0
et A3 = 0, A est nilpotent d’indice 3.
44 4. RÉDUCTION DE JORDAN

3. Réduction dans le cas Pf (X) = (λ − X)n avec λ 6= 0

Soit E un K−e.v. de dimension n ∈ N? . Soit f ∈ L(E) tel que Pf (X) = (−1)n (λ−X)n .
Posons ϕ = f − λidE , d’après Cayley Hamilton, Pf (f ) = 0 donc ϕn = 0 donc ϕ est
nilpotent.
La réduction de Jordan de f se ramène à la réduction de Jordan de ϕ. Si P et B 0 sont
les matrices obtenues pour la réduction de jordan de ϕ alors P et A0 = B 0 + λIn sont les
matrices obtenues pour la réduction de jordan de f .

Exemple 3.1. Donnons la réduction de Jordan l’endomorphisme f associé à la matrice


 
13 −5 −2
A = −2 7 −8
 

−5 4 7

Le polynôme caractéristique de A est PA (X) = −(X − 9)3 .


 
4 −5 −2
Posons B = A − 9I = −2 −2 −8 de sorte que la réduction de Jordan de A se
 

−5 4 −2
ramène à la réduction de Jordan de B. Les puissances successives de B sont
 
36 −18 36
B 2 =  36 −18 36  et B 3 = 0.
 

−18 9 −18

Le vecteur u = e1 = (1, 0, 0) verifie f 2 (e1 ) 6= 0 donc B = {f 2 (e1 ), f (e1 ), e1 } est une base
de Jordan adaptée à la réduction de Jordan de B donc de A.
Les matrices obtenues pour la réduction de jordan de B sont
   
0 1 0 36 4 1
B 0 = 0 0 1 et P =  36 −2 0 .
   

0 0 0 −18 −5 0

la réduction de jordan de A est obtenue par P et A0 = B 0 + 9I3 . On a

 
9 1 0
A0 = 0 9 1
 

0 0 9

Exemple 3.2. Donnons la réduction de Jordan l’endomorphisme f associé à la matrice


3. RÉDUCTION DANS LE CAS Pf (X) = (λ − X)n AVEC λ 6= 0 45

 
1 0 0 0
 
0 1 0 0
A=
 
 1 2 3 1 

−2 −4 −4 −1

Le polynôme caractéristique de A estPA (X) = (X − 1)4


.
0 0 0 0
 
0 0 0 0 
Posons ϕ = f − λ idR4 et B = A − I =  1
 . On a B2 = 0 donc B est
 2 2 1
−2 −4 −4 −2
nilpotent d’indice 2
Déterminons la suite des noyaux k2 = ker ϕ2 = R4 .
Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc

k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = Vect{u1 , u2 , u3 },

avec u1 = (1, 0, 0, −1); u2 = (0, 1, 0, −2); u3 = (0, 0, 1, −2). On a d2 = 4; d1 = 3 donc


d2 − d1 = 1; d1 − d0 = d1 = 3. Nous avons k2 = k1 ⊕ F2 et k1 = k0 ⊕ F1 , F2 = vect(e4 ) ;
f (e4 ) = (0, 0, 1, −2) = u3 , v1 = f (e4 ) = (0, 0, 1, −2) = u3
v2 = e4 ; v3 = u1 ; v4 = u2
B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de B Ce qui donne le tableau
de Young

F2 e4
k1 = F1 f (e4 ) u1 u2

La réduction de Jordan de B est donnée par

   
0 1 0 0 0 0 1 0
   
0 0 0
0 0 0 0 0 1 
B =
0 0 (0)
 et P =  
 0 
1 0 0
 0
0 0 0 (0) −2 1 −2 −2
 
1 1 0 0
 
 0 1 0 0 
Donc P et A0 = B 0 + I = 
0 0 (1) 0  sont les matrices obtenues pour la

 
0 0 0 (1)
réduction de jordan de f .
46 4. RÉDUCTION DE JORDAN

Exemple 3.3. Donner la réduction de Jordan de l’endomorphisme canoniquement


associé à la matrice
 
−1 1 0
1 0
−4 1 −3 2 1
 
 
−2 −1 0 1 1
A= 
−3 −1 −3 4 1
 

−8 −2 −7 5 4

On a PA (X) = −(X − 2)5 donc f a une seule valeur propre λ = 2.


Posons ϕ = f − 2 idR5 et
   
−1 0 −1 1 0 0 0 0 0 0
−4 −1 −3 2 1  0 0 0 0 0
   
  2
 
B = A − 2I5 =  −1 0 −1 1 0 et B 3 = 0
−2 −1 −2 1 1
 , B =  
−3 −1 −3 2 1 −1 0 −1 1 0
   

−8 −2 −7 5 2 −1 0 −1 1 0

L’endomorphisme ϕ est nilpotent d’indice 3, pour faire la réduction de Jordan de f il


suffit de faire la réduction de Jordan de ϕ. La suite des noyaux pour ϕ est donnée par

k1 = ker(ϕ) = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 / x1 = 0, x4 = x3 et x5 = x2 + x3 }.

On a k1 = Vect(u1 , u2 ) avec u1 = (0, 1, 0, 0, 1) et u2 = (0, 0, 1, 1, 1) ; dim(k1 ) = 2.

k2 = ker(ϕ) = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 / x4 = x1 + x3 }.

On a k2 = Vect(u3 , u4 , u5 , u6 ) avec u3 = (1, 0, 0, 1, 0) et u4 = (0, 1, 0, 0, 0),


u5 = (0, 0, 1, 1, 0) et u6 = (0, 0, 0, 0, 1) ; dim(k2 ) = 4.
Comme ϕ3 = 0, on a k3 = R5 , donc d1 = 2, d2 = 4 et d3 = 5 ce qui donne un tableau
de Young T Y (1, 2, 2). On a k3 = k2 ⊕ F3 , donc on peut prendre F3 = Vect(e4 ) avec
e4 = (0, 0, 0, 1, 0) et ϕ(e4 ) = (1, 2, 1, 2, 5). On complète ϕ(e4 ) par un vecteur appartenant
à k2 et qui n’est pas dans k1 , le vecteur e5 = (0, 0, 0, 0, 1) convient. On a ϕ2 (e4 ) =
(0, 0, 1, 1, 1) = u2 et ϕ(e5 ) = (0, 1, 1, 1, 2). Ce qui donne le tableau de Young suivant :

F3 e4
F2 ϕ(e4 ) e5
F1 ϕ2 (e4 ) ϕ(e5 )
Ce tableau indique qu’on deux cellule de Jordan, un de taille 3 et un de taille 2. Posons
v1 = ϕ2 (e4 ) = (0, 0, 1, 1, 1) = u2 ; v2 = ϕ(e4 ) = (1, 2, 1, 2, 5) ; v3 = e4 ; v4 = ϕ(e5 ) =
4. RÉDUCTION DE JORDAN DANS LE CAS GÉNÉRAL 47

(0, 1, 1, 1, 2) et v5 = e5 . La réduction de Jordan de f est donnée par


     
0 1 0 0 0 2 1 0 0 0
0 2 0 1 0    0 2 1  0 0
     

0
   
P = 1 1 0 1 0 et A = 
  0 0 2 0 0 
! 
1 2 1 1 0  0 0 0 2 1
   
 
1 5 0 2 1 0 0 0 0 2

4. Réduction de Jordan dans le cas général

Soient E un K−e.v. de dimension n ∈ N? et f ∈ L(E) tel que


r
Y
Pf (X) = (λi − X)αi
i=1
r
X
avec αi = n r ≥ 2 et λi 6= λj si i 6= j. Soit Nλi le sous-espace caractéristique associé
i=1
r
M
à λi , on a E = Nλi . Soit gi l’endomorphisme de Nλi induit par f − λidE
i=1

gi : Nλi 7−→ Nλi


x 7−→ gi (x) = (f − λi idE )(x)
gi est nilpotent d’indice ri où ri est la multiplicité de λi dans le polynôme minimal de f .
La réduction de Jordan de f se ramène à la réduction de Jordan de gi .

Théorème 4.1. (Décomposition de Jordan généralisée)


r
Soient E un K−e.v. de dimension n ∈ N? et f ∈ L(E) tel que Pf (X) = (λi − X)αi
Q
i=1
r
X
avec αi = n r ≥ 2 et λi 6= λj si i 6= j. Alors il existe une base B de E telle que
i=1
 
MatB (f ) = Diag J˜ (λ1 ) , . . . , J˜ (λr )

où J˜ (λi ) = λi Iαi + J̃i (J̃i étant la réduite de Jordan du nilpotent (f − λi IdE )|Ni . L’endo-
morphisme (f − λi idE )|Ni est la restriction de (f − λi idE ) à Ni et Ni = ker (f − λi idE )αi )
est la sous espace caractéristique associé à la valeur propre λi .

Notons que pour chaque valeur propre λ :


• Le nombre de cellules de Jordan associés à la valeur propre λ est égal à la dimension
du sous-espace propre Eλ .
• La taille de la plus grande cellule de Jordan associée à λ est la multiplicité de λ
comme racine du polynôme minimal.
48 4. RÉDUCTION DE JORDAN

Exemple 4.2. Donnons la réduction de Jordan l’endomorphisme f associé à la matrice

 
1 −1 2 −2
 
0 0 1 −1
A=
 .
1 −1 1 0 

1 −1 1 0

Le polynôme caractéristique de A est


PA (X) = X 2 (X − 1)2 les valeurs propres de f sont Spec(A) = {0, 1}
Pour λ = 0 on a la suite des noyaux {0} ( ker f ( ker f 2 = N0 où N0 est le sous espace
caractéristique associé à la valeur propre 0. On a
 
1 −1 1 −1
 
2
0 0 0 0 
A =
 ,
 2 −2 2 −1

2 −2 2 −1

k0 = {0}, k1 = ker f et k2 = ker f 2



 x − y + 2t − 2z = 0

(x, y, z, t) ∈ k1 =⇒ z−t = 0 =⇒ 0 = z = t, x=y

x−y+t = 0

k1 = V ect{u1 } avec u1 = (1, 1, 0, 0)
dim k1 = 1
(
x−y+z−t = 0
(x, y, z, t) ∈ K2 =⇒ =⇒ y = x + z, t = 0
2x − 2y + 2z − t = 0
donc k2 = V ect{u1 , u2 } avec u2 = (0, 1, 1, 0). On a d2 = 2. k2 = k1 ⊕ F2 et k1 = F1 = E0
où E0 est le sous espace propre associé à la valeur propre 0. Les dimensions de F2 et F1
sont respectivement d2 − d1 = 1 et d1 − d0 = d1 = 1 de sorte qu’on ait le tableau de Young
suivant

F2 u2
.
F1 f (u2 )

Il y a un seul bloc de Jordan associé à la valeur propre 0.


0 0
Pour λ = 1, posons ϕ = f − idR4 , k1 = ker ϕ et k2 = ker(ϕ2 ). On a
4. RÉDUCTION DE JORDAN DANS LE CAS GÉNÉRAL 49


  
0 −1 2 −2 0 1 −3 3
   
0 −1 1 −1 2
0 1 −2 2 
A−I =
1 −1 0 0  et (A − I) = 0 0 1 −1 .
  
   
1 −1 1 −1 0 0 0 0




 −y + 2z − 2t = 0
 (
 −y + z − t = 0 x=y = 0
0
Déterminons les noyaux (x, y, z, t) ∈ k1 =⇒ =⇒


 x−y = 0 z = t

 x−y+z−t = 0
0
donc k1 = V ect{u3 } avec u3 = (0, 0, 1, 1).

 −y − 3z + 3t = 0

0
De même (x, y, z, t) ∈ k2 =⇒ y − 2z + 2t = 0 =⇒ z = t, y = 0,

z−t = 0

0 0 0
ainsi k2 = {(x, 0, z, t)} = V ect{(1, 0, 0, 0), (0, 0, 1, 1)}. on a dim k2 = d2 = 2
0 0 0 0 0 0
k2 = k1 ⊕ F2 , k1 = F1 ; on peut prendre F2 = V ect{e1 }. Les dimensions de F2 et F1 sont
0 0 0 0
d2 − d1 = 1 et d1 − d0 = 1. Ce qui permet d’obtenir la tableau de Young suivant :

0
F2 e1
0
F1 ϕ(e1 )

Il y a un seul bloc de Jordan associé à la valeur propre 1.


Posons v1 = f (u2 ) = (1, 1, 0, 0), v2 = u2 = (0, 1, 1, 0); v3 = ϕ(e1 ) = (0, 0, 1, 1) et
v4 = e1 . L’ensemble B = {v1 , v2 , v3 , v4 } est une base de R4 adaptée à la réduction de
Jordan de f . !
J0 0
A0 = où J0 est un bloc de Jordan associé à la valeur propre 0 et J1 est un seul
0 J1
bloc de Jordan associé à la valeur propre 1. De sorte que la réduction de Jordan de f est
donnée par :

   ! 
1 0 0 1 0 1 0 0
   
1 1 0 0 0
 0 0 0 0 
P =
  et A =  ! 
 0 0 1 1


 0 0 1 1 

0 0 1 0 0 0 0 1
50 4. RÉDUCTION DE JORDAN

Exemple 4.3. Soit α ∈ R. Déterminer suivant les valeurs de α la réduction de Jordan


de l’endomorphisme fα associé à la matrice suivante :
 
1 α 0 0
 
0 1 0 0 
Aα =  1

 2 3 1 

−2 −4 − α −4 −1
Chapitre 5

Systèmes différentiels et Équations différentielles linéaires d’ordre


n à coéfficients constants

1. Systèmes différentiels linéaires

1.1. Exponentiel d’une matrice.

Définition 1.1. Soit E un C-espace vectoriel. On appelle norme sur E une application

k, k : E −→ R+
x 7−→ kxk

vérifiant les propriétés suivantes

(1) kxk = 0 si et seulement si x = 0E .

(2) kλxk = |λ|kxk pour tout λ ∈ C et pour tout x ∈ E.

(3) kx + yk ≤ kxk + kyk pour tout x, y ∈ E.

Définition 1.2. Soit Mn (R) l’ensemble des matrices carrées d’ordre n à coéfficients
dans R. On appelle norme matricielle sur Mn (R) vérifiant kABk ≤ kAkkBk.

Remarque 1.3. Soit k, k une norme matricielle sur Mn (R), ∀A ∈ Mn (R) et ∀k ∈


Ak kAkk Ak
N on a k k ≤ . On en déduit que la série matricielle de terme général est
k! k! k!
convergente.

Définition 1.4. Soit A ∈ Mn (R). On appelle exponentiel de A la somme de la série



Ak X Ak
matricielle de terme général on note eA = et on a eA ∈ Mn (R).
k! k=0
k !

Proposition 1.5. Soit A, B ∈ Mn (R). Si AB = BA alors eA+B = eA eB

Démonstration. Comme AB = BA, la formule du binôme entraîne


m  
m
X m k m−k
(A + B) = A B . On a
k=0
k
51
5.
52SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

m
m
P  k m−k
A B
(A + B)m k=0
k
=
m! m!
m
X m!
= Ak B m−k
k=0
m !k !(m − k) !
m
X Ak B m−k
= .
k=0
k ! (m − k) !
Donc
∞ X m
A+B
X Ak B m−k
e =
m=0 k=0
k ! (m − k) !

! ∞ !
X Ak X Bm
=
k=0
k! m=0
m!
= eA eB


Corollaire 1.6. Soit A ∈ Mn (R). Alors eA est inversible d’inverse e−A
Démonstration. Comme les matrices A et −A commutent, on a In = eA+(−A) =
eA e−A , donc eA est inversible et (eA )−1 = e−A . 
Proposition 1.7. Soit A ∈ Mn (R) et P ∈ Mn (R) une matrice inversible. Alors
P −1 AP
e = P −1 eA P
Démonstration. Posons B = P −1 AP , on a B k = P −1 Ak P , donc

m m
X Bk X P −1 Ak P
=
k=0
k! k=0
k!
m
!
X Ak
= P −1 P.
k=0
k!
L’application
ϕ : Mn (R) −→ Mn (R)
M 7−→ P −1 M P
Pm Bk
est continue car elle est linéaire, donc la limite lors m tend vers ∞ de est égale à
 m k k=0 k !
PA
la limite lors m tend vers ∞ de P −1 P , on en déduit que
k=0 k !
−1 AP
eP = P −1 eA P.
1. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 53

Théorème 1.8. Soit A ∈ Mn (R). Alors la fonction

f : R −→ Mn (R)
t 7−→ etA

d(etA )
est dérivable sur R et on a = A etA .
dt
Démonstration. Comme toutes les normes sur Mn (R) sont équivalentes, on peut
fixer une norme matricielle k, k sur Mn (R). On a

∞ ∞
X Ak X Ak
eA −I − A = I + A + −I −A= .
k=2
k! k=2
k!

Donc

A
X Ak
ke −I − Ak = k k
k=2
k !
∞ ∞
X kAk k X kAk+2 k
≤ =
k=2
k! k=0
(k + 2) !

X kAk k
=≤ kAk2
k=0
(k + 2) !
=≤ kAk2 ekAk

Soit t, t0 ∈ R on a

etA − et0 A etA − et0 A −(t − t0 )A et0 A


− A et0 =
t − t0 t − t0
(t−t0 )A t0 A
e e − et0 A −(t − t0 )A et0 A
=
t − t0
(t−t0 )A
(e −I − (t − t0 )A) et0 A
=
t − t0
etA − et0 A (eαA −I − αA) et0 A
Posons α = t − t0 , on a − A et0 = . Ainsi nous avons
t − t0 α
etA − et0 A keαA −I − αAkket0 A k
k − A et0 k ≤
t − t0 α
≤ α e|α|kAk kAk2 ket0 A k

En faisant tendre t vers t0 c’est à dire si α tend vers 0 on obtient le résultat. 


5.
54SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

1.2. Quelques méthodes de calcul de l’exponentiel d’une matrice. Dans ce


qui suit nous donnons des méthodes de calcul de l’exponentiel d’une matrice.

(1) Pour les matrices diagonalisables.


Soit A ∈ Mn (R) une matrice diagonalisable. Il existe une matrice diagonale D
et une matrice inversible P tel que A = P DP −1 . La matrice D étant diagonale il
existe λ1 , · · · , λn ∈ R tel que
 
λ1 0 ··· 0
0 λ2 · · · 0
 
 
D= .. .. . . .. .

 . . . .


0 0 ··· λn

Dans ce cas pour t ∈ R, on a


 
etλ1 0 ··· 0
 0 etλ2 · · · 0
 
tD

e =
 .. .. ... .. 
 . . .


0 0 ··· etλn

Le calcul de etA se ramène à un produit matriciel etA = P etD P −1 .

(2) Pour les matrices nilpotentes.


Soit N ∈ Mn (R) une matrice nilpotente d’indice d. On a N k = 0 pour k ≥ d,
donc on a
∞ k k d−1 k k
tN
X t N X t N
e = = .
k=0
k! k=0
k!

(3) Calcul de l’exponentiel en utilisant la décomposition de Dunford.


r Xr
αi
Q
Soit A ∈ Mn (R) tel que PA (X) = (λi − X) avec αi = n r ≥ 2 et λi 6= λj
i=1 i=1
si i 6= j. D’après la décomposition de Dunford il existe une matrice diagonalisable
D et une matrice nilpotente N tel que A = D + N et DN = N D. La matrice D
Pr
est donnée par D = λi πλi , la matrice πλi est la matrice du projecteur spectral
i=1
r
assocé à la valeur propre λi . On a etD = eλi t πλi et etA = etD etN .
P
i=1

(4) Calcul de l’exponentiel en utilisant la décomposition de Jordan.


1. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 55

Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K et


 
λ 1 0 ··· 0
··· 0 
 
 0 λ 1
 .. ... . . . .. 
 
Jλ =  . .  = λIn + N
 .
...

 .
 . 1 

0 ··· ··· ··· λ


(
1 si j = i + 1
avec N = (aij )1≤i,j≤n avec aij =
0 sinon
La matrice N est nilpotente d’incice n. Soit t ∈ R, etJλ = etλIn etN où etλIn = eλt In
et

t2 tn−1
 
1 t ···
 2 (n − 1) ! 
tn−2
 
n−1
X tk  
etN = Nk = 
 0 1 t ··· 
k! (n − 2) ! 
k=0
 .. .. ... .. 
. . .
 
 
0 0 ··· 0 1
.
Ce qui donne pour le calcul de l’exponentiel de tJλ

t2 tn−1
 
1 t ···
 2 (n − 1) ! 
tn−2
 
 
etJλ = etλ 
 0 1 t ··· 
(n − 2) ! 
 .. .. .. .. 

 . . . .


0 0 ··· 0 1
.
Soit A une matrice décomposée en blocs de Jordan.
 
Jλ 0
 1 . 
A=  .. .

0 Jλr
où les Jλi sont des matrices de Jordan, alors on a

 
etJλ1 0

etA =  .. 
.
 . 
0 etJλr
5.
56SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

1.3. Cas particulier des matrices carrées d’ordre 2. Nous donnons d’abord la
classification des!matrices carrées d’ordre 2.
a b
Soit A = ∈ Mn (K) une matrice d’ordre 2 à coéfficients dans un corps commutatif
c d
et unitaire K. Si K = C alors le polynôme caractéristique de A est scindé. Si PA a deux
racines complexes alors A est diagonalisable donc semblable à une matrice diagonale et
on se ramène au cas diagonalisable pour le calcul de l’exponentiel. Si PA a une racine
! double la matrice A est trigonalisable et est semblable à un bloc de Jordan
complexe
λ 1
et le calcul de l’exponentiel est connu dans ce cas.
0 λ
Si K = R et Si PA a toutes ses racines réelles alors A est comme dans le cas complexe
semblable à une matrice diagonale ou à une matrice de Jordan. Si PA (X) = X 2 −Tr AX +
det A n’a aucune racine réelle son discriminant ∆ = (Tr A)2 − 4 det A est strictement
(Tr A)2
négatif et il existe b ∈ R strictement positif tel que b2 = − + det A. En posant
4
Tr A
a= , on a
2
PA (X) = X 2 − Tr AX + det A
Tr A
= X2 − 2 X + det A
2
Tr A 2 (Tr A)2
= (X − ) − + det A
2 4
= (X − a)2 + b2 .

Soit f un endomorphisme R2 dont la matrice relativement à la base canonique C de


1
R2 est A et soit v1 un vecteur non nul de R2 . Posons v2 = (av1 − f (v1 )). Comme f
b
n’a pas de valeurs propre réelle, v1 n’est pas un vecteur propre de f donc v1 et f (v1 )
sont linéairement indépendants. Comme f (v1 ) = av1 − bv2 , les vecteurs v1 et v2 sont
2
linéairement indépendants. Ainsi B = {v1 , v2 } est une base
! de R . Posons f (v2 ) = cv1 +
a c
dv2 , la matrice de f relativement à B soit B = .
−b d
Puisque Tr A = 2a et det A = a2 + b2 , on a

2a = a + d
ad + bc = a2 + b2
!
a b
on obtient d = a et c = b. On en déduit que B = .
−b a
On a donc le théorème suivant :
1. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 57

Théorème 1.9. Soit A ∈ M2 (R) une matrice d’ordre 2 à coéfficients dans R, alors
(1) Ou bien A est semblable à une matrice diagonale de M2 (R).
(2) Ou bien A est semblable à une matrice de Jordan
!
λ 1
.
0 λ

(3) Ou bien il existe un unique couple (a, b) ∈ R2 avec b > 0 tel que A soit semblable
à la matrice !
a b
.
−b a
!
a b
Déterminons l’exponentiel de la matrice A = = aI + bJ où I est la matrice
−b a
!
0 −1
identité et J = . On a J 2 = −I, donc ∀k ∈ N, J 2k = (−1)k I et J 2k = (−1)k J.
1 0
Donc
+∞ +∞ 
(−1)k (bt)2k

X 1 2k
X
(btJ) = I
k=0
(2k) ! k=0
(2k) !
+∞
!
k 2k
X (−1) (bt)
= I
k=0
(2k) !
= (cos bt)I

et
+∞ +∞
(−1)k (bt)2k+1
 
X 1 X
(btJ)2k+1 = I
k=0
(2k + 1) ! k=0
(2k + 1) !
+∞
!
X (−1)k (bt)2k+1
= I
k=0
(2k + 1) !
= (sin bt)I

On déduit de ses deux expressions le calcul de l’exponentiel de tA

etA = eatI ebtJ


= eat ebtJ
!
cos bt − sin bt
= eat
sin bt cos bt
5.
58SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

1.4. Systèmes différentiels.

Définition 1.10. On appelle système différentiel linéaire à coefficient constant, un


système d’équations différentielles de la forme :


dx1


 dt
= a11 x1 + a12 x2 + . . . + a1n xn + b1 (t)


 dx2 = a x + a x + . . . + a x + b (t)

dt 21 1 22 2 2n n 2
 .
..




 dxn = a x + a x + . . . + a x + b (t)

dt n1 1 n2 2 nn n n

où aij ∈ R sont constants, I un intervalle ouvert de R, les xi : I → R et bi : I → R


sont des applications dé[Link] matrice A = (aij )1≤i≤n,1≤j≤n est matrice du système
différentiel. Si I = R et bi = 0 ∀i, on dit que le système différentiel est homogène.

Posons    
x1 b1
x2  b 
   
 et B =  .2  .
 
A = (aij )1≤i≤n,1≤j≤n , X= ..  . 
.  . 
 
 
xn bn
Le système différentiel s’ecrit :
 dx     
dt
1
a11 x1 + a12 x2 + · · · + a1n xn b1
 dx2  
  a21 x1 + a22 x2 + · · · + a2n xn   b2 
  
dX  dt 
= ..  = 
 ..  +  .  = AX + B.
  . 
dt  .   .   . 
dxn
dt
an1 x1 + an2 x2 + · · · + ann xn bn
dX
Dans le cas d’un système homogème on a = AX.
dt

Définition 1.11. Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn


dX
une application. Une solution du système différentiel = AX + B est une application
dt
dS(t)
dérivable S : I −→ Rn telle que = AS(t) + B(t).
dt
Proposition 1.12. Soit A ∈ Mn (R). L’ensemble des solutions du système différentiel
dX
homogène = AX est un sous espace vectoriel du R-espace vectoriel des applications
dtn
de R dans R .

Démonstration. (1) L’application nulle de R dans Rn est solution.


1. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 59

(2) Soit S1 : I −→ Rn et S2 : I −→ Rn deux solutions du système différentiel et α ∈ R.


dX
Notons par X 0 . Nous avons
dt

(αS1 (t) + S2 )0 = αS10 (t) + S20 (t)


= αAS1 + AS2
= A(αS1 + S2 );

donc αS1 + S2 est une solution du système diiférentiel.


On en déduit que l’ensemble des solutions du système différentiel homogène est un
sous espace vectoriel. 

Théorème 1.13. Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn une


application et S0 une solution particulière du système différentiel X 0 = AX + B. Alors les
solutions du système différentiel X 0 = AX + B sont les applications de la forme S + S0
où S est une solution du système homogème X 0 = AX.

Démonstration. Soit S une solution du système homogène X 0 = AX et S0 une


solution particulière du système différentiel X 0 = AX + B. De S 0 = AS et S00 = AS0 + B,
on déduit

(S(t) + S0 )0 = S 0 (t) + S00 (t)


= AS + (AS0 + B)
= A(S + S0 ) + B;

donc S + S0 est solution du système différentiel X 0 = AX + B.


Montrons maintenant que toute solution est de cette forme. Soit U une solution du
système différentiel X 0 = AX + B. On a

(U − S0 )0 = U 0 − S00
= (AU + B) − (AS0 + B)
= A(U − S0 ),

donc S = U −S0 est une solution du système homogène X 0 = AX et nous avons U = S+S0 .
On en déduit que les solutions les solutions du système différentiel X 0 = AX + B sont de
la forme S + S0 où S est une solution du système homogème X 0 = AX. 
5.
60SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

1.5. Résolution d’un système homogène. Il découle de ce qui précède que la


résolution du système différentiel X 0 = AX + B se ramène à la résolution du système
homogène X 0 = AX et à trouver une solution particulière du système X 0 = AX + B.

Proposition 1.14. Soit A ∈ Mn (R),P ∈ GLn (R) dont les coéfficients sont constants
et Y : I −→ Rn une application. Alors P Y est solution du système différentiel X 0 = AX
si et seulement si Y est solution du système différentiel X 0 = (P −1 AP )X.

Démonstration. Soit Y : I −→ Rn une application dérivable, alors nous avons :

(P Y )0 = A(P Y ) ⇐⇒ P Y 0 = A(P Y )
⇐⇒ Y 0 = (P −1 AP )Y

On en déduit le résultat. 

Théorème 1.15. Soit A ∈ Mn (R). Les solutions du système différentiel


X 0 = AX sont les applications de la forme

S : R −→ Rn
t 7−→ S(t) = etA X0
où X0 ∈ Rn est constant.

Démonstration. Soit X0 ∈ Rn , montrons d’abord que l’application S(t) = etA X0


est solution du système différentiel X 0 = AX. On a

S 0 (t) = (etA X0 )0
= (etA )0 X0
= A etA X0
= AS(t).

Donc S(t) = etA X0 est solution du système différentiel homogène X 0 = AX. Montrons
que toute les solutions sont de cette forme. Soit S une solution et soit f (t) = e−tA S(t).
En dérivant les deux membres de cette égalité on obtient

f 0 (t) = −A e−tA S(t) + e−tA S 0 (t)


= −A e−tA S(t) + e−tA AS(t)
= 0.

L’application f est constante donc il existe X0 ∈ Rn tel que f (t) = e−tA S(t) = X0 . On
en déduit que S(t) = etA X0 . 
1. SYSTÈMES DIFFÉRENTIELS LINÉAIRES 61

Corollaire 1.16. Soit A ∈ Mn (R),t0 ∈ R et X0 ∈ Rn .


Alors la fonction S(t) = e(t−t0 )A X0 est l’unique solution du système différentiel X 0 =
AX vérifiant S(t0 ) = X0 .

Démonstration. Montrons que la fonction S(t) = e(t−t0 )A X0 est une solution de


l’équation différentiel X 0 = AX. On a

S(t) = e(t−t0 )A X0
= etA e−t0 A X0
= etA Y0 .

Avec Y0 = e−t0 A X0 , donc S est solution de l’équation différentiel X 0 = AX vérifiant


S(t0 ) = eo X0 = X0 . Soit T une solution de X 0 = AX telle que T (t0 ) = X0 . D’après le
théorème ci-dessus il existe Z0 ∈ Rn tel que T (t) = etA Z0 .
On a X0 = T (t0 ) = et0 A Z0 , donc Z0 = e−t0 A X0 = Y0 . On en déduit que S = T . 

Exemple 1.17. Résoudre



dx1


 dt
= 3x1 − x2 + x3 − 7x4


 dx2 = 9x − 3x − 7x − x

dt 1 2 3 4
dx3


 dt
= 4x3 − 8x4


 dx4 = 2x − 4x

dt 3 4

La matrice associée à ce système différentiel est


 
3 −1 1 −7
 
 9 −3 −7 −1 
A= .
 0 0
 4 −8 

0 0 2 −4
Pour résoudre le système différentiel il suffit de déterminer l’exponentiel de la matrice A
pour cela déterminons d’abord la réduction de Jordan de A.
Le polynôme caractéristique de A est PA (X) = X 4 de plus A2 = 0, donc A est nilpotent
d’indice 2. Un calcul facile montre que k1 = ker A = Vect(u1 , u2 ) avec u1 = (1, 3, 0, 0) et
u2 = (0, −5, 2, 1), comme A2 = 0 on a k2 = ker A2 = R4 . On a R4 = k1 ⊕ F2 , F2 est un
supplémentaire de k1 dans R4 donc on peut prendre F2 = ~(e3 , e4 = avec e3 = (0, 0, 1, 0) et
e4 = (0, 0, 0, 1). On a F1 = k1 , d2 = dim k2 = 4, d1 = dim k1 = 2. Ce qui donne le tableau
de Young associé à la matrice A :
F2 e3 e4
F1 A(e3 ) A(e4 )
5.
62SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

Il y a deux blocs de Jordan chacune de taille 2. Posons v1 = A(e3 ) = (1, −7, 4, 2) , v2 = e3 ,


v3 = A(e4 ) = (−7, −1, −8, −4) et v4 = e4 . L’ensemble B = {v1 , v2 , v3 , v4 } est une base de
R4 adaptée à la réduction de Jordan de A. Cette réduction est donnée par

   ! 
1 00 7 0 1 0 0
    !
−7 0 −1 0 0
 0 0 0 0  J1 0
P =
  et A =  ! = ,
 4 1 −8 0 


 0 0 0 1 
 0 J2
2 0 −4 1 0 0 0 0

avec
! !
0 1 1 t
J1 = J2 = et etJ1 = etJ2 = .
0 0 0 1

Ce qui donne la décomposition en blocs de l’exponentiel de A0 :


 
1 t 0 0
!
etJ1
 
tA0 0 0 1 0 0
e = =
 .
0 etJ2  0 0 1 t 

0 0 0 1
 
z1
 
 z2 
Posons X = P Z avec Z =   . On a dX = AX si et seulement si dZ = A0 Z. Les
 z3 
 dt dt
z4
dZ
solutions du système différentiel = A0 Z sont les fonctions
dt
    
1 t 0 0 a a + bt
    
tA0
0 1 0 0  b   b 
Z(t) = e Z0 =      =  .
0 0 1 t   c   c + dt 
   
0 0 0 1 d d

dX
On en déduit que les solutions du système différentiel = AX sont les fonctions
dt
  
1 0 7 0 a + bt
  
−7 0 −1 0  b 
X(t) = P Z(t) =  
 4 1 −8 0  c + dt


  
2 0 −4 1 d
2. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONSTANTS 63

1.6. Résolution de l’équation X’=AX+B par la méthode de la variation de


la constante. Les solutions du système différentiel X 0 = AX + B sont les applications
de la forme S + S0 où S est une solution du système homogème X 0 = AX et S0 est
une solution particulir̀e de X 0 = AX + B. Les solutions de l’équation homogène sont
les fonctions S(t) = etA X0 . La recherche d’une solution particulière peut se faire par la
méthode de la variation de la constante. Cette méthode consiste à déterminer une fonction
dérivable Λ : I −→ Rn la fonction S(t) = etA Λ(t) soit solution du système différentiel
X 0 = AX + B.
Si la fonction S(t) est dérivable et est solution du système différentiel X 0 = AX + B
alors on a

S 0 (t) = (etA )0 Λ(t) + etA Λ0 (t)


= A etA Λ(t) + etA Λ0 (t)
= AS(t) + etA Λ0 (t)
= AS(t) + B.

Ce qui équivaut à Λ0 (t) = e−tA B(t).

2. Équations différentielles linéaires d’ordre n à coéfficients constants

2.1. Équations différentielles linéaires homogènes d’ordre n.

Définition 2.1. On appelle équation différentielle linéaire homogène et scalaire d’ordre


n à coéfficients constants une équation différentielle de la forme :

x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = f (t)

où les ai sont des constantes, x : R −→ R est n fois dérivable et x(k) désigne la dérivée
k-ème de la fonction x(t).
 
x0
 x1
 

Posons x0 = x, x1 = x, · · · , xn−1 = x(n−1) , xn = x(n) , X = 
 ..
.
 .


xn−1
L’équation différentielle se ramène au système suivant
   
x1 x1
x2   x2
   
dX  
= .
 .  
= .. =
dt  .   .


xn −a0 x0 − a1 x1 − · · · − an−1 xn−1
5.
64SYSTÈMES DIFFÉRENTIELS ET ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONST

dX
Ce qui donne = AX, où A est la matrice suivante
dt
 
0 1 0 ··· 0
 0 0 1 ··· 0
 

A= .
 .
.
 .


−a0 −a1 a2 · · · −an−1

Exemple 2.2. Résoudre l’équation différentielle suivante y 000 − 3y 00 + 3y 0 − y = 0.


      
y(t) y 0 (t) 0 1 0 y(t)
dY
Posons Y (t) =  y 0 (t) , on a =  y 00 (t)  = 0 0 1  y 0 (t) .
      
dt
y 00 (t) y − 3y 0 + 3y 00 1 −3 3 y 00 (t)
000 00 0
d’ordre 3,y − 3y + 3y − y = 0 se ramène au système différentiel
L’équation différentielle
0 1 0
dY
= AY avec A = 0 0 1. Un calcul simple montre que PA (X) = −(X − 1)3 ,
 
dt
1 −3 3
 
1 −2 1
(A − I)2 = 1 −2 1 et (A − I)3 = 0. la matrice A − I est nilpotente d’indice 3. Soit
 

1 −2 1
f l’endomorphisme de R3 dont la matrice relativement à la base canonique est A et soit
ϕ = f − idR3 on a ϕ2 (e1 ) = (1, 1, 1) 6= 0R3 , la base B = {ϕ2 (e1 ), ϕ(e1 ), e1 } est adaptée à
la réduction de Jordan de A. Ce qui donne

   
1 −1 1 1 1 0
P = 1 0 0  et A0 =  0 1 1  .
   

1 1 0 0 0 1

dY dZ
Posons Y = P Z et l’équation = AY est équivalente à l’équation = A0 Z. Les
dt dt
dZ
solutions du système différentiel = A0 Z sont les fonctions
dt

t2   t2
     
a 1 t a a + bt + c
0   2  2 
Z(t) = etA  b  = et  t
0 1 t   b  = e  b + ct
.
  

c 0 0 1 c c

Les solutions du système différentiel sont donc les fonctions


2. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE N À COÉFFICIENTS CONSTANTS 65

 
t2
 t2  a − b + c + (b − c)t + c 2 
 
1 −1 1 a + bt + c
 2  
t2

Y = P Z = et  1 0 0    = et  .
 
 b + ct  a + bt + c
  2 
1 1 0 c
 t2 
a + b + (b + c)t + c
2
000 00 0
Donc les solutions de l’équation différentielle y − 3y + 3y − y = 0 sont les fonctions
t2
y(t) = a − b + c + (b − c)t + c .
2

Vous aimerez peut-être aussi