0% ont trouvé ce document utile (0 vote)
266 vues13 pages

Ch02 Reduction

Ce document traite de la réduction des endomorphismes et des matrices carrées. Il présente les notions de sous-espaces stables par un endomorphisme, de sommes directes de sous-espaces stables, et de matrices triangulaires supérieures. Il aborde ensuite les polynômes d'un endomorphisme ou d'une matrice carrée, ainsi que les éléments propres d'un endomorphisme ou d'une matrice.

Transféré par

Mohamed Azzam
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
266 vues13 pages

Ch02 Reduction

Ce document traite de la réduction des endomorphismes et des matrices carrées. Il présente les notions de sous-espaces stables par un endomorphisme, de sommes directes de sous-espaces stables, et de matrices triangulaires supérieures. Il aborde ensuite les polynômes d'un endomorphisme ou d'une matrice carrée, ainsi que les éléments propres d'un endomorphisme ou d'une matrice.

Transféré par

Mohamed Azzam
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

2.

Réduction des endomorphismes, des matrices carrées


Dans ce chapitre K désigne R ou C.

I - Sous-espaces stables par un endomorphisme

1) Généralités
Définition : soient E un K-espace vectoriel, u ∈ L (E) et F un sous-espace de E.
F est dit stable par u (ou u-stable) si et seulement si u (F ) ⊂ F (i.e. ∀x ∈ F u (x) ∈ F ).
Lorsque F est stable par u, l’application v : F → F (linéaire comme u) est
x → u (x)
l’endomorphisme induit par u sur F .

Propriété : si u, v, éléments de L (E), commutent, alors Im v et Ker v sont stables par u.

Caractérisation matricielle en dimension finie : soient E, K-espace vectoriel de dimension finie n, F


sous-espace de E de dimension p, B = (e1 , . . . , en ) base de E adaptée à F et u ∈ L (E). F est stable
A C
par u si et seulement si la matrice de u dans B est triangulaire par blocs, de la forme ,
0 D
A ∈ Mp (K) étant alors la matrice dans (e1 , . . . , ep ) de l’endomorphisme induit par u sur F .

Dém. Il suffit de remarquer que F = Vect (e1 , . . . , ep ) est stable par u si et seulement si
∀j ∈ {1, . . . , p} u (ej ) ∈ F.
A C
Rappel : det = det (A) . det (D).
0 D

2) Sommes directes de sous-espaces stables. Matrices diagonales par blocs


Théorème : soient E1 , . . . , Ek , sous-espaces de E, K-espace vectoriel de dimension finie, tels que
k
E= Ej , B base de E adaptée à cette décomposition et u ∈ L (E).
j=1
Posons, pour tout j de Nk , pj = dim Ej .
Les Ej , 1 ≤ j ≤ k, sont stables par u si et seulement si la matrice de u dans B est diagonale
par blocs, de la forme :
 
A1 0 · · · 0
.. .

 0 A2 . .. 

M = . . 
 .. .. ... 0 
0 · · · 0 Ak
où ∀j ∈ Nk Aj ∈ Mpj (K).
k
Rappel : det (M) = det (Aj ).
j=1
Cas particulier : soient B = (e1 , . . . , en ) base de E et u ∈ L (E). La matrice de u dans B est diagonale
si et seulement si les droites K.ej , 1 ≤ j ≤ n sont stables par u, c’est-à-dire si et seulement si
∀j ∈ Nn ∃λj ∈ K u (ej ) = λj .ej ;
dans ce cas, la matrice de u dans B est
 
λ1 (0)

diag (λ1 , . . . , λn ) =  .. 
.
.
(0) λn
2. Réduction des endomorphismes, des matrices carrées Page 2

3) Matrices triangulaires supérieures


Théorème : soient E un K-espace vectoriel de dimension finie n, B = (e1 , . . . , en ) une base de E et
u ∈ L (E). La matrice de u dans B est triangulaire supérieure si et seulement si les
Ej = Vect (e1 , . . . , ej ), 1 ≤ j ≤ n, sont stables par u.

Exemple : dans E = Kn [X], muni de la base canonique B = (1, X, . . . , X n ), les Ej sont les Kj−1 [X],
1 ≤ j ≤ n + 1. Soit u ∈ L (E) ; la matrice de u dans B est triangulaire supérieure si et
seulement si : ∀P ∈ E deg u (P ) ≤ deg P .

II - Polynômes d’un endomorphisme, d’une matrice carrée

1) Généralités
Théorème : soient E un K-espace vectoriel et u ∈ L (E) ; l’application
φu : K [X] → L (E)
∞ ∞
P = ak X k → P (u) = ak uk
k=0 k=0
est linéaire et multiplicative de (K [X] , +, ., ×) dans (L (E) , +, ., ◦). Notamment,
∀ (P, Q) ∈ K [X]2 P (u) ◦ Q (u) = (P × Q) (u) = Q (u) ◦ P (u) (P (u) et Q (u) commutent)
De même, M étant fixée dans Mn (K), l’application
φM : K [X] → Mn (K)
∞ ∞
P = ak X k → P (M) = ak M k
k=0 k=0
est linéaire et multiplicative de (K [X] , +, ., ×) dans (Mn (K) , +, ., ×).

Attention ! u0 = IdE et M 0 = In ; ainsi, pour P = a0 + a1 X + a2 X 2 + · · · , on a


P (u) = a0 IdE + a1 u + a2 u2 + · · · et P (M) = a0 In + a1 M + a2 M 2 + · · ·

Propriété : soit u ∈ L (E) ; pour tout P de K [X], Im P (u) et Ker P (u) sont stables par u.

Définition : soient u ∈ L (E) et P ∈ K [X] ; P est un polynôme annulateur de u si et seulement si


P (u) = 0 ;
soient M ∈ Mn (K) et P ∈ K [X] ; P est un polynôme annulateur de M si et seulement
si P (M) = 0.

Attention ! On dit que P annule u (resp. M), mais aussi que u annule P (resp. M annule P ). . .

   
A1 (0) P (A1 ) (0)

Exemple : si M =  ..  
 est diagonale par blocs, alors P (M) =  .. 
.
. .
(0) Ak (0) P (Ak )

2) Applications
a) Calcul de puissances
Si P est un polynôme annulateur de M ∈ Mn (K), la division euclidienne de X k par P permet de
calculer M k : si X k = P × Qk + Rk et P (M) = 0, alors M k = Rk (M).
Cette méthode est intéressante si l’on dispose d’un polynôme annulateur de bas degré, les “quelques”
coefficients de Rk pouvant alors être déterminés par la résolution d’un système linéaire obtenu à l’aide
des racines de P (penser à utiliser la dérivation en cas de racine multiple).
2. Réduction des endomorphismes, des matrices carrées Page 3
 
0 1/a 1/a2
Exemple : soient a ∈ R∗ et A =  a 0 1/a  ; on vérifie aisément que A2 = A + 2I3 , A admet
a2 a 0
ainsi le polynôme annulateur
P = X 2 − X − 2 = (X + 1) (X − 2) .
Pour k ∈ N, la division euclidienne de X k par P s’écrit
X k = P × Qk + λk X + µk
−λk + µk = (−1)k
où (λk , µk ) vérifie le système . Tous calculs faits,
2λk + µk = 2k
 1 k

 λk = 2 − (−1)k
k 3
A = λk A + µk I3 où .
 µ = 1 2k + 2 (−1)k

k
3
b) Calcul d’inverse
p
Si P = ak X k est un polynôme annulateur de M ∈ Mn (K), tel que a0 = 0, alors
k=0
p 1 p
M× ak M k−1 = −a0 In d’où M −1 = − ak M k−1 .
k=1 a0 k=1

1
Exemple : pour la matrice A précédente, A (A − I) = 2I3 donc A−1 = (A − I3 ).
2

III - Éléments propres d’un endomorphisme, d’une matrice carrée

1) Définitions. Notations
Définition : soient E un K-espace vectoriel, u ∈ L (E), λ ∈ K.
λ est une valeur propre de u si et seulement s’il existe un vecteur non nul x de E tel que
u (x) = λ.x ; un tel vecteur est un vecteur propre de u associé à la valeur propre λ.
L’ensemble des valeurs propres de u est le spectre de u, noté Sp (u).
Si λ ∈ Sp (u), Eλ (u) = Ker (u − λ.IdE ) est le sous-espace propre de u associé à la valeur
propre λ.

NB : 1) Les droites stables par u sont les droites dirigées par un vecteur propre de u.
2) Un vecteur propre est associé à une unique valeur propre (en effet, un vecteur propre est non
nul par définition et, lorsque x est non nul, λ.x = µ.x ⇒ λ = µ).
3) λ ∈ Sp (u) ⇔ Ker (u − λ.IdE ) = {0} ; si λ ∈ Sp (u), le sous-espace propre associé Eλ (u)
contient le vecteur nul et les vecteurs propres de u associés à λ.
4) En dimension finie, λ ∈ Sp (u) ⇔ det (u − λ.IdE ) = 0 ; si u est représenté par sa matrice M
dans une base de E et si λ ∈ Sp (u), le sous-espace propre associé s’obtient par résolution du
système linéaire M X = λX, soit (M − λIn ) X = 0, qui n’est pas de Cramer ! Penser à utiliser
la fonction rref de la calculatrice.
5) Cas de la valeur propre 0 : 0 est valeur propre de u si et seulement si u n’est pas injectif,
autrement dit u est injectif si et seulement si 0 ∈
/ Sp (u).

Propriété : si u, v commutent dans L (E), les sous-espaces propres de u sont stables par v.
Propriété : si F est un sous-espace de E stable par u ∈ L (E) et si v désigne l’endomorphisme de F
induit par u, alors
∀λ ∈ K Ker (v − λ.IdF ) = F ∩ Ker (u − λ.IdE )
donc Sp (v) ⊂ Sp (u) et : ∀λ ∈ Sp (v) Eλ (v) = F ∩ Eλ (u).
2. Réduction des endomorphismes, des matrices carrées Page 4

Exemples : 1) Projecteurs, symétries (Ker (u − IdE ) est l’ensemble des vecteurs invariants par u).
2) Le spectre de u peut être vide : choisir par exemple un quart de tour dans R2 .
3) Le spectre de u peut être infini : par exemple, pour u : f → f ′ dans C ∞ (R, R),
Sp (u) = R avec
∀λ ∈ R Eλ (u) = t → Aeλt , A ∈ R .

Définition : soit M ∈ Mn (K) ; les éléments propres de M (valeurs propres, vecteurs propres, spectre
et sous-espaces propres) sont ceux de l’endomorphisme u = Can M de Kn de matrice M
dans la base canonique.

NB : 1) On identifie parfois M à l’endomorphisme X → MX de Mn,1 (K).


2) Lorsque M ∈ Mn (R), il est bon de distinguer SpR (M) et SpC (M), SpK (M) étant l’ensemble
des solutions dans K de l’équation (polynomiale) d’inconnue λ : det (M − λIn ) = 0.
0 −1
Exemple : soit M = ; det (M − λI2 ) = λ2 + 1 donc SpR (M) = ∅ tandis que
1 0
SpC (M) = {−i, i}.

Définition : deux matrices A, B de Mn (K) sont semblables si et seulement s’il existe P dans GLn (K)
telle que B = P −1 AP (c’est-à-dire que A et B représentent un même endomorphisme
dans deux bases B, C telles que P soit la matrice de passage de B à C).

Propriétés : 1) Deux matrices semblables ont même spectre (réciproque fausse !).
2) Soit P fixée dans GLn (K) ; l’application M → P MP −1 est un automorphisme mul-
tiplicatif de Mn (K) ; en particulier,
si A = P BP −1 , alors ∀k ∈ N Ak = P B k P −1 .
Application : pour calculer les puissances de A, on peut chercher une matrice B semblable à A et dont
les puissances sont faciles à calculer (c’est le cas notamment des matrices diagonales. . . ).
 
11 −5 5
Exemple : soit A =  −5 3 −3 , il vient χA (t) = t (t − 1) (t − 16) et (cf. la fonction rref des
5 −3 3
calculatrices)
Ker A = Vect (0, 1, 1) ; Ker (A − I) = Vect (1, 1, −1) ; Ker (A − 16I) = Vect (2, −1, 1)
   
0 0 0 0 1 2
d’où P −1 AP =  0 1 0  avec P =  1 1 −1 .
0 0 16 1 −1 1
On en déduit
   
0 0 0 2 + 4 × 16k 2 − 2 × 16k −2 + 2 × 16k
1
∀k ∈ N∗ Ak = P  0 1 0  P −1 = ·  2 − 2 × 16k 2 + 16k −2 − 16k  .
6
0 0 16k −2 + 2 × 16k −2 − 16k 2 + 16k

2) Premières propriétés
Soit E un K-espace vectoriel, distinct de {0}.
1) Soient u ∈ L (E) et λ ∈ Sp (u) ; pour tout polynôme P de K [X], P (λ) est valeur propre de P (u)
(et – plus précisément – si u (x) = λ.x, alors P (u) (x) = P (λ) .x).
Attention ! L’inclusion Ker (u − λ.IdE ) ⊂ Ker P (u) − P (λ) .IdE peut être stricte (ex. : symétrie)

2) Soient u ∈ L (E) et P ∈ K [X] ; si P (u) = 0, alors toute valeur propre de u est racine de P .
Attention ! Réciproque fausse : X 2 − X est un polynôme annulateur de IdE . . .

3) Toute somme d’une famille finie de sous-espaces propres associés à des valeurs propres distinctes
deux à deux est directe.

4) Toute famille de vecteurs propres associés à des valeurs propres distinctes deux à deux est libre.
2. Réduction des endomorphismes, des matrices carrées Page 5

Dém. Soit u ∈ L (E).


1) Soit λ ∈ Sp (u) et x un vecteur propre de u associé ; u (x) = λ.x et une récurrence immédiate montre
que : ∀k ∈ N uk (x) = λk .x ; par combinaison linéaire j’obtiens alors, pour tout polynôme P de
K [X] : P (u) (x) = P (λ) .x ; x (non nul par hypothèse) est donc également vecteur propre de P (u)
associé à la valeur propre P (λ).

2) Soient maintenant P un polynôme annulateur de u et λ une valeur propre de u ; d’après la propriété


précédente, P (λ) est valeur propre de P (u), qui n’est autre que l’endomorphisme nul, dont l’unique
valeur propre est 0 ; ainsi P (λ) = 0.

3) J’utilise la caractérisation (à connaître. . . ) des sommes directes : soient λ1 , . . . , λp des valeurs pro-
pres de u, distinctes deux à deux, et x1 , . . . , xp des vecteurs respectivement de Eλ1 (u) , . . . , Eλp (u)
p
tels que xj = 0. Il s’agit de montrer que tous les xj sont nuls. Je fixe i ∈ [[1, p]] et je considère le
j=1
X − λk
polynôme de Lagrange Li = (qui vérifie Li (λj ) = δ i,j pour tout j). Pour tout j de [[1, p]],
λi − λk
k=i
comme xj est dans Eλj (u), le calcul du 1) (fait pour un vecteur propre, mais banal si xj = 0 !)
montre que :
Li (u) (xj ) = Li (λj ) .xj .
Ainsi, Li (u) étant linéaire, j’ai d’une part
p p p
Li (u) xj = Li (u) (xj ) = Li (λj ) .xj = xi car Li (λj ) = δi,j
j=1 j=1 j=1

et d’autre part
p p
Li (u) xj = 0 car xj = 0 par hypothèse.
j=1 j=1
Donc xi = 0, cela pour tout i de [[1, p]], ce qu’il fallait démontrer : les Eλj (u) sont en somme directe.

4) La question se ramène à une famille finie : soient λ1 , . . . , λp des valeurs propres de u, distinctes
deux à deux, et x1 , . . . , xp des vecteurs propres respectivement associés. Supposons une combinaison
p
linéaire nulle αj .xj = 0 ; pour tout j, le vecteur αj .xj appartient au sous-espace propre Eλj (u).
j=1
Or les Eλj (u) sont en somme directe, d’après la propriété précédente. J’en déduis, d’après la
caractérisation des sommes directes, que
∀j ∈ [[1, p]] αj .xj = 0 d’où αj = 0 car xj = 0 (vecteur propre !).
Ainsi, la famille (x1 , . . . , xp ) est libre.

Exemples
• homothéties : si u = λ.IdE , alors Sp (u) = {λ}, Eλ (u) = E ;
• projecteurs : si p projecteur, p = 0, p = IdE , alors Sp (p) = {0, 1}, E = Ker (p − IdE ) ⊕ Ker p ;
• symétries : si s symétrie, s = ±IdE , alors Sp (s) = {1, −1} et E = Ker (s − IdE ) ⊕ Ker (s + IdE ).

3) Polynôme caractéristique — Théorème de Cayley-Hamilton


Soient E un K-espace vectoriel de dimension finie n, u ∈ L (E) et M ∈ Mn (K).
1) Le polynôme caractéristique de u est le polynôme χu associé à la fonction
t → det (t.IdE − u) = (−1)n det (u − t.IdE ) .

2) Le polynôme caractéristique de M est le polynôme χM associé à la fonction


t → det (t.In − M ) = (−1)n det (M − t.In )
2. Réduction des endomorphismes, des matrices carrées Page 6

Théorème et définition : les valeurs propres de u (resp. M) sont les racines dans K de son polynôme
caractéristique.
L’ordre de multiplicité d’une valeur propre de u (resp. M) est son ordre
de multiplicité en tant que racine de χu (resp. χM ).

Propriétés :

1) χu (resp. χM ) est de degré n, avec plus précisément :


χu (X) = X n − Tr (u) · X n−1 + · · · + (−1)n det (u)
χM (X) = X n − Tr (M) · X n−1 + · · · + (−1)n det (M)
n
2) Si χu (resp. χM ) est scindé sur K, s’écrivant (X − λk ), alors
k=1
n n n n
Tr (u) = λk et det (u) = λk resp. Tr (M) = λk et det (M) = λk .
k=1 k=1 k=1 k=1

NB : lorsque K = R, si n impair, χu (resp. χM ) admet toujours au moins une racine réelle (penser
au théorème des valeurs intermédiaires. . . ) ; par contraposée, s’il existe u (resp. M) n’admettant
aucune valeur propre, nécessairement n est pair !

Théorème : a) Si F est un sous-espace de E stable par u ∈ L (E) et v l’endomorphisme induit, alors


χv divise χu .
b) Si λ est valeur propre de u ∈ L (E), alors la dimension de Eλ (u) est au plus égale à
l’ordre de multiplicité de λ.

Corollaire : pour une valeur propre simple, le sous-espace propre associé est une droite.

Théorème de Cayley-Hamilton (dém. non exigible)


Le polynôme caractéristique est un polynôme annulateur, i.e.
∀u ∈ L (E) χu (u) = 0L(E) (resp. ∀M ∈ Mn (K) χM (M) = 0Mn (K) ).

4) Polynôme minimal (hors programme mais classique)


Soient E un K-espace vectoriel et u ∈ L (E). On suppose que u admet au moins un polynôme annulateur
non nul (c’est toujours le cas en dimension finie !).
Alors l’ensemble des polynômes annulateurs de u est l’ensemble des multiples d’un unique polynôme
unitaire πu , appelé polynôme minimal de u.
Dém. Soit Pu l’ensemble des polynômes annulateurs de u ; par hypothèse Pu contient au moins un
polynôme non nul, donc l’ensemble E des degrés des éléments non nuls de Pu est une partie non vide
de N, je dispose donc de d = min E et d’un élément non nul B de Pu de degré d. Quitte à diviser B
par son coefficient dominant, je peux supposer B unitaire et je note MB l’ensemble des multiples de
B, dans K [X].
Je sais que, pour tout Q ∈ K [X], (BQ) (u) = B (u) ◦ Q (u) = 0 car B (u) = 0 par construction. Donc
BQ ∈ Pu ; il en résulte que MB ⊂ Pu .
Réciproquement, je considère A ∈ Pu et j’effectue la division euclidienne de A par B : A = BQ + R, où
deg R < deg B. J’ai d’une part A (u) = 0 par hypothèse, d’autre part A (u) = (BQ) (u) + R (u) = R (u),
d’où R ∈ Pu . J’en déduis que R = 0 (sinon deg R serait un élément de E strictement inférieur à d !).
Ainsi A = BQ ∈ MB .
Finalement Pu est l’ensemble des multiples du polynôme unitaire B. Et si B1 est un autre polynôme
unitaire vérifiant cette propriété, j’ai B multiple de B1 , B1 multiple de B et B, B1 tous deux unitaires,
d’où B1 = B.
Ainsi, l’ensemble K [u] de tous les polynômes en u (l’image de l’application P → P (u)) n’est autre que
Kd−1 [u] admettant pour base IdE , u, . . . ud−1 , de dimension d, degré du polynôme minimal πu .
En effet, l’inclusion Kd−1 [u] ⊂ K [u] est banale, l’inclusion réciproque s’obtient par division euclidienne
par πu (si A = πu Q + R, alors A (u) = R (u). . . ) et la famille IdE , u, . . . ud−1 est libre par définition
de d (si elle était liée il existerait un polynôme annulateur non nul de u, de degré strictement inférieur
à d, d’où une contradiction !).
2. Réduction des endomorphismes, des matrices carrées Page 7

IV - Endomorphismes et matrices carrées diagonalisables

1) Endomorphismes diagonalisables — Caractérisations


Soient E un K-espace vectoriel de dimension n ≥ 1 et u ∈ L (E).
Définition : u est diagonalisable si et seulement si E est somme directe des sous-espaces propres de u,
i.e.
E= Eλ (u) .
λ∈Sp(u)

Premières caractérisations : les assertions suivantes sont équivalentes.


1) u est diagonalisable.

2) Il existe une base de E formée de vecteurs propres de u.

3) Il existe une base de E où la matrice de u est diagonale.

4) La somme des dimensions des sous-espaces propres de u vaut n = dim E.

5) Le polynôme caractéristique de u est scindé et la dimension de chaque sous-espace propre est égale
à l’ordre de multiplicité de la valeur propre correspondante.

Cas particulier : si u admet n valeurs propres distinctes, u est diagonalisable et ses sous-espaces
propres sont des droites.

Projecteurs associés : soient u diagonalisable et (pλ )λ∈Sp(u) la famille de projecteurs associée à la


décomposition E = Eλ (u). On a, pour tout x de E,
λ∈Sp(u)

x= pλ (x) d’où u (x) = λ.pλ (x) (puisque pλ (x) ∈ Eλ (u) ).


λ∈Sp(u) λ∈Sp(u)
Autrement dit,
u= λ.pλ et par récurrence ∀k ∈ N uk = λk .pλ
λ∈Sp(u) λ∈Sp(u)

d’où par combinaison linéaire : ∀P ∈ K [X] P (u) = P (λ) .pλ .


λ∈Sp(u)
Il en résulte en particulier (cf. les polynômes de Lagrange) :
X −µ
∀λ ∈ Sp (u) pλ = Lλ (u) où Lλ (X) = .
λ−µ
µ∈Sp(u)
µ=λ
Théorème : u est diagonalisable si et seulement si u annule un polynôme scindé sur K dont toutes les
racines sont simples (en abrégé scindé à racines simples ou encore simplement scindé).

Attention ! Les racines du polynôme annulateur utilisé ne sont pas forcément toutes des valeurs propres
de u.

Corollaire : u est diagonalisable si et seulement si u annule le polynôme (X − λ).


λ∈Sp(u)

Exemple : projections, symétries.

Corollaire : si u est diagonalisable, pour tout sous-espace F stable par u, l’endomorphisme de F induit
par u est aussi diagonalisable.

Dém. Soient u diagonalisable, P un polynôme annulateur scindé à racines simples de u (il en existe
d’après le théorème précédent), F un sous-espace stable par u et v l’endomorphisme de F induit par
u ; il est clair que : ∀x ∈ F P (v) (x) = P (u) (x) = 0 ; ainsi P est également un polynôme annulateur
de v, or P est scindé à racines simples ! Donc v est diagonalisable.
2. Réduction des endomorphismes, des matrices carrées Page 8

2) Matrices carrées diagonalisables


Définition : une matrice M de Mn (K) est diagonalisable si et seulement si l’endomorphisme de Kn
canoniquement associé l’est.

Conséquence : les résultats du § 1 s’appliquent. . .

Propriétés : soit M ∈ Mn (K) ;

1) M est diagonalisable si et seulement si M est semblable à une matrice diagonale.

2) Lorsque M est diagonalisable, M s’écrit P DP −1 où D est diagonale et P la matrice de passage de


la base canonique de Kn à une base de vecteurs propres de M.

3) Si M = P DP −1 , alors pour tout polynôme Q, Q (M) = P.Q (D) .P −1 est diagonalisable


avec la même matrice de passage.

Exemples :
1) Si A ∈ Mn (K) admet une unique valeur propre λ, alors A est diagonalisable si et seulement si
A = λ.In (en effet il n’y a pas d’autre matrice semblable à λ.In ).
 
1+a (1)

2) Diagonaliser A =  .. 
 : j’écris A = a.I + U et je diagonalise U . . .
.
(1) 1+a
 
1 a b
3) A =  0 2 c  est-elle diagonalisable ?
0 0 2

V - Endomorphismes et matrices carrées trigonalisables

1) Définitions
• Soient E un K-espace vectoriel de dimension finie et u ∈ L (E) ; u est trigonalisable si et seulement
s’il existe une base de E où la matrice de u est triangulaire supérieure.
• M ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme de Kn canoniquement associé
l’est, autrement dit si et seulement si M est semblable à une matrice triangulaire supérieure.

2) Caractérisations
Les assertions suivantes sont équivalentes :
• u est trigonalisable ;
• le polynôme caractéristique de u est scindé sur K ;
• u annule un polynôme scindé sur K.

Corollaire : lorsque K = C, tout endomorphisme en dimension finie est trigonalisable.


Toute matrice de Mn (C) est trigonalisable.
2. Réduction des endomorphismes, des matrices carrées Page 9

3) Exemples
 
5 1 −2
1) Soit A =  −10 −2 7  ; j’ai χA (X) = (X − 2) (X − 3)2 donc Sp (A) = {2, 3} et
−4 −2 5
E2 (A) = Vect (1, 1, 2) ; E3 (A) = Vect (1, −2, 0) .
Par conséquent A n’est pas diagonalisable (1 + 1 < 3) ; il est facile ici de trigonaliser A : en complétant
la famille libre formée des deux vecteurs propres ci-dessus, j’obtiendrai dans une telle base une matrice
de la forme :  
2 0 ∗
P −1 AP =  0 3 ∗ 
0 0 3
Attention ! Une telle matrice peut ne pas être commode, notamment pour calculer
 les puissances
 de
2 0 0 0 0 ∗
A à l’aide de la formule du binôme : les matrices  0 3 0  et  0 0 ∗  risquent
0 0 3 0 0 0
de ne pas commuter.
On fait souvent l’effort d’obtenir une forme triangulaire et diagonale par blocs, en remarquant que :
R3 = Ker (A − 2.I) ⊕ Ker (A − 3.I)2 .
Ker (A − 2.I) est la droite Vect (1, 1, 2) et Ker (A − 3.I)2 est le plan P d’équation 2x + y − z = 0 ; en
effet,  
2 1 −1
(A − 3.I)2 =  2 1 −1  .
4 2 −2
Il suffit alors de choisir un vecteur e3 de Ker (A − 3.I)2 \ Ker (A − 3.I) et de poser e2 = (A − 3.I) e3
pour que (e2 , e3 ) soit une base de P (résultat classique, car A − 3.I induit sur P un endomorphisme
nilpotent, d’indice 2, mais en l’occurrence la vérification est immédiate !).
De plus, j’ai par construction (A − 3.I) e2 = (A − 3.I)2 (e3 ) = 0 ; ainsi, en posant f = Can A :
f (e2 ) = 3.e2 et f (e3 ) = e2 + 3.e3
 
2 0 0
Par conséquent, en posant e1 = (1, 1, 2), j’ai M(e1 ,e2 ,e3 ) f =  0 3 1  (forme de Jordan).
0 0 3
Prenons par
 exemple e
3  = (0, 1, 1) (qui est bien dans Ker (A − 3.I)2 mais pas dans Ker (A − 3.I)) :
0 −1
(A − 3.I)  1  =  2 , d’où e2 = (−1, 2, 0) (qui est bien dans Ker (A − 3.I) comme prévu).
1 0
Alors,    
1 −1 0 2 0 0
avec P =  1 2 1  , j’ai P −1 AP =  0 3 1  .
2 0 1 0 0 3
(P est sûrement inversible puisque j’ai accolé des bases de deux sous-espaces supplémentaires. . . ).
 
0 1 −1 −3
 −10 −12 0 10 
2) Soit A =   ; j’ai χA (X) = (X − 3) (X + 2)3 donc Sp (A) = {−2, 3} et
 6 6 −1 −5 
−13 −14 −1 10
E−2 (A) = Vect (1, 0, −1, 1) ; E3 (A) = Vect (1, −2, 1, −2) .
3
On vérifie que Ker (A + 2.I) est l’hyperplan H d’équation x + y − t = 0, dont on choisit, dans le même
esprit que ci-dessus, une base de la forme (e2 , e3 , e4 ) avec e3 = (A + 2.I) e4 , e2 = (A + 2.I) e3 . Avec,
par exemple, e4 = (1, −1, 0, 0), choisi dans Ker (A + 2.I)3 \ Ker (A + 2.I)2 , j’obtiens
   
1 −1 1 1 3 0 0 0
 −2 0 0 −1   0 
P =  qui vérifie P −1 AP =  0 −2 1 .
 1 1 0 0   0 0 −2 1 
−2 −1 1 0 0 0 0 −2
2. Réduction des endomorphismes, des matrices carrées Page 10
 
−1 0 0
3) Soit A =  1 0 −1  ; j’ai χA (X) = (X + 1)3 donc Sp (A) = {−1}.
1 1 −2
E−1 (A) est le plan P = Ker (A + I) d’équation x + y − z = 0.
On pourrait se contenter de compléter arbitrairement une base de P pour montrer que A est semblable
à une matrice de la forme  
−1 0 ∗
 0 −1 ∗  .
0 0 −1
On peut gagner un 0 supplémentaire en “jordanisant” : (A + I)2 = 0, donc, si je choisis e3 dans
Ker (A + I)2 \ Ker (A + I) et si je pose e2 = (A + I) e3 , j’ai (A + I) e2 = 0 et il reste à choisir e1 !
Or e2 est un vecteur non nul du plan Ker (A + I), il suffit donc de choisir e1 tel que (e1 , e2 ) soit une
base dudit plan. Avec par exemple e3 = (0, 0, 1), j’obtiens e2 = (0, −1, −1) et je choisis (par exemple à
nouveau !) e1 = (1, 0, 1). J’ai alors
   
−1 0 0 1 0 0
P −1 AP =  0 −1 1  avec P =  0 −1 0  .
0 0 −1 1 −1 1

VI - Exemples d’applications

1) Calcul des puissances d’une matrice carrée


a) Utilisation d’un polynôme annulateur
Déterminer le reste de la division euclidienne de X k par P , où P est un polynôme annulateur (de
préférence le polynôme minimal. . . ) :
si X k = P Qk + Rk et P (A) = 0, alors Ak = Rk (A)

b) Diagonalisation ou trigonalisation
Si A = P BP −1 alors Ak = P B k P −1 . . .

2) Approximation de la valeur propre de module maximal


Soit A ∈ Mn (C) et (λ1 , . . . , λn ) un système de valeurs propres de A (son polynôme caractéristique
étant scindé en vertu du théorème de d’Alembert !). Nous savons aussi que A est trigonalisable (cf.
§V.2) ; il en résulte par une récurrence immédiate que
n
∀p ∈ N Tr (Ap ) = λpk .
k=1
Supposons en outre que A admet une unique valeur propre λ de module maximal (cf. le titre de la
section. . . ), c’est-à-dire que, en notant I = {k ∈ [[1, n]] / λk = λ}
|λ| = max |λk | et ∀k ∈ I |λk | < |λ| .
1≤k≤n
Notant m la multiplicité de ladite valeur propre λ, j’ai
Tr (Ap ) = m.λp + λpk ∼ m.λp .
k∈I p→∞

Alors, si λ = 0, Tr (Ap ) est nulle à partir d’un certain rang (A est nilpotente) ; sinon,
Tr Ap+1
−→ λ.
Tr (Ap ) p→∞

3) Relations de récurrence linéaires à coefficients constants


On cherche l’ensemble des suites (un ) de KN vérifiant une relation de la forme
∀n ∈ N un+ℓ = aℓ−1 .un+ℓ−1 + · · · + a0 .un (R)
où ℓ est donné dans N∗ et a0 , . . . , aℓ−1 donnés dans K, a0 = 0.
2. Réduction des endomorphismes, des matrices carrées Page 11

a) Traduction matricielle  
un
 
un+1
 
À toute suite (un ) on associe la suite (Un ) de vecteurs de Mℓ,1 (K) définie par Un =  ...
 
  .
0 1 (0) un+ℓ−1
 . . . . 
En notant M = 
 . . 
 ∈ Mℓ (K), on constate que (un ) vérifie la relation (R) si et
(0) 0 1 
a0 a1 · · · aℓ−1
seulement si : ∀n ∈ N Un+1 = MUn , soit si et seulement si : ∀n ∈ N Un = M n U0 .
On est donc ramené au calcul des puissances de M.

b) Cas de l’ordre 2
0 1
Ici (R) s’écrit un+2 = aun+1 + bun et M = a pour polynôme caractéristique χM = X 2 − aX − b
b a
et c’est un polynôme annulateur (théorème de Cayley-Hamilton !). La division euclidienne de X n par
χM s’écrit X n = χM Q + αX + β, d’où M n = αM + βI.
1 er cas : M admet deux valeurs propres distinctes λ et µ dans K
αλ + β = λn
Alors (α, β) est la solution du système et on en déduit l’existence de deux scalaires A,
αµ + β = µn
B indépendants de n tels que
∀n ∈ N un = Aλn + Bµn .
Plutôt que d’expliciter M , on peut (sachant qu’ils existent !) déterminer les valeurs de A et B en
n

résolvant le système fourni par les valeurs de u0 et u1 .


2 e cas : M admet une valeur propre double λ dans K
αλ + β = λn
Alors λ est également racine du polynôme dérivé χ′M , donc (α, β) est la solution du système
α = nλn−1
et on en déduit l’existence de deux scalaires A, B indépendants de n tels que
∀n ∈ N un = (A + nB) λn .
A et B se déterminent comme dans le 1er cas.
3 e cas : K = R et M admet deux valeurs propres complexes conjuguées (non réelles !) re±iθ
D’après le 1er cas, un s’écrit sous la forme
rn A1 einθ + B1 e−inθ , (A1 , B1 ) ∈ C2 ,
qui s’écrit sous la forme
rn (A cos nθ + B sin nθ) , (A, B) ∈ R2
(car A1 et B1 sont nécessairement conjugués).
Bilan : on obtient donc la forme générale des solutions, selon la nature des solutions de l’équation
x2 − ax − b = 0, dite équation caractéristique de la relation (R).
Exemple : suite de Fibonacci, définie par u0 = u1 = 1 et ∀n ∈ N un+2 = un+1 + un .
Il faut se rappeler que la programmation récursive du calcul de un en collant à cette définition est à
proscrire. . .

c) Structure de l’ensemble des solutions


Indépendamment de tout calcul matriciel, on peut montrer que l’ensemble S des suites vérifiant (R)
est un K-espace vectoriel de dimension ℓ.
En effet, il est clair que l’application φ : S → Kℓ est un isomorphisme.
(un ) → (u0 , . . . , uℓ−1 )
2. Réduction des endomorphismes, des matrices carrées Page 12

4) Recherche de sous-espaces stables en dimension finie


Soient u ∈ L (E), F un sous-espace de E stable par u et v l’endomorphisme de F induit par u.
• Tout polynôme annulateur de u annule aussi v.
• Le polynôme caractéristique de v divise celui de u.
Ces remarques, accompagnées du théorème de Cayley-Hamilton, peuvent être utiles dans la recherche
des sous-espaces stables par u.
Si, en outre, u est diagonalisable, alors
E= Eλ (u) et F = F ∩ Eλ (u)
λ∈Sp(u) λ∈Sp(u)

(étant entendu que, parmi les F ∩ Eλ (u), certains peuvent être réduits à {0}).
En effet, v est diagonalisable, or
∀λ ∈ Sp (u) Ker (v − λ.IdF ) = F ∩ Ker (u − λ.IdE ) = F ∩ Eλ (u)
et Sp (v) ⊂ Sp (u), donc les sous-espaces propres de v sont les F ∩ Eλ (u) qui ne sont pas réduits à {0}.
On en déduit le résultat suivant (la réciproque étant évidente).
Propriété : si u est diagonalisable, les sous-espaces de E stables par u sont les sous-espaces de la forme
Fλ où, pour tout λ, Fλ est un sous-espace de Eλ (u), éventuellement {0}.
λ∈Sp(u)

5) Diagonalisation simultanée
Si u, v dans L (E) commutent et sont diagonalisables, alors il existe une base de E formée de vecteurs
propres communs à u et v (i.e. où les matrices de u et v sont toutes deux diagonales).
Dém. E = Eλ (u) et les Eλ (u) sont stables par v (puisque u et v commutent).
λ∈Sp(u)

Or v est diagonalisable, donc pour tout λ l’endomorphisme de Eλ (u) induit par v est diagonalisable. Je
dispose donc d’une base de Eλ (u) formée de vecteurs propres de v, qui sont aussi des vecteurs propres
de u !
En accolant les bases ainsi obtenues pour les différentes valeurs de λ, j’obtiens le résultat souhaité.
NB : lorsque u admet n valeurs propres distinctes en dimension n, rappelons que u est diagonalisable
et que ses sous-espaces propres sont n droites. Alors, si v commute avec u, ces droites sont stables
par v et donc toute base de vecteurs propres de u est aussi une base de vecteurs propres de v !
En particulier, v est diagonalisable !!

6) Sous-espaces caractéristiques (complément hors programme)


Soit E un K-espace vectoriel de dimension finie, u ∈ L (E), λ une valeur propre de u de multiplicité m.
Classiquement, la suite Ker (u − λIdE )j est croissante et – comme E est de dimension finie –
j∈N
je dispose de k ∈ N∗ tel que Ker (u − λIdE )k = Ker (u − λIdE )k+1 . Je démontre alors que
E = Ker (u − λIdE )k ⊕ Im (u − λIdE )k avec dim Ker (u − λIdE )k = m.
Ker (u − λIdE )k est le sous-espace caractéristique de u associé à λ.
L’endomorphisme induit par u sur Ker (u − λIdE )k a λ pour unique valeur propre, tandis que l’endomor-
phisme induit par u sur Im (u − λIdE )k n’admet pas λ pour valeur propre.
Lorsque le polynôme caractéristique de u est scindé, j’en déduis par récurrence que E est la somme
directe des sous-espaces caractéristiques de u.
C’est la première étape de la réduction de Jordan.
2. Réduction des endomorphismes, des matrices carrées Page 13

Dém. Pour f, g dans L (E), je démontre classiquement, en appliquant le théorème du rang à la restriction
de f à Im g, que
rg g = rg f ◦ g + dim (Ker f ∩ Im g) .
Toujours classiquement, comme
Ker (u − λIdE )k = Ker (u − λIdE )k+1 ,
j’ai
Ker (u − λIdE )k = Ker (u − λIdE )2k ,
d’où grâce au théorème du rang
rg (u − λIdE )k = rg (u − λIdE )2k

et donc, grâce au résultat précédent (avec f = g = (u − λIdE )k )


Ker (u − λIdE )k ∩ Im (u − λIdE )k = {0} .

Ces deux sous-espaces sont donc en somme directe, mais la somme de leurs dimensions est dim E,
toujours d’après le théorème du rang ; ils sont donc supplémentaires. Ils sont également stables par u
(noyau et image d’un endomorphisme qui commute avec u en tant que polynôme en u).
Soit v (resp. w) l’endomorphisme induit par u sur F = Ker (u − λIdE )k (resp. sur G = Im (u − λIdE )k ).
Par construction (v − λIdF )k = 0 (car : ∀x ∈ F (v − λIdF )k (x) = (u − λIdE )k (x) = 0).
Donc (X − λ)k est un polynôme annulateur de v, par conséquent λ est la seule valeur propre possible
de v. Or λ est bien valeur propre de v puisque F contient Ker (u − λIdE ) = Eλ (u) et que tout vecteur
propre de u appartenant à F est vecteur propre de v !
Donc Sp (v) = {λ} ; on en déduit classiquement que χv = (X − λ)d où d = dim F (car v − λIdF est
nilpotent. . . ).
Enfin λ n’est pas valeur propre de w : si x ∈ G vérifie w (x) = λx, alors u (x) = λx par définition de w,
mézalor x ∈ Eλ (u), donc x ∈ F ∩ G, c’est-à-dire que x = 0.
Comme χu (t) = χv (t) × χw (t) (déterminant d’une matrice diagonale par blocs puisque F et G sont
stables par u), j’en déduis
χu (t) = (t − λ)d × χw (t)
où χw n’admet pas λ pour racine.
Il en résulte que d est exactement l’ordre de multiplicité de la racine λ de χu , ce qu’il fallait démontrer.

Vous aimerez peut-être aussi