0% ont trouvé ce document utile (0 vote)
15 vues26 pages

19 Reduction Complet

Ce chapitre traite de la réduction des endomorphismes dans un espace vectoriel, en introduisant des polynômes associés aux endomorphismes et aux matrices. Il présente des propriétés des polynômes d'endomorphismes, des théorèmes sur les polynômes annulateurs, ainsi que des exemples d'applications pratiques. Enfin, il démontre que tout endomorphisme dans un espace vectoriel de dimension finie possède un polynôme annulateur non nul.

Transféré par

feskalegend
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues26 pages

19 Reduction Complet

Ce chapitre traite de la réduction des endomorphismes dans un espace vectoriel, en introduisant des polynômes associés aux endomorphismes et aux matrices. Il présente des propriétés des polynômes d'endomorphismes, des théorèmes sur les polynômes annulateurs, ainsi que des exemples d'applications pratiques. Enfin, il démontre que tout endomorphisme dans un espace vectoriel de dimension finie possède un polynôme annulateur non nul.

Transféré par

feskalegend
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

CHAP.

XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

RÉDUCTION DES ENDOMORPHISMES

Dans tout le chapitre, K désigne R ou C , et E désigne un K -espace vectoriel non réduit à {0} .

I. Polynômes d’endomorphismes et de matrices


I.1. Polynômes d’endomorphismes

Déf 1:
Soit E un K -espace vectoriel, et u ∈ L ( E) .
d d
À tout polynôme P = ∑ ak X k on peut associer l’endomorphisme de E : P(u) = ∑ ak uk (où
k =0 k =0
uk désigne, comme d’habitude, l’endomorphisme défini par : u0 = IdE et, pour tout k > 1 :
uk = u ◦ uk−1 ).
P(u) s’appelle un polynôme en l’endomorphisme u.

Exemples
1. Si P = X 2 − 1 , P(u) = u2 − IdE .
2. si P = X 2 − X , P(u) = u2 − u .

Prop 1:
Si P, Q ∈ K [ X ] , λ ∈ K et u ∈ L ( E) :
 ( P + λQ)(u) = P(u) + λQ(u) .
 1(u) = IdE .
 ( PQ)(u) = P(u) ◦ Q(u) .
 P( u) ◦ Q ( u) = Q ( u) ◦ P( u) .

 Démonstration:
Les propriétés ci-dessus découlent directement de la définition des lois dans K [ X ] et dans L ( E ) et de leurs propriétés.
 Soient P, Q ∈ K [ X ] et λ ∈ K . Quitte à compléter l’un des polynômes avec des coefficients nuls, on peut écrire :
d d
P= ∑ ak X k et Q= ∑ bk X k .
k =0 k =0

d d d d
Alors P + λQ = ∑ ( ak + λbk ) X k d’où ( P + λQ )( u ) = ∑ ( ak + λbk )uk = ∑ ak uk + λ ∑ bk uk = P(u) + λQ(u) .
k =0 k =0 k =0 k =0

 Par définition, 1( u ) = u0 = Id E .
d d
 Démontrons déjà le résultat pour P quelconque et Q = X n . En notant P = ∑ ak X k on a X n P = ∑ ak X n +k d’où
! k =0 k =0
d d
( QP )( u) = ∑ ak u n +k = u n ◦ ∑ ak u k = Q(u) ◦ P(u) .
k =0 k =0
On généralise ensuite à un polynôme Q quelconque en écrivant Q = ∑ bn X n et en utilisant la propriété démontrée en 1er.
 La dernière propriété découle alors de la précédente puisque PQ = QP dans K [ X ] .

Théorème 1:
Soit E un K -espace vectoriel, et u, v ∈ L ( E) , tels que u ◦ v = v ◦ u . Alors :
1. Im u et Ker u sont stables par v .
2. Pour tout P ∈ K [ X ] , Im( P(u)) et Ker( P(u)) sont stables par v .
3. Pour tout Q ∈ K [ X ] , Im u et Ker u sont stables par Q(v) .
4. Pour tous P, Q ∈ K [ X ] , Im( P(u)) et Ker( P(u)) sont stables par Q(v) .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 1/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

 Démonstration:
1. – Soit x ∈ Ker u . On a alors :
u [v( x )] = u ◦ v( x ) = v ◦ u ( x ) = v(0) = 0 ,
ce qui montre que v( x ) ∈ Ker u . Ainsi, Ker u est stable par v .
– Soit y ∈ Im u ; il existe donc x ∈ E tel que y = u ( x ) puis :
v( y) = v ◦ u ( x ) = u ◦ v( x ) = u [v( x )] ,
ce qui montre que v( y) ∈ Im u donc Im u est stable par v .
2. Si u et v commutent, il en est de même de u k et v pour tout k (propriété du cours à retenir, se montre par récurrence triviale
sur k ). Il en est donc de même de P ( u ) et de v , et il suffit donc d’appliquer le résultat du 1.
3. Idem
4. On mélange 2. + 3.

Corollaire 1.1:
Pour tout P ∈ R [ X ] , Im( P(u)) et Ker( P(u)) sont stables par u .

Déf 2:
Soit u ∈ L ( E) . Un polynôme P ∈ K [ X ] s’appelle un polynôme annulateur de u si P(u) = 0
(endomorphisme nul).
Rem : si P est annulateur de u , tout multiple de P est encore annulateur de u .

Exemples
1. Si p est un projecteur de E , un polynôme annulateur de p est : X 2 − X .
2. Si s est une symétrie de E , un polynôme annulateur de s est : X 2 − 1 .
3. Si u est un endomorphisme nilpotent d’indice p , tout polynôme X k avec k > p est annulateur de u .
4. Un endomorphisme peut ne pas posséder de polynôme annulateur autre que le polynôme nul.
Exemple : l’endomorphisme u de K [ X ] qui à tout polynôme P associe son polynôme dérivé P′ .
 Démonstration: (
K[X] −→ K[X] n
En effet, notons D :
P 7−→ P′
. S’il existait un polynôme Π = ∑ ak X k ( an , 0 ) tel que Π( D ) = 0L (K [ X ]) on
k =0
aurait :
n n
∀ P ∈ K [ X ], ∑ ak D k ( P ) = ∑ ak P (k ) = 0 .
k =0 k =0

En prenant alors P = X n , les polynômes P (k ) étant non nuls et de degrés distincts forment un système libre, et on obtiendrait
ak = 0 pour tout k , ce qui est contradictoire.

Théorème 2:
Si E est un K -espace vectoriel de dimension finie, tout endomorphisme u ∈ L ( E) possède un
polynôme annulateur non nul.

 Démonstration: q y
Soit E de dimension n . Les endomorphismes u k , pour k ∈ 0 ; n2 forment une famille de n2 + 1 vecteurs de L ( E ) . Or, L ( E )
n2
est un K -espace vectoriel de dimension n2 , donc cette famille est liée : il existe des αk , non tous nuls, tels que ∑ αk uk = 0 . Le
k =0
n2
k
polynôme P = ∑ αk X est donc un polynôme annulateur non nul de u .
k =0

I.2. Polynômes de matrices


d d
Soit M ∈ Mn (K ) . À tout polynôme P = ∑ ak X k , on peut associer le polynôme de matrice P( M ) = ∑ ak M k
k =0 k =0
(avec M0 = In ) . C’est encore un élément de Mn (K ) .
Compte tenu des définitions des lois dans Mn (K ) , il est clair que, si M = MBE (u) , où u est un endomor-
phisme d’un K -espace vectoriel E de dimension n rapporté à une base BE , on aura P( M ) = MBE ( P(u)) .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 2/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

On dira qu’un polynôme P est annulateur de M si P( M ) = 0 (matrice nulle). Cela équivaut à dire que P
est annulateur de u . u étant un endomorphisme d’un espace vectoriel de dimension finie, il possède un
polynôme annulateur non nul : ainsi, toute matrice possède un polynôme annulateur non nul.

Prop 2:
1. Si deux matrices carrées A et A′ sont semblables et si P est un polynôme annulateur de A , P
est aussi un polynôme annulateur de A′ .
2. Si A ∈ Mn (K ) et si P est un polynôme annulateur de A , c’est aussi un polynôme annulateur
de A⊤ .

 Démonstration:
1. Si A ′ = P −1 AP avec P ∈ GL n (K ) , alors, pour tout k ∈ N , A ′k = P −1 A k P , donc, pour tout polynôme Π ∈ K [ X ] ,
Π( A ′ ) = P −1 Π( A ) P d’où le résultat.
Rem : On pouvait aussi remarquer que, si A = MBE (u) alors A′ = MB′E (u) donc Π A = Π A′ = Πu ...
2. Puisque, pour tout k ∈ N , ( A k )⊤ = ( A⊤ ) k , il est facile de vérifier que, pour tout polynôme Π ∈ K [ X ] , Π( A⊤ ) = ( Π( A ))⊤
d’où le résultat.

I.3. Exemples d’utilisations d’un polynôme annulateur


1. Calcul de l’inverse d’un endomorphisme
n
Soit u ∈ L ( E) , possédant un polynôme annulateur P = ∑ ak X k tel que a0 , 0 .
k =0
 n 
On a alors : P(u) = a0 IdE + u ◦ ∑ ai u i − 1 = 0 , ce qui prouve que u est inversible et permet
k =1
d’exprimer u−1 à l’aide des puissances de u .
on peut aussi retenir que, si a0 = 0 et si P n’est pas nul, u n’est pas inversible, puisqu’il existe v , 0 tel que
u ◦ v = 0.
2. Calcul des puissances d’un endomorphisme
Soit u ∈ L ( E) , possédant un polynôme annulateur (non nul) P .
Pour tout n ∈ N , la division euclidienne de X n par P s’écrit : X n = PQn + Rn (où deg( Rn ) < deg( P) ).
On a alors : un = P(u) ◦ Qn (u) + Rn (u) = Rn (u) , ce qui permet d’exprimer un pour tout n à l’aide
des premières puissances de u (plus précisément, à l’aide de IdE , u, . . . , u p−1 si p = deg( P) ).

Rem: Les mêmes méthodes permettent évidemment de calculer l’inverse (si elle existe) et les puissances
d’une matrice carrée lorsqu’on en connaı̂t un polynôme annulateur.

Exemple
 
2 1 1
Soit A = 1 2 1 . Trouver une relation entre A2 , A et I3 . En déduire An pour tout n ∈ N . Montrer
1 1 2
que A est inversible, calculer A−1 puis An pour n ∈ Z .
 Solution:
 
6 5 5
• On calcule A2 = 5 6 5 , puis on vérifie A2 − 5A + 4I3 = O3 (∗) .
5 5 6
• Le polynôme P = X2 − 5X + 4 = ( X − 1)( X − 4) est donc annulateur de A .
Pour n ∈ N on effectue la division euclidienne de X n par P :

∃( a, b ) ∈ R2 tel que X n = PQ + aX + b ,
et en remplaçant X par 1 puis par 4 on trouve :
4n − 1 4 − 4n .
X n = PQ + X+
3 3
Puisque P ( A ) = O3 on en déduit :
4n − 1 4 − 4n
∀ n ∈ N, An = A+ I3 (∗∗)
3 3
1
• La relation trouvée au début s’écrit aussi : A( A − 5I3 ) = −4I3 , ce qui montre que A est inversible et que A−1 = − ( A − 5I3 ) .
4
• On montre ensuite que la relation (∗∗) reste vraie pour n entier négatif :

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 3/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

En multipliant la relation (∗) par A −2 , on −2 −1 2


 A 4A − 5A + I3 = 0 , c’est-à-dire que le polynôme P1 = 4X − 5X + 1 est
1
annulateur de A −1 . Or P1 ( X ) = X 2 P , donc les racines de P1 sont exactement les inverses des racines de P , c’est-à-dire 1
X
1
et 4 , et c’est pour cette raison qu’en reprenant les calculs précédents en remplaçant 4 par 14 , on trouvera

4− n − 1 4 − 4− n
∀ n ∈ N, A−n = A+ I3 .
3 3

II. Qu’est-ce que réduire un endomorphisme ?


Réduire un endomorphisme u ∈ L ( E) consiste, dans le cas le plus général, àM trouver une famille ( Ei )i∈ I de
sous-espaces vectoriels de E , non réduits à {0} , stables par u , tels que E = Ei .
i∈ I
En dimension finie, cela revient à trouver une base de E où la matrice de u est diagonale par blocs :
 
 u| E1

0 


 u| E2 

 
 .. 
 . 
 

0 u| E p

(il est important de bien comprendre le lien entre matrices par blocs et sous-espaces vectoriels stables, revoir
le cours à ce sujet).
Dans ce cas, pour caractériser u , il suffira de caractériser les endomorphismes ui induits par u sur les Ei .
On a évidemment intérêt à ce que la dimension des Ei (s’ils sont de dimension finie) soit la plus petite
possible. Le cas le plus facile est celui où les Ei sont de dimension 1 . Cela revient donc à chercher les
droites vectorielles stables par u . Or, si D = Vect( x ) avec x , 0 , D est stable par u si et seulement si il
existe λ ∈ K tel que u( x ) = λx . Cela amène à introduire les notions suivantes.

III. Éléments propres d’un endomorphisme


Soit E un K -espace vectoriel (non nécessairement de dimension finie), et u ∈ L ( E) .

Déf 3:
1. On dit que λ ∈ K est une valeur propre de u s’il existe un vecteur x ∈ E , x , 0 E , tel que
u( x ) = λx .
2. On dit que x ∈ E est un vecteur propre de u si x , 0 E et s’il existe λ ∈ K tel que u( x ) = λx .
x est alors dit associé à la valeur propre λ .
Cela équivaut à dire que la droite vectorielle K.x est stable par u .
3. On appelle spectre de u , noté SpK (u) ou plus simplement Sp(u) , l’ensemble des valeurs
propres de u (dans K ).

Remarques
1. Il est très important de bien connaı̂tre et comprendre les équivalences suivantes :

λ ∈ Sp(u) ⇐⇒ ∃ x , 0 tel que u( x ) = λx


⇐⇒ ∃ x , 0 tel que (u − λIdE )( x ) = 0
⇐⇒ Ker(u − λIdE ) , {0}
⇐⇒ (u − λIdE ) non injective.

2. En particulier, on a le résultat suivant :

0K est valeur propre de u ⇐⇒ u non injective .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 4/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Déf 4:
Si λ ∈ Sp(u) , on appelle sous-espace propre de u associé à λ le sous-espace vectoriel :
Eλ (u) = Ker(u − λIdE ) .
Ainsi, Eλ (u) = { x ∈ E | u( x ) = λx } est l’ensemble des vecteurs propres de u associés à la valeur
propre λ plus le vecteur nul.
Si λ ∈ K est quelconque, on notera encore Eλ (u) = Ker(u − λIdE ) .
Ainsi, si λ < Sp(u) , on a Eλ (u) = {0} (et on ne parle pas alors de sous-espace propre !).

Exemples
1. Si h ∈ L ( E) est une homothétie de rapport α , Sp(h) = {α} et Eα (h) = E .
2. Dans un R -espace vectoriel euclidien de dimension 2 , si u est une rotation d’angle θ < πZ , u n’a pas
de valeur propre (ni de vecteur propre !).
3. Soient F et G deux sous-espaces vectoriels supplémentaires de E .
Si p ∈ L ( E) est la projection sur F de direction G , Sp( p) ⊂ {0, 1} et E0 ( p) = G , E1 ( p) = F .
4. Si s ∈ L ( E) est la symétrie par rapport à F de direction G , Sp(s) ⊂ {−1, 1} et E−1 (s) = G ,
E1 (s) = F .
 Démonstration:
1. Immédiat : puisque h( x ) = αx pour tout x , si on a h( x ) = λx pour x , 0 , alors λ = α .
2. Pour une rotation d’angle non multiple de π , les vecteurs u ( x ) et x ne peuvent pas être colinéaires si x , 0 !
3. Soit donc p la projection sur F parallèlement à G . Soit x = x F + xG ∈ E , non nul, et λ tel que p( x ) = λx .
(
x F = λx F
Alors, x F = λ( x F + xG ) d’où (somme directe) : .
0 = λxG
Donc :
– soit x F = 0 , mézalor, puisque x , 0 , xG , 0 et λ = 0 ;
– soit x F , 0 , et alors λ = 1 et xG = 0 .
Il n’y a donc que deux valeurs propres possibles : 0 et 1 , et E0 ( p) = G et E1 ( p) = F ; ce sont de ≪ vrais ≫ sous-espaces
propres si et seulement si p n’est pas un projecteur trivial (différent de 0 et de Id E ).
4. Même principe, ou utiliser la relation s = 2p − Id E .

Prop 3:
Si λ est une valeur propre non nulle de u , Eλ (u) est inclus dans Im u .

 Démonstration:  
1
En effet, si x ∈ Eλ ( u ) , on a alors x = u λx donc x ∈ Im u .

Rem: Cette proposition peut être intéressante lorsqu’il s’agit de déterminer les éléments propres d’un
endomorphisme u de rang ≪ petit ≫ . En effet dans ce cas, on peut commencer par chercher le
noyau de u (sous-espace propre associé à la valeur propre 0 ), puis chercher les éléments propres
de l’endomorphisme induit par u sur Im u ; Im u étant de petite dimension, les calculs seront plus
simples.

Prop 4:
Si v ∈ L ( E) commute avec u , Eλ (u) est stable par v .

 Démonstration:
Si x ∈ Eλ ( u ) et si v commute avec u , alors u [v( x )] = u ◦ v( x ) = v ◦ u ( x ) = v( λx ) = λv( x ) , donc v( x ) ∈ Eλ ( u ) .
On pouvait aussi appliquer directement le théorème 1 page 1, puisque Eλ ( u ) est le noyau de l’ endomorphisme u − λId E qui
commute aussi avec v .

Prop 5:
Si λ est une valeur propre de u , Eλ (u) est stable par u , et l’endomorphisme induit par u sur Eλ (u)
est l’homothétie de rapport λ .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 5/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

 Démonstration:
Immédiat.

Théorème 3:
Soit p ∈ N ∗ et (λi )16i6p une famille de valeurs propres de u deux à deux distinctes.
1. Soit, pour tout i ∈ J1 ; pK, xi un vecteur propre associé à la valeur propre λi .
Alors, la famille ( x i )16i6p est libre.
2. La somme des sous-espaces propres Eλi (u) est directe.

 Démonstration:
1. Démontrons la première propriété par récurrence sur p .
– Le résultat est vrai pour p = 1 (car un vecteur propre est, par définition, non nul).
– Supposons le résultat acquis à l’ordre p − 1 .
Soient alors, à l’ordre p , x1 , . . . , x p p vecteurs propres associés à des valeurs propres distinctes ( λ1 , . . . , λ p ) .
Si ( α1 , . . . , α p ) sont p scalaires tels que α1 x1 + . . . + α p x p = 0 (1) , alors :

u α1 x1 + . . . + α p x p = 0, d’où λ1 α1 x1 + . . . + λ p α p x p = 0 (2) ( par linéarité de u )
puis, en faisant (2) − λ p × (1) :
α 1 ( λ1 − λ p ) x1 + . . . + α p −1 ( λ p −1 − λ p ) x p −1 = 0
d’où αi ( λi − λ p ) = 0 pour tout i ∈ J1 ; p−K d’après l’hypothèse de récurrence, d’où αi = 0 pour tout i ∈ J1 ; p−K (car
λi , λ p ), puis (1) ⇒ α p = 0 ce qui démontre le résultat à l’ordre p , et achève la récurrence.
2. Démontrons la seconde propriété par récurrence sur p .
Le résultat est évidemment vrai pour p = 1 .
Supposons le résultat acquis à l’ordre p − 1 .
Soit alors, à l’ordre p , λ p une valeur propre différente des précédentes.
Puisque par hypothèse de récurrence, la somme des Eλi ( u ) pour 1 6 i 6 p − 1 est directe, pour montrer que la somme des
Eλi ( u ) pour 1 6 i 6 p l’est, il suffit de démontrer que
p −1
!
\ M
Eλ p ( u ) Eλ i ( u ) = {O }
i =1

(associativité de la somme directe).


p −1
Or, si x est un vecteur de l’intersection ci-dessus, on a : (1) x= ∑ xi avec x ∈ Eλ p ( u ) et xi ∈ Eλi ( u ) .
i =1
p −1
En appliquant u on obtient la relation : (2) λpx = ∑ λi xi ,
i =1
p −1
et en faisant (2) − λ p (1) on obtient ∑ (λi − λ p ) xi = 0 .
i =1
La somme des Eλi ( u ) pour 1 6 i 6 p − 1 étant directe, on en déduit λi − λ p ) xi = 0 pour tout i ∈ J1 ; p − 1K , d’où xi = 0
puisque les λi sont distincts, et enfin x = 0 , ce qu’il fallait démontrer.
Rem : on pouvait aussi utiliser directement le résultat de la propriété 1. et ainsi éviter de refaire une récurrence, qui ressemble d’ailleurs
furieusement à la 1ère... De même, on pouvait aussi démontrer d’abord la propriété 2. par récurrence et en déduire directement la propriété
1.

Corollaire 3.2:
Dans un espace vectoriel de dimension finie n , un endomorphisme possède au plus n valeurs propres
distinctes.

 Démonstration:
En effet, si λ1 , . . . , λ p sont des valeurs propres distinctes d’un endomorphisme u , et si ( x1 , . . . , x p ) est une famille de vecteurs
propres associés, alors la famille ( x1 , . . . , x p ) est libre, donc p 6 dim E .

Exemple

C ∞ (R, R ) −→ C ∞ (R, R )
Soit ϕ :
f 7−→ f′

Alors Sp( ϕ) = R et, ∀ λ ∈ R , Eλ ( ϕ) = Vect x 7→ eλx est une droite vectorielle.
Le théorème 1 permet alors de retrouver un résultat déjà démontré en exercice, à savoir que la famille
des fonctions { x 7→ eλx , λ ∈ R } est libre.

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 6/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Prop 6:
Soit u ∈ L ( E) , et P ∈ K [ X ] .
Si x ∈ E et λ ∈ K sont tels que u( x ) = λx , alors P(u)( x ) = P(λ).x .

 Démonstration:
Si u ( x ) = λx alors pour tout k ∈ N , on a u k ( x ) = λk x (récurrence facile), donc, si P =
  ∑ ak X k , P(u) = ∑ ak u k et
P ( u )( x ) = ∑ ak λk x = P ( λ) x .

Corollaire 6.1:

Soit u ∈ L ( E) et λ ∈ Sp(u) . Alors, pour tout polynôme P ∈ K [ X ] , P(λ) ∈ Sp P(u) .

 Démonstration:
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ).
On a donc u ( x ) = λx , et d’après la proposition précédente, P ( u )( x ) = P ( λ) x.
Puisque x , 0 , P ( λ) est donc une valeur propre de P ( u ) .

Rem: L’inclusion { P(λ), λ ∈ Sp(u)} ⊂ Sp P(u) peut être stricte.
Considérer par exemple une rotation d’angle π2 dans R2 , avec P( X ) = X 2 ...

Théorème 4:
Soit u ∈ L ( E) et P un polynôme annulateur non nul de u .
Alors toute valeur propre (dans K ) de u est racine de P (dans K ).
(autrement dit : Sp(u) est inclus dans l’ensemble des racines de P ).

 Démonstration:
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ).
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ). On vient de voir que, pour tout polynôme P , on a P ( u )( x ) = P ( λ) x .
Puisque x , 0 , et que P est annulateur de u ( P ( u ) = 0 ), on en déduit P ( λ) = 0 .

Rem: La réciproque est FAUSSE ...


Par exemple, si p est un projecteur, le polynôme X ( X − 1)( X − 2) est bien annulateur de p , mais
2 n’est pas valeur propre de p !

⋆ ⋆ ⋆ On supposera dans toute la suite E de dimension finie ⋆ ⋆ ⋆

IV. Éléments propres d’une matrice carrée

Déf 5:
Soit n un entier > 1 , et Mn (K ) l’algèbre des matrices carrées d’ordre n .
Soit A ∈ Mn (K ) .
 On dit que λ ∈ K est une valeur propre de A s’il existe V ∈ Mn,1 (K ) , V , 0 , tel que AV = λV .
L’ensemble des valeurs propres de A dans K s’appelle le spectre de A et est noté SpK ( A) .
 On dit que V ∈ Mn,1 (K ) est vecteur propre de A si et seulement si V , 0 et ∃λ ∈ K tel que
AV = λV .
On appelle alors sous-espace propre de A l’ensemble Eλ ( A) = {V ∈ Mn,1 (K ) tq AV = λV } .
C’est évidemment un sous-espace vectoriel de Mn,1 (K ) .

Rem: Si A est une matrice réelle, on peut considérer ses valeurs propres réelles ou ses valeurs propres
complexes, selon que l’on résout l’équation AV = λV avec λ ∈ R et V ∈ Mn,1 (R ) ou avec λ ∈ C
et V ∈ Mn,1 (C ) .
On a bien sûr : SpR ( A) ⊂ SpC ( A) .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 7/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Prop 7:
Soit E un K -espace vectoriel de dimension n rapporté à une base B , et A ∈ Mn (K ) .
On sait alors qu’il existe un et un seul endomorphisme u ∈ L ( E) tel que A = MB (u) .
Alors les valeurs propres de A (dans K ) sont exactement les valeurs propres de u .

 Démonstration:
En effet, si V est la matrice colonne des coordonnées dans B d’un vecteur x ∈ E , on a : AV = λV ⇐⇒ u ( x ) = λx.

Prop 8:
Toute matrice carrée d’ordre n possède au plus n valeurs propres.

 Démonstration:
car c’est la matrice d’un endomorphisme d’un espace vectoriel de dimension n , et le résultat a déjà été démontré dans ce cas.

Prop 9:
Deux matrices semblables ont même valeurs propres.

 Démonstration:
Si A et A ′ sont semblables, elles représentent le même endomorphisme u dans des bases différentes, donc Sp( A ) = Sp( u ) = Sp( A ′ ) .
On peut aussi faire le calcul : si A ′ = P −1 AP avec P inversible, alors
∀ V ∈ Mn,1 (K ), A′ V = λV ⇐⇒ A( PV ) = λPV
et le résultat découle du fait que V , 0 ⇐⇒ PV , 0 car P inversible.

V. Diagonalisabilité

Théorème 5:
Pour un endomorphisme u d’un K -espace vectoriel E de dimension finie, les propriétés suivantes
sont équivalentes :
M
(i) E est somme (directe) des sous-espaces propres de u , soit : E = Eλ ( u ) .
λ∈Sp( u )

(ii) il existe une base de E formée de vecteurs propres de u .


(iii) il existe une base B de E dans laquelle la matrice de u est diagonale.
Un tel endomorphisme u est dit diagonalisable.

 Démonstration:
(i) ⇒ (ii) : Il suffit de considérer une base de E formée de la réunion de bases des Eλ ( u ) (cf. cours sur les sommes directes).
(ii) ⇒ (iii) : Par définition d’un vecteur propre, si B = ( e1 , . . . , e n ) est une base de vecteurs propres de u alors il existe des
scalaires λi tels que u ( e i ) = λi e i donc MB ( u ) est diagonale (avec sur la diagonale les λi ).
(iii) ⇒ (i) : S’il existe une base B dans laquelle la matrice de u est diagonale, ce sont des vecteurs propres de u (et les coefficients
diagonaux sont des valeurs propres de u ). L L
Donc les vecteurs de B appartiennent à Eλ ( u ) . Donc aussi Vect(B ) ⊂ Eλ ( u ) . Mais B est une base, donc
λ ∈Sp( u ) λ ∈Sp( u )
L
Vect(B ) = E , et E = Eλ ( u ) .
λ ∈Sp( u )

Remarques :
Supposons que u est diagonalisable, et qu’il existe une base B de E dans laquelle la matrice de u est
diagonale. On a vu que les vecteurs de cette base sont des vecteurs propres de u et que les coefficients
diagonaux sont des valeurs propres de u .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 8/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Quitte à changer l’ordre de ces vecteurs, on peut supposer les valeurs propres regroupées de sorte que

MB (u) = diag(α1 , . . . , α1 , α2 , . . . , α2 , . . . , α p , . . . , α p ) = D
| {z } | {z }
m1 fois m2 fois

où les αi sont distincts.


Si x est un vecteur de E dont la matrice colonne des coordonnées dans B est V ∈ Mn,1 (K ) , l’équation
u( x ) = λx équivaut à DV = λV .
Il est alors clair que, si λ est différent de l’un des αi , cette équation admet pour seule solution V = 0
donc λ n’est pas valeur propre.
Ainsi, les coefficients diagonaux de D sont exactement les valeurs propres de u . Le sous-espace propre
associé à la valeur propre α1 (par exemple) s’obtient alors en résolvant le système DV = α1 V , et il est
facile de voir que ce système équivaut à xm1 +1 = . . . = xn = 0 , de sorte que Eα1 (u) est le sous-espace
vectoriel engendré par les m1 premiers vecteurs de base.
On obtient un résultat similaire pour les autres valeurs propres.
Exemples
1. Homothéties.
2. Projections.
3. Symétries.

Kn [X ] → Kn [X ]
4. Étude de : ϕ : .
P 7→ XP′ − P
 Solution:
1. Homothéties : si u est une homothétie de rapport α , sa matrice dans toute base est αIn , donc u est diagonalisable.

2. Projections : si u est la projection sur F de direction G (avec F ⊕ G = E ), on a déjà vu que Sp( u ) ⊂ {0, 1} et que F = E1 ( u)
et G = E0 ( p) .
Ainsi, les sous-espaces propres de u sont supplémentaires, et u est diagonalisable.
 
I 0
On retrouve en particulier une propriété déjà vue : il existe une base B telle que MB ( u ) = r .
0 0
3. Symétries : si u est la symétrie par rapport à F de direction G (avec F ⊕ G = E ), on a déjà vu que Sp( u ) ⊂ {−1, 1} et que
F = E1 ( u ) et G = E−1 ( p) .
Ainsi, les sous-espaces propres de u sont supplémentaires, et u est diagonalisable.
 
I 0
On retrouve une propriété déjà vue : il existe une base B telle que MB ( u ) = p .
0 − In − p

Kn [X] → Kn [X]
4. Étude de ϕ : .
P 7→ XP ′ − P
Déjà, ϕ est bien un endomorphisme de K n [ X ] (vérification facile). De plus pour tout k ∈ J0 ; nK , ϕ( X k ) = ( k − 1) X k , ce qui
montre que la base canonique de K n [ X ] est une base de vecteurs propres. ϕ est donc diagonalisable, et Sp( ϕ) = {−1, 0, 1, . . . , n − 1} .

Théorème 6:
Un endomorphisme u d’un K -espace vectoriel E de dimension finie est diagonalisable si et
seulement si la somme des dimensions de ses sous-espaces propres est égale à dim E .

 Démonstration:
! des sous-espaces propres de u est directe (théorème 3). On sait aussi (cours sur les sommes
En effet, on sait déjà que la somme
L
directes), que dim Eλ ( u ) = ∑ dim( Eλ ( u )). Donc :
λ ∈Sp( u ) λ ∈Sp( u )
M
u diagonalisable ⇐⇒ E =
déf.
Eλ ( u ) ⇐⇒ dim E = ∑ dim( Eλ ( u )).
λ ∈Sp( u ) λ ∈Sp( u )

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 9/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Théorème 7: (et définition 6)


Une matrice A ∈ Mn (K ) est dite diagonalisable si et seulement si elle vérifie l’une des propriétés
équivalentes suivantes :
(i) A est semblable à une matrice diagonale d’ordre n , c’est-à-dire qu’il existe une matrice
P ∈ GLn (K ) et D diagonale d’ordre n telles que : D = P−1 AP (ou A = PDP−1 ).
(ii) Si E est un K -espace vectoriel de dimension n et BE une base de E telle que A = MB E ( u )
où u ∈ L ( E) , u est diagonalisable.

 Démonstration:
Supposons (a) vérifiée, et reprenons les notations de (b). Si on considère alors la base BE′ de E telle que la matrice de passage de
BE à BE′ est P , la relation D = P −1 AP signifie que D est la matrice de u dans BE′ . Cette matrice étant diagonale, cela signifie
que u est diagonalisable.
Supposons (b) vérifiée. u étant diagonalisable, il existe une base BE′ dans laquelle la matrice de u est une matrice diagonale D .
Si l’on note alors P la matrice de passage de BE à BE′ , on a D = P −1 AP , d’où (a).

VI. Polynôme caractéristique


VI.1. Définition et premières propriétés

Théorème 8:
Soit E un K -espace vectoriel de dimension finie, u ∈ L ( E) et λ ∈ K . Alors :
λ ∈ Sp(u) ⇐⇒ det(u − λIdE ) = 0 ⇐⇒ det(λIdE − u) = 0 .

 Démonstration:
C’est immédiat puisque λ est valeur propre de u si et seulement si u − λId E est non injective, ce qui équivaut à non bijective
puisque E est de dimension finie.

Soit B une base de E , et A = ( aij ) la matrice de u dans B . Alors :

λ − a11 ... ... − a1n


− a21 λ − a22 ... − a2n
det(λIdE − u) = det(λIn − A) = .. .. .. .
. ... . .
− an1 ... . . . λ − ann

D’après la formule de développement du déterminant, il apparaı̂t clairement que det(λIdE − u) est une
fonction polynôme en λ , de degré n .

Rem: Si B ′ est une autre base de E , et si A′ est la matrice de u dans cette base, on a :
det(λIdE − u) = det(λIn − A) = det(λIn − A′ ) .
En effet, le déterminant d’un endomorphisme ne dépend pas de la base choisie ; ou on peut aussi
remarquer que, puisque A et A′ sont semblables, il en est de même de λIn − A et de λIn − A′ (car
A′ = P−1 AP =⇒ ( A′ − λIn ) = P−1 ( A − λIn ) P), donc ces deux matrices ont même déterminant.

Déf 7:
On appelle polynôme caractéristique d’un endomorphisme u d’un K -espace vectoriel de dimension
finie n > 1 le polynôme, noté χ u , défini par :

∀ λ ∈ K , χ u (λ) = det(λIdE − u) ou, en abrégé : χ u = det( XIdE − u) .

D’après la remarque précédente, si BE est une base quelconque de E , et si A = MBE (u) , on a aussi :
∀ λ ∈ K , χ u (λ) = det(λIn − A) ou simplement : χ u = det( XIn − A).

Le polynôme χ A = det( XIn − A) s’appelle naturellement le polynôme caractéristique de la matrice


A.
D’après la remarque précédente, deux matrices semblables ont même polynôme caractéristique.

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 10/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Théorème 9:
• Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) . Alors :
les valeurs propres de u sont exactement les racines dans K du polynôme caractéristique χ u .
• Soit A ∈ Mn (K ) . Alors :
les valeurs propres de A (dans K ) sont exactement les racines du polynôme caractéristique
χ A (dans K ).

 Démonstration:
Conséquence immédiate du théorème 8.

E Rem : Si A est une matrice carrée à coefficients réels, on peut aussi la considérer comme une matrice de
Mn (C ) , donc étudier ses valeurs propres réelles ou ses valeurs propres complexes !
Pour cette raison, il est important de distinguer dans ce cas :
SpR ( A) = {λ ∈ R tq det(λIn − A) = 0}
et :
SpC ( A) = { λ ∈ C tq det(λIn − A) = 0} .
On a évidemment : SpR ( A) ⊂ SpC ( A) mais il n’y a pas nécessairement égalité.
 
0 −1
Exemple : A = , χ A = X2 + 1 .
1 0
Prop 10:

Soit A ∈ Mn (K ) . Le polynôme caractéristique de A⊤ est égal à celui de A ( χ A⊤ = χ A ). Il en résulte


que Sp( A⊤ ) = Sp( A) .

 Démonstration:
En effet, det( XIn − A⊤ ) = det(( XIn − A )⊤ ) = det( XIn − A ) .

Théorème 10:
Soit E un K -espace vectoriel de dimension finie n > 1 et u ∈ L ( E) .
Le polynôme caractéristique χ u de u est :
– de degré n :
– de coefficient dominant égal 1 (il est donc unitaire) ;
– le coefficient du terme en X n−1 est égal à − tr u ;
– le coefficient constant est égal à (−1)n det u .
Ainsi, χ u peut s’écrire : χ u = X n − tr u X n−1 + . . . + (−1)n det u .

 Démonstration:
– χ u (0) = det(− u ) , ce qui donne le terme constant
– Les autres propriétés s’obtiennent, par exemple, en développant le déterminant de XId E − u selon la première colonne : on
n
obtient χ u = ∏( X − aii ) + Q , où Q est un polynôme de degré 6 n − 2 ...
i =1

Déf 8:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) . Soit λ ∈ SpK (u) .
On dit que λ est valeur propre d’ordre de multiplicité m de u si λ est une racine d’ordre m du
polynôme caractéristique χ u de u .

Remarques :
Tout endomorphisme u d’un K -espace vectoriel de dimension finie dont le polynôme caractéristique
χ u est scindé (ce qui est toujours le cas si K = C ) admet au moins une valeur propre dans K ;
il en admet même exactement n (où n = dim( E) ), en comptant chacune avec son ordre de multiplicité.
Ainsi, dans ce cas, on peut écrire :

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 11/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

n
χ u = ∏ ( X − λi ) (où les λi sont les valeurs propres, distinctes ou non, de u )
i =1
ou encore : χ u ( X ) = ∏ ( X − λ)mλ (où mλ est l’ordre de multiplicité de la valeur propre λ ).
λ∈Sp( u )
En développant les égalités ci-dessus, on trouve alors les relations (très importantes) :

tr u = λ1 + . . . + λn = ∑ λ det u = λ1 λ2 . . . λn = ∏ λ
λ∈Sp( u ) λ∈Sp( u )

On prendra soin cependant à n’utiliser ces relations que lorsque le polynôme caractéristique de u est
scindé (donc, dans le cas d’une matrice, en considérant les valeurs propres complexes).

VI.2. Restriction à un sous-espace vectoriel stable

Théorème 11:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Soit F un sous-espace vectoriel de E stable par u , et v ∈ L ( F ) l’endomorphisme de F induit par u .
Alors le polynôme caractéristique de v , χ v , divise le polynôme caractéristique de u , χ u .

 Démonstration:
Soit p = dim F, et soit B
 F une base de F , que l’on complète en une base BE de E . La matrice de u dans cette base est alors de
A1 B
la forme A = , où A1 est la matrice de v dans BF .
0 A2
Un calcul de déterminant par blocs donne alors :
χ u = det( XIn − A ) = det( XI p − A1 ) × det( XIn − p − A2 ) = χ v × det( XIn − p − A2 ),

donc χ u est multiple de χ v .

Théorème 12:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) .
Soit λ ∈ Sp(u) , et mλ son ordre de multiplicité (dans χ u ). Alors on a :
1 6 dim Eλ (u) 6 mλ .

 Démonstration:
– 1 6 dim Eλ ( u ) est immédiat, puisque Eλ ( u ) n’est pas réduit à {0} par définition.
– Eλ ( u ) est stable par u , et l’endomorphisme v induit par u sur Eλ ( u ) est l’homothétie de rapport λ . Donc χ v = ( X − λ)dim Eλ (u ) ,
et, puisque χ v divise χ u , on obtient l’inégalité voulue.

Théorème 13:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Alors u est diagonalisable si et seulement si :
χ u est scindé dans K [ X ] et pour tout λ ∈ Sp(u) , on a : mλ = dim Eλ (u) .

 Démonstration:
p
L
– Si u est diagonalisable et si λ1 , . . . , λ p sont ses valeurs propres, on a E = Eλi ( u ) d’où :
i =1
p p
dim E = ∑ dim Eλi (u) th.611 ∑ mλi 6 deg χ u = dim E,
i =1 i =1
donc toutes les inégalités intermédiaires sont des égalités :
p
∀ i ∈ J1 ; pK, dim Eλi ( u) = m λi , et aussi ∑ mλi = deg χ u , c’est-à-dire χ u scindé.
i =1
– Réciproquement, si les hypothèses de l’énoncé sont vérifiées, et si λ1 , . . . , λ p sont les valeurs propres de u , puisque la somme
des Eλi ( u ) est directe et que
p
M  p p
dim Eλ i ( u ) = ∑ dim Eλi (u) = ∑ mλi = deg χ u = dim E ,
i =1 i =1 i =1
p
L
on a bien E = Eλi ( u ) , c’est-à-dire u diagonalisable.
i =1

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 12/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Corollaire 13.1:
Soit E un K -espace vectoriel de dimension finie n , et u ∈ L ( E) .
SI u possède n valeurs propres distinctes, ALORS u est diagonalisable.

 Démonstration:
En effet, dans ce cas, il y a exactement n sous-espaces propres, tous de dimension 1 . lls sont donc supplémentaires.

E Attention : La réciproque est fausse ! il ne s’agit là que d’une condition suffisante, et non nécessaire, de diagonalisa-
bilité.
Considérer par exemple u = IdE : u est évidemment diagonalisable (puisque sa matrice dans toute base
est In ), mais u admet une seule valeur propre, 1 .
Corollaire 13.2:
Soit E un K -espace vectoriel de dimension finie n , et u ∈ L ( E) .
Si le polynôme caractéristique χ u de u est scindé à racines simples dans K , alors u est diagonalisable.

 Démonstration:
en effet, dans ce cas, u possède n valeurs propres distinctes, les racines de χ u , et on applique le corollaire précédent.

VI.3. Quelques exercices


 
1 4 2
1. Diagonaliser la matrice A = 0 −3 −2  .
0 4 3
 Solution:
On calcule le polynôme caractéristique de A :

X−1 −4 −2
χ A = det( XI3 − A ) = 0 X+3 2 = ( X − 1)( X2 − 1) = ( X − 1)2 ( X + 1).
0 −4 X−3
Les valeurs propres de A sont donc 1 (double) et −1 (simple).
On cherche ensuite les sous-espaces propres :
 
x
– Pour la valeur propre 1 : soit V = y  ;
z

 4y + 2z = 0

AV = V ⇐⇒ ( A − I3 )V = 0 ⇐⇒ −4y − 2z = 0 ⇐⇒ 2y + z = 0.


4y + 2z = 0
   
1 0
On reconnaı̂t là l’équation d’un (hyper)plan, engendré par exemple par les vecteurs V1 = 0 et V1′ =  1 .
0 −2
 
x
– Pour la valeur propre −1 : soit V =  y  ;
z

2x + 4y + 2z = 0

AV = −V ⇐⇒ ( A + I3 )V = 0 ⇐⇒ −2y − 2z = 0 ⇐⇒ x = z = − y.


4y + 4z = 0
On reconnaı̂t là un système
 d’équations d’une droite vectorielle (intersection de deux plans), plus précisément la droite de
1
base le vecteur V−1 = −1 .
1
Directement d’après le cours on peut affirmer que A est diagonalisable : par exemple, on peut dire que la somme des dimensions
des sous-espaces propres est égale à 3 , ou que la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité de
la valeur propre correspondante.
 
1 0 1
− 1
Et plus précisément : A = PDP où P = 0 1 −1 et D = diag(1, 1, −1) .
0 −2 1
 
2 1 1 1
1 2 1 1
2. Diagonaliser la matrice B = 
  .
1 1 2 1
1 1 1 2

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 13/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

 Solution:
Le calcul du polynôme caractéristique de B , c’est-à-dire du déterminant de la matrice XI4 − B est classique (matrice déjà
rencontrée, voir chapitre sur les déterminants), mais il y a bien plus rapide.
En effet, on remarque que B − I4 est une matrice de rang 1 ; donc dim Ker( B − I4 ) = 3 . Puisque Ker( B − I4 ) est le sous-espace
propre associé à la valeur propre 1 , on en déduit que 1 est valeur propre de B , d’ordre de multiplicité (a priori) supérieur ou
égal à 3 .
Puisque la somme des valeurs propres (dans C a priori) est égale à tr( B ) = 8 , on en déduit que les valeurs propres de B sont 1 ,
d’ordre 3 et 5 , simple.    
1 1
1 1
On pouvait aussi remarquer que A ·  1 = 5 1 pour montrer que 5 est valeur propre. Et puisque 5 est une valeur propre
  

1 1
simple, la dimension du sous-espace
  propre associé E5 ( A ) est forcément égale à 1 , ce qui prouve que E5 ( A ) est la droite
1
1
vectorielle engendrée par  1 .

1
Enfin, un calcul simple (résolution du système AV = V ) montre que le sous-espace propre associé à la valeur propre 1 est
l’hyperplan d’équation x + y + z + t = 0 , dont il est
 facile de trouver une  base.
1 1 0 0
1 − 1 1 0
Conclusion : B = PDP −1 avec (par exemple) P =   et D = diag(5, 1, 1, 1) .
1 0 −1 1
1 0 0 −1

3. Trouver toutes les matrices M ∈ M3 (R ) telles que :


 
11 −5 5
M2 = A où A est la matrice A = −5 3 − 3 .
5 −3 3
 Solution:
χ
  pas les calculs. On trouve, après avoir calculé A , Sp( A ) = {0, 1, 16} .
On commence par diagonaliser la matrice A . Je ne détaille
0
Un vecteur propre associé à la valeur propre 0 est 1 (cela se voyait...), un vecteur propre associé à la valeur propre 1 est
1
   
−1 2
−1 et enfin un vecteur propre associé à la valeur propre 16 est −1 .
1 1
 
0 −1 2
− 1
On aura donc A = PDP avec D = diag(0, 1, 16) et P =  1 − 1 − 1 .
1 1 1
En posant M ′ = P −1 MP on a :
M2 = A ⇐⇒ P −1 M2 P = P −1 AP ⇐⇒ M ′2 = D .
Or il est clair que si M ′2
= D alors M′
et D commutent. On en déduit alors que M ′ est diagonale (cf. un résultat important
dans le cours sur les matrices, ou bien refaire le calcul à la main ici). Si on pose alors M ′ = diag ( a, b, c) on aura donc a2 = 0 ,
b2 = 1 et c2 = 16 .
On en déduit M ′ = diag(0, ε, 4ε
′ ) avec ε, ε ′ ∈ {−1, 1} , puis les 4 solutions M = PM ′ P −1 , que l’on peut calculer explicitement

0 3 3
− 1
après avoir déterminé P =1 −2 −2 −2 .
6 2 −1 1

VII. Utilisation des polynômes d’endomorphisme

Théorème 14:
Soit E un K -espace vectoriel (non nécessairement de dimension finie), et u un endomorphisme de
E.
On suppose que u admet un polynôme annulateur P scindé à racines simples dans K ,
P = ( X − λ1 ) . . . ( X − λ p ) avec les λi scalaires distincts.
p
L
Alors E = Ker(u − λi IdE ) .
i =1

 Démonstration:
On utilise le théorème de décomposition d’une fraction rationnelle en éléments simples, démontré dans le chapitre 2 (à l’aide des
1
polynômes d’interpolation de Lagrange), pour la fraction rationnelle ·
P
p p
1 αj P
Il existe donc des scalaires α j tels que =∑ , donc on peut écrire : 1 = ∑ α j L j , en ayant posé L j = = ∏( X − λi ) .
P j =1
( X − λ j ) j =1
X − λj i,j

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 14/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

p
On en déduit, en appliquant cette égalité polynomiale à l’endomorphisme u : Id E = ∑ α j L j (u) , donc, pour tout x ∈ E,
j =1
p
x= ∑ α j L j (u)( x )
j =1

On a alors, pour tout j ∈ J1 ; pK , puisque ( X − λ j ) L j = P , ( u − λ j Id E ) ◦ L j ( u ) = P ( u ) d’où ( u − λ j Id E )( L j ( u )( x )) = P ( u )( x ) = 0


p
et donc L j ( u )( x ) ∈ Ker( u − λ j Id E ) . La relation (∗) prouve donc l’égalité E = ∑ Ker(u − λ j IdE ) .
j =1

Et le fait que la somme est directe a déjà été vu.

Rem: Avec les notations du théorème, on sait que les valeurs propres de u sont a priori incluses dans
l’ensemble dans l’ensemble des racines de P , c’est-à-dire dans {λi , i ∈ J1 ; pK} .
Il se peut donc, dans l’écriture ci-dessus, que certains des Ker(u − λi IdE ) soient réduits à {0} (si
λi n’est pas une valeur propre de u ).

Théorème 15:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Si u ∈ L ( E) possède un polynôme annulateur (non nul) scindé dans K [ X ] et n’ayant que des
racines simples, alors u est diagonalisable.

 Démonstration:
En effet, d’après le théorème précédent, E est alors somme directe des sous-espaces propres de u (en ne considérant dans la
p
M
somme E = Ker( u − λ j Id E ) que les ≪ vraies ≫ valeurs propres de u , cf. remarque précédente.)
j =1

Théorème 16:
Si u ∈ L ( E) est diagonalisable, le polynôme ∏ ( X − λ) est annulateur de u .
λ∈Sp( u )

 Démonstration:
1ère façon :
p
Soient λ1 , . . . , λ p les valeurs propres distinctes de u et P = ∏( X − λ i ) .
i =1
Soit i ∈ J1 ; pK . Pour tout x ∈ Eλi , on a ( u − λi Id E )( x ) = 0 , donc
! !
p
P ( u )( x ) = ∏(u − λ j IdE ) ( x ) = ∏(u − λ j IdE ) ◦ (u − λi IdE )( x ) = 0 .
j =1 j,i

u étant diagonalisable, on a : E = Eλ1 ⊕ . . . ⊕ Eλ p , et puisque la relation P ( u )( x ) = 0 est vérifiée pour tout x ∈ Eλi pour tout
i ∈ J1 ; pK , elle l’est pour tout x ∈ E .
Donc P ( u ) = 0L ( E) , c’est-à-dire P est annulateur de u .
2ème façon : Démonstration matricielle : si u a pour matrice D diagonale dans une base de vecteurs propres, chaque matrice
D − λi I comporte un bloc de zéros à la place des λi donc le produit de ces matrices est nul.

Les deux théorèmes précédents impliquent immédiatement le résultat suivant :

Théorème 17:
Un endomorphisme u de E est diagonalisable si et seulement si il possède un polynôme annulateur
scindé à racines simples.
Un tel polynôme est, par exemple, ∏ ( X − λ) .
λ∈Sp( u )

Théorème 18:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Soit F un sous-espace vectoriel de E stable par u , et v ∈ L ( F ) l’endomorphisme de F induit par u .
Alors :
u diagonalisable =⇒ v diagonalisable .

 Démonstration:

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 15/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

p
u est diagonalisable, donc en notant λ1 , . . . , λ p les valeurs propres distinctes de u et P = ∏( X − λi ) , P est annulateur de u .
i =1
d d
Si P s’écrit P = ∑ ai X i , on a P ( u ) = 0L ( E) soit ∀ x ∈ E, ∑ ai ui ( x ) = 0E . Cette relation est en particulier vraie pour x ∈ F,
i =1 i =1
d
donc, puisque v = u | F : ∀ x ∈ F, ∑ ai vi ( x ) = 0E .
i =1
Cela signifie que P ( v) = 0L ( F ) , donc P est aussi annulateur de v . Ainsi v possède un polynôme annulateur scindé à racines
simples donc v est diagonalisable.

Rem: Avec les notations et hypothèses précédentes, on a :


– Sp(v) ⊂ Sp(u)
– ∀ λ ∈ Sp(v) , Eλ (v) = Eλ (u) ∩ F

Corollaire 18.1:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) .
On suppose u diagonalisable. Alors : F est stable par u si et seulement si F admet une base formée
de vecteurs propres de u .

 Démonstration:
Si F est stable par u , alors l’endomorphisme induit u F est un endomorphisme diagonalisable de F donc par définition F admet
une base formée de vecteurs propres de u F donc de u .
Réciproquement, si F admet une base formée de vecteurs propres de u , notée B = ( e1 , . . . , e p ) alors tout vecteur x de F s’écrit
p p
x= ∑ xi ei donc u ( x ) = ∑ λi xi ei appartient à F c’est-à-dire F stable par u .
i =1 i =1

Exercices d’application
 
1 1 −1
1. Trouver les sous-espaces vectoriels de R3 stables par l’endomorphisme de matrice A = 1 1 1 .
1 1 1
 Solution:
On commence par chercher les éléments propres de A . Sp( A ) = {0, 1, 2} . Les valeurs propres sont distinctes, donc chaque
sous-espace propre est une droite vectorielle, et A est diagonalisable.
D’après le corollaire précédent, les sous-espaces vectoriels de R3 stables par A seront donc, en les classant selon leur dimension :
– {0E } et E .
  
  
1 −1 0
– les trois droites vectorielles E0 ( A ) , E1 ( A ) et E2 ( A ) , respectivement engendrées par −1 ,  1 et 1 .
0 1 1
– les trois plans vectoriels Ei ( A ) ⊕ E j ( A ) .

 
6 −6 5
2. Même question avec A = −4 −1 10 .
7 −6 4
 Solution:
 −1 (simple) et 5 (double). Le sous-espace propre associé à la valeur propre
A sont
Ici les valeurs propres de   −1 est la droite
10 1
vectorielle engendrée par 15 et celui associé à la valeur propre 5 est la droite vectorielle engendrée par 1 .
4 1
La matrice n’est donc pas diagonalisable. Les sous-espaces vectoriels de R3 stables par A seront, en les classant selon leur
dimension :
– {0E } et E .
– les deux droites vectorielles E−1 ( A ) et E5 ( A ) .
– le plan vectoriel E−1 ( A ) ⊕ E5 ( A ) .
– Mais il peut exister d’autres plans stables.
Notons u l’endomorphisme de R3 canoniquement associé à A . Si P est un plan stable par u , on sait que le polynôme
caractéristique de l’endomorphisme u P induit par u sur P divise χ u ; ce polynôme étant de degré 2 , il s’agit nécessairement
de ( X + 1)( X − 5) ou de ( X − 5)2 .
Dans le 1er cas, u P a comme valeurs propres −1 et 5 ; les sous-espaces propres correspondant sont forcément les mêmes que
ceux de u donc les vecteurs propres trouvés précédemment appartiennent à P , et on retrouve P = E−1 ( u ) ⊕ E5 ( u ) .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 16/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Dans le second cas, u P a comme seule valeur propre 5 , et le vecteur propre e5 de coordonnées (10, 15, 4) appartient
nécessairement à P . Si e = ( x, y, z) est un autre vecteur de P linéairement indépendant de celui-ci, on écrit que P est
stable par u si et seulement si u ( e ) ∈ P ce qui se traduit par det( e5 , e, u ( e )) = 0 , soit

1 x 6x − 6y + 5z 1 x 6x − 6y + 5z
0= 1 y −4x − y + 10z = 0 y−x −10x + 5y + 5z = ( x − z)(−11x + 6y + 5z).
1 z 7x − 6y + 4z 0 z−x x−z
On trouve donc deux plans : celui d’équation x = z et celui d’équation −11x + 6y + 5z = 0 ; ce dernier est le plan
E−1 ( u ) ⊕ E5 ( u ) (car les deux vecteurs propres trouvés vérifient cette équation).

VIII. Trigonalisation
Dans tout ce paragraphe, E désigne un K -espace vectoriel de dimension finie n > 1 .

Déf 9:
1. Un endomorphisme u ∈ L ( E) est dit trigonalisable s’il existe une base B de E telle que MB ( u )
soit triangulaire supérieure.
2. Une matrice carrée A ∈ Mn (K ) est dite trigonalisable si l’endomorphisme a de K n qui lui est
canoniquement associé est trigonalisable.
Cela revient à dire que A est semblable à une matrice triangulaire supérieure, c’est-à-dire qu’il
existe P ∈ GLn (K ) et T ∈ Tn+ (K ) telles que : T = P−1 AP (ou A = PTP−1 ).

Théorème 19:
Un endomorphisme u ∈ L ( E) est trigonalisable si et seulement si son polynôme caractéristique est
scindé dans K [ X ] .

 Démonstration:
 
t11 ... t1n

 .. .. 

1. Supposons u trigonalisable : il existe une base B de E telle que MB ( u ) soit de la forme  . .  . Donc

0
 
tnn
n
χv = ∏( X − tii ) est scindé.
i =1

2. Réciproquement, procédons par récurrence sur n = dim E .


L’hypothèse de récurrence s’écrit : (Hn ) : ∀ A ∈ Mn (K ), χ A scindé dans K [ X ] =⇒ A trigonalisable.
– Le résultat est immédiat pour n = 1 .
– Supposons (Hn −1 ) vérifiée, et soit A n ∈ Mn (K ) tq χ A n soit scindé. Soit E un K -espace vectoriel de dimension n et B
une base de E telle que A n = MB ( u ) .
χ u = χ A étant scindé possède au moins une racine λ1 ∈ K . Soit alors e1 un vecteur propre associé à cette valeur
n
propre. e1 étant non nul, on peut construire une base B ′ = ( e1 , . . . , e n ) par le théorème de la base incomplète.
 
λ1 B
0 
On a alors : MB′ ( u ) = A ′n =  .  , d’où χ u = ( X − λ1 ) χ A n−1 . χ u étant scindé, il en est de même de χ A n−1 .
 
 .. A n −1 
0
D’après l’hypothèse de récurrence, il existe P ∈ GL n −1 (K ) et il existe T ∈ T n+−1 (K ) telles que T = P −1 A n −1 P .
 
1 0 ... 0
0 
 
Soit alors Q ∈ Mn (K ) la matrice Q =  . .
.. P 
0
 
1 0 ... 0
0 
On vérifie aisément que Q est inversible et que Q −1 =  .
 
 (faire le calcul du produit par blocs).
 .. P − 1 
0
   
λ1 BP λ1 BP
0  0 
En effectuant le produit par blocs, on a : Q −1 A ′n Q =  .
   
 =  .  qui est bien triangulaire
 . . P −1 A n −1 P   .. T 
0 0
supérieure d’ordre n , semblable à A ′n donc à A n , ce qui démontre (Hn ) .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 17/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Corollaire 19.1:
Tout endomorphisme d’un C -espace vectoriel de dimension finie est trigonalisable.
Toute matrice de Mn (C ) est trigonalisable.

 Démonstration:
En effet, tout polynôme est scindé dans C [ X ] .

Rem: Si u ∈ L ( E) est trigonalisable et si B est une base de E dans laquelle la matrice T de u est
triangulaire supérieure, alors les éléments diagonaux de T sont exactement les valeurs propres de
u , chacune étant comptée avec son ordre de multiplicité (cela a été démontré dans la 1ère partie
de la démonstration du théorème).

Exercice Trigonaliser les matrices suivantes :  


  1 −1 2 −2
−2 −1 2 0 0 1 −1 
 .
A = −15 −6 11 et B=

1 −1 1 0 
−14 −6 11
1 −1 1 0

 Solution:
1. On trouve χ A = ( X − 1)3 .
On peut dire tout de suite que A n’est pas diagonalisable, car sinon, elle serait semblable, donc égale, à I3 .
 
1 a c
Mais χ A étant scindé sur R , A est trigonalisable, et semblable à une matrice de la forme T = 0 1 b .
0 0 1
Soit u l’endomorphisme de R3 canoniquement associé à A , c’est-à-dire A = MBc ( u ) , où Bc = ( e1 , e2 , e3 ) est la base
canonique de R3 . Il s’agit donc de trouver une base B ′ de R3 dans laquelle la matrice de u est T .
D’abord, on veut u ( e1′ ) = e1′ , donc on choisit pour e1′ un vecteur propre associé à la valeur propre 1 . La recherche habituelle
de E1 ( A ) donne qu’il s’agit de la droite vectorielle de base (1, 1, 2) . On choisit donc e1′ = (1, 1, 2) .
On cherche ensuite e2′ = ( x, y, z) , linéairement indépendant de e1′ , tel que u ( e2′ ) = ae1′ + e2′ , soit ( u − Id E )( e2′ ) = ae1′ .

 −3x − y + 2z = a (
 x = y − 3a
Cela donne le système : −15x − 7y + 11z = a , qui équivaut à

 z = 2y − 4a
−14x − 6y + 10z = 2a

On peut donc choisir a = 1 et e2 = (−1, 2, 0) .
On cherche enfin e3′ = ( x, y, z) , linéairement indépendant de e1′ et e2′ , tel que u ( e3′ ) = ce1′ + be2′ + e3′ , soit ( u − IdE )( e3′ ) = ce1′ + be2′ .

 −3x − y + 2z = c − b (
 x = y − 3c + 5b
Cela donne le système : −15x − 7y + 11z = c + 2b , qui équivaut à

 z = 2y − 4c + 7b
−14x − 6y + 10z = 2c
On ne peut pas choisir b = 0 , sinon on retombe sur un système similaire au précédent, et les vecteurs solutions seront liés
avec e1′ et e2′ . On choisit donc b = 1 et c = 0 , puis par exemple e3′ = (5, 0, 7)
Il est alors facile de vérifier que les vecteurs e1′ , e2′ , e3′ sont linéairement indépendants, et forme donc bien une base B ′ de
R3 .
   
1 1 0 1 −1 5
En conclusion, on a A = PTP −1 , avec T = 0 1 1 et P = 1 2 0 .
0 0 1 2 0 7
   
1 0
χ 2 2
 1 0
2. On trouve B = X ( X − 1) . Mais E0 ( B ) est la droite de base V0 =   et E1 [ B ) est celle de base V1 =  
  .
0 1
0 1
B n’est donc pas diagonalisable. On peut alors chercher des vecteurs  V0′ et V1′ tels que
 la matrice de l’endomorphisme
0 1 0 0
0 0 0 0
canoniquement associé à B dans la base (V0 , V0′ , V1 , V1′ ) soit égale à T = 
0 0 1 1 (calculs à finir).

0 0 0 1

IX. Théorème de Cayley-Hamilton

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 18/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Théorème 20:
Soit E un K -espace vectoriel de dimension finie ( K = R ou C ), et u un endomorphisme de E .
Alors : χ u (u) = 0L ( E)
Autrement dit : Le polynôme caractéristique de u est aussi un polynôme annulateur de u .

 Démonstration:
1. 1er cas : K = C .  
λ1 ... ... ...
0 λ2 ... . . .
 
u est trigonalisable, donc il existe une base B = ( e1 , . . . , e n ) de E tq MB ( u ) =  . .. .. ..  .
 .. . . . 
0 ... 0 λn
n
Le polynôme caractéristique de u est alors χ u = ∏( X − λi ) .
i =1
Notons, pour k ∈ J1 ; nK Ek = Vect( e1 , . . . , e k ) et E0 = {0} . On a alors, pour tout k ∈ J1 ; nK , ( u − λk Id E )( Ek ) ⊂ Ek −1 .
Or χ u ( u ) = ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn Id E ) donc :
χ u ( u )( E ) = χu ( u )( En ) = ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn Id E )( En )
⊂ ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn −1 Id E )( En −1 )
⊂ ...
⊂ ( u − λ1 Id E )( E1 ) = {0}
soit χ u ( u ) = 0L ( E) .
2. 2ème cas : K = R .
Si u est un endomorphisme d’un R -espace vectoriel E , soit A la matrice de u dans une base de E . Alors A ∈ Mn (R ) donc
on peut considérer A ∈ Mn (C ) . D’après ce qui précède, χ A ( A ) = 0 , donc χ u ( u ) = 0

Une application : les endomorphismes nilpotents.

• Soit u un endomorphisme nilpotent d’un K -espace vectoriel E de dimension n . Si p est l’indice de


nilpotence de u , u p = 0 et u p−1 , 0 , donc le polynôme X p est annulateur de u .
En vertu du théorème 4, la seule valeur propre possible de u est 0 .
De plus, si u est nilpotent, u ne peut être injectif (car sinon u p le serait !) donc 0 est effectivement
valeur propre de u .
Ainsi, si u est nilpotent, Sp(u) = {0} .

• Réciproquement, si la seule valeur propre d’un endomorphisme u d’un C -espace vectoriel de dimen-
sion n est 0 , son polynôme caractéristique étant scindé, on a χ u = X n , et le théorème de Cayley-
Hamilton prouve alors que un = 0 .
Ainsi, u est nilpotent, et l’indice de nilpotence p de u est nécessairement 6 n (ce résultat, classique,
a déjà été démontré en exercice).
• Ce dernier résultat tombeen défaut dans
 le cas d’un R -espace vectoriel : par exemple, l’endomor-
0 0 0
phisme de R3 de matrice 0 0 1 dans la base canonique n’admet que 0 comme valeur propre
0 −1 0
(réelle), mais n’est pas nilpotent.

X. Quelques applications de la réduction des endomorphismes

X.1. Calcul de la puissance p-ième d’une matrice carrée


Soit A ∈ Mn (K ) . On cherche à calculer A p pour p ∈ N .
1. 1ère méthode : utilisation d’un polynôme annulateur
Soit P ∈ K [ X ] un polynôme annulateur de A ; ce peut être son polynôme caractéristique (d’après le
théorème de Cayley-Hamilton), mais aussi plus simplement le polynôme ∏ ( X − λ) lorsque A
λ∈Sp( A )
est diagonalisable
Si d est le degré de P , la division euclidienne de X p par P dans K [ X ] s’écrit : X p = PQ + R p , où le
reste R p est un polynôme de degré 6 d − 1 à déterminer. On a alors : A p = P( A) Q( A) + R p ( A) = R p ( A) ,
ce qui permet d’exprimer A p pour tout entier p en fonction de In , A, . . . , Ad−1 .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 19/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

 
2 −1 2
Exercice Soit A =  5 −3 3 . Calculer A p pour p ∈ N puis pour p ∈ Z .
−1 0 −2

 Solution:
• On commence par calculer le polynôme caractéristique de A :
X−2 1 −2
χ A = det( XI3 − A ) = −3 X+3 − 3 = ( X + 1) 3
1 0 X+2
(je n’ai pas détaillé les calculs, il faut savoir les faire rapidement).
Pour p ∈ N , on effectue la division euclidienne de X p par χ A , ce qui s’écrit ici, compte tenu de la formule de Taylor
pour les polynômes :
p ( p − 1)
X p = ( X + 1)3 Q + (−1) p ( X + 1)2 + (−1) p −1 p( X + 1) + (−1) p .
2
On en déduit, puisque ( A + I )3 = O3 :
p ( p − 1)
A p = (−1) p ( A + I3 )2 + (−1) p −1 p( A + I3 ) + (−1) p I3
2
(on pouvait aussi obtenir cette relation en remarquant que la matrice N = A + I3 est nilpotente, et en développant
A p = (− I3 + N ) p à l’aide de la
 formule du binôme).
2 −1 1
On calcule alors ( A + I3 )2 =  2 −1 1 et on en déduit :
−2 1 −1
 p ( p −3 ) p ( p −5 )

p2 − 4p + 1 − 2 2
 
p2 p ( p −7 )
A p = (−1) p  p( p − 6)
 
2 + 52 p + 1 2
 (matrice notée M ( p) ).
 
p ( p −1 ) p2
− p ( p − 2) 2 − 2 + 32 p + 1
Bien sûr, lorsque l’on a fini des calculs si passionnants, on pense à vérifier ses résultats au moins pour les valeurs p = 0 et
p = 1 ...
• Puisque 0 n’est pas valeur propre de A , la matrice A est inversible et donc l’expression A p pour p entier négatif a bien
un sens.
Pour calculer A − p avec p ∈ N ∗ , on pourrait bien sûr calculer A −1 puis recommencer la même méthode... Mais il est
plus rapide de ≪ remarquer ≫ , après avoir fait un calcul encore passionnant, que le produit M ( p) × M (− p) est égal à la
matrice I3 , donc directement A − p = M (− p) .

2. 2ème méthode : dans le cas où A est diagonalisable


Dans ce cas, il existe D diagonale et P inversible telles que : A = PDP−1 . On a alors :
∀ p ∈ N, A p = PD p P−1 , formule qui se généralise à p ∈ Z dans le cas où A est inversible.
p p
Or, si D = diag(λ1 , . . . , λn ) , on a D p = diag(λ1 , . . . , λn ) , donc le calcul de P, D , P−1 permet d’obtenir
Ap .
Cette méthode est plutôt laborieuse, et n’est à utiliser que si vous avez déjà du calculer les matrices P D et P−1 .
3. 3ème méthode : dans le cas général
On peut toujours trigonaliser A , quitte à se placer dans Mn (C ) . Plus précisément, on peut montrer
qu’il existe P inversible et T triangulaire supérieure tq A = PTP−1 , avec T de la forme :
 

T1

0
 T2 
 
T=

..


 . 
 
0 Tq
p
où chaque Ti est de la forme Ti = λi I + Ni avec Ni nilpotente. On sait alors calculer les Ti à l’aide de
 

p
T1

0
 p 
 T2 
p
la formule du binôme, et on a ensuite T = 
 

 .. 
 . 
0
 
p
Tq
Exercices

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 20/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

 
3 2 4
1. Soit A = −1 3 −1 . Calculer A p pour p ∈ N puis pour p ∈ Z .
−2 −1 −3
 Solution:
Je vous conseille de vous entraı̂ner, et pour cela je donne les principaux résultats (merci M APLE® ) :
χ A = ( X + 1)( X − 2)2
     
 1   2 
E−1 ( A ) = Vect  0  E2 ( A ) = Vect  1
   
−1 −1
     
−1 0 0 1 2 −2 −1 0 −2
−1 −1
A = PTP avec T =  0 2 1  , P=  0 1 0  , P = 0 1 0 .
0 0 2 −1 −1 1 −1 1 −1
 
(−1) p +1 + 2 p (2 − p) 2p p 2(−1) p +1 + 2 p (2 − p)
p
 − −

A = p
−2 p 1 2 p 1 ( p + 2) − 2 p −1 p .

(−1) p + 2 p −1 ( p − 2) − 2 p −1 p 2(−1) p + 2 p −1 ( p − 2)

 
3 −4 0 2
4 −5 −2 4
2. Même question avec A =  .
0 0 3 −2 
0 0 2 −1
 Solution:
Je vous conseille de vous entraı̂ner, et pour cela je donne les principaux résultats (merci M APLE® ) :
χ A = ( X − 1) 2 ( X + 1) 2
    
 1 

 


 1 
   
1 1
E−1 ( A ) = Vect   E 1 ( A ) = Vect 


 0 

 

 1 


   
0 1
     
−1 4 0 0 1 1 1 1 0 1 0 −1
 0 − 1 0 0 1 0 1 0 1 −1 −1 1
A = PTP −1 avec T=
  , P=   −1
, P =  .
0 0 1 2 0 0 1 1 0 0 0 1
0 0 0 1 0 0 1 0 0 0 1 −1

4(−1) p +1 − 2 p
 
(−1) p (1 − 4p) 4(−1) p p (4p − 1)(−1) p + 2p + 1
   
 4(−1) p +1 p (4p + 1)(−1) p p 4(−1) p + 2 4(−1) p +1 − 2 p + 1 − (−1) p 
Ap = 

.

 (0 0 2p + 1 −2p 
0 0 2p −2p + 1

X.2. Étude de systèmes linéaires de suites récurrentes


On cherche (par exemple) à déterminer les valeurs de un , vn wn , avec u0 , v0 , w0 donnés, et où les trois
suites vérifient le système de récurrence
 :
 un+1 = aun + bvn + cwn
v = a ′ un + b′ v n + c ′ w n
 n +1
  wn+1 = a′′ un + b′′ vn + c′′ wn
a b c un
Soit alors A =  a′ b′ c′  et Xn =  vn  . X0 est donné, et le système précédent s’écrit : Xn+1 = AXn .
a′′ b′′ c′′ wn
On a alors Xn = An X0 pour tout n ∈ N , et on est donc ramené au calcul de An .

X.3. Étude de suites récurrentes linéaires d’ordre 2


Soit E = CN le C -espace vectoriel des suites complexes. Étant donnés a et b dans C , on se propose
d’étudier :
S = {u ∈ E , ∀ n ∈ N , un+2 = aun+1 + bun .}
 
un
Soit (un ) ∈ S et Xn = . X0 est donné, et on a Xn+1 = AXn où A est la matrice :
u n +1
 
0 1
A= ·
b a

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 21/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

On a alors Xn = An X0 , et le calcul de An permet d’obtenir un en fonction de n .


Plus précisément, χ A = X ( X − a) − b = X 2 − aX − b ; on distingue deux cas :
– si χ A admet deux racines distinctes r1 et r2 dans C , alors A est diagonalisable, et il existe alors
P ∈ GL2 (C ) telle que An = P diag(r1n , r2n ) P−1 .
On retrouve alors qu’il existe des constantes α et β telles que un = αr1n + βr2n pour tout n .
– si χ A admet une racine double r , la matrice A n’est pas diagonalisable (sinon elle serait semblable
 
r 1
donc égale à rI2 ), on peut alors la trigonaliser et on trouve qu’elle est semblable à T = .
0 r
 n 
r nr n−1
Tn = et An = PT n P−1 , on retrouve alors qu’il existe des constantes α et β telles que
0 rn
un = (αn + β)r n .
La méthode ci-dessus se généralise à des suites récurrentes linéaires d’ordre supérieur, c’est l’objet des deux
exercices suivants.
Exercices
Pour les suites définies par les relations de récurrence suivantes, exprimer un en fonction de n :
1. u0 = 1 + cos θ , u1 = −1 , u2 = 4 + cos θ ( θ ∈]0, π [ ) et
∀ n ∈ N, un+3 + 2(1 − cos θ )un+2 + (1 − 4 cos θ )un+1 + 2un = 0.

 Solution:
 
un
En posant Xn = u n +1  , on connaı̂t X0 et la relation de récurrence
u n +2
 
0 1 0
Xn +1 = AXn avec A =  0 0 1 
−2 4 cos θ − 1 2(cos θ − 1)
de sorte que Xn = A n X0 .
On calcule alors le polynôme caractéristique de A :
χ A = X 3 + 2(1 − cos θ ) X 2 + (1 − 4 cos θ ) X + 2 = ( X + 2)( X 2 − 2X cos θ + 1) = ( X + 2)( X − eiθ )( X − e−iθ )

(après avoir remarqué que −2 est racine ≪ évidente ≫ ).


Puisque θ ∈ ]0 ; π [ , A admet 3 valeurs propres distinctes dans C , donc est diagonalisable dans M3 (C ) :

∃ P ∈ GL3 (C ) tel que A = PDP −1 avec D = diag(−2, e−iθ , eiθ ).


donc
∀ n ∈ N, Xn = An X0 = PD n P −1 X0
et puisque P et P −1 ne dépendent pas de n , on en déduit qu’il existe des constantes α, β, γ dans C telles que

∀ n ∈ N, un = α(−2) n + βe−inθ + γeinθ


ou encore, puisque u n est réel, il existe des constantes a, b, c réelles telles que
∀ n ∈ N, un = a(−2) n + b cos( nθ ) + c sin( nθ ).
Les conditions initiales conduisent aux relations :
u0 = a + b = 1 + cos θ , u1 = −2a + b cos θ + c sin θ = −1 et u2 = 4a + b cos 2θ + c sin 2θ = 4 + cos θ.
Cela permet de trouver (si les calculs sont bien conduits, je vous encourage à les faire pour vous entraı̂ner) :
a=1 , b = cos θ et c = sin θ
puis finalement :
∀ n ∈ N, un = (−2) n + cos(( n − 1) θ ).

2. u0 = 1 , u1 = 0 , u2 = 11 , u3 = 20 et
∀ n ∈ N, un+4 = 2un+3 + 3un+2 − 4un+1 − 4un .

 Solution:
 
un
 u n +1 
En posant Xn = 
u n +2  , on connaı̂t X0 et la relation de récurrence

u n +3
 
0 1 0 0
 0 0 1 0
Xn +1 = AXn avec A=
 
0 0 0 1
−4 −4 3 2

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 22/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

de sorte que Xn = A n X0 .
On calcule alors le polynôme caractéristique de A :
χ A = X 4 − 2X 3 − 3X 2 + 4X + 4 = ( X + 1)2 ( X − 2)2

(après avoir remarqué deux fois que −1 est racine ≪ évidente ≫ ).


On peut alors vérifier que les deux sous-espaces propres associés aux deux valeurs propres −1 et 2 sont tous deux de
dimension 1 . Donc A n’est pas diagonalisable, mais, χ A étant scindé, elle est trigonalisable. On peut alors, par les méthodes
déjà vues, trouver une matrice inversible P telle que
     
T1 O2 −1 1 2 1
A = PTP −1 avec T = où T1 = et T2 = .
O2 T2 0 1 0 1
 
0 1
En écrivant T1 = − I2 + N et T2 = 2I2 + N où N = est telle que N 2 = 0 on peut facilement calculer, à l’aide de la
0 0
formule du binôme, pour tout entier n :
   n  " #
n (−1) n (−1) n +1 n n 2 n2n −1 n
T1n O2
T1 = et T2 = puis T = .
0 (−1) n 0 2n O2 T2n

Finalement
∀ n ∈ N, Xn = An X0 = PT n P −1 X0
et puisque P et P −1 ne dépendent pas de n , on en déduit qu’il existe des constantes réelles a, b, c, d telle que
∀ n ∈ N, un = a(−1) n + bn(−1) n + c2n + dn2n .
Les conditions initiales conduisent aux relations :
u0 = a + c = 1 , u1 = − a − b + 2c + 2d = 0 , u2 = a + 2b + 4c + 8d = 11 et u3 = − a − 3b + 8c + 24d = 20.
On résout ce système et on trouve : ( a, b, c, d) = (1, 1, 0, 1) d’où :
∀ n ∈ N, un = ( n + 1)(−1) n + n2n .

X.4. Résolution de systèmes différentiels homogènes à coefficients constants



On s’intéresse ici à des systèmes différentiels
  de la forme : ( H ) X (t) = AX (t) , où A ∈ Mn (R ) ne dépend
x1 ( t )
 .. 
pas de t , et où X : t ∈ R 7→ X (t) =  .  est une application dérivable de R dans Mn,1 (K ) (c’est-à-dire
xn (t)
que les xi sont des applications dérivables de R dans K ).
Un tel système s’écrit donc :
 ′
 x1 (t) = a11 x1 (t) + . . . + a1n xn (t)


 x2′ (t) = a21 x1 (t) + . . . + a2n xn (t)

(H) .. ..

 . .


 ′
xn (t) = an1 x1 (t) + . + ann xn (t)
. .

Prop 11:
L’ensemble S ( H ) des solutions de l’équation différentielle homogène ( H ) est un sous-espace
vectoriel de l’espace vectoriel C 1 (R, Mn,1 (K )) des fonctions de classe C 1 de IR dans Mn,1 (K ) .

 Démonstration:
Trivial

Le théorème suivant est admis.

Théorème 21:
L’espace vectoriel S ( H ) des solutions de l’équation différentielle homogène ( H ) est de dimension
finie, et dim S ( H ) = n .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 23/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Théorème 22:
Soit A ∈ Mn (K ) . On suppose que A admet une valeur propre λ .
Si V est un vecteur propre associé à cette valeur propre, alors la fonction t 7→ eλt .V est solution sur
R de l’équation homogène X ′ = AX .

 Démonstration:
Il suffit de vérifier : si l’on pose X ( t) = eλt V , alors la fonction t 7 → X ( t) est dérivable et, pour tout t : X ′ ( t) = λeλt V = eλt AV
puisque AV = λV , et donc X ′ ( t) = AX ( t) .

Corollaire 22.2:
Soit A ∈ Mn (K ) . On suppose ici que A est diagonalisable. Il existe donc une base (V1 , . . . , Vn ) de
R n formée de vecteurs propres de A , pour les valeurs propres (λ1 , . . . , λn ) .
Alors les fonctions Xi : t 7→ eλi t Vi , pour i ∈ J1 ; nK, forment une base de l’espace vectoriel S ( H ) des
solutions de l’équation homogène X ′ = AX .

 Démonstration:
En effet, les Xi sont bien solutions de l’équation d’après le théorème précédent. De plus, on a, pour tout i ∈ J0 ; nK , Xi (0) = Vi ,
donc la famille ( X1 (0), . . . , Xn (0)) est libre dans Mn,1 (K ) . Il en résulte facilement que la famille ( X1 , . . . , Xn ) est libre dans
C 1 ( I, Mn,1 (K )) , donc forme une base de S ( H ) puisque cet espace vectoriel est de dimension n .

Exemples :
(
x ′ = 4x − 2y,
1. Résoudre le système différentiel .
y′ = x + y

 Solution:
x ( t) = λ e2t + 2µ e3t y( t) = λ e2t + µ e3t .
 ′
x = x − y

2. Résoudre le système différentiel : y′ = x + 2y + z

 ′
z = −x + y

 Solution:
 
1 −1 0
C’est un système linéaire homogène, de matrice A =  1 2 1 .
−1 1 0
On calcule son polynôme caractéristique :
X−1 1 0 X−1 1 0
χA = −1 X−2 −1 = −1 X−2 −1
L3 ← L3 + L1
1 −1 X X 0 X
X−1 1 0 X−1 1 1−X
=X −1 X−2 −1 = X −1 X−2 0 = X ( X − 2)( X − 1).
C3 ← C3 − C1
1 0 1 1 0 0
A possède trois valeurs propres distinctes, elle est donc diagonalisable. On cherche alors les sous-espaces propres.
Valeur propre 0 :
 
x
Pour V = y  , on résout le système :
z

 x−y = 0 (  
x
 
1
 y=x
AV = 0 ⇐⇒ x + 2y + z = 0 ⇐⇒ ⇐⇒  y = x  1 

 z = − 3x z −3
−x + y = 0
 
1
d’où un vecteur propre V0 =  1  .
−3
Valeur propre 1 :
On résout le système :

 −y = 0 (  
x
 
1
 y=0
AV = V ⇐⇒ ( A − I3 )V = 0 ⇐⇒ x+y+z = 0 ⇐⇒ ⇐⇒  y  = x  0 

 z = −x z −1
−x + y − z = 0
 
1
d’où un vecteur propre V1 =  0  .
−1

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 24/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

Valeur propre 2 : On résout le système



 −x − y = 0 (  
x
 
1
 y = −x
AV = 2V ⇐⇒ ( A − 2I3 )V = 0 ⇐⇒ x+z = 0 ⇐⇒ ⇐⇒  y  = x −1

 z = −x z −1
− x + y − 2z = 0
 
1
d’où un vecteur propre V2 = −1 .
−1
On déduit alors directement du théorème précédent les solutions :
 
x
 y = λ0 V0 + λ2 et V1 + λ2 e2t V2
z
soit 

 x ( t) = λ0 + λ1 et + λ2 e2t

y( t) = λ0 − λ2 e2t ( λ0 , λ1 , λ2 ) ∈ R 3 .


z( t) = −3λ0 − λ1 et − λ2 e2t

Rem: Supposons A à coefficients réels. Si λ ∈ C est une valeur propre non réelle, et si V ∈ C n est
un vecteur propre associé, alors λ est encore valeur propre de A , et V en est un vecteur propre
associé (puisque AV = λV ⇐⇒ AV = λV ⇐⇒ AV = λV , car A = A ).
Alors, les fonctions X : t 7→eλt V et X : t 7→ eλt V sont linéairement
 indépendantes, et, pour tout
 1  1 
t , Vect X (t), X (t) = Vect X (t) + X(t) , X (t) − X (t) .
2 2i
1  1 
Les fonctions t 7→ X (t) + X (t) et t 7→ X (t) − X (t) sont alors solutions de ( H ) (car
2 2i
combinaisons linéaires de solutions), et elles sont à valeurs réelles.
On obtiendra donc une base de l’espace vectoriel  des solutions
 à valeurs réelles en remplaçant,
 
pour les valeurs propres non réelles, les couples eλt V, eλt V par Re eλt V , Im eλt V .

Exemple
 ′
x = x + y

Résoudre, dans R , le système différentiel : y′ = − x + 2y + z .

 ′
z = x+z

 Solution:
 
1 01 
A =  −1 1 ; χ A = ( X − 2) ( X − 1)2 + 1 ; SpC ( A ) = {2, 1 + i, 1 − i} .
2
1 10
     
1 i −i
3
Dans C , on trouve les vecteurs propres associés 1 , −1 et −1 (dans l’ordre des valeurs propres écrites ci-dessus).
1 1 1
Les solutions à valeurs dans C sont donc :
       
x 1 i −i
 y = αe2t 1 + βe(1+i)t −1 + γe(1−i)t −1 ( α, β, γ ) ∈ C3
z 1 1 1
soit encore :        
x 1 − sin t + i cos t − sin t − i cos t
2t t t
 y  = αe 1 + βe − cos t − i sin t + γe − cos t + i sin t
z 1 cos t + i sin t cos t − i sin t
donc les solutions à valeurs réelles sont :
       
x 1 − sin t cos t
 y  = ae2t 1 + bet − cos t + cet − sin t ( a, b, c) ∈ R3 .
z 1 cos t sin t

 Cas général :
De façon plus générale, si la matrice A est semblable à une matrice B plus simple, on effectuera un
changement de base, ce qui revient à changer de fonctions inconnues, pour obtenir un système différentiel
plus facile à résoudre.
Le principe est simple : si B = P−1 AP , le système X ′ = AX équivaut à P−1 X ′ = BP−1 X , donc, en
posant Y (t) = P−1 X (t) , soit X (t) = PY (t) (le calcul de P−1 n’est pas utile en pratique !), on obtiendra le

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 25/26 8 mars 2023


CHAP. XIX – RÉDUCTION DES ENDOMORPHISMES (cours complet) PSI* 22-23

nouveau système différentiel Y ′ = BY (en effet, X (t) = PY (t) implique X ′ (t) = PY ′ (t) car la matrice P est
constante).
Exemples :
(
x ′ = 5x − y
1. Résoudre le système différentiel : .
y′ = x + 3y

 Solution:
     
5 −1 1 1 4 2
On pose A = , que l’on trigonalise au moyen de P = en T = .
−1 3 1 −1 0 4
 
u
On remplace le système X ′ = AX = PTP −1 X en Y ′ = TY où Y = P −1 X . Cela donne, si on note Y = :
v
(
u ′ = 4u + 2v
.
v′ = 4v

On en déduit v( t) = v0 e4t et u ′ − 4u = 2v0 e4t , donc, après résolution, u ( t) = u0 e4t + 2v0 t e4t .
Enfin, de X = PY on tire x = u + v et y = u − v , soit
(
x ( t) = ( λ + µ ) e4t + 2µt e4t
.
y( t) = ( λ − µ ) e4t + 2µt e4t

 ′
 x = 2x − y + 2z

2. Résoudre le système différentiel : y′ = 10x − 5y + 7z

 ′
z = 4x − 2y + 2z

 Solution:
 
2 −1 2
C’est un système différentiel linéaire d’ordre 1 homogène d’équation matricielle X ′ = AX avec A = 10 −5 7 .
4 −2 2
On calcule : χ A ( X ) = − X 2 ( X + 1) . Après trigonalisation, on a A = PTP −1 avec :
   
−1 1 0 −1 0 0
P=  1 2 1  et T =  0 0 1 ·
2 0 1 0 0 0

En posant Y = P −1 X , le système X ′ = AX équivaut à Y ′ = TY puis facilement :


 −t 
λe

Y = TY ⇐⇒ Y = µt + ν avec λ, µ, ν ∈ K.
µ
La solution générale du système est donc
 −t     
−e t 1
X (t) = λ  e − t  + µ 2t + 1 + ν 2
  avec λ, µ, ν ∈ K.
2e−t 1 0

(
x ′ ( t ) = ( t − 2) x ( t ) − ( t − 1) y ( t )
3. Résoudre le système différentiel :
y′ (t) = 2(t − 1) x (t) − (2t − 1) y(t)

 Solution:
 
t−2 −t + 1
La matrice A ( t) = est diagonalisable, avec :
2t − 2 −2t + 1
   
−t 0 1 1
D (t) = et P= ·
0 −1 2 1
 
u(t)
Le vecteur Y ( t) = P −1 X ( t) = ( soit X ( t) = PY ( t) )est alors solution du système :
v(t)
(
u′ (t) = −t u(t)
v′ (t) = −v(t)
t2
D’où : u ( t) = C1 e− 2 et v( t) = C2 e−t . Or : X ( t) = P Y ( t) , d’où :
t2 t2
x ( t) = C1 e− 2 + C2 e−t et y( t) = 2C1 e− 2 + C2 e−t .

Cours PSI* – © T.LEGAY – Lycée d’Arsonval 26/26 8 mars 2023

Vous aimerez peut-être aussi