19 Reduction Complet
19 Reduction Complet
Dans tout le chapitre, K désigne R ou C , et E désigne un K -espace vectoriel non réduit à {0} .
Déf 1:
Soit E un K -espace vectoriel, et u ∈ L ( E) .
d d
À tout polynôme P = ∑ ak X k on peut associer l’endomorphisme de E : P(u) = ∑ ak uk (où
k =0 k =0
uk désigne, comme d’habitude, l’endomorphisme défini par : u0 = IdE et, pour tout k > 1 :
uk = u ◦ uk−1 ).
P(u) s’appelle un polynôme en l’endomorphisme u.
Exemples
1. Si P = X 2 − 1 , P(u) = u2 − IdE .
2. si P = X 2 − X , P(u) = u2 − u .
Prop 1:
Si P, Q ∈ K [ X ] , λ ∈ K et u ∈ L ( E) :
( P + λQ)(u) = P(u) + λQ(u) .
1(u) = IdE .
( PQ)(u) = P(u) ◦ Q(u) .
P( u) ◦ Q ( u) = Q ( u) ◦ P( u) .
Démonstration:
Les propriétés ci-dessus découlent directement de la définition des lois dans K [ X ] et dans L ( E ) et de leurs propriétés.
Soient P, Q ∈ K [ X ] et λ ∈ K . Quitte à compléter l’un des polynômes avec des coefficients nuls, on peut écrire :
d d
P= ∑ ak X k et Q= ∑ bk X k .
k =0 k =0
d d d d
Alors P + λQ = ∑ ( ak + λbk ) X k d’où ( P + λQ )( u ) = ∑ ( ak + λbk )uk = ∑ ak uk + λ ∑ bk uk = P(u) + λQ(u) .
k =0 k =0 k =0 k =0
Par définition, 1( u ) = u0 = Id E .
d d
Démontrons déjà le résultat pour P quelconque et Q = X n . En notant P = ∑ ak X k on a X n P = ∑ ak X n +k d’où
! k =0 k =0
d d
( QP )( u) = ∑ ak u n +k = u n ◦ ∑ ak u k = Q(u) ◦ P(u) .
k =0 k =0
On généralise ensuite à un polynôme Q quelconque en écrivant Q = ∑ bn X n et en utilisant la propriété démontrée en 1er.
La dernière propriété découle alors de la précédente puisque PQ = QP dans K [ X ] .
Théorème 1:
Soit E un K -espace vectoriel, et u, v ∈ L ( E) , tels que u ◦ v = v ◦ u . Alors :
1. Im u et Ker u sont stables par v .
2. Pour tout P ∈ K [ X ] , Im( P(u)) et Ker( P(u)) sont stables par v .
3. Pour tout Q ∈ K [ X ] , Im u et Ker u sont stables par Q(v) .
4. Pour tous P, Q ∈ K [ X ] , Im( P(u)) et Ker( P(u)) sont stables par Q(v) .
Démonstration:
1. – Soit x ∈ Ker u . On a alors :
u [v( x )] = u ◦ v( x ) = v ◦ u ( x ) = v(0) = 0 ,
ce qui montre que v( x ) ∈ Ker u . Ainsi, Ker u est stable par v .
– Soit y ∈ Im u ; il existe donc x ∈ E tel que y = u ( x ) puis :
v( y) = v ◦ u ( x ) = u ◦ v( x ) = u [v( x )] ,
ce qui montre que v( y) ∈ Im u donc Im u est stable par v .
2. Si u et v commutent, il en est de même de u k et v pour tout k (propriété du cours à retenir, se montre par récurrence triviale
sur k ). Il en est donc de même de P ( u ) et de v , et il suffit donc d’appliquer le résultat du 1.
3. Idem
4. On mélange 2. + 3.
Corollaire 1.1:
Pour tout P ∈ R [ X ] , Im( P(u)) et Ker( P(u)) sont stables par u .
Déf 2:
Soit u ∈ L ( E) . Un polynôme P ∈ K [ X ] s’appelle un polynôme annulateur de u si P(u) = 0
(endomorphisme nul).
Rem : si P est annulateur de u , tout multiple de P est encore annulateur de u .
Exemples
1. Si p est un projecteur de E , un polynôme annulateur de p est : X 2 − X .
2. Si s est une symétrie de E , un polynôme annulateur de s est : X 2 − 1 .
3. Si u est un endomorphisme nilpotent d’indice p , tout polynôme X k avec k > p est annulateur de u .
4. Un endomorphisme peut ne pas posséder de polynôme annulateur autre que le polynôme nul.
Exemple : l’endomorphisme u de K [ X ] qui à tout polynôme P associe son polynôme dérivé P′ .
Démonstration: (
K[X] −→ K[X] n
En effet, notons D :
P 7−→ P′
. S’il existait un polynôme Π = ∑ ak X k ( an , 0 ) tel que Π( D ) = 0L (K [ X ]) on
k =0
aurait :
n n
∀ P ∈ K [ X ], ∑ ak D k ( P ) = ∑ ak P (k ) = 0 .
k =0 k =0
En prenant alors P = X n , les polynômes P (k ) étant non nuls et de degrés distincts forment un système libre, et on obtiendrait
ak = 0 pour tout k , ce qui est contradictoire.
Théorème 2:
Si E est un K -espace vectoriel de dimension finie, tout endomorphisme u ∈ L ( E) possède un
polynôme annulateur non nul.
Démonstration: q y
Soit E de dimension n . Les endomorphismes u k , pour k ∈ 0 ; n2 forment une famille de n2 + 1 vecteurs de L ( E ) . Or, L ( E )
n2
est un K -espace vectoriel de dimension n2 , donc cette famille est liée : il existe des αk , non tous nuls, tels que ∑ αk uk = 0 . Le
k =0
n2
k
polynôme P = ∑ αk X est donc un polynôme annulateur non nul de u .
k =0
On dira qu’un polynôme P est annulateur de M si P( M ) = 0 (matrice nulle). Cela équivaut à dire que P
est annulateur de u . u étant un endomorphisme d’un espace vectoriel de dimension finie, il possède un
polynôme annulateur non nul : ainsi, toute matrice possède un polynôme annulateur non nul.
Prop 2:
1. Si deux matrices carrées A et A′ sont semblables et si P est un polynôme annulateur de A , P
est aussi un polynôme annulateur de A′ .
2. Si A ∈ Mn (K ) et si P est un polynôme annulateur de A , c’est aussi un polynôme annulateur
de A⊤ .
Démonstration:
1. Si A ′ = P −1 AP avec P ∈ GL n (K ) , alors, pour tout k ∈ N , A ′k = P −1 A k P , donc, pour tout polynôme Π ∈ K [ X ] ,
Π( A ′ ) = P −1 Π( A ) P d’où le résultat.
Rem : On pouvait aussi remarquer que, si A = MBE (u) alors A′ = MB′E (u) donc Π A = Π A′ = Πu ...
2. Puisque, pour tout k ∈ N , ( A k )⊤ = ( A⊤ ) k , il est facile de vérifier que, pour tout polynôme Π ∈ K [ X ] , Π( A⊤ ) = ( Π( A ))⊤
d’où le résultat.
Rem: Les mêmes méthodes permettent évidemment de calculer l’inverse (si elle existe) et les puissances
d’une matrice carrée lorsqu’on en connaı̂t un polynôme annulateur.
Exemple
2 1 1
Soit A = 1 2 1 . Trouver une relation entre A2 , A et I3 . En déduire An pour tout n ∈ N . Montrer
1 1 2
que A est inversible, calculer A−1 puis An pour n ∈ Z .
Solution:
6 5 5
• On calcule A2 = 5 6 5 , puis on vérifie A2 − 5A + 4I3 = O3 (∗) .
5 5 6
• Le polynôme P = X2 − 5X + 4 = ( X − 1)( X − 4) est donc annulateur de A .
Pour n ∈ N on effectue la division euclidienne de X n par P :
∃( a, b ) ∈ R2 tel que X n = PQ + aX + b ,
et en remplaçant X par 1 puis par 4 on trouve :
4n − 1 4 − 4n .
X n = PQ + X+
3 3
Puisque P ( A ) = O3 on en déduit :
4n − 1 4 − 4n
∀ n ∈ N, An = A+ I3 (∗∗)
3 3
1
• La relation trouvée au début s’écrit aussi : A( A − 5I3 ) = −4I3 , ce qui montre que A est inversible et que A−1 = − ( A − 5I3 ) .
4
• On montre ensuite que la relation (∗∗) reste vraie pour n entier négatif :
4− n − 1 4 − 4− n
∀ n ∈ N, A−n = A+ I3 .
3 3
(il est important de bien comprendre le lien entre matrices par blocs et sous-espaces vectoriels stables, revoir
le cours à ce sujet).
Dans ce cas, pour caractériser u , il suffira de caractériser les endomorphismes ui induits par u sur les Ei .
On a évidemment intérêt à ce que la dimension des Ei (s’ils sont de dimension finie) soit la plus petite
possible. Le cas le plus facile est celui où les Ei sont de dimension 1 . Cela revient donc à chercher les
droites vectorielles stables par u . Or, si D = Vect( x ) avec x , 0 , D est stable par u si et seulement si il
existe λ ∈ K tel que u( x ) = λx . Cela amène à introduire les notions suivantes.
Déf 3:
1. On dit que λ ∈ K est une valeur propre de u s’il existe un vecteur x ∈ E , x , 0 E , tel que
u( x ) = λx .
2. On dit que x ∈ E est un vecteur propre de u si x , 0 E et s’il existe λ ∈ K tel que u( x ) = λx .
x est alors dit associé à la valeur propre λ .
Cela équivaut à dire que la droite vectorielle K.x est stable par u .
3. On appelle spectre de u , noté SpK (u) ou plus simplement Sp(u) , l’ensemble des valeurs
propres de u (dans K ).
Remarques
1. Il est très important de bien connaı̂tre et comprendre les équivalences suivantes :
Déf 4:
Si λ ∈ Sp(u) , on appelle sous-espace propre de u associé à λ le sous-espace vectoriel :
Eλ (u) = Ker(u − λIdE ) .
Ainsi, Eλ (u) = { x ∈ E | u( x ) = λx } est l’ensemble des vecteurs propres de u associés à la valeur
propre λ plus le vecteur nul.
Si λ ∈ K est quelconque, on notera encore Eλ (u) = Ker(u − λIdE ) .
Ainsi, si λ < Sp(u) , on a Eλ (u) = {0} (et on ne parle pas alors de sous-espace propre !).
Exemples
1. Si h ∈ L ( E) est une homothétie de rapport α , Sp(h) = {α} et Eα (h) = E .
2. Dans un R -espace vectoriel euclidien de dimension 2 , si u est une rotation d’angle θ < πZ , u n’a pas
de valeur propre (ni de vecteur propre !).
3. Soient F et G deux sous-espaces vectoriels supplémentaires de E .
Si p ∈ L ( E) est la projection sur F de direction G , Sp( p) ⊂ {0, 1} et E0 ( p) = G , E1 ( p) = F .
4. Si s ∈ L ( E) est la symétrie par rapport à F de direction G , Sp(s) ⊂ {−1, 1} et E−1 (s) = G ,
E1 (s) = F .
Démonstration:
1. Immédiat : puisque h( x ) = αx pour tout x , si on a h( x ) = λx pour x , 0 , alors λ = α .
2. Pour une rotation d’angle non multiple de π , les vecteurs u ( x ) et x ne peuvent pas être colinéaires si x , 0 !
3. Soit donc p la projection sur F parallèlement à G . Soit x = x F + xG ∈ E , non nul, et λ tel que p( x ) = λx .
(
x F = λx F
Alors, x F = λ( x F + xG ) d’où (somme directe) : .
0 = λxG
Donc :
– soit x F = 0 , mézalor, puisque x , 0 , xG , 0 et λ = 0 ;
– soit x F , 0 , et alors λ = 1 et xG = 0 .
Il n’y a donc que deux valeurs propres possibles : 0 et 1 , et E0 ( p) = G et E1 ( p) = F ; ce sont de ≪ vrais ≫ sous-espaces
propres si et seulement si p n’est pas un projecteur trivial (différent de 0 et de Id E ).
4. Même principe, ou utiliser la relation s = 2p − Id E .
Prop 3:
Si λ est une valeur propre non nulle de u , Eλ (u) est inclus dans Im u .
Démonstration:
1
En effet, si x ∈ Eλ ( u ) , on a alors x = u λx donc x ∈ Im u .
Rem: Cette proposition peut être intéressante lorsqu’il s’agit de déterminer les éléments propres d’un
endomorphisme u de rang ≪ petit ≫ . En effet dans ce cas, on peut commencer par chercher le
noyau de u (sous-espace propre associé à la valeur propre 0 ), puis chercher les éléments propres
de l’endomorphisme induit par u sur Im u ; Im u étant de petite dimension, les calculs seront plus
simples.
Prop 4:
Si v ∈ L ( E) commute avec u , Eλ (u) est stable par v .
Démonstration:
Si x ∈ Eλ ( u ) et si v commute avec u , alors u [v( x )] = u ◦ v( x ) = v ◦ u ( x ) = v( λx ) = λv( x ) , donc v( x ) ∈ Eλ ( u ) .
On pouvait aussi appliquer directement le théorème 1 page 1, puisque Eλ ( u ) est le noyau de l’ endomorphisme u − λId E qui
commute aussi avec v .
Prop 5:
Si λ est une valeur propre de u , Eλ (u) est stable par u , et l’endomorphisme induit par u sur Eλ (u)
est l’homothétie de rapport λ .
Démonstration:
Immédiat.
Théorème 3:
Soit p ∈ N ∗ et (λi )16i6p une famille de valeurs propres de u deux à deux distinctes.
1. Soit, pour tout i ∈ J1 ; pK, xi un vecteur propre associé à la valeur propre λi .
Alors, la famille ( x i )16i6p est libre.
2. La somme des sous-espaces propres Eλi (u) est directe.
Démonstration:
1. Démontrons la première propriété par récurrence sur p .
– Le résultat est vrai pour p = 1 (car un vecteur propre est, par définition, non nul).
– Supposons le résultat acquis à l’ordre p − 1 .
Soient alors, à l’ordre p , x1 , . . . , x p p vecteurs propres associés à des valeurs propres distinctes ( λ1 , . . . , λ p ) .
Si ( α1 , . . . , α p ) sont p scalaires tels que α1 x1 + . . . + α p x p = 0 (1) , alors :
u α1 x1 + . . . + α p x p = 0, d’où λ1 α1 x1 + . . . + λ p α p x p = 0 (2) ( par linéarité de u )
puis, en faisant (2) − λ p × (1) :
α 1 ( λ1 − λ p ) x1 + . . . + α p −1 ( λ p −1 − λ p ) x p −1 = 0
d’où αi ( λi − λ p ) = 0 pour tout i ∈ J1 ; p−K d’après l’hypothèse de récurrence, d’où αi = 0 pour tout i ∈ J1 ; p−K (car
λi , λ p ), puis (1) ⇒ α p = 0 ce qui démontre le résultat à l’ordre p , et achève la récurrence.
2. Démontrons la seconde propriété par récurrence sur p .
Le résultat est évidemment vrai pour p = 1 .
Supposons le résultat acquis à l’ordre p − 1 .
Soit alors, à l’ordre p , λ p une valeur propre différente des précédentes.
Puisque par hypothèse de récurrence, la somme des Eλi ( u ) pour 1 6 i 6 p − 1 est directe, pour montrer que la somme des
Eλi ( u ) pour 1 6 i 6 p l’est, il suffit de démontrer que
p −1
!
\ M
Eλ p ( u ) Eλ i ( u ) = {O }
i =1
Corollaire 3.2:
Dans un espace vectoriel de dimension finie n , un endomorphisme possède au plus n valeurs propres
distinctes.
Démonstration:
En effet, si λ1 , . . . , λ p sont des valeurs propres distinctes d’un endomorphisme u , et si ( x1 , . . . , x p ) est une famille de vecteurs
propres associés, alors la famille ( x1 , . . . , x p ) est libre, donc p 6 dim E .
Exemple
C ∞ (R, R ) −→ C ∞ (R, R )
Soit ϕ :
f 7−→ f′
Alors Sp( ϕ) = R et, ∀ λ ∈ R , Eλ ( ϕ) = Vect x 7→ eλx est une droite vectorielle.
Le théorème 1 permet alors de retrouver un résultat déjà démontré en exercice, à savoir que la famille
des fonctions { x 7→ eλx , λ ∈ R } est libre.
Prop 6:
Soit u ∈ L ( E) , et P ∈ K [ X ] .
Si x ∈ E et λ ∈ K sont tels que u( x ) = λx , alors P(u)( x ) = P(λ).x .
Démonstration:
Si u ( x ) = λx alors pour tout k ∈ N , on a u k ( x ) = λk x (récurrence facile), donc, si P =
∑ ak X k , P(u) = ∑ ak u k et
P ( u )( x ) = ∑ ak λk x = P ( λ) x .
Corollaire 6.1:
Soit u ∈ L ( E) et λ ∈ Sp(u) . Alors, pour tout polynôme P ∈ K [ X ] , P(λ) ∈ Sp P(u) .
Démonstration:
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ).
On a donc u ( x ) = λx , et d’après la proposition précédente, P ( u )( x ) = P ( λ) x.
Puisque x , 0 , P ( λ) est donc une valeur propre de P ( u ) .
Rem: L’inclusion { P(λ), λ ∈ Sp(u)} ⊂ Sp P(u) peut être stricte.
Considérer par exemple une rotation d’angle π2 dans R2 , avec P( X ) = X 2 ...
Théorème 4:
Soit u ∈ L ( E) et P un polynôme annulateur non nul de u .
Alors toute valeur propre (dans K ) de u est racine de P (dans K ).
(autrement dit : Sp(u) est inclus dans l’ensemble des racines de P ).
Démonstration:
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ).
Soit λ ∈ Sp( u ) , et x ∈ Eλ ( u ) ( x , 0 ). On vient de voir que, pour tout polynôme P , on a P ( u )( x ) = P ( λ) x .
Puisque x , 0 , et que P est annulateur de u ( P ( u ) = 0 ), on en déduit P ( λ) = 0 .
Déf 5:
Soit n un entier > 1 , et Mn (K ) l’algèbre des matrices carrées d’ordre n .
Soit A ∈ Mn (K ) .
On dit que λ ∈ K est une valeur propre de A s’il existe V ∈ Mn,1 (K ) , V , 0 , tel que AV = λV .
L’ensemble des valeurs propres de A dans K s’appelle le spectre de A et est noté SpK ( A) .
On dit que V ∈ Mn,1 (K ) est vecteur propre de A si et seulement si V , 0 et ∃λ ∈ K tel que
AV = λV .
On appelle alors sous-espace propre de A l’ensemble Eλ ( A) = {V ∈ Mn,1 (K ) tq AV = λV } .
C’est évidemment un sous-espace vectoriel de Mn,1 (K ) .
Rem: Si A est une matrice réelle, on peut considérer ses valeurs propres réelles ou ses valeurs propres
complexes, selon que l’on résout l’équation AV = λV avec λ ∈ R et V ∈ Mn,1 (R ) ou avec λ ∈ C
et V ∈ Mn,1 (C ) .
On a bien sûr : SpR ( A) ⊂ SpC ( A) .
Prop 7:
Soit E un K -espace vectoriel de dimension n rapporté à une base B , et A ∈ Mn (K ) .
On sait alors qu’il existe un et un seul endomorphisme u ∈ L ( E) tel que A = MB (u) .
Alors les valeurs propres de A (dans K ) sont exactement les valeurs propres de u .
Démonstration:
En effet, si V est la matrice colonne des coordonnées dans B d’un vecteur x ∈ E , on a : AV = λV ⇐⇒ u ( x ) = λx.
Prop 8:
Toute matrice carrée d’ordre n possède au plus n valeurs propres.
Démonstration:
car c’est la matrice d’un endomorphisme d’un espace vectoriel de dimension n , et le résultat a déjà été démontré dans ce cas.
Prop 9:
Deux matrices semblables ont même valeurs propres.
Démonstration:
Si A et A ′ sont semblables, elles représentent le même endomorphisme u dans des bases différentes, donc Sp( A ) = Sp( u ) = Sp( A ′ ) .
On peut aussi faire le calcul : si A ′ = P −1 AP avec P inversible, alors
∀ V ∈ Mn,1 (K ), A′ V = λV ⇐⇒ A( PV ) = λPV
et le résultat découle du fait que V , 0 ⇐⇒ PV , 0 car P inversible.
V. Diagonalisabilité
Théorème 5:
Pour un endomorphisme u d’un K -espace vectoriel E de dimension finie, les propriétés suivantes
sont équivalentes :
M
(i) E est somme (directe) des sous-espaces propres de u , soit : E = Eλ ( u ) .
λ∈Sp( u )
Démonstration:
(i) ⇒ (ii) : Il suffit de considérer une base de E formée de la réunion de bases des Eλ ( u ) (cf. cours sur les sommes directes).
(ii) ⇒ (iii) : Par définition d’un vecteur propre, si B = ( e1 , . . . , e n ) est une base de vecteurs propres de u alors il existe des
scalaires λi tels que u ( e i ) = λi e i donc MB ( u ) est diagonale (avec sur la diagonale les λi ).
(iii) ⇒ (i) : S’il existe une base B dans laquelle la matrice de u est diagonale, ce sont des vecteurs propres de u (et les coefficients
diagonaux sont des valeurs propres de u ). L L
Donc les vecteurs de B appartiennent à Eλ ( u ) . Donc aussi Vect(B ) ⊂ Eλ ( u ) . Mais B est une base, donc
λ ∈Sp( u ) λ ∈Sp( u )
L
Vect(B ) = E , et E = Eλ ( u ) .
λ ∈Sp( u )
Remarques :
Supposons que u est diagonalisable, et qu’il existe une base B de E dans laquelle la matrice de u est
diagonale. On a vu que les vecteurs de cette base sont des vecteurs propres de u et que les coefficients
diagonaux sont des valeurs propres de u .
Quitte à changer l’ordre de ces vecteurs, on peut supposer les valeurs propres regroupées de sorte que
MB (u) = diag(α1 , . . . , α1 , α2 , . . . , α2 , . . . , α p , . . . , α p ) = D
| {z } | {z }
m1 fois m2 fois
2. Projections : si u est la projection sur F de direction G (avec F ⊕ G = E ), on a déjà vu que Sp( u ) ⊂ {0, 1} et que F = E1 ( u)
et G = E0 ( p) .
Ainsi, les sous-espaces propres de u sont supplémentaires, et u est diagonalisable.
I 0
On retrouve en particulier une propriété déjà vue : il existe une base B telle que MB ( u ) = r .
0 0
3. Symétries : si u est la symétrie par rapport à F de direction G (avec F ⊕ G = E ), on a déjà vu que Sp( u ) ⊂ {−1, 1} et que
F = E1 ( u ) et G = E−1 ( p) .
Ainsi, les sous-espaces propres de u sont supplémentaires, et u est diagonalisable.
I 0
On retrouve une propriété déjà vue : il existe une base B telle que MB ( u ) = p .
0 − In − p
Kn [X] → Kn [X]
4. Étude de ϕ : .
P 7→ XP ′ − P
Déjà, ϕ est bien un endomorphisme de K n [ X ] (vérification facile). De plus pour tout k ∈ J0 ; nK , ϕ( X k ) = ( k − 1) X k , ce qui
montre que la base canonique de K n [ X ] est une base de vecteurs propres. ϕ est donc diagonalisable, et Sp( ϕ) = {−1, 0, 1, . . . , n − 1} .
Théorème 6:
Un endomorphisme u d’un K -espace vectoriel E de dimension finie est diagonalisable si et
seulement si la somme des dimensions de ses sous-espaces propres est égale à dim E .
Démonstration:
! des sous-espaces propres de u est directe (théorème 3). On sait aussi (cours sur les sommes
En effet, on sait déjà que la somme
L
directes), que dim Eλ ( u ) = ∑ dim( Eλ ( u )). Donc :
λ ∈Sp( u ) λ ∈Sp( u )
M
u diagonalisable ⇐⇒ E =
déf.
Eλ ( u ) ⇐⇒ dim E = ∑ dim( Eλ ( u )).
λ ∈Sp( u ) λ ∈Sp( u )
Démonstration:
Supposons (a) vérifiée, et reprenons les notations de (b). Si on considère alors la base BE′ de E telle que la matrice de passage de
BE à BE′ est P , la relation D = P −1 AP signifie que D est la matrice de u dans BE′ . Cette matrice étant diagonale, cela signifie
que u est diagonalisable.
Supposons (b) vérifiée. u étant diagonalisable, il existe une base BE′ dans laquelle la matrice de u est une matrice diagonale D .
Si l’on note alors P la matrice de passage de BE à BE′ , on a D = P −1 AP , d’où (a).
Théorème 8:
Soit E un K -espace vectoriel de dimension finie, u ∈ L ( E) et λ ∈ K . Alors :
λ ∈ Sp(u) ⇐⇒ det(u − λIdE ) = 0 ⇐⇒ det(λIdE − u) = 0 .
Démonstration:
C’est immédiat puisque λ est valeur propre de u si et seulement si u − λId E est non injective, ce qui équivaut à non bijective
puisque E est de dimension finie.
D’après la formule de développement du déterminant, il apparaı̂t clairement que det(λIdE − u) est une
fonction polynôme en λ , de degré n .
Rem: Si B ′ est une autre base de E , et si A′ est la matrice de u dans cette base, on a :
det(λIdE − u) = det(λIn − A) = det(λIn − A′ ) .
En effet, le déterminant d’un endomorphisme ne dépend pas de la base choisie ; ou on peut aussi
remarquer que, puisque A et A′ sont semblables, il en est de même de λIn − A et de λIn − A′ (car
A′ = P−1 AP =⇒ ( A′ − λIn ) = P−1 ( A − λIn ) P), donc ces deux matrices ont même déterminant.
Déf 7:
On appelle polynôme caractéristique d’un endomorphisme u d’un K -espace vectoriel de dimension
finie n > 1 le polynôme, noté χ u , défini par :
D’après la remarque précédente, si BE est une base quelconque de E , et si A = MBE (u) , on a aussi :
∀ λ ∈ K , χ u (λ) = det(λIn − A) ou simplement : χ u = det( XIn − A).
Théorème 9:
• Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) . Alors :
les valeurs propres de u sont exactement les racines dans K du polynôme caractéristique χ u .
• Soit A ∈ Mn (K ) . Alors :
les valeurs propres de A (dans K ) sont exactement les racines du polynôme caractéristique
χ A (dans K ).
Démonstration:
Conséquence immédiate du théorème 8.
E Rem : Si A est une matrice carrée à coefficients réels, on peut aussi la considérer comme une matrice de
Mn (C ) , donc étudier ses valeurs propres réelles ou ses valeurs propres complexes !
Pour cette raison, il est important de distinguer dans ce cas :
SpR ( A) = {λ ∈ R tq det(λIn − A) = 0}
et :
SpC ( A) = { λ ∈ C tq det(λIn − A) = 0} .
On a évidemment : SpR ( A) ⊂ SpC ( A) mais il n’y a pas nécessairement égalité.
0 −1
Exemple : A = , χ A = X2 + 1 .
1 0
Prop 10:
Démonstration:
En effet, det( XIn − A⊤ ) = det(( XIn − A )⊤ ) = det( XIn − A ) .
Théorème 10:
Soit E un K -espace vectoriel de dimension finie n > 1 et u ∈ L ( E) .
Le polynôme caractéristique χ u de u est :
– de degré n :
– de coefficient dominant égal 1 (il est donc unitaire) ;
– le coefficient du terme en X n−1 est égal à − tr u ;
– le coefficient constant est égal à (−1)n det u .
Ainsi, χ u peut s’écrire : χ u = X n − tr u X n−1 + . . . + (−1)n det u .
Démonstration:
– χ u (0) = det(− u ) , ce qui donne le terme constant
– Les autres propriétés s’obtiennent, par exemple, en développant le déterminant de XId E − u selon la première colonne : on
n
obtient χ u = ∏( X − aii ) + Q , où Q est un polynôme de degré 6 n − 2 ...
i =1
Déf 8:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) . Soit λ ∈ SpK (u) .
On dit que λ est valeur propre d’ordre de multiplicité m de u si λ est une racine d’ordre m du
polynôme caractéristique χ u de u .
Remarques :
Tout endomorphisme u d’un K -espace vectoriel de dimension finie dont le polynôme caractéristique
χ u est scindé (ce qui est toujours le cas si K = C ) admet au moins une valeur propre dans K ;
il en admet même exactement n (où n = dim( E) ), en comptant chacune avec son ordre de multiplicité.
Ainsi, dans ce cas, on peut écrire :
n
χ u = ∏ ( X − λi ) (où les λi sont les valeurs propres, distinctes ou non, de u )
i =1
ou encore : χ u ( X ) = ∏ ( X − λ)mλ (où mλ est l’ordre de multiplicité de la valeur propre λ ).
λ∈Sp( u )
En développant les égalités ci-dessus, on trouve alors les relations (très importantes) :
tr u = λ1 + . . . + λn = ∑ λ det u = λ1 λ2 . . . λn = ∏ λ
λ∈Sp( u ) λ∈Sp( u )
On prendra soin cependant à n’utiliser ces relations que lorsque le polynôme caractéristique de u est
scindé (donc, dans le cas d’une matrice, en considérant les valeurs propres complexes).
Théorème 11:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Soit F un sous-espace vectoriel de E stable par u , et v ∈ L ( F ) l’endomorphisme de F induit par u .
Alors le polynôme caractéristique de v , χ v , divise le polynôme caractéristique de u , χ u .
Démonstration:
Soit p = dim F, et soit B
F une base de F , que l’on complète en une base BE de E . La matrice de u dans cette base est alors de
A1 B
la forme A = , où A1 est la matrice de v dans BF .
0 A2
Un calcul de déterminant par blocs donne alors :
χ u = det( XIn − A ) = det( XI p − A1 ) × det( XIn − p − A2 ) = χ v × det( XIn − p − A2 ),
Théorème 12:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) .
Soit λ ∈ Sp(u) , et mλ son ordre de multiplicité (dans χ u ). Alors on a :
1 6 dim Eλ (u) 6 mλ .
Démonstration:
– 1 6 dim Eλ ( u ) est immédiat, puisque Eλ ( u ) n’est pas réduit à {0} par définition.
– Eλ ( u ) est stable par u , et l’endomorphisme v induit par u sur Eλ ( u ) est l’homothétie de rapport λ . Donc χ v = ( X − λ)dim Eλ (u ) ,
et, puisque χ v divise χ u , on obtient l’inégalité voulue.
Théorème 13:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Alors u est diagonalisable si et seulement si :
χ u est scindé dans K [ X ] et pour tout λ ∈ Sp(u) , on a : mλ = dim Eλ (u) .
Démonstration:
p
L
– Si u est diagonalisable et si λ1 , . . . , λ p sont ses valeurs propres, on a E = Eλi ( u ) d’où :
i =1
p p
dim E = ∑ dim Eλi (u) th.611 ∑ mλi 6 deg χ u = dim E,
i =1 i =1
donc toutes les inégalités intermédiaires sont des égalités :
p
∀ i ∈ J1 ; pK, dim Eλi ( u) = m λi , et aussi ∑ mλi = deg χ u , c’est-à-dire χ u scindé.
i =1
– Réciproquement, si les hypothèses de l’énoncé sont vérifiées, et si λ1 , . . . , λ p sont les valeurs propres de u , puisque la somme
des Eλi ( u ) est directe et que
p
M p p
dim Eλ i ( u ) = ∑ dim Eλi (u) = ∑ mλi = deg χ u = dim E ,
i =1 i =1 i =1
p
L
on a bien E = Eλi ( u ) , c’est-à-dire u diagonalisable.
i =1
Corollaire 13.1:
Soit E un K -espace vectoriel de dimension finie n , et u ∈ L ( E) .
SI u possède n valeurs propres distinctes, ALORS u est diagonalisable.
Démonstration:
En effet, dans ce cas, il y a exactement n sous-espaces propres, tous de dimension 1 . lls sont donc supplémentaires.
E Attention : La réciproque est fausse ! il ne s’agit là que d’une condition suffisante, et non nécessaire, de diagonalisa-
bilité.
Considérer par exemple u = IdE : u est évidemment diagonalisable (puisque sa matrice dans toute base
est In ), mais u admet une seule valeur propre, 1 .
Corollaire 13.2:
Soit E un K -espace vectoriel de dimension finie n , et u ∈ L ( E) .
Si le polynôme caractéristique χ u de u est scindé à racines simples dans K , alors u est diagonalisable.
Démonstration:
en effet, dans ce cas, u possède n valeurs propres distinctes, les racines de χ u , et on applique le corollaire précédent.
X−1 −4 −2
χ A = det( XI3 − A ) = 0 X+3 2 = ( X − 1)( X2 − 1) = ( X − 1)2 ( X + 1).
0 −4 X−3
Les valeurs propres de A sont donc 1 (double) et −1 (simple).
On cherche ensuite les sous-espaces propres :
x
– Pour la valeur propre 1 : soit V = y ;
z
4y + 2z = 0
AV = V ⇐⇒ ( A − I3 )V = 0 ⇐⇒ −4y − 2z = 0 ⇐⇒ 2y + z = 0.
4y + 2z = 0
1 0
On reconnaı̂t là l’équation d’un (hyper)plan, engendré par exemple par les vecteurs V1 = 0 et V1′ = 1 .
0 −2
x
– Pour la valeur propre −1 : soit V = y ;
z
2x + 4y + 2z = 0
AV = −V ⇐⇒ ( A + I3 )V = 0 ⇐⇒ −2y − 2z = 0 ⇐⇒ x = z = − y.
4y + 4z = 0
On reconnaı̂t là un système
d’équations d’une droite vectorielle (intersection de deux plans), plus précisément la droite de
1
base le vecteur V−1 = −1 .
1
Directement d’après le cours on peut affirmer que A est diagonalisable : par exemple, on peut dire que la somme des dimensions
des sous-espaces propres est égale à 3 , ou que la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité de
la valeur propre correspondante.
1 0 1
− 1
Et plus précisément : A = PDP où P = 0 1 −1 et D = diag(1, 1, −1) .
0 −2 1
2 1 1 1
1 2 1 1
2. Diagonaliser la matrice B =
.
1 1 2 1
1 1 1 2
Solution:
Le calcul du polynôme caractéristique de B , c’est-à-dire du déterminant de la matrice XI4 − B est classique (matrice déjà
rencontrée, voir chapitre sur les déterminants), mais il y a bien plus rapide.
En effet, on remarque que B − I4 est une matrice de rang 1 ; donc dim Ker( B − I4 ) = 3 . Puisque Ker( B − I4 ) est le sous-espace
propre associé à la valeur propre 1 , on en déduit que 1 est valeur propre de B , d’ordre de multiplicité (a priori) supérieur ou
égal à 3 .
Puisque la somme des valeurs propres (dans C a priori) est égale à tr( B ) = 8 , on en déduit que les valeurs propres de B sont 1 ,
d’ordre 3 et 5 , simple.
1 1
1 1
On pouvait aussi remarquer que A · 1 = 5 1 pour montrer que 5 est valeur propre. Et puisque 5 est une valeur propre
1 1
simple, la dimension du sous-espace
propre associé E5 ( A ) est forcément égale à 1 , ce qui prouve que E5 ( A ) est la droite
1
1
vectorielle engendrée par 1 .
1
Enfin, un calcul simple (résolution du système AV = V ) montre que le sous-espace propre associé à la valeur propre 1 est
l’hyperplan d’équation x + y + z + t = 0 , dont il est
facile de trouver une base.
1 1 0 0
1 − 1 1 0
Conclusion : B = PDP −1 avec (par exemple) P = et D = diag(5, 1, 1, 1) .
1 0 −1 1
1 0 0 −1
Théorème 14:
Soit E un K -espace vectoriel (non nécessairement de dimension finie), et u un endomorphisme de
E.
On suppose que u admet un polynôme annulateur P scindé à racines simples dans K ,
P = ( X − λ1 ) . . . ( X − λ p ) avec les λi scalaires distincts.
p
L
Alors E = Ker(u − λi IdE ) .
i =1
Démonstration:
On utilise le théorème de décomposition d’une fraction rationnelle en éléments simples, démontré dans le chapitre 2 (à l’aide des
1
polynômes d’interpolation de Lagrange), pour la fraction rationnelle ·
P
p p
1 αj P
Il existe donc des scalaires α j tels que =∑ , donc on peut écrire : 1 = ∑ α j L j , en ayant posé L j = = ∏( X − λi ) .
P j =1
( X − λ j ) j =1
X − λj i,j
p
On en déduit, en appliquant cette égalité polynomiale à l’endomorphisme u : Id E = ∑ α j L j (u) , donc, pour tout x ∈ E,
j =1
p
x= ∑ α j L j (u)( x )
j =1
Rem: Avec les notations du théorème, on sait que les valeurs propres de u sont a priori incluses dans
l’ensemble dans l’ensemble des racines de P , c’est-à-dire dans {λi , i ∈ J1 ; pK} .
Il se peut donc, dans l’écriture ci-dessus, que certains des Ker(u − λi IdE ) soient réduits à {0} (si
λi n’est pas une valeur propre de u ).
Théorème 15:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Si u ∈ L ( E) possède un polynôme annulateur (non nul) scindé dans K [ X ] et n’ayant que des
racines simples, alors u est diagonalisable.
Démonstration:
En effet, d’après le théorème précédent, E est alors somme directe des sous-espaces propres de u (en ne considérant dans la
p
M
somme E = Ker( u − λ j Id E ) que les ≪ vraies ≫ valeurs propres de u , cf. remarque précédente.)
j =1
Théorème 16:
Si u ∈ L ( E) est diagonalisable, le polynôme ∏ ( X − λ) est annulateur de u .
λ∈Sp( u )
Démonstration:
1ère façon :
p
Soient λ1 , . . . , λ p les valeurs propres distinctes de u et P = ∏( X − λ i ) .
i =1
Soit i ∈ J1 ; pK . Pour tout x ∈ Eλi , on a ( u − λi Id E )( x ) = 0 , donc
! !
p
P ( u )( x ) = ∏(u − λ j IdE ) ( x ) = ∏(u − λ j IdE ) ◦ (u − λi IdE )( x ) = 0 .
j =1 j,i
u étant diagonalisable, on a : E = Eλ1 ⊕ . . . ⊕ Eλ p , et puisque la relation P ( u )( x ) = 0 est vérifiée pour tout x ∈ Eλi pour tout
i ∈ J1 ; pK , elle l’est pour tout x ∈ E .
Donc P ( u ) = 0L ( E) , c’est-à-dire P est annulateur de u .
2ème façon : Démonstration matricielle : si u a pour matrice D diagonale dans une base de vecteurs propres, chaque matrice
D − λi I comporte un bloc de zéros à la place des λi donc le produit de ces matrices est nul.
Théorème 17:
Un endomorphisme u de E est diagonalisable si et seulement si il possède un polynôme annulateur
scindé à racines simples.
Un tel polynôme est, par exemple, ∏ ( X − λ) .
λ∈Sp( u )
Théorème 18:
Soit E un K -espace vectoriel de dimension finie, et u ∈ L ( E) .
Soit F un sous-espace vectoriel de E stable par u , et v ∈ L ( F ) l’endomorphisme de F induit par u .
Alors :
u diagonalisable =⇒ v diagonalisable .
Démonstration:
p
u est diagonalisable, donc en notant λ1 , . . . , λ p les valeurs propres distinctes de u et P = ∏( X − λi ) , P est annulateur de u .
i =1
d d
Si P s’écrit P = ∑ ai X i , on a P ( u ) = 0L ( E) soit ∀ x ∈ E, ∑ ai ui ( x ) = 0E . Cette relation est en particulier vraie pour x ∈ F,
i =1 i =1
d
donc, puisque v = u | F : ∀ x ∈ F, ∑ ai vi ( x ) = 0E .
i =1
Cela signifie que P ( v) = 0L ( F ) , donc P est aussi annulateur de v . Ainsi v possède un polynôme annulateur scindé à racines
simples donc v est diagonalisable.
Corollaire 18.1:
Soit E un K -espace vectoriel de dimension finie et u ∈ L ( E) .
On suppose u diagonalisable. Alors : F est stable par u si et seulement si F admet une base formée
de vecteurs propres de u .
Démonstration:
Si F est stable par u , alors l’endomorphisme induit u F est un endomorphisme diagonalisable de F donc par définition F admet
une base formée de vecteurs propres de u F donc de u .
Réciproquement, si F admet une base formée de vecteurs propres de u , notée B = ( e1 , . . . , e p ) alors tout vecteur x de F s’écrit
p p
x= ∑ xi ei donc u ( x ) = ∑ λi xi ei appartient à F c’est-à-dire F stable par u .
i =1 i =1
Exercices d’application
1 1 −1
1. Trouver les sous-espaces vectoriels de R3 stables par l’endomorphisme de matrice A = 1 1 1 .
1 1 1
Solution:
On commence par chercher les éléments propres de A . Sp( A ) = {0, 1, 2} . Les valeurs propres sont distinctes, donc chaque
sous-espace propre est une droite vectorielle, et A est diagonalisable.
D’après le corollaire précédent, les sous-espaces vectoriels de R3 stables par A seront donc, en les classant selon leur dimension :
– {0E } et E .
1 −1 0
– les trois droites vectorielles E0 ( A ) , E1 ( A ) et E2 ( A ) , respectivement engendrées par −1 , 1 et 1 .
0 1 1
– les trois plans vectoriels Ei ( A ) ⊕ E j ( A ) .
6 −6 5
2. Même question avec A = −4 −1 10 .
7 −6 4
Solution:
−1 (simple) et 5 (double). Le sous-espace propre associé à la valeur propre
A sont
Ici les valeurs propres de −1 est la droite
10 1
vectorielle engendrée par 15 et celui associé à la valeur propre 5 est la droite vectorielle engendrée par 1 .
4 1
La matrice n’est donc pas diagonalisable. Les sous-espaces vectoriels de R3 stables par A seront, en les classant selon leur
dimension :
– {0E } et E .
– les deux droites vectorielles E−1 ( A ) et E5 ( A ) .
– le plan vectoriel E−1 ( A ) ⊕ E5 ( A ) .
– Mais il peut exister d’autres plans stables.
Notons u l’endomorphisme de R3 canoniquement associé à A . Si P est un plan stable par u , on sait que le polynôme
caractéristique de l’endomorphisme u P induit par u sur P divise χ u ; ce polynôme étant de degré 2 , il s’agit nécessairement
de ( X + 1)( X − 5) ou de ( X − 5)2 .
Dans le 1er cas, u P a comme valeurs propres −1 et 5 ; les sous-espaces propres correspondant sont forcément les mêmes que
ceux de u donc les vecteurs propres trouvés précédemment appartiennent à P , et on retrouve P = E−1 ( u ) ⊕ E5 ( u ) .
Dans le second cas, u P a comme seule valeur propre 5 , et le vecteur propre e5 de coordonnées (10, 15, 4) appartient
nécessairement à P . Si e = ( x, y, z) est un autre vecteur de P linéairement indépendant de celui-ci, on écrit que P est
stable par u si et seulement si u ( e ) ∈ P ce qui se traduit par det( e5 , e, u ( e )) = 0 , soit
1 x 6x − 6y + 5z 1 x 6x − 6y + 5z
0= 1 y −4x − y + 10z = 0 y−x −10x + 5y + 5z = ( x − z)(−11x + 6y + 5z).
1 z 7x − 6y + 4z 0 z−x x−z
On trouve donc deux plans : celui d’équation x = z et celui d’équation −11x + 6y + 5z = 0 ; ce dernier est le plan
E−1 ( u ) ⊕ E5 ( u ) (car les deux vecteurs propres trouvés vérifient cette équation).
VIII. Trigonalisation
Dans tout ce paragraphe, E désigne un K -espace vectoriel de dimension finie n > 1 .
Déf 9:
1. Un endomorphisme u ∈ L ( E) est dit trigonalisable s’il existe une base B de E telle que MB ( u )
soit triangulaire supérieure.
2. Une matrice carrée A ∈ Mn (K ) est dite trigonalisable si l’endomorphisme a de K n qui lui est
canoniquement associé est trigonalisable.
Cela revient à dire que A est semblable à une matrice triangulaire supérieure, c’est-à-dire qu’il
existe P ∈ GLn (K ) et T ∈ Tn+ (K ) telles que : T = P−1 AP (ou A = PTP−1 ).
Théorème 19:
Un endomorphisme u ∈ L ( E) est trigonalisable si et seulement si son polynôme caractéristique est
scindé dans K [ X ] .
Démonstration:
t11 ... t1n
.. ..
1. Supposons u trigonalisable : il existe une base B de E telle que MB ( u ) soit de la forme . . . Donc
0
tnn
n
χv = ∏( X − tii ) est scindé.
i =1
Corollaire 19.1:
Tout endomorphisme d’un C -espace vectoriel de dimension finie est trigonalisable.
Toute matrice de Mn (C ) est trigonalisable.
Démonstration:
En effet, tout polynôme est scindé dans C [ X ] .
Rem: Si u ∈ L ( E) est trigonalisable et si B est une base de E dans laquelle la matrice T de u est
triangulaire supérieure, alors les éléments diagonaux de T sont exactement les valeurs propres de
u , chacune étant comptée avec son ordre de multiplicité (cela a été démontré dans la 1ère partie
de la démonstration du théorème).
Solution:
1. On trouve χ A = ( X − 1)3 .
On peut dire tout de suite que A n’est pas diagonalisable, car sinon, elle serait semblable, donc égale, à I3 .
1 a c
Mais χ A étant scindé sur R , A est trigonalisable, et semblable à une matrice de la forme T = 0 1 b .
0 0 1
Soit u l’endomorphisme de R3 canoniquement associé à A , c’est-à-dire A = MBc ( u ) , où Bc = ( e1 , e2 , e3 ) est la base
canonique de R3 . Il s’agit donc de trouver une base B ′ de R3 dans laquelle la matrice de u est T .
D’abord, on veut u ( e1′ ) = e1′ , donc on choisit pour e1′ un vecteur propre associé à la valeur propre 1 . La recherche habituelle
de E1 ( A ) donne qu’il s’agit de la droite vectorielle de base (1, 1, 2) . On choisit donc e1′ = (1, 1, 2) .
On cherche ensuite e2′ = ( x, y, z) , linéairement indépendant de e1′ , tel que u ( e2′ ) = ae1′ + e2′ , soit ( u − Id E )( e2′ ) = ae1′ .
−3x − y + 2z = a (
x = y − 3a
Cela donne le système : −15x − 7y + 11z = a , qui équivaut à
z = 2y − 4a
−14x − 6y + 10z = 2a
′
On peut donc choisir a = 1 et e2 = (−1, 2, 0) .
On cherche enfin e3′ = ( x, y, z) , linéairement indépendant de e1′ et e2′ , tel que u ( e3′ ) = ce1′ + be2′ + e3′ , soit ( u − IdE )( e3′ ) = ce1′ + be2′ .
−3x − y + 2z = c − b (
x = y − 3c + 5b
Cela donne le système : −15x − 7y + 11z = c + 2b , qui équivaut à
z = 2y − 4c + 7b
−14x − 6y + 10z = 2c
On ne peut pas choisir b = 0 , sinon on retombe sur un système similaire au précédent, et les vecteurs solutions seront liés
avec e1′ et e2′ . On choisit donc b = 1 et c = 0 , puis par exemple e3′ = (5, 0, 7)
Il est alors facile de vérifier que les vecteurs e1′ , e2′ , e3′ sont linéairement indépendants, et forme donc bien une base B ′ de
R3 .
1 1 0 1 −1 5
En conclusion, on a A = PTP −1 , avec T = 0 1 1 et P = 1 2 0 .
0 0 1 2 0 7
1 0
χ 2 2
1 0
2. On trouve B = X ( X − 1) . Mais E0 ( B ) est la droite de base V0 = et E1 [ B ) est celle de base V1 =
.
0 1
0 1
B n’est donc pas diagonalisable. On peut alors chercher des vecteurs V0′ et V1′ tels que
la matrice de l’endomorphisme
0 1 0 0
0 0 0 0
canoniquement associé à B dans la base (V0 , V0′ , V1 , V1′ ) soit égale à T =
0 0 1 1 (calculs à finir).
0 0 0 1
Théorème 20:
Soit E un K -espace vectoriel de dimension finie ( K = R ou C ), et u un endomorphisme de E .
Alors : χ u (u) = 0L ( E)
Autrement dit : Le polynôme caractéristique de u est aussi un polynôme annulateur de u .
Démonstration:
1. 1er cas : K = C .
λ1 ... ... ...
0 λ2 ... . . .
u est trigonalisable, donc il existe une base B = ( e1 , . . . , e n ) de E tq MB ( u ) = . .. .. .. .
.. . . .
0 ... 0 λn
n
Le polynôme caractéristique de u est alors χ u = ∏( X − λi ) .
i =1
Notons, pour k ∈ J1 ; nK Ek = Vect( e1 , . . . , e k ) et E0 = {0} . On a alors, pour tout k ∈ J1 ; nK , ( u − λk Id E )( Ek ) ⊂ Ek −1 .
Or χ u ( u ) = ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn Id E ) donc :
χ u ( u )( E ) = χu ( u )( En ) = ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn Id E )( En )
⊂ ( u − λ1 Id E ) ◦ . . . ◦ ( u − λn −1 Id E )( En −1 )
⊂ ...
⊂ ( u − λ1 Id E )( E1 ) = {0}
soit χ u ( u ) = 0L ( E) .
2. 2ème cas : K = R .
Si u est un endomorphisme d’un R -espace vectoriel E , soit A la matrice de u dans une base de E . Alors A ∈ Mn (R ) donc
on peut considérer A ∈ Mn (C ) . D’après ce qui précède, χ A ( A ) = 0 , donc χ u ( u ) = 0
• Réciproquement, si la seule valeur propre d’un endomorphisme u d’un C -espace vectoriel de dimen-
sion n est 0 , son polynôme caractéristique étant scindé, on a χ u = X n , et le théorème de Cayley-
Hamilton prouve alors que un = 0 .
Ainsi, u est nilpotent, et l’indice de nilpotence p de u est nécessairement 6 n (ce résultat, classique,
a déjà été démontré en exercice).
• Ce dernier résultat tombeen défaut dans
le cas d’un R -espace vectoriel : par exemple, l’endomor-
0 0 0
phisme de R3 de matrice 0 0 1 dans la base canonique n’admet que 0 comme valeur propre
0 −1 0
(réelle), mais n’est pas nilpotent.
2 −1 2
Exercice Soit A = 5 −3 3 . Calculer A p pour p ∈ N puis pour p ∈ Z .
−1 0 −2
Solution:
• On commence par calculer le polynôme caractéristique de A :
X−2 1 −2
χ A = det( XI3 − A ) = −3 X+3 − 3 = ( X + 1) 3
1 0 X+2
(je n’ai pas détaillé les calculs, il faut savoir les faire rapidement).
Pour p ∈ N , on effectue la division euclidienne de X p par χ A , ce qui s’écrit ici, compte tenu de la formule de Taylor
pour les polynômes :
p ( p − 1)
X p = ( X + 1)3 Q + (−1) p ( X + 1)2 + (−1) p −1 p( X + 1) + (−1) p .
2
On en déduit, puisque ( A + I )3 = O3 :
p ( p − 1)
A p = (−1) p ( A + I3 )2 + (−1) p −1 p( A + I3 ) + (−1) p I3
2
(on pouvait aussi obtenir cette relation en remarquant que la matrice N = A + I3 est nilpotente, et en développant
A p = (− I3 + N ) p à l’aide de la
formule du binôme).
2 −1 1
On calcule alors ( A + I3 )2 = 2 −1 1 et on en déduit :
−2 1 −1
p ( p −3 ) p ( p −5 )
p2 − 4p + 1 − 2 2
p2 p ( p −7 )
A p = (−1) p p( p − 6)
2 + 52 p + 1 2
(matrice notée M ( p) ).
p ( p −1 ) p2
− p ( p − 2) 2 − 2 + 32 p + 1
Bien sûr, lorsque l’on a fini des calculs si passionnants, on pense à vérifier ses résultats au moins pour les valeurs p = 0 et
p = 1 ...
• Puisque 0 n’est pas valeur propre de A , la matrice A est inversible et donc l’expression A p pour p entier négatif a bien
un sens.
Pour calculer A − p avec p ∈ N ∗ , on pourrait bien sûr calculer A −1 puis recommencer la même méthode... Mais il est
plus rapide de ≪ remarquer ≫ , après avoir fait un calcul encore passionnant, que le produit M ( p) × M (− p) est égal à la
matrice I3 , donc directement A − p = M (− p) .
3 2 4
1. Soit A = −1 3 −1 . Calculer A p pour p ∈ N puis pour p ∈ Z .
−2 −1 −3
Solution:
Je vous conseille de vous entraı̂ner, et pour cela je donne les principaux résultats (merci M APLE® ) :
χ A = ( X + 1)( X − 2)2
1 2
E−1 ( A ) = Vect 0 E2 ( A ) = Vect 1
−1 −1
−1 0 0 1 2 −2 −1 0 −2
−1 −1
A = PTP avec T = 0 2 1 , P= 0 1 0 , P = 0 1 0 .
0 0 2 −1 −1 1 −1 1 −1
(−1) p +1 + 2 p (2 − p) 2p p 2(−1) p +1 + 2 p (2 − p)
p
− −
A = p
−2 p 1 2 p 1 ( p + 2) − 2 p −1 p .
(−1) p + 2 p −1 ( p − 2) − 2 p −1 p 2(−1) p + 2 p −1 ( p − 2)
3 −4 0 2
4 −5 −2 4
2. Même question avec A = .
0 0 3 −2
0 0 2 −1
Solution:
Je vous conseille de vous entraı̂ner, et pour cela je donne les principaux résultats (merci M APLE® ) :
χ A = ( X − 1) 2 ( X + 1) 2
1
1
1 1
E−1 ( A ) = Vect E 1 ( A ) = Vect
0
1
0 1
−1 4 0 0 1 1 1 1 0 1 0 −1
0 − 1 0 0 1 0 1 0 1 −1 −1 1
A = PTP −1 avec T=
, P= −1
, P = .
0 0 1 2 0 0 1 1 0 0 0 1
0 0 0 1 0 0 1 0 0 0 1 −1
4(−1) p +1 − 2 p
(−1) p (1 − 4p) 4(−1) p p (4p − 1)(−1) p + 2p + 1
4(−1) p +1 p (4p + 1)(−1) p p 4(−1) p + 2 4(−1) p +1 − 2 p + 1 − (−1) p
Ap =
.
(0 0 2p + 1 −2p
0 0 2p −2p + 1
Solution:
un
En posant Xn = u n +1 , on connaı̂t X0 et la relation de récurrence
u n +2
0 1 0
Xn +1 = AXn avec A = 0 0 1
−2 4 cos θ − 1 2(cos θ − 1)
de sorte que Xn = A n X0 .
On calcule alors le polynôme caractéristique de A :
χ A = X 3 + 2(1 − cos θ ) X 2 + (1 − 4 cos θ ) X + 2 = ( X + 2)( X 2 − 2X cos θ + 1) = ( X + 2)( X − eiθ )( X − e−iθ )
2. u0 = 1 , u1 = 0 , u2 = 11 , u3 = 20 et
∀ n ∈ N, un+4 = 2un+3 + 3un+2 − 4un+1 − 4un .
Solution:
un
u n +1
En posant Xn =
u n +2 , on connaı̂t X0 et la relation de récurrence
u n +3
0 1 0 0
0 0 1 0
Xn +1 = AXn avec A=
0 0 0 1
−4 −4 3 2
de sorte que Xn = A n X0 .
On calcule alors le polynôme caractéristique de A :
χ A = X 4 − 2X 3 − 3X 2 + 4X + 4 = ( X + 1)2 ( X − 2)2
Finalement
∀ n ∈ N, Xn = An X0 = PT n P −1 X0
et puisque P et P −1 ne dépendent pas de n , on en déduit qu’il existe des constantes réelles a, b, c, d telle que
∀ n ∈ N, un = a(−1) n + bn(−1) n + c2n + dn2n .
Les conditions initiales conduisent aux relations :
u0 = a + c = 1 , u1 = − a − b + 2c + 2d = 0 , u2 = a + 2b + 4c + 8d = 11 et u3 = − a − 3b + 8c + 24d = 20.
On résout ce système et on trouve : ( a, b, c, d) = (1, 1, 0, 1) d’où :
∀ n ∈ N, un = ( n + 1)(−1) n + n2n .
Prop 11:
L’ensemble S ( H ) des solutions de l’équation différentielle homogène ( H ) est un sous-espace
vectoriel de l’espace vectoriel C 1 (R, Mn,1 (K )) des fonctions de classe C 1 de IR dans Mn,1 (K ) .
Démonstration:
Trivial
Théorème 21:
L’espace vectoriel S ( H ) des solutions de l’équation différentielle homogène ( H ) est de dimension
finie, et dim S ( H ) = n .
Théorème 22:
Soit A ∈ Mn (K ) . On suppose que A admet une valeur propre λ .
Si V est un vecteur propre associé à cette valeur propre, alors la fonction t 7→ eλt .V est solution sur
R de l’équation homogène X ′ = AX .
Démonstration:
Il suffit de vérifier : si l’on pose X ( t) = eλt V , alors la fonction t 7 → X ( t) est dérivable et, pour tout t : X ′ ( t) = λeλt V = eλt AV
puisque AV = λV , et donc X ′ ( t) = AX ( t) .
Corollaire 22.2:
Soit A ∈ Mn (K ) . On suppose ici que A est diagonalisable. Il existe donc une base (V1 , . . . , Vn ) de
R n formée de vecteurs propres de A , pour les valeurs propres (λ1 , . . . , λn ) .
Alors les fonctions Xi : t 7→ eλi t Vi , pour i ∈ J1 ; nK, forment une base de l’espace vectoriel S ( H ) des
solutions de l’équation homogène X ′ = AX .
Démonstration:
En effet, les Xi sont bien solutions de l’équation d’après le théorème précédent. De plus, on a, pour tout i ∈ J0 ; nK , Xi (0) = Vi ,
donc la famille ( X1 (0), . . . , Xn (0)) est libre dans Mn,1 (K ) . Il en résulte facilement que la famille ( X1 , . . . , Xn ) est libre dans
C 1 ( I, Mn,1 (K )) , donc forme une base de S ( H ) puisque cet espace vectoriel est de dimension n .
Exemples :
(
x ′ = 4x − 2y,
1. Résoudre le système différentiel .
y′ = x + y
Solution:
x ( t) = λ e2t + 2µ e3t y( t) = λ e2t + µ e3t .
′
x = x − y
2. Résoudre le système différentiel : y′ = x + 2y + z
′
z = −x + y
Solution:
1 −1 0
C’est un système linéaire homogène, de matrice A = 1 2 1 .
−1 1 0
On calcule son polynôme caractéristique :
X−1 1 0 X−1 1 0
χA = −1 X−2 −1 = −1 X−2 −1
L3 ← L3 + L1
1 −1 X X 0 X
X−1 1 0 X−1 1 1−X
=X −1 X−2 −1 = X −1 X−2 0 = X ( X − 2)( X − 1).
C3 ← C3 − C1
1 0 1 1 0 0
A possède trois valeurs propres distinctes, elle est donc diagonalisable. On cherche alors les sous-espaces propres.
Valeur propre 0 :
x
Pour V = y , on résout le système :
z
x−y = 0 (
x
1
y=x
AV = 0 ⇐⇒ x + 2y + z = 0 ⇐⇒ ⇐⇒ y = x 1
z = − 3x z −3
−x + y = 0
1
d’où un vecteur propre V0 = 1 .
−3
Valeur propre 1 :
On résout le système :
−y = 0 (
x
1
y=0
AV = V ⇐⇒ ( A − I3 )V = 0 ⇐⇒ x+y+z = 0 ⇐⇒ ⇐⇒ y = x 0
z = −x z −1
−x + y − z = 0
1
d’où un vecteur propre V1 = 0 .
−1
Rem: Supposons A à coefficients réels. Si λ ∈ C est une valeur propre non réelle, et si V ∈ C n est
un vecteur propre associé, alors λ est encore valeur propre de A , et V en est un vecteur propre
associé (puisque AV = λV ⇐⇒ AV = λV ⇐⇒ AV = λV , car A = A ).
Alors, les fonctions X : t 7→eλt V et X : t 7→ eλt V sont linéairement
indépendantes, et, pour tout
1 1
t , Vect X (t), X (t) = Vect X (t) + X(t) , X (t) − X (t) .
2 2i
1 1
Les fonctions t 7→ X (t) + X (t) et t 7→ X (t) − X (t) sont alors solutions de ( H ) (car
2 2i
combinaisons linéaires de solutions), et elles sont à valeurs réelles.
On obtiendra donc une base de l’espace vectoriel des solutions
à valeurs réelles en remplaçant,
pour les valeurs propres non réelles, les couples eλt V, eλt V par Re eλt V , Im eλt V .
Exemple
′
x = x + y
Résoudre, dans R , le système différentiel : y′ = − x + 2y + z .
′
z = x+z
Solution:
1 01
A = −1 1 ; χ A = ( X − 2) ( X − 1)2 + 1 ; SpC ( A ) = {2, 1 + i, 1 − i} .
2
1 10
1 i −i
3
Dans C , on trouve les vecteurs propres associés 1 , −1 et −1 (dans l’ordre des valeurs propres écrites ci-dessus).
1 1 1
Les solutions à valeurs dans C sont donc :
x 1 i −i
y = αe2t 1 + βe(1+i)t −1 + γe(1−i)t −1 ( α, β, γ ) ∈ C3
z 1 1 1
soit encore :
x 1 − sin t + i cos t − sin t − i cos t
2t t t
y = αe 1 + βe − cos t − i sin t + γe − cos t + i sin t
z 1 cos t + i sin t cos t − i sin t
donc les solutions à valeurs réelles sont :
x 1 − sin t cos t
y = ae2t 1 + bet − cos t + cet − sin t ( a, b, c) ∈ R3 .
z 1 cos t sin t
Cas général :
De façon plus générale, si la matrice A est semblable à une matrice B plus simple, on effectuera un
changement de base, ce qui revient à changer de fonctions inconnues, pour obtenir un système différentiel
plus facile à résoudre.
Le principe est simple : si B = P−1 AP , le système X ′ = AX équivaut à P−1 X ′ = BP−1 X , donc, en
posant Y (t) = P−1 X (t) , soit X (t) = PY (t) (le calcul de P−1 n’est pas utile en pratique !), on obtiendra le
nouveau système différentiel Y ′ = BY (en effet, X (t) = PY (t) implique X ′ (t) = PY ′ (t) car la matrice P est
constante).
Exemples :
(
x ′ = 5x − y
1. Résoudre le système différentiel : .
y′ = x + 3y
Solution:
5 −1 1 1 4 2
On pose A = , que l’on trigonalise au moyen de P = en T = .
−1 3 1 −1 0 4
u
On remplace le système X ′ = AX = PTP −1 X en Y ′ = TY où Y = P −1 X . Cela donne, si on note Y = :
v
(
u ′ = 4u + 2v
.
v′ = 4v
On en déduit v( t) = v0 e4t et u ′ − 4u = 2v0 e4t , donc, après résolution, u ( t) = u0 e4t + 2v0 t e4t .
Enfin, de X = PY on tire x = u + v et y = u − v , soit
(
x ( t) = ( λ + µ ) e4t + 2µt e4t
.
y( t) = ( λ − µ ) e4t + 2µt e4t
′
x = 2x − y + 2z
2. Résoudre le système différentiel : y′ = 10x − 5y + 7z
′
z = 4x − 2y + 2z
Solution:
2 −1 2
C’est un système différentiel linéaire d’ordre 1 homogène d’équation matricielle X ′ = AX avec A = 10 −5 7 .
4 −2 2
On calcule : χ A ( X ) = − X 2 ( X + 1) . Après trigonalisation, on a A = PTP −1 avec :
−1 1 0 −1 0 0
P= 1 2 1 et T = 0 0 1 ·
2 0 1 0 0 0
(
x ′ ( t ) = ( t − 2) x ( t ) − ( t − 1) y ( t )
3. Résoudre le système différentiel :
y′ (t) = 2(t − 1) x (t) − (2t − 1) y(t)
Solution:
t−2 −t + 1
La matrice A ( t) = est diagonalisable, avec :
2t − 2 −2t + 1
−t 0 1 1
D (t) = et P= ·
0 −1 2 1
u(t)
Le vecteur Y ( t) = P −1 X ( t) = ( soit X ( t) = PY ( t) )est alors solution du système :
v(t)
(
u′ (t) = −t u(t)
v′ (t) = −v(t)
t2
D’où : u ( t) = C1 e− 2 et v( t) = C2 e−t . Or : X ( t) = P Y ( t) , d’où :
t2 t2
x ( t) = C1 e− 2 + C2 e−t et y( t) = 2C1 e− 2 + C2 e−t .