MATH PREPA : ALGEBRE 2eme MP
Réduction des endomorphismes et des
matrices carrées
AU :2019/2020 Hamed Hassine - Prof Agrégé Principal
MP2 E mail :
[email protected]I- Généralités :
1- Matrices semblables :
Soit n ∈ N∗ , K = R ou C.
Définition :
Soient A, A′ ∈ Mn (K) , On dit que A et A′ sont semblables s’il existe P ∈ GLn (K) tel que A = P A′ P −1 .
Proposition :
A et A′ sont semblables SSI ils représentent un même endomorphisme dans deux bases différentes.
Définition :
Soit A ∈ Mn (K), on appelle application linéaire canoniquement associé à A l’unique application
f ∈ L (Kn ) dont la matrice dans la base canonique de Kn est A.
ie :
Quitte à identifier matrices colonnes et vecteurs, l’application linéaire canoniquement associé à A est
f: Kn −→ Kn
x1
. .
X = .. 7−→ AX
xn
Remarque :
Soient A, A′ ∈ Mn (K) et f ∈ L (Kn ) l’application linéaire canoniquement associé à A, alors :
A et A′ sont semblables SSI il existe une base B de Kn tel que A′ = MB (f ).
2- Sous espace stable :
Définition :
Soient E un K−espace vectoriel , u ∈ L (E) et F un s e v de E.
On dit que F est stable par u (ou encore F est u−stable) SSI u(F ) ⊂ F
SSI ∀ x ∈ F , u(x) ∈ F
Exemples :
- {0E } et E sont stable par tout u ∈ L (E) .
- E = K[X] , D : P 7−→ P ′ , Kn [X] est stable par D .
En effet : ∀P ∈ Kn [X] , d◦ P ′ ≤ d◦ P ≤ n.
Proposition :
Si F et G sont stbles par u, alors F + G et F ∩ G sont aussi.
Preuve :
u(F + G) = u(F ) + u(G) ⊂ F + G.
u(F ∩ G) = u(F ) ∩ u(G) ⊂ F ∩ G.
ALGEBRE 2eme MP (Réduction) page 1 © Hamed Hassine
Proposition :
Soient u, v ∈ L (E) tel que u ◦ v = v ◦ u, alors Imu et ker u sont stables par v et Imv et ker v sont
stables par u.
Preuve :
v(Imu) ⊂ Imu , en effet :
Soit x ∈ E, donc u(x) ∈ Imu , alors v(u(x)) = u(v(x)) ∈ Imu.
v(ker u) ⊂ ker u , en effet :
Soit x ∈ ker u , donc u(v(x)) = v(u(x)) = v(0) = 0, alors v(x) ∈ ker u.
Exemples :
Soit u ∈ L (E) alors Imu et ker u sont stables par u.
Pour λ ∈ K ,Im(u − λIdE ) et ker(u − λIdE ) sont stables par u.
3- Endomorphisme induit :
Définition :
Soient E un K−espace vectoriel et F un s e v de E stable par u ∈ L (E).
u|F : F −→ F
Alors l’application est un endomorphisme de F appelé endomorphisme induit
x 7−→ u(x)
par u sur F .
Exemple :
Soit E = C ∞ (R, R) et D : f 7−→ f ′ .
F = Vect(cos, sin) est stable par D!car D(cos) = − sin, D(sin) = cos ∈ F
0 1
de plus M(cos,sin) (D|F ) =
−1 0
Proposition :
Soient u, v ∈ L (E) et F un s e v de E.
Si F est stable par u et v alors ,pour tout λ ∈ K, F est stable par λu , u + v et u ◦ v.
De plus : (λu)|F = λu|F , (u + v)|F = u|F + v|F et (u ◦ v)|F = u|F ◦ v|F
Preuve :
0n a F est stable par u et v, alors u(F ) ⊂ F et v(F ) ⊂ F .
(λu)(F ) ⊂ u(F ) ⊂ F .
(u + v)(F ) ⊂ u(F ) + v(F ) ⊂ F + F = F .
v(F ) ⊂ F ⇒ u(v(F )) ⊂ u(F ) ⊂ F ⇒ u ◦ v(F ) ⊂ F .
D’où F est stable par λu , u + v et u ◦ v.
Pour tout x ∈ F , (λu)|F (x) = (λu)(x) = λu(x) = λu|F (x), donc (λu)|F = λu|F .
Pour tout x ∈ F , (u + v)|F (x) = (u + v)(x) = u(x) + v(x) = u|F (x) + v|F (x) = (u|F + v|F )(x)
donc (u + v)|F = u|F + v|F .
Pour tout x ∈ F , (u ◦ v)|F (x) = (u ◦ v)(x) = u(v(x)) = u(v|F (x)) = u|F (v|F (x)) = (u|F ◦ v|F )(x)
donc (u ◦ v)|F = u|F ◦ v|F
Corollaire :
L’ensemble des endomorphismes stabilisant F est une sous algèbre de L (E) et l’application u 7−→ u|F
y définit un morphisme d’algèbre.
Proposition :
Si F est stable par u ∈ L (E) alors :
ker u|F = ker u ∩ F et Imu|F ⊂ Imu ∩ F .
ALGEBRE 2eme MP (Réduction) page 2 © Hamed Hassine
Preuve :
On a F est stable par u.
x ∈ ker u|F ⇔ x ∈ F et u|F (x) = u(x) = 0
⇔ x ∈ F et x ∈ ker u
⇔ x ∈ ker u ∩ F
Donc ker u|F = ker u ∩ F .
y ∈ Imu|F ⇒ ∃x ∈ F / y = u(x)
⇒ [y = u(x) ∈ Imu car x ∈ F ⊂ E ]et[ y = u(x) ∈ F car x ∈ F et F stable par u].
⇒ y ∈ Imu ∩ F .
Donc Imu|F ⊂ Imu ∩ F .
Remarque :
Si u est injectif alors u|F est injectif.
Si u est surjectif, on ne peut rien dire sur u|F .
par exemple, la dérivation sur K[X] est surjectif, mais l’endomorphisme induit sur Kn [X] ne l’est pas.
4- Cas de dimension finie :
Ici E désigne un K−espace vectoriel de dimension finie n ∈ N∗ .
Proposition :
Soit F un s e v tel que dim F = p, alors : !
A B
F est stable par u SSI MB (u) = où B est une base de E adaptée à F et A ∈ Mp (K).
0 C
Preuve :
Soit B1 = (e1 , . . . , ep ) une base de F .
"⇒"
D’après le théorème de la base incomplète, il existe ep+1 , . . . , en ∈ E tel que B = (e1 , . . . , ep , ep+1 , . . . , en )
soit une base de E.
Si u(F ) ⊂ F alors u(ej ) ∈ F ∀1 ≤ j ≤ p
Xp
⇒ ∃ a1j , a2j , . . . , apj ∈ K / u(ej ) = aij ei ∀1 ≤ j ≤ p
i=1
u(e ) . . . u(ep ) u(ep+1 ) . . . u(en )
1
a11 . . . a1p ∗ ... ∗
. ..
.. .. ..
.
. . !
ap1 . . . app ∗ . . . ∗ A B
MB (u) =
0 ... 0
=
∗ ... ∗ 0 C
. . . .
.. .. .. ..
0 ... 0 ∗ ... ∗
"⇐"
Soit B = (e1 , . . . , ep , ep+1 , . . . , en ) une base de E adaptée à F .
ALGEBRE 2eme MP (Réduction) page 3 © Hamed Hassine
a11 . . . a1p ∗ ... ∗
..
.. .. ..
.
!
. . .
A B ap1 . . . app ∗ ... ∗
Si MB (u) = =
alors :
0 C 0 ... 0 ∗ ... ∗
.. .. .. ..
. . . .
0 ... 0 ∗ ... ∗
Xp
∀1 ≤ j ≤ p u(ej ) = aij ei ∈ F ⇒ u(ej ) ∈ F ∀1 ≤ j ≤ p.
i=1
X
p
X
p
soit x ∈ F ⇒x= xj ej ⇒ u(x) = xj u(ej ) ∈ F
j=1 j=1
Ainsi u(F ) ⊂ F .
Remarques :
1. Si F est stable par u et B !est une base de E adaptée à F , c à d B = B1 ∪ B2 où B1 base de F ,
A B
alors MB (u) = et MB1 (u|F ) = A .
0 C
! !
A B A B
2. Soient M = et M ′ =
0 C 0 C
′ ′ ′
où A, A ∈ Mp (K) ; B, B ∈ Mp,n−p (K) ! ; C, C ∈ Mn−p (K)
AA′ AB ′ + BC ′
alors M M ′ =
0 CC ′
!
A B
3. Si M = où A ∈ Mp (K) ; B ∈ Mp,n−p (K) ; C ∈ Mn−p (K)
0 C
Alors det M = det A × det C.
Donc det M 6= 0 ⇔ det A 6= 0 et det C 6= 0.
M ∈ GLn (K) SSI A ∈ GLp (K) et C ∈ GLn−p (K)
Proposition :
Soit E un K-espace vectoriel de dim E = n.
M
p
Ei et u ∈ L (E), alors :
Soient E1 , . . . , Ep des s e v de E tel que E =
i=1
A1 0 ... 0
..
0 ..
. .
A2
∀ 1 ≤ i ≤ p , Ei est stable par u ⇐⇒ MB (u) = . . .
.. .. .. 0
0 ... 0 Ap
Mp
où B est une base adaptée à la décomposition E = Ei , c à d B = B1 ∪ B2 ∪ . . . Bp
i=1
avec Bi base de Ei ∀1 ≤ i ≤ p.
Exemple :
1 2 0 0
3 4 0 0
0 0 5 6
0 0 7 8
ALGEBRE 2eme MP (Réduction) page 4 © Hamed Hassine
Preuve :
M
p
Soit B = B1 ∪ B2 ∪ . . . Bp une base adaptée à E = Ei .
i=1
"⇒"
Pour tout 1 ≤ j ≤ p , Ej est stable par u , alors u(Bj ) ⊂ Ej = Vect(Bj )
u(B1 ) u(B2 ) u(Bp )
A1 0 ... 0 B1
..
0 ..
.
. B2
A2
MB (u) = . .. .. .
.. . . 0 ..
0 ... 0 Ap Bp
"⇐"
u(B1 ) u(B2 ) u(Bp )
A1 0 ... 0 B
. 1
0 . .. .. B2
A2
Supposons que MB (u) = . ... ... .
.. 0 .
.
0 ... 0 Ap Bp
Soit 1 ≤ j ≤ p
⇒ ∀e ∈ Bj , u(e) = combinaison linéaire de vecteurs de Bj
⇒ u(e) ∈ Ej ⇒ ∀x ∈ Ej , u(x) ∈ Ej
Remarques :
1. Pour tout 1 ≤ j ≤ p , Aj = MBj (u|Ej ).
A1 0 ... 0 B1 0 ... 0
. ..
0 ..
. .. 0 ..
.
A2 ′ B2 .
2. M = . ; M =
.. ..
.
..
. 0 ... ..
.
..
. 0
0 ... 0 Ap 0 ... 0 Bp
où ∀1 ≤ j ≤p , Aj , Bj ∈ Mrj (K) et r1 + r2
+ · · · + rp = n.
A1 B1 0 ... 0
..
..
.
0 A2 B2 .
⇒ MM′ = .. ... ...
. 0
0 ... 0 Ap Bp
A1 0 ... 0
..
... Xp
0 A2 .
3. M = .. ... ... où ∀1 ≤ j ≤ p , Aj ∈ Mrj (K) et rj = n.
. 0
j=1
0
... 0 Ap
Y p
⇒ det M = det Aj
j=1
M ∈ GLn (K) SSI Aj ∈ GLrj (K) ∀1 ≤ j ≤ p
−1
A1 O ... O
..
O A−1
..
.
−1 2 .
et dans ce cas M = .
.. ... ...
O
O ... O A−1
p
ALGEBRE 2eme MP (Réduction) page 5 © Hamed Hassine
Exemples :
1) dim E = n , p ∈ L (E) un projecteur de E , p 6= 0L (E) ! , p 6= IdE et rgp = r.
Ir O
Déterminer une base B de E tel que MB (p) = .
O O
On a E = Imp ⊕ ker p.
Soient (e1 , . . . , er ) une base de Imp et (er+1 , . . . , en ) une base de ker p.
⇒ B = (e1 , . . . , er , er+1 , . . . , en ) est une base de E .
1 0 ... 0 0 ... 0
0 1 . . . ... ..
.
..
.
( .. . . . . .. ..
. . . 0 . .
p(ej ) = ej ∀1 ≤ j ≤ r
⇒
⇒ MB (p) = 0 . . . 0 1
p(ej ) = 0 ∀r + 1 ≤ j ≤ n
0 ... 0
0 0 ... 0 0 ... 0
.. .. .. .. ..
. . . . .
0 0 ... 0 0 ... 0
2) Soit s ∈ L (E) une symétrie (s ◦ s = idE ) tel que s 6= idE .
1 0 ... 0 0 0 ... 0
. . .. ..
0 1 . . . .. .. . .
.. . . . . . .. ..
. . . 0 .. . .
0 ... 0 1 0
0 ... 0
Déterminer une base B de E tel que MB (s) =
0 0 . . . 0 −1 0 . . . 0
.
..
0 0 . . . 0 0 −1 . .
.
.. .. .. .. . . . .
. . . . . . 0
0 0 ... 0 0 ... 0 −1
s : E = E1 ⊕ E2 −→ E
: s symétrie par rapport à E1 parallèlement à E2
x = x1 + x2 7−→ x1 − x2
Soient B1 = (e1 , . . . , er ) une base de E1 et B2 = (er+1 , . . . , en ) une base de E2 .
⇒ B = B1 ∪ B2 = (e1 , . . . , er , er+1 , . . . , en ) est une base de E .
x ∈ E1 ⇐⇒ s(x) = x ,Donc E1 = ker(s − IdE )
x ∈ E2 ⇐⇒ s(x) = −x ,Donc E1 = ker(s + IdE )
s(e1 ) . . . . . . s(er ) s(er+1 ) . . . . . . s(en )
1 0 ... 0 0 0 ... 0 e1
. . . .
0 1 . . . .. .. .. .. ...
.. . . . . . .. .. ..
. . . 0 .. . .
.
0 ... 0 1 0 0 ... 0
er
⇒ MB (s) =
0 0 . . . 0 −1 0 . . . 0 er+1
. . .
0 0 . . . 0 0 −1 . . .. ..
.. .. .. .. . . . .
. 0
.
. . . . . ..
0 0 . . . 0 0 . . . 0 −1 en
ALGEBRE 2eme MP (Réduction) page 6 © Hamed Hassine
II- Eléments propres :
Soit E un K-espace vectoriel.
1- Valeur propre et vecteur propre :
Proposition :
Soient x ∈ E\{0E } , D = Vect(x) la droite vectorielle engendré par x et u ∈ L (E). Alors :
D est stable par u SSI il existe λ ∈ K tel que u(x) = λx.
Preuve :
"⇒"
Si D est stable par u alors u(x) ∈ D, donc il existe λ ∈ K tel que u(x) = λx.
"⇐"
il existe λ ∈ K tel que u(x) = λx.
Soit y ∈ D, donc il existe α ∈ K tel que y = αx.
⇒ u(y) = αu(x) = αλ x ∈ D = Vect(x).
D’où D est stable par u.
Définitions :
Soit u ∈ L (E)
Valeur propre :
::::::::::::::::
λ ∈ K est dite valeur propre de u SSI il existe x ∈ E\{0E } tel que u(x) = λ x.
On note SpK (u) = {λ ∈ K / λ valeur propre de u} = le spectre de u dans K.
Exemple :
0 ∈ Sp(u) ⇔ ∃x 6= 0E / u(x) = 0E
Ainsi 0 ∈ Sp(u) ⇔ u non injectif.
Vecteur propre :
:::::::::::::::::
x ∈ E\{0E } est dit vecteur propre de u SSI il existe λ ∈ K tel que u(x) = λ x.
! ! Attention : Par définition un vecteur propre est un vecteur non nul.
2- Sous espace propre :
Définition :
Soient u ∈ L (E) et λ ∈ SpK (u), on appelle le sous espace propre de u associé à λ et on note
Eλ (u) = ker(u − λIdE ).
Eλ (u) = {x ∈ E / u(x) = λ x} = { vecteurs propres de u associé à λ} ∪ {0E }.
Exemples :
1. Soit E un K-e v et p ∈ L (E) un projecteur.
λ valeur propre de p ⇔ ∃x ∈ E\{0E } / p(x) = λ x
⇒ p(x) = p ◦ p(x) = λp(x) = λ2 x
⇒ λx = λ2 x
⇒ (λ − λ2 )x = 0E
Or x 6= 0E ⇒ λ − λ2 = 0
⇒ λ = 0 ou λ = 1
Donc Sp(p) ⊂ {0, 1} ; E0 (p) = ker p , E1 (p) = ker(p − IdE ) = Imp.
u : E −→ E
2. Soit u ∈ L (E) tel que ; λ∈K
x 7−→ λ x
u(x) = αx , x 6= 0 ⇒ λx = αx ⇒ λ = α
Sp(u) = {λ} , Eλ (u) = E .
ALGEBRE 2eme MP (Réduction) page 7 © Hamed Hassine
u : E −→ E
3. E = K[X] ,
P 7−→ P ′
λ valeur propre de u ⇔ ∃P ∈ E\{0} / u(P ) = λ P
⇔ P ′ = λ P , Or d◦ P 6= d◦ P ′
⇒ λ = 0 (si non d◦ P = d◦ P ′ : absurde)
P ′ = 0 ⇒ P = Cste
⇒ Sp(u) = {0} et E0 (u) = K0 [X] ' K
4. E = C ∞ (R)
u : E −→ E
(a)
f 7−→ f ′
λ valeur propre de u ⇔ ∃f ∈ E\{0E } / u(f ) = λ f
⇔ f′ = λ f
⇔ f (x) = c eλ x ∀x ∈ R
⇒ Sp(u) = R et Eλ (u) = {f : x 7−→ c eλ x ; c ∈ R} = Vect(x 7−→ eλ x ) ; dim Eλ (u) = 1
V : E −→ E
(b) R −→ R
f 7−→ V (f ) : Rx
x 7−→ 0 f (t) dt
V (α f + g) = α V (f ) + V (g) ⇒ V ∈ L (E)
λ valeur propre de V ⇔ ∃f ∈ E\{0E } / V (f ) = λ f
⇔ ∃f ∈ E\{0E } / V (f )(x) = λ f (x) , ∀x ∈ R
Rx
⇔ 0 f (t) dt = λ f (x) , ∀x ∈ R
⇒ f (x) = λ f ′ (x) ∀x ∈ R
x
Si λ 6= 0 , f ′ (x) = λ1 f (x) ⇒ f (x) = c e λ
Z
vérification
x
: "⇐"
t x x
c e λ dt = c λ(e λ − 1) = λ c e λ , ∀x ∈ R
0
⇒ c λ = 0 ⇒ c = 0 ⇒ f = 0̃
Donc λ ∈
/ Sp(V
Z ). x
Si λ = 0 : f (t) dt = 0 , ∀x ∈ R ⇒ f (x) = 0 , ∀x ∈ R ⇒ f = 0̃
0
Donc 0 ∈
/ Sp(V ).
Conclusion : Sp(V ) = ∅ .
Proposition :
X
p
M
p
Soient u ∈ L (E) , λ1 , . . . , λp ∈ Sp(u) deux à deux distincts, alors Eλk (u) = Eλk (u).
k=1 k=1
Preuve : " par récurrence "
Pour p = 2 : Eλ1 (u) + Eλ2 (u) = Eλ1 (u) ⊕ Eλ2 (u) , en effet :
Soit x ∈ Eλ1 (u) ∩ Eλ2 (u)
⇒ u(x) = λ1 x = λ2 x ⇒ (λ1 − λ2 ) x = 0E ⇒ x = 0E car λ1 6= λ2
D’où Eλ1 (u) ∩ Eλ2 (u) = {0E }.
Soit p ≥ 3, supposons que la propriété est vrai à l’ordre p − 1 et montrons le pour l’ordre p.
Eλ1 (u) + · · · + Eλp (u) = Eλ1 (u) + · · · + Eλp−1 (u) + Eλp (u) = Eλ1 (u) ⊕ · · · ⊕ Eλp−1 (u) + Eλp (u)
Soit x ∈ Eλ1 (u) ⊕ · · · ⊕ Eλp−1 (u) ∩ Eλp (u) (
x = x1 + · · · + xp−1
⇒ ∃!(x1 , . . . , xp−1 ) ∈ Eλ1 (u) × · · · × Eλp−1 (u) tel que
u(x) = λp x
ALGEBRE 2eme MP (Réduction) page 8 © Hamed Hassine
⇒ u(x) = u(x1 ) + · · · + u(xp−1 ) = λ1 x1 + · · · + λp−1 xp−1 = λp x1 + · · · + λp xp−1
X
p−1
M
p−1
Comme Eλk (u) = Eλk (u)
k=1 k=1
λ1 x1 = λp x1
(λ − λ ) x = 0
1 p 1 E x1 = 0 E
.. .. ..
⇒ . ⇒ . ⇒ . ⇒ x = 0E
λp−1 xp−1 = λp xp−1 (λp−1 − λp ) xp−1 = 0E xp−1 = 0E
X
p−1
Xp
M
p
Donc Eλp (u) ∩ Eλk (u) = {0E }, alors Eλk (u) = Eλk (u).
k=1 k=1 k=1
Remarque :
1. Un vecteur propre de u ne peut pas être associé à deux valeurs propres distinctes de u.
En effet : Soit x ∈ E\{0} tel que u(x) = λ x = µ x ⇒ (λ − µ) x = 0 ⇒ λ = µ.
2. Soient u ∈ L (E) , λ1 , . . . , λp des valeurs propres de u deux à deux distincts , (x1 , . . . , xp ) une
famille de vecteurs propres associée respectivement à λ1 , . . . , λp , alors (x1 , . . . , xp ) une famille
libre, en effet :
X
p
soient α1 , . . . , αp ∈ K tel que α k xk = 0 E
k=1
Or ∀1 ≤ k ≤ p , αk xk ∈ Eλk (u)
X p
Xp
Xp
M
p
⇒ αk xk = 0E = 0E ∈ Eλk (u) = Eλk (u) car λi 6= λj ∀i 6= j
k=1 k=1 k=1 k=1
⇒ αk xk = 0E ∀1 ≤ k ≤ p
⇒ αk = 0E car xk =
6 0E ∀1 ≤ k ≤ p
Exemple :
Soient α1 , . . . , αp ∈ R deux à deux disticts.
(x 7−→ eαi x )1≤i≤p est libre.
ui : R −→ R φ : C ∞ (R) −→ C ∞ (R)
En effet : Soient et
x 7−→ eαi x f 7−→ f′
On a φ(ui ) = αi ui ∀1 ≤ i ≤ p. Donc ui est un vecteur propre de φ associé à la valeur propre αi .
Comme αi 6= αj si i 6= j , alors (ui )1≤i≤p est libre.
Exercice :
Vérifier que (x 7−→ cos(k x))1≤k≤n et (x 7−→ sin(k x))1≤k≤n sont libres où n ∈ N∗ .
Corollaire :
En dimension fini égale à n , un endomorphisme ne peut admettre plus de n valeurs propres.
Preuve :
Si λ1 , . . . , λp sont des valeurs propres de u ∈ L (E) avec dim E = n
M p
Mp
alors Eλk (u) ⊂ E avec dim Eλk ≥ 1 ⇒ p ≤ dim Eλk (u) ≤ dim E = n ⇒ p ≤ n.
k=1 k=1
Propriété :
Soient u, v ∈ L (E) tel que u ◦ v = v ◦ u, alors tout sous espace propre de l’un est stable par l’autre.
Preuve :
Soit λ ∈ SpK (v), vérifions que u(Eλ (v)) ⊂ Eλ (v) ; Eλ (v) = ker(v − λIdE )
u ◦ (v − λIdE ) = u ◦ v − λ u = v ◦ u − λ u = (v − λIdE ) ◦ u
⇒ u(ker(v − λIdE )) ⊂ ker(v − λIdE ).
autrement : Soit x ∈ Eλ (v) , montrer que u(x) ∈ Eλ (v).
ALGEBRE 2eme MP (Réduction) page 9 © Hamed Hassine
(v − λIdE ) (u(x)) = v ◦ u(x) − λ u(x) = u ◦ v(x) − λ u(x) = u(λ x) − λ u(x) = λ u(x) − λ u(x) = 0E
⇒ u(x) ∈ ker(v − λIdE ) = Eλ (v).
3- Eléments propre d’une matrice :
Définitions : Soit M ∈ Mn (K).
1) Soit λ ∈ K, on dit que λ valeur propre de M SSI il existe X ∈ Mn,1 (K)\{0} tel que M X = λX.
2) On appelle vecteur propre de M tout vecteur X ∈ Mn,1 (K)\{0} tel qu’il existe λ ∈ K vérifiant
M X = λX. On dit que X est un vecteur propre associé à la valeur propre λ.
3) On note SpK (M ) = {λ ∈ K / λ valeur propre de M } = le spectre de M dans K.
4) Soit λ ∈ SpK (M ), on appelle le sous espace propre de M associé à λ et on note Eλ (M ) = ker(M −λIn ).
Eλ (M ) = {X ∈ Mn,1 (K) / M X = λ X} = { vecteurs propres de M associé à λ} ∪ {0Mn,1 (K) }.
Théorème :
Soient E un K-espace vectoriel de dimension finie non nulle et B une base de E.
Pour u ∈ L (E) et x ∈ E, en notant A = MB (u) et X = MB (x), on a :
Sp(A) = Sp(u) et ∀ λ ∈ Sp(u) , x ∈ Eλ (u) ⇔ X ∈ Eλ (A).
Preuve :
On a u(x) = λ x ⇔ AX = λ X et x 6= 0E ⇔ X 6= 0.
Corollaire :
Deux matrices semblables ont le même spectre.
Preuve :
Car elles représentent le même endomorphisme.
III- Polynôme caractérestique :
Définition :
Soit M ∈ Mn (K), on appelle le polynôme caractérestique de M et on note χM (X) = det(XIn − M ).
Remarque :
Si M = (mij )1≤i,j≤n
X − m11 −m12 ... −m1n
... .. α11 . . . α1n
−m21 X − m22 . .. ..
χM (X) = .. ... ... = . .
. −mn−1 n
αn1 . . . αnn
−mn1 ... −mn n−1 X − mnn
X
= ε(σ) ασ(1)1 ασ(2)2 . . . ασ(n)n
σ∈Sn
X
= α11 α22 . . . αnn + ε(σ) ασ(1)1 ασ(2)2 . . . ασ(n)n
σ∈Sn
σ̸=id
X
= (X − m11 ) (X − m22 ) . . . (X − mnn ) + ε(σ) ασ(1)1 ασ(2)2 . . . ασ(n)n
σ∈Sn
σ̸=id
= Q(X) + R(X)
Si σ ∈ Sn \{id}, il y a au plus (n − 2) entiers k tel que σ(k) = k, donc deg R ≤ n − 2
Alors deg χM = n = deg Q
χM est un polynôme unitaire (coefficient dominant est 1 ), le coefficient de X n−1 est −tr(M )
le coefficient constant est (−1)n det M .
Exemples (cas particuliers) :
n = 1 , A = (a) , χA = X − a
ALGEBRE 2eme MP (Réduction) page 10 © Hamed Hassine
!
a11 a12 X − a11 −a12
n = 2 ,A = ; χA (X) = = (X − a11 )(X − a22 ) − a21 a12
a21 a22 −a21 X − a22
= X 2 − (a11 + a22 )X + a11 a22 − a21 a12
= X 2 − tr(A)X + det A
Propriété :
Soient M, N ∈ Mn (K) deux matrices semblables (∃P ∈ GLn (K) / N = P M P −1 ) alors χN = χM .
Preuve :
χN (X) = det(XIn − N ) = det(P (XIn )P −1 − P M P −1 ) = det(P (XIn − M )P −1 )
= det P det(XIn − M ) det P −1 = det P det(XIn − M ) det1 P = det(XIn − M )
= χM (X).
Définition :
Soient E un K-e.v. de dim E = n , B base de E et u ∈ L (E) , M = MB (u).
On appelle polynôme caractérestique de u et on note χu (X) = χM (X) = det(XIn − M )
χu (X) = det(XIdE − u) , degχu = n , c’est un polynôme unitaire , coefficient de X n−1 est −tru et
coefficient constant est (−1)n det u.
Propriété :
1) Soit A ∈ Mn (K) , alors χt A = χA . En effet :
χt A (X) = det(XIn − t A) = det(t (XIn − A)) = det(XIn − A) = χA (X).
(−1)n n 1
2) Soit A ∈ GLn (K) , alors χA−1 (X) = X χA ( ). En effet :
det A X
χA−1 (X) = det(XIn − A−1 ) = det(A−1 (XA − In )) = det(A−1 ) det(XA − In )
1 1 (−1)n n 1
= det((−X)( In − A) ⇒ χA−1 (X) = X χA ( ).
det A X det A X
Proposition :
Soient A ∈ Mn (K) , λ ∈ K , alors :
λ est une valeur propre de A SSI λ est une racine de χA .
Preuve :
λ est une valeur propre de A ⇔ ∃X ∈ Mn,1 (K)\{0} / AX = λX
⇔ ∃X ∈ Mn,1 (K)\{0} / (λIn − A)X = 0
⇔ λIn − A n’est pas inversible
⇔ det(λIn − A) = 0
⇔ χA (λ) = 0.
Conséquences :
Soient E un K-e.v. de dim E = n , B une base de E et u ∈ L (E) tel que A = MB (u).
Alors SpK (u) = SpK (A) = { racines de χA dans K}.
A admet au plus n valeurs propres.
Exemples :
a11 a12 . . . a1n X − a11 −a12 ... −a1n
0 a22 . . . a2n 0 X − a22 . . . −a2n
1. Soit A =
.. . . . . . .
.. , χ A = det(XI n −A) = .. .. .. ..
. . . . . .
0 ... 0 ann 0 ... 0 X − ann
χA (X) = (X − a11 )(X − a22 ) . . . (X − ann )
⇒ Sp(A) = {a11 , a22 , . . . , ann }.
ALGEBRE 2eme MP (Réduction) page 11 © Hamed Hassine
A11 O ... O
..
..
.
O A22 .
2. A = .. .. .. : matrice diagonale par blocs où Akk matrice carrée.
. . . O
O ... O App
Y
p
χA (X) = χAkk (X)
k=1
!
A B
3. M = , A ∈ Mp (K) , C ∈ Mn−p (K).
O C
!
X Ip − A −B
χM (X) = det = det(X Ip − A) det(X In−p − C)
O X In−p − C
χM (X) = χA (X) χC (X)
Remarque :
Soit A ∈ Mn (C) , alors χA = (X − λ1 )(X − λ2 ) . . . (X − λn )
où λ1 , . . . , λn les valeurs propres de A.
χA (X) = X n − (λ1 + · · · + λn )X n−1 + · · · + (−1)n (λ1 × · · · × λn )
= X n − tr(A)X n−1 + · · · + (−1)n det A
X n
λi = tr(A)
⇒ Y
i=1
n
λi = det A
i=1
Exemples :
2 0 1
1) Soit A = 1 1 1 . Déterminer les éléments propres de A.
−2 0 −1
X −2 0 −1
X − 2 −1
χA (X) = det(X I3 − A) = −1 X − 1 −1 = (X − 1)
2 X +1
2 0 X +1
= (X − 1)[(X − 2)(X + 1) + 2] = (X − 1)(X 2 − X) = X(X − 1)2
⇒ Les valeurs
propres
de A sont 0 et 1.
x
Soit X = y
z
0 2 0 1 x 0 (
2x + z = 0
X ∈ E0 = ker A ⇔ AX = 0 ⇔ 1 1 1 y = 0 ⇔
x+y+z =0
0 −2 0 −1 z 0
( x 1
z = −2x
⇔ ⇔X= x =x 1
y=x
−2x −2
1 1
⇒ E0 = Vect{ 1 } =< 1 >
−2 −2
ALGEBRE 2eme MP (Réduction) page 12 © Hamed Hassine
0 1 0 1 x 0
X ∈ E1 = ker(A − I3 ) ⇔ (A − I3 )X = 0 ⇔ 1 0 1 y = 0 ⇔x+z =0
0 −2 0 −2 z 0
x 1 0
⇔ z = −x ⇔ X = y = x 0 + y 1
−x −1 0
1 0
⇒ E1 = Vect{ 0 , 1 }
−1 0
1 ... 1
. . .
2) Soit A = .. . . ..
∈ Mn (R).
1 ... 1
C1 ← C1 + C2 + · · · + Cn
X −n −1 ... ... −1
X −1 −1 ... −1 . ..
. .. X − n X − 1 .. .
−1 X − 1 .. . .. .. .. ..
χA (X) = det(X In − A) = .. .. .. = . −1 . . .
. . . −1 .. .. .. ..
. . . . −1
−1 ... −1 X − 1
X −n −1 ... −1 X − 1
1 −1 ... ... −1
... ..
1 X −1 .
.. ... ... ..
= (X − n) . −1 .
.. .. ... ...
. . −1
1 −1 . . . −1 X − 1
1 −1 . . . . . . −1
0 X 0 ... 0 L2 ← L2 − L1
.. .. .. . ..
= (X − n) . 0 . . .. .
.. .. . . . . ..
. . . . 0 .
0 0 ... 0 X Ln ← Ln − L1
= (X − n) X n−1
⇒ Sp(A) = {0, n}
x1
.
Soit X = .
.
xn
0
.
X ∈ E0 (A) = ker A ⇔ AX = ..
⇔ x1 + x2 + · · · + xn = 0 ⇔ x1 = −x2 − x3 − · · · − xn
0
ALGEBRE 2eme MP (Réduction) page 13 © Hamed Hassine
−1
−1 0
−x2 − x3 − · · · − xn −1 −1
..
0 .
x2 1 0
1
0 ..
⇔X= x3 = x2 0 +x3 +· · ·+xk +· · ·+xn .
.. .. 0 1
0
. . ..
. 0
xn 0 .. 1
0 .
0
−1
−1 −1
0
1
0
1
..
⇒ E0 (A) = Vect{ 0 , , ... , }.
.
..
0
0
.
..
.
0 1
0
0
.
X ∈ En (A) = ker(A − nIn ) ⇔ (A − nIn )X = .
.
0
1−n 1 ... 1 x1 0
. .
1 1 − n ..
. ..
.
.. ..
⇔ . =
.. ... ...
1 ... ...
1 ... 1 1−n xn 0
(1 − n)x1 + x2 + x3 + · · · + xn = 0
x1 + (1 − n)x2 + x3 + · · · + xn = 0
⇔ ..
.
x + x2 + · · · + xn−1 + (1 − n)xn = 0
1
(1 − n)x1 + x2 + x3 + · · · + xn = 0
n x1 − n x2 = 0
L2 ← L2 − L1
⇔ n x1 − n x3 = 0 L3 ← L3 − L1
.. ..
. .
n x −n x =0
1 n Ln ← Ln − L1
x2 = x1
x3 = x1
⇔ ..
.
xn = x1
1
1
⇒ En (A) = Vect{
.. }
.
1
Proposition :
Soient E un K-espace vectoriel de dim E = n , u ∈ L (E) et F un sous espace vectoriel de E stable
par u. v = u|F alors χv divise χu .
ALGEBRE 2eme MP (Réduction) page 14 © Hamed Hassine
Preuve :
Soit B une base de E adaptée
! à F ( c à d B = B1 ∪ B2 où B1 base de F ).
A D
⇒ MB (u) = , A = MB1 (v) , χA = χv .
O C
χu = χA χC = χv χC ⇒ χv /χu
Définition :
Soit u ∈ L (E), λ ∈ K valeur propre de u.
On appelle la multiplicité de λ son ordre de multiplicité comme étant racine de χu .
Proposition :
Soit u ∈ L (E), λ ∈ K valeur propre de u de multiplicité m(λ), alors :
1 ≤ dim Eλ (u) ≤ m(λ)
Preuve :
On a Eλ (u) 6= {0E } ⇒ dim Eλ (u) ≥ 1
Soit q(λ) = dim Eλ (u). Montrer que q(λ) ≤ m(λ).
χu = (X − λ)m(λ) Q avec Q(λ) 6= 0.
v = u|Eλ (u) : Eλ (u) −→ Eλ (u)
On a Eλ (u) stable par u ,
x 7−→ u(x) = λ x
λ (0)
v = u|Eλ (u) = λ IdEλ (u) ⇒ χv = (X − λ) q(λ)
car MB (v) = . .. ∈ Mq(λ) (K)
(0) λ
⇒ χv /χu ⇒ (X − λ)q(λ) /(X − λ)m(λ) Q , Or (X − λ)q(λ) ∧ Q = 1
D’après lemme de Gauss, on obtient (X − λ)q(λ) /(X − λ)m(λ) , et par suite q(λ) ≤ m(λ).
Conséquence :
Si λ est une valeur propre simple de u alors dim Eλ (u) = 1. (m(λ) = 1)
Remarque :
Soient E un C-e.v. de dim E = n.
Si u ∈ L (E) alors SpC (u) 6= ∅ et SpR (u) ⊂ SpC (u).
Exemple :
!
cos θ − sin θ
A= ; θ ∈]0, π[.
sin θ cos θ
X − cos θ sin θ
χA (X) = = (X − cos θ)2 + sin2 θ = X 2 − 2 cos θX + 1
− sin θ X − cos θ
∆′ = cos2 θ − 1 = − sin2 θ
SpR (A) = ∅ car χA n’admet aucune racine réelle.
∆′ (
= − sin2 θ = (i sin θ)2
λ1 = cos θ + i sin θ = eiθ
⇒
λ2 = cos θ − i sin θ = e−iθ
⇒ SpC (A) = {eiθ , e−iθ }.
ALGEBRE 2eme MP (Réduction) page 15 © Hamed Hassine
IV- Endomorphismes et matrices carrées diagonalisable :
Soit E un K-espace vectoriel de dim E = n.
Définition : Endomorphisme diagonalisable
Soit u ∈ L (E).
On dit que u est diagonalisable dans K s’il existe une base B de E tel que MB (u) est diagonale.
Définition : Matrice diagonalisable
Soient M ∈ Mn (K) et u ∈ L (Kn ) l’endomorphisme canoniquement associé à M .
On dit que M est diagonalisable ssi u est diagonalisable.
autrement dit , M est diagonalisable ssi M est semblable à une matrice diagonale.
Exemples :
1. IdE est diagonalisable et n’importe quelle base de E est base de diagonalisation.
2. Les projecteurs sont diagonalisables.
En effet :
Si E = F ⊕ G et p la projection sur F parallèlement à G. Notons r = dim F !
Ir 0
Pour B une base de E adaptée à la décomposition E = F ⊕ G , on a MB (p) =
0 0n−r
3. Les symétries sont diagonalisables.
En effet :
Soit E = F ⊕ G et s la symétrie par rapport à F parallèlement à G
Soient B1 = (e1 , . . . , er ) une base de F et B2 = (er+1 , . . . , en ) une base de G.
⇒ B = B1 ∪ B2 = (e1 , . . . , er , er+1 , . . . , en ) est une base de E .
x ∈ F ⇔ s(x) = x ,Donc F = ker(s − IdE )
x ∈ G ⇔ s(x) = −x ,Donc G = ker(s + IdE )
s(e1 ) . . . . . . s(er ) s(er+1 ) . . . . . . s(en )
1 0 ... 0 0 0 ... 0 e1
.
0 1 . . . ... ... ..
.
..
. ..
.. . . . . .. .. .. ..
. . . 0 . . . .
0 ... 0 1 0 e
0 ... 0 r
⇒ MB (s) =
0 0 . . . 0 −1 0 . . . 0 er+1
. . ..
0 0 . . . 0 0 −1 . . .. .
.. .. .. .. . . . . ..
. . . . . . 0 .
0 0 . . . 0 0 . . . 0 −1 en
Proposition :
Soit u ∈ L (E) , SpK (u) = {λ1 , . . . , λp }. Alors les assertions suivantes sont équivalentes :
1. u est diagonalisable dans K.
Mp
2. E = Eλk (u)
k=1
3. χu est scindé dans K [χu = (X − λ1 )m(λ1 ) . . . (X − λp )m(λp ) , λi ∈ K ; ie : tous les racines de χu
appartient à K] et dim Eλ (u) = m(λ) ∀λ ∈ SpK (u).
m(λ) = l’ordre de multiplicité de λ comme racine de χu .
ALGEBRE 2eme MP (Réduction) page 16 © Hamed Hassine
Preuve :
"1) ⇒ 2)"
α1 0
u est diagonalisable dans K , alors il existe une base B = (e1 , . . . , en ) de E tel que MB (u) =
..
.
0 αn
⇒ ∀ i ∈ J1, nK , u(ei ) = αi ei
Comme ei 6= 0, alors ei est un vecteur propre de u et αi ∈ SpK (u) = {λ1 , . . . , λp } pour tout i ∈ J1, nK.
Mp
⇒ ∀ i ∈ J1, nK , ei ∈ Eλk (u)
k=1
X
n M
p
⇒ ∀ x ∈ E , ∃! (x1 , . . . , xn ) ∈ K / x =
n
xi e i ∈ Eλk (u).
i=1 k=1
M
p
M
p
Donc E ⊂ Eλk (u), par suite E = Eλk (u).
k=1 k=1
"2) ⇒ 3)"
M
p
On a E = Eλk (u) , SpK (u) = {λ1 , . . . , λp }
k=1
Pour k ∈ J1, pK, soient dim Eλk (u) = nk et Bk une base de Eλk (u).
[p
Xp
Alors B = Bk est une base de E et nk = n.
k=1 k=1
λ1 0 . . . ... ... 0
..
0 ... ...
.
. .
..
.. . . λ1 . . .
.
. .. ..
..
.. . λ2 . .
.. ... ... ... ..
. .
De plus M = MB (u) = . où λk se répète nk fois.
... ... ..
.. λ2 .
.. ... ... ... ..
. .
.
.. ... ... ..
λp .
.
.. ... ...
0
0 ... ... ... ... ... ... ... 0 λp
⇒ χu (X) = χM (X) = (X − λ1 )n1 (X − λ2 )n2 . . . (X − λp )np .
Alors χu est scindé dans K et pour tout k ∈ J1, pK, λk est une racine de χu de multiplicité nk , par suite
m(λk ) = nk = dim Eλk (u) c à d dim Eλ (u) = m(λ) ∀λ ∈ SpK (u).
"3) ⇒ 1)"
Soit SpK (u) = {λ1 , . . . , λp }
hyp : dim Eλk (u) = m(λk ) ∀1 ≤ k ≤ p
Yp
χu = (X − λk )m(λk ) .
k=1
Mq : u est diagonalisable.
X p
M
p
On sait que Eλk (u) = Eλk (u) est un s e v de E.
k=1 k=1
ALGEBRE 2eme MP (Réduction) page 17 © Hamed Hassine
X
p
X
p
dim Eλk (u) = m(λk ) = degχu = n = dim E
k=1 k=1
M
p
⇒E= Eλk (u).
k=1
Pour k ∈ J1, pK, soit Bk une base de Eλk (u).
[
p
Alors B = Bk est une base de E.
k=1
λ1 0 . . . ... ... 0
..
0 . .
.. ..
.
. .
..
.. . . λ1 . . .
.
. .. ..
..
.. . λ2 . .
.. .. .. .. ..
. . . . .
De plus MB (u) = . où λk se répète m(λk ) fois.
.. .. ..
.. . λ2 . .
.. .. .. .. ..
. . . . .
.
.. .. .. ..
. λp . .
.
.. ... ...
0
0 ... ... ... ... ... ... ... 0 λp
D’où u est diagonalisable.
Remarques :
1. Soit A ∈ Mn (K), alors A est diagonalisable dans K SSI il existe P ∈ GLn (K) et D diagonale tel
que A = P DP (−1) avec P = PBc →B′ où B ′ est une base de Kn formée par des vecteurs propres
de A.
2. Soit u ∈ L (E) tel que χu soit scindé dans K et toutes ses racines sont simples .
Yn
χu = (X − λi ) avec λi 6= λj si i 6= j
i=1
⇒ dim Eλi (u) = 1 = m(λi ) ∀1 ≤ i ≤ n.
Alors u est diagonalisable dans K.
Pratique de la diagonalisation :
Soit u ∈ L (E) (resp A ∈ Mn (K)) [ A = MBc (u)]
1. on détermine χu .
Si χu n’est pas scindé dans K , alors u n’est pas diagonalisable dans K.
2. Si χu est scindé dans K. Soit SpK (u) = {λ1 , . . . , λp }
On détermine Eλk (u) = ker(u − λk IdE ) = ker(A − λk In ) ∀1 ≤ k ≤ p
- S’il existe 1 ≤ k0 ≤ p tel que dim Eλk0 (u) < m(λk0 ) alors u n’est pas diagonalisable dans K.
- Si ∀1 ≤ k ≤ p , dim Eλk (u) = m(λk ) , alors u est diagonalisable dans K
3. Pour tout 1 ≤ k ≤ p , soit Bk une base de Eλk (u).
ALGEBRE 2eme MP (Réduction) page 18 © Hamed Hassine
λ1 0 ... ... ... 0
.. ..
..
0 . . .
.. .. .. ..
. . λ1 . .
[ .. .. .. .. ..
p
. . . . .
Donc B ′ = Bk est une base de E et MB′ (u) =
.. ... ... ...
=D
..
. .
k=1
.. ... ... ..
. λp .
.. ... ...
. 0
0 ... ... ... ... ... 0 λp
−1
P = PB c →B′ ⇒ A = P DP
Remarques :
- Pour retrouver la pratique de la diagonalisation d’une matrice A ∈ Mn (K) , il suffit de remplacer u
par A.
- B ′ est une base de E formée par des vecteurs propres de u (resp A).
- L’ordre des éléments diagonaux dans D = diag(λ1 , . . . , λp ) dépend du choix de l’ordre des vecteurs
dans la base B ′ .
Remarques : Soit A ∈ Mn (R).
1) Si λ ∈ C valeur propre de A ( λ ∈ SpC (A) )
⇒ ∃X ∈ Mn,1 (C)\{0} / AX = λX
⇒ ∃X ∈ Mn,1 (C)\{0} / A X = λ X or A ∈ Mn (R)
⇒ ∃X ∈ Mn,1 (C)\{0} / A X = λ X
⇒ λ ∈ SpC (A) et X est un vecteur propre de A associé à λ.
Eλ (A) = Eλ (A) = {X / X ∈ Eλ (A)}.
2) Si λ ∈ SpC (A) d’ordre m(λ) alors λ ∈ SpC (A) d’ordre m(λ).
Exemples :
0 −2 0
1) Soit A = 1 0 −1 ; A est elle diagonalisable sur R ? sur C ?
0 2 0
X 2 0
X 1 2 0
χA (X) = −1 X 1 = X + = X(X 2 + 2) + 2X = X(X 2 + 4).
−2 X −2 X
0 −2 X
⇒ SpC (A) = {0, 2i, −2i}.
χA n’est pas scindé dans R , alors A n’est pas diagonalisable dans R.
0, 2i, −2i sont des valeurs propres simples.
[dim E0 (A) = dim E2i (A) = dim E−2i (A) = 1 = m(0) = m(2i) = m(−2i)]
⇒ A est diagonalisable
dans C.
x
Soit X = y
z
0 0 0 1
A(e1 + e3 ) = Ae1 + Ae3 = 1 + −1 = 0 ⇒ e1 + e3 = 0 ∈ ker A = E0 (A)
0 0 0 1
ALGEBRE 2eme MP (Réduction) page 19 © Hamed Hassine
1
Or dim E0 (A) = 1, alors E0 (A) = Vect{ 0 }
1
0 −2i −2 0 x 0
X ∈ E2i (A) ⇔ (A − 2iI3 )X = 0 ⇔ 1 −2i −1 y = 0
0 0 2 −2i z 0
−2i x − 2 y = 0
x = iy iy i
⇔ x − 2i y − z = 0 ⇔ z = −iy ⇔X = y = y 1
2 y − 2i z = 0 iy − 2iy + iy = 0 −iy −i
i
⇒ E2i (A) = Vect{ 1 }
−i
−i
⇒ E−2i (A) = Vect{ 1 } car A ∈ Mn (R).
i
1 i −i
Posons v1 = 0 , v2 = 1 , v3 = 1
1 −i i
′
⇒ B = (v1 , v2 , v3 ) est une base de C formée par des vecteurs propres de A.
3
1 i −i 0 0 0
P = PBc →B′ = 0 1 1 , D = 0 2i 0 . On a A = P DP −1 .
1 −i i 0 0 −2i
1 1 0
2) Soit B = 0 1 1
0 0 2
B est elle diagonalisable sur R ?
χB (X) = (X − 1)2 (X − 2) ⇒ Sp(B) = {1, 2}.
0 1 0
dim E1 (B) = 3 − rg(B − I3 ) , or rg(B − I3 ) = rg 0 0 1 = 2
0 0 1
⇒ dim E1 (B) = 1 < 2 = m(1).
Donc B n’est pas diagonalisable dans R.
1 ... 1
. ..
3) Soit C =
.. .
∈ Mn (R) (avec n ≥ 2)
1 ... 1
χC (X) = (X − n)X n−1 ⇒ Sp(C) = {0, n}.
dim E0 (C) = n − rgC = n − 1 = m(0) et dim E1 (C) = 1 = m(1) ( valeur propre simple ).
Alors C est diagonalisable et semblable à D = diag(n, 0, . . . , 0).
ALGEBRE 2eme MP (Réduction) page 20 © Hamed Hassine
V- Trigonalisabilité :
1- Endomorphismes et matrices carrées trigonalisable :
Soit E un K-espace vectoriel de dim E = n.
Définitions :
1. Soit u ∈ L (E), on dit que u est trigonalisable dans K s’il existe une base B de E tel que MB (u)
soit triangulaire supèrieure .
2. Soit M ∈ Mn (K) , on dit que M est trigonalisable ssi il existe P ∈ GLn (K) et T ∈ Mn (K)
triangulaire supèrieure tel que M = P T P −1 .
Exemple :
Un endomorphisme (resp matrice) diagonalisable est à fortiori trigonalisable.
Théorème :
Soit A la matrice d’un endomorphisme u dans une base de E, alors :
A est trigonalisable dans K SSI u est trigonalisable dans K.
Remarque :
Une matrice triangulaire inferieure est trigonalisable :
T est semblable à t T .
En effet :
t11 0 . . . 0
..
t ..
.
21 22 t .
Soit B = (e1 , . . . , en ) tel que MB (u) = . .
.. ..
. 0
tn1 . . . . . . tnn
tnn . . . . . . tn1
..
0 ... .
Pour B ′ = (en , en−1 , . . . , e1 ) , on a MB′ (u) = . .
.. . . . . . ...
0 . . . 0 t11
Théorème :
Soient E un K-e.v. de dim E = n , u ∈ L (E) et A ∈ Mn (K). Alors :
1) u est trigonalisable dans K SSI χu est scindé dans K.
2) A est trigonalisable dans K SSI χA est scindé dans K.
Preuve :
"⇒"
donc il existe B
u est trigonalisable une base de E tel que
t11 t12 . . . t1n
..
0 t .
22
MB (u) = T = . . . ∈ Mn (K)
.. . . . . ..
.
0 . . . 0 tnn
χu = χT = (X − t11 ) . . . (X − tnn ) ⇒ χu est scindé dans K.
"⇐" raisonnement par récurrence sur n.
Si n = 1 , u = λIdE : trivial .
Soit n ≥ 2, supposons que le résultat est vrai pour tout espace vectoriel F de dim F = n − 1.
( c à d si v ∈ L (F ) tel que χv soit scindé dans K alors v est trigonalisable dans K).
Soit u ∈ L (E) (dim E = n) tel que χu soit scindé dans K. Montrons que u est trigonalisable dans K.
ALGEBRE 2eme MP (Réduction) page 21 © Hamed Hassine
Donc u admet au moins une valeur propre λ ∈ K.
Soit a ∈ E\{0E } un vecteur propre de u associé à λ.
Soit D = Vect(a), soit F un s e v de E tel que E = F ⊕ D (F un supplémentaire de D dans E).
dim F = n − 1 , soit p la projection sur F parallèlement à D. (Imp = F , ker p = D)
∀x ∈ E , ∃! y ∈ F et ∃! λx ∈ K / x = λx a + y .
p ◦ u(F ) ⊂ F , en effet : soit x ∈ F , p ◦ u(x) = p(u(x)) ∈ Imp = F
Soit v = (p ◦ u)|F ∈ L (F ).
Soit (e2 , . . . , en ) une base de F , comme E = D ⊕ F , alors B = (a, e2 , . . . , en ) est une base de E.
u(a) u(e2 ) . . . u(en )
λ m12 . . . m1n a
X X
0 m22 . . . m2n e2 n n
⇒ MB (u) = . ..
.. .. u(e2 ) = m12 a+ mi2 ei ⇒ p◦u(e2 ) = m12 p(a)+ mi2 p(ei )
.. . . . i=2 i=2
0 mn2 . . . mnn en
X
n
or a ∈ ker p ⇒ v(e2 ) = p ◦ u(e2 ) = mi2 ei .
i=2
X n X
n
On a ∀2 ≤ j ≤ n , u(ej ) = m1j a + mij ei ⇒ v(ej ) = p ◦ u(ej ) = mij ei
i=2 i=2
m22 . . . m2n
. ..
M(e2 ,...,en ) (v) =
.. . = M.
mn2 . . . mnn
Donc χu = (X − λ)χM , or χv = χM , alors χv /χu .
Comme χu est scindé dans K , alors χv est scindé dans K.
De plus v ∈ L (F ) et dim F = n − 1 .
D’où , d’après l’hypothèse de récurrence, v est trigonalisable dans K.
Par suite, il existe B1 = (w2 , . . . , wn ) une base de F tel que :
v(w2 ) v(w3 ) . . . v(wn)
t22 t23 . . . t2n w2
0 t33 . . . t3n w3
⇒ MB1 (v) = .. . . . . . . .. ..
. . .
0 ... 0 tnn wn
Alors :
p ◦ u(w2 ) = t22 w2
p ◦ u(w3 ) = t23 w2 + t33 w3
..
.
p ◦ u(wn ) = t2n w2 + · · · + tnn wn
Soit B ′ = (a, w2 , . . . , wn ) , alors B ′ est une base de E = D ⊕ F
x ∈ E = D ⊕ F ⇒ x = λx a + y où λx ∈ K et y ∈ F ⇒ p(x) = p(y) = y ⇒ x = λx a + p(x).
Alors :
p(a) = λa
p(w2 ) = λ2 a + p(u(w2 )) = λ2 a + t22 w2
p(w3 ) = λ3 a + p(u(w3 )) = λ3 a + t23 w2 + t33 w3
..
.
p(wn ) = λn a + p(u(wn )) = λn a + t2n w2 + · · · + tnn wn
ALGEBRE 2eme MP (Réduction) page 22 © Hamed Hassine
λ λ 2 λ3 . . . λ n
0 t22 t23 . . . t2n
0 0 t
⇒ MB (u) =
′ 33 . . . t 3n : triangulaire supèrieure.
. . .
.. .. . . . . . ...
0 0 . . . 0 tnn
Règle pratique de trigonalisation :
Soit u ∈ L (E) trigonalisable dans K.
SpK (u) = {λ1 , . . . , λp }.
[p
M
p
′
Soit Bi une base de Eλi , 1 ≤ i ≤ p , alors B = Bi est une base de Eλi (u).
i=1 i=1
M
p
1er cas : Si E = Eλi (u) (ssi dim Eλi (u) = m(λi ) ∀i ∈ J1, pK)
i=1
[
p
′
alors u est diagonalisable et B = Bi est une base de E .
i=1
λ1 0 . . . ... ... 0
..
0 ... ... .
. . . .
. . . . λ1 . . .
.
.. . . . ..
. . . . . . . .
MB′ (u) = .. .. .. .. ..
. . . . .
.. .. .. ..
. . λp . .
.
.. ... ...
0
0 . . . . . . . . . . . . . . . 0 λp
Mp
M p
2ème
cas : Si E 6= Eλi (u). Posons F = Eλi (u).
i=1 i=1
[
p
B′ = Bi est une base de F .
i=1
D’après le théorème de la base incomplète, il existe une famille libre B” tels que B = B ′ ∪ B” soit une
base de E. Posons G = Vect(B”) , alors E = F ⊕ G.
u(B ′ ) u(B”)
λ1 O
.. B′
. C
0 λp
MB (u) =
0 Q
B”
Soit p la projection sur G parallèlement à F . on a p ◦ u(G) ⊂ G.
posons v = (p ◦ u)|G , alors MB” (v) = Q.
χQ /χu ⇒ χv = χQ est scindé dans K.
⇒ v est trigonalisable dans K.
et on reprend le même raisonnement avec v ∈ L (G).
ALGEBRE 2eme MP (Réduction) page 23 © Hamed Hassine
Cas n = 2 et n = 3 :
1) Cas n = 2 :
Soit A ∈ M2 (K) trigonalisable. SpK (u) = {λ1 , λ2 }.
Soit u ∈ L (K2 ) l’endomorphisme canoniquement associé à A.
1er cas : λ1 6= λ2
:::::::::
⇒ A est diagonalisable. !
λ 1 0
⇒ il existe B ′ base de K2 tels que MB′ (u) = .
0 λ2
ème
2:::: cas : λ1 = λ2
::::::
Si dim Eλ1 = 2 , alors Eλ1 = K2 , donc A = λ1 I2 .
Si dim Eλ1 = 1 :
! u2 ∈ K tels ! que (u1 , u2 ) soit une base de K2 .
2
Soit Eλ1 = Vect(u1 ). Soit
λ1 α λ1 α
M(u1 ,u2 ) (u) = = .
0 β 0 λ1
β = λ1 car χu = (X − λ1 )(X − β) = (X − λ1 )2 .
Remarque : On peut choisir u2 ∈ K2 tels que u(u2 ) = u1 + λ1 u2 .
2) Cas n = 3 :
Soit A ∈ M3 (K) trigonalisable. Soit u ∈ L (K3 ) l’endomorphisme canoniquement associé à A.
χA = (X − λ1 )(X − λ2 )(X − λ3 ).
er
1::: cas : λ1 6= λ2 , λ1 6= λ3 , λ2 6= λ3
::::::
⇒ A est diagonalisable.
λ1 0 0
⇒ il existe B ′ base de K3 tels que MB′ (u) = 0 λ2 0 .
0 0 λ3
ème
2::::::::cas::: λ1 = λ2 6= λ3
λ1 : valeur propre double .
λ3 : valeur propre simple , donc dim Eλ3 = 1.
∗ Si dim Eλ1 = 2 = m(λ1 )
λ1 0 0
⇒ A est diagonalisable semblable à 0 λ1 0
0 0 λ3
λ1 0 0
c à d ∃P ∈ GLn (K) / A = P DP −1 , D = 0 λ1 0 .
0 0 λ3
∗ Si dim Eλ1 = 1 : Eλ1 = Vect(v1 ) , Eλ3 = Vect(v2 ).
(v1 , v2 ) est une famille libre, soit v3 ∈ K3 tels que B ′ = (v1 , v2 , v3 ) soit une base de K3 .
λ1 0 α λ1 0 α
MB′ (u) = 0 λ3 β avec γ = λ1 car λ1 valeur propre double. ⇒ MB′ (u) = 0 λ3 β .
0 0 γ 0 0 λ1
Remarque : On peut choisir v3 ∈ K tels que u(v3 ) = v2 + λ1 v3 .
3
ème
3:::: cas : λ1 = λ2 = λ3
::::::
∗ Si dim Eλ1 = 3 , alors A = λ1 I3 .
∗ Si dim Eλ1 = 2 : Soit (v1 , v2 ) une base de Eλ1 .
On choisit v3 ∈ K3 tels que B ′ = (v1 , v2 , v3 ) soit une base de K3 .
ALGEBRE 2eme MP (Réduction) page 24 © Hamed Hassine
λ1 0 α
⇒ MB′ (u) = 0 λ1 β .
0 0 λ1
Remarque : On peut choisir v3 ∈ K3 tels que u(v3 ) = v2 + λ1 v3 .
∗ Si dim Eλ1 (A) = 1 : Soit Eλ1 = Vect(v1 ).
On choisit v2 , v3 ∈ K3 tels que B ′ = (v1 , v2 , v3 ) soit une base de K3 .
λ1 α α ′ !
′
β β
MB′ (u) = 0 β β ′ ; Notons A′ =
γ γ′
0 γ γ′
χA′ /χu ⇒ χA′ = (X − λ1 )2 ; dim Eλ1 (A′ ) = 1 ou 2.
Posons v = (p ◦ u)|<v2 ,v3 > , alors A′ = M(v2 ,v3 ) (v).
- Si dim Eλ1 (A′ ) = 2 = dim Vect(v1 , v2 ) , alors A′ = λ1 I2 .
λ1 α α ′
⇒ MB′ (u) = 0 λ1 0 .
0 0 λ1
- Si dim Eλ1 (A ) = 1 : Eλ1 (A′ ) = Vect(v2′ ) où v2′ ∈ Vect(v2 , v3 ).
′
On choisit v3′ ∈ Vect(v2 , v3 ) tels que (v2′ , v3′ ) soit une base de Vect(v2 , v3 ).
λ1 a a′
⇒ M(v1 ,v2′ ,v3′ ) (u) = 0 λ1 b′ .
0 0 λ1
Remarque : On peut choisir v2′ , v3′ ∈ K3 tels que u(v2′ ) = v1 + λ1 v2′ ; u(v3′ ) = v2′ + λ1 v3′ .
Exemple :
2 1 0
Soit A = −1 3 1 ∈ M3 (R).
1 0 1
Réduire A dans M3 (R).
χA = (X − 2)3 .
Si dim E2 (A) = 3, alors E2 (A) = R3 , donc A = 2I3 : absurde.
E2 (A) = ker(A − 2I3 )
x 0 1 0 x 0
y = 0
y=0
y ∈ E2 (A) ⇔ −1 1 1 y = 0 ⇔ −x + y + z = 0 ⇔ z=x
z 1 0 −1 z 0 x−z =0 x∈R
x x 1
⇔ y = 0 = x 0
z x 1
1 1
⇒ E2 (A) = Vect{ 0 } ⇒ dim E2 (A) = 1 ; v1 = 0
1 1
ère
1 Méthode :
:::::::::::::
On choisie v2 , v3 ∈ R3 tels que B = (v1 , v2 , v3 ) soit une base de R3 .
1 0
Posons v2 = 0 , v3 = 1 .
0 0
ALGEBRE 2eme MP (Réduction) page 25 © Hamed Hassine
2 1 1 0
Av2 = −1 = αv1 + βv2 + γv3 = α 0 + β 0 + γ 1
1 1 0 0
α+β =2
α=1
⇒ γ = −1 ⇒ β=1 ⇒ Av2 = v1 + v2 − v3 .
α=1 γ = −1
1 1 1 0
′ ′ ′
Av3 = 3 = α 0 + β 0 + γ 1
0 1 0 0
′ ′ ′
α +β =1
α =0
⇒ γ ′=3 ⇒ β ′ = 1 ⇒ Av3 = 0.v1 + v2 + 3v3 .
′
′
α =0 γ =3
Soit u ∈ L (R ) tels que A = MBc (u).
3
2 1 0
MB (u) = 0 1 1 .
0 −1 3
Soit p la projection sur
! Vect(v2 , v3 ) parallèlement à E2 (A).
1 1
Soit M ′ = = M(v2 ,v3 ) (p ◦ u|<v2 ,v3 > )
−1 3
′
χM ′ =!(X − 2)2 , χM (′ est scindé sur R donc ( M est trigonalisable.
! !
x x + y = 2x y = x x 1
∈ E2 (M ′ ) ⇔ ⇔ ⇔ =x
y −x + 3y = 2y x∈R y 1
! 1
′ 1
⇒ E2 (M ) = Vect{ } = Vect{v2 + v3 } = Vect{ 1 }.
1 (v ,v )
2 3 0
1
Soit v2′ = v2 + v3 = 1 .
0
v3′
Soit = v2 − v3 ∈ Vect(v2 , v3 ) et ′ ′
! (v2 , v3 ) base de Vect(v2 , v3 ).
2 α
M(v2′ ,v3′ ) (p ◦ u|<v2 ,v3 > ) =
0 2
E2 (u) ⊕ Vect(v2 , v3 ) = R 3
2 α1 α2
⇒ B ′ = (v1 , v2′ , v3′ ) est une base de R3 et MB′ (u) = 0 2 β2 .
0 0 2
1 3 1 1
′
u(v2 ) = A 1 = 2 = 0 + 2 1 = v1 + 2v2′
0 1 1 0
1 1 1 1 1
α2 + β2 + 2 = 1
′
u(v3 ) = A −1 = −4 = α2 0 + β2 1 + 2 −1 ⇔ β2 − 2 = −4
0 1 1 0 0 α2 = 1
(
α2 = 1
⇔
β2 = −2
ALGEBRE 2eme MP (Réduction) page 26 © Hamed Hassine
⇒ u(v3′ ) = v1 − 2v2′ + 2v3′
2 1 1
MB′ (u) = 0 2 −2 = T .
0 0 2
1 1 1
P = PBc →B′ = 0 1 −1 ⇒ A = P T P −1 .
1 0 0
ème
Méthode :
2::::::::::::::
1
v1 = 0 ∈ E2 (A)
1
( (
u(v 2 ) = v1 + 2v 2 (u − 2Id)(v2 ) = v1 (1)
On choisit v2 , v3 ∈ R3 tels que ⇔
u(v3 ) = v2 + 2v3 (u − 2Id)(v3 ) = v2 (2)
(1) ⇒ (u − 2Id) (v2 ) = (u − 2Id)(v1 ) = 0 ⇒ v2 ∈ ker(u − 2Id)2
2
2
2 1 0 0 1 0 −1 1 1
A = −1 3 1 ; (A − 2I)2 = −1 1 1 = 0 0 0
1 0 1 1 0 −1 −1 1 1
1
v2 ∈ ker(A − 2I) . soit v2 = 1 .
2
0
x
Soit v3 = y ∈ R3
z
0 1 0 x 1
y=1
y=1
(A − 2I)v3 = v2 ⇔ −1 1 1 y = 1 ⇔ −x + y + z = 1 ⇔ z=x
1 0 −1 z 0 x−z =0 x∈R
0
Soit v3 = 1 .
0
2 1 0
B” = (v1 , v2 , v3 ) est une base de R3 . MB′ (u) = 0 2 1 = T ′ .
0 0 2
1 1 0
′
P = PBc →B” = 0 1 1 ⇒ A = P ′ T ′ P ′−1 .
1 0 0
Remarque :
Soit A ∈ Mn (K) une matrice trigonalisable , alors χA = (X − λ1 )(X − λ2 ) . . . (X − λn )
où λ1 , . . . , λn les valeurs propres de A (répété autant de fois que leurs multiplicités)
χA (X) = X n − (λ1 + · · · + λn )X n−1 + · · · + (−1)n (λ1 × · · · × λn )
= X n − tr(A)X n−1 + · · · + (−1)n det A
X
n Yn
⇒ λi = tr(A) et λi = det A
i=1 i=1
ALGEBRE 2eme MP (Réduction) page 27 © Hamed Hassine
2- Nilpotence :
Soit E un K-espace vectoriel de dim E = n .
Définition :
Un endomorphisme u ∈ L (E) est dit nilpotent s’il existe p ∈ N vérifiant up = 0̃.
Le plus petit p vérifiant up = 0̃ est appelé indice de nilpotence de u.
De même, une matrice A ∈ Mn (K) est dite nilpotente s’il existe p ∈ N vérifiant Ap = 0.
Le plus petit p vérifiant Ap = 0 est appelé indice de nilpotence de A.
Remarque :
Si A = MB (u), alors la matrice A est nilpotente SSI l’endomorphisme u est nilpotent.
Exemples :
!
1 1
1. La matrice A = est nilpotente car A2 = 0.
−1 −1
0 1 0
2. La matrice A = 0 0 1 est nilpotente car A3 = 0.
0 0 0
3. Soit A
une matrice triangulaire
supérieure
stricte de M n (K).
0 ⋆ 0 0 ⋆
.. ... ...
.
A= , A =2
, etc
. .. . .. 0
(0) 0 (0) 0
Montrons que An = 0.
Soit u l’endomorphisme de Kn canoniquement associé à A.
Notons Bc = (e1 , . . . , en ) la base canonique de Kn .
On a u(e1 ) = 0E et pour tout 2 ≤ i ≤ n, on a u(ei ) ∈ Vect(e1 , . . . , ei−1 ).
Par suite Im(u) = Vect(u(e1 ), . . . , u(en )) ⊂ Vect(e1 , . . . , en−1 ).
puis Im(u2 ) ⊂ u(Vect(u(e1 ), . . . , u(en−1 ))) ⊂ Vect(e1 , . . . , en−2 ).
Par récurrence, on obtient : ∀1 ≤ k ≤ n − 1 , Im(uk ) ⊂ Vect(e1 , . . . , en−k ).
En particulier Imun−1 ⊂ Vect(e1 ) puis Imun ⊂ {0E } , ce qui donne un = 0̃
D’où An = 0.
Théorème :
soit u ∈ L (E), alors :
u est nilpotent , si et seulement si, u est trigonalisable avec 0 pour seule valeur propre.
De même, A ∈ Mn (K) est nilpotente, si et seulement si, A est semblable à une matrce triangulaire
supérieure stricte.
Preuve :
"⇐"
Si u est trigonalisable avec 0 pour seule valeur propre, alors il existe une base B de E tels que MB (u)
soit triangulaire supèrieure, de plus MB (u) a pour coefficients diagonaux les valeurs propres de u c à d
ses coefficients diagonaux sont nuls, donc MB (u) est triangulaire supérieure stricte et par conséquent
nilpotente.
"⇒"
Raisonnons matriciellement. Par récurrence sur n ∈ N∗ , montrons que si A ∈ Mn (K) est nilpotente,
ALGEBRE 2eme MP (Réduction) page 28 © Hamed Hassine
alors A est semblable à une matrice triangulaire supérieure stricte.
Pour n = 1 : une matrice nilpotente de taille 1 est nécessairement nulle.
Supposons la propriété établie au rang n − 1 ≥ 1.
Soit A ∈ Mn (K) nilpotente. Posons f l’endomorphisme de Kn canoniquement associé à A.
La matrice A ne peut être inversible et donc ker A 6= {0}. Soit e1 un vecteur non nul de ker A.
On complète ce vecteur e!1 en une base de Kn de la forme B ′ = (e1 , e2 , . . . , en ).
0 ⋆
B = MB′ (f ) = avec A′ ∈ Mn−1 (K).
0 A′
La matrice B est semblable à A et donc elle est aussi nilpotente.
On en déduit que le bloc A′ est nilpotent.
Par hypothèse de récurrence, il existe P ′ ∈ GLn−1 (K) telle que P ′−1 A′ P ′ soit triangulare supérieure
stricte. !
1 0
Posons alors P = ∈ GLn (K)
0 P′
!
′
0 ⋆
Par produit par blocs : P −1 BP = est triangulaire supérieure stricte.
0 P ′−1 A′ P ′
Finalement A est semblable à une matrice triangulaire supérieure stricte.
D’où le résultat.
Remarque :
Le polynôme caractétrestique de u ( ou de A ) est alors X n .
Corollaire :
Si u est un endomorphisme nilpotent d’un K-espace vectoriel E de dimension n , alors un = 0̃.
Si A ∈ Mn (K) est nilpotente alors An = 0.
Remarque :
Si p est l’indice de nilpotence de u ( resp A ) , alors p ≤ n.
VI- Polynômes d’un endomorphisme, d’une matrice carrée :
1- Polynômes d’un endomorphisme :
Soient E un K-espace vectoriel.
Définition :
Soit u ∈ L (E).
u0 = IdE , ∀ k ≥ 1 , uk = uk−1 ◦ u = u ◦ uk−1 .
X
p
Soit P ∈ K[X] , P = a0 + a1 X + · · · + ap X =
p
ak X k .
k=0
X
p
On définit l’endomorphisme P (u) = a0 IdE + a1 u + · · · + ap u = p
ak u k .
k=0
P (u) ∈ L (E) , P (u) est appelé polynôme d’endomorphisme de u.
Exemple :
P = 2X 2 − X + 2 , u ∈ L (E) , P (u) = 2u2 − u + 2 IdE
! ! Attention :
La valeur de P (u) en x ∈ E est notée P (u)(x) à comprendre [P (u)](x).
Ecrire P (u(x)) n’ a pas de sens.
Définition : Polynôme annulateur d’un endomorphisme
Soit u ∈ L (E). On appelle polynôme annulateur de u tout polynôme P ∈ K[X] vérifiant P (u) = 0̃.
ALGEBRE 2eme MP (Réduction) page 29 © Hamed Hassine
Exemples :
1. Le polynôme nul annule tout endomorphisme .
2. Le polynôme X − λ annule l’endomorphisme λIdE .
3. Le polynôme X 2 − X est annulateur des projections vectorielles.
4. Le polynôme X 2 − 1 est annulateur des symétries vectorielles.
Propriétés :
Soient P, Q ∈ K[X] , u ∈ L (E) , alors :
1. (P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u)
2. (P + Q)(u) = P (u) + Q(u) = Q(u) + P (u)
3. ∀λ ∈ K , (λP )(u) = λ (P (u))
4. u ◦ P (u) = P (u) ◦ u
⇒ Imu et ker u sont stables par P (u) et ImP (u) et ker P (u) sont stables par u.
Preuve :
Soient P, Q ∈ K[X] , u ∈ L (E) .
Xn Xm
P = k
ak X , Q = bk X k où ak , bk ∈ K.
k=0 k=0
X
m
1. Soit r ∈ N , X r Q = bk X r+k
k=0
X
m X
m X
m
⇒ (X r Q)(u) = bk ur+k = b k ur ◦ uk = bk uk ◦ ur
k=0 !
k=1 !
k=0
X
m X
m
⇒ (X r Q)(u) = ur ◦ bk u k = bk uk ◦ ur
k=0 k=0
⇒ (X r Q)(u) = ur!◦ Q(u) = Q(u) ◦ ur
Xn Xn
k
PQ = ak X Q = ak X k Q
k=0 k=0
X
n X
n X
n
(P Q)(u) = k
ak (X Q)(u) = ak u ◦ Q(u) = k
ak Q(u) ◦ uk
k=0 ! k=0 k=0 !
X n Xn
⇒ (P Q)(u) = ak uk ◦ Q(u) = Q(u) ◦ ak u k
k=0 k=0
⇒ (P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u)
2. (P + Q)(X) = P (X) + Q(X) = Q(X) + P (X) ⇒ (P + Q)(u) = P (u) + Q(u) = Q(u) + P (u).
3. Soit λ ∈ K , (λP )(X) = λ(P (X)) ⇒ (λP )(u) = λ(P (u)).
4. Pour Q = X, on a (XP )(u) = Q(u) ◦ P (u) = P (u) ◦ Q(u), alors u ◦ P (u) = P (u) ◦ u
Par conséquent Imu et ker u sont stables par P (u) et ImP (u) et ker P (u) sont stables par u.
Exemple :
X 3 − 2X + 1 = (X − 1)(X 2 + X − 1)
u3 − 2u + IdE = (u − IdE ) ◦ (u2 + u − IdE ) = (u − IdE )(u2 + u − IdE )
Corollaire :
φu : K[X] −→ L (E)
Soit u ∈ L (E) . L’application est un morphisme de K-algèbre.
P 7−→ P (u)
ALGEBRE 2eme MP (Réduction) page 30 © Hamed Hassine
Remarques :
ker φu = {P ∈ K[X] / P (u) = 0̃} est l’ensemble des polynômes annulateurs de u , c’est un sous espace
vectoriel et un idéal de K[X].
Imφu = {P (u) / P ∈ K[X]} = K[u] est une sous algèbre commutative de L (E).
Lemme :
Soient u ∈ L (E) et P ∈ K[X]. Si λ est valeur propre de u alors P (λ) est valeur propre de P (u).
Preuve :
Soit λ une valeur propre de u, il existe x 6= 0E tel que u(x) = λx.
On a u2 (x) = u(λx) = λ2 x, . . . , uk (x) = λk x, . . . , un (x) = λn x.
Soit P = an X n + · · · + a1 X + a0 ∈ K[X].
On a P (u)(x) = (an un + · · · + a1 u + a0 IdE )(x) = an λn x + · · · + a1 λx + a0 x = P (λ)x avec x 6= 0E .
Donc P (λ) est valeur propre de P (u).
Proposition :
Soient u ∈ L (E) et P ∈ K[X].
Si P est un polynôme annulateur de u alors les valeurs propres de u sont des racines de P .
Preuve :
Soit P un polynôme annulateur de u et λ une valeur propre de u.
On a P (λ) valeur propre de P (u) = 0̃ donc P (λ) = 0.
! ! Attention : Des racines d’un polynôme annulateur peuvent ne pas être valeur propre.
Exemples :
1) Si p est une projection vectorielle alors X 2 −X = X(X −1) est annulateur de p et donc Sp(p) ⊂ {0, 1}.
2) 0 est la seule valeur propre d’un endomorphisme nilpotent.
En effet, soit u ∈ L (E) nilpotent. Il existe p ∈ N∗ tel que up = 0̃.
Le plynôme X p est annulateur de u et donc Sp(u) ⊂ {0}.
L’endomorphisme u ne peut être injectif (car up ne l’est pas) et donc 0 ∈ Sp(u).
Par suite Sp(u) = {0}.
2- Polynômes d’une matrice carrée :
Soit n ∈ N∗ .
Définition :
Soit A ∈ Mn (K).
A0 = In , ∀ k ≥ 1 , Ak = Ak−1 × A = A × Ak−1 .
X
p
Soit P ∈ K[X] , P = a0 + a1 X + · · · + ap X =
p
ak X k .
k=0
X
p
On définit la matrice P (A) = a0 In + a1 A + · · · + ap A =
p
ak Ak .
k=0
P (A) ∈ Mn (K) , P (A) est appelé polynôme de matrice A.
Exemples :
1) P = 2X 2 − X + 2 , A ∈ Mn (K).
P (A) = 2A2 − A + 2 In .
λ (0)
Xp
1
2) Soient P = k
ak X , D = ..
. ∈ Mn (K).
k=0
(0) λn
ALGEBRE 2eme MP (Réduction) page 31 © Hamed Hassine
X
p
ak λk1
(0)
λk1
(0)
Xp
X
p
k=0
. ...
=
k .
P (D) = ak D = ak .
k=0 k=0
λkn X
p
(0) (0) k
ak λ n
k=0
P (λ1 ) (0)
=
..
.
(0) P (λn )
λ1 ⋆
3) Soient P ∈ K[X] , T =
...
∈ Mn (K).
(0) λn
λk1 ⋆′
On vérifie par récurrence que : ∀k ∈ N , T k =
..
.
(0) λkn
P (λ1 ) ⋆”
Puis par linéarité, P (T ) =
...
(0) P (λn )
4) On a : ∀P ∈ K[X] , M ∈ Mn (K) , P ( M ) = t P (M ).
t
En effet, ∀k ∈ N , (t M )k = t (M k ) , puis on conclut par linéarité.
Définition : Polynôme annulateur d’une matrice
Soit M ∈ Mn (K). On appelle polynôme annulateur de M tout polynôme P ∈ K[X] vérifiant P (M ) = 0.
Exemples :
1. Le polynôme nul annule toute matrice .
!
a b
2. Soit M = ∈ M2 (R).
c d
On vérifie que P = X 2 − (a + d)X + (ad − bc) est annulateur de M .
λ1 (0)
3. P = (X − λ1 ) . . . (X − λn ) est annulateur de D =
. .. ∈ Mn (K).
(0) λn
4. Si u ∈ L (E) et M = MB (u), alors les polynômes annulateurs de M et u se correspondent.
Propriétés :
Soient P, Q ∈ K[X] , A ∈ Mn (K) , alors :
1. (P Q)(A) = P (A) × Q(A) = Q(A) × P (A)
2. (P + Q)(A) = P (A) + Q(A) = Q(A) + P (A)
3. ∀λ ∈ K , (λP )(A) = λ (P (A))
Exemple :
X 3 − 2X + 1 = (X − 1)(X 2 + X − 1) ; A3 − 2A + In = (A − In )(A2 + A − In ).
Corollaire :
φM : K[X] −→ Mn (K)
Soit M ∈ Mn (K). L’application est un morphisme de K-algèbre.
P 7−→ P (M )
ALGEBRE 2eme MP (Réduction) page 32 © Hamed Hassine
Remarques :
ker φM = {P ∈ K[X] / P (M ) = 0} est l’ensemble des polynômes annulateurs de M , c’est un sous
espace vectoriel et un idéal de K[X].
ImφM = {P (M ) / P ∈ K[X]} = K[M ] est une sous algèbre commutative de Mn (K).
Proposition :
Si A, B ∈ Mn (K) sont semblables alors A et B ont les mêmes polynômes annulateurs.
Proposition :
Soient M ∈ Mn (K) et P ∈ K[X].
Si P est un polynôme annulateur de M alors les valeurs propres de M sont des racines de P .
Exemple :
Soit A ∈ M3 (R) vérifiant A3 = I3 . Le polynôme X 3 − 1 est annulateur de A.
- Dans R : X 3 − 1 = (X − 1)(X 2 + X + 1) , donc SpR (A) ⊂ {1}.
Or d◦ χA = 3 impair, donc χA admet au moins une racine réelle, alors SpR (A) 6= ∅.
D’où SpR (A) = {1}.
- Dans C : X 3 − 1 = (X − 1)(X − j)(X − j 2 ) , donc SpC (A) ⊂ {1, j, j 2 }.
Puisque 1 est valeur propre et puisque les valeurs propres de A sont deux à deux conjuguées, alors :
SpC (A) = {1} ou SpC (A) = {1, j, j 2 }.
On en déduit tr(A) = 3 ou tr(A) = 0 et det A = 1 ( car χA est scindé et donc trigonalisable)
3- Polynômes annulateurs en dimension finie :
Soit E un K-espace vectoriel de dimension n ∈ N∗ .
Théorème de Cayley Hamilton :
Soit u ∈ L (E) alors χu (u) = 0̃.
Soit A ∈ Mn (K) alors χA (A) = 0.
Conséquences :
Soit u ∈ L (E), χu (X) = X n − tr(u)X n−1 + · · · + (−1)n det u.
χu (u) = 0̃ ⇔ un − tr(u)un−1 + · · · + (−1)n det u IdE = 0̃
⇔ un = tr(u)un−1 − · · · − (−1)n det u IdE .
Donc un ∈ Vect(IdE , u, . . . , un−1 )
1) ∀p ≥ n , up ∈ Vect(IdE , u, . . . , un−1 )
2) ∀p ≥ n , Ap ∈ Vect(In , A, . . . , An−1 ) avec A ∈ Mn (K).
Application : Le calcul de Ap pour p ∈ N
On effectue la division euclidienne de X p par χA .
X p = χA .Q + R avec d◦ R < n.
Ap = χA (A).Q(A) + R(A) ⇒ Ap = R(A) avec d◦ R < n.
3) Si u ∈ GL(E) alors det u 6= 0.
χu (u) = 0̃ ⇔ un − tr(u)un−1 + · · · + a1 u + (−1)n det u IdE = 0̃
⇒ u ◦ [u
"
n−1
− tr(u) un−2 + · · · + a1 IdE ] = (−1)n+1 det
# u IdE
(−1) n+1
⇒u◦ un−1 − tr(u) un−2 + · · · + a1 IdE = IdE
det u
(−1)n+1
⇒ u−1 = un−1 − tr(u) un−2 + · · · + a1 IdE .
det u
4) De même si A ∈ GLn (K) alors det A 6= 0.
(−1)n+1
χA (A) = 0 ⇒ A−1 = An−1 − tr(A) An−2 + · · · + a1 In .
det A
ALGEBRE 2eme MP (Réduction) page 33 © Hamed Hassine
Théorème - Définition :
Pour tout u ∈ L (E), il existe un unique polynôme unitaire Πu vérifiant :
1. Πu est annulateur de u (Πu (u) = 0̃)
2. ∀P ∈ K[X] , P (u) = 0̃ ⇒ Πu /P .
Ce polynôme Πu est appelé polynôme minimal de l’endomorphisme u.
Cet énoncé se transpose aux matrices A ∈ Mn (K) ce qui définit le polynôme minimal ΠA .
Preuve :
Existence
::::::::::::
: Considérons I = {P ∈ K[X] / P (u) = 0̃}.
I est un idéal de K[X], alors il existe Q ∈ K[X] tel que I = QK[X].
Puisque χu ∈ I, alors I 6= {0} et donc Q 6= 0.
1
Notons λ le coefficient dominant de Q. Considérons Πu = Q .
λ
Le polynôme Πu est unitaire et vérifiant I = Πu K[X].
Unicité : Supposons Πu et Π˜u solutions.
::::::::::
Puisque Π˜u (u) = 0̃ alors Πu /Π˜u . De même Πu (u) = 0̃ alors Π˜u /Πu .
Donc Πu et Π˜u sont associés (Πu = α Π˜u ), or Πu et Π˜u sont unitaires, alors Πu = Π˜u .
Remarques :
- Le polynôme Πu est non constant.
- Πu est l’unique polynôme unitaire de degré minimal (le plus petit possible) qui annule u.
Exemples :
1. Polynôme minimal de u = λ IdE :
X − λ annule u et donc Πu /X − λ, puisque Πu est unitaire non constant on obtient Πu = X − λ.
2. Polynôme minimal d’une projection p tels que p 6= 0̃ et p 6= IdE .
On a p2 = p, donne X 2 − X est annulateur de p, alors Πp /X(X − 1).
Puisque Πp est unitaire non constant alors Πp = X ou Πp = X − 1 ou Πp = X(X − 1).
Comme p 6= 0̃ et p 6= IdE , alors les cas Πp = X ou Πp = X − 1 sont à exclure.
D’où Πp = X(X − 1).
!
1 1
3. Polynôme minimal de A = ∈ M2 (R).
−2 4
χA = X 2 − 5X + 6 = (X − 2)(X − 3) est annulateur de A, donc ΠA /χA
Par conséquent, ΠA = X − 2 ou ΠA = X − 3 ou ΠA = (X − 2)(X − 3).
Les cas ΠA = X − 2 ou ΠA = X − 3 sont à exclure, d’où ΠA = (X − 2)(X − 3).
1 0 0
4. Polynôme minimal de D = 0 1 0 ∈ M2 (R).
0 0 2
χD = (X − 1) (X − 2) et ΠD = (X − 1)(X − 2)
2
Théorème :
Les valeurs propres de u ∈ L (E) (resp A ∈ Mn (K)) sont exactement les racines de son polynôme
minimal.
Preuve :
Les valeurs propres de u sont des racines de Πu car Πu est annulateur de u.
Inversement, si λ est racine de Πu alors λ est aussi racine de χu , donc λ est valeur propre de u.
ALGEBRE 2eme MP (Réduction) page 34 © Hamed Hassine
Conséquence :
Y
Le polynôme (X − λ) divise Πu .
λ∈Sp(u)
Remarques :
Soit u ∈ L (E). Posons d = deg(Πu ), on a d ≤ dim E car Πu divise χu .
On écrit Πu = X d + ad−1 X d−1 + · · · + a1 X + a0 .
Πu (u) = 0̃ ⇔ ud = −ad−1 ud−1 − · · · − a1 u − a0 IdE Donc ud ∈ Vect(IdE , u, . . . , ud−1 )
1) ∀p ≥ d , up ∈ Vect(IdE , u, . . . , ud−1 )
2) ∀p ≥ d , Ap ∈ Vect(In , A, . . . , Ad−1 ) avec A ∈ Mn (K).
Application : Le calcul de Ap pour p ∈ N
On effectue la division euclidienne de X p par ΠA .
X p = ΠA .Q + R avec d◦ R < d.
Ap = ΠA (A).Q(A) + R(A) ⇒ Ap = R(A) avec d◦ R < d ≤ n.
3
−2 3 3
5 2 3 5 53 53
−5 5
Exemple : Soit A = 5
− 3 − 3 12 2
5
5 5 5 5
−5 −5 5 5
3 3 2 12
χA = (X − 1) (X − 2) ; ΠA = (X − 1)(X − 2) .
2 2
X p = (X − 1)(X − 2)Q + (2p − 1)X + (2 − 2p ) ⇒ Ap = (2p − 1) A + (2 − 2p ) I4 .
Théorème :
Soit u ∈ L (E), si d = deg(Πu ) alors la famille (IdE , u, . . . , ud−1 ) est une base de K[u].
Ce résultat se transpose aux matrices carrées.
Preuve :
C’est clair que Vect(IdE , u, . . . , ud−1 ) ⊂ K[u].
Inversement, soit P ∈ K[X].
Par division euclidienne, on peut écrire P = Πu Q + R avec degR < d.
On a alors P (u) = Πu (u) ◦ Q(u) + R(u) = R(u) ∈ Vect(IdE , u, . . . , ud−1 ).
Ainsi K[u] ⊂ Vect(IdE , u, . . . , ud−1 ) , puis l’égalité.
Montrons que la famille (IdE , u, . . . , ud−1 ) est libre.
Soient a0 , a1 , . . . , ad−1 ∈ K tels que a0 IdE + a1 u + · · · + ad−1 ud−1 = 0̃.
Pour P = a0 + a1 X + · · · + ad−1 X d−1 , on a P (u) = 0̃, donc Πu /P .
Or degP < degΠu , alors P = 0, par suite a0 = a1 = · · · = ad−1 = 0.
Ainsi, la famille (IdE , u, . . . , ud−1 ) est libre et c’est une base de K[u].
Corollaire :
Si u ∈ L (E) et A ∈ Mn (K) alors dim K[u] ≤ dim E et dim K[A] ≤ n.
4- Réduction et polynômes annulateurs :
Soit E un K-espace vectoriel.
a- Lemme de décomposition des noyaux :
Lemme de décomposition de noyaux :
Soient P, Q ∈ K[X] et u ∈ L (E).
Si P et Q sont premiers entre eux alors ker(P Q)(u) = ker P (u) ⊕ ker Q(u).
Preuve :
On a ker P (u) ⊂ ker(P Q)(u).
ALGEBRE 2eme MP (Réduction) page 35 © Hamed Hassine
En effet : Soit x ∈ ker P (u)
(P Q)(u)(x) = (P (u) ◦ Q(u))(x) = (Q(u) ◦ P (u))(x) = Q(u)(P (u)(x)) = Q(u)(0) = 0.
De même ker Q(u) ⊂ ker(P Q)(u).
Alors ker P (u) + ker Q(u) ⊂ ker(P Q)(u).
P ∧ Q = 1 ⇒ ∃R, S ∈ K[X] / P R + QS = 1 (d’après lemme de Gauss).
⇒ P (u) ◦ R(u) + Q(u) ◦ S(u) = IdE .
Soit x ∈ ker(P Q)(u).
x = P (u) ◦ R(u)(x) + Q(u) ◦ S(u)(x) = x1 + x2 où x1 = P (u) ◦ R(u)(x) et x2 = Q(u) ◦ S(u)(x).
Q(u)(x1 ) = Q(u) (P (u) ◦ R(u)(x)) = Q(u) ◦ P (u) ◦ R(u)(x) = R(u) ◦ P (u) ◦ Q(u)(x)
= R(u) ((P (u) ◦ Q(u)) (x)) = R(u) ((P Q)(u)(x)) = R(u)(0) = 0.
P (u)(x2 ) = P (u) (Q(u) ◦ S(u)(x)) = P (u) ◦ Q(u) ◦ S(u)(x) = S(u) ◦ P (u) ◦ Q(u)(x)
= S(u) ((P (u) ◦ Q(u)) (x)) = S(u) ((P Q)(u)(x)) = S(u)(0) = 0.
⇒ x1 ∈ ker Q(u) , x2 ∈ ker P (u) et par suite x ∈ ker P (u) + ker Q(u).
D’où ker(P Q)(u) ⊂ ker P (u) + ker Q(u).
Donc ker(P Q)(u) = ker P (u) + ker Q(u).
Soit x ∈ ker P (u) ∩ ker Q(u).
On a P (u) ◦ R(u) + Q(u) ◦ S(u) = IdE .
⇒ x = R(u) ◦ P (u)(x) + S(u) ◦ Q(u)(x) = R(u)(P (u)(x)) + S(s)(Q(u)(x)) = R(u)(0) + S(u)(0)
= 0 + 0 = 0.
Alors ker P (u) ∩ ker Q(u) = {0}.
Conclusion : ker(P Q)(u) = ker P (u) ⊕ ker Q(u).
Corollaire :
Soit r ≥ 2 , P1 , . . . , Pr ∈ K[X] deux à deux premiers entre eux.
Soit u ∈ L (E)!, alors : ker(P1 . . . Pr )(u) = ker P1 (u) ⊕ . . . ker Pr (u)
Y r Mr
⇒ ker Pj (u) = ker Pj (u).
j=1 j=1
Preuve : Raisonnement par récurrence sur r.
Pour r = 2 : P1 ∧ P2 = 1 ⇒ ker(P1 P2!
)(u) = ker P1 (u) ⊕ ker P2 (u).
Y
r−1 M
r−1
Soit r ≥ 3, supposons que ker Pj (u) = ker Pj (u).
j=1 j=1
(P1 . . . Pr )(u) = ((P1 × · · · × Pr−1 ) × Pr )(u) ; Pi ∧ Pj = 1 si i 6= j ⇒ (P1 × · · · × Pr−1 ) ∧ Pr = 1
M
r−1
⇒ ker((P1 × · · · × Pr−1 ) × Pr )(u) = ker(P1 × · · · × Pr−1 )(u) ⊕ ker Pr (u) = ker Pj (u) ⊕ ker Pr (u)
! j=1
Y
r M
r
⇒ ker Pj (u) = ker Pj (u).
j=1 j=1
Rappel :
Deux polynômes de K[X] sont premiers entre eux si, et seulement si, ils n’ont pas de racines complexes
en commun.
Exemples :
1. Soit p ∈ L (E) un projecteur , donc p2 = p ◦ p = p.
Q = X 2 − X = X(X − 1) , (X − 1) ∧ X = 1
Q(p) = p2 − p = 0̃ ⇒ E = ker p ⊕ ker(p − IdE ) . ( ker(p − IdE ) = Imp )
ALGEBRE 2eme MP (Réduction) page 36 © Hamed Hassine
2. Soit s ∈ L (E) une symétrie , donc s2 = s ◦ s = IdE .
Q = X 2 − 1 = (X − 1)(X + 1) , (X − 1) ∧ (X + 1) = 1
Q(s) = s2 − IdE = 0̃ ⇒ E = ker(s − IdE ) ⊕ ker(s + IdE ) .
3. Soient E un K-espace vectoriel de dimension finie n ∈ N∗ et u ∈ L (E) tels que u2 −2u−8IdE = 0̃.
P = X 2 − 2X − 8 = (X + 2)(X − 4)
P (u) = 0̃ , (X + 2) ∧ (X − 4) = 1 ⇒ E = ker(u + 2 IdE ) ⊕ ker(u − 4 IdE ).
Notons dim ker(u + 2 IdE ) = p alors dim ker(u − 4 IdE ) = n − p.
- Si p = 0 alors u = 4 IdE .
- Si p = n alors u = −2 IdE .
- Si 0 < p < n :
Soit B1 = (e1 , . . . , ep ) une base de ker(u + 2 IdE ) .
Soit B2 = (ep+1 , . . . , en ) une base de ker(u − 4 IdE ).
B = B1 ∪ B2 est une base de E.
u(ej ) = −2 ej ∀1 ≤ j ≤ p ; u(ej ) = 4 ej ∀p + 1 ≤ j ≤ n.
p n−p
←−−−−−−−−−−−−→ ←−−−−−−−−−−−−→
−2 (0) 0 ...
0
..
... ..
.
.
(0) −2 0 . . . 0
MB (u) =
0 ... 0 4 (0)
.. ..
. .
..
.
0 ... 0 (0) 4
4. Soient λ1 , . . . , λm les valeurs propres deux à deux distincts de u ∈ L (E).
Les polynômes X − λk étant deux à deux premiers entre eux, on retrouve que les sous espaces
propres d’un endomorphisme sont en somme directe.
b- Diagonalisabilité :
Théorème :
Soit u ∈ L (E). Les assertions suivantes sont équivalentes :
(i) u est diagonalisable dans K.
(ii) u annule un polynôme scindé à racines simples dans K.
(iii) Le polynôme minimale de u est scindé à racines simples dans K.
Y
De plus Πu = (X − λ).
λ∈Sp(u)
Ce résultat se transpose aux matrices carrées.
Preuve :
Notons λ1 , . . . , λr ∈ K les valeurs propres de u.
(i)⇒(ii) :
Mr
Supposons u diagonalisable, alors on a E = Eλk (u).
k=1
B de E adaptée à
Dans une base cette décomposition, la matrice de u est :
λ1 Iα1 (0)
A = MB (u) =
. .. avec αk = dim Eλ (u).
k
(0) λr Iαr
ALGEBRE 2eme MP (Réduction) page 37 © Hamed Hassine
Y
r
Soit P = (X − λ1 ) × · · · × (X − λr ) = (X − λk ).
k=1
La matrice de P (u) dans la base B est :
P (λ1 )Iα1 (0) (0) (0)
P (A) = MB (u) =
... =
... =0
(0) P (λr )Iαr (0) (0)
Donc u annule le polynôme P qui est scindé à racines simples.
(ii)⇒(iii) :
Si u annule un polynôme scindé à racines simples alors Πu le divise et par suite Πu lui même est scindé
à racines simples.
(iii)⇒(i) :
Supposons Πu scindé à racines simples. Puisque les racines de Πu sont exactement les valeurs propres
Y r
de u, alors Πu = (X − λk ).
k=1
Or les facteurs (X − λk ) étant premier entre eux, le lemme de décomposition des noyaux donne :
Mr M r
E = ker Πu (u) = ker(u − λk IdE ) = Eλk (u).
k=1 k=1
D’où u est diagonalisable.
Exemples :
1. Diagonalisation de T : Mn (R) → Mn (R) définie par T (M ) = t M .
On a T 2 = Id donc X 2 − 1 annule T .
X 2 − 1 = (X − 1)(X + 1) est scindé à racines simples, alors T est diagonalisable.
De plus : Sp(T ) ⊂ {−1, 1} , E1 (T ) = ker(T − Id) = Sn (R) , E−1 (T ) = ker(T + Id) = An (R).
n(n−1)
On en déduit tr T = dim Sn (R) − dim An (R) = n et det T = (−1)dim An (R) = (−1) 2 .
En fait l’endomorphisme T est la symétrie par rapport à Sn (R) et parallèlement à An (R)
2. Soit A ∈ Mn (R) telle que A2 + In = 0.
Montrons que n est pair et calculons det A et tr A .
A annule X 2 + 1 = (X − i)(X + i) qui est scindé à racines simples dans C
donc A est diagonalisable dans Mn (C).
De plus SpC (A) ⊂ {i, −i}.
Or SpC (A) 6= ∅ et les valeurs propres de A sont deux à deux conjuguées car A ∈ Mn (R)
donc SpC (A) = {i, −i}.
Comme χA ∈ R[X], alors m(i) = m(−i), donc dim Ei (A) = dim E−i (A).
Notons p cette valeur commune. !
i Ip O
Alors A est semblable dans Mn (C) à .
O −i Ip
On en déduit n = 2p , det A = 1 et tr A = 0.
3. Soient E un K-espace
( vectoriel de dimension finie n ∈ N∗ et u ∈ L (E) tels que
(u − 2IdE )3 ◦ (u + IdE ) = 0̃ .
.
(u − 2IdE )2 ◦ (u + IdE ) 6= 0̃
u est - il diagonalisable ?
Réponse :
(u − 2IdE )3 ◦ (u + IdE ) = 0̃ ⇒ Sp(u) ⊂ {−1, 2}.
Si u est diagonalisable alors Q = (X + 1)(X − 2) est un polynôme annulateur de u.
ALGEBRE 2eme MP (Réduction) page 38 © Hamed Hassine
⇒ Q(u) = 0̃ ⇒ (u − 2IdE ) ◦ (u + IdE ) = 0̃ ⇒ (u − 2IdE )2 ◦ (u + IdE ) = 0̃ Absurde.
D’où u n’est pas diagonalisale.
Lemme :
Si F est un sous espace vectoriel stable par u ∈ L (E) alors F est stable par tout polynôme en u et
pour tout P ∈ K[X] , P (u)|F = P (u|F ).
Preuve :
Puisque F est stable par u, alors F est aussi stable par uk pour tout k ∈ N∗ .
De plus pour tout k ∈ N∗ , (u|F k = (uk )|F .
Par combinaison linéaire, pour tout P ∈ K[X] , P (u)|F = P (u|F ).
Proposition :
Si F est un sous espace vectoriel stable par u ∈ L (E) alors Πu|F divise Πu .
Preuve : Πu (u|F ) = Πu (u)|F = 0̃|F alors Πu|F divise Πu .
Théorème :
Si u ∈ L (E) est diagonalisable et si F est un sous espace vectoriel stable par u alors u|F est
diagonalisable.
Preuve :
Si u est diagonalisable alors Πu est un polynôme scindé à racines simples, comme Πu|F divise Πu ,
donc Πu|F est un polynôme scindé à racines simples, d’où u|F est diagonalisable.
Corollaire :
Soient u ∈ L (E) diagonalisable sur K et F est un sous espace vectoriel de E, alors :
F est stable par u si, et seulement si, il existe une base de F formée par des vecteurs propres de u.
Preuve :
Si F est stable par u alors u|F est diagonalisable donc F admet une base de vecteurs propres de u|F
qui sont aussi vecteurs propres de u.
Inversement, si (e1 , . . . , ep ) est une base de F formée par des vecteurs propres de u,
alors pour tout j ∈ J1, pK , u(ej ) ∈ Vect(ej ) ⊂ F et donc F est stable par u.
Exemple :
Soient u, v ∈ L (E) diagonalisables. Montrons que si u et v commutent alors il existe une base de E
formée de vecteurs propres communs à u et v.
M
Réponse : u est diagonalisable, alors E = Eλ (u).
λ∈Sp(u)
Pour λ ∈ Sp(u), Eλ (u) est stable par v, or v est diagonalisable donc v|Eλ (u) l’est aussi.
Ainsi, il existe une base Bλ de Eλ (u) formée de vecteurs propres de v dont ses éléments sont aussi des
vecteurs propres de u.
[
En posant B = Bλ , on forme une base de E formée de vecteurs propres communs à u et v.
λ∈Sp(u)
Matriciellement, on a obtenu que si A, B ∈ Mn (K) sont diagonalisables et commutent alors il existe
P ∈ GLn (K) vérifiant P −1 AP et P −1 BP sont diagonales.
c- Trigonalisabilité :
Théorème : Soit u ∈ L (E). Les assertions suivantes sont équivalentes :
(i) u est trigonalisable dans K .
(ii) u annule un polynôme scindé dans K[X].
(iii) Le polynôme minimale de u est scindé dans K[X].
ALGEBRE 2eme MP (Réduction) page 39 © Hamed Hassine
De plus, l’espace E est alors la somme directe de sous espaces stables par u sur chacun des quels u
induit la somme d’une homothétie et d’un endomorphisme nilpotent.
Ce résultat se transpose aux matrices carrées.
Preuve :
(i)⇒(ii) :
Puisque u est trigonalisable, alors u annule son polynôme caractérestique qui est scindé dans K[X].
(ii)⇒(iii) :
Si u annule un polynôme P scindé dans K[X], alors Πu divise P , donc Πu est scindé dans K[X].
(iii)⇒(i) :
Yp
Supposons le polynôme minimal Πu de u est scindé dans K[X]. On peut écrire Πu = (X − λk )αk ,
k=1
avec λ1 , . . . , λp les valeurs propres distincts de u.
M
p
Par le lemme de décomposition des noyaux, on obtient E = ker Πu (u) = ker (u − λk IdE )αk .
k=1
Soit k ∈ J1, pK. Posons Fk = ker (u − λk IdE )αk .
Fk est stable par u car u et (u − λk IdE )αk commutent.
Soit nk = u|Fk − λk IdFk ∈ L (Fk ).
Pour tout x ∈ Fk = ker (u − λk IdE )αk , nαk k (x) = (u|Fk − λk IdFk )αk (x) = (u − λk IdE )αk (x) = 0E .
Alors nαk k = 0̃ et par suite nk est nilpotent.
D’où u|Fk = λk IdFk + nk : somme de l’homothétie λk IdFk et l’endomorphisme nilpotent nk .
0 ⋆
Puisque nk est nilpotent, alors il existe une base Bk de Fk tels que Nk = MBk (nk ) = . . . .
(0) 0
λk ⋆
Par suite Tk = MBk (u|Fk ) = λk Irk + Nk =
..
. : triangulaire supérieur. (rk = dim Fk )
(0) λk
[p
Posons B = Bk , alors B est une base de E .
k=1
T1 O ... O
..
O ..
. .
T 2
De plus MB (u) = . .. .. : triangulaire supérieur.
.. . . O
O . . . O Tp
D’où u est trigonalisable.
Remarque :
Les espaces ker (u − λk IdE )αk s’appellent espaces caractérestiques de l’endomorphisme u.
Corollaire :
Si A ∈ Mn (K) est tigonalisable alors A est semblable à une matrice diagonale par blocs où chaque
bloc diagonal est de la forme λ Ir + N avec N une matrice nilpotente.
Corollaire :
Si u ∈ L (E) est trigonalisable et si F est un sous espace vectoriel stable par u alors u|F est
trigonalisable.
Preuve :
On a Πu est scindé, or Πu|F divise Πu , donc Πu|F est scindé, et par suite u|F est trigonalisable.
ALGEBRE 2eme MP (Réduction) page 40 © Hamed Hassine