0% ont trouvé ce document utile (0 vote)
37 vues18 pages

Red Onecolumn

Transféré par

Zakaria Asraoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
37 vues18 pages

Red Onecolumn

Transféré par

Zakaria Asraoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Réduction des endomorphismes

Table des matières

K désigne R ou C, E un K-espace vectoriel .

1 Sous espaces stables par un endomorphisme

Définition 1 :
Soit u ∈ L(E), un sous espace vectoriel F de E est dit stable par u (ou u-stable) si

u(F ) ⊂ F

Proposition 1 :
Si f ◦ g = g ◦ f alors Kerg et Img sont stables par f .

Preuve
x ∈ Kerg, g(f (x)) = f (g(x)) = f (0) = 0, donc f (x) ∈ Kerg.
y ∈ Img, il existe x ∈ E, g(x) = y, dans ce cas
f (y) = f (g(x)) = g(f (x)) ∈ Img.

Exercice 1. H = Kerϕ un hyperplan de E.


Montrer H est stable par f si, et seulement si il existe α ∈ K, ϕ ◦ f = αϕ
Proposition 2 :
On suppose que E est de dimension finie et que E = F ⊕ G,
dim F = p, dim G = q soit β une base de E adaptée à cette décomposition.
Si M la matrice de u dans cette base alors :  
A B
F est stable par u si, et seulement si M s’écrit de la forme : , où
0 C
A ∈ Mp (K), C ∈ Mq (K).
Dans ce cas : det M = (det A) (det C).
Preuve
Une telle base β s’ecrit β = (e1 , .., ep , .., en ) avec F = vect(e1 , .., ep ).
F est stable par u si et seulement si ∀j ∈ |[1, p]|, u(ej) ∈ vect(e1 , .., ep ), ce que traduit exactement la forme de la matrice.

n
Généralisation : On suppose que E = ⊕ Ek , alors chaque Ek est stable par u si, et seulement si M , la matrice de
k=1  
A1 0 ... 0
 0 A2 ... 0 
u dans une base β = ∪βk ”adaptée” à cette somme est de la forme :  . . .
 
 .. ..
0 . .. 
0 0 . . . An
Yn
Dans ces conditions, si on note uk la restriction de u à Ek , alors Ak est la matrice de uk dans βk et det M = det Ak .
1

[Link]@[Link]
Exercice 2. p un projecteur de rang r d’un espace vectoriel E de dimension finie égale à n.
f ∈ L(E), montrer que f commute à p si, et seulement si Imp et Kerp sont stables par f .
En déduire la dimension de l’espace vectoriel commutant de p :

C(p) = {f ∈ L(E)/ f ◦ p = p ◦ f }

2 Polynôme d’endomorphisme ou de matrice

2.1 Polynôme d’endomorphisme

Définition 2 :
Soit u un endomorphisme de E.
Xp
Soit P = a0 + a1 X + . . . ap X p = ak X k .
k=0
On note
Xp
P (u) = a0 IdE + a1 u + a2 u2 + . . . ap up = ak uk
k=0
0 p
où u = IdE et u = u ◦ u ◦ . . . ◦ u (p fois).
On dit que : P (u) est un polynôme de l’endomorphisme u.
Par exemple, si P = X p , alors P (u) = up . En particulier
si P = 1 alors P (u) = IdE .

L(E) est une K-algèbre l’application :


ϕ : K[X] → L(E)
n
X Xp
P = ak X k → P (u) = ak uk
k=0 k=0

est un morphisme d’algèbre.


– 1(u) = IE
– ∀α, β ∈ K, ∀P, Q ∈ K[X], (αP + βQ)(u) = αP (u) + βQ(u).
– ∀P, Q ∈ K[X], (P Q)(u) = P (u) ◦ Q(u). et donc les endomorphismes P (u) et Q(u) commutent.
Proposition 3 :
Si P divise Q, alors KerP (u) ⊂ KerQ(u).

Preuve
P/Q, il existe R ∈ K[X] tel que : Q = RP et donc Q(u) = R(u) ◦ P (u), ainsi :

P (u)(x) = 0 =⇒ Q(u)(x) = R(u)(P (u)(x)) = R(u)(0) = 0

Proposition 4 :
u ∈ L(E), ∀P ∈ K[X], KerP (u) et ImP (u) sont stables par u.

Preuve

[Link]@[Link]
Vient du fait P (u) commute à u.

Proposition 5 :
Kerϕ : ensemble des polynômes annulateurs de u est un idéal de K[X].
Imϕ = K[u] est une sous algèbre de L(E).
Si dim E est fini alors u admet un polynôme minimal.
Preuve
E est de dimension finie, il en est de même pour L(E), K[u] qui est une sous algèbre de L(E), donc K[u] est de
dimension finie, d’où l’existence de πu .

Proposition 6 :
E un K-ev, u ∈ L(E) admettant un pomi πu , si F est un sous espace vectoriel de E u-stable, v = u/F , alors πv /πu .

Preuve
Vient du fait que πu sera aussi un polynôme annulateur de v.

2.2 Polynôme de matrice


De même, on définit polynôme de matrice comme suit
Xn Xn
P = ak X k , P (M ) = ak M k
k=0 k=0
Mn (K) est une K-algèbre l’application :
ϕM : K[X] → Mn (K)
Xn Xp
P = ak X k → P (M ) = ak M k
k=0 k=0
est un morphisme d’algèbre.
– 1(M ) = In
– ∀α, β ∈ K, ∀P, Q ∈ K[X], (αP + βQ)(M ) = αP (M ) + βQ(M ).
– ∀P, Q ∈ K[X], (P Q)(M ) = P (M )Q(M ), et par suite deux polynôme de la même matrice commutent.

Remarque 1 :
β une base de E supposé de dimension fini.

φ : L(E) → Mn (K)
u → MatB (u)
est un isomorphisme d’algèbre.
Xn Xn
M = MatB (u), P = ak X k , P (u) = ak uk
k=0 k=0
MatB P (u) = P (M ) et donc P (u) = 0 si, et seulement si P (M ) = 0 ainsi πu = πM

Propriété 1 :
πM = πt M et si A et B sont semblables alors πA = πB .

Proposition 7 :
 
A C
Si M = est une matrice triangulaire par blocs, alors πA , πB divisent πM et πM divise πA πB .
0 B
C’est à dire :
ppcm(πA , πB )/πM /πA πB
Preuve

[Link]@[Link]
Par une petite récurrence on montre que M k à la forme suivante :
 k 
A Ck
Mk =
0 Bk

Par combinaison linéaire, on aura pour tout P ∈ K[X] il existe une matrice C(P ) de type (p, n − p) tel que :
 
P (A) C(P )
P (M ) =
0 P (B)

Par conséquent, en écrivant le fait que πM (M ) = 0, on aura : πM (A) = πM (B) = 0, le fait que πA , πB divisent πM en
sera une conséquence immédiate.   
0 C(πA ) πB (A) C(πB )
En plus (πA πB )(M ) = πA (M )πB (M ) = = 0, d’où le résultat.
0 πA (B) 0 0

Théorème 1 : Théorème de décomposition des noyaux


Si P = QR avec Q et R deux polynômes premiers entre eux alors :

KerP (u) = KerQ(u) ⊕ KerR(u)

En plus si P est un polynôme annulateur de u alors :

E = KerQ(u) ⊕ KerR(u)
Preuve
Soient U et V tels que U Q + V R = 1 (Bezout). On a déjà KerQ(u) ⊂ KerP (u) et KerR(u) ⊂ KerP (u). De plus on
a : U (u)Q(u) + V (u)R(u) = IE .
Soit x ∈ KerQ(u) ∩ KerR(u). On a
x = U (u)Q(u)(x) + V (u)P (u)(x) = 0 + 0 = 0, donc KerQ(u) ∩ KerR(u) = 0. Soit x ∈ KerP (u). On a encore x = x1 + x2 ,
avec x1 = V (u)R(u)(x) et
x2 = U (u)Q(u)(x). Mais alors
Q(u)(x1 ) = Q(u)V (u)R(u)(x) = V (u)(QR)(u)(x) = V (u)P (u)(x) = 0.
donc x1 ∈ KerQ(u). De même x2 ∈ KerR(u) et d’où le résultat.

Exemples 1 :
1. Si p est un projecteur, alors : E = Kerp ⊕ Ker(IE − p) = Kerp ⊕ Imp
2. Si s est une symétrie, alors : E = Ker(s − IE ) ⊕ Ker(s + IE )
 
1 2
3. u ∈ L(R2 ) tel que MatB = , montrer que :
2 1

E = Ker(u + I) ⊕ Ker(u − 3I)

Théorème 2 : Généralisation
Si (Pk )1≤k≤p est une famille de polynômes premiers entres eux deux à deux alors :
p
Y p
M
Ker( Pk )(u) = KerPk (u)
k=1 k=1

p
Y
Et si en plus Pk est un polynôme annulateur de u, alors :
k=1

p
M
E= KerPk (u)
k=1

Preuve
Pour p = 2, le résultat est vrai.
Supposons que le résultat vrai pour p − 1. Comme Pp et P1 ...Pp−1 sont premiers entre eux, le cas p = 2 nous donne :

KerP (u) = KerP1 ...Pp−1 (u) ⊕ KerPp (u)

[Link]@[Link]
puis grâce à l’hypothèse de récurrence KerP (u) = KerP1 (u) ⊕ ... ⊕ KerPp (u).

Exercice 3. Soient P et Q deux polynômes de KX]. Soit f un endomorphisme du K-espace vectoriel E. On pose
D = P ∧ Q ; M = P ∨ Q. Montrer que

KerM (f ) = KerP (f ) + KerQ(f ), KerD(f ) = KerP (f ) ∩ KerQ(f )

ImD(f ) = ImP (f ) + ImQ(f ), ImM (f ) = ImP (f ) ∩ ImQ(f )

3 Valeurs propres, vecteurs propres

3.1 Valeurs propres, vecteurs propres d’un endomorphisme

Définition 3 :
Soient u un endomorphisme de E et λ un élément de K, λ est dite valeur propre de u si Ker(u − λId) n’est pas
réduit au singleton {0}, et dans ce cas Eλ = Ker(u − λId) s’appelle le sous espace propre associé à la valeur propre
λ et les éléments non nuls de Ker(u − λId) s’appellent les vecteurs propres de u associés à la valeur propre λ.

Remarque 2 :
λ est une valeur propre de u si, et seulement si u − λId n’est pas injective et en dimension finie c’est équivalent à
det(u − λId) = 0.

Exemple 2 :
I un intervalle non trivial de R, soit ϕ : C ∞ (I, C) → C∞ (I, C); f → f 0 .
Déterminer les valeurs et vecteurs propres de f .
Soit λ ∈ C une valeur propre de ϕ, il existe f ∈ C 1 (I, C) non nulle telle que f 0 = λf .
f 0 = λf ⇐⇒ ∃c ∈ C, ∀t ∈ R : f (t) = c exp(tλ).
Par conséquent Sp(f ) = C et pour tout λ ∈ C :
Eλ (ϕ) = Cfλ ; fλ : t → exp(tλ).

Exemple 3 :
Déterminer les éléments propres de l’endomorphisme :
 ∞
C (R, R) −→ C ∞ (R, R)
φ:
f → f 00

Soit λ ∈ R. On cherche les fonctions non nulles f ∈ C ∞ (R, R) telles que f 00 = λf .


1. Si λ > 0, Eλ (φ) = vect(t → cosh(λt), t → sinh(λt)).
2. Si λ < 0, Eλ (φ) = vect(t → sin(λt), t → cos(λt)).
3. Si λ = 0, Eλ (φ) = vect(t → 1, t → t).
Donc Sp(φ) = R.

[Link]@[Link]
Proposition 8 :

1. Eλ (u) est un sous espace vectoriel de E stable par u, et les droites stables sont exactements les droites portées
par des vecteurs propres.
X
2. Si λ1 , ..., λp sont des valeurs propres distincts de u, alors la Eλi est directe.
De manière équivalente si e1 , .., ep sont des vecteurs propres associés à des valeurs propres distincts λ1 , ..., λp .
alors (e1 , ..., ep ) est libre.
3. Si f et g sont deux endomorphismes qui commutent alors tout sous espace propre de l’un est stable par l’autre.
4. Si λ est une valeur propre de u alors ∀P ∈ K[X], P (λ) est une valeur propre de P (u).
5. Si λ est une valeur propre de u et P un polynôme annulateur de u alors λ est une racine de P .
Preuve
1. Eλ (u) = Ker(u − λIE ), est stable par u car u − λIE commute à u.
X
2. Eλi (u) = Ker(u − λi IE ) = Ker(Qi (u)), les Qi étant premiers entre eux, d’après le lemme des noyaux la Eλi est
directe.
3. f et g commutent, il en sera de même pour g − λIE et f , et d’où le résultat.
4. Soit λ une valeur propre de u et x un vecteur propre associé. On a
∀k ∈ N, uk (x) = λk x et par combinaison linéaire on obtient :
∀P ∈ K[X], P (u)(x) = P (λ)x, d’où le résultat.
5. Si λ est une valeur propre de u et P un polynôme annulateur de u alors P (λ) est une valeur propre de P (u) = 0,
d’où P (λ) = 0.

Remarque 3 :
Il résulte de la propriété que si E est de dimension finie alors Sp(u) est fini.

Proposition 9 :
Si E est de dimension finie, alors Sp(u) est exactement l’ensemble des racines du polynôme minimal.

Preuve
On sait déja que si λ est une valeur propre de u, alors λ est racine de tout polynôme annulateur de u et en particulier
de πu .
Inversement soit λ une racine de πu et écrivons πu (X) = (X − λ)Q(X). Supposons que λ n’est pas valeur propre de u.
On a 0 = πu (u) = (u − λIE ) ◦ Q(u). Mais comme λ n’est pas valeur propre de u, u − λIE est injectif et donc Q(u) = 0.
Ceci impose que πu divise Q ce qui est impossible pour une question de minimalité.

Exemples 4 :
1. Soit p un projecteur non trivial, x2 − x et un polynôme annulateur de p, donc Sp(p) ⊂ {0, 1}.
Ker(p) 6= {0}, Ker(p−Id ) = Im(p) 6= {0}, donc Sp(p) = {0, 1}, et les sous espaces propres sont respectivement
Ker(p) et Im(p)
s + Id
2. Soit s une symétrie non triviale, en passant par le projecteur associé (ou un polynôme annulateur) p = ,
2
Sp(s) = {1, −1}.

Proposition 10 :
Si u est un endomorphisme d’un K-ev de dimension finie, alors u admet une droite ou un plan stable, et si K = C,
alors u admet toujours une droite stable.
Preuve
On raisonne sur le polynôme minimal, s’il admet une racine λ dans K, qui sera par la suite une valeur propre de u,
et donc une droite portée par un vecteur propre associé à λ est une droite stable.
Supposons maintenant que πu n’admet pas de racines dans K, soit Q un facteur irréductible de π, il sera par conséquent
de degré deux, soit R tel que π = QR, on aura : 0 = Q(u) ◦ R(u), si Q(u) est injectif, alors R(u) = 0, ce qui contredirait
la minimalité πu , et par conséquent KerQ(u) 6= {0}, soit alors e ∈ KerQ(u)\{0} en ecrivant Q = X 2 + aX + b, on aura

[Link]@[Link]
que : u2 (e) ∈ vect(e, u(e)) et par conséquent F = vect(e, u(e)) est un plan ou une droite stable par u. En fait c’est un
plan, parce que u n’admet pas dans ce cas de droites stables.

3.2 Valeurs propres, vecteurs propres d’une matrice.

Définition 4 :
Soient M ∈ Mn (K) et λ ∈ K.
λ est dite valeur propre de M s’il existe un vecteur colonne V non nul de Mn,1 (K) tel que M V = λV .
Un tel vecteur V est appelé vecteur propre de M pour la valeur propre λ.
L’ensemble des valeurs propres éventuelles de M dans K s’appelle spectre de M dans K et se note SpK (M).

Remarque 4 :
1. si u est un endomorphisme associé à M dans n’importe quelle base β de E alors les valeurs propres de M
sont exactement les valeurs propres de u et les vecteurs propres de M sont les vecteurs colonnes composantes
des vecteurs propres de u dans β.
2. λ est valeur propre de M ssi det(M − λIn ) = 0.

3.3 Polynôme caractéristique

Théorème définition 3 :
Soit M ∈ Mn (K), si on pose :
χM = det(M − XIn ), alors χM est polynôme de degré n et on a

χM = (−1)n X n + (−1)n−1 trMXn−1 + ... + det M


Preuve
Posons M = (aij ) et M − XIn = B = (bij ), on a
bij = aij si i 6= j et bii = aii − X

X
det(M − XIn ) = ε(σ)Πbσ(i)i
σ∈Sn
X
= Πni=1 bii + ε(σ)Πbσ(i)i
σ∈Sn \{Id}
X
= Πni=1 (aii − X) + ε(σ)Πbσ(i)i
σ∈Sn \{Id}

Si σ 6= Id, soit alors i0 tel que σ(i0 ) 6= i0 , posons j0 = σ(i0 ), on a aussi par injectivité de σ ; σ(j0 ) 6= j0 , et donc Πni=1 bσ(i)i
est un polynôme de degré ≤ n − 2.
Πni=1 (bii − X) est un polynôme de degré exactement n, son coeffcient dominant est (−1)n , et le coefficient de X n−1 est
Xn
(−1)n−1 bii = (−1)n−1 tr(M) et le coeffcient constant de χM est χM (0) = det M .
i=1

Remarque 5 :
En particulier pour n = 2, χM = X 2 − tr(M)X + det M

[Link]@[Link]
Exemple d’application 5 :
u un endomorphisme non homothétie d’un K espace vectoriel de dimension 2, montrer qu’il existe une base β de
E, tel la matrice de u dans β soit de la forme :
 
0 − det u
M=
1 tr(u)

En déduire que deux matrices non scalaires sont semblables si, et seulement si elles ont le même polynôme car-
actéristique.

Exercice 4. Matrice compagnon :


n
X
Si P = X n + ak X k , on appelle matrice compagnon de P , la matrice
k=0
 
0 0 . . . 0 −a0
 . . .. 

 1 0 . . −a1 

C(P ) = 
 .. . . .. .. 
0 . . . . 
.. . .
 
 .. 
 . . . 0 −an−1 
0 ... 0 1 −an

Montrer que χC(P ) = (−1)n P

Proposition 11 :
1. Si deux matrices sont semblables alors elles auront le même polynôme caractéristique.
2. Le spectre de M dans K est exactement l’ensemble des racines dans K de χM , et par conséquent SpK (M) est
fini et son cardinal est plus petit que n

Corollaire 1 :
Le spectre d’une matrice triangulaire ou diagonale est exactement l’ensemble des éléments diagonaux de la matrice.

Remarque 6 :
Le polynôme caractéristique et minimal d’une matrice ont les mêmes racines dans K, et different dans C par la
multiplicité des racines.

Exercice 5. Montrer que χM et πM ont les même facteurs irréductibles dans K[X].

Théorème définition 4 :
Soit E un espace vectoriel de dim n et u ∈ L(E).
Pour toute base β de E, det(MatB (u − XIn )) est indépendant de la base β choisie et s’appelle le polynôme car-
actéristique de u et se note χu .

Remarque 7 :
1. Si λ ∈ K alors χu (λ) = det(u − λIE ) et
λ valeur propre de u ssi χu (λ) = 0
2. χu est un polynôme de degré égal à n et

χu = (−1)n X n + (−1)n−1 truXn−1 + . . . + det u

[Link]@[Link]
Exemples 6 :
1. Si p est un projecteur en dimension n, alors :

χp = (1 − X)q (−X)n−q

avec q = rg(p).
2. Si f est un endomorphisme en dimension n de rang 1, alors :

χf = (−1)n X n−1 (X − tr(f))

Proposition 12 :
Soient E un espace vectoriel de dimension finie et v ∈ L(E).
Si F est un sous espace vectoriel de E stable par u et v = u/F alors :

χv /χu
Preuve  
A B
Vient du fait que dans une base β = β1 ∪ β2 adaptée à F , la matrice de u s’écrit : , où A = M atβ1 v.
0 C

Généralisation
p
M
Soit u ∈ L(E), on suppose que E = Fk où les Fk sont des sous espace vectoriels de E stables et non réduits à {oE }
k=1
et on note vk = u/Fk alors :
p
Y
χu = χvk
k=1

Définition 5 :
u ∈ L(E) (resp M ∈ Mn (K)) soit λ une valeur propre de u (resp de M ).
On appelle multiplicité de λ sa multiplicité comme étant une racine de χu (resp χM ).

Propriété 2 :
Soit u ∈ L(E). Soit λ une valeur propre de u. Si on note
d(λ) = dim Eλ et m(λ) la multiplicité de λ alors :

1 ≤ d(λ) ≤ m(λ)
Preuve
Eλ (u) est stable par u et la restriction v de u à Eλ (u) est l’homothétie de rapport λ dont le polynôme caractéristique
est χv (X) = (λ − X)dimEλ (u) . La proposition précédente implique donc que
d(λ) ≤ m(λ)
De plus Eλ (u) 6= {0}, donc 1 ≤ dimEλ (u).

Remarque 8 :
Il en résulte que si λ est une valeur propre de u de multiplicité 1, alors la dimension de l’espace propre associé est
toujours égale à 1.

Théorème 5 : de Cayley hamilton


Si u ∈ L(E), alors χu (u) = 0.

Exercice 6. Soit E un K espace vectoriel de dimension finie, n > 0 et u ∈ £(E).


n−1
X
1. On suppose qu’il existe x0 ∈ E tel que (ui (x0 ))i=0...n soit une base de E. on pose : un (x0 ) = ak uk (x0 ). Calculer
k=0
χu en fonction des ak , en déduire que χu (u) = 0.

[Link]@[Link]
2. pour x ∈ E\{0}, on pose Eu (x) = vect{uk (x), k ∈ N}.
Montrer que Eu (x) a une base de la forme (x, u(x), ..., up−1 (x)) en déduire que χu (u)(x) = 0.
3. Retrouver le théorème de cayley hamilton.

4 Diagonalisation

Dans tout ce paragraphe E est un K espace vectoriel de dimension finie égale à n.


Définition 6 :
Un endomorphisme u est dit diagonalisable s’il existe une base β de E telle que MatB u soit diagonale.

Proposition 13 :
u est diagonalisable si et seulement si il admet une base de vecteurs propres.

Théorème 6 :
u ∈ L(E), les psse :
1. u est diagonalisable.
p
M
2. χu est scindé et E = Eλi (u)
i=1
Sp(u) = {λi , i = 1..p}.
Xp
3. χu est scindé et dim E = dim Eλi (u)
i=1
Sp(u) = {λi , i = 1..p}.
4. χu est scindé et ∀λ ∈ SP (u), d(λ) = m(λ).
5. ∃P ∈ K[X] scindé à racines simples tel que : P (u) = 0.
Preuve
1) =⇒ 2) Supposons u diagonalisable et soit β une base de E telle que

MatB (u) = D = diag(λ1 , ..., λ1 , λ2 , .., λ2 , .., .., λp , .., λp )

avec λ1 , .., λp deux à deux distincts, λi figurant mi fois. Alors

χu (X) = χD (X) = Πpi=1 (X − λi )mi

ce qui montre déjà que χu est scindé et que les valeurs propres de u sont exactement λ1 , .., λp . et si on considère le
p
polynôme Q = Πpi=1 (X − λi ), il est annulateur de D et donc de u, le lemme des noyaux donne E =
M
Eλi .
i=1
2) c’est équivalente à 3) du fait que la somme est directe.
p
Eλi , on obtient χu = Πpi=1 (λi −
M
2) =⇒ 4)En calculant le polynôme caractéristique dans une base adaptée à E =
i=1
X)dimEλi (u) , et par unicité de la multiplicité d(λ) = m(λ).
Xp
4) =⇒ 2) supposons que χu est scindé et ∀λ ∈ Sp(u), d(λ) = m(λ). On a toujours n = deg χu = m(λi ) et donc
i=1
Xp
n= dim Eλi .
i=1
p
M
2) =⇒ 5) Supposons que : χu est scindé et E = Eλi , Sp(u) = {λi , i = 1..p}. Dans une base adaptée à cette
i=1
décomposion la matrice est diagonale constituée des valeurs propres λi et dans ce cas le polynôme Q = Πpi=1 (X − λi ) qui
est scindé à racines simples est annulateur de D et donc de u.
5) =⇒ 2) supposons qu’il existe P ∈ K[X] scindé à racines simples tel que : P (u) = 0, alors le polynôme minimal est
scindé à racines simples,

[Link]@[Link]
p
si πu = Πpi=1 (X − λi ), alors par le lemme des noyaux E =
M
ker(u − λi IE ) et en calculant le polynôme caractéristique
i=1
suivant cette décomposition il sera donc scindé.

Remarque 9 :
u est diagonalisable ssi Πu est scindé à racines simples.

Exercice 7. L’ensemble Dn (K) des matrices diagonalisables d’ordre n est un connexe par arcs.

Proposition 14 :
Si F est un sous espace stable par u et v = u/F , alors la diagonalisabilité de u entraine celle de v.

Preuve
u diagonalisable, il existe P scindé à racines simples tel que P (u) = 0, ce polynôme sera aussi annulateur de v, d’où
la diagonalisabilité de v.

Proposition 15 :
Si le polynôme caractéristique est scindé à racines simples (c’est à dire que u admet n valeurs propres distinctes)
alors u est diagonalisable et la dimension de chaque sous espace propre est égale à 1.

Remarque 10 :
Bien sur la condition de la proposition n’est pas nécessaire, en considérant par exemple l’identité de E.

Proposition 16 :
Soit u ∈ L(E), on suppose que u est diagonalisable de spectre
p
M
Sp(u) = {λ1 , ..., λp }, et soit (pλ1 , ..pλp ) la famille des projecteurs associée à E = Eλi , alors :
i=1

Xp
IE = pλi
i=1

Xp
∀k ∈ N∗ : uk = λki pλi
i=1

∀i ∈ |[1, p]| : pλi ∈ K[u]

Définition 7 :
(Matrices diagonalisables)
Soit M un élément de Mn (K).
On dit que M est diagonalisable si M est semblable à une matrice diagonale D, c’est-à dire s’il existe une matrice
inversible P telle que M = P DP −1 . On dit alors que D est une réduite diagonale de M .

Remarque 11 :
Avec les notations ci-dessus, les coefficients de la diagonale de D sont les valeurs propres de M , chacune figurant
autant de fois que son ordre de multiplicité.

[Link]@[Link]
Propriété 3 :
Soit M un élémnt de Mn (K).
M est diagonalisable si et seulement si tout endomorphisme u d’un K-espace vectoriel E de dimension n dont la
matrice est M dans une base β de E est diagonalisable, et en particulier l’endomorphisme de Kn de matrice M
dans la base canonique.

Remarque 12 :
1. Soit M un élément de Mn (R).
Si M est diagonalisable dans R alors M est diagonalisable dans C, avec les mêmes valeurs et vecteurs propres
et la même égalité M = P DP −1 , les matrices P et D étant à coefficients réels.
En revanche, toujours avec M dans Mn (R), M peut être diagonalisable dans C sans l’être dans R, si des
valeurs propres sont complexes mais non réelles.
Dans l’égalité M = P DP −1 , P et D sont alors à coefficients complexes.
2. Dans l’égalité M = P DP −1 , P est la matrice de passage de la base canonique de Kn à une base de vecteurs
propres de M .

Méthode et exemples :
Soit à diagonaliser une matrice M de Mn (K).
1. On calcule le polynôme caractéristique χM de la matrice M puis les racines dans K de ce polynôme.
2. Si χM nest pas scindé dans K, alors M n’est pas diagonalisable dans K.
3. Si χM est scindé alors pour chaque racine λ qui sera une des valeurs propres de M on résoud le système homogène
(M − λIn )X = 0, où X est une matrice colonne de Kn .
La résolution conduit à une base βλ de Eλ , donc à dim Eλ .
Xp
4. Si, dim(Eλi ) < n , alors M n’est pas diagonalisable.
i=1
p
X
5. Sinon, c’est à dire dim(Eλi ) = n alors M est diagonalisable, et la juxtaposition des bases βλi donne une base
i=1
de Kn , formée de vecteurs propres.
 
8 0 9
Exemple 1 :M =  −3 −1 −3 
−6 0 −7
χM = −(X − 2)(X + 1)2 .
– Sous espace propre associé à la valeur propre -1. On résoud le système :

9x + 9z = 0

(M + I)V = 0 ⇐⇒ −3x − 3z = 0 ⇐⇒ x + z = 0

−6x − 6z = 0

   
1 0
Il s’agit du plan engendré par  0  et  1 
−1 0
On peut déja en déduire la diagonalisabilité de M .
– Sous espace propre associé à la valeur propre 2. On résoud le système :
3

x=− z

6x + 9z = 0


 
 2
(M − 2I)V = 0 ⇐⇒ −3x − 3y − 3z = 0 ⇐⇒ y = − 1 z
  2
−6x − 9z = 0
 

z=z

 
3
Il s’agit de la droite engendrée par  −1 
−2

[Link]@[Link]
Conclusion : La  somme des dimensions
 des sous espaces
  propres est 3, donc M est diagonalisable.
−1 0 0 1 0 3
Si on pose D =  0 −1 0  et P =  0 1 −1 , alors
0 0 2 −1 0 −2
M = P DP −1 .  
2 1 0
Exemple 2 : M =  −6 −3 −2  χM = −(X − 1)(X − 2)(X − 3).
15 9 7
Le polynôme caractéristique
 est scindé
à racines simples, donc M est diagonalisable.
7 −11 −2
Exemple 3 : M =  −3 −1 −6 . χM = −(X + 4)(X − 8)2 .
−1 1 6
 
2
Si on cherche le sous espace propre associé à la valeur propre 8, on trouve que c’est la droite engendrée par  0 ,
−1
on conclut que M n’est pas diagonalisable.

5 Applications de la diagonalisation

• Calcul des puissances d’une matrice.


Soit à calculer M k pour tout k ∈ N.
Si M est diagonalisable, soient alors P inversible et D diagonale tel que : M = P DP −1 .
Dans ce cas on a M k = P Dk P −1 , c’est à dire que le calcul de M k se ramène à celui de
Dk = diag (λk1 , ..., k
λn ). 
8 0 9
Exemple : M =  −3 −1 −3 
−6 0 −7
χM = −(X − 2)(X + 1)2 .
Avec les mêmes notations que [Link] 1 on a :

M = P DP −1 =⇒ M k = P Dk P −1

(−1)k
 
0 0
Dk =  0 (−1)k 0 , finalement on obtient :
0 0 2k
k k
−3(−1)k + 3(2k )
 
−2(−1) + 3(2 ) 0
Mk =  (−1)k − 2k (−1)k (−1)k − 2k 
k k
2(−1) − 2(2 ) 0 3(−1)k − 2(2k )
• Systèmes de suites récurrentes de pas 1.
Soient (x(1) (p)
n )n , ...(xn )n des suites d’éléments de K. On pose
t (1) (p)
Xn = (xn , ..., xn ) et on suppose qu’il existe une matrice M telle que, pour tout n, Xn+1 = M Xn , Dans ce cas on
aura : ∀n ∈ N : Xn = M n X0 , ce qui nécessite le calcul des puissances successives de M : on est donc ramené au cas
précédent...
• Etude d’une récurrence linéaire de pas p.
Soit à déterminer une suite (xn ) définie par une relation de récurrence du type :
∀n ≥ 0 : xn+p + ap−1 xn+p−1 + ... + a1 xn+1 + a0 xn = 0.
t
En posant pour tout n ∈ N,  Xn = (xn , ..., xn+p−1 ) on obtient laformule de récurence :
0 1 0 ... ... 0
 0 0 1 0 ... 0 
 
 . . . . 
 0 0 0 . . 0 
Xn+1 = M Xn , avec M =   .. .. .. .

 . . . 0 .. 0 

 
 0 0 0 0 1 
−a0 −a1 . . . . . . . . . −ap−1
Le polynôme caractéristique de M est χM = (−1)p [X p + ap−1 X p−1 + ... + a1 X + a0 ].
(d’où la nomination ”équation caractéristique”).
On est donc encore ramené au problème précédent.

[Link]@[Link]
6 Trigonalisation

Définition 8 :
Un endomorphisme f est dit trigonalisable s’il existe une base β de E telle que MatB f soit triangulaire supérieure.

Remarque 13 :
Si f ∈ L(E) est trigonalisable et β = (e1 , ..., en ) une base telle que MatB f est triangulaire supérieure alors si on
pose β 0 = (en , ..., e1 ), la matrice de f dans β 0 est triangulaire inférieure.

Définition 9 :
Une matrice M ∈ Mn (K) est dite trigonalisable si elle est semblable à une matrice triangulaire supérieure.

Remarque 14 :
M est trigonalisable si et seulement si tout endomorphisme f d’un K-espace vectoriel E de dimension n dont la
matrice est M dans une base β de E est trigonalisable, et en particulier l’endomorphisme de Kn de matrice M
dans la base canonique.

Théorème 7 :
Soit u ∈ L(E). les psse :
1. u trigonalisable.
2. χu est scindé
3. Il existe un polynôme scindé annulateur u.
Preuve  
a11 ∗ ∗
1) =⇒ 2) : Si M =  0 . ∗ , alors on a :
0 0 ann

χu (X) = χM (X) = Πni=1 (aii − X)

Donc χu est scindé.


2) =⇒ 1) Par récurrence sur n . Il n’y a rien à démontrer si n = 1. Supposons la propriété vraie pour n − 1, soient E
un espace vectoriel de dimension n et u un endomorphisme de E tel que χu scindé.
Soit λ une racine de χu . Soit e1 un vecteur propre associé à λ, que l’on complète en β = (e1 , .., en ) base de E. Soit
F = V ect(e2 , .., en  sur F parallèlement à Ke1 et v : F → F défini par v(x) = p(u(x)) si x ∈ F . Alors
), p la projection
λ ∗ ∗ ∗
0 
M = MatB (u) =  .
 avec A = M ate ,..,en (v). On en déduit que χu (X) = (X − λ)χv (X). Donc χv est aussi
2
A 
0
scindé. Par hypothèse de récurrence, il existe une base (ε2 , .., εn ) de F telle que M at(ε2 ,..,εn ) v soit triangulaire supérieure
 
λ ∗ ∗ ∗
0 
et alors M at(e1 ,ε2 ,..,εn ) u = 
.
 est triangulaire supérieure.
M at(ε2 ,..,εn ) v 
0
2) =⇒ 3) Il suffit de prendre le polynôme caractéristique lui même.
3) =⇒ 2) Supposons qu’il existe un polynôme P scindé annulateur de u, β une base quelconque de E et M = MatB (u),
on injecte M dans Mn (C), aussi bien que χu = χM qu’on peut considérer comme un polynôme de C[X], si λ est une
racine complexe de χM , alors c’est une valeur propre de M et comme P est aussi annulateur de M donc λ est une racine
de P et par suite λ est dans K, ainsi toutes les racines complexes de χu sont dans K, ce qui veut dire que χu est bien

[Link]@[Link]
scindé dans K[X].

Remarque 15 :
1. u est trigonalisable si et seulement si πu est scindé.
2. Ces propositions passent immédiatement aux matrices.
3. La démonstration du théorème constitue un algorithme de trigonalisation d’une matrice.
  Ex-
2 2 −3
emple :  5 1 −5 .
−3 4 0
– χM = (1 − X)3 , M n’est donc pas diagonalisable.
– Le sous espace propre associé à la valeur propre 1 est la droite engendée par : e1 = (1, 1, 1), notons C = (c1 , c2 , c3 )
la base canonique et posons e02 = c2 = (0, 1, 0), e03 = c3 , déterminons la matrice N de f (canoniquement associé à
M ) dans cette nouvelle base : (e1 , e02 , e03 ).
f (e1 ) = e1 , f (e02 ) = 2c1 + e02 + 4e03 , f (e03 ) = −3c1 − 5e02 .
c1 = e1 − e02 − e03  =⇒ f (e02 ) = 2e1− e02 + 2e03 , f (e03 ) = −3e1 − 2e02 + 3e03 .
1 2 −3
Finalement N =  0 −1 −2 .
0 2 3
– On pose G = vect(e02 , e03 ), p désigne  la projection sur G parallélement à vect(e1 ).
−1 −2
C = MatB (p ◦ f/G ) = , χC = (1 − X)2 .
2 3
x = αe02 + βe03 est un vecteur propre de C associé à 1 ⇐⇒ α + β = 0, par exemple
e2 = e02 − e03 = (0, 1, −1).
– En complétant (e1 , e2 ) par e3 = c3 (par exemple) pour obtenir une base β de E, et en calculant la matrice de f dans
β, on trouve : 
1 5 −3
MatB f =  0 1 −2 .
0 0 1

Propriété 4 :
Tout endomorphisme sur un C-espace vectoriel est trigonalisable.

Proposition 17 :
Soit F un sous espace vectoriel stable par f et posons g = f/F .
f trigonalisable =⇒ g trigonalisablale.
Preuve
Vient du fait que χg divise χf .

Proposition 18 :
E de dimension n.
Un endomorphisme u de E est nilpotent si et seulement χu = (−1)n X n .
Preuve
=⇒) Si u est nilpotent d’indice p, alors πu = X p qui est scindé donc la seule valeur propre de u est 0, u est trigonalisable,
par suite χu est scindé avec 0 comme la seule racine et donc χu = (−1)n X n .

[Link]@[Link]
⇐=) Si χu = (−1)n X n , alors d’après le théorème de Cayley-Hamilton, on aura un = 0, et donc u nilpotent.

Remarque 16 :
1. Soit M ∈ Mn (K) une matrice trigonalisable.
Soit λ1 , ..., λp les valeurs propres distinctes de M , une conséquence de la trigonlalisation est que les valeurs
propres de M k sont λk1 , ..., λkp .
Xp
et en particuliers si M ∈ Mn (K) qui est trigonalisable sur C alors tr(M) = m(λk )λk , où λ1 , ..., λp sont
k=1
les valeurs propres complexes distinctes de M
2. Si M est une matrice trigonalisable et non diagonalisable, alors on peut se servir du polynôme caractéristiques
pour calculer les grandes puissances de M .
En effet pour k ∈ N effectuons la division euclidienne de X k par χM , ∃Q, R ∈ K[X] :
X k = QχM + R avec deg R < n ou R = 0, par le théorème de cayley Hamilton on obtient :
M k = R(M ).
Par conséquent le calcul de M k pour k assez grand se ramène à celui des M p , p = 0, ..., n − 1

Exemples d’application 7 :
1. Si K = C, alors Dn (K) des matrices diagonalisables est dense dans Mn (K).
Le résultat subsciste t-il si K = R.
2. Si K = C, alors GLn (K) connexe par arcs.
Le résultat subsciste t-il si K = R.
3. Une matrice M ∈ Mn (K) est nilpotente si, et seulement si 0 est dans l’adhérence de la classe de similitude
de M :
CM = {P M P −1 , P ∈ Gln (K)}

7 Classiques de chez les classiques

7.1 Endomorphismes cycliques


Dans tout le problème E un espace vectoriel sur K de dimension n, et u ∈ L(E)

Partie I

1. Pour x ∈ E, on pose :

Zx = K[u](x) = vect{uk (x), k ∈ N}, et Ix = {P ∈ K[X], P (u)(x) = 0}

a) Montrer qu’il existe un unique polynome unitaire noté Πx tel que :


Ix = {QΠx ; Q ∈ K[X]}.
Πx s’appelle le polynome minimal de x.
b) Montrer que deg Πx = dim Zx
2. Soit (e1 , ..., en ) une base de E, montrer que Πu = ppcm(Πei , i = 1, ..n)
3. Soient x, y ∈ E tels que Πx et Πy soit premiers entre eux, montrer que

Πx+y = ppcm(Πx , Πy ) = Πx Πy
p
4. Soit Πu = Π Qαi i sa décomposition primaire, montrer que :
i=1
pour tout i ∈ |[1, p]|, ∃xi ∈ E, Qαi i = Πxi
5. En déduire qu’il existe x ∈ E tel que Πu = Πx

[Link]@[Link]
Partie II

dimE = n, u ∈ L(E) est dit cyclique s’il existe x ∈ E tel que (x, u(x), ..., un−1 (x)) soit une base de E.
1. Montrer que si u ∈ L(E) a n valeurs propres distinctes il est cyclique. ( considérer une somme de vecteurs propres)
 
0 0 0 a0
 . . .. 
1 . . a1 
2. Montrer que u est cyclique ssi sa matrice dans une base est de la forme :   ..
 et donner dans ce

 . 0 an−2 
0 1 an−1
cas l’expression de χu .
3. Montrer que u est cyclique ssi Πu = (−1)n χu .
4. On suppose que u est nilpotent, Montrer que les psse :
a) u est cyclique
b) L’indice de nilpotence est n.
c) rg(u) = n − 1
5. Soit u un endomorphisme cyclique de E = Cn . Quelles valeurs peut prendre le rang de u. Donner un exemple pour
chacune de ces valeurs.
6. u étant cyclique, donner une CNS pour que u soit diagonalisable
7. Soit M la matrice canoniquement associée à u cyclique.
Montrer qu’il existe un polynome P tel que t com(M ) = P (M ).

7.2 Le commutant et la décomposition de dunford d’un endomorphisme

E désigne un K ev de dim n ≥ 2 et u un endomorphisme de E dont on suppose le polynôme caractéristique χu scindé


sur K, on pose :
Yp
χu = (λi − X)mi
i=1

E(λi ) = Ker(u − λi I), E 0 (λi ) = Ker(u − λi I)mi


1. Montrer que E 0 (λi ) est un sous espace vectoriel stable par u, et que :
p
E = ⊕ E 0 (λi ).
i=1
2. a) on pose vi = u/E0 (λi ) .
0
Monter que : χvi = (λi − X)dim E (λi ) .
b) En déduire que dim E 0 (λi ) = mi .
(
L(E) → L(E)
Dans la suite on considère Γu :
v 7→ vou − uov
3. Montrer que Γu ∈ L(L(E)).
On note alors C(u) = Ker(Γu )
4. a) Montrer que vect(id, u, u2 , ..., un−l ) ; le sous espace vectoriel de L(E) engendré par les vecteurs uk , k ∈
{0, 1, 2, ..., n − 1}, est inclus dans C(u) et que dim (C(u)) ≥ 2.
b) Montrer que si v ∈ C(u), alors ∀i ∈ {1, 2, ..., p}, v(E(λi )) ⊂ E(λi ).
5. Dans cette question on suppose u diagonalisable.
a) Montrer que mi = dim E(λi ), ∀i ∈ |[1, p]|.
b) Montrer que :
C(u) = {v ∈ L(E)/∀i ∈ {1, 2, ..., p}}, v(E(λi )) ⊂ E(λi )}.
c) En déduire que
C(u) est isomorphe à L(E(λ1 )) × L(E(λ2 )) × ... × L(E(λp )), et donner la dimension de C(u).

[Link]@[Link]
6. Dans cette question, on Suppose que : ∀i ∈ [|1, p|], mi = 1. Montrer que :

C(u) = V ect(id, u, u2 , ..., un−l )

7. Soit k ∈ N* et v ∈ L(E).
a) Calculer (Γu)k (v).
b) En déduire que si u est nilpotent, alors Γu est nilpotent.
8. a) Montrer que si v ∈ C(u) alors :
∀i ∈ {1, 2, ..., p}, v(E 0 (λi )) ⊂ E 0 (λi ).
p
Dans la suite de la question on utilisera le fait que E = ⊕ E 0 (λi ).
i=1
b) Montrer qu’ il existe δ ∈ L(E) diagonalisable et ω ∈ L(E) nilpotent tels que :

u = δ + ω, δ ◦ ω = ω ◦ δ

et
C(u) = C(δ) ∩ C(ω)

c) Exemple
Donner
 la décomposition
 δ + ω (matricielle) de l’endomorphisme u canoniquement associé à la matrice .
2 1 −1
A= 2 1 −2  calculer alors An , pour tout n ∈ N
3 1 −2

7.3 Matrices circulantes


1. P ∈ C[X], A ∈ Mn (C) diagonalisable, montrer que P (A) est diagonalisable.
 
0 1 O
 .. .. 
0 . .  (matrice de Frobenius), calculer J k , k = 1...n, étudier la diagonalisabilté et déterminer les

2. J =  .
.
 .. .. 1 

1 0 0
éléments propres de J.
 
a0 a1 . . . an−1
 an−1 . . .
 
a1 
3. a0 , ..., an−1 des complexes et M =  . .
, écrire M sous forme d’un polynome en J et en

 .. .. 

a1 an−1 a0
déduire la diagonalisabilité et les éléments propres de M .
4. Application :
a) Soit (x, y, z) ∈ C3 . A l’aide de ce qui précède, expliciter une méthode simple permettant de calculer un
développement du produit
(x + y + z)(x + jy + j 2 z)(x + j 2 y + jz)

1 3
dans lequel n’intervient plus le nombre complexe j = − + i (il ne reste finalement que 4 monômes).
  2 2
2 −1 0 0 . . . 0 −1
−1 2 −1 0 . . . 0 0
 
 0 −1 2 −1 . . . 0 0
 
 . .
 .. . . . . . . . . . . . . . . ... 

b) Soit ∆ =  .
 .. . . . . . . . . . . .. 
 .
 . . . . . . 


0 . . .
. . . . . . −1 2 −1 
−1 0 . . . . . . 0 −1 2
Vérifier que la matrice ∆ est diagonalisable et identifier ses valeurs propres.

[Link]@[Link]

Vous aimerez peut-être aussi