0% ont trouvé ce document utile (0 vote)
69 vues56 pages

3 Reduction 2

Transféré par

Ahmed Azouz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
69 vues56 pages

3 Reduction 2

Transféré par

Ahmed Azouz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Réduction (deuxième partie) :

polynômes d’endomorphismes, de matrices


Marc Sage (collab. Michel Wigneron)

19 septembre 2017

Table des matières


1 Morphismes d’évaluation polynomiale 2
1.1 Dé…nition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Lemme de décomposition des noyaux . . . . . . . . . . . . . . . . . . . 8
1.3 Polynômes minimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Lien avec la réduction 18


2.1 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . 18
2.2 Spectre et polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . 23
2.3 Nilpotents, diagonalisables, synthèse . . . . . . . . . . . . . . . . . . . 26
2.4 Un pas vers la réduction de Dunford . . . . . . . . . . . . . . . . . . 32

3 Compléments (hors programme) sur les nilpotents 36

4 Le point des compétences 41

1
Comme au chapitre précédent, on …xe pour tout ce cours :
1. un corps K ;
2. un K-espace vectoriel E ;
3. un naturel n ;
4. un endomorphisme f 2 L (E) ;
5. une matrice carrée A 2 Mn (K) :

Soit A une K-algèbre, soit a 2 A. En pratique, dans ce chapitre et sauf mention


explicite du contraire,

A L (E) Mn (K)
le couple désignera toujours ou .
a f A

1 Morphismes d’évaluation polynomiale

1.1 Dé…nition

Dé…nition –Propriété
On appelle évaluation polynomiale1 en a l’application2 linéaire dé…nie sur la
base X N N 2N de K [X] par

X N 7! aN pour chaque naturel N .

On la note
K [X] ! A
eval : .
a P 7 ! P (a)
Remarques
Bien observer l’image des constantes, le polynôme 1 (unité de l’algèbre K [X])
étant envoyé sur l’unité de l’algèbre A :

1 (A) = In
1 (a) = 1A , d’où .
1 (f ) = IdE

Lorsque A = K, on retrouve l’évaluation des fonctions polynomiales en a, d’où


la cohérence de la notation P (a).
A K [X]
Lorsque = , alors evalX (par dé…nition) …xe chaque monôme,
a X
donc (par linéarité) vaut l’identité et la notation P (X) désigne P . Ici encore, la
notation P (a) est cohérente3 .
1 Si le contexte polynomial est clair, on parlera simplement d’évaluation en a.
2 L’article dé…ni « l’» sous-entend unicité d’une telle application.
3 Ces A
deux dernières remarques seront le seul endroit de ce cours où le couple est autre que
a
L (E) Mn (K)
ou .
f A

2
P n
Soit P =: n2N cn X
un polynôme de K [X]. On a alors les égalités
!
X X X
n
P (a) = eval (P ) = eval cn X = cn eval (X n ) = cn an .
a a a
n2N n2N n2N

Dit en français :

pour évaluer un polynôme P en a;


remplacer dans P son indéterminée par a.

On retiendra donc pour chaque d 2 N et chaque c 2 K d+1 les égalités4

c0 + c1 X + c2 X 2 + + cd X d (A) = c0 In + a1 A + c2 A2 + + cd Ad
et c0 + c1 X + c2 X 2 + + cd X d (f ) = c0 Id +c1 f + c2 f 2 + + cd f d .

Soit B une matrice carrée. On a alors pour chaque polynôme P 2 K [X] l’égalité

A 0 P (A) 0
P = .
0 B 0 P (B)

En e¤et, cette égalité étant linéaire en P , il su¢ t de la montrer pour P élément de la


base canonique de K [X], ce qui est immédiat d’après le calcul diagonal par blocs.
On généraliserait aisément : pour chaque suite …nie (A1 ; A2 ; :::; A` ) de matrices
carrées, le calcul triangulaire par blocs permet écrire
0 1 0 1
A1 ? ? P (A1 ) ¿ ¿
B .. .. C B .. .. C
B A2 . . C B P (A2 ) . . C
PBB C B C pour chaque P 2 K [X] .
. C=B . C
@ .. ? A @ . . ¿ A
A` P (A` )

Propriété –Dé…nition
L’évaluation en a est un morphisme d’algèbres :

[P Q] (a) = P (a) Q (a) pour chaques polynômes P; Q 2 K [X] .

Son image est la sous-algèbre engendrée par a, algèbre notée

K [a] := fP (a) ; P 2 K [X]g = Im eval .


a

Son noyau s’appelle l’idéal annulateur5 de a.

Démonstration
Soient P; Q 2 K [X]. Puisque evala est linéaire, l’égalité

[P Q] (a) = P (a) Q (a) à montrer est bilinéaire en (P; Q)


4 Bien observer le terme constant mettant en jeu In ou Id.
5 Sous-entendu : idéal des polynômes annulateurs.

3
et il su¢ t de la montrer pour P et Q éléments d’une base de K [X]. Imposons
donc (P; Q) de la forme (X p ; X q ) pour certains naturels p et q. On a alors les égalités

[P Q] (a) = [X p X q ] (a) = X p+q (a) = ap+q = ap aq = P (a) Q (a) , c. q. f. d.

L’égalité décrivant Im evala est immédiate.

Remarques –Soient P et Q deux polynômes dans K [X].


Puisque l’algèbre source K [X] est commutative, on a les égalités

P (a) Q (a) = [P Q] (a) = [QP ] (a) = Q (a) P (a) .

Il en résulte que

l’algèbre K [a] est commutative.

En particulier, f commute avec chaque polynôme en f et le lemme utile de la


section ?? montre que

f stabilise Ker P (f ).

Soit V un sous-espace vectoriel de E stable par f . L’exercice d’application


section ?? a donné sens et établi pour chaque naturel N les égalités6
N
fjV = fN jV
, d’où par linéarité l’égalité P fjV = P (f )jV .

Soit i un inversible de A. On a alors pour chaque naturel N les égalités


N récurrence
XN i 1
ai = i 1
ai = i 1 N
a i,
im m édiate

d’où par linéarité les égalités


1 1
P i ai = i P (a) i.

Voilà en quoi7 le calcul polynomial (en particulier celui des puissances) motive la
réduction :
1 1 1
trouver un "réduit" iai facilitant l’évaluation de P (a) = iP i ai i .

Par exemple, on pourrait raisonnablement être démotivé pour évaluer à la main A42!
lorsque 0 1
89 198 507
A = @ 40 89 233 A .
0 0 2
Or, en posant := Diag (2; 1; 1), le calcul du polynôme caractéristique

A = (X 1) (X 2) (X + 1) simplement scindé
6 On parle ici d’induits sur V (et non de restrictions).
7 Dans le jargon mathématique, on dit que les évaluations polynomiales commutent aux conjugai-
sons.

4
montre que A est diagonalisable de spectre f 1; 1; 2g (donc semblable à ) et la
description de ses sous-espaces propres par résolution de systèmes fournit la matrice
de passage suivante8 :
0 1
1 9 11
A = P P 1 avec P := @ 3 4 5 A .
1 0 0

Le calcul démotivant devient alors facile9 :


42! 42
A42! = P P 1 = P 42! P 1 = P Diag 242! ; 142! ; ( 1) P 1

0 10 10 1
1 9 11 0 0 0 0 1
abréger
= @ 3 4 5 A@ 0 1 0 A@ 5 11 28 A
:=242!
1 0 0 0 0 1 4 9 23
0 10 1 0 1
1 9 11 0 0 1 0 1
= @ 3 4 5 A@ 5 11 28 A = @ 0 1 3 (1 ) A.
1 0 0 4 9 23 0 0

0 1
a1 a2 an
B ..C
B an a1 a2 .C
B C
n 10 B C
..
Exemple : soit a 2 C . Réduisons la matrice B an 1 an C
.
B C
B . C
@ .. a2 A
a2 an 1 an a1
constante sur chaque "diagonale" et précisons son spectre.
Notons la matrice considérée11 . Elle se réécrit
0 In 1 0 In 2 0 1
= a1 In + a2 + a3 + + an .
1 0 I2 0 In 1 0

Voyons le lien avec les itérés de la matrice


0 1
0 1
In B C
=B C.
0 1
C := @
1 0 1 A
1 0

Vu l’action de C sur les vecteurs colonnes (décaler modulo n les coordonnées d’un
cran vers le haut), la matrice C agit par multiplication à gauche sur chaque matrice
donnée en décalant modulo n les lignes de cette matrice d’un cran vers le haut, ce qui
permet de décrire les puissances de C : une récurrence immédiate livrerait les égalités

0 In i
8i 2 [0; nj] ; C i = .
Ii 0

8 On peut aussi directement véri…er l’égalité AP = P si on nous donne et P à l’avance.


9 La matrice de dilatation Diag ( ; 1; 1) agit sur les lignes de sa matrice de droite en multipliant
la première par .
1 0 Culture : une telle matrice est dite circulante.
11 comme C comme « cycle »

5
Pn 1
En notant := i=0 ai+1 X i , on peut donc réécrire

= a1 C 0 + a2 C 1 + a3 C 2 + + an C n 1
= (C)

et la réduction de revient à celle de C.


Or le polynôme caractéristique C vaut X n 1 (d’après un calcul déjà e¤ectué),
donc est simplement scindé sur C (ou vaut 1), ce qui permet d’évoquer une matrice 2
Mn (C) diagonale (à valeurs dans Un ) et une matrice P 2 GLn (C) telles que C =
P P 1 , d’où les égalités12
1 1
(C) = P P = P ( )P .

La matrice est par conséquent diagonalisable dans Mn (C) et son spectre vaut (Un ).
Sanity
0 check : lorsque1 a2 = a3 = = an , on retrouve une matrice de la
b a a
B a j C
forme B
@ j
C dont on a déjà établi la diagonalisabilité (cf. section ??).
a A
a a b
Le polynôme vaut alors
Xn 1
b + a X + X2 + Xn 1
= (b a) + a ,
X 1
ce qui permet de retrouver les valeurs propres b a et b+(n 1) a avec les multiplicités
resp. n 1 et 1.

Exercices d’application
1
1. Imposons A inversible. Montrer alors l’appartenance A 2 K [A].
2. On …xe un polynôme P 2 K [X].
(a) Soit g 2 L (E) tel que [f; g] = Id. Montrer les égalités

[f; P (g)] = P 0 (g) .

(b) Soit B 2 Mn (K) telle que [A; B] = 0. Montrer les égalités

A B P (A) P 0 (A) B
P = .
0 A 0 P (A)

3. Soit B une matrice carrée. On impose A et B resp. annulées par deux polynômes
premiers entre eux. Montrer alors l’égalité

P (A) 0 A 0
=K .
0 Q (B) P;Q2K[X]
0 B

Discuter l’hypothèse de primalité relative.


1 2 La matrice P := ! ij conviendrait (cf. remarque …nale de l’exercice d’application
i;j2[1;nj]
section ??).

6
————————————————————————————————————

2
1. La famille 1; A; A2 ; :::; An a une longueur strictement supérieure à la
dimension de l’espace vectoriel Mn (K) où elle prend ses valeurs, donc est liée,
ce qui permet d’évoquer un polynôme P 6= 0 annulateur de A. Notons v la
valuation de P (ce qui fait sens puisque P est non nul). Le polynôme Q := XPv
a alors un coe¢ cient constant non nul, donc s’écrit c (1 XR) pour un certain
scalaire c et un certain polynôme R. Puisque a est inversible et c non nul,
on peut simpli…er par cav l’égalité P (a) = 0, ce qui donne [1 XR] (a) = 0,
i. e. 1 (a) = XR (a), ou encore aR (a) = 1A , d’où a 1 = R (a).
Remarque –Cette démarche est e¤ ective dès lors que l’on s’est donné un
polynôme annulateur (non nul) de A. La recherche e¤ective de tels polynômes
pourra donc servir cette démarche.
2. Les deux égalités à montrer étant linéaires en P , il su¢ t de les montrer
lorsque P est un élément de la base canonique de K [X]. Procédons par récur-
rence.
(a) Pour chaque naturel N ,
notons eN l’égalité f; g N = N g N 1

et montrons 8N 2 N ; eN par récurrence.


L’égalité e1 est notre hypothèse :
1g 1 1
= g 0 = Id = [f; g] = f; g 1 .
Soit ensuite N 2 N tel que eN . On a alors les égalités
f; g N +1 = f g N +1 g N +1 f = f g N g g N (gf )
e
=1 f; g N + g N f g g N (f g Id)
eN
= N gN 1 g + gN f g gN f g + gN
= N g N + g N = (N + 1) g N , d’où eN +1 .
(b) Pour chaque naturel N ,
N
A B AN N AN 1 B
notons EN l’égalité =
0 A 0 AN
et montrons 8N 2 N ; EN par récurrence.
À N 2 N …xé, les deux membres de l’égalité EN ont même partie
triangulaire inférieure d’après le calcul triangulaire par blocs : il ne reste
donc qu’à montrer l’égalité des deux blocs en position "haut-droite".
Lorsque N = 1, ce bloc vaut B 1 = 1A0 B dans les deux cas, d’où E1 .
Soit ensuite N 2 N tel que EN . On a alors les égalités
N +1 N
A B A B A B EN AN N AN 1 B A B
= =
0 A 0 A 0 A 0 AN 0 A
dont le bloc "haut-droite" vaut
A et B
AN B + N AN 1
BA = AN B + N AN B = (N + 1) AN , d’où EN +1 .
com mutent

7
3. L’inclusion est immédiate d’après une remarque précédente (fondée sur
le calcul par blocs diagonal). Montrons la réciproque.
(A) = 0
Soient et deux polynômes premiers entre eux tels que
(B) = 0
(permis par hypothèse). Soient P; Q 2 K [X]. Le lemme chinois permet d’évo-
quer un polynôme tel que

= P mod P +U
, mettons = pour certains polynômes U et V .
= Q mod Q+V

On en déduit les égalités

(A) = [P + U ] (A) = P (A) + U (A) (A) = P (A) et de même (B) = Q (B) ,


| {z }
=0
P (A) 0 (A) 0 A 0
d’où = = , ce qui conclut.
0 Q (B) 0 (B) 0 B

Montrons que l’hypothèse est nécessaire dès que n 1 : en e¤et, lorsque13 A =


B, pour chaque polynôme , la matrice

A 0 (A) 0
= a ses termes diagonaux égaux,
0 B 0 (A)
0 (A) 0 0 0
ce qui n’est pas le cas de la matrice = ,
0 1 (B) 0 In

donc l’inclusion souhaitée n’est pas réalisée.


Remarque –Culture hors programme. Cette hypothèse de primalité rela-
tive permet de décrire simplement les sous-espaces vectoriels stables par Diag (A; B)
à l’aide de deux de A et de B. Donnons (sans preuve) une traduction en termes
d’endomorphismes : si f stabilise deux sous-espaces vectoriels supplémentaires S
et T tels que les induits fjS et fjT sont annulés resp. par deux polynômes pre-
miers entre eux, alors les sous-espaces vectoriels stables par f sont les sommes
directes d’un sous-espace vectoriel de S stables par fjS et d’un sous-espace vec-
toriel de T stable par fjT . Plus précisément, un tel sous-espace vectoriel se
décompose selon E = S T en14

= ( \ S) ( \ T).

1.2 Lemme de décomposition des noyaux

Proposition
1 3 Nous verrons que les polynômes annulateurs de A ont en commun un diviseur non constant

(si n > 0), donc les matrices A et B ne sauraient lorsqu’elles sont égales être annulés resp. par deux
polynômes premiers entre eux.
1 4 Cette décomposition peut intervenir dans les exercices sur les sous-espaces vectoriels stables et

nous encourageaons les lectrices et lecteurs motivés à la démontrer.

8
Soient P et Q deux polynômes premiers entre eux. On a alors l’égalité

Ker P Q (f ) = Ker P (f ) Ker Q (f ) .

Démonstration
P (f )
Notons := : le produit vaut alors P (f ) Q (f ) = P Q (f ) et l’on
Q (f )
veut donc montrer
Ker = Ker Ker .
u
Soient (par Bézout) U et V deux polynômes tels que P U +QV = 1 et notons :=
v
U (f )
: on a alors l’égalité
V (f )
Id = 1 (f ) = [P U + QV ] (f ) = P (f ) U (f ) + Q (f ) V (f ) = u + v.

L’endomorphisme u s’annule sur Ker , de même v sur Ker , donc leur somme Id
s’annule sur Ker \ Ker , d’où la nullité de cette intersection, ce qui montre que ces
noyaux sont en somme directe.
De même, le produit s’annule sur Ker et sur Ker , donc le sous-espace
vectoriel Ker inclut leur somme.
Il reste pour conclure à montrer l’inclusion
?
Ker Ker + Ker .

Soit k 2 Ker : l’image u (k) est annulée par vu les égalités15

( u (k)) = u ( (k)) = u (0) = 0,

de même v (k) est annulé par , d’où les égalités et appartenance

k = Id (k) = [ v + u] (k) = v (k) + u (k) 2 Ker + Ker , c. q. f. d.

Corollaire (lemme de décomposition des noyaux)


Soit P un ensemble …ni de polynômes de K [X] deux à deux premiers entre eux
dont note le produit. On a alors l’égalité
M
Ker (f ) = Ker P (f ) .
P 2P

Démonstration
Pour chaque naturel c, notons Lc l’énoncé ci-dessus16 quanti…é universellement
sur les P de cardinal c. Montrons 8c 2 [2; 1j[ ; Lc par récurrence (L0 et L1 sont
triviaux).
1 5 Bien observer que ; ; u; v (tous des polynômes en f ) commutent entre eux.
16 L pour « lemme »

9
Nous venons d’établir L2 (cf. proposition précédente)
Soit c 2 tel que Lc . Soit P un ensemble de c + 1 polynômes deux à deux
premiers Qentre eux dont on note le produit. Soit p 2 P, notons P := P nfpg
et := P 2P P . On a alors les égalités

L L
M
Ker (f ) = Ker p (f ) =2 Ker p (f ) Ker (f ) =c Ker p (f ) Ker P (f )
P 2P
asso ciativité de
M M
= Ker P (f ) = Ker P (f ) , ce qui montre Lc+1 .
la som m e directe
P 2fpgqP P 2P

Corollaire
Les sous-espaces propres de f sont en somme directe.

Démonstration

La famille (E ) 2Vp f étant en somme directe ssi chacun de ses sous-familles …nies
l’est, évoquons une partie …nie de Vp f . L’ensemble fX g 2 est alors …ni et
formé de polynômes deux à deux premiers entre eux, donc (d’après le lemme de
décomposition des noyaux) les sous-espaces vectoriels Ker [X ] (f ) = E (f ) sont
en somme directe pour décrivant , ce qui conclut.

Exercice d’application
Soit I un intervalle réel in…ni. On impose E = C 1 (I; C) et on note l’opérateur
de dérivation. Pour éviter les confusions, on abrègera

Id := Id 2 L (E) et id := Id 2 E.
E I

a. Soient g 2 E, 2 C et ! 2 N. Montrer les égalités


! id
[ Id] ge = g (!) e id
et
! id
Ker ( Id) = e C! 1 [X] .

b. Soit a 2 Cn . Résoudre l’équation di¤ érentielle

f (n) + an 1f
(n 1)
+ + a1 f 0 + a0 f = 0 d’inconnue f 2 E.

————————————————————————————————————

a. L’opérateur est un endomorphisme du C-espace vectoriel E, ce qui donne


!
sens à l’itéré [ Id] dans L (E). Vu les égalités
id id
[ Id] ge =e (g 0 g) ge id
= g0 e id
,

une récurrence immédiate livre la première égalité désirée.

10
On en déduit à f 2 E …xé les équivalences
! dé…nir ! id p oint
f 2 Ker ( Id) () [ Id] ge =0 () g (!) e id
=0
g:=f e id précédent

() g (!) = 0 () g 2 C! 1 [X] () f e id
2 C! 1 [X] () f 2 e id
C! 1 [X] ,

d’où la seconde égalité demandée.


Pn 1
b. Scindons sur C (ou égalons à 1) le polynôme P := X n + i=0 ai X i , mettons
Y ! pour une certaine partie …nie C
P = (X )
et pour une certaine famille ! 2 N .
2
h Pn 1 i
L’équation considérée se réécrivant n + i=0 ai i (f ) = 0, i. e. [P ( )] (f ) =
0, ses solutions forment le noyau
lem m e de déc.
M !
M !
Ker P ( ) = Ker [(X ) ]( ) = Ker ( Id)
des noyaux
2 2
p oint M
id
= e C! 1 [X] = Vect t 7! e t td .
précédent 2
2 d2[0;! j[

Remarque – On décrirait par une méthode analogue les suites véri…ant une
récurrence linéaire à coe¢ cients constants. L’analogue séquentiel des solutions
continues t 7! e t td serait les suites n 7! n nd .
————————————————————————————————————

1.3 Polynômes minimaux

On impose désormais que17

A soit de dimension …nie.

Proposition –Dé…nition

1. L’idéal annulateur de a est engendré par un unique polynôme unitaire, appelé


le polynôme minimal18 de a et noté a :

Ker eval = ( a) .
a

2. Les polynômes annulateurs de a sont les multiples de son polynôme minimal :

P (a) = 0 () a j P.
1 7 L’algèbre Mn (K) étant de dimension …nie n2 ,
cette imposition équivaut (dans ce cours) à ce
que E soit de dimension …nie.
1 8 Par soucis de lisibilité,
a poura être noté (a).

11
3. La sous-algèbre K [a] admet pour base19 la famille 1; a; a2 ; :::; adeg a 1
:
M
K [a] = Kai .
i2[0;deg a j[

Démonstration

1. L’anneau K [X] étant principal, l’idéal-noyau Ker evala est un idéal princi-
pal de K [X], donc de la forme (M ) pour un certain M . Puisque l’espace vectoriel
but A de evala est de dimension …nie mais pas son espace vectoriel source K [X],
cette application linéaire ne saurait être injective, donc son noyau est non nul,
d’où la non-nullité de M . Ce dernier admet donc un unique représentant unitaire
(obtenu en normalisant M ).
2. On a pour chaque polynôme P les équivalences

P (a) = 0 () P 2 Ker eval () P 2 ( ) () a j P.


a

3. Montrons le caractère générateur. Soit b 2 K [a], soit P 2 K [X] tel que b =


P (a). Puisque a est non nul, on peut évoquer (division euclidienne) deux
polynômes Q et R tels que

P =Q a + R avec deg R < d := deg a,

d’où il vient
evala est un
P (a) = [Q a + R] (a) = Q (a) (a) + R (a) = R (a) 2 Vect ai .
m orphism e | a{z } i2[0;dj[
=0

Pd 1
Montrons le caractère libre. Soit 2 K d tel que i=0 i ai = 0 (relation
Pd 1
de liaison). Alors le polynôme i=0 i X i annule a, donc est multiple de a ;
étant par ailleurs de degré strictement plus petit que deg a , ce multiple doit
être nul, ce qui s’écrit = 0, c. q. f. d.

Remarques
Le point (2) peut se reformuler comme suit :

le polynôme minimal a est (au sens de la divisibilité)


le plus petit polynôme unitaire annulateur de a.

En d’autres termes encore20 :

a est le polynôme unitaire annulant a de degré minimal.

Soient P 2 K [X] et ' un morphisme de K-algèbres de source A. La nullité


de l’élément P (' (a)) = ' (P (A)) équivalant à celle de P (A), les éléments a et ' (a)
ont même idéal annulateur, donc même polynôme minimal.
1 9 Culture : la dimension dim K [a] = deg a s’appelle le degré de a.
2 0 Toutes ces variations doivent rendre limpide la terminologie minimal.

12
En particulier, le polynôme minimal est inchangé par conjugaison21 :
1
8i 2 A ; iai = a.

Autre cas particulier, lorsque E est de dimension …nie, l’endomorphisme f et sa


matrice dans chaque base de E ont même polynôme minimal :

f = Mat f pour chaque base B de E.


B

Dernier cas particulier22 , la matrice A et l’endomorphisme A ont même polynôme


minimal :
(A ) = (A) .
Ces deux dernières égalités permettront de passer d’une proposition mettant en
jeu A à son analogue mettant en jeu f (et réciproquement) en imposant A = MatB f
(ou bien f = A ).
Soient 2 K et P 2 K [X]. On a alors les équivalences

P (a + 1A ) = 0 () [P (X + )] (a) = 0 () a j P (X + ) () a (X ) j P,

ce qui montre que l’idéal annulateur de a+ 1A est formé des multiples de a (X ).


En particulier23 :
(a + 1A ) = a (X ).
Notons d := deg a . Nous avons vu la liberté de la famille 1; A; A2 ; :::; Ad 1 ;
la dimension de K [A] valant par ailleurs d, la famille 1; A; A2 ; :::; Ad n’est pas libre.
On en déduit l’égalité

deg a = max N 2 N ; 1; A; A2 ; :::; AN 1


libre .

Soit L un corps dont K est un sous-corps. Le polynôme A annulant A, il annule


AL , donc AL divise A . Ces polynômes unitaires seront par conséquent égaux s’ils ont
même degré. Or le point précédent et l’exercice d’application ?? section ?? montrent
que deg A ne dépend pas du corps où l’on choisit de considérer les coe¢ cients de A.
On retiendra donc :

le polynôme minimal est inchangé par extension des scalaires.

On a les équivalences

a unitaire
a =1 () 12( a) () 1 2 Ker eval () 1 (a) = 0 () 1A = 0 () A = f0g .
a

Par conséquent, sauf cas pathologique de la dimension nulle, un polynôme minimal


n’est jamais constant :

deg a 1 (sauf si A = f0g ).


21 À retenir : deux matrices semblables ont même polynôme minimal.
2 2 Rappel : pour chaque matrice carrée M , on note M l’endomorphisme canoniquement associé
à M.
2 3 Ajouter un scalaire se traduit donc simplement sur le polynôme minimal.

13
L’hypothèse « A de dimension …nie » n’intervient qu’à un seul endroit : pour
établir la non-injectivité de evala . Par conséquent, tout ce qui précède reste valide
dès que evala n’est pas injectif (même en dimension in…nie, hors programme), i. e.
quand a admet un polynôme annulateur autre que (cas trivial) le polynôme nul24 .
Culture hors programme : l’algorithme de Le Verrier présenté pour cal-
culer A permet également d’obtenir A lorsque ce dernier se scinde. En e¤et, une fois
calculé via l’algorithme le polynôme matriciel M := com (XIn A), il su¢ t d’utiliser
l’identité Y ! val M (X+ )
A = (X )
2Sp A

(laquelle pourrait être établie avec les compléments présentés section 3).

Exemples

1. Imposons a nilpotent et notons son indice de nilpotence. Vu25 que a = 0 6=


a 1 , l’élément a est annulé par X mais pas par X 1 , donc a divise X mais
pas X 1 , d’où a = X :

a nilpotent =) a = X indice de nilp otence de a


.

On aura en particulier
0 1 0 1
0 1 18 1
B C B C
B C = X n d’où B C = (X n
18) .
@ 1 A @ 1 A
0 18
| {z } | {z }
m atrice de taille n n n symb oles 18

2. Imposons a scalaire et notons son rapport. Le polynôme X annule alors a,


donc est multiple de a ; or ces deux polynômes ont même degré 1 (sauf cas
pathologique où E est nul) et sont unitaires, donc sont égaux :

f = Id =) f =X (sauf si E = f0g )
.
A = In =) A =X (sauf si n = 0)

La réciproque est immédiate : si a est annulé par un polynôme unitaire de


degré 1, ce dernier est alors de la forme X et l’on a a 1A = 0. On
retiendra donc les équivalences
si A6=0
a scalaire () deg a 1 () deg a = 1.

3. Imposons plus généralement A diagonale. Un polynôme donné annule alors A


ssi il s’annule en chacun de ses termes diagonaux, i. e. (le spectre se lisant sur
la diagonale) ssi il s’annule en chacune de ses valeurs propres, ou encore ssi il
est divisible par X pour chaque 2 Sp A, ce qui revient (par Gauss) à être
2 4 Culture : on dit alors que a admet un polynôme minimal.
2 5 En toute rigueur, traiter à part le cas pathologique = 0.

14
Q
multiple de 2Sp A (X ). Nous venons de décrire l’idéal annulateur de A,
lequel est par ailleurs inchangé par similitude, d’où l’implication
Y
a diagonalisable =) a = (X ).
2Sp a

Deux cas particuliers ressortent26 , les idempotents (de spectre inclus dans f0; 1g)
et les évolutifs (de spectre inclus dans f 1; 1g) :

f projecteur non scalaire =) f = X2 X.


2
f symétrie non scalaire =) f =X 1.

4. Imposons f de rang 1. En regardant sa matrice M dans une base de Ker f


(noyau de dimension dim E 1) complétée en une base de E, matrice qui est
0 ?
de la forme pour un certain scalaire (valant tr M = tr f ), le calcul
0

par blocs donne l’égalité M 2 = M , donc le polynôme X 2 (tr f ) X annule f .


Lorsque n 2, le polynôme f n’est ni constant (sinon n = 0) ni a¢ ne (sinon f
serait scalaire et son rang 1 vaudrait n ou 0), donc est de degré au moins 2 ;
divisant par ailleurs X 2 (tr f ) X, il lui est égal :
8 2
< X (tr f ) X si n 2
rg f = 1 =) f = X tr f si n = 1
:
1 si n = 0
0 1
1 1
Sanity check : quand n > 0, la matrice n1 @ j j A est un projecteur de
1 1
rang 1 et de trace 1.
5. Soit (A1 ; A2 ; :::; A` ) une liste …nie de matrices carrées. En reprenant le cas diago-
nalisable ci-dessus, on montrerait que l’idéal annulateur de Diag (A1 ; A2 ; :::; A` )
est formé des polynômes annulant chaque Ai , i. e. multiple de chaque Ai , i. e.
multiple de leur p. p. c. m. :
0 1
A1
B A2 C
B C
B .. C = A 1 _ A2 _ _ A` .
@ . A
A`

Propriété
Soit V un sous-espace vectoriel stable par f . Alors fjV divise f.

Démonstration
2 6 Lesrestrictions « non scalaire » excluent le projecteur nul (a fortiori le cas pathologique où E
est nul), la symétrie centrale et le projecteur-symétrie identité.

15
En abrégeant M := f, on a les égalités

M fjV = M (f )jV = 0jV ,

donc M annule fjV , donc divise son polynôme minimal, c. q. f. d.

Sanity check : pour chaque matrice carrée B, le polynôme minimal A divise bien
A 0
celui A _ B de .
0 B

Exercices d’application
1.
(a) Soit P 2 K [X]. Montrer que P (a) est inversible ssi P est premier avec a.
(b) En déduire que f est scindé (ou vaut 1) ssi chaque sous-espace vectoriel
non nul stable par f contient un vecteur propre de f .
2. Abrégeons := f et soit v 2 E.
(a) Donner sens au générateur unitaire, noté27 v , du noyau de l’application
linéaire
K [X] ! E
.
P 7 ! [P (f )] (v)
(b) Montrer l’équivalence = v () E = Ker v (f ).
S
(c) Montrer l’inclusion E e2F Ker e (f ) pour une certaine partie …nie F
E.
(d) On impose K in…ni. Montrer alors que E ne peut être recouvert par des
sous-espaces vectoriels stricts en nombre …ni
(e) En déduire (toujours quand K est in…ni) que vaut e pour un certain
vecteur e 2 E.
————————————————————————————————————

1.
(a) Supposons P et a premiers entre eux. Soient (par Bézout) U et V
deux polynômes tels que
P U + a V = 1.
Évaluer en a donne alors

1A = 1 (a) = [P U + aV ] (a) = P (a) U (a) + (a)V (a) = P (a) U (a) ,


| a{z }
=0

ce qui montre que P (a) et U (a) sont inverses l’un de l’autre.


2 7 Le polynôme s’appelle le polynôme minimal du vecteur v (pour f ).
v

16
Supposons P (f ) 2 GL (E). L’exercice d’application 1 section 1.1 mon-
1
trait que P (f ) est un polynôme en P (f ), a fortiori un polynôme en f ,
1
mettons P (f ) = U (f ) pour un certain polynôme U . On a alors P U (f ) =
P (f ) U (f ) = Id, donc 1 P U annule f , i. e. est multiple de f , met-
tons 1 P U = f V pour un certain polynôme V , d’où une relation de
Bézout 1 = P U + f V et la primalité relative de P et f .
(b) =) Soit S un sous-espace vectoriel non nul stable par f . Le poly-
nôme fjS divise alors f (qui est scindé ou vaut 1) et ne vaut pas 1 (car S
est non nul), donc est scindé.
Q
(= Décomposons f = P 2P P P en produit d’irréductibles uni-
taires (P est ici …ni et l’on a vP 1 pour chaque P 2 P). Si P est vide,
alors f = 1 et on a terminé. Soit sinon P 2 P. Le noyau Ker P vP (f )
est alors stable par f : s’il est nul, l’endomorphisme P vP (f ) est inversible,
d’où (par le point précédent) les égalités 1 = P vP ^ f = P vp , ce qui est
absurde puisque vp 1.
On peut donc évoquer un vecteur propre v dans ce noyau : notons
sa valeur propre associée. On a alors l’égalité
0 = 0 (v) = [P vP (f )] (v) = P vP ( ) v, donc est racine de P vP , i. e. de P ,
ce qui force cet irréductible à valoir X .
Q
Finalement, chaque P 2 P est scindé, donc le produit P 2P P P
= f
est scindé (ou vaut 1).
2.
(a) L’application considérée evalv evalf est bien linéaire (comme compo-
sée d’applications linéaires), donc son noyau est un sous-espace vectoriel
de K [X] : montrons que ce noyau en est un idéal, la principalité de K [X]
donnant alors sens au générateur unitaire de cet idéal.
Soient P et deux polynômes tels que (f ) (v) = 0. On a alors les
égalités
[P (f )] (v) = [P (f )] ( (f ) (v) ) = [P (f )] (0) = 0, ce qui conclut.
(b) Vu les égalités [ (f )] (v) = 0 (v) = 0, le polynôme f est dans le noyau
précédent, donc est un multiple de v , d’où les équivalences
j
v prop. de
= v () j v () v (f ) = 0 () Ker v (f ) = E.
(c) Par dé…nition de v , le vecteur v appartient au noyau Ker v (f ), ce
qui montre que ces noyaux recouvrent E lorsque v parcourt ce dernier :
[
E Ker e (f ) .
e2E

Puisque v est un diviseur unitaire de , l’ensemble D := f e ge2E est


inclus dans l’ensemble des diviseurs unitaires de , lequel est …ni (puisque
chaque polynôme de K [X] n’a modulo association qu’un nombre …ni de
diviseurs), d’où une partie …nie F E telle que D = f e ge2F . On peut
alors reparamétrer la réunion
[ [ [
Ker e (f ) = Ker D (f ) = Ker e (f ) , ce qui conclut.
e2E D2D e2F

17
(d) Soient par l’absurde V0 ; V1 ; :::; Vm des sous-espaces vectoriels stricts
recouvrant E où m est dé…ni minimal. Par minimalité de m, on peut évoque
un vecteur v hors de V1 [ V2 [ [ Vm (donc dans V0 ) et un "point" a hors
de V0 . Montrons que la droite := a + Kv rencontre chaque Vi en au plus
un point, l’inclusion
m
[ conduisant alors à la …nitude de ,
=E\ Vi \
| {z } donc à celle de K : contradiction.
i=0 …ni

Soit i 2 [1; mj]. La di¤érence de deux points de Vi \ est alors d’une


part colinéaire à v (car v dirige ) d’autre part dans Vi (car Vi est stable
par addition), donc est nulle puisque v 2 = Vi (et car Vi est stable par
homothéties). D’autre part, si V0 contient un point de , en ajoutant à
ce point un certain multiple du vecteur directeur u (qui est dans V0 ), on
trouvera alors dans V0 le point a, ce qui est absurde.
(e) Supposons par l’absurde que Ker e (f ) soit un sous-espace vectoriel
strict de E pour chaque e 2 E. Le point (iii) montre alors que E est recou-
vert par des sous-espaces vectoriels stricts en nombre …ni et le point (iv)
montre que cela n’est pas possible, d’où la contradiction.
Remarque –La démonstration précédente a l’avantage d’expédier le cas com-
plexe (lequel peut aussi se montrer par récurrence en évoquant
Q un hyperplan
stable par f ). Dans le cas général, en décomposant = P 2P P P en pro-
duit d’irréductibles, on montrerait pour chaque irréductible P 2 P que chaque
vecteur hors de Ker P vP 1 (f ) a pour polynôme minimal P vP puis l’on établi-
rait l’implication v ^ w = 1 =) v+w = v w a…n d’obtenir un vecteur de
polynôme minimal .
————————————————————————————————————

2 Lien avec la réduction

A L (E) Mn (K)
Rappelons que le couple désigne ou .
a f A
On impose désormais E de dimension …nie n.
Il fera donc sens de parler des éléments propres de a ainsi que de ses spectre,
polynômes caractéristique et minimal.

2.1 Théorème de Cayley-Hamilton

Théorème (Cayley-Hamilton28 )
2 8 La première démonstration de ce théorème, publiée au journal de Crelle, remonte à 1878 et est

signée Ferdinand Georg Frobenius (bien qu’Arthur Cayley et William Hamilton aient également
contribué à l’essor de la théorie matricielle en cette période).

18
Chaque élément de A est annulé par son polynôme caractéristique :

a (a) = 0.

Démonstration (non exigible)


Montrons le cas a = f . (On en déduira le cas a = A en remplaçant f par l’endo-
morphisme A ).
Fixons un vecteur v 2 E. Nous allons exhiber un sous-espace vectoriel V E
contenant v et stable29 par f tel que, en abrégeant := fjV , l’endomorphisme (f )
annule v. Nous en déduirons, en notant D := f (qui est un polynôme), les égalités

f (f ) (v) = [D (f )] (v) = D (f ) ([ (f )] (v)) = D (f ) (0) = 0, ce qui conclura.

Pour chaque naturel i, abrégeons vi := f i (v) et notons d le plus petit naturel tel
que soit libre30 la famille (v0 ; v1 ; :::; vd 1 ). Montrons alors que

f stabilise V := Vect vi .
i2[0;dj[

D’une part, pour chaque i 2 [0; d 1j[ le vecteur vi est envoyé (par f ) sur vi+1 qui
reste dans V (car i + 1 2 [0; dj[), d’autre part, l’itéré vd est lié aux précédents par
minimalité de d, donc l’image f (vd 1 ) reste dans V . Il en résulte, par linéarité de f ,
que l’image de chaque vecteur de Vecti2[0;d 1j] vi reste dans V .
Nous avons dit que vd était lié aux vi pour i 2 [0; dj[ : on peut donc évoquer une
famille a 2 K d+1 de scalaires tels que
d
X
ai vi = 0 et même imposer ad = 1.
i=0

On en déduit la matrice de fjV dans la base (v0 ; v1 ; :::; vd 1) de V :


0 1
0 a0
B .. C
B C
Mat fjV = B 1 . C.
(v0 ;v1 ;:::;vd 1) @ 0 ad 2
A
1 ad 1

Nous avons déjà rencontré cette matrice (cf. exemple 6 section ??) et calculé son
polynôme caractéristique
d d
! d
X X X
i i
= fjV = ai X , d’où (f ) = ai X (f ) = ai f i , puis
i=0 i=0 i=0
" d
# d d
X X X
[ (f )] (v) = ai f i (v) = ai f i (v) = ai vi = 0, ce qui conclut.
i=0 i=0 i=0

Remarques
2 9 Pour construire une partie stable par une application donnée et contenant un élément donné de
l’ensemble source, on doit penser aux itérés de cet élément par cette application.
3 0 La famille (v )
i i2[0;dj[ étant vide pour d = 0, elle est libre (tautologique), ce qui donne sens à d.

19
En termes de polynôme minimal, le théorème de Cayley-Hamilton a¢ rme
la divisibilité
a j a.

On en déduit la majoration
deg a n.
Le théorème de Cayley-Hamilton admet de nombreuses démonstrations (au-
cune n’est exigible). En voici d’autres, brièvement esquissées pour la lectrice et le
lecteur intéressés :
1. véri…er le théorème sur les matrices triangulaires par une récurrence "forte"
(sur la nullité des colonnes) et utiliser la trigonalisabilité de chaque matrice
complexe ;
2. véri…er le théorème sur les matrices diagonales et utiliser la densité des matrices
diagonalisables complexes31 ainsi que la continuité de l’application M 7! M ;
3. lorsque A est complexe, utiliser pour chaque complexe r assez petit en module
les égalités (valides32 pour chaque naturel N )
Z N +1 Z
N rei d N +1 d
A = et rei =0
rei A 2 2

et utiliser la comatrice
R pour faire apparaître un polynôme P s’annulant en 0 tel
que A (A) = P rei 2d ;
4. (la plus courte à notre connaissance) utiliser l’identité M t com M = (det M ) In
dans l’algèbre Mn (K (X)) avec M := XIn A, d’où une matrice T telle que

T (XIn A) = A In dans Mn (K [X]) ,

appliquer l’isomorphisme canonique d’algèbres Mn (K [X]) = Mn (K) [X] qui


permet par exemple d’identi…er33

X 8 4X 3 p
+
la matrice 6 de M2 (R [X]) et le polynôme
eX X 6 + 2X
0 0 0 4 1 p0 0
X6 + X3 + X+ de M2 (R) [X] ,
e 1 0 0 0 2 0 0

puis remplacer X par A (i. e. appliquer l’évaluation34 en A) pour annuler le


membre de gauche (a fortiori celui de droite A (A) In ).
3 1 Cf. chapitre complémentaire sur la topologie matricielle.
3 2 Cf. chapitres sur l’intégration et les séries entières à valeurs dans un espace vectoriel normé de
dimension …nie.
3 3 Cet isomorphisme est canonique car échange les bases canoniques de ces deux algèbres. Il doit

sembler naturel au vu de l’exemple donné (mais démontrer qu’il s’agit bien d’un isomorphisme
d’algèbres est pédestre et fastidieux –le prix à payer pour cette preuve sinon d’une grande élégance).
3 4 Même si l’évaluation Mn (K) [X]
P ! PMn (K)
i i ne préserve pas forcément la mul-
i2N mi X 7 ! i2N mi A
tiplication (l’anneau Mn (K) des coe¢ cients n’est pas commutatif), on montre aisément l’éga-
lité [T M ] (A) = T (A) M (A) lorsque A commute avec chaque coe¢ cient du polynôme M , ce qui
est le cas ici (les coe¢ cients de M = In X A sont In et A).

20
Attention au raisonnement naïf (et faux) qui consiste à remplacer X par A dans
la dé…nition de A = det (XIn A) pour obtenir directement
?
A (A) = det (AIn A) = det (A A) = 0.

D’une part le résultat est un scalaire det (AIn A) tandis qu’on devrait trouver une
matrice A (A), ce qui est un non-sens35 , d’autre part on suppose implicitement que
« remplacer X par A » est une opération qui commute avec l’application déterminant,
ce qui est faux (sauf cas trivial). La "magie" de la dernière preuve esquissée est qu’elle
permet de réaliser cette intuition.
Pour la lectrice et le lecteur intéressés par les détails (non exigibles), précisons
tout cela à l’aide de quelques notations.
Abrégeons36 M := Mn (K), P := K [X], notons " l’évaluation en A, : 7! In
l’injection canonique de K dans M et ' l’isomorphisme M [X] = Mn [P] de la preuve
ci-dessus. Tout peut alors se voir sur le diagramme suivant :
' det
M [X] g
! Mn [P] P
#" #" .
det
M K ,! M

Le raisonnement naïf consiste à croire que chaque élément de M [X] (en haut à
gauche) a même image dans M (en bas à droite) si l’on l’évalue suivant les ‡èches
g! # ou suivant les ‡èches # ,!, croyance qui s’écrit37
?
det " = " det '.

En particulier, pour le polynôme In X A, on obtiendrait la nullité souhaitée


' det
In X A 7 ! Diag (X; X; :::; X) A 7 ! A
j#" j#" .
det ?
0 7 ! 0 7 ! 0= A (A)

On pourrait toutefois montrer que notre diagramme n’est jamais commutatif sauf
cas trivial où A est scalaire. Voici une esquisse de preuve : si dénote une valeur propre
n
de A, le polynôme In (X ) a alors pour image 0 = (A ) , d’où A = In + N
n
où N nilpotent ; le polynôme In (X + 1 ) a pour image 1 = (N + 1) , donc N
n
divise (X + 1) 1, donc (N ) = 1 et N = 0. Pour le sens réciproque, tout développer
(les vecteurs selon la base Ei;j X d , le déterminant selon son expression polynomiale).

Exercices d’application
7 1
1. Montrer que la matrice n’admet pas de racine carrée dans M2 (R).
0 7
3 5 À moins d’avoir pensé à identi…er un scalaire à sa matrice scalaire associée, ce qui pour le coup

ne serait pas vraiment naïf.


3 6 M pour « matrices » , P pour « polynômes » , " pour « évaluation » et pour « injection » .
3 7 On dirait alors que le diagramme est commutatif.

21
2. Montrer que f possède un polynôme annulateur (non nul) de degré au plus 1 +
rg f . Discuter le majorant proposé.
3. On dit qu’un endomorphisme est irréductible (ou simple) ssi il stabilise exac-
tement deux sous-espaces vectoriels. Montrer que f est irréductible ssi f est
irréductible. (Pour le sens direct, on pourra considérer les sous-espaces vecto-
riels VectN 2N f N (v) .)
————————————————————————————————————

1 7
1. Soit par l’absurde R 2 M2 (R) une racine carrée de C := .
7 0
2
Cette dernière a pour polynôme minimal (X + 7) , donc la racine R est annulée
2
par X 2 + 7 , i. e.
2
R j X2 + 7 .
Or le facteur X 2 + 7 est irréductible dans R [X] et deg vaut au plus 2, ce qui
force R = X 2 + 7, d’où la nullité de R2 + 7I2 = C + 7I2 : contradiction.
2. Notons P le polynôme caractéristique de l’induit fjIm f : son degré vaut la
dimension de l’espace vectoriel Im f sous-jacent, à savoir dim Im f = rg f . Par
ailleurs, on a pour chaque v 2 E les égalités
Cayley-
0 = 0 (f (v)) = [P (f )] (f (v)) = [XP (f )] (v) ,
Hamilton

ce qui montre que le polynôme XP annule P . Comme son degré vaut 1+deg P =
1 + rg f , on a terminé
0 In 1
Lorsque f possède une matrice de la forme , son rang vaut n 1
0 0

et son polynôme minimal X n , donc le majorant proposé est atteint. Par ailleurs,
chaque polynôme annulateur de f de degré strictement inférieur à n = deg f
divise strictement f , donc serait le polynôme nul, ce qui montre que le majorant
proposé ne peut être abaissé.
3. Si n = 0, alors f = 1 n’est pas irréductible et E = f0g ne possède qu’un
seul sous-espace vectoriel, d’où l’équivalence souhaitée (cas pathologique). On
imposera donc n 1. Observer que f stabilise toujours f0g et E.
Supposons f réductible et soit V 6= E un sous-espace vectoriel non nul
stable par f . Alors fjV divise f et est de degré

deg fjV = dim V 2 [1; nj[ = 1; deg fj , donc f n’est pas irréductible.

N
Supposons f irréductible. Soit v 2 E non nul : le sous-espace vectoriel VectN 2N f (v)
est alors stable par f et est non nul (car contient f 0 (v) = v), donc vaut tout E,
i. e. est de dimension n. En particulier, si d dénote un naturel tel que

f d (v) 2 Vect f N
(v) , une récurrence immédiate donne livre alors l’inclusion
N 2[0;dj[
N N
Vect f (v) Vect f (v) , d’où les comparaisons
N 2N N 2[0;dj[
N N N
n = dim Vect f (v) dim Vect f (v) = rg f (v) d.
N 2N N 2[0;dj[ N 2[0;dj[

22
Par conséquent, chaque polynôme P 6= 0 tel que P (f ) (v) = 0 a un degré valant
au moins n. Utilisons ce fait pour conclure.
Soit P j f , notons Q := Pf et w := [Q (f )] (v). Si w est nul, alors Q est
de degré au moins n par ce qui précède, donc P est constant et on a terminé.
Dans le cas contraire, vu les égalités
Cayley
[P (f )] (w) = [P (f )] ( [Q (f )] (v) ) = [P Q (f )] (v) = f (f ) (v) = 0 (v) = 0,
Hamilton

ce qui précède montre que P est de degré au moins n par ce qui précède, donc Q
est constant et on a terminé
————————————————————————————————————

2.2 Spectre et polynômes annulateurs

Lemme38
Soit ( ; v) un couple propre de a. On a alors pour chaque polyôme P 2 K [X]
l’égalité
[P (a)] (v) = P ( ) v.
Démonstration
L’égalité à montrer étant linéaire en P (véri…cation à la main immédiate), on peut
imposer P = X N pour un certain N 2 N. On a alors les égalités
récurrence N
[P (a)] (v) = X N (a) (v) = aN (v) = v = P ( ) v, c. q. f. d.
im m édiate

Remarque – Si l’on ne veut vraiment pas véri…er la linéarité à la main, on


peut dire que le membre de gauche s’écrit evalv (evala (P )) où les deux évaluations
(l’une fonctionnelle, l’autre polynomiale) sont linéaires et que le membre de droite
s’écrit (eval (P ) ; v) où l’évaluation en est linéaire et où la loi : (t; ) 7! t est
bilinéaire (loi externe de A).

Corollaire
Le spectre de a est inclus dans l’ensemble des racines de chaque polynôme annu-
lateur de a :
8 2 Sp a
; P (a) = 0 =) P ( ) = 0.
8P 2 K [X]
Démonstration
Pour chaque polynôme P annulateur a et chaque couple propre ( ; v) de a, on a
les égalités
p oint
P ( )v = [P (a)] (v) = 0 (v) = 0, d’où P ( ) = 0 puisque v est non nul.
précédent

3 8 Résultat et preuve inchangés si A n’est plus imposée de dimension …nie.

23
Ce dernier corollaire est simple et rend de précieux services. Nous l’utiliserons
pour décrire en termes de polynôme minimal d’une part la nilpotence, d’autre part la
diagonalisabilité.

Sanity checks : un projecteur étant annulé par X 2 X = X (X 1) et une symétrie


par X 2 1 = (X 1) (X + 1), on retrouve les inclusions

Sp f f0; 1g si f projecteur
.
Sp f f 1; 1g si f symétrie

Exemples

tr A = n
1. On impose K = C et . Montrons que A est la matrice identité.
A2 = A3
La matrice A est annulée par le polynôme X 3 X 2 = X 2 (X 1), donc
son spectre est inclus dans f0; 1g. On en déduit

! 0 + ! 1 = deg A = n = tr A = ! 0 0 + ! 1 1 = ! 1 , d’où ! 0 = 0 (dans C),

ce qui montre que A est inversible. Simpli…er A2 = A3 donne alors A = In .


2. On impose K = R et A3 = A + In . Montrons que A est de déterminant
strictement positif.
On peut factoriser

In = A3 A = A (A In ) (A + In ) , d’où l’inversibilité de A et det A 6= 0.

Si ce dernier déterminant était négatif, on aurait alors


1
det (A + In ) = det A3 < 0, d’où det (A In ) = > 0;
det A det (A + In )

la fonction 7! det (A In ) s’annulerait donc sur ]0; 1[ par le théorème des


valeurs intermédiaires, d’où une valeur propre 2 ]0; 1[, laquelle devrait être
racine du polynôme annulateur X 3 X 1, ce qui imposerait 3 = + 1 >
1 : contradiction.
De manière plus méthodique, on aurait pu étudier des racines du polynôme
annulateur X 3 X 1. On aurait trouvé une seule racine réelle, strictement
positive, d’où det A > 0.

Propriété
Le spectre d’un nilpotent est nul (sauf si A est nulle39 ) :

a nilpotent =) Sp a = f0g (sauf si A = f0g ).

Démonstration
3 9 Quand A est nulle, Sp a est vide (cas pathologique).

24
Soit a nilpotent, soit 2 N tel que a = 0. Chaque valeur propre de a est alors
racine du polynôme annulateur X , d’où l’inclusion Sp a f0g.
L’inclusion réciproque équivaut à ce que 0 soit valeur propre de a, i. e. à la non-
injectivité de a, ce que nous avons établi en remarque lorsque A 6= f0g.

Propriété (hors programme40 )


Les valeurs propres de a sont les racines de a.

Démonstration
Chaque valeur propre de a est racine de a car ce dernier annule a.
Chaque racine de a annule a d’après Cayley-Hamilton, donc est racine de a,
i. e. est valeur propre de a.

Exercices d’application
1. Déterminer les matrices complexes M de trace 88 telles que M 3 +81M = 18M 2 .
2. Déterminer les matrices complexes M de trace n telles que M n = In .
3. Soient b et c deux naturels, soient B 2 Mb (K) et C 2 Mc (K) nilpotentes,
Ib + B ?
soient et deux scalaires distincts et imposons A de la forme .
0 Ic + C
B=0
Montrons que A est diagonalisable ssi .
C=0
————————————————————————————————————

1. Soit M une telle matrice. Elle est annulée par le polynôme


2
X3 182 + 81X = X X 2 18X + 81 = X (X 9) ,

donc son spectre est inclus dans f0; 9g. On en déduit les égalités

88 = tr A = ! 0 0 + ! 9 9 = 9! 9 , d’où la divisibilité 9 j 88 : contradiction.

2. Soit M une telle matrice. Elle est annulée par le polynôme X n 1 sim-
plement scindé (ou valant 1), donc est diagonalisable et son spectre est inclus
dans Un . Notons 1 ; 2 ; :::; n les valeurs propres de M (listées avec multipli-
cité). On a alors les comparaisons

n = jnj = jtr M j = j 1 + 2 + + nj j 1 j+j 2 j+ +j nj = 1+1+ +1 = n ;

comme il y a égalité partout, la comparaison triangulaire utilisée force les i à


être sur une même demi-droite d’origine 0. Les valeurs propres de M étant par
ailleurs sur un même cercle centré en 0, elles sont égales et l’égalité tr M = n
montre l’inclusion Sp M f1g. Vu en…n la diagonalisabilité de M , cette dernière
est scalaire est vaut In .
Réciproquement, la matrice identité convient.
4 0 Bien qu’hors programme, cette propriété éclaire grandement la preuve d’un énoncé à suivre (lui

au programme) qui caractérise la diagonalisabilité en termes de polynôme minimal.

25
3. La matrice B étant nilpotente, on a l’inclusion Sp B f0g, d’où celle
b
Sp ( Ib + B) = Sp B + f g f g et l’égalité Ib +B = (X ) .
c
On calculerait de même Ic +C = (X ) , d’où l’on déduit

Ib + B ? b c
A = = Ib +B Ic +C = (X ) (X ) .
0 Ic + C

( ? ) Ib + B
Or on a A Ib+c = avec ( ) Ib + B inversible
C 0

(son spectre inclus dans f g ne contient pas 0 car et sont distincts),


d’où rg (A Ib+c ) = b+rg C. On montrerait de même l’égalité rg (A Ib+c ) =
c + rg B. On en déduit les équivalences

6= rg (A Ib+c ) = (b + c) ! c + rg B = (b + c) b
A diagonalisable () ()
rg (A Ib+c ) = (b + c) ! b + rg C = (b + c) c
rg B = 0 B=0
() () , ce qui conclut.
rg C = 0 C=0

————————————————————————————————————

2.3 Nilpotents, diagonalisables, synthèse

Proposition
Les assertions suivantes sont équivalentes41 :
1. il y a une base de E où la matrice de f est triangulaire stricte ;
2. f est trigonalisable et Sp f f0g ;
n
3. f =X ;
4. f j Xn ;
5. f est nilpotent.

Démonstration
(1)=)(2) Soit B une base de E où T := MatB f est triangulaire stricte. En
particulier, T est triangulaire, donc f est trigonalisable. Le spectre Sp f = Sp T se lit
par ailleurs sur la diagonale ; il est nul (ou bien vide si la longueur de la diagonale est
nulle).
(2)=)(3) f est scindé ou vaut 1 (car f est trigonalisable) et sa seule racine
deg f
éventuelle est 0 (car Sp f f0g), donc vaut (X 0) = X n.
(3)=)(4) D’après Cayley-Hamilton, f divise f = X n .
(4)=)(5) Le polynôme f = X n annule f , d’où l’égalité f n = 0 et la nilpo-
tence de f .
4 1 Lorsque n 1, on remplacera l’inclusion spectrale par une égalité Sp f = f0g.

26
(5)=)(1) On raisonne comme dans notre démonstration de

f scindé =) f trigonalisable.

Appelons strictement trigonalisable toute matrice semblable à une matrice triangu-


laire stricte. Pour chaque naturel d, on note42 Nd l’énoncé

8M 2 Md (K) , M nilpotente =) M strictement trigonalisable.

Montrons 8d 2 N; Nd par récurrence43 .


L’unique matrice (vide) de M0 (K) étant triangulaire stricte (a fortiori stricte-
ment trigonalisable), l’énoncé N0 se réduit à une implication tautologique dont le
conséquent est valide, d’où N0 .
Soit d 2 N tel que Nd . Soit M 2 Md+1 (K) nilpotente : la matrice M n’étant pas
vide (car d 2 N), son spectre vaut f0g, donc on peut évoquer un vecteur propre V 2
K d+1 associé à 0, vecteur non nul que l’on complète en une base B de E. La ma-
trice M = Matb: c: (M ) est alors semblable à

0 ?
Mat (M ) = pour un certain bloc B 2 Md (K) .
B 0 B

Leurs puissances -ième sont donc semblables pour chaque naturel : or celle de
0 ? 0
M est nulle pour assez grand et celle de est de la forme ,
0 B 0 B
d’où la nullité de B (pour assez grand) et la nilpotence de B, laquelle est donc
(d’après Nd ) strictement trigonalisable, mettons B = P T P 1 pour une certaine ma-
trice T triangulaire stricte et pour un certain P 2 GLd (K). Finalement, la matrice M
est semblable à
0 ? 0 ? 1
=Q Q , donc est strictement trigonalisable, d’où Td+1 .
0 B 0 T
| {z }
triangulaire stricte

Remarques
Sanity check : avec la divisibilité a j X n et l’égalité a = X (a) , on retrouve
la majoration de l’indice de nilpotence de a par n (prouvée section ??).
L’homologue matriciel de cette proposition serait la chaîne d’équivalences sui-
vante44 :
A est semblable à une A trigonalisable () A= XN
() N () A nilpotente.
matrice triangulaire stricte et Sp A f0g () A jX

Proposition
Les assertions suivantes sont équivalentes :
1. a admet un polynôme annulateur simplement scindé ;
42 N comme « nilpotent »
4 3 En dimension 1, chaque matrice nilpotente est nulle, donc triangulaire stricte, d’où N1 .
4 4 Lorsque n 1, on remplacera l’inclusion spectrale par une égalité Sp A = f0g.

27
2. a est simplement scindé (ou vaut 1) ;
Q
3. a vaut 2Sp f (X );
4. a est diagonalisable.

Démonstration
(1)=)(2) Soit P un polynôme annulateur simplement scindé de a. Alors a
divise P (car P annule a), donc ou bien est constant (et vaut alors 1) ou bien est
simplement scindé (car P est simplement scindé).
Q (2)=)(3) Supposons a simplement scindé ou a = 1. Il s’écrit donc a =
2Z (X ) où Z dénote l’ensemble des racines de a . Or une propriété précédente
énonce l’égalité Z = Sp a. Q
(3)=)(4) Supposons f = 2Sp f (X ). On a alors les égalités
2 3 =E
Y lem m e de déc.
M z }| {
E = Ker 0 = Ker f (f ) = Ker 4 (X )5 (f ) = Ker [X ] (f ),
des noyaux | {z }
2Sp f 2Sp f
=f Id

d’où la diagonalisabilité de f .
Pour le cas matriciel, appliquer ce qui précède quand f = A donne l’implication
Y
A = (X ) =) A diagonalisable, i. e.
2Sp A
Y
A = (X ) =) A diagonalisable, c. q. f. d.
2Sp A

Q (4)=)(1) Supposons f diagonalisable et montrons que le polynôme :=


2Sp f (X ) annule f . Lorsque n 1, ce polynôme est simplement scindé, ce
qui conclura. (Si n = 0, alors f est l’endomorphisme nul, donc est annulé par le
polynôme X simplement scindé.)
Soit 2 Sp f et posons P := X (c’est un polynôme car est racine de ). On
a alors les égalités

(f ) = [(X ) P ] (f ) = P (f ) [X ] (f ) = P (f ) [f Id] ,

d’où, en évoquant un vecteur propre v associé à et en évaluant en v, les égalités


0 1
B C
[ (f )] (v) = [P (f )] @[f Id] (v)A = [P (f )] (0) = 0.
| {z }
=f (v) v=0

On en déduit par linéarité que (f ) est nulle sur la somme des sous-espaces propres
de f . Or cette somme vaut tout E par hypothèse, ce qui conclut45 .

Application : notons := M 7! AM la multiplication à gauche par A dans Mn (K).


Nous avons vu dans l’exercice d’application ?? section ?? une base dans laquelle la
4 5 Le cas matriciel s’obtient en imposant f = A .

28
matrice de vaut Diag (A; A; :::; A). Un polynôme donné annulant cette dernière ssi46
il annule A, l’endomorphisme est annulé par un polynôme simplement scindé ssi la
matrice A l’est, d’où l’équivalence

M 7! AM diagonalisable () A diagonalisable.

Remarque –On pourrait également caractériser la trigonalisabilité en termes de


polynôme minimal (hors programme) :

a trigonalisable () a scindé (ou vaut 1).

Corollaire
Soit V un sous-espace vectoriel de E stable par f . On a alors l’implication :

f diagonalisable =) fjV diagonalisable.

Démonstration
Soit P un polynôme annulateur de f simplement scindé. Vu les égalités

P fjV = P (f )jV = 0jV = 0,

l’endomorphisme fjV est annulé par un polynôme simplement scindé, donc est diagonalisable.

Remarques
Apprécier ici l’utilisation des polynômes : comment sinon exhiber une base
de V formée de vecteurs propres de f ?
Le calcul ci-dessus en remplaçant P par f (sans hypothèse de scission) montre
que f annule fjV . Il en résulte que le polynôme minimal de fjV divise celui de f :

fjV j f.

Application : soit g 2 L (E). Montrons qu’il y a une base de E diagonalisant f


et47 g ssi ces derniers sont diagonalisables et commutent.
Si l’on dispose d’une telle base de codiagonalisation, les matrices de f et g dans
cette base sont alors diagonales, donc d’une part ces matrices commutent (i. e. f et g
commutent), d’autre part f et g sont diagonalisables.
Supposons à présent f et g diagonalisables et commutant. Soit 2 Sp f . Puisque g
commute avec f , il stabilise le sous-espace propre E (f ). Vu que g est diagonalisable,
l’induit gjE (f ) est diagonalisable. Or l’induit fjE (f ) est scalaire, donc a une matrice
diagonale dans chaque base de E (f ), en particulier dans chaque base diagonali-
sant gjE (f ) .
Finalement, on peut évoquer une famille (B ) 2Sp f telle que B est une base
de E (f ) diagonalisant gjE (f ) et fjE (f ) pour chaque 2 Sp f . En évoquant une
concaténée B de cette famille, les matrices MatB f et MatB g seront alors chacune
diagonales par blocs diagonaux, donc diagonales tout court, ce qui conclut48 .
4 6 Plus directement, pour chaque polynôme P , l’endomorphisme P ( ) est la multiplication à gauche

par P (A).
4 7 On dit alors que f et g sont codiagonalisables et qu’une telle base les codiagonalise.
4 8 Le même argument (inséré dans une récurrence sur dim E) fournirait la généralisation suivante :

les éléments de chaque partie …xée de L (E) sont codiagonalisables ssi ils sont diagonalisables et
commutent. (Indication : considérer les induits sur les sous-espaces propres d’un élément non scalaire.)

29
Résumé
Il est agréable de tout synthétiser dans un unique tableau :
lim ite
racines de a = valeurs propres de a = racines de a
program m e

8 ; dim E = !
() a diagonalisable () a simplement scindé (ou 1)
et a scindé (ou 1)
+ + +
hors
a scindé (ou 1) () a trigonalisable () a scindé (ou 1)
program m e
* * *
a = Xn () a nilpotent () a j Xn .

Nous avons rencontré deux cas remarquables de diagonalisabilité :


1. celui où a possède (au moins) n valeurs propres.
2. celui où a est scalaire (il/elle possède alors au plus une valeur propre, notée
ci-après ) ;
Nous les rajoutons à la synthèse précédente49 :

a simplement scindé (ou 1) () Card Sp a = n () a possède n racines


+ + +
8 ; dim E = !
() a diagonalisable () a simplement scindé (ou 1)
et a scindé (ou 1)
* * *
E = E et
n () a scalaire ( = 1A ) () a =X (ou 1)
a = (X )

Exercices d’application
1. Pour chaque a 2 A, on appelle adjoint de a l’endomorphisme de l’algèbre A
dé…ni par
ad := x 7! [a; x] = ax xa.
a

(a) Imposons A nilpotente. Montrer alors que l’adjoint adA est nilpotent. Étu-
dier la réciproque.
(b) On se donne une sous-algèbre de L (E) dont l’adjoint de chaque élément
est diagonalisable. Montrer que cette sous-algèbre est commutative.
2. Imposons A 2 GLn (C) et soit N 2 N tel que AN est diagonalisable. Montrer
alors que A est diagonalisable. Discuter les hypothèses.
3. Montrer que chaque matrice de Mn (R) de carré In est semblable à une dia-
0 1
gonale de blocs .
1 0
4 9 Les quatre équivalences des première et dernière lignes sont autant de petits exercices (parfois

déjà traités en partie) permettant de tester l’assimilation du cours, c’est pourquoi nous les laissons
à la lectrice et au lecteur.

30
————————————————————————————————————

1. (a) Montrons Sp adA f0g, ce qui conclura à la nilpotence de adA .


Soit ( ; V ) un couple propre de adA . On a alors l’égalité
V = adA V = AV V A, d’où V A = (A In ) V , une récurrence immédiate donnant alors
N N n
8N 2 N; V A = (A In ) V , d’où l’on tire (A In ) V = V An = V 0 = 0.
n
Puisque V est non nul, on ne peut pas simpli…er par (A In ) , donc cette
dernière matrice n’est pas inversible, d’où l’appartenance
A est
2 Sp A f0g , ce qui conclut.
nilp otente

Lorsque A = In , l’adjoint adA est nul donc nilpotent mais la ma-


trice A n’est pas nilpotente (sauf cas pathologique n = 0 où l’équivalence
est triviale), donc la réciproque est fausse en générale si n 1.
(b) Notons50 S la sous-algèbre donnée. Elle sera commutative ssi
8s; t 2 S; ads t = 0, i. e. ssi 8s 2 S; (ads )jS = 0.
Soit donc s 2 S. Son adjoint stabilisant S (car S est un sous-anneau
de L (E)), il induit un endomorphisme de S qui est diagonalisable comme
restriction de ads (diagonalisable par hypothèse) : la nullité de cet in-
duit (ada )jS revient par conséquent à sa nilpotence, i. e. à la nullité de
chacune de ses valeurs propres.
Soit donc ( ; v) un couple propre de cet induit et supposons 6= 0
par l’absurde. L’exercice d’application ?? section ?? montre alors que v
est nilpotent, d’où (par le point précédent) la nilpotence de (adv )jS . Or ce
dernier est diagonalisable par hypothèse (car v est dans S), donc est nul,
d’où
6= 0
v = ads (v) = 0, ce qui est absurde car .
v 6= 0
2. Abrégeons Q:= Sp AN . La matrice AN est diagonalisable, donc annulée
par le polynôme 2 (X ). On en déduit que le polynôme
Y
P := XN annule A. Montrons qu’il est simplement scindé (ou vaut 1).
2

Déjà, étant donnés et distincts dans , les polynômes X N et X N


n’ont pas de racines en commun (la puissance N -ième d’une telle racine devant
valoir d’une part et d’autre part). Il su¢ t donc de montrer que chaque
facteur X N est simplement scindé.
Soit donc 2 et soit une racine N -ième de (légitime car N 2 N ). La
matrice A étant inversible, AN l’est aussi, donc aucune de ses valeurs propres
n’est nulle, d’où 6= 0 puis 6= 0, ce qui donne sens à la factorisation
!
N
N N N N X
X =X = 1 ;

50 S pour « sous-algèbre »

31
le membre de droite étant simplement scindé, on a terminé51 .
Les trois hypothèses sont nécessaires : on ne peut rien dire si N = 0 (même
0 1
si on peut élargir l’hypothèse N 2 N en N 2 Z ), la matrice réelle
1 0
n’est pas diagonalisable (sur R) tandis que son carré I2 l’est, et chaque nil-
potent non nul (i. e. non diagonalisable) a une puissance nulle (donc diagonali-
sable).
3. Soit M une telle matrice. Elle est annulée par le polynôme X 2 + 1 qui est
simplement scindé dans C [X], donc M est diagonalisable dans Mn (C) avec pour
valeurs propres i ou i (les racines de X 2 + 1). Étant par ailleurs réelle, chacune
de ses valeurs propres non réelles a même ordre que sa conjuguée, d’où ! i = ! i ,
i 0
ce qui montre que M est semblable à une diagonale de blocs52 .
0 i
0 1
Or la matrice réelle véri…e aussi l’hypothèse de l’énoncé (quand n =
1 0
i 0
2), donc est semblable dans Mn (C) à . En notant P une matrice
0 i
i 0 0 1
de passage53 de vers , le calcul par blocs montre que
0 i 1 0
la diagonale de 2 blocs P est une matrice de passage de la diagonale de n2
n

i 0 0 1
blocs vers la diagonale de n2 blocs , donc M est sem-
0 i 1 0
blable à cette matrice réelle diagonale par blocs.
Il su¢ t pour conclure d’utiliser un résultat classique54 : deux matrices
réelles semblables dans Mn (C) le sont dans Mn (R).
————————————————————————————————————

2.4 Un pas vers la réduction de Dunford

La dernière proposition (au programme) de ce chapitre est un premier pas vers


les réductions de Dunford et de Jordan (toutes deux hors programme, la première
étant d’ailleurs nommée à tort car Camille Jordan et Claude Chevalley l’avaient
établie resp. en 1870 et 1950 avant les travaux de Nelson Dunford).

Proposition
Imposons f annulé par un polynôme scindé. L’espace vectoriel E est alors somme
directe de sous-espaces vectoriels stables chacun par f et sur chacun desquels f induit
la somme d’une homothétie et d’un nilpotent.
5 1 Autre argument (implicite) : X N n’a aucune racine multiple (d’une part chaque racine de
la dérivée N X N 1 est nulle, d’autre part 0 n’est pas racine de X N ).
5 2 Et, au passage, que le naturel n = ! + !
i i = 2! i est pair.
5 3 On peut par exemple imposer P := 1 i
.
i 1
5 4 Cf. chapitre réduction1 section extension des scalaires.

32
Démonstration
Soit P un polynôme comme dans l’énoncé. En notant R son ensemble (non vide)
des racines et (! ) 2 NR la famille des ordres de multiplicité de ses racines, dé…nis-
sons55
n := f Id et E := Ker n! pour chaque 2 R.
L’espace E est alors somme directe des E d’après le lemme de décomposition des
noyaux :
2 3
Y !
M !
M
E = Ker 0 = Ker P (f ) = Ker 4 (X ) 5 (f ) = Ker (f Id) = E .
2R 2R 2R

Soit par ailleurs 2 R …xé. L’espace E est alors le noyau d’un polynôme en f (à
!
savoir (X ) ), donc est un sous-espace vectoriel de E stable par f . Par ailleurs,
la restriction n à E fait sens (car f et Id stabilisent E , donc leur di¤érence aussi)
et est nilpotente vu les égalités
!
[n ]jE = n! = n! jKer(n
! = 0E ,
jE )

ce qui montre que f = Id +n induit sur E la somme d’une homothétie et d’un


nilpotent.

Remarques
La démonstration reste inchangée si E n’est plus de dimension …nie. En par-
ticulier, elle s’applique sur le corps des complexes dès que f admet un polynôme
annulateur non constant.
En utilisant la trigonalisabilité des nilpotents, on obtiendrait l’homologue ma-
triciel de cette proposition :

si A est scindé, alors A est semblable à une matrice


diagonale par blocs chacun triangulaires et à diagonale constante.

Il nous arrivera de rencontrer certains objets fonctions de f dé…nis par les


restrictions de f à chacun des blocs d’une décomposition de E en sous-espaces vecto-
riels stables par f . La proposition précédente montre que l’on pourra alors imposer f
somme d’un scalaire et d’un nilpotent, ce qui rendra de précieux services56 .
Avec les notations précédentes, pour chaque 2 Sp f , l’induit f a pour po-
dim E
lynôme caractéristique f = (X ) . Le produit de ces derniers valant f (le
voir par exemple matriciellement), égaler les ordres de multiplicités montre que

chaque espace caractéristique E est de dimension


la multiplicité ! de la valeur propre correspondante.
5 5 Culture : lorsque P est minimal en degré, les espaces E pour décrivant Vp f sont appelés les
sous-espaces caractéristiques de f .
5 6 Cf. chapitre complémentaire sur la topologie des matrices.

33
Q 57
L Rappelons que chaque famille (f ) 2 2R L (E ) dé…nit un endomorphisme
sur 2R E dont la restriction à E vaut f pour chaque 2 R.
Par exemple, la famille d’homothéties ( Id) dé…nit un endomorphisme diagonali-
sable (concaténer des bases de chaque E donne une base de vecteurs propres) et la
famille de nilpotents (n ) dé…nit un nilpotent (car annulé après max 2R ! itérations
sur chacun des E , donc sur leur somme).
On propose en complément de montrer que 0 chaque matrice1 nilpotente est sem-
0 1
B C
blable à une diagonale de blocs de la forme58 B @
C, ce qui prouvera
1 A
0
(avec la proposition précédente) que chaque matrice dont le polynôme
0 minimal est
1
1
B C
scindé est semblable à une diagonale de blocs chacun de la forme B@
C.
1 A

Réciproquement, un théorème (hors programme) de Camille Jordan a¢ rme que deux


matrices réelles sont semblables ssi elles ont même spectre complexe59 et si, pour cha-
cun de leurs valeurs propres complexes, les suites décroissantes des longueurs des blocs
de la forme ci-dessus sont égales60 .

Exercices d’application
1. On impose A scindé. Montrer alors que A est somme d’une matrice diagona-
lisable et d’une matrice nilpotente chacune dans K [A].
2. Soit61 P une C-algèbre unifère commutative de dimension …nie dont chaque
nilpotent est nul. Montrer que P est isomorphe à l’algèbre produit Cdim P .
3. On impose A scindé. Montrer alors que A est diagonalisable ssi
2
8 2 Sp A; rg (A In ) = rg (A In ) .

————————————————————————————————————

1. Traitons pour alléger le cas où A possède deux valeurs propres, notées


et et dont les ordres respectifs seront notés b et c La proposition précédente
montre alors que A est semblable à

A 0 Ib + B 0 Ib 0 B 0
:= = + .
0 A 0 Ic + C 0 Ic 0 C
| {z } | {z } | {z }
notée A0 notée D notée N
5 7 Appelé
L
la somme directe de (f ) suivant 2R E . Matriciellement : une diagonale de blocs
de la forme Mat f .
5 8 Un tel bloc est dit de Jordan.
5 9 En général, on peut remplacer C par un corps de décomposition des polynômes minimaux des

matrices considérées.
6 0 Pour plus de détails, on pourra consulter le bel ouvrage de Rached Mneimné sur la réduction

des endomorphismes.
6 1 P comme « puissance »

34
pour certaines matrices nilpotentes B et C. Vu l’égalité
P (A ) 0 P dénote le polynôme constant
D= où ,
0 Q (A ) Q dénote le polynôme constant

l’exercice d’application 3 section 1.1 montre cette dernière matrice est un poly-
A 0
nôme en = A0 .
0 A
Concluons. Soit P une matrice inversible telle que A = P A0 P 1 et soit
un polynôme tel que D = (A0 ). On a alors les égalités
1
P DP = P (A0 ) P 1
= P A0 P 1
= (A) ,

ce qui montre que (A) est diagonalisable, et l’on montrerait de même la nilpo-
tence de [X ] (A) = P N P 1 . Additionner ces deux polynômes en A donne
bien A, ce qui conclut.
2. Soit 2 P. Dans L (P), l’endomorphisme a un polynôme minimal (car P
est de dimension …nie) scindé ou valant 1 (car le corps de base est C), donc est la
somme d’un diagonalisable et d’un nilpotent . Le point précédent montre que
l’on peut imposer = ( ) = ( ) pour un certain polynôme . Puisque
est nilpotent, l’itérer su¢ samment de fois puis appliquer en 1 montre que ( )
est nilpotent dans P, donc (par hypothèse) est nul. Ainsi, est diagonali-
sable. Or, l’algèbre P étant commutative, les commutent lorsque décrit P,
donc sont codiagonalisables dans une certaine base B. On véri…e alors aisément
que l’application qui à chaque 2 P associe le -uplet formé par la diagonale
de MatB ( ) est un isomorphisme d’algèbres.
Remarque –La lectrice et le lecteur auront bien sûr satisfait leur curiosité
en véri…ant réciproquement que, pour chaque naturel d, l’algèbre produit Cd
est bien une C-algèbre unifère commutative réduite (i. e. dont 0 est le seul
nilpotent).
3. Regardons tout d’abord le cas où A est nilpotente. Sa diagonalisabilité
équivaut alors à sa nullité et son spectre est inclus dans f0g, de sorte qu’il s’agit
d’établir l’équivalence

(f étant imposé nilpotent) f = 0 () rg f = rg f 2 .

Le sens direct est immédiat. Supposant rg f = rg f 2 , l’inclusion Ker f Ker f 2


devient alors une égalité pour des raisons dimensionnelles et une récurrence
immédiate montrerait pour chaque naturel N > 0 l’égalité Ker f = Ker f N .
Pour N assez grand, on obtient Ker f = Ker 0 = E, i. e. f = 0.
Revenons au cas général et traitons pour alléger le cas où A possède deux
valeurs propres. Avec les mêmes notations qu’à la question 1, la matrice A est
semblable à
Ib + B 0
A0 := .
0 Ic + C
Comme à l’exercice d’application 3 section 2.2, on montre alors les égalités
8
< rg (A 2
In ) = b + rg C 2
rg (A In ) = b + rg C
et de même ,
rg (A In ) = rg B + c : rg (A 2
In ) = rg B 2 + c

35
d’où les équivalences

2 rg C = rg C 2
8 2 Sp A; rg (A In ) = rg (A In ) ()
rg B = rg B 2
C et B C=0 exercice 3
() () A0 diagonalisable () A diagonalisable.
nilp otentes B=0 section 2.2

———————————————————————————————————

3 Compléments (hors programme) sur les nilpotents

On impose toujours E de dimension …nie n.


0 IN 1
Pour chaque N 2 N , notons JN := la matrice nilpotente d’indice N
0 0

canonique. On a ainsi :
0 1
0 1 0 1 0 0
0 1 0
B C
1 1
, J3 = @ 1 A , J4 = B C ...
0 0 0 0
J1 = (0 ) , J2 = @ 1 A
0 0
0 0 0 0 0
0 0 0
0 0 0 0

Proposition –Dé…nition
Quand f est nilpotent, il y a une longueur ` 2 [0; nj] et une suite (ni )i2[1;`j] 2 N `
décroissante, chacune uniques, telles que f a une matrice valant Diag (Jn1 ; Jn2 ; :::; Jn` ).
La matrice précédente s’appelle la réduite de Jordan de f et est fonction du n-
uplet décroissant rg f; rg f 2 ; :::; rg f n .

Démonstration
Imposons f nilpotente et notons r son indice de nilpotence.
1. Existence. On raisonne par récurrence sur n (sans montrer la décroissance, la-
quelle découlera immédiatement d’un réordonnement des blocs Jni ) Quand n =
0, la longueur nulle et la suite vide conviennent ; imposons donc n 1. L’in-
dice r vaut alors au moins 1, donc l’itéré f r 1 fait sens et l’on peut évoquer un
= Ker f r 1 . On note alors ' la forme linéaire coordonnée de f r 1 (v)
vecteur v 2
dans une base de E obtenue en complétant la famille libre f r 1 (v) et l’on
dé…nit \
V := K [f ] (v) et S := Ker ' f i .
i2[0;rj[

Il est clair que V est stable par f et l’on véri…era aisément que la famille v; f (v) ; f 2 (v) ; :::; f r 1
(v)
en est une base dans laquelle l’induit fjV a pour matrice Jr . Pour conclure, il
su¢ t de
montrer que l’espace S est un supplémentaire de V stable par f :

36
en e¤et, la dimension dim S sera alors strictement inférieure à n (car S ne
contiendra pas le vecteur f r 1 (v) non nul de V ) et l’on pourra appliquer l’hy-
pothèse de récurrence sur l’induit fjS .
Puisque Ker (' f r ) = Ker (' 0) = Ker 0 = E, on peut indexer l’inter-
section dé…nissant S par [0; rj] au lieu de [0; rj[. Ainsi, pour chaque s 2 S, pour
chaque i 2 [0; rj[, le vecteur s est dans Ker ' f i+1 (même si i = r 1), ce
qui s’écrit f (s) 2 Ker ' f i , donc f (s) reste dans S, d’où la stabilité de S
par f .
Soit s 2 S \ V supposé non nul par l’absurde, mettons s = [P (f )] (v) pour
un certain polynôme P non nul dont on notera c le coe¢ cient devant X val P .
Puisque f r = 0, on peut supposer val P < r, ce qui permet d’utiliser l’apparte-
nance s 2 S Ker ' f r 1 val P , laquelle se réécrit ' cf r 1 (v) = 0. Or c
est non nul et ' f r 1 (v) = 1 (par dé…nition de '), ce qui est absurde. Par
conséquent, S et V sont en somme directe.
En…n, la dimension de S, intersection de r hyperplans, est minorée par62 n
r = n dim V , ce qui montre que la somme directe S V est de dimension au
moins n, donc vaut tout E.
2. Unicité. On raisonne matriciellement. Imposons A de la forme Diag (Jn1 ; Jn2 ; :::; Jn` ).
Pour chaque naturel N , on a alors les égalités63
X̀ X̀ I[ni X̀
0
N ]+ +
rg AN = rg Diag JnN1 ; JnN2 ; :::; JnN` = rg JnNi = rg = [ni N] ,
0 0
i=1 i=1 i=1
X̀ + +
d’où rg AN rg AN +1 = [ni N] [ni N 1] = Card fi 2 [1; `j] ; ni > N g ,
| {z }
i=1
=1 si N <ni et =0 si N ni
si N 1
d’où Card fi 2 [1; `j] ; ni = N g = Card fi 2 [1; `j] ; ni Ng Card fi 2 [1; `j] ; ni > N g
= rg AN 1 rg AN rg AN +1 rg AN .

La suite (ni ) prolongée par une in…nité de 0 étant décroissante, elle est entiè-
rement déterminée par les cardinaux ci-dessus, lesquels ne dépendent que des
rangs des itérés de A. La longueur ` quant à elle est le plus grand indice où cette
suite (in…nie) prend une valeur non nulle.
En…n, la suite rg AN décroît puisque la di¤érence rg AN rg AN +1 est
un cardinal (donc positif) pour chaque naturel N et, vu les égalités rg A0 =
n et rg AN = 0 pour chaque naturel N n, cette suite est fonction du n-
uplet rg A; rg A2 ; :::; rg An , ce qui conclut.

Remarque – La démonstration ci-dessus pourrait s’adapter pour montrer que


chaque matrice est semblable à une diagonale de matrices compagnes de polynômes
formant une suite décroissante pour la divisibilité (réduite dite de Frobenius). On
véri…era que la réduite de Frobenius d’un nilpotent est sa réduite de Jordan.

Exercices d’application
6 2 Fait : intersecter par un hyperplan fait décroître la dimension au plus de 1.
6 3 L’exposant + dénote une partie positive.

37
1. Montrer que chaque matrice est semblable à sa transposée.
2. Soit B 2 Mn (K). Montrer que A et B sont semblables ssi64
i i
8 2 K; 8i 2 [1; nj] ; rg (A In ) = rg (B In ) .

3. Montrer que f admet un nombre …ni de sous-espaces vectoriels stables ssi K est
…ni ou s’il y a un vecteur v 2 E tel que E = K [f ] (v) (un tel endomorphisme f
est dit cyclique). On pourra montrer pour le sens réciproque l’égalité f = f .
————————————————————————————————————

1. Le résultat
P est valide pour les matrices de la forme JN (utiliser la matrice de
passage x+y=n+1 Ex;y formée d’une anti-diagonale de 1), donc est valide pour
les diagonales de telles matrices (mettre les matrices de passages bout à bout), a
fortiori pour les matrices nilpotentes (d’après la proposition précédente), donc
pour les sommes d’une matrice nilpotente et d’une matrice scalaire (car chaque
matrice scalaire est inchangée par conjugaison), donc pour les diagonales de
telles matrices (mettre les matrices de passages bout à bout). Or, en évoquant un
corps L où A se scinde et dont K est un sous-corps, la matrice A est semblable
dans Mn (L) à une telle diagonale (d’après la proposition section 2.4), donc
est semblable à t A dans Mn (L), donc lui est semblable dans Mn (K) d’après
l’exercice d’application ?? section ??.
2. =) Rajouter une homothétie ne changeant pas la similitude, les matrices A
In et B In sont semblables, donc chacune de leurs itérées aussi, a fortiori
ont même rang.
(= Remplacer i par 1 montre que A et B ont même spectre. (Ce rempla-
cement est légitime si n 1 ; sinon A et B sont égales donc semblables).
Soit L un corps où A et B se scindent et dont K est un sous-corps. La
proposition de la section 2.4 montre alors que A est semblable dans Mn (L) à
une diagonale (lorsque décrit SpL A) de blocs A := I! + N où N est
nilpotente (d’indice au plus ! n).
Soit 2 L : la matrice (A In ) est alors semblable à une diagonale de
blocs ( ) I! + N et, chacun de ces blocs étant inversible si 6= (car de
spectre f g ne contenant pas 0), on a l’égalité des corangs

n rg (A In ) = ! rg N .

On montrerait de même et plus généralement les égalités

8 2L i
; n rg (A In ) =! rg N i ,
8i 2 [1; nj]

ce qui permet de réécrire les hypothèses sous la forme

8 2L h i h i
i i
; ! (A) rg N (A) = ! (B) rg N (B) .
8i 2 [1; nj]
6 4 Théorème d’Eduard Weyr publié en 1885. Pour une histoire de son lien avec le théorème de Jor-
dan, on renvoie à l’œuvre (déjà mentionnée) de F. Brechmacher.

38
Soit 2 SpK A = SpK B. Remplacer i par n montre alors l’égalité ! (A) =
i i
! (B), d’où l’égalité des suites rg N (A) et rg N (B) ,
i2[1;! (A)j] i2[1;! (B)j]
ce qui montre que les matrices nilpotentes N (A) et N (B) ont même réduite
de Jordan, a fortiori sont semblables, d’où la similitude de A et B . Recoller
ces blocs montre que A et B sont semblables dans Mn (L), donc dans Mn (K)
3. =) Les espaces K [f ] (v) sont stables et en nombre …ni lorsque v décrit E,
donc E est réunion …nie de sous-espaces K [f ] (v). Si K est in…ni, l’un de ces
espaces doit valoir E (d’après un lemme classique démontré dans l’exercice d’ap-
plication 2d section 1.3), ce qui conclut.
(= Si K est …ni, l’espace vectoriel E (qui est isomorphe à K dim E ) est
dim E
de cardinal (Card K) , donc admet un nombre …ni de parties, a fortiori un
nombre …ni de sous-espaces vectoriels (en particulier de sous-espaces vectoriels
stables par f ).
Soit sinon un v comme dans l’hypothèse. Abrégeons d := deg f . De la
nullité de f (f ) (v) l’on déduit l’appartenance f d (v) 2 Vecti2[0;dj[ f i (v), d’où
par une récurrence immédiate l’égalité
K [f ] (v) = Vect f i (v) .
i2[0;dj[

Prendre les dimensions donne alors


n = dim E = dim K [f ] (v) = dim Vect f i (v) = rg f i (v) i2[0;dj[
Card [0; dj[ = d,
i2[0;dj[

ce qui montre l’égalité d = n, i. e. deg f = deg f , d’où l’on déduit f = f


(d’après Cayley-Hamilton), i. e. A = A en imposant que A soit une matrice
de f . Raisonnons à présent matriciellement.
Soit L un corps où A se scinde et dont K est un sous-corps. La matrice A
est alors semblable dans Mn (L) à une diagonale (lorsque décrit SpL A) de
blocs A := I! + N où N est nilpotente (donc d’indice au plus ! ).
!
Puisque (X ) annule A pour chaque 2 SpL A, on a les divisibilités
Y !
_ _ !
Y !
(X ) = A= A= A j (X ) = (X ) ;
2Sp A 2Sp A 2Sp A 2Sp A

les deux membres extrêmes étant égaux, on a égalité partout (modulo associa-
!
tion). Soit 2 SpL A : on a alors l’égalité A = (X ) , i. e. A Id =
dim E
X , ce qui montre que la matrice nilpotente N 2 M! (L) est d’indice ! ,
donc stabilise exactement ! +1 sous-espaces vectoriels (les noyaux de ses itérés,
cf. exercice d’entraînement 3.a), ce qui revient à dire que A stabilise exacte-
ment ! + 1 sous-espaces vectoriels (ajouter une homothétie ne change pas le
caractère stable d’un sous-espace vectoriel). La remarque …nale de l’exercice
d’application 3 sectionQ1.1 montre alors (avec une récurrence immédiate) que A
n
stabilise exactement 2SpL A (! + 1) sous-espaces vectoriels de L , donc A
ne stabilise d’un nombre …ni de sous-espaces vectoriels de K n , c. q. f. d.
Remarque –Cet exercice riche est souvent posé dans le cadre plus simple
où f est diagonalisable, la cyclicité de f équivalant alors à la simplicité de cha-
cune de ses valeurs propres. On utilisera d’une part le fait qu’un plan propre in-
clut
L (si K est in…ni) une in…nité de droites stables, d’autre part la décomposition S =
2Sp f (S \ E ) pour chaque chaque sous-espace vectoriel S stable par f .

39
———————————————————————————————————

40
4 Le point des compétences

Formulaire
On évoque pour tout ce formulaire :
1. K un corps ;
2. E un K-espace vectoriel ;
3. n un naturel ;
4. f et g deux endomorphismes dans L (E) ;
5. A et B deux matrices dans Mn (K).
A…n d’uni…er chaque proposition ou dé…nition dépendant de f et de L (E) avec
son homologue matriciel traitant de A et de Mn (K),

A L (E) Mn (K)
nous abrégerons pour désigner ou bien .
a f A

1. Polynôme d’un endomorphisme, d’une matrice carrée


Est un morphisme de K-algèbres l’application

K
P[X] ! A
P In si A = Mn (K)
i i où a0 = 1A = .
P =: i 0 ci X 7 ! P (a) := i 0 ci a IdE si A = L (E)

L’image P (a) de chaque polynôme P s’obtient en remplaçant dans P son indéterminée


par a.
K [X] ! A
Le noyau de s’appelle l’idéal annulateur de a :
P 7 ! P (a)

[idéal annulateur de a] := fP 2 K [X] ; P (a) = 0g .

K [X] ! A
L’image de est la sous-K-algèbre de A engendrée par a,
P 7 ! P (a)
notée
K [a] := fP (a) ; P 2 K [X]g .
Cette sous-algèbre est commutative :

K [a] sous-algèbre commutative de A.

On impose à présent E de dimension …nie.


L’idéal annulateur de a est engendré par un unique polynôme unitaire, appelé
le polynôme minimal de a et noté

a := le générateur unitaire de l’idéal annulateur de a.

41
La sous-algèbre K [a] admet pour base la famille 1; a; a2 ; :::; adeg a 1
:
M
K [a] = Kai .
i2[0;deg a j[

Pour évaluer un polynôme en a en un vecteur propre de a, l’évaluer d’abord en


la valeur propre associée puis multiplier le vecteur propre en question par le scalaire
obtenu :
8 ( ; v) propre pour a
; [P (a)] (v) = P ( ) v.
8P 2 K [X]
Le spectre de a est inclus dans l’ensemble des racines de chaque polynôme
annulateur de a :
8 2 Sp a
; P (a) = 0 =) P ( ) = 0.
8P 2 K [X]
Théorème de Cayley-Hamilton : chaque élément de A est annulé par son
polynôme caractéristique (démonstration non exigible) :

a (a) = 0.

2. Lemme de décomposition des noyaux


!
Chaque n-uplet P de polynômes de K [X] deux à deux premiers entre eux
véri…e l’égalité

Ker [P1 P2 Pn ] (f ) = Ker P1 (f ) Ker P2 (f ) Ker Pn (f ) .

3. Polynômes annulateurs et diagonalisabilité


On impose E de dimension …nie n.

Chaque élément de A est diagonalisable ssi il admet un polynôme annulateur


scindé à racines simples, ou encore (quand A est non nulle) ssi son polynôme minimal
est scindé à racines simples :

P scindé à racines simples


a diagonalisable () 9P 2 K [X] ;
P (a) = 0
si n 1
() a scindé à racines simples.

Le polynôme minimal de chaque endomorphisme induit divise celui de l’endo-


morphisme induisant :

8V sous-espace vectoriel de E; f (V ) V =) fjV j f.

La diagonalisabilité de chaque endomorphisme de E implique celle de l’endo-


morphisme qu’il induit sur chaque sous-espace vectoriel de E qu’il stabilise :

8V sous-espace vectoriel de E; f (V ) V =) f diagonalisable =) fjV diagonalisable .

42
4. Endomorphismes à polynôme minimal scindé
Si f est annulé par un polynôme scindé, l’espace vectoriel E est alors somme
directe de sous-espaces vectoriels stables chacun par f et sur chacun desquels f induit
la somme d’une homothétie et d’un nilpotent.

Si A est scindé, alors A est semblable à une matrice diagonale par blocs chacun
triangulaires et à diagonale constante.

43
Exercices d’entraînement
Le chapitre précédent su¢ t pour résoudre les exercices 3, 5, 6, 9 et 10.
On …xe un corps K, un K-espace vectoriel E, un naturel n et un endomor-
phisme f 2 L (E). (La lettre A reste "libre".)
1. FSoit A 2 Mn (K).
(a) Imposons K C. Montrer alors l’équivalence

A A
A diagonalisable () diagonalisable.
A A

(b) Soit C 2 Mn (K) commutant avec A. Montrer alors l’équivalence

A C A diagonalisable
diagonalisable () .
0 A C nulle

Discuter l’hypothèse de commutativité.


2. FFOn impose E de dimension …nie n. Montrer alors que les assertions sui-
vantes sont équivalentes :
(a) Ker f Im f = E ;
(b) Ker f admet un supplémentaire stable par f ;
(c) val f 1;
(d) f est annulé par un polynôme de valuation au plus 1.
3. FFDécrire le commutant de chaque matrice diagonalisable ainsi que la dimen-
sion de ce commutant.
4. FF
(a) Soit G un sous-groupe de GLn (K) dont chaque élément est involutif. Mon-
trer que G est …ni de cardinal au plus 2n .
(b) Soient a; b 2 N tels que les groupes GLa (K) et GLb (K) sont isomorphes.
Montrer l’égalité a = b.
5. FF
(a) Soit A 2 Mn (C) semblable à AN pour chaque N 2 N . Montrer l’inclu-
sion Sp A f0; 1g.
(b) Soit ' : SLn (Q) ! On (R) un morphisme de groupes. Montrer que ' est
constant. (On pourra admettre que chaque matrice orthogonale est diago-
nalisable sur C.)
6. FFPour chaques matrices M et N dans Mn (K), on appelle produit tenso-
riel de M par N la matrice par blocs

M N := (mi;j N )i;j2[1;nj] (prononcer « M tenseur N » ).

Soient A et B deux matrices dans Mn (K), soit A0 semblable à A et soit B 0


semblable à B.

44
(a) Montrer que l’endomorphisme M 7! A M t B de Mn (K) a pour ma-
trice A B dans la base
(E1;1 ; E2;1 ; E3;1 :::; En;1 ; E1;2 ; E2;2 ; E3;2 :::; En;2 ; :::; E1;n ; E2;n ; E3;n :::; En;n ) .
0 0
(b) En déduire que les trois matrices A B, A B et B A sont semblables.
(c) Montrer que A B est diagonalisable si A et B le sont. Étudier la réci-
proque.
(d) Lorsque K = C, montrer l’égalité spectrale
Sp (A B) = (Sp A) (Sp B) (multiplication complexe "parties")
et préciser les ordres de multiplicités de chaque valeur propre de A B.
7. FF
(a) Soit v un vecteur de E dont les itérés par f engendrent tout E. Montrer
alors que chaque endomorphisme de E commutant avec f est un polynôme
en f .
0 In 1
(b) Décrire le commutant de la matrice J := et donner sa di-
0 0

mension.
(c) (plus di¢ cile) Même question avec les diagonales de blocs de la forme J
de tailles non nécessairement égales.
8. FFFSoit G un sous-groupe de GLn (C) dont le p. p. c. m. des ordres des
éléments est …ni. On veut montrer que G est …ni.
(a) Justi…er l’existence d’un ensemble …ni tel que G Vect .
On évoque un tel et l’on considère l’application
G ! C
:= .
g 7 ! (tr (g'))'2

(b) Montrer que l’image de G par est …nie.


1
(c) Soient a; b 2 G tels que (a) = (b). Montrer alors l’inclusion Sp ab
f1g et conclure.
9. FFFSoient A; B 2 Mn (K). On note S := Sp A \ Sp B et s := Card S.
(a) Soit M 2 Mn (K) telle que M A = BM . Montrer alors la minoration
deg ( A ^ B) rg M .
et en déduire lorsque K = C et M 6= 0 que S est non vide. Discuter
l’hypothèse K = C.
(b) Montrer qu’il y a une matrice M 2 Mn (K) de rang s telle que AM = M B.
(On pourra regarder le cas s = 1 pour intuiter une matrice M convenant.)
10. FFF
(a) Les matrices diagonalisables de Mn (K) forment-elles un groupe ?
(b) Les matrices diagonalisables de GLn (K) forment-elles un groupe ?
(c) Déterminer lorsque K est in…ni le sous-groupe de GLn (K) engendré par
les matrices diagonalisables inversibles.
(d) (plus di¢ cile) Même question sur un corps …ni.

45
Solutions des exercices d’entraînement
1.
(a) Cet exercice prolonge son analogue vu au chapitre précédent. Donnons-
en une cinquième solution, de loin la plus rapide
P
Soit P =: i2N ai X i un polynôme simplement scindé qui annule A.
Vu à N 2 N …xé l’égalité (obtenue par une récurrence immédiate)
N
A A A A
= 2N (fausse si N = 0 6= n),
A A A A

A A X
P X N
l’évaluation en du polynôme P 2 = N 2N aN 2 vaut
A A

X A A
N
P (A) P (A) a0 In P (A)=0 0 a0 In
a0 I2n + aN = = .
A A P (A) a0 In P (A) a0 In 0
N 2N

Cette évaluation est donc nulle si a0 = 0, i. e. si X j P . Si ce n’est pas le


cas, on remplace P par XP , ce qui ne change ni son caractère simplement
scindé ni le fait qu’il annule A. Finalement, on a trouvé un polynôme P X 2
annulateur simplement scindé, c. q. f. d.
Réciproquement, le calcul déjà e¤ectué des évaluations polynomiales
A A A A
en montre que chaque polynôme annulant an-
A A A A
nule 2A et en évoquer un simplement scindé conclut.
Remarque – Le résultat reste valide dès que 2 6= 0 dans K. Par
1 1
ailleurs, si K = f0; 1g, la matrice est nilpotente non nulle, donc
1 1
non diagonalisable, ce qui montre la nécessité de l’hypothèse 2 6= 0.
A 0
(b) Si A est diagonalisable, alors la matrice l’est aussi, d’où
0 A
le sens (= :
A C
Supposons diagonalisable et soit P un polynôme simple-
0 A
ment scindé l’annulant. Rappelons (de l’exercice d’entraînement 2b sec-
tion 1.1) l’égalité

A C P (A) P 0 (A) C
P = (démontrable par linéarité et récurrence).
0 A 0 P (A)

Le membre de gauche étant nul, celui de droite aussi : la nullité de P (A)


montre la diagonalisabilité de A (car P est simplement scindé), la nullité
de P 0 (A) C permettra de conclure C = 0 si l’on montre l’inversibilité
de P 0 (A). Adaptons pour ce faire notre démonstration de l’implication

P (A) inversible si P ^ A = 1 (exercice d’entraînement 1a section 1.3).

Les polynômes P et P 0 sont premiers entre eux (car P est simplement


scindé), d’où par Bézout deux polynômes U et V tels que P U +P 0 V = 1 :

46
évaluer en A montre que P 0 (A) et V (A) sont inverses l’un de l’autre, ce
qui conclut le sens =) :
1 0
Lorsque A = (qui est diagonalisable car est un projecteur)
1 0
0 0
et C = (qui est non nulle), on véri…era aisément que
1 0

0 1
1 0 0 0

A C B 1 1 C
=B C est un projecteur,
0 0
la matrice @ 0 A
0 A 0 1 0

0 0 1 0

donc est diagonalisable, ce qui in…rme l’équivalence de l’énoncé.


2. Supposons (a). Alors Im f est trivialement un supplémentaire de Ker f ,
d’où (b).
Supposons (b) et soit S un supplémentaire de Ker f stable par f . L’in-
duit fjS est alors injectif (car de noyau S \ Ker f = f0g), i. e. ne possède
pas 0 comme valeur propre, ce qui revient à dire que son polynôme minimal
est de valuation nulle. Par ailleurs, chaque endomorphisme s’annulant sur son
noyau, l’induit fjKer f est annulé par X, donc son polynôme minimal divise X
et est de valuation au plus 1. En…n, les sous-espaces vectoriels Ker f et S étant
supplémentaires et stables par f , on a l’égalité f = fjKer f _ fjS , d’où
8 9
>
> >
>
< =
val f = max val fjKer f ; val fjS 1 et (c).
> >
:| {z } | {z }>
> ;
au plus 1 nulle

Supposons (c). Le polynôme f annule alors f et est de valuation au plus 1,


d’où (d).
Supposons (d) et soit P un polynôme annulant f de valuation au plus 1.
Les dimensions de Ker f et Im f ayant pour somme dim E, il su¢ t pour avoir (a)
de montrer que ces sous-espaces vectoriels sont en somme directe. Soit donc w
dans leur intersection et soit v 2 E tel que w = f (v). Les itérés de v sont alors
nuls (à l’exception possible de v et f (v)), d’où l’égalité
[P (f )] (v) = P (0) v + P 0 (0) f (v) .
Si P est de valuation 1, on obtient 0 = P 0 (0) f (v), i. e. 0 = w, ce qui conclut.
Dans le cas contraire, le scalaire 0 n’est pas valeur propre de f (chaque 2 Sp f
devant annuler P ), i. e. f est injectif et ses noyau f0g et image E sont clairement
en somme directe.
Remarque – Notre dernière implication aurait également pu se rédiger à
l’aide du lemme de décomposition des noyaux.
3. Pour chaque matrice M , on notera Comm M son commutant. Soit M 2
Mn (K).
Soit A 2 Mn (K) diagonalisable. Énumérons ses valeurs propres 1 ; 2 ; :::; s
où s := Card Sp A et soit P inversible telle que A = P P 1 avec
:= Diag ( 1 In1 ; 2 In2 ; :::; s Ins ) où 8i 2 [1; sj] ; ni := ! i (A) .

47
Vu les équivalences

M 2 Comm A () AM = M A () P P 1 M = M P P 1

() P 1M P = P 1M P () P 1 M P 2 Comm ,

d’une part on a l’égalité Comm A = P 1 (Comm ) P , d’autre part il est perti-


nent de découper la matrice C := P 1 M P en blocs Ci;j selon la décomposition
de . Vu l’action multiplicative des matrices diagonales, on a alors les équiva-
lences

C 2 Comm () C = C () 8i; j 2 [1; sj] ; i Ci;j = j Ci;j


() 8i; j 2 [1; sj] ; (i 6= j =) Ci;j = 0) () C diagonale par blocs.

On en déduit qu’est un isomorphisme d’espaces vectoriels l’application


Qs
i=1 Mni (K) g! Comm A
.
(M1 ; M2 ; :::; Ms ) 7 ! P 1 Diag (M1 ; M2 ; :::; Ms ) P

En particulier, on a les égalités dimensionnelles


s
Y s
X s
X X
dim Comm A = dim Mni (K) = dim Mni (K) = n2i = !2 .
i=1 i=1 i=1 2Sp A

Sanity check : retrouver le fait que chaque matrice scalaire commute avec
chaque matrice.
4.
(a) Il est classique qu’un tel groupe est commutatif (chaque élément vaut
1
son propre inverse, d’où des égalités ab = (ab) = b 1 a 1 = ba). Ses élé-
ments étant chacun diagonalisables (car involutifs), ils sont codiagonalisables
à spectre inclus dans f 1; 1g. Les réduites diagonales peuvent donc prendre
au plus 2n valeurs (2 choix pour chacun des n coe¢ cients diagonaux), d’où
la …nitude et la majoration attendues.
(b) Soit ' : GLa (K) g !GLb (K) un isomorphisme de groupes. La partie
de GLa (K) formée des matrices diagonales à coe¢ cients dans f 1; 1g est
un sous-groupe source dont chaque élément est involutif, donc (puisque
' est un morphisme de groupes) son image est un sous-groupe but dont
chaque élément est involutif. D’après le premier point, ce sous-groupe but
est de cardinal au plus 2b . Or son cardinal est celui 2a du sous-groupe
source (car ' est bijective), d’où la comparaison 2a 2b . Remplacer ' par
' 1 (qui est aussi un isomorphisme de groupes) donnerait 2b 2a , d’où
a b
l’égalité 2 = 2 , ce qui conclut à a = b.
5.
(a) Soit 2 Sp A. Puisque N 2 Sp AN = Sp A pour chaque naturel N ,
N
la suite ne prend qu’un nombre …ni de valeurs (Sp A est …ni), donc
n’est pas injective, d’où deux naturels p < q tels que p = q , ce qui montre
ou bien la nullité de ou bien que est une racine de l’unité.

48
Notons S := Sp A nf0g et soit (N ) 2 N S tel que NQ = 1 pour
chaque 2 S (légitime par ce qui précède). En notant N := 2S N , on
aura alors N = 1 pour chaque 2 S, d’où les inclusions
n o n o
N
Sp A = Sp AN = 0N q N f0g q f1g = f0; 1g .
2Sp A 2S

(b) Rappelons que SLn (Q) est engendré par les transvections de Mn (Q) :
le morphisme ' est donc déterminé par les images de ces dernières et il su¢ t
de montrer que chacune de ces images vaut In .
Soit T 2 Mn (Q) une transvection, mettons T = In + Ei;j pour un
certain scalaire 6= 0 et certains indices i 6= j dans [1; nj]. Montrons que la
matrice ' (T ) véri…e l’hypothèse du point précédent : son spectre complexe
sera alors inclus dans f0; 1g, donc dans f1g (car chaque matrice orthogonale
est inversible) et la diagonalisabilité admise forcera l’égalité ' (T ) = In , ce
qui conclura.
Soit N 2 N . Rappelons les égalités
N
T N = (In + Ei;j ) = In + N Ei;j .

En notant P la matrice diagonale dont chaque coe¢ cient (diagonal) vaut 1


sauf le j-ième qui vaut N , on véri…era l’égalité P (N Ei;j ) P 1 = Ei;j (en
utilisant par exemple la description de l’action multiplicative des matrices
diagonales), d’où les égalités

PTNP 1
= P (In + N Ei;j ) P 1
= In + Ei;j = T ,

ce qui montre la similitude de T avec T N , a fortiori (appliquer le mor-


N
phisme ') celle de ' (T ) avec ' (T ) , c. q. f. d.
Remarque – Deux transvections quelconques de Mn (K) sont en
fait toujours conjuguées (par exemple à In + E1;2 ). Ainsi, l’égalité T N =
In + N Ei;j ci-dessus montre que T N est une transvection si N 6= 0,
donc est conjuguée à la transvection T dès que K est de caractéristique
nulle (hypothèse plus générale et plus pertinente que celle « K = Q » de
l’énoncé).
6. Notons B la base considérée par l’énoncé. Toutes les matrices seront prises
dans cette base.
(a) L’endomorphisme M 7! A M t B étant la composée (commutative)
M 7! A M
des endomorphismes , il su¢ t de déterminer les matrices
M 7! M t B
de ces deux derniers. Or l’exercice d’application ?? section ?? montre que
ces matrices valent
t t
(ai;j In )i;j2[1;nj] = A In et Diag B ;t t
B ; :::;t t
B = Diag (B; B; :::; B) .

Vu que la matrice par blocs Diag (B; B; :::; B) agit en multipliant chaque
blocs par B, le produit (commutatif) des deux matrices précédentes vaut

(ai;j In B)i;j2[1;nj] = (ai;j B)i;j2[1;nj] = A B, c. q. f. d.

49
(b) Nous allons reprendre la démarche de l’exercice d’application sec-
tion ?? (en tenant compte des transpositions).
Appelons (comme « tenseur » ) l’endomorphisme M 7! A M t B
et notons t la transposition M 7! t M (qui est une symétrie vectorielle
de Mn (K)). Vu à M 2 Mn (K) …xé les égalités
1 t
t t (M ) = A tM tB = t t
B t t
M t
A = B M t A,

les endomorphismes [M 7! A M t B] = et [M 7! B M t A] = t t 1
sont
conjugués, donc leurs matrices A B et B A sont semblables ).
0 1
A P AP
Soient P et Q deux matrices inversibles telles que B 0 = Q 1 BQ ,
0 0 t 0
appelons l’endomorphisme M 7! A M B et notons l’automor-
phisme M 7! P M t Q (de réciproque M 7! P 1 M t Q 1 ). Vu à M 2
Mn (K) …xé les égalités
0 1 1 1 t 1 t
(M ) = P P AP (M ) Q BQ Q
1 t 1 t t t
= AP P M Q Q B = AM B = (M ) ,

les endomorphismes et 0 = 0 1
sont conjugués, donc leurs ma-
0 0
trices A B et A B sont semblables.
(c) Soient et M diagonales semblables resp. à A et B. La matrice A B
est alors semblable à M , qui est diagonale par blocs (car est diagonale)
diagonaux (car M est diagonale), donc diagonale, ce qui conclut.
0 1
La réciproque est fausse en générale : si K = R et A = B = ,
0 1 1 0

0 0 0 1
B 0 1 0 C
le produit tensoriel A B = B C est alors involutif donc
0

@ 0 1 0 0 A

1 0 0 0

diagonalisable mais ni A ni B n’est diagonalisable.


(d) Imposons tout d’abord A et B triangulaires supérieures. La matrice A
B est alors triangulaire supérieure par blocs (vu la forme de A) triangu-
laires supérieurs (vu la forme de B), donc est triangulaire supérieure. No-
tons 1 ; 2 ; :::; n et 1 ; 2 ; :::; n les valeurs propres respectives de A et B
listées avec multiplicité. La diagonale Diag ( 1 B; 2 B; :::; n B) de A B
est alors formée des scalaires

1 1; 1 2 ; :::; 1 n; 2 1; 2 2 ; :::; 2 n; :::; n 1; n 2 ; :::; n n;

d’où le polynôme caractéristique


0 1! (A)
n Y
Y n Y Y 2Sp
YB
@ ! (B) A ! (A) ! (B)
A B = X i j = (X ) = (X ) .
i=1 j=1 2Sp A 2Sp B 2Sp A

Il en résulte l’égalité spectrale annoncée ainsi que la description des multi-


plicités :

8 ( ; ) 2 Sp A Sp B; ! (A B) = ! (A) ! (B) .

50
Dans le cas général, A et B sont trigonalisables, donc semblables à des
matrices triangulaires dont le produit tensoriel est semblable à A B (donc
a même polynôme caractéristique) et l’on est ramené au cas précédent.
Remarque –Culture. La dé…nition de A B n’admet en fait aucune
restriction sur les tailles de A et B et tout ce qui précède reste valide
(reprendre les même preuves en étant attentif aux indices).
7.
(a) Pour chaque naturel N , notons vN := f N (v). Soit c 2 L (E) commu-
tant avec f . L’image c (v) se décompose alors dans la famille génératrice
donnée : soit 2 K (N) tel que
" #
X X X X
N N N
c (v) = N vN = N f (v) = Nf (v) = [P (f )] (v) où P := NX .
N 2N N 2N N 2N N 2N

Puisque l’on veut écrire c comme un polynôme en f , l’égalité c (v) =


[P (f )] (v) suggère de considérer sérieusement le candidat P : il su¢ t pour
conclure de montrer que les endomorphismes c et P (f ) coïncident sur
chaque itéré de v par f . On vient de le dire pour le 0-ième. Par ailleurs,
puisque c commute avec chaque polynôme en f , on a pour chaque naturel N
les égalités
cf =f c
c (vN +1 ) = c f N (v) = cf N (v) = f N c (v) = f N (c (v)) = f N ( [P (f )] (v) )
cf =f c
= f N P (f ) (v) = P (f ) f N (v) = [P (f )] f N (v) = [P (f )] (vN +1 ) , c. q. f. d.

(b) La matrice J véri…e les hypothèses du point précédent, donc son com-
mutant est formé des polynômes en J. Les puissances de J ont été dé-
crites en cours (matrices ayant une surdiagonale constante et étant nulles
ailleurs). Le commutant de J est donc formé des matrices triangulaires
supérieures constantes sur chaque surdiagonale et sa dimension vaut n (un
degré de liberté par surdiagonale).
On aurait pu raisonner de façon plus élémentaire en égalant directe-
ment les coe¢ cients de M J et JM .
(c) Pour chaque matrice M , on notera Comm M son commutant. Soit M 2
Mn (K).
0 IN 1
Pour chaque naturel N , notons JN := . Soit (n1 ; n2 ; :::; n` )
0 0

une suite de naturels de somme n, notons D := Diag (Jn1 ; Jn2 ; :::; Jn` ) et
décomposons la matrice M en blocs Mi;j selon D. On a alors l’équivalence

DM = M D () 8i; j 2 [1; `j] ; Jni Mi;j = Mi;j Jnj ,

ce qui nous ramène à l’équation Jp X = XJq d’inconnue X 2 Mp;q (K)


à p; q …xés. Résolvons cette équation en utilisant le paragraphe précédent.
Soient p; q 2 N et X 2 Mp;q (K). Imposons p q (le cas q p
X
sera similaire). Complétons alors X en une matrice carrée Y := 2
0

51
Jp
Mq (K), écrivons Jq =: pour certaines matrices et (avec
0

carrée) et découpons de même X =: ( ) où est carrée. Le calcul par


blocs livre alors les équivalences
Jp
Jp X = XJq () Jp ( )=( ) () (Jp Jp ) = ( Jp + )
0

Jp Jp Jp + Jp Jp
() = () =
0 0 0 0 0 0 0 0 0 0

X p oint
() Jq Y = Y Jq () Y 2 Comm Jq ()
triangulaire supérieure à surdiagonales constantes
0 précédent

() 9T 2 Mp (K) ; X = (0 T ) et T est triangulaire supérieure à surdiagonales constantes.


On montrerait de même, lorsque p q, l’équivalence
0
Jp X = XJq () 9T 2 Mq (K) ; X = et T est triangulaire inf érieure à sousdiagonales constantes.
T

Dans les deux cas, l’espace des solutions a pour dimension min fp; qg.
Conclusion : maintenant que l’on connaît la dimension de chacun des
facteurs du produit cartésien
Y
M 2 Mni ;nj (K) ; Jni M = M Jnj ,
i;j2[1;`j]

on obtient aisément celle de l’espace Comm D (qui est isomorphe à ce


produit) : X
dim Comm D = min fni ; nj g .
i;j2[1;`j]

Dans le cas simple où les ni décroissent, la sommande ci-dessus


P` est constante
sur chaque équerre x du carré [1; `j] et se simpli…e donc en i=1 (2i 1) ni .
2

Remarque – Avec ce résultat et le complément hors programme


sur les nilpotents, on décrirait facilement la dimension du commutant de
chaque matrice réelle.
8. Notons e l’exposant du groupe G (i. e. le p. p. c. m. des ordres de ses
éléments).
(a) L’espace Vect G est de dimension …nie (comme sous-espace vectoriel
de Mn (C)) et est engendré par G, donc cette dernière partie génératrice
inclut une partie basique de l’espace Vect G. Une telle partie véri…e par
ailleurs les inclusions
G Vect G = Vect , ce qui conclut.

(b) Soit g 2 G : par hypothèse, g est annulé par le polynôme X e 1 sim-


plement scindé, donc est diagonalisable à spectre inclus
P dans l’ensemble des
racines e-ièmes de l’unité, donc sa trace (qui vaut 2Sp g ! puisqu’on
est sur C) ne peut prendre qu’au plus en valeurs (au plus e choix pour cha-
cune des n valeurs propres comptées avec multiplicité), donc l’image (g)
ne peut prendre qu’au plus en Card V valeurs, ce qui conclut.

52
(c) Si l’on montre l’égalité a = b, on aura prouvé l’injectivité de : l’image
de étant par ailleurs …nie, son ensemble source G devra par conséquent
être …ni, ce qui conclura.
Abrégeons donc c := ab 1 et montrons c = In . Puisque l’élément c 2 G
est diagonalisable, l’égalité désirée équivaut à l’inclusion indiquée Sp c
f1g. Notons donc 1 ; 2 ; :::; n les valeurs propres de c listées avec multi-
plicité et montrons i = 1 pour chaque i 2 [1; nj].
L’élément b 1 2 G étant engendré par et la trace étant linéaire, on
peut déduire de l’hypothèse 8f 2 ; tr (a') = tr (b') les égalités
1 1
tr c = tr ab = tr bb = tr In = n.

On a donc le cas d’égalité dans la comparaison triangulaire


n
X n
X n
X
les valeurs propres de c sont
jtr cj = i j ij = 1 = n,
des racines e-ièm e de l’unité
i=1 i=1 i=1

ce qui force les termes i à être sur une même demi-droite. Comme ces
valeurs propres sont sur un même cercle (ce sont des racines e-ième de
l’unité), elles sont égales ; leur somme valant par ailleurs n, elle valent
chacune 1, c. q. f. d.
Remarque –La lectrice et le lecteur intéressés par le problème de Burn-
side (un groupe d’exposant …ni est-il …ni ?) que nous venons ici de résoudre
positivement pour les sous-groupes de GLn (C) (démontré par William Burn-
side en 1905 et publié dans les Proceedings of the London Mathematical
Society) pourront se renseigner sur les contributions de Pyotr Novikov et
Sergei Adjan (1968) et de E…m Zelmanov (1989).
9.
Ir 0
(a) Abrégeons r := rg M , J := et soient P; Q 2 GLn (K) tels
0 0

que M = P JQ, de sorte que l’hypothèse M A = BM se réécrive


1 1
P JQA = BP JQ, i. e. J QAQ = P BP J.

1a c
En décrivant QAQ =: et P BP 1 =: selon la
b d
décomposition par blocs de J, l’hypothèse devient
Ir 0 a c Ir 0 a c 0
= , i. e. = ,
0 0 b d 0 0 0 0 0
8
8 > a 0
< a= >
< A = = a d
b d
i. e. = 0 , d’où , ce qui montre que
: >
>
c=0 : B = =
0

a= est un facteur commun à A et B , d’où a j A ^ B.


Or a 2 Mr (K) , d’où deg a = r, ce qui conclut.

Sanity check : lorsque M est inversible, le facteur commun A ^ B


est degré deg A = n = deg B , d’où l’égalité A = A^B = B. On

53
retrouve ainsi le fait que deux matrices semblables ont même polynôme
caractéristique.
Quand K = C et M 6= 0, le facteur A ^ B est de degré au moins rg M
1, donc admet une racine (on est sur C), d’où une racine commune à A
et B , i. e. une valeur propre commune à A et B, d’où la non-vacuité de S.
Si K n’est pas algébriquement clos, on peut évoquer un polynôme sans
racines et imposer A = B valant la matrice compagne d’un tel polynôme :
le spectre de A est alors vide, a fortiori l’intersection S.
(b) Regardons comme suggéré le cas s = 1. Soit 2 S, soient V et W
AV = V à droite par W
non nuls dans K n tels que . Multiplier
BW = W à gauche par V
donne alors les égalités
A (V W ) = (AV ) W = ( V ) W = V ( W ) = V BW ;
pour avoir du AM = M B avec M := V W , il faudrait intervertir B et W .
On y parvient en transposant au préalable : puisque Sp B = Sp (t B), on
peut rétrospectivement imposer t BW = W au lieu de BW = W , d’où
les égalités
(AV ) t W = ( V ) t W = V t ( W ) = V t t
BW = V t
W B = V t W B.
Cette fois, la matrice M := V t W convient (son rang sera calculé plus
tard).
Dans le cas général, soit (V ; W ) 2S une famille de vecteurs propres
telle que
AV = V X
8 2 S; et notons M := V tW .
BW = W
2S

En reprenant le même calcul que ci-dessus, on obtient par linéarité les


égalités
!
X X m êm e
X X
t t t t
AM = A V W = A V W = V W B= V W B = M B.
calcul
2S 2S 2S 2S

Il reste à montrer rg M = s. Nous allons pour ce faire montrer l’égalité


Ker M = Ker t W
où W est une matrice de taille n s obtenue en concaténant les s colonnes
libres W , ce qui permettra de conclure
rg M = n dim Ker M = n dim Ker t W = rg W = s
(bien vérifer les tailles des matrices M et t W pour s’assurer de la dimension
des espaces sources intervenant dans la formule du rang). Or cette égalité
nucléaire résulte à X 2 K n …xé des équivalences
X t
W X est
X
X 2 Ker M () V tW X = 0 () t
W X V =0
de taille 1 1
2S 2S
lib erté
() 8 2 S; t W X = 0 () t W X = 0 () X 2 Ker t W .
des V

54
10.
(a) Lorsque n = 0, toutes les parties de Mn (K) considérées sont des
groupes triviaux (singletons). On imposera donc n 1.
La matrice nulle est diagonalisable mais son inverse ne fait pas sens
(car n 1), donc les matrices diagonalisables de Mn (K) ne forment pas
un groupe.
1 1 0 1
Autre argument : les matrices et sont des pro-
0 0 0 1
0 2
jecteurs, donc sont diagonalisables, et leur produit est nilpotent
0 0

non nul, donc non diagonalisable ; compléter ces matrices avec les 0 permet
de transporter ce contre-exemple quand n 2.
(b) Chaque matrice de M1 (K) est diagonale, donc les diagonalisables in-
versibles de taille 1 1 forment tout le groupe GL1 (K).
0 1 1 2
Les matrices et ont pour polynômes caracté-
1 1 1 1
2 2
ristiques respectifs X + X 2 et X 2X 1, lesquels sont tous deux
simplement scindés et de valuation nulle, donc les deux matrices considérées
1 1
sont diagonalisables et inversibles. En revanche, leur produit est
0 1
une transvection, donc n’est pas diagonalisable.
Finalement, les matrices diagonalisables de GLn (K) n’en forment ja-
mais un sous-groupe –sauf cas triviaux n 2 f0; 1g.
(c) Cette question précise la précédente.
Lorsque n 2 f0; 1g (cas triviaux), le sous-groupe cherché est tout GLn (K)
et l’on imposera donc n 2.
Rappelons que les transvections et les dilatations engendrent le groupe
linéaire GLn (K). Chaque dilatation étant diagonalisable (car diagonale),
si l’on arrive à montrer que les diagonalisables engendrent chaque trans-
vection, le sous-groupe recherché sera tout GLn (K).
Soit donc T une transvection. Puisque K est in…ni, on peut évoquer
une matrice diagonale D dont les coe¢ cients sont non nuls et distincts.
Alors T s’écrit D 1 (DT ) où la matrice DT est diagonalisable car trian-
gulaire avec des termes distincts sur la diagonale (cf. action multiplication
des matrices diagonale), ce qui conclut.
(d) Les cas triviaux n 2 f0; 1g ayant déjà été traités, on imposera n
2. Tâchons de montrons que chaque transvection est engendrée par les
diagonalisables de GLn (K).
Puisque
0 chaque 1
transvection de GLn (K) est semblable à la transvec-
1 1 0
1 1
tion @ 0 1 0 A, on est ramené au cas de la transvection
0 1
0 0 In 2
(détailler au besoin le calcul par blocs).
En cherchant une décomposition du type
1 1 ? 1 0 1 0 1
= P 1 P ,
0 1 0 0

55
1 1 1
mettons avec P = et P = pour faire simple,
0 1 0 1
1
on trouve qu’imposer := 1
1
convient où est un scalaire évoqué
dans K nf0; 1g .
Il reste le cas K = f0; 1g : la seule matrice diagonalisable inversible est
alors l’identité (cf. exercice ??), donc le sous-groupe cherché est fIn g, lequel
strictement inclus dans GLn (K) car n 2 et T n’est pas diagonalisable.
K = f0; 1g
Conclusion : le sous-groupe cherché est le singleton fIn g si
n 2
et vaut tout GLn (K) sinon.

56

Vous aimerez peut-être aussi