3 Reduction 2
3 Reduction 2
19 septembre 2017
1
Comme au chapitre précédent, on …xe pour tout ce cours :
1. un corps K ;
2. un K-espace vectoriel E ;
3. un naturel n ;
4. un endomorphisme f 2 L (E) ;
5. une matrice carrée A 2 Mn (K) :
A L (E) Mn (K)
le couple désignera toujours ou .
a f A
1.1 Dé…nition
Dé…nition –Propriété
On appelle évaluation polynomiale1 en a l’application2 linéaire dé…nie sur la
base X N N 2N de K [X] par
On la note
K [X] ! A
eval : .
a P 7 ! P (a)
Remarques
Bien observer l’image des constantes, le polynôme 1 (unité de l’algèbre K [X])
étant envoyé sur l’unité de l’algèbre A :
1 (A) = In
1 (a) = 1A , d’où .
1 (f ) = IdE
2
P n
Soit P =: n2N cn X
un polynôme de K [X]. On a alors les égalités
!
X X X
n
P (a) = eval (P ) = eval cn X = cn eval (X n ) = cn an .
a a a
n2N n2N n2N
Dit en français :
c0 + c1 X + c2 X 2 + + cd X d (A) = c0 In + a1 A + c2 A2 + + cd Ad
et c0 + c1 X + c2 X 2 + + cd X d (f ) = c0 Id +c1 f + c2 f 2 + + cd f d .
Soit B une matrice carrée. On a alors pour chaque polynôme P 2 K [X] l’égalité
A 0 P (A) 0
P = .
0 B 0 P (B)
Propriété –Dé…nition
L’évaluation en a est un morphisme d’algèbres :
Démonstration
Soient P; Q 2 K [X]. Puisque evala est linéaire, l’égalité
3
et il su¢ t de la montrer pour P et Q éléments d’une base de K [X]. Imposons
donc (P; Q) de la forme (X p ; X q ) pour certains naturels p et q. On a alors les égalités
Il en résulte que
f stabilise Ker P (f ).
Voilà en quoi7 le calcul polynomial (en particulier celui des puissances) motive la
réduction :
1 1 1
trouver un "réduit" iai facilitant l’évaluation de P (a) = iP i ai i .
Par exemple, on pourrait raisonnablement être démotivé pour évaluer à la main A42!
lorsque 0 1
89 198 507
A = @ 40 89 233 A .
0 0 2
Or, en posant := Diag (2; 1; 1), le calcul du polynôme caractéristique
A = (X 1) (X 2) (X + 1) simplement scindé
6 On parle ici d’induits sur V (et non de restrictions).
7 Dans le jargon mathématique, on dit que les évaluations polynomiales commutent aux conjugai-
sons.
4
montre que A est diagonalisable de spectre f 1; 1; 2g (donc semblable à ) et la
description de ses sous-espaces propres par résolution de systèmes fournit la matrice
de passage suivante8 :
0 1
1 9 11
A = P P 1 avec P := @ 3 4 5 A .
1 0 0
0 10 10 1
1 9 11 0 0 0 0 1
abréger
= @ 3 4 5 A@ 0 1 0 A@ 5 11 28 A
:=242!
1 0 0 0 0 1 4 9 23
0 10 1 0 1
1 9 11 0 0 1 0 1
= @ 3 4 5 A@ 5 11 28 A = @ 0 1 3 (1 ) A.
1 0 0 4 9 23 0 0
0 1
a1 a2 an
B ..C
B an a1 a2 .C
B C
n 10 B C
..
Exemple : soit a 2 C . Réduisons la matrice B an 1 an C
.
B C
B . C
@ .. a2 A
a2 an 1 an a1
constante sur chaque "diagonale" et précisons son spectre.
Notons la matrice considérée11 . Elle se réécrit
0 In 1 0 In 2 0 1
= a1 In + a2 + a3 + + an .
1 0 I2 0 In 1 0
Vu l’action de C sur les vecteurs colonnes (décaler modulo n les coordonnées d’un
cran vers le haut), la matrice C agit par multiplication à gauche sur chaque matrice
donnée en décalant modulo n les lignes de cette matrice d’un cran vers le haut, ce qui
permet de décrire les puissances de C : une récurrence immédiate livrerait les égalités
0 In i
8i 2 [0; nj] ; C i = .
Ii 0
5
Pn 1
En notant := i=0 ai+1 X i , on peut donc réécrire
= a1 C 0 + a2 C 1 + a3 C 2 + + an C n 1
= (C)
La matrice est par conséquent diagonalisable dans Mn (C) et son spectre vaut (Un ).
Sanity
0 check : lorsque1 a2 = a3 = = an , on retrouve une matrice de la
b a a
B a j C
forme B
@ j
C dont on a déjà établi la diagonalisabilité (cf. section ??).
a A
a a b
Le polynôme vaut alors
Xn 1
b + a X + X2 + Xn 1
= (b a) + a ,
X 1
ce qui permet de retrouver les valeurs propres b a et b+(n 1) a avec les multiplicités
resp. n 1 et 1.
Exercices d’application
1
1. Imposons A inversible. Montrer alors l’appartenance A 2 K [A].
2. On …xe un polynôme P 2 K [X].
(a) Soit g 2 L (E) tel que [f; g] = Id. Montrer les égalités
A B P (A) P 0 (A) B
P = .
0 A 0 P (A)
3. Soit B une matrice carrée. On impose A et B resp. annulées par deux polynômes
premiers entre eux. Montrer alors l’égalité
P (A) 0 A 0
=K .
0 Q (B) P;Q2K[X]
0 B
6
————————————————————————————————————
2
1. La famille 1; A; A2 ; :::; An a une longueur strictement supérieure à la
dimension de l’espace vectoriel Mn (K) où elle prend ses valeurs, donc est liée,
ce qui permet d’évoquer un polynôme P 6= 0 annulateur de A. Notons v la
valuation de P (ce qui fait sens puisque P est non nul). Le polynôme Q := XPv
a alors un coe¢ cient constant non nul, donc s’écrit c (1 XR) pour un certain
scalaire c et un certain polynôme R. Puisque a est inversible et c non nul,
on peut simpli…er par cav l’égalité P (a) = 0, ce qui donne [1 XR] (a) = 0,
i. e. 1 (a) = XR (a), ou encore aR (a) = 1A , d’où a 1 = R (a).
Remarque –Cette démarche est e¤ ective dès lors que l’on s’est donné un
polynôme annulateur (non nul) de A. La recherche e¤ective de tels polynômes
pourra donc servir cette démarche.
2. Les deux égalités à montrer étant linéaires en P , il su¢ t de les montrer
lorsque P est un élément de la base canonique de K [X]. Procédons par récur-
rence.
(a) Pour chaque naturel N ,
notons eN l’égalité f; g N = N g N 1
7
3. L’inclusion est immédiate d’après une remarque précédente (fondée sur
le calcul par blocs diagonal). Montrons la réciproque.
(A) = 0
Soient et deux polynômes premiers entre eux tels que
(B) = 0
(permis par hypothèse). Soient P; Q 2 K [X]. Le lemme chinois permet d’évo-
quer un polynôme tel que
= P mod P +U
, mettons = pour certains polynômes U et V .
= Q mod Q+V
A 0 (A) 0
= a ses termes diagonaux égaux,
0 B 0 (A)
0 (A) 0 0 0
ce qui n’est pas le cas de la matrice = ,
0 1 (B) 0 In
= ( \ S) ( \ T).
Proposition
1 3 Nous verrons que les polynômes annulateurs de A ont en commun un diviseur non constant
(si n > 0), donc les matrices A et B ne sauraient lorsqu’elles sont égales être annulés resp. par deux
polynômes premiers entre eux.
1 4 Cette décomposition peut intervenir dans les exercices sur les sous-espaces vectoriels stables et
8
Soient P et Q deux polynômes premiers entre eux. On a alors l’égalité
Démonstration
P (f )
Notons := : le produit vaut alors P (f ) Q (f ) = P Q (f ) et l’on
Q (f )
veut donc montrer
Ker = Ker Ker .
u
Soient (par Bézout) U et V deux polynômes tels que P U +QV = 1 et notons :=
v
U (f )
: on a alors l’égalité
V (f )
Id = 1 (f ) = [P U + QV ] (f ) = P (f ) U (f ) + Q (f ) V (f ) = u + v.
L’endomorphisme u s’annule sur Ker , de même v sur Ker , donc leur somme Id
s’annule sur Ker \ Ker , d’où la nullité de cette intersection, ce qui montre que ces
noyaux sont en somme directe.
De même, le produit s’annule sur Ker et sur Ker , donc le sous-espace
vectoriel Ker inclut leur somme.
Il reste pour conclure à montrer l’inclusion
?
Ker Ker + Ker .
Démonstration
Pour chaque naturel c, notons Lc l’énoncé ci-dessus16 quanti…é universellement
sur les P de cardinal c. Montrons 8c 2 [2; 1j[ ; Lc par récurrence (L0 et L1 sont
triviaux).
1 5 Bien observer que ; ; u; v (tous des polynômes en f ) commutent entre eux.
16 L pour « lemme »
9
Nous venons d’établir L2 (cf. proposition précédente)
Soit c 2 tel que Lc . Soit P un ensemble de c + 1 polynômes deux à deux
premiers Qentre eux dont on note le produit. Soit p 2 P, notons P := P nfpg
et := P 2P P . On a alors les égalités
L L
M
Ker (f ) = Ker p (f ) =2 Ker p (f ) Ker (f ) =c Ker p (f ) Ker P (f )
P 2P
asso ciativité de
M M
= Ker P (f ) = Ker P (f ) , ce qui montre Lc+1 .
la som m e directe
P 2fpgqP P 2P
Corollaire
Les sous-espaces propres de f sont en somme directe.
Démonstration
La famille (E ) 2Vp f étant en somme directe ssi chacun de ses sous-familles …nies
l’est, évoquons une partie …nie de Vp f . L’ensemble fX g 2 est alors …ni et
formé de polynômes deux à deux premiers entre eux, donc (d’après le lemme de
décomposition des noyaux) les sous-espaces vectoriels Ker [X ] (f ) = E (f ) sont
en somme directe pour décrivant , ce qui conclut.
Exercice d’application
Soit I un intervalle réel in…ni. On impose E = C 1 (I; C) et on note l’opérateur
de dérivation. Pour éviter les confusions, on abrègera
Id := Id 2 L (E) et id := Id 2 E.
E I
f (n) + an 1f
(n 1)
+ + a1 f 0 + a0 f = 0 d’inconnue f 2 E.
————————————————————————————————————
10
On en déduit à f 2 E …xé les équivalences
! dé…nir ! id p oint
f 2 Ker ( Id) () [ Id] ge =0 () g (!) e id
=0
g:=f e id précédent
() g (!) = 0 () g 2 C! 1 [X] () f e id
2 C! 1 [X] () f 2 e id
C! 1 [X] ,
Remarque – On décrirait par une méthode analogue les suites véri…ant une
récurrence linéaire à coe¢ cients constants. L’analogue séquentiel des solutions
continues t 7! e t td serait les suites n 7! n nd .
————————————————————————————————————
Proposition –Dé…nition
Ker eval = ( a) .
a
P (a) = 0 () a j P.
1 7 L’algèbre Mn (K) étant de dimension …nie n2 ,
cette imposition équivaut (dans ce cours) à ce
que E soit de dimension …nie.
1 8 Par soucis de lisibilité,
a poura être noté (a).
11
3. La sous-algèbre K [a] admet pour base19 la famille 1; a; a2 ; :::; adeg a 1
:
M
K [a] = Kai .
i2[0;deg a j[
Démonstration
1. L’anneau K [X] étant principal, l’idéal-noyau Ker evala est un idéal princi-
pal de K [X], donc de la forme (M ) pour un certain M . Puisque l’espace vectoriel
but A de evala est de dimension …nie mais pas son espace vectoriel source K [X],
cette application linéaire ne saurait être injective, donc son noyau est non nul,
d’où la non-nullité de M . Ce dernier admet donc un unique représentant unitaire
(obtenu en normalisant M ).
2. On a pour chaque polynôme P les équivalences
d’où il vient
evala est un
P (a) = [Q a + R] (a) = Q (a) (a) + R (a) = R (a) 2 Vect ai .
m orphism e | a{z } i2[0;dj[
=0
Pd 1
Montrons le caractère libre. Soit 2 K d tel que i=0 i ai = 0 (relation
Pd 1
de liaison). Alors le polynôme i=0 i X i annule a, donc est multiple de a ;
étant par ailleurs de degré strictement plus petit que deg a , ce multiple doit
être nul, ce qui s’écrit = 0, c. q. f. d.
Remarques
Le point (2) peut se reformuler comme suit :
12
En particulier, le polynôme minimal est inchangé par conjugaison21 :
1
8i 2 A ; iai = a.
P (a + 1A ) = 0 () [P (X + )] (a) = 0 () a j P (X + ) () a (X ) j P,
On a les équivalences
a unitaire
a =1 () 12( a) () 1 2 Ker eval () 1 (a) = 0 () 1A = 0 () A = f0g .
a
13
L’hypothèse « A de dimension …nie » n’intervient qu’à un seul endroit : pour
établir la non-injectivité de evala . Par conséquent, tout ce qui précède reste valide
dès que evala n’est pas injectif (même en dimension in…nie, hors programme), i. e.
quand a admet un polynôme annulateur autre que (cas trivial) le polynôme nul24 .
Culture hors programme : l’algorithme de Le Verrier présenté pour cal-
culer A permet également d’obtenir A lorsque ce dernier se scinde. En e¤et, une fois
calculé via l’algorithme le polynôme matriciel M := com (XIn A), il su¢ t d’utiliser
l’identité Y ! val M (X+ )
A = (X )
2Sp A
(laquelle pourrait être établie avec les compléments présentés section 3).
Exemples
On aura en particulier
0 1 0 1
0 1 18 1
B C B C
B C = X n d’où B C = (X n
18) .
@ 1 A @ 1 A
0 18
| {z } | {z }
m atrice de taille n n n symb oles 18
f = Id =) f =X (sauf si E = f0g )
.
A = In =) A =X (sauf si n = 0)
14
Q
multiple de 2Sp A (X ). Nous venons de décrire l’idéal annulateur de A,
lequel est par ailleurs inchangé par similitude, d’où l’implication
Y
a diagonalisable =) a = (X ).
2Sp a
Deux cas particuliers ressortent26 , les idempotents (de spectre inclus dans f0; 1g)
et les évolutifs (de spectre inclus dans f 1; 1g) :
Propriété
Soit V un sous-espace vectoriel stable par f . Alors fjV divise f.
Démonstration
2 6 Lesrestrictions « non scalaire » excluent le projecteur nul (a fortiori le cas pathologique où E
est nul), la symétrie centrale et le projecteur-symétrie identité.
15
En abrégeant M := f, on a les égalités
Sanity check : pour chaque matrice carrée B, le polynôme minimal A divise bien
A 0
celui A _ B de .
0 B
Exercices d’application
1.
(a) Soit P 2 K [X]. Montrer que P (a) est inversible ssi P est premier avec a.
(b) En déduire que f est scindé (ou vaut 1) ssi chaque sous-espace vectoriel
non nul stable par f contient un vecteur propre de f .
2. Abrégeons := f et soit v 2 E.
(a) Donner sens au générateur unitaire, noté27 v , du noyau de l’application
linéaire
K [X] ! E
.
P 7 ! [P (f )] (v)
(b) Montrer l’équivalence = v () E = Ker v (f ).
S
(c) Montrer l’inclusion E e2F Ker e (f ) pour une certaine partie …nie F
E.
(d) On impose K in…ni. Montrer alors que E ne peut être recouvert par des
sous-espaces vectoriels stricts en nombre …ni
(e) En déduire (toujours quand K est in…ni) que vaut e pour un certain
vecteur e 2 E.
————————————————————————————————————
1.
(a) Supposons P et a premiers entre eux. Soient (par Bézout) U et V
deux polynômes tels que
P U + a V = 1.
Évaluer en a donne alors
16
Supposons P (f ) 2 GL (E). L’exercice d’application 1 section 1.1 mon-
1
trait que P (f ) est un polynôme en P (f ), a fortiori un polynôme en f ,
1
mettons P (f ) = U (f ) pour un certain polynôme U . On a alors P U (f ) =
P (f ) U (f ) = Id, donc 1 P U annule f , i. e. est multiple de f , met-
tons 1 P U = f V pour un certain polynôme V , d’où une relation de
Bézout 1 = P U + f V et la primalité relative de P et f .
(b) =) Soit S un sous-espace vectoriel non nul stable par f . Le poly-
nôme fjS divise alors f (qui est scindé ou vaut 1) et ne vaut pas 1 (car S
est non nul), donc est scindé.
Q
(= Décomposons f = P 2P P P en produit d’irréductibles uni-
taires (P est ici …ni et l’on a vP 1 pour chaque P 2 P). Si P est vide,
alors f = 1 et on a terminé. Soit sinon P 2 P. Le noyau Ker P vP (f )
est alors stable par f : s’il est nul, l’endomorphisme P vP (f ) est inversible,
d’où (par le point précédent) les égalités 1 = P vP ^ f = P vp , ce qui est
absurde puisque vp 1.
On peut donc évoquer un vecteur propre v dans ce noyau : notons
sa valeur propre associée. On a alors l’égalité
0 = 0 (v) = [P vP (f )] (v) = P vP ( ) v, donc est racine de P vP , i. e. de P ,
ce qui force cet irréductible à valoir X .
Q
Finalement, chaque P 2 P est scindé, donc le produit P 2P P P
= f
est scindé (ou vaut 1).
2.
(a) L’application considérée evalv evalf est bien linéaire (comme compo-
sée d’applications linéaires), donc son noyau est un sous-espace vectoriel
de K [X] : montrons que ce noyau en est un idéal, la principalité de K [X]
donnant alors sens au générateur unitaire de cet idéal.
Soient P et deux polynômes tels que (f ) (v) = 0. On a alors les
égalités
[P (f )] (v) = [P (f )] ( (f ) (v) ) = [P (f )] (0) = 0, ce qui conclut.
(b) Vu les égalités [ (f )] (v) = 0 (v) = 0, le polynôme f est dans le noyau
précédent, donc est un multiple de v , d’où les équivalences
j
v prop. de
= v () j v () v (f ) = 0 () Ker v (f ) = E.
(c) Par dé…nition de v , le vecteur v appartient au noyau Ker v (f ), ce
qui montre que ces noyaux recouvrent E lorsque v parcourt ce dernier :
[
E Ker e (f ) .
e2E
17
(d) Soient par l’absurde V0 ; V1 ; :::; Vm des sous-espaces vectoriels stricts
recouvrant E où m est dé…ni minimal. Par minimalité de m, on peut évoque
un vecteur v hors de V1 [ V2 [ [ Vm (donc dans V0 ) et un "point" a hors
de V0 . Montrons que la droite := a + Kv rencontre chaque Vi en au plus
un point, l’inclusion
m
[ conduisant alors à la …nitude de ,
=E\ Vi \
| {z } donc à celle de K : contradiction.
i=0 …ni
A L (E) Mn (K)
Rappelons que le couple désigne ou .
a f A
On impose désormais E de dimension …nie n.
Il fera donc sens de parler des éléments propres de a ainsi que de ses spectre,
polynômes caractéristique et minimal.
Théorème (Cayley-Hamilton28 )
2 8 La première démonstration de ce théorème, publiée au journal de Crelle, remonte à 1878 et est
signée Ferdinand Georg Frobenius (bien qu’Arthur Cayley et William Hamilton aient également
contribué à l’essor de la théorie matricielle en cette période).
18
Chaque élément de A est annulé par son polynôme caractéristique :
a (a) = 0.
Pour chaque naturel i, abrégeons vi := f i (v) et notons d le plus petit naturel tel
que soit libre30 la famille (v0 ; v1 ; :::; vd 1 ). Montrons alors que
f stabilise V := Vect vi .
i2[0;dj[
D’une part, pour chaque i 2 [0; d 1j[ le vecteur vi est envoyé (par f ) sur vi+1 qui
reste dans V (car i + 1 2 [0; dj[), d’autre part, l’itéré vd est lié aux précédents par
minimalité de d, donc l’image f (vd 1 ) reste dans V . Il en résulte, par linéarité de f ,
que l’image de chaque vecteur de Vecti2[0;d 1j] vi reste dans V .
Nous avons dit que vd était lié aux vi pour i 2 [0; dj[ : on peut donc évoquer une
famille a 2 K d+1 de scalaires tels que
d
X
ai vi = 0 et même imposer ad = 1.
i=0
Nous avons déjà rencontré cette matrice (cf. exemple 6 section ??) et calculé son
polynôme caractéristique
d d
! d
X X X
i i
= fjV = ai X , d’où (f ) = ai X (f ) = ai f i , puis
i=0 i=0 i=0
" d
# d d
X X X
[ (f )] (v) = ai f i (v) = ai f i (v) = ai vi = 0, ce qui conclut.
i=0 i=0 i=0
Remarques
2 9 Pour construire une partie stable par une application donnée et contenant un élément donné de
l’ensemble source, on doit penser aux itérés de cet élément par cette application.
3 0 La famille (v )
i i2[0;dj[ étant vide pour d = 0, elle est libre (tautologique), ce qui donne sens à d.
19
En termes de polynôme minimal, le théorème de Cayley-Hamilton a¢ rme
la divisibilité
a j a.
On en déduit la majoration
deg a n.
Le théorème de Cayley-Hamilton admet de nombreuses démonstrations (au-
cune n’est exigible). En voici d’autres, brièvement esquissées pour la lectrice et le
lecteur intéressés :
1. véri…er le théorème sur les matrices triangulaires par une récurrence "forte"
(sur la nullité des colonnes) et utiliser la trigonalisabilité de chaque matrice
complexe ;
2. véri…er le théorème sur les matrices diagonales et utiliser la densité des matrices
diagonalisables complexes31 ainsi que la continuité de l’application M 7! M ;
3. lorsque A est complexe, utiliser pour chaque complexe r assez petit en module
les égalités (valides32 pour chaque naturel N )
Z N +1 Z
N rei d N +1 d
A = et rei =0
rei A 2 2
et utiliser la comatrice
R pour faire apparaître un polynôme P s’annulant en 0 tel
que A (A) = P rei 2d ;
4. (la plus courte à notre connaissance) utiliser l’identité M t com M = (det M ) In
dans l’algèbre Mn (K (X)) avec M := XIn A, d’où une matrice T telle que
X 8 4X 3 p
+
la matrice 6 de M2 (R [X]) et le polynôme
eX X 6 + 2X
0 0 0 4 1 p0 0
X6 + X3 + X+ de M2 (R) [X] ,
e 1 0 0 0 2 0 0
sembler naturel au vu de l’exemple donné (mais démontrer qu’il s’agit bien d’un isomorphisme
d’algèbres est pédestre et fastidieux –le prix à payer pour cette preuve sinon d’une grande élégance).
3 4 Même si l’évaluation Mn (K) [X]
P ! PMn (K)
i i ne préserve pas forcément la mul-
i2N mi X 7 ! i2N mi A
tiplication (l’anneau Mn (K) des coe¢ cients n’est pas commutatif), on montre aisément l’éga-
lité [T M ] (A) = T (A) M (A) lorsque A commute avec chaque coe¢ cient du polynôme M , ce qui
est le cas ici (les coe¢ cients de M = In X A sont In et A).
20
Attention au raisonnement naïf (et faux) qui consiste à remplacer X par A dans
la dé…nition de A = det (XIn A) pour obtenir directement
?
A (A) = det (AIn A) = det (A A) = 0.
D’une part le résultat est un scalaire det (AIn A) tandis qu’on devrait trouver une
matrice A (A), ce qui est un non-sens35 , d’autre part on suppose implicitement que
« remplacer X par A » est une opération qui commute avec l’application déterminant,
ce qui est faux (sauf cas trivial). La "magie" de la dernière preuve esquissée est qu’elle
permet de réaliser cette intuition.
Pour la lectrice et le lecteur intéressés par les détails (non exigibles), précisons
tout cela à l’aide de quelques notations.
Abrégeons36 M := Mn (K), P := K [X], notons " l’évaluation en A, : 7! In
l’injection canonique de K dans M et ' l’isomorphisme M [X] = Mn [P] de la preuve
ci-dessus. Tout peut alors se voir sur le diagramme suivant :
' det
M [X] g
! Mn [P] P
#" #" .
det
M K ,! M
Le raisonnement naïf consiste à croire que chaque élément de M [X] (en haut à
gauche) a même image dans M (en bas à droite) si l’on l’évalue suivant les ‡èches
g! # ou suivant les ‡èches # ,!, croyance qui s’écrit37
?
det " = " det '.
On pourrait toutefois montrer que notre diagramme n’est jamais commutatif sauf
cas trivial où A est scalaire. Voici une esquisse de preuve : si dénote une valeur propre
n
de A, le polynôme In (X ) a alors pour image 0 = (A ) , d’où A = In + N
n
où N nilpotent ; le polynôme In (X + 1 ) a pour image 1 = (N + 1) , donc N
n
divise (X + 1) 1, donc (N ) = 1 et N = 0. Pour le sens réciproque, tout développer
(les vecteurs selon la base Ei;j X d , le déterminant selon son expression polynomiale).
Exercices d’application
7 1
1. Montrer que la matrice n’admet pas de racine carrée dans M2 (R).
0 7
3 5 À moins d’avoir pensé à identi…er un scalaire à sa matrice scalaire associée, ce qui pour le coup
21
2. Montrer que f possède un polynôme annulateur (non nul) de degré au plus 1 +
rg f . Discuter le majorant proposé.
3. On dit qu’un endomorphisme est irréductible (ou simple) ssi il stabilise exac-
tement deux sous-espaces vectoriels. Montrer que f est irréductible ssi f est
irréductible. (Pour le sens direct, on pourra considérer les sous-espaces vecto-
riels VectN 2N f N (v) .)
————————————————————————————————————
1 7
1. Soit par l’absurde R 2 M2 (R) une racine carrée de C := .
7 0
2
Cette dernière a pour polynôme minimal (X + 7) , donc la racine R est annulée
2
par X 2 + 7 , i. e.
2
R j X2 + 7 .
Or le facteur X 2 + 7 est irréductible dans R [X] et deg vaut au plus 2, ce qui
force R = X 2 + 7, d’où la nullité de R2 + 7I2 = C + 7I2 : contradiction.
2. Notons P le polynôme caractéristique de l’induit fjIm f : son degré vaut la
dimension de l’espace vectoriel Im f sous-jacent, à savoir dim Im f = rg f . Par
ailleurs, on a pour chaque v 2 E les égalités
Cayley-
0 = 0 (f (v)) = [P (f )] (f (v)) = [XP (f )] (v) ,
Hamilton
ce qui montre que le polynôme XP annule P . Comme son degré vaut 1+deg P =
1 + rg f , on a terminé
0 In 1
Lorsque f possède une matrice de la forme , son rang vaut n 1
0 0
et son polynôme minimal X n , donc le majorant proposé est atteint. Par ailleurs,
chaque polynôme annulateur de f de degré strictement inférieur à n = deg f
divise strictement f , donc serait le polynôme nul, ce qui montre que le majorant
proposé ne peut être abaissé.
3. Si n = 0, alors f = 1 n’est pas irréductible et E = f0g ne possède qu’un
seul sous-espace vectoriel, d’où l’équivalence souhaitée (cas pathologique). On
imposera donc n 1. Observer que f stabilise toujours f0g et E.
Supposons f réductible et soit V 6= E un sous-espace vectoriel non nul
stable par f . Alors fjV divise f et est de degré
deg fjV = dim V 2 [1; nj[ = 1; deg fj , donc f n’est pas irréductible.
N
Supposons f irréductible. Soit v 2 E non nul : le sous-espace vectoriel VectN 2N f (v)
est alors stable par f et est non nul (car contient f 0 (v) = v), donc vaut tout E,
i. e. est de dimension n. En particulier, si d dénote un naturel tel que
f d (v) 2 Vect f N
(v) , une récurrence immédiate donne livre alors l’inclusion
N 2[0;dj[
N N
Vect f (v) Vect f (v) , d’où les comparaisons
N 2N N 2[0;dj[
N N N
n = dim Vect f (v) dim Vect f (v) = rg f (v) d.
N 2N N 2[0;dj[ N 2[0;dj[
22
Par conséquent, chaque polynôme P 6= 0 tel que P (f ) (v) = 0 a un degré valant
au moins n. Utilisons ce fait pour conclure.
Soit P j f , notons Q := Pf et w := [Q (f )] (v). Si w est nul, alors Q est
de degré au moins n par ce qui précède, donc P est constant et on a terminé.
Dans le cas contraire, vu les égalités
Cayley
[P (f )] (w) = [P (f )] ( [Q (f )] (v) ) = [P Q (f )] (v) = f (f ) (v) = 0 (v) = 0,
Hamilton
ce qui précède montre que P est de degré au moins n par ce qui précède, donc Q
est constant et on a terminé
————————————————————————————————————
Lemme38
Soit ( ; v) un couple propre de a. On a alors pour chaque polyôme P 2 K [X]
l’égalité
[P (a)] (v) = P ( ) v.
Démonstration
L’égalité à montrer étant linéaire en P (véri…cation à la main immédiate), on peut
imposer P = X N pour un certain N 2 N. On a alors les égalités
récurrence N
[P (a)] (v) = X N (a) (v) = aN (v) = v = P ( ) v, c. q. f. d.
im m édiate
Corollaire
Le spectre de a est inclus dans l’ensemble des racines de chaque polynôme annu-
lateur de a :
8 2 Sp a
; P (a) = 0 =) P ( ) = 0.
8P 2 K [X]
Démonstration
Pour chaque polynôme P annulateur a et chaque couple propre ( ; v) de a, on a
les égalités
p oint
P ( )v = [P (a)] (v) = 0 (v) = 0, d’où P ( ) = 0 puisque v est non nul.
précédent
23
Ce dernier corollaire est simple et rend de précieux services. Nous l’utiliserons
pour décrire en termes de polynôme minimal d’une part la nilpotence, d’autre part la
diagonalisabilité.
Sp f f0; 1g si f projecteur
.
Sp f f 1; 1g si f symétrie
Exemples
tr A = n
1. On impose K = C et . Montrons que A est la matrice identité.
A2 = A3
La matrice A est annulée par le polynôme X 3 X 2 = X 2 (X 1), donc
son spectre est inclus dans f0; 1g. On en déduit
Propriété
Le spectre d’un nilpotent est nul (sauf si A est nulle39 ) :
Démonstration
3 9 Quand A est nulle, Sp a est vide (cas pathologique).
24
Soit a nilpotent, soit 2 N tel que a = 0. Chaque valeur propre de a est alors
racine du polynôme annulateur X , d’où l’inclusion Sp a f0g.
L’inclusion réciproque équivaut à ce que 0 soit valeur propre de a, i. e. à la non-
injectivité de a, ce que nous avons établi en remarque lorsque A 6= f0g.
Démonstration
Chaque valeur propre de a est racine de a car ce dernier annule a.
Chaque racine de a annule a d’après Cayley-Hamilton, donc est racine de a,
i. e. est valeur propre de a.
Exercices d’application
1. Déterminer les matrices complexes M de trace 88 telles que M 3 +81M = 18M 2 .
2. Déterminer les matrices complexes M de trace n telles que M n = In .
3. Soient b et c deux naturels, soient B 2 Mb (K) et C 2 Mc (K) nilpotentes,
Ib + B ?
soient et deux scalaires distincts et imposons A de la forme .
0 Ic + C
B=0
Montrons que A est diagonalisable ssi .
C=0
————————————————————————————————————
donc son spectre est inclus dans f0; 9g. On en déduit les égalités
2. Soit M une telle matrice. Elle est annulée par le polynôme X n 1 sim-
plement scindé (ou valant 1), donc est diagonalisable et son spectre est inclus
dans Un . Notons 1 ; 2 ; :::; n les valeurs propres de M (listées avec multipli-
cité). On a alors les comparaisons
25
3. La matrice B étant nilpotente, on a l’inclusion Sp B f0g, d’où celle
b
Sp ( Ib + B) = Sp B + f g f g et l’égalité Ib +B = (X ) .
c
On calculerait de même Ic +C = (X ) , d’où l’on déduit
Ib + B ? b c
A = = Ib +B Ic +C = (X ) (X ) .
0 Ic + C
( ? ) Ib + B
Or on a A Ib+c = avec ( ) Ib + B inversible
C 0
6= rg (A Ib+c ) = (b + c) ! c + rg B = (b + c) b
A diagonalisable () ()
rg (A Ib+c ) = (b + c) ! b + rg C = (b + c) c
rg B = 0 B=0
() () , ce qui conclut.
rg C = 0 C=0
————————————————————————————————————
Proposition
Les assertions suivantes sont équivalentes41 :
1. il y a une base de E où la matrice de f est triangulaire stricte ;
2. f est trigonalisable et Sp f f0g ;
n
3. f =X ;
4. f j Xn ;
5. f est nilpotent.
Démonstration
(1)=)(2) Soit B une base de E où T := MatB f est triangulaire stricte. En
particulier, T est triangulaire, donc f est trigonalisable. Le spectre Sp f = Sp T se lit
par ailleurs sur la diagonale ; il est nul (ou bien vide si la longueur de la diagonale est
nulle).
(2)=)(3) f est scindé ou vaut 1 (car f est trigonalisable) et sa seule racine
deg f
éventuelle est 0 (car Sp f f0g), donc vaut (X 0) = X n.
(3)=)(4) D’après Cayley-Hamilton, f divise f = X n .
(4)=)(5) Le polynôme f = X n annule f , d’où l’égalité f n = 0 et la nilpo-
tence de f .
4 1 Lorsque n 1, on remplacera l’inclusion spectrale par une égalité Sp f = f0g.
26
(5)=)(1) On raisonne comme dans notre démonstration de
f scindé =) f trigonalisable.
0 ?
Mat (M ) = pour un certain bloc B 2 Md (K) .
B 0 B
Leurs puissances -ième sont donc semblables pour chaque naturel : or celle de
0 ? 0
M est nulle pour assez grand et celle de est de la forme ,
0 B 0 B
d’où la nullité de B (pour assez grand) et la nilpotence de B, laquelle est donc
(d’après Nd ) strictement trigonalisable, mettons B = P T P 1 pour une certaine ma-
trice T triangulaire stricte et pour un certain P 2 GLd (K). Finalement, la matrice M
est semblable à
0 ? 0 ? 1
=Q Q , donc est strictement trigonalisable, d’où Td+1 .
0 B 0 T
| {z }
triangulaire stricte
Remarques
Sanity check : avec la divisibilité a j X n et l’égalité a = X (a) , on retrouve
la majoration de l’indice de nilpotence de a par n (prouvée section ??).
L’homologue matriciel de cette proposition serait la chaîne d’équivalences sui-
vante44 :
A est semblable à une A trigonalisable () A= XN
() N () A nilpotente.
matrice triangulaire stricte et Sp A f0g () A jX
Proposition
Les assertions suivantes sont équivalentes :
1. a admet un polynôme annulateur simplement scindé ;
42 N comme « nilpotent »
4 3 En dimension 1, chaque matrice nilpotente est nulle, donc triangulaire stricte, d’où N1 .
4 4 Lorsque n 1, on remplacera l’inclusion spectrale par une égalité Sp A = f0g.
27
2. a est simplement scindé (ou vaut 1) ;
Q
3. a vaut 2Sp f (X );
4. a est diagonalisable.
Démonstration
(1)=)(2) Soit P un polynôme annulateur simplement scindé de a. Alors a
divise P (car P annule a), donc ou bien est constant (et vaut alors 1) ou bien est
simplement scindé (car P est simplement scindé).
Q (2)=)(3) Supposons a simplement scindé ou a = 1. Il s’écrit donc a =
2Z (X ) où Z dénote l’ensemble des racines de a . Or une propriété précédente
énonce l’égalité Z = Sp a. Q
(3)=)(4) Supposons f = 2Sp f (X ). On a alors les égalités
2 3 =E
Y lem m e de déc.
M z }| {
E = Ker 0 = Ker f (f ) = Ker 4 (X )5 (f ) = Ker [X ] (f ),
des noyaux | {z }
2Sp f 2Sp f
=f Id
d’où la diagonalisabilité de f .
Pour le cas matriciel, appliquer ce qui précède quand f = A donne l’implication
Y
A = (X ) =) A diagonalisable, i. e.
2Sp A
Y
A = (X ) =) A diagonalisable, c. q. f. d.
2Sp A
(f ) = [(X ) P ] (f ) = P (f ) [X ] (f ) = P (f ) [f Id] ,
On en déduit par linéarité que (f ) est nulle sur la somme des sous-espaces propres
de f . Or cette somme vaut tout E par hypothèse, ce qui conclut45 .
28
matrice de vaut Diag (A; A; :::; A). Un polynôme donné annulant cette dernière ssi46
il annule A, l’endomorphisme est annulé par un polynôme simplement scindé ssi la
matrice A l’est, d’où l’équivalence
M 7! AM diagonalisable () A diagonalisable.
Corollaire
Soit V un sous-espace vectoriel de E stable par f . On a alors l’implication :
Démonstration
Soit P un polynôme annulateur de f simplement scindé. Vu les égalités
l’endomorphisme fjV est annulé par un polynôme simplement scindé, donc est diagonalisable.
Remarques
Apprécier ici l’utilisation des polynômes : comment sinon exhiber une base
de V formée de vecteurs propres de f ?
Le calcul ci-dessus en remplaçant P par f (sans hypothèse de scission) montre
que f annule fjV . Il en résulte que le polynôme minimal de fjV divise celui de f :
fjV j f.
par P (A).
4 7 On dit alors que f et g sont codiagonalisables et qu’une telle base les codiagonalise.
4 8 Le même argument (inséré dans une récurrence sur dim E) fournirait la généralisation suivante :
les éléments de chaque partie …xée de L (E) sont codiagonalisables ssi ils sont diagonalisables et
commutent. (Indication : considérer les induits sur les sous-espaces propres d’un élément non scalaire.)
29
Résumé
Il est agréable de tout synthétiser dans un unique tableau :
lim ite
racines de a = valeurs propres de a = racines de a
program m e
8 ; dim E = !
() a diagonalisable () a simplement scindé (ou 1)
et a scindé (ou 1)
+ + +
hors
a scindé (ou 1) () a trigonalisable () a scindé (ou 1)
program m e
* * *
a = Xn () a nilpotent () a j Xn .
Exercices d’application
1. Pour chaque a 2 A, on appelle adjoint de a l’endomorphisme de l’algèbre A
dé…ni par
ad := x 7! [a; x] = ax xa.
a
(a) Imposons A nilpotente. Montrer alors que l’adjoint adA est nilpotent. Étu-
dier la réciproque.
(b) On se donne une sous-algèbre de L (E) dont l’adjoint de chaque élément
est diagonalisable. Montrer que cette sous-algèbre est commutative.
2. Imposons A 2 GLn (C) et soit N 2 N tel que AN est diagonalisable. Montrer
alors que A est diagonalisable. Discuter les hypothèses.
3. Montrer que chaque matrice de Mn (R) de carré In est semblable à une dia-
0 1
gonale de blocs .
1 0
4 9 Les quatre équivalences des première et dernière lignes sont autant de petits exercices (parfois
déjà traités en partie) permettant de tester l’assimilation du cours, c’est pourquoi nous les laissons
à la lectrice et au lecteur.
30
————————————————————————————————————
50 S pour « sous-algèbre »
31
le membre de droite étant simplement scindé, on a terminé51 .
Les trois hypothèses sont nécessaires : on ne peut rien dire si N = 0 (même
0 1
si on peut élargir l’hypothèse N 2 N en N 2 Z ), la matrice réelle
1 0
n’est pas diagonalisable (sur R) tandis que son carré I2 l’est, et chaque nil-
potent non nul (i. e. non diagonalisable) a une puissance nulle (donc diagonali-
sable).
3. Soit M une telle matrice. Elle est annulée par le polynôme X 2 + 1 qui est
simplement scindé dans C [X], donc M est diagonalisable dans Mn (C) avec pour
valeurs propres i ou i (les racines de X 2 + 1). Étant par ailleurs réelle, chacune
de ses valeurs propres non réelles a même ordre que sa conjuguée, d’où ! i = ! i ,
i 0
ce qui montre que M est semblable à une diagonale de blocs52 .
0 i
0 1
Or la matrice réelle véri…e aussi l’hypothèse de l’énoncé (quand n =
1 0
i 0
2), donc est semblable dans Mn (C) à . En notant P une matrice
0 i
i 0 0 1
de passage53 de vers , le calcul par blocs montre que
0 i 1 0
la diagonale de 2 blocs P est une matrice de passage de la diagonale de n2
n
i 0 0 1
blocs vers la diagonale de n2 blocs , donc M est sem-
0 i 1 0
blable à cette matrice réelle diagonale par blocs.
Il su¢ t pour conclure d’utiliser un résultat classique54 : deux matrices
réelles semblables dans Mn (C) le sont dans Mn (R).
————————————————————————————————————
Proposition
Imposons f annulé par un polynôme scindé. L’espace vectoriel E est alors somme
directe de sous-espaces vectoriels stables chacun par f et sur chacun desquels f induit
la somme d’une homothétie et d’un nilpotent.
5 1 Autre argument (implicite) : X N n’a aucune racine multiple (d’une part chaque racine de
la dérivée N X N 1 est nulle, d’autre part 0 n’est pas racine de X N ).
5 2 Et, au passage, que le naturel n = ! + !
i i = 2! i est pair.
5 3 On peut par exemple imposer P := 1 i
.
i 1
5 4 Cf. chapitre réduction1 section extension des scalaires.
32
Démonstration
Soit P un polynôme comme dans l’énoncé. En notant R son ensemble (non vide)
des racines et (! ) 2 NR la famille des ordres de multiplicité de ses racines, dé…nis-
sons55
n := f Id et E := Ker n! pour chaque 2 R.
L’espace E est alors somme directe des E d’après le lemme de décomposition des
noyaux :
2 3
Y !
M !
M
E = Ker 0 = Ker P (f ) = Ker 4 (X ) 5 (f ) = Ker (f Id) = E .
2R 2R 2R
Soit par ailleurs 2 R …xé. L’espace E est alors le noyau d’un polynôme en f (à
!
savoir (X ) ), donc est un sous-espace vectoriel de E stable par f . Par ailleurs,
la restriction n à E fait sens (car f et Id stabilisent E , donc leur di¤érence aussi)
et est nilpotente vu les égalités
!
[n ]jE = n! = n! jKer(n
! = 0E ,
jE )
Remarques
La démonstration reste inchangée si E n’est plus de dimension …nie. En par-
ticulier, elle s’applique sur le corps des complexes dès que f admet un polynôme
annulateur non constant.
En utilisant la trigonalisabilité des nilpotents, on obtiendrait l’homologue ma-
triciel de cette proposition :
33
Q 57
L Rappelons que chaque famille (f ) 2 2R L (E ) dé…nit un endomorphisme
sur 2R E dont la restriction à E vaut f pour chaque 2 R.
Par exemple, la famille d’homothéties ( Id) dé…nit un endomorphisme diagonali-
sable (concaténer des bases de chaque E donne une base de vecteurs propres) et la
famille de nilpotents (n ) dé…nit un nilpotent (car annulé après max 2R ! itérations
sur chacun des E , donc sur leur somme).
On propose en complément de montrer que 0 chaque matrice1 nilpotente est sem-
0 1
B C
blable à une diagonale de blocs de la forme58 B @
C, ce qui prouvera
1 A
0
(avec la proposition précédente) que chaque matrice dont le polynôme
0 minimal est
1
1
B C
scindé est semblable à une diagonale de blocs chacun de la forme B@
C.
1 A
Exercices d’application
1. On impose A scindé. Montrer alors que A est somme d’une matrice diagona-
lisable et d’une matrice nilpotente chacune dans K [A].
2. Soit61 P une C-algèbre unifère commutative de dimension …nie dont chaque
nilpotent est nul. Montrer que P est isomorphe à l’algèbre produit Cdim P .
3. On impose A scindé. Montrer alors que A est diagonalisable ssi
2
8 2 Sp A; rg (A In ) = rg (A In ) .
————————————————————————————————————
A 0 Ib + B 0 Ib 0 B 0
:= = + .
0 A 0 Ic + C 0 Ic 0 C
| {z } | {z } | {z }
notée A0 notée D notée N
5 7 Appelé
L
la somme directe de (f ) suivant 2R E . Matriciellement : une diagonale de blocs
de la forme Mat f .
5 8 Un tel bloc est dit de Jordan.
5 9 En général, on peut remplacer C par un corps de décomposition des polynômes minimaux des
matrices considérées.
6 0 Pour plus de détails, on pourra consulter le bel ouvrage de Rached Mneimné sur la réduction
des endomorphismes.
6 1 P comme « puissance »
34
pour certaines matrices nilpotentes B et C. Vu l’égalité
P (A ) 0 P dénote le polynôme constant
D= où ,
0 Q (A ) Q dénote le polynôme constant
l’exercice d’application 3 section 1.1 montre cette dernière matrice est un poly-
A 0
nôme en = A0 .
0 A
Concluons. Soit P une matrice inversible telle que A = P A0 P 1 et soit
un polynôme tel que D = (A0 ). On a alors les égalités
1
P DP = P (A0 ) P 1
= P A0 P 1
= (A) ,
ce qui montre que (A) est diagonalisable, et l’on montrerait de même la nilpo-
tence de [X ] (A) = P N P 1 . Additionner ces deux polynômes en A donne
bien A, ce qui conclut.
2. Soit 2 P. Dans L (P), l’endomorphisme a un polynôme minimal (car P
est de dimension …nie) scindé ou valant 1 (car le corps de base est C), donc est la
somme d’un diagonalisable et d’un nilpotent . Le point précédent montre que
l’on peut imposer = ( ) = ( ) pour un certain polynôme . Puisque
est nilpotent, l’itérer su¢ samment de fois puis appliquer en 1 montre que ( )
est nilpotent dans P, donc (par hypothèse) est nul. Ainsi, est diagonali-
sable. Or, l’algèbre P étant commutative, les commutent lorsque décrit P,
donc sont codiagonalisables dans une certaine base B. On véri…e alors aisément
que l’application qui à chaque 2 P associe le -uplet formé par la diagonale
de MatB ( ) est un isomorphisme d’algèbres.
Remarque –La lectrice et le lecteur auront bien sûr satisfait leur curiosité
en véri…ant réciproquement que, pour chaque naturel d, l’algèbre produit Cd
est bien une C-algèbre unifère commutative réduite (i. e. dont 0 est le seul
nilpotent).
3. Regardons tout d’abord le cas où A est nilpotente. Sa diagonalisabilité
équivaut alors à sa nullité et son spectre est inclus dans f0g, de sorte qu’il s’agit
d’établir l’équivalence
35
d’où les équivalences
2 rg C = rg C 2
8 2 Sp A; rg (A In ) = rg (A In ) ()
rg B = rg B 2
C et B C=0 exercice 3
() () A0 diagonalisable () A diagonalisable.
nilp otentes B=0 section 2.2
———————————————————————————————————
canonique. On a ainsi :
0 1
0 1 0 1 0 0
0 1 0
B C
1 1
, J3 = @ 1 A , J4 = B C ...
0 0 0 0
J1 = (0 ) , J2 = @ 1 A
0 0
0 0 0 0 0
0 0 0
0 0 0 0
Proposition –Dé…nition
Quand f est nilpotent, il y a une longueur ` 2 [0; nj] et une suite (ni )i2[1;`j] 2 N `
décroissante, chacune uniques, telles que f a une matrice valant Diag (Jn1 ; Jn2 ; :::; Jn` ).
La matrice précédente s’appelle la réduite de Jordan de f et est fonction du n-
uplet décroissant rg f; rg f 2 ; :::; rg f n .
Démonstration
Imposons f nilpotente et notons r son indice de nilpotence.
1. Existence. On raisonne par récurrence sur n (sans montrer la décroissance, la-
quelle découlera immédiatement d’un réordonnement des blocs Jni ) Quand n =
0, la longueur nulle et la suite vide conviennent ; imposons donc n 1. L’in-
dice r vaut alors au moins 1, donc l’itéré f r 1 fait sens et l’on peut évoquer un
= Ker f r 1 . On note alors ' la forme linéaire coordonnée de f r 1 (v)
vecteur v 2
dans une base de E obtenue en complétant la famille libre f r 1 (v) et l’on
dé…nit \
V := K [f ] (v) et S := Ker ' f i .
i2[0;rj[
Il est clair que V est stable par f et l’on véri…era aisément que la famille v; f (v) ; f 2 (v) ; :::; f r 1
(v)
en est une base dans laquelle l’induit fjV a pour matrice Jr . Pour conclure, il
su¢ t de
montrer que l’espace S est un supplémentaire de V stable par f :
36
en e¤et, la dimension dim S sera alors strictement inférieure à n (car S ne
contiendra pas le vecteur f r 1 (v) non nul de V ) et l’on pourra appliquer l’hy-
pothèse de récurrence sur l’induit fjS .
Puisque Ker (' f r ) = Ker (' 0) = Ker 0 = E, on peut indexer l’inter-
section dé…nissant S par [0; rj] au lieu de [0; rj[. Ainsi, pour chaque s 2 S, pour
chaque i 2 [0; rj[, le vecteur s est dans Ker ' f i+1 (même si i = r 1), ce
qui s’écrit f (s) 2 Ker ' f i , donc f (s) reste dans S, d’où la stabilité de S
par f .
Soit s 2 S \ V supposé non nul par l’absurde, mettons s = [P (f )] (v) pour
un certain polynôme P non nul dont on notera c le coe¢ cient devant X val P .
Puisque f r = 0, on peut supposer val P < r, ce qui permet d’utiliser l’apparte-
nance s 2 S Ker ' f r 1 val P , laquelle se réécrit ' cf r 1 (v) = 0. Or c
est non nul et ' f r 1 (v) = 1 (par dé…nition de '), ce qui est absurde. Par
conséquent, S et V sont en somme directe.
En…n, la dimension de S, intersection de r hyperplans, est minorée par62 n
r = n dim V , ce qui montre que la somme directe S V est de dimension au
moins n, donc vaut tout E.
2. Unicité. On raisonne matriciellement. Imposons A de la forme Diag (Jn1 ; Jn2 ; :::; Jn` ).
Pour chaque naturel N , on a alors les égalités63
X̀ X̀ I[ni X̀
0
N ]+ +
rg AN = rg Diag JnN1 ; JnN2 ; :::; JnN` = rg JnNi = rg = [ni N] ,
0 0
i=1 i=1 i=1
X̀ + +
d’où rg AN rg AN +1 = [ni N] [ni N 1] = Card fi 2 [1; `j] ; ni > N g ,
| {z }
i=1
=1 si N <ni et =0 si N ni
si N 1
d’où Card fi 2 [1; `j] ; ni = N g = Card fi 2 [1; `j] ; ni Ng Card fi 2 [1; `j] ; ni > N g
= rg AN 1 rg AN rg AN +1 rg AN .
La suite (ni ) prolongée par une in…nité de 0 étant décroissante, elle est entiè-
rement déterminée par les cardinaux ci-dessus, lesquels ne dépendent que des
rangs des itérés de A. La longueur ` quant à elle est le plus grand indice où cette
suite (in…nie) prend une valeur non nulle.
En…n, la suite rg AN décroît puisque la di¤érence rg AN rg AN +1 est
un cardinal (donc positif) pour chaque naturel N et, vu les égalités rg A0 =
n et rg AN = 0 pour chaque naturel N n, cette suite est fonction du n-
uplet rg A; rg A2 ; :::; rg An , ce qui conclut.
Exercices d’application
6 2 Fait : intersecter par un hyperplan fait décroître la dimension au plus de 1.
6 3 L’exposant + dénote une partie positive.
37
1. Montrer que chaque matrice est semblable à sa transposée.
2. Soit B 2 Mn (K). Montrer que A et B sont semblables ssi64
i i
8 2 K; 8i 2 [1; nj] ; rg (A In ) = rg (B In ) .
3. Montrer que f admet un nombre …ni de sous-espaces vectoriels stables ssi K est
…ni ou s’il y a un vecteur v 2 E tel que E = K [f ] (v) (un tel endomorphisme f
est dit cyclique). On pourra montrer pour le sens réciproque l’égalité f = f .
————————————————————————————————————
1. Le résultat
P est valide pour les matrices de la forme JN (utiliser la matrice de
passage x+y=n+1 Ex;y formée d’une anti-diagonale de 1), donc est valide pour
les diagonales de telles matrices (mettre les matrices de passages bout à bout), a
fortiori pour les matrices nilpotentes (d’après la proposition précédente), donc
pour les sommes d’une matrice nilpotente et d’une matrice scalaire (car chaque
matrice scalaire est inchangée par conjugaison), donc pour les diagonales de
telles matrices (mettre les matrices de passages bout à bout). Or, en évoquant un
corps L où A se scinde et dont K est un sous-corps, la matrice A est semblable
dans Mn (L) à une telle diagonale (d’après la proposition section 2.4), donc
est semblable à t A dans Mn (L), donc lui est semblable dans Mn (K) d’après
l’exercice d’application ?? section ??.
2. =) Rajouter une homothétie ne changeant pas la similitude, les matrices A
In et B In sont semblables, donc chacune de leurs itérées aussi, a fortiori
ont même rang.
(= Remplacer i par 1 montre que A et B ont même spectre. (Ce rempla-
cement est légitime si n 1 ; sinon A et B sont égales donc semblables).
Soit L un corps où A et B se scindent et dont K est un sous-corps. La
proposition de la section 2.4 montre alors que A est semblable dans Mn (L) à
une diagonale (lorsque décrit SpL A) de blocs A := I! + N où N est
nilpotente (d’indice au plus ! n).
Soit 2 L : la matrice (A In ) est alors semblable à une diagonale de
blocs ( ) I! + N et, chacun de ces blocs étant inversible si 6= (car de
spectre f g ne contenant pas 0), on a l’égalité des corangs
n rg (A In ) = ! rg N .
8 2L i
; n rg (A In ) =! rg N i ,
8i 2 [1; nj]
8 2L h i h i
i i
; ! (A) rg N (A) = ! (B) rg N (B) .
8i 2 [1; nj]
6 4 Théorème d’Eduard Weyr publié en 1885. Pour une histoire de son lien avec le théorème de Jor-
dan, on renvoie à l’œuvre (déjà mentionnée) de F. Brechmacher.
38
Soit 2 SpK A = SpK B. Remplacer i par n montre alors l’égalité ! (A) =
i i
! (B), d’où l’égalité des suites rg N (A) et rg N (B) ,
i2[1;! (A)j] i2[1;! (B)j]
ce qui montre que les matrices nilpotentes N (A) et N (B) ont même réduite
de Jordan, a fortiori sont semblables, d’où la similitude de A et B . Recoller
ces blocs montre que A et B sont semblables dans Mn (L), donc dans Mn (K)
3. =) Les espaces K [f ] (v) sont stables et en nombre …ni lorsque v décrit E,
donc E est réunion …nie de sous-espaces K [f ] (v). Si K est in…ni, l’un de ces
espaces doit valoir E (d’après un lemme classique démontré dans l’exercice d’ap-
plication 2d section 1.3), ce qui conclut.
(= Si K est …ni, l’espace vectoriel E (qui est isomorphe à K dim E ) est
dim E
de cardinal (Card K) , donc admet un nombre …ni de parties, a fortiori un
nombre …ni de sous-espaces vectoriels (en particulier de sous-espaces vectoriels
stables par f ).
Soit sinon un v comme dans l’hypothèse. Abrégeons d := deg f . De la
nullité de f (f ) (v) l’on déduit l’appartenance f d (v) 2 Vecti2[0;dj[ f i (v), d’où
par une récurrence immédiate l’égalité
K [f ] (v) = Vect f i (v) .
i2[0;dj[
les deux membres extrêmes étant égaux, on a égalité partout (modulo associa-
!
tion). Soit 2 SpL A : on a alors l’égalité A = (X ) , i. e. A Id =
dim E
X , ce qui montre que la matrice nilpotente N 2 M! (L) est d’indice ! ,
donc stabilise exactement ! +1 sous-espaces vectoriels (les noyaux de ses itérés,
cf. exercice d’entraînement 3.a), ce qui revient à dire que A stabilise exacte-
ment ! + 1 sous-espaces vectoriels (ajouter une homothétie ne change pas le
caractère stable d’un sous-espace vectoriel). La remarque …nale de l’exercice
d’application 3 sectionQ1.1 montre alors (avec une récurrence immédiate) que A
n
stabilise exactement 2SpL A (! + 1) sous-espaces vectoriels de L , donc A
ne stabilise d’un nombre …ni de sous-espaces vectoriels de K n , c. q. f. d.
Remarque –Cet exercice riche est souvent posé dans le cadre plus simple
où f est diagonalisable, la cyclicité de f équivalant alors à la simplicité de cha-
cune de ses valeurs propres. On utilisera d’une part le fait qu’un plan propre in-
clut
L (si K est in…ni) une in…nité de droites stables, d’autre part la décomposition S =
2Sp f (S \ E ) pour chaque chaque sous-espace vectoriel S stable par f .
39
———————————————————————————————————
40
4 Le point des compétences
Formulaire
On évoque pour tout ce formulaire :
1. K un corps ;
2. E un K-espace vectoriel ;
3. n un naturel ;
4. f et g deux endomorphismes dans L (E) ;
5. A et B deux matrices dans Mn (K).
A…n d’uni…er chaque proposition ou dé…nition dépendant de f et de L (E) avec
son homologue matriciel traitant de A et de Mn (K),
A L (E) Mn (K)
nous abrégerons pour désigner ou bien .
a f A
K
P[X] ! A
P In si A = Mn (K)
i i où a0 = 1A = .
P =: i 0 ci X 7 ! P (a) := i 0 ci a IdE si A = L (E)
K [X] ! A
L’image de est la sous-K-algèbre de A engendrée par a,
P 7 ! P (a)
notée
K [a] := fP (a) ; P 2 K [X]g .
Cette sous-algèbre est commutative :
41
La sous-algèbre K [a] admet pour base la famille 1; a; a2 ; :::; adeg a 1
:
M
K [a] = Kai .
i2[0;deg a j[
a (a) = 0.
42
4. Endomorphismes à polynôme minimal scindé
Si f est annulé par un polynôme scindé, l’espace vectoriel E est alors somme
directe de sous-espaces vectoriels stables chacun par f et sur chacun desquels f induit
la somme d’une homothétie et d’un nilpotent.
Si A est scindé, alors A est semblable à une matrice diagonale par blocs chacun
triangulaires et à diagonale constante.
43
Exercices d’entraînement
Le chapitre précédent su¢ t pour résoudre les exercices 3, 5, 6, 9 et 10.
On …xe un corps K, un K-espace vectoriel E, un naturel n et un endomor-
phisme f 2 L (E). (La lettre A reste "libre".)
1. FSoit A 2 Mn (K).
(a) Imposons K C. Montrer alors l’équivalence
A A
A diagonalisable () diagonalisable.
A A
A C A diagonalisable
diagonalisable () .
0 A C nulle
44
(a) Montrer que l’endomorphisme M 7! A M t B de Mn (K) a pour ma-
trice A B dans la base
(E1;1 ; E2;1 ; E3;1 :::; En;1 ; E1;2 ; E2;2 ; E3;2 :::; En;2 ; :::; E1;n ; E2;n ; E3;n :::; En;n ) .
0 0
(b) En déduire que les trois matrices A B, A B et B A sont semblables.
(c) Montrer que A B est diagonalisable si A et B le sont. Étudier la réci-
proque.
(d) Lorsque K = C, montrer l’égalité spectrale
Sp (A B) = (Sp A) (Sp B) (multiplication complexe "parties")
et préciser les ordres de multiplicités de chaque valeur propre de A B.
7. FF
(a) Soit v un vecteur de E dont les itérés par f engendrent tout E. Montrer
alors que chaque endomorphisme de E commutant avec f est un polynôme
en f .
0 In 1
(b) Décrire le commutant de la matrice J := et donner sa di-
0 0
mension.
(c) (plus di¢ cile) Même question avec les diagonales de blocs de la forme J
de tailles non nécessairement égales.
8. FFFSoit G un sous-groupe de GLn (C) dont le p. p. c. m. des ordres des
éléments est …ni. On veut montrer que G est …ni.
(a) Justi…er l’existence d’un ensemble …ni tel que G Vect .
On évoque un tel et l’on considère l’application
G ! C
:= .
g 7 ! (tr (g'))'2
45
Solutions des exercices d’entraînement
1.
(a) Cet exercice prolonge son analogue vu au chapitre précédent. Donnons-
en une cinquième solution, de loin la plus rapide
P
Soit P =: i2N ai X i un polynôme simplement scindé qui annule A.
Vu à N 2 N …xé l’égalité (obtenue par une récurrence immédiate)
N
A A A A
= 2N (fausse si N = 0 6= n),
A A A A
A A X
P X N
l’évaluation en du polynôme P 2 = N 2N aN 2 vaut
A A
X A A
N
P (A) P (A) a0 In P (A)=0 0 a0 In
a0 I2n + aN = = .
A A P (A) a0 In P (A) a0 In 0
N 2N
A C P (A) P 0 (A) C
P = (démontrable par linéarité et récurrence).
0 A 0 P (A)
46
évaluer en A montre que P 0 (A) et V (A) sont inverses l’un de l’autre, ce
qui conclut le sens =) :
1 0
Lorsque A = (qui est diagonalisable car est un projecteur)
1 0
0 0
et C = (qui est non nulle), on véri…era aisément que
1 0
0 1
1 0 0 0
A C B 1 1 C
=B C est un projecteur,
0 0
la matrice @ 0 A
0 A 0 1 0
0 0 1 0
47
Vu les équivalences
M 2 Comm A () AM = M A () P P 1 M = M P P 1
() P 1M P = P 1M P () P 1 M P 2 Comm ,
Sanity check : retrouver le fait que chaque matrice scalaire commute avec
chaque matrice.
4.
(a) Il est classique qu’un tel groupe est commutatif (chaque élément vaut
1
son propre inverse, d’où des égalités ab = (ab) = b 1 a 1 = ba). Ses élé-
ments étant chacun diagonalisables (car involutifs), ils sont codiagonalisables
à spectre inclus dans f 1; 1g. Les réduites diagonales peuvent donc prendre
au plus 2n valeurs (2 choix pour chacun des n coe¢ cients diagonaux), d’où
la …nitude et la majoration attendues.
(b) Soit ' : GLa (K) g !GLb (K) un isomorphisme de groupes. La partie
de GLa (K) formée des matrices diagonales à coe¢ cients dans f 1; 1g est
un sous-groupe source dont chaque élément est involutif, donc (puisque
' est un morphisme de groupes) son image est un sous-groupe but dont
chaque élément est involutif. D’après le premier point, ce sous-groupe but
est de cardinal au plus 2b . Or son cardinal est celui 2a du sous-groupe
source (car ' est bijective), d’où la comparaison 2a 2b . Remplacer ' par
' 1 (qui est aussi un isomorphisme de groupes) donnerait 2b 2a , d’où
a b
l’égalité 2 = 2 , ce qui conclut à a = b.
5.
(a) Soit 2 Sp A. Puisque N 2 Sp AN = Sp A pour chaque naturel N ,
N
la suite ne prend qu’un nombre …ni de valeurs (Sp A est …ni), donc
n’est pas injective, d’où deux naturels p < q tels que p = q , ce qui montre
ou bien la nullité de ou bien que est une racine de l’unité.
48
Notons S := Sp A nf0g et soit (N ) 2 N S tel que NQ = 1 pour
chaque 2 S (légitime par ce qui précède). En notant N := 2S N , on
aura alors N = 1 pour chaque 2 S, d’où les inclusions
n o n o
N
Sp A = Sp AN = 0N q N f0g q f1g = f0; 1g .
2Sp A 2S
(b) Rappelons que SLn (Q) est engendré par les transvections de Mn (Q) :
le morphisme ' est donc déterminé par les images de ces dernières et il su¢ t
de montrer que chacune de ces images vaut In .
Soit T 2 Mn (Q) une transvection, mettons T = In + Ei;j pour un
certain scalaire 6= 0 et certains indices i 6= j dans [1; nj]. Montrons que la
matrice ' (T ) véri…e l’hypothèse du point précédent : son spectre complexe
sera alors inclus dans f0; 1g, donc dans f1g (car chaque matrice orthogonale
est inversible) et la diagonalisabilité admise forcera l’égalité ' (T ) = In , ce
qui conclura.
Soit N 2 N . Rappelons les égalités
N
T N = (In + Ei;j ) = In + N Ei;j .
PTNP 1
= P (In + N Ei;j ) P 1
= In + Ei;j = T ,
Vu que la matrice par blocs Diag (B; B; :::; B) agit en multipliant chaque
blocs par B, le produit (commutatif) des deux matrices précédentes vaut
49
(b) Nous allons reprendre la démarche de l’exercice d’application sec-
tion ?? (en tenant compte des transpositions).
Appelons (comme « tenseur » ) l’endomorphisme M 7! A M t B
et notons t la transposition M 7! t M (qui est une symétrie vectorielle
de Mn (K)). Vu à M 2 Mn (K) …xé les égalités
1 t
t t (M ) = A tM tB = t t
B t t
M t
A = B M t A,
les endomorphismes [M 7! A M t B] = et [M 7! B M t A] = t t 1
sont
conjugués, donc leurs matrices A B et B A sont semblables ).
0 1
A P AP
Soient P et Q deux matrices inversibles telles que B 0 = Q 1 BQ ,
0 0 t 0
appelons l’endomorphisme M 7! A M B et notons l’automor-
phisme M 7! P M t Q (de réciproque M 7! P 1 M t Q 1 ). Vu à M 2
Mn (K) …xé les égalités
0 1 1 1 t 1 t
(M ) = P P AP (M ) Q BQ Q
1 t 1 t t t
= AP P M Q Q B = AM B = (M ) ,
les endomorphismes et 0 = 0 1
sont conjugués, donc leurs ma-
0 0
trices A B et A B sont semblables.
(c) Soient et M diagonales semblables resp. à A et B. La matrice A B
est alors semblable à M , qui est diagonale par blocs (car est diagonale)
diagonaux (car M est diagonale), donc diagonale, ce qui conclut.
0 1
La réciproque est fausse en générale : si K = R et A = B = ,
0 1 1 0
0 0 0 1
B 0 1 0 C
le produit tensoriel A B = B C est alors involutif donc
0
@ 0 1 0 0 A
1 0 0 0
8 ( ; ) 2 Sp A Sp B; ! (A B) = ! (A) ! (B) .
50
Dans le cas général, A et B sont trigonalisables, donc semblables à des
matrices triangulaires dont le produit tensoriel est semblable à A B (donc
a même polynôme caractéristique) et l’on est ramené au cas précédent.
Remarque –Culture. La dé…nition de A B n’admet en fait aucune
restriction sur les tailles de A et B et tout ce qui précède reste valide
(reprendre les même preuves en étant attentif aux indices).
7.
(a) Pour chaque naturel N , notons vN := f N (v). Soit c 2 L (E) commu-
tant avec f . L’image c (v) se décompose alors dans la famille génératrice
donnée : soit 2 K (N) tel que
" #
X X X X
N N N
c (v) = N vN = N f (v) = Nf (v) = [P (f )] (v) où P := NX .
N 2N N 2N N 2N N 2N
(b) La matrice J véri…e les hypothèses du point précédent, donc son com-
mutant est formé des polynômes en J. Les puissances de J ont été dé-
crites en cours (matrices ayant une surdiagonale constante et étant nulles
ailleurs). Le commutant de J est donc formé des matrices triangulaires
supérieures constantes sur chaque surdiagonale et sa dimension vaut n (un
degré de liberté par surdiagonale).
On aurait pu raisonner de façon plus élémentaire en égalant directe-
ment les coe¢ cients de M J et JM .
(c) Pour chaque matrice M , on notera Comm M son commutant. Soit M 2
Mn (K).
0 IN 1
Pour chaque naturel N , notons JN := . Soit (n1 ; n2 ; :::; n` )
0 0
une suite de naturels de somme n, notons D := Diag (Jn1 ; Jn2 ; :::; Jn` ) et
décomposons la matrice M en blocs Mi;j selon D. On a alors l’équivalence
51
Jp
Mq (K), écrivons Jq =: pour certaines matrices et (avec
0
Jp Jp Jp + Jp Jp
() = () =
0 0 0 0 0 0 0 0 0 0
X p oint
() Jq Y = Y Jq () Y 2 Comm Jq ()
triangulaire supérieure à surdiagonales constantes
0 précédent
Dans les deux cas, l’espace des solutions a pour dimension min fp; qg.
Conclusion : maintenant que l’on connaît la dimension de chacun des
facteurs du produit cartésien
Y
M 2 Mni ;nj (K) ; Jni M = M Jnj ,
i;j2[1;`j]
52
(c) Si l’on montre l’égalité a = b, on aura prouvé l’injectivité de : l’image
de étant par ailleurs …nie, son ensemble source G devra par conséquent
être …ni, ce qui conclura.
Abrégeons donc c := ab 1 et montrons c = In . Puisque l’élément c 2 G
est diagonalisable, l’égalité désirée équivaut à l’inclusion indiquée Sp c
f1g. Notons donc 1 ; 2 ; :::; n les valeurs propres de c listées avec multi-
plicité et montrons i = 1 pour chaque i 2 [1; nj].
L’élément b 1 2 G étant engendré par et la trace étant linéaire, on
peut déduire de l’hypothèse 8f 2 ; tr (a') = tr (b') les égalités
1 1
tr c = tr ab = tr bb = tr In = n.
ce qui force les termes i à être sur une même demi-droite. Comme ces
valeurs propres sont sur un même cercle (ce sont des racines e-ième de
l’unité), elles sont égales ; leur somme valant par ailleurs n, elle valent
chacune 1, c. q. f. d.
Remarque –La lectrice et le lecteur intéressés par le problème de Burn-
side (un groupe d’exposant …ni est-il …ni ?) que nous venons ici de résoudre
positivement pour les sous-groupes de GLn (C) (démontré par William Burn-
side en 1905 et publié dans les Proceedings of the London Mathematical
Society) pourront se renseigner sur les contributions de Pyotr Novikov et
Sergei Adjan (1968) et de E…m Zelmanov (1989).
9.
Ir 0
(a) Abrégeons r := rg M , J := et soient P; Q 2 GLn (K) tels
0 0
1a c
En décrivant QAQ =: et P BP 1 =: selon la
b d
décomposition par blocs de J, l’hypothèse devient
Ir 0 a c Ir 0 a c 0
= , i. e. = ,
0 0 b d 0 0 0 0 0
8
8 > a 0
< a= >
< A = = a d
b d
i. e. = 0 , d’où , ce qui montre que
: >
>
c=0 : B = =
0
53
retrouve ainsi le fait que deux matrices semblables ont même polynôme
caractéristique.
Quand K = C et M 6= 0, le facteur A ^ B est de degré au moins rg M
1, donc admet une racine (on est sur C), d’où une racine commune à A
et B , i. e. une valeur propre commune à A et B, d’où la non-vacuité de S.
Si K n’est pas algébriquement clos, on peut évoquer un polynôme sans
racines et imposer A = B valant la matrice compagne d’un tel polynôme :
le spectre de A est alors vide, a fortiori l’intersection S.
(b) Regardons comme suggéré le cas s = 1. Soit 2 S, soient V et W
AV = V à droite par W
non nuls dans K n tels que . Multiplier
BW = W à gauche par V
donne alors les égalités
A (V W ) = (AV ) W = ( V ) W = V ( W ) = V BW ;
pour avoir du AM = M B avec M := V W , il faudrait intervertir B et W .
On y parvient en transposant au préalable : puisque Sp B = Sp (t B), on
peut rétrospectivement imposer t BW = W au lieu de BW = W , d’où
les égalités
(AV ) t W = ( V ) t W = V t ( W ) = V t t
BW = V t
W B = V t W B.
Cette fois, la matrice M := V t W convient (son rang sera calculé plus
tard).
Dans le cas général, soit (V ; W ) 2S une famille de vecteurs propres
telle que
AV = V X
8 2 S; et notons M := V tW .
BW = W
2S
54
10.
(a) Lorsque n = 0, toutes les parties de Mn (K) considérées sont des
groupes triviaux (singletons). On imposera donc n 1.
La matrice nulle est diagonalisable mais son inverse ne fait pas sens
(car n 1), donc les matrices diagonalisables de Mn (K) ne forment pas
un groupe.
1 1 0 1
Autre argument : les matrices et sont des pro-
0 0 0 1
0 2
jecteurs, donc sont diagonalisables, et leur produit est nilpotent
0 0
non nul, donc non diagonalisable ; compléter ces matrices avec les 0 permet
de transporter ce contre-exemple quand n 2.
(b) Chaque matrice de M1 (K) est diagonale, donc les diagonalisables in-
versibles de taille 1 1 forment tout le groupe GL1 (K).
0 1 1 2
Les matrices et ont pour polynômes caracté-
1 1 1 1
2 2
ristiques respectifs X + X 2 et X 2X 1, lesquels sont tous deux
simplement scindés et de valuation nulle, donc les deux matrices considérées
1 1
sont diagonalisables et inversibles. En revanche, leur produit est
0 1
une transvection, donc n’est pas diagonalisable.
Finalement, les matrices diagonalisables de GLn (K) n’en forment ja-
mais un sous-groupe –sauf cas triviaux n 2 f0; 1g.
(c) Cette question précise la précédente.
Lorsque n 2 f0; 1g (cas triviaux), le sous-groupe cherché est tout GLn (K)
et l’on imposera donc n 2.
Rappelons que les transvections et les dilatations engendrent le groupe
linéaire GLn (K). Chaque dilatation étant diagonalisable (car diagonale),
si l’on arrive à montrer que les diagonalisables engendrent chaque trans-
vection, le sous-groupe recherché sera tout GLn (K).
Soit donc T une transvection. Puisque K est in…ni, on peut évoquer
une matrice diagonale D dont les coe¢ cients sont non nuls et distincts.
Alors T s’écrit D 1 (DT ) où la matrice DT est diagonalisable car trian-
gulaire avec des termes distincts sur la diagonale (cf. action multiplication
des matrices diagonale), ce qui conclut.
(d) Les cas triviaux n 2 f0; 1g ayant déjà été traités, on imposera n
2. Tâchons de montrons que chaque transvection est engendrée par les
diagonalisables de GLn (K).
Puisque
0 chaque 1
transvection de GLn (K) est semblable à la transvec-
1 1 0
1 1
tion @ 0 1 0 A, on est ramené au cas de la transvection
0 1
0 0 In 2
(détailler au besoin le calcul par blocs).
En cherchant une décomposition du type
1 1 ? 1 0 1 0 1
= P 1 P ,
0 1 0 0
55
1 1 1
mettons avec P = et P = pour faire simple,
0 1 0 1
1
on trouve qu’imposer := 1
1
convient où est un scalaire évoqué
dans K nf0; 1g .
Il reste le cas K = f0; 1g : la seule matrice diagonalisable inversible est
alors l’identité (cf. exercice ??), donc le sous-groupe cherché est fIn g, lequel
strictement inclus dans GLn (K) car n 2 et T n’est pas diagonalisable.
K = f0; 1g
Conclusion : le sous-groupe cherché est le singleton fIn g si
n 2
et vaut tout GLn (K) sinon.
56