0% ont trouvé ce document utile (0 vote)
39 vues21 pages

Agregpolend

Transféré par

Fabrice Arria
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
39 vues21 pages

Agregpolend

Transféré par

Fabrice Arria
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Polynômes d’endomorphismes et

applications
Jean-François Burnol, 10 septembre 2010

Dans toute cette fiche il sera question d’endomorphismes sur des K-espaces
vectoriels de dimensions finies.
Postface : (15 septembre) bon je me suis visiblement laissé entraîner par
mon élan. Je n’en suis pas trop mécontent car cela m’a permis de voir que
je connaissais des choses sans même savoir comment, ni d’où, cela venait, et
heureusement qu’il y a Internet qui m’a permis de finaliser en y trouvant les
noms appropriés (par exemple : « matrices compagnons », « décomposition de
Frobenius ») pour toutes ces choses. Au final il y a donc ici certaines des notions
qui sont probablement un peu trop poussées pour être directement utiles à
l’Oral, mais elles pourraient bien l’être pour l’Écrit. En effet, cette fiche est
devenue un

Mini-Traité sur la réduction des


endomorphismes
où tout ce que vous n’avez jamais voulu savoir sur la décomposition de Frobenius occupe une douzaine de pages alors que le plus raisonnable et convenable
Lemme des Noyaux n’est qu’à peine évoqué à la toute fin.

1 Rapides rappels basiques, qu’il faut connaître de


toute façon
Le théorème de Cayley-Hamilton peut s’aborder de multiples manières. Je
voudrais rappeler d’abord brièvement les aspects les plus basiques de la décom-
position des endomorphismes, qui ont en particulier comme conséquence une
preuve du théorème de Cayley-Hamilton. Pour ce dernier (que l’on peut voir
comme un énoncé sur les matrices carrées) on peut d’emblée supposer que le
corps K est algébriquement clos. Cette hypothèse permet lorsque l’on a un es-
pace vectoriel V de dimension finie muni d’un endomorphisme f de travailler
avec les valeurs propres (attention : V 6= {0}). Donc soit λ une valeur propre
de f, dim Ker(f − λ) > 0 (l’endomorphisme identité IdV est sous-entendu dans
la notation : f − λ = f − λIdV ). La suite Kn = Ker(f − λ)n (avec K0 = {0})
est croissante pour l’inclusion. Il existe un plus petit indice N (et N ≥ 1) avec
KN = KN+1 . Comme les inclusions précédentes sont strictes on a dim KN ≥ N,
une remarque qui sera utile plus tard. À partir de KN = KN+1 il est facile de voir
que KN = KN+1 = KN+2 = . . . (je le laisse en exercice). Soit Jn = Im(f − λ)n .

1
La suite des images Jn = Im(f − λ)n est décroissante pour l’inclusion et se sta-
bilise aussi à partir de n = N, en utilisant le théorème du rang pour le calcul
de la dimension de Jn . Si x ∈ KN ∩ JN alors x = (f − λ)N (y) et (f − λ)N (x) = 0
donc (f − λ)2N (y) = 0 donc (f − λ)N (y) = 0 donc x = 0. Donc KN et JN sont
en somme directe et comme leurs dimensions sont complémentaires (théorème
du rang) on obtient la décomposition en somme directe V = KN ⊕ JN . Sur JN ,
f − λ est injectif (puisque le noyau est K1 et K1 ∩ JN = {0}), donc λ n’est pas
valeur propre de f sur JN . On en déduit par récurrence sur dim V qu’il existe
une décomposition (unique d’ailleurs) V = ⊕Vλ indexée par les valeurs propres
λ et f − λ est nilpotent sur Vλ . Les espaces Vλ sont les « espaces caractéris-
tiques » de l’endomorphisme f. On peut choisir une base de Vλ de sorte que
f y soit représenté par une une matrice triangulaire supérieure avec des λ sur
la diagonale (f − λ est nilpotente sur Vλ , et la trigonalisabilité d’un endomor-
phisme nilpotent N se montre facilement par récurrence sur la dimension de
l’espace, puisque tout passage à un quotient redonne un endomorphisme nil-
potent, ou encore en utilisant une forme linéaire non nulle L avec N* (L) = 0,
puisque N* est aussi nilpotent, et alors l’hyperplan L(x) = 0 est stable par N).
En combinant les bases des différents Vλ , on obtient une matrice triangulaire
représentant f, et on en déduit que le polynôme caractéristique det(X − f) vaut
Q dim Vλ . Comme dim V ≥ N (« remarque utile » faite précédem-
λ (X − λ) λ λ
ment), l’endomorphisme λ (f − λ)dim Vλ vaut zéro sur chaque Vλ donc sur V
Q
tout entier : d’où le théorème de Cayley-Hamilton.
Tout ce que je viens de dire, il faut absolument le connaître. Dans la suite
on s’intéresse plus généralement à tous les polynômes en l’endomorphisme f.
Paradoxalement peut-être, dans un premier temps au moins on n’y utilisera pas
ce qui précède, encore que la boucle sera bouclée vers la fin de notre épopée.
Et on ne veut pas être restreint à un corps algébriquement clos. Ceci élargit le
champ de vision, et le langage le plus adapté serait celui des modules sur l’an-
neau K[X], mais j’ai par masochisme voulu l’éviter (ça me paraissait impossible
mais en fin de compte la Didactique habitue à tous les sacrifices, par usure).

2 Polynômes minimaux (au pluriel)


Soit V un K-espace vectoriel et f ∈ End(V) un endomorphisme. Il existe un
(unique) morphisme de K-algèbres de K[X] sur End(V) qui envoie X sur f. On
note P(f) l’image du polynôme P, car en effet il s’agit de substituer f à X dans
P.
Le noyau est un idéal de K[X], idéal non nul, car K[X] est un K espace
vectoriel de dimension infinie tandis que End(V) est de dimension finie. Donc
il est engendré par un unique polynôme unitaire Mf : on l’appelle polynôme
(annulateur) minimal de f. C’est donc le polynôme unitaire de plus bas degré

2
vérifiant Mf (f) = 0. Par exemple si f = 0 alors Mf = X, sauf si V = {0} auquel cas
Mf = 1. Le cas Mf = 1 ne peut survenir que si V est l’espace nul. Si dim V > 0
alors deg Mf > 0.
On peut (ici dim V = N > 0) représenter f par une matrice carrée A de taille
N, et Mf est le polynôme unitaire de plus bas degré avec Mf (A) = 0, donc on peut
aussi parler du polynôme minimal MA = Mf de la matrice A. Comme pour tout
polynôme P on a P(SAS−1 ) = SP(A)S−1 , le polynôme minimal MSAS−1 = MA
est un invariant de similitude de la matrice A. Notons aussi l’énoncé important
suivant :

Proposition 1. Soit A une matrice carrée de taille N à coefficients dans un corps


K. Le polynôme minimal de A reste inchangé par le passage à un sur-corps L
de K.

Preuve : nous représentons les matrices carrées de taille N comme des lignes
avec N2 coefficients. Pour chaque n, appliquons l’algorithme du pivot de Gauss
aux n+1 lignes IN , A, . . ., An , algorithme qui procède par combinaisons linéaires
et permutations de lignes. Le nombre de lignes non nulles à la fin est égal à la
dimension dn de l’espace vectoriel engendré par IN , A, . . ., An . Le degré du
polynôme minimal est le plus petit n avec dn < 1 + n. Comme l’algorithme du
pivot ne dépend que des coefficients et non du corps ambiant L, le degré du
polynôme minimal reste inchangé. Donc le polynôme minimal reste inchangé
(puisque celui sur L divise dans L[X] celui sur K). On peut aussi faire la preuve
en utilisant une K-forme linéaire λ : L → K avec λ(1) = 1, mais la preuve
d’existence de λ nécessite le Lemme de Zorn si L est de dimension infinie sur K.
Cependant si K = R et L = C cette approche marche très bien avec λ(z) = Re(z) :
si P ∈ L[X] annule A alors λ(P) ∈ K[X] aussi, et λ(P) est unitaire si P l’est. On
retrouve que le degré du polynôme minimal ne peut pas décroître.
On peut aussi associer à tout vecteur x l’idéal dans K[X] des polynômes
P avec P(f)(x) = 0, d’où un polynôme minimal Mx (aussi appelé polynôme
annulateur et bien sûr il faudrait plutôt écrire Mf,x ). On a deg Mx > 0 sauf si
x = 0. Certainement Mx divise Mf puisque Mf (f)(x) = 0.
Nous essayons maintenant de comprendre la relation entre Mf et les Mx . Soit
(e1 , . . . , eN ) une base de V. Notons M1 , . . ., MN les polynômes minimaux associés
aux vecteurs de la base et soit P leur PPCM (que l’on prend unitaire lui aussi).
On a P(f)(ej ) = 0 pour tout j donc P(f) = 0 donc P est un multiple (au sens de la
division des polynômes) du polynôme minimal Mf . Mais par ailleurs chaque Mj
divise Mf donc leur PPCM divise Mf . Au final : Mf = P = ppcm(M1 , . . . , MN ).
En fait, et cela sera notre premier énoncé très significatif, on peut toujours
trouver un vecteur x avec Mx = Mf . Nous verrons cela plus tard, pour le moment
faisons une pause pour montrer le théorème de Cayley-Hamilton d’une façon
très simple.

3
3 Une démonstration super géniale du théorème de
Cayley Hamilton
Soit A une matrice carrée et P(X) = det(X−A) son polynôme caractéristique.
On a :
(1) P(A) = det(A − A) = det 0 = 0
Ceux qui sont satisfaits par cette preuve peuvent arrêter la lecture ici, car il
est peu probable que la suite leur soit utile ! (soit parce qu’ils sont d’excellents
mathématiciens et savent comment convertir la chose ci-dessus en une vraie
preuve, soit au contraire parce qu’ils sont de très modestes mathématiciens
pour lesquels c’était déjà une vraie preuve).

4 Matrices compagnons et Cayley-Hamilton


Il y a une situation qui sera fondamentale pour nous : on dit que V est
cyclique (pour f) s’il existe un vecteur x tel que V soit engendré par x, f(x),
f 2 (x), . . .. Calculons dans ce cas le polynôme minimal de f. D’abord si x = 0
alors V = {0} et Mf = 1. Sinon il existe un plus grand entier n ≥ 1 tel que x, f(x),
. . ., f n−1 (x) soient linéairement indépendants. Donc f n (x) est une combinaison
linéaire des précédents :
(2) f n (x) = an−1 f n−1 (x) + · · · + a0 x
Par récurrence pour m ≥ n, f m (x) est aussi combinaison linéaire de ces n vec-
teurs. Donc ces vecteurs forment une base de V. Notons
(3) P(X) = Xn − an−1 Xn−1 − · · · − a0
On a P(f)(x) = 0, donc P(f)(f(x)) = f(P(f)(x)) = 0, etc. . .Donc P est tel que
P(f) = 0 et est ainsi un multiple (au sens de la division des polynômes) de Mf .
Par ailleurs pour tout polynôme non nul Q de degré strictement inférieur à n,
on a Q(f)(x) 6= 0 puisque x, f(x), . . ., f n−1 (x) sont linéairement indépendants.
Donc Mf est de degré au moins n et finalement Mf = P.
Écrivons la matrice de f dans la base (x, f(x), . . . , f n−1 (x)). Elle est
0 a0
 
1 0 a1 
 
 1 0 a2 
(4) C(P) = 
 
 . .
.. .. 

 
 1 0 an−2 
1 an−1
Une telle matrice s’appelle “matrice compagnon” (du polynôme unitaire P).

4
Proposition 2. Le polynôme caractéristique de la matrice compagnon est égal à
P.

Preuve : par exemple par récurrence en développant le déterminant det(XIn −


C(P)) par rapport à la première colonne. Nous ré-aborderons ce point plus tard
pour en donner une version plus sophistiquée.
Nous pouvons maintenant donner une preuve rapide du théorème de Cayley-
Hamilton :
Théorème 1. Soit V un espace vectoriel non nul et f un endomorphisme de
polynôme caractéristique P. Alors P(f) = 0.

Preuve : soit x un vecteur non nul, et Vx le plus petit sous-espace stable par
f et contenant x, c’est-à-dire l’espace cyclique engendré par x et ses images sous
f. Notons g la restriction de f à Vx . On sait (en complétant une base de Vx par
le théorème de la base incomplète et en faisant un calcul de déterminant par
bloc) que le polynôme caractéristique Px de g divise celui de f. Or Px par ce qui
précède n’est autre que le polynôme minimal de x, en particulier Px (f)(x) = 0.
Donc P(f)(x) = 0. Donc P(f) = 0. Attention, en dimension zéro le théorème est
vrai mais de manière un peu spéciale : on doit convenir P = 1 (par exemple parce
qu’un produit sur un ensemble vide est toujours pris égal à 1, de même qu’une
somme sur un ensemble vide est toujours prise égale à zéro) donc P(f) = Id et
on a IdV = 0V comme identité d’endomorphismes sur l’espace vectoriel nul V.
Il est utile d’étudier de plus près les espaces cycliques.
Proposition 3. Soit P1 et P2 deux polynômes unitaires. S’il existe un isomor-
phisme φ : K[X]/(P1 ) ≃ K[X]/(P2 ) de K-espaces vectoriels vérifiant ∀Q φ(XQ) =
Xφ(Q), alors P1 = P2 .

Preuve : notons V1 = K[X]/(P1 ) et soit f1 ∈ End(V1 ) la multiplication par


X et notons V2 = K[X]/(P2 ) et soit f2 ∈ End(V2 ) la multiplication par X.
Le polynôme minimal M1 de f1 est P1 et le polynôme minimal M2 de f2 est
P2 . Or, pour tout polynôme T, on φ ◦ T(f1 ) = T(f2 ) ◦ φ. Donc M1 (f2 ) = 0 et
M2 divise M1 . En échangeant les rôles, M1 divise M2 et finalement M1 = M2
c’est-à-dire P1 = P2 . On peut aussi dire qu’à cause de l’isomorphisme φ, la
multiplication par X a même polynôme caractéristique dans les deux espaces
V1 et V2 , or dans le premier sa matrice dans la base canonique (1, X, . . . , Xn−1 )
est la matrice compagnon C(P1 ) et dans le second c’est C(P2 ). Donc P1 = P2 .
L’énoncé qui suit sera utilisé par la suite :
Proposition 4. Soit V = K[X]/(P) et f l’endomorphisme de multiplication par
X. Pour tout polynôme unitaire T, le noyau Ker T(f) est le sous espace cy-
P
clique engendré par pgcd(T,P) et le polynôme minimal associé est pgcd(T, P).
En particulier :
(5) dim Ker T(f) = deg pgcd(T, P)

5
Preuve : soit T un polynôme unitaire, déterminons Ker T(f). Tout d’abord
si x ∈ V est (la classe d’) un polynôme Q alors tout bêtement T(f)(x) est (la
classe) du polynôme TQ. Donc pour que T(f)(x) = 0, il faut et il suffit que
P divise TQ. Notons D = pgcd(T, P), P = DA, T = DB. Pour que DA divise
QDB il est nécessaire et suffisant que A divise QB mais A est premier à B
donc cela équivaut à ce que A divise Q. Donc le noyau de T(f) est composé
des vecteurs x de la forme Q = AR (modulo P). Il s’agit donc du sous-espace
P
cyclique engendré par A (= pgcd(T,P) ). Si l’on multiplie A par un polynôme
non nul de degré strictement inférieur à celui de D = pgcd(T, P), on obtient un
polynôme non nul de degré strictement inférieur à celui de P donc un élément
non nul de K[X]/(P). Donc le polynôme minimal de A est pgcd(T, P). Fin de la
preuve.

5 Existence d’un vecteur de polynôme minimal maxi-


mal
Nous prouvons maintenant le résultat crucial suivant :
Théorème 2. Étant donné dans V des vecteurs x1 , . . ., xk , de polynômes mini-
maux associés M1 , . . ., Mk , il existe un vecteur x dans V de polynôme minimal
associé Mx = ppcm(M1 , . . . , Mk ).

Preuve : il suffit de faire le cas k = 2 car le cas général en résulte par


une récurrence (et le fait que ppcm(M1 , M2 , M3 ) = ppcm(ppcm(M1 , M2 ), M3 )
etc. . .). Supposons donc k = 2 et aussi, dans un premier temps que M1 et M2
sont premiers entre eux. Alors je dis que x = x1 + x2 convient. En effet si
0 = P(f)(x) = P(f)(x1 ) + P(f)(x2 ) alors 0 = (PM2 )(f)(x1 ) + 0 donc M1 divise PM2
donc M1 divise P. De même M2 divise P donc M1 M2 divise P. Donc M1 M2 divise
Mx . Mais bien sûr (M1 M2 )(f)(x) = 0 donc Mx divise M1 M2 . Donc Mx = M1 M2 .
Dans le cas général on fait quelque chose d’un peu rusé. Il n’y a qu’un nombre
fini de polynômes unitaires irréductibles distincts divisant M1 ou M2 . Notons-les
π1 , . . ., πk . Ainsi :

(6) M1 = π1a1 . . . πkak M2 = π1b1 . . . πkbk

Soit J ⊂ {1, . . . , k} l’ensemble des j avec aj ≥ bj et posons (rappel : par conven-


tion un produit vide vaut 1) :
Y aj Y bj
(7) N1 = πj N2 = πj
j∈J j∈Jc

Par construction ppcm(M1 , M2 ) = N1 N2 , et N1 et N2 sont premiers entre eux.


Enfin écrivons M1 = N1 T1 , M2 = N2 T2 , et x′1 = T1 (f)(x1 ) et x′2 = T2 (f)(x2 ).

6
Je prétends que le polynôme minimal de x′1 est N1 et celui de x′2 est N2 . En
effet si P(f)T1 (f)(x1 ) = 0 alors PT1 est divisible par M1 = N1 T1 donc N1 divise
P. Et réciproquement N1 (f)(x′1 ) = N1 (f)T1 (f)(x1 ) = M1 (f)(x1 ) = 0. De même
pour x′2 . Donc par ce que l’on a fait avant, le polynôme minimal de x′1 + x′2 est
N1 N2 = ppcm(M1 , M2 ), comme voulu. Ce qui termine cette preuve.

6 Décomposition
Si l’on reprend donc notre discussion d’un endomorphisme f sur un K-espace
vectoriel V non nul on sait à ce stade qu’il existe des vecteurs x tels que Mx = Mf ,
puisque nous avions vu précédemment Mf = ppcm(Me1 , . . . , Men ) pour toute
base (e1 , . . . , en ) de V. La deuxième étape cruciale est :

Théorème 3. Soit x tel que Mx = Mf . Alors le sous-espace cyclique Vx de V


engendré par x et ses images sous f admet un complémentaire W stable par f.

La preuve en est assez rusée. Tout d’abord, si V est l’espace nul le théorème
est vrai bien que pas très exaltant. Si V n’est pas l’espace nul on a deg Mf > 0,
donc deg Mx > 0 et x n’est pas nul. Soit n = dim Vx ≥ 1, Vx possède comme base
x, f(x), . . ., f n−1 (x). Choisissons une forme linéaire L sur V avec les contraintes :

(8) L(x) = L(f(x)) = · · · = L(f n−2 (x)) = 0 et L(f n−1 (x)) = 1

Bien sûr si n = 1 il faut juste comprendre L(x) = 1. Maintenant on pose L1 = L


et L2 = f * (L1 ), . . ., Ln = (f * )n−1 (L1 ). C’est-à-dire :

(9) Lk (y) = L(f k (y))

Finalement j’écris l1 , . . ., ln pour les restrictions de L1 , . . ., Ln à Vx . Dans la


base de V*x duale de la base (x, . . . , f n−1 (x)) de Vx , les formes linéaires l1 , . . .,
ln s’écrivent de manière triangulaire inversible (plus précisément la matrice des
coefficients de ln , . . ., l1 est triangulaire inférieure avec des 1 sur la diagonale).
Elles sont donc linéairement indépendantes.
Donc les n formes linéaires L1 , . . ., Ln sur V sont linéairement indépendantes.
Leur noyau commun W est donc de codimension n, de plus son intersection avec
Vx est aussi de codimension n dans Vx donc cette intersection est nulle, donc
en fait V = Vx ⊕ W. Il reste à prouver que W est stable sous f. Mais si y ∈ W
et z = f(y) alors tout d’abord :

(10) L1 (z) = L2 (y) = 0, L2 (z) = L3 (y) = 0, . . . , Ln−1 (z) = Ln (y) = 0

et finalement Ln (z) = L1 (f n (y)) or le polynôme minimal Mf est de degré n donc


f n (y) est combinaison linéaire de y, f(y), . . ., f n−1 (y). Comme L1 s’annule sur

7
eux, on a bien Ln (z) = 0. Donc z ∈ W, ce qu’il fallait démontrer. Le Théorème
est établi.
Si V n’est pas l’espace nul nous avons vu que le x n’est pas un vecteur nul,
donc W, supplémentaire de Vx est un sous-espace propre de V (éventuellement
nul). Si W n’est pas l’espace nul, nous pouvons itérer la construction, et ainsi
de suite jusqu’à obtenir un espace nul. Notons M1 le polynôme minimal de f
sur V, M2 celui de sa restriction au sous-espace propre W, etc. . .. Ainsi M2
divise M1 , etc. . .Ainsi, par récurrence sur la dimension, on obtient le théorème
de structure (première partie : existence) :
Théorème 4. Soit f un endomorphisme d’un K-espace vectoriel V 6= {0}. Il existe
une décomposition de V en somme directe de sous-espaces cycliques non nuls

(11) V = V1 ⊕ V2 ⊕ · · · ⊕ Vp

de polynômes minimaux associés M1 , . . ., Mp , avec Mj+1 diviseur de Mj pour


1 ≤ j < p. Le polynôme minimal de f est M1 et le polynôme caractéristique
det(X − f) est le produit M1 M2 · · · Mp .

La formule pour le polynôme caractéristique résulte du calcul des polynômes


caractéristiques pour les espaces cycliques. On note comme conséquence immé-
diate le Théorème de Cayley-Hamilton, puisque notre formule prouve que le
polynôme minimal divise le polynôme caractéristique.
La décomposition du théorème n’est pas du tout unique, par contre, et c’est
là la deuxième partie du théorème de structure, le nombre p et les polynômes
M1 , . . ., Mp , eux sont déterminés de manière unique :

7 Unicité
Théorème 5. Soit p ≥ 1 un entier et Mp |Mp−1 | · · · |M1 des polynômes unitaires
de degrés strictement positifs. Et soit q ≥ 1 un entier et Nq |Nq−1 | · · · |N1 des
polynômes unitaires de degrés strictement positifs. S’il existe un isomorphisme

(12) φ : K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp ) ≃ K[X]/(N1 ) ⊕ · · · ⊕ K[X]/(Nq )

commutant à la multiplication par X alors q = p, Np = Mp , . . ., N1 = M1 .

Soit V = K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp ) et notons f la multiplication par X


dans V. Et soit W = K[X]/(N1 ) ⊕ · · · ⊕ K[X]/(Nq ) et g la multiplication par X
dans W. Si T est un polynôme quelconque on a la formule :

(13) φ ◦ T(f) = T(g) ◦ φ

qui généralise φ ◦ f = g ◦ φ faisant partie des hypothèses de l’énoncé.

8
Ainsi φ(Ker T(f)) = Ker T(g) et dim Ker T(f) = dim Ker T(g). Or, pour T
unitaire, on a, d’après la Proposition 4,
X
(14) dim Ker T(f) = deg pgcd(T, Mj ) ≤ p deg T
1≤j≤p
l’égalité n’étant atteinte que si T divise tous les Mj , c’est-à-dire si T divise Mp .
Je rappelle maintenant que dans notre énoncé on a imposé deg Mp > 0. Je peux
donc considérer la fonction ψ qui, aux polynômes unitaires non constants T
associe
dim Ker T(f) dim Ker T(g)
(15) ψ(T) = =
deg T deg T
Cette fonction est majorée par p et atteint son maximum p en T = Mp et
ses diviseurs unitaires non constants. Et elle est majorée par q et atteint son
maximum q en T = Nq et ses diviseurs. Donc p = q, et Mp = Nq car ce polynôme
est caractérisé comme étant celui de plus haut degré réalisant le maximum de
la fonction ψ.
Notons donc T ce polynôme unitaire non constant Mp = Nq . L’isomorphisme
φ : V ≃ W passe au quotient en un isomorphisme φ : V/ Ker T(f) ≃ W/ Ker T(g).
De plus le noyau de la restriction de Mp (f) au module cyclique K[X]/(Mj ) est
engendré par le polynôme Mj /Mp , et on a l’isomorphisme commutant à la mul-
tiplication par X :
(16) (K[X]/(Mj ))/(Mj /Mp ) ≃ K[X]/(Mj /Mp )
donc
(17) V/ Ker T(f) ≃ ⊕1≤j≤p′ K[X]/(Mj /Mp )
où l’on a arrêté la somme au plus grand indice j avec deg Mj > deg Mp . Il est
possible qu’il n’y ait aucun tel indice auquel cas M1 = M2 = · · · = Mp . Mais alors
V/ Ker T(f) = 0 donc W/ Ker T(g) = 0 donc on a aussi N1 = N2 = · · · = Nq et on
a déjà vu p = q et Mp = Nq . Donc soit la preuve s’arrête là, soit on s’est ramené
à un isomorphisme entre deux sommes directes non nulles d’espaces cycliques
non nuls, avec un nombre inférieur de termes. Par hypothèse de récurrence,
Mj /Mp = Nj /Nq pour j ≤ p′ = q ′ et le Théorème est démontré.
Si l’on revient à la situation d’un espace vectoriel V non nul et d’un endo-
morphisme f, et que l’on représente V comme somme directe de sous-espaces
cycliques non nuls :
(18) V = V 1 ⊕ V 2 ⊕ · · · ⊕ Vp
de polynômes minimaux associés M1 , . . ., Mp vérifiant Mp |Mp−1 | · · · |M1 , tout
choix de vecteurs x1 ∈ V1 , . . ., xp ∈ Vp les engendrant comme espaces cycliques
donne un isomorphisme :
(19) V ≃ K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp )

9
qui fait correspondre à f la multiplication par X. Une autre décomposition du
même type donne un autre isomorphisme :
(20) V ≃ K[X]/(N1 ) ⊕ · · · ⊕ K[X]/(Nq )
et par le Théorème que nous venons de prouver on a donc en fait p = q et
Mj = Nj , pour 1 ≤ j ≤ p.
Attention, dans tout cela on a fait un usage essentiel de la condition que
les Mj forment une chaîne décroissante pour la divisibilité des polynômes :
l’unicité serait complètement fausse sans cette condition. Et par ailleurs, ce
sont uniquement les polynômes Mj qui sont uniques, et pas la décomposition
elle-même de V en sous-espaces cycliques.

8 Invariants de similitude
Soit f un endomorphisme de V, et soit θ un isomorphisme du K-espace
vectoriel V. Soit g = θ ◦ f ◦ θ−1 conjugué à f. Si V = V1 ⊕ V2 ⊕ · · · ⊕ Vp est
une décomposition en espaces cycliques pour f alors V = θ(V1 ) ⊕ · · · ⊕ θ(Vp )
est une décomposition en espaces cycliques pour g. En effet pour chaque Vj ,
on a θ : Vj ≃ θ(Vj ) avec g(θ(x)) = θ(f(x)), donc θ(Vj ) est aussi cyclique pour g
avec comme générateur θ(xj ) si xj est générateur pour f de Vj , et les polynômes
minimaux sont les mêmes. Donc le nombre p et les polynômes M1 , . . ., Mp sont
les mêmes pour f et g : ce sont des invariants de similitude.
Réciproquement si f et g donnent lieu à des décompositions de V aux mêmes
polynômes minimaux associés, alors
(21) φ1 , φ2 : V ≃ K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp )

avec φ1 ◦ f = X ◦ φ1 , φ2 ◦ g = X ◦ φ2 , donc avec θ = φ−1


2 ◦ φ1 on a :

(22) θ ◦ f ◦ θ−1 = φ−1


2 ◦ X ◦ φ2 = g
L’endomorphisme f est donc déterminé à similitude près par la connaissance
des polynômes minimaux M1 , . . ., Mp .
Si l’on passe après choix d’une base de V à des matrices N × N à coefficients
dans K, on obtient le théorème suivant :
Théorème 6. Soit K un corps. Toute matrice carrée A à coefficients dans K est
semblable à une matrice composée de blocs diagonaux qui sont des matrices
compagnons C(M1 ), . . ., C(Mp ) avec Mj+1 diviseur de Mj :
 
C(M1 ) 0 ... ... 0
 0 C(M2 ) 0 . . . 0 
(23) ∃S SAS−1 =   ···

··· ··· ··· ··· 
0 ... . . . 0 C(Mp )

10
De plus deux telles matrices « réduites », c’est-à-dire sous cette forme diagonale
par blocs, avec Mj+1 diviseur de Mj , ne peuvent être semblables que si elles sont
identiques. Le polynôme unitaire M1 est le polynôme minimal de la matrice A,
et le produit M1 . . . Mp est le polynôme caractéristique det(X − A).

Terminologie : les polynômes Mj sont les facteurs invariants de la matrice A


(ou de l’endomorphisme f). La décomposition de l’espace vectoriel V en somme
directe d’espace cycliques (avec condition de divisibilité sur les polynômes mini-
maux) ou la réduction de la matrice A s’appelle la Décomposition de Frobenius.
Je donnerai plus loin des « formules » pour les facteurs invariants, mais surtout
un algorithme de calcul, plus efficace.

9 Quelques conséquences du Théorème de Décompo-


sition de Frobenius
Proposition 5. Si deux matrices carrées A et B à coefficients dans un corps K
sont semblables sur une extension L du corps K alors elles sont semblables sur
K.

Preuve : on peut supposer A et B réduites sur K au sens du Théorème


précédent. Si l’on remplace K par un sur-corps L, elles restent réduites en tant
que matrices à coefficients dans L. Donc si elles sont semblables sur L elles sont
identiques. Donc les matrices d’origine étaient semblables sur K.
Exercice : prouvez-le directement lorsque L = C et K = R.
Proposition 6. Soit K un corps. Toute matrice carrée à coefficients dans K est
semblable (sur K) à sa transposée.

Preuve : il suffit de le montrer pour une matrice compagnon C(P), n =


deg P ≥ 1. Soit V = K[X]/(P), et la base e1 = 1, e2 = X, . . ., en = Xn−1 . La
matrice C(P) est la matrice dans cette base de la multiplication f par X dans
V. Considérons f * agissant sur le dual V* . Soit T un polynôme. Il est clair que
T(f * ) est l’adjoint de T(f). Donc T(f * ) est nul si et seulement si T(f) est nul,
donc le polynôme minimal de f * est celui de f, à savoir P. Il existe par notre
théorème général une forme linéaire L avec ML = P (en fait il suffit de prendre
par exemple le L tel que L(en ) = 1 et tous les autres nuls) et le sous-espace
cyclique engendré par L est déjà de dimension égale à celle de V* , donc en fait
V* est cyclique pour f * , de polynôme minimal P. Donc pour une certaine base
de V* la matrice de f * est aussi C(P). Par contre, on sait d’une manière générale
que si l’on prend comme base de V* la base duale de (e1 , . . . , en ) alors la matrice
représentant f * est la transposée de la matrice C(P) qui représentait f. Donc
C(P) est semblable à sa transposée.

11
10 Magie noire avec les matrices compagnons
Soit P = Xn + an−1 Xn−1 + · · · + a0 un polynôme unitaire de degré au moins
1, et soit C(P) sa matrice compagnon :

0 0 0
 
··· ··· −a0
 1 0 0 ··· ··· −a1 
 
 0 1 0 ··· ··· −a2 
(24) C(P) = 
 
. .. .. 
· · · · · ·
 . ··· ··· 
 0 ··· ··· 1 0 −an−2 
0 0 ··· 0 1 −an−1

On sait que det(X − C(P)) = P, et on va préciser cet énoncé d’une manière assez
remarquable.
Théorème 7. Il existe deux matrices n × n UP et VP , à coefficients dans l’anneau
K[X], de déterminants 1, et telle que l’identité suivante soit vérifiée :

P
 

 1 

(25) UP · (X − C(P)) · VP = 
 .. 
 . 

 1 
1
La matrice de droite est diagonale avec P, 1, . . ., 1 sur la diagonale. En particulier
cela redonne det(X − C(P)) = P.

Preuve : tout d’abord si l’on a une matrice (carrée ou rectangulaire) avec des
lignes L1 , . . ., Ln , alors remplacer Li par Li + tLj (j 6= i) se réalise en multipliant
à gauche par la matrice carrée n ×n avec des 1 sur la diagonale et comme unique
autre entrée non nulle un t à l’intersection de la ie ligne et de la je colonne. De
même si les colonnes sont C1 , . . ., Cm , remplacer Ci par Ci + tCj se réalise en
multipliant à droite par la matrice carrée n × n avec des 1 sur la diagonale et
comme unique autre entrée non nulle un t à l’intersection de la ie colonne et de
la je ligne. Regardons la matrice X − C(P) :
 
X 0 ··· ··· a0
−1 X 0 ··· a1 
 
 0 −1 X · · · a2 
(26) X − C(P) =  
 · · · · · · · · · · · · · · · 

· · · · · · −1 X an−2 
0 0 0 −1 X + an−1
On fait Ln−1 → Ln−1 + XLn , puis Ln−2 → Ln−2 + XLn−1 , puis etc. . .et enfin
L1 → L1 + XL2 (à ce stade L2 est une ligne commençant par −1 puis il y a

12
n − 2 zéros et enfin un certain polynôme à la fin). Ceci correspond à multiplier
X − C(P) par la gauche par une certaine matrice (triangulaire supérieure avec
des 1 sur la diagonale) UP et donne comme résultat :
 
0 0 ··· ··· P
−1 0 0 ··· *1 
 
(27) UP · (X − C(P)) = 
 .. .. 
 . . ··· ···  
 −1 0 *n−2 
−1 X + an−1
(28)    
1 0 ··· ··· *1 0 0 ··· ··· P
 1 0 ··· * 2  −1 0 0 ··· 0
   
=⇒ UP · (X − C(P)) ·  .. .. .. .. .. .. .. 
=
  
 . . .   . . . .
 1 X + an−1   −1 0 0
1 −1 0
Il ne reste plus qu’à multiplier à droite par la matrice (de déterminant 1) :
 
0 −1

 0 −1 

(29)
 . . . . 

 . . 

 0 −1
1 0
Théorème 8. Soit A une matrice carrée sur un corps K, de taille N × N. Soit M1 ,
. . ., Mp ses facteurs invariants (de Frobenius) et posons Mp+1 = · · · = MN = 1
(on a nécessairement p ≤ N, car p est le nombre de blocs compagnons dans
la réduction de A à la forme de Frobenius). Il existe des matrices U et V à
coefficients dans l’anneau K[X], de déterminants des scalaires non nuls, telles
que
(30) U · (X − A) · V = diag(M1 , M2 , . . . , MN )

Preuve : il existe S inversible à coefficents dans K avec S−1 AS égale à une


suite diagonale de blocs compagnons. Ensuite on applique le théorème précédent
à chaque bloc : en assemblant tout par blocs le long de la diagonale on a presque
ce que l’on cherche, sauf qu’il ne reste plus qu’à conjuguer le tout par une matrice
de permutation afin de mettre les 1 à la fin, et d’aligner les M1 , . . ., Mp à la
suite les uns des autres au début de la diagonale.

11 Une formule théorique pour les facteurs invariants


Théorème 9. Soit A une matrice carrée de taille N×N à coefficients dans un corps
K. Soit M1 , . . ., Mp ses facteurs invariants (de Frobenius) et posons Mp+1 =

13
· · · = MN = 1. Alors, pour 1 ≤ j ≤ N, le produit

(31) Mj Mj+1 . . . MN

est le PGCD des mineurs de taille N − j + 1 de la matrice X − A à coefficients


dans l’anneau K[X].

On peut donc obtenir le polynôme minimal M1 , en calculant les N2 mineurs


de taille N − 1 de la matrice X − A, puis leur PGCD, disons D et alors

det(X − A)
(32) M1 =
D
Sûrement pas l’algorithme le moins gourmand en calculs !
Preuve du Théorème : soit A un anneau commutatif quelconque.   Si A est
une matrice n × m, notons Jk (A) l’idéal de A engendré par les nk m k mineurs
de taille k × k. Je dis que Jk (BA) ⊂ Jk (A) pour toute matrice B (de taille
p × n). En effet chaque ligne de BA est une combinaison linéaire des lignes de
A, donc par multilinéarité du déterminant, tout mineur de taille k de BA est
une combinaison linéaire des mineurs de taille k de A. En particulier si B est
une matrice carrée inversible (c’est-à-dire de déterminant une unité de A), on a
Jk (BA) = Jk (A) car A = B−1 BA. De même pour la multiplication à droite, qui
s’interprète comme des combinaisons de colonnes. Nous appliquons ceci avec
A = K[X], et à l’identité du Théorème 8 :

(33) U · (X − A) · V = diag(M1 , M2 , . . . , MN )

où U et V sont, comme il y est dit, des matrices inversibles à coefficients dans A.


Maintenant, lorsque l’on prend un mineur d’une matrice diagonale, déterminant
de l’intersection de k lignes par k colonnes, si l’on retient la ligne i, il faut
aussi retenir la colonne i, car sinon on aurait une ligne nulle. Donc les seuls
mineurs non nuls sont centrés sur la diagonale. Finalement, compte tenu des
relations de divisibilité MN | · · · |M1 , le « plus petit » (au sens de la divisibilité)
mineur de taille k de diag(M1 , M2 , . . . , MN ) est celui en bas à droite, qui vaut
MN−k+1 · · · MN . Fin de la preuve.

12 Un algorithme pour le calcul des facteurs invariants


Supposons que l’on ait une identité

(34) U′ · (X − A) · V′ = diag(M′1 , M′2 , . . . , M′N )

avec des matrices U′ et V′ à coefficients dans K[X], de déterminants scalaires


et non nuls, et des polynômes M′j vérifiant M′N | · · · |M′1 . Alors Mj = M′j . En

14
effet, la preuve du théorème précédent s’applique à l’identique et montre que
les produits M′j M′j+1 . . . M′N , donc les M′j ne dépendent que de la matrice A.
Il suffit donc de réduire X − A à une telle forme diagonale, par des combi-
naisons réversibles de lignes, de colonnes, et des permutations de lignes et de
colonnes. Prenons comme point de départ n’importe quelle matrice P à coeffi-
cients dans l’anneau euclidien K[X]. Regardons les entrées de la première ligne et
de la première colonne. Si elles ne sont pas toutes nulles, il existe une entrée non
nulle de degré minimal. Par des permutations soit de lignes soit de colonnes on
la met en position (1, 1). Puis on applique l’algorithme de division euclidienne à
chacune des autres entrées de la première ligne et de la première colonne pour
les remplacer par leurs restes. S’il subsiste un reste non nul, on recommence, et
ainsi de suite. En un nombre fini d’étapes, on les a toutes réduites à zéro, sauf
peut-être l’entrée en position (1, 1). On recommence ensuite à partir de (2, 2).
Etc. . .En un nombre fini d’étapes on a réduit la matrice à une autre qui n’a
d’entrées non nulles que sur la diagonale principale. Par des permutations on
peut mettre les zéros à la fin. Il reste à se débrouiller pour obtenir les relations
de divisibilité : il faut que l’entrée en (1, 1) soit multiple de toutes les autres
non nulles, etc. . .. C’est là où intervient la formule magique suivante, valable
dans tout anneau commutatif intègre (les coefficients sont dans son corps des
fractions) :
 m n   m   mn 
d d n 0 b d −1 0
(35) 0 6= d = an + bm =⇒ = d
−a b 0 m a dn 1 0 d

Supposons en particulier que n = N et m = M soient des polynômes non nuls,


et D =AN +  BM leur PGCD donné par une  identité de Bezout. Alors on a
N 0 ppcm(N, M) 0
réduit à en la multipliant à gauche et à
0 M 0 pgcd(N, M)
droite par des matrices de déterminants 1. En appliquant ceci aux entrées (1, 1)
et (2, 2) puis (1, 1) et (3, 3) etc. . ., on met le PPCM (des termes non nuls) en
(1, 1), puis on recommence à partir de (2, 2), etc. . . La réduction de la matrice
P de K[X] est achevée.
En appliquant cet algorithme à la matrice X − A on obtient au final les
invariants de Frobenius M1 , . . ., Mp de la matrice A.

13 Décomposition de Jordan d’un endomorphisme nil-


potent
Dans le cas d’un endomorphisme nilpotent N, le polynôme minimal et tous
les facteurs invariants (qui en sont des diviseurs) sont des monômes Xk . La
matrice compagnon C(Xk ) est conjuguée à sa transposée (il suffit d’ailleurs de

15
passer à la base (Xk−1 , . . . , 1) de K[X]/(Xk )) :
 
0 1
 0 1 
 
(36) k t
C(X ) = Jk := 
 . .
.. .. 
 
 0 1
0

Donc la décomposition de Frobenius dans ce cas donne une décomposition en


blocs de Jordan, dont le nombre et les tailles sont des invariants de similitude
de l’endomorphisme nilpotent N. Le polynôme minimal est XK avec K la taille
du plus grand bloc, et on a M1 = M2 = · · · = Mq avec q le nombre de fois qu’il
y a un bloc de taille K, puis Mq+1 est XL avec L la taille maximale de ceux qui
restent etc. . .

14 Décomposition en espaces caractéristiques d’un en-


domorphisme scindé
Théorème 10. Le polynôme minimal Mf et le polynôme caractéristique Pf =
det(X − f) ont les mêmes zéros dans K. L’un est scindé sur K si et seulement si
l’autre l’est aussi.

Preuve : par Cayley-Hamilton Mf |Pf donc tout zéro de Mf dans K est un


zéro de Pf . Réciproquement si Pf (λ) = 0 alors λ est valeur propre donc il existe
x non nul avec f(x) = λx. Le polynôme minimal de x est X − λ. Donc Mf est un
multiple de X − λ, autrement dit Mf (λ) = 0. Ceci montre que Mf et Pf ont les
mêmes zéros dans K.
Si Pf est scindé, Mf qui en est un diviseur le sera aussi. Réciproquement, si
Mf est scindé, les autres facteurs invariants M2 , . . ., Mp qui en sont des diviseurs
le sont aussi donc le produit Pf = M1 · · · Mp est scindé.
On peut montrer (Mf scindé =⇒ det(X − f) scindé) sans avoir à invoquer
la théorie des facteurs invariants. Par exemple, par récurrence sur la dimension
de la manière suivante. Soit x un vecteur non nul et Vx l’espace cyclique qu’il
engendre. Notons W le quotient V/Vx et g l’endomorphisme quotient. On a

(37) det(X − f) = det Vx (X − f) det(X − g)

Le polynôme minimal de g divise celui de f donc est scindé, et par hypothèse


de récurrence on a donc det(X − g) scindé. Par ailleurs on sait que detVx (X − f)
est le polynôme minimal de x et donc lui aussi divise Mf et est scindé. Donc
det(X − f) est scindé. Le Théorème est démontré.

16
On dit qu’un endomorphisme f est scindé sur le corps K si son polynôme
minimal Mf (ou son polynôme caractéristique) est scindé :

(X − λj )mj ,
Y
(38) Mf = λj ∈ K, mj > 0

(X − λj )nj ,
Y
(39) Pf = λj ∈ K, nj ≥ mj

Reprenons maintenant le raisonnement fait dans notre toute première sec-


tion. À la valeur propre λ on peut associer l’espace caractéristique Vλ , par
exemple par la formule

(40) Vλ = Ker(f − λ)dim(V)


En effet, la chaîne Kn = Ker(f − λ)n vérifie dim Kn ≥ n tant qu’elle est stric-
tement croissante, donc il y a un indice n ≤ dim(V) avec Kn = Kn+1 et il est
facile de voir alors Kn = Kn+1 = Kn+2 = . . . . L’espace Vλ possède, comme nous
l’avons vu, un supplémentaire canonique stable par f qui est W = Im(f−λ)dim(V) .
Sur ce W, λ n’est plus valeur propre. Le polynôme minimal (ou caractéristique)
de f sur W divise celui sur V donc est scindé, et on peut raisonner par récurrence,
car il y aura une nouvelle valeur propre pour continuer. Ainsi :
Théorème 11. À tout endomorphisme scindé f sur V est associé une décomposi-
tion de V en la somme directe des espaces caractéristiques Vλ = Ker(f − λ)dim V
associés aux valeurs propres de f.

Notez qu’à la différence de la décomposition de Frobenius de V en somme


directe d’espaces cycliques, il y a ici une unicité au niveau même de la décom-
position vectorielle.
Même si f n’est pas scindé, on peut tout de même faire le raisonnement
en utilisant les valeurs propres disponibles. En effet soit λ une première valeur
propre, on a, en notant mλ et nλ les multiplicités de λ dans Mf et Pf , et par
notre raisonnement antérieur :
(41) V = Vλ ⊕ W W = Im(f − λ)mλ = Im(f − λ)nλ
Le polynôme caractéristique Pf = det(X − f) vaut (X − λ)nλ · detW (X − f). Or
Ker(f − λ) ∩ W = {0} donc λ n’est pas valeur propre de f sur W, donc λ n’est
pas racine de detW (X − f). Par contre toute autre racine de Pf est racine de
detW (X − f). On peut itérer et au final on a une décomposition en sous-espaces
stables par f :

W = Im (f − λ)mλ
Y
(42) V = ⊕ λ Vλ ⊕ W

La formule W = Im (f − λ)mλ demande une petite justification que je laisse en


Q
exercice.
Il est possible de caractériser intrinsèquement l’espace W :

17
Théorème 12. Tout sous-espace Z ⊂ V stable par f et sur lequel f n’a aucune
valeur propre est inclus dans W, qui est donc le plus grand avec cette propriété.

Preuve : comme Z est stable par f il est stable par T(f) = (f −λ)mλ . Comme
Q
chaque f − λ est injectif sur Z, le produit T(f) est injectif, donc bijectif sur Z.
Ainsi Z = T(f)(Z) ⊂ W.

15 Décomposition de Dunford d’un endomorphisme


scindé
C’est une version un peu plus abstraite de la décomposition

(43) V = ⊕Vλ

en sous-espaces caractéristiques. Notons d l’endomorphisme qui vaut λId sur


Vλ . Évidemment d est diagonalisable, f = d + n et n est nilpotent. De plus d et
f commutent (évident puisqu’il suffit de le vérifier sur chaque Vλ ceux-ci étant
stables par d et par f). Donc d et n commutent. On a le complément suivant,
dit Théorème de Dunford :

Théorème 13. Soit f un endomorphisme scindé. Il existe une unique décompo-


sition f = d + n avec d diagonalisable, n nilpotent et dn = nd. De plus d et n
sont des polynômes en f.

Preuve : on a montré l’existence (on verra après pour la dernière assertion).


Supposons f = d′ + n′ avec d′ n′ = n′ d′ . Donc d′ f = fd′ . Soit µ une valeur propre
de d′ . Ainsi f laisse stable l’espace propre Wµ = Ker(d′ − µ). Mais f − d′ restreint
à cet espace est à la fois n′ et f − µ. Donc f − µ est nilpotent sur Wµ donc,
d’abord µ est une valeur propre λ de f et ensuite Wµ ⊂ Vλ . Comme d′ est
diagonalisable, V est la somme directe des Wµ , et comme on sait déjà V = ⊕Vλ
la seule possibilité est que Wµ = Vµ et que toutes les valeurs propres de f sont
aussi valeurs propres de d′ . Ainsi d′ = d.
Pour montrer que d (et par conséquent n) est un polynôme en f, il suffit
d’utiliser le théorème des restes chinois. Posons N = dim V et soit λ1 , . . ., λp les
valeurs propres de f.

(44) ∃P ∈ K[X], ∀j, P ≡ λj mod (X − λj )N

Sur Vλ on a (f − λ)N = 0 donc P(f) = λIdVλ = d. Donc P(f) = d sur V tout


entier. Fin de la preuve.
Comme corollaire, notons que tout endomorphisme g qui commute avec f
commutera avec d et n puisque ceux-ci sont des polynômes en f.

18
16 Endomorphismes diagonalisables
On s’inspire d’une partie de notre dernière démonstration pour prouver :

Théorème 14. La restriction d’un endomorphisme diagonalisable f à un sous-


espace stable W ⊂ V est diagonalisable.

Preuve : soit λ1 , . . ., λp les valeurs propres distinctes de f sur V et Vi =


Ker(f − λi ) les espaces propres. Considérons les polynômes :
Q
j6=i (X − λj )
(45) Pi = Q
j6=i (λi − λj )

En fait Pi (f) est la projection sur Vi parallèlement à ⊕j6=i Vj puisque Pi (f) s’an-
nule sur les Vj , j 6= i et est l’identité sur Vi . Comme W est stable par f il est
stable par Pi (f). Il en résulte l’identité

(46) W ∩ Vi = Pi (f)(W)

Comme tout vecteur s’écrit

(47) x = P1 (f)(x) + · · · + Pp (f)(x)

on obtient la décomposition :

(48) W = (W ∩ V1 ) ⊕ (W ∩ V2 ) ⊕ · · · ⊕ (W ∩ Vp )

Donc la restriction de f à W est diagonalisable. De plus en prenant pour chaque


j un complémentaire dans Vj de W ∩ Vj , on obtient aussi :

Théorème 15. Tout sous-espace W ⊂ V qui est stable sous f, avec f un endo-
morphisme diagonalisable de V, possède un complémentaire stable sous f.

Il est possible de caractériser les endomorphismes diagonalisables par leur


polynôme minimal :

Théorème 16. Un endomorphisme f est diagonalisable si et seulement si son


polynôme minimal Mf est scindé à racines simples sur le corps K.
Q
Preuve : si f est diagonalisable il est clair que Mf = j (X − λj ), le produit
portant sur les valeurs propres de f. Réciproquement, si Mf est scindé on peut
utiliser la théorie expliquée précédemment de la décomposition V = ⊕Vλ , et
comme f − µ est inversible sur Vλ pour tout µ 6= λ, de Mf (f) = 0 résulte f − λ = 0
sur Vλ . Donc f est diagonalisable.

19
17 Endomorphismes semi-simples
On dit que f est semi-simple si tout sous-espace W ⊂ V stable par f admet un
complémentaire stable par f. De même une matrice carrée A est dite semi-simple
si l’endomorphisme associé de KN est semi-simple.
Théorème 17. Un endomorphisme f est semi-simple si et seulement si son po-
lynôme minimal Mf ne possède pas de facteur carré.

Preuve : supposons Mf = π 2 N avec π un polynôme unitaire irréductible (non


constant ; mais je pense que c’est la convention usuelle sur les irréductibles).
Notons W = Ker π(f). Si f était semi-simple, il existerait un complémentaire
stable Z. Sur Z, π(f) est injectif donc de Mf (f) = 0 résulte N(f) = 0. Donc
π(f)N(f) est nul sur W et sur Z. Donc πN annule f, contradiction.
Supposons maintenant au contraire que Mf est le produit π1 . . . πq de po-
lynômes unitaires irréductibles distincts. Ils sont premiers deux à deux, et on
peut utiliser le théorème des restes chinois. Il existe des polynômes P1 , . . ., Pq
tels que :

(49) Pi ≡ 1 mod πi et ∀j 6= i Pi ≡ 0 mod πj

Sur Ker πj (f) on a Pi (f) = 0 pour i 6= j, par contre Pi (f) = Id sur Ker πi (f).
Supposons qu’on ait une relation

(50) 0 = x1 + · · · + xq avec ∀i xi ∈ Ker πi (f)

En appliquant Pi (f) on obtient xi = 0. Donc les Ker πi (f) sont en somme directe.
Soit P = P1 + · · · + Pq . On a P ≡ 1 mod πi pour tout i donc P − 1 est un
multiple de Mf , donc P(f) = Id et

(51) ∀x ∈ V x = x 1 + · · · + xq avec ∀i xi = Pi (f)(x)

Il est clair que πi Pi est nul modulo πj pour tous les j = 1, . . . , q donc Mf divise
πi Pi , donc πi (f)Pi (f)(x) = 0 pour tout x et par conséquent Pi (f)(x) ∈ Ker πi (f).
Nous avons donc prouvé la décomposition en somme directe

(52) V = ⊕i Ker πi (f)

et le fait que Pi (f) est la projection sur Ker πi (f) parallèlement aux autres. Soit
enfin W ⊂ V stable par f. Alors W est stable par Pi (f) donc W ∩ Ker πi (f) =
Pi (f)(W), ce qui montre que les Pi (f)(W) sont en somme directe. Comme Id =
P
i Pi (f), on a

(53) W = ⊕i (W ∩ Ker πi (f))

et pour le problème de trouver un complémentaire Z de W stable par f, on


s’est donc ramené au cas où le polynôme minimal de f est un irréductible π. On

20
sait dans ce cas que l’anneau L = K[X]/(π) est un corps. Définissons une loi de
multiplication externe par L sur V par les formules
(54) λ · x = Q(f)(x) avec λ ≡ Q mod π
Ceci est bien défini puisque π(f)(x) = 0. Il est clair que 1 · x = x, que (λ − µ) · x =
λ · x − µ · x, λ · (µ · x) = (λµ) · x, λ · (x − y) = λ · x − λ · y, etc. . . Donc cela fait
de V un L-espace vectoriel (et la multiplication externe par L est compatible
à celle par K). Tout sous K-espace vectoriel W ⊂ V stable par f est en fait un
sous L-espace vectoriel. On prend Z un L-espace vectoriel complémentaire de
W dans V. Ce Z est donc stable par f et la décomposition V = W ⊕ Z vaut aussi
au sens des K-espaces vectoriels. Ceci termine la preuve de l’implication (si Mf
n’a pas de facteur carré alors f est semi-simple) et donc la preuve du Théorème.
Théorème 18. Soit K un corps de caractéristique nulle et A une matrice carrée
de taille N ≥ 1 à coefficients dans K. Les assertions suivantes sont équivalentes :
1. A est semi-simple,
2. il existe un corps L ⊃ K sur lequel A est diagonalisable,
3. A est diagonalisable sur la clôture algébrique K de K,
4. le polynôme minimal de A n’a que des racines simples dans K.

Preuve : soit M le polynôme


Q minimal de A. On a prouvé que A est semi-simple
si et seulement si M = i πi avec des polynômes irréductibles distincts. Pour
i 6= j on a une identité de Bezout Aπi +Bπj = 1 qui prouve que πi et πj ne peuvent
avoir de racine commune dans aucun corps L ⊃ K. Et par ailleurs, comme K est
de caractéristique nulle, on a deg πi′ = deg πi − 1, πi′ 6= 0. Donc pgcd(πi , πi′ ) = 1 et
πi ne peut avoir, par le même argument, de racine commune avec πi′ dans aucun
corps L ⊃ K, autrement dit il ne peut y avoir dans L que des racines simples.
Donc, si A est semi-simple, son polynôme minimal ne peut avoir que des racines
simples dans tout corps L ⊃ K, en particulier dans la clôture algébrique K. On
a donc par nos théorèmes précédents (1) =⇒ (4) =⇒ (3) =⇒ (2). Si A est
diagonalisable sur L son polynôme minimal M (dont on sait qu’il ne dépend pas
du corps) est scindé à racines simples sur L. On remplace L par le sous-corps
L0 extension finie de K engendrée par ces racines, et on sait qu’il existe un K
plongement L0 → K, donc M est scindé sur K à racines simples. Il ne peut donc
pas y avoir de facteur carré dans sa décomposition en polynômes irréductibles
de K[X], et par conséquent A est semi-simple, ce qui établit (2) =⇒ (1).
Note : en caractéristique positive notre propriété de « semi-simplicité » n’est pas
0 t

stable par extension de corps. Soit K = Z/2Z(t) et A = 1 0 . Elle est semi-simple sur
K mais pas sur K (et n’est diagonalisable sur aucun sur-corps L de K).
Exercice. Montrer que la décomposition de Dunford sur C de tout A ∈ Matn (R)
est définie sur R : A = D + N avec D, N ∈ Matn (R), DN = ND, N nilpotente, et D
semi-simple.
Fin par épuisement des combattants. Le fameux Lemme des Noyaux manque mais on a fait à plusieurs reprises des preuves (à chaque fois qu’on a invoqué le
théorème des restes chinois) de cas particuliers, et la méthode employée marche pour l’énoncé plus général.

21

Vous aimerez peut-être aussi