Agregpolend
Agregpolend
applications
Jean-François Burnol, 10 septembre 2010
Dans toute cette fiche il sera question d’endomorphismes sur des K-espaces
vectoriels de dimensions finies.
Postface : (15 septembre) bon je me suis visiblement laissé entraîner par
mon élan. Je n’en suis pas trop mécontent car cela m’a permis de voir que
je connaissais des choses sans même savoir comment, ni d’où, cela venait, et
heureusement qu’il y a Internet qui m’a permis de finaliser en y trouvant les
noms appropriés (par exemple : « matrices compagnons », « décomposition de
Frobenius ») pour toutes ces choses. Au final il y a donc ici certaines des notions
qui sont probablement un peu trop poussées pour être directement utiles à
l’Oral, mais elles pourraient bien l’être pour l’Écrit. En effet, cette fiche est
devenue un
1
La suite des images Jn = Im(f − λ)n est décroissante pour l’inclusion et se sta-
bilise aussi à partir de n = N, en utilisant le théorème du rang pour le calcul
de la dimension de Jn . Si x ∈ KN ∩ JN alors x = (f − λ)N (y) et (f − λ)N (x) = 0
donc (f − λ)2N (y) = 0 donc (f − λ)N (y) = 0 donc x = 0. Donc KN et JN sont
en somme directe et comme leurs dimensions sont complémentaires (théorème
du rang) on obtient la décomposition en somme directe V = KN ⊕ JN . Sur JN ,
f − λ est injectif (puisque le noyau est K1 et K1 ∩ JN = {0}), donc λ n’est pas
valeur propre de f sur JN . On en déduit par récurrence sur dim V qu’il existe
une décomposition (unique d’ailleurs) V = ⊕Vλ indexée par les valeurs propres
λ et f − λ est nilpotent sur Vλ . Les espaces Vλ sont les « espaces caractéris-
tiques » de l’endomorphisme f. On peut choisir une base de Vλ de sorte que
f y soit représenté par une une matrice triangulaire supérieure avec des λ sur
la diagonale (f − λ est nilpotente sur Vλ , et la trigonalisabilité d’un endomor-
phisme nilpotent N se montre facilement par récurrence sur la dimension de
l’espace, puisque tout passage à un quotient redonne un endomorphisme nil-
potent, ou encore en utilisant une forme linéaire non nulle L avec N* (L) = 0,
puisque N* est aussi nilpotent, et alors l’hyperplan L(x) = 0 est stable par N).
En combinant les bases des différents Vλ , on obtient une matrice triangulaire
représentant f, et on en déduit que le polynôme caractéristique det(X − f) vaut
Q dim Vλ . Comme dim V ≥ N (« remarque utile » faite précédem-
λ (X − λ) λ λ
ment), l’endomorphisme λ (f − λ)dim Vλ vaut zéro sur chaque Vλ donc sur V
Q
tout entier : d’où le théorème de Cayley-Hamilton.
Tout ce que je viens de dire, il faut absolument le connaître. Dans la suite
on s’intéresse plus généralement à tous les polynômes en l’endomorphisme f.
Paradoxalement peut-être, dans un premier temps au moins on n’y utilisera pas
ce qui précède, encore que la boucle sera bouclée vers la fin de notre épopée.
Et on ne veut pas être restreint à un corps algébriquement clos. Ceci élargit le
champ de vision, et le langage le plus adapté serait celui des modules sur l’an-
neau K[X], mais j’ai par masochisme voulu l’éviter (ça me paraissait impossible
mais en fin de compte la Didactique habitue à tous les sacrifices, par usure).
2
vérifiant Mf (f) = 0. Par exemple si f = 0 alors Mf = X, sauf si V = {0} auquel cas
Mf = 1. Le cas Mf = 1 ne peut survenir que si V est l’espace nul. Si dim V > 0
alors deg Mf > 0.
On peut (ici dim V = N > 0) représenter f par une matrice carrée A de taille
N, et Mf est le polynôme unitaire de plus bas degré avec Mf (A) = 0, donc on peut
aussi parler du polynôme minimal MA = Mf de la matrice A. Comme pour tout
polynôme P on a P(SAS−1 ) = SP(A)S−1 , le polynôme minimal MSAS−1 = MA
est un invariant de similitude de la matrice A. Notons aussi l’énoncé important
suivant :
Preuve : nous représentons les matrices carrées de taille N comme des lignes
avec N2 coefficients. Pour chaque n, appliquons l’algorithme du pivot de Gauss
aux n+1 lignes IN , A, . . ., An , algorithme qui procède par combinaisons linéaires
et permutations de lignes. Le nombre de lignes non nulles à la fin est égal à la
dimension dn de l’espace vectoriel engendré par IN , A, . . ., An . Le degré du
polynôme minimal est le plus petit n avec dn < 1 + n. Comme l’algorithme du
pivot ne dépend que des coefficients et non du corps ambiant L, le degré du
polynôme minimal reste inchangé. Donc le polynôme minimal reste inchangé
(puisque celui sur L divise dans L[X] celui sur K). On peut aussi faire la preuve
en utilisant une K-forme linéaire λ : L → K avec λ(1) = 1, mais la preuve
d’existence de λ nécessite le Lemme de Zorn si L est de dimension infinie sur K.
Cependant si K = R et L = C cette approche marche très bien avec λ(z) = Re(z) :
si P ∈ L[X] annule A alors λ(P) ∈ K[X] aussi, et λ(P) est unitaire si P l’est. On
retrouve que le degré du polynôme minimal ne peut pas décroître.
On peut aussi associer à tout vecteur x l’idéal dans K[X] des polynômes
P avec P(f)(x) = 0, d’où un polynôme minimal Mx (aussi appelé polynôme
annulateur et bien sûr il faudrait plutôt écrire Mf,x ). On a deg Mx > 0 sauf si
x = 0. Certainement Mx divise Mf puisque Mf (f)(x) = 0.
Nous essayons maintenant de comprendre la relation entre Mf et les Mx . Soit
(e1 , . . . , eN ) une base de V. Notons M1 , . . ., MN les polynômes minimaux associés
aux vecteurs de la base et soit P leur PPCM (que l’on prend unitaire lui aussi).
On a P(f)(ej ) = 0 pour tout j donc P(f) = 0 donc P est un multiple (au sens de la
division des polynômes) du polynôme minimal Mf . Mais par ailleurs chaque Mj
divise Mf donc leur PPCM divise Mf . Au final : Mf = P = ppcm(M1 , . . . , MN ).
En fait, et cela sera notre premier énoncé très significatif, on peut toujours
trouver un vecteur x avec Mx = Mf . Nous verrons cela plus tard, pour le moment
faisons une pause pour montrer le théorème de Cayley-Hamilton d’une façon
très simple.
3
3 Une démonstration super géniale du théorème de
Cayley Hamilton
Soit A une matrice carrée et P(X) = det(X−A) son polynôme caractéristique.
On a :
(1) P(A) = det(A − A) = det 0 = 0
Ceux qui sont satisfaits par cette preuve peuvent arrêter la lecture ici, car il
est peu probable que la suite leur soit utile ! (soit parce qu’ils sont d’excellents
mathématiciens et savent comment convertir la chose ci-dessus en une vraie
preuve, soit au contraire parce qu’ils sont de très modestes mathématiciens
pour lesquels c’était déjà une vraie preuve).
4
Proposition 2. Le polynôme caractéristique de la matrice compagnon est égal à
P.
Preuve : soit x un vecteur non nul, et Vx le plus petit sous-espace stable par
f et contenant x, c’est-à-dire l’espace cyclique engendré par x et ses images sous
f. Notons g la restriction de f à Vx . On sait (en complétant une base de Vx par
le théorème de la base incomplète et en faisant un calcul de déterminant par
bloc) que le polynôme caractéristique Px de g divise celui de f. Or Px par ce qui
précède n’est autre que le polynôme minimal de x, en particulier Px (f)(x) = 0.
Donc P(f)(x) = 0. Donc P(f) = 0. Attention, en dimension zéro le théorème est
vrai mais de manière un peu spéciale : on doit convenir P = 1 (par exemple parce
qu’un produit sur un ensemble vide est toujours pris égal à 1, de même qu’une
somme sur un ensemble vide est toujours prise égale à zéro) donc P(f) = Id et
on a IdV = 0V comme identité d’endomorphismes sur l’espace vectoriel nul V.
Il est utile d’étudier de plus près les espaces cycliques.
Proposition 3. Soit P1 et P2 deux polynômes unitaires. S’il existe un isomor-
phisme φ : K[X]/(P1 ) ≃ K[X]/(P2 ) de K-espaces vectoriels vérifiant ∀Q φ(XQ) =
Xφ(Q), alors P1 = P2 .
5
Preuve : soit T un polynôme unitaire, déterminons Ker T(f). Tout d’abord
si x ∈ V est (la classe d’) un polynôme Q alors tout bêtement T(f)(x) est (la
classe) du polynôme TQ. Donc pour que T(f)(x) = 0, il faut et il suffit que
P divise TQ. Notons D = pgcd(T, P), P = DA, T = DB. Pour que DA divise
QDB il est nécessaire et suffisant que A divise QB mais A est premier à B
donc cela équivaut à ce que A divise Q. Donc le noyau de T(f) est composé
des vecteurs x de la forme Q = AR (modulo P). Il s’agit donc du sous-espace
P
cyclique engendré par A (= pgcd(T,P) ). Si l’on multiplie A par un polynôme
non nul de degré strictement inférieur à celui de D = pgcd(T, P), on obtient un
polynôme non nul de degré strictement inférieur à celui de P donc un élément
non nul de K[X]/(P). Donc le polynôme minimal de A est pgcd(T, P). Fin de la
preuve.
6
Je prétends que le polynôme minimal de x′1 est N1 et celui de x′2 est N2 . En
effet si P(f)T1 (f)(x1 ) = 0 alors PT1 est divisible par M1 = N1 T1 donc N1 divise
P. Et réciproquement N1 (f)(x′1 ) = N1 (f)T1 (f)(x1 ) = M1 (f)(x1 ) = 0. De même
pour x′2 . Donc par ce que l’on a fait avant, le polynôme minimal de x′1 + x′2 est
N1 N2 = ppcm(M1 , M2 ), comme voulu. Ce qui termine cette preuve.
6 Décomposition
Si l’on reprend donc notre discussion d’un endomorphisme f sur un K-espace
vectoriel V non nul on sait à ce stade qu’il existe des vecteurs x tels que Mx = Mf ,
puisque nous avions vu précédemment Mf = ppcm(Me1 , . . . , Men ) pour toute
base (e1 , . . . , en ) de V. La deuxième étape cruciale est :
La preuve en est assez rusée. Tout d’abord, si V est l’espace nul le théorème
est vrai bien que pas très exaltant. Si V n’est pas l’espace nul on a deg Mf > 0,
donc deg Mx > 0 et x n’est pas nul. Soit n = dim Vx ≥ 1, Vx possède comme base
x, f(x), . . ., f n−1 (x). Choisissons une forme linéaire L sur V avec les contraintes :
7
eux, on a bien Ln (z) = 0. Donc z ∈ W, ce qu’il fallait démontrer. Le Théorème
est établi.
Si V n’est pas l’espace nul nous avons vu que le x n’est pas un vecteur nul,
donc W, supplémentaire de Vx est un sous-espace propre de V (éventuellement
nul). Si W n’est pas l’espace nul, nous pouvons itérer la construction, et ainsi
de suite jusqu’à obtenir un espace nul. Notons M1 le polynôme minimal de f
sur V, M2 celui de sa restriction au sous-espace propre W, etc. . .. Ainsi M2
divise M1 , etc. . .Ainsi, par récurrence sur la dimension, on obtient le théorème
de structure (première partie : existence) :
Théorème 4. Soit f un endomorphisme d’un K-espace vectoriel V 6= {0}. Il existe
une décomposition de V en somme directe de sous-espaces cycliques non nuls
(11) V = V1 ⊕ V2 ⊕ · · · ⊕ Vp
7 Unicité
Théorème 5. Soit p ≥ 1 un entier et Mp |Mp−1 | · · · |M1 des polynômes unitaires
de degrés strictement positifs. Et soit q ≥ 1 un entier et Nq |Nq−1 | · · · |N1 des
polynômes unitaires de degrés strictement positifs. S’il existe un isomorphisme
8
Ainsi φ(Ker T(f)) = Ker T(g) et dim Ker T(f) = dim Ker T(g). Or, pour T
unitaire, on a, d’après la Proposition 4,
X
(14) dim Ker T(f) = deg pgcd(T, Mj ) ≤ p deg T
1≤j≤p
l’égalité n’étant atteinte que si T divise tous les Mj , c’est-à-dire si T divise Mp .
Je rappelle maintenant que dans notre énoncé on a imposé deg Mp > 0. Je peux
donc considérer la fonction ψ qui, aux polynômes unitaires non constants T
associe
dim Ker T(f) dim Ker T(g)
(15) ψ(T) = =
deg T deg T
Cette fonction est majorée par p et atteint son maximum p en T = Mp et
ses diviseurs unitaires non constants. Et elle est majorée par q et atteint son
maximum q en T = Nq et ses diviseurs. Donc p = q, et Mp = Nq car ce polynôme
est caractérisé comme étant celui de plus haut degré réalisant le maximum de
la fonction ψ.
Notons donc T ce polynôme unitaire non constant Mp = Nq . L’isomorphisme
φ : V ≃ W passe au quotient en un isomorphisme φ : V/ Ker T(f) ≃ W/ Ker T(g).
De plus le noyau de la restriction de Mp (f) au module cyclique K[X]/(Mj ) est
engendré par le polynôme Mj /Mp , et on a l’isomorphisme commutant à la mul-
tiplication par X :
(16) (K[X]/(Mj ))/(Mj /Mp ) ≃ K[X]/(Mj /Mp )
donc
(17) V/ Ker T(f) ≃ ⊕1≤j≤p′ K[X]/(Mj /Mp )
où l’on a arrêté la somme au plus grand indice j avec deg Mj > deg Mp . Il est
possible qu’il n’y ait aucun tel indice auquel cas M1 = M2 = · · · = Mp . Mais alors
V/ Ker T(f) = 0 donc W/ Ker T(g) = 0 donc on a aussi N1 = N2 = · · · = Nq et on
a déjà vu p = q et Mp = Nq . Donc soit la preuve s’arrête là, soit on s’est ramené
à un isomorphisme entre deux sommes directes non nulles d’espaces cycliques
non nuls, avec un nombre inférieur de termes. Par hypothèse de récurrence,
Mj /Mp = Nj /Nq pour j ≤ p′ = q ′ et le Théorème est démontré.
Si l’on revient à la situation d’un espace vectoriel V non nul et d’un endo-
morphisme f, et que l’on représente V comme somme directe de sous-espaces
cycliques non nuls :
(18) V = V 1 ⊕ V 2 ⊕ · · · ⊕ Vp
de polynômes minimaux associés M1 , . . ., Mp vérifiant Mp |Mp−1 | · · · |M1 , tout
choix de vecteurs x1 ∈ V1 , . . ., xp ∈ Vp les engendrant comme espaces cycliques
donne un isomorphisme :
(19) V ≃ K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp )
9
qui fait correspondre à f la multiplication par X. Une autre décomposition du
même type donne un autre isomorphisme :
(20) V ≃ K[X]/(N1 ) ⊕ · · · ⊕ K[X]/(Nq )
et par le Théorème que nous venons de prouver on a donc en fait p = q et
Mj = Nj , pour 1 ≤ j ≤ p.
Attention, dans tout cela on a fait un usage essentiel de la condition que
les Mj forment une chaîne décroissante pour la divisibilité des polynômes :
l’unicité serait complètement fausse sans cette condition. Et par ailleurs, ce
sont uniquement les polynômes Mj qui sont uniques, et pas la décomposition
elle-même de V en sous-espaces cycliques.
8 Invariants de similitude
Soit f un endomorphisme de V, et soit θ un isomorphisme du K-espace
vectoriel V. Soit g = θ ◦ f ◦ θ−1 conjugué à f. Si V = V1 ⊕ V2 ⊕ · · · ⊕ Vp est
une décomposition en espaces cycliques pour f alors V = θ(V1 ) ⊕ · · · ⊕ θ(Vp )
est une décomposition en espaces cycliques pour g. En effet pour chaque Vj ,
on a θ : Vj ≃ θ(Vj ) avec g(θ(x)) = θ(f(x)), donc θ(Vj ) est aussi cyclique pour g
avec comme générateur θ(xj ) si xj est générateur pour f de Vj , et les polynômes
minimaux sont les mêmes. Donc le nombre p et les polynômes M1 , . . ., Mp sont
les mêmes pour f et g : ce sont des invariants de similitude.
Réciproquement si f et g donnent lieu à des décompositions de V aux mêmes
polynômes minimaux associés, alors
(21) φ1 , φ2 : V ≃ K[X]/(M1 ) ⊕ · · · ⊕ K[X]/(Mp )
10
De plus deux telles matrices « réduites », c’est-à-dire sous cette forme diagonale
par blocs, avec Mj+1 diviseur de Mj , ne peuvent être semblables que si elles sont
identiques. Le polynôme unitaire M1 est le polynôme minimal de la matrice A,
et le produit M1 . . . Mp est le polynôme caractéristique det(X − A).
11
10 Magie noire avec les matrices compagnons
Soit P = Xn + an−1 Xn−1 + · · · + a0 un polynôme unitaire de degré au moins
1, et soit C(P) sa matrice compagnon :
0 0 0
··· ··· −a0
1 0 0 ··· ··· −a1
0 1 0 ··· ··· −a2
(24) C(P) =
. .. ..
· · · · · ·
. ··· ···
0 ··· ··· 1 0 −an−2
0 0 ··· 0 1 −an−1
On sait que det(X − C(P)) = P, et on va préciser cet énoncé d’une manière assez
remarquable.
Théorème 7. Il existe deux matrices n × n UP et VP , à coefficients dans l’anneau
K[X], de déterminants 1, et telle que l’identité suivante soit vérifiée :
P
1
(25) UP · (X − C(P)) · VP =
..
.
1
1
La matrice de droite est diagonale avec P, 1, . . ., 1 sur la diagonale. En particulier
cela redonne det(X − C(P)) = P.
Preuve : tout d’abord si l’on a une matrice (carrée ou rectangulaire) avec des
lignes L1 , . . ., Ln , alors remplacer Li par Li + tLj (j 6= i) se réalise en multipliant
à gauche par la matrice carrée n ×n avec des 1 sur la diagonale et comme unique
autre entrée non nulle un t à l’intersection de la ie ligne et de la je colonne. De
même si les colonnes sont C1 , . . ., Cm , remplacer Ci par Ci + tCj se réalise en
multipliant à droite par la matrice carrée n × n avec des 1 sur la diagonale et
comme unique autre entrée non nulle un t à l’intersection de la ie colonne et de
la je ligne. Regardons la matrice X − C(P) :
X 0 ··· ··· a0
−1 X 0 ··· a1
0 −1 X · · · a2
(26) X − C(P) =
· · · · · · · · · · · · · · ·
· · · · · · −1 X an−2
0 0 0 −1 X + an−1
On fait Ln−1 → Ln−1 + XLn , puis Ln−2 → Ln−2 + XLn−1 , puis etc. . .et enfin
L1 → L1 + XL2 (à ce stade L2 est une ligne commençant par −1 puis il y a
12
n − 2 zéros et enfin un certain polynôme à la fin). Ceci correspond à multiplier
X − C(P) par la gauche par une certaine matrice (triangulaire supérieure avec
des 1 sur la diagonale) UP et donne comme résultat :
0 0 ··· ··· P
−1 0 0 ··· *1
(27) UP · (X − C(P)) =
.. ..
. . ··· ···
−1 0 *n−2
−1 X + an−1
(28)
1 0 ··· ··· *1 0 0 ··· ··· P
1 0 ··· * 2 −1 0 0 ··· 0
=⇒ UP · (X − C(P)) · .. .. .. .. .. .. ..
=
. . . . . . .
1 X + an−1 −1 0 0
1 −1 0
Il ne reste plus qu’à multiplier à droite par la matrice (de déterminant 1) :
0 −1
0 −1
(29)
. . . .
. .
0 −1
1 0
Théorème 8. Soit A une matrice carrée sur un corps K, de taille N × N. Soit M1 ,
. . ., Mp ses facteurs invariants (de Frobenius) et posons Mp+1 = · · · = MN = 1
(on a nécessairement p ≤ N, car p est le nombre de blocs compagnons dans
la réduction de A à la forme de Frobenius). Il existe des matrices U et V à
coefficients dans l’anneau K[X], de déterminants des scalaires non nuls, telles
que
(30) U · (X − A) · V = diag(M1 , M2 , . . . , MN )
13
· · · = MN = 1. Alors, pour 1 ≤ j ≤ N, le produit
(31) Mj Mj+1 . . . MN
det(X − A)
(32) M1 =
D
Sûrement pas l’algorithme le moins gourmand en calculs !
Preuve du Théorème : soit A un anneau commutatif quelconque. Si A est
une matrice n × m, notons Jk (A) l’idéal de A engendré par les nk m k mineurs
de taille k × k. Je dis que Jk (BA) ⊂ Jk (A) pour toute matrice B (de taille
p × n). En effet chaque ligne de BA est une combinaison linéaire des lignes de
A, donc par multilinéarité du déterminant, tout mineur de taille k de BA est
une combinaison linéaire des mineurs de taille k de A. En particulier si B est
une matrice carrée inversible (c’est-à-dire de déterminant une unité de A), on a
Jk (BA) = Jk (A) car A = B−1 BA. De même pour la multiplication à droite, qui
s’interprète comme des combinaisons de colonnes. Nous appliquons ceci avec
A = K[X], et à l’identité du Théorème 8 :
(33) U · (X − A) · V = diag(M1 , M2 , . . . , MN )
14
effet, la preuve du théorème précédent s’applique à l’identique et montre que
les produits M′j M′j+1 . . . M′N , donc les M′j ne dépendent que de la matrice A.
Il suffit donc de réduire X − A à une telle forme diagonale, par des combi-
naisons réversibles de lignes, de colonnes, et des permutations de lignes et de
colonnes. Prenons comme point de départ n’importe quelle matrice P à coeffi-
cients dans l’anneau euclidien K[X]. Regardons les entrées de la première ligne et
de la première colonne. Si elles ne sont pas toutes nulles, il existe une entrée non
nulle de degré minimal. Par des permutations soit de lignes soit de colonnes on
la met en position (1, 1). Puis on applique l’algorithme de division euclidienne à
chacune des autres entrées de la première ligne et de la première colonne pour
les remplacer par leurs restes. S’il subsiste un reste non nul, on recommence, et
ainsi de suite. En un nombre fini d’étapes, on les a toutes réduites à zéro, sauf
peut-être l’entrée en position (1, 1). On recommence ensuite à partir de (2, 2).
Etc. . .En un nombre fini d’étapes on a réduit la matrice à une autre qui n’a
d’entrées non nulles que sur la diagonale principale. Par des permutations on
peut mettre les zéros à la fin. Il reste à se débrouiller pour obtenir les relations
de divisibilité : il faut que l’entrée en (1, 1) soit multiple de toutes les autres
non nulles, etc. . .. C’est là où intervient la formule magique suivante, valable
dans tout anneau commutatif intègre (les coefficients sont dans son corps des
fractions) :
m n m mn
d d n 0 b d −1 0
(35) 0 6= d = an + bm =⇒ = d
−a b 0 m a dn 1 0 d
15
passer à la base (Xk−1 , . . . , 1) de K[X]/(Xk )) :
0 1
0 1
(36) k t
C(X ) = Jk :=
. .
.. ..
0 1
0
16
On dit qu’un endomorphisme f est scindé sur le corps K si son polynôme
minimal Mf (ou son polynôme caractéristique) est scindé :
(X − λj )mj ,
Y
(38) Mf = λj ∈ K, mj > 0
(X − λj )nj ,
Y
(39) Pf = λj ∈ K, nj ≥ mj
W = Im (f − λ)mλ
Y
(42) V = ⊕ λ Vλ ⊕ W
17
Théorème 12. Tout sous-espace Z ⊂ V stable par f et sur lequel f n’a aucune
valeur propre est inclus dans W, qui est donc le plus grand avec cette propriété.
Preuve : comme Z est stable par f il est stable par T(f) = (f −λ)mλ . Comme
Q
chaque f − λ est injectif sur Z, le produit T(f) est injectif, donc bijectif sur Z.
Ainsi Z = T(f)(Z) ⊂ W.
(43) V = ⊕Vλ
18
16 Endomorphismes diagonalisables
On s’inspire d’une partie de notre dernière démonstration pour prouver :
En fait Pi (f) est la projection sur Vi parallèlement à ⊕j6=i Vj puisque Pi (f) s’an-
nule sur les Vj , j 6= i et est l’identité sur Vi . Comme W est stable par f il est
stable par Pi (f). Il en résulte l’identité
(46) W ∩ Vi = Pi (f)(W)
on obtient la décomposition :
(48) W = (W ∩ V1 ) ⊕ (W ∩ V2 ) ⊕ · · · ⊕ (W ∩ Vp )
Théorème 15. Tout sous-espace W ⊂ V qui est stable sous f, avec f un endo-
morphisme diagonalisable de V, possède un complémentaire stable sous f.
19
17 Endomorphismes semi-simples
On dit que f est semi-simple si tout sous-espace W ⊂ V stable par f admet un
complémentaire stable par f. De même une matrice carrée A est dite semi-simple
si l’endomorphisme associé de KN est semi-simple.
Théorème 17. Un endomorphisme f est semi-simple si et seulement si son po-
lynôme minimal Mf ne possède pas de facteur carré.
Sur Ker πj (f) on a Pi (f) = 0 pour i 6= j, par contre Pi (f) = Id sur Ker πi (f).
Supposons qu’on ait une relation
En appliquant Pi (f) on obtient xi = 0. Donc les Ker πi (f) sont en somme directe.
Soit P = P1 + · · · + Pq . On a P ≡ 1 mod πi pour tout i donc P − 1 est un
multiple de Mf , donc P(f) = Id et
Il est clair que πi Pi est nul modulo πj pour tous les j = 1, . . . , q donc Mf divise
πi Pi , donc πi (f)Pi (f)(x) = 0 pour tout x et par conséquent Pi (f)(x) ∈ Ker πi (f).
Nous avons donc prouvé la décomposition en somme directe
et le fait que Pi (f) est la projection sur Ker πi (f) parallèlement aux autres. Soit
enfin W ⊂ V stable par f. Alors W est stable par Pi (f) donc W ∩ Ker πi (f) =
Pi (f)(W), ce qui montre que les Pi (f)(W) sont en somme directe. Comme Id =
P
i Pi (f), on a
20
sait dans ce cas que l’anneau L = K[X]/(π) est un corps. Définissons une loi de
multiplication externe par L sur V par les formules
(54) λ · x = Q(f)(x) avec λ ≡ Q mod π
Ceci est bien défini puisque π(f)(x) = 0. Il est clair que 1 · x = x, que (λ − µ) · x =
λ · x − µ · x, λ · (µ · x) = (λµ) · x, λ · (x − y) = λ · x − λ · y, etc. . . Donc cela fait
de V un L-espace vectoriel (et la multiplication externe par L est compatible
à celle par K). Tout sous K-espace vectoriel W ⊂ V stable par f est en fait un
sous L-espace vectoriel. On prend Z un L-espace vectoriel complémentaire de
W dans V. Ce Z est donc stable par f et la décomposition V = W ⊕ Z vaut aussi
au sens des K-espaces vectoriels. Ceci termine la preuve de l’implication (si Mf
n’a pas de facteur carré alors f est semi-simple) et donc la preuve du Théorème.
Théorème 18. Soit K un corps de caractéristique nulle et A une matrice carrée
de taille N ≥ 1 à coefficients dans K. Les assertions suivantes sont équivalentes :
1. A est semi-simple,
2. il existe un corps L ⊃ K sur lequel A est diagonalisable,
3. A est diagonalisable sur la clôture algébrique K de K,
4. le polynôme minimal de A n’a que des racines simples dans K.
21