0% ont trouvé ce document utile (0 vote)
71 vues24 pages

Cours Reduction Partie 2

Transféré par

Ahmed Azouz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
71 vues24 pages

Cours Reduction Partie 2

Transféré par

Ahmed Azouz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Compléments de réduction des endomorphismes ( PSI )

October 28, 2022

1 lemme des noyaux

Lemme des noyaux:


Soit f un endomorphisme d'un K - espace vectoriel.
Si P1 , P2 , ..., Ps sont des polynômes de K [X] , deux à deux premiers entre eux ( on note P leur produit )
On a :
ker(P (f )) = ⊕sk=1 ker(Pk (f ))
Preuve par récurrence sur s :
Pour s=2. Si P1 et P2 sont premiers entre eux , on souhaite donc montrer que ker(P (f )) = ker(P1 (f )) ⊕
ker(P2 (f ))
Ecrivons une relation de Bezout : il existe U et V polynômes de K [X] tels que U.P1 + V P2 = 1
On a donc pour tout vecteur x de E : (U P1 )(f )(x) + (V.P2 )(f )(x) = x ( relation (∗) )
Montrons d'abord que la somme ker(P1 (f )) ⊕ ker(P2 (f )) est bien directe.
Si x est un vecteur de l'intersection alors la relation (∗) montre que x = U (f ) (P1 (f )(x))+V (f ) (P2 (f )(x)) =
0
Chacun des deux noyaux est bien inclus dans ker(P (f )) puisque , si x appartient à ker(P1 (f )) alors
P (f )(x) = P2 (f ) (P1 (f )(x)) = 0
et de même pour le second noyau
Il ne reste plus qu'à montrer l'inclusion réciproque : ker(P (f )) ⊂ ker(P1 (f )) ⊕ ker(P2 (f ))
Soit x un vecteur de ker(P (f )) . la relation (∗) donne : x = y1 +y2 avec y1 =(U P1 )(f )(x) et y2 =(V P2 )(f )(x)
Vérions que y1 appartient à ker(P2 (f )) :

P2 (f )(y1 ) = P2 (f )((U P1 )(f )(x)) = (P2 U P1 )(f )(x) = (U.P )(f )(x) = U (f ) (P (f )(x)) = 0
On montre de même que y2 appartient à ker(P1 (f ))
Ceci achève la preuve pour s=2
Soit s ≥ 3 et supposons le lemme établi pour s − 1
Si P1 , P2 , ..., Ps sont des polynômes de K [X] , deux à deux premiers entre eux ( on note P leur produit )
s−1
On note Q = Πk=1 Pk de sorte que P = Q.Ps
Du fait que Ps est premier avec tous les Pk pour k appartenant à [1, s − 1] , il est premier avec leur produit
Q
On a donc , d'aprés le cas ci-dessus :

ker(P (f )) = ker((Q.Ps )(f )) = ker(Q(f )) ⊕ ker(Ps (f ))


L'hypothése de récurrence montre alors que ker(Q(f )) = ⊕s−1
k=1 ker(Pk (f ))
s
et donc en dénitive , ker(P (f )) = ⊕k=1 ker(Pk (f ))
( n de la preuve )
2 Polynôme minimal d'un endomorphisme

En dimension innie , un endomorphisme peut ne pas avoir de polynôme annulateur autre que le polynôme
nul .
k
Pd
Exemple , l'endomorphisme Dérivation ( noté D ) sur K [X]: P (X) =
k=m ak X annule
Supposons que
D avec am non nul ( m est appelé valuation du polynôme , analogue du degré mais en partant des puissances
les plus basses )
Prenons Q(X) = X m P (D)(X m ) = am Dm (X m ) = am .m! 6= 0
, on a :
En dimension nie ( dim(E) = n ) , un endomorphisme donné f admet toujours au moins un polynôme
annulateur autre que le polynôme nul : par exemple son polynôme caractéristique.
2 n2
Mais pour faire simple , le fait que la famille (id, f, f , ..., f ) soit liée fournit de suite un exemple d'un
tel polynôme.
Notons If l'ensemble des polynômes annulateurs d'un endomorphisme ( d'un K - espace de dimension nie
)
On montre que If est un idéal de K [X] dit idéal annulateur de f
On montre alors le résultat suivant :
Théorème et dénition : Il existe un unique polynôme unitaire de K [X] (noté Πf et dit polynôme minimal
de f ) tel que l'idéal annulateur de f soit l'ensemble des multiples ( dans K [X] ) de ce polynôme.
minimal? car son degré est le plus petit possible ....
Preuve : Notons ∆ = {deg(P )/P ∈ If /P 6= 0}
∆ N : elle admet donc un plus petit élément m
est une partie non vide de
Soit M un élément de If tel que deg(M ) = m
Montrons que If = {Q(X).M (X)/Q ∈ K [X]}
L'inclusion réciproque est vraie du fait que If est un idéal de K [X]
Soit P un élément de If
Pour montrer que M divise P il faut et il sut de prouver que le reste de la division euclidienne de P par
M ( raisonnement fréquent )
Si P = QM + R avec deg(R) ≤ m − 1
alors R = P − QM est un élément de l'idéal If . S'il est non nul on aurait une contradiction immédiate
avec la dénition de l'entier m .
D'où le résultat.
En imposant à un tel polynôme d'être unitaire on assure son unicité ( car deux polynômes se divisant
mutuellement et qui sont unitaires sont égaux )
( l'unicité n'est ici qu'un confort mathématique pour que tout le monde parle du même )
Exemple : quel est le polynôme minimal d'une symétrie ?
Remarque : on sait donc que le polynôme minimal de
Q f divise son polynôme caratéristique
Supposons que χf (X) soit scindé sur K : χf (X) = sk=1 (X − λk )mk où les λk sont les diérentes valeurs
propres de f et les mk les multplicités respectives.
Qs γk
Il s'en suit dans ce cas que Πf (X) = k=1 (X − λk ) avce pour tout k , 1 ≤ γk ≤ mk
On peut énoncer le théorème superu suivant

Théorème :
Soit f un endomorphisme d'un K - espace vectoriel E de dimension nie.
f est diagonalisable si et seulement si son polynôme minimal est scindé à racines simples sur K
Superu car il fait oce de double emploi avec l'original :
Si f est diagonalisable alors il admet un polynôme annulateur P scindé à racines simples sur K ( original
)
Comme le polynôme minimal divise ce polynôme , il est donc lui même scindé à racines simples sur K
Réciproquement si le polynôme minimal de f est scindé à racines simples sur K , alors on a trouvé un
polynôme annulateur scindé à racines simples sur K et donc f est diagonalisable.
( El Hadj Moussa , Moussa El Haj )
Proposition :
Soit f K - espace vectoriel E de dimension nie. et Πf (X) son polynôme minimal.
un endomorphisme d'un
Notons K [f ] = {P (f )/P ∈ K [X]} .
K [f ] est un sous -espace vectoriel de L(E) de dimension m = deg( Πf (X)) . et la famille (id, f, f 2 , .., f m−1 )
en est une base.
Preuve : il suet de montrer que (id, f, f 2 , .., f m−1 ) en une base de K [f ] .
Montrons qu'elle est libre.
Pm−1 Pm−1
Si α0 , .., αm−1 sont des scalaires tels que k=0 αk f k = 0 alors en posant P (X) = k=0 αk X k , on obtient
un polynôme annulateur de f
Πf (X) ( le polynôme minimal de f le divise
Mais alors
Comme deg(T ) < deg(Πf (X)), c'est donc le polynôme nul et par suite les αk sont nuls
Prouvons que la famille engendre K [f ] : un air de déjà vu ? ( Oui , la division euclidienne )
Remarque : On note C(f ) = {g ∈ L(E)/g ◦ f = f ◦ g} le commutant de f : c'est un sous-espace vectoriel
de L(E)
Un polynôme en f commute avec f : donc K [f ] est inclus dans C(f )
Pas mal d'exercices les comparent et etudient en particulier le cas d'égalité.

3 Endomorphismes nilpotents

Soit f un endomorphisme d'un K - espace vectoriel E . f est dit nilpotent si il existe un entier naturel non
nul k tel que f k soit l'endomorphisme nul ( dénition analogue pour les matrices carrés ) ( en fait une matrice
de Mn (K) est nilpotente ssi l'endomorphisme canoniquement associé de Kn l'est.
k
L'indice de nilpotence ( noté p ) d'un endomorphisme nilpotent est le plus entier k tel que f = 0
p p−1
Il est caractérisé par le fait que f = 0 mais f
  6= 0
0 1 0
Exemple : la matrice J =  0 0 1  est nilpotente d'indice de nilpotence p = 3

 0 0 0
0 1 0
la matrice J =  0 0 0  est nilpotente d'indice de nilpotence p = 2
0 0 0
Toute matrice carrée triangulaire superieure stricte ( la diagonale est également nulle ) est nilpotente.
Mais une matrice peut être nilpotente sans être triangulaire
 
1

 0 

exemple : M =
 0 
 , les autres termes étant nuls.
 1 
0
On montre le résultat suivant en exercice en classe de Sup ( mais où suis-je ? )

Proposition :
Soit f un endomorphisme nilpotent d'un K - espace vectoriel E de dimension nie. On note p l'indice de
nilpotence de f et n = dim(E) .
On a : p≤n
( par conséquent on est sûr que f n = 0)
Remarque: Si A Mn (K) nilpotente alors nécessairement An = 0
est une matrice de ( raisonner sur
n
l'endomorphisme canoniquement associé de K .
p p−1
Une preuve classique de ce résultat : f = 0 mais f 6= 0
p−1
Il existe donc un vecteur e de E tel que f (e) 6= 0
p−1
Montrons alors que la famille (e, f (e), .., f (e)) est libre ( et par conséquent p ≤ n )
Si α0 , ..., αp−1 sont des scalaires tels que

α0 e + ... + αp−1 f p−1 (e) = 0

alors, en appliquant f p−1 on obtient : α0 f p−1 (e) = 0 et comme f p−1 6= 0 , on a alors α0 = 0


La réponse alors de proche en proche est inacceptée et ce d'aprés un rapport de jury d'un certain concours
( respectable) : Il y aune récurrence à faire dans les règles de l'art:
Soit k tel que 1≤k ≤p−1 , et supposons que pour tout i compris entre 0 et k − 1, αi = 0 et montrons
que αk = 0 .
La relation de dépendnace linéaire

α0 e + ... + αp−1 f p−1 (e) = 0

devient donc
αk f k (e) + ... + αp−1 f p−1 (e) = 0
p−1−k
Appliquons à cette relation l'endomorphisme f ( qui existe bien vu que p−1−k ≥0 )
p−1 p−1
On obtient alors αk f (e) = 0 et comme f (e) 6= 0 , on a alors αk = 0
Exercice banal :
 
0 1 0
Résoudre dans M3 (K) l'équation X2 =  0 0 1 
0 0 0
Du point de vue de la réduction des endomorphismes on a le résultat suivant sur les endomorphismes
nilpotents

Théorème :
Soit f un endomorphisme d'un K - espace vectoriel E de dimension nie. ( dim(E) = n )
f est nilpotent si et seulement si f est trigonalisable avec 0 pour seule valeur propre

Preuve : La condition est susante


Si f est trigonalisable avec 0
pour seule valeur propre alors son polynôme caractéristique est scindé , de
degré n 0 : donc χf (X) = X n
et admet pour seule racine
n
D'aprés le théorème de Cayley-Hamilton , on a alors f = 0 : Donc f est nilpotent
p
La condition est nécessaire : Si f est nilpotent alors il existe p dans N∗ tel que f = 0
p
Le polynôme X est donc annulateur de f
Le spectre ( comlexe ) de f étant inclus dans l'ensemble des racines de ce polynôme annulateur , il est
donc réduit au singleton {0} et donc χf (X) = X n ( même si le corps de base est R ) , qui est scindé . Par
suite f est bien trigonalisable.
Remarque : on a retrouvé au passage que l'indice de nilpotence est inferieur à la dimension ( du fait que
fn = 0 )

4 Réduites classiques

4.1 Sous-espaces caractéristiques


Le duo  théorème de cayley-Hamilton , lemme des noyaux  fonctionne à merveille:
Proposition : Soit f un endomorphisme d'un K - espace vectoriel E de dimension nie.
On suppose que le polynôme carcatéristique de f est scindé sur K( c'est systématique si K=C )

s
Y
χf (X) = (X − λk )mk
k=1

avec λk 6= λj pour tous i 6= j


On note pour tout k compris entre 1 et s , Fk = ker(f − λk Id)mk ( sous-espace caractéristique associé à la
valeur propre λk )
On a :

E = ⊕sk=1 Fk
et pour tout k compris entre 1 et s , dim(Fk ) = mk
Preuve:
Le premier résultat ( E = ⊕sk=1 Fk ) est une conséquence immédiate du duo magique mentionné ci-haut .
Pour la dimension de chaque espace-caractéristique :
Chacun des sous-espaces 1 ≤ k ≤ s ) est stable par f ( car un polynôme en f commute à f )
Fk (
m
l'endomorphisme fk induit par f à Fk est tel que fk − λk IdFk est nilpotent ( puisque Fk = ker(f − λk Id) k
dk
) , le polynôme caractéristique de fk − λk IdFk est donc égal X où dk = dim(Fk ) . et donc celui de fk vaut
dk
(X − λk )
s
Du fait que E = ⊕k=1 Fk , et du fait que ces sous-espaces soient stables par f , la matrice de f dans une
base adaptée à cette décomposition est diagonale par blocs.
Il s'en suit que le le polynôme caractéristique de f est égal au produit de ceux des endomorphismes induits
:
s
Y
χf (X) = (X − λk )dk
k=1
Qs
Comme χf (X) = k=1 (X − λk )mk et par unicité de la décomposition en facteurs premiers alors dk = mk

4.2 Décomposition de Dunford


voir sujet Mines MP 2011

5 Réductions simultanées

5.1 Diagonalisation simultanée


Exercice :
Soient f et g deux endomorphismes diagonalisables d'un K - espace vectoriel E de dimension nie.
Si f et g commutent alors il existe une base de E formée de vecteurs propres communs à f et g
( on dit qu'ils sont co-diagonalisables ou simultanément diagonalisables )
Version matricielle :
Si A B sont deux matrices diagonalisables de Mn (K) et qui commutent alors il existe une matrice
et
−1
inversible P ( ∈ GLn (K) telle que P AP et P −1 BP soit toutes deux diagonales ( elles sont semblables à
des matrices diagonales et ce au moyen d'une même matrice de passage )

Preuve:
g f commutent, donc g laisse stable chacun des sous-espaces propres
et de f
Pour λ ∈ Sp(f ) , notons gλ l'endomorphisme induit par g à Eλ (f )
g étant diagonalisable, il en est de même de gλ
Notons alors Bλ une base de Eλ (f ) formée de vecteurs propres de gλ
Les vecteurs de cette base sont donc des vecteurs propres de g et naturellement de f ( car dans Eλ (f ) )
Du fait que f est diagonalisable, on a : E = ⊕λ∈Sp(f )λ Eλ (f )
Par cancaténation des bases Bλ on obtient donc une base de E comme souhaité.
Question : La somme de deux endomorphismes diagonalisables est-elle diagonalisable ?

Réponse: Non ( en général )


De l'art du contre-exemple ( en dimension
  2 sut amplement )
a c
Une matrice triangulaire telle que a et b soient diérents est diagonalisable ( ∀c )
 0 b 
a c
Une matrice triangulaire ne peut être diagonalisable que si c = 0
0 a
Partant de là , des contre-exemples ? il en pleut
Question : Quelle condition susante pourrait-on rajouter pour que La somme de deux endomorphismes
diagonalisables le soit également ?

Exemple : le sempiternel multi-archi classique crochet de Lie ( aussi célèbre que l'uppercut de Cassius
)

Exercice :
Soient A et B sont deux matrices diagonalisables de
 Mn (K) qui commutent.
Mn (K) −→ Mn (K)
Montrer que l'application : φA,B : est diagonalisable.
M 7−→ AM − M B
A présent , on montre un résultat de réduction simultanée concernant une famille d'endomorphismes ( et
non deux )

Exercice :
E un K - espace vectoriel de dimension nie.
Soit
L une famille d'endomorphismes diagonalisables de E , qui commutent deux à deux.
Soit
Montrer qu'il existe une base de E formée de vecteurs propres communs à tous les éléments de la famille L
Preuve : par récurrence sur la dimension n de l'espace.
Pour n = 1 , c'est RAS , circulez !!! ( waaaa...sil )
Soit n ≥ 2. On suppose le résultat érabli en dimension inférieure ou égale à n − 1 .
On se place alors dans les conditions de l'exercice et en dimension n
Pour pouvoir utiliser l'hypothèse de récurrence , il faut se ramener à un sous-espace stable par l'esemble
des éléments de la famille : cela ne peut être qu'un sous-espace propre de l'un d'eux à condition que l'un
d'eux en admette au moins un de dimension inférieure ou égale à n−1 ;
Il va falloir examiner donc le cas pathologique : tous les éléments de L sont des homothéties .
Ce cas est trivial : n'importe quelle base convient.
Second cas : l'un (au moins ) des endomorphismes n'est pas une homothétie. Notons g un tel endomor-
phisme. g admet donc s sous-espaces propres ( avec s≥2
Eλk (g) , 1 ≤ k ≤ s
) :
Pour tout k , le sous-espace Eλk (g) , est de dimension inférieure ou égale à n − 1 .
Et il est stable par tous les endomorphismes f appartenant à L
Notons Lk la famille des endomorphismes induits par les éléments de L à Eλk (g)
Ces endomorphismes induits sont à leur tour diagonalisables et commutent deux à deux ( c'est héréditaire
♥)
On applique à cette famille l'hypothèse de récurrence ; il existe une base de Eλk (g) formée de vecteurs
propres communs à tous les éléments de la famille Lk , donc à tous les éléments de L
Par cancaténation de toutes ces bases on obtient une base de E qui répond à la question.
5.2 trigonalisation simultanée
Exercice :
Soient f et g deux endomorphismes trigonalisables d'un K - espace vectoriel E de dimension nie.
Si f et g commutent alors il existe une base de E relativement à laquelle les matrices de f et de g sont
triangulaires ( supérieures par exemple )
( on dit qu'ils sont co-trigonalisables ou simultanément trigonalisables )
Version matricielle :
Si A et B sont deux matrices trigonalisables de Mn (K) et qui commutent alors il existe une matrice inversible
P ( ∈ GLn (K) telle que P −1 AP et P −1 BP soit toutes deux triangulaires ( elles sont semblables à des matrices
triangulaires et ce au moyen d'une même matrice de passage )

Preuve:
Toute trigonalisation simultanée d'endomorphismes passe par la recherche d'un vecteur propre commun (
qui fera oce d'un premier vecteur de la base commune escomptée ) . la suite est une récurrence en bonne et
due forme. ( en général un swich s'opère alors sur la version matricielle )
Sidim(E) = n = 1 , c'est une trivialité.
Soit n ≥ 2
On suppose que le résultat est prouvé à l'ordre n−1
Un endomorphisme est trigonalisable si et seulement si son polynôme caractéristique est scindé sur le corps
de base de l'espace.
De ce fait , un tel endomorphisme admet au moins une valeur propre et donc au moins un sous-espace
propre.
Soit Eλ (f ) un sous-espace propre de f .
Du fait que f et g commutent Eλ (f ) est stable par g . Soit gλ l'endomorphisme induit par g sur Eλ (f ) (
la chanson habituelle )
gλ est lui même trigonalisable ( car son polynôme caractéristique divise celui de g et il est donc lui même
scindé ). gλ admet donc au moins une valeur propre et donc au moins un vecteur propre. un tel vecteur est
alors un vecteur propre commun à f et à g . ( on tient le Graal )
Notons e1 un tel vecteur et complétons le en une base B = (e1 , .., en ) de E
Dans cette base les matrices de
   f et de g ( notons les F et G ) sont triangulaires
par blocs :
λ L β K 0 0
F = et G = où F et G sont des blocs carrés d'ordre n − 1 .
0 F0 0 G0
0
On a alors χf (X) = (λ − X) .χF 0 (X) . Il s'en suit que χF 0 (X) est lui même scindé et donc F est
0
trigonalisable. De même pour le bloc G .
0 0
Le produit par blocs F G qui est égal à GF montre alors que F et G commutent à leur tour.
Dés lors, l'hypothèse de récurrence s'applique à ces deux matrices d'ordre n − 1 .
Il existe donc une matrice Q ∈ GLn−1 (K) et deux matrices triangulaires supérieures T1 et T2 de Mn−1 (K)
−1 0 −1 0
telles que Q F Q = T1 et Q G Q = T2 .
Il va falloir agir ( par conjuguaison) sur les matrices initiales :
 
1 0
Posons alors P = , matrice carré d'ordre ( déjà rencontrée dans pas mal de situations analogues
0 Q
, en particulier l'archi-bidonesque matrice à trace nulle )
Le choix de cette matrice n'est pas arbitraire : la première colonne ( correspondant à un choix d'une nou-
velle base ayant le même premier vecteur que l'ancienne ) est choisie de sorte que le travail de triangulation
commencé soit préservé.
trêve de Blablabla.  
−1 1 0
P est inversible , d'inverse P =
0 Q−1
Un calcul par blocs , à la chaîne ( blockchain ? ) donne alors :
       
−1 1 0 λ L 1 0 λ ∗ λ ∗
P FP = = =
0 Q−1 0 F0 0 Q 0 Q−1 F 0 Q 0 T1
 
−1 λ ∗
Et de même P GP = , qui sont bien triangulaires supérieures.
0 T2
Exercice :
Soient L une famille d'endomorphismes trigonalisables d'un K - espace vectoriel E de dimension nie.
On suppose qu'ils commutent deux à deux
Montrer qu'il existe une base de E relativement à laquelle les matrices de tous les éléments de L soient
triangulaires ( supérieures par exemple )

Preuve:
Par récurrence sur n = dim(E)
Pour n = 1 . Toute matrice d'ordre 1 peut être considérée comme triangulaire.
Soit n ≥ 2 . On suppose le résultat prouvé pour tout entier k ≤ n − 1 .
Premier cas : tous les éléments de L sont des homothéties ..........no comment
Sinon : l'un des endomorphismes , notons le f n'est pas une homothétie.
f étant trigonalisable , il admet au moins un sous-espace propre Eλ (f )
Ce sous-espace est de dimension inférieure ou égale à n − 1
Du fait que tous les éléments g de L commutent à f , ils stabilisent Eλ (f )
On considère alors la famille des endomorphismes induits : elle vérie l'hypothèse de récurrence ( endo-
morphismes trigonalisables qui commutent ) et l'espace correspobdant est de dimension ≤n−1
Il existe donc une base de Eλ (f ) qui trigonalise tous ces endomorphismes induits.
Ensuite, on a le choix entre : compléter une telle base en une base de E et terminer de manière analogue
au cas de deux endomorphismes.
Ou alors, prendre le premier vecteur de cette base qui est donc un vecteur propre commun à tous les
éléments de L et le compléter en une base de E et terminer matriciellement exactement comme dans le cas
de deux endomorphismes.
Personnelement , j'ai opté pour la deuxième option ( ayant à ma disposition un outil nommé copier-coller
♠ )
 
β K
Pour tout g élément de L , la matrice dans la base complétée est de la forme G=
0 G0
L'ensemble des matrices G0 d'ordre n−1 ainsi obtenues vérie l'hypothèse de récurrence : elles sont
0
trigonalisables et commutent : il existe donc une matrice Q ∈ GLn−1 (K) telle que pour toutes les matrice G
−1 0
, Q G Qsoit triangulaire supérieure ( notons la Tg )
   
1 0 −1 λ ∗
En considérant la matrice P = , on a alors , pour toutes les matrices G, P GP =
0 Q 0 Tg
, qui sont bien triangulaires supérieures.

5.3 Un archi-classique du genre


Exercice : ( version Noir et Blanc , style les temps modenes )
Soient f et g deux endomorphismes d'un C - espace vectoriel E de dimension nie.
On suppose qu'il existe un scalaire non nul α tel que f ◦ g − g ◦ f = αf
Montrer que f et g sont simultanément trigonalisables.

Evidemment α non nul car sinon on revient au cas où ils commutent.


La version couleurs , style la reine des neiges donne ceci :

Exercice :
Soient f et g deux endomorphismes d'un E de dimension nie.
C - espace vectoriel
On suppose qu'il existe un scalaire non nul α tel que f ◦ g − g ◦ f = αf
k k
1/ Calculer , pour tout entier naturel k , f ◦ g − g ◦ f
2/ En déduire que f est nilpotent
3/ En déduire que f et g admettent un vecteur propre commun
4/ Montrer que f et g sont simultanément trigonalisables. ( question souvent omise )
Pour la première question : quelques essais ( k=2 voire k=3 ) donne une formule que l'on démontre
ensuite par récurrence :
f k ◦ g − g ◦ f k = kαf k
Attention, toutefois , à ne pas tourner en rond !!
k
Pour cela l'écrire plutôt sous la forme : f ◦ g = (g + kαId) ◦ fk ( qui peut s'interpréter comme suit : le
k
passage de f à droite , rajoute k fois l'homothétie αId à g )
La formule est vrai pour k = 1( et même pour k=0 )
Supposons qu'elle le soit à un ordre k≥1 , montrons à l'ordre k + 1:
On a donc :
f k+1 ◦ g = f ◦ (f k ◦ g)
= f ◦ (g + kαId) ◦f k
= (f ◦ g +kαf ) ◦f k
= (g ◦ f + αf +kαf ) ◦f k
= (g ◦ f +(k + 1)αf ) ◦f k
= (g + (k + 1)αId) ◦f k+1

Question 2 :
On souhaite montrer l'existence d'un entier non nul k tel quefk = 0
k
Pour cela on raisonne par l'absurde : on suppose que pour tout k , f 6= 0
un vecteur non nul dans un espace vectoriel est un vecteur propre potentiel
L'égalité trouvée
 à la question précédente pouvant alors s'interpréter de la manière suivante :
L(E) −→ L(E)
Posons φ: .
u 7−→ u ◦ g − g ◦ u
k k
On a donc pour tout k , φ(f ) = kαf . Le vecteur fk étant non nul , c'est donc un vecteur propre de φ
et kα est une valeur propre et ce pour tout entier k
φ admetrrait ainsi une innité de valeurs propres : ceci est absurde car L(E) est de dimension nie.
Question 3 :
Où cherche-t-on un vecteur propre commun à deux endomorphismes ?
Réponse : dans un sous-espace propre de l'un des deux s'il est stabilisé par l'autre.
Question : quels sont les sous-espaces propres d'un endomorphisme nilpotent ?
Réponse : y en a pas trente six : son noyau . ( la seule valeur propre d'un endomorphisme nilpotent étant
: zéro )
Mais f et g ne commutent pas !!! ....on s'en fout :
Pour tout vecteur x de ker(f ) f ◦ g − g ◦ f = αf donne f (g(x)) = 0
, la relation
ker(f ) par g
c'est bien la preuve de la stabilité de
La nouba habituelle : soit g
e l'endomorphisme induit par g sur ker(f ) ( espace non réduit à l'espace nul
). Le corps de base étant ici C, on est sûr que g
e admet une valeur propre et donc au moins un vecteur propre
: c'est un vecteur propre commun à f et g .
Dernière question :
Notons e1 un tel vecteur et comme d'habitude complétons le en une base B de E .
Danscette base
 les matrices
 F et G de f et g sont de la forme :
λ L β K 0 0
F = et G= où F et G sont des blocs carrés d'ordre n−1 . ( merci Lyx )
0 F0 0 G0
( Ah , I forgot .....induction , of course )
La realtion f ◦ g − g ◦ f = αf se traduit par F G − GF = αF , elle même donnant la relation F 0 G0 − G0 F 0 =
0
αF
On se retrouve sous les mêmes hypothèses mais à l'ordre n − 1 ( mais matriciellement ( le swich s'est opéré
)
On termine alors comme dans les classiques ci-dessus.
6 Réduction d'une matrice tridiagonale

Exercice :
Diagonaliser la matrice suivante de Mn (R):

0 1 0 ··· ··· ··· 0


 
.. .
 1 . .
 0 1 .


 .. .. .. .. . 
 0 . . . . .
 . 

S =  ... .. .. .. .. .. .
.
 
. . . . . . 
 ..
 
.. .. .. ..
 . . . . . 0 

 . ..

 .. . 1 0 1 
0 ··· ··· ··· 0 1 0
La matrice S est dite tridiagonale ( diagonale , sur-diagonale et sous-diagonale , le reste est nul ).
Elle est présente en Analyse Numérique : elle modélise les interactions entre les maillons successifs d'une
chaine ...
Cerise sur le gâteau , elle est symétrique. Elle est d'oce diagonalisable ( cours ultérieur )
On souhaite chercher ses éléments propres. ( valeurs propres et sous-espaces propres )
Toutes les solutions guidées s'appuient sur une localisation préalable des valeurs propres :
Si λ est une valeur propre alors la matrice S − λIn n'est pas inversible et ne peut donc être à diagonale
strictement dominante ( exercice classique )
On a donc : |λ| ≤ 1 ou |λ| ≤ 1 + 1 . Par conséquent , on est sûr que |λ| ≤ 2
1
Ou encore
2
λ ≤ 1 . Il existe donc θ ∈ [0, π] tel que λ = 2 cos(θ) .
Certains énoncés, notent χn le polynôme caractéristique de S et proposent de calculer χn (2 cos θ) ( par
développements on trouve une realation de récurrence ) ( le 2 cos(θ) tombant du ciel !!)
Je préfère la résolution directe du système linéaire (S − λIn )X = 0 avec λ de la forme λ = 2 cos(θ) ( De
toute façon ce travail doit être fait si l'on souhaite déterminer les sous-espaces propres ).
Les valeurs de θ seront choisies de sorte que le système ne soit pas de Cramer , c'est à dire admettant des
solutions autre que la solution triviale.
Détaillons le système linéaire :



 −λx1 +x2 = 0
x1 −λx2 +x3 = 0







xk−1 −λxk +xk+1 = 0




xn−2 −λxn−1 +xn = 0




xn−1 −λxn = 0

On s'aperçoit que l'équaion générique : xk−1 − λxk + xk+1 = 0 est valable pour l'indice k variant de 2 à
n − 1.
La première équation ainsi que la dernière étant à part , l'idée lumineuse de rajouter articiellement
deux termes nuls à cette suite (nie) : x0 = 0 et xn+1 = 0 est , somme toute, logique :
Ainsi , l'équation générique peut s'étendre aux indices k variant de 1 à n.
En posant cette équation devient : xk−1 − 2 cos(θ)xk + xk+1 = 0
λ = 2 cos(θ)
2 iθ −iθ
Elle a pour équation caractéristique : X − 2 cos(θ)X + 1 = (X − e )(X − e ) =0
Plaçons nous, à priori, en dehors du cas pathologique où l'on a une racine double ( θ=0 ou θ=π )
Il existe donc deux scalaires α et β tels que :
∀k ∈ {0, 1, ..n + 1}, xk = α(eiθ )k + β(e−iθ )k
Les termes x0 = 0 et xn+1 = 0 imposent alors le système suivant :

α + β = 0
i(n+1)θ −i(n+1)θ
αe + βe = 0
qui équivaut à 
α = −β
β.(sin(n + 1)θ) = 0
β α l'est également et xk = 0 pour tout k .
ne peut être nul , sinon
On a donc nécessairement sin((n + 1)θ) = 0

Le choix de θj = , avec 1 ≤ j ≤ n s'impose donc. ( Attention à l'enchevêtrement des indices )
n+1
−iθ k
iθ k

Par suite ∀k ∈ {1, ..n}, xk = α (e ) − (e ) = 2iα sin (kθj )
Pour j tel que 1 ≤ j ≤ n , λj = 2 cos(θj ) est une valeur propre.
Ces valeurs sont distinctes ( la fonction x 7−→ cos(x) étant injective sur [0, π]
On a ainsi trouvé n valeurs propres , il n'y en a pas d'autres et cela justie le choix , à priori , de θ
appartenant à ]0, π[
Pour j tel que 1 ≤ j ≤ n , le sous-espace propre associé à la valeur propre λj = 2 cos(θj ) est la droite
 
sin(θj )
 sin(2θj ) 
.
 
.
.
 
vectorielle engendrée par le vecteur ej = 
 
 sin(kθj ) 

 . 
.
.
 
sin(nθj )

7 Diagonalisation en blocs

D'abord le principe

Exercice :  
A 0
Soient A ∈ Mn (K) et B ∈ Mp (K) et M= ∈ Mn+p (K)
0 B
Donner une condition nécessaire et susante pour que la matrice M soit diagonalisable.

Réponse : CNS , A et B sont ......jolies ( c'est ça oui ) ( jolie matrice = matrice diagonalisable )
Condition nécessaire :
Si M est diagonalisable , alors il existe P ∈K  [X] , scindé à 
racines simples tel que P (M ) = 0
P (A) 0
On a alors ( calcul fait et refait ) , P (M ) =
0 P (B)
On a donc P (A) = 0 et P (B) = 0
Donc le même théorème ( la condition suusante ) montre alors que A et B sont diagonalisables.
Condition susante :
Si A B
sont diagonalisables , alors il existe P
et ∈ GLn (K) , Q ∈ GLn (K) , D ∈ Mn (K) et 4 ∈ Mp (K)
−1 −1
diagonales tellesque : P  AP = D et Q AQ = 4
P 0
Posons T = , qui est bien dans GLn+p (K)
0 Q 
P −1 AP
  
−1 0 D 0
On a alors T MT = = qui est diagonale.
0 Q−1 BQ 0 4
Par suite M est bien diagonalisable.
Remarque 1 : Pour la condition susante on pourrait également le théorème sur les polynômes annulateurs
:
Si A et B sont diagonalisables , alors il existe U et V ∈ K [X] , scindés à racines simples tel que U (A) = 0
et V (B) = 0
Le polynôme S = ppcm(U, V ) est alors lui même scindé à racines simples et vérie S(A) = 0 et S(B) = 0
donc S(M ) = 0 S est diagonalisable.
et par suite
Remarque 2 : ce qu'on a prouvé avec deux blocs peut évidemment s'étendre à 36.
Ensuite l'exercice se répétant à l'inni

Exercice :  
2A A
Soient A ∈ Mn (K) et M ∈ M2n (K) dénie par M=
A 2A
Donner une condition nécessaire et susante ( sur A ) pour que la matrice M soit diagonalisable.

Réponse, évidemment, A ....cute matrix !!


Etape préalable : remplacer M par une matrice diagonale par blocs
 qui lui
 est semblable .
2 1
Pour cela , on s'appuie sur la réduction de la matrice scalaire B= .
1 2
Cette réduction étant à la portée de n'importe quel collégien averti doit se faire en quelques poignées de
seconde :  
1
3 est valeur propre ( et e01 = lui est associé )
1  
0 −1
Par la trace , 1 est valeur propre ( et e2 = ( pris orthogonal à e01 ) lui est associé )
    1  
3 0 1 −1 1 1
D= , P = ( qu'on auarait pu choisir orthogonale ) , P −1 = 1
sont telles
0 1 1 1 2 −1 1
−1
que P BP = D    
In −In 1 In In
Prenons par analogie la matrice P= , Q=
In In 2 −In In
Tous calculs faits PQ
 = I2n , ce qui prouve P est inversible , d'inverse Q
 , on a :
−1 3A 0
Et , P MP = =: M 0
0 A
M étant semblable à M 0 , elle est diagonalisable si et seulement si M 0 l'est.
0
Or M est diagonalisable si et seulement si chacun des deux blocs est diagonalisable.
Au nal on trouve bien la condition nécessaire et susante escomptée.
Terminons notre tour avec cet énoncé faisant oce de point xe dans les Oraux depuis la nuit des temps
:
Exercice :  
A A
Soient A ∈ Mn (C) et M ∈ M2n (C) dénie par M=
0 A
Donner une condition nécessaire et susante ( sur A ) pour que la matrice M soit diagonalisable.

Réponse, évidemment, A est ...... ( vous avez perdu , il ne sut pas d'être jolie pour monter les marches
du Festival ♥)  
1 1
La matrice étant non diagonalisable , on ne peut pas faire comme dans l'exercice précédent.
 0 1 
α α
La matrice de M2 (C) est diagonalisable si et seulement si α = 0
0 α
Il y a peut être là un début de réponse à notre exercice. ( réponse eectivement , CNS : A est nulle )
On montre d'abord, ( politique des étapes ) , que A est nécessairement diagonalisable :
En eet , si P ∈ K [X] , est scindé à 
racines simples et tel que P (M ) = 0 alors P (A) = 0 et par suite A est

P (A) 4
bien diagonalisable . ( On a : P (M ) = où 4 est un bloc inintéressant pour la conclusion
0 P (A)
provisoire )
Mais la condition est loin d'être susante.
Pour cela examinons le bloc soit-disant inintéressant
 2 : c'est  la clé de l'exercice
2
Pd k 2 A 2A
Posons P (X) = k=0 αk X . On a M = 2 et par récurrence , on montre que Mk =
0 A
 
Ak kAk
k = 0 ) ( ce que l'on peut obtenir,
( également valable pour également, par une formule du
0 Ak    
A 0 0 A
binôme, en écrivant M = D + N où D = et N = )
P 0 A  0 0
Pd d
On a alors 4 = k=1 αk kAk
= A × k=1 α k kA k−1
= A × P 0 (A)
On a donc récupéré l'information supplémentaire suivante :

A × P 0 (A) = 0
Comme on souhaite montrer que A est nulle , il sut donc de montrer que la matrice P 0 (A) est ...( attention
aux bêtises de collégien )
Qd−1
0
P 0 (A) = ε d−1
Q
Or , si P (X) = ε k=0 (X − zk ) k=0 (A − zk In )
, on a :
Cette matrice estinversible ssi , pour tout k , le nombre zk n'est pas valeur propre de zk , ce qui est le cas ,
car sinon , les valeurs propres de A étant racines de P ( annulateur de A ) , le polynôme P aurait une racine
double. Ce qui est exclu.
0
En dénitive P (A) est bien inversible et donc A est bien nulle.
La réciproque est évidente.

8 Retour sur le Crochet de Lie

L'exercice suivant
Exercices :
Soient A et B sont deux matrices de
 Mn (C) qui commutent.
Mn (C) −→ Mn (C)
Soit ϕ l'application suivante ϕ: .
M 7−→ AM − M B
1/ A quelle condition nécessaire et susante , existe-t-il au moins une matrice non nulle telle que AM −M A =
0 ?
2/ A quelle condition nécessaire et susante , l'application ϕ est-elle surjective ?
3/ A quelle condition nécessaire et susante , l'application ϕ est-elle injective ?

C'est évidemment trois fois la même question.


Réponse : A et B n'ont aucune valeur propre commune.
Pour cela on démontre que ( la version couleurs comporte cette indication ) :

Exercice :
Montrer que Sp (ϕ) = {a − b/a ∈ Sp(A), b ∈ Sp(B)}
Inclusion : {a − b/a ∈ Sp(A), b ∈ Sp(B)} ⊂ Sp(ϕ)
t
Soit a ∈ Sp(A), b ∈ Sp(B) : Soit X un vecteur propre de A associé à a et Y un vecteur propre de B
t t
associé à b ( notez bien B et non B ) ( ceci est possible car B et B ont le même spectre )
t t
Soit alors M = X Y ( cette matrice n'est pas nulle ) X Y
t t t t t t t t
On a : ϕ(M ) = A (X Y ) − (X Y ) B = (AX) Y − X ( BY ) = (aX) Y − X (bY ) = (a − b)X Y = (a − b)M
Ceci prouve que a − b appartient bien au spectre de ϕ
L'inclusion réciproque est un peu plus coriace :
λ une
Soit valeur propre de ϕ et M un vecteur propre associé : i.e. M , matrice non nulle vériant
ϕ(M ) = λM
On a donc AM − M B = λM ou encore AM = M (B + λIn )
Une récurrence montre alors que, pour tout entier naturel k , on a Ak M = M (B + λIn )k et par suite ,
pour n'importe quel polynôme P de K [X] , onsi a :

P (A)M = M P (B + λI)
En particulier pour P (X) = χA (X) , et gràce ay théorème de Cayley-Hamilton , on a :
0 = M.χA (B + λI)
Comme M n'est pas nulle ce montre que la matrice χA (B + λI)Qest (pas de bêtise ) non inversible.
n
Notons a1 , ..an les valeurs propres de A , de sorte que χA (X) =
Qn Qn k=1 (X − ak )
On a alors χA (B + λI) = k=1 (B + λI − a k I) = k=1 (B − (a k − λ)In )
Ce produit est non inversible si et seulement si l'une des matrices (B − (ak − λ)In ) est non inversible. Or
ceci se produit si et seulement , pour un certain k , ak − λ appartient au spectre de B , autrement dit il existe
k ∈ {1, ..n} et b ∈ Sp(B) tels que ak − λ = b
D'où λ = a − b , pour un certain a ∈ Sp(A) et a ∈ Sp(A)
D'où l'inclusion réciproque.
Avec cette étude explicite du spectre de ϕ en fonction de celui de A et de celui de B , la réponse à l'exercice
posé ci-dessus devient à portée de main.

9 Diagonalisabilité d'une matrice Compagnon ( ou de sa transposée

Exercice :
Pn−1
Soit P (X) = X n − ak X k un polynôme de K [X] .
k=0
0 · · · · · · · · · · · · 0 a0
 
 1 ... .
.
 . a1  
 . . . . 
 0 .. .. .
.
.
. 
 
 .. . . .. .. .
.
.
.
On note CP =  .  ( matrice d'ordre n ) , dite matrice compagnon du

. . . . .
. . .
 
 . .. .. .. . .
 . . . . . .


 . . . .

 .. .. ..
0 .
.

0 · · · · · · · · · 0 1 an−1
polynôme unitaire de degré n qu'est le polynôme P .
1/ Montrer que χCP (X) = P (X)
2/ Montrer que, pour toute valeur propre de CP , le sous-espace propre associé est une droite. ( sans la
déterminer, pour l'instant )
3/ En déduire une condition nécessaire et susante sur le polynôme P pour que CP soit diagonalisable.
4/ Déterminer pour toute valeur propre λ le sous-espace propre de la matrice transposée : t CP
5/ Retrouver le fait que si des scalaires λ1 , ..λn sont distincts alors leur matrice de Vancermonde est inversible.

1/ déjà faite ( voir Poly-copié , Déterminants )


−λ · · · ··· ··· ··· 0 a0
 
.. .
 1 . .
 . a1 

 .. .. . . 
 0 . . . .
 . . 

2/ Si λ est une valeur propre de CP , la matrice CP − λIn =  ... .. .. .. .
.
.
.
 
. . . . . 
 .. . .
 
.. .. .. . .
 . . . . . .


 . .. .. .

 .. . . −λ .
.

0 ··· ··· ··· 0 1 an−1 − λ
est non inversible , donc de rang ≤n−1 .
La matrice extraite obtenue par suppression de la première ligne et de la dernière colonne est inversible (
triangulaire supérieure et termes diagonauc non nuls ) Donc le rang est ≥n−1
Conclusion : elle est de rang égal à n − 1 et par suite son noyau est de dimension égale à 1.
3/ On sait que ( théorème du cours ) : CP est diagonalisable si et seulement si :

 χCP (X) est scindé sur K
et
∀λ ∈ Sp(CP ) dim(Eλ) = mλ

Or le polynôme caractéristique en question n'étant autre que le polynôme P , les valeurs propres en sont
donc les racines et comme chaque espace propre est de dimension égale à 1 , ceci équivaut donc à dire que P
est scindé à racines simples sur K.  
x1
 x2 
 .. 
 
 . 
4/ Le système (t CP − λIn )X = 0 avec X=
 ... 
 se traduit par :
 
 . 
.
 . 
xn


 −λx1 +x2 = 0
−λx2 +x3 = 0







−λxk +xk+1 = 0




−λxn−1 +xn = 0




a0 x 1 +a1 x2 +... +an−2 xn−1 +(an−1 − λ)xn = 0

Oublions provisoirement la dernière équation qui semble tomber de Mars


Les n − 1 premières équations s'écivent de manière générique :
−λxk + xk+1 = 0 et ce pour tout k compris entre 1 et n − 1
La suite (nie ) (xk ) est dinc géométrique de raison λ :
k−1
Pour tout k compris entre 1 et n − 1 , on a donc xk = x0 .λ
 
1

 . λ 

 .
 .

On obtient donc comme vecteur X le vecteur suivant : X = x0  k

 λ


 . 
 .. 
λn−1
Le sous-espace propre associé à λ est donc inclus ( pourquoi seulement inclus ) dans la droite vectorielle
 
1
 λ 
.
 
.
.
 
engendrée par le vecteur eλ = 
 
λk 


 . 
.
.
 
λn−1
Par égalité des dimensions , le sous-espace propre associé à λ est donc exactement cette droite.
La dernière équation peut donc réellement être oubliée : elle est sans aucin doute superue. ( si on
xk = x0 .λk−1 , pour tout k , on trouve qu'elle correpond à
détaille cette équation en reportant la valeur
l'égalité x0 P (λ) = 0 ; qui est triviale , puisque P (λ) = 0
) ( elle est donc compatible avec le système )
Qn
5/ Si des scalaires λ1 , ..λn sont distincts , la matrice compagnon du polynôme P (X) = k=1 (X − λk ) est
 
1 1 1

 λ1 λ2 λn 


 (λ1 )2 (λ2 )2 (λn )2 

donc diagonalisable , la matrice V =   est donc une matrice de passage
 
 
 
 
(λ1 )n−1 (λ2 )n−1 (λn )n−1
n t
de la base canonique de K à une base de vecteurs propres de CP , elle est donc inversible. On reconnaît
dans cette matrice la matrice de Vandermonde ( ou sa transposée, c'est kif-kif )

10 Matrice circulante

Exercice :
0 1 0 0
 
.. .. ..
. . .
 
 
.. ..
 
 . . 
 
.. ..
On pose J =   de Mn (C), la matrice de permutation ( J = Pσ ) avec
 
. .
 
..
. 0 
 

..
 
 0 . 1 
1 0 0
σ = (n, n − 1, ..2, 1) ( cycle de longueur n )
1/ Montrer que J est diagonalisable dans Mn (C) et déterminer ses valeurs propres
2/ Pour des scalaires a0 , a1 , ..an−1 , on note C la matrice , dite circulante , suivante : C =
a0 a1 a2 an−2 an−1
 
.. .. ..
. . .
 a an−2 
 n−1 
.. .. .. ..
 
 . . . . 
 
.. .. .. ..
de Mn (C).
 
 . . . .
 
.. .. ..
. . . a2 
 

.. ..
 
 a
2 . . a1 
a1 a2 an−1 a0
Retrouver le déterminant de cette matrice ( sous forme d'un produit , cela va de soi )

Question 1 :
n
On a J = Pσ n = Pid = In
Le polynôme X n − 1 est donc annulateur de J et il est scindé à racines simples dans C
Il s'en suit que J est diagonalisable dans Mn (C)
Pour déterminer ses valeurs propres ( qui seront, sans surprise, ....) , on calcule le polynôme caractéristique
de J
χJ (X) = det(XIn − J) ( ça y est , je m'habitue aux changements de règles de conduite , ma Tesla n'a
quà bien se tenir ♥♥ )
X −1 0 0
 
.. .. ..
. . .
 
 
.. ..
 
 . . 
 
.. ..
χJ (X) =  , qui se calcule , easily , par développement par rapport à
 
. . 
 
..
. 0 
 

..
 
 0 . −1 
−1 0 X
la dernière ligne ( c'est une compagne )
On obtient
χJ (X) = (−1).(−1)n+1 4n,1 + X(−1)n+n 4n,n
Or 4n,1 = (−1)n−1 et 4n,n = (X)n−1
n
D'où χJ (X) = −1 + X
Le spectre de J est donc formé par les n racines n - ièmes de l'unité :
 {1, w, w2 , ..w n−1
 }où w = e
i2π/n

1

 w 

2
 w 
Il existe donc P ∈ GLn (C) telle que J = P DP −1 où D=



 
 
wn−1
Question 2 : on calcule les puissances de la matrice J ( en calculant les itérées de l'endomorphisme fσ
déni par fσ (ej ) = ej−1mod(n) et on s'aperçoit que ( oh miracle )
Pn−1
C = k=0 ak J k Pn−1  −1 Pn−1
On a alors : C = P k=0 ak D
k
P Q = P 4P −1 où 4 est la matrice diagonale k=0 ak D k .
n
Il s'en suit que det(C) = det(4) = j=1 (4)j,j
Pn−1 k
P n−1 j−1 k
Or (4)j,j = k=0 ak (D )Qj,j = P k=0 ak (w ) 
n n−1 j−1 k
En dénitive : det(C) = j=1 k=0 ak (w )
( Retrouve-t-on le même résultat qu'il y a quelques semaines ? )

11 Une matrice omni-présente

Exercice :
 Soient n ≥ 3, a1 , ..,
an−1 et b1 , .., bn−1 des scalaires complexes non tous nuls. On note M =
0 ··· ··· 0 b1
 .. .
.
.
. 
 . . . 
.
 
.
.
 
  ∈ Mn (C). Condition nécessaire et susante pour que M soit diagonalisable
.
.
 
 . 
 
 0 ··· ··· 0 bn−1 
a1 · · · · · · an−1 0
?
Examiner le cas réel. ( j'ai assisté à un oral de Centrale qui a porté sur cet exo )

Remarquons que rg(M ) ≤ 2 dim(ker(M )) ≥ n − 2. Donc 0 est une valeur propre et m0 ≥ n − 2


. Donc
Reste deux valeurs propres à trouver : λ et β . On connaît leur somme : λ + β = tr(M ) = 0
2 2 2
Pn−1
Il nous faut une autre équation : tr(M ) = λ + β = 2 k=1 ak bk . Notons s cette somme.
2 2 2
( de manière générale , ceci permet de calculer le double produit 2λβ = (λ + β) − (λ + β )
2
Ici cas facile , puisque λ = −β et donc λ = s
Ptemier cas : si s = 0 , alors λ = β = 0 et donc 0 est la seule valeur propre. M est diagonalisable ssi elle
est nulle. Ce qui n'est pas le cas.
Sis 6= 0 , λ et β sont non nulles et distinctes: ce sont des valeurs propres simples. 0 est donc de multiplicité
n−2 et donc n − 2 ≤ dim(ker(M )) ≤ m0 = n − 2 et il ya donc égalité. Par suite M est diagonalisable.
Pn−1
En dénitive : M est diagonalisable ssi k=1 ak bk 6= 0
Pour le cas réel : raisonnement similaire , en cherchant les valeurs propres éventuellement complexes de
M
La discussion nale donne ceci :
s = 0 , M n'est pas diagonalisable ( idem )
Si
Si s < 0, M ne l'est pas non plus car admettant des valeurs propres non réelles
Si s > 0, M est diagonalisable , comme ci-dessus : deux valeurs propres distinctes non nulles simples et le
zéro qui vérie dim(E0 ) = m0
Pn−1
Au nal , M est diagonalisable ssi k=1 ak bk > 0 .

12 Matrices de rang 1
Il reste à l'examinateur d'oral cinq minutes à meubler, il vous pose cette question àn d'arrondir votre note
au mieux ( ou alors c'est votre serviteur qui lui reste un dernier encart à remplir pour boucler son tabloïd
à deux sous et 32 pages ♠)
Question :
A quelle condition nécessaire et susante une matrice de rang 1 est-elle diagonalisable ? Réponse clin-
quante de votre part : que sa trace soit non nulle.

Réponse terre à terre :


rg(M ) = 1 donc ker(M ) est de dimension n − 1 et donc 0 est une valeur propre de multiplicité m0 ≥ n − 1
. Ce qui prouve , au passage que χA (X) est scindé sur K.
Il reste donc une valeur propre λ , la trace de A , somme de ses valeurs propres , montre que λ c'est
justement .....la trace de A
Si λ = 0 , le zéro se répète n fois et A n'est pas diagonalisable ( E0 étant de dimension n − 1 seulement )
Si λ n'est pas nul , cette valeur est simple et m0 = n − 1 = dim(E0 )
Par conséquent A est diagonalisable. ( belle reprise de volée )
Réponse , façon , tweet trumpien
2
Une matrice A de rang 1 vérie A − (tr(A))A = 0
2
Si tr(A) = 0 , alors A = 0 , 0 est la seule valeur propre de A et A n'est pas scalaire. Donc non
2
diagnalisable. ( ou encore le polynôme X est annulateur de A et c'est son polynôme minimal ( otherwise
A = 0) , qui n'est pas à racines simples )
2
Si tr(A) 6= 0 , le polynôme X − (tr(A))X = X(X − tr(A)) est scindé à racines simples et annule A

13 Plus Plus ( Commutant d'un endomorphisme )

Soit f un endomorphisme d'un K- espace vectoriel E de dimension n


On note C(f ) = {g ∈ L(E)/g ◦ f = f ◦ g} , le commutant de f . cest clairement un sous-espace vectoriel
de L(E) . On note K [f ] = {P (f )/P ∈ K [X]} , le sous-espace de L(E) formé des polynômes en f .
Il est immédiat que K [f ] est inclus dans le commutant de f
Plusieurs exercices étudient la dimension de ces deux espaces et la possibilité qu'il y ait égalité des deux.
Rappelons d'abord ce résultat du cours :

dim(K [f ]) = deg(πf ) ≤ n

où πf est le polynôme minimal de f .


On sait que ce degré est inférieur ou égal à n ( car πf divise χf )
13.1 Une minoration
Exercice : Soit f un endomorphisme d'un K- espace vectoriel E de dimension n
Montrer que
dim(C(f )) ≥ n
Indication : etudier ( matriciellement ) le cas où f est trigonalisable.

Premier cas: si A ∈ Mn (K) est trigonalisable .


Les commutants de deux matrices semblables étant isomorphes , on peut supposer que A est triangulaire
supérieure.
Nous cherchons alors , parmi les matrices qui commutent avec A celles qui seraient elles mêmes triangulaires
supérieures ( c'est un sous-espace de C(A))
n(n+1) n(n+1)
L'équation AM = M A se traduit alors par un système linéaire à
2
équations à
2
inconnues que
sont les coécients de M .
Remarquons alors que les équations provenant des termes diagonaux des produits
n(n−1) n(n+1)
sont des égalités triviales . Il ne reste plus que équations pour inconnues. L'espace des solutions
2 2
n(n+1) n(n1)
est donc de dimension ≥ − 2 =n.
2

13.2 Commutant d'un endomorphisme diagonalisable


Exercice : Soit f un endomorphisme d'un K- espace vectoriel E de dimension n
On suppose que f est diagonalisable. Montrer que :

X
dim(C(f )) = (mλ )2
λ∈Sp(f )

En déduire que dim(C(f )) ≥ n


En déduire le cas d'égalité entre C(f ) et K [f ] .

Preuve :
Pour cela on montre que : un endomorphisme g commute avec f si et seulement si il stabilise les sous-
espaces propres de f .
La condition est nécessaire ( c'est dans le cours )
La condition est susante : Si g stabilise les sous-espaces propres de f , notons gλ l'endomorphisme induit
par g à un sous-espace propre Eλ (f ) . On sait que celui induit par f à ce même sous-espace est une homothétie
: fλ = λ.idEλ (f ) . Et de ce fait gλ et fλ commutent.
L'endomorphisme f ◦ g − g ◦ f est donc nul sur chacun des sous-espaces propres de f .
Comme E = ⊕λ∈Sp(f ) Eλ (f ) , f ◦ g − g ◦ f est donc nul sur tout E .
On a donc prouvé que , dans le cas où f est diagonalisable :
(g ∈ C(f )) ⇐⇒ (g stabilise les sous-espaces propres de f )
Il n' y a plus qu à exploiter ce résultat matriciellement :
Choisissons une base B adaptée à la décompositionE = ⊕λ∈Sp(f ) Eλ (f ) .
On sait alors qu'il y a isomorphisme entre les endomorphismes et les matrices les représentant dans une
base donnée.
Or g stabilise les sous-espaces propres de f si et seulement sa matrice relativement à la base choisie ainsi
est diagonale par blocs , chaque bloc étant carré d'orde dim(Eλ (f )) ( qui est égale à mλ , multiplicité de λ ) :
Notons λ1 , .., λs les diérentes valeurs propres de f et m1 , .., ms leurs multiplicités respectives.
 
A1 0 0
 0 A2 
..
 
On a donc , pour plus de détails , matB (f ) =  .  , où le bloc Ai ∈ Mmi (K)
 
..
 
 . 0 
0 0 As
  
 A1 0
 0 

 0 A2

   

 
..
 
L'espace suivant : 4 = .  /∀i ∈ [1, s] , Ai ∈ Mmi (K) , étant de dimension
 

..

   




 . 0  


 
Ps 0 0 As
2
i=1 (mi ) , le résultat nal en découle. Mmi (K)
Remarque , pour les plus sceptiques :
Mm1 (K) × ... × Mms (K) −→ 4


  



 A1 0 0

  0 A2 
l'application suivante .. est sans nul doute
 
(A1 , .., As ) 7−→  .
 

 
..

  



 . 0 

0 0 As
un isomorphisme d'espaces vectoriels.
Ps
On a i=1 mi = n ( et ce du fait que E = ⊕λ∈Sp(f ) Eλ (f ) ou
Pencore du fait que χf (X) est scindé sur K)
2 s 2
Ps
Comme , mi ≥ 1 , on a mi ≥ mi et par suite dim(C(f )) = i=1 mi ≥ i=1 mi = n
On a donc, pour résumer les inégalités suivantes :
dim(K [f ]) = deg(πf ) ≤ n = si=1 mi ≤ si=1 m2i = dim(C(f ))
P P
Du fait de l'inclusion K [f ] ⊂ C(f ) , il y a égalité de ces deux espaces si et seulement si il y a égalité
de leurs dimensions. Mais comme dim(K [f ]) ≤ n ≤ dim(C(f )) , l'égalité est réalisée si et seulement si
dim(K [f ]) = n = dim(C(f )) , Ps Ps
2
L'égalité n = dim(C(f )) est réalisée si et seulement si i=1 mi = i=1 mi , elle même réalisée si et
seulement si ∀i ∈ [1, s] , mi = 1
Autrement dit : f admet n valeurs propres simples.
Qn
Et dans ce cas le polynôme minimal de f est i=1 (X − λi ) = χf (X) et il est donc de degré n . et donc
K [f ] est de dimension égale à n également et l'égalité des deux espaces est acquise.
Au nal : Dans le cas où f est diagonalisable , K [f ] = C(f ) si et seulement si f admet n valeurs propres
simples.
Ou encore , si et seulement si , πf (X) = χf (X)

13.3 Cas d'un endomorphisme cyclique


Dénition : Soit f un endomorphisme d'un K- espace vectoriel E de dimension n
f est dit cyclique s'il existe un vecteur e de E tel que (e, f (e), ..f n−1 (e)) soit une base de E
( Exemple : un endomorphisme nilpotent d'indice de nilpotence égal à n ( le maximum autorisé dans ce cas
de gure , par exemple , la dérivation sur Kn−1 [X])

Concernant le commutant d'un tel endomorphisme :

Exercice : Montrer que, pour un endomorphisme cyclique f , on a :

K [f ] = C(f )

de dimension commune égale à n.


Comparer dans ce cas πf (X) et χf (X)
Indication : Montrer que si g et h sont deux éléments de C(f ) alors (g = h) ⇐⇒ (g(e) = h(e)) ( e étant tel
n−1
que (e, f (e), ..f (e)) soit une base de E )
Preuve :
Commençons par l'indication ( pour pouvoir l'utiliser au bon moment )
La condition nécessaire est triviale
La condition est susante : si g et h sont deux éléments de C(f ) tels que g(e) = h(e), remarquons d'abord
que g commute avec les puissances de f .
k k
On a donc , ∀k ∈ [0, n − 1] , g(f (e)) = (g ◦ f )(e) = (f k ◦ g)(e) = f k (g(e))
k k
Et de même , h(f (e)) = f (h(e))
k k
Comme g(e) = h(e) , on a donc h(f (e)) = g(f (e))
En dénitive g h
coincident sur une base de E et sont donc égaux.
et
2
Montrons, à présent, que la famille(id, f, f .., f n−1 ) est libre dans L(E) :
,P
n−1
Si α0 , α1 , .., αn−1 sont des scalaires tels que k=0 αkP f k = 0 ( le 0 de L(E) )
n−1 k
alors en calculant l'image du vecteur e , on obtient k=0 αk f (e) = 0 ( le 0 de E )
n−1
Comme la famille (e, f (e), ..f (e)) est libre , alors les scalaires αk sont tous nuls. D'où le résultat
2 n−1
La famille(id, f, f , .., f ) est une famille libre de K [f ] . Par suite , dim(K [f ]) ≥ n
2 n−1
Comme dim(K [f ]) ≤ n , on a donc dim(K [f ]) = n ( et (id, f, f , .., f ) en est une base )
2 n−1
A l'inverse , comme dim(C(f )) ≥ dim(K [f ]) = n , nous allons montrer que la famille (id, f, f , .., f )
engendre C(f ) .
( ce qui achèvera la preuve vu que cela aura pour conséquence dim(C(f )) ≤ n et donc l'égalité dim(C(f )) =
n )
Pn−1 k
Soit , donc , g un élément de
Pn−1 C(f )
. On souhaite pouvoir écrire g = k=0 αk f .
k
L'analyse nous pousse à calculer en e : g(e) = k=0 αk f (e) : les scalaires αk recherchés sont nécessaire-
n−1
ment les coordonnées du vecteur g(e) dans la base (e, f (e), ..f (e)) . Pn−1 k
La synthèse : prenons ces scalaires αk ( coordonnées du vecteur g(e)) et posons h = k=0 αk f
On souhaite montrer que g=h
C'est là que l'indication intervient : g et h appartiennent à C(f ) et coincident sur le vecteur e : ils sont
donc égaux.
Pour ce qui est de la comparaison πf (X) et χf (X) : ils sont égaux ! vu que le degré de πf (X) est égal à
la dimension de K [f ] qui est égale à n et que πf (X) divise χf (X) lui même de degré égal à n .
Exercice :
montrer qu'un endomorphisme f ayant n valeurs propres distinctes ( où n = dim(E)) est cyclique !!
Preuve : Notons λ1 , .., λn les valeurs propres distinctes de f et (e1 , .., en ) une base de vecteurs propres (
f (ek ) = λk ek )
Nous recherchons un vecteur e tel que (e, f (e), ..f n−1 (e)) soit une base de E .
Un vecteur propre ne fait pas l'aaire. !!
C'est certainement une combinaison de tous , par exemple ( il n' y a pas unicité d'un tel vecteur ) la
somme ( la plus simple des combinaisons ) : e = e1 + .. + en
k k k
On a alors f (e) = (λ1 ) e1 + .. + (λn ) en
n−1
Pour montrer que (e, f (e), ..f (e)) est bien une base de E , on écrit la matrice de cette famille dans
 n−1
 e 
1 λ1 (λ1 ) 1
. 
.
  . 
 
la base (e1 , .., en ) : P =  ei  et oh miracle c'est une matrice de Vandermonde

 
 ... 

 
1 λn (λn )n−1 en
inversible.

13.4 Cas d'égalités


Remarque : quel est le lien entre les deux situations étudiées ?
Réponse : dans les deux cas l'égalité K [f ] = C(f ) est réalisée , en même temps que πf (X) = χf (X) et
dans les deux cas l'endomorphisme est cyclique. Then ,
Exercice :
Soit f un endomorphisme d'un K- espace vectoriel E de dimension nie.
Montrer que :
1/ K [f ] = C(f ) ⇐⇒
2/ πf (X) = χf (X) ⇐⇒
3/ f est cyclique
Preuve :

13.5 Enoncé d'un certain âge


Exercice :
Soit f K- espace vectoriel E de dimension nie.
un endomorphisme d'un
Montrer que le commutant de f est de codimension paire.
2
C'est vrai dans les cas d'égalité étudiées ci-dessus : codim(C(f )) = n − n = n(n − 1) qui est bien un
nombre pair
C'est vrai également dans le cas où f est diagonalisable :
2
codim(C(f )) = n2 − si=1 m2i = ( si=1 mi ) − si=1 m2i = 2 i<j mi mj
P P P P
Quid du cas général ? ( il faut laisser du temps au temps ( F.M. ))

13.6 La re-belote !!
Dénition : Soit f un endomorphisme d'un K- espace vectoriel E .
On appelle bi-commutant de f , le commutant du commutant de f , noté C(C(f ))
( Autrement dit les endomorphismes qui commutent avec tous les endomorphismes qui commutent avec f )
( et c'est bien un espace vectoriel ) ( inclus dans C(f ))
Cela donne :
Exercice :
Soit f un endomorphisme d'un K- espace vectoriel E de dimension nie.
Montrer que C(C(f )) = K [f ] .

14 Suivre les traces d'une matrice

14.1 Un résultat fort utile : polynômes symétriques en les racines. Relations


coécients-Racines ( formules de Newton ) (lui même, le croqueur de
pommes )
Ces exercices utilisent, le cas échéant , ce résultat , qui n'est plus au programme ociel des Prépas depuis
des années ( qu'il faut donc justier à l'occasion ou alors l'éviter quand cela est possible ) ( ces formules ont
été eux même l'objet d'exercices d'oraux X-ENS )
Qn
Dénition : Soit P (X) = k=1 (X − zk ) un polynôme unitaire scindé de K [X] ( les zk n'étant pas néces-
sairement distincts )
Les fonctions suivantes sont dites fonctions symétriques élémentaires des racines de
Pn P :
On note : σ1 = k=1 zk la somme des racines
P
σ2 = 1≤i<j≤n zi zj la somme des produits deux à deux P
de façon générale pour p entier compris entre 1 et n , σp = 1≤i1 <i2 <ip ≤n zi1 zi2 ..zip , la somme des produits
des racines prises pàp
En particulier σn = z1 z2 ..zn le produit des racines.
On dénit également les sommes suivantes :
Σ1 = P nk=1 zk , puis Σ2 = nk=1 (zk )2 la somme des carrés et de façon générale
P P
pour tout entier naturel p ,
n p
Pn
Σp = k=1 (zk ) somme des puissances p-ièmes des racines. ( on a Σ0 = k=1 1 = n )
Le résultat suivant , connu des collégiens, fait partie du programme ociel :
Qn
Théorème : si P (X) = k=1 (X − zk ) alors

n
X
n n−1 n−2 n n
P (X) = X − σ1 X + σ2 X + .... + (−1) σn = X + (−1)k σk X n−k
k=1
Ceci établit donc un lien direct entre les coécients d'un polynôme et les fonctions σk .
Ce qui l'est un peu moins ce sont les relations entre les σk et les Σj
La relation σ1 = Σ1 étant une banalité.
2
On a (Σ1 ) = Σ2 + 2σ2 . Ceci permet donc de calculer σ2 en fonction de Σ1 et de Σ2 . et c'est encore
potable. A partir de σ3 , les  ennuis commencent
 P ...P
Pn Pn 2
= 3 + k6=j zk zj2 = 3 +A
P
On a σ1 Σ2 = ( k=1 zk ) . j=1 (zj )
P  P
n P 2
P
et σ2 Σ1 = k<j zk zj . ( l=1 z l ) = i6=l zi zl + k<j,l6=k,l6=j zk zj zl = A + B
Remarquons alors que B = 3σ3 et il sut donc d'éliminer le terme noté A :
P
Σ3 = σ1 Σ2 − σ2 Σ1 + 3σ3 , ceci permet de trouver σ3 en fonction des j pour j compris entre 1 et 3

14.2 quelques rappels


On rappelle que si un endomorphisme ( ou une matrice ) est trigonalisable alors sa trace est égale à la somme
de ses valeurs propres ( comptées avec multiplicité ) ( cette relation étant beaucoup plus utile que celle liant
le déterminant au produit de ces mêmes valeurs propres et pour cause ...)
Qn
Pour A ∈ Mn (K), telle que χA soit scindé sur K (χA (X) = k=1 (X − λk ) ) on a :

n
X
tr(A) = λk
k=1

Et on a également , pour tout entier naturel p ,

n
X
p
tr(A ) = (λk )p
k=1

En notant β1 , .., βs les valeurs propres distinctes de A et m1 , .., ms leurs multiplicités respectives ( de sorte
χA (X) = sk=1 (X − βk )mk , on a donc
Q
que

s
X
tr(A) = mk βk
k=1

Et on a également , pour tout entier naturel p ,

s
X
p
tr(A ) = mk (βk )p
k=1
14.3 A l'abordage !!!
Un premier énoncé facile en guise de hors d'oeuvre :

Exercice :
A ∈ Mn (C), telle que , pour
Soit tout entier p appartenant à [1, n] , tr(Ap ) = 0 .
Montrer que A est nilpotente.

Preuve : D'aprés un résultat du nouveau programme il s'agit d'établir que 0 est la seule valeur propre de
A ...
Supposons que A admet des valeurs propres non nulles β1 , .., βs de multiplicités respectives
 m1 , .., ms .

 m1 β1+ · · · +ms βs =
 m1 β1 + · · · +ms βs2 =
2


Les valeurs propres nulles n'yant aucune inuence sur les traces successives on a donc :




m1 β1s + · · · +ms βss =

Ce système est valide car s≤n ( tr(Ak ) = 0 pour k≤n )
Ce système d'équations peut être interprété comme un système linéaire d'inconnue
  (m1 , .., ms ) 
. Il esst asso-
β1 β2 βs 1 1
 β12 β22 2 
βs   β1 β2

 dont le déterminant vaut ( s βk ).det 
 Q
cié à la matrice carrée suivante M =  k=1
  
  
β1s β2s βss β1s−1 β2s−1
et ce par multilinéarité par rapport aux colonnes. On reconnaît alors un déterminant de Vandermonde non
nul . le produit factorisé étant non nul , cela prouve que ce système est de Cramer . Il aurait pour solution
la solution triviale (m1 , .., ms ) = (0, ..0) . Or les mi sont non nuls. D'où l'absurdité.
Autre solution :
Exercice intermédiaire : ( avec des racines distinctes )
Mines MP 2014
Pn
Soient A ∈ Mn (R) et λ1 , .., λn des réels distincts . On suppose que ∀k ∈ [1, n] , tr(Ak ) = i=1 λki .

1. Montrer que, pour tout i , λi appartient au spectre de A . En déduire que A est diagonalisable.

2. Soit B ∈ Mn (R) telle que AB = BA . Montrer que B est diagonalisable . Montrer que B est un
polynôme en A

Un énoncé plus coriace ( où il faut sortir la grosse artillerie )

Exercice : ENS Lyon 2014 .


Soient A, B ∈ Mn (C) .
Donner une condition nécessaire et susante sur A et B pour que ∀k ∈ N , tr(Ak ) = tr(B k )
Réponse : si et seulement si A et B ont le même polynôme caractéristique et ce d'aprés les formules de
Newton. ( les Σk étant les mêmes , les σk sont également les mêmes pour les deux matrices )
Moralité : C'est plus un exercice sur les formules de Newton.

Vous aimerez peut-être aussi