0% ont trouvé ce document utile (0 vote)
45 vues78 pages

Matrices : Valeurs Propres et Diagonalisation

Transféré par

oussamamm909
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
45 vues78 pages

Matrices : Valeurs Propres et Diagonalisation

Transféré par

oussamamm909
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Liste ccp, algèbre 73

 
2 1
1. On pose A =  .
4 −1
Déterminez les valeurs propres et les vecteurs propres de A.

Le polynôme caractéristique de A est X 2 − X − 6 = (X − 3)(X + 2). Il y a


deux valeurs propres distinctes, la matrice est diagonalisable. Les vecteurs
propres associés à la valeur propre 3 sont les (a, a), a 6= 0. Les vecteurs
propres associés à −2 sont les (a, −4a), a 6= 0.

2. Déterminez
  toutes les matrices qui commutent avec la matrice
3 0
  et déduisez-en l’ensemble des matrices qui commutent
0 −2
avec A.

 
3 0
Une matrice qui commute avec   laisse stables ses sous-espaces
0 −2
propres (il est plus clair d’énoncer ceci en termes d’endomorphismes ca-
noniquement associés). Et réciproquement. Les matrices qui commutent
avec cette matrice sont donc les matrices diagonales. Or

AM = M A ⇔ P DP −1 M = M P DP −1 ⇔ D(P −1 M P ) = (P −1 M P )D

Les matrices qui commutent avec A sont donc les  P ∆P −1, où ∆ est une
1 1
matrice diagonale quelconque, et par exemple P =  . Mais plutôt
1 −4
que faire le calcul, on peut remarquer que c’est un espace vectoriel de di-
mension 2. . .et donc le commutant de A est ici K[A], ou encore Vect(A, I2 ).

Exercice 1 (Matrices à diagonale strictement dominante).

(a) Soit A une matrice carrée d’ordre n réelle ou complexe à


diagonale strictement dominante, c’est à dire telle que, pour
tout i :
X
|ai,i | > |ai,j |
j6=i

1
Démontrer que A est inversible : on démontrera pour cela,
par l’absurde, que le système AX = 0 n’a pas de solution non
nulle, en écrivant une équation bien choisie de ce système.
Quelle hypothèse analogue conduit à la même conclusion ?

 
x1
 . 
 
Supposons que AX = 0 ait une solution non nulle : X =  .. . Soit
 
xn
i0 un indice tel que
|xi0 | = max |xi |
1≤i≤n
la i0 -ième équation du système AX = 0 s’écrit
n
X
ai0 ,j xj = 0
j=1

que l’on peut réécrire


X
ai0 ,i0 xi0 = − ai0 ,j xj
j6=i0

Mais xi0 6= 0, donc


X xj
ai0 ,i0 = −ai0 ,j
xi0
j6=i0

Et, par inégalité triangulaire :


X |xj | X
|ai0 ,i0 | ≤ |ai0 ,j | ≤ |ai0 ,j |
|xi0 |
j6=i0 j6=i0

ce qui est contradictoire. De plus, A est inversible si et seulement si


t
A est inversible. On peut donc énoncer : pour tout i,
n
X
|aj,j | > |ai,j |
i=1
i6=j

(b) Démontrer que l’ensemble des valeurs propres de A est in-


clus dans la réunion de disques suivante (si on se place sur
C) :
n n
[ X o
z ∈ C ; |z − ai,i | ≤ |ai,j |
i=1 j6=i

2
Déterminer une autre réunion de disques contenant toutes
les valeurs propres de A.

Soit z une valeur propre de A. Alors A − zIn n’est pas inversible,


donc n’est pas à diagonale strictement dominante, donc il existe i tel
que
n
X
|ai,i − z| ≤ |ai,j |
j=1
j6=i

et z appartient donc à la réunion de disques indiquée. Les valeurs


propres de A sont celles de tA, donc sont dans
n n
[ X o
z ∈ C ; |z − aj,j | ≤ |ai,j |
j=1 i6=j

Exercice 2 (polynômes caractéristiques de matrices tridiagonales).

On considère la matrice
 
a1 b1 0 ... ... 0
..
 
 .. .. 
 c1 a2 b2 . . . 
 
 .. .. .. .. .. 
0 . . . . . 
An =  .
 
.. .. .. ..

.
. . . . . 0 

 ..
 
.. 
. . cn−2 an−1 bn−1 
 
0 ... ... 0 cn−1 an
On note Pn son polynôme caractéristique ; trouver une relation de récur-
rence entre Pn , Pn−1 , Pn−2 . Dans le cas où, pour tout i, bi = ci 6= 0, le
corps de base étant R, démontrer que An admet n valeurs propres dis-
tinctes.

C’est le point de départ. L’étude de ces matrices est motivée par leur
intervention dans la discrétisation d’équations aux dérivées partielles. Le
plus souvent, elles sont symétriques : ∀i bi = ci .

3
Indication : développer par rapport à la dernière ligne ou par rapport à la
dernière colonne. On trouve

Pn = (X − an )Pn−1 − (−cn−1 ) × (−bn−1 ) × Pn−2

C’est-à-dire,
Pn = (X − an )Pn−1 − cn−1 bn−1 Pn−2

Si bn = cn 6= 0 pour tout n, et il est alors important d’être sur R, on


montre par récurrence que Pn est scindé à racines simples, les racines de
Pn « séparant » celles de Pn+1 (entre deux racines consécutives de Pn+1
il y a exactement une racine de Pn ).

Exercice 3 (Etude des matrices de rang 1).


Les questions sont indépendantes. A l’écrit des Mines, un problème
entier autour des matrices de rang 1 a déjà été posé, c’est dire si le sujet
est riche.

(a) Démontrer qu’une matrice A de Mp,q (K) est de rang 1 si et seulement


si elle peut s’écrire sous la forme X Y T où X ∈ Mp,1 (K) et Y ∈
Mq,1 (K), X et Y non nuls. Si p = q, comment s’exprime alors sa
trace en fonction de X et Y ?
Dans les questions suivantes, les matrices considérées sont
carrées

(b) Donner une matrice de rang 1 diagonalisable et une matrice de rang


1 non diagonalisable.

(c) On suppose ici p = q, A une matrice de rang 1, carrée d’ordre p.


Déterminer, suivant les valeurs de la trace de A, les valeurs propres
de A. Donner une condition nécessaire et suffisante portant sur la
trace de A pour que A soit diagonalisable.

(d) Montrer que si une matrice carrée A vérifie tr(A) = rg(A) = 1, A est
un projecteur (i.e. A2 = A). Posé à l’oral des Mines

(e) Soit u un endomorphisme de rang 1. Montrer que u est non diagona-


lisable si et seulement si Im(u) ⊂ Ker(u).Posé à l’oral des Mines

4
(a) Si A = X Y T où X ∈ Mp,1 (K) et Y ∈ Mq,1 (K), X et Y non
nuls, on voit que les colonnes de A sont les yj X. Elles sont toutes
dans Vect(X), et donc le rang de A, qui est celui de la famille de
ses vecteurs colonnes, est ≤ 1. Mais A 6= 0 (car il y a au moins un
produit xi yj non nul), donc rg(A) = 1. Si réciproquement rg(A) =
1, soit C ∈ Mn,1 (K) une colonne qui engendre l’espace vectoriel
engendré par les colonnes de A. Alors ces colonnes peuvent s’écrire
y1 C, . . .,yq C. Et donc, en notant X = C et Y comme on pense, on
a A = X Y T . Dans le cas où p = q, la trace vaut
P
xi yi , c’est-à-dire
X T Y , c’est-à-dire Y T X.
 
1 0
(b) La matrice   est de rang 1 et diagonalisable car diagonale. La
0 0
 
0 1
matrice   est de rang 1, triangulaire donc ses valeurs propres
0 0
se voient sur la diagonale : il y a 0, c’est tout. Si elle était diagona-
lisable, elle serait semblable à la matrice nulle, donc nulle. Ce n’est
pas le cas. Bien sûr on peut construire des matrices n × n de la même
manière. Plus généralement, on voit que les matrices de la base ca-
nonique sont diagonalisable si et seulement si elles sont diagonales.
(c) Le rang de A vaut 1, donc

dim (KerA) = dim(E0 (A)) = n − 1

(théorème du rang). Donc (cours) 0 est valeur propre de multiplicité


au moins n − 1, donc le polynôme caractéristique PA est divisible par
X n−1 . Donc

PA = X n − Tr(A)X n−1 = X n−1 (X − Tr(A))

Et donc Sp(A) = {0, Tr(A)}. Si Tr(A) = 0, il n’y a qu’une valeur


propre, et le sous-espace propre n’est pas Kn tout entier, donc A n’est
pas diagonalisable. Si Tr(A) 6= 0, il y a deux sous-espaces propres, la
somme de leurs dimensions vaut n, donc A est diagonalisable.
(d) On reprend à peu près les arguments de la question précédente, pour
montrer que A est diagonalisable, semblable à D telle que d1,1 = 1,
di,j = 0 sinon. Or D2 = D, donc A2 = A.
(e) Une remarque cruciale : tous les sous-epaces propres d’un endomor-
phisme sont soit égaux à son noyau, soit inclus dans son image.Cela

5
 simplement du fait que, si λ 6= 0, si u(x) = λx, alors x =
résulte
1
u x . Donc, rang 1 ou pas rang 1, un endomorphisme non nul u
λ
tel que Im(u) ⊂ Ker(u) est tel que
M
Eλ (u) ⊂ Ker(u)
λ∈Sp(u)

et ne peut pas être diagonalisable.


Autre remarque cruciale : Im(u) est toujours stable par u, c’est assez
évident. Mais dans le cas où cette image est de rang 1, elle est alors
nécessairement engendrée par un vecteur propre. Ce qui fait ici que
si Im(u) n’est pas inclus dans Ker(u), on a

Ker(u) ⊕ Im(u) = E

et E est ainsi écrit comme somme de deux sous-espaces propres, il


y a diagonalisabilité. Attention ! quand le rang est > 1, l’image n’a
aucune raison d’être un sous-espace propre. Simplement, elle contient
tous les sous-espaces propres autres que le noyau.

Exercice 4 (Oral Centrale). Diagonaliser la matrice carrée réelle dont


tous les coefficients valent 1.
Rappel : diagonaliser, c’est donner une matrice P et une matrice D telles
que. . .
Lorsqu’on aura les résultats sur les matrices symétriques réelles, on pourra
aller plus vite pour la diagonalisabilité et la détermination des sous-espaces
propres.

Pour la diagonalisation effective, ce sont les matrices symétriques réelles


qui marchent le plus rapidement. Ici, pour la diagonalisabilité, on peut
remarquer que J 2 = nJ, donc X(X − n), scindé simple, annule J. Mais
ça ne donne pas P . Remarquons que rg(J) = 1, donc le noyau de J est un
sous-espace propre de dimensionn  − 1. Donc PJ = X n−1 (X − Tr(J)) =
1
 .. 
 
n−1
x (X − n). Or le vecteur U =  .  est propre associé à n. Ne reste plus
 
1

6
qu’à trouver une base du noyau, ce qui se fait assez facilement. Ensuite,
on remplit une matrice P avec des colonnes propres. Par exemple, avec
 
1 1 1 ... ... 1 1
 
−1 0 0 ... ... 0 1
 
 .. .. 
0
 −1 0 . . 
 . .. .. 
.. .. ..
P1 =  .. . . . . .
 
 .. .. .. 
 
.. .. ..
 .
 . . . . . 
 . .. .. .. 
 .. . . 0 .
 
0 ... ... ... 0 −1 1

et D1 = diag(0, 0, . . . , 0, n), on a

J = P1 D1 P1−1

ou alors (et il y a bien d’autre choix possibles) avec

 
1 1 0 ... ... ... 0
 
1
 −1 1 0 ... ... 0 

. .. ..
 ..

 0 −1 . .

. .. ..
.. .. ..

P2 =  .. . . . . .
 

 .. ..
 
.. .. .. 
.
 . . . . 0
. .. .. .. 
 .. . . . 1
 
1 0 ... ... ... 0 −1
et D2 = diag(n, 0, . . . , 0, 0), on a

J = P2 D2 P2−1

Exercice 5 (Une diagonalisation). Diagonaliser la matrice suivante :


 
α β ... β

.. .
. .. 
 
β α
 
. .
 .. . . . . . β

 
β ... β α

7
(c’est-à-dire trouver une matrice diagonale semblable, la matrice de pas-
sage et son inverse) (voir fichier Maple page suivante).
On peut faire le calcul directement, mais il est judicieux d’écrire cette
matrice comme combinaison linéaire de deux matrices intéressantes.

On a
A = βJ + (α − β)In

avec J une matrice pleine de 1. On est ramené à diagonaliser J, ce qui est


fait dans l’exercice précédent. On obtient, si J = P DP −1 ,

A = P (βD + (α − β)In )P −1

ce qui diagonalise bien.

O restart;with(LinearAlgebra):
O f:=proc(i,j) if i=j then a else b fi end;
f := proc i, j if i = j then a else b end if end proc (1)
O A:=Matrix(6,6,f);
a b b b b b
b a b b b b
b b a b b b
A := (2)
b b b a b b
b b b b a b
b b b b b a
O s:=[Eigenvectors(A)];
aKb K1 K1 K1 K1 K1 1
aKb 0 0 0 0 1 1
aKb 0 0 0 1 0 1
s := , (3)
aKb 0 0 1 0 0 1
aKb 0 1 0 0 0 1
aC5 b 1 0 0 0 0 1
Attention ! pour Maple, a+5b et a-b sont différents. C'est à l'utilisateur d'examiner
le cas où ils seraient égaux. C'est d'ailleurs assez simple.
O P:=op(2,s);
K1 K1 K1 K1 K1 1
0 0 0 0 1 1
0 0 0 1 0 1
P := (4)
0 0 1 0 0 1
0 1 0 0 0 1
1 0 0 0 0 1
O P**(-1).A.P;
aKb 0 0 0 0 0
0 aKb 0 0 0 0
0 0 aKb 0 0 0
(5)
0 0 0 aKb 0 0
0 0 0 0 aKb 0
0 0 0 0 0 aC5 b
O

8
Exercice 6 (diagonalisabilité des matrices compagnes, classique à
l’oral et à l’écrit). Classique car ces matrices interviennent dans certains
problèmes : voir la démonstration du théorème de Cayley-Hamilton, les
suites récurrentes. . .
Soit  
a1 a2 ... ... an
 
1 0 ... ... 0
 

.. .. .. 
A=0 . . .
 
 .. .. 
 
.. .. ..
.
 . . . .
0 ... 0 1 0
(a) Calculer le polynôme caractéristique de A.
(b) Montrer que, pour tout scalaire λ, rg(A − λIn ) ≥ n − 1. En déduire
que A est diagonalisable si et seulement si P est scindé simple.
(c) Retrouver le résultat des questions précédentes en résolvant le sys-
tème
AX = λX

et en cherchant les λ pour lesquels il admet une solution X non nulle.


On voit que le calcul du polynôme caractéristique n’est pas toujours la
meilleure méthode de calcul des valeurs propres.
On remarquera que cet exercice répond affirmativement à la question
« Tout polynôme unitaire est-il le polynôme caractéristique d’une certaine
matrice ? ».

(a) Pour calculer le polynôme caractéristique, un développement par rap-


port à la première ligne est un peu épineux (efficace, mais il faut écrire
les mineurs avec beaucoup de soin). Les autres développements (par
rapport à la dernière ligne, ou par rapport à la première ou dernière
colonne) marchent, il faut simplement faire une récurrence, mais ce
n’est pas gênant car les cas n = 1, n = 2, n = 3 sont intéressants et
permettent d’être sûr de la formule. L’astuce consiste en l’opération

Cn ←− Cn + XCn−1 + X 2 Cn−2 + · · · + X n−1 C1

puis développement par rapport à le dernière colonne. On trouve dans


tous les cas
PA = X n − a1 X n−1 − . . . − an

9
(on vérifie que la trace et le déterminant sont là où il faut !).
(b) Les n − 1 premières colonnes de A − λIn sont linéairement indé-
pendantes. Par théorème du rang, tout sous-espace propre est de
dimension ≤ 1, donc de dimension 1. Et donc la somme des dimen-
sions des sous-espaces propres vaut n si et seulement s’il y en a n,
i.e. si et seulement si PA est scindé simple. La condition suffisante se
transforme ici en condition nécessaire et suffisante.
(c) La résolution du système mène au fait qu’il n’a pas de solution non
nulle lorsque λn − a1 λn−1 − . . . − an 6= 0. Et lorsque λn − a1 λn−1 −
. . . − an = 0, il y a une droite vectorielle de solutions, engendrée par
le vecteur  
λn−1
 . 
 . 
 . 
 
 λ 
 
1
On retrouve ainsi les résultats précédents.

 
0 1 1
 
Exercice 7. Soit A = 1 1 . Eléments propres ? diagonalisa-
0
1 0 1
bilité ? Calcul de An ?

Deux remarques préliminaires : on n’a pas forcément intérêt à calculer


directement par la méthode de Sarrus le polynôme caractéristique d’une
matrice 3 × 3 : on risque de se retrouver avec un polynôme de degré 3
que l’on ne saura pas forcément factoriser. Il y a souvent dans les matrices
posées à l’oral des matrices dont la somme des coefficients de chaque ligne
(ou chaque colonne) est la même. Ce qui donne rapidement une valeur
propre. Par exemple, ici, on voit que 2 est valeur propre, et (1, 1, 1) est
vecteur propre associé. Les deux autre valeurs propres (complexes, a priori,
sauf si on sait que les matrices symétriques réelles sont diagonalisables et
si on a eu la bonne idée de remarquer que la matrice ici est bien symétrique
réelle) ont pour somme 0 (grâce à la trace) et comme produit −1 (grâce

10
au déterminant), ce sont donc 1 et −1. Ce qui permet de diagonaliser sans
trop de problème.
Si A = P DP −1 , on a An = P Dn P −1 .
On peut aussi diviser X n par le polynôme minimal de A :

X n = (X − 1)(X + 1)(X − 2)Q + αn X 2 + βn X + γn

On calcule les trois coefficients αn , βn , γn grâce aux valeurs en 1, −1, 2,


puis on applique à A :

An = αn A2 + βn A + γn I3

11
Exercice 8 (Réduction simultanée). (a) Soit u, v deux endomorphismes
d’un espace vectoriel de dimension finie, diagonalisables. Démontrer
que u et v commutent si et seulement si ils sont diagonalisables dans
une même base, c’est-à-dire si et seulement s’il existe une base for-
mée de vecteurs propres à la fois pour u et pour v (on pourra utiliser
la stabilité des sous-espaces propres de u par v ou réciproquement).
Enoncer ce résultat en termes de matrices.

(b) Suite plus loin. . .

Si u et v sont diagonalisables dans une même base, soit B une telle base.
Deux matrices diagonales commutent, donc

MB (v ◦ u) = MB (v)MB (u) = MB (u)MB (v) = MB (u ◦ v)

ce qui permet bien de conclure u ◦ v = v ◦ u.


Supposons, réciproquement, u ◦ v = v ◦ u. Notons Sp(u) = {λ1 , . . . , λp }
(les λi étant deux à deux distincts), et, pour tout i entre 1 et p,
Ei (u) = ker(u − λi Id). Comme u est diagonalisable,
p
M
E= Ei
i=1

(on note E l’espace vectoriel sur lequel sont définis u et v). Les Ei sont
stables par v (car v commute avec les u − λi Id). Donc v induit sur chaque
Ei un endomorphisme vi qui est, d’après le cours, diagonalisable. Soit Bi
une base de Ei formée de vecteurs propres de vi , donc de vecteurs propres
de v. En « réunissant » les bases B1 ,. . ., Bp , on obtient une base de E
Mp
(adaptée à E = Ei ) formée de vecteurs propres pour u et pour v.
i=1
Donc u et v sont simultanément diagonalisables.
En termes de matrices : soit A, B deux matrices diagonalisables ; AB =
BA si et seulement s’il existe P ∈ GLn (K) et D, ∆ diagonales telles que
A = P DP −1 et B = P ∆P −1

12
Exercice 9 (Trigonalisation simultanée). Dans cette question, le corps
de base est C. On suppose que u et v commutent, mais on ne les suppose
plus diagonalisables. Démontrer qu’ils ont au moins un vecteur propre
commun (on pourra utiliser la stabilité des sous-espaces propres de u par
v ou réciproquement). Utiliser ce résultat pour démontrer que u et v sont
simultanément trigonalisables.

Le corps de base étant algébriquement clos, Sp(u) 6= ∅. Soit λ ∈ Sp(u). v


laisse stable Ker(u − λId), car v et u − λId commutent. Et donc v induit
sur Ker(u − λId) un endomorphisme vλ . Cet endomorphisme admet un
vecteur propre (car le corps de base est algébriquement clos). Or un vecteur
propre de vλ est un vecteur propre de v qui est dans Ker(u − λId), et donc
est aussi vecteur propre pour u.
Montrons par récurrence la propriété Pn : « si A et B sont deux
matrices de Mn (C) qui commutent, alors il existe P inversibles et T , T 0
triangulaires supérieures telles que A = P T P −1 et B = P T 0 P −1 ».
Pour n = 1, c’est bien clair.
Montrons que Pn ⇒ Pn+1 ; soit A et B deux matrices de Mn+1 (C) qui
commutent. Les endomorphismes u et v de Cn+1 canoniquement associés
à A et B commutent, donc d’après ce qui précède ont un vecteur propre
commun. Dans une base commençant par ce vecteur propre, leurs matrices
respectives sont de la forme
   
λ ∗ ... ∗ µ ∗ ... ∗
   
0  0 
0
A = . et B 0 =  .
   
 ..  ..
 
 A00 
  B 00 

0 0

A0 et B 0 commutent, donc, par produit par blocs, A00 et B 00 commutent. On


peut leur appliquer Pn , il existe donc P ∈ GLn (C) et T 00 , U 00 triangulaires
supérieures telles que

P −1 A00 P = T 00 , P −1 B 00 P = U 00

13
 
1 0 ... 0
 
0 
Soit alors Q =  .  ∈ GLn+1 (C) ; un produit par blocs
 
 .. P 
 
0
montre que Q−1 A0 Q et Q−1 B 0 Q sont triangulaires supérieures.

Supplément à la diagonalisation simultanée : Soit (ui )i∈I une famille


d’endomorphismes diagonalisables qui commutent deux à deux. Démon-
trer qu’il existe une base dans laquelle les matrices de tous ces endomor-
phismes sont diagonales (on pourra commencer par une famille finie).

Montrons par récurrence Pn : « si u1 , . . . , un sont n endomorphismes diagonali-


sables qui commutent deux à deux, il existe une base dans laquelle les matrices
de tous ces endomorphismes sont diagonales ».
P2 a été démontrée.
Montrons Pn ⇒ Pn+1 . Soit donc u1 , . . . , un+1 n + 1 endomorphismes dia-
gonalisables qui commutent deux à deux. Soit Eλ un sous-espace propre de
un+1 ; Eλ est stable par u1 , . . . , un , qui induisent sur Eλ des endomorphismes
uλ,1 , . . . , uλ,n . Ces endomorphismes commutent car ils sont induits par des en-
domorphismes qui commutent. Par Pn , il existe une base de Eλ formée de vec-
teur propres communs à uλ,1 , . . . , uλ,n , donc de vecteurs propres communs à
u1 , . . . , un . Ces vecteurs sont aussi vecteurs propres de un+1 , puisqu’ils sont
M
dans Eλ . Or E = Eλ ; en « réunissant » des bases des Eλ comme
λ∈Sp(un+1 )
celle qu’on vient de construire, on obtient une base de E formée de vecteur
propres commmuns à u1 , . . . , un+1 . D’où Pn+1 . Pour une famille (ui )i∈I quel-
conque d’endomorphismes diagonalisables qui commutent, on commence par
remarquer que si on considère une sous-famille finie (uj )j∈J , où J est une partie
finie de I, ses éléments sont simultanément diagonalisables (d’après ce qui vient
d’être fait). Donc toute combinaison linéaire des ui est diagonalisable. Donc
tous les éléments de Vect(ui )i∈I sont diagonalisables. Or ils commutent entre
eux (facile). Mais cet espace est de dimension finie (comme sev de L(E)), on

14
peut en prendre une base et lui appliquer le cas « fini », ce qui conclut : tous les
éléments de Vect(ui )i∈I sont simultanément diagonalisables.

Exercice 10 (Une trigonalisation simultanée (oral Mines)).


Soit (A, B) ∈ Mn (C)2 telles que AB = 0. Montrer qu’il existe une matrice
P ∈ GLn (C) telle que P −1 AP et P −1 BP soient triangulaires supérieures.

Il y a ici une méthode : une trigonalisation simultanée se traite comme la tri-


gonalisation simultanée. Pourtant ici, l’hypothèse essentielle (commutation) est
absente. La question est : comment s’en passer pour obtenir quand même un
vecteur propre commun ? Il est peut-être plus clair de s’intéresser aux endomor-
phismes canoniquement associés. On a u ◦ v = Θ, et on aimerait un vecteur
propre commun à u et v. C’est-à-dire un x non nul tel que

u(x) = λx , v(x) = µx

Mais alors, appliquant u à la deuxième égalité : µu(x) = 0E . Donc µ = 0 ou


u(x) = 0. Donc µ = 0 ou λ = 0, ce qui indique qu’il va falloir prendre x dans
un des noyaux. Si Sp(v) 6= {0}, soit x un vecteur propre de v associé à une
valeur propre non nulle µ. On déduit alors de u(v(x)) = 0E que µu(x) = 0E ,
donc u(x) = 0E , donc c’est gagné : on a un vecteur propre commun. Reste le
cas où Sp(v) = {0}. Remarquons alors que Im(v) ⊂ Ker(u). Tout élément non
nul de Im(v) sera vecteur propre de u. S’il en existe, bien sûr. Mais v = Θ est
un cas pas intéressant (car il n’y a qu’à trigonaliser A). Supposons v 6= Θ. Le
sous-espace Im(v) est non réduit à {0E } et est stable par v, l’endomorphisme
induit a donc au moins un vecteur propre (on est sur C), qui est alors vecteur
propre de u. Finalement, ce n’était pas la peine de considérer le premier cas.
La suite est une récurrence avec calcul par blocs comme dans la trigonalisation
simultanée.

15
 
1 −1 −1
 
Exercice 11. A = 
−1 1  ∈ M3 (R).
−1
−1 −1 1
1. Déterminer l’idéal annulateur de A et la dimension de R[A].

Il revient au même de déterminer l’idéal annulateur de A et son poly-


nôme minimal, générateur de cet idéal. On pourrait partir du polynôme
caractéristique, et chercher parmi ses diviseurs (vu le théorème de Cayley-
Hamilton) : compliqué.
Plus astucieux : si on sait que les matrices symétriques réelles sont diago-
nalisables, on sait que le polynôme minimal est scindé à racines simples,
il n’y a plus qu’à déterminer les valeurs propres de A, qui sont les racines
de ce polynôme.
On peut aussi se dire qu’il est utile de savoir se débrouiller avec la matrice
J dont tous les coefficients sont égaux à 1, qui intervient dans de nombreux
exercices. En dimension 3, elle vérifie J 2 = 3J. Or A = 2I3 − J. Donc

(2I3 − A)2 = 3(2I3 − A)

ce qui donne
A2 − A − 2I3 = 0

Le polynôme X 2 − X − 2 annule A ; s’il n’était pas minimal, il y aurait


un polynôme annulateur de A de degré 1, A serait une homothétie, ce qui
n’est pas le cas.
Autre méthode : calculer A2 , et s’apercevoir d’une relation entre A2 , A et
I3 .
L’idéal annulateur est donc l’ensemble des multiples de X 2 − X − 2.

2. Trouver deux suites réelles (an ) et (bn ) telles que pour tout n,
An = an I + bn A.

• commençons par une méthode assez naturelle :

16
(a0 , b0 ) = (1, 0), (a1 , b1 ) = (0, 1) conviennent pour n = 0 et n = 1. Et, si
An = an I + bn A,

An+1 = an A + bn (A + 2I) = 2bn I + (an + bn )A



Par récurrence, la suite (an , bn ) n≥0
définie par (a0 , b0 ) = (1, 0) et, pour
tout n ∈ N,
(an+1 , bn+1 ) = (2bn , an + bn )

convient. Il y a évidemment unicité car la famille (I, A) est libre (sinon le


polynôme minimal serait de degré 1). On peut exprimer les an et les bn :
en écrivant     
a 0 2 a
 n+1  =    n
bn+1 1 1 bn
 
0 2
et en diagonalisant la matrice   ou en écrivant
1 1

bn+1 = an + bn = 2bn−1 + bn

ce qui donne une relation de récurrence linéaire dont l’équation caracté-


ristique est (pas si surprenant si on y réfléchit un peu)

r2 − r − 2 = 0

d’où ∀n ∈ N bn = (−1)n α + 2n β, on calcule α et β à l’aide de n = 0 et


n = 1, puis on a an = 2bn−1 (si n ≥ 1).
• Autre méthode : diagonaliser A.
• probablement la meilleure méthode (mais elle n’est pas forcément la
première à laquelle on pense, cela vaut la peine de bien la comprendre) :
on divise X n par le polynôme minimal X 2 − X − 2 = (X + 1)(X − 2) :

X n = (X + 1)(X − 2)Q + αn X + βn (1)

Appliqué à A ((X + 1)(X − 2)Q étant dans l’idéal annulateur) :

An = αn A + βn

Pour calculer αn et βn , il est naturel de donner à la variable les valeurs


−1 et 2 dans l’identité entre fonctions polynômes déduite de (1) :

2n = 2αn + βn (−1)n = −αn + βn

17
d’où, très facilement, αn et βn .

3. Commutant de A ?

Compte tenu de ce qui a déjà été vu, on peut utiliser le fait que A est
diagonalisable, de valeurs propres 2 (double) et -1 (simple). Inutile pour
cela de calculer le polynôme caractéristique, il est de notoriété publique
que J a pour valeurs propres 0 (double, J étant de rang 1) et 3 (simple).
Une base de vecteurs propres ? il suffit de nouveau de chercher les vecteur
propres de J : (1, 1, 1) est vecteur propre de J, associé à la valeur propre
3, donc vecteur propre de A associé à la valeur propre −1. (1, −1, 0) et
(1, 0, −1) sont vecteur propres pour J associés à la valeur propre 0, donc
 
1 1 1
 
pour A associés à la valeur propre 2. En définissant P =  1 −1 0 

1 0 −1
 
−1 0 0
  −1
et D =   0 2 0 on a A = P DP . De plus,

0 0 2

AM = M A ⇔ P DP −1 M = M P DP −1 ⇔ D(P −1 M P ) = (P −1 M P )D

Une matrice qui commute avec D laisse ses sous-espaces propres stables
(c’est plus clair lorsqu’on énonce cela en termes d’endomorphismes, en
considérant les endomorphismes canoniquement associés), et donc est du
type  
a 0 0
 
0 b c
 
0 d e
Mais réciproquement, un produit par blocs montre qu’une telle matrice
commute avec D (que l’on aura intérêt à écrire par blocs en utilisant le
bloc 2I2 ). Les matrices qui commutent avec A sont donc les
 
a 0 0
  −1
P 0
 b P
c
0 d e

18
ou encore (en multipliant les paramètres par 3, pour chasser les dénomi-
nateurs) les matrices
 
a+b+c+d+e a − 2b − 2d + c + e a + b + d − 2c − 2e
 

 a−b−c a + 2b − c a − b + 2c 

a−d−e a + 2d − e a − d + 2e

(avec Maple, c’est plus agréable. . .)

Exercice 12. Soit A et B dans Mn (C). On suppose qu’il existe C ∈ Mn (C)


tel que AC = CB, C non nulle.
1. Montrer que ∀k ∈ N Ak C = CB k .
2. Montrer que pour tout P ∈ C[X], P (A)C = CP (B). En général à l’oral,
cette question serait posée directement, sans l’intermédiaire de la question
précédente.
3. Montrer que A et B ont au moins une valeur propre commune.

Récurrence pour la première question, combinaison linéaire pour la deuxième.


On en déduit que si P est par exemple le polynôme minimal de A,

CP (B) = (0)

Ceci n’implique surtout pas que P (B) = 0, mais que P (B) 6∈ GLn (C). Or on
scinde P (on est sur C, c’est important) :
d
Y
P = (X − αi )
i=1

(les αi ne sont donc pas supposés distincts : rien n’oblige A à être diagonalisable).
Les αi sont les valeurs propres de A. Alors
d
Y
(B − αi In ) 6∈ GLn (C)
i=1

Mais alors au moins un des B − αi In n’est pas inversible, ce qui conclut.

19
Exercice 13. Soit u diagonalisable, λ une valeur propre de u, pλ la projection
sur le sous-espace propre de u associé à λ parallèlement à la somme des autres
sous-espaces propres. Montrer que pλ est un polynôme de u (on pourra raisonner
matriciellement).

Dans une base adaptée à la décomposition de l’espace en somme directe des


sous-espaces propres, on aura
 
λ1 Im1
 

 λ2 Im2 

..
 
A = MB (u) =  .
 

 
 .. 

 . 

λp Imp

et  
Im1
  

 0 

..
 
B = MB (p) =  .
 

 
 .. 

 . 

0
où p est la projection sur le sep Eλ1 (u) parallèlement à la somme des autres.
Soit L1 le polynôme qui vaut 1 en λ1 , 0 en λk pour k = 1, 2, . . . , p (Lagrange. . .).
On a B = L1 (A) et donc p = L1 (u).

Exercice 14. 1. Soit u un endomorphisme d’un espace vectoriel complexe


de dimension finie. Démontrer qu’il existe au moins une droite stable par
u.

u a au moins une valeur propre, donc au moins un vecteur propre. Or x


est un vecteur propre pour u si et seulement si Vect(x) est stable par u.

20
2. Soit u un endomorphisme d’un espace vectoriel réel de dimen-
sion finie. On veut démontrer qu’il existe au moins une droite
ou un plan stable par u. Pour cela, on considère Q un diviseur
irréductible de µ, polynôme minimal de u.

(a) Montrer que Ker Q(u) est différent de {0E }.

On écrit µ = QQ1 ; on a Q(u) ◦ Q1 (u) = Θ. Si Q(u) ∈ GL(E), alors


Q1 (u) = Θ, donc Q1 annule u. Ce qui contredit la minimalité de µ.

Donc Q(u) 6∈ GL(E), donc Ker Q(u) 6= {0E }.

 
(b) Soit x non nul dans Ker Q(u) ; vérifier que Vect x, u(x) est
stable par u (on pourra distinguer deux cas, suivant le degré
de Q). Conclure.


Si Q = X − α, dire que x ∈ Ker Q(u) équivaut à dire

u(x) = αx

Dans ce cas, Vect x, u(x) = Vect(x) est stable par u, et c’est une
droite.

Si Q = X 2 + αX + β (avec α2 − 4β < 0), dire que x ∈ Ker Q(u)
équivaut à dire
u2 (x) = −αu(x) − βx

et alors Vect x, u(x) est un plan stable par u.
Comme un polynôme réel irréductible est de degré 1 ou 2, qu’il n’est
pas restrictif de supposer unitaire, on conclut.

21
3. Soit A une matrice de Mn (R). On suppose que α + iβ est une
valeur propre complexe non réelle de A, et que X1 + iX2 est
un vecteur propre associé (α et β sont des réels, X1 et X2 des
matrices colonnes réelles, que l’on identifiera à des éléments de
Rn ). Montrer que Vect(X1 , X2 ) est stable par A, et retrouver le
résultat de l’exercice précédent.

On a A(X1 + iX2 ) = (α + iβ)(X1 + iX2 ), donc AX1 − αX1 + βX2 =


i(−AX2 + βX1 + αX2 ). Une colonne dont les coefficients sont à la fois
réels et imaginaires purs est nulle. Donc

AX1 = αX1 − βX2 , AX2 = βX1 + αX2

ce qui montre bien que Vect(X1 , X2 ), qui est une droite ou un plan, est
stable par A.

22
Exercice 15 (Réduction par blocs). Soit A, B deux matrices carrées d’ordre p
et q respectivement. On définit par blocs la matrice
 
A 0
M =  
0 B

1. Démontrer que M est diagonalisable si et seulement si A et B le sont.

Méthode polynomiale : On démontre par récurrence, en utilisant le


produit par blocs, que
 
Ak 0
∀k ∈ N Mk =  
0 Bk

et, par combinaison linéaire de ces égalités, pour tout polynôme P :


 
P (A) 0
P (M ) =  
0 P (B)

Si M est diagonalisable, il existe P scindé à racines simples tel que P (M ) =


0. Alors P (A) = P (B) = 0, donc A et B sont diagonalisables.
Réciproquement, si A et B sont diagonalisables, il existe Q1 et Q2 scindés
à racines simples tels que Q1 (A) = 0 et Q2 (B) = 0 (remarque : on note
toujours 0 la matrice nulle, quel que soit son format, ce qui est un peu
abusif !). Soit P = ppcm(Q1 , Q2 ). P est scindé simple (on peut écrire Q1 =
d d
Y Y 0
(X − ai )mi et Q2 = (X − ai )mi avec mi et m0i dans {0, 1}, et alors
i=1 i=1
d
Y 0
P = (X − ai )max(mi ,mi ) )), et P (M ) = 0, donc M est diagonalisable.
i=1
On peut aussi raisonner par équivalences, en utilisant le polynôme mini-
mal : on sait que

P (M ) = 0 ⇔ P (A) = P (B) = 0

et donc, si IM (resp. IA , IB ) désigne l’idéal des polynômes annulateurs


de M (resp. de A, de B), IM = IA ∩ IB , donc, notant µM le polynôme

23
annulateur de M (resp.. . .), µM = ppcm(µA , µB ). Et donc

M diagonalisable ⇔ µM scindé simple


⇔ µA et µB scindés simples
⇔ A et B diagonalisables

Méthode « vectorielle » Notons u l’endomorphisme de Kp+q canoni-


quement associé à M . Si (1 , . . . , p+q ) est la base canonique de Kp+q , alors
F = Vect(1 , . . . , p ) et G = Vect(p+1 , . . . , p+q ) sont stables par u, et si
on note uF et uG les endomorphismes induits par u sur ces sous-espaces,
alors A = M(1 ,...,p ) (uF ) et B = M(p+1 ,...,p+q ) (uG ). D’après le cours, si
u est diagonalisable, uF et uG le sont, donc A et B le sont. Réciproque-
ment, si A et B sont diagonalisables, uF et uG le sont, il existe donc une
base de F formée de vecteurs propres de uF (donc de u) et une base de G
formée de vecteurs propres de uG (donc de u) ; en « recollant » ces deux
bases, on obtient une base de Kp+q formée de vecteurs propres de u, donc
u est diagonalisable, donc M l’est.
Autre méthode On peut calculer le polynôme caratéristique χM de M :
χM = χA χB , donc Sp(M ) = Sp(A) ∪ Sp(B). Puis, pour tout λ ∈ Sp(M ),
on essaye de trouver le sous-espace propre associé en résolvant M X = λX.

  par blocs de M suggère d’écrire, pour tout X ∈ Mp+q,1 (K),


La structure
X1
X =   où X1 ∈ Mp,1 (K) et X2 ∈ Mq,1 (K), et alors
X2

 AX1 = λX1
M X = λX ⇔
 BX = λX
2 2

Pour résoudre, on distingue trois cas, λ ∈ Sp(A) et λ 6∈ Sp(B), λ ∈ Sp(B)


et λ 6∈ Sp(A), λ ∈ Sp(A) ∩ Sp(B). On y arrive (en appliquant la carac-
térisation de la diagonalisabilité qui utilise la somme des dimensions des
sous-espaces propres), mais c’est plus long que les méthodes précédentes.
Autre idée Si A et B sont diagonalisables, on a A = P DP −1 et B =
Q∆Q−1 (notations
 habituelles
 : P et Q inversibles, ∆ et D 
diagonales). 
La
P (0) P −1 (0)
matrice R =   est inversible, d’inverse R−1 =  ,
(0) Q (0) Q−1
et, en effectuant un produit par blocs, on trouve que R−1 M R est diago-
nale. Donc M est diagonalisable. Cette idée ne marche pas très bien pour
la réciproque.

24
2. Démontrer que M est trigonalisable si et seulement si A et B le
sont.

Ici, les méthodes polynomiale et vectorielle fonctionnent, mais il est beau-


coup plus rapide de dire que χM est scindé si et seulement si χA et χB le
sont (car χM = χA χB ).

3. Soit C une matrice à p lignes et q colonnes. On définit


 
A C
N =  
0 B
On suppose que A et B sont diagonalisables et n’ont aucune
valeur propre commune. Démontrer que N est diagonalisable, et
est semblable à M .

On a χN = χA χB , donc Sp(N ) = Sp(A) ∪ Sp(B). Soit λ ∈ Sp(N ), on cherche le

 propre associé en résolvant N X = λX. On écrit, si X ∈ Mp+q,1 (K),


sous-espace
X1
X =   où X1 ∈ Mp,1 (K) et X2 ∈ Mq,1 (K), et alors
X2

 AX1 + CX2 = λX1
N X = λX ⇔
 BX2 = λX2
Premier cas : λ ∈ Sp(A) et, donc, λ 6∈ Sp(B). Alors :

 AX1 = λX1
N X = λX ⇔
 X = (0)
2

Donc, notant Eλ (N ) le sous-espace propre de N associé à λ,


 
n X o
1
Eλ (N ) =   ; X1 ∈ Eλ (A)
(0)

25
 
X1
L’application X1 7→   est donc un isomorphisme de Eλ (A) sur Eλ (N ), ces
(0)
deux sous-espaces ont donc même dimension.
Deuxième cas : λ ∈ Sp(B) et, donc, λ 6∈ Sp(A)

 BX2 = λX2
N X = λX ⇔
 X = (A − λI )−1 CX
1 n 2

Donc,  
n (A − λI )−1 CX o
n 2
Eλ (N ) =   ; X2 ∈ Eλ (B)
X2
 
−1
(A − λIn ) CX2
L’application X2 7→   est donc un isomorphisme de Eλ (B)
X2
sur Eλ (N ), ces deux sous-espaces ont donc même dimension.
Finalement,
X  X  X 
dim Eλ (N ) = dim Eλ (A) + dim Eλ (B) = p + q
λ∈Sp(N ) λ∈Sp(A) λ∈Sp(B)

d’où la diagonalisabilité de N . Elle a les mêmes valeurs propres que M , avec


les même multiplicités. Comme M et N sont diagonalisables (M est « une N
particulière » : avec C = 0), elles sont donc semblables à une même matrice dia-
gonale (mêmes coefficients diagonaux, même nombre d’apparitions), elles sont
semblables.

Exercice 16 (Ni une diagonalisation, ni une trigonalisation).


Soit A ∈ M2 (R) n’ayant pas de valeur propre réelle. Montrer qu’il existe deux
réels α et β tels que A soit semblable à la matrice
 
α −β
 
β α

On considère une valeur propre complexe α + iβ (avec bien sûr α et β réels),


X1 +iX2 un vecteur propre associé, X1 et X2 étant des colonnes réelles. Alors en
identifiant (il n’est pas dur de voir qu’on a le droit) parties réelles et imaginaires,
on obtient
AX1 = αX1 − βX2 , AX2 = βX1 + αX2

26
ce qui donne à peu près ce qu’on veut, à condition de voir que (X1 , X2 ) est libre.
Si X2 est nulle, X1 qui ne l’est pas est vecteur propre associé à la valeur propre
α, à rejeter. Si X1 = tX2 avec t réel, on obtient que

AX2 = (tβ + α)X2

là encore contraire à l’hypothèse.

Exercice 17. Soit A une matrice diagonalisable ; montrer que, pour tout p
entier naturel, Ap est diagonalisable.
Réciproquement, soit p ≥ 2 et A ∈ GLn (C) tels que Ap soit diagonalisable. Dé-
montrer que A est diagonalisable. Donner un exemple montrant que ce résultat
est en général faux si on ne suppose pas la matrice inversible. Donner aussi un
exemple montrant que le résultat est faux sur R.
Si Ap est diagonale, A est-elle diagonale ?
Montrer enfin que A est diagonalisable si et seulement si Ap l’est et Ker(Ap ) =
Ker(A).

De A = P DP −1 on tire Ap = P Dp P −1 , ce qui résout la première question.


La seconde se résout en utilisant un argument polynomial : si Ap est diagonali-
sable, elle admet un polynôme annulateur scindé simple P . Mais P (X p ) annule
alors A. Est-il scindé simple ? pour le voir, on écrit
r
Y
P (X) = (X − ai )
i=1

où les ai sont deux à deux distincts. A quoi sert l’hypothèse d’inversibilité de


A ? à pouvoir supposer les ai non nuls (on peut par exemple choisir pour P
le polynôme minimal de Ap , cette matrice n’ayant pas 0 pour valeur propre).
Chaque ai a exactement p racines p-ièmes distinctes : αi,1 , . . . , αi,p . On a alors
p
r r
!
Y Y Y
p p
P (X ) = (X − ai ) = (X − αi,k )
i=1 i=1 k=1

qui est scindé simple (deux nombres complexes qui n’ont pas la même puissance
p-ième ne peuvent pas être égaux). Et donc A est diagonalisable.

27
 
0 1
La considération de A =   avec p = 2 montre que la réciproque est
0 0
 
0 −1
fausse. Comme toujours sur R, la matrice R =   est utile : R2 est
1 0
diagonalisable (diagonale, même) et pourtant R ne l’est pas. Et par la même
occasion on voit que la réponse à la dernière question est négative.

Si A est diagonalisable, Ap l’est, elles sont semblables à des matrices diagonales


(D et Dp ) qui ont le même nombre de coefficients nuls sur la diagonale, donc
leurs noyaux sont de même dimension, or Ker(A) ⊂ Ker(Ap ). . .Supposons réci-
proquement que Ap soit diagonalisable, et que Ker(A) = Ker(Ap ). On suppose
ce noyau non nul, sinon le travail a déjà été fait. Et on écrit
r
Y
P (X) = X (X − ai )
i=1

le polynôme minimal de Ap , avec les ai deux à deux distincts, non nuls. Avec
les notations ci-dessus, le polynôme
p
r
!
Y Y
p
X (X − αi,k )
i=1 k=1

annule A, donc, par théorème des noyaux,


p
r
!
M M
n p
K = Ker(A ) ⊕ Ker(A − αi,k In )
i=1 k=1

Mais en remplaçant Ker(Ap ) par Ker(A), on obtient que Kn est somme de


sous-espaces propres de A (dans la somme directe, il y a peut-être des espaces
réduits à {0Kn }, mais ce n’est pas grave, ils ne comptent pas). Donc A est
diagonalisable.


Exercice 18. Soit A ∈ Mn K, et soit ΦA ∈ L Mn (K) définie par

ΦA (M ) = AM

Montrer que ΦA est diagonalisable si et seulement si A l’est.

28
Par récurrence on vérifie

∀k ∈ N ΦkA : M 7→ Ak M

Et, par combinaison linéaire de ces résultats :

∀P ∈ K[X] P (ΦA ) : M 7→ P (A)M

Donc P (ΦA ) = ΘMn (K) ⇔ ∀M ∈ Mn (K) P (A)M = (0) ⇔ P (A) = (0) Les
polynômes annulateurs de ΦA et ceux de A sont donc les mêmes. On en déduit
que ΦA est diagonalisable si et seulement si A l’est (car ΦA admet un polynôme
annulateur scindé simple si et seulement si A admet un polynôme scindé simple).
Accessoirement, les valeurs propres de A et de ΦA sont les mêmes.

Exercice 19 (Oral ccp). Soit E un R-espace vectoriel de dimension finie


n ≥ 1 ; soit u ∈ L(E) tel que u3 = u.
1. Montrer que u est diagonalisable.
2. Décrire les sous-espaces de E stables par u.

u admet un polynôme annulateur scindé à racines simples. Les sous-espaces


stables sont ceux qui sont engendrés pas une famille de vecteurs propres, mais
cette deuxième question est un peu troublante, il n’y a pas vraiment de réponse
précise à donner.

Exercice 20. Démontrer que toute matrice vérifiant A2 = A est diagonalisable.

X 2 − X = X(X − 1) est scindé à racines simples.

Exercice 21 (Oral CCP, Mines, écrit X, ens. . .).


Pas difficile, mais à savoir !
Soit G un sous-groupe fini de GLn (C). Démontrer que tous les éléments de G
sont diagonalisables.

29
Tout élément est d’ordre fini, donc admet un polynôme annulateur de la forme
X d − 1. Or sur C un tel polynôme est scindé à racines simples.

Exercice 22 (Matrices de permutation).


Si σ ∈ Sn , on définit la matrice Pσ ∈ Mn (C) par

(Pσ )i,j = 1 si i = σ(j) , 0 sinon

Montrer que P est diagonalisable.


Lien avec l’exercice précédent ?

Le plus simple est, notant uσ l’endomorphisme de Cn canoniquement associé à


Pσ , de remarquer que
ukσ (ei ) = eσk (i)

si (e1 , . . . , en ) est la base canonique de Cn . Il existe donc p tel que upσ = Id,
ce qui montre qu’il y a un polynôme annulateur de la forme X p − 1, scindé à
racines simples car on est sur C.

Exercice 23 (Oral Centrale). Soit f un endomorphisme d’un espace vectoriel


de dimension 3, vérifiant f 3 = f 2 et dim(ker(f − Id)) = 1. Montrer qu’il existe
 
1 0 0
 
une base dans laquelle la matrice de f est 0 0 α où α ∈ {0, 1}.
0 0 0

X 3 − X 2 = X 2 (X − 1)

n’est certes pas scindé à racines simples, mais ce polynôme annulateur donne
déjà beaucoup d’indications. On peut utiliser le théorème des noyaux, tenant
compte du fait que
X 2 ∧ (X − 1) = 1
et on obtient
M
E = Ker(f − Id) Ker(f 2 )

Le premier sous-espace est de dimension 1 d’après l’énoncé, le second de di-


mension 2. Il peut être égal à Ker(f ), dans ce cas une base adaptée donne la
forme voulue avec α = 0. Si en revanche on a une inclusion stricte de Ker(f )
dans Ker(f 2 ), on peut prendre e dans Ker(f 2 ) \ Ker(f ). Alors f (e) ∈ Ker(f ).
Et (f (e), e) est libre. On rajoute un élément de Ker(f − Id) devant, on obtient
ce qu’on veut avec α = 1.

Exercice 24 (Oral ens). Soit E un R-espace vectoriel de dimension finie n et


p ∈ L(E).

1. Montrer que si p2 = p ou p3 = p alors p est diagonalisable.

Les polynômes X 2 − X = X(X − 1) et X 3 − X = X(X − 1)(X + 1)


sont scindés à racines simples, il suffit donc d’utiliser la cns du cours.

2. Si p4 = p, l’endomorphisme p est-il diagonalisable ?

Le polynôme X 4 − X = X(X − 1)(X 2 + X + 1) n’est pas scindé sur R. Si


le polynôme minimal de p est X, X − 1 ou X(X − 1), p est diagonalisable.
Mais sinon, X 2 − X + 1 est un facteur de ce polynôme minimal, qui n’est
pas scindé, donc p n’est pas diagonalisable. Remarquons d’ailleurs qu’ici,
p ne peut pas être trigonalisable sans être diagonalisable.

31
3. On suppose n = 3. Trouver une partie finie S de M3 (R) de cardinal
minimal telle que, pour tout endomorphisme p tel que p4 = p, on peut
trouver A ∈ S telle que A soit la matrice de p dans une certaine base de
E.

Le polynôme minimal de p divise X 4 − X, est de degré ≤ 3 (théorème


de Cayley-Hamilton) et a au moins une racine réelle (on est en dimension
impaire). Ce peut être X, X − 1, X(X − 1), X(X 2 + X + 1),
(X − 1)(X 2 + X + 1).

(a) Si le polynôme minimal est X. Alors la matrice de p dans n’importe


quelle base de E est (0) (matrice nulle à trois lignes et trois colonnes).

(b) Si le polynôme minimal est X − 1. Alors la matrice de p dans n’im-


porte quelle base de E est I3 .

(c) Si le polynôme minimal est X(X − 1). Alors p est diagonalisable et


a deux valeurs propres : 0 et 1. L’une est simple, l’autre
 double.
 Il
0 0 0
 
existe donc une base dans laquelle la matrice de p est 
0 0 0 ou
0 0 1
 
0 0 0
 
0 1 0.
 
0 0 1
(d) Si le polynôme minimal est X(X 2 + X + 1). Le lemme de décompo-
sition des noyaux dit alors

E = Ker(p) ⊕ Ker(p2 + p + Id)

Ker(p2 + p + Id) est stable par p, et est de dimension paire (car p


induit sur ce noyau un endomorphisme annulé par X 2 +X +1 qui n’a
pas de racine réelle, donc l’endomorphisme induit n’a pas de valeur
propre, ce qui ne peut se produire sur un R-espace vectoriel que
lorsque la dimension est paire). Il n’est pas réduit à {0E } (sinon on
aurait p = Θ, le polynôme minimal serait X), il est donc de dimension
2, et par voie de conséquence Ker(p) est de dimension 1. Si e1 est un
vecteur non nul de Ker(p2 + p + Id), alors p(e1 ) = e2 est aussi dans

32
ce noyau, et (e1 , e2 ) est libre (il n’y a pas de valeur propre, donc pas
de vecteur propre dans ce noyau, donc e1 n’est pas vecteur propre).
Enfin,
p(e2 ) = p2 (e1 ) = (−p − Id)(e1 ) = −e2 − e1

Complétons (e1 , e2 ) en une base de E en lui adjoignant un vecteur


e3 dans Ker(p). Dans la base (e1 , e2 , e3 ), la matrice de p est
 
0 −1 0
 
1 −1 0
 
0 0 0

(e) Si le polynôme minimal est (X − 1)(X 2 + X + 1) ; même étude, en


remplaçant Ker(p) par Ker(p − Id). On aboutit à une base dans
 
0 −1 0
 
laquelle la matrice de p est 
1 −1 0
0 0 1
Finalement, les cas s’excluant mutuellement, on a trouvé un ensemble S
minimal de 6 matrices. Un tel ensemble n’est bien entendu pas unique.

Exercice 25 (Oral Centrale). Soit A une matrice carrée complexe d’ordre n.


On suppose que son polynôme minimal est
p
Y
mA = (X − λk )mk
k=1
 
A I
Déterminer le polynôme minimal de la matrice construite par blocs :  
O A
(O désigne un bloc carré nul, I un bloc carré unité).

On commence
 par un produit par blocs et une récurrence
 pour voir  que si
k k−1
A I A kA
B =   alors pour tout naturel k ≥ 1, B k =  . Puis,
O A O Ak
 
P (A) P 0 (A)
par combinaison linéaire, P (B) =  . Donc P annule B si et
O P (A)
seulement si P et P 0 annulent A, donc si et seulement si mA divise P et P 0 ,

33
donc si et seulement si chaque λk est racine de multiplicité au moins mk + 1 de
P . Finalement
p
Y
mB = (X − λk )1+mk
k=1

Exercice 26. Soit A une matrice carrée d’ordre n. A quelle condition la matrice
définie par blocs  
A A
M = 
0 A

est-elle diagonalisable ?

Soit P un polynôme ; on montre (en commençant, par récurrence, par les X k ,


puis pas combinaison linéaire) que
 
0
P (A) AP (A)
P (M ) =  
0 P (A)

Si M est diagonalisable, il existe P scindé simple tel que P (M ) = 0, donc


P (A) = 0 (A est donc diagonalisable) et AP 0 (A) = 0. Le polynôme minimal de
A divise donc P et XP 0 . Il divise donc P ∧ XP 0 . Or, si P est scindé simple,
P ∧ P 0 = 1. Donc P ∧ XP 0 = P ∧ X. Donc le polynôme minimal de A divise X,
c’est donc X. Donc A = 0, la réciproque est claire.

Exercice 27. Soit A une matrice carrée d’ordre n. A quelle condition la matrice
définie par blocs  
0 In
 
A 0

est-elle diagonalisable ?

34
Méthode 1 : polynômes
Soit  
0 In
M = 
A 0
On calcule, par blocs :  
A 0
M2 =  
0 A

Donc, si M est diagonalisable, M 2 l’est, donc A l’est (voir exercice sur la « ré-
duction par blocs »). Réciproquement, si A est diagonalisable, M 2 l’est (voir le
même exercice). Et il existe donc un polynôme scindé à racines simples tel que
P (M 2 ) = (0). Le polynôme P (X 2 ) annule alors M . Est-il scindé simple ? on
peut écrire
d
Y
P (X 2 ) = (X 2 − µi )
i=1
où les µi sont deux-à-deux distincts. Supposons dorénavant que le corps de base
est C. Si les µi sont non nuls, chaque (X 2 − µi ) se factorise en

X 2 − µi = (X − αi )(X + αi )

où ±αi sont les racines carrées de µi . On voit alors que P (X 2 ) est scindé simple.
Conclusion partielle : Si K = C est si A est diagonalisable inversible, M est
diagonalisable.
(en effet, on peut alors supposer tous les µi non nuls ; si un µi est nul, on
peut enlever le terme X correspondant du polynôme annulateur P , car M 2 est
inversible).
Et si A est diagonalisable mais non inversible ? On résout alors M X = 0 et
M 2 X = 0 en écrivant par blocs
 
X1
X= 
X2

(X1 et X2 étant deux colonnes de même « hauteur »). On voit que les dimensions
des noyaux de M et de M 2 sont différentes. Or si M est diagonalisable, elle est
semblable à une matrice D diagonale, M 2 est semblable à D2 , il y a autant de
coefficients non nuls sur la diagonale de D que sur celle de D2 , donc les noyaux
de M et de M 2 ont même dimension. Finalement,

35
Si K = C, M est diagonalisable si et seulement si A est diagonalisable et
inversible
Méthode 2
L’avantage de cette deuxième méthode est de ne pas faire d’hypothèse sur le
corps de base !
On résout M X = λX par blocs :

     
0 In X1 X X = λX1
    = λ  1  ⇐⇒ 2

A 0 X2 X2 AX1 = λX2

X = λX1
2
⇐⇒
AX1 = λ2 X1

On voit que λ est valeur propre de M si et seulement si λ2 est valeur propre de


A, et les dimensions des sous-espaces propres sont les mêmes (l’application
 
X1
X1 7→  
λX1

est un isomorphisme de Eλ2 (A) dans Eλ (M )). En utilisant la caractérisation de


la diagonalisabilité par la somme des dimensions des sous-espaces propres, on
en déduit

M est diagonalisable si et seulement si A l’est et toutes les valeurs propres de


A ont deux racines carrées distinctes.
Pour K = C, on retrouve le résultat précédent (heureusement !). Pour K = R
par exemple, M est diagonalisable si et seulement si A l’est et Sp(A) ⊂ R+
∗.

Exercice 28 (Résultats classiques sur les endomorphismes nilpotents).


Soit K un corps commutatif, E un K − ev de dimension finie n, u un endomor-
phisme nilpotent de E.

1. Démontrer que u est trigonalisable.

Le polynôme scindé X p (p est un entier naturel non nul) annule u.

36
2. Déterminer le polynôme caractéristique de u.

Le polynôme caractéristique de u est scindé (car u est trigonalisable). La


seule valeur propre possible pour u est 0 (seule racine de X p ). Il n’y a
qu’un polynôme scindé unitaire de degré n qui a comme seule racine 0 :
c’est X n .
Il y a beaucoup de manières différentes d’arriver à ce résultat. On peut par
exemple prendre une base dans laquelle la matrice de u est triangulaire
supérieure, il n’y a que des 0 sur la diagonale, le polynôme caractéristique
de u se calcule facilement. . .

3. En utilisant le théorème de Cayley-Hamilton, démontrer que l’indice de


nilpotence de u est au plus égal à n.

Le polynôme caractéristique est X n ; le polynôme minimal est donc X p


pour un certain p ≤ n (le théorème de Cayley-Hamilton dit que le po-
lynôme minimal divise le polynôme caractéristique). On a alors up = Θ
(X p annule u) et up−1 6= Θ (X p−1 n’annule pas u). Donc p est l’indice de
nilpotence de u.

4. Retrouver le résultat de la question précédente sans utiliser le théorème de


Cayley-Hamilton, à l’aide de l’exercice classique sur les « noyaux itérés ».

On a (voir exercice sur les noyaux itérés) :

Ker(u0 ) Ker(u1 ) ··· Ker(up−1 ) Ker(up ) = E


 
La suite finie dim Ker uk est donc une suite strictement crois-
0≤k≤p
sante d’entiers naturels, ce qui implique facilement, pour tout k entre 0 et
p, dim Ker uk ≥ k (récurrence « finie »). Et, partant, n ≤ p.


5. Démontrer que, sur C, une matrice est nilpotente si et seulement


si 0 est son unique valeur propre. Est-ce encore vrai sur R ?

37
Si une matrice est nilpotente, sa seule valeur propre est 0, quel que soit le corps.
Réciproquement, si la seule valeur propre est 0, comme on est sur C, le polynôme
minimal est scindé, il est donc de la forme X p . Donc la matrice est nilpotente.
En revanche, sur R, la matrice
 
0 0 0
 
0
 0 −1

0 1 0

(construite à partir d’un bloc 2 × 2 de matrice de rotation d’angle π/2) a pour


seule valeur propre 0, et pourtant n’est pas nilpotente (mais bien sûr, elle a des
valeurs propres complexes non nulles).

38
Exercice 29 (Calculs sur les matrices nilpotentes, oral).
Soit N une matrice carrée d’ordre n nilpotente (c’est-à-dire ayant une puissance
nulle).

1. Démontrer que N n est nulle.

2. Démontrer que In − N et In + N sont inversibles, et calculer leurs inverses


en fonction de N .

3. On écrit le développement limité de 1 + x au voisinage de 0 :

1 + x = Pn (x)+ o (xn )
x→0

où Pn est un polynôme de degré n qu’il n’est pas nécessaire d’expliciter


En utilisant les opérations sur les développements limités, montrer que le
polynôme 1 + x − Pn (x)2 est divisible par xn+1 ; déterminer alors, à l’aide
de Pn et de n, une matrice M dont le carré soit égal à In + N .

4. Peut-on trouver par la même méthode une racine p-ième (matricielle, bien
entendu) de In + N (p ≥ 3) ?

1 : noyaux emboîtés ou Cayley-Hamilton.


2 : une formule bien importante :

In − N n = (In − N )(In + · · · + Inn−1 )

et on peut remplacer N par −N , on obtient le résultat.


3 : on a
1 + x = Pn (x)2 + o (xn )
x→0
2 n
Donc 1 + x − Pn (x) est o (x ). Mais c’est un polynôme, et un polynôme est
x→0
négligeable devant xn si et seulement si son terme de plus bas degré est de degré
≥ n + 1. Donc
1 + x − Pn (x)2 = xn+1 Q(x)

et en remplaçant par N :
Pn (N )2 = In + N

4. Même chose en considérant le développement limité de (1 + x)1/p .

39
 
1 0 0
 
Exercice 30 (Oral Centrale ). Soit A = 0
 0 1.
0 −1 2
1. La matrice A est-elle diagonalisable ?
 
1 0 0
 
2. Montrer que A est semblable à 0 1

.
1
0 0 1
3. Calculer An pour n ∈ N.

Vu la suite, on serait étonné que A fût diagonalisable. Et effectivement, son


polynôme caractéristique vaut (X − 1)3 , elle a une seule valeur propre, si elle
était diagonalisable elle serait diagonale. Remarquons alors que, par blocs, on
n’a qu’à s’occuper de réduire
 
0 1
B= 
−1 2

dont le polynôme caractéristique est (X −1)2 . Pas besoin de faire compliqué : on


cherche un vecteur propre : u = (1, 1) convient (toujours. . .). Puis on sait, si φ
est l’endomorphisme canoniquement associé à B, si v est un vecteur indépendant
de u, que  
1 a
M(u,v) (φ) =  
0 1

(à cause de la trace). Mais a 6= 0 (B n’est pas diagonalisable), donc en rempla-


1
çant v par v, on aura une base convenable.
a
Pour le calcul de An , deux méthodes : calculer une matrice de passage de A à
la matrice réduite, par exemple
 
1 0 0
 
P = 0
 1 0 

0 1 1/2

(sauf erreur de ma part). La puissance n-ème de la matrice réduite est


 
1 0 0
 
0 1 n
 
0 0 1

40
et il suffit de calculer P −1 et de faire un produit matriciel. Sinon, remarquer
que (X − 1)2 annule A. Or

X n = (X − 1)2 Q(X) + n(X − 1) + 1

(Taylor) et donc An = n(A − I3 ) + I3 , plus rapide et élégant.

Exercice 31. Réduire les matrices A ∈ M5 (K) telles que A3 = 0 et rg(A) = 3.

On constate que, X 3 étant scindé, la matrice est trigonalisable, semblable à une


matrice triangulaire supérieur stricte.
Le problème est de trouver une matrice semblable à A et la plus simple pos-
sible. Soit u l’endomorphisme canoniquement associé à A (il n’est pas nécessaire
d’introduire u : on peut tout faire avec A, cela demande seulement un peu plus
de précautions dans la rédaction). Classiquement (noyaux emboîtés, à refaire si
on a ce genre d’exercice à l’oral car ce n’est pas « du cours »), on a

Ker(u0 ) = {0E } Ker(u) Ker(u2 ) Ker(u3 ) = K5

Ceci bien sûr, à condition de vérifier que A2 6= 0. Ce qui n’est pas le plus
difficile : si A2 = 0, alors ImA ⊂ KerA, ce qui est incompatible, pour des raisons
de dimension, avec l’hypothèse rg(A) = 3.

Comme dim (Ker u) = 2, la dimension de Ker(u2 ) peut donc a priori être égale
à 3 ou 4. On va examiner ces deux éventualités.

• Supposons dim Ker(u2 ) = 3. Soit F un supplémentaire de Ker(u2 ) dans K5 ;
il est de dimension 2. Si (e, f ) est une base de F , u(e) et u(f ) sont dans Ker(u2 )
(comme tout vecteur d’ailleurs) mais pas dans Ker(u) (car e et f ne sont pas
dans Ker(u2 )). Et ils forment une famille libre : si au(e) + bu(f ) = 0Kn , on a
u(ae + bf ) = 0K5 , donc ae + bf ∈ Ker(u). Mais F ∩ Ker(u) ⊂ F ∩ Ker(u2 ) =
{0K5 }. Donc ae + bf = 0K5 . Et donc a = b = 0. On a donc une famille libre à
deux éléments, qui engendre un sev de Ker(u2 ) en somme directe avec Ker(u).
On aurait donc 2 + 2 ≤ 3. Ce cas ne peut pas se produire. On a montré

41
plus généralement, dans l’exercice sur les noyaux emboîtés, que l’écart entre les
dimensions de deux noyaux successifs était décroissant.

• Supposons dim Ker(u2 ) = 4. Si e 6∈ Ker(u2 ), u(e) ∈ Ker(u2 ) \ Ker u,
soit f dans K5 tel que (f, u(e)) soit une base d’un supplémentaire de Ker u
dans Ker(u2 ) (possible pour des raisons de dimension). Alors on vérifie que
u(f ), u2 (e) est une base de Ker u. On vérifie aussi que u(f ), f, u2 (e), u(e), e
 

est une base de K5 (former une combinaison linéaire nulle, prendre l’image par
u2 , puis par u). Dans cette base, la matrice de u est
 
0 1 0 0 0
 
0 0 0 0 0
 
 
0 0 0 1 0
 
 
0 0 0 0 1
 
0 0 0 0 0

Il y a d’autres matrices aussi « valables » ; ici, le choix de l’ordre des vecteurs


de la base est du type réduction de Jordan.

Exercice 32. Soit A ∈ Mn (C) ayant n valeurs propres de modules 2 à 2


Tr(Ak+1 )
distincts. Montrer que la suite de terme général converge, déterminer
Tr(Ak )
sa limite (en fonction des valeurs propres de A). Trouver une hypothèse plus
générale sous laquelle ce résultat reste vrai.

On appelle λ1 , . . . , λn avec |λ1 < . . . < |λn | les valeurs propres. Alors

Tr(Ak+1 ) λk+1 + · · · + λk+1


n
k
= 1 k
Tr(A ) λ1 + · · · + λkn

Alors  k+1  k+1


λ1 λn−1
+ ··· + +1
Tr(Ak+1 ) λn λn
= λn
Tr(Ak )
 k  k
λ1 λn−1
+ ··· + +1
λn λn
La limite est donc la valeur propre de plus grand module. Résultat subsiste
s’il n’y a qu’une valeur propre de module maximal, pouvant d’ailleurs être de
multiplicité quelconque.

42
La deuxième suite est bien définie, car Ak est toujours inversible. On décompose
X sur une base de vecteurs propres (E1 , . . . , En ) associés respectivement aux
valeurs propres λ1 , . . . , λn . Alors, si X = x1 E1 + · · · + xn En , Ak X = x1 λk1 E1 +
· · · + xn λkn En . Supposons xn 6= 0. On met λkn xn en facteur. On obtient
 k
1 k
 xn λn 1
A X = (En + Vk )
kAk Xk |xn | |λn | kEn + Vk k
où Vk −−−−−→ (0). Il y a donc convergence vers un vecteur propre associé à λn .
k→+∞
Dans le cas général, il y ade même convergence vers un vecteur propre asocié à
λp où p = max({k ; xk 6= 0}).

Exercice 33 (Densité de GLn (K)).


Avec la compacité de On (R), c’est le grand classique de la topologie matricielle.
Classique car très utile, voir exercice suivant par exemple.  
1
En considérant par exemple, pour toute matrice A, la suite de matrices A − In
p p≥1
démontrer que GLn (K) est dense dans Mn (K) (K = R ou K = C).
Cette question est « presque du cours » : il faut connaître le résultat et la
méthode, qui est quand même un petit peu astucieuse.

Exercice 34 (Densité de GLn (K), deux applications).


Les questions 2. et 3. sont indépendantes, et utilisent la question 1.
1. Démontrer que GLn (K) est dense dans Mn (K) (K = R ou K = C).
2. (Oral Mines) Démontrer que, si A et B sont deux matrices à coefficients
réels ou complexes, alors

com(AB) = com(A) com(B)

(on commencera par envisager le cas où les deux matrices sont inversibles).
3. Soit A et B deux éléments de Mn (K). On veut démontrer que AB et BA
ont même polynôme caractéristique. Dans un premier temps, on suppose
que K = R ou K = C.
(a) Démontrer alors que le résultat cherché est vrai si l’une des deux
matrices est inversible, puis traiter le cas général en utilisant un ar-
gument de continuité et densité.
(b) Autre méthode : On définit deux matrices par blocs, pour tout λ :
   
A λIn B −λIn
  et  
In 0 −In A

Calculer le produit de ces deux matrices, dans les deux sens. Calculer
le déterminant du produit, conclure.
Cette méthode est plus astucieuse, mais quel est son intérêt ?

Exercice 35 (Une continuité classique).


Soit K = R ou C. On fixe n ≥ 1. Montrer que l’application

A 7−→ PA

(PA désignant le polynôme caractéristique de A) est continue sur Mn (K). On


pourra commencer par préciser un peu l’énoncé, qui sous cette forme est un peu
vague (pourquoi ?).

Exercice 36.
Lorsqu’à l’oral la comatrice figure dans un énoncé, si cet énoncé précise que
le corps de base est R ou C, on aura intérêt à envisager les considérations
suivantes : GLn (K) est dense dans Mn (K) (à savoir démontrer, ce n’est pas du
cours), et sur GLn (K) la comatrice s’exprime en fonction de l’inverse par une
formule célèbre. Cette méthode a déjà été utilisée dans un exercice précédent.

Soit A une matrice carrée. Déterminer le coefficient du terme de degré 1 du


polynôme caractéristique de A à l’aide des coefficients de la comatrice de A.

44
O restart;with(LinearAlgebra):
O A:=Matrix(3,3,symbol=a);
a1, 1 a1, 2 a1, 3

A := a2, 1 a2, 2 a2, 3 (1)


a3, 1 a3, 2 a3, 3

O CA:=Determinant(A)*Transpose(MatrixInverse(A));
a2, 2 a3, 3 K a2, 3 a3, 2 Ka2, 1 a3, 3 C a3, 1 a2, 3 a2, 1 a3, 2 K a3, 1 a2, 2

CA := a3, 2 a1, 3 K a1, 2 a3, 3 a1, 1 a3, 3 K a3, 1 a1, 3 Ka1, 1 a3, 2 C a3, 1 a1, 2 (2)
a1, 2 a2, 3 K a2, 2 a1, 3 Ka1, 1 a2, 3 C a2, 1 a1, 3 a1, 1 a2, 2 K a2, 1 a1, 2

O CharacteristicPolynomial(A,x);
x3 K a3, 3 C a2, 2 C a1, 1 x2 K a3, 1 a1, 3 C a2, 3 a3, 2 K a2, 2 a3, 3 K a1, 1 a3, 3 K a1, 1 a2, 2 (3)
C a2, 1 a1, 2 x K a1, 1 a2, 2 a3, 3 C a1, 1 a2, 3 a3, 2 K a2, 1 a3, 2 a1, 3 C a2, 1 a1, 2 a3, 3
K a3, 1 a1, 2 a2, 3 C a3, 1 a2, 2 a1, 3

Exercice 37 (Autre densité : autre résultat classique).

En « perturbant » par exemple les coefficients diagonaux, démontrer que l’en-


semble des matrices triangulaires diagonalisables est dense dans l’ensemble des
matrices triangulaires (K = R ou K = C). En déduire que l’ensemble des
matrices diagonalisables est dense dans Mn (C).

Exercice 38 (Adhérence de l’ensemble des matrices diagonalisables


réelles).

1. Soit P un polynôme unitaire de degré n dans R[X]. Démontrer que P est


scindé si et seulement si, pour tout nombre complexe z, on a
n
P (z) ≥ Im(z) .

2. Démontrer que l’adhérence dans Mn (R) de l’ensemble des matrices dia-


gonalisables (sur R) est l’ensemble des matrices trigonalisables (sur R).

Exercice 39. Soit A une matrice de rang ≥ r dans Mp (K) (K =R ou C).


Montrer qu’il existe des parties I et J de [1, p], de cardinal r, telle que la matrice
extraite (ai,j )(i,j)∈I×J soit inversible. En déduire que l’ensemble des matrices
de rang ≥ r est ouvert dans Mp (K). Que peut-on dire (topologiquement) de
l’ensemble des matrices de rang ≤ r ? de l’ensemble des matrices de rang r ?
Démontrons la propriété suivante : l’ensemble R des matrices de rang supérieur
ou égal à r est une partie ouverte de Mn (K), K désignant R ou C.
On supposera bien entendu 0 ≤ r ≤ n. Si r = 0, pas de problème (R est l’espace
Mn (K) tout entier). Si r = n, R est GLn (K), ouvert comme image réciproque
de l’ouvert K \ {0} par l’application det.
On doit montrer que R est voisinage de chacun de ses points.
a. Cas de la matrice canonique de rang r :
On commence par une matrice très simple de R :
 
Ir (0)
Jr =  
(0) (0)

notons que l’application A 7→ Ar , où Ar = (ai,j )1≤i,j≤r (Ar est le coin supérieur


gauche r × r de A) est continue (c’est presque évident, et elle est linéaire en
dimension finie). Par composition, l’application φ : A 7→ det(Ar ) est continue.
L’image réciproque O par φ de K\{0} est un ouvert contenant Jr , car φ(Jr ) = 1.
Mais O ⊂ R (en effet, si A ∈ O, Ar est inversible. Il ne peut donc pas y
avoir de relation de dépendance linéaire entre les r premières colonnes de A,
car une telle relation donnerait une relation de dépendance linéaire (avec les
mêmes coefficients) entre les colonnes de Ar , qui sont les premières colonnes de
A tronquées. Donc A est au moins de rang r). Finalement, R est voisinage de
Jr .
Tout cela est assez technique ; il faut comprendre l’idée de départ : si une matrice
est “proche” de Jr , son coin r × r en haut à gauche est proche de Ir , donc
inversible, donc la matrice est au moins de rang r.
b. « Transport » des résultats du a. vers une matrice quelconque de
rang r :
Soit maintenant une matrice A de rang r. Il existe P , Q inversibles telles que
A = P Jr Q. L’isomorphisme ψ : M 7→ P −1 M Q−1 est continu car linéaire
en dimension finie, et conserve le rang. L’image réciproque de O par ψ est un
ouvert (car O est ouvert) contenant A (ψ(A) = Jr ∈ O) et inclus dans R
(ψ −1 : M 7→ P M Q conserve le rang). Donc R est un voisinage de A.
c. Cas des matrices de rang > r
Le même raisonnement que ci-dessus montre que, si A est de rang p > r, l’en-
semble des matrices de rang supérieur ou égal à p est un voisinage de A, donc
R aussi car il le contient.

46
On a raisonné sur des matrices carrées, mais si elles sont rectangulaires ça
marche aussi bien.

Exercice 40 (Commutant d’une matrice ou d’un endomorphisme).


La recherche d’un commutant est un sujet intéressant. Elle peut être préalable
à la résolution d’une équation matricielle (voir méthode dans le cours)

1. Cas des endomorphismes diagonalisables


Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Le
commutant de f est Cf = {g ∈ L(E) ; g ◦ f = f ◦ g}. C’est un sous-espace
vectoriel de L(E).

(a) Trouver les matrices qui commutent avec une matrice carrée diago-
nale à coefficients distincts.

(b) Si f est diagonalisable, déterminer la dimension de Cf en fonction des


dimensions des sous-espaces propres de f (on pourra remarquer qu’un
endomorphisme qui commute avec f laisse stables les sous-espaces
propres de f , et éventuellement poser le problème matriciellement).

(c) Si f admet n valeurs propres distinctes, démontrer que Cf = K[f ].

2. Cas général
On « rappelle » (ou plutôt on admet, voir exercice précédent) que, si F
est un espace vectoriel de dimension finie, si 0 ≤ p ≤ dim(F ), l’ensemble
des endomorphismes de F de rang supérieur ou égal à p est un ouvert de
L(F ).

(a) Soit E un espace vectoriel de dimension n, f un endomorphisme de



E. On note Φf l’élément suivant de L L(E) :

Φf : g 7→ g ◦ f − f ◦ g

Démontrer que l’application f 7→ Φf est continue.

(b) Soit E un espace vectoriel de dimension n, f un endomorphisme de


E. Exprimer dim(Cf ) en fonction de rg(Φf ).

(c) Soit E un espace vectoriel de dimension n, f un endomorphisme de


E. Déduire du 1. que, si f est diagonalisable, dim(Cf ) ≥ n.

47
(d) Soit E un C-espace vectoriel de dimension n, f un endomorphisme
de E. Déduire de tout ce qui précède que dim(Cf ) ≥ n.

1. Cas des endomorphismes diagonalisables


Soit E un espace vectoriel de dimension n, f un endomorphisme
de E. Le commutant de f est Cf , ensemble des endomorphismes
de E qui commutent avec f . C’est un sous-espace vectoriel de
L(E).

(a) Trouver les matrices qui commutent avec une matrice carrée
diagonale à coefficients distincts.

Soit D une matrice diagonale de Mn (K) à coefficients diagonaux


distincts (on les notera di plutôt que di,i ). Soit A ∈ Mn (K). Alors

AD = DA ⇔ ∀(i, j) ∈ {1, . . . , n}2 (AD)i,j = (DA)i,j


⇔ ∀(i, j) ∈ {1, . . . , n}2 ai,j dj = di ai,j

On obtient donc assez facilement (en distinguant ci-dessus les cas


i = j et i 6= j) :

AD = DA ⇔ (A diagonale)

(b) Si f est diagonalisable, déterminer la dimension de Cf en


fonction des dimensions des sous-espaces propres de f (on
pourra remarquer qu’un endomorphisme qui commute avec
f laisse stables les sous-espaces propres de f , et éventuelle-
ment poser le problème matriciellement).

Soit f diagonalisable, λ1 , . . . , λp ses valeurs propres (distinctes) ; pour


chaque i, on note Ei le sous-espace propre Ei = Ker(f − λi Id), et
ni la dimension de Ei (qui est aussi la multiplicité de λi , f étant
diagonalisable).
Si g ∈ Cf , g commute avec f , donc avec f − λi Id, donc g laisse stable
Ei (cours).

48
Mais la réciproque est vraie : supposons que g laisse stable chaque

Ei ; si x ∈ Ek , (f ◦ g)(x) = f g(x) = λk g(x) (car g(x) ∈ Ek ) ; et
(g ◦ f )(x) = g(λk x) = λk g(x). g ◦ f et f ◦ g coïncident sur chaque Ek ,
M p
or Ek = E (car f est diagonalisable), donc f ◦ g = g ◦ f .
k=1
On a montré :
Si f est diagonalisable, les endomorphismes qui commutent
avec f sont les endomorphismes qui laissent stables les sous-
espaces propres de f
Maintenant, il reste à utiliser ceci pour calculer la dimension de Cf .
Une première méthode (matricielle) : Soit B une base adaptée
à la décomposition E = E1 ⊕ E2 ⊕ . . . ⊕ Ep (les n1 premiers vecteurs
de B sont une base de E1 , les n2 suivants une base de E2 , etc. . .). On
vient de voir que g était dans Cf si et seulement si g laissait stables
tous les Ek , donc si et seulement si la matrice de g dans la base B
était diagonale par blocs de la forme :
 
A1
 

 A2 

 .. 

 . 

Ap

où chaque Ak est carrée d’ordre nk . Or l’espace F des matrices de


cette forme est de dimension n21 + . . . + n2p
[on peut en donner une base, ou dire que l’application qui à (A1 , . . . , Ap )
associe la matrice construite ci-dessus est un isomorphisme de
Mn1 (K) × . . . × Mnp (K) dans F , or la dimension de
p
X
Mn1 (K) × . . . × Mnp (K) est n2k ].
k=1
Comme l’application g 7→ MB (g) est un isomorphisme de L(E) dans
Mn (K) (et donc préserve la dimension), on conclut :
p
X
dim(Cf ) = n2k
k=1

Une deuxième méthode : Soit G le sous-espace de L(E) consti-


tué des endomorphismes qui laissent stables les Ek ; l’application de
G dans L(E1 ) × . . . × L(Ep ) qui à g ∈ G associe (g1 , . . . , gp ), où gk

49
désigne l’endomorphisme induit par g sur Ek , est un isomorphisme
(la linéarité est simple, il suffit de l’écrire. La bijectivité est un corol-
laire du résultat sur « la définition d’une application linéaire par ses
restrictions aux facteurs d’une somme directe supplémentaire »). Or
p p
 X X
dim L(E1 ) × . . . × L(Ep ) = dim(L(Ek )) = n2k , ce qui donne
k=1 k=1
la conclusion.

(c) Si f admet n valeurs propres distinctes, démontrer que Cf =


K[f ].

Un polynôme de f commute avec f . Donc K[f ] ⊂ Cf . Mais le po-


lynôme minimal de f a pour degré n (car il a n racines et ne peut
être de degré > n). Donc dim(K[f ]) = n. Or, par ce qui précède, si f
est diagonalisable à valeurs propres distinctes, dim(Cf ) = n. Ce qui
conclut

2. Cas général
On « rappelle » (ou plutôt on admet) que, si F est un espace
vectoriel de dimension finie, si 0 ≤ p ≤ dim(F ), l’ensemble des
endomorphismes de F de rang supérieur ou égal à p est un ouvert
de L(F ).

(a) Soit E un espace vectoriel de dimension n, f un endomor-



phisme de E. On note Φf l’élément suivant de L L(E) :

Φf : g 7→ g ◦ f − f ◦ g

Démontrer que l’application f 7→ Φf est continue.

Elle est linéaire, et L(E) est de dimension finie car E l’est.

(b) Soit E un espace vectoriel de dimension n, f un endomor-


phisme de E. Exprimer dim(Cf ) en fonction de rg(Φf ).

50
Comme Cf = Ker(Φf ), on peut appliquer le théorème du rang pour
obtenir
dim(Cf ) = n2 − rg(Φf )

(c) Soit E un espace vectoriel de dimension n, f un endomor-


phisme de E. Déduire du 1. que, si f est diagonalisable,
dim(Cf ) ≥ n.

Avec les notations de 1.,


Xp Xp
dim(Cf ) = n2k ≥ nk = n (cette dernière égalité étant assurée
k=1 k=1
par le fait que f est diagonalisable).

(d) Soit E un C-espace vectoriel de dimension n, f un endomor-


phisme de E. Déduire de tout ce qui précède que dim(Cf ) ≥ n

dim(Cf ) ≥ n est équivalent à rg(Φf ) ≤ n2 − n ; mais

{f ∈ L(E) ; rg(Φf ) ≤ n2 − n}

est l’image réciproque par Φf , continue, de l’ensemble des endomor-


phismes de L(E) (i.e. l’ensemble des éléments de L(L(E))) de rang
inférieur ou égal à n2 − n, fermé comme complémentaire de ceux de
rang supérieur ou égal à n2 −n+1. C’est donc un fermé. Il contient les
endomorphismes diagonalisables, qui sont denses dans L(E) (autre
exercice classique), donc c’est L(E) tout entier.

Exercice 41 (Centrale, une utilisation de la compacité).


Soit A une matrice de Mn (Z) diagonalisable sur C, dont toutes les valeurs
propres sont de module 1. Démontrer qu’il existe m ∈ N telle que Am = I (on
pourra commencer par démontrer que l’on peut extraire de la suite (An )n une
suite convergente).
Le résultat de cet exercice, malgré un énoncé purement algébrique, est très dif-
ficile à obtenir sans outils topologiques.

51
On écrit A = P DP −1 avec D diagonale, P inversible. On en déduit facilement
que la suite (Ak ) est bornée. On est en dimension finie, on peut donc en ex-
traire une suite convergente (Aφ(k) ). Mais une suite convergente dans Mn (Z)
est stationnaire, il existe donc k tel que

Aφ(k+1) = Aφ(k)

or A est inversible, le résultat s’ensuit.

Exercice 42. Soit A une matrice carrée réelle ou complexe. Exprimer le déter-
minant de l’exponentielle de A à l’aide de la trace de A. On pourra trigonaliser
sur C.

Exercice 43. Soit A une matrice de Mn (R).


En utilisant le polynôme caractéristique de A, déterminer :
det(In + αA) − 1
lim .
α→0 α
Sachant que
1 k
exp(A) = lim In + A
k→+∞ k
retrouver le résultat de l’exercice précédent.

Exercice 44 (Exercice « fondamental »).


On ne s’en sert pas si souvent, mais c’est un résultat important
Soit (An ) une suite de matrices à coefficients réels ou complexes. Démontrer
que (An ) converge si et seulement si, pour toute matrice colonne X, (An X)
converge.

 
0 0 1/2
n
 
Exercice 45 (CCP). Soit A = 
1 0 . lim (A ) = ?
1/2
n→+∞
0 1 0
Exercice 46. Soit A une matrice carrée. On suppose que la suite (An ) converge,
soit B sa limite. Montrer que B est une matrice de projecteur.

La suite (A2n ) converge à la fois vers B et vers B 2 .

Exercice 47. Soit u un endomorphisme d’un C-espace de dimension finie E.

1. Démontrer que la suite (un ) converge vers 0 si et seulement si, pour tout

élément x de E, la suite un (x) converge vers 0E .

2. Démontrer que, si la suite (un ) converge vers 0, toutes les valeurs propres
de u sont de module strictement inférieur à 1.

3. On suppose, réciproquement, que toutes les valeurs propres de u sont de


module strictement inférieur à 1. Soit λ une valeur propre de u d’ordre de
multiplicité mλ , soit x un élément de ker(u − λIdE )mλ . Démontrer que la

suite un (x) converge vers 0E . On pourra pour cela écrire le reste de la
division de X n par (X − λ)mλ .

4. Quel résultat en déduit-on ?

Exercice 48 (Oral X,ens. . .). Si A ∈ Mn (C), on note

S(A) = {P AP −1 ; P ∈ GLn (C)} .

Montrer que A est nilpotente si et seulement si la matrice nulle est dans l’adhé-
rence de S(A).
[Indication Si A = M(e1 ,...,en ) (u), comment s’écrit M(e1 ,λe2 ,...,λn−1 en ) (u) où
λ 6= 0 ?]
Exercice 49 (Une caractérisation des matrices diagonalisables com-
plexes, et des considérations sur le rayon spectral, à partir du produit
par une matrice diagonale simple).
Les questions 1 et 2 donnent des idées pour rendre moins artificielle l’introduc-
tion de la matrice Dt de la question 3. Mais ces deux premières questions ne
sont pas utilisées dans la suite.
1. On veut montrer que, pour tout p ∈ N∗ , la matrice
 
λ µ
A= 
0 λ
est semblable à la matrice
 µ
λ
Bp =  p
0 λ
Pour cela, on considère u ∈ L(K2 ) canoniquement associé à A. Si C =
(e1 , e2 ) est la base canonique de K2 , on a MC (u) = A. Trouver une base
Cp de K2 telle que MCp (u) = Bp (on cherchera à ne changer qu’un des
deux vecteurs de C pour obtenir Cp ).
2. Montrer de même que les matrices
 µ ν
λ
 
λ µ ν  p p2 
 
 0 λ ξ  et

0 ξ 
λ 
p
   

0 0 λ 0 0 λ
sont semblables. Généraliser à la dimension quelconque.
3. Soit T une matrice triangulaire supérieure carrée à n lignes et n colonnes
(réelle ou complexe), et soit Dt la matrice diagonale dont les coefficients
diagonaux sont (dans l’ordre en partant du coefficient en première ligne
et première colonne) 1, t, t2 , . . . , tn−1 (t réel, t > 0). Calculer Dt T Dt−1 .
4. Application à une caractérisation topologique de la diagonalisa-
bilité pour une matrice complexe
Dans cette partie, si A est une matrice carrée complexe, on note S(A)
l’ensemble des matrices semblables à A, c’est-à-dire :

S(A) = {P AP −1 ; P ∈ GLn (C)} .

S(A) est l’orbite de A pour l’action par conjugaison du groupe GLn (C)
sur l’esnsemble Mn (C) ; c’est la classe d’équivalence de A pour la relation
”est semblable à”

54
(a) Soit N une matrice de Mn (C) nilpotente ; montrer en utilisant la pre-
mière question qu’il existe une suite d’éléments de S(N ) qui converge
vers la matrice nulle.

(b) Montrer que, si N est nilpotente et S(N ) fermé, alors N = 0.

(c) On suppose ici A matrice carrée diagonalisable ; soit (Pk ) une suite
de matrices de GLn (C) telle que la suite (Bk ), où Bk = Pk−1 APk ,
converge. On note B la limite de la suite (Bk ).

i. Montrer que le polynôme minimal de A annule B.

ii. Montrer que A et B ont même polynôme caractéristique (on ad-


mettra que l’application qui à une matrice associe son polynôme
caractéristique est continue).

iii. Montrer que B est diagonalisable et semblable à A.

(d) Démontrer que S(A) est fermé si et seulement si A est diagonalisable.

5. A propos du rayon spectral


On appelle rayon spectral d’une matrice le plus grand des modules des
valeurs propres de cette matrice. On note ρ(A) le rayon spectral de la
matrice A.

(a) Soit k.k une norme sur Cn ; on définit N sur Mn (C) par
kAXk
N (A) = sup
X6=0 kXk

(on identifie Cn à Mn,1 (C)). On admet que N est une norme, dite
« subordonnée » à la norme k.k. Démontrer que

ρ(A) ≤ N (A)

(b) Montrer que N (In ) = 1 et que, pour toutes matrices A et B,

N (AB) ≤ N (A)N (B)

Une norme possédant ces deux propriétés est une « norme d’algèbre »
sur Mn (C).

(c) Trouver une matrice A non nulle telle que ρ(A) = 0. En déduire que
ρ n’est pas une norme sur Mn (C).

(d) Soit A une matrice carrée complexe fixée. Le but de cette partie est
de démontrer que, pour tout réel strictement positif , il existe une

55
norme d’algèbre µ sur Mn (C) telle que

µ(A) ≤ ρ(A) +  .

Pour cela, on utilise la trigonalisabilité de A : il existe une matrice


inversible et une matrice triangulaire T telles que A = P T P −1 .

i. Soit N1 définie sur Mn (C) par


n
X
N1 (M ) = max |ai,j | .
1≤j≤n
i=1

Démontrer que N1 est une norme sur Mn (C), subordonnée à la


norme k.k1 usuelle sur Cn .

ii. Si Q est une matrice inversible, démontrer que l’application


M 7−→ N1 (QM Q−1 ) est une norme d’algèbre sur Mn (C).

iii. Soit T une matrice triangulaire, Dt la matrice du début du pro-


blème. Démontrer que la norme N1 de la matrice Dt T Dt−1 tend,
lorsque t tend vers une limite à déterminer, vers le plus grand
des modules des valeurs propres de T .

iv. En déduire le résultat annoncé.

(e) En utilisant les résultats précédents, démontrer que la suite de terme


général Ak converge vers la matrice nulle si et seulement si ρ(A) < 1.

1. Soit T une matrice triangulaire supérieure carrée à n lignes et n colonnes


(réelle ou complexe), et soit Dt la matrice diagonale dont les coefficients
diagonaux sont (dans l’ordre en partant du coefficient en première ligne
et première colonne) 1, t, t2 , . . . , tn−1 (t réel, t > 0). Calculer Dt T Dt−1 .

La multiplication par Dt à gauche multiplie, pour tout i, la ligne i de T


par ti−1 . La multiplication à droite par Dt−1 = D1/t multiplie, pour tout
j, la colonne j par t1−j . Et donc

Dt T Dt−1 = ti−j Ti,j



1≤i,j≤n

Une autre manière de voir les choses est d’interpréter D1/t comme matrice
de passage de la base canonique à une base facile à exprimer. C’est le

56
point de vue que l’on a adopté dans l’annexe sur les suites vérifiant une
récurrence linéaire à coefficients constants. Il est intéressant quand même
de savoir écrire ce que devient la matrice d’un endomorphisme lorsqu’on
remplace la base (e1 , . . . , en ) par la base (αn−1 e1 , . . . , α1 en−1 , en ).

2. Application à une caractérisation topologique de la diagonalisa-


bilité pour une matrice complexe
Dans cette partie, si A est une matrice carrée complexe, on note S(A)
l’ensemble des matrices semblables à A, c’est-à-dire :

S(A) = {P AP −1 ; P ∈ GLn (C)} .

S(A) est l’orbite de A pour l’action par conjugaison du groupe GLn (C)
sur l’esnsemble Mn (C) ; c’est la classe d’équivalence de A pour la relation
”est semblable à”

(a) Soit N une matrice de Mn (C) nilpotente ; montrer en utilisant la pre-


mière question qu’il existe une suite d’éléments de S(N ) qui converge
vers la matrice nulle.

Il existe (cours, à savoir redémontrer) T ∈ S(N ) triangulaire supé-


rieure « stricte ». Par transitivité de la relation « est semblable à »,
S(T ) = S(N ). De plus, d’après la première question,

Dp T Dp−1 −−−−−→ (0)


p→+∞

(car si Ti,j 6= 0, on a j > i, et donc pi−j −−−−−→ 0). On a bien trouvé


p→+∞
une suite d’éléments de S(N ) qui converge vers la matrice nulle.

(b) Montrer que, si N est nilpotente et S(N ) fermé, alors N = 0.

Si N est nilpotente et S(N ) fermé, la question précédente montre


que (0) ∈ S(N ), donc N = (0).

(c) On suppose ici A matrice carrée diagonalisable ; soit (Pk ) une suite
de matrices de GLn (C) telle que la suite (Bk ), où Bk = Pk−1 APk ,
converge. On note B la limite de la suite (Bk ).

57
i. Montrer que le polynôme minimal de A annule B.

Soit π ce polynôme minimal. Pour tout k, π(Bk ) = Pk−1 π(A)Pk


(démonstration classique : vrai pour les monômes, puis par com-
binaison linéaire vrai pour un polynôme quelconque). Donc pour
tout k, on a π(Bk ) = (0). Or

π(Bk ) −−−−−→ π(B)


k→+∞

C’est toujours le même principe : on commence par dire que,


pour tout entier naturel m,

Bkm −−−−−→ B m
k→+∞

[c’est une conséquence de la continuité de M 7−→ M k sur Mn (K)


avec, ici K = C, mais si K = R ça ne change rien. Pourquoi cette
continuité ? si on doit la justifier, le plus rapide est de dire que
les coefficients de M k sont fonctions polynomiales (à plusieurs
variables) de ceux de M . Plus sophistiqué, on peut appliquer
la continuité des applications bilinéaires en dimension finie et
faire une récurrence : si φk : M 7−→ M k , φ1 est continue sans
problème ; φ2 est composée de M 7→ (M, M ), linéaire en dimen-
sion finie, par ψ : (A, B) 7→ AB, bilinéaire en dimension finie,
elle est donc continue. Puis φk+1 (M ) = ψ (φk (M ), M ) permet
de dire que si φk est continue alors φk+1 aussi. En général, on
ne demande pas une preuve aussi sophistiquée, un peu longue à
rédiger. . .]
Puis, par combinaison linéaire. . .on a bien π(Bk ) −−−−−→ π(B)
k→+∞
Et donc π(B) = (0).
Remarquons que l’application qui à une matrice associe son poly-
nôme minimal n’est pas continue (contrairement à l’application
qui à une matrice associe son polynôme caractéristique). Par
exemple, si Nk est la matrice n × n dont tous les coefficients sont
nuls sauf ceux d’indice (i, i+1) qui valent 1, le polynôme minimal
de Nk est X n , on la suite (Nk ) converge vers la matrice nulle,
dont le polynôme minimal est X.

58
ii. Montrer que A et B ont même polynôme caractéristique (on ad-
mettra que l’application qui à une matrice associe son polynôme
caractéristique est continue).

A et Bk ont même polynôme caractéristique (elles sont sem-


blables). Et donc, par continuité, le polynôme caractéristique de
B est celui de A.

iii. Montrer que B est diagonalisable et semblable à A.

Le polynôme minimal de B divise celui de A, donc est scindé à racines


simples. Donc B est diagonalisable. Mais comme A et B ont même
polynôme caractéristique, elles ont les mêmes valeurs propres avec
les mêmes multiplicités, comme elles sont diagonalisables elles sont
semblables à la même matrice diagonale, donc semblables.

(d) Démontrer que S(A) est fermé si et seulement si A est diagonalisable.

On vient de montrer que, si A est diagonalisable, S(A) est fermé. Montrons


la réciproque par contraposition. Supposons donc A non diagonalisable.
Le polynôme caractéristique de A est scindé :
q
Y
PA = (X − λi )mi
i=1

et, d’après le cours, A est semblable à une matrice diagonale par blocs
et triangulaire supérieure. La suite Dp ADp−1 p≥1 converge alors vers une


matrice diagonale, donc non semblable à A, ce qui montre que S(A) est
fermé, et conclut.

3. A propos du rayon spectral


On appelle rayon spectral d’une matrice le plus grand des modules des
valeurs propres de cette matrice. On note ρ(A) le rayon spectral de la
matrice A.

(a) Soit k.k une norme sur Cn ; on définit N sur Mn (C) par
kAXk
N (A) = sup
X6=0 kXk

59
(on identifie Cn à Mn,1 (C)). On admet que N est une norme, dite
subordonnée à k.k. Démontrer que

ρ(A) ≤ N (A)

Soit λ une valeur propre de module maximal : |λ| = ρ(A). Si X ∈


Mn,1 (C) \ {0} est tel que AX = λX, alors
kAXk
= ρ(A)
kXk
et donc ρ(A) ≤ kAk.

(b) Montrer que N (In ) = 1 et que, pour toutes matrices A et B,

N (AB) ≤ N (A)N (B)

Une norme possédant ces deux propriétés est une « norme d’algèbre »
sur Mn (C).

N (In ) = 1 est simple. Notons que, si X 6= (0), on a

kAXk ≤ N (A)kXk

et que c’est encore, facilement, vrai si X = (0). Donc, pour toutes


matrices A et B de Mn (C), pour tout X ∈ Mn,1 (C),

k(AB)Xk ≤ N (A)kBXk ≤ N (A)N (B)kXk

qui donne, si X 6= (0),


k(AB)Xk
≤ N (A)N (B)
kXk
et donc, la borne supérieure d’un ensemble étant son plus petit ma-
jorant,
N (AB) ≤ N (A)N (B)

(c) Trouver une matrice A non nulle telle que ρ(A) = 0. En déduire que
ρ n’est pas une norme sur Mn (C).

Il suffit de prendre une matrice nilpotente non nulle.

60
(d) Soit A une matrice carrée complexe fixée. Le but de cette partie est
de démontrer que, pour tout réel strictement positif , il existe une
norme d’algèbre µ sur Mn (C) telle que

µ(A) ≤ ρ(A) +  .

Pour cela, on utilise la trigonalisabilité de A : il existe une matrice


inversible et une matrice triangulaire T telles que A = P T P −1 .
i. Soit N1 définie sur Mn (C) par
n
X
N1 (M ) = max |ai,j | .
1≤j≤n
i=1

Démontrer que N1 est une norme sur Mn (C), « subordonnée »


à la norme usuelle k.k1 sur Cn .

Soit X ∈ Mn,1 (C) ; on peut écrire


n
X
kAXk1 = |(AX)i |
i=1
n X
X n
= ai,j xj
i=1 j=1
 
n
X n
X
≤  |ai,j ||xj |
i=1 j=1
n n
! n
X X X
= |xj | |ai,j | ≤ N1 (M ) |xj |
j=1 i=1 j=1

= N1 (M )kXk1

De plus, si j0 est tel que


n
X n
X
|ai,j0 | = max |ai,j |
1≤j≤n
i=1 i=1

alors, en prenant tous les xj nuls sauf xj0 , il y a égalité dans


toutes les inégalités précédentes, ce qui permet de conclure

ii. Si Q est une matrice inversible, démontrer que l’application


M 7−→ N1 (QM Q−1 ) est une norme d’algèbre sur Mn (C).

61
Pas difficile.

iii. Soit T une matrice triangulaire, Dt la matrice du début du pro-


blème. Démontrer que la norme N1 de la matrice Dt T Dt−1 tend,
lorsque t tend vers une limite à déterminer, vers le plus grand
des modules des valeurs propres de T .

Quand t → +∞. . .

iv. En déduire le résultat annoncé.

On trigonalise A : A = P T P −1 . La norme N1 de Dt P −1 A(Dt P −1 )−1


est N1 (Dt T Dt−1 qui tend, vers +∞, vers ρ(T ), mais ρ(T ) = ρ(A),
donc si t est assez grand,

µ : M 7−→ N1 Dt P −1 A(Dt P −1 )−1




convient.

(e) En utilisant les résultats précédents, démontrer que la suite de terme


général Ak converge vers la matrice nulle si et seulement si ρ(A) < 1.

Le sens facile : soit λ tel que |λ| = ρ(A), X 6= (0) tel que AX = λX, alors
Ak X = λk X pour tout k ≥ 0, donc, si (Ak ) converge vers (0), (λk ) aussi, donc
|λ| < 1.
Réciproquement, si ρ(A) < 1, on peut choisir µ norme d’algèbre telle que µ(A) <
1. On a facilement par récurrence, pour tout entier naturel k,

k
µ(Ak ) ≤ (µ(A))

et le second membre converge vers 0, donc le premier membre aussi.

62
1 Exercices divers
Exercice 50 (Centrale, X, encore un classique). Soit A une matrice carrée
d’ordre n réelle ou complexe. Démontrer que A est nilpotente si et seulement si,
pour tout k entre 1 et n, tr(Ak ) = 0. Plusieurs méthodes possibles. On pourra
par exemple utiliser une récurrence sur la dimension de la matrice et montrer
que le polynôme minimal d’une matrice carrée d’ordre n vérifiant, pour tout k
entre 1 et n, tr(Ak ) = 0, admet 0 pour racine.

Si A est nilpotente, elle annule un polynôme de la forme X p , p ≥ 1, qui est scindé.


Elle est donc trigonalisable. Soit T triangulaire supérieure et P inversible telles
que
A = P T P −1

Les coefficients diagonaux de T sont ses valeurs propres, donc les valeurs propres
de A. Or la seule valeur propres possible pour A est 0. Donc T est triangulaire
supérieure « stricte », c’est aussi le cas de ses puissances ; on a donc, pour tout
k 6= 0, tr(T k ) = 0, donc tr(Ak ) = 0.
Pour la réciproque, supposons

∀k ∈ {1, . . . , k} tr(Ak ) = 0

Et soit µ = X d + cd−1 X d−1 + · · · + c0 le polynôme minimal de A ; alors

Ad + cd−1 Ad−1 + · · · + c0 In = (0)

Prenons la trace ; comme d ≤ n (théorème de Cayley-Hamilton), on a nc0 = 0,


donc c0 = 0 (on suppose ici que la caractéristique de K ne divise pas n, sinon le
résultat n’est pas valable). On voit que 0 ∈ Sp(A). Dans une base de Kn dont
le premier vecteur est un élément de Ker A, l’endomorphisme canoniquement
associé à A a pour matrice
 
0 L
M = 
(0) B

où B ∈ Mn−1 (K). Donc, par récurrence et produit par blocs,


 
0 L k
Mk =  
(0) B k

63
Et, pour tout k entre 1 et n − 1, tr(Ak ) = tr(M k ) = tr(B k ) = 0. Admettant la
propriété à l’ordre n − 1, on conclut que B est nilpotente. Donc il existe p tel
que B p = 0, donc  
0 Lp
Mp =  
(0) (O)

et donc M p+1 = 0, ce qui permet de dire Ap+1 = 0. On conclut donc par


récurrence, comme souvent très facile à initialiser (pour n = 1).

Exercice 51 (Oral X). En utilisant le résultat de l’exercice précédent, démon-


trer que si [A, B] = AB − BA commute avec A, [A, B] est nilpotente.

Exercice 52 (Oral Centrale). Soit u1 , . . . , up des endomorphismes nilpotents


d’un espace vectoriel de dimension p qui commutent deux à deux. Démontrer
que u1 ◦ · · · ◦ up est l’endomorphisme nul.

Exercice 53 (Oral ens). Soit A, B deux matrices de Mn (C).

1. Montrer que A est nilpotente si et seulement si, pour tout p entre 1 et n,


tr(Ap ) = 0.

2. On suppose que {λ ∈ C, A + λB nilpotente} contient au moins n + 1


éléments. Montrer que A et B sont nilpotentes.

Exercice 54 (Oral Mines). Démontrer que si A, B sont deux matrices carrées


complexes telles que AB − BA commute avec A et avec B, alors elles sont
simultanément trigonalisables. On pourra s’inspirer de l’exercice sur la réduction
simultanée.
Exercice 55 (Oral ens). Soit A l’ensemble des matrices
 
a0 an−1 ... a1
 
 a1 a0 ... a2 
 
 . .. .. 
 .. . ... . 
 
an−1 an−2 . . . a0

1. Montrer que A est une sous-algèbre commutative de Mn (C).

2. Montrer que les éléments de A sont simultanéments diagonalisables.

Notons  
0 0 ... ... 0 1
 
 .. 
1 . 0
 
 .. .. .. 
0 . . .
J = .
 
. .. .. .. .. 
. . . . .

 .. .. 
 
.. .. ..
. . . . .
 
0 0 ... 0 1 0
Il peut être utile de voir J de la manière suivante : si j est l’endomorphisme de
Cn canoniquement associé à J, si (1 , . . . , n ) est la base canonique de Cn , alors
j(i ) = i+1 si 1 ≤ i ≤ n−1, et j(n ) = 1 . Ou encore, j(a ) = a+1 en définissant
a = r où r est le reste de la division de a par n. Ces remarques permettent
d’obtenir facilement J 2 , J 3 ,. . .sans poser la multiplication matricielle. Et de voir
que
 
a0 an−1 ... a1
 
 a1 a0 ... a2 
= a0 In + a1 J + · · · + an−1 J n−1
 
 . .. .. 
 .. . ... . 
 
an−1 an−2 . . . a0
D’autre part, J n = In . Le polynôme minimal de J est donc X n − 1 (il divise
X n − 1, et ne peut être de degré strictement inférieur à n car le calcul précédent
montre que la famille (In , J, . . . , J n−1 ) est libre.
Finalement, A = C[J], et donc est une sous-algèbre commutative de Mn (C).

Montrer que les éléments de A sont simultanéments diagonalisables.

65
J est annulée par X n − 1, scindé à racines simples sur C (ses racines sont les
n racines n-ièmes de l’unité dans C). Donc J est diagonalisable ; il existe D
diagonale et P inversible telles que

J = P DP −1

Pour tous (a0 , . . . , an−1 ),

a0 In + a1 J + · · · + an−1 J n−1 = P (a0 In + a1 D + · · · + an−1 Dn−1 )P −1

or a0 In + a1 D + · · · + an−1 Dn−1 est diagonale. Ce qui répond à la question.

On remplace C par un corps K dans lequel X n − 1 est scindé. Le


résultat de la question précédente subsiste-il ? Discuter en fonction
de la caractéristique de K.

Question plus délicate et maintenant hors-programme, on ne sait pas


ce que veut dire la carcatéristique d’un corps ; supposons que X n − 1
ait une racine (au moins) double : de X n − 1 = (X − a)2 Q(X) on déduit
nX n−1 = (X − a)2 Q0 (X) + 2(X − a)Q(X), donc nan−1 = 0.
premier cas : la caractéristique de K ne divise pas n (ce qui inclut le cas
où K serait de carctéristique nulle). Alors nécessairement a = 0. Or 0 n’est pas
racine de X n − 1. Donc X n − 1 n’a pas de racine double, et comme il est scindé,
tout ce qui a été fait marche encore.
deuxième cas : K est de caractéristique p ≥ 2, et p divise n (rappelons
que p est premier).
cas particulier : n = p, K = Z/pZ On a alors, pour tout x ∈ K, xp = x, donc
xp − 1 n’a qu’une racine, et n’est pas scindé : contradiction avec les hypothèses,
ce cas ne peut se produire.
cas particulier : n = p On sait (voir exercices d’arithmétique) que, si x et y
sont dans K, (x+y)p = xp +y p . Donc, si xp = 1, (x+y)p = 1 ⇔ y p = 0 ⇔ y = 0.
Même contradiction que le sous-cas précédent.

66
Cas général : n = pq ; X p − 1 ayant une seule racine (ce qu’on vient de voir),
qui est 1, xn = 1 ⇔ xq = 1, donc X n − 1 a au plus q racines, pour être scindé
c’est encore raté.

Exercice 56 (Oral X). Soit A un endomorphisme de Rn tel que Aq − In = 0


(avec q ∈ N∗ ). Montrer :
q
 1X
dim Ker(A − In ) = tr(Ai )
q i=1
.

L’énoncé est (volontairement sans doute !) mal posé, sous forme d’endomor-
phisme. On pose donc le problème sous forme matricielle, et on se place sur
Mn (C). Le polynôme X q − 1 est scindé à racines simples sur C, donc A est
diagonalisable dans Mn (C) : il existe P ∈ GLn (C) et D ∈ Mn (C) diagonale
telles que
A = P DP −1

Les coefficients diagonaux de D sont les valeurs propres de D, donc de A, donc


sont des racines q-ièmes de 1. Notons-les dk (1 ≤ k ≤ n). Alors
q q
1X 1X
tr(Ai ) = tr(Di )
q i=1 q i=1
q n
!
1X X i
= dk
q i=1
k=1
q
n
!
1X X
= dik
q i=1
k=1

Mais, si dk 6= 1,
q
X 1 − dqk
dik = dk =0
i=1
1 − dk
Et, si dk = 1,
q
X
dik = 1
i=1
Donc
q
1X
tr(Ai ) = |{k ∈ J1, nK ; dk = 1}| = dim (E1 (A))
q i=1

67
(avec des notations habituelles), ce qui conclut.

Si on est très astucieux, on peut voir dans cette relation entre une dimension et
une trace un vague rappel du fait que la trace et le rang d’un projecteur sont
égaux. Mais quel projecteur ? la trace dans le membre de droite est celle de

1
(Id + A + . . . + Aq−1 )
q
on montre assez facilement que c’est bien un projecteur, il n’y a plus qu’à
montrer que son image est le noyau de Id − A, ce qui n’est pas trop difficile.

Exercice 57 (Oral Centrale). Soit u un endomorphisme d’un espace vecto-


riel de dimension finie E. Démontrer que le polynôme caractéristique de u est
irréductible si et seulement si les seuls sous-espaces stables par u sont {0E } et
E.

Supposons le polynôme caractéristique irréductible. Soit F un sous-espace stable


par u, autre que {0E } et E. Le polynôme caractéristique de uF divise le poly-
nôme caractéristique de u, contradiction.
Supposons le polynôme caractéristique réductible, et soit χu = Q1 Q2 une « vraie »
factorisation de ce polynôme. Q1 (u)◦Q2 (u) = Θ (théorème de Cayley-Hamilton),
donc Q1 (u) et Q2 (u) ne sont pas deux automorphismes. Supposons par exemple

que Q1 (u) ne soit pas un automorphisme, et soit x ∈ Ker Q1 (u) \ {0E }. Si
d est le degré de Q1 , on a 1 ≤ d ≤ n − 1 (n = dim(E)), et on vérifie que
Vect x, u(x), . . . , ud−1 (x) est stable par u. Et ce sous-espace n’est pas {0E } ni


E.

Exercice 58 (Oral X). Démontrer qu’un endomorphisme u d’un C-espace


vectoriel E est diagonalisable si et seulement si tout sous-espace stable par u
admet un supplémentaire stable par u.

68
Supposons u diagonalisable. Soit F un sous-espace stable par u. On sait que u
induit sur F un endomorphisme diagonalisable. Or les valeurs propres de uF
(induit par u sur F ) sont des valeurs propres de u, et, si λ est une valeur propre
de uF , on a

Ker(uF − λIdF ) = Ker(u − λIdE ) ∩ F = Eλ (u) ∩ F

La diagonalisabilité de uF permet d’affirmer


M
F = (Eλ (u) ∩ F )
λ∈Sp(u)

(en autorisant dans cette somme directe des espaces réduits à {0}, pour les
valeurs propres de u qui ne sont pas valeurs propres de uF ). Soit, pour tout
λ ∈ Sp(u), Gλ un supplémentaire dans Eλ (u) de Eλ (u) ∩ F . Alors on vérifie que
M
Gλ est un supplémentaire de F stable par u.
λ∈Sp(u)
Supposons que tout sous-espace stable par u admette un supplémentaire stable
par u. Soit Eλ (u) un sous-espace propre de u (il y en a car on est sur C).
Il admet un supplémentaire F stable par u. Soit uF induit par u sur F . Si
G est un sous-espace de F stable par uF , il est stable par u, et admet donc
un supplémentaire H (dans E) stable par u. On vérifie alors que H ∩ F est
un supplémentaire de G dans F , stable par uF . Comme uF vérifie l’hypothèse
« tout sous-espace stable par uF admet un supplémentaire stable par uF », on a
l’idée de conclure par récurrence sur la dimension de l’espace, ce qui se fait sans
problème (initialisation comme d’habitude évidente, en dimension 1, ou même
en dimension 2 si on trouve la dimension 1 trop caricaturale).

Exercice 59 (Oral ens). Adhérence et intérieur de l’ensemble des matrices


diagonalisables de Mn (C) ?

Montrons que toute matrice de Mn (C) est limite d’une suite de matrices dia-
gonalisables ; soit M ∈ Mn (C), on peut trigonaliser

M = P T P −1

69
où P ∈ GLn (C), T ∈ Tn+ (C). Notons, si k ∈ N, Tk la matrice dont tous les
coefficients non diagonaux sont égaux à ceux de T , et les coefficients diagonaux
sont :
1
(Tk )i,i = Ti,i +
i+k
Alors, assez clairement, Tk −−−−−→ T , donc (linéarité, donc continuité de A 7→
k→+∞
P AP −1 ) P Tk P −1 −−−−−→ M . Qui plus est, à partir d’un certain rang, les coef-
k→+∞
ficients diagonaux de Tk sont deux à deux distincts (une justification : si tous
les Ti,i sont égaux, c’est assez clair. Sinon, soit δ > 0 le plus petit des |Ti,i − Tj,j |
n
non nuls. A partir d’un certain rang k0 , on aura 2 < δ, et alors, si i 6= j
k
i−j
(Tk )i,i = (Tk )j,j ⇒ Ti,i − Tj,j = ⇒ 0 < |Ti,i − Tj,j | < δ
(k + i)(k + j)

qui montre par l’absurde ce qu’on voulait). Donc Tk est diagonalisable, et


P Tk P −1 aussi. La caractérisation de l’adhérence par les suites montre :

L’adhérence dans Mn (C) de l’ensemble des matrices diagonalisables est Mn (C)

Cherchons maintenant (plus difficile) l’intérieur ; l’exemple simple


   
0 1/p 0 0
  −−−−−→  
0 0 p→+∞ 0 0

montre que la matrice nulle, diagonalisable, est limite d’une suite de matrices
non diagonalisables, donc la matrice nulle n’est pas dans l’intérieur de l’en-
semble des matrices diagonalisables. S’inspirant de cet exemple, on peut penser
qu’une matrice diagonalisable ayant au moins une valeur propres double n’est
pas intérieure à l’ensemble des matrices diagonalisables. Soit en effet M une
telle matrice ; elle s’écrit
M = P DP −1

avec P inversible et D diagonale, et où l’on peut supposer D1,1 = D2,2 = λ.


1
Soit Tp = D + E1,2 (les coefficients de Tp sont ceux de D, sauf le coefficient
p
(1, 2)). Tp n’est pas diagonalisable (le rang de Tp − λIn est n − mλ + 1 où mλ
est le nombre d’apparitions de λ sur la diagonale, c’est-à-dire la multiplicité de
λ. Donc la dimension de Ker(Tp − λIn ) est mλ − 1, ce qui fait que Tp n’est pas
diagonalisable). Comme

P Tp P −1 −−−−−→ P DP −1 = M
p→+∞

70
M est dans l’adhérence de l’ensemble des matrices non diagonalisables, elle n’est
donc pas dans l’intérieur des matrices diagonalisables.
On conclut provisoirement que :

L’intérieur dans Mn (C) de l’ensemble des matrices diagonali-


sables est inclus dans l’ensemble des matrices ayant n valeurs
propres distinctes

L’inclusion réciproque est le passage délicat. Soit (Mp ) une suite de matrices
convergeant vers une matrice M . On suppose que M a n valeurs propres dis-
tinctes. Montrons qu’alors, à partir d’un certain rang, Mp a elle aussi n valeurs
propres distinctes. Notons λ1 , . . . , λn les valeurs propres de M . Soit δ > 0, et
supposons que Mp n’ait pas de valeur propre dans le disque D(λ1 , δ). Le poly-
nôme caractéristique de Mp s’écrit
n
Y
χp (X) = (X − µi,p )
i=1

où les µi,p sont les valeurs propres de Mp , comptées avec leur multiplicité. On
aurait, pour tout i, |µi,p − λ1 | ≥ δ, donc

|χp (λ1 )| ≥ δ n

Or, par continuité du déterminant,

χp (λ1 ) = det(λ1 In − Mp ) −−−−−→ det(λ1 In − M ) = 0


p→+∞

Donc, à partir d’un certain rang,

|χp (λ1 )| < δ n

ce qui permet de conclure que, pour tout δ > 0, il existe un rang à partir duquel
Mp a au moins une valeur propre dans le disque D(λ1 , δ). Idem pour les autres
λi . Choisissons alors δ strictement inférieur à la moitié de la plus petite distance
entre deux λi :
1
0<δ< min{|λi − λj | ; i 6= j}
2
A partir d’un certain rang, Mp a au moins une valeur propre dans chacun des
D(λi , δ), or ces disques sont disjoints, donc Mp a au moins n valeurs propres
distinctes, donc Mp est diagonalisable. Il n’existe donc pas de suite de matrices
non diagonalisables qui converge vers M . Donc M n’appartient pas à l’adhérence
de l’ensemble des matrices non diagonalisables. Donc M appartient à l’intérieur
de l’ensemble des matrices diagonalisables.

71
L’intérieur dans Mn (C) de l’ensemble des matrices diagonali-
sables est l’ensemble des matrices ayant n valeurs propres dis-
tinctes

Remarque : Il y a bien d’autres manières d’aborder cette question. Ici, on a


évité de se poser des problèmes de continuité de l’application qui à une ma-
trice associe son polynôme caractéristique, de « continuité » des racines d’un
polynôme. . .

Exercice 60 (Oral ens). Soit (n, q) un couple d’entiers naturels, n ≥ 2, q ≥ 2.


On note
Eq = {M ∈ Mn (C)|M q = In }.

1. Que dire d’une matrice de Eq dont toutes les valeurs propres sont égales
à 1?

2. Montrer qu’il existe  > 0 tel que B(In , ) ∩ Eq = {In }.

3. Soit A0 ∈ Eq . Montrer qu’il existe  > 0 tel que A ∈ B(A0 , )∩Eq entraîne
que A et A0 sont semblables.

Exercice 61 (Oral ens). Quelles sont les matrices A ∈ Mn (C) telles que
(Ap )p∈N converge vers 0 ? Quelles sont les matrices A ∈ Mn (C) telles que
(Ap )p∈N soit bornée ?

On note ρ(A) le « rayon spectral » de A :

A = max{|λ| ; λ ∈ Sp(A)}

Soit λ ∈ Sp(A), et X 6= 0 tel que AX = λX ; on a par récurrence, pour tout


p ∈ N,
Ap X = λ p X

et donc, si Ap −−−−−→ 0, λp −−−→ 0, donc |λ| < 1, et finalement ρ(A) < 1.


p→+∞ p→∞

72
Supposons réciproquement ρ(A) < 1. Si A est diagonalisable, on montre alors
sans difficulté que Ap −−−−−→ 0. Vérifions que c’est vrai sans hypothèse de
p→+∞
diagonalisabilité : notons λ1 , . . . , λd les valeurs propres de A, m1 , . . . , md leurs
multiplicités respectives. L’application du théorème de Cayley-Hamilton et du
théorème de décomposition des noyaux montre
d
M
Cn = Fi
i=1

où Fi = Ker (A − λi )mi . Soit Y ∈ Fi . Pour tout p ∈ N, la formule de Taylor




donne
+∞ ^ p  
X Dk (X p )(λ) X p
Xp = (X − λ)k = λp−k (X − λ)k
k! k
k=0 k=0

Supposons dorénavant p ≥ mi ; pour tout k ≥ mi , on a (A − λIn )k Y = 0 (car


(A − λIn )mi Y = 0). Donc
m i −1  
X p p−k
Ap Y = λ (A − λIn )k Y
k
k=0
 
p p−k
Mais, par croissances comparées, pour tout k, λ −−−−−→ 0
k p→+∞
k
 
p p
(car ∼ ). Tout élément Y de Cn (confondu comme d’habitude avec
k p→+∞ k!
Mn,1 (C) s’écrit Y = Y1 + . . . + Yd , où chaque Yi est dans Fi . Et alors

Ap Y = Ap Y1 + . . . + Ap Yd −−−−−→ 0
p→+∞

Ceci implique que Ap −−−−−→ 0 (chaque colonne de la matrice Ap est de la forme


p→+∞
Ap Ej où Ej est le j-ième vecteur de la base canonique, donc tend vers 0 quand
p → +∞. Et donc, pour tout (i, j), le coefficient (i, j) de Ap tend vers 0 quand
p → +∞. Donc Ap −−−−−→ 0. Finalement :
p→+∞

Ap −−−−−→ 0 ⇔ ρ(A) < 1


p→+∞

Remarque : des méthodes assez différentes sont possibles (cf exercice sur le
rayon spectral et les normes subordonnées, par exemple).

Supposons maintenant (Ap ) bornée. Si λ ∈ Sp(A), il existe X 6= 0 tel que


AX = λX. Mais alors Ap X = λp X pour tout p, donc la suite (λp ) est bornée,
donc |λ| ≤ 1. Donc si (Ap ) est bornée, alors ρ(A) ≤ 1. Supposons réciproquement

73
ρ(A) ≤ 1. Si, pour toute valeur propre µ de A qui est de module 1, la dimension
du sous-espace propre associé à µ est égale à la multiplicité de µ (notée mµ ),
alors en utilisant
 M   M 
Cn = Ker(A − µIn ) ⊕ Ker(A − µIn )mµ
µ∈Sp(A),|µ|=1 µ∈Sp(A),|µ|<1

on déduit de manière semblable à ce qui a été fait plus haut que (Ap X) est,
pour tout X, bornée, donc (Ap ) est bornée.
Supposons maintenant qu’il existe µ valeur propre de A telle que |µ| = 1 et telle
que dim(Ker(A − µIn )) 6= mµ . Alors l’inclusion

Ker(A − µIn ) ⊂ Ker(A − µIn )2

est stricte(*). Soit Y ∈ Ker(A − µIn )2 \ Ker(A − µIn ). Alors

Ap Y = µp Y + pµp−1 (A − µIn )Y

(récurrence sur p, ou formule de Taylor comme plus haut), ce qui montre que
(Ap ) n’est pas bornée. Finalement,

(Ap ) bornée ⇔ ρ(A) ≤ 1 et ∀µ ∈ Sp(A) ∩ U dim(Ker(A − µIn )) = mµ

(*) Reprenons la décomposition


d
M
Cn = Fi
i=1

et munissons Cn d’une base adaptée à cette décomposition. Dans cette base,


l’endomorphisme u canoniquement associé à A a une matrice diagonale par
blocs, chaque bloc diagonal Di ∈ Mdi (C) est la matrice de l’endomorphisme
ui induit sur Fi par u. Or la seule valeur propre possible pour ui est λi (car
(X − λi )mi annule ui ), donc le polynôme caractéristique de Di est (X − λi )di ,
Yd
et par déterminant par blocs celui de A est (X − λi )di , donc pour tout i on
i=1
a mi = di = dim(Fi ). Ce qui permet (avec les noyaux itérés !) de justifier (*).

Exercice 62 (Oral X). Soit E un espace vectoriel de dimension finie et


u ∈ L(E) tel que ker(u) ⊕ Im(u) = E. Montrer que le projecteur sur ker(u)
parallèlement à Im(u) est un polynôme en u.

74
Dans une base adaptée à ker(u) ⊕ Im(u) (on notera dans la suite q la dimension

de ker(u), r celle de Im(u)), la matrice de u est de la forme


 
(0) (0)
M = 
(0) A

et celle du projecteur sur ker(u) parallèlement à Im(u) est


 
Iq (0)
R= 
(0) (0)

Soit P = a0 + a1 X + . . . + ad X d = a0 + Q un polynôme dont le coefficient


constant est a0 (Q est donc divisible par X). On vérifie sans difficulté que
 
a0 Iq (0)
P (M ) =  
(0) a0 Ir + Q(A)

(si on ne prend pas la précaution de mettre à part le terme constant comme on


l’a fait, on risque des erreurs). Donc
 
P (M ) = R ⇔ a0 = 1 et Q(A) = −a0 Iq

Le problème est donc de montrer l’existence d’un polynôme Q nul en 0 tel que
Q(A) = −Iq , ou autrement dit de trouver un polynôme Q1 tel que AQ1 (A) =
−Iq (en notant Q = XQ1 ). Mais A est inversible (comme ker(u) ∩ Im(u) = {0},
u induit sur Im(u) un automorphisme), il s’agit donc simplement de montrer
que A−1 est un polynôme de A. Pour cela, considérons

φ : K[A] −→ K[A]
B 7−→ AB

φ est un endomorphisme injectif de K[A] qui est de dimension finie, donc φ est
surjectif, donc Iq ∈ Im(φ), donc il existe un polynôme Q2 tel que AQ2 (A) = Iq ,
Q1 = −Q2 convient.

Exercice 63 (Oral X). Quel est le maximum de la dimension d’un sev de


Mn (C) dont les éléments commutent deux à deux ?
Exercice 64 (Oral ens). Soit A et B des matrices carrées complexes d’ordre
n ayant toutes leurs valeurs propres de parties réelles < 0. Si C ∈ Mn (C),
montrer qu’il existe M dans Mn (C) telle que AM + M B = C.

 
a b
Exercice 65 (Oral Centrale). Soit K un corps, M =   et A ∈
c d
Mn (K). On pose  
aA bA
M ⊗A=  ∈ M2n (K)
cA dA
N N
1. Soit M1 , M2 ∈ M2 (K) et A1 , A2 ∈ Mn (K). Montrer que (M1 A1 )(M2 A2 ) =
N
(M1 M2 ) (A1 A2 ).
N
2. Que dire de M In si M est inversible ?
N
3. Si M et A sont diagonalisables, montrer que M A est diagonalisable.

La première question est un calcul (avec un produit par blocs). On en déduit


In est inversible d’inverse M −1 In . Donc, déjà,
N N
que, si M est inversible, M
si P est inversible (dans M2 (K)) et D diagonale,
O O O O
(P In )(D In )(P In )−1 = (P DP −1 ) In
N
qui montre que si M est inversible, M In l’est.
Mais, de la même manière, si P et Q sont des matrices inversibles (respective-
ment 2 × 2 et n × n),
O O O
(P Q)(P −1 Q−1 ) = I2 In = I2n
N
et, comme le de deux matrices diagonales est diagonale, on en déduit assez
N
facilement que le de deux matrices diagonalisables l’est.

Exercice 66 (Oral Paris-Lyon-Cachan). Caractériser les matrices de Mn (C)


dont l’adhérence de la classe de similitude contient 0.

Exercice 67 (Oral X). Soit A et B dans Mn (K), diagonalisables.

1. On suppose AB = BA. Montrer que, pour tout t ∈ K, A + tB est diago-


nalisable.

76
2. On suppose n = 2, K = C et, pour tout t ∈ K, A + tB diagonalisable.
Montrer que AB = BA.

Exercice 68 (Oral X). Trouver toutes les matrices de Mn (C) dont le poly-
nôme minimal est de degré 2 et qui n’ont qu’une valeur propre.

Exercice 69 (Oral Centrale). Trouver toutes les matrices de Mn (R) qui


vérifient M 5 = M 2 et tr M = n

Exercice 70 (TPE). Déterminer les matrices A de Mn (Z/7Z) telles que A3 =


In .

Quand une matrice est donnée par un poynôme annulateur, on essaye d’exploiter
celui-ci. Mais pour la première, le problème est que

X 5 − X 2 = X 2 (X 3 − 1)

n’est pas scindé sur R. Qu’importe, on passe sur C : une matrice de Mn (R)
est a fortiori une matrice de Mn (C). Mais le polynôme n’est pas scindé simple
(0 est racine double), on ne peut donc pas utiliser de diagonalisation. L’idée est
plus élémentaire : sur C, comme le polynôme caractéristique est scindé, on peut
utiliser la relation
X
Tr(M ) = mλ λ
λ∈Sp(M )

(où on désigne comme d’habitude par mλ la multiplicité de λ comme racine


du polynôme caractéristique). De plus, les valeurs propres de M sont dans
{1, j, j 2 , 0} puisqu’elles sont toutes racines du polynôme annulateur X 5 − X 2 .
On a donc
m1 + mj j + mj 2 j 2 + m0 0 = n

avec n = m1 + mj + mj 2 + m0 , donc, par inégalité triangulaire :

n = |m1 + mj j + mj 2 j 2 + m0 0| ≤ m1 + mj + mj 2 ≤ n

Toutes ces inégalités sont donc des égalités. On en déduit en premier lieu que
m0 = 0. Ce qui fait que 0 n’est pas valeur propre de M . Ce qui fait que M est
inversible, et que M 2 aussi, et donc que X 3 − 1 annule M , et donc que M est
diagonalisable sur C. On a aussi égalité dans une inégalité triangulaire, ce qui
équivaut au fait que tous les nombres complexes figurant dans cette inégalité
sont nuls ou de même argument. Et cet argument est nécessairement l’argument

77
de leur somme, qui vaut n. Comme j et j 2 n’ont pas pour argument 0, on en
déduit que 1 est la seule valeur propre. Et comme M est diagonalisable,

M = In

Pour l’exercice TPE, on remarque que

X 3 − 1 = (X − 1)(X − 2)(X − 4)

est scindé à racines simples. Les matrices cherchées sont donc les matrices sem-
blables (dans Mn (Z/7Z)) à une matrice diagonale dont les coefficients diago-
naux sont dans {1, 2, 4}.

78

Vous aimerez peut-être aussi