Matrices : Valeurs Propres et Diagonalisation
Matrices : Valeurs Propres et Diagonalisation
2 1
1. On pose A = .
4 −1
Déterminez les valeurs propres et les vecteurs propres de A.
2. Déterminez
toutes les matrices qui commutent avec la matrice
3 0
et déduisez-en l’ensemble des matrices qui commutent
0 −2
avec A.
3 0
Une matrice qui commute avec laisse stables ses sous-espaces
0 −2
propres (il est plus clair d’énoncer ceci en termes d’endomorphismes ca-
noniquement associés). Et réciproquement. Les matrices qui commutent
avec cette matrice sont donc les matrices diagonales. Or
AM = M A ⇔ P DP −1 M = M P DP −1 ⇔ D(P −1 M P ) = (P −1 M P )D
Les matrices qui commutent avec A sont donc les P ∆P −1, où ∆ est une
1 1
matrice diagonale quelconque, et par exemple P = . Mais plutôt
1 −4
que faire le calcul, on peut remarquer que c’est un espace vectoriel de di-
mension 2. . .et donc le commutant de A est ici K[A], ou encore Vect(A, I2 ).
1
Démontrer que A est inversible : on démontrera pour cela,
par l’absurde, que le système AX = 0 n’a pas de solution non
nulle, en écrivant une équation bien choisie de ce système.
Quelle hypothèse analogue conduit à la même conclusion ?
x1
.
Supposons que AX = 0 ait une solution non nulle : X = .. . Soit
xn
i0 un indice tel que
|xi0 | = max |xi |
1≤i≤n
la i0 -ième équation du système AX = 0 s’écrit
n
X
ai0 ,j xj = 0
j=1
2
Déterminer une autre réunion de disques contenant toutes
les valeurs propres de A.
On considère la matrice
a1 b1 0 ... ... 0
..
.. ..
c1 a2 b2 . . .
.. .. .. .. ..
0 . . . . .
An = .
.. .. .. ..
.
. . . . . 0
..
..
. . cn−2 an−1 bn−1
0 ... ... 0 cn−1 an
On note Pn son polynôme caractéristique ; trouver une relation de récur-
rence entre Pn , Pn−1 , Pn−2 . Dans le cas où, pour tout i, bi = ci 6= 0, le
corps de base étant R, démontrer que An admet n valeurs propres dis-
tinctes.
C’est le point de départ. L’étude de ces matrices est motivée par leur
intervention dans la discrétisation d’équations aux dérivées partielles. Le
plus souvent, elles sont symétriques : ∀i bi = ci .
3
Indication : développer par rapport à la dernière ligne ou par rapport à la
dernière colonne. On trouve
C’est-à-dire,
Pn = (X − an )Pn−1 − cn−1 bn−1 Pn−2
(d) Montrer que si une matrice carrée A vérifie tr(A) = rg(A) = 1, A est
un projecteur (i.e. A2 = A). Posé à l’oral des Mines
4
(a) Si A = X Y T où X ∈ Mp,1 (K) et Y ∈ Mq,1 (K), X et Y non
nuls, on voit que les colonnes de A sont les yj X. Elles sont toutes
dans Vect(X), et donc le rang de A, qui est celui de la famille de
ses vecteurs colonnes, est ≤ 1. Mais A 6= 0 (car il y a au moins un
produit xi yj non nul), donc rg(A) = 1. Si réciproquement rg(A) =
1, soit C ∈ Mn,1 (K) une colonne qui engendre l’espace vectoriel
engendré par les colonnes de A. Alors ces colonnes peuvent s’écrire
y1 C, . . .,yq C. Et donc, en notant X = C et Y comme on pense, on
a A = X Y T . Dans le cas où p = q, la trace vaut
P
xi yi , c’est-à-dire
X T Y , c’est-à-dire Y T X.
1 0
(b) La matrice est de rang 1 et diagonalisable car diagonale. La
0 0
0 1
matrice est de rang 1, triangulaire donc ses valeurs propres
0 0
se voient sur la diagonale : il y a 0, c’est tout. Si elle était diagona-
lisable, elle serait semblable à la matrice nulle, donc nulle. Ce n’est
pas le cas. Bien sûr on peut construire des matrices n × n de la même
manière. Plus généralement, on voit que les matrices de la base ca-
nonique sont diagonalisable si et seulement si elles sont diagonales.
(c) Le rang de A vaut 1, donc
5
simplement du fait que, si λ 6= 0, si u(x) = λx, alors x =
résulte
1
u x . Donc, rang 1 ou pas rang 1, un endomorphisme non nul u
λ
tel que Im(u) ⊂ Ker(u) est tel que
M
Eλ (u) ⊂ Ker(u)
λ∈Sp(u)
Ker(u) ⊕ Im(u) = E
6
qu’à trouver une base du noyau, ce qui se fait assez facilement. Ensuite,
on remplit une matrice P avec des colonnes propres. Par exemple, avec
1 1 1 ... ... 1 1
−1 0 0 ... ... 0 1
.. ..
0
−1 0 . .
. .. ..
.. .. ..
P1 = .. . . . . .
.. .. ..
.. .. ..
.
. . . . .
. .. .. ..
.. . . 0 .
0 ... ... ... 0 −1 1
et D1 = diag(0, 0, . . . , 0, n), on a
J = P1 D1 P1−1
1 1 0 ... ... ... 0
1
−1 1 0 ... ... 0
. .. ..
..
0 −1 . .
. .. ..
.. .. ..
P2 = .. . . . . .
.. ..
.. .. ..
.
. . . . 0
. .. .. ..
.. . . . 1
1 0 ... ... ... 0 −1
et D2 = diag(n, 0, . . . , 0, 0), on a
J = P2 D2 P2−1
7
(c’est-à-dire trouver une matrice diagonale semblable, la matrice de pas-
sage et son inverse) (voir fichier Maple page suivante).
On peut faire le calcul directement, mais il est judicieux d’écrire cette
matrice comme combinaison linéaire de deux matrices intéressantes.
On a
A = βJ + (α − β)In
A = P (βD + (α − β)In )P −1
O restart;with(LinearAlgebra):
O f:=proc(i,j) if i=j then a else b fi end;
f := proc i, j if i = j then a else b end if end proc (1)
O A:=Matrix(6,6,f);
a b b b b b
b a b b b b
b b a b b b
A := (2)
b b b a b b
b b b b a b
b b b b b a
O s:=[Eigenvectors(A)];
aKb K1 K1 K1 K1 K1 1
aKb 0 0 0 0 1 1
aKb 0 0 0 1 0 1
s := , (3)
aKb 0 0 1 0 0 1
aKb 0 1 0 0 0 1
aC5 b 1 0 0 0 0 1
Attention ! pour Maple, a+5b et a-b sont différents. C'est à l'utilisateur d'examiner
le cas où ils seraient égaux. C'est d'ailleurs assez simple.
O P:=op(2,s);
K1 K1 K1 K1 K1 1
0 0 0 0 1 1
0 0 0 1 0 1
P := (4)
0 0 1 0 0 1
0 1 0 0 0 1
1 0 0 0 0 1
O P**(-1).A.P;
aKb 0 0 0 0 0
0 aKb 0 0 0 0
0 0 aKb 0 0 0
(5)
0 0 0 aKb 0 0
0 0 0 0 aKb 0
0 0 0 0 0 aC5 b
O
8
Exercice 6 (diagonalisabilité des matrices compagnes, classique à
l’oral et à l’écrit). Classique car ces matrices interviennent dans certains
problèmes : voir la démonstration du théorème de Cayley-Hamilton, les
suites récurrentes. . .
Soit
a1 a2 ... ... an
1 0 ... ... 0
.. .. ..
A=0 . . .
.. ..
.. .. ..
.
. . . .
0 ... 0 1 0
(a) Calculer le polynôme caractéristique de A.
(b) Montrer que, pour tout scalaire λ, rg(A − λIn ) ≥ n − 1. En déduire
que A est diagonalisable si et seulement si P est scindé simple.
(c) Retrouver le résultat des questions précédentes en résolvant le sys-
tème
AX = λX
9
(on vérifie que la trace et le déterminant sont là où il faut !).
(b) Les n − 1 premières colonnes de A − λIn sont linéairement indé-
pendantes. Par théorème du rang, tout sous-espace propre est de
dimension ≤ 1, donc de dimension 1. Et donc la somme des dimen-
sions des sous-espaces propres vaut n si et seulement s’il y en a n,
i.e. si et seulement si PA est scindé simple. La condition suffisante se
transforme ici en condition nécessaire et suffisante.
(c) La résolution du système mène au fait qu’il n’a pas de solution non
nulle lorsque λn − a1 λn−1 − . . . − an 6= 0. Et lorsque λn − a1 λn−1 −
. . . − an = 0, il y a une droite vectorielle de solutions, engendrée par
le vecteur
λn−1
.
.
.
λ
1
On retrouve ainsi les résultats précédents.
0 1 1
Exercice 7. Soit A = 1 1 . Eléments propres ? diagonalisa-
0
1 0 1
bilité ? Calcul de An ?
10
au déterminant), ce sont donc 1 et −1. Ce qui permet de diagonaliser sans
trop de problème.
Si A = P DP −1 , on a An = P Dn P −1 .
On peut aussi diviser X n par le polynôme minimal de A :
An = αn A2 + βn A + γn I3
11
Exercice 8 (Réduction simultanée). (a) Soit u, v deux endomorphismes
d’un espace vectoriel de dimension finie, diagonalisables. Démontrer
que u et v commutent si et seulement si ils sont diagonalisables dans
une même base, c’est-à-dire si et seulement s’il existe une base for-
mée de vecteurs propres à la fois pour u et pour v (on pourra utiliser
la stabilité des sous-espaces propres de u par v ou réciproquement).
Enoncer ce résultat en termes de matrices.
Si u et v sont diagonalisables dans une même base, soit B une telle base.
Deux matrices diagonales commutent, donc
(on note E l’espace vectoriel sur lequel sont définis u et v). Les Ei sont
stables par v (car v commute avec les u − λi Id). Donc v induit sur chaque
Ei un endomorphisme vi qui est, d’après le cours, diagonalisable. Soit Bi
une base de Ei formée de vecteurs propres de vi , donc de vecteurs propres
de v. En « réunissant » les bases B1 ,. . ., Bp , on obtient une base de E
Mp
(adaptée à E = Ei ) formée de vecteurs propres pour u et pour v.
i=1
Donc u et v sont simultanément diagonalisables.
En termes de matrices : soit A, B deux matrices diagonalisables ; AB =
BA si et seulement s’il existe P ∈ GLn (K) et D, ∆ diagonales telles que
A = P DP −1 et B = P ∆P −1
12
Exercice 9 (Trigonalisation simultanée). Dans cette question, le corps
de base est C. On suppose que u et v commutent, mais on ne les suppose
plus diagonalisables. Démontrer qu’ils ont au moins un vecteur propre
commun (on pourra utiliser la stabilité des sous-espaces propres de u par
v ou réciproquement). Utiliser ce résultat pour démontrer que u et v sont
simultanément trigonalisables.
P −1 A00 P = T 00 , P −1 B 00 P = U 00
13
1 0 ... 0
0
Soit alors Q = . ∈ GLn+1 (C) ; un produit par blocs
.. P
0
montre que Q−1 A0 Q et Q−1 B 0 Q sont triangulaires supérieures.
14
peut en prendre une base et lui appliquer le cas « fini », ce qui conclut : tous les
éléments de Vect(ui )i∈I sont simultanément diagonalisables.
u(x) = λx , v(x) = µx
15
1 −1 −1
Exercice 11. A =
−1 1 ∈ M3 (R).
−1
−1 −1 1
1. Déterminer l’idéal annulateur de A et la dimension de R[A].
ce qui donne
A2 − A − 2I3 = 0
2. Trouver deux suites réelles (an ) et (bn ) telles que pour tout n,
An = an I + bn A.
16
(a0 , b0 ) = (1, 0), (a1 , b1 ) = (0, 1) conviennent pour n = 0 et n = 1. Et, si
An = an I + bn A,
bn+1 = an + bn = 2bn−1 + bn
r2 − r − 2 = 0
An = αn A + βn
17
d’où, très facilement, αn et βn .
3. Commutant de A ?
Compte tenu de ce qui a déjà été vu, on peut utiliser le fait que A est
diagonalisable, de valeurs propres 2 (double) et -1 (simple). Inutile pour
cela de calculer le polynôme caractéristique, il est de notoriété publique
que J a pour valeurs propres 0 (double, J étant de rang 1) et 3 (simple).
Une base de vecteurs propres ? il suffit de nouveau de chercher les vecteur
propres de J : (1, 1, 1) est vecteur propre de J, associé à la valeur propre
3, donc vecteur propre de A associé à la valeur propre −1. (1, −1, 0) et
(1, 0, −1) sont vecteur propres pour J associés à la valeur propre 0, donc
1 1 1
pour A associés à la valeur propre 2. En définissant P = 1 −1 0
1 0 −1
−1 0 0
−1
et D = 0 2 0 on a A = P DP . De plus,
0 0 2
AM = M A ⇔ P DP −1 M = M P DP −1 ⇔ D(P −1 M P ) = (P −1 M P )D
Une matrice qui commute avec D laisse ses sous-espaces propres stables
(c’est plus clair lorsqu’on énonce cela en termes d’endomorphismes, en
considérant les endomorphismes canoniquement associés), et donc est du
type
a 0 0
0 b c
0 d e
Mais réciproquement, un produit par blocs montre qu’une telle matrice
commute avec D (que l’on aura intérêt à écrire par blocs en utilisant le
bloc 2I2 ). Les matrices qui commutent avec A sont donc les
a 0 0
−1
P 0
b P
c
0 d e
18
ou encore (en multipliant les paramètres par 3, pour chasser les dénomi-
nateurs) les matrices
a+b+c+d+e a − 2b − 2d + c + e a + b + d − 2c − 2e
a−b−c a + 2b − c a − b + 2c
a−d−e a + 2d − e a − d + 2e
CP (B) = (0)
Ceci n’implique surtout pas que P (B) = 0, mais que P (B) 6∈ GLn (C). Or on
scinde P (on est sur C, c’est important) :
d
Y
P = (X − αi )
i=1
(les αi ne sont donc pas supposés distincts : rien n’oblige A à être diagonalisable).
Les αi sont les valeurs propres de A. Alors
d
Y
(B − αi In ) 6∈ GLn (C)
i=1
19
Exercice 13. Soit u diagonalisable, λ une valeur propre de u, pλ la projection
sur le sous-espace propre de u associé à λ parallèlement à la somme des autres
sous-espaces propres. Montrer que pλ est un polynôme de u (on pourra raisonner
matriciellement).
et
Im1
0
..
B = MB (p) = .
..
.
0
où p est la projection sur le sep Eλ1 (u) parallèlement à la somme des autres.
Soit L1 le polynôme qui vaut 1 en λ1 , 0 en λk pour k = 1, 2, . . . , p (Lagrange. . .).
On a B = L1 (A) et donc p = L1 (u).
20
2. Soit u un endomorphisme d’un espace vectoriel réel de dimen-
sion finie. On veut démontrer qu’il existe au moins une droite
ou un plan stable par u. Pour cela, on considère Q un diviseur
irréductible de µ, polynôme minimal de u.
(a) Montrer que Ker Q(u) est différent de {0E }.
(b) Soit x non nul dans Ker Q(u) ; vérifier que Vect x, u(x) est
stable par u (on pourra distinguer deux cas, suivant le degré
de Q). Conclure.
Si Q = X − α, dire que x ∈ Ker Q(u) équivaut à dire
u(x) = αx
Dans ce cas, Vect x, u(x) = Vect(x) est stable par u, et c’est une
droite.
Si Q = X 2 + αX + β (avec α2 − 4β < 0), dire que x ∈ Ker Q(u)
équivaut à dire
u2 (x) = −αu(x) − βx
et alors Vect x, u(x) est un plan stable par u.
Comme un polynôme réel irréductible est de degré 1 ou 2, qu’il n’est
pas restrictif de supposer unitaire, on conclut.
21
3. Soit A une matrice de Mn (R). On suppose que α + iβ est une
valeur propre complexe non réelle de A, et que X1 + iX2 est
un vecteur propre associé (α et β sont des réels, X1 et X2 des
matrices colonnes réelles, que l’on identifiera à des éléments de
Rn ). Montrer que Vect(X1 , X2 ) est stable par A, et retrouver le
résultat de l’exercice précédent.
ce qui montre bien que Vect(X1 , X2 ), qui est une droite ou un plan, est
stable par A.
22
Exercice 15 (Réduction par blocs). Soit A, B deux matrices carrées d’ordre p
et q respectivement. On définit par blocs la matrice
A 0
M =
0 B
P (M ) = 0 ⇔ P (A) = P (B) = 0
23
annulateur de M (resp.. . .), µM = ppcm(µA , µB ). Et donc
24
2. Démontrer que M est trigonalisable si et seulement si A et B le
sont.
25
X1
L’application X1 7→ est donc un isomorphisme de Eλ (A) sur Eλ (N ), ces
(0)
deux sous-espaces ont donc même dimension.
Deuxième cas : λ ∈ Sp(B) et, donc, λ 6∈ Sp(A)
BX2 = λX2
N X = λX ⇔
X = (A − λI )−1 CX
1 n 2
Donc,
n (A − λI )−1 CX o
n 2
Eλ (N ) = ; X2 ∈ Eλ (B)
X2
−1
(A − λIn ) CX2
L’application X2 7→ est donc un isomorphisme de Eλ (B)
X2
sur Eλ (N ), ces deux sous-espaces ont donc même dimension.
Finalement,
X X X
dim Eλ (N ) = dim Eλ (A) + dim Eλ (B) = p + q
λ∈Sp(N ) λ∈Sp(A) λ∈Sp(B)
26
ce qui donne à peu près ce qu’on veut, à condition de voir que (X1 , X2 ) est libre.
Si X2 est nulle, X1 qui ne l’est pas est vecteur propre associé à la valeur propre
α, à rejeter. Si X1 = tX2 avec t réel, on obtient que
Exercice 17. Soit A une matrice diagonalisable ; montrer que, pour tout p
entier naturel, Ap est diagonalisable.
Réciproquement, soit p ≥ 2 et A ∈ GLn (C) tels que Ap soit diagonalisable. Dé-
montrer que A est diagonalisable. Donner un exemple montrant que ce résultat
est en général faux si on ne suppose pas la matrice inversible. Donner aussi un
exemple montrant que le résultat est faux sur R.
Si Ap est diagonale, A est-elle diagonale ?
Montrer enfin que A est diagonalisable si et seulement si Ap l’est et Ker(Ap ) =
Ker(A).
qui est scindé simple (deux nombres complexes qui n’ont pas la même puissance
p-ième ne peuvent pas être égaux). Et donc A est diagonalisable.
27
0 1
La considération de A = avec p = 2 montre que la réciproque est
0 0
0 −1
fausse. Comme toujours sur R, la matrice R = est utile : R2 est
1 0
diagonalisable (diagonale, même) et pourtant R ne l’est pas. Et par la même
occasion on voit que la réponse à la dernière question est négative.
le polynôme minimal de Ap , avec les ai deux à deux distincts, non nuls. Avec
les notations ci-dessus, le polynôme
p
r
!
Y Y
p
X (X − αi,k )
i=1 k=1
Exercice 18. Soit A ∈ Mn K, et soit ΦA ∈ L Mn (K) définie par
ΦA (M ) = AM
28
Par récurrence on vérifie
∀k ∈ N ΦkA : M 7→ Ak M
Donc P (ΦA ) = ΘMn (K) ⇔ ∀M ∈ Mn (K) P (A)M = (0) ⇔ P (A) = (0) Les
polynômes annulateurs de ΦA et ceux de A sont donc les mêmes. On en déduit
que ΦA est diagonalisable si et seulement si A l’est (car ΦA admet un polynôme
annulateur scindé simple si et seulement si A admet un polynôme scindé simple).
Accessoirement, les valeurs propres de A et de ΦA sont les mêmes.
29
Tout élément est d’ordre fini, donc admet un polynôme annulateur de la forme
X d − 1. Or sur C un tel polynôme est scindé à racines simples.
si (e1 , . . . , en ) est la base canonique de Cn . Il existe donc p tel que upσ = Id,
ce qui montre qu’il y a un polynôme annulateur de la forme X p − 1, scindé à
racines simples car on est sur C.
X 3 − X 2 = X 2 (X − 1)
n’est certes pas scindé à racines simples, mais ce polynôme annulateur donne
déjà beaucoup d’indications. On peut utiliser le théorème des noyaux, tenant
compte du fait que
X 2 ∧ (X − 1) = 1
et on obtient
M
E = Ker(f − Id) Ker(f 2 )
31
3. On suppose n = 3. Trouver une partie finie S de M3 (R) de cardinal
minimal telle que, pour tout endomorphisme p tel que p4 = p, on peut
trouver A ∈ S telle que A soit la matrice de p dans une certaine base de
E.
32
ce noyau, et (e1 , e2 ) est libre (il n’y a pas de valeur propre, donc pas
de vecteur propre dans ce noyau, donc e1 n’est pas vecteur propre).
Enfin,
p(e2 ) = p2 (e1 ) = (−p − Id)(e1 ) = −e2 − e1
On commence
par un produit par blocs et une récurrence
pour voir que si
k k−1
A I A kA
B = alors pour tout naturel k ≥ 1, B k = . Puis,
O A O Ak
P (A) P 0 (A)
par combinaison linéaire, P (B) = . Donc P annule B si et
O P (A)
seulement si P et P 0 annulent A, donc si et seulement si mA divise P et P 0 ,
33
donc si et seulement si chaque λk est racine de multiplicité au moins mk + 1 de
P . Finalement
p
Y
mB = (X − λk )1+mk
k=1
Exercice 26. Soit A une matrice carrée d’ordre n. A quelle condition la matrice
définie par blocs
A A
M =
0 A
est-elle diagonalisable ?
Exercice 27. Soit A une matrice carrée d’ordre n. A quelle condition la matrice
définie par blocs
0 In
A 0
est-elle diagonalisable ?
34
Méthode 1 : polynômes
Soit
0 In
M =
A 0
On calcule, par blocs :
A 0
M2 =
0 A
Donc, si M est diagonalisable, M 2 l’est, donc A l’est (voir exercice sur la « ré-
duction par blocs »). Réciproquement, si A est diagonalisable, M 2 l’est (voir le
même exercice). Et il existe donc un polynôme scindé à racines simples tel que
P (M 2 ) = (0). Le polynôme P (X 2 ) annule alors M . Est-il scindé simple ? on
peut écrire
d
Y
P (X 2 ) = (X 2 − µi )
i=1
où les µi sont deux-à-deux distincts. Supposons dorénavant que le corps de base
est C. Si les µi sont non nuls, chaque (X 2 − µi ) se factorise en
X 2 − µi = (X − αi )(X + αi )
où ±αi sont les racines carrées de µi . On voit alors que P (X 2 ) est scindé simple.
Conclusion partielle : Si K = C est si A est diagonalisable inversible, M est
diagonalisable.
(en effet, on peut alors supposer tous les µi non nuls ; si un µi est nul, on
peut enlever le terme X correspondant du polynôme annulateur P , car M 2 est
inversible).
Et si A est diagonalisable mais non inversible ? On résout alors M X = 0 et
M 2 X = 0 en écrivant par blocs
X1
X=
X2
(X1 et X2 étant deux colonnes de même « hauteur »). On voit que les dimensions
des noyaux de M et de M 2 sont différentes. Or si M est diagonalisable, elle est
semblable à une matrice D diagonale, M 2 est semblable à D2 , il y a autant de
coefficients non nuls sur la diagonale de D que sur celle de D2 , donc les noyaux
de M et de M 2 ont même dimension. Finalement,
35
Si K = C, M est diagonalisable si et seulement si A est diagonalisable et
inversible
Méthode 2
L’avantage de cette deuxième méthode est de ne pas faire d’hypothèse sur le
corps de base !
On résout M X = λX par blocs :
0 In X1 X X = λX1
= λ 1 ⇐⇒ 2
A 0 X2 X2 AX1 = λX2
X = λX1
2
⇐⇒
AX1 = λ2 X1
36
2. Déterminer le polynôme caractéristique de u.
37
Si une matrice est nilpotente, sa seule valeur propre est 0, quel que soit le corps.
Réciproquement, si la seule valeur propre est 0, comme on est sur C, le polynôme
minimal est scindé, il est donc de la forme X p . Donc la matrice est nilpotente.
En revanche, sur R, la matrice
0 0 0
0
0 −1
0 1 0
38
Exercice 29 (Calculs sur les matrices nilpotentes, oral).
Soit N une matrice carrée d’ordre n nilpotente (c’est-à-dire ayant une puissance
nulle).
4. Peut-on trouver par la même méthode une racine p-ième (matricielle, bien
entendu) de In + N (p ≥ 3) ?
et en remplaçant par N :
Pn (N )2 = In + N
39
1 0 0
Exercice 30 (Oral Centrale ). Soit A = 0
0 1.
0 −1 2
1. La matrice A est-elle diagonalisable ?
1 0 0
2. Montrer que A est semblable à 0 1
.
1
0 0 1
3. Calculer An pour n ∈ N.
40
et il suffit de calculer P −1 et de faire un produit matriciel. Sinon, remarquer
que (X − 1)2 annule A. Or
Ceci bien sûr, à condition de vérifier que A2 6= 0. Ce qui n’est pas le plus
difficile : si A2 = 0, alors ImA ⊂ KerA, ce qui est incompatible, pour des raisons
de dimension, avec l’hypothèse rg(A) = 3.
Comme dim (Ker u) = 2, la dimension de Ker(u2 ) peut donc a priori être égale
à 3 ou 4. On va examiner ces deux éventualités.
• Supposons dim Ker(u2 ) = 3. Soit F un supplémentaire de Ker(u2 ) dans K5 ;
il est de dimension 2. Si (e, f ) est une base de F , u(e) et u(f ) sont dans Ker(u2 )
(comme tout vecteur d’ailleurs) mais pas dans Ker(u) (car e et f ne sont pas
dans Ker(u2 )). Et ils forment une famille libre : si au(e) + bu(f ) = 0Kn , on a
u(ae + bf ) = 0K5 , donc ae + bf ∈ Ker(u). Mais F ∩ Ker(u) ⊂ F ∩ Ker(u2 ) =
{0K5 }. Donc ae + bf = 0K5 . Et donc a = b = 0. On a donc une famille libre à
deux éléments, qui engendre un sev de Ker(u2 ) en somme directe avec Ker(u).
On aurait donc 2 + 2 ≤ 3. Ce cas ne peut pas se produire. On a montré
41
plus généralement, dans l’exercice sur les noyaux emboîtés, que l’écart entre les
dimensions de deux noyaux successifs était décroissant.
• Supposons dim Ker(u2 ) = 4. Si e 6∈ Ker(u2 ), u(e) ∈ Ker(u2 ) \ Ker u,
soit f dans K5 tel que (f, u(e)) soit une base d’un supplémentaire de Ker u
dans Ker(u2 ) (possible pour des raisons de dimension). Alors on vérifie que
u(f ), u2 (e) est une base de Ker u. On vérifie aussi que u(f ), f, u2 (e), u(e), e
est une base de K5 (former une combinaison linéaire nulle, prendre l’image par
u2 , puis par u). Dans cette base, la matrice de u est
0 1 0 0 0
0 0 0 0 0
0 0 0 1 0
0 0 0 0 1
0 0 0 0 0
On appelle λ1 , . . . , λn avec |λ1 < . . . < |λn | les valeurs propres. Alors
42
La deuxième suite est bien définie, car Ak est toujours inversible. On décompose
X sur une base de vecteurs propres (E1 , . . . , En ) associés respectivement aux
valeurs propres λ1 , . . . , λn . Alors, si X = x1 E1 + · · · + xn En , Ak X = x1 λk1 E1 +
· · · + xn λkn En . Supposons xn 6= 0. On met λkn xn en facteur. On obtient
k
1 k
xn λn 1
A X = (En + Vk )
kAk Xk |xn | |λn | kEn + Vk k
où Vk −−−−−→ (0). Il y a donc convergence vers un vecteur propre associé à λn .
k→+∞
Dans le cas général, il y ade même convergence vers un vecteur propre asocié à
λp où p = max({k ; xk 6= 0}).
(on commencera par envisager le cas où les deux matrices sont inversibles).
3. Soit A et B deux éléments de Mn (K). On veut démontrer que AB et BA
ont même polynôme caractéristique. Dans un premier temps, on suppose
que K = R ou K = C.
(a) Démontrer alors que le résultat cherché est vrai si l’une des deux
matrices est inversible, puis traiter le cas général en utilisant un ar-
gument de continuité et densité.
(b) Autre méthode : On définit deux matrices par blocs, pour tout λ :
A λIn B −λIn
et
In 0 −In A
Calculer le produit de ces deux matrices, dans les deux sens. Calculer
le déterminant du produit, conclure.
Cette méthode est plus astucieuse, mais quel est son intérêt ?
A 7−→ PA
Exercice 36.
Lorsqu’à l’oral la comatrice figure dans un énoncé, si cet énoncé précise que
le corps de base est R ou C, on aura intérêt à envisager les considérations
suivantes : GLn (K) est dense dans Mn (K) (à savoir démontrer, ce n’est pas du
cours), et sur GLn (K) la comatrice s’exprime en fonction de l’inverse par une
formule célèbre. Cette méthode a déjà été utilisée dans un exercice précédent.
44
O restart;with(LinearAlgebra):
O A:=Matrix(3,3,symbol=a);
a1, 1 a1, 2 a1, 3
O CA:=Determinant(A)*Transpose(MatrixInverse(A));
a2, 2 a3, 3 K a2, 3 a3, 2 Ka2, 1 a3, 3 C a3, 1 a2, 3 a2, 1 a3, 2 K a3, 1 a2, 2
CA := a3, 2 a1, 3 K a1, 2 a3, 3 a1, 1 a3, 3 K a3, 1 a1, 3 Ka1, 1 a3, 2 C a3, 1 a1, 2 (2)
a1, 2 a2, 3 K a2, 2 a1, 3 Ka1, 1 a2, 3 C a2, 1 a1, 3 a1, 1 a2, 2 K a2, 1 a1, 2
O CharacteristicPolynomial(A,x);
x3 K a3, 3 C a2, 2 C a1, 1 x2 K a3, 1 a1, 3 C a2, 3 a3, 2 K a2, 2 a3, 3 K a1, 1 a3, 3 K a1, 1 a2, 2 (3)
C a2, 1 a1, 2 x K a1, 1 a2, 2 a3, 3 C a1, 1 a2, 3 a3, 2 K a2, 1 a3, 2 a1, 3 C a2, 1 a1, 2 a3, 3
K a3, 1 a1, 2 a2, 3 C a3, 1 a2, 2 a1, 3
46
On a raisonné sur des matrices carrées, mais si elles sont rectangulaires ça
marche aussi bien.
(a) Trouver les matrices qui commutent avec une matrice carrée diago-
nale à coefficients distincts.
2. Cas général
On « rappelle » (ou plutôt on admet, voir exercice précédent) que, si F
est un espace vectoriel de dimension finie, si 0 ≤ p ≤ dim(F ), l’ensemble
des endomorphismes de F de rang supérieur ou égal à p est un ouvert de
L(F ).
Φf : g 7→ g ◦ f − f ◦ g
47
(d) Soit E un C-espace vectoriel de dimension n, f un endomorphisme
de E. Déduire de tout ce qui précède que dim(Cf ) ≥ n.
(a) Trouver les matrices qui commutent avec une matrice carrée
diagonale à coefficients distincts.
AD = DA ⇔ (A diagonale)
48
Mais la réciproque est vraie : supposons que g laisse stable chaque
Ei ; si x ∈ Ek , (f ◦ g)(x) = f g(x) = λk g(x) (car g(x) ∈ Ek ) ; et
(g ◦ f )(x) = g(λk x) = λk g(x). g ◦ f et f ◦ g coïncident sur chaque Ek ,
M p
or Ek = E (car f est diagonalisable), donc f ◦ g = g ◦ f .
k=1
On a montré :
Si f est diagonalisable, les endomorphismes qui commutent
avec f sont les endomorphismes qui laissent stables les sous-
espaces propres de f
Maintenant, il reste à utiliser ceci pour calculer la dimension de Cf .
Une première méthode (matricielle) : Soit B une base adaptée
à la décomposition E = E1 ⊕ E2 ⊕ . . . ⊕ Ep (les n1 premiers vecteurs
de B sont une base de E1 , les n2 suivants une base de E2 , etc. . .). On
vient de voir que g était dans Cf si et seulement si g laissait stables
tous les Ek , donc si et seulement si la matrice de g dans la base B
était diagonale par blocs de la forme :
A1
A2
..
.
Ap
49
désigne l’endomorphisme induit par g sur Ek , est un isomorphisme
(la linéarité est simple, il suffit de l’écrire. La bijectivité est un corol-
laire du résultat sur « la définition d’une application linéaire par ses
restrictions aux facteurs d’une somme directe supplémentaire »). Or
p p
X X
dim L(E1 ) × . . . × L(Ep ) = dim(L(Ek )) = n2k , ce qui donne
k=1 k=1
la conclusion.
2. Cas général
On « rappelle » (ou plutôt on admet) que, si F est un espace
vectoriel de dimension finie, si 0 ≤ p ≤ dim(F ), l’ensemble des
endomorphismes de F de rang supérieur ou égal à p est un ouvert
de L(F ).
Φf : g 7→ g ◦ f − f ◦ g
50
Comme Cf = Ker(Φf ), on peut appliquer le théorème du rang pour
obtenir
dim(Cf ) = n2 − rg(Φf )
{f ∈ L(E) ; rg(Φf ) ≤ n2 − n}
51
On écrit A = P DP −1 avec D diagonale, P inversible. On en déduit facilement
que la suite (Ak ) est bornée. On est en dimension finie, on peut donc en ex-
traire une suite convergente (Aφ(k) ). Mais une suite convergente dans Mn (Z)
est stationnaire, il existe donc k tel que
Aφ(k+1) = Aφ(k)
Exercice 42. Soit A une matrice carrée réelle ou complexe. Exprimer le déter-
minant de l’exponentielle de A à l’aide de la trace de A. On pourra trigonaliser
sur C.
0 0 1/2
n
Exercice 45 (CCP). Soit A =
1 0 . lim (A ) = ?
1/2
n→+∞
0 1 0
Exercice 46. Soit A une matrice carrée. On suppose que la suite (An ) converge,
soit B sa limite. Montrer que B est une matrice de projecteur.
1. Démontrer que la suite (un ) converge vers 0 si et seulement si, pour tout
élément x de E, la suite un (x) converge vers 0E .
2. Démontrer que, si la suite (un ) converge vers 0, toutes les valeurs propres
de u sont de module strictement inférieur à 1.
Montrer que A est nilpotente si et seulement si la matrice nulle est dans l’adhé-
rence de S(A).
[Indication Si A = M(e1 ,...,en ) (u), comment s’écrit M(e1 ,λe2 ,...,λn−1 en ) (u) où
λ 6= 0 ?]
Exercice 49 (Une caractérisation des matrices diagonalisables com-
plexes, et des considérations sur le rayon spectral, à partir du produit
par une matrice diagonale simple).
Les questions 1 et 2 donnent des idées pour rendre moins artificielle l’introduc-
tion de la matrice Dt de la question 3. Mais ces deux premières questions ne
sont pas utilisées dans la suite.
1. On veut montrer que, pour tout p ∈ N∗ , la matrice
λ µ
A=
0 λ
est semblable à la matrice
µ
λ
Bp = p
0 λ
Pour cela, on considère u ∈ L(K2 ) canoniquement associé à A. Si C =
(e1 , e2 ) est la base canonique de K2 , on a MC (u) = A. Trouver une base
Cp de K2 telle que MCp (u) = Bp (on cherchera à ne changer qu’un des
deux vecteurs de C pour obtenir Cp ).
2. Montrer de même que les matrices
µ ν
λ
λ µ ν p p2
0 λ ξ et
0 ξ
λ
p
0 0 λ 0 0 λ
sont semblables. Généraliser à la dimension quelconque.
3. Soit T une matrice triangulaire supérieure carrée à n lignes et n colonnes
(réelle ou complexe), et soit Dt la matrice diagonale dont les coefficients
diagonaux sont (dans l’ordre en partant du coefficient en première ligne
et première colonne) 1, t, t2 , . . . , tn−1 (t réel, t > 0). Calculer Dt T Dt−1 .
4. Application à une caractérisation topologique de la diagonalisa-
bilité pour une matrice complexe
Dans cette partie, si A est une matrice carrée complexe, on note S(A)
l’ensemble des matrices semblables à A, c’est-à-dire :
S(A) est l’orbite de A pour l’action par conjugaison du groupe GLn (C)
sur l’esnsemble Mn (C) ; c’est la classe d’équivalence de A pour la relation
”est semblable à”
54
(a) Soit N une matrice de Mn (C) nilpotente ; montrer en utilisant la pre-
mière question qu’il existe une suite d’éléments de S(N ) qui converge
vers la matrice nulle.
(c) On suppose ici A matrice carrée diagonalisable ; soit (Pk ) une suite
de matrices de GLn (C) telle que la suite (Bk ), où Bk = Pk−1 APk ,
converge. On note B la limite de la suite (Bk ).
(a) Soit k.k une norme sur Cn ; on définit N sur Mn (C) par
kAXk
N (A) = sup
X6=0 kXk
(on identifie Cn à Mn,1 (C)). On admet que N est une norme, dite
« subordonnée » à la norme k.k. Démontrer que
ρ(A) ≤ N (A)
Une norme possédant ces deux propriétés est une « norme d’algèbre »
sur Mn (C).
(c) Trouver une matrice A non nulle telle que ρ(A) = 0. En déduire que
ρ n’est pas une norme sur Mn (C).
(d) Soit A une matrice carrée complexe fixée. Le but de cette partie est
de démontrer que, pour tout réel strictement positif , il existe une
55
norme d’algèbre µ sur Mn (C) telle que
µ(A) ≤ ρ(A) + .
Une autre manière de voir les choses est d’interpréter D1/t comme matrice
de passage de la base canonique à une base facile à exprimer. C’est le
56
point de vue que l’on a adopté dans l’annexe sur les suites vérifiant une
récurrence linéaire à coefficients constants. Il est intéressant quand même
de savoir écrire ce que devient la matrice d’un endomorphisme lorsqu’on
remplace la base (e1 , . . . , en ) par la base (αn−1 e1 , . . . , α1 en−1 , en ).
S(A) est l’orbite de A pour l’action par conjugaison du groupe GLn (C)
sur l’esnsemble Mn (C) ; c’est la classe d’équivalence de A pour la relation
”est semblable à”
(c) On suppose ici A matrice carrée diagonalisable ; soit (Pk ) une suite
de matrices de GLn (C) telle que la suite (Bk ), où Bk = Pk−1 APk ,
converge. On note B la limite de la suite (Bk ).
57
i. Montrer que le polynôme minimal de A annule B.
Bkm −−−−−→ B m
k→+∞
58
ii. Montrer que A et B ont même polynôme caractéristique (on ad-
mettra que l’application qui à une matrice associe son polynôme
caractéristique est continue).
et, d’après le cours, A est semblable à une matrice diagonale par blocs
et triangulaire supérieure. La suite Dp ADp−1 p≥1 converge alors vers une
matrice diagonale, donc non semblable à A, ce qui montre que S(A) est
fermé, et conclut.
(a) Soit k.k une norme sur Cn ; on définit N sur Mn (C) par
kAXk
N (A) = sup
X6=0 kXk
59
(on identifie Cn à Mn,1 (C)). On admet que N est une norme, dite
subordonnée à k.k. Démontrer que
ρ(A) ≤ N (A)
Une norme possédant ces deux propriétés est une « norme d’algèbre »
sur Mn (C).
kAXk ≤ N (A)kXk
(c) Trouver une matrice A non nulle telle que ρ(A) = 0. En déduire que
ρ n’est pas une norme sur Mn (C).
60
(d) Soit A une matrice carrée complexe fixée. Le but de cette partie est
de démontrer que, pour tout réel strictement positif , il existe une
norme d’algèbre µ sur Mn (C) telle que
µ(A) ≤ ρ(A) + .
= N1 (M )kXk1
61
Pas difficile.
Quand t → +∞. . .
convient.
Le sens facile : soit λ tel que |λ| = ρ(A), X 6= (0) tel que AX = λX, alors
Ak X = λk X pour tout k ≥ 0, donc, si (Ak ) converge vers (0), (λk ) aussi, donc
|λ| < 1.
Réciproquement, si ρ(A) < 1, on peut choisir µ norme d’algèbre telle que µ(A) <
1. On a facilement par récurrence, pour tout entier naturel k,
k
µ(Ak ) ≤ (µ(A))
62
1 Exercices divers
Exercice 50 (Centrale, X, encore un classique). Soit A une matrice carrée
d’ordre n réelle ou complexe. Démontrer que A est nilpotente si et seulement si,
pour tout k entre 1 et n, tr(Ak ) = 0. Plusieurs méthodes possibles. On pourra
par exemple utiliser une récurrence sur la dimension de la matrice et montrer
que le polynôme minimal d’une matrice carrée d’ordre n vérifiant, pour tout k
entre 1 et n, tr(Ak ) = 0, admet 0 pour racine.
Les coefficients diagonaux de T sont ses valeurs propres, donc les valeurs propres
de A. Or la seule valeur propres possible pour A est 0. Donc T est triangulaire
supérieure « stricte », c’est aussi le cas de ses puissances ; on a donc, pour tout
k 6= 0, tr(T k ) = 0, donc tr(Ak ) = 0.
Pour la réciproque, supposons
∀k ∈ {1, . . . , k} tr(Ak ) = 0
63
Et, pour tout k entre 1 et n − 1, tr(Ak ) = tr(M k ) = tr(B k ) = 0. Admettant la
propriété à l’ordre n − 1, on conclut que B est nilpotente. Donc il existe p tel
que B p = 0, donc
0 Lp
Mp =
(0) (O)
Notons
0 0 ... ... 0 1
..
1 . 0
.. .. ..
0 . . .
J = .
. .. .. .. ..
. . . . .
.. ..
.. .. ..
. . . . .
0 0 ... 0 1 0
Il peut être utile de voir J de la manière suivante : si j est l’endomorphisme de
Cn canoniquement associé à J, si (1 , . . . , n ) est la base canonique de Cn , alors
j(i ) = i+1 si 1 ≤ i ≤ n−1, et j(n ) = 1 . Ou encore, j(a ) = a+1 en définissant
a = r où r est le reste de la division de a par n. Ces remarques permettent
d’obtenir facilement J 2 , J 3 ,. . .sans poser la multiplication matricielle. Et de voir
que
a0 an−1 ... a1
a1 a0 ... a2
= a0 In + a1 J + · · · + an−1 J n−1
. .. ..
.. . ... .
an−1 an−2 . . . a0
D’autre part, J n = In . Le polynôme minimal de J est donc X n − 1 (il divise
X n − 1, et ne peut être de degré strictement inférieur à n car le calcul précédent
montre que la famille (In , J, . . . , J n−1 ) est libre.
Finalement, A = C[J], et donc est une sous-algèbre commutative de Mn (C).
65
J est annulée par X n − 1, scindé à racines simples sur C (ses racines sont les
n racines n-ièmes de l’unité dans C). Donc J est diagonalisable ; il existe D
diagonale et P inversible telles que
J = P DP −1
66
Cas général : n = pq ; X p − 1 ayant une seule racine (ce qu’on vient de voir),
qui est 1, xn = 1 ⇔ xq = 1, donc X n − 1 a au plus q racines, pour être scindé
c’est encore raté.
L’énoncé est (volontairement sans doute !) mal posé, sous forme d’endomor-
phisme. On pose donc le problème sous forme matricielle, et on se place sur
Mn (C). Le polynôme X q − 1 est scindé à racines simples sur C, donc A est
diagonalisable dans Mn (C) : il existe P ∈ GLn (C) et D ∈ Mn (C) diagonale
telles que
A = P DP −1
Mais, si dk 6= 1,
q
X 1 − dqk
dik = dk =0
i=1
1 − dk
Et, si dk = 1,
q
X
dik = 1
i=1
Donc
q
1X
tr(Ai ) = |{k ∈ J1, nK ; dk = 1}| = dim (E1 (A))
q i=1
67
(avec des notations habituelles), ce qui conclut.
Si on est très astucieux, on peut voir dans cette relation entre une dimension et
une trace un vague rappel du fait que la trace et le rang d’un projecteur sont
égaux. Mais quel projecteur ? la trace dans le membre de droite est celle de
1
(Id + A + . . . + Aq−1 )
q
on montre assez facilement que c’est bien un projecteur, il n’y a plus qu’à
montrer que son image est le noyau de Id − A, ce qui n’est pas trop difficile.
E.
68
Supposons u diagonalisable. Soit F un sous-espace stable par u. On sait que u
induit sur F un endomorphisme diagonalisable. Or les valeurs propres de uF
(induit par u sur F ) sont des valeurs propres de u, et, si λ est une valeur propre
de uF , on a
(en autorisant dans cette somme directe des espaces réduits à {0}, pour les
valeurs propres de u qui ne sont pas valeurs propres de uF ). Soit, pour tout
λ ∈ Sp(u), Gλ un supplémentaire dans Eλ (u) de Eλ (u) ∩ F . Alors on vérifie que
M
Gλ est un supplémentaire de F stable par u.
λ∈Sp(u)
Supposons que tout sous-espace stable par u admette un supplémentaire stable
par u. Soit Eλ (u) un sous-espace propre de u (il y en a car on est sur C).
Il admet un supplémentaire F stable par u. Soit uF induit par u sur F . Si
G est un sous-espace de F stable par uF , il est stable par u, et admet donc
un supplémentaire H (dans E) stable par u. On vérifie alors que H ∩ F est
un supplémentaire de G dans F , stable par uF . Comme uF vérifie l’hypothèse
« tout sous-espace stable par uF admet un supplémentaire stable par uF », on a
l’idée de conclure par récurrence sur la dimension de l’espace, ce qui se fait sans
problème (initialisation comme d’habitude évidente, en dimension 1, ou même
en dimension 2 si on trouve la dimension 1 trop caricaturale).
Montrons que toute matrice de Mn (C) est limite d’une suite de matrices dia-
gonalisables ; soit M ∈ Mn (C), on peut trigonaliser
M = P T P −1
69
où P ∈ GLn (C), T ∈ Tn+ (C). Notons, si k ∈ N, Tk la matrice dont tous les
coefficients non diagonaux sont égaux à ceux de T , et les coefficients diagonaux
sont :
1
(Tk )i,i = Ti,i +
i+k
Alors, assez clairement, Tk −−−−−→ T , donc (linéarité, donc continuité de A 7→
k→+∞
P AP −1 ) P Tk P −1 −−−−−→ M . Qui plus est, à partir d’un certain rang, les coef-
k→+∞
ficients diagonaux de Tk sont deux à deux distincts (une justification : si tous
les Ti,i sont égaux, c’est assez clair. Sinon, soit δ > 0 le plus petit des |Ti,i − Tj,j |
n
non nuls. A partir d’un certain rang k0 , on aura 2 < δ, et alors, si i 6= j
k
i−j
(Tk )i,i = (Tk )j,j ⇒ Ti,i − Tj,j = ⇒ 0 < |Ti,i − Tj,j | < δ
(k + i)(k + j)
montre que la matrice nulle, diagonalisable, est limite d’une suite de matrices
non diagonalisables, donc la matrice nulle n’est pas dans l’intérieur de l’en-
semble des matrices diagonalisables. S’inspirant de cet exemple, on peut penser
qu’une matrice diagonalisable ayant au moins une valeur propres double n’est
pas intérieure à l’ensemble des matrices diagonalisables. Soit en effet M une
telle matrice ; elle s’écrit
M = P DP −1
P Tp P −1 −−−−−→ P DP −1 = M
p→+∞
70
M est dans l’adhérence de l’ensemble des matrices non diagonalisables, elle n’est
donc pas dans l’intérieur des matrices diagonalisables.
On conclut provisoirement que :
L’inclusion réciproque est le passage délicat. Soit (Mp ) une suite de matrices
convergeant vers une matrice M . On suppose que M a n valeurs propres dis-
tinctes. Montrons qu’alors, à partir d’un certain rang, Mp a elle aussi n valeurs
propres distinctes. Notons λ1 , . . . , λn les valeurs propres de M . Soit δ > 0, et
supposons que Mp n’ait pas de valeur propre dans le disque D(λ1 , δ). Le poly-
nôme caractéristique de Mp s’écrit
n
Y
χp (X) = (X − µi,p )
i=1
où les µi,p sont les valeurs propres de Mp , comptées avec leur multiplicité. On
aurait, pour tout i, |µi,p − λ1 | ≥ δ, donc
|χp (λ1 )| ≥ δ n
ce qui permet de conclure que, pour tout δ > 0, il existe un rang à partir duquel
Mp a au moins une valeur propre dans le disque D(λ1 , δ). Idem pour les autres
λi . Choisissons alors δ strictement inférieur à la moitié de la plus petite distance
entre deux λi :
1
0<δ< min{|λi − λj | ; i 6= j}
2
A partir d’un certain rang, Mp a au moins une valeur propre dans chacun des
D(λi , δ), or ces disques sont disjoints, donc Mp a au moins n valeurs propres
distinctes, donc Mp est diagonalisable. Il n’existe donc pas de suite de matrices
non diagonalisables qui converge vers M . Donc M n’appartient pas à l’adhérence
de l’ensemble des matrices non diagonalisables. Donc M appartient à l’intérieur
de l’ensemble des matrices diagonalisables.
71
L’intérieur dans Mn (C) de l’ensemble des matrices diagonali-
sables est l’ensemble des matrices ayant n valeurs propres dis-
tinctes
1. Que dire d’une matrice de Eq dont toutes les valeurs propres sont égales
à 1?
3. Soit A0 ∈ Eq . Montrer qu’il existe > 0 tel que A ∈ B(A0 , )∩Eq entraîne
que A et A0 sont semblables.
Exercice 61 (Oral ens). Quelles sont les matrices A ∈ Mn (C) telles que
(Ap )p∈N converge vers 0 ? Quelles sont les matrices A ∈ Mn (C) telles que
(Ap )p∈N soit bornée ?
A = max{|λ| ; λ ∈ Sp(A)}
72
Supposons réciproquement ρ(A) < 1. Si A est diagonalisable, on montre alors
sans difficulté que Ap −−−−−→ 0. Vérifions que c’est vrai sans hypothèse de
p→+∞
diagonalisabilité : notons λ1 , . . . , λd les valeurs propres de A, m1 , . . . , md leurs
multiplicités respectives. L’application du théorème de Cayley-Hamilton et du
théorème de décomposition des noyaux montre
d
M
Cn = Fi
i=1
donne
+∞ ^ p
X Dk (X p )(λ) X p
Xp = (X − λ)k = λp−k (X − λ)k
k! k
k=0 k=0
Ap Y = Ap Y1 + . . . + Ap Yd −−−−−→ 0
p→+∞
Remarque : des méthodes assez différentes sont possibles (cf exercice sur le
rayon spectral et les normes subordonnées, par exemple).
73
ρ(A) ≤ 1. Si, pour toute valeur propre µ de A qui est de module 1, la dimension
du sous-espace propre associé à µ est égale à la multiplicité de µ (notée mµ ),
alors en utilisant
M M
Cn = Ker(A − µIn ) ⊕ Ker(A − µIn )mµ
µ∈Sp(A),|µ|=1 µ∈Sp(A),|µ|<1
on déduit de manière semblable à ce qui a été fait plus haut que (Ap X) est,
pour tout X, bornée, donc (Ap ) est bornée.
Supposons maintenant qu’il existe µ valeur propre de A telle que |µ| = 1 et telle
que dim(Ker(A − µIn )) 6= mµ . Alors l’inclusion
Ap Y = µp Y + pµp−1 (A − µIn )Y
(récurrence sur p, ou formule de Taylor comme plus haut), ce qui montre que
(Ap ) n’est pas bornée. Finalement,
74
Dans une base adaptée à ker(u) ⊕ Im(u) (on notera dans la suite q la dimension
Le problème est donc de montrer l’existence d’un polynôme Q nul en 0 tel que
Q(A) = −Iq , ou autrement dit de trouver un polynôme Q1 tel que AQ1 (A) =
−Iq (en notant Q = XQ1 ). Mais A est inversible (comme ker(u) ∩ Im(u) = {0},
u induit sur Im(u) un automorphisme), il s’agit donc simplement de montrer
que A−1 est un polynôme de A. Pour cela, considérons
φ : K[A] −→ K[A]
B 7−→ AB
φ est un endomorphisme injectif de K[A] qui est de dimension finie, donc φ est
surjectif, donc Iq ∈ Im(φ), donc il existe un polynôme Q2 tel que AQ2 (A) = Iq ,
Q1 = −Q2 convient.
a b
Exercice 65 (Oral Centrale). Soit K un corps, M = et A ∈
c d
Mn (K). On pose
aA bA
M ⊗A= ∈ M2n (K)
cA dA
N N
1. Soit M1 , M2 ∈ M2 (K) et A1 , A2 ∈ Mn (K). Montrer que (M1 A1 )(M2 A2 ) =
N
(M1 M2 ) (A1 A2 ).
N
2. Que dire de M In si M est inversible ?
N
3. Si M et A sont diagonalisables, montrer que M A est diagonalisable.
76
2. On suppose n = 2, K = C et, pour tout t ∈ K, A + tB diagonalisable.
Montrer que AB = BA.
Exercice 68 (Oral X). Trouver toutes les matrices de Mn (C) dont le poly-
nôme minimal est de degré 2 et qui n’ont qu’une valeur propre.
Quand une matrice est donnée par un poynôme annulateur, on essaye d’exploiter
celui-ci. Mais pour la première, le problème est que
X 5 − X 2 = X 2 (X 3 − 1)
n’est pas scindé sur R. Qu’importe, on passe sur C : une matrice de Mn (R)
est a fortiori une matrice de Mn (C). Mais le polynôme n’est pas scindé simple
(0 est racine double), on ne peut donc pas utiliser de diagonalisation. L’idée est
plus élémentaire : sur C, comme le polynôme caractéristique est scindé, on peut
utiliser la relation
X
Tr(M ) = mλ λ
λ∈Sp(M )
n = |m1 + mj j + mj 2 j 2 + m0 0| ≤ m1 + mj + mj 2 ≤ n
Toutes ces inégalités sont donc des égalités. On en déduit en premier lieu que
m0 = 0. Ce qui fait que 0 n’est pas valeur propre de M . Ce qui fait que M est
inversible, et que M 2 aussi, et donc que X 3 − 1 annule M , et donc que M est
diagonalisable sur C. On a aussi égalité dans une inégalité triangulaire, ce qui
équivaut au fait que tous les nombres complexes figurant dans cette inégalité
sont nuls ou de même argument. Et cet argument est nécessairement l’argument
77
de leur somme, qui vaut n. Comme j et j 2 n’ont pas pour argument 0, on en
déduit que 1 est la seule valeur propre. Et comme M est diagonalisable,
M = In
X 3 − 1 = (X − 1)(X − 2)(X − 4)
est scindé à racines simples. Les matrices cherchées sont donc les matrices sem-
blables (dans Mn (Z/7Z)) à une matrice diagonale dont les coefficients diago-
naux sont dans {1, 2, 4}.
78