0% ont trouvé ce document utile (0 vote)
39 vues75 pages

Réduction

cours

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
39 vues75 pages

Réduction

cours

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

chapitre 28
Réduction d’endomorphisme

Notations
Introduisons tout d’abord quelques notations. Soit K un corps commutatif et E un K−espace vectoriel
de dimension n ∈ N∗ . Soit u ∈ L(E) et A ∈ Mn (K).
→ Si β est une base de E alors [u]β est la matrice de Mn (K) dont les colonnes sont les coordonnées
de l’image de chaque élément de β par u dans la base β.
→ Pour toute base β de Kn , on note [A]β = P AP −1 avec P la matrice dont les colonnes sont la
représentation des éléments de β dans la base canonique.
→ Pour toutes matrices A, B ∈ Mn (C), on écrit A ≃ B s’il existe P ∈ GLn (K) tel que A = P BP −1 .
→ Si F et G sont deux K−espaces vectoriels, on écrit F ≈ G s’ils sont isomorphes, i.e. il existe
ϕ ∈ L(F, G) un endomorphisme inversible tel que ϕ(F ) = G.
→ On note Com(u) = {v ∈ L(E), v ◦ u = u ◦ v}.
→ On note Com(A) = {B ∈ Mn (K), AB = BA}.
→ On note VP(u) = {λ ∈ K, Ker(u − λ Id) ̸= {0}}.
→ On note VP(A) = {λ ∈ K, Ker(A − λI) ̸= {0}}.
→ Pour tout a ∈ N∗ , on note Ta+ (K) l’ensemble des matrices triangulaires supérieures de taille a.
→ Pour toute famille (x1 , . . . , xr ) de E (resp. Kn ) et toute base β de E (resp. Kn ), on note [(x1 , . . . , xr )]β
la matrice de Mn,r(K) dont les colonnes sont les représentations des vecteurs xi dans la base β.
 
λ1
→ Pour tout λ1 , . . . , λn ∈ K, on note diag(λ1 , . . . , λn ) = 
 ... 

 
λn
→ Pour tout i, j ∈ J1; nK, on note Ei,j = (δi,k δj,l )k,l∈J1;nK ∈ Mn (K).
→ On note AT la transposée de A.
→ On note ⟨A⟩ = {P AP −1 , P ∈ GLn (K)}.
→ Pour tout polynôme P ∈ K[X], on note ⟨P ⟩ = {QP, Q ∈ K[X]}.
→ On note K[u] = {P (u), P ∈ K[X]}.
→ On note K[A] = {P (A), P ∈ K[X]}.
→ Pour tout P ∈ K[X], on note Z(P ) l’ensemble des racines de P .

Préambule : sommes directes et bases adaptées


Soit K un corps commutatif et E un K−espace vectoriel de dimension n ∈ N∗ . Soit r ∈ N∗ et F1 , . . . , Fr
des sous espaces vectoriel de E.
On considère l’application 
F × · · · × F −→ E
1 r
j:
(x1 , . . . , xr ) 7−→ x1 + · · · + xr
Par définition, Im j = F1 + · · · + Fr . Cette somme est dite directe lorsque j est injective.

1/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition .1.

Supposons que E est de dimension finie. On considère pour tout k ∈ J1; rK, (ek,1 , . . . , ek,nk ) une
base de Fk .
r
1. F1 × · · · × Fr est un K−espace vectoriel et dim F1 × · · · × Fr = dim Fk .
X

k=1
r r
2. Si les Fj sont en somme directe, alors dim Fk = dim Fk
M X

k=1 k=1
3. Si les Fj sont en somme directe, alors (e1,1 , . . . , e1,n1 , . . . , er,1 , . . . , er,nr ) est une base de
r
Fk .
M

k=1

Preuve :

1. On considère la famille B = {(0, . . . , 0, ek,l , 0, . . . , 0), k ∈ J1; rK, l ∈ J1; nk K}. B est une base de
r r
F1 × · · · × Fr et |B| = nk = dim Fk . D’où le résultat.
X X

k=1 k=1

2. j est un morphisme injectif, donc


r r
dim Fr = dim F1 × · · · × Fr = dim j(F1 × · · · × Fr ) = dim
X M
Fk
k=1 k=1

3. Posons B ′ = (e1,1 , . . . , e1,n1 , . . . , er,1 , . . . , er,nr ). On a

Vect(B ′ ) = Vect(e1,1 , . . . , e1,n1 ) + · · · + Vect(er,nr , . . . , er,nr )


= F1 ⊕ · · · ⊕ Fr
r r r
Donc B ′ est une famille génératrice (de Fk ) de taille n1 + · · · + nr = dim Fk = dim Fk , et
M X M

k=1 k=1 k=1


r
alors B ′ est une base de Fk .
M

k=1

Objectif du chapitre : Pour une application linéaire u ∈ L(E) ou matrice A ∈ Mn (K) donnée, on
souhaite trouver une base β ou une matrice P ∈ GLn (K) où la matrice de u (resp. P −1 AP ) est simple

0
   
λ1 λ1 ∗
P −1 AP = [u]β =  .. ou P −1 AP = [u]β =  ..
. .
   
 
   
0 λn 0 λn

avec λ1 , . . . , λr ∈ K. Ou alors si u est nilpotente,

1 0 0
 

 . .
.. .. 

P AP = [u]β = 
−1  
.. 

 . 1
0 0

Ou alors
0
 
J1
P −1 AP = [u]β = 
 ... 

 
0 Jk

2/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

avec pour tout k ∈ J1; rK, Jk un bloc de Jordan, i.e.

1 0
 
ak

 ... ... 

Jk = 

...


1
 

0 ak

avec ak ∈ K. Ou alors sous forme de matrice compagnon

0
 
−a0
1 . . . .. 
. 

P AP = [u]β = 
−1
.. 
 
.. ..

 . . . 

1 −an−1

avec a0 , . . . , an−1 ∈ K.

I Stabilité
Dans cette partie, on considère u un endormorphisme de E.
Définition I.1.

Une sous-espace vectoriel F de E est stable par u si u(F ) ⊂ F .

Proposition I.2.

Soit F et G deux sous-espaces vectoriels de E.


1. Si F et G sont stables par u, alors F + G et F ∩ G le sont aussi.
2. Si F est de dimension finie, est stable par u et F ∩ Ker u = {0}, alors u(F ) = F .
3. u est une homothétie ⇐⇒ u laisse stable tout sous-espace de E

Preuve
1. Supposons que F et G sont stables par u et soient x, y ∈ E.
→ Supposons que x ∈ F et y ∈ G. Montrons que u(x + y) ∈ F + G.
Par stabilité de F et G, on a u(x) ∈ F et u(y) ∈ G donc u(x + y) = u(x) + u(y) ∈ F + G,
donc F + G est stable par u.
→ Supposons que x ∈ F ∩ G.
On a x ∈ F et x ∈ G, donc u(x) ∈ F et u(x) ∈ G et alors u(x) ∈ F ∩ G. On en déduit que
F ∩ G est stable par u. 
F −→ F
2. On considère l’application ũ : . On a Ker ũ = Ker u ∩ F et en utilisant le théorème
x 7−→ u(x)
du rang, on a
dim Ker ũ + rg ũ = dim F
donc
dim Ker u ∩ F + dim u(F ) = dim F
et finalement
dim u(F ) = dim F
De plus, u(F ) ⊂ F , donc u(F ) = F .

3/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

3. Montrons le résultat par double implication. Remarquons tout d’abord que si E = {0}, alors le
résultat est évident. Supposons donc que E ̸= {0}.

→ (⇒) Le sens direct est une conséquence de la stabilité de F par multiplication par un scalaire.
→ (⇐) Supposons que u laisse stable tout sous-espace de E.
Pour tout x, y ∈ E \ {0}, u laisse stable Vect(x) et Vect(y), donc il existe λx , λy ∈ K vérifiant

u(x) = λx x et u(y) = λy y

u laisse aussi Vect(x + y) stable, donc il existe λx+y vérifiant u(x + y) = λx+y (x + y). On a
alors
λx+y (x + y) = u(x + y) = u(x) + u(y) = λx x + λy y
et alors
(λx+y − λx )x + (λx+y − λy )y = 0
• Si (x, y) est libre, alors λx+y − λx = 0 et λx+y − λy = 0, et alors λx = λx+y = λy .
• Si (x, y) est liée, i.e. il existe λ ∈ K tel que x = λy, alors

λy y = u(y) = λu(x) = λλx x = λx y

et donc, puisque y ̸= 0, λx = λy .

On a alors x 7−→ λx est constante sur E \ {0}, il existe donc λ ∈ K tel que pour tout
x ∈ E \ {0}, u(x) = λx. Cette propriété est en particulier vraie pour x = 0, donc pour tout
x ∈ E, u(x) = λx, i.e. u est une homothétie.

Exemple : Les sous espaces {0}, Im uk et Ker uk avec k ∈ N sont stables par u.
Proposition I.3.

Soit v un endomorphisme de E. Si u et v commutent, alors v laisse Ker u et Im u stables.


Plus généralement, ∀P ∈ K[X] , Ker P (u) et Im P (u) sont stables par v.

Preuve : Supposons que u et v commutent.


→ Si x ∈ Ker u, alors u(v(x)) = u ◦ v(x) = v ◦ u(x) = v(0) = 0, donc v(x) ∈ ker u.
→ Si y = u(x) ∈ Im u alors v(y) = u(v(x)) donc v(y) ∈ Im u.
→ Étant donné que u et v commutent, une récurrence simple permet de montrer que ∀k ∈ N , uk et v
commutent également. Tout polynôme P en u est une combinaison linéaire des uk qui commutent
tous avec v, donc P (u) et v commutent, et alors le point précédent nous permet d’affirmer que v
laisse Ker P (u) et Im P (u) stables.
Remarque La réciproque est fausse en général. Prenons un contre-exemple. Soit (e1 , e2 , e3 ) la base
canonique de R3 . On définit u et v comme suit :

u(e1 ) = 0 v(e1 ) = e1
 

 

u(e2 ) = e3 et v(e2 ) = 0
u(e3 ) = e3 v(e3 ) = e3

 

On peut facilement voir que v laisse stable Ker u et Im u, mais

u ◦ v(e2 ) = 0
(

v ◦ u(e2 ) = e3

4/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition I.4.

Soit F un sous-espace vectoriel de E, β1 une base de F et β2 une base d’un supplémentaire


de F . En posant β = (β1 , β2 ) la concaténation des deux bases et p = dim F = |β1 |, pour tout
u ∈ L(E), on a équivalence entre les propositions suivantes.
1. u laisse stable F . !
A C
2. ∃(A, B, C) ∈ Mp (K) × Mn−p (K) × Mp,n−p (K), [u]β =
0 B

Preuve

→ (1) ⇒ (2) Supposons que u laisse stable F . Pour tout e ∈ β1 , u(e) ∈ F = Vect(β1 ) car u stabilise
F , donc les coefficients dans la famille β2 de e sont nuls.

→ (2) ⇒ (1) Pour tout e ∈ β1 , [u(e)]β a des coefficients nuls dans les |β2 | dernières coordonnées, donc
u(e) ∈ Vect(β1 ) = F pour tout e ∈ β1 . Par combinaison linéaire, on peut conclure que u(F ) ⊂ F .

Proposition I.5.

Soit r ∈ N∗ et F1 , . . . , Fr des sous-espaces vectoriels de E non réduits à {0} de dimensions


r
respectives n1 , . . . , nr . On suppose que E = Fk . Pour tout j ∈ J1; rK, on considère βj une
M

k=1
base de Fj . Soit β = (β1 , . . . , βr ) la concaténation des βj . On a alors pour tout u ∈ L(E), on
a équivalence entre les deux propositions suivantes.
1. u laisse stable Fj pour tout j.
0
 
A1
2. ∃(A1 , . . . , Ar ) ∈ Mn1 (K) × · · · × Mnr (K), [u]β =  ..
.
 

 
0 Ar

Preuve

→ (1) ⇒ (2) Soit k ∈ J1; rK. Pour tout e ∈ βk , u(e) ∈ Vect(βk ), donc la sous-matrice de [u]β contenant
des colonnes de rang entre |β1 | + · · · + |βk−1 | + 1 et |β1 | + · · · + |βk |, i.e. la représentation de
0
 
 . 
 .. 
 
 0 
 

l’image de la base βk par u dans la base β s’écrit avec Ak ∈ Mnk (K). On en déduit donc
 
Ak 
 
 0 
 
 . 
 . 
 . 
0
0
 
A1
directement que la matrice de u dans la base β s’écrit comme  .. avec (A1 , . . . , Ar ) ∈
.
 

 
0 Ar
Mn1 (K) × · · · × Mnr (K).

→ (2) ⇒ (1) De la même manière, pour tout k ∈ J1; rK, pour tout e ∈ βk , étant donné la forme de
la matrice, on voit que tous les coefficients de u(e) dans β \ βk sont nuls, donc u(e) ∈ Vect(Fk ) et
donc finalement u(Vect(βk )) ⊂ Fk i.e. u(Fk ) ⊂ Fk .

5/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

II Éléments propres
Définition II.1.

Soit u ∈ L(E). Une vecteur x ∈ E est appelé vecteur propre de u lorsque x ̸= 0 et qu’il existe
λ ∈ K tel que u(x) = λx. Un tel scalaire λ est unique et est appelé valeur propre de u.

Proposition II.2.

Pour tout λ ∈ K, on a l’équivalence suivance

λ valeur propre de u ⇐⇒ Ker(u − λ Id) ̸= {0}

Preuve : La preuve de ce résultat ne présente pas de difficulté et est laissée comme exercice au lecteur.

Vocabulaire : Lorsque u ∈ L(E) et λ ∈ K, Eλ,u = Ker(u − λ Id) est appelé espace propre de u as-
socié à λ. Lorsqu’il n’y a pas ambiguïté sur l’endomorphisme associé à cet espace, on notera simplement
Eλ,u = Eλ .

Proposition II.3.

Soit u ∈ L(E)
1. Soit x ∈ E \ {0}. On a l’équivalence

x est un vecteur propre de u ⇐⇒ La droite Kx est stable par u



E
λ,u −→ Eλ,u
2. Pour tout x ∈ E l’application ũ : commute avec tout élément de
x 7−→ λx
L(Eλ,u ).

Preuve : Même chose pour ces deux propositions.


Proposition II.4.

Si E est de dimension finie non réduit à {0} et que K = C, alors u possède au moins une valeur
propre.

Preuve : Soit β une base de E. En posant [u]β = (ai,j )i,j∈J1;nK , on a

λ est une valeur propre de u ⇐⇒ Ker(u − λ Id) ̸= {0}


⇐⇒ det([u]β − λI) = 0
a1,1 − λ a1,2 ... a1,n
a2,1 a2,2 − λ ... a2,n
⇐⇒ .. .. ... .. =0
. . .
an,1 ... an,n−1 an,n − λ

L’application λ 7−→ det([u]β − λI) est donc une application polynômiale dans C de degré n, elle admet
donc au moins une racine λ, donc il existe au moins un λ ∈ C vérifiant Ker(u − λ Id) ̸= {0}, i.e. λ est
une valeur propre.

6/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Exercice II.5.

Supposons que K soit égal à R ou C. Soit n ≥ 2. Existe-t-il un plan P de L(Kn ) tel que
P \ {0} ⊂ GL(K) ?

Notation : Pour tout u, v ∈ L(E), on note [u, v] = u ◦ v − v ◦ u.


Proposition II.6.

Soit u, v ∈ L(E) tel que [u, v] = 0. Si λ est une valeur propre de u, alors v laisse stable
Eλ,u = Ker(u − λ Id).

Preuve : On a [u, v] = 0, donc [u − λ Id, v] = 0, i.e. u − λ Id et v commutent, donc d’après la proposition


I.3, v laisse stable Ker(u − λ Id).
Exercice II.7.

On dit qu’une partie L de L(Cn ) est irréductible lorsque les seuls sous-espaces vectoriels de E
qui sont stables par tous les éléments de L sont {0} et E. Soit L une partie irréductible de
L(Cn ) et u un élément de L(Cn ) qui commute avec tous les éléments de L. Montrer que u est
une homothétie.

Proposition II.8.

Supposons que E est un espace vectoriel muni de ∥.∥ et u ∈ Lc (E). Pour toute valeur propre
λ de u, on a |λ| ≤ |||u|||.

Preuve : Soit λ une valeur propre de u et x un vecteur propre pour λ, i.e. u(x) = λx et x ̸= 0. On a
alors
|λ| ∥x∥ = ∥u(x)∥ ≤ |||u||| × ∥x∥
x est non nul, on peut donc simplifier par ∥x∥ pour obtenir |λ| ≤ |||u|||.

Remarque : Soit u ∈ L(E)  et F un sous-espace vectoriel de E. Si F est stable par u, en considé-


F −→ F
rant l’endomorphisme v : , on a Ker(v − λ Id) = F ∩ Ker(u − λ Id).
x 7−→ u(x)

III Endomorphismes et matrices diagonalisables


Définition III.1.

On dit que u ∈ L(E) est diagonalisable lorsqu’il existe r ∈ N∗ et λ1 . . . λr ∈ K tels que


E = Eλ1 ,u + · · · + Eλr ,u .

Lemme III.2.

Soit u ∈ L(E), p ∈ N∗ , λ1 , . . . , λp des valeurs propres deux à deux distinctes de u et x1 , . . . , xp ∈


E des vecteurs propres respectivement associés à λ1 , . . . , λp . La famille (x1 , . . . , xp ) est libre.

Preuve : Nous allons montrer ce lemme par récurrence sur p.

7/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

→ Pour le cas p = 1, x1 est un vecteur propre, il est donc non nul et alors la famille (x1 ) est libre.
→ Soit p ∈ N∗ . Supposons que la propriété est vraie pour p. Soit µ1 , . . . , µp+1 ∈ K tels que

µ1 x1 + · · · + µp+1 xp+1 = 0 (1)

En appliquant u est deux côtés, on obtient

µ1 λ1 x1 + · · · + µp+1 λp+1 xp+1 = 0 (2)

En faisant (1) × λp+1 − (2), on obtient

µ1 (λp+1 − λ1 )x1 + · · · + µp (λp+1 − λp )xp = 0

Par hypothèse de récurrence, on a que la famille (x1 , . . . , xp ) est libre, donc pour tout k ∈ J1; pK,
µk (λp+1 − λk ) = 0. λ1 , . . . , λp+1 sont deux à deux distinctes par hypothèse donc pour tout k ∈ J1; pK,
µk = 0 et alors (1) devient
µp+1 xp+1 = 0
ce qui finalement implique que pour tout k ∈ J1; p + 1K, µk = 0 i.e. (x1 , . . . , xp+1 ) est libre, d’où le
résultat voulu.
Application : La famille (fα )α∈R = (x 7−→ xα )α∈R est libre dans C ∞ (R∗ , R). En effet, en posant u :
f 7−→ (x 7−→ xf ′ (x)), (fα ) est une famille de vecteurs propres associés à des valeurs propres deux à deux
distinctes de u, elle est donc libre. On peut dire la même chose de la famille (gβ )β∈C , avec pour tout
β ∈ C, gβ : x 7−→ eβx .
Proposition III.3.

On suppose que E est de dimension finie. Soit u ∈ L(E). Les propositions suivantes sont
équivalentes
1. u est diagonalisable.
2. Il existe une base de E composée de vecteurs propres de u.
3. Il existe une base de E telle que [u]β est diagonale.
p
4. Eλk ,u = E, avec λ1 , . . . , λp les valeurs propres de u.
X

k=1

Preuve
→ (1) ⇒ (2) Prenons λ1 , . . . , λp comme dans la définition III.1. Quitte à éliminer les λi tels que Eλi ,u =
{0}, on peut supposer sans perte de généralité que ∀i ∈ J1; pK Eλi ,u ̸= {0} et que les λi sont distincts.
Le lemme III.2 nous permet de dire que toute famille de vecteurs (x1 , . . . , xp ) ∈ Eλ1 ,u × · · · × Eλp ,u
p
est libre et que donc la somme E = Eλi ,u est directe.
X

i=1
Chacun de ces espaces étant de dimension finie (non nulle), on peut alors prendre, pour chaque i,
une base (b1i , . . . , bpi i ) de Ei avec pi = dim Eλi ,u . Il est clair que la concaténation de ces bases est
p
une base de E = Eλi ,u et que chaque élément de cette dernière est un vecteur propre de u.
M

i=1

→ (2) ⇒ (3) Si (b1 , . . . , bn ) est une base de E formée de vecteurs propres de u, et que pour tout
i ∈ J1; pK, bi est associé à la valeur propre λi , alors la matrice de u dans cette base est la matrice
diagonale diag(λ1 , . . . , λn ).
→ (3) ⇒ (4) Prenons une base β = (β1 , . . . , βn ) qui rend [u]β diagonale. Il est alors clair que pour tout
i ∈ J1; pK, il existe λi ∈ K tel que βi est un vecteur propre de u, associé à λi (les λi ne sont pas

8/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

forcément distincts). On a alors en notant VP(u) l’ensemble (fini) des valeurs propres de u
n
E = V ect(β1 , . . . , βn ) ⊂ V ect(Eλ1 , . . . , Eλn ) =
X X
E λi ⊂ Eλ
i=1 λ∈VP(u)

d’où le résultat.
→ (4) ⇒ (1) Direct.

Remarque 1 : Si u possède n = dim E valeurs propres différentes, alors u est diagonalisable et chaque
espace propre est de dimension exactement une.
Ceci étant car, en notant λ1 , . . . , λn ces n valeurs propres différentes, que
n n n
! !
n ≥ dim = dim = dim(Eλi ) ≥ n
X M X
Eλi Eλi
lemme III.2
i=1 i=1 i=1

n n
!
On a alors dim = n = dim E, i.e. E = Eλi et tous les Eλi ,u ne peuvent pas avoir une
M M
E λi
i=1 i=1
dimension strictement supérieure à 1 ou égale à 0, ils sont donc de dimension 1. On a donc bien les deux
résultats voulus.
Remarque 2 : Lorsque u est diagonalisable, il est facile de retrouver son image et son noyau. En effet,
considérons un base de vecteurs propres de u β = (b1 , . . . , bn ) puis ordonnons la de manière à ce que les
valeurs propres associées à b1 , . . . , bp soient non nulles et celles associées à bp+1 , . . . , bn soient nulles. Alors
Im(u) = Vect(b1 , . . . , bp ) et Ker(u) = Vect(bp+1 , . . . , bn ).
Preuve
Une matrice diagonale à coefficients diagonaux tous non nulles dans K est inversible. Ainsi, dans la base
β, [u]β s’écrit :
0Mp,n−p (K)
!
A
0Mn−p,p (K) 0Mn−p (K)
Avec A une matrice diagonale à coefficients diagonaux non nuls. On en déduit donc que

0 p
( ! )
Ker(u) = a ∈ E, ∃v ∈ K n−p
, [a]β = K , = Vect(ep+1 , . . . , en )
v
( ! )
v
Im(u) = a ∈ E, ∃v ∈ K , [a]β = p
, = Vect(e1 , . . . , ep )
0Kn−p

Proposition III.4.

Soit u ∈ L(E), w ∈ GL(E) et v = w ◦ u ◦ w−1


1. λ ∈ K est une valeur propre de u si et seulement si c’est une valeur propre de v et
Eλ,v = w(Eλ,u ).
2. u est diagonalisable si et seulement si v l’est.

1. Soit λ ∈ K. On a

x ∈ Eλ,v ⇐⇒ w ◦ u ◦ w−1 (x) = λx


⇐⇒ u ◦ w−1 (x) = λw−1 (x)
⇐⇒ w−1 (x) ∈ Eλ,u ⇐⇒ x ∈ w(Eλ,u )

9/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

D’où Eλ,v = w(Eλ,u ) et donc

λ ∈ VP(v) ⇐⇒ Eλ,v = w(Eλ,u ) ̸= {0} ⇐⇒ Eλ,u ̸= {0} ⇐⇒ λ ∈ VP(u)


w∈GL(E)

2. Soit λ1 , . . . , λr les valeurs propres de u et v. On a alors


r
u est diagonalisable ⇐⇒ Eλi ,u = E
X

i=1
r r
w(Eλi ,u ) = Eλi ,v = E ⇐⇒ v est diagonalisable
X X
⇐⇒
w∈GL(E)
i=1 i=1

Exercice III.5.

Soit u ∈ L(E) ayant n valeurs propres distinctes et v un endomorphisme de E qui commute


avec u. Montrer que v est diagonalisable et que v est un polynome en u.

Proposition III.6.

Soit A ∈ Mn (K) et E = Kn . Les propriétés suivantes sont équivalentes :


1. ∃P ∈ GLn (K), ∃∆ ∈ Dn (K), P −1 AP = ∆

Kn −→ Kn
2. fA : est diagonalisable.
X 7−→ AX
3. Il existe u ∈ L(E) et β une base de E tels que u diagonalisable et [u]β = A
4. Pour tout u ∈ L(E) et pour tout β base de E, on a l’implication

[u]β = A =⇒ u est diagonalisable

Preuve
→ (1) ⇒ (2) Soit β la base associée à la matrice P . Alors [fA ]β = P −1 AP = ∆ est diagonale.
→ (2) ⇒ (3) Soit β = (e1 , . . . , en ) une base de E et considérons l’application

E

 −→ E
u: n
X n
X
 xi ei

 7−→ yi ei
i=1 i=1
 
y1
 . 
où  .. 

 = fA (X) avec X = (x1 , . . . , xn ) . Une vérification rapide nous permet de voir que [u]β = A.
T

yn  
De plus, en considérant (f1,i )i∈J1;nK , . . . , (fn,i )i∈J1;nK une base de vecteurs propres de fA , il est facile
de voir que la famille (f1 , . . . , fn ) telle que pour tout k ∈ J1; nK, fk = fk,1 e1 + · · · + fk,n en est une
base de vecteurs propres de u, ce qui nous permet d’affirmer que u est diagonalisable.
→ (3) ⇒ (1) Soit u ∈ L(E) et β une base tel que [u]β = A. Soit γ une base de diagonalisation de u et
P la matrice de passage de γ à β. On a alors

[u]γ = P [u]β P −1 = P −1 AP

On a de plus, pour tout i ∈ J1; nK, si e est le i−ème vecteur de la base canonique de Mn (K) et bi
estl e i−ème vecteur de la base γ, alors il existe λi ∈ K tel que u(bi ) = λi bi , i.e., en passant aux

10/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

matrices dans la base γ, [u]γ ei = λei , donc il existe une matrice diagonale ∆ telle que [u]γ = ∆. On
en déduit donc finalement que A = P −1 ∆P .
→ (4) ⇔ (1) Laissé comme exercice au lecteur.
Vocabulaire : Lorsque A vérifie l’une de ces propriétés, on dit que A est diagonalisable.

IV Action des polynômes


1. Rappels
p
L’algèbre des polynomes K[X] agit naturellement sur L(E). Plus exactement, si P = ak X k et u ∈ L(E)
X

0
alors on définit 
K[X]

 −→ L(E)
ϕu : p
7−→ P (u) =
X
P

 ak u k
k=0

ϕu est alors un morphisme d’algèbre unitaire. En particulier, Iu := Ker(ϕu ) est un idéal.


Rappel IV.1.

Soit (A, +, .) un anneau commutatif. Un sous ensemble I de A est appelé idéal lorsque
→ (I, +) est un sous groupe de (A, +).
→ Pour tout x ∈ A et i ∈ I, ix ∈ I.
I est dit principal lorsqu’il est engendré par un seul élément i.e. il existe x ∈ A tel que
I = ⟨x⟩ := xA.
Un anneau commutatif A est dit principal si tout idéal de A est principal.
On notera en particulier que K[X] est principal lorsque K est un corps.

Si ce dernier est non trivial, chose toujours vraie en dimension finie, alors il est engendré par un unique
polynome unitaire µu , appelé polynome minimal de u. Autrement dit si P ∈ K[X] et P (u) = 0, alors
P ∈ Iu , c’est à dire qu’il existe Q ∈ K[X] tel que P (X) = Q(X)µu (X), i.e. µu |P .
K[X] agit similairement sur les matrices carrées et commute avec les automorphismes interieurs (i.e. les
automorphismes de la forme M 7−→ P M P −1 avec P ∈ GLn (K)) de conjugaison i.e. pour tout P ∈ GLn (K)
et Q ∈ K[X], Q(P AP −1 ) = P Q(A)P −1 .

Vocabulaire : Un élement de Iu , i.e. un polynôme P tel que P (u) = 0L(E) est appelé un polynôme
annulateur de u.

Proposition IV.2.

Soit x un vecteur propre de u de valeur propre associée λ. Les proposition suivantes sont vraies.
1. ∀P ∈ K[X], P (u)(x) = P (λ)x
2. Si P ∈ Iu alors P (λ) = 0
3. Soit λ ∈ K. Alors µu (λ) = 0 ⇐⇒ λ valeur propre de u.
En particulier, lorsque K = C, il existe (lλ )λ∈VP(u) ∈ N∗VP(u) tel que

µu (X) = (X − λ)lλ
Y

λ∈VP(u)

Preuve :

11/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

1. On peut montrer par une récurrence rapide que ∀k ≥ 0 uk (x) = λk x (avec par convention 00 = 1).
d d d
Ainsi, si P (X) = ak X k , alors P (u)(x) = ak · uk (x) = ak · λk x = P (λ)x.
X X X

k=0 k=0 k=0


2. On sait que 0 = P (u)(x) = P (λ)x et donc P (λ) = 0 car x ̸= 0.
3. Soit λ ∈ K
→ (⇐) Il suffit d’appliquer le point (2) pour P = µu .
→ (⇒) µu (λ) = 0, on peut donc écrire µu (X) = (X − λ)Q(X). On a alors

0 = µu (u) = (u − λ Id) ◦ Q(u)

Si λ n’est pas une valeur propre de u, la proposition II.2 nous permet d’affirmer que u − λ Id
est inversible et que donc Q(u) = 0, ce qui contredit la minimalité de µu . Donc λ est bien une
valeur propre de u.

Exemple : Soit p un projecteur different de 0 et Id. On a µp (X) = X 2 − X.


Exercice IV.3.

Soit u ∈ L(E) tel que u ◦ u = Id et u ̸= ± Id. Montrer que µu = X 2 − 1.

2. Décomposition des noyaux


Proposition (Lemme de décomposition des noyaux) IV.4.

Soit P1 , . . . , Pr des éléments de K[X], deux à deux premiers entre eux et u ∈ L(E). On a
r
Ker P1 . . . Pr (u) = Ker Pi (u). En particulier, en considérant le cas où Pi (X) = X − λi avec
M

i=1
pour tout i, λi une valeur propre de u, on retrouve que les espaces propres sont en somme
directe.

Preuve : Montrons le résultat pour r = 2.


Soit P et Q deux polynômes premiers entre eux et soit x ∈ Ker P (u) ∩ Ker Q(u).
P et Q sont premiers entre eux et donc par Bezout, on dispose de A, B ∈ K[X] tel que AP + BQ = 1.
On a alors x = AP (u)(x) + BQ(u)(x) = 0 + 0 = 0 et alors Ker P (u) ∩ Ker Q(u) = {0}. Ker P (u) et
Ker Q(u) sont donc bien en somme directe.
Montrons à présent que Ker P Q(u) = Ker P (u) ⊕ Ker Q(u).
→ (⊃) Si x ∈ Ker P (u) ⊕ Ker Q(u), alors en posant x = xKer P (u) + xKer Q(u) on retrouve
   
P Q(u)(x) = Q(u) ◦ P (u) xKer P (u) + P (u) ◦ Q(u) xKer Q(u) = 0

→ (⊂) Soit x ∈ Ker P Q(u). La relation obtenue via Bezout nous permet d’écrire

x = AP (u)(x) + BQ(u)(x)
| {z } | {z }
∈Ker Q(u) ∈Ker P (u)

Enfin, pour généraliser pour r ≥ 2, on peut le faire simplement de la manière suivante. Soit P1 , . . . , Pr ∈
K[X] premiers entre eux. On a
r
Ker P1 . . . Pr (u) = Ker P1 (u) ⊕ Ker P2 . . . Pr (u) = · · · = Ker Pi (u)
M

i=1

12/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition IV.5.

Soit P ∈ K[X] (non constant) irréductible et prenons l’unique l ∈ N tel que P l |µu et P l+1 ∤ µu ,
alors
Ker(P 0 (u)) ⊊ Ker(P 1 (u)) ⊊ · · · ⊊ Ker(P l (u)) = Ker(P l+1 (u)) = . . .

Preuve :
Les inclusions sont faciles à voir et donc c’est surtout le caractère strict ou égal qui nous intéresse. De
plus, P peut être supposé unitaire.

• Soit k ∈ N, si Ker(P k (u)) = Ker(P k+1 (u)) alors ∀i ≥ k Ker(P k (u)) = Ker(P i (u))
En effet, le résultat est vrai pour i = k; k + 1. Supposons le résultat vrai pour i − 1 avec i ≥ k + 2
et montrons notre assertion par récurrence.
Soit x ∈ Ker(P i (u)), alors P i−1 ◦ P (u)(x) = 0 et donc

P (u)(x) ∈ Ker(P i−1 (u)) = Ker(P k (u))


H.R.

Ainsi
P k+1 (u)(x) = P k ◦ P (u)(x) = 0
et donc x ∈ Ker(P k+1 (u)) = Ker(P k (u))

• Avec l’égalité ci-haut en tête, il suffit de vérifier que Ker(P l−1 (u)) ̸= Ker(P l (u)) = Ker(P l+1 (u))

• Ecrivons µu = P l Q avec P ∧ Q = 1 (P est irréductible). On a alors

E = Ker(µu (u)) = Ker(P l Q(u)) = Ker(P l (u)) Ker(Q(u))


M

Similairement
E = Ker(P l+1 (u)) Ker(Q(u))
M

Ainsi
Ker(P l (u)) Ker(Q(u)) = Ker(P l+1 (u)) Ker(Q(u))
M M

Ce qui oblige, vu que Ker(P l (u)) ⊂ Ker(P l+1 (u)), que Ker(P l (u)) = Ker(P l+1 (u))

• Par absurde supposons Ker(P l−1 (u)) = Ker(P l (u)). Alors

E = Ker(P l (u)) Ker(Q(u)) = Ker(P l−1 (u)) Ker(Q(u)) = Ker(P l−1 Q(u))
M M

Et donc P l−1 Q(u) = 0 i.e. P l Q = µu |P l−1 Q, ce qui est clairement faux

Remarque : En décomposant P en irréductibles, on obtient comme conséquence la généralisation sui-


vante :
Soit P ∈ K[X] non constant et l ∈ N le plus petit entier tel que P l ∧ µu = P l+1 ∧ µu , alors

Ker(P 0 (u)) ⊊ Ker(P 1 (u)) ⊊ · · · ⊊ Ker(P l (u)) = Ker(P l+1 (u)) = . . .

13/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition IV.6.

Soit u ∈ L(E) avec dim E < +∞. Les propriétés suivantes sont équivalentes
1. u est diagonalisable.
2. u est annulé par un polynôme scindé à racines simples (dans K)
3. µu est scindé à racines simples.

Bien entendu, on possède un théorème similaire pour les matrices.

Proposition IV.7.

Soit A ∈ Mn (K). Les propriétés suivantes sont équivalentes :


1. A est diagonalisable.
2. A est annulé par un polynôme scindé à racines simples (dans K).
3. µA est scindé à racines simples.

→ (1) ⇒ (2) A est diagonalisable, il existe donc λ1 , . . . , λn ∈ K tel que que A est semblable à D =
diag(λ1 , . . . , λn ). Notons δ1 , . . . , δr tous les scalaires λi en enlevant les doublons et considérons le
r
polynôme scindé à racines simples P (x) = (X − δi ). On peut facilement vérifier que
Y

i=1

P (D) = diag(P (λ1 ), . . . , P (λn )) = 0

→ (2) ⇒ (3) Soit P un polynôme scincé à racines simples annulant A. On sait que µA |P (P ̸= 0 et µA
non constant), donc µA est bien scindé à racines simples.
r
→ (3) ⇒ (1) Écrivons µA = (X − λi ) avec les λi distincts. On a alors d’après le lemme de décom-
Y

i=1
position des noyaux
r
E = Ker µu (u) = Ker(u − λi Id)
M

i=1

Considérons pour tout i, βi une base de Ker(u − λi Id) puis 


posons β = (β1 , . .
. , βr ) la concaténation
λ1 Il1
de ces bases. β est une base de E. On a alors [A]β =  ..  et donc A est bien
.
 


λr Ilr
diagonalisable.
Exemple : Soit A ∈ Mn (C) tel que Am = In alors A est diagonalisable étant donné que

Xm − 1 = (X − ω)
Y

ω∈Um

est un polynôme annulateur de u scindé à racines simples sur C.

En pratique, pour des corps algébriquement clos tel que C, tout polynôme est scindé, donc dire qu’un
polynome P non constant est scindé à racines simples est équivalent à ce que P ∧ P ′ = 1 ou à ne pas
avoir de racines multiples i.e. ne pas avoir de racine commune à P et P ′ . Dans l’exemple précédant, si
m ≥ 2, alors Z(mX m−1 ) = {0} et 0 n’est pas racine de X m−1 . De même

X m − 1 ∧ mX m−1 = (X m − 1) ∧ X m−1 = (X m − 1 − X × X m−1 ) ∧ X m−1 = 1

14/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Finalement, la notion de diagonalisabilité passe aux sous-espaces. Plus exactement :


Proposition IV.8.

Soit u ∈ L(E) diagonalisable et F un sous espace vectoriel de E. Si u stabilise F (i.e. u(F ) ⊂ F )


alors v := u|FF est diagonalisable.

Preuve : Soit P un polynome scindé à racines simples tel que P (u) = 0. On a alors P (v) = 0, v est
annulé par un polynôme scindé à racines simple, c’est donc un endomorphisme diagonalisable.
Remarque :Pour les endomorphismes diagonalisables, les espaces stables et Com(u) = {v ∈ L(E), v◦u =
u ◦ v} sont faciles à caractériser. On peut voir cela à partir des deux exercices ci-dessous.
Exercice IV.9.

Soit u ∈ L(E) diagonalisable de valeurs propres λ1 , . . . , λs distinctes. Montrer que les proposi-
tions suivantes sont équivalentes
1. F ⊂ E est un sous-espace vectoriel de E stable par u.
s
2. F = F ∩ Eλi ,u .
M

i=1
3. Il existe une famille (Fi )i∈J1;sK de sous-espaces vectoriels de E telle que pour tout i ∈ J1; sK
s
Fi ⊂ Eλi ,u et F = Fi .
M

i=1

Exercice IV.10.

Soit u ∈ L(E) diagonalisable de valeurs propres λ1 , . . . , λs distinctes et soit β une base de E


0
 
λ1 Il1
telle que [u]β = 
 ... , avec (l1 , . . . , ls ) ∈ J1; nK tel que l1 + . . . ls = n.

 
0 λs Ils
Montrer que

0
  
 A1 
...

 

Com(u) = v ∈ L(E), ∃(A1 , . . . , As ) ∈ Ml1 (K) × · · · × Mls (K), [v]β = 


 
0

As

 

En déduire une autre solution de l’exercice III.5.

15/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

3. Compléments : projecteurs spéctraux et codiagonalisation


Proposition IV.11.

Soit u ∈ L(E) diagonalisable de valeurs propres λ1 , . . . , λr distinctes. Les propositions suivantes


sont vraies.
r
1. µu = (X − λi )
Y

i=1
2. Soit (Li ) les interpolateurs de Lagrange des (λi ), i.e. pour tout i, Li est l’unique polynôme
de degré r − 1 tel que pour tout k ̸= i Li (λk ) = 0 et Li (λi ) = 1. On a L1 + · · · + Lr = 1
et ∀i ̸= j, µu |Li Lj .
3. En posant pi = Li (u). Alors pi est le projecteur sur Eλi ,u parallèlement à Eλj ,u .
M

j̸=i

1. La proprosition IV.5 donne le fait que µu est scindé à racines simples car u est diagonalisable. Ainsi,
s
il existe δ1 , . . . , δr ∈ K deux à deux distincts tels que µu = (X − λi ) où les λi sont distincts. De
Y

i=1
plus, d’après la proposition IV.2

∀λ ∈ K, µu (λ) = 0 ⇐⇒ λ ∈ VP(u)
r
et donc finalement µu = (X − λi )
Y

i=1
2. Posons P = L1 + · · · + Lr − 1. Alors pour tout i ∈ J1; rK P (λi ) = 1 − 1 = 0. Ainsi, étant donne que
s
µu (X) = (X − λi ), µu |P et deg P ≤ r − 1 et alors P = 0 i.e. L1 + · · · + Lr = 1. Finalement, pour
Y

i=1
tous i ̸= j et tout k ∈ J1; rK, Li Lj (λk ) = 0 et donc pour tous i ̸= j et tout k ∈ J1; rK, (X − λk )|Li Lj
i.e. µu |Li Lj si i ̸= j.
3. Soit j ∈ J1; rK et x ∈ Eλj ,u . On a pour tout i ∈ J1; rK, Li (u)(x) = Li (λj )x = δi,j x. En considérant
pour tout i ∈ J1; rK, βi une base de Eλi ,u , on voit que pour tout j ∈ J1; rK, pour tout i ∈ J1; rK et
e ∈ βj , Li (u)(e) = e si i = j et 0 sinon. On a aussi clairement Li (u) ◦ Li (u) = Li (u), d’où le résultat.
Exercice IV.12.

Soit S ⊂ L(E) un ensemble non vide d’endomorphismes diagonalisables de E. Montrer que


les éléments de S sont codiagonalisables (c’est à dire que leurs matrices sont toutes diagonales
dans une même base) si et seulement si ils commutent tous deux à deux, i.e.

∀(u, v) ∈ S 2 , u ◦ v = v ◦ u

Exercice IV.13.

Soit K un corps de caractéristique différente de 2 et m, n ≥ 1. Montrer que s’il existe φ :


GLm (K) −→ GLn (K) morphisme de groupes injectif alors m ≤ n. En particulier, si GLm (K)
et GLn (K) sont isomorphes alors m = n.

Exercice IV.14.

Dans cet exercice, on suppose que K = C. Soit u ∈ L(E) tel que u2 soit diagonalisable. Montrer
que u est diagonalisable si et seulement si Ker u = Ker u2 .

16/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

V Polynome caractéristique
1. Généralités
Soit E un espace vectoriel de dimension finie n ≥ 1 et u ∈ L(E).
Proposition V.1.

1. Soit λ ∈ K. λ est une valeur propre de u si et seulement si det(u − λ Id) = 0


2. Si A et B sont deux matrices de Mn (K) semblables, alors det(A − XIn ) = det(B − XIn ).
En particulier, la quantité det([u]β − XIn ) est indépendante de la base β. On appelle
alors polynôme caractéristique de u le polynôme

χu (X) = det(XIn − [u]β ) = (−1)n det([u]β − XIn )

Preuve :
1. λ ∈ VP(u) ⇐⇒ Ker(u − λ Id) ̸= {0} ⇐⇒ u − λ Id ̸∈ GL(E) ⇐⇒ det(u − λ Id) = 0
dimension finie

2. det(P AP −1 − X Id) = det(P (A − λ Id)P −1 ) = det(P ) det(P −1 ) det(A − X Id) = det(A − X Id)
Remarque : le point 1 se reformule de la manière suivante

λ ∈ K est une valeur propre de u ⇐⇒ χu (λ) = 0

En particulier, lorsque K = C, χu (X) = (X − δ)lδ où ∀δ ∈ VP(u), lδ ≥ 1.


Q
δ∈VP(u)

Attention : χu peut avoir des racines non contenues dans K. En effet, si on considère une matrice de
0
!
−1
rotation d’angle π2 , M = , on a χM (X) = X 2 + 1. Ce polynôme admet deux racines complexes
1 0
mais aucune racine réelle.
Astuce utile : Un calcul explicite nous permet d’affirmer que

det(XIn − A) = X n − tr(A)X n−1 + · · · + (−1)n det A

En particulier, il est bon de retenir les formules suivantes

→ Lorsque n = 2, χA (X) = X 2 − Tr(A)X + det A


→ Lorsque n = 3, χA (X) = X 3 − Tr(A)X 2 + C2 (A)X − det A
a a a a a a
où C2 (A) = 11 12 + 12 23 + 11 13 lorsque A = (ai,j )i,j∈J1;3K .
a21 a22 a32 a33 a31 a33

Notation : Pour tout u ∈ L(E), on désigne par SpecK (u) la liste non ordonnée des valeurs propres de
u qui sont contenues dans K en prenant compte de leurs multiplicité dans χu , c’est à dire que SpecK (u)
peut être vu comme un ensemble mais contrairement à un ensemble usuel, un élément peut être compté
plus d’une fois et contrairement aux k − uplets l’ordre n’est pas pris en compte. Par exemple, lorsque
SpecK (u) contient deux fois 1 et une fois 2, nous noterons SpecK (u) = [1, 1, 2].
Parfois, par abus de notation, on pourra voir SpecK (u) comme un ensemble normal aussi.
Exemple : Si A = diag(λ1 , . . . , λn ) (pas forcément distincts) alors χA = 1 (X − λi ) et SpecK (A) =
Qn

[λ1 , . . . , λn ].
Attention : En général, SpecR (u) ⊊ SpecC (u).

17/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition V.2.

Lorsque K = C, pour tout A ∈ Mn (K), si SpecC (A) = [λ1 , . . . , λn ] alors Tr(A) = λ1 + · · · + λn


et det A = λ1 . . . λn .

Preuve : Soit A ∈ Mn (K). On a


n
χA (X) = det(XIn − A) = (X − λi ) = X n − Tr(A)X n−1 + · · · + (−1)n det(A)
Y

i=1

En identifiant les coefficients de l’avant dernier terme et du dernier terme, on trouve bien que Tr(A) =
λ1 + · · · + λn et det A = λ1 . . . λn .
Exemples :
1. Si A = (ai,j )i,j∈J1;nK est une matrice triangulaire supérieure (resp. inférieure) alors
n
χA (X) = (X − aii )
Y

i=1

0
 
−a0
.. .. 
1 . . 

2. Soit P (X) = X + an−1 X
n n−1
+ · · · + a0 ∈ K[X] et CP = ∈ Mn (K).
 

.. 

 . 0 −an−2 

1 −an−1
On a χCP = P . On appelle CP la matrice compagnon de P .
La preuve (classique) de ces deux points se fait par récurrence en développant suivant la première colonne.

Exercice V.3.

Soit A ∈ Mn (K). En utilisant la base (Ek,l )k,j∈J1;nK = ((δi,k δj,l )i,j∈J1;nK ), trouver le polynome
caractéristique de 
M (K) −→ M (K)
n n
ϕA :
X 7−→ XA

Proposition V.4.
F
Soit F un sous-espace vectoriel de E stable par u. Posons v = u . Montrer que χv |χu .
F

Preuve : Considérons β1 une base de F qu’on complète en une base β = (β1 , β2 ) de E. On a alors

[X Id −v]β1
!

[X Id −u]β =
0 X Id −B

où B ∈ M|β2 | (K). On a alors χu (X) = χv (X)χB (X) (on rappelle que le déterminant d’une matrice
triangulaire supérieure par bloc est le produit des déterminants des blocs diagonaux). Ceci donne bien le
résultat voulu.

2. Caractérisation des endomorphismes diagonalisables


Dans cette sous-partie, nous allons présenter des moyens de dire si un endomorphisme est diagonalisable
ou non.

18/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Définition V.5.

Soit u ∈ L(E) et λ ∈ SpecK (u).


1. La multiplicité algébrique de λ est sa multiplicité en tant que racine de χu , notée αu (λ).
2. La multiplicité géométrique de λ est βu (λ) := dim Eλ,u
S’il n y a pas d’ambiguïté sur l’endomorphisme u, on pourra les noter α(λ) (ou αλ ) et β(λ) (ou
βλ ) respectivement.

Proposition V.6.

Soit u ∈ L(E). Les propositions suivantes sont vraies.


1. Pour toute valeur propre λ de u, αu (λ) ≥ βu (λ).
2. u est diagonalisable ⇐⇒ χu scindé et ∀λ ∈ SpecK (u), αu (λ) = βu (λ)

Preuve :
F
1. F = Ker(u − λ Id) est stable par u. Considérons v = u . χv = (X − λ Id)β(λ) |χu d’où βλ ≤ αλ .
F
2. Soit u ∈ L(E)
 
λ1 Il1
→ (⇒) Soit β une base de E et λ1 , . . . , λr deux à deux distincts tels que [u]β =  ..
.
 

 
lbr Ilr
avec λ1 , . . . , λr ∈ N . On a alors

(X − λ1 )Il1
 

χu (X) = det(XIn − [u]β ) = det  ..


.
 

 
(X − λn )Ilr
r
= (X − λi )li
Y

i=1

De là, on voit bien que χu et scindé et pour tout i ∈ J1; rK, li = αu (λi ) = βu (λi ).
→ (⇐) On a  

n= αu (λ) = βu (λ) = dim 


X X M
Eλ,u 
λ∈VP(u) λ∈VP(u) λ∈VP(u)

En en déduit donc que E = Eλ,u , i.e. u est diagonalisable.


M

λ∈VP(u)

Remarque : Soit A ∈ Mn (K). Si χA possède n racines distinctes dans K alors


→ A est diagonalisable dans Mn (K).
→ χA est scindé à racines simples.
→ ∀λ ∈ SpecK (A), αλ = βλ = 1

Remarque : En général, Pour deux matrices A, B ∈ Mn (K), χA = χB n’implique pas forcément que A
est semblable à B. Toutefois, si A et B sont toutes les deux diagonalisables alors l’implication devient
vraie. Ceci car, dans ce cas,
SpecK (A) = SpecK (B) = [λ1 , . . . , λn ]
donc A et B sont toutes deux semblables à diag(λ1 , . . . , λn ), A et B sont donc semblables par transitivité de
la relation d’équivalence matricielle. Notons aussi que le fait d’avoir la diagonalisabilité pour uniquement

19/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

une seule d’elles ne suffit pas. En effet, pour le voir, il suffit de prendre A = 0 et B une matrice nilpotente
non nulle quelconque (par exemple strictement triangulaire supérieure non nulle), ces deux matrices
admettent X n comme polynôme caractéristique mais ne sont clairement pas équivalentes.
Le théorème suivant est l’un des plus utile en algèbre linéaire
Théorème (Cayley-Hamilton) V.7.

Pour tout A ∈ Mn (K), χA (A) = 0.

Remarque : Le théorème ci-dessus est équivalent à dire que pour tout A ∈ Mn (K), µA |χA .

Preuve : Plusieurs démonstrations sont possibles, on rencontrera notamment plusieurs dans ce cours.
On présentera ici une basée sur le changement de corps. On considérera dans cette démonstration que
K = R ou C et on posera L := C. Noter que cette démonstration est généralisable à d’autres corps si on
connaît un peu de théorie d’extension de corps (c.f. section Bonus sur l’existence d’une cloture algébrique
qui est en particulier un surcorps qui scinde tout polynôme).
Remarquons d’abord que χA est indépendant du corps de référence. On peut donc sans souci travailler
dans Mn (L) et montrer que dans L, χA (A) = 0. Montrons cela dans Mn (L).
Dans L, µA,L (le polynôme minimal de u dans L[X]) et χA sont scindés et leurs racines sont exactement
les mêmes (il s’agit des valeurs propres de A dans L). Notons alors λ1 , . . . , λs les valeurs propres distinctes
de A. On a alors s s
µA,L = (X − λi )γi et χA = (X − λi )αi
Y Y

i=1 i=1

Il suffit maintenant de montrer que ∀i γi ≤ αi , car une fois cela fait, on aurait µA,L |χA et donc χA (A) = 0.
Par symétrie des rôles des γi , il suffit de montrer que γ1 ≤ α1 . Soit u ∈ L(Ln ) l’endomorphisme associé
à A dans la base canonique. De même, E désignera désormais Ln . Posons
s
F = Ker(u − λ1 Id)γ1 H= Ker(u − λi Id)γi
M

i=2
F
d = dim(F ) v=u
F

Remarquons que v est bien défini car F est stable par u. Soit β1 une base de F et β2 une base de H.
β = (β1 , β2 ) est une base de E et
B 0
!
[u]β =
0 C
Soit µB et µC les polynômes minimaux de B et C respectivement. Par souci de clareté, nous procédons
point par point.
• v est annulé par (X − λ1 )γ1 , donc µB |(X − λ1 )γ1 , i.e. il existe p ∈ J1; γ1 K tel que µB = (X − λ1 )p .
s s
• De même, (X − λi )γi annule C, donc µC (X − λi )γi .
Y Y

i=2 i=2
• De plus, on a pour tout P ∈ L[X], P annule u si et seulement si P annule B et C, i.e. P ∈
⟨µB ⟩ ∩ ⟨µC ⟩ = ⟨µB ∨ µC ⟩. Le polynôme unitaire de plus petit degré vérifiant cette propriété est
µC ∨ µB , donc
s
(X − λi )γi = µu = µC ∨ µB = µB µC = (X − λ1 )p µC
Y

i=1

On a alors (X − λ1 ) |(X − λ1 )p µC et µC ∧ (X − λ1 )γ1 = 1, donc (X − λ1 )γ1 |(X − λ1 )p , donc γ1 ≤ p


γ1

(et aussi γ1 ≥ p), donc γ1 = p, et alors µB = (X − λ1 )γ1 .


• La matrice N = B − λ1 Id est nilpotente d’indice de nilpotence γ1 . En particulier, on dispose de
X ∈ Ld tel que N γ1 −1 X ̸= 0. Ainsi, γ1 ≤ d car (X, N X, . . . , N γ1 −1 X) est libre et ne peut donc

20/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

pas contenir plus de d éléments (pour le montrer, il suffit de considérer une combinaison linéaire de
cette famille non triviale et d’appliquer un nombre suffisant de fois N ).

• La seule valeur propre de N est 0 car si λ ̸= 0 est une valeur propre de N et X un vecteur propre
associé, 0 = N γ1 X = λγ1 X ce qui est absurde. De plus, χN est de degré d, unitaire scindé dans L
et admet uniquement 0 comme racine donc χN (X) = X d .

• Le point précédent nous permet d’écrire

χB (X) = det(XI − B) = det((X − λ1 )I − N ) = χN (X − λ1 ) = (X − λ1 )d

• Pour conclure, on a
s
(X − λ1 )d = χB (X)|χA (X) = (X − λi )αi
Y

i=1

et alors d ≤ α1 et finalement γ1 ≤ d ≤ α1 , ce qui est bien le résultat recherché.

Corollaire V.8.

Soit u ∈ L(E). Les propositions suivantes sont vraies.


1. deg(µu ) ≤ n
2. Les facteurs irréductibles de µu et χu sont exactement les mêmes à puissance près.
3. χu |µnu et ZK (µu ) = ZK (χu ) = SpecK (u).

Remarque 1 : Dans le cas particulier où K = C, le point (2) est équivalent à dire


r r
χu (X) = (X − λi )αi et µu (X) = (X − λi )γi
Y Y

i=1 i=1

où λi distincts et pour tout i ∈ J1; rK, 1 ≤ γi ≤ αi .


Remarque 2 : Ce résultat est vrai même pour K égal à un corps quelconque, pas forcément égal à R ou
C (vois partie bonus).
Applications :

→ Soit A ∈ M2 (K). Si Tr(A) = 0, alors A2 est une homotétie. En effet, 0 = χA (A) = A2 − Tr(A)A +
det(A)I2 = A2 + det(A)I2 et alors A2 = − det(A)I2 .

→ Soit A, B ∈ Mn (Z) tel que det A ∧ det B = 1. Alors ∃U, V ∈ Mn (Z) tel que U A + V B = In .
En effet, χA (A) = 0 nous donne que

An + (Tr A)An−1 + · · · + c1 A + (−1)n det A · In = 0

i.e.
det A · In = A × (−1)n+1 (An−1 + (Tr A)An−2 + · · · + c1 In )
| {z }
U ∈Mn (Z)

De la même manière, il existe V ∈ Mn (Z) polynôme en B tel que det B · In = V B et finalement


d’après Bezout, on dispose de a, b ∈ Z tel que a · det A + b · det B = 1 ce qui permet de dire, en
multipliant par In des deux côtés que (aU )A + (bV )B = In

Dans ce qui suit, on aura besoin du lemme suivant, qui est souvent assez utile.

21/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Lemme V.9.

Soit u ∈ L(E), λ ∈ K et k ≥ 2, on a

Ker(u − λ Id)k = Ker(u − λ Id) ⇐⇒ Ker(u − λ Id)2 = Ker(u − λ Id)

Preuve
→ (⇐) Soit k ≥ 2 et x ∈ E, on a

(u − λ Id)k (x) = 0 =⇒ (u − λ Id)2 ◦ (u − λ Id)k−2 (x) = 0


=⇒ (u − λ Id) ◦ (A − λ Id)k−2 (x) = 0
=⇒ (u − λ Id)k−1 (x) = 0

En itérant ce procédé k − 1 fois, on obtient que

(u − λ Id)k (x) = 0 =⇒ (u − λ Id)k−1 (x) = 0 =⇒ · · · =⇒ (u − λ Id)(x) = 0

On en déduit donc que Ker(u − λ Id)k ⊂ Ker(u − λ Id), i.e. Ker(u − λ Id)k = Ker(u − λ Id).
→ (⇒) On a clairement

Ker(u − λ Id) ⊂ Ker(u − λ Id)2 ⊂ · · · ⊂ Ker(u − λ Id)k

Le fait que Ker(u − λ Id)k = Ker(u − λ Id) implique que toutes ces inclusions sont des égalités, et
en particulier que Ker(u − λ Id) = Ker(u − λ Id)2 .
Exercice V.10.

Soit A ∈ Mn (K) avec χA scindé. Montrer que

A est diagonalisable ⇐⇒ ∀λ ∈ SpecK (A), dim Ker(A − λIn ) = dim Ker(A − λIn )2

VI Trigonalisation
1. Généralités
Soit E un K−espace vectoriel de dimension finie n ∈ N∗ .
Définition VI.1.

On dit que u ∈ L(E) est trigonalisable s’il existe β base de E tel que [u]β est triangulaire
supérieure.

Remarque : Soit β = (e1 , . . . , en ) est une base de E. [u]β est triangulaire supérieure si et seulement si
u stabilise le drapeau associé à β i.e. ∀k ∈ J1; nK, u(V ect(e1 , . . . , ek )) ⊂ V ect(e1 , . . . , ek )

Définition VI.2.

On dit que A ∈ Mn (K) est trigonalisable s’il existe P ∈ GLn (K) tel que P −1 AP soit triangu-
laire supérieure.

22/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

 
a11 ∗
Remarque : Soit A ∈ Mn (K). Lorsque A est triangulaire supérieure, notons A =  .. , on
.
 
 
0 ann
a SpecK (A) = [a11 , . . . , ann ]. La preuve de ce résultat est laissée comme exercice au lecteur.

Proposition VI.3.

Soit A ∈ Mn (K) et u ∈ L(E).


1. A est trigonalisable ⇐⇒ fA : X 7−→ AX est trigonalisable
2. u est trigonalisable ⇐⇒ Il existe β un base de E tel que [u]β est trigonalisable ⇐⇒
pour tout base β base de E, [u]β est trigonalisable.
   
a11 ∗ b11 ∗
3. Soit A =  .. et B =  .. Si A et B sont semblables, alors
. .
   
 
   
0 ann 0 bnn
(a11 , . . . , ann ) et (b11 , . . . , bnn ) sont égaux à permutation près, soit, avec nos notations,
[a11 , . . . , ann ] = [b11 , . . . , bnn ](= SpecK (A) = SpecK (B)).

Preuve : La démonstration est facile est laissée au lecteur (elle est très similaire à celle sur la diagonali-
sabilité).
Proposition VI.4.

Soit u ∈ L(E). Les propriétés suivantes sont équivalentes


1. u est trigonalisable
2. χu est scindé
3. µu est scindé
4. ∃P ∈ K[X] \ {0}, P (u) = 0 et P est scindé
En particulier, sur un corps algébriquement clos tel que C, tout endomorphisme est trigonali-
sable

Preuve
 
λ1 ∗
→ (1) ⇒ (2) Si u est trigonalisable donc on dispose de β base de E tel que [u]β =  .. et
.
 

 
0 λn
alors  
X − λ1 ∗ n
χu (X) = det([X Id −u]β ) = det  .. =
Y
(X − λi )
.
 

 
0 X − λn i=1

χu est donc bien scindé.


→ (2) ⇒ (3) µu |χu , donc µu est aussi scindé.
→ (3) ⇒ (4) Il suffit de prendre P = µu .
→ (4) ⇒ (1) Procédons par récurrence forte sur n, la dimension de E.
• Le cas n = 1 est évident.
• Soit n ≥ 2. Supposons que pour tout k ∈ J1; nK, la propriété soit vraie. µu |P , donc µu est aussi
scindé. µu admet donc une racine λ. Considérons F = Ker(u − λ Id) ̸= {0} et β1 une base de

23/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

F qu’on complète en une base β = (β1 , β2 ) de E. On a alors

λ Id ∗ P (λ) Id
! !

[u]β = et donc 0 = [P (u)]β =
0 B 0 P (B)

Donc P (B) = 0. B ∈ Ml (K) (avec l ≤ n − 1) est annulé par un polynôme scindé, on peut donc
appliquer l’hypothèse de récurrence et dire que B est trigonalisable. Il existe donc Q ∈ GLl (K)
tel que T := QBQ−1 soit triangulaire supérieure. Finalement,

λ Id ∗ Id 0 λ Id ∗ Id 0 λ Id ∗
! ! ! ! !
[u]β = ≃ =
0 B 0 Q 0 B 0 Q−1 0 T

cette matrice est triangulaire supérieure, donc u est trigonalisable.

Applications :
1. Soit u ∈ L(E). Les propriétés suivantes sont équivalentes
→ u est nilpotente.
→ Il existe une base β de E telle que [u]β est strictement triangulaire supérieure.
→ χu = X n
Pour montrer cela, il suffit de remarquer que le seul facteur irréductible de X d est X.
2. Soit A ∈ Mn (C) et P ∈ K[X].

SpecC (A) = [λ1 , . . . , λn ] =⇒ SpecC (P (A)) = [P (λ1 ), . . . , P (λn )]

Cette propriété se démontre aisément en trigonalisant la matrice A et en utilisant le fait que le


spectre d’une matrice triangulaire est égal aux coefficients diagonaux de cette matrice.
Exercice VI.5.

Soit u ∈ L(Cn ). Montrer que les propriétés suivantes sont équivalentes.


1. u est nilpotent
2. ∀k ∈ J1; nK, Tr(uk ) = 0
3. ∀P ∈ K[X], Tr(P (u)) = nP (0)

Exercice VI.6.

Supposons que K = C.
1. Trouver toutes les classes de similitudes des matrices suivant les valeurs de µA et χA pour
A ∈ Mn (C) lorsque n = 2 et n = 3.
2. En déduire que pour tout A, B ∈ Mn (C),
→ Pour n = 2, µA = µB ⇐⇒ A ≃ B.
→ Pour n = 3, (µA = µB et χA = χB ) ⇐⇒ A ≃ B.
3. Trouver un contre-exemple des propriétés précédentes dans n = 4.

Exercice VI.7.

Soit S ⊂ Mn (K) un sous-ensemble non vide de matrices trigonalisables qui commutent deux
à deux. Montrer qu’il existe P ∈ GLn (K) telle que pour tout A ∈ S, P AP −1 est triangulaire
supérieure.

24/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

2. Décomposition de Jordan-Dunford

Proposition VI.8.
r
Soit u ∈ L(E). Supposons que χu soit scindé, i.e. qu’on peut écrire µu (X) = (X − λi )γi et
Y

i=1
r
χu (X) = (X − λi ) αi
avec les λi distincts. posons Fλi = Ker(u − λi Id) = Ker(u − λi Id)αi .
Y
γi

i=1
Les propriétés suivantes sont vraies.
1. Fλi est stable par u et est de dimension αi .
r
2. E =
M
F λi
i=1
Fλi
3. u = λi IdFλi +Nλi où Nλi ∈ L(Fλi ) est nilpotent.
Fλi

Vocabulaire : On appelle Fλi l’espace caractéristique de u associé à λi .


 
Fλi
En considérant pour tout i, βi une base de Fλi où u est triangulaire supérieure et β la concaténation
Fλi β
i
de ces bases (qui est une base de E), on obtient que

0
   
Aλ1 λi ∗
[u]β =  .. où Aλi =  .. ∈ Mαi (K)
. .
   
 
   
0 A λr 0 λi

Remarquons lorsque χu est scindé que ∀i ∈ J1; rK, Fλi ,u = Eλi ,u si et seulement si u est diagonalisable.
Ceci étant vrai car

Fλi ,u = Eλi ,u ⇐⇒ Ker(u − λ Id) = Ker((u − λ Id)αi )


⇐⇒ Ker(u − λ Id) = Ker((u − λ Id)2 ) ⇐⇒ u est diagonalisable

Le cas αi = 1 est facile et peut être traité séparément par le lecteur. La dernière équivalence est vraie
d’après l’exercice V.10. et l’avant dernière d’après le lemme V.9.
Rassemblons maintenant tous les blocs diagonaux en une seule matrice D et de même pour ceux nilpotents
(la partie strictement triangulaire supérieure) en N . En considérant δ, ν ∈ L(E) tel que

0 0
   
λ1 · Iα1 Nλ1
[δ]β = D =  .. et [ν]β = N =  ..
. .
   
 
   
0 λr · Iαr 0 Nλr

on obtient la décomposition suivante, appelée décomposition de Dunford.

25/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition (Décomposition de Dunford) VI.9.

Soit u ∈ L(E) tel que χu soit scindé. Il existe un unique couple d’endomorphismes (δ, ν) ∈
L(E)2 telle que
→ u=δ+ν
→ δ est diagonalisable et ν et nilpotente.
→ δ et ν commutent.
De plus, δ et ν sont polynomiales en u i.e. il existe P, Q ∈ K[X] tels que δ = P (u) et ν = Q(u).

Preuve : L’existence a déjà été établie avant, il reste à montrer le caractère polynomial et l’unicité.
Remarquons d’abord que δ ∈ K[u] ⇐⇒ ν ∈ K[u]. Il suffit donc de le montrer pour δ ou ν, disons δ.
Reprenons les notations de la proposition, ainsi que celles considérées juste avant. Remarquons que
r
δ = λi πi où πi est la projection sur Fλi ,u parallèlement à Fλj ,u et donc il suffit de vérifier que
X M

1 j̸=i
πi ∈ K[u] pour tout i. Par symétrie des rôles des πi , il suffit de le montrer par exemple pour i = 1. Posons
r
P1 = (X − λj )αj , λ = P (λ1 ) ̸= 0, P2 = P1 − λ
Y

j=2
−1
P3 = (P2 )n , P4 = P3 − (−λ)n , P5 = P5
(−λ)n

Pour voir que ces polynômes sont naturels à considérer, il suffit de voir la succession d’égalités ci-dessous.

λ Id +N 0 0
   
N

0  
−λ Id 
[P1 (u)]β = donc [P2 (u)]β =
   

..  
.. 

 . 


 . 

0 0 0 −λ Id

et donc
Nn = 0 0 −(−λ)n Id 0
   

(−λ)n Id  
0 
[P3 (u)]β = ainsi [P4 (u)]β =
   

 ... 


 ... 

   
0 (−λ)n Id 0 0

finalement
Id 0
 

0 
[P5 (u)]β = = [π1 ]β
 

.. 

 . 

0 0
Ce qui nous donne bien le résultat voulu.
Montrons enfin l’unicité. Considérons (δ ′ , ν ′ ) vérifiant les mêmes propriétés que (δ, ν). On a

u = δ + ν = δ ′ + ν ′ i.e. δ − δ ′ = ν − ν ′

ν et ν ′ commutent car ν ∈ K[u] et ν ′ commute avec δ ′ et alors avec δ ′ +ν ′ = u. En posant v = δ−δ ′ = ν−ν ′ ,
on obtient
2n
2n k ′2n−k
!
v =
2n
X
ν ν
k=0 k

26/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

sachant que ∀k ∈ J1; 2nK, soit k ≥ n soit 2n − k ≥ n (on rappelle que l’indice de nilpotence de ν et ν ′
est forcement inférieur à n), tous les termes de cette somme sont nuls. Ainsi, les seules valeurs propres de
v dans C sont 0, mais v est diagonalisable car il est égal à la somme de δ et δ ′ qui sont diagonalisables
et commutent entre eux car δ est dans K[u] et δ ′ commute avec ν ′ et donc avec δ ′ + ν ′ = u et sont donc
codiagonalisables. On en déduit donc directement que v = 0, i.e. (δ, ν) = (δ ′ , ν ′ ), d’où l’unicité de δ et ν.

Exercice VI.10.

Résoudre les équations suivantes.


1 0 0
 

1. X 2 = 0 4 0 dans M3 (R).
 

0 0 9
a2 1
!
2. X =2
dans M2 (C) avec a ∈ C.
0 a2
1 1 0
 

3. X = 0 1 0 dans M3 (R).
2  

0 0 1

Exercice VI.11.

Soit u ∈ L(Cn ). On considère l’application



L(Cn ) −→ L(C n )
ϕu :
v 7−→ u ◦ v − v ◦ u

Montrer que u est diagonalisable si et seulement si ϕu est diagonalisable.

Exercice VI.12.

Soit u ∈ GLn (C). Montrer que u admet une racine, i.e. qu’il existe v ∈ GLn (C), v 2 = u.

Proposition (Décomposition de Jordan 1) VI.13.

Soit v ∈ L(E) nilpotent. Il existe une base β de E tel que

01 0
 
0
 
Jl1  . . . . . .

...
 
[v]β =  où ∀k ∈ J1; sK, Jk =  ∈ Mk (K)
   
... 

1
 
0
 
Jls  
0 0

avec l1 , . . . , ls ∈ J1; nK et l1 + · · · + ls = n.

Preuve : Soit u ∈ L(E) nilpotent, il est clair qu’il existe p ≥ 1 tel que µu = X p pour un certain p ≥ 1
(en effet, u est annulé par X l pour l assez grand, donc µu |X l ).
Montrons le résultat par récurrence forte sur la dimension n de E.
→ Le cas n = 1 est évident.
→ Soit n ≥ 2 tel que dim E = n. Supposons que le propriété soit vraie pour tout k ∈ J1; nK. Soit
x1 ∈ E \ {0} tel que up−1 (x1 ) ̸= 0. En posant Fx1 = Vect(x1 , . . . , up−1 (x1 )) (remarquons que cette

27/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

famille est libre, c’est donc une base de Fx1 ), on voit que Fx1 est stable et
 
Fx1
u = Jp
Fx1

Notre intuition est de trouver un supplémentaire de Fx1 stable par u et lui appliquer l’hypothèse
de récurrence. Voici comment nous allons procéder
• La famille (x1 , u(x1 ), . . . , up−1 (x1 )) est libre, on peut donc considérer ϕ : E −→ K une forme
linéaire telle que φ(up−1 (x1 )) = 1 et pour tout k ∈ J0; p − 2K, ϕ(uk (x1 )) = 0.
• À partir de ϕ on construit l’application linéaire suivante

E −→ Kp
φ:
y 7−→ (ϕ(up−1 (y), . . . , ϕ(u(y)), ϕ(y))

et on pose F = Ker φ.
• F est stable par u. En effet, on a pour tout y ∈ E

φ(y) = 0 =⇒ ∀k ∈ J0; p − 1K, uk (y) = 0


=⇒ ∀k ∈ J0; p − 1K, uk (u(y)) = 0 (car up = 0)
=⇒ u(y) ∈ F

• φ est surjective. en effet, pour tout k ∈ J0; p − 1K, φ(uk (x1 )) = (δik )i∈J0;p−1K donc pour tout
(a0 , . . . , ap−1 ) ∈ Kp

φ(a0 u0 (x1 ) + · · · + ap−1 up−1 (x1 )) = (a0 , . . . , ap−1 )


p−1
• F ∩ Fx1 = {0}. En effet, pour tout y ∈ Fx1 , en posant y = y := ak uk (x1 ), on a
X

0
 
p−1
φ(y) = 0 =⇒ 0 = φ  ak uk (x1 ) = (a0 , . . . , ap−1 ) =⇒ y = 0
X

donc F et Fx1 sont en somme directe et par la formule du rang dim F = dim Ker φ = dim E −
dim Im φ = n − p, et alors dim Fx1 + dim F = n = dim E. F et Fx1 sont donc supplémentaires.
F
• Pour finir, on voit que w = u est aussi nilpotente, on peut donc appliquer l’hypothèse de
F
récurrence à w sur F ce qui nous donne bien le résultat voulu.
Remarques :
→ Lorsqu’on ajoute la condition l1 ≥ · · · ≥ ls ≥ 1, cette décomposition est unique, i.e. s’il existe une
autre base β ′ de E, où n est de la même forme avec m1 ≥ · · · ≥ mr ≥ 1 les tailles respectives de
ses blocs (Jk )k∈J1;rK , alors r = s et ∀i ∈ J1; sK, li = mi .
Pour s’en convaincre, notons

∀i ∈ N∗ F (i) = |{k ∈ J1; sK, lk = i}| et G(i) = |{k ∈ J1; rK, mk = i}|

Il est aisé de vérifier que

∀r ∈ N∗ ∀k ∈ N dimKer(Jrk ) = min(k, r)

Ceci permet donc d’affirmer que


∞ ∞
∀k ∈ N∗ dimKer(uk ) = F (i)min(k, i) =
X X
G(i)min(k, i)
1 1

28/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Ainsi, F = G (Il suffit de considérer par absurde le 1-er indice i ∈ N∗ où F (i) ̸= G(i) pour tomber
sur un contradiction) et donc on a notre unicité.

→ Remarquons que le bloc associé au sous espace Fx1 a la plus grande taille des blocs. En effet la taille
du bloc correspond à la dimension de ce sous espace, dim Fx1 = p et la dimension de tout espace
défini de la même manière (en itérant u sur un élément de E) est de dimension au plus p.

Proposition (Décomposition de Jordan 2) VI.14.

Soit u ∈ L(E) tel que χu est scindé dans K. Notons λ1 , . . . , λr les valeurs propres distinctes
(comptées sans multiplicité) de u. Il existe une base β de E telle que

λ1 · Il1i + A1 0 0
   
Jl1i
[u]β = 
 ... 
 avec Ai = 
 ... 

   
0 λr · Ilsi + Ar 0 Jlsi
i i

où pour tout i ∈ J1; rK, si ∈ N∗ et l1i ≥ · · · ≥ lsi i ≥ 1. De plus, cette écriture est unique à
permutation des blocs λi Ilsi + Ai près.
i
On appelle cette décomposition réduction de Jordan de u.

Remarque : Certains auteurs n’exigent pas les inégalités sur les tailles des blocs dans la réduction de
Jordan. Cela ne change que la partie unicité de ce théorème.

Exercice VI.15.

Soit A ∈ Mn (C). Montrer que dim Com(A) ≥ n.

VII Endomorphismes cycliques

Cette partie hors programme est assez classique. En effet, elle revient dans un nombre considérable
d’exercices d’oraux et de sujets d’écrits, voir par exemple Centrale Math 1 2019, où l’intégralité du sujet
portait sur les endomorphismes cycliques. Les élèves (dont ceux des MP* de Louis-le-Grand) ayant vu
cette notion étaient très avantagés par rapport aux autres cette année là.
Soit E un K−espace vectoriel de dimension finie n ≥ 1.
Définition VII.1.

Soit u ∈ L(E) et x ∈ E \ {0}. On appelle espace cyclique engendré par x pour u le sous-espace
vectoriel défini par
Fx,u = Vect{uk (x), k ∈ N}
On le notera aussi Fx lorsqu’il n y a pas d’ambiguïté sur u.

29/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition VII.2.

Soit u ∈ L(E) et x ∈ E \ {0}. Les propositions suivantes sont vraies.


1. Fx,u est le plus petit sous-espace vectoriel de E stable par u contenant x.
2. Soit p = max{k ∈ N∗ , (x, u(x), . . . , uk−1 (x)) est libre}. β = (x, . . . , up−1 (x)) est une base
de Fx,u .
 
Fx,u
3. Il existe P ∈ K[X] unitaire tel que u = CP la matrice compagnon associée à P .
Fx,u β

4. P est le générateur normalisé de Hu,x = {Q ∈ K[X], Q(u)(x) = 0}, i.e. P est l’unique
polynôme unitaire tel que Hu,x = ⟨P ⟩ := P · K[X]. On appellera P le polynôme minimal
(de u) en x et on le notera µx,u ou µx s’il n y a pas d’ambiguïté sur u. De plus, µx,u |µu .

Preuve
1. Clair (il suffit de l’écrire).
2. β est libre par définition. Montrons par récurrence forte que ∀l ∈ N ul (x) ∈ Vect(β).
→ La propriété est évidente pour l ∈ J0; p − 1K.
→ Soit l ≥ 1. Supposons que la propriété soit vraie pour tout k ∈ J0; l−1K. Sil ≤ p, la propriété est
vraie. Supposons donc que l > p. Par définition, (x, . . . , ul (x)) est liée, il existe donc m ∈ J0; lK
et (λ0 , . . . , λm ) ∈ Kn \ {(0, . . . , 0)} tels que
m−1
u (x) =
m
λk uk (x)
X

On a donc, par hypothèse de récurrence


m−1 m−1
!
u (x) = u
l l−m
λk u (x) =
k
λk uk+l−m (x) ∈ Vect(β)
X X

0 0
| {z }
∈Vect(β)

ce qui est bien le résultat voulu.


p−1
3. β est libre mais (β, u (x)) ne l’est pas, il existe donc λ0 , . . . , λp−1 ∈ K tels que u (x) = λk uk (x)
X
p p

0
p−1  
Fx,u
En Posant P := X p − λk X k , il est aisé de vérifier que u = CP .
X
Fx,u β
k=0
4. Remarquons que le polynôme P retrouvé au point (3) est unitaire, de degré p et annule u en x.
Remarquons de plus que (x, . . . , up−1 (x)) est libre i.e. tout élément Q ∈ Hu,x non nul doit être de
degré supérieur à p. En particulier, si Q est le générateur unitaire de Hu,x (existe car Hu,x est un
idéal non trivial), alors Q|P et Q et P unitaires (non nuls) et deg(P ) = p ≤ deg(Q) d’où P = Q et
donc Hu,x = ⟨P ⟩.
Définition VII.3.

On dit que u est cyclique lorsqu’il existe x ∈ E \ {0} tel que Fx = E i.e. il existe x ∈ E tel que
(x, . . . , un−1 (x)) est libre.

Proposition VII.4.

Soit u cyclique et x ∈ E\{0} tel que Fx = E. Alors µx = µu = χu

30/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Preuve : Les trois polynômes sont tous unitaires et µx |µu |χu et donc il suffit de montrer que deg(µx ) ≥=
n, ce qui est vrai car (x, u(x), . . . , un−1 (x)) est libre et donc aucun polynôme de degré n − 1 ou moins ne
peut annuler u.
Fx
Remarquons qu’en prenant u quelconque, x ∈ E \ {0} et en considérant v = u , on obtient que
Fx
µu,x = µv,x = χv et donc, en particulier, deg(µx ) = dim(Fx ).

Exercice VII.5.

Soit u ∈ L(E). On admettra qu’il existe x ∈ E − {0} tel que µx,u = µu (démontré dans un
exercice ultérieur)
1. Montrer que µu = χu si et seulement si u est cyclique.
2. Supposons que u est cyclique. Montrer que Com(u) = K[u] = {P (u), P ∈ K[X]} et en
déduire que dim Com(u) = n.
3. On ne suppose plus que u est cyclique. Déduire de la question précédente que
dim Com(u) ≥ n
4. Montrer que µu = χu si et seulement si Com(u) = K[u].

Exercice VII.6.

Soit u ∈ L(E). Montrer que χu est irréductible si et seulement si les seuls sous-espaces vectoriels
stables par u sont {0} et E.
Au passage remarquer que, dans ce cas, tout élément non nul est cyclique pour u.

Exercice VII.7.

Soit A ∈ Mn (C).
1. Montrer que la dimension de chaque espace propre est égale à 1 si A est semblable à une
matrice compagnon.
2. En déduire que si A est diagonalisable, alors A est cyclique si et seulement si A possède
n valeurs propres distinctes.

Exercice VII.8.

Soit P ∈ Z[X] un polynôme unitaire de degré n et de racines (dans C, possiblement avec


répétition) λ1 , . . . , λn
1. Montrer que ∀k ≥ 1, λk1 , . . . , λkn sont les racines d’un polynôme unitaire de Z[X] de degré
n.
2. En déduire que si |λ1 | = · · · = |λn | = 1 alors les λj sont des racines de l’unité.

31/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Exercice VII.9.

Dans cet exercice, on notera ∀P ∈ K[X] et x ∈ E, P · x = P (u)(x) et µ0 = 1.


1. Soit x ∈ E \ {0}. Supposons qu’il existe P, Q ∈ K[X] unitaires tels que µx = P Q et
posons y = Q · x. Vérifier que µy = P
2. Soit x, y ∈ E non nuls tels que µx ∧ µy = 1. Montrer que µx+y = µx µy .
3. On ne suppose plus que µx ∧ µy = 1. Montrer que qu’il existe z ̸= 0 tel que µz = µx ∨ µy .
4. Montrer qu’il existe a ̸= 0 tel que pour tout x ̸= 0, µx |µa . En déduire que µa = µu , le
polynôme minimal de u.

Application : en utilisant le résultat de la dernière question, on peut démontrer le théorème de Cayley-


Hamilton. En effet, considérons u ∈ L(E) et x ∈ E \{0} tel que µx = µu . Fx étant stable, µu = µx = χv |χu
Fx
où v = u . On en déduit donc directement que χu (u) = 0.
Fx
Une autre manière similaire de démontrer Cayley Hamilton sans le résultat de la dernière question est de
Fx
voir que pour tout x ∈ E \ {0}, Fx étant stable, µx = χv |χu où v = u . On a alors pour tout x ∈ E \ {0},
Fx
χu (u)(x) = 0, i.e. χu (u) = 0.

VIII Réduction et topologie


1. Normes, valeurs propres
On suppose dans cette partie que K = R ou C.
Rappel VIII.1.

On suppose que E = Mn (K). Soit ||.|| une norme sur Kn . On peut définir une norme sur E,
appelée norme d’opérateur, par

∥AX∥
|||A||| = sup ||AX|| = sup ∥AX∥ = sup
∥X∥=1 ∥X∥≤1 X∈E\{0} ∥X∥

Remarque : cette norme vérifie les propriétés suivantes


→ |||In ||| = 1.
→ ∀A, B ∈ Mn (K), |||AB||| ≤ |||A||| × |||B|||
→ ∀A ∈ Mn (K), sup |λ| ≤ |||A|||
λ∈SpecK (A)

Proposition VIII.2.
 
n n
Soit A = (aij )i,j∈J1;nK ∈ Mn (K). On a VP(A) ⊂ |akj |.
[ X
Bf akk ,
k=1 j=1,j̸=k

 
n n
Preuve : Posons H = |akj |. Soit λ ̸∈ H, alors
[ X
Bf akk ,
k=1 j=1

n
X
∀k ∈ J1; nK, |λ − akk | > |akj |
j=1, j̸=k

32/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

D’après Hadamard (voir le chapitre des systèmes linéaires), ceci est équivalent à dire que la matrice A−λI
est inversible et que donc λ n’est pas une valeur propre de [Link] en déduit donc bien que VP(A) ⊂ H.
Application : En utilisant ce résultat, on peut redémontrer le résultat sur les racines d’un polynôme vu
au chapitre 1. En effet, considérons P ∈ K[X] et soit A = CP . On a bien entendu

P (X) = χA (X) = X n + αn−1 X n−1 + · · · + α1 X + α0

On a donc, en utilisant le résultat ci-dessus


n−2
Z(P ) = SpecK (A) ⊂ Bf (0, 1 + |αk |) ∪ Bf (αn−1 , 1)
[

k=0

i.e. pour toute racine λ de P , on a l’inégalité

|λ| ≤ 1 + max |ak |


k∈J0;n−1K

Exercice VIII.3.

Soit F un fermé de C. Montrer que Fe = {A ∈ Mn (C), SpecC (A) ⊂ F } est fermé dans Mn (C).

Application : Mn (R) est fermé dans Mn (C), donc en appliquant le résultat de cet exercice, on a que
{A ∈ Mn (C), SpecC (A) ⊂ R} est fermé dans Mn (C). De plus, on a

{A ∈ Mn (R), A est trigonalisable} = {A ∈ Mn (R), χA est scindé}



proposition VI.4

= {A ∈ Mn (C), SpecC (A) ⊂ R} ∩ Mn (R)

On en déduit donc que l’ensemble des matrices de Mn (R) trigonalisables s’écrit sous forme d’une inter-
section de deux fermés, c’est donc un fermé dans Mn (R) et Mn (C).

2. Diagonalisation à ε près
Proposition VIII.4.

Soit A ∈ Mn (C) et λ1 , . . . , λn les coefficients diagonaux


 d’une
 trigonalisation de A. Pour tout
λ1 bij
ε > 0, il existe P ∈ Mn (C) tel que P AP = 
−1
 . ..  avec ∀i ̸= j |bij | ≤ ε.

 
0 λn

Preuve : Soit β = (b1 , . . . , bn ) une base de trigonalisation de A dans Mn (C) i.e. une base telle que
 
λ1 aij
Aβ = QAQ−1 =  ..
.
 

 
0 λn
!
b2 bn
avec Q la matrice de la base β. Soit p > 0, posons βp = b1 , , . . . , n . βp est aussi une base de Mn (C).
p p

33/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

La matrice de A dans cette base s’écrit


 aij 
λ1
 p|i−j| 
Vp QAQ−1 Vp−1 =  ...
 

 
0 λn

1 1
!
avec Vp = Diag 1, , . . . , n−1 . Il suffit ensuite de prendre p assez grand pour qu’on ait pour tout i ̸= j,
p p
|ai,j |
≤ ε.
p
Exercice VIII.5.

Soit A ∈ Mn (C) tel que Spec(A) ⊂ B(0, 1). Montrer que Ap −−−−→ 0.
p→+∞

Remarque : La propriété connue |||Ap |||1/p p→∞


−→ ρ(A) = sup{|λ|, λ ∈ SpecC (A)} dans C permet de
rapidement en conclure aussi.

Exercice VIII.6.

Soit A ∈ Mn (Z) tel que SpecC (A) ⊂ B(0, 1). Montrer que A est nilpotente

3. Densité des matrices diagonalisables

Proposition VIII.7.

Ω = {A ∈ Mn (C), A possède n valeurs propres distinctes} est dense dans Mn (C).

Preuve  
λ1 ∗
Soit β une base de Cn tel que [A]β = P AP −1 = 
 ... 
 avec P ∈ GLn (K). Considérons alors (Ap )
 
0 λn
la suite de matrices vérifiant
1
 
0 
p + 1

...

∀p ∈ N, Ap = A + P −1
 
 P
 

1 
0
 
p+n
On a alors
1
 
0 
p + 1

...

∀p ∈ N, [Ap ]β = [A]β + 
 

 

1 
0
 
p+n
On remarque que On a SpecC (A) = [λ1 , . . . , λn ]. A partir de là, il y a deux moyens de conclure.

34/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Méthode 1 : Considérons le polynôme non nul

1 1
!
P (X) = (X + i)(X + j) λi + = ((X + i)(X + j)(λi − λj ) + j − i))
Y Y
− λj −
i̸=j X +i X +j i̸=j

Il est clair que si Ap n’admet pas n valeurs propres distinctes alors P (p) = 0. P n’a qu’un nombre fini de
racines et donc à partir d’un certain rang Ap admet toujours n valeurs propres distinctes. Finalement
1
 
0 
p + 1

..

Ap = A + P −1
.
 
  P −−−−→ A
  p→+∞

1 
0
 
p+n
| {z }
−−−−→0
p→+∞

d’où le résultat recherché.


1 1
Méthode 2 : Posons δ = min{|λi − λj | , i ̸= j et λi ̸= λj } > 0 et soit k ∈ N∗ tel que < δ.
2 k
Supposons par l’absurde qu’il existe deux termes diagonaux de [Ap ]β égaux, il existe donc i ̸= j tel que
1 1
λi + = λj + . Deux cas se présentent
k+i k+j

1 1
→ λi = λj et donc 0 = |λi − λj | = − ̸= 0 ce qui est absurde.
i+k j+k

1 1 |i − j|
→ λi ̸= λj et donc δ < |λi − λj | = − = ≤ 1
< δ ce qui est absurde.
i+k j+k (k + i)(k + j) k

En en déduit donc que pour tout p ≥ k, Ap admet n valeurs propres distinctes, et Ap −−−−→ A, d’où le
p→+∞
résultat voulu.
Conséquence : D’après la question 1 de l’exercice VII.4, pour tout u ∈ L(E), χu = µu implique que u
est cyclique. Or si u admet n valeurs propres deux à deux différentes, χu = µu et donc u est cyclique.
L’ensemble des endomorphismes ayant n valeurs propres deux à deux différentes (qui est dense) est inclus
dans l’ensemble des endomorphismes cycliques. On en déduit donc que l’ensemble des les endomorphismes
cycliques est dense dans Mn (C).
Application : On peut utiliser ce résultat pour redémontrer le théorème de Cayley-Hamilton.
Soit A ∈ Mn (C) et (Ap ) une suite de matrices dont chacune possède n valeurs propres distinctes (et
donc, a fortiori, est diagonalisable) tel que Ap −−−−→ A.
p→+∞
Lorsque D ∈ Mn (C) est diagonale, il est aisé d’établir que χD (D) = 0. Idem pour le cas où D est
diagonalisable. Ainsi, par continuité de (A, B) 7−→ χA (B) (l’image de (A, B) est une matrice dont les
coordonnées sont produit et somme des coefficients de A et B)

χA (A) = lim χAp (Ap ) = lim 0 = 0


p→∞ p→∞

Remarque : On peut également montrer que Ω est ouvert. En effet

A ∈ Ω ⇐⇒ χA ∧ χ′A = 1 ⇐⇒ det χ′A (A) ̸= 0

h : A 7−→ det(χ′A (A)) est continue et K∗ est ouvert, donc Ω = h−1 (K∗ ) est ouvert.

35/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Exercice VIII.8.

Soit A ∈ Mn (C), montrer que

A est diagonalisable ⇐⇒ {P −1 AP, P ∈ GLn (C)} est fermé

4. Valeurs propres "pures"


Définition VIII.9.

λ ∈ SpecK (A) est dite pure lorsque

Eλ,u = Ker(A − λIn ) = Ker(A − λIn )αλ = Fλ,u

ou alors d’une manière équivalente Ker(A − λIn ) = Ker(A − λIn )2 .

Remarque : Cette propriété est aussi équivalente au fait que la composante nilpotente dans la décompo-
sition de Dunford associée à l’espace caractéristique de λ est nulle (i.e. u est simplement une homothétie
sur cet espace).
Exercice VIII.10.

Soit λ une valeur propre de A ∈ Mn (C) et ∥.∥ une norme sur Cn . Montrer que si |λ| = |||A|||,
avec |||.||| la norme d’opérateur associée à ∥.∥, alors λ est pure.

Application : Si u ∈ Mn (C) est une isométrie pour ∥.∥ alors u est diagonalisable. En effet, ∀λ ∈
SpecC (u), |λ| = |||u||| = 1 et donc Eλ,u = Fλ,u .

36/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice II.5. :


→ Lorsque K = R, un tel plan existe.
En effet, le plan suivant privé de 0 est inclus dans GL2 (R)
( ! )
a −b
P = , (a, b) ∈ R2
b a

→ Lorsque K = C, il n’existe pas de tel plan.


En effet, supposons qu’il existe un plan P vérifiant ces conditions et soit (u, v) une base de P et
λ ∈ C. On a alors

u − λv ∈ GLn (C) ⇐⇒ det(u − λv) ̸= 0 ⇐⇒ det(uv −1 − λid) ̸= 0


v∈GLn (C)

Ce qui ne peut pas être vrai pour tout λ ∈ C car uv −1 admet une valeur propre dans C.

Correction de l’exercice II.7. :


Soit λ une valeur propre de u. u−λ Id commute avec tous les éléments de L et donc F = Ker(u−λid) ̸= {0}
est stable par tous les éléments L. L étant irréductible, on a F = E et u = λ Id.

Correction de l’exercice III.5. :


Soit β = (b1 , . . . , bn ) une base telle que [u]β = diag(λ1 , . . . , λn ) où les λi sont les n valeurs propres distinctes
de u. v commute avec u et donc pour tout i ∈ J1; nK, Ker(u − λi id) = Vect(bi ) est stable par v et donc
pour tout i ∈ J1; nK, il existe µi ∈ K tel que v(bi ) = µi bi et donc finalement [v]β = diag(µ1 , . . . , µn ). On
en déduit directement que v est diagonalisable.
En considérant un polynôme interpolateur P ∈ K[X] tel que ∀i ∈ J1; nK, P (λi ) = µi (chose possible vu
que les λi sont distincts), on voit que

[P (u)]β = diag(P (λ1 ), . . . , P (λn )) = diag(µ1 , . . . , µn ) = [v]β

d’où le résultat.

Correction de l’exercice IV.3. :


X 2 − 1 est un polynôme annulateur de u, donc µu |X 2 − 1. µu n’est pas constant, il y a donc 2 possibilités
→ µu = X − 1 ou µu = X + 1, ce qui est impossible car u ̸= ± Id.
→ µu (X) = X 2 − 1 est la seule possibilité qui reste, d’où la résultat voulu.

Correction de l’exercice IV.8. :


s
F
→ (1) ⇒ (2) Considérons v = u (bien défini car F stable par u). P (X) = (X − λs ) annule v, on
Y
F
i=1
a donc par le lemme de décomposition des noyaux
s s s
F = Ker(P (v)) = Ker(v − λi Id) = F ∩ Ker(u − λi Id) =
M M M
F ∩ Eλi ,u
i=1 i=1 i=1

→ (2) ⇒ (3) Il suffit de prendre pour tout i ∈ J1; sK, Fi = F ∩ Eλi ,u .


→ (3) ⇒ (1) Chaque Fi est stable par u, donc F , qui est égal à la somme directe des Fi , est également
stable par u.

37/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice IV.9. :


Méthode 1 :
→ Soit v ∈ Com(u). Posons  
A1,1 . . . A1,s
 . ... .. 
[v]β =  ..

. 
As,1 . . . As,s
avec pour tout i, j ∈ J1; sK, Ai,j ∈ Mli ,lj (K). On a alors
   
λ1 A1,1 . . . λ1 A1,s λ1 A1,1 . . . λs A1,s
 . . .  . ... .. 
 . .. ..   = [u]β × [v]β = [u ◦ v]β = [v ◦ u]β = [v]β × [u]β =  ..

 . . 


λs As,1 . . . λs As,s λ1 As,1 . . . λs As,s

On a alors (λi Ai,j )i,j∈J1;sK = (λj Ai,j )i,j∈J1;sK , i.e. pour tout i ̸= j,

λi Ai,j = λj Ai,j

ce qui implique que Ai,j = 0 car les λi sont deux à deux distincts. v s’écrit donc bien dans la base
β sous la forme
0
 
A1,1
v=
 ... 

 
0 As,s
→ Réciproquement, si on suppose que v s’écrit comme ci-dessus, alors

0
 
λ1 A 1
[v ◦ u]β = [v]β × [u]β =  .. = [u]β × [v]β = [u ◦ v]β
.
 

 
0 λs As

donc v ∈ Com(u).

Méthode 2 :
→ Notons S l’ensemble de droite. Il est alors clair que S ⊂ Com(u) (pour s’en convaincre, voir le
dernier point de la méthode 1).
→ Réciproquement, soit v ∈ Com(u). Pour tout i ∈ J1; sK, Eλi ,u est stable par v. La proposition I.5
nous permet d’affirmer que dans la base β, v s’écrit bien de la manière voulue.
Une autre solution de l’exercice III.5 consiste à utiliser ce résultat pour s = n et li = 1 pour tout i ∈ J1; sK.
s
Remarque : une conséquence de ce résultat est que dim(Com(u)) = li2 ≥ n avec égalité si et seulement
X

i=1
si n = s et pour tout i ∈ J1; sK, li = 1. L’inégalité dimC (Com(u)) ≥ n est en fait toujours vraie même
sans diagonalisabilité lorsque u ∈ L(Cn ). On le prouvera dans un exercice ultérieur.

Correction de l’exercice IV.11. :


→ (⇐) Dans une base β où les matrices de tous les endomorphismes de S sont de matrice diagonale,
toutes ces matrices commutent ce qui nous donne bien le résultat voulu.
→ (⇒) Procédons par récurrence forte sur la dimension n de E.
• Le cas n = 1 est évident car dans ce cas tous les endomorphismes de E commutent et sont
diagonaux.
• Soit n ≥ 1. Supposons que la propriété est vraie pour tout k ∈ J1; nK. Le cas où tous les
éléments de S sont des homothéties est évident, on suppose donc que ce n’est pas la cas. On

38/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

dispose donc de u ∈ S, s ≥ 2 et λ1 , . . . , λs ses valeurs propres comptées sans multiplicité. Tout


élément v ∈ S commute avec u, donc pour tout i ∈ J1; sK,Eλi ,u est stable par tout élément
s
de S. En posant F = Eλi ,u , on voit clairement que F est stable par tout élément de S.
M

i=2
Considérons les deux ensembles
   
Eλ1 ,u F
S1 = v , v∈S et S2 = v , v ∈ S
Eλ1 ,u F

On peut appliquer l’hypothèse de récurrencé à Eλ1 ,u pour S1 et à F pour S2 . Il existe une base
β1 (resp. β2 ) de Eλ1 ,u (resp. F ) dans laquelle les matrices de tous les éléments de S1 (resp. S2 )
sont diagonales. On en déduit donc que les matrices de tous les éléments de S dans la base
β = (β1 , β2 ) sont diagonales, ce qui est bien le résultat recherché.

Correction de l’exercice IV.12. :


Considérons l’ensemble
S = {diag(ε1 , . . . , εm ), (ε1 , . . . , εm ) ∈ {−1, 1}m }
S est clairement un sous-groupe de GLm (K) de cardinal 2m (car car K ̸= 2).
Posons S ′ := φ(S). φ est injective, donc S ′ est un sous-groupe de GLn (K) de cardinal 2m .
Remarquons que pour tout A ∈ S, A2 = Im donc pour tout A′ ∈ S ′ , il existe A ∈ S tel que A′ = φ(A)
et donc A′2 = φ(A)2 = In . X 2 − 1 annule donc tout élément de S ′ et est scindé à racines simples dans K
(car car K ̸= 2) et donc chaque élément de S ′ est diagonalisable. De plus, les éléments de S commutent
entre eux, donc ceux de S ′ aussi.
Ainsi, en utilisant l’exercice précédent, on dispose d’une base β de Mn (K) où la matrice de tout élément
de S ′ est diagonale. Par construction, le carré de chacune de ces matrices est égal à l’identité, ce qui
impose que [S ′ ]β = {[v]β , v ∈ S ′ } ⊂ {diag(ε1 , . . . , εn ), (ε1 , . . . , εn ) ∈ {−1, 1}n } On a alors

2m = |S ′ | = |[S ′ ]β | ≤ 2n

i.e. m ≤ n.

Correction de l’exercice IV.13. :


→ (⇒) Supposons que u2 et u soient diagonalisables. Il existe une base β et une matrice diagonale
D ∈ Mn (C) telle que [u]β = D. De plus rg D = rg D2 (il s’agit du nombre de coefficients non nuls
sur la diagonale) et donc rg u = rg u2 . La formule du rang nous donne donc dim Ker u = dim Ker u2 .
En combinant ce résultat avec le fait que Ker u ⊂ Ker u2 , on obtient Ker u = Ker u2 .

→ (⇐) Deux cas se présentent

• u est inversible (i.e. Ker u2 = Ker u = {0}).


Considérons λ1 , . . . , λs les valeurs propres comptées sans multiplicité non nulles de u2 et
α1 , −α1 , . . . , αs , −αs leurs racines complexes distinctes respectives. Le polynôme P (X) =
s
(X − λi ) annule u2 et donc le polynôme
Y

i=1

s s
P (X 2 ) = (X 2 − λi ) = (X − αi )(X + αi )
Y Y

i=1 i=1

scindé à racines simples annule u, donc u est diagonalisable.

• u n’est pas inversible, donc u2 non plus.

39/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Reprenons les notations du point précédent et considérons que λ1 = 0. Le polynôme


s
P (X 2 ) = X 2 (X − αi )(X + αi )
Y

i=2

annule u, et donc par le lemme des noyaux


s
E = Ker P (u2 ) = Ker u2 ⊕ (Ker(u − αi Id) ⊕ Ker(u + α1 Id))
M

i=2
s
= Ker u ⊕ (Ker(u − αi Id) ⊕ Ker(u + α1 Id))
M

i=2

On en déduit que E est somme directe d’espaces propres de u, i.e. u est diagonalisable.

Correction de l’exercice V.3. :


Posons A = (ai,j )i,j∈J1;nK . Pour calculer le polynôme caractéristique de ϕA , nous allons calculer sa matrice
dans la base
B = (E1,1 , . . . , E1,n , . . . , En,1 , . . . , En,n )
et posons pour tout i ∈ J1; nK, Bi = (Ei,j )j∈J1;nK et remarquons que B = (B1 , . . . , Bn ).
Soit i ∈ J1; nK. On a pour tout j ∈ J1; nK, ϕA (Ei,j ) est égal à une matrice de coefficients nuls partout,
sauf à la ligne i où se trouve la ligne j de la matrice A. On a donc

ϕA (Ei,j ) = aj,1 Ei,1 + · · · + aj,n Ei,n ∈ Vect Bi

On en déduit que pour tout i ∈ J1; nK, Vect Bi est stable par ϕA . Il existe donc des matrices B1 , . . . , Bn ∈
Mn (C) telles que
0
 
B1
[ϕA ]B = 
 ... 

 
0 Bn
Soit k ∈ J1; nK. Pour tout i, j ∈ J1; nK, le coefficient de position i, j de Bk est égal à le coefficient de Ek,i
dans la décomposition de ϕA (Ek,j ) dans la base Bk , qui est égal à aj,i . On en déduit donc que pour tout
k ∈ J1; nK, Bk = AT et alors

XIn − AT 0
 

..
 n
χϕA (X) = det(XIn2 − [ϕA ]B ) = det  . = det XIn − AT = χA (X)n
 

 
0 XIn − AT

Correction de l’exercice V.10. :


→ (⇒) Supposons que A soit diagonalisable. Il existe donc P ∈ GLn (K) et D une matrice diagonale
D ∈ Mn (K) telle que P AP −1 = D. On en déduit donc que pour tout λ ∈ VP(A)

rg(A − λ Id)2 = rg P (A − λ Id)2 P −1 = rg(D − λ Id)2

rg(D − λ Id)2 est égal au nombre de coefficients diagonaux non nuls dans (D − λ Id)2 . Ce nombre
est le même que le nombre de coefficients non nuls dans la matrice diagonale D − λ Id (les deux
matrices sont diagonales). On a alors

rg(A − λI)2 = rg(A − λI)

40/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

et finalement par la formule du rang

dim Ker(A − λI)2 = dim Ker(A − λI)

→ (⇐) Supposons que χA est scindé et que pour tout λ ∈ VP(A),

dim Ker(A − λ Id) = dim Ker(A − λ Id)2

Soit λ ∈ VP(A). On a Ker(A − λ Id) ⊂ Ker(A − λ Id)2 , et ces deux sous espaces sont de même
dimension, donc Ker(A − λ Id) = Ker(A − λ Id)2 . nous allons montrer que pour tout k ∈ N∗ ,
Ker(A − λ Id) = Ker(A − λ Id)k . Soit k ≥ 2 et X ∈ Kn , on a

(A − λ Id)k X = 0 =⇒ (A − λ Id)2 (A − λ Id)k−2 X = 0


=⇒ (A − λ Id)(A − λ Id)k−2 X = 0
=⇒ (A − λ Id)k−1 X = 0

En itérant ce procédé k − 1 fois, on obtient que

(A − λ Id)k X = 0 =⇒ (A − λ Id)k−1 X = 0 =⇒ · · · =⇒ (A − λ Id)X = 0

On en déduit donc que Ker(A − λ Id)k ⊂ Ker(A − λ Id), i.e. Ker(A − λ Id)k = Ker(A − λ Id).
Remarquons que ce raisonnement peut aussi être fait par récurrence.
χA est scindé, on peut donc écrire
s
χA (X) = (X − λi )αi
Y

i=1

où λ1 , . . . , λs ∈ K sont les valeurs propres de A. On a donc par le lemme des noyaux


s s
Kn = Ker χA (A) = Ker(A − λi Id)αi = Ker(A − λi Id)
M M

i=1 i=1

Kn est donc somme directe des espaces propres de A i.e. A est diagonalisable.

Correction de l’exercice VI.5. :


→ (1) ⇒ (2) Supposons que u est nilpotent. Pour tout k ≥ 1, la seule valeur propre de uk dans C est
0 et Tr(uk ) est égal à la somme des valeurs propres de uk , et donc pour tout k ∈ J1; nK, Tr(uk ) = 0.
→ (2) ⇒ (1) Supposons que pour tout k ∈ J1; nK, Tr(uk ) = 0. Soit λ1 , . . . , λs les coefficients diagonaux
sans répétition et sans coefficients nuls de la matrice trigonalisée de u et soit n1 , . . . , ns ∈ J1; nK
le nombre respectifs d’occurences de λ1 , . . . , λs dans cette diagonale. supposons que s ≥ 1. La
condition Tr(uk ) = 0 pour tout k ∈ J1; sK donne



 n1 λ1 + · · · + ns λs =0

n1 λ1 + · · · + ns λ2s
2
=0



..



 .
+ · · · + ns λss =0

n s
1 λ1

i.e.
0
    
λ1 . . . λs n1
0
 2 2  
λ1 . . . λs  n2 
 
  ..  =  .. 
 . .. 
 . ..
   
 . . .   .  .
λs1 . . . λss ns 0

41/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

 
λ1 . . . λs
 2 2
λ1 . . . λs 
En posant M =  .. . . . , on voit que
. .. 

 . 
s s
λ1 . . . λs

1 1
 
...

λ1 ... λs 
det M = λ1 . . . λs det  .. .. = λ1 . . . λs det V (λ1 , . . . , λs )T
 
... 
. .
 
 
λs−1
1 . . . λs−1
s

= λ1 . . . λs (λi − λj ) ̸= 0
Y

i,j∈J1;nK, i̸=j

où V (λ1 , . . . , λs ) est la matrice de Vandermonde associée à λ1 , . . . , λs . Ce dernier nombre est non


nul car les λi sont tous non nuls et distincts. La formule de ce déterminant est assez classique, nous
ne le démontrerons donc pas (une récurrence suffit pour le faire).
M est donc inversible et alors n1 = · · · = ns = 0, ce qui est absurde. On a alors s = 1, i.e. les
coefficients diagonaux de la matrice trigonalisée de u sont donc tous égaux à 0.
→ (2) ⇒ (3) Supposons que (2) est vérifiée. u est alors nilpotente et le coefficient de nilpotence de u
m
est inférieur à n, donc pour tout k ∈ N∗ , Tr(uk ) = 0. Soit m ∈ N et P (X) = ai X i ∈ K[X]. On a
X

i=0

m
Tr(P (u)) = ai Tr(ui ) = a0 Tr(Id) = nP (0)
X

i=0

→ (3) ⇒ (2) Supposons que (3) est vérifiée, on a alors pour tout k ∈ N∗ , en posant P (X) = X k ,

Tr(uk ) = Tr(P (u)) = nP (0) = 0

Correction de l’exercice VI.6. :


Dans cet exercice, on suppose que K = C.
1. Faisons une discussion des cas pour n = 2 puis n = 3.
→ Pour n = 2
• Si deg µA = 1, alors il existe λ ∈ K, tel que µA (X) = X − λ, et donc A = λI.
• Si deg µA = 2, alors il y a deux possibilités.
▷ Il existe λ, δ ∈ K différents tels que χA (X) = µA (X) = (X − λ)(X − δ). χA est scindé
à racines simples, donc A est diagonalisable et A ≃ diag(λ, δ).
▷ Il existe λ ∈ K! tel que χA (X) = µA (X) = (X − λ)2 . En trigonalisant, on voit
λ a
que A ≃ dans une base β = (b1 , b2 ). De plus a ̸= 0, car sinon on aurait
0 λ
µA (X) = X! − λ. Enfin, on voit qu’en regardant la matrice A dans la base (ab1 , b2 ),
λ 1
A≃ .
0 λ
On en déduit donc que les classes de similitudes de M2 (K) sont

λ 1 λ 0
(* !+ ) (* !+ )
C2 = , λ∈K ∪ , λ, δ ∈ K
0 λ 0 δ

→ Pour n = 3

42/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

• S’il existe λ1 , λ2 , λ3 ∈ K distincts tels que χA (X) = (X − λ1 )(X − λ2 )(X − λ3 ), alors A


est diagonalisable, µA = χA et A ≃ diag(λ1 , λ2 , λ3 ).
• S’il existe λ, δ ∈ K différents tels que χA (X) = (X − λ)2 (X − δ), alors deux cas se
présentent.
▷ Si µA (X) = (X − λ)(X − δ), alors A est diagonalisable et A ≃ diag(λ, λ, δ).
▷ Si µA = χA , alors on a

Kn = Ker(A − λI)2 ⊕ Ker(A − δI)

B 0
!
Il existe donc une base où A ≃ où B ∈ M2 (K) est la matrice de la corestriction
0 δ
de A à Ker(A − δ Id)2 . On a µB (X) = (X − λ)2 , donc d’après la discussion pour n = 2,

λ 1 0
 
λ 1
!
B≃ et finalement A ≃  0 λ 0
 
0 λ
0 0 δ

• S’il existe δ ∈ K tel que χA (X) = (X − λ)3


▷ Si µA (X) = X − λ, alors A ≃ λI.
▷ Si µA (X) = (X − λ)2 alors on peut écrire A = λI + N avec N nilpotente d’indice
de nilpotence égal à 2. Soit X ∈ K3 tel que N X ̸= 0. la famille (N X, X) est libre
(raisonnement déjà fait avant). Complétons cette famille en une base β = (N X, X, Y )
avc Y ∈ Kn . On a alors, dans cette base

0 1 a
 

[N ]β = 0 0 b 
 

0 0 c

avec a, b, c ∈ K. c est une valeur propre de N , donc on a nécessairement c = 0. De


plus, on a
0 = N 2 Y = N (N Y ) = N (aN X + bX) = bN X
donc b = 0. Enfin, en regardant N dans la base β ′ = (N X, X, Y − aX), on voit que

0 1 0 λ 1 0
   

[N ]β ′ = 0 0 0 et donc finalement A ≃  0 λ 0 
   

0 0 0 0 0 λ

▷ Si µA (X) = χA (X) = (X − λ)3 , alors on peut écrire A = λI + N avec N d’ordre


de nilpotence égal à 3. En prenant donc X ∈ K3 tel que N 2 X ̸= 0, on voit que
β = (N 2 X, N X, X) est une base de K3 et dans cette base

0 1 0 λ 1 0
   

[N ]β = 0 0 1 et donc finalement A ≃  0 λ 1 
   

0 0 0 0 0 λ

On en déduit donc que les classes de similitude dans M3 (K) sont

0 0 + * λ 1 0 + * λ 1 0 +
           
 * λ1 
  
 
 
 

C3 = 0 λ2 0  , λ1 , λ2 , λ3 ∈ K ∪  0 λ 0 , λ, δ ∈ K ∪  0 λ 1 , λ ∈
    
  K
0 0 λ3 0 0 δ 0 0 λ

 
 
 
 
 

2. Il suffit de revoir la discussion ci-dessus pour répondre à la question.

43/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

3. On peut trouver le contre-exemple suivant pour n = 4

0 1 0 0 0 1 0 0
   
0 0 0 0 0 0 0 0
 
A=  et B = 
 
0 0 0 0 0 0 0 1


0 0 0 0 0 0 0 0

En effet, µA = µB = X 2 et χA = χB = X 4 mais A ̸≃ B car rg(A) = 1 et rg(B) = 2.

Correction de l’exercice VI.7. :


Procédons par récurrence forte sur la dimension n de E.
→ Le cas n = 1 est évident car dans ce cas tous les endomorphismes de E commutent et sont trian-
gulaires supérieurs dans toute base.
→ Soit n ≥ 1. Supposons que la propriété est vraie pour tout k ∈ J1; nK.
Soit u ∈ S non homothétie (le cas S ⊂ K · Id étant trivial) et soit λ1 une de ses valeurs propres.
Posons β1 une base de Eλ1 ,u , de dimension a < n, qui est stable par tout élément de S. Prenons
maintenant F un supplémentaire quelconque de Eλ1 ,u dans E de dimension b et de base β2 . Tous les
éléments de S sont triangulaires supérieurs par blocs dans β = (β1 , β2 ). En particulier, pour tout
u ∈ S, il existe (Au , Bu , Cu ) ∈ Ma (K) × Ma×b (K) × Mb (K) tels que
!
Au Bu
[u]β =
0 Cu

On considère alors les deux ensembles

S1 = {Av , v ∈ S} et S2 = {Cs , v ∈ S}

On peut appliquer l’hypothèse de récurrence à S1 et S2 (les matrices commutent toujours et sont


toujours trigonalisables et de plus 1 ≤ a ≤ n − 1 et 1 ≤ b ≤ n − 1). Il existe donc une matrice
inversible P ∈ GLa (K) (resp. Q ∈ GLb (K)) telle que pour tout s ∈ S, P −1 As P ∈ Ta+ (K) (resp.
Q−1 Cs Q ∈ Tb+ (K)). Finalement, pour la base γ correspondante au changement de base (depuis β)
induit par
P 0
!
R=
0 Q
Il est clair que [u]γ = R−1 [u]β R est triangulaire supérieure pour tout u ∈ S, ce qui est bien le
résultat voulu.

Correction de l’exercice VI.10. :


1 0 0
 

1. X = 0 4 0 dans M3 (R)
2  

0 0 9
Soit X une solution de l’équation. X 2 et X commutent, donc X laisse stable les espaces propres de
X 2 , i.e. X laisse stable Vect(e1 ), Vect(e2 ), Vect(e3 ) avec (e1 , e2 , e3 ) la base canonique de R3 . On en
déduit donc que X est diagonale, i.e. il existe α, β, γ ∈ R tels que

α 0 0
 

X =  0 β 0
 

0 0 γ

en réinjectant dans l’équation, on voit qu’on a nécessairement (α2 , β 2 , γ 2 ) = (1, 4, 9) et donc


(α, β, γ) = (±1, ±2, ±3). Réciproquement, une matrice de cette forme vérifie bien l’équation, donc

44/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

l’ensemble des solutions est bien


0 0
  
 α
 

S= 0 β 0 , (α, β, γ) ∈ {1, −1} × {2, −2} × {3, −3}

0 0 γ

 

a2 1
!
2. X 2 = dans M2 (C) avec a ∈ C
0 a2
Soit X une solution de l’équation. Vect(e1 ) est un espace propre de X 2 . De plus X et X 2 commutent,
donc X laisse stable Vect(e1 ). Il existe donc α, β, γ ∈ C tels que
!
α β
X=
0 γ

On a alors
α2 αβ + γβ a2 1
! !
= X2 =
0 γ 2
0 a2
En utilisant cette inégalité, on voit que a ̸= 0, car sinon
nα = γ =
 β= 0 et alors X
o= 0. En elevant les
cas où l’égalité est fausse, on obtient que (α, β, γ) ∈ a, 2a , a , −a, − 2a , −a . Réciproquement,
1 1

en réinjectant ces deux matrices possibles dans l’équation, on voit que elles sont bien solutions. On
en déduit que l’ensemble des solutions est bien

−a −1
( ! !)
1
a
S= 2a , 2a
0 a 0 −a

1 1 0
 

3. X = 0 1 0
2 
 dans M3 (R)
0 0 1
Soit X une solution de l’équation. Posons β = (e3 , e1 , e2 ) une permutation de la base canonique et
regardons la matrice X dans cette base. Posons Y = [X]β . On a

1 0 0
 

Y = 0 1 1
2  

0 0 1
 
Y commute avec Y 2 et laisse donc ses espaces propres stables, donc Y laisse stable Vect (1, 0, 0)T , (0, 1, 0)T
Il existe donc x, y, z, t, c, d, e ∈ R tels que
 
x y c
Y =
 z t d

0 0 e
!
x y
En posant A = , on voit que A2 = I, donc A est inversible. On a alors
z t

1 0 0
 !  
c
A
2
(A + eI) ×
 = Y = 0 1 1
2
 d   

0 e2 0 0 1

Donc
0
! !
c
A =I
2
(A + eI) × = e2 = 1
d 1
La suite de l’exercice est laissée au lecteur : il suffit d’évaluer les différents cas possible pour trouver

45/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

toutes les solutions de l’équation.

Correction de l’exercice VI.11. :


→ (⇒) Supposons que u est diagonalisable. Soit β = (e1 , . . . , en ) une base de diagonalisation de u. Il
existe donc λ1 , . . . , λn ∈ K tels que [u]β = D = diag(λ1 , . . . , λn ). Pour tout i, j ∈ J1; nK, on considère
vi,j ∈ L(E) définie par 
e
i si k = j 0
∀k ∈ J1; nK, vi,j (ek ) =
sinon

On a alors, pour tout i, j ∈ J1; nK,

[ϕu (vi,j )]β = [u ◦ vi,j − vi,j ◦ u]β


= DEi,j − Ei,j D
= (λi − λj )Ei,j = [(λi − λj )vi,j ]β

On en déduit donc que (vi,j )i,j∈J1;nK est une base de vecteurs propres de ϕu , donc ϕu est diagonalisable.
→ (⇐) Supposons que ϕu est diagonalisable. Utilisons la décomposition de Dunford. Sois δ, ν ∈ L(E)
tels que δ est diagonalisable, ν est nilpotent et u = δ + ν. δ et ν commutent, donc il est facile de
vérifier que ϕδ et ϕν aussi. De plus, d’après le point précédent, ϕδ est diagonalisable et pour tout
p ∈ N et v ∈ L(E),
p !
p
ϕν (v) =
p
(−1)p−k ν k ◦ v ◦ ν p−k
X

k=0 k
Donc ϕν est nilpotent. ϕu est diagonalisable, donc par unicité de la décomposition de Dunford,
ϕν = 0, i.e. ν = 0 et donc u est diagonalisable.

Correction de l’exercice VI.12. :


En décomposant sur chaque espace caractérisique (proposition VI.8), on sait que E s’écrit sous forme
de somme directe de sous espaces (espaces caractéristiques) F1 , . . . , Fs stables par u et où pour tout i, il
existe νi nilpotent et λi ∈ K∗ tels que
Fi
u = λi Id +νi
Fi

Il suffit donc de montrer ce résultat


√ à l’application linéaire ci-dessus. Nous allons nous inspirer du déve-
loppement limité en 0 de x 7−→ 1 + x. On a
√ x (2n)! n
1 + x = 1 + + · · · + (−1)n−1 2n x + o(xn ) = Pn (x) + o(xn )
2 2 (n!)2

On a alors
Pn (x)2 = 1 + x + o(xn )
| {z }
Q(x)

où Q est un polynôme de terme de plus petit degré égal à au moins n. On peut donc écrire Q(X) =
X n R(X) avec R ∈ K[X]. On a alors, si αi est une racine de λi , alors

1 1 1
  2  
αi P n νi = λi Id +νi + νin R νi = λi Id +νi
λi λn−1
i λi
 
et donc αi Pn 1
ν
λi i
est une racine de λi Id +νi , d’où le résultat voulu.

Correction de l’exercice VI.15. :

46/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Soit A ∈ Mn (C). En utilisant la décomposition de Jordan, on sait qu’il existe une base β, λ1 , . . . , λr ∈ C
non nécessairement distincts et s1 , . . . , sr ∈ J1; nK tels que s1 + · · · + sr = n et

λ1 · Is1 + Js1 0
 

[A]β = 
 ... 

 
0 λr · Isi + Jsi

Pour tout i ∈ J1; rK, on considère l’application linéaire injective ϕi : Msi (C) −→ Mn (C) définie par

0Ms1 (C)
 

..
.
 

 0 

0Msi−1 (C)
 
 
 
∀B ∈ Msi (C), ϕi (B) = B
 
 
0Msi+1 (C)
 
 
...
 
 

 0 

0Msr (C)

On a alors r r
Com(A) ≈ Com([A]β ) ⊃ ϕi (Com(λi Isi + Jsi )) = ϕi (Com(Jsi ))
M M

i=1 i=1

Il suffit de montrer que pour tout s ∈ J1; nK, dim Com(Js ) ≥ s car une fois cela fait, on aurait
r
dim Com(A) = dim Com([A]β ) ≥ dim Com(Jsi ) ≥ s1 + · · · + sr = n
X

i=1

Soit s ∈ J1; nK. En posant X = (1, 0, . . . , 0)T ∈ Ks , on a

Jss−1 X = (0, . . . , 0, 1)T ̸= 0

donc l’indice de nilpotence de Js est égal à s, i.e. µJs (X) = X s . En utilisant ce résultat, il est aisé de
montrer que dim K[Js ] = s ((I, Js , . . . , Jss−1 ) est une base de cet espace). Enfin, puisque K[Js ] ⊂ Com(Js ),
on a
dim Com(Js ) ≥ dim K[Js ] = s
d’où le résultat voulu.

Correction de l’exercice VII.5. :


1. Soit u ∈ L(E).
→ (⇐) Supposons que u est cyclique. Il existe donc x0 ∈ E tel que (x0 , u(x0 ), . . . , un−1 (x0 )) est
une base de E et alors deg µu ≥ n (car tout polynôme de degré inférieur ou égal à n − 1 ne
peut pas annuler u). De plus, µu |χu , deg χu = n et les deux polynômes sont unitaires, ce qui
nous permet d’affirmer que χu = µu .
→ (⇒) Soit x0 ∈ E tel que µx0 ,u = µu (existe d’après l’énoncé). On a alors χu = µu = µx0 ,u , donc
deg µx0 ,u = deg χu = n. On a alors pour tout λ0 , . . . , λn−1 ∈ Kn ,

λ0 x0 + λ1 u(x0 ) + · · · + λn−1 un−1 (x0 ) = 0 =⇒ λ0 = · · · = λn−1 = 0

car sinon x0 serait annulé en u par un polynôme de degré strictement inférieur à n. On en


déduit donc que (x0 , u(x0 ), . . . , un−1 (x0 )) est une base de E, i.e. u est cyclique. On aurait aussi
pu conclure en utilisant la proposition VII.4 (la remarque en dessous en particulier).
2. Supposons que u ∈ L(E) est cyclique. Montrons par double inclusion que Com(u) = K[u].

47/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

→ (⊃) Cette inclusion est évidente car tout polynôme en u commute avec u.
→ (⊂) Soit v ∈ Com(u) et x0 tel que β = (x0 , u(x0 ), . . . , un−1 (x0 )) est une base de E. Ecrivons
la décomposition de v(x0 ) dans la base β

v(x0 ) = a0 x0 + a1 u(x1 ) + · · · + an−1 un−1 (x0 )

et considérons l’application linéaire w définie par


n−1
w=v− ak uk
X

k=0

w commute avec u et w(x0 ) = 0. De plus, on a pour tout k ∈ J1; n − 1K,

w(uk (x0 )) = w ◦ uk (x0 ) = uk (w(x0 )) = 0

w est nul sur la base β, donc w = 0 et donc v ∈ K[u] et alors Com(u) = K[u]. De plus,
(Id, u, . . . , un−1 ) est une base de K[u] (pour le montrer, il suffit d’effectuer la division euclidienne
de tout polynôme de K[X] en u par µu ) et donc

dim Com(u) = dim K[u] = n

3. Déjà fait à l’exercice VI.15.


4. Soit u ∈ L(E). Procédons par double implication.
→ (⇒) Si χu = µu , alors d’après la question 1, u est cyclique et donc d’après la question 2,
Com(u) = K[u].
→ (⇐) Si Com(u) = K[u], alors

deg µu = dim K[u] = dim Com(u) ≥ n

La dernière inégalité est vraie d’après la question précédente. On a de plus µu |χu et ces deux
polynômes sont unitaires de même degré, donc χu = µu .

Correction de l’exercice VII.6. :


L’énoncé est équivalent à

χu non irréductible ⇐⇒ il existe un sous-espace vectoriel de E non trivial stable par u

→ (⇒) Supposons que χu n’est pas irréductible. Soit P un terme irrédutible de la décomposition en
facteurs irréductibles de χu tel que deg P ∈ J1; n − 1K. D’après le corollaire V.8, on sait que P |µu .
Soit x ∈ Ker P \ {0} ≠ ∅. Fx,u est stable par u et

1 ≤ dim Fx,u = deg µx,u ≤ deg P ≤ n − 1


x∈Fx,u (∗)

Proprosition VII.2

L’inégalité (∗) est vraie d’après la proposition VII.4. Fx,u est donc un sous-espace vectoriel de E
non trivial stable par u.
F
→ (⇐) Soit F un sous-espace vectoriel de E non trivial stable par u et posons v = u . On a alors
F
χv |χu et deg χv ∈ J1; n − 1K.

48/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice VII.7. :


1. Soit A ∈ Mn (C). Supposons que A est semblable à une matrice compagnon. Il existe donc une base
β de Kn et a0 , . . . , an−1 ∈ C tels que

0
 
−a0
1 . . . .. 
. 

[A]β =  .. 
 
... ..

 . . 

1 −an−1

On a alors pour tout λ ∈ C,


 
−λ −a0
.. ..
1 . .
 
 
[A − λ Id]β = 

... ..


−λ .
 
 
1 −an−1 − λ

Le sous bloc de [A − λ Id]β regrouppant les colonnes de position 1 à n − 1 est égal à

0
 
−λ
..
1 .
 
 
B=
 

.. 

 . −λ

Les colonnes de B sont libres, donc rg(A − λ Id) ≥ n − 1, i.e. par la formule du rang dim Ker(A −
λ Id) ≤ 1. En particulier, lorsque λ est une valeur propre de A, dim Ker(A − λ Id) = 1.
2. Procédons par double implication. Soit A ∈ Mn (C) diagonalisable.
→ (⇒) Si A est cyclique, alors A est semblable à une matrice compagnon et donc d’après la
question précédente, tous les espaces propres de A sont de dimension 1, i.e. toutes les valeurs
propres de A sont de multiplicité 1, il y en a donc n.
→ (⇐) Supposons que A admet n valeurs propres deux à deux distinctes. Soit β = (e1 , . . . , en )
une base de diagonalisation de A. Il existe λ1 , . . . , λn ∈ C deux à deux distincts tels que
 
λ1
[A]β = 
 ... 

 
λn

Soit x = e1 + · · · + en . On a pour tout k ∈ N,

uk (x) = λk1 e1 + · · · + λkn en

On a alors
1 λ1 . . . λn−1
 
1
. .
(x, u(x), . . . , u (x)) =  .. .. . .. .. 
h i
n−1

β

. 

1 λn . . . λn−1
n

Cette matrice est une matrice de Vandermonde associée aux λ1 , . . . , λn qui sont deux à deux
distincts, elle est donc inversible. La famille (x, u(x), . . . , un−1 (x)) est donc libre et alors c’est
une base de Kn . Finalement, A est cyclique i.e. semblable à une matrice compagnon.

49/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice VII.8. :


1. Considérons CP ∈ Mn (Z) la matrice compagnon associée à P . On sait que

SpecC (CP ) = [λ1 , . . . , λn ] et donc SpecC (CPk ) = [λk1 , . . . , λkn ]

λk1 , . . . , λkn sont exactement les racines (avec multiplicité) de χCPk . De plus CP ∈ Mn (Z), donc
CPk ∈ Mn (Z) et alors χCPk ∈ Z[X] car k ≥ 1. On a alors χCPk ∈ Zn [X] et est unitaire. Le polynôme
χCPk convient donc.
2. Supposons que |λ1 | = · · · = |λn | = 1 et posons pour tout k ≥ 1,
n n−1
Pk = (X − λki ) = X n + ak,i X k ∈ Z[X]
Y X

1 i=0

(existe d’après la question précédente). On veut montrer que les coefficients des polynômes Pk sont
uniformément bornés. Deux méthodes sont possibles.
→ Méthode 1 (Topologie) : On pour tout k ∈ N∗ ,
n n   n
∀x ∈ [0, 1], |Pk (x)| = x − λki ≤ |x| + |λi |k ≤ (1 + 1) = 2n
Y Y Y

i=1 i=1 i=1

Considérons les deux normes suivantes sur Rn [X]



Rn [X]
 −→ R+
∥.∥∞ : 7−→ sup |P (x)|
P

x∈[0,1]

ainsi que 
Rn [X] −→ R+


∥.∥∞,coef :  n
7−→ sup |ak | lorsque P (X) = ak X k
X
P

k∈J0;nK k=0

Rn [X] est de dimension finie, donc toutes les normes y sont équivalentes (voir chapitre sur
l’équivalence des normes). Il existe donc une constante C > 0 telle que

∀P ∈ Rn [X], ∥P ∥∞,coef ≤ C ∥P ∥∞

On a donc pour tout k ∈ N∗


∥Pk ∥∞,coef ≤ C2n
→ Méthode 2 (Vieta) : On souhaite borner les coefficients de Pk en utilisant une majoration
des racines de ce dernier, il est donc naturel de chercher à utiliser des relations coefficients
racines. Introduisons donc le lemme assez connu suivant

Lemme (Formules de Vieta) VIII.11.

Soit n ∈ N∗ , P (X) = a0 + a1 X + · · · + an X n et λ1 , . . . , λn les racines (non nécessairement


différentes) de P . Supposons que an =
̸ 0. On a pour tout l ∈ J0; nK
 
l
an−l
λij  = (−1)l
X Y

1≤i1 <i2 <···<il ≤n j=1 an

Nous ne démontrerons pas ce lemme, mais nous encourageons le lecteur à aller regarder la

50/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

preuve de ce lemme qui peut être quelques fois assez utile. Appliquons ce lemme, on a pour
tout k ∈ N et l ∈ J1; nK
 
l
|ak,n−l | =
X Y
 λij 
1≤i1 <i2 <···<il ≤n j=1

X l
Y
≤ λij
1≤i1 <i2 <···<il ≤n j=1
!
n
= 1=
X

1≤i1 <i2 <···<il ≤n l

Ceci nous permet donc d’affirmer que pour tout i ∈ J0; nK les coefficients |ak,i | sont bornés par
une constante indépendante de k.
On a donc pour tout i ∈ J0; n − 1K, l’ensemble {ak,i , k ∈ N∗ } est une partie bornée de Z, elle
est donc finie. L’ensemble {Pk , k ∈ N} est alors fini, ce qui implique que pour tout i ∈ J1; nK,
l’ensemble {λki , k ∈ N } est fini. On en déduit que pour tout i ∈ J1; nK, il existe k, l ∈ N différents
(on suppose sans perte de généralité que k < l) tels que λki = λli , i.e. λk−l
i = 1 et enfin pour tout
i ∈ J1; nK, λi est une racine de l’unité.

Correction de l’exercice VII.9. :


1. On a

µy · y = 0 ⇐⇒ µy · (Q · x) = 0 ⇐⇒ (µy Q) · x = 0
⇐⇒ µx |µy Q ⇐⇒ P Q|µy Q ⇐⇒ P |µy

Mais P · y = 0, donc µy |P et ces deux polynômes sont unitaires, donc µy = P .


2. Il est clair que µx µy · (x + y) = 0 donc µx+y |µx µy . De plus, on a

µx+y · (x + y) = 0 =⇒ µx+y µx · y = 0 =⇒ µy |µx+y µx

Mais µy ∧µx = 1, donc d’après Gauß, µy |µx+y . Par le même raisonnement, on peut montrer également
que µx |µx+y . Encore une fois, puisque µy ∧ µx = 1, on a µx µy |µx+y . On en déduit donc que µx µy =
µx+y . µx µy et µx+y sont unitaires ce qui nous permet d’affirmer que µx µy = µx+y .
3. Posons µx = P1α1 . . . Prαr et µy = P1β1 . . . Prβr . Posons également
 
α
i si αi ≥ βi i
β si βi > αi
αi′ = et βi′ =
0 sinon  0 sinon

α′ ′ β′ ′
Px = P1 1 . . . Prαr et Qy = P1 1 . . . Prβr
µx µy
Posons également x′ = x et y ′ = y. D’après la question 1, on sait que µx′ = Px et µy′ = Qy .
Px Qy
De plus, on a Px ∧ Qy = 1, donc d’après la question précédente,

µx′ +y′ = Px Qy = µx ∨ µy

On en déduit donc que z = x′ + y ′ convient.


4. Soit (e1 , . . . , en ) une base de E. Par une récurrence rapide, on sait qu’il existe d’après la question
précédente a ∈ E\{0} tel que µa = µe1 ∨· · ·∨µen . On a donc pour tout x = x1 e1 +· · ·+xn en ∈ E\{0},

µa · x = x1 µa · e1 + · · · + xn µa · en = 0

51/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Donc µx |µa . On en déduit que µa (u) = 0 i.e. µu |µa et de plus µu · a = 0 donc µa |µu et ces deux
polynômes sont unitaires, donc µa = µu .

Correction de l’exercice VIII.3. :


Soit (Ap ) ∈ Fe N telle que Ap −−−−→ A et z ∈ C \ F . Posons pour tout p ∈ N, SpecC (Ap ) = [λ1,p , . . . , λn,p ].
p→+∞
On a n
χAp (z) = |z − λi,p | ≥ d(z, F )n > 0
Y

i=1

En passant donc à la limite, on a par continuité

|χA (z)| ≥ d(z, F )n > 0

et donc z ̸∈ SpecC (A), i.e. SpecC (A) ⊂ F . On a donc bien que A ∈ Fe , i.e. Fe est fermé.

Correction de l’exercice VIII.5. :


Soit ε > 0. D’après la proposition VIII.4, Il existe P ∈ GLn (C) tel que
 
λ1 bij
A=P ..  −1
.

P
 
0 λn
| {z }
B

et ∀i, j ∈ J1; nK tels que j > i, |bi,j | < ε. Munissons Cn de la norme ∥.∥1 , dont on rappelle la définition

Cn −→ R+
∥.∥1 :
(x1 , . . . , xn )T 7−→ |x1 | + · · · + |xn |

En posant (e1 , . . . , en ) la base canonique de Cn , on a pour tout X = x1 e1 + · · · + xn en ∈ Cn ,


n n
∥BX∥1 =
X X
xi Bei ≤ |xi | ∥Bei ∥1 ≤ C ∥X∥1
i=1 1 i=1

Avec C = sup ∥Bei ∥. On a donc, en considérant |||.||| la norme d’opérateur associée à ∥.∥1 que
i∈J1;nK

n
|||B||| ≤ C = sup ∥Bei ∥1 = sup λi + bij ≤ sup |λi | + (n − 1)ε
X
i∈J1;nK i∈J1;nK j=i+1 i∈J1;nK

On choisit donc ε tel que supi∈J1;nK |λi | + (n − 1)ε < 1. Ceci nous permet d’avoir |||B||| < 1 et donc

|||Ap ||| = |||P B p P −1 ||| ≤ |||P ||| × |||B p ||| × |||P −1 |||
≤ |||P ||| × |||P −1 ||| × |||B|||p −−−−→ 0
p→+∞

et donc finalement Ap −−−−→ 0.


p→+∞

52/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice VIII.6. :


Munissons Mn (C) de la norme ∥.∥ définie par

Mn (C)
 −→ R+
∥.∥ :
(ai,j )i,j∈J1;nK
 7−→ sup |ai,j |
i,j∈J1;nK

Pour tout p ∈ N, Ap ∈ Mn (Z), donc ∥Ap ∥ ∈ Z. De plus, SpecC (A) ⊂ B(0, 1), donc d’après l’exercice
précédent et par équivalence des normes en dimension finie, Ap −−−−→ 0. (∥A∥p )p∈N est une suite à valeurs
p→+∞
dans Z qui converge vers 0, elle est donc stationnaire en 0. On en déduit donc que il existe r ∈ N tel que
pour tout p ≥ r, ∥A∥p = 0 i.e. Ap = 0. A est alors bien nilpotente.

Correction de l’exercice VIII.8. :


Posons S = {P −1 AP, P ∈ GLn (C)}
→ (⇐) Supposons que S soit fermé et montrons qu’il existe une matrice diagonale D dans S. D’après
la proposition VIII.4, il existe λ1 , . . . , λn ∈ C et une suite de matrices (Pk )k∈N ∈ GLn (C)N telle que
pour tout k ∈ N  
λ1 bk,i,j
Pk−1 APk =  ..
.
 

 
0 λn
et pour tout j > i, |bk,i,j | ≤ 1
k+1
. Cet argument nous permet d’affirmer que

0
 
λ1
Pk−1 APk −−−−→ 
 ... 

p→+∞
 
0 λn

S est fermé, donc cette matrice appartient à S. On en déduit donc que A est semblable à une
matrice diagonale, i.e. A est diagonalisable.
→ (⇒) Supposons que A soit diagonalisable. Montrons que S̄ = S. Soit B ∈ S̄. On veut montrer que
B ∈ S. L’application 
M (C) −→ C [X]
n n
ϕ:
M 7−→ χM
est continue, car pour tout M ∈ Mn (C), les coefficients de ϕ(M ) dans Cn [X] sont polynomiaux en
les coeffcients de M dans Mn (C). De plus, ϕ est constante sur S égale à χA , elle est donc constante
aussi sur S̄ égale à χA par continuité. Ceci nous permet de dire que χA = χB et que A et B ont les
mêmes valeurs propres et même multiplicité.

n (C) −→ Mn (C)
M
ψ:
M 7−→ µA (M )

est continue car polynômiale et constante sur S égale à 0, donc par continuité elle est aussi égale
à 0 sur l’adhérence de S et alors µA (B) = 0. A est diagonalisable, donc µA est scindé à racines
simples et alors B est diagonalisable. D’après ce qui précéde, A et B ont même valeurs propres et
même multiplicités, donc A et B sont semblables diagonalisables et finalement B ∈ S.

Correction de l’exercice VIII.10. :


Le cas A = 0 est trivial. Supposons que A ̸= 0. Soit λ ∈ C une valeur propre de A. Supposons que
|λ| = |||A|||. Quitte à diviser les deux côtés de l’égalité par |λ|, on suppose que |||A||| = 1 = |λ|. On

53/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

a alors
∀p ∈ N∗ , |||Ap ||| ≤ |||A|||p = 1
F
Soit F = Ker(A − λI)αA (λ) . En posant u : X 7−→ AX et v = u , on sait que il existe N nilpotente
F
telle que v = λI + N . On veut montrer donc que N = 0.

Idée : On sait que pour tout p ∈ N∗ , |||v p ||| ≤ |||Ap ||| ≤ 1, donc v p est borné. On va donc montrer
que si N ̸= 0, alors v p est non bornée.

Supposons que N ̸= 0. Soit m > 1 l’indice de nilpotence de N . Il existe donc X ∈ Cn tel que
N m−1 X ̸= 0. Posons Y = N m−2 X. On a alors N Y ̸= 0 et N 2 Y = 0. On a alors pour tout p ∈ N∗
p !
p k n−k
v Y = (λI + N ) Y =
p p
Y = λp Y + pλp−1 N Y
X
λ N
k=0 k

Or λp Y est borné ca |λ| ≤ 1 et

pλp−1 N Y = p ∥N Y ∥ −−−−→ +∞
p→+∞

donc v p est non bornée, ce qui est absurde. On en déduit donc que N = 0 et alors Ker(A−λI)αA (λ) =
Ker(A − λI) i.e. λ est pure.

* *
*

Document compilé par Omar Bennouna et Issam Tauil le 13/05/2022 pour


[Link].
Si vous repérez une erreur, ou avez des remarques, prière de me contacter via l’adresse
contact@[Link].

54/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

chapitre 28
Réduction d’endomorphisme, compléments

Ce cours est uniquement un complément culturel au cours principal de ré-


duction. Il n’est pas du tout utile aux concours, mais uniquement destiné au
lecteur curieux. Si vous souhaitez vous préparer pour les concours, prière de
consulter le cours principal de réduction sur [Link].

Notations

Introduisons tout d’abord quelques notations. Soit K ⊂ L deux corps (commutatifs),


A, B ∈ Mn (K) et C ∈ Mn (L).
→ rgK A (resp. rgL A) est le rang de A comme matrice dans Mn (K) (resp. Mn (L)).
→ µA,K (resp. µA,L ) est le polynome minimal de A vue comme matrice dans Mn (K)
(resp. Mn (L)).
→ χA,K (resp. χA,L ) est le polynome caractéristique de A vue comme matrice dans
Mn (K) (resp. Mn (L)).
→ A ≃K B (resp. A ≃L B) est equivalent à dire qu’il existe P ∈ GLn (K) (resp.
GLn (L)) tel que A = P BP −1 .
→ KerL (C) = {X ∈ Ln , CX = 0}
→ Pour P ∈ K[X] \ {0} et Q ∈ K[X] irréductible on note vQ (P ) ∈ N la valuation
Q−adique de P i.e. vQ (P ) est le plus grand exposant tel que QvQ (P ) |P
Pour le cas spécial où Q(X) = X − λ il s’agit de la multiplicité de λ comme racine
de P (éventuellement nulle si λ n’en est pas une racine)
→ Pour les autres notations, se reférer au cours principal de réduction.

I Résultats intéressants en réduction

Dans tout ce qui suit u ∈ L(E) où E est un K-ev de dimension finie n ≥ 1

1. Résultats généraux

Tout d’abord quelques résultats assez basiques mais qu’il faut garder en tête

1/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Proposition I.1.
Soit P ∈ K[X]
1. Si P est non constant alors P |µu =⇒ Ker(P (u)) ̸= {0}
2. Ker(P (u)) = Ker((P ∧ µu )(u)). En particulier P (u) est inversible si et
seulement si P ∧ µu = 1.
3. L’ensemble S = {Ker Q(u), Q ∈ K[X]} est en bijection avec l’ensemble
des diviseurs normalisés de µu div(µu ) = {Q ∈ K[X], (Q unitaire ou
Q = 1) et Q|µu }. En particulier, l’application

−→ div(µu )
S

ϕ:
7 → Ker Q(u)
Q −

est bijective.
Ker P (u)
4. Supposons P ∧ µu ̸= 1 et posons v = u Ker P (u) . On a µv = P ∧ µu et donc,
en particulier, la partie nilpotante dans l’espace caractéristique associé à
λ et d’indice de nilpotence égal à γi = vX−λ (µu ).

Preuve :
1. Ecrivons µu = P Q avec Q ̸= 0 vérifiant deg Q < deg µu . Si Ker(P (u)) = {0}
alors étant donné que E est de dimension finie, on a P (u) ∈ GL(E) et donc on a
l’implication
0 = µ(u) = P (u) ◦ Q(u) =⇒ Q(u) = 0
Ce qui absurde par minimalité de µu .
2. ⊃ : Clair
⊂ : Par Bezout on dispose de U, V ∈ K[X] tel que P U + µu V = P ∧ µu . Prenons
x ∈ Ker(P (u)), alors

(P ∧ µu )(u)(x) = U (u) ◦ P (u)(x) +V (u) ◦ µu (u)(x) = 0


| {z } | {z }
0 0

Remarquons au passage qu’une démonstration tout à fait similaire à celle ci-haut


montre plus généralement que pour P, Q non tous deux nuls on a

Ker(P (u)) ∩ Ker(Q(u)) = Ker((P ∧ Q)(u))

Le second résultat s’en déduit directement de ce qui précède couplé au fait qu’en
dimension finie un endomorphisme est injectif si et seulement s’il est inversible.
3. Posons 
divµu

−→ S
ϕ:
Q 7−→ Ker(Q(u))

2/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

ϕ est bien définie et est surjective par (2). L’injection peut être faite soit à la main,
soit en exhibant un inverse. On prendra la seconde option pour changer un peu :
Posons
−→ div(µu )

S

φ:
F 7−→ ∨ µx,u
x∈F
• D’abord, c’est bien défini vu que chaque µx,u divise µu
• Montrons que φ ◦ ϕ = iddiv(µu ) (ce qui permettrait d’affirmer que ϕ est injective
et, par finitude des cardinalités, que φ = ϕ−1 )
• ∀Q ∈ div(µu ) φ ◦ ϕ(Q)|Q : En effet, chaque element x ∈ ϕ(Q) vérifie
Q(u)(x) et donc µx,u |Q d’où φ ◦ ϕ(Q)|Q
• Prenons Q ∈ div(µu ) \ {1} (Q = 1 est trivial). On a alors
s
Q= Piβi
Y

i=1

avec les Pi irréductbiles unitaires disctincts et ∀i βi ≥ 1. Fixons i ∈ J1; sK,


on sait que Q|µu et donc βi ≤ vPi (µ). En particulier,

Ker(Pi0 (u)) ⊊ · · · ⊊ Ker(Piβi (u))

et donc on peut prendre x ∈ Ker(Piβi (u)) \ Ker(Piβi −1 (u)). Il est alors clair
que x ∈ ϕ(Q) et que µx,u = Piβi . En particulier, µx,u = Pi βi |φ ◦ ϕ(Q) et
donc finalement, i étant arbitraire, Q|φ ◦ ϕ(Q)
On conclue en se rappelant que Q et φ ◦ ϕ(Q) sont unitaires
Finalement, la compatibilité avec la division/inclusion provient aisement de la
forme de ϕ et φ
4. Par ce qui précède on peut supposer P unitaire avec P |µu . Ecrivons alors
s
P = Piβi
Y

i=1

avec les Pi irréductbiles unitaires disctincts et ∀i βi ≥ 1


• Par définition P (v) = 0 et donc µv |P .
• Pour montrer la réciproque, il suffit de montrer que ∀i Piβi |µv
Soit alors x ∈ Ker(Piβi (u)) \ Ker(Piβi −1 (u)), on a clairement Piβi (v)(x) = 0 mais
Piβi −1 (v)(x) ̸= 0 et donc

µx,v |Piβi mais µx,v ∤ Piβi −1

Ainsi, vu que Pi est (unitaire) irréductible, ceci oblige que

µx,v = Piβi

et donc Piβi = µx,v |µv

3/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Remarquer au passage que la remarque sur l’indice des nilpotants dans la décom-
position spéctrale est aisement faisable sans.
En effet, prenons
s s
u ∈ (E), µu = (X − λi )γi χu = (X − λi )αi
Y Y

i=1 i=1

Notons de plus ni l’indice de nilpotence dans le bloc caractéristique de λi (i.e.


Ker(u−λi )γi
l’indice de nilpotence de ui − λi id où ui := u Ker(u−λ )γi ), alors
i

• ∀i ni ≤ γi vu que (ui − λi ) = 0 par définition


γi
s
• Posons P := Pini . Il est clair que P (u) = 0 (écrire dans une base adaptée
Y

i=1
aux espaces caractéristiques) et donc µu |P i.e. ∀i γi ≤ ni

2. Jordan-Dunford multiplicatif
Parfois il est plus intéréssant de travailler avec une réduction de Jordan-Dunford mul-
tiplicative au lieu d’additive, nous la présontons donc ici :
Proposition I.2.
Soit E un K-ev de dimension finie n ≥ 1 et f ∈ GL(E). Si χf est scindé alors
il existe un unique couple (d, u) ∈ L(E)2 tel que :
1. d est diagonalisable
2. u est unipotent i.e. il existe m ≥ 1 tel que (u − id)m = 0
3. f = u ◦ d = d ◦ u
De plus, ce couple vérifie (d, u) ∈ GL(E)2 et qu’il existe (Pd , Pu ) ∈ C[X]2 tel
que d = Pd (f ) et u = Pu (f )

Preuve :
• Existence : Prenons λ1 . . . , λs les valeurs propres distinctes de f (forcément non
nulles) et ∀i ∈ J1; sK πi la projection sur Fλi parallélèment à Fλj . On pose
M

j̸=i

s
d= λi πi ∈ GL(E) et u = d−1 ◦ f
X

i=1

Prenons une base β = (β1 , . . . , βs ) où βi est une base de Fλi et qui rend [f ]β
triangulaire supérieure
1. d est clairement inversible et diagonalisable, il suffit de l’écrire dans β
2. u est unipotent, il suffit de remarquer que [u]β est triangulaire supérieure avec
des coefficients diagonaux tous égaux à 1
3. u et d commutent et f = d ◦ u = u ◦ d

4/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

4. On avait déja démontré que ∀i ∈ J1; sK πi ∈ K[f ] et donc a fortiori d ∈ K[X].


De plus d−1 ∈ K[d] ⊂ K[f ] et donc u ∈ K[f ] aussi
C.H.
• Unicité : Prenons un autre couple (d′ , u′ ) vérifiant les même hypothèses et posons
g := u′−1 u = d′ d−1 .
• d ∈ K[f ] et donc d et d′ commutent. Ainsi, en les codiagonalisant, on a que g
est diagonalisable
• u ∈ K[f ] et donc u et u′ commutent. Ainsi, en les cotrigonalisant, on a que
g = u′−1 u est trigonalisable de valeurs propres des produits de valeurs propres
de u et u′−1 i.e. ici exactement {1}. Par conséquent, g est unipotente
• Finalement, il est aisé de vérifier que l’unique endomorphisme unipotent et
diagonalisable est id (g − id est nilpotent et diagonalisable et donc nul)
Remarque :
• La réciproque est vraie : en effet d et u sont tous deux trigonalisables et commutent
et donc sont cotrigonalisables. Ceci permet d’affirmer que f = u ◦ d l’est aussi et
que donc χf est scindé
• Dans le cas de C, exp : Mn (C) → GLn (C) étant surjective, la décomposition
multiplicative est simplement l’exponentielle de celle additive.

3. Le corps dans Jordan-Dunford


La démonstration de ce qui suit requiert des connaissances de théorie de Galois et donc
on ne fera que mentionner la proposition
Proposition I.3.
Soit K ⊂ C un sous-corps de C et A ∈ Mn (K) (resp GLn (K)). On sait par ce qui
précède que l’on a une décomposition de Jordan-Dunford additive A = D + N
avec D, N ∈ Mn (C) a priori (resp. multiplicative A = DU avec D, U ∈ GLn (C)
a priori). D, N sont en fait dans Mn (K) (resp. D, U sont en fait dans GLn (K))
Bien entendu, D (resp. D) n’a aucune raison d’être diagonalisable dans K

Exemple : Pour le dernier point, penser à une matrice A de rotation d’angle π/2,
dont la décompositon de Jordan-Dunford additive est A = A + 0 (resp. multiplicative
A = A · I2 )
A n’est pas diagonalisable dans R par exemple

4. Polynome caractéristique produit


Proposition I.4.
Soit A, B ∈ Mn (K), alors χAB = χBA

5/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Preuve : Il suffit de considérer


−λ Id −B  Id
   
B 
M = et N = 
A Id 0 −λ Id

et d’utiliser que det(AB) = det(BA)


Remarque : dans le cas K = R ou C, on peut aussi se servir de la densité des matrices
inversibles et de la continuité, ceci car, si B est inversible, alors AB = B −1 (BA)B

5. Réduction de Frobenius :

Proposition I.5.
Soit u ∈ L(E). Il existe une base β de E tel que

0
 
C
 P1
[u]β = 
 ... 


 
0 CP r

et Pr | . . . |P1 . De plus, toute écriture sous cette forme est unique i.e. si dans β ′
u a cette forme avec Qs | . . . |Q1 alors r = s et ∀i Qi = Pi .
On appelle cette réduction la réduction de Frobenius de u et les Pi sont appellés
invariants de similitude de u.

Remarque : Il est aisé d’établir que µu = P1 et χu = P1 . . . Pr


Ce théorème permet de caractériser toutes les classes de similitudes à χA et µA fixés.
Remarquons aussi qu’il affirme que ∃x ̸= 0 µx,u = µ, fait déja établi, quoique utilisé
dans la preuve ci-dessous.
Preuve :

• Existence : Par récurence, prenons x ∈ E \ {0} tel que µx,u = µu . Afin d’appliquer
l’hypothèse de récurrence, il suffit de trouver un supplémentaire F de Fx stable par
u.
Une preuve exactement similaire à celle déja faite pour la réduction de Jordan des
nilpotent fournit ce supplémentaire.

• Unicité : Prenons une autre suite (Q1 , . . . , Qs ) vérifiant les mêmes hypothèses et
considérons, par absurde, i0 le plus petit indice tel que Pi ̸= Qi (par somme des
degrés et unitarité, il existe, même si s ̸= r)
Notons d’abord que i0 ≥ 2 vu que forcément µu = P1 = Q1 et posons P := Pi0 . On

6/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

a alors
P (CP1 )
 

...
 
 
 
 
P (CPi0 −1 )
 
[u]βP =
 
 
0
 
 
...
 
 
 
 
0
 

P (CP1 )
 

...
 
 
 
 
P (CPi0 −1 )
 
et [u]βQ =
 
 
P (CQi0 )
 
 
...
 
 
 
 
P (CQs )
 

Ceci impose que



rg([u]β

) = rg(P (CP1 )) + · · · + rg(P (CPi0 −1 ))
rg(u) =  P

rg([u] ) = rg(P (C )) + · · · + rg(P (C


βQ P1 Pi0 −1 )) + rg(P (CQi0 )) + · · · + rg(P (CQs

et donc
rg(P (CQi0 )) = · · · = rg(P (CQs )) = 0
En particulier
Qi0 = µCQi |P = Pi0
0

Similairement, on a Pi0 |Qi0 et donc, par unitarité, Pi0 = Qi0

6. Lemme des noyau emboîtés/itérés :

Proposition I.6.
Soit P ∈ K[X], la suite

(uk ) = (dim Ker P k+1 (u) − dim Ker P k (u))k∈N

est positive, décroissante et stationnaire en 0.

Remarque : Le cas fréquent d’utilisation de ce théorème est pour P = X − λ où λ est


une valeur propre de u.
Preuve :
(uk ) est clairement à termes positifs et est stationnaire en 0 car en dimension finie.
Prenons k ≥ 0, v := P (u) et f := v k Ker(vk+1 ) , on démontrera la décroissance de deux
manières différentes :

7/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

dim(Ker(v k+1 )) − dim(Ker(f )) = dim(Ker(v k+1 )) − dim(Ker(v k ) = uk


D’autre part

rg(f ) = dim(Im f ) = dim(v k (Ker(v k+1 ))) =



dim(Ker(v) ∩ Im(v k ))

Pour (∗) : ⊂ est claire.


Inversement, si x ∈ Ker(v) ∩ Im(v k ), alors x = v k (y) pour un certain y ∈ E et donc
0 = v(x) = v k+1 (y) i.e. x = v k (y) avec y ∈ Ker(v k+1 )
Appliquonq finalement le théorème de rang à f

uk = dim(Ker(v) ∩ Im(v k ))

Ce dernier, étant clairement décroissant vu que Im(v k ) ⊃ Im(v k+1 ), on obtient le résul-
tat.
Remarquons qu’on pouvait utiliser les images au lieu des noyaux pour définir f , ce qui
aurait donné une démonstration similaire mais légèrement moins calculatoire.
Pour montrer son utilité, une application directe de ce théorème est que

µu = χu ⇐⇒ ∀λ ∈ SpecC (u) dim(Eλ,u ) = 1

Ce lemme est très important car permet d’avoir une vision nettement plus clair sur le
comportement des endomorphismes
En effet, pour X − λ où λ ∈ SpecC (u), le nombre uk n’est en faite que le nombre de
blocs de Jordans dans Fλ,u de taille ≥ k + 1 si k ≥ 0. En particulier, pour k = 0, on
obtient que c’est la dimension de l’espace propre associé à λ.
Ainsi, puisque la réduction de Jordan dans K lorsque elle existe définit la classe de
similitude d’une matrice, on obtient donc le corollaire suivant :
Proposition I.7.
Soit A, B ∈ Mn (K) avec χA ou χB scindés. Alors

A ≃K B ⇐⇒ ∀P ∈ K[X] dim(Ker(P (A))) = dim(Ker(P (B)))

Preuve :
La preuve a déja été établie, le seul point à vérifier est qu’on peut effectivement réduire en
Jordan les deux matrices sous chacune des deux propositions formant notre équivalence.
Disons aussi sans perte de généralité que χA est scindé.
• Si A ≃K B : Alors χB = χA est scindé
• Si ∀P ∈ K[X] dim(Ker(P (A))) = dim(Ker(P (B))) : Alors en l’appliquant à χA on
trouve que
dim(Ker(χA (B)) = dim(Ker(χA (A))) = n
C.H.
et donc µB |χA . En particulier µB est scindé et donc χB aussi

8/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Corollaire : Pour K ⊂ C et A ∈ Mn (K), t A ≃K A.


En effet, ceci est vrai dans C par la proposition ci-dessus et la généralisation à K ⊂ C
se fait en passant par C et en utilisant que A ≃K B ⇐⇒ A ≃C B vu que K est infini
(voir la section suivante)
Remarquons que la réduction de Jordan permet aussi d’affirmer cette propriété direc-
tement. En effet, un bloc de Jordan est aisement semblable à sa transposée (changer la
base canonique (e1 , . . . , en ) par (en , . . . , e1 )) et donc le résultat découle immédiatement.
Ajoutons finalement une dernière propriété qui lie toute norme matricielle sur Mn (C)
(en particulier la norme d’opérateur, associée à n’importe quelle norme sur E C-ev de
dimension finie) au rayon spectrale
Proposition I.8.
Soit A ∈ Mn (C) et ||.|| une norme sur Mn (C).
Alors
−→ ρ(A) = sup{|λ|, λ ∈ SpecC (A)}
||Ap ||1/p p→∞

Preuve :
Le cas ρ(A) = 0 étant trivial (nilopotant), on peut supposer, après division par un
λ ∈ SpecC (A) tel que |λ| = ρ(A), que ρ(A) = 1 et que 1 ∈ SpecC (A).
Ceci fournit alors l’inégalité
1 ≤ ||Ap ||1/p
Pour l’autre inégalité, on peut :

• Le faire à la main : il suffit de remarquer que ||Ap || est majorée par un polynome
en p
Plus explicitement, considérons B = P AP −1 une réduction de Jordan de A et
considérons la norme N : M 7→ ||P M P −1 ||1 . Alors, il suffit de montrer que la
norme donnée par N des puissances d’un bloc de Jordan (de taille r ≤ n) auquel
on a ajouté l’identité sur son espace est majorée par un polynome en p (les calculs
sont laissés au lecteur)
L’équivalence des normes permet de conclure vu qu’une constante tend vers 1
lorsque mise à la puissance 1/p.

• Utiliser un exercice précèdent : Soit 1 > ε > 0. On sait que SpecC ((1 − ε)A) ⊂
B(0, 1) et donc ||((1 − ε)A)p || → 0. En particulier, à partir d’un certain rang
1 1
1 ≤ ||Ap || ≤ i.e. 1 ≤ ||Ap 1/p
|| ≤
(1 − ε)p 1−ε
ε étant arbitraire, on a le résultat

Ce résultat est surtout utilisé avec une norme d’opérateur en pratique.

9/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

II Changement corps
Motivation : Parfois on veut diagonaliser/trigonaliser/réduire en Jordan . . . un en-
domorphisme ou une matrice mais notre corps ne nous le permet pas. Ainsi, il est
interessant de savoir jongler entre ces derniers pour utiliser tous nos outils au maxi-
mum.
Dans tout ce qui suit K ⊂ L sont deux corps (commutatifs).
Proposition II.1.
Soit A, B ∈ Mn (K), alors
1. rgK (A) = rgL (A)
2. µA,K = µA,L . On peut donc le noter µA sans mention du corps.
3. χA,K = χA,L . On peut donc le noter χA sans mention du corps.
4. Si K est infini, alors A ≃K B ⇐⇒ A ≃L B
En particulier, c’est toujours vrai pour K de caractéristique nulle,
l’exemple typique étant si K ⊂ C

Preuve :
1. Posons r := rgK (A), alors A = P Ir,n Q où P, Q ∈ GLn (K) et Ir,n = diag(1, . . . , 1, 0, . . . , 0)
| {z }
r fois
En particulier, ceci impose que rgL (A) = rg(Ir,n ) = r
Ce point est en fait intéréssant parce qu’il affirme que si (X1 , . . . , Xr ) est une
K−base de KerK (A), les solutions du système AX = 0 dans K, alors c’est aussi
une L-base de KerL (A), les solutions du même système dans L
2. Remarquons d’abord que µA,K (A) = 0 i.e. µA,L |µA,K . Il suffit donc de montrer que
deg(µA,L ) ≥ d := deg(µA,K ) ou, équivalent, que (id, A, . . . , Ad−1 ) est L−libre.
Considérons alors M ∈ Mn2 ,d (K) qui représente sur les d matrices, une dans chaque
colonne.
On sait par ce qui précède que

rgL (M ) = rgK (M ) = d
K−liberté

3. Clair vu que les opérations définissant χA sont faite dans K


4. On ne donnera que la démonstration dans le cas K = R et L = C, celle générale y est
similaire, à la différence près qu’on utilise des polynomes à plusieurs indéterminées
plus quelques réctifications.
Le sens direct étant trivial, prenons alors P ∈ GLn (C) tel que A = P BP −1 .
Ecrivons P = U + iV où U, V ∈ Mn (R), on a alors

AP = A(U + iV ) = P B = (U + iV )B

10/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

et donc, en prenant les parties réelles et imaginaires :

AU = U B et AV = V B

Posons P ∈ R[X] défini par P (X) = det(A + XB). P ̸= 0 car P (i) ̸= 0 et donc, en
particulier, P n’admet qu’un nombre fini de racines.
Considérons alors λ ∈ R qui ne soit pas racine de P , on a alors, en posant M :=
A + λB ∈ Mn (R)
A = M BM −1

* *
*

Document compilé par Issam Tauil le 28/06/2022 pour [Link]. Si vous


repérez une erreur, ou avez des remarques, prière de me contacter via l’adresse
contact@[Link].

11/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

chapitre 39
Réduction d’endomorphismes symétriques

Notations, rappels et remarques


→ Dans ce chapitre, on considère E un espace vectoriel euclidien de dimension n ≥ 1 et de produit
scalaire ⟨ , ⟩ et sa norme associée ∥.∥.
→ On pose Sn (R) = {A ∈ Mn (R), AT = A}. Sn (R) est un sous-espace vectoriel de Mn (R) et admet
la famille suivante comme base
Ei,j + Ej,i
 
{Ei,i }i∈J1;nK ∪ .
2 1≤i<j≤n

n(n + 1)
Étant donné le cardinal de cette base, on peut directement en déduire que dim Sn (R) = .
2
→ On note On (R) l’ensemble des matrices orthogonales de Mn (R), i.e. les matrices O ∈ Mn (R) telles
que OT O = In .
→ Si A, B ∈ Sn (R), alors AB ∈ Sn (R) ⇐⇒ AB = BA.
→ Pour tout A ∈ Mn (R), on note VP(A) l’ensemble des valeurs propres de A.
→ Soit β = (e1 , . . . , en ) ∈ E une base de E. On dit que β est une base orthonormée de E si pour tous
i, j ∈ J1; nK, ⟨ei , ej ⟩ = 1i=j .
→ Une matrice O ∈ Mn (R) est orthogonale si et seulement si ses colonnes forment une base ortho-
normée de Rn .
→ Si β = (e1 , . . . , en ) est une base orthonormée quelconque de E, alors on a pour tous x = x1 e1 +
· · · + xn en ∈ E et y = y1 e1 + · · · + yn en ∈ E,
q
⟨x, y⟩ = x1 y1 + · · · + xn yn et en particulier ∥x∥ = x21 + · · · + x2n .

Autrement dit, la forme du produit scalaire ⟨ , ⟩ ne dépend pas de la base orthonormée où on


regarde les vecteurs x et y. Cette propriété s’écrit également, en posant X = [x]β et Y = [y]β ,
⟨x, y⟩ = X T Y .
→ Finalement, on reprend les notations du chapitre 29 sur la réduction d’endomorphismes.

I Généralités
Définition I.1.

Soit u ∈ L(E). On dit que u est symétrique si

∀x, y ∈ E, ⟨u(x), y⟩ = ⟨x, u(y)⟩.

On note S(E) = {u ∈ L(E), u symétrique}.

Exemples.
→ Soit p ∈ L(E) un projecteur sur F parallèlement à G (Ker p = G, Im p = F ). Alors p ∈ S(E) si
et seulement si F ⊥ G. Un projecteur (qui est d’ailleurs unique) vérifiant cette propriété est appelé
projecteur orthogonal sur F (parallèlement à G). La preuve de cette équivalence est laissée comme
exercice au lecteur.

1/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

→ Soit s ∈ L(E) une symétrie par rapport à F parallèlement à G. s est symétrique si et seulement si
1
(Id −s) est une projection orthogonale. En effet, on a
2
1 1
s ∈ S(E) ⇐⇒ (Id −s) ∈ S(E) ⇐⇒ (Id −s) est un projecteur orthogonal.
2 2
Lorsque cette propriété est vérifiée, on dit que s est une symétrie orthogonale.
→ On peut facilement montrer que u ∈ O(E) ∩ S(E) si et seulement si u est une symétrie orthogonale.

Proposition I.2.

Soit u ∈ L(E). Alors les propositions suivantes sont équivalentes.


1. u est symétrique.
2. Il existe une base orthonormée β = (e1 , . . . , en ) de E telle que [u]β ∈ Sn (R).
3. pour toute base orthonormée β = (e1 , . . . , en ) de E, on a [u]β ∈ Sn (R).

Démonstration.
→ (1) =⇒ (3) Soit (e1 , . . . , en ) une base orthonormée de E. Posons [u]β = (ai,j )i,j∈J1;nK . On a, en
utilisant le fait que la base choisie est orthonormée, pour tout i, j ∈ J1; nK,

ai,j = ⟨ei , u(ej )⟩ = ⟨ej , u(ei )⟩ = aj,i .

Ceci donne bien que [u]β ∈ Sn (R).


→ (3) =⇒ (2) Cette implication est évidente.
→ (2) =⇒ (1) Soit β = (e1 , . . . , en ) une base orthonormée de E telle que [u]β ∈ Sn (R). Posons
[u]β = (ai,j )i,j∈J1;nK . On a pour tous x = x1 e1 + · · · + xn en ∈ E et y = y1 e1 + · · · + yn en ∈ E, en
posant M = [u]β , X = [x]β et Y = [y]β

⟨x, u(y)⟩ = X T M Y = (M T X)T Y = (M X)T Y = ⟨u(x), y⟩

Ceci donne bien que u ∈ S(E).

Corollaire. En fixant β une base orthonormée de E, on peut voir que S(E) ≃ Sn (R) et donc en particulier
n(n + 1)
dim S(E) = dim Sn (R) = .
2
Remarque. Dans le cas où u ∈ L(E) et β = (e1 , . . . , en ) une base orthonormée, il est intéressant de
mémoriser les identités suivantes. En posant [u]β = (ai,j )i,j∈J1;nK , et en considérant x = x1 e1 +· · ·+xn en ∈ E
et y = y1 e1 + · · · + yn en ∈ E, on a
n X
n n X
n
⟨x, u(y)⟩ = xi yj ai,j et ⟨u(x), y⟩ =
X X
xi yj aj,i ,
i=1 j=1 i=1 j=1

et de même, en posant A = [u]β , X = [x]β et Y = [y]β , les égalités ci-dessus deviennent


n X
n n X
n
X T AY = xi yj ai,j et (AX)T Y = X T AT Y =
X X
xi yj aj,i .
i=1 j=1 i=1 j=1

Remarquons également qu’on n’a pas supposé que u est symétrique.

2/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

II Réduction
Théorème (Théorème spectral) II.1.

Soit u ∈ S(E) et soit F un sous-espace vectoriel de E.


1. Si F est stable par u alors, F ⊥ aussi.
2. Si λ, µ ∈ R sont deux valeurs propres distinctes de u, alors Eλ ⊥ Eµ .
3. E = Eλ .
M

λ∈SpecR (u)

4. u est diagonalisable dans une base orthonormée.

Démonstration.
1. Supposons que F est stable par u. On a

u(F ) ⊂ F =⇒ ∀(x, y) ∈ F × F ⊥ , ⟨u(x), y⟩ = 0


=⇒ ∀(x, y) ∈ F × F ⊥ , ⟨x, u(y)⟩ = 0 =⇒ u(F ⊥ ) ⊂ F ⊥ .

2. Soit λ, µ deux valeurs propres de u distinctes. Soit (x, y) ∈ Eλ × Eµ . On a

λ ⟨x, y⟩ = ⟨u(x), y⟩ = ⟨x, u(y)⟩ = µ ⟨x, y⟩ .

Ceci nous donne directement que ⟨x, y⟩ = 0 ce qui est bien le résultat voulu.
3. On envisage plusieurs méthodes, mais on expose ici que la plus classique. Deux méthodes supplé-
mentaires sont disponibles en annexe.
Procédons par récurrence forte sur n. Le cas n = 1 est évident. Intéressons-nous au cas! n = 2.
a b
Supposons que n = 2 et soit β une base orthonormée de E. On a, en posant [u]β = ,
b d
!
X −a −b
χu = det(XI2 − [u]β ) = det = X 2 − (a + d)X + (ad − b2 ).
−b X −d

Calculons le discriminant de ce polynôme. On a

∆ = (a + d)2 − 4(ad − b2 ) = (a − d)2 + 4b2 ≥ 0.

Deux cas alors se présentent. Si ∆ > 0, alors χu possède deux racines distinctes et donc deux espaces
propres de dimension 1 en somme directe, ce qui est bien le résultat voulu. Sinon, si ∆ = 0, alors
a = d et b = 0 ce qui donne u = a Id, et donc il n’y a qu’un seul espace propre égal à l’espace tout
entier. Ceci correspond également à ce qu’on cherche à démontrer.
Passons au cas général. Fixons n ≥ 2 et supposons que pour tout k ≤ n, la propriété est vérifiée.
Supposons que dim E = n + 1. Soit P un facteur unitaire irréductible de µu , x ∈ Ker P (u) \ {0} et
F = Vect(x, u(x)). Posons P = X 2 + c1 X + c2 . On a u2 (x) + c1 u(x) + c2 x = 0 donc u2 (x) ∈ F . On
a également pour tout θ1 , θ2 ∈ R,

u(θ1 x + θ2 u(x)) = θ1 u(x) + θ2 u2 (x) ∈ F,

donc F est stable par u. D’après le point 1, on sait que F ⊥ est également stable par u. Il suffit donc
F⊥ F
de considérer w = u ⊥ ∈ S(F ⊥ ) et v = u ∈ S(F ) et appliquer l’hypothèse de récurrence à ces
F F
deux endomorphismes pour avoir le résultat voulu.

3/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

4. Il suffit de considérer pour chaque λ ∈ SpecR (u), βλ une base orthonormée de Eλ , et de considérer
β = βλ . Le point 2 permet de montrer facilement que cette base est orthonormée et la
[

λ∈SpecR (u)
matrice [u]β est diagonale étant donné que β est constituée de vecteurs de propres de u.

Corollaire. Pour tout A ∈ Mn (R), on a

A ∈ Sn (R) ⇐⇒ ∃O ∈ On (R), ∃∆ ∈ Dn (R), A = O∆O−1 = O∆OT .

Démonstration. Le sens réciproque étant évident, on se propose de vérifier le sens direct. Considérons

Rn → Rn
ϕ:
X 7→ AX.

ϕ ∈ S(Rn ) car est symétrique dans la base canonique qui est orthonormale, ce qui nous donne le résultat
voulu en se rappelant qu’un changement d’une base orthonormale vers une autre est fait par une matrice
orthogonale.

Exercice II.2.

Soit A ∈ Sn (R). Notons λ1 < · · · < λn ses valeurs propres distinctes et soit λ ∈ R quelconque.
1. Montrer que Ker(A − λIn )⊥ = Im(A − λIn ) = Ker(A − µI).
M

µ∈VP(A)
µ̸=λ
2. En déduire que si n = 2, alors

Ker(A − λ1 In )⊥ = Im(A − λ1 In ) = Ker(A − λ2 In ) = Im(A − λ2 In )⊥ .

Exercice II.3.

2 1 −1
 

Diagonaliser la matrice A =  1 2 −1 . En particulier, exhiber une base orthonormée


−1 −1 2
où A est diagonale.

Exercice II.4.

Soit A ∈ Sn (R). Montrer que (Tr A)2 ≤ rg(A) Tr(A2 ).

Exercice II.5.

Soit A ∈ Mn (R). Montrer que AT A et AAT sont équivalentes.

4/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

III Estimations et valeurs propres pour u ∈ S(E)


Proposition III.1.

Soit u ∈ S(E). Soit β = (e1 , . . . , en ) une base orthonormée de vecteurs propres de u telle que
[u]β = diag(λ1 , . . . , λn ) avec λ1 ≤ · · · ≤ λn . Les propriétés suivantes sont vérifiées.
1. Pour tous s = s1 e1 + · · · + sn en ∈ Rn et t = t1 e1 + · · · + tn en ∈ Rn , on a
n n
⟨u(s), t⟩ = λi si ti , et en particulier ⟨u(s), s⟩ = λi s2i .
X X

i=1 i=1

2. min ⟨u(x), x⟩ = λ1 et max ⟨u(x), x⟩ = λn .


||x||=1 ||x||=1

Démonstration.
1. On a
n n
* ! + * n n
+ n
⟨u(s), t⟩ = u ti ei = ti ei =
X X X X X
si ei , λi si ei , λi s i t i .
i=1 i=1 i=1 i=1 i=1

La seconde inégalité découle directement du résultat ci-dessus.


2. Soit x = x1 e1 + · · · + xn en ∈ E tel que ∥x∥ = 1, i.e. x21 + · · · + x2n = 1. On a
n
⟨u(x), x⟩ = λi x2i .
X

i=1

De plus,
n n n
λ1 = λ1 x2i ≤ λi x2i ≤ λn x2i = λn
X X X

i=1 i=1 i=1

La borne supérieure est atteinte lorsque x = en et la borne inférieure est atteinte lorsque x = e1 .
On en déduit donc qu’on a bien min ⟨u(x), x⟩ = λ1 et max ⟨u(x), x⟩ = λn .
||x||=1 ||x||=1

Exercice III.2.

On reprend les mêmes notations que ci-haut. Soit µ ∈ R. Posons

Fµ = {x ∈ E, ⟨u(x), x⟩ = µ⟨x, x⟩}.

Montrer que Fµ est un sous-espace vectoriel de E non trivial si et seulement si µ = λ1 ou


µ = λn .

5/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice II.2 :


1. Soit X ∈ Im(A − λI) et soit U ∈ Rn tel que X = AU − λU . On a pour tout Y ∈ Ker(A − λI)

X T Y = (AU − λU )T Y = U T AY − λU T Y = U T (AY − λY ) = 0.

Ceci nous donne l’inclusion Im(A − λI) ⊂ Ker(A − λI)⊥ . On a de plus, d’après la formule du rang,
dim Im(A − λIn ) = n − dim Ker(A − λI) et étant donné que Ker(A − λI)⊥ est un supplémentaire
(en dimension finie) de Ker(A − λI) dans Rn , on a également

dim Ker(A − λI)⊥ = n − dim Ker(A − λI) = dim Im(A − λI),

et donc finalement Im(A − λI) = Ker(A − λI)⊥ . Pour finir, l’égalité

Ker(A − λI)⊥ = Ker(A − µI)


M

µ∈VP(A)
µ̸=λ

est une conséquence directe du point 1 du théorème II.1.


2. L’égalité de cette question est une conséquence immédiate de la question précédente.

Correction de l’exercice II.3 :


On commence d’abord pour calculer le polynôme caractéristique de A. On a

X −2 −1 1 X −2 −1 0
det(XI3 − A) = −1 X −2 1 = −1 X −2 X −1
1 1 X −2 1 1 X −1
X −2 −1 0
= (X − 1) −1 X −2 1
1 1 1
X − 2 −1 X −2
!
−1
= (X − 1) − +
1 1 −1 X −2
= (X − 1)2 (X − 4).

Étant donné que A est diagonalisable (car réelle symétrique), on peut affirmer que dim Ker(I3 − A) = 2
(voir proposition V.6 du chapitre 29 sur la réduction d’endomorphismes).
 T
(A − I3 )X = 0 où X = x y z ∈ R3 .

On a

x + y =0


 −z
(A − I3 )X = 0 ⇐⇒ x + y − z = 0 ⇐⇒ x + y − z = 0.

−x − y + z =0

Ceci signifie que Ker(A − I3 ) est l’hyperplan caractérisé par l’équation x + y − z = 0. Cet hyperplan est
 T
de vecteur normal U = 1 1 −1 . On en déduit que pour trouver une base de diagonalisation de A, il
U
suffit de trouver une base orthonormée de Ker(A − I3 ) et de la concaténer avec Ũ = (car Ker(A − I3 )
∥U ∥
est caractérisé par l’équation ⟨X, U ⟩ = 0). Pour ce faire, deux approches sont possibles.
→ Approche 1 : Si on peut facilement trouver une famille libre de l’hyperplan, on peut l’orthonor-
maliser avec le procédé de Schmidt (ici pour deux vecteurs, qui est donc assez simple). On considère

6/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

les deux vecteurs


 T  T
V = 1 0 1 et W = 1 1 2 .

Il est facile de montrer que (V, W ) ∈ Ker(A − I3 ) et qu’il s’agit d’une famille libre. Il reste donc à
orthonormaliser cette famille. Pour ce faire, on considère les transformations de V, W suivantes

D E
V W − Ṽ , W Ṽ V W
Ṽ = et W̃ = D E . − Ṽ , W Ṽ
∥V ∥ W − Ṽ , W Ṽ
W − Ṽ , W Ṽ

Le calcul de ces quantités donne


√  √  √ 
6

1/ 2 −1/ 1/√3 
 
 q
0
Ṽ =  √  , W̃ =  2/3  et Ũ =  1/ √3 
   
 

1/ 2 1/ 6 −1/ 3

On en déduit donc qu’en posant


√ √ √ 
1/ 2 −1/ 6 1/ 3

q √ 
O= 0 2/3 1/ 3 

 ,
√ √ √ 
1/ 2 1/ 6 −1/ 3

OT AO devrait être diagonale, et en effet, après calcul, on trouve


√ √ √ T   √ √ √  
1/ 2 −1/ 6 1/ 3 1/ 2 6 1/ 3

2 1 −1/ 1 0 0

q √   −1 q √  
OT AO = 
 0 2/3 1/ 3   1 2 −1 0 2/3 1/ 3  = 0 1 0 .
  

√ √ √  √ √ √
−1 −1 2
 
1/ 2 1/ 6 −1/ 3 1/ 2 1/ 6 −1/ 3 0 0 4

→ Approche 2 : Lorsque trouver une base n’est pas évident, on peut procéder de la manière suivante.
On commence par considérer un vecteur quelconque V de Ker(A−I3 ), par exemple le même qu’avant,
 T
V = 1 0 1 . Ensuite, on cherche un vecteur dans l’orthogonal de Vect(U, V ) en résolvant les
équations suivantes
 
⟨U, X⟩ = 0 x + z =0
i.e.
⟨V, X⟩ = 0 x + y − z = 0,

ce qui donne X = (x, y, z)T = (1, 2, −1)T . Il suffit donc de considérer W = (1, 2, −1) et de normaliser
la base orthonormée (U, V, W ), ce qui donne bien une base de diagonalisation de A.
Remarque. En utilisant l’exercice II.2, on peut remarquer qu’il y a un moyen plus rapide de trouver une
base de diagonalisation de A.

Ker(A − 4I) = Im(A − I) et Ker(A − I) = Im(A − 4I).

Ker(A − 4I) = Im(A − I) étant de dimension 1, il suffit de prendre une colonne non nulle de A − I comme
base de Ker(A − 4I). De même, Ker(A − I) = Im(A − 4I) étant de dimension 2, il suffit de prendre deux
vecteurs formant une famille libre des colonnes de A − 4I pour voir une base de Ker(A − 4I). Enfin, il
suffit d’orthonormaliser la base qu’on a trouvé de Ker(A − I), puis normaliser le vecteur formant une
base de Ker(A − 4I), et on obtient une base orthonormée de diagonalisation de A.

7/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

Correction de l’exercice II.4 :


A est symétrique et est donc diagonalisable en base orthonormée. Posons donc A = O∆OT avec O ∈
On (R) et ∆ = diag(λ1 , . . . , λn ) telle que les coefficients diagonaux nuls soient exactement λr+1 , . . . , λn .
r
!2 r
En appliquant l’inégalité Cauchy-Schwarz à (λ1 , . . . , λr ) et (1, . . . , 1). On obtient que λ2i .
X X
λi ≤r
i=1 1=1
Pour conclure, il suffit de remarquer les points suivants.
→ r = rg A.
r
→ Tr A = Tr(O∆OT ) = Tr ∆ = λi .
X

i=1
r
→ Tr(A2 ) = Tr(O∆2 OT ) = Tr(∆2 ) = λ2i .
X

i=11

Correction de l’exercice II.5 :


On a (AT A)T = AT A et (AAT )T = AAT , donc ces deux matrices sont symétriques. De plus, il est
facile de voir que pour toutes matrices M1 , M2 ∈ Mn (R), χM1 M2 = χM2 M1 . On en déduit donc que
χAT A = χAAT . Ces deux matrices sont symétriques, donc diagonalisables, et alors l’égalité des polynômes
caractéristiques nous permet d’affirmer qu’elles ont les mêmes valeurs propres et leurs espaces propres
sont de même dimension, et donc finalement que ces matrices sont équivalentes (car équivalentes à une
même matrice diagonale).

Correction de l’exercice III.2 :


Soit (e1 , . . . , en ) une base de diagonalisation de u telle que pour tout i ∈ J1; nK, u(ei ) = λi ei . Soit
x ∈ Fµ \ {0} tel que ∥x∥ = 1 (quitte à diviser par ∥x∥, par stabilité de Fµ par multiplication par un
scalaire). On a d’après la proposition III.1,

λ1 ≤ ⟨u(x), x⟩ ≤ λn .
| {z }
=µ⟨x, x⟩=µ

On a donc nécessairement µ ∈ [λ1 , λn ], sinon Fµ = {0} (il est facile de vérifier que 0 ∈ Fµ ). De plus, si
λ1 < µ < λn , Fµ n’est pas un espace vectoriel. Supposons que Fµ est un espace vectoriel et considérons
l’espace vectoriel G = Fµ ∩ Vect(e1 , en ). Soit s = s1 e1 + sn en ∈ G. On a

s ∈ G ⇐⇒ µs21 + µs22 = µ ⟨s, s⟩ = ⟨u(x), x⟩ = λ1 s21 + λ2 s22


s s
λn − µ λn − µ
⇐⇒ s2 = s1 ou s2 = − s1 .
µ − λ1 µ − λ1

On en déduit que
( s ) ( s )
λn − µ λn − µ
G = s = s1 e1 + s2 e2 ∈ E, s2 = s1 ∪ s = s1 e1 + s2 e2 ∈ E, s2 = − s1 .
µ − λ1 µ − λ1

G est donc l’union de deux espaces vectoriels distincts et non inclus l’un dans l’autre, donc G n’est pas
un espace vectoriel, ce qui est absurde.
Finalement, regardons le cas où µ = λ1 (le cas où µ = λn se traite de la même manière). Supposons que
µ = λ1 . On a pour tout x = x1 e1 + · · · + xn en ∈ Fµ ,
n n n
x2i = λ1 ⟨x, x⟩ = ⟨u(x), x⟩ = λi x2i (λi − λ1 )x2i = 0.
X X X
λ1 i.e.
i=1 i=1 i=1
| {z }
≥0

On en déduit donc finalement que pour tout i ∈ J1; nK tel que λi ̸= λ1 , xi = 0, i.e. x ∈ Eλ1 ,u . Ceci

8/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

implique que Fµ ⊂ Eλ1 ,u . L’inclusion réciproque est évidente, ce qui nous donne que Fµ est un espace
vectoriel non trivial. On a donc bien montré le résultat voulu.

Annexe
Nous exhibons ici deux méthodes alternatives pour montrer le point 3 du théorème spectral (Théorème
II.1). Cette annexe est à but purement culturel. Nous conseillons donc au lecteur de l’aborder uniquement
s’il est à l’aise avec les notions du cours et s’il a le temps de le faire.
→ Méthode alternative 1 (espaces hermitiens) : En fait, en examinant la preuve de ce résultat
fournie, on peut facilement voir que si on exhibe un sous-espace vectoriel F de E de dimension 1
qui est stable par u, alors on pouvait se passer de montrer la propriété pour n = 2. Pour ce faire,
on va montrer que u admet une valeur propre réelle. On va passer aux matrices. Soit β une base
orthonormée de E. On pose A = [u]β . On sait que (voir le chapitre 29 sur la réduction) A admet
une valeur propre complexe, qu’on note λ. Fixons X ∈ Cn \ {0} quelconque tel que AX = λX. On
a
λ||X||2 = λX T X = (X T AX)T = X T AT X = X T AX = λX T X = λ||X||2 .
On a donc λ ∈ R. L’idée qui vient à l’esprit consiste à considérer l’espace

F = VectR (X) = {λX, λ ∈ R}.

Cependant, on a à priori X ∈ Cn , ce qui fait que cet espace n’est pas valable, car F doit être inclus
dans Rn . On propose deux manières pour éviter ce problème.
• Possibilité 1 : Posons X = Re(X) + i Im(X) (où Re(X) et Im(X) sont respectivement les
vecteurs dont les coordonnées sont les parties réelles et imaginaires de celles de X). On a
AX = λX et donc

A Re(X) + iA Im(X) = λ Re(X) + iλ Im(X)


i.e. A Re(X) = λ Re(X) et A Im(X) = λ Im(X).

L’un des deux vecteurs Re(X) ou Im(X) est non nul, et est donc un vecteur propre de A
associé à λ. Il suffit alors de considérer VectR (Re(X)) ou VectR (Im(X)) selon les cas.
• Possibilité 2 : Rappelons que le rang d’une matrice réelle est le même sur R et C. Plus
exactement, on a le lemme suivant.

Lemme III.3.

Si K, L sont deux corps tels que K ⊂ L et A ∈ Mn (K), alors rgK A = rgL A.

Démonstration. Posons r = rgK A. A est équivalente à la matrice

Jr,n = diag(1, . . . , 1, 0, . . . , 0).


| {z } | {z }
r fois n−r fois

On peut donc écrire A = P Jr,n Q avec P, Q ∈ GLn (K). Cette écriture reste valable sur L et
donc, sur L, A est toujours équivalente à la matrice Jr,n . Par conséquent, rgL A = r

Grâce à ce lemme, on a rgR (A − λIn ) = rgC (A − λIn ) < n et donc λ est bien valeur propre de
A, vue comme matrice réelle. On dispose, en particulier, d’un vecteur propre X ∈ Rn \ {0} de
A associé à λ et VectR (X) convient donc.

9/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand

→ Méthode alternative 2 (calcul différentiel et optimisation) : Cette partie utilise quelques ou-
tils du chapitre du calcul différentiel. Le lecteur n’ayant pas encore abordé ce chapitre est encouragé
à n’aborder cette méthode seulement après avoir maitrisé le chapitre en question.
Toujours dans le même esprit que la méthode alternative précédente, on expose un autre moyen de
montrer que u admet une valeur propre réelle. On se propose de le montrer de manière analytique
cette fois. On considère l’application

E →R
ϕ:
x 7→ ⟨x, u(x)⟩.

ϕ ∈ C 1 (E, R) (car c’est une application polynomiale) sur le compact S(0, 1) = {x ∈ E, ∥x∥ = 1} et
donc atteint son maximum en x0 ∈ S(0, 1).
S(0, 1) admettant x0 + Vect(x0 )⊥ comme espace tangent (affine) en x0 , on a alors que ∇ϕx0 est
perpendiculaire à Vect(x0 )⊥ et est donc de la forme ∇ϕx0 = αx0 . Pour finir, remarquons que

ϕ(x0 + h) − ϕ(x0 ) = ⟨h, u(x0 )⟩ + ⟨x0 , u(h)⟩ + ⟨h, u(h)⟩ = ⟨2u(x0 ), h⟩ + ⟨h, u(h)⟩
| {z } u∈S(E) | {z }
O(||h||2 ) O(||h||2 )

et que donc ∇ϕx0 = 2u(x0 ) = αx0 d’où x0 est un vecteur propre de u de valeur propre (réelle)
α
associée .
2

* *
*

Document compilé par Omar Bennouna et révisé par Issam Tauil le 07/06/2023 pour
[Link].
Si vous repérez une erreur, ou avez des remarques, prière de me contacter via l’adresse
contact@[Link].

10/10

Vous aimerez peut-être aussi