Réduction
Réduction
chapitre 28
Réduction d’endomorphisme
Notations
Introduisons tout d’abord quelques notations. Soit K un corps commutatif et E un K−espace vectoriel
de dimension n ∈ N∗ . Soit u ∈ L(E) et A ∈ Mn (K).
→ Si β est une base de E alors [u]β est la matrice de Mn (K) dont les colonnes sont les coordonnées
de l’image de chaque élément de β par u dans la base β.
→ Pour toute base β de Kn , on note [A]β = P AP −1 avec P la matrice dont les colonnes sont la
représentation des éléments de β dans la base canonique.
→ Pour toutes matrices A, B ∈ Mn (C), on écrit A ≃ B s’il existe P ∈ GLn (K) tel que A = P BP −1 .
→ Si F et G sont deux K−espaces vectoriels, on écrit F ≈ G s’ils sont isomorphes, i.e. il existe
ϕ ∈ L(F, G) un endomorphisme inversible tel que ϕ(F ) = G.
→ On note Com(u) = {v ∈ L(E), v ◦ u = u ◦ v}.
→ On note Com(A) = {B ∈ Mn (K), AB = BA}.
→ On note VP(u) = {λ ∈ K, Ker(u − λ Id) ̸= {0}}.
→ On note VP(A) = {λ ∈ K, Ker(A − λI) ̸= {0}}.
→ Pour tout a ∈ N∗ , on note Ta+ (K) l’ensemble des matrices triangulaires supérieures de taille a.
→ Pour toute famille (x1 , . . . , xr ) de E (resp. Kn ) et toute base β de E (resp. Kn ), on note [(x1 , . . . , xr )]β
la matrice de Mn,r(K) dont les colonnes sont les représentations des vecteurs xi dans la base β.
λ1
→ Pour tout λ1 , . . . , λn ∈ K, on note diag(λ1 , . . . , λn ) =
...
λn
→ Pour tout i, j ∈ J1; nK, on note Ei,j = (δi,k δj,l )k,l∈J1;nK ∈ Mn (K).
→ On note AT la transposée de A.
→ On note ⟨A⟩ = {P AP −1 , P ∈ GLn (K)}.
→ Pour tout polynôme P ∈ K[X], on note ⟨P ⟩ = {QP, Q ∈ K[X]}.
→ On note K[u] = {P (u), P ∈ K[X]}.
→ On note K[A] = {P (A), P ∈ K[X]}.
→ Pour tout P ∈ K[X], on note Z(P ) l’ensemble des racines de P .
1/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition .1.
Supposons que E est de dimension finie. On considère pour tout k ∈ J1; rK, (ek,1 , . . . , ek,nk ) une
base de Fk .
r
1. F1 × · · · × Fr est un K−espace vectoriel et dim F1 × · · · × Fr = dim Fk .
X
k=1
r r
2. Si les Fj sont en somme directe, alors dim Fk = dim Fk
M X
k=1 k=1
3. Si les Fj sont en somme directe, alors (e1,1 , . . . , e1,n1 , . . . , er,1 , . . . , er,nr ) est une base de
r
Fk .
M
k=1
Preuve :
1. On considère la famille B = {(0, . . . , 0, ek,l , 0, . . . , 0), k ∈ J1; rK, l ∈ J1; nk K}. B est une base de
r r
F1 × · · · × Fr et |B| = nk = dim Fk . D’où le résultat.
X X
k=1 k=1
k=1
Objectif du chapitre : Pour une application linéaire u ∈ L(E) ou matrice A ∈ Mn (K) donnée, on
souhaite trouver une base β ou une matrice P ∈ GLn (K) où la matrice de u (resp. P −1 AP ) est simple
0
λ1 λ1 ∗
P −1 AP = [u]β = .. ou P −1 AP = [u]β = ..
. .
0 λn 0 λn
1 0 0
. .
.. ..
P AP = [u]β =
−1
..
. 1
0 0
Ou alors
0
J1
P −1 AP = [u]β =
...
0 Jk
2/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
1 0
ak
... ...
Jk =
...
1
0 ak
0
−a0
1 . . . ..
.
P AP = [u]β =
−1
..
.. ..
. . .
1 −an−1
avec a0 , . . . , an−1 ∈ K.
I Stabilité
Dans cette partie, on considère u un endormorphisme de E.
Définition I.1.
Proposition I.2.
Preuve
1. Supposons que F et G sont stables par u et soient x, y ∈ E.
→ Supposons que x ∈ F et y ∈ G. Montrons que u(x + y) ∈ F + G.
Par stabilité de F et G, on a u(x) ∈ F et u(y) ∈ G donc u(x + y) = u(x) + u(y) ∈ F + G,
donc F + G est stable par u.
→ Supposons que x ∈ F ∩ G.
On a x ∈ F et x ∈ G, donc u(x) ∈ F et u(x) ∈ G et alors u(x) ∈ F ∩ G. On en déduit que
F ∩ G est stable par u.
F −→ F
2. On considère l’application ũ : . On a Ker ũ = Ker u ∩ F et en utilisant le théorème
x 7−→ u(x)
du rang, on a
dim Ker ũ + rg ũ = dim F
donc
dim Ker u ∩ F + dim u(F ) = dim F
et finalement
dim u(F ) = dim F
De plus, u(F ) ⊂ F , donc u(F ) = F .
3/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
3. Montrons le résultat par double implication. Remarquons tout d’abord que si E = {0}, alors le
résultat est évident. Supposons donc que E ̸= {0}.
→ (⇒) Le sens direct est une conséquence de la stabilité de F par multiplication par un scalaire.
→ (⇐) Supposons que u laisse stable tout sous-espace de E.
Pour tout x, y ∈ E \ {0}, u laisse stable Vect(x) et Vect(y), donc il existe λx , λy ∈ K vérifiant
u(x) = λx x et u(y) = λy y
u laisse aussi Vect(x + y) stable, donc il existe λx+y vérifiant u(x + y) = λx+y (x + y). On a
alors
λx+y (x + y) = u(x + y) = u(x) + u(y) = λx x + λy y
et alors
(λx+y − λx )x + (λx+y − λy )y = 0
• Si (x, y) est libre, alors λx+y − λx = 0 et λx+y − λy = 0, et alors λx = λx+y = λy .
• Si (x, y) est liée, i.e. il existe λ ∈ K tel que x = λy, alors
et donc, puisque y ̸= 0, λx = λy .
On a alors x 7−→ λx est constante sur E \ {0}, il existe donc λ ∈ K tel que pour tout
x ∈ E \ {0}, u(x) = λx. Cette propriété est en particulier vraie pour x = 0, donc pour tout
x ∈ E, u(x) = λx, i.e. u est une homothétie.
Exemple : Les sous espaces {0}, Im uk et Ker uk avec k ∈ N sont stables par u.
Proposition I.3.
u(e1 ) = 0 v(e1 ) = e1
u(e2 ) = e3 et v(e2 ) = 0
u(e3 ) = e3 v(e3 ) = e3
u ◦ v(e2 ) = 0
(
v ◦ u(e2 ) = e3
4/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition I.4.
Preuve
→ (1) ⇒ (2) Supposons que u laisse stable F . Pour tout e ∈ β1 , u(e) ∈ F = Vect(β1 ) car u stabilise
F , donc les coefficients dans la famille β2 de e sont nuls.
→ (2) ⇒ (1) Pour tout e ∈ β1 , [u(e)]β a des coefficients nuls dans les |β2 | dernières coordonnées, donc
u(e) ∈ Vect(β1 ) = F pour tout e ∈ β1 . Par combinaison linéaire, on peut conclure que u(F ) ⊂ F .
Proposition I.5.
k=1
base de Fj . Soit β = (β1 , . . . , βr ) la concaténation des βj . On a alors pour tout u ∈ L(E), on
a équivalence entre les deux propositions suivantes.
1. u laisse stable Fj pour tout j.
0
A1
2. ∃(A1 , . . . , Ar ) ∈ Mn1 (K) × · · · × Mnr (K), [u]β = ..
.
0 Ar
Preuve
→ (1) ⇒ (2) Soit k ∈ J1; rK. Pour tout e ∈ βk , u(e) ∈ Vect(βk ), donc la sous-matrice de [u]β contenant
des colonnes de rang entre |β1 | + · · · + |βk−1 | + 1 et |β1 | + · · · + |βk |, i.e. la représentation de
0
.
..
0
l’image de la base βk par u dans la base β s’écrit avec Ak ∈ Mnk (K). On en déduit donc
Ak
0
.
.
.
0
0
A1
directement que la matrice de u dans la base β s’écrit comme .. avec (A1 , . . . , Ar ) ∈
.
0 Ar
Mn1 (K) × · · · × Mnr (K).
→ (2) ⇒ (1) De la même manière, pour tout k ∈ J1; rK, pour tout e ∈ βk , étant donné la forme de
la matrice, on voit que tous les coefficients de u(e) dans β \ βk sont nuls, donc u(e) ∈ Vect(Fk ) et
donc finalement u(Vect(βk )) ⊂ Fk i.e. u(Fk ) ⊂ Fk .
5/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
II Éléments propres
Définition II.1.
Soit u ∈ L(E). Une vecteur x ∈ E est appelé vecteur propre de u lorsque x ̸= 0 et qu’il existe
λ ∈ K tel que u(x) = λx. Un tel scalaire λ est unique et est appelé valeur propre de u.
Proposition II.2.
Preuve : La preuve de ce résultat ne présente pas de difficulté et est laissée comme exercice au lecteur.
Vocabulaire : Lorsque u ∈ L(E) et λ ∈ K, Eλ,u = Ker(u − λ Id) est appelé espace propre de u as-
socié à λ. Lorsqu’il n’y a pas ambiguïté sur l’endomorphisme associé à cet espace, on notera simplement
Eλ,u = Eλ .
Proposition II.3.
Soit u ∈ L(E)
1. Soit x ∈ E \ {0}. On a l’équivalence
Si E est de dimension finie non réduit à {0} et que K = C, alors u possède au moins une valeur
propre.
L’application λ 7−→ det([u]β − λI) est donc une application polynômiale dans C de degré n, elle admet
donc au moins une racine λ, donc il existe au moins un λ ∈ C vérifiant Ker(u − λ Id) ̸= {0}, i.e. λ est
une valeur propre.
6/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Exercice II.5.
Supposons que K soit égal à R ou C. Soit n ≥ 2. Existe-t-il un plan P de L(Kn ) tel que
P \ {0} ⊂ GL(K) ?
Soit u, v ∈ L(E) tel que [u, v] = 0. Si λ est une valeur propre de u, alors v laisse stable
Eλ,u = Ker(u − λ Id).
On dit qu’une partie L de L(Cn ) est irréductible lorsque les seuls sous-espaces vectoriels de E
qui sont stables par tous les éléments de L sont {0} et E. Soit L une partie irréductible de
L(Cn ) et u un élément de L(Cn ) qui commute avec tous les éléments de L. Montrer que u est
une homothétie.
Proposition II.8.
Supposons que E est un espace vectoriel muni de ∥.∥ et u ∈ Lc (E). Pour toute valeur propre
λ de u, on a |λ| ≤ |||u|||.
Preuve : Soit λ une valeur propre de u et x un vecteur propre pour λ, i.e. u(x) = λx et x ̸= 0. On a
alors
|λ| ∥x∥ = ∥u(x)∥ ≤ |||u||| × ∥x∥
x est non nul, on peut donc simplifier par ∥x∥ pour obtenir |λ| ≤ |||u|||.
Lemme III.2.
7/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
→ Pour le cas p = 1, x1 est un vecteur propre, il est donc non nul et alors la famille (x1 ) est libre.
→ Soit p ∈ N∗ . Supposons que la propriété est vraie pour p. Soit µ1 , . . . , µp+1 ∈ K tels que
Par hypothèse de récurrence, on a que la famille (x1 , . . . , xp ) est libre, donc pour tout k ∈ J1; pK,
µk (λp+1 − λk ) = 0. λ1 , . . . , λp+1 sont deux à deux distinctes par hypothèse donc pour tout k ∈ J1; pK,
µk = 0 et alors (1) devient
µp+1 xp+1 = 0
ce qui finalement implique que pour tout k ∈ J1; p + 1K, µk = 0 i.e. (x1 , . . . , xp+1 ) est libre, d’où le
résultat voulu.
Application : La famille (fα )α∈R = (x 7−→ xα )α∈R est libre dans C ∞ (R∗ , R). En effet, en posant u :
f 7−→ (x 7−→ xf ′ (x)), (fα ) est une famille de vecteurs propres associés à des valeurs propres deux à deux
distinctes de u, elle est donc libre. On peut dire la même chose de la famille (gβ )β∈C , avec pour tout
β ∈ C, gβ : x 7−→ eβx .
Proposition III.3.
On suppose que E est de dimension finie. Soit u ∈ L(E). Les propositions suivantes sont
équivalentes
1. u est diagonalisable.
2. Il existe une base de E composée de vecteurs propres de u.
3. Il existe une base de E telle que [u]β est diagonale.
p
4. Eλk ,u = E, avec λ1 , . . . , λp les valeurs propres de u.
X
k=1
Preuve
→ (1) ⇒ (2) Prenons λ1 , . . . , λp comme dans la définition III.1. Quitte à éliminer les λi tels que Eλi ,u =
{0}, on peut supposer sans perte de généralité que ∀i ∈ J1; pK Eλi ,u ̸= {0} et que les λi sont distincts.
Le lemme III.2 nous permet de dire que toute famille de vecteurs (x1 , . . . , xp ) ∈ Eλ1 ,u × · · · × Eλp ,u
p
est libre et que donc la somme E = Eλi ,u est directe.
X
i=1
Chacun de ces espaces étant de dimension finie (non nulle), on peut alors prendre, pour chaque i,
une base (b1i , . . . , bpi i ) de Ei avec pi = dim Eλi ,u . Il est clair que la concaténation de ces bases est
p
une base de E = Eλi ,u et que chaque élément de cette dernière est un vecteur propre de u.
M
i=1
→ (2) ⇒ (3) Si (b1 , . . . , bn ) est une base de E formée de vecteurs propres de u, et que pour tout
i ∈ J1; pK, bi est associé à la valeur propre λi , alors la matrice de u dans cette base est la matrice
diagonale diag(λ1 , . . . , λn ).
→ (3) ⇒ (4) Prenons une base β = (β1 , . . . , βn ) qui rend [u]β diagonale. Il est alors clair que pour tout
i ∈ J1; pK, il existe λi ∈ K tel que βi est un vecteur propre de u, associé à λi (les λi ne sont pas
8/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
forcément distincts). On a alors en notant VP(u) l’ensemble (fini) des valeurs propres de u
n
E = V ect(β1 , . . . , βn ) ⊂ V ect(Eλ1 , . . . , Eλn ) =
X X
E λi ⊂ Eλ
i=1 λ∈VP(u)
d’où le résultat.
→ (4) ⇒ (1) Direct.
Remarque 1 : Si u possède n = dim E valeurs propres différentes, alors u est diagonalisable et chaque
espace propre est de dimension exactement une.
Ceci étant car, en notant λ1 , . . . , λn ces n valeurs propres différentes, que
n n n
! !
n ≥ dim = dim = dim(Eλi ) ≥ n
X M X
Eλi Eλi
lemme III.2
i=1 i=1 i=1
n n
!
On a alors dim = n = dim E, i.e. E = Eλi et tous les Eλi ,u ne peuvent pas avoir une
M M
E λi
i=1 i=1
dimension strictement supérieure à 1 ou égale à 0, ils sont donc de dimension 1. On a donc bien les deux
résultats voulus.
Remarque 2 : Lorsque u est diagonalisable, il est facile de retrouver son image et son noyau. En effet,
considérons un base de vecteurs propres de u β = (b1 , . . . , bn ) puis ordonnons la de manière à ce que les
valeurs propres associées à b1 , . . . , bp soient non nulles et celles associées à bp+1 , . . . , bn soient nulles. Alors
Im(u) = Vect(b1 , . . . , bp ) et Ker(u) = Vect(bp+1 , . . . , bn ).
Preuve
Une matrice diagonale à coefficients diagonaux tous non nulles dans K est inversible. Ainsi, dans la base
β, [u]β s’écrit :
0Mp,n−p (K)
!
A
0Mn−p,p (K) 0Mn−p (K)
Avec A une matrice diagonale à coefficients diagonaux non nuls. On en déduit donc que
0 p
( ! )
Ker(u) = a ∈ E, ∃v ∈ K n−p
, [a]β = K , = Vect(ep+1 , . . . , en )
v
( ! )
v
Im(u) = a ∈ E, ∃v ∈ K , [a]β = p
, = Vect(e1 , . . . , ep )
0Kn−p
Proposition III.4.
1. Soit λ ∈ K. On a
9/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
i=1
r r
w(Eλi ,u ) = Eλi ,v = E ⇐⇒ v est diagonalisable
X X
⇐⇒
w∈GL(E)
i=1 i=1
Exercice III.5.
Proposition III.6.
Preuve
→ (1) ⇒ (2) Soit β la base associée à la matrice P . Alors [fA ]β = P −1 AP = ∆ est diagonale.
→ (2) ⇒ (3) Soit β = (e1 , . . . , en ) une base de E et considérons l’application
E
−→ E
u: n
X n
X
xi ei
7−→ yi ei
i=1 i=1
y1
.
où ..
= fA (X) avec X = (x1 , . . . , xn ) . Une vérification rapide nous permet de voir que [u]β = A.
T
yn
De plus, en considérant (f1,i )i∈J1;nK , . . . , (fn,i )i∈J1;nK une base de vecteurs propres de fA , il est facile
de voir que la famille (f1 , . . . , fn ) telle que pour tout k ∈ J1; nK, fk = fk,1 e1 + · · · + fk,n en est une
base de vecteurs propres de u, ce qui nous permet d’affirmer que u est diagonalisable.
→ (3) ⇒ (1) Soit u ∈ L(E) et β une base tel que [u]β = A. Soit γ une base de diagonalisation de u et
P la matrice de passage de γ à β. On a alors
[u]γ = P [u]β P −1 = P −1 AP
On a de plus, pour tout i ∈ J1; nK, si e est le i−ème vecteur de la base canonique de Mn (K) et bi
estl e i−ème vecteur de la base γ, alors il existe λi ∈ K tel que u(bi ) = λi bi , i.e., en passant aux
10/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
matrices dans la base γ, [u]γ ei = λei , donc il existe une matrice diagonale ∆ telle que [u]γ = ∆. On
en déduit donc finalement que A = P −1 ∆P .
→ (4) ⇔ (1) Laissé comme exercice au lecteur.
Vocabulaire : Lorsque A vérifie l’une de ces propriétés, on dit que A est diagonalisable.
0
alors on définit
K[X]
−→ L(E)
ϕu : p
7−→ P (u) =
X
P
ak u k
k=0
Soit (A, +, .) un anneau commutatif. Un sous ensemble I de A est appelé idéal lorsque
→ (I, +) est un sous groupe de (A, +).
→ Pour tout x ∈ A et i ∈ I, ix ∈ I.
I est dit principal lorsqu’il est engendré par un seul élément i.e. il existe x ∈ A tel que
I = ⟨x⟩ := xA.
Un anneau commutatif A est dit principal si tout idéal de A est principal.
On notera en particulier que K[X] est principal lorsque K est un corps.
Si ce dernier est non trivial, chose toujours vraie en dimension finie, alors il est engendré par un unique
polynome unitaire µu , appelé polynome minimal de u. Autrement dit si P ∈ K[X] et P (u) = 0, alors
P ∈ Iu , c’est à dire qu’il existe Q ∈ K[X] tel que P (X) = Q(X)µu (X), i.e. µu |P .
K[X] agit similairement sur les matrices carrées et commute avec les automorphismes interieurs (i.e. les
automorphismes de la forme M 7−→ P M P −1 avec P ∈ GLn (K)) de conjugaison i.e. pour tout P ∈ GLn (K)
et Q ∈ K[X], Q(P AP −1 ) = P Q(A)P −1 .
Vocabulaire : Un élement de Iu , i.e. un polynôme P tel que P (u) = 0L(E) est appelé un polynôme
annulateur de u.
Proposition IV.2.
Soit x un vecteur propre de u de valeur propre associée λ. Les proposition suivantes sont vraies.
1. ∀P ∈ K[X], P (u)(x) = P (λ)x
2. Si P ∈ Iu alors P (λ) = 0
3. Soit λ ∈ K. Alors µu (λ) = 0 ⇐⇒ λ valeur propre de u.
En particulier, lorsque K = C, il existe (lλ )λ∈VP(u) ∈ N∗VP(u) tel que
µu (X) = (X − λ)lλ
Y
λ∈VP(u)
Preuve :
11/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
1. On peut montrer par une récurrence rapide que ∀k ≥ 0 uk (x) = λk x (avec par convention 00 = 1).
d d d
Ainsi, si P (X) = ak X k , alors P (u)(x) = ak · uk (x) = ak · λk x = P (λ)x.
X X X
Si λ n’est pas une valeur propre de u, la proposition II.2 nous permet d’affirmer que u − λ Id
est inversible et que donc Q(u) = 0, ce qui contredit la minimalité de µu . Donc λ est bien une
valeur propre de u.
Soit P1 , . . . , Pr des éléments de K[X], deux à deux premiers entre eux et u ∈ L(E). On a
r
Ker P1 . . . Pr (u) = Ker Pi (u). En particulier, en considérant le cas où Pi (X) = X − λi avec
M
i=1
pour tout i, λi une valeur propre de u, on retrouve que les espaces propres sont en somme
directe.
→ (⊂) Soit x ∈ Ker P Q(u). La relation obtenue via Bezout nous permet d’écrire
x = AP (u)(x) + BQ(u)(x)
| {z } | {z }
∈Ker Q(u) ∈Ker P (u)
Enfin, pour généraliser pour r ≥ 2, on peut le faire simplement de la manière suivante. Soit P1 , . . . , Pr ∈
K[X] premiers entre eux. On a
r
Ker P1 . . . Pr (u) = Ker P1 (u) ⊕ Ker P2 . . . Pr (u) = · · · = Ker Pi (u)
M
i=1
12/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition IV.5.
Soit P ∈ K[X] (non constant) irréductible et prenons l’unique l ∈ N tel que P l |µu et P l+1 ∤ µu ,
alors
Ker(P 0 (u)) ⊊ Ker(P 1 (u)) ⊊ · · · ⊊ Ker(P l (u)) = Ker(P l+1 (u)) = . . .
Preuve :
Les inclusions sont faciles à voir et donc c’est surtout le caractère strict ou égal qui nous intéresse. De
plus, P peut être supposé unitaire.
• Soit k ∈ N, si Ker(P k (u)) = Ker(P k+1 (u)) alors ∀i ≥ k Ker(P k (u)) = Ker(P i (u))
En effet, le résultat est vrai pour i = k; k + 1. Supposons le résultat vrai pour i − 1 avec i ≥ k + 2
et montrons notre assertion par récurrence.
Soit x ∈ Ker(P i (u)), alors P i−1 ◦ P (u)(x) = 0 et donc
Ainsi
P k+1 (u)(x) = P k ◦ P (u)(x) = 0
et donc x ∈ Ker(P k+1 (u)) = Ker(P k (u))
• Avec l’égalité ci-haut en tête, il suffit de vérifier que Ker(P l−1 (u)) ̸= Ker(P l (u)) = Ker(P l+1 (u))
Similairement
E = Ker(P l+1 (u)) Ker(Q(u))
M
Ainsi
Ker(P l (u)) Ker(Q(u)) = Ker(P l+1 (u)) Ker(Q(u))
M M
Ce qui oblige, vu que Ker(P l (u)) ⊂ Ker(P l+1 (u)), que Ker(P l (u)) = Ker(P l+1 (u))
E = Ker(P l (u)) Ker(Q(u)) = Ker(P l−1 (u)) Ker(Q(u)) = Ker(P l−1 Q(u))
M M
13/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition IV.6.
Soit u ∈ L(E) avec dim E < +∞. Les propriétés suivantes sont équivalentes
1. u est diagonalisable.
2. u est annulé par un polynôme scindé à racines simples (dans K)
3. µu est scindé à racines simples.
Proposition IV.7.
→ (1) ⇒ (2) A est diagonalisable, il existe donc λ1 , . . . , λn ∈ K tel que que A est semblable à D =
diag(λ1 , . . . , λn ). Notons δ1 , . . . , δr tous les scalaires λi en enlevant les doublons et considérons le
r
polynôme scindé à racines simples P (x) = (X − δi ). On peut facilement vérifier que
Y
i=1
→ (2) ⇒ (3) Soit P un polynôme scincé à racines simples annulant A. On sait que µA |P (P ̸= 0 et µA
non constant), donc µA est bien scindé à racines simples.
r
→ (3) ⇒ (1) Écrivons µA = (X − λi ) avec les λi distincts. On a alors d’après le lemme de décom-
Y
i=1
position des noyaux
r
E = Ker µu (u) = Ker(u − λi Id)
M
i=1
Xm − 1 = (X − ω)
Y
ω∈Um
En pratique, pour des corps algébriquement clos tel que C, tout polynôme est scindé, donc dire qu’un
polynome P non constant est scindé à racines simples est équivalent à ce que P ∧ P ′ = 1 ou à ne pas
avoir de racines multiples i.e. ne pas avoir de racine commune à P et P ′ . Dans l’exemple précédant, si
m ≥ 2, alors Z(mX m−1 ) = {0} et 0 n’est pas racine de X m−1 . De même
14/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Preuve : Soit P un polynome scindé à racines simples tel que P (u) = 0. On a alors P (v) = 0, v est
annulé par un polynôme scindé à racines simple, c’est donc un endomorphisme diagonalisable.
Remarque :Pour les endomorphismes diagonalisables, les espaces stables et Com(u) = {v ∈ L(E), v◦u =
u ◦ v} sont faciles à caractériser. On peut voir cela à partir des deux exercices ci-dessous.
Exercice IV.9.
Soit u ∈ L(E) diagonalisable de valeurs propres λ1 , . . . , λs distinctes. Montrer que les proposi-
tions suivantes sont équivalentes
1. F ⊂ E est un sous-espace vectoriel de E stable par u.
s
2. F = F ∩ Eλi ,u .
M
i=1
3. Il existe une famille (Fi )i∈J1;sK de sous-espaces vectoriels de E telle que pour tout i ∈ J1; sK
s
Fi ⊂ Eλi ,u et F = Fi .
M
i=1
Exercice IV.10.
0
A1
...
Com(u) = v ∈ L(E), ∃(A1 , . . . , As ) ∈ Ml1 (K) × · · · × Mls (K), [v]β =
0
As
15/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
i=1
2. Soit (Li ) les interpolateurs de Lagrange des (λi ), i.e. pour tout i, Li est l’unique polynôme
de degré r − 1 tel que pour tout k ̸= i Li (λk ) = 0 et Li (λi ) = 1. On a L1 + · · · + Lr = 1
et ∀i ̸= j, µu |Li Lj .
3. En posant pi = Li (u). Alors pi est le projecteur sur Eλi ,u parallèlement à Eλj ,u .
M
j̸=i
1. La proprosition IV.5 donne le fait que µu est scindé à racines simples car u est diagonalisable. Ainsi,
s
il existe δ1 , . . . , δr ∈ K deux à deux distincts tels que µu = (X − λi ) où les λi sont distincts. De
Y
i=1
plus, d’après la proposition IV.2
∀λ ∈ K, µu (λ) = 0 ⇐⇒ λ ∈ VP(u)
r
et donc finalement µu = (X − λi )
Y
i=1
2. Posons P = L1 + · · · + Lr − 1. Alors pour tout i ∈ J1; rK P (λi ) = 1 − 1 = 0. Ainsi, étant donne que
s
µu (X) = (X − λi ), µu |P et deg P ≤ r − 1 et alors P = 0 i.e. L1 + · · · + Lr = 1. Finalement, pour
Y
i=1
tous i ̸= j et tout k ∈ J1; rK, Li Lj (λk ) = 0 et donc pour tous i ̸= j et tout k ∈ J1; rK, (X − λk )|Li Lj
i.e. µu |Li Lj si i ̸= j.
3. Soit j ∈ J1; rK et x ∈ Eλj ,u . On a pour tout i ∈ J1; rK, Li (u)(x) = Li (λj )x = δi,j x. En considérant
pour tout i ∈ J1; rK, βi une base de Eλi ,u , on voit que pour tout j ∈ J1; rK, pour tout i ∈ J1; rK et
e ∈ βj , Li (u)(e) = e si i = j et 0 sinon. On a aussi clairement Li (u) ◦ Li (u) = Li (u), d’où le résultat.
Exercice IV.12.
∀(u, v) ∈ S 2 , u ◦ v = v ◦ u
Exercice IV.13.
Exercice IV.14.
Dans cet exercice, on suppose que K = C. Soit u ∈ L(E) tel que u2 soit diagonalisable. Montrer
que u est diagonalisable si et seulement si Ker u = Ker u2 .
16/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
V Polynome caractéristique
1. Généralités
Soit E un espace vectoriel de dimension finie n ≥ 1 et u ∈ L(E).
Proposition V.1.
Preuve :
1. λ ∈ VP(u) ⇐⇒ Ker(u − λ Id) ̸= {0} ⇐⇒ u − λ Id ̸∈ GL(E) ⇐⇒ det(u − λ Id) = 0
dimension finie
2. det(P AP −1 − X Id) = det(P (A − λ Id)P −1 ) = det(P ) det(P −1 ) det(A − X Id) = det(A − X Id)
Remarque : le point 1 se reformule de la manière suivante
Attention : χu peut avoir des racines non contenues dans K. En effet, si on considère une matrice de
0
!
−1
rotation d’angle π2 , M = , on a χM (X) = X 2 + 1. Ce polynôme admet deux racines complexes
1 0
mais aucune racine réelle.
Astuce utile : Un calcul explicite nous permet d’affirmer que
Notation : Pour tout u ∈ L(E), on désigne par SpecK (u) la liste non ordonnée des valeurs propres de
u qui sont contenues dans K en prenant compte de leurs multiplicité dans χu , c’est à dire que SpecK (u)
peut être vu comme un ensemble mais contrairement à un ensemble usuel, un élément peut être compté
plus d’une fois et contrairement aux k − uplets l’ordre n’est pas pris en compte. Par exemple, lorsque
SpecK (u) contient deux fois 1 et une fois 2, nous noterons SpecK (u) = [1, 1, 2].
Parfois, par abus de notation, on pourra voir SpecK (u) comme un ensemble normal aussi.
Exemple : Si A = diag(λ1 , . . . , λn ) (pas forcément distincts) alors χA = 1 (X − λi ) et SpecK (A) =
Qn
[λ1 , . . . , λn ].
Attention : En général, SpecR (u) ⊊ SpecC (u).
17/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition V.2.
i=1
En identifiant les coefficients de l’avant dernier terme et du dernier terme, on trouve bien que Tr(A) =
λ1 + · · · + λn et det A = λ1 . . . λn .
Exemples :
1. Si A = (ai,j )i,j∈J1;nK est une matrice triangulaire supérieure (resp. inférieure) alors
n
χA (X) = (X − aii )
Y
i=1
0
−a0
.. ..
1 . .
2. Soit P (X) = X + an−1 X
n n−1
+ · · · + a0 ∈ K[X] et CP = ∈ Mn (K).
..
. 0 −an−2
1 −an−1
On a χCP = P . On appelle CP la matrice compagnon de P .
La preuve (classique) de ces deux points se fait par récurrence en développant suivant la première colonne.
Exercice V.3.
Soit A ∈ Mn (K). En utilisant la base (Ek,l )k,j∈J1;nK = ((δi,k δj,l )i,j∈J1;nK ), trouver le polynome
caractéristique de
M (K) −→ M (K)
n n
ϕA :
X 7−→ XA
Proposition V.4.
F
Soit F un sous-espace vectoriel de E stable par u. Posons v = u . Montrer que χv |χu .
F
Preuve : Considérons β1 une base de F qu’on complète en une base β = (β1 , β2 ) de E. On a alors
[X Id −v]β1
!
∗
[X Id −u]β =
0 X Id −B
où B ∈ M|β2 | (K). On a alors χu (X) = χv (X)χB (X) (on rappelle que le déterminant d’une matrice
triangulaire supérieure par bloc est le produit des déterminants des blocs diagonaux). Ceci donne bien le
résultat voulu.
18/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Définition V.5.
Proposition V.6.
Preuve :
F
1. F = Ker(u − λ Id) est stable par u. Considérons v = u . χv = (X − λ Id)β(λ) |χu d’où βλ ≤ αλ .
F
2. Soit u ∈ L(E)
λ1 Il1
→ (⇒) Soit β une base de E et λ1 , . . . , λr deux à deux distincts tels que [u]β = ..
.
lbr Ilr
avec λ1 , . . . , λr ∈ N . On a alors
∗
(X − λ1 )Il1
i=1
De là, on voit bien que χu et scindé et pour tout i ∈ J1; rK, li = αu (λi ) = βu (λi ).
→ (⇐) On a
λ∈VP(u)
Remarque : En général, Pour deux matrices A, B ∈ Mn (K), χA = χB n’implique pas forcément que A
est semblable à B. Toutefois, si A et B sont toutes les deux diagonalisables alors l’implication devient
vraie. Ceci car, dans ce cas,
SpecK (A) = SpecK (B) = [λ1 , . . . , λn ]
donc A et B sont toutes deux semblables à diag(λ1 , . . . , λn ), A et B sont donc semblables par transitivité de
la relation d’équivalence matricielle. Notons aussi que le fait d’avoir la diagonalisabilité pour uniquement
19/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
une seule d’elles ne suffit pas. En effet, pour le voir, il suffit de prendre A = 0 et B une matrice nilpotente
non nulle quelconque (par exemple strictement triangulaire supérieure non nulle), ces deux matrices
admettent X n comme polynôme caractéristique mais ne sont clairement pas équivalentes.
Le théorème suivant est l’un des plus utile en algèbre linéaire
Théorème (Cayley-Hamilton) V.7.
Remarque : Le théorème ci-dessus est équivalent à dire que pour tout A ∈ Mn (K), µA |χA .
Preuve : Plusieurs démonstrations sont possibles, on rencontrera notamment plusieurs dans ce cours.
On présentera ici une basée sur le changement de corps. On considérera dans cette démonstration que
K = R ou C et on posera L := C. Noter que cette démonstration est généralisable à d’autres corps si on
connaît un peu de théorie d’extension de corps (c.f. section Bonus sur l’existence d’une cloture algébrique
qui est en particulier un surcorps qui scinde tout polynôme).
Remarquons d’abord que χA est indépendant du corps de référence. On peut donc sans souci travailler
dans Mn (L) et montrer que dans L, χA (A) = 0. Montrons cela dans Mn (L).
Dans L, µA,L (le polynôme minimal de u dans L[X]) et χA sont scindés et leurs racines sont exactement
les mêmes (il s’agit des valeurs propres de A dans L). Notons alors λ1 , . . . , λs les valeurs propres distinctes
de A. On a alors s s
µA,L = (X − λi )γi et χA = (X − λi )αi
Y Y
i=1 i=1
Il suffit maintenant de montrer que ∀i γi ≤ αi , car une fois cela fait, on aurait µA,L |χA et donc χA (A) = 0.
Par symétrie des rôles des γi , il suffit de montrer que γ1 ≤ α1 . Soit u ∈ L(Ln ) l’endomorphisme associé
à A dans la base canonique. De même, E désignera désormais Ln . Posons
s
F = Ker(u − λ1 Id)γ1 H= Ker(u − λi Id)γi
M
i=2
F
d = dim(F ) v=u
F
Remarquons que v est bien défini car F est stable par u. Soit β1 une base de F et β2 une base de H.
β = (β1 , β2 ) est une base de E et
B 0
!
[u]β =
0 C
Soit µB et µC les polynômes minimaux de B et C respectivement. Par souci de clareté, nous procédons
point par point.
• v est annulé par (X − λ1 )γ1 , donc µB |(X − λ1 )γ1 , i.e. il existe p ∈ J1; γ1 K tel que µB = (X − λ1 )p .
s s
• De même, (X − λi )γi annule C, donc µC (X − λi )γi .
Y Y
i=2 i=2
• De plus, on a pour tout P ∈ L[X], P annule u si et seulement si P annule B et C, i.e. P ∈
⟨µB ⟩ ∩ ⟨µC ⟩ = ⟨µB ∨ µC ⟩. Le polynôme unitaire de plus petit degré vérifiant cette propriété est
µC ∨ µB , donc
s
(X − λi )γi = µu = µC ∨ µB = µB µC = (X − λ1 )p µC
Y
i=1
20/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
pas contenir plus de d éléments (pour le montrer, il suffit de considérer une combinaison linéaire de
cette famille non triviale et d’appliquer un nombre suffisant de fois N ).
• La seule valeur propre de N est 0 car si λ ̸= 0 est une valeur propre de N et X un vecteur propre
associé, 0 = N γ1 X = λγ1 X ce qui est absurde. De plus, χN est de degré d, unitaire scindé dans L
et admet uniquement 0 comme racine donc χN (X) = X d .
• Pour conclure, on a
s
(X − λ1 )d = χB (X)|χA (X) = (X − λi )αi
Y
i=1
Corollaire V.8.
i=1 i=1
→ Soit A ∈ M2 (K). Si Tr(A) = 0, alors A2 est une homotétie. En effet, 0 = χA (A) = A2 − Tr(A)A +
det(A)I2 = A2 + det(A)I2 et alors A2 = − det(A)I2 .
→ Soit A, B ∈ Mn (Z) tel que det A ∧ det B = 1. Alors ∃U, V ∈ Mn (Z) tel que U A + V B = In .
En effet, χA (A) = 0 nous donne que
i.e.
det A · In = A × (−1)n+1 (An−1 + (Tr A)An−2 + · · · + c1 In )
| {z }
U ∈Mn (Z)
Dans ce qui suit, on aura besoin du lemme suivant, qui est souvent assez utile.
21/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Lemme V.9.
Soit u ∈ L(E), λ ∈ K et k ≥ 2, on a
Preuve
→ (⇐) Soit k ≥ 2 et x ∈ E, on a
On en déduit donc que Ker(u − λ Id)k ⊂ Ker(u − λ Id), i.e. Ker(u − λ Id)k = Ker(u − λ Id).
→ (⇒) On a clairement
Le fait que Ker(u − λ Id)k = Ker(u − λ Id) implique que toutes ces inclusions sont des égalités, et
en particulier que Ker(u − λ Id) = Ker(u − λ Id)2 .
Exercice V.10.
A est diagonalisable ⇐⇒ ∀λ ∈ SpecK (A), dim Ker(A − λIn ) = dim Ker(A − λIn )2
VI Trigonalisation
1. Généralités
Soit E un K−espace vectoriel de dimension finie n ∈ N∗ .
Définition VI.1.
On dit que u ∈ L(E) est trigonalisable s’il existe β base de E tel que [u]β est triangulaire
supérieure.
Remarque : Soit β = (e1 , . . . , en ) est une base de E. [u]β est triangulaire supérieure si et seulement si
u stabilise le drapeau associé à β i.e. ∀k ∈ J1; nK, u(V ect(e1 , . . . , ek )) ⊂ V ect(e1 , . . . , ek )
Définition VI.2.
On dit que A ∈ Mn (K) est trigonalisable s’il existe P ∈ GLn (K) tel que P −1 AP soit triangu-
laire supérieure.
22/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
a11 ∗
Remarque : Soit A ∈ Mn (K). Lorsque A est triangulaire supérieure, notons A = .. , on
.
0 ann
a SpecK (A) = [a11 , . . . , ann ]. La preuve de ce résultat est laissée comme exercice au lecteur.
Proposition VI.3.
Preuve : La démonstration est facile est laissée au lecteur (elle est très similaire à celle sur la diagonali-
sabilité).
Proposition VI.4.
Preuve
λ1 ∗
→ (1) ⇒ (2) Si u est trigonalisable donc on dispose de β base de E tel que [u]β = .. et
.
0 λn
alors
X − λ1 ∗ n
χu (X) = det([X Id −u]β ) = det .. =
Y
(X − λi )
.
0 X − λn i=1
23/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
λ Id ∗ P (λ) Id
! !
∗
[u]β = et donc 0 = [P (u)]β =
0 B 0 P (B)
Donc P (B) = 0. B ∈ Ml (K) (avec l ≤ n − 1) est annulé par un polynôme scindé, on peut donc
appliquer l’hypothèse de récurrence et dire que B est trigonalisable. Il existe donc Q ∈ GLl (K)
tel que T := QBQ−1 soit triangulaire supérieure. Finalement,
λ Id ∗ Id 0 λ Id ∗ Id 0 λ Id ∗
! ! ! ! !
[u]β = ≃ =
0 B 0 Q 0 B 0 Q−1 0 T
Applications :
1. Soit u ∈ L(E). Les propriétés suivantes sont équivalentes
→ u est nilpotente.
→ Il existe une base β de E telle que [u]β est strictement triangulaire supérieure.
→ χu = X n
Pour montrer cela, il suffit de remarquer que le seul facteur irréductible de X d est X.
2. Soit A ∈ Mn (C) et P ∈ K[X].
Exercice VI.6.
Supposons que K = C.
1. Trouver toutes les classes de similitudes des matrices suivant les valeurs de µA et χA pour
A ∈ Mn (C) lorsque n = 2 et n = 3.
2. En déduire que pour tout A, B ∈ Mn (C),
→ Pour n = 2, µA = µB ⇐⇒ A ≃ B.
→ Pour n = 3, (µA = µB et χA = χB ) ⇐⇒ A ≃ B.
3. Trouver un contre-exemple des propriétés précédentes dans n = 4.
Exercice VI.7.
Soit S ⊂ Mn (K) un sous-ensemble non vide de matrices trigonalisables qui commutent deux
à deux. Montrer qu’il existe P ∈ GLn (K) telle que pour tout A ∈ S, P AP −1 est triangulaire
supérieure.
24/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
2. Décomposition de Jordan-Dunford
Proposition VI.8.
r
Soit u ∈ L(E). Supposons que χu soit scindé, i.e. qu’on peut écrire µu (X) = (X − λi )γi et
Y
i=1
r
χu (X) = (X − λi ) αi
avec les λi distincts. posons Fλi = Ker(u − λi Id) = Ker(u − λi Id)αi .
Y
γi
i=1
Les propriétés suivantes sont vraies.
1. Fλi est stable par u et est de dimension αi .
r
2. E =
M
F λi
i=1
Fλi
3. u = λi IdFλi +Nλi où Nλi ∈ L(Fλi ) est nilpotent.
Fλi
0
Aλ1 λi ∗
[u]β = .. où Aλi = .. ∈ Mαi (K)
. .
0 A λr 0 λi
Remarquons lorsque χu est scindé que ∀i ∈ J1; rK, Fλi ,u = Eλi ,u si et seulement si u est diagonalisable.
Ceci étant vrai car
Le cas αi = 1 est facile et peut être traité séparément par le lecteur. La dernière équivalence est vraie
d’après l’exercice V.10. et l’avant dernière d’après le lemme V.9.
Rassemblons maintenant tous les blocs diagonaux en une seule matrice D et de même pour ceux nilpotents
(la partie strictement triangulaire supérieure) en N . En considérant δ, ν ∈ L(E) tel que
0 0
λ1 · Iα1 Nλ1
[δ]β = D = .. et [ν]β = N = ..
. .
0 λr · Iαr 0 Nλr
25/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Soit u ∈ L(E) tel que χu soit scindé. Il existe un unique couple d’endomorphismes (δ, ν) ∈
L(E)2 telle que
→ u=δ+ν
→ δ est diagonalisable et ν et nilpotente.
→ δ et ν commutent.
De plus, δ et ν sont polynomiales en u i.e. il existe P, Q ∈ K[X] tels que δ = P (u) et ν = Q(u).
Preuve : L’existence a déjà été établie avant, il reste à montrer le caractère polynomial et l’unicité.
Remarquons d’abord que δ ∈ K[u] ⇐⇒ ν ∈ K[u]. Il suffit donc de le montrer pour δ ou ν, disons δ.
Reprenons les notations de la proposition, ainsi que celles considérées juste avant. Remarquons que
r
δ = λi πi où πi est la projection sur Fλi ,u parallèlement à Fλj ,u et donc il suffit de vérifier que
X M
1 j̸=i
πi ∈ K[u] pour tout i. Par symétrie des rôles des πi , il suffit de le montrer par exemple pour i = 1. Posons
r
P1 = (X − λj )αj , λ = P (λ1 ) ̸= 0, P2 = P1 − λ
Y
j=2
−1
P3 = (P2 )n , P4 = P3 − (−λ)n , P5 = P5
(−λ)n
Pour voir que ces polynômes sont naturels à considérer, il suffit de voir la succession d’égalités ci-dessous.
λ Id +N 0 0
N
0
−λ Id
[P1 (u)]β = donc [P2 (u)]β =
..
..
.
.
0 0 0 −λ Id
et donc
Nn = 0 0 −(−λ)n Id 0
(−λ)n Id
0
[P3 (u)]β = ainsi [P4 (u)]β =
...
...
0 (−λ)n Id 0 0
finalement
Id 0
0
[P5 (u)]β = = [π1 ]β
..
.
0 0
Ce qui nous donne bien le résultat voulu.
Montrons enfin l’unicité. Considérons (δ ′ , ν ′ ) vérifiant les mêmes propriétés que (δ, ν). On a
u = δ + ν = δ ′ + ν ′ i.e. δ − δ ′ = ν − ν ′
ν et ν ′ commutent car ν ∈ K[u] et ν ′ commute avec δ ′ et alors avec δ ′ +ν ′ = u. En posant v = δ−δ ′ = ν−ν ′ ,
on obtient
2n
2n k ′2n−k
!
v =
2n
X
ν ν
k=0 k
26/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
sachant que ∀k ∈ J1; 2nK, soit k ≥ n soit 2n − k ≥ n (on rappelle que l’indice de nilpotence de ν et ν ′
est forcement inférieur à n), tous les termes de cette somme sont nuls. Ainsi, les seules valeurs propres de
v dans C sont 0, mais v est diagonalisable car il est égal à la somme de δ et δ ′ qui sont diagonalisables
et commutent entre eux car δ est dans K[u] et δ ′ commute avec ν ′ et donc avec δ ′ + ν ′ = u et sont donc
codiagonalisables. On en déduit donc directement que v = 0, i.e. (δ, ν) = (δ ′ , ν ′ ), d’où l’unicité de δ et ν.
Exercice VI.10.
1. X 2 = 0 4 0 dans M3 (R).
0 0 9
a2 1
!
2. X =2
dans M2 (C) avec a ∈ C.
0 a2
1 1 0
3. X = 0 1 0 dans M3 (R).
2
0 0 1
Exercice VI.11.
Exercice VI.12.
Soit u ∈ GLn (C). Montrer que u admet une racine, i.e. qu’il existe v ∈ GLn (C), v 2 = u.
01 0
0
Jl1 . . . . . .
...
[v]β = où ∀k ∈ J1; sK, Jk = ∈ Mk (K)
...
1
0
Jls
0 0
avec l1 , . . . , ls ∈ J1; nK et l1 + · · · + ls = n.
Preuve : Soit u ∈ L(E) nilpotent, il est clair qu’il existe p ≥ 1 tel que µu = X p pour un certain p ≥ 1
(en effet, u est annulé par X l pour l assez grand, donc µu |X l ).
Montrons le résultat par récurrence forte sur la dimension n de E.
→ Le cas n = 1 est évident.
→ Soit n ≥ 2 tel que dim E = n. Supposons que le propriété soit vraie pour tout k ∈ J1; nK. Soit
x1 ∈ E \ {0} tel que up−1 (x1 ) ̸= 0. En posant Fx1 = Vect(x1 , . . . , up−1 (x1 )) (remarquons que cette
27/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
famille est libre, c’est donc une base de Fx1 ), on voit que Fx1 est stable et
Fx1
u = Jp
Fx1
Notre intuition est de trouver un supplémentaire de Fx1 stable par u et lui appliquer l’hypothèse
de récurrence. Voici comment nous allons procéder
• La famille (x1 , u(x1 ), . . . , up−1 (x1 )) est libre, on peut donc considérer ϕ : E −→ K une forme
linéaire telle que φ(up−1 (x1 )) = 1 et pour tout k ∈ J0; p − 2K, ϕ(uk (x1 )) = 0.
• À partir de ϕ on construit l’application linéaire suivante
E −→ Kp
φ:
y 7−→ (ϕ(up−1 (y), . . . , ϕ(u(y)), ϕ(y))
et on pose F = Ker φ.
• F est stable par u. En effet, on a pour tout y ∈ E
• φ est surjective. en effet, pour tout k ∈ J0; p − 1K, φ(uk (x1 )) = (δik )i∈J0;p−1K donc pour tout
(a0 , . . . , ap−1 ) ∈ Kp
0
p−1
φ(y) = 0 =⇒ 0 = φ ak uk (x1 ) = (a0 , . . . , ap−1 ) =⇒ y = 0
X
donc F et Fx1 sont en somme directe et par la formule du rang dim F = dim Ker φ = dim E −
dim Im φ = n − p, et alors dim Fx1 + dim F = n = dim E. F et Fx1 sont donc supplémentaires.
F
• Pour finir, on voit que w = u est aussi nilpotente, on peut donc appliquer l’hypothèse de
F
récurrence à w sur F ce qui nous donne bien le résultat voulu.
Remarques :
→ Lorsqu’on ajoute la condition l1 ≥ · · · ≥ ls ≥ 1, cette décomposition est unique, i.e. s’il existe une
autre base β ′ de E, où n est de la même forme avec m1 ≥ · · · ≥ mr ≥ 1 les tailles respectives de
ses blocs (Jk )k∈J1;rK , alors r = s et ∀i ∈ J1; sK, li = mi .
Pour s’en convaincre, notons
∀i ∈ N∗ F (i) = |{k ∈ J1; sK, lk = i}| et G(i) = |{k ∈ J1; rK, mk = i}|
∀r ∈ N∗ ∀k ∈ N dimKer(Jrk ) = min(k, r)
28/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Ainsi, F = G (Il suffit de considérer par absurde le 1-er indice i ∈ N∗ où F (i) ̸= G(i) pour tomber
sur un contradiction) et donc on a notre unicité.
→ Remarquons que le bloc associé au sous espace Fx1 a la plus grande taille des blocs. En effet la taille
du bloc correspond à la dimension de ce sous espace, dim Fx1 = p et la dimension de tout espace
défini de la même manière (en itérant u sur un élément de E) est de dimension au plus p.
Soit u ∈ L(E) tel que χu est scindé dans K. Notons λ1 , . . . , λr les valeurs propres distinctes
(comptées sans multiplicité) de u. Il existe une base β de E telle que
λ1 · Il1i + A1 0 0
Jl1i
[u]β =
...
avec Ai =
...
0 λr · Ilsi + Ar 0 Jlsi
i i
où pour tout i ∈ J1; rK, si ∈ N∗ et l1i ≥ · · · ≥ lsi i ≥ 1. De plus, cette écriture est unique à
permutation des blocs λi Ilsi + Ai près.
i
On appelle cette décomposition réduction de Jordan de u.
Remarque : Certains auteurs n’exigent pas les inégalités sur les tailles des blocs dans la réduction de
Jordan. Cela ne change que la partie unicité de ce théorème.
Exercice VI.15.
Cette partie hors programme est assez classique. En effet, elle revient dans un nombre considérable
d’exercices d’oraux et de sujets d’écrits, voir par exemple Centrale Math 1 2019, où l’intégralité du sujet
portait sur les endomorphismes cycliques. Les élèves (dont ceux des MP* de Louis-le-Grand) ayant vu
cette notion étaient très avantagés par rapport aux autres cette année là.
Soit E un K−espace vectoriel de dimension finie n ≥ 1.
Définition VII.1.
Soit u ∈ L(E) et x ∈ E \ {0}. On appelle espace cyclique engendré par x pour u le sous-espace
vectoriel défini par
Fx,u = Vect{uk (x), k ∈ N}
On le notera aussi Fx lorsqu’il n y a pas d’ambiguïté sur u.
29/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition VII.2.
4. P est le générateur normalisé de Hu,x = {Q ∈ K[X], Q(u)(x) = 0}, i.e. P est l’unique
polynôme unitaire tel que Hu,x = ⟨P ⟩ := P · K[X]. On appellera P le polynôme minimal
(de u) en x et on le notera µx,u ou µx s’il n y a pas d’ambiguïté sur u. De plus, µx,u |µu .
Preuve
1. Clair (il suffit de l’écrire).
2. β est libre par définition. Montrons par récurrence forte que ∀l ∈ N ul (x) ∈ Vect(β).
→ La propriété est évidente pour l ∈ J0; p − 1K.
→ Soit l ≥ 1. Supposons que la propriété soit vraie pour tout k ∈ J0; l−1K. Sil ≤ p, la propriété est
vraie. Supposons donc que l > p. Par définition, (x, . . . , ul (x)) est liée, il existe donc m ∈ J0; lK
et (λ0 , . . . , λm ) ∈ Kn \ {(0, . . . , 0)} tels que
m−1
u (x) =
m
λk uk (x)
X
0 0
| {z }
∈Vect(β)
0
p−1
Fx,u
En Posant P := X p − λk X k , il est aisé de vérifier que u = CP .
X
Fx,u β
k=0
4. Remarquons que le polynôme P retrouvé au point (3) est unitaire, de degré p et annule u en x.
Remarquons de plus que (x, . . . , up−1 (x)) est libre i.e. tout élément Q ∈ Hu,x non nul doit être de
degré supérieur à p. En particulier, si Q est le générateur unitaire de Hu,x (existe car Hu,x est un
idéal non trivial), alors Q|P et Q et P unitaires (non nuls) et deg(P ) = p ≤ deg(Q) d’où P = Q et
donc Hu,x = ⟨P ⟩.
Définition VII.3.
On dit que u est cyclique lorsqu’il existe x ∈ E \ {0} tel que Fx = E i.e. il existe x ∈ E tel que
(x, . . . , un−1 (x)) est libre.
Proposition VII.4.
30/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Preuve : Les trois polynômes sont tous unitaires et µx |µu |χu et donc il suffit de montrer que deg(µx ) ≥=
n, ce qui est vrai car (x, u(x), . . . , un−1 (x)) est libre et donc aucun polynôme de degré n − 1 ou moins ne
peut annuler u.
Fx
Remarquons qu’en prenant u quelconque, x ∈ E \ {0} et en considérant v = u , on obtient que
Fx
µu,x = µv,x = χv et donc, en particulier, deg(µx ) = dim(Fx ).
Exercice VII.5.
Soit u ∈ L(E). On admettra qu’il existe x ∈ E − {0} tel que µx,u = µu (démontré dans un
exercice ultérieur)
1. Montrer que µu = χu si et seulement si u est cyclique.
2. Supposons que u est cyclique. Montrer que Com(u) = K[u] = {P (u), P ∈ K[X]} et en
déduire que dim Com(u) = n.
3. On ne suppose plus que u est cyclique. Déduire de la question précédente que
dim Com(u) ≥ n
4. Montrer que µu = χu si et seulement si Com(u) = K[u].
Exercice VII.6.
Soit u ∈ L(E). Montrer que χu est irréductible si et seulement si les seuls sous-espaces vectoriels
stables par u sont {0} et E.
Au passage remarquer que, dans ce cas, tout élément non nul est cyclique pour u.
Exercice VII.7.
Soit A ∈ Mn (C).
1. Montrer que la dimension de chaque espace propre est égale à 1 si A est semblable à une
matrice compagnon.
2. En déduire que si A est diagonalisable, alors A est cyclique si et seulement si A possède
n valeurs propres distinctes.
Exercice VII.8.
31/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Exercice VII.9.
On suppose que E = Mn (K). Soit ||.|| une norme sur Kn . On peut définir une norme sur E,
appelée norme d’opérateur, par
∥AX∥
|||A||| = sup ||AX|| = sup ∥AX∥ = sup
∥X∥=1 ∥X∥≤1 X∈E\{0} ∥X∥
Proposition VIII.2.
n n
Soit A = (aij )i,j∈J1;nK ∈ Mn (K). On a VP(A) ⊂ |akj |.
[ X
Bf akk ,
k=1 j=1,j̸=k
n n
Preuve : Posons H = |akj |. Soit λ ̸∈ H, alors
[ X
Bf akk ,
k=1 j=1
n
X
∀k ∈ J1; nK, |λ − akk | > |akj |
j=1, j̸=k
32/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
D’après Hadamard (voir le chapitre des systèmes linéaires), ceci est équivalent à dire que la matrice A−λI
est inversible et que donc λ n’est pas une valeur propre de [Link] en déduit donc bien que VP(A) ⊂ H.
Application : En utilisant ce résultat, on peut redémontrer le résultat sur les racines d’un polynôme vu
au chapitre 1. En effet, considérons P ∈ K[X] et soit A = CP . On a bien entendu
k=0
Exercice VIII.3.
Soit F un fermé de C. Montrer que Fe = {A ∈ Mn (C), SpecC (A) ⊂ F } est fermé dans Mn (C).
Application : Mn (R) est fermé dans Mn (C), donc en appliquant le résultat de cet exercice, on a que
{A ∈ Mn (C), SpecC (A) ⊂ R} est fermé dans Mn (C). De plus, on a
On en déduit donc que l’ensemble des matrices de Mn (R) trigonalisables s’écrit sous forme d’une inter-
section de deux fermés, c’est donc un fermé dans Mn (R) et Mn (C).
2. Diagonalisation à ε près
Proposition VIII.4.
Preuve : Soit β = (b1 , . . . , bn ) une base de trigonalisation de A dans Mn (C) i.e. une base telle que
λ1 aij
Aβ = QAQ−1 = ..
.
0 λn
!
b2 bn
avec Q la matrice de la base β. Soit p > 0, posons βp = b1 , , . . . , n . βp est aussi une base de Mn (C).
p p
33/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
1 1
!
avec Vp = Diag 1, , . . . , n−1 . Il suffit ensuite de prendre p assez grand pour qu’on ait pour tout i ̸= j,
p p
|ai,j |
≤ ε.
p
Exercice VIII.5.
Soit A ∈ Mn (C) tel que Spec(A) ⊂ B(0, 1). Montrer que Ap −−−−→ 0.
p→+∞
Exercice VIII.6.
Soit A ∈ Mn (Z) tel que SpecC (A) ⊂ B(0, 1). Montrer que A est nilpotente
Proposition VIII.7.
Preuve
λ1 ∗
Soit β une base de Cn tel que [A]β = P AP −1 =
...
avec P ∈ GLn (K). Considérons alors (Ap )
0 λn
la suite de matrices vérifiant
1
0
p + 1
...
∀p ∈ N, Ap = A + P −1
P
1
0
p+n
On a alors
1
0
p + 1
...
∀p ∈ N, [Ap ]β = [A]β +
1
0
p+n
On remarque que On a SpecC (A) = [λ1 , . . . , λn ]. A partir de là, il y a deux moyens de conclure.
34/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
1 1
!
P (X) = (X + i)(X + j) λi + = ((X + i)(X + j)(λi − λj ) + j − i))
Y Y
− λj −
i̸=j X +i X +j i̸=j
Il est clair que si Ap n’admet pas n valeurs propres distinctes alors P (p) = 0. P n’a qu’un nombre fini de
racines et donc à partir d’un certain rang Ap admet toujours n valeurs propres distinctes. Finalement
1
0
p + 1
..
Ap = A + P −1
.
P −−−−→ A
p→+∞
1
0
p+n
| {z }
−−−−→0
p→+∞
1 1
→ λi = λj et donc 0 = |λi − λj | = − ̸= 0 ce qui est absurde.
i+k j+k
1 1 |i − j|
→ λi ̸= λj et donc δ < |λi − λj | = − = ≤ 1
< δ ce qui est absurde.
i+k j+k (k + i)(k + j) k
En en déduit donc que pour tout p ≥ k, Ap admet n valeurs propres distinctes, et Ap −−−−→ A, d’où le
p→+∞
résultat voulu.
Conséquence : D’après la question 1 de l’exercice VII.4, pour tout u ∈ L(E), χu = µu implique que u
est cyclique. Or si u admet n valeurs propres deux à deux différentes, χu = µu et donc u est cyclique.
L’ensemble des endomorphismes ayant n valeurs propres deux à deux différentes (qui est dense) est inclus
dans l’ensemble des endomorphismes cycliques. On en déduit donc que l’ensemble des les endomorphismes
cycliques est dense dans Mn (C).
Application : On peut utiliser ce résultat pour redémontrer le théorème de Cayley-Hamilton.
Soit A ∈ Mn (C) et (Ap ) une suite de matrices dont chacune possède n valeurs propres distinctes (et
donc, a fortiori, est diagonalisable) tel que Ap −−−−→ A.
p→+∞
Lorsque D ∈ Mn (C) est diagonale, il est aisé d’établir que χD (D) = 0. Idem pour le cas où D est
diagonalisable. Ainsi, par continuité de (A, B) 7−→ χA (B) (l’image de (A, B) est une matrice dont les
coordonnées sont produit et somme des coefficients de A et B)
h : A 7−→ det(χ′A (A)) est continue et K∗ est ouvert, donc Ω = h−1 (K∗ ) est ouvert.
35/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Exercice VIII.8.
Remarque : Cette propriété est aussi équivalente au fait que la composante nilpotente dans la décompo-
sition de Dunford associée à l’espace caractéristique de λ est nulle (i.e. u est simplement une homothétie
sur cet espace).
Exercice VIII.10.
Soit λ une valeur propre de A ∈ Mn (C) et ∥.∥ une norme sur Cn . Montrer que si |λ| = |||A|||,
avec |||.||| la norme d’opérateur associée à ∥.∥, alors λ est pure.
Application : Si u ∈ Mn (C) est une isométrie pour ∥.∥ alors u est diagonalisable. En effet, ∀λ ∈
SpecC (u), |λ| = |||u||| = 1 et donc Eλ,u = Fλ,u .
36/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Ce qui ne peut pas être vrai pour tout λ ∈ C car uv −1 admet une valeur propre dans C.
d’où le résultat.
37/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
On a alors (λi Ai,j )i,j∈J1;sK = (λj Ai,j )i,j∈J1;sK , i.e. pour tout i ̸= j,
λi Ai,j = λj Ai,j
ce qui implique que Ai,j = 0 car les λi sont deux à deux distincts. v s’écrit donc bien dans la base
β sous la forme
0
A1,1
v=
...
0 As,s
→ Réciproquement, si on suppose que v s’écrit comme ci-dessus, alors
0
λ1 A 1
[v ◦ u]β = [v]β × [u]β = .. = [u]β × [v]β = [u ◦ v]β
.
0 λs As
donc v ∈ Com(u).
Méthode 2 :
→ Notons S l’ensemble de droite. Il est alors clair que S ⊂ Com(u) (pour s’en convaincre, voir le
dernier point de la méthode 1).
→ Réciproquement, soit v ∈ Com(u). Pour tout i ∈ J1; sK, Eλi ,u est stable par v. La proposition I.5
nous permet d’affirmer que dans la base β, v s’écrit bien de la manière voulue.
Une autre solution de l’exercice III.5 consiste à utiliser ce résultat pour s = n et li = 1 pour tout i ∈ J1; sK.
s
Remarque : une conséquence de ce résultat est que dim(Com(u)) = li2 ≥ n avec égalité si et seulement
X
i=1
si n = s et pour tout i ∈ J1; sK, li = 1. L’inégalité dimC (Com(u)) ≥ n est en fait toujours vraie même
sans diagonalisabilité lorsque u ∈ L(Cn ). On le prouvera dans un exercice ultérieur.
38/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
i=2
Considérons les deux ensembles
Eλ1 ,u F
S1 = v , v∈S et S2 = v , v ∈ S
Eλ1 ,u F
On peut appliquer l’hypothèse de récurrencé à Eλ1 ,u pour S1 et à F pour S2 . Il existe une base
β1 (resp. β2 ) de Eλ1 ,u (resp. F ) dans laquelle les matrices de tous les éléments de S1 (resp. S2 )
sont diagonales. On en déduit donc que les matrices de tous les éléments de S dans la base
β = (β1 , β2 ) sont diagonales, ce qui est bien le résultat recherché.
2m = |S ′ | = |[S ′ ]β | ≤ 2n
i.e. m ≤ n.
i=1
s s
P (X 2 ) = (X 2 − λi ) = (X − αi )(X + αi )
Y Y
i=1 i=1
39/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
i=2
i=2
s
= Ker u ⊕ (Ker(u − αi Id) ⊕ Ker(u + α1 Id))
M
i=2
On en déduit que E est somme directe d’espaces propres de u, i.e. u est diagonalisable.
On en déduit que pour tout i ∈ J1; nK, Vect Bi est stable par ϕA . Il existe donc des matrices B1 , . . . , Bn ∈
Mn (C) telles que
0
B1
[ϕA ]B =
...
0 Bn
Soit k ∈ J1; nK. Pour tout i, j ∈ J1; nK, le coefficient de position i, j de Bk est égal à le coefficient de Ek,i
dans la décomposition de ϕA (Ek,j ) dans la base Bk , qui est égal à aj,i . On en déduit donc que pour tout
k ∈ J1; nK, Bk = AT et alors
XIn − AT 0
..
n
χϕA (X) = det(XIn2 − [ϕA ]B ) = det . = det XIn − AT = χA (X)n
0 XIn − AT
rg(D − λ Id)2 est égal au nombre de coefficients diagonaux non nuls dans (D − λ Id)2 . Ce nombre
est le même que le nombre de coefficients non nuls dans la matrice diagonale D − λ Id (les deux
matrices sont diagonales). On a alors
40/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Soit λ ∈ VP(A). On a Ker(A − λ Id) ⊂ Ker(A − λ Id)2 , et ces deux sous espaces sont de même
dimension, donc Ker(A − λ Id) = Ker(A − λ Id)2 . nous allons montrer que pour tout k ∈ N∗ ,
Ker(A − λ Id) = Ker(A − λ Id)k . Soit k ≥ 2 et X ∈ Kn , on a
On en déduit donc que Ker(A − λ Id)k ⊂ Ker(A − λ Id), i.e. Ker(A − λ Id)k = Ker(A − λ Id).
Remarquons que ce raisonnement peut aussi être fait par récurrence.
χA est scindé, on peut donc écrire
s
χA (X) = (X − λi )αi
Y
i=1
i=1 i=1
Kn est donc somme directe des espaces propres de A i.e. A est diagonalisable.
i.e.
0
λ1 . . . λs n1
0
2 2
λ1 . . . λs n2
.. = ..
. ..
. ..
. . . . .
λs1 . . . λss ns 0
41/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
λ1 . . . λs
2 2
λ1 . . . λs
En posant M = .. . . . , on voit que
. ..
.
s s
λ1 . . . λs
1 1
...
λ1 ... λs
det M = λ1 . . . λs det .. .. = λ1 . . . λs det V (λ1 , . . . , λs )T
...
. .
λs−1
1 . . . λs−1
s
= λ1 . . . λs (λi − λj ) ̸= 0
Y
i,j∈J1;nK, i̸=j
i=0
m
Tr(P (u)) = ai Tr(ui ) = a0 Tr(Id) = nP (0)
X
i=0
→ (3) ⇒ (2) Supposons que (3) est vérifiée, on a alors pour tout k ∈ N∗ , en posant P (X) = X k ,
λ 1 λ 0
(* !+ ) (* !+ )
C2 = , λ∈K ∪ , λ, δ ∈ K
0 λ 0 δ
→ Pour n = 3
42/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
B 0
!
Il existe donc une base où A ≃ où B ∈ M2 (K) est la matrice de la corestriction
0 δ
de A à Ker(A − δ Id)2 . On a µB (X) = (X − λ)2 , donc d’après la discussion pour n = 2,
λ 1 0
λ 1
!
B≃ et finalement A ≃ 0 λ 0
0 λ
0 0 δ
0 1 a
[N ]β = 0 0 b
0 0 c
0 1 0 λ 1 0
[N ]β ′ = 0 0 0 et donc finalement A ≃ 0 λ 0
0 0 0 0 0 λ
0 1 0 λ 1 0
[N ]β = 0 0 1 et donc finalement A ≃ 0 λ 1
0 0 0 0 0 λ
0 0 + * λ 1 0 + * λ 1 0 +
* λ1
C3 = 0 λ2 0 , λ1 , λ2 , λ3 ∈ K ∪ 0 λ 0 , λ, δ ∈ K ∪ 0 λ 1 , λ ∈
K
0 0 λ3 0 0 δ 0 0 λ
43/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
0 1 0 0 0 1 0 0
0 0 0 0 0 0 0 0
A= et B =
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
S1 = {Av , v ∈ S} et S2 = {Cs , v ∈ S}
1. X = 0 4 0 dans M3 (R)
2
0 0 9
Soit X une solution de l’équation. X 2 et X commutent, donc X laisse stable les espaces propres de
X 2 , i.e. X laisse stable Vect(e1 ), Vect(e2 ), Vect(e3 ) avec (e1 , e2 , e3 ) la base canonique de R3 . On en
déduit donc que X est diagonale, i.e. il existe α, β, γ ∈ R tels que
α 0 0
X = 0 β 0
0 0 γ
44/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
0 0 γ
a2 1
!
2. X 2 = dans M2 (C) avec a ∈ C
0 a2
Soit X une solution de l’équation. Vect(e1 ) est un espace propre de X 2 . De plus X et X 2 commutent,
donc X laisse stable Vect(e1 ). Il existe donc α, β, γ ∈ C tels que
!
α β
X=
0 γ
On a alors
α2 αβ + γβ a2 1
! !
= X2 =
0 γ 2
0 a2
En utilisant cette inégalité, on voit que a ̸= 0, car sinon
nα = γ =
β= 0 et alors X
o= 0. En elevant les
cas où l’égalité est fausse, on obtient que (α, β, γ) ∈ a, 2a , a , −a, − 2a , −a . Réciproquement,
1 1
en réinjectant ces deux matrices possibles dans l’équation, on voit que elles sont bien solutions. On
en déduit que l’ensemble des solutions est bien
−a −1
( ! !)
1
a
S= 2a , 2a
0 a 0 −a
1 1 0
3. X = 0 1 0
2
dans M3 (R)
0 0 1
Soit X une solution de l’équation. Posons β = (e3 , e1 , e2 ) une permutation de la base canonique et
regardons la matrice X dans cette base. Posons Y = [X]β . On a
1 0 0
Y = 0 1 1
2
0 0 1
Y commute avec Y 2 et laisse donc ses espaces propres stables, donc Y laisse stable Vect (1, 0, 0)T , (0, 1, 0)T
Il existe donc x, y, z, t, c, d, e ∈ R tels que
x y c
Y =
z t d
0 0 e
!
x y
En posant A = , on voit que A2 = I, donc A est inversible. On a alors
z t
1 0 0
!
c
A
2
(A + eI) ×
= Y = 0 1 1
2
d
0 e2 0 0 1
Donc
0
! !
c
A =I
2
(A + eI) × = e2 = 1
d 1
La suite de l’exercice est laissée au lecteur : il suffit d’évaluer les différents cas possible pour trouver
45/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
On en déduit donc que (vi,j )i,j∈J1;nK est une base de vecteurs propres de ϕu , donc ϕu est diagonalisable.
→ (⇐) Supposons que ϕu est diagonalisable. Utilisons la décomposition de Dunford. Sois δ, ν ∈ L(E)
tels que δ est diagonalisable, ν est nilpotent et u = δ + ν. δ et ν commutent, donc il est facile de
vérifier que ϕδ et ϕν aussi. De plus, d’après le point précédent, ϕδ est diagonalisable et pour tout
p ∈ N et v ∈ L(E),
p !
p
ϕν (v) =
p
(−1)p−k ν k ◦ v ◦ ν p−k
X
k=0 k
Donc ϕν est nilpotent. ϕu est diagonalisable, donc par unicité de la décomposition de Dunford,
ϕν = 0, i.e. ν = 0 et donc u est diagonalisable.
On a alors
Pn (x)2 = 1 + x + o(xn )
| {z }
Q(x)
où Q est un polynôme de terme de plus petit degré égal à au moins n. On peut donc écrire Q(X) =
X n R(X) avec R ∈ K[X]. On a alors, si αi est une racine de λi , alors
1 1 1
2
αi P n νi = λi Id +νi + νin R νi = λi Id +νi
λi λn−1
i λi
et donc αi Pn 1
ν
λi i
est une racine de λi Id +νi , d’où le résultat voulu.
46/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Soit A ∈ Mn (C). En utilisant la décomposition de Jordan, on sait qu’il existe une base β, λ1 , . . . , λr ∈ C
non nécessairement distincts et s1 , . . . , sr ∈ J1; nK tels que s1 + · · · + sr = n et
λ1 · Is1 + Js1 0
[A]β =
...
0 λr · Isi + Jsi
Pour tout i ∈ J1; rK, on considère l’application linéaire injective ϕi : Msi (C) −→ Mn (C) définie par
0Ms1 (C)
..
.
0
0Msi−1 (C)
∀B ∈ Msi (C), ϕi (B) = B
0Msi+1 (C)
...
0
0Msr (C)
On a alors r r
Com(A) ≈ Com([A]β ) ⊃ ϕi (Com(λi Isi + Jsi )) = ϕi (Com(Jsi ))
M M
i=1 i=1
Il suffit de montrer que pour tout s ∈ J1; nK, dim Com(Js ) ≥ s car une fois cela fait, on aurait
r
dim Com(A) = dim Com([A]β ) ≥ dim Com(Jsi ) ≥ s1 + · · · + sr = n
X
i=1
donc l’indice de nilpotence de Js est égal à s, i.e. µJs (X) = X s . En utilisant ce résultat, il est aisé de
montrer que dim K[Js ] = s ((I, Js , . . . , Jss−1 ) est une base de cet espace). Enfin, puisque K[Js ] ⊂ Com(Js ),
on a
dim Com(Js ) ≥ dim K[Js ] = s
d’où le résultat voulu.
47/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
→ (⊃) Cette inclusion est évidente car tout polynôme en u commute avec u.
→ (⊂) Soit v ∈ Com(u) et x0 tel que β = (x0 , u(x0 ), . . . , un−1 (x0 )) est une base de E. Ecrivons
la décomposition de v(x0 ) dans la base β
k=0
w est nul sur la base β, donc w = 0 et donc v ∈ K[u] et alors Com(u) = K[u]. De plus,
(Id, u, . . . , un−1 ) est une base de K[u] (pour le montrer, il suffit d’effectuer la division euclidienne
de tout polynôme de K[X] en u par µu ) et donc
La dernière inégalité est vraie d’après la question précédente. On a de plus µu |χu et ces deux
polynômes sont unitaires de même degré, donc χu = µu .
→ (⇒) Supposons que χu n’est pas irréductible. Soit P un terme irrédutible de la décomposition en
facteurs irréductibles de χu tel que deg P ∈ J1; n − 1K. D’après le corollaire V.8, on sait que P |µu .
Soit x ∈ Ker P \ {0} ≠ ∅. Fx,u est stable par u et
L’inégalité (∗) est vraie d’après la proposition VII.4. Fx,u est donc un sous-espace vectoriel de E
non trivial stable par u.
F
→ (⇐) Soit F un sous-espace vectoriel de E non trivial stable par u et posons v = u . On a alors
F
χv |χu et deg χv ∈ J1; n − 1K.
48/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
0
−a0
1 . . . ..
.
[A]β = ..
... ..
. .
1 −an−1
0
−λ
..
1 .
B=
..
. −λ
Les colonnes de B sont libres, donc rg(A − λ Id) ≥ n − 1, i.e. par la formule du rang dim Ker(A −
λ Id) ≤ 1. En particulier, lorsque λ est une valeur propre de A, dim Ker(A − λ Id) = 1.
2. Procédons par double implication. Soit A ∈ Mn (C) diagonalisable.
→ (⇒) Si A est cyclique, alors A est semblable à une matrice compagnon et donc d’après la
question précédente, tous les espaces propres de A sont de dimension 1, i.e. toutes les valeurs
propres de A sont de multiplicité 1, il y en a donc n.
→ (⇐) Supposons que A admet n valeurs propres deux à deux distinctes. Soit β = (e1 , . . . , en )
une base de diagonalisation de A. Il existe λ1 , . . . , λn ∈ C deux à deux distincts tels que
λ1
[A]β =
...
λn
On a alors
1 λ1 . . . λn−1
1
. .
(x, u(x), . . . , u (x)) = .. .. . .. ..
h i
n−1
β
.
1 λn . . . λn−1
n
Cette matrice est une matrice de Vandermonde associée aux λ1 , . . . , λn qui sont deux à deux
distincts, elle est donc inversible. La famille (x, u(x), . . . , un−1 (x)) est donc libre et alors c’est
une base de Kn . Finalement, A est cyclique i.e. semblable à une matrice compagnon.
49/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
λk1 , . . . , λkn sont exactement les racines (avec multiplicité) de χCPk . De plus CP ∈ Mn (Z), donc
CPk ∈ Mn (Z) et alors χCPk ∈ Z[X] car k ≥ 1. On a alors χCPk ∈ Zn [X] et est unitaire. Le polynôme
χCPk convient donc.
2. Supposons que |λ1 | = · · · = |λn | = 1 et posons pour tout k ≥ 1,
n n−1
Pk = (X − λki ) = X n + ak,i X k ∈ Z[X]
Y X
1 i=0
(existe d’après la question précédente). On veut montrer que les coefficients des polynômes Pk sont
uniformément bornés. Deux méthodes sont possibles.
→ Méthode 1 (Topologie) : On pour tout k ∈ N∗ ,
n n n
∀x ∈ [0, 1], |Pk (x)| = x − λki ≤ |x| + |λi |k ≤ (1 + 1) = 2n
Y Y Y
ainsi que
Rn [X] −→ R+
∥.∥∞,coef : n
7−→ sup |ak | lorsque P (X) = ak X k
X
P
k∈J0;nK k=0
Rn [X] est de dimension finie, donc toutes les normes y sont équivalentes (voir chapitre sur
l’équivalence des normes). Il existe donc une constante C > 0 telle que
∀P ∈ Rn [X], ∥P ∥∞,coef ≤ C ∥P ∥∞
Nous ne démontrerons pas ce lemme, mais nous encourageons le lecteur à aller regarder la
50/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
preuve de ce lemme qui peut être quelques fois assez utile. Appliquons ce lemme, on a pour
tout k ∈ N et l ∈ J1; nK
l
|ak,n−l | =
X Y
λij
1≤i1 <i2 <···<il ≤n j=1
X l
Y
≤ λij
1≤i1 <i2 <···<il ≤n j=1
!
n
= 1=
X
Ceci nous permet donc d’affirmer que pour tout i ∈ J0; nK les coefficients |ak,i | sont bornés par
une constante indépendante de k.
On a donc pour tout i ∈ J0; n − 1K, l’ensemble {ak,i , k ∈ N∗ } est une partie bornée de Z, elle
est donc finie. L’ensemble {Pk , k ∈ N} est alors fini, ce qui implique que pour tout i ∈ J1; nK,
l’ensemble {λki , k ∈ N } est fini. On en déduit que pour tout i ∈ J1; nK, il existe k, l ∈ N différents
(on suppose sans perte de généralité que k < l) tels que λki = λli , i.e. λk−l
i = 1 et enfin pour tout
i ∈ J1; nK, λi est une racine de l’unité.
µy · y = 0 ⇐⇒ µy · (Q · x) = 0 ⇐⇒ (µy Q) · x = 0
⇐⇒ µx |µy Q ⇐⇒ P Q|µy Q ⇐⇒ P |µy
Mais µy ∧µx = 1, donc d’après Gauß, µy |µx+y . Par le même raisonnement, on peut montrer également
que µx |µx+y . Encore une fois, puisque µy ∧ µx = 1, on a µx µy |µx+y . On en déduit donc que µx µy =
µx+y . µx µy et µx+y sont unitaires ce qui nous permet d’affirmer que µx µy = µx+y .
3. Posons µx = P1α1 . . . Prαr et µy = P1β1 . . . Prβr . Posons également
α
i si αi ≥ βi i
β si βi > αi
αi′ = et βi′ =
0 sinon 0 sinon
α′ ′ β′ ′
Px = P1 1 . . . Prαr et Qy = P1 1 . . . Prβr
µx µy
Posons également x′ = x et y ′ = y. D’après la question 1, on sait que µx′ = Px et µy′ = Qy .
Px Qy
De plus, on a Px ∧ Qy = 1, donc d’après la question précédente,
µx′ +y′ = Px Qy = µx ∨ µy
µa · x = x1 µa · e1 + · · · + xn µa · en = 0
51/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Donc µx |µa . On en déduit que µa (u) = 0 i.e. µu |µa et de plus µu · a = 0 donc µa |µu et ces deux
polynômes sont unitaires, donc µa = µu .
i=1
et donc z ̸∈ SpecC (A), i.e. SpecC (A) ⊂ F . On a donc bien que A ∈ Fe , i.e. Fe est fermé.
et ∀i, j ∈ J1; nK tels que j > i, |bi,j | < ε. Munissons Cn de la norme ∥.∥1 , dont on rappelle la définition
Cn −→ R+
∥.∥1 :
(x1 , . . . , xn )T 7−→ |x1 | + · · · + |xn |
Avec C = sup ∥Bei ∥. On a donc, en considérant |||.||| la norme d’opérateur associée à ∥.∥1 que
i∈J1;nK
n
|||B||| ≤ C = sup ∥Bei ∥1 = sup λi + bij ≤ sup |λi | + (n − 1)ε
X
i∈J1;nK i∈J1;nK j=i+1 i∈J1;nK
On choisit donc ε tel que supi∈J1;nK |λi | + (n − 1)ε < 1. Ceci nous permet d’avoir |||B||| < 1 et donc
|||Ap ||| = |||P B p P −1 ||| ≤ |||P ||| × |||B p ||| × |||P −1 |||
≤ |||P ||| × |||P −1 ||| × |||B|||p −−−−→ 0
p→+∞
52/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Pour tout p ∈ N, Ap ∈ Mn (Z), donc ∥Ap ∥ ∈ Z. De plus, SpecC (A) ⊂ B(0, 1), donc d’après l’exercice
précédent et par équivalence des normes en dimension finie, Ap −−−−→ 0. (∥A∥p )p∈N est une suite à valeurs
p→+∞
dans Z qui converge vers 0, elle est donc stationnaire en 0. On en déduit donc que il existe r ∈ N tel que
pour tout p ≥ r, ∥A∥p = 0 i.e. Ap = 0. A est alors bien nilpotente.
0
λ1
Pk−1 APk −−−−→
...
p→+∞
0 λn
S est fermé, donc cette matrice appartient à S. On en déduit donc que A est semblable à une
matrice diagonale, i.e. A est diagonalisable.
→ (⇒) Supposons que A soit diagonalisable. Montrons que S̄ = S. Soit B ∈ S̄. On veut montrer que
B ∈ S. L’application
M (C) −→ C [X]
n n
ϕ:
M 7−→ χM
est continue, car pour tout M ∈ Mn (C), les coefficients de ϕ(M ) dans Cn [X] sont polynomiaux en
les coeffcients de M dans Mn (C). De plus, ϕ est constante sur S égale à χA , elle est donc constante
aussi sur S̄ égale à χA par continuité. Ceci nous permet de dire que χA = χB et que A et B ont les
mêmes valeurs propres et même multiplicité.
n (C) −→ Mn (C)
M
ψ:
M 7−→ µA (M )
est continue car polynômiale et constante sur S égale à 0, donc par continuité elle est aussi égale
à 0 sur l’adhérence de S et alors µA (B) = 0. A est diagonalisable, donc µA est scindé à racines
simples et alors B est diagonalisable. D’après ce qui précéde, A et B ont même valeurs propres et
même multiplicités, donc A et B sont semblables diagonalisables et finalement B ∈ S.
53/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
a alors
∀p ∈ N∗ , |||Ap ||| ≤ |||A|||p = 1
F
Soit F = Ker(A − λI)αA (λ) . En posant u : X 7−→ AX et v = u , on sait que il existe N nilpotente
F
telle que v = λI + N . On veut montrer donc que N = 0.
Idée : On sait que pour tout p ∈ N∗ , |||v p ||| ≤ |||Ap ||| ≤ 1, donc v p est borné. On va donc montrer
que si N ̸= 0, alors v p est non bornée.
Supposons que N ̸= 0. Soit m > 1 l’indice de nilpotence de N . Il existe donc X ∈ Cn tel que
N m−1 X ̸= 0. Posons Y = N m−2 X. On a alors N Y ̸= 0 et N 2 Y = 0. On a alors pour tout p ∈ N∗
p !
p k n−k
v Y = (λI + N ) Y =
p p
Y = λp Y + pλp−1 N Y
X
λ N
k=0 k
pλp−1 N Y = p ∥N Y ∥ −−−−→ +∞
p→+∞
donc v p est non bornée, ce qui est absurde. On en déduit donc que N = 0 et alors Ker(A−λI)αA (λ) =
Ker(A − λI) i.e. λ est pure.
* *
*
54/54
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
chapitre 28
Réduction d’endomorphisme, compléments
Notations
1. Résultats généraux
Tout d’abord quelques résultats assez basiques mais qu’il faut garder en tête
1/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition I.1.
Soit P ∈ K[X]
1. Si P est non constant alors P |µu =⇒ Ker(P (u)) ̸= {0}
2. Ker(P (u)) = Ker((P ∧ µu )(u)). En particulier P (u) est inversible si et
seulement si P ∧ µu = 1.
3. L’ensemble S = {Ker Q(u), Q ∈ K[X]} est en bijection avec l’ensemble
des diviseurs normalisés de µu div(µu ) = {Q ∈ K[X], (Q unitaire ou
Q = 1) et Q|µu }. En particulier, l’application
−→ div(µu )
S
ϕ:
7 → Ker Q(u)
Q −
est bijective.
Ker P (u)
4. Supposons P ∧ µu ̸= 1 et posons v = u Ker P (u) . On a µv = P ∧ µu et donc,
en particulier, la partie nilpotante dans l’espace caractéristique associé à
λ et d’indice de nilpotence égal à γi = vX−λ (µu ).
Preuve :
1. Ecrivons µu = P Q avec Q ̸= 0 vérifiant deg Q < deg µu . Si Ker(P (u)) = {0}
alors étant donné que E est de dimension finie, on a P (u) ∈ GL(E) et donc on a
l’implication
0 = µ(u) = P (u) ◦ Q(u) =⇒ Q(u) = 0
Ce qui absurde par minimalité de µu .
2. ⊃ : Clair
⊂ : Par Bezout on dispose de U, V ∈ K[X] tel que P U + µu V = P ∧ µu . Prenons
x ∈ Ker(P (u)), alors
Le second résultat s’en déduit directement de ce qui précède couplé au fait qu’en
dimension finie un endomorphisme est injectif si et seulement s’il est inversible.
3. Posons
divµu
−→ S
ϕ:
Q 7−→ Ker(Q(u))
2/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
ϕ est bien définie et est surjective par (2). L’injection peut être faite soit à la main,
soit en exhibant un inverse. On prendra la seconde option pour changer un peu :
Posons
−→ div(µu )
S
φ:
F 7−→ ∨ µx,u
x∈F
• D’abord, c’est bien défini vu que chaque µx,u divise µu
• Montrons que φ ◦ ϕ = iddiv(µu ) (ce qui permettrait d’affirmer que ϕ est injective
et, par finitude des cardinalités, que φ = ϕ−1 )
• ∀Q ∈ div(µu ) φ ◦ ϕ(Q)|Q : En effet, chaque element x ∈ ϕ(Q) vérifie
Q(u)(x) et donc µx,u |Q d’où φ ◦ ϕ(Q)|Q
• Prenons Q ∈ div(µu ) \ {1} (Q = 1 est trivial). On a alors
s
Q= Piβi
Y
i=1
et donc on peut prendre x ∈ Ker(Piβi (u)) \ Ker(Piβi −1 (u)). Il est alors clair
que x ∈ ϕ(Q) et que µx,u = Piβi . En particulier, µx,u = Pi βi |φ ◦ ϕ(Q) et
donc finalement, i étant arbitraire, Q|φ ◦ ϕ(Q)
On conclue en se rappelant que Q et φ ◦ ϕ(Q) sont unitaires
Finalement, la compatibilité avec la division/inclusion provient aisement de la
forme de ϕ et φ
4. Par ce qui précède on peut supposer P unitaire avec P |µu . Ecrivons alors
s
P = Piβi
Y
i=1
µx,v = Piβi
3/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Remarquer au passage que la remarque sur l’indice des nilpotants dans la décom-
position spéctrale est aisement faisable sans.
En effet, prenons
s s
u ∈ (E), µu = (X − λi )γi χu = (X − λi )αi
Y Y
i=1 i=1
i=1
aux espaces caractéristiques) et donc µu |P i.e. ∀i γi ≤ ni
2. Jordan-Dunford multiplicatif
Parfois il est plus intéréssant de travailler avec une réduction de Jordan-Dunford mul-
tiplicative au lieu d’additive, nous la présontons donc ici :
Proposition I.2.
Soit E un K-ev de dimension finie n ≥ 1 et f ∈ GL(E). Si χf est scindé alors
il existe un unique couple (d, u) ∈ L(E)2 tel que :
1. d est diagonalisable
2. u est unipotent i.e. il existe m ≥ 1 tel que (u − id)m = 0
3. f = u ◦ d = d ◦ u
De plus, ce couple vérifie (d, u) ∈ GL(E)2 et qu’il existe (Pd , Pu ) ∈ C[X]2 tel
que d = Pd (f ) et u = Pu (f )
Preuve :
• Existence : Prenons λ1 . . . , λs les valeurs propres distinctes de f (forcément non
nulles) et ∀i ∈ J1; sK πi la projection sur Fλi parallélèment à Fλj . On pose
M
j̸=i
s
d= λi πi ∈ GL(E) et u = d−1 ◦ f
X
i=1
Prenons une base β = (β1 , . . . , βs ) où βi est une base de Fλi et qui rend [f ]β
triangulaire supérieure
1. d est clairement inversible et diagonalisable, il suffit de l’écrire dans β
2. u est unipotent, il suffit de remarquer que [u]β est triangulaire supérieure avec
des coefficients diagonaux tous égaux à 1
3. u et d commutent et f = d ◦ u = u ◦ d
4/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Exemple : Pour le dernier point, penser à une matrice A de rotation d’angle π/2,
dont la décompositon de Jordan-Dunford additive est A = A + 0 (resp. multiplicative
A = A · I2 )
A n’est pas diagonalisable dans R par exemple
5/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
5. Réduction de Frobenius :
Proposition I.5.
Soit u ∈ L(E). Il existe une base β de E tel que
0
C
P1
[u]β =
...
0 CP r
et Pr | . . . |P1 . De plus, toute écriture sous cette forme est unique i.e. si dans β ′
u a cette forme avec Qs | . . . |Q1 alors r = s et ∀i Qi = Pi .
On appelle cette réduction la réduction de Frobenius de u et les Pi sont appellés
invariants de similitude de u.
• Existence : Par récurence, prenons x ∈ E \ {0} tel que µx,u = µu . Afin d’appliquer
l’hypothèse de récurrence, il suffit de trouver un supplémentaire F de Fx stable par
u.
Une preuve exactement similaire à celle déja faite pour la réduction de Jordan des
nilpotent fournit ce supplémentaire.
• Unicité : Prenons une autre suite (Q1 , . . . , Qs ) vérifiant les mêmes hypothèses et
considérons, par absurde, i0 le plus petit indice tel que Pi ̸= Qi (par somme des
degrés et unitarité, il existe, même si s ̸= r)
Notons d’abord que i0 ≥ 2 vu que forcément µu = P1 = Q1 et posons P := Pi0 . On
6/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
a alors
P (CP1 )
...
P (CPi0 −1 )
[u]βP =
0
...
0
P (CP1 )
...
P (CPi0 −1 )
et [u]βQ =
P (CQi0 )
...
P (CQs )
et donc
rg(P (CQi0 )) = · · · = rg(P (CQs )) = 0
En particulier
Qi0 = µCQi |P = Pi0
0
Proposition I.6.
Soit P ∈ K[X], la suite
7/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
uk = dim(Ker(v) ∩ Im(v k ))
Ce dernier, étant clairement décroissant vu que Im(v k ) ⊃ Im(v k+1 ), on obtient le résul-
tat.
Remarquons qu’on pouvait utiliser les images au lieu des noyaux pour définir f , ce qui
aurait donné une démonstration similaire mais légèrement moins calculatoire.
Pour montrer son utilité, une application directe de ce théorème est que
Ce lemme est très important car permet d’avoir une vision nettement plus clair sur le
comportement des endomorphismes
En effet, pour X − λ où λ ∈ SpecC (u), le nombre uk n’est en faite que le nombre de
blocs de Jordans dans Fλ,u de taille ≥ k + 1 si k ≥ 0. En particulier, pour k = 0, on
obtient que c’est la dimension de l’espace propre associé à λ.
Ainsi, puisque la réduction de Jordan dans K lorsque elle existe définit la classe de
similitude d’une matrice, on obtient donc le corollaire suivant :
Proposition I.7.
Soit A, B ∈ Mn (K) avec χA ou χB scindés. Alors
Preuve :
La preuve a déja été établie, le seul point à vérifier est qu’on peut effectivement réduire en
Jordan les deux matrices sous chacune des deux propositions formant notre équivalence.
Disons aussi sans perte de généralité que χA est scindé.
• Si A ≃K B : Alors χB = χA est scindé
• Si ∀P ∈ K[X] dim(Ker(P (A))) = dim(Ker(P (B))) : Alors en l’appliquant à χA on
trouve que
dim(Ker(χA (B)) = dim(Ker(χA (A))) = n
C.H.
et donc µB |χA . En particulier µB est scindé et donc χB aussi
8/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Preuve :
Le cas ρ(A) = 0 étant trivial (nilopotant), on peut supposer, après division par un
λ ∈ SpecC (A) tel que |λ| = ρ(A), que ρ(A) = 1 et que 1 ∈ SpecC (A).
Ceci fournit alors l’inégalité
1 ≤ ||Ap ||1/p
Pour l’autre inégalité, on peut :
• Le faire à la main : il suffit de remarquer que ||Ap || est majorée par un polynome
en p
Plus explicitement, considérons B = P AP −1 une réduction de Jordan de A et
considérons la norme N : M 7→ ||P M P −1 ||1 . Alors, il suffit de montrer que la
norme donnée par N des puissances d’un bloc de Jordan (de taille r ≤ n) auquel
on a ajouté l’identité sur son espace est majorée par un polynome en p (les calculs
sont laissés au lecteur)
L’équivalence des normes permet de conclure vu qu’une constante tend vers 1
lorsque mise à la puissance 1/p.
• Utiliser un exercice précèdent : Soit 1 > ε > 0. On sait que SpecC ((1 − ε)A) ⊂
B(0, 1) et donc ||((1 − ε)A)p || → 0. En particulier, à partir d’un certain rang
1 1
1 ≤ ||Ap || ≤ i.e. 1 ≤ ||Ap 1/p
|| ≤
(1 − ε)p 1−ε
ε étant arbitraire, on a le résultat
9/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
II Changement corps
Motivation : Parfois on veut diagonaliser/trigonaliser/réduire en Jordan . . . un en-
domorphisme ou une matrice mais notre corps ne nous le permet pas. Ainsi, il est
interessant de savoir jongler entre ces derniers pour utiliser tous nos outils au maxi-
mum.
Dans tout ce qui suit K ⊂ L sont deux corps (commutatifs).
Proposition II.1.
Soit A, B ∈ Mn (K), alors
1. rgK (A) = rgL (A)
2. µA,K = µA,L . On peut donc le noter µA sans mention du corps.
3. χA,K = χA,L . On peut donc le noter χA sans mention du corps.
4. Si K est infini, alors A ≃K B ⇐⇒ A ≃L B
En particulier, c’est toujours vrai pour K de caractéristique nulle,
l’exemple typique étant si K ⊂ C
Preuve :
1. Posons r := rgK (A), alors A = P Ir,n Q où P, Q ∈ GLn (K) et Ir,n = diag(1, . . . , 1, 0, . . . , 0)
| {z }
r fois
En particulier, ceci impose que rgL (A) = rg(Ir,n ) = r
Ce point est en fait intéréssant parce qu’il affirme que si (X1 , . . . , Xr ) est une
K−base de KerK (A), les solutions du système AX = 0 dans K, alors c’est aussi
une L-base de KerL (A), les solutions du même système dans L
2. Remarquons d’abord que µA,K (A) = 0 i.e. µA,L |µA,K . Il suffit donc de montrer que
deg(µA,L ) ≥ d := deg(µA,K ) ou, équivalent, que (id, A, . . . , Ad−1 ) est L−libre.
Considérons alors M ∈ Mn2 ,d (K) qui représente sur les d matrices, une dans chaque
colonne.
On sait par ce qui précède que
rgL (M ) = rgK (M ) = d
K−liberté
AP = A(U + iV ) = P B = (U + iV )B
10/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
AU = U B et AV = V B
Posons P ∈ R[X] défini par P (X) = det(A + XB). P ̸= 0 car P (i) ̸= 0 et donc, en
particulier, P n’admet qu’un nombre fini de racines.
Considérons alors λ ∈ R qui ne soit pas racine de P , on a alors, en posant M :=
A + λB ∈ Mn (R)
A = M BM −1
* *
*
11/11
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
chapitre 39
Réduction d’endomorphismes symétriques
n(n + 1)
Étant donné le cardinal de cette base, on peut directement en déduire que dim Sn (R) = .
2
→ On note On (R) l’ensemble des matrices orthogonales de Mn (R), i.e. les matrices O ∈ Mn (R) telles
que OT O = In .
→ Si A, B ∈ Sn (R), alors AB ∈ Sn (R) ⇐⇒ AB = BA.
→ Pour tout A ∈ Mn (R), on note VP(A) l’ensemble des valeurs propres de A.
→ Soit β = (e1 , . . . , en ) ∈ E une base de E. On dit que β est une base orthonormée de E si pour tous
i, j ∈ J1; nK, ⟨ei , ej ⟩ = 1i=j .
→ Une matrice O ∈ Mn (R) est orthogonale si et seulement si ses colonnes forment une base ortho-
normée de Rn .
→ Si β = (e1 , . . . , en ) est une base orthonormée quelconque de E, alors on a pour tous x = x1 e1 +
· · · + xn en ∈ E et y = y1 e1 + · · · + yn en ∈ E,
q
⟨x, y⟩ = x1 y1 + · · · + xn yn et en particulier ∥x∥ = x21 + · · · + x2n .
I Généralités
Définition I.1.
Exemples.
→ Soit p ∈ L(E) un projecteur sur F parallèlement à G (Ker p = G, Im p = F ). Alors p ∈ S(E) si
et seulement si F ⊥ G. Un projecteur (qui est d’ailleurs unique) vérifiant cette propriété est appelé
projecteur orthogonal sur F (parallèlement à G). La preuve de cette équivalence est laissée comme
exercice au lecteur.
1/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
→ Soit s ∈ L(E) une symétrie par rapport à F parallèlement à G. s est symétrique si et seulement si
1
(Id −s) est une projection orthogonale. En effet, on a
2
1 1
s ∈ S(E) ⇐⇒ (Id −s) ∈ S(E) ⇐⇒ (Id −s) est un projecteur orthogonal.
2 2
Lorsque cette propriété est vérifiée, on dit que s est une symétrie orthogonale.
→ On peut facilement montrer que u ∈ O(E) ∩ S(E) si et seulement si u est une symétrie orthogonale.
Proposition I.2.
Démonstration.
→ (1) =⇒ (3) Soit (e1 , . . . , en ) une base orthonormée de E. Posons [u]β = (ai,j )i,j∈J1;nK . On a, en
utilisant le fait que la base choisie est orthonormée, pour tout i, j ∈ J1; nK,
Corollaire. En fixant β une base orthonormée de E, on peut voir que S(E) ≃ Sn (R) et donc en particulier
n(n + 1)
dim S(E) = dim Sn (R) = .
2
Remarque. Dans le cas où u ∈ L(E) et β = (e1 , . . . , en ) une base orthonormée, il est intéressant de
mémoriser les identités suivantes. En posant [u]β = (ai,j )i,j∈J1;nK , et en considérant x = x1 e1 +· · ·+xn en ∈ E
et y = y1 e1 + · · · + yn en ∈ E, on a
n X
n n X
n
⟨x, u(y)⟩ = xi yj ai,j et ⟨u(x), y⟩ =
X X
xi yj aj,i ,
i=1 j=1 i=1 j=1
2/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
II Réduction
Théorème (Théorème spectral) II.1.
λ∈SpecR (u)
Démonstration.
1. Supposons que F est stable par u. On a
Ceci nous donne directement que ⟨x, y⟩ = 0 ce qui est bien le résultat voulu.
3. On envisage plusieurs méthodes, mais on expose ici que la plus classique. Deux méthodes supplé-
mentaires sont disponibles en annexe.
Procédons par récurrence forte sur n. Le cas n = 1 est évident. Intéressons-nous au cas! n = 2.
a b
Supposons que n = 2 et soit β une base orthonormée de E. On a, en posant [u]β = ,
b d
!
X −a −b
χu = det(XI2 − [u]β ) = det = X 2 − (a + d)X + (ad − b2 ).
−b X −d
Deux cas alors se présentent. Si ∆ > 0, alors χu possède deux racines distinctes et donc deux espaces
propres de dimension 1 en somme directe, ce qui est bien le résultat voulu. Sinon, si ∆ = 0, alors
a = d et b = 0 ce qui donne u = a Id, et donc il n’y a qu’un seul espace propre égal à l’espace tout
entier. Ceci correspond également à ce qu’on cherche à démontrer.
Passons au cas général. Fixons n ≥ 2 et supposons que pour tout k ≤ n, la propriété est vérifiée.
Supposons que dim E = n + 1. Soit P un facteur unitaire irréductible de µu , x ∈ Ker P (u) \ {0} et
F = Vect(x, u(x)). Posons P = X 2 + c1 X + c2 . On a u2 (x) + c1 u(x) + c2 x = 0 donc u2 (x) ∈ F . On
a également pour tout θ1 , θ2 ∈ R,
donc F est stable par u. D’après le point 1, on sait que F ⊥ est également stable par u. Il suffit donc
F⊥ F
de considérer w = u ⊥ ∈ S(F ⊥ ) et v = u ∈ S(F ) et appliquer l’hypothèse de récurrence à ces
F F
deux endomorphismes pour avoir le résultat voulu.
3/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
4. Il suffit de considérer pour chaque λ ∈ SpecR (u), βλ une base orthonormée de Eλ , et de considérer
β = βλ . Le point 2 permet de montrer facilement que cette base est orthonormée et la
[
λ∈SpecR (u)
matrice [u]β est diagonale étant donné que β est constituée de vecteurs de propres de u.
Démonstration. Le sens réciproque étant évident, on se propose de vérifier le sens direct. Considérons
Rn → Rn
ϕ:
X 7→ AX.
ϕ ∈ S(Rn ) car est symétrique dans la base canonique qui est orthonormale, ce qui nous donne le résultat
voulu en se rappelant qu’un changement d’une base orthonormale vers une autre est fait par une matrice
orthogonale.
Exercice II.2.
Soit A ∈ Sn (R). Notons λ1 < · · · < λn ses valeurs propres distinctes et soit λ ∈ R quelconque.
1. Montrer que Ker(A − λIn )⊥ = Im(A − λIn ) = Ker(A − µI).
M
µ∈VP(A)
µ̸=λ
2. En déduire que si n = 2, alors
Exercice II.3.
2 1 −1
−1 −1 2
où A est diagonale.
Exercice II.4.
Exercice II.5.
4/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Soit u ∈ S(E). Soit β = (e1 , . . . , en ) une base orthonormée de vecteurs propres de u telle que
[u]β = diag(λ1 , . . . , λn ) avec λ1 ≤ · · · ≤ λn . Les propriétés suivantes sont vérifiées.
1. Pour tous s = s1 e1 + · · · + sn en ∈ Rn et t = t1 e1 + · · · + tn en ∈ Rn , on a
n n
⟨u(s), t⟩ = λi si ti , et en particulier ⟨u(s), s⟩ = λi s2i .
X X
i=1 i=1
Démonstration.
1. On a
n n
* ! + * n n
+ n
⟨u(s), t⟩ = u ti ei = ti ei =
X X X X X
si ei , λi si ei , λi s i t i .
i=1 i=1 i=1 i=1 i=1
i=1
De plus,
n n n
λ1 = λ1 x2i ≤ λi x2i ≤ λn x2i = λn
X X X
La borne supérieure est atteinte lorsque x = en et la borne inférieure est atteinte lorsque x = e1 .
On en déduit donc qu’on a bien min ⟨u(x), x⟩ = λ1 et max ⟨u(x), x⟩ = λn .
||x||=1 ||x||=1
Exercice III.2.
5/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
X T Y = (AU − λU )T Y = U T AY − λU T Y = U T (AY − λY ) = 0.
Ceci nous donne l’inclusion Im(A − λI) ⊂ Ker(A − λI)⊥ . On a de plus, d’après la formule du rang,
dim Im(A − λIn ) = n − dim Ker(A − λI) et étant donné que Ker(A − λI)⊥ est un supplémentaire
(en dimension finie) de Ker(A − λI) dans Rn , on a également
µ∈VP(A)
µ̸=λ
X −2 −1 1 X −2 −1 0
det(XI3 − A) = −1 X −2 1 = −1 X −2 X −1
1 1 X −2 1 1 X −1
X −2 −1 0
= (X − 1) −1 X −2 1
1 1 1
X − 2 −1 X −2
!
−1
= (X − 1) − +
1 1 −1 X −2
= (X − 1)2 (X − 4).
Étant donné que A est diagonalisable (car réelle symétrique), on peut affirmer que dim Ker(I3 − A) = 2
(voir proposition V.6 du chapitre 29 sur la réduction d’endomorphismes).
T
(A − I3 )X = 0 où X = x y z ∈ R3 .
On a
x + y =0
−z
(A − I3 )X = 0 ⇐⇒ x + y − z = 0 ⇐⇒ x + y − z = 0.
−x − y + z =0
Ceci signifie que Ker(A − I3 ) est l’hyperplan caractérisé par l’équation x + y − z = 0. Cet hyperplan est
T
de vecteur normal U = 1 1 −1 . On en déduit que pour trouver une base de diagonalisation de A, il
U
suffit de trouver une base orthonormée de Ker(A − I3 ) et de la concaténer avec Ũ = (car Ker(A − I3 )
∥U ∥
est caractérisé par l’équation ⟨X, U ⟩ = 0). Pour ce faire, deux approches sont possibles.
→ Approche 1 : Si on peut facilement trouver une famille libre de l’hyperplan, on peut l’orthonor-
maliser avec le procédé de Schmidt (ici pour deux vecteurs, qui est donc assez simple). On considère
6/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Il est facile de montrer que (V, W ) ∈ Ker(A − I3 ) et qu’il s’agit d’une famille libre. Il reste donc à
orthonormaliser cette famille. Pour ce faire, on considère les transformations de V, W suivantes
D E
V W − Ṽ , W Ṽ V W
Ṽ = et W̃ = D E . − Ṽ , W Ṽ
∥V ∥ W − Ṽ , W Ṽ
W − Ṽ , W Ṽ
→ Approche 2 : Lorsque trouver une base n’est pas évident, on peut procéder de la manière suivante.
On commence par considérer un vecteur quelconque V de Ker(A−I3 ), par exemple le même qu’avant,
T
V = 1 0 1 . Ensuite, on cherche un vecteur dans l’orthogonal de Vect(U, V ) en résolvant les
équations suivantes
⟨U, X⟩ = 0 x + z =0
i.e.
⟨V, X⟩ = 0 x + y − z = 0,
ce qui donne X = (x, y, z)T = (1, 2, −1)T . Il suffit donc de considérer W = (1, 2, −1) et de normaliser
la base orthonormée (U, V, W ), ce qui donne bien une base de diagonalisation de A.
Remarque. En utilisant l’exercice II.2, on peut remarquer qu’il y a un moyen plus rapide de trouver une
base de diagonalisation de A.
Ker(A − 4I) = Im(A − I) étant de dimension 1, il suffit de prendre une colonne non nulle de A − I comme
base de Ker(A − 4I). De même, Ker(A − I) = Im(A − 4I) étant de dimension 2, il suffit de prendre deux
vecteurs formant une famille libre des colonnes de A − 4I pour voir une base de Ker(A − 4I). Enfin, il
suffit d’orthonormaliser la base qu’on a trouvé de Ker(A − I), puis normaliser le vecteur formant une
base de Ker(A − 4I), et on obtient une base orthonormée de diagonalisation de A.
7/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
i=1
r
→ Tr(A2 ) = Tr(O∆2 OT ) = Tr(∆2 ) = λ2i .
X
i=11
λ1 ≤ ⟨u(x), x⟩ ≤ λn .
| {z }
=µ⟨x, x⟩=µ
On a donc nécessairement µ ∈ [λ1 , λn ], sinon Fµ = {0} (il est facile de vérifier que 0 ∈ Fµ ). De plus, si
λ1 < µ < λn , Fµ n’est pas un espace vectoriel. Supposons que Fµ est un espace vectoriel et considérons
l’espace vectoriel G = Fµ ∩ Vect(e1 , en ). Soit s = s1 e1 + sn en ∈ G. On a
On en déduit que
( s ) ( s )
λn − µ λn − µ
G = s = s1 e1 + s2 e2 ∈ E, s2 = s1 ∪ s = s1 e1 + s2 e2 ∈ E, s2 = − s1 .
µ − λ1 µ − λ1
G est donc l’union de deux espaces vectoriels distincts et non inclus l’un dans l’autre, donc G n’est pas
un espace vectoriel, ce qui est absurde.
Finalement, regardons le cas où µ = λ1 (le cas où µ = λn se traite de la même manière). Supposons que
µ = λ1 . On a pour tout x = x1 e1 + · · · + xn en ∈ Fµ ,
n n n
x2i = λ1 ⟨x, x⟩ = ⟨u(x), x⟩ = λi x2i (λi − λ1 )x2i = 0.
X X X
λ1 i.e.
i=1 i=1 i=1
| {z }
≥0
On en déduit donc finalement que pour tout i ∈ J1; nK tel que λi ̸= λ1 , xi = 0, i.e. x ∈ Eλ1 ,u . Ceci
8/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
implique que Fµ ⊂ Eλ1 ,u . L’inclusion réciproque est évidente, ce qui nous donne que Fµ est un espace
vectoriel non trivial. On a donc bien montré le résultat voulu.
Annexe
Nous exhibons ici deux méthodes alternatives pour montrer le point 3 du théorème spectral (Théorème
II.1). Cette annexe est à but purement culturel. Nous conseillons donc au lecteur de l’aborder uniquement
s’il est à l’aise avec les notions du cours et s’il a le temps de le faire.
→ Méthode alternative 1 (espaces hermitiens) : En fait, en examinant la preuve de ce résultat
fournie, on peut facilement voir que si on exhibe un sous-espace vectoriel F de E de dimension 1
qui est stable par u, alors on pouvait se passer de montrer la propriété pour n = 2. Pour ce faire,
on va montrer que u admet une valeur propre réelle. On va passer aux matrices. Soit β une base
orthonormée de E. On pose A = [u]β . On sait que (voir le chapitre 29 sur la réduction) A admet
une valeur propre complexe, qu’on note λ. Fixons X ∈ Cn \ {0} quelconque tel que AX = λX. On
a
λ||X||2 = λX T X = (X T AX)T = X T AT X = X T AX = λX T X = λ||X||2 .
On a donc λ ∈ R. L’idée qui vient à l’esprit consiste à considérer l’espace
Cependant, on a à priori X ∈ Cn , ce qui fait que cet espace n’est pas valable, car F doit être inclus
dans Rn . On propose deux manières pour éviter ce problème.
• Possibilité 1 : Posons X = Re(X) + i Im(X) (où Re(X) et Im(X) sont respectivement les
vecteurs dont les coordonnées sont les parties réelles et imaginaires de celles de X). On a
AX = λX et donc
L’un des deux vecteurs Re(X) ou Im(X) est non nul, et est donc un vecteur propre de A
associé à λ. Il suffit alors de considérer VectR (Re(X)) ou VectR (Im(X)) selon les cas.
• Possibilité 2 : Rappelons que le rang d’une matrice réelle est le même sur R et C. Plus
exactement, on a le lemme suivant.
Lemme III.3.
On peut donc écrire A = P Jr,n Q avec P, Q ∈ GLn (K). Cette écriture reste valable sur L et
donc, sur L, A est toujours équivalente à la matrice Jr,n . Par conséquent, rgL A = r
Grâce à ce lemme, on a rgR (A − λIn ) = rgC (A − λIn ) < n et donc λ est bien valeur propre de
A, vue comme matrice réelle. On dispose, en particulier, d’un vecteur propre X ∈ Rn \ {0} de
A associé à λ et VectR (X) convient donc.
9/10
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
→ Méthode alternative 2 (calcul différentiel et optimisation) : Cette partie utilise quelques ou-
tils du chapitre du calcul différentiel. Le lecteur n’ayant pas encore abordé ce chapitre est encouragé
à n’aborder cette méthode seulement après avoir maitrisé le chapitre en question.
Toujours dans le même esprit que la méthode alternative précédente, on expose un autre moyen de
montrer que u admet une valeur propre réelle. On se propose de le montrer de manière analytique
cette fois. On considère l’application
E →R
ϕ:
x 7→ ⟨x, u(x)⟩.
ϕ ∈ C 1 (E, R) (car c’est une application polynomiale) sur le compact S(0, 1) = {x ∈ E, ∥x∥ = 1} et
donc atteint son maximum en x0 ∈ S(0, 1).
S(0, 1) admettant x0 + Vect(x0 )⊥ comme espace tangent (affine) en x0 , on a alors que ∇ϕx0 est
perpendiculaire à Vect(x0 )⊥ et est donc de la forme ∇ϕx0 = αx0 . Pour finir, remarquons que
ϕ(x0 + h) − ϕ(x0 ) = ⟨h, u(x0 )⟩ + ⟨x0 , u(h)⟩ + ⟨h, u(h)⟩ = ⟨2u(x0 ), h⟩ + ⟨h, u(h)⟩
| {z } u∈S(E) | {z }
O(||h||2 ) O(||h||2 )
et que donc ∇ϕx0 = 2u(x0 ) = αx0 d’où x0 est un vecteur propre de u de valeur propre (réelle)
α
associée .
2
* *
*
Document compilé par Omar Bennouna et révisé par Issam Tauil le 07/06/2023 pour
[Link].
Si vous repérez une erreur, ou avez des remarques, prière de me contacter via l’adresse
contact@[Link].
10/10