CH 2
CH 2
Introduction
On se donne un espace vectoriel E de dimension finie sur un corps K (que l’on peut penser comme étant
R ou C) et un endomorphisme u ∈ L(E). La question traitée dans ce chapitre la suivante: existe-t-il une
base B de E telle que l’expression de u dans cette base soit particulièrement simple? Plus précisément,
existe-t-il une base B telle que l’expression de u soit une matrice diagonale? On dira alors que u est
diagonalisable.
1 Motivations
Ce paragraphe présente quelques applications liées à la diagonalisabilité des matrices/endomorphismes.
On suppose que D = (di,j ) ∈ Mn (K) est diagonale, c’est-à-dire que l’on a di,j = 0 si i 6= j. Il est
alors pratique d’écrire D = diag (d1,1 , . . . , dn,n ).
Donc cii = dii d0ii et cij = 0 sinon. On en déduit que DD0 est diagonale et plus précisément
diag (d1,1 , . . . , dn,n ) × diag (d01,1 , . . . , d0n,n ) = diag (d1,1 d01,1 , . . . , dn,n d0n,n ) .
1
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 2
Par conséquent, la matrice Dk est une matrice diagonale dont le ième coefficient de la diagonale est
dkii .
C’est vrai pour k = 1, et si vrai au rang k, alors, d’après le calcul précédent, comme Dk+1 = D · Dk ,
on en déduit que Dk+1 est diagonale et le ième coefficient de la diagonale est dii · dkii = dk+1
ii .
Maintenant, supposons que A est semblable à D de sorte que A = PDP−1 . Montrons que Ak =
PDk P−1 . C’est vrai pour k = 1, et si c’est vrai au rang k, alors
donc c’est vrai au rang k + 1. Donc c’est vrai pour tout k ≥ 1 par récurrence.
Du coup, on trouve l’expression
Remarque 1.1. — L’ensemble de ces suites forme un espace vectoriel sur R de dimension n.
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 3
où (x1 , . . . , xn ) sont des fonctions de classe C1 inconnues et les (ai,j ) sont des scalaires. On obtient sous
forme matricielle X0 = AX où A = (ai,j ) et
x1
..
X= . .
xn
Si A est une matrice diagonale, alors chaque équation est indépendante des autres et toute solution
s’écrit sous la forme a t
x1 (t) c1 e 1,1
.. ..
. =
.
xn (t) cn ean,n t
où les ci sont des constantes.
Y0 = P−1 X0 = P−1 AX = DY ,
et
c1 eλ1 t
X = PY = P ...
cn eλn t
Il suffit donc, dans cette situation, de calculer une base de vecteurs propres.
Comme pour les suites, on peut aussi étudier une équation de la forme
pour n’importe quelle matrice A ∈ Matn (K), et on l’appelle l’exponentielle de la matrice A. En général,
exp(A + B) 6= exp A exp B; cependant, on a égalité si AB = BA.
Ce que l’on a vu ci-dessus est un cas particulier de la situation suivante: on s’intéresse au système
d’équations différentielles linéaires X0 = AX. Alors ces solutions sont données par X(t) = exp(At)X0 où
X0 est un vecteur constant. Lorsque A est diagonalisable, alors on a une expression de exp A: exp A =
P−1 (exp D)P si A = P−1 DP.
Remarque 2.1. — Si u est non injective, alors 0 est valeur propre, puisqu’alors Ker u est non trivial et
il existe donc x 6= 0 tel que u(x) = 0 = 0 · x. Dans ce cas, E0 = Ker u.
Lemme 2.2. — Soit λ une valeur propre. Son espace propre Eλ est un sous-espace vectoriel.
donc (v + µv 0 ) ∈ K.
Démonstration. — Supposons u diagonalisable. Soit B une base de E qui rend u diagonale. Autrement
dit, MatB (u) = (ai,j ) est diagonale c’est-à-dire ai,j = 0 si i 6= j. Par définition, cela signifie que
u(ei ) = ai,i ei , donc B est une base de vecteurs propres.
Réciproquement, si B est une base de vecteurs propres de u, alors, pour chaque j, il existe un scalaire
λj tel que u(ej ) = λj ej , donc MatB (u) est diagonale.
Sommes directes de plusieurs sous-espaces. La notion de somme directe généralise aux sous-espaces
vectoriels celle de famille libre pour les vecteurs. Soient E un espace vectoriel et F1 , . . . , Fk des sous-
espaces de E. On peut munir le produit cartésien F1 × F2 × . . . × Fk d’une structure d’espace vectoriel
comme pour Kn en définissant
0
f1 + f10
f1 f1
.. .. ..
. + . =
.
fk fk0 fk + fk0
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 5
et
f1 λf1
λ × ... = ... .
fk λfk
Considérons maintenant
F1 × . .
Φ: . × Fk → E
f1
.. Pk
. 7→ j=1 fj
fk
On vérifie que Φ est une application linéaire dont l’image définit la somme F1 + . . . + Fk .
On dit que la somme est directe et l’on note F1 ⊕ . . . ⊕ Fk = ⊕kj=1 Fj si Φ estPinjective. Cela signifie
que tout vecteur v ∈ (F1 + . . . + Fk ) admet une unique écriture de la forme v = fj avec fj ∈ Fj .
Lemme 2.4. — Avec les notations ci-dessus, la somme des Fj est directe si et seulement si, pour tout
1 ≤ j ≤ k − 1,
(F1 + . . . + Fj ) ∩ Fj+1 = {0} .
Par injectivité, cela signifie que tous les vecteurs sont nuls, et en particulier v = 0.
Réciproquement, prenons
f1
..
. ∈ Ker Φ .
fk
On a donc
k−1
X
fk = − fj
j=1
donc fk ∈ Fk ∩ (F1 + . . . + Fk−1 ) et fk = 0. Par récurrence descendante, on montre ainsi que tous les fj
sont nuls, montrant que la somme est directe.
On obtient ainsi deux méthodes pour montrer que des espaces sont somme directe:
1. on applique le lemme 2.4;
P
2. on montre que si xj ∈ Fj pour tous j ∈ {1, . . . , k} vérifient xj = 0, alors tous les xj sont nuls.
2. Si, pour tout j ∈ {1, . . . , k}, vj est un vecteur propre associé à λj , alors (v1 , . . . , vk ) est libre.
k−1
X k−1
X
λk v = λj vj donc (λj − λk )vj = 0
j=1 j=1
et comme les (k − 1) premiers espaces sont en somme directe, cela signifie que (λj − λk )vj = 0 pour tout
j donc vj = 0 et v = 0.
Corollaire 2.7. — Soit u un endomorphisme sur un espace de dimension finie. Les propriétés suivantes
sont équivalentes.
Démonstration. — Si u est diagonalisable, alors il existe une base de vecteurs propres. Cela signifie
P les espaces sont en somme directe et que leur somme vaut E. Si on a ⊕λ∈S(u) Eλ = E, alors il vient
que
λ∈S(u) dim Eλ = dim E.
P D’après la proposition précédente, les sous-espaces propres sont en somme directe, donc si on suppose
λ∈S(u) dim Eλ = dim E, alors on obtient E = ⊕λ∈S(u) Eλ . En prenant une base de chaque espace, on
obtient une base de E de vecteurs propres.
3 Polynôme caractéristique
On suppose maintenant E de dimension finie n et on se donne un endomorphisme u ∈ L(E). Si λ ∈ K est
valeur propre, il existe donc par définition un vecteur non nul x ∈ E tel que u(x) − λx = 0, c’est-à-dire
l’application uλ := u − λId est non injective. Réciproquement, si, pour un scalaire λ, l’application uλ
est non injective, alors cela signifie que λ est valeur propre. Par ailleurs, on obtient ainsi Eλ = Ker uλ
montrant que les espaces propres sont bien des sous-espaces vectoriels.
On peut exprimer la non-injectivité de uλ en disant que det uλ = 0.
Propriété 3.2. — Le polynôme caractéristique d’un endomorphisme est un polynôme à coefficients dans
K de degré n en λ dont les racines forment le spectre de l’endomorphisme. On a
La multiplicité d’une valeur propre λ en tant que racine d’un polynôme caractéristique (la valeur
mλ ) est appelée la multiplicité algébrique de λ. La dimension de son espace propre est la multiplicité
géométrique.
Démonstration. — Soit (e1 , . . . , em ) une base de Eµ que l’on complète en une base de E. La matrice
de u dans cette base est donc diagonale sur les m premières lignes et colonnes, donc, dans le calcul de
χu , on pourra mettre en facteur (µ − λ)m . Du coup, m ≤ k et dim Eµ ≤ k. En effet, on peut écrire Mat u
sous la forme
µIm A
Mat u =
0 C
donc
(µ − λ)Im A
χu (λ) = det = (µ − λ)m × det(C − λIn−m ) = (µ − λ)k P(λ) .
0 C − λIn−m
et
2. pour chaque j ∈ {1, . . . , k}, on a dim Eλj = mj .
4 Trigonalisation
On dit qu’un endomorphisme est trigonalisable s’il existe une base dans laquelle la matrice de l’endomorphisme
est triangulaire supérieure. Si Mat(u, B) = (ai,j ) alors ai,j = 0 pour 1 ≤ j < i ≤ n.
Supposons qu’un endomorphisme u est trigonalisable et prenons une base B = (e1 , . . . , en ) de sorte
que Mat(u, B) est triangulaire supérieure. On peut remarquer que les valeurs propres sont les termes de
la diagonale et que le polynôme caractéristique est scindé. De plus, si on note Fj = Vect(e1 , . . . , ej ), alors
u(Fj ) ⊂ Fj .
Théorème 4.1. — Un endomorphisme u sur un espace vectoriel de dimension finie est trigonalisable si
et seulement si son polynôme caractéristique est scindé.
Calculs d’invariants. On peut facilement calculer quelques invariants de similitude d’un endomor-
phisme trigonalisable. Par exemple, si T est triangulaire supérieure, alors les valeurs propres de T sont
justement les termes diagonaux.
On trouve ainsi
Q
1. det T = λj ,
P
2. tr T = λj ,
Q
3. χT (λ) = (λj − λ),
Par conséquent, si A est trigonalisable, comme c’est le cas sur C, de valeurs propres λ1 , . . . , λn alors
Q
1. det A = λj ,
P
2. tr A = λj ,
Q
3. χA (λ) = (λj − λ).
SA = {λ1 , . . . , λk , µ1 , µ1 , . . . , µ` , µ` }
où λj désigne les valeurs propres réelles et µj , µj les complexes (conjuguées deux à deux) comptées avec
mulitplicité. On a alors
Y Y k `
k ` X X
2
det A = λj |µi | et tr A = λj + 2 Re µi .
j=1 i=1
j=1 i=1
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 9
1. Si on part d’un endomorphisme, on lui attribue une matrice A en l’exprimant dans une base.
2. On calcule χA et on détermine ses racines et leurs multiplicités (λj , mj ).
3. Si χA n’est pas scindé, alors A n’est pas diagonalisable.
4. Pour chaque valeur propre λ, on résout le système AX = λX et on calcule la dimension des solutions
Eλ . Si dim Eλ < mλ , alors A n’est pas diagonalisable.
5. Pour chaque λ, on calcule une base de Eλ .
6. Si A est diagonalisable, alors la réunion des bases de chaque espace propre fournit une base de Kn
et on écrit la matrice de passage P ainsi que la matrice (diagonale) de u dans cette base.
Une méthode pédestre que je déconseille, mais qui peut marcher, consiste à écrire un système à
paramètre AX = λX que l’on résout en fonction de λ. Les valeurs propres correspondent alors aux
paramètres λ pour lesquels on a une infinité de solutions. Pour ceux-là, on détermine une base comme
ci-dessus.
Avj = λvj
ce qui implique que λ est aussi valeur propre de A et (v1 , . . . , vk ) est une base de Eλ .
Si on décompose vj = rj + isj en partie réelle et imaginaire, alors, en remarquant que
rj = (1/2)(vj + vj )
sj = (−i/2)(vj − vj )
on constate que (r1 , s1 , . . . , rk , sk ) est aussi une base de Eλ ⊕ Eλ vu comme sous espace de Cn (c’est une
famille génératrice de cardinal minimal). Par conséquent, c’est aussi une famille libre de Rn dont l’espace
engendré est en somme directe avec les autres. En identifiant parties réelles et imaginaires, on obtient
Arj = arj − bsj
Asj = brj + asj
donc A opère comme une homothétie de rapport |λ| suivie d’une rotation d’angle −θ. Du coup, la matrice
de uA |Eλ ⊕Eλ dans la base (r1 , s1 , . . . , rk , sk ) sera la matrice par blocs
|λ|R−θ 0 ... 0
0
|λ|R−θ 0 0
0 ... ... 0
0 ... 0 |λ|R−θ
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 10
5.2 Exemples
1. On considère la matrice
1 2 −1
A= 0 2 0
−1 2 1
à diagonaliser.
On a
1 2 −1 λ 0 0 1−λ 2 −1
A − λI3 = 0 2 0 − 0 λ 0 = 0 2−λ 0
−1 2 1 0 0 λ −1 2 1−λ
Or
1−λ −1
det = (1 − λ)2 − 1
−1 1−λ
= (1 − λ − 1)(1 − λ + 1)
= (−1)λ(2 − λ)
engendre E0 .
λ = 2. On cherche à résoudre
−1 2 −1 x1 0
0 0 0 x2 = 0 .
−1 2 −1 x3 0
Donc (1 + i, −1) est un vecteur propre sur C2 associé à i et (1 − i, 1) est un vecteur propre associé à
(−i). Dand cette base B, on a
i 0
Mat(u, B) = .
0 −i
Les vecteurs (1, −1) et (1, 0) forment une base C de R2 et aussi de C2 . Dans cette base on obtient
0 −1
Mat(u, B) =
1 0
√
où l’on reconnaît la matrice 2Rπ/2 .