0% ont trouvé ce document utile (0 vote)
85 vues9 pages

Diagonalisation et trigonalisation des matrices

Ce document traite de la diagonalisation et de la trigonalisation d'endomorphismes. Il définit les notions de valeurs et vecteurs propres, de polynôme caractéristique et explique les théorèmes de diagonalisation et de trigonalisation d'endomorphismes.

Transféré par

Nico Bomolo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
85 vues9 pages

Diagonalisation et trigonalisation des matrices

Ce document traite de la diagonalisation et de la trigonalisation d'endomorphismes. Il définit les notions de valeurs et vecteurs propres, de polynôme caractéristique et explique les théorèmes de diagonalisation et de trigonalisation d'endomorphismes.

Transféré par

Nico Bomolo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Diagonalisation et trigonalisation

Algèbre et analyse fondamentales - Paris 7 - O. Bokanowski - Septembre 2015

Pour ce cours il est important de connaı̂tre le théorème donnant les divers critères de diago-
nalisation des endomorphismes, (savoir calculer les sous-espaces propres d’un endomorphisme),
le théorème de Caylay-Hamilton, le théorème de trigonalisation, et de savoir les pratiquer sur des
exemples de taille 2, 3, éventuellement 4. On ne demande pas de connaı̂tre les démonstrations
de ces théorèmes, mais par contre de savoir les appliquer (diagonaliser ou trigonaliser sur des
exemples simples de taille ≤ 4). En complément (hors programme) : le théorème de Jordan en
rapport avec la trigonalisation.

1 Valeurs propres, vecteurs propres et polynôme caractéristique


E désigne un espace vectoriel de dimension finie n, le corps est K = R ou C. Si u ∈ L(E) on
notera en général A = M atB (u) la matrice de u dans la base canonique.

Definition. 1.1. Soit u ∈ L(E). On dit que λ ∈ K est valeur propre de u si ∃x ∈ E, x 6= 0, t.q.
u(x) = λx. On note σ(u) l’ensemble des valeurs propres de u.

Definition. 1.2. Pour λ ∈ σ(u), on note Eλ le sous espace propre correspondant


 
Eλ := x ∈ E, u(x) = λx ≡ Ker(u − λId )

On note que Eλ est un sous-espace vectoriel stable par u : u(Eλ ) ⊂ Eλ . (Pour λ ∈


/ σ(u) on
aurait Eλ = {0}.)

Definition. 1.3. 1) On appelle polynôme caractéristique de la matrice A le polynôme

PA (x) = det(A − xI).

2) On notera aussi ce polynôme Pu (x).

La définition de Pu (x) ne dépend pas du choix de la base : si A = P BP −1 alors PA (x) =


PB (x). Premières propriétés : PA (x) ∈ Kn [x], coef (xn ) = (−1)n , coef (xn−1 ) = (−1)n−1 T r(A),
coef (1) = det(A).

Proposition. 1.4. λ valeur propre de A ⇔ PA (λ) = 0

Proposition. 1.5. Les sous espaces propres Eλi sont en somme directe : pour tout (λ1 , . . . , λr )
distincts dans σ(u),
Eλ1 + · · · + Eλp = Eλ1 ⊕ · · · ⊕ Eλp .

Exemple 1 : A = aI avec a ∈ K : PA (x) = (a − x)n .


Exemple 2 : Soit Rθ matrice de la rotation d’angle θ :
 
cos(θ) − sin(θ)
Rθ =
sin(θ) cos(θ)

1
On calcul |Rθ −xI| = (x−cos(θ))2 +sin(θ)2 . Pour sin(θ) 6= 0, il n’y a pas de valeur propre dans R.
par contre on trouve ±iθ
 dans C les valeurs propres e , et les sous espace propres correspondants
1
Ee±iθ = C .
∓i
Exemple 3 : Soit u representé dans la base canonique par la matrice suivante :
 
cos(θ) sin(θ)
Sθ = .
sin(θ) − cos(θ)
   
cos(θ/2) − sin(θ/2)
On trouve deux valeurs propres ±1. Soit v1 = , et v2 = . On
sin(θ/2) cos(θ/2)
constate
  E1 = V ect(v1 ) etl E−1 = V ect(v2 ). Dans la base F = (v1 , v2 ), M atF (u) =
que
1 0
. On constate de plus que la base F est orthonormée. Cette matrice est la symétrie
0 −1
orthogonale par rapport à la droite vectorielle d’angle θ/2.

Definition. 1.6 (Sous-espaces stables). Soit F un sev de E. On dit que F est stable par u si
u(F ) ⊂ F . On note alors v = u|F ∈ L(F ) l’endomorphisme de F t.q. v(x) = u(x) ∀ x ∈ F .

Proposition. 1.7. Si u(F ) ⊂ F alors Pu|F (x) divise Pu (x).

Preuve : Si u(F ) ⊂ F , on peut choisir une base (f1 , . . . , fp ) de F et la compléter par


fp+1 , . . . , fn pour obtenir une base de E. On constate alors que la matrice de u dans F est
triangulaire supérieure par blocs :
 
B11 B12
M atF (u) =
0 B22

où B11 ∈ Mp (K), B22 ∈ Mn−p (K). Le bloc B11 est la représentation matricielle de l’operateur
v = u|F dans la base (f1 , . . . , fp ). En particulier, ∃P ∈ GLn (K),
 
B11 B12
A=P P −1
0 B22

Dans ce cas on voit que PA (x) = PB11 (x)PB22 (x), et PB11 (x) divise PA (x). 2
Dans F = Eλ , de dimension dim(Eλ ), on constate que v = u|F = λId sur F , et donc que
Pv (x) = (λ − x)dim(Eλ ) .

Corollaire. 1.8. Pour tout λ ∈ σ(u), 1 ≤ dim(Eλ ) ≤ α(λ), où α(λ) est la multiplicité de λ
dans Pu (x).

Definition. 1.9 (Sous espace monogène). Pour x 6= 0 dans E, on note

hxi = V ect(x, u(x), . . . , uk (x), . . . ).

Remarque. 1.10. On note qu’il existe un premier entier k ≥ 1 t.q. (x, u(x), . . . , uk−1 (x)) libre
et (x, u(x), . . . , uk (x)) liée. Alors

hxi = V ect(x, u(x), . . . , uk−1 (x)).

2
De plus, F = hxi est un sev stable par u. On a uk (x) ∈ F , donc ∃ (α0 , . . . , αk−1 ) t.q.
k−1
X
k
u (x) = αi ui (x).
i=0

La matrice de u dans la base B = (uk−1 (x), uk−2 (x), . . . , u(x), x) s’écrit alors
 
αk−1 1 0 . . . 0
.. 
αk−2 0 . . . . . .

.
.
 
B = M atB (u) =  .. .. 
. 1 0
 
 0 1
α0 0 . . . 0 0

et un calcul simple donne


X
det(B − λI) = (−1)k (λk − αi λ i )
i≤k−1

2 Polynômes d’endomorphisme
Definition. 2.1 (Polynome d’endomorphisme). Soit un polynome P ∈ Kn [X] :
X
P (x) = ai xi = an xn + · · · + a1 x + a0 ,
i

où ai ∈ K. On désigne par P (u) l’application de L(E) t.q.


X
P (u) = ai ui = an un + · · · + a1 u + a0 Id .
i

Par convention on a donc u0 = Id . De même pour A matrice on définit A0 = I et


X
P (A) = ai Ai = an An + · · · + a1 A + a0 I.
i

Proposition. 2.2. Pour tous polynomes P, Q on a

(P Q)(u) = P (u)o Q(u) = Q(u)o P (u).

Théorème. 2.3 (Caylay-Hamilton). Pu (u) = 0.

Preuve : soit x 6= 0. On montre que sur F = hxi, sous espace stable par u, Pv (u)(x) =
Pv (v)(x) = 0 où v = u|F , en utilisant la remarque 1.10. Mais Pv div Pu : ∃ Q ∈ K[x], Pu (x) =
Q(x)Pv (x). Donc Pu (u)(x) = Q(u)o Pv (u)(x) = 0. Ainsi Pu (u) est l’endomorphisme nul. 2
Remarque : on montre aussi qu’il existe un polynôme de plus petit degré, unitaire, qui annule
u (appelé le polynome minimal). Tout polynôme qui annule u est nécessairement un multiple
du polynôme minimal.
Remarque : une preuve plus directe pourrait aussi s’obtenir en utilisant le fait que u est
trigonalisable dans C (voir partie trigonalisation).

3
3 Diagonalisation
Definition. 3.1 (Endomorphismes diagonalisables).
• On dit qu’un endomorphisme u est diagonalisable s’il existe E = (e1 , . . . , en ) une base de E,
et des scalaires µ1 , . . . , µn dans K tels que

∀i, u(ei ) = µi ei .

• On dira de même qu’une matrice A est diagonalisable si elle est semblable à une matrice
diagonale : ∃P ∈ GLn (K), et ∃∆ diagonale,

A = P ∆P −1 .

On a les équivalences

u diagonalisable ⇔ il existe une base de vecteur propres pour u (1)


⇔ il existe une base E t.q. M atE (u) diagonale. (2)

Théorème. 3.2. Soit u ∈ L(E). On a equivalence entre


(i) u est diagonalisable.
(ii) Il existe Q ∈ K[x], scindé, à racines simples, tel que Q(u) = 0.
(iii) ∃λ1 , . . . , λr valeurs propres de u, distintes, t.q. E = ⊕ri=1 Eλi . (On dit que ”E est la somme
des sous-espaces propres.”)
(iv) Pu est scindé et ∀1 ≤ i ≤ r, dim(Eλi ) = αi , où αi est la multiplicité de λi dans Pu .

Corollaire. 3.3. dim(E) = n et u admet n valeurs propres distinctes ⇒ u diagonalisable.


 
2 1
Exercice. (i) Montrer que A = est diagonalisable, la diagonaliser.
1 1
 
3 −1
(ii) Montrer que A = n’est pas diagonalisable.
1 1
   
2 a 1 a
(iii) Pour quels a ∈ R la matrice est-elle diagonalisable ? Meme question pour .
0 2 0 2

4 Trigonalisation
Definition. 4.1. 1) On dit qu’une matrice A = (aij ) de Mn (K) est triangulaire supérieure si
aij = 0 pour tout i > j.
2) On dit qu’un endomorphisme u est ”triangulable” (ou ”trigonalisable”) s’il existe une base
dans laquelle la matrice de u est triangulaire supérieure.

En particulier, étant donné une base B, u un endomorphisme et A = M atB (u), alors u est
trigonalisable si, et seulement si, il existe T triangulaire supérieure et P ∈ GLn (K) telles que

A = P T P −1 .

Théorème. 4.2. Soit A une matrice de Mn (K), K = R ou C. On suppose que PA (x) est scindé.
Alors A est triangulable.

4
(Preuve par récurrence).
Dans C le polynôme caractéristique est toujours scindé,
 et donc toute matrice est trigona-
0 1
lisable. Dans R ce n’est pas toujours le cas. Ex : A = , A = Rθ avec sin(θ) 6= 0,
−1 0
 
a b
A= avec b 6= 0, etc.
−b a
On peut préciser ce théorème (voir le théorème de Jordan).
 
3 −1
Exercice. Trigonaliser la matrice A = . (On pourra même trouver une base B dans
1 1
 
1 1
laquelle M atB (A) = .)
0 1

5 *Complément : Sous-espaces caractéristiques


Théorème. 5.1 (Décomposition en sous-espacesQcaractéristiques). On suppose que le polynome ca-
r
ractéristique Pu est scindé, notons Pu (x) = (−1)n i=1 (x − λi )αi . Alors
r
M
E= Fλi
i=1

où Fλi = Ker(u − λi 1)αi . Fλi est appelé le sous espace caractéristique associé à la valeur propre λi .

Application : Si Pu est scindé alors u est trigonalisable par r blocs de tailles αi avec dans chaque bloc
i, sur la diagonale, uniquement la même valeur propre λi . En effet, on utilise que E = ⊕i Fλi , avec Fλi
qui est stable par u. Dans chaque Fλi on peut trouver une base qui trigonalise u|Fλi . De plus, dans Fλi ,
si v = u − λi 1 alors v αi = 0 (par définition de Fλi ). Ainsi 0 est la seule valeur propre de v, puis λi est la
seule valeur propre de u (dans Fλi ). On en déduit le résultat.

Pour la démonstration du théorème de décomposition, on commence par demontrer que les Fλi sont
en somme directe, et stables par u :

Lemme. 5.2.
Fλ1 + · · · + Fλr = Fλ1 ⊕ · · · ⊕ Fλr

Preuve : Notons que la preuve classique utilise le ”Théorème du Ker” (voir la partie ”Complément :
preuve classique”). On propose ici une preuve élémentaire.
Dans le cas r = 2, il suffit de montrer que Fλ1 ∩ Fλ2 = {0}. Dans le cas r ≥ 2, on suppose qu’on a
une combinaison linéaire nulle suivante :

x1 + · · · + xr = 0,

avec xi ∈ Fλi , ∀i. Posons v = u − λ1 Id , et Q βi = λi − λ1 , qui vérifie βi 6= 0, ∀i ≥ 2. Alors v α1 (x1 ) = 0 et


∀i ≥ 2 : (v − βi ) (xi ) = 0. Posons P (x) = i≥2 (x − βi )αi , on a donc P (v)(xi ) = 0. D’autre part écrivons
αi
Pd
P (x) = i=0 ai xi . On a a0 = P (0) = i≥2 (−βi )αi 6= 0. Supposons x1 6= 0. Soit k ≥ 1 le plus petit
Q

entier t.q. v k (x1 ) = 0 (donc v k−1 (x1 ) 6= 0). Donc aussi 0 = P (v)v k−1 (x1 ) = a0 v k−1 (x1 ). Donc a0 = 0,
contradiction. On a prouvé que x1 = 0. De meme on montre xi = 0, ∀i. 2
Il est utile de remarquer que les Fλi sont stables par u :

Lemme. 5.3.
u(Fλi ) ⊂ Fλi , ∀i.

Reste à démontrer

Lemme. 5.4. E = Fλ1 + Fλ2 + · · · + Fλr .

5
Q (x−λk )αk
Soit Qi (x) = k6=i (λi −λk )αk . On considère la famille de polynomes suivant :

Lij (x) = (x − λi )j Qi (x), 1 ≤ i ≤ r, 0 ≤ j ≤ αi − 1.


P P
Chaque polynome est de degré αi −1+ k6=i αk = n−1. On a de plus un total de i=1 αi = n polynômes.
Montrons qu’on a une base de Kn−1 [x]. Supposons qu’on a une combinaison nulle
X
βij Lij (x) = 0, ∀x. (3)
i,j

En particulier pour x = λi , on obtient déjà βi0 = 0. On observe aussi que pour j 6= i, les αi − 1
premières dérivées des Qj sont nulles en x = λi . Montrons alors par récurrence P que βik = 0 pour
k = 0, . . . , αi − 1 : En supposant que βi0 = βi1 = · · · = βi,k−1 , on observe que j=0,...,αi −1 βij Lij (x) =
βik (x − λi )k Qi (x) + βi,k+1 (x − λi )k+1 Qi (x) + · · · . En notant L(x) = i,j βij Lij (x), on obtient donc
P

 
dL d X
0= (λi ) = k βij Lij (λi ) = βik k!Qi (λi ).
dxk dx j=0,...,αi −1

Finalement, comme Qi (λi ) 6= 0, on obtient βik = 0.


Ainsi tous les βij sont nuls : la famille des Lij est libre, et c’est donc une base de Kn−1 [x]. On en
déduit qu’il existe des coefficients γij ∈ K vérifiant l’identité :
X
1= γij Lij (x), ∀x.
i,j

γij (x − λi )j , et on obtient :
P
On regroupe les termes en j : Ai (x) := 0≤j≤αi −1
X
1= Ai (x)Qi (x), ∀x.
i

En appliquant à u puis à un vecteur x ∈ E quelconque :


X
x = Ai (u)o Qi (u)(x) (4)
i
X
= xi , avec xi := Qi (u)o Ai (u)(x). (5)
i

Vérifions que xi ∈ Fλi . En remarquant que (x − λi )αi Qi (x) = ±Pu (x), et en utilisant Caylay-Hamilton :

(u − λi Id)α
i (xi ) = ±Pu (u)o Ai (u)(x) = 0.

6 Complément : Théorème de Jordan (énoncé)


On appelle bloc de Jordan toute matrice de la forme
   
λ 1 0 ... 0 λ 1 0 ... 0
 .. .. ..   .. .. .. 
0 λ
 . . . 

 λ . . .
Jλ =  ... ..  ...
ou bien Jλ,k =  ..
 .
 . 1 0 
 . 1 0 
 λ 1  λ 1
0 ... λ 0 ... λ
| {z }
taille k

6
Théorème. 6.1 (Théorème de Jordan). Soit u ∈ L(E), avec Pu scindé. Il existe une base de E dans
laquelle la matrice de u est diagonale par blocs de Jordan.
Cela signifie que dans une certaine base la matrice est de la forme diagonale par blocs :
 
Bλ1 0 ... 0
 .. .. 
 0
 Bλ2 . . 

 . .
 .. ..


 
 0 
0 ... Bλr
avec Bλi diagonale par blocs de Jordan associés à une meme valeur propre λi :
 
Jλi ,k1 0 ... 0
 .. .. 
 0
 Jλi ,k2 . .  
Bλi = 
 ... ..  (6)
 . 

 0 
0 . . . Jλi ,kp
(pour des entiers kj qui peuvent dépendre de i). Autrement dit, les matrices Bλi n’ont que deux diagonales
non nulles, la diagonale principale, avec la valeur λi , et la premiere sur-diagonale contenant que des 0 ou
des 1.

7 *Compléments : endormorphismes nilpotents et preuve du


Théorème de Jordan
7.1 *Endomorphismes nilpotents
Definition. 7.1. On dit que v ∈ L(E) est nilpotent si ∃k ≥ 1, v k = 0.
Lemme. 7.2. Soit v nilpotent, et x 6= 0.
(i) Il existe un unique entier k ≥ 1 t.q. v k−1 (x) 6= 0 et v k (x) = 0.
(ii) On a
hxi = V ect(x, v(x), . . . , v k−1 (x)),
(iii) la famille (x, v(x), . . . , v k−1 (x)) est libre.
(iv) La matrice de v|hxi dans la base B = (v k−1 (x), v k−2 (x), . . . , v(x), x) est
 
0 1 0 ... 0
.. .. .
. .. 


 0 . 
M atB (v) =  ... .. 
 . 1 0 
 0 1
0 ... 0
Remarque. 7.3. Soit v dans L(E). On montre aussi le résultat suivant :
(i) k → Ker(v k ) forme une suite croissante (pour l’inclusion) de sous-espaces vectoriels.
(ii) ∃k ≥ 0, {0} ⊂ Ker(v) ⊂ · · · ⊂ Ker(v k ) = Ker(v k+1 ).
(iii) For all q ≥ k, Ker(v q ) = Ker(v k ).
Proposition. 7.4. Soit λ ∈ σ(u) et v = u − λId . On a :
(i)
dim(Fλ ) = α(λ),
(ii)
Eλ ⊂ Fλ .
(iii) Si k est choisit comme dans la remarque précédente, alors 1 ≤ k ≤ α(λ).

7
7.2 *Preuve du Théorème de Jordan

Pour la preuve, on commence par le cas nilpotent. En effet, dans Fλ , v = (u − λId ) F est nilpotent
λ
puisque v αi = 0.
Lemme. 7.5. Remarquons que dans Fλ , les opérateurs u et v = u − λId ont les mêmes sous-espaces
monogènes :
hxiu = hxiv , ∀x ∈ Fλ
Cela peut s’obtenir par récurrence sur dimhxi en remarquant que uk (x) = (v + λId )k (x) ∈ v k (x) +
V ect(x, . . . , v k−1 (x)).
Proposition. 7.6 (Théoreme de Jordan dans le cas nilpotent). Soit v ∈ L(F ), nilpotent, où F est un
sous-espace vectoriel de E. Alors il existe une décomposition de F en sous-espace monogènes pour v. En
particulier, il existe une base de F dans laquelle v est représenté par une matrice du type B0 :
   
J0,k1 0 ... 0 0 1 0 ... 0
.. ..  .. .. .
. .. 
 
 0
 J0,k2 . . 

 0 . 
 ...
B0 =  ..  , avec J0,k =  . .. (7)
 ..

 . 
  . 1 0 

 0   0 1
0 . . . J0,kp 0 ... 0
| {z }
taille k
Preuve. Notons k t.q. v k = 0 et v k−1 6= 0. En particulier, il existe x 6= 0 t.q. v k−1 (x) 6= 0 et v k (x) = 0
(on a alors hxi = vect(x, v(x), . . . , v k−1 (x)), et aussi k = maxx∈F dimhxi).
On note l’adjoint de v l’application lineaire notée v ∗ : F → F telle que :
ha, v ∗ (b)i = hv(a), bi, ∀a, b ∈ F
On vérifie que (uo v)∗ = v ∗ o u∗ , si v ∗ (G) ⊂ G avec G sous espace vectoriel de F alors v(G⊥ ) ⊂ G⊥ .
Soit y = v k−1 (x) 6= 0. On a aussi (v ∗ )k−1 (y) 6= 0 car hx, (v ∗ )k−1 (y)i = hv k−1 (x), yi = kyk2 6= 0. On
considère hyiv∗ . Remarquons
L que (v ∗ )k = (v k )∗ = 0. Donc dimhyi = k. On pose G = hyi⊥ . On vérifie
hxi ∩ G = {0}, puis hxi G = F (par un argument de dimension). Enfin v(G) ⊂ G (car hyiv∗ stable par
v ∗ ). On conclu par récurrence en appliquant la décomposition au sous espace G. 2
Comme dans Fλ les sous-espaces monogènes pour u comme pour v sont les mêmes, on obtient dans
la même base pour l’opérateur u (qui correspond à v + λId ) une représentation matricielle de la forme
Bλ .
Preuve du Th. de Jordan, cas général. On utilise que E = ⊕i Fλi . Fλi est stable par u, dans chaque
Fλi on trouve une décomposition de v = u − λi 1 (qui est nilpotent) en blocs de Jordan, avec des zeros
sur la diagonale. De même, donc, pour u = v + λi , avec des λi sur la diagonale. On en déduit le résultat.
2.

7.3 *Preuve classique de la décomposition en sous-espaces caractéristiques


L’approche proposée n’est pas la preuve classique de la décomposition de E en somme de sous-espace
caractéristiques. Dans la preuve classique, et plus générale, on procède comme suit.
On énonce le Théorème de Bezout : deux polynomes P, Q sont premiers entre eux (pgcd(P, Q) =
P ∧ Q = 1) si et seulement si il existe deux polynomes A, B t.q. A(x)P (x) + B(x)Q(x) = 1, ∀x.
On en déduit le ”Théoreme du Ker”, qui dit que si P ∧ Q = 1 alors Ker((P Q)(u)) = Ker(P (u)) ⊕
Ker(Q(u)) pour u ∈ L(E). On généralise par récurrence au cas où P1 , . . . , PL r sont des polynomes deux
r
à deux premiers entre eux (Pi ∧ Pj = 1 ∀ i 6= j), alors Ker((P1 · · · Pr Q )(u)) = i=1 Ker(Pi (u)).
r
En supposant que Pu (x) est un polynome scindé : Pu (x) = (−1)n i=1 Pi (x) avec Pi (x) = (x − λi )αi ,
avec λ1 , . . . , λr distincts, et en appliquant le Théorème de Caylay-Hamilton, on obtient que Pu (u) = 0 et
donc que
M r r
M
E = Ker(Pu (u)) = Ker(Pi (u)) = Fλi .
i=1 i=1

8
Pr
Finalement, le fait que E = i=1 Fλi correspond à une décomposition astucieuse de x dans les Fλi qui
s’obtient en regardant la preuve du Th. de Bezout.

Vous aimerez peut-être aussi