0% ont trouvé ce document utile (0 vote)
312 vues12 pages

Corrdm 15

Ce document contient la correction d'un devoir de mathématiques sur la trigonalisation et la quasi-trigonalisation de matrices. Il explique la notion de polynôme minimal d'un endomorphisme et démontre qu'une matrice carrée sur un corps algébriquement clos est toujours trigonalisable.

Transféré par

mehdi benmassoud
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
312 vues12 pages

Corrdm 15

Ce document contient la correction d'un devoir de mathématiques sur la trigonalisation et la quasi-trigonalisation de matrices. Il explique la notion de polynôme minimal d'un endomorphisme et démontre qu'une matrice carrée sur un corps algébriquement clos est toujours trigonalisable.

Transféré par

mehdi benmassoud
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Lycée Louis-Le-Grand, Paris Pour le 02/04/2015

MPSI 4 – Mathématiques
A. Troesch

DM no 15 : Matrices

Correction du problème 1 – Trigonalisation et quasi-trigonalisation

Question préliminaire
D’après le cours, toute matrice carrée est équivalente à une matrice In,n,r , définie par blocs :
!
Ir 0r,n−r
In,n,r = .
0n−r,r 0r,r

Cette matrice étant diagonale, donc triangulaire supérieure, on peut conclure :


toute matrice M est équivalente à une matrice triangulaire supérieure.
On peut aussi remarquer qu’obtenir algorithmiquement une matrice triangulaire équivalente à M peut se faire par la
méthode du pivot de Gauss.

Partie I – Autour du polynôme minimal


Soit K = R ou C. Soit u un endomorphisme d’un K-espace vectoriel E de dimension finie.
1. Soit n la dimension de E. Alors L(E) est de dimension n2 . Par conséquent, pour des raisons de cardinalité, la
2
famille (u0 , u1 , . . . , un ) est liée, d’où l’existence d’une relation non triviale :
2
λ0 u0 + · · · + λn2 un = 0.
2
Ainsi, le polynôme (non nul) Q = λ0 + λ1 X + · · · + λn2 X n est un polynôme annulateur de u.
2. Soit I(u) l’ensemble des polynômes annulateurs de u. Comme 0 est un polynôme annulateur de u, et que de façon
triviale, une différence de polynômes annulateurs est un polynôme annulateur de u, I(u) est un sous-groupe de
K[X]. Par ailleurs, si P est un polynôme annulateur de u, et Q un polynôme quelconque, alors

P Q(u) = QP (u) = Q(u) ◦ P (u) = Q(u) ◦ 0 = 0,

car Q(u) est une application linéaire. Ainsi, P Q est encore un polynôme annulateur.
On en déduit que I(u) est un idéal (non nul) de K[X]. Puisque K[X] est principal, I(u) est engendré par un
certain polynôme R. Or, il existe un unique P 6= 0 dans I(u) (s’écrivant donc P = RQ), de même degré que
R (condition nécessaire pour pouvoir diviser R, puisqu’il ne peut pas être de degré strictement plus petit), et
unitaire (cela correspond au choix de Q = a1 , où a est le coefficient dominant de R). Ce polynôme, différant de
R d’une constante, engendre aussi l’idéal I(u).
Ainsi il existe un unique polynôme unitaire P divisant tout polynôme annulateur de u.
Remarquez (on s’en servira par la suite) que P ne peut pas être constant non nul (car la fonction λId n’est pas
nulle si λ 6= 0 !)
3. (a) Soit λ une racine de P . On factorise P = (X − λ)Q(X). On a alors

0 = P (u) = (u − λId) ◦ Q(u).

Si u − λId est un automorphisme, alors u − λId est régulier dans l’anneau L(E), donc Q(u) = 0, et Q est
un polynôme annulateur non nul de degré strictement inférieur à celui de P , donc non divisible par P . Cela
contredit la définition de P .
Ainsi, u − λId n’est pas un automorphisme.

1
(b) • Si λ est racine de P , alors u − λid n’est pas un automorphisme, donc, d’après la caractérisation des
isomorphismes en dimension finie, u − λid n’est pas injective, d’où Ker(u − λid) 6= {0}. Il en résulte qu’il
existe x 6= 0 tel que (u − λid)(x) = 0, et donc u(x) = λx .
• Réciproquement, s’il existe x 6= 0 tel que u(x) = λx, alors une récurrence immédiate amène, pour tout
k ∈ N, uk (x) = λk x, et donc, par combinaison linéaire de ces expressions, pour tout polynôme Q,
Q(u)(x) = Q(λ) · x. En particulier, pour le polynôme P , puisque P (u) = 0, on obtient :

0 = P (λ) · x,

et x étant un vecteur non nul, on en déduit que P (λ) = 0.


Ainsi, λ est racine de P si et seulement s’il existe x 6= 0 tel que u(x) = λx.
4. (a) • Pour les mêmes raisons que plus haut, en factorisant P = P0 Q, soit P (u) = P0 (u) ◦ Q(u), si Ker(P0 (u)) =
{0}, alors Ker(P0 ) est injective, donc c’est un automorphisme (caractérisation des automorphismes en
dimension finie), donc est régulier, ce qui entraînerait que Q est un polynôme annulateur, ce qui contredit
la définition de P .
Ainsi, Ker(P0 (u)) 6= {0}.
• Deux polynômes d’un même endomorphisme commutant, on a u ◦ P0 (u) = P0 (u) ◦ u. Soit alors x ∈
Ker(P0 (u)). On a :
P0 (u)(u(x)) = P0 (u) ◦ u(x) = u ◦ P0 (u)(x) = u(0) = 0.

Ainsi, u(x) ∈ Ker(P0 (u)).


On en déduit que Ker(P0 (u)) est stable par u.
(b) Quitte à normaliser P0 , on peut noter P0 = X 2 + aX + b.
Soit x ∈ Ker(P0 (u)), non nul (cela existe d’après la question précédente). Alors u(x) et x ne sont pas
colinéaire. Sinon, on aurait l’existence de λ ∈ R tel que u(x) = λx, et comme x ∈ Ker(P0 (u)), on obtient

0 = P0 (u)(x) = u2 (x) + au(x) + bx = (λ2 + aλ + b)x,

et on conclut que λ est racine de P0 (x étant non nul), ce qui est impossible, puisque P0 est irréductible.
Ainsi, (x, u(x)) est libre. Notons P = Vect(x, u(x)) . Il s’agit bien d’un plan (sev de dimension 2).
Montrons que P est stable par u. Pour cela il suffit de vérifier que les images par u des éléments de la base
(x, u(x)) sont dans P . Par définition u(x) ∈ P , et de plus,

0 = P0 (u)(x) = u2 (x) + au(x) + bx, donc: u2 (x) = −au(x) − bx ∈ Vect(x, u(x)).

Ainsi, P est stable par u.

Partie II – Trigonalisation dans Mn (C)


Soit E un C-espace vectoriel de dimension n, et u ∈ L(E).
1. (a) Trouver une telle base revient à trouver un premier vecteur b1 tel que u(b1 ) = λb1 , pour un certain scalaire
λ ∈ C (qui sera le terme en position (1, 1)). On reconnaît les notions de valeur propre et de vecteur propre
introduits dans la partie I. Cela nous incite à considérer une racine du polynôme minimal.
Soit P le polynôme minimal de u. Comme C est algébriquement clos, et que P n’est pas constant, il admet
une racine λ, valeur propre de u, et un vecteur propre b1 6= 0 associé. Comme b1 6= 0, la famille (b1 ) est
libre, on peut donc la compléter en une base B = (b1 , . . . , bn ) de E. Puisque u(b1 ) = λb1 , on a alors la forme
suivante pour la matrice de u relativement à cette base :
!
λ A
MatB (u) = .
0 B

(b) On effectue une récurrence sur la taille de la matrice.


• L’initialisation, pour M ∈ M1 (C), est triviale !

2
• Soit n ∈ N telle que la triangularisabilité soit aquise pour les matrices d’ordre n−1, et soit M une matrice
d’ordre M . Soit u l’endomorphisme de Cn canoniquement associé à M , et (b1 , . . . , bn ) la base construite
dans la question précédente. On reprend les notations introduites dans cette question, en particulier les
sous-matrices A et B. La matrice B est d’ordre n − 1, et est donc trigonalisable dans Mn−1 (C) par
hypothèse de récurrence. Autrement dit, si v est l’endomorphisme de F = Vect(b2 , . . . , bn ) représenté
dans la base B ′ = (b2 , . . . , bn ) par B, il existe une base C ′ = (c2 , . . . , cn ) de F telle que MatC ′ (v) soit
triangulaire. Notons T cette matrice. Dans la base D = (b1 , c2 , . . . , cn ), on aura alors
!
λ A′
MatD (u) = .
0 T

En effet, v étant égal à p ◦ u|F , où p est la projection sur F parallèlement à Vect(e1 ), pour tout i ∈ [[2, n]],
u(bi ) et v(bi ) ne diffèrent que d’un terme en b1 , donc la matrice de u|F est égale à la matrice de v avec une
ligne en plus en haut.
Ainsi, MatD (u) est triangulaire. Notons T ′ cette matrice. D’après la formule de changement de base, on en
déduit que M est semblable à T ′ , ce qui prouve la propriété au rang n.
D’après le principe de récurrence, on en déduit que toute matrice de Mn (C) est trigonalisable.
Voici une autre façon de construire l’argument, purement matricielle (pour l’hérédité de la récurrence) :
D’après la question précédente, il existe P ∈ GLn (C) telle que
!
λ A
P M P −1 = .
0 B

D’après l’hypothèse de récurrence, il existe Q et une matrice triangulaire T telle que Q−1 BQ = T . On
définit !
1 0
Q′ = .
0 Q
Les règles de produit matriciel par blocs permettent facilement de conclure que Q′ ∈ GLn−1 (C) et
!
′ −1 1 0
Q = .
0 Q−1

Toujours les règles de produit matriciel par blocs amènent :


! ! !
′ −1 λ A λ A′ λ A′
Q Q= −1
= .
0 B 0 Q BQ 0 T

Ainsi, Q′−1 P −1 M P Q′ (aussi égal à (P Q′ )−1 M (P Q′ )) est triangulaire, d’où le résultat escompté.
(c) La matrice M −λIn est triangulaire, et ses coefficients diagonaux sont égaux aux mi,i −λ, où les mi,i sont les
coefficients diagonaux de M . Ainsi, par caractérisation de l’inversibilité des matrices triangulaires, M − λIn
est non inversible si et seulement si l’un des coefficients mi,i − λ est nul, si et seulement si λ est égal à l’un
des coefficients mi,i . Or, d’après la définition donnée en I-3(b), et par caractérisation des isomorphismes
en dimension finie, puis par caractérisation de l’injectivité par les noyaux, la non inversibilité de M − λIn
équivaut au fait que λ soit valeur propre de M (c’est-à-dire de u).
Ainsi, en mettant bout-à-bout les deux équivalences montrées :
λ est valeur propre de u si et seulement si λ est un des coefficients diagonaux de M .
2. On recherche maintenant une forme plus spécifique de matrice triangulaire représentant u.
(a) (Lemme des noyaux)
• Soit A et B deux polynômes premiers entre eux. D’après le théorème de Bézout, il existe U et V deux
polynômes tels que

AU + BV = 1, donc: U (u) ◦ A(u) + V (u) ◦ B(u) = Id. (1)

3
• Soit x ∈ Ker(A(u)) ∩ Ker(B(u)). On a donc A(u)(x) = 0 et B(u)(x) = 0, soit, en utilisant la relation (1),
x = U (u)(0) + V (u)(0) = 0. Ainsi,

Ker(A(u)) ∩ Ker(B(u)) = {0},

donc la somme Ker(A(u)) + Ker(B(u)) est directe.


• Soit x ∈ Ker(A(u)) + Ker(B(u)). Décomposons x = x1 + x2 , où x1 ∈ Ker(A(u)) et x2 ∈ Ker(B(u)). On
a alors

A(u) ◦ B(u)(x2 ) = A(u)(0) = 0 et A(u) ◦ B(u)(x1 ) = B(u) ◦ A(u)(x1 ) = B(u)(0) = 0.

Ainsi, x1 et x2 , donc aussi x, sont dans Ker(A(u) ◦ B(u)).


• Soit x ∈ Ker(A(u) ◦ B(u)). On a alors, d’après la relation (1) :

x = A(u) ◦ U (u)(x) + B(u) ◦ V (u)(x).

Soit x1 = B(u) ◦ V (u)(x) et x2 = A(u) ◦ U (u)(x). On a alors

A(u)(x1 ) = A(u) ◦ B(u) ◦ V (u)(x) = V (u) ◦ A(u) ◦ B(u)(x) = V (u)(0) = 0,

donc x1 ∈ Ker(A(u)), et de même x2 ∈ Ker(B(u)). On en déduit que x ∈ Ker(A(u)) + Ker(B(u)).


Des 3 points précédents, il découle que Ker(A(u) ◦ B(u)) = Ker(A(u)) ⊕ Ker(B(u)).
(b) Soit P le polynôme minimal, que l’on factorise dans C[X] :
k
Y
P = (X − λi )α1 ,
i=1

les λi étant deux à deux distincts. Les polynômes (X − λi )αi étant deux à deux premiers entre eux, une
récurrence immédiate à partir de la question précédente amène :
k
M
E = Ker(P (u)) = Ker((u − λi Id)αi ),
i=1

la première égalité provenant du fait que P est un polynôme annulateur de E.


On définit donc, pour tout i ∈ [[1, k]], Ei = Ker((u − λi Id)αi ).
• L’argument donné en I-4(a) pour la stabilité de Ker(P0 (u)) par u se généralise immédiatement à tout
noyau du type Ker(Q(u)). Ainsi, les Ei sont stables par u .
• Par définition de Ei , l’endomorphisme ui de Ei induit par u vérifie (u − λi id)αi = 0. Ainsi, (X − λ)αi est
un polynôme annulateur. Puisque le polynôme minimal Pi de ui divise (X − λi )αi et est non constant, il
admet une et une seule racine λi . D’après I-3(b), λi est l’unique valeur propre de ui .
• Les λi sont deux à deux distincts d’après leur définition.
3. On choisit, pour tout i ∈ [[1, k]], une base Bi de Ei relativement à laquelle la matrice Ti de ui est triangulaire
(ce qui est possible d’après II-1). Ses coefficients diagonaux sont constitués de valeurs propres de ui d’après 1(c),
donc sont tous égaux à λi (unique valeur propre de ui ). Par ailleurs, la famille B obtenue en concaténant, dans
cet ordre, les bases B1 , . . . , Bk , est une base de E (car E = E1 ⊕ E1 ⊕ · · · ⊕ Ek ). Relativement à cette base, on a
alors la description par blocs :
 
T1 0 · · · 0
 .. .. 
0 T
2 . .
MatB (u) =  .
 
. .. ..

. . . 0

0 ··· 0 Tk

Par ailleurs, les λi étant deux à deux distincts, les Ti sont bien à diagonales constantes, deux à deux distinctes
pour deux Ti différents.
Pour répondre à la trigonalisation sous cette forme d’une matrice M ∈ Mn (C), il suffit alors de considérer
l’endomorphisme u de L(Cn ) canoniquement associé à M , et d’appliquer ensuite la formule de changement de
base.

4
4. • Si M est diagonalisable, il existe une matrice diagonale D et une matrice inversible P telle que

P −1 M P = D.

Notons λ1 , . . . , λk les coefficients diagonaux deux à deux distincts de D (si D possède deux coefficients égaux,
on ne le considère qu’une fois). Alors pour tout i ∈ [[1, n]], il existe une matrice parmi D − λ1 , . . . , D − λk Ik
tel que le coefficient diagonale en position (i, i) de cette matrice soit nul. Ainsi, en effectuant le produit de ces
matrices (ce qui revient à effectuer le produit des coefficients diagonaux), on aura au moins un terme nul dans
chaque produit définissant les coefficients diagonaux du produit, d’où :

(D − λ1 In ) · · · (D − λk In ) = 0.

Les matrices M et D représentant un même endomorphisme relativement à des bases différentes, M vérifie la
même relation, donc le polynôme (X − λ1 ) · · · (X − λk ) est un polynôme annulateur. Comme il est à racines
simples, le polynôme minimal qui le divise est aussi à racines simples. Il n’est en fait pas difficile de remar-
quer que le polynôme obtenu est le polynôme minimal, puisque les valeurs propres de M sont les coefficients
diagonaux de D (question 1(c)) et que toute valeur propre de M est racine du polynôme minimal (question
I-3(b)).
• Réciproquement, si le polyôme minimal P est à racines simples, et si u est l’endomorphisme canoniquement
associé alors les sous-espaces Ei de la question 2(b) sont égaux à :

Ei = Ker(u − λi Id),

donc ui = λi IdEi . Il s’agit d’une homothétie, représentée, quelle que soit la base choisie, par la matrice λIni ,
où ni est la dimension de Ei . La matrice triangulaire obtenue dans la question 3 est alors diagonale. Ainsi,
u est diagonalisable, donc M aussi.
Ainsi, M est diagonalisable si et seulement si son polynôme minimal est à racines simples.

Partie III – Matrices de Hessenberg


On note Hn l’ensemble des matrices de Hessenberg de Mn (R), définies en début de problème.
1. (a) • Hn est un sous-ensemble non vide (0 ∈ Hn ) de Mn (R). Par ailleurs, étant donnés A = (ai,j ) et B = (bi,j )
deux éléments de Hn , et λ ∈ K, on a, pour tout (i, j) ∈ [[1, n]]2 tel que i > j + 1 :

ai,j = 0 et bi,j = 0 donc: λai,j + bi,j = 0,

d’où on conclut que λA + B ∈ Hn .


Ainsi, Hn est un sous-espace vectoriel de Mn (R).
• Considérons Jn la matrice de Jordan d’ordre n, constituée de 1 sur sa première sur-diagonale, et nulle
ailleurs. Alors tJn ∈ Hn , mais ( tJn )2 6∈ Hn (sauf si n 6 2), puisqu’il s’agit de la matrice constituée de 1
sur sa deuxième sous-diagonale et de 0 partout ailleurs.
Ainsi, si n > 2, Hn n’est pas une sous-algèbre de Mn (R) , car n’est pas stable par produit.
Si n = 1 ou n = 2, toute matrice est de Hessenberg, donc H1 et H2 sont des sous-algèbres de Mn (R).
(b) Soit T = (ti,j ) une matrice triangulaire et M ∈ Hn , dont on notera les colonnes Cj et les lignes Li .
• La colonne Cj′ du produit M T est :

n
X j
X
Cj′ = tk,j Cj = tk,j Ci .
k=1 k=1

Or, les colonnes Ck , pour k 6 j, ont tous leurs coefficients nuls sur les lignes i > j + 1, donc il en est de
même de Cj′ .
On en déduit que M T est de Hessenberg .

5
• Le même raisonnement tient pour T M , en raisonnant cette fois sur les lignes de M : la ligne L′i du produit
T M est
Xn n
X
L′i = ti,k Lk = ti,k Lk .
k=1 k=j

Or, les lignes Lk , pour k > j, sont nulles sur leurs colonnes j < i − 1, donc il en est de même de L′i .
Ainsi, T M est de Hessenberg.
2. (a) Ici, on n’a plus nécessairement de droite stable (fournie par un vecteur propre), mais il existe toujours soit
une droite stable, soit un plan stable, suivant qu’il existe un facteur irréductible de degré 1 ou de degré 2
dans le polynôme minimal (voir partie I). Suivant qu’on travaille avec un plan stable ou une droite stable,
on se retrouvera avec un bloc diagonal d’ordre 1 ou d’ordre 2. La récurrence se construit de la même façon
qu’en II-1, mais il faut cette fois faire une récurrence d’ordre 2. L’initialisation, pour n = 1 ou n = 2, est
triviale dans les deux cas. Si la propriété est aquise aux rangs n − 2 et n − 1,
• si le polynôme minimal admet une racine réelle, on se ramène au rang n − 1 de la même façon qu’en II-1,
• sinon, il admet un facteur irréductible P0 de degré 2, donc un plan stable P , d’après I-4. En considérant
une base (b1 , b2 ) de P , complétée en une base B = (b1 , . . . , bn ) de E, on se retrouve avec :
!
M0 A
MatB (u) = ,
0 B

où M0 ∈ M2 (R) est la matrice de l’endomorphisme v induit par u sur P , relativement à la base (b1 , b2 ).
On applique alors l’hypothèse de récurrence au rang n − 2 à B, les détails étant grosso modo similaires
à II-1.
Ainsi, il existe une base relativement à laquelle la matrice de u est triangulaire par blocs , les blocs diag-
onaux étant des blocs carrés 1 × 1 ou 2 × 2.
(b) Soit M ∈ Mn (R). On considère u ∈ L(Rn ) canoniquement associé, et une base B telle que la matrice H de
u dans cette base soit de la forme de la question précédente. Les blocs diagonaux étant de taille au plus 2,
ils ne « débordent » sur la partie inférieure de la matrice que d’au plus un terme (situé sur la première sous-
diagonale). Ainsi, la matrice H est de Hessenberg. Comme H et M représente le même endomorphisme,
elles sont semblables.
Ainsi, toute matrice M ∈ Hn est semblable à une matrice de Hessenberg.
3. (a) Puisqu’on veut effectuer des opérations sur les lignes pour trouver une matrice semblable, il faut faire en
même temps des opérations sur les colonnes, revenant à multiplier à droite par les inverses des matrices de
codage des opérations sur les lignes effectuées. Ainsi (inversez les matrices élémentaires !) :
• toute opération Li ← λLi doit être accompagnée d’une opération Ci ← λ1 Ci
• toute opération Li ↔ Lj doit être accompagnée d’une opération Ci ↔ Cj
• toute opération Li ← Li + λLj doit être accompagnée d’une opération Cj ← Cj − λCi .
On remarque que ce faisant, si toutes les opérations effectuées portent sur les lignes L2 à Ln , les opérations
sur les colonnes correspondantes n’affectent pas la colonne 1. Ainsi, si le but est uniquement de modifier la
colonne 1, à notre guise sans se préoccuper du reste, si nous n’utilisons pas la ligne 1, nous pouvons nous
contenter de décrire les opérations sur les lignes.
Or, si seul le coefficient en position (1, 1) est non nul, il n’y a rien à faire, et sinon, on peut ramener un
coefficient non nul en position (2, 1) par un échange L2 ↔ Lk , où k 6= 1.
À la manière du pivot de Gauss, on peut alors effectuer des opérations Lk ← Lk + αL2 pour k > 3, de sorte
à annuler le coefficient en position (k, 1).
À l’issue de ces opérations, la première colonne est nulle, sauf éventuellement ses deux premiers coefficients.
Les opérations effectuées n’utilisant pas la ligne 1, en faisant les opérations associées sur les colonnes, la
première colonne vérifiera toujours ces conditions.
Ainsi, M est semblable à une matrice M ′ = (m′i,j ) telle que m′i,1 = 0 pour i > 2.
(b) En itérant ce procédé (ou par récurrence) : on applique le même procédé sur (mi,j )26i,j6n . En utilisant la
notation globale sur M , les opérations effectuées n’utilisent que les lignes L3 à Ln (et donc les colonnes C3

6
à Cn ), donc n’affectent plus la première colonne (les seuls coefficients non nuls de C1 n’étant pas utilisés
dan ces opérations). Une fois l’idée comprise, le reste est de la mise en forme que je vous laisse faire.
Ainsi, toute matrice est semblable à une matrice de Hessenberg .
(c) On obtient le programme suivant (les définitions des opérations sur les lignes et colonnes n’étaient pas
demandées)
import numpy as np

# Attention, toutes les indexations des lignes et colonnes commencent à 0

def echange_lignes(A,i,j): # Attention, ces fonctions modifient


# la valeur de A. Pour éviter cela
# on peut utiliser copy comme plus loin
for k in range(np.shape(A)[1]):
A[i,k], A[j,k]= A[j,k], A[i,k]
return A

def echange_colonnes(A,i,j):
for k in range(np.shape(A)[0]):
A[k,i], A[k,j]= A[k,j], A[k,i]
return A

def combine_lignes(A,i,j,a): # Attention, ces fonctions modifient


# la valeur de A. Pour éviter cela
# on peut utiliser copy comme plus loin
for k in range(np.shape(A)[1]):
A[i,k] += a * A[j,k]
return A

def combine_colonnes(A,i,j,a):
for k in range(np.shape(A)[0]):
A[k,i] += a * A[k,j]
return A

def choix_pivot(A,j): #choix du pivot sur la i-ième colonne


pivot = j+1 # on commence la recherche strictement sous la diagonale
# (en position (j+1,j),
for i in range(j+2,np.shape(A)[0]):
if abs(A[pivot,j]) < abs(A[i,j]):
pivot = i
return pivot #choix du pivot le plus grand.

def hessenberg(A):
B = np.copy(A) #afin de régler les problèmes de dépendance
#(sinon A est modifié)
(n, p) =np.shape(A)
if n != p:
raise ValueError(’Erreur␣de␣format’)
for j in range(n-2): #rien à faire sur les deux dernières colonnes!
indice_pivot = choix_pivot(B,j)
echange_lignes(B,j+1,indice_pivot)
#pas besoin d’affectation, la fonction modifie B

7
echange_colonnes(B,j+1,indice_pivot)
pivot = B[j+1,j]
if abs(pivot) > 1e-15:
for i in range(j+2,n):
coeff = B[i,j]
combine_lignes(B,i,j+1,- coeff / pivot)
combine_colonnes(B,j+1,i, coeff / pivot)
return(B)

Partie IV – Méthode de Householder


Soit k ∈ [[1, n]].


x1
 . 
1. (a) On note X =  . 
 . . On a alors
xn
n
X
t
XX = x2i > 0.
i=1
De plus, X 6= 0, donc un terme au moins de cette somme de termes positifs est strictement positif, donc

XX>0.
t

(b) On vérifie que SX


2
= In :
 2
2 4 4
SX = Ik − X tX = Ik − X tX + X tXX tX.
kXk2 kXk 2 kXk4

Or, X tXX tX = X( tXX) tX = kXk2 tXX, et on trouver bien SX


2
= In , donc SX est une matrice de symétrie.
Les règles de produit par blocs amènent alors :
! !
2
2 In−k 0n−k,k In−k 0n−k,k
TX = 2
= = TX ,
0k,n−k SX 0k,n−k SX

donc TX est aussi une matrice de symétrie.


   
y1 x1
. .
2. Soit Y =  . .
 . . On a alors X =  . , où pour tout i > 2, xi = yi , et xi = y1 + kY k. La matrice SX est alors
yk xk
donnée par :
2
SX = (si,j )i,j , si,j = δi,j − xi xj ,
kXk2
où δi,j = 1 si et seulement si i = j, et 0 sinon (symbole de Kronecker). Soit (zi ) les coordonnées de SX Y . On a
alors, pour i > 2,
n n
X X 2
zi = si,j yj = δi,j yj − yi xj yj
j=1 j=1
kXk2
 
n
2yi X 2
= yi − y + y1 kY k
kXk2 j=1 j

Ainsi,
 
n
X
kXk2 zi = yi  x2j − 2kY k2 + 2y1 kY k
j=1

= yi kY k2 − y12 + (y1 + kY k)2 − 2kY k2 + 2y1 kY k = 0




Ainsi, toutes les composantes de SX Y , à part peut-être la première, sont nulles, donc SX Y et E1 sont colinéaires .

8
3. Soit M une matrice de Mn (R).
(a) On effectue une récurrence sur r ∈ [[1, n − 1]]. Pour r = 1, il n’y a rien à démontrer (l’énoncé de la propriété
n’impose aucune condition sur Pr M Pr−1 , il suffit alors de prendre Pr = In .)
Soit r ∈ [[1, n − 2]] tel qu’il existe Pr , produit de matrices de symétries, telle que
 

Hr Ar 
 

 
Kr = Pr M Pr−1
 
=



 
0n−r,r−1 Y Br 
 

On considère alors, pour le vecteur Y de cette description par blocs, et le vecteur X associé selon les questions
précédentes, la symétrie SX , envoyant Y sur un vecteur colinéaire à E1 dans Mn−r,1 (R). On considère la
symétrie TX associée à la façon de la question 1(b). L’opération Kr TX n’affecte pas les colonnes 0 à r de la
matrice Kr (en particulier la colonne r, contenant la sous-colonne Y :
 

Hr A′r 
 

 
 
Kr TX =

.

 
′ 
0n−r,r−1 Br 

 Y

De même, les règles d’opération par blocs montre que l’opération TX Kr TX n’affecte pas les r premières
lignes de Kr TX : il restera donc toujours la matrice Hr dans le coin supérieur gauche. Par ailleurs, soit Er
le r-ième vecteur de la base
! canonique de Mn,1 (K). Vu ce qu’on a dit plus haut, Kr TX Er est de la forme
F
par blocs Kr TX Er = , et donc
Y
!
Ir F
TX Kr TX Er = .
SX Y
 

0
 
Comme SX Y est de la forme   .. , il en résulte que sur la colonne r, les coefficients des lignes r + 2 jusqu’à

.
0
−1
n sont nuls. On obtient donc la description voulue au rang r + 1. Par ailleurs, TX = TX , la matrice Pr+1
est donc définie par Pr+1 = TX Pr .
Le principe de récurrence permet de conclure.
(b) Pour r = n − 1, on retrouve la similitude à une matrice de Hessenberg.
4. D’après la question précédente, il existe P , obtenue comme produit de matrice de symétries (P = S1 · · · Sk ) telle
que H = P M P −1 soit de Hessenberg. Or,

P −1 = Sk−1 · · · S1−1 = Sk · · · S1 ,

car Si2 = In . Ainsi,


H = S1 · · · Sk M Sk · · · S1 .

On remarque aussi que les matrices de symétrie introduites dans cet arguemnt sont symétriques, et M l’étant
aussi :
t
H = tS1 · · · tSk tM tSk · · · tS1 = S1 · · · Sk M Sk · · · S1 = H.

Ainsi, H est une matrice de Hessenberg symétrique, ce qui impose que H est tridiagonale.
Ainsi, toute matrice symétrique M est semblable à une matrice tridiagonale.

9
Correction du problème 2 – Réduction de Jordan

Partie I – Réduction du problème

1. On a u ◦ (u − λi id)αi = (u − λi )αi ◦ u, donc, pour tout x ∈ Ker((u − λi id)αi ),

(u − λi id)αi (u(x)) = u (u − λi id)αi (x)) = u(0) = 0.

Ainsi, u(x) ∈ Ker(u − λi id)αi . On en déduit que Ker((u − λi id)αi ) est stable par u .
Plus généralement, le même raisonnement prouverait que pour tous polynômes P et Q, Ker(P (u)) est stable par
Q(u). En particulier, Ker((u − λi id)αi ) est aussi stable par u − λi id.
2. Soit A la matrice de u dans la base B, et A = (Ai,j )16i,j6k le découpage de A par blocs M
correspondant à la
décomposition de E en somme des Ei . En notant pi la projection sur Ei parallèlement à Ej , le bloc Ai,j
j6=i
représente alors
Ai,j = MatBj ,Bi pi ◦ u|Ej .
Or, si i 6= j, par stabilité des Ej par u, Im(u|Ej ) ⊂ Ej , donc pi ◦ u|Ej = 0. Ainsi, tous les blocs Ai,j situés
ailleurs que sur la diagonale sont nuls. Les blocs diagonaux, quant à eux, représentent pi ◦ u|Ei (c’est-à-dire ui )
relativement à la base Bi ; on a la représentation par blocs :
 

 MatB1 (u1 ) 0 ··· 0


 

 
 
 
 
.. ..
 
. .
 
 0 MatB2 (u2 ) 
MatB (u) = 
 

 
 .. .. ..

. . . 0
 
 
 
 
 
0 ··· 0 MatBk (uk ) 
 

3. Puisque Ei = Ker((u − λi id)αi ), pour tout x ∈ Ei , viαi (x) = 0. Ainsi, l’endomophisme viαi de Ei est nul. On en
déduit que vi est nilpotent.
4. Si tout endomorphisme nilpotent d’un C-ev de dimension finie admet une décomposition de Jordan, alors les
vi admettent une décomposition de Jordan. Ainsi, il existe une base Bi relativement à laquelle
 MatBi (vi ) est

0 1 0 0
0 . . . . . . 0 
 
diagonale par blocs, chaque bloc diagonal étant une matrice de Jordan de diagonale nulle  . .
 
. .. ..
. . . 1

0 ··· 0 0
base, MatBi (ui ) estégalement diagonale par blocs, chaque bloc étant une matrice de Jordan
Ainsi, dans cette 
λi 1 0 0
 0 ... ... 0 
 
de diagonale λi :  . .
 
 . .. ..
. . . 1

 
0 · · · 0 λi
La question 2 nous assure alors que dans la base obtenue par concaténation des Bi , la matrice de u est diagonale
par blocs, chaque bloc étant une matrice de Jordan ; il peut y avoir plusieurs blocs de même diagonale λi (et de
taille éventuellement différentes), correspondant aux différents blocs de la décomposition de ui .
Ainsi, si le résultat est acquis pour les endomorphismes nilpotents,
tout endomorphisme d’un C-ev de dimension finie admet une réduction de Jordan .

Partie II – Réduction de Jordan d’un endomorphisme nilpotent

10
1. Argument classique. Soit λ0 , . . . , λp−1 tels que

λ0 x + · · · + λp−1 up−1 (x) = 0.

Supposons les λi non tous nuls. Soit i le plus petit indice tel que λi 6= 0. En composant par up−1−i , il vient
alors :
λi up−1 + λi+1 up + · · · + λp−1 u2p−2−i (x) = 0
Comme up = 0 et up−1 (x) 6= 0, il vient

λi up−1 (x) = 0 puis: λi = 0,

d’où une contradiction. Ainsi, les λi sont tous nuls, ce qui signifie que :
la famille (up−1 (x), up−2 (x), . . . , u(x), x) est libre.
On note F le sous-espace engendré par cette famille.
2. Il suffit de montrer que l’image par u des éléments de la base (up−1 (x), . . . , u(x), x) de F est dans F . Or, pour
tout i ∈ [[0, p − 1]], u(ui (x)) = ui+1 (x) ∈ F , puisqu’il s’agit d’un autre élément de la base si i 6= p − 1, et de 0 ∈ F
si i = p − 1. Ainsi, F est stable par u.
3. Soit k ∈ [[1, p]].
• La somme est directe car up−k (x) 6∈ Ker(uk−1 ), puisque up−1 (x) 6= 0.
• Clairement et classiquement, Ker(uk−1 ) ⊂ Ker(uk ), et uk (up−k (x)) = up (x) = 0, donc Vect(up−k (x)) ⊂
Ker(uk ).
Ainsi : Ker(uk−1 ) ⊕ Vect(up−k (x)) ⊂ Ker(uk )
4. Soit Sp un supplémentaire de Ker(up−1 ) ⊕ Vect(x) dans Ker(up ). On a alors :

Ker(up−2 ) ⊕ Vect(u(x)) ⊕ u(Sp ) ⊂ Ker(up−1 ).

En effet :
• La première somme est directe d’après la question précédente.
• Soit y ∈ (Ker(up−2 ) ⊕ Vect(u(x))) ∩ u(Sp ). Il existe donc x1 ∈ Ker(up−2 ), λ ∈ C, et x2 ∈ Sp tels que

y = x1 + λu(x) et y = u(x2 ), donc: u(x2 ) = x1 + λu(x).

En appliquant up−2 , il vient donc :


up−1 (x2 ) = λup−1 (x).
Or, up−1 est injective sur Sp ⊕ Vect(x), supplémentaire de Ker(up−1 ) dans Ker(up ) = E, et x2 et x sont dans
Sp ⊕ Vect(x). Ainsi, x2 = λx. Comme Sp ∩ Vect(x) = {0}, on en déduit que x2 = 0, puis y = 0.
Ainsi, la somme Ker(up−2 ) ⊕ Vect(u(x)) ⊕ u(Sp ) est directe.
• On a Ker(up−2 ) ⊕ Vect(u(x)) ⊂ Ker(up−1 ) d’après la question précédente, et u(Sp ) ⊂ Ker(up−1 ) (car up = 0).
Donc
Ker(up−2 ) ⊕ Vect(u(x)) ⊕ u(Sp ) ⊂ Ker(up−1 ).
Soit Tp−1 un supplémentaire de Ker(up−2 ) ⊕ Vect(u(x)) ⊕ u(Sp ) dans Ker(up−1 ). On a donc

Ker(up−2 ) ⊕ Vect(u(x)) ⊕ u(Sp ) ⊕ Tp−1 = Ker(up−1 ),

donc, Sp−1 = Tp−1 ⊕ u(Sp ) est un supplémentaire de Ker(up−2 ) ⊕ Vect(u(x)) dans Ker(up−1 ) contenant u(Sp ).
5. Le raisonnement est le même. Supposons Sp , . . . , Sk+1 construits.
• On a Ker(uk−1 ) ⊕ Vect(up−k ) ⊂ Ker(uk ) d’après la question 3.
• Soit y ∈ (Ker(uk−1 ) ⊕ Vect(up−k )) ∩ u(Sk+1 ). Il existe x1 ∈ Ker(uk−1 ), λ ∈ C et x2 ∈ Sk+1 tels que

y = u(x2 ) = x1 + λup−k (x).

En appliquant uk−1 à cette égalité, il vient

uk (x2 ) = uk (λup−k−1 (x)).

11
Or, uk est injective sur Sk+1 ⊕ Vect(up−k−1 ) (car cet espace est en somme directe avec Ker(uk+1 ), d’après la
construction de Sk+1 ). Ainsi, x2 = λup−k−1 (x). Comme Sk+1 ∩ Vect(up−k−1 (x)) = {0}, il vient x2 = 0, puis
y = 0.
Ainsi, la somme Ker(uk−1 ) ⊕ Vect(up−k ) ⊕ u(Sk+1 ) est directe.
• Comme Sk+1 ⊂ Ker(uk+1 ), on a u(Sk+1 ) ⊂ Ker(uk ). Les autres inclusions ayant déjà été montrées, il vient
donc :
Ker(uk−1 ) ⊕ Vect(up−k ) ⊕ u(Sk+1 ) ⊂ Ker(uk ).

Soit Tk un supplémentaire de Ker(uk−1 ) ⊕ Vect(up−k ) ⊕ u(Sk+1 ) dans Ker(uk ) et Sk = Tk ⊕ u(Sk+1 ).


Alors Sk est un supplémentaire de Ker(uk−1 ) ⊕ Vect(up−k ) dans Ker(uk ), contenant u(Sk+1 ).
6. Soit T = S1 + · · · + Sp .
• Par définition de S1 , on a Vect(up−1 (x)) ⊕ S1 = Ker(u).
• On a ensuite Ker(u) ⊕ Vect(up−2 (x)) ⊕ S2 = Ker(u2 ), donc d’aprè le point précéent :

Vect(up−1 (x), up−2 (x)) ⊕ S1 ⊕ S2 = Ker(u2 ).

• Plus généralement, pour tout k ∈ [[1, p]],

Vect(up−1 (x), . . . , up−k (x)) ⊕ S1 ⊕ · · · ⊕ Sk = Ker(uk ).

En effet, si le résultat est aquis pour k − 1 > 1, il vient :

Vect(up−1 (x), . . . , up−k (x)) ⊕ S1 ⊕ · · · ⊕ Sk


= Vect(up−1 (x), . . . , up−k+1 (x)) ⊕ S1 ⊕ · · · ⊕ Sk−1 ⊕ Vect(up−k (x)) ⊕ Sk
= Ker(uk−1 ) ⊕ Vect(up−k (x)) ⊕ Sk = Ker(uk ).

• En particulier, pour k = p, on trouve que T est un supplémentaire de F dans E = Ker(up ).


• Par ailleurs,
u(T ) ⊂ u(S1 ) + · · · + u(Sp ) ⊂ {0} + S1 + · · · + Sp−1 ⊂ T.

Ainsi, T est stable par u.


7. On montre alors le résultat par récurrence forte sur la dimension n de l’espace E.
Lorsque dim E = 0, il n’y a rien à montrer.
Soit n ∈ N∗ . Supposons que tout endomorphisme nilpotent d’un C-ev de dimension k < n admet une décomposi-
tion de Jordan. Soit u un endomorphisme nilpotent d’un C-ev E de dimension n, d’indice de nilpotentce p. Soit
x 6∈ Ker(up−1 ), et F et T construits comme ci-dessus. Alors F et T sont des sous-espaces stables par u. Soient
u1 et u2 les endomorphismes de F et T induits par u.
• Comme dim(F ) > 0, on a dim(T ) < n, et on peut appliquer l’hypothèse de récurrence à T : il existe une base
B2 de T relativement à laquelle MatB2 (u2 ) est diagonale par bloc, chaque bloc étant une matrice de Jordan
de diagonale nulle.
• On ne peut pas appliquer l’hypothèse de récurrence à F (car rien n’assure que dim(F ) < n : T peut être
nul). En revanche, il est facile de trouver une base relativement à laquelle la matrice de u1 est une matrice de
Jordan : B1 = (uk−p (x), . . . , u(x), x).
• Soit B la juxtaposition des bases B1 et B2 . Alors la matrice de u relativement à la base B est diagonale par
blocs : !
MatB1 (u1 ) 0
MatB (u) = .
0 MatB2 (u2 )
D’après les deux points précédents, cette matrice est constituée de blocs diagonaux égaux à des matrices de
Jordan, ce qui achève la preuve.
Ainsi, toute matrice nilpotente admet une réduction de Jordan.

12

Vous aimerez peut-être aussi