Corrdm 15
Corrdm 15
MPSI 4 – Mathématiques
A. Troesch
DM no 15 : Matrices
Question préliminaire
D’après le cours, toute matrice carrée est équivalente à une matrice In,n,r , définie par blocs :
!
Ir 0r,n−r
In,n,r = .
0n−r,r 0r,r
car Q(u) est une application linéaire. Ainsi, P Q est encore un polynôme annulateur.
On en déduit que I(u) est un idéal (non nul) de K[X]. Puisque K[X] est principal, I(u) est engendré par un
certain polynôme R. Or, il existe un unique P 6= 0 dans I(u) (s’écrivant donc P = RQ), de même degré que
R (condition nécessaire pour pouvoir diviser R, puisqu’il ne peut pas être de degré strictement plus petit), et
unitaire (cela correspond au choix de Q = a1 , où a est le coefficient dominant de R). Ce polynôme, différant de
R d’une constante, engendre aussi l’idéal I(u).
Ainsi il existe un unique polynôme unitaire P divisant tout polynôme annulateur de u.
Remarquez (on s’en servira par la suite) que P ne peut pas être constant non nul (car la fonction λId n’est pas
nulle si λ 6= 0 !)
3. (a) Soit λ une racine de P . On factorise P = (X − λ)Q(X). On a alors
Si u − λId est un automorphisme, alors u − λId est régulier dans l’anneau L(E), donc Q(u) = 0, et Q est
un polynôme annulateur non nul de degré strictement inférieur à celui de P , donc non divisible par P . Cela
contredit la définition de P .
Ainsi, u − λId n’est pas un automorphisme.
1
(b) • Si λ est racine de P , alors u − λid n’est pas un automorphisme, donc, d’après la caractérisation des
isomorphismes en dimension finie, u − λid n’est pas injective, d’où Ker(u − λid) 6= {0}. Il en résulte qu’il
existe x 6= 0 tel que (u − λid)(x) = 0, et donc u(x) = λx .
• Réciproquement, s’il existe x 6= 0 tel que u(x) = λx, alors une récurrence immédiate amène, pour tout
k ∈ N, uk (x) = λk x, et donc, par combinaison linéaire de ces expressions, pour tout polynôme Q,
Q(u)(x) = Q(λ) · x. En particulier, pour le polynôme P , puisque P (u) = 0, on obtient :
0 = P (λ) · x,
et on conclut que λ est racine de P0 (x étant non nul), ce qui est impossible, puisque P0 est irréductible.
Ainsi, (x, u(x)) est libre. Notons P = Vect(x, u(x)) . Il s’agit bien d’un plan (sev de dimension 2).
Montrons que P est stable par u. Pour cela il suffit de vérifier que les images par u des éléments de la base
(x, u(x)) sont dans P . Par définition u(x) ∈ P , et de plus,
2
• Soit n ∈ N telle que la triangularisabilité soit aquise pour les matrices d’ordre n−1, et soit M une matrice
d’ordre M . Soit u l’endomorphisme de Cn canoniquement associé à M , et (b1 , . . . , bn ) la base construite
dans la question précédente. On reprend les notations introduites dans cette question, en particulier les
sous-matrices A et B. La matrice B est d’ordre n − 1, et est donc trigonalisable dans Mn−1 (C) par
hypothèse de récurrence. Autrement dit, si v est l’endomorphisme de F = Vect(b2 , . . . , bn ) représenté
dans la base B ′ = (b2 , . . . , bn ) par B, il existe une base C ′ = (c2 , . . . , cn ) de F telle que MatC ′ (v) soit
triangulaire. Notons T cette matrice. Dans la base D = (b1 , c2 , . . . , cn ), on aura alors
!
λ A′
MatD (u) = .
0 T
En effet, v étant égal à p ◦ u|F , où p est la projection sur F parallèlement à Vect(e1 ), pour tout i ∈ [[2, n]],
u(bi ) et v(bi ) ne diffèrent que d’un terme en b1 , donc la matrice de u|F est égale à la matrice de v avec une
ligne en plus en haut.
Ainsi, MatD (u) est triangulaire. Notons T ′ cette matrice. D’après la formule de changement de base, on en
déduit que M est semblable à T ′ , ce qui prouve la propriété au rang n.
D’après le principe de récurrence, on en déduit que toute matrice de Mn (C) est trigonalisable.
Voici une autre façon de construire l’argument, purement matricielle (pour l’hérédité de la récurrence) :
D’après la question précédente, il existe P ∈ GLn (C) telle que
!
λ A
P M P −1 = .
0 B
D’après l’hypothèse de récurrence, il existe Q et une matrice triangulaire T telle que Q−1 BQ = T . On
définit !
1 0
Q′ = .
0 Q
Les règles de produit matriciel par blocs permettent facilement de conclure que Q′ ∈ GLn−1 (C) et
!
′ −1 1 0
Q = .
0 Q−1
Ainsi, Q′−1 P −1 M P Q′ (aussi égal à (P Q′ )−1 M (P Q′ )) est triangulaire, d’où le résultat escompté.
(c) La matrice M −λIn est triangulaire, et ses coefficients diagonaux sont égaux aux mi,i −λ, où les mi,i sont les
coefficients diagonaux de M . Ainsi, par caractérisation de l’inversibilité des matrices triangulaires, M − λIn
est non inversible si et seulement si l’un des coefficients mi,i − λ est nul, si et seulement si λ est égal à l’un
des coefficients mi,i . Or, d’après la définition donnée en I-3(b), et par caractérisation des isomorphismes
en dimension finie, puis par caractérisation de l’injectivité par les noyaux, la non inversibilité de M − λIn
équivaut au fait que λ soit valeur propre de M (c’est-à-dire de u).
Ainsi, en mettant bout-à-bout les deux équivalences montrées :
λ est valeur propre de u si et seulement si λ est un des coefficients diagonaux de M .
2. On recherche maintenant une forme plus spécifique de matrice triangulaire représentant u.
(a) (Lemme des noyaux)
• Soit A et B deux polynômes premiers entre eux. D’après le théorème de Bézout, il existe U et V deux
polynômes tels que
3
• Soit x ∈ Ker(A(u)) ∩ Ker(B(u)). On a donc A(u)(x) = 0 et B(u)(x) = 0, soit, en utilisant la relation (1),
x = U (u)(0) + V (u)(0) = 0. Ainsi,
les λi étant deux à deux distincts. Les polynômes (X − λi )αi étant deux à deux premiers entre eux, une
récurrence immédiate à partir de la question précédente amène :
k
M
E = Ker(P (u)) = Ker((u − λi Id)αi ),
i=1
0 ··· 0 Tk
Par ailleurs, les λi étant deux à deux distincts, les Ti sont bien à diagonales constantes, deux à deux distinctes
pour deux Ti différents.
Pour répondre à la trigonalisation sous cette forme d’une matrice M ∈ Mn (C), il suffit alors de considérer
l’endomorphisme u de L(Cn ) canoniquement associé à M , et d’appliquer ensuite la formule de changement de
base.
4
4. • Si M est diagonalisable, il existe une matrice diagonale D et une matrice inversible P telle que
P −1 M P = D.
Notons λ1 , . . . , λk les coefficients diagonaux deux à deux distincts de D (si D possède deux coefficients égaux,
on ne le considère qu’une fois). Alors pour tout i ∈ [[1, n]], il existe une matrice parmi D − λ1 , . . . , D − λk Ik
tel que le coefficient diagonale en position (i, i) de cette matrice soit nul. Ainsi, en effectuant le produit de ces
matrices (ce qui revient à effectuer le produit des coefficients diagonaux), on aura au moins un terme nul dans
chaque produit définissant les coefficients diagonaux du produit, d’où :
(D − λ1 In ) · · · (D − λk In ) = 0.
Les matrices M et D représentant un même endomorphisme relativement à des bases différentes, M vérifie la
même relation, donc le polynôme (X − λ1 ) · · · (X − λk ) est un polynôme annulateur. Comme il est à racines
simples, le polynôme minimal qui le divise est aussi à racines simples. Il n’est en fait pas difficile de remar-
quer que le polynôme obtenu est le polynôme minimal, puisque les valeurs propres de M sont les coefficients
diagonaux de D (question 1(c)) et que toute valeur propre de M est racine du polynôme minimal (question
I-3(b)).
• Réciproquement, si le polyôme minimal P est à racines simples, et si u est l’endomorphisme canoniquement
associé alors les sous-espaces Ei de la question 2(b) sont égaux à :
Ei = Ker(u − λi Id),
donc ui = λi IdEi . Il s’agit d’une homothétie, représentée, quelle que soit la base choisie, par la matrice λIni ,
où ni est la dimension de Ei . La matrice triangulaire obtenue dans la question 3 est alors diagonale. Ainsi,
u est diagonalisable, donc M aussi.
Ainsi, M est diagonalisable si et seulement si son polynôme minimal est à racines simples.
n
X j
X
Cj′ = tk,j Cj = tk,j Ci .
k=1 k=1
Or, les colonnes Ck , pour k 6 j, ont tous leurs coefficients nuls sur les lignes i > j + 1, donc il en est de
même de Cj′ .
On en déduit que M T est de Hessenberg .
5
• Le même raisonnement tient pour T M , en raisonnant cette fois sur les lignes de M : la ligne L′i du produit
T M est
Xn n
X
L′i = ti,k Lk = ti,k Lk .
k=1 k=j
Or, les lignes Lk , pour k > j, sont nulles sur leurs colonnes j < i − 1, donc il en est de même de L′i .
Ainsi, T M est de Hessenberg.
2. (a) Ici, on n’a plus nécessairement de droite stable (fournie par un vecteur propre), mais il existe toujours soit
une droite stable, soit un plan stable, suivant qu’il existe un facteur irréductible de degré 1 ou de degré 2
dans le polynôme minimal (voir partie I). Suivant qu’on travaille avec un plan stable ou une droite stable,
on se retrouvera avec un bloc diagonal d’ordre 1 ou d’ordre 2. La récurrence se construit de la même façon
qu’en II-1, mais il faut cette fois faire une récurrence d’ordre 2. L’initialisation, pour n = 1 ou n = 2, est
triviale dans les deux cas. Si la propriété est aquise aux rangs n − 2 et n − 1,
• si le polynôme minimal admet une racine réelle, on se ramène au rang n − 1 de la même façon qu’en II-1,
• sinon, il admet un facteur irréductible P0 de degré 2, donc un plan stable P , d’après I-4. En considérant
une base (b1 , b2 ) de P , complétée en une base B = (b1 , . . . , bn ) de E, on se retrouve avec :
!
M0 A
MatB (u) = ,
0 B
où M0 ∈ M2 (R) est la matrice de l’endomorphisme v induit par u sur P , relativement à la base (b1 , b2 ).
On applique alors l’hypothèse de récurrence au rang n − 2 à B, les détails étant grosso modo similaires
à II-1.
Ainsi, il existe une base relativement à laquelle la matrice de u est triangulaire par blocs , les blocs diag-
onaux étant des blocs carrés 1 × 1 ou 2 × 2.
(b) Soit M ∈ Mn (R). On considère u ∈ L(Rn ) canoniquement associé, et une base B telle que la matrice H de
u dans cette base soit de la forme de la question précédente. Les blocs diagonaux étant de taille au plus 2,
ils ne « débordent » sur la partie inférieure de la matrice que d’au plus un terme (situé sur la première sous-
diagonale). Ainsi, la matrice H est de Hessenberg. Comme H et M représente le même endomorphisme,
elles sont semblables.
Ainsi, toute matrice M ∈ Hn est semblable à une matrice de Hessenberg.
3. (a) Puisqu’on veut effectuer des opérations sur les lignes pour trouver une matrice semblable, il faut faire en
même temps des opérations sur les colonnes, revenant à multiplier à droite par les inverses des matrices de
codage des opérations sur les lignes effectuées. Ainsi (inversez les matrices élémentaires !) :
• toute opération Li ← λLi doit être accompagnée d’une opération Ci ← λ1 Ci
• toute opération Li ↔ Lj doit être accompagnée d’une opération Ci ↔ Cj
• toute opération Li ← Li + λLj doit être accompagnée d’une opération Cj ← Cj − λCi .
On remarque que ce faisant, si toutes les opérations effectuées portent sur les lignes L2 à Ln , les opérations
sur les colonnes correspondantes n’affectent pas la colonne 1. Ainsi, si le but est uniquement de modifier la
colonne 1, à notre guise sans se préoccuper du reste, si nous n’utilisons pas la ligne 1, nous pouvons nous
contenter de décrire les opérations sur les lignes.
Or, si seul le coefficient en position (1, 1) est non nul, il n’y a rien à faire, et sinon, on peut ramener un
coefficient non nul en position (2, 1) par un échange L2 ↔ Lk , où k 6= 1.
À la manière du pivot de Gauss, on peut alors effectuer des opérations Lk ← Lk + αL2 pour k > 3, de sorte
à annuler le coefficient en position (k, 1).
À l’issue de ces opérations, la première colonne est nulle, sauf éventuellement ses deux premiers coefficients.
Les opérations effectuées n’utilisant pas la ligne 1, en faisant les opérations associées sur les colonnes, la
première colonne vérifiera toujours ces conditions.
Ainsi, M est semblable à une matrice M ′ = (m′i,j ) telle que m′i,1 = 0 pour i > 2.
(b) En itérant ce procédé (ou par récurrence) : on applique le même procédé sur (mi,j )26i,j6n . En utilisant la
notation globale sur M , les opérations effectuées n’utilisent que les lignes L3 à Ln (et donc les colonnes C3
6
à Cn ), donc n’affectent plus la première colonne (les seuls coefficients non nuls de C1 n’étant pas utilisés
dan ces opérations). Une fois l’idée comprise, le reste est de la mise en forme que je vous laisse faire.
Ainsi, toute matrice est semblable à une matrice de Hessenberg .
(c) On obtient le programme suivant (les définitions des opérations sur les lignes et colonnes n’étaient pas
demandées)
import numpy as np
def echange_colonnes(A,i,j):
for k in range(np.shape(A)[0]):
A[k,i], A[k,j]= A[k,j], A[k,i]
return A
def combine_colonnes(A,i,j,a):
for k in range(np.shape(A)[0]):
A[k,i] += a * A[k,j]
return A
def hessenberg(A):
B = np.copy(A) #afin de régler les problèmes de dépendance
#(sinon A est modifié)
(n, p) =np.shape(A)
if n != p:
raise ValueError(’Erreur␣de␣format’)
for j in range(n-2): #rien à faire sur les deux dernières colonnes!
indice_pivot = choix_pivot(B,j)
echange_lignes(B,j+1,indice_pivot)
#pas besoin d’affectation, la fonction modifie B
7
echange_colonnes(B,j+1,indice_pivot)
pivot = B[j+1,j]
if abs(pivot) > 1e-15:
for i in range(j+2,n):
coeff = B[i,j]
combine_lignes(B,i,j+1,- coeff / pivot)
combine_colonnes(B,j+1,i, coeff / pivot)
return(B)
XX>0.
t
Ainsi,
n
X
kXk2 zi = yi x2j − 2kY k2 + 2y1 kY k
j=1
Ainsi, toutes les composantes de SX Y , à part peut-être la première, sont nulles, donc SX Y et E1 sont colinéaires .
8
3. Soit M une matrice de Mn (R).
(a) On effectue une récurrence sur r ∈ [[1, n − 1]]. Pour r = 1, il n’y a rien à démontrer (l’énoncé de la propriété
n’impose aucune condition sur Pr M Pr−1 , il suffit alors de prendre Pr = In .)
Soit r ∈ [[1, n − 2]] tel qu’il existe Pr , produit de matrices de symétries, telle que
Hr Ar
Kr = Pr M Pr−1
=
0n−r,r−1 Y Br
On considère alors, pour le vecteur Y de cette description par blocs, et le vecteur X associé selon les questions
précédentes, la symétrie SX , envoyant Y sur un vecteur colinéaire à E1 dans Mn−r,1 (R). On considère la
symétrie TX associée à la façon de la question 1(b). L’opération Kr TX n’affecte pas les colonnes 0 à r de la
matrice Kr (en particulier la colonne r, contenant la sous-colonne Y :
Hr A′r
Kr TX =
.
′
0n−r,r−1 Br
Y
De même, les règles d’opération par blocs montre que l’opération TX Kr TX n’affecte pas les r premières
lignes de Kr TX : il restera donc toujours la matrice Hr dans le coin supérieur gauche. Par ailleurs, soit Er
le r-ième vecteur de la base
! canonique de Mn,1 (K). Vu ce qu’on a dit plus haut, Kr TX Er est de la forme
F
par blocs Kr TX Er = , et donc
Y
!
Ir F
TX Kr TX Er = .
SX Y
•
0
Comme SX Y est de la forme .. , il en résulte que sur la colonne r, les coefficients des lignes r + 2 jusqu’à
.
0
−1
n sont nuls. On obtient donc la description voulue au rang r + 1. Par ailleurs, TX = TX , la matrice Pr+1
est donc définie par Pr+1 = TX Pr .
Le principe de récurrence permet de conclure.
(b) Pour r = n − 1, on retrouve la similitude à une matrice de Hessenberg.
4. D’après la question précédente, il existe P , obtenue comme produit de matrice de symétries (P = S1 · · · Sk ) telle
que H = P M P −1 soit de Hessenberg. Or,
P −1 = Sk−1 · · · S1−1 = Sk · · · S1 ,
On remarque aussi que les matrices de symétrie introduites dans cet arguemnt sont symétriques, et M l’étant
aussi :
t
H = tS1 · · · tSk tM tSk · · · tS1 = S1 · · · Sk M Sk · · · S1 = H.
Ainsi, H est une matrice de Hessenberg symétrique, ce qui impose que H est tridiagonale.
Ainsi, toute matrice symétrique M est semblable à une matrice tridiagonale.
9
Correction du problème 2 – Réduction de Jordan
Ainsi, u(x) ∈ Ker(u − λi id)αi . On en déduit que Ker((u − λi id)αi ) est stable par u .
Plus généralement, le même raisonnement prouverait que pour tous polynômes P et Q, Ker(P (u)) est stable par
Q(u). En particulier, Ker((u − λi id)αi ) est aussi stable par u − λi id.
2. Soit A la matrice de u dans la base B, et A = (Ai,j )16i,j6k le découpage de A par blocs M
correspondant à la
décomposition de E en somme des Ei . En notant pi la projection sur Ei parallèlement à Ej , le bloc Ai,j
j6=i
représente alors
Ai,j = MatBj ,Bi pi ◦ u|Ej .
Or, si i 6= j, par stabilité des Ej par u, Im(u|Ej ) ⊂ Ej , donc pi ◦ u|Ej = 0. Ainsi, tous les blocs Ai,j situés
ailleurs que sur la diagonale sont nuls. Les blocs diagonaux, quant à eux, représentent pi ◦ u|Ei (c’est-à-dire ui )
relativement à la base Bi ; on a la représentation par blocs :
3. Puisque Ei = Ker((u − λi id)αi ), pour tout x ∈ Ei , viαi (x) = 0. Ainsi, l’endomophisme viαi de Ei est nul. On en
déduit que vi est nilpotent.
4. Si tout endomorphisme nilpotent d’un C-ev de dimension finie admet une décomposition de Jordan, alors les
vi admettent une décomposition de Jordan. Ainsi, il existe une base Bi relativement à laquelle
MatBi (vi ) est
0 1 0 0
0 . . . . . . 0
diagonale par blocs, chaque bloc diagonal étant une matrice de Jordan de diagonale nulle . .
. .. ..
. . . 1
0 ··· 0 0
base, MatBi (ui ) estégalement diagonale par blocs, chaque bloc étant une matrice de Jordan
Ainsi, dans cette
λi 1 0 0
0 ... ... 0
de diagonale λi : . .
. .. ..
. . . 1
0 · · · 0 λi
La question 2 nous assure alors que dans la base obtenue par concaténation des Bi , la matrice de u est diagonale
par blocs, chaque bloc étant une matrice de Jordan ; il peut y avoir plusieurs blocs de même diagonale λi (et de
taille éventuellement différentes), correspondant aux différents blocs de la décomposition de ui .
Ainsi, si le résultat est acquis pour les endomorphismes nilpotents,
tout endomorphisme d’un C-ev de dimension finie admet une réduction de Jordan .
10
1. Argument classique. Soit λ0 , . . . , λp−1 tels que
Supposons les λi non tous nuls. Soit i le plus petit indice tel que λi 6= 0. En composant par up−1−i , il vient
alors :
λi up−1 + λi+1 up + · · · + λp−1 u2p−2−i (x) = 0
Comme up = 0 et up−1 (x) 6= 0, il vient
d’où une contradiction. Ainsi, les λi sont tous nuls, ce qui signifie que :
la famille (up−1 (x), up−2 (x), . . . , u(x), x) est libre.
On note F le sous-espace engendré par cette famille.
2. Il suffit de montrer que l’image par u des éléments de la base (up−1 (x), . . . , u(x), x) de F est dans F . Or, pour
tout i ∈ [[0, p − 1]], u(ui (x)) = ui+1 (x) ∈ F , puisqu’il s’agit d’un autre élément de la base si i 6= p − 1, et de 0 ∈ F
si i = p − 1. Ainsi, F est stable par u.
3. Soit k ∈ [[1, p]].
• La somme est directe car up−k (x) 6∈ Ker(uk−1 ), puisque up−1 (x) 6= 0.
• Clairement et classiquement, Ker(uk−1 ) ⊂ Ker(uk ), et uk (up−k (x)) = up (x) = 0, donc Vect(up−k (x)) ⊂
Ker(uk ).
Ainsi : Ker(uk−1 ) ⊕ Vect(up−k (x)) ⊂ Ker(uk )
4. Soit Sp un supplémentaire de Ker(up−1 ) ⊕ Vect(x) dans Ker(up ). On a alors :
En effet :
• La première somme est directe d’après la question précédente.
• Soit y ∈ (Ker(up−2 ) ⊕ Vect(u(x))) ∩ u(Sp ). Il existe donc x1 ∈ Ker(up−2 ), λ ∈ C, et x2 ∈ Sp tels que
donc, Sp−1 = Tp−1 ⊕ u(Sp ) est un supplémentaire de Ker(up−2 ) ⊕ Vect(u(x)) dans Ker(up−1 ) contenant u(Sp ).
5. Le raisonnement est le même. Supposons Sp , . . . , Sk+1 construits.
• On a Ker(uk−1 ) ⊕ Vect(up−k ) ⊂ Ker(uk ) d’après la question 3.
• Soit y ∈ (Ker(uk−1 ) ⊕ Vect(up−k )) ∩ u(Sk+1 ). Il existe x1 ∈ Ker(uk−1 ), λ ∈ C et x2 ∈ Sk+1 tels que
11
Or, uk est injective sur Sk+1 ⊕ Vect(up−k−1 ) (car cet espace est en somme directe avec Ker(uk+1 ), d’après la
construction de Sk+1 ). Ainsi, x2 = λup−k−1 (x). Comme Sk+1 ∩ Vect(up−k−1 (x)) = {0}, il vient x2 = 0, puis
y = 0.
Ainsi, la somme Ker(uk−1 ) ⊕ Vect(up−k ) ⊕ u(Sk+1 ) est directe.
• Comme Sk+1 ⊂ Ker(uk+1 ), on a u(Sk+1 ) ⊂ Ker(uk ). Les autres inclusions ayant déjà été montrées, il vient
donc :
Ker(uk−1 ) ⊕ Vect(up−k ) ⊕ u(Sk+1 ) ⊂ Ker(uk ).
12