0% ont trouvé ce document utile (0 vote)
35 vues5 pages

Étude des Matrices Unimodulaires et R-Équivalence

math

Transféré par

amal
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
35 vues5 pages

Étude des Matrices Unimodulaires et R-Équivalence

math

Transféré par

amal
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Corrigé du problème sur les facteurs invariants

Partie I : Étude du groupe unimodulaire


P
p
1o) Il suffit de décomposer, pour {i, j} ∈ {1, ..., n}2 : ai,j = bi,j,k X k , où p est le degré maximal des coefficients non nuls
k=0
de A ; on obtient, en posant pour k ∈ {1, ..., p}Bk = (bi,j,k )16i,j6n : A = B0 + XB1 + · · · + X p Bp avec p = δ(A).
2o) Tout d’abord, In ∈ Un . Ensuite, le produit de deux matrices de déterminant ∈ U a cette même qualité, c’est immédiat par
la multiplicativité du déterminant. Enfin, une matrice unimodulaire A ayant un déterminant non nul, elle est inversible dans
Mn (F), et son inverse est det 1 t com(A), qui appartient à A puisque 1 ∈ R et les coefficients de t com(A) également.
A n det A
D’où A−1 ∈ Un .
¨ ¥
Ainsi, Un est un groupe pour la multiplication des matrices.
§ ¦
3o) Les matrices R-élémentaires ont un déterminant 1 (pour les transvections) ou dans U : elles sont donc bien unimodulaires.
Il suffit de vérifier que leurs inverses sont R-élémentaires. Or : Di (λ)−1 = Di ( 1 ) et Tij (λ) = Tij (−λ).
λ
¨ ¥
Donc Rn est un sous-groupe de Un .
§ ¦
4o) a) Il s’agit d’une relation d’équivalence car ∀(A, B, C), (U1 , V1 , U2 , V2 ) ∈ A3n × R4n : A = In AIn ; si A = U1 BV1 , alors
B = U1−1 AV1−1 ; enfin si A = U1 BV1 et B = U2 CV2 , alors A = U1 U2 CV1 V2 . Le fait que Rn est un groupe (multiplicatif)
permet de conclure.
b) D’après le cours (qu’il convient de réécrire ici), les lignes de Ti,j (a)A sont les mêmes que celles de A, sauf la i-ème, à
laquelle on a ajouté a fois la j-ème. les lignes de T1,i (−1)Ti,1 (1)A sont alors les mêmes que celels de A, sauf la première qui
vaut −Li et la i-ème qui est Li + L1 .
c) Soit A = (ai,j ) ∈ An ; repérons parmi ses coefficients non nuls choisissons-en un, ai,j , ayant le degré [resp. la valeur
absolue] minimal (il n’est peut-être pas unique). Par des transpositions sur les lignes et colonnes on peut l’amener en première
ligne et première colonne : en effet, si l’on fait sur les colonnes la même chose que sur les lignes, d’après la question précédente,
la matrice T1,i (1)Ti,1 (−1)AT1,j (−1)Tj,1 (1) admet en place (1, 1) le coefficient aij . Dans le cas particulier où l’on a i = 1 (ou
j = 1), deux de ces transvections disparaissent et le coefficient obtenu est −aij qui convient aussi bien.
d) Si, par les transvections précédentes, on a fait apparaı̂tre un coefficient non nul dans A0 dont le degré [resp. la valeur
absolue] est < à celui de a01,1 , on réapplique le procédé de la question précédente pour l’amener an première ligne, première
colonne. Ce processus s’arrête nécessairement après un nombre fini d’itérations (puisque δ ∈ N diminue strictement à chaque
itération) : on aboutit à une matrice B = (βi,j ), R-équivalente à A et telle que le coefficient β1,1 soit non nul et vérifie
β1,1 = δ(B).
Pour 1 < k 6 n, soit qk le quotient et rk le reste de la division euclidienne de βk,1 par β1,1 : βk,1 = qk β1,1 +k . La transvection
à gauche Tk,1 (−qk ) fait apparaı̂tre en k-ème ligne et première colonne rk , qui est nul ou de degré [resp. valeur absolue]
strictement inférieur à δ(B). Dans le second cas, on réapplique la question précédente pour obtenir un coefficient en haut à
gauche de degré [resp. valeur absolue] strictement plus petit que δ(B).
Ce processus, appliqué pour tous les coefficients de la première ligne et pareillement pour ceux de la première colonne, va
s’arrêter après un nombre fini d’itérations (puisque δ ne saurait diminuer indéfiniment). A ce moment, toutes les divisions
nécessaires vont donner un reste nul et on aboutira à à une matrice A00 = (a00ij ), telle que a00k1 = a001k = 0 pour tout k > 1.
e) Soit, s’il existe, un coefficient non nul a00k,l avec k et l > 2. Une transvection Tk,1 (1) à gauche amène en première colonne,
sur la ligne k, le coefficient a001,1 et ne change rien d’autre. Une transvection à droite T1,l (p) change alors a00k,l en a00k,l − pa001,1 .
Prenant pour p le quotient de la division euclidienne de a00k,l par a001,1 , on va trouver un coefficient nul ou de degré [resp. valeur
absolue] < δ(A00 ).
Dans le second cas, on répète les étapes antérieures jusqu’à ce que (après un nombre fini d’itérations, δ ∈ N diminuant
strictement à chaque étape...) le coefficient d’indice (1, 1) divise tous les autres.
Finalement, A est bien R-équivalente à une matrice A1 = (αi,j ), telle que αk,1 = α1,k = 0 pour tout k > 1, et que α1,1 divise
tous les αij non nuls.
(Il est à noter qu’on ne fait ici que des transvections.)
5o) Forme normale de Hermite..
Prouvons le résultat par récurrence. Pour n = 1 il n’y a rien à faire. Admettons que la forme réduite proposée ait lieu en
dimension
µ ¶n − 1. Soit A ∈ An . Appliquant la question précédente, on trouve une matrice A1 R-équivalente à A et de la forme
e1 0
, et A2 ∈ An−1 . Une dilatation permet de rendre e1 unitaire [resp. > 0], ce que nous supposerons.
0 A2
On peut appliquer l’hypothèse de récurrence à A2 . Si A2 est nulle, l’algorithme est terminé. Sinon, comme e1 divise tous
les coefficients de A2 , il garde cette propriété à chaque étape (car on effectue uniquement des transvections, ainsi que des
dilatations de rapport ∈ U , qui conservent la divisibilité des coefficients par e1 ) ; donc toute matrice R-équivalente à A2 a
ses coefficients divisibles par e1 .

factinvc.tex Corrigé du problème sur les facteurs invariants, page 1 30/9/2010


 
e1
 e2 0 
On en déduit immédiatement un matrice R-équivalente de la forme S = 
 ..  avec e1 |e2 e2 |e3 . . . er−1 |er ej =

.
0 en
0 pour r < j 6 n et les ei étant unitaires resp. > 0].
D’autre part, la R-équivalence entraine aussi la F -équivalence, de sorte que r est le rang de A en tant que matrice à coefficients
dans F . On n’a r = 0 que si A est nulle, et r = n si et seulement si A est inversible dans Mn (F ).
6o) Nous savons déjà que Rn ⊂ Un . Prenons une matrice unimodulaire A. Elle sera R-équivalente à une matrice S. On a
donc A = U SV et det A = det U det S det V . Mais det A ∈ U, donc det S aussi. Comme c’est le produit des termes diagonaux
de S, ceux-ci sont tous dans U (dans le cas général d’un anneau euclidien, écrire, si s = s1 ...sn ∈ U t:s1 (s2 ...sn s−1 ) = 1R , ce
qui prouve que s1 ∈ U ainsi que s2 ...sn = s−11 s, et ainsi de suite de proche en proche). Ce sont donc des polynômes constants
unitaires [resp. des éléments de {−1, 1} > 0], c’est-à-dire 1. Alors S = In et A = U V appartient à Rn .
¨ ¥
Finalement, on voit que les matrices unimodulaires sont les produits de dilatations et transvections, soit Rn = Un .
§ ¦
7o) a) µ ¶
−10 − X −4
Cherchons S pour A = . On peut ramener le coefficient −4 à 1 par dilatation, ou aussi bien multiplier
26 11
µ−X ¶
X + 10 4
une ligne par 4 (plus simple) : A ∼ . Une transvection de coefficient X − 11 sur les lignes amène :
µ ¶ µ104 44 − 4X ¶
X + 10 4 X + 10 4
A∼ = . Une certaine transvection sur les colonnes va alors annuler le
104 + (X − 11)(X + 10) 0 X2 − X − 6 0 µ ¶
1 0
X + 10 ; une permutation et une dilatation donnent : A ∼ .¨
0 X2 − X − 6
 
1−X 1 0
Soit A =  −1 2−X 1 . On procède de même, repérant un coefficient égal à 1 en première ligne ; par
3 −6 6−X  
0 1 0
transvection de colonnes on se ramène à A ∼  −X 2 + 3X − 3 2 − X 1 . Des transvections de lignes amènent
  9 − 6X −6 6 − X
0 1 0
aussitôt A ∼  −X 2 + 3X − 3 0 1 . Il reste à combiner les deux dernières lignes, puis la troisième colonne avec
9 − 6X 0 6−X
la première, dilater et permuter :
     
0 1 0 0 1 0 1 0 0
A∼ −X 2 + 3X − 3 0 1∼ 0 0 1∼0 1 0 
2 3 3
9 − 6X + (X − 6)(−X + 3X − 3) 0 0 −(X − 3) 0 0 0 0 (X − 3)
µ 3 ¶
X − X 2X 2
On a de même pour A = :
X 2 + 5X 3X
µ ¶ µ ¶ µ 3 ¶ µ ¶
3X 3 − 3X 6X 2 X 3 − 3X − 10X 2 0 X − 10X 2 − 3X 0 X 0
A∼ ∼ ∼ ∼ .
X 2 + 5X 3X X 2 + 5X 3X X 2 + 5X X 0 X 3 − 10X 2 − 3X
8o) Les Ti,j(a) , a ∈ Z sont dans SLn (Z) (car de déterminant 1) ; réciproquement, soit A ∈ SLn (Z) : l’algorithme mis en
place à la question 4. ne fait intervenir que des transvections, et en renonçant aux dilatations de rapport −1 et appliquant
la question 5., on aboutit par transvections à droite et gauche à une matrice S où les ei valent 1 ou −1.
Cependant les transvections ne modifient pas le déterminant : comme celui de A vaut 1, les indices i ∈ {1, ...n} tels que
ei = −1 sont en nombre pair ; si par exemple e1 = e2 = −1, on multiplie à gauche par T2,1 (−2), µ puis par¶T1,2
µ(1), ensuite

−1 0 −1 0
par T2,1 (−2), enfin on multiplie à droite par T1,2 (1) (ce qui donne les matrices 2 − 2 successives , ,
µ ¶ µ ¶ µ ¶ 0 −1 2 −1
1 −1 1 −1 1 0
, , ).
2 −1 0 1 0 1
Ainsi, par produit à droite et à gauche par des transvections, on aboutit à In , ce qui montre de même qu’au 6. que A est
¨ ¥
produit de matrices de transvections : SLn (Z) est engendré par les transvections.
§ ¦

Partie II : Unicité de la forme réduite de Hermite


1o) Si A et B sont R-équivalentes, avec A = U BV , alors le passage de B à U B se fait par transvections et dilatations, donc
il suffit de considérer ces deux opérations isolément. La dilatation va éventuellement multiplier certains déterminants par un
polynôme constant non nul [resp. −1], ce qui n’altère pas le pgcd. En ce qui concerne la transvection, comme elle opère par
combinaisons linéaires, la plupart des k-mineurs restent inchangés.
Il y a cependant une exception, qui survient lorsqu’on combine la ligne i et la ligne j sur la ligne i, et que le k-mineur contient
la ligne i et non la ligne j. La multilinéarité du déterminant assure alors qu’un tel k-mineur de U B est combinaison de deux

factinvc.tex Corrigé du problème sur les facteurs invariants, page 2


mineurs de B, donc est multiple du pgcd de ceux-ci. En conséquence, on a bien ∆k (B)|∆k (U B). Comme les matrices R-
élémentaires on des inverses R-élémentaires, on a aussi ∆k (U B)|∆k (B) d’où ∆k (B) = ∆k (U B) puisque ce sont des polynômes
unitaires [resp. des nombres > 0]. On montre pareillement que ∆k (B) = ∆k (U BV ). ¨
¨ ¥
En conséquence, les ∆k sont des invariants par R-équivalence des matrices.
§ ¦
 
e1
 e2 0

2o) Soit une matrice S =   ..  avec e1 |e2 , e2 |e3 , . . . , er−1 |er , ej = 0 pour r < j 6 n. Les k-mineurs non

.
0 en
nuls de cette matrice ne peuvent se faire qu’avec les mêmes numéros de lignes et de colonnes, car il nous faut au moins un
coefficient non nul par ligne et par colonne. Et de ces mineurs le premier (en haut à gauche) divise tous les autres, valant
Qk
ei . C’est donc ∆k . Bien entendu, pour k > r on a ∆k = 0.
i=1
¨ ¥
Q
k
Finalement : ∆k = ei pour k 6 r, 0 sinon.
i=1
§ ¦
3o) Les facteurs invariants..
∆k
On en déduit aussitôt la valeur des ek par : ek = en posant ∆0 = 1, tant que ∆k−1 6= 0. Le rang étant conservé
∆k−1
par opérations élémentaires (rappelons qu’il s’agit d’un rang sur le corps F ), la valeur de r est bien déterminée. Comme
les ∆k sont invariants par R-équivalence, il en est de même des ek qui sont donc parfaitement déterminés par la classe de
R-équivalence de A et ne dépendent pas de P et Q telles que A = P SQ. ¨

Partie III : Application aux invariants de similitude.


Dans cette partie on considère un K-espace vectoriel E, de dimension n, et un endomorphisme u ∈ L(E), ayant une matrice
b = XI − A ∈ An .
A ∈ Mn (K) dans une base de référence (ε1 , . . . , εn ). On examine la matrice A
o b b b
1 ) Soit A = P SQ la réduction de Hermite de A. La matrice A est inversible car son déterminant est le polynôme
caractéristique de A au signe près, donc un polynôme de degré n, non nul. Son rang (dans Mn (K(X))) est donc égal à n,
donc c’est le rang de S. Donc r = n.
A cause du cas éventuel où certains facteurs invariants seraient égaux à 1 on change de numérotation en posant :
(e1 , e2 , . . . , en ) = (1, 1, . . . , 1, d1 , . . . , ds ). ¨
2o) Soit une famille (v1 , . . . , vp ) de vecteurs de E et une matrice B = (Bij ) ∈ An . On appelle image de (vi ) par B la famille
Pp
de vecteurs (vjB ) définie par vjB = Bij (u)(vi ). Soient B et C appartenant à An . On a
i=1
P
p P
p P
p P
p
(vjB )C = Clj (u) Bil (u)(vi ) = Clj (u)Bil (u)(vi )
l=1 i=1 l=1 i=1
mais on se souvient que les polynômes agissent sur l’algèbre des endomorphismes, en commutant entre eux, donc
Pp Pp p ¡P
P p ¢ P
p
(BC)
(vjB )C = Bil Clj (u)(vi ) = Bil Clj (u)(vi ) = BCij (u)(vi ) = vj
i=1 l=1 i=1 l=1 i=1
o
3 ) Nous dirons qu’une famille (v1 , . . . , vp ) de p vecteurs de E (avec p 6 n) est u-génératrice si la famille de vecteurs
(uq (vi )) i6p est génératrice de E. Si B appartient à Un et que (vi ) est u-génératrice, alors la famille (viB ) est constituée de
q∈N
combinaisons linéaires des vecteurs initiaux, donc s’inscrit dans le sous-espace vectoriel engendré. Lorsqu’on applique les
puissances de u, on décrit a priori un sous-espace plus restreint à partir des (viB ). Soit : Vect(uq (viB )) ⊂ Vect(uq (vi )). Mais
−1 −1
on a aussi (vjB )B = vjBB = vj . Il en résulte, par le même raisonnement, que Vect(uq (vi )) ⊂ Vect(uq (viB )), d’où égalité. ¨
4o) Cette question est facile mais délicate. En effet, on ne peut pas remplacer directement X par u et obtenir A − A = 0.
Il faut procéder plus attentivement, en écrivant : (XI − A)jj (u) = u − ajj id et pour i 6= j : (XI − A)ij (u) = 0 − aij id d’où
Pn
bij (u)(εi ) = u(εj ) − ajj εj − P aij εi = u(εj ) − P aij εi = 0
A
i=1 i6=j i

ce qui montre que b


(εA
j ) = (0, . . . , 0). ¨

5o) a) Considérons à nouveau A b = P SQ. La base (ε1 , . . . , εn ) est génératrice donc u-génératrice. Soit vi = εP . D’après
i
b −1
AQ b)Q−1 = 0 d’après la
la question 2b cette famille de vecteurs est encore u-génératrice. De plus, viS = (εP i )S
= ε i = (ε A
i
question précédente.
Soit m le nombre de vecteurs non nuls de cette famille ; on peut renuméroter les vi pour mettre en tête ceux qui sont non
nuls, et noter v1 , . . . , vm les vecteurs non nuls de cette famille, les suivants étant nuls. ¨

factinvc.tex Corrigé du problème sur les facteurs invariants, page 3


P
p
b) Examinons concrètement l’action de S sur les vi . On a 0 = vjS = Sij (u)(vi ) = Sjj (u)(vj ) = vj lorsque dj = 1, et
i=1
0= vjS
= dj (u)(vj ) lorsque dj 6= 1. Ainsi, vj 6= 0 entraine dj 6= 1. Comme il y a exactement s facteurs invariants dj différents
de 1, le nombre m de vecteurs non nuls vérifie m 6 s.
De plus, comme chaque dj divise ds , on a pour tout j ds (u)(vj ) = 0, d’où ds (u)(uq (vj )) = 0 par commutation des polynômes
d’endomorphismes. Comme la famille (vi ) est u-génératrice, l’endomorphisme ds (u) est nul. C’est dire que ds est un multiple
du polynôme minimal de u. ¨
Q
s
6o) Soit alors ni le degré du polynôme di . Notons d’abord que di (x) = ∆n (X) = det(XI − A) - c’est le polynôme
i=1
P
s
caractéristique de A. Donc, en prenant le degré, il vient ni = n. Considérons alors la famille de vecteurs (uj (vi )) / 1 6 i 6
i=1
s, 0 6 j 6 ni − 1) ; le nombre de vecteurs de cette famille est exactement n d’après ce qu’on vient de voir. Pour que cette
famille soit une base, ¡ il suffit de montrer qu’elle ¢est génératrice. Or, la famille (vi ) était u-génératrice, ce qui signifie que la
famille de vecteurs (uj (vi )) / 1 6 i 6 s, j ∈ N est génératrice. Si j > ni alors on peut diviser X j par di : X j = qdi + r
avec deg r < ni . Alors
uj (vi ) = q(u)di (u)(vi ) + r(u)(vi ) = r(u)(vi ) ∈ Vect(uj (vi ) / 0 6 j 6 ni − 1)
ce qui prouve le caractère générateur. Il en résulte aussi qu’aucun de ces vecteurs n’est nul, donc que les vi sont non nuls
pour 1 6 i 6 s, donc m = s.
Dans cette base, la plupart des vecteurs ont pour image le vecteur suivant, sauf pour ceux qui sont en fin de liste
(j = ni − 1) dont l’image est une combinaison des uj (vi ) pour j 6 ni − 1. On a donc une matrice diagonale par blocs
Diag(λ1 , . . . , λp , D1 , . . . , Ds ), où les λi sont ce qu’on appellera bientôt des valeurs propres de u (correspondant aux facteurs
 ........ 
0 a1
 1. .
.. 
invariants égaux à 1), et les Di sont des matrices dites de Frobenius : 
 ..
.
0 .. 
..  . Les coefficients ak qui apparaissent
 .. 
. .
0 1 ani
dans la dernière colonne de ce bloc sont les opposés des coefficients non dominants du polynôme di . La matrice réduite ainsi
obtenue ne dépend que des di , elle a donc un caractère d’unicité. ¨
On note, au passage, que les ni forment une suite croissante puisque les di se divisent (( en chaine)) ; par conséquent, les
tailles des blocs successifs augmentent.
¡ ¢
7o) En particulier, la famille vs , u(vs ), . . . , uns −1 (vs ) est libre, donc aucun polynôme annulateur ne peut avoir de degré
inférieur à ns (il établirait une relation de dépendance entre ces vecteurs). Dès lors,
¨ ¥
ds est le polynôme minimal de u et ∆n = ∆s est le polynôme caractéristique de u.
§ ¦
8o) Soient A et B deux matrices de Mn (K). La R-équivalence de A b = XI − A et de Bb = XI − B signifie qu’elles ont mêmes
polynômes di , donc que les endomorphismes associés u et v ont la même matrice réduite dans une base telle qu’indiquée à
la question 4, c’est-à-dire que u et v sont conjugués, ou que A et B sont semblables. ¨

Partie IV : Applications
1o) Première application..
   
1 1 0 1 1 0
Les matrices A =  −1 2 1  et B =  −4 5 0  ne sont pas semblables. En effet, on trouve que les formes normales
3 −6 6 −6 3 3    
1 0 0 1 0 0
de Hermite de Ab = XI − A et de B b = XI − B sont respectivement  0 1 0  et  0 (X − 3) 0 . v
0 0 (X − 3)3 0 0 (X − 3)2
2o) Seconde application..
¨ ¥
Toute matrice est semblable à sa transposée,
§ ¦
car XI − A = P SQ avec S diagonale, donc XI − tA = tQS tP car S est diagonale. Et XI − A a mêmes facteurs invariants
que XI − tA ; on applique enfin la question III.6. ¨
3o) Troisième application..
Soient deux matrices A et B appartenant à Mn (L), L étant un sous-corps de K. On suppose qu’elles sont semblables
dans K. Les matrices XI − A et XI − B sont donc K[X]-équivalentes, pourvues des mêmes facteurs invariants. Or, ces
facteurs invariants se calculent à partir des pgcd des coefficients de ces deux matrices, et appartiennent donc à L[X]. Ainsi,
XI − A et XI − B sont L[X]-équivalentes, ce qui nous assure que A et B sont semblables dans L. ¨
4o) Quatrième application..
Ici, les polynômes di sont de la forme X ni (puisque le polynôme minimal divise X n , qui annule u), donc la matrice obtenue
est triangulaire inférieure, à coefficients tous nuls sauf ceux situés immédiatement en-dessous de la diagonale, qui valent 0
ou 1 : c’est la réduction de Jordan d’un endomorphisme nilpotent.

factinvc.tex Corrigé du problème sur les facteurs invariants, page 4


5o) Cinquième application.
Si M est semblable à 2M , la seule valeur propre (sur C) de M est 0 : le polynôme caractéristique de M est X n et d’après
le théorème de Cayley-Hamilton M est nilpotente ; réciproquement, si elle est nilpotente, un exemple vu en cours montre
que chaque bloc de Jordan Jm (triangulaire avec des coefficients tous nuls sauf ceux situés strictement au-dessus (resp. en
dessous] de la diagonale, qui valent 1) est semblable à 2Jm : la question précédente assure que M est semblable (sur C, donc
aussi sur K) à une matrice diagonale par blocs, avec des blocs de Jordan sur la diagonale ; M est ainsi semblable à 2M .

factinvc.tex Corrigé du problème sur les facteurs invariants, page 5

Vous aimerez peut-être aussi