Déterminants et leurs propriétés
Déterminants et leurs propriétés
Marc SAGE
9 août 2008
2 Inverses et polynômes 3
3 Formule de Miller pour calculer un déterminant (ou comment illustrer une idée géniale) 3
10 Un caractérisation du déterminant 8
11 Un peu d’analyse 9
13 DL du déterminant 11
15 Déterminant de Cauchy 14
16 Théorème de Müntz 15
17 Théorème de Frobenius-Zolotarev 17
1
Le déterminant d’une matrice A pourra être noté jAj, avec l’avantageuse propriété jABj = jAj jBj.
Les trois premiers exercices sont essentiellement destinés à véri…er que la construction et les principales
propriétés du déterminant sont maîtrisées.
Mn (K) ! P K
fA : n
(C1 j ::: j Cn ) 7 ! j=1 det (C1 j ::: j Cj 1 j ACj j Cj+1 j ::: j Cn )
fA = (tr A) det .
Solution proposée.
Montrons dans un premier temps que fA et det sont colinéaires, on calculera ensuite le coe¢ cient de colinéa-
rité en évaluant en l’identité. Il s’agit donc de prouver que fA est une forme n-linéaire alternée (en les colonnes
de la variable). Le caractère n-linéaire est évident car A est linéaire et det est n-linéaire. Pour le côté alterné,
prenons deux colonnes Ci et Cj égales (avec i < j), et regardons
n
X
fA (::: j Ci j ::: j Cj j :::) = det (::: j Ck 1 j ACk j Ck+1 j :::) .
k=1
Pour k di¤érent de i et j, la colonne commune apparaît deux fois dans le déterminant de droite, ce qui donne
0 par alternance de det. Il reste donc à calculer la somme des deux termes restants. On utilise pour cela
l’antisymétrie de det quand on intervertit les i-ième et j-ième colonnes du second terme :
On a donc montré que fA = det pour un certain scalaire . Il reste à trouver en évaluant fA en une
matrice particulière pertinente, par exemple l’identité. En notant Ej et Aj les j-ièmes colonnes de l’identité et
de la matrice A, on a clairement AEj = Aj , d’où
.. ..
. .
1 aj 1;j
det (::: j Ej 1 j AEj j Ej+1 j :::) = aj;j = aj;j
aj+1;j 1
.. ..
. .
2
2 Inverses et polynômes
Soit P : C ! GLn (C) une application dont toutes les composantes sont polynomiales. Montrer que z 7!
1
P (z) est aussi polynomiale en chacune de ses composantes.
Solution proposée.
1 t
On connaît une formule pour l’inverse : A 1 = jAj com A. Les cofacteurs étant des déterminants (donc des
t
polynômes) en les coe¢ cients de A, l’application z 7! com P (z) est bien polynomiale. Pour se débarasser du
déterminant, il su¢ t de dire que det P est un polynôme en z qui ne s’annule jamais (P est à image dans GLn !)
sur C tout entier, c’est donc une constante par D’Alembert-Gauss. Ploum.
En déduire que le déterminant d’une matrice de taille n à coe¢ cients dans f 1; 1g est divisible par 2n 1
.
Solution proposée.
a1;1 a1;j
Notons Cj = la j-ième colonne du terme de droite et Aj la j-ième colonne de A
ai;1 ai;j i=2;:::;n
privée de sa première ligne. On remarque que
1 a1;j
Cj = Aj A1 :
a1;1 a1;1
1 C2 Cn a1;j
n 2 det (C2 j ::: j Cn ) = a1;1 det a1;1
j ::: j
a1;1
= a1;1 det Aj
a1;1
A1 .
a1;1 j=2;:::;n
Pour calculer ce déterminant, on aimerait bien pouvoir faire des opérations sur les colonnes pour faire sauter
le A1 qui apparaît partout. Mais A1 n’apparaît pas toute seule... Qu’à cela tienne, on la fait apparaître en
incrémentant le taille de la matrice ! (c’est ça, l’idée géniale, merci à Bruno Le Floch) :
! !
a1;j 1 (0) 1
a1;j
det Aj A1 = det a1;j = det a1;1
a1;1 A1 Aj a1;1 A1 A1 (Aj )
j=2;:::;n j=2;:::;n
1 a1;1 (a1;j ) 1
= det = det A, CQFD.
an1;1 1 A1 (Aj ) an1;1 1
Remarque. Cette formule a un grand avantage sur le développement selon une ligne ou une colonne.
D’une part, sa complexité est moindre : on calcule
n
X1 n (n 1) (2n 1) n3
i2 =
i=1
6 3
déterminants d’ordre 2 au lieu de n!. D’autre part, calculer un déterminant de la sorte est bien plus agréable à
faire et à présenter que d’écrire les n cofacteurs de la ligne/colonne par rapport à laquelle on developpe (pour
le cas général, bien sûr...).
3
4 Le déterminant n’est pas linéaire
Solution proposée.
1. En réduisant A = P Jr Q, on paramétrise naturellement Mn (K) par M = P N Q où N décrit Mn (K),
de sorte que notre hypothèse de travail est équivalente à
det [P (Jr + N ) Q] = det (P Jr Q) + det (P N Q)
() det (Jr + N ) = det Jr + det N .
On vient donc de réduire le problème aux Jr ; comme quoi ce procédé à l’apparence sthûssieuse sert
vraiment, il faut y penser dans ce genre de problème matriciels très "bidouillatoires".
Le problème n’a guère d’intérêt pour n = 1 : l’égalité ci-dessus est en e¤et alors toujours véri…ée. On
supposera donc n 2.
En prenant M = A, on obtient
2n jAj = 2 jAj ,
d’où jAj = 0. En prenant N = In , on obtient
2r = 1,
ce qui impose r = 0.
La seule matrice pouvant convenir est donc A = 0.
2. Pour le corollaire, on pose M = N A, ce qui impose pour toute matrice N
det N = det (C + N ) avec C := B A.
Faire N = 0 montre que det C = 0, ce qui permet de réécrire nous hypothèse sous la forme
det (C + N ) = det C + det N
de la première question. On en déduit C = 0, i. e. A = B.
1. Soient A et B deux matrices réelles semblables dans Mn (C). Montrer qu’en fait A et B sont sem-
blables dans Mn (R).
2. Généraliser le résultat en considérant une extension1 R ,! K de dimension …nie2 sur R, puis de
dimension quelconque.
3. Que se passe-t-il si l’on remplace R par un corps in…ni ?
Solution proposée.
1. Soit P une matrice complexe inversible telle que B = P AP 1 . En décomposant P selon parties réelle
et imaginaire, disons P = R + iS avec R et S réelles, on obtient (en identi…ant parties réelle et imaginaire)
RA = BR
P A = BP =) RA + iSA = BR + iBS =) =) 8t 2 R; (R + tS) A = B (R + tS) .
SA = BS
Il s’agit maintenant de trouver un t tel que R + tS soit inversible. Or, l’application t 7! det (R + tS) est
polynomiale sur C, non nulle puisque det (R + iS) = det P 6= 0 (P est inversible !), donc n’admet qu’un
nombre …ni de racines. N’importe quel réel t en dehors de ces racines fera alors l’a¤aire.
1 Une extension d’un corps K est la donnée d’un morphisme de corps K ,! L. Un tel morphisme est toujours injectif, ce qui
permet de voir K comme un sous-corps de L. Une extension de K doit donc être vue comme un sur-corps de K.
2 Une extension K ,! L est automatiquement munie d’une structure de K-ev. Si ce dernier est de dimension …nie n, on dit que
L est une extension …nie sur K de degré n. Par exemple, R ,! C est une extension …nie de degré 2.
4
2. Soit maintenant K une extension de R de dimension …nie d 1. Considérons deux matrices réelles A
et B semblables dans Mn (K), disons P A = BP avec P inversible. Tout comme l’on avait décomposé une
Pd
matrice complexe sur la R-base (1; i) de C, décomposons P sur une R-base (e1 ; :::; ed ) de K : P = i=1 ei Pi
où les Pi sont réelles. On en déduit comme dans le cas complexe
d
! d
!
X X
8t 2 R; tP1 + ei Pi A = B tP1 + ei Pi .
i=2 i=2
Pd
En copiant l’argument déjà évoqué, l’application t 7! det tP1 + i=2 ei Pi est polynomiale sur K, non
nulle car en t = e1 on obtient det P 6= 0, donc n’admet qu’un nombre …ni de racines. En prenant un réel
Pd
t1 en dehors de ces racines, on peut recommencer : l’application t 7! det t1 P1 + tP2 + i=3 ei Pi est
polynomiale sur K et non nulle pour t = e2 , donc on peut choisir un réel t2 hors de ses racines. Ainsi de
suite, on aboutit à une matrice réelle inversible t1 P1 + tP2 + ::: + td Pd qui rend A et B semblables.
Si K n’est plus supposé de dimension …nie sur R, le résultat reste valable. En e¤et, si P A = BP dans
Mn (K), on regarde le R-espace vectoriel E engendré par les coe¢ cients de P , qui est –parPn construction –
de dimension …nie sur R. On procède comme au point précédent en décomposant P = i=1 ei Pi sur une
Pd
R-base de E puis en introduisant les applications t 7! det tP1 + i=2 ei Pi .
3. Si l’on dispose d’une extension k ,! K quelconque où k est un corps in…ni, tout marche pareil, le
caractère in…ni de k permettant de choisir un scalaire hors des racines de nos polynômes déterminants.
Remarque. Si l’on remplace R par un corps …ni, le résultat reste valable, mais il semble di¢ cile d’en
donner une preuve directe sans utiliser les invariants de similitude (qui trivialisent l’exercice quel que soit le
corps de base, cf. cours sur la réduction de Frobenius).
A B
= det (AD BC) .
C D
On cherchera à multiplier la grosse matrice pour obtenir une matrice triangulaire par blocs.
2. La formule reste-elle valable si A et D ne sont plus supposées inversibles ?
3. Et si C ne veut plus commuter avec personne ?
Solution proposée
1. Une idée est de faire apparaître AD BC sur la diagonale, ce qui peut se faire en écrivant
A B D ? AD BC ?
= (parfait si C et D commutent).
C D C ? CD DC ?
1
Pour que le détérminant soit aisé à calculer, on peut compléter sur la diagonale avec D (tiens, une
hypothèse non utilisée) et un 0 ailleurs :
A B D AD BC ?
1 = .
C D C D I
A 1 A B I ?
= .
C A C D BC AD
5
2. Il y a une astuce qui permet de rendre n’importe quelle matrice (carrée) inversible. On remplace
tous ses coe¢ cients par des inderminées Xi;j ; le déterminant alors obtenu est un polynôme non nul, donc
un scalaire non nul du corps K (Xi;j ), donc notre matrice est inversible dans Mn (K (Xi;j )), donc notre
formule est valide dans le corps K (Xi;j ). Il reste ensuite à remplacer les indéterminées par les valeurs de
notre matrice de départ.
3. Sans l’hypothèse de commutativité, la formule 0 tombe. En 1 cherchant un exemple avec beaucoup de
1 0 1 0
B 1 1 1 1 C
0, on peut trouver (entres autres...) la matrice B C
@ 1 0 0 1 A. Son déterminant est nul à cause de la
0 0 0 0
ligne de 0, mais pourtant on a
1 0 0 1 1 0 1 0 0 1 1 0
det = det = 1.
1 1 0 0 0 0 1 1 0 1 0 0
Remarque. La règle de Sarrus se généralise aisément à une matrice de matrices qui commutent toutes
deux à deux.
En notant di;j le nombre de diviseurs communs à i et j et i;j le pgcd de i et j, calculer les déterminants
des matrices (di;j )i;j=1;:::;n et ( i;j )i;j=1;:::;n .
Solution proposée.
L’idée introuvable est d’écrire la matrice concernée comme un produit de deux matrices dont le déterminant
est plus ou moins trivial à calculer.
On peut toujours écrire
X n
X n
X
t 1 si q j p
di;j = 1= ai;k aj;k = [A]i;k A = A tA où ap;q = .
k;j i;j 0 sinon
kji k=1 k=1
kjj
La matrice A étant triangulaire, son déterminant est le produit de ses coe¢ cients diagonaux, d’où det A = 1,
qui est du coup la valeur du déterminant cherché. P
De même, en se souvenant miraculeusement de l’identité n = djn ' (d), on écrit
X X n
X
t t ' (q) si q j p
i;j =i^j = ' (k) = ' (k) = [ ]i;k A = A où [ ]p;q = .
k;j i;j 0 sinon
kji^j kji k=1
kjj
Qn
La matrice étant triangulaire, le déterminant cherché vaut k=1 ' (k).
P
Remarque. Recourir à l’identité n = djn ' (d) n’est pas si astucieux que ça. En e¤et, ce qui compte
était d’exprimer i ^ j comme une somme sur plusieurs conditions (dans notre cas k j i et k j j) et d’introduire
les matrices correspondantes à ces conditions en priant pour qu’elles soient "gentilles". En ce sens, l’indicatrice
d’Euler ne joue aucun rôle particulier.
6
Qn
On posera P := i=1 (xi X).
bP (a) aP (b)
Da6=b = .
b a
2. Dans le cas a = b, remplacer b par une indéterminée X et appliquer le premier cas en se plaçant
dans le corps K (X) pour obtenir
Solution proposée.
1. En rajoutant un x à chaque coe¢ cient, on voit, par multilinéarité et alternance, ou en développant
selon la première ligne L1 après avoir e¤ectué les opérations Li Li L1 , que D (x) est un polynôme
x + de degré au plus 1. On veut la valeur de D (0) = . Or, on connaît
Qn
a + = D ( a) = Q i=1 (xi a)
n (matrices triangulaires),
b + = D ( b) = i=1 (xi b)
Qn Qn
d’où b a =b i=1 (xi a) a i=1 (xi b), et en introduisant le polynôme on trouve
bP (a) aP (b)
D= .
b a
XP (X) aP (a) 0
(a) = (XP ) (a) = P (a) + aP 0 (a) .
X a
Soit A1 ; :::; Ap des parties distinctes de f1; :::; ng telles que l’intersection de deux quelconques distinctes
d’entres elles soit de cardinal c 1 …xé. Montrer que p n.
1 si i 2 Aj
On pourra introduire la matrice d’incidence A dé…nie par ai;j = et s’intéresser à la matrice
0 si i 2
= Aj
carrée t AA.
Solution proposée.
7
Notons que A est de taille n p. Calculons les coe¢ cients de B := t AA, qui est de taille p p:
n
X n
X 1 si k 2 Ai \ Aj
bi;j = ak;i ak;j = = jAi \ Aj j .
0 si k 2
= Ai \ Aj
k=1 k=1
où k est l’éventuel indice tel que ak = c. B est donc inversible, donc de rang p. Mais alors
p = rg B = rg t AA rg A min fn; pg ,
10 Un caractérisation du déterminant
Montrer que le déterminant est l’unique caractère de Mn (K) modulo les caractères de K.
On pourra déterminer l’image des Jr pour r < n puis montrer que les transvections s’écrivent comme des
commutateurs ( i. e. sous la forme M N M 1 N 1 ) – attention à la caractéristique du corps...
Solution proposée.
Soit f un caractère de Mn (K). L’application nulle étant trivialement un caractère, on écartera le cas f = 0
par la suite. Puisque f = f (In ) = f (In ) f , on doit avoir f (In ) = 1. Ainsi, pour toute matrice A inversible, on
aura
1 = f (In ) = f AA 1 = f (A) f A 1 ,
1
d’où f A 1
= f (A) . On en déduit que f est constante sur chaque classe de similitude3 :
1 1 1
f P AP = f (P ) f (A) f P = f (P ) f (A) = f (A) .
f (P )
Regardons comme le suggèe l’énoncé l’image des Jr . En faisant un changement de base cyclique, on décale
les 1 du Jr un cran plus haut (ceci est possible pour r < n), ce qui donne une matrice T triangulaire supérieure
stricte, donc nilpotente. Par ce qui précède, Jr étant semblable à T , elle ont même image par f . On en déduit
n n
f (Jr ) = f (Jrn ) = f (Jr ) = f (T ) = f (T n ) = f (0) = 0.
3 Une idée à retenir : si l’on commute à l’arrivée, penser à prendre l’image pour tuer les défauts de commutativité.
8
Ainsi, en écrivant toute matrice A sous la forme P Jr Q où r = rg A, on voit que f est nulle sur les matrices non
inversibles.
Soit maitenant A inversible, que l’on décompose sous la forme d’un produit de transvections multiplié
In 1
par la dilatation . Ademettons un moment que les transvections soient toutes de la forme
det A
M N M 1 N 1 ; elles sont alors toutes envoyées sur 1, donc l’image de A ne dépend que de son déterminant :
In 1
f (A) = f . On peut alors écrire
det A
f = ' det
8
< K ! K
où ' : In 1 est un caractère de K. Noter que le cas f = 0 exclu tout au début rentre
: 7 ! f
dans cette description (prendre ' = 0). Réciproquement, la donnée d’un caractère ' de K dé…nit un caractère
f de Mn (K) via la formule f = ' det.
Il nous reste donc à monter que les transvections sont
0 des commutateurs.
1 Déjà, modulo un bon changement de
1 1
1 1
base, on peut supposer les transvections sous la forme @ 1 A. On va chercher à écrire T =
1
In 2
comme un commutateur, puis il su¢ ra de complèter avec In 2 pour avoir le résultat pour n 2.
1 2
On reamarque que T 2 = est une transvection, donc semblable à T , ce qui s’écrit T 2 = P T P 1 ,
1
ou encore T = P T P 1 T 1 , CFQD. Joli, non ? Mais cette démonstration possède une faille : si 2 = 0, T 2 = In
2
n’est plus une transvection. On s’en sort autrement : f (T ) = f (In ) = 1, donc f (T ) = 1 = 1, ce qui montre
que les transvections sont encore envoyées sur 1, et la suite de la preuve s’applique.
11 Un peu d’analyse
1. Soient n 1 et f1 ; :::; fn des applications de R dans C. Montrer qu’elles sont libres ssi il y a n réels
a1 ; :::; an tel que la matrice (fi (aj )) soit inversible.
2. Soit F un sous-espace vectoriel de dimension …nie des applications bornées de R dans C. Montrer
qu’une suite de F converge simplement ssi elle converge uniformément.
Solution proposée.
1. Montrons le premier sens par récurrence sur n.
Pour n = 1, (f1 ) est libre ssi f1 n’est pas identiquement nulle, ce qui revient à dire qu’il y a un a tel
que f1 (a) 6= 0, d’où le résultat.
Soient maintenant f1 ; :::; fn+1 libres et a1 ; :::; an comme dans l’énoncé pour f1 ; :::; fn (pour un n 1).
On cherche un réel x tel que
9
2. Montrons que la convergence simple implique la convergence uniforme, la réciproque étant plus ou
moins tautologique.
Soit f1 ; :::; fn une base de F . D’après le premier point, il y a n réels a1 ; :::; an tels que la matrice
(fi (aj )) soit inversible.
Pn
Soit maintenant uk = i=1 ki fi une suite de fonctions de F qui converge simplement. En évaluant
en les ai , il vient 0 k 1 0 10 k 1
u (a1 ) f1 (a1 ) fn (a1 ) 1
B .. C B .. .. C B .. C
@ . A = @ . . A @ . A,
uk (an ) f1 (an ) fn (an ) k
n
d’où en inversant 0 1 0 1 0 1
k 1
1 f1 (a1 ) fn (a1 ) uk (a1 )
B .. C B .. .. C B .. C
@ . A=@ . . A @ . A
k k
n f1 (a n) fn (an ) u (an )
qui converge
Pn simplement vers un vecteur ( 1 ; :::; n ). On en déduit que uk converge simplement vers
u := i=1 i fi . Ainsi,
n
X n
X n
X n
X
k k k k1
uk (x) u (x) = i fi (x) i fi (x) i i jfi (x)j kfi k1 i i ! 0,
i=1 i=1 i=1 i=1 | {z }
!0
Pour une matrice A 2 Mn (K) et I une partie de f1; :::; ng, on notera AI la matrice extraite (ai;j )i;j2I .
P
Montrer que la quantité jIj=k det AI est invariante par conjugaison.
Solution proposée.
P On se rappelle que GLn est engendré par les transvections et les dilatations. Il su¢ t donc de véri…er que
jIj=k det AI est invariant par l’action sur A (par conjugaison) d’une transvection ou une dilatation.
Or, lorsque l’on dilate la i-ième ligne/colonne de A par un scalaire , l’opération se répercute de la même
manière sur AI si i 2 I, ce qui fait sortir un quand on prend le déterminant. Mais on conjugue, donc il sort
aussi un scalaire 1 qui vient tuer le premier. Dans le cas où i 2 = I, les dilatations ne touchent pas à AI , donc le
déterminant est inchangé dans tous les cas.
Le même raisonnement tient (presque) pour les transvections. Lorsque l’on fait agir une transvection In +
Ei;j sur A, on fait une opération sur les lignes/colonnes de A, laquelle opération se répercute sur les lignes/colonnes
de AI (évidemment, si i et j sont hors de I, AI est inchangée) ; en particulier, la nouvelle matrice extraite AI
est obtenue à partir de l’ancienne par une opération de transvection si i et j sont tous deux dans I, ce qui ne
change pas son déterminant. Évidemment, la conjugaison étant deux multiplications successives, conjuguer par
une transvection ne change pas nos det AI .
Il reste à voir le cas où exactement l’un des indices i; j est dans I : en e¤et, lorsque l’on extrait AI , on
emporte avec soi la ligne/colonne dont on aimerait disposer pour faire opérer la transvection en sens inverse.
Qu’à cela ne tienne, on va la rajouter pour pouvoir faire ce qu’on veut (c’est cela l’idée géniale !). Détaillons
cela.
Li Li + Lj
Notons A0 la conjuguée de A par la transvection I+ Ei;j : on applique à A les opérations .
Cj Cj Ci
Considérons à présent une partie I de cardinal k contenant i mais pas j. On a clairement une partie "duale"
I où l’on a remplacé i par j. Montrons que det AI + det AI est inchangé par la conjugaison considérée. Les
autres déterminants extraits mettant restant inchangés d’après les remarques préliminaires, on aura gagné.
Explicitons les indices de I :
I = fi1 < i2 < ::: < i < ::: < ik g où est la place de i = i .
10
On calcule det A0I en rajoutant la ligne manquante (Lj indexée par I) en incrémentant la taille de la matrice :
1 aj;i1 aj;ik
ai1 ;i1 ai1 ;ik
.. .. 1 aj;i1 aj;ik 0
. . 0 ..
.
det A0I = ai ;i1 + aj;i1 ai ;ik + aj;ik = .. =
.. .. . A0I AI
. . 0 ..
.
aik ;i1 aik ;ik
0
0 1
lj
B l i1 C
B C
= det AI ( 1) det B .. C où il manque la -ième ligne li de AI
@ . A
l ik
0 1
l i1
B .. C
= det AI + det @ . A où la ligne li est remplacée par la ligne lj .
l ik
Le même calcul tient pour det AI : on tranpose la matrice pour avoir exactement la même situation, à une
transposition (i; j) et à un signe devant le près :
det AI = det AI det (ci1 ; :::; cik ) où la colonne cj est remplacée par ci .
Il reste à remarquer que les deux matrices perturbatrices qui apparaissent sont en fait les mêmes : on extrait de
A les lignes d’indice 2 I et les colonnes d’indice 2 I.
13 DL du déterminant
Solution proposée.
À ce niveau (sans outils de réduction), un calcul direct semble être la seule possibilité. Il s’agit juste de
développer le terme de gauche et de regrouper les même puissances en t : somme toute, c’est de la combinatoire.
Allons-y, en regroupant les permutations selon leur support :
X n
Y
det (A + t Id) = "( ) [A + t Id]i; (i)
2Sn i=1
X Y Y
= "( ) (ai;i + t) ai; (i)
2Sn i2Supp
= i2Supp
X X Y Y
= "( ) (ai;i + t) ai; (i)
I Supp =I i2I
= i2I
XY X Y
= (ai;i + t) "( ) ai; (i) .
I i2I
= Supp =I i2I
Q
Pour développer le produit i2I = (ai;i + t) (rappelons que l’on souhaite obtenir les coe¢ cients de ce polynôme
en t), il s’agit de choisir j indices hors de I, de piocher ai;i pour ces indices et t pour les (n jIj) j indices
11
P Q
restants, ce qui donne J\I=; j2J aj;j tn jIj jJj
. Poursuivons le calcul, en introduisant K := I [ J :
0 1
X X Y X Y
= @ aj;j tn jIj jJj A
"( ) ai; (i)
I J\I=; j2J Supp =I i2I
X X X Y
= tn jIj jJj
"( ) ak; (k)
I J\I=; Supp =I k2I[J
X X X Y
= tn jKj
"( ) ak; (k)
K I K Supp =I k2K
X X Y
= tn jKj
"( ) ak; (k) .
K Supp K k2K
Il reste à voir pourquoi le truc après tn jKj vaut exactement det AK . Mais la condition Supp K signi…e que
Q induit une permutation de K tout en …xant les autres points dont on n’a que faire pour calculer le produit
a
k2K k; (k) . Ceci montre que
X Y X Y
"( ) ak; (k) = "( ) ak; (k) = det AK , CQFD.
Supp K k2K 2SK k2K
Remarque. Si le lecteur a bien suivi le calcul ci-dessus, il devrait pouvoir généraliser sans mal :
X Y
det (A + Diag (t1 ; :::; tn )) = det AI ti .
I i2I
=
Q
L’idéal serait de sentir cette formule Qde manière purement combinatoire. Regardons les termes ai; (i) de la
formule de Sarrus qui contribuent à i2I = ti : pour en former un, il faut piocher dans la matrice A les termes
diagonaux d’indices 2 = I et piocher du coup les autres facteurs dans la matrice AI , et ce de toutes les façons
possibles, ce qui donne bien (en mettant les signes) le facteur det AI . Tout le calcul ci-dessus n’est que la
formalisation des trois lignes qui précèdent.
Moralité : il faut savoir naviguer entre ces deux extrêmes, à savoir le monde aveugle du calcul ré‡exe et celui
de l’intuition combinatoire obscure.
Pour ceux qui n’ont pas digéré le calcul ci-dessus, quelques connaissances élémentaires de réduction, combi-
nées au lemme inutile de l’exercice précédent, permettent d’obtenir une solution bien plus élégante (cf. feuille 1
sur la réduction).
Une fonction de R dans Mn (R) sera dite continue si chacune de ses fonctions coordonnées est continue.
Une partie C de Mn (R) sera dite connexe par arcs si l’on peut relier deux éléments quelconques de C
par un arc continu qui reste dans C, i. e. si 8a; b 2 C il y a une application continue : [0; 1] ! C telle
(0) = a
que (on notera alors a b). On se convaincra que est une relation d’équivalence. On appelle
(1) = b
composante connexe d’une partie de Mn (R) une classe d’équivalence pour la relation .
On pourra admettre que le déterminant det : Mn (R) ! R est une application continue.
Soit R un ensemble de rangs dans f0; :::; ng et MR = fA 2 Mn (R) ; rg A 2 Rg l’ensemble des matrices
réelles dont le rang est dans R. On cherche une condition nécessaire et su¢ sante pour que MR soit connexe
par arcs.
On pourra traiter successivement les cas :
R = fng,
R = frg où r < n,
R = fr; ng avec r < n,
R = fr; r0 g avec r; r0 < n.
12
Solution proposée.
On regarde d’abord le cas R = fng, i. e. MR = GLn (R). On cherche donc à relier deux matrices inversibles
A et B par un chemin de matrices inversibles.
On sait que A et B0 s’écrivent toutes1deux comme un produit de transvections mulitplié par une matrice
B 1 C
B C
de dilatation Dil := B .. C où est le déterminant de A ou B (remarquer que le déterminant
@ . A
1
d’une matrice de transvection vaut 1).
On commence par se débarasser des matrices de transvections In + Ei;j en étou¤ant continûment le coef-
…cient en dehors de la diagonale à l’aide de
( est bien continue car toutes ses applications coordonées sont constantes sauf une qui est linéaire). En étou¤ant
successivement les coe¢ cients des matrices de transvection, on montre (par transitivité de ) que A Dildet A ,
et de même B Dildet B . On cherche maintenant à relier
det A det B
.
In 1 In 1
On y parviendra si l’on arrive à relier deux réels non nuls par un chemin ne pasant pas par 0 (on veut rester
dans GLn (R) !), et il facile de voir qu’il n’y a que deux alternatives : ou bien det A et det B ont même signe,
auquel cas on relie Dildet A et Dildet B par le chemin "segment"
8
< [0; 1] ! GLn (R)
: det B + (1 ) det A ,
: 7 !
In 1
ou bien det A det B < 0 et alors il n’est pas possible de relier A et B en restant dans GLn (R) : en e¤et, si est
un chemin dans GLn (R) reliant A et B, alors f = det est une application continue de R dans R telle que
f (0) f (1) < 0, donc doit s’annuler par le théorème des valeurs intermédiaires, ce qui est impossible si l’on veut
rester dans GLn (R).
Regardons à présent le cas R = frg où r < n. Le cas des matrices inversibles étant traité, on va s’y ramener
en écrivant toute matrice A comme P Jr Q où P et Q sont inversibles et r = rg A.
Le problème revient à présent à relier deux matrices du type P Jr Q et P 0 Jr Q0 en restant de rang r. On a
envie de ne pas toucher aux Jr , a…n de s’assurer que le rang reste constammenent égal à r. On va donc chercher
à relier P P 0 et Q Q0 . Si det P det P 0 > 0, on a vu que cela ne pose pas de problème. En revanche, dans
le cas contraire...
Pour s’en sortir, on utilise le fait que Jr a au moins une ligne de zéros tout en bas (on est dans le cas r < n !)
pour modi…er P sans toucher au produit P Jr :
0 10 1 0 10 1
a1 a1
B .. C @ A=B .. C @ A = PeJr
P Jr = @ . A @ . A
an 0 0 an 0
avec det Pe = det P par linéarité du déterminant. On modi…erait de même la dernière ligne de Q en mettant
des signes si besoin.
On a donc montré que MR est connexe par arcs si MR = frg avec r < n.
Supposons maintenant que R contienne exactement deux élements r < n. Pour relier deux matrices de même
rang r, on utilise la méthode décrite précédemment. Pour relier une matrice A = P Jr Q de rang r à une matrice
inversible B, on commence par changer les signes de det P et det Q pour relier P B et Q In , puis on relie
Jr In à l’aide du chemin
Ir
2 [0; 1] 7 ! .
In r
13
En…n, pour relier deux matrices inversibles, on passe par une matrice de rang r –par exemple Jr .
Dans le cas où R est réduit à deux indices r < r0 distincts de n, on a déjà vu que relier deux matrices de
même rang r ou r0 était possible. Pour relier P Jr Q P 0 Jr0 Q0 , on modi…e les déterminants pour envoyer les
matrices inversibles comme l’on veut, puis on relie Jr Jr0 par le chemin
0 1
Ir
7 !@ Ir0 r A.
0
0
Conclusion. Deux matrices de rang r et r0 peuvent toujours être reliées dans Mfr;r g sauf si r = r0 = n,
auquel cas on passe par une matrice intermédiaire de rang < n (et on peut le faire ssi R 6= fng).
Finalement, MR est connexe par arcs ssi R 6= fng. Dans ce dernier cas, MR = GLn (R) a deux composantes
connexes selon le signe du déterminant.
15 Déterminant de Cauchy
!
Soient !
a et b une famille de 2n scalaires tels que ai + bj n’est jamais nul. Calculer le déterminant dit de
Cauchy !
! ! 1
C a ; b := det .
ai + bj i;j=1;:::;n
Solution proposée.
On se rappelle de l’identité classique
1 1 1
= ,
n n+1 n (n + 1)
ce qui incite à faire des opérations élémentaires sur les lignes et colonnes pour tuer les numérateurs.
1
Soustrayons la n-ième ligne à toutes les autres : le coe¢ cient ai +b j
devient
1 1 an ai
= .
ai + bj an + bj (ai + bj ) (an + bj )
1
On voit que le facteur an ai apparaît sur la nouvelle i-ième ligne (pour i < n), et que an +bj est commum à
la j-ième nouvelle colonne (pour j = 1; :::; n), de sorte qu’on peut factoriser
1 1
a1 +b1 a1 +bn
Q .. ..
! ! (an ai ) . .
C a ; b = Qi<n
n .
j=1 (an + bj )
1 1
an 1 +b1 an 1 +bn
1 1
On recommence en soustrayant la n-ième colonne aux autres, ce qui transforme le coe¢ cient (i; j) en
1 1 bn bj
= .
ai + bj ai + bn (ai + bj ) (ai + bn )
1
On peut sortir les bn bj et les ai +bn , d’où
1 1
a1 +b1 a1 +bn 1
Q Q .. ..
1
..
! (an ai ) j<n (bn bj )
C !
a; b = Qi<n
n Qn . . .
j=1 (an + bj ) i=1 (ai + bn )
1 1
an 1 +b1 an 1 +bn 1
1
0 0 1
Q Q
i<n (an ai ) j<n (bn bj )
= Qn Qn C (a1 ; :::; an 1 ; b1 ; :::; bn 1 )
j=1 (an + bj ) i=1 (ai + bn )
14
en développant selon la dernière ligne.
Par une récurrence immédiate, il vient
Q
! (aj ai ) (bj bi )
C !
i<j
a; b = Q .
i;j (ai + bj )
Le théorème qui suit nécessite pour sa démonstration la connaissance des déterminants de Cauchy et de
Gram (cf. feuille sur les espaces préhilbertiens).
16 Théorème de Müntz
On se place sur le R-espace vectoriel E des fonctions réelles continues sur [0; 1] muni du produit scalaire
R1 p
hf j gi = 0 f g. Rappelons qu’il en découle une norme canoniquement associée kf k = hf j f i. On notera
abusivement x la fonction puissance x 7! x , qui est un élément de E.
On se donne une suite croissante ( n ) de réels > 0. On cherche à quelle condition sur les n peut-on
approximer les fonctions de E par des combinaisons linéaires des x n . Plus précisément, P étant donnée une
n
fonction u 2 E et un " > 0, peut-on trouver un entier n et des scalaires 1 ; :::; n tels que ku i=1 i x k < " ?
i
On dira alors que u est adhérent aux x i (pour la norme euclidienne). Si tout u de E est adhérent aux x i , on
dit que les x i sont denses dans E.
Solution proposée.
1. Supposons que u est adhérent aux x i . Soit " > 0. On dispose donc d’un entier N 1 et de scalaires
PN
1 ; :::; N tels que u i=1 i x < ". Il en résulte, pour n > N :
i
N
X
d (u; En ) d (u; EN ) u ix
i
< ".
i=1
n1
On a donc montré que d (u; En ) ! 0.
n1
Réciproquement, supposons que d (u; En ) ! 0. Soit " > 0 : il y un n tel que d (u; En ) < ". Or, En
est de dimension …nie, donc d (u; En ) est P
atteinte en un point de EP
n , le projeté orthogonal de u sur En .
n n
En écrivant ce dernier sous la forme p = i=1 i x i , il vient ku i=1 i x k = d (u; En ) < ", de sorte
i
15
2. Notons 0 = pour harmoniser les notations. On va calculer la distance d x ; En à l’aide de
déterminants de Gram. On calcule déjà
Z 1
1 1
hx i j x j i = x i+ j = = 1 1 ,
0 i+ j +1 i+ 2 + j + 2
Il en résulte s
Yn
g (x 0 ; x 1 ; :::; x n ) 1 i
d x ; En = = p .
g (x 1 ; :::; x n ) 2 + 1 i=1 i+ +1
3. Supposons les x i denses dans E. En particulier, si > 0 est un réel distinct de tous les i , la fonction
n1
x est adhérente aux x i , donc d x ; En ! 0, ce qui s’écrit aussi (en prenant le logarithme)
n
X 2 +1 n1
ln 1 ! 1.
i=1 i + +1
P 1
Si la suite ( i ) est bornée, il est clair que i
diverge ; sinon, i ! 1 et l’on dispose de l’équivalent
(pour i > )
2 +1 2 +1 2 +1 2 +1
ln 1 = ln 1 .
i+ +1 i+ +1 i+ +1 i
P 2 +1 P 2 +1
Comme on raisonne sur des séries à signe constant, la série i
est de même nature que ln 1 i + +1
,
donc doit diverger, CFQD.
P 1
Supposons réciproquement que i
diverge. Suivons l’énoncé et montrons que pour tout m 2 N le
n1
monôme xm est adhérent aux x i , i. e. que d (xm ; En ) ! 0. On veut donc
n
Y i m n1
! 0.
i=1 i + m +1
P 2m+1
Si les i divergent vers 1, l’équivalent du paragraphe précédent montre que ln 1 i +m+1
di-
verge, d’où la limite voulue.
Dans le cas contraire, on a directement
n
Y n
Y Y n n
j imj i+m 1 1
= 1 1 ! 0.
i=1 i+m+1 i=1 i+m+1 i=1 i+m+1 sup i + m + 1
Remarque. On peut montrer que le théorème de Müntz reste valable en remplaçant la norme L2 (celle
issue du produit scalaire) par la norme L1 dé…nie par
kf k1 = max jf j .
[0;1]
La norme L1 est également appelée norme de la convergence uniforme, car une suite (fn ) converge uniformément
vers f ssi elle converge pour la norme L1 .
16
17 Théorème de Frobenius-Zolotarev
Soit p 3 premier et K = Z pZ le corps …ni à p éléments. On rappelle au besoin que K est cyclique.
Soit A une matrice de GLn (K). A dé…nit un isomorphisme de K n , donc une bijection, i. e. une permutation.
On peut donc voir GLn (K) comme une partie de S (K n ).
1. Montrer que A est dans le groupe alterné A (K n ) ssi son déterminant est un carré dans K.
2. Que dire en remplaçant K par un corps …ni quelconque ? Détailler le cas p = 2.
Solution proposée.
1. Il s’agit de calculer " (A). Puisque la signature est un morphisme, on se ramène à des générateurs de
GLn (K), de préférence dont l’action en tant que permutation sera facile à étudier.0On prend naturellement
1
1 1
les transvections, qui se mettent toutes dans une bonne base sous la forme @ 1 A, et les
In 2
dilatations, semblables à des où est un scalaire.
In 1
Remarquons tout de suite que la signature est un invariant de similitude :
1 1
" P AP = " (P ) " (A) " P 1 = " (P ) " (A) " (P ) = " (A) .
Q
Ainsi, en écrivant A sous la forme D Ti où D est une dilatation et les Ti des transvections, on peut
supposer D et Ti sous la forme simpli…ée du paragraphe précédent.
0 1
1 1
Regardons tout d’abord pour n 2 l’action de la transvection T := @ 1 A –on notera que
In 2
0 1
1 12
les transvections n’interviennent pas si n = 1. En remarquant que T est le carré de @ 1 A, on
In 2
voit immédiatement que " (T ) = 1. (il faut savoir en général que la puissance d’une transvection se calcule
k
aisément par (In + Ei;j ) = In + k Ei;j ). Noter que l’on a le droit de diviser par 2 car car K = p > 2.
Toute l’information de " (A) réside donc dans la dilatation D := . Cela n’est guère
In 1
étonnant au vu du résultat à démontrer, puisque le déterminant de A est précisément et n’apparaît pas
dans les transvections.
Commençons par le cas n = 1. L’action de D sur un vecteur x 2 K est trivialement donnée par
Dk (x) = k x. Ainsi, en notant ! l’ordre de dans K , toutes les orbites sont du type
2 ! 1
x = x; x; x; :::; x
et donc de longueur ! (exceptée l’orbite de 0, qui est toujours réduite à un point indépendemment de
!). Si N compte le nombre d’orbites sauf 0 (celle de 0), on doit avoir N ! = # (K ) = p 1, d’où la
signature
N
! 1 !N N p 1 N N
" (D) = ( 1) = ( 1) = ( 1) ( 1) = ( 1) car p 1 est pair.
17
x
Dans le cas général n 2, les orbites d’un vecteur !
y sont toutes de la forme
2 ! 1
x x x x
( )=
x
!
y
!
y
; !
y
; !
y
; :::; !
y
,
et on peut refaire le même raisonnement. Il faut juste remarquer qu’en faisant varier !
y on peut regrouper
les orbites par paquets de pn 1 qui est impair, ce qui ne change pas la signature.
2. Si l’on se place sur un corps …ni K en général, son cardinal est de la forme q = p où p est premier
et 1 un entier.
Si p est impair, on peut reprendre point par point la démonstration ci-dessus.
Dans le cas contraire, i. e. si p = 2, le facteur q n 1 apparaîssant dans le calcul de " (D) est pair
pour n 2, donc on aura toujours " (D) = 1. Pour n = 1, avec les mêmes notations que ci-dessus, on a
N ! = #K = 2 1, donc ! est impair et toutes les orbites sont de longueur impair, d’où " (D) = 1
encore une fois.
On notera qu’en fait tous les éléments x de K sont des carrés, puisqu’on peut écrire x = x2 =
1 2
x2 . Le résultat reste donc valable pour p = 2.
Remarque. Il est coutume, dans ces histoires de carrés modulo un premier, d’introduire le symbole de
Legendre : pour a 2 Fp , on dé…nit ap comme 1 si a est un carré modulo p et 1 sinon. Le théorème de
Frobenius-Zotolarev s’énonce alors sous la forme plus concise :
det A
" (A) = .
p
18