Déterminants
Déterminants
Déterminants
Sommaire
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . 261
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . 261
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . 262
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . 265
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . 265
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
1) Équation cartésienne d’un hyperplan dans une base . . . . . . . . . . . . . . . 267
2) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . 267
3) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
I LE GROUPE SYMÉTRIQUE
Définition 25.1
Soit E𝑛 = J1 ; 𝑛K, avec 𝑛 ∈ ℕ∗ , on note 𝔖𝑛 l’ensemble des permutations de E𝑛 , c’est à dire
l’ensemble des bijections de E𝑛 vers lui-même. On rappelle que (𝔖𝑛 , ∘) est un groupe de cardinal
𝑛! (non abélien dès que 𝑛 ⩾ 3), ce groupe est appelé groupe symétrique de type 𝑛.
★Exercice 25.1
1/ Décrire tous les cycles de 𝔖3 .
2/ Combien y-a-t’il de cycles de longueur 𝑘 dans 𝔖𝑛 ?
3/ Si σ est un cycle dans 𝔖𝑛 , déterminer σ−1 .
4/ Si σ est un cycle de longueur 𝑝 dans 𝔖𝑛 , montrer que σ𝑝 = id et que σ𝑖 ≠ id si 𝑖 < 𝑝. En déduire que si 𝑎 est un
élément du support de σ, alors σ = (𝑎 σ(𝑎) … σ𝑝−1 (𝑎)).
1 2 3 4 5 6
ZExemple : Soit σ = ( ), alors σ = (1 3) ∘ (4 6 5).
3 2 1 6 4 5
★Exercice 25.2 Montrer que deux cycles à supports disjoints commutent. Et si les supports sont non disjoints ?
Théorème 25.2
Toute permutation est un produit de transpositions.
Preuve : Il suffit de le prouver pour un cycle, soit σ = (𝑖1 … 𝑖𝑘 ), il est facile de vérifier que σ = (𝑖1 𝑖2 )(𝑖2 𝑖3 ) ⋯ (𝑖𝑘−1 𝑖𝑘 ).
On remarquera que les supports des transpositions ne sont pas disjoints deux à deux, et que le nombre de
transpositions dans la décomposition est égal à 𝑘 − 1. □
2) Signature
σ(𝑖)−σ(𝑗)
On peut vérifier que ε(σ) = ∏ 𝑖−𝑗 .
1⩽𝑖<𝑗⩽𝑛
ZExemple : Signature d’une transposition, si σ = (𝑎 𝑏) avec 𝑎 < 𝑏 ∈ E𝑛 , alors Iσ = 2(𝑏 − 𝑎) − 1, donc
ε(σ) = −1.
Application – Calcul de la signature d’une permutation. Pour calculer la signature d’une permutation σ, il suffit
de connaître sa décomposition en produit de transpositions : σ = τ1 ∘…∘τ𝑘 , on a alors ε(σ) = ε(τ1 )×… ε(τ𝑘 ) = (−1)𝑘 .
ZExemples :
– Calculer la signature d’un cycle de longueur 𝑝 ⩾ 1.
1 2 3 4 5 6 7 8 9 10
– Calculer la signature de σ = ( ).
3 10 4 6 9 7 1 5 8 2
II APPLICATIONS N-LINÉAIRES
1) Définition
Définition 25.5
Soient E et F deux 𝕂-espaces vectoriels et 𝑓 ∶ E𝑛 → F une application. On dit que 𝑓 est 𝑛-linéaire
lorsque 𝑓 est linéaire par rapport à chacune de ses variables (les autres étant fixes), c’est à
dire : ∀ 𝑥1 , … , 𝑥𝑛 ∈ E, ∀ 𝑖 ∈ J1 ; 𝑛K, l’application 𝑓𝑖 ∶ E → F définie par :
ZExemples :
– L’application 𝑓 ∶ ℝ2 × ℝ2 → ℝ définie par 𝑓(𝑢, 𝑣) = 𝑢1 𝑣1 + 𝑢2 𝑣2 (avec 𝑢 = (𝑢1 , 𝑢2 , ) et 𝑣 = (𝑣1 , 𝑣2 )),
est bilinéaire, plus précisément, c’est une forme bilinéaire sur ℝ2 .
– L’application 𝑓 ∶ ℝ2 × ℝ2 → ℝ définie par 𝑓(𝑢, 𝑣) = 𝑢1 𝑣2 − 𝑢2 𝑣1 (avec 𝑢 = (𝑢1 , 𝑢2 , ) et 𝑣 = (𝑣1 , 𝑣2 )),
est une forme bilinéaire sur ℝ2 .
– Soit E = ℳ𝑛 (𝕂), l’application 𝑓 ∶ E3 → E définie par 𝑓(A, B, C) = A × B × C, est trilinéaire.
𝑏
– Soit E = 𝒞 0 ([𝑎; 𝑏], ℝ). L’application 𝑓 ∶ E2 → ℝ définie par 𝑓(𝑢, 𝑣) = ∫ 𝑢(𝑡)𝑣(𝑡) 𝑑𝑡, est une forme
𝑎
bilinéaire sur E.
Définition 25.6
Soit 𝑓 ∶ E𝑛 → F une application 𝑛-linéaire, on dit que 𝑓 est :
– symétrique : lorsque ∀ σ ∈ 𝔖𝑛 , ∀ 𝑥1 , … , 𝑥𝑛 ∈ E, 𝑓(𝑥σ(1) , … , 𝑥σ(𝑛) ) = 𝑓(𝑥1 , … , 𝑥𝑛 ), autrement dit,
changer l’ordre des vecteurs ne change pas le résultat.
– antisymétrique : lorsque ∀ σ ∈ 𝔖𝑛 , ∀ 𝑥1 , … , 𝑥𝑛 ∈ E, 𝑓(𝑥σ(1) , … , 𝑥σ(𝑛) ) = ε(σ).𝑓(𝑥1 , … , 𝑥𝑛 ),
autrement dit, échanger deux vecteurs change le signe du résultat.
– alternée : lorsque ∀ 𝑥1 , … , 𝑥𝑛 ∈ E, s’il existe 𝑖, 𝑗 ∈ J1 ; 𝑛K tels que 𝑖 ≠ 𝑗 et 𝑥𝑖 = 𝑥𝑗 , alors
𝑓(𝑥1 , … , 𝑥𝑛 ) = 0, autrement dit, si deux des vecteurs sont égaux alors le résultat est nul.
Théorème 25.6
L’ensemble des applications 𝑛-linéaires de E𝑛 vers F est un 𝕂-espace vectoriel (s.e.v. de ℱ(E𝑛 , F)).
L’ensemble des applications 𝑛-linéaires alternées de E𝑛 vers F est un 𝕂-espace vectoriel (s.e.v.
de ℱ(E𝑛 , F)).
𝑢 = ∑ 𝑎𝑗1,1 𝑓(𝑒𝑗1 , 𝑥2 , … , 𝑥𝑛 )
1⩽𝑗1 ⩽𝑝
Puis on développe chacun de ces termes par rapport à la deuxième variable 𝑥2 , ce qui donne
C’est le développement de 𝑓(𝑥1 , … , 𝑥𝑛 ) dans la base 𝔅, on voit ainsi qu’une application 𝑛-linéaire
𝑓 ∶ E𝑛 → F est entièrement déterminée par la donnée des vecteurs 𝑓(𝑒𝑗1 , … , 𝑒𝑗𝑛 ).
comme 𝑓 est alternée, dès que deux indices sont égaux, le terme correspondant est nul, il reste donc :
Lorsque les indices sont distincts deux à deux, on a forcément, {𝑗1 , … , 𝑗𝑛 } = J1 ; 𝑛K, en posant σ(𝑘) = 𝑗𝑘
on définit une permutation des entiers de 1 à 𝑛 et on peut alors écrire :
⎛⎜ ⎞⎟
𝑓(𝑥1 , … , 𝑥𝑛 ) = ⎜⎜⎜ ∑ ε(σ)𝑎σ(1),1 ⋯ 𝑎σ(𝑛),𝑛 ⎟⎟⎟ 𝑓(𝑒1 , … , 𝑒𝑛 )
⎝σ∈𝔖𝑛 ⎠
Donc si 𝑓 est une forme 𝑛-linéaire alternée sur E, alors il existe un scalaire α tel que :
= α ∑ ε(σ)𝑎1,σ(1) … 𝑎𝑛,σ(𝑛) .
σ∈𝔖𝑛
Théorème 25.7
On pose pour 𝑥1 , … , 𝑥𝑛 ∈ E, 𝑓1 (𝑥1 , … , 𝑥𝑛 ) = ∑ ε(σ)𝑎1,σ(1) … 𝑎𝑛,σ(𝑛) , alors 𝑓1 est une forme 𝑛-
σ∈𝔖𝑛
linéaire alternée sur E et 𝑓1 (𝑒1 , … , 𝑒𝑛 ) = 1 (en particulier 𝑓1 est non nulle).
Preuve : On note 𝑐𝑖 la forme linéaire qui à tout vecteur 𝑥 de E associe sa coordonnée sur 𝑒𝑖 .
On note alors 𝑓(𝑥1 , … , 𝑥𝑛 ) = 𝑐1 (𝑥1 )𝑐2 (𝑥2 ) ⋯ 𝑐𝑛 (𝑥𝑛 ), on vérifie que 𝑓 ainsi définie, est 𝑛-linéaire de E𝑛 vers
𝕂. On pose 𝑔 (𝑥1 , … , 𝑥𝑛 ) = ∑ ε(σ)𝑓(𝑥σ(1) , … , 𝑥σ(𝑛) ), on sait que 𝑔 est 𝑛-linéaire (combinaison linéaire de formes
σ∈𝔖𝑛
𝑛-linéaires), soit τ une transposition de E𝑛 , alors 𝑔 (𝑥τ(1) , … , 𝑥τ(𝑛) ) = ∑ ε(σ)𝑓(𝑥τ(σ(1)) , … , 𝑥τ(σ(𝑛)) ), on effectue un
σ∈𝔖𝑛
changement d’indice en posant σ′ = τ ∘σ (σ′ parcourt 𝔖𝑛 une et seule fois lorsque σ parcourt 𝔖𝑛 ), on a ε(σ′ ) = −ε(σ),
d’où 𝑔 (𝑥τ(1) , … , 𝑥τ(𝑛) ) = − ∑ ε(σ′ )𝑓(𝑥σ′(1) , … , 𝑥σ′(𝑛) ) = −𝑔 (𝑥1 , … , 𝑥𝑛 ), donc 𝑔 est alternée.
σ′ ∈𝔖𝑛
𝑛
En revenant à la définition de 𝑓, et en posant 𝑥𝑗 = ∑ 𝑎𝑖𝑗 𝑒𝑖 , on a :
𝑖=1
Lorsqu’on calcule 𝑓1 (𝑒1 , … , 𝑒𝑛 ), tous les 𝑎𝑖𝑗 sont nuls sauf ceux de la diagonale qui valent 1, il reste seulement le
terme correspondant à l’identité de E𝑛 , ce qui donne 𝑓1 (𝑒1 , … , 𝑒𝑛 ) = 𝑎11 × ⋯ × 𝑎𝑛𝑛 = 1. □
Théorème 25.8
Si dim(E) = 𝑛, alors l’ensemble des formes 𝑛-linéaires alternées sur E est un 𝕂-espace vectoriel
de dimension 1 (droite vectorielle), dont une base est l’application 𝑓1 ci-dessus.
Preuve : D’après le début de ce paragraphe, toute forme 𝑓, 𝑛-linéaire alternée sur E, est du type 𝑓 = α𝑓1 avec
α ∈ 𝕂. □
Définition 25.7
L’application 𝑓1 définie ci-dessus est appelée déterminant dans la base 𝔅, elle est notée det𝔅 .
C’est donc une forme 𝑛-linéaire alternée sur E, qui constitue une base de l’ensemble des formes
𝑛-linéaires alternées sur E, plus précisément, c’est l’unique forme 𝑛-linéaire alternée sur E qui
vérifie : det𝔅 (𝑒1 , … , 𝑒𝑛 ) = 1.
Expression du déterminant : soit 𝔅 = (𝑒1 , … , 𝑒𝑛 ) une base de E et soit (𝑥1 , … , 𝑥𝑛 ) une famille de 𝑛
vecteurs de E, et soit A = (𝑎𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) la matrice de cette famille dans la base 𝔅, on a l’expression
suivante :
det(𝑥1 , … , 𝑥𝑛 ) = ∑ ε(σ)𝑎1,σ(1) … 𝑎𝑛,σ(𝑛)
𝔅
σ∈𝔖𝑛
ZExemples :
– Soit E = 𝕂2 , 𝔅 = (𝑖, 𝑗), la base canonique, soient 𝑢 = (𝑢1 , 𝑢2 ), 𝑣 = (𝑣1 , 𝑣2 ) ∈ E, alors det𝔅 (𝑢, 𝑣) =
𝑎1,1 𝑎2,2 − 𝑎1,2 𝑎2,1 = 𝑢1 𝑣2 − 𝑢2 𝑣1 .
– Soit E = 𝕂3 , 𝔅 = (𝑖, 𝑗, 𝑘), la base canonique, soient 𝑢 = (𝑢1 , 𝑢2 , 𝑢3 ), 𝑣 = (𝑣1 , 𝑣2 , 𝑣3 ) et 𝑤 =
(𝑤1 , 𝑤2 , 𝑤3 ) ∈ E, alors det𝔅 (𝑢, 𝑣, 𝑤) = 𝑢1 𝑣2 𝑤3 − 𝑢2 𝑣1 𝑤3 − 𝑢3 𝑣2 𝑤1 − 𝑢1 𝑣3 𝑤2 + 𝑢3 𝑣1 𝑤2 + 𝑢2 𝑣3 𝑤1 .
– Si dim(E) = 𝑛, 𝔅 = (𝑒1 , … , 𝑒𝑛 ) une base de E, (𝑥1 , … , 𝑥𝑛 ) une famille de E telle que la matrice
A du système dans la base 𝔅 soit triangulaire supérieure, alors : det𝔅 (𝑥1 , … , 𝑥𝑛 ) = 𝑎1,1 … 𝑎𝑛,𝑛 ,
produit des coefficients diagonaux de la matrice.
En effet, pour que 𝑎1,σ(1) … 𝑎𝑛,σ(𝑛) ait une chance d’être non nul, il faut que 1 ⩽ σ(1), … , 𝑛 ⩽ σ(𝑛),
ce qui ne donne qu’une seule possibilité : σ = id.
• Si deux des vecteurs de la famille (𝑥1 , … , 𝑥𝑛 ) sont égaux, alors det𝔅 (𝑥1 , … , 𝑥𝑛 ) = 0. On en
déduit si l’un des vecteurs de la famille est combinaison linéaire des autres (i.e. la famille
est liée), alors le déterminant est nul, on en déduit également qu’ajouter à l’un des vecteurs
une combinaison linéaire des autres, ne change pas le déterminant, par conséquent on peut
calculer un déterminant avec la méthode de Gauss (pour obtenir un système de vecteurs dont
la matrice dans la base 𝔅 est triangulaire supérieure).
– det(𝑒1 , … , 𝑒𝑛 ) = 1 , ce que l’on note det𝔅 (𝔅) = 1, c’est l’unique forme 𝑛-linéaire alternée sur E
𝔅
qui vérifie cette égalité.
– Si 𝔅′ est une autre base de E, alors det
′
= det
′
(𝔅). det . On en déduit que det𝔅′ (𝔅) det𝔅 (𝔅′ ) = 1.
𝔅 𝔅 𝔅
Preuve : L’ensemble des formes 𝑛-linéaires alternées est une droite vectorielle engendrée par
det𝔅 , donc il existe un scalaire α tel que det𝔅′ = α. det𝔅 , pour obtenir α, il suffit d’appliquer
cette égalité sur les vecteurs de 𝔅. □
– La famille (𝑥1 , … , 𝑥𝑛 ) est une base de E ssi det𝔅 (𝑥1 , … , 𝑥𝑛 ) ≠ 0 .
Preuve : Soit 𝔅′ = (𝑥1 , … , 𝑥𝑛 ), si 𝔅′ est une base de E, alors l’ensemble des formes 𝑛-linéaires
alternées sur E est une droite engendrée par det𝔅′ et det𝔅 = det𝔅 (𝔅′ ). det𝔅′ , or det𝔅 n’est pas
l’application nulle, donc det𝔅 (𝔅′ ) ≠ 0.
Réciproquement, si det𝔅 (𝔅′ ) ≠ 0, alors la famille 𝔅′ est libre, car si elle était liée, l’un de ses
vecteurs serait combinaison linéaire des autres et donc le déterminant dans la base 𝔅 serait nul,
ce qui est absurde. Donc 𝔅′ est une famille libre de 𝑛 vecteurs en dimension 𝑛, c’est donc une
base de E. □
1) Définition
Soit E un 𝕂-espace vectoriel, soient 𝔅 = (𝑒1 , … , 𝑒𝑛 ) et 𝔅′ = (𝑒1′ , … , 𝑒𝑛′ ) deux bases de E, et soit
𝑢 ∈ ℒ(E), on note 𝑓 la forme 𝑛-linéaire alternée définie par :
On sait qu’il existe un scalaire α tel que 𝑓 = α det𝔅′ , avec α = 𝑓(𝑒1′ , … , 𝑒𝑛′ ), or det𝔅 = det𝔅 (𝔅′ ) det𝔅′ ,
d’où α = det𝔅 (𝔅′ ) det𝔅′ (𝑢(𝑒1′ ), … , 𝑢(𝑒𝑛′ )). En calculant 𝑓(𝑒1 , … , 𝑒𝑛 ), on obtient :
Définition 25.8
Soit E un 𝕂-espace vectoriel et soit 𝔅 = (𝑒1 , … , 𝑒𝑛 ) une base de E, soit 𝑢 ∈ ℒ(E), on appelle
déterminant de 𝑢 le scalaire, noté det(𝑢) et défini par : det(𝑢) = det𝔅 (𝑢(𝑒1 ), … , 𝑢(𝑒𝑛 )). Ce scalaire
est indépendant de la base 𝔅 choisie.
ZExemple : Soit 𝑢 ∈ ℒ(ℝ2 ) défini par 𝑢(𝑥, 𝑦) = (𝑥 + 𝑦; 2𝑥 − 𝑦), notons 𝔅 = (𝑖, 𝑗) la base canonique de ℝ2 ,
alors det(𝑢) = det𝔅 (𝑖 + 2𝑗, 𝑖 − 𝑗) = det𝔅 (3𝑖, 𝑖 − 𝑗) = det𝔅 (3𝑖, −𝑗) = −3 det𝔅 (𝑖, 𝑗) = −3.
2) Propriétés du déterminant
– Soit 𝑢 ∈ ℒ(E), soit 𝔅 une base de E, alors :
Preuve : L’application 𝑓 définie par 𝑓(𝑥1 , … , 𝑥𝑛 ) = det𝔅 (𝑢(𝑥1 ), … , 𝑢(𝑥𝑛 )) est 𝑛-linéaire alternée, donc il
existe un scalaire α tel que 𝑓 = α det𝔅 , ce scalaire vaut α = 𝑓(𝑒1 , … , 𝑒𝑛 ) (en posant 𝔅 = (𝑒1 , … , 𝑒𝑛 )), donc
α = det(𝑢) d’après la définition. □
– Soient 𝑢, 𝑣 ∈ ℒ(E), on a det(𝑢 ∘ 𝑣) = det(𝑣 ∘ 𝑢) = det(𝑢) det(𝑣) .
Preuve : Soit 𝔅 = (𝑒1 , … , 𝑒𝑛 ) une base de E, alors :
det(𝑢 ∘ 𝑣) = det(𝑢(𝑣(𝑒1 )), … , 𝑢(𝑣(𝑒𝑛 ))) = det(𝑢) det(𝑣(𝑒1 ), … , 𝑣(𝑒𝑛 )) = det(𝑢) det(𝑣),
𝔅 𝔅
1) Définition
Définition 25.9
Soit A = (𝑎𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂), et soit 𝑢 l’endomorphisme de 𝕂𝑛 canoniquement associé à A, on appelle
déterminant de A le déterminant de 𝑢 et on pose :
||𝑎1,1 ⋯ 𝑎1,𝑛 ||
| |
Notation : on écrit det(A) = || ⋮ ⋮ ||
|𝑎𝑛,1 ⋯ 𝑎𝑛,𝑛 |
ZExemples :
||𝑎 𝑏||
– Cas d’une matrice carrée de taille 2 : | | = 𝑎𝑑 − 𝑏𝑐.
| 𝑐 𝑑|
𝑛
– Cas d’une matrice triangulaire : si A est triangulaire, alors det(A) = ∏ 𝑎𝑖,𝑖 (produit des éléments
𝑖=1
diagonaux).
||1 1 1 || |1 1 1 || |1 1 1 ||
C1 ↔C3 || || L3←L3−L1 ||| || L3←L3−L2 ||| |
det(A) = − |0 2 −1| = − |0 2 −1| = − |0 2 −1|| = −4.
|1 3 2 | |0 2 1 | |0 0 2 |
Définition 25.10
Le scalaire γ𝑖,𝑗 (A) est appelé cofacteur (𝑖 𝑗) de la matrice A, c’est le déterminant de la matrice A
dans laquelle la colonne 𝑗 a été remplacée par le 𝑖e vecteur de la base canonique de 𝕂𝑛 .
on remarque que lorsque σ(𝑛) ≠ 𝑛, alors 𝑏σ(𝑛),𝑛 = 0, on peut donc ne retenir que les permutations ayant
𝑛 comme point fixe, c’est à dire en fait les éléments de 𝔖𝑛−1 , et comme 𝑏𝑛,𝑛 = 1, on a alors :
γ𝑖,𝑗 (A) = (−1)𝑖+𝑗 ∑ ε(σ)𝑏σ(1),1 ⋯ 𝑏σ(𝑛−1),𝑛−1 .
σ∈𝔖𝑛−1
Définition 25.11
Soit A ∈ ℳ𝑛 (𝕂), on appelle mineur (𝑖 𝑗) de la matrice A, le déterminant Δ𝑖,𝑗 (A) de la matrice
A𝑖,𝑗 obtenue par suppression de ligne 𝑖 et de la colonne 𝑗 de A. Le lien entre cofacteur et mineur
est : γ𝑖,𝑗 (A) = (−1)𝑖+𝑗 Δ𝑖,𝑗 (A).
V𝑛 = ∏ (α𝑗 − α𝑖 )
0⩽𝑖<𝑗⩽𝑛
Preuve : Si deux des scalaires sont égaux, le résultat est évident. Supposons les α𝑖 distincts deux à deux. On peut
vérifier que pour 𝑛 = 2 le résultat est vrai. Supposons le vrai au rang 𝑛, et remplaçons dans V𝑛+1 la dernière
ligne par (1 X X2 … X𝑛+1 ), le déterminant obtenu en développant suivant la dernière ligne, est un polynôme P(X)
de degré au plus 𝑛 + 1, dont les racines sont α0 , … , α𝑛 , de plus son coefficient dominant est V𝑛 , par conséquent
𝑛 𝑛
on a P(X) = V𝑛 ∏ (X − α𝑖 ), d’où V𝑛+1 = V𝑛 ∏ (α𝑛+1 − α𝑖 ) = ∏ (α𝑗 − α𝑖 ). □
𝑖=0 𝑖=0 0⩽𝑖<𝑗⩽𝑛+1
1. VANDERMONDE Alexandre (1735 – 1796) : mathématicien français qui fut le premier à étudier les déterminants.
Définition 25.12
Soit A ∈ ℳ𝑛 (𝕂), on appelle comatrice de A la matrice de ℳ𝑛 (𝕂) dont les coefficients sont les
cofacteurs γ𝑖,𝑗 (A). Notation Com(A) = (γ𝑖,𝑗 (A))1⩽𝑖,𝑗⩽𝑛 .
𝑎 𝑏 𝑑 −𝑐
ZExemple : Si A = ( ), alors Com(A) = ( ).
𝑐 𝑑 −𝑏 𝑎
1 T
A−1 = Com(A)
det(A)
VI APPLICATIONS
⎛⎜ 𝑥1 ⎞⎟
𝑣 ⎜⎜⎜⎜⋮⎟⎟⎟⎟ ∈ H ⟺ (𝑢1 , … , 𝑢𝑛−1 , 𝑣) est liée [car (𝑢1 , … , 𝑢𝑛−1 ) est libre]
⎜ ⎟
⎝ 𝑥𝑛 ⎠𝔅
⟺ det(𝑢1 , … , 𝑢𝑛−1 , 𝑣) = 0 (on est en dimension 𝑛)
𝔅
||𝑎11 ⋯ 𝑎1𝑛−1 𝑥1 ||
| |
⟺ || ⋮ ⋮ ⋮|| = 0 (𝑎𝑖,𝑗 est la coordonnée sur 𝑒𝑖 de 𝑢𝑗 )
|𝑎𝑛1 ⋯ 𝑎𝑛𝑛−1 𝑥𝑛 |
⟺ (−1)𝑛+1 Δ1𝑛 𝑥1 + ⋯ + (−1)𝑛+𝑛 Δ𝑛𝑛 𝑥𝑛 = 0 (développement suivant la colonne 𝑛)
⟺ α1 𝑥1 + ⋯ + α𝑛 𝑥𝑛 = 0 c’est une équation cartésienne de H dans la base 𝔅,
en posant α𝑖 = (−1)𝑛+𝑖 Δ𝑖,𝑛 . Les coefficients α𝑖 ne sont pas tous nuls, en effet, s’ils l’étaient alors
pour tout vecteur 𝑣 de E le déterminant ci-dessus serait nul, or il existe un vecteur 𝑣 tel que la
famille (𝑢1 , … , 𝑢𝑛−1 , 𝑣) soit une base de E (théorème de la base incomplète), pour ce vecteur 𝑣 on a
det𝔅 (𝑢1 , … , 𝑢𝑛−1 , 𝑣) ≠ 0 : contradiction, donc au moins un des coefficients α𝑖 est non nul.
Définition 25.13
On dit que la base 𝔅 est en relation avec la base 𝔅′ lorsque la matrice de passage P𝔅,𝔅′ a un
déterminant strictement positif, on note alors 𝔅ℛ𝔅′ .
Théorème 25.10
La relation ℛ est une relation d’équivalence dans l’ensemble des bases de E, et il n’y a que deux
classes d’équivalence.
Preuve : La réflexivité est évidente (car P𝔅,𝔅 = I𝑛 ). La symétrie découle de la formule P𝔅′,𝔅 = P−1 𝔅,𝔅′ , donc
det(P𝔅′,𝔅 ) = det(P1𝔅,𝔅′ ) , les deux déterminants ont donc le même signe. La transitivité découle de la formule :
P𝔅,𝔅′′ = P𝔅,𝔅′ × P𝔅′,𝔅′′ , donc det(P𝔅,𝔅′′ ) = det(P𝔅,𝔅′ ) det(P𝔅′,𝔅′′ ).
On reprend l’exemple ci-dessus : 𝔅 = (𝑒1 , … , 𝑒𝑛 ) une base de E et 𝔅′ = (−𝑒1 , 𝑒2 , … , 𝑒𝑛 ), 𝔅 et 𝔅′ ne sont pas
en relation, donc il y a au moins deux classes d’équivalence (celle de 𝔅 et celle de 𝔅′ ), soit 𝔅′′ une troisième
base, supposons que 𝔅 ne soit pas en relation avec 𝔅′′ , alors P𝔅′,𝔅′′ = P𝔅′,𝔅 × P𝔅,𝔅′′ , d’où det(P𝔅′,𝔅′′ ) = det(P𝔅′,𝔅 ) ×
det(P𝔅,𝔅′′ ) > 0, car ces deux déterminants sont négatifs, par conséquent 𝔅′′ ℛ𝔅′ , et donc la classe de 𝔅′′ et égale
à celle de 𝔅′ , il n’y a pas d’autres classe d’équivalence que celles de 𝔅 et de 𝔅′ . □
Définition 25.14
Orienter l’espace vectoriel E c’est choisir une des deux classes d’équivalence, que l’on appelle
classe des bases directes, l’autre étant alors appelée classe des bases indirectes. Comme il n’y
a que deux choix, il n’y a donc que deux orientations possibles. Dans la pratique, on choisit une
base de E, et on décrète que celle-ci est directe.
À retenir
Le déterminant de la matrice de passage entre deux bases directes (ou deux bases indirectes)
est strictement positif. Le déterminant de la matrice de passage entre une base directe et une
base indirecte est strictement négatif.
3) Systèmes linéaires
⎧
⎪ 𝑎 𝑥 + … + 𝑎1𝑝 𝑥𝑝 = 𝑏1
⎪ 11 1
C’est un système de la forme (S) ⎨ ⎪ ⋮ , où les scalaires 𝑥1 , … , 𝑥𝑝 sont les
⎪
⎩ 𝑎𝑛1 𝑥1 + … + 𝑎𝑛𝑝 𝑥𝑝 = 𝑏𝑛
inconnues.
Le système (S) peut s’interpréter de plusieurs façons :
– Interprétation géométrique : chaque équation de (S) peut être vue comme l’équation d’un
hyperplan de 𝕂𝑝 lorsque les coefficients ne sont pas tous nuls. Les solutions de (S) sont les
coordonnées des points de l’intersection de 𝑛 hyperplans.
⎛⎜ 𝑥1 ⎞⎟ ⎛⎜ 𝑏1 ⎞⎟ ⎛⎜𝑎11 ⋯ 𝑎1𝑝 ⎞⎟
– Sous forme matricielle : (S) ⟺ AX = B où X = ⎜⎜⎜⎜⋮⎟⎟⎟⎟, B = ⎜⎜⎜⎜⋮⎟⎟⎟⎟, et A = ⎜⎜⎜⎜ ⋮ ⋮ ⎟⎟⎟⎟, A est la
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑥𝑝 ⎠ ⎝ 𝑏𝑛 ⎠ ⎝𝑎𝑛1 ⋯ 𝑎𝑛𝑝 ⎠
matrice du système. Le rang de la matrice A est appelé le rang du système S, il peut être vu
comme le nombre maximal d’équations indépendantes du système.
– Sous forme linéaire : soit 𝑢 ∈ ℒ(𝕂𝑝 , 𝕂𝑛 ) l’application linéaire canoniquement associée à A, soit
𝑥 = (𝑥1 , … , 𝑥𝑝 ) ∈ 𝕂𝑝 , et soit 𝑏 = (𝑏1 , … , 𝑏𝑛 ) ∈ 𝕂𝑛 , on a alors (S) ⟺ 𝑢(𝑥) = 𝑏.
– Sous forme vectorielle : soient 𝑐1 (A), … , 𝑐𝑝 (A) les vecteurs colonnes de A, on a (S) ⟺ 𝑥1 𝑐1 (A) +
… + 𝑥𝑝 𝑐𝑝 (A) = 𝑏, c’est une équation vectorielle dans 𝕂𝑛 (on cherche toutes les combinaisons
linéaires des vecteurs colonnes de 𝑎 égales à 𝑏).
ce qui donne det(D𝑖 ) = 𝑥𝑖 det(A) par linéarité sur la variable 𝑖, d’où les formules :
À partir de la taille 𝑛 = 3 ces formules ne sont pas très efficaces en terme de complexité (𝑛 + 1
déterminants à calculer...).
Solution 25.1
1/ Cycles de 𝔖3 : idE3 , (1 2), (1 3), (2 3), (1 2 3) et (1 3 2).
2/ Pour faire un cycle de longueur 𝑘, on prend 𝑘 entiers parmi 𝑛 pour faire le support, (𝑛𝑘) choix, puis il faut faire un
cycle avec ces 𝑘 entiers, c’est comme placer 𝑘 convives autour d’un table ronde, il y a (𝑘 − 1)! façons de faire. Soit
au total (𝑘 − 1)!(𝑛𝑘) = (𝑛−𝑘)!𝑘
𝑛!
cycles de longueur 𝑘.
3/ Si σ = (𝑖1 𝑖2 … 𝑖𝑝 ) alors σ−1 = (𝑖𝑝 𝑖𝑝−1 ⋯ 𝑖1 ).
4/ Si σ = (𝑗0 𝑗1 … 𝑗𝑝−1 ), alors on peut vérifier que σ(𝑗𝑘 ) = 𝑗𝑘+1 (mod 𝑝) , on en déduit que σ𝑖 (𝑗𝑘 ) = 𝑗𝑘+𝑖 (mod 𝑝) (les autres
entiers étant fixes). On a donc bien σ𝑝 = id et si 𝑖 < 𝑝 alors σ𝑖 (𝑗𝑘 ) = 𝑗𝑘+𝑖 (mod 𝑝) ≠ 𝑗𝑘 donc σ𝑖 ≠ id. Si 𝑎 est un
élément du support de σ, alors on a 𝑎 = 𝑗𝑘 , si σ𝑖 (𝑎) = σ𝑠 (𝑎) alors 𝑗𝑘+𝑖 (mod 𝑝) = 𝑗𝑘+𝑠 (mod 𝑝) et donc 𝑖 ≡ 𝑠 (mod 𝑝),
donc les entiers 𝑎, σ(𝑎), …, σ𝑝−1 (𝑎) sont distincts et σ𝑝 (𝑎) = 𝑎, d’où σ = (𝑎 σ(𝑎) … σ𝑝−1 (𝑎)).
Solution 25.2
1/ Si 𝑐 = (𝑖1 𝑖2 … 𝑖𝑝 ) et 𝑐 ′ = (𝑗1 𝑗2 … 𝑗𝑘 ) deux cycles à support disjoints, si 𝑘 est un entier, en distinguant trois cas :
𝑘 ∈ {𝑖1 , … , 𝑖𝑝 }, 𝑘 ∈ {𝑗1 , … , 𝑗𝑘 } et 𝑘 ∉ {𝑖1 , … , 𝑖𝑝 } ∪ {𝑗1 , … , 𝑗𝑘 }, on vérifie que 𝑐 ∘ 𝑐 ′ (𝑘) = 𝑐 ′ ∘ 𝑐(𝑘).
2/ Les cycles à support non disjoints ne commutent pas, par exemple : (1 2) ∘ (2 3) = (1 2 3) alors que (2 3) ∘ (1 2) =
(1 3 2).
Solution 25.3 Par linéarité sur chaque vecteur colonne, on peut sortir le coefficient λ de chaque colonne.