Déterminants
Le déterminant est un outil qui caractérise, par un calcul, l’inversibilité d’une matrice carrée.
K désigne ℝ ou ℂ . n et p désignent des entiers naturels non nuls.
I. Applications multilinéaires
Soit E et F deux K -espaces vectoriels.
1°) Définition
E n → F
Déf : On appelle application n -linéaire de E vers F toute application ϕ : linéaire
(x1 ,…, x n ) ֏ ϕ (x1 ,…, x n )
par rapport à chacune de ses variables i.e. : ∀ (x1 ,…, xˆi , …, x n ) ∈ E n −1 l’application partielle
E → F
ϕi : est linéaire.
x i ֏ ϕ (x1 , …, x i ,…, x n )
Quand n = 2 , on parle d’application bilinéaire.
Quand F = K , on parle de forme n linéaire.
Prop : Soit ϕ une application n -linéaire de E vers F et (x1 , …, x n ) ∈ E n .
Si l’un des x1 ,…, x n est nul alors ϕ (x1 ,…, x n ) = 0 .
2°) Applications multilinéaires symétriques et antisymétriques
Déf : Soit ϕ une application n -linéaire de E vers F
On dit que ϕ est symétrique (resp. antisymétrique) ssi
∀σ ∈ Sn , ∀ (x1 ,…, x n ) ∈ E n , ϕ(x σ (1) ,…, x σ (n ) ) = ϕ(x1 ,…, x n )
(resp. ϕ (x σ (1) , …, x σ (n ) ) = ε(σ )ϕ (x1 ,…, x n ) )
On note Sn (E , F ) (resp. An (E , F ) ) l’ensemble de ces applications.
Prop : Soit ϕ une application n -linéaire de E vers F .
On a équivalence entre :
(i) ϕ est symétrique (resp. antisymétrique)
(ii) ∀ (x1 ,…, x n ) ∈ E n et pour toute transposition τ de {1, …,n } :
ϕ (x τ (1) , …, x τ (n ) ) = ϕ (x1 ,…, x n ) (resp. ϕ (x τ (1) , …, x τ (n ) ) = −ϕ (x1 ,…, x n ) )
3°) Application multilinéaire alternée
Déf : Soit ϕ une application n -linéaire de E vers F .
On dit que ϕ est alternée ssi pour tout (x1 , …, x n ) ∈ E n , s’il existe 1 ≤ i ≠ j ≤ n tel que x i = x j alors
ϕ (x1 ,…, x n ) = 0 , autrement dit ϕ s’annule sur tout famille contenant deux fois le même vecteur.
On note Λn (E , F ) l’ensemble de ces applications.
Si F = K , on notera Λ*n (E ) au lieu de Λn (E , K) .
Prop : Soit ϕ une application n -linéaire alternée de E vers F .
Si (x1 , …, x n ) est une famille liée de vecteurs de E alors ϕ (x1 ,…, x n ) = 0 .
Théorème :
Soit ϕ une application n -linéaire alternée de E vers F .
On a équivalence entre :
(i) ϕ est antisymétrique
(ii) ϕ est alternée.
II. Déterminants
Soit E un K -espace vectoriel de dimension n .
-1/5-
1°) Déterminant d’une famille de vecteurs
Soit B = (e1 , …,en ) une base de E .
Déf : Soit F = (x1 ,…, x n ) une famille de n = dim E vecteurs de E et A = (ai , j ) = Mat B (x1 ,…, x n ) ∈ M n (K ) .
On appelle déterminant de la famille F dans B le scalaire :
n
det B F = det B (x1 ,…, x n ) = ∑ ε(σ )∏aσ (i ),i .
σ ∈Sn i =1
Prop : On a det B B = 1 .
Théorème : (admis)
Soit E un K -espace vectoriel de dimension n muni d’une base B = (e1 , …,en ) .
L’application det B : E n → K est une forme n -linéaire alternée non nulle De plus, l’ensemble Λ*n (E )
des formes n linéaires alternées sur E est une droite vectorielle.
Cor : Il en découle :
det B est linéaire en chacune de ses variables,
det B s’annule sur les familles liées,
det B est antisymétrique
det B est vecteur directeur de Λ*n (E ) i.e. : ∀ϕ ∈ Λ*n (E ), ∃!λ ∈ K, ϕ = λ.det B .
Prop : Soit B ′ = (ε1 ,…, εn ) une nouvelle base de E . On a
∀ (x1 ,…, x n ) ∈ E n , det B ′ (x1 ,…, x n ) = det B ′ [Link] B (x1 ,…, x n ) .
Théorème :
Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) .
Soit B ′ = (ε1 ,…, εn ) une famille de vecteurs de E .
On a équivalence entre :
(i) B ′ est une base de E .
(ii) det B B ′ ≠ 0 .
2°) Déterminant d’un endomorphisme
a) définition
Soit B = (e1 , …,en ) une base de E et f ∈ L(E ) . Notons δ = det B ( f (e1 ),…, f (en ))
Prop : ∀ϕ ∈ Λ*n (E ), ∀ (x1 ,…, x n ) ∈ E n , ϕ ( f (x1 ),…, f (x n )) = δϕ (x1 ,…, x n )
Prop : La quantité det B ( f (e1 ),…, f (en )) ne dépend pas de la base B .
Déf : On appelle déterminant de l’endomorphisme f le scalaire det f = det B ( f (e1 ),…, f (en )) .
b) propriétés
Prop : det(IdE ) = 1 .
Prop : ∀λ ∈ K, ∀f ∈ L(E ), det(λ.f ) = λ n det f .
Théorème :
∀f , g ∈ L(E ), det(g f ) = det g × det f .
Théorème :
Soit f ∈ L(E ) . On a équivalence entre :
(i) f est un automorphisme de E .
(ii) det f ≠ 0 .
De plus si tel est le cas det f −1 = 1 det f .
GL (E ) → K *
Cor : L’application det : est un morphisme de groupes.
f ֏ det f
Déf : Le noyau de ce morphisme est noté SL (E ) = {f ∈ L(E ) / det f = 1} .
On l’appelle groupe spécial linéaire de E .
-2/5-
3°) Déterminant d’une matrice carrée
a) définition
n
Déf : On appelle déterminant de la matrice A = (ai , j ) ∈ M n (K ) le scalaire : det A = ∑ ε(σ )∏aσ (i ),i .
σ ∈Sn i =1
a11 ... a1n
On note encore : det A = ⋮ ⋮ .
an1 ... ann [n ]
Prop : Soit B = (e1 , …,en ) une base de E et (x1 , …, x n ) une famille de vecteurs de E . Notons
A = Mat B (x1 ,…, x n ) . On a det B (x1 ,…, x n ) = det A .
Prop : Soit f ∈ L(E ) et B = (e1 , …,en ) une base de E . Notons A = Mat B ( f ) . On a det f = det A .
b) propriétés
Prop : det I n = 1
Prop : ∀λ ∈ K, ∀A ∈ M n (K ), det(λ.A) = λ n det A .
Théorème :
∀A, B ∈ M n (K ), det AB = det [Link] B .
Cor : ∀A ∈ M n (K ), ∀m ∈ ℕ, det(Am ) = (det A)m .
Théorème :
Soit A ∈ M n (K ) . On a équivalence entre :
(i) A est inversible
(ii) det A ≠ 0
De plus, si tel est le cas : det A−1 = 1 det A .
GLn (K) → K∗
Cor : L’application det : est un morphisme de groupes.
A ֏ det A
Déf : Le noyau de ce morphisme de groupes est noté SLn (K) = {A ∈ M n (K ) / det A = 1} .
On l’appelle groupe spécial linéaire d’ordre n .
Prop : ∀A ∈ M n (K ), det t A = det A .
III. Calculs de déterminants
1°) Premiers résultats
n
Soit A = (ai , j ) ∈ M n (K ) . Partons de det A = ∑ ε(σ )∏a
σ ∈Sn i =1
σ (i ),i .
Pour n = 1 , A = (a ) , S1 = {Id} et donc det A = a .
a b
Pour n = 2 , A = , S2 = {Id, (1, 2)} .
c d
det A = ε(Id)ad + ε((1, 2))cb = ad −bc .
a b c
Pour n = 3 , A = a ′ b ′ c ′ , S3 = {Id, (1, 2), (2,3), (3,1), (1, 2,3), (1,3,1)}
a ′′ b ′′ c ′′
det A = ... = (ab ′c ′′ + a ′b ′′c + a ′′bc ′) − (a ′′b ′c + a ′b ′′c + ab ′′c ′) .
a b c a b
a ′ b′ c′ a ′ b′
On retient : (règle de Sarrus)
a ′′ b ′′ c ′′ a ′′ b ′′
− − − + + +
-3/5-
2°) Déterminant d’une matrice triangulaire
n
Prop : Soit A = (ai , j ) ∈ Tn+ (K) (resp. Tn− (K ) ). On a : det A = ∏ai ,i .
i =1
Théorème : (admis)
Soit A ∈ M n (K ) un matrice triangulaire par blocs de la forme :
B D B 0
A = (resp. A =
D C ) avec B ,C carrées. On a det A = det [Link] C .
0 C
3°) Opérations sur les déterminants
Théorème :
Soit A ∈ M n (K ) de colonnes C1 , …,C n .
Si l’une des colonnes de A est nulle alors det A = 0 .
Si les colonnes de A sont liées alors det A = 0 .
Si on permute les colonnes de A selon une permutation σ alors det A est multiplié par ε(σ ) .
Si on multiplie une colonne de A par un scalaire λ alors det A est multiplié par λ .
Si on scinde une colonne C j de A en C j′ +C j′′ alors det A est la somme des deux déterminants obtenus.
Si on ajoute à une colonne de A une combinaison linéaire des autres colonnes de A , le déterminant de
A est inchangé.
Cor : Par transposition, le théorème ci-dessus se généralise à la manipulation de lignes au lieu de colonnes.
4°) Développement du déterminant selon une rangée
Soit A = (ai , j ) ∈ M n (K ) .
n n
a1,1 ⋯ a1,n a1,1 ⋯ a1,n
det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j avec Ai , j = (−1)i + j × ⋮ aˆi , j ⋮ et ∆i , j = ⋮ aˆi , j ⋮ .
i =1 i =1
an ,1 ⋯ an ,n [n −1]
an ,1 ⋯ an ,n [n −1]
Déf : Cette relation est appelée développement de det A selon la j ème colonne. Le coefficient ∆i , j est appelé
mineur de A d’indice (i , j ) . Le coefficient Ai , j = (−1)i + j ∆i , j est appelé cofacteur de A d’indice (i , j ) .
n n
det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j
j =1 j =1
Déf : Cette relation est appelée développement de det A selon la i ème ligne.
IV. Applications des déterminants
1°) Formules de Cramer
Théorème :
Soit Σ un système à n équations et n inconnues :
a1,1x1 + ⋯ + a1,n x n = b1
⋮ d’équation matricielle AX = B .
an ,1x1 + ⋯ + an ,n x n = bn
Le système Σ est de Cramer ssi det A ≠ 0 .
De plus, si tel est le cas, son unique solution est le n uplet (x1 ,..., x n ) avec
a1,1 ⋯ b1 ⋯ a1,n
⋮ ⋮ ⋮
an ,1 ⋯ bn ⋯ a n ,n
∀1 ≤ j ≤ n , x j = .
a1,1 ⋯ a1,n
⋮ ⋮
an ,1 ⋯ an ,n
-4/5-
2°) Comatrice
Soit A = (ai , j ) ∈ M n (K ) . Pour 1 ≤ i , j ≤ n , on note Ai , j le cofacteur d’indice (i , j ) de la matrice A .
a11 ⋯ a1n
i+j i+j
Ai , j = (−1) ∆i , j = (−1) ⋮ aˆij ⋮ .
an1 ⋯ ann
Déf : On appelle comatrice de A la matrice des cofacteurs de A , on la note com(A) = (Ai , j )1≤i , j ≤n ∈ M n (K ) .
Théorème :
∀A ∈ M n (K), t com(A).A = A. t com A = det AI
. n.
1 t
Cor : Si det A ≠ 0 alors A−1 = com(A) .
det A
3°) Détermination du rang d’une matrice
Déf : Soit A ∈ M n , p (K ) . On appelle matrice extraite de A toute matrice formée en retirant un certain nombre
de lignes et/ou de colonnes de A .
Prop : Soit A ∈ M n , p (K ) .
Toute matrice extraite de A est de rang inférieur au rang de A .
Déf : Soit A ∈ M n , p (K ) et 1 ≤ r ≤ min(n , p ) .
On appelle déterminant extrait de A d’ordre r , tout déterminant d’une matrice carrée d’ordre r extraite
de A .
Théorème :
Soit A ∈ M n , p (K ) une matrice non nulle.
Le rang de A est l’ordre maximal des déterminants non nuls extraits de A .
4°) Orientation d’un R-espace vectoriel de dimension finie
E désigne un ℝ -espace vectoriel de dimension n ∈ ℕ * .
Déf : Soit B = (e1 ,...,en ) et B ′ = (ε1 ,..., εn ) deux bases de E .
On dit que la base B ′ a la même orientation que B ssi det B B ′ > 0 .
Sinon, on dit que B ′ est d’orientation opposée à celle de B .
Prop : Soit B et B ′ deux bases de E .
Si B a même orientation que B ′ alors B ′ a même orientation que B .
Prop : Soit B , B ′, B ′′ trois bases de E .
B ′ et B ′′ ont même orientation ssi elles ont toutes deux même orientation que B ou qu’elles sont toutes
deux d’orientation opposées à B .
Déf : Orienter le ℝ -espace vectoriel E à partir d’une base B c’est adopter le vocabulaire suivant :
Toute base de E de même orientation que B est dite directe.
Toute base de E d’orientation opposée à celle de B est dite indirecte.
La base B est alors dite base orientée de référence.
Déf : On dit alors que D est un axe vectoriel.
En particulier :
Dans l’espace géométrique orienté B = (i , j , k ) :
(i , j , k ), (k , i , j ), ( j , k , i ) sont directes
(i , k , j ), (k , j , i ), ( j , i , k ) sont indirectes.
-5/5-