0% ont trouvé ce document utile (0 vote)
51 vues5 pages

Déterminants et applications linéaires

Transféré par

saad.mbarki99
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
51 vues5 pages

Déterminants et applications linéaires

Transféré par

saad.mbarki99
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Déterminants

Le déterminant est un outil qui caractérise, par un calcul, l’inversibilité d’une matrice carrée.
K désigne ℝ ou ℂ . n et p désignent des entiers naturels non nuls.

I. Applications multilinéaires
Soit E et F deux K -espaces vectoriels.

1°) Définition
E n → F
Déf : On appelle application n -linéaire de E vers F toute application ϕ :   linéaire
(x1 ,…, x n ) ֏ ϕ (x1 ,…, x n )
par rapport à chacune de ses variables i.e. : ∀ (x1 ,…, xˆi , …, x n ) ∈ E n −1 l’application partielle
E → F
ϕi :  est linéaire.
x i ֏ ϕ (x1 , …, x i ,…, x n )
Quand n = 2 , on parle d’application bilinéaire.
Quand F = K , on parle de forme n linéaire.
Prop : Soit ϕ une application n -linéaire de E vers F et (x1 , …, x n ) ∈ E n .
Si l’un des x1 ,…, x n est nul alors ϕ (x1 ,…, x n ) = 0 .

2°) Applications multilinéaires symétriques et antisymétriques


Déf : Soit ϕ une application n -linéaire de E vers F
On dit que ϕ est symétrique (resp. antisymétrique) ssi
∀σ ∈ Sn , ∀ (x1 ,…, x n ) ∈ E n , ϕ(x σ (1) ,…, x σ (n ) ) = ϕ(x1 ,…, x n )
(resp. ϕ (x σ (1) , …, x σ (n ) ) = ε(σ )ϕ (x1 ,…, x n ) )
On note Sn (E , F ) (resp. An (E , F ) ) l’ensemble de ces applications.
Prop : Soit ϕ une application n -linéaire de E vers F .
On a équivalence entre :
(i) ϕ est symétrique (resp. antisymétrique)
(ii) ∀ (x1 ,…, x n ) ∈ E n et pour toute transposition τ de {1, …,n } :
ϕ (x τ (1) , …, x τ (n ) ) = ϕ (x1 ,…, x n ) (resp. ϕ (x τ (1) , …, x τ (n ) ) = −ϕ (x1 ,…, x n ) )

3°) Application multilinéaire alternée


Déf : Soit ϕ une application n -linéaire de E vers F .
On dit que ϕ est alternée ssi pour tout (x1 , …, x n ) ∈ E n , s’il existe 1 ≤ i ≠ j ≤ n tel que x i = x j alors
ϕ (x1 ,…, x n ) = 0 , autrement dit ϕ s’annule sur tout famille contenant deux fois le même vecteur.
On note Λn (E , F ) l’ensemble de ces applications.
Si F = K , on notera Λ*n (E ) au lieu de Λn (E , K) .
Prop : Soit ϕ une application n -linéaire alternée de E vers F .
Si (x1 , …, x n ) est une famille liée de vecteurs de E alors ϕ (x1 ,…, x n ) = 0 .
Théorème :
Soit ϕ une application n -linéaire alternée de E vers F .
On a équivalence entre :
(i) ϕ est antisymétrique
(ii) ϕ est alternée.

II. Déterminants
Soit E un K -espace vectoriel de dimension n .

-1/5-
1°) Déterminant d’une famille de vecteurs
Soit B = (e1 , …,en ) une base de E .
Déf : Soit F = (x1 ,…, x n ) une famille de n = dim E vecteurs de E et A = (ai , j ) = Mat B (x1 ,…, x n ) ∈ M n (K ) .
On appelle déterminant de la famille F dans B le scalaire :
n
det B F = det B (x1 ,…, x n ) = ∑ ε(σ )∏aσ (i ),i .
σ ∈Sn i =1

Prop : On a det B B = 1 .
Théorème : (admis)
Soit E un K -espace vectoriel de dimension n muni d’une base B = (e1 , …,en ) .
L’application det B : E n → K est une forme n -linéaire alternée non nulle De plus, l’ensemble Λ*n (E )
des formes n linéaires alternées sur E est une droite vectorielle.
Cor : Il en découle :
det B est linéaire en chacune de ses variables,
det B s’annule sur les familles liées,
det B est antisymétrique
det B est vecteur directeur de Λ*n (E ) i.e. : ∀ϕ ∈ Λ*n (E ), ∃!λ ∈ K, ϕ = λ.det B .
Prop : Soit B ′ = (ε1 ,…, εn ) une nouvelle base de E . On a
∀ (x1 ,…, x n ) ∈ E n , det B ′ (x1 ,…, x n ) = det B ′ [Link] B (x1 ,…, x n ) .
Théorème :
Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) .
Soit B ′ = (ε1 ,…, εn ) une famille de vecteurs de E .
On a équivalence entre :
(i) B ′ est une base de E .
(ii) det B B ′ ≠ 0 .

2°) Déterminant d’un endomorphisme


a) définition
Soit B = (e1 , …,en ) une base de E et f ∈ L(E ) . Notons δ = det B ( f (e1 ),…, f (en ))
Prop : ∀ϕ ∈ Λ*n (E ), ∀ (x1 ,…, x n ) ∈ E n , ϕ ( f (x1 ),…, f (x n )) = δϕ (x1 ,…, x n )
Prop : La quantité det B ( f (e1 ),…, f (en )) ne dépend pas de la base B .
Déf : On appelle déterminant de l’endomorphisme f le scalaire det f = det B ( f (e1 ),…, f (en )) .
b) propriétés
Prop : det(IdE ) = 1 .
Prop : ∀λ ∈ K, ∀f ∈ L(E ), det(λ.f ) = λ n det f .
Théorème :
∀f , g ∈ L(E ), det(g  f ) = det g × det f .
Théorème :
Soit f ∈ L(E ) . On a équivalence entre :
(i) f est un automorphisme de E .
(ii) det f ≠ 0 .
De plus si tel est le cas det f −1 = 1 det f .
GL (E ) → K *
Cor : L’application det :  est un morphisme de groupes.
f ֏ det f

Déf : Le noyau de ce morphisme est noté SL (E ) = {f ∈ L(E ) / det f = 1} .


On l’appelle groupe spécial linéaire de E .

-2/5-
3°) Déterminant d’une matrice carrée
a) définition
n
Déf : On appelle déterminant de la matrice A = (ai , j ) ∈ M n (K ) le scalaire : det A = ∑ ε(σ )∏aσ (i ),i .
σ ∈Sn i =1

a11 ... a1n


On note encore : det A = ⋮ ⋮ .
an1 ... ann [n ]

Prop : Soit B = (e1 , …,en ) une base de E et (x1 , …, x n ) une famille de vecteurs de E . Notons
A = Mat B (x1 ,…, x n ) . On a det B (x1 ,…, x n ) = det A .
Prop : Soit f ∈ L(E ) et B = (e1 , …,en ) une base de E . Notons A = Mat B ( f ) . On a det f = det A .
b) propriétés
Prop : det I n = 1
Prop : ∀λ ∈ K, ∀A ∈ M n (K ), det(λ.A) = λ n det A .
Théorème :
∀A, B ∈ M n (K ), det AB = det [Link] B .
Cor : ∀A ∈ M n (K ), ∀m ∈ ℕ, det(Am ) = (det A)m .
Théorème :
Soit A ∈ M n (K ) . On a équivalence entre :
(i) A est inversible
(ii) det A ≠ 0
De plus, si tel est le cas : det A−1 = 1 det A .
GLn (K) → K∗
Cor : L’application det :   est un morphisme de groupes.
A ֏ det A
Déf : Le noyau de ce morphisme de groupes est noté SLn (K) = {A ∈ M n (K ) / det A = 1} .
On l’appelle groupe spécial linéaire d’ordre n .
Prop : ∀A ∈ M n (K ), det t A = det A .

III. Calculs de déterminants

1°) Premiers résultats


n
Soit A = (ai , j ) ∈ M n (K ) . Partons de det A = ∑ ε(σ )∏a
σ ∈Sn i =1
σ (i ),i .

Pour n = 1 , A = (a ) , S1 = {Id} et donc det A = a .


a b 
Pour n = 2 , A =   , S2 = {Id, (1, 2)} .
c d 
det A = ε(Id)ad + ε((1, 2))cb = ad −bc .
 a b c 
 
Pour n = 3 , A =  a ′ b ′ c ′  , S3 = {Id, (1, 2), (2,3), (3,1), (1, 2,3), (1,3,1)}
 
a ′′ b ′′ c ′′
det A = ... = (ab ′c ′′ + a ′b ′′c + a ′′bc ′) − (a ′′b ′c + a ′b ′′c + ab ′′c ′) .
a b c a b
a ′ b′ c′ a ′ b′
On retient : (règle de Sarrus)
a ′′ b ′′ c ′′ a ′′ b ′′
− − − + + +

-3/5-
2°) Déterminant d’une matrice triangulaire
n
Prop : Soit A = (ai , j ) ∈ Tn+ (K) (resp. Tn− (K ) ). On a : det A = ∏ai ,i .
i =1

Théorème : (admis)
Soit A ∈ M n (K ) un matrice triangulaire par blocs de la forme :
B D  B 0 
A =   (resp. A =  
D C  ) avec B ,C carrées. On a det A = det [Link] C .
 0 C   

3°) Opérations sur les déterminants


Théorème :
Soit A ∈ M n (K ) de colonnes C1 , …,C n .
Si l’une des colonnes de A est nulle alors det A = 0 .
Si les colonnes de A sont liées alors det A = 0 .
Si on permute les colonnes de A selon une permutation σ alors det A est multiplié par ε(σ ) .
Si on multiplie une colonne de A par un scalaire λ alors det A est multiplié par λ .
Si on scinde une colonne C j de A en C j′ +C j′′ alors det A est la somme des deux déterminants obtenus.
Si on ajoute à une colonne de A une combinaison linéaire des autres colonnes de A , le déterminant de
A est inchangé.
Cor : Par transposition, le théorème ci-dessus se généralise à la manipulation de lignes au lieu de colonnes.

4°) Développement du déterminant selon une rangée


Soit A = (ai , j ) ∈ M n (K ) .

n n
a1,1 ⋯ a1,n a1,1 ⋯ a1,n
det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j avec Ai , j = (−1)i + j × ⋮ aˆi , j ⋮ et ∆i , j = ⋮ aˆi , j ⋮ .
i =1 i =1
an ,1 ⋯ an ,n [n −1]
an ,1 ⋯ an ,n [n −1]

Déf : Cette relation est appelée développement de det A selon la j ème colonne. Le coefficient ∆i , j est appelé
mineur de A d’indice (i , j ) . Le coefficient Ai , j = (−1)i + j ∆i , j est appelé cofacteur de A d’indice (i , j ) .
n n
det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j
j =1 j =1

Déf : Cette relation est appelée développement de det A selon la i ème ligne.

IV. Applications des déterminants

1°) Formules de Cramer


Théorème :
Soit Σ un système à n équations et n inconnues :
a1,1x1 + ⋯ + a1,n x n = b1

⋮ d’équation matricielle AX = B .

an ,1x1 + ⋯ + an ,n x n = bn
Le système Σ est de Cramer ssi det A ≠ 0 .
De plus, si tel est le cas, son unique solution est le n uplet (x1 ,..., x n ) avec
a1,1 ⋯ b1 ⋯ a1,n
⋮ ⋮ ⋮
an ,1 ⋯ bn ⋯ a n ,n
∀1 ≤ j ≤ n , x j = .
a1,1 ⋯ a1,n
⋮ ⋮
an ,1 ⋯ an ,n

-4/5-
2°) Comatrice
Soit A = (ai , j ) ∈ M n (K ) . Pour 1 ≤ i , j ≤ n , on note Ai , j le cofacteur d’indice (i , j ) de la matrice A .
a11 ⋯ a1n
i+j i+j
Ai , j = (−1) ∆i , j = (−1) ⋮ aˆij ⋮ .
an1 ⋯ ann
Déf : On appelle comatrice de A la matrice des cofacteurs de A , on la note com(A) = (Ai , j )1≤i , j ≤n ∈ M n (K ) .
Théorème :
∀A ∈ M n (K), t com(A).A = A. t com A = det AI
. n.
1 t
Cor : Si det A ≠ 0 alors A−1 = com(A) .
det A

3°) Détermination du rang d’une matrice


Déf : Soit A ∈ M n , p (K ) . On appelle matrice extraite de A toute matrice formée en retirant un certain nombre
de lignes et/ou de colonnes de A .
Prop : Soit A ∈ M n , p (K ) .
Toute matrice extraite de A est de rang inférieur au rang de A .
Déf : Soit A ∈ M n , p (K ) et 1 ≤ r ≤ min(n , p ) .
On appelle déterminant extrait de A d’ordre r , tout déterminant d’une matrice carrée d’ordre r extraite
de A .
Théorème :
Soit A ∈ M n , p (K ) une matrice non nulle.
Le rang de A est l’ordre maximal des déterminants non nuls extraits de A .

4°) Orientation d’un R-espace vectoriel de dimension finie


E désigne un ℝ -espace vectoriel de dimension n ∈ ℕ * .
Déf : Soit B = (e1 ,...,en ) et B ′ = (ε1 ,..., εn ) deux bases de E .
On dit que la base B ′ a la même orientation que B ssi det B B ′ > 0 .
Sinon, on dit que B ′ est d’orientation opposée à celle de B .
Prop : Soit B et B ′ deux bases de E .
Si B a même orientation que B ′ alors B ′ a même orientation que B .
Prop : Soit B , B ′, B ′′ trois bases de E .
B ′ et B ′′ ont même orientation ssi elles ont toutes deux même orientation que B ou qu’elles sont toutes
deux d’orientation opposées à B .
Déf : Orienter le ℝ -espace vectoriel E à partir d’une base B c’est adopter le vocabulaire suivant :
Toute base de E de même orientation que B est dite directe.
Toute base de E d’orientation opposée à celle de B est dite indirecte.
La base B est alors dite base orientée de référence.
Déf : On dit alors que D est un axe vectoriel.
En particulier :
Dans l’espace géométrique orienté B = (i , j , k ) :
(i , j , k ), (k , i , j ), ( j , k , i ) sont directes
(i , k , j ), (k , j , i ), ( j , i , k ) sont indirectes.

-5/5-

Vous aimerez peut-être aussi