Revision Alg Lin
Revision Alg Lin
∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
Remarques 1.1. 1. Un sous-espace vectoriel de E est un espace vectoriel pour les lois induites .
2. Pour montrer qu’ un ensemble est un espace vectoriel il suffit de montrer que c’est un sous espace
vectoriel d’un espace vectoriel connue.
[Link] page:1/ 23
PSI Rappels d’ algèbre linéaire
Exemple 1.1. E et {0} sont des sous espaces vectoriels de E appelés sous espaces vectoriels triviaux de E
v ∈ Vect(u) ⇐⇒ ∃λ ∈ K, v = λ u
Remarque 1.1. Si F est un sous-espace vectoriel de E tel que x1 , x2 . . . , xn sont dans F alors
Vect(x1 , x2 . . . , xn ) ⊂ F
Définition 1.2. Soit (x1 , . . . , xn ) une famille finie d’éléments de [Link] dit que cette famille est
1. Libre (ou linéairement indépendante) si
³ ´
∀ λ1 , . . . , λn ∈ K, λ1 x1 + . . . + λn xn = 0 =⇒ λ1 = λ2 = . . . = λn = 0 .
3. Une base de E si elle est libre et génératrice. ce qui est encore équivalent à :
n
∀ x ∈ E, ∃! (λ1 , λ2 . . . , λn ) ∈ Kn ;
X
x= λi xi
i =1
4. Liée s’ elle n’est pas libre , ce qui est encore équivalent à l’existence de λ1 , ..., λn non tous nuls dans
K tels que
n
X
λi xi = 0
i =1
Théorème 1.1. Si un espace vectoriel E admet une base finie,Toutes les bases de E ont alors le même
cardinal qu ’ on appelle dimension de E et qu ’on note dim E
Exemples 1.1. 1. (sin, cos) sont libres puisque ∀ x ∈ R, λ sin(x) + µ cos(x) = 0 =⇒ λ = µ = 0 en considérant
π
x = 0 et x = 2 .
2. Pour a ∈ K, la famille 1, X − a, (X − a)2 , . . . , (X − a)n est génératrice de K n [X ] d’après la formule de
¡ ¢
[Link] page:2/ 23
PSI Rappels d’ algèbre linéaire
3. (1, 1), (0, 1), (0, 1) est génératrice de R2 puisque ∀ (x, y) ∈ R2 , (x, y) = x(1, 0) + y(0, 1) + 0 · (1, 1). Par
¡ ¢
n
∀ x ∈ R,
X
λk | x − a k | = 0 (1)
k=1
nX
−1
On a alors ∀ x > a n−1 , λk (x − a k ) = −λn | x − a n |
k=1
Mais le terme de gauche est dérivable en a n mais pas la fonction f n . Donc λn = 0.
On termine par récurrence.
Théorème 1.2 (théorème de la base incomplète). Soit E de dimension n 6= 0 et soit p ∈ [[1, n − 1]]. Soit
(e 1 , . . . e p ) une famille libre.
Il existe n − p vecteurs notés (e p+1 , . . . e n ) tels que (e 1 , . . . e n ) soit une base de E.
Proposition 1.4. Soit E un espace vectoriel de dimension , dim E = n et soit B une famille de E telle
que Card(B ) = n. Alors
n
(L 0 , . . . L n ) est une base de K n [X ]. En effet , λ1 , . . . λn ∈ R, tels que
X
λ i L i = 0.
i =0
n
X
On a ∀ x ∈ K, λ i L i (x) = 0. Notamment pour x = a j ( j ∈ [[1, n]]), il vient λ j = 0 puisque L i (a j ) = δ i, j .
i =0
La famille est donc libre et comme Card{L 0 , . . . , L n } = n + 1 = dim K n [X ], on en déduit le résultat.
[Link] page:3/ 23
PSI Rappels d’ algèbre linéaire
¡ ¢
Exemple 1.3. (e 1 , e 2 , e 3 ) = (1, 2, 3), (2, 3, 4), (3, 5, 7) .
rg(e 1 , e 2 , e 3 ) = rg(e 1 , e 2 ) = 2 puisque e 3 = e 1 + e 2 et que (e 1 , e 2 ) est libre.
Définition 1.4. Soit F et G deux sous-espaces vectoriels de E. On appelle somme de F et G, le sous espace
vectoriel de E definie par :
F +G = {f + g | f ∈ F, g ∈ G } = { x ∈ E | ∃ ( f , g) ∈ F × G, x = f + g}
[Link] page:4/ 23
PSI Rappels d’ algèbre linéaire
Preuve :
• 3 =⇒ 1 : Soit x ∈ F ∩ G. x = |{z}
x + |{z}
0 = |{z} x .
0 + |{z}
∈F ∈G ∈F ∈G
Par unicité de la décomposition dans F + G, x = 0.
∀ x ∈ E, ∃ ! ( f , g) ∈ F × G, x = f + g
Exemple 1.5. Dans E = F (R, R), l’ensemble P des fonctions paires et l’ensemble I des fonctions impaires
sont supplémentaires.
En effet :Soit f ∈ F (R, R)
Analyse : Supposons que f = p + i avec p paire et i impaire.
Alors ∀ x ∈ R, f (x) = p(x) + i(x). Notamment ∀ x ∈ R, f (− x) = p(− x) + i(− x) = p(x) − i(x). En soustrayant les deux équations, on a
f (x) + f (− x) f (x) − f (− x)
∀ x ∈ R, p(x) = et i(x) = .
2 2
Si p et i existent, ils sont déterminées de façon uniques par la méthode ci dessus.
[Link] page:5/ 23
PSI Rappels d’ algèbre linéaire
2.1 Généralités
ker f = { x ∈ E | f (x) = 0}
Im f = f (E) = { y ∈ F |∃ x ∈ E, y = f (x)}
[Link] page:6/ 23
PSI Rappels d’ algèbre linéaire
S FG (x) = x1 − x2
Définition 2.4. Soit f ∈ L(E, F), on suppose Im f de dimension finie. On appelle rang de f , l’entier
rg f = dim (Im f ) .
rg f = dim Vect{ f (e 1 ), . . . , f (e n )}
[Link] page:7/ 23
PSI Rappels d’ algèbre linéaire
Preuve :
¡ ¢
— h(H) = E donc f h(H) = f ◦ h(H) = f (E) d’où l’égalité des dimensions. ¡ ¢
— Comme g est un isomorphisme de F vers G, alors f (E) est un sous-espace vectoriel de F et on a dim g f (E) = dim f (E)
d’où rg g ◦ f = dim g ◦ f (E) = dim f (E) = rg f .
rg( f ◦ g) ≤ min(rg f , rg g)
¡ ¢
car Im f ◦ g ⊂ Im f et que dim f (Img) ≤ dim Img par exemple avec le théorème du rang (ou puisque si
¡ ¢
(g 1 , g 2 , . . . , g n ) est une base de Img alors f (g 1 ), f (g 2 ), . . . , f (g n ) est génératrice de Im f |Im g ou de Im f ◦ g ).
Théorème 2.2. Soient E et F deux espaces vectoriels tel que dim E = dim F < +∞ .
Soit f ∈ L(E, F). les propositions suivantes sont équivalentes :
1. f est bijective.
2. f est injective.
3. f est surjective.
Remarque 2.3. L’hypothèse dim E = dim F est notamment vérifiée pour f ∈ L(E).
Théorème 2.3. 1. Soit f ∈ L(E, F). L’image d’une base de E par f est génératrice de Im f
2. l’image d’une (de toute) base de E est une base de Im f si et seulement si f est un isomorphisme de
E vers Im f
[Link] page:8/ 23
PSI Rappels d’ algèbre linéaire
2 = rg Φ.
Méthode 2 (par le noyau) : Soit P = a + bX + cX 2 ∈ R2 [X ].
P ∈ ker Φ ⇐⇒ Φ(P) = 0
0
a
0
⇐⇒ A b =
0
c
0
⇐⇒ cX 3 − cX 2 − (2c + a + b)X − (a + b) = 0
⇐⇒ a = − b et c = 0
⇐⇒ P = a(X − 1)
⇐⇒ P ∈ Vect(X − 1)
elle contient une base Il suffit d’en extraire une famille libre et on retrouve le résultat précédent.
Méthode 3 : Φ(1), Φ(X ), Φ(X 2 ) est génératrice de l’image (car c’est l’image d’une base). Or on constate que Φ(1) est engendré
¡ ¢
par Φ(X ), Φ(X 2 ) car Φ(1) = Φ(X ) . On en déduit que ImΦ = Vect Φ(1), Φ(X ), Φ(X 2 ) = Vect Φ(X ), Φ(X 2 )
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢
La famille Φ(X ), Φ(X 2 ) est donc génératrice de ImΦ. C’est une base puisqu’elle est de plus libre.
¡ ¢
Proposition 3.1. Soit E i, j la matrice dont tous les coefficients sont nuls sauf celui à la i-ème ligne et j-ème colonne :
0
E i, j =
0
0··· 0
..
1
.
0
0
···
0
← i
0 0
..
.
0
↑
j
¡ ¢ X p
n X
a i, j 1≤ i≤n = a i, j E i, j
1≤ j ≤ p i =1 j =1
[Link] page:9/ 23
PSI Rappels d’ algèbre linéaire
C.Q.F.D
µ ¶
a b c
Exemple 3.1. = aE 1,1 + bE 1,2 + cE 1,3 + dE 2,1 + eE 2,2 + f E 2,3
d e f
Propriétés 3.1. 1. Le produit matriciel est bilinéaire . cest à dire , si les produits sont bien définis,
on a
A(λB + µC) = λ AB + µ AC et (λB + µC)A = λBA + µC A
2. Le produit matriciel est associative , c’eat à dire , si les produits sont bien définis, on a
(AB)C = A(BC)
x1
x2
Remarque 3.1. Notons C 1 , C 2 , . . . , C p les colonnes de A et X =
.. . Alors
.
xp
p
X
1. A X = xjC j
j =1
2. Si B et une matrice telle que BA est défini alors les colonnes de BA sont BC 1 , BC 2 , . . . , BC p
[Link] page:10/ 23
PSI Rappels d’ algèbre linéaire
p
X
a x
1, j j
a 1, j
j =1
p p
X X . .
En effet, xjC j = x j .. = .. = AX
j =1 j =1
a n, j
X p
a n, j x j
j =1
Proposition 3.3.
E i j .E kl = δ jk E il
Exercice 2. Déterminer toutes les matrices A ∈ M n (K) telle que A X = X A pour tout matrice X ∈ M n (K).
Définition 3.2. Soit A = a i, j 1≤ i≤n ∈ Mnp (K) . On appelle la matrice transposée de A la matrice t A =
¡ ¢
1≤ j ≤ p
b i, j 1≤ i≤ p ∈ Mpn (K) définie par :
¡ ¢
1≤ j ≤ n
t
Propriétés 3.2. 1. ∀ A, B ∈ Mnp (K) ∀λ ∈ K; (A + λB) = t A + λ t B (La transposition est linéaire)
t t t
2. ∀ A ∈ Mnp (K) ∀B ∈ M pq k; (AB) = B. A (Attention à l’ordre de matrices)
t t
3. ∀ A ∈ Mnp (K); ( A) = A
4. Si A ∈ GL n (K) alors t A ∈ GL n (K) et on a ( t A)−1 = t (A −1 )
Proposition 3.4. S n (K) et An (K) sont deux sous espaces supplémentaires dans Mn (K) et on a
n(n + 1) n(n − 1)
dim S n (K) = dim An (K) =
2 2
[Link] page:11/ 23
PSI Rappels d’ algèbre linéaire
Remarque 3.2. La k - ieme colonne est constitué des coordonnées de xk dans la base β
Exemple 3.2. Dans R3 muni de la base canonique C , on considère les vecteur u = (1, 2, 3) et v = (4, 5, 6)
alors
1 4
Mat(u, v) = 2
5
C
3 6
Remarques 3.1. 1.
¡ ¢
Matβ,β0 ( f ) = Mat f (e 1 ), f (e 2 ), . . . , f (e p )
0 β
On a
f (1) = X
f (X ) = X + X2
f (X 2 ) = X + 2X 2 + X 3
[Link] page:12/ 23
PSI Rappels d’ algèbre linéaire
0 0 0
1 1 1
MatC,C 0 ( f ) =
0 1 2
0 0 1
Théorème 3.1 (Écriture matricielle de f (x) = y). On suppose que dim E = p et dim F = n , considérons
la base β = (e 1 , e 2 , . . . , e p ) deE et la base β0 = (e01 , e 2 , . . . , e0n ) deF.
Soit f ∈ L (E, F) une application linéaire telle que : A = Matβ,β0 ( f ).
Pour x ∈ E on pose X la matrice colonne des coordonnées de x dans β et Y la matrice colonne des coordon-
nées de f (x) dans β0 . Alors
Y = AX
2. Si f , g ∈ L (E, F) et λ ∈ K alors
4. Si f ∈ L (E) , alors
¢n
Matβ ( f n ) = Matβ ( f )
¡
[Link] page:13/ 23
PSI Rappels d’ algèbre linéaire
Où :
• (C 1 , . . . , C p ) les colonnes de A
• (L 1 , . . . , L n ) les lignes de A
• f une application linéaire associée à A
β0
Définition 3.6. La matrice de passage Pβ d’une base β à une base β0 = (e01 , e02 , . . . e0n ) est la matrice
β0
Pβ = Mat(β0 )
β
β0
Remarque 3.4. Par définition, on a Pβ = Matβ0 ,β (IdE ).
C’est donc une matrice carrée inversible
xn x0n
β0
X = Pβ X 0
B = P −1 AP
Preuve : Soit x un vecteur de E et soit y = f (x). On considère alors les matrices colonnes X et X 0 constituées des coordonnées
respective de x relativement aux bases β et β0 , et les matrices colonnes Y et Y 0 constituées des coordonnées respective de y = f (x)
relativement aux bases β et β0
y = f (x) ⇐⇒ AX = Y
On a X = P X 0 et Y = PY 0 donc : ⇐⇒ ³ ´ AP X 0 = PY 0
P −1 AP X 0 = Y 0 = BX 0
¡ ¢
⇐⇒ car P est inversible
[Link] page:14/ 23
PSI Rappels d’ algèbre linéaire
Ceci étant vrai pour tout vecteur x ∈ E, l’unicité de la matrice d’un endomorphisme dans une base nous donne B = P −1 AP.
plus généralement, on a :
Théorème 3.6. Soient β et β0 deux bases de E, γ et γ0 deux bases de F et soit f ∈ L(E, F).
β0 γ0
On note P = Pβ , Q = Pγ , A = Matβ,γ f et B = Matβ0 ,γ0 f . On a
B = Q −1 AP
Définition 4.1. On appelle mineur d’ordre i, j d’une matrice carrée A, le déterminant ∆ i, j obtenu en
supprimant la ième ligne et j-ième colonne de A.
1 2 3
Exemple 4.1. A = 0 1 4
0 0 5
¯ ¯ ¯ ¯ ¯ ¯
¯1 4¯ ¯0 4¯¯ ¯0 1¯¯
∆1,1 = ¯ ¯ ¯ = 5 ∆1,2 = ¯¯ =0 ∆1,3 = ¯¯ =0
0 5¯ 0 5¯ 0 0¯
¯ ¯ ¯ ¯ ¯ ¯
¯2 3¯
¯ = 10 ∆2,2 = ¯1 3¯¯ ¯1 2¯¯
∆2,1 = ¯¯ ∆2,3 = ¯¯
¯
=5 =0
0 5¯ ¯0 5¯ 0 0¯
¯ ¯ ¯ ¯ ¯ ¯
¯2 3¯
¯ = 5 ∆3,2 = ¯1 3¯¯ ¯1 2¯¯
∆3,1 = ¯¯ ∆3,3 = ¯¯
¯
=4 =1
1 4¯ ¯0 4¯ 0 1¯
[Link] page:15/ 23
PSI Rappels d’ algèbre linéaire
Remarque 4.1. On obtient le signe (−1) i+ j dans l’expression du cofacteur d’ordre (i, j) en examinant le
“damier”
+ − + ... ...
− + − ... ...
+ − + ... ...
.. .. .. ..
. . . .
.. .. .. ..
. . . .
Exemple 4.2.
¯ ¯
¯ x1 y1 z1 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ y2 z2 ¯¯ ¯ y1 z1 ¯¯ ¯ y1 z1 ¯¯
¯ x2 y2 z2 ¯¯ = x1 ¯¯ − x 2¯
¯ + x3¯
¯
¯
¯x y3 z3 ¯ y3 z3 ¯ y2 z2 ¯
3 y3 z3 ¯
= x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x1 y3 z2 − y1 x2 z3 .
n
Proposition 4.1. Si A = a i, j 1≤ i≤n est une matrice triangulaire de Mn (K) alors det A =
¡ ¢ Y
a kk .
1≤ j ≤ n k=1
0
..
Preuve : Comme det A = det t A il suffit de se ramener au cas des matrices triangulaires inférieures. On a A = A0 .
∈
0
∗ ··· ∗ a n,n
Mn (K) où A 0 ∈ Mn−1 (K)
En développant par rapport à la dernière colonne det A = a n,n det A où A 0 est encore triangulaire inférieure. Le résultat est alors
immédiat par récurrence.
[Link] page:16/ 23
PSI Rappels d’ algèbre linéaire
1. On multiplie le déterminant par −1 en permutant deux de ses lignes (ou deux de ses colonnes).
2. On ne change pas le déterminant en ajoutant à une colonne (resp. à un ligne) une combinaison
linéaires des autres colonnes (resp. des autres lignes)
3. On multiplie le déterminant par λ, en multipliant une ligne ou une colonne par λ.
4. Un déterminant qui à deux lignes (ou deux colonnes) identiques est nul.
5. Un déterminant qui à une ligne ou une colonne formée de 0 est nul.
6. Un déterminant dont une colonne (resp. une ligne) est combinaison linéaire des autres colonnes
(resp. des autres lignes) est nul.
Remarque 4.2. Pour calculer un déterminant, on tente de faire apparaître le plus de zéros possible par
opérations élémentaires, puis on développe par rapport à la qui contient le plus de zéros
1 2 1
1. 1 2 2 est nul puisque la matrice à deux colonnes proportionnelles.
1 2 3
1 2 3
2. 2 3 4 est nul puisque la deuxième ligne est la demi somme des deux autres.
3 4 5
¯ ¯
¯101 127 72¯
3. Calcul de ∆ = ¯¯ 25
¯ ¯
32 18¯¯
¯ 68 −23 15¯
En effectuant L 1 ← L 1 − 4L 2 puis C 1 ← C 1 + C 2 on obtient
¯ ¯ ¯ ¯ ¯ ¯
¯101 127 72¯ ¯ 1 −1 0 ¯¯ ¯¯ 0 −1 0 ¯¯
∆ = ¯¯ 25
¯ ¯ ¯
32 18¯¯ = ¯¯25 32 18¯¯ = ¯¯57 −32 18¯¯
¯ 68 −23 15¯ ¯68 −23 15¯ ¯45 −23 15¯
[Link] page:17/ 23
PSI Rappels d’ algèbre linéaire
0
¯ ¯
¯ ¯
¯2 1
¯ ¯
¯
¯ ¯
¯1 2 1 ¯
¯ ¯
¯ .. .. ¯
D n = ¯¯ 1 . . ¯
¯
¯ .. ¯
¯
¯ . 2 1 ¯¯
0
¯ ¯
¯ ¯
¯ 1 2 ¯
D n = 2D n−1 − D n−2
Avec D 1 = 2 et D 2 = 3, on obtient D n = n + 1
¯ ¯
¯1 2 3 4¯
¯ ¯
¯2 3 4 1¯
6. Calculons D = ¯
¯ ¯
¯3 4 1 2¯
¯
¯ ¯
¯4 1 2 3¯
¯ ¯
¯1 2 3 4¯¯ 1 2 3 4
¯
¯2 3 4 1¯¯ 0 −1 −2 −7 L 2 ← L 2 − 2L 1
D =¯ ¯ =
¯
¯3 4 1 2¯ 0 −2 −8 −10 L 3 ← L 3 − 3L 1
¯ ¯
¯4 1 2 3¯ 0 −7 −10 −13 L 4 ← L 4 − 4L 1
1 2 3 4
0 −1 −2 −7
=
0 0 −4 4 L 3 ← L 3 − 2L 2
0 0 4 36 L 4 ← L 4 − 7L 2
1 2 3 4
0 −1 −2 −7
=
0 0 −4 4
0 0 0 40 L4 ← L4 + L3
= 160
7. Un joli cas particulier est lorsque toutes les colonnes ou toute les lignes ont la même somme , on
procède comme dans cet exemple
[Link] page:18/ 23
PSI Rappels d’ algèbre linéaire
1 2 3 4 5
5 1 2 3 4
Calcul de ∆ = 4 5 1 2 3 . On a
3 4 5 1 2
2 3 4 5 1
15 15 15 15 15 L1 ← L1 + L2 + L3 + L4 + L5
5 1 2 3 4
∆ = 4 5 1 2 3
3 4 5 1 2
2 3 4 5 1
1 1 1 1 1
5 1 2 3 4
= 15 4 5 1 2 3
3 4 5 1 2
2 3 4 5 1
1 0 0 0 0
5 −4 1 1 1
= 15 4 1 −4 1 1
3 1 1 −4 1
2 1 1 1 −4
Preuve : Si deux scalaires sont identiques, alors ce déterminant est nul. (deux colonnes identiques). Supposons désormais les
scalaires deux à deux distincts.
En effectuant tour à tour les opérations élémentaires L n ← L n − a 0 L n−1 , puis L n−1 ← L n−1 − a 0 L n−2 , . . . , L 3 ← L 3 − a 0 L 2 et
L 1 ← L 2 − a 0 L 1 on obtient :
[Link] page:19/ 23
PSI Rappels d’ algèbre linéaire
1 1 ... 1
0 a1 − a0 ... a n − a0
0 a21 − a 1 a 0 ... a2n − a n a 0
V dm(a 0 , a 1 , . . . , a n ) = .. .. ..
. . .
0 a 1n−1 − a 1n−2 a 0 ... a nn−1 a 0 − a nn−2 a 0
0 a 1n − a 1n−1 a 0 ... a nn a 0 − a nn−1 a 0
Puis en développant par rapport à la première colonne et en factorisant la i-ème colonne par (a i − a 0 ) on obtient
¯ ¯
¯1 1 ... 1 ¯¯
¯
¯ a1 a2 ... a n ¯¯
n ¯
¯ 2
V dm(a 0 , a 1 , . . . , a n ) =
Y
(a k − a 0 ) ¯¯ a 1 a22 ... a2n ¯¯
¯ .. .. .. ¯
¯
k=1 ¯ . . . ¯¯
¯a n a 2n a nn ¯
¯
1 ...
n
Y
= (a k − a 0 ) × V dm(a 1 , . . . , a n )
k=1
nY n
−1 Y Y
Ce qui donne par récurrence V dm(a 0 , a 1 , . . . , a n ) = (a j − a k ) = (a j − a i ).
j =0 k= i +1 0≤ i < j ≤ n
¯ ¯
¯1 1 ... 1 ¯¯
¯
¯x a1 ... a n ¯¯
¯
¯ 2 a21 a2n ¯¯
Autre : Considérons la fonction polynôme x 7→ V dm(x, a 1 , . . . , a n ) = ¯¯ x ...
¯ .. .. .. ¯
¯
¯ . . . ¯¯
¯xn a 1n a nn ¯
¯
...
En développant par rapport à la première colonne, on voit que le polynôme est de degré au plus n. Or il admet (a 1 , . . . , a n ) comme
racines distinctes, donc on a
c’est à dire
∀ x ∈ K, V dm(x, a 1 , . . . , a n ) = (−1)n λ(a 1 − x)(a 2 − x) . . . (a n − x).
De plus, en développant par rapport à la première colonne, le coefficient devant x n est λ = (−1)n+2 V dm(a 1 , . . . , a n ), d’où
n
Y
V dm(a 0 , a 1 , . . . , a n ) = (a k − a 0 ) × V dm(a 1 , . . . , a n )
k=1
[Link] page:20/ 23
PSI Rappels d’ algèbre linéaire
Remarque 4.3. Sous les notations usuelles, on a alors det A = det can (C 1 , . . . , C n )
Proposition 4.4. — Le déterminant est multilinéaire (ou n-linéaire) c ’est - à - dire qu’il est linéaire
par rapport à chacune de ses variables. Plus explicitement, pour i ∈ [[1, n]] , et (x1 , . . . , xn ) ∈ E n :
detβ (x1 , . . . , x i−1 , λa + µ b, x i+1 , . . . , xn ) = λ detβ (x1 , . . . , x i−1 , a, x i+1 , . . . , xn )
+µ detβ (x1 , . . . , x i−1 , b, x i+1 , . . . , xn )
— Le déterminant est antisymétrique (ou alternée) c ’est - à - dire qu’il change de signe si on inverse
deux vecteurs :
det(x1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x j , x j+1 , . . . xn ) = − det(x1 , . . . , x i−1 , x j ,x i+1 , . . . , x j−1 , x i , x j+1 , . . . xn ).
β β
A ∈ GL n (K) ⇔ det A 6= 0
[Link] page:21/ 23
PSI Rappels d’ algèbre linéaire
1
Démonstration : det(P −1 AP) = det(P −1 ) det(A) det(P) = det(A) det(P) = det A
det(P)
C.Q.F.D
Remarque 4.4. La trace, le rang et le déterminant donnent des conditions nécessaires mais non suffi-
santes pour que deux matrices soient semblables
1 2 −1 5 −2 4
Définition 4.4. Soit β = (e 1 , e 2 , . . . , e n ) est une base quelconque de E. On appelle déterminant de l’endo-
morphisme f le scalaire det f = det A où A = Matβ ( f ). On a alors
¡ ¢
det f = detβ f (e 1 ), f (e 2 ), . . . , f (e n )
Preuve ¢: f est un isomorphisme si et seulement si l’image de toute base β de E est une base de E c ’est - à - dire si et seulement si det f =
detβ f (β) 6= 0.
¡
On aura alors ³ ´
det f det f −1 = det f ◦ f −1 = det IdE = 1
[Link] page:22/ 23
PSI Rappels d’ algèbre linéaire
4.3 Orientation
Définition 4.5. On dit que deux bases β et β0 d’un espace vectoriel E ont même orientation si detβ (β0 ) > 0
Orienter un espace vectoriel consiste à choisir une base de référence β. Les bases β0 seront dites directes
si elles ont la même orientation que β. Les autres bases seront dites indirectes.
¡ ¢
Exemples 4.2. 1. La base canonique E 1,1 , E 1,2 , E 2,1 , E 2,2 de est supposée directe.
La base β = E 1,2 − E 2,1 , E 1,1 , E 2,2 , E 1,2 + E 2,1 adaptée à An ⊕ S n = M2 (R) est une base directe car
¡ ¢
car ¯ ¯
¯ 0 1 0 0¯
¯ ¯
¯ 1 0 0 1¯
det can (β) = ¯ ¯=2>0
¯ ¯
¯−1 0 0 1¯
¯ ¯
¯ 0 0 1 0¯
Remarque 4.5. Au passage, on a obtenu que (ch, sh) est bien une base de S 0 .
[Link] page:23/ 23