Support MAT112
Support MAT112
1 Espaces Vectoriels 5
1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Exemples fondamentaux « de référence » . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Règles de calcul dans un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Famille libre – famille liée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Sous-espace vectoriel engendré par une famille finie de vecteurs . . . . . . . . . . . . . . . . . . . 10
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.1 Somme de deux sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.2 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Applications linéaires 13
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Structure d’espace vectoriel de L(E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Composition des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Cas particulier de L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Image et noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Applications linéaires et systèmes de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Projections et symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3 Dimension finie 19
3.1 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Sous-espaces vectoriels d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . . 20
3.2.1 Dimension d’un sous-espace vectoriel d’un espace de dimension finie . . . . . . . . . . . . 20
3
TABLE DES MATIÈRES
6 Déterminant 41
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.2 Définition du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.3 Opérations élémentaires et déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.4 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.5 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4
Chapitre 1
Espaces Vectoriels
E × E −→ E
(x, y) 7−→ x+y
vérifiant :
(i) ∀ (x, y) ∈ E 2 , x+y ∈ E (stabilité de E par l’addition ; ce point est redondant avec le fait que (x, y) 7→ x+y
est une application de E × E dans E) ;
(ii) ∀ (x, y, z) ∈ E 3 , (x + y) + z = x + (y + z) (associativité) ;
(iii) ∀ (x, y) ∈ E 2 , x + y = y + x (commutativité) ;
(iv) il existe un élément de E noté 0E tel que pour tout x ∈ E, x + 0E = x (0E est appelé élément neutre,
ou encore vecteur nul) ;
(v) ∀ x ∈ E, ∃ x0 ∈ E | x + x0 = 0E (x0 est appelé opposé de x).
2) d’une multiplication externe, c’est-à-dire d’une multiplication · d’un élément de K par un élément de E
K × E −→ E
(λ, x) 7−→ λ.x
vérifiant :
(i) ∀ x ∈ E, ∀ λ ∈ K, λ.x ∈ E ;
(ii) ∀ x ∈ E, ∀ (λ, µ) ∈ K2 , (λµ).x = λ.(µ.x) (associativité) ;
5
1.1. STRUCTURE D’ESPACE VECTORIEL
(iii) ∀ x ∈ E, ∀ (λ, µ) ∈ K2 , (λ + µ).x = λ.x + µ.x (distributivité par rapport à l’addition dans K) ;
(iv) ∀ (x, y) ∈ E 2 , ∀ λ ∈ K, λ.(x + y) = λ.x + λ.y. (distributivité par rapport à l’addition de E) ;
(v) ∀ x ∈ E, 1.x = x.
Les éléments de E sont appelés les vecteurs, les éléments de K les scalaires.
Question 1. Citer des espaces vectoriels usuels (ces exemples sont fondamentaux et à connaître).
6
CHAPITRE 1. ESPACES VECTORIELS
On retiendra donc que dans un espace vectoriel, on peut effectuer les calculs selon les mêmes règles que celles
utilisées pour manipuler les vecteurs du plan ou de l’espace.
7
1.3. FAMILLES DE VECTEURS
Exemples. 1) Si E est un K-espace vectoriel non réduit à {0E }, l’ensemble des combinaisons linéaires d’un
vecteur u non nul de E est la droite vectorielle engendrée par u.
2) Tout vecteur (x, y) ∈ R2 est combinaison linéaire des deux vecteurs (1, 0) et (0, 1).
3) Tout polynôme P de K[X] est combinaison linéaire des polynômes 1, X, . . . , X n , où n > deg P.
Remarque importante. Deux vecteurs d’un K-espace vectoriel E sont liés si et seulement si ils sont colinéaires.
Ce résultat n’est plus vrai s’il y a plus de deux vecteurs. (Rappelons que deux vecteurs u et v d’un K-espace
vectoriel E sont dits colinéaires s’il existe un scalaire λ de K tel que u = λv ou v = λu.)
8
CHAPITRE 1. ESPACES VECTORIELS
Question 4. Dessiner trois vecteurs deux à deux non colinéaires de R2 (qui forment nécessairement une
famille liée).
Question 5. Examiner si la famille (u = (1, 1, 1), v = (2, 1, 3), w = (1, 2, 3)) est libre dans R3 .
Proposition 1.3.4. (i) Toute famille extraite d’une famille libre est libre.
(ii) Toute famille contenant une famille liée est liée.
(iii) Toute famille contenant le vecteur nul est liée.
(iv) Toute famille réduite à un unique vecteur non nul est libre
Proposition 1.3.5. Une famille de vecteurs (u1 , . . . , un ) d’un K-espace vectoriel E est liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres, i.e., il existe i ∈ {1, . . . , n} tel que ui est combinaison
linéaire des uk pour k ∈ {1, . . . , n} r {i}.
B Attention : lorsqu’une famille est liée, tout vecteur n’est pas nécessairement combinaison linéaire des
autres ; on sait simplement que l’un (au moins) d’entre eux est combinaison linéaire des autres.
Illustration.
Exercice 3. La famille de vecteurs (x = (1, 2, 3, 4), y = (2, 1, 3, 4), z = (0, 1, 6, 8), t = (0, 1, 3, 4)) est-elle libre
dans R4 ?
Exercice 4. Montrer qu’une famille finie de polynômes non nuls, de degrés deux à deux distincts, est libre.
On pourra réutiliser ce résultat sans le redémontrer quand on en aura besoin : « une famille de polynômes
non nuls échelonnée en degrés est libre ».
Exercice 5. Soit E le R-espace vectoriel des suites réelles. Soient a, b, c, d les suites de E définies par :
∀ n ∈ N, an = (−1)n , bn = 1, cn = n, dn = 2n .
Exercice 6. ? Soient E le R-espace vectoriel des fonctions de ]0, 1[ dans C, n un entier naturel non nul, et
a1 , . . . , an des nombres réels deux à deux distincts de ]0, 1[. Pour tout k ∈ {1, . . . , n}, on pose :
1
fk : ]0, 1[ −→ R, x 7−→ .
1 − ak x
Montrer que la famille (f1 , . . . , fn ) est libre dans E.
1.3.4 Bases
Définition 1.3.6. Soit E un K-espace vectoriel. On dit qu’une famille finie (u1 , . . . , un ) de vecteurs de E est
une base de E si cette famille est à la fois libre et génératrice.
9
1.4. SOUS-ESPACE VECTORIEL ENGENDRÉ PAR UNE FAMILLE FINIE DE VECTEURS
Remarque. Si un K-espace vectoriel admet une base, celle-ci n’est pas unique. Par exemple, tout réel non nul
constitue une base du R-espace vectoriel R.
Proposition 1.3.7. Soient E un K-espace vectoriel, et (u1 , . . . , un ) une famille de vecteurs de E. Alors la
famille (u1 , . . . , un ) est une base de E si et seulement si tout vecteur de E peut s’écrire de façon unique comme
combinaison linéaire des vecteurs de la famille (u1 , . . . , un ).
Autrement dit, la famille de vecteurs (u1 , . . . , un ) est une base de E si et seulement si l’application
Kn −→ E
(λ1 , . . . , λn ) 7−→ λ1 u1 + · · · + λn un .
est bijective.
Exemples très importants. 1) Soit n un entier naturel non nul ; pour tout entier i compris entre 1 et n,
posons : ui = (0, . . . , 0, 1, 0, . . . , 0), où le “1” est en ième position. La famille (u1 , . . . , un ) est clairement une
base de Kn , appelée base canonique de Kn .
2) La famille (1, X, . . . , X n ) est une base de Kn [X], appelée la base canonique de Kn [X].
3) Aucune famille finie de vecteurs de K[X] n’est génératrice de K[X] (il suffit de penser au degré) ; par
conséquent, K[X] n’admet pas de base comportant un nombre fini de vecteurs.
Théorème-Définition 1.4.1. Soit (u1 , . . . , un ) une famille de vecteurs d’un K-espace vectoriel E ; l’ensemble
des combinaisons linéaires des vecteurs de ce système est un sous-espace vectoriel de E, appelé le sous-espace vec-
toriel engendré par le système (u1 , . . . , un ) ; on le note Vect(u1 , . . . , un ). Par convention, on pose Vect(∅) =
{0E }.
Proposition 1.4.1. Vect(u1 , . . . , un ) est l’intersection de tous les sous-espaces vectoriels de E contenant les
vecteurs u1 , . . . , un . C’est donc le plus petit sous-espace vectoriel de E contenant u1 , . . . , un .
Remarques. 1) Pour trouver une base d’un espace vectoriel Vect(u1 , . . . , un ), on regarde si la famille (u1 , . . . , un )
est libre. Si elle ne l’est pas, on écrit l’un des vecteurs comme combinaison linéaire des autres, puis on le supprime
etc. Ce procédé est important.
10
CHAPITRE 1. ESPACES VECTORIELS
2) On a vu plus haut que, par définition, une droite vectorielle est un sous-espace vectoriel engendré par un
vecteur non nul. On définit un plan vectoriel comme étant un sous-espace vectoriel engendré par deux vecteurs
non coliénaires.
Exercice 7. Montrer que, dans R3 , les vecteurs x = (2, 3, −1) et y = (1, −1, −2) engendrent le même sous-
espace vectoriel que les vecteurs u = (3, 7, 0) et v = (5, 0, −7).
Exercice 8. Dans les notations de l’exercice 3, donner une base de Vect(x, y, z, t).
Exercice 10. Soit E le R-espace vectoriel des fonctions de R dans R. On définit les fonctions f, g, h et k de E
par :
∀ x ∈ R, f (x) = sin x, g(x) = cos x, h(x) = sin 2x, k(x) = sin x + cos x.
Déterminer une base de Vect(f, g, h, k).
F + G = {x + y, x ∈ F, y ∈ G}.
Question 11. 1) Vérifier que la somme de deux sous-espaces vectoriels de E est encore un sous-espace
vectoriel de E.
2) Quelle est la somme de deux droites vectorielles de l’espace R3 ? La somme d’une droite et d’un plan vectoriel ?
Définition 1.5.2. Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E. On dit que les
deux sous-espaces F et G sont en somme directe si tout vecteur du sous-espace somme F + G peut s’écrire
de façon unique comme somme d’un vecteur de F et d’un vecteur de G.
Proposition 1.5.3. Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E. Alors F et G sont
en somme directe si et seulement si leur intersection F ∩ G est réduite à {0E }. On note dans ce cas F ⊕ G la
somme de F et G.
11
1.5. SOMME DE SOUS-ESPACES VECTORIELS
Exercice 11 (description exhaustive des supplémentaires d’un sous-espace vectoriel dans des cas simples).
1) Décrire tous les couples (F, G) de sous-espaces supplémentaires dans R3 .
2) On considère l’espace vectoriel E = Kn [X] et le sous-espace vectoriel F = Kn−1 [X]. Décrire tous les supplé-
mentaires de F dans E.
Exercice 12. Soient E le R-espace vectoriel des fonctions de R dans R, P le sous-ensemble de E constitué
des fonctions paires et I le sous-ensemble de E formé des fonctions impaires. Montrer que P et I sont des
sous-espaces vectoriels de E, supplémentaires dans E.
12
Chapitre 2
Applications linéaires
La lettre K désigne Q, R ou C.
2.1 Généralités
Définition 2.1.1. Soient E et F deux K-espace vectoriels, et f une application de E dans F . On dit que f est
linéaire si pour tous vecteurs x, y ∈ E et tout scalaire λ de K, on a
Exemples. 1) si E et F sont deux K-espaces vectoriels, l’application nulle (qui à tout vecteur de E associe 0F )
est linéaire.
2) Si E est un K-espace vectoriel, l’application identité de E, notée IdE (qui à tout vecteur de E associe
lui-même) est un endomorphisme de E.
3) Plus généralement, si E est un K-espace vectoriel et si a est un élément de K, alors l’application x 7−→ ax
de E dans lui-même est linéaire. C’est donc un endomorphisme de E, appelé homothétie vectorielle. Il est
clair qu’une telle homothétie est un automorphisme si et seulement si a est non nul.
Question 13. Donner des exemples d’applications linéaires (dans des espaces vectoriels variés).
13
2.2. OPÉRATIONS SUR LES APPLICATIONS LINÉAIRES
Exercice 14. Soient E un K-espace vectoriel et f un endomorphisme de E tel que pour tout vecteur x de E,
les vecteurs x et f (x) soient colinéaires. Ainsi, pour tout vecteur non nul x de E, il existe un unique scalaire λx
tel que f (x) = λx x.
1) On suppose l’espace E non réduit à {0E }. Soient x et y deux vecteurs non nuls de E. Montrer qu’on a
λx = λy . (Indication. On pourra penser à utiliser le vecteur x + y lorsque x et y ne sont pas colinéaires.)
2) En déduire que f est une homothétie, c’est-à-dire qu’il existe un scalaire λ tel que pour tout vecteur x ∈ E,
on ait f (x) = λx.
Proposition 2.1.2. Soient E et F deux K-espaces vectoriels. Soit f une application linéaire de E dans F . On
a alors les résultats suivants :
(i) f (0E ) = 0F .
(ii) L’image par f d’un sous-espace vectoriel de E est un sous-espace vectoriel de F .
(iii) L’image réciproque par f d’un sous-espace vectoriel de F est un sous-espace vectoriel de E.
f +g : E −→ F
x 7−→ f (x) + g(x).
λf : E −→ F
x 7−→ λf (x).
Proposition 2.2.1. Soient E et F deux K-espaces vectoriels. Muni de ces opérations (addition et multiplication
externe), l’ensemble L(E, F ) possède une structure de K-espace vectoriel.
B Attention : lorsque E n’est pas réduit à {0E }, GL(E) n’est pas un sous-espace vectoriel de L(E). En effet,
l’endomorphisme nul n’est pas bijectif.
14
CHAPITRE 2. APPLICATIONS LINÉAIRES
Proposition 2.2.2. Soient E, F, G trois K-espaces vectoriels. Soient f1 , f2 et f des applications linéaires de E
dans F , g1 , g2 et g des applications linéaires de F dans G. Alors :
(i) g ◦ (f1 + f2 ) = g ◦ f1 + g ◦ f2 (découle de la linéarité de g) ;
(ii) (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f (découle de la définition de la somme de deux applications linéaires).
On peut vérifier que pour tout endomorphismes f et tous polynômes P et Q, on a (P Q)(f ) = P (f ) ◦ Q(f ).
Proposition 2.2.3 (binôme de Newton). Si f et g sont deux endomorphismes de E qui commutent (c’est-à-
dire qui vérifient f ◦ g = g ◦ f ), on a :
n
!
n
X n
(f + g) = f k g n−k .
k=0
k
La démonstration est la même que celle de la formule du binôme pour les nombres réels ou complexes. . .
B Attention : si f ◦ g 6= g ◦ f , alors cette relation n’est plus vraie (on a alors, pour n = 2, (f + g)2 6=
f 2 + 2f ◦ g + g 2 ).
Exercice 15. Soient E un K-espace vectoriel, p un entier naturel non nul et f un endomorphisme de E.
1) On suppose que l’endomorphisme f est nilpotent, c’est-à-dire qu’il existe un entier p > 1 tel que l’endomor-
phisme f p soit nul. Calculer
(IdE − f ) ◦ (IdE + f + f 2 + · · · + f p−1 ).
ϕ : E −→ E
P 7−→ P − P 0 .
15
2.3. IMAGE ET NOYAU
2.3.2 Noyau
Définition 2.3.2. Soient E et F deux K-espaces vectoriels, et f une application linéaire. Le sous-espace vectoriel
f −1 ({0F }) de E est appelé le noyau de f ; on le note Ker f (“der Kern” signifie ”le noyau” en allemand). On
a
Ker f = {x ∈ E | f (x) = 0F }.
Exercice 16. ? Pour tout k ∈ N, on note X k l’application de R dans R qui à x associe xk . Soient n ∈ N et
ϕ : C∞ (R, R) −→ C∞ (R, R)
n
X f (k) (0) k
f 7−→ f− X .
k!
k=0
Montrer que l’application ϕ est un endomorphisme de l’espace vectoriel C∞ (R, R) et déterminer son noyau.
Exercice 17. On considère l’application
f : K[X] −→ K[X]
P 7−→ P (X + 1) − P (X).
1) Montrer que f est un endomorphisme de K[X].
2) a) Déterminer le degré du polynôme f (X k ), pour tout k ∈ N.
b) En déduire que, pour tout p ∈ N, le sous-espace Im f contient au moins un polynôme de degré p.
c) En déduire l’image de l’endomorphisme f .
3) Déterminer le noyau de f .
Exercice 18. Soient E un K-espace vectoriel, f et g deux endomorphismes de E. On dit qu’un sous-espace
vectoriel F de E est stable par l’endomorphisme g si on a g(F ) ⊂ F , autrement dit si pour tout vecteur x
appartenant à F , son image g(x) appartient encore à F .
On suppose que les endomorphismes f et g commutent, c’est-à-dire f ◦g = g ◦f . Montrer que les sous-espaces
ker f et Im f sont stables par g.
Lorsqu’une application f est linéaire, connaître son noyau permet en particulier de savoir si f est injective,
comme l’énonce la proposition suisvante :
Proposition 2.3.3. Soient E et F deux K-espaces vectoriels, et f une application linéaire de E dans F . Alors
f est injective si et seulement si Ker f = {0E }.
Question 16. Démontrer cette proposition.
Question 17. Dans l’espace vectoriel K[X] des polynômes, trouver :
1) un endomorphisme surjectif et non injectif :
2) un endomorphisme injectif et non surjectif.
16
CHAPITRE 2. APPLICATIONS LINÉAIRES
17
2.5. PROJECTIONS ET SYMÉTRIES
Définition 2.5.4. Soit E un K-espace vectoriel. On suppose que F et G sont deux sous-espaces vectoriels
supplémentaires de E. Ainsi, tout vecteur x de E s’écrit de façon unique x = xF + xG , où xF est un vecteur
de F et xG un vecteur de G. On appelle symétrie par rapport à F parallèlement à G l’application qui à
x = xF + xG associe xF − xG .
Autrement dit, s est la symétrie par rapport à F parallèlement à G si et seulement si on a s(x) = 2xF − x
pour tout x ∈ E, donc si et seulement si s = 2p − IdE , où p est le projecteur sur F parallèlement à G. On en
déduit en particulier qu’une symétrie est un endomorphisme de E.
Illustration.
18
Chapitre 3
Dimension finie
Question 21. Citer des espaces vectoriels de dimension finie et des espaces de dimension infinies (ces exemples
seront importants).
Solutions. Quelques exemples :
1) Kn (n ∈ N∗ ) est un K-espace vectoriel de dimension finie, puisqu’on a vu qu’il admettait des bases comportant
un nombre fini de vecteurs (par exemple la base canonique).
2) Kn [X] est un K-espace vectoriel de dimension finie (pour les mêmes raisons).
3) K[X] n’est pas de dimension finie ; en effet, s’il admettait une famille génératrice (P1 , . . . , Pn ), alors tout
polynôme de K[X] serait de degré au plus max(deg P1 , . . . , deg Pn ), ce qui est absurde.
Plusieurs questions se posent : existe-t-il toujours des bases dans les K-espaces vectoriels de dimension finie ? si
oui, ces bases ont-elles toutes même cardinal ?
On admet la proposition suivante (un petit peu délicate à démontrer) :
Proposition 3.1.2. Soit E un K-espace vectoriel de dimension finie. Soient L une famille libre et G une famille
génératrice (finie) de E. Alors on a : Card(L) 6 Card(G).
Exercice 20. ? Justifier que l’espace KN des suites à coefficients dans K est un K-espace vectoriel de dimension
infinie. (Indication. Exhiber une famille libre de KN de cardinal infini.)
Théorème-Définition 3.1.1. Soit E un K-espace vectoriel de dimension finie, non réduit à {0E }. Alors :
(i) E admet au moins une base ;
(ii) toutes les bases de E ont même cardinal, qu’on appelle dimension de E, et que l’on note dim E.
Par convention, on pose dim({0E }) = 0.
Vocabulaire. Dans le cours, on a appelé droite vectorielle tout sous-espace vectoriel engendré par un vecteur
non nul ; de façon équivalente, on peut dire qu’une droite vectorielle est un espace vectoriel de dimension 1.
19
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE
On a défini un plan vectoriel comme étant un espace vectoriel engendré par deux vecteurs non colinéaires ;
de façon équivalente, on peut dire qu’un plan vectoriel est un espace vectoriel de dimension 2.
Question 22. Citer une base de chacun des espaces vectoriels de dimension finie répertoriés à l’exercice 21.
En déduire leur dimension.
B Attention : un K-espace vectoriel de dimension finie non réduit à {0E } n’admet pas une seule base mais
une infinité. Par exemple, tout réel non nul constitue une base du R-espace vectoriel R.
Exercice 21. Soient a, b, c, d quatre éléments de K. Montrer que les vecteurs u = (a, b) et v = (c, d) forment
une base de K2 si et seulement si ad − bc 6= 0.
Exercice 22. Soit n ∈ N∗ . Pour tout k ∈ {0, . . . , n}, on suppose que Pk est un polynôme à coefficients dans K
de degré k. Justifier que (P0 , . . . , Pn ) est une base de Kn [X].
20
CHAPITRE 3. DIMENSION FINIE
Vocabulaire. Dans le cas 3), on dit que la base B = (f1 , . . . , fp , g1 , . . . , gq ) de E est adaptée à la décomposition
F ⊕ G = E.
Théorème 3.2.3. Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de
E. Alors :
(i) la somme F + G est directe si et seulement si on a F ∩ G = {0E } ;
(ii) F et G sont supplémentaires dans E si et seulement si on a
(
F ∩ G = {0E }
dim F + dim G = dim E.
Montrer que l’ensemble des solutions du système (S) est un plan de R4 et déterminer une base de ce plan.
Exercice 26. Dans R4 , soient u = (1, 0, 1, 0), v = (0, 1, −1, 0), w = (1, 1, 1, 1), x = (0, 0, 1, 0), y = (1, 1, 0, −1),
F = Vect(u, v, w), et G = Vect(x, y). Déterminer la dimension et une base de chacun des sous-espaces vectoriels
F , G, F + G, F ∩ G. Donner un supplémentaire de chacun de ces sous-espaces.
Exercice 27. Soit D la droite vectorielle engendrée par le vecteur (1, 1, . . . , 1) de Kn , et soit
H = {(x1 , x2 , . . . , xn ) ∈ Kn | x1 + x2 + · · · + xn = 0}.
Vérifier : D ⊕ H = Kn .
21
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE
Exercice 28. Soient n > 2 et H l’ensemble des polynômes P de Kn [X] tels que P (1) = 0. Montrer que H est
un sous-espace vectoriel de Kn [X], donner sa dimension et en donner un supplémentaire.
Théorème 3.2.4 (Théorème de la base incomplète). Soit E un K-espace vectoriel de dimension finie n > 1.
Soit (u1 , . . . , up ) une famille libre de vecteurs de E (en particulier, on a 1 6 p 6 n). Alors Il existe n − p
vecteurs de E notée up+1 , . . . , un tels que la famille (u1 , . . . , up , . . . , u, n) soit une base de E ;
Corollaire 3.2.5. Soient E un K-espace vectoriel de dimension finie n > 1 et F un sous-espace vectoriel de
E. Alors F admet (au moins) un supplémentaire dans E.
Proposition 3.2.6. Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de
E. Si on a F ⊂ G et dim F = dim G alors F = G.
Question 28.
1) Démontrer ce résultat à l’aide du corollaire 3.2.5.
2) Démontrer ce résultat sans utiliser du corollaire 3.2.5.
Théorème 3.2.7 (Formule de Grassmann). Soient E un K-espace vectoriel de dimension finie, F et G deux
sous-espaces vectoriels de E. Alors
Hermann Günther Grassmann, né en 1809 à Stettin et mort en 1877 à Stettin, est un mathématicien et indianiste
allemand. Polymathe, il était connu de ses contemporains en tant que linguiste. Physicien, néo-humaniste, érudit
mais aussi éditeur, Hermann Grassmann est avec Niels Abel, Évariste Galois et Georg Cantor l’un des grands
mathématiciens «malheureux» du XIXe siècle.
Proposition 3.2.9. Soit E un K-espace vectoriel. Soient p ∈ N∗ et (u1 , . . . , up ) une famille de vecteurs de E.
(i) On a :
rang (u1 , . . . , up ) 6 p.
22
CHAPITRE 3. DIMENSION FINIE
Dans le chapitre « Espaces vectoriels », on a déjà déterminé le rang de plusieurs familles de vecteurs : dans
l’ex 5, rang (u, v, w) = 3 ; ex 5, rang (a, b, c, d) = 4 ; ex 8, rang (x, y, z, t) = 3 ; ex 10, rang (f, g, h, k) = 3.
23
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE
24
Chapitre 4
Comme dans les chapitres précédents, la lettre K désigne Q, R ou C. On rappelle que les éléments de K sont
appelés des scalaires.
Ce paragraphe a déjà été traité au premier semestre : nous passerons donc assez rapidement sur certains
détails.
4.1.1 Définitions
Soient n et p des entiers naturels non nuls. On appelle système linéaire d’inconnue (x1 , . . . , xp ) ∈ Kp ,
de coefficients les ai,j ∈ K, (i, j) ∈ {1, . . . , n} × {1, . . . , p}, et de second membre (y1 , . . . , yn ) ∈ Kn le système
suivant :
a1,1 x1 + a1,2 x2 + · · · + a1,j xj + · · · + a1,p xp = y1
a2,1 x1 + a2,2 x2 + · · · + a2,j xj + · · · + a2,p xp = y2
...
(S) =
ai,1 x1 + ai,2 x2 + · · · + ai,j xj + · · · + ai,p xp = yi
...
an,1 x1 + an,2 x2 + · · · + an,j xj + · · · + an,p xp = yn .
Résoudre un tel système, c’est, par définition, chercher tous les p−uplets (x1 , . . . , xp ) solutions. Le système est
dit homogène, ou sans second membre, si tous les yi sont nuls.
Question 30. Quelle est l’interprétation géométrique d’un système linéaire lorsque n = p = 2 ?
25
4.1. RAPPELS SUR LES SYSTÈMES LINÉAIRES – MÉTHODE DU PIVOT DE GAUSS
Si n = p, on a le résultat suivant :
Proposition 4.1.1. On considère un système linéaire ayant autant de lignes que d’inconnues (n = p avec les
notations précédentes), de type triangulaire :
a1,1 x1 + a1,2 x2 + · · · + a1,i xi + · · · + a1,n xn = y1
a2,2 x2 + · · · + a2,i xi + · · · + a2,n xn = y2
..
.
ai,i xi + · · · + ai,n xn = yi
..
.
an,n xn = yn .
Si tous les coefficients diagonaux a1,1 , a2,2 , . . . , an,n sont non nuls, alors ce système possède une unique solution.
Proposition 4.1.2. Les opérations suivantes, dites opérations élémentaires, transforment un système li-
néaire en un système ayant le même ensemble de solution :
• échange de deux lignes Li ↔ Lk
• produit d’une ligne par un scalaire non nul Li ← αLj , α 6= 0
• ajout à une ligne d’un multiple d’une autre Li ← Li + αLk , α ∈ K.
Définition 4.1.3. On dit que deux systèmes sont équivalents si l’on peut obtenir l’un à partir de l’autre
par une succession d’opération élémentaires. On ne change pas l’ensemble des solutions d’un système en le
remplaçant pas un système équivalent.
Théorème 4.1.4 (pivot de Gauss). On peut toujours obtenir un système linéaire triangulaire à partir d’un
système linéaire donné, en effectuant uniquement des opérations des types décrits ci-dessus.
26
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES
4.2.1 Définitions
Un tel tableau de scalaires est appelé une matrice, à n lignes et p colonnes. Ainsi, deux matrices sont égales
si et seulement si elles ont même nombre n de lignes, même nombre p de colonnes, et si pour tout couple
(i, j) ∈ {1, . . . , n} × {1, . . . , p}, le coefficient situé à la ligne i, colonne j, est le même dans chacune des deux
matrices. On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes et à coefficients dans K. La matrice
de Mn,p (K) dont tous les coefficients sont nuls est appelée la matrice nulle, et est notée simplement 0. Ainsi,
x1
x2
la matrice X = .. est un élément de Mp,1 (K). On dit qu’il s’agit d’une matrice-colonne. Un élément de
.
xp
M1,p (K) est appelé matrice-ligne.
Si A = (ai,j ) 16i6n est une matrice de Mn,p (K), on définit sa transposée comme étant la matrice tA = (a0i,j )
16j6p
de Mp,n (K) vérifiant pour tout (i, j) ∈ {1, . . . , p} × {1, . . . , n} : a0i,j = aj,i . Dans la pratique, la transposée d’une
!
2 −1 + i 0
matrice est facile à obtenir. Par exemple, la transposée de la matrice A = est la matrice
8 5 −4i
2 8
t
A = −1 + i 5 .
0 −4i
On souhaite définir le produit de la matrice A ∈ Mn,p (K) par la matrice X ∈ Mp,1 (K) de façon à ce que le
système (S) précédent s’écrive simplement : AX = Y. Pour cela, il faut donc que l’on définisse le produit AX
27
4.3. OPÉRATIONS SUR LES MATRICES
de la façon suivante :
a1,1 a1,2 ··· a1,p x1 a1,1 x1 + · · · + a1,p xp
a2,1 a2,2 ··· a2,p x2 a2,1 x1 + · · · + a2,p xp
AX =
.. .. .. ..
= .. .
. . . . .
an,1 an,2 ··· an,p xp an,1 x1 + · · · + an,p xp
Ainsi, par définition le produit de la matrice A ∈ Mn,p (K) par la matrice X ∈ Mp,1 (K) est une matrice de
p
X
Mn,1 (K) dont le coefficient de la ième ligne est ai,k xk .
k=1
Proposition 4.2.1. Soit A une matrice de Mn (K). Alors la matrice A est nulle si et seulement si pour toute
matrice colonne X ∈ Mp,1 (K), la matrice AX est nulle.
(A + B) + C = A + (B + C); A + B = B + A; A + 0 = A;
28
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES
Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). On note B1 , . . . , Bq les colonnes de la matrice B. On a déjà défini les
produits ABk ∈ Mn,1 (K), pour tout k ∈ {1, . . . , q}. On définit ici le produit de A et B dans cet ordre de la
façon suivante : la matrice produit AB est la matrice de Mn,q (K) dont les colonnes sont AB1 , AB2 , . . . , ABq .
Ainsi, si l’on note C = AB = (ci,j ) 16i6n , on a pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , q} la relation :
16j6q
p
X
ci,j = (ABj )i = ai,k bk,j .
k=1
! 0 −1
1 2 3
Question 32. Effectuer le produit AB lorsque A = et B = 2 3 .
4 5 6
−2 0
B Attention : le produit AB n’est défini que si le nombre de colonnes de A est égal au nombre de lignes de
B.
Soit n un entier naturel non nul. L’ensemble Mn,n (K) des matrices carrées à n lignes et n colonnes est
simplement noté Mn (K). Soit A = (ai,j )16i,j6n une matrice carrée d’ordre n. Les coefficients ai,i sont appelés
les coefficients diagonaux de la matrice A. La matrice A est dite triangulaire supérieure si tous les
coefficients situés strictement sous la diagonale sont nuls, i.e., pour tout couple (i, j) d’entiers compris entre 1
et n vérifiant i > j, on a ai,j = 0. On définit de façon similaire la notion de matrice triangulaire inférieure. La
matrice A est dite diagonale si tous les coefficients qui ne se trouvent pas sur la diagonale sont nuls, i.e., pour
tout couple (i, j) d’entiers compris entre 1 et n vérifiant i 6= j, on a ai,j = 0. Une matrice diagonale de Mn (K)
s’écrit donc sous la forme :
λ1 0
..
.
.
0 λn
Remarquons qu’une somme ou un produit de matrices triangulaires supérieures (resp. diagonales) est encore
triangulaire supérieure (resp. diagonale).
29
4.5. PROPRIÉTÉS DU PRODUIT MATRICIEL
Question 34. Donner un exemple de matrices carrées A et B pour lesquelles les produits AB et BA sont
différents. Ainsi a-t-on (A + B)2 = A2 + AB + BA + B 2 , mais cette matrice n’est pas toujours égale à la matrice
A2 + 2AB + B 2 . Cette identité devient vraie lorsque A et B commutent (i.e., AB = BA).
30
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES
On ne peut donc s’intéresser à l’inversibilité (éventuelle) d’une matrice que si celle-ci est carrée.
Ainsi, si la matrice A est inversible, l’unique matrice B vérifiant AB = BA = In est appelée l’inverse de A et
est notée A−1 .
Proposition 4.6.2. Soit A une matrice de Mn (K). L a matrice A est inversible si et seulement si pour toute
matrice colonne Y de Mn,1 (K), il existe une unique matrice colonne X de Mn (K) vérifiant AX = Y.
Autrement dit, la matrice A est inversible si et seulement si pour n’importe quel choix de second membre
Y , le système linéaire AX = Y admet un unique n-uplet X solution. Ou encore : la matrice A est inversible si
et seulement si l’application
Mn,1 (K) −→ Mn,1 (K)
X 7−→ AX
est bijective. Dans la pratique, si pour tout couple (X, Y ) de matrices de Mn,1 (K), on parvient à résoudre le
système AX = Y , alors on aura déterminé une matrice B vérifiant AX = Y ⇐⇒ X = BY , donc on aura prouvé
que A est inversible et on aura déterminé l’inverse B de A.
1 1 1
Remarquons qu’il est en général fastidieux de calculer l’inverse d’une matrice inversible. Lorsque l’ordre n de la
matrice est élevé, on confie ces calculs à un ordinateur ou une calculatrice. . .
Si la matrice A est inversible, un système linéaire AX = Y est appelé un système de Cramer : il admet donc
une unique solution.
Corollaire 4.6.3. Soit A = (ai,j )16i,j6n une matrice triangulaire de Mn (K). Alors la matrice A est inversible
si et seulement si tous ses coefficients diagonaux sont non nuls.
En particulier, une matrice diagonale est inversible si et seulement si tous ses coefficients diagonaux sont
non nuls.
Proposition 4.6.4. Soient A et B deux matrices de Mn (K). Si A et B sont inversibles, alors le produit AB
est inversible, et on a (AB)−1 = B −1 A−1 .
31
4.7. INTERPRÉTATION MATRICIELLE DE LA MÉTHODE DE GAUSS
0 0 1
2 3 4
1) Calculer A , A et A .
2) Pour tout entier relatif n, calculer la puissance nième de A.
Par conséquent, si la matrice A est inversible, on obtiendra toujours des matrices inversibles en effectuant des
opérations élémentaires sur les lignes de la matrice A.
Proposition 4.7.1. Soit A une matrice de Mn (K), inversible. Il existe des matrices d’opérations élémentaires
M1 , M2 , . . . , Mq (qui sont donc des matrices inversibles) telles que : Mq . . . M2 M1 A = In .
32
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES
Question 42. À l’aide de cette méthode, retrouver l’inverse de la matrice A de l’exercice 37.
Exercice 35. Déterminer si chacune des matrices suivantes est inversible, et calculer le cas échéant son inverse :
1 −1 1 −1
2 1 3 −1 1 0 1
1 −1 −2 ; .
−1
0 1 1
−1 0 2
1 0 −1 1
33
4.7. INTERPRÉTATION MATRICIELLE DE LA MÉTHODE DE GAUSS
34
Chapitre 5
La lettre K désigne Q, R ou C.
est un isomorphisme.
B Attention : la phrase « on considère la matrice du vecteur x » n’a pas de sens ; il faut préciser quelle base
de E on choisit.
Exercice 36. ? On se place dans le R-espace vectoriel R2 [X]. Montrer qu’il existe une unique base B de R2 [X]
35
5.1. MATRICE D’UN VECTEUR, MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES
telle que, pour tout P ∈ R2 [X], la matrice colonne de P dans la base B soit :
P (−1)
C = P (0) .
P (1)
Définition 5.1.2. Soient E un K-espace vectoriel de dimension finie non nulle n, B = (e1 , . . . , en ) une base
de E, p un entier naturel non nul et F = (u1 , . . . , up ) une famille de vecteurs de E. On appelle matrice de
la famille F dans la base B la matrice à n lignes et p colonnes dont les colonnes sont constituées par les
coefficients des vecteurs u1 , . . . , up décomposés dans la base B. Plus précisément, pour tout j ∈ {1, . . . , p}, si
l’on note
u1,j
.
. ∈ Mn,1 (K)
Mat(uj , B) = .
un,j
la matrice du vecteur uj dans la base B, la matrice de la famille F dans la base B est :
u1,1 ... u1,j ... u1,p
. .. ..
.. . .
Mat((u1 , . . . , up ), B) = ui,1 ... ui,j ... ui,p ∈ Mn,p (K)
.. .. ..
. . .
un,1 ... un,j ... un,p
Remarque. Ce résultat est important ; il dit que pour connaître complètement une application linéaire en
dimension finie, il suffit de consigner dans une matrice les coordonnées dans une base de F des images des
vecteurs d’une base de E. C’est ce qui va permettre d’introduire la notion de matrice d’une application linéaire
dans des bases.
Corollaire 5.1.4. Soient E et F deux K-espaces vectoriels de dimension finie. Alors E et F ont même dimen-
sion si et seulement si il existe un isomorphisme de E sur F . On dit dans ce cas que E et F sont isomorphes.
Remarque. Deux espaces « isomorphes » ont étymologiquement « même forme ». En d’autres termes, deux
espaces isomorphes sont « presque » les mêmes, la seule différence étant la façon de noter les éléments. Ce
corolloraire justifie a posteriori l’intérêt porté aux espaces Kn .
Question 44. 1) Donner un exemple d’isomorphisme entre les K-espaces vectoriels Kn [X] et Kn+1 .
2) Démontrer ces résultats.
36
CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE ET MATRICES
Définition 5.1.5. Soient E et F deux K-espaces vectoriels de dimension finie non nulle. On note p = dim E
et n = dim F . Une base BE = (e1 , . . . , ep ) de E et une base BF = (f1 , . . . , fn ) de F étant fixées, on appelle
matrice de l’application linéaire f dans les bases BE et BF , et on note Mat(f, BE , BF ), ou MBE ,BF (f ),
la matrice de la famille de vecteurs (f (e1 ), . . . , f (ep )) exprimés dans la base BF , i.e.
Remarque. Lorsque f est un endomorphisme (i.e., lorsque E = F ), on prend en général la même base B au
départ et à l’arrivée ; on note alors la matrice de f simplement Mat(f, B).
Exercice 38 (recherche d’une base dans laquelle la matrice de f a une allure préalablement fixée). Soit f un
endomorphisme de K2 vérifiant
! f 2 = 0 et f 6= 0. Justifier qu’il existe une base B = (e1 , e2 ) de K2 dans laquelle
0 1
la matrice de f est .
0 0
Ainsi, l’application ϕ ci-dessus est un isomorphisme entre les K-espaces vectoriels L(E, F ) et Mn,p (K).
37
5.2. ISOMORPHISME ENTRE L(E, F ) ET MN,P (K)
Remarque. Les matrices élémentaires (Ei,j )16i6n (tous les coefficients de la matrice Ei,j sont nuls, sauf celui
16j6p
situé à la ième ligne et jème colonne qui vaut 1) forment clairement une base du K-espace vectoriel Mn,p (K).
On en déduit que le K-espace vectoriel Mn,p (K) est de dimension finie égale à np. L’isomorphisme ci-dessus
prouve que, si E et F sont des K-espaces vectoriels de dimensions respectives p et n, alors le K−espace vectoriel
L(E, F ) est de dimension finie égale à np.
Proposition 5.2.2. Soient E et F deux K-espaces vectoriels de dimension finie non nulle, munis de bases BE
et BF respectivement, et f une application linéaire de E dans F . Alors :
On pourrait résumer cette proposition en disant qu’en dimension finie, évaluer une application linéaire en un
vecteur (c’est-à-dire calculer f (x)) revient à effectuer un produit matriciel (d’une matrice « rectangulaire » par
une matrice colonne).
Question 45. Démontrer ces résultats.
Exercice 39. Soient B = (e1 , e2 , e3 ) une base de R3 , C = (u1 , u2 ) une base 2
! de R , f l’application linéaire de
1 2 3
R3 dans R2 dont la matrice dans les bases B et C est A = . Déterminer le noyau et l’image de
4 5 6
l’application linéaire f .
La proposition qui suit est fondamentale ; elle permet de comprendre pourquoi on a défini le produit matriciel
d’une façon qui pouvait sembler étrange à première vue.
Proposition 5.2.3. On se donne trois K-espaces vectoriels de dimension finie non nulle : E, de dimension q,
muni d’une base BE , F , de dimension p, muni d’une base BF , G, de dimension n, muni d’une base BG .
Soient f une application linéaire de E dans F , et g une application linéaire de F dans G. On a alors :
En utilisant l’isomorphisme ϕ de L(E, F ) sur Mn,p (K) défini plus haut, cette proposition s’écrit :
On pourrait résumer cette proposition en remarquant qu’un calcul de composée d’applications linéaires
revient à un calcul de produit matriciel.
Cas particulier : si E = F , donc si f est un endomorphisme de E, on a pour tout entier naturel n (f n désigne
ici une composée), en itérant la proposition précédente :
Proposition 5.2.4. Soient E un K-espace vectoriel de dimension finie non nulle, B une base de E, f un
endomorphisme de E et A sa matrice dans la base B. Alors :
f bijectif ⇐⇒ A inversible.
Dans ce cas, on a :
Mat(f −1 , B) = Mat(f, B)−1 = A−1 .
38
CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE ET MATRICES
À l’aide de l’isomorphisme ϕ rencontré plus haut, on peut reformuler ce résultat en disant que si f est un
automorphisme de E, alors on a
ϕ(f −1 ) = ϕ(f )−1 .
Définition 5.3.2. Soit A ∈ Mn,p (K). On note (C1 , . . . , Cp ) les colonnes de A ; en particulier, pour tout j ∈
{1, . . . , p}, le vecteur colonne Cj est un élément de Mn,1 (K). On appelle rang de A le rang de la famille
(C1 , . . . , Cp ).
Question 47. Soit A ∈ Mn,p (K). Montrer que les propositions suivantes sont équivalentes :
(i) rang A 6 1 ;
(ii) il existe des matrices X ∈ Mn,1 (K) et Y ∈ M1,p (K) telles que A = XY .
Proposition 5.3.3. 1) On ne change pas le rang d’une application linéaire en la composant (à gauche ou à
droite) par un isomorphisme.
2) Soient
• E un K-espace vectoriel de dimension finie p > 1, BE une base de E,
• F un K-espace vectoriel de dimension finie n > 1, BF une base de F ,
• f une application linéaire de E dans F ,
• A la matrice de f dans les bases BE et BF .
Alors on a :
rang f = rang A.
3) On ne change pas le rang d’une matrice en la multipliant (à gauche ou à droite) par une matrice inversible.
4) On ne change pas le rang d’une matrice en effectuant l’une des opérations élémentaires suivantes :
• échange de deux lignes ou deux colonnes ;
• multiplication d’une ligne ou d’une colonne par un scalaire non nul ;
• ajout à une ligne d’une combinaison linéaire des autres lignes, ajout à une colonne d’une combinaison
linéaire des autres colonnes.
Remarques. 1) On vient de montrer que le rang d’une matrice A est le rang de n’importe quelle application
linéaire représentée par A, ou encore que le rang d’une application linéaire f est le rang de n’importe quelle
matrice représentant f .
2) On dispose d’une méthode pour déterminer dans la pratique le rang d’une matrice : il s’agit d’effectuer des
opérations élémentaires sur les lignes et les colonnes jusqu’à obtenir une matrice dont on peut lire facilement le
rang. On peut pour cela utiliser par exemple la méthode du pivot de Gauss.
39
5.3. LE THÉORÈME DU RANG
Théorème 5.3.4 (Théorème du rang). Soient E et F deux K-espaces vectoriels de dimension finie, f une
application linéaire de E dans F . Alors on a :
B Attention : même lorsque E = F , le théorème du rang ne dit pas que les sous-espaces vectoriels Ker f
et Im f sont supplémentaires dans E. Il se peut que le noyau et l’image d’un endomorphisme ne soient pas en
somme directe. Rappelons par exemple que si D est l’endomorphisme de dérivation
D : Kn [X] −→ Kn [X]
P 7−→ P0
alors on a Im D ∩ Ker D = Vect(1) = {polynômes constants} =
6 {0Kn [X] }.
Proposition 5.3.5. Soient E et F deux K-espaces vectoriels de dimension finie, vérifiant dim E = dim F . Soit
f une application linéaire de E dans F . Alors :
Remarque. On observe des analogies entre cette proposition et le fait que si f est une application entre deux
ensembles finis de même cardinal, alors f est injective si et seulement si f est surjective, si et seulement si f est
bijective. On en déduit :
Proposition 5.3.6. Soit A une matrice de Mn (K). Alors les propriétés suivantes sont équivalentes :
(i) A est inversible (i.e., il existe une matrice B de Mn (K) vérifiant AB = BA = In ) ;
(ii) il existe B ∈ Mn (K) telle que AB = In ;
(iii) il existe B ∈ Mn (K) telle que BA = In ;
(iv) pour toute matrice Y de Mn,1 (K), il existe une unique matrice X de Mn,1 (K) vérifiant AX = Y.
Question 49. Démontrer ces résultats.
Exercice 40. Soit f l’application qui à tout polynôme P de Rn [X] associe 3XP 0 + (X 2 − 1)P 00 .
1) Vérifier que f est un endomorphisme de Rn [X], et écrire sa matrice dans la base canonique.
2) L’endomorphisme f est-il un automorphisme ?
3) Déterminer une base de chacun des sous-espaces vectoriels Ker f et Im f .
Exercice 41. Soient B = (e1 , e2 , e3 ) une base de R3 et f ∈ L(R3 ) dont la matrice dans la base B est
−2 −3 6
A= 3 1 5 .
3 4 −7
1) Déterminer des bases du noyau et de l’image de f .
2) La matrice A est-elle inversible ?
Exercice 42. Soit p l’endomorphisme de R3 dont la matrice dans la base canonique est
1/2 1/2 −1
A = 1/2 1/2 1 .
0 0 1
1) Montrer que p est une projection de R3 .
2) Déterminer une base dans laquelle la matrice de p est diagonale.
40
Chapitre 6
Déterminant
La lettre K désigne Q, R ou C.
6.1 Introduction
Le déterminant d’une matrice carrée peut être vu comme une généralisation (ou une formalisation) de la
notion de volume. Nous tentons ici de motiver sa définition (dans le cas des matrices carrées d’ordre 2).
On considère ici les vecteurs comme introduits dans les classes antérieures et on se place dans R2 muni de
sa base canonique (~i, ~j) « orthonormée directe », où ~i = (1, 0) et ~j = (0, 1) (le terme « orthonormée directe »
sera défini de manière rigoureuse en 2ème année).
Considérons deux vecteurs ~u = (x1 , y1 ) et ~v = (x2 , y2 ) de R2 (écrit dans la base canonique (~i, ~j)). On appelle
parallélogramme engendré par ~u et ~v l’ensemble {α~u + β~v ; (α, β) ∈ [0, 1]2 }.
Illustration.
Calculons l’aire A de ce parallélogramme. On sait qu’elle est égale à la longueur b d’un côté (par exemple k~uk),
multipliée par la hauteur h correspondante (faire une figure) ; on a A = b × h. Pour obtenir A en fonction des
coordonnées de ~u et ~v , il suffit alors d’introduire le vecteur ~u0 = (−y1 , x1 ). Ce vecteur est en effet orthogonal à
~u et de même norme, de sorte que
|~v . ~u0 | = h × k~uk = h × b = A
A = |x1 y2 − y1 x2 |.
a b
det(A) = = ad − bc.
c d
41
6.2. DÉFINITION DU DÉTERMINANT
!
a
Autrement dit, det(A) représente le volume du parallélogramme engendré par les vecteurs colonnes et
c
!
c
de A.
d
On peut de même introduire le déterminant d’une matrice carrée d’ordre 3 comme étant le volume du pa-
rallélépipède engendré par les vecteurs colonnes d’une telle matrice. Nous allons ici définir « directement » le
déterminant d’une matrice carré d’ordre quelconque, sans justifier que la notion étend bien le volume dans le
cas des matrices d’ordre 3. . .
Autrement dit, ϕ est n-linéaire si pour tout i ∈ {1, . . . , n} et toutes matrices colonnes C1 , . . . , Ci−1 , Ci+1 , . . . , Cn ∈
Mn,1 (K), l’application
Mn,1 (K) −→ K
X 7−→ ϕ(C1 , . . . , Ci−1 , X, Ci+1 , . . . , Cn )
est linéaire.
2) On dit que ϕ est alternée si pour toutes matrices colonnes C1 , . . . , Cn ∈ Mn,1 (K), on a
ϕ(C1 , . . . , Ci , . . . , Cj , . . . , Cn ) = 0
dès qu’il existe (i, j) ∈ {1, . . . , n}2 tel que Ci = Cj . Autrement dit, ϕ est alternée si ϕ(A) = 0 pour toute matrice
A ∈ Mn (K) ayant deux colonnes identiques.
Remarque. Dire que ϕ est alternée est équivalent à dire que pour toutes matrices colonnes C1 , . . . , Cn ∈ Mn,1 (K),
on a ϕ(C1 , . . . , Ci , . . . , Cj , . . . , Cn ) = − ϕ(C1 , . . . , Cj , . . . , Ci , . . . , Cn ) (à vérifier). Pour cette raison, on dit aussi
que ϕ est anti-symétrique.
On admet le théorème (très subtile) suivant :
Théorème-Définition 6.2.1. 1) Il existe une unique application n-linéaire et alternée, appelée le déterminant
et notée det, de Mn (K) dans K telle que det(In ) = 1.
2) L’application déterminant vérifie les propriétés suivantes :
(i) ∀ A, B ∈ Mn (K), on a
det(AB) = det(A) det(B);
42
CHAPITRE 6. DÉTERMINANT
(ii) si A est une matrice triangulaire (supérieure ou inférieure), alors le déterminant de A est égal au
a1,1 a1,2 · · · a1,n
0 a2,2 a2,n
produit des coefficients diagonaux de A. Autrement dit, si A = .
.. .. .. ou si A =
.. . . .
0 ··· 0 an,n
a1,1 0 ··· 0
.. ..
a
2,1 a2,2 . .
, alors
.
. ..
. . 0
B Attention : la notion de déterminant n’a de sens que pour les matrices carrées.
Remarques. 1) Si A est une matrice diagonale, son déterminant est le produit de ses coefficients diagonaux
(d’après (ii)).
2) D’après la propriété (i), on a en particulier,
3) Comme pour le déterminant des matrices carrées d’ordre 2, on note généralement le déterminant d’une
matrice carrée (d’ordre quelconque) écrite sous forme de tableau avec des « barres verticales » :
a1,1 · · · a1,n a1,1 · · · a1,n
.. .. .
.. ..
. . = det . .
an,1 · · · an,n an,1 · · · an,n
4) Pour les matrices triangulaires d’ordre 2, la définition précédente coïncide avec la définition 6.1.1 !
Pi,j = In − Ei,i − Ej,j + Ei,j + Ej,i ; Di (λ) = In + (λ − 1)Ei,i ; Ti,j (λ) = In + λEi,j .
Alors :
• Effectuer l’opération éléméntaire Li ↔ Lj (resp. Ci ↔ Cj ) revient à multiplier à gauche (resp. à droite)
par la matrice Pi,j ;
• Effectuer l’opération éléméntaire Li ← λLi (resp. Ci ← λCi ) revient à multiplier à gauche (resp. à droite)
par la matrice Di (λ) ;
• Effectuer l’opération éléméntaire Li ← Li + λLj (resp. Ci ← Ci + λCj ) revient à multiplier à gauche (resp.
à droite) par la matrice Ti,j (λ).
43
6.3. OPÉRATIONS ÉLÉMENTAIRES ET DÉTERMINANT
À partir d’une matrice carrée A ∈ Mn (K), on effectue à l’aide de la méthode du pivot de Gauss des opérations
élémentaires jusqu’à obtenir une matrice triangulaire (supérieure par exemple). On calcule facilement le détermi-
nant de cette dernière : c’est le produit de ses coefficients diagonaux. D’autre part, on connaît le déterminant de
chacune des matrices correspondant aux opérations élémentaires. De plus, comme le déterminant d’un produit
de matrices est égal au produit des déterminants, on obtient le déterminant de A. . .
Question 51. Calculer le déterminant de la matrice suivante à l’aide d’opérations élémentaires sur les lignes :
2 1 3
1 −1 −2
−1 0 2
Remarque. Pour montrer qu’une matrice est inversible, il suffit donc de montrer que son déterminant est non
nul. Comme notre principale méthode pour montrer qu’une matrice est inversible est d’effectuer des opérations
élémentaires sur celle-ci, le gain à ce stade peut paraître mineur.
Toutefois, si la question est seulement de savoir si une matrice donnée est inversible (pas de calculer son
inverse), toutes les opérations élémentaires sont « autorisées » et le calcul du déterminant par les opérations
élémentaires peut s’avérer bien utile, d’autant que nous allons voir d’autres méthodes pour le calculer....
Corollaire 6.3.2. Soient E un K-espace vectoriel de dimension finie n ∈ N∗ et f ∈ L(E). Alors f est un
automorphisme (ou, de manière équivalente, f est un inversible) si et seulement si le déterminant de la matrice
de f dans n’importe quelle base de E est non nul.
44
CHAPITRE 6. DÉTERMINANT
et C1 , . . . , Cn les colonnes de A. Par n-linéarité du déterminant (linéarité par rapport à la jème colonne), on a :
n
X n
X
det(A) = det(C1 , . . . , Cj−1 , ai,j ej , Cj+1 , . . . , Cn ) = ai,j Ai,j ,
i=1 i=1
où
a1,1 ··· a1,j−1 0 a1,j+1 ··· a1,n
.. .. .. .. ..
. . . . .
.. .. .. ..
. . 0 . .
Ai,j = det(C1 , . . . , Cj−1 , ej , Cj+1 , . . . , Cn ) = ai,1 ai,j−1 1 ai,j+1 ai,n .
.. .. .. ..
. . 0 . .
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 0 an,j+1 ··· an,n
45
6.5. COMATRICE
2) Pour (i, j) ∈ {1, . . . , n}2 , on appelle cofacteur de la place (i, j) dans A, et on note Ai,j le produit de
(−1)i+j par le mineur de la place (i, j) dans A :
Proposition 6.4.2 (Développement d’un déterminant par rapport à une ligne ou une colonne). Soit A =
(ai,j )16i,j6n ∈ Mn (K). On a :
Pn
1) ∀ j ∈ {1, . . . , n}, det(A) = i=1 ai,j Ai,j (développement de det(A) par rapport à la jème colonne) ;
Pn
2) ∀ i ∈ {1, . . . , n}, det(A) = j=1 ai,j Ai,j (développement de det(A) par rapport à la ième ligne).
Question 56. Retrouver le déterminant de l’exercice 51 en développant par rapport à une ligne ou une
colonne.
Remarques. 1) Il est souvent utile de développer un déterminant par rapport une ligne ou une colonne qui
comporte peu de termes non nuls.
2) Pour le calcul numérique des déterminants, il existe des méthodes nettement plus rapides que celle consistant
à développer par rapport à une ligne ou une colonne. En général, l’utilisation des opérations élémentaires est la
méthode la plus efficace. Pour n petit (par exemple n = 3), développer par rapport à une ligne ou une colonne
peut s’avérer toutefois commode lorsqu’il y a beaucoup de zéros (cf. 1)).
Pour n = 2, le mieux est d’apprendre par cœur la formule donnée dans la définition 6.1.1 !
6.5 Comatrice
Définition 6.5.1. Soit A = (ai,j )16i,j6n ∈ Mn (K). On appelle comatrice de A la matrice carrée d’ordre n,
notée com(A), définie par :
com(A) = (Ai,j )16i,j6n ,
46
CHAPITRE 6. DÉTERMINANT
Remarque. La formule précédente, donnant A−1 à l’aide de com(A), est en pratique quasiment inutilisable
dès que n > 3. En effet, l’application de cette formule nécessite a priori le calcul d’un déterminant d’ordre n
(det A) et de n2 déterminants d’ordre n − 1 (les cofacteurs de A). La formule présente en revanche un intérêt
théorique : on dispose d’une formule générale pour l’inverse d’une matrice inversible.
α + a1 −1 0 ··· 0
..
a2 α −1 .
∆n = .. ,
a3 0 α . 0
.. .. ..
. . . −1
an 0 ··· 0 α
où α, a1 , . . . , an ∈ K. (Indication. On pourra établir une relation de récurrence entre ∆n et ∆n−1 , pour n > 2,
et raisonner par récurrence.)
1 1 ··· 1
x1 x2 ··· xn
V (x1 , . . . , xn ) = x21 x22 ··· x2n .
.. .. ..
. . .
x1n−1 xn−1
2 ··· xn−1
n
En déduire que V (x1 , . . . , xn ) est non nul si et seulement si x1 , . . . , xn sont deux à deux distincts.
47