0% ont trouvé ce document utile (0 vote)
53 vues46 pages

Support MAT112

Ce document présente les concepts fondamentaux de l'algèbre linéaire, notamment les espaces vectoriels, les sous-espaces vectoriels, les familles de vecteurs, les applications linéaires et les matrices. Le document est organisé en plusieurs chapitres et sections et contient de nombreuses informations sur ces sujets.

Transféré par

Patrick
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
53 vues46 pages

Support MAT112

Ce document présente les concepts fondamentaux de l'algèbre linéaire, notamment les espaces vectoriels, les sous-espaces vectoriels, les familles de vecteurs, les applications linéaires et les matrices. Le document est organisé en plusieurs chapitres et sections et contient de nombreuses informations sur ces sujets.

Transféré par

Patrick
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ANNEE ACADEMIQUE : 2019-2020

MAT 112 : ALGEBRE LINEAIRE


MAT 1 et INF1
Table des matières

1 Espaces Vectoriels 5
1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Exemples fondamentaux « de référence » . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Règles de calcul dans un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Famille libre – famille liée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Sous-espace vectoriel engendré par une famille finie de vecteurs . . . . . . . . . . . . . . . . . . . 10
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.1 Somme de deux sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.2 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Applications linéaires 13
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Structure d’espace vectoriel de L(E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Composition des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Cas particulier de L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Image et noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Applications linéaires et systèmes de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Projections et symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Dimension finie 19
3.1 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Sous-espaces vectoriels d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . . 20
3.2.1 Dimension d’un sous-espace vectoriel d’un espace de dimension finie . . . . . . . . . . . . 20

3
TABLE DES MATIÈRES

3.2.2 Sommes directes de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 21


3.2.3 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.4 Comment déterminer dans la pratique le rang d’une famille de vecteurs ? . . . . . . . . . 23

4 Matrices et systèmes linéaires 25


4.1 Rappels sur les systèmes linéaires – Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . 25
4.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.2 Système triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1.3 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2 Écriture matricielle d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.2 Produit d’une matrice par une matrice colonne . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.2 Produit par un scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.3 Propriétés de ces opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4.1 Matrices triangulaires et diagonales ; matrice identité . . . . . . . . . . . . . . . . . . . . . 29
4.4.2 Produit de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.5 Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.6 Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.7 Interprétation matricielle de la méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.7.1 Matrices d’opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.7.2 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.7.3 Application de la méthode de Gauss au calcul de l’inverse d’une matrice inversible . . . . 33

5 Applications linéaires en dimension finie et matrices 35


5.1 Matrice d’un vecteur, matrice d’une application linéaire dans des bases . . . . . . . . . . . . . . . 35
5.1.1 Matrice d’un vecteur, d’une famille de vecteurs dans une base . . . . . . . . . . . . . . . . 35
5.1.2 Matrice d’une application linéaire dans des bases . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Isomorphisme entre L(E, F ) et Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3 Le théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6 Déterminant 41
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.2 Définition du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.3 Opérations élémentaires et déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.4 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.5 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4
Chapitre 1

Espaces Vectoriels

Dans tout ce chapitre, la lettre K désigne Q, R ou C.

1.1 Structure d’espace vectoriel


On va généraliser les propriétés connues des vecteurs du plan et de l’espace.

1.1.1 Espaces vectoriels


Définition 1.1.1. Soit E un ensemble. On dit que E est un K-espace vectoriel (ou un espace vectoriel
sur K) s’il est muni
1) d’une addition +, c’est-à-dire d’une application

E × E −→ E
(x, y) 7−→ x+y

vérifiant :
(i) ∀ (x, y) ∈ E 2 , x+y ∈ E (stabilité de E par l’addition ; ce point est redondant avec le fait que (x, y) 7→ x+y
est une application de E × E dans E) ;
(ii) ∀ (x, y, z) ∈ E 3 , (x + y) + z = x + (y + z) (associativité) ;
(iii) ∀ (x, y) ∈ E 2 , x + y = y + x (commutativité) ;
(iv) il existe un élément de E noté 0E tel que pour tout x ∈ E, x + 0E = x (0E est appelé élément neutre,
ou encore vecteur nul) ;
(v) ∀ x ∈ E, ∃ x0 ∈ E | x + x0 = 0E (x0 est appelé opposé de x).
2) d’une multiplication externe, c’est-à-dire d’une multiplication · d’un élément de K par un élément de E

K × E −→ E
(λ, x) 7−→ λ.x

vérifiant :
(i) ∀ x ∈ E, ∀ λ ∈ K, λ.x ∈ E ;
(ii) ∀ x ∈ E, ∀ (λ, µ) ∈ K2 , (λµ).x = λ.(µ.x) (associativité) ;

5
1.1. STRUCTURE D’ESPACE VECTORIEL

(iii) ∀ x ∈ E, ∀ (λ, µ) ∈ K2 , (λ + µ).x = λ.x + µ.x (distributivité par rapport à l’addition dans K) ;
(iv) ∀ (x, y) ∈ E 2 , ∀ λ ∈ K, λ.(x + y) = λ.x + λ.y. (distributivité par rapport à l’addition de E) ;
(v) ∀ x ∈ E, 1.x = x.
Les éléments de E sont appelés les vecteurs, les éléments de K les scalaires.

Remarques. 1) Un espace vectoriel est nécessairement non vide (il contient 0E ).


2) On vérifie aisément que ces propriétés sont vraies, en particulier, pour les vecteurs du plan.
3) On vérifie facilement que, dans un espace vectoriel, l’élément neutre est unique. C’est pour cela qu’on peut
le noter 0E .
2) A priori, le symbole « + » ne désigne pas la même addition dans E et dans K ; dans la pratique, il n’y a pas
d’inconvénient à les noter de la même façon.

 Question 1. Citer des espaces vectoriels usuels (ces exemples sont fondamentaux et à connaître).

1.1.2 Exemples fondamentaux « de référence »

1) On munit Kn de l’addition suivante : si x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) sont deux éléments de Kn , on


définit x + y par x + y = (x1 + y1 , . . . , xn + yn ). On définit aussi la multiplication externe suivante : si λ est un
scalaire de K, l’élément λ.x de Kn est défini par λ.x = (λx1 , . . . , λxn ). On vérifie aisément que l’ensemble Kn
muni de ces lois est un K-espace vectoriel. En particulier, le vecteur nul est (0, . . . , 0).
On peut interpréter le R-espace vectoriel R2 comme étant l’ensemble des « vecteurs » du plan, au sens vu
dans les classes antérieures, donnés par leurs coordonnées dans une base (~i, ~j) (on définira plus loin la notion de
base ; pour l’instant, on s’appuie sur la notion de base des vecteurs du plan vue dans les classes antérieures). De
même, on pensera au R-espace vectoriel R3 comme à l’ensemble des « vecteurs » de l’espace. Il est utile d’avoir
à l’esprit ces représentations « concrètes » des R-espaces vectoriels R2 et R3 , de façon à bien comprendre les
résultats (et contre-exemples) généraux sur les espaces vectoriels.
2) L’ensemble KN des suites d’éléments de K, muni des lois usuelles, est un K-espace vectoriel (à vérifier).
Rappelons que la somme (un )n∈N + (vn )n∈N de deux suites (un )n∈N et (vn )n∈N est, par définition, la suite
(un + vn )n∈N ; on définit également le produit λ(un )n∈N par : λ(un )n∈N = (λun )n∈N .
3) L’ensemble K[X] des polynômes à coefficients dans K, muni de l’addition et de la multiplication externe
usuelles, est un K-espace vectoriel (à vérifier).
4) L’ensemble des fonctions de R dans R est un R-espace vectoriel, lorsqu’on le munit de l’addition et de la
multiplication externe usuelles.

5) C est un C-espace vectoriel et un R-espace vectoriel.

1.1.3 Règles de calcul dans un espace vectoriel


Proposition 1.1.2. Soit E un K-espace vectoriel. Pour tout couple (x, y) de vecteurs de E et pour tout couple
(λ, µ) de scalaires de K, on a les résultats suivants :
(i) l’opposé de x est unique ; on peut donc le noter −x ; on note x − y pour désigner x + (−y) ;
(ii) λ(x − y) = λx − λy ;
(iii) λ.x = 0E ⇐⇒ λ = 0 ou x = 0E ;

6
CHAPITRE 1. ESPACES VECTORIELS

(iv)) (λ − µ).x = λ.x − µ.x.

 Question 2. Démontrer ces propriétés.

On retiendra donc que dans un espace vectoriel, on peut effectuer les calculs selon les mêmes règles que celles
utilisées pour manipuler les vecteurs du plan ou de l’espace.

1.2 Sous-espace vectoriel


Définition 1.2.1. Soient E un K-espace vectoriel, et F une partie de E ; on dit que F est un sous-espace
vectoriel de E si :
(i) F est non vide ;
(ii) F est stable pour l’addition, i.e., pour tout couple (x, y) de vecteurs de F , le vecteur x + y appartient
encore à F ;
(iii) F est stable pour la multiplication externe, i.e. pour tout vecteur x de F et pour tout scalaire λ de K,
le vecteur λx appartient à F .

Remarques. 1) un sous-espace vectoriel est un espace vectoriel.


2) Si E est un K-espace vectoriel, {0E } et E sont des sous-espaces vectoriels de E, dits triviaux.
3) Souvent, pour montrer qu’une partie est un espace vectoriel, on essaie de démontrer que c’est un sous-
espace vectoriel d’un espace vectoriel connu (l’un des espaces vectoriels de référence, listés dans le paragraphe
précédent).
4) Soient E un K-espace vectoriel non réduit à {0E }, et u est un vecteur non nul de E. Alors l’ensemble
Ku = {λ.u, λ ∈ K} des vecteurs de E colinéaires à u est appelé la droite vectorielle engendrée par u.
5) L’ensemble des polynômes de degré inférieur ou égal à n (n ∈ N) est un sous-espace vectoriel du K-espace
vectoriel K[X]. On le note Kn [X].
6) Soient E un K-espace vectoriel et F une partie de E. Alors F est un sous-espace vectoriel si et seulement
si F muni des lois de E (addition et multiplication externe) restreintes à F a lui-même une structure d’espace
vectoriel.
8) Soient E un K-espace vectoriel et F une partie de E. Alors F est un sous-espace vectoriel si et seulement si :
(i) F est non vide ;
(ii) ∀ (x, y) ∈ F , ∀ λ ∈ K, le vecteur λ.x + y appartient à F .

Exercice 1. La lettre K désigne Q, R ou C. Soient (a, b, c, d) ∈ K4 , (α, β) ∈ R2 , et (m, n) ∈ N2 .


Parmi les ensembles suivants, dire lesquels sont des espaces vectoriels :
E1 = {(ax + by, cx + dy); (x, y) ∈ K2 } ; E8 = l’ensemble des suites de réels convergentes ;
E2 = {(x, y) ∈ K2 | ax + by = 1} ; E9 = l’ensemble des suites de réels divergentes ;
E3 = {(x, y) ∈ K2 | ax + by = 0 et cx + dy = 0} ; E10 = {(un )n∈N ∈ KN | ∀ n ∈ N, un+2 = aun+1 + bun } ;
E4 = {P ∈ K[X] | P (1) = 0} ; E11 = {f : R −→ R | f est 2π − périodique} ;
E5 = {P ∈ K[X] | P (0) = 1} ; E12 = {f : R −→ R | f ∈ D2 (R, R) et f 00 + αf 0 + βf = 0} ;
E6 = {P ∈ K[X] | deg(P ) 6 m} ; E13 = {f : R −→ R | f est croissante sur R}.
E7 = {P ∈ K[X] | deg(P ) = m} ; E14 = Z.
Proposition 1.2.2 (intersection de sous-espaces vectoriels). Soit E un K−espace vectoriel. Une intersection
(quelconque) de sous-espaces vectoriels de E est encore un sous-espace vectoriel de E.

7
1.3. FAMILLES DE VECTEURS

 Question 3. Démontrer cette proposition.


B Attention : en général, une réunion de sous-espaces vectoriels n’est pas un sous-espace vectoriel. Voir à ce
sujet l’exercice ci-dessous.
Exercice 2. ? Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E. Montrer que F ∪ G
est un sous-espace vectoriel si et seulement si on a F ⊂ G ou G ⊂ F .

1.3 Familles de vecteurs


1.3.1 Combinaison linéaire
Définition 1.3.1. Soit n un entier naturel non nul. Soit (u1 , . . . , un ) une famille (finie) de vecteurs d’un K-
espace vectoriel E. On appelle combinaison linéaire des vecteurs u1 , . . . , un tout vecteur de E pouvant s’écrire
Xn
sous la forme λi ui , où λ1 , . . . , λn sont des scalaires de K.
i=1

Exemples. 1) Si E est un K-espace vectoriel non réduit à {0E }, l’ensemble des combinaisons linéaires d’un
vecteur u non nul de E est la droite vectorielle engendrée par u.
2) Tout vecteur (x, y) ∈ R2 est combinaison linéaire des deux vecteurs (1, 0) et (0, 1).
3) Tout polynôme P de K[X] est combinaison linéaire des polynômes 1, X, . . . , X n , où n > deg P.

1.3.2 Famille génératrice


Définition 1.3.2. Soit (u1 , . . . , un ) une famille finie de vecteurs d’un K-espace vectoriel E ; on dit que c’est une
famille génératrice de E si tout vecteur de E peut s’écrire comme combinaison linéaire des vecteurs u1 , . . . , un .
Exemples. 1) Si u est un vecteur non nul d’un K-espace vectoriel E, tout vecteur non nul colinéaire à u est
générateur de la droite vectorielle Ku.
2) La famille (1, X, . . . , X n ) est génératrice du K-espace vectoriel Kn [X] ; elle n’est pas génératrice de l’espace
Kn+1 [X].
3) La formule de Taylor pour les polynômes (voir la feuille d’exercices 2) montre que pour tout a ∈ K, la famille
(1, X − a, (X − a)2 , . . . , (X − a)n ) est génératrice de Kn [X].

1.3.3 Famille libre – famille liée


Définition 1.3.3. Soit (u1 , . . . , un ) une famille de vecteurs d’un K-espace vectoriel E ; on dit qu’elle est libre
si la seule combinaison linéaire nulle de ces n vecteurs est la combinaison où tous les coefficients scalaires sont
nuls, i.e., !
X n
n
∀ (λ1 , . . . , λn ) ∈ K , λi ui = 0 =⇒ ∀i ∈ {1, . . . , n}, λi = 0 .
i=1
n
X
La famille est dite liée dans le cas contraire, i.e., il existe n scalaires non tous nuls tels que λi ui = 0.
i=1

Remarque importante. Deux vecteurs d’un K-espace vectoriel E sont liés si et seulement si ils sont colinéaires.
Ce résultat n’est plus vrai s’il y a plus de deux vecteurs. (Rappelons que deux vecteurs u et v d’un K-espace
vectoriel E sont dits colinéaires s’il existe un scalaire λ de K tel que u = λv ou v = λu.)

8
CHAPITRE 1. ESPACES VECTORIELS

 Question 4. Dessiner trois vecteurs deux à deux non colinéaires de R2 (qui forment nécessairement une
famille liée).

Exemples. 1) La famille (1, X, . . . , X n ) est libre dans K[X].


2) La famille (X, X − 1, 2X + 3) est liée puisque −5X + 3(X − 1) + (2X + 3) = 0.

 Question 5. Examiner si la famille (u = (1, 1, 1), v = (2, 1, 3), w = (1, 2, 3)) est libre dans R3 .

Proposition 1.3.4. (i) Toute famille extraite d’une famille libre est libre.
(ii) Toute famille contenant une famille liée est liée.
(iii) Toute famille contenant le vecteur nul est liée.
(iv) Toute famille réduite à un unique vecteur non nul est libre

 Question 6. Vérifier ces propriétés.

Proposition 1.3.5. Une famille de vecteurs (u1 , . . . , un ) d’un K-espace vectoriel E est liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres, i.e., il existe i ∈ {1, . . . , n} tel que ui est combinaison
linéaire des uk pour k ∈ {1, . . . , n} r {i}.

 Question 7. Démontrer cette proposition.

B Attention : lorsqu’une famille est liée, tout vecteur n’est pas nécessairement combinaison linéaire des
autres ; on sait simplement que l’un (au moins) d’entre eux est combinaison linéaire des autres.
Illustration.

Exercice 3. La famille de vecteurs (x = (1, 2, 3, 4), y = (2, 1, 3, 4), z = (0, 1, 6, 8), t = (0, 1, 3, 4)) est-elle libre
dans R4 ?

Exercice 4. Montrer qu’une famille finie de polynômes non nuls, de degrés deux à deux distincts, est libre.
On pourra réutiliser ce résultat sans le redémontrer quand on en aura besoin : « une famille de polynômes
non nuls échelonnée en degrés est libre ».

Exercice 5. Soit E le R-espace vectoriel des suites réelles. Soient a, b, c, d les suites de E définies par :

∀ n ∈ N, an = (−1)n , bn = 1, cn = n, dn = 2n .

Montrer que la famille (a, b, c, d) est libre dans E.

Exercice 6. ? Soient E le R-espace vectoriel des fonctions de ]0, 1[ dans C, n un entier naturel non nul, et
a1 , . . . , an des nombres réels deux à deux distincts de ]0, 1[. Pour tout k ∈ {1, . . . , n}, on pose :
1
fk : ]0, 1[ −→ R, x 7−→ .
1 − ak x
Montrer que la famille (f1 , . . . , fn ) est libre dans E.

1.3.4 Bases
Définition 1.3.6. Soit E un K-espace vectoriel. On dit qu’une famille finie (u1 , . . . , un ) de vecteurs de E est
une base de E si cette famille est à la fois libre et génératrice.

9
1.4. SOUS-ESPACE VECTORIEL ENGENDRÉ PAR UNE FAMILLE FINIE DE VECTEURS

Remarque. Si un K-espace vectoriel admet une base, celle-ci n’est pas unique. Par exemple, tout réel non nul
constitue une base du R-espace vectoriel R.

Proposition 1.3.7. Soient E un K-espace vectoriel, et (u1 , . . . , un ) une famille de vecteurs de E. Alors la
famille (u1 , . . . , un ) est une base de E si et seulement si tout vecteur de E peut s’écrire de façon unique comme
combinaison linéaire des vecteurs de la famille (u1 , . . . , un ).

Autrement dit, la famille de vecteurs (u1 , . . . , un ) est une base de E si et seulement si l’application

Kn −→ E
(λ1 , . . . , λn ) 7−→ λ1 u1 + · · · + λn un .

est bijective.

 Question 8. Démontrer cette proposition.

Exemples très importants. 1) Soit n un entier naturel non nul ; pour tout entier i compris entre 1 et n,
posons : ui = (0, . . . , 0, 1, 0, . . . , 0), où le “1” est en ième position. La famille (u1 , . . . , un ) est clairement une
base de Kn , appelée base canonique de Kn .
2) La famille (1, X, . . . , X n ) est une base de Kn [X], appelée la base canonique de Kn [X].
3) Aucune famille finie de vecteurs de K[X] n’est génératrice de K[X] (il suffit de penser au degré) ; par
conséquent, K[X] n’admet pas de base comportant un nombre fini de vecteurs.

1.4 Sous-espace vectoriel engendré par une famille finie de vecteurs


Étant donné une famille de vecteurs d’un K-espace vectoriel E, on cherche à décrire le plus petit sous-espace
vectoriel de E contenant ce système.

Théorème-Définition 1.4.1. Soit (u1 , . . . , un ) une famille de vecteurs d’un K-espace vectoriel E ; l’ensemble
des combinaisons linéaires des vecteurs de ce système est un sous-espace vectoriel de E, appelé le sous-espace vec-
toriel engendré par le système (u1 , . . . , un ) ; on le note Vect(u1 , . . . , un ). Par convention, on pose Vect(∅) =
{0E }.

 Question 9. Démontrer ce résultat.

Proposition 1.4.1. Vect(u1 , . . . , un ) est l’intersection de tous les sous-espaces vectoriels de E contenant les
vecteurs u1 , . . . , un . C’est donc le plus petit sous-espace vectoriel de E contenant u1 , . . . , un .

 Question 10. Démontrer cette proposition.

Le résultat suivant est évident :

Proposition 1.4.2. Soit E un K-espace vectoriel.


(i) Si (u1 , . . . , un ) est un système libre de E, alors c’est une base du sous-espace vectoriel Vect(u1 , . . . , un ).
(ii) Si u ∈ Vect(u1 , . . . , un ), alors Vect(u1 , . . . , un , u) = Vect(u1 , . . . , un ).

Remarques. 1) Pour trouver une base d’un espace vectoriel Vect(u1 , . . . , un ), on regarde si la famille (u1 , . . . , un )
est libre. Si elle ne l’est pas, on écrit l’un des vecteurs comme combinaison linéaire des autres, puis on le supprime
etc. Ce procédé est important.

10
CHAPITRE 1. ESPACES VECTORIELS

2) On a vu plus haut que, par définition, une droite vectorielle est un sous-espace vectoriel engendré par un
vecteur non nul. On définit un plan vectoriel comme étant un sous-espace vectoriel engendré par deux vecteurs
non coliénaires.

Exercice 7. Montrer que, dans R3 , les vecteurs x = (2, 3, −1) et y = (1, −1, −2) engendrent le même sous-
espace vectoriel que les vecteurs u = (3, 7, 0) et v = (5, 0, −7).

Exercice 8. Dans les notations de l’exercice 3, donner une base de Vect(x, y, z, t).

Exercice 9. Déterminer une base de chacun des sous-espaces vectoriels suivants de R3 :


1) {(x, y, z) ∈ R3 | x − 3y = 0} ;
2) {(x, y, z) ∈ R3 | x − 3y = 0 et x + y + 2z = 0} ;
3) {(x, y, z) ∈ R3 | x − 3y = 0 et x + y + 2z = 0 et 2y + z = 0}.

Exercice 10. Soit E le R-espace vectoriel des fonctions de R dans R. On définit les fonctions f, g, h et k de E
par :
∀ x ∈ R, f (x) = sin x, g(x) = cos x, h(x) = sin 2x, k(x) = sin x + cos x.
Déterminer une base de Vect(f, g, h, k).

1.5 Somme de sous-espaces vectoriels


1.5.1 Somme de deux sous-espaces vectoriels
Définition 1.5.1. Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. On appelle somme
des deux sous-espaces F et G, et on note F + G, l’ensemble des vecteurs qui s’écrivent comme somme d’un
vecteur de F et d’un vecteur de G ; autrement dit, on a :

F + G = {x + y, x ∈ F, y ∈ G}.

B Attention à ne pas confondre la réunion F ∪ G (qui n’est pas un sous-espace vectoriel si F 6⊂ G et G 6⊂ F ;


voir à ce sujet l’exercice 2) et la somme F + G (qui est un sous-espace vectoriel, « beaucoup plus gros » que
l’ensemble F ∪ G).

 Question 11. 1) Vérifier que la somme de deux sous-espaces vectoriels de E est encore un sous-espace
vectoriel de E.
2) Quelle est la somme de deux droites vectorielles de l’espace R3 ? La somme d’une droite et d’un plan vectoriel ?

Définition 1.5.2. Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E. On dit que les
deux sous-espaces F et G sont en somme directe si tout vecteur du sous-espace somme F + G peut s’écrire
de façon unique comme somme d’un vecteur de F et d’un vecteur de G.

Proposition 1.5.3. Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E. Alors F et G sont
en somme directe si et seulement si leur intersection F ∩ G est réduite à {0E }. On note dans ce cas F ⊕ G la
somme de F et G.

 Question 12. 1) Démontrer cette proposition.


2) Quels sont les couples (F, G) de sous-espaces vectoriels en somme directe dans R3 ?

11
1.5. SOMME DE SOUS-ESPACES VECTORIELS

1.5.2 Sous-espaces supplémentaires


Définition 1.5.4. Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E. On dit que deux
sous-espaces vectoriels F et G de E sont supplémentaires dans E si et seulement si :
(i) F + G = E ;
(ii) F et G sont en somme directe.

On a donc dans ce cas : F ⊕ G = E.

B Attention aux deux erreurs courantes à propos des supplémentaires.


1) Ne pas confondre « supplémentaire » avec « complémentaire ».
2) En général, un sous-espace vectoriel admet plusieurs supplémentaires. Autrement dit on ne pas « le » sup-
plémentaire mais « un » supplémentaire.

Exercice 11 (description exhaustive des supplémentaires d’un sous-espace vectoriel dans des cas simples).
1) Décrire tous les couples (F, G) de sous-espaces supplémentaires dans R3 .
2) On considère l’espace vectoriel E = Kn [X] et le sous-espace vectoriel F = Kn−1 [X]. Décrire tous les supplé-
mentaires de F dans E.

Exercice 12. Soient E le R-espace vectoriel des fonctions de R dans R, P le sous-ensemble de E constitué
des fonctions paires et I le sous-ensemble de E formé des fonctions impaires. Montrer que P et I sont des
sous-espaces vectoriels de E, supplémentaires dans E.

Exercice 13. Soient E1 = {P ∈ K[X] | P (1) = 0} et E1 = {P ∈ K[X] | P (2) = 0}.


1) Montrer qu’on a K[X] = E1 + E2 .
2) Les sous-espaces E1 et E2 sont-ils supplémentaires ?

12
Chapitre 2

Applications linéaires

La lettre K désigne Q, R ou C.

2.1 Généralités
Définition 2.1.1. Soient E et F deux K-espace vectoriels, et f une application de E dans F . On dit que f est
linéaire si pour tous vecteurs x, y ∈ E et tout scalaire λ de K, on a

f (x + y) = f (x) + f (y) et f (λx) = λf (x).

Ceci équivaut à dire : pour tous x, y de E, pour tout λ de K,

f (λx + y) = λf (x) + f (y).

• Si f est linéaire et si E = F , on dit que f est un endomorphisme.


• Si f est linéaire bijective de E sur F , on dit que f est un isomorphisme.
• On dit d’une application que c’est un automorphisme si c’est à la fois un endomorphisme et un isomor-
phisme.
• On dit d’une application linéaire de E dans K que c’est une forme linéaire.
On note L(E, F ) l’ensemble des applications linéaires de E dans F , L(E) l’ensemble des endomorphismes de
E, GL(E) l’ensemble des automorphismes de E.

Exemples. 1) si E et F sont deux K-espaces vectoriels, l’application nulle (qui à tout vecteur de E associe 0F )
est linéaire.
2) Si E est un K-espace vectoriel, l’application identité de E, notée IdE (qui à tout vecteur de E associe
lui-même) est un endomorphisme de E.
3) Plus généralement, si E est un K-espace vectoriel et si a est un élément de K, alors l’application x 7−→ ax
de E dans lui-même est linéaire. C’est donc un endomorphisme de E, appelé homothétie vectorielle. Il est
clair qu’une telle homothétie est un automorphisme si et seulement si a est non nul.

 Question 13. Donner des exemples d’applications linéaires (dans des espaces vectoriels variés).

13
2.2. OPÉRATIONS SUR LES APPLICATIONS LINÉAIRES

Remarques. Bien entendu, si f est linéaire de E dans F , si x1 , . . . , xn sont des vecteurs de E, et λ1 , . . . , λn


des scalaires de K, alors on a, en itérant la propriété de la définition :

f (λ1 x1 + · · · + λn xn ) = λ1 f (x1 ) + · · · + λn f (xn ).

 Question 14. Déterminer toutes les applications linéaires ; 1) de K dans K ; 2) de K dans K2 ; 3) de


K2 dans K ; 4) de K2 dans K2 .

Exercice 14. Soient E un K-espace vectoriel et f un endomorphisme de E tel que pour tout vecteur x de E,
les vecteurs x et f (x) soient colinéaires. Ainsi, pour tout vecteur non nul x de E, il existe un unique scalaire λx
tel que f (x) = λx x.
1) On suppose l’espace E non réduit à {0E }. Soient x et y deux vecteurs non nuls de E. Montrer qu’on a
λx = λy . (Indication. On pourra penser à utiliser le vecteur x + y lorsque x et y ne sont pas colinéaires.)
2) En déduire que f est une homothétie, c’est-à-dire qu’il existe un scalaire λ tel que pour tout vecteur x ∈ E,
on ait f (x) = λx.

Proposition 2.1.2. Soient E et F deux K-espaces vectoriels. Soit f une application linéaire de E dans F . On
a alors les résultats suivants :
(i) f (0E ) = 0F .
(ii) L’image par f d’un sous-espace vectoriel de E est un sous-espace vectoriel de F .
(iii) L’image réciproque par f d’un sous-espace vectoriel de F est un sous-espace vectoriel de E.

Proposition 2.1.3. Soient E et F deux K-espaces vectoriels et f un isomorphisme de E sur F . Alors la


bijection réciproque f −1 est une application linéaire de F sur E.

 Question 15. Démontrer ces propositions.

2.2 Opérations sur les applications linéaires


2.2.1 Structure d’espace vectoriel de L(E, F )
Soient E et F deux K-espaces vectoriels. Si f et g sont deux éléments de L(E, F ), on définit f + g par :

f +g : E −→ F
x 7−→ f (x) + g(x).

Si f est un élément de L(E, F ) et λ un élément de K, on définit λf par :

λf : E −→ F
x 7−→ λf (x).

On vérifie aisément le résultat suivant :

Proposition 2.2.1. Soient E et F deux K-espaces vectoriels. Muni de ces opérations (addition et multiplication
externe), l’ensemble L(E, F ) possède une structure de K-espace vectoriel.

B Attention : lorsque E n’est pas réduit à {0E }, GL(E) n’est pas un sous-espace vectoriel de L(E). En effet,
l’endomorphisme nul n’est pas bijectif.

14
CHAPITRE 2. APPLICATIONS LINÉAIRES

2.2.2 Composition des applications linéaires


Les résultats suivants se vérifient immédiatement :

Proposition 2.2.2. Soient E, F, G trois K-espaces vectoriels. Soient f1 , f2 et f des applications linéaires de E
dans F , g1 , g2 et g des applications linéaires de F dans G. Alors :
(i) g ◦ (f1 + f2 ) = g ◦ f1 + g ◦ f2 (découle de la linéarité de g) ;
(ii) (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f (découle de la définition de la somme de deux applications linéaires).

2.2.3 Cas particulier de L(E)


Soit E un K-espace vectoriel. On peut toujours composer deux endomorphismes de E ; en particulier, on
peut définir pour tout endomorphisme f et tout entier naturel k l’endomorphisme f k par :

si k = 0, f 0 = IdE ; si p > 1, f k = f k−1 ◦ f = f ◦ f ◦ · · · ◦ f.


| {z }
k fois

Si P = a0 + a1 X + · · · + an X n est un polynôme de K[X], l’endomorphisme a0 IdE + a1 f + · · · + an f n est noté


P (f ).

On peut vérifier que pour tout endomorphismes f et tous polynômes P et Q, on a (P Q)(f ) = P (f ) ◦ Q(f ).

Proposition 2.2.3 (binôme de Newton). Si f et g sont deux endomorphismes de E qui commutent (c’est-à-
dire qui vérifient f ◦ g = g ◦ f ), on a :
n
!
n
X n
(f + g) = f k g n−k .
k=0
k

La démonstration est la même que celle de la formule du binôme pour les nombres réels ou complexes. . .
B Attention : si f ◦ g 6= g ◦ f , alors cette relation n’est plus vraie (on a alors, pour n = 2, (f + g)2 6=
f 2 + 2f ◦ g + g 2 ).

Exercice 15. Soient E un K-espace vectoriel, p un entier naturel non nul et f un endomorphisme de E.
1) On suppose que l’endomorphisme f est nilpotent, c’est-à-dire qu’il existe un entier p > 1 tel que l’endomor-
phisme f p soit nul. Calculer
(IdE − f ) ◦ (IdE + f + f 2 + · · · + f p−1 ).

En déduire que l’endomorphisme IdE − f est un automorphisme et expliciter sa bijection réciproque.


2) Application. L’espace E est maintenant le K-espace vectoriel Kn [X]. On note D l’application « dérivation »
de E dans E, qui à tout polynôme P de E associe son polynôme dérivé P 0 . On pose également

ϕ : E −→ E
P 7−→ P − P 0 .

a) Montrer que ϕ est un automorphisme de E.


b) En déduire que l’équation différentielle y 0 − y = x3 − 3x2 + 7x − 2 admet une unique solution y polynomiale
de degré 3.

15
2.3. IMAGE ET NOYAU

2.3 Image et noyau


2.3.1 Image
Définition 2.3.1. Soient E et F deux K-espaces vectoriels, et f une application linéaire de E dans F . Le
sous-espace vectoriel f (E) est appelé l’image de l’application f , et est noté Im f .
En particulier, f (linéaire) est surjective si et seulement si Im f =F .

2.3.2 Noyau
Définition 2.3.2. Soient E et F deux K-espaces vectoriels, et f une application linéaire. Le sous-espace vectoriel
f −1 ({0F }) de E est appelé le noyau de f ; on le note Ker f (“der Kern” signifie ”le noyau” en allemand). On
a
Ker f = {x ∈ E | f (x) = 0F }.
Exercice 16. ? Pour tout k ∈ N, on note X k l’application de R dans R qui à x associe xk . Soient n ∈ N et
ϕ : C∞ (R, R) −→ C∞ (R, R)
n
X f (k) (0) k
f 7−→ f− X .
k!
k=0

Montrer que l’application ϕ est un endomorphisme de l’espace vectoriel C∞ (R, R) et déterminer son noyau.
Exercice 17. On considère l’application
f : K[X] −→ K[X]
P 7−→ P (X + 1) − P (X).
1) Montrer que f est un endomorphisme de K[X].
2) a) Déterminer le degré du polynôme f (X k ), pour tout k ∈ N.
b) En déduire que, pour tout p ∈ N, le sous-espace Im f contient au moins un polynôme de degré p.
c) En déduire l’image de l’endomorphisme f .
3) Déterminer le noyau de f .
Exercice 18. Soient E un K-espace vectoriel, f et g deux endomorphismes de E. On dit qu’un sous-espace
vectoriel F de E est stable par l’endomorphisme g si on a g(F ) ⊂ F , autrement dit si pour tout vecteur x
appartenant à F , son image g(x) appartient encore à F .
On suppose que les endomorphismes f et g commutent, c’est-à-dire f ◦g = g ◦f . Montrer que les sous-espaces
ker f et Im f sont stables par g.
Lorsqu’une application f est linéaire, connaître son noyau permet en particulier de savoir si f est injective,
comme l’énonce la proposition suisvante :
Proposition 2.3.3. Soient E et F deux K-espaces vectoriels, et f une application linéaire de E dans F . Alors
f est injective si et seulement si Ker f = {0E }.
 Question 16. Démontrer cette proposition.
 Question 17. Dans l’espace vectoriel K[X] des polynômes, trouver :
1) un endomorphisme surjectif et non injectif :
2) un endomorphisme injectif et non surjectif.

16
CHAPITRE 2. APPLICATIONS LINÉAIRES

2.4 Applications linéaires et systèmes de vecteurs


Proposition 2.4.1. Soient E et F deux K-espaces vectoriels, et f une application linéaire de E dans F . Soit
(u1 , . . . , un ) une famille de vecteurs de E (p ∈ N∗ ).
(i) Si (u1 , . . . , un ) est liée, alors (f (u1 ), . . . , f (un )) est liée.
(ii) Si (f (u1 ), . . . , f (un )) est libre, alors (u1 , . . . , un ) est libre.
(iii) Si (u1 , . . . , un ) est libre et f injective, alors (f (u1 ), . . . , f (un )) est libre.
(iv) f (Vect(u1 , . . . , un )) = Vect(f (u1 ), . . . , f (un )). En particulier, si (u1 , . . . , un ) est une famille génératrice
de E, alors la famille (f (u1 ), . . . , f (un )) est génératrice de Im f .
(v) Si (u1 , . . . , un ) est une base de E et si f est un isomorphisme, alors (f (u1 ), . . . , f (un )) est une base de
F.
B Attention : si l’application f n’est pas injective, l’image par f d’une famille libre n’est pas nécessairement
un système libre. Par exemple, si u est un vecteur non nul du noyau de f , alors la famille (u) est libre, mais
(f (u)) = (0F ) est lié.
 Question 18. Démontrer cette proposition.

2.5 Projections et symétries


Définition 2.5.1. Soit E un K-espace vectoriel. Soient F et G deux sous-espaces vectoriels supplémentaires
dans E ; on a donc E = F ⊕ G. Par définition, pour tout vecteur x de E, il existe un unique couple (xF , xG ) de
vecteurs de F × G tel que x = xF + xG . On appelle projecteur sur F parallèlement à G l’application
p : E −→ E
x = xF + xG 7−→ xF .
Illustration.
Exemple : l’application de R2 dans lui-même qui à tout vecteur (x, y) associe (x, 0) est le projecteur sur R×{0}
parallèlement à {0} × R.
Proposition 2.5.2. Soient E un K-espace vectoriel, F et G deux sous-espaces de E supplémentaires. Soit p le
projecteur sur F parallèlement à G. Alors :
(i) p est un endomorphisme de E ;
(ii) F = {x ∈ E | p(x) = x} = Im p ;
(iii) G = ker p.
On a donc en particulier ker p ⊕ Im p = E.
Exercice 19. Soit
p : R2 −→ R2
(x, y) 7−→ (3x − y, 6x − 2y).
Déterminer une base de ker p et de Im p. Montrer que p est un projecteur de R2 .
 Question 19. Soit E un K-espace vectoriel.
1) Soit f un endomorphisme de E. La somme ker f + Im f est-elle nécessairement directe ?
2) Soient F et G deux sous-espaces de E supplémentaires. Un endomorphisme f de E d’image F et de noyau
G est-il nécessairement égal à le projecteur sur F parallèlement à G ?

17
2.5. PROJECTIONS ET SYMÉTRIES

Proposition 2.5.3 (caractérisation des projections). Soient E un K-espace vectoriel, et p un endomorphisme


de E. Les conditions suivantes sont équivalentes :
(i) p est un projecteur ;
(ii) p ◦ p = p.

 Question 20. Démontrer cette proposition.

Définition 2.5.4. Soit E un K-espace vectoriel. On suppose que F et G sont deux sous-espaces vectoriels
supplémentaires de E. Ainsi, tout vecteur x de E s’écrit de façon unique x = xF + xG , où xF est un vecteur
de F et xG un vecteur de G. On appelle symétrie par rapport à F parallèlement à G l’application qui à
x = xF + xG associe xF − xG .
Autrement dit, s est la symétrie par rapport à F parallèlement à G si et seulement si on a s(x) = 2xF − x
pour tout x ∈ E, donc si et seulement si s = 2p − IdE , où p est le projecteur sur F parallèlement à G. On en
déduit en particulier qu’une symétrie est un endomorphisme de E.

Illustration.

18
Chapitre 3

Dimension finie

3.1 Dimension d’un espace vectoriel


Définition 3.1.1. Soit E un K-espace vectoriel. On dit que E est de dimension finie s’il admet une famille
génératrice finie. On dit que E est de dimension infinie dans le cas contraire.

 Question 21. Citer des espaces vectoriels de dimension finie et des espaces de dimension infinies (ces exemples
seront importants).
Solutions. Quelques exemples :
1) Kn (n ∈ N∗ ) est un K-espace vectoriel de dimension finie, puisqu’on a vu qu’il admettait des bases comportant
un nombre fini de vecteurs (par exemple la base canonique).
2) Kn [X] est un K-espace vectoriel de dimension finie (pour les mêmes raisons).
3) K[X] n’est pas de dimension finie ; en effet, s’il admettait une famille génératrice (P1 , . . . , Pn ), alors tout
polynôme de K[X] serait de degré au plus max(deg P1 , . . . , deg Pn ), ce qui est absurde.

Plusieurs questions se posent : existe-t-il toujours des bases dans les K-espaces vectoriels de dimension finie ? si
oui, ces bases ont-elles toutes même cardinal ?
On admet la proposition suivante (un petit peu délicate à démontrer) :

Proposition 3.1.2. Soit E un K-espace vectoriel de dimension finie. Soient L une famille libre et G une famille
génératrice (finie) de E. Alors on a : Card(L) 6 Card(G).

Exercice 20. ? Justifier que l’espace KN des suites à coefficients dans K est un K-espace vectoriel de dimension
infinie. (Indication. Exhiber une famille libre de KN de cardinal infini.)

Le théorème suivant est fondamental :

Théorème-Définition 3.1.1. Soit E un K-espace vectoriel de dimension finie, non réduit à {0E }. Alors :
(i) E admet au moins une base ;
(ii) toutes les bases de E ont même cardinal, qu’on appelle dimension de E, et que l’on note dim E.
Par convention, on pose dim({0E }) = 0.

Vocabulaire. Dans le cours, on a appelé droite vectorielle tout sous-espace vectoriel engendré par un vecteur
non nul ; de façon équivalente, on peut dire qu’une droite vectorielle est un espace vectoriel de dimension 1.

19
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE

On a défini un plan vectoriel comme étant un espace vectoriel engendré par deux vecteurs non colinéaires ;
de façon équivalente, on peut dire qu’un plan vectoriel est un espace vectoriel de dimension 2.

 Question 22. Citer une base de chacun des espaces vectoriels de dimension finie répertoriés à l’exercice 21.
En déduire leur dimension.

 Question 23. Démontrer ce théorème.

B Attention : un K-espace vectoriel de dimension finie non réduit à {0E } n’admet pas une seule base mais
une infinité. Par exemple, tout réel non nul constitue une base du R-espace vectoriel R.

Proposition 3.1.3. Soit E un K-espace vectoriel de dimension finie n. Alors :


(i) toute famille libre de E comporte au plus n vecteurs ;
(i)0 toute famille comportant au moins n + 1 vecteurs est liée ;
(ii) toute famille génératrice de E comporte au moins n vecteurs ;
(iii) toute famille libre comportant n vecteurs de E est une base de E ;
(iv) toute famille génératrice comportant n vecteurs de E est une base de E.

 Question 24. Démontrer cette proposition.

Exercice 21. Soient a, b, c, d quatre éléments de K. Montrer que les vecteurs u = (a, b) et v = (c, d) forment
une base de K2 si et seulement si ad − bc 6= 0.

Exercice 22. Soit n ∈ N∗ . Pour tout k ∈ {0, . . . , n}, on suppose que Pk est un polynôme à coefficients dans K
de degré k. Justifier que (P0 , . . . , Pn ) est une base de Kn [X].

Exercice 23 (polynômes de Lagrange). ?


Joseph Louis, comte de Lagrange (en italien Giuseppe Lodovico de Lagrangia), né à Turin le 25 janvier 1736 et
mort à Paris le 10 avril 1813, est un mathématicien, mécanicien et astronome. Italien, mais de famille française par
son arrière-grand-père, il passa trente ans dans le Piémont, puis vingt-et-un ans à Berlin, et le restant de ses jours
à Paris.

Soient α0 , . . . , αn n + 1 réels deux à deux distincts.


1) Montrer que pour tout k ∈ {0, . . . , n}, il existe un unique polynôme Lk de Rn [X] tel que pour tout i ∈
{0, . . . , n}, on ait : (
Lk (αi ) = 0 si i 6= k;
Lk (αk ) = 1.
2) Donner l’allure des courbes représentatives des polynômes L0 , L1 , L2 , L3 lorsque n = 3.
3) Montrer que (L0 , L1 , . . . , Ln ) est une base de Rn [X].
4) Soit P un polynôme de Rn [X] ; donner sa décomposition dans la base (L0 , L1 , . . . , Ln ).

3.2 Sous-espaces vectoriels d’un espace vectoriel de dimension finie


3.2.1 Dimension d’un sous-espace vectoriel d’un espace de dimension finie
Proposition 3.2.1. Soient E un K-espace vectoriel de dimension finie n, et F un sous-espace vectoriel de E.
Alors F est un K-espace vectoriel de dimension finie, et on a dim F 6 dim E.

20
CHAPITRE 3. DIMENSION FINIE

 Question 25. Démontrer cette proposition.

 Question 26. Un K-espace vectoriel de dimension 17 contient-il nécessairement un sous-espace vectoriel de


dimension 9 ?

3.2.2 Sommes directes de sous-espaces vectoriels


Proposition 3.2.2. On suppose que E est un espace vectoriel de dimension finie non nulle, F et G deux
sous-espaces vectoriels de E non réduits à {0E }. Soient (f1 , . . . , fp ) une base de F , et (g1 , . . . , gq ) une base de
G. Alors :
(i) les sous-espaces F et G sont en somme directe si et seulement si la famille (f1 , . . . , fp , g1 , . . . , gq ) est
libre ;
(ii) on a F + G = E si et seulement si la famille (f1 , . . . , fp , g1 , . . . , gq ) est génératrice de E ;
(iii) les sous-espaces F et G sont supplémentaires dans E si et seulement si la famille (f1 , . . . , fp , g1 , . . . , gq )
est une base de E.

Vocabulaire. Dans le cas 3), on dit que la base B = (f1 , . . . , fp , g1 , . . . , gq ) de E est adaptée à la décomposition
F ⊕ G = E.

Théorème 3.2.3. Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de
E. Alors :
(i) la somme F + G est directe si et seulement si on a F ∩ G = {0E } ;
(ii) F et G sont supplémentaires dans E si et seulement si on a
(
F ∩ G = {0E }
dim F + dim G = dim E.

Exercice 24. On considère le système (S) donné par :


(
x+y−z+t = 0
(S) =
z + 2t = 0.

Montrer que l’ensemble des solutions du système (S) est un plan de R4 et déterminer une base de ce plan.

Exercice 25. Soient


F = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − x2 + x3 − x4 = 0}
et G = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − x2 = 0 et x3 − x4 = 0}
1) Montrer que F est un sous-espace vectoriel de R4 et en donner une base. Donner un supplémentaire de F .
2) Mêmes questions pour G.

Exercice 26. Dans R4 , soient u = (1, 0, 1, 0), v = (0, 1, −1, 0), w = (1, 1, 1, 1), x = (0, 0, 1, 0), y = (1, 1, 0, −1),
F = Vect(u, v, w), et G = Vect(x, y). Déterminer la dimension et une base de chacun des sous-espaces vectoriels
F , G, F + G, F ∩ G. Donner un supplémentaire de chacun de ces sous-espaces.

Exercice 27. Soit D la droite vectorielle engendrée par le vecteur (1, 1, . . . , 1) de Kn , et soit

H = {(x1 , x2 , . . . , xn ) ∈ Kn | x1 + x2 + · · · + xn = 0}.

Vérifier : D ⊕ H = Kn .

21
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE

Exercice 28. Soient n > 2 et H l’ensemble des polynômes P de Kn [X] tels que P (1) = 0. Montrer que H est
un sous-espace vectoriel de Kn [X], donner sa dimension et en donner un supplémentaire.

Théorème 3.2.4 (Théorème de la base incomplète). Soit E un K-espace vectoriel de dimension finie n > 1.
Soit (u1 , . . . , up ) une famille libre de vecteurs de E (en particulier, on a 1 6 p 6 n). Alors Il existe n − p
vecteurs de E notée up+1 , . . . , un tels que la famille (u1 , . . . , up , . . . , u, n) soit une base de E ;

Corollaire 3.2.5. Soient E un K-espace vectoriel de dimension finie n > 1 et F un sous-espace vectoriel de
E. Alors F admet (au moins) un supplémentaire dans E.

 Question 27. Démontrer ces résultats.

Proposition 3.2.6. Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de
E. Si on a F ⊂ G et dim F = dim G alors F = G.

 Question 28.
1) Démontrer ce résultat à l’aide du corollaire 3.2.5.
2) Démontrer ce résultat sans utiliser du corollaire 3.2.5.

On admettra le théorème suivant, utile en pratique :

Théorème 3.2.7 (Formule de Grassmann). Soient E un K-espace vectoriel de dimension finie, F et G deux
sous-espaces vectoriels de E. Alors

dim(F + G) + dim(F ∩ G) = dim F + dim G.

Hermann Günther Grassmann, né en 1809 à Stettin et mort en 1877 à Stettin, est un mathématicien et indianiste
allemand. Polymathe, il était connu de ses contemporains en tant que linguiste. Physicien, néo-humaniste, érudit
mais aussi éditeur, Hermann Grassmann est avec Niels Abel, Évariste Galois et Georg Cantor l’un des grands
mathématiciens «malheureux» du XIXe siècle.

3.2.3 Rang d’une famille de vecteurs


Définition 3.2.8. Soit E un K-espace vectoriel (pas nécessairement de dimension finie). Soient p ∈ N∗ et
(u1 , . . . , up ) une famille de vecteurs de E. On appelle rang de la famille (u1 , . . . , up ) la dimension de l’espace
vectoriel Vect(u1 , . . . , up ). On note :

rang (u1 , . . . , up ) = dim Vect(u1 , . . . , up ).

La proposition suivante se déduit immédiatement de la définition du rang :

Proposition 3.2.9. Soit E un K-espace vectoriel. Soient p ∈ N∗ et (u1 , . . . , up ) une famille de vecteurs de E.
(i) On a :
rang (u1 , . . . , up ) 6 p.

(ii) Si de plus l’espace vectoriel E est de dimension finie n, on a :

rang (u1 , . . . , up ) 6 min(n, p).

22
CHAPITRE 3. DIMENSION FINIE

3.2.4 Comment déterminer dans la pratique le rang d’une famille de vecteurs ?


Proposition 3.2.10. On ne change pas le rang d’une famille de vecteurs d’un K-espace vectoriel E en :
1) échangeant des vecteurs ;
2) retirant un vecteur de la famille qui est combinaison linéaire des autres ;
3) multipliant un vecteur de la famille par un scalaire de K non nul ;
4) ajoutant à un vecteur de la famille une combinaison linéaire des autres.

 Question 29. Démontrer cette proposition.

Dans le chapitre « Espaces vectoriels », on a déjà déterminé le rang de plusieurs familles de vecteurs : dans
l’ex 5, rang (u, v, w) = 3 ; ex 5, rang (a, b, c, d) = 4 ; ex 8, rang (x, y, z, t) = 3 ; ex 10, rang (f, g, h, k) = 3.

Exercice 29. Déterminer le rang de la famille F = (u, v, w) de vecteurs de C2 , où


! ! !
1 i 1+i
u= , v= , w= ,
2 2i 2 + 2i

1) dans le cas où C2 est vu comme un C-espace vectoriel ;


2) dans le cas où C2 est vu comme un R-espace vectoriel.

23
3.2. SOUS-ESPACES VECTORIELS D’UN ESPACE VECTORIEL DE DIMENSION FINIE

24
Chapitre 4

Matrices et systèmes linéaires

Comme dans les chapitres précédents, la lettre K désigne Q, R ou C. On rappelle que les éléments de K sont
appelés des scalaires.

4.1 Rappels sur les systèmes linéaires – Méthode du pivot de Gauss

Ce paragraphe a déjà été traité au premier semestre : nous passerons donc assez rapidement sur certains
détails.

4.1.1 Définitions

Soient n et p des entiers naturels non nuls. On appelle système linéaire d’inconnue (x1 , . . . , xp ) ∈ Kp ,
de coefficients les ai,j ∈ K, (i, j) ∈ {1, . . . , n} × {1, . . . , p}, et de second membre (y1 , . . . , yn ) ∈ Kn le système
suivant :


 a1,1 x1 + a1,2 x2 + · · · + a1,j xj + · · · + a1,p xp = y1

a2,1 x1 + a2,2 x2 + · · · + a2,j xj + · · · + a2,p xp = y2





 ...
(S) =


 ai,1 x1 + ai,2 x2 + · · · + ai,j xj + · · · + ai,p xp = yi
 ...




an,1 x1 + an,2 x2 + · · · + an,j xj + · · · + an,p xp = yn .

Résoudre un tel système, c’est, par définition, chercher tous les p−uplets (x1 , . . . , xp ) solutions. Le système est
dit homogène, ou sans second membre, si tous les yi sont nuls.

 Question 30. Quelle est l’interprétation géométrique d’un système linéaire lorsque n = p = 2 ?

25
4.1. RAPPELS SUR LES SYSTÈMES LINÉAIRES – MÉTHODE DU PIVOT DE GAUSS

4.1.2 Système triangulaire


Un cas favorable est celui où le système est triangulaire, i.e., les coefficients ai,j sont nuls pour tous les
indices i, j tels que i > j. Par exemple, si n = 3 et p = 4, un système triangulaire est de la forme :

 a1,1 x1 + a1,2 x2 + a1,3 x3 + a1,4 x4 = y1

a2,2 x2 + a2,3 x3 + a2,4 x4 = y2

a3,3 x3 + a3,4 x4 = y3

Si n = 4 et p = 3, un système triangulaire a l’allure suivante :




 a1,1 x1 + a1,2 x2 + a1,3 x3 = y1

 a x + a x
2,2 2 2,3 3 = y2


 a3,3 x3 = y3
0 = y4

Si n = p, on a le résultat suivant :

Proposition 4.1.1. On considère un système linéaire ayant autant de lignes que d’inconnues (n = p avec les
notations précédentes), de type triangulaire :

 a1,1 x1 + a1,2 x2 + · · · + a1,i xi + · · · + a1,n xn = y1


a2,2 x2 + · · · + a2,i xi + · · · + a2,n xn = y2






 ..
 .


 ai,i xi + · · · + ai,n xn = yi

 ..



 .

 an,n xn = yn .

Si tous les coefficients diagonaux a1,1 , a2,2 , . . . , an,n sont non nuls, alors ce système possède une unique solution.

4.1.3 Méthode de Gauss


Pour résoudre un système linéaire une méthode intéressante est de chercher à le remplacer par un système
triangulaire ayant le même ensemble de solution. Notons L1 , . . . Ln les lignes d’un système linéaire.

Proposition 4.1.2. Les opérations suivantes, dites opérations élémentaires, transforment un système li-
néaire en un système ayant le même ensemble de solution :
• échange de deux lignes Li ↔ Lk
• produit d’une ligne par un scalaire non nul Li ← αLj , α 6= 0
• ajout à une ligne d’un multiple d’une autre Li ← Li + αLk , α ∈ K.

Définition 4.1.3. On dit que deux systèmes sont équivalents si l’on peut obtenir l’un à partir de l’autre
par une succession d’opération élémentaires. On ne change pas l’ensemble des solutions d’un système en le
remplaçant pas un système équivalent.

Théorème 4.1.4 (pivot de Gauss). On peut toujours obtenir un système linéaire triangulaire à partir d’un
système linéaire donné, en effectuant uniquement des opérations des types décrits ci-dessus.

26
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES

Exercice 30. Résoudre le système linéaire suivant à l’aide d’opérations élémentaires :




 2x − y + z = 1

 −x + 5y + 4z = −1


 −x + 2y + z = −1
3y + 3z = −1.

4.2 Écriture matricielle d’un système linéaire

4.2.1 Définitions

De façon à obtenir une écriture plus compacte du système, on peut noter :


    
a1,1 a1,2 ··· a1,p x1 y1
a a2,2 ··· a2,p   x2   y2 
     
 2,1
A=
 .. .. ..  = (ai,j ) 16i6n X=
 .. 
 Y =
 ..  .

16j6p
 . . .  . .
an,1 an,2 ··· an,p xp yn

Un tel tableau de scalaires est appelé une matrice, à n lignes et p colonnes. Ainsi, deux matrices sont égales
si et seulement si elles ont même nombre n de lignes, même nombre p de colonnes, et si pour tout couple
(i, j) ∈ {1, . . . , n} × {1, . . . , p}, le coefficient situé à la ligne i, colonne j, est le même dans chacune des deux
matrices. On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes et à coefficients dans K. La matrice
de Mn,p (K) dont tous les coefficients sont nuls est appelée la matrice nulle, et est notée simplement 0. Ainsi,
 
x1
 x2 
 
la matrice X =   ..  est un élément de Mp,1 (K). On dit qu’il s’agit d’une matrice-colonne. Un élément de

.
xp
M1,p (K) est appelé matrice-ligne.

Si A = (ai,j ) 16i6n est une matrice de Mn,p (K), on définit sa transposée comme étant la matrice tA = (a0i,j )
16j6p
de Mp,n (K) vérifiant pour tout (i, j) ∈ {1, . . . , p} × {1, . . . , n} : a0i,j = aj,i . Dans la pratique, la transposée d’une
!
2 −1 + i 0
matrice est facile à obtenir. Par exemple, la transposée de la matrice A = est la matrice
8 5 −4i
 
2 8
t
A = −1 + i 5 .
 

0 −4i

4.2.2 Produit d’une matrice par une matrice colonne

On souhaite définir le produit de la matrice A ∈ Mn,p (K) par la matrice X ∈ Mp,1 (K) de façon à ce que le
système (S) précédent s’écrive simplement : AX = Y. Pour cela, il faut donc que l’on définisse le produit AX

27
4.3. OPÉRATIONS SUR LES MATRICES

de la façon suivante :
    
a1,1 a1,2 ··· a1,p x1 a1,1 x1 + · · · + a1,p xp
 a2,1 a2,2 ··· a2,p  x2   a2,1 x1 + · · · + a2,p xp 
    
AX = 
 .. .. ..   ..  
   =  .. .

 . . .  .   . 
an,1 an,2 ··· an,p xp an,1 x1 + · · · + an,p xp

Ainsi, par définition le produit de la matrice A ∈ Mn,p (K) par la matrice X ∈ Mp,1 (K) est une matrice de
p
X
Mn,1 (K) dont le coefficient de la ième ligne est ai,k xk .
k=1

Proposition 4.2.1. Soit A une matrice de Mn (K). Alors la matrice A est nulle si et seulement si pour toute
matrice colonne X ∈ Mp,1 (K), la matrice AX est nulle.

 Question 31. Démontrer cette proposition.

4.3 Opérations sur les matrices


4.3.1 Addition
Si A = (ai,j ) 16i6n et B = (bi,j ) 16i6n sont deux matrices de Mn,p (K), on définit leur somme A + B comme
16j6p 16j6p
étant la matrice de Mn,p (K) dont le coefficient situé à la ième ligne et jème colonne est ai,j + bi,j . Pour calculer
la somme de deux matrices de Mn,p (K), on effectue donc des sommes coefficient à coefficient :
     
a1,1 a1,2 · · · a1,p b1,1 b1,2 · · · b1,p a1,1 + b1,1 a1,2 + b1,2 · · · a1,p + b1,p
 a2,1 a2,2 · · · a2,p   b2,1 b2,2 · · · b2,p   a2,1 + b2,1 a2,2 + b2,2 · · · a2,p + b2,p 
     
 . .. ..  +  ..
  .. ..  = 
  .. .. .. .
 . 
 . . .   . . .   . . . 
an,1 an,2 · · · an,p bn,1 bn,2 · · · bn,p an,1 + bn,1 an,2 + bn,2 · · · an,p + bn,p
B Attention : la somme de deux matrices n’a de sens que si ces deux matrices ont même nombre de lignes
d’une part, et même nombre de colonnes d’autre part.

4.3.2 Produit par un scalaire


Si A = (ai,j ) 16i6n est une matrice de Mn,p (K), et λ un scalaire (i.e., un élément de K), on définit le produit
16j6p
de λA comme étant la matrice de Mn,p (K) obtenue en multipliant chacun des coefficients de A par λ. Autrement
dit, on a :    
a1,1 a1,2 · · · a1,p λa1,1 λa1,2 · · · λa1,p
 a2,1 a2,2 · · · a2,p   λa2,1 λa2,2 · · · λa2,p 
   
λ .
 .. ..  =  ..
  .. .. .
 .. . .   . . . 
an,1 an,2 · · · an,p λan,1 λan,2 · · · λan,p

4.3.3 Propriétés de ces opérations


On vérifie sans difficulté que si λ et µ sont deux scalaires, et A, B, C trois matrices de Mn,p (K), on a bien :

(A + B) + C = A + (B + C); A + B = B + A; A + 0 = A;

28
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES

(λµ)A = λ(µA); (λ + µ)A = λA + µA; λ(A + B) = λA + λB.

4.3.4 Produit matriciel

Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). On note B1 , . . . , Bq les colonnes de la matrice B. On a déjà défini les
produits ABk ∈ Mn,1 (K), pour tout k ∈ {1, . . . , q}. On définit ici le produit de A et B dans cet ordre de la
façon suivante : la matrice produit AB est la matrice de Mn,q (K) dont les colonnes sont AB1 , AB2 , . . . , ABq .
Ainsi, si l’on note C = AB = (ci,j ) 16i6n , on a pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , q} la relation :
16j6q

p
X
ci,j = (ABj )i = ai,k bk,j .
k=1

 
! 0 −1
1 2 3
 Question 32. Effectuer le produit AB lorsque A = et B =  2 3 .
 
4 5 6
−2 0

B Attention : le produit AB n’est défini que si le nombre de colonnes de A est égal au nombre de lignes de
B.

4.4 Matrices carrées

4.4.1 Matrices triangulaires et diagonales ; matrice identité

Soit n un entier naturel non nul. L’ensemble Mn,n (K) des matrices carrées à n lignes et n colonnes est
simplement noté Mn (K). Soit A = (ai,j )16i,j6n une matrice carrée d’ordre n. Les coefficients ai,i sont appelés
les coefficients diagonaux de la matrice A. La matrice A est dite triangulaire supérieure si tous les
coefficients situés strictement sous la diagonale sont nuls, i.e., pour tout couple (i, j) d’entiers compris entre 1
et n vérifiant i > j, on a ai,j = 0. On définit de façon similaire la notion de matrice triangulaire inférieure. La
matrice A est dite diagonale si tous les coefficients qui ne se trouvent pas sur la diagonale sont nuls, i.e., pour
tout couple (i, j) d’entiers compris entre 1 et n vérifiant i 6= j, on a ai,j = 0. Une matrice diagonale de Mn (K)
s’écrit donc sous la forme :
 
λ1 0
 .. 
.

 . 
0 λn

Remarquons qu’une somme ou un produit de matrices triangulaires supérieures (resp. diagonales) est encore
triangulaire supérieure (resp. diagonale).

 Question 33. 1) Vérifier ces affirmations pour le produit.


2) Que se passe-t-il quand on multiplie une matrice à gauche par une matrice diagonale ? à droite ?

29
4.5. PROPRIÉTÉS DU PRODUIT MATRICIEL

4.4.2 Produit de matrices carrées


On appelle matrice identité de Mn (K), et on note In , la matrice diagonale ne comportant que des coefficients
1 sur la diagonale :  
1 0

In =  .. 
.
 . 
0 1
On vérifie immédiatement que si une matrice A appartient à Mn (K), alors AIn = In A = A. On utilise, comme
pour les nombres réels ou complexes, la convention A0 = In . D’autre part, lorsque A et B sont deux matrices
carrées d’ordre n, i.e., deux éléments de Mn (K), les produits AB et BA sont tous deux définis, mais ils ne sont
pas nécessairement égaux !

 Question 34. Donner un exemple de matrices carrées A et B pour lesquelles les produits AB et BA sont
différents. Ainsi a-t-on (A + B)2 = A2 + AB + BA + B 2 , mais cette matrice n’est pas toujours égale à la matrice
A2 + 2AB + B 2 . Cette identité devient vraie lorsque A et B commutent (i.e., AB = BA).

4.5 Propriétés du produit matriciel


On vérifie les propriétés suivantes :
Proposition 4.5.1. Pour toutes matrices A, A0 ∈ Mn,p (K), B, B 0 ∈ Mp,q (K), C ∈ Mq,r (K), pour tout λ ∈ K,
on a :
• (AB)C = A(BC) ;
• (A + A0 )B = AB + A0 B ;
• A(B + B 0 ) = AB + AB 0 ;
• λ(AB) = (λA)B = A(λB) ;
 Question 35. Vérifier ces propriétés.
L’associativité du produit (c’est-à-dire (AB)C = A(BC)) permet de définir la puissance nième d’une matrice
carrée A (puisque (AA)A = A(AA), on peut noter A3 cette matrice etc. . . ). On a la proriété suivante :
Proposition 4.5.2 (binôme de Newton). Soient A et B deux matrices de Mn (K) qui commutent, i.e.,
AN = BA. On a alors pour tout entier naturel n :
n
!
n
X n
(A + B) = Ak B n−k .
k=0
k
La démonstration est la même que pour les nombres réels ou complexes (ou les endomorphismes qui com-
mutent, cf. Proposition 2.2.3), dans la mesure où la propriété AB = BA permet d’utiliser les mêmes règles de
calcul.
Exercice 31. Combien y a-t-il de matrices A de Mn (R) diagonales vérifiant A3 = 2In ? Et dans Mn (C) ?
Exercice 32. Déterminer l’ensemble C = {A ∈ Mn (K) ; ∀ M ∈ Mn (K), AM = M A} des matrices de Mn (K)
qui commutent avec toutes les autres. (Indication. On pourra écrire que si une matrice commute avec toutes les
autres, alors elle commute avec les matrices élémentaires Ei,j (1 6 i, j 6 n), c’est-à-dire les matrices qui ont un
unique coefficient non nul, égal à 1.)

30
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES

4.6 Matrices carrées inversibles


Définition 4.6.1. Soit A une matrice de Mn (K). On dit que la matrice A est inversible s’il existe une matrice
B de Mn (K) vérifiant AB = BA = In . On note GLn (K) l’ensemble de toutes les matrices inversibles de Mn (K).

On ne peut donc s’intéresser à l’inversibilité (éventuelle) d’une matrice que si celle-ci est carrée.

 Question 36. 1) Donner des exemples de matrices inversibles/non inversibles.


2) Montrer que si la matrice A est inversible, alors son inverse est unique.

Ainsi, si la matrice A est inversible, l’unique matrice B vérifiant AB = BA = In est appelée l’inverse de A et
est notée A−1 .

Proposition 4.6.2. Soit A une matrice de Mn (K). L a matrice A est inversible si et seulement si pour toute
matrice colonne Y de Mn,1 (K), il existe une unique matrice colonne X de Mn (K) vérifiant AX = Y.

Autrement dit, la matrice A est inversible si et seulement si pour n’importe quel choix de second membre
Y , le système linéaire AX = Y admet un unique n-uplet X solution. Ou encore : la matrice A est inversible si
et seulement si l’application
Mn,1 (K) −→ Mn,1 (K)
X 7−→ AX
est bijective. Dans la pratique, si pour tout couple (X, Y ) de matrices de Mn,1 (K), on parvient à résoudre le
système AX = Y , alors on aura déterminé une matrice B vérifiant AX = Y ⇐⇒ X = BY , donc on aura prouvé
que A est inversible et on aura déterminé l’inverse B de A.

 Question 37. 1) Démontrer cette proposition.


2) Déterminer si la matrice suivante est inversible et, le cas échéant, calculer son inverse :
 
1 −1 0
A = 2 0 −3
 

1 1 1

Remarquons qu’il est en général fastidieux de calculer l’inverse d’une matrice inversible. Lorsque l’ordre n de la
matrice est élevé, on confie ces calculs à un ordinateur ou une calculatrice. . .

Si la matrice A est inversible, un système linéaire AX = Y est appelé un système de Cramer : il admet donc
une unique solution.

Corollaire 4.6.3. Soit A = (ai,j )16i,j6n une matrice triangulaire de Mn (K). Alors la matrice A est inversible
si et seulement si tous ses coefficients diagonaux sont non nuls.

En particulier, une matrice diagonale est inversible si et seulement si tous ses coefficients diagonaux sont
non nuls.

 Question 38. Démontrer ce corollaire.

Proposition 4.6.4. Soient A et B deux matrices de Mn (K). Si A et B sont inversibles, alors le produit AB
est inversible, et on a (AB)−1 = B −1 A−1 .

31
4.7. INTERPRÉTATION MATRICIELLE DE LA MÉTHODE DE GAUSS

 Question 39. Démontrer cette proposition.

Exercice 33. Pour tout θ ∈ R, on pose


!
cos θ − sin θ
Aθ = .
sin θ cos θ

1) Vérifier que Aθ Aθ0 = Aθ0 Aθ pour tout (θ, θ0 ) ∈ R2 .


2) Est-il vrai en général que AB = BA si A, B ∈ M2 (R) ? Illustrer par des exemples.
3) Pour tout entier relatif n et tout réel θ, calculer la puissance nième de Aθ .
 
1 1 1
Exercice 34. Posons A = 0 1 1.
 

0 0 1
2 3 4
1) Calculer A , A et A .
2) Pour tout entier relatif n, calculer la puissance nième de A.

4.7 Interprétation matricielle de la méthode de Gauss


4.7.1 Matrices d’opérations élémentaires
Remarquons qu’effectuer une opération élémentaire sur les lignes d’une matrice donnée A revient à multiplier
la matrice A à gauche par une matrice inversible.

 Question 40. Démontrer cette assertion.

Par conséquent, si la matrice A est inversible, on obtiendra toujours des matrices inversibles en effectuant des
opérations élémentaires sur les lignes de la matrice A.

4.7.2 Méthode de Gauss


On a vu dans le premier paragraphe qu’en effectuant des opérations élémentaires sur les lignes d’un système
linéaire, on pouvait le transformer en un système équivalent de type « triangulaire » (entre guillemets parce
qu’ici, le système n’a pas nécessairement même nombre de lignes que d’inconnues). Or on vient de remarquer
qu’effectuer une opération élémentaire sur une matrice revient à la multiplier à gauche par une certaine matrice
inversible. On peut donc interpréter la méthode du pivot de Gauss en termes matriciels en disant : soit A
une matrice de Mn,p (K) ; il existe des matrices d’opérations élémentaires M1 , . . . , Mq telles que la matrice
M = Mq . . . , M2 M1 A soit de type triangulaire (i.e., les coefficients mi,j de la matrice M sont nuls pour i > j).
On peut même améliorer un peu ce résultat lorsque la matrice A est inversible :

Proposition 4.7.1. Soit A une matrice de Mn (K), inversible. Il existe des matrices d’opérations élémentaires
M1 , M2 , . . . , Mq (qui sont donc des matrices inversibles) telles que : Mq . . . M2 M1 A = In .

 Question 41. Démontrer cette proposition.

32
CHAPITRE 4. MATRICES ET SYSTÈMES LINÉAIRES

4.7.3 Application de la méthode de Gauss au calcul de l’inverse d’une matrice


inversible
La proposition précédente donne une nouvelle méthode pour déterminer si une matrice est inversible. En effet,
si A est inversible, on peut trouver des matrices M1 , . . . , Mq d’opérations élémentaires vérifiant Mq . . . M1 A = In .
On a donc A−1 = Mq . . . , M1 = Mq . . . M1 In . Ainsi, il n’est pas nécessaire d’expliciter les matrices M1 , . . . , Mq
pour calculer A−1 ; il suffit d’appliquer à la matrice In les mêmes opérations sur les lignes que celles effectuées
sur A pour obtenir In .

 Question 42. À l’aide de cette méthode, retrouver l’inverse de la matrice A de l’exercice 37.

Exercice 35. Déterminer si chacune des matrices suivantes est inversible, et calculer le cas échéant son inverse :
 
  1 −1 1 −1
2 1 3 −1 1 0 1
1 −1 −2 ; .
   
−1

0 1 1
−1 0 2
1 0 −1 1

33
4.7. INTERPRÉTATION MATRICIELLE DE LA MÉTHODE DE GAUSS

34
Chapitre 5

Applications linéaires en dimension


finie et matrices

La lettre K désigne Q, R ou C.

5.1 Matrice d’un vecteur, matrice d’une application linéaire dans


des bases
5.1.1 Matrice d’un vecteur, d’une famille de vecteurs dans une base
Définition 5.1.1. Soient E un K-espace vectoriel de dimension finie non nulle n, B = (e1 , . . . , en ) une
base de E et x un vecteur de E. Il existe donc un unique n-uplet de scalaires (x1 , . . . , xn ) ∈ Kn tel que :
n
X
x = x1 e1 + · · · + xn en = xi ei
i=1
(les coefficients x1 , . . . , xn sont les coordonnées du vecteur x dans la base B). On appelle matrice du vecteur
x dans la base B la matrice colonne X de Mn,1 (K) des coordonnées de x dans la base B :

x1
 . 
X = Mat(x, B) = MB (x) =  . 
 . .
xn

Remarquons que l’application


ϕ : E −→ Mn,1 (K)
x 7−→ Mat(x, B)

est un isomorphisme.
B Attention : la phrase « on considère la matrice du vecteur x » n’a pas de sens ; il faut préciser quelle base
de E on choisit.

Exercice 36. ? On se place dans le R-espace vectoriel R2 [X]. Montrer qu’il existe une unique base B de R2 [X]

35
5.1. MATRICE D’UN VECTEUR, MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES

telle que, pour tout P ∈ R2 [X], la matrice colonne de P dans la base B soit :
 
P (−1)
C =  P (0)  .
 

P (1)

Définition 5.1.2. Soient E un K-espace vectoriel de dimension finie non nulle n, B = (e1 , . . . , en ) une base
de E, p un entier naturel non nul et F = (u1 , . . . , up ) une famille de vecteurs de E. On appelle matrice de
la famille F dans la base B la matrice à n lignes et p colonnes dont les colonnes sont constituées par les
coefficients des vecteurs u1 , . . . , up décomposés dans la base B. Plus précisément, pour tout j ∈ {1, . . . , p}, si
l’on note  
u1,j
 . 
 .  ∈ Mn,1 (K)
Mat(uj , B) =  . 
un,j
la matrice du vecteur uj dans la base B, la matrice de la famille F dans la base B est :
 
u1,1 ... u1,j ... u1,p
 . .. .. 
 .. . . 
 
Mat((u1 , . . . , up ), B) =  ui,1 ... ui,j ... ui,p  ∈ Mn,p (K)
 
 .. .. .. 
 
 . . . 
un,1 ... un,j ... un,p

5.1.2 Matrice d’une application linéaire dans des bases


Théorème 5.1.3. Soient E et F deux K−espaces vectoriels de dimension finie, f une application linéaire de
E dans F . Alors f est entièrement déterminée par la donnée de l’image d’une base de E. Plus précisément, si
(e1 , . . . , ep ) est une base de E, et si (u1 , . . . , up ) est un système quelconque de p vecteurs de F , il existe une et
une seule application linéaire f vérifiant f (ej ) = uj pour tout j ∈ {1, . . . p}.

 Question 43. Démontrer ce théorème.

Remarque. Ce résultat est important ; il dit que pour connaître complètement une application linéaire en
dimension finie, il suffit de consigner dans une matrice les coordonnées dans une base de F des images des
vecteurs d’une base de E. C’est ce qui va permettre d’introduire la notion de matrice d’une application linéaire
dans des bases.

Corollaire 5.1.4. Soient E et F deux K-espaces vectoriels de dimension finie. Alors E et F ont même dimen-
sion si et seulement si il existe un isomorphisme de E sur F . On dit dans ce cas que E et F sont isomorphes.

Remarque. Deux espaces « isomorphes » ont étymologiquement « même forme ». En d’autres termes, deux
espaces isomorphes sont « presque » les mêmes, la seule différence étant la façon de noter les éléments. Ce
corolloraire justifie a posteriori l’intérêt porté aux espaces Kn .

 Question 44. 1) Donner un exemple d’isomorphisme entre les K-espaces vectoriels Kn [X] et Kn+1 .
2) Démontrer ces résultats.

36
CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE ET MATRICES

Définition 5.1.5. Soient E et F deux K-espaces vectoriels de dimension finie non nulle. On note p = dim E
et n = dim F . Une base BE = (e1 , . . . , ep ) de E et une base BF = (f1 , . . . , fn ) de F étant fixées, on appelle
matrice de l’application linéaire f dans les bases BE et BF , et on note Mat(f, BE , BF ), ou MBE ,BF (f ),
la matrice de la famille de vecteurs (f (e1 ), . . . , f (ep )) exprimés dans la base BF , i.e.

Mat(f, BE , BF ) = Mat((f (e1 ), . . . , f (ep )), BF ).

D’après le théorème précédent, avec les notations ci-dessus, l’application

ϕ : L(E, F ) −→ Mn,p (K)


f 7−→ Mat(f, BE , BF )

est une bijection.


B Attention : là encore, la phrase « la matrice de f » n’a pas de sens ; il faut préciser des bases pour cela.

Remarque. Lorsque f est un endomorphisme (i.e., lorsque E = F ), on prend en général la même base B au
départ et à l’arrivée ; on note alors la matrice de f simplement Mat(f, B).

Exercice 37 (écriture de la matrice d’une application linéaire dans des bases).


1) Quelle est la matrice de l’application nulle dans des bases quelconques ? quelle est la matrice de l’identité ?
2) Notons (e1 , e2 ) la base canonique de R2 et (u1 , u2 , u3 ) la base canonique de R3 . On suppose que f est
l’application linéaire de R2 dans R3 déterminée par : f (e1 ) = u1 + 5u3 , f (e2 ) = 0R3 . Écrire la matrice de f dans
les bases (e1 , e2 ) et (u1 , u2 , u3 ).
3) Soit f l’application de Rn [X] dans lui-même qui à tout polynôme P de Rn [X] associe f (P ) = P − P 0 .
L’application f est clairement un endomorphisme de Rn [X]. Écrire sa matrice dans la base canonique B =
(1, X, . . . , X n ).
4) Soient E un K-espace vectoriel de dimension finie n > 2, F et G deux sous-espaces vectoriels de E non réduits
à {0E }. Soient BF une base de F et BG une base de G. On note B la base de E obtenue en concaténant les
familles BF et BG . Écrire la matrice dans la base B de la projection sur F parallèlement à G et de la projection
sur G parallèlement à F .

Exercice 38 (recherche d’une base dans laquelle la matrice de f a une allure préalablement fixée). Soit f un
endomorphisme de K2 vérifiant
! f 2 = 0 et f 6= 0. Justifier qu’il existe une base B = (e1 , e2 ) de K2 dans laquelle
0 1
la matrice de f est .
0 0

5.2 Isomorphisme entre L(E, F ) et Mn,p (K)


Proposition 5.2.1. Soient deux K-espaces vectoriels de dimension finie non nulle : E, de dimension p, muni
d’une base BE , et F , de dimension n, muni d’une base BF . Soient f et g deux applications linéaires de E dans
F , et λ un élément de K. On a alors :

Mat(f + g, BE , BF ) = Mat(f, BE , BF ) + Mat(g, BE , BF ) ; Mat(λf, BE , BF ) = λ Mat(f, BE , BF ).

Ainsi, l’application ϕ ci-dessus est un isomorphisme entre les K-espaces vectoriels L(E, F ) et Mn,p (K).

37
5.2. ISOMORPHISME ENTRE L(E, F ) ET MN,P (K)

Remarque. Les matrices élémentaires (Ei,j )16i6n (tous les coefficients de la matrice Ei,j sont nuls, sauf celui
16j6p

situé à la ième ligne et jème colonne qui vaut 1) forment clairement une base du K-espace vectoriel Mn,p (K).
On en déduit que le K-espace vectoriel Mn,p (K) est de dimension finie égale à np. L’isomorphisme ci-dessus
prouve que, si E et F sont des K-espaces vectoriels de dimensions respectives p et n, alors le K−espace vectoriel
L(E, F ) est de dimension finie égale à np.
Proposition 5.2.2. Soient E et F deux K-espaces vectoriels de dimension finie non nulle, munis de bases BE
et BF respectivement, et f une application linéaire de E dans F . Alors :

Mat(f (x), BF ) = Mat(f, BE , BF ) Mat(x, BE ).

On pourrait résumer cette proposition en disant qu’en dimension finie, évaluer une application linéaire en un
vecteur (c’est-à-dire calculer f (x)) revient à effectuer un produit matriciel (d’une matrice « rectangulaire » par
une matrice colonne).
 Question 45. Démontrer ces résultats.
Exercice 39. Soient B = (e1 , e2 , e3 ) une base de R3 , C = (u1 , u2 ) une base 2
! de R , f l’application linéaire de
1 2 3
R3 dans R2 dont la matrice dans les bases B et C est A = . Déterminer le noyau et l’image de
4 5 6
l’application linéaire f .
La proposition qui suit est fondamentale ; elle permet de comprendre pourquoi on a défini le produit matriciel
d’une façon qui pouvait sembler étrange à première vue.
Proposition 5.2.3. On se donne trois K-espaces vectoriels de dimension finie non nulle : E, de dimension q,
muni d’une base BE , F , de dimension p, muni d’une base BF , G, de dimension n, muni d’une base BG .
Soient f une application linéaire de E dans F , et g une application linéaire de F dans G. On a alors :

Mat(g ◦ f, BE , BG ) = Mat(g, BF , BG ) Mat(f, BE , BF ).

On peut illustrer cette composition par un diagramme (llustration).

En utilisant l’isomorphisme ϕ de L(E, F ) sur Mn,p (K) défini plus haut, cette proposition s’écrit :

∀(f, g) ∈ L(E, F )2 , ϕ(g ◦ f ) = ϕ(g)ϕ(f ).

On pourrait résumer cette proposition en remarquant qu’un calcul de composée d’applications linéaires
revient à un calcul de produit matriciel.
Cas particulier : si E = F , donc si f est un endomorphisme de E, on a pour tout entier naturel n (f n désigne
ici une composée), en itérant la proposition précédente :

Mat(f n , BE ) = (Mat(f, BE ))n .

Proposition 5.2.4. Soient E un K-espace vectoriel de dimension finie non nulle, B une base de E, f un
endomorphisme de E et A sa matrice dans la base B. Alors :

f bijectif ⇐⇒ A inversible.

Dans ce cas, on a :
Mat(f −1 , B) = Mat(f, B)−1 = A−1 .

38
CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE ET MATRICES

À l’aide de l’isomorphisme ϕ rencontré plus haut, on peut reformuler ce résultat en disant que si f est un
automorphisme de E, alors on a
ϕ(f −1 ) = ϕ(f )−1 .

 Question 46. Démontrer ces propositions.

5.3 Le théorème du rang


Définition 5.3.1. Soient E et F deux K-espaces vectoriels de dimension finie. On appelle rang de f la
dimension du sous-espace vectoriel Im f de F .

Définition 5.3.2. Soit A ∈ Mn,p (K). On note (C1 , . . . , Cp ) les colonnes de A ; en particulier, pour tout j ∈
{1, . . . , p}, le vecteur colonne Cj est un élément de Mn,1 (K). On appelle rang de A le rang de la famille
(C1 , . . . , Cp ).

 Question 47. Soit A ∈ Mn,p (K). Montrer que les propositions suivantes sont équivalentes :
(i) rang A 6 1 ;
(ii) il existe des matrices X ∈ Mn,1 (K) et Y ∈ M1,p (K) telles que A = XY .

Proposition 5.3.3. 1) On ne change pas le rang d’une application linéaire en la composant (à gauche ou à
droite) par un isomorphisme.
2) Soient
• E un K-espace vectoriel de dimension finie p > 1, BE une base de E,
• F un K-espace vectoriel de dimension finie n > 1, BF une base de F ,
• f une application linéaire de E dans F ,
• A la matrice de f dans les bases BE et BF .
Alors on a :
rang f = rang A.

3) On ne change pas le rang d’une matrice en la multipliant (à gauche ou à droite) par une matrice inversible.
4) On ne change pas le rang d’une matrice en effectuant l’une des opérations élémentaires suivantes :
• échange de deux lignes ou deux colonnes ;
• multiplication d’une ligne ou d’une colonne par un scalaire non nul ;
• ajout à une ligne d’une combinaison linéaire des autres lignes, ajout à une colonne d’une combinaison
linéaire des autres colonnes.

 Question 48. Démontrer cette proposition.

Remarques. 1) On vient de montrer que le rang d’une matrice A est le rang de n’importe quelle application
linéaire représentée par A, ou encore que le rang d’une application linéaire f est le rang de n’importe quelle
matrice représentant f .
2) On dispose d’une méthode pour déterminer dans la pratique le rang d’une matrice : il s’agit d’effectuer des
opérations élémentaires sur les lignes et les colonnes jusqu’à obtenir une matrice dont on peut lire facilement le
rang. On peut pour cela utiliser par exemple la méthode du pivot de Gauss.

On admet le théorème suivant, qui est fondamental.

39
5.3. LE THÉORÈME DU RANG

Théorème 5.3.4 (Théorème du rang). Soient E et F deux K-espaces vectoriels de dimension finie, f une
application linéaire de E dans F . Alors on a :

dim Ker f + rang f = dim E.

B Attention : même lorsque E = F , le théorème du rang ne dit pas que les sous-espaces vectoriels Ker f
et Im f sont supplémentaires dans E. Il se peut que le noyau et l’image d’un endomorphisme ne soient pas en
somme directe. Rappelons par exemple que si D est l’endomorphisme de dérivation
D : Kn [X] −→ Kn [X]
P 7−→ P0
alors on a Im D ∩ Ker D = Vect(1) = {polynômes constants} =
6 {0Kn [X] }.
Proposition 5.3.5. Soient E et F deux K-espaces vectoriels de dimension finie, vérifiant dim E = dim F . Soit
f une application linéaire de E dans F . Alors :

f injective ⇐⇒ f surjective ⇐⇒ f bijective .

Remarque. On observe des analogies entre cette proposition et le fait que si f est une application entre deux
ensembles finis de même cardinal, alors f est injective si et seulement si f est surjective, si et seulement si f est
bijective. On en déduit :
Proposition 5.3.6. Soit A une matrice de Mn (K). Alors les propriétés suivantes sont équivalentes :
(i) A est inversible (i.e., il existe une matrice B de Mn (K) vérifiant AB = BA = In ) ;
(ii) il existe B ∈ Mn (K) telle que AB = In ;
(iii) il existe B ∈ Mn (K) telle que BA = In ;
(iv) pour toute matrice Y de Mn,1 (K), il existe une unique matrice X de Mn,1 (K) vérifiant AX = Y.
 Question 49. Démontrer ces résultats.
Exercice 40. Soit f l’application qui à tout polynôme P de Rn [X] associe 3XP 0 + (X 2 − 1)P 00 .
1) Vérifier que f est un endomorphisme de Rn [X], et écrire sa matrice dans la base canonique.
2) L’endomorphisme f est-il un automorphisme ?
3) Déterminer une base de chacun des sous-espaces vectoriels Ker f et Im f .
Exercice 41. Soient B = (e1 , e2 , e3 ) une base de R3 et f ∈ L(R3 ) dont la matrice dans la base B est
 
−2 −3 6
A= 3 1 5 .
 

3 4 −7
1) Déterminer des bases du noyau et de l’image de f .
2) La matrice A est-elle inversible ?
Exercice 42. Soit p l’endomorphisme de R3 dont la matrice dans la base canonique est
 
1/2 1/2 −1
A = 1/2 1/2 1  .
 

0 0 1
1) Montrer que p est une projection de R3 .
2) Déterminer une base dans laquelle la matrice de p est diagonale.

40
Chapitre 6

Déterminant

La lettre K désigne Q, R ou C.

6.1 Introduction
Le déterminant d’une matrice carrée peut être vu comme une généralisation (ou une formalisation) de la
notion de volume. Nous tentons ici de motiver sa définition (dans le cas des matrices carrées d’ordre 2).

On considère ici les vecteurs comme introduits dans les classes antérieures et on se place dans R2 muni de
sa base canonique (~i, ~j) « orthonormée directe », où ~i = (1, 0) et ~j = (0, 1) (le terme « orthonormée directe »
sera défini de manière rigoureuse en 2ème année).
Considérons deux vecteurs ~u = (x1 , y1 ) et ~v = (x2 , y2 ) de R2 (écrit dans la base canonique (~i, ~j)). On appelle
parallélogramme engendré par ~u et ~v l’ensemble {α~u + β~v ; (α, β) ∈ [0, 1]2 }.
Illustration.
Calculons l’aire A de ce parallélogramme. On sait qu’elle est égale à la longueur b d’un côté (par exemple k~uk),
multipliée par la hauteur h correspondante (faire une figure) ; on a A = b × h. Pour obtenir A en fonction des
coordonnées de ~u et ~v , il suffit alors d’introduire le vecteur ~u0 = (−y1 , x1 ). Ce vecteur est en effet orthogonal à
~u et de même norme, de sorte que
|~v . ~u0 | = h × k~uk = h × b = A

où · désigne le produit scalaire canonique de R2 (faire une figure). On a donc

A = |x1 y2 − y1 x2 |.

Ce petit calcul justifie la définition suivante :

Définition 6.1.1 (déterminant d’une


! matrice carrée d’ordre 2). Soient a, b, c, d ∈ K. On définit le déterminant
a c a b
de la matrice carrée A = ∈ M2 (K), noté det(A) ou , par
b d c d

a b
det(A) = = ad − bc.
c d

41
6.2. DÉFINITION DU DÉTERMINANT

!
a
Autrement dit, det(A) représente le volume du parallélogramme engendré par les vecteurs colonnes et
c
!
c
de A.
d
On peut de même introduire le déterminant d’une matrice carrée d’ordre 3 comme étant le volume du pa-
rallélépipède engendré par les vecteurs colonnes d’une telle matrice. Nous allons ici définir « directement » le
déterminant d’une matrice carré d’ordre quelconque, sans justifier que la notion étend bien le volume dans le
cas des matrices d’ordre 3. . .

6.2 Définition du déterminant


     
a1,1 · · · a1,n a1,1 a1,n
 . ..   .   . 
Soit n ∈ N∗ . Rappelons que si A = 
 .
. .  ∈ Mn (K), alors C1 =  .. , . . . , Cn =  ..  sont
    
an,1 · · · an,n an,1 an,n
   
les colonnes de A, et L1 = a1,1 · · · a1,n , . . . , Ln = an,1 · · · an,n sont ses lignes.

Définition 6.2.1. Soit ϕ une application de Mn (K) dans K.


1) On dit que ϕ est n-linéaire si pour toutes matrices colonnes C1 , . . . , Cn , C ∈ Mn,1 (K), tout λ ∈ K et tout
i ∈ {1, . . . , n}, on a

ϕ(C1 , . . . , Ci + λC, . . . , Cn ) = ϕ(C1 , . . . , Ci , . . . , Cn ) + λ ϕ(C1 , . . . , C, . . . , Cn ).

Autrement dit, ϕ est n-linéaire si pour tout i ∈ {1, . . . , n} et toutes matrices colonnes C1 , . . . , Ci−1 , Ci+1 , . . . , Cn ∈
Mn,1 (K), l’application
Mn,1 (K) −→ K
X 7−→ ϕ(C1 , . . . , Ci−1 , X, Ci+1 , . . . , Cn )
est linéaire.
2) On dit que ϕ est alternée si pour toutes matrices colonnes C1 , . . . , Cn ∈ Mn,1 (K), on a

ϕ(C1 , . . . , Ci , . . . , Cj , . . . , Cn ) = 0

dès qu’il existe (i, j) ∈ {1, . . . , n}2 tel que Ci = Cj . Autrement dit, ϕ est alternée si ϕ(A) = 0 pour toute matrice
A ∈ Mn (K) ayant deux colonnes identiques.

Remarque. Dire que ϕ est alternée est équivalent à dire que pour toutes matrices colonnes C1 , . . . , Cn ∈ Mn,1 (K),
on a ϕ(C1 , . . . , Ci , . . . , Cj , . . . , Cn ) = − ϕ(C1 , . . . , Cj , . . . , Ci , . . . , Cn ) (à vérifier). Pour cette raison, on dit aussi
que ϕ est anti-symétrique.
On admet le théorème (très subtile) suivant :

Théorème-Définition 6.2.1. 1) Il existe une unique application n-linéaire et alternée, appelée le déterminant
et notée det, de Mn (K) dans K telle que det(In ) = 1.
2) L’application déterminant vérifie les propriétés suivantes :
(i) ∀ A, B ∈ Mn (K), on a
det(AB) = det(A) det(B);

42
CHAPITRE 6. DÉTERMINANT

(ii) si A est une matrice triangulaire (supérieure ou inférieure), alors le déterminant de A est égal au
 
a1,1 a1,2 · · · a1,n
 0 a2,2 a2,n 
 
produit des coefficients diagonaux de A. Autrement dit, si A =  . 
.. .. ..  ou si A =
 .. . . . 
0 ··· 0 an,n
 
a1,1 0 ··· 0
 .. .. 
a
 2,1 a2,2 . . 
 , alors

 .
 . ..
 . . 0 

an,1 an,2 · · · an,n


det(A) = a1,1 × · · · × an,n .
En particulier, det(In ) = 1 × · · · × 1 = 1 ce qui est cohérent avec 1).

B Attention : la notion de déterminant n’a de sens que pour les matrices carrées.

Remarques. 1) Si A est une matrice diagonale, son déterminant est le produit de ses coefficients diagonaux
(d’après (ii)).
2) D’après la propriété (i), on a en particulier,

∀ A ∈ Mn (K), det(Ak ) = (det A)k .

3) Comme pour le déterminant des matrices carrées d’ordre 2, on note généralement le déterminant d’une
matrice carrée (d’ordre quelconque) écrite sous forme de tableau avec des « barres verticales » :
 
a1,1 · · · a1,n a1,1 · · · a1,n
.. ..  .
.. .. 
. . = det  . .


an,1 · · · an,n an,1 · · · an,n

4) Pour les matrices triangulaires d’ordre 2, la définition précédente coïncide avec la définition 6.1.1 !

6.3 Opérations élémentaires et déterminant


Rappelons qu’effectuer une opération élémentaire sur les matrices correspond à la multiplication (à droite
ou à gauche) par certaines matrices inversibles (voir l’exercice 40 à ce sujet). Explicitons ici ces matrices.
Soient λ ∈ K r {0} et (i, j) ∈ {1, . . . , n}2 , avec i 6= j, et introduisons les matrices suivantes :

Pi,j = In − Ei,i − Ej,j + Ei,j + Ej,i ; Di (λ) = In + (λ − 1)Ei,i ; Ti,j (λ) = In + λEi,j .

Alors :
• Effectuer l’opération éléméntaire Li ↔ Lj (resp. Ci ↔ Cj ) revient à multiplier à gauche (resp. à droite)
par la matrice Pi,j ;
• Effectuer l’opération éléméntaire Li ← λLi (resp. Ci ← λCi ) revient à multiplier à gauche (resp. à droite)
par la matrice Di (λ) ;
• Effectuer l’opération éléméntaire Li ← Li + λLj (resp. Ci ← Ci + λCj ) revient à multiplier à gauche (resp.
à droite) par la matrice Ti,j (λ).

43
6.3. OPÉRATIONS ÉLÉMENTAIRES ET DÉTERMINANT

 Question 50. Vérifier ces assertions (brièvement) et montrer :

det(Pi,j ) = −1; det(Di (λ)) = λ; det(Ti,j (λ)) = 1.

De ces observations, on déduit un calcul pratique du déterminant :

À partir d’une matrice carrée A ∈ Mn (K), on effectue à l’aide de la méthode du pivot de Gauss des opérations
élémentaires jusqu’à obtenir une matrice triangulaire (supérieure par exemple). On calcule facilement le détermi-
nant de cette dernière : c’est le produit de ses coefficients diagonaux. D’autre part, on connaît le déterminant de
chacune des matrices correspondant aux opérations élémentaires. De plus, comme le déterminant d’un produit
de matrices est égal au produit des déterminants, on obtient le déterminant de A. . .

B Attention : effectuer les opérations élémentaires « Li ↔ Lj » ou « Li ← λLj » change le déterminant


(voir l’exercice précédent). En pratique, on évite ces opérations, sources d’erreurs, et on privilégie l’opération
élémentaire « Li ← Li + λLj » qui ne change pas le déterminant.

 Question 51. Calculer le déterminant de la matrice suivante à l’aide d’opérations élémentaires sur les lignes :
 
2 1 3
1 −1 −2
 

−1 0 2

 Question 52. Montrer : ∀ A ∈ Mn (K), det(A) = det(tA).

Le théorème suivant est crucial :

Théorème 6.3.1. Soient n ∈ N∗ et A ∈ Mn (K). Alors :

A est inversible ⇐⇒ det(A) 6= 0.

 Question 53. Démontrer ce théorème.

Remarque. Pour montrer qu’une matrice est inversible, il suffit donc de montrer que son déterminant est non
nul. Comme notre principale méthode pour montrer qu’une matrice est inversible est d’effectuer des opérations
élémentaires sur celle-ci, le gain à ce stade peut paraître mineur.
Toutefois, si la question est seulement de savoir si une matrice donnée est inversible (pas de calculer son
inverse), toutes les opérations élémentaires sont « autorisées » et le calcul du déterminant par les opérations
élémentaires peut s’avérer bien utile, d’autant que nous allons voir d’autres méthodes pour le calculer....

Corollaire 6.3.2. Soient E un K-espace vectoriel de dimension finie n ∈ N∗ et f ∈ L(E). Alors f est un
automorphisme (ou, de manière équivalente, f est un inversible) si et seulement si le déterminant de la matrice
de f dans n’importe quelle base de E est non nul.

 Question 54. Justifier ce corollaire.

44
CHAPITRE 6. DÉTERMINANT

6.4 Développement par rapport à une rangée


Soit A = (ai,j )16i,j6n ∈ Mn (K). Notons B = (e1 , . . . , en ) la base canonique de Mn,1 (K) :
     
1 0 0
0 1 0
     
 ..  , e2 =  ..  , . . . , en =  ..  ,
e1 =      
. . .
0 0 1

et C1 , . . . , Cn les colonnes de A. Par n-linéarité du déterminant (linéarité par rapport à la jème colonne), on a :
n
X n
X
det(A) = det(C1 , . . . , Cj−1 , ai,j ej , Cj+1 , . . . , Cn ) = ai,j Ai,j ,
i=1 i=1


a1,1 ··· a1,j−1 0 a1,j+1 ··· a1,n
.. .. .. .. ..
. . . . .
.. .. .. ..
. . 0 . .
Ai,j = det(C1 , . . . , Cj−1 , ej , Cj+1 , . . . , Cn ) = ai,1 ai,j−1 1 ai,j+1 ai,n .
.. .. .. ..
. . 0 . .
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 0 an,j+1 ··· an,n

En utilisant maintenant le caractère alterné du déterminant, on obtient :

a1,1 ··· a1,j−1 a1,j+1 ··· a1,n


.. .. .. ..
. . . .
ai−1,1 ··· ai−1,j−1 ai−1,j+1 ··· ai−1,n
Ai,j = (−1)i+j
ai+1,1 ··· ai+1,j−1 ai+1,j+1 ··· ai+1,n
.. .. .. ..
. . . .
an,1 ··· an,j−1 an,j+1 ··· an,n

 Question 55. Démontrer cette assertion.

Définition 6.4.1. Soit A = (ai,j )16i,j6n ∈ Mn (K).


1) Pour (i, j) ∈ {1, . . . , n}2 , on appelle mineur de la place (i, j) dans A le déterminant ∆i,j d’ordre n − 1
obtenu en supprimant dans A la ième ligne et la jème colonne :

a1,1 ··· a1,j−1 a1,j+1 ··· a1,n


.. .. .. ..
. . . .
ai−1,1 ··· ai−1,j−1 ai−1,j+1 ··· ai−1,n
∆i,j =
ai+1,1 ··· ai+1,j−1 ai+1,j+1 ··· ai+1,n
.. .. .. ..
. . . .
an,1 ··· an,j−1 an,j+1 ··· an,n

45
6.5. COMATRICE

2) Pour (i, j) ∈ {1, . . . , n}2 , on appelle cofacteur de la place (i, j) dans A, et on note Ai,j le produit de
(−1)i+j par le mineur de la place (i, j) dans A :

Ai,j = (−1)i+j ∆i,j .

D’après ce qu’on vient de voir, on a :

Proposition 6.4.2 (Développement d’un déterminant par rapport à une ligne ou une colonne). Soit A =
(ai,j )16i,j6n ∈ Mn (K). On a :
Pn
1) ∀ j ∈ {1, . . . , n}, det(A) = i=1 ai,j Ai,j (développement de det(A) par rapport à la jème colonne) ;
Pn
2) ∀ i ∈ {1, . . . , n}, det(A) = j=1 ai,j Ai,j (développement de det(A) par rapport à la ième ligne).

 Question 56. Retrouver le déterminant de l’exercice 51 en développant par rapport à une ligne ou une
colonne.

Remarques. 1) Il est souvent utile de développer un déterminant par rapport une ligne ou une colonne qui
comporte peu de termes non nuls.
2) Pour le calcul numérique des déterminants, il existe des méthodes nettement plus rapides que celle consistant
à développer par rapport à une ligne ou une colonne. En général, l’utilisation des opérations élémentaires est la
méthode la plus efficace. Pour n petit (par exemple n = 3), développer par rapport à une ligne ou une colonne
peut s’avérer toutefois commode lorsqu’il y a beaucoup de zéros (cf. 1)).
Pour n = 2, le mieux est d’apprendre par cœur la formule donnée dans la définition 6.1.1 !

6.5 Comatrice
Définition 6.5.1. Soit A = (ai,j )16i,j6n ∈ Mn (K). On appelle comatrice de A la matrice carrée d’ordre n,
notée com(A), définie par :
com(A) = (Ai,j )16i,j6n ,

où Ai,j est le cofacteur de la place (i, j) de A.

On admet le théorème suivant (pas difficile mais un peu technique à démontrer) :

Théorème 6.5.2. ∀ A ∈ Mn (K),

A t com(A) = t com(A)A = det(A) In .

Corollaire 6.5.3. ∀ A ∈ GLn (K),


1 t
A−1 = com(A).
det(A)
!
a b
 Question 57. Soient a, b, c, d ∈ K. Si ad − bc 6= 0, vérifier que A = est inversible et que
c d
!
−1 1 d −b
A = .
ad − bc −c a

46
CHAPITRE 6. DÉTERMINANT

Remarque. La formule précédente, donnant A−1 à l’aide de com(A), est en pratique quasiment inutilisable
dès que n > 3. En effet, l’application de cette formule nécessite a priori le calcul d’un déterminant d’ordre n
(det A) et de n2 déterminants d’ordre n − 1 (les cofacteurs de A). La formule présente en revanche un intérêt
théorique : on dispose d’une formule générale pour l’inverse d’une matrice inversible.

Exercice 43. Calculer le déterminant d’ordre n ∈ N∗ suivant :

α + a1 −1 0 ··· 0
..
a2 α −1 .
∆n = .. ,
a3 0 α . 0
.. .. ..
. . . −1
an 0 ··· 0 α

où α, a1 , . . . , an ∈ K. (Indication. On pourra établir une relation de récurrence entre ∆n et ∆n−1 , pour n > 2,
et raisonner par récurrence.)

Exercice 44 (Déterminant de Vandermonde). ?


Alexandre-Théophile Vandermonde, né à Paris le 28 février 1735 et mort à Paris le 1er janvier 1796, est un
mathématicien français. Il fut aussi économiste, musicien et chimiste, travaillant notamment avec Étienne Bézout
et Antoine Lavoisier. Son nom est maintenant surtout associé à un déterminant.

Soit (x1 , . . . , xn ) ∈ Kn . On appelle déterminant de Vandermonde le déterminant suivant :

1 1 ··· 1
x1 x2 ··· xn
V (x1 , . . . , xn ) = x21 x22 ··· x2n .
.. .. ..
. . .
x1n−1 xn−1
2 ··· xn−1
n

1) Calculer V (x1 ), V (x1 , x2 ), V (x1 , x2 , x3 ).


2) Montrer par récurrence sur n ∈ N∗ :
Y
V (x1 , . . . , xn ) = (xi − xj ).
n>i>j>1

En déduire que V (x1 , . . . , xn ) est non nul si et seulement si x1 , . . . , xn sont deux à deux distincts.

47

Vous aimerez peut-être aussi