0% ont trouvé ce document utile (0 vote)
190 vues25 pages

Cours - Structure D'espace Vectoriel

Ce document présente la structure d'espace vectoriel, y compris les définitions d'espace vectoriel, de combinaisons linéaires et d'exemples d'espaces vectoriels tels que les matrices et les polynômes. L'algèbre linéaire est introduite comme l'étude des espaces vectoriels.

Transféré par

Mohamed Saad EL ABBADI
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
190 vues25 pages

Cours - Structure D'espace Vectoriel

Ce document présente la structure d'espace vectoriel, y compris les définitions d'espace vectoriel, de combinaisons linéaires et d'exemples d'espaces vectoriels tels que les matrices et les polynômes. L'algèbre linéaire est introduite comme l'étude des espaces vectoriels.

Transféré par

Mohamed Saad EL ABBADI
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Christophe Bertault — Mathématiques en MPSI

STRUCTURE D’ESPACE VECTORIEL

Dans tout ce chapitre, K est l’un des corps R ou C et I est un ensemble non vide quelconque. Tous les résultats présentés
demeurent cela dit vrais sur un corps K quelconque.
La structure d’espace vectoriel est un nouvel exemple fondamental de structure algébrique — après les groupes et les
anneaux. Cependant, alors que vous n’aviez pratiquement rien à savoir sur les groupes et les anneaux, vous en saurez
bientôt beaucoup sur les espaces vectoriels, dont la théorie est appelée l’algèbre linéaire. C’est parti !

1 ESPACES VECTORIELS ET COMBINAISONS LINÉAIRES

1.1 ESPACES VECTORIELS

Définition (Espace vectoriel) On appelle K-espace vectoriel ou espace vectoriel sur K tout triplet (E, +, ·) vérifiant les
propriétés suivantes :
— (E, +) est un groupe commutatif dont l’élément neutre est noté 0 E ou 0 et appelé le vecteur nul de E,
— · est une application de K × E dans E. À partir d’un élément λ de K et d’un élément x de E, · fournit un élément
de E noté λ · x ou plus simplement λx. Par définition, cette application · doit satisfaire les propriétés suivantes :
−→ pour tout x ∈ E : 1 · x = x,
−→ pour tous x, y ∈ E et λ ∈ K : λ · (x + y) = (λ · x) + (λ · y),
−→ pour tous x ∈ E et λ, µ ∈ K : (λ + µ) · x = (λ · x) + (µ · x),
−→ pour tous x ∈ E et λ, µ ∈ K : λ · (µ · x) = (λµ) · x.
Les éléments d’un espace vectoriel E sont appelés des vecteurs. L’application ·, qui n’est pas une loi interne sur E puisqu’à
travers elle des éléments de K agissent sur des vecteurs, est qualifiée de loi externe. En tant qu’ils agissent via · sur les
vecteurs de E, les éléments de K sont appelés des scalaires. La loi + est appelée addition et la loi · multiplication par un
scalaire. Le corps K est qualifié de corps de base pour E.

Les règles de calcul de cette définition sont exactement celles auxquelles les vecteurs du plan et de l’espace obéissent.
Par analogie, le mot vecteur sera désormais employé pour désigner de nombreux objets mathématiques que nous n’avions
pas l’habitude d’appeler des vecteurs jusqu’ici, mais que nous gagnerons à visualiser comme tels. Il est très important de
se représenter les espaces vectoriels, même les plus abstraits, comme des mondes géométriques semblables au plan ou à
l’espace. La pertinence d’une telle représentation sera plus claire quand nous aurons un peu avancé dans la théorie.
La tradition veut qu’on ne mette pas de flèches sur les vecteurs en algèbre linéaire. On continue cependant d’en mettre
quand on fait de la géométrie classique dans le plan et dans l’espace.

Théorème (Règles de calcul dans un espace vectoriel) Soit E un K-espace vectoriel.


(i) Pour tous x ∈ E et λ ∈ K : λ · x = 0E ⇐⇒ λ = 0 ou x = 0 E .
(ii) Pour tout x ∈ E : −x = (−1) · x, où −x est l’opposé de x dans E et −1 l’opposé de 1 dans K.

Démonstration
(i) Trois étapes. Soient x ∈ E et λ ∈ K.
— Comme : 0· x = (0+0)· x = 0· x +0· x, alors après simplification dans le groupe (E, +) : 0· x = 0 E .
— Comme : λ · 0 E = λ · (0 E + 0 E ) = λ · 0 E + λ · 0 E , alors après simplification : λ · 0E = 0E .
 ‹
1 1 1
— Si λ · x = 0 E avec λ 6= 0 : x = 1 · x = × λ · x = · (λ · x) = · 0 E = 0 E .
λ λ λ
(ii) Pour tout x ∈ E : x + (−1) · x = 1 · x + (−1) · x = (1 − 1) · x = 0 · x = 0 E , donc −x = (−1) · x.

1
Christophe Bertault — Mathématiques en MPSI

Exemple (K, +, ×) est un K-espace vectoriel.


Démonstration Cela résulte directement de la définition des corps. Il suffit de considérer la multiplication ×
sur K comme une loi de composition EXTERNE. On obtient alors toutes les propriétés voulues sans aucun travail.

Théorème (Espace vectoriel produit) Soient E1 , . . . , En des K-espaces vectoriels. Le produit E1 × . . . × En est un
groupe commutatif pour la loi + définie pour tous (x 1 , . . . , x n ), ( y1 , . . . , yn ) ∈ E1 × . . . × En par :
(x 1 , . . . , x n ) + ( y1 , . . . , yn ) = (x 1 + y1 , . . . , x n + yn ).
On le munit d’une loi externe · en posant pour tous λ ∈ K et (x 1 , . . . , x n ) ∈ E1 × . . . × En :

λ · (x 1 , . . . , x n ) = λ · x 1 , . . . , λ · x n .

Le triplet E1 × . . . × En , +, · est alors un K-espace vectoriel. Ici : 0 E1 ×...×En = (0 E1 , . . . , 0 En ).

Démonstration Nous nous contenterons de deux axiomes sur les quatre de  la définition. Pour tous λ ∈ K et
(x 1 , . . . , x n ), ( y1 , . . . , yn ) ∈ E1 × . . . × En : 1 · (x 1 , . . . , x n ) = 1 · x 1 , . . . , 1 · x n = (x 1 , . . . , x n ) et :
€ Š € Š
λ · (x 1 , . . . , x n ) + ( y1 , . . . , yn ) = λ · (x 1 + y1 , . . . , x n + yn ) = λ · (x 1 + y1 ), . . . , λ · (x n + yn )
€ Š
= λ · x 1 + λ · y1 , . . . , λ · x n + λ · x n = (λ · x 1 , . . . , λ · x n ) + (λ · y1 , . . . , λ · yn )
= λ · (x 1 , . . . , x n ) + λ · ( y1 , . . . , yn ).
n termes
z }| {
Exemple (Familles de scalaires) En particulier, Kn = K × . . . × K est un K-espace vectoriel pour tout n ∈ N∗ .
Nous retrouvons ici le cadre des vecteurs du plan avec R2 et celui des vecteurs de l’espace avec R3 .
Par exemple : (1, 4, −3) + 2 · (0, 2, 5) = (1, 8, 7).

Exemple (Matrices) Pour tous n, p ∈ N∗ , Mn,p (K) est un K-espace vectoriel pour ses lois usuelles d’addition et de multi-
plication par un scalaire.
     
1 0 2 1 1 3 5 2 12
Par exemple, pour n = 2 et p = 3 : 3 · 0 3 −1 + 2 · 4 2 5 = 8 13 7 .

Démonstration Mn,p (K), + est déjà un groupe commutatif et les autres axiomes se vérifient aisément.

Exemple (Polynômes) K[X ] est un K-espace vectoriel pour ses lois usuelles d’addition et de multiplication par un scalaire.

Démonstration K[X ], + est déjà un groupe commutatif et les autres axiomes se vérifient aisément.

Théorème (Espaces vectoriels d’applications) Soient X un ensemble non vide et E un K-espace vectoriel. L’ensemble
E X est un groupe commutatif pour la loi + définie pour tous f , g ∈ E X par :
∀x ∈ X , ( f + g)(x) = f (x) + g(x).

On le munit d’une loi externe · en posant pour tous f ∈ E X et λ ∈ K : ∀x ∈ X , (λ · f )(x) = λ · f (x) .

Le triplet E X , +, · est alors un K-espace vectoriel. Ici, 0 E X est l’application nulle x 7−→ 0 E de X dans E.

Démonstration Nous nous contenterons de deuxaxiomes sur les quatre. Soient λ ∈ K et f , g ∈ E X . Alors
1 · f = f car pour tout x ∈ X : (1 · f )(x) = 1 · f (x) = f (x), et λ · ( f + g) = λ · f + λ · g car pour tout x ∈ X :
    
λ · ( f + g) (x) = λ · ( f + g)(x) = λ · f (x) + g(x) = λ · f (x) + λ · g(x) = (λ · f )(x) + (λ · g)(x).

Exemple (Fonctions et suites)


• Pour tout intervalle I , l’ensemble K I des fonctions de I dans K est un K-espace vectoriel pour l’addition des fonctions
et leur multiplication par un élément de K.
• L’ensemble KN des suites à valeurs dans K est un K-espace vectoriel pour l’addition des suites et leur multiplication
par un élément de K.

Exemple Tout C-espace vectoriel est aussi un R-espace vectoriel.


Démonstration Si E est un C-espace vectoriel, λ · x est défini pour tous λ ∈ C et x ∈ E, donc en particulier
pour tout λ ∈ R. Cela justifie qu’on puisse considérer E comme un R-espace vectoriel.

2
Christophe Bertault — Mathématiques en MPSI

1.2 COMBINAISONS LINÉAIRES

Définition (Combinaisons linéaires d’un nombre fini de vecteurs) Soient E un K-espace vectoriel et x 1 , . . . , x n ∈ E.
X
n
On appelle combinaison linéaire de x 1 , . . . , x n tout vecteur de E de la forme λk x k = λ1 x 1 + . . . + λn x n pour certains
λ1 , . . . , λn ∈ K. k=1

La notion de combinaison linéaire est géométriquement très simple à représenter dans le plan ou dans
l’espace. Sur la figure ci-contre, #”
u est combinaison linéaire de #”
ı et #”
 mais ce n’est pas le cas de #”
v . Par #”
k #”
v
#” #” #”
contre, dans l’espace, tout vecteur est combinaison linéaire de ı ,  et k .
#”

$
b

Attention ! (Péché d’identification) #”


ı

X
n X
n #”
u
En général : λk x k = µk x k =⇒ λk = µk pour tout k ∈ ¹1, nº.
k=1 k=1

Par exemple : (1, 1) + 2 (0, 1) + 2 (1, 0) = (3, 3) = 2 (1, 1) + (0, 1) + (1, 0).

Exemple Dans R2 , (2, 7) est combinaison linéaire des vecteurs (5, −2) et (1, −3) : (2, 7) = (5, −2) − 3 (1, −3).

Démonstration C’est l’ EXISTENCE


de solutions qui compte.

(2, 7) est combinaison linéaire de (5, −2) et (1, −3) ⇐⇒ ∃ λ, µ ∈ R, (2, 7) = λ(5, −2) + µ(1, −3)
§
5λ + µ = 2
⇐⇒ ∃ λ, µ ∈ R,
−2λ − 3µ = 7.
Nous sommes ainsi ramenés à la résolution d’un système linéaire. Or pour tout (λ, µ) ∈ R2 :
§ §
5λ + µ = 2 5λ + µ = 2
⇐⇒ ⇐⇒ λ = 1 et µ = −3.
−2λ − 3µ = 7 13λ = 13 L 2 ← L 2 + 3L 1

Le système étudié possède des solutions, c’est exactement le résultat voulu.


       
−1 2 1 1 −2 1 1 0
Exemple Dans M2 (R), 2 0
n’est pas combinaison linéaire des vecteurs 0 0 , 3 2 et −1 1 .
       
−1 2 1 1 −2 1 1 0
Démonstration 2 0
est combinaison linéaire de 0 0
, 3 2
et −1 1
       
−1 2 1 1 −2 1 1 0
⇐⇒ ∃ x, y, z ∈ R, 2 0
= x 0 0
+ y 3 2
+ z −1 1

 x − 2 y + z = −1

3y − z = 2
⇐⇒ ∃ x, y, z ∈ R,
 x + y = 2

C’est l’ EXISTENCE 2 y + z = 0.
de solutions qui compte.

Résolvons ce système. Pour tout (x, y, z) ∈ R3 :


 
 x − 2 y + z = −1  x − 2y + z = −1
 
3y − z = 2 3y − z = 2
⇐⇒
 x + y = 2  3y − z = 3 L3 ← L3 − L1
 
2y + z = 0 2y + z = 0

 x − 2y + z = −1

3y − z = 3
⇐⇒
 0 = 1 L3 ← L3 − L2 .

2y + z = 0
Ce dernier système n’a pas de solution — d’où le résultat.

Exemple Soit n ∈ N. Tout polynôme de K[X ] de degré INFÉRIEUR OU ÉGAL à n est combinaison linéaire des polynômes
X
n
1, X , X 2 , . . . , X n puisqu’on peut l’écrire ak X k pour certains a0 , . . . , an ∈ K.
k=0

3
Christophe Bertault — Mathématiques en MPSI

Définition (Famille presque nulle de scalaires) On dit qu’une famille d’éléments de K indexée par I est presque
nulle si tous ses éléments sont nuls SAUF UN NOMBRE FINI D’ENTRE EUX.

Dans le cas où I est un ensemble FINI , la précision « presque nulle » est évidemment sans intérêt.
Quand j’aurai besoin de mêler un quantificateur et une famille presque nulle, je m’autoriserai la notation suivante, bien
pratique mais d’une correction toute relative : ∀(λi )i∈I ∈ K I presque nulle, . . . De fait, certains auteurs notent K(I)
l’ensemble des familles presque nulles d’éléments de K indexées par I , mais cette notation n’est pas au programme donc
je ne l’emploierai pas. Ne la confondez pas en tout cas avec la notation K I qui désigne l’ensemble de TOUTES les familles
d’éléments de K indexées par I .

Définition (Combinaisons linéaires d’un nombre quelconque de vecteurs) Soient E un espace vectoriel X et (x i )i∈I
une famille de vecteurs de E. On appelle combinaison linéaire de (x i )i∈I tout vecteur de E de la forme λi x i où (λi )i∈I
est une famille PRESQUE NULLE d’éléments de K. i∈I

$ Attention ! Pour un nombre FINI de vecteurs, pas besoin de familles PRESQUE NULLES de scalaires !

Nous pourrons maintenant parler des combinaisons linéaires d’un nombre INFINI de vecteurs, mais chacune de ces combi-
naisons linéaires reste fondamentalement une somme FINIE. Les vraies sommes infinies n’ont aucun sens sans une notion de
passage à la limite adéquat.

Exemple K[X ] est l’ensemble des combinaisons linéaires de la famille X k k∈N .
X
+∞
Rappelons à ce sujet que la notation ak X k des polynômes, très pratique, désigne en fait une somme FINIE.
k=0

1.3 SOUS-ESPACES VECTORIELS

Définition (Sous-espace vectoriel) Soient E un K-espace vectoriel et F une partie de E STABLE PAR ADDITION ET
MULTIPLICATION PAR UN SCALAIRE . Ondit que F est un sous-espace vectoriel de E si F est un K-espace vectoriel pour les
lois de E.

Si F un sous-espace vectoriel de E, F est un sous-groupe additif de E, donc : 0F = 0E ∈ F .


Exemple Si E est un K-espace vectoriel, 0 E et E sont deux sous-espaces vectoriels de E.
¦ ©
Exemple L’ensemble F = (x, y) ∈ R2 | x 2 + x + y 2 = 0 N’est PAS un sous-espace vectoriel de R2 .

Démonstration F n’est pas stable par multiplication par un scalaire car (−1, 0) ∈ F , mais (−2, 0) ∈
/ F.

Théorème (Caractérisation des sous-espaces vectoriels) Soient E un K-espace vectoriel et F une partie de E. Les
assertions suivantes sont équivalentes :
(i) F est un sous-espace vectoriel de E.
¨
— 0 E ∈ F.
(ii)
— F est stable par combinaison linéaire : ∀x, y ∈ F, ∀λ ∈ K, λx + y ∈ F.

Démonstration
(i) =⇒ (ii) Si F est un sous-espace vectoriel de E, on a vu que 0 E = 0 F ∈ F . De plus, pour tous x, y ∈ E et
λ ∈ K, λx et y sont éléments de F car F est stable par multiplication par un scalaire, et enfin λx + y ∈ F
car F est stable par addition.
(ii) =⇒ (i) Si l’assertion (ii) est vraie, F est stable par différence — pour λ = −1 — donc est un sous-groupe
additif de E. Les autres axiomes de la définition des espaces vectoriels ne requièrent aucune vérification
particulière car une relation vraie sur E tout entier l’est aussi sur F .

4
Christophe Bertault — Mathématiques en MPSI

C’est TOUJOURS le résultat précédent qu’il faut utiliser pour montrer qu’une partie d’un espace vectoriel en est un sous-
espace vectoriel. Si on utilisait la DÉFINITION des sous-espaces vectoriels, on serait obligé de vérifier beaucoup d’axiomes
dont la CARACTÉRISATION fait l’économie.
Par ailleurs, pour montrer qu’un ensemble muni d’une addition et d’une multiplication par un scalaire est un espace
vectoriel, il suffit souvent de montrer qu’il est SOUS-espace d’un autre espace vectoriel connu.

Théorème (Ensemble des solutions d’un système linéaire HOMOGÈNE) Soit A ∈ Mn,p (K). L’ensemble des solutions
du système linéaire HOMOGÈNE AX = 0 d’inconnue X ∈ K p est un sous-espace vectoriel de K p .
En particulier, toute droite de R2 PASSANT PAR (0, 0) est un sous-espace vectoriel de R2 , et toute droite et tout plan de
R3 PASSANT PAR (0, 0, 0) sont des sous-espaces vectoriels de R3 .

¦ ©
Démonstration Notons S l’ensemble X ∈ K p | AX = 0 inclus dans K p . Évidemment 0 ∈ S car A × 0 = 0.
Montrons ensuite que S est stable par combinaison linéaire. Pour tous X , X ′ ∈ S et λ ∈ K :
A(λX + X ′ ) = λ AX + AX ′ = λ × 0 + 0 = 0, donc λX + X ′ ∈ S.

Exemple Pour tout n ∈ N, l’ensemble des matrices triangulaires supérieures de taille n à coefficients dans K est un sous-
espace vectoriel de Mn (K).
Démonstration Cet ensemble est inclus dans Mn (K) et contient la matrice nulle. Ensuite, nous savons déjà que
toute combinaison linéaire de matrices triangulaires supérieures est encore une matrice triangulaire supérieure.

Définition-théorème (Espaces vectoriels Kn [X ]) Pour tout n ∈ N, l’ensemble des polynômes de degré INFÉRIEUR
OU ÉGAL à n, noté Kn [X ], est un sous-espace vectoriel de K[X ].

$même
Attention ! L’ensemble des polynômes de degré
pas le polynôme nul !
ÉGAL à n N’est PAS un sous-espace vectoriel de K[X ], il ne contient

Démonstration Soit n ∈ N. Pour commencer Kn [X ] ⊂ K[X ], et 0 ∈ Kn [X ] car deg(0) = −∞ ¶ n. Montrons


ensuite que Kn [X ] est stable par combinaison linéaire. Pour tous P, Q ∈ Kn [X ] et λ ∈ K :

deg(λP + Q) ¶ max deg(P), deg(Q) ¶ n, donc λP + Q ∈ Kn [X ].

Exemple
• Pour tout intervalle I , les ensembles C (I , K), D(I , K) et C 1 (I , K) sont des sous-espaces vectoriels de K I .
• L’ensemble des suites convergentes à valeurs dans K est un sous-espace vectoriel du K-espace vectoriel KN .
¦ ©
Exemple L’ensemble F = f ∈ C (R, R) | f (0) = 0 est un sous-espace vectoriel de C (R, R).

Démonstration Pour commencer F ⊂ C (R, R), et x 7−→ 0 est continue sur R de valeur 0 en 0, donc appartient
à F . Montrons ensuite que F est stable par combinaison linéaire. Pour tous f , g ∈ F et λ ∈ R, la fonction λ f + g
est continue sur R et (λ f + g)(0) = λ f (0) + g(0) = 0 + 0 = 0, donc λ f + g ∈ F .

Exemple Soient I un intervalle et a ∈ C (I , K). L’ensemble des solutions de l’équation différentielle linéaire homogène
y ′ + a(x) y = 0 est un sous-espace vectoriel de D(I , K).
Pour tous a, b, c ∈ K, on peut montrer de même que l’ensemble des solutions de l’équation a y ′′ + b y ′ + c y = 0 est un
sous-espace vectoriel du K-espace vectoriel D 2 (R, K) des fonctions deux fois dérivables de I dans K.
¦ ©
Démonstration Posons F = y ∈ D(I , K) | y ′ + a y = 0 . Ainsi F ⊂ D(I , K) et la fonction x 7−→ 0 est solution
sur I de l’équation y ′ + a y = 0, donc appartient à F . Montrons ensuite que F est stable par combinaison linéaire.
Pour tous y, z ∈ F et λ ∈ K, la fonction λ y + z est dérivable sur I et :
(λ y + z)′ + a (λ y + z) = λ ( y ′ + a y) + (z ′ + az) = λ × 0 + 0 = 0, donc λ y + z ∈ F .

Théorème (Intersection de sous-espaces vectoriels) Soit E un K-espace vectoriel. Toute intersection de sous-espaces
vectoriels de E est encore un sous-espace vectoriel de E.

\
Démonstration Soit (Fi )i∈I une famille de sous-espaces vectoriels de E. Montrons que F = Fi , qui est une
i∈I
partie de E, en est un sous-espace vectoriel. Pour commencer 0 E ∈ F car 0 E ∈ Fi pour tout i ∈ I , Fi étant un

5
Christophe Bertault — Mathématiques en MPSI

sous-espace vectoriel de E. Montrons ensuite que F est stable par combinaison linéaire. Soient x, y ∈ F et λ ∈ K.
Pour tout i ∈ I : λx + y ∈ Fi car Fi est un sous-espace vectoriel de E et x, y ∈ Fi , donc λx + y ∈ F .

$vectoriel
Attention ! La réunion de deux sous-espaces vectoriels ’est N
en général — pourquoi diable serait-elle stable par addition ?
un sous-espace
PAS
G
b


/ F∪G
F
1.4 SOUS-ESPACES AFFINES

Les éléments d’un espace vectoriel E sont naturellement des vecteurs, mais dans le plan et dans l’espace, nous savons
bien que nous pouvons identifier les points et les vecteurs via le choix d’un point de référence ou origine O. Une telle origine
# ”
étant fixée, toute relation OM = #”
u nous autorise à identifier le point M et le vecteur #”u.
Plus généralement, tout élément d’un espace vectoriel quelconque E peut être vu comme un point via le choix du vecteur
#”
nul O = 0 E comme origine. Si pour tous A, B ∈ E, on note AB le vecteur B − A, alors pour tout M ∈ E, l’identification
# ”
points-vecteurs s’écrit simplement : M = OM .
Point Vecteur

Définition (Sous-espace affine, direction)


¦ Soit E un
© K-espace vectoriel. On appelle sous-espace affine de E toute
partie F de E de la forme F = x + F = f + x | f ∈ F où F est un sous-espace vectoriel de E et x est vecteur de E.

Le sous-espace vectoriel F associé au sous-espace affine F est unique. On l’appelle la direction de F et ses éléments sont
appelés les vecteurs directeurs de F .

Nous noterons souvent les sous-espaces vectoriels avec des majuscules D D = y+D
droites (F , G, H. . .) et les sous-espaces affines avec des majuscules rondes
(F , G , H . . .). b
y
$ Attention
AFFINE
! Tout sous-espace F de E est un sous-espace
VECTORIEL
de E puisque F = 0 + F . La réciproque est fausse en revanche car 0E
b

E b

un sous-espace affine ne contient pas 0 E en général. P


x b
b
b

Démonstration Montrons l’unicité de la direction de F . P = x+P


Soient F et F ′ deux sous-espaces vectoriels de E et x, x ′ ∈ E
pour lesquels F = x + F = x ′ + F ′ . Pour montrer que F = F ′ ,
il nous suffit par symétrie de prouver l’inclusion F ⊂ F ′ . Soit f ∈ F . Comme x = x + 0 E ∈ x + F = x ′ + F ′ :
x = x ′ + f1′ pour un certain f1′ ∈ F ′ . Or x + f ∈ x + F également, donc x + f = x ′ + f2′ pour un certain f2′ ∈ F ′ .
Finalement f = f2′ − f1′ ∈ F ′ .

Théorème (Ensemble des solutions d’un système linéaire) Soit A ∈ Mn,p (K) et B ∈ Kn . Si le système linéaire
AX = B d’inconnue X ∈ K p est COMPATIBLE, l’ensemble de ses solutions est un sous-espace affine de K p . Sa direction
n’est autre que l’ensemble des solutions du système linéaire homogène associé.
En particulier, toute droite de R2 ou R3 et tout plan de R3 en sont des sous-espaces affines.

¦ © ¦ ©
Démonstration Posons S = X ∈ K p | AX = B et S = X ∈ K p | AX = 0 . Le système étudié étant
compatible, nous pouvons nous en donner une solution particulière X part et d’après notre cours sur les systèmes
linéaires : S = X part + S. Par ailleurs, nous avons déjà vu que S est un sous-espace vectoriel de K p .
§
x+y=2
Exemple La droite de R3 d’équation est un sous-espace affine de direction la droite vectorielle d’équation
§ x − y +z = 1
x+ y =0
x − y + z = 0.

Exemple Soient I un intervalle et a, b ∈ C (I , K). L’ensemble des solutions de l’équation différentielle y ′ + a(x) y = b(x)
est un sous-espace affine de D(I , K).
¦ © ¦ ©
Démonstration Posons S = y ∈ D(I , K) | y ′ + a y = b et S = y ∈ D(I , K) | y ′ + a y = 0 . D’après
notre cours sur les équations différentielles linéaires, nous pouvons nous donner une solution particulière ypart
de l’équation complète y ′ + a(x) y = b(x) et affirmer que S = ypart + S. Par ailleurs, nous avons déjà vu que S
est un sous-espace vectoriel de D(I , K).

6
Christophe Bertault — Mathématiques en MPSI

¦ ©
Exemple L’ensemble E = P ∈ R[X ] | X P ′ + P = 2X est un sous-espace affine de R[X ] de direction le sous-espace
¦ ©
vectoriel E = P ∈ R[X ] | X P ′ + P = 0 .

Démonstration Il n’est pas dur de vérifier que E est un sous-espace vectoriel de R[X ]. Remarquons par ailleurs
que X ∈ E — solution particulière ! Ainsi, pour tout P ∈ R[X ] :
P∈E ⇐⇒ X P ′ +P = 2X ⇐⇒ X (P−X )′ +(P−X ) = 0 ⇐⇒ P−X ∈ E ⇐⇒ P ∈ X +E.
Conclusion : E = X + E, ce qui confirme que E est un sous-espace affine de R[X ] de direction E.

Théorème (Caractérisation des sous-espaces affines par leur direction et un point) Soient E un K-espace vectoriel
et F un sous-espace affine de E de direction F . Alors pour tout A ∈ F : F = A + F .

Deux sous-espaces affines sont égaux si et seulement s’ils ont la même direction et un point en commun.

Démonstration Par définition : F = x + F pour un certain x ∈ E, donc A = x + f pour un certain f ∈ F , puis


F = x + F = (A− f )+ F = A+(F − f ). Or F est un sous-espace vectoriel de E, donc F − f ⊂ F = (F + f )− f ⊂ F − f ,
donc F = A + (F − f ) = A + F .

Théorème (Intersection de sous-espaces affines) Soient E un K-espace vectoriel et (Fi )i∈I une famille de sous-
espaces affines de E. Pour tout i ∈ I , on note Fi la direction de Fi .
\ \
On dit que les Fi ,\
i décrivant I , sont concourants ou sécants si Fi 6= ∅. Dans ce cas, Fi est un sous-espace affine
de E de direction Fi . i∈I i∈I

i∈I

$sous-espaces
Attention ! Alors qu’une intersection de sous-espaces vectoriels contient toujours le vecteur nul, une intersection de
affines peut vraiment être vide, pensez par exemple au cas de deux droites parallèles non confondues.
\ \
Démonstration Posons F = Fi et F = Fi et supposons F =
6 ∅. Un point A de F étant donné, nous avons
i∈I i∈I
vu plus haut que Fi = A + Fi pour tout i ∈ I . Il nous suffit dès lors de montrer que F = A + F .
• Montrons que F ⊂ A + F . Soit M ∈\F . Pour tout i ∈ I : M = A + f i pour un certain f i ∈ Fi , et ces f i
sont tous égaux, donc éléments de Fi = F . Comme voulu M ∈ A + F .
i∈I
• Inversement F ⊂ Fi pour tout i ∈ I , donc A + F ⊂ A + Fi = Fi , donc A + F ⊂ F .

1.5 SOUS-ESPACE VECTORIEL ENGENDRÉ PAR UNE PARTIE

Définition (Sous-espace vectoriel engendré par une partie) Soient E un K-espace vectoriel et X une partie de E.
(i) L’intersection de tous les sous-espaces vectoriels de E contenant X est appelée le sous-espace vectoriel (de E)
engendré par X et notée Vect(X ). À ce titre, Vect(X ) est le plus petit sous-espace vectoriel de E contenant X .
En particulier, tout sous-espace vectoriel de E qui contient X contient aussi Vect(X ).

(ii) Si X = x i | i ∈ I , Vect(X ) est aussi l’ensemble des combinaisons linéaires de (x i )i∈I et noté Vect(x i )i∈I .

Quelques figures vaudront mieux qu’un long discours.


u Vect(u, v)
u Vect(u) v u Vect(u, v)
v
b b
b

Démonstration
(i) En tant qu’intersection de sous-espaces vectoriels de E contenant X , Vect(X ) est lui-même un sous-espace
vectoriel de E contenant X , et il est inclus par définition dans tous les sous-espaces vectoriels de E contenant
X , ce qui montre que tout sous-espace vectoriel de E qui contient X contient en réalité Vect(X ) tout entier.

7
Christophe Bertault — Mathématiques en MPSI

(ii) Notons V l’ensemble des combinaisons linéaires de (x i )i∈I et montrons que V = Vect(X ). Or Vect(X ) est
stable par combinaison linéaire en tant que sous-espace vectoriel de E et contient X , donc contient toute
combinaison linéaire de (x i )i∈I , autrement dit V ⊂ Vect(X ). Pour l’inclusion réciproque, d’après (i), il nous
suffit de montrer que V est un sous-espace vectoriel de E contenant X .
X X
Pour commencer V ⊂ E et V contient à la fois 0 E et X car 0 E = 0 · x i et x j = 1 · x j + 0 · x i pour tout
i∈I i6= j X
j ∈ I . Ensuite, pour la stabilité par combinaison linéaire, soient v, w ∈ V et α ∈ K, disons v = λi x i et
X i∈I
w= µi x i pour certaines familles presque nulles (λi )i∈I et (µi )i∈I d’éléments de K. La famille (αλi +µi )i∈I
i∈I X
est aussi presque nulle et αv + w = (αλi + µi ) x i , donc αv + w ∈ Vect(X ).
i∈I

Pour montrer qu’une partie d’un espace vectoriel en est un sous-espace vectoriel,
En pratique :
il suffit très souvent de l’écrire comme un Vect.

Exemple Pour tout K-espace vectoriel E, par convention des sommes vides : Vect(∅) = 0 E .
€ Š
Exemple Le sous-espace vectoriel Vect (1, 2) est la droite de R2 passant par (0, 0) dirigée par (1, 2).
 
Exemple K[X ] = Vect X k k∈N
et pour tout n ∈ N : Kn [X ] = Vect 1, X , . . . , X n .
     
1 0 0 1 0 0
Exemple Dans M2 (K), Vect 0 0
, 0 0
, 0 1
est l’ensemble des matrices triangulaires supérieures.
€ Š
Exemple Le plan P de R3 d’équation 2x − y + 3z = 2 est le sous-espace affine de direction Vect (1, 2, 0), (0, 3, 1) passant
€ Š
par (0, −2, 0). En résumé : P = (0, −2, 0) + Vect (1, 2, 0), (0, 3, 1) .
¦ © ¦ ©
Démonstration P = (x, 2x + 3z − 2, z) | x, z ∈ R = (0, −2, 0) + x(1, 2, 0) + z(0, 3, 1) | x, z ∈ R
€ Š
= (0, −2, 0) + Vect (1, 2, 0), (0, 3, 1) .
§ € Š
5x + y − z = 2
Exemple La droite D de R3 d’équation est le sous-espace affine de direction Vect (1, −2, 3)
x + 2y + z = 1
€ Š
passant par (0, 1, −1). En résumé : D = (0, 1, −1) + Vect (1, −2, 3) .
§
5x + y − z = 2
Démonstration Pour tout (x, y, z) ∈ R3 : (x, y, z) ∈ D ⇐⇒ 1 1
2x + y = 1 L2 ← L1 + L2
3 3
⇐⇒
y = 1 − 2x et z = 3x − 1.
¦ © ¦ © € Š
Enfin : D = (x, 1 − 2x, 3x − 1) | x ∈ R = (0, 1, −1) + x(1, −2, 3) | x ∈ R = (0, 1, −1) + Vect (1, −2, 3) .

Exemple Soient I un intervalle et a ∈ C (I , K). D’après le théorème fondamental du calcul intégral, a possède une primitive
A sur I . L’ensemble des solutions de l’équation différentielle linéaire homogène y ′ + a(x) y = 0 est alors Vect e−A .
Dans le même genre, soient a, b, c ∈ R. On note F le sous-espace vectoriel de D 2 (R, R) des solutions de l’équation différen-
tielle linéaire homogène a y ′′ + b y ′ + c y = 0.
€ ′
Š
— Si aX 2 + bX + c possède deux racines réelles distinctes r et r ′ : F = Vect x 7−→ e r x , x 7−→ e r x .
€ Š
— Si aX 2 + bX + c possède une unique racine réelle r : F = Vect x 7−→ e r x , x 7−→ xe r x .
€ Š
— Si aX 2 + bX +c possède deux racines non réelles conjuguées r ±iω : F = Vect x 7−→ e r x cos(ωx), x 7−→ e r x sin(ωx) .
¦ © ¦ ©
Exemple Si le corps de base est R : Vect(1) = a × 1 | a ∈ R = R et Vect(1, i) = a + ib | a, b ∈ R = C.
¦ ©
Si par contre le corps de base est C : Vect(1) = a × 1 | a ∈ C = C.

Théorème (Propriétés des Vect) Soient E un K-espace vectoriel, X et Y deux parties de E et x, a, b ∈ E.


(i) Inclusion : Si X ⊂ Y , alors Vect(X ) ⊂ Vect(Y ).
 €  Š
(ii) Ôter un vecteur : Si x ∈ X est combinaison linéaire de X \ x , alors Vect(X ) = Vect X \ x .

(iii) Remplacer un vecteur : Si b est combinaison linéaire de X ∪ a avec un coefficient NON NUL sur a :
€  Š €  Š
Vect X ∪ a = Vect X ∪ b .

8
Christophe Bertault — Mathématiques en MPSI

Démonstration
(i) Toute combinaison linéaire de X est bien sûr une combinaison linéaire de Y !
 €  Š
(ii) Soit€ x ∈ X combinaison linéaire de X \ x . D’après (i) : Vect X \ x ⊂ Vect(X ). Dans l’autre sens,
 Š 
Vect X \ x est un sous-espace vectoriel contenant X \ x , or il contient aussi x par hypothèse, donc X
tout entier, donc Vect(X ).
€  Š 
(iii) Dans
€ un sens, Vect X ∪ a contient X et a, donc aussi b par hypothèse, donc X ∪ b , donc enfin
 Š
Vect X ∪ b . Dans l’autre sens, remarquons que par hypothèse b = λa + x avec λ ∈ K NON NUL et où x
b−x 
est une combinaison linéaire de X . Ainsi a = , donc a est combinaison linéaire de X ∪ b avec un
€ λ
 Š €  Š
coefficient NON NUL sur b. L’inclusion Vect X ∪ a ⊂ Vect X ∪ b se montre par conséquent comme on
a prouvé l’autre, les rôles de a et b étant finalement symétriques.

Combinaison linéaire
de (1, 1, 0) et (0, 1, 0)
€ z }| { Š € Š € Š
Exemple Dans R3 : Vect (1, 1, 0), (0, 1, 0), (1, 3, 0) = Vect (1, 1, 0), (0, 1, 0) = Vect (1, 1, 0) − (0, 1, 0), (0, 1, 0)
€ Š 
= Vect (1, 0, 0), (0, 1, 0) = R2 × 0 .

2 FAMILLES DE VECTEURS

2.1 PARTIES ET FAMILLES GÉNÉRATRICES

Définition (Partie/famille génératrice) Soient E un K-espace vectoriel et X une partie de E. On dit que la partie X
est génératrice de E ou engendre E si tout élément de E est combinaison linéaire de X , i.e. si E = Vect(X ).

Si X = x i | i ∈ I , on dit aussi que la famille (x i )i∈I est génératrice de E ou engendre E.

 
Exemple Xk k∈N
engendre K[X ] et 1, X , X 2 , . . . , X n engendre Kn [X ] pour tout n ∈ N.
€ Š
Exemple Pour tout (x, y) ∈ R2 : (x, y) = x(1, 0)+ y(0, 1), donc la famille
€ (1, 0), (0, 1) engendre
Š R2 . De même, pour
tout (x, y, z) ∈ R3 : (x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1), donc (1, 0, 0), (0, 1, 0), (0, 0, 1) engendre R3 .

Plus généralement, posons pour tout n ∈ N∗ : e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1). La
famille (e1 , . . . , en ) engendre Kn car pour tout (x 1 , . . . , x n ) ∈ Kn : (x 1 , . . . , x n ) = x 1 e1 + . . . + x n en .
       
1 0 0 0 0 0 01
Exemple La famille 0 0
, 1 0
, 0 , 0 1 engendre M2 (K) car pour tous a, b, c, d ∈ K :
0
         
a c 1 0 0 0 0 1 0 0
b d
= a 0 0
+ b 1 0
+ c 0 0
+ d 0 1
.

Plus généralement, pour tous n, p ∈ N∗ et pour tous i ∈ ¹1, nº et j ∈ ¹1, pº, notons Ei j la matrice de Mn,p (K) dont tous les
coefficients sont nuls sauf celui de position
X de (i, j), égal à 1. La famille (Ei j ) 1¶i¶n est alors génératrice de Mn,p (K) car pour
1¶ j¶p
toute matrice A ∈ Mn,p (K) : A= ai j Ei j .
i, j

Exemple La famille (1, i) engendre le R -espace vectoriel C, mais (1) suffit à engendrer le C -espace vectoriel C.

Le résultat qui suit n’est qu’une simple reformulation du théorème « Propriétés des Vect ».

Théorème (Propriétés des parties génératrices) Soient E un K-espace vectoriel et X et Y deux parties de E.
• Inclusion : Si X engendre E et si X ⊂ Y , alors Y engendre E.
 
• Ôter un vecteur : Si X engendre E et si x ∈ X est combinaison linéaire de X \ x , X \ x engendre E.
 
• Remplacer un vecteur : Si X ∪ a engendre E et si b est combinaison linéaire de X ∪ a avec un coefficient

NON NUL sur a, X ∪ b engendre E.

9
Christophe Bertault — Mathématiques en MPSI

En pratique : Trouver une partie génératrice d’un sous-espace vectoriel, c’est l’écrire comme un Vect.

¦ ©
Exemple L’ensemble E = (x, y, z, t) ∈ R4 | x + 2 y − z = 0 et x − y + t = 0 est un sous-espace vectoriel de R4
€ Š
engendré par la famille (1, 0, 1, −1), (0, 1, 2, 1) .
§
z = x + 2y
Démonstration Pour tout (x, y, z, t) ∈ R4 : (x, y, z, t) ∈ E ⇐⇒ donc :
t = −x + y,
¦ © ¦ © € Š
E = (x, y, x+2 y, −x+ y) | x, y ∈ R = x(1, 0, 1, −1)+ y(0, 1, 2, 1) | x, y ∈ R = Vect (1, 0, 1, −1), (0, 1, 2, 1) .
€ Š
Ceci montre À LA FOIS que E est un sous-espace vectoriel de R4 et que (1, 0, 1, −1), (0, 1, 2, 1) engendre E.
¦ ©
Exemple L’ensemble F = P ∈ R3 [X ] | 2P(X +1) = X P ′ est un sous-espace vectoriel de R3 [X ] engendré par X 2 −4X +3.

Démonstration Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X ] :



P∈F ⇐⇒ 2P(X + 1) = X P ′ ⇐⇒ 2a(X + 1)3 + 2b(X + 1)2 + 2c(X + 1) + 2d = X 3aX 2 + 2bX + c
  
 2a = 3a
  a = 0  a = 0
6a + 2b = 2b
⇐⇒ ⇐⇒ 4b + c = 0 ⇐⇒ c = −4b
 6a + 4b + 2c = c  b+c+d = 0  d = 3b.

2a + 2b + 2c + 2d = 0
¦ © ¦  © 
Conclusion : F = bX 2 − 4bX + 3b | b ∈ R = b X 2 − 4X + 3 | b ∈ R = Vect X 2 − 4X + 3 . Ceci montre

2
À LA FOIS que F est un sous-espace vectoriel de R3 [X ] et que X − 4X + 3 en est une famille génératrice.

2.2 PARTIES ET FAMILLES LIBRES OU LIÉES

Définition (Partie/famille libre d’un nombre fini de vecteurs) Soient E un K-espace vectoriel et x 1 , . . . , x n ∈ E.
On dit que la famille (x 1 , . . . , x n ) ou l’ensemble x 1 , . . . , x n est libre ou que les vecteurs x 1 , . . . , x n sont linéairement
indépendants si : Xn 
∀(λ1 , . . . , λn ) ∈ Kn , λi x i = 0 E =⇒ λ1 = . . . = λ n = 0 .
i=1

Quitte à remplacer λi par λi − µi dans la définition de la liberté, on peut aussi dire que (x 1 , . . . , x n ) est libre si et
X
n X
n 
n
seulement si : ∀(λ1 , . . . , λn ), (µ1 , . . . , µn ) ∈ K , λi x i = µi x i =⇒ ∀i ∈ ¹1, nº, λi = µi , ce
i=1 i=1
qui n’est finalement rien de plus qu’un PRINCIPE D’IDENTIFICATION. En résumé :

FAMILLE GÉNÉRATRICE = E XISTENCE pour TOUT vecteur d’une décomposition comme combinaison linéaire
FAMILLE LIBRE = UNICITÉ des coefficients dans les combinaisons linéaires,
donc possibilité de pratiquer des IDENTIFICATIONS

Définition (Partie/famille liée d’un nombre fini de vecteurs, vecteurs colinéaires) Soient E un K-espace vectoriel
et x 1 , . . . , x n ∈ E. On dit que la famille (x 1 , . . . , x n ) ou l’ensemble x 1 , . . . , x n est liée ou que les vecteurs x 1 , . . . , x n sont
linéairement dépendants si la famille (x 1 , . . . , x n ) N’est PAS libre. Cela revient à dire que L’UN AU MOINS des vecteurs
x 1 , . . . , x n est combinaison linéaire des autres.
Pour deux vecteurs x, y ∈ E, on dit que x et y sont colinéaires si la famille (x, y) est liée, i.e. si x ou y est un multiple
de l’autre.

Dire que (x 1 , . . . , x n ) est liée, c’est dire que pour certains λ1 , . . . , λn ∈ K :


X 
1 X
n
λi x i = 0 E et ∃i0 ∈ ¹1, nº, λi0 6= 0 , auquel cas x i0 = − λi x i , i.e. x i0 est « combinaison linéaire des autres ».
i=1
λi0 i6=i
0

Exemple Tout ensemble de vecteurs qui contient le vecteur nul est lié.
Démonstration Le vecteur nul est combinaison linéaire de tout ensemble de vecteurs — coefficients tous nuls. . .

10
Christophe Bertault — Mathématiques en MPSI

Exemple La famille (1, i) est libre dans le R-espace vectoriel C — principe d’IDENTIFICATION DES PARTIES RÉELLE ET
IMAGINAIRE — mais liée dans le C-espace vectoriel C.
Démonstration
• Montrons que (1, i) est libre sur le corps de base R. Soient λ, µ ∈ R des réels pour lesquels λ.1 + µ.i = 0.
Par identification des parties réelle et imaginaire : λ = µ = 0.
• La famille (1, i) est en revanche liée sur le corps de base C car i = i × 1 est un multiple COMPLEXE de 1.

Exemple Soit n ∈ N∗ . Posons : e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1). La famille (e1 , . . . , en )
est libre dans Kn — principe d’IDENTIFICATION DES COEFFICIENTS D’UNE FAMILLE DE SCALAIRES.
Démonstration Pour tout (λ1 , . . . , λn ) ∈ Kn : x 1 e1 +. . .+ x n en = (λ1 , . . . , λn ), donc si x 1 e1 +. . .+ x n en = 0Kn ,
alors aussitôt λ1 = . . . = λn = 0.

Exemple Soient n, p ∈ N∗ . Pour tous i ∈ ¹1, nº et j ∈ ¹1, pº, notons Ei j la matrice de Mn,p (K) dont tous les coefficients sont
nuls sauf celui de position de (i, j), égal à 1. La famille (Ei j ) 1¶i¶n est alors libre dans Mn,p (K) — principe d’IDENTIFICATION
1¶ j¶p
DES COEFFICIENTS D ’UNE MATRICE .
€ Š
Exemple La famille (2, 1), (−1, 3), (0, 2) est liée dans R2 .
§
2λ − µ = 0.
Démonstration Pour tous λ, µ, ν ∈ R : λ(2, 1)+µ(−1, 3)+ν(0, 2) = (0, 0) ⇐⇒
 ‹ λ + 3µ + 2ν = 0.
7
Ce système possède des solutions (λ, µ, ν) autres que (0, 0, 0), 1, 2, − par exemple, donc les vecteurs (2, 1),
2
(−1, 3) et (0, 2) sont linéairement dépendants.
€ Š
Exemple La famille X 2 − X + 1, X 2 + X − 2, X 2 − 2X + 3 est libre dans R[X ].
  
Démonstration Pour tous λ, µ, ν ∈ R : λ X 2 + X + 1 + µ X 2 − X − 2 + ν X 2 + 2X + 3 = 0
 
 λ + µ + ν = 0  λ + µ + ν = 0
⇐⇒ λ − µ + 2ν = 0 ⇐⇒ 2µ − ν = 0 L2 ← L1 − L2
 λ − 2µ + 3ν = 0  3µ − 2ν = 0 L3 ← L1 − L3

 λ + µ + ν = 0
⇐⇒ 2µ − ν = 0 ⇐⇒ λ = µ = ν = 0.
 µ = 0 L 3 ← 2L 2 − L 3

Exemple La famille (sin, cos) est libre dans RR .


Démonstration Soient λ, µ ∈ R. On suppose que λ sin +µ cos = 0, i.e. que λ sin x + µ cos x = 0 pour tout x ∈ R.
π π
Dans ces conditions : λ sin 0 + µ cos 0 = 0 et λ sin + µ cos = 0, donc λ = µ = 0.
2 2

Exemple Toute famille (P1 , . . . , Pn ) de polynômes NON NULS de K[X ] pour laquelle deg(P1 ) < . . . < deg(Pn ) est libre — on
dit qu’une telle famille est échelonnée en degré. Cet exemple est TRÈS IMPORTANT !
dj
X
Démonstration Posons d j = deg(P j ) et introduisons les coefficients de P j : P j = ai, j X i pour tout
X
n i=0
j ∈ ¹1, nº. Soient ensuite x 1 , . . . , x n ∈ K. On suppose que x j P j = 0. On obtient par identification polynomiale
j=1
des termes de degrés d1 , . . . , dn le système linéaire suivant :

 ad1 ,1 x 1 + ad1 ,2 x 2 + · · · + ad1 ,n−1 x n−1 + ad1 ,n x n = 0 (degré d1 )



 ad2 ,2 x 2 + · · · + ad2 ,n−1 x n−1 + ad2 ,n x n = 0 (degré d2 )


.. .. ..
 . . .



 adn−1 ,n−1 x n−1 + adn−1 ,n x n = 0 (degré dn−1 )


adn ,n x n = 0 (degré dn ).

Ce système est triangulaire supérieur à coefficients diagonaux non nuls — par définition de d j : ad j , j 6= 0 pour
tout j ∈ ¹1, nº — donc admet (x 1 , . . . , x n ) = (0, . . . , 0) pour seule et unique solution.

11
Christophe Bertault — Mathématiques en MPSI

Définition (Partie/famille libre/liée d’un nombre quelconque de vecteurs) Soient E un K-espace vectoriel et
(x i )i∈I une famille de vecteurs de E.

• Partie/famille libre : On dit que la famille (x i )i∈I ou l’ensemble x i | i ∈ I est libre ou que les vecteurs x i , i
décrivant I , sont linéairement indépendants si :  
X
I
∀(λi )i∈I ∈ K presque nulle, λi x i = 0 E =⇒ ∀i ∈ I , λi = 0 .
i∈I

• Partie/famille liée : On dit que la famille (x i )i∈I ou l’ensemble x i | i ∈ I est lié(e) ou que les vecteurs x i , i
décrivant I , sont linéairement dépendants si (x i )i∈I N’est PAS libre. Cela revient à dire que L’UN AU MOINS d’entre
eux est combinaison linéaire des autres.

L’expression « presque nulle » nous ramène toujours à un nombre FINI de vecteurs utiles, donc la liberté d’une famille
INFINIE de vecteurs est équivalente à la liberté de TOUTES ses sous-familles FINIES. Pour montrer qu’une famille (x n )n∈N de
vecteurs est libre, il suffit même de montrer que la famille (x 0 , . . . , x n ) est libre pour tout n ∈ N.

Exemple L’ensemble vide est une partie vide de tout K-espace vectoriel.

Exemple La famille X k k∈N
est libre dans K[X ] — principe d’IDENTIFICATION DES COEFFICIENTS.

Théorème (Propriétés des parties libres/liées) Soient E un K-espace vectoriel et X et Y deux parties de E.
(i) Inclusion : Si Y est libre et si X ⊂ Y , alors X est libre.
Par contraposition, si X est liée et si X ⊂ Y , alors Y est liée.

(ii) Ajouter un vecteur : Si X est libre et si y ∈ E N’est PAS combinaison linéaire de X , alors X ∪ y est libre.

Dire qu’une famille est libre, c’est dire qu’aucun de ses vecteurs n’est combinaison linéaire des autres, donc si on veut que
l’ajout d’un vecteur conserve la liberté d’une famille libre, on doit faire attention de ne pas introduire de dépendance entre
ses vecteurs — on ne peut donc ajouter qu’un vecteur linéairement indépendant des autres.

Démonstration
(i) Si X est liée et si X ⊂ Y , alors l’un des vecteurs de X est combinaison linéaire des autres et donc a fortiori
l’un des vecteurs de Y est combinaison linéaire des autres.

(ii) Supposons X libre et donnons-nous y ∈ E NON combinaison linéaire X de X . Pour montrer que X ∪ y
est libre, soient (λi )i∈I ∈ K I presque nulle et µ ∈ K pour lesquels λi x i + µ y = 0 E . Si jamais µ 6= 0 :
1X i∈I X
y =− λi x i , contrairement à notre hypothèse. Ainsi µ = 0, donc λi x i = 0 E , et la liberté de X
µ i∈I i∈I
montre enfin que λi = 0 pour tout i ∈ I .

2.3 BASES

Définition (Base, coordonnées) Soient E un K-espace vectoriel et B = (ei )i∈I une famille de vecteurs de E. On
dit que B est une base de E si B est à la fois libre et génératrice de E, i.e. si et seulement si tout vecteur de E est
combinaison linéaire de B D’UNE ET UNE SEULE MANIÈRE.
X
Dans ce cas, pour tout x ∈ E, l’unique famille presque nulle (x i )i∈I ∈ K I pour laquelle x = x i ei est appelée la famille
des coordonnées de x dans B . i∈I


Les bases sont toujours des FAMILLES. Dans le plan muni d’une base, peut-on parler du point de coordonnées 1, 2 ?
Non, car le point de coordonnées (1, 2) n’est pas le point de coordonnées (2, 1) !

Convention de la base vide : Un K-espace vectoriel E réduit au singleton 0 E possède-t-il une base ? Oui, la famille
vide ! — autrement dit l’unique famille de vecteurs de E indexée par l’ensemble vide. Par convention des sommes vides, 0 E
est en effet combinaison linéaire de la famille vide, et ce d’une et une seule manière. Ce point de vue peut paraître curieux,
mais il rend de nombreuses preuves plus digestes.
La définition suivante est une synthèse des exemples précédents.

12
Christophe Bertault — Mathématiques en MPSI

Définition-théorème (Bases canoniques de Kn , K[X ], Kn [X ] et Mn,p (K))


• Familles de scalaires : Pour tout n ∈ N∗ , si on pose : e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . .,
en = (0, . . . , 0, 1), la famille (e1 , . . . , en ) est une base de Kn appelée sa base canonique.

• Polynômes : La famille X k k∈N est une base de K[X ] appelée sa base canonique et pour tout n ∈ N, la famille

1, X , X 2 , . . . , X n est une base de Kn [X ] appelée sa base canonique.
• Matrices : Pour tous n, p ∈ N∗ et pour tous i ∈ ¹1, nº et j ∈ ¹1, pº, si on note Ei j la matrice de Mn,p (K) dont les
coefficients sont tous nuls sauf celui de position de (i, j), égal à 1, la famille (Ei j ) 1¶i¶n est une base de Mn,p (K)
1¶ j¶p
appelée sa base canonique.

$signifie
Attention ! Seuls vos profs de maths ont le super-pouvoir de décréter qu’une base est — pas vous ! Et que
CANONIQUE
« canonique » ? Réponse : « la plus naturelle ». De fait, les bases exhibées ci-dessus sont les plus naturelles, les plus
simples, les plus faciles d’emploi auxquelles on peut penser dans Kn , K[X ], Kn [X ] et Mn,p (K).
• Pour tout (x 1 , . . . , x n ) ∈ Kn , les coordonnées de (x 1 , . . . , x n ) dans la base canonique sont. . . ce vecteur lui-même !
X
+∞
• Pour tout P = ak X k ∈ K[X ], la famille des coordonnées de P dans la base canonique est (ak )k∈N . . . i.e. P lui-même
k=0
si on veut bien se souvenir qu’un polynôme n’est qu’une suite presque nulle de scalaires.
• Pour tout A ∈ Mn,p (K), la famille des coordonnées de A dans la base canonique est (ai j ) 1¶i¶n . . . i.e. A elle-même.
1¶ j¶p

€ Š
Exemple La famille (1, 1), (1, −2) est une base de R2 .

Démonstration Soit (x, y) ∈ R2 .


• Nous voulons montrer ceci : ∃ ! (a, b) ∈ R2 , (x, y) = a(1, 1) + b(1, −2). Or pour tout (a, b) ∈ R2 :
§ §
a + b = x a + b = x
(x, y) = a(1, 1)+b(1, −2) ⇐⇒ ⇐⇒
a − 2b = y 3b = x − y L2 ← L1 − L2 .
Triangulaire à coefficients diagonaux non nuls, le système obtenu possède une et une seule solution.
€ Š
• Si on veut connaître en plus les coordonnées de (x, y) dans la base (1, 1), (1, −2) , il ne reste qu’à achever
 ‹
2x + y x − y
la résolution du système précédent. Après calcul, ces coordonnées sont (a, b) = , .
3 3

Exemple La famille X 2 + X , X 2 + 1, X + 1 est une base de R2 [X ].

Démonstration On pourrait prouver en deux temps que X 2 + X , X 2 + 1, X + 1 est libre et génératrice de
R2 [X ], mais il y a plus simple. Montrer que c’est une base de R2 [X ] revient à montrer que tout polynôme de
degré inférieur ou égal à 2 est combinaison linéaire d’une unique façon de X 2 + X , X 2 + 1 et X + 1 :
 
∀P ∈ R2 [X ], ∃ ! (λ, µ, ν) ∈ R3 , P = λ X 2 + X + µ X 2 + 1 + ν(X + 1).
Soit donc P = aX 2 + bX + c ∈ R2 [X ]. Pour tous λ, µ, ν ∈ R :

 λ + µ = a
P = λ(X 2 + X ) + µ(X 2 + 1) + ν(X + 1) ⇐⇒ λ + ν = b après identification
 µ + ν = c
 
 λ + µ = a  λ
 + µ a =
µ − ν = a−b µ − a−b
ν =
⇐⇒ L2 ← L1 − L2 ⇐⇒
  −a + b + c 1 1
µ + ν = c  ν = L3 ← L3 − L2 .
2 2 2

Triangulaire à coefficients diagonaux non nuls, le système obtenu possède une et une seule solution (λ, µ, ν) pour
tout P fixé — d’où le résultat.

Pour trouver une base d’un espace vectoriel, on en cherche d’abord une famille génératrice
En pratique :
en l’écrivant comme un Vect, puis on essaie de montrer que la famille ainsi obtenue est libre.

Exemple L’ensemble des matrices M ∈ M2 (R) pour lesquelles M ⊤ = M + tr(M ) I2 est un sous-espace vectoriel de M2 (R)
  F 
1 0 0 1
de base 0 −1 , 1 0 .
   
1 0 0 1
Démonstration Nous allons faire comme si la base 0 −1 , 1 0 ne nous était pas fournie.

13
Christophe Bertault — Mathématiques en MPSI

       
a c a b a c 1 0
• Pour tout A = b d : A ∈ F ⇐⇒ c d
= b d
+ (a + d) 0 1
⇐⇒ d = −a et c = b,
n  o    
a b 1 0 0 1
donc : F = b −a a, b ∈ R = Vect 0 −1 , 1 0 . En particulier, F est un sous-espace
vectoriel de M2 (R).
   
1 0 0 1
• Il nous reste à espérer que la famille 0 −1
, 1 0
est libre. Or pour tous λ, µ ∈ R, si jamais :
     
1 0 0 1 0 0
λ 0 −1 + µ 1 0 = 0 0
, alors clairement λ = µ = 0.

Exemple Soient x 1 , . . . , x n ∈ K distincts. On note L1 , . . . , L n les polynômes de Lagrange de x 1 , . . . , x n. La famille (L1 , . . . , L n )
est une base de Kn−1 [X ] et les coordonnées d’un polynôme P dans cette base sont P(x 1 ), . . . , P(x n ) .
Démonstration Nous avons en effet démontré au chapitre « Polynômes » que pour tous P ∈ Kn−1 [X ] et
Xn
y1 , . . . , y n ∈ K : P= yi L i si et seulement si yi = P(x i ) pour tout i ∈ ¹1, nº.
i=1
€ Š
Exemple Pour tous n ∈ N et λ ∈ K, la famille 1, X − λ, (X − λ)2 , . . . , (X − λ)n est une base de Kn [X ] et les coordonnées
 
′ P ′′ (λ) P (n) (λ)
d’un polynôme P ∈ Kn [X ] dans cette base sont P(λ), P (λ), ,..., .
2 n!
Démonstration
X
n
• Pour la liberté, soient a0 , . . . , an ∈ K. Faisons l’hypothèse que ai (X − λ)i = 0.
Xn i=0
Par composition à droite par X + λ : ai X i = 0, donc aussitôt a0 = . . . = an = 0.
i=0 X n
P (i) (λ)
• D’après la formule de Taylor polynomiale : P = (X − λ)i pour tout P ∈ Kn [X ], donc en effet
€ Š i=0
i!
1, X − λ, (X − λ)2 , . . . , (X − λ)n engendre Kn [X ] et la formule donne aussi les coordonnées de P.
€ Š
Exemple La famille x 7−→ e x , x 7−→ e2x est une base du R-espace vectoriel F des solutions de l’équation différentielle
linéaire homogène y ′′ − 3 y ′ + 2 y = 0.
€ Š
Démonstration Nous savons déjà que F = Vect x 7−→ e x , x 7−→ e2x , i.e. que cette famille engendre F . Pour
la liberté, soient λ, µ ∈ R. Si λe x + µe2x = 0 pour tout x ∈ R, alors après évaluation en 0 : λ + µ = 0, puis
après dérivation et évaluation en 0 : λ + 2µ = 0, donc λ = µ = 0.

Théorème (Caractérisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A ∈ Mn (K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de Kn .
(iii) La famille des lignes de A est une base de Kn .

Démonstration Notons C1 , C2 , . . . , Cn les colonnes de A et L1 , . . . , L n ses lignes. Le point important, c’est que
Xn
pour tout X ∈ Kn : AX = x k Ck . Ainsi :
k=1
A est inversible ⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn , Y = AX
X
n
⇐⇒ ∀Y ∈ Kn , ∃ ! (x 1 , . . . , x n ) ∈ Kn , Y= x k Ck ⇐⇒ (C1 , . . . , Cn ) est une base de Kn .
k=1

En retour, les lignes de A n’étant jamais que les colonnes de A :
A est inversible ⇐⇒ A⊤ est inversible ⇐⇒ (L1 , . . . , L n ) est une base de Kn .

3 ESPACES VECTORIELS DE DIMENSION FINIE


La notion de dimension fait aujourd’hui partie des meubles en littérature, au cinéma et au-delà. Tout le monde sait qu’une
droite ou une même courbe est de dimension 1, qu’un plan ou même une surface est de dimension 2 et que nous vivons
dans un espace à trois dimensions. Il n’est pourtant pas aisé de donner un sens rigoureux à ces idées courantes, mais c’est
précisément notre but dans ce paragraphe — proposer une définition axiomatique de la dimension et en faire la théorie.

14
Christophe Bertault — Mathématiques en MPSI

Définition (Espace vectoriel de dimension finie) Soit E un K-espace vectoriel. On dit que E est de dimension finie
s’il possède une partie génératrice FINIE, et de dimension infinie sinon.

Exemple Les espaces vectoriels Kn pour n ∈ N∗ , Kn [X ] pour n ∈ N et Mn,p (K) pour n, p ∈ N∗ sont de dimension finie.
Démonstration Les bases canoniques de Kn , Kn [X ] et Mn,p (K) sont des familles génératrices finies !

Exemple K[X ] est de dimension infinie.


Démonstration Pour toute famille FINIE (P1 , . . . , Pn ) de polynômes non nuls, si nous posons d = max deg(Pi )
1¶i¶n
alors Vect(P1 , . . . , Pn ) ⊂ Kd [X ] 6= K[X ], donc (P1 , . . . , Pn ) n’engendre pas K[X ]. Conclusion : aucune famille FINIE
de K[X ] n’engendre K[X ].

3.1 EXISTENCE DE BASES FINIES

Dans notre espace physique à trois dimensions, on a du mal à imaginer qu’il puisse exister des familles de strictement
plus de trois vecteurs linéairement indépendants. Plus généralement :

Théorème (Nombre maximal de vecteurs linéairement indépendants) Soit E un K-espace vectoriel de dimension
finie engendré par n éléments. Alors toute partie libre de E possède au plus n éléments.

Démonstration Soient X une partie génératrice de E à n éléments et Y une partie libre de E. Supposant par
l’absurde que Y possède au moins n + 1 éléments, nous allons prouver par récurrence que pour tout k ∈ ¹0, nº :

E est engendré par une famille de n vecteurs dont les n − k premiers sont dans X et les k suivants dans Y.

On pourra conclure de la manière suivante. Pour k = n, E est engendré par une famille de n vecteurs de Y . En
particulier, tout vecteur de Y est combinaison linéaire de ces n vecteurs, donc comme Y possède au moins n + 1
éléments, Y est liée — contradiction.
Initialisation : La famille des n vecteurs de X engendre E.
Hérédité : Soit k ∈ ¹0, n − 1º. Faisons l’hypothèse que E est engendré par (x 1 , . . . , x n−k , y1 , . . . , yk ) pour certains
x 1 , . . . , x n−k ∈ X et y1 , . . . , yk ∈ Y — par convention, aucun vecteur de Y pour k = 0. Comme Y possède au
moins n + 1 éléments, nous pouvons nous donner  un élément yk+1 de Y autre que y1 , . . . , yk . Par hypothèse de
récurrence : yk+1 = λ1 x 1 + . . . + λn−k x n−k + µ1 y1 + . . . + µk yk pour certains λ1 , . . . , λn−k , µ1 , . . . , µk ∈ K.
Il est impossible que tous les λi soient nuls car yk+1 serait combinaison linéaire de y1 , . . . , yk — or Y est libre.
Quitte à modifier l’ordre des x i , nous pouvons donc supposer λn−k 6= 0. De la sorte, x n−k est combinaison linéaire
de x 1 , . . . , x n−k−1 , y1 , . . . , yk+1 , donc enfin E est engendré par la famille (x 1 , . . . , x n−k−1 , y1 , . . . , yk+1 ) dont les
n − k − 1 premiers vecteurs sont dans X et les k + 1 suivants dans Y .

Après ce premier théorème fondamental, l’algorithme de la base incomplète présenté ci-dessous est notre deuxième outil
pour montrer l’existence de bases finies en dimension finie.

Théorème (Algorithme de la base incomplète) Soient E un K-espace vectoriel de dimension finie et (x 1 , . . . , x n ) une
famille génératrice de E dont les p premiers vecteurs sont linéairement indépendants. Dans ces conditions, E possède
une base constituée des vecteurs x 1 , . . . , x p et de certains des vecteurs x p+1 , . . . , x n .

Démonstration Dans la preuve qui suit, les valeurs n = 0 et p = 0 sont autorisées.


• Ce théorème repose sur un algorithme simple et fondamental dit de la base incomplète. Nous allons complé-
ter peu à peu la famille LIBRE (x 1 , . . . , x p ) à l’aide de certains vecteurs parmi x p+1 , . . . , x n en prenant soin
de CONSERVER LA LIBERTÉ À CHAQUE AJOUT.
— La variable B est initialisée à la valeur (x 1 , . . . , x p ) — une famille LIBRE.

15
Christophe Bertault — Mathématiques en MPSI

— Ensuite on fait une boucle. Pour k décrivant ¹p + 1, nº :


si la famille B augmentée de x k est libre, i.e. si x k N’est PAS combinaison linéaire de B ,
on remplace B par la famille B augmentée de x k — la nouvelle famille B est donc libre.
Il n’est pas nécessaire de le préciser dans l’algorithme, mais si la famille B augmentée de x k est liée, on
laisse B intacte et on re-boucle directement.
On a pris soin de conserver la liberté de B à chaque étape, donc la famille B finale est libre.
• Il nous reste à montrer que la famille B finale engendre E. Comme (x 1 , . . . , x n ) engendre E, il nous suffit
en fait de montrer que tous les x k sont combinaisons linéaires de B .
Soit k ∈ ¹1, nº. Si tout d’abord x k apparaît explicitement dans B , alors évidemment x k est combinaison
linéaire de B . Supposons au contraire que x k ne figure pas dans B . Cela signifie qu’à l’étape x k de l’algo-
rithme, x k n’a pas été ajouté à la famille B en cours de construction parce qu’il était combinaison linéaire
de certains vecteurs de B . C’est justement ce que nous voulons.
€ Š € Š
Exemple La famille (1, −5, 7), (2, 6, 8) est une base de F = Vect (1, −5, 7), (2, 6, 8), (3, 1, 15), (1, 11, 1) .

Démonstration On va utiliser mécaniquement l’algorithme de la base incomplète. Petite remarque en passant,


on obtiendrait une autre base de F en rangeant dès le départ différemment les vecteurs qui définissent F .
€ Š
— La famille (1, −5, 7) est libre car le vecteur (1, −5, 7) est non nul.
€ Š
— Et la famille (1, −5, 7), (2, 6, 8) ? Soient λ, µ ∈ R des réels pour lesquels λ(1, −5, 7) + µ(2, 6, 8) = (0, 0, 0).
Aussitôt λ + 2µ = 0 et −5λ + 6µ = 0, donc assez vite λ = µ = 0. La famille est libre.
€ Š
— Et la famille (1, −5, 7), (2, 6, 8), (3, 1, 15) ? Elle est liée car (3, 1, 15) = (1, −5, 7) + (2, 6, 8).
€ Š
— Et la famille (1, −5, 7), (2, 6, 8), (1, 11, 1) ? Elle est liée car (1, 11, 1) = (2, 6, 8) − (1, −5, 7).
€ Š
Comme voulu, la famille (1, −5, 7), (2, 6, 8) est une base de F .

Théorème (Théorèmes de la base incomplète/extraite et existence de bases finies) Soit E un K-espace vectoriel
de dimension finie.
(i) Théorème de la base incomplète : Toute famille libre de E peut être complétée en une base finie de E.
(ii) Théorème de la base extraite : De toute famille génératrice de E on peut extraire une base finie de E.
En particulier, E possède une base finie.

La définition « posséder une famille génératrice finie » des espaces vectoriels de dimension finie est ainsi équivalente à
la définition « posséder une base finie ».

Démonstration
(i) Soit L une famille libre de E — forcément finie comme on l’a vu. Ajoutons à cette famille les vecteurs
d’une famille génératrice finie de E, puis appliquons l’algorithme de la base incomplète. Le résultat, c’est
que L se trouve ainsi complétée en une base finie de E.
(ii) Soit G une famille génératrice de E — éventuellement infinie. Par hypothèse, E possède une partie géné-
ratrice FINIE X . Tout vecteur de X étant combinaison linéaire d’un nombre FINI de vecteurs de G , E est en
fait engendré par une certaine sous-famille FINIE G ′ de G . L’algorithme de la base incomplète permet alors
de compléter la famille vide en une base de E par l’ajout de certains éléments de G ′ . La base obtenue est
une sous-famille de G .

3.2 DIMENSION D’UN ESPACE VECTORIEL ET RANG D ’UNE FAMILLE DE VECTEURS

Intuitivement, on a bien envie de définir la dimension d’un espace vectoriel comme le nombre de vecteurs qu’on trouve
dans ses bases, mais. . . qui nous dit que toutes les bases ont le même nombre de vecteurs ? Pourquoi un espace vectoriel ne
pourrait-il pas être à la fois de dimension 2 et de dimension 3 ?
En principe, la notion de cardinal concerne les ensembles et les ensembles seulement, mais par abus de langage, une
famille (x 1 , . . . , x n ) de n objets est souvent appelée une famille de cardinal n, c’est très commode.

16
Christophe Bertault — Mathématiques en MPSI

Définition-théorème (Dimension) Soit E un K-espace vectoriel de dimension finie. Les bases de E sont toutes finies
de même cardinal. Ce cardinal unique est appelé la dimension de E et notée dim E.
Si dim E = 1, on dit que E est une droite (vectorielle), et si dim E = 2, que E est un plan (vectoriel).

Démonstration Comme E est de dimension finie, nous savons déjà que les familles libres de E sont finies,
donc ses bases aussi. Soient B une base de E à n éléments et B ′ une base de E à n′ éléments. Sachant que B
engendre E et que B ′ est libre : n′ ¶ n, puis n ¶ n′ par symétrie des rôles de B et B ′ , donc n = n′ .

Exemple Pour tout K-espace vectoriel E réduit au singleton 0 E : dim E = 0.

Théorème (Dimension de Kn , Kn [X ] et Mn,p (K)) Pour tout n ∈ N∗ : dim Kn = n.


Pour tout n ∈ N : dim Kn [X ] = n +1 . Pour tous n, p ∈ N∗ : dim Mn,p (K) = np.

Démonstration Combien de vecteurs dans la base canonique de chacun de ces K-espaces vectoriels ?

Exemple L’ensemble Sn (K) des matrices symétriques de Mn (K) et l’ensemble An (K) n


b b b b b

de ses matrices antisymétriques sont des sous-espaces vectoriels de Mn (K) et : b b b


n(n − 1)
b b

n(n + 1) n(n − 1)
dim Sn (K) = et dim An (K) = . n(n − 1) b b b b
2
b

2 2
2 b b b b b

Démonstration Introduisons la base canonique (Ei j )1¶i, j¶n de Mn (K). Nous


b b b b b

admettrons pour gagner du temps que Sn (K) et An (K) sont des sous-espaces
vectoriels de Mn (K). n
X X
n X 
• Dimension de Sn (K) : Pour tout M ∈ Sn (K) : M = mi j E i j = mkk Ekk + mi j Ei j + E ji ,
1¶i, j¶n k=1 1¶i< j¶n
€¦ © ¦ ©Š
donc : Sn (K) ⊂ Vect Ekk | 1 ¶ k ¶ n ∪ Ei j + E ji | 1 ¶ i < j ¶ n . L’inclusion réciproque est
vraie car Ekk ∈ Sn (K) et Ei j + E ji ∈ Sn (K) pour tous i, j, k ∈ ¹1, nº pour lesquels i < j, et parce que
Sn (K) est un sous-espace vectoriel de Mn (K), donc est stable par combinaison linéaire. La famille des ma-
trices Ekk et Ei j + E ji ainsi obtenue est finalement génératrice de Sn (K) et il n’est pas dur de se convaincre
qu’elle est libre, donc qu’elle est une base de Sn (K). Combien contient-elle de vecteurs ? Il y a n vecteurs
n(n − 1) n(n − 1) n(n + 1)
Ekk et vecteurs Ei j + E ji pour lesquels i < j, donc dim Sn (K) = n + = .
2  2 2
• Dimension de An (K) : Même principe, mais ici An (K) = Vect Ei j − E ji 1¶i< j¶n .

Exemple Pour tout intervalle I et pour toute fonction a ∈ C (I , K), l’ensemble des solutions de l’équation différentielle
linéaire homogène y ′ + a(x) y = 0 est une droite vectorielle. Également, pour tous a, b, c ∈ K, l’ensemble des solutions à
valeurs dans K de l’équation différentielle linéaire homogène a y ′′ + b y ′ + c y = 0 est un plan vectoriel.
Démonstration Nous savons déjà que l’ensemble F des solutions de l’équation a y ′′ + b y ′ + c y = 0 est engendré

par deux vecteurs, par exemple par x 7−→ e r x et x 7−→ e r x si le polynôme caractéristique possède deux racines
distinctes r et r ′ dans K. Il n’est pas dur de vérifier, en distinguant des cas, que la famille de deux vecteurs ainsi
obtenue est toujours libre, donc est une base de F . Comme voulu dim F = 2.

Théorème (Dimension et cardinal d’une partie libre/génératrice) Dans un K-espace vectoriel de dimension finie
n, toute partie libre possède au plus n éléments et toute partie génératrice en possède au moins n.

Démonstration Soient E un K-espace vectoriel de dimension finie n. Alors E possède une base B de cardinal n.
Pour toute partie libre Y de E, sachant que B engendre E, nous avons déjà vu que Y possède au plus n éléments.
De même, pour toute partie génératrice X de E, sachant que B est libre, B possède au plus autant d’éléments
que X , de sorte que X possède au moins n éléments.

Théorème (Caractérisation des bases en dimension finie) Dans un K-espace vectoriel de dimension finie n, une
famille de n vecteurs est une base si et seulement si elle est libre, ou bien si et seulement si elle est génératrice.

$seulement
Attention ! Ce théorème ne dit pas que :
que c’est vrai pour les familles qui ont
base = famille génératrice = famille libre en dimension finie ! Il dit
EXACTEMENT AUTANT de vecteurs que la dimension de l’espace ambiant.

17
Christophe Bertault — Mathématiques en MPSI

Démonstration Dans un K-espace vectoriel de dimension finie n, si une famille F de n vecteurs est libre
(resp.génératrice), on peut la compléter en une base d’après le théorème de la base incomplète (resp. en extraire
une base d’après le théorème de la base extraite). Le résultat est une famille de n vecteurs par définition de la
dimension, ce qui veut dire qu’on n’a en fait ajouté (resp. ôté) aucun vecteur à F . Conclusion : F était une base
dès le départ !
€ Š
Exemple La famille (0, 1, 2), (1, 2, 0), (2, 0, 1) est une base de R3 .

Démonstration Comme R3 est de dimension 3 et comme la famille considérée est une famille de trois vecteurs,
nous saurons que cette famille est une base de R3 quand nous aurons montré qu’elle est libre. Soient λ, µ, ν ∈ R
des réels pour lesquels λ(0, 1, 2) + µ(1, 2, 0) + ν(2, 0, 1) = (0, 0, 0). Clairement λ = µ = ν = 0 et c’est tout.

Le théorème suivant, étonnant et puissant, complète nos connaissances du chapitre « Matrices et systèmes linéaires ».

Théorème (Caractérisations diverses de l’inversibilité) Soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) A est inversible à droite : ∃ B ∈ Mn (K), AB = I n .
(iii) A est inversible à gauche : ∃ B ∈ Mn (K), BA = I n .
(iv) Pour tout second membre Y ∈ K , le système linéaire Y = AX d’inconnue X ∈ Kn possède AU MOINS UNE
n

solution.
(v) Le système linéaire homogène AX = 0 d’inconnue X ∈ Kn admet 0 pour UNIQUE solution :
∀X ∈ Kn , AX = 0 =⇒ X = 0.

Il n’est pas anodin que l’une seulement des relations AB = I n ou BA = I n implique l’inversibilité de A, et donc l’égalité
B = A−1 . Dans la définition de l’inversibilité, les deux relations étaient nécessaires.
Ensuite, nous connaissions déjà une caractérisation de l’inversibilité en termes de systèmes linéaires. Elle ressemblait à
l’assertion (iv), mais avec « une et une seule » à la place de « au moins une ». Enfin, grâce à l’assertion (v), l’unicité de la
solution du système homogène démontre à elle seule l’inversibilité — pas besoin des autres seconds membres. C’est très fort.

Démonstration Notons C1 , . . . , Cn les colonnes de A. La matrice A étant CARRÉE, la famille (C1 , . . . , Cn ) est une
base de Kn si et seulement si elle est libre (ou génératrice) d’après le théorème précédent. Le reste n’est qu’un
jeu de réécriture.
• Les implications (i) =⇒ (ii) et (i) =⇒ (iii) sont triviales.
• Si l’assertion (ii) est vraie, alors pour tout Y ∈ Kn : A(BY ) = (AB)Y = I n Y = Y , donc le système Y = AX
d’inconnue X ∈ Kn possède au moins une solution. Bref : (ii) =⇒ (iv).
• Supposons (iii) vraie. Pour tout X ∈ Kn , si AX = 0 : X = I n X = (BA)X = B(AX ) = B × 0 = 0, donc 0 est
la seule solution du système homogène AX = 0 d’inconnue X ∈ Kn . Bref : (iii) =⇒ (v).
• Ensuite : (iv) ⇐⇒ ∀Y ∈ Kn , ∃ X ∈ Kn , Y = AX
X
n
n n
⇐⇒ ∀Y ∈ K , ∃ (x 1 , . . . , x n ) ∈ K , Y= x k Ck
n k=1
⇐⇒ (C1 , . . . , Cn ) engendre K
⇐⇒ (C1 , . . . , Cn ) est une base de Kn ⇐⇒ (i).
X n 
• De même : (v) ⇐⇒ ∀(x 1 , . . . , x n ) ∈ Kn , x k Ck = 0 =⇒ x 1 = . . . = x n = 0
k=1
⇐⇒ (C1 , . . . , Cn ) est libre
⇐⇒ (C1 , . . . , Cn ) est une base de Kn ⇐⇒ (i).

Exemple Soient A, B ∈ Mn (K). Si A + B = AB, alors A et B commutent.


Démonstration Observons d’abord que : (I n − A)(I n − B) = I n − A − B + AB = I n . Il en découle grâce au
théorème précédent que les matrices I n −A et I n −B sont inverses l’une de l’autre. En particulier (I n −B)(I n −A) = I n ,
donc A + B = BA après développement, et ainsi AB = A + B = BA.

18
Christophe Bertault — Mathématiques en MPSI

Définition (Rang d’une famille finie de vecteurs) Soient E un K-espace vectoriel pas nécessairement de dimen-
sion finie et x 1 , . . . , x n ∈ E. On appelle rang de la famille (x 1 , . . . , x n ), noté rg(x 1 , . . . , x n ), la dimension (finie) de
Vect(x 1 , . . . , x n ).
Il est toujours vrai que rg(x 1 , . . . , x n ) ¶ n, avec égalité si et seulement si (x 1 , . . . , x n ) est libre.

Le rang d’une famille finie de vecteurs est le plus grand nombre de vecteurs linéairement indépendants qu’elle contient.

Démonstration Engendré par un nombre fini de vecteurs, Vect(x 1 , . . . , x n ) est un K-espace vectoriel de di-
mension finie, et comme la dimension est toujours inférieure au nombre d’éléments d’une partie génératrice :
rg(x 1 , . . . , x n ) = dim Vect(x 1 , . . . , x n ) ¶ n. Pour le cas d’égalité, nous venons de voir qu’en dimension n, une
famille de n vecteurs est libre si et seulement si elle est génératrice.
  € Š € Š
Exemple rg 1, X , X 2 , X 3 = 4, rg X , 2X , 3X = 1, rg (1, 1, 0), (0, 0, 1) = 2 et rg (1, 1, 0), (0, 0, 1), (1, 1, 1) = 2.

Théorème (Dimension d’un sous-espace vectoriel) Soient E un K-espace vectoriel de dimension finie et F un
sous-espace vectoriel de E.
Alors F est de dimension finie et dim F ¶ dim E, avec égalité si et seulement si F = E.

Démonstration L’ensemble N des nombres d’éléments des familles libres de F est non vide et majoré par dim E
car d’une part la famille vide est libre, et d’autre part, toute famille libre de F est une famille libre de E, donc
constituée d’au plus dim E vecteurs. Conclusion : N possède un plus grand élément n inférieur ou égal à dim E.
Donnons-nous alors une famille libre L de F à n éléments. Pour tout x ∈ F , la famille L augmentée de x est liée
par maximalité de n dans N , donc comme L est libre, x est forcément combinaison linéaire de L . Conclusion :
libre et génératrice, L est une base de F , donc enfin F est de dimension finie et dim F = n ¶ dim E.
Et si dim F = dim E = n ? Dans ce cas, L est une famille libre de E à n = dim E éléments, donc c’est déjà une
base de E et E = Vect(L ) = F .

Un petit exemple pour comprendre la preuve du théorème suivant.


€ Š
Exemple La famille (1, 0), (X , 0), (X 2 , 0), (0, 1), (0, X ) est une base de R2 [X ] × R1 [X ] — les coordonnées d’un vecteur
€ Š
quelconque aX 2 + bX + c , d X + e dans cette base sont (c, b, a, e, d).

Théorème (Dimension d’un espace vectoriel produit) Soient E et F deux K-espaces vectoriels de dimension finie.
Alors E × F est de dimension finie et : dim(E × F ) = dim E + dim F .
Le résultat se généralise au cas d’un nombre fini quelconque d’espaces vectoriels.

Démonstration Donnons-nous (e1 , . . . , e€m ) une base de E et ( f1 , . . . , f n ) une base de Š F — éventuellement vides.
Nous allons montrer que la famille B = (e1 , 0 F ), . . . , (em , 0 F ), (0 E , f1 ), . . . , (0 E , f n ) est une base de E × F . Cela
montrera bien que E × F est de dimension finie m + n = dim E + dim F .
• Montrons que B engendre E × F . Pour tout (x, y) ∈ E × F , si nous notons (x 1 , . . . , x m ) les coordonnées de
x dans (e1 , . . . , em ) et ( y1 , . . . , yn ) celles de y dans ( f1 , . . . , f n ), alors :
X m Xn  X m X
n
(x, y) = x i ei , yj fj = x i (ei , 0 F ) + y j (0 E , f j ).
i=1 j=1 i=1 j=1
X m Xn
• Pour la liberté, soient λ1 , . . . , λm , µ1 , . . . , µn ∈ K pour lesquels λi (ei , 0 F ) + µ j (0 E , f j ) = (0 E , 0 F ).
Xm X
n  Xm X
n i=1 j=1
Alors λi ei , µ j f j = (0 E , 0 F ), donc λi ei = 0 E et µ j f j = 0 F , et enfin par liberté de (ei )1¶i¶m
i=1 j=1 i=1 j=1
et ( f j )1¶ j¶n : λ1 = . . . = λm = µ1 = . . . = µn = 0.

Rappelons qu’un C-espace vectoriel peut toujours être vu comme un R-espace vectoriel par simple restriction des scalaires.

19
Christophe Bertault — Mathématiques en MPSI

Théorème (Dimension sur C, dimension sur R) Soit E un C-espace vectoriel de dimension finie.
Alors : dimR E = 2 × dimC E, où dimC E (resp. dimR E) désigne la dimension de E comme C-espace vectoriel (resp.
R-espace vectoriel).

Se donner un complexe, c’est au fond se donner deux réels. Il faut donc deux fois plus de coordonnées réelles que de
coordonnées complexes pour connaître entièrement un vecteur d’un C-espace vectoriel de dimension finie.

Démonstration Donnons-nous une base (e1 , . . . , en ) du C-espace vectoriel E — éventuellement vide. Nous
allons montrer que (e1 , ie1 , . . . , en , ien ) est une base du R-espace vectoriel E.
• Pour le caractère générateur, soit x ∈ E de coordonnées (x 1 , . . . , x n ) ∈ Cn dans (e1 , . . . , en ). Le vecteur x est
X
n X
n X
n
bien combinaison linéaire de e1 , ie1 , . . . , en , ien car x = x i ei = Re(x i ) ei + Im(x i ) iei .
i=1 i=1 i=1
X
n Xn X
n
• Pour la liberté, soient λ1 , µ1 , . . . , λn , µn ∈ R pour lesquels λi ei + µi iei = 0 E . Ainsi (λi +iµi )ei = 0 E ,
i=1 i=1 i=1
or (ei )1¶i¶n est libre dans le C-espace vectoriel E, donc λi + iµi = 0 pour tout i ∈ ¹1, nº, donc comme voulu
λi = µi = 0.

Exemple Nous savons bien que dimC€ C2 = 2 car la base canonique


Š de C2 comme C-espace vectoriel est de cardinal 2, mais
par contre dimR C2 = 4 car la famille (1, 0), (i, 0), (0, 1), (0, i) est une base de C2 sur R.

Définition (Dimension d’un sous-espace affine) Soient E un K-espace vectoriel et F un sous-espace affine de E de
direction F . On dit que F est de dimension finie si F l’est et la dimension de F est alors appelée la dimension de F .

3.3 MATRICE D’UNE FAMILLE DE VECTEURS DANS UNE BASE

x1 xj xp
Définition (Matrice d’une famille finie de vecteurs dans une base finie)
Soient E un K-espace vectoriel de dimension finie n 6= 0,  
B = (e1 , . . . , en ) une base de E et X = (x 1 , . . . , x p ) une fa- a11 ··· a1 j ··· a1p e1
mille finie de vecteurs de E avec p ¾ 1.  b

b
b

b
b

 b b

b

Pour tout j ∈ ¹1, pº on note (a1 j , . . . , an j ) les coordonnées MatB (X ) = 


 ai1 ··· ai j ··· aip 
 ei
de x j dans B .  b

b
b

b
b

b


b b b

La matrice ai j 1¶i¶n , notée MatB (X ), est alors appelée ma- an1 ··· an j ··· anp en
1¶ j¶p
trice de X dans B . Coordonnées de x j dans B écrites en colonne

On connaît tout d’un vecteur quand on connaît ses coordonnées dans une base. Plus généralement, on connaît donc tout
d’une famille de vecteurs quand on connaît sa matrice dans une base. Ramener un vecteur à ses coordonnées ou une famille
de vecteurs à sa matrice dans une base, c’est en quelque sorte les désincarner pour n’en garder qu’un squelette numérique.
Qu’on ait affaire à des vecteurs de Rn , des polynômes, des fonctions, des suites, toute information peut être numérisée
matriciellement.

Exemple Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, MatB (x) est tout
simplement la colonne des coordonnées de x dans B .  
1 2
€ Š 0 −1
Exemple Si on note B4 la base canonique de R4 : MatB4 (1, 0, 3, 1), (2, −1, 0, −1) = 3 0 .
1 −1
1  3 
€ Š 0 0 € Š 1 0
2 2 2 2
Exemple Mat(1,X ,X 2 ) 3X + 2X + 1, X , X − X = 2 1 −1 et Mat(X 2 ,X ,1) 3X + 2X + 1, X − X , X = 2 −1 1 .
3 0 1 1 0 0

Théorème (Matrice des colonnes dans la base canonique) Soit A ∈ Mn,p (K) de colonnes C1 , . . . , C p . En notant Bn
la base canonique de Kn : A = MatBn (C1 , . . . , C p ).

Démonstration Réfléchissez, il suffit d’appliquer scrupuleusement la définition.

20
Christophe Bertault — Mathématiques en MPSI

Théorème (Interprétation vectorielle de l’inversibilité, cas des familles de vecteurs) Soient E un K-espace
vectoriel de dimension finie n 6= 0, B une base de E et F une famille de n vecteurs de E. Alors F est une base de E si
et seulement si MatB (F ) est inversible.

Démonstration Posons A = MatB (F ) et introduisons les vecteurs de Bet F : B = (e1 , . . . , en ) et


Xn X
n Xn X
n Xn X
n
F = ( f1 , . . . , f n ). Alors pour tout X ∈ Kn : xj fj = xj ai j ei = ai j x j ei = (AX )i ei . Le
j=1 j=1 i=1 i=1 j=1 i=1
reste n’est qu’un jeu de réécriture.
X n
F est une base de E ⇐⇒ ∀ y ∈ E, ∃ ! (x 1 , . . . , x n ) ∈ Kn , y = xj fj
Xn j=1
⇐⇒ ∀ y ∈ E, ∃ ! X ∈ Kn , y = (AX )i ei
n i=1
X X
n
⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn , yi ei = (AX )i ei car B engendre E
i=1 i=1
⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn , ∀i ∈ ¹1, nº, yi = (AX )i car B est libre
⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn , Y = AX ⇐⇒ A est inversible.

€ Š
Exemple La famille X 2 + 3X + 5, 2X 2 + X , X 2 de R[X ] est libre.
 
€ Š 5 0 0
2 2 2
Démonstration C’est même une base de R2 [X ] car Mat(1,X ,X 2 ) X + 3X + 5, 2X + X , X = 3 1 0 est
1 2 1
triangulaire à coefficients diagonaux non nuls, donc inversible !

4 SOMMES DE DEUX SOUS-ESPACES VECTORIELS

4.1 DÉFINITION ET FORMULE DE GRASSMANN

Définition-théorème (Somme de deux sous-espaces¦ vectoriels) Soient© E un K-espace vectoriel et F et G deux


sous-espaces vectoriels de E. L’ensemble F + G = f + g | f ∈ F et g ∈ G est un sous-espace vectoriel de E appelé
la somme de F et G.
Cette somme F + G est également le plus petit sous-espace vectoriel de E contenant F et G. Cela signifie que tout
sous-espace vectoriel de E contenant F et G contient aussi F + G.

Démonstration Vous montrerez seuls que F +G est un sous-espace vectoriel de E. Précisons seulement pourquoi
F + G contient F et G. Tout simplement, 0 E est à la fois dans F et dans G, donc pour tous f ∈ F et g ∈ G :
f = f + 0 E ∈ F + G et g = 0 E + g ∈ F + G.

$riel,Attention ! Ne confondez pas


mais pas la réunion en général.
SOMME et RÉUNION ! La somme est un sous-espace vecto- b

F ∪G F
€ Š € Š G
Exemple Les droites vectorielles F = Vect (1, 0, 0) et G = Vect (0, 1, 0) ont pour somme F +G
le plan d’équation z = 0.
¦ © ¦ © ¦ ©
Démonstration F + G = (x, 0, 0) | x ∈ R + (0, y, 0) | y ∈ R = (x, 0, 0) + (0, y, 0) | x, y ∈ R
¦ © 
= (x, y, 0) | x, y ∈ R = R × R × 0 .

Théorème (Parties génératrices d’une somme de deux sous-espaces vectoriels) Soient E un K-espace vectoriel,
F et G deux sous-espaces vectoriels de E et X et Y deux parties de E.
Alors : Vect(X ∪ Y ) = Vect(X ) + Vect(Y ).
En d’autres termes, si X engendre F et si Y engendre G, alors X ∪ Y engendre F + G.

21
Christophe Bertault — Mathématiques en MPSI

Démonstration Pour commencer, Vect(X ∪ Y ) est un sous-espace vectoriel contenant X et Y , donc il contient
Vect(X ) et Vect(Y ), mais donc aussi Vect(X )+Vect(Y ). Inversement, Vect(X )+Vect(Y ) est un sous-espace vectoriel
contenant Vect(X ) donc X , et Vect(Y ) donc Y , donc il contient X ∪ Y , donc aussi Vect(X ∪ Y ).

$queAttention ! Le théorème précédent nous parle d’engendrement


si X engendre F et si Y engendre G, alors X ∪ Y engendre F + G,
MAIS SURTOUT PAS DE LIBERTÉ .
Nous venons de voir
si de plus X et Y sont libres, on ne peut rien dire
MAIS
en général de la liberté de X ∪ Y . Pourquoi cela ? Tout simplement parce que les vecteurs de F ∩ G sont à la fois combinaisons
linéaires de X ET combinaisons linéaires de Y ! La formule de Grassmann qui suit mesure précisément ce phénomène.

Théorème (Formule de Grassmann) Soient E un K-espace vectoriel pas nécessairement de dimension finie et F et
G deux sous-espaces vectoriels de dimension finie de E. La somme F + G est alors elle aussi de dimension finie, et plus
précisément :
dim(F + G) = dim F + dim G − dim(F ∩ G).

Démonstration Toute base (e1 , . . . , e p ) de F ∩ G peut être complétée en une base (e1 , . . . , e p , f1 , . . . , fq ) de F
et en une base (e1 , . . . , e p , g1 , . . . , g r ) de G — avec éventuellement p, q ou r nul. Par concaténation, la famille
(e1 , . . . , e p , f1 , . . . , fq , g1 , . . . , g r ) engendre alors F + G, donc F + G est de dimension finie. Et si nous montrons que
la famille (e1 , . . . , e p , f1 , . . . , fq , g1 , . . . , g r ) est aussi libre, ce sera une base de F + G et la formule de Grassmann
en découlera : dim(F + G) = p + q + r = (p + q) + (p + r) − p = dim F + dim G − dim(F ∩ G).
Soient donc λ1 , . . . , λ p , µ1 , . . . , µq , ν1 , . . . , ν r ∈ K pour lesquels :
λ 1 e1 + . . . + λ p e p + µ 1 f 1 + . . . + µ q f q + ν 1 g 1 + . . . + ν r g r = 0 E .
| {z } | {z } | {z }
∈ F ∩G ∈F ∈G

— Pour commencer, ν1 g1 + . . . + ν r g r appartient à F ∩ G donc est combinaison linéaire de e1 , . . . , e p , ce qui


n’est possible que si ν1 = . . . = ν r = 0 par liberté de (e1 , . . . , e p , g1 , . . . , g r ).
— De même, µ1 f1 + . . . + µq fq appartient à F ∩ G donc est combinaison linéaire de e1 , . . . , e p , ce qui n’est
possible que si µ1 = . . . = µq = 0 par liberté de (e1 , . . . , e p , f1 , . . . , fq ).
— Finalement λ1 e1 + . . . + λ p f p = 0 E , donc λ1 = . . . = λ p = 0 par liberté de (e1 , . . . , e p ).

Théorème (Intersection de deux sous-espaces affines) Soient E un K-espace vectoriel et F et G deux sous-espaces
affines de E de directions respectives F et G. Si E = F + G, alors F et G sont concourants.

$le vecteur
Attention ! Alors qu’une intersection de sous-espaces vectoriels contient toujours
nul, une intersection de sous-espaces affines peut vraiment être vide, pensez G G
par exemple au cas de deux droites de l’espace en position générale. b
N
g
Démonstration Tout sous-espace affine étant non vide, nous pouvons
# ”
nous donner deux éléments M de F et N de G . Le vecteur M N = N − M F b
I b b
M
# ” f
appartient à E = F + G, donc M N = N − M = f + g pour certains f ∈ F 0E b b

et g ∈ G, autrement dit M + f = N − g. Finalement I ∈ F ∩ G pour F


I = M + f = N − g, donc F et G sont concourants.

4.2 SOMME DIRECTE

Définition (Somme directe de deux sous-espaces vectoriels) Soient E un K-espace vectoriel et F et G deux sous-
espaces vectoriels de E. On dit que F et G sont en somme directe si la décomposition d’un vecteur de F + G comme somme
d’un vecteur de F et d’un vecteur de G est toujours unique, ce qui revient à dire que :
€ Š
∀ f , f ′ ∈ F, ∀g, g ′ ∈ G, f + g = f ′ + g ′ =⇒ f = f ′ et g = g ′ .
On note alors F ⊕ G la somme F + G pour indiquer qu’il y a somme directe.

Le petit rond qu’on ajoute à la notation F + G pour indiquer que la somme est directe ne fait pas de F + G et F ⊕ G des
ensembles différents, la notation F ⊕ G contient juste une INFORMATION d’unicité en plus.

22
Christophe Bertault — Mathématiques en MPSI

Théorème (Caractérisation et dimension de la somme directe de deux sous-espaces vectoriels) Soient E un


K-espace vectoriel et F et G deux sous-espaces vectoriels de E. Les assertions suivantes sont équivalentes :

(i) F et G sont en somme directe. (ii) F ∩ G = 0 E .
Dans ce cas, par ailleurs, si F et G sont de dimension finie : dim(F + G) = dim F + dim G.

Démonstration ∈F ∈G ∈F ∈G
z}|{ z}|{ z}|{ z}|{
(i) =⇒ (ii) Supposons F et G en somme directe. Pour tout x ∈ F ∩ G : x = x + 0E = 0E + x ,
donc x = 0 E par définition de la somme directe.

(ii) =⇒ (i) Supposons F ∩ G = 0 E . Soient f , f ′ ∈ F et g, g ′ ∈ G des vecteurs pour lesquels f + g = f ′ + g ′ .

Alors f − f ′ = g ′ − g ∈ F ∩ G = 0 E , donc en effet f = f ′ et g = g ′ .
La formule dim(F + G) = dim F + dim G n’est enfin qu’un cas particulier de la formule de Grassmann.
¦ © ¦ ©
Exemple Dans R3 , le plan F = (x, y, z) ∈ R3 | x + y + z = 0 et la droite G = (x, y, z) ∈ R3 | x = y = z sont en
somme directe.
Démonstration Vous vérifierez seuls que F et G  sont deux sous-espaces vectoriels de R3 — par exemple en les
écrivant comme des Vect. Montrons que F ∩ G = (0, 0, 0) . Pour tout (x, y, z) ∈ F ∩ G : x + y + z = 0 et
x = y = z, donc x = y = z = 0, i.e. (x, y, z) = (0, 0, 0).

Théorème (Construction d’une somme directe à partir d’une famille libre) Soient E un K-espace vectoriel et
(x i )i∈I une famille libre de vecteurs de E. On partitionne I en deux parties I1 et I2 disjointes pour lesquelles I = I1 ∪ I2 .
Les sous-espaces vectoriels Vect(x i )i∈I1 et Vect(x i )i∈I2 de E sont alors en somme directe.

X X
Démonstration Soit x ∈ F1 ∩ F2 . Ce vecteur peut être écrit x = λi x i = µ j x j pour certaines familles
i∈I1 j∈I2
(λi )i∈I1 ∈ K I1 et (µ j ) j∈I2 ∈ K I2 presque nulles. La liberté de la famille (x i )i∈I implique aussitôt que λi = 0 et
µ j = 0 pour tous i ∈ I et j ∈ J , et ainsi x = 0 E .

Théorème (Bases d’une somme directe de deux sous-espaces vectoriels) Soient E un K-espace vectoriel et F et
G deux sous-espaces vectoriels de E. On suppose que F possède une base B et G une base C . Si F et G sont en somme
directe, alors la concaténation des familles B et C est une base de F ⊕ G.
Une telle base dont les premiers vecteurs forment une base de F et les suivants une base de G est dite adaptée à la somme
directe F ⊕ G.

Démonstration Introduisons les vecteurs de B et C : B = (bi )i∈IC = (cX


j ) j∈J .
et La
X liberté seule
I J
reste à prouver. Soient (λi )i∈I ∈ K et (µ j ) j∈J ∈ K presque nulles. On suppose que λ i bi + µ j c j = 0E .
i∈I j∈J
Il s’agit là d’une décomposition
X de
X0 E comme somme d’un élément de F et d’un élément de G, donc comme la
somme est directe : λ i bi = µ j c j = 0 E . Aussitôt, B et C étant libres : λi = 0 et µ j = 0 pour
tous i ∈ I et j ∈ J . i∈I j∈J

4.3 SUPPLÉMENTAIRES D’UN SOUS -ESPACE VECTORIEL

Définition (Sous-espaces vectoriels supplémentaires) Soient E un K-espace vectoriel et F et G deux sous-espaces


vectoriels de E. Les assertions suivantes sont équivalentes :
(i) Tout vecteur de E est d’une et une seule manière la somme d’un élément de F et d’un élément de G :
∀x ∈ E, ∃ ! ( f , g) ∈ F × G, x = f + g.
(ii) E est la somme directe de F et G : E = F ⊕ G, ce qui revient à dire que E = F + G ET que F et G sont en
somme directe.
On dit dans ces conditions que F et G sont supplémentaires dans E. On dit aussi que F est UN supplémentaire de G dans
E et que G est UN supplémentaire de F dans E.

23
Christophe Bertault — Mathématiques en MPSI

g G
x= f +g
Deux sous-espaces vectoriels F et G sont supplémentaires dans E si leur somme
couvre E ET s’ils sont le plus possible « séparés » l’un de l’autre, i.e. si leur somme est
la plus grande possible et leur intersection la plus petite possible. On a l’habitude, pour F 0E b

se représenter géométriquement deux tels sous-espaces vectoriels, de faire des figures f


valables dans R3 censées illustrer le cas général.

$ Attention !
• Ne confondez pas « en somme directe » et « supplémentaires dans E ».
Dire que F et G sont en somme directe, c’est affirmer que tout vecteur de E a AU PLUS UNE décomposition comme
somme d’un vecteur de F et d’un vecteur de G. Pour être précis, les vecteurs de F + G ont alors exactement une
décomposition de cette forme tandis que les éléments de E \(F +G) n’en ont pas. Dire que F et G sont supplémentaires
dans E, c’est affirmer en plus que E = F + G, c’est donc affirmer que tout vecteur de E possède EXACTEMENT UNE
décomposition comme somme d’un vecteur de F et d’un vecteur de G.
• Un sous-espace vectoriel possède-t-il toujours un supplémentaire ? La réponse est oui, mais nous le démontrerons un
peu plus loin seulement en dimension finie.
• Il est interdit de parler « du » supplémentaire d’un sous-espace vectoriel en général, faute d’unicité. Un exemple
ci-dessous illustre cette remarque.
• Ne confondez pas « supplémentaire » et « complémentaire », ces notions n’ont rien de commun. Alors qu’il n’y a pas
d’unicité pour la supplémentarité, il y a au contraire unicité du complémentaire. De plus, alors qu’un supplémentaire
est un sous-espace vectoriel, le complémentaire d’un sous-espace vectoriel ne contient même pas le vecteur nul.

Exemple Deux droites NON CONFONDUES passant par (0, 0) sont toujours supplémentaires dans R2 . Et si P est un plan
de R3 passant par (0, 0, 0) et D une droite de R3 passant aussi par (0, 0, 0) ET NON CONTENUE DANS P, alors P et D sont
supplémentaires dans R3 .
G0 G1
€ Š
Exemple Pour tout ǫ 6= −2, la droite Gǫ = Vect (1, ǫ, 1) est un supplémentaire de G4
¦ © G−2
3 3
F = (x, y, z) ∈ R | x + y + z = 0 dans R . F
b

3
Démonstration Soit ǫ 6= −2. Soit (x, y, z) ∈ R . Montrons que (x, y, z) est 0 E
d’une unique manière la somme d’un élément de F et d’un élément de Gǫ .
Pour tous (a, b, c) ∈ R3 et λ ∈ R :
 
 a + λ = x  a + λ = x
(x, y, z) = (a, b, c) + λ (1, ǫ, 1)  
b + ǫλ = y b + ǫλ = y
⇐⇒ ⇐⇒
et (a, b, c) ∈ F  c + λ = z  c + λ = z
 
a + b + c = 0 (2 + ǫ) λ = x + y + z.
L4 ← L1 + L2 + L3 − L4
Comme ǫ 6= −2, ce système triangulaire à coefficients diagonaux non nuls possède une et une seule solution.

Exemple L’ensemble Sn (K) des matrices symétriques et l’ensemble An (K) des matrices antisymétriques de Mn (K) sont
supplémentaires dans Mn (K).
Démonstration Soit M ∈ Mn (K). Nous voulons montrer ceci : ∃ ! (S, A) ∈ Sn (K) × An (K), M = S + A.
⊤ ⊤ ⊤
• Analyse : Soient S ∈ Sn (K) et A ∈ An (K). Si M = S +A, alors M = S +A = S −A, donc par demi-somme
M + M⊤ M − M⊤
et demi-différence : S = et A = .
2 2
M + M⊤ M − M⊤
• Synthèse : Posons S = et A = . Alors M = S + A et S est symétrique et A antisymétrique
  2 ⊤
⊤ ⊤
2  ⊤
M+M M +M M − M⊤ M⊤ − M
car : S ⊤ = = = S et A⊤ = = = −A.
2 2 2 2
¦ ©
Exemple Pour tout P ∈ K[X ] non nul de degré n : K[X ] = PK[X ] ⊕ Kn−1 [X ] où PK[X ] = PQ | Q ∈ K[X ] .

Démonstration Il s’agit de montrer que : ∀A ∈ K[X ], ∃ ! (Q, R) ∈ K[X ] × Kn−1 [X ], A = PQ + R. C’est


ni plus ni moins le théorème de la division euclidienne recuisiné à la sauce linéaire.

Théorème (Existence de supplémentaires en dimension finie) Soient E un K-espace vectoriel de dimension finie
et F un sous-espace vectoriel de E. Alors F possède un supplémentaire dans E.
En outre, les supplémentaires de F dans E ont tous pour dimension dim E − dim F .

24
Christophe Bertault — Mathématiques en MPSI

Démonstration Comme E, F est de dimension finie, donc possède une base (e1 , . . . , e p ) que nous pouvons
compléter en une base (e1 , . . . , en ) de E d’après le théorème de la base incomplète — avec éventuellement p ou
n nul. Posons alors G = Vect(e p+1 , . . . , en ). Il découle de nos théorèmes précédents que E = F + G et que F et G
sont en somme directe, i.e. que F et G sont supplémentaires dans E. A fortiori, d’après la formule de Grassmann :
dim G = dim E − dim F .
 ¦ ©
Exemple Vect X , X 3 est un supplémentaire de F = P ∈ R3 [X ] | P(X + 1) = P(1 − X ) dans R3 [X ].

Démonstration Comme dans la preuve précédente !


• Nous avons besoin d’abord d’une base de F . Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X ] :
P∈F ⇐⇒ a(X + 1)3 + b(X + 1)2 + c(X + 1) + d = a(1 − X )3 + b(1 − X )2 + c(1 − X ) + d

 a = −a

3a + b = 3a + b après identification des coefficients
⇐⇒
 3a + 2b + c = −3a − 2b − c

a+b+c+d = a+b+c+d ⇐⇒ a = 0 et 2b + c = 0.

Ce calcul montre que 1, X 2 − 2X engendre F . Cette famille étant libre, c’est une base de F .

• Complétons-la en une base  de R3 [X ] avec certains vecteurs de la base canonique. Échelonnée en degré, la
famille 1, X 2 − 2X , X , X 3 est libre, et composée de quatre vecteurs alors que dim R3 [X ] = 4, c’est même

une base de R3 [X ]. Conclusion : Vect X , X 3 est UN supplémentaire de F dans R3 [X ].

Théorème (Caractérisation de la supplémentarité en dimension finie) Soient E un K-espace vectoriel de dimension


finie et F et G deux sous-espaces vectoriels de E. On s’intéresse aux trois assertions suivantes :

(i) dim F + dim G = dim E. (ii) F ∩ G = 0 E . (iii) F + G = E.
Les sous-espaces vectoriels F et G sont supplémentaires dans E si et seulement si DEUX SEULEMENT de ces trois assertions
sont vraies — la troisième est alors automatiquement vraie.

Démonstration Notons Æ la formule de Grassmann : dim(F + G) = dim F + dim G − dim(F ∩ G).


(i) et (ii) =⇒ (iii) D’après Æ : dim(F + G) = dim E. Or F + G ⊂ E, donc F + G = E.
(ii) et (iii) =⇒ (i) On obtient (i) tout de suite grâce à Æ.

(iii) et (i) =⇒ (ii) D’après Æ : dim(F ∩ G) = 0, donc F ∩ G = 0 E .
€ Š ¦ ©
Exemple F = Vect (0, 1, 0) et G = (x, y, z) ∈ R3 | x + 2 y + 3z = 0 sont supplémentaires dans R3 .
¦ © € Š
Démonstration F est une droite vectorielle et G = (−2 y − 3z, y, z) | y, z ∈ R = Vect (−2, 1, 0), (−3, 0, 1)

un plan vectoriel, donc dim F +dim G = 1+2 = 3 = dim R3 . Comme par ailleurs F ∩ G = (0, 0, 0) — vérification
facile — F et G sont supplémentaires dans R3 comme voulu.

25

Vous aimerez peut-être aussi