0% ont trouvé ce document utile (0 vote)
25 vues88 pages

Alg Info1

Ce document présente un cours d'Algèbre pour les étudiants de première année en Sciences Informatiques, abordant des concepts tels que les structures algébriques, les espaces vectoriels et les applications linéaires. Le cours vise à développer des compétences en manipulation abstraite et en raisonnement rigoureux, tout en préparant les étudiants pour des études avancées en algorithmique et méthodes numériques. Il inclut également des remerciements aux contributeurs des notes de cours.

Transféré par

julesdaelman
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
25 vues88 pages

Alg Info1

Ce document présente un cours d'Algèbre pour les étudiants de première année en Sciences Informatiques, abordant des concepts tels que les structures algébriques, les espaces vectoriels et les applications linéaires. Le cours vise à développer des compétences en manipulation abstraite et en raisonnement rigoureux, tout en préparant les étudiants pour des études avancées en algorithmique et méthodes numériques. Il inclut également des remerciements aux contributeurs des notes de cours.

Transféré par

julesdaelman
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

A LG ÈBRE (1 E PARTIE )

BACCALAUR ÉAT EN S CIENCES I NFORMATIQUES (B LOC 1)

Annick Sartenaer

Z

• V = (x, y, z)

(0, 0, 0) x ✲X
✑ ✑
✑ ✑
✑ ✑


y ✑ •✑f (V ) = (x, y, 0)


Y✑

Université de Namur
B-5000 Namur

Année 2024–2025
Introduction

Ce cours d’Algèbre s’adresse aux étudiants de première année de Baccalauréat en Sciences Informati-
ques. Il introduit, dans une première partie, les concepts mathématiques de structure algébrique, d’espace
vectoriel et d’application linéaire, pour les concrétiser, dans une seconde partie, grâce à l’outil de calcul
que constituent les matrices.
Au delà des outils mathématiques qu’il présente, ce cours a pour objectif de former les étudiants à la
manipulation abstraite, à la précision et au raisonnement rigoureux qu’exige l’Informatique. En outre, ce
cours pose les bases du cours d’Algèbre de deuxième année de Baccalauréat en Sciences Informatiques,
lequel est davantage orienté vers l’algorithmique et les méthodes numériques (résolution des systèmes
d’équations linéaires et calcul des valeurs propres d’une matrice, entre autres).

Remerciements

Ce syllabus a été rédigé notamment grâce aux notes de cours de Jean-Pierre Thiran, de Philippe Toint
et d’Anne Lemaı̂tre, que je remercie vivement.

1
Table des matières

1 Structures algébriques 4
1.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Lois de composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Commutativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Elément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.4 Elémént symétrisable – élément symétrique . . . . . . . . . . . . . . . . . . . . 12
1.3.5 Elémént simplifiable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Homomorphisme et isomorphisme de (E, ⊤) dans (E ′ , ⊤′ ) . . . . . . . . . . . . . . . 14
1.5 Groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Corps – Champ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.8 Le champ des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Espaces vectoriels 31
2.1 Définition et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Base – Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.1 Partie génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.2 Partie libre – Partie liée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.3 Base – Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Théorèmes relatifs aux notions de base et de dimension . . . . . . . . . . . . . . . . . . 45
2.5 Dimension et sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6 L’espace des coordonnées K n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3 Applications linéaires 53
3.1 Définition et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Image et noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4 Application linéaire bijective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

2
4 Matrices 67
4.1 Représentation matricielle d’une application linéaire . . . . . . . . . . . . . . . . . . . 67
4.2 Généralités sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Opérations matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.1 L’addition matricielle et la multiplication scalaire . . . . . . . . . . . . . . . . . 72
4.3.2 La multiplication matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 Rang – Matrice inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.5 Changement de bases – Matrices équivalentes et semblables . . . . . . . . . . . . . . . 83

3
Chapitre 1

Structures algébriques

Une structure algébrique, telle que nous l’étudierons dans ce cours, est un ensemble d’éléments quel-
conques sur lesquels opèrent des lois de composition, appelées également opérations (telles que l’addition
ou la multiplication, par exemple), à condition que ces lois de composition satisfassent à un ensemble
de règles de base ou axiomes 1 convenablement choisis (comme l’associativité ou la commutativité, par
exemple). Dans ce cours, nous aborderons plus particulièrement certains types de structure algébrique tels
que les groupes, les anneaux, les corps, les champs, et, au Chapitre 2, les espaces vectoriels.

Nous nous intéresserons également à la notion d’application, qui est, intuitivement, une règle quel-
conque qui associe à chaque élément d’un ensemble un élément correspondant d’un deuxième ensemble.
Lorsque ces ensembles sont chacun muni de lois de composition, nous étudierons plus particulièrement
les applications qui respectent ces lois (ou encore qui transportent les lois du premier ensemble sur celles
du deuxième ensemble), que nous appellerons homomorphismes.

1.1 Ensembles
Intuitivement, un ensemble est une collection d’éléments divers. Les ensembles que nous considé-
rerons seront a priori quelconques, et nous les désignerons généralement par des majuscules. Notons
cependant, parmi les ensembles fréquemment utilisés dans la suite, les ensembles de nombres suivants :
— L’ensemble des entiers naturels :

N = {0, 1, 2, 3, 4, . . .}.

— L’ensemble des entiers relatifs :

Z = {. . . , −3, −2, −1, 0, +1, +2, +3, +4, . . .}.

— L’ensemble des nombres rationnels :


a
Q={ | a, b ∈ Z et b 6= 0}.
b
1. Définition du Petit Larousse : Proposition première, vérité admise sans démonstration et sur laquelle se fonde une science,
un raisonnement ; principe posé hypothétiquement à la base d’une théorie déductive.

4

— L’ensemble des nombres réels (nombres rationnels et irrationnels tels que π, 2, etc), noté R.

Ces mêmes ensembles dont on a supprimé l’élément nul sont désignés par N0 , Z0 , Q0 et R0 . D’autre
part, on désigne par R+ l’ensemble de tous les nombres réels non négatifs :

R+ = {x ∈ R | x ≥ 0},

et donc par R+
0 l’ensemble de tous les nombres réels strictement positifs :

R+
0 = {x ∈ R | x > 0}.

Enfin, l’ensemble qui ne contient aucun élément, appelé l’ensemble vide, est désigné par le symbole ∅.

Le symbole ∈ utilisé ci-dessus indique l’appartenance d’un élément à un ensemble, par exemple s ∈
S. Deux ensembles S et T sont égaux (symboliquement S = T ), si et seulement si ils ont les mêmes
éléments. De plus, S est un sous-ensemble ou une partie de T (ou est inclus dans T ), lorsque chaque
élément de S est un élément de T . On écrira symboliquement S ⊆ T , ou encore S ⊂ T si S est strictement
inclus dans T .

Dans ce qui suit, nous utiliserons également la notion de couple et celle de produit cartésien. Le couple
constitué par deux éléments s et t, dans cet ordre, s’écrit (s, t). L’égalité de deux couples est définie par
la règle :
(s, t) = (s′ , t′ ) ⇔ s = s′ et t = t′ .

Le produit cartésien de deux ensembles S et T est défini comme l’ensemble des couples (s, t) d’éléments
appartenant respectivement à S et à T :

S × T = {(s, t) | s ∈ S et t ∈ T }. (1.1)

Ainsi, R × R est l’ensemble des couples (x, y) de nombres réels 2 . En d’autres termes, R × R n’est autre
que l’ensemble des coordonnées cartésiennes des points du plan (relativement à des axes de coordonnées
donnés).

1.2 Applications
Dans les définitions qui suivent et tout au long de ce cours, nous utiliserons régulièrement les symboles
suivants :
— ∀, qui signifie “pour tout”,
— ∃, qui signifie “il existe”,
— !, qui signifie “au plus”,
— ∃ !, qui se traduit par “il existe un et un seul”.

Définition 1.1 Une application f définie sur l’ensemble A et à valeurs dans l’ensemble B :

f : A → B,
2. Notons que le produit cartésien S × S d’un ensemble S par lui-même est noté S 2 , et donc R × R se note également R2 .

5
est une loi qui fait correspondre à chaque élément a ∈ A un élément unique b ∈ B, noté f (a) et appelé
image de a par f .

En d’autres termes et comme l’illustre schématiquement la Figure 1.1, pour une application f : A →
B, une et une seule flèche part de chaque point de A :

∀ a ∈ A, ∃ ! b ∈ B tel que b = f (a).

On désigne par f (A), ou encore Imf , l’ensemble des images par f des éléments de A :

f (A) = Imf = {f (a) ∈ B | a ∈ A}. (1.2)

De façon évidente, f (A) ⊆ B, c’est-à-dire que f (A) est un sous-ensemble de B.

A B
f
• •
• •

• •
• •

F IGURE 1.1 – Une application f définie sur l’ensemble A et à valeurs dans l’ensemble B.

À titre d’exemple, on a l’application f : R → R définie par :

f (x) = x2 . (1.3)

Par contre, la loi qui associe à x ∈ R sa racine carrée, x, n’est pas une application de R dans R, puisque
la racine carrée d’un nombre réel négatif n’est par un nombre réel. Cependant, cette même loi est une
application de R+ dans R.

Il existe plusieurs classes particulières d’applications que nous allons maintenant détailler.

Définition 1.2 Une application f : A → B est injective, ou encore est une injection, si et seulement si
des éléments distincts de A ont des images distinctes dans B :

a 6= a′ ∈ A ⇒ f (a) 6= f (a′ ) ∈ B,

ou, de manière équivalente (contraposée), si et seulement si :

f (a) = f (a′ ) ∈ B ⇒ a = a′ ∈ A.

En d’autres termes et comme l’illustre schématiquement la Figure 1.2, pour une injection f : A → B,
au plus une flèche arrive en chaque point de B.

6
A B
f
• •
• •

• •
• •

F IGURE 1.2 – Une injection f définie sur l’ensemble A et à valeurs dans l’ensemble B.

L’application f : R → R définie par (1.3) n’est pas injective puisque f (a) = f (−a) pour a 6= 0
(et donc pour a 6= −a). On obtient une application injective en remplaçant l’ensemble de départ, R, par
l’ensemble R+ .

Définition 1.3 Une application f : A → B est surjective, ou encore est une surjection, si et seulement si
chaque élément de B est l’image d’au moins un élément de A :

∀ b ∈ B, ∃ a ∈ A tel que b = f (a).

En d’autres termes et comme l’illustre schématiquement la Figure 1.3, pour une surjection f : A → B,
au moins une flèche arrive en chaque point de B. On peut donc écrire dans ce cas que f (A) = B.

A B
f
• •
• •


• •

F IGURE 1.3 – Une surjection f définie sur l’ensemble A et à valeurs dans l’ensemble B.

Ici encore, l’application f : R → R définie par (1.3) n’est pas surjective puisque, pour b < 0 ∈ R, il
n’existe pas de a ∈ R tel que b = a2 . On obtient une surjection en remplaçant l’ensemble d’arrivée, R,
par l’ensemble R+ .

Définition 1.4 Une application f : A → B injective et surjective est appelée bijective :

∀ b ∈ B, ∃ ! a ∈ A tel que b = f (a).

On dit aussi qu’elle est une bijection.

7
En d’autres termes et comme l’illustre schématiquement la Figure 1.4, pour une bijection f : A → B,
une et une seule flèche arrive en chaque point de B. Ainsi, l’application f : R+ → R+ définie par (1.3)
est une bijection.

A B
f
• •
• •


• •

F IGURE 1.4 – Une bijection f définie sur l’ensemble A et à valeurs dans l’ensemble B.

Pour une bijection f : A → B, tout élément b ∈ B peut être exprimé comme b = f (a) avec a ∈ A
unique. On peut donc définir une application réciproque :
f −1 : B → A,
qui à tout élément b ∈ B fait correspondre l’élément unique a ∈ A solution de b = f (a). On écrit alors
f −1 (b) = a. L’application f −1 est évidemment bijective.

À titre d’exemple, pour f : R+ → R+ définie par (1.3), l’application réciproque f −1 : R+ → R+


est :

f −1 (x) = x.

1.3 Lois de composition


Une loi de composition étant une application à deux variables, nous allons la définir en termes de
couples. Introduisons tout d’abord ce qu’est une loi de composition interne et partout définie.

Définition 1.5 Une loi de composition interne ⊤ entre éléments d’un ensemble E est une application
d’une partie A de E 2 (= E × E) dans E :
not
(a, b) ∈ A ⊆ E 2 ⇒ c = ⊤(a, b) = a ⊤ b ∈ E.
Lorsque A = E 2 , la loi de composition interne est dite partout définie sur E.

L’élément c est appelé le composé des éléments a et b, ces derniers étant appelés les composants de
c. Suivant les cas, on pourra ainsi désigner le composé a ⊤ b par la notation additive, a + b, ou par la
notation multiplicative, a × b (ou, plus communément, ab).

À titre d’exemple, sur N, la soustraction a − b est une loi de composition interne définie seulement
pour :
A = {(a, b) | a ≥ b}.

8
Par contre, sur Z, la soustraction est une loi de composition interne et partout définie.

Dans la suite du cours, toute loi de composition que nous étudierons sera supposée interne et
partout définie sur E, et on parlera de “loi interne définie sur E”. Nous désignerons alors par (E, ⊤)
le couple de l’ensemble E muni de la loi de composition interne et partout définie ⊤. Ainsi, par exemple,
(N, +) désigne l’ensemble des entiers naturels muni de l’addition, et (R, ×) désigne l’ensemble des
nombres réels muni de la multiplication.

Introduisons à présent une série de propriétés (ou règles) relatives aux lois de composition.

1.3.1 Associativité
Notons tout d’abord que, par convention, le composé de plus de deux éléments s’obtient en composant
les éléments de proche en proche à partir de la gauche :

a1 ⊤ a2 ⊤ a3 . . . ⊤ an = ( . . . ((a1 ⊤ a2 ) ⊤ a3 ) . . . ) ⊤ an .

Définition 1.6 La loi interne ⊤ définie sur E est associative si et seulement si, pour tout triplet (a1 , a2 , a3 )
d’éléments de E, la relation suivante est satisfaite :

(a1 ⊤ a2 ) ⊤ a3 = a1 ⊤ (a2 ⊤ a3 ).

Par exemple, la multiplication dans R est associative, tandis que la soustraction dans R et la division
dans R0 ne le sont pas.

Pour une loi associative, nous avons le théorème suivant.

Théorème 1.1 Pour une loi interne ⊤ définie sur E et associative, toute combinaison d’éléments de E
formée par application répétée de ⊤ ne dépend pas du groupement des éléments impliqués.

En d’autres termes, la façon dont apparaissent les parenthèses dans une combinaison d’éléments n’af-
fecte en rien le résultat. Dans ce cas, on dit que la loi est complètement associative.

Bien qu’elle ne présente aucune difficulté, la démonstration du Théorème 1.1 est assez fastidieuse, et
sera omise ici. Nous nous contenterons d’en vérifier l’énoncé sur un exemple simple 3 , celui du composé
de quatre éléments, a1 , a2 , a3 et a4 . Pour cela, posons x = a1 ⊤ a2 et y = a3 ⊤ a4 . Par la propriété
3. Il est évidemment très important de ne pas confondre “vérification sur un exemple” et “démonstration”, une vérification
sur un exemple ne pouvant en aucun cas tenir lieu de démonstration.

9
d’associativité, nous obtenons les égalités suivantes :

((a1 ⊤ a2 ) ⊤ a3 ) ⊤ a4 = (x ⊤ a3 ) ⊤ a4 (par définition de x)

= x ⊤ (a3 ⊤ a4 ) (par associativité)

= x⊤y (par définition de y)

= (a1 ⊤ a2 ) ⊤ y (par définition de x)

= a1 ⊤ (a2 ⊤ y) (par associativité)

= a1 ⊤ (a2 ⊤ (a3 ⊤ a4 )) (par définition de y),

que nous pouvons dès lors noter a1 ⊤ a2 ⊤ a3 ⊤ a4 .

En conclusion, pour un ensemble muni d’une loi associative, l’usage des parenthèses est superflu,
puisque quelle que soit la manière d’associer les éléments, on obtient le même résultat pourvu qu’on
respecte l’ordre. Ce résultat unique sera noté :

a1 ⊤ a2 ⊤ · · · ⊤ an = ⊤ni=1 ai ,

soit
n
X
a1 + a2 + · · · + an = ai ,
i=1
et
n
Y
a1 a2 · · · an = ai ,
i=1

en notation additive et multiplicative, respectivement.

1.3.2 Commutativité
Définition 1.7 La loi interne ⊤ définie sur E est commutative si et seulement si, pour tout couple (a1 , a2 )
d’éléments de E, la relation suivante est satisfaite :

a1 ⊤ a2 = a2 ⊤ a1 .

Dans Z, par exemple, l’addition est commutative, tandis que la soustraction ne l’est pas.

Théorème 1.2 Si une loi interne ⊤ définie sur E est à la fois associative et commutative, toute combinai-
son d’éléments de E formée par application répétée de ⊤ ne dépend ni du groupement des éléments, ni
de leur ordre.

La loi est alors dite complètement associative et complètement commutative. Ici encore, nous nous
contenterons de vérifier le théorème sur un exemple simple. Posons x = a4 ⊤ a3 et y = (a4 ⊤ a3 ) ⊤ a2 ,

10
nous obtenons successivement :

⊤4i=1 ai = a1 ⊤ (a2 ⊤ (a3 ⊤ a4 )) (par le Théorème 1.1)

= a1 ⊤ (a2 ⊤ (a4 ⊤ a3 )) (par commutativité)

= a1 ⊤ (a2 ⊤ x) (par définition de x)

= a1 ⊤ (x ⊤ a2 ) (par commutativité)

= a1 ⊤ ((a4 ⊤ a3 ) ⊤ a2 ) (par définition de x)

= a1 ⊤ y (par définition de y)

= y ⊤ a1 (par commutativité)

= ((a4 ⊤ a3 ) ⊤ a2 ) ⊤ a1 (par définition de y)

= ⊤1i=4 ai (par le Théorème 1.1).

1.3.3 Elément neutre


Définition 1.8 La loi interne ⊤ définie sur E possède un élément neutre, noté e ∈ E, si et seulement si,
pour tout a ∈ E, on a :
a ⊤ e = e ⊤ a = a.

Théorème 1.3 Si une loi interne ⊤ définie sur E possède un élément neutre, alors il est unique.

Preuve
Nous travaillons sous l’hypothèse qu’un élément neutre existe et nous devons démontrer qu’il est unique.
Pour ce faire, supposons par l’absurde qu’il existe deux éléments neutres, notés e1 et e2 , et démontrons
qu’ils sont égaux. Par définition d’un élément neutre, nous avons, pour tout a ∈ E :

a ⊤ e1 = e1 ⊤ a = a, (1.4)

et
a ⊤ e2 = e2 ⊤ a = a. (1.5)

En choisissant a = e2 dans (1.4) et a = e1 dans (1.5), nous obtenons :

e2 ⊤ e1 = e1 ⊤ e2 = e2 ,

et
e1 ⊤ e2 = e2 ⊤ e1 = e1 ,

ce qui implique e1 = e2 . 

Pour (R, +) et (R, ×), l’élément neutre est, respectivement, 0 et 1. C’est pourquoi en notation
additive l’élément neutre est appelé élément zéro et noté 0, tandis qu’en notation multiplicative, l’élément
neutre est appelé élément unité et noté 1.

11
1.3.4 Elémént symétrisable – élément symétrique
Définition 1.9 Pour une loi interne ⊤ définie sur E et possédant un élément neutre e, un élément a ∈ E
est symétrisable s’il existe un élément a′ ∈ E tel que :

a ⊤ a′ = a′ ⊤ a = e.

On dit que a′ est un symétrique de a dans (E, ⊤).

De cette définition découle d’une part que si a′ est un symétrique de a, alors a est un symétrique de
a′ , et d’autre part que l’élément neutre est son propre symétrique.

Par exemple, dans (R, +) tous les éléments sont symétrisables, tandis que dans (R, ×) l’élément 0
n’est pas symétrisable.

Théorème 1.4 Pour une loi interne ⊤ définie sur E, associative et possédant un élément neutre e, un
élément symétrisable admet un seul symétrique.

Preuve
Nous travaillons sous les hypothèses que la loi ⊤ est associative et possède un élément neutre e, et soit
a ∈ E, un élément symétrisable, nous devons démontrer qu’il admet un seul symétrique. Pour ce faire,
supposons qu’il existe deux symétriques de a, que nous notons a′ et a′′ , et démontrons que a′ = a′′ . Par
définition d’un symétrique, on a d’une part :

a ⊤ a′ = a′ ⊤ a = e, (1.6)

et
a ⊤ a′′ = a′′ ⊤ a = e. (1.7)
La loi ⊤ étant associative, on a d’autre part :

(a′′ ⊤ a) ⊤ a′ = a′′ ⊤ (a ⊤ a′ ).

Par (1.6) et (1.7), cette dernière égalité peut s’écrire :

e ⊤ a′ = a′′ ⊤ e,

c’est-à-dire :
a′ = a′′ ,
par définition de l’élément neutre. 

En notation additive, le symétrique de a est appelé son opposé et désigné par −a, tandis qu’en notation
multiplicative, il est appelé son inverse et désigné par a−1 .

Démontrons également le résultat suivant.

Théorème 1.5 Pour une loi interne ⊤ définie sur E, associative et possédant un élément neutre e, le com-
posé de deux éléments symétrisables est symétrisable, et son symétrique est le composé des symétriques
dans l’ordre inverse.

12
Preuve
Nous travaillons sous les hypothèses que la loi ⊤ est associative et possède un élément neutre e. Soient a′
et b′ ∈ E, les symétriques des éléments symétrisables a et b ∈ E, respectivement. Nous devons démontrer
que :
(a ⊤ b) ⊤ (b′ ⊤ a′ ) = (b′ ⊤ a′ ) ⊤ (a ⊤ b) = e.

Or, par la complète associativité de ⊤ et par la définition du neutre, nous avons que :

(a ⊤ b) ⊤ (b′ ⊤ a′ ) = (a ⊤ (b ⊤ b′ )) ⊤ a′ = (a ⊤ e) ⊤ a′ = a ⊤ a′ = e.

On vérifie semblablement que :


(b′ ⊤ a′ ) ⊤ (a ⊤ b) = e.

1.3.5 Elémént simplifiable


Définition 1.10 Pour une loi interne ⊤ définie sur E, un élément a ∈ E est simplifiable à droite si, pour
tout x et tout y ∈ E :
x ⊤ a = y ⊤ a ⇒ x = y. (1.8)

Il est simplifiable à gauche si, pour tout x et tout y ∈ E :

a ⊤ x = a ⊤ y ⇒ x = y. (1.9)

Il est simplifiable s’il est simultanément simplifiable à gauche et à droite.

Par exemple, 0 est simplifiable dans (R, +), mais pas dans (R, ×) car x 0 = y 0 n’implique pas que
x = y.

Théorème 1.6 Pour une loi interne ⊤ définie sur E, associative et possédant un élément neutre e, tout
élément symétrisable est simplifiable.

Preuve
Nous travaillons sous les hypothèses que la loi ⊤ est associative et possède un élément neutre e, et soit
a′ ∈ E, le symétrique d’un élément symétrisable a ∈ E (par le Théorème 1.4, nous savons que a admet
un seul symétrique). L’égalité a ⊤ x = a ⊤ y implique que :

a′ ⊤ (a ⊤ x) = a′ ⊤ (a ⊤ y),

ce qui s’écrit, par l’associativité de ⊤ :

(a′ ⊤ a) ⊤ x = (a′ ⊤ a) ⊤ y,

c’est-à-dire, par définition du symétrique :

e ⊤ x = e ⊤ y.

13
Par définition du neutre, on obtient donc x = y. On démontre de manière semblable que x ⊤ a = y ⊤ a
implique que x = y. 

Dans (R, +), tous les éléments sont symétrisables et donc simplifiables, tandis que dans (R, ×),
l’élément 0 n’étant pas simplifiable, il n’est donc pas symétrisable (par la contraposée), ce qui rejoint ce
qui a été dit dans la Section 1.3.4.

1.4 Homomorphisme et isomorphisme de (E, ⊤) dans (E ′, ⊤′ )


Considérons à présent deux ensembles, E et E ′ , munis respectivement des lois internes ⊤ et ⊤′ , ainsi
qu’une application f de E dans E ′ .

Observons que pour tout couple (x, y) ∈ E 2 , on peut d’abord former le composé x ⊤ y ∈ E et
ensuite prendre l’image de ce composé, f (x ⊤ y) ∈ E ′ , ou tout aussi bien d’abord prendre les images
f (x) et f (y) ∈ E ′ et ensuite former le composé de ces images, f (x) ⊤′ f (y) ∈ E ′ . Les applications de
(E, ⊤) dans (E ′ , ⊤′ ) telles que ces deux éléments de E ′ sont égaux jouent un rôle important dans la suite
et font l’objet de la définition suivante.

Définition 1.11 Un homomorphisme de (E, ⊤) dans (E ′ , ⊤′ ) est une application f de E dans E ′ telle
que, pour tout (x, y) ∈ E 2 , on a :

f (x ⊤ y) = f (x) ⊤′ f (y).

Si l’application est bijective, l’homomorphisme est appelé isomorphisme.

À titre d’exemple, l’application f : R → R définie par (1.3) est un homomorphisme de (R, ×) dans
(R, ×). En effet, pour tout couple (a, b) ∈ R2 , on a :

(ab)2 = a2 b2 . (1.10)

Par contre, cette application n’est pas un homomorphisme de (R, +) dans (R, +), puisque :

(a + b)2 6= a2 + b2 ,

pour a et b ∈ R non nuls. D’autre part, l’application f : R+ → R+ définie par (1.3) étant bijective et
vérifiant (1.10) pour tout (a, b) ∈ R2 , elle est un isomorphisme de (R+ , ×) dans (R+ , ×).

Un isomorphisme étant une application bijective, il possède une application réciproque pour laquelle
le théorème suivant a lieu.

Théorème 1.7 Si f est un isomorphisme de (E, ⊤) dans (E ′ , ⊤′ ), l’application réciproque f −1 est un


isomorphisme de (E ′ , ⊤′ ) dans (E, ⊤).

Preuve
L’application réciproque f −1 étant bijective, il nous suffit de démontrer que c’est un homomorphisme,
c’est-à-dire que pour tout (x′ , y ′ ) ∈ E ′ 2 , on a :

f −1 (x′ ⊤′ y ′ ) = f −1 (x′ ) ⊤ f −1 (y ′ ).

14
D’une part, l’application f étant une bijection, nous savons que pour tout x′ et y ′ ∈ E ′ , il existe des
éléments uniques x et y ∈ E, respectivement, tels que :

f (x) = x′ ⇒ f −1 (x′ ) = x, (1.11)

et
f (y) = y ′ ⇒ f −1 (y ′ ) = y. (1.12)

D’autre part, puisque f est un homomorphisme, on a que :

f (x ⊤ y) = f (x) ⊤′ f (y) = x′ ⊤′ y ′ , (1.13)

où la dernière égalité résulte de (1.11) et (1.12). Appliquons maintenant f −1 aux extrémités de (1.13),
nous obtenons :
f −1 (f (x ⊤ y)) = f −1 (x′ ⊤′ y ′ ). (1.14)

Or, par définition de l’application réciproque et par (1.11) et (1.12), nous avons que :

f −1 (f (x ⊤ y)) = x ⊤ y = f −1 (x′ ) ⊤ f −1 (y ′ ),

de sorte que l’égalité (1.14) devient :

f −1 (x′ ) ⊤ f −1 (y ′ ) = f −1 (x′ ⊤′ y ′ ),

ce qui prouve que f −1 est bien un homomorphisme de (E ′ , ⊤′ ) dans (E, ⊤). L’application réciproque
f −1 constitue donc bien un isomorphisme de (E ′ , ⊤′ ) dans (E, ⊤). 

1.5 Groupe
Nous disposons à présent d’assez d’outils pour pouvoir introduire l’un des types de structure les plus
simples, la structure de groupe.

Définition 1.12 Un groupe est un couple (G, ⊤), c’est-à-dire un ensemble G muni d’une loi interne ⊤,
qui satisfait aux axiomes suivants :
G1. La loi ⊤ est associative.
G2. Il existe un élément neutre dans (G, ⊤) :

∃ e ∈ G, ∀ a ∈ G, a ⊤ e = e ⊤ a = a.

G3. Tout élément de (G, ⊤) est symétrisable :

∀ a ∈ G, ∃ a′ ∈ G, a ⊤ a′ = a′ ⊤ a = e.

Si, en outre, la loi ⊤ est commutative, on parlera d’un groupe commutatif.

15
Le couple (Z, +) est un groupe commutatif. Par contre, (Z0 , ×) n’est pas un groupe. En effet, il
possède l’élément neutre 1, mais tout élément n’est pas symétrisable car l’inverse d’un entier différent de
1 n’est pas entier.

Le groupe satisfait aux propriétés démontrées précédemment :


1. La loi ⊤ est complètement associative (Théorème 1.1).
2. L’élément neutre est unique (Théorème 1.3).
3. Le symétrique est unique (Théorème 1.4).
4. Le symétrique d’un composé est le composé, dans l’ordre inverse, des symétriques (Théorème
1.5).
5. Tout élément est simplifiable (Théorème 1.6).
En outre, dans un groupe commutatif, la loi ⊤ est complètement commutative (Théorème 1.2).

Le groupe satisfait également à la propriété fondamentale suivante.

Théorème 1.8 Soit (G, ⊤), un groupe. Pour tout (a, b) ∈ G2 , l’équation en x et celle en y :
a⊤x=b et y ⊤ a = b, (1.15)
ont chacune une solution unique :
x = a′ ⊤ b et y = b ⊤ a′ , (1.16)
respectivement, où a′ désigne le symétrique de a. De plus, si (G, ⊤) est un groupe commutatif, ces
solutions sont identiques : x = y.

Preuve
Nous travaillons sous l’hypothèse que (G, ⊤) est un groupe. Soit (a, b) ∈ G2 , considérons tout d’abord
l’équation a ⊤ x = b. On peut écrire, par définition de l’élément neutre e et du symétrique a′ de a :
a ⊤ x = b = e ⊤ b = (a ⊤ a′ ) ⊤ b.
Étant donné l’associativité de ⊤, on obtient :
a ⊤ x = a ⊤ (a′ ⊤ b),
ce qui implique :
x = a′ ⊤ b,
puisque a est simplifiable par le Théorème 1.6. La démonstration est semblable pour la seconde équation :
y ⊤ a = b = b ⊤ e = b ⊤ (a′ ⊤ a) = (b ⊤ a′ ) ⊤ a,
par définition du neutre, du symétrique et par associativité, ce qui implique :
y = b ⊤ a′ ,
puisque a est simplifiable par le Théorème 1.6. Finalement, si ⊤ est commutative, on déduit de (1.16)
que :
x = a′ ⊤ b = b ⊤ a′ = y.
Les solutions des équations (1.15) sont donc identiques dans ce cas. 

16
1.6 Anneau
La structure d’anneau que nous allons définir plus loin fait intervenir un ensemble muni de deux lois
de composition internes et partout définies qui seront reliées entre elles de la façon suivante.

Définition 1.13 Étant donné deux lois internes ⊤ et ⊥ définies sur un ensemble E, la loi ⊤ est dite
distributive à gauche par rapport à la loi ⊥ si, pour tout a, b et c ∈ E, on a :

a ⊤ (b ⊥ c) = (a ⊤ b) ⊥ (a ⊤ c).

Elle est distributive à droite si :

(b ⊥ c) ⊤ a = (b ⊤ a) ⊥ (c ⊤ a).

Elle est distributive si elle l’est à la fois à gauche et à droite.

Citons par exemple, dans N, Z, Q et R, la distributivité de la multiplication par rapport à l’addition.

À partir de maintenant et afin de simplifier l’écriture, nous utiliserons la notation multiplicative


(×) pour la loi ⊤, et la notation additive (+) pour la loi ⊥. La distributivité de la multiplication par
rapport à l’addition s’exprimera dès lors de la façon suivante :

a(b + c) = ab + ac et (b + c)a = ba + ca, (1.17)

où l’on convient, dans une expression sans parenthèses qui contient les deux lois multiplicative et additive,
d’effectuer d’abord les multiplications, puis les additions.

Définissons à présent ce qu’est un anneau.

Définition 1.14 Un anneau est un triplet (A, +, ×), c’est-à-dire un ensemble A muni d’une addition et
d’une multiplication, qui satisfait aux axiomes suivants :
A1. (A, +) est un groupe commutatif (dont le neutre est noté 0 et appelé élément zéro).
A2. La multiplication est associative.
A3. La multiplication est distributive par rapport à l’addition.
Si, en outre, la multiplication possède un élément neutre (noté 1 et appelé élément unité), l’anneau est
dit unitaire, et si la multiplication est commutative, l’anneau est dit commutatif.

Les ensembles Z, Q et R sont, pour l’addition et la multiplication habituelles, des anneaux unitaires
commutatifs.

Les anneaux possèdent de nombreuses propriétés, dont certaines sont des règles de calcul familières.
En voici quelques-unes, que nous allons démontrer.

Règle 1.1 (Distributivité généralisée) Soit (A, +, ×), un anneau, et soient a1 , a2 , . . . , am et b1 , b2 ,


. . . , bn , des éléments de A. On a :
m
! n  m X n
X X X
(a1 + a2 + · · · + am )(b1 + b2 + · · · + bn ) = ai  
bj = ai bj . (1.18)
i=1 j=1 i=1 j=1

17
Par exemple, dans le cas simple du produit de deux sommes de deux éléments chacune, la Règle 1.1
s’énonce : ! 2 
X 2 X X2 X 2
(a1 + a2 )(b1 + b2 ) = ai  
bj = ai bj ,
i=1 j=1 i=1 j=1

c’est-à-dire :
(a1 + a2 )(b1 + b2 ) = a1 b1 + a1 b2 + a2 b1 + a2 b2 .

La Règle 1.1 se démontre par récurrence. Avant d’entamer sa preuve, rappelons le principe de la
démonstration par récurrence (ou par induction).

Prenons tout d’abord un exemple illustratif. Supposons que cent individus soient alignés en file in-
dienne et que chaque individu chuchote son prénom à l’oreille de celui qui est derrière lui. Supposons que
nous sachions seulement deux choses à propos de cette file indienne :
Hypothèse 1. Le prénom du premier individu est David.
Hypothèse 2. Si un individu se prénomme David, celui qui le suit se prénomme également David.
De ces deux hypothèses, nous pouvons conclure que les cent individus se prénomment tous David. En
effet, par l’Hypothèse 1, on sait que le premier individu se prénomme David. De l’Hypothèse 2, nous
pouvons alors déduire que le prénom du deuxième individu est aussi David, et donc que celui du troisième
individu est également David, de même pour le quatrième individu, etc. En appliquant à chaque individu
l’Hypothèse 2, nous pouvons conclure que chaque individu dans cette file se prénomme David.

Le principe de récurrence s’applique de la même façon. En effet, soit une suite de propriétés à vérifier,
indexées par des entiers naturels. Supposons que nous puissions démontrer deux choses à propos de cette
suite de propriétés :
1. La propriété est vraie pour le premier indice (disons 1).
2. Si la propriété est vraie pour l’indice k, alors et quel que soit k ≥ 1, elle l’est aussi pour l’indice
k + 1.
Dans ce cas, en utilisant la même logique que celle de la file indienne des individus prénommés David,
nous pouvons conclure que toutes les propriétés de la suite sont vraies. La supposition selon laquelle “la
propriété est vraie pour l’indice k” s’appelle hypothèse de récurrence.

À titre d’illustration, démontrons par récurrence que :


n(n + 1)
1 + 2 + 3 + ··· + n = . (1.19)
2
D’une part la propriété est vraie pour n = 1. En effet, on a bien que :
1(1 + 1)
1= .
2
D’autre part, introduisons l’hypothèse de récurrence (propriété vraie pour k) :
k(k + 1)
1 + 2 + 3 + ··· + k = , (1.20)
2

18
où k ≥ 1 est un entier naturel quelconque, et démontrons l’égalité (1.19) pour n = k + 1. Pour ce faire,
ajoutons (k + 1) dans les deux membres de (1.20), ce qui donne :

k(k+1)
1 + 2 + 3 + · · · + k + (k + 1) = 2 + (k + 1)
k

= 2 + 1 (k + 1)
(k+1)(k+2)
= 2 ,

qui correspond bien à (1.19) pour n = k + 1. Nous avons donc montré que (1.19) est vrai pour n = 1, et
que si c’est vrai pour n = k, alors c’est vrai pour n = k + 1, et ce pour tout k ≥ 1. En utilisant le principe
de récurrence, on en conclut que (1.19) est vrai quel que soit n.

Voyons à présent la preuve de la Règle 1.1.

Preuve de la Règle 1.1


Nous devons donc démontrer que :

m
! n  n
m X
X X X
ai  
bj = a i bj . (1.21)
i=1 j=1 i=1 j=1

Pour ce faire, commençons par démontrer par récurrence sur m que :


m
! m
X X
ai c = ai c, (1.22)
i=1 i=1

pour tout élément c ∈ A. D’une part pour m = 2 on a, par la distributivité de la multiplication par rapport
à l’addition : !
X2 X2
ai c = (a1 + a2 )c = a1 c + a2 c = ai c.
i=1 i=1

D’autre part faisons l’hypothèse de récurrence que pour k ≥ 2 quelconque, k ∈ N, on a :


k
! k
X X
ai c = ai c, (1.23)
i=1 i=1

et démontrons que l’égalité (1.22) est vraie pour m = k + 1. Afin de pouvoir utiliser l’hypothèse de
récurrence (1.23), considérons la décomposition suivante :
k+1
! k
! k
!
X X X
ai c = ai + ak+1 c = ai c + ak+1 c,
i=1 i=1 i=1

où la dernière égalité est due à nouveau à la distributivité de la multiplication par rapport à l’addition. Par
l’hypothèse de récurrence (1.23), nous obtenons :
k+1
! k k+1
X X X
ai c = ai c + ak+1 c = ai c,
i=1 i=1 i=1

19
qui est bien l’égalité (1.22) pour m = k + 1, ce qui termine la preuve de (1.22).
De façon tout-à-fait similaire, on peut montrer par récurrence sur n que :
 
X n Xn
c bj  = cbj , (1.24)
j=1 j=1

pour tout élément c ∈ A.


P
n
Remplaçons à présent c ∈ A par bj ∈ A dans (1.22), nous obtenons :
j=1

m
! n

m

n

X X X X
ai  bj  = ai  bj  . (1.25)
i=1 j=1 i=1 j=1

En utilisant ensuite (1.24) avec c remplacé par ai pour chaque terme du membre de droite de (1.25), on
trouve finalement : ! n   
Xm X Xm X n m X
X n
ai  bj  =  ai bj  = ai bj ,
i=1 j=1 i=1 j=1 i=1 j=1

où la dernière égalité est due au fait que l’addition dans un anneau est associative et commutative, et donc,
par les Théorèmes 1.1 et 1.2, complètement associative et complètement commutative, si bien que ni le
groupement ni l’ordre des termes ai bj n’ont d’importance. 

L’anneau étant un groupe commutatif pour l’addition, tout élément b ∈ A est symétrisable et a donc
un opposé, −b ∈ A. Par convention, on définit la soustraction dans A par :

a − b = a + (−b).

De même, l’opposé −(ab) de l’élément ab sera noté −ab. On obtient dès lors sans peine les règles de
calcul suivantes.

Règle 1.2 Dans un anneau (A, +, ×), la multiplication est distributive par rapport à la soustraction :

a(b − c) = ab − ac, (1.26)

et
(a − b)c = ac − bc, (1.27)

où a, b et c ∈ A.

Preuve
Démontrons par exemple (1.26). Considérons l’identité suivante :

ab = a(b − c + c) = a((b − c) + c),

qui est vraie par associativité de l’addition. En vertu de la distributivité de la multiplication par rapport à
l’addition, nous obtenons :
ab = a(b − c) + ac,

20
ou encore, en soutrayant ac aux deux membres de l’égalité :

ab − ac = a(b − c),

c’est-à-dire (1.26). La relation (1.27) se démontre de manière similaire. 

Règle 1.3 Dans un anneau (A, +, ×), le produit d’un élément quelconque par 0 est égal à 0 :

a 0 = 0 c = 0, (1.28)

où a et c ∈ A.

Preuve
En posant b = c dans (1.26) et a = b dans (1.27), on obtient directement (1.28). 

Règle 1.4 Dans un anneau (A, +, ×), la règle des signes de l’algèbre classique est valable :

a(−c) = −ac, (1.29)

(−b)c = −bc (1.30)

et
(−a)(−b) = ab, (1.31)

où a, b et c ∈ A.

Preuve
Pour b = 0 et en vertu de la Règle 1.3, (1.26) devient (1.29), et pour a = 0 et en vertu de la Règle 1.3,
(1.27) donne (1.30). Enfin, en appliquant successivement (1.30) et (1.29), on trouve :

(−a)(−b) = −(a(−b)) = −(−(ab)) = ab,

où la dernière égalité est due au fait que tout élément est l’opposé de son opposé. 

Notons d’une part que la relation (1.28) implique que 0 n’est pas simplifiable pour la multiplication.
En effet, la condition 0 x = 0 y (= 0 par (1.28)) n’implique pas que x = y (puisque cette condition est
vérifiée pour tout x et pour tout y, par la Règle 1.3, et donc pour x 6= y).

D’autre part, la réciproque de la relation (1.28) n’a pas lieu, c’est-à-dire que dans un anneau, un produit
nul n’entraı̂ne pas nécessairement qu’un des facteurs de ce produit est nul (en d’autres termes, xy = 0
n’implique pas que x = 0 ou y = 0). Ceci nous mène à la définition de diviseur de zéro.

Définition 1.15 Soit (A, +, ×), un anneau.


1. S’il existe dans A des éléments a 6= 0 et b 6= 0 tels que ab = 0, ces éléments a et b sont appelés
diviseurs de zéro.
2. Un anneau intègre est un anneau unitaire commutatif sans diviseurs de zéro.

21
Par exemple, l’ensemble Z muni de l’addition et de la multiplication usuelles est un anneau intègre.

Notons d’une part que par définition 0 ne peut être diviseur de zéro. D’autre part, d’après le théorème
suivant, on peut assimiler les éléments non diviseurs de zéro aux éléments simplifiables pour la multipli-
cation.

Théorème 1.9 Soit (A, +, ×), un anneau. Les éléments non nuls, non diviseurs de zéro, se confondent
avec les éléments simplifiables pour la multiplication.

Preuve
(⇒) Prouvons qu’un élément non nul et non diviseur de zéro est un élément simplifiable pour la mul-
tiplication. Voyons tout d’abord qu’il est simplifiable à gauche. Soit a 6= 0, non diviseur de zéro, et
considérons l’égalité ax = ay. Cette égalité entraı̂ne que :

ax − ay = ay − ay = 0,

par définition de l’opposé de l’élément ay, et donc, par la Règle 1.2, que :

a(x − y) = 0.

Cette dernière égalité implique à son tour que x − y = 0 (et donc que x = y) puisque a est non nul et
non diviseur de zéro. L’élément a est donc simplifiable à gauche pour la multiplication. On prouve par
un raisonnement semblable qu’un élément non nul et non diviseur de zéro est un élément simplifiable à
droite pour la multiplication. Il est donc simplifiable pour la multiplication.
(⇐) Montrons d’abord que si a est simplifiable à gauche pour la multiplication (c’est-à-dire ax = ay ⇒
x = y), alors il est non nul et non diviseur de zéro. D’une part, a ne peut être nul puisque 0 n’est pas
simplifiable pour la multiplication alors que a l’est. D’autre part, considérons l’égalité ax = 0. Par (1.28),
cette égalité peut s’écrire :
ax = a 0,

ce qui implique que x = 0, puisque a est simplifiable à gauche. L’élément a n’est donc pas un diviseur de
zéro. La démonstration est semblable si a est simplifiable à droite pour la multiplication. 

1.7 Corps – Champ


En renforçant les propriétés de la multiplication de la façon suivante, on obtient la structure importante
de corps définie ci-après.

Définition 1.16 Un corps est un triplet (K, +, ×), c’est-à-dire un ensemble K muni d’une addition et
d’une multiplication, qui satisfait aux axiomes suivants :
X1. (K, +) est un groupe commutatif.
X2. (K0 , ×) est un groupe (où 0 désigne l’élément neutre pour l’addition).
X3. La multiplication est distributive par rapport à l’addition.

22
Si, en outre, la multiplication est commutative, (K0 , ×) est un groupe commutatif et le corps est appelé
champ.

Il découle de cette définition que dans un corps, tout élément a non nul (c’est-à-dire tout élément autre
que le neutre pour l’addition) a un inverse (unique) a−1 .

Les ensembles Q et R sont des champs pour l’addition et la multiplication usuelles. Par contre (Z0 , ×)
n’étant pas un groupe, Z n’est pas un corps pour l’addition et la multiplication, mais seulement un anneau
intègre.

Notons qu’en vertu du Théorème 1.9, un corps n’a pas de diviseurs de zéro. En effet, d’une part K0
étant un groupe pour la multiplication, ses éléments sont tous simplifiables et donc non diviseurs de zéro
par le Théorème 1.9. D’autre part l’élément zéro ne peut être un diviseur de zéro par la Définition 1.15.
En conclusion, aucun élément de K n’est diviseur de zéro.

Par rapport aux anneaux, les corps et les champs possèdent l’avantage algébrique essentiel décrit par
le théorème suivant.

Théorème 1.10 Soit (K, +, ×), un corps. Pour tout (a, b) ∈ K 2 , l’équation en x et celle en y :

ax = b et ya = b (a 6= 0), (1.32)

ont chacune une solution unique. De plus, si (K, +, ×) est un champ, ces solutions sont identiques :
x = y.

Preuve
Nous travaillons sous l’hypothèse que (K, +, ×) est un corps. Soit (a, b) ∈ K 2 , avec a 6= 0, étudions
séparément les cas b = 0 et b 6= 0.
Si b = 0, puisque a 6= 0 et qu’un corps n’a pas de diviseurs de 0, les équations :

ax = 0 et ya = 0

ont comme solution unique x = 0 et y = 0, respectivement.


Si b 6= 0, dans ce cas a et b ∈ K0 , et puisque K0 est un groupe pour la multiplication, les équations
ax = b et ya = b ont chacune une solution unique, en vertu du Théorème 1.8 :

x = a−1 b et y = b a−1 ,

respectivement. Si le corps est un champ, le groupe (K0 , ×) est commutatif et x = y. 

Dans un champ, on peut définir cette solution unique x = a−1 b = b a−1 par le symbole de division :

x = b/a.

Tout comme nous l’avons fait pour les opérations algébriques incluant l’addition, la soustraction et la
multiplication dans le cas d’un anneau, on peut montrer que toutes les règles classiques, incluant en outre
la division, peuvent se généraliser dans le cas d’un champ.

23
1.8 Le champ des nombres complexes
Historiquement, les nombres complexes ont été introduits au XVIième siècle dans le but de résoudre
des équations du second degré à coefficients réels. On peut définir le champ des nombres complexes
de différentes manières (dont celle utilisée dans le Théorème 1.11), qui conduisent toutes à des champs
isomorphes 4 .
′ ′
Théorème 1.11 L’ensemble R2 muni des deux opérations + et × définies pour tout (a, b) et (a , b ) ∈ R2
par :
′ ′ ′ ′
(a, b) + (a , b ) = (a + a , b + b ), (1.33)
et
′ ′ ′ ′ ′ ′
(a, b)(a , b ) = (aa − bb , ab + ba ), (1.34)
constitue un champ, appelé le champ des nombres complexes et noté C.

Preuve
Nous devons donc vérifier que R2 muni des opérations définies par (1.33) et (1.34) satisfait aux axiomes
de la Définition 1.16. Montrons tout d’abord que (R2 , +) est un groupe commutatif. En effet :
— L’addition définie par (1.33) est associative dans R2 par associativité de l’addition dans R puisque
′ ′ ′′ ′′
pour tout (a, b), (a , b ) et (a , b ) ∈ R2 , on a, par (1.33) :

′ ′ ′′ ′′ ′ ′ ′′ ′′
((a, b) + (a , b )) + (a , b ) = (a + a , b + b ) + (a , b )
′ ′′ ′ ′′
= ((a + a ) + a , (b + b ) + b )
′ ′′ ′ ′′
= (a + (a + a ), b + (b + b ))
′ ′′ ′ ′′
= (a, b) + (a + a , b + b )
′ ′ ′′ ′′
= (a, b) + ((a , b ) + (a , b )).

— On vérifie de façon similaire que l’addition définie par (1.33) est commutative dans R2 , par com-
mutativité de l’addition dans R.
— L’élément neutre (ou élément zéro) pour (1.33) dans R2 est (0, 0), car pour tout (a, b) ∈ R2 , on
a:
(a, b) + (0, 0) = (a + 0, b + 0) = (a, b),
par définition du neutre de l’addition dans R.
— Tout élément (a, b) ∈ R2 est symétrisable pour l’addition (1.33) et le symétrique (ou opposé) de
(a, b) est (−a, −b). En effet :

(a, b) + (−a, −b) = (a − a, b − b) = (0, 0),

par définition du symétrique (ou opposé) pour l’addition dans R.


4. Deux champs seront isomorphes s’il existe un isomorphisme entre eux, plus précisément, s’il existe une application bi-
jective entre les ensembles sous-jacents respectifs, qui respecte (dans le sens de la Définition 1.11) à la fois l’addition et la
multiplication définies sur chacun de ces ensembles.

24
Montrons ensuite que (R20 , ×) est un groupe commutatif (où 0 représente (0, 0), le neutre pour l’addition).
En effet :
′ ′
— La multiplication définie par (1.34) est associative dans R20 car pour tout (a, b), (a , b ) et
′′ ′′
(a , b ) ∈ R20 on a, d’une part :

′ ′ ′′ ′′
λ = ((a, b)(a , b ))(a , b )
′ ′ ′ ′ ′′ ′′
= (aa − bb , ab + ba )(a , b )
′ ′ ′′ ′ ′ ′′ ′ ′ ′′ ′ ′ ′′
= ((aa − bb )a − (ab + ba )b , (aa − bb )b + (ab + ba )a ),

et d’autre part :

′ ′ ′′ ′′
µ = (a, b)((a , b )(a , b ))
′ ′′ ′ ′′ ′ ′′ ′ ′′
= (a, b)(a a − b b , a b + b a )
′ ′′ ′ ′′ ′ ′′ ′ ′′ ′ ′′ ′ ′′ ′ ′′ ′ ′′
= (a(a a − b b ) − b(a b + b a ), a(a b + b a ) + b(a a − b b )),

dont on déduit facilement que λ = µ par les propriétés de l’addition et de la multiplication dans
R.
— On vérifie de façon similaire que la multiplication définie par (1.34) est commutative dans R20 , par
commutativité de l’addition et de la multiplication dans R.
— L’élément neutre (ou élément unité) pour (1.34) dans R20 est (1, 0), car pour tout (a, b) ∈ R20 , on
a:
(a, b)(1, 0) = (a 1 − b 0, a 0 + b 1) = (a, b),

par la Règle 1.3 et par définition du neutre pour l’addition et pour la multiplication dans R.
— Tout élément (a, b) ∈ R20 est symétrisable pour la multiplication (1.34) et le symétrique (ou
inverse) de (a, b) 6= (0, 0) est obtenu par :
′ ′
(a, b)(a , b ) = (1, 0),

soit :
′ ′ ′ ′
(aa − bb , ab + ba ) = (1, 0).
′ ′
Par définition d’un couple, ceci fournit le système suivant d’équations à résoudre en a et b :


 aa′ − bb′ = 1

 ab′ + ba′ = 0,


dont la solution (obtenue pour a en multipliant la première équation par a, la seconde par b et

en faisant la somme, et pour b en multipliant la première équation par b, la seconde par a et en

25
faisant la différence), vaut : 

 a
 a′ =
a2 + b2 (1.35)

 ′ −b
 b = .
a2 + b2
Notons que cette solution existe toujours puisque (a, b) 6= (0, 0) implique que a2 + b2 6= 0.

Enfin, montrons que la multiplication (1.34) est distributive par rapport à l’addition (1.33). En effet :

′ ′ ′′ ′′ ′ ′′ ′ ′′
(a, b)((a , b ) + (a , b )) = (a, b)(a + a , b + b )
′ ′′ ′ ′′ ′ ′′ ′ ′′
= (a(a + a ) − b(b + b ), a(b + b ) + b(a + a ))
′ ′′ ′ ′′ ′ ′′ ′ ′′
= (aa + aa − bb − bb , ab + ab + ba + ba )
′ ′ ′ ′ ′′ ′′ ′′ ′′
= (aa − bb , ab + ba ) + (aa − bb , ab + ba )
′ ′ ′′ ′′
= (a, b)(a , b ) + (a, b)(a , b ),

par (1.33) et (1.34) et par les propriétés de l’addition et de la multiplication dans R. 

Lien avec la forme usuelle d’un nombre complexe


Voyons à présent comment on peut identifier un nombre complexe tel que nous l’avons introduit, c’est-
à-dire un couple (a, b) ∈ R2 muni des deux opérations (1.33) et (1.34), avec l’expression plus connue
a + ib où i est appelé nombre imaginaire et vérifie i2 = −1.

Pour ce faire, considérons le sous-ensemble D de R2 défini par :

D = {(a, 0) | a ∈ R},

et l’application f : R → D telle que, pour tout a ∈ R, f (a) = (a, 0) ∈ D. Cette application est une
bijection puisque chaque élément de R possède une et une seule image dans D et que chaque élément de
D est l’image d’un et un seul élément de R. De plus, si on considère R et D munis de l’addition habituelle
et de l’addition (1.33), respectivement, f est un isomorphisme de (R, +) dans (D, +). En effet, soit a et
′ ′ ′
a ∈ R, de sorte que f (a) = (a, 0) et f (a ) = (a , 0), on vérifie aisément que :
′ ′ ′ ′
f (a + a ) = (a + a , 0) = (a, 0) + (a , 0) = f (a) + f (a ).

De même, si on considère R et D munis de la multiplication habituelle et de la multiplication (1.34),



respectivement, f est un isomorphisme de (R, ×) dans (D, ×). En effet, pour a et a ∈ R, on a :
′ ′ ′ ′
f (aa ) = (aa , 0) = (a, 0)(a , 0) = f (a)f (a ).

Les ensembles R et D sont donc isomorphes puisque f est une application bijective qui respecte les lois
définies sur R et D, et on convient d’identifier (a, 0) à a. En particulier, on a :

(0, 0) = 0 et (1, 0) = 1.

26
′ ′ ′ ′ ′
D’autre part, puisque (a , 0) = a et (a , 0)(a, b) = (a a, a b) par (1.34), on peut poser :
′ ′ ′
a (a, b) = (a a, a b). (1.36)

Considérons maintenant l’élément (a, b) ∈ C. Il découle de (1.36) que l’on peut décomposer cet
élément de manière unique suivant :

(a, b) = (a, 0) + (0, b) = a(1, 0) + b(0, 1) = a + bi,

où on pose traditionnellement :


(0, 1) = i.

En particulier on a, par (1.34) :

i2 = (0, 1)(0, 1) = (−1, 0) = −1.

Les nombres complexes sont donc donnés par a + ib avec (a, b) ∈ R2 et i2 = −1. En d’autres termes, il
existe un isomorphisme entre R2 muni de l’addition (1.33) et de la multiplication (1.34) et l’ensemble des
nombres complexes sous la forme usuelle a + ib muni de l’addition et de la multiplication usuelles. Ceci
permet donc de remplacer l’addition (1.33) et la multiplication (1.34) par les règles du calcul algébrique
habituel, puisqu’on a :
′ ′ ′ ′
(a, b) + (a , b ) = (a + ib) + (a + ib )
′ ′
= (a + a ) + i(b + b )
′ ′
= (a + a , b + b )
et
′ ′ ′ ′
(a, b)(a , b ) = (a + ib)(a + ib )
′ ′ ′ ′
= (aa − bb ) + i(ab + ba )
′ ′ ′ ′
= (aa − bb , ab + ba ).

On appelle a la partie réelle et b la partie imaginaire du nombre complexe a + ib.

Représentation géométrique des nombres complexes


On représente généralement les nombres complexes dans un plan rapporté à deux axes de coordonnées
rectangulaires, l’axe réel et l’axe imaginaire. Dans ce plan, un nombre complexe z = x+iy est représenté
par un vecteur (c’est-à-dire un segment de droite dont la longueur, la direction et le sens sont déterminés),
mené à partir du point de rencontre des axes et dont l’extrémité a pour coordonnées (x, y) (Figure 1.5).

La longueur r du vecteur associé au nombre complexe z = x+iy est le module, noté |z|, de ce nombre
complexe. Cette longueur, comme on peut le voir sur la Figure 1.5 et en vertu du Théorème de Pythagore,
vaut :
p
r = |z| = x2 + y 2 .

27

y z



r ✑


✑ ❆❑ θ
✑ ❆ ✲
0 x

F IGURE 1.5 – Représentation géométrique de z = x + iy.

La Figure 1.5 met également en évidence l’angle θ entre l’axe réel et le vecteur associé à z, mesuré
positivement dans le sens antihorlogique. On appelle cet angle l’argument du nombre complexe z = x+iy
et on le note arg(z) :
y
θ = arg(z) = arctan .
x
I1 est défini pour tout z 6= 0, à 2kπ près avec k ∈ Z.

Formes équivalentes d’un nombre complexe


La forme z = x + iy d’un nombre complexe z est appelée la forme algébrique ou encore la forme
cartésienne. Cependant, la représentation géométrique de la Figure 1.5 permet d’exprimer la partie réelle
et la partie imaginaire de z en fonction du module et de l’argument par :

x = r cos θ et y = r sin θ,

ce qui donne la forme :


z = r(cos θ + i sin θ),

appelée forme trigonométrique du nombre complexe z. On montre également en Analyse que :

cos θ + i sin θ = eiθ .

Cette formule, appelée formule d’Euler, fournit la forme exponentielle du nombre complexe z :

z = reiθ .
p
En particulier, on a |eiθ | = 1 = cos2 θ + sin2 θ pour tout θ ∈ R, et donc |reiθ | = r|eiθ | = r.

Complexe conjugué et propriétés


On définit le complexe conjugué de z = x + iy par :

z ∗ = x − iy ou z ∗ = re−iθ ,

28
soit en remplaçant i par −i. On a :

|z ∗ | = |z| = zz ∗ et arg(z ∗ ) = −arg(z),

c’est-à-dire que z et son conjugué ont même module et des arguments opposés, comme l’illustre la Fi-
gure 1.6. On a également que :
z ∗ ∗ = z.

z



r ✑


✑ ❆❑ θ
✑ ❆ ✲

0 ◗ ✁−θ
◗✁☛

r◗

s

z∗

F IGURE 1.6 – Complexe conjugué de z = reiθ .

On vérifie aisément que pour tout z1 , z2 ∈ C :


 ∗
∗ z1 z1∗
(z1 ± z2 ) = z1∗ ± z2∗ , ∗
(z1 z2 ) = z1∗ z2∗ , = ,
z2 z2∗
ou encore, de manière plus générale, que le complexe conjugué d’une expression qui n’implique que les
quatre opérations rationnelles s’obtient en remplaçant chaque nombre complexe entrant dans l’expression
par son complexe conjugué.

Pour terminer, observons que la forme algébrique se prête mieux aux opérations d’addition et de
soustraction, tandis que la forme exponentielle se prête mieux aux opérations de multiplication et de
division. D’un point de vue géométrique, la somme de deux nombres complexes z1 = x1 + iy1 et z2 =
x2 + iy2 :
z1 + z2 = (x1 + x2 ) + i(y1 + y2 ),
correspond, dans le plan R2 , à l’addition vectorielle suivant la règle du parallélogramme (Figure 1.7). Le
produit de de deux nombres complexes z1 = r1 eiθ1 et z2 = r2 eiθ2 :

z1 z2 = (r1 r2 )ei(θ1 +θ2 ) , (1.37)

est, lui, obtenu en multipliant les modules et en additionnant les arguments (Figure 1.8). Notons en parti-
culier que l’inverse z −1 d’un nombre complexe z = reiθ non nul vaut :
1
z −1 = e−iθ ,
r

29
qui correspond à (1.35) pour la forme algébrique.

Enfin, on a par (1.37) :


|z1 z2 | = |z1 | |z2 |,

tandis que la relation |z1 + z2 | = |z1 | + |z2 | n’est en général pas vérifiée, mais on peut démontrer que
pour tout z1 et z2 ∈ C :
|z1 + z2 | ≤ |z1 | + |z2 |,

ou encore (par récurrence sur n), que :


n
X n
X
zi ≤ |zi |.
i=1 i=1

En d’autres termes, le module d’une somme de nombres complexes ne peut surpasser la somme des
modules de chaque terme.


z1 + z2
✑✑

✑ ✁


✑ ✁

✑ ✁
z2 ✑ ✑ ✁z1

✁ ✸

✁ ✑

✁ ✑
✁✑ ✑

✑ ✲
0

F IGURE 1.7 – Somme de deux nombres complexes z1 = x1 + iy1 et z2 = x2 + iy2 .

z1 z2
✻ ✁✁✕


✁❑❆ θ1 + θ2
✁ ❆
✁ z2❆
✁ ❆ z
✁ ✒ ❆✏
✏✶ 1
✁ ✏ θ ✏ ✏ ❆
✏ ❑❆ 2 ❆❑❆ θ1 ❆
✁ ✏❆ ✲
0

F IGURE 1.8 – Produit de deux nombres complexes z1 = r1 eiθ1 et z2 = r2 eiθ2 .

30
Chapitre 2

Espaces vectoriels

2.1 Définition et propriétés élémentaires


La notion d’espace vectoriel est fondamentale et repose sur les notions vues dans le chapitre précédent.
Pour définir un tel espace, nous aurons besoin de deux ensembles et d’un certain nombre de lois de
composition :
— Le premier ensemble, noté E et dont les éléments seront appelés vecteurs, sera muni d’une loi de
composition interne que nous noterons provisoirement +E . Cette loi correspondra à l’addition de
vecteurs et sera appelée addition vectorielle.
— Le deuxième ensemble, noté K, sera un champ muni d’une addition notée provisoirement +K et
d’une multiplication notée provisoirement ×K , dans lequel nous puiserons des éléments appelés
scalaires.
— Enfin, une loi de composition, notée provisoirement •, permettra d’associer à un scalaire et à un
vecteur un nouveau vecteur. Nous appellerons cette loi la multiplication scalaire. Il ne s’agira donc
plus d’une loi interne, mais bien d’une loi définie sur le produit cartésien K × E et à valeurs dans
E.
On parlera dès lors d’un espace vectoriel E sur le champ K (ou, plus brièvement, sur K). Dans ce cours,
K sera en général le champ des réels R ou le champ des complexes C.

Définition 2.1 Un espace vectoriel E sur un champ de scalaires (K, +K , ×K ) est un ensemble d’élé-
ments, appelés vecteurs, muni d’une opération d’addition vectorielle :

V1 et V2 ∈ E ⇒ V1 +E V2 ∈ E, (2.1)

et d’une opération de multiplication scalaire :

k∈K et V ∈ E ⇒ k • V ∈ E, (2.2)

qui satisfait aux axiomes suivants :


A1. (E, +E ) est un groupe commutatif.
A2. La multiplication scalaire est telle que, pour tout (V1 , V2 ) ∈ E 2 et (k1 , k2 ) ∈ K 2 , on a :

31
E1. (k1 ×K k2 ) • V1 = k1 • (k2 • V1 ).
E2. 1 • V1 = V1 (où 1 est l’élément unité du champ K).
E3. (k1 +K k2 ) • V 1 = (k1 • V1 ) +E (k2 • V1 ).
E4. k1 • (V1 +E V2 ) = (k1 • V1 ) +E (k1 • V2 ).

L’axiome E1 porte le nom d’associativité mixte, tandis que les axiomes E3 et E4 sont appelés double
distributivité.

Dans la suite du cours, les distinctions de notation entre +K et +E et entre ×K et • seront


oubliées. On notera donc par + les deux additions, et la notation multiplicative • d’un vecteur par un
scalaire sera souvent omise, comme l’est la multiplication entre scalaires.

À titre d’exemple, l’ensemble C des nombres complexes constitue un espace vectoriel sur le champ
des réels R :
— D’une part, l’addition vectorielle correspond à l’addition des nombres complexes (Figure 1.7), ce
qui conduit à un groupe commutatif pour l’addition vectorielle puisque C est un champ.
— D’autre part, la multiplication scalaire est donnée par le produit d’un nombre complexe z = reiθ
par un réel k ∈ R. Ceci fournit un nombre complexe kz de module |k|r et d’argument θ si k > 0
et θ + π si k < 0, comme l’illustre la Figure 2.1. On vérifie facilement que la multiplication des
complexes par les réels satisfait aux axiomes E1 à E4.

kz (k > 0)
✑✸

z ✑✑

✑✑

r✑
✑ ❆❑ θ
✑ ❆ ✲

✑0








kz (k < 0)

F IGURE 2.1 – Multiplication d’un nombre complexe z par un réel k > 0 ou k < 0.

L’espace vectoriel possède, pour l’addition vectorielle, toutes les propriétés déjà démontrées dans le
cas d’un groupe commutatif (cfr. les Théorèmes 1.1 à 1.6 et le Théorème 1.8). En ce qui concerne la
multiplication scalaire, on obtient les règles de calcul suivantes, où k, k1 , k2 ∈ K et V, V1 , V2 ∈ E :

32
R1. k (V1 − V2 ) = k V1 − k V2 .
En effet : partons de l’égalité :
k (V1 − V2 + V2 ) = k V1 ,
que l’on peut encore écrire, par les propriétés de l’addition vectorielle :

k ((V1 − V2 ) + V2 ) = k V1 ,

soit, en vertu de l’axiome E4 :

k (V1 − V2 ) + k V2 = k V1 .

En soustrayant k V2 des deux membres de l’équation, on obtient le résultat.

R2. (k1 − k2 ) V = k1 V − k2 V .
En effet : partons de l’égalité :
(k1 − k2 + k2 ) V = k1 V,
que l’on peut encore écrire, par les propriétés du champ K :

((k1 − k2 ) + k2 ) V = k1 V,

soit, en vertu de l’axiome E3 :

(k1 − k2 ) V + k2 V = k1 V.

En soustrayant k2 V des deux membres de l’équation, on obtient le résultat.

R3. k 0E = 0E (où 0E désigne le vecteur nul, c’est-à-dire le neutre pour l’addition vectorielle).
En effet : cette règle s’obtient en posant V1 = V2 dans R1.

R4. 0K V = 0E (où 0K désigne le scalaire nul, c’est-à-dire le neutre pour l’addition dans K).
En effet : cette règle s’obtient en posant k1 = k2 dans R2.

R5. k V = 0E ⇒ k = 0K ou V = 0E .
En effet : soit k V = 0E , si k = 0K alors la thèse est immédiate, sinon k 6= 0K et il nous faut
montrer que V = 0E . Or, si k 6= 0K , il admet un inverse k−1 tel que, d’une part, par les axiomes
E1 et E2 :
k−1 (k V ) = (k−1 k) V = 1 V = V,
et d’autre part, par l’hypothèse k V = 0E et par R3 :

k−1 (k V ) = k−1 0E = 0E ,

ce qui implique bien que V = 0E .

R6. (−k) V = k (−V ) = −k V .


En effet : l’égalité (−k) V = −k V s’obtient en posant k1 = 0K dans R2 et en utilisant R4, tandis
que l’égalité k (−V ) = −k V s’obtient en posant V1 = 0E dans R1 et en utilisant R3.

33
2.2 Sous-espaces vectoriels
Les sous-espaces vectoriels représentent une classe importante de sous-ensembles d’un espace vecto-
riel et sont définis de la façon suivante.

Définition 2.2 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide S de E est un sous-espace
vectoriel de E si S est lui-même un espace vectoriel par rapport aux lois d’addition vectorielle et de
multiplication scalaire définies sur E.

Un sous-espace vectoriel peut être identifié grâce au théorème suivant.

Théorème 2.1 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide S de E est un sous-espace
vectoriel de E si et seulement si il est fermé pour l’addition vectorielle :

(V, W ) ∈ S 2 ⇒ V + W ∈ S, (2.3)

et pour la multiplication scalaire :

k∈K et V ∈S ⇒ k V ∈ S. (2.4)

Preuve
(⇒) Nous devons montrer que la condition est nécessaire, c’est-à-dire qu’un sous-espace vectoriel vérifie
les conditions (2.3) et (2.4). Or, par la Définition 2.2 d’un sous-espace vectoriel, il est lui-même un espace
vectoriel par rapport aux lois d’addition vectorielle et de multiplication scalaire définies sur E, et donc,
par application de (2.1) et (2.2) à ce sous-espace vectoriel, il vérifie les conditions (2.3) et (2.4).
(⇐) Démontrons à présent que la condition est suffisante, à savoir que si les conditions (2.3) et (2.4)
sont satisfaites, alors S est un sous-espace vectoriel de E, c’est-à-dire un espace vectoriel par rapport
aux lois d’addition vectorielle et de multiplication scalaire définies sur E, par la Définition 2.2. Par la
Définition 2.1, cela signifie que nous devons montrer que les opérations d’addition vectorielle et de mul-
tiplication scalaire sont bien défines sur S :

V1 et V2 ∈ S ⇒ V1 + V2 ∈ S,

et
k∈K et V ∈S ⇒ k V ∈ S,

(ce qui est immédiat par (2.3) et (2.4)), que S est un groupe commutatif pour l’addition vectorielle et que
la multiplication scalaire vérifie les axiomes E1 à E4. Or, puisque les vecteurs de S appartiennent à E, ils
obéissent aux axiomes d’associativité et de commutativité de l’addition vectorielle, ainsi qu’aux axiomes
E1 à E4 de la multiplication scalaire. Pour que S soit un groupe commutatif pour l’addition vectorielle, il
reste donc à démontrer que S possède un neutre et que tout vecteur de S est symétrisable pour l’addition
vectorielle. Pour cela, posons tout d’abord k = 0K dans (2.4), on obtient, par R4 :

0K V = 0E ∈ S,

34
et donc le neutre pour l’addition vectorielle dans E appartient à S. Posons ensuite k = −1 dans (2.4), on
obtient, par la première égalité de R6 et par E2 :

(−1) V = 1 (−V ) = −V ∈ S,

et donc le symétrique d’un vecteur de S pour l’addition vectorielle appartient à S. Le sous-ensemble non
vide S est donc bien un groupe commutatif pour l’addition vectorielle et S est un sous-espace vectoriel
de E. 

Il est important de remarquer que tout sous-espace vectoriel contient le vecteur 0E et que le sous-
ensemble {0E } constitue le plus petit sous-espace vectoriel de E.

Notons également que l’on peut remplacer les conditions (2.3) et (2.4) par la condition unique :

(V, W ) ∈ S 2 et (k, ℓ) ∈ K 2 ⇒ k V + ℓ W ∈ S. (2.5)

Voyons qu’en effet satisfaire la condition (2.5) est équivalent à satisfaire les conditions (2.3) et (2.4) :
(⇒) En posant k = ℓ = 1 dans (2.5) et en utilisant E2, on a V + W ∈ S, soit (2.3), et en posant
ℓ = 0K dans (2.5) et en utilisant R4, on a k V ∈ S, soit (2.4).
(⇐) (V, W ) ∈ S 2 et (k, ℓ) ∈ K 2 impliquent que k V ∈ S et ℓ W ∈ S, par (2.4), et donc que
k V + ℓ W ∈ S, par (2.3), ce qui donne (2.5).
On utilisera donc la condition (2.5) plutôt ques les conditions (2.3) et (2.4) en pratique pour établir qu’un
sous-ensemble donné est un sous-espace vectoriel.

À titre d’exemple, l’ensemble R des réels et l’ensemble II des imaginaires purs constituent deux sous-
espaces vectoriels de C sur R. En effet, d’une part on a :

(x, y) ∈ R2 et (k, ℓ) ∈ R2 ⇒ kx + ℓy ∈ R,

et, d’autre part :

(ix, iy) ∈ II 2 et (k, ℓ) ∈ R2 ⇒ k(ix) + ℓ(iy) = i(kx + ℓy) ∈ II,

c’est-à-dire que dans les deux cas la condition (2.5) est vérifiée.

Examinons à présent ce que l’on peut dire des propriétés de l’intersection et de l’union de deux sous-
espaces vectoriels.

Théorème 2.2 Soit E, un espace vectoriel sur K. L’intersection S1 ∩ S2 de deux sous-espaces vectoriels
S1 et S2 de E est un sous-espace vectoriel de E.

Preuve
Montrons d’une part que l’ensemble S1 ∩ S2 est non vide et d’autre part qu’il vérifie la condition (2.5).
Tout d’abord l’ensemble S1 ∩ S2 n’est pas vide puisque S1 et S2 sont des sous-espaces vectoriels et donc
contiennent chacun le vecteur nul 0E . Considérons ensuite deux vecteurs V et W ∈ S1 ∩ S2 . On a donc

35
que V et W ∈ S1 et ∈ S2 , et puisque S1 et S2 sont des sous-espaces vectoriels de E, on a par (2.5) que
pour tout k et ℓ ∈ K :
k V + ℓ W ∈ S1 et k V + ℓ W ∈ S2 .

Il en découle que k V + ℓ W ∈ S1 ∩ S2 et l’intersection S1 ∩ S2 est donc bien un sous-espace vectoriel


de E, en vertu du Théorème 2.1 (et (2.5)). 

Ainsi, par exemple, R ∩ II = {0} est un sous-espace vectoriel de C sur R.

Par contre l’union S1 ∪ S2 de deux sous-espaces vectoriels n’est pas nécessairement un sous-espace
vectoriel. Par exemple, R ∪ II représente l’ensemble des points sur les deux axes réel et imaginaire alors
que si l’on prend, par exemple, x ∈ R ∪ II et iy ∈ R ∪ II, on a que kx + iℓy avec k et ℓ 6= 0 n’est plus ni
réel ni imaginaire pur (et donc n’appartient pas à R ∪ II). Le sous-ensemble R ∪ II de C n’est donc pas un
sous-espace vectoriel de C, en vertu du Théorème 2.1 (et (2.5)). On peut cependant obtenir un sous-espace
vectoriel en sommant S1 et S2 suivant la définition suivante.

Définition 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1
et S2 de E est l’ensemble des vecteurs obtenus en faisant la somme d’un vecteur de S1 et d’un vecteur de
S2 :
S1 + S2 = {V1 + V2 | V1 ∈ S1 et V2 ∈ S2 }.

Théorème 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1
et S2 de E est un sous-espace vectoriel de E.

Preuve
Montrons d’une part que l’ensemble S1 + S2 est non vide et d’autre part qu’il vérifie la condition (2.5).
Tout d’abord, l’ensemble S1 + S2 n’est pas vide puisqu’il contient 0E + 0E = 0E . Considérons ensuite
V1 + V2 et W1 + W2 ∈ S1 + S2 , avec V1 , W1 ∈ S1 et V2 , W2 ∈ S2 , et montrons que pour tout k et
ℓ∈K:
k (V1 + V2 ) + ℓ (W1 + W2 ) ∈ S1 + S2 .

Nous avons que :

k (V1 + V2 ) + ℓ (W1 + W2 ) = (k V1 + ℓ W1 ) + (k V2 + ℓ W2 ),

par les propriétés de la multiplication scalaire et de l’addition vectorielle. Or, puisque S1 et S2 sont des
sous-espaces vectoriels de E, on a que (k V1 + ℓ W1 ) ∈ S1 et (k V2 + ℓ W2 ) ∈ S2 , par le Théorème 2.1
et (2.5), et donc que :

k (V1 + V2 ) + ℓ (W1 + W2 ) = (k V1 + ℓ W1 ) + (k V2 + ℓ W2 ) ∈ S1 + S2 .

La somme S1 + S2 est donc bien un sous-espace vectoriel de E, en vertu du Théorème 2.1 (et (2.5)). 

La somme R + II est l’espace vectoriel C, qui est le plus grand sous-espace vectoriel de C sur R.

On obtient un cas particulier important de somme de deux sous-espaces vectoriels par la définition
suivante.

36
Définition 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1
et S2 de E est appelée directe et notée S1 ⊕ S2 si chaque vecteur V ∈ S1 + S2 peut être décomposé de
manière unique en V = V1 + V2 avec V1 ∈ S1 et V2 ∈ S2 .

Pour déterminer si une somme de sous-espaces vectoriels est directe, on dispose du critère suivant.

Théorème 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1
et S2 de E est directe si et seulement si S1 ∩ S2 = {0E }.

Preuve
(⇒) Supposons que S1 + S2 soit une somme directe et montrons que S1 ∩ S2 = {0E }. Soit V ∈ S1 ∩ S2 ,
il faut donc montrer que V = 0E . Étant donné que V ∈ S1 et 0E ∈ S2 (puisque S2 est un sous-espace
vectoriel de E), nous pouvons écrire :

V = V + 0E avec V ∈ S1 et 0E ∈ S2 , (2.6)

et donc V ∈ S1 + S2 . Cependant, puisque V ∈ S2 et 0E ∈ S1 , nous pouvons également décomposer V


comme suit :
V = 0E + V avec 0E ∈ S1 et V ∈ S2 . (2.7)

Or la somme S1 +S2 étant directe, par hypothèse, les décompositions (2.6) et (2.7) doivent être identiques,
ce qui implique que V = 0E .
(⇐) Supposons que S1 ∩ S2 = {0E } et montrons que S1 + S2 est une somme directe. Supposons par
l’absurde que V ∈ S1 + S2 se décompose de deux manières :

V = V1 + V2 et V = W1 + W2 ,

avec V1 , W1 ∈ S1 et V2 , W2 ∈ S2 . Il en découle que :

V1 + V2 = W1 + W2 ,

ce qui implique :
V1 − W1 = W2 − V2 .

Or, puisque V1 − W1 ∈ S1 et W2 − V2 ∈ S2 (S1 et S2 étant des sous-espaces vectoriels), nous pouvons


en déduire, par l’hypothèse S1 ∩ S2 = {0E }, que :

V1 − W1 = W2 − V2 = 0E .

On a donc nécessairement V1 = W1 et V2 = W2 , et la décomposition de V est donc unique. 

La somme R + II = C est directe car R ∩ II = {0}. Par contre, la somme R + C = C n’est pas directe
puisque R ∩ C = R. En effet, tout élément x + iy ∈ R + C peut être décomposé de plusieurs manières
en la somme d’un réel et d’un complexe, par exemple :

x + iy = (x1 ) + ((x − x1 ) + iy) = (x2 ) + ((x − x2 ) + iy),

avec x1 6= x2 ∈ R.

37
2.3 Base – Dimension
2.3.1 Partie génératrice
Revenons à la Définition 2.1 d’un espace vectoriel E sur un champ de scalaires K. Grâce à l’addi-
tion vectorielle (2.1) et à la multiplication scalaire (2.2), nous pouvons, par application répétée de ces
opérations à partir de vecteurs de E et de scalaires de K, construire d’autres vecteurs de E. Ceci nous
mène aux définitions de combinaison linéaire et de partie génératrice.

Définition 2.5 Soit E, un espace vectoriel sur K. Une combinaison linéaire de m vecteurs V1 , V2 , . . . ,
Vm de E est un vecteur V ∈ E défini par :
m
X
V = k1 V1 + · · · + km Vm = ki Vi ,
i=1

où k1 , k2 , . . . , km sont des scalaires ∈ K.

Définition 2.6 Soit E, un espace vectoriel sur K, et F , une partie non vide de E. L’ensemble engendré
par F , noté L(F ), est l’ensemble de toutes les combinaisons linéaires des vecteurs de F . La partie F est
appelée partie génératrice de L(F ).

L’ensemble engendré L(F ) est en fait plus qu’un sous-ensemble de E, comme le montre le théorème
suivant.

Théorème 2.5 Soit E, un espace vectoriel sur K, et F , une partie non vide de E. L’ensemble L(F ) est
un sous-espace vectoriel de E.

Preuve
Tout d’abord nous avons que L(F ) est non vide puisque F est non vide et que F ⊆ L(F ). Voyons ensuite
que L(F ) satisfait à la condition (2.5). Pour cela, considérons V, W ∈ L(F ) et k, ℓ ∈ K, et montrons
que k V + ℓ W ∈ L(F ). Par définition de L(F ) et puisque V et W ∈ L(F ), nous avons que :
m
X n
X
V = ki Vi et W = ℓj Wj ,
i=1 j=1

avec Vi , Wj ∈ F et ki , ℓj ∈ K pour tout i et pour tout j. Nous pouvons donc écrire :


!  
Xm Xn
kV +ℓW = k ki Vi + ℓ  ℓj Wj 
i=1 j=1
m
X n
X
= (k ki ) Vi + (ℓ ℓj ) Wj ,
i=1 j=1

par les propriétés 1 de l’addition vectorielle et de la multiplication scalaire, ce qui est bien une combinai-
son linéaire de vecteurs de F et donc appartient à L(F ). Il découle de (2.5) (et du Théorème 2.1) que
1. Plus précisément, on utilisera une preuve par récurrence du type de celles utilisées dans la démonstration de la Règle 1.1
au Chapitre 1 pour la distributivité généralisée.

38
l’ensemble L(F ) est un sous-espace vectoriel de E. 

On peut donc préciser la Définition 2.6 en énonçant que L(F ) est le sous-espace engendré par F .

2.3.2 Partie libre – Partie liée


Une partie libre se définit, intuitivement, comme un ensemble de vecteurs dont aucun ne peut être
engendré par les autres, c’est-à-dire, dont aucun n’est une combinaison linéaire des autres. Ces vecteurs
sont alors dits linéairement indépendants. Dans le cas contraire, on parle de partie liée ou de vecteurs
linéairement dépendants. La définition formelle ci-dessous introduit ces concepts de façon quelque peu
différente, le lien entre les deux (définitions formelle et intuitive) étant l’objet des théorèmes qui suivent.

Définition 2.7 Soit E, un espace vectoriel sur K. Les m vecteurs V1 , V2 , . . . , Vm ∈ E sont dits
linéairement indépendants si :
m
X
ki Vi = 0E , ki ∈ K ⇒ ki = 0K , 1 ≤ i ≤ m. (2.8)
i=1

Les vecteurs V1 , V2 , . . . , Vm constituent alors une partie libre de E. Si l’égalité :


m
X
ki Vi = 0E , ki ∈ K (2.9)
i=1

est possible avec des scalaires ki non tous nuls, les vecteurs V1 , V2 , . . . , Vm sont dits linéairement
dépendants et constituent une partie liée de E.

Remarquons que l’égalité :


m
X
ki Vi = 0E
i=1

est toujours trivialement vérifiée pour ki = 0K , 1 ≤ i ≤ m. Cependant, aucun autre choix de ki ne sera
possible pour une partie libre, par (2.8), tandis que d’autres choix existeront pour une partie liée.

On déduit de cette définition les deux propriétés importantes suivantes :

P1. Un seul vecteur non nul constitue une partie libre.


En effet : soit V ∈ E, V 6= 0E . Par la règle R5, on en déduit que :

k V = 0E , k∈K ⇒ k = 0K ,

ce qui répond bien à la condition (2.8).

P2. Des vecteurs linéairement indépendants sont nécessairement non nuls.


En effet : soit m vecteurs V1 , V2 , . . . , Vm ∈ E linéairement indépendants, c’est-à-dire :
m
X
ki Vi = 0E ⇒ ki = 0K , 1 ≤ i ≤ m.
i=1

39
Supposons par l’absurde que le vecteur nul fasse partie de ces vecteurs, soit V1 = 0E . Dans ce
cas, pour n’importe quel k1 6= 0K , on a, en vertu de R3 et R4 :
m
X
k1 0E + 0K Vi = 0E ,
i=2

c’est-à-dire :
m
X
ki Vi = 0E avec k1 6= 0K .
i=1

Ceci contredit le fait que les m vecteurs sont linéairement indépendants. Des vecteurs linéairement
indépendants sont donc nécessairement non nuls.

Dans l’espace vectoriel C sur R, les nombres 1 et i sont linéairement indépendants :

k1 1 + k2 i = 0 (k1 , k2 ∈ R) ⇒ k1 = k2 = 0,

tandis que 1 et 2 constituent une partie liée puisque :

k1 1 + k2 2 = 0 avec k1 = 2 et k2 = −1,

par exemple.

Le théorème qui suit donne une première condition nécessaire et suffisante permettant d’établir si des
vecteurs sont linéairement dépendants ou linéairement indépendants. Il fait le lien entre la Définition 2.7
et celle “intuitive” donnée au début de la section.

Théorème 2.6 Soit E, un espace vectoriel sur K. Les vecteurs V1 , V2 , . . . , Vm ∈ E, avec m ≥ 2, sont
linéairement dépendants si et seulement si l’un d’entre eux est une combinaison linéaire de tous les autres.

Preuve
(⇒) La condition est nécessaire. En effet, si V1 , V2 , . . . , Vm ∈ E sont linéairement dépendants, il
existe dans (2.9) au moins un coefficient ki ∈ K non nul. Supposons, sans perdre de généralité (spdg),
que k1 6= 0K . Ce coefficient admet donc un inverse, k1−1 , et de l’égalité (2.9) il découle que :
m
X
k1 V1 + ki Vi = 0E ,
i=2

c’est-à-dire :
m
X
k1 V1 = − ki Vi ,
i=2
ou encore : !
m
X
V1 = k1−1 − ki Vi
i=2
m
X
= (−k1−1 ki ) Vi ,
i=2

40
par les propriétés de l’addition vectorielle et de la multiplication scalaire. Le vecteur V1 est donc bien une
combinaison linéaire de tous les autres vecteurs.
(⇐) La condition est suffisante. En effet, supposons par exemple que V1 est une combinaison linéaire
des autres vecteurs :
Xm
V1 = ℓ i Vi .
i=2
Cette dernière relation peut s’écrire :
m
X
V1 − ℓi Vi = 0E ,
i=2
ou encore :
m
X
V1 + (−ℓi ) Vi = 0E ,
i=2
c’est-à-dire sous la forme (2.9) avec k1 = 1 et ki = −ℓi pour 2 ≤ i ≤ m. Puisque k1 6= 0K , les vecteurs
V1 , V2 , . . . , Vm sont donc linéairement dépendants, ce qui termine la preuve. 

Dans le cas où tous les vecteurs Vi , 1 ≤ i ≤ m, sont différents de 0E , on peut préciser le Théorème 2.6
de la manière suivante, permettant ainsi une vérification plus systématique du caractère linéairement
(in)dépendant.

Théorème 2.7 Soit E, un espace vectoriel sur K. Les vecteurs non nuls V1 , V2 , . . . , Vm ∈ E, avec
m ≥ 2, sont linéairement dépendants si et seulement si l’un d’entre eux (excepté le premier), par exemple
Vj (j > 1), est une combinaison linéaire des vecteurs précédents :
j−1
X
Vj = ℓ i Vi . (2.10)
i=1

Preuve
(⇒) La condition est nécessaire. En effet, si les vecteurs V1 , V2 , . . . , Vm sont linéairement dépendants,
ils satisfont à (2.9) où les ki ne sont pas tous nuls. Soit j le plus grand entier tel que kj 6= 0K . Si j = 1,
on a k1 V1 = 0E et donc V1 = 0E par la règle R5, ce qui est impossible par hypothèse. Par conséquent on
a que j > 1, et par définition de j :
Xj
ki Vi = 0E ,
i=1
c’est-à-dire, puisque j > 1 :
j−1
X
kj Vj = − ki Vi .
i=1
Puisque kj 6= 0K , nous pouvons en déduire que :
j−1
!
X
Vj = kj−1 − ki Vi
i=1
j−1
X
= (−kj−1 ki ) Vi ,
i=1

41
par les propriétés de l’addition vectorielle et de la multiplication scalaire, ce qui représente (2.10) avec
ℓi = −kj−1 ki pour 1 ≤ i ≤ j − 1.
(⇐) La condition est suffisante. En effet, la relation (2.10) peut s’écrire sous la forme (2.9) :
j−1
X m
X
ℓi Vi − Vj + 0K Vi = 0E ,
i=1 i=j+1

avec le coefficient de Vj non nul. Les vecteurs V1 , V2 , . . . , Vm sont donc linéairement dépendants. 

Nous avons en outre le résultat suivant.

Théorème 2.8 Soit E, un espace vectoriel sur K. Si V ∈ E est une combinaison linéaire de m vecteurs
linéairement indépendants V1 , V2 , . . . , Vm ∈ E :
m
X
V = ki Vi , (2.11)
i=1

alors les coefficients ki ∈ K sont uniques.

Preuve
Supposons que les coefficients ki ∈ K ne soient pas uniques, et soit :
m
X
V = ℓ i Vi ,
i=1

une autre combinaison linéaire. On a, par différence avec (2.11) et par les propriétés de l’addition vecto-
rielle et de la multiplication scalaire :
m
X m
X m
X
ki Vi − ℓ i Vi = (ki − ℓi ) Vi = 0E ,
i=1 i=1 i=1

ce qui implique que ki − ℓi = 0K pour 1 ≤ i ≤ m puisque les vecteurs V1 , V2 , . . . , Vm constituent une


partie libre de E. Il en découle que ki = ℓi pour 1 ≤ i ≤ m. Les coefficients ki sont donc uniques. 

2.3.3 Base – Dimension


En associant les concepts de partie libre et de partie génératrice, on obtient le concept important de
base, comme le précise la définition suivante.

Définition 2.8 Soit E, un espace vectoriel sur K. Un ensemble de vecteurs V1 , V2 , . . . , Vm ∈ E est une
base de E s’il constitue à la fois une partie libre et une partie génératrice de E.

En d’autres termes, si l’ensemble {V1 , V2 , . . . , Vm } constitue une base de E, alors tout vecteur de E
peut être décomposé suivant une combinaison linéaire des vecteurs V1 , V2 , . . . , Vm (par la Définition 2.6)
et les coefficients de cette combinaison linéaire sont uniques (par le Théorème 2.8).

Par exemple dans l’espace vectoriel C sur R, les nombres 1 et i constituent une base classique, et :

∀ z = x + iy ∈ C, ∃ ! k1 , k2 ∈ R tels que z = k1 1 + k2 i,

42
où, de façon évidente, k1 = x et k2 = y, avec x, y ∈ R. Mais il existe beaucoup d’autres bases dans cet
espace vectoriel, comme par exemple 1 + i et 1 − i, et :

∀ z = x + iy ∈ C, ∃ ! k1 , k2 ∈ R tels que z = k1 (1 + i) + k2 (1 − i).

On vérifie en effet aisément que :


x+y x−y
k1 = et k2 = ,
2 2
avec x, y ∈ R.

Dans la suite du cours, nous ne considérerons que des espaces vectoriels engendrés de manière
finie, c’est-à-dire dont les parties génératrices sont constituées d’un nombre fini de vecteurs. D’autre part,
nous supposerons que l’espace vectoriel ne se réduit pas au seul vecteur nul qui, par la propriété P2,
n’est pas linéairement indépendant.

Nous allons à présent montrer que tout espace vectoriel engendré de manière finie possède au moins
une base. Pour ce faire, nous aurons besoin d’un résultat intermédiaire, repris sous le nom de “lemme”.

Lemme 2.1 Soit E, un espace vectoriel sur K. Si, dans une partie génératrice {V1 , V2 , . . . , Vm } de
E, un des vecteurs, par exemple V1 , est une combinaison linéaire des autres, alors E est engendré par
l’ensemble {V2 , . . . , Vm } obtenu en supprimant V1 dans la partie génératrice initiale.

Preuve
L’ensemble {V1 , V2 , . . . , Vm } étant une partie génératrice de E, tout vecteur V ∈ E est combinaison
linéaire des vecteurs V1 , V2 , . . . , Vm :
m
X
V = ki Vi , ki ∈ K.
i=1

Si V1 est combinaison linéaire des autres vecteurs de la partie génératrice :


m
X
V1 = ℓi Vi , ℓi ∈ K,
i=2

alors le vecteur V peut encore s’écrire :


m m
! m m
X X X X
V = k1 V1 + ki Vi = k1 ℓ i Vi + ki Vi = (k1 ℓi + ki ) Vi ,
i=2 i=2 i=2 i=2

par les propriétés de l’addition vectorielle et de la multiplication scalaire. Le vecteur V (pris quelconque
dans E au départ) est donc une combinaison linéaire des vecteurs V2 , . . . , Vm , ce qui prouve que E est
engendré par l’ensemble {V2 , . . . , Vm }. 

En particulier, on peut supprimer un vecteur nul dans une partie génératrice {V1 , V2 , . . . , Vm } et
conserver une partie génératrice. En effet, soit par exemple V1 = 0E , V1 est combinaison linéaire des
autres vecteurs puisque :
Xm
V1 = 0E = 0K Vi .
i=2

43
Théorème 2.9 (Existence) Un espace vectoriel E sur K engendré de manière finie possède au moins
une base.

Preuve
L’espace vectoriel E étant engendré de manière finie, il existe une partie génératrice {V1 , V2 , . . . , Vm }
de E constituée d’un nombre fini de vecteurs et telle que ces vecteurs ne sont pas tous nuls (pour que E
ne se réduise pas au seul vecteur nul). Supposons spdg que V1 est non nul et passons en revue les vecteurs
de V2 à Vm en supprimant tous les vecteurs qui sont combinaisons linéaires des vecteurs précédents, en
particulier les vecteurs nuls. En procédant de la sorte, le Lemme 2.1 assure, d’une part, que les vecteurs
restants constituent toujours une partie génératrice de E. D’autre part, en vertu du Théorème 2.7, les
vecteurs restants sont linéairement indépendants. Par conséquent, ils forment une base de E. 

Il est en fait possible d’obtenir de nombreuses bases différentes qui ont cependant un trait commun :
elles possèdent le même nombre de vecteurs. Pour démontrer ce résultat, on utilise le lemme suivant.

Lemme 2.2 Soit E, un espace vectoriel sur K, considérons une partie libre {W1 , W2 , . . . , Wn } de E
et une partie génératrice {V1 , V2 , . . . , Vm } de E. Le nombre n de vecteurs linéairement indépendants
ne peut surpasser le nombre m de vecteurs générateurs :

n ≤ m.

Preuve
En vertu du Lemme 2.1, on peut supprimer tout vecteur nul dans la partie génératrice {V1 , V2 , . . . , Vm }
et conserver une partie génératrice. On supposera donc spdg que Vi 6= 0E pour 1 ≤ i ≤ m (le lemme sera
a fortiori vrai si la partie génératrice contient des vecteurs nuls).
Démontrons que n ≤ m par l’absurde, c’est-à-dire, supposons que n > m et démontrons qu’on arrive
dans ce cas à une contradiction. La démonstration utilise le principe d’échange de Steinitz.
Considérons pour commencer l’ensemble :

{W1 , V1 , V2 , . . . , Vm }, (2.12)

qui est une partie génératrice de E, puisque {V1 , V2 , . . . , Vm } l’est. Or, comme les vecteurs Vi , 1 ≤ i ≤
m, engendrent E, on peut exprimer W1 ∈ E sous forme de combinaison linéaire de V1 , V2 , . . . , Vm et
donc en déduire, par le Théorème 2.6, que les vecteurs de l’ensemble (2.12) sont linéairement dépendants.
Étant donné que tous les vecteurs de cet ensemble sont non nuls (par P2 pour W1 puisqu’il fait partie d’une
partie libre et par la supposition faite spdg en début de preuve pour Vi , 1 ≤ i ≤ m), le Théorème 2.7 garan-
tit qu’un vecteur de l’ensemble (2.12), autre que le premier W1 , est combinaison linéaire des précédents.
Supposons que ce vecteur est Vj , on peut, par le Lemme 2.1, supprimer Vj dans (2.12) et obtenir une
nouvelle partie génératrice :

{W1 , V1 , . . . , Vj−1 , Vj+1 , . . . , Vm }.

Adjoignons ensuite W2 à cet ensemble :

{W2 , W1 , V1 , . . . , Vj−1 , Vj+1 , . . . , Vm }.

44
Par le même raisonnement, on conclut qu’un vecteur (autre que le premier, W2 ) doit être combinaison
linéaire des précédents. Ce vecteur ne peut cependant pas être le second, W1 , puisque W1 et W2 sont
linéairement indépendants par hypothèse et donc W1 ne peut être combinaison linéaire de W2 . Il s’agit
donc d’un autre vecteur, par exemple Vk (k 6= j). Par le Lemme 2.1 à nouveau, on peut supprimer ce
vecteur tout en conservant une partie génératrice. En continuant de proche en proche ce procédé, on
obtient finalement (puisque nous avons fait l’hypothèse que n > m) un ensemble :

{Wm , Wm−1 , . . . , W1 }, (2.13)

qui reste une partie génératrice de E. Les vecteurs restants Wm+1 , . . . , Wn sont donc combinaisons
linéaires des vecteurs de l’ensemble (2.13), ce qui est impossible puisque les vecteurs Wi , 1 ≤ i ≤ n,
sont linéairement indépendants, par hypothèse. On a donc nécessairement n ≤ m. 

Théorème 2.10 (Unicité du nombre de vecteurs d’une base) Dans un espace vectoriel E sur K en-
gendré de manière finie, toutes les bases ont le même nombre de vecteurs.

Preuve
Soient {V1 , V2 , . . . , Vm } et {W1 , W2 , . . . , Wn }, deux bases de E. Chacun de ces deux ensembles de
vecteurs constitue donc à la fois une partie libre et une partie génératrice, par la Définition 2.8. On peut
donc appliquer le Lemme 2.2 en choisissant d’abord, par exemple, l’ensemble des vecteurs Vi comme
partie génératrice et l’ensemble des vecteurs Wi comme partie libre, pour obtenir m ≥ n. On peut ensuite
appliquer ce même Lemme 2.2 en choisissant cette fois-ci l’ensemble des vecteurs Vi comme partie libre
et l’ensemble des vecteurs Wi comme partie génératrice, pour obtenir n ≥ m. Par conséquent, on a
nécessairement m = n. 

Ce théorème d’unicité nous permet d’énoncer la définition suivante.

Définition 2.9 Soit E, un espace vectoriel sur K engendré de manière finie. Le nombre commun de
vecteurs des bases de E est appelé la dimension de l’espace vectoriel.

Ainsi, par exemple, la dimension de l’espace C sur R est égale à 2.

Notons que, par convention, on dit que l’espace se réduisant au seul vecteur nul est de dimension 0.

2.4 Théorèmes relatifs aux notions de base et de dimension


Cette section reprend trois théorèmes importants relatifs aux notions de base et de dimension d’un
espace vectoriel.

Théorème 2.11 Pour un espace vectoriel E sur K de dimension n, la dimension a trois significations
équivalentes :
1. Le nombre de vecteurs d’une base.
2. Le nombre minimum de vecteurs d’une partie génératrice.
3. Le nombre maximum de vecteurs d’une partie libre.

45
Preuve

1. La dimension de E est, par définition, le nombre commun de vecteurs de ses bases. Elle est donc,
par définition, le nombre de vecteurs d’une base.

2. Nous avons tout d’abord que toute partie génératrice de E a au moins n vecteurs. En effet, par le
Lemme 2.2, nous savons que le nombre de vecteurs d’une partie libre ne peut surpasser le nombre
de vecteurs d’une partie génératrice. Or une base d’un espace vectoriel de dimension n étant une
partie libre de n vecteurs, il en découle que toute partie génératrice de E a au moins n vecteurs.
Nous avons ensuite que le nombre minimum de vecteurs d’une partie génératrice de E vaut n,
puisqu’une base de E est une partie génératrice de E et est constituée de n vecteurs.

3. Nous avons tout d’abord que toute partie libre de E a au plus n vecteurs. En effet, par le Lemme 2.2,
nous savons que le nombre de vecteurs d’une partie libre ne peut surpasser le nombre de vec-
teurs d’une partie génératrice. Or une base d’un espace vectoriel de dimension n étant une partie
génératrice de n vecteurs, il en découle que toute partie libre de E a au plus n vecteurs. Nous
avons ensuite que le nombre maximum de vecteurs d’une partie libre de E vaut n, puisqu’une base
de E est une partie libre de E et est constituée de n vecteurs.

Théorème 2.12 Dans un espace vectoriel E sur K de dimension n :


1. Toute partie génératrice de n vecteurs est une base de E.
2. Toute partie libre de n vecteurs est une base de E.

Preuve

1. Considérons une partie génératrice {V1 , V2 , . . . , Vn } de E, composée de n vecteurs. Supposons


par l’absurde que cette partie est liée. Par le Théorème 2.6, un de ses vecteurs, par exemple V1 , est
alors une combinaison linéaire des autres :
n
X
V1 = ℓ i Vi , ℓi ∈ K.
i=2

Par le Lemme 2.1, on peut donc supprimer V1 de {V1 , V2 , . . . , Vn } tout en conservant une
partie génératrice de E, {V2 , . . . , Vn }, composée de n − 1 vecteurs. Ceci contredit le Point 2
du Théorème 2.11. La partie génératrice {V1 , V2 , . . . , Vn } forme donc une partie libre, et par
conséquent une base de E.

2. Considérons une partie libre {W1 , W2 , . . . , Wn } composée de n vecteurs de E. Soit V ∈ E, un


vecteur quelconque de E, montrons qu’il peut être engendré par les vecteurs W1 , W2 , . . . , Wn .
En effet, par le Point 3 du Théorème 2.11, les n + 1 vecteurs V, W1 , W2 , . . . , Wn sont
linéairement dépendants, et donc tels que la relation :

k V + k1 W1 + · · · + kn Wn = 0E

46
est possible avec au moins un coefficient non nul. Ce coefficient doit être k, car pour k = 0K on au-
rait k1 = · · · = kn = 0K puisque les vecteurs W1 , W2 , . . . , Wn sont linéairement indépendants.
On peut donc exprimer le vecteur V ∈ E (pris quelconque au départ) sous forme de combinaison
linéaire des vecteurs W1 , W2 , . . . , Wn :
n
X
V = (−k−1 ki ) Wi ,
i=1

et la partie libre {W1 , W2 , . . . , Wn } est donc également génératrice de E. Par conséquent elle
forme une base de E.

Il est important d’observer que le Théorème 2.12 met en évidence le fait que dans un espace vectoriel
de dimension n, un ensemble de n vecteurs possédant une des deux propriétés d’une base (soit partie libre,
soit partie génératrice) est automatiquement une base de cet espace vectoriel.

Théorème 2.13 Dans un espace vectoriel E sur K de dimension n :


1. Toute partie génératrice contient une base de E.
2. Toute partie libre est contenue dans une base de E.

Preuve

1. La démonstration est identique à celle du Théorème 2.9.

2. Considérons une partie libre de r vecteurs V1 , V2 , . . . , Vr ∈ E et montrons qu’elle est contenue


dans une base de E. Par le Point 3 du Théorème 2.11, on a que r ≤ n. Si r = n, alors les
vecteurs V1 , V2 , . . . , Vn constituent une base de E par le Point 2 du Théorème 2.12, et la thèse
est démontrée. Si r < n, dans ce cas l’ensemble de vecteurs {V1 , . . . , Vr } n’est pas une partie
génératrice de E, en vertu du Point 2 du Théorème 2.11. On peut dès lors trouver un vecteur
Vr+1 ∈ E qui n’est pas combinaison linéaire de V1 , . . . , Vr . Les vecteurs V1 , . . . , Vr , Vr+1
constituent une partie libre de E, car la relation :

k1 V1 + · · · + kr Vr + kr+1 Vr+1 = 0E

implique que kr+1 = 0K (sinon Vr+1 serait combinaison linéaire de V1 , . . . , Vr ), et par conséquent
que k1 = · · · = kr = 0K (puisque les vecteurs V1 , . . . , Vr sont linéairement indépendants par
hypothèse). On réitère ce procédé jusqu’à obtenir un ensemble de n vecteurs V1 , V2 , . . . , Vn
linéairement indépendants qui constituent une base de E, par le Point 2 du Théorème 2.12.

2.5 Dimension et sous-espace vectoriel


Un sous-espace vectoriel étant, par définition, lui-même un espace vectoriel, il possède également
une dimension qui sera le nombre commun de vecteurs de ses bases. Dans cette section, nous examinons

47
quelques propriétés relatives à la dimension d’un sous-espace vectoriel. À partir de maintenant, nous
désignerons par “dim” la dimension d’un (sous-)espace vectoriel.

Théorème 2.14 Soit E, un espace vectoriel sur K de dimension n. Si S est un sous-espace vectoriel de
E, alors :
dim S ≤ n.

Si dim S = n, alors S est l’espace vectoriel E tout entier.

Preuve
Démontrons tout d’abord que dim S ≤ n. Puisque E est de dimension n, il y a au plus n vecteurs
linéairement indépendants dans E, par le Point 3 du Théorème 2.11, et donc aussi dans S, puisque S ⊆ E.
Soit r, le nombre maximum de vecteurs linéairement indépendants dans S, nous avons donc que r ≤ n.
Démontrons que dim S = r (ce qui impliquera dim S ≤ n). Pour cela, considérons une partie libre
de S composée de r vecteurs V1 , V2 , . . . , Vr ainsi qu’un vecteur quelconque V ∈ S, et appliquons un
raisonnement similaire à celui utilisé dans la démonstration du Point 2 du Théorème 2.12 pour montrer
que les vecteurs V1 , V2 , . . . , Vr forment également une partie génératrice de S. Étant donné qu’il y a
au maximum r vecteurs linéairement indépendants dans S, les vecteurs V, V1 , V2 , . . . , Vr ∈ S sont
linéairement dépendants et donc tels que la relation :

k V + k1 V1 + · · · + kr Vr = 0E

est possible avec au moins un coefficient non nul. Ce coefficient doit être k, car pour k = 0K on aurait
k1 = · · · = kr = 0K puisque les vecteurs V1 , V2 , . . . , Vr sont linéairement indépendants. On peut donc
exprimer le vecteur V ∈ S (pris quelconque dans S au départ) sous forme de combinaison linéaire des
vecteurs V1 , V2 , . . . , Vr :
Xr
V = (−k−1 ki ) Vi ,
i=1

et la partie libre {V1 , V2 , . . . , Vr } de S est donc également génératrice de S. Par conséquent elle forme
une base de S, de sorte que dim S = r et donc dim S ≤ n.
Supposons à présent que dim S = n. Soit V ∈ E, montrons que V ∈ S. Pour cela, considérons une
base {V1 , V2 , . . . , Vn } de S. Par le Point 2 du Théorème 2.12, les n vecteurs linéairement indépendants
V1 , V2 , . . . , Vn constituent une base de E, de sorte que V s’exprime sous la forme :
n
X
V = ki Vi , ki ∈ K.
i=1

Comme les vecteurs V1 , V2 , . . . , Vn forment également une partie génératrice de S, toute combinaison
linéaire de ces vecteurs, et donc V , est aussi vecteur de S. Par conséquent E ⊆ S et les ensembles E et S
sont identiques. 

Théorème 2.15 Dans un espace vectoriel E sur K de dimension finie, considérons deux sous-espaces
vectoriels S1 et S2 de dimension p et q, respectivement, et tels que S1 ∩ S2 = {0E }. Si {V1 , . . . , Vp }

48
désigne une base de S1 et {W1 , . . . , Wq } une base de S2 , alors l’ensemble de vecteurs {V1 , . . . , Vp ,
W1 , . . . , Wq } constitue une base de S1 ⊕ S2 . En particulier, on a :

dim (S1 ⊕ S2 ) = dim S1 + dim S2 . (2.14)

Preuve
Démontrons que l’ensemble de vecteurs {V1 , . . . , Vp , W1 , . . . , Wq } constitue à la fois une partie libre
et une partie génératrice de S1 ⊕ S2 .
Partie libre. Considérons la relation :

k1 V1 + · · · + kp Vp + ℓ1 W1 + · · · + ℓq Wq = 0E ,

et démontrons qu’elle implique que k1 = · · · = kp = 0K et ℓ1 = · · · = ℓq = 0K . Cette relation peut


s’écrire :
k1 V1 + · · · + kp Vp = −ℓ1 W1 − · · · − ℓq Wq ,

où le membre de gauche est un vecteur de S1 et celui de droite, un vecteur de S2 . Comme S1 ∩S2 = {0E },
on peut écrire :
k1 V1 + · · · + kp Vp = 0E ,

et
−ℓ1 W1 − · · · − ℓq Wq = 0E ,

et puisque {V1 , . . . , Vp } et {W1 , . . . , Wq } constituent des parties libres, ces relations ne sont vérifiées
que pour k1 = · · · = kp = 0K et pour ℓ1 = · · · = ℓq = 0K . Les vecteurs V1 , . . . , Vp , W1 , . . . , Wq sont
donc linéairement indépendants.
Partie génératrice. Par définition de la somme de deux sous-espaces vectoriels, tout vecteur T ∈ S1 ⊕ S2
se décompose en T = V + W avec V ∈ S1 et W ∈ S2 . On peut exprimer V ∈ S1 et W ∈ S2 à partir des
bases respectives de S1 et de S2 :
p
X q
X
V = ki Vi , ki ∈ K et W = ℓi Wi , ℓi ∈ K,
i=1 i=1

de sorte que T = V + W devient :


p
X q
X
T = ki Vi + ℓi Wi .
i=1 i=1

Ainsi, tout vecteur de S1 ⊕ S2 peut être décomposé suivant une combinaison linéaire des vecteurs V1 , . . . ,
Vp , W1 , . . . , Wq et donc l’ensemble {V1 , . . . , Vp , W1 , . . . , Wq } constitue une partie génératrice de
S1 ⊕ S2 .
L’ensemble de vecteurs {V1 , . . . , Vp , W1 , . . . , Wq } constitue donc bien une base de S1 ⊕ S2 , de sorte
que dim (S1 ⊕ S2 ) = p + q et la relation (2.14) est vérifiée. 

Dans le cas général où S1 ∩ S2 6= {0E }, on obtient la loi modulaire (qui ne sera pas démontrée ici) :

dim S1 + dim S2 = dim (S1 + S2 ) + dim (S1 ∩ S2 ).

49
Par exemple dans l’espace C sur R, pour S1 = R et S2 = II on a R ∩ II = {0} et R ⊕ II = C et on
vérifie que dim R = dim II = 1 et dim C = dim R + dim II = 2. Par contre, toujours dans l’espace C
sur R mais pour S1 = R et S2 = C, on a R ∩ C = R et R + C = C, de sorte que dim R + dim C =
dim (R + C) + dim (R ∩ C).

2.6 L’espace des coordonnées K n


Dans cette section, nous allons construire l’espace des coordonnées K n qui, nous allons le voir, est
un espace vectoriel isomorphe à tout espace vectoriel E sur un champ K.

Généralisons tout d’abord la notion de produit cartésien de deux ensembles vue au Chapitre 1 à celle
de produit cartésien de plusieurs ensembles.

Définition 2.10 Soient n ensembles Ai , i = 1, 2, . . . , n. Le produit cartésien des ensembles Ai , noté


A1 × A2 × · · · × An , est un nouvel ensemble construit à partir des Ai et tel que chacun de ses éléments
est un n-uplet dont la ième composante est dans Ai :

A1 × A2 × · · · × An = {(x1 , x2 , . . . , xn ) | xi ∈ Ai , 1 ≤ i ≤ n}.

En particulier si les ensembles Ai sont tous identiques, le produit cartésien A × A × · · · × A est noté
An .

Considérons à présent, dans un espace vectoriel E sur K de dimension n, une base {V1 , V2 , . . . , Vn }.
Tout vecteur V ∈ E peut s’exprimer sous la forme :
n
X
V = k1 V1 + k2 V2 + · · · + kn Vn = ki Vi ,
i=1

avec n scalaires uniques ki ∈ K, 1 ≤ i ≤ n, appelés les coordonnées de V par rapport à la base


{V1 , V2 , . . . , Vn } et qui constituent un élément (k1 , k2 , . . . , kn ) ∈ K n .

Par exemple, dans l’espace vectoriel C sur R, les coordonnées d’un vecteur z = x + iy ∈ C par
rapport à la base {1, i} sont x et y ∈ R qui constituent l’élément (x, y) ∈ R2 , puisque z se décompose
en :
z =x1+yi

de façon unique, tandis que les coordonnées du même vecteur z = x + iy ∈ C par rapport à la base
{1 + i, 1 − i} sont (x + y)/2 et (x − y)/2 ∈ R qui constituent l’élément ((x + y)/2, (x − y)/2) ∈ R2 ,
puisque z se décompose en :
x+y x−y
z= (1 + i) + (1 − i)
2 2
de façon unique.

Étant donné cette “correspondance unique” entre un vecteur et ses coordonnées par rapport à une base,
nous allons établir un isomorphisme entre l’espace vectoriel E et K n . Pour cela, il nous faut tout d’abord

50
munir K n d’une structure d’espace vectoriel sur K. Soient (k1 , k2 , . . . , kn ) ∈ K n , (ℓ1 , ℓ2 , . . . , ℓn ) ∈
K n et a ∈ K, si nous définissons l’opération d’addition vectorielle par :

(k1 , k2 , . . . , kn ) + (ℓ1 , ℓ2 , . . . , ℓn ) = (k1 + ℓ1 , k2 + ℓ2 , . . . , kn + ℓn ), (2.15)

et celle de multiplication scalaire par :

a (k1 , k2 , . . . , kn ) = (a k1 , a k2 , . . . , a kn ), (2.16)

on peut vérifier aisément que K n muni de ces opérations est en effet un espace vectoriel sur K. Comme
annoncé ci-dessus, cet espace est appelé l’espace des coordonnées K n .

Pour établir ensuite un isomorphisme entre E et l’espace des coordonnées K n , considérons l’applica-
tion f : E → K n qui à V ∈ E associe ses coordonnées par rapport à la base {V1 , V2 , . . . , Vn } :

f (V ) = (k1 , k2 , . . . , kn ) ∈ K n .

Cette application est une bijection puisque chaque vecteur de E se décompose de façon unique dans la
base {V1 , V2 , . . . , Vn } et possède donc une et une seule image dans K n , tandis qu’à partir de chaque
élément (k1 , k2 , . . . , kn ) de K n on peut construire un et un seul vecteur :
n
X
V = ki Vi
i=1

de E, c’est-à-dire que chaque élément de K n est l’image d’un et un seul vecteur de E. Il nous reste à
démontrer que cette bijection est un isomorphisme de E dans K n pour les opérations d’addition vectorielle
et de multiplication scalaire. Prenons V et W ∈ E tels que :
n
X n
X
V = ki Vi et W = ℓi Vi ,
i=1 i=1

et a ∈ K. Par les propriétés de l’addition vectorielle (2.1) et de la multiplication scalaire (2.2) et par (2.15)
et (2.16), on a que :
n 
P Pn
f (V + W ) = f ki Vi + ℓ i Vi
i=1 i=1 
Pn
= f (ki + ℓi ) Vi
i=1

= (k1 + ℓ1 , k2 + ℓ2 , . . . , kn + ℓn )

= (k1 , k2 , . . . , kn ) + (ℓ1 , ℓ2 , . . . , ℓn )

= f (V ) + f (W ),

51
et  
P
n
f (a V ) = f a ki Vi
 i=1 
P
n
= f (a ki ) Vi
i=1

= (a k1 , a k2 , . . . , a kn )

= a (k1 , k2 , . . . , kn )

= a f (V ).

Les lois d’addition vectorielle et de multiplication scalaire sont donc bien respectées par la bijection f .
Il en résulte donc que tout espace vectoriel E sur un champ K est isomorphe à l’espace K n des
coordonnées (par rapport à une base donnée de E).

D’un point de vue pratique, tout calcul numérique dans un espace vectoriel E sur un champ K peut
donc se ramener à celui défini dans l’espace K n des coordonnées (relatives à une base de E convenable-
ment choisie). Notons en particulier que la base {V1 , V2 , . . . , Vn } de l’espace E devient, dans K n , la
base canonique :

{(1, 0K , . . . , 0K ), (0K , 1, . . . , 0K ), . . . , (0K , 0K , . . . , 1)}

des coordonnées de V1 , V2 , . . . , Vn , respectivement, par rapport à la base {V1 , V2 , . . . , Vn }. On a en


effet : 



 V1 = 1 V1 + 0K V2 + · · · + 0K Vn ,





 V2 = 0K V1 + 1 V2 + · · · + 0K Vn ,

 ..

 .





 Vn = 0K V1 + 0K V2 + · · · + 1 Vn .

La base canonique est habituellement notée {e1 , e2 , . . . , en }, avec :

ei = (0K , . . . , 1, . . . , 0K ), 1 ≤ i ≤ n.

en ième position

52
Chapitre 3

Applications linéaires

3.1 Définition et propriétés élémentaires


Le concept d’espace vectoriel ne constitue qu’une moitié de l’algèbre linéaire, l’autre partie étant
fournie par la notion d’application linéaire, c’est-à-dire d’application entre deux espaces vectoriels qui
conserve les relations linéaires. En quelque sorte, la notion d’espace vectoriel est la partie statique de
l’algèbre linéaire tandis que celle d’application linéaire en est la partie dynamique.

Pour introduire la notion d’application linéaire, rappelons-nous tout d’abord la notion d’homomorphi-
sme vue au Chapitre 1 [Section 1.4, Définition 1.11]. Soient E, un ensemble muni d’une loi de composition
⊤, et E ′ , un autre ensemble muni d’une loi de composition ⊤′ , un homomorphisme est une application f
de E dans E ′ qui respecte les lois de composition, c’est-à-dire telle que pour tout (x, y) ∈ E 2 , on a :

f (x ⊤ y) = f (x) ⊤′ f (y). (3.1)

Si par exemple (E, T ) et (E ′ , T ′ ) forment des groupes, l’application f sera appelée homomorphisme
de groupes. Dans le même ordre d’idée, si E et E ′ sont des espaces vectoriels sur un même champ de
scalaires K, pour être un homomorphisme d’espaces vectoriels, une application f de E dans E ′ devra
respecter à la fois les opérations d’addition vectorielle et de multiplication scalaire (et donc conserver
les relations linéaires, comme nous le verrons plus loin). C’est ce type d’homomorphisme, plus com-
munément appelé application linéaire, que nous allons étudier dans ce chapitre.

Définition 3.1 Étant donné deux espaces vectoriels E et F de dimension finie sur un même champ de
scalaires K, on appelle application linéaire de E dans F tout homomorphisme f de l’espace vectoriel E
dans l’espace vectoriel F , c’est-à-dire toute application f de E dans F qui conserve les deux opérations
d’un espace vectoriel :
L1. f (V + W ) = f (V ) + f (W ),
L2. f (k V ) = k f (V ),
pour tout V et W ∈ E et tout k ∈ K.

53
Dans le cas particulier où F = E, on parlera d’opérateur linéaire opérant dans E, tandis que dans le
cas particulier où F = K, on parlera de forme linéaire sur K.

Exemples
1. Nous avons déjà rencontré un exemple d’application linéaire à la fin du Chapitre 2, dans la Sec-
tion 2.6, à savoir l’application d’un espace vectoriel E sur un champ K dans l’espace vectoriel des
coordonnées K n (sur le même champ K), qui à tout vecteur de E fait correspondre son vecteur
unique de coordonnées par rapport à une base donnée de E.
2. Soit l’espace vectoriel R3 sur R. L’application f : R3 → R3 définie par :

f (x, y, z) = (x, y, 0),

qui constitue une projection de l’espace à trois dimensions sur le plan (X, Y ) (voir Figure 3.1),
est une application linéaire, et plus précisément un opérateur linéaire opérant dans R3 .
En effet : soient V1 = (x1 , y1 , z1 ) et V2 = (x2 , y2 , z2 ), on a :

f (V1 + V2 ) = f ((x1 , y1 , z1 ) + (x2 , y2 , z2 ))

= f (x1 + x2 , y1 + y2 , z1 + z2 )

= (x1 + x2 , y1 + y2 , 0)

= (x1 , y1 , 0) + (x2 , y2 , 0)

= f (V1 ) + f (V2 ),

et, pour k ∈ R, on a :
f (k V1 ) = f (k (x1 , y1 , z1 ))

= f (k x1 , k y1 , k z1 )

= (k x1 , k y1 , 0)

= k (x1 , y1 , 0)

= k f (V1 ).

3. Soient les espaces vectoriels R2 et R3 sur R. L’application f : R2 → R3 définie par :

f (x, y) = (x + y, 2x − y, y)

est linéaire.
4. Soient les espaces vectoriels R2 et R sur R. L’application f : R2 → R définie par :

f (x, y) = 3x + 2y

est linéaire.

54
Z

• V = (x, y, z)

(0, 0, 0) x ✲X
✑ ✑
✑ ✑
✑ ✑


y ✑ •✑f (V ) = (x, y, 0)


Y✑

F IGURE 3.1 – Projection de R3 sur le plan (X, Y ).

5. Soit l’espace vectoriel R2 sur R. L’application f : R2 → R2 définie par :

f (x, y) = (x + y + 1, y)

n’est pas linéaire.


En effet : prenons par exemple V1 = (x1 , y1 ) = (1, 0) et V2 = (x2 , y2 ) = (0, 1), on a :

f (V1 + V2 ) = f ((x1 , y1 ) + (x2 , y2 ))

= f (x1 + x2 , y1 + y2 )

= (x1 + x2 + y1 + y2 + 1, y1 + y2 )

= (3, 1),

et

f (V1 ) + f (V2 ) = (x1 + y1 + 1, y1 ) + (x2 + y2 + 1, y2 ) = (2, 0) + (2, 1) = (4, 1),

et donc :
f (V1 + V2 ) 6= f (V1 ) + f (V2 ).

On déduit de la définition d’une application linéaire les deux propriétés importantes suivantes :

P1. L’image du vecteur nul de E par une application linéaire est le vecteur nul de F :

f (0E ) = 0F . (3.2)

En effet : en posant k = 0K dans l’axiome L2 de la Définition 3.1, on obtient :

f (0K V ) = 0K f (V ),

55
c’est-à-dire (3.2), par la règle R4 [Chapitre 2, Section 2.1].

P2. Une application linéaire conserve les relations linéaires :


n
! n
X X
f ki Vi = ki f (Vi ), (3.3)
i=1 i=1

où Vi ∈ E et ki ∈ K, 1 ≤ i ≤ n.
En effet : démontrons cette propriété par récurrence. La propriété est vraie pour n = 2 par les
axiomes L1 et L2 de la Définition 3.1 :

f (k1 V1 + k2 V2 ) = f (k1 V1 ) + f (k2 V2 ) = k1 f (V1 ) + k2 f (V2 ).

Supposons qu’elle est vraie pour n ≥ 2 et démontrons qu’elle l’est pour n + 1. Par les axiomes
L1 et L2, on a en effet :
n+1  n 
P P
f ki Vi = f ki Vi + kn+1 Vn+1
i=1 i=1 
n
P
= f ki Vi + f (kn+1 Vn+1 )
i=1 
P
n
= f ki Vi + kn+1 f (Vn+1 )
i=1
Pn
= i=1 ki f (Vi ) + kn+1 f (Vn+1 )
Pn+1
= i=1 ki f (Vi ),

où l’avant dernière égalité découle de l’hypothèse de récurrence.

Remarquons également que l’on peut remplacer les conditions L1 et L2 de la Définition 3.1 par la
condition unique :
f (k V + ℓ W ) = k f (V ) + ℓ f (W ), (3.4)
pour tout V et W ∈ E et tout k et ℓ ∈ K. Voyons qu’en effet satisfaire les conditions L1 et L2 est
équivalent à satisfaire la condition (3.4) :
(⇒) La propriété P2, garantie par L1 et L2, implique (3.4).
(⇐) En posant k = ℓ = 1 dans (3.4) on a f (V + W ) = f (V ) + f (W ), soit L1, et en posant ℓ = 0K
dans (3.4) on a f (k V ) = k f (V ), soit L2.
On utilisera donc la condition (3.4) plutôt ques les conditions L1 et L2 en pratique pour établir qu’une
application est linéaire.

Notons finalement que deux applications linéaires f et g de E dans F sont dites identiques si, pour
tout V ∈ E, on a f (V ) = g(V ).

3.2 Image et noyau


Deux sous-ensembles particuliers, l’un dans E et l’autre dans F , sont associés à une application
linéaire de E dans F . Ils sont définis de la manière suivante.

56
Définition 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. L’image d’une application linéaire f de E dans F est le sous-ensemble de F constitué des images des
vecteurs de E :
Imf = f (E) = {f (V ) ∈ F | V ∈ E}.

Le noyau d’une application linéaire f de E dans F est le sous-ensemble de E constitué des vecteurs de
E qui ont pour image le vecteur nul de F :

Kerf = {V ∈ E | f (V ) = 0F }.

Par exemple, dans l’application projection de R3 sur le plan (X, Y ), l’image de f est le plan (X, Y ),
tandis que le noyau de f est l’axe Z, puisque les points de cet axe sont les seuls à avoir pour image le
vecteur nul (0, 0, 0).

L’image et le noyau d’une application linéaire sont en fait tous deux un sous-espace vectoriel, comme
le montre le théorème suivant.

Théorème 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. Pour une application linéaire f de E dans F , Imf est un sous-espace vectoriel de F et Kerf est un
sous-espace vectoriel de E.

Preuve
Imf sous-espace vectoriel de F . D’une part, en vertu de la propriété P1, Imf n’est pas vide puisqu’il
contient 0F ∈ F . D’autre part, pour W1 et W2 ∈ Imf , on a :

f (V1 ) = W1 et f (V2 ) = W2 ,

où V1 et V2 sont des vecteurs de E. Par conséquent, on obtient par (3.4) et pour k1 et k2 ∈ K :

k1 W1 + k2 W2 = k1 f (V1 ) + k2 f (V2 ) = f (k1 V1 + k2 V2 ) ∈ Imf.

Le sous-ensemble Imf est donc bien un sous-espace vectoriel de F , en vertu de (2.5).


Kerf sous-espace vectoriel de E. D’une part, en vertu de la propriété P1, Kerf n’est pas vide puisqu’il
contient 0E ∈ E. D’autre part, pour V1 et V2 ∈ Kerf , on a :

f (V1 ) = 0F et f (V2 ) = 0F ,

ce qui donne, par (3.4) et pour k1 et k2 ∈ K :

f (k1 V1 + k2 V2 ) = k1 f (V1 ) + k2 f (V2 ) = k1 0F + k2 0F = 0F ,

de sorte que :
k1 V1 + k2 V2 ∈ Kerf.

Le sous-ensemble Kerf est donc bien un sous-espace vectoriel de E, en vertu de (2.5). 

Puisque Imf et Kerf sont des sous-espaces vectoriels, ils ont une dimension spécifique.

57
Définition 3.3 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K, et f , une application linéaire de E dans F . La dimension ρ du sous-espace Imf est appelée le rang
de f et la dimension ν du sous-espace Kerf est appelée la nullité de f .

Le rang et la nullité d’une application linéaire vérifient la relation importante suivante.

Théorème 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. Si f est une application linéaire de E dans F avec E de dimension n, le rang ρ et la nullité ν de f
sont reliés par la relation :
ρ + ν = n. (3.5)

Preuve
Considérons une base B de Kerf (sous-espace vectoriel de E par le Théorème 3.1 et dont la dimension
ν vérifie ν ≤ n par le Théorème 2.14) :

B = {V1 , V2 , . . . , Vν }.

Par le Théorème 2.13, cette partie libre de E est contenue dans une base B ∗ de E :

B ∗ = {V1 , V2 , . . . , Vν , V1′ , V2′ , . . . , Vn−ν



}.

Considérons l’ensemble des images :

B ′ = {f (V1′ ), . . . , f (Vn−ν

)},

et démontrons que B ′ constitue une base de Imf .


Partie génératrice. Pour tout W ∈ Imf , il existe un V ∈ E tel que f (V ) = W . Exprimons V en fonction
de la base B ∗ de E :
X ν n−ν
X
V = ki Vi + ki′ Vi′ ,
i=1 i=1

pour ki , 1 ≤ i ≤ ν, et 1 ≤ i ≤ n − ν, dans K, de sorte que :


ki′ ,
ν n−ν
! ν n−ν
X X X X
′ ′
W = f (V ) = f ki Vi + ki Vi = ki f (Vi ) + ki′ f (Vi′ ),
i=1 i=1 i=1 i=1

par la propriété P2. Étant donné que f (Vi ) = 0F , 1 ≤ i ≤ ν, on obtient finalement :


n−ν
X
W = ki′ f (Vi′ ),
i=1

et B ′ est donc bien une partie génératrice de Imf .


Partie libre. Soit la combinaison linéaire nulle :
n−ν
X
ℓ′i f (Vi′ ) = 0F , (3.6)
i=1

58
montrons qu’elle implique que les ℓ′i , 1 ≤ i ≤ n − ν, sont tous nuls. En vertu de la propriété P2, cette
relation peut s’écrire : !
n−ν
X
′ ′
f ℓi Vi = 0F ,
i=1
de sorte que :
n−ν
X
ℓ′i Vi′ ∈ Kerf.
i=1
Exprimons ce vecteur en fonction de la base B de Kerf :
n−ν
X ν
X
ℓ′i Vi′ = ℓi Vi ,
i=1 i=1

ce qui donne :
n−ν
X ν
X
ℓ′i Vi′ − ℓi Vi = 0E .
i=1 i=1
Il s’agit d’une combinaison linéaire des vecteurs de la base B ∗ . Comme ces vecteurs sont linéairement
indépendants, les coefficients ℓ′i et ℓi sont nécessairement tous nuls. La relation (3.6) n’est donc vérifiée
que pour ℓ′1 = ℓ′2 = · · · = ℓ′n−ν = 0K et les vecteurs de B ′ sont donc linéairement indépendants.
L’ensemble B ′ constitué de n−ν vecteurs forme donc bien une base de Imf , lequel est donc de dimension
ρ = n − ν, ce qui implique l’égalité (3.5). 

Dans l’application projection de R3 sur le plan (X, Y ), le rang ρ de f est la dimension du plan (X, Y )
qui vaut 2, la nullité ν de f est la dimension de l’axe Z qui vaut 1, et la dimension n de l’espace R3 est
égale à 3. On vérifie donc aisément que ρ + ν = n.

Corollaire 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. Pour une application linéaire f de E dans F , le rang de f (c’est-à-dire ρ), vérifie :

ρ ≤ min{dim E, dim F }.

Preuve
On a d’une part, par le Théorème 3.2 :
ρ = dim E − ν,

ce qui implique, puisque ν ≥ 0 :


ρ ≤ dim E.
D’autre part, puisque Imf est un sous-espace vectoriel de F , sa dimension est inférieure ou égale à la
dimension de F , en vertu du Théorème 2.14 :

ρ ≤ dim F.

En conclusion, on a bien :
ρ ≤ min{dim E, dim F }.


59
3.3 Opérations sur les applications linéaires
Considérons l’ensemble des applications linéaires d’un espace vectoriel E dans un espace vectoriel F
sur un même champ K, et notons-le LK (E, F ). En définissant des opérations d’addition vectorielle et de
multiplication scalaire sur les applications linéaires elles-mêmes, nous allons munir cet ensemble d’une
structure d’espace vectoriel sur K.

Définition 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K, et soient f et g, deux applications linéaires de E dans F . La somme f + g des applications f et g est
l’application qui associe à chaque vecteur V ∈ E le vecteur f (V ) + g(V ) ∈ F :

(f + g)(V ) = f (V ) + g(V ). (3.7)

Le produit kf de l’application f par le scalaire k ∈ K est l’application qui associe à chaque vecteur
V ∈ E le vecteur k f (V ) ∈ F :
(kf )(V ) = k f (V ). (3.8)

Afin de voir que l’ensemble LK (E, F ) muni des opérations (3.7) et (3.8) est un espace vectoriel,
observons tout d’abord que les applications f +g et kf sont linéaires (et donc appartiennent à LK (E, F )).
Pour tout V et W ∈ E et tout ℓ et m ∈ K, nous avons en effet d’une part, par (3.7) et par (3.4) :

(f + g)(ℓ V + m W ) = f (ℓ V + m W ) + g(ℓ V + m W )

= ℓ f (V ) + m f (W ) + ℓ g(V ) + m g(W )

= ℓ (f (V ) + g(V )) + m (f (W ) + g(W ))

= ℓ (f + g)(V ) + m (f + g)(W ),

et d’autre part, par (3.8) et par (3.4) :

(kf )(ℓ V + m W ) = k f (ℓ V + m W )

= k (ℓ f (V ) + m f (W ))

= k ℓ f (V ) + k m f (W )

= ℓ k f (V ) + m k f (W )

= ℓ (kf )(V ) + m (kf )(W ).

Il est ensuite aisé de vérifier (la preuve détaillée est laissée en exercice) que l’ensemble LK (E, F )
muni des opérations d’addition vectorielle (3.7) et de multiplication scalaire (3.8) satisfait aux axiomes
de la Définition 2.1, et donc qu’il constitue un espace vectoriel sur K, qu’on notera LK (E, F ). En
particulier, l’élément neutre de l’addition vectorielle est l’application nulle ω définie par :

ω(V ) = 0F , pour tout V ∈ E. (3.9)

60
En effet, pour tout f ∈ LK (E, F ), on a, pour tout V ∈ E :

(f + ω)(V ) = f (V ) + ω(V ) = f (V ) + 0F = f (V ),

et donc :
f + ω = f.

De même, on a que ω + f = f , par commutativité de l’addition. D’autre part, l’opposé −f de f est tel
que :
(−f )(V ) = −f (V ), pour tout V ∈ E.

En effet, pour tout f ∈ LK (E, F ), on a, pour tout V ∈ E :

(f − f )(V ) = (f + (−f ))(V ) = f (V ) + (−f )(V ) = f (V ) − f (V ) = 0F = ω(V ),

et donc :
f − f = ω.

Considérons à présent un troisième espace vectoriel, G, sur le même champ K. La définition suivante
introduit l’opération qui consiste à composer deux applications linéaires, l’une de E dans F et l’autre de
F dans G.

Définition 3.5 Soient E, F et G, trois espaces vectoriels de dimension finie sur un même champ de
scalaires K, et soient f , une application linéaire de E dans F , et h, une application linéaire de F dans
G. Le composé h ◦ f des applications f et h est l’application de E dans G définie par :

(h ◦ f )(V ) = h(f (V )), pour tout V ∈ E. (3.10)

Notons que l’application h◦f est également une application linéaire (et donc appartient à LK (E, G)).
En effet, pour tout V et W ∈ E et tout ℓ et m ∈ K, on a, par (3.10) et par (3.4) :

(h ◦ f )(ℓ V + m W ) = h(f (ℓ V + m W ))

= h(ℓ f (V ) + m f (W ))

= ℓ h(f (V )) + m h(f (W ))

= ℓ (h ◦ f )(V ) + m (h ◦ f )(W ).

Dans le cas particulier où E = F = G, on peut montrer que LK (E, E) (l’ensemble des opérateurs
linéaires sur E), muni de l’addition (3.7) et de la loi de composition (3.10), constitue un anneau unitaire.
En effet, d’une part LK (E, E) muni de l’addition (3.7) est un groupe commutatif, et d’autre part on
vérifie aisément (la preuve est laissée en exercice) que :
— La loi de composition (3.10) est associative :

(p ◦ h) ◦ f = p ◦ (h ◦ f ),

pour tout f, h et p ∈ LK (E, E).

61
— La loi de composition (3.10) est distributive par rapport à l’addition (3.7) :

f ◦ (p + h) = (f ◦ p) + (f ◦ h) et (p + h) ◦ f = (p ◦ f ) + (h ◦ f ),

pour tout f, h et p ∈ LK (E, E).


— L’élément neutre de la loi de composition (3.10) est l’opérateur linéaire unité sur E, noté 1E et
défini par :
1E (V ) = V, pour tout V ∈ E, (3.11)

c’est-à-dire que :
f ◦ 1E = 1E ◦ f = f,

pour tout f ∈ LK (E, E).


Par contre cet anneau n’est pas commutatif et admet des diviseurs de zéro. En effet :
— Le composé h ◦ f de deux opérateurs linéaires f et h sur E n’est en général pas identique au
composé f ◦ h. Considérons par exemple un espace vectoriel E sur un champ K de dimension
deux et muni d’une base {V1 , V2 }, et les deux opérateurs linéaires f et h sur E définis pour tout
V = k1 V1 + k2 V2 , avec k1 et k2 ∈ K, par :

f (V ) = k1 V1 + (k2 − k1 ) V2 et h(V ) = k2 V2 .

On a :
(h ◦ f )(V ) = h(f (V )) = h(k1 V1 + (k2 − k1 ) V2 ) = (k2 − k1 ) V2 ,

tandis que :
(f ◦ h)(V ) = f (h(V )) = f (k2 V2 ) = k2 V2 .

On conclut donc que (h ◦ f )(V ) 6= (f ◦ h)(V ) pour tout V = k1 V1 + k2 V2 tel que k1 6= 0K , et


donc que h ◦ f 6= f ◦ h.
— Le composé de deux opérateurs linéaires f et h non nuls peut être nul. Par exemple, toujours dans
l’espace vectoriel E sur K de dimension deux muni de la base {V1 , V2 }, considérons les deux
opérateurs linéaires f et h sur E définis pour tout V = k1 V1 + k2 V2 , avec k1 et k2 ∈ K, par :

f (V ) = k1 V1 et h(V ) = k2 V2 .

On a d’une part que f 6= ω et h 6= ω, et pourtant :

(h ◦ f )(V ) = h(f (V )) = h(k1 V1 ) = 0E = ω(V ), pour tout V ∈ E,

c’est-à-dire que h ◦ f = ω.
En conclusion, l’ensemble LK (E, E) des opérateurs linéaires sur E muni de l’addition (3.7) et de la loi
de composition (3.10) est un anneau unitaire, mais pas un anneau intègre.

Revenons au cas général où E, F et G ne sont pas nécessairement identiques. Le théorème suivant
exprime le lien qui existe entre le rang du composé de deux applications linéaires et le rang de chacune
d’entre elles.

62
Théorème 3.3 Soient E, F et G, trois espaces vectoriels de dimension finie sur un même champ de
scalaires K, et soient f , une application linéaire de E dans F , et h, une application linéaire de F dans
G. Le rang de h ◦ f vérifie :

rang (h ◦ f ) ≤ min{rang h, rang f }.

Preuve
Montrons tout d’abord que rang (h ◦ f ) ≤ rang h. Par les Définitions 3.2 et 3.5, nous avons que :

Im (h ◦ f ) = (h ◦ f )(E)

= {(h ◦ f )(V ) ∈ G | V ∈ E}

= {(h(f (V )) ∈ G | V ∈ E}

= h(f (E)).

Or f (E) ⊆ F , ce qui implique que :


h(f (E)) ⊆ h(F ),
et donc :
Im (h ◦ f ) = h(f (E)) ⊆ h(F ) = Im h.
Par définition du rang d’une application linéaire, nous obtenons :

rang (h ◦ f ) = dim Im (h ◦ f ) ≤ dim Im h = rang h. (3.12)

Montrons ensuite que rang (h ◦ f ) ≤ rang f . Par les Définitions 3.2 et 3.5 et par la propriété P1, on a,
pour tout V ∈ Kerf :
(h ◦ f )(V ) = h(f (V )) = h(0F ) = 0G ,
de sorte que V ∈ Ker (h ◦ f ). Par conséquent :

Kerf ⊆ Ker (h ◦ f ),

ce qui implique que :


dim Kerf ≤ dim Ker (h ◦ f ).
Par le Théorème 3.2, il en découle que :

rang (h ◦ f ) = dim E − dim Ker (h ◦ f )

≤ dim E − dim Kerf

= rang f.

De cette inégalité et de (3.12), nous obtenons finalement :

rang (h ◦ f ) ≤ min{rang h, rang f }.

63
3.4 Application linéaire bijective
Une application linéaire d’un espace vectoriel E dans un espace vectoriel F sur un même champ K
étant, par définition, un homomorphisme de E dans F , une application linéaire bijective de E dans F
sera donc un isomorphisme de E dans F .

Nous avons vu par exemple, à la Section 2.6, que l’application d’un espace vectoriel E sur un champ
K dans l’espace des coordonnées K n qui à tout vecteur de E fait correspondre son vecteur unique de
coordonnées par rapport à une base quelconque de E, était un isomorphisme de E dans K n . Il s’agit donc
d’une application linéaire bijective de E dans K n .

Voyons à présent comment caractériser une telle application. On peut tout d’abord caractériser une
application linéaire injective de la manière suivante.

Théorème 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K, et f , une application linéaire de E dans F . L’application linéaire f est injective si et seulement si
Kerf = {0E }.

Preuve
(⇒) Pour montrer que la condition est nécessaire, supposons que f soit injective et montrons que
Kerf = {0E }. Par la Définition 1.2 [Chapitre 1, Section 1.2], nous avons que :

f (V ) = f (V ′ ) ⇒ V = V ′.

Or pour V ∈ Kerf nous avons, par la définition du noyau d’une part et par la propriété P1 d’autre part :

f (V ) = 0F = f (0E ).

Par application du caractère injectif ci-dessus, il en découle donc que V = 0E , ce qui implique que
Kerf = {0E }.
(⇐) Pour montrer que la condition est suffisante, supposons que Kerf = {0E } et montrons que f est
injective. Soient V et V ′ ∈ E tels que f (V ) = f (V ′ ), il nous faut donc montrer que V = V ′ . Or, par
linéarité de f , nous avons que :

f (V − V ′ ) = f (V ) − f (V ′ ) = 0F ,

où la dernière égalité résulte du fait que f (V ) = f (V ′ ). Nous avons donc que V − V ′ ∈ Kerf , et donc,
puisque Kerf = {0E } par hypothèse, que :

V − V ′ = 0E ,

c’est-à-dire V = V ′ . L’application linéaire f est donc bien injective. 

Notons que pour une application linéaire injective, puisque Kerf = {0E } et donc ν vaut zéro, on a,
par le Théorème 3.2 et le Corollaire 3.1 :

ρ = dim E ≤ dim F.

D’autre part, nous pouvons caractériser une application linéaire surjective de la manière suivante.

64
Théorème 3.5 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K, et f , une application linéaire de E dans F . L’application linéaire f est surjective si et seulement si
Im f = F .

Preuve
Ce résultat est une conséquence directe de la Définition 1.3. 

Pour une application linéaire surjective, puisque Im f = F , nous avons donc :

ρ = dim F ≤ dim E,

où l’inégalité résulte du Corollaire 3.1.

Nous pouvons à présent caractériser une application linéaire bijective par le théorème suivant.

Théorème 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K, et f , une application linéaire de E dans F . L’application linéaire f est bijective si et seulement si
Kerf = {0E } et Im f = F . Dans ce cas :

ρ = dim E = dim F.

Preuve
Ce résultat est une conséquence directe des Théorèmes 3.4 et 3.5. 

Pour une application linéaire bijective f : E → F , on peut définir l’application réciproque f −1 :


F → E (voir [Chapitre 1, Section 1.2]), qui est aussi une application linéaire bijective (c’est-à-dire un
isomorphisme), en vertu du Théorème 1.7 ([Chapitre 1, Section 1.4]). Pour tout V ∈ E et W ∈ F tels
que W = f (V ), on a donc V = f −1 (W ), de sorte que :

(f ◦ f −1 )(W ) = f (f −1 (W )) = f (V ) = W,

c’est-à-dire :
f ◦ f −1 = 1F , (3.13)

où 1F est l’opérateur linéaire unité dans F défini par :

1F (W ) = W, pour tout W ∈ F.

De même, on obtient :
(f −1 ◦ f )(V ) = f −1 (f (V )) = f −1 (W ) = V,

c’est-à-dire :
f −1 ◦ f = 1E , (3.14)

où 1E est l’opérateur linéaire unité dans E défini par (3.11).

Introduisons à présent la définition suivante.

65
Définition 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. Une application linéaire f : E → F est inversible s’il existe une application linéaire f −1 : F → E
telle que f −1 ◦ f = 1E et f ◦ f −1 = 1F .

Il résulte immédiatement de (3.13), (3.14) et du Théorème 1.7 ([Chapitre 1, Section 1.4]) que toute
application linéaire f : E → F bijective est inversible. La réciproque est également vraie, comme le
montre le théorème suivant.

Théorème 3.7 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires
K. Une application linéaire f : E → F est inversible si et seulement si elle est bijective.

Preuve
(⇒) Pour montrer que la condition est nécessaire, supposons que l’application linéaire f est inversible et
montrons qu’elle est bijective. Prouvons tout d’abord le caractère injectif de f . En vertu du Théorème 3.4,
il suffit donc de montrer que Kerf = {0E }. Puisque f est inversible, par la Définition 3.6 il existe une
application linéaire f −1 : F → E telle que :

(f −1 ◦ f )(V ) = f −1 (f (V )) = V, (3.15)

pour tout V ∈ E. Prenons V ∈ Kerf , puisque f −1 est linéaire on a, par la propriété P1 :

(f −1 ◦ f )(V ) = f −1 (f (V )) = f −1 (0F ) = 0E . (3.16)

Les relations (3.15) et (3.16) impliquent donc que si V ∈ Kerf alors V = 0E , c’est-à-dire que Kerf =
{0E }. Prouvons à présent le caractère surjectif de f . Soit W ∈ F , puisque f est inversible, par la
Définition 3.6 on a que :
(f ◦ f −1 )(W ) = f (f −1 (W )) = W, (3.17)

et donc W est l’image par f de f −1 (W ). En d’autres termes, pour tout W ∈ F , il existe V ∈ E tel que
W = f (V ) (avec V = f −1 (W ) ∈ E). Ceci implique que Imf = F et donc que f est surjective par le
Théorème 3.5. Étant injective et surjective, l’application linéaire f est donc bien bijective.

(⇐) Montrons que la condition est suffisante. Si l’application linéaire f est bijective, on peut définir
l’application réciproque f −1 : F → E, qui, comme on l’a vu, est linéaire, en vertu du Théorème 1.7, et
satistait à (3.13) et (3.14). L’application linéaire f est donc bien inversible. 

Revenons au cas particulier où E = F = G, pour lequel l’ensemble LK (E, E) des opérateurs
linéaires sur E muni de l’addition (3.7) et de la loi de composition (3.10) forme un anneau unitaire. Dans
ce cas, nous pouvons déduire du Théorème 3.7 que les éléments inversibles de LK (E, E) (c’est-à-dire
les éléments symétrisables pour la loi de composition (3.10)) se confondent avec les opérateurs linéaires
bijectifs.

66
Chapitre 4

Matrices

Nous avons établi dans la Section 2.6 l’existence d’un isomorphisme entre un espace vectoriel E de
dimension n sur un champ de scalaires K et l’espace des coordonnées K n . Cet isomorphisme, rappelons-
le, associe à un vecteur quelconque de E ses coordonnées (uniques) par rapport à une base de E donnée,
permettant ainsi de ramener tout calcul dans un espace vectoriel E sur un champ K à un calcul sur des
scalaires dans l’espace K n des coordonnées.

Tout comme des coordonnées (c’est-à-dire un ensemble de scalaires) permettent de faire le lien entre
le concept de vecteur et celui base, une matrice (qui sera également un ensemble de scalaires) va permettre
de faire le lien entre le concept d’application linéaire et celui de base. Nous pourrons alors ramener les
opérations et calculs sur les applications linéaires (somme, produit, composé, image, rang, noyau, etc)
à des opérations et calculs sur les matrices. Une matrice étant liée à un choix de bases, nous verrons
également comment se transforment les matrices lorsqu’on change de bases.

4.1 Représentation matricielle d’une application linéaire


Considérons une application linéaire f d’un espace vectoriel En de dimension n sur un champ K dans
un espace vectoriel Fm de dimension m sur le même champ K, et choisissons une base dans chacun des
espaces, soit :
BE = {V1 , V2 , . . . , Vn },

pour En , et :
BF = {W1 , W2 , . . . , Wm },

pour Fm . Voyons comment obtenir une représentation matricielle (ou matrice) de l’application linéaire f
par rapport à ces bases.

Pour tout vecteur V ∈ En , nous savons que nous pouvons exprimer V de façon unique sous forme
d’une combinaison linéaire des vecteur de la base BE :
n
X
V = xj Vj , xj ∈ K, (4.1)
j=1

67
de sorte que, par linéarité de f :
n
X
f (V ) = xj f (Vj ). (4.2)
j=1
Par conséquent, pour tout vecteur V ∈ En , son vecteur image f (V ) ∈ Fm est une combinaison linéaire
des vecteurs images f (V1 ), f (V2 ), . . . , f (Vn ), où V1 , V2 , . . . , Vn sont les vecteurs de la base BE .
L’ensemble des vecteurs images {f (V1 ), f (V2 ), . . . , f (Vn )} constitue donc une partie génératrice de
Imf . Les vecteurs f (Vj ), 1 ≤ j ≤ n, appartenant à Fm , on peut à leur tour les exprimer de façon unique
sous forme de combinaison linéaire des vecteurs de la base BF :

f (V1 ) = a11 W1 + a21 W2 + . . . + am1 Wm ,

f (V2 ) = a12 W1 + a22 W2 + . . . + am2 Wm ,


..
.

f (Vn ) = a1n W1 + a2n W2 + . . . + amn Wm ,

où, pour j fixé, les coefficients aij ∈ K, 1 ≤ i ≤ m, sont les coordonnées du vecteur image f (Vj ) dans
la base BF . En notation raccourcie, cela donne :
m
X
f (Vj ) = aij Wi , 1 ≤ j ≤ n. (4.3)
i=1
Il découle dès lors de (4.2) et (4.3) qu’une fois les bases de En et de Fm fixées, l’application linéaire
f est complètement déterminée par l’ensemble des mn scalaires aij ∈ K (1 ≤ i ≤ m, 1 ≤ j ≤ n),
appelé matrice de f (ou représentation matricielle de f ), et qu’on représente sous la forme d’ un tableau
rectangulaire comportant m lignes et n colonnes :
 
 a11 a12 . . . a1n 
 
 
 a21 a22 . . . a2n 
 
A=  = [aij ]. (4.4)
 .. .. .. 
 . . . 
 
 
am1 am2 . . . amn
Il est important d’observer que la j ème colonne de la matrice A, pour 1 ≤ j ≤ n, contient les coor-
données de l’image du j ème vecteur de la base de En , f (Vj ), en fonction des vecteurs de base de Fm . Ces
coordonnées étant uniques (une fois les bases de En et de Fm fixées), le raisonnement qui précède montre
donc qu’à toute application linéaire correspond une seule matrice (ou représentation matricielle).

Voyons que l’inverse est également vrai, c’est-à-dire qu’à toute matrice correspond une seule applica-
tion linéaire. En effet, supposons fixées les bases de En et de Fm , à toute matrice A définie par (4.4) on
peut associer l’application f : En → Fm qui à tout vecteur V ∈ En donné par (4.1) fait correspondre le
vecteur (4.2) de Fm , où les f (Vj ) sont définis par (4.3). D’une part nous avons que l’application f ainsi
définie est une application linéaire. En effet, pour tout V et V ′ ∈ En tels que :
n
X n
X
V = xj Vj et V′ = x′j Vj ,
j=1 j=1

68
on a, pour tout ℓ et m ∈ K :
n
X n
X n
X

ℓV +mV =ℓ x j Vj + m x′j Vj = (ℓ xj + m x′j ) Vj ,
j=1 j=1 j=1

de sorte que, par définition de f et par les propriétés de la multiplication scalaire et de l’addition vectorielle
dans Fm :
X n
f (ℓ V + m V ) =′ (ℓ xj + m x′j ) f (Vj )
j=1
Xn n
X
= ℓ xj f (Vj ) + m x′j f (Vj )
j=1 j=1

= ℓ f (V ) + m f (V ′ ).

D’autre part f est unique car s’il existe une autre application linéaire g correspondant à la matrice A, on
a, par définition de A (dont la j ème colonne contient les coordonnées de g(Vj ) en fonction des vecteurs
de base de Fm ) :
m
X
g(Vj ) = aij Wi , 1 ≤ j ≤ n,
i=1

c’est-à-dire g(Vj ) = f (Vj ) pour 1 ≤ j ≤ n par (4.3). Il en découle, par linéarité de g, que pour tout
V ∈ En donné par (4.1) :
 
Xn n
X Xn
g(V ) = g  xj Vj  = xj g(Vj ) = xj f (Vj ) = f (V ),
j=1 j=1 j=1

où la dernière égalité résulte de (4.2). Les deux applications sont donc identiques. Le raisonnement qui
précède montre donc qu’une fois les bases fixées, à toute matrice correspond une seule application
linéaire.

Le théorème suivant rassemble, sous forme de conclusion, les résultats démontrés dans cette section.

Théorème 4.1 Soient En et Fm , deux espaces vectoriels de dimension finie n et m, respectivement, sur
un même champ de scalaires K, et soit LK (En , Fm ), l’ensemble des applications linéaires de En dans
Fm . Si En et Fm sont rapportés à des bases BE et BF , respectivement, alors il existe une bijection entre
LK (En , Fm ) et MK (n, m), l’ensemble des matrices d’éléments de K à m lignes et n colonnes.

4.2 Généralités sur les matrices


Considérons un champ K (généralement le champ des réels R ou celui des complexes C). Avant
d’explorer davantage le lien existant entre matrices et applications linéaires, voici quelques généralités sur
les matrices qui nous seront utiles dans la suite du cours :
— Une matrice rectangulaire de dimensions m × n sur K, définie par (4.4), est donc un tableau à m
lignes et à n colonnes d’éléments aij ∈ K.

69
— Si m = n, la matrice est dite carrée d’ordre n. Ses éléments diagonaux sont ceux situés sur la
diagonale principale, à savoir aii pour 1 ≤ i ≤ n.
— Une matrice-colonne (encore appelée vecteur-colonne ou, plus brièvement, vecteur 1 ) est une ma-
trice à une seule colonne (n = 1).
— Une matrice-ligne (encore appelée vecteur-ligne) est une matrice à une seule ligne (m = 1).
— Il découle de la bijection entre l’ensemble des applications linéaires et celui des matrices (Théorème
4.1), que deux matrices A = [aij ] et B = [bij ] sont égales si et seulement si leurs éléments homo-
logues sont égaux :
A = B ⇔ aij = bij , ∀ i, j. (4.5)

Elles ont donc mêmes dimensions.


— La transposée de la matrice A, notée AT , est la matrice obtenue en permutant lignes et colonnes :
 
 a11 a21 . . . am1 
 
 
 a12 a22 . . . am2 
 
AT =  ,
 .. .. .. 
 . . . 
 
 
a1n a2n · · · amn

soit donc :
AT = [a′ij ] avec a′ij = aji .

La transposée d’une matrice de dimensions m × n est donc une matrice de dimensions n × m. En


particulier, la transposée d’un vecteur(-colonne) est un vecteur-ligne et réciproquement.
— Une matrice est symétrique si elle est égale à sa transposée :

A = AT ⇔ aij = aji ∀ i, j.

Elle est nécessairement carrée et ses éléments hors de la diagonale principale sont égaux deux à
deux.
— Dans le cas du champ des complexes C, on appelle matrice hermitienne une matrice A égale à sa
e:
transposée conjuguée, notée A

e
A=A ⇔ aij = a∗ji ∀ i, j.

Une matrice hermitienne est nécessairement carrée et ses éléments diagonaux sont réels. Notons
qu’une matrice hermitienne réelle est symétrique. Toute propriété démontrée pour les matrices her-
mitiennes complexes est donc valable pour les matrices symétriques réelles. Par contre la théorie
des matrices symétriques complexes est différente de celle des matrices hermitiennes.

1. Notons que cette appellation n’est pas en contradiction avec la notion de vecteur puisqu’il s’agit d’un élément de l’espace
des coordonnées K m , lequel est bien un espace vectoriel sur K (voir Section 2.6).

70
— Les opérations de transposition et de transposition conjuguée sont involutives, c’est-à-dire qu’elles
se détruisent lorsqu’elles sont appliquées deux fois :
T ee
AT =A et A = A.

— Une matrice diagonale est une matrice carrée dont tous les éléments hors de la diagonale sont
nuls :
aij = 0K pour i 6= j.

Elle est notée :  


a11 0K · · · 0K 
 
 
 0K a22 · · · 0K 
 
diag(a11 , a22 , . . . , ann ) =  .
 .. .. .. .. 
 . . . . 
 
 
0K 0K · · · ann

Si tous les éléments diagonaux valent 1, on obtient la matrice unité d’ordre n :

1n = diag(1, 1, · · · , 1),

qui correspond à 1En , l’opérateur linéaire unité sur En (rapporté à la même base BE ) :

1En (V ) = V pour tout V ∈ En .

En effet :
1En (Vj ) = Vj , 1 ≤ j ≤ n,

implique : 
n 
 aij = 0K
X pour i 6= j,
1En (Vj ) = aij Vi avec

 a = 1,
i=1 jj

pour 1 ≤ j ≤ n.
— Une matrice triangulaire inférieure est une matrice carrée dont tous les éléments au-dessus de la
diagonale principale sont nuls :

aij = 0K pour i < j,

soit :  
 a11 0K · · · 0K 
 
 
 a21 a22 · · · 0K 
 
 .
 .. .
.. .. .
.. 
 . . 
 
 
an1 an2 · · · ann

71
De même, une matrice triangulaire supérieure est une matrice carrée dont tous les éléments en-
dessous de la diagonale principale sont nuls :

aij = 0K pour i > j,

soit :  
a11 a12 · · · a1n 
 
 
 0K a22 · · · a2n 
 
 .
 .. .. .. .. 
 . . . . 
 
 
0K 0K · · · ann
De plus, une matrice triangulaire est dite normalisée si ses éléments diagonaux valent 1.
— La matrice nulle 0m,n de dimensions m × n est la matrice dont tous les éléments sont nuls. Elle
correspond à l’application nulle ω : En → Fm :

ω(V ) = 0Fm pour tout V ∈ En .

En effet :
ω(Vj ) = 0Fm , 1 ≤ j ≤ n,
implique :
m
X
ω(Vj ) = aij Wi avec aij = 0K ∀ i, j.
i=1
La matrice carrée nulle 0n,n sera notée 0n .

4.3 Opérations matricielles


À chaque opération vue à la Section 3.3 sur les applications linéaires (somme, produit et composition),
correspond une opération sur les matrices, comme nous allons le détailler dans cette section.

4.3.1 L’addition matricielle et la multiplication scalaire


Considérons tout d’abord deux applications linéaires f et g de En dans Fm ayant les représentations
matricielles A = [aij ] et B = [bij ], respectivement, de dimensions m × n par rapport aux bases BE et
BF . Par (3.7), la somme f + g des applications f et g est définie pour tout V ∈ En par :

(f + g)(V ) = f (V ) + g(V ).

Par conséquent, les relations (4.3) deviennent, pour 1 ≤ j ≤ n :

(f + g)(Vj ) = f (Vj ) + g(Vj )


Xm X m
= aij Wi + bij Wi
i=1 i=1
m
X
= (aij + bij ) Wi ,
i=1

72
de sorte que la matrice associée à f + g, notée A + B, est égale à [aij + bij ]. En d’autres termes, la somme
de deux matrices A = [aij ] et B = [bij ] de dimensions m × n est une matrice de dimensions m × n
dont chaque élément est la somme des éléments homologues de A et de B :

A + B = [aij + bij ]. (4.6)

Considérons à présent une application linéaire f de En dans Fm ayant la représentation matricielle


A = [aij ] de dimensions m × n par rapport aux bases BE et BF , et un scalaire k ∈ K. Par (3.8), le
produit kf de l’application f par le scalaire k ∈ K est défini pour tout V ∈ En par :

(kf )(V ) = k f (V ).

Par conséquent, Les relations (4.3) s’écrivent, pour 1 ≤ j ≤ n :

(kf )(Vj ) = k f (Vj )


X m
= k aij Wi
i=1
m
X
= (k aij ) Wi ,
i=1

de sorte que la matrice associée à kf , notée kA, est égale à [k aij ]. En d’autres termes, le produit d’une
matrice A = [aij ] par un scalaire k ∈ K est la matrice obtenue en multipliant chaque élément de A
par k :
kA = [k aij ]. (4.7)

Tout comme nous avons vu au Chapitre 3 que l’ensemble des applications linéaires de En dans Fm
muni des opérations d’addition (3.7) et de multiplication scalaire (3.8) constitue un espace vectoriel sur
K, on vérifie aisément (la preuve est laissée en exercice) que MK (n, m), l’ensemble des matrices de
dimensions m × n d’éléments appartenant au champ K, muni des opérations d’addition (4.6) et de mul-
tiplication scalaire (4.7) constitue un espace vectoriel sur K. On notera cet espace MK (n, m). En parti-
culier, l’élément neutre de l’addition matricielle est la matrice nulle 0m,n et l’opposé d’une matrice A est
la matrice −A obtenue en changeant le signe de tous ses éléments.

De plus, on peut montrer (la preuve est laissée en en exercice) que l’application bijective (cfr. Théorè-
me 4.1) qui existe entre LK (En , Fm ), l’espace des applications linéaires de En dans Fm , et MK (n, m),
l’espace des matrices de dimensions m × n à éléments dans K, est linéaire, et donc que les espaces
vectoriels LK (En , Fm ) et MK (n, m) sont isomorphes. La dimension de ces espaces vectoriels est
mn. En effet, étant isomorphes, ils ont même dimension d’une part, par le Théorème 3.6, et d’autre part
une base de MK (n, m) est constituée des mn matrices Eij dont tous les éléments sont nuls sauf celui

73
d’indices i et j qui vaut 1 :

j
 
..
 0K . 0K 
 
 
 ··· ··· 1 ···  i
Eij =   1 ≤ i ≤ m, 1 ≤ j ≤ n.
 .. 
 . 
 
 
 .. 
 . 
 
 
..
0K . 0K

En effet, d’une part les matrices Eij constituent une partie génératrice de l’espace MK (n, m) car toute
matrice A = [aij ] ∈ MK (n, m) peut s’exprimer comme une combinaison linéaire des mn matrices Eij ,
par (4.6) et (4.7) :
Xm X n
A= aij Eij .
i=1 j=1

D’autre part ces matrices constituent une partie libre car la relation :
m X
X n
bij Eij = 0m,n (4.8)
i=1 j=1

peut s’écrire, par (4.6) et (4.7), sous la forme :

B = 0m,n ,

où la matrice B = [bij ] est telle que bij = 0K pour 1 ≤ i ≤ m et 1 ≤ j ≤ n par l’égalité de deux
matrices. La relation (4.8) implique donc que les coefficients bij sont tous nuls.

Finalement, une matrice est dite antisymétrique si elle est égale à l’opposé de sa transposée :

A = −AT ⇔ aij = −aji ∀ i, j.

Une matrice antisymétrique est nécessairement carrée et ses éléments diagonaux sont nuls. Dans le cas du
champ des complexes C, une matrice est dite antihermitienne si elle est égale à l’opposé de sa transposée
conjuguée :
A = −A e ⇔ aij = −a∗ji ∀ i, j.

Elle est carrée et ses éléments diagonaux sont imaginaires purs. Notons que si A est une matrice symétrique
réelle, alors la matrice B = iA est antihermitienne car :

e = −iAT = −iA = −B,


B

tandis que si A est une matrice antisymétrique réelle, alors la matrice B = iA est hermitienne car :

e = −iAT = iA = B.
B

74
4.3.2 La multiplication matricielle
Voyons à présent comment se traduit matriciellement la composition de deux applications linéaires.
Considérons les applications linéaires f : En → Fm et h : Fm → Gℓ , dont les représentations matricielles
pour les bases BE = {V1 , V2 , . . . , Vn }, BF = {W1 , W2 , . . . , Wm } et BG = {X1 , X2 , . . . , Xℓ }
sont, respectivement, B = [bij ] de dimensions m × n et A = [aki ] de dimensions ℓ × m. Par (3.10), le
composé h ◦ f des applications f et h est défini pour tout V ∈ En par :

(h ◦ f )(V ) = h(f (V )).

Par conséquent, puisque les relations (4.3) s’écrivent, pour l’application f :


m
X
f (Vj ) = bij Wi , 1 ≤ j ≤ n,
i=1

et pour l’application h :

X
h(Wi ) = aki Xk , 1 ≤ i ≤ m,
k=1

elles deviennent, pour le composé h ◦ f et pour 1 ≤ j ≤ n :

(h ◦ f )(Vj ) = h(f (Vj ))


m
!
X
= h bij Wi
i=1
m
X
= bij h(Wi )
i=1
Xm ℓ
X
= bij aki Xk
i=1 k=1 !
Xℓ m
X
= aki bij Xk ,
k=1 i=1

où la troisième égalité résulte de la linéarité de h. Il en découle que la matrice associée à h ◦ f , notée
P
AB, est une matrice C = [ckj ] de dimensions ℓ × n égale à [ m i=1 aki bij ]. En d’autres termes, le produit
C = AB d’une matrice A = [aki ] de dimensions ℓ × m par une matrice B = [bij ] de dimensions
m × n est une matrice C = [ckj ] de dimensions ℓ × n telle que :
m
X
ckj = aki bij , (4.9)
i=1

pour 1 ≤ k ≤ ℓ et 1 ≤ j ≤ n. Il est important de remarquer que le produit AB n’est défini que si le


nombre de colonnes de A est égal au nombre de lignes de B. Le résultat a le nombre de lignes de A et le
nombre de colonnes de B.

La multiplication matricielle vérifie les propriétés suivantes (la preuve est laissée en exercice) :

(AB)C = A(BC), (4.10)

75
A(C + D) = AC + AD et (A + B)C = AC + BC, (4.11)
k(AB) = (kA)B = A(kB), (4.12)
où k ∈ K et où on suppose implicitement que les matrices sont de dimensions compatibles avec l’opération
matricielle dans laquelle elles interviennent. Par contre, le produit matriciel n’est, en général, pas commu-
tatif :
AB 6= BA.
Si AB existe, il se peut d’ailleurs que BA n’existe pas si le nombre de colonnes de B n’est pas égal au
nombre de lignes de A.

Pour une matrice A de dimensions m × n, on a :

A1n = 1m A = A,

ainsi que :
A0n = 0m A = 0m,n .
Notons par contre qu’inversement, le produit de deux matrices peut être nul sans qu’aucun facteur ne le
soit, comme le montre cet exemple :
   
 
 2 1   0 0 
  1 3  
    
 4 2   =  .
   0 0 
  −2 −6  
8 4 0 0

Par ces observations et parallèlement à ce que nous avons observé à la Section 3.3 pour LK (E, E)
(l’ensemble des opérateurs linéaires sur E), on vérifie aisément que l’ensemble des matrices carrées
d’ordre n, noté MK (n), muni des opérations d’addition matricielle (4.6) et de multiplication matricielle
(4.9), constitue un anneau unitaire, mais pas un anneau intègre. On peut en effet vérifier que :
— MK (n) muni de l’addition (4.6) est un groupe commutatif.
— La multiplication matricielle (4.9) est associative (cfr. (4.10)).
— La multiplication matricielle (4.9) est distributive par rapport à l’addition matricielle (4.6) (cfr.
(4.11)).
— L’élément neutre de la multiplication matricielle (4.9) est 1n , la matrice unité d’ordre n.
Par contre :
— La multiplication matricielle (4.9) est généralement non commutative.
— L’anneau unitaire des matrices carrées d’ordre n admet des diviseurs de zéro.

Revenons au cas général des matrices de dimensions m × n. Voici quelques propriétés relatives au
produit de deux matrices.

Propriété 4.1 La matrice transposée d’un produit C = AB est le produit des matrices transposées dans
l’ordre inverse :
C T = B T AT . (4.13)

76
Preuve
Par définition de la transposée d’une matrice, l’élément c′kj de C T vaut cjk et donc s’obtient en permutant
k et j dans (4.9) :
Xm

ckj = cjk = aji bik .
i=1

Par définition de AT et BT et par commutativité de la multiplication dans K, on obtient :


m
X
c′kj = b′ki a′ij ,
i=1

ce qui constitue bien l’élément d’indices k et j de B T AT . 

Propriété 4.2 Le produit de deux matrices triangulaires inférieures (supérieures) est une matrice trian-
gulaire inférieure (supérieure). De plus, si les facteurs sont normalisés, le produit est normalisé.

Preuve
Soit le produit C = AB = [ckj ], avec A = [aki ] et B = [bij ] carrées d’ordre n et triangulaires inférieures,
c’est-à-dire telles que aki = 0K pour k < i et bij = 0K pour i < j. Par (4.9), l’élément ckj de C pour
k < j vaut :
n
X j−1
X Xn
ckj = aki bij = aki bij + aki bij = 0K ,
i=1 i=1 i=j

car bij = 0K dans la première somme (puisque i < j) et aki = 0K dans la seconde somme (puisque
k < j ≤ i). La preuve est similaire dans le cas de matrices triangulaires supérieures.
Supposons à présent que les matrices A et B soient des matrices triangulaires inférieures normalisées.
Dans ce cas on a, pour C = AB = [ckj ] et si k = j :

n
X j−1
X n
X
cjj = aji bij = aji bij + ajj bjj + aji bij = 1,
i=1 i=1 i=j+1

car bij = 0K dans la première somme (puisque i < j), ajj = bjj = 1 (puisque A et B sont normalisées),
et aji = 0K dans la dernière somme (puisque j < i). 

Propriété 4.3 Le produit de deux matrices diagonales est une matrice diagonale. De plus, ce produit est
commutatif.

Preuve
Soit le produit C = AB = [ckj ], avec A = [aki ] et B = [bij ] carrées d’ordre n et diagonales, c’est-à-dire
telles que aki = 0K pour k 6= i et bij = 0K pour i 6= j. Par (4.9), l’élément hors diagonal ckj de C pour
k 6= j vaut :
X n
ckj = aki bij = 0K ,
i=1

77
puisque chaque terme de la somme est nul. En effet, dans chaque terme de cette somme, au moins un des
deux indices k ou j est différent de i, puisque k 6= j, et donc soit aki = 0K soit bij = 0K (soit les deux).
La matrice C est donc diagonale.
Pour montrer que le produit C = AB = [ckj ] est commutatif, considérons l’élément diagonal cjj de
C = AB. Par (4.9), il vaut :
n
X j−1
X n
X
cjj = aji bij = aji bij + ajj bjj + aji bij = ajj bjj ,
i=1 i=1 i=j+1

puisque aji = bij = 0K dans la première somme et dans la dernière somme. Considérons le produit
D = BA = [dkj ], l’élément diagonal djj de la matrice D (qui est diagonale par la première partie de la
démonstration) vaut, par un calcul similaire :

djj = bjj ajj .

Il en résulte donc que djj = cjj , par commutativité de la multiplication dans K. Les éléments hors
diagonaux de C et D étant tous nuls et donc égaux, on a bien que C = D, c’est-à dire que AB = BA. 

Pour terminer cette section sur le produit matriciel, notons qu’il est parfois commode de décomposer
une matrice en blocs, encore appelés sous-matrices. On obtient par exemple des matrices diagonales par
blocs :  
 A11 0p,n−p 
A = diag(A11 , A22 ) =  ,
0n−p,p A22
où A, A11 et A22 sont des matrices carrées d’ordre n, p et n − p, respectivement. On peut montrer sans
peine (la preuve est laissée en exercice) que les règles d’addition, de multiplication et de transposition
s’étendent aux blocs. Ainsi, par exemple, le produit :

p q s t
   
m  A11 A12  p  B11 B12 
   
n A21 A22 q B21 B22

donne :
s t
 
m  A11 B11 + A12 B21 A11 B12 + A12 B22 
 
n A21 B11 + A22 B21 A21 B12 + A22 B22
où les dimensions des différentes sous-matrices ont été indiquées. Le transposé du premier facteur donne :

m n
 
p  AT11 AT21 
 .
q AT12 AT22

78
4.4 Rang – Matrice inverse
Nous allons à présent introduire la notion de rang d’une matrice. Pour cela, revenons à l’application
linéaire f : En → Fm introduite à la Section 4.1. Rappelons que le rang de f , par la Définition 3.3, est
la dimension du sous-espace Imf dont une partie génératrice, par (4.2), est donnée par l’ensemble des
vecteurs images de la base BE :

f (BE ) = {f (V1 ), f (V2 ), . . . , f (Vn )}.

Toute partie génératrice contenant une base, par le Théorème 2.13, le rang de f est donc égal au nombre
maximum de vecteurs linéairement indépendants dans f (BE ).

Considérons maintenant A, la représentation matricielle (4.4) de f par rapport à des bases fixées BE
et BF . Les colonnes de A constituent des vecteurs de K m contenant les coordonnées des vecteurs f (Vj ),
1 ≤ j ≤ n, dans la base BF de Fm . Le sous-espace de K m engendré par ces n colonnes, appelé l’espace
colonne de la matrice A, est isomorphe à Imf (voir Section 2.6). La dimension de cet espace colonne,
notée r, est égale au nombre maximum de colonnes de A linéairement indépendantes. Elle représente le
rang de la matrice A et est donc égale au rang de f .

Définition 4.1 Le rang d’une matrice est le nombre maximum de colonnes linéairement indépendantes.

On définit semblablement l’espace ligne de la matrice A comme le sous-espace de K n engendré


par ses m lignes. En fait, l’espace colonne et l’espace ligne ont même dimension, comme l’indique le
théorème suivant.

Théorème 4.2 Dans une matrice A = [aij ] de dimensions m × n, le nombre maximum de colonnes
linéairement indépendantes est égal au nombre maximum de lignes linéairement indépendantes.

Preuve
Désignons par r et r ′ le nombre maximum de colonnes et de lignes linéairement indépendantes dans A,
respectivement, et démontrons que r ′ ≤ r. En travaillant ensuite avec la transposée AT , on aura, par un
raisonnement semblable, que r ≤ r ′ , et donc que r = r ′ .
Notons zj , 1 ≤ j ≤ n, les vecteurs-colonnes de A, et supposons, pour la simplicité, que les r premières
colonnes de A :  
 a1j 
 
 
 a2j 
 
zj =  , 1 ≤ j ≤ r, (4.14)
 .. 
 . 
 
 
amj
soient linéairement indépendantes. Elles constituent donc une base de l’espace colonne de A, de sorte que
chaque colonne de A s’exprime de façon unique comme combinaison linéaire de ces r colonnes :
r
X
zi = ℓji zj , (4.15)
j=1

79
pour 1 ≤ i ≤ n, avec en particulier ℓji = δji pour 1 ≤ i ≤ r, où δji est le symbole de Kronecker :

1 si j = i,
δji =
0 si j 6= i.
K

En développant les relations (4.15) pour chaque élément aki de la colonne zi , on peut écrire, pour 1 ≤
i≤n:
X r
aki = ℓji akj , 1 ≤ k ≤ m,
j=1

ou encore, en collectant tous les aki pour 1 ≤ i ≤ n :


  r r r !
X X X
ak1 ak2 · · · akn = ℓj1 akj ℓj2 akj · · · ℓjn akj
j=1 j=1 j=1
r
X  
= akj ℓj1 ℓj2 · · · ℓjn ,
j=1

pour 1 ≤ k ≤ m, où le membre de gauche représente la ligne k de A. Les m lignes de A sont donc
engendrées par r vecteurs-lignes :
 
ℓj1 ℓj2 · · · ℓjn , 1 ≤ j ≤ r.

Comme toute partie génératrice contient une base, par le Théorème 2.13, la dimension r ′ de l’espace ligne
de A ne peut donc être supérieure à r :
r ′ ≤ r,

ce qui termine la preuve. 

Le Théorème 4.2 nous permet donc de dire que le rang r d’une matrice de dimensions m × n est
donné par le nombre maximum de colonnes ou de lignes linéairement indépendantes. En particulier, le
rang d’une matrice est inférieur aux deux dimensions de la matrice :

r ≤ min{m, n}, (4.16)

ce qui correspond au Corollaire 3.1 pour les applications linéaires.

On peut obtenir une autre caractérisation du rang d’une matrice par le biais de la définition et du
théorème suivants.

Définition 4.2 Une matrice carrée d’ordre n est singulière si son rang r est inférieur à son ordre :

r < n.

Elle est non singulière, ou encore, régulière si son rang est égal à son ordre :

r = n.

Théorème 4.3 Le rang d’une matrice est l’ordre maximum d’une sous-matrice carrée non singulière.

80
Preuve
Montrons tout d’abord qu’une matrice A de dimensions m × n et de rang r possède une sous-matrice
carrée non singulière d’ordre r. Nous montrerons ensuite que A ne possède pas de sous-matrice carrée
non singulière d’ordre supérieur à r.
Par la Définition 4.1, la matrice A de rang r contient r colonnes linéairement indépendantes, par exemple
les r premières. Désignons par B la matrice de dimensions m × r obtenue en supprimant dans A les n − r
dernières colonnes. La matrice B est de rang r, puisque ses r colonnes sont linéairement indépendantes.
En vertu du Théorème 4.2, la matrice B a également r lignes linéairement indépendantes. Supposons à
nouveau que ces r lignes linéairement indépendantes soient les r premières. En supprimant les m − r
dernières lignes de B, on obtient une matrice carrée C, d’ordre r, qui est la sous-matrice carrée de A
construite sur ses r premières lignes et colonnes. Cette sous-matrice d’ordre r a ses r lignes linéairement
indépendantes, par construction, et est donc non singulière.
Montrons à présent qu’il n’existe pas dans A de sous-matrice carrée non singulière d’ordre supérieur à r.
Pour cela, considérons une sous-matrice carrée de A, notée D, non singulière et d’ordre s, qu’on suppose
construite sur les s premières lignes et colonnes de A. La relation linéaire entre les s premières colonnes
de A :  
 a1i 
 
 
X 
s 
 a2i 
λi   = 0m,1 , (4.17)
 .. 
i=1  . 
 
 
ami

λi ∈ K, implique la même relation entre les colonnes de D :


 
a1i 
 
 
X 
s 
a2i 
λi   = 0s,1 ,
 .. 
i=1  . 
 
 
asi

laquelle implique que :


λi = 0K , 1 ≤ i ≤ s, (4.18)

puisque les colonnes de D sont linéairement indépendantes. La relation (4.17) n’est donc vérifiée que
pour (4.18), de sorte que les s premières colonnes de A sont linéairement indépendantes, et donc s ≤ r.


Le théorème suivant permet de caractériser une matrice non singulière.

Théorème 4.4 Une matrice carrée est non singulière si et seulement si elle est la représentation matri-
cielle d’une application linéaire bijective.

81
Preuve
(⇒) Pour montrer que la condition est nécessaire, considérons une matrice carrée A, d’ordre n et non
singulière. Le rang r de A est donc égal à son ordre n, par la Définition 4.2. L’application linéaire f :
En → Fn dont A est la représentation matricielle par rapport à des bases de En et de Fn fixées est
donc telle que la dimension de Imf vaut n, puisque Imf est isomorphe à l’espace colonne de A dont
la dimension vaut n. On a donc que Imf et Fn ont même dimension, ce qui implique que Imf = Fn ,
par le Théorème 2.14, et donc que l’application f est surjective, par le Théorème 3.5. De plus, par le
Théorème 3.2, la nullité de f vaut dim En − rang f , c’est-à-dire zéro, de sorte que Ker f = {0En } et
l’application linéaire est donc aussi injective, par le Théorème 3.4. Elle est donc bijective.
(⇐) Montrons que la condition est suffisante. Si f : En → Fn est une application linéaire bijective,
Imf = Fn par le Théorème 3.6, et donc son rang est égal à n, la dimension de Fn . L’espace colonne de
la matrice carrée correspondante à f étant isomorphe à Imf , le rang de cette matrice vaut n et est dans ce
cas égal à son ordre. Cette matrice est donc non singulière, par la Définition 4.2. 

La définition suivante, qui introduit les matrices inversibles, est la “traduction matricielle” de la Défini-
tion 3.6 relative aux applications linéaires inversibles.

Définition 4.3 Une matrice carrée A d’ordre n est inversible s’il existe une matrice carrée A−1 d’ordre
n telle que AA−1 = A−1 A = 1n . La matrice A−1 est appelée l’inverse de A.

Notons qu’en associant les Théorèmes 4.4 et 3.7, on obtient qu’une matrice carrée est non singulière
si et seulement si elle est inversible.

Remarquons qu’en fait, la relation AA−1 = 1n définit une matrice inverse A−1 à droite de A et la
relation A−1 A = 1n , une matrice inverse A−1 à gauche de A. Cependant, par la bijection entre l’ensemble
des matrices et celui des applications linéaires (Théorème 4.1), l’inverse à droite est identique à l’inverse
à gauche puisque, dans f ◦ f −1 = 1F et f −1 ◦ f = 1E , on a la même application linéaire réciproque f −1 .
De plus, puisque cette application réciproque est unique, la matrice inverse A−1 est unique. On vérifie
d’ailleurs que si B est un autre inverse de A, on a AB = 1n , de sorte que :

B = 1n B = A−1 AB = A−1 1n = A−1 ,

c’est-à-dire B = A−1 .

Concernant le produit de deux matrices, nous pouvons encore donner les propriétés suivantes.

Propriété 4.4 La matrice inverse d’un produit C = AB est le produit des matrices inverses dans l’ordre
inverse :
C −1 = B −1 A−1 . (4.19)

Preuve
On a en effet que :
ABB −1 A−1 = A1n A−1 = AA−1 = 1n ,

82
par définition de l’inverse d’une matrice. 

Une conséquence immédiate de la Propriéte 4.4 est que le produit de matrices non singulières est une
matrice non singulière. Enfin, par le Théorème 3.3, nous pouvons conclure par le résultat suivant.

Propriété 4.5 Le rang d’un produit de matrices est inférieur au rang de chaque facteur :

rang AB ≤ min{rang A, rang B}.

4.5 Changement de bases – Matrices équivalentes et semblables


Soient l’application linéaire f : En → Fm où les espaces vectoriels En et Fm sont rapportés aux
bases BE et BF , respectivement, et la représentation matricielle A de f par rapport aux bases BE et BF
donnée par (4.4). Comme nous l’avons vu au début de ce chapitre, la représentation matricielle d’une
application linéaire f est liée au choix des bases BE et BF . Nous allons voir, dans cette section, comment
se transforme la représentation matricielle de f lorsqu’on change de bases.

Voyons tout d’abord comment calculer, à l’aide de la matrice A, les coordonnées, notées yi pour
1 ≤ i ≤ m, du vecteur image f (V ) ∈ Fm dans la base BF . Pour cela, reformulons ce que nous avons
vu dans la Section 4.1 en utilisant la règle du produit matriciel. Observons qu’en combinant (4.2) et (4.3),
nous pouvons écrire :
X n
f (V ) = xj f (Vj )
j=1
n
X m
X
= xj aij Wi
j=1  i=1 
Xm Xn
=  aij xj  Wi ,
i=1 j=1

de sorte que les coordonnées (uniques) de f (V ) par rapport à la base BF sont données par :
n
X
yi = aij xj , 1 ≤ i ≤ m. (4.20)
j=1

Désignons à présent par :  


 x1 
 
 
 x2 
 
x =   ∈ K n,
 .. 
 . 
 
 
xn

83
le vecteur(-colonne) des coordonnées de V relatives à BE (cfr. (4.1)), et par :
 
 y1 
 
 
 y2 
 
y =   ∈ K m,
 .. 
 . 
 
 
ym

celui des coordonnées de f (V ) par rapport à BF . Nous pouvons alors écrire les relations (4.20) sous la
forme matricielle suivante :
y = Ax, (4.21)

qui équivaut à :     
 y1   a11 a12 . . . a1n   x1 
    
    
 y2   a21 a22 . . . a2n   x2 
    
 =  ,
 ..   .. .. ..   .. 
 .   . . .  . 
    
    
ym am1 am2 . . . amn xn

et qui définit une application linéaire A : K n → K m . En effet, l’application définie par (4.21) est bien
linéaire puisqu’elle satisfait à la Définition 3.1, étant donné que d’une part K n et K m sont des espaces
vectoriels sur K, et que d’autre part il découle de (4.11) et (4.12) que cette application conserve les
opérations d’addition matricielle et de multiplication scalaire. En conclusion, tout comme nous avons
montré à la Section 2.6 qu’une fois la base fixée, tout calcul dans l’espace vectoriel E sur K se ramène à
un calcul dans celui des coordonnées K n grâce à l’isomorphisme entre E et K n , nous pouvons maintenant
dire qu’une fois les bases fixées, étudier l’application linéaire f : En → Fm revient à étudier l’application
linéaire définie par la matrice A grâce à l’isomorphisme entre les espaces vectoriels LK (En , Fm ) et
MK (n, m).

Examinons à présent comment se transforme la représentation matricielle A de l’application linéaire


f par rapport aux bases BE et BF lorsqu’on choisit d’autres bases :

B E = {V 1 , V 2 , . . . , V n },

pour En , et :
B F = {W 1 , W 2 , . . . , W m },

pour Fm .

On peut tout d’abord exprimer les vecteurs V j ∈ En de la base B E en fonction de la base BE :


n
X
Vj = pij Vi , 1 ≤ j ≤ n, (4.22)
i=1

84
où la matrice carrée P = [pij ] d’ordre n s’appelle la matrice de transition de la base BE à la base B E .
Chaque colonne de P représente le vecteur des coordonnées de V j par rapport à BE . L’espace K n étant
isomorphe à En , ces vecteurs-colonnes sont linéairement indépendants, comme le sont les vecteurs de
B E . Il en découle que la matrice P est non singulière et donc inversible.

Considérons à présent le vecteur V ∈ En donné par (4.1). Ce vecteur s’exprime, en fonction de la


nouvelle base B E , par :
n
X
V = xj V j , xj ∈ K.
j=1

Par (4.22), on obtient donc :


 
n
X n
X n
X n
X
V = xj pij Vi =  pij xj  Vi .
j=1 i=1 i=1 j=1

En identifiant cette dernière expression à (4.1) (la décomposition du vecteur V dans la base BE étant
unique), on trouve :
X n
xi = pij xj , 1 ≤ i ≤ n,
j=1

ou encore, en notation matricielle :


x = P x, (4.23)

où :  
 x1 
 
 
 x2 
 
x =  .
 .. 
 . 
 
 
xn

De manière similaire, on peut exprimer les vecteurs W j ∈ Fm de la base B F en fonction de la base


BF :
Xm
Wj = qij Wi , 1 ≤ j ≤ m,
i=1

avec une matrice de transition Q = [qij ] de la base BF à la base B F qui est non singulière et donc
inversible. Le vecteur f (V ) ∈ Fm , de coordonnées y j pour 1 ≤ j ≤ m dans la base B F :
m
X
f (V ) = yj W j ,
j=1

devient donc :  
m
X m
X m
X Xm
f (V ) = yj qij Wi =  qij yj  Wi ,
j=1 i=1 i=1 j=1

85
de sorte que l’on peut écrire (par unicité de la décomposition du vecteur f (V ) dans la base BF ) :

y = Q y, (4.24)

avec :  
 y1 
 
 
 y2 
 
y =  .
 .. 
 . 
 
 
ym

Revenons pour terminer à la relation (4.21). Grâce à (4.23) et (4.24), nous pouvons à présent l’écrire
en fonction des nouvelles bases B E et B F :

Q y = AP x,

soit :
y = A x,

où
A = Q−1 AP (4.25)

est la représentation matricielle de l’application linéaire f dans les nouvelles bases B E et B F . La


relation (4.25) exprime donc l’effet d’un changement de bases sur la matrice d’une application linéaire.

Observons que les matrices A et A sont équivalentes, en accord avec la définition suivante.

E
Définition 4.4 Deux matrices A et B de dimensions m × n sont dites équivalentes, ce qu’on note A = B,
s’il existe une matrice carrée G non singulière d’ordre m et une matrice carrée H non singulière d’ordre
n telles que A = GBH.

Notons d’une part que deux matrices équivalentes ont même rang. En effet, par la Propriété 4.5 on a,
par A = GBH, que :
rang A ≤ rang B,

et, par B = G−1 AH −1 , que :


rang B ≤ rang A,

de sorte que rang A = rang B.


E
Notons d’autre part que la correspondance A = B est une relation d’équivalence car elle est :
E
1. Réflexive : A = A puisque A = 1m A1n .
E E
2. Symétrique : si A = B, par A = GBH on a que B = G−1 AH −1 , et donc B = A.

86
E E
3. Transitive : de A = B et B = C, on déduit par :

A = GBH et B = ICJ

(où I et J sont carrées non singulières d’ordre m et n, respectivement) que :

A = G(ICJ)H = (GI)C(JH),

où GI et JH sont carrées non singulières (comme produit de matrices non singulières) d’ordre m
E
et n, respectivement. Il en résulte que A = C.

Dans le cas particulier d’un opérateur linéaire, on a En = Fn . En choisissant alors BE = BF et


B E = B F , on obtient P = Q, de sorte que deux matrices A et A de f relativement à des bases différentes
sont liées par la relation :
A = P −1 AP.

Cette relation fondamentale entre matrices est définie comme suit.

S
Définition 4.5 Deux matrices A et B carrées d’ordre n sont dites semblables, ce qu’on note A = B, s’il
existe une matrice carrée G non singulière d’ordre n telle que A = GBG−1 .

On vérifie aisément que la similitude est également une relation d’équivalence.

87

Vous aimerez peut-être aussi