0% ont trouvé ce document utile (0 vote)
34 vues339 pages

Alge Bre

Transféré par

poiuyt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
34 vues339 pages

Alge Bre

Transféré par

poiuyt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

ALGÈBRE

COURS DE MATHÉMATIQUES
PREMIÈRE ANNÉE

Exo7
À la découverte de l’algèbre
La première année d’études supérieures pose les bases des mathématiques. Pourquoi se lancer dans une telle
expédition ? Déjà parce que les mathématiques vous offriront un langage unique pour accéder à une multitude
de domaines scientifiques. Mais aussi parce qu’il s’agit d’un domaine passionnant ! Nous vous proposons de
partir à la découverte des maths, de leur logique et de leur beauté.
Dans vos bagages, des objets que vous connaissez déjà : les entiers, les fonctions... Ces notions en apparence
simples et intuitives seront abordées ici avec un souci de rigueur, en adoptant un langage précis et en présentant
les preuves. Vous découvrirez ensuite de nouvelles théories (les espaces vectoriels, les équations
différentielles,...).
Ce tome est consacré à l’algèbre et se divise en deux parties. La première partie débute par la logique et les
ensembles, qui sont des fondamentaux en mathématiques. Ensuite vous étudierez des ensembles particuliers :
les nombres complexes, les entiers ainsi que les polynômes. Cette partie se termine par l’étude d’une première
structure algébrique, avec la notion de groupe.
La seconde partie est entièrement consacrée à l’algèbre linéaire. C’est un domaine totalement nouveau pour
vous et très riche, qui recouvre la notion de matrice et d’espace vectoriel. Ces concepts, à la fois profonds et
utiles, demandent du temps et du travail pour être bien compris.
Les efforts que vous devrez fournir sont importants : tout d’abord comprendre le cours, ensuite connaître par
cœur les définitions, les théorèmes, les propositions... sans oublier de travailler les exemples et les
démonstrations, qui permettent de bien assimiler les notions nouvelles et les mécanismes de raisonnement.
Enfin, vous devrez passer autant de temps à pratiquer les mathématiques : il est indispensable de résoudre
activement par vous-même des exercices, sans regarder les solutions. Pour vous aider, vous trouverez sur le site
Exo7 toutes les vidéos correspondant à ce cours, ainsi que des exercices corrigés.
Au bout du chemin, le plaisir de découvrir de nouveaux univers, de chercher à résoudre des problèmes... et d’y
parvenir. Bonne route !
Sommaire

1 Logique et raisonnements 1

1 Logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Ensembles et applications 11

1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4 Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

5 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Nombres complexes 31

1 Les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2 Racines carrées, équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Argument et trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4 Nombres complexes et géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4 Arithmétique 45

1 Division euclidienne et pgcd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2 Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5 Polynômes 59

1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2 Arithmétique des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3 Racine d’un polynôme, factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

6 Groupes 71

1 Groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

2 Sous-groupes ............................................... 76

3 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

4 Le groupe Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5 Le groupe des permutations Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

7 Systèmes linéaires 87
1 Introduction aux systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 87

2 Théorie des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

3 Résolution par la méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

8 Matrices 99

1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

2 Multiplication de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

3 Inverse d’une matrice : définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

4 Inverse d’une matrice : calcul ..................................... 108

5 Inverse d’une matrice : systèmes linéaires et matrices élémentaires . . . . . . . . . . . . . . 110

6 Matrices triangulaires, transposition, trace, matrices symétriques ............... 117

9 L’espace vectoriel Rn 123

1 Vecteurs de Rn .............................................. 123

2 Exemples d’applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

3 Propriétés des applications linéaires ................................. 132

10 Espaces vectoriels137

1 Espace vectoriel (début) ........................................ 137

2 Espace vectoriel (fin) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

3 Sous-espace vectoriel (début) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

4 Sous-espace vectoriel (milieu) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

5 Sous-espace vectoriel (fin) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

6 Application linéaire (début). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

7 Application linéaire (milieu) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

8 Application linéaire (fin) ........................................ 161

11 Dimension finie 167

1 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

2 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

3 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

4 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

5 Dimension des sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

12 Matrices et applications linéaires 187

1 Rang d’une famille de vecteurs .................................... 187

2 Applications linéaires en dimension finie .............................. 192

3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198


4 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

13 Déterminants 211

1 Déterminant en dimension 2 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

2 Définition du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

3 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220

4 Calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

5 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

Index
Chapitre

Logique et1
raisonnements

VidØo ■ partie 1. Logique


VidØo ■ partie 2. Raisonnements
Fiche d’exercices ‡ Logique, ensembles, raisonnements

Quelques motivations
• Il est important d’avoir un langage rigoureux. La langue française est souvent ambigüe. Prenons l’exemple
de la conjonction « ou » ; au restaurant « fromage ou dessert » signifie l’un ou l’autre mais pas les deux. Par
contre si dans un jeu de carte on cherche « les as ou les cœurs » alors il ne faut pas exclure l’as de cœur.
Autre exemple : que répondre à la question « As-tu 10 euros en poche ? » si l’on dispose de 15 euros ?
• Il y a des notions difficiles à expliquer avec des mots : par exemple la continuité d’une fonction est souvent
expliquée par « on trace le graphe sans lever le crayon ». Il est clair que c’est une définition peu satisfaisante.
Voici la définition mathématique de la continuité d’une fonction f : I → R en un point x0 ∈ I :

∀ε> 0 ∃δ> 0 ∀x ∈ I (|x0)| <ε).

C’est le but de ce chapitre de rendre cette ligne plus claire ! C’est la


• Enfin les mathématiques tentent de distinguer le vrai du faux. Par exemple « Est-ce qu’une augmentation de
20%, puis de 30% est plus intéressante qu’une augmentation de 50% ? ». Vous pouvez penser « oui » ou «
non », mais pour en être sûr il faut suivre une démarche logique qui mène à la conclusion. Cette démarche
doit être convaincante pour vous mais aussi pour les autres. On parle de raisonnement.

Les mathématiques sont un langage pour s’exprimer rigoureusement, adapté aux phénomènes complexes, qui
rend les calculs exacts et vérifiables. Le raisonnement est le moyen de valider — ou d’infirmer — une hypothèse
et de l’expliquer à autrui.
1. Logique

1.1. Assertions
Une assertion est une phrase soit vraie, soit fausse, pas les deux en même temps.
Exemples :
• « Il pleut. »
• « Je suis plus grand que toi. »
• «2+2=4»
• «2×3=7»

• « Pour tout x ∈ R, on a x2 ⩾ 0. »

• « Pour tout z ∈ C, on a |z| = 1. »


LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 2

Si P est une assertion et Q est une autre assertion, nous allons définir de nouvelles assertions construites à partir
de P et de Q.

L’opérateur logique « et »

L’assertion « P et Q » est vraie si P est vraie et Q est vraie. L’assertion « P et Q » est fausse sinon.
On résume ceci en une table de vérité :
P\Q V F
V V F
F F F
FIGURE 1.1 – Table de vérité de « P et Q »

Par exemple si P est l’assertion « Cette carte est un as » et Q l’assertion « Cette carte est cœur » alors l’assertion
« P et Q » est vraie si la carte est l’as de cœur et est fausse pour toute autre carte.

L’opérateur logique « ou »

L’assertion « P ou Q » est vraie si l’une (au moins) des deux assertions P ou Q est vraie. L’assertion « P ou Q » est
fausse si les deux assertions P et Q sont fausses.
On reprend ceci dans la table de vérité :
P\Q V F
V V V
F V F
FIGURE 1.2 – Table de vérité de « P ou Q »

Si P est l’assertion « Cette carte est un as » et Q l’assertion « Cette carte est cœur » alors l’assertion « P ou Q » est
vraie si la carte est un as ou bien un cœur (en particulier elle est vraie pour l’as de cœur).
Remarque.
Pour définir les opérateurs « ou », « et » on fait appel à une phrase en français utilisant les mots ou, et ! Les
tables de vérités permettent d’éviter ce problème.

La négation « non »

L’assertion « non P » est vraie si P est fausse, et fausse si P est vraie.


P V F
non P F V
FIGURE 1.3 – Table de vérité de « non P »

L’implication =⇒

La définition mathématique est la suivante :

L’assertion « (non P) ou Q » est notée « P =⇒ Q ».

Sa table de vérité est donc la suivante :


P\Q V F
LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 3

V V F
F V V
FIGURE 1.4 – Table de vérité de « P =⇒ Q »

L’assertion « P =⇒ Q » se lit en français « P implique Q ».

Elle se lit souvent aussi « si P est vraie alors Q est vraie » ou « si P alors Q ».
Par exemple :

• « 0 ⩽ x ⩽ 25 =⇒ px ⩽ 5 » est vraie (prendre la racine carrée).

• « x ∈]−∞, −4[=⇒ x2 + 3x − 4 > 0 » est vraie (étudier le binôme).

• 0 » est fausse (regarder pour θ = 2π par exemple).


• 2+2=5= » est vraie ! Eh oui, si P est fausse alors l’assertion « P =⇒ Q » est

toujours

vraie.

L’équivalence ⇐⇒

L’équivalence est définie par :

«P ⇐⇒ Q » est l’assertion « (P =⇒ Q) et (Q =⇒ P) ».

On dira « P est équivalent à Q » ou « P équivaut à Q » ou « P si et seulement si Q ». Cette assertion est vraie


lorsque P et Q sont vraies ou lorsque P et Q sont fausses. La table de vérité est :
P\Q V F
V V F
F F V
FIGURE 1.5 – Table de vérité de « P ⇐⇒ Q »

Exemples :
• Pour x, x′ ∈ R, l’équivalence « x · x′ = 0 ⇐⇒ (x = 0 ou x′ = 0) » est vraie.

• Voici une équivalence toujours fausse (quelle que soit l’assertion P) : « P ⇐⇒ non(P)
».

On s’intéresse davantage aux assertions vraies qu’aux fausses, aussi dans la pratique et en dehors de ce chapitre

on écrira « P ⇐⇒ Q » ou « P =⇒ Q » uniquement lorsque ce sont des assertions vraies. Par exemple si l’on écrit «

P ⇐⇒ Q » cela sous-entend « P ⇐⇒ Q est vraie ». Attention rien ne dit que P et Q soient vraies. Cela signifie que

P et Q sont vraies en même temps ou fausses en même temps.


LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 4

Proposition 1.
Soient P,Q, R trois assertions. Nous avons les équivalences (vraies) suivantes :
1. P ⇐⇒ non(non(P))

2. (P et Q) ⇐⇒ (Q et P)

3. (P ou Q) ⇐⇒ (Q ou P)

4. non(P et Q) ⇐⇒ (non P) ou (non Q)

5. non(P ou Q) ⇐⇒ (non P) et (non Q)

6. P et (Q ou R) ⇐⇒ (P et Q) ou (P et R)

7. P ou (Q et R) ⇐⇒ (P ou Q) et (P ou R)

8. « P =⇒ Q » ⇐⇒ « non(Q) =⇒ non(P) »

Démonstration. Voici des exemples de démonstrations :


4. Il suffit de comparer les deux assertions « non(P et Q) » et « (non P) ou (non Q) » pour toutes les valeurs
possibles de P et Q. Par exemple si P est vrai et Q est vrai alors « P et Q » est vrai donc « non(P et Q) » est
faux ; d’autre part (non P) est faux, (non Q) est faux donc « (non P) ou (non Q) » est faux. Ainsi dans ce
premier cas les assertions sont toutes les deux fausses. On dresse ainsi les deux tables de vérités et comme
elles sont égales les deux assertions sont équivalentes.
P\Q V F
V F V
F V V
FIGURE 1.6 – Tables de vérité de « non(P et Q) » et de « (non P) ou (non Q) »

6. On fait la même chose mais il y a trois variables : P, Q, R. On compare donc les tables de vérité d’abord dans
le cas où P est vrai (à gauche), puis dans le cas où P est faux (à droite). Dans les deux cas les deux assertions «

P et (Q ou R) » et « (P et Q) ou (P et R) » ont la même table de vérité donc les assertions sont


équivalentes.

Q\R V F Q\R V F
V V V F
VF
F V F F F F

8. Par définition, l’implication « P =⇒ Q » est l’assertion « (non P) ou Q ». Donc l’implication « non(Q) =⇒ non(P)

» est équivalente à « non(non(Q)) ou non(P) » qui équivaut encore à « Q ou non(P) » et donc est équivalente

à « P =⇒ Q ». On aurait aussi pu encore une fois dresser les deux tables de vérité et voir qu’elles sont égales.
LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 5

1.2. Quantificateurs
Le quantificateur ∀ : « pour tout »

Une assertion P peut dépendre d’un paramètre x, par exemple « x2 ⩾ 1 », l’assertion P(x) est vraie ou fausse
selon la valeur de x.
L’assertion
∀x ∈ E P(x)
est une assertion vraie lorsque les assertions P(x) sont vraies pour tous les éléments x de l’ensemble E.
On lit « Pour tout x appartenant à E, P(x) », sous-entendu « Pour tout x appartenant à E, P(x) est vraie ».
Par exemple :
• « ∀x ∈ [1, +∞2 [ (x2 ⩾ 1) » est une assertion vraie.

• « ∀x ∈ R (x ⩾ 1) » est une assertion fausse.

• « ∀n ∈ N n(n + 1) est divisible par 2 » est vraie.

Le quantificateur ∃ : « il existe »

L’assertion
∃x ∈ E P(x)

est une assertion vraie lorsque l’on peut trouver au moins un x de E pour lequel P(x) est vraie. On lit « il existe x
appartenant à E tel que P(x) (soit vraie) ».
Par exemple :
• « ∃x ∈ R (x2(x − 1)< 0) » est vraie (par exemple x = vérifie bien la propriété).

• « ∃n ∈ N n − n > n » est vraie (il y a plein de choix, par exemple n = 3 convient, mais aussi n = 10 ou même n

= 100, un seul suffit pour dire que l’assertion est vraie).

• « ∃x ∈ R (x2 = −1) » est fausse (aucun réel au carré ne donnera un nombre négatif).

La négation des quantificateurs

La négation de « ∀ x ∈ E P(x) » est « ∃ x ∈ E non P(x) » .

Par exemple la négation de « ∀x ∈ [12, +∞[ (x2 ⩾ 1) » est l’assertion «2∃x ∈ [1, +∞[ (x2 < 1) ». En effet la

négation de x2 ⩾ 1 est non(x ⩾ 1) mais s’écrit plus simplement x < 1.

La négation de « ∃ x ∈ E P(x) » est « ∀ x ∈ E non P(x) ».

Voici des exemples :


LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 6

• La négation de « ∃z ∈ C (z2 + z + 1 = 0) » est « ∀z ∈ C (z2 + z + 1 ̸= 0) ».

• La négation de « ∀x ∈ R (x + 1 ∈ Z) » est « ∃x ∈ R (x + 1 ∈/Z) ».

• Ce n’est pas plus difficile d’écrire la négation de phrases complexes. Pour l’assertion :

∀x ∈ R ∃y > 0 (x + y > 10)

sa négation est
∃x ∈ R ∀y > 0 (x + y ⩽ 10).

Remarques

L’ordre des quantificateurs est très important. Par exemple les deux phrases logiques

∀x ∈ R ∃y ∈ R (x + y > 0) et ∃y ∈ R ∀x ∈ R (x + y > 0).

sont différentes. La première est vraie, la seconde est fausse. En effet une phrase logique se lit de gauche à
droite, ainsi la première phrase affirme « Pour tout réel x, il existe un réel y (qui peut donc dépendre de x) tel que
x + y > 0. » (par exemple on peut prendre y = |x|+ 1). C’est donc une phrase vraie. Par contre la deuxième se lit :
« Il existe un réel y, tel que pour tout réel x, x + y > 0. » Cette phrase est fausse, cela ne peut pas être le même y
qui convient pour tous les x !
On retrouve la même différence dans les phrases en français suivantes. Voici une phrase vraie « Pour toute
personne, il existe un numéro de téléphone », bien sûr le numéro dépend de la personne. Par contre cette
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 7

phrase est fausse : « Il existe un numéro, pour toutes les personnes ». Ce serait le même numéro pour tout le
monde !

Terminons avec d’autres remarques.


• Quand on écrit « ∃x ∈ R (f (x)= 0) » cela signifie juste qu’il existe un réel pour lequel f s’annule. Rien ne dit
que ce x est unique. Dans un premier temps vous pouvez lire la phrase ainsi : « il existe au moins un réel x tel
que f (x)= 0 ». Afin de préciser que f s’annule en une unique valeur, on rajoute un point
d’exclamation :
∃! x ∈ R (f (x)= 0).

• Pour la négation d’une phrase logique, il n’est pas nécessaire de savoir si la phrase est fausse ou vraie. Le
procédé est algorithmique : on change le « pour tout » en « il existe » et inversement, puis on prend la
négation de l’assertion P.
• Pour la négation d’une proposition, il faut être précis : la négation de l’inégalité stricte « < » est l’inégalité
large « ⩾ », et inversement.
• Les quantificateurs ne sont pas des abréviations. Soit vous écrivez une phrase en français : « Pour tout réel x,
si f (x)= 1 alors x ⩾ 0. » , soit vous écrivez la phrase logique :

∀x ∈ R (f (x)= 1 =⇒ x ⩾ 0).

Mais surtout n’écrivez pas « ∀x réel, si f (x)= 1 =⇒ x positif ou nul ». Enfin, pour passer d’une ligne à l’autre

d’un raisonnement, préférez plutôt « donc » à « =⇒ ».

• Il est défendu d’écrire ̸∃,≠ ⇒ . Ces symboles n’existent pas !

Mini-exercices.
1. Écrire la table de vérité du « ou exclusif ». (C’est le ou dans la phrase « fromage ou dessert », l’un ou
l’autre mais pas les deux.)
2. Écrire la table de vérité de « non (P et Q) ». Que remarquez vous ?
3. Écrire la négation de « P =⇒ Q ».

4. Démontrer les assertions restantes de la proposition 1.

5. Écrire la négation de « P et (Q ou R) ».
6. Écrire à l’aide des quantificateurs la phrase suivante : « Pour tout nombre réel, son carré est positif ». Puis
écrire la négation.
7. Mêmes questions avec les phrases : « Pour chaque réel, je peux trouver un entier relatif tel que leur
produit soit strictement plus grand que 1 ». Puis « Pour tout entier n, il existe un unique réel x tel que exp(x)
égale n ».

2. Raisonnements
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 8

Voici des méthodes classiques de raisonnements.

2.1. Raisonnement direct


On veut montrer que l’assertion « P =⇒ Q » est vraie. On suppose que P est vraie et on montre qu’alors Q est

vraie. C’est la méthode à laquelle vous êtes le plus habitué.

Exemple 1.
Montrer que si a, b ∈ Q alors a + b ∈ Q.
Démonstration. Prenons a ∈ Q, b ∈ Q. Rappelons que les rationnels Q sont l’ensemble des réels s’écrivant qp

avec p ∈pZ et q ∈ N∗. p

a p q b p q
Alors = q pour un certain ∈ Z et un certain ∈ N∗. De même = q′′ avec ′ ∈ Z et ′ ∈ N∗. Maintenant p p′

pq′ + qp′

a + b = q + q′ = qq′ .

Or le numérateur pq′ + qp′ est bien un élément de Z ; le dénominateur qq′ est lui un élément de N ∗. Donc a + b

s’écrit bien de la forme a + b = qp′′′′ avec p′′ ∈ Z, q′′ ∈ N∗. Ainsi a + b ∈ Q.

2.2. Cas par cas


Si l’on souhaite vérifier une assertion P(x) pour tous les x dans un ensemble E, on montre l’assertion pour les x
dans une partie A de E, puis pour les x n’appartenant pas à A. C’est la méthode de disjonction ou du cas par cas.
Exemple 2.
Montrer que pour tout x ∈ R, |x − 1| ⩽ x2 − x + 1.

Démonstration. Soit x ∈ R. Nous distinguons deux cas. 2

Premier cas : x ⩾ 1. Alors |x − 12| = x − 1. Calculons alors2 x − x + 1 −|x − 1|. x

− x + 1 −|x − 1| = x − x + 1 −(x − 1)

=x

=(x − 1) + 1 ⩾ 0.


Ainsi x2 − x + 1 −|x − 1| ⩾ 0 et donc x2 − x + 1 |x − 1|. 2 2 2
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 9

Deuxième cas : x < 1. Alors |x−1| = −(x−1). Nous obtenons x −x+1−|x−1| = x −x+1+(x−1)= x ⩾ 0.


Et donc x2 − x + 1 |x − 1|. 2

Conclusion. Dans tous les cas |x − 1| ⩽ x − x + 1.

2.3. Contraposée
Le raisonnement par contraposition est basé sur l’équivalence suivante (voir la proposition 1) :

L’assertion « P =⇒ Q » est équivalente à « non(Q) =⇒ non(P) ».

Donc si l’on souhaite montrer l’assertion « P =⇒ Q », on montre en fait que si non(Q) est vraie alors non(P) est

vraie.

Exemple 3.
Soit n ∈ N. Montrer que si n2 est pair alors n est pair.

Démonstration. Nous supposons que n n’est pas pair. Nous voulons montrer qu’alors n2 n’est pas pair. Comme n

n’est pas pair, il est impair et donc il existe k ∈ N tel que n = 2k+1. Alors n2 =(2k+1)2 = 4k2+4k+1 = 2ℓ+1 avec ℓ= 2k2

+ 2k ∈ N. Et donc n2 est impair. 2

Conclusion : nous avons montré que si n est impair alors n est impair. Par contraposition ceci est équivalent à : si
n2 est pair alors n est pair.
2.4. Absurde
Le raisonnement par l’absurde pour montrer « P =⇒ Q » repose sur le principe suivant : on suppose à la fois que

P est vraie et que Q est fausse et on cherche une contradiction. Ainsi si P est vraie alors Q doit être vraie et donc

« P =⇒ Q » est vraie.

Exemple 4.
Soient a, b ⩾ 0. Montrer que si 1+ab = 1+ba alors a = b.

=
Démonstration. Nous raisonnons par l’absurde en supposant que 1+ab = 1+ba et a ̸ b. Comme 1+ab = 1+ba alors a(1+ a)=

b(1+ b) donc a + a2 = b + b2 d’où a2 − b2 = b − a. Cela conduit à (a − b)(a + b)= −(a − b). Comme a ≠ b alors a − b ≠ 0

et donc en divisant par a − b on obtient a + b = −1. La somme des deux nombres positifs a et b ne peut être

négative. Nous obtenons une contradiction.

Conclusion : si 1+ab = 1+ba alors a = b.


LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 10

Dans la pratique, on peut choisir indifféremment entre un raisonnement par contraposition ou par l’absurde.
Attention cependant de bien préciser quel type de raisonnement vous choisissez et surtout de ne pas changer en
cours de rédaction !

2.5. Contre-exemple
Si l’on veut montrer qu’une assertion du type « ∀x ∈ E P(x) » est vraie alors pour chaque x de E il faut montrer

que P(x) est vraie. Par contre pour montrer que cette assertion est fausse alors il suffit de trouver x ∈ E tel que

P(x) soit fausse. (Rappelez-vous la négation de « ∀x ∈ E P(x) » est « ∃x ∈ E non P(x) ».) Trouver un tel x

c’est trouver un contre-exemple à l’assertion « ∀x ∈ E P(x) ».

Exemple 5.
Montrer que l’assertion suivante est fausse « Tout entier positif est somme de trois carrés ». (Les
carrés sont les 02, 12, 22, 32,... Par exemple 6 = 22 + 12 + 12.)

Démonstration. Un contre-exemple est 7 : les carrés inférieurs à 7 sont 0, 1, 4 mais avec trois de ces nombres on
ne peut faire 7.

2.6. Récurrence
Le principe de récurrence permet de montrer qu’une assertion P(n), dépendant de n, est vraie pour tout n ∈ N.

La démonstration par récurrence se déroule en trois étapes : lors de l’initialisation on prouve P(0). Pour l’étape

d’hérédité, on suppose n ⩾ 0 donné avec P(n) vraie, et on démontre alors que l’assertion P(n + 1) au rang suivant

est vraie. Enfin dans la conclusion, on rappelle que par le principe de récurrence P(n) est vraie pour tout n ∈ N.

Exemple 6.
Montrer que pour tout n ∈ N, 2n > n.

Démonstration. Pour n ⩾ 0, notons P(n) l’assertion suivante :

2n > n.

Nous allons démontrer par récurrence que P(n) est vraie pour tout n ⩾ 0.
Initialisation. Pour n = 0 nous avons 20 = 1 > 0. Donc P(0) est vraie.

Hérédité. Fixons n ⩾ 0. Supposons que P(n) soit vraie. Nous allons montrer que P(n + 1) est vraie.

2n+1 = 2n + 2n > n + 2n car par P(n) nous savons 2n > n, > n + 1 car 2n ⩾

1.

Donc P(n + 1) est vraie.


Conclusion. Par le principe de récurrence P(n) est vraie pour tout n ⩾ 0, c’est-à-dire 2n > n pour tout n ⩾ 0.

Remarques :
• La rédaction d’une récurrence est assez rigide. Respectez scrupuleusement la rédaction proposée : donnez
un nom à l’assertion que vous souhaitez montrer (ici P(n)), respectez les trois étapes (même si souvent
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 11

l’étape d’initialisation est très facile). En particulier méditez et conservez la première ligne de l’hérédité «
Fixons n ⩾ 0. Supposons que P(n) soit vraie. Nous allons montrer que P(n + 1) est vraie. »
• Si on doit démontrer qu’une propriété est vraie pour tout n ⩾ n0, alors on commence l’initialisation au rang
n0.
• Le principe de récurrence est basé sur la construction de l’ensemble N. En effet un des axiomes pour définir

N est le suivant : « Soit A une partie de N qui contient 0 et telle que si n ∈ A alors n + 1 ∈ A. Alors A =N ».

Mini-exercices.


1. (Raisonnement direct) Soient a, b ∈ R+. Montrer que si a ⩽ b alors a ⩽ ⩽ b et a pab ⩽ b.

2. (Cas par cas) Montrer que pour tout n ∈ N, n(n + 1) est divisible par 2 (distinguer les n pairs des n impairs).

3. (pContraposée ou absurde) Soient a, b ∈ Z. Montrer que si b ≠ 0 alors a + bp2 ∈/Q. (On utilisera que

2 ∈/Q.) p
2
4. (Absurde) Soit n ∈ N∗. Montrer que n + 1 n’est pas un entier.

5. (Contre-exemple) Est-ce que pour tout x ∈ R on a x < 2 =⇒ x2 < 4 ?

nn
6. (Récurrence) Montrer que pour tout n ⩾ .
7. (Récurrence) Fixons un réel x ⩾ 0. Montrer que pour tout entier n ⩾ 1, (1 + x) ⩾ 1 + nx.
n
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 12

Auteurs du chapitre Arnaud Bodin, Benjamin Boutin, Pascal Romon


Chapitre

2 Ensembles et applications
VidØo ■ partie 1. Ensembles
VidØo ■ partie 2. Applications
VidØo ■ partie 3. Injection, surjection, bijection
VidØo ■ partie 4. Ensembles finis
VidØo ■ partie 5. Relation d’Øquivalence
Fiche d’exercices ‡ Logique, ensembles, raisonnements
Fiche d’exercices ‡ Injection, surjection, bijection
Fiche d’exercices ‡ DØnombrement
Fiche d’exercices ‡ Relation d’Øquivalence, relation d’ordre

Motivations
Au début du XXe siècle le professeur Frege peaufinait la rédaction du second tome d’un ouvrage qui souhaitait
refonder les mathématiques sur des bases logiques. Il reçut une lettre d’un tout jeune mathématicien : « J’ai bien
lu votre premier livre. Malheureusement vous supposez qu’il existe un ensemble qui contient tous les ensembles.
Un tel ensemble ne peut exister. » S’ensuit une démonstration de deux lignes. Tout le travail de Frege s’écroulait
et il ne s’en remettra jamais. Le jeune Russell deviendra l’un des plus grands logiciens et philosophes de son
temps. Il obtient le prix Nobel de littérature en 1950.
Voici le « paradoxe de Russell » pour montrer que l’ensemble de tous les ensembles ne peut exister. C’est très

bref, mais difficile à appréhender. Par l’absurde, supposons qu’un tel ensemble E contenant tous les ensembles

existe. Considérons
©
¦
E
F = E ∈ E | E ∈/ .
Expliquons l’écriture E ∈/ E : le E de gauche est considéré comme un élément, en effet l’ensemble E est

l’ensemble de tous les ensembles et E est un élément de cet ensemble ; le E de droite est considéré comme un

ensemble, en effet les élément de E sont des ensembles ! On peut donc s’interroger si l’élément E appartient à

l’ensemble E. Si non, alors par définition on met E dans l’ensemble F.

La contradiction arrive lorsque l’on se pose la question suivante : a-t-on F ∈ F ou F ∈/ F ? L’une des deux

affirmation doit être vraie. Et pourtant :

• Si F ∈ F alors par définition de F, F est l’un des ensembles E tel que F ∈/ F. Ce qui est contradictoire.

• Si F ∈/ F alors F vérifie bien la propriété définissant F donc F ∈ F ! Encore contradictoire.


ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 15

Aucun des cas n’est possible. On en déduit qu’il ne peut exister un tel ensemble E contenant tous les

ensembles.

Ce paradoxe a été popularisé par l’énigme suivante : « Dans une ville, le barbier rase tous ceux qui ne se rasent
pas eux-mêmes. Qui rase le barbier ? » La seule réponse valable est qu’une telle situation ne peut exister.

Ne vous inquiétez pas, Russell et d’autres ont fondé la logique et les ensembles sur des bases solides.
Cependant il n’est pas possible dans ce cours de tout redéfinir. Heureusement, vous connaissez déjà quelques
ensembles :
• l’ensemble des entiers naturels N= {0, 1, 2, 3, . . .}.

• l’ensemble des entiers relatifs Z= {. . . , −2, −1, 0, 1, 2, . . .}.

• l’ensemble des rationnels Q= qp |p p .


• l’ensemble des réels R, par exemple 1, 2, π, ln(2),. . .
• l’ensemble des nombres complexes C.

Nous allons essayer de voir les propriétés des ensembles, sans s’attacher à un exemple particulier. Vous vous
apercevrez assez rapidement que ce qui est au moins aussi important que les ensembles, ce sont les relations
entre ensembles : ce sera la notion d’application (ou fonction) entre deux ensembles.

1. Ensembles

1.1. Définir des ensembles


• On va définir informellement ce qu’est un ensemble : un ensemble est une collection d’éléments.
• Exemples :
{0, 1}, {rouge, noir}, {0, 1, 2, 3, . . .} =N.

• Un ensemble particulier est l’ensemble vide, noté ∅ qui est l’ensemble ne contenant aucun élément.
• On note x ∈E

si x est un élément de E, et x ∈/ E dans le cas contraire.

• Voici une autre façon de définir des ensembles : une collection d’éléments qui vérifient une propriété.
• Exemples :

x ∈ R | |x − 2| < 1 , z ∈ C | z5 = 1 ,x∈R|0⩽x⩽1 =[0, 1].

1.2. Inclusion, union, intersection, complémentaire


• L’inclusion. E ⊂ F si tout élément de E est aussi un élément de F. Autrement dit : ∀x ∈ E (x ∈ F). On dit alors

que E est un sous-ensemble de F ou une partie de F.

• L’égalité. E = F si et seulement si E ⊂ F et F ⊂ E.
ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 16

• Ensemble des parties de E. On note P (E) l’ensemble des parties de E. Par exemple si E = {1, 2, 3} :

P .

• Complémentaire. Si A ⊂ E,

∁E A = x ∈E | x ∈
/A

On le note aussi E \ A et juste ∁A s’il n’y a pas d’ambiguïté (et


parfois aussi Ac ou A).

E A ∁E A

A ∪B = x ∈E | x ∈A ou x ∈B
• Union. Pour A, B ⊂ E,

Le « ou » n’est pas exclusif : x peut appartenir à A et à B en même temps.

A A ∪B B

A ∩ B = x ∈E | x ∈A et x ∈B

A A∩ B B

• Intersection.

1.3. Règles de calculs


Soient A, B, C des parties d’un ensemble E.
• A∩ B = B ∩ A

• A∩(B ∩ C)=(A∩ B)∩ C (on peut donc écrire A∩ B ∩ C sans ambigüité)

• A∩∅=∅, A∩ A = A, A ⊂ B ⇐⇒ A∩ B = A

• A∪ B = B ∪ A

• A∪(B ∪ C)=(A∪ B)∪ C (on peut donc écrire A∪ B ∪ C sans ambiguïté)

• A∪∅= A, A∪ A = A, A ⊂ B ⇐⇒ A∪ B = B

• A∩(B ∪ C)=(A∩ B)∪(A∩ C) • A∪(B ∩ C)=(A∪ B)∩(A∪ C)


ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 17

• A et donc A ⊂ B ⇐⇒ ∁B ⊂ ∁A

• ∁(A∩ B)=∁A∪∁B

• ∁(A∪ B)=∁A∩∁B

Voici les dessins pour les deux dernières assertions.


∁A ∁B

A B A B

∁(A ∩ B ) = ∁A ∪∁B ∁(A ∪B ) = ∁A ∩ ∁B

A A∩ B B A A ∪B B

Les preuves sont pour l’essentiel une reformulation des opérateurs logiques, en voici quelques-unes :
• Preuve de A∩(B ∪ C)=(A∩ B)∪(A∩ C) : x ∈ A∩(B ∪ C) ⇐⇒ x ∈ A et x ∈ (B ∪ C) ⇐⇒ x ∈ A et (x ∈

B ou x ∈ C) ⇐⇒ (x ∈ A et x ∈ B) ou (x ∈ A et x ∈ C) ⇐⇒ (x ∈ A ∩ B) ou (x ∈ A ∩ C) ⇐⇒ x ∈

(A∩ B)∪(A∩ C).


• Preuve de ∁(A∩ B) = ∁A ∪ ∁B : x ∈ ∁(A∩ B) ⇐⇒ x ∈/ (A∩ B) ⇐⇒ non x ∈ A ∩ B ⇐⇒ non x ∈ A et x ∈ B

⇐⇒ non(x ∈ A) ou non(x ∈ B) ⇐⇒ x ∈/ A ou x ∈/ B ⇐⇒ x ∈ ∁A∪∁B.


Remarquez que l’on repasse aux éléments pour les preuves.

1.4. Produit cartésien


Soient E et F deux ensembles. Le produit cartésien, noté E × F, est l’ensemble des couples (x, y) où x ∈ E et y ∈ F.

Exemple 1.
1. Vous connaissez R2 =R×R=(x, y) | x, y ∈ R .

2. Autre exemple [0, 1]×R= (x, y) | 0 ⩽ x ⩽ 1, y ∈ R


y

x
0 1
ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 18

3. [0, 1]×[0, 1]×[0, 1]=(x, y, z) | 0 ⩽ x, y, z ⩽ 1


y

z
1
1

0 1 x

Mini-exercices.
1. En utilisant les définitions, montrer : A ≠ B si et seulement s’il existe a ∈ A\ B ou b ∈ B \ A. 2.

Énumérer

3. Montrer A.

4. Énumérer {1, 2, 3}×{1, 2, 3, 4}. 2

5. Représenter les sous-ensembles de R suivants : ] , R\(] × (R\

.
ENSEMBLES ET APPLICATIONS 19
2. APPLICATIONS

2. Applications

2.1. Définitions
• Une application (ou une fonction) f : E → F, c’est la donnée pour chaque élément x ∈ E d’un unique élément

de F noté f (x).

Nous représenterons les applications par deux types d’illustrations : les ensembles « patates », l’ensemble de
départ (et celui d’arrivée) est schématisé par un ovale ses éléments par des points. L’association x 7→ f (x)
est représentée par une flèche.
f

x f (x)
E F

L’autre représentation est celle des fonctions continues de R dans R (ou des sous-ensembles de R).
L’ensemble de départ R est représenté par l’axe des abscisses et celui d’arrivée par l’axe des ordonnées.
L’association x 7→ f (x) est représentée par le point (x, f (x)).
y

f (x)

x
x

• Égalité. Deux applications f , g : E → F sont égales si et seulement si pour tout x ∈ E, f (x)= g(x). On note alors

f = g.

• Le graphe de f : E → F est
¦©
Γf = x, fE × F | x ∈ E
y

Γf

• Composition. Soient f : E → F et g : F → G alors g ◦ f : E → G est l’application définie par g ◦ f (x)= g f (x).


f g

F
E G
ENSEMBLES ET APPLICATIONS 20
g◦f

• Restriction. Soient f : E → F et A ⊂ E alors la restriction de f à A est l’application

f A: A −→ F

|
x 7−→ f (x)

2. APPLICATIONS

Exemple 2.
1. L’identité, idE : E → E est simplement définie par x 7→ x et sera très utile dans la suite. 2.

Définissons f , g ainsi

f : ]0, +x∞[ −7−→→ ]0, +1∞[ , g : ]0, +x∞[ −7−→→ xR−+11 .

x x

Alors g ◦ f : ]0, +∞[→ R vérifie pour tout x ∈]0, +∞[ :

◦ g  1 ‹g(x). g f (x)= g f (x) = x

2.2. Image directe, image réciproque


Soient E, F deux ensembles.
Définition 1.
Soit A ⊂ E et f : E → F, l’image directe de A par f est l’ensemble

f (A)=f (x) | x ∈A
y
f
E F

A f (A)
f (A)
x
A

Définition 2.
Soit B ⊂ F et f : E → F, l’image réciproque de B par f est l’ensemble
−1
f (B ) = x ∈E | f ( x ) ∈B

f
E F y

B
B
x
−1 −1
f (B ) f (B )
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 21
Remarque.
Ces notions sont plus difficiles à maîtriser qu’il n’y paraît !
• f (A) est un sous-ensemble de F, f −1(B) est un sous-ensemble de E.
1
• La notation « f − (B) » est un tout, rien ne dit que f est un fonction bijective (voir plus loin). L’image
réciproque existe quelque soit la fonction.
• L’image directe d’un singleton f ({x}) = f (x) est un singleton. Par contre l’image réciproque d’un singleton f

1
− {y} dépend de f . Cela peut être un singleton, un ensemble à plusieurs éléments ; mais cela peut-être E tout

entier (si f est une fonction constante) ou même l’ensemble vide (si aucune image par f ne vaut y).

2.3. Antécédents
Fixons y ∈ F. Tout élément x ∈ E tel que f (x)= y est un antécédent de y.

En termes d’image réciproque l’ensemble des antécédents de y est f −1({y}).

Sur les dessins suivants, l’élément y admet 3 antécédents par f . Ce sont x1, x2, x3.
f
y

E x3 F
x1 x2 y y
x
x1 x2 x3

Mini-exercices.
1. Pour deux applications f , g : E → F, quelle est la négation de f = g ?

N
2. Représenter le graphe de f : → R définie par n 7→ n+41.

3. Soient f , g, h : R → R définies par f (x)= x2, g(x)= 2x + 1, h(x)= x3 − 1. Calculer f ◦ (g ◦ h) et (f ◦ g)◦ h.

4. Pour la fonction f : R → R définie par x 7→ x2 représenter et calculer les ensembles suivants : f ([0, 1[), f (R),

f (]− 1, 2[), f −1([1, 2[), f −1([−1, 1]), f −1({3}), f −1(R\N).

3. Injection, surjection, bijection

3.1. Injection, surjection


Soit E, F deux ensembles et f : E → F une application.

Définition 3.
f est injective si pour tout x, x′ ∈ E avec f (x)= f (x′) alors x
= x′. Autrement dit : x, x′ E f (x)= f (x′) = x = x′

y F x E y = f (x)
ENSEMBLES ET APPLICATIONS 22
∀ ∈ ⇒

Définition 4.
f est surjective si pour tout y ∈ F, il existe x ∈ E tel que y = f (x). Autrement dit :

∀ ∈ ∃ ∈

Une autre formulation : f est surjective si et seulement si f (E)= F.


Les applications f représentées sont injectives :
f y

)
E F F

x
E
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 23

Les applications f représentées sont surjectives :


f
y

E F F

x
E

Remarque.
Encore une fois ce sont des notions difficiles à appréhender. Une autre façon de formuler l’injectivité et la
surjectivité est d’utiliser les antécédents.
• f est injective si et seulement si tout élément y de F a au plus un antécédent (et éventuellement aucun).
• f est surjective si et seulement si tout élément y de F a au moins un antécédent.

Remarque.
Voici deux fonctions non injectives :
f
y

E F
x x

y y
x
x x

Ainsi que deux fonctions non surjectives :


f y
F
)
y
E F

x
E

Exemple 3.
N
1. Soit f1 : → Q définie par f1(x) = 1+1x . Montrons que f1 est injective : soit x, x′ ∈ N tels que f1(x)= f1(x′). Alors 1+1x =

1
1+ x′ , donc 1 + x = 1 + x′ et donc x = x′. Ainsi f1 est injective.

Par contre f1 n’est pas surjective. Il s’agit de trouver un élément y qui n’a pas d’antécédent par f1. Ici il est
facile de voir que l’on a toujours f1(x)⩽ 1 et donc par exemple y = 2 n’a pas d’antécédent. Ainsi f1 n’est pas
surjective.
2. Soit f2 : Z → N définie par f2(x)= x2. Alors f2 n’est pas injective. En effet on peut trouver deux éléments x, x′ ∈ Z

différents tels que f2(x)= f2(x′). Il suffit de prendre par exemple x = 2, x′ = −2.

f2 n’est pas non plus surjective, en effet il existe des éléments y ∈ N qui n’ont aucun antécédent. Par
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 24

exemple y = 3 : si y = 3 avait un antécédent x par f2, nous aurions f2(x) = y, c’est-à-dire x2 = 3, d’où x = ±p3.

Mais alors x n’est pas un entier de Z. Donc y = 3 n’a pas d’antécédent et f2 n’est pas

surjective.

3.2. Bijection

Définition 5.
f est bijective si elle injective et surjective. Cela équivaut à : pour tout y ∈ F il existe un unique x ∈ E tel

que y = f (x). Autrement dit :


y F !x E y = f (x)
∀ ∈ ∃ ∈

L’existence du x vient de la surjectivité et l’unicité de l’injectivité. Autrement dit, tout élément de F a un unique
antécédent par f .

f y

E F F

x
E

Proposition 1.
Soit E, F des ensembles et f : E → F une application.

1. L’application f est bijective si et seulement si il existe une application g : F → E telle que f ◦ g = idF et g ◦

f = idE.

2. Si f est bijective alors l’application g est unique et elle aussi est bijective. L’application g s’appelle la
bijection réciproque de f et est notée f −1. De plus f −1−1 = f .

Remarque.
• f ◦ g = idF se reformule ainsi

∀y ∈ F f g(y)= y.
• Alors que g ◦ f = idE s’écrit :

∀x ∈ E g f (x)= x.
• Par exemple f : R →]0, +∞[ définie par f (x) = exp(x) est bijective, sa bijection réciproque est g :]0, +∞[→ R

définie par g(y)= ln(y). Nous avons bien exp ln(y)= y, pour tout y ∈]0, +∞[ et ln x, pour tout x ∈ R.

Démonstration.
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 25

1. • Sens ⇒. Supposons f bijective. Nous allons construire une application g : F → E. Comme f est surjective

alors pour chaque y ∈ F, il existe un x ∈ E tel que y = f (x) et on pose g(y) = x. On a f g(y) = f (x) = y, ceci pour

tout y ∈ F et donc f ◦ g = idF. On compose à droite avec f donc f ◦ g ◦ f = idF ◦f . Alors pour tout x ∈ E on a f g ◦

f (x) = f (x) or f est injective et donc g ◦ f (x)= x. Ainsi g ◦ f = idE. Bilan : f ◦ g = idF et g ◦ f = idE.

• Sens ⇐. Supposons que g existe et montrons que f est bijective.

— f est surjective : en effet soit y ∈ F alors on note x = g(y) ∈ E ; on a bien : f (x)= fg(y)= f ◦ g(y)= idF(y)=

y, donc f est bien surjective.

— f est injective : soient x, x′ ∈ E tels que f (x) = f (x′). On compose par g (à gauche) alors g ◦ f (x)= g ◦ f (x′)

donc idE(x)= idE(x′) donc x = x′ ; f est bien injective.

2. • Si f est bijective alors g est aussi bijective car g ◦ f = idE et f ◦ g = idF et on applique ce que l’on vient de

démontrer avec g à la place de f . Ainsi g−1 = f .

• Si f est bijective, g est unique : en effet soit h : F → E une autre application telle que h ◦ f = idE et f ◦ h = idF ;

en particulier f ◦ h = idF = f ◦ g, donc pour tout y ∈ F, f h(y)= f g(y) or f est

injective alors h(y)= g(y), ceci pour tout y ∈ F ; d’où h = g.

Proposition 2.
Soient f : E → F et g : F → G des applications bijectives. L’application g ◦ f est bijective et sa bijection

réciproque est

(g ◦ f )−1 = f −1 ◦ g−1

Démonstration. D’après la proposition 1, il existe u : F → E tel que u ◦ f = idE et f ◦ u = idF. Il existe aussi v : G → F

tel que v◦ g = idF et g ◦v = idG. On a alors (g ◦ f )◦(u◦v)= g ◦(f ◦u)◦v = g ◦idF ◦v = g ◦v = idE. Et (u ◦ v)◦(g ◦ f )= u ◦(v ◦ g)◦ f

= u ◦ idF ◦f = u ◦ f = idE. Donc g ◦ f est bijective et son inverse est u ◦ v.

Comme u est la bijection réciproque de f et v celle de g alors : u ◦ v = f −1 ◦ g−1.

Mini-exercices.
1. Les fonctions suivantes sont-elles injectives, surjectives, bijectives ?
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 26

• f1 : R → [0, +∞[, x 7→ x2.

• f2 : [0, +∞[→ [0, +∞[, x 7→ x2.

• f
• f• f → 7→ | |.

2. Montrer que la fonction f : ]1, +∞[→]0, +∞[ définie par f (x) =est bijective. Calculer sa

bijection réciproque.

4. Ensembles finis

4.1. Cardinal

Définition 6.
Un ensemble E est fini s’il existe un entier n ∈ N et une bijection de E vers {1, 2, . . . , n}. Cet entier n est

unique et s’appelle le cardinal de E (ou le nombre d’éléments) et est noté Card E.

Quelques exemples :

1. E = {rouge, noir} est en bijection avec {1, 2} et donc est de cardinal 2.

2. N n’est pas un ensemble fini.

3. Par définition le cardinal de l’ensemble vide est 0.


Enfin quelques propriétés :

1. Si A est un ensemble fini et B ⊂ A alors B est aussi un ensemble fini et Card B ⩽ Card A.

2. Si A, B sont des ensembles finis disjoints (c’est-à-dire A∩ B =∅) alors Card(A∪ B)= Card A+ Card B.

3. Si A est un ensemble fini et B ⊂ A alors Card(A \ B) = Card A − Card B. En particulier si B ⊂ A et Card A = Card

B alors A = B.

4. Enfin pour A, B deux ensembles finis quelconques :


ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 27

Card(A ∪ B)= Card A+ Card B − Card(A ∩ B)

Voici une situation où s’applique la dernière propriété :

La preuve de la dernière propriété utilise la décomposition


A∪ B = A∪ B \(A∩ B)

Les ensembles A et B \(A∩ B) sont disjoints, donc

Card(A∪ B)= Card A+ Card B\ Card A+ Card B − Card(A∩ B)

par la propriété 2, puis la propriété 3.

4.2. Injection, surjection, bijection et ensembles finis

Proposition 3.
Soit E, F deux ensembles finis et f : E → F une application.

1. Si f est injective alors Card E ⩽ Card F.

2. Si f est surjective alors Card E ⩾ Card F.

3. Si f est bijective alors Card E = Card F.

Démonstration.

1. Supposonsest une bijection. Donc pour chaquef injective. Notons F′ = fy(∈E)F⊂′ F alors la restriction f|
:∈EE→tel queF′ (définie pary = f (x). Doncf|(x)=Efet(xF))′

est associé un unique x


ont le même nombre d’éléments. Donc Card F′ = Card E. Or F′ ⊂ F, ainsi Card E = Card F′ ⩽ Card F.

2. Supposons f surjective. Pour tout élément y ∈ F, il existe au moins un élément x de E tel que y = f (x) et donc

Card E ⩾ Card F.

3. Cela découle de (1) et (2) (ou aussi de la preuve du (1)).

Proposition 4.
Soit E, F deux ensembles finis et f : E → F une application. Si
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 28

Card E = Card F

alors les assertions suivantes sont équivalentes :


i. f est injective,
ii. f est surjective,
iii. f est bijective.

Démonstration. Le schéma de la preuve est le suivant : nous allons montrer successivement les implications :
(i) =⇒ (ii) =⇒ (iii) =⇒ (i)

ce qui prouvera bien toutes les équivalences.


• (i) =⇒ (ii). Supposons f injective. Alors Card f (E)= Card E = Card F. Ainsi f (E) est un sous-ensemble de F ayant

le même cardinal que F ; cela entraîne f (E)= F et donc f est surjective.

• (ii) =⇒ (iii). Supposons f surjective. Pour montrer que f est bijective, il reste à montrer que f est injective.
Raisonnons par l’absurde et supposons f non injective. Alors Card f (E) < Card E (car au moins 2 éléments ont
la même image). Or f (E)= F car f surjective, donc Card F < Card E. C’est une contradiction, donc f doit être
injective et ainsi f est bijective.

• (iii) =⇒ (i). C’est clair : une fonction bijective est en particulier injective.

Appliquez ceci pour montrer le principe des tiroirs :


Proposition 5.
Si l’on range dans k tiroirs, n > k paires de chaussettes alors il existe (au moins) un tiroir contenant (au
moins) deux paires de chaussettes.

Malgré sa formulation amusante, c’est une proposition souvent utile. Exemple : dans un amphi de 400 étudiants,
il y a au moins deux étudiants nés le même jour !

4.3. Nombres d’applications


Soient E, F des ensembles finis, non vides. On note Card E = n et Card F = p.

Proposition 6.
Le nombre d’applications différentes de E dans F est :

pn

Autrement dit c’est. F


(Card )Card E
Exemple 4.
En particulier le nombre d’applications de E dans lui-même est nn. Par exemple si E = {1, 2, 3, 4, 5} alors ce

nombre est 55 = 3125.

Démonstration. Fixons F et p = Card F. Nous allons effectuer une récurrence sur n = Card E. Soit (Pn) l’assertion
suivante : le nombre d’applications d’un ensemble à n éléments vers un ensemble à p éléments est pn.
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 29

• Initialisation. Pour n = 1, une application de E dans F est définie par l’image de l’unique élément de E. Il y a p
= Card F choix possibles et donc p1 applications distinctes. Ainsi P1 est vraie.
• Hérédité. Fixons n ⩾ 1 et supposons que Pn est vraie. Soit E un ensemble à n + 1 éléments. On choisit et fixe a

∈ E ; soit alors E′ = E \{a} qui a bien n éléments. Le nombre d’applications de E′ vers F est pn, par l’hypothèse

de récurrence (Pn). Pour chaque application f : E′ → F on peut la prolonger en une application f : E → F en

choisissant l’image de a. On a p choix pour l’image de a et donc pn × p choix pour les applications de E vers F.

Ainsi Pn+1 est vérifiée.

• Conclusion. Par le principe de récurrence Pn est vraie, pour tout n ⩾ 1.

Proposition 7.
Le nombre d’injections de E dans F est :
p ×(p − 1)×···×(p −(n − 1)).

Démonstration. Supposons E = {a1, a2, . . . , an} ; pour l’image de a1 nous avons p choix. Une fois ce choix fait, pour

l’image de a2 il reste p − 1 choix (car a2 ne doit pas avoir la même image que a1). Pour l’image de a3 il y a p − 2

possibilités. Ainsi de suite : pour l’image de ak il y a p − (k − 1) choix... Il y a au final p ×(p − 1)×···×(p −(n − 1))

applications injectives.

Notation factorielle : n! = 1 × 2 × 3 ×···× n. Avec 1! = 1 et par convention 0! = 1.

Proposition 8.
Le nombre de bijections d’un ensemble E de cardinal n dans lui-même est :

n!

Exemple 5.
Parmi les 3125 applications de {1, 2, 3, 4, 5} dans lui-même il y en a 5! = 120 qui sont bijectives.

Démonstration. Nous allons le prouver par récurrence sur n. Soit (Pn) l’assertion suivante : le nombre de
bijections d’un ensemble à n éléments dans un ensemble à n éléments est n!
• P1 est vraie. Il n’y a qu’une bijection d’un ensemble à 1 élément dans un ensemble à 1 élément.
• Fixons n ⩾ 1 et supposons que Pn est vraie. Soit E un ensemble à n + 1 éléments. On fixe a ∈ E.

Pour chaque b ∈ E il y a –par l’hypothèse de récurrence– exactement n! applications bijectives de

E \{a} → E \{b}. Chaque application se prolonge en une bijection de E → F en posant a 7→ b. Comme il y a n +

1 choix de b ∈ E alors nous obtenons n! ×(n + 1) bijections de E dans lui-même. Ainsi Pn+1 est
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 30

vraie.

• Par le principe de récurrence le nombre de bijections d’un ensemble à n éléments est n!


On aurait aussi pu directement utiliser la proposition 7 avec n = p (sachant qu’alors les injections sont aussi des
bijections).

4.4. Nombres de sous-ensembles


Soit E un ensemble fini de cardinal n.
Proposition 9.
Il y a 2Card E sous-ensembles de E :

Card P (E)= 2n

Exemple 6.
Si E = {1, 2, 3, 4, 5} alors P (E) a 25 = 32 parties. C’est un bon exercice de les énumérer :

• l’ensemble vide : ∅,
• 5 singletons : {1}, {2}, . . .,

• 10 paires : {1, 2}, {1, 3}, . . . , {2, 3}, . . .,

• 10 triplets : {1, 2, 3}, . . .,

• 5 ensembles à 4 éléments : {1, 2, 3, 4}, {1, 2, 3, 5}, . . .,

• et E tout entier : {1, 2, 3, 4, 5}.

Démonstration. Encore une récurrence sur n = Card E.


• Si n = 1, E = {a} est un singleton, les deux sous-ensembles sont : ∅ et E.

• Supposons que la proposition soit vraie pour n ⩾ 1 fixé. Soit E un ensemble à n + 1 éléments. On
fixe a ∈ E. Il y a deux sortes de sous-ensembles de E :

— les sous-ensembles A qui ne contiennent pas a : ce sont les sous-ensembles A ⊂ E \{a}. Par l’hypothèse de

récurrence il y en a 2n.

— les sous-ensembles A qui contiennent a : ils sont de la forme A = {a} ∪ A′ avecn A′ ⊂ E \ {a}. Par l’hypothèse

de récurrence il y a 2n sous-ensembles A′ possibles et donc aussi 2 sous-ensembles A. Le bilan : 2n + 2n = 2n+1

parties A ⊂ E.

• Par le principe de récurrence, nous avons prouvé que si Card E = n alors on a Card P (E)= 2n.

4.5. Coefficients du binôme de Newton


ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 31

Définition 7.

Le nombre de parties à k éléments d’un ensemble à n éléments est noté nk ou Cnk.

Exemple 7.
3
Les parties à deux éléments de {1, 2, 3} sont {1, 2}, {1, 3} et {2, 3} et donc 2 = 3. Nous avons déjà classé les

parties de {1, 2, 3, 4, 5} par nombre d’éléments et donc

51 (la seule partie n’ayant aucun élément est l’ensemble vide),


• 0=

55 (il y a 5 singletons),
• 1=

5 10 (il y a 10 paires),
• 2=

5 10,

• 3 =
5 5,

• 4 =
51 (la seule partie ayant 5 éléments est l’ensemble tout entier).
• 5=

Sans calculs on peut déjà remarquer les faits suivants :


Proposition 10.
• 0n= 1, 1n= n, nn= 1.

n n
nk= k •

nnnn 2n 0 + 1 + + k + + n =
• ··· ···

Démonstration.
n
1. Par exemple : 1 = n car il y a n singletons.
2. Compter le nombre de parties A ⊂ E ayant k éléments revient aussi à compter le nombre de parties de la

forme ∁A (qui ont donc n − k éléments), ainsi n−nk= nk.

3. La formule+ nn= 2n exprime que faire la somme du nombre de parties à k


éléments, pour k = 0, . . . , n, revient à compter toutes les parties de E.

Proposition 11.

n‹ n − 1‹ n − 1‹
− (0 < k < n)
=+ k k k 1
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 32

Démonstration. Soit E un ensemble à n éléments, a ∈ E et E′ = E \{a}. Il y a deux sortes de parties A ⊂ E ayant k

éléments :

• celles qui ne contiennent pas a : ce sont donc des parties à k éléments dans E′ qui a n − 1 éléments. Il y a en a
n 1
donc −k ,
• celles qui contiennent a : elles sont de la forme A = {a}∪ A′ avec A′ une partie à k − 1 éléments dans E′

Bilan :qui ann=− 1néléments. Il y en a−11+ n−k1. nk−−11.

k k−
n 0
Le triangle de Pascal est un algorithme pour calculer ces coefficients k . La ligne du haut correspond à 0, la

1 1 2 2 2
ligne suivante à 0 et , la ligne d’après à
1 0 , 1 et 2 .
1 4 4
La dernière ligne du triangle de gauche aux coefficients 0, 1, . . ., 4.

Comment continuer ce triangle pour obtenir le triangle de droite ? Chaque élément de la nouvelle ligne est
obtenu en ajoutant les deux nombres qui lui sont au-dessus à droite et au-dessus à gauche.

1 1

1 1 1 1

1 2 1 1 2 1

1 3 3 1 1 3 3 1

1 4 6 4 1 1 4 6 4 1

1 5 10 10 5 1

Ce qui fait que cela fonctionne c’est bien sûr la proposition 11 qui se représente ainsi :

nk−11 n−k1 −

nk

Une autre façon de calculer le coefficient du binôme de Newton repose sur la formule suivante :
Proposition 12.

n‹ n!
− = k
k!(n
k)!

1 .6. Formule du binôme de Newton

Théorème 1.
Soient a, b ∈ R et n un entier positif alors :
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 33

Démonstration. Cela se fait par récurrence sur n. C’est clair pour n = 1. Si c’est vrai au rang n − 1 alors

écrivonsnk=nkn−−‹11+nn−k−11et utilisons l’hypothèse de récurrence pour‹ n − 1‹ (n − 1)! nk−−(11n −et1)n!−k1.


Ainsi

k=k−1+ k = (k − 1)!(n − 1 −(k − 1))! + k!(n − 1 − k)!

= + =
− 1(n
)!(−n1)!
− kׁ−−1
1) 1‹ − (n −−1)! − × n− k ! n k k (k 1)!(n k 1)! k(n k)
n!
(

=
k!(n − k)!

n
n Xn‹ (a +
an−k · bk
b) = k
k=0

Autrement dit :

(a + b)n =n‹ an · b0 +n‹ an−1 · b1 +···+nk‹ an−k · bk +···+nn‹ a0 · bn

0 1
Le théorème est aussi vrai si a et b sont des nombres complexes.
Exemple 8.
1. Pour n = 2 on retrouve la formule archi-connue : (a + b)2 = a2 + 2ab + b2.

2. Il est aussi bon de connaître (a + b)3 = a3 + 3a2b + 3ab2 + b3.

Pn n
3. Si a = 1 et b = 1 on retrouve la formule : k=0 = 2n.
k

Pn
Démonstration. Nous allons effectuer une récurrence sur n. Soit (Pn) l’assertion : (a + b)n = n
k=0 k an−k · bk.

• Initialisation. Pour n = 1, (a + b)1 = 10a1b0 + 11a0b1. Ainsi P1 est vraie.


• Hérédité. Fixons n ⩾ 2 et supposons que Pn−1 est vraie. (a + b)n = (a + b)·(a + b)n−1

= a an−1 +···+n − 1‹an−1−k bk +···+ bn−1‹ k

+b an−1 +···+nk −− 11‹an−1−(k−1)bk−1 +···+ bn−1‹


ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 34

= ···+n −k 1‹+nk −− 11‹‹ an−k bk +···

= ···+nk‹an−k bk +···

= Xn‹ an−k · bk

k
k=0 Ainsi Pn est vérifiée.
• Conclusion. Par le principe de récurrence Pn est vraie, pour tout n ⩾ 1.

Mini-exercices.
1. Combien y a-t-il d’applications injectives d’un ensemble à n éléments dans un ensemble à n + 1 éléments ?
2. Combien y a-t-il d’applications surjectives d’un ensemble à n + 1 éléments dans un ensemble à n
éléments ?
3. Calculer le nombre de façons de choisir 5 cartes dans un jeux de 32 cartes.
4. Calculer le nombre de listes à k éléments dans un ensemble à n éléments (les listes sont ordonnées : par
exemple (1, 2, 3)=(̸ 1, 3, 2)).

5. Développer (a − b)4, (a + b)5.

6. Que donne la formule du binôme pour a = −1, b = +1 ? En déduire que dans un ensemble à n éléments il y

a autant de parties de cardinal pair que de cardinal impair.


ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 35

5. Relation d’équivalence

5.1. Définition
Une relation sur un ensemble E, c’est la donnée pour tout couple (x, y) ∈ E × E de « Vrai » (s’ils sont en relation),

ou de « Faux » sinon.

Nous schématisons une relation ainsi : les éléments de E sont des points, une flèche de x vers y signifie que x est
en relation avec y, c’est-à-dire que l’on associe « Vrai » au couple (x, y).

Définition 8.
Soit E un ensemble et R une relation, c’est une relation d’équivalence si :

• ∀x ∈ E, xR x, (réflexivité)
x

• ∀x, y ∈ E, xR y =⇒ yR x, (symétrie)

xy

• ∀x, y, z ∈ E, xR y et yRz =⇒ xRz,


(transitivité)
y
z
x

Exemple de relation d’équivalence :

5.2. Exemples
Exemple 9.
Voici des exemples basiques.
1. La relation R « être parallèle » est une relation d’équivalence pour l’ensemble E des droites affines du

plan :

• réflexivité : une droite est parallèle à elle-même,


ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 36

• symétrie : si D est parallèle à D′ alors D′ est parallèle à D,

• transitivité : si D parallèle à D′ et D′ parallèle à D′′ alors D est parallèle à D′′.

2. La relation « être du même âge » est une relation d’équivalence.


3. La relation « être perpendiculaire » n’est pas une relation d’équivalence (ni la réflexivité, ni la transitivité ne
sont vérifiées).
4. La relation ⩽ (sur E =R par exemple) n’est pas une relation d’équivalence (la symétrie n’est pas vérifiée).
5.3. Classes d’équivalence

Définition 9.
Soit R une relation d’équivalence sur un ensemble E. Soit x ∈ E, la classe d’équivalence de x est

cl( x ) = y ∈E | y R x


x

cl( x )

x ′
cl( x )

cl(x) est donc un sous-ensemble de E, on le note aussi x. Si y ∈ cl(x), on dit que y un représentant de

cl(x).

Soit E un ensemble et R une relation d’équivalence.

Proposition 13.
On a les propriétés suivantes :
1. cl(x)= cl(y) ⇐⇒ xR y.

2. Pour tout x, y ∈ E, cl(x)= cl(y) ou cl(x)∩ cl(y)=∅.

3. Soit C un ensemble de représentants de toutes les classes alors cl(x) | x ∈ C constitue une

partition de

E.

S
Une partition de E est un ensemble {Ei} de parties de E tel que E = i Ei et Ei ∩ Ej =∅ (si i ≠ j).
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 37

E
...
E2
E1 Ei ...
Ej ...

Exemples :
1. Pour la relation « être du même âge », la classe d’équivalence d’une personne est l’ensemble des personnes
ayant le même âge. Il y a donc une classe d’équivalence formée des personnes de 19 ans, une autre formée
des personnes de 20 ans,... Les trois assertions de la proposition se lisent ainsi :
• On est dans la même classe d’équivalence si et seulement si on est du même âge.
• Deux personnes appartiennent soit à la même classe, soit à des classes disjointes.
• Si on choisit une personne de chaque âge possible, cela forme un ensemble de représentants C.
Maintenant une personne quelconque appartient à une et une seule classe d’un des représentants.
2. Pour la relation « être parallèle », la classe d’équivalence d’une droite est l’ensemble des droites parallèles à
cette droite. À chaque classe d’équivalence correspond une et une seule direction.
Voici un exemple que vous connaissez depuis longtemps :
Exemple 10.
Définissons sur E =Z×N∗ la relation R par

(p, q)R(p′, q′) ⇐⇒ pq′ = p′q.

Tout d’abord R est une relation d’équivalence :

• R est réflexive : pour tout (p, q) on a bien pq = pq et donc (p, q)R(p, q).

• R est symétrique : pour tout (p, q), (p′, q′) tels que (p, q)R(p′, q′) on a donc pq′ = p′q et donc p′q = pq′ d’où (p′, q

′)R(p, q).

• R est transitive : pour tout (p, q), (p′, q′), (p′′, q′′) tels que (p, q)R(p′, q′) et (p′, q′)R(p′′, q′′) on a donc pq′ = p′q et

p′q′′ = p′′q′. Alors (pq′)q′′ =(p′q)q′′ = q(p′q′′)= q(p′′q′). En divisant par q′ ̸= 0 on obtient pq′′ = qp′′ et doncp (p, q)R(p′′,

q′′).

Nous allons noter q = cl(p, q) la classe d’équivalence d’un élément (p, q) ∈ Z×N∗. Par exemple, comme

(2, 3)R(24, 6)4(car 2 × 6 = 3 × 4) alors les classes de (2, 3) et (4, 6) sont égales : avec notre notation cela s’écrit : 3 =

.
6

C’est ainsi que l’on définit les rationnels : l’ensemble Q des rationnels est l’ensemble de classes d’équivalence de
la relation R.

Les nombres 23 = sont bien égaux (ce sont les mêmes classes) mais les écritures sont différentes (les
représentants sont distincts).
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 38

5.4. L’ensemble Z/nZ

Soit n ⩾ 2 un entier fixé. Définissons la relation suivante sur l’ensemble E =Z : ≡

a b (mod n) a b est un multiple de n

⇐⇒ −

Exemples pour n = 7 : 10 ≡ 3 (mod 7), 19 ≡ 5 (mod 7), 77 ≡ 0 (mod 7), −1 ≡ 20 (mod 7).

Cette relation est bien une relation d’équivalence :


• Pour tout a ∈ Z, a − a = 0 = 0 · n est un multiple de n donc a ≡ a (mod n).

• Pour a, b ∈ Z tels que a ≡ b (alors a − b est un multiple de n, autrement dit il existe k ∈ Z tel

que a − b = kn et donc b − a =(− )n et ainsi b ≡ a (mod n).

• Si a ≡ b (mod n) et b ≡ c (mod n) alors il existe k, k′ ∈ Z tels que a − b = kn et b − c = k′n. Alors a − c =(a − b)+(b

− c)=(k + k′)n et donc a ≡ c (mod n).

La classe d’équivalence de a ∈ Z est notée a. Par définition nous avons donc

Z|b .

Comme un tel b s’écrit b = a + kn pour un certain k ∈ Z alors c’est aussi exactement

kn | k .

Comme n ≡ 0 (mod n), n + 1 ≡ 1 (mod n), . . .alors

n = 0, n + 1 = 1, n + 2 = 2, . . .
et donc l’ensemble des classes d’équivalence est l’ensemble


Z/nZ=0, 1, 2, . . . , n 1

qui contient exactement n éléments.


Par exemple, pour n = 7 :
• 0 = {. . . , −14, −7, 0, 7, 14, 21, . . .} = 7Z • 1 = {. . . , −13, −6, 1, 8, 15, . . .} = 1 + 7Z

• ...
• 6 = {. . . , −8, −1, 6, 13, 20, . . .} = 6 + 7Z
Mais ensuite 7 = {. . . − 7, 0, 7, 14, 21, . . .} = 0 = 7Z. Ainsi Z/7Z=0, 1, 2, . . . , 6 possède 7 éléments.

Remarque.
Dans beaucoup de situations de la vie courante, nous raisonnons avec les modulos. Par exemple pour l’heure :
les minutes et les secondes sont modulo 60 (après 59 minutes on repart à zéro), les heures modulo 24 (ou
modulo 12 sur le cadran à aiguilles). Les jours de la semaine sont modulo 7, les mois modulo 12,...
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 39

Mini-exercices.

1. Montrer que la relation définie sur N par xR y ⇐⇒ 2x3+y ∈ N est une relation d’équivalence. Montrer qu’il y

a 3 classes d’équivalence.

2. Dans R2 montrer que la relation définie par (x, y)R(x′, y′) ⇐⇒ x + y′ = x′ + y est une relation d’équivalence.

Montrer que deux points (x, y) et (x′, y′) sont dans une même classe si et seulement s’ils appartiennent à

une même droite dont vous déterminerez la direction.

3. On définit une addition sur Z/nZ par p+q = p + q. Calculer la table d’addition dans Z/6Z (c’est-à-dire toutes

les sommes p + q pour p, q ∈ Z/6Z). Même chose avec la multiplication p × q = p × q. Mêmes questions avec

Z/5Z, puis Z/8Z.

Auteurs du chapitre Arnaud Bodin, Benjamin Boutin, Pascal Romon


Chapitre

3 Nombres complexes
VidØo ■ partie 1. Les nombres complexes, dØfinitions et opØrations

VidØo ■ partie 2. Racines carrØes, Øquation du second degrØ

VidØo ■ partie 3. Argument et trigonomØtrie

VidØo ■ partie 4. Nombres complexes et gØomØtrie Fiche

d’exercices ‡ Nombres complexes

Préambule
L’équation x + 5 = 2 a ses coefficients dans N mais pourtant sa solution x = −3 n’est pas un entier naturel.

Il faut ici considérer l’ensemble plus grand Z des entiers relatifs.

N ,−−−−−x+5=2→Z ,−−−−−2x=−3→Q ,−−−−−x2= 12 →R ,−−−−−x2=−p2→C

De même l’équation 2x = −3 a ses coefficients dans Z mais sa solution x = − est dans l’ensemble plus grandp des

rationnels Q. Continuons ainsi, l’équation x2 = à coefficients dans Q, a ses solutions x1 =+1/ 2 et x2 = −1/p2 dans

p
l’ensemble des réelsp − p R. Ensuite l’équation x2 = −p2 à ses coefficients dans R et ses solutions x1 =+ i 2 et x2 = i

p
2 dans l’ensemble des nombres complexes C. Ce processus est-il sans fin ? Non ! Les nombres complexes sont

en quelque sorte le bout de la chaîne car nous avons le théorème

de d’Alembert-Gauss suivant : « Pour n’importe quelle équation polynomiale a nxn + an−1xx1n, . . . ,−1 +x···n sont

dans+ a2x2 + a1x + a0 = 0 où les coefficients ai sont des complexes (ou bien des réels), alors les solutions l’ensemble
des nombres complexes ».

Outre la résolution d’équations, les nombres complexes s’appliquent à la trigonométrie, à la géométrie (comme
nous le verrons dans ce chapitre) mais aussi à l’électronique, à la mécanique quantique, etc.
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 41

1. Les nombres complexes

1.1. Définition

Définition 1.
Un nombre complexe est un couple (a, b) ∈ R2 que l’on notera a + i b
iR

a+ib
b

0 1 a R

Cela revient à identifier 1 avec le vecteur (1, 0) de R2, et i avec le vecteur (0, 1). On note C l’ensemble des

nombres complexes. Si b = 0, alors z = a est situé sur l’axe des abscisses, que l’on identifie à R. Dans ce cas on dira

que z est réel, et R apparaît comme un sous-ensemble de C, appelé axe réel. Si b ≠ 0, z est dit imaginaire et si b ≠

0 et a = 0, z est dit imaginaire pur.

1.2. Opérations

Si z = a + i b et z′ = a′ + i b′ sont deux nombres complexes, alors on définit les opérations suivantes :

• addition : (a + i b)+(a′ + i b′)=(a + a′)+ i(b + b′)


iR ′
z+z


z

i
z

0 1 R

• multiplication : (a + i b)×(a′ + i b′)=(aa′ − bb′)+ i(ab′ + ba′). On développe en suivant les règles de la

multiplication usuelle avec la convention suivante :

i2 = −1

1.3. Partie réelle et imaginaire


NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 42

Soit z = a + i b un nombre complexe, sa partie réelle est le réel a et on la note Re(z) ; sa partie imaginaire est le
réel b et on la note Im(z).
iR

iIm (z ) z

Im(z ) i

0 1 Re(z ) R
Re(z )
2
Par identification de C à R , l’écriture z = Re(z)+ i Im(z) est unique :


 Re(z)= Re(z′)
z=z ′
⇐⇒ et


Im(z)= Im(z′)
En particulier un nombre complexe est réel si et seulement si sa partie imaginaire est nulle. Un nombre complexe
est nul si et et seulement si sa partie réelle et sa partie imaginaire sont nuls.

1.4. Calculs
Quelques définitions et calculs sur les nombres complexes.
λz

z
i

0
1
−z

• L’ opposé de z = a + i b est −z =(−a)+ i(−b)= −a − i b.

• La multiplication par un scalaire λ ∈ R : λ· z =(λa)+ i(λb).

• L’ inverse : si z ≠ 0, il existe un unique z′ ∈ C tel que zz′ = 1 (où 1 = 1 + i ×0).

Pour la preuve et le calcul on écrit z = a + i b puis on cherche z′ = a′ + i b′ tel que zz′ = 1. Autrement dit (a + i b)
(a′ + i b′)= 1. En développant et identifiant les parties réelles et imaginaires on obtient les équations

aa′ − bb′ = 1 (L1) ab′ + ba′ =

0 (L2)
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 43

En écrivant aL1+ bL2 (on multiplie la ligne (L1) par a, la ligne (L2) par b et on additionne) et −bL1+aL2 on en

déduit

a
a′ a donc ′ b′ a

b b′
L’inverse de z, noté 1z , est donc

z′ .
: z
• La division z′ est le nombre complexe z × z1′ .

• Propriété d’intégrité : si zz′ = 0 alors z = 0 ou z′ = 0.

z z n z
• Puissances : z2 = × z, zn = ×···× z (n fois, ∈ N). Par convention z0 = 1 et −
n
= 1z n = z1n .

Proposition 1.
Pour tout z ∈ C différent de 1
1 zn+1

1 + z + z2 +···+ zn = 1− z .

La preuve est simple : notons S = 1 + z + z2 + ··· + zn, alors en développant S · (1 − z) presque tous les termes se

télescopent et l’on trouve S ·(1 − z)= 1 − zn+1.

Remarque.
Il n’y pas d’ordre naturel sur C, il ne faut donc jamais écrire z ⩾ 0 ou z ⩽ z′.

1.5. Conjugué, module

Le conjugué de z = a + i b est z¯ = a − i b, autrement dit Re(z¯)= Re(z) et Im(z¯)= − Im(z). Le point z¯ est le

symétrique du point z par rapport à l’axe réel.

Le module de z = a + i b est le réel positifp |z| = pa2 + b2. Comme z × z¯ =(a + i b)(a − i b)= a2 + b2 alors le module

vaut aussi |z| = zz¯.


NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 44

z z = a+ib
i
0 |z |
b
1

z̄ 0 a

Quelques formules :
• z + z′ = z¯ + z′, z¯ = z, zz′ = z¯z′

• z ⇐⇒ z ∈ R
• |z| = z × z¯,|z¯| = |z|, zz′= |z||z′|

• |z| = 0 ⇐⇒ z = 0

Proposition 2 (L’inégalité triangulaire).

z + z′⩽ |z |+z′

z +z′


z

|z + z ′ |
|z ′ |
z
|z |
0

Avant de faire la preuve voici deux remarques utiles. Soit| | ||


| | | |z = a|+|i b ∈pC avec a, b ∈ R : ||
⩽ ⩽
• Re(z) z (et aussi Im(z) z ). Cela vient du fait que a ⩽ a2 + b2. Noter que pour un réel a est à la
fois le module et la valeur absolue.
• z + z¯ = 2 Re(z) et z − z¯ = 2 i Im(z). Preuve : z + z¯ =(a + i b)+(a − i b)= 2a = 2 Re(z).
Démonstration. Pour la preuve on calcule |z + z′|2 : |z + z′|2 = z + z′ (z

+ z′)
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 45

= zz¯ + z′z′ + zz′ + z′z¯

= |z|22 +|z′|22 + 2 Re(z′z¯) ⩽

|z|2 +|z′|2 + 2|z′z¯|

⩽ |z| +|z′| + 2|zz′| ⩽ (|

z|+|z′|)2

Exemple 1.
Dans un parallélogramme, la somme des carrés des diagonales égale la somme des carrés des côtés.
Si les longueurs des côtés sont notées L et ℓ et les longueurs des diagonales sont D et d alors il s’agit de montrer
l’égalité
D2 + d2 = 2ℓ2 + 2L2. z +z′

|z − z ′ | |z |
L ′
z
|z + z | ′ |z ′ |

d |z ′ |
ℓ D z
|z |
L 0

Démonstration. Cela devient simple si l’on considère que notre parallélogramme a pour sommets 0, z, z′ et le

dernier sommet est donc z + z′. La longueur du grand côté est ici |z|, celle du petit côté est |z′|. La longueur de la

grande diagonale est |z +z′|. Enfin il faut se convaincre que la longueur de la petite diagonale est |z − z′|.

D2 + d2 =z + z′2 +z − z′2 = z + z′(z + z′)+ z − z′(z − z′)

= zz¯ + zz′ + z′z¯ + z′z′ + zz¯ −2zz′ − z′z¯ + z′z′

= 2zz¯ + 2z′z′ = 2 |z|2 + 2 z′

= 2ℓ2 + 2L2

Mini-exercices.

1. Calculer 1 − 2 i +1−i2i. 2 3 4 8

2. Écrire sous la forme a + i b les nombres complexes (1 + i) , (1 + i) , (1 + i) , (1 + i) .

3. En déduire 1 +(1 + i)+(1 + i)2 +···+(1 + i)7.


NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 46

4. Soit z ∈ C tel que |1 + i z| = |1 − i z|, montrer que z ∈ R.

⩽ ⩽ ⩽
5. Montrer que si | Re z| |2Re z′| et | Im z| | Im z′| alors |z| |z′|, mais que la réciproque est fausse.

6. Montrer que 1/z¯ = z/|z| (pour z ≠ 0).


NOMBRES COMPLEXES 47
2. RACINES CARRÉES, ÉQUATION DU SECOND DEGRÉ

2. Racines carrées, équation du second degré

2.1. Racines carrées d’un nombre complexe

Pour z ∈ C, une racine carrée est un nombre complexe ωptel que−p ω2 = z.


Par exemple si x ∈ R+, on connaît deux racines carrées : x, x. Autre exemple : les racines carrées de 1

sont i et − i.

Proposition 3.
Soit z un nombre complexe, alors z admet deux racines carrées, ω et −ω.

Attention ! Contrairement au cas réel, il n’y a pas de façon privilégiée de choisir une racine plutôt que l’autre,
donc pas de fonction racine. On ne dira donc jamais « soit ω la racine de z ».
Si z ≠ 0 ces deux racines carrées sont distinctes. Si z = 0 alors ω= 0 est une racine double. Pour z = a

+ i b nous allons calculer ω et −ω en fonction de a et b.

Démonstration. Nous écrivons ω= x + i y, nous cherchons x, y tels que ω2 = z.

ω2 = z ⇐⇒ (x + i y)2 = a + i b

x2 − y2 = a en identifiant parties

⇐⇒ 2x y = b et parties imaginaires.

Petite astuce ici : nous rajoutons l’équationp |ω|2 = |z| (qui se déduit bien sûr de ω2 = z) qui s’écrit aussi
x2 + y2 = a2 + b2. Nous obtenons des systèmes équivalents aux précédents :

  p  ± p p
 x2 − y2 = a ⇐⇒  2x22 = pa22 + b22 +−a ⇐⇒   x = ±p1122 p pa22 + b22 +−a

2x y2 =2b p2 2  2y = a + b a y=p a+b a

x+y=a+b 2x y = b 2x y = b

Discutons suivant le signe du réel b. Si b ⩾ 0, x et y sont de même signe ou nuls (car 2x y = b ⩾ 0) donc
ω= ±p1 qpa2 + b2 + a + i qpa2 + b2 − a‹ ,

2
et si b ⩽ 0

ω= ±p1 qpa2 + b2 + a − i qpa2 + b2 − a‹ .


NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 48
2

En particulier si b = 0 le résultat dépend du signe de a, si a ⩾ 0, pa2 = a et par conséquent ω = ±pa,


p
tandis que si a < 0, pa2 = −a et donc ω= ± i p−a = ± i |a|.

Il n’est pas nécessaire d’apprendre ces formules mais il est indispensable de savoir refaire les calculs.
Exemple 2.

Les racines carrées de i sont +p22(1 + i) et −p22(1 + i).

En effet :
ω2 = i ⇐⇒ (x + i y)2 = i

⇐⇒ x2 − y2 = 0

2x y = 1
2
Rajoutons la conditions |ω| = | i | pour obtenir le système équivalent au précédent :

 x2 − y2 = 0  2x2 = 1  x = ±

2x y2 =y21= 1 ⇐⇒  22x yy2 ==11 ⇐⇒  2yx y= ±=p12

x+

Les réels x et y sont donc de même signe, nous trouvons bien deux solutions :
11 1 1 x + i y =+ i p ou x + i y = −p
−ip p

22 2 2
2. RACINES CARRÉES, ÉQUATION DU SECOND DEGRÉ

2.2. Équation du second degré

Proposition 4.
L’équation du second degré az2 + bz + c = 0, où a, b, c ∈ C et a ̸= 0, possède deux solutions z1, z2 ∈ C

éventuellement confondues.

Soit ∆= b2 − 4ac le discriminant z1 = − 2a b z2 = − 2−a et δ ∈ C une racine carrée de ∆.


et
Alors les solutions sont +δ .bδ

Et sip∆= 0 alors la solution z = z1 = z2 = −b/2a est unique (elle est dite double). Si on s’autorisait à écrire δ= ∆, on

obtiendrait la même formule que celle que vous connaissez lorsque a, b, c sont réels.

Exemple 3.
1
1 i 3 • z2 + z + − ±

22(1 + i)
p −1 ± p2 (1 + i).
NOMBRES COMPLEXES 49
• z2 + z + 1 = 0, ∆= −3, δ= i p3, les solutions sont z = − ±2 p .

1 i =
− = 0, ∆= i, δ= p22(1 + i), les solutions sont z = 2 2 4

On retrouve aussi le résultat bien connu pour le cas des équations à coefficients réels :
Corollaire 1.
Si les coefficients a, b, c sont réels alors ∆ ∈ R et les solutions sont de trois types :

b

• si ∆= 0, la racine double est réelle −
et vaut a , • si ∆> 0, on a deux solutions réelles± , b
p2

2a
b i ∆

• si ∆< 0, on a deux solutions complexes, mais non réelles, − ± p− .


2a

Démonstration. On écrit la factorisation


 ‹ ‹2 2
az2 + bz + c = a z2 + ab z + ac = a z + 2ba − 4ba2 + ac

=  b ‹2 ∆  b ‹2 δ2 a z + 2a − 4a2 = a z + 2a − 4a2

 b ‹ δ ‹ b ‹ δ ‹

= a z + 2a − 2a z + 2a + 2a = a z − − z − − − = a (z − z1)(z − z2)

 b +䋁 b δ‹

2a 2a
Donc le binôme s’annule si et seulement si z = z1 ou z = z2.

2.3. Théorème fondamental de l’algèbre

Théorème 1 (d’Alembert–Gauss).
Soit P(z) = anzn + an−1zn−1 + ··· + a1z + a0 un polynôme à coefficients complexes et de degré n. Alors

l’équation P(z)= 0 admet exactement n solutions complexes comptées avec leur multiplicité.

En d’autres termes il existe des nombres complexes z 1, . . . , zn (dont certains sont éventuellement
confondus) tels que
P(z)= an (z − z1)(z − z2)···(z − zn) .

Nous admettons ce théorème.


Mini-exercices.
1. Calculer les racines carrées de − i, 3 − 4 i.
NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 50
2 2
2. Résoudre les équations : z + z − 1 = p0, 2z +(−10 −p

3. Résoudre l’équation z2 +(i −p2)z − i 2, puis l’équation i Z i 2.

4. Montrer que si P(z)= z2 + bz + c possède pour racines z1, z2 ∈ C alors z1 + z2 = −b et z1 · z2 = c.

5. Trouver les paires de nombres dont la somme vaut i et le produit 1.

6. Soit P(z)= anzn + an−1zn−1 +···+ a0 avec ai ∈ R pour tout i. Montrer que si z est racine de P alors z¯ aussi.

3. Argument et trigonométrie

3.1. Argument

Si z = x + i y est de module 1, alors x2 + y2 = |z|2 = 1. Par conséquent le point (x, y) est sur le cercle unité du plan, et

son abscisse x est notée cos θ, son ordonnée y est sin θ, où θ est (une mesure de) l’angle entre l’axe réel et z.

Plus généralement, si z ≠ 0, z/|z| est de module 1, et cela amène à :

Définition 2.
Pour tout z, un nombre θ ∈ R tel que z = |z|(cos θ + i sin θ) est appelé un argument

de z et noté θ

iR

|z |
i
arg(z )

0 1 R

Cet argument est défini modulo 2π. On peut imposer à cet argument d’être unique si on rajoute la condition θ
∈]−π, +π].

Remarque.
θ ≡ θ′ (mod 2π) ⇐⇒ ∃k ∈
Z, θ =θ′ + 2kπ ⇐⇒

sincosθθ==sincosθ
θ′′

Proposition 5.
L’argument satisfait les propriétés suivantes :

• arg zz′ ≡ arg(z)+ arg z′ (mod 2π)


NOMBRES COMPLEXES 51
n
• arg (z ) ≡ n arg(z) (mod 2π)

• arg (1/z) ≡ − arg(z) (mod 2π)

• arg(z¯) ≡ − arg z (mod 2π)


NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 52

Démonstration.

zz′ || ′

= zz′ ′
= zz′ cos θ +θ′ + i sin θ +θ′

donc arg zz′ ≡ arg(z)+ arg z′ (mod 2π). On en déduit les deux autres propriétés, dont la deuxième par récurrence.

3.2. Formule de Moivre, notation exponentielle La


formule de Moivre est :

(cos θ + i sin θ)n = cos (nθ)+ i sin (nθ)

Démonstration. Par récurrence, on montre que

(cos θ + i sin θ)n = (cos θ + i sin θ)n−1 ×(cos θ + i sin θ)

= (cos ((n − 1)θ)+ i sin ((n − 1)θ))×(cos θ + i sin θ)

= (cos ((n − 1)θ) cos θ − sin ((n − 1)θ) sin θ)

+ i (cos ((n − 1)θ) sin θ + sin ((n − 1)θ) cos θ)

= cos nθ + i sin nθ

Nous définissons la notation exponentielle par

eiθ = cos θ + i sin θ

et donc tout nombre complexe s’écrit

z =ρeiθ

où ρ = |z| est le module et θ = arg(z) est un argument.

Avec la notation exponentielle, on peut écrire pour z =ρeiθ et z′ =ρ′eiθ′

 zz′ =ρρ′eiθ eiθ′ =ρρ′ei(θ+θ′)

 zn = ρeiθn =ρn eiθn =ρneinθ


NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 53

 1z¯/=z ρ=e1−/iθρeiθ= ρ1 e−iθ

La formule de Moivre se réduit à l’égalité :. eiθn = einθ

Et nous avons aussi : ρeiθ =ρ′eiθ′ (avec ρ, ρ′ > 0) si et seulement si ρ =ρ′ et θ ≡ θ′ (mod 2π).

3.3. Racines n-ième

Définition 3.
Pour z ∈ C et n ∈ N, une racine n-ième est un nombre ω ∈ C tel que ωn = z.
Proposition 6.
Il y a n racines n-ièmes ω0, ω1, . . . , ωn−1 de z =ρeiθ, ce sont :

k = 0, 1, . . . , n 1
ωk =ρ1/ne iθ+2nikπ ,

Démonstration. Écrivons z =ρeiθ et cherchons ω sous la forme ω= rei t tel que z =ωn. Nous obtenons donc ρeiθ =ωn =

rei tn = rneint. Prenons tout d’abord le module : rneint= rn et donc r =ρ1/n (il s’agit ici de nombres réels).
Pour les arguments nous avons eint = eiθ et donc nt ≡ θ (mod 2π) (n’oubliez surtout pas le modulo 2π !). Ainsi on

= 2k π
résout nt θ + 2kπ (pour k ∈ Z) et donc t n . Les solutions de l’équation ωn = z sont donc les ωk =ρ1/ne
+
iθ 2nikπ . Mais en fait il n’y a que n solutions distinctes car ωn =ω0, ωn+1 =ω1, . . .Ainsi les n solutions sont ω0, ω1, . . . ,
ωn−1.

Par exemple pour z = 1, on obtient les n racines n-ièmes de l’unité e2ikπ/n, k = 0, . . . , n − 1 qui forment un groupe

multiplicatif.

2 i π/3 i i
j=e e
i π/3

0 1 = e0 −1 = e i π
0 1

2 4 i π/3 − i π/3
j =e e

Racine 3-ième de l’unité (z = 1, n = 3) Racine 3-ième de −1 (z = −1, n = 3)


NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 54

Les racines 5-ième de l’unité (z = 1, n = 5) forment un pentagone régulier :

i e
2 i π/5

4 i π/5
e

0 1

6 i π/5
e
8 i π/5
e

3.4. Applications à la trigonométrie


Voici les formules d’Euler, pour θ ∈ R :
eiθ + e−iθ e
eiθ −iθ
,
cos θ = 2
sin θ = −2 i
Ces formules s’obtiennent facilement en utilisant la définition de la notation exponentielle. Nous les appliquons
dans la suite à deux problèmes : le développement et la linéarisation.

Développement. On exprime sin nθ ou cos nθ en fonction des puissances de cos θ et sin θ.

Méthode : on utilise la formule de Moivre pour écrire cos (nθ)+ i sin (nθ) = (cos θ + i sin θ)n que l’on développe
avec la formule du binôme de Newton.
Exemple 4.

cos 3θ + i sin 3θ = (cos θ + i sin θ)3

= cos3 θ + 3 i cos2 θ sin θ − 3 cos θ sin2 θ − i sin3 θ

= cos3 θ − 3 cos θ sin2 θ+ i 3 cos2 θ sin θ − sin3 θ

En identifiant les parties réelles et imaginaires, on déduit que


cos 3θ = cos3 θ − 3 cos θ sin2 θ et sin 3θ = 3 cos2 θ sin θ − sin3 θ.

Linéarisation. On exprime cosn θ ou sinn θ en fonction des cos kθ et sin kθ pour k allant de 0 à n.

€eiθ Šn
Méthode : avec la formule d’Euler on écrit sinn θ = e
−2 i−iθ . On développe à l’aide du binôme de Newton puis on

regroupe les termes par paires conjuguées.

Exemple 5.

sin3 θ = eiθ −2 ie−iθ 3


NOMBRES COMPLEXES 3. ARGUMENT ET TRIGONOMÉTRIE 55

3
1 iθ 3 − (eiθ)2e−iθ + 3eiθ(e−iθ)2 −(e−iθ)3

= −8 i (e )

1 3iθ − 3eiθ + 3e−iθ − e−3iθ

= −8 i e

1 e3iθ − e−3iθ eiθ − e−iθ


= − −3
4 2i 2i
sin 3θ 3 sin θ
=
− 4 + 4

Mini-exercices.
1. Mettre les nombres suivants sont la forme module-argument (avec la notation exponentielle) : 1, i,
−1, − i, 3 i, 1 + i, p3 − i, p3 − i, p31−i, (p3 − i)20xx où 20x x est l’année en cours.

2. Calculer les racines 5-ième de i.

3. Calculer les racines carrées de p23 + 2i de deux façons différentes. En déduire les valeurs de cos et sin .
+
4. Donner sans calcul la valeur de ω0 +ω1 ···+ωn−1, où les ωi sont les racines n-ième de 1.

5. Développer cos(4θ) ; linéariser cos4 θ ; calculer une primitive de θ 7→ cos4 θ.


NOMBRES COMPLEXES 56
4. NOMBRES COMPLEXES ET GÉOMÉTRIE

4. Nombres complexes et géométrie


On associe bijectivement à tout point M du plan affine R2 de coordonnées (x, y), le nombre complexe z = x + i y
appelé son affixe.

4.1. Équation complexe d’une droite


Soit
ax + b y = c
l’équation réelle d’une droite D : a, b, c sont des nombres réels (a et b n’étant pas tous les deux nuls)

d’inconnues (x, y) ∈ R2.

Écrivons z = x + i y ∈ C, alors −

z + z¯ z z¯
x=2 , y=2i ,
donc D a aussi pour équation a(z + z¯) − i b(z − z¯) = 2c ou encore (a − i b)z +(a + i b)z¯ = 2c. Posons ω= a + i b ∈

C∗ et k = 2c ∈ R alors l’équation complexe d’une droite est :

ω¯z +ωz¯ = k

où ω ∈ C∗ et k ∈ R.

C
r
D
ω

i i

0 1 0 1

4.2. Équation complexe d’un cercle


Soit C(Ω, r) le cercle de centre Ω et de rayon r. C’est l’ensemble des points M tel que dist(Ω, M)= r. Si l’on note ω

l’affixe de Ω et z l’affixe de M. Nous obtenons :

dist(Ω, M)= r ⇐⇒ |z −ω| = r ⇐⇒ |z −ω|2 = r2 ⇐⇒ (z −ω)(z −ω)= r2

et en développant nous trouvons que l’équation complexe du cercle centré en un point d’affixe ω et de rayon r
est :
NOMBRES COMPLEXES 57
2 2
zz¯ −ω¯z −ωz¯ = r −|ω |

où ω ∈ C et r ∈ R.

4.3. Équation ||zz−−ab|| =k

Proposition 7.
Soit A, B deux points du plan et k ∈ R+. L’ensemble des points M tel que MBMA = k est

• une droite qui est la médiatrice de [AB], si k = 1,


• un cercle, sinon.
4. NOMBRES COMPLEXES ET GÉOMÉTRIE

Exemple 6.
Prenons A le point d’affixe +1,B le point d’affixe −1. Voici les figures pour plusieurs valeurs de k.

Par exemple pour k = 2 le point M dessiné vérifie bien MA = 2MB.

B A

1
k=3 k= 3

1
k=2 k= 2

4 3
k= 3 k=1 k= 4

Démonstration. Si les affixes de A, B, M sont respectivement a, b, z, cela revient à résoudre l’équation


|zz−ab| = k.
| − | ||z −− a|| 2 2 |2 z b = k ⇐⇒ |z −

a| = k |z − b

⇐⇒ (z − a)(z − a)= k2(z − b)(z − b)

⇐⇒ (1 − k2)zz¯ − z(a¯ − k2¯b)− z¯(a − k2b)+|a|2 − k2|b|2 = 0

Donc si k = 1, on pose ω = a − k2b et l’équation obtenue zω¯ + z¯ω = |a|2 − k2|b|2 est bien celle d’une droite. Et

= =
bien sûr l’ensemble des points qui vérifienta k2b MA a 2MBk2 best la médiatrice de2 [AB]. Si k ̸ 1 on pose
NOMBRES COMPLEXES 58
ω= 1−−k2 alors l’équation obtenue est2 −|ω|2 = −z|az¯|12−−+kkz22|ωb¯|2−, soitz¯ω=r2−=| |1|(a−+1−−kk2k2|2b)||22. C’est

l’équation d’un cercle de centre+ −|a|12−+kk22|b|2 . ω et de rayon r satisfaisant r

Ces calculs se refont au cas par cas, il n’est pas nécessaire d’apprendre les formules.
Mini-exercices.
1. Calculer l’équation complexe de la droite passant par 1 et i.
2. Calculer l’équation complexe du cercle de centre 1 + 2 i passant par i.
3. Calculer l’équation complexe des solutions | de|z −−1|| = 1, puis dessiner les solutions. z i 4.

Même question avec ||z −−1|| = 2.

z i

Auteurs du chapitre Arnaud Bodin, Benjamin Boutin, Pascal Romon


Chapitre

4
Arithmétique

VidØo ■ partie 1. Division euclidienne et pgcd


VidØo ■ partie 2. ThØorŁme de BØzout
VidØo ■ partie 3. Nombres premiers
VidØo ■ partie 4. Congruences
Fiche d’exercices ‡ ArithmØtique dans Z

Préambule
Une motivation : l’arithmétique est au cœur du cryptage des communications. Pour crypter un message on
commence par le transformer en un –ou plusieurs– nombres. Le processus de codage et décodage fait appel à
plusieurs notions de ce chapitre :
• On choisit deux nombres premiers p et q que l’on garde secrets et on pose n = p × q. Le principe étant que
même connaissant n il est très difficile de retrouver p et q (qui sont des nombres ayant des centaines de
chiffres).

• La clé secrète et la clé publique se calculent à l’aide de l’algorithme d’Euclide et des coefficients de Bézout.
• Les calculs de cryptage se feront modulo n.
• Le décodage fonctionne grâce à une variante du petit théorème de Fermat.

1. Division euclidienne et pgcd

1.1. Divisibilité et division euclidienne

Définition 1.
Soient a, b ∈ Z. On dit que b divise a et on note b|a s’il existe q ∈ Z tel que

a = bq.

Exemple 1.
• 7|21 ; 6|48 ; a est pair si et seulement si 2|a.

• Pour tout a ∈ Z on a a|0 et aussi 1|a.

• Si a|1 alors a =+1 ou a = −1.


ARITHMÉTIQUE 61
• (a|b et b|a) =⇒ b = ±a

• (a|b et b|c) =⇒ a|c

• (a|b et a|c) =⇒ a|b + c


1. DIVISION EUCLIDIENNE ET PGCD

Théorème 1 (Division euclidienne).


Soit a ∈ Z et b ∈ N\{0}. Il existe des entiers q, r ∈ Z tels que

a = bq + r et 0⩽r<b

De plus q et r sont uniques.

Terminologie : q est le quotient et r est le reste.


Nous avons donc l’équivalence : r = 0 si et seulement si b divise a.
Exemple 2.
Pour calculer q et r on pose la division « classique ». Si a = 6789 et b = 34 alors

6789 = 34 × 199 + 23

On a bien 0 ⩽ 23 < 34 (sinon c’est que l’on n’a pas été assez loin dans les calculs).

34 6789
diviseur
dividende
199 quotient
reste

Démonstration.
Existence. On peut supposer a ⩾ 0 pour simplifier. Soit N =n ∈ N | bn ⩽ a . C’est un ensemble non vide

car n = 0 ∈ N . De plus pour n ∈ N , on a n ⩽ a. Il y a donc un nombre fini d’éléments dans N , notons q = max N

le plus grand élément.

Alors qb ⩽ a car q ∈ N , et (q + 1)b > a car q + 1 ∈ N/ , donc

qb ⩽ a <(q + 1)b = qb + b.

On définit alors r = a − qb, r vérifie alors 0 ⩽ r = a − qb < b.

Unicité. Supposons que q′, r′ soient deux entiers qui vérifient les conditions du théorème. Tout d’abord a = bq + r

= bq′ + r′ et donc b(q − q′)= r′ − r. D’autre part 0 ⩽ r′ < b et 0 ⩽ r < b donc −b < r′ − r < b
ARITHMÉTIQUE 62
(notez au passage la manipulation des inégalités). Mais r − r = b(q−q′) donc on obtient −b < b(q−q′)< b. On peut

diviser par b > 0 pour avoir −1 < q − q′ < 1. Comme q − q′ est un entier, la seule possibilité est q − q′ = 0 et donc q =

q′. Repartant de r′ − r = b(q − q′) on obtient maintenant r = r′.

1.2. pgcd de deux entiers

Définition 2.
Soient a, b ∈ Z deux entiers, non tous les deux nuls. Le plus grand entier qui divise à la fois a et b

s’appelle le plus grand diviseur commun de a, b et se note pgcd(a, b).

Exemple 3.
• pgcd(21, 14)= 7, pgcd(12, 32)= 4, pgcd(21, 26)= 1.
• pgcd(a, ka)= a, pour tout k ∈ Z et a ⩾ 0.

• Cas particuliers. Pour tout a ⩾ 0 : pgcd(a, 0)= a et pgcd(a, 1)= 1.


1. DIVISION EUCLIDIENNE ET PGCD

1.3. Algorithme d’Euclide

Lemme 1.
Soient a, b ∈ N∗. Écrivons la division euclidienne a = bq + r. Alors

pgcd(a, b)= pgcd(b, r)

En fait on a même pgcd(a, b)= pgcd(b, a − qb) pour tout q ∈ Z. Mais pour optimiser l’algorithme d’Euclide on

applique le lemme avec q le quotient.

Démonstration. Nous allons montrer que les diviseurs de a et de b sont exactement les mêmes que les diviseurs
de b et r. Cela impliquera le résultat car les plus grands diviseurs seront bien sûr les mêmes.
• Soit d un diviseur de a et de b. Alors d divise b donc aussi bq, en plus d divise a donc d divise a− bq = r.

• Soit d un diviseur de b et de r. Alors d divise aussi bq + r = a.

Algorithme d’Euclide.
On souhaite calculer le pgcd de a, b ∈ N∗. On peut supposer a ⩾ b. On calcule des divisions euclidiennes

successives. Le pgcd sera le dernier reste non nul.

• division de a par b, a = bq1+r1. Par le lemme 1, pgcd(a, b)= pgcd(b, r1) et si r1 = 0 alors pgcd(a, b)= b sinon on
continue :
• b = r1q2 + r2, pgcd(a, b)= pgcd(b, r1)= pgcd(r1, r2),
ARITHMÉTIQUE 63
• r1 = r2q3 + r3, pgcd(a, b)= pgcd(r2, r3),
• ...

•• rk−2 = rrkk−q1kq+k 0+. pgcdrk, pgcd(a,(ba)=,

b)=pgcdpgcd(rk(, 0rk)=−1, rrkk.), rk−1 =

Comme à chaque étape le reste est plus petit que le quotient on sait que 0 ⩽ ri+1 < ri. Ainsi l’algorithme se termine
car nous sommes sûrs d’obtenir un reste nul, les restes formant une suite décroissante d’entiers positifs ou nuls :
b > r1 > r2 > ··· ⩾ 0.

Exemple 4.
Calculons le pgcd de a = 600 et b = 124.

600 = 124 × 4 + 104

124 = 104 × 1+ 20
20 = 4 × 5 + 0
104 = 20 × 5 + 4
Ainsi pgcd(600, 124)= 4.
Voici un exemple plus compliqué :
Exemple 5.
Calculons pgcd(9945, 3003).
9945 = 3003 × 3 + 936
3003 = 936 × 3 + 195
936 = 195 × 4 + 156
195 = 156 × 1 + 39
156 = 39 × 4 + 0
Ainsi pgcd(9945, 3003)= 39.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 64

1.4. Nombres premiers entre eux

Définition 3.
Deux entiers a, b sont premiers entre eux si pgcd(a, b)= 1.

Exemple 6.
Pour tout a ∈ Z, a et a + 1 sont premiers entre eux. En effet soit d un diviseur commun à a et à a + 1. Alors d

divise aussi a + 1 − a. Donc d divise 1 mais alors d = −1 ou d =+1. Le plus grand diviseur de a et a + 1 est donc 1. Et

donc pgcd(a, a + 1)= 1.

Si deux entiers ne sont pas premiers entre eux, on peut s’y ramener en divisant par leur pgcd :
Exemple 7.
Pour deux entiers quelconques a, b ∈ Z, notons d = pgcd(a, b). La décomposition suivante est souvent utile :
= a′d
ab avec a′, b′ ∈ Z et pgcd(a′, b′)= 1
= b′d
Mini-exercices.
1. Écrire la division euclidienne de 111 111 par 20x x, où 20x x est l’année en cours.

2. Montrer qu’un diviseur positif de 10 008 et de 10 014 appartient nécessairement à {1, 2, 3, 6}.

3. Calculer pgcd(560, 133), pgcd(12 121, 789), pgcd(99 999, 1110).

4. Trouver tous les entiers 1 ⩽ a ⩽ 50 tels que a et 50 soient premiers entre eux. Même question avec 52.

2. Théorème de Bézout

2.1. Théorème de Bézout

Théorème 2 (Théorème de Bézout).


Soient a, b des entiers. Il existe des entiers u, v ∈ Z tels que

au + bv = pgcd(a, b)

La preuve découle de l’algorithme d’Euclide. Les entiers u, v ne sont pas uniques. Les entiers u, v sont des
coefficients de Bézout. Ils s’obtiennent en « remontant » l’algorithme d’Euclide.

Exemple 8.
Calculons les coefficients de Bézout pour a = 600 et b = 124. Nous reprenons les calculs effectués pour trouver
pgcd(600, 124)= 4. La partie gauche est l’algorithme d’Euclide. La partie droite s’obtient de bas en haut. On
exprime le pgcd à l’aide de la dernière ligne où le reste est non nul. Puis on remplace le reste de la ligne
précédente, et ainsi de suite jusqu’à arriver à la première ligne.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 65

600 6 124 29
600 = 124 × 4 + 1044 = ×× −+ ×(−− ) × × 124 ( 5)+(600

124 4) 6

124 5 104 6
124 = 104 × 1 + 204 = ×−(− )+− ×× ×

104 (124 104 1) 5

104 = 20 × 5 + 44 = 104 − 20 × 5
20 = 4 ×5+0
Ainsi pour u = 6 et v = −29 alors 600 × 6 + 124 ×(−29)= 4.

Remarque.
• Soignez vos calculs et leur présentation. C’est un algorithme : vous devez aboutir au bon résultat ! Dans la

partie droite, il faut à chaque ligne bien la reformater. Par exemple 104 −(124 − 104 × 1)× 5 se réécrit en 124

×(−5)+ 104 × 6 afin de pouvoir remplacer ensuite 104.

• N’oubliez pas de vérifier vos calculs ! C’est rapide et vous serez certains que vos calculs sont exacts. Ici on
vérifie à la fin que 600 × 6 + 124 ×(−29)= 4.

Exemple 9.
Calculons les coefficients de Bézout correspondant à pgcd(9945, 3003)= 39.
9945 = 3003 × 3 + 93639 = 9945 ×(−16)+ 3003 × 53

3003 = 936 × 3 + 19539 = ···

936 = 195 × 4 + 15639 = ···

195 = 156 × 1 + 3939 = 195 − 156 × 1

156 = 39 ×4+0

À vous de finir les calculs. On obtient 9945 ×(−16)+ 3003 × 53 = 39.

2.2. Corollaires du théorème de Bézout

Corollaire 1.
Si d|a et d|b alors d| pgcd(a, b).

Exemple : 4|16 et 4|24 donc 4 doit diviser pgcd(16, 24) qui effectivement vaut 8.

Démonstration. Comme d|au et d|bv donc d|au + bv. Par le théorème de Bézout d| pgcd(a, b).

Corollaire 2.
Soient a, b deux entiers. a et b sont premiers entre eux si et seulement si il existe u, v ∈ Z tels que
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 66

au + bv = 1

Démonstration. Le sens ⇒ est une conséquence du théorème de Bézout.

Pour le sens ⇐ on suppose qu’il existe u, v tels que au + bv = 1. Comme pgcd(a, b)|a alors pgcd(a, b)|au. De

même pgcd(a, b)|bv. Donc pgcd(a, b)|au + bv = 1. Donc pgcd(a, b)= 1.

Remarque.
Si on trouve deux entiers u′, v′ tels que au′ + bv′ = d, cela n’implique pas que d = pgcd(a, b). On sait seulement
alors que pgcd(a, b)|d. Par exemple a = 12, b = 8 ; 12 × 1 + 8 × 3 = 36 et pgcd(a, b)= 4.

Corollaire 3 (Lemme de Gauss).


Soient a, b, c ∈ Z. | |

Si a bc et pgcd(a, b)= 1 alors a c


Exemple : si 4|7 × c, et comme 4 et 7 sont premiers entre eux,
alors 4|c.

Démonstration. Comme pgcd(a, b)= 1 alors il existe u, v ∈ Z tels que au+ bv = 1. On multiplie cette égalité par c

pour obtenir acu + bcv = c. Mais a|acu et par hypothèse a|bcv donc a divise acu + bcv = c.

ax by
2.3. Équations + =c
Proposition 1.
Considérons l’équation
ax + b y = c (E)
où a, b, c ∈ Z.

1. L’équation (E) possède des solutions (x, y) ∈ Z2 si et seulement si pgcd(a, b)|c.

2. Si pgcd(a, b)|c alors il existe même une infinité de solutions entières et elles sont exactement les (x, y)= (x0

+αk, y0 +βk) avec x0, y0, α, β ∈ Z fixés et k parcourant Z.

Le premier point est une conséquence du théorème de Bézout. Nous allons voir sur un exemple comment
prouver le second point et calculer explicitement les solutions. Il est bon de refaire toutes les étapes de la
démonstration à chaque fois.
Exemple 10.
Trouver les solutions entières de
161x + 368y = 115 (E)
• Première étape. Y a-t-il des solutions? L’algorithme d’Euclide. On effectue l’algorithme d’Euclide pour
calculer le pgcd de a = 161 et b = 368.

368 = 161 × 2 + 46
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 67

161 = 46 × 3 + 23

46 = 23 × 2+0

Donc pgcd(368, 161)= 23. Comme 115 = 5 × 23 alors pgcd(368, 161)|115. Par le théorème de Bézout,

l’équation (E) admet des solutions entières.

• Deuxième étape. Trouver une solution particulière : la remontée de l’algorithme d’Euclide. On effectue la
remontée de l’algorithme d’Euclide pour calculer les coefficients de Bézout.
161 )
368 = 161 × 2 + 463)

161 = 46 × 3 + 23 − ×

46 = 23 × 2+0

On trouve donc 161 × 7 + 368 ×(−3)= 23. Comme 115 = 5 × 23 en multipliant par 5 on obtient :

161 × 35 + 368 ×(−15)= 115

Ainsi (x0, y0)=(35, −15) est une solution particulière de (E).

• Troisième étape. Recherche de toutes les solutions. Soit (x, y) ∈ Z2 une solution de (E). Nous savons que (x0,

y0) est aussi solution. Ainsi :

161x + 368y = 115 et 161x0 + 368y0 = 115

(on n’a aucun intérêt à remplacer x0 et y0 par leurs valeurs). La différence de ces deux égalités conduit à

161 ×(x − x0)+ 368 ×(y − y0)= 0

=⇒ 23 × 7 ×(x − x0)+ 23 × 16 ×(y − y0)= 0

=⇒ 7(x − x0)= −16(y − y0) (∗)

Nous avons simplifié par 23 qui est le pgcd de 161 et 368. (Attention, n’oubliez surtout pas cette
simplification, sinon la suite du raisonnement serait fausse.)
Ainsi 7|16(y − y0), or pgcd(7, 16)= 1 donc par le lemme de Gauss 7|y − y0. Il existe donc k ∈ Z tel que y − y0 = 7

× k. Repartant de l’équation (∗) : 7(x − x0) = −16(y − y0). On obtient maintenant

7(x − x0)= −16 × 7 × k. D’où x − x0 = −16k. (C’est le même k pour x et pour y.) Nous avons donc
(x, y) = (x0 − 16k, y0 + 7k). Il n’est pas dur de voir que tout couple de cette forme est solution de l’équation (E).

Il reste donc juste à substituer (x0, y0) par sa valeur et nous obtenons :

Les solutions entières de 161x + 368y = 115 sont les (x, y)=(35 − 16k, −15 + 7k), k parcourant Z.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 68

Pour se rassurer, prenez une valeur de k au hasard et vérifiez que vous obtenez bien une solution de l’équation.

2.4. ppcm

Définition 4.
Le ppcm(a, b) (plus petit multiple commun) est le plus petit entier ⩾ 0 divisible par a et par b.

Par exemple ppcm(12, 9)= 36.


Le pgcd et le ppcm sont liés par la formule suivante :
Proposition 2.
Si a, b sont des entiers (non tous les deux nuls) alors

pgcd(a, b) × ppcm(a, b)= |ab|

Démonstration. Posons d = pgcd(a, b) et m = pgcd|ab(a|,b). Pour simplifier on suppose a > 0 et b > 0. On écrit a = da′
et b = d b′. Alors ab = d2a′b′ et donc m = da′b′. Ainsi m = ab′ = a′b est un multiple de a et de b. Il reste à montrer
que c’est le plus petit multiple. Si n est un autre multiple de a et de b alors n = ka =ℓb donc kda′ =ℓd b′ et ka′ =ℓb′.
Or pgcd(a′, b′)= 1 et a′|ℓb′ donc a′|ℓ. Donc a′b|ℓb et ainsi m = a′b|ℓb = n.

Voici un autre résultat concernant le ppcm qui se démontre en utilisant la décomposition en facteurs premiers :
Proposition 3.
Si a|c et b|c alors ppcm(a, b)|c.

Il serait faux de penser que ab|c. Par exemple 6|36, 9|36 mais 6×9 ne divise pas 36. Par contre ppcm(6, 9)= 18

divise bien 36.

Mini-exercices.
1. Calculer les coefficients de Bézout correspondant à pgcd(560, 133), pgcd(12 121, 789).

2. Montrer à l’aide d’un corollaire du théorème de Bézout que pgcd(a, a + 1)= 1.

3. Résoudre les équations : 407x + 129y = 1 ; 720x + 54y = 6 ; 216x + 92y = 8.

4. Trouver les couples (a, b) vérifiant pgcd(a, b)= 12 et ppcm(a, b)= 360.
ARITHMÉTIQUE 69
3. NOMBRES PREMIERS

3. Nombres premiers
Les nombres premiers sont –en quelque sorte– les briques élémentaires des entiers : tout entier s’écrit comme
produit de nombres premiers.

3.1. Une infinité de nombres premiers

Définition 5.
Un nombre premier p est un entier ⩾ 2 dont les seuls diviseurs positifs sont 1 et p.

Exemples : 2, 3, 5, 7, 11 sont premiers, 4 = 2 × 2, 6 = 2 × 3, 8 = 2 × 4 ne sont pas premiers.

Lemme 2.
Tout entier n ⩾ 2 admet un diviseur qui est un nombre premier.

Démonstration. Soit D l’ensemble des diviseurs de n qui sont ⩾ 2 :

D =k ⩾ 2 | k|n .

L’ensemble D est non vide (car n ∈ D), notons alors p = min D.

Supposons, par l’absurde, que p ne soit pas un nombre premier alors p admet un diviseur q tel que 1 < q < p mais

alors q est aussi un diviseur de n et donc q ∈ D avec q < p. Ce qui donne une contradiction car p est le minimum.

Conclusion : p est un nombre premier. Et comme p ∈ D, p divise n.

Proposition 4.
Il existe une infinité de nombres premiers.

Démonstration. Par l’absurde, supposons qu’il n’y ait qu’un nombre fini de nombres premiers que l’on note p1 =

2, p2 = 3, p3,. . ., pn. Considérons l’entier N = p1 × p2 × ··· × pn + 1. Soit p un diviseur premier de N (un tel p existe par

le lemme précédent), alors d’une part p est l’un des entiers pi donc p|p1 ×···× pn, d’autre part p|N donc p divise la

différence N − p1 ×···× pn = 1. Cela implique que p = 1, ce qui contredit que p soit un nombre premier.

Cette contradiction nous permet de conclure qu’il existe une infinité de nombres premiers.

3.2. Eratosthène et Euclide


Comment trouver les nombres premiers ? Le crible d’Eratosthène permet de trouver les premiers nombres
premiers. Pour cela on écrit les premiers entiers : pour notre exemple de 2 à 25.
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
ARITHMÉTIQUE 4. CONGRUENCES 70
Rappelons-nous qu’un diviseur positif d’un entier n est inférieur ou égal à n. Donc 2 ne peut avoir comme

suivants de
diviseurs que 1 et 2 et est donc premier. On entoure 2. Ensuite on raye (ici en grisé) tous les multiples

2 qui ne seront donc pas premiers (car divisible par 2) :

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
diviseur plus
Le premier nombre restant de la liste est 3 et est nécessairement premier : il n’est pas divisible par un

petit (sinon il serait rayé). On entoure 3 et on raye tous les multiples de 3 (6, 9, 12, . . .).

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Le premier nombre restant est 5 et est donc premier. On raye les multiples de 5.

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

3. NOMBRES PREMIERS

7 est donc premier, on raye les multiples de 7 (ici pas de nouveaux nombres à barrer). Ainsi de suite :
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 11, 13, 17, 19, 23 sont premiers.
Remarque.


Si un nombrep n pn’est pas premier alors un de ses facteurs est pn. En effet si n = a × b avec a, b ⩾ 2 alors a

⩽ ⩽
n ou b n (réfléchissez par l’absurde !). Par exemple pour tester si un nombre ⩽ 100 est premier il suffit de

tester les diviseurs ⩽ 10. Et comme il suffit de tester les diviseurs premiers, il suffit en fait de tester la divisibilité
par 2, 3, 5 et 7. Exemple : 89 n’est pas divisible par 2, 3, 5, 7 et est donc un nombre premier.

Proposition 5 (Lemme d’Euclide).


Soit p un nombre premier. Si p|ab alors p|a ou p|b.

Démonstration. Si p ne divise pas a alors p et a sont premiers entre eux (en effet les diviseurs de p sont 1 et p,
mais seul 1 divise aussi a, donc pgcd(a, p)= 1). Ainsi par le lemme de Gauss p|b.

Exemple 11.

Si p est un nombre premier, pp n’est pas un nombre rationnel. 2

La preuve se fait par l’absurde : écrivons pp = ab avec a ∈ Z, b ∈ N∗ et pgcd(a, b)= 1. Alors p = ab2 donc pb2 = a2.

Ainsi p|a22 donc par le lemme d’Euclide2 2 p|a2. On peut alors écrire a = pa′ avec a′ un entier. De l’équation pb2 = a
ARITHMÉTIQUE 71
on tire alors b = pa′ . Ainsi p|b et donc p|b. Maintenantp p|a et p|b donc a et b ne sont pas premiers entre eux.

Ce qui contredit pgcd(a, b)= 1. Conclusion p n’est pas rationnel.

3.3. Décomposition en facteurs premiers

Théorème 3.
Soit n ⩾ 2 un entier. Il existe des nombres premiers p 1 < p2 < ··· < pr et des exposants entiers α1, α2, . . . , αr ⩾

1 tels que :

n = p1α1 × p2α2 ×···× pαr r .

De plus les pi et les αi (i = 1, . . . , r) sont uniques.

Exemple : 24 = 23 × 3 est la décomposition en facteurs premiers. Par contre 2 2 36 = 22 × 9 n’est pas la

décomposition en facteurs premiers, c’est 2 × 3 .

Remarque.
La principale raison pour laquelle on choisit de dire que 1 n’est pas un nombre premier, c’est que sinon il n’y
aurait plus unicité de la décomposition : 24 = 23 × 3 = 1 × 23 × 3 = 12 × 23 × 3 = ···

Démonstration.
Existence. Nous allons démontrer l’existence de la décomposition par une récurrence sur n.
L’entier n = 2 est déjà décomposé. Soit n ⩾ 3, supposons que tout entier < n admette une décomposition en

facteurs premiers. Notons p1 le plus petit nombre premier divisant n (voir le lemme 2). Si n est un nombre

premier alors n = p1 et c’est fini. Sinon on définit l’entier n′ = pn1 < n et on applique notre hypothèse de récurrence

à n′ qui admet une décomposition en facteurs premiers. Alors n = p1 × n′ admet aussi une décomposition.

Unicité. Nous allons démontrer qu’une telle décomposition est unique en effectuant cette fois une récurrence
Pr
sur la somme des exposants σ= i =1 α i.
Si σ= 1 cela signifie n = p1 qui est bien l’unique écriture possible.
Soit σ⩾ 2. On suppose que les entiers dont la somme des exposants est <σ ont une unique décomposition.
Soit n un entier dont la somme des exposants vaut σ. Écrivons le avec deux décompositions :

n = p1α1 × p2α2 ×···× pαr r = q1β1 × q2β2 ×···× qsβs .

(On a p1 < p2 < ··· et q1 < q2 < ··· .) 1 2 r

Si p1 < q1 alors p1 < qj pour tous les j = 1, . . . , s. Ainsi p1 divise p1α × p2α ×···× pαr = n mais ne divise pas q1β1 × q2β2 ×···×

qsβs = n. Ce qui est absurde. Donc p1 ⩾ q1.

Si p1 > q1 un même raisonnement conduit aussi à une contradiction. On conclut que p1 = q1. On pose alors
ARITHMÉTIQUE 4. CONGRUENCES 72
n′ = pn1 = p1α1−1 × p2α2 ×···× pαr r = q1β1−1 × q2β2 ×···× qsβs

L’hypothèse de récurrence qui s’applique à n′ implique que ces deux décompositions sont les mêmes. Ainsi r = s

et pi = qi, αi =βi, i = 1, . . . , r.

Exemple 12.

504 = 23 × 32 × 7, 300 = 22 × 3 × 52.

Pour calculer le pgcd on réécrit ces décompositions :


504 = 23 × 32 × 50 × 71, 300 = 22 × 31 × 52 × 70.

Le pgcd est le nombre obtenu en prenant le plus petit exposant de chaque facteur premier :

pgcd(504, 300)= 22 × 31 × 50 × 70 = 12.

Pour le ppcm on prend le plus grand exposant de chaque facteur premier :

ppcm(504, 300)= 23 × 32 × 52 × 71 = 12 600

Mini-exercices.
1. Montrer que n!+1 n’est divisible par aucun des entiers 2, 3, . . . , n. Est-ce toujours un nombre premier ?

2. Trouver tous les nombres premiers ⩽ 103.

3. Décomposer a = 2 340 et b = 15 288 en facteurs premiers. Calculer leur pgcd et leur ppcm.

4. Décomposer 48 400 en produit de facteurs premiers. Combien 48 400 admet-il de diviseurs ?

5. Soient a, b ⩾ 0. À l’aide de la décomposition en facteurs premiers, reprouver la formule pgcd(a, b)×

ppcm(a, b)= a × b.

4. Congruences

4.1. Définition

Définition 6.
Soit n ⩾ 2 un entier. On dit que a est congru à b modulo n, si n divise b − a. On note alors

a ≡ b (mod n).

On note aussi parfois a = b (mod n) ou a ≡ b[n]. Une autre formulation est

a ≡ b (mod n) ⇐⇒ ∃k∈
Z a = b + kn.
ARITHMÉTIQUE 73
Remarquez que n divise a si et seulement si a ≡ 0 (mod n).
ARITHMÉTIQUE 4. CONGRUENCES 74

Proposition 6.
1. La relation « congru modulo n » est une relation d’équivalence :
• (Réflexivité) a ≡ a (mod n),

• (Symétrie) si a ≡ b (mod n) alors b ≡ a (mod n),

• (Transitivité) si a ≡ b (mod n) et b ≡ c (mod n) alors a ≡ c (mod n).

2. Si a ≡ b (mod n) et c ≡ d (mod n) alors a + c ≡ b + d (mod n).

3. Si a ≡ b (mod n) et c ≡ d (mod n) alors a × c ≡ b × d (mod n).

4. Si a ≡ b (mod n) alors pour tout k ⩾ 0, ak ≡ bk (mod n).

Exemple 13.
• 15 ≡ 1 (mod 7), 72 ≡ 2 (mod 7), 3 ≡ −11 (mod 7), • 5x + 8 ≡ 3 (mod 5) pour tout x

∈ Z,

• 1120xx ≡ 120xx ≡ 1 (mod 10), où 20x x est l’année en cours.

Démonstration.

1. Utiliser la définition.

2. Idem.

3. Prouvons la propriété multiplicative : a ≡ b (mod n) donc il existe k ∈ Z tel que a = b + kn et c ≡ d (mod n) donc

il existe ℓ ∈ Z tel que c ≡ d +ℓn. Alors a × c =(b + kn)×(d +ℓn)= bd +(bℓ+ dk + kℓn)n qui est bien de la forme bd

+ mn avec m ∈ Z. Ainsi ac ≡ bd (mod n).

4. C’est une conséquence du point précédent : avec a = c et b = d on obtient a2 ≡ b2 (mod n). On continue par

récurrence.

Exemple 14.
Critère de divisibilité par 9.

N est divisible par 9 si et seulement si la


somme de ses chiffres est divisible par 9.
ARITHMÉTIQUE 4. CONGRUENCES 75

Pour prouver cela nous utilisons les congruences. Remarquons d’abord que 9|N équivaut à N ≡ 0 (mod 9) et

notons aussi que 10 ≡ 1 (mod 9), 102 ≡ 1 (mod 9), 103 ≡ 1 (mod 9),...

Nous allons donc calculer N modulo 9. Écrivons N en base 10 : N = ak ··· a2a1a0 (a0 est le chiffre des
+
unités, a1 celui des dizaines,...) alors N = 10kak ···+ 102a2 + 101a1 + a0. Donc

+
N = 10kak ···+ 102a2 + 101a1 + a0

≡ ak +···+ a2 + a1 + a0 (mod 9)

Donc N est congru à la somme de ses chiffres modulo 9. Ainsi N ≡ 0 (mod 9) si et seulement si la somme des

chiffres vaut 0 modulo 9.

Voyons cela sur un exemple : N = 488 889. Ici a0 = 9 est le chiffre des unités, a1 = 8 celui des dizaines,...
Cette écriture décimale signifie N = 4 · 105 + 8 · 104 + 8 · 103 + 8 · 102 + 8 · 10 + 9.

N = 4 · 105 + 8 · 104 + 8 · 103 + 8 · 102 + 8 · 10 + 9

≡ 4 + 8 + 8 + 8 + 8 + 9 (mod 9)

≡ 45 (mod 9) et on refait la somme des chiffres de 45

≡ 9 (mod 9)

≡ 0 (mod 9)

Ainsi nous savons que 488 889 est divisible par 9 sans avoir effectué de division euclidienne.

Remarque.
Pour trouver un « bon » représentant de a (mod n) on peut aussi faire la division euclidienne de a par n : a = bn +
r alors a ≡ r (mod n) et 0 ⩽ r < n.

Exemple 15.
Les calculs bien menés avec les congruences sont souvent très rapides. Par exemple on souhaite calculer 2 21
(mod 37) (plus exactement on souhaite trouver 0 ⩽ r < 37 tel que 221 ≡ r (mod 37)). Plusieurs méthodes :

1. On calcule 221, puis on fait la division euclidienne de 221 par 37, le reste est notre résultat. C’est laborieux !

2. On calcule successivement les 2k modulo 37 : 21 ≡ 2 (mod 37), 22 ≡ 4 (mod 37), 23 ≡ 8 (mod 37),

24 ≡ 16 (mod 37), 25 ≡ 32 (mod 37). Ensuite on n’oublie pas d’utiliser les congruences : 26 ≡ 64 ≡ 27 (mod 37). 27

≡ 2 · 26 ≡ 2 · 27 ≡ 54 ≡ 17 (mod 37) et ainsi de suite en utilisant le calcul précédent à chaque étape. C’est assez
ARITHMÉTIQUE 4. CONGRUENCES 76

efficace et on peut raffiner : par exemple on trouve 28 ≡ 34 (mod 37) mais donc aussi 28 ≡ −3 (mod 37) et donc

29 ≡ 2 · 28 ≡ 2 ·(−3) ≡ −6 ≡ 31 (mod 37),...

3. Il existe une méthode encore plus efficace, on écrit l’exposant 21 en base 2 : 21 = 2 4+22+20 = 16+4+1. Alors 221

= 216 · 24 · 21. Et il est facile de

calculer successivement

chacun de ces termes car les exposants sont des puissances de 2. Ainsi 3)2 ≡ 9

(mod 37). Nous obtenons 2 · · × ×

4.2. Équation de congruence ax ≡ b (mod n)

Proposition 7.
Soit a ∈ Z∗, b ∈ Z fixés et n ⩾ 2. Considérons l’équation ax ≡ b (mod n) d’inconnue x ∈ Z :

1. Il existe des solutions si et seulement si pgcd(a, n)|b.

2. Les solutions sont de la forme x Z où x0 est une solution particulière. Il existe donc
pgcd(a, n) classes de solutions.

Exemple 16.
Résolvons l’équation 9x ≡ 6 (mod 24). Comme pgcd(9, 24) = 3 divise 6 la proposition ci-dessus nous affirme qu’il

existe des solutions. Nous allons les calculer. (Il est toujours préférable de refaire rapidement les calculs que

d’apprendre la formule). Trouver x tel que 9x ≡ 6 (mod 24) est équivalent à trouver x et k tels que 9x = 6 + 24k.

Mis sous la forme 9x − 24k = 6 il s’agit alors d’une équation que nous avons étudiée en détails (voir section 2.3). Il

y a bien des solutions car pgcd(9, 24)= 3 divise 6. En divisant par le pgcd on obtient l’équation équivalente :

3x − 8k = 2.

Pour le calcul du pgcd et d’une solution particulière nous utilisons normalement l’algorithme d’Euclide et sa
remontée. Ici il est facile de trouver une solution particulière (x0 = 6, k0 = 2) à la main.
On termine comme pour les équations de la section 2.3. Si (x, k) est une solution de 3x − 8k = 2 alors par

soustraction on obtient 3(x − x0)− 8(k − k0)= 0 et on trouve x = x0 + 8ℓ, avec ℓ ∈ Z (le terme k ne nous intéresse

pas). Nous avons donc trouvé les x qui sont solutions de 3x − 8k = 2, ce qui équivaut à 9x − 24k = 6, ce qui

équivaut encore à 9x ≡ 6 (mod 24). Les solutions sont de la forme x = 6 + 8ℓ. On préfère les regrouper en 3

classes modulo 24 :
ARITHMÉTIQUE 4. CONGRUENCES 77

x1 = 6 + 24m, x2 = 14 + 24m, x3 = 22 + 24m avec m ∈ Z.

Remarque.
Expliquons le terme de « classe » utilisé ici. Nous avons considéré ici que l’équation 9x ≡ 6 (mod 24) est une

équation d’entiers. On peut aussi considérer que 9, x, 6 sont des classes d’équivalence modulo 24, et l’on

noterait alors 9x = 6. On trouverait comme solutions trois classes d’équivalence :

x1 = 6, x2 = 14, x3 = 22.

Démonstration.
1.

x ∈ Z est un solution de l’équation ax ≡ b (mod n)

⇐⇒ ∃k ∈ Z ax = b + kn

⇐⇒ ∃k ∈ Z ax − kn = b

⇐⇒ pgcd(a, n)|b par la proposition 1

Nous avons juste transformé notre équation ax ≡ b (mod n) en une équation ax − kn = b étudiée auparavant

(voir section 2.3), seules les notations changent : au + bv = c devient ax − kn = b.

2. Supposons qu’il existe des solutions. Nous allons noter d = pgcd(a, n) et écrire a = da′, n = dn′ et b = d b′ (car par

le premier point d|b). L’équation ax−kn = b d’inconnues x, k ∈ Z est alors équivalente à l’équation a′x −kn′ = b′,

notée (⋆). Nous savons résoudre cette équation (voir de nouveau la proposition 1), si (x0, k0) est une solution

particulière de (⋆) alors on connaît tous les (x, k) solutions. En particulier x = x0 +ℓn′ avec ℓ ∈ Z (les k ne nous

intéressent pas ici).

Ainsi les solutions x ∈ Z sont de la forme x Z où x0 est une solution particulière de ax ≡

b (mod n). Et modulo n cela donne bien pgcd(a, n) classes distinctes.

4.3. Petit théorème de Fermat

Théorème 4 (Petit théorème de Fermat).


Si p est un nombre premier et a ∈ Z alors

ap ≡ a (mod p)
ARITHMÉTIQUE 4. CONGRUENCES 78

Corollaire 4. Si p ne
divise pas a alors

ap−1 ≡ 1 (mod p)

Lemme 3.

p divise kp pour 1 ⩽ k ⩽ p − 1, c’est-à-dire p


k ≡ 0 (mod p).

Démonstration. kp= k!(pp−p! kdivise l’un des facteurs de)! donc p! = k!(p − k)! kp. Ainsik! mais il sont tousp|k!(p − k)!

kp<. Or commep). De même1 ⩽ pk ne divise pas⩽ p − 1 alors p ne divise pas k! (sinon


p
(p − k)!, donc par le lemme d’Euclide p divise k.

Preuve du théorème. Nous le montrons par récurrence pour les a ⩾ 0.


• Si a = 0 alors 0 ≡ 0 (mod p).

• Fixons a ⩾ 0 et supposons que ap ≡ a (mod p). Calculons (a + 1)p à l’aide de la formule du binôme de Newton :

(a + 1)p = ap + −p ‹ap−1 +p −p 2‹ap−2 +···+1p‹+ 1

p 1
Réduisons maintenant modulo p :

(a + 1)p ≡ ap +p −p 1‹ap−1 +p −p 2‹ap−2 +···+1p‹+ 1 (mod p)

≡ ap + 1 (mod p) grâce au lemme 3

≡ a + 1 (mod p) à cause de l’hypothèse de récurrence

• Par le principe de récurrence nous avons démontré le petit théorème de Fermat pour tout a ⩾ 0. Il n’est pas
dur d’en déduire le cas des a ⩽ 0.

Exemple 17.
Calculons 143141 (mod 17). Le nombre 17 étant premier on sait par le petit théorème de Fermat que 14 16 ≡ 1 (mod

17). Écrivons la division euclidienne de 3141 par 16 :

3141 = 16 × 196 + 5.

Alors
143141 ≡ 1416×196+5 ≡ 1416×196 × 145
ARITHMÉTIQUE 4. CONGRUENCES 79

× ×
≡ 145 (mod 17)

Il ne reste plus qu’à calculer 145 modulo 17. Cela peut se faire rapidement : 14 ≡ −3 (mod 17) donc 142 ≡

mod 17). Conclusion : 14 ≡ 14 ≡ 12 (mod 17).

Mini-exercices.
1. Calculer les restes modulo 10 de 122+455, 122×455, 122455. Mêmes calculs modulo 11, puis modulo 12.

2. Prouver qu’un entier est divisible par 3 si et seulement si la somme de ses chiffres est divisible par 3.
3. Calculer 310 (mod 23).

4. Calculer 3100 (mod 23).

5. Résoudre les équations 3x ≡ 4 (mod 7), 4x ≡ 14 (mod 30).

Auteurs du chapitre Arnaud Bodin, Benjamin Boutin, Pascal Romon


Chapitre

5
Polynômes

VidØo ■ partie 1. DØfinitions


VidØo ■ partie 2. ArithmØtique des polyn mes
VidØo ■ partie 3. Racine d’un polyn me, factorisation
VidØo ■ partie 4. Fractions rationnelles Fiche d’exercices ‡
Polyn mes
Fiche d’exercices ‡ Fractions rationnelles

Motivation
Les polynômes sont des objets très simples mais aux propriétés extrêmement riches. Vous savez déjà résoudre
les équations de degré 2 : aX 2 + bX + c = 0. Savez-vous que la résolution des équations de degré 3, aX 3 + bX 2 + cX
+ d = 0, a fait l’objet de luttes acharnées dans l’Italie du XVIe siècle ? Un concours était organisé avec un prix pour
chacune de trente équations de degré 3 à résoudre. Un jeune italien, Tartaglia, trouve la formule générale des
solutions et résout les trente équations en une seule nuit ! Cette méthode que Tartaglia voulait garder secrète
sera quand même publiée quelques années plus tard comme la « méthode de Cardan ».
Dans ce chapitre, après quelques définitions des concepts de base, nous allons étudier l’arithmétique des
polynômes. Il y a une grande analogie entre l’arithmétique des polynômes et celles des entiers. On continue avec
un théorème fondamental de l’algèbre : « Tout polynôme de degré n admet n racines complexes. » On termine
avec les fractions rationnelles : une fraction rationnelle est le quotient de deux polynômes.

Dans ce chapitre K désignera l’un des corps Q, R ou C.

1. Définitions

1.1. Définitions

Définition 1.
Un polynôme à coefficients dans K est une expression de la forme

P(X )= anX n + an−1X n−1 +···+ a2X 2 + a1X + a0,

avec n ∈ N et a0, a1, . . . , an ∈ K.

L’ensemble des polynômes est noté K[X ].


• Les ai sont appelés les coefficients du polynôme.
POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 81
• Si tous les coefficients ai sont nuls, P est appelé le polynôme nul, il est noté 0.
• On appelle le degré de P le plus grand entier i tel que ai ≠ 0 ; on le note deg P. Pour le degré du
1. DÉFINITIONS

polynôme nul on pose par convention deg(0)= −∞.

• Un polynôme de la forme P = a0 avec a0 ∈ K est appelé un polynôme constant. Si a0 ≠ 0, son degré

est 0.

Exemple 1.
• X 3 − 5X + est un polynôme de degré 3.

• X n + 1 est un polynôme de degré n.


• 2 est un polynôme constant, de degré 0.

1.2. Opérations sur les polynômes

• Égalité. Soient P = anX n + an−1.X n−1 + ··· + a1X + a0 et Q = bnX n + bn−1X n−1 + ··· + b1X + b0 deux polynômes à

coefficients dans K

P=Q ⇐⇒ ∀i ai = bi

et on dit que P et Q sont égaux.


+ +
• Addition. Soient P = anX n + an−1X n−1 ···+ a1X + a0 et Q = bnX n + bn−1X n−1 ···+ b1X + b0.

On définit :
P + Q =(an + bn)X n +(an 1 + b −1)X n−1 +···+(a1 + b1)X
+(a0 + b0)

+
• Multiplication. Soient P = anX nbmX m + bm−1X m−1 ···+ b1X + b0.

On définit
P × Q = crX r + cr−X1X r−1 +···+ c1X + c0 avec r = n + m et ck =

ai bj pour k ∈ {0, . . . , r}.

i+j=k

• Multiplication par un scalaire. Si λ ∈ K alors λ· P est le polynôme dont le i-ème coefficient est λai.

Exemple 2.
• Soient P = aX 3 + bX 2 + cX + d et Q =αX 2 +βX +γ. Alors P +Q = aX 3 +(b +α)X 2 +(c +β)X +(d +γ), P ×Q =(aα)X 5 +

(aβ+ bα)X 4 +(aγ+ bβ+ cα)X 3 +(bγ+ cβ+ dα)X 2 +(cγ+ dβ)X + dγ. Enfin P = Q si et seulement si a = 0, b =α, c =β

et d =γ.

• La multiplication par un scalaire λ· P équivaut à multiplier le polynôme constant λ par le polynôme P.


POLYNÔMES 82
L’addition et la multiplication se comportent sans problème :
Proposition 1.
Pour P,Q, R ∈ K[X ] alors

• 0 + P = P, P + Q = Q + P, (P + Q)+ R = P +(Q + R) ;
• 1 · P = P, P × Q = Q × P, (P × Q)× R = P ×(Q × R) ;

• P ×(Q + R)= P × Q + P × R.

Pour le degré il faut faire attention :


Proposition 2.
Soient P et Q deux polynômes à coefficients dans K.

deg(P × Q)= deg P + degQ

deg(P + Q)⩽ max(deg P, degQ)

On note Rn | deg P ⩽ n . Si P,Q ∈ Rn[X ] alors P + Q ∈ Rn[X ].


1.3. Vocabulaire
Complétons les définitions sur les polynômes.

Définition 2.
• Les polynômes comportant un seul terme non nul (du type akX k) sont appelés monômes.

• Soit P = anX n + an−1X n−1 +···+ana1est appelé leX + a0, un polynôme aveccoefficient dominantan ≠ 0. On

appellede P. terme dominant le monôme anX n. Le coefficient

• Si le coefficient dominant est 1, on dit que P est un polynôme unitaire.

Exemple 3.
P(X )=(X − 1)(X n + X n−1 +···+ X + 1). On développe cette expression : P(X )= X n+1 + X n +···+ X 2 + X − X n + X n−1 +···+ X +

1= X n+1 − 1. P(X ) est donc un polynôme de degré n + 1, il est unitaire et est somme de deux monômes : X n+1 et

−1.

Remarque.
Tout polynôme est donc une somme finie de monômes.

Mini-exercices.

1. Soit P(X )= 3X 3 −2, Q(X )= X 2 + X −1, R(X )= aX + b. Calculer P +Q, P ×Q, (P +Q)×R et P ×Q ×R.

Trouver a et b afin que le degré de P − QR soit le plus petit possible.


POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 83
5 5
2. Calculer (X + 1) −(X − 1) .

3. Déterminer le degré de (X 2 + X + 1)n − aX 2n − bX 2n−1 en fonction de a, b.

4. Montrer que si deg P ̸= degQ alors deg(P + Q)= max(deg P, degQ). Donner un contre-exemple dans le cas où

deg P = degQ.

+
5. Montrer que si P(X )= X n + an−1X n−1 ··· alors le coefficient devant X n−1 de P(X − ann−1 ) est nul.

2. Arithmétique des polynômes


Il existe de grandes similitudes entre l’arithmétique dans Z et l’arithmétique dans K[ X ]. Cela nous permet d’aller
assez vite et d’omettre certaines preuves.

2.1. Division euclidienne

Définition 3.
Soient A, B ∈ K[X ], on dit que B divise A s’il existe Q ∈ K[X ] tel que A = BQ. On note alors B|A.

On dit aussi que A est multiple de B ou que A est divisible par B.


Outre les propriétés évidentes comme A|A, 1|A et A|0 nous avons :

Proposition 3.
Soient A, B, C ∈ K[X ].

1. Si A|B et B|A, alors il existe λ ∈ K∗ tel que A =λB.

2. Si A|B et B|C alors A|C.

3. Si C|A et C|B alors C|(AU + BV), pour tout U, V ∈ K[X ].


Théorème 1 (Division euclidienne des polynômes).
Soient A, B ∈ K[X ], avec B ≠ 0, alors il existe un unique polynôme Q et il existe un unique polynôme R tels

que : A = BQ + R et deg R < deg B.

Q est appelé le quotient et R le reste et cette écriture est la division euclidienne de A par B.

Notez que la condition deg R < deg B signifie R = 0 ou bien 0 ⩽ deg R < deg B.

Enfin R = 0 si et seulement si B|A.


POLYNÔMES 84
Démonstration.
Unicité. Si A = BQ + R et A = BQ′ + R′, alors B(Q − Q′)= R′ − R. Or deg(R′ − R)< deg B. Donc Q′ − Q = 0.

Ainsi Q = Q′, d’où aussi R = R′.

Existence. On montre l’existence par récurrence sur le degré de A.


• Si deg A = 0 et deg B > 0, alors A est une constante, on pose Q = 0 et R = A. Si deg A = 0 et deg B = 0, on pose
Q = A/B et R = 0.
• On suppose l’existence vraie lorsque deg A ⩽ n − 1. Soit A = anX n +···+ a0 un polynôme de degré n

(an ≠ 0). Soit B = bmX mb0 avec bm ≠ 0. Si n < m on pose Q = 0 et R = A.

Si n ⩾ m on écrit A = B · n m
bm X − + A1 avec deg A1 ⩽ n − 1. On applique l’hypothèse de récurrence à

A1 : il existe Q1, R1 ∈ K[X ] tels que A1 = BQ1 + R1 et deg R1 < deg B. Il vient :

a
A=B bmn X n−m + Q1‹+ R1.

Donc Q = bamn X n−m + Q1 et R = R1 conviennent.

Exemple 4.
On pose une division de polynômes comme on pose une division euclidienne de deux entiers. Par exemple si A =

2X 4 − X 3 − 2X 2 + 3X − 1 et B = X 2 − X + 1. Alors on trouve Q = 2X 2 + X − 3 et R = −X + 2. On n’oublie pas de vérifier

qu’effectivement A = BQ + R.

2
2X 4 − X 3 − 2X 2 + 3X − 1 X −X +1
− 2X 4 − 2X 3 + 2X 2
3 2 2
X − 4X + 3X − 1 2X + X − 3
− 3 2
X − X + X

−3 X 2 + 2 X − 1
− −3 X 2 + 3 X − 3

−X + 2

Exemple 5.
Pour X 4 − 3X 3 + X + 1 divisé par X 2 + 2 on trouve un quotient égal à X 2 − 3X − 2 et un reste égale à 7X + 5.
POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 85

4 3 2
X − 3X + X +1 X +2
− X
4
+ 2X 2

−3 X 3 − 2 X 2 + X + 1 2
X − 3X − 2
− −3 X 3 − 6X

−2 X 2 + 7 X + 1
− −2 X 2 −4

7X + 5

2.2. pgcd

Proposition 4.
Soient A, B ∈ K[X ], avec A ≠ 0 ou B ≠ 0. Il existe un unique polynôme unitaire de plus grand degré qui

divise à la fois A et B.

Cet unique polynôme est appelé le pgcd (plus grand commun diviseur) de A et B que l’on note pgcd(A, B).
Remarque.
• pgcd(A, B) est un polynôme unitaire.

• Si A|B et A ̸ 0, pgcd A, où λ est le coefficient dominant de A.


• Pour tout λ ∈ K , pgcd(λA, B)= pgcd(A, B).

• Comme pour les entiers : si A = BQ + R alors pgcd(A, B)= pgcd(B, R). C’est ce qui justifie l’algorithme d’Euclide.
Algorithme d’Euclide.
Soient A et B des polynômes, B ≠ 0.

On calcule les divisions euclidiennes successives,


A = BQ1 + R1 deg R1 < deg B
B = R1Q2 + R2 deg R2 < deg R1
R 1 = R 2Q 3 + R 3 deg R3 < deg R2
...
Rk−2 = Rk−1Qk + Rk deg Rk < deg Rk−1

Rk−1 = RkQk+1
Le degré du reste diminue à chaque division. On arrête l’algorithme lorsque le reste est nul. Le pgcd est le
dernier reste non nul Rk (rendu unitaire).
Exemple 6.
Calculons le pgcd de A = X 4 − 1 et B = X 3 − 1. On applique l’algorithme d’Euclide :

X 4 − 1 = (X 3 − 1)× X + X − 1

X 3 − 1 = (X − 1)×(X 2 + X + 1)+ 0

Le pgcd est le dernier reste non nul, donc pgcd(X 4 − 1, X 3 − 1)= X − 1.


POLYNÔMES 86
Exemple 7.
Calculons le pgcd de5 4
A = X3 5 +2X 4 + 2X 3 + X 2 +4X + 23et B2= X 4 + 2X 3 + X 2 −34. 2

X + X + 24X + X3 + X2 + 2 = (X 3+ 2X 2+ X − 4)×(X1− 1)+ 3X +142X2 + 5X − 2

X3 + 2X2 + X − 4 = (3X2 + 2X + 5X − 2)× 9(3X + 4)− 9 (X + X + 2)

3X + 2X + 5X − 2 = (X + X + 2)×(3X − 1)+ 0

Ainsi pgcd(A, B)= X 2 + X + 2.


Définition 4.
Soient A, B ∈ K[X ]. On dit que A et B sont premiers entre eux si pgcd(A, B)= 1.

Pour A, B quelconques on peut se ramener à des polynômes premiers entre eux : si pgcd(A, B)= D alors A et B
s’écrivent : A = DA′, B = DB′ avec pgcd(A′, B′)= 1.

2.3. Théorème de Bézout

Théorème 2 (Théorème de Bézout).


Soient A, B ∈ K[X ] des polynômes avec A ≠ 0 ou B ̸=0. On note D = pgcd(A, B). Il existe deux

polynômes U, V ∈ K[X ] tels que AU + BV = D.

Ce théorème découle de l’algorithme d’Euclide et plus spécialement de sa remontée comme on le voit sur
l’exemple suivant.
Exemple 8.
Nous avons calculé pgcd(X 4 − 1, X 3 − 1)= X − 1. Nous remontons l’algorithme d’Euclide, ici il n’y avait qu’une

ligne : X 4 − 1 =(X 3 − 1)× X + X − 1, pour en déduire X − 1 =(X 4 − 1)× 1 +(X 3 − 1)×(−X ). Donc U = 1 et V = −X

conviennent.

Exemple 9.
Pour A = X 5+X 4+2X 3+X 2+X +2 et B = X 4+2X 3+X 2−4 nous avions trouvé D = pgcd(A, B)= X 2+X +2. En partant de

l’avant dernière ligne de l’algorithme d’Euclide on a d’abord : B =(3X 3 + 2X 2 + 5X − 2)×

(3X + 4)− D donc

− D = B −(3X 3 + 2X 2 + 5X − 2)× (3X + 4).

La ligne au-dessus dans l’algorithme d’Euclide était : A = B ×(X − 1)+ 3X 3 + 2X 2 + 5X − 2. On substitue le reste pour

obtenir :
POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 87
−− − × −
× 1
3X + 4). D = B A B (X 1) 9(
On en déduit

− D = −A× (3X + 4)+ B 1 +(X − 1)× (3X + 4)


Donc en posant U = (3X + 4) et V = − 9 +(X − 1)(3X + 4)= − (3X 2 + X + 5) on a AU + BV = D.
Le corollaire suivant s’appelle aussi le théorème de Bézout.
Corollaire 1.
Soient A et B deux polynômes. A et B sont premiers entre eux si et seulement s’il existe deux polynômes U
et V tels que AU + BV = 1.

Corollaire 2.
Soient A, B, C ∈ K[X ] avec A ≠ 0 ou B ̸= 0. Si C|A et C|B alors C| pgcd(A, B).

Corollaire 3 (Lemme de Gauss).


Soient A, B, C ∈ K[X ]. Si A|BC et pgcd(A, B)= 1 alors A|C.

2.4. ppcm

Proposition 5.
Soient A, B ∈ K[X ] des polynômes non nuls, alors il existe un unique polynôme unitaire M de plus petit

degré tel que A|M et B|M.


POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 88

Cet unique polynôme est appelé le ppcm (plus petit commun multiple) de A et B qu’on note ppcm(A, B).
Exemple 10. ppcm X (X − 2)2(X 2 + 1)4, (X + 1)(X − 2)3(X 2 + 1)3= X (X + 1)(X − 2)3(X 2 + 1)4.

De plus le ppcm est aussi le plus petit au sens de la divisibilité :


Proposition 6.
Soient A, B ∈ K[X ] des polynômes non nuls et M = ppcm(A, B). Si C ∈ K[X ] est un polynôme tel que A|C et B|

C, alors M|C.

Mini-exercices.

1. Trouver les diviseurs de X 4 + 2X 2 + 1 dans R[X ], puis dans C[X ].

2. Montrer que X − 1|X n − 1 (pour n ⩾ 1).

3. Calculer les divisions euclidiennes de A par B avec A = X 4 − 1, B = X 3 − 1. Puis A = 4X 3 + 2X 2 − X − 5 et B = X 2

+X ; A = 2X 4 −9X 3 +18X 2 −21X +2 et B = X 2 −3X +1 ; A = X 5 −2X 4 +6X 3 et B = 2X 3 +1.

4. Déterminer le pgcd de A = X 5 + X 3 + X 2 + 1 et B = 2X 3 + 3X 2 + 2X + 3. Trouver les coefficients de Bézout U, V.


Mêmes questions avec A = X 5 − 1 et B = X 4 + X + 1.

5. Montrer que si AU + BV = 1 avec deg U < deg B et deg V < deg A alors les polynômes U, V sont uniques.

3. Racine d’un polynôme, factorisation

3.1. Racines d’un polynôme

Définition 5.

Soit P = anX n + an−1X n−1 +···+ a1X + aP0une∈ K[fonction polynômeX ]. Pour un élément(que l’on note encorex

∈ K, on note P(x)=P)anxn +···+ a1x + a0. On associe ainsi au polynôme


P : K → K, x 7→ P(x)= anxn +···+ a1x + a0.

Définition 6.
Soit P ∈ K[X ] et α ∈ K. On dit que α est une racine (ou un zéro) de P si P(α)= 0.

Proposition 7.

P(α)= 0 ⇐⇒ X −α divise P

Démonstration. Lorsque l’on écrit la division euclidienne de P par X −α on obtient P = Q ·(X −α)+ R où R est une

constante car deg R < deg(X −α)= 1. Donc P(α)= 0 ⇐⇒ R(α)= 0 ⇐⇒ R = 0 ⇐⇒ X −α|P.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 89

Définition 7.
Soit k ∈ N∗. On dit que α est une racine de multiplicité k de P si (X −α)k divise P alors que (X −α)k+1 ne

divise pas P. Lorsque k = 1 on parle d’une racine simple, lorsque k = 2 d’une racine double, etc.

On dit aussi que α est une racine d’ordre k.


Proposition 8.
Il y a équivalence entre :
(i) α est une racine de multiplicité k de P.
(ii) Il existe Q ∈ K[X ] tel que P =(X −α)kQ, avec Q(α)≠ 0.
)= =
(iii) P(α)= P′(α ··· = P(k−1)(α)= 0 et P(k)(α) ̸ 0.

La preuve est laissée en exercice.


Remarque.
X
Par analogie avec la dérivée d’une fonction, si P(X ) = a0 + a1X + ··· + anX n ∈ K[X ] alors le polynôme P′( )= a1 +

X+
2a2 ···+ nanX n−1 est le polynôme dérivé de P.

3.2. Théorème de d’Alembert-Gauss


Passons à un résultat essentiel de ce chapitre :
Théorème 3 (Théorème de d’Alembert-Gauss).
Tout polynôme à coefficients complexes de degré n ⩾ 1 a au moins une racine dans C. Il admet
exactement n racines si on compte chaque racine avec multiplicité.

Nous admettons ce théorème.


Exemple 11.
∈R
Soit P(X )= aX 2 + bX + c un polynôme de degré 2 à coefficients réels : a, b, c et a ̸= 0.

• Si ∆= b2 − 4ac > 0 alors P admet 2 racines réelles distinctesp −b2+ap∆ etp−b2−ap∆.

• Si ∆< 0 alors P admet 2 racines complexes distinctes .


• Si ∆= 0 alors P admet une racine réelle double .
En tenant compte des multiplicités on a donc toujours exactement 2 racines.

Exemple 12.
P(X )= X n − 1 admet n racines distinctes.

Sachant que P est de degré n alors par le théorème de d’Alembert-Gauss on sait qu’il admet n racines comptées
avec multiplicité. Il s’agit donc maintenant de montrer que ce sont des racines simples. Supposons –par
l’absurde– que α ∈ C soit une racine de multiplicité ⩾ 2. Alors P(α)= 0 et P′(α)= 0. Donc αn − 1 = 0 et nαn−1 = 0. De
la seconde égalité on déduit α= 0, contradictoire avec la première égalité. Donc toutes les racines sont simples.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 90

Ainsi les n racines sont distinctes. (Remarque : sur cet exemple particulier on aurait aussi pu calculer les racines
qui sont ici les racines n-ième de l’unité.)
Pour les autres corps que les nombres complexes nous avons le résultat plus faible suivant :
Théorème 4.
Soit P ∈ K[X ] de degré n ⩾ 1. Alors P admet au plus n racines dans K.

Exemple 13.
P(X )= 3X 3 − 2X 2 + 6X − 4. Considéré comme un polynôme à coefficients dans Q ou R, P n’a qu’une seule racine

(qui est simple) α= 23 et il se décompose en P(X )= 3(X − 23)(X 2 +p2). Si on considère maintenantp P comme un

polynôme à coefficients dans C alors P(X )= 3(X − )(X − i 2)(X + i 2) et admet 3 racines simples.

3.3. Polynômes irréductibles

Définition 8.
Soit P ∈ K[X ] un polynôme de degré ⩾ 1, on dit que P est irréductible si pour tout Q ∈ K[X ] divisant P,

alors, soit Q ∈ K∗, soit il existe λ ∈ K∗ tel que Q =λP.

Remarque.
• Un polynôme irréductible P est donc un polynôme non constant dont les seuls diviseurs de P sont les
constantes ou P lui-même (à une constante multiplicative près).
• La notion de polynôme irréductible pour l’arithmétique de K[X ] correspond à la notion de nombre premier
pour l’arithmétique de Z.
• Dans le cas contraire, on dit que P est réductible ; il existe alors des polynômes A, B de K[X ] tels que P = AB,
avec deg A ⩾ 1 et deg B ⩾ 1.

Exemple 14.
• Tous les polynômes de degré 1 sont irréductibles. Par conséquent il y a une infinité de polynômes
irréductibles.
• X 2 − 1 =(X − 1)(X + 1) ∈ R[X ] est réductible. • X 2 + 1 =(X −pi)(X + i) est réductible dansp C[X ] mais est

irréductible dans R[X ].

• X 2 − 2 =(X − 2)(X + 2) est réductible dans R[X ] mais est irréductible dans Q[X ].

Nous avons l’équivalent du lemme d’Euclide de Z pour les polynômes :

Proposition 9 (Lemme d’Euclide).


Soit P ∈ K[X ] un polynôme irréductible et soient A, B ∈ K[X ]. Si P|AB alors P|A ou P|B.

Démonstration. Si P ne divise pas A alors pgcd(P, A)= 1 car P est irréductible. Donc, par le lemme de Gauss, P
divise B.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 91

3.4. Théorème de factorisation

Théorème 5.
Tout polynôme non constant A ∈ K[X ] s’écrit comme un produit de polynômes irréductibles unitaires :

A =λP1k1 P2k2 ··· Prkr

,r
où λ ∈ K∗ ∈ N∗, ki ∈ N∗ et les Pi sont des polynômes irréductibles distincts.
De plus cette décomposition est unique à l’ordre près des facteurs.

Il s’agit bien sûr de l’analogue de la décomposition d’un nombre en facteurs premiers.

3.5. Factorisation dans C[X] et R[X]

Théorème 6.
Les polynômes irréductibles de C[X ] sont les polynômes de degré 1.

Donc pour P ∈ C[X ] de degré n ⩾ 1 la factorisation s’écrit P =λ(X −α1)k1(X −α2)k2 ···(X −αr)kr , où α1, ..., αr sont

les racines distinctes de P et k1, ..., kr sont leurs multiplicités.

Démonstration. Ce théorème résulte du théorème de d’Alembert-Gauss.

Théorème 7.
Les polynômes irréductibles de R[X ] sont les polynômes de degré 1 ainsi que les polynômes de degré 2
ayant un discriminant ∆< 0.
Soit P ∈ R[X ] de degré n ⩾ 1. Alors la factorisation s’écrit P =λ(X −α1)k1(X −α2)k2 ···(X −αr)kr Qℓ11 ···Qℓss , où les
αi sont exactement les racines réelles distinctes de multiplicité k i et les Qi sont des polynômes irréductibles

X
de degré 2 : Qi = X 2 +βi +γi avec ∆=βi2 − 4γi < 0.
POLYNÔMES 4. FRACTIONS RATIONNELLES 92

Exemple 15.

sa décomposition dansP(X )= 2X 4(X − 1)3(X 2C+[1X)]2(estX 2P+(XX )=+ 1)2est déjà décomposé en facteurs
R [
irréductibles dansX 4(X − 1)3(X − i)2(X + i)2(X − j)(X − j2) où j = e 2 3iXπ]=alors que−1+2ip3.

Exemple 16.
Soit P(X )= X 4 + 1.
• Sur C. On peut d’abord décomposer P(X ) = (X 2 + i)(X 2 − i). Les racines de P sont donc les racines carrées

complexes de i et − i. Ainsi P se factorise dans C[X ] :

P(X )= X − p22(1 + i) X + p22(1 + i) X − p22(1 − i) X + p22(1 − i).

• Sur R. Pour un polynôme à coefficient réels, si α est une racine alors α¯ aussi. Dans la décomposition ci-
dessus on regroupe les facteurs ayant des racines conjuguées, cela doit conduire à un polynôme réel :

—” —
P(X )=” X −pp22(1 + i) X −−pp22(1 − i) X + p22(1 + i) X + p22(1 − i)

=X 2 + 2X + 1X 2 2X + 1,

qui est la factorisation dans R[X ].

Mini-exercices.

1. Trouver un polynôme P(X ) ∈ Z[X ] de degré minimal tel que : soit une racine simple, p2 soit une racine

double et i soit une racine triple.

2. Montrer cette partie de la proposition 8 : « P(α)= 0 et P′(α)= 0 ⇐⇒ α est une racine de multiplicité ⩾ 2 ».

3. Montrer que pour P ∈ C[X ] : « P admet une racine de multiplicité ⩾ 2 ⇐⇒ P et P′ ne sont pas

premiers entre eux ».


POLYNÔMES 4. FRACTIONS RATIONNELLES 93

4. Factoriser P(X )=(2X 2 + X − 2)2(X 4 − 1)3 et Q(X )= 3(X 2 − 1)2(X 2 − X + ) dans C[X ]. En déduire leur pgcd et leur

ppcm. Mêmes questions dans R[X ].

5. Si pgcd(A, B)= 1 montrer que pgcd(A+ B, A× B)= 1.

6. Soit P ∈ R[X ] et α ∈ C\R tel que P(α)= 0. Vérifier que P(α¯)= 0. Montrer que (X −α)(X −α¯) est un polynôme

irréductible de R[X ] et qu’il divise P dans R[X ].

4. Fractions rationnelles

Définition 9.
Une fraction rationnelle à coefficients dans K est une expression de la forme
P
F=Q

où P,Q ∈ K[X ] sont deux polynômes et Q ≠ 0.

Toute fraction rationnelle se décompose comme une somme de fractions rationnelles élémentaires que l’on
appelle des « éléments simples ». Mais les éléments simples sont différents sur C ou sur R.

4.1. Décomposition en éléments simples sur C

Théorème 8 (Décomposition en éléments simples sur C).


Soit P/Q une fraction rationnelle avec P,Q ∈ C[X ], pgcd(P,Q)= 1 et Q =(X −α1)k1 ···(X −αr)kr . Alors il existe
une et une seule écriture :
PQ =E
a a
a1,1 1,2 1,k1

+k1 + (X −α1)k1−1 +···+ (X −α1)

a2,k2
+
+(X −α2)k2 +···+ (X −α2) ···

Le polynôme E s’appelle la partie polynomiale (ou partie entière). Les termes (X−aα)i sont les éléments simples sur

C.

Exemple 17.
POLYNÔMES 4. FRACTIONS RATIONNELLES 94

1 a b =
•• Vérifier queVérifier que XX2 +18X=+9XX +i 7+=X −Xi +avec1 +a(X −12)2i,+bX= +

i.X−+13.

Comment se calcule cette décomposition ? En général on commence par déterminer la partie polynomiale.
Tout d’abord si degQ > deg P alors E(X )= 0. Si deg P ⩽ degQ alors effectuons la division euclidienne de
P par Q : P = QE + R donc QP = E + QR où deg R < degQ. La partie polynomiale est donc le quotient de cette division.
R
Et on s’est ramené au cas d’une fraction Q avec deg R < degQ. Voyons en détails comment continuer sur un
exemple.
Exemple 18.

Décomposons la fraction P = X 5 − 2XX33+−43XX2+−28X + 11.

Q
• Première étape : partie polynomiale. On calcule la division euclidienne de P par Q : P(X )=(X 2 +
QX X2 X EX
1) ( )+ 2 − 5 + 9. Donc la partie polynomiale est2 ( ) = X 2 + 1 et la fraction s’écrit QP((XX)) =

X 2+ 1 + 2 X . Notons que pour la fraction X le


degré du numérateur est strictement plus petit que le degré du dénominateur.
• Deuxième étape : factorisation du dénominateur. Q a pour racine évidente +1 (racine double) et −2 (racine

simple) et se factorise donc ainsi Q(X )=(X − 1)2(X + 2).

• Troisième étape : décomposition théorique en éléments simples. Le théorème de décomposition en

2
éléments simples nous dit qu’il existe une unique décomposition :Nous savons déjà que E(X )= X

QP((XX)) = E(X )+ (X−a1)2 + X−b1 + X+c 2. + 1, il reste à trouver les nombres

a, b, c.

• Quatrième étape : détermination des coefficients. Voici une première façon de déterminer a, b, c. On récrit
la fraction (X−a1)2 + X−b1 + X+c 2 au même dénominateur et on l’identifie avec 2X2Q−(5XX)+9 :

a b c (b + c)X 2 +(a + b − 2c)X + 2a − 2b + c X − 1)2 + X − 1 + X + 2 = (X −

1)2(X + 2)

(
qui doit être égale à

2X 2 − 5X + 9 .

(X − 1)2(X + 2)
POLYNÔMES 4. FRACTIONS RATIONNELLES 95

On en déduit b + c = 2, a + b − 2c = −5 et 2a − 2b + c = 9. Cela conduit à l’unique solution a = 2, b = −1, c = 3.

Donc

P = X 5 − 2X 3 + 4X 2 − 8X + 11 = X 2 + 1 + 2 + −1 + 3 .

Q X 3 − 3X + 2 (X − 1)2 X − 1 X+2

Cette méthode est souvent la plus longue.


• Quatrième étape (bis) : détermination des coefficients. Voici une autre méthode plus efficace.

Pour déterminerNotons PQ′((XX)) = (X2aX−21on multiplie la fraction−)25(XX++92) dont la décomposition théorique


est :PQ′ par (X − 1)2 et on évalue en(X−a1)2 + Xx−b1=+1.X+c 2

Tout d’abord en partant de la décomposition théorique on a :

P ( X) c (X 1 )2
F1(X )=(X − 1)2 Q′( X ) = a + b(X − 1)+ X−+ 2 donc F1(1)= a
D’autre part
P′(X )
F1(X )=(X − 1)2 =(X − 1)2 X2X−21−)25(XX ++92) = 2X 2X−+5X2 + 9

Q(X ) (
donc F1(1)= 2. On en déduit a = 2.
On fait le même processus pour déterminer2 c : on multiplie par (X + 2) et on évalue en −2. On calcule

F2(X )=(X + 2) PQ′((XX)) = (X 1)2


= a (
X
X− +12)2 + b XX + c de deux façons et lorsque l’on

évalue x = −2 on obtient d’une part F2(−2)= c et d’autre part F2(−2)= 3. Ainsi c = 3.

Comme les coefficients sont uniques tous les moyens sont +


bons
X +2 pour les déterminer. Par exemple lorsque

l’on évalue la décomposition théorique PQ′((XX)) = (X−a1)2 + X−b1 c en x = 0, on obtient :

PQ′((00)) = a − b + 2c

Donc = a − b + 2c . Donc b = a + 2c − 92 = −1.

4.2. Décomposition en éléments simples sur R

Théorème 9 (Décomposition en éléments simples sur R).

Soit P/Q une fraction rationnelle avec P,Q ∈ R[X ], pgcd(P,Q)= 1. Alors P/Q s’écrit de manière unique

comme somme :
POLYNÔMES 4. FRACTIONS RATIONNELLES 96

• d’une partie polynomiale E(X ),

•• d’éléments simples du typed’éléments simples du type ((XX−2a+aXαα)i+X,+b β)i .

Où les X −α et X 2 +αX +β sont les facteurs irréductibles de Q(X ) et les exposants i sont inférieurs ou égaux à la

puissance correspondante dans cette factorisation.

Exemple 19.
Décomposition en éléments simples de QP((XX)) = 3X4(X+25+XX3++111)2X(2X+−51X)+3. Comme deg P < degQ alors E(X )= 0. Le

dénominateur est déjà factorisé sur R car X 2 + X + 1 est irréductible. La décomposition théorique est donc :

QP((XX)) = (X 2aX+ X++b1)2 + X 2cX++X d+ 1 −e .

+X 1
=
Il faut ensuite mener au mieux les calculs pour déterminer les coefficients afin d’obtenir : P(X ) X

2 + +
2+XX++11)2 X 2 +−X1 + 1 X 3− 1.

Q(X ) (

Mini-exercices.

1. Soit Q(X )=(X −2)2(X 2−1)3(X 2+1)4. Pour P ∈ R[X ] quelle est la forme théorique de la décomposition en

éléments simples sur C de QP ? Et sur R ?

2+1 X
2. Décomposer les fractions suivantes en éléments simples sur R et C : ; .

3. Décomposer les fractions suivantes en éléments simples sur R : .


2X2+ 7 X 20
4. Soit F(X )= X + 2−. Déterminer l’équation de l’asymptote oblique en ±∞. Étudier la position du graphe de F

par rapport à cette droite.

Auteurs du chapitre
• Rédaction : Arnaud Bodin ; relecture : Stéphanie Bodin
• Basé sur des cours de Guoting Chen et Marc Bourdon
Chapitre

6
Groupes

VidØo ■ partie 1. DØfinition


VidØo ■ partie 2. Sous-groupes
VidØo ■ partie 3. Morphismes de groupes
VidØo ■ partie 4. Le groupe Z/nZ
VidØo ■ partie 5. Le groupe des permutations

Motivation
Évariste Galois a tout juste vingt ans lorsqu’il meurt dans un duel. Il restera pourtant comme l’un des plus grands
mathématiciens de son temps pour avoir introduit la notion de groupe, alors qu’il avait à peine dix-sept ans.
Vous savez résoudre les équations de degré 2 du type ax2 + bx + c = 0. Les solutions s’expriment en fonction de a,

b, c et de la fonction racine carrée p . Pour les équations de degré 3, ax3 + bx2 + cx + d = 0, il existe

Ç3
aussi des formules. Par exemple une solution de x3 + 3x + 1 = 0 est x0 = 3 p52−1 − 5 +1
p 2 . De telles

formules existent aussi pour les équations de degré 4.


Un préoccupation majeure au début du XIXe siècle était de savoir s’il existait des formules similaires pour les
équations de degré 5 ou plus. La réponse fut apportée par Galois et Abel : non il n’existe pas en général une telle
formule. Galois parvient même à dire pour quels polynômes c’est possible et pour lesquels ça ne l’est pas. Il
introduit pour sa démonstration la notion de groupe.
Les groupes sont à la base d’autres notions mathématiques comme les anneaux, les corps, les matrices, les
espaces vectoriels,... Mais vous les retrouvez aussi en arithmétique, en géométrie, en cryptographie !

Nous allons introduire dans ce chapitre la notion de groupe, puis celle de sous-groupe. On étudiera ensuite les
applications entre deux groupes : les morphismes de groupes. Finalement nous détaillerons deux groupes
importants : le groupe Z/nZ et le groupe des permutations Sn.

1. Groupe

1.1. Définition

Définition 1.
Un groupe (G, ⋆) est un ensemble G auquel est associé une opération ⋆ (la loi de composition) vérifiant
les quatre propriétés suivantes :
GROUPES 1. GROUPE 98

1. pour tout x, y ∈ G, x⋆y∈G (⋆ est une loi de composition interne)

2. pour tout x, y, z ∈ G, (x ⋆ y)⋆ z = x ⋆(y ⋆ z) (la loi est associative)


3. il existe e ∈ G tel que ∀x ∈ G, x ⋆ e = x et e ⋆ x = x (e est l’élément neutre)

4. pour tout x ∈ G il existe x′ ∈ G tel que x ⋆ x′ = x′ ⋆ x = e (x′ est l’inverse de x et est noté x−1)

Si de plus l’opération vérifie

pour tout x, y ∈ G, x ⋆ y = y ⋆ x,

on dit que G est un groupe commutatif (ou abélien).

Remarque.
• L’élément neutre e est unique. En effet si e′ vérifie aussi le point (3), alors on a e′ ⋆ e = e (car e est élément
neutre) et e′ ⋆ e = e′ (car e′ aussi). Donc e = e′. Remarquez aussi que l’inverse de l’élément neutre est lui-
même. S’il y a plusieurs groupes, on pourra noter eG pour l’élément neutre du groupe G.
• Un élément x ∈ G ne possède qu’un seul inverse. En effet si x′ et x′′ vérifient tous les deux le point (4) alors on

a x ⋆ x′′ = e donc x′ ⋆(x ⋆ x′′)= x′ ⋆ e. Par l’associativité (2) et la propriété de l’élément neutre

(3) alors (x′ ⋆ x)⋆ x′′ = x′. Mais x′ ⋆ x = e donc e ⋆ x′′ = x′ et ainsi x′′ = x′.

1.2. Exemples
Voici des ensembles bien connus pour lesquels l’opération donnée définit une structure de groupe.
• (R∗, ×) est un groupe commutatif, × est la multiplication habituelle. Vérifions chacune des propriétés :

1. Si x, y ∈ R∗ alors x × y ∈ R∗.

2. Pour tout x, y, z ∈ R∗ alors x × (y × z) = (x × y) × z, c’est l’associativité de la multiplication des nombres

réels.

3. 1 est l’élément neutre pour la multiplication, en effet 1× x = x et x ×1 = x, ceci quelque soit x ∈ R∗.

4. L’inverse d’un élément x ∈ R∗ est x′ = 1x (car x × 1x est bien égal à l’élément neutre 1). L’inverse de x est

donc x . Notons au passage que nous avions exclu 0 de notre groupe, car il n’a pas d’inverse.
Ces propriétés font de (R∗, ×) un groupe.

5. Enfin x × y = y × x, c’est la commutativité de la multiplication des réels.


GROUPES 1. GROUPE 99

• (Q∗, ×), (C∗, ×) sont des groupes commutatifs.

• (Z, +) est un groupe commutatif. Ici + est l’addition habituelle.

1. Si x, y ∈ Z alors x + y ∈ Z.

2. Pour tout x, y, z ∈ Z alors x +(y + z)=(x + y)+ z.

3. 0 est l’élément neutre pour l’addition, en effet 0 + x = x et x + 0 = x, ceci quelque soit x ∈ Z.

4. L’inverse d’un élément x ∈ Z est x′ = −x car x +(−x)= 0 est bien l’élément neutre 0. Quand la loi de groupe

est + l’inverse s’appelle plus couramment l’opposé.

5. Enfin x + y = y + x, et donc (Z, +) est un groupe commutatif. • (Q, +), (R, +), (C, +) sont des groupes

commutatifs.

• Soit R l’ensemble des rotations du plan dont le centre est à l’origine O.

Alors pour deux rotations Rθ et Rθ′ la composée Rθ ◦ Rθ′ est encore une rotation de centre l’origine et d’angle θ

+θ′. Ici ◦ est la composition. Ainsi (R, ◦) forme un groupe (qui est même commutatif).

Pour cette loi l’élément neutre est la rotation d’angle 0 : c’est l’identité du plan. L’inverse d’une rotation
d’angle θ est la rotation d’angle −θ.

• Si I désigne l’ensemble des isométries du plan (ce sont les translations, rotations, réflexions et leurs

composées) alors (I , ◦) est un groupe. Ce groupe n’est pas un groupe commutatif. En effet, identifions le plan

à R2 et soit par exemple R la rotation de centre O = (0, 0) et d’angle et T la translation de vecteur (1, 0).

Alors les

R ◦ T (A)

A
R(A) A T (A)
T ◦ R(A)
π π
2 2

O O
GROUPES 1. GROUPE 100

isométries T ◦ R et R ◦ T sont des applications distinctes. Par exemple les images du point A =(1, 1) par ces

applications sont distinctes : T ◦ R(1, 1)= T(−1, 1)=(0, 1) alors que R ◦ T(1, 1)= R(2, 1)=(−1, 2).

Voici deux exemples qui ne sont pas des groupes :


• (Z∗, ×) n’est pas un groupe. Car si 2 avait un inverse (pour la multiplication ×) ce serait qui n’est pas un

entier.

• (N, +) n’est pas un groupe. En effet l’inverse de 3 (pour l’addition +) devrait être −3 mais −3 ∈/N.

Nous étudierons dans les sections 4 et 5 deux autres groupes très importants : les groupes cycliques (Z/nZ, +) et
les groupes de permutations (Sn, ◦).

1.3. Puissance

Revenons à un groupe (G, ⋆). Pour x ∈ G nous noterons x ⋆ x par x2 et x ⋆ x ⋆ x par x3. Plus généralement nous

noterons :

• xnx,
}

• x0 = e,
• x .
n

Rappelez-vous que x−1 désigne l’inverse de x dans le groupe.


Les règles de calcul sont les mêmes que pour les puissances des nombres réels. Pour x, y ∈ G et m, n ∈ Z nous

avons :

• xm ⋆ xn = xm+n,

• (xm)n = xmn,

• (x ⋆ y)−1 = y−1 ⋆ x−1, attention à l’ordre !

• Si (G, ⋆) est commutatif alors (x ⋆ y)n = xn ⋆ yn.

1.4. Exemple des matrices 2×2

Une matrice 2 × 2 est un tableau de 4 nombres (pour nous des réels) noté ainsi :

a b
.
c d
GROUPES 1. GROUPE 101

Nous allons définir l’opération produit noté × de deux matrices M = a bc d et M′ = ac′′ db′′ :

M M= =
× ′ ac db×ac′′ db′′ aaca′′ ++ dcbc′′ abcb′′ ++ ddbd′′ .

Voici comment présenter les calculs, on place M à gauche, M′ au dessus de ce qui va être le résultat. On calcule

un par un, chacun des termes de M × M′.

Pour le premier terme on prend la colonne située au dessus et la ligne située à gauche : on effectue les produits
a × a′ et b × c′ qu’on additionne pour obtenir le premier terme du résultat. Même chose avec le second terme :
on prend la colonne située au dessus, la ligne située à gauche, on fait les produit, on additionne : ab′ + bd′. Idem
pour les deux autres termes.

×
× 

  a′ b′  c′

d′

!
a b aa′ + bc′ ab′ + bd′
c d ca′ + dc′ cb′ + dd′

Par exemple si M = 1 10 1et M′ = 1 02 1 alors voici comment poser les calculs (M × M′ à gauche, M′ × M
à droite) − 1 0 1 1

2 1 0 −1
1 1 3 1
1 0 1 1
0 −1 −2 −1
2 1 2 1
= 3 1 =
alors M × M′ − 2 − 1 et M′ × M = 1 12 1. Remarquez qu’en général M × M′ ̸ M′ × M.

Le déterminant d’une matrice M = a bc d est par définition le nombre réel


det M = ad − bc.

Proposition 1.
L’ensemble des matrices 2×2 ayant un déterminant non nul, muni de la multiplication des matrices ×,

forme un groupe non-commutatif.

Ce groupe est noté (Gℓ2, ×).


GROUPES 1. GROUPE 102

Nous aurons besoin d’un résultat préliminaire :


Lemme 1.
det(M × M′)= det M · det M′.
Pour la preuve, il suffit de vérifier le calcul : aa′+ bc′ cb′+dd′− ab′+ bd′ ca′+dc′=(ad − bc)(a′d′− b′c′).

Revenons à la preuve de la proposition.

Démonstration.

1. Vérifions la loi de composition interne. Si M, M′ sont des matrices 2 × 2 alors M × M′ aussi. Maintenant si M et

M′ sont de déterminants non nuls alors det(M × M′)= det M · det M′ est aussi non nul. Donc si M, M′ ∈ Gℓ2

alors M × M′ ∈ Gℓ2.

2. Pour vérifier que la loi est associative, c’est un peu fastidieux. Pour trois matrices M, M′, M′′ quelconques il

faut montrer (M × M′)× M′′ = M ×(M′ × M′′). Faites-le pour vérifier que vous maîtrisez le produit de matrices.

1 0
3. Existence de l’élément neutre. La matrice identité I = 0 1 est l’élément neutre pour la multiplication des

matrices : en effet a bc d × 1 00 1= a bc d et 1 00 1× a bc d = a bc d .

4. Existence de l’inverse. Soitest l’inverse de M : vérifiez queM =Ma bc d× M une matrice de déterminant non nul
=
alors−1 = I et que M−1 × M = I. M−1 d
− c −a
b

5. Enfin nous avons déjà vu que cette multiplication n’est pas commutative.

Mini-exercices.
1. Montrer que × est un groupe commutatif.

2. Soit fa,b : R → R la fonction définie par x 7→ ax + b. Montrer que l’ensemble F = {fa,b | a ∈ R∗, b ∈ R} muni

de la composition « ◦ » est un groupe non commutatif.

3. (Plus dur) Soit G =][. Pour x, y ∈ G on définit x ⋆ y = 1x++x yy . Montrer que (G, ⋆) forme un groupe en (a)

montrant que est une loi de composition interne : x ⋆ y ∈ G ; (b) montrant que la loi est associative ; (c)

montrant que 0 est élément neutre ; (d) trouvant l’inverse de x.

Soit (G, ⋆) un groupe quelconque ; x, y, z sont des éléments de G.

4. Montrer que si x ⋆ y = x ⋆ z alors y = z.


GROUPES 1. GROUPE 103

5. Que vaut x ?
n
6. Si x = e, quel est l’inverse de x ?

Matrices :

7. Soient M1 = 01 0−1, M2 = 1 21 0, M3 = 1 23 4. Vérifier que M1 ×(M2 × M3)=(M1 × M2)× M3.

8. Calculer (M1 × M2)2 et M12 × M22. (Rappel : M2 = M × M)

9. Calculer le déterminant des Mi ainsi que leur inverse.


ab
10. Montrer que l’ensemble des matrices 2×2 muni de l’addition + définie par cd + ac′′ db′′ = ac++ac′′ db++db′′ forme un

groupe commutatif.
GROUPES 104
2. SOUS-GROUPES

2. Sous-groupes
Montrer qu’un ensemble est un groupe à partir de la définition peut être assez long. Il existe une autre
technique, c’est de montrer qu’un sous-ensemble d’un groupe est lui-même un groupe : c’est la notion de sous-
groupe.

2.1. Définition
Soit (G, ⋆) un groupe.

Définition 2.
Une partie H ⊂ G est un sous-groupe de G si :

• e ∈ H,

• pour tout x, y ∈ H, on a x ⋆ y ∈ H,

• pour tout x ∈ H, on a x−1 ∈ H.

Notez qu’un sous-groupe H est aussi un groupe (H, ⋆) avec la loi induite par celle de G.
Par exemple si x ∈ H alors, pour tout n ∈ Z, nous avons xn ∈ H.

Remarque.
Un critère pratique et plus rapide pour prouver que H est un sous-groupe de G est : • H
contient au moins un élément
• pour tout x, y ∈ H, x ⋆ y−1 ∈ H.

2.2. Exemples•est un sous-groupe de (R∗, ×). En effet :

— ,
— si x, y,
— si x .
• (U, ×) est un sous-groupe de (C∗, ×), où U= {z ∈ C | |z| = 1}. • (Z, +) est un sous-groupe de (R, +).

• {e} et G sont les sous-groupes triviaux du groupe G.

• L’ensemble R des rotations du plan dont le centre est à l’origine est un sous-groupe du groupe des isométries

I. a

0
• L’ensemble des matrices diagonales 0d avec a ≠ 0 et d ≠ 0 est un sous-groupe de (Gℓ2, ×).

2.3. Sous-groupes de Z

Proposition 2.
GROUPES 3. MORPHISMES DE GROUPES 105
Les sous-groupes de (Z, +) sont les nZ, pour n ∈ Z.

L’ensemble nZ désigne l’ensemble des multiples de n :


§ ª nZ= k · n | k
∈Z.

Par exemple :
• 2Z= {. . . , −4, −2, 0, +2, +4, +6, . . .} est l’ensemble des entiers pairs,

• 7Z= {. . . , −14, −7, 0, +7, +14, +21, . . .} est l’ensemble des multiples de 7.

Démonstration. Fixons n ∈ Z. L’ensemble nZ est un sous-groupe de (Z, +), en effet :

• nZ ⊂ Z,
• l’élément neutre 0 appartient à nZ,
• pour x = kn et y = k′n des éléments de nZ alors x + y =(k + k′)n est aussi un élément de nZ,
• enfin si x = kn est un élément de nZ alors −x =(−k)n est aussi un élément de nZ.

Réciproquement soit H un sous-groupe de (Z, +). Si H = {0} alors H = 0Z et c’est fini. Sinon H contient au moins un

élément non-nul et positif (puisque tout élément est accompagné de son opposé) et notons

n = min h > 0 | h ∈ H .

Alors n > 0. Comme n ∈ H alors −n ∈ H, 2n = n+n ∈ H, et plus généralement pour k ∈ Z alors kn ∈ H. Ainsi nZ ⊂

H. Nous allons maintenant montrer l’inclusion inverse. Soit h ∈ H. Écrivons la division euclidienne :

h = kn + r, avec k, r ∈ Z et 0 ⩽ r < n.

Mais h ∈ H et kn ∈ H donc r = h − kn ∈ H. Nous avons un entier r ⩾ 0 qui est un élément de H et strictement

plus petit que n. Par la définition de n, nécessairement r = 0. Autrement dit h = kn et donc h ∈ nZ. Conclusion H =

nZ.

2.4. Sous-groupes engendrés


Soit (G, ⋆) un groupe et E ⊂ G un sous-ensemble de G. Le sous-groupe engendré par E est le plus petit sous-

groupe de G contenant E.

Par exemple si E = {2} et le groupe est (R∗, ×), le sous-groupe engendré par E est H = {2n | n ∈ Z}. Pour le

prouver : il faut montrer que H est un sous-groupe, que 2 ∈ H, et que si H′ est un autre sous-groupe contenant 2

alors H ⊂ H′.
GROUPES 3. MORPHISMES DE GROUPES 106
Autre exemple avec le groupe (Z, +) : si E1 = {2} alors le sous-groupe engendré par E1 est H1 = 2Z. Si E2 = {8, 12}

alors H2 = 4Z et plus généralement si E = {a, b} alors H = nZ où n = pgcd(a, b).

Mini-exercices.

1. Montrer que {2n | n ∈ Z} est un sous-groupe de (R∗, ×).

2. Montrer que si H et H′ sont deux sous-groupes de (G, ⋆) alors H ∩ H′ est aussi un sous-groupe.

3. Montrer que 5Z∪ 8Z n’est pas un sous-groupe de (Z, +).

4. Montrer que l’ensemble des matrices 2 × 2 de déterminant 1 ayant leurs coefficients dans Z est un sous-

groupe de (Gℓ2, ×).

5. Trouver le sous-groupe de (Z, +) engendré par {−12, 8, 20}.

3. Morphismes de groupes

3.1. Définition

Définition 3.
Soient (G, ⋆) et (G′, ⋄) deux groupes. Une application f : G −→ G′ est un morphisme de groupes si :

pour tout x, x′ G f (x ⋆ x′)= f (x) f (x′)


∈ ⋄

L’exemple que vous connaissez déjà est le suivant : soit G le groupe (R, +) et G′ le groupe × . Soit f :
l’application exponentielle définie par f (x)= exp(x). Nous avons bien f (x + x′)= exp(x + x′)= exp(x)×
exp(x′)= f (x)× f (x′).

Et donc f est bien un morphisme de groupes.


3.2. Propriétés

Proposition 3.
Soit f : G −→ G′ un morphisme de groupes alors :

1
• f (eG)= eG′,∈ f (x)−1.

• pour tout x G, f (x− )=

Il faut faire attention à l’ensemble auquel appartiennent les éléments considérés : eG est l’élément neutre de

G, eG′ celui de1 est l’inverse deG′. Il n’y a pas de raison qu’ils soient égaux (ils ne sont même pas dans le même
ensemble).x dans G, alors que f (x)−1 est l’inverse de f (x) mais dans G′.
Aussi x−
GROUPES 3. MORPHISMES DE GROUPES 107
Reprenons l’exemple de la fonction f : Rdéfinie par f (x)= exp(x). Nous avons bien f (0)= 1 :

l’élément neutre de (R, +) a pour image l’élément neutre de (R ∗+, ×). Pour x ∈ R son inverse dans (R, +) est ici son

opposé −x, alors f x x exp(x) f ( ) est bien l’inverse (dans × ) de f (x).

Démonstration.
• f (eG) = f (eG ⋆ eG) = f (eG) ⋄ f (eG), en multipliant (à droite par exemple) par f (eG)−1 on obtient eG′ = f (eG).

• Soit x ∈ G alors x ⋆ x−11 = eG donc f (x ⋆ x−1)= f (eG). Cela entraîne f (x)⋄ f (x−1)= eG′, en composant à gauche
par f (x)− , nous obtenons f .

Proposition 4.
• Soient deux morphismes de groupes f : G −→ G′ et g : G′ −→ G′′. Alors g ◦ f : G −→ G′′ est un morphisme de

groupes.

• Si f : G −→ G′ est un morphisme bijectif alors f −1 : G′ −→ G est aussi un morphisme de groupes.

Démonstration. La première partie est facile. Montrons la deuxième : Soit y, y′ ∈ G′. Comme f est bijective, il

existe x, x′ ∈ G tels que f (x)= y et f (x′)= y′. Alors f −1(y ⋄ y′)= f −1 f (x)⋄ f (x′)= f −1 f (x ⋆ x′)= x ⋆ x′ = f −1(y)⋆ f −1(y′). Et

donc f −1 est un morphisme de G′ vers G.

Définition 4.
Un morphisme bijectif est un isomorphisme. Deux groupes G, G′ sont isomorphes s’il existe un

morphisme bijectif f : G −→ G′.

Continuons notre exemple f (x)= exp(x), f : R −→ R∗+ est une application bijective. Sa bijection réciproque f

−→ R est définie par f −1(x) = ln(x). Par la proposition 4 nous savons que f −1 est aussi un morphisme (de

× vers (R, +)) donc f −1(x × x′) = f −1(x)+ f −1(x′). Ce qui s’exprime ici par la formule bien connue : ln(x × x′)=

ln(x)+ ln(x′).

Ainsi f est un isomorphisme et les groupes (R, +) et (R∗+, ×) sont isomorphes.

3.3. Noyau et image


Soit f : G −→ G′ un morphisme de groupes. Nous définissons deux sous-ensembles importants qui vont être des

sous-groupes.

Définition 5.
Le noyau de f est

Ker f =x ∈ G | f (x)= eG′


GROUPES 3. MORPHISMES DE GROUPES 108
1
C’est donc un sous-ensemble de G. En terme d’image réciproque nous avons par définition Ker f = f − {eG′}.

(Attention, la notation f −1 ici désigne l’image réciproque, et ne signifie pas que f est bijective.) Le noyau est donc

l’ensemble des éléments de G qui s’envoient par f sur l’élément neutre de G′.

Définition 6.
L’image de f est

Im f = f ( x ) | x ∈G

C’est donc un sous-ensemble de G′ et en terme d’image directe nous avons Im f = f (G). Ce sont les éléments de G

′ qui ont (au moins) un antécédent par f .

Proposition 5.
Soit f : G −→ G′ un morphisme de groupes.

1. Ker f est un sous-groupe de G.

2. Im f est un sous-groupe de G′.

3. f est injectif si et seulement si Ker f = {eG}.

4. f est surjectif si et seulement si Im f = G′.

Démonstration.
1. Montrons que le noyau est un sous-groupe de G.

(a) f (eG)= eG′ donc eG ∈ Ker f .

(b) Soient x, x′ ∈ Ker f . Alors f (x ⋆ x′)= f (x)⋄ f (x′)= eG′ ⋄ eG′ = eG′ et donc x ⋆ x′ ∈ Ker f .

x f x 1 f x e x
(c) Soit ∈ Ker f . Alors ( − )= ( )−1 = −1
G ′ = eG′. Et donc −
1
∈ Ker f .

2. Montrons que l’image est un sous-groupe de G′.

(a) f (eG)= eG′ donc eG′ ∈ Im f .

(b) Soient y, y′ ∈ Im f . Il existe alors x, x′ ∈ G tels que f (x)= y, f (x′)= y′. Alors y⋄ y′ = f (x)⋄ f (x′)= f (x ⋆ x′) ∈ Im

f.

(c) Soit y ∈ Im f et x ∈ G tel que y = f (x). Alors y−1 = f (x)−1 = f (x−1) ∈ Im f .

3. Supposons f injective. Soit x ∈ Ker f , alors f (x) = eG′ donc f (x) = f (eG) et comme f est injective alors x = eG.

Donc Ker . Réciproquement supposons Ker f = {eG}. Soient x, x′ ∈ G tels que f


GROUPES 3. MORPHISMES DE GROUPES 109
)
(x) = f (x′) donc f ( ) ( ′) = eG′, d’où f (x ⋄ f (x′−1) = eG′ et donc f (x ⋆ x′−1) = eG′. Ceci implique que x ⋆ x′−1 ∈ Ker f .

Comme Ker f = {eG} alors x ⋆ x′−1 = eG et donc x = x′. Ainsi f est injective.

4. C’est clair !

3.4. Exemples
Exemple 1.

1. Soit f : Z −→ Z définie par f (k)= 3k. (Z, +) est considéré comme ensemble de départ et d’arrivée de

l’application. Alors f est un morphisme du groupe (Z, +) dans lui-même car f (k + k′)= 3(k + k′)= 3k + 3k′ = f (k)+ f

(k′). Calculons le noyau : Ker f = {k ∈ Z | f (k)= 0}. Mais si f (k)= 0 alors 3k = 0 donc k = 0. Ainsi Ker f = {0} est

réduit à l’élément neutre et donc f est injective. Calculons maintenant l’image Im f = {f (k) | k ∈ Z} = {3k | k ∈

Z} = 3Z. Nous retrouvons que 3Z est un sous-groupe de

(Z, +).
GROUPES 110
4. LE GROUPE Z/nZ

Plus généralement si l’on fixe n ∈ Z, n ≠ 0, et que f est définie par f (k) = k · n alors Ker f = {0} et Im f = nZ.

2. Soient les groupest (R, +) et (U, ×) (où U = {z ∈ C | |z| = 1}) et f l’applicationt t t f :t R −→ U définie par f (t) = ei .

)
Montrons que f est un morphisme : f (t + t′) = ei( + ′) = ei × ei ′ = f (t × f (t′). Calculons le noyau Ker f = {t ∈ R | f

(t)= 1}. Mais si f (t)= 1 alors ei t = 1 donc t = 0 (mod 2π). D’où Ker f = {2kπ | k ∈ Z} = 2πZ. Ainsi f n’est pas

injective. L’image det f est U car tout nombre complexe de module 1 s’écrit sous la forme f (t)= ei .

3. Soient les groupes (Gℓ2, ×) et (R∗, ×) et f : Gℓ2 −→ R∗ définie par f (M)= det M. Alors la formule vue plus haut

(lemme 1) det(M × M′)= det M × det M′ implique que f est un morphisme de groupes. Ce morphisme est

surjectif, car si t ∈ R∗ alors t. Ce morphisme n’est pas injectif car par exemple det 1 00 t = det 0 1t 0.

Attention : ne pas confondre les différentes notations avec des puissances −1 : x−1, f −1, f −1 {eG′} :

• x−1 désigne l’inverse de x dans un groupe (G, ⋆). Cette notation est cohérente avec la notation usuelle si le

groupe est (R∗, ×) alors x .

• Pour une application bijective f −1 désigne la bijection réciproque.

• Pour une application quelconque f : E −→ F, l’image réciproque d’une partie B ⊂ F est f

E | f (x) ∈ B , c’est une partie de E. Pour un morphisme f , Ker f = f −1 {eG′} est donc l’ensemble des x ∈ G tels

que leur image par f soit eG′. Le noyau est défini même si f n’est pas bijective.

Mini- exercices.
1. Soit f :défini par f (n) = 2n. Montrer que f est un morphisme de groupes.
Déterminer le noyau de est-elle injective ? surjective ?

2. Mêmes questions pour f : (R, +) −→ (R, ◦), qui à un réel θ associe la rotation d’angle θ de centre l’origine.

3. Soit (G, ⋆) un groupe et f : G −→ G l’application définie par f (x)= x2. (Rappel : x2 = x ⋆ x.) Montrer que si (G,

⋆) est commutatif alors f est un morphisme. Montrer ensuite la réciproque.

4. Montrer qu’il n’existe pas de morphisme f : (Z, +) → (Z, +) tel que f (2)= 3.

5. Montrer que f , g : (R∗, ×) → (R∗, ×) définis par f (x) = x2, g(x) = x3 sont des morphismes de groupes. Calculer

leurs images et leurs noyaux respectives.

4. Le groupe Z/nZ
GROUPES 111
4.1. L’ensemble et le groupe Z/nZ

Fixons n ⩾ 1. Rappelons que Z/nZ est l’ensemble

Z/nZ=0, 1, 2, . . . , n − 1

où p désigne la classe d’équivalence de p modulo n.


Autrement dit ⇐⇒ ≡

p=q p q (mod n)
ou encore p = q ⇐⇒ ∃k ∈ Z p = q + kn.

On définit une addition sur Z/nZ par :

p+q=p+q
4. LE GROUPE Z/nZ

Par exemple dans Z/60Z, on a 31 + 46 = 31 + 46 = 77 = 17.

Nous devons montrer que cette addition est bien définie : si p′ = p et q′ = q alors p′ ≡ p (mod n), q′ ≡ q

(mod n) et donc p′ + q′ ≡ p + q (mod n). Donc p′ + q′ = p + q. Donc on a aussi p′ + q′ = p + q. Nous avons montré que

l’addition est indépendante du choix des représentants.

Voici un exemple de la vie courante : considérons seulement les minutes d’une montre ; ces minutes varient de 0
à 59. Lorsque l’aiguille passe à 60, elle désigne aussi 0 (on ne s’occupe pas des heures). Ainsi de suite : 61 s’écrit
aussi 1, 62 s’écrit aussi 2,. . .Cela correspond donc à l’ensemble Z/60Z. On peut aussi additionner des minutes : 50
minutes plus 15 minutes font 65 minutes qui s’écrivent aussi 5 minutes. Continuons avec l’écriture dans Z/60Z
par exemple : 135 + 50 = 185 = 5. Remarquez que si l’on écrit d’abord 135 = 15 alors 135 + 50 = 15 + 50 = 65 = 5.
On pourrait même écrire 50 = −10 et donc 135 + 50 = 15 − 10 = 5.

C’est le fait que l’addition soit bien définie qui justifie que l’on trouve toujours le même résultat.
Proposition 6.
(Z/nZ, +) est un groupe commutatif.

C’est facile. L’élément neutre est 0. L’opposé de k est −k = −k = n − k. L’associativité et la commutativité

découlent de celles de (Z, +).

4.2. Groupes cycliques de cardinal fini

Définition 7.
Un groupe (G, ⋆) est un groupe cyclique s’il existe un élément a ∈ G tel que :

pour tout x ∈ G, il existe k ∈ Z tel que x = ak

Autrement dit le groupe G est engendré par un seul élément a.


GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 112

Le groupe (Z/nZ, +) est un groupe cyclique. En effet il est engendré par a = 1, car tout élément k s’écrit k = 1 + 1
+··· 1 = k · 1.

| {z }
k fois
Voici un résultat intéressant : il n’existe, à isomorphisme près, qu’un seul groupe cyclique à n éléments, c’est
Z/nZ :

Théorème 1.
Si (G, ⋆) un groupe cyclique de cardinal n, alors (G, ⋆) est isomorphe à (Z/nZ, +).

Démonstration. Comme G est cyclique alors G = . . . , a−2, a−1, e, a, a2, a3, . . . . Dans cette écriture il y a de
nombreuses redondances (car de toute façon G n’a que n éléments). Nous allons montrer qu’en fait

G =e, a, a2, . . . , an−1 et que an = e.

Tout d’abord l’ensemble e, a, a2, . . . , an−1 est inclus dans G. En plus il a exactement n éléments. En effet si ap = aq
avec 0 ⩽ q < p ⩽ n−1 alors ap−q = e (avec p−q > 0) et ainsi ap−q+1 = ap−q ⋆a = a, ap−q+2 = a2 et alors le groupe G serait

égal à e, a, a2, . . . , ap−q−1 et n’aurait pas n éléments. Ainsi e, a, a2, . . . , an G et les deux ensembles ont le
même nombre n d’éléments, donc ils sont égaux.
Montrons maintenant que an = e. Comme an ∈ G et que G =e, a, a2, . . . , an−1 alors il existe 0 ⩽ p ⩽ n−1 tel

que an = ap. Encore une fois si p > 0 cela entraîne an−p = e et donc une contradiction. Ainsi p = 0 donc an = a0 = e.

Nous pouvons maintenant construire l’isomorphisme entre (Z/nZ, +) et (G, ⋆). Soit f : Z/nZ −→ G

l’application définie par f (k)= ak.


• Il faut tout d’abord montrer que f est bien définie car notre définition de f dépend du représentant k et pas
de la classe k : si k = k′ (une même classe définie par deux représentants distincts) alors k ≡ k′

(mod n) et donc il existe ℓ ∈ Z tel que k = k′ +ℓn. Ainsi f (k)= ak = ak′+ℓn = ak′ ⋆ aℓn = ak′ ⋆(an)ℓ = ak′ ⋆ eℓ = ak′ = f (k′).

Ainsi f est bien définie.

• f est un morphisme de groupes car f (k + k′)= f (k + k′)= ak+k′ = ak ⋆ ak′ = f (k)⋆ f (k′) (pour tout
k, k′).

• Il est clair que f est surjective car tout élément de G s’écrit ak.
• Comme l’ensemble de départ et celui d’arrivée ont le même nombre d’éléments et que f est surjective alors
f est bijective.
Conclusion : f est un isomorphisme entre (Z/nZ, +) et (G, ⋆).

Mini-exercices.

1. Trouver tous les sous-groupes de (Z/12Z, +).


GROUPES 113
2. Montrer que le produit défini par p × q = p × q est bien défini sur l’ensemble Z/nZ.

3. Dans la preuve du théorème 1, montrer directement que l’application f est injective.

4. Montrer que l’ensemble Un C | zn = 1 est un sous-groupe de (C ∗, ×). Montrer que Un est isomorphe à

Z/nZ. Expliciter l’isomorphisme.

5. Montrer que l’ensemble H = 1 00 1 , 1 00 −1 , −0 11 0Z/4,Z.−01 0−1 est un sous-groupe de (Gℓ2, ×) ayant 4

éléments. Montrer que H n’est pas isomorphe à

Le groupe des permutations


5. Sn

Fixons un entier n ⩾ 2.

5.1. Groupe des permutations

Proposition 7.
L’ensemble des bijections de {1, 2, . . . , n} dans lui-même, muni de la composition des fonctions est un

groupe, noté (Sn, ◦).

Une bijection de {1, 2, . . . , n} (dans lui-même) s’appelle une permutation. Le groupe (Sn, ◦) s’appelle le groupe

des permutations (ou le groupe symétrique).

Démonstration.

1. La composition de deux bijections de {1, 2, . . . , n} est une bijection de {1, 2, . . . , n}.

2. La loi est associative (par l’associativité de la composition des fonctions).

3. L’élément neutre est l’identité.

4. L’inverse d’une bijection f est sa bijection réciproque f −1.

Il s’agit d’un autre exemple de groupe ayant un nombre fini d’éléments :


Lemme 2.
Le cardinal de Sn est n! .
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 114

Démonstration. La preuve est simple. Pour l’élément 1, son image appartient à {1, 2, . . . , n} donc nous avons n

choix. Pour l’image de 2, il ne reste plus que n − 1 choix (1 et 2 ne doivent pas avoir la même image car notre

application est une bijection). Ainsi de suite... Pour l’image du dernier élément n il ne reste qu’une possibilité. Au

final il y a n ×(n − 1)×···× 2 × 1 = n! façon de construire des bijections de {1, 2, . . . , n}.

5.2. Notation et exemples


Décrire une permutation f : {1, 2, . . . , n} −→ {1, 2, . . . , n} équivaut à donner les images de chaque i allant de 1 à

n. Nous notons donc f par

1 2 ··· n f (1) f (2) ··· f (n)

Par exemple la permutation de S7 notée

f
3 7 5 4 6 1 2

est la bijection f : {1, 2, . . . , 7} −→ {1, 2, . . . , 7} définie par f (1)= 3, f (2)= 7, f (3)= 5, f (4)= 4, f (5)= 6, f (6)= 1, f

(7)= 2. C’est bien une bijection car chaque nombre de 1 à 7 apparaît une fois et une seule sur

la deuxième ligne.

L’élément neutre du groupe est l’identité id ; pour S7 c’est donc 1 2 3 4 5 6 71 2 3 4 5 6 7.

Il est facile de calculer la composition de deux permutations f et g avec cette notation. Si f =1 2 3 4 5 6 73 7 5 4 6 1 2 et g =1 2

34567
4321756 alors g ◦ f s’obtient en superposant la permutation f puis g

 
1 2 3 4 5 6 71 2 3 4 f 5 6 7 g ◦ f = 3 7 5 4 6 1 2 f ◦ g = 2
g
6715432671543

ensuite on élimine la ligne intermédiaire du milieu et donc g ◦ f se note 1 2 3 4 5 6 72 6 7 1 5 4 3.


GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 115

Il est tout aussi facile de calculer l’inverse d’une permutation : il suffit d’échanger les lignes du haut et du bas et
de réordonner le tableau. Par exemple l’inverse de

f
= 13 27 35 44 56 61 72 f −1

se note f −1 =3 7 5 4 6 1 21 2 3 4 5 6 7 ou plutôt après réordonnement 1 2 3 4 5 6 76 7 1 4 3 5 2.

5.3. Le groupe S3

Nous allons étudier en détails le groupe S3 des permutations de {1, 2, 3}. Nous savons que S3 possède 3! = 6

éléments que nous énumérons :

• id =1 2 31 2 3 l’identité,

• τ1 =1 2 31 3 2 une transposition,

• τ2 =1 2 33 2 1 une deuxième transposition,

• τ3 =1 2 32 1 3 une troisième transposition,

• σ=1 2 32 3 1 un cycle,

• σ−1 =1 2 33 1 2 l’inverse du cycle précédent.

Donc S3 = id, τ1, τ2, τ3, σ, σ−1 .

Calculons τ1 ◦σ et σ ◦τ1 :

τ1 ◦σ=”1 2 32 3 13 2 1—=1 2 33 2 1=τ2 et σ ◦τ1 =”2 1 31 2 31 3 2—=1 2 32 1 3=τ3.

Ainsi τ1 ◦σ=τ2 est différent de σ◦τ1 =τ3, ainsi le groupe S3 n’est pas commutatif. Et plus généralement :
Lemme 3.
Pour n ⩾ 3, le groupe Sn n’est pas commutatif.

Nous pouvons calculer la table du groupe S3


−1
FIGURE g◦ f id τ1 τ2 τ3 σ σ 6.1 –
Tableid id τ1 τ2 τ3 σ σ−1 du
groupe
τ1 τ1 id σ σ−1 τ1 ◦σ=τ2 τ3 S3
τ2 τ2 σ−1 id σ τ3 τ1
τ3 τ3 σ σ−1 id τ1 τ2
Comment avons- nous rempli cette
σ σ σ ◦τ1 =τ3 τ1 τ2 σ−1 id
table ? Nous avons σ−1 σ−1 τ2 τ3 τ1 id σ déjà calculé τ1 ◦ σ = τ2 et
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 116

σ ◦ τ1 = τ3. Comme f ◦ id = f et id ◦f = f il est facile de remplir la première colonne noire ainsi que la première ligne

noire.

Ensuite il faut faire les calculs !

On retrouve ainsi que S3 = id, τ1, τ2, τ3, σ, σ−1 est un groupe : en particulier la composition de deux
permutations de la liste reste une permutation de la liste. On lit aussi sur la table l’inverse de chaque élément,
par exemple sur la ligne de τ2 on cherche à quelle colonne on trouve l’identité, c’est la colonne de τ2. Donc
l’inverse de τ2 est lui-même.

5.4. Groupe des isométries du triangle


Soit (ABC) un triangle équilatéral. Considérons l’ensemble des isométries du plan qui préservent le triangle, c’est-
à-dire que l’on cherche toutes les isométries f telles que f (A) ∈ {A, B, C}, f (B) ∈ {A, B, C}, f (C) ∈

{A, B, C}. On trouve les isométries suivantes : l’identité id, les réflexions t1, t2, t3 d’axes D1, D2, D3, la rotation s

d’angle et la rotation s−1 d’angle − (de centre O).

D3 D2


+ 3 − 23π
O

B C
D1

Proposition 8.
L’ensemble des isométries d’un triangle équilatéral, muni de la composition, forme un groupe. Ce groupe
est isomorphe à (S3, ◦).

L’isomorphisme est juste l’application qui à ti associe τi, à s associe σ et à s−1 associe σ−1.
5.5. Décomposition en cycles
• Nous allons définir ce qu’est un cycle : c’est une permutation σ qui fixe un certain nombre d’éléments (σ(i)= i)
et dont les éléments non fixés sont obtenus par itération : j, σ(j), σ2(j), . . . C’est plus facile à comprendre sur
un exemple :
1 2 3 4 5
σ=
6 7 8 1 8 3
5 2 6 7 4
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 117

est un cycle : les éléments 1, 3, 6, 7 sont fixes, les autres s’obtiennent comme itération de 2 : 2 7→ σ(2)= 8

7→ σ(8)=σ2(2)= 4 7→ σ(4)=σ3(2)= 5, ensuite on retrouve σ4(2)=σ(5)= 2. • Nous noterons ce cycle par

2 8 4 5
Il faut comprendre cette notation ainsi : l’image de 2 est 8, l’image de 8 est 4, l’image de 4 est 5, l’image de 5
est 2. Les éléments qui n’apparaissent pas (ici 1, 3, 6, 7) sont fixes. On aurait pu aussi noter ce même cycle
par : (8 4 5 2), (4 5 2 8) ou (5 2 8 4).
• Pour calculer l’inverse on renverse les nombres : l’inverse de σ=(2 8 4 5) est σ−1 =(5 4 8 2).
• Le support d’un cycle sont les éléments qui ne sont pas fixes : le support de σ est {2, 4, 5, 8}. La longueur (ou

l’ordre) d’un cycle est le nombre d’éléments qui ne sont pas fixes (c’est donc le cardinal du support). Par

exemple (2 8 4 5) est un cycle de longueur 4.

• Autres exemples : σ=1 2 32 3 1=(1 2 3) est un cycle de longueur 3 ; τ=1 2 3 41 4 3 2=(2 4) est un cycle de longueur 2,
aussi appelé une transposition.

• Par contre f = 1 2 3 4 5 6 77 2 5 4 6 3 1 n’est pas un cycle ; il s’écrit comme la composition de deux cycles f =
(1 7)◦(3 5 6). Comme les supports de (1 7) et (3 5 6) sont disjoints alors on a aussi f =(3 5 6)◦(1 7).

Ce dernier point fait partie d’un résultat plus général que nous admettons :
Théorème 2.
Toute permutation de Sn se décompose en composition de cycles à supports disjoints. De plus cette

décomposition est unique.

Pour l’unicité il faut comprendre : unique à l’écriture de chaque cycle près (exemple : (3 5 6) et (5 6 3) sont le
même cycle) et à l’ordre près (exemple : (1 7)◦(3 5 6)=(3 5 6)◦(1 7)).

Exemple : la décomposition de f =1 2 3 4 5 6 7 85 2 1 8 3 7 6 4 en composition de cycle à supports disjoints est (1 5 3)◦ (4

8)◦(6 7). Attention, si les supports ne sont pas disjoints alors cela ne commute plus : par exemple g =(1 2)◦(2 3 4)

n’est pas égale à h = (2 3 4) ◦ (1 2). En effet l’écriture de g en produit de cycle à support disjoint est g =(1 2)◦(2 3

4)=h1 2 3 41 3 4 22 3 4 1i=1 2 3 42 3 4 1=(1 2 3 4) alors que celle de h est h =(2 3 4)◦(1 2)=1 2 3 43 1 4 2= (1 3 4 2).

Mini-exercices.
1. Soient f définie par f (1) = 2, f (2) = 3, f (3) = 4, f (4) = 5, f (5) = 1 et g définie par g(1) = 2, g(2)= 1, g(3)= 4,

g(4)= 3, g(5)= 5. Écrire les permutations f , g, f −1, g−1, g ◦ f , f ◦ g, f 2, g2, (g ◦ f )2.

2. Énumérer toutes les permutations de S4 qui n’ont pas d’éléments fixes. Les écrire ensuite sous forme de

compositions de cycles à supports disjoints.

3. Trouver les isométries directes préservant un carré. Dresser la table des compositions et montrer qu’elles
forment un groupe. Montrer que ce groupe est isomorphe à Z/4Z.
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 118

4. Montrer qu’il existe un sous-groupe de S3 isomorphe à Z/2Z. Même question avec Z/3Z. Est-ce que S3 et Z/6Z

sont isomorphes ?

5. Décomposer la permutation suivante en produit de cycles à supports disjoints : f = 1 2 3 4 5 6 75 7 2 6 1 4 3.


Calculer f 2, f 3, f 4 puis f 20xx où 20x x est l’année en cours. Mêmes questions avec g =1 2 3 4 5 6 7 8 93 8 9 6 5 2 4 7 1 et h
=(25)(1243)(12).
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 119

Auteurs du chapitre Arnaud Bodin, Benjamin Boutin, Pascal Romon


Chapitre

7 Systèmes linéaires
VidØo ■ partie 1. Introduction aux systŁmes d’Øquations linØaires
VidØo ■ partie 2. ThØorie des systŁmes linØaires
VidØo ■ partie 3. RØsolution par la mØthode du pivot de Gauss Fiche d’exercices ‡
SystŁmes d’Øquations linØaires

1. Introduction aux systèmes d’équations linéaires


L’algèbre linéaire est un outil essentiel pour toutes les branches des mathématiques, en particulier lorsqu’il s’agit
de modéliser puis résoudre numériquement des problèmes issus de divers domaines : des sciences physiques ou
mécaniques, des sciences du vivant, de la chimie, de l’économie, des sciences de l’ingénieur ... Les systèmes
linéaires interviennent à travers leurs applications dans de nombreux contextes, car ils forment la base
calculatoire de l’algèbre linéaire. Ils permettent également de traiter une bonne partie de la théorie de l’algèbre
linéaire en dimension finie. C’est pourquoi ce cours commence avec une étude des équations linéaires et de leur
résolution.
Le but de ce chapitre est essentiellement pratique : il s’agit de résoudre des systèmes linéaires. La partie
théorique sera revue et prouvée dans le chapitre « Matrices ».

1.1. Exemple : deux droites dans le plan


L’équation d’une droite dans le plan (Ox y) s’écrit

ax + b y = e

où a, b et e sont des paramètres réels, a et b n’étant pas simultanément nuls. Cette équation s’appelle équation
linéaire dans les variables (ou inconnues) x et y.

Par exemple, 2x + 3y = 6 est une équation linéaire, alors que les équations suivantes ne sont pas des équations
linéaires :

2x + y2 = 1 ou y = sin(x) ou x = py.

Considérons maintenant deux droites D1 et D2 et cherchons les points qui sont simultanément sur ces deux
droites. Un point (x, y) est dans l’intersection D1 ∩ D2 s’il est solution du système :

ax + b y = e (S) cx + d y = f

Trois cas se présentent alors :

1. Les droites D1 et D2 se coupent en un seul point. Dans ce cas, illustré par la figure de gauche, le système (S) a
une seule solution.
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 121

2. Les droites D1 et D2 sont parallèles. Alors le système (S) n’a pas de solution. La figure du centre illustre cette
situation.
3. Les droites D1 et D2 sont confondues et, dans ce cas, le système (S) a une infinité de solutions.
y y y
D1 D1

D2
D2

D1 = D2
x x x

Nous verrons plus loin que ces trois cas de figure (une seule solution, aucune solution, une infinité de solutions)
sont les seuls cas qui peuvent se présenter pour n’importe quel système d’équations linéaires.

1.2. Résolution par substitution


Pour savoir s’il existe une ou plusieurs solutions à un système linéaire, et les calculer, une première méthode est
la substitution. Par exemple pour le système :

3x + 2y = 1 (S)
2x − 7y = −2

Nous réécrivons la première ligne 3x + 2y = 1 sous la forme y = − x. Et nous remplaçons (nous substituons) le y

de la seconde équation, par l’expression − 23 x. Nous obtenons un système équivalent :

y= − x

2x − 7( − x) = −2

La seconde équation est maintenant une expression qui ne contient que des x, et on peut la résoudre :

× y = −21 − 32 x ⇐⇒ y = − x

(2 + 7 )x = 2 + 72 x = 25
Il ne reste plus qu’à remplacer dans la première ligne la valeur de x obtenue :

y= x=
Le système (S) admet donc une solution unique ( , ). L’ensemble des solutions est donc

§ 3 8 ‹ª S =
25, 25 .

1.3. Exemple : deux plans dans l’espace


Dans l’espace (Ox yz), une équation linéaire est l’équation d’un plan :

ax + b y + cz = d
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 122

(on suppose ici que a, b et c ne sont pas simultanément nuls).


L’intersection de deux plans dans l’espace correspond au système suivant à 2 équations et à 3 inconnues :

ax + b y + cz = d
a′x + b′ y + c′z = d′
Trois cas se présentent alors :
• les plans sont parallèles (et distincts) et il n’y a alors aucune solution au système, • les plans sont
confondus et il y a une infinité de solutions au système,
• les plans se coupent en une droite et il y a une infinité de solutions.
Exemple 1.

2x + 3y 4z = 7
1. Le système − n’a pas de solution. En effet, en divisant par 2 la seconde équation,
4x + 6y − 8z = −1

2x + 3y 4z = 7
on obtient le système équivalent : − 1 . Les deux lignes sont clairement incompa-
2x + 3y − 4z = −2

tibles : aucun (x, y, z) ne peut vérifier à la fois 2x + 3y − 4z = 7 et 2x + 3y − 4z = − . L’ensemble des solutions

est donc S =∅.

2. Pour le système, les deux équations définissent le même plan ! Le système est

donc équivalent à une seule équation : 2x + 3y − 4z = 7. Si on réécrit cette équation


sous la forme z , alors on peut décrire l’ensemble des solutions sous la forme : S =(x, y,
x + y − ) | x,
7x + 2y − 2z = 1
3. Soit le système = . Par substitution :
2x + 3y + 2z 1
7x + 2y − 2z = 1 ⇐⇒ z

2x + 3y + 2z = 1 2x

⇐⇒ z = 72 x + y − 12 ⇐⇒ z⇐⇒

9x + 5y = 2 y
Pour décrire l’ensemble des solutions, on peut choisir x comme paramètre :
§‹ ª
S= x, |x∈R.

Géométriquement : nous avons trouvé une équation paramétrique de la droite définie par l’intersection de
deux plans.
Du point de vue du nombre de solutions, nous constatons qu’il n’y a que deux possibilités, à savoir aucune
solution ou une infinité de solutions. Mais les deux derniers cas ci-dessus sont néanmoins très différents
géométriquement et il semblerait que dans le second cas (plans confondus), l’infinité de solutions soit plus
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 123

grande que dans le troisième cas. Les chapitres suivants nous permettront de rendre rigoureuse cette
impression.
Si on considère trois plans dans l’espace, une autre possibilité apparaît : il se peut que les trois plans
s’intersectent en un seul point.

1.4. Résolution par la méthode de Cramer


ab
On note cd = ad − bc le déterminant. On considère le cas d’un système de 2 équations à 2 inconnues :

ax + b y = e cx + d y =
f
Si ad − bc ≠ 0, on trouve une unique solution dont les coordonnées (x, y) sont :

e b a e

f d c f
x y
=a b =a b

c d c d
Notez que le dénominateur égale le déterminant pour les deux coordonnées et est donc non nul. Pour le
numérateur de la première coordonnée x, on remplace la première colonne par le second membre ; pour la
seconde coordonnée y, on remplace la seconde colonne par le second membre.
Exemple 2.

tx 2 y= 1
Résolvons le système 3 x −+ t y = 1 suivant la valeur du paramètre t ∈ R.

Le déterminant associé au système est 3t −t2 = t2 + 6 et ne s’annule jamais. Il existe donc une unique solution (x, y)

et elle vérifie :

1 −2 t 1

x = 1 t = tt ++26, y = t32 +16 = tt2−+36. t2 +

62
+2
Pour chaque t, l’ensemble des solutions est S = tt +6, tt2−+36
2 .

1.5. Résolution par inversion de matrice


En termes matriciels, le système linéaire
ax + b y = e
cx + d y = f
est équivalent à
a b x e
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 124

AX = Y où A=c d , X=y , Y=f .

Si le déterminant de la matrice A est non nul, c’est-à-dire si ad − bc ≠ 0, alors la matrice A est inversible et

A−1 = ad −1 bc −dc−ab

et l’unique solution X = xy du système est donnée par


X = A−1Y.
Exemple 3.

x+y=x+ 1
Résolvons le système
2
t y= t suivant la valeur du paramètre t ∈ R.

Le déterminant du système est 1 t −

= + =
Premier cas. t ̸ 1 et t ̸ −1. Alors 2 1 ̸ 0. La matrice A = 11 1 t2 est inversible d’inverse A−1
= t21−1 −t21 1−1. Et la solution X = y est

X=

= t2 − 1 −1 1t = t2 − 1 t−1
= t+11 .
Pour chaque t ≠ ±1, l’ensemble des solutions est S = t 1 .
,
x+y t+1 t+1

=1
Deuxième cas. t =+1. Le système s’écrit alors : x+y et les deux équations sont identiques. Il y
=1
x + y = 1
t = −1. Le système s’écrit alors : x + y
= , les deux équations sont clairement
Troisième cas. −
1
incompatibles et donc S =∅.
a une infinité de solutions : S =(x, 1 − x) | .
Mini-exercices.

= 1
x 2y
1. Tracer les droites d’équations − − et résoudre le système linéaire de trois façons
−x + 3y = 3

différentes : substitution, méthode de Cramer, inverse d’une matrice. Idem avec 2x − y = 4 .


3x + 3y = −5

2. Résoudre suivant la valeur du paramètre t ∈ R : 42xx−−3yy == tt2 .


SYSTÈMES LINÉAIRES 125
2. THÉORIE DES SYSTÈMES LINÉAIRES

tx y = 1
3. Discuter et résoudre suivant la valeur du paramètre t ∈ R : x +(t − 2−) y = −1 . Idem avec

(t − 1)x + y = 1 . 2x + t y = −1

2. Théorie des systèmes linéaires

2.1. Définitions

Définition 1.
On appelle équation linéaire dans les variables (ou inconnues) x1, . . . , xp toute relation de la forme

a1x1 +···+ ap xp = b, (1)

où a1, . . . , ap et b sont des nombres réels donnés.

Remarque.
• Il importe d’insister ici sur le fait que ces équations linéaires sont implicites, c’est-à-dire qu’elles décrivent des
relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre les variables.
• Résoudre une équation signifie donc la rendre explicite, c’est-à-dire rendre plus apparentes les valeurs que les
variables peuvent prendre.
• On peut aussi considérer des équations linéaires de nombres rationnels ou de nombres complexes.

Soit n ⩾ 1 un entier.

Définition 2.
Un système de n équations linéaires à p inconnues est une liste de n équations linéaires.

On écrit usuellement de tels systèmes en n lignes placées les unes sous les autres.
Exemple 4.
Le système suivant a 2 équations et 3 inconnues :

x1 − 3x2 + x3 =1
−2x1 + 4x2 − 3x3 = 9

La forme générale d’un système linéaire de n équations à p inconnues est la suivante :


 +a12x2 +a13x3 + ··· +a1p xp = b1 (← équation 1)

+a22x2 +a23x3 + ··· +a2p xp = b2
a2111...xx11 (← équation 2)
a ... ... ... = ...
 + ··· =
 +ai2x2 +ai3x3 +aip xp = bi
ani11...xx11 (← équation i)
...
SYSTÈMES LINÉAIRES 126
a ... ... + ··· ... = bn (← équation n)

+an2x2 +an3x3 +anp xp
Les nombres aij, i = 1, . . . , n, j = 1, . . . , p, sont les coefficients du système. Ce sont des données. Les nombres bi, i =
1, . . . , n, constituent le second membre du système et sont également des données.
Il convient de bien observer comment on a rangé le système en lignes (une ligne par équation) numérotées de 1
à n par l’indice i, et en colonnes : les termes correspondant à une même inconnue x j sont alignés verticalement
les uns sous les autres. L’indice j varie de 1 à p. Il y a donc p colonnes à gauche des signes d’égalité, plus une
colonne supplémentaire à droite pour le second membre. La notation avec double indice
2. THÉORIE DES SYSTÈMES LINÉAIRES

aij correspond à ce rangement : le premier indice (ici i) est le numéro de ligne et le second indice (ici j) est le
numéro de colonne. Il est extrêmement important de toujours respecter cette convention.
Dans l’exemple 4, on a n = 2 (nombre d’équations = nombre de lignes), p = 3 (nombre d’inconnues = nombre de

colonnes à gauche du signe =) et a11 = 1, a12 = −3, a13 = 1, a21 = −2, a22 = 4, a23 = −3, b1 = 1 et b2 = 9.

Définition 3.
Une solution du système linéaire est une liste de p nombres réels (s1, s2, . . . , sp) (un p-uplet) tels que si l’on
substitue s1 pour x1, s2 pour x2, etc., dans le système linéaire, on obtient une égalité. L’ ensemble des
solutions du système est l’ensemble de tous ces p-uplets.

Exemple 5.
Le système

x1 − 3x2 + x3 =1
−2x1 + 4x2 − 3x3 = 9

admet comme solution (−18, −6, 1), c’est-à-dire

x1 = −18 , x2 = −6 , x3 = 1 .

Par contre, (7, 2, 0) ne satisfait que la première équation. Ce n’est donc pas une solution du système.
En règle générale, on s’attache à déterminer l’ensemble des solutions d’un système linéaire. C’est ce que l’on
appelle résoudre le système linéaire. Ceci amène à poser la définition suivante.
Définition 4.
On dit que deux systèmes linéaires sont équivalents s’ils ont le même ensemble de solutions.

À partir de là, le jeu pour résoudre un système linéaire donné consistera à le transformer en un système
équivalent dont la résolution sera plus simple que celle du système de départ. Nous verrons plus loin comment
procéder de façon systématique pour arriver à ce but.

2.2. Différents types de systèmes


Voici un résultat théorique important pour les systèmes linéaires.
Théorème 1.
Un système d’équations linéaires n’a soit aucune solution, soit une seule solution, soit une infinité de
solutions.
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 127
En particulier, si vous trouvez 2 solutions différentes à un système linéaire, alors c’est que vous pouvez en
trouver une infinité ! Un système linéaire qui n’a aucune solution est dit incompatible. La preuve de ce
théorème sera vue dans un chapitre ultérieur (« Matrices »).

2.3. Systèmes homogènes


Un cas particulier important est celui des systèmes homogènes, pour lesquels b1 = b2 = ··· = bn = 0, c’est-à-dire

dont le second membre est nul. De tels systèmes sont toujours compatibles car ils admettent toujours la solution

s1 = s2 = ··· = sp = 0. Cette solution est appelée solution triviale. Géométriquement, dans le cas 2 × 2, un système

homogène correspond à deux droites qui passent par l’origine, (0, 0) étant donc toujours solution.

Mini-exercices.
1. Écrire un système linéaire de 4 équations et 3 inconnues qui n’a aucune solution. Idem avec une infinité de
solution. Idem avec une solution unique.
2. Résoudre le système à n équations et n inconnues dont les équations sont (Li) : xi − xi+1 = 1 pour i = 1, . . . , n −

1 et (Ln) : xn = 1.

3. Résoudre les systèmes suivants :


x

 x1 +2x2 +3x3 +4x4 = 0  x1 +2x2 +3x3 = 1  1 +xx22 +x3 == 12 x2 +2x3 +3x4 = 9 x1 +x2 +x3 = 2 x3 +x4 = 3

 x3 +2x4 = 0  x1 −x2 +x3 = 3  x1 +2x2 +2x3 +x4 = 0

4. Montrer que si un système linéaire homogène a une solution (x1, . . . , xp)=(̸ 0, . . . , 0), alors il admet une

infinité de solutions.

3. Résolution par la méthode du pivot de Gauss

3.1. Systèmes échelonnés

Définition 5.
Un système est échelonné si :
• le nombre de coefficients nuls commençant une ligne croît strictement ligne après ligne.
Il est échelonné réduit si en plus :
• le premier coefficient non nul d’une ligne vaut 1 ;
• et c’est le seul élément non nul de sa colonne.

Exemple 6.

 2x1 +3x2 +2x3 −x4 = 5

• −x2 −2x3 =4 est échelonné (mais pas réduit).

 3x4 = 1
SYSTÈMES LINÉAIRES 128

 2x1 +3x2 +2x3 −x4 = 5

• −2x3 =4 n’est pas échelonné (la dernière ligne commence avec la même

 x3 +x4 = 1 variable que la ligne au-


dessus).
Il se trouve que les systèmes linéaires sous une forme échelonnée réduite sont particulièrement simples à
résoudre.
Exemple 7.
Le système linéaire suivant à 3 équations et 4 inconnues est échelonné et réduit.
 x1 +2x3 =25
 −2x3 =16
x2 1

x4 =
Ce système se résout trivialement en
 x1 = 25 − 2x3

= 16 + 2x3
x2
= 1.
 x4
En d’autres termes, pour toute valeur de x3 réelle, les valeurs de x1, x2 et x4 calculées ci-dessus fournissent une
solution du système, et on les a ainsi toutes obtenues. On peut donc décrire entièrement l’ensemble des
solutions :
S .
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 129

3.2. Opérations sur les équations d’un système


Nous allons utiliser trois opérations élémentaires sur les équations (c’est-à-dire sur les lignes) qui sont :

1. Li ← λLi avec λ≠ 0 : on peut multiplier une équation par un réel non nul.

2. Li ← Li +λLj avec λ ∈ R (et j ̸= i) : on peut ajouter à l’équation Li un multiple d’une autre équation Lj.

3. Li ↔ Lj : on peut échanger deux équations.

Ces trois opérations élémentaires ne changent pas les solutions d’un système linéaire ; autrement dit ces
opérations transforment un système linéaire en un système linéaire équivalent.
Exemple 8.
Utilisons ces opérations élémentaires pour résoudre le système suivant.

x +y +7z = −1 (L1)

2x −y +5z = −5 (L2)

 −x −3y −9z = −5 (L3)

Commençons par l’opération L2 ← L2 − 2L1 : on soustrait à la deuxième équation deux fois la première équation.

On obtient un système équivalent avec une nouvelle deuxième ligne (plus simple) :

x +y +7z = L2←L2−2L1
−13
 − 3 − 9 =
y z =
−5 −
 −x −3y −9z

x +y +7z = −1
Puis L3 ← L3 + L1 :
−3y −9z = −3

 −2y −2z = −6 L3←L3+L1

On continue pour faire apparaître un coefficient 1 en tête de la deuxième ligne ; pour cela on divise la ligne L2 par
−3 :
x +y y +7z = L2← − 31 L2
 −11
x +y +7z = −1  −2y +3z =  x +y +7z =1
−2z =
 −6
On continue ainsi

 −
y +3z = 1 y +3z =1
 4z = −4 L3←L3+2L2  z = −1 L3← 14 L3

  = 6 L1←L1−7L3
SYSTÈMES LINÉAIRES x +y +7z = −1 x +y 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 130
=z 4
y = 4 L2←L2−3L3 y
= −1
 On obtient
 z = −1
ainsi x = 2, y =
On aboutit à un système réduit et échelonné : 4 et z = −1 et
x = 2 L1←L1−L2 l’unique
 4 solution du
y =  −1 système est (2,
z= 4, −1).

La méthode utilisée pour cet exemple est reprise et généralisée dans le paragraphe suivant.
3.3. Méthode du pivot de Gauss
La méthode du pivot de Gauss permet de trouver les solutions de n’importe quel système linéaire. Nous allons
décrire cet algorithme sur un exemple. Il s’agit d’une description précise d’une suite d’opérations à effectuer, qui
dépendent de la situation et d’un ordre précis. Ce processus aboutit toujours (et en plus assez rapidement) à un
système échelonné puis réduit, qui conduit immédiatement aux solutions du système.
Partie A. Passage à une forme échelonnée.
Soit le système suivant à résoudre :


−x2 +2x3 +13x4 = 5

 x1 −2x2 +3x3 +17x4 = 4

 −x1 +3x2 −3x3 −20x4 = −1

Pour appliquer la méthode du pivot de Gauss, il faut d’abord que le premier coefficient de la première ligne soit
non nul. Comme ce n’est pas le cas ici, on échange les deux premières lignes par l’opération élémentaire
L1 ↔ L2 :


x1 −2x2 +3x3 +17x4 = 4 L1↔L2


−x2 +2x3 +13x4 = 5

 −x1 +3x2 −3x3 −20x4 = −1

Nous avons déjà un coefficient 1 devant le x1 de la première ligne. On dit que nous avons un pivot en position (1,
1) (première ligne, première colonne). Ce pivot sert de base pour éliminer tous les autres termes sur la même
colonne.
Il n’y a pas de terme x1 sur le deuxième ligne. Faisons disparaître le terme x1 de la troisième ligne ; pour
cela on fait l’opération élémentaire L3 ← L3 + L1 :


x1 −2x2 +3x3 +17x4

−x2 +2x3 +13x4 = 4
= 5
 x2 −3x4 = 3 L3←L3+L1
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 131

On change le signe de la seconde ligne (L2 ← −L2) pour faire apparaître 1 au coefficient du pivot (2, 2) (deuxième

ligne, deuxième colonne) :


x1 −2x2 +3x3 +17x4 = 4

 x2 −2x3 −13x4 = −5 L2← −L2

 x2 −3x4 = 3

On fait disparaître le terme x2 de la troisième ligne, puis on fait apparaître un coefficient 1 pour le pivot de la
position (3, 3) :
 x1 −2x2 +3x3 +17x4 == 4
 −2x3 −13x4 = − 5
x2 8

2x3 +10x4 L3←L3−L2
 x1 −2x2 +3x3 +17x4 = 4
 −2x3 −13x4 = − 5
x2 = 4

x3 +5x4
Le système est maintenant sous forme échelonnée. L3← 21 L3
Partie B. Passage à une forme réduite.
Il reste à le mettre sous la forme échelonnée réduite. Pour cela, on ajoute à une ligne des multiples adéquats des
lignes situées au-dessous d’elle, en allant du bas à droite vers le haut à gauche.
On fait apparaître des 0 sur la troisième colonne en utilisant le pivot de la troisième ligne :


x1 −2x2 +3x3 +17x4 = 4

 x2 −3x4 =3 L2←L2+2L3

 x3 +5x4 =4
 x1 −2x2 2x4 = −8 L1←L1−3L3 x2 −3x4 = 3

 x3 +5x4 = 4
On fait apparaître des 0 sur la deuxième colonne (en utilisant le pivot de la deuxième ligne) :
 x1 −4x4 = − 2 L1←L1+2L2
 x2 = 3
−3x4
= 4
 x3 +5x4
Le système est sous forme échelonnée réduite.

Partie C. Solutions. Le système est maintenant très simple à résoudre. En choisissant x4 comme variable libre, on
peut exprimer x1, x2, x3 en fonction de x4 :

x1 = 4x4 − 2, x2 = 3x4 + 3, x3 = −5x4 + 4.

Ce qui permet d’obtenir toutes les solutions du système :

S .
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 132

3.4. Systèmes homogènes


Le fait que l’on puisse toujours se ramener à un système échelonné réduit implique le résultat suivant :
Théorème 2.
Tout système homogène d’équations linéaires dont le nombre d’inconnues est strictement plus grand que
le nombre d’équations a une infinité de solutions.

Exemple 9.
Considérons le système homogène
 ++ − x5 = x5 = 0
3x1 + 3x2 − 2x3
+ 3x4 + 2x5 = 0

2x4 + 4x5 = 0
 −x1 − x2 + x3 0.
8x4 +
2x
 1 + 2x2 − x3

 x3

Sa forme échelonnée réduite est


=0=0
+ 13x5
 x1 + x2  x3 = 0.
 + 20x5
− 2x5
On pose comme variables libres x2 et x5 pour avoir x4
x1 = −x2 − 13x5, x3 = −20x5, x4 = 2x5,

et l’ensemble des solutions :


S =(−x2 − 13x5, x2, −20x5, 2x5, x5) | x2, x5 ∈ R

qui est bien infini. Mini-exercices.


1. Écrire un système linéaire à 4 équations et 5 inconnues qui soit échelonné mais pas réduit. Idem avec
échelonné, non réduit, dont tous les coefficients sont 0 ou +1. Idem avec échelonné et réduit.


 2x1 −x2 +x4 = 1

2. Résoudre les systèmes échelonnés suivants:  x2 +x3 −2x4 = 3

 2x3 +x4 = 4

 x4 = −2
 x1 +x2 +x4 = 0 x2 +x3 = 0  2x3 +x4 =

x1 +2x2 +x4 =0
2x3 −3x4 = 0

3. Si l’on passe d’un système (S) par une des trois opérations élémentaires à un système (S′), alors quelle

opération permet de passer de (S′) à (S) ?

4. Résoudre les systèmes linéaires suivants par la méthode du pivot de Gauss :


SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 133


 2x + y + z = 3x − y +

3z = 8

x + 2y − z = −3


2x4 = 2
4x4 = 2

 − 6x4 = 3

5. Résoudre le système suivant, selon les valeurs de a, b ∈ R :


x +y −z =a
−x +2z = b

 2y +2z = 4

Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• et un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de H.
Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre

8
Matrices

VidØo ■ partie 1. DØfinition


VidØo ■ partie 2. Multiplication de matrices
VidØo ■ partie 3. Inverse d’une matrice : dØfinition
VidØo ■ partie 4. Inverse d’une matrice : calcul
VidØo ■ partie 5. Inverse d’une matrice : systŁmes linØaires et matrices ØlØmentaires
VidØo ■ partie 6. Matrices triangulaires, transposition, trace, matrices symØtriques
Fiche d’exercices ‡ Calculs sur les matrices

Les matrices sont des tableaux de nombres. La résolution d’un certain nombre de problèmes d’algèbre linéaire
se ramène à des manipulations sur les matrices. Ceci est vrai en particulier pour la résolution des systèmes
linéaires.

Dans ce chapitre, K désigne un corps. On peut penser à Q, R ou C.

1. Définition

1.1. Définition

Définition 1.
• Une matrice A est un tableau rectangulaire d’éléments de K.
• Elle est dite de taille n × p si le tableau possède n lignes et p colonnes.

• Les nombres du tableau sont appelés les coefficients de A.


• Le coefficient situé à la i-ème ligne et à la j-ème colonne est noté ai,j.
Un tel tableau est représenté de la manière suivante :

 a1,2 ... a1,j . . . a1,p ou A = ai,j1⩽i⩽n ou ai,j.


a1,1 a2,2 ... a2,j ... 1⩽j ⩽p
a2,p
a2,1 ... ... ... ...

 ai,2 . ... ai,j . ... ...
.. ... .. ...
... 
an,2 ... an,j ...
 
A = ai,1 ai,p 
 . . . 
an,p

...
MATRICES 136

an,1
Exemple 1.
1 −2 5
A= 0 3 7
est une matrice 2 × 3 avec, par exemple, a1,1 = 1 et a2,3 = 7.
1. DÉFINITION

Encore quelques définitions :


Définition 2.
• Deux matrices sont égales lorsqu’elles ont la même taille et que les coefficients correspondants sont
égaux.
• L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p(K). Les éléments de
Mn,p(R) sont appelés matrices réelles.

1.2. Matrices particulières


Voici quelques types de matrices intéressantes :
• Si n = p (même nombre de lignes que de colonnes), la matrice est dite matrice carrée. On note Mn(K)
au lieu de Mn,n(K).

a1,1
a1,n
a2,1
a1,2 a2,n
 ... ...
a2,2 ...
...

... 
 ...

an,1 an,2 . . . an,n


Les éléments a1,1, a2,2, . . . , an,n forment la diagonale principale de la matrice.
• Une matrice qui n’a qu’une seule ligne (n = 1) est appelée matrice ligne ou vecteur ligne. On la note

A = a1,1 a1,2 ... a1,p .


• De même, une matrice qui n’a qu’une seule colonne (p = 1) est appelée matrice colonne ou vecteur colonne.
On la note
a1,1

a
 2,1

A = ...  .

an,1
• La matrice (de taille n × p) dont tous les coefficients sont des zéros est appelée la matrice nulle et est notée

0n,p ou plus simplement 0. Dans le calcul matriciel, la matrice nulle joue le rôle du nombre 0 pour les réels.
MATRICES 2. MULTIPLICATION DE MATRICES 137
1.3. Addition de matrices

Définition 3 (Somme de deux matrices).


Soient A et B deux matrices ayant la même taille n × p. Leur somme C = A+ B est la matrice de taille n × p

définie par

cij = aij + bij.

En d’autres termes, on somme coefficients par coefficients. Remarque : on note indifféremment aij où ai,j pour les
coefficients de la matrice A.
Exemple 2.
Si 3 −2 et 0 5 −1 alors 3 3 A+ B
B=2 =36.
A=
1 7
−2
Par contre si B′ = alors B n’est pas définie.
A+ ′
8
Définition 4 (Produit d’une matrice par un scalaire).

Le produit d’une matrice A = aij de Mn,p(K) par un scalaire α ∈ K est la matrice αaij formée en multipliant

chaque coefficient de A par α. Elle est notée α· A (ou simplement αA).

Exemple 3.

1 2 3 2 4 6
Si A=0 1 0 et α= 2 alors αA = 0 2 0 .

La matrice (−1)A est l’opposée de A et est notée −A. La différence A− B est définie par A+(−B).

Exemple 4.

2 −−1 0 −1 −4 2 − −3 −5 −−2

Si A=4 5 2 et B= 7 5 3 alors A B= 3 01 .
L’addition et la multiplication par un scalaire se comportent sans surprises :
Proposition 1.
Soient A, B et C trois matrices appartenant à Mn,p(K). Soient α ∈ K et β ∈ K deux scalaires.

1. A+ B = B + A : la somme est commutative,

2. A+(B + C)=(A+ B)+ C : la somme est associative,

3. A+ 0 = A : la matrice nulle est l’élément neutre de l’addition,

4. (α+β)A =αA+βA, 5. α(A+ B)=αA+αB.


MATRICES 138
Démonstration. Prouvons par exemple le quatrième point. Le terme général de (α+β)A est égal à (α+β)aij. D’après
les règles de calcul dans K, (α+β)aij est égal à αaij +βaij qui est le terme général de la matrice αA+βA.

Mini-exercices.

1. Soient A =−017 2−−14, B =€1 2 32 3 13 2 1Š, C =€−2103 12−336AŠ+, D2C=et125€B0 1 01 1 11 0 1−4ŠD,. TrouverE =€−−1 23 08

6
αŠtel que. Calculer toutes les sommesA−αC soit la matrice possibles de deux de ces matrices. Calculer

nulle.

2. Montrer que si A+ B = A, alors B est la matrice nulle.

3. Que vaut 0 · A? et 1 · A? Justifier l’affirmation : α(βA) = (αβ)A. Idem avec nA = A + A + ··· + A (n occurrences de

A).

2. Multiplication de matrices

2.1. Définition du produit


Le produit AB de deux matrices A et B est défini si et seulement si le nombre de colonnes de A est égal au
nombre de lignes de B.
Définition 5 (Produit de deux matrices).
Soient A =(aij) une matrice n× p et B =(bij) une matrice p ×q. Alors le produit C = AB est une matrice n × q

dont les coefficients cij sont définis par :


MATRICES 2. MULTIPLICATION DE MATRICES 139

cij = X aik bkj


k=1

On peut écrire le coefficient de façon plus développée, à savoir :

cij = ai1b1j + ai2b2j +···+ aik bkj +···+ aip bpj.

Il est commode de disposer les calculs de la façon suivante.


  × 
×
  
  × 
×
  × 
|
  
 
A → × c|ij
−  ← B
 × × − −  ← AB
Avec cette disposition, on considère d’abord la ligne de la matrice A située à gauche du coefficient que l’on veut

calculer (ligne représentée par des × dans A) et aussi la colonne de la matrice B située au-dessus du coefficient

que l’on veut calculer (colonne représentée par des × dans B). On calcule le produit du premier coefficient de la

ligne par le premier coefficient de la colonne (ai1 × b1j), que l’on ajoute au produit du deuxième coefficient de la

ligne par le deuxième coefficient de la colonne (ai2 × b2j), que l’on ajoute au produit du troisième. . .

2.2. Exemples Exemple 5.

1 2 3 1 2

A=2 3 4 B =−1 1

1 1
MATRICES 2. MULTIPLICATION DE MATRICES 140

On dispose d’abord le produit correctement (à gauche) : la matrice obtenue est de taille 2 × 2. Puis on calcule

(au milieu), puis les autres (à droite). chacun des

1 2 coefficients,

−1 1 1
1 2en
1 1 −1
−1 1commençant
1 2 3 c11 c12
1
2 1 1
2 3 4 3 2 par le
32 7
c21 2 1 1 2
c22 12 3 4 c21 c12 c22 12 3 4 3 11 premier

coefficient c11 = 1×1 + 2×(−1) + 3×1 = 2

Un exemple intéressant est le produit d’un vecteur ligne par un vecteur colonne :
b1 b2

u = a1 a2 ··· an v = ... 

bn

Alors u × v est une matrice de taille 1 × 1 dont l’unique coefficient est a1b1 + a2b2 +···+ anbn. Ce nombre s’appelle le

produit scalaire des vecteurs u et v.

Calculer le coefficient cij dans le produit A× B revient donc à calculer le produit scalaire des vecteurs formés par la

i-ème ligne de A et la j-ème colonne de B.

2.3. Pièges à éviter


Premier piège. Le produit de matrices n’est pas commutatif en général.
En effet, il se peut que AB soit défini mais pas BA, ou que AB et BA soient tous deux définis mais pas de la même
taille. Mais même dans le cas où AB et BA sont définis et de la même taille, on a en général AB ≠ BA.
Exemple 6.

5 12 0 14 3 2 4 05 1 10 2
−2 = 29 .
3 −2 4 3 = −2 −6 mais 3 3 −
2

Deuxième piège. AB = 0 n’implique pas A = 0 ou B = 0.


Il peut arriver que le produit de deux matrices non nulles soit nul. En d’autres termes, on peut avoir A ≠ 0 et

B ≠ 0 mais AB = 0.

Exemple 7.
MATRICES 2. MULTIPLICATION DE MATRICES 141

0 −1 2 −3 0 0

A=0 5 B=0 0 et AB = 0 0 .

Troisième piège. AB = AC n’implique pas B = C. On peut avoir AB = AC et B =C


̸ .

Exemple 8.

0 −1 4 −1 2 5 −54

A=0 3 B=5 4 C=5 4 et AB = AC = 15 12 .

2.4. Propriétés du produit de matrices


Malgré les difficultés soulevées au-dessus, le produit vérifie les propriétés suivantes :
Proposition 2.
1. A(BC)=(AB)C : associativité du produit,

2. A(B + C)= AB + AC et (B + C)A = BA+ CA : distributivité du produit par rapport à la somme,

3. A· 0 = 0 et 0 · A = 0.

Démonstration. Posons A = (aij) ∈ Mn,p(K), B = (bij) ∈ Mp,q(K) et C = (cij) ∈ Mq,r(K). Prouvons que

A(BC)=(AB)C en montrant que les matrices A(BC) et (AB)C ont les mêmes coefficients.
p
X
Le terme d’indice (i, k) de la matrice AB est xik = aiℓbℓk. Le terme d’indice (i, j) de la matrice (AB)C est
ℓ=1
donc
q q‚ p Œ
X XX
xikckj = aiℓbℓk ckj. k=1 k=1 ℓ=1
q
X
Le terme d’indice (ℓ, j) de la matrice BC est yℓj = bℓkckj. Le terme d’indice (i, j) de la matrice A(BC) est
k=1
donc
p‚ q Œ
XX
aiℓ bℓkckj .
ℓ=1 k=1
Comme dans K la multiplication est distributive et associative, les coefficients de (AB)C et A(BC) coïncident.
Les autres démonstrations se font comme celle de l’associativité.

2.5. La matrice identité


MATRICES 2. MULTIPLICATION DE MATRICES 142

La matrice carrée suivante s’appelle la matrice identité :


1 0 ... 0
1 ...
0
0
... ...
...
In = ...
0 ...
 
0 1
Ses éléments diagonaux sont égaux à 1 et tous ses autres éléments sont égaux à 0. Elle se note In ou simplement
I. Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre 1 pour les réels. C’est
l’élément neutre pour la multiplication. En d’autres termes :
Proposition 3.
Si A est une matrice n × p, alors

In · A = A et A· Ip = A.

Démonstration. Nous allons détailler la preuve. Soit A ∈ Mn,p(K) de terme général aij. La matrice unité d’ordre p
est telle que tous les éléments de la diagonale principale sont égaux à 1, les autres étant tous nuls. On peut
formaliser cela en introduisant le symbole de Kronecker. Si i et j sont deux entiers, on appelle symbole de
Kronecker, et on note δi,j, le réel qui vaut 0 si i est différent de j, et 1 si i est égal à j. Donc
(
0 si i ≠ j

δi,j =
1 si i = j.

Alors le terme général de la matrice identité Ip est δi,j avec i et j entiers, compris entre 1 et p.
La matrice produit AIp est une matrice appartenant à Mn,p(K) dont le terme général cij est donné par la
p
X formule cij = aikδkj. Dans cette somme, i et j sont fixés et k prend toutes les valeurs comprises
entre 1
k=1

et p. Si k ≠ j alors δkj = 0, et si k = j alors δkj = 1. Donc dans la somme qui définit cij, tous les termes
1
correspondant à des valeurs de k différentes de j sont nuls et il reste donc cij = aijδjj = aij = aij. Donc les matrices
AIp et A ont le même terme général et sont donc égales. L’égalité InA = A se démontre de la même façon.

2.6. Puissance d’une matrice


Dans l’ensemble Mn(K) des matrices carrées de taille n × n à coefficients dans K, la multiplication des matrices est

une opération interne : si A, B ∈ Mn(K) alors AB ∈ Mn(K).

En particulier, on peut multiplier une matrice carrée par elle-même : on note A2 = A× A, A3 = A× A× A.

On peut ainsi définir les puissances successives d’une matrice :


MATRICES 2. MULTIPLICATION DE MATRICES 143

Définition 6.
Pour tout A ∈ Mn(K), on définit les puissances successives de A par A0 = In et Ap+1 = Ap × A pour tout p ∈ N.

Autrement dit, Ap .

p facteurs
Exemple 9.
1 0 1

On cherche à calculer Ap avec A =0 −1 0. On calcule A2, A3 et A4 et on obtient :

0 0 2

 
1 0 3 1 0 7 1 0 15

A2 =0 1 0 A3 = A2 × A =0 −1 0 A4 = A3 × A =0 1 0.

0 0 4 0 0 8 0 0 16
1 0 2p − 1

L’observation de ces premières puissances permet de penser que la formule est : Ap =0 (−1)p 0 .

0 0 2p
Démontrons ce résultat par récurrence.
Il est vrai pour p = 0 (on trouve l’identité). On le suppose vrai pour un entier p et on va le démontrer pour p + 1.
On a, d’après la définition,
1 0 2p − 1 1 0 1 1 0 2p+1 − 1
(−1) p
− 1 (−1)p+1
Ap+1 = Ap × A =0 0=0
0
0 0 ×0 2 0 0 0.
0 p 2p+1
2 0
Donc la propriété est démontrée.

2.7. Formule du binôme


Comme la multiplication n’est pas commutative, les identités binomiales usuelles sont fausses. En particulier, ( A+
B)2 ne vaut en général pas A2 + 2AB + B2, mais on sait seulement que

(A+ B)2 = A2 + AB + BA+ B2.

Proposition 4 (Calcul de (A+ B)p lorsque AB = BA).

Soient A et B deux éléments de Mn(K) qui commutent, c’est-à-dire tels que AB = BA. Alors, pour tout entier
p ⩾ 0, on a la formule
p

A B X ‹
( + )p = kp Ap−kBk
k=0

p
où k désigne le coefficient du binôme.
MATRICES 2. MULTIPLICATION DE MATRICES 144

La démonstration est similaire à celle de la formule du binôme pour (a + b)p, avec a, b ∈ R.


Exemple 10.
 1 1 01 1 1
1 1
2 0 2
1 00 0 1
0 1 1
Soit A =  0 0
0 3. On pose N = A− I =0 0 0  . La matrice N est nilpotente (c’est-à-dire il
 3

0 0 1 0 0
k
existe k ∈ N tel que N = 0) comme le montrent les calculs suivants :

   
0 0 2 4 0 0 0 6

N2 =00 00 00 60 N3 =00 00 00 00 et N4 = 0.


0 0 0 0 0 0 0 0
Comme on a A = I + N et les matrices N et I commutent (la matrice identité commute avec toutes les matrices),
on peut appliquer la formule du binôme de Newton. On utilise que Ik = I pour tout k et surtout que Nk = 0 si k ⩾ 4.
On obtient
p 3

Ap =Xkp‹NkIp−k =Xkp‹Nk = I + pN + p(p2!−1) N2 + p(p−13!)(p−2) N3.


k=0 k=0
MATRICES 145
3. INVERSE D’UNE MATRICE : DÉFINITION

D’où

1 p p2 
p(p2 − p + 1)
1 2p
p 0 A =0
0 1
 p(3p − 2)  .
0 0
0
3p 
1
Mini-exercices.

€2 1 Š €− Š € Š
1. Soient A = 0 26 −4 0−2, B = 20
0
1−2 − 03 ,C= −
82
3 25 5 ,D= − 1
52
, E = x y z. Quels produits sont possibles ? Les

calculer !

2
€ 0 0 1Š € 1 0 0Š , B2, AB et BA.
2. Soient A = 0 1 01 1 2 et B = 0 0 21 −1 0 . Calculer A

€ 2 0 0Š € 0 0 0Š p
et Bp pour tout p ⩾ 0. Montrer que AB = BA. Calculer
3. Soient A = 0 2 00 0 2 et B = 2 0 03 1 0 . Calculer A (A+ B)p.

3. Inverse d’une matrice : définition

3.1. Définition

Définition 7 (Matrice inverse).


Soit A une matrice carrée de taille n × n. S’il existe une matrice carrée B de taille n × n telle que

AB = I et BA = I,

on dit que A est inversible. On appelle B l’inverse de A et on la note A−1.

On verra plus tard qu’il suffit en fait de vérifier une seule des conditions AB = I ou bien BA = I.

• Plus généralement, quand A est inversible, pour tout p ∈ N, on note :


−p − − −1
= (A 1 )p = A 1 A · · · A−1
A. |
{z } p
facteurs

• L’ensemble des matrices inversibles de Mn(K) est noté GLn(K).

3.2. Exemples
Exemple 11.
Soit A = 1 20 3. Étudier si A est inversible, c’est étudier l’existence d’une matrice B = dans K, a b à coefficients
telle que AB = I et BA = I. Or AB = I équivaut à : cd
MATRICES 146
0
AB I ⇐⇒ 1 2a b1 0 ⇐⇒ a + 2c b + 2d=10
1
= =
0 3 c d 0 1 3c 3d
Cette égalité équivaut au système :


a + 2c = 1

 b + 2d = 0
3c = 0

 3d = 1
Sa résolution est immédiate :2 a = 1, b = − , c = 0, d = . Il n’y a donc qu’une seule matrice possible, à
1 savoir B = 0. Pour prouver qu’elle convient, il faut aussi montrer l’égalité BA = I, dont la
vérification
1
2

=
est laissée au lecteur. La matrice A est donc inversible et A−1 0 −3 .
3. INVERSE D’UNE MATRICE : DÉFINITION

Exemple 12.

30
n’est pas inversible. En effet, soit B =a b une matrice quelconque. Alors le produit La matrice
A = 50
c d

a b3 0 3a + 5b 0
3c + 5d 0
BA = c d 5 0=
ne peut jamais être égal à la matrice identité.

Exemple 13.
• Soit In la matrice carrée identité de taille n× n. C’est une matrice inversible, et son inverse est elle-même par

l’égalité InIn = In.

• La matrice nulle 0n de taille n × n n’est pas inversible. En effet on sait que, pour toute matrice B de Mn(K), on a

B0n = 0n, qui ne peut jamais être la matrice identité.

3.3. Propriétés
Unicité

Proposition 5.
Si A est inversible, alors son inverse est unique.

Démonstration. La méthode classique pour mener à bien une telle démonstration est de supposer l’existence de
deux matrices B1 et B2 satisfaisant aux conditions imposées et de démontrer que B1 = B2.
MATRICES 147
A A
Soient donc B1 telle que AB1 = B1 = In et B2 telle que AB2 = B2 = In. Calculons B2(AB1). D’une part, comme AB1 = In,
on a B2(AB1) = B2. D’autre part, comme le produit des matrices est associatif, on a B2(AB1)=(B2A)B1 = InB1 = B1. Donc
B1 = B2.

Inverse de l’inverse

Proposition 6.
Soit A une matrice inversible. Alors A−1 est aussi inversible et on a :

(A−1)−1 = A

Inverse d’un produit

Proposition 7.
Soient A et B deux matrices inversibles de même taille. Alors AB est inversible et

(AB)−1 = B−1A−1

Il faut bien faire attention à l’inversion de l’ordre !

Démonstration. Il suffit de montrer (B−1A−1)(AB)= I et (AB)(B−1A−1)= I. Cela suit de (B−1A−1)(AB)=

B−1(A−1A)B = B−1IB = B−1B = I, et (AB)(B−1A−1)= A(BB−1)A−1 = AIA−1 =

AA−1 = I.

De façon analogue, on montre que si A1, . . . , Am sont inversibles, alors (A1A2 ···

Am)−1 = A−m1A−m1−1 ··· A−11.

4. INVERSE D’UNE MATRICE : CALCUL

Simplification par une matrice inversible

Si C est une matrice quelconque de Mn(K), nous avons vu que la relation AC = BC où A et B sont des éléments de
Mn(K) n’entraîne pas forcément l’égalité A = B. En revanche, si C est une matrice inversible, on a la proposition
suivante :
Proposition 8.
Soient A et B deux matrices de M n(K) et C une matrice inversible de M n(K). Alors l’égalité AC = BC implique
l’égalité A = B.

Démonstration. Ce résultat est immédiat : si on multiplie à droite l’égalité AC = BC par C−1, on obtient l’égalité :
(AC)C−1 =(BC)C−1. En utilisant l’associativité du produit des matrices on a A(CC−1)= B(CC−1), ce qui donne d’après la
définition de l’inverse AI = BI, d’où A = B.
MATRICES 148
Mini-exercices.

1. Soient A = −31 −42 et B = 2 15 3. Calculer A−1, B−1 , (AB)−1, (BA)−1, A−2. €1 0 0Š 2.


Calculer l’inverse de 0 2 0 .
103

Š
3. Soit A =€−201 −3 00 12 0 . Calculer 2A− A2. Sans calculs, en déduire A−1.

4. Inverse d’une matrice : calcul


Nous allons voir une méthode pour calculer l’inverse d’une matrice quelconque de manière efficace. Cette
méthode est une reformulation de la méthode du pivot de Gauss pour les systèmes linéaires. Auparavant, nous
commençons par une formule directe dans le cas simple des matrices 2 × 2.

4.1. Matrices 2×2

a b

Considérons la matrice 2 × 2 : A = c d .

Proposition 9.
Si ad − bc ≠ 0, alors A est inversible et
− b
a
d

A−1 =−c

= d b
Démonstration. On vérifie que si B − c −a alors AB = 1 00 1. Idem pour BA.

4.2. Méthode de Gauss pour inverser les matrices


La méthode pour inverser une matrice A consiste à faire des opérations élémentaires sur les lignes de la matrice
A jusqu’à la transformer en la matrice identité I. On fait simultanément les mêmes opérations élémentaires en
partant de la matrice I. On aboutit alors à une matrice qui est A−1. La preuve sera vue dans la section suivante.

En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante : à côté de la matrice
A que l’on veut inverser, on rajoute la matrice identité pour former un tableau (A | I). Sur les lignes
4. INVERSE D’UNE MATRICE : CALCUL

de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir le tableau (I | B). Et alors B

= A−1.

Ces opérations élémentaires sur les lignes sont :


MATRICES 149
1. Li ← λLi avec λ≠ 0 : on peut multiplier une ligne par un réel non nul (ou un élément de K\{0}).

2. Li ← Li +λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre ligne Lj.

3. Li ↔ Lj : on peut échanger deux lignes.

N’oubliez pas : tout ce que vous faites sur la partie gauche de la matrice augmentée, vous devez aussi le faire sur
la partie droite.

4.3. Un exemple

1 2 1

Calculons l’inverse de A = 4 0 −1 .

−1 2 2

Voici la matrice augmentée, avec les lignes numérotées :


1 2 11 0 0  L1

(A | I)= 4 0 −10 1 0  L2

−1 2 20 0 1 L3

On applique la méthode de Gauss pour faire apparaître des 0 sur la première colonne, d’abord sur la deuxième
ligne par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice augmentée :


1 2 11 0 0
0 −8 −5−4 1 0  L2←L2−4L1

−1 2 20 0 1

Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :


1 2 11 0 0
0 −8 −5−4 1 0

0 4 31 0 1 L3←L3+L1

On multiplie la ligne L2 afin qu’elle commence par 1 :

 
1 2 11 0 0
0 1 85 12 − 0  L2←− 81 L2

0 4 31 0 1
On continue afin de faire apparaître des 0 partout sous la diagonale, et on multiplie la ligne L3. Ce qui termine la
première partie de la méthode de Gauss :
MATRICES 150

1 2 11 0 0
0 1 58120 
0 0 12 −1
1L3←L3−4L2

puis

1 2 11 0 0
0 1 58 12 −
0

0 0 1−2 1 2 L3←2L3

Il ne reste plus qu’à « remonter » pour faire apparaître des zéros au-dessus de la diagonale :

 
1 2 11 0 0

010 − −54  L2←L2− 58 L3 0 0 1−2 1 2


MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 151

puis
1 0 0
1 11  L1←L1−2L2−L3

0 1 0 4 −4 −4


0 0 1−2 1 2

Ainsi l’inverse de A est la matrice obtenue à droite et après avoir factorisé tous les coefficients par , on a
obtenu :
 
− −2 −2 −2

1 1 7 3 5

A =4

−8 4 8 ×−

Pour se rassurer sur ses calculs, on n’oublie pas de vérifier rapidement que A A 1 = I.

Mini-exercices.
31 2 3 02 α 11
1. Si possible calculer l’inverse des matrices : 72 , − 5 4− , ,
3 0 +2 α .

2. Soit A(θ)= cossinθθ −cossinθθ. Calculer A(θ)−1.

,
3. Calculer l’inverse des matrices : €−1 3 02 12 1 1−1Š, €1 1 23 0 52 −2 1Š −1 0 1 00 20 2 1 3 1 2 0 1−2 0‹, 2 1 1 10 11 0 0 10 1 1 0−1
2‹, ‚−0 1 2 0 00 0 0 2 10 0 0 5 31 1 1 0 01 1 2 0 0Œ.

5. Inverse d’une matrice : systèmes linéaires et matrices élémentaires

5.1. Matrices et systèmes linéaires


Le système linéaire
 a11 x1 + + a12 x2 a22 + + a1p xp = b1 a2p xp
···
 x +
2 + = b2
+ ···
 a21 x1 ...
+
 an2 x2 + anp xp = bn
···
 an1 x1
peut s’écrire sous forme matricielle :

| {z } | {z } | {z }
A X B
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 152

 a11 ...  x1   b1 
...
a1p  a2p  x2 
a b
 21  ...   2
...  
 ... =  ...  .
  
...  
 
bn
an1 anp xp
On appelle A ∈ Mn,p(K) la matrice des coefficients du système. B ∈ Mn,1(K) est le vecteur du second membre.

Le vecteur X ∈ Mp,1(K) est une solution du système si et seulement si AX = B.

Nous savons que :


Théorème 1.
Un système d’équations linéaires n’a soit aucune solution, soit une seule solution, soit une infinité de
solutions.
5.2. Matrices inversibles et systèmes linéaires
Considérons le cas où le nombre d’équations égale le nombre d’inconnues :

| {z } | {z } | {z }
A X B

 a11 . . . a1n   x1   b1 
. . . a2n
 
a ...  x2  b2 
 21  ... ...  
  ... 
=
 ann     ...  .
  

an1 xn
bn
Alors A ∈ Mn(K) est une matrice carrée et B un vecteur de Mn,1(K). Pour tout second membre, nous pouvons

utiliser les matrices pour trouver la solution du système linéaire.

Proposition 10.
Si la matrice A est inversible, alors la solution du système AX = B est unique et est :

X = A−1B.

La preuve est juste de vérifier que si X = A−1B, alors AX = A A−1B= AA−1B = I · B = B. Réciproquement si AX = B, alors

nécessairement X = A−1B. Nous verrons bientôt que si la matrice n’est pas inversible, alors soit il n’y a pas de

solution, soit une infinité.


MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 153

5.3. Les matrices élémentaires


Pour calculer l’inverse d’une matrice A, et aussi pour résoudre des systèmes linéaires, nous avons utilisé trois
opérations élémentaires sur les lignes qui sont :

1. Li ← λLi avec λ≠ 0 : on peut multiplier une ligne par un réel non nul (ou un élément de K\{0}).

2. Li ← Li +λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre ligne Lj.

3. Li ↔ Lj : on peut échanger deux lignes.

Nous allons définir trois matrices élémentaires ELi←λLi , ELi←Li+λLj , ELi↔Lj correspondant à ces opérations. Plus

précisément, le produit E × A correspondra à l’opération élémentaire sur A. Voici les définitions accompagnées

d’exemples.

1. i← i La matrice EL λL est la matrice obtenue en


où λ est un nombre réel non nul. multipliant par λ la i-ème ligne de la
matrice identité In,
1
0
0
0 0
EL2←5L2 =0 5 0 0
 0 1 0
0 0 0 1

2. La matrice ELi←Li+λLj est la matrice obtenue en ajoutant λ fois la j-ème ligne de In à la i-ème ligne de

In.

 
1 0 0 0

← − −3 1 0 0

EL2 L2 3L1 = 0 0 1 0

0 0 0 1
3. La matrice ELi↔Lj est la matrice obtenue en permutant les i-ème et j-ème lignes de In.
1 0 0 0
0 0
0 1
0 1
0
EL2↔L4 = EL4↔L2 =0 1 0
 0
0
Les opérations élémentaires sur les lignes sont réversibles, ce qui entraîne l’inversibilité des matrices
élémentaires.

Le résultat de la multiplication d’un matrice élémentaire E par A est la matrice obtenue en effectuant l’opération
élémentaire correspondante sur A. Ainsi :
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 154

1. La matrice ELi←λLi × A est la matrice obtenue en multipliant par λ la i-ème ligne de A.

2. La matrice ELi←Li+λLj × A est la matrice obtenue en ajoutant λ fois la j-ème ligne de A à la i-ème ligne de A.

3. La matrice ELi↔Lj × A est la matrice obtenue en permutant les i-ème et j-ème lignes de A.

Exemple 14.

1.

1 0 0 x1 x2 x3   x1 x2 x3 

EL2← 13 L2 × A =0
0 0 1 z1 z2 z3 z1 z2 z3
2.
1 0 −7 x1 x2 x3 x1 − 7z1 x2 − 7z2 x3 − 7z3
1
EL1←L1−7L3 × A =0 0 y
y2 3  z2 z3
0 ×y1 y2 y3= y1
0
1 z1 z2 z3 z1
3.
1 0 0 x1 x2 x3 x1 x2 x3 z2
z
3 y 2 y 3
EL2↔L3 × A =0 0 1×y1 y2 y3=z1
0 1 0 z1 z2 z3 y1

y
0×y1 y2 y3=31 y1 31 y2 31 3

5.4. Équivalence à une matrice échelonnée

Définition 8.
Deux matrices A et B sont dites équivalentes par lignes si l’une peut être obtenue à partir de l’autre par
une suite d’opérations élémentaires sur les lignes. On note A ∼ B.

Définition 9.
Une matrice est échelonnée si :
• le nombre de zéros commençant une ligne croît strictement ligne par ligne jusqu’à ce qu’il ne reste plus
que des zéros.
Elle est échelonnée réduite si en plus :
• le premier coefficient non nul d’une ligne (non nulle) vaut 1 ;
• et c’est le seul élément non nul de sa colonne.
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 155

coefficients quelconques, les + des coefficients non nuls : Exemple d’une matrice

+ ∗ ∗ ∗ ∗ ∗   ∗ 0 0 ∗ ∗ 0 échelonnée (à gauche)
0  0 + ∗ ∗ ∗ ∗ 1 0 1 0 ∗ ∗
0  ∗ 0 0
0 0 + ∗ 0 0 1 ∗ ∗ et échelonnée réduite
0   0
0 0 0 0 0 ∗   0 0 0 0 0 0  1
0∗   0
 0 0 0 0  0 0 0 0 0 0  (à droite) ; les ∗
0 0 0 0 0  0 0 0 0 0
0  0 désignent des Étant
0 +
0 0
Théorème 2. donnée une matrice A
0
0
∈ Mn,p(K), il existe une

unique matrice échelonnée réduite U obtenue à partir de A par des opérations élémentaires sur les lignes.

Ce théorème permet donc de se ramener par des opérations élémentaires à des matrices dont la structure est
beaucoup plus simple : les matrices échelonnées réduites.

Démonstration. Nous admettons l’unicité.


L’existence se démontre grâce à l’algorithme de Gauss. L’idée générale consiste à utiliser des substitutions de
lignes pour placer des zéros là où il faut de façon à créer d’abord une forme échelonnée, puis une forme
échelonnée réduite.

Soit A une matrice n × p quelconque.

Partie A. Passage à une forme échelonnée.


Étape A.1. Choix du pivot.
On commence par inspecter la première colonne. Soit elle ne contient que des zéros, auquel cas on passe
directement à l’étape A.3, soit elle contient au moins un terme non nul. On choisit alors un tel terme, que l’on
appelle le pivot. Si c’est le terme a11, on passe directement à l’étape A.2 ; si c’est un terme ai1 avec i ≠ 1, on
échange les lignes 1 et i (L1 ↔ Li) et on passe à l’étape A.2.

Au terme de l’étape A.1, soit la matrice A a sa première colonne nulle (à gauche) ou bien on obtient une matrice
équivalente dont le premier coefficient a11′ est non nul (à droite) :

0 a12 ··· a1j ··· a1p a11′ a12′ ··· a1 ′ j ··· a1′ p

0 a22 ··· a2j ··· a2p a21′ a22′ ··· a2 ′ j ··· a2′ p

 
 ... ... ... ...   ... ... ... ...   ··· ··· = A ou ai′1 ai′2 ··· aij′ ··· aip′  ∼ A.

0 ai2 aij aip  

 
 ... ... ... ...   ... ... ... ... 

0 an2 ··· anj ··· anp an′ 1 an′ 2 ··· anj′ ··· anp′

Étape A.2. Élimination.


MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 156

On ne touche plus à la ligne 1, et on se sert du pivot a11′ pour éliminer tous les termes ai′1 (avec i ⩾ 2) situés sous

le pivot. Pour cela, il suffit de remplacer la ligne i par elle-même moins ai′1 × la ligne 1, ceci pour a11′

i = 2, . . . , n : L2 ← L2 a′ ← L3 − aa

Au terme de l’étape A.2, on a obtenu une matrice de la forme

a11′ a12′ ··· a1 ′ j ··· a1′ p

0 a22′′ ··· a2′′j ··· a2′′p

 ... ... ... ... 


  ∼ A.

0 ai′′2 ··· aij′′ ··· aip′′ 

 ... ... ... ... 

0 an′′2 ··· anj′′ ··· anp′′


Étape A.3. Boucle.
Au début de l’étape A.3, on a obtenu dans tous les cas de figure une matrice de la forme

a111 a a11p


aip1  ∼
0
A
··· ···
 ... ai12 aij1
 ... 
 ... ...
0 ap

 ...

0 a anp1
dont la première colonne est bien celle d’une matrice échelonnée. On va donc conserver cette première colonne.

=
Si a111 ̸ 0, on conserve aussi la première ligne, et l’on repart avec l’étape A.1 en l’appliquant cette fois à la sous-

matrice (n − 1)×(p − 1) (ci-dessous à gauche : on « oublie » la première ligne et la première colonne de A) ; si a111 =

0, on repart avec l’étape A.1 en l’appliquant à la sous-matrice n ×(p − 1) (à droite, on « oublie » la première

colonne) :

aa1 
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 157

a p a 1pp
 
 ... ... ...    ... ... ...  
ai12 ··· aij1 ··· aip1  ai12 ··· aij1 ··· aip1 


 ... ... ...  .


a anp1  a.. ... anp1...  

Au terme de cette deuxième itération de la boucle, on aura obtenu une matrice de la forme

a111 a a11p


aip2  ∼
0
0 A,
··· ···
 ... ... aij2
 .
. . 
 ...
0 ap

 ...

anp2
et ainsi de suite.
Comme chaque itération de la boucle travaille sur une matrice qui a une colonne de moins que la précédente,
alors au bout d’au plus p − 1 itérations de la boucle, on aura obtenu une matrice échelonnée.

Partie B. Passage à une forme échelonnée réduite.


Étape B.1. Homothéties.
On repère le premier élément non nul de chaque ligne non nulle, et on multiplie cette ligne par l’inverse de cet
=
élément. Exemple : si le premier élément non nul de la ligne i est α ̸ 0, alors on effectue Li ← α1 Li.

Ceci crée une matrice échelonnée avec des 1 en position de pivots.


Étape B.2. Élimination.
On élimine les termes situés au-dessus des positions de pivot comme précédemment, en procédant à partir du
bas à droite de la matrice. Ceci ne modifie pas la structure échelonnée de la matrice en raison de la disposition
des zéros dont on part.

Exemple 15.
Soit
1 2 3 4
2 4
A = 0 0 1 6 .
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 158

−1 0
A. Passage à une forme échelonnée.
Première itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a111 = 1.
Première itération de la boucle, étape A.2. On ne fait rien sur la ligne 2 qui contient déjà un zéro en bonne
position et on remplace la ligne 3 par L3 ← L3 + L1. On obtient
1 2 3 4
Deuxième itération de la boucle, étape A.1. 2 4 Le choix du pivot est tout fait, on garde a222 =
2. A ∼ 0
2 4 6 .
Deuxième itération de la boucle, étape A.2. 0 4 On remplace la ligne 3 avec l’opération L3 ←
L3 − L2. On obtient
1 2 3 4  6
2 4
A ∼ 0 .
0 0 
0 Cette matrice est échelonnée. −2

B. Passage à une forme échelonnée réduite.


Étape B.1, homothéties. On multiplie la ligne 2 par et la ligne 3 par − et l’on obtient
1 2 3 4
1 2
A ∼ 0
0 0 3 .
0 1
Étape B.2, première itération. On ne touche plus à la ligne 3 et on remplace la ligne 2 par L2 ← L2 − 3L3 et L1 ← L1 −

4L3. On obtient

 
1 2 3 0

A ∼ 0 1 2 0 .
0 0 0 1
Étape B.2, deuxième itération. On ne touche plus à la ligne 2 et on remplace la ligne 1 par L1 ← L1 − 2L2.
On obtient

1 0 − 1 0
1 2
A ∼ 0 0
0 0
1
0
qui est bien échelonnée et réduite.
5.5. Matrices élémentaires et inverse d’une matrice

Théorème 3.
Soit A ∈ Mn(K). La matrice A est inversible si et seulement si sa forme échelonnée réduite est la matrice

identité In.

Démonstration. Notons U la forme échelonnée réduite de A. Et notons E le produit de matrices élémentaires tel
que EA = U.
⇐= Si U = In alors EA = In. Ainsi par définition, A est inversible et A−1 = E.
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 159

=⇒ Nous allons montrer que si U ≠ In, alors A n’est pas inversible.

— Supposons U ≠ In. Alors la dernière ligne de U est nulle (sinon il y aurait un pivot sur chaque ligne donc

ce serait In).

— Cela entraîne que U n’est pas inversible : en effet, pour tout matrice carrée V, la dernière ligne de UV est
nulle ; on n’aura donc jamais UV = In.
— Alors, A n’est pas inversible non plus : en effet, si A était inversible, on aurait U = EA et U serait inversible
comme produit de matrices inversibles (E est inversible car c’est un produit de matrices élémentaires qui
sont inversibles).

Remarque.
Justifions maintenant notre méthode pour calculer A−1.

Nous partons de (A|I) pour arriver par des opérations élémentaires sur les lignes à (I|B). Montrons que

B = A−1. Faire une opération élémentaire signifie multiplier à gauche par une des matrices élémentaires.
Notons E le produit de ces matrices élémentaires. Dire que l’on arrive à la fin du processus à I signifie EA = I. Donc
A−1 = E. Comme on fait les mêmes opérations sur la partie droite du tableau, alors on obtient EI = B. Donc B = E.
Conséquence : B = A−1.

Corollaire 1.
Les assertions suivantes sont équivalentes :
(i) La matrice A est inversible.
0 0

. .
(ii) Le système linéaire AX = .. a une unique solution X = .. .
0 0
(iii) Pour tout second membre B, le système linéaire AX = B a une unique solution X .

Démonstration. Nous avons déjà vu (i) =⇒ (ii) et (i) =⇒ (iii).

Nous allons seulement montrer (ii) =⇒ (i). Nous raisonnons par contraposée : nous allons montrer la proposition

équivalente non(i) =⇒ non(ii). Si A n’est pas inversible, alors sa forme échelonnée réduite U contient un premier

zéro sur sa diagonale, disons à


1 0 ··· c1 ∗ ··· ∗  −c1 
la place ℓ. Alors U à  la forme suivante
... 0 ... ···
.
0 ∗ 
 .. 
 

 
 00 0 01 cℓ0−1 ∗ ······ ∗∗ . On note X = −c1ℓ−1  .


 
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 160

 0 0

 .  ... 


.
00

Alors X n’est pas le vecteur nul, mais UX est le vecteur nul. Comme A = E−1U, alors AX est le vecteur nul.
Nous avons donc trouvé un vecteur non nul X tel que AX = 0.

Mini-exercices.
1. Exprimer les systèmes linéaires suivants sous forme matricielle et les résoudre en inversant la matrice :

x
x+z=1  + t =α

2−x2x++4y3y==7 −14 ,  −x 2+yz+=31z = 1 ,  xxy +−+ 2tyy=+=4t =β 2 .

2. Écrire les matrices 4 × 4 correspondant aux opérations élémentaires : L2 ← 13 L2, L3 ← L3 − 14 L2, L1 ↔ L4. Sans

calculs, écrire leurs inverses. Écrire la matrice 4×4 de l’opération L1 ← L1 −2L3 +3L4.

€1 2 3Š € 1 0 2Š
3. Écrire les matrices suivantes sous forme échelonnée, puis échelonnée réduite : 1 4 0 ,
1 −1 12 3 ,

2 0 −2 00 ‹. −2 −2 −3 2−

−11 2−−2 11 1−1 −42


MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 161

6. Matrices triangulaires, transposition, trace, matrices symétriques

6.1. Matrices triangulaires, matrices diagonales


Soit A une matrice de taille n × n. On dit que A est triangulaire inférieure si ses éléments au-dessus de la

diagonale sont nuls, autrement dit :

i < j =⇒ aij = 0.

Une matrice triangulaire inférieure a la forme suivante :


a11 0 ··· ··· 0

a22 ...
a21
... 
 ... ...
... 
 ...
...
... ... 

··· ··· 0
 an2 
 ...
ann

an1
On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale sont nuls, autrement
dit :
i > j =⇒ aij = 0.

Une matrice triangulaire supérieure a la forme suivante :


 a12 . . . . . . . . . a1n
a11 a22 . . . . . . . . .
a2n
0 ... ...
...
 ... ...
... 
 ...
...

0 ...
... ... ...
 ... 

 ...

 ... 

 ann
0
Exemple 16.
Deux matrices triangulaires inférieures (à gauche), une matrice triangulaire supérieure (à droite) :

   
4 0 0 5 0 1 1 −1

0 −1 0 − 0 −1 −−1

1 2
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 162

3 −2 3 0 0 1

Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diagonale. Autrement dit :
i= ̸ j =⇒ aij = 0.

Exemple 17.

Exemples de matrices diagonales :

−1 0 0 2 0

0 6 0 et

0 3

0 0 0

Exemple 18 (Puissances d’une matrice diagonale).


Si D est une matrice diagonale, il est très facile de calculer ses puissances Dp (par récurrence sur p) :

  
α1 0 ... ... 0 α1p 0 ... ... 0

 0 α2 0 ... 0  0 α2p 0 ... 0

D = ... ... ... ... ...  =⇒ Dp = ... ... ... ... ... 

   p 

0 ... 0 αn−1 0 0 ... 0 αn−1 0

0 ... ... 0 αn 0 ... ... 0 αnp


Théorème 4.
Une matrice A de taille n × n, triangulaire, est inversible si et seulement si ses éléments diagonaux sont

tous non nuls.

Démonstration. Supposons que A soit triangulaire supérieure.


• Si les éléments de la diagonale sont tous non nuls, alors la matrice A est déjà sous la forme échelonnée. En
multipliant chaque ligne i par l’inverse de l’élément diagonal aii, on obtient des 1 sur la diagonale. De ce fait,
la forme échelonnée réduite de A sera la matrice identité. Le théorème 3 permet de conclure que A est
inversible.
• Inversement, supposons qu’au moins l’un des éléments diagonaux soit nul et notons aℓℓ le premier élément
nul de la diagonale. En multipliant les
on obtient une matrice de la forme
lignes 1 à ℓ− 1 par l’inverse de leur
1 ∗ ··· ··· ∗ élément diagonal,

.. . ···
0 ··· ∗ 
0 0 1∗ ···
∗ ∗ 
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 163

 
0 0
0 ∗ ··· ∗ .

 0
 .

 . 0 ··· ···

Il est alors clair que la colonne numéro ℓ de la forme échelonnée réduite ne contiendra pas de 1 comme
pivot. La forme échelonnée réduite de A ne peut donc pas être In et par le théorème 3, A n’est pas inversible.
Dans le cas d’une matrice triangulaire inférieure, on utilise la transposition (qui fait l’objet de la section suivante)
et on obtient une matrice triangulaire supérieure. On applique alors la démonstration ci-dessus.

6.2. La transposition
Soit A la matrice de taille n × p
 a11 a12 . . . a1p  On appelle matrice transposée de A la
a22 ... matrice AT de taille p × n définie par :
a a2p 
 21 A ...
= ... . . . ...  .
 a11 a21 . . . an1 
 an2
anp
an1
AT = a12... a22... ... an...2
Définition 10.
 .

a1p a2p . . . anp

Autrement dit : le coefficient à la place (i, j) de AT est aji. Ou encore la i-ème ligne de A devient la i-ème colonne
de AT (et réciproquement la j-ème colonne de AT est la j-ème ligne de A).

Notation : La transposée de la matrice A se note aussi souvent tA.


Exemple 19.

1 2 3 T 1 4 −7

4 5 −6 =2 5 8
−7 8 9 3 −6 9

 01 −35T =30 −15 −21 (1 −2 5)T =−12


MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 164

−1 2 5

L’opération de transposition obéit aux règles suivantes :


Théorème 5.
1. (A+ B)T = AT + BT

2. (αA)T =αAT

3. (AT)T = A

4. (AB)T = BTAT

5. Si A est inversible, alors AT l’est aussi et on a (AT)−1 =(A−1)T.

Notez bien l’inversion : (AB)T = BTAT, comme pour (AB)−1 = B−1A−1.

6.3. La trace
Dans le cas d’une matrice carrée de taille n × n, les éléments a11, a22, . . . , ann sont appelés les éléments

diagonaux.

Sa diagonale principale est la diagonale (a11, a22, . . . , ann).


a11 a12 ... a1n
a22 ...
a a2n
 21
... ...
 ... ...
 ...
an2 

an1 ann
Définition 11.
La trace de la matrice A est le nombre obtenu en additionnant les éléments diagonaux de A. Autrement
dit,

tr A = a11 + a22 + ···+ ann.

Exemple 20.
• Si A = 2 10 5, alors tr A = 2 + 5 = 7.
€ 11 2Š
• Pour B = 11 05 2 −810 , tr B = 1 + 2 − 10 = −7.

Théorème 6.
Soient A et B deux matrices n × n. Alors :

1. tr(A+ B) = tr A + tr B,

2. tr(αA) =α tr A pour tout α ∈ K,


MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 165

3. tr(AT) = tr A,

4. tr(AB) = tr(BA).
Démonstration.

1. Pour tout 1 ⩽ i ⩽ n, le coefficient (i, i) de A+ B est aii + bii. Ainsi, on a bien tr(A+ B) = tr(A) + tr(B).

2. On a tr(αA)=αa11 +···+αann =α(a11 +···+ ann)=α tr A.

3. Étant donné que la transposition ne change pas les éléments diagonaux, la trace de A est égale à la trace de
AT.

4. Notons cij les coefficients de AB. Alors par définition

cii = ai1b1i + ai2b2i +···+ ainbni.


Ainsi,

tr(AB) = a11b11 +a12b21 + +a1nbn1


···
+a21b12 +a22b22 + +a2nbn2
···
...
+an1b1n +an2b2n + +annbnn.
···
On peut réarranger les termes pour obtenir
tr(AB) = a11b11 +a21b12 +
+an1b1n
···
+a12b21 +a22b22 +an2b2n
+
···
...
+a1nbn1 +a2nbn2 +··· +annbnn.

En utilisant la commutativité de la multiplication dans K, la première ligne devient

b11a11 + b12a21 +···+ b1nan1

qui vaut le coefficient (1, 1) de BA. On note dij les coefficients de BA. En faisant de même avec les autres
lignes, on voit finalement que tr(AB)= d11 +···+ dnn = tr(BA).

6.4. Matrices symétriques

Définition 12.
Une matrice A de taille n × n est symétrique si elle est égale à sa transposée, c’est-à-dire si

A = AT,

ou encore si aij = aji pour tout i, j = 1, . . . , n. Les coefficients sont donc symétriques par rapport à la
diagonale.

Exemple 21.
Les matrices suivantes sont symétriques :

0 2 −1 0 5
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 166

2 4 0 21

5 −10

Exemple 22.
Pour une matrice B quelconque, les matrices B · BT et BT · B sont symétriques.

Preuve : (BBT)T =(BT)T BT = BBT. Idem pour BT B.


6.5. Matrices antisymétriques

Définition 13.
Une matrice A de taille n × n est antisymétrique si

AT = −A,

c’est-à-dire si aij = −aji pour tout i, j = 1, . . . , n.

Exemple 23.

0 −1 −0 4 −2 

1 0 4 0 5
−2 5 0

Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours tous nuls.
Exemple 24.
Toute matrice est la somme d’une matrice symétrique et d’une matrice antisymétrique.

Preuve : Soit A une matrice. Définissons B = (A + AT) et C = (A − AT). Alors d’une part A = B + C ; d’autre part B
est symétrique, car BT = 12(AT +(AT)T)= 12(AT + A)= B ; et enfin C est antisymétrique, car
CT = 21(AT −(AT)T)= −C. 0 1
.1
Exemple : −
2 9
2 0
Pour A=8 10 −3 alors A = 9 −3 +
| {z } | {z }
symétrique antisymétrique

Mini-exercices.
1. Montrer que la somme de deux matrices triangulaires supérieures reste triangulaire supérieure.
Montrer que c’est aussi valable pour le produit.
2. Montrer que si A est triangulaire supérieure, alors AT est triangulaire inférieure. Et si A est
diagonale ?
x
1 ! x2

3. Soit A = ... . Calculer AT · A, puis A· AT.

xn
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 167

4. Soit A = a bc d . Calculer tr(A· AT).

5. Soit A une matrice de taille 2 × 2 inversible. Montrer que si A est symétrique, alors A−1 aussi. Et si A

est antisymétrique ?

6. Montrer que la décomposition d’une matrice sous la forme « symétrique + antisymétrique » est
unique.

Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• et un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties de cours de H.
Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre

L’espace vectoriel Rn9

VidØo ■ partie 1. Vecteurs de Rn


VidØo ■ partie 2. Exemples d’applications linØaires
VidØo ■ partie 3. PropriØtØs des applications linØaires

Ce chapitre est consacré à l’ensemble Rn vu comme espace vectoriel. Il peut être vu de plusieurs façons :

• un cours minimal sur les espaces vectoriels pour ceux qui n’auraient besoin que de R n, • une introduction
avant d’attaquer le cours détaillé sur les espaces vectoriels,
• une source d’exemples à lire en parallèle du cours sur les espaces vectoriels.

1. Vecteurs de Rn

1.1. Opérations sur les vecteurs

• L’ensemble des nombres réels R est souvent représenté par une droite. C’est un espace de
x 1
dimension 1. • Le plan est formé des couples x 2 de nombres réels. Il est noté R2. C’est un espace à
deux dimensions.
x12 R3.
• L’espace de dimension 3 est constitué des triplets de nombres réels xx3 . Il est noté x1

Le symbole x2 a deux interprétations géométriques : soit comme un point de l’espace (figure de


x3
gauche), soit comme un vecteur (figure de droite) :

 x1   x1 

 x2   x2 
x3 x3

On généralise ces notions en considérant des espaces de dimension n pour tout entier positif n = 1, 2, 3, 4, . . .
x
1 ! x2
L’ESPACE VECTORIEL Rn 170
Les éléments de l’espace de dimension n sont les n-uples ... de nombres réels. L’espace de dimension
xn
x
1 ! x2
n est noté Rn. Comme en dimensions 2 et 3, le n-uple ... dénote aussi bien un point qu’un vecteur de
xn
l’espace de dimension n.
1. VECTEURS DE Rn

u v
1 ! 1 ! u2 v2

Soient u = ... et v = ... deux vecteurs de Rn.


un vn

Définition 1.
  u1 + v 1

• Somme de deux vecteurs. Leur somme est par définition le vecteur u + v =

 ...  .

un + v n
  λu1

.
• Produit d’un vecteur par un scalaire. Soit λ ∈ R (appelé un scalaire) : λ· u = . .  .

λun
0

.
• Le vecteur nul de Rn est le vecteur 0 = .. .
0
u u
1 − 1

. .
• L’opposé du vecteur u = .. est le vecteur −u = .. .
un −un

Voici des vecteurs dans R2 (ici λ= 2) :


λ·u

u+v

−u
L’ESPACE VECTORIEL Rn 171
Dans un premier temps, vous pouvez noter u⃗, v⃗ , 0⃗ au lieu de u, v, 0. Mais il faudra s’habituer rapidement à la

notation sans flèche. De même, si λ est un scalaire et u un vecteur, on notera souvent λu au lieu de λ· u.

Théorème 1.
u v w
1 1 1

. . .
Soient u = .. ,v= .. et w = .. des vecteurs de Rn et λ, µ ∈ R. Alors :
un vn wn

1. u + v = v + u

2. u +(v + w)=(u + v)+ w


3. u + 0 = 0 + u = u

4. u +(−u)= 0

5. 1 · u = u

6. λ·(µ· u)=(λµ)· u

7. λ·(u + v)=λ· u +λ· v

8. (λ+µ)· u =λ· u +µ· u


1. VECTEURS DE Rn

u u+v

Chacune de ces propriétés découle directement de la définition de la somme et de la multiplication par un


scalaire. Ces huit propriétés font de R n un espace vectoriel. Dans le cadre général, ce sont ces huit propriétés qui
définissent ce qu’est un espace vectoriel.

1.2. Représentation des vecteurs de Rn

u
1

.
Soit u = .. un vecteur de Rn. On l’appelle vecteur colonne et on considère naturellement u comme une
un matrice de taille n × 1. Parfois, on rencontre aussi des vecteurs lignes : on peut voir le vecteur u

comme une matrice 1 × n, de la forme (u1, . . . , un). En fait, le vecteur ligne correspondant à u est le transposé uT

du vecteur colonne u.
L’ESPACE VECTORIEL Rn 172
Les opérations de somme et de produit par un scalaire définies ci-dessus pour les vecteurs coïncident
parfaitement avec les opérations définies sur les matrices :
. .
          u1 v1 u1 + v1 u1 λu1 u + v = ... + .. = ..  et λu =λ

. .
.. = ..  . un vn un + vn un λun

1.3. Produit scalaire


u v
1 1

. .
Soient u = .. et v = .. deux vecteurs de Rn. On définit leur produit scalaire par
un vn

〈u | v〉 = u1v1 + u2v2 +···+ unvn.

C’est un scalaire (un nombre réel). Remarquons que cette définition généralise la notion de produit scalaire dans
le plan R2 et dans l’espace R3.
Une autre écriture :
v1 v

|
〈 u v 〉 = uT × v = u1 u2 ··· un× ...2

vn

Soient A =(aij) une matrice de taille n × p, et B =(bij) une matrice de taille p × q. Nous savons que l’on peut former

le produit matriciel AB. On obtient une matrice de taille n × q. L’élément d’indice i j de la matrice AB est

ai1b1j + ai2b2j +···+ aip bpj .


L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 173

Remarquons que ceci est aussi le produit matriciel :


b1j

b2j
ai1 ai2 ··· aip× ...  .

bpj

Autrement dit, c’est le produit scalaire du i-ème vecteur ligne de A avec le j-ème vecteur colonne de B. Notons
ℓ1, . . . , ℓn les vecteurs lignes formant la matrice A, et c1, . . . , cq les vecteurs colonnes formant la matrice B. On a
alors
〈ℓ1 | c1〉 〈ℓ1 | c2〉 ··· 〈ℓ1 | cq〉

〈ℓ2 | c1〉 〈ℓ2 | c2〉 ··· 〈ℓ2 | cq〉

 
AB =  ... ... ...  .


〈ℓn | c1〉 〈ℓn | c2〉 ··· 〈ℓn | cq〉

Mini-exercices.
1. Faire un dessin pour chacune des 8 propriétés qui font de R2 un espace vectoriel.

2. Faire la même chose pour R3. 3. Montrer que le produit scalaire vérifie 〈u | v〉 = 〈v | u〉, 〈u+ v | w〉 = 〈u |

w〉+〈v | w〉, 〈λu | v〉 =λ〈u | v〉 pour tout u, v, w ∈ Rn et λ ∈ R.

4. Soit u ∈ Rn. Montrer que 〈u | u〉 ⩾ 0. Montrer 〈u | u〉 = 0 si et seulement si u est le vecteur nul.

2. Exemples d’applications linéaires


Soient
f1 : Rp −→ R f2 : Rp −→ R ... fn : Rp −→ R

n fonctions de p variables réelles à valeurs réelles ; chaque fi est une fonction :

fi : Rp −→ R, (x1, x2, . . . , xp) 7→ fi(x1, . . . , xp)

On construit une application


f : Rp −→ Rn

définie par

f (x1, . . . , xp)= f1(x1, . . . , xp), . . . , fn(x1, . . . , xp) .


L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 174

2.1. Applications linéaires

Définition 2.
Une application f : Rp −→ Rn définie par f (x1, . . . , xp)=(y1, . . . , yn) est dite une application linéaire si


y
 y12 == aa1121xx11 ++ aa1222xx22 ++ ······ ++ aa12pp xxpp

... ... ... ...




 yn = an1x1 + an2x2 + ··· + anp xp .


En notation matricielle, on
x1 y1 a11 a12 ··· a1px1
a a22 ··· x
 21 =
a2p 2
x y
 2  2 f  ... ... ...
··· ...  ...

= ... 
an2  ,
 an1

anp xp
a ou encore, si on note X = xp y n   x1
.

..  et A ∈ Mn,p(R) la matrice (aij),

xp

f (X )= AX .

Autrement dit, une application linéaire Rp → Rn peut s’écrire X 7→ AX . La matrice A ∈ Mn,p(R) est appelée la

matrice de l’application linéaire f .

Remarque.
• On a toujours f (0, . . . , 0)=(0, . . . , 0). Si on note 0 pour le vecteur nul dans R p et aussi dans Rn, alors une
application linéaire vérifie toujours f (0)= 0.
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 175

• Le nom complet de la matrice A est : la matrice de l’application linéaire f de la base canonique de Rp vers la
base canonique de Rn !

Exemple 1.
La fonction f : R4 −→ R3 définie par


y1 = −2x1 + 5x2 + 2x3 − 7x4


y2 = 4x1 + 2x2 − 3x3 + 3x4  y3 = 7x1 −

3x2 + 9x3

s’exprime sous forme matricielle comme suit :


x 
y1 −2 5 2 −7 1

xx
y2= 4 2 −3 3   23 . y3 7 −3 9 0 

x4

Exemple 2.
• Pour l’application linéaire identité Rn → Rn, (x1, . . . , xn) 7→ (x1, . . . , xn), sa matrice associée est l’identité

In (car InX = X ).
• Pour l’application linéaire nulle Rp → Rn, (x1, . . . , xp) →7 (0, . . . , 0), sa matrice associée est la matrice

nulle 0n,p (car 0n,pX = 0).

2.2. Exemples d’applications linéaires

Réflexion par rapport à l’axe (O y)

La fonction

f : R2 −→ R2 xy 7→ −yx

est la réflexion par rapport à l’axe des ordonnées (O y), et sa matrice est

− 1 0 −1 0x −x 0

1 car 0 1 y = y .
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 176

−x x
y y

O x

Réflexion par rapport à l’axe (Ox)

La réflexion par rapport à l’axe des abscisses (Ox) est donnée par la matrice
1 0
.
0 −1
y

x
y

O x

x
−y

Réflexion par rapport à la droite (y = x)

La réflexion par rapport à la droite (y = x) est donnée par


f : R2 −→ R2, x y

x
et sa matrice est y7
01 1
.
0
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 177

y
( y = x)
x

x
y

O x

Homothéties

L’homothétie de rapport λ centrée à l’origine est :


f : R2 −→ R2, xy 7→ λλxy .
x
On peut donc écrire f y = λ0 λ0 xy . Alors la matrice de l’homothétie est :
λ0
.

y
λx
λy

x
y

O x

Remarque.
u 0
La translation de vecteur v0 est l’application

f : R2 → R2, xy →7 xy+uv00=xy ++uv00 .

u 0= 0
Si c’est une translation de vecteur non nul, c’est-à-dire v0 ̸ 0 , alors ce n’est pas une application linéaire,

car f 00≠ 00.

Rotations

Soit f : R2 −→ R2 la rotation d’angle θ, centrée à l’origine.


L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 178


x
y ′
y

x
y

θ
r
α
O x

x x
Si le vecteur y fait un angle α avec l’horizontale et que le point y est à une distance r de l’origine, alors

x = r cos α . y = r sin

Š
Si € xy′′ dénote l’image de x
y par la rotation d’angle θ, on obtient :

x′ = r cos(α+θ) donc x′ = r cos α cos θ − r sin α sin θ y′ = r sin(α+θ) y′ = r cos α sin θ + r

sin α cos θ

(où l’on a appliqué les formules de trigonométrie pour cos(α+θ) et sin(α+θ)).


On aboutit à
x = x cos θ − y sin θ x x = sin θx
′ y′ ′ cos θ y′ sin θ
= sin θ + y cos θ donc − .
cos θ y
Autrement dit, la rotation d’angle θ est donnée par la matrice

cos θ − sin θ
.
sin θ cos θ

Projections orthogonales
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 179

x
y

O x x
0

L’application

f : R2 −→ R2, xy 7→ 0x

est la projection orthogonale sur l’axe (Ox). C’est une application linéaire donnée par la matrice

1 0
.
0 0

L’application linéaire

x x

f : R3 −→ R3, y 7→ y z 0

est la projection orthogonale sur le plan (Ox y) et sa matrice est


1 0 0
1
0 0
0 0 .
0
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 180

 x

 y
z

O
y

 x

 y
0
x

De même, la projection orthogonale sur le plan (Oxz) est donnée par la matrice de gauche ; la projection

1 0 0 0 0 0

0 0 0
0 1 0 .
0 0 1
0 0 1
orthogonale sur le plan (O yz) par la
Réflexions dans l’espace

L’application
f : R3 −→ R3, x  x 

y 7→  y  z
−z matrice de droite : est la réflexion par

rapport au plan (Ox y). C’est une application linéaire et sa matrice est

1 0 0

0 1 0.
0 0 −1

De même, les réflexions par rapport aux plans (Oxz) (à gauche) et (O yz) (à droite) sont données par les
matrices :

1 0 0 −1 0 0
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 181

0 0 − 1 0 0 1
0 .
01 0 0
1
Mini-exercices.

1. Soit A = 1 21 3 et soit f l’application linéaire associée. Calculer et dessiner l’image par f de 10, puis 01 et plus

généralement de xy . Dessiner l’image par f du carré de sommets 0 1 1 0


0 0 1 1. Dessiner l’image par f du cercle
inscrit dans ce carré.
€1 2 1Š € 1Š € 0Š € 0Š
2. Soit A = 0 1 02 1 1− et soit f l’application linéaire associée. Calculer l’image par f de 0
0 , 1
0
0
, 1 et
€ x Š
plus généralement de y . z
3. Écrire la matrice de la rotation du plan d’angle centrée à l’origine. Idem dans l’espace avec la rotation
d’angle d’axe (Ox).

4. Écrire la matrice de la réflexion du plan par rapport à la droite (y = −x). Idem dans l’espace avec la réflexion

par rapport au plan d’équation (y = −x).


L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 182

5. Écrire la matrice de la projection orthogonale de l’espace sur l’axe (O y).

3. Propriétés des applications linéaires

3.1. Composition d’applications linéaires et produit de matrices


Soient
f : Rp −→ Rn et g : Rq −→ Rp

deux applications linéaires. Considérons leur composition :

Rq −→g Rp −→f Rn f ◦ g : Rq −→ Rn.

L’application f ◦ g est une application linéaire. Notons :

• A = Mat(f ) ∈ Mn,p(R) la matrice associée à f , • B = Mat(g) ∈ Mp,q(R) la matrice

associée à g,

• C = Mat(f ◦ g) ∈ Mn,q(R) la matrice associée à f ◦ g.

On a pour un vecteur X ∈ Rq :

(f ◦ g)(X )= f g(X )= f BX = A(BX )=(AB)X .

Donc la matrice associée à f ◦ g est C = AB.

Autrement dit, la matrice associée à la composition de deux applications linéaires est égale au produit de leurs
matrices :

Mat(f ◦ g)= Mat(f ) × Mat(g)

En fait le produit de matrices, qui au premier abord peut sembler bizarre et artificiel, est défini exactement pour
vérifier cette relation.
Exemple 3.
Soit f : R2 −→ R2 la réflexion par rapport à la droite (y = x) et soit g : R2 −→ R2 la rotation d’angle θ =

(centrée à l’origine). Les matrices sont

A = Mat(f )=01 10 B = Mat(g)=cos θ − sin θ=‚ 12

−p23Œ . et p

sin θ cos θ

Voici pour X = 10 les images f (X ), g(X ), f ◦ g(X ), g ◦ f (X ) :


L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 183

Alors

C = Mat(f ◦ g)= Mat(f )× Mat(g)=10 10ׂp12 −p23Œ=‚p23 −21p3Œ .

2 Notons que si l’on

considère la composition g ◦ f alors D = Mat(g ◦ f )= Mat(g)× Mat(f

)=‚p1 −p3Œ×01 10=‚−p23 p21 Œ .

2 2

Les matrices C = AB et D = BA sont distinctes, ce qui montre que la composition d’applications linéaires, comme
la multiplication des matrices, n’est pas commutative en général.

3.2. Application linéaire bijective et matrice inversible

Théorème 2.
Une application linéaire f : Rn → Rn est bijective si et seulement si sa matrice associée A = Mat(f ) ∈ Mn(R)

est inversible.

L’application f est définie par f (X )= AX . Donc si f est bijective, alors d’une part f (X )= Y ⇐⇒ X = f −1(Y ), mais

d’autre part AX = Y ⇐⇒ X = A−1Y . Conséquence : la matrice de f −1 est A−1.

Corollaire 1.
Si f est bijective, alors Mat(f −1)= Mat(f )−1.

Exemple 4.
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 184

Soit f : R2 −→ R2 la rotation d’angle θ. Alors f −1 : R2 −→ R2 est la rotation d’angle −θ.


On a cos θ − sin θ Soit f : R2 −→ R2

Mat(f )= sin θ cos θ , la projection

Mat(f )−1 =−cossinθθ cossin θθ=cossin ((−−θθ)) sur l’axe (Ox).


Mat(f −1)= − sin (−θ) .
Alors f n’est
cos(−θ)
pas injective.
Exemple 5.
En effet, pour x
x
fixé et tout y ∈ R, f y =( 0x ). L’application f n’est pas non plus surjective : ceci se vérifie aisément car aucun
point en-dehors
de l’axe (Ox) n’est dans l’image de f .
y

x
y

O x x
0

10
La matrice de f est 00 ; elle n’est pas inversible.
La preuve du théorème 2 est une conséquence directe du théorème suivant, vu dans le chapitre sur les
matrices :
Théorème 3.
Les assertions suivantes sont équivalentes :
(i) La matrice A est inversible.
0 0

. .
(ii) Le système linéaire AX = .. a une unique solution X = .. .
0 0
(iii) Pour tout second membre Y , le système linéaire AX = Y a une unique solution X .

Voici donc la preuve du théorème 2.

Démonstration. • Si A est inversible, alors pour tout vecteur Y le système AX = Y a une unique solution X ,
autrement dit pour tout Y , il existe un unique X tel que f (X )= AX = Y . f est donc bijective.
• Si A n’est pas inversible, alors il existe un vecteur X non nul tel que AX = 0. En conséquence on a X ≠ 0

mais f (X )= f (0)= 0. f n’est pas injective donc pas bijective.

3.3. Caractérisation des applications linéaires

Théorème 4.
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 185

Une application f : Rp −→ Rn est linéaire si et seulement si pour tous les vecteurs u, v de Rp et pour tout scalaire

λ ∈ R, on a (i) f (u + v)= f (u)+ f (v), (ii) f (λu)=λf (u) .

Dans le cadre général des espaces vectoriels, ce sont ces deux propriétés (i) et (ii) qui définissent une application
linéaire.
Définition 3.
Les vecteurs
0 1
1 0
0 e1  .

= ...   .. 


e2 =0...  ···
ep =0
0 
sont appelés les vecteurs   de la base canonique de Rp.
0 1
La démonstration du théorème impliquera :
Corollaire 2.
Soit f : Rp −→ Rn une application linéaire, et soient e 1, . . . , ep les vecteurs de base canonique de Rp. Alors la

matrice de f (dans les bases canoniques de Rp vers Rn) est donnée par

Mat(f )= f (e1) f (e2) ··· f (ep) ;

autrement dit les vecteurs colonnes de Mat(f ) sont les images par f des vecteurs de la base canonique
(e1, . . . , ep).

Exemple 6.
Considérons l’application linéaire f : R3 → R4 définie par

 y1 = 2x1 +x2 −x3

 y2 = −x1 −4x2

 y3 = 5x1 +x2 +x3

 y4 = 3x2 +2x3 .

€ 1Š € 0Š € 0Š
Calculons les images des vecteurs de la base canonique 0 , 1 , 0 :
0 0 1

1 −2  0 −1  0  −01  .


f 0= 51  f 1= 14  f 0= 1 

0 0 1

0 3 2

Donc la matrice de f est :


L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 186

2 1 −1
 1
Mat(f )= −5 −14 01  .

0 3 2

Exemple 7.

Soit f : R2 → R2 la réflexion par rapport à la droite (y = x) et soit g la rotation du plan d’angle centrée à l’origine.

Calculons la matrice de l’application f ◦ g. La base canonique de R2 est formée des vecteurs 1


0 et 01.

1 ‚p3Œ ‚ 1 Œ

f◦g 0=f 2 = p2 f◦g 10= f ‚−p12Œ=‚−


p32Œ

Donc la matrice de f ◦ g est :

‚1 p3 Œ

Mat(f )= p .
Voici la preuve du théorème 4.

Démonstration. Supposons f : Rp −→ Rn linéaire, et soit A sa matrice. On a f (u+ v)= A(u+ v)= Au+Av = f (u)+ f (v) et f

(λu)= A(λu)=λAu =λf (u).

Réciproquement, soit f : Rp −→ Rn une application qui vérifie (i) et (ii). Nous devons construire une matrice A telle

que f (u)= Au. Notons d’abord que (i) implique que f (v1 + v2 +···+ vr)= f (v1)+ f (v2)+···+ f (vr).

Notons (e1, . . . , ep) les vecteurs de la base canonique de R p. Soit A


la matrice n × p dont les colonnes sont

f (e1), f (e2), . . . , f (ep).


x1

x2 ∈ Rp, alors X = x1e1 + x2e2 +···+ xpep


Pour X. 
  xp
et donc

AX = A(x1e1 + x2e2 +···+ xpep)

= Ax1e1 + Ax2e2 +···+ Axpep


L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 187

= x1Ae1 + x2Ae2 +···+ xpAep

= x1 f (e1)+ x2 f (e2)+···+ xp f (ep) = f (x1e1)+ f

(x2e2)+···+ f (xpep)

= f (x1e1 + x2e2 +···+ xpep)= f (X ).

On a alors f (X )= AX , et f est bien une application linéaire (de matrice A).

Mini-exercices.
1. Soit f la réflexion du plan par rapport à l’axe (Ox) et soit g la rotation d’angle centrée à l’origine.

Calculer la matrice de f ◦ g de deux façons différentes (produit de matrices et image de la base canonique).
Cette matrice est-elle inversible ? Si oui, calculer l’inverse. Interprétation géométrique. Même question avec
g◦f.

2. Soit f la projection orthogonale de l’espace sur le plan (Oxz) et soit g la rotation d’angle d’axe (O y).
Calculer la matrice de f ◦ g de deux façons différentes (produit de matrices et image de la base canonique).
Cette matrice est-elle inversible ? Si oui, calculer l’inverse. Interprétation géométrique. Même question
avec g ◦ f .
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 188

Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• révisé et reformaté par Arnaud Bodin, relu par Vianney Combet.
Chapitre

10 Espaces
vectoriels

VidØo ■ partie 1. Espace vectoriel (dØbut)


VidØo ■ partie 2. Espace vectoriel (fin)
VidØo ■ partie 3. Sous-espace vectoriel (dØbut)
VidØo ■ partie 4. Sous-espace vectoriel (milieu)
VidØo ■ partie 5. Sous-espace vectoriel (fin)
VidØo ■ partie 6. Application linØaire (dØbut)
VidØo ■ partie 7. Application linØaire (milieu)
VidØo ■ partie 8. Application linØaire (fin) Fiche d’exercices ‡
Espaces vectoriels
Fiche d’exercices ‡ Applications linØaires

La notion d’espace vectoriel est une structure fondamentale des mathématiques modernes. Il s’agit de dégager
les propriétés communes que partagent des ensembles pourtant très différents. Par exemple, on peut
additionner deux vecteurs du plan, et aussi multiplier un vecteur par un réel (pour l’agrandir ou le rétrécir). Mais
on peut aussi additionner deux fonctions, ou multiplier une fonction par un réel. Même chose avec les
polynômes, les matrices,... Le but est d’obtenir des théorèmes généraux qui s’appliqueront aussi bien aux
vecteurs du plan, de l’espace, aux espaces de fonctions, aux polynômes, aux matrices,... La contrepartie de cette
grande généralité de situations est que la notion d’espace vectoriel est difficile à appréhender et vous
demandera une quantité conséquente de travail ! Il est bon d’avoir d’abord étudié le chapitre « L’espace
vectoriel Rn ».

1. Espace vectoriel (début)


Dans ce chapitre, K désigne un corps. Dans la plupart des exemples, ce sera le corps des réels R.

1.1. Définition d’un espace vectoriel


Un espace vectoriel est un ensemble formé de vecteurs, de sorte que l’on puisse additionner (et soustraire) deux

vecteurs u, v pour en former un troisième u + v (ou u − v) et aussi afin que l’on puisse multiplier chaque vecteur u

d’un facteur λ pour obtenir un vecteur λ· u. Voici la définition formelle :

Définition 1.
Un K-espace vectoriel est un ensemble non vide E muni :
ESPACES VECTORIELS 190
• d’une loi de composition interne, c’est-à-dire d’une application de E × E dans E :

E×E → E

(u, v) 7→ u+v
1. ESPACE VECTORIEL (DÉBUT)

• d’une loi de composition externe, c’est-à-dire d’une application de K× E dans E :

K× E → E

(λ, u) 7→ λ· u

qui vérifient les propriétés suivantes :


1. u + v = v + u (pour tous u, v ∈ E)

2. u +(v + w)=(u + v)+ w (pour tous u, v, w ∈ E)

3. Il existe un élément neutre 0E ∈ E tel que u + 0E = u (pour tout u ∈ E)

4. Tout u ∈ E admet un symétrique u′ tel que u + u′ = 0E. Cet élément u′ est noté −u.

5. 1 · u = u (pour tout u ∈ E)

6. λ·(µ· u)=(λµ)· u (pour tous λ, µ ∈ K, u ∈ E)

7. λ·(u + v)=λ· u +λ· v (pour tous λ ∈ K, u, v ∈ E)

8. (λ+µ)· u =λ· u +µ· u (pour tous λ, µ ∈ K, u ∈ E)

Nous reviendrons en détail sur chacune de ces propriétés juste après des exemples.

1.2. Premiers exemples


Exemple 1 (Le R-espace vectoriel R2).
Posons K=R et E =R2. Un élément u ∈ E est donc un couple (x, y) avec x élément de R et y élément de

R. Ceci s’écrit

R | R, y ∈ R .

• Définition de la loi interne. Si (x, y) et (x′, y′) sont deux éléments de R2, alors :

(x, y)+(x′, y′)=(x + x′, y + y′).

• Définition de la loi externe. Si λ est un réel et (x, y) est un élément de R2, alors :

λ·(x, y)=(λx, λy).


ESPACES VECTORIELS 191
L’élément neutre de la loi interne est le vecteur nul (0, 0). Le symétrique de (x, y) est (−x, −y), que l’on note aussi

−(x, y).

λ·u

u+v

0 v

−u

L’exemple suivant généralise le précédent. C’est aussi le bon moment pour lire ou relire le chapitre « L’espace
vectoriel Rn ».
1. ESPACE VECTORIEL (DÉBUT)

Exemple 2 (Le R-espace vectoriel Rn).


Soit n un entier supérieur ou égal à 1. Posons K = R et E = Rn. Un élément u ∈ E est donc un n-uplet

(x1, x2, . . . , xn) avec x1, x2, . . . , xn des éléments de R.


• Définition de la loi interne. Si (x1, . . . , xn) et (x1′ , . . . , xn′ ) sont deux éléments de Rn, alors :

(x1, . . . , xn)+(x1′ , . . . , xn′ )=(x1 + x1′ , . . . , xn + xn′ ).

• Définition de la loi externe. Si λ est un réel et (x1, . . . , xn) est un élément de Rn, alors :

λ·(x1, . . . , xn)=(λx1, . . . , λxn).

L’élément neutre de la loi interne est le vecteur nul (0, 0, . . . , 0). Le symétrique de ( x1, . . . , xn) est (−x1, . . . , −xn),
que l’on note −(x1, . . . , xn).

De manière analogue, on peut définir le C-espace vectoriel Cn, et plus généralement le K-espace vectoriel Kn.

Exemple 3.
Tout plan passant par l’origine dans R 3 est un espace vectoriel (par rapport aux opérations habituelles sur les

vecteurs). Soient K=R et E = P un plan passant par l’origine. Le plan admet une équation de la forme :

ax + b y + cz = 0

où a, b et c sont des réels non tous nuls.


ESPACES VECTORIELS 192

€ xŠ
y
Un élément uE est donc un triplet (noté ici comme un vecteur colonne) z tel que ax + b y + cz = 0.

 x ‹ x′ ‹
Soient y et y′ deux éléments de P . Autrement dit, z

z′ ax + b y + cz = 0, et ax′ + b y′ + cz′ = 0.

 x+x′ ‹
Alors y+y′ est aussi dans P car on a bien : z+z′ a(x + x′)+ b(y + y′)+ c(z + z

′)= 0.

€ 0Š € xŠ
Les autres propriétés sont aussi faciles à vérifier : par exemple l’élément neutre est 0 ; et si y appartient
0 z

P € x Š à, alors ax
+ b y + cz = 0, que l’on peut réécrire a(−x)+ b(−y)+ c(−z)= 0 et ainsi − zy appartient à P .

Attention ! Un plan ne contenant pas l’origine n’est pas un espace vectoriel, car justement il ne contient pas
€0Š le
vecteur nul 0
.
0

1.3. Terminologie et notations


Rassemblons les définitions déjà vues.
• On appelle les éléments de E des vecteurs. Au lieu de K-espace vectoriel, on dit aussi espace vectoriel sur K.
• Les éléments de K seront appelés des scalaires.

• L’ élément neutre 0E s’appelle aussi le vecteur nul. Il ne doit pas être confondu avec l’élément 0 de K.
Lorsqu’il n’y aura pas de risque de confusion, 0E sera aussi noté 0.
ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 193

• Le symétrique −u d’un vecteur u ∈ E s’appelle aussi l’opposé.

• La loi de composition interne sur E (notée usuellement +) est appelée couramment l’addition et u + u′ est

appelée somme des vecteurs u et u′.

• La loi de composition externe sur E est appelée couramment multiplication par un scalaire. La multiplication
du vecteur u par le scalaire λ sera souvent notée simplement λu, au lieu de λ· u.

Somme de n vecteurs. Il est possible de définir, par récurrence, l’addition de n vecteurs, n ⩾ 2. La structure
d’espace vectoriel permet de définir l’addition de deux vecteurs (et initialise le processus). Si maintenant la
somme de n − 1 vecteurs est définie, alors la somme de n vecteurs v1, v2, . . . , vn est définie par

v1 + v2 +···+ vn =(v1 + v2 +···+ vn−1)+ vn.

L’associativité de la loi + nous permet de ne pas mettre de parenthèses dans la somme v1 + v2 +···+ vn.
n
X
On notera v1 + v2 +···+ vn = v i.
i=1

Mini-exercices.
1. Vérifier les 8 axiomes qui font de R3 un R-espace vectoriel.

2. Idem pour une droite D de R3 passant par l’origine définie par a′axx ++b′b yy ++ccz′z == 00 . .

3. Justifier que les ensembles suivants ne sont pas des espaces vectoriels : (x, y) ∈ R2 | x y = 0 ;


| | x ⩾ 0 et y

| − ⩽ x ⩽ 1 et − 1 ⩽ y ⩽ 1 .

4. Montrer par récurrence que si les vi sont des éléments d’un K-espace vectoriel E, alors pour tous λi ∈ K : λ1v1

+λ2v2 +···+λnvn ∈ E.

2. Espace vectoriel (fin)

2.1. Détail des axiomes de la définition


Revenons en détail sur la définition d’un espace vectoriel. Soit donc E un K-espace vectoriel. Les éléments de E
seront appelés des vecteurs. Les éléments de K seront appelés des scalaires.

Loi interne.
La loi de composition interne dans E, c’est une application de E × E dans E :
ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 194

E×E → E

(u, v) →7 u+v

C’est-à-dire qu’à partir de deux vecteurs u et v de E, on nous en fournit un troisième, qui sera noté u + v. La loi de
composition interne dans E et la somme dans K seront toutes les deux notées +, mais le contexte permettra de
déterminer aisément de quelle loi il s’agit.

Loi externe.
La loi de composition externe, c’est une application de K× E dans E :

K× E → E

(λ, u) 7→ λ· u

C’est-à-dire qu’à partir d’un scalaire λ ∈ K et d’un vecteur u ∈ E, on nous fournit un autre vecteur, qui sera noté

λ· u.

Axiomes relatifs à la loi interne.

1. Commutativité. Pour tous u, v ∈ E, u + v = v + u. On peut donc additionner des vecteurs dans l’ordre que l’on

souhaite.

2. Associativité. Pour tous u, v, w ∈ E, on a u +(v + w)=(u + v)+ w. Conséquence : on peut « oublier » les

parenthèses et noter sans ambiguïté u + v + w.

3. Il existe un élément neutre, c’est-à-dire qu’il existe un élément de E, noté 0E, vérifiant : pour tout u ∈ E, u + 0E

= u (et on a aussi 0E + u = u par commutativité). Cet élément 0E s’appelle aussi le vecteur nul.

4. Tout élément u de E admet un symétrique (ou opposé), c’est-à-dire qu’il existe un élément u′ de E tel que u +

u′ = 0E (et on a aussi u′ + u = 0E par commutativité). Cet élément u′ de E est noté −u.

Proposition 1.
• S’il existe un élément neutre 0E vérifiant l’axiome (3) ci-dessus, alors il est unique.
• Soit u un élément de E. S’il existe un élément symétrique u′ de E vérifiant l’axiome (4), alors il est unique.

Démonstration.
• Soient 0E et 0′E deux éléments vérifiant la définition de l’élément neutre. On a alors, pour tout élément u de E :
u + 0E = 0E + u = u et u + 0′E = 0′E + u = u
u
— Alors, la première propriété utilisée avec = 0′E donne 0′E + 0E = 0E + 0′E = 0′E.
u
— La deuxième propriété utilisée avec = 0E donne 0E + 0′E = 0′E + 0E = 0E. — En

comparant ces deux résultats, il vient 0E = 0′E.

• Supposons qu’il existe deux symétriques de u notés u′ et u′′. On a :


ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 195

u + u′ = u′ + u = 0 E et u + u′′ = u′′ + u = 0E.

Calculons u′ +(u + u′′) de deux façons différentes, en utilisant l’associativité de la loi + et les relations
précédentes.
— u′ +(u + u′′)= u′ + 0E = u′
— u′ +(u + u′′)=(u′ + u)+ u′′ = 0E + u′′ = u′′ — On en
déduit u′ = u′′.

Remarque.
Les étudiants connaissant la théorie des groupes reconnaîtront, dans les quatre premiers axiomes ci-dessus, les
axiomes caractérisant un groupe commutatif.

Axiomes relatifs à la loi externe.

5. Soit 1 l’élément neutre de la multiplication de K. Pour tout élément u de E, on a 1 · u = u.

6. Pour tous éléments λ et µ de K et pour tout élément u de E, on a λ·(µ· u)=(λ×µ)· u.

Axiomes liant les deux lois.

7. Distributivité par rapport à l’addition des vecteurs. Pour tout élément λ de K et pour tous
éléments u et v de E, on a
λ·(u + v)=λ· u +λ· v.

8. Distributivité par rapport à l’addition des scalaires. Pour tous λ et µ de K et pour tout élément u de
E, on a :
(λ+µ)· u =λ· u +µ· u.

La loi interne et la loi externe doivent donc satisfaire ces huit axiomes pour que (E, +, ·) soit un espace vectoriel

sur K.

2.2. Exemples
Dans tous les exemples qui suivent, la vérification des axiomes se fait simplement et est laissée au soin des
étudiants. Seules seront indiquées, dans chaque cas, les valeurs de l’élément neutre de la loi interne et du
symétrique d’un élément.
Exemple 4 (L’espace vectoriel des fonctions de R dans R).
L’ensemble des fonctions f : R −→ R est noté F(R, R). Nous le munissons d’une structure de R-espace vectoriel de

la manière suivante.

• Loi interne. Soient f et g deux éléments de F(R, R). La fonction f + g est définie par :

∀x ∈ R (f + g)(x)= f (x)+ g(x)


ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 196

(où le signe + désigne la loi interne de F(R, R) dans le membre de gauche et l’addition dans R dans le membre

de droite).

• Loi externe. Si λ est un nombre réel et f une fonction de F(R, R), la fonction λ· f est définie par l’image de tout

réel x comme suit :

∀x ∈ R (λ· f )(x)=λ× f (x). (Nous désignons par · la loi externe de (R, R) la

multiplication dans R. Avec l’habitude on oubliera les signes de multiplication :

• Élément neutre. L’élément neutre pour l’addition est la fonction nulle, définie par :

∀x ∈ R f (x)= 0.

On peut noter cette fonction 0 (R,R).

• Symétrique. Le symétrique de l’élémentF f de F(R, R) est l’application g de R dans R définie par :

∀x ∈ R g(x)= −f (x).

Le symétrique de f est noté −f .

Exemple 5 (Le R-espace vectoriel des suites réelles).

On notetions de SN dansl’ensemble des suites réellesR ; autrement dit S = F(u(nN),nR∈N). Cet ensemble peut être
vu comme l’ensemble des applica-.

• Loi interne. Soient u =(un)n∈N et v =(vn)n∈N deux suites appartenant à S . La suite u + v est la suite w =(wn)n∈N

dont le terme général est défini par

∀ n ∈ N wn = un + v n

dans
(où un + vn désigne la somme de un et de vn R).

• Loi externe. Si λ est un nombre réel et u =(un)n∈N un élément de S , λ· u est la suite v =(vn)n∈N définie par
∀n ∈ N vn =λ× un

où × désigne la multiplication dans R.

• Élément neutre. L’élément neutre de la loi interne est la suite dont tous les termes sont nuls.
• Symétrique. Le symétrique de la suite u =(un)n∈N est la suite u′ =(u′n)n∈N définie par :

∀n ∈ N u′n = −un.

Elle est notée −u.


ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 197

Exemple 6 (Les matrices).


L’ensemble Mn,p(R) des matrices à n lignes et p colonnes à coefficients dans R est muni d’une structure de R-
espace vectoriel. La loi interne est l’addition de deux matrices. La loi externe est la multiplication d’une matrice
par un scalaire. L’élément neutre pour la loi interne est la matrice nulle (tous les coefficients sont nuls). Le

est la matrice (
symétrique de la matrice A =(ai,j) −ai,j). De même, l’ensemble Mn,p(K) des matrices à coefficients dans
K est un K-espace vectoriel.
Autres exemples :
1. L’espace vectoriel R[X ] des polynômes P(X )= anX n +a1X + a0. L’addition est l’addition de

deux polynômes P(X )+ Q(X ), la multiplication par un scalaire R est λ· P(X ). L’élément neutre est le

polynôme nul. L’opposé de P(X ) est −P(X ).

2. L’ensemble des fonctions continues de R dans R ; l’ensemble des fonctions dérivables de R dans R,...

3. C est un R-espace vectoriel : addition z + z′ de deux nombres complexes, multiplication λz par un scalaire λ ∈

R. L’élément neutre est le nombre complexe 0 et le symétrique du nombre complexe z est −z.

2.3. Règles de calcul

Proposition 2.
Soit E un espace vectoriel sur un corps K. Soient u ∈ E et λ ∈ K. Alors on a :

1. 0 · u = 0E

2. λ· 0E = 0E
λ u = 0E λ= 0 ou u = 0E
4.
3. (−1)· u = −u · ⇐⇒

L’opération qui à (u, v) associe u +(−v) s’appelle la soustraction. Le vecteur u +(−v) est noté u − v. Les propriétés

suivantes sont satisfaites : λ(u − v)=λu −λv et (λ−µ)u =λu −µu.

Démonstration. Les démonstrations des propriétés sont des manipulations sur les axiomes définissant les
espaces vectoriels.

1. • Le point de départ de la démonstration est l’égalité dans K : 0 + 0 = 0.


• D’où, pour tout vecteur de E, l’égalité (0 + 0)· u = 0 · u.

• Donc, en utilisant la distributivité de la loi externe par rapport à la loi interne et la définition de l’élément

neutre, on obtient 0 · u + 0 · u = 0 · u. On peut rajouter l’élément neutre dans le terme de droite, pour

obtenir : 0 · u + 0 · u = 0 · u + 0E.

• En ajoutant −(0 · u) de chaque côté de l’égalité, on obtient : 0 · u = 0E.


ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 198

2. La preuve est semblable en partant de l’égalité 0E + 0E = 0E.

3. Montrer (−1) · u = −u signifie exactement que (−1) · u est le symétrique de u, c’est-à-dire vérifie u +(−1)· u =

0E. En effet :

u +(−1)· u = 1 · u +(−1)· u =(1 +(−1))· u = 0 · u = 0E.

4. On sait déjà que si λ= 0 ou u = 0E, alors les propriétés précédentes impliquent λ· u = 0E.

Pour la réciproque, soient λ ∈ K un scalaire et u ∈ E un vecteur tels que λ· u = 0E.

Supposons λ différent de 0. On doit alors montrer que u = 0E.

• Comme λ≠ 0, alors λ est inversible pour le produit dans le corps K. Soit λ−1 son inverse.

• En multipliant par λ−1 les deux membres de l’égalité λ


.
• D’où en utilisant les propriétés de la multiplication par un scalaire 0 .
• D’où u = 0E.

Mini-exercices.
1. Justifier si les objets suivants sont des espaces vectoriels.
(a) L’ensemble des fonctions réelles sur [0, 1], continues, positives ou nulles, pour l’addition et le
produit par un réel.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 199

(b) L’ensemble des fonctions réelles sur R vérifiant limx→+∞ f (x)= 0 pour les mêmes opérations.

(c) L’ensemble des fonctions sur R telles que f (3)= 7.

(d) L’ensemble R∗+ pour les opérations x ⊕ y = x y et λ· x = xλ (λ ∈ R).

(e) L’ensemble des points (x, y) de R2 vérifiant sin(x + y)= 0.

(f) L’ensemble des vecteurs (x, y, z) de R3 orthogonaux au vecteur (−1, 3, −2).

(g) L’ensemble des fonctions de classe C 2 vérifiant f ′′ + f = 0.

R
(h) L’ensemble des fonctions continues sur [0, 1] vérifiant x d x = 0.
ab
(i) L’ensemble des matrices cd ∈ M2(R) vérifiant a + d = 0.

2. Prouver les propriétés de la soustraction : λ·(u − v)=λ· u −λ· v et (λ−µ)· u =λ· u −µ· u.

3. Sous-espace vectoriel (début)


Il est vite fatiguant de vérifier les 8 axiomes qui font d’un ensemble un espace vectoriel. Heureusement, il existe
une manière rapide et efficace de prouver qu’un ensemble est un espace vectoriel : grâce à la notion de sous-
espace vectoriel.

3.1. Définition d’un sous-espace vectoriel

Définition 2.
Soit E un K-espace vectoriel. Une partie F de E est appelée un sous-espace vectoriel si :

• 0 E ∈ F,

• u+v∈F pour tous u, v ∈ F,

• λ· u ∈ F pour tout λ ∈ K et tout u ∈ F.

Remarque.
Expliquons chaque condition.
• La première condition signifie que le vecteur nul de E doit aussi être dans F. En fait il suffit même de
prouver que F est non vide.
• La deuxième condition, c’est dire que F est stable pour l’addition : la somme u + v de deux vecteurs u, v de
F est bien sûr un vecteur de E (car E est un espace vectoriel), mais ici on exige que u + v soit un élément de
F.
• La troisième condition, c’est dire que F est stable pour la multiplication par un scalaire.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 200

Exemple 7 (Exemples immédiats).

1. L’ensemble F | est un sous-espace vectoriel de R2. En effet :

(a) (0, 0) ∈ F,

(b) si u =(x1, y1) et v =(x2, y2) appartiennent à F, alors x1 + y1 = 0 et x2 + y2 = 0 donc (x1 + x2)+
(y1 + y2)= 0 et ainsi u + v =(x1 + x2, y1 + y2) appartient à F,

(c) si u =(x, y) ∈ F et λ ∈ R, alors x + y = 0 donc λx +λy = 0, d’où λu ∈ F.


y

0 x

2. L’ensemble des fonctions continues sur R est un sous-espace vectoriel de l’espace vectoriel des fonctions de R
dans R. Preuve : la fonction nulle est continue ; la somme de deux fonctions continues est continue ; une
constante fois une fonction continue est une fonction continue.
3. L’ensemble des suites réelles convergentes est un sous-espace vectoriel de l’espace vectoriel des suites
réelles.
Voici des sous-ensembles qui ne sont pas des sous-espaces vectoriels.
Exemple 8.
1. L’ensemble F n’est pas un sous-espace vectoriel de R 2. En effet le
vecteur nul (0, 0) n’appartient pas à F1.

2. L’ensemble Fx = 0 ou y = 0 n’est pas un sous-espace vectoriel de R 2. En effet les


vecteurs u =(1, 0) et v =(0, 1) appartiennent à F2, mais pas le vecteur u + v =(1, 1).

3. L’ensemble F | x ⩾ 0 et y ⩾ 0 n’est pas un sous-espace vectoriel de R 2. En effet le

vecteur u =(1, 1) appartient à F3 mais, pour λ= −1, le vecteur −u =(−1, −1) n’appartient pas à F3.

F2 F3

0
0 0
F1
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 201

3.2. Un sous-espace vectoriel est un espace vectoriel


La notion de sous-espace vectoriel prend tout son intérêt avec le théorème suivant : un sous-espace vectoriel est
lui-même un espace vectoriel. C’est ce théorème qui va nous fournir plein d’exemples d’espaces vectoriels.
Théorème 1.
Soient E un K-espace vectoriel et F un sous-espace vectoriel de E. Alors F est lui-même un K-espace
vectoriel pour les lois induites par E.

Méthodologie. Pour répondre à une question du type « L’ensemble F est-il un espace vectoriel ? », une façon
efficace de procéder est de trouver un espace vectoriel E qui contient F, puis prouver que F est un sous-espace
vectoriel de E. Il y a seulement trois propriétés à vérifier au lieu de huit !
Exemple 9.
1. Est-ce que l’ensemble des fonctions paires (puis des fonctions impaires) forme un espace vectoriel (sur R avec
les lois usuelles sur les fonctions) ?

Notons P l’ensemble des fonctions paires et I l’ensemble des fonctions impaires. Ce sont deux sousensembles

de l’espace vectoriel F(R, R) des fonctions.

P =f ∈ F(R, R) | ∀x ∈ R, f (−x)= f (x)


I =f ∈ F(R, R) | ∀x ∈ R, f (−x)= −f (x)
P et I sont des sous-espaces vectoriels de F(R, R). C’est très simple à vérifier, par exemple pour P :

(a) la fonction nulle est une fonction paire,


(b) si f , g ∈ P alors f + g ∈ P ,

(c) si f ∈ P et si λ ∈ R alors λf ∈ P .

Par le théorème 1, P est un espace vectoriel (de même pour I ).

2. Est-ce que l’ensemble Sn des matrices symétriques de taille n est un espace vectoriel (sur R avec les lois

usuelles sur les matrices) ?

Sn est un sous-ensemble de l’espace vectoriel Mn(R). Et c’est même un sous-espace vectoriel. Il suffit en effet
de vérifier que la matrice nulle est symétrique, que la somme de deux matrices symétriques est encore
symétrique et finalement que le produit d’une matrice symétrique par un scalaire est une matrice
symétrique. Par le théorème 1, Sn est un espace vectoriel.

Preuve du théorème 1. Soit F un sous-espace vectoriel d’un espace vectoriel (E, +, ·). La stabilité de F pour les
deux lois permet de munir cet ensemble d’une loi de composition interne et d’une loi de composition externe, en
restreignant à F les opérations définies dans E. Les propriétés de commutativité et d’associativité de l’addition,
ainsi que les quatre axiomes relatifs à la loi externe sont vérifiés, car ils sont satisfaits dans E donc en particulier
dans F, qui est inclus dans E.
L’existence d’un élément neutre découle de la définition de sous-espace vectoriel. Il reste seulement à justifier
que si u ∈ F, alors son symétrique −u appartient à F.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 202

Fixons u ∈ F. Comme on a aussi u ∈ E et que E est un espace vectoriel alors il existe un élément de E, noté −u,

tel que u +(−u)= 0E. Comme u est élément de F, alors pour λ= −1, (−1)u ∈ F. Et ainsi −u appartient à F.

Un autre exemple d’espace vectoriel est donné par l’ensemble des solutions d’un système linéaire homogène.
Soit AX = 0 un système de n équations à p inconnues :
     a11 . . . a1p x1 0

 ... ...  ... = ...  an1 . . . anp xp 0

On a alors
Théorème 2.
Soit A ∈ Mn,p(R). Soit AX = 0 un système d’équations linéaires homogènes à p variables. Alors l’ensemble

des vecteurs solutions est un sous-espace vectoriel de Rp.

Démonstration. Soit F l’ensemble des vecteurs X ∈ Rp solutions de l’équation AX = 0. Vérifions que F est un sous-

espace vectoriel de Rp.

• Le vecteur 0 est un élément de F.


• F est stable par addition : si X et X ′ sont des vecteurs solutions, alors AX = 0 et AX ′ = 0, donc A(X + X ′)= AX +

AX ′ = 0, et ainsi X + X ′ ∈ F.
ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 203

• F est stable par multiplication par un scalaire : si X est un vecteur solution, on a aussi A(λX )=λ(AX )= λ0 = 0,
ceci pour tout λ ∈ R. Donc λX ∈ F.

Exemple 10.
Considérons le système
 1 −2 3  x   0 

 y = 0  . z 0
L’ensemble des solutions F ⊂ R3 de ce système est :

F .
3
Par le théorème 2, F est un sous-espace vectoriel de R . Donc par le théorème 1, F est un espace vectoriel.
Une autre façon de voir les choses est d’écrire que les éléments de F sont ceux qui vérifient l’équation
(x = 2y − 3z). Autrement dit, F est d’équation (x − 2y + 3z = 0). L’ensemble des solutions F est donc un plan

passant par l’origine. Nous avons déjà vu que ceci est un espace vectoriel.

Mini-exercices.
Parmi les ensembles suivants, reconnaître ceux qui sont des sous-espaces vectoriels :

1. (x, y, z) ∈ R3 | x + y = 0

2. (x, y, z, t) ∈ R4 | x = t et y = z

3. (x, y, z) ∈ R3 | z = 1

4. x2 + x y ⩾ 0
5. R 2 | x2 + y 2 ⩾ 1

6.
7.
8. f est croissante

9. (un)n∈N | (un) tend vers 0

4. Sous-espace vectoriel (milieu)


ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 204

4.1. Combinaisons linéaires

Définition 3.
Soit n ⩾ 1 un entier, soient v1, v2, . . . , vn, n vecteurs d’un espace vectoriel E. Tout vecteur de la forme

u =λ1v1 +λ2v2 +···+λnvn

(où λ1, λ2, . . . , λn sont des éléments de K) est appelé combinaison linéaire des vecteurs v1, v2, . . . , vn. Les
scalaires λ1, λ2, . . . , λn sont appelés coefficients de la combinaison linéaire.

Remarque : Si n = 1, alors u =λ1v1 et on dit que u est colinéaire à v1.


Exemple 11.

1. Dans le R-espace vectoriel R3, (3, 3, 1) est combinaison linéaire des vecteurs (1, 1, 0) et (1, 1, 1) car on a
l’égalité
(3, 3, 1)= 2(1, 1, 0)+(1, 1, 1).
2
2. Dans le R-espace vectoriel R , le vecteur u = (2, 1) n’est pas colinéaire au vecteur v1 = (1, 1) car s’il l’était, il
existerait un réel λ tel que u =λv1, ce qui équivaudrait à l’égalité (2, 1)=(λ, λ).

3. Soit E = F(R, R) l’espace vectoriel des fonctions réelles. Soient f0, f1, f2 et f3 les fonctions définies par :

∀x ∈ R f0(x)= 1, f1(x)= x, f2(x)= x2, f3(x)= x3.

Alors la fonction f définie par

∀x ∈ R f (x)= x3 − 2x2 − 7x − 4

est combinaison linéaire des fonctions f0, f1, f2, f3 puisque l’on a l’égalité

f = f3 − 2f2 − 7f1 − 4f0.

1 1 3
4. Dans M2,3(R), on considère A = 0 −1 4 . On peut écrire A naturellement sous la forme

suivante d’une combinaison linéaire de matrices élémentaires (des zéros partout, sauf un 1) :

1 0 00 1 00 0 10 0 00 0 0

A=0 0 0+0 0 0+3 0 0 0 − 0 1 0+4 0 0 1 .

Voici deux exemples plus compliqués.


Exemple 12.

€9 Š
Soient u =€−211Š etλ vet=µ€tels que264Š deux vecteurs dew =λu +µvR:3. Montrons que w = 72 est combinaison
linéaire de u et v.
On cherche donc

9  1  6  λ  6µ  λ+ 6µ 


ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 205

2=λ 2 +µ4=2λ+4µ=2λ+ 4µ .


7 −1 2 −λ 2µ −λ+ 2µ

On a donc

 9 = λ+ 6µ 2 = 2λ+

 7 = −λ+ 2µ.

Une solution de ce système est (λ= −3, µ= 2), ce qui implique que w est combinaison linéaire de u et v. On vérifie

que l’on a bien

9  1  6

2= −3  2 + 2 4 .
7 −1 2

Exemple 13.
€ 1Š € 6Š € 4Š
=
Soient u = −21 et v = 42 . Montrons que w −81 n’est pas une combinaison linéaire de u et v. L’égalité

 4   1  6  4 = λ+ 6µ

1=λ 2 +µ4 équivaut au système −1 = 2λ+ 4µ



8 −1 2  8 = −λ+ 2µ.

Or ce système n’a aucune solution. Donc il n’existe pas λ, µ ∈ R tels que w =λu +µv.

4.2. Caractérisation d’un sous-espace vectoriel

Théorème 3 (Caractérisation d’un sous-espace par la notion de combinaison linéaire).


Soient E un K-espace vectoriel et F une partie non vide de E. F est un sous-espace vectoriel de E si et
seulement si
λu +µv ∈ F pour tous u, v ∈ F et tous λ, µ ∈ K.

Autrement dit si et seulement si toute combinaison linéaire de deux éléments de F appartient à F.


Démonstration.
• Supposons que F soit un sous-espace vectoriel. Et soient u, v ∈ F, λ, µ ∈ K. Alors par la définition de sous-

espace vectoriel : λu ∈ F et µv ∈ F et ainsi λu +µv ∈ F.

• Réciproquement, supposons que pour chaque u, v ∈ F, λ, µ ∈ K on a λu +µv ∈ F.

— Comme F n’est pas vide, soient u, v ∈ F. Posons λ=µ= 0. Alors λu +µv = 0E ∈ F.


ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 206

— Si u, v ∈ F, alors en posant λ=µ= 1 on obtient u + v ∈ F.

— Si u ∈ F et λ ∈ K (et pour n’importe quel v, en posant µ= 0), alors λu ∈ F.

4.3. Intersection de deux sous-espaces vectoriels

Proposition 3 (Intersection de deux sous-espaces).


Soient F, G deux sous-espaces vectoriels d’un K-espace vectoriel E. L’intersection F ∩ G est un sous-espace

vectoriel de E.

On démontrerait de même que l’intersection F1 ∩ F2 ∩ F3 ∩···∩ Fn d’une famille quelconque de sous-espaces

vectoriels de E est un sous-espace vectoriel de E.

Démonstration. Soient F et G deux sous-espaces vectoriels de E.


• 0E ∈ F, 0E ∈ G car F et G sont des sous-espaces vectoriels de E ; donc 0E ∈ F ∩ G.

• Soient u et v deux vecteurs de F ∩ G. Comme F est un sous-espace vectoriel, alors u, v ∈ F implique u + v ∈

F. De même u, v ∈ G implique u + v ∈ G. Donc u + v ∈ F ∩ G.

• Soient u ∈ F ∩ G et λ ∈ K. Comme F est un sous-espace vectoriel, alors u ∈ F implique λu ∈ F. De même u

∈ G implique λu ∈ G. Donc λu ∈ F ∩ G.

Conclusion : F ∩ G est un sous-espace vectoriel de E.

Exemple 14.
Soit D le sous-ensemble de R3 défini par :

D =(x, y, z) ∈ R3 | x + 3y + z = 0 et x − y + 2z = 0 .

Est-ce que D est sous-espace vectoriel de R3 ? L’ensemble D est l’intersection de F et G, les sous-ensembles de R3

définis par :

F =(x, y, z)
G =(x, y, z) ∈ R | x − y + 2z =
0
ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 207

Ce sont deux plans passant par l’origine, donc des sous-espaces vectoriels de R 3. Ainsi D = F ∩ G est un sous-

espace vectoriel de R3, c’est une droite vectorielle.


ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 208

Remarque.
La réunion de deux sous-espaces vectoriels de E n’est pas en général un sous-espace vectoriel de E. Prenons par

exemple E =R2. Considérons les sous-espaces vectoriels F =(x, y) | x = 0 et G =(x, y) | y = 0 . Alors F ∪ G

n’est pas un sous-espace vectoriel de R2. Par exemple, (0, 1)+(1, 0)=(1, 1) est la somme d’un élément de F et d’un

élément de G, mais n’est pas dans F ∪ G.

(1, 1)

(0 , 1 )
G
0 (1, 0)

Mini-exercices.

 2‹
1. Peut-on trouver t ∈ R tel que les vecteurs p−t22 et 4
−2 4ppt2 soient colinéaires ?

€ 1 Š €1 Š €− 1Š
2. Peut-on trouver t ∈ R tel que le vecteur 3 tt soit une combinaison linéaire de 32 et −11 ?

5. Sous-espace vectoriel (fin)

5.1. Somme de deux sous-espaces vectoriels


Comme la réunion de deux sous-espaces vectoriels F et G n’est pas en général un sous-espace vectoriel, il est
utile de connaître les sous-espaces vectoriels qui contiennent à la fois les deux sous-espaces vectoriels F et G, et
en particulier le plus petit d’entre eux (au sens de l’inclusion).

Définition 4 (Définition de la somme de deux sous-espaces).


Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. L’ensemble de tous les éléments u +
v, où u est un élément de F et v un élément de G, est appelé somme des sous-espaces vectoriels F et
G. Cette somme est notée F + G. On a donc

F |.
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 209

F +G

Proposition 4.
Soient F et G deux sous-espaces vectoriels du K-espace vectoriel E.

1. F + G est un sous-espace vectoriel de E.

2. F + G est le plus petit sous-espace vectoriel contenant à la fois F et G.

Démonstration.

1. Montrons que F + G est un sous-espace vectoriel.

• 0E ∈ F, 0E ∈ G, donc 0E = 0E + 0E ∈ F + G.

• Soient w et w′ des éléments de F + G. Comme w est dans F + G, il existe u dans F et v dans G tels que w =
u + v. Comme w′ est dans F + G, il existe u′ dans F et v′ dans G tels que w′ = u′ + v′. Alors w + w′ =(u + v)+(u′ +
v′)=(u + u′)+(v + v′) ∈ F + G, car u + u′ ∈ F et v + v′ ∈ G.

• Soit w un élément de F + G et λ ∈ K. Il existe u dans F et v dans G tels que w = u + v. Alors λw =λ(u +

v)=(λu)+(λv) ∈ F + G, car λu ∈ F et λv ∈ G.

2. • L’ensemble F + G contient F et contient G : en effet tout élément u de F s’écrit u = u + 0 avec u appartenant


à F et 0 appartenant à G (puisque G est un sous-espace vectoriel), donc u appartient à F + G. De même pour
un élément de G.
• Si H est un sous-espace vectoriel contenant F et G, alors montrons que F + G ⊂ H. C’est clair : si u ∈ F

alors en particulier u ∈ H (car F ⊂ H), de même si v ∈ G alors v ∈ H. Comme H est un sous-espace

vectoriel, alors u + v ∈ H.

Exemple 15.
Déterminons F + G dans le cas où F et G sont les sous-espaces vectoriels de R3 suivants :

F =(x, y, z) ∈ R3 | y = z = 0 et G =(x, y, z) | .
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 210

F +G
F
G 0
y

Un élément w de F + G s’écrit w = u + v où u est un élément de F et v un élément de G. Comme u ∈ F alors il

existe x ∈ R tel que u = (x, 0, 0), et comme v ∈ G il existe y ∈ R tel que v = (0, y, 0). Donc w =(x, y, 0).

Réciproquement, un tel élément w =(x, y, 0) est la somme de (x, 0, 0) et de (0, y, 0). Donc

F | . On voit même que, pour cet exemple, tout élément de F + G s’écrit de

façon unique comme la somme d’un élément de F et d’un élément de G.

Exemple 16.
Soient F et G les deux sous-espaces vectoriels de R3 suivants :

F =(x, y, z) ∈ R3 | x = 0 et G =(x, y, z) |.

z G

0
y

Dans cet exemple, montrons que F + G =R3. Par définition de F + G, tout élément de F + G est dans R3. Mais
réciproquement, si w =(x, y, z) est un élément quelconque de R3 : w =(x, y, z)=(0, y, z)+(x, 0, 0), avec (0, y, z) ∈ F et
(x, 0, 0) ∈ G, donc w appartient à F + G.

Remarquons que, dans cet exemple, un élément de R 3 ne s’écrit pas forcément de façon unique comme la
somme d’un élément de F et d’un élément de G. Par exemple (1, 2, 3)=(0, 2, 3)+(1, 0, 0)=(0, 2, 0)+(1, 0, 3).

5.2. Sous-espaces vectoriels supplémentaires

Définition 5 (Définition de la somme directe de deux sous-espaces).


Soient F et G deux sous-espaces vectoriels de E. F et G sont en somme directe dans E si
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 211

• F ∩ G = {0E},

• F + G = E.
On note alors F ⊕ G = E.

Si F et G sont en somme directe, on dit que F et G sont des sous-espaces vectoriels supplémentaires dans E.
Proposition 5.
F et G sont supplémentaires dans E si et seulement si tout élément de E s’écrit d’une manière unique
comme la somme d’un élément de F et d’un élément de G.

Remarque.
• Dire qu’un élément w de E s’écrit d’une manière unique comme la somme d’un élément de F et d’un élément

de G signifie que si w = u + v avec u ∈ F, v ∈ G et w = u′ + v′ avec u′ ∈ F, v′ ∈ G alors u = u′ et v = v′.

• On dit aussi que F est un sous-espace supplémentaire de G (ou que G est un sous-espace supplémentaire de
F).
• Il n’y a pas unicité du supplémentaire d’un sous-espace vectoriel donné (voir un exemple ci-dessous).
• L’existence d’un supplémentaire d’un sous-espace vectoriel sera prouvée dans le cadre des espaces
vectoriels de dimension finie.

Démonstration.
• Supposons E = F ⊕ G et montrons que tout élément u ∈ E se décompose de manière unique. Soient donc u =

v+w et u = v′+w′ avec v, v′ ∈ F et w, w′ ∈ G. On a alors v+w = v′+w′, donc v−v′ = w′−w. Comme

F est un sous-espace vectoriel alors v − v′ ∈ F, mais d’autre part G est aussi un sous-espace vectoriel donc w′ −

w ∈ G. Conclusion : v − v′ = w′ − w ∈ F ∩ G. Mais par définition d’espaces supplémentaires F ∩ G = {0E}, donc

v − v′ = 0E et aussi w′ − w = 0E. On en déduit v = v′ et w = w′, ce qu’il fallait démontrer.

• Supposons que tout u ∈ E se décompose de manière unique et montrons E = F ⊕ G.


— Montrons F ∩ G = {0E}. Si u ∈ F ∩ G, il peut s’écrire des deux manières suivantes comme somme d’un

élément de F et d’un élément de G :

u = 0E + u et u = u + 0E.

Par l’unicité de la décomposition, u = 0E.


— Montrons F +G = E. Il n’y rien à prouver, car par hypothèse tout élément u se décompose en u = v+w, avec
v ∈ F et w ∈ G.

Exemple 17.

1. Soient F | R et G | .
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 212

Montrons que F ⊕ G =R2. La première façon de le voir est que l’on a clairement F ∩ G = {(0, 0)} et que,

comme (x, y)=(x, 0)+(0, y), alors F + G =R2. Une autre façon de le voir est d’utiliser la proposition 5, car la

décomposition (x, y)=(x, 0)+(0, y) est unique.

y
G ′
G

F
0 x

2. Gardons F et notons G′ | R . Montrons que l’on a aussi F ⊕ G′ =R2 :

(a) Montrons F ∩ G′ = {(0, 0)}. Si (x, y) ∈ F ∩ G′ alors d’une part (x, y) ∈ F donc y = 0, et aussi (x, y) ∈ G′ donc

x = y. Ainsi (x, y)=(0, 0).

)
(b) Montrons F + G′ =R2. Soit u =(x, y) ∈ R2. Cherchons v ∈ F et w ∈ G′ tels que u = v + w. Comme v =(x1, y1 ∈

)
F alors y1 = 0, et comme w =(x2, y2 ∈ G′ alors x2 = y2. Il s’agit donc de trouver x1 et x2 tels que

(x, y)=(x1, 0)+(x2, x2).


Donc (x, y)=(x1 + x2, x2). Ainsi x = x1 + x2 et y = x2, d’où x1 = x − y et x2 = y. On trouve bien

(x, y)=(x − y, 0)+(y, y),

qui prouve que tout élément de R2 est somme d’un élément de F et d’un élément de G′.

3. De façon plus générale, deux droites distinctes du plan passant par l’origine forment des sous-espaces
supplémentaires.
Exemple 18.
Est-ce que les sous-espaces vectoriels F et G de R3 définis par

F =(x, y, z) z=0 et G =(x, y, z) ∈ R3 | y = z = 0


sont supplémentaires dans R ?
G
F

0
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 213

1. Il est facile de vérifier que F ∩ G = {0}. En effet si l’élément u =(x, y, z) appartient à l’intersection de F et de G,

alors les coordonnées de u vérifient : x − y − z = 0 (car u appartient à F), et y = z = 0 (car u appartient à G),

donc u =(0, 0, 0).

2. Il reste à démontrer que F + G =R3.

Soit donc u =(x, y, z) un élément quelconque de R3 ; il faut déterminer des éléments v de F et w de G tels que
u = v + w. L’élément v doit être de la forme v =(y1 + z1, y1, z1) et l’élément w de la forme w =(x2, 0, 0). On a u =
v + w si et seulement si y1 = y, z1 = z, x2 = x − y − z. On a donc

(x, y, z)=(y + z, y, z)+(x − y − z, 0, 0)

avec v =(y + z, y, z) dans F et w =(x − y − z, 0, 0) dans G.

Conclusion : F ⊕ G =R3.

Exemple 19.
Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on considère le sous-espace vectoriel des fonctions

paires P et le sous-espace vectoriel des fonctions impaires I . Montrons que P ⊕I = F(R, R).

1. Montrons P ∩I = {0F(R,R)}.

Soit f ∈ P ∩I , c’est-à-dire que f est à la fois une fonction paire et impaire. Il s’agit de montrer que f est la

fonction identiquement nulle. Soit x ∈ R. Comme f(car f est paire) et f (−x)= −f (x) (car f est

impaire), alors f (x)= −f (x), ce qui implique 0. Ceci est vrai quel que soit x ∈ R ; donc f est la fonction nulle.

Ainsi P ∩I = {0F(R,R)}.

2. Montrons P +I = F(R, R).

Soit f ∈ F(R, R). Il s’agit de montrer que f peut s’écrire comme la somme d’une fonction paire et d’une

fonction impaire.

Analyse. Si f = g + h, avec g ∈ P , h ∈ I , alors pour tout x, d’une part, (a) f (x) = g(x)+ h(x), et d’autre part, (b) f

(−x)= g(−x)+ h(−x)= g(x)− h(x). Par somme et différence de (a) et (b), on tire que get h(x)= −2 −

f (x) f ( x)

Synthèse. Pour f ∈ F(R, R), on définit deux fonctions g, h par g .


ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 214

Alors d’une part f (x)= g(x)+ h(x) et d’autre part g ∈ P (vérifier g(−x)= g(x)) et h ∈ I (vérifier h(−x)= −h(x)).

Bilan : P +I = F(R, R).

En conclusion, P et I sont en somme directe dans F(R, R) : P ⊕ I = F(R, R). Notez que, comme le prouvent nos

calculs, les g et h obtenus sont uniques.

5.3. Sous-espace engendré

Théorème 4 (Théorème de structure de l’ensemble des combinaisons linéaires).


Soit {v1, . . . , vn} un ensemble fini de vecteurs d’un K-espace vectoriel E. Alors :

• L’ensemble des combinaisons linéaires des vecteurs {v1, . . . , vn} est un sous-espace vectoriel de E.

• C’est le plus petit sous-espace vectoriel de E (au sens de l’inclusion) contenant les vecteurs v 1, . . . , vn.

Notation. Ce sous-espace vectoriel est appelé sous-espace engendré par v1, . . . , vn et est noté Vect(v1, . . . , vn).
On a donc

u ∈ Vect(v1, . . . , vn) ⇐⇒ il existe λ1, . . . , λn K ∈ tels que u =λ1v1 + ··· +λnvn

Remarque.
• Dire que Vect(v1, . . . , vn) est le plus petit sous-espace vectoriel de E contenant les vecteurs v1, . . . , vn signifie

que si F est un sous-espace vectoriel de E contenant aussi les vecteurs v1, . . . , vn alors Vect(v1, . . . , vn) ⊂

F.

• Plus généralement, on peut définir le sous-espace vectoriel engendré par une partie V quelconque (non

nécessairement finie) d’un espace vectoriel : Vect V est le plus petit sous-espace vectoriel contenant V .

Exemple 20.

1. E étant un K-espace vectoriel, et u un élément quelconque de E, l’ensemble Vect(u)= {λu | λ ∈ K} est le sous-

espace vectoriel de E engendré par u. Il est souvent noté Ku. Si u n’est pas le vecteur nul, on parle d’une

K = Vect(u)

v u
u 0
0

Vect(u, v )
droite vectorielle.

2. Si u et v sont deux vecteurs de E, alors Vect(u, v)=λu+µv | λ, µ ∈ K . Si u et v ne sont pas colinéaires, alors

Vect(u, v) est un plan vectoriel.


ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 215

3
€ 1Š € 1Š . Déterminons P = Vect(u, v).
3. Soient u = 1 et v = 2 deux vecteurs de R
1 3 € x Š zy =λu +µv pour certains λ, µ ∈ R

€ x Š zy ∈ Vect(u, v) ⇐⇒
€ x Š €1Š €1Š zy =λ 11 +µ 23
⇐⇒ 
 x = λ+µ
y = λ+ 2µ  z = λ+ 3µ
⇐⇒

Nous obtenons bien une équation paramétrique du plan P passant par l’origine et contenant les vecteurs u et

v. On sait en trouver une équation cartésienne : (x − 2y + z = 0).

Exemple 21.
Soient E l’espace vectoriel des applications de R dans R et f0, f1, f2 les applications définies par :

∀x ∈ R f0(x)= 1, f1(x)= x et f2(x)= x2.

Le sous-espace vectoriel de E engendré par {f0, f1, f2} est l’espace vectoriel des fonctions polynômes f de degré

inférieur ou égal à 2, c’est-à-dire de la forme f (x)= ax2 + bx + c.

Méthodologie. On peut démontrer qu’une partie F d’un espace vectoriel E est un sous-espace vectoriel de E en
montrant que F est égal à l’ensemble des combinaisons linéaires d’un nombre fini de vecteurs de E.
Exemple 22.
Est-ce que F =(x, y, z) ∈ R3 | x − y − z = 0 est un sous-espace vectoriel de R3 ?

Un triplet de R3 est élément de F si et seulement si x = y + z. Donc u est élément de F si et seulement s’il peut
s’écrire u =(y + z, y, z). Or, on a l’égalité

(y + z, y, z)= y(1, 1, 0)+ z(1, 0, 1).

Donc F est l’ensemble des combinaisons linéaires de (1, 1, 0), (1, 0, 1) . C’est le sous-espace vectoriel
engendré par (1, 1, 0), (1, 0, 1) : F = Vect (1, 1, 0), (1, 0, 1) . C’est bien un plan vectoriel (un plan passant
par l’origine).
ESPACES VECTORIELS PPLICATION LINÉAIRE 216
6. A (DÉBUT)

Preuve du théorème 4.

1. On appelle F l’ensemble des combinaisons linéaires des vecteurs {v1, . . . , vn}.

(a) 0E ∈ F car F contient la combinaison linéaire particulière 0v1 +···+ 0vn.

(b) Si u, v ∈ F alors il existe λ1, . . . , λn ∈ K tels que u = λ1v1 + ··· +λnvn et µ1, . . . , µn ∈ K tels que v =µ1v1

+···+µnvn. On en déduit que u + v =(λ1 +µ1)v1 +···+(λn +µn)vn appartient bien à F.

(c) De même, λ· u =(λλ1)v1 +···+(λλn)vn ∈ F.

Conclusion : F est un sous-espace vectoriel.

2. Si G est un sous-espace vectoriel contenant {v1, . . . , vn}, alors il est stable par combinaison linéaire ; il contient

donc toute combinaison linéaire des vecteurs {v1, . . . , vn}. Par conséquent F est inclus dans G :

F est le plus petit sous-espace (au sens de l’inclusion) contenant {v1, . . . , vn}.

Mini-exercices.

1. Trouver des sous-espaces vectoriels distincts F et G de R3 tels que

(a) F + G =R3 et F ∩ G ≠ {0} ;

(b) F + G ≠ R3 et F ∩ G = {0} ;

(c) F + G =R3 et F ∩ G = {0} ; (d) F + G ≠ R3 et F ∩ G ≠ {0}.

2. Soient F =(x, y, z) ∈ R3 | x + y + z = 0 et G = Vect .

(a) Montrer que F est un espace vectoriel. Trouver deux vecteurs u, v tels que F = Vect(u, v).

(b) Calculer F ∩ G et montrer que F + G =R3. Que conclure ?

3. Soient A = 1 00 0, B = 0 00 1, C = 0 00 1, D = 0 01 0 des matrices de M2(R).

(a) Quel est l’espace vectoriel F engendré par A et B ? Idem avec G engendré par C et D.

(b) Calculer F ∩ G. Montrer que F + G = M2(R). Conclure.


ESPACES VECTORIELS PPLICATION LINÉAIRE 217
6. Application linéaire (début)

6.1. Définition
Nous avons déjà rencontré la notion d’application linéaire dans le cas f : Rp −→ Rn (voir le chapitre « L’espace

vectoriel Rn »). Cette notion se généralise à des espaces vectoriels quelconques.

Définition 6.
Soient E et F deux K-espaces vectoriels. Une application f de E dans F est une application linéaire si elle
satisfait aux deux conditions suivantes :
1. f (u + v)= f (u)+ f (v), pour tous u, v ∈ E ;

2. f (λ· u)=λ· f (u), pour tout u ∈ E et tout λ ∈ K.

Autrement dit : une application est linéaire si elle « respecte » les deux lois d’un espace vectoriel.

Notation. L’ensemble des applications linéaires de E dans F est noté L(E, F).
6. A (DÉBUT)

6.2. Premiers exemples


Exemple 23.
L’application f définie par
f : R3 → R2

(x, y, z) 7→ (−2x, y + 3z)

est une application linéaire. En effet, soient u =(x, y, z) et v =(x′, y′, z′) deux éléments de R3 et λ un réel.

f (u + v) = f (x + x′, y + y′, z + z′)


= − 2(x + x′), y + y′ + 3(z + z′)
= (−2x, y + 3z)+(−2x′, y′ + 3z′)

= f (u)+ f (v)
et
f (λ· u) = f (λx, λy, λz)

= (−2λx, λy + 3λz)

= λ·(−2x, y + 3z)

= λ· f (u)

Toutes les applications ne sont pas des applications linéaires !


Exemple 24.
Soit f : R → R l’application définie par f (x)= x2. On a f (1)= 1 et f (2)= 4. Donc f (2)̸= 2 · f (1). Ce qui fait que l’on n’a

pas l’égalité f (λx)=λf (x) pour un certain choix de λ, x. Donc f n’est pas linéaire. Notez que l’on n’a pas non plus f

(x + x′)= f (x)+ f (x′) dès que x x′ ≠ 0.


ESPACES VECTORIELS 7. APPLICATION LINÉAIRE (MILIEU) 218
Voici d’autres exemples d’applications linéaires :
1. Pour une matrice fixée A ∈ Mn,p(R), l’application f : Rp −→ Rn définie par

f (X )= AX
est une application linéaire.

2. L’ application nulle, notée 0L(E,F) :

f : E −→ F f (u)= 0F pour tout u ∈ E.

3. L’ application identité, notée idE :

f : E −→ E f (u)= u pour tout u ∈ E.

6.3. Premières propriétés

Proposition 6.
Soient E et F deux K-espaces vectoriels. Si f est une application linéaire de E dans F, alors :
• f (0E)= 0F,
• f (−u)= −f (u), pour tout u ∈ E.

Démonstration. Il suffit d’appliquer la définition de la linéarité avec λ= 0, puis avec λ= −1.

Pour démontrer qu’une application est linéaire, on peut aussi utiliser une propriété plus « concentrée », donnée
par la caractérisation suivante :
Proposition 7 (Caractérisation d’une application linéaire).
Soient E et F deux K-espaces vectoriels et f une application de E dans F. L’application f est linéaire si et

seulement si, pour tous vecteurs u et v de E et pour tous scalaires λ et µ de K,

f (λu +µv)=λf (u)+µf (v).

Plus généralement, une application linéaire f préserve les combinaisons linéaires : pour tous λ1, . . . , λn ∈ K et

tous v1, . . . , vn ∈ E, on a

+ )+
f (λ1v1 ···+λnvn)=λ1 f (v1 ···+λn f (vn).

Démonstration.
• Soit f une application linéaire de E dans F. Soient u, v ∈ E, λ, µ ∈ K. En utilisant les deux axiomes de la

définition, on a

f (λu +µv)= f (λu)+ f (µv)=λf (u)+µf (v).


ESPACES VECTORIELS PPLICATION LINÉAIRE 219
• Montrons la réciproque. Soit f : E → F une application telle que f (λu +µv)=λf (u)+µf (v) (pour tous u, v ∈ E, λ,

µ ∈ K). Alors, d’une part f (u + v)= f (u)+ f (v) (en considérant le cas particulier où λ=µ= 1), et d’autre part f

(λu)=λf (u) (cas particulier où µ= 0).

Vocabulaire.
Soient E et F deux K-espaces vectoriels.

• Une application linéaire de E dans F est aussi appelée morphisme ou homomorphisme d’espaces vectoriels.
L’ensemble des applications linéaires de E dans F est noté L(E, F).

• Une application linéaire de E dans E est appelée endomorphisme de E. L’ensemble des endomorphismes de E
est noté L(E).

Mini-exercices.
Montrer que les applications suivantes fi : R2 → R2 sont linéaires. Caractériser géométriquement ces

applications et faire un dessin.

1. f1(x, y)=(−x, −y) ;

2. f2(x, y)=(3x, 3y) ;

3. f3(x, y)=(x, −y) ;

4. f4(x, y)=(−x, y) ;

5. f5(x, y)= p23 x − 12 y, 12 x + p23 y.

7. Application linéaire (milieu)

7.1. Exemples géométriques

Symétrie centrale.
Soient E un K-espace vectoriel. On définit l’application f par :

f : E → E u 7→

−u

f est linéaire et s’appelle la symétrie centrale par rapport à l’origine 0E.


ESPACES VECTORIELS 7. APPLICATION LINÉAIRE (MILIEU) 220

0
fλ (u) = λ · u
f (u) = −u
u
0

Homothétie.
Soient E un K-espace vectoriel et λ ∈ K. On définit l’application fλ par :

fλ : E → E u 7→

λu

fλ est linéaire. fλ est appelée homothétie de rapport λ.


Cas particuliers notables :
• λ= 1, fλ est l’application identité ;
• λ= 0, fλ est l’application nulle ;
• λ= −1, on retrouve la symétrie centrale.

Preuve que fλ est une application linéaire :

fλ(αu +β v)=λ(αu +β v)=α(λu)+β(λv)=αfλ(u)+β fλ(v).

Projection.
Soient E un K-espace vectoriel et F et G deux sous-espaces vectoriels supplémentaires dans E, c’est-à-dire E = F ⊕

G. Tout vecteur u de E s’écrit de façon unique u = v + w avec v ∈ F et w ∈ G. La projection sur F parallèlement à

G est l’application p : E → E définie par p(u)= v.

w u

F
v = p(u)

• Une projection est une application linéaire.


En effet, soient u, u′ ∈ E, λ, µ ∈ K. On décompose u et u′ en utilisant que E = F ⊕ G : u = v + w, u′ = v′ + w′ avec

v, v′ ∈ F, w, w′ ∈ G. Commençons par écrire

λu +µu′ =λ(v + w)+µ(v′ + w′)=(λv +µv′)+(λw +µw′).


ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 221

Comme F et G sont des un sous-espaces vectoriels de E, alors λv +µv′ ∈ F et λw +µw′ ∈ G. Ainsi :

p(λu +µu′)=λv +µv′ =λp(u)+µp(u′).

• Une projection p vérifie l’égalité p2 = p.

Note : p2 = p signifie p ◦ p = p, c’est-à-dire pour tout u . Il s’agit juste de remarquer que si

v ∈ F alors p(v)= v (car v = v + 0, avec v ∈ F et 0 ∈ G). Maintenant, pour u ∈ E, on a u = v + w avec v ∈ F et w

∈ G. Par définition p(u)= v. Mais alors p p(u)= p(v)= v. Bilan : p ◦ p(u)= v = p(u). Donc p ◦ p = p.

Exemple 25.
Nous avons vu que les sous-espaces vectoriels F et G de R3 définis par

F =(x, y, z) ∈ R3 | x − y − z = 0 et G =(x, y, z) ∈ R3 | y = z = 0

sont supplémentaires dans R3 : R3 = F ⊕ G (exemple 18). Nous avions vu que la décomposition s’écrivait :

(x, y, z)=(y + z, y, z)+(x − y − z, 0, 0).

Si p est la projection sur F parallèlement à G, alors on a p(x, y, z)=(y + z, y, z).


G
( x , y, z )
F

0
p ( x , y, z )

Exemple 26.
Nous avons vu dans l’exemple 19 que l’ensemble des fonctions paires P et l’ensemble des fonctions impaires I

sont des sous-espaces vectoriels supplémentaires dans F(R, R). Notons p la projection sur P parallèlement à I . Si f

est un élément de F(R, R), on a p(f )= g où g : R →Rx 7− . f (x)+ f ( x)



2

7.2. Autres exemples


1. La dérivation. Soient E = C 1(R, R) l’espace vectoriel des fonctions f : R −→ R dérivables avec f ′ continue et F =

C 0(R, R) l’espace vectoriel des fonctions continues. Soit d : C 1(R, R) −→ C 0(R, R) f 7−→ f′

Alors d est une application linéaire, car (λf +µg)′ =λf ′ +µg′ et donc d(λf +µg)=λd(f )+µd(g).

2. L’intégration. Soient E = C 0(R, R) et F = C 1(R, R). Soit I : C 0(R, R) −→ C 1(R, R)

R x
f (x) 7−→ 0 f (t) dt
ESPACES VECTORIELS 7. APPLICATION LINÉAIRE (MILIEU) 222

R x R x R x
L’application I est linéaire car 0 λf (t)+µg(t) dt =λ 0 f (t) dt +µ 0 g(t) dt pour toutes fonctions f et g et pour

tous λ, µ ∈ R.

3. Avec les polynômes.


Soit E =Rn[X ] l’espace vectoriel des polynômes de degré ⩽ n. Soit F =Rn+1[X ] et soit

f: E −→ F

P(X ) 7−→ X P(X )

+ +
Autrement dit, si P(X )= anX n ···+ a1X + a0, alors f (P(X ))= anX n+1 ···+ a1X 2 + a0X .

C’est une application linéaire : f (λP(X )+µQ(X ))=λX P(X )+µXQ(X )=λf (P(X ))+µf (Q(X )).

4. La transposition.
Considérons l’application T de Mn(K) dans Mn(K) donnée par la transposition :

T : Mn(K) −→ Mn(K)

A 7−→ AT

T est linéaire, car on sait que pour toutes matrices A, B ∈ Mn(K) et tous scalaires λ, µ ∈ K :

(λA+µB)T =(λA)T +(µB)T =λAT +µBT.

5. La trace.

tr : Mn(K) −→ K

A 7−→ tr A

est une application linéaire car tr(λA+µB)=λ tr A+µ tr B.

Mini-exercices.
1. Les applications suivantes sont-elles linéaires ?
(a) R −→ R, x 7−→ 3x − 2

(b) R4 −→ R, (x, y, x′, y′) 7−→ x · x′ + y · y′

(c) C 0(R, R) −→ R, f 7−→ f (1) (d) C 1(R, R) −→ C 0(R, R), f 7−→ f ′ + f

R
(e) C 0([0, 1], R) −→ R, f 7−→ 0
1
|f (t)| dt

(f) C 0([0, 1], R) −→ R, f 7−→ maxx∈[0,1] f (x)

(g) R3[X ] −→ R3[X ], P(X ) 7−→ P(X + 1)− P(0) A AT

2. Soient f , g : Mn(R) −→ Mn(R) définies par A 7−→ et A 7−→ −2 . Montrer que f et g sont des applications

linéaires. Montrer que f (A) est une matrice symétrique, g(A) une matrice antisymétrique et que A = f (A)+
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 223

g(A). En déduire que les matrices symétriques et les matrices antisymétriques sont en somme directe dans
Mn(R). Caractériser géométriquement f et g.

8. Application linéaire (fin)

8.1. Image d’une application linéaire


Commençons par des rappels. Soient E et F deux ensembles et f une application de E dans F. Soit A un sous-
ensemble de E. L’ensemble des images par f des éléments de A, appelé image directe de A par f , est noté f (A).
C’est un sous-ensemble de F. On a par définition :

f | .

Dans toute la suite, E et F désigneront des K-espaces vectoriels et f : E → F sera une application linéaire. f (E)

s’appelle l’image de l’application linéaire f et est noté Im f .

Proposition 8 (Structure de l’image d’un sous-espace vectoriel).

1. Si E′ est un sous-espace vectoriel de E, alors f (E′) est un sous-espace vectoriel de F.

2. En particulier, Im f est un sous-espace vectoriel de F.

Remarque.
On a par définition de l’image directe f (E) : f est surjective si et seulement si Im
f = F.

Démonstration. Tout d’abord, comme 0E ∈ E′ alors 0F = f (0E) ∈ f (E′). Ensuite on montre que pour tout couple (y1,

y2) d’éléments de f (E′) et pour tous scalaires λ, µ, l’élément λy1 +µy2 appartient à f (E′). En
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 224

effet :
y1 ∈ f (E′) ⇐⇒ ∃x1 ∈ E′, f (x1)= y1 y2 ∈ f (E

′) ⇐⇒ ∃x2 ∈ E′, f (x2)= y2.

Comme f est linéaire, on a

λy1 +µy2 =λf (x1)+µf (x2)= f (λx1 +µx2).

Or λx1 +µx2 est un élément de E′, car E′ est un sous-espace vectoriel de E, donc λy1 +µy2 est bien un élément de f (E′).

8.2. Noyau d’une application linéaire

Définition 7 (Définition du noyau).


Soient E et F deux K-espaces vectoriels et f une application linéaire de E dans F. Le noyau de f , noté Ker(f ),
est l’ensemble des éléments de E dont l’image est 0F :
Ker( f ) = x ∈E | f ( x ) = 0 F
Autrement dit, le noyau est l’image réciproque du vecteur nul
de l’espace d’arrivée : Ker(f )= f −1{0F}.

Proposition 9.
Soient E et F deux K-espaces vectoriels et f une application linéaire de E dans F. Le noyau de f est un sous-
espace vectoriel de E.

Démonstration. Ker(f ) est non vide car f (0E)= 0F donc 0E ∈ Ker(f ). Soient x1, x2 ∈ Ker(f ) et λ, µ ∈ K. Montrons

que λx1 +µx2 est un élément de Ker(f ). On a, en utilisant la linéarité de f et le fait que x1 et x2 sont des éléments de

Ker(f ) : f (λx1 +µx2)=λf (x1)+µf (x2)=λ0F +µ0F = 0F.

Exemple 27.
Reprenons l’exemple de l’application linéaire f définie par
f : R3 → R2

(x, y, z) 7→ (−2x, y + 3z)

• Calculons le noyau Ker(f ).

(x, y, z) ∈ Ker(f ) ⇐⇒ f (x, y, z)=(0, 0)

⇐⇒

⇐⇒

⇐⇒ (x, y, z)=(0, −3z, z), z∈R


ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 225

Donc Ker(f ) = (0, −3z, z) | z ∈ R . Autrement dit, Ker(f ) = Vect : c’est une droite

vectorielle.

• Calculons l’image de f . Fixons (x′, y′) ∈ R2.

(x′, y′)= f (x, y, z) ⇐⇒ (−2x, y + 3z)=(x′, y′)

⇐⇒ −2x = x′ y + 3z = y′

= ) ( ,
On peut prendre par exemple x − x2′ , y′ = y, z = 0. Conclusion : pour n’importe quel (x′, y′ ∈ R2, on a f − x2′ , y′

0 . Donc Im
)=(x′, y′) (f )=R2, et f est surjective.

Exemple 28.
Soit A ∈ Mn,p(R). Soit f : Rp −→ Rn l’application linéaire définie par f (X )= AX . Alors Ker Rp | AX = 0 : c’est

donc l’ensemble des X ∈ Rp solutions du système linéaire homogène AX = 0. On verra plus tard que Im(f ) est

l’espace engendré par les colonnes de la matrice A.

Le noyau fournit une nouvelle façon d’obtenir des sous-espaces vectoriels.


Exemple 29.
Un plan P passant par l’origine, d’équation (ax + b y + cz = 0), est un sous-espace vectoriel de R 3. En effet, soit f :

R3 → R l’application définie par f (x, y, z)= ax + b y + cz. Il est facile de vérifier que f est linéaire, de sorte que Ker f

=(x, y, z) ∈ R3 | ax + b y + cz = 0 = P est un sous-espace vectoriel.

Exemple 30.
Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E, supplémentaires : E = F ⊕ G. Soit p la

projection sur F parallèlement à G. Déterminons le noyau et l’image de p.

w u

F
v = p(u)

Un vecteur u de E s’écrit d’une manière unique u = v + w avec v ∈ F et w ∈ G et par définition p(u)= v.

• Ker(p)= G : le noyau de p est l’ensemble des vecteurs u de E tels que v = 0, c’est donc G.
• Im(p)= F. Il est immédiat que Im(p) ⊂ F. Réciproquement, si u ∈ F alors p(u)= u, donc F ⊂ Im(p).

Conclusion :
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 226

Ker(p)= G et Im(p)= F.

Théorème 5 (Caractérisation des applications linéaires injectives).


Soient E et F deux K-espaces vectoriels et f une application linéaire de E dans F. Alors :

f injective Ker(f )=0E


⇐⇒

Autrement dit, f est injective si et seulement si son noyau ne contient que le vecteur nul. En particulier, pour
montrer que f est injective, il suffit de vérifier que :
si f (x)= 0F alors x = 0E.

Démonstration.
• Supposons que f soit injective et montrons que Ker(f ) = {0E}. Soit x un élément de Ker(f ). On a f (x)= 0F. Or,

comme f est linéaire, on a aussi f (0E)= 0F. De l’égalité f (x)= f (0E), on déduit x = 0E

car f est injective. Donc Ker(f )= {0E}.

• Réciproquement, supposons maintenant que Ker(f ) = {0E}. Soient x et y deux éléments de E tels que f (x) = f

(y). On a donc f (x) − f (y) = 0F. Comme f est linéaire, on en déduit f (x − y) = 0F, c’est-à-dire x − y est un élément

de Ker(f ). Donc x − y = 0E, soit x = y.

Exemple 31.
Considérons, pour n ⩾ 1, l’application linéaire

f : Rn[X ] −→ Rn+1[X ]

P(X ) 7−→ X · P(X ).

Étudions d’abord le noyau de f : soit P(X )= anX n +···+ a1X + a0 ∈ Rn[X ] tel que X · P(X )= 0. Alors

+
anX n+1 ···+ a1X 2 + a0X = 0.

Ainsi, ai = 0 pour tout i ∈ {0, . . . , n} et donc P(X )= 0. Le noyau de f est donc nul : Ker(f )= {0}.

L’espace Im(f ) est l’ensemble des polynômes de Rn+1[X ] sans terme constant : Im(f )= Vect X , X 2, . . . , X n+1 .
Conclusion : f est injective, mais n’est pas surjective.

. L’espace vectoriel
8.3 L(E,F)

Soient E et F deux K-espaces vectoriels. Remarquons tout d’abord que, similairement à l’exemple 4, l’ensemble

des applications de E dans F, noté F(E, F), peut être muni d’une loi de composition interne + et d’une loi de
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 227

composition externe, définies de la façon suivante : f , g étant deux éléments de F(E, F), et λ étant un élément de

K, pour tout vecteur u de E,

(f + g)(u)= f (u)+ g(u) et (λ· f )(u)=λf (u).

Proposition 10.
L’ensemble des applications linéaires entre deux K-espaces vectoriels E et F, noté L(E, F), muni des deux lois

définies précédemment, est un K-espace vectoriel.

Démonstration. L’ensemble L(E, F) est inclus dans le K-espace vectoriel F(E, F). Pour montrer que L(E, F) est un K-

espace vectoriel, il suffit donc de montrer que L(E, F) est un sous-espace vectoriel de F(E, F) :

• Tout d’abord, l’application nulle appartient à L(E, F).

• Soient
scalaires α, β de K, f , g ∈ L(E, F),
(f + g)(αu+βv) = f (αu+βv)+ g(αu+βv) (définition de f + g)
et montrons
= αf (u)+β f (v)+αg(u)+βg(v) (linéarité de f et de g)que f + g est
= α(f (u)+ g(u))+β(f (v)+ g(v)) (propriétés des lois de F) linéaire. Pour
= α(f + g)(u)+β(f + g)(v) (définition de f + g)tous vecteurs
u et v de E et
f + g est donc linéaire et L(E, F) est stable pour l’addition.
pour tous
• Soient f ∈ L(E, F), λ ∈ K, et montrons que λf est linéaire.

(λf )(αu+βv) = λf (αu+βv) (définition de λf )


= λ(αf (u)+β f (v)) (linéarité de f )

= αλf (u)+βλf (v) (propriétés des lois de F)


= α(λf )(u)+β(λf )(v) (définition de λf )

λf est donc linéaire et L(E, F) est stable pour la loi externe. L(E, F) est donc un sous-espace vectoriel de F(E,

F).

En particulier, L(E) est un sous-espace vectoriel de F(E, E).

8.4. Composition et inverse d’applications linéaires

Proposition 11 (Composée de deux applications linéaires).


ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 228

Soient E, F, G trois K-espaces vectoriels, f une application linéaire de E dans F et g une application linéaire de F
dans G. Alors g ◦ f est une application linéaire de E dans G.
Remarque.
En particulier, le composé de deux endomorphismes de E est un endomorphisme de E. Autrement dit, ◦ est une loi

de composition interne sur L(E).

Démonstration. Soient u et v deux vecteurs de E, et α et β deux éléments de K. Alors :

(g ◦ f )(αu +β v) = g (f (αu +β v)) (définition de g ◦ f )

= g (αf (u)+β f (v)) (linéarité de f )


= αg (f (u))+β g (f (v)) (linéarité de g)
= α(g ◦ f )(u)+β(g ◦ f )(v) (définition de g ◦ f )

La composition des applications linéaires se comporte bien :

g ◦(f1 + f2)= g ◦ f1 + g ◦ f2 (g1 + g2)◦ f = g1 ◦ f + g2 ◦ f (λg)◦ f = g ◦(λf )=λ(g ◦ f )

Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire bijective de E sur F est appelée isomorphisme d’espaces vectoriels. Les deux espaces
vectoriels E et F sont alors dits isomorphes.
• Un endomorphisme bijectif de E (c’est-à-dire une application linéaire bijective de E dans E) est appelé
automorphisme de E. L’ensemble des automorphismes de E est noté GL(E).

Proposition 12 (Linéarité de l’application réciproque d’un isomorphisme).


Soient E et F deux K-espaces vectoriels. Si f est un isomorphisme de E sur F, alors f −1 est un isomorphisme de
F sur E.

Démonstration. Comme f est une application bijective de E sur F, alors f −1 est une application bijective de F sur E.

Il reste donc à prouver que f −1 est bien linéaire. Soient u′ et v′ deux vecteurs de F et soient α et β deux éléments

de K. On pose f −1(u′)= u et f −1(v′)= v, et on a alors f (u)= u′ et f (v)= v′. Comme

f est linéaire, on a

f −1(αu′ +β v′)= f −1 (αf (u)+β f (v))= f −1 (f (αu +β v))=αu +β v

car f −1 ◦ f = idE (où idE désigne l’application identité de E dans E). Ainsi

f −1(αu′ +β v′)=αf −1(u′)+β f −1(v′),

et f −1 est donc linéaire.

Exemple 32.
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 229

Soit f : R2 → R2 définie par f (x, y)=(2x+3y, x+ y). Il est facile de prouver que f est linéaire. Pour prouver que f est

bijective, on pourrait calculer son noyau et son image. Mais ici nous allons calculer directement son inverse : on

cherche à résoudre f (x, y)=(x′, y′). Cela correspond à l’équation (2x + 3y, x + y)=(x′, y′) qui est un système linéaire à

)=(
deux équations et deux inconnues. On trouve (x, y)=(−x′ + 3y′, x′ − 2y′). On pose donc f −1(x′, y′ −x′ + 3y′, x′ − 2y′).

On vérifie aisément que f −1 est l’inverse de f , et on remarque que f −1 est une application linéaire.

Exemple 33.
Plus généralement, soit f : Rn → Rn l’application linéaire définie par f (X ) = AX (où A est une matrice de Mn(R)). Si la

matrice A est inversible, alors f −1 est une application linéaire bijective et est définie par

f −1(X )= A−1X .
Dans l’exemple précédent,

X =xy A =21 31 A−1 =−11 −32 .


Mini-exercices.

1. Soit f : R3 → R3 définie par f (x, y, z)=(−x, y + z, 2z). Montrer que f est une application linéaire. Calculer Ker(f )

et Im(f ). f admet-elle un inverse ? Même question avec f (x, y, z)=(x − y, x + y, y).

2. Soient E un espace vectoriel, et F, G deux sous-espaces tels que E = F ⊕G. Chaque u ∈ E se décompose de

manière unique u = v + w avec v ∈ F, w ∈ G. La symétrie par rapport à F parallèlement à G est l’application

s : E → E définie par s(u)= v − w. Faire un dessin. Montrer que s est une application linéaire. Montrer que s2

= idE. Calculer Ker(s) et Im(s). s admet-elle un inverse ?

3. Soit f : Rn[X ] → Rn[X ] définie par P(X ) →7 P′′(X ) (où P′′ désigne la dérivée seconde). Montrer que f est une

application linéaire. Calculer Ker(f ) et Im(f ). f admet-elle un inverse ?


ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 230

Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre

11 Dimension finie

VidØo ■ partie 1. Famille libre


VidØo ■ partie 2. Famille gØnØratrice
VidØo ■ partie 3. Base
VidØo ■ partie 4. Dimension d’un espace vectoriel
VidØo ■ partie 5. Dimension des sous-espaces vectoriels
Fiche d’exercices ‡ Espaces vectoriels de dimension finie

Les espaces vectoriels qui sont engendrés par un nombre fini de vecteurs sont appelés espaces vectoriels de
dimension finie. Pour ces espaces, nous allons voir comment calculer une base, c’est-à-dire une famille minimale
de vecteurs qui engendrent tout l’espace. Le nombre de vecteurs dans une base s’appelle la dimension et nous
verrons comment calculer la dimension des espaces et des sous-espaces.

1. Famille libre

1.1. Combinaison linéaire (rappel)


Soit E un K-espace vectoriel.

Définition 1.
Soient v1, v2, . . . , vp, p ⩾ 1 vecteurs d’un espace vectoriel E. Tout vecteur de la forme

u =λ1v1 +λ2v2 +···+λpvp

(où λ1, λ2, . . . , λp sont des éléments de K) est appelé combinaison linéaire des vecteurs v1, v2, . . . , vp. Les
scalaires λ1, λ2, . . . , λp sont appelés coefficients de la combinaison linéaire.

1.2. Définition

Définition 2.
Une famille {v1, v2, . . . , vp} de E est une famille libre ou linéairement indépendante si toute combinaison

linéaire nulle

λ1v1 +λ2v2 +···+λpvp = 0

est telle que tous ses coefficients sont nuls, c’est-à-dire


λ1 = 0, λ2 = 0, . . . λp = 0.
DIMENSION FINIE 1. FAMILLE LIBRE 232

Dans le cas contraire, c’est-à-dire s’il existe une combinaison linéaire nulle à coefficients non tous nuls, on dit que
la famille est liée ou linéairement dépendante. Une telle combinaison linéaire s’appelle alors une relation de
dépendance linéaire entre les vj.
1.3. Premiers exemples
Pour des vecteurs de Rn, décider si une famille {v1, . . . , vp} est libre ou liée revient à résoudre un système

linéaire.

Exemple 1.
Dans le R-espace vectoriel R3, considérons la famille

1 4 2


 
2 , 5 , 1 .

3 6 0

On souhaite déterminer si elle est libre ou liée. On cherche des scalaires (λ1, λ2, λ3) tels que

λ1 €12Š+λ2 €45Š+λ3 €21Š=€00Š


3 ce qui équivaut au système : 6 0 0

λ1 + 4λ2 + 2λ3 = 0


 + 5λ2 + λ3 = 0
2λ1 = 0
+ 6λ2
3λ1
On calcule (voir un peu plus bas) que ce système est équivalent à :
λ1 − 2λ3 = 0 λ2 + λ3 = 0

Ce système a une infinité de solutions et en prenant par exemple λ3 = 1 on obtient λ1 = 2 et λ2 = −1, ce


qui fait que
1 4 2 0

2 2−5+1=0 .

3 6 0 0
La famille
1 4 2
 
2 , 5 , 1

3 6 0
est donc une famille liée.
Voici les calculs de la réduction de Gauss sur la matrice associée au système :

1 4 2 1 4 2  1 4 2  1 4 2 1 0 −2

2 5 1 ∼ 0 −3 −3 ∼ 0 −3 −3 ∼ 0 1 1 ∼ 0 1 1
3 6 0 0 −6 −6 0 0 0 0 0 0 0 0 0
DIMENSION FINIE 1. FAMILLE LIBRE 233

Exemple 2.
€ 1Š € 2Š € 2Š
Soient v1 = 11 , v. Est-ce que la famille {v1, v2, v3} est libre ou liée ? Résolvons le système

linéaire correspondant à l’équation λ1v1 +λ2v2 +λ3v3 = 0 :


λ1 + 2λ2 + 2λ3 = 0 λ1 − λ2 + λ3 = 0

λ1 + λ3 =0

On résout ce système et on trouve comme seule solution λ1 = 0, λ2 = 0, λ3 = 0. La famille {v1, v2, v3} est donc une

famille libre.

Exemple 3.
 2‹  1‹  7‹
=
Soient v1 = −01 , v2 2
− 5 et v3 = −51 . Alors {v1, v2, v3} forme une famille liée, car
3 1 8

3v1 + v2 − v3 = 0.
1.4. Autres exemples
Exemple 4.
Les polynômes P1(X )= 1 − X , P2(X )= 5 + 3X − 2X 2 et P3(X )= 1 + 3X − X 2 forment une famille liée dans l’espace

vectoriel R[X ], car

3P1(X )− P2(X )+ 2P3(X )= 0.

Exemple 5.
Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on considère la famille {cos, sin}. Montrons que c’est

une famille libre. Supposons que l’on ait λ cos +µ sin = 0. Cela équivaut à

∀x ∈ R λ cos(x)+µ sin(x)= 0.

En particulier, pour x = 0, cette égalité donne λ = 0. Et pour x = , elle donne µ = 0. Donc la famille {cos, sin} est

libre. En revanche la famille {cos2, sin2, 1} est liée car on a la relation de dépendance linéaire cos 2 + sin2 −1 = 0. Les

coefficients de dépendance linéaire sont λ1 = 1, λ2 = 1, λ3 = −1.

1.5. Famille liée


Soit E un K-espace vectoriel. Si v ≠ 0, la famille à un seul vecteur {v} est libre (et liée si v = 0). Considérons le cas

particulier d’une famille de deux vecteurs.

Proposition 1.
La famille {v1, v2} est liée si et seulement si v1 est un multiple de v2 ou v2 est un multiple de v1.
DIMENSION FINIE 1. FAMILLE LIBRE 234

Ce qui se reformule ainsi par contraposition : « La famille {v1, v2} est libre si et seulement si v1 n’est pas un

multiple de v2 et v2 n’est pas un multiple de v1. »

Démonstration.
• Supposons la famille {v1, v2} liée, alors il existe λ1, λ2 non tous les deux nuls tels que2 λ1v1 +λ2v2 = 0. Si c’est

=
λ1 qui n’est pas nul, on peut diviser par λ1, ce qui donne v1 −λλ1 v2 et v1 est un multiple de v2. Si c’est λ2 qui

n’est pas nul, alors de même v2 est un multiple de v1.

• Réciproquement, si v1 est un multiple de v2, alors il existe un scalaire µ tel que v1 = µv2, soit 1v1 + (−µ)v2 = 0, ce

qui est une relation de dépendance linéaire entre v1 et v2 puisque 1 ≠ 0 : la famille {v1, v2} est alors liée. Même

conclusion si c’est v2 qui est un multiple de v1.

Généralisons tout de suite cette proposition à une famille d’un nombre quelconque de vecteurs.
Théorème 1.
Soit E un K-espace vectoriel. Une famille F = {v1, v2, . . . , vp} de p ⩾ 2 vecteurs de E est une famille liée si et

seulement si au moins un des vecteurs de F est combinaison linéaire des autres vecteurs de F.

Démonstration. C’est essentiellement la même démonstration que ci-dessus.


• Supposons d’abord F liée. Il existe donc une relation de dépendance linéaire

λ1v1 +λ2v2 +···+λpvp = 0,

avec λk ≠ 0 pour au moins un indice k. Passons tous les autres termes à droite du signe égal. Il vient

λkvk = −λ1v1 −λ2v2 −···−λpvp,

où vk ne figure pas au second membre. Comme λk ≠ 0, on peut diviser cette égalité par λk et l’on obtient

λ1 λ2 λp
vk = −λk v1 − λk v2 −···− λk vp,

c’est-à-dire que vk est combinaison linéaire des autres vecteurs de F, ce qui peut encore s’écrire vk ∈ Vect F \

{vk} (avec la notation ensembliste A\B pour l’ensemble des éléments de A qui n’appartiennent pas à B).

• Réciproquement, supposons que pour un certain k, on ait vk ∈ Vect F \ {vk}. Ceci signifie que l’on peut écrire

vk =µ1v1 +µ2v2 +···+µpvp,

où vk ne figure pas au second membre. Passant vk au second membre, il vient


DIMENSION FINIE 1. FAMILLE LIBRE 235

0 =µ1v1 +µ2v2 +···− vk +···+µpvp,

ce qui est une relation de dépendance linéaire pour F (puisque −1 ≠ 0) et ainsi la famille F est liée.

1.6. Interprétation géométrique de la dépendance linéaire


• Dans R2 ou R3, deux vecteurs sont linéairement dépendants si et seulement s’ils sont colinéaires. Ils sont donc
sur une même droite vectorielle.
• Dans R3, trois vecteurs sont linéairement dépendants si et seulement s’ils sont coplanaires. Ils sont donc dans
un même plan vectoriel.

0
v1
v2

e3
v3
v2

v1
e2

e1

Proposition 2.
Soit F = {v1, v2, . . . , vp} une famille de vecteurs de Rn. Si F contient plus de n éléments (c’est-à-dire p > n),

alors F est une famille liée.

Démonstration. Supposons que

v11 v12 v1p

v v v
 21  22  2p v1 = ...  v2 = ...  . . . vp =

...  .

v
vn1 vn2 np

L’équation
x1v1 + x2v2 +···+ xpvp = 0

donne alors le système suivant



 v1121xx11 ++ vv1222xx22 ++······++
vv12pp xxpp == 00 v

...

DIMENSION FINIE 1. FAMILLE LIBRE 236

 vn1x1 + vn2x2 +···+ vnp xp = 0

C’est un système homogène de n équations à p inconnues. Lorsque p > n, ce système a des solutions non triviales

(voir le chapitre « Systèmes linéaires », dernier théorème) ce qui montre que la famille F est une

famille liée.
DIMENSION FINIE 237
2. FAMILLE GÉNÉRATRICE

Mini-exercices.

1 t
1. Pour quelles valeurs de2 t ∈ R, −t , − 2t est une famille libre de R2 ? Même question avec la
famille

n 1t t1 €1t Šo 3.
de R
t2 1 1

2. Montrer que toute famille contenant une famille liée est liée.
3. Montrer que toute famille inclue dans une famille libre est libre.

4. Montrer que si f : E → F est une application linéaire et que {v1, . . . , vp} est une famille liée de E, alors {f (v1),

. . . , f (vp)} est une famille liée de F.

5. Montrer que si f : E → F est une application linéaire injective et que {v1, . . . , vp} est une famille libre de E,

alors {f (v1), . . . , f (vp)} est une famille libre de F.

2. Famille génératrice
Soit E un espace vectoriel sur un corps K.

2.1. Définition

Définition 3.
Soient v1, . . . , vp des vecteurs de E. La famille {v1, . . . , vp} est une famille génératrice de l’espace vectoriel

E si tout vecteur de E est une combinaison linéaire des vecteurs v1, . . . , vp. Ce qui peut s’écrire aussi :

∀v ∈ E ∃λ1, . . . , λp ∈ K v =λ1v1 +···+λpvp

On dit aussi que la famille {v1, . . . , vp} engendre l’espace vectoriel E.

Cette notion est bien sûr liée à la notion de sous-espace vectoriel engendré : les vecteurs {v1, . . . , vp} forment

une famille génératrice de E si et seulement si E = Vect(v1, . . . , vp).

2.2. Exemples
Exemple 6.
3
€ 1Š € 0Š € 0Š . La famille {v1, v2, v3} est

Considérons par exemple les vecteurs v1 = 00 , v2 = 10 et v3 = 01 de E =R génératrice car tout vecteur

€x Š3
v= zy peut s’écrire
DIMENSION FINIE 238
de R

€ x Š € 1Š € 0Š € 0Š y = x 0 + y 1 + z 0
. z001
Les coefficients sont ici λ1 = x, λ2 = y, λ3 = z.

Exemple 7. €1Š €1Š 3. Les vecteurs {v1, v2} ne forment pas une

E
Soient maintenant les vecteurs v1 = 11 , v 2 = 23 de = R

€0 Š
famille génératrice de R3. Par exemple, le vecteur v = 10 n’est pas dans Vect(v1, v2). En effet, si c’était le cas,

€ 0Š €1 Š € 1Š
alors il existerait λ1, λ2 ∈ R tels que v =λ1v1 +λ2v2. Ce qui s’écrirait aussi 10 =λ1 11 +λ2 23 , d’où le système

linéaire :

 λ1 +λ2 = 0 λ1 + 2λ2 = 1

 λ1 + 3λ2 = 0
Ce système n’a pas de solution. (La première et la dernière ligne impliquent λ1 = 0, λ2 = 0, ce qui est incompatible
avec la deuxième.)
2. FAMILLE GÉNÉRATRICE

Exemple 8.
Soit E =R2.

1
• Soient v1 = 0 et v2 = 01. La famille {v1, v2} est génératrice de R2 car tout vecteur de R 2 se décompose comme

xy = x 10+ y 01.

2
• Soient maintenant v1′ = 1 et v2′ = 11. Alors {v1′, v2′} est aussi une famille génératrice. En effet, soit v = x
y un

élément quelconque de R2. Montrer que v est combinaison linéaire de v1′ et v2′ revient à démontrer

l’existence de deux réels λ et µ tels que v =λv1′ +µv2′. Il s’agit donc d’étudier l’existence de solutions au

système :

2λ+µ = x λ+µ = y

Il a pour solution λ= x − y et µ= −x + 2y, et ceci, quels que soient les réels x et y.

Ceci prouve qu’il peut exister plusieurs familles finies différentes, non incluses les unes dans les autres,
engendrant le même espace vectoriel.
Exemple 9.
Soit Rn[X ] l’espace vectoriel des polynômes de degré ⩽ n. Alors les polynômes {1, X , . . . , X n} forment une

famille génératrice. Par contre, l’espace vectoriel R[X ] de tous les polynômes ne possède pas de famille finie

génératrice.

2.3. Liens entre familles génératrices


La proposition suivante est souvent utile :
DIMENSION FINIE 3. BASE 239
Proposition 3.

¦ ©
Soit F = v1, v2, . . . , vp une famille génératrice de E. Alors F ′ = v1′, v2′, . . . , vq′ est aussi une famille

génératrice de E si et seulement si tout vecteur de F est une combinaison linéaire de vecteurs de F ′.

Démonstration. C’est une conséquence immédiate de la définition de Vect F et de Vect F′.

Nous chercherons bientôt à avoir un nombre minimal de générateurs. Voici une proposition sur la réduction
d’une famille génératrice.
Proposition 4.
Si la famille de vecteurs {v1, . . . , vp} engendre E et si l’un des vecteurs, par exemple v p, est combinaison

=
linéaire des autres, alors la familleE. {v1, . . . , vp}\{vp} {v1, . . . , vp−1} est encore une famille génératrice de

Démonstration. En effet, comme les vecteurs v1, . . . , vp engendrent E, alors pour tout élément v de E, il existe des
scalaires λ1, . . . , λp tels que

+
v =λ1v1 ···+λpvp.

Or l’hypothèseα1, . . . , αp−1 vp est combinaison linéaire des vecteurs v1, . . . , vp−1 se traduit par l’existence de

scalaires tels que

vp =α1v1 +···+αp−1vp−1.

Alors, le vecteur v s’écrit :

v =λ1v1 +···+λp−1vp−1 +λp α1v1 +···+αp−1vp−1 .


Donc

+
v = λ1 +λpα1 v1 ···+ λp−1 +λpαp−1 vp−1,
ce qui prouve que v est combinaison linéaire des vecteurs v1, . . . , vp−1. Ceci achève la démonstration. Il est clair

que si l’on remplace vp par n’importe lequel des vecteurs vi, la démonstration est la même.

Mini-exercices.

( )
2.1. À quelle condition surMême question avec la famillet ∈ R, la famillen€01Š 1tt−0t112o, −dett t2
3 t .−−1
t
est
2
une famille génératrice de R ?

t t2 1 R
3. Montrer qu’une famille de vecteurs contenant une famille génératrice est encore une famille génératrice
de E.
DIMENSION FINIE 240
4. Montrer que si f : E → F est une application linéaire surjective et que {v1, . . . , vp} est une famille génératrice

de E , alors f (v1), . . . , f (vp) est une famille génératrice de F.

3. Base
La notion de base généralise la notion de repère. Dans R2, un repère est donné par un couple de vecteurs non
colinéaires. Dans R3, un repère est donné par un triplet de vecteurs non coplanaires. Dans un repère, un vecteur
se décompose suivant les vecteurs d’une base. Il en sera de même pour une base d’un espace vectoriel.
v = λ1 v1 + λ2 v2

λ2 v2

v2 λ1 v1

v1

3.1. Définition

Définition 4 (Base d’un espace vectoriel).


Soit E un K-espace vectoriel. Une famille B =(v1, v2, . . . , vn) de vecteurs de E est une base de E si B est une

famille libre et génératrice.

Théorème 2.
Soit B = (v1, v2, . . . , vn) une base de l’espace vectoriel E. Tout vecteur v ∈ E s’exprime de façon unique

comme combinaison linéaire d’éléments de B. Autrement dit, il existe des scalaires λ1, . . . , λn ∈ K uniques

tels que :

v =λ1v1 +λ2v2 +···+λnvn.

Remarque.
1. (λ1, . . . , λn) s’appellent les coordonnées du vecteur v dans la base B.

2. Il faut observer que pour une base B = (v1, v2, . . . , vn) on introduit un ordre sur les vecteurs. Bien sûr, si on
permutait les vecteurs on obtiendrait toujours une base, mais il faudrait aussi permuter les coordonnées.
3. Notez que l’application
φ : Kn → E

(λ1, λ2, . . . , λn) 7→ λ1v1 +λ2v2 +···+λnvn


DIMENSION FINIE 3. BASE 241

est un isomorphisme de l’espace vectoriel Kn vers l’espace vectoriel E.

Preuve du théorème 2.
• Par définition, B est une famille génératrice de E, donc pour tout v ∈ E il existe λ1, . . . , λn ∈ K tels que

v =λ1v1 +λ2v2 +···+λnvn.

Cela prouve la partie existence.


• Il reste à montrer l’unicité des λ1, λ2, . . . , λn. Soient µ1, µ2, . . . , µn ∈ K d’autres scalaires tels que v =

µ1v1+µ2v2+···+µnvn. Alors, par différence on a : (λ1−µ1)v1+(λ2−µ2)v2+···+(λn−µn)vn = 0. Comme B = {v1, . . . , vn} est

une famille libre, ceci implique λ1 −µ1 = 0, λ2 −µ2 = 0, . . . , λn −µn = 0 et donc λ1 =µ1, λ2 =µ2, . . . , λn =µn.

3.2. Exemples
Exemple 10.

1. Soient les vecteurs e1 = 10 et e2 = 01. Alors (e1, e2) est une base de R2, appelée base canonique de R2.

2. Soient les vecteurs v1 = 31 et v2 = 12. Alors (v1, v2) forment aussi une base de R2.

y e2 v = λ1 v1 + λ2 v2

e3

λ2 v2

v2
λ1 v1
e2 e2
v1

e1 xe1 e1
DIMENSION FINIE 3. BASE 242

€1 Š €0 Š €0 Š
3. De même dans R3, si e1 = 00 , e2 = 01 , e3 = 1 0 , alors (e1, e2, e3) forment la base canonique de R3. Exemple

11.

3
€ 1Š € 2Š € 3Š B .

Soient v1 = 21 , v2 = 90 et v3 = 43 . Montrons que la famille =(v1, v2, v3) est une base de R Dans les deux
premiers points, nous ramenons le problème à l’étude d’un système linéaire.

1. Montrons d’abord que B est une famille génératrice de R3. Soit v = aa12 un vecteur quelconque de R3.
∈ a3

On cherche λ1, λ2, λ3R tels que

v =λ1v1 +λ2v2 +λ3v3.


Il Ceci se reformule comme suit :

a1 1 2 3 λ1 + 2λ2 + 3λ3 

a2=λ1 2+λ2 9+λ3 3=2λ1 + 9λ2 + 3λ3 . a3 1 0 4 λ1 + 4λ3


Ceci conduit au système suivant :
 λ1 + 2λ2 + 3λ3 = a1 
2λ1 + 9λ2 + 3λ3 = a2 (S)
 λ1 + 4λ3 = a3.
nous restera à montrer que ce système a une solution λ1, λ2, λ3.
2. Pour montrer que B est une famille libre, il faut montrer que l’unique solution de

λ1v1 +λ2v2 +λ3v3 = 0


est
λ1 =λ2 =λ3 = 0.
Ceci équivaut à montrer que le système
 λ1 + 2λ2 + 3λ3 = 0 (S’)
 + 9λ2 + 3λ3 + 4λ3 = 0
2λ1 = 0
 λ1

a une unique solution


λ1 =λ2 =λ3 = 0.
3. Nous pouvons maintenant répondre à la question sans explicitement résoudre les systèmes.
Remarquons que les deux systèmes ont la même matrice de coefficients. On peut donc montrer
simultanément que B est une famille génératrice et une famille libre de R 3 en montrant que la matrice des
coefficients est inversible. En effet, si la matrice des coefficients est inversible, alors (S) admet une solution
(λ1, λ2, λ3) quel que soit (a1, a2, a3) et d’autre part (S’) admet la seule solution (0, 0, 0).
Cette matrice est

1 2 3
9
A =2 0 3 .
1 4
DIMENSION FINIE 3. BASE 243

Pour montrer qu’elle est inversible, on peut calculer son inverse ou seulement son déterminant qui vaut det
A = −1 (le déterminant étant non nul la matrice est inversible).

Conclusion : B est une famille libre et génératrice ; c’est une base de R 3.


Exemple 12.

Les vecteurs de Kn :

1 0 0

0 1 en = 0... 

e1 = ...  e2 = ...  . . .

0 0 1

forment une base de Kn, appelée la base canonique de Kn.

Remarque.

L’exemple 11 se généralise de la façon suivante. Pour montrer que n vecteurs de Rn forment une base de

Rn, il suffit de montrer la chose suivante : la matrice A constituée des composantes de ces vecteurs (chaque
vecteur formant une colonne de A) est inversible.

Application : montrer que les vecteurs

1 1  1
0 2 2

v1 =0...  v2 =0...  . . . vn = 3... 


0 0 n

forment aussi une base de Rn.

Voici quelques autres exemples :

Exemple 13.

1. La base canonique de Rn[X ] est B =(1, X , X 2, . . . , X n). Attention, il y a n + 1 vecteurs !

2. Voici une autre base de Rn[X ] : (1, 1 + X , 1 + X + X 2, . . . , 1 + X + X 2 +···+ X n).


3. L’espace vectoriel M2(R) des matrices 2 × 2 admet une base formée des vecteurs :

1 0 0 1 0 0 0 0

M1 = 0 0 M2 = 0 0 M3 = 1 0 M4 = 0 1 .

a b
En effet, n’importe quelle matrice M = c d de M2(R) se décompose de manière unique en

M = aM1 + bM2 + cM3 + dM4.

4. C’est un bon exercice de prouver que les quatre matrices suivantes forment aussi une base de M2(R) :
DIMENSION FINIE 3. BASE 244

1 0 1 0 0 1 1 3

M 1′ = 1 0 M 2′ = 0 1 M 3′ = 1 0 M 4′ = 4 2 .

3.3. Existence d’une base


Voyons maintenant un théorème d’existence d’une base finie. Dans la suite, les espaces vectoriels sont supposés
non réduits à {0}.

Théorème 3 (Théorème d’existence d’une base).


Tout espace vectoriel admettant une famille finie génératrice admet une base.

3.4. Théorème de la base incomplète


Une version importante et plus générale de ce qui précède est le théorème suivant :
Théorème 4 (Théorème de la base incomplète).
Soit E un K-espace vectoriel admettant une famille génératrice finie.

1. Toute famille libre L peut être complétée en une base. C’est-à-dire qu’il existe une famille F telle que L

∪F soit une famille libre et génératrice de E.

2. De toute famille génératrice G on peut extraire une base de E. C’est-à-dire qu’il existe une famille B ⊂ G

telle que B soit une famille libre et génératrice de E.

3.5. Preuves
Les deux théorèmes précédents sont la conséquence d’un résultat encore plus général :
Théorème 5.
Soit G une famille génératrice finie de E et L une famille libre de E. Alors il existe une famille F de G telle

que L ∪F soit une base de E.

Le théorème 4 de la base incomplète se déduit du théorème 5 ainsi :

1. On sait qu’il existe une famille génératrice de E : notons-la G. On applique le théorème 5 avec ce L et ce G.

2. On applique le théorème 5 avec L =∅ et la famille G de l’énoncé.

En particulier, le théorème 3 d’existence d’une base se démontre comme le point (2) ci-dessus avec L =∅ et G

une famille génératrice de E.

3.6. Preuves (suite)


Nous avons : Théorème 5 =⇒ Théorème 4 =⇒ Théorème 3.
DIMENSION FINIE 3. BASE 245

Il nous reste donc à prouver le théorème 5. La démonstration que nous en donnons est un algorithme.

Démonstration.
• Étape 0. Si L est une famille génératrice de E, on pose F =∅ et c’est fini puisque L est une famille génératrice

et libre, donc une base. Sinon on passe à l’étape suivante.

• Étape 1. Comme L n’est pas une famille génératrice, alors il existe au moins un élément g1 de G qui n’est pas

combinaison linéaire des éléments de L . (En effet, par l’absurde, si tous les éléments de G sont dans Vect L ,

alors L serait aussi une famille génératrice.) On pose L1 = L ∪{g1}. Alors la famille L1 vérifie les propriétés

suivantes :

(i) LL( L1 ⊂ E : la famille L1 est strictement plus grande queL L .

(ii) 1 est une famille libre. (En effet, si 1 n’était pas une famille libre, alors une combinaison linéaire nulle
impliquerait que g1 ∈ Vect L .)

On recommence le même raisonnement à partir de L1 : si L1 est une famille génératrice de E, alors on pose F =

{g1} et on s’arrête. Sinon on passe à l’étape suivante.

• Étape 2. Il existe au moins un élément g2 de G qui n’est pas combinaison linéaire des éléments de L1. Alors la

famille L2 = L1 ∪{g2} = L ∪{g1, g2} est strictement plus grande que L1 et est encore une famille libre.

Si L2 est une famille génératrice, on pose F = {g1, g2} et c’est fini. Sinon on passe à l’étape d’après.

• ...
L’algorithme consiste donc à construire une suite, strictement croissante pour l’inclusion, de familles libres,

où, sisorte queLk−L1 n’engendre pask = Lk−1 ∪{gk}Ereste une famille libre., alors Lk est construite partir de Lk−1 en lui
ajoutant un vecteur gk de G, de

• L’algorithme se termine. Comme la famille G est finie, le processus s’arrête en moins d’étapes qu’il y a

d’éléments dans G. Notez que, comme G est une famille génératrice, dans le pire des cas on peut être amené

à prendre F = G.

• L’algorithme est correct. Lorsque l’algorithme s’arrête, disons à l’étape s : on a Ls = L ∪ F où F =

{g1, . . . , gs}. Par construction, Ls est une famille finie, libre et aussi génératrice (car c’est la condition d’arrêt).

Donc L ∪F est une base de E.


DIMENSION FINIE 3. BASE 246

Exemple 14.
Soit R[X ] le R-espace vectoriel des polynômes réels et E le sous-espace de R[X ] engendré par la famille G = {P1,
P2, P3, P4, P5} définie par :

P1(X )= 1 P2(X )= X P3(X )= X + 1 P4(X )= 1 + X 3 P5(X )= X − X 3

Partons de L =∅ et cherchons F ⊂ G telle que F soit une base de E.

• Étape 0. Comme L n’est pas génératrice (vu que L =∅), on passe à l’étape suivante.

• Étape 1. On pose L1. Comme P1 est non nul, L1 est une famille libre.

• Étape 2. Considérons 2. Comme les éléments P1 et P2 sont

=
linéairement indépendants, L2 {P1, P2} est une famille libre.

• Étape 3. Considérons P3 : ce vecteur est combinaison linéaire des vecteurs P1 et P2 car P3(X )= X + 1 = P1(X )+
P2(X ) donc {P1, P2, P3} est une famille liée. Considérons alors P4. Un calcul rapide prouve que les vecteurs P1,

=
P2 et P4 sont linéairement indépendants. Alors L3 {P1, P2, P4} est une famille libre. Il ne reste que le vecteur P5

à considérer. Il s’agit, pour pouvoir conclure, d’étudier l’indépendance linéaire des vecteurs P1, P2, P4, P5. Or
un calcul rapide montre l’égalité

P1 + P2 − P4 − P5 = 0,
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 247

ce qui prouve que la famille {P1, P2, P4, P5} est liée. Donc avec les notations de l’algorithme, s = 3 et L3 = {P1, P2,

P4} est une base de E.

Mini-exercices.

1. Trouver toutes les façons d’obtenir une base de R 2 avec les vecteurs suivants : v1 = −−13, v2 = 33, v3 = 00, v4 = 20,

v5 = 26.

€ 2Š € 2Š € 1Š € 1Š
2. Montrer que la famille {v1, v2, v3, v4} des vecteurs v1 = −13 , v2 = −31 , v3 = −24 , v4 = −11 est

une famille génératrice du sous-espace vectoriel d’équation 2x − y + z = 0 de R3. En extraire une base.

3. Déterminer une base du sous-espace vectoriel E1 de R3 d’équation x + 3y − 2z = 0. Compléter cette base en

une base de R3. Idem avec E2 vérifiant les deux équations x + 3y − 2z = 0 et y = z.

4. Donner une base de l’espace vectoriel des matrices ∈ 3 × 3 ayant une diagonale nulle. Idem avec l’espace′

vectoriel des polynômes P Rn[X ] vérifiant P(0)= 0, P (0)= 0.

4. Dimension d’un espace vectoriel

4.1. Définition

Définition 5.
Un K-espace vectoriel E admettant une base ayant un nombre fini d’éléments est dit de dimension finie.

Par le théorème 3 d’existence d’une base, c’est équivalent à l’existence d’une famille finie génératrice. On va
pouvoir parler de la dimension d’un espace vectoriel grâce au théorème suivant :
Théorème 6 (Théorème de la dimension).
Toutes les bases d’un espace vectoriel E de dimension finie ont le même nombre d’éléments.

Nous détaillerons la preuve un peu plus loin.


Définition 6.
La dimension d’un espace vectoriel de dimension finie E, notée dim E, est par définition le nombre
d’éléments d’une base de E.

Méthodologie. Pour déterminer la dimension d’un espace vectoriel, il suffit de trouver une base de E (une famille
à la fois libre et génératrice) : le cardinal (nombre d’éléments) de cette famille donne la dimension de E. Le
théorème 6 de la dimension prouve que même si on choisissait une base différente alors ces deux bases auraient
le même nombre d’éléments.
Convention. On convient d’attribuer à l’espace vectoriel {0} la dimension 0.
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 248

4.2. Exemples
Exemple 15.

1. La base canonique de R2 est 1


0 , 0
. La dimension de R2 est donc 2.
1

2 1
2. Les vecteurs 1 , 1 forment aussi une base de R 2, et illustrent qu’une autre base contient le même
nombre d’éléments.
3. Plus généralement, Kn est de dimension n, car par exemple sa base canonique (e1, e2, . . . , en) contient n
éléments.

4. dim Rn[X ]= n + 1 car une base de Rn[X ] est (1, X , X 2, . . . , X n), qui contient n + 1 éléments.
Exemple 16.
Les espaces vectoriels suivants ne sont pas de dimension finie :
• R[X ] : l’espace vectoriel de tous les polynômes, • F(R, R) : l’espace vectoriel des
fonctions de R dans R,

• S = F(N, R) : l’espace vectoriel des suites réelles.

Exemple 17.
Nous avons vu que l’ensemble des solutions d’un système d’équations linéaires homogène est un espace
vectoriel. On considère par exemple le système
 2x1 + 2x2 − x3 + x5 =0
 + x5 =0
 −x1 − x2 + 2x3 − 3x4 x1 + x2 − 2x3 − x5 = 0
= 0.
 + x5

 x3 + x4
On vérifie que la solution générale de ce système est
x1 = −s − t x2 = s x3 = −t x4 = 0 x5 = t .

Donc les vecteurs solutions s’écrivent sous la forme


‚ xx21 Œ −ss−t ‚−ss Œ −0t ‚−11Œ ‚−01Œ x34 = −0t = 00

+ −0t = s 00 +t −01 .x
x5 t 0 t 0 1

Ceci montre que les vecteurs


‚ − 1 1Œ ‚−01Œ v1 = 00 et v2

= −01

0 1
engendrent l’espace des solutions du système. D’autre part, on vérifie que v1 et v2 sont linéairement
indépendants. Donc (v1, v2) est une base de l’espace des solutions du système. Ceci montre que cet espace
vectoriel est de dimension 2.

4.3. Compléments
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 249

Lorsqu’un espace vectoriel est de dimension finie, le fait de connaître sa dimension est une information très riche
; les propriétés suivantes montrent comment exploiter cette information. Le schéma de preuve sera : Lemme 1
=⇒ Proposition 5 =⇒ Théorème 6.

Lemme 1.
Soit E un espace vectoriel. Soit L une famille libre et soit G une famille génératrice finie de E. Alors Card L ⩽

Card G.

Ce lemme implique le résultat important :


Proposition 5.
Soit E un K-espace vectoriel admettant une base ayant n éléments. Alors :

1. Toute famille libre de E a au plus n éléments.


2. Toute famille génératrice de E a au moins n éléments.

En effet, soit B une base de E telle que Card B = n.

1. On applique le lemme 1 à la famille B considérée génératrice ; alors une famille libre L vérifie Card L ⩽ Card B

= n.

2. On applique le lemme 1 à la famille B considérée maintenant comme une famille libre, alors une famille

génératrice G vérifie n = Card B ⩽ Card G.

Cette proposition impliquera bien le théorème 6 de la dimension :


Corollaire 1.
Si E est un espace vectoriel admettant une base ayant n éléments, alors toute base de E possède n
éléments.

La preuve du corollaire (et donc du théorème 6 de la dimension) est la suivante : par la proposition 5, si B est une

base quelconque de E, alors B est à la fois une famille libre et génératrice, donc possède à la fois au plus n

éléments et au moins n éléments, donc exactement n éléments.

Il reste à énoncer un résultat important et très utile :

Théorème 7.
Soient E un K-espace vectoriel de dimension n, et F = (v1, . . . , vn) une famille de n vecteurs de E. Il y a

équivalence entre :

(i) F est une base de E,

(ii) F est une famille libre de E,

(iii) F est une famille génératrice de E.


DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 250

La preuve sera une conséquence du théorème 6 de la dimension et du théorème 4 de la base incomplète.


Autrement dit, lorsque le nombre de vecteurs considéré est exactement égal à la dimension de l’espace
vectoriel, l’une des deux conditions – être libre ou bien génératrice – suffit pour que ces vecteurs déterminent
une base de E.

Démonstration.
• Les implications (i) =⇒ (ii) et (i) =⇒ (iii) découlent de la définition d’une base.

• Voici la preuve de (ii) =⇒ (i).

Si F est une famille libre ayant n éléments, alors par le théorème de la base incomplète (théorème 4) il existe

une famille F′ telle que F ∪F′ soit une base de E. D’une part F ∪F′ est une base de E qui est de dimension n,

donc par le théorème 6, Card n. Mais d’autre part Card

Card F + Card F′ (par l’algorithme du théorème 4) et par hypothèse Card F = n. Donc Card F′ = 0, ce qui

implique que F′ =∅ et donc que F est déjà une base de E.

• Voici la preuve de (iii) =⇒ (i).

Par hypothèse, F est cette fois une famille génératrice. Toujours par le théorème 4, on peut extraire de cette

famille une base B ⊂ F. Puis par le théorème 6, Card B = n, donc n = Card B ⩽ Card F = n.

Donc B = F et F est bien une base.

Exemple 18.
Pour quelles valeurs de t ∈ R les vecteurs (v1, v2, v3) suivants forment une base de R3 ?
1 v1 1 v2 1 v3 =1

=1 =3 t

4 t
• Nous avons une famille de 3 vecteurs dans l’espace R 3 de dimension 3. Donc pour montrer que la famille (v1,
v2, v3) est une base, par le théorème 7, il suffit de montrer que la famille est libre ou bien de montrer qu’elle
est génératrice. Dans la pratique, il est souvent plus facile de vérifier qu’une famille est libre.
• À quelle condition la famille {v1, v2, v3} est libre ? Soient λ1, λ2, λ3 ∈ R tels que λ1v1 +λ2v2 +λ3v3 = 0. Cela implique

le système

 λ1 +λ2 +λ3 = 0 λ1 + 3λ2 +λ3 =

0.

 4λ1 + tλ2 + tλ3 = 0

Ce système est équivalent à :


DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 251

 λ1 +λ2 +λ3 = 0  λ1 +λ3 = 0

2λ2 = 0 ⇐⇒ λ2 = 0

 
(t − 4)λ2 +(t − 4)λ3 = 0 (t − 4)λ3 = 0

• Il est clair que si t ≠ 4, alors la seule solution est (λ1, λ2, λ3) = (0, 0, 0) et donc {v1, v2, v3} est une famille libre. Si

t = 4, alors par exemple (λ1, λ2, λ3) = (1, 0, −1) est une solution non nulle, donc la famille n’est pas libre.

• Conclusion : si t ̸= 4 la famille est libre, donc par le théorème 7 la famille (v1, v2, v3) est en plus génératrice,

donc c’est une base de R3. Si t = 4, la famille n’est pas libre et n’est donc pas une base.

4.4. Preuve
Il nous reste la preuve du lemme 1. La démonstration est délicate et hors-programme.

Démonstration. La preuve de ce lemme se fait en raisonnant par récurrence.


On démontre par récurrence que, pour tout n ⩾ 1, la propriété suivante est vraie : « Dans un espace vectoriel
engendré par n vecteurs, toute famille ayant n + 1 éléments est liée. »
Initialisation. On vérifie que la propriété est vraie pour n = 1. Soit E un espace vectoriel engendré par un vecteur

noté g1, et soit {v1, v2} une famille de E ayant deux éléments. Les vecteurs v1 et v2 peuvent s’écrire comme

combinaisons linéaires du vecteur g1 ; autrement dit, il existe des scalaires α1, α2 tels que v1 =α1g1 et v2 =α2g1, ce

qui donne la relation : α2v1 −α1v2 = 0E. En supposant v2 non nul (sinon il est évident que {v1, v2} est liée), le scalaire

α2 est donc non nul. On a trouvé une combinaison linéaire nulle des vecteurs v1, v2, avec des coefficients non tous

nuls. Donc la famille {v1, v2} est liée.

Hérédité. On démontre maintenant que si la propriété est vraie au rang n − 1 (n ⩾ 2), alors elle vraie au rang n.

Soit E un espace vectoriel engendré par n vecteurs notés g1, g2, . . . , gn, et soit {v1, v2, . . . , vn, vn+1} une famille de

E ayant n + 1 éléments. Tout vecteur vj, pour j = 1, 2, . . . , n + 1, est combinaison linéaire de g1, g2, . . . , gn, donc il

existe des scalaires α1j , α2j , . . . , αnj tels que :

vj =α1j g1 +α2j g2 +···+αnj gn.

Remarque. On est contraint d’utiliser ici deux indices i, j pour les scalaires (attention ! j n’est pas un exposant) car
deux informations sont nécessaires : l’indice j indique qu’il s’agit de la décomposition du vecteur vj, et i indique à
quel vecteur de la famille génératrice est associé ce coefficient.

En particulier, pour j = n + 1, le vecteur vn+1 s’écrit :

vn+1 =α1n+1g1 +α2n+1g2 +···+αnn+1gn.


DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 252

Si vn+1 est nul, c’est terminé, la famille est liée ; sinon, vn+1 est non nul, et au moins un des coefficients αnj+1 est non
nul. On suppose, pour alléger l’écriture, que αnn+1 est non nul (sinon il suffit de changer l’ordre des vecteurs). On
construit une nouvelle famille de n vecteurs de E de telle sorte que ces vecteurs soient combinaisons linéaires de
g1, g2, . . . , gn−1, c’est-à-dire appartiennent au sous-espace engendré par

{g1, g2, . . . , gn−1}. Pour j = 1, 2, . . . , n, on définit wj par :

wj =αnn+1vj −αnj vn+1 =X(αnn+1αkj −αnj αnk+1)gk.

k=1

Le coefficient de gn est nul. Donc wj est bien combinaison linéaire de g1, g2, . . . , gn−1. On a n vecteurs qui

appartiennent à un espace vectoriel engendré par n − 1 vecteurs ; on peut appliquer l’hypothèse de récurrence :

la famille {w1, w2, . . . , wn} est liée. Par conséquent, il existe des scalaires non tous nuls λ1, λ2, . . ., λn tels que

λ1w1 +λ2w2 +···+λnwn = 0.


DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 253

En remplaçant les wj par leur expression en fonction des vecteurs vi, on obtient :

αnn+1λ1v1 +αnn+1λ2v2 +···+αnn+1λnvn −(λ1α1n +···+λnαnn)vn+1 = 0E

Le coefficient αnn+1 a été supposé non nul et au moins un des scalaires λ1, λ2, . . . , λn est non nul ; on a donc une
combinaison linéaire nulle des vecteurs v1, v2, . . . , vn, vn+1 avec des coefficients qui ne sont pas tous nuls, ce qui
prouve que ces vecteurs forment une famille liée.

Conclusion. La démonstration par récurrence est ainsi achevée.

Mini-exercices.
Dire si les assertions suivantes sont vraies ou fausses. Justifier votre réponse par un résultat du cours ou un
contre-exemple :

1. Une famille de p ⩾ n vecteurs dans un espace vectoriel de dimension n est génératrice.

2. Une famille de p > n vecteurs dans un espace vectoriel de dimension n est liée.
3. Une famille de p < n vecteurs dans un espace vectoriel de dimension n est libre.

4. Une famille génératrice de p ⩽ n vecteurs dans un espace vectoriel de dimension n est libre.

5. Une famille de p ≠ n vecteurs dans un espace vectoriel de dimension n n’est pas une base.

6. Toute famille libre à p éléments d’un espace vectoriel de dimension n se complète par une famille ayant
exactement n − p éléments en une base de E.

5. Dimension des sous-espaces vectoriels


Tout sous-espace vectoriel F d’un K-espace vectoriel E étant lui même un K-espace vectoriel, la question est de
savoir s’il est de dimension finie ou s’il ne l’est pas.
Prenons l’exemple de l’espace vectoriel E = F(R, R) des fonctions de R dans R :

• il contient le sous-espace vectoriel F1 = Rn[X ] des (fonctions) polynômes de degré ⩽ n, qui est de dimension
finie ;
• et aussi le sous-espace vectoriel F2 = R[X ] de l’ensemble des (fonctions) polynômes, qui lui est de dimension
infinie.

5.1. Dimension d’un sous-espace vectoriel


Nous allons voir par contre que lorsque E est de dimension finie alors F aussi.
Théorème 8.
Soit E un K-espace vectoriel de dimension finie.

1. Alors tout sous-espace vectoriel F de E est de dimension finie ;

2. dim F ⩽ dim E ;
DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 254

3. F = E ⇐⇒ dim F = dim E.

Démonstration.
• Soit E un espace vectoriel de dimension n et soit F un sous-espace vectoriel de E. Si F = {0} il n’y a rien à

montrer. On suppose donc F ≠ {0} et soit v un élément non nul de F. La famille {v} est une famille libre

de F, donc F contient des familles libres. Toute famille libre d’éléments de F étant une famille libre

d’éléments de E (voir la définition des familles libres), alors comme E est de dimension n, toutes les familles

libres de F ont au plus n éléments.

• On considère l’ensemble K des entiers k tels qu’il existe une famille libre de F ayant k éléments :

©
K =¦k ∈ N | ∃{v1, v2, . . . , vk} ⊂ F et {v1, v2, . . . , vk} est une famille libre de F

Cet ensemble K est non vide (car 1 ∈ K) ; K est un sous-ensemble borné de N (puisque tout élément de

K est compris entre 1 et n) donc K admet un maximum. Notons p ce maximum et soit {v1, v2, . . . , vp} une

famille libre de F ayant p éléments.

• Montrons que {v1, v2, . . . , vp} est aussi génératrice de F. Par l’absurde, s’il existe w un élément de F qui n’est

pas dans Vect(v1, . . . , vp), alors la famille {v1, . . . , vp, w} ne peut pas être libre (sinon p ne serait pas le

maximum de K). La famille {v1, . . . , vp, w} est donc liée, mais alors la relation de dépendance linéaire implique

que w ∈ Vect(v1, . . . , vp), ce qui est une contradiction.

Conclusion : (v1, . . . , vp) est une famille libre et génératrice, donc est une base de F.
• On a ainsi démontré simultanément que :
— F est de dimension finie (puisque (v1, v2, . . . , vp) est une base de F).
— Ainsi dim F = p, donc dim F ⩽ dim E (puisque toute famille libre de F a au plus n éléments).
— De plus, lorsque p = n, le p-uplet (v1, v2, . . . , vp), qui est une base de F, est aussi une base de E (car
{v1, v2, . . . , vp} est alors une famille libre de E ayant exactement n éléments, donc est une base de E). Tout

élément de E s’écrit comme une combinaison linéaire de v1, v2, . . . , vp, d’où E = F.

5.2. Exemples
Exemple 19.
Si E est un K-espace vectoriel de dimension 2, les sous-espaces vectoriels de E sont :
• soit de dimension 0 : c’est alors le sous-espace {0} ;
DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 255

• soit de dimension 1 : ce sont les droites vectorielles, c’est-à-dire les sous-espaces Ku = Vect{u} engendrés par

les vecteurs non nuls u de E ;

• soit de dimension 2 : c’est alors l’espace E tout entier.

Vocabulaire. Plus généralement, dans un K-espace vectoriel E de dimension n (n ⩾ 2), tout sous-espace vectoriel
de E de dimension 1 est appelé droite vectorielle de E et tout sous-espace vectoriel de E de dimension 2 est
appelé plan vectoriel de E. Tout sous-espace vectoriel de E de dimension n − 1 est appelé hyperplan de E. Pour n
= 3, un hyperplan est un plan vectoriel ; pour n = 2, un hyperplan est une droite vectorielle.

Le théorème 8 précédent permet de déduire le corollaire suivant :


Corollaire 2.
Soit E un K-espace vectoriel. Soient F et G deux sous-espaces vectoriels de E. On suppose que F est de
dimension finie et que G ⊂ F. Alors :

F = G ⇐⇒ dim F = dim G

Autrement dit, sachant qu’un sous-espace est inclus dans un autre, alors pour montrer qu’ils sont égaux il suffit
de montrer l’égalité des dimensions.
Exemple 20.
Deux droites vectorielles F et G sont soit égales, soit d’intersection réduite au vecteur nul.

Exemple 21.
Soient les sous-espaces vectoriels de R3 suivants :

€ x yŠ € 1Š € Š
F= z ∈ R3 | 2x − 3y + z = 0 et G = Vect(u, v) où u = 11 et v = − 11
2
.

Est-ce que F = G ?
1. On remarque que les vecteurs u et v ne sont pas colinéaires, donc G est de dimension 2, et de plus ils
appartiennent à F, donc G est contenu dans F.
2. Pour trouver la dimension de F, on pourrait déterminer une base de F et on montrerait alors que la dimension
de F est 2. Mais il est plus judicieux ici de remarquer que F est contenu strictement dans R3

3
€ 1Š n’est pas dans F), donc dim F < dim R3 = 3 ; mais puisque F contient
(par exemple le vecteur 0 de R
0

G alors dim F ⩾ dim G = 2, donc la dimension de F ne peut être que 2.

3. On a donc démontré que G ⊂ F et que dim G = dim F, ce qui entraîne G = F.

5.3. Théorème des quatre dimensions

Théorème 9 (Théorème des quatre dimensions).


Soient E un espace vectoriel de dimension finie et F, G des sous-espaces vectoriels de E. Alors :
DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 256

dim(F + G)= dim F + dim G − dim(F ∩ G)

Corollaire 3.
Si E = F ⊕ G, alors dim E = dim F + dim G.

Exemple 22.
Dans un espace vectoriel E de dimension 6, on considère deux sous-espaces F et G avec dim F = 3 et dim G = 4.
Que peut-on dire de F ∩ G ? de F + G ? Peut-on avoir F ⊕ G = E ?

• F ∩ G est un sous-espace vectoriel inclus dans F, donc dim(F ∩ G)⩽ dim F = 3. Donc les dimensions possibles

pour F ∩ G sont pour l’instant 0, 1, 2, 3.

• F+G est un sous-espace vectoriel contenant G et inclus dans E, donc 4 = dim G ⩽ dim(F+G)⩽ dim E = 6.
Donc les dimensions possibles pour F + G sont 4, 5, 6.
• Le théorème 9 des quatre dimensions nous donne la relation : dim(F ∩G)= dim F +dim G−dim(F +G)=

dim(F + G). Comme F + G est de dimension 4, 5 ou 6, alors la dimension de

• Conclusion : les dimensions possibles pour F + G sont 4, 5 ou 6 ; les dimensions correspondantes pour F ∩ G

sont alors 3, 2 ou 1. Dans tous les cas, F ∩ G ̸= {0} et en particulier F et G ne sont jamais en somme directe

dans E.

La méthode de la preuve du théorème 9 des quatre dimensions implique aussi :


Corollaire 4.
Tout sous-espace vectoriel F d’un espace vectoriel E de dimension finie admet un supplémentaire.

Preuve du théorème 9.
• Notez l’analogie de la formule avec la formule pour les ensembles finis :

Card(A∪ B)= Card A+ Card B − Card(A∩ B).

• Nous allons partir d’une baseen une base BF = {u1, . . . , up,BvpF+∩1G, . . . ,= {vuq1}, . . . ,de Fu. On complète
ensuitep} de F ∩ G. On commence par compléterBF∩G en une base BBGF∩=G

{u1, . . . , up, wp+1, . . . , wr} de G.

• Nous allons maintenant montrer que la famille

{u1, . . . , up, vp+1, . . . , vq, wp+1, . . . , wr}


DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 257

est une base de F + G. Il est tout d’abord clair que c’est une famille génératrice de F + G (car BF est une famille

génératrice de F et BG est une famille génératrice de G).

• Montrons que cette famille est libre. Soit une combinaison linéaire nulle :
pqrX X X
α iui + βjvj + γkwk = 0 (1)
i=1 j=p+1 k=p+1

On pose u u, v
i i v, w
j j wk. Alors d’une part u + v ∈ F (car BF est une base de
k

F) mais comme l’équation (1) équivaut à u + v + w = 0, alors u + v = −w ∈ G (car w ∈ G). Maintenant u + v ∈

Pq
F ∩ G et aussi bien sûr u ∈ F ∩ G, donc v = j=p+1 βjvj ∈ F ∩ G. Cela implique βj = 0 pour tout j (car les {vj}

complètent la base de F ∩ G).

Pp
La combinaison linéaire nulle (1) devient i =1 0. Or BG est une base de G, donc αi = 0 et

=
γk = 0 pour tout i, k. Ainsi BF+G {u1, . . . , up, vp+1, . . . , vq, wp+1, . . . , wr} est une base de F + G.

• Il ne reste plus qu’à compter le nombre de vecteurs de chaque base :dim F = Card BF = q, dim G = Card BG = r,
dim(F + G)= Card BF+G =dimq +Fr −∩ pG. Ce qui prouve bien= Card BF∩G = p,

dim(F + G)= dim F + dim G − dim(F ∩ G).

Mini-exercices.

Š € 6 ŠŠ
1. Soient F = Vect €€231Š , € 3 ŠŠ et G = Vect €€−707 , 11 5 . Montrer que F = G.

€€ Š € t ŠŠ €1 Š
2. Dans R3, on considère F = Vect − , 11 , G = Vect 1 1 . Calculer les dimensions de F, G, F ∩G, F +G en

fonction de t ∈ R.

3. Dans un espace vectoriel de dimension 7, on considère des sous-espaces F et G vérifiant dim F = 3 et dim G
⩽ 2. Que peut-on dire pour dim(F ∩ G) ? Et pour dim(F + G) ?

4. Dans un espace vectoriel E de dimension finie, montrer l’équivalence entre : (i) F ⊕ G = E ; (ii) F + G = E et dim

F + dim G = dim E ; (iii) F ∩ G = {0E} et dim F + dim G = dim E.

5. Soit H un hyperplan dans un espace vectoriel de dimension finie E. Soit v ∈ E \ H. Montrer que H et Vect(v)

sont des sous-espaces supplémentaires dans E.


DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 258

Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• mixé, révisé et complété par Arnaud Bodin. Relu par Vianney Combet.
Chapitre

Matrices et
applications
linéaires

12
VidØo ■ partie 1. Rang d’une famille de vecteurs
VidØo ■ partie 2. Applications linØaires en dimension finie
VidØo ■ partie 3. Matrice d’une application linØaire
VidØo ■ partie 4. Changement de bases
Fiche d’exercices ‡ Matrice d’une application linØaire

Ce chapitre est l’aboutissement de toutes les notions d’algèbre linéaire vues jusqu’ici : espaces vectoriels,
dimension, applications linéaires, matrices. Nous allons voir que dans le cas des espaces vectoriels de dimension
finie, l’étude des applications linéaires se ramène à l’étude des matrices, ce qui facilite les calculs.

1. Rang d’une famille de vecteurs


Le rang d’une famille de vecteurs est la dimension du plus petit sous-espace vectoriel contenant tous ces
vecteurs.

1.1. Définition
Soient E un K-espace vectoriel et {v1, . . . , vp} une famille finie de vecteurs de E. Le sous-espace vectoriel

Vect(v1, . . . , vp) engendré par {v1, . . . , vp} étant de dimension finie, on peut donc donner la définition suivante :

Définition 1 (Rang d’une famille finie de vecteurs).


Soit E un K-espace vectoriel et soit {v1, . . . , vp} une famille finie de vecteurs de E. Le rang de la famille

Vect
{v1, . . . , vp} est la dimension du sous-espace vectoriel (v1, . . . , vp) engendré par les vecteurs v1, . . . , vp.

Autrement dit :

rg(v1, . . . , vp)= dim Vect(v1, . . . , vp)

Calculer le rang d’une famille de vecteurs n’est pas toujours évident, cependant il y a des inégalités qui découlent
directement de la définition.
Proposition 1.
Soient E un K-espace vectoriel et {v1, . . . , vp} une famille de p vecteurs de E. Alors :
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 261

1. 0 ⩽ rg(v1, . . . , vp)⩽ p : le rang est inférieur ou égal au nombre d’éléments dans la famille.

2. Si E est de dimension finie alors rg(v1, . . . , vp)⩽ dim E : le rang est inférieur ou égal à la dimension de
l’espace ambiant E.
Remarque.
• Le rang d’une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
• Le rang d’une famille {v1, . . . , vp} vaut p si et seulement si la famille {v1, . . . , vp} est libre.

Exemple 1.
Quel est le rang de la famille {v1, v2, v3} suivante dans l’espace vectoriel R4 ?
1 0 −1

0 v1 1 v2
 1  v 3 = 0
=1 =1

0 1

1
• Ce sont des vecteurs de R4 donc rg(v1, v2, v3)⩽ 4.

• Mais comme il n’y a que 3 vecteurs alors rg(v1, v2, v3)⩽ 3.

• Le vecteur v1 est non nul donc rg(v1, v2, v3)⩾ 1.


• Il est clair que v1 et v2 sont linéairement indépendants donc rg(v1, v2, v3)⩾ rg(v1, v2)= 2.

Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1, v2, v3} est libre ou liée en résolvant le

système linéaire λ1v1 +λ2v2 +λ3v3 = 0. On trouve v1 − v2 + v3 = 0. La famille est donc liée.

Ainsi Vect(v1, v2, v3)= Vect(v1, v2), donc rg(v1, v2, v3)= dim Vect(v1, v2, v3)= 2.

1.2. Rang d’une matrice

Une matrice peut être vue comme une juxtaposition de vecteurs colonnes.

Définition 2.
On définit le rang d’une matrice comme étant le rang de ses vecteurs colonnes.

Exemple 2.
Le rang de la matrice
1
1 2 0

§ª
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 262

est par définition le rang de la famille de vecteurs de K :

. Tous ces vecteurs sont colinéaires à v1, donc le rang de la famille {v1,

v2, v3, v4} est 1 et ainsi rg− A = 1.

Réciproquement, on se donne une famille de p vecteurs {v1, . . . , vp} d’un espace vectoriel E de dimension

=
n. Fixons une base B {e1, . . . , en} de E. Chaque vecteur1j vj se décompose dans la base B : vj = a1je1 +
 a

...

···+ aijei +···+ anjen, ce que l’on note vj = aij  . En juxtaposant ces vecteurs colonnes, on obtient une  ... 

anj

. Le rang de la famille
matrice A ∈ Mn,p(K) {v1, . . . ,Bvp} est égal au rang de la matrice A.

Définition 3.
On dit qu’une matrice est échelonnée par rapport aux colonnes si le nombre de zéros commençant une
colonne croît strictement colonne après colonne, jusqu’à ce qu’il ne reste plus que des zéros. Autrement
dit, la matrice transposée est échelonnée par rapport aux lignes.

Voici un exemple d’une matrice échelonnée par colonnes ; les ∗ désignent des coefficients quelconques, les +
des coefficients non nuls :
+ ∗ 0
0 0 0 0
0 0 0 0
 0
+ 0 0 0
∗   0
∗ + 0 0  0
∗ 
∗  ∗ ∗ 0 0 
∗ ∗ ∗ + 0 0
Le rang d’une matrice échelonnée est très simple à calculer.
0
Proposition 2.
Le rang d’une matrice échelonnée par colonnes est égal au nombre de colonnes non nulles.

Par exemple, dans la matrice échelonnée donnée en exemple ci-dessus, 4 colonnes sur 6 sont non nulles, donc le
rang de cette matrice est 4.
La preuve de cette proposition consiste à remarquer que les vecteurs colonnes non nuls sont linéairement
indépendants, ce qui au vu de la forme échelonnée de la matrice est facile.

1.3. Opérations conservant le rang

Proposition 3.
Le rang d’une matrice ayant les colonnes C 1, C2, . . . , Cp n’est pas modifié par les trois opérations
élémentaires suivantes sur les vecteurs :
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 263

1. Ci ← λCi avec λ≠ 0 : on peut multiplier une colonne par un scalaire non nul.

2. Ci ← Ci +λCj avec λ ∈ K (et j ̸= i) : on peut ajouter à la colonne Ci un multiple d’une autre colonne Cj.

3. Ci ↔ Cj : on peut échanger deux colonnes.

P
Plus généralement, l’opération Ci ← Ci + i≠ j λjCj conserve le rang de la matrice.
On a même un résultat plus fort, comme vous le verrez dans la preuve : l’espace vectoriel engendré par les
vecteurs colonnes est conservé par ces opérations.

Démonstration. Le premier et troisième point de la proposition sont faciles.


Pour simplifier l’écriture de la démonstration du deuxième point, montrons que l’opération C1 ← C1 +λC2 ne

change pas le rang. Notons vi le vecteur correspondant à la colonne Ci d’une matrice A. L’opération sur les

colonnes C1 ← C1 +λC2 change la matrice A en une matrice A′ dont les vecteurs colonnes sont : v1 +λv2, v2, v3, . . . ,

vp.

Il s’agit de montrer que les sous-espaces F = Vect(v1, v2, . . . , vp) et G = Vect(v1 +λv2, v2, v3, . . . , vp) ont la même
dimension. Nous allons montrer qu’ils sont égaux !
• Tout générateur de G est une combinaison linéaire des vi, donc G ⊂ F.

• Pour montrer que F ⊂ G, il suffit de montrer v1 est combinaison linéaire des générateurs de G, ce qui s’écrit :

v1 =(v1 +λv2)−λv2.

Conclusion : F = G et donc dim F = dim G.

Méthodologie. Comment calculer le rang d’une matrice ou d’un système de vecteurs ?


Il s’agit d’appliquer la méthode de Gauss sur les colonnes de la matrice A (considérée comme une juxtaposition
de vecteurs colonnes). Le principe de la méthode de Gauss affirme que par les opérations élémentaires Ci ← λCi,
Ci ← Ci +λCj, Ci ↔ Cj, on transforme la matrice A en une matrice échelonnée par rapport aux colonnes. Le rang de
la matrice est alors le nombre de colonnes non nulles.
Remarque : la méthode de Gauss classique concerne les opérations sur les lignes et aboutit à une matrice
échelonnée par rapport aux lignes. Les opérations sur les colonnes de A correspondent aux opérations sur les
lignes de la matrice transposée AT.
1.4. Exemples
Exemple 3.
Quel est le rang de la famille des 5 vecteurs suivants de R4 ?
1 −1 3 3 3
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 264
1 2 5 8
v 2 v
v v
v
1 =1 2 = 0  3 = 4 = 0  5 =1 
1 1−1 1

On est ramené à calculer le rang de la matrice :


 
1 −1 3 3 3

1 2 2 5 8


 − −

En faisant les opérations C2 ← C2 + C1, C3 ← C3 −3C1 , C4 ← C4 −3C1, C5 ← C5 −3C1, on obtient des zéros
sur la première ligne à droite du premier pivot :
  0 −1 0 0
1 −1 3 3 3 1 0

2 5
1 2 2 5 8 1 3 

 ∼ 

 

pour avoir le coefficient


On échange C2 et C3 par l’opération C2 ↔ C3 −1 en position de pivot et ainsi éviter

d’introduire des fractions.

  
1 0 0 0 0 1 0 0 0 0




En faisant les opérations C3 ← C3 + 3C2, C4 ← C4 + 2C2 et C5 ← C5 + 5C2, on obtient des zéros à droite de ce deuxième

pivot :

  
1 0 0 0 0 1 0 0 0 0

1 −1 3 2 5  1 −1 0 0 0


 − − − − − − −
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 265

Enfin, en faisant les opérations C4 ← C4 − C3 et C5 ← C5 − 2C3, on obtient une matrice échelonnée par colonnes :

  
1 0 0 0 0 1 0 0 0 0





Il y a 3 colonnes non nulles : on en déduit que le rang de la famille de vecteurs {v1, v2, v3, v4, v5} est 3. En fait,

nous avons même démontré que

1‹  0 ‹  0 ‹‹
1 − −1 − 0
Vect(v1, v2, v3, v4, v5)= Vect 1 , − 4 , − 11 .

1 6 16

Exemple 4.
Considérons les trois vecteurs suivants dans R5 : v1 =(1, 2, 1, 2, 0), v2 =(1, 0, 1, 4, 4) et v3 =(1, 1, 1, 0, 0).
Montrons que la famille {v1, v2, v3} est libre dans R5. Pour cela, calculons le rang de cette famille de vecteurs ou,
ce qui revient au même, celui de la matrice suivante :
1 1 1
0
2
 1 1
 1 4 1 .
 4

2 0
0
0
Par des opérations élémentaires sur les colonnes, on obtient :

1 1 1 1 0 0  1 0 0  1 0 0



1 1 1 ∼ 1 0 0  ∼ 1 0 0  ∼ 1 0 0
    
2 4 0   
0 4 0
Comme la dernière matrice est échelonnée par colonnes et que ses 3 colonnes sont non nulles, on en déduit que
la famille {v1, v2, v3} constituée de 3 vecteurs est de rang 3, et donc qu’elle est libre dans R 5.

Exemple 5.
Considérons les quatre vecteurs suivants dans R3 : v1 = (1, 2, 3) , v2 = (2, 0, 6), v3 = (3, 2, 1) et v4 =
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 266

(−1, 2, 2). Montrons que la famille {v1, v2, v3, v4} engendre R3. Pour cela, calculons le rang de cette famille de

vecteurs ou, ce qui revient au même, celui de la matrice suivante :


 
1 2 3 −1

2 0 2 2.
3 6 1 2
Par des opérations élémentaires sur les colonnes, on obtient :
2 0 2 2   − −  − 0 0 1 0 0 0
1 2 3 −1 1 0 0 0 1 0
3 6 1 2 3 0 −8 5 3 0 −8 5 −

La famille {v1, v2, v3, v4} est donc de rang 3. Cela signifie que Vect(v1, v2, v3, v4) est un sous-espace vectoriel de

dimension 3 de R3. On a donc Vect(v1, v2, v3, v4)=R3. Autrement dit, la famille {v1, v2, v3, v4} engendre R3.

1.5. Rang et matrice inversible


Nous anticipons sur la suite, pour énoncer un résultat important :
Théorème 1 (Matrice inversible et rang).
Une matrice carrée de taille n est inversible si et seulement si elle est de rang n.

La preuve repose sur plusieurs résultats qui seront vus au fil de ce chapitre.

Démonstration. Soit A une matrice carrée d’ordre n. Soit f l’endomorphisme de Kn dont la matrice dans la base
canonique est A. On a les équivalences suivantes :

A de rang n ⇐⇒ f de rang n

⇐⇒ f surjective

⇐⇒ f bijective

⇐⇒ A inversible.

Nous avons utilisé le fait qu’un endomorphisme d’un espace vectoriel de dimension finie est bijectif si et
seulement s’il est surjectif et le théorème sur la caractérisation de la matrice d’un isomorphisme.
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 267

1.6. Rang engendré par les vecteurs lignes


On a considéré jusqu’ici une matrice A ∈ Mn,p(K) comme une juxtaposition de vecteurs colonnes (v1, . . . , vp) et

défini rg A = dim Vect(v1, . . . , vp). Considérons maintenant que A est aussi une superposition de vecteurs lignes

(w1, . . . , wn).

Proposition 4. rg A =
dim Vect(w1, . . . , wn)

Nous admettrons ce résultat. Autrement dit : l’espace vectoriel engendré par les vecteurs colonnes et l’espace
vectoriel engendré par les vecteurs lignes sont de même dimension.
Une formulation plus théorique est que le rang d’une matrice égale le rang de sa transposée :

rg A = rg AT

Attention ! Les dimensions dim Vect(v1, . . . , vp) et dim Vect(w1, . . . , wn) sont égales, mais les espaces vectoriels
Vect(v1, . . . , vp) et Vect(w1, . . . , wn) ne sont pas les mêmes.

Mini-exercices.
€€1Š €3Š € 0 Š €2ŠŠ 1.
Quel est le rang de la famille de vecteurs 2 , 4 , −−2 , 2 ?
1 2 1 1

€€1Š € t Š €1ŠŠ
Même question pour 1t , 1t , 1t en fonction du paramètre t ∈ R.


1 2 −4 −2 −1

2. Mettre sous forme échelonnée par rapport aux colonnes la matrice . Calculer

 
1 7 2 5

 2 1 1 5
son rang. Idem avec − .

−1 2 1 4
1 4 1 2

 
2 4 −5 −7

3. Calculer le rang de −1 3 1 2  en fonction de a et b.

1 a −2 b

4. Calculer les rangs précédents en utilisant les vecteurs lignes.

5. Soit f : E → F une application linéaire. Quelle inégalité relie rg(f (v1), . . . , f (vp)) et rg(v1, . . . , vp) ?

Que se passe-t-il si f est injective ?


MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 268

2. Applications linéaires en dimension finie


Lorsque f : E → F est une application linéaire et que E est de dimension finie, la théorie de la dimension fournit de

nouvelles propriétés très riches pour l’application linéaire f .

2.1. Construction et caractérisation


Une application linéaire f : E → F, d’un espace vectoriel de dimension finie dans un espace vectoriel quelconque,
est entièrement déterminée par les images des vecteurs d’une base de l’espace vectoriel E de départ. C’est ce
qu’affirme le théorème suivant :

Théorème 2 (Construction d’une application linéaire).


Soient E et F deux espaces vectoriels sur un même corps K. On suppose que l’espace vectoriel E est de
dimension finie n et que (e1, . . . , en) est une base de E. Alors pour tout choix (v1, . . . , vn) de n vecteurs de F,
il existe une et une seule application linéaire f : E → F telle que, pour tout i = 1, . . . , n :

f (ei)= vi.

Le théorème ne fait aucune hypothèse sur la dimension de l’espace vectoriel d’arrivée F.


Exemple 6.
Il existe une unique application linéaire f : Rn → R[X ] telle que f (ei) = (X + 1)i pour i = 1, . . . , n (où (e1, . . . , en) est

la base canonique de Rn). Pour un vecteur x =(x1, . . . , xn), on a

n
i
X f (x1, . . . , xn)= f (x1e1 +···+ xnen)= x1 f (e1)+···+ xn f
(en)= xi(X + 1) .
i=1

Démonstration.
• Unicité. Supposons qu’il existe une application linéaire f : E → F telle que f (ei) = vi, pour tout i = 1, . . . , n.

Pn
Pour x ∈ E, il existe des scalaires x1, x2, . . . , xn uniques tels que x = i=1 xiei. Comme f est linéaire, on a

‚n Œn n

X X X

f (x)= f xiei = xi f (ei)= xiv i. (∗)


i=1 i=1 i=1

Donc, si elle existe, f est unique.


• Existence. Nous venons de voir que s’il existe une solution c’est nécessairement l’application définie par
l’équation (∗). Montrons qu’une application définie par l’équation (∗) est linéaire et vérifie f (ei)= vi. Si

(x1, . . . , xn) (resp. y =(y1, . . . , yn)) sont les coordonnées de x (resp. y) dans la base (e1, . . . , en), alors
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 269

‚n Œn
X X
(λx +µy) = f (λxi +µyi)ei = (λxi +µyi)f (ei)
i=1 i=1 n nX X
=λ xi f (ei)+µ yi f (ei)=λf (x)+µf (y).
i=1 i=1

Enfin les coordonnées de ei sont (0, . . . , 0, 1, 0, . . . , 0) (avec un 1 en i-ème position), donc f (ei)= 1·vi = vi.

Ce qui termine la preuve du théorème.

2.2. Rang d’une application linéaire


Soient E et F deux K-espaces vectoriels et soit f : E → F une application linéaire. On rappelle que l’on note f (E) par
Im f , c’est-à-dire Im f | E . Im f est un sous-espace vectoriel de F.

Proposition 5.
Si E est de dimension finie, alors :
• Im f = f (E) est un espace vectoriel de dimension finie.
• Si (e1, . . . , en) est une base de E, alors Im f = Vect f (e1), . . . , f (en).
La dimension de cet espace vectoriel Im f est appelée rang de f :
rg(f )= dim Im f = dim Vect f (e1), . . . , f (en)

Démonstration. Il suffit de démontrer que tout élément de Im f est combinaison linéaire des vecteurs f (e1), . . . , f
(en).
Soit y un élément quelconque de Im f . Il existe donc un élément x de E tel que y = f (x). Comme (e1, . . . , en)
n
X est une base de E, il existe des scalaires
(x1, . . . , xn) tels que x = xiei. En utilisant la linéarité de f , on
i=1
n
X en déduit que y = f (x)= xi f (ei), ce qui achève la démonstration.
i=1

Le rang est plus petit que la dimension de E et aussi plus petit que la dimension de F, si F est de dimension
finie :
Proposition 6.
Soient E et F deux K-espaces vectoriels de dimension finie et f : E → F une application linéaire. On a

rg(f )⩽ min (dim E, dim F) .

Exemple 7.
Soit f : R3 → R2 l’application linéaire définie par f (x, y, z)=(3x − 4y + 2z, 2x − 3y − z). Quel est le rang de f ?

3
€ 1Š € 0Š € 0Š .
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 270

=
Si on note e1 = 00 , e2 01 et e3 = 10 , alors (e1, e2, e3) est la base canonique de R Il s’agit de

trouver le rang de la famille {v1, v2, v3} :

v1 = f (e1)= f €001Š= 32 , v2 = f (e2)= f €010Š= −−34 , v3 = f (e3)= f €010Š= −21

ou, ce qui revient au même, trouver le rang de la matrice


3 −4 2

A=2 −3 −1 .

Commençons par estimer le rang sans faire de calculs.


• Nous avons une famille de 3 vecteurs donc rg f ⩽ 3.

• Mais en fait les vecteurs v1, v2, v3 vivent dans un espace de dimension 2 donc rg f ⩽ 2.
• f n’est pas l’application linéaire nulle (autrement dit v1, v2, v3 ne sont pas tous nuls) donc rg f ⩾ 1. Donc le
rang de f vaut 1 ou 2. Il est facile de voir que v1 et v2 sont linéairement indépendants, donc le rang est 2 :
rg f = rg f (e1), f (e2), f (e3)= dim Vect(v1, v2, v3)= 2
Remarque : il est encore plus facile de voir que le rang de la matrice A est 2 en remarquant que ses deux seules
lignes ne sont pas colinéaires.

2.3. Théorème du rang


Le théorème du rang est un résultat fondamental dans la théorie des applications linéaires en dimension finie.
On se place toujours dans la même situation :
• f : E → F est une application linéaire entre deux K-espaces vectoriels,

• E est un espace vectoriel de dimension finie,


• le noyau de f est Ker f =x ∈ E | f (x)= 0F ; c’est un sous-espace vectoriel de E, donc Ker f est de

dimension finie,

• l’image de f est Im f = f (E)=f (x) | x ∈ E ; c’est un sous-espace vectoriel de F et est de dimension finie.

Le théorème du rang donne une relation entre la dimension du noyau et la dimension de l’image de f .
Théorème 3 (Théorème du rang).
Soit f : E → F une application linéaire entre deux K-espaces vectoriels, E étant de dimension finie. Alors

dim E = dim Ker f + dim Im f


Autrement dit : dim E = dim Ker f + rg f
Dans la pratique, cette formule sert à déterminer la dimension du noyau connaissant le rang, ou bien le rang
connaissant la dimension du noyau.
Exemple 8.
Soit l’application linéaire
f : R4 −→ R3
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 271

(x1, x2, x3, x4) 7−→ (x1 − x2 + x3, 2x1 + 2x2 + 6x3 + 4x4, −x1 − 2x3 − x4)

Calculons le rang de f et la dimension du noyau de f .


• Première méthode. On calcule d’abord le noyau :
(x1, x2, x3, x4) ∈ Ker f ⇐⇒ f (x1, x2, x3, x4)=(0, 0, 0) + 4x4 x4 = = 0
− = 0
0
 x1 − x2 + x3

⇐⇒ 2x1 + 2x2 + 6x3

 −x1 − 2x3

On résout ce système et on trouve qu’il est équivalent à

x1 − x2 + x3 = 0 x2 + x3 + x4
2‹  1‹ ª
=0

On choisit x3 et x4 comme paramètres et on trouve :


§ ª
Ker f = (−2x3 − x4, −x3 − x4, x3, x4) | x3, x4 ∈ R

| x3, x4 ∈ R

‹‹
= Vect

Les deux vecteurs définissant le noyau sont linéairement indépendants, donc dim Ker f = 2.
On applique maintenant le théorème du rang pour en déduire sans calculs la dimension de l’image : dim Im f
= dim R4 − dim Ker f = 4 − 2 = 2. Donc le rang de f est 2.

• Deuxième méthode. On calcule d’abord l’image. On note (e1, e2, e3, e4) la base canonique de R4.
Calculons vi = f (ei) :

v  1‹ € 1 Š 01‹ €−21Š
v2 = f (e2)= f 00 = 0

v3 = f (e3)= f 0 =€ 16 Š v4 = f (e4)= f 0010‹=€−041Š 0‹


On réduit la matrice A, formée des vecteurs colonnes, sous une forme échelonnée :
 1 −1 1 01 0 0 0
2 6 4 0
0
A = 2 −1 0 −2 4∼2 −1 0
0
−1 −1
Donc le rang de A est 2, ainsi
rg f = dim Im f = dim Vect f (e1), f (e2), f (e3), f (e4)= 2
Maintenant, par le théorème du rang, dim Ker f = dim R4 − rg f = 4 − 2 = 2.

On trouve bien sûr le même résultat par les deux méthodes.

Exemple 9.
Soit l’application linéaire
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 272

f : Rn[X ] −→ Rn[X ] P(X ) 7−→

P′′(X )

où P′′(X ) est la dérivée seconde de P(X ). Quel est le rang et la dimension du noyau de f ?
• Première méthode. On calcule d’abord le noyau :

P(X ) ∈ Ker f ⇐⇒ f P(X )= 0

⇐⇒ P′′(X )= 0

⇐⇒ P′(X )= a ⇐⇒ P(X

)= aX + b

où a, b ∈ R sont des constantes. Cela prouve que Ker f est engendré par les deux polynômes : 1 (le polynôme

constant) et X . Ainsi Ker f = Vect(1, X ). Donc dim Ker f = 2. Par le théorème du rang, rg f = dim Im f = dim

Rn[X ]− dim Ker f =(n + 1)− 2 = n − 1.

• Deuxième méthode. On calcule d’abord l’image : (1, X , X 2, . . . , X n) est une base de l’espace de départ

Rn[X ], donc

rg f = dim Im f = dim Vect f (1), f (X ), . . . , f (X n).


Tout d’abord, f (1) = 0 et f (X ) = 0. Pour k ⩾ 2, f (X k) = k(k − 1)X k−2. Comme les degrés sont échelonnés, il est

clair que f (X 2), f (X 3), . . . , f (X n) =2, 6X , 12X 2, . . . , n(n − 1)X n−2 engendre un espace de dimension n −

1, donc rg f = n − 1. Par le théorème du rang, dim Ker f = dim Rn[X ]− rg f = (n + 1)−(n − 1)= 2.

Preuve du théorème du rang.


• Premier cas : f est injective.
En désignant par (e1, . . . , en) une base de E, nous avons vu que la famille à n éléments f (e1), . . . , f (en) est une
famille libre de F (car f est injective), donc une famille libre de Im f . De plus, f (e1), . . . , f (en) est une partie
génératrice de Im f . Donc (f (e1), . . . , f (en)) est une base de Im f . Ainsi dim Im f = n, et comme f est injective,
dim Ker f = 0, et ainsi le théorème du rang est vrai.
• Deuxième cas : f n’est pas injective.
Dans ce cas le noyau de f est un sous-espace de E de dimension p avec 1 ⩽ p ⩽ n. Soit (ε1, . . . , εp) une base

de Ker f . D’après le théorème de la base incomplète, il existe n − p vecteurs εp+1, . . . , εn de E tels que (ε1, ε2, . .

. , εn) soit une base de E.

Alors Im f est engendrée par les vecteurs f (ε1), f (ε2), . . . , f (εn). Mais, comme pour tout i vérifiant 1 ⩽ i ⩽ p
on a f (εi)= 0, Im f est engendrée par les vecteurs f (εp+1), . . . , f (εn).
Montrons que ces vecteurs forment une famille libre. Soient αp+1, . . . , αn des scalaires tels que

)+
αp+1 f (εp+1 ···+αn f (εn)= 0.
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 273

+
Puisque f est une application linéaire, cette égalité équivaut à l’égalité f αp+1εp+1 ···+αnεn= 0, qui prouve que le

+
vecteur αp+1εp+1 ···+αnεn appartient au noyau de f . Il existe donc des scalaires λ1, . . . , λp tels que

αp+1εp+1 +···+αnεn =λ1ε1 +···+λpεp.

Comme (ε1, ε2, . . . , εn) est une base de E, les vecteurs ε1, ε2, . . . , εn sont linéairement indépendants et par
conséquent pour tout i = 1, . . . , p, λi = 0, et pour tout i = p + 1, . . . , n, αi = 0. Les vecteurs f (εp+1), . . . , f (εn)
définissent donc bien une base de Im f . Ainsi le sous-espace vectoriel Im f est de
dimension n − p, ce qui achève la démonstration.

On remarquera le rôle essentiel joué par le théorème de la base incomplète dans cette démonstration.

2.4. Application linéaire entre deux espaces de même dimension


Rappelons qu’un isomorphisme est une application linéaire bijective. Un isomorphisme implique que les espaces
vectoriels de départ et d’arrivée ont la même dimension. La bijection réciproque est aussi une application
linéaire.
Proposition 7.
Soit f : E → F un isomorphisme d’espaces vectoriels. Si E (respectivement F) est de dimension finie, alors F

(respectivement E) est aussi de dimension finie et on a dim E = dim F.

Démonstration. Si E est de dimension finie, alors comme f est surjective, F = Im f , donc F est engendré par

l’image d’une base de E. On a donc F de dimension finie et dim F ⩽ dim E. De même f −1 : F → E est un

isomorphisme, donc f −1(F)= E, ce qui prouve cette fois dim E ⩽ dim F.

Si c’est F qui est de dimension finie, on fait le même raisonnement avec f −1.

Nous allons démontrer une sorte de réciproque, qui est extrêmement utile.
Théorème 4.
Soit f : E → F une application linéaire avec E et F de dimension finie.

Supposons dim E = dim F. Alors les assertions suivantes sont équivalentes :


(i) f est bijective
(ii) f est injective
(iii) f est surjective

Autrement dit, dans le cas d’une application linéaire entre deux espaces de même dimension, pour démontrer
qu’elle est bijective, il suffit de démontrer l’une des deux propriétés : injectivité ou surjectivité.

Démonstration. C’est immédiat à partir du théorème du rang. En effet, la propriété f injective équivaut à Ker f =
{0}, donc d’après le théorème du rang, f est injective si et seulement si dim Im f = dim E. D’après l’hypothèse sur
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 274

l’égalité des dimensions de E et de F, ceci équivaut à dim Im f = dim F. Cela équivaut donc à Im f = F, c’est-à-dire f
est surjective.

Exemple 10.
Soit f : R2 → R2 définie par f (x, y)=(x − y, x + y). Une façon simple de montrer que l’application linéaire f est
bijective est de remarquer que l’espace de départ et l’espace d’arrivée ont même dimension. Ensuite on calcule
le noyau :

(x, y) ∈ Ker f ⇐⇒ f (x, y)= 0 ⇐⇒ (x − y, x + y)=(0, 0)

x + y = 0
⇐⇒ x − y = 0 ⇐⇒ (x, y)=(0, 0)

Ainsi Ker f =(0, 0) est réduit au vecteur nul, ce qui prouve que f est injective et donc, par le théorème 4,
que f est un isomorphisme.

Exemple 11.
On termine par la justification que si une matrice admet un inverse à droite, alors c’est aussi un inverse à gauche.
La preuve se fait en deux temps : (1) l’existence d’un inverse à gauche ; (2) l’égalité des inverses.
Soit A ∈ Mn(K) une matrice admettant un inverse à droite, c’est-à-dire il existe B ∈ Mn(K) tel que AB = I.

1. Soit f : Mn(K) → Mn(K) définie par f (M)= MA.

(a) f est une application linéaire, car f (λM +µN)=(λM +µN)A =λf (M)+µf (N).

(b) f est injective : en effet supposons f (M)= O (où O est la matrice nulle), cela donne MA = O. On multiplie
cette égalité par B à droite, ainsi MAB = OB, donc M I = O, donc M = O.

(c) Par le théorème 4, f est donc aussi surjective.


(d) Comme f est surjective, alors en particulier l’identité est dans l’image de f . C’est-à-dire il existe
C ∈ Mn(K) tel que f (C)= I. Ce qui est exactement dire que C est un inverse à gauche de A : CA = I.
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 275

2. Nous avons AB = I et CA = I. Montrons B = C. Calculons CAB de deux façons :

(CA)B = IB = B et C(AB)= C I = C

donc B = C.

Mini-exercices.

1. Soit (e1, e2, e3) la base canonique de R 3. Donner l’expression de f (x, y, z) où f : R3 → R3 est l’application

linéaire qui envoie e1 sur son opposé, qui envoie e2 sur le vecteur nul et qui envoie e3 sur la somme des trois

vecteurs e1, e2, e3.

2. Soit f : R3 → R2 définie par f (x, y, z)=(x − 2y − 3z, 2y + 3z). Calculer une base du noyau de f , une base de

l’image de f et vérifier le théorème du rang.

3. Même question avec f : R3 → R3 définie par f (x, y, z)=(−y + z, x + z, x + y).

]
4. Même question avec l’application linéaire f : Rn[X → Rn[X ] qui à X k associe X k−1 pour 1 ⩽ k ⩽ n et qui à 1

associe 0.

5. Lorsque c’est possible, calculer la dimension du noyau, le rang et dire si f peut être injective, surjective,
bijective :
• Une application linéaire surjective f : R7 → R4.

• Une application linéaire injective f : R5 → R8.

• Une application linéaire surjective f : R4 → R4.

• Une application linéaire injective f : R6 → R6.

3. Matrice d’une application linéaire


Nous allons voir qu’il existe un lien étroit entre les matrices et les applications linéaires. À une matrice on associe
naturellement une application linéaire. Et réciproquement, étant donné une application linéaire, et des bases
pour les espaces vectoriels de départ et d’arrivée, on associe une matrice.
Dans cette section, tous les espaces vectoriels sont de dimension finie.

3.1. Matrice associée à une application linéaire


Soient E et F deux K-espaces vectoriels de dimension finie. Soient p la dimension de E et B =(e1, . . . , ep) une base

de E. Soient n la dimension de F et B′ = (f1, . . . , fn) une base de F. Soit enfin f : E → F une application linéaire.

Les propriétés des applications linéaires entre deux espaces de dimension finie permettent d’affirmer que :
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 276

• l’application linéaire f est déterminée de façon unique par l’image d’une base de E, donc par les vecteurs f
(e1), f (e2), . . . , f (ep).
• Pour j ∈ {1, . . . , p}, f (ej) est un vecteur de F et s’écrit de manière unique comme combinaison linéaire des

vecteurs de la base B′ =(f1, f2, . . . , fn) de F.

Il existe donc n scalaires uniques a1,j, a2,j, . . . , an,j (parfois aussi notés a1j, a2j, . . . , anj) tels que

a1,j

a
 2,j

+
f (ej)= a1,j f1 + a2,j f2 ···+ an,j fn = ...  .

a
n,j B′

Ainsi, l’application linéairedonc naturel d’introduire la définition suivante :f est entièrement déterminée par
les coefficients (ai,j)(i,j)∈{1,...,n}×{1,...,p}. Il est Définition 4.
)
La matrice de l’application linéaire f par rapport aux bases B et B′ est la matrice (ai,j ∈ Mn,p(K) dont la j-

ème colonne est constituée par les coordonnées du vecteur f (ej) dans la base B′ =(f1, f2, . . . , fn) :

f (e1) . . . f (ej) . . . f (ep)

a
f1  a11 a1j ... a1p  f2  21

a
a2j ... 2p 
 
...  ... ... ... ... 

a
fn n1 anj ... anp

En termes plus simples : c’est la matrice dont les vecteurs colonnes sont l’image par f des vecteurs de la base de
départ B, exprimée dans la base d’arrivée B′. On note cette matrice MatB,B′(f ).

Remarque. •• La taille de la matrice MatPar contre, les coefficients de la matrice dépendent du choix de la

base,B′(f ) dépend uniquement de la dimension deB deE et de celle deE et de la baseF.B′ de F.

Exemple 12.
Soit f l’application linéaire de R3 dans R2 définie par f

: R3 −→ R2

(x1, x2, x3) 7−→ (x1 + x2 − x3, x1 − 2x2 + 3x3)

Il est utile d’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être vue comme l’application
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 277

3
f: xx21
3
→7 1x1+x22−+ x3x3 .

Soientx B =(xe1−,2ex2, e3) la base canonique de R3 et B′ =(f1, f2) la base canonique de R2. C’est-à-dire :

1 0 0 1 0 e1 =0 e2 =1 e3 =0 f1 = 0 f2 = 1

0 0 1

1. Quelle est la matrice de f dans les bases B et B′ ?

• On a f (e1)= f (1, 0, 0)=(1, 1)= f1 + f2. La première colonne de la matrice MatB,B′(f ) est donc

11 .
• De même1 f (e2)= f (0, 1, 0)=(1, −2)= f1 − 2f2. La deuxième colonne de la matrice MatB,B′(f ) est

doncEnfindonc f−−3(21e3..)= f (0, 0, 1)=(−1, 3)= −f1 + 3f2. La troisième colonne de la matrice MatB,B′(f ) est

Ainsi :
1 1 −1
MatB,B′(f )= 1 −2 3

2. On va maintenant changer la base de l’espace de départ et celle de l’espace d’arrivée. Soient les vecteurs

1 1 0 1 1 ε1 =1 ε2 =0 ε3 =1 φ1 = 0 φ2 = 1

0 1 1

On montre facilement que B0 =(ε1, ε2, ε3) est une base de R3 et B0′ =(φ1, φ2) est une base de R2.

Quelle est la matrice de f dans les bases B0 et B0′ ?

f (ε1)= f (1, 1, 0)=(2, −1)= 3φ1 −φ2, f (ε2)= f (1, 0, 1)=(0, 4)= −4φ1 + 4φ2, f (ε3)= f (0, 1, 1)= (0, 1)= −φ1 +φ2, donc

00 3 −4 −1 Mat ,B′ (f )= −1 4 1 .

Cet exemple illustre bien le fait que la matrice dépend du choix des bases.
3.2. Opérations sur les applications linéaires et les matrices

Proposition 8.
Soient f , g : E → F deux applications linéaires et soient B une base de E et B′ une base de F. Alors :

•• MatBB,B′(λf f+)=g)=λ MatMatBB,B,B′(′(ff))+ MatB,B′(g)


MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 278

Mat ,B′(

Autrement dit, si on note :

A = MatB,B′(f ) B = MatB,B′(g) C = MatB,B′(f + g) D = MatB,B′(λf )

Alors :
C = A+ B D =λA
Autrement dit : la matrice associée à la somme de deux applications linéaires est la somme des matrices (à
condition de considérer la même base sur l’espace de départ pour les deux applications et la même base sur
l’espace d’arrivée). Idem avec le produit par un scalaire.

Le plus important sera la composition des applications linéaires.


Proposition 9.
Soient f : E → F et g : F → G deux applications linéaires et soient B une base de E, B ′ une base de F et B′′ une

base de G. Alors :

MatB ,B ′′ (g ◦ f )= MatB ′,B ′′ (g) × MatB ,B ′ (f )

Autrement dit, si on note :

A = MatB,B′(f ) B = MatB′,B′′(g) C = MatB,B′′(g ◦ f )

Alors
C=B×A

Autrement dit, à condition de bien choisir les bases, la matrice associée à la composition de deux applications
linéaires est le produit des matrices associées à chacune d’elles, dans le même ordre.
En fait, le produit de matrices, qui semble compliqué au premier abord, est défini afin de correspondre à la
composition des applications linéaires.

Démonstration. Posons p = dim(E) et B =(e1, . . . , ep) une base de E ; n = dim F et B′ =(f1, . . . , fn) une base de F ; q =

dim G et B′′ =(g1, . . . ,∈gq) une base de G. Écrivons A = MatB,Bg′(◦ff)=()=(acijij))∈∈ MMnq,,pp((KK)) lala matrice

dematrice de fg,◦Bf=. MatB′,B′′(g)=(bij) Mq,n(K) la matrice de g, C = MatB,B′′(

On a
(g ◦ f )(e1) = g f (e1)
= g(a11 f1 +···+ an1 fn)

= a11g(f1)+···+ an1g(fn)

 ‹  ‹
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 279

= a11 b11g1 +···+ bq1gq +···+ an1 b1ng1 +···+ bqngq

Ainsi, la première colonne de C = MatB,B′′(g ◦ f ) est

 a11b11 +···+ an1b1n 

+
 a11b21 ···+ an1b2n 

 ..  .

 .  a11bq1 +···+ an1bqn

Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose avec les autres colonnes, on

remarque que C = MatB,B′′(g ◦ f ) et BA sont deux matrices ayant leurs colonnes égales. On a donc bien l’égalité

cherchée.

Exemple 13.
On considère deux applications linéaires : f : R2 → R3 et g : R3 → R2. On pose E =R2, F =R3, G =R2 avec f : E → F, g : F

→ G. On se donne des bases : B =(e1, e2) une base de E, B′ =(f1, f2, f3) une base de F, et B′′ =(g1, g2) une base de G.

On suppose connues les matrices de f et g :


1 0
2 1 0
A = MatB,B′(f )=10 12 ∈ M3,2 B = MatB′,B′′

Calculons la matrice associée à g ◦ f : E → G, C = MatB,B′′(g ◦ f ), de deux façons différentes.

1. Première méthode. Revenons à la définition de la matrice de l’application linéaire g ◦ f . Il s’agit d’exprimer

l’image des vecteurs de la base de départ B dans la base d’arrivée B′′. C’est-à-dire qu’il faut exprimer g ◦ f (ej)

dans la base (g1, g2).

• Calcul des f (ej). On sait par définition de la matrice A que f (e1) correspond au premier vecteur €1Š
colonne : plus précisément,0Š f (e1)= 10 B′ = 1f1 + 1f2 + 0f3 = f1 + f2.
€

• Calcul desDe même, f (e2)= 12 B′ = 0f1 +g(1ffj2)+correspond à la2f3 = f2 + 2f3.j-ème colonne de la matrice B :

g(fj). Par définition,


2

— g(f1)= 3 = 2g1 + 3g2

−1B′′ −
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 280

— g(f2)= 1 = g1 + g2
0 B′′

— g(f3)= 2 = 2g2

• Calcul des g ◦ fB(e′′j). Pour cela on combine les deux séries de calculs précédents :

g ◦ f (e1)= g(f1 + f2)= g(f1)+ g(f2)=(2g1 + 3g2)+(−g1 + g2)= g1 + 4g2 g ◦ f (e2)= g(f2 + 2f3)=

g(f2)+ 2g(f3)=(−g1 + g2)+ 2(2g2)= −g1 + 5g2

• Calcul de la matrice C = MatB,B′′(g ◦ f ) : cette matrice est composée des vecteurs g ◦ f (ej) exprimés dans la

base B′′. Comme

◦ 1 ◦ − −1 g f (e1)= g1 + 4g2 = 4 g f (e2)= g1 + 5g2 = 5


B′′ B′′

alors
1 −1

C=4 5

On trouve bien une matrice de taille 2 × 2 (car l’espace de départ et d’arrivée de g ◦ f est R2).

2. Deuxième méthode. Utilisons le produit de matrices : on sait que C = BA. Donc

◦ ×2 −1 0×1 0 1 −1

MatB,B′′(g f )= C = B A=3 1 2 10 12= 4 5

Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en passant par
l’intermédiaire des matrices.
3.3. Matrice d’un endomorphisme
Dans cette section, on étudie le cas où l’espace de départ et l’espace d’arrivée sont identiques : f : E → E est un

endomorphisme. Si dim E = n, alors chaque matrice associée à f est une matrice carrée de taille n × n.

Deux situations :
• Si on choisit la même base B au départ et à l’arrivée, alors on note simplement Mat B(f ) la matrice associée à

f.

• Mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel E ; on note alors comme
précédemment MatB,B′(f ).
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 281

Exemple 14.
• Cas de l’identité : id : E → E est définie par id(x)= x. Alors quelle que soit la base B de E, la matrice associée est

la matrice identité : MatB(id)= In. (Attention ! Ce n’est plus vrai si la base d’arrivée est différente de la base de

départ.)

• Cas d’une homothétie hλ : E → E, hλ(x)=λ· x (où λ ∈ K est le rapport de l’homothétie) : MatB(hλ)= λIn.

•• Cas deCas d’une symétrie centraler: R2 −→ R2 la rotation d’angles : E → E, s(x)=θ, centrée à l’origine, dans
l’espace vectoriel−x : MatB(s)= −In. R2 muni de la
θ

base canonique B. Alors rθ(x, y)=(x cos θ − y sin θ, x sin θ + y cos θ). On a

MatB(rθ)=.

Dans le cas particulier de la puissance d’un endomorphisme de E, nous obtenons :


Corollaire 1.
Soient E un espace vectoriel de dimension finie et B une base de E. Soit f : E → E une application linéaire.

Alors, quel que soit p ∈ N : Mat (f p)= MatB(f )p


B

Autrement dit, si A est la matrice associée à f , alors la matrice associée à f p = f ◦ f ◦···◦ f est Ap =

| {z } p occurrences
× AA×···× A. La démonstration est une récurrence sur p en utilisant la proposition 9.

|{z } p facteurs
Exemple 15.
Soit rθ la matrice de la rotation d’angle θ dans R2. La matrice de rθp est :

p p cos θ − sin θp
Mat (rθ)= MatB(rθ) = sin θ cos θ B

Un calcul par récurrence montre ensuite que

Mat (rθp)=cossin((ppθθ)) −cossin((ppθθ)) ,


B

ce qui est bien la matrice de la rotation d’angle pθ : composer p fois la rotation d’angle θ revient à effectuer une
rotation d’angle pθ.

3.4. Matrice d’un isomorphisme


MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 282

Passons maintenant aux isomorphismes. Rappelons qu’un isomorphisme f : E → F est une application linéaire

bijective. Nous avons vu que cela entraîne dim E = dim F.

Théorème 5 (Caractérisation de la matrice d’un isomorphisme).


Soient E et F deux K-espaces vectoriels de même dimension finie. Soit f : E → F une application linéaire.

Soient B une base de E, B′ une base de F et A = MatB,B′(f ).


1. f est bijective si et seulement si la matrice A est inversible. Autrement dit, f est un isomorphisme si et
f
seulement si sa matrice associée MatB,B′( ) est inversible.

1
2. De plus, si f : E → F est bijective, alors la matrice de l’application linéaire f − : F → E est la matrice A−1.

Autrement dit, MatB′,B(f −1)= MatB,B′(f ) −1.

 ‹

Voici le cas particulier très important d’un endomorphisme f : E → E où E est muni de la même base B au départ

et à l’arrivée et A = MatB(f ).

Corollaire 2.
• f est bijective si et seulement si A est inversible.
• Si f est bijective, alors la matrice associée à f −1 dans la base B est A−1.

Autrement dit : MatB(f −1)= MatB(f )−1.

Exemple 16.
Soient r : R2 → R2 la rotation d’angle (centrée à l’origine) et s la réflexion par rapport à l’axe (y = x).

Quelle est la matrice associée à• Pour θ =, on trouve la matrice(s ◦ r)A−=1 dans la base
‚
canoniqueMatB(r)=cossin θθ −cossinBθθ?= p23 −21Œ .
0 1
• La matrice associée à la réflexion est B = MatB(s)= 1 .
0
‚1 p3 Œ
• La matrice de s ◦ r est B × A = p2 2
.
1
‚1 p3 Œ− ‚1 p3 Œ

= =
• La matrice de (s ◦ r)−1 est (BA)−1 p p. On aurait aussi pu calculer ainsi :

(BA)−1 = A−1B−1 = ···


MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 283

• On note que (BA)−1 = BA ce qui, en termes d’applications linéaires, signifie que (s◦r)−1 = s◦r. Autrement dit, s ◦

r est son propre inverse.

Preuve du théorème• Si f est bijective, notons5. On noteB =AMat= MatB′,BB,(Bf′−(1f)). Alors par la proposition. 9 on
sait que

BA = MatB′,B(f −1)× MatB,B′(f )= MatB,B(f −1 ◦ f )= MatB,B(idE)= I.

De même AB = I. Ainsi A = MatB,B′(f ) est inversible et son inverse est B = MatB′,

• Réciproquement, si A = MatBB,B=′(Matf ) Best une matrice inversible, notons ′,B(g). Alors, toujours par la

propositionB = A9−1B:. Soit(f −1).g : F → E

l’application linéaire telle que

MatB,B(g ◦ f )= MatB′,B(g)× MatB,B′(f )= BA = I

Donc la matrice de g ◦ f est l’identité, ce qui implique g ◦ f = idE. De même f ◦ g = idF. Ainsi f est bijective (et sa

bijection réciproque est g).

Mini-exercices.
1. Calculer la matrice associée aux applications linéaires fi : R2 → R2 dans la base canonique :

(a) f1 la symétrie par rapport à l’axe (O y),

(b) f2 la symétrie par rapport à l’axe (y = x), (c) f3 la projection orthogonale sur l’axe (O y), (d) f4 la rotation

d’angle .
Calculer quelques matrices associées à fi ◦ fj et, lorsque c’est possible, à fi−1.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 284

2. Même travail pour fi : R3 → R3 :

(a) f1 l’homothétie de rapport λ,

(b) f2 la réflexion orthogonale par rapport au plan (Oxz),

(c) f3 la rotation d’axe (Oz) d’angle − ,

(d) f4 la projection orthogonale sur le plan (O yz).

4. Changement de bases

4.1. Application linéaire, matrice, vecteur


Soit E un espace vectoriel de dimension finie et soit B =(e1, e2, . . . , ep) une base de E. Pour chaque x ∈ E, il existe

un p-uplet unique d’éléments de K (x1, x2, . . . , xp) tel que

+
x = x1e1 + x2e2 ···+ xpep.

xx21 !

La matrice des coordonnées de x est un vecteur colonne, noté MatB(x) ou encore .. . .


xp

xx12 ! B

Dans Rp, si B est la base canonique, alors on note simplement .. . en omettant de mentionner la base.
xp

Soient E et F deux K-espaces vectoriels de dimension finie et f : E → F une application linéaire. Le but de ce

paragraphe est de traduire l’égalité vectorielle y = f (x) par une égalité matricielle.

Soient B une base de E et B′ une base de F.

Proposition 10.
• Soit A = MatB,B′(f ). x1

x2 !


• Pour x E, notons X = MatB(x)= ... .
xp

y1 !B y2

• Pour y F, notons Y = MatB′(y)= ... .
yn B′

Alors, si y = f (x), on a
Mat ′ f (x)= Mat , ′ (f ) Mat (x)
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 285

Y = AX

Autrement dit :

B BB × B

Démonstration.
xx12 !

• On pose B =(e1, . . . , ep), B′ =(f1, f2, . . . , fn), A =(ai,j)= MatB,B′(f ) et X = MatB(x)= ... .
xp
• On a
p !p p‚ n Œ
X X XX
f (x)= f x jej = x j f (ej)= xj ai,j fi .
j=1 j=1 j=1 i=1
En utilisant la commutativité de K, on a

p ! p !
X X
f (x)= a1,j x j f1 +···+ an,j x j fn.
j=1 j=1

Ppj=1 a1,j x j  Ppj


1 a2,j x j

• La matrice colonne des coordonnées de y = f (x) dans la base (f1, f2, . . . , fn) est  ... .

Pp
an,j x j=1 j

Pppj=1 a1,j x j  x1

Pj 1 a2,j x j x2 !

• Ainsi la matrice Y = MatB′ f (x)= p= ...  n’est autre que A x ...p .

P an,j x
j=1 j

Exemple 17.
Soient E un K-espace vectoriel de dimension 3 et B =(e1, e2, e3) une base de E. Soit f l’endomorphisme
de E dont la matrice dans la base B est égale à

 1
1 2

A = MatB(f )=21 311 .


0

On se propose de déterminer le noyau de f et l’image de f .


MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 286

Les éléments x de E sont des combinaisons linéaires de e1, e2 et e3 : x = x1e1 + x2e2 + x3e3. On a
0
x ∈ Ker f
⇐⇒ f (x)= 0E ⇐⇒ MatB f (x)=00
0 x1 0

AX =0 ⇐⇒ Ax2=0

⇐⇒ 0 x3 0

x1 + 2x2 + x3 = 0

2x1 + 3x2 + x3 = 0

⇐⇒  x1 + x2 =0
On résout ce système par la méthode du pivot de Gauss. On trouve
Ker f E | x1 + 2x2 + x3 = 0 et x2 + x3 = 0 ¦€ t Š © € 1

= −tt | t ∈ K = Vect B

Le noyau est donc de dimension 1. Par le théorème du rang, l’image Im f est de dimension 2. Les deux premiers
vecteurs de la matrice A étant linéairement indépendants, ils engendrent Im f : Im f =
€ 1Š € 2Š
Vect 2 ,
3 . 1 B
1B

4.2. Matrice de passage d’une base à une autre


Soit E un espace vectoriel de dimension finie n. On sait que toutes les bases de E ont n éléments.
Définition 5.

Soit B une base de E. Soit B′ une autre base de E. B′ BB

On appelle× matrice de passage de la base B vers la base , et on note P , ′, la matrice carrée de tailleB′ n n

dont la j-ème colonne est formée des coordonnées du j-ème vecteur de la base , par rapport à la base B.

On résume en :
B
La matrice de passagela nouvelle baseP,B′ contient - en colonnes - les coordonnées des
vecteurs deB′ exprimés dans l’ancienne base B.

(
C’est pourquoi on note parfois aussi PB,B′ par MatB B′).

Exemple 18.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 287

Soit l’espace vectoriel réel R2. On considère

1 1 1 5 e1 = 0 e2 = 1 ε1 = 2 ε2 = 4 .

On considère la base B =(e1, e2) et la base B′ =(ε1, ε2).

Quelle est la matrice de passage de la base B vers la base B′ ?

Il faut exprimer ε1 et ε2 en fonction de (e1, e2). On calcule que :

−1 1

ε1 = −e1 + 2e2 = 2 ε2 = e1 + 4e2 = 4


B B

La matrice de passage est donc :


−1 1 PB,B′ = 2 4

On va interpréter une matrice de passage comme la matrice associée à l’application identité de E par rapport à
des bases bien choisies.
Proposition 11.

(La matrice de passageB PB,B′ de la base B vers la baseB′, etB′Eest la matrice associée à l’identitéest aussi
l’espace d’arrivée, mais muni de la baseidE : (E, B′) →

E, ) où E est l’espace de départ muni de la base


B:

PB ,B ′ = MatB ′,B (idE)

Faites bien attention à l’inversion de l’ordre des bases !

Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d’obtenir les résultats de façon très
élégante et avec un minimum de calculs.

Démonstration. On pose B =(e1, e2, . . . , en) et B′ =(e1′ , e2′ , . . . , en′ ). On considère

idE : (E, B′) −→ (E, B)

x 7−→ idE(x)= x

Pn (
On a idE(e′j) = e′j = i=1 ai,jei et MatB′,aB1,j idE) est la matrice dont la j-ème colonne est formée des

a2,j

coordonnées de e′j par rapport à B, soit  ... . Cette colonne est la j-ème colonne de PB,B′.
an,j

Proposition 12.

P ′, =P , ′ −1

P , ′′ =P , ′ P ′, ′′
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 288

1. La matrice de passage d’une base B vers une base B ′ est inversible et son inverse est égale à la matrice de

passage de la base B′ vers la base B : BB BB

2. Si B, B′ et B′′ sont trois bases, alors BB BB× BB

Démonstration.

1. On aP− P=B,B′ =BMatB′,B id−E1=. Donc, d’après le théorèmeMatB,B′ id−E1 . Or id−E1 =5idcaractérisant la

matrice d’un isomorphisme,E, donc PB−1,B′ = MatB,B′ idE = PB′,B.


1

B,B′ Mat ′,B idE


2. idE : (E, B′′) → (E, B) se factorise de la façon suivante :

(E, B′′) −id→E (E, B′) −id→E (E, B).

Autrement dit, on écrit idE = idE ◦ idE. Cette factorisation permet d’écrire l’égalité suivante :

MatB′′,B idE = MatB′,B idE × MatB′′,B′ idE , soit PB,B′′ = PB,B′ × PB′,B′′.

Exemple 19.

Soit E =R3 muni de sa base canonique B. Définissons

1  0   3   1  0  0 

1 =1
, −1 ,  2  Bet2 =−1 , 1 ,  0  .
B− −
0
Quelle est la matrice de passage de0B1 vers B2 ? 10 0 1

On a d’abord
1 0 3  P ,B1 =10 et  1 P 0 00
1

,B2 = 01 0 .
−01 −21
−1
B
B
La proposition 12

 
implique que PB1,B−201,=B1P, on trouve alors :B3,B 1− ×1PB1,B12. Donc on a0 0  PB1,B2 = PB−1,B1 × PB,B2. En appliquant

la méthode de Gauss pour calculer P


MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 289

PB1,B2 =10 −01 −21 ×−01 10 −01

1 0 31 0 0  1 0 −3

=1 −1 1 ×−1 1 0 =2 −1 −1 .


0 0 −1 0 0 −1 0 0 1

Nous allons maintenant étudier l’effet d’un changement de bases sur les coordonnées d’un vecteur. •
Soient B =(e1, e2, . . . , en) et B′ =(e1′ , e2′ , . . . , en′ ) deux bases d’un même K-espace vectoriel E.

• Soit P ,B′ la matrice de passage de la base B vers la base B′. x1 !


B

x2

Pn )=
• Pour x ∈ E, il se décompose en x = i=1 xiei dans la base B et on note X = MatB(x ...n
x .

Bx1′ 

Pn
∈ xi′ei′ dans la base B′ et on note X ′ = MatB′(x)= x...2′  . • Ce même x E se décompose en x = i=1
xn ′ B ′

Proposition 13.

X = PB ,B ′ ×X ′

Notez bien l’ordre !

Démonstration. PB,B′ est la matrice de idE : (E, B′) → (E, B). On utilise que x = idE(x) et la proposition

10. On a :
X = MatB(x)= MatB idE(x)= MatB′,B(idE)× MatB′(x)= PB,B′ ×X ′

4.3. Formule de changement de base


• Soient E et F deux K-espaces vectoriels de dimension finie.
• Soit f : E → F une application linéaire.

• Soient BE, BE′ deux bases de E. • Soient BF, BF′ deux bases de F.

•• Soit P = PPBEF,BE′F la matrice de passage dela matrice de passage de BBEF àà BBE′F′..


MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 290

Soit Q = B ,B′

• Soit A = MatBE,BF (f ) la matrice de l’application linéaire f de la base BE vers la base BF.

• Soit B = MatBE′ ,BF′ (f ) la matrice de l’application linéaire f de la base BE′ vers la base BF′ .

Théorème 6 (Formule de changement de base).

B = Q−1AP

Démonstration. L’application f : (E, BE′ ) → (F, BF′ ) se factorise de la façon suivante :

(E, BE′ ) −id→E (E, BE) −→f (F, BF) −id→F (F, BF′ ),

c’est-à-dire que f = idF ◦f ◦ idE.

On a donc l’égalité de matrices suivante :


B = MatBE′ ,BF′ (f ) Mat F ,BF′ (idF)× MatBE,BF (f )× MatBE′ ,BE
=
(idE)
=
= B

PBF′1,APBF × MatBE,BF (f )× PBE,BE′

Q−

Dans le cas particulier d’un endomorphisme, nous obtenons une formule plus simple :
• Soit f : E → E une application linéaire.

• Soient B, B′ deux bases de E.

•• SoitSoit AP ==MatPB,B′(la matrice de passage def ) la matrice de l’application linéaireB à B′. f dans la base
B.

• Soit B = MatBB′(f ) la matrice de l’application linéaire f dans la base B′.

Le théorème 6 devient alors :


Corollaire 3.

B = P−1AP

Exemple 20.
Reprenons les deux bases de R3 de l’exemple 19 :
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 291

1  0   3   1  0  0 

B 1 =1 , −1 ,  2  et B2 =−1 , 1 ,  0  .

0 0 −1 0 0 −1

Soit f : R3 → R3 l’application linéaire dont la matrice dans la base B1 est :

 
1 0 −6

A = MatB1(f )=−02 20 −37

Que vaut la matrice de f dans la base B2, B = MatB2(f ) ?


1. Nous avions calculé que la matrice de passage de B1 vers B2 était

 
1 0 −3

− −
P = PB1,B2 =20 01 11 .

1 0 3

2. On calcule aussi P−1 =2 −1 5 .

0 0 1
3. On applique la formule du changement de base du corollaire 3 :
1 0 3  1 0 −6 1 0 −3 1 0 0
− 1 2 − − 1− 2
0
B = P−1AP =2 0 5×−2 0 0 1=0 0
7×2 3
0 1 0 1 0
3 0
C’est souvent l’intérêt des changements de base, se ramener à une matrice plus simple. Par exemple ici, il est
facile de calculer les puissances Bk, pour en déduire les Ak.

4.4. Matrices semblables


Les matrices considérées dans ce paragraphe sont des matrices carrées, éléments de Mn(K).

Définition 6.
Soient A et B deux matrices de Mn(K). On dit que la matrice B est semblable à la matrice A s’il existe une
matrice inversible P ∈ Mn(K) telle que B = P−1AP.

C’est un bon exercice de montrer que la relation « être semblable » est une relation d’équivalence dans
l’ensemble Mn(K) :
Proposition 14.
• La relation est réflexive : une matrice A est semblable à elle-même.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 292

• La relation est symétrique : si A est semblable à B, alors B est semblable à A.


• La relation est transitive : si A est semblable à B, et B est semblable à C, alors A est semblable à C.

Vocabulaire :
Compte tenu de ces propriétés, on peut dire indifféremment que la matrice A est semblable à la matrice B ou
que les matrices A et B sont semblables. Le corollaire 3 se reformule ainsi :
Corollaire 4.
Deux matrices semblables représentent le même endomorphisme, mais exprimé dans des bases différentes.

Mini-exercices.

Soitla base canoniquef : R2 R2 définie parB0 de R2. Soitf (x, yB)=(1 =2x23+ ,y, 32x − 2y), Soit v


R2. avec ses coordonnées dans une autre base de

1. Calculer la matrice de f dans la base canonique.


2. Calculer les coordonnées de f (v) dans la base canonique.

3. Calculer la matrice de passage de B0 à B1.

4. En déduire les coordonnées de v dans la base B1, et de f (v) dans la base B1.

5. Calculer la matrice de f dans la base B1.

Même exercice dans R3 avec f : R3 → R3, f (x, y, zet

€€0Š €2Š €1ŠŠ B1 = 12 , 01 , 20 .


Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• réécrit et complété par Arnaud Bodin. Relu par Vianney Combet.
Chapitre

13
Déterminants

VidØo ■ partie 1. DØterminant en dimension 2 et 3


VidØo ■ partie 2. DØfinition du dØterminant
VidØo ■ partie 3. PropriØtØs du dØterminant
VidØo ■ partie 4. Calculs de dØterminants
VidØo ■ partie 5. Applications des dØterminants
Fiche d’exercices ‡ Calculs de dØterminants

Le déterminant est un nombre que l’on associe à n vecteurs (v1, . . . , vn) de Rn. Il correspond au volume du
parallélépipède engendré par ces n vecteurs. On peut aussi définir le déterminant d’une matrice A. Le
déterminant permet de savoir si une matrice est inversible ou pas, et de façon plus générale, joue un rôle
important dans le calcul matriciel et la résolution de systèmes linéaires.

Dans tout ce qui suit, nous considérons des matrices à coefficients dans un corps commutatif K, les principaux
exemples étant K=R ou K=C. Nous commençons par donner l’expression du déterminant d’une matrice en petites
dimensions.

1. Déterminant en dimension 2 et 3

1.1. Matrice 2×2

En dimension 2, le déterminant est très simple à calculer :


a b det c = ad − bc.

d
C’est donc le produit des éléments sur la diagonale principale (en bleu) moins le produit des éléments sur l’autre
diagonale (en orange).

 
a b
 
c d

1.2. Matrice 3×3 +

Soit A ∈ M3(K) une matrice 3 × 3 :


det A = a11a22a33 + a12a23a31 +
a13a21a32 − a31a22a13 − a32a23a11
a11
a12 a13 − a33a21a12 .
A =a21 a22 a23 .
a31 Voici la formule pour le déterminant : a32 a33
DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 294

Il existe un moyen facile de retenir cette formule, c’est la règle de Sarrus : on recopie les deux premières
colonnes à droite de la matrice (colonnes grisées), puis on additionne les produits de trois termes en les
regroupant selon la direction de la diagonale descendante (à gauche), et on soustrait ensuite les produits de trois
termes regroupés selon la direction de la diagonale montante (à droite).
   
a11 a12 a13 a11 a12 a11 a12 a13 a11 a12
   
 
 a21 a22 a23 a21 a22   a21 a22 a23 a21 a22 
 
   
 
 a31 a32 a33 a31 a32   a31 a32 a33 a31 a32 
 
 
 

Exemple 1.

2
1 0
− 1
Calculons le déterminant de la matrice A =1 3 2 3.
1
Par la règle de Sarrus : det A = 2 ×(−1)× 1 + 1 × 3 × 3 + 0 × 1 × 2

− 3 ×(−1)× 0 − 2 × 3 × 2 − 1 × 1 × 1 = −6.
 
2 1 0 2 1
 
 
 1 −1 3 1 −1 
 
 
 
 3 2 1 3 2 

Attention : cette méthode ne s’applique pas pour les matrices de taille supérieure à 3. Nous verrons d’autres
méthodes qui s’appliquent aux matrices carrées de toute taille et donc aussi aux matrices 3 × 3.

1.3. Interprétation géométrique du déterminant


On va voir qu’en dimension 2, les déterminants correspondent à des aires et en dimension 3 à des volumes.
a b
Donnons nous deux vecteurs v1 = ( c ) et v2 = d du plan R2. Ces deux vecteurs v1, v2 déterminent un
parallélogramme.
y

v2


j
v1

O ⃗
i x
Proposition 1.
L’aire du parallélogramme est donnée par la valeur absolue du déterminant :
a b
DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 295

A = det(v1, v2)= det c d.

De manière similaire, trois vecteurs de l’espace R3 :


a11 v1 a12 v2 a13 v3
a a a
= 21 = 22 = 23

a31 a32 a33


définissent un parallélépipède.

v3

v2 v1

À partir de ces trois vecteurs on définit, en juxtaposant les colonnes, une matrice et un déterminant :
a11 a12 a13
a22 a23 .
det(v1, v2, v3)= det a21 a32 a33
a31
Proposition 2.
Le volume du parallélépipède est donné par la valeur absolue du déterminant :

V = det(v1, v2, v3).

On prendra comme unité d’aire dans R 2 l’aire du carré unité dont les côtés sont les vecteurs de la base canonique

1
0 , 01, et comme unité de volume dans R3, le volume du cube unité.

Démonstration. Traitons le cas de la dimension 2. Le résultat est vrai si v1 =( 0a ) et v2 = d0 . En effet, dans ce cas on a
affaire à un rectangle de côtés |a| et |d|, donc d’aire |ad|, alors que le déterminant de la matrice

a 0 vaut
ad.
0 d

v2
d


j
v1
O ⃗
i a

Si les vecteurs v1 et v2 sont colinéaires alors le parallélogramme est aplati, donc d’aire nulle ; on calcule
facilement que lorsque deux vecteurs sont colinéaires, leur déterminant est nul.
DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 296
=
Dans la suite on suppose que les vecteurs ne sont pas colinéaires. Notons v1 =( ac ) et v2 = db . Si a ̸ 0, alors v2′ = v2 −

b € 0 Š
a v1 est un vecteur vertical :′ v2′ = d− ab c .

L’opération de remplacer v2 par v2 ne change pas l’aire du parallélogramme (c’est comme si on avait coupé le
triangle vert et on l’avait collé à la place le triangle bleu).


v2
v2


j
v1

O ⃗
i

Cette opération ne change pas non plus le déterminant car on a toujours :


a 0

det(v1, v2′)= det b d − ab c = ad − bc = det(v1, v2) .

On pose alors v1′ =( 0a ) : c’est un vecteur horizontal. Encore une fois l’opération de remplacer v1 par v1′ ne change
ni l’aire des parallélogrammes ni le déterminant car
a 0

det(v1′, v2′)= det 0 d − ab c = ad − bc = det(v1, v2) .


v2


j
v1

O ⃗
i v1

On s’est donc ramené au premier cas d’un rectangle aux côtés parallèles aux axes, pour lequel le résultat est déjà
acquis.

Le cas tridimensionnel se traite de façon analogue.

Mini-exercices.

1 2 7 8 1
1. Pour A = 5 3 −− × − , λA, AT.

et B = 9 5 calculer les déterminants de A, B, A B, A+ B, A

a b a′ 0

2. Mêmes questions pour A = c d et B = c′ d′ .


DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 297

2 0 1 1 2 3

3. Mêmes questions pour A =2 −1 2 et B =0 2 2.

3 1 0 0 0 3

7 1
4. Calculer l’aire du parallélogramme défini par les vecteurs 3 et .
4

€ 2Š € 1Š € 1Š
5. Calculer le volume du parallélépipède défini par les vecteurs 1 , 1 , 3 .
1 4 1
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 298

2. Définition du déterminant
Cette partie est consacrée à la définition du déterminant. La définition du déterminant est assez abstraite et il
faudra attendre encore un peu pour pouvoir vraiment calculer des déterminants.

2.1. Définition et premières propriétés


Nous allons caractériser le déterminant comme une application, qui à une matrice carrée associe un scalaire :

det : Mn(K) −→ K

Théorème 1 (Existence et d’unicité du déterminant).


Il existe une unique application de Mn(K) dans K, appelée déterminant, telle que
(i) le déterminant est linéaire par rapport à chaque vecteur colonne, les autres étant fixés ;
a11 ··· λa1j +µa1′ j ··· a1n
...
... ... ··· ain

...
···
ai1 ··· λaij +µaij′
anna1n
···

...
... ...
···
ain

··· ...
an1 ··· λanj +µanj′ ann

a11 ··· a1 j

... ...
a11
...

=λai1 ··· aij

a1 ′ j
... ... +µai1 a1n
...
··· ··· ...
...
aij′ ain .
an1 ··· anj ··· ···
...
...
a
Exemple 2. n1 ··· anj′ ··· ann
6 6 1 4
5
4
−3= 5 × 7 −2 −3
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 299

7 −1 12 5 −1
−10

12 25
Car la seconde colonne est un multiple de 5.
(ii) si une matrice A a deux colonnes identiques, alors son déterminant est nul ; (iii) le
déterminant de la matrice identité In vaut 1.

Une preuve de l’existence du déterminant sera donnée plus bas en section 2.4.
On note le déterminant d’une matrice A =(aij) par :
a11 a12 ··· a1n
a22 ···
a2n
...
a ... .
21 ···
... an2
ann
det A ou

a
Si on note Ci la i-ème colonne de A, alors n1

det A =C1 C2 ··· Cn= det(C1, C2, . . . , Cn) .

Avec cette notation, la propriété (i) de linéarité par rapport à la colonne j s’écrit : pour tout λ, µ ∈ K, det(C1, . . . ,

λCj +µCj′, . . . , Cn)=λ det(C1, . . . , Cj, . . . , Cn)+µ det(C1, . . . , Cj′, . . . , Cn), soit

3 2 4−3 3 2 4 3 2 3
− 5 3 −7 − 52
2 2
7 −5 3 − 2 =7 4
10 9

9 2 10 − 4 9

Par linéarité sur la troisième colonne.

Remarque.
• Une application de Mn(K) dans K qui satisfait la propriété (i) est appelée forme multilinéaire.
• Si elle satisfait (ii), on dit qu’elle est alternée.
Le déterminant est donc la seule forme multilinéaire alternée qui prend comme valeur 1 sur la matrice In. Les
autres formes multilinéaires alternées sont les multiples scalaires du déterminant. On verra plus loin comment
on peut calculer en pratique les déterminants.

2.2. Premières propriétés


Nous connaissons déjà le déterminant de deux matrices :
• le déterminant de la matrice nulle 0n vaut 0 (par la propriété (ii)),
• le déterminant de la matrice identité In vaut 1 (par la propriété (iii)).
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 300

Donnons maintenant quelques propriétés importantes du déterminant : comment se comporte le déterminant


face aux opérations élémentaires sur les colonnes ?
Proposition 3.
Soit A ∈ Mn(K) une matrice ayant les colonnes C 1, C2, . . . , Cn. On note A′ la matrice obtenue par une des

opérations élémentaires sur les colonnes, qui sont :

1. Ci ← λCi avec λ≠ 0 : A′ est obtenue en multipliant une colonne de A par un scalaire non nul. Alors det A′

=λ det A.

2. Ci ← Ci +λCj avec λ ∈ K (et j ̸= i) : A′ est obtenue en ajoutant à une colonne de A un multiple d’une

autre colonne de A. Alors det A′ = det A.

3. Ci ↔ Cj : A′ est obtenue en échangeant deux colonnes distinctes de A. Alors det A′ = − det A .

Pn
Plus généralement pour (2) : l’opération Ci ← Ci + j=1 λjCj d’ajouter une combinaison linéaire des autres j̸=i

colonnes conserve le déterminant.


Attention ! Échanger deux colonnes change le signe du déterminant.

Démonstration.

1. La première propriété découle de la partie (i) de la définition du déterminant.

2. Soit A = C1 ··· Ci ··· Cj ··· Cn une matrice représentée par ses vecteurs colonnes Ck. L’opération Ci ← Ci +λCj
transforme la matrice A en la matrice A′ = C1 ··· Ci +λCj ··· Cj ··· Cn.
Par linéarité par rapport à la colonne i, on sait que

det A′ = det A+λ det C1 ··· Cj ··· Cj ··· Cn .

Or les colonnes i et j de la matrice C1 ··· Cj ··· Cj ··· Cn sont identiques, donc son déterminant est nul.

3. Si on échange les colonnes i et j de A = C1 ··· Ci ··· Cj ··· Cn on obtient la


matrice A′ =
C1 ··· Ci ··· Cj ··· Cn, où le vecteur Cj se retrouve en colonne i et le vecteur Ci en colonne j. Introduisons alors une

troisième matrice B = C1 ··· Ci + Cj ··· Cj + Ci ··· Cn. Cette matrice a deux colonnes distinctes égales, donc d’après

(ii), det B = 0.

D’un autre côté, nous pouvons développer ce déterminant en utilisant la propriété (i) de multilinéarité, c’est-
à-dire linéarité par rapport à chaque colonne. Ceci donne

0 = det B = det C1 ··· Ci + Cj ··· Cj + Ci ··· Cn


DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 301

= det C1 ··· Ci ··· Cj + Ci ··· Cn

+ det C1 ··· Cj ··· Cj + Ci ··· Cn

= det C1 ··· Ci ··· Cj ··· Cn

+ det C1 ··· Ci ··· Ci ··· Cn

+ det C1 ··· Cj ··· Cj ··· Cn

+ det C1 ··· Cj ··· Ci ··· Cn = det A+ 0 + 0 + det

A′,

encore grâce à (i) pour les deux déterminants nuls du milieu.

Corollaire 1.
Si une colonne Ci de la matrice A est combinaison linéaire des autres colonnes, alors det A = 0.

2.3. Déterminants de matrices particulières


Calculer des déterminants n’est pas toujours facile. Cependant il est facile de calculer le déterminant de matrices
triangulaires.

Proposition 4.
Le déterminant d’une matrice triangulaire supérieure (ou inférieure) est égal au produit des termes
diagonaux.

Autrement dit, pour une matrice triangulaire A =(aij) on a


a12 . . . . . . . . . a1n
a a2n...
11 a22 . . . . . . . . .
... ...
... = a11 · a22 ··· ann.
0 ...
...
... ... ...
...

det . . . . . . . . . 0 ann
A = ...
...

0
Comme cas particulièrement important on obtient :

Corollaire 2.
Le déterminant d’une matrice diagonale est égal au produit des termes diagonaux.
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 302

Démonstration. On traite le cas des matrices triangulaires supérieures (le cas des matrices triangulaires
inférieures est identique). Soit donc
a11 a12 a13 ··· a1n

0 a22 a23 ··· a2n


0 a33 
A = 0... ···...
... ... a3n .

 0 0 ··· ... 
0
ann
La façon de procéder utilise l’algorithme du pivot de Gauss (sur les colonnes, alors qu’il est en général défini sur
les lignes). Par linéarité par rapport à la première colonne, on a
1 a12 a13 ··· a1na2n
a22 a23 ···
0 a33 a3n .
0
···...
... ...
...
det A = a11 0... 0 0 ··· an
On soustrait maintenant de chaque n colonne Cj, pour j ⩾ 2, la colonne C1

1 0 0 ··· 0
0 a2n

0 a22 a23 ···


a3n . multipliée par −a1j. C’est l’opération
...
det A = a11 0.. 0... a33... ···... ann
.

0 0 0 ···
élémentaire Cj ← Cj − a1jC1. Ceci ne
Par linéarité par rapport à la deuxième colonne, on en déduit
1 0 0 ···

0
0 1 a23 ··· a2n
modifie pas le déterminant d’après
det A = a11 · a22 0.. 0... a3n ,
a33... ...
···... . ann

0 0 0 ···
la section précédente. Il vient donc

et l’on continue ainsi jusqu’à avoir parcouru toutes les colonnes de la matrice. Au bout de n étapes, on a obtenu
1 0 0 ··· 0
1 0 ···
0
DÉTERMINANTS 0 1 2. DÉFINITION DU DÉTERMINANT 303
0 0= a11 · a22 · a33 ··· ann · det In,
... ... ···...
..
0 0 0 ···
det A = a11 · a22 · a33 ··· ann ... .

0
d’où le résultat, car det I 1, par (iii).
n=

2.4. Démonstration de l’existence du déterminant


La démonstration du théorème d’existence du déterminant, exposée ci-dessous, est ardue et pourra être gardée
pour une seconde lecture. Par ailleurs, l’unicité du déterminant, plus difficile, est admise. Pour démontrer
l’existence d’une application satisfaisant aux conditions (i), (ii), (iii) du théorème-définition
1, on donne une formule qui, de plus, nous offre une autre méthode de calcul pratique du déterminant d’une
matrice, et on vérifie que les propriétés caractéristiques des déterminants sont satisfaites. On retrouvera cette
formule, dite de développement par rapport à une ligne, en section 4.2.
Notation. Soit A ∈ Mn(K) une matrice carrée de taille n × n. Il est évident que si l’on supprime une ligne et une

colonne dans A, la matrice obtenue a n − 1 lignes et n − 1 colonnes. On note Ai,j ou Aij la matrice obtenue en

supprimant la i-ème ligne et la j-ème colonne de A. Le théorème d’existence peut s’énoncer de la façon

suivante :

Théorème 2 (Existence du déterminant).


Les formules suivantes définissent par récurrence, pour n ⩾ 1, une application de Mn(K) dans K qui
satisfait aux propriétés (i), (ii), (iii) caractérisant le déterminant :
• Déterminant d’une matrice 1 × 1. Si a ∈ K et A =(a), det A = a.
• Formule de récurrence. Si A =(ai,j) est une matrice carrée de taille n × n, alors pour tout i fixé

det A =(−1)i+1ai,1 det Ai,1 +(−1)i+2ai,2 det Ai,2 +···+(−1)i+nai,n det Ai,n.

Démonstration. La preuve se fait par récurrence sur l’ordre des matrices.

Initialisation. Dans le cas n = 1, il est évident que toutes les propriétés souhaitées sont satisfaites.

Hérédité. Supposons maintenant que l’application det : Mn−1(K) → K soit définie et satisfasse les propriétés

(i), (ii) et (iii). Pour faciliter l’exposition, la preuve va être faite pour i = n. Soit A = (ai,j) notée aussi
‚ a1,j Œ ‚ a1,j Œ
. .
A =(C1 ··· Cn) où Cj = .. est la j-ème colonne de A. On notera aussi C¯j = .. la colonne à (n − 1)
an,j a
n
−1,j
éléments, égale à Cj privée de son dernier coefficient.
• Propriété (i).
Il s’agit de vérifier que l’application
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 304

A 7→ det A =(−1)n+1an,1 det An,1 +(−1)n+2an,2 det An,2 +···+(−1)n+nan,n det An,n

est linéaire par rapport à chaque colonne. Nous allons le prouver pour la dernière colonne, c’est-à-dire que :

det(C1, . . . , Cn−1, λCn′ +µCn′′)=λ det(C1, . . . , Cn−1, Cn′)+µ det(C1, . . . , Cn−1, Cn′′) .

Notons A, A′, A′′ les matrices (C1 ··· Cn−1 ···λCn′ +µCn′′), (C1 ··· Cn−1 ··· Cn′) et (C1 ··· Cn−1 ··· Cn′′), et An,j,

A′n,j, A′′n,j les sous-matrices extraites en enlevant n-ème ligne et la j-ème colonne. En comparant les différentes

matrices, on constate que an′ ,j = an′′,j = an,j si j < n tandis que an,n = λan′ ,n + µan′′,n. Similairement,′ A′n′′,n = A′′n,n =

An,n−=(C¯1 ··· C¯n−1) puisque la n-ème colonne est enlevée. Par contre, pour j < n, An,j, An,j, An,j ont leurs (n 2)

premières colonnes identiques, et diffèrent par la dernière. Comme ce sont des déterminants de taille n − 1,

on peut utiliser l’hypothèse de récurrence :

det An,j = det(C¯1, . . . , C¯j−1, C¯j+1, . . . , C¯n−1, λC¯n′ +µC¯n′′)

= λ det(C¯1, . . . , C¯j−1, C¯j+1, . . . , C¯n−1, C¯n′)

+µ det(C¯1, . . . , C¯j−1, C¯j+1, . . . , C¯n−1, C¯n′′)

= λ det A′n,j +µ det A′′n,j Finalement, en

mettant de côté dans la somme le n-ème terme :


detA = (−1)n+1an,1 detAn,1 +(−1)n+2an,2 detA1,2 +···+(−1)n+nan,n detAn,n

= n−1(−1)n+jan,j detAn,j!+(−1)2nan,n detAn,n

j=1

= n−1(−1)n+jan,j(λdetA′n,j +µdetA′′n,j)!+(−1)2n(λan′ ,n +µan′′,n)detAn,n

j=1
n n

= λX(−1)n+jan′ ,j detA′n,j +µX(−1)n+jan′′,j detA′′n,j

j=1 j=1

= λdetA′ +µdetA′′

La démonstration est similaire pour les autres colonnes (on peut aussi utiliser la propriété (ii) ci-dessous).
• Propriété (ii).
Supposons que Cr = Cs pour r < s. Si k est différent de r et de s, la matrice An,k possède encore deux colonnes
identiques C¯r et C¯s. Par hypothèse de récurrence, det An,k = 0. Par conséquent,

det A =(−1)n+r det An,r +(−1)n+s det An,s


DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 305

Or An,r et An,s possèdent toutes les deux les mêmes colonnes : An,r = (C¯1 ··· C¯r−1C¯r+1 ··· C¯s ··· C¯n) et An,s =(C¯1 ···

C¯r ··· C¯s−1C¯s+1 ··· C¯n), car C¯r = C¯s. Pour passer de An,s à An,r, il faut faire s − r − 1 échanges
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 306

(
de colonnes C¯j ↔ C¯j+1 successifs, qui par hypothèse de récurrence changent le signe par −1)s−r−1 : det An,s

=( 1
− )s−r−1 det An,r. On conclut immédiatement que

det A = (−1)n+r +(−1)n+2s−r−1 det An,r = 0 .

• Propriété (iii). Si l’on considère pour A la matrice identité In, ses coefficients ai,j sont tels que :

i = j =⇒ ai,j = 1 i ≠ j

=⇒ ai,j = 0.

=(
Donc det In −1)n+n det An,n. Or, la matrice An,n obtenue à partir de la matrice identité en supprimant la

dernière ligne et la dernière colonne est la matrice identité de taille (n − 1)×(n − 1). Par hypothèse de

récurrence, on a det In−1 = 1. On en déduit det In = 1.

Conclusion. Le principe de récurrence termine la preuve du théorème d’existence du déterminant.

Remarque.
La définition donnée ci-dessus suppose le choix d’un indice i de ligne (i = n dans la démonstration) et peut
paraître arbitraire. Alors se pose naturellement la question : que se passe-t-il si l’on prend une autre valeur de i ?
L’unicité du déterminant d’une matrice permet de répondre : quelle que soit la ligne choisie, le résultat est le
même.
Mini-exercices.

1. En utilisant la linéarité du déterminant, calculer det (−In).

2. Pour A ∈ Mn(K), calculer det(λA) en fonction de det A.

P
3. Montrer que le déterminant reste invariant par l’opération Ci ← Ci + j=1..n λjCj (on ajoute à une colonne de A

une combinaison linéaire des autres colonnes de A). j≠ i

3. Propriétés du déterminant
Nous allons voir trois propriétés importantes du déterminant : le déterminant d’un produit de matrices, le
déterminant de l’inverse d’une matrice, le déterminant de la transposée d’une matrice. Pour prouver ces
propriétés, nous aurons besoin des matrices élémentaires.

3.1. Déterminant et matrices élémentaires


Pour chacune des opérations élémentaires sur les colonnes d’une matrice A, on associe une matrice élémentaire
E, telle que la matrice obtenue par l’opération élémentaire sur A soit A′ = A× E.
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 307

=
1. des 1, sauf en positionCi ← λCi avec λ ̸ 0 : E(iC,i←i)λ;Ci = diag(1, . . . , 1, λ, 1, . . . , 1) est la matrice diagonale ne
comportant que

=
2. son coefficient vautCi ← Ci +λCj avec λλ∈; K (et j ̸ i) : ECi←Ci+λCj est comme la matrice identité, sauf en
position (j, i) où

3. Ci ↔ Cj : EC C est comme la matrice identité, sauf que ses coefficients (i, i) et (j, j) s’annulent, tandis
i↔ j que les coefficients (i, j) et (j, i) valent 1 
1. ...
1  1 
...  0 1 
 1 λ  1 
 

ECi↔Cj = ... 


ECi←Ci+λCj = ... ... 
 1 
 1
 1 0 
 1
 ... 
 ... 
1
1
Nous allons détailler le cas de chaque opération et son effet sur le déterminant :

Proposition 5.

1. det ECi←λCi =λ

2. det ECi←Ci+λCj =+1

3. det ECi↔Cj = −1

4. Si E est une des matrices élémentaires ci-dessus, det (A× E)= det A× det E

Démonstration. Nous utilisons les propositions 3 et 4.

1. La matrice ECi←λCi est une matrice diagonale, tous les éléments diagonaux valent 1, sauf un qui vaut λ. Donc son

déterminant vaut λ.

2. La matrice ECi←Ci+λCj est triangulaire inférieure ou supérieure avec des 1 sur la diagonale. Donc son déterminant

vaut 1.
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 308

3. La matrice ECi↔Cj est aussi obtenue en échangeant les colonnes i et j de la matrice In. Donc son déterminant
vaut −1.

4. La formule det A× E = det A× det E est une conséquence immédiate de la proposition 3.

Cette proposition nous permet de calculer le déterminant d’une matrice A de façon relativement simple, en
utilisant l’algorithme de Gauss. En effet, si en multipliant successivement A par des matrices élémentaires E1, . . . ,
Er on obtient une matrice T échelonnée, donc triangulaire

T = A· E1 ··· Er

alors, en appliquant r-fois la proposition précédente, on obtient :


det T = det(A· E1 ··· Er)
=
= det(A· E1 ··· Er−1)· det Er
= ···
det A· det E1 · det E2 ··· det Er
Comme on sait calculer le déterminant de la matrice triangulaire T et les déterminants des matrices élémentaires
Ei, on en déduit le déterminant de A.
En pratique cela ce passe comme sur l’exemple suivant.

Exemple 3.
0 3 2
− 6
Calculer det A, où A =1 5 6
9
1
0 3 2 det A =
det 1 −6 6
5 9 1
(opération C1 ↔ C2 pour avoir un pivot en haut à gauche)

3 0 2

= (−1)× det −6 1 6


9 5 1
(C1 ← 31 C1, linéarité par rapport à la première colonne)

1 0 2

= (−1)× 3 × det −2 1 6


DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 309

3 5 1

1 0 0

= (−1)× 3 × det −2 1 10 C3 ← C3 − 2C1


3 5 −5

1 0 0

= (−1)× 3 × det −2 1 0  C3 ← C3 − 10C2 3 5

−55

= (−1)× 3 ×(−55) car la matrice est triangulaire

= 165

3.2. Déterminant d’un produit Théorème 3.

det(AB)= det A · det B

Démonstration. La preuve utilise les matrices élémentaires ; en effet, par la proposition 5, pour A une matrice
quelconque et E une matrice d’une opération élémentaire alors :

det(A× E)= det A× det E.

Passons maintenant à la démonstration du théorème. On a vu dans le chapitre « Matrices » qu’une matrice B est
inversible si et seulement si sa forme échelonnée réduite par le pivot de Gauss est égale à In, c’est-à-dire qu’il
existe des matrices élémentaires Ei telles que

BE1 ··· Er = In .

D’après la remarque préliminaire appliquée r fois, on a

det(B · E1E2 ··· Er)= det B · det E1 · det E2 ··· det Er = det In = 1

On en déduit
1

det B = det E1 ··· det Er ·

Pour la matrice AB, il vient


(AB)·(E1 ··· Er)= A· In = A.

Ainsi det(ABE1 ··· Er)= det(AB)· det E1 ··· det Er = det A.

Donc :
1
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 310

det(AB)= det A× det E1 ··· det Er = det A× det B.


D’où le résultat dans ce cas.

Si B n’est pas inversible, rg B < n, il existe donc une relation de dépendance linéaire entre les colonnes de B, ce
qui revient à dire qu’il existe un vecteur colonne X tel que BX = 0. Donc det B = 0, d’après le corollaire 1. Or BX =
0 implique (AB)X = 0. Ainsi AB n’est pas inversible non plus, d’où det(AB)= 0 = det Adet B dans ce cas également.

3.3. Déterminant des matrices inversibles


Comment savoir si une matrice est inversible ? Il suffit de calculer son déterminant !
Corollaire 3.
Une matrice carrée A est inversible si et seulement si son déterminant est non nul. De plus si A est
inversible, alors :
1
det A−1= det

Démonstration.
• Si A est inversible, il existe une matrice A−1 telle que AA−1 = In, donc det(A) det(A−1)= det In = 1. On en déduit

que det A est non nul et det(A−1)= det1 A.

• Si A n’est pas inversible, alors elle est de rang strictement inférieur à n. Il existe donc une relation de
dépendance linéaire entre ses colonnes, c’est-à-dire qu’au moins l’une de ses colonnes est combinaison
linéaire des autres. On en déduit det A = 0.

Exemple 4.
Deux matrices semblables ont même déterminant.
En effet : soit B = P−1AP avec P ∈ GLn(K) une matrice inversible. Par multiplicativité du déterminant, on en déduit

que : det B = det(P−1AP)= det P−1 det Adet P = det A,

puisque det P−1 = det1 P .

3.4. Déterminant de la transposée

Corollaire 4.

det AT= det A

Démonstration. Commençons par remarquer que la matrice E d’une opération élémentaire est soit triangulaire
(substitution), soit symétrique c’est-à-dire égale à sa transposée (échange de lignes et homothétie). On vérifie
facilement que det ET = det E.
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 311

Supposons d’abord que A soit inversible. On peut alors l’écrire comme produit de matrices élémentaires, A = E1
··· Er. On a alors

AT = ErT ··· E1T

et det(AT)= det(ErT)··· det(E1T)= det(Er)··· det(E1)= det(A).


DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 312

D’autre part, si A n’est pas inversible, alors AT n’est pas inversible non plus, et det A = 0 = det AT.

Remarque.
Une conséquence du dernier résultat, est que par transposition, tout ce que l’on a dit des déterminants à propos
des colonnes est vrai pour les lignes. Ainsi, le déterminant est multilinéaire par rapport aux lignes, si une matrice
a deux lignes égales, son déterminant est nul, on ne modifie pas un déterminant en ajoutant à une ligne une
combinaison linéaire des autres lignes, etc.

Voici le détail pour les opérations élémentaires sur les lignes :

1. Li ← λLi avec λ≠ 0 : le déterminant est multiplié par λ.

2. Li ← Li +λLj avec λ ∈ K (et j ̸= i) : le déterminant ne change pas.

3. Li ↔ Lj : le déterminant change de signe.

Mini-exercices.
a 1 3 1 0 2

1. Soient A = 0 b 2 et B =  0 d 0. Calculer, lorsque c’est possible, les déterminants


des
0 −0 c− −2 0 1

matrices A, B, A 1, B 1, AT, BT, AB, BA.

2. Calculer le déterminant de chacune des matrices suivantes en se ramenant par des opérations
élémentaires à une matrice triangulaire.
 
1 2 4 8


a b 1 0 6  1 12 1j2 avec j = e 23iπ 11 34 169 2764 

3 4 15 1 j j
c d
5 6 21 1 j
1 5 25 125

4. Calculs de déterminants
DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 313

Une des techniques les plus utiles pour calculer un déterminant est le « développement par rapport à une ligne
(ou une colonne) ».

4.1. Cofacteur

Définition 1.

Soit A = aij ∈ Mn(K) une matrice carrée.


• On note Aij la matrice extraite, obtenue en effaçant la ligne i et la colonne j de A.
• Le nombre det Aij est un mineur d’ordre n − 1 de la
 a ··· a1n 
A= 1,j+1 matrice A.
 a11 ··· a1,j−1 a1,j ... 
 =( 1
 ai,1 ... ... • Le nombre Cij − ) i+ j
... 
  det Aij est le
  ··· ai , j − 1 ai , j ai , j+ 1 ···
cofacteur de A relatif
 ··· ai + 1 , j 1 ai + 1, j ai + 1, j+ 1 ···  ai,n  au coefficient aij.
a −
 ai+1,n 
i+1,1 ai−1,1 ···
  ai−1,j−1 ai1,j
− ai−1,j+1 ···
 ... ... 
... ai−1,n 

··· an,j−1 an,j an,j+1 ··· ... 
 an1 ann 
 a1,1 ... ...
. a1,j−1 a1,j+1
 .. ... ... a1,n 
 ... ...
... ...
a
ai−1,j−1 ai−1,j+1 ai+1,j−1 ... 
Aij =aii+−11,,11
... ... ai−1,n

ai+1,j+1 ai+1,n .
 ... .. 
...
 an,n

an,j−1 an,j+1
Exemple 5. an,1
1 2 3
2
Soit A =4 0 1 1. Calculons A11, C11, A32, C32.
1

DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 314

 
1 2 3
  1 3
A32 =  4 2 1  =
  4 1
 0 1 1 

C32 =(−1)3+2 detA32 =(−1)×(−11)= 11.

=
Pour déterminer si Cij = + det Aij ou Cij − det Aij, on peut se souvenir que l’on associe des signes en suivant le
schéma d’un échiquier :
 + − + − + 
−+ . . .

. . .
A =+ − +
−... 
. . .


... ... ...

Donc C11 =+ det A11, C12 = − det A12, C21 = − det A21...
4.2. Développement suivant une ligne ou une colonne

Théorème 4 (Développement suivant une ligne ou une colonne).


Formule de développement par rapport à la ligne i :
n n

det A =X(−1)i+jaij det Aij =X aijCij

j=1 j=1

Formule de développement par rapport à la colonne j :


n n

det A =X(−1)i+jaij det Aij =X aijCij

i=1 i=1
Démonstration. Nous avons déjà démontré la formule de développement suivant une ligne lors de la
démonstration du théorème 1 d’existence et d’unicité du déterminant. Comme det A = det AT, on en déduit la
formule de développement par rapport à une colonne.

Exemple 6.
DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 315

Retrouvons la formule des déterminants 3 × 3, déjà présentée par la règle de Sarrus, en développement par
rapport à la première ligne. On choisit de
a11 développer par
rapport à la
seconde colonne
a (car c’est là qu’il y a
21 a12
a13a23 le plus de zéros) :
a22
a31 a32 a33 = a11C11 + a12C12 + a13C13
a22 a23 a21 a23 a21 a22

= a a a
a11 − a12 + a13 a31 a32 32 33 31
a
33

= )
a11(a22a33 − a32a23 − a12(a21a33 − a31a23)

= + a13(a21a32 − a31a22) a11a22a33 − a11a32a23 +

a12a31a23 − a12a21a33 + a13a21a32 − a13a31a22.

 
4 0 3 1

4 2 1 0
A =0 3 1 −1
4.3. Exemple Exemple 
7. 1 0 2 3

det A = 0C12 + 2C22 + 3C32 + 0C42

(développement par rapport à la deuxième colonne)

4 3 1 4 3
1= +2 0 1 −1− 3 4 1
0

1 2 3 1 2 3
on n’oublie pas les signes des cofacteurs et on recommence

en développant chacun de ces deux déterminants 3 × 3

1 −1− 3 13 −1

= +2 +4 2 3 02 3+ 1 1 1

(par rapport à la première colonne)


DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 316

3 14 14 3
−3 −4 2 3+ 1 1 3− 0 1 2

(par rapport à la deuxième ligne)

= +2 + 4 × 5 − 0 + 1 ×(−4)− 3 − 4 × 7 + 1 × 11 − 0
= 83

Remarque.
Le développement par rapport à une ligne permet de ramener le calcul d’un déterminant n × n à celui de n

déterminants (n − 1) × (n − 1). Par récurrence descendante, on se ramène ainsi au calcul de n! sousdéterminants,

ce qui devient vite fastidieux. C’est pourquoi le développement par rapport à une ligne ou une colonne n’est

utile pour calculer explicitement un déterminant que si la matrice de départ a beaucoup de zéros. On commence

donc souvent par faire apparaître un maximum de zéros par des opérations élémentaires sur les lignes et/ou les

colonnes qui ne modifient pas le déterminant, avant de développer le déterminant suivant la ligne ou la colonne

qui a le plus de zéros.

4.4. Inverse d’une matrice

Soit A ∈ Mn(K) une matrice carrée.

Nous lui associons la matrice C des cofacteurs, appelée comatrice, et notée Com(A) :

 C11 C12 ··· C1n 


Exemple 8.
 C2n 
1 1 0 
C21 C22 ··· C
... 
Soit A = 0 1
=(Cij)= ... ...
1 . Le calcul donne que det A = 2. La comatrice C s’obtient en calculantCnn
9 déterminants

1 0 1
Cn1 Cn2 ··· 2 × 2 (sans oublier les signes
A−1 = det 1 +/−). On trouve :
A CT
Théorème 5.
Soient A une matrice
 inversible, et
 C sa comatrice. On a alors  
1 1 −1 1 −1 1

C =−1 1 1  et donc A−1 = det 1 A · CT = 2 1  1 1 −1

1 −1 1 −1 1 1

La démonstration se déduit directement du lemme suivant.


Lemme 1.
Soit A une matrice (inversible ou pas) et C sa comatrice. Alors ACT =(det A)In, autrement dit
X
DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 317

aikCjk = det0 A si isinon= j

P
Démonstration. Le terme de position (i, j) dans ACT est k aikCjk, et donc si i = j, le résultat découle de la formule de
développement par rapport à la ligne i.
Pour le cas i ≠ j, imaginons que l’on remplace A par une matrice A′ =(aij′ ) identique, si ce n’est que la ligne

Lj est remplacée par la ligne Li, autrement dit a′jk = aik pour tout k. De plus, comme A′ possède deux lignes
identiques, son déterminant est nul. On appelle C′ la comatrice de A′, et la formule de développement pour la
ligne j de A′ donne

0 = det A′ =X a′jkCjk′ =X aikCjk′


k k

Or, Cjk′ se calcule à partir de la matrice extraite A′jk, qui ne contient que les éléments de A′ sur les lignes
différentes de j et colonnes différents de k. Mais sur les lignes différentes de j, A′ est identique à A, donc Cjk′ = Cjk.
P
On conclut que k aikCjk = 0.
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 318

Finalement,
  det A 0 . . . 0

T 
 0 det A ...  AC = ... ... 0 = det A· I


0 ... 0 det A

et en particulier, si det A ≠ 0, c’est-à-dire si A est inversible, alors on a

A−1 = det 1 ACT .

Mini-exercices.
2 0 −2 t 0 t

1. Soient A =0 1 −1 et B = 0 t 0. Calculer les matrices extraites, les mineurs d’ordre
2
2 0 0 −t 0 t

et les cofacteurs de chacune des matrices A et B. En déduire le déterminant de A et de B. En déduire l’inverse


de A et de B lorsque c’est possible.
2. Par développement suivant une ligne (ou une colonne) bien choisie, calculer les déterminants :

1 0 1 2 t 0 1 0

0 0 0 1 1 t 0 0

1 1 1 0 0 1 t 0

0 0 0 −1 0 0 0 t

3. En utilisant la formule de développement par rapport à une ligne, recalculer le déterminant d’une

matrice triangulaire.

5. Applications des déterminants


Nous allons voir plusieurs applications des déterminants.

5.1. Méthode de Cramer


DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 319

Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour la solution de certains systèmes
d’équations linéaires ayant autant d’équations que d’inconnues. Considérons le système d’équations linéaires à
n équations et n inconnues suivant :
 a11x1 + a12x2 +···+ a1nxn = b1


 a21x1 + a22x2 +···+ a2nxn = b2

...


 an1x1 + an2x2 +···+ annxn = bn

Ce système peut aussi s’écrire sous forme matricielle AX = B où


 a11 a12 ··· a1n   x1  et  b1 

 b2 
 
a21 a22 ··· a2n  ∈ K x2 
 B = ...  .
=    
A  ... ... ...  Mn( ), X =  ... 
bn
an1 an2 ··· ann xn
Définissons la matrice Aj ∈ Mn(K) par
 a11 . . . a1,j−1 b1 b2 ... a1n 
a
... ...
1,j+1 ...
a a
a2n 
 21 Aj . . . a2,j−1 2,j+1
bn .
= ... ... ... ... . . 

an,j−1 an,j+1 ann
an1
Autrement dit, Aj est la matrice obtenue en remplaçant la j-ème colonne de A par le second membre B. La règle

de Cramer va nous permettre de calculer la solution du système dans le cas où det A ≠ 0 en fonction des

déterminants des matrices A et Aj.

Théorème 6 (Règle de Cramer).


Soit
AX = B
un système de n équations
du système est donnée par : à n inconnues. Supposons
det A det A det A que det A ≠ 0. Alors
x1 = x2 = ... xn = l’unique solution (x 1, x2, . . .

, det A1 det A2 det An . xn)

Démonstration. Nous avons supposé que det A ≠ 0. Donc− A est inversible. Alors X = A−1B est l’unique solution du

système. D’autre part, nous avons vu que A 1 = det1 ACT où C est la comatrice. Donc X = det1 ACT B.

En développant,
       x1 C11 . . . Cn1 b1 C11b1 + C21b2 +···+ Cn1bn
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 320

. . .
 ... = det1 A  .. ..  .. = det1 A  ... 

X = xn C1n . . . Cnn bn C1nb1 + C2nb2 +···+ Cnnbn

C’est-à-dire

x1 = C11b1 +det···A+ Cn1bn , xi = C1i b1 +det···A+ Cni bn , xn = C1nb1 +det···A+ Cnnbn

+
Mais b1C1i ···+ bnCni est le développement en cofacteurs de det Ai par rapport à sa i-ème colonne. Donc

det A
xi =
det Ai ·
Exemple 9.
Résolvons le système
suivant :

+

−3x1 + 4x2 +

On a

2x3 = 6
4
6x3 = 30
3x3 = 8.
−2

6 6
2 1
B = 30 
A1 = 30 8
6  A2 = −3 30 2
8 −2
0
3 −1 8 6  A3 = −3
4
et 3 −2
det A = 44 det A1 = − 6 
det A2 = 72 det A3 = 152.
30 
La solution est alors 8
x1 = det A1 = −4440 = −1011 x2 =
detdetAA2 = 4472 = 1811 x3 =
detdetAA3 = 15244 = 3811 · det A
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 321

La méthode de Cramer n’est pas la méthode la plus efficace pour résoudre un système, mais est utile si le
système contient des paramètres.

5.2. Déterminant et base


Soit E un K-espace vectoriel de dimension n. Fixons une base B de E. On veut décider si n vecteurs v1, v2, . . . , vn

forment aussi une base de E. Pour cela, on écrit la matrice A ∈ Mn(K) dont la j-ème colonne est formée des

coordonnées du vecteur vj par rapport à la base B (comme pour la matrice de passage). Le calcul de déterminant

apporte la réponse à notre problème.

une base de E si et seulement si det A ≠ 0. Théorème 7.


Soit E un K espace vectoriel de
Corollaire 5.
Une famille de n vecteurs de Rn

a11 a12

a a a1n
 21  22

 ...   ...  a


 2n
a
 an1 n2
 ...  dimension n, et v1, v2, . . . , vn, n
forme une base si et seulement si det (aij)≠ 0.


Exemple 10. ··· ann
Pour quelles valeurs de a, b ∈ R les vecteurs

0 a b

a b b 0 0 a


vecteurs de E. Soit A la matrice
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 322

obtenue en juxtaposant les coordonnées des vecteurs par rapport à une base B de E. Les vecteurs (v1, v2, . . . , vn)

forment forment une base de R3 ? Pour répondre, il suffit de calculer le déterminant

0 a b
a b 0= −a3 − b3 .

b 0 a
= =
Conclusion : si a3 ̸ −b3 alors les trois vecteurs forment une base de R 3. Si a3 −b3 alors les trois vecteurs sont liés.

(Exercice : montrer que a3 + b3 = 0 si et seulement si a = −b.)

Démonstration. La preuve fait appel à des résultats du chapitre « Matrices et applications linéaires » (section «
Rang d’une famille de vecteurs ») :

(v1, v2, . . . , vn) forment une base ⇐⇒ rg(v1, v2, . . . , vn)= n rg


⇐⇒ A=n
⇐⇒ A est inversible det
⇐⇒ A ≠ 0

5.3. Mineurs d’une matrice

Définition 2.
Soit A = (aij) ∈ Mn,p(K) une matrice à n lignes et p colonnes à coefficients dans K. Soit k un entier inférieur

à n et à p. On appelle mineur d’ordre k le déterminant d’une matrice carrée de taille k obtenue à

partir de A en supprimant n − k lignes et p − k colonnes.

Noter que A n’a pas besoin d’être une matrice carrée.

Exemple 11.
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 323

Soit la matrice
1 2 3 4

A =1 0 1 7

0 1 6 5

• Un mineur d’ordre 1 est simplement un coefficient de la matrice A.


• Un mineur d’ordre 2 est le déterminant d’une matrice 2 × 2 extraite de A. Par exemple en ne retenant

2 4
que la ligne 1 et 3 et la colonne 2 et 4, on obtient la matrice extraite . Donc un des mineurs
1 5
2 4
d’ordre 2
de A est 1 5= 6.

• Un mineur d’ordre 3 est le déterminant d’une matrice 3 × 3 extraite de A. Par exemple, en ne retenant
que les colonnes 1, 3 et 4 on obtient le mineur
• Il n’y a pas de mineur d’ordre 4 (car la matrice
1 3 n’a que 3 lignes).

4
1 17= −28 5.4. Calcul du rang d’une matrice

0 65 Rappelons la définition du rang d’une


matrice.
Définition 3.
Le rang d’une matrice est la dimension de l’espace vectoriel engendré par les vecteurs colonnes. C’est
donc le nombre maximum de vecteurs colonnes linéairement indépendants.

Théorème 8.
Le rang d’une matrice A ∈ M n,p(K) est le plus grand entier r tel qu’il existe un mineur d’ordre r extrait de A

non nul.

La preuve sera vue en section 5.6.

Exemple 12.
Soit α un paramètre réel. Calculons le rang de la matrice A ∈ M3,4(R) :
1 1 2 1
2 3
1
A =1 1 α
1 1
• Clairement, le rang ne peut pas être égal à 4, puisque 4 vecteurs de R 3 ne sauraient être indépendants.
• On obtient les mineurs d’ordre 3 de A en supprimant une colonne. Calculons le mineur d’ordre 3 obtenu en
supprimant la première colonne, en le développant par rapport à sa première colonne :

1 2 1 3 1 2 1 2 12 3 1=α 1− 2 α 1+3 1=α− 2 .

1α1
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 324

Par conséquent, si α≠ 2, le mineur précédent est non nul et le rang de la matrice A est 3.
• Si α= 2, on vérifie que les 4 mineurs d’ordre 3 de A sont nuls :

1 2 11 2 11 1 11 1 2

2 3 1=1 3 1=1 2 1=1 2 3= 0

1 2 11 2 11 1 11 1 2

1 1
Donc dans ce cas, A est de rang inférieur ou égal à 2. Or 1 2= 1 (lignes 1, 2, colonnes 1, 2 de A) est

un mineur d’ordre 2 non nul. Donc si α= 2 , le rang de A est 2.

5.5. Rang d’une matrice transposée

Proposition 6.
Le rang de A est égal au rang de sa transposée AT.

Démonstration. Les mineurs de AT sont obtenus à partir des mineurs de A par transposition. Comme les
déterminants d’une matrice et de sa transposée sont égaux, la proposition découle de la caractérisation du rang
d’une matrice à l’aide des mineurs (théorème 8).

5.6. Indépendance et déterminant


Revenons sur le théorème 8 et sa preuve avec une version améliorée.
Théorème 9 (Caractérisation de l’indépendance linéaire de p vecteurs).
Soit E un K-espace vectoriel de dimension n et B =(e1, . . . , en) une base de E. Soient v1, . . . , vp des vecteurs

Pn
de E avec p ⩽ n. Posons vj = i=1 ai,jei pour 1 ⩽ j ⩽ n. Alors les vecteurs {v1, . . . , vp} forment une famille∈ K

libre si et seulement s’il existe un mineur d’ordre p non nul extrait de la matrice A = ai,j Mn,p( ).

Démonstration. Supposons d’abord que la famille F = {v1, . . . , vp} soit libre.

• Si p = n, le résultat est une conséquence du théorème 7.


a1,1 ... a1,p 0 ... 0
• Si p < n, on peut appliquer le . théorème de la base incomplète à
... ... ... ...
 .. ...
la famille F et à la base B = {e1, . . .  , en} ; et quitte à renuméroter les
... ... ... ... 

vecteurs de B, on peut supposer  ... ... ... que B′ =(v1, . . . , vp, ep+1, . . . , en)
ap,p 0 ...

B ... 1 . . . 
est une base de E. (Note : cette  ap+1,p renumérotation change l’ordre de
P = ap,1
... ... ... 
... 0 lignes de la matrice A, ce qui n’a
ei, autrement dit échange les  ... ...
0
a an,p 0 appellera encore′ B la base
pas d’impact sur ses mineurs ; on  p+1,1  ...
...

 

an,1 1
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 325

renumérotée.) La matrice P de passage de B vers B contient les composantes des vecteurs (v1, . . . , vp,

ep+1, . . . , en) par rapport à la base (renumérotée)=(e1, . . . , en) c’est-à-dire

 

Le déterminant det P est non nul puisque les vecteurs (v1, . . . , vp, ep+1, . . . , en) forment une base de E. Or ce
déterminant se calcule en développant par rapport aux dernières colonnes autant de fois que nécessaire (soit
n − p fois). Et l’on trouve que

a a
1,1 . .. 1,pdet P
= .. ... ... .

a a
p,1 ... p,p

a a
1,1 ... 1,p

. . .
Le mineur .. .. .. est donc non nul.

a a
p,1 ... p,p

Montrons maintenant la réciproque. Supposons que le mineur correspondant aux lignes i1, i2, . . . , ip soit
non nul. Autrement dit, la matrice

 . . . ai1,p ..
ai1,1 . ...
. 
B = .. aip,p
...
aip,1
satisfait det B ≠ 0. Supposons aussi

+
λ1v1 ···+λpvp = 0
En exprimant chaque vi dans la base (e1, . . . , en), on voit aisément que cette relation équivaut au système
suivant à n lignes et p inconnues :

 = 0
a12,,11λλ11 ++ . . .. . . ++ = 0
aa12,,ppλλpp a
... ...

= 0
 ... ... ... ... ...
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 326

an,1λ1 + . . . + an,pλp
Ce qui implique, en ne retenant que les lignes i1, . . . , ip :
 1 λ1 + . . . + ai1,pλp a = 0
aii2,1,1λ1 + . . . + ai2,pλp = 0

... ...

= 0
aip,1... λ1 +... . . .... +... aip,...pλp

ce qui s’écrit matriciellement


  λ1
.
B  .. = 0.
λp
Comme B est inversible (car det B ̸= 0), cela implique λ1 = ··· =λp = 0. Ce qui montre l’indépendance des vi.

Mini-exercices.

ty+z=1

1. Résoudre ce système linéaire, en fonction du paramètre tR : 2x + t y = 2

 −y + tz = 3

2. Pour quelles valeurs de a, b ∈ R, les vecteurs suivants forment-ils une base de R3 ?

a 2a  3a 

1 ,  1  ,  1  b b −2b

3. Calculer le rang de la matrice suivante selon les paramètres a, b ∈ R.

1 2 b

0 a 1
 
1 0

2 1
2
1

Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• réécrit et complété par Arnaud Bodin, Niels Borne. Relu par Laura Desideri et Pascal Romon.
Les auteurs
Ce livre, orchestré par l’équipe Exo7, est issu d’un large travail collectif. Les auteurs sont :
Arnaud Bodin Sophie Chemla Eva Bayer-Fluckiger
Marc Bourdon Guoting Chen Philippe Chabloz
Benjamin Boutin Pascal Romon Lara Thomas
Vous retrouverez les auteurs correspondant à chaque partie en fin de chapitre. Soulignons que pour l’algèbre
linéaire ce cours est en grande partie basé d’une part, sur un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara
Thomas et d’autre part sur un cours de Sophie Chemla, reprenant des parties de cours de H. Ledret et d’une
équipe animée par J. Queyrut.
L’équipe Exo7 est composée d’Arnaud Bodin, Léa Blanc-Centi, Niels Borne, Benjamin Boutin, Laura Desideri et
Pascal Romon. Nous remercions toutes les personnes qui ont permis l’aboutissement de ce livre. En particulier,
Vianney Combet a été un relecteur attentif, ainsi que Stéphanie Bodin. Kroum Tzanev a réalisé la très belle
composition de ce livre, Yannick Bonnaz en a créé la couverture.
Le cours et les vidéos ont été financés par l’université de Lille 1 et Unisciel. Ce livre est diffusé sous la licence
Creative Commons – BY-NC-SA – 3.0 FR. Sur le site Exo7 vous pouvez le télécharger gratuitement et aussi
récupérer les fichiers sources.

Exo7
Cnk, 24 classe d’équivalence, 28
E \ A, 12 coefficients de Bézout, 48
cofacteur, 224 comatrice, 227
⇐⇒ , 3
combinaison linéaire, 147, 167
=⇒ , 3
commutatif, 72 complémentaire,
nk, 24 12 composition, 15 congruence,
∩, 13 54 conjugué, 34

∁, 12 contraposition, 7


2
,
1
contre-exemple, 8

coordonnées, 173
∃!, 6
∃, 5 , crible d’Eratosthène, 52
∀ 4
∈ , cycle, 85
12
degré, 59 déterminant, 74, 89,
P (E), 12
211, 215
∈/, 12
développement, 41


52
,
1 diagonale, 100, 119

⊂, 12 dimension, 178

∅, 12 disjonction, 7
n!, 23
divisibilité, 45, 61
absurde, 8 affixe, 42 algorithme
d’Euclide, 47, 63 division euclidienne, 46, 62
antécédent, 17 application, 15
droite vectorielle, 155, 183
application linéaire, 126, 132, 156
image, 161 noyau, élément neutre, 72, 138
162
élément simple, 69
argument, 38 assertion,
endomorphisme, 158
2 associativité, 71
ensemble, 12
automorphisme, 165
ensemble vide, 12
base, 173 base canonique, 134, équation linéaire, 87, 91
174, 175 équivalence, 3
bijection, 19 bijection espace vectoriel, 125, 137
réciproque, 19 dimension, 178
cardinal, 20 « et » logique, 2
exponentielle complexe,
Index 39
factorielle, 23
famille
génératrice, 171 carrée, 100 d’une application linéaire, 127, 199
libre, 167 liée, 167 de passage, 205
linéairement indépendante, diagonale, 117
167 rang, 187 échelonnée, 112, 188
fonction, 15 élémentaire, 111 identité, 104
formule inverse, 106, 108
d’Euler, 40 de changement produit, 101
de base, 208 puissance, 104
de Moivre, 39 réduite, 112
du binôme de Newton, 25, semblable, 209
105 symétrique, 120 trace,
fraction rationnelle, 68 119 transposée, 118
triangulaire, 117
graphe, 15
mineur, 224, 230
groupe, 71
cyclique, 81 module, 34

hérédité, 8 modulo, 54
homothétie, 129,
159 hyperplan, monôme, 61
183 morphisme, 77

identité, 16, 157 image, multiplicité, 65


79, 161
nombre imaginaire, 32
image directe, 16 premier, 52
premiers entre eux, 48
image réciproque, 16
nombre complexe, 31
implication, 3 noyau, 78, 162

inclusion, 12 inégalité négation, 2


triangulaire, 34
opération élémentaire, 189 «
injection, 17 ou » logique, 2

intersection, 13 partie, 12 partie imaginaire,


irréductibilité, 66 32 partie polynomiale, 69
partie réelle, 32 partition, 28
isomorphisme, 78, 165,
permutation, 82
196
pgcd, 46, 63
lemme pivot, 113
d’Euclide, plan vectoriel, 155, 183
53, 67 de Gauss, polynôme, 59 premiers
49, 64 entre eux, 64
linéarisation, 41 ppcm, 51, 65
logique, 2 loi de principe des tiroirs, 22
composition, 71 produit cartésien, 14 produit
scalaire, 102, 125 projection,
matrice, 74, 99 antisymétrique, 121
159
projection quantificateur, 4 quotient,
orthogonale, 46, 62
130
racine, 65
racine de l’unité, 40
raisonnement, 6
rang support, 85
d’une application linéaire, 193 surjection, 17
d’une famille, 187 symbole de Kronecker, 104 d’une matrice, 188, 231 symétrie, 27
récurrence, 8 symétrie centrale, 158
réductibilité, 67 système réflexion, 127, 131 homogène, 92, 96 réflexivité, 27 incompatible, 92
règle linéaire, 91 de Cramer, 89, 228 réduit, 93 de Sarrus, 212 échelonné, 93
relation d’équivalence, 27 équivalent, 92 représentant, 28
table de vérité, 2
reste, 46, 62
théorème
restriction, 15 de Fermat (petit), 57
rotation, 129
de Bézout, 48, 64
scalaire, 124, 139 de d’Alembert–Gauss, 37 second membre, 91 des quatre dimensions, 184
somme directe, 152 du rang, 194 sous-ensemble, 12 trace, 119
sous-espace vectoriel, 144 transitivité, 27
dimension, 182 transposée, 118 engendré, 154, 171 transposition, 85 intersection,
149 triangle de Pascal, 25 somme, 150
union, 12
somme directe, 152
supplémentaire, 152 vecteur, 139
sous-groupe, 76 colinéaire, 147 engendré, 77 colonne, 125 trivial, 76 ligne, 125
substitution, 88 nul, 124, 139

Version 1.00 – Janvier 2016

Vous aimerez peut-être aussi