0% ont trouvé ce document utile (0 vote)
190 vues163 pages

Cours D'algèbre 2 Pour MIP S2

Ce document est un cours d'Algèbre 2 préparé par le Professeur Abdelkader Zekhnini pour la première année universitaire à l'Université Mohammed Premier. Il couvre des sujets clés tels que les matrices, les déterminants, les systèmes d'équations linéaires, les espaces vectoriels, les applications linéaires, et la diagonalisation. Le cours inclut également des exercices pour renforcer l'apprentissage des concepts abordés.

Transféré par

anasloyr
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
190 vues163 pages

Cours D'algèbre 2 Pour MIP S2

Ce document est un cours d'Algèbre 2 préparé par le Professeur Abdelkader Zekhnini pour la première année universitaire à l'Université Mohammed Premier. Il couvre des sujets clés tels que les matrices, les déterminants, les systèmes d'équations linéaires, les espaces vectoriels, les applications linéaires, et la diagonalisation. Le cours inclut également des exercices pour renforcer l'apprentissage des concepts abordés.

Transféré par

anasloyr
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Mohammed Premier

Faculté des Sciences


Département de Mathématiques
Oujda

Première Année Universitaire


Semestre 2
Filière : MIP

Cours d’Algèbre 2
Algèbre linéaire

Préparé par le Professeur


Abdelkader Zekhnini

Année Universitaire : 2024/2025


Version : 2
TABLE DES MATIÈRES

Table des matières iv

Remerciements 1

Introduction 4

1 Matrices 6
1.1 Définitions et Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Égalité de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Somme de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Produit d’une matrice par un scalaire . . . . . . . . . . . . . . . . . . . . 10
1.3.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.5 L’anneau (Mn (K), +, ×) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.6 La transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.7 Matrices symétriques, antisymétriques . . . . . . . . . . . . . . . . . . . . 15
1.3.8 La trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.9 L’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.10 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

i
ii TABLE DES MATIÈRES

2 Déterminant 25
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Règle de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Déterminants de quelques matrices particulières . . . . . . . . . . . . . . . . . . . 33
2.5 Application : l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3 Systèmes d’équations linéaires 47


3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 L’écriture matricielle d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1 Règle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Utilisation des matrices inversibles . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Systèmes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.1 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4 Espaces vectoriels 64
4.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1.2 Définition d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Base d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4.1 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.4.3 Base et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5 Formule de Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6 L’espace vectoriel (Mm,n (K), +, .) . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
TABLE DES MATIÈRES iii

4.8 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90


4.8.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.8.2 Repères dans un espace affine . . . . . . . . . . . . . . . . . . . . . . . . . 92
[Link] Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
[Link] Changement de Repères . . . . . . . . . . . . . . . . . . . . . . . 93
4.8.3 Sous-espace affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.9 Espace vectoriel quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.9.1 Rappel : relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . 96
4.9.2 Quotient d’un espace vectoriel par un s.e.v . . . . . . . . . . . . . . . . . 97
4.9.3 Espace vectoriel quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.10 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5 Applications linéaires 103


5.1 Rappel d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.1 Définitions et Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.2 Image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 106
5.2.3 Noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3 L’espace vectoriel L(E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.4 Composition et inverse d’applications linéaires . . . . . . . . . . . . . . . . . . . . 112
5.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.5.1 Matrice associée à une application linéaire . . . . . . . . . . . . . . . . . . 114
5.5.2 Opérations sur les applications linéaires et les matrices . . . . . . . . . . . 116
5.5.3 Matrice d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.5.4 Matrice d’un isomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.6.1 Application linéaire, matrice, vecteur . . . . . . . . . . . . . . . . . . . . . 120
5.6.2 Matrice de passage d’une base à une autre . . . . . . . . . . . . . . . . . . 123
5.6.3 Formule de changement de base . . . . . . . . . . . . . . . . . . . . . . . . 125
5.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

6 Diagonalisation, trigonalisation et applications 130


6.1 Vecteurs et valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
iv TABLE DES MATIÈRES

6.2 Détermination des valeurs propres, polynôme caractéristique . . . . . . . . . . . . 134


6.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.5.1 Calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . 153
6.5.2 Résolution d’un système de suites récurrentes . . . . . . . . . . . . . . . . 154
6.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . . 154
6.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

Bibliographie 158
REMERCIEMENTS

Nous tenons à remercier tous les collègues et amis qui ont contribué à la réalisation de ce
cours, surtout le professeur Moulay Chrif ISMAILI de la Faculté des Sciences d’Oujda qui a
mis à ma disposition son cours d’algèbre 3 pour SMIA des années précédentes.

1
"Beaucoup de gens, et notamment la plupart de ceux qui se bornent à "utiliser" les
Mathématiques, prétendent que lorsqu’on écrit pour les débutants il est inutile ou
même nuisible, d’essayer de faire preuve d’une trop grande rigueur, de tout démon-
trer, d’introduire des notions trop générales, d’utiliser une terminologie strictement
définie et dépourvue de discours fleuris. S’ils avaient raison, cela voudrait dire que,
contrairement aux mathématiciens professionnels, et au bon sens, les débutants com-
prennent d’autant plus facilement un texte mathématique qu’il est plus mal rédigé."

Roger Godement, Cours d’algèbre

"Nous voulons, autant que cela est possible, introduire dans toutes les sciences la
finesse et la sévérité des mathématiques, sans imaginer que par là nous arriverons à
connaître les choses, mais seulement pour déterminer nos relations humaines avec les
choses. La mathématique n’est que le moyen de la science générale et dernière des
hommes."

Nietzsche, Le gai savoir

"Le lecteur débutant ne doit pas désespérer, mais plutôt reprendre la chaîne des
définitions et des applications, jusqu’à ce que tout lui apparaisse bien clairement."

Emil Artin, Algèbre géométrique

2
PRÉAMBULE

Ces notes de cours sont destinées en premier lieu aux étudiants de la faculté des sciences
d’Oujda, de la filière MIP semestre 2. C’est une introduction aux notions d’algèbre linéaire qui
sont des notions fondamentales des mathématiques modernes.
Par ce type de cours, on cherche à dégager les propriétés communes que partagent des en-
sembles qui sont très différents. Par exemple, on peut additionner deux vecteurs du plan ou de
l’espace et aussi multiplier un vecteur par un réel. Mais on peut aussi additionner deux fonctions,
ou multiplier une fonction par un réel. Même chose avec les polynômes, les matrices, les suites,
les séries, ...
Le but est d’obtenir des théorèmes généraux qui s’appliqueront aussi bien aux vecteurs du
plan, de l’espace, aux espaces de fonctions, aux polynômes, aux matrices, aux suites, ...
Pour ceux qui s’intéressent ou veulent approfondir l’un ou l’autre des sujets traités, je recom-
mande les références citées à la fin de ce polycopié.
Malgré une relecture attentive, des erreurs peuvent encore subsister quelques part dans ce
polycopié, prière à toute personne utilisant ce document de bien vouloir me signaler toute erreur
ou remarque pertinente à l’e-mail : zekha2@[Link], et ce dans le but de l’améliorer.

3
INTRODUCTION

L’algèbre linéaire est l’une des «structures fondamentales» des mathématiques, elle est un
outil fondamental dans presque toutes les disciplines modernes des mathématiques et dans des
grandes parties de la physique, en particulier lorsqu’il s’agit de modéliser puis résoudre numé-
riquement des problèmes dans divers domaines : théorie des nombres, analyse, analyse fonc-
tionnelle, physique mathématique, etc. C’est par conséquent un élément essentiel du bagage
mathématique indispensable aux mathématiciens, physiciens, ingénieurs et autres scientifiques.
Le cours que je présente dans ce polycopié s’agit de l’algèbre linéaire désignée aux étudiants de
MIP (les étudiants de la filière Mathématiques, Informatique et Physique) en module d’algèbre 2
du deuxième semestre du premier cycle des universités. Il peut également être utile aux étudiants
des classes prépas et écoles d’ingénieurs et à tous ceux qui s’intéressent à l’algèbre linéaire.
L’expérience montre que le passage des lycées à la première année de la faculté constitue pour
la plus part des étudiants un énorme obstacle et une difficulté insurmontable dus au manque des
notions aux lycées et la façon avec laquelle ont traité ces dernières. C’est pourquoi, dans ce
cours, j’ai essayé de présenter les notions à partir du début, sans supposer que les étudiants en
ont entendu parler, avec plus de détails, sans abandonner la rigueur, j’ai illustré ces notions par
de nombreux exemples et remarques qui aideront l’étudiant à mieux assimiler et comprendre les
notions introduites.
Il est bien connu que «faire des mathématiques» veut dire d’abord et avant tout «résoudre
des problèmes et des exercices». L’étudiant est donc, après avoir appris et compris son cours,
demandé de l’assimiler et l’approfondir en résolvant des exercices et problèmes. Notons que l’ef-
fort que l’étudiant fournira est important : tout d’abord il doit comprendre son cours, ensuite il
doit bien connaître les définitions, les théorèmes, les propositions... sans oublier de travailler les
exemples et les démonstrations, qui permettent de bien assimiler les notions et les mécanismes
de raisonnement. Il est nécessaire de résoudre activement par vous-même des exercices, sans re-
garder les solutions. L’étudiant trouvera donc à la fin de chaque chapitre de nombreux exercices
et problèmes qui vont l’aider à contrôler la compréhension et l’acquisition de ses connaissances.
Ce cours est composé de six chapitres.

4
Introduction 5

Dans le premier chapitre, nous présentons la définition et les propriétés élémentaires de ce


qu’on appelle les matrices, nous fournirons aussi les bases essentielles du calcul matriciel et toutes
les opérations possibles sur l’ensemble des matrices.
Dans le second chapitre, vous trouverez la notion du déterminant d’une matrice carrée que
nous définirons par récurrence, et nous présenterons les algorithmes pour calculer l’inverse et le
rang d’une matrice.
Le chapitre 3 est consacré à définir un système d’équations linéaires et son écriture matricielle.
Il fournit ensuite quelques méthodes pour résoudre un système d’équations linéaires.
Le chapitre 4 est consacré à la définition de l’espace vectoriel, nous donnerons des exemples
et les propriétés essentielles. Vous y trouverez également la définition et les propriétés des sous-
espaces vectoriels, la notion de la base et de la dimension, mais aussi la notion du rang d’une
famille de vecteurs.
Dans le chapitre 5, vous trouverez la définition d’une application linéaire et la définition
de son rang plus quelques propriétés. Ensuite, nous donnons la relation entre les applications
linéaires et les matrices. Nous terminons ce chapitre par la notion de changement de bases.
Le dernier chapitre 6 s’occupe de la diagonalisation et la trigonalisation des matrices carrées.
CHAPITRE 1

MATRICES

Dans tout ce cours, la lettre K désignera un corps commutatif.

1.1 Définitions et Généralités


Définition 1.1.1. Soient m et n deux entiers naturels non nuls. Une matrice A de type (m, n)
à coefficients dans le corps K est un tableau rectangulaire de m lignes et n colonnes formées
d’éléments de K.
a. La matrice A possédant m lignes et n colonnes est dite une matrice de type ou de taille (m, n),
on dit aussi que A est une matrice m × n.
b. Les nombres du tableau sont appelés les coefficients de la matrice A.
c. Le coefficient situé à la i-ème ligne et à la j-ème colonne sera noté aij .
d. L’ensemble de toutes les matrices à m lignes et n colonnes à coefficients dans K sera noté
Mm,n (K).

Un tel tableau est représenté de la manière suivante :


 
a11 a12 . . . a1j . . . a1n
 a21 a22 . . . a2j . . . a2n 
 
 ... ... ... ... ... ...   
A=  ai1 ai2 . . . aij . . . ain  ou A = aij 1≤i≤m
 ou aij .
  1≤j≤n
 ... ... ... ... ... ... 
am1 am2 . . . amj . . . amn
Exemples 1.1.1.

1. A = 3 est une matrice à une ligne et une colonne qui est équivalente au nombre (on dit
scalaire) 3.

6
1.2. Matrices particulières 7

 
1 −2 5
2. B = est une matrice constituée de 2 lignes et 3 colonnes, donc de type (2, 3).
0 3 7
On a
a11 = 1, a12 = −2 et a13 = 5,
a21 = 0, a22 = 3 et a23 = 7.
 
1 −2 5
 0 3 7 
3. C =   2 −7 11  est une matrice constituée de 4 lignes et 3 colonnes, donc de type

−3 2 9
(4, 3). On a par exemple, a21 = 0, a23 = 7 et a43 = 9.

1.2 Matrices particulières


Voici quelques types de matrices intéressantes.

1. Matrice carrée d’ordre n. Si m = n (même nombre de lignes que de colonnes), la matrice est
dite matrice carrée d’ordre ou de taille n. On note leur ensemble Mn (K) au lieu de Mn,n (K).
 
a11 a12 ... a1n
 a21 a22 ... a2n 
 
 .. .. .. .. 
 . . . . 
an1 an2 ... ann

Les éléments a11 , a22 , . . . , ann forment la diagonale principale de la matrice.


2. Matrice ligne. Une matrice qui n’a qu’une seule ligne (m = 1) est appelée matrice ligne ou
vecteur ligne. On la note

A = a11 a12 . . . a1n .

3. Matrice colonne. De même, une matrice qui n’a qu’une seule colonne (n = 1) est appelée
matrice colonne. On la note
 
a11
 a21 
A =  . .
 
 .. 
am1

4. La matrice nulle. La matrice (de taille m × n) dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0m,n ou plus simplement 0. Dans le calcul matriciel, la
matrice nulle joue le rôle du 0 pour les nombres réels ou complexes.
5. Matrices triangulaires. Soit A une matrice de taille n × n. On dit que A est triangulaire
inférieure si ses éléments au-dessus de la diagonale sont nuls, autrement dit :

i < j =⇒ aij = 0.
8 Chapitre 1. Matrices

Une matrice triangulaire inférieure a la forme suivante :

··· ···
 
a11 0 0
 .. ..
 a21 a22 . .
 
 .. .. .. .. ..

 .
 . . . .


 . .. ..
 ..

. . 0 
an1 an2 ··· · · · ann

On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale sont nuls,
autrement dit :
i > j =⇒ aij = 0.

Une matrice triangulaire supérieure a la forme suivante :

a11 a12 ... ... ... a1n


 
 0 a22 ... ... ... a2n 
 .. .. 
 
.. ..
 .
 . . .  
 .. .. .. .. 
 .
 . . . 
 . .. .. .. 
 .. . . . 
0 ... ... ... 0 ann
 
4 0 0  
5 0
Exemple 1.2.1. 0 −1 0 et
  sont deux matrices triangulaires inférieures.
1 −2
3 −2 3
 
1 1 −1
0 −1 −1 est une matrice triangulaire supérieure.
0 0 −1
6. Matrices diagonales. Une matrice A = (aij ) carrée de taille n qui est triangulaire inférieure
et triangulaire supérieure est dite diagonale. Autrement dit : pour tous i ̸= j ; aij = 0. Une
matrice diagonale a la forme suivante :

··· ···
 
a11 0 0
 .. .. 
 0 a22 . . 
 
 .. .. .. .. .. 
 .
 . . . . 

 . .. .. ..
 ..

. . . 0 
0 0 · · · 0 ann

Exemple 1.2.2. Exemples de matrices diagonales :


 
−1 0 0  
0 2 0
6 0 et
0 3
0 0 0
1.3. Opérations sur les matrices 9

7. La matrice identité. La matrice identité In c’est la matrice diagonale In = (aij ) de taille n


telle que
a11 = a22 = a33 = · · · = ann = 1.
Autrement dit : pour tous i ̸= j ; aij = 0 et aii = 1. Ses éléments diagonaux sont égaux à 1 et
tous ses autres éléments sont égaux à 0. Elle se note In ou simplement I. Cette matrice a la
forme suivante :
1 0 ··· ··· 0
 
 .. .. 
0 1 . .
 
 .. . . .. .. .. 
In =  . . . . . 
 
. . .
 .. .. . . 0

0 ··· ··· 0 1
Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre 1 pour
les réels.

1.3 Opérations sur les matrices

1.3.1 Égalité de deux matrices

Définition 1.3.1. Soient quatre entiers naturels non nuls m, n, m′ et n′ . Soient A = (aij ) de
Mm,n (K) et B = (bij ) une matrice appartenant à Mm′ ,n′ (K). On dit que ces deux matrices A
et B sont égales si et seulement si m = m′ , n = n′ et aij = bij pour tous i et j. Autrement dit, A
et B sont égales lorsqu’elles ont la même taille et que les coefficients correspondants sont égaux.

Exemple 1.3.1.    
3 9 3 5
1- Les deux matrices A = et B = ne sont pas égales car a12 = 9 ̸= b12 = 5.
1 7 1 7

   
a b 9 −5
2- = √ si et seulement si a = 9, b = −5, c = 2 et d = 17.
c d 2 17

√ √
   
x y 4 √−1 2 4
3- = si et seulement si x = −1, y = 2, z = 111.
z 17 23 111 17 23

1.3.2 Somme de deux matrices

Définition 1.3.2. Soient A = (aij ) et B = (bij ) deux matrices ayant la même taille m × n (dans
Mm,n (K)). Leur somme C = A + B est la matrice C = (cij ) de taille m × n définie par

cij = aij + bij .

En d’autres termes, on somme coefficient par coefficient.

Exemple 1.3.2.
       
3 −2 0 5 3+0 (−2) + 5 3 3
Si A = et B = , alors A + B = = .
1 7 2 −1 1+2 7 + (−1) 3 6
10 Chapitre 1. Matrices

 
−2
Par contre pour C = , la somme A + C n’est pas définie (Pourquoi ?).
8

Remarque 1.3.1. Il est facile de prouver que la somme de deux matrices triangulaires supé-
rieures (resp. inférieures) est une matrice triangulaire supérieure (resp. inférieure).

Remarque 1.3.2.
1. On peut définir par récurrence la somme de plusieurs matrices de même type.
2. La différence de deux matrices A et B de même type est la matrice notée A − B et est
définie par : A + (−B).

Exemple 1.3.3.
     
2 −1 0 −1 4 2 3 −5 −2
Si A = et B = , alors A − B = .
4 −5 2 7 −5 3 −3 0 −1

1.3.3 Produit d’une matrice par un scalaire



Définition 1.3.3.
 Le produit d’une matrice A = a ij de Mm,n (K) par un scalaire α ∈ K est
la matrice αaij formée en multipliant chaque coefficient de A par α. Elle est notée α · A (ou
simplement αA).

Exemple 1.3.4.
     
1 2 3 2×1 2×2 2×3 2 4 6
Si A = et α = 2, alors αA = = .
0 1 0 2×0 2×1 2×0 0 2 0

Remarque 1.3.3. La matrice (−1)A est dite l’opposée de A = (aij ) et est notée −A et on a :
−A = (−aij ).

1.3.4 Produit de matrices

Commençons par dire que le produit de deux matrices A et B n’est défini que si le
nombre de colonnes de A est égal au nombre de lignes de B.

Définition 1.3.4. Soient A = (aij ) une matrice de type m × n et B = (bij ) une matrice de type
n × p. Alors le produit C = AB des deux matrices A et B est une matrice de type m × p dont
les coefficients cij sont définis par :
n
X
cij = aik bkj ·
k=1

On peut écrire le coefficient de façon plus développée, à savoir :

cij = ai1 b1j + ai2 b2j + · · · + aik bkj + · · · + ain bnj .

Il est commode de disposer les calculs de la façon suivante.


1.3. Opérations sur les matrices 11

 
×
 × 
  ←B
 × 
×
   
|
   | 
A→
×
   ← AB
× × × − − − cij 

Avec cette disposition, on considère d’abord la ligne de la matrice A située à gauche du


coefficient que l’on veut calculer (ligne représentée par des × dans A) et aussi la colonne de la
matrice B située au-dessus du coefficient que l’on veut calculer (colonne représentée par des ×
dans B). On calcule le produit du premier coefficient de la ligne par le premier coefficient de la
colonne (ai1 × b1j ), que l’on ajoute au produit du deuxième coefficient de la ligne par le deuxième
coefficient de la colonne (ai2 × b2j ), que l’on ajoute au produit du troisième . . ..

Exemple 1.3.5.
 
  1 2
1 2 3
A= B = −1 1
2 3 4
1 1

On dispose d’abord le produit correctement (la matrice qu’on va obtenir est de taille 2 × 2) :
 
1 2
−1 1
   1 1
1 2 3 c11 c12
2 3 4 c21 c22

Puis on calcule chacun des coefficients, en commençant par le premier coefficient

c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2.

On obtient :
 
1 2
−1 1
   1 1
1 2 3 2 c12
2 3 4 c21 c22

On calcule les autres coefficients de la même façon :

c12 = 1 × 2 + 2 × 1 + 3 × 1 = 7,
c21 = 2 × 1 + 3 × (−1) + 4 × 1 = 3,
c22 = 2 × 2 + 3 × 1 + 4 × 1 = 11,
12 Chapitre 1. Matrices

On obtient donc  
1 2
−1 1
   1  1
1 2 3 2 7
.
2 3 4 3 11
 
  1 2  
1 2 3  2 7
C’est-à-dire AB = −1 1 =
 .
2 3 4 3 11
1 1
Exemple 1.3.6. Un autre exemple intéressant est le produit d’un vecteur ligne par un vecteur
colonne :  
b1
 b2 
  
u = a1 a2 · · · an v=.
 .. 
bn
Alors u × v est une matrice de taille 1 × 1 dont l’unique coefficient est

a1 b1 + a2 b2 + · · · + an bn .

Ce nombre n’est que le produit scalaire des vecteurs u et v. Donc la remarque suivante.

Remarque 1.3.4. Calculer le coefficient cij dans le produit A × B revient donc à calculer le
produit scalaire des vecteurs formés par la i-ème ligne de A et la j-ème colonne de B.

Remarques 1.3.1. Il faut faire attention aux remarques suivantes :


1. Le produit
 de matrices
  n’est pas en généralcommutatif.
 Comme contre
 exemple, on prend
1 2 1 2 15 4 5 8
A= et B = , alors AB = et BA = . D’où AB ̸= BA.
2 3 7 1 23 7 9 17
   
1 −1 3 4
2. AB = 0 n’implique pas que A = 0 ou B = 0. En effet, pour A = et B = ,
−1 1 3 4
 
0 0
on a : AB = mais A ̸= 0 et B ̸= 0.
0 0
   
0 −1 4 −1
3. AB = AC n’implique pas B = C. Soient les trois matrices A = ,B= et
0 3 5 4
   
2 5 −5 −4
C= . On a AB = AC = , pourtant B ̸= C.
5 4 15 12

Malgré les remarques citées en haut, le produit de matrices possède les propriétés suivantes
qui sont faciles à montrer.

Proposition 1.3.1. Le produit des matrices, quand il est défini, est associatif, distributif à
gauche et à droite, possède un élément neutre (à droite et à gauche) et la matrice nulle est
l’élément absorbant pour la multiplication, c’est-à-dire on a :
1. A(BC) = (AB)C : l’associativité du produit,
2. A(B + C) = AB + AC et (B + C)A = BA + CA : la distributivité du produit par rapport à
la somme,
1.3. Opérations sur les matrices 13

3. Si A est une matrice m × n, alors Im · A = A et A · In = A.


4. A · 0 = 0 et 0 · A = 0 (0 ici désigne la matrice nulle).

Preuve.
- Pour prouver l’associativité : considérons A de type (m, n) et B de type (n, p), et C ∈ Mp,q (K).
Posons D = (AB)C, on peut alors écrire
p q n
!
X X X
dij = (AB)ik Ckj = ail blk ckj .
k=1 k=1 l=1

On peut écrire ceci plus simplement sous la forme


p X
X n
ail blk ckj .
k=1 l=1

De même, en notant E = A(BC), on aura


n
X n
X X  Xn X
n
eij = aik (BC)kj = aik l = 1p bkl clj = aik bkl clj .
k=1 k=1 k=1 l=1

Les deux formules sont bien les mêmes puisque les indices dans une somme double sont muets.
- C’est un calcul assez élémentaire sur les sommes :
n
X n
X n
X
aik (bkj + ckj ) = aik bkj + aik ckj .
k=1 k=1 k=1

L’autre calcul est essentiellement identique.


- Pour cette propriété, on notera juste I et pas Im par souci de lisibilité. Soit mij le terme d’indice
Pm
i, j de la matrice produit IA. On a par définition mij = k=1 Iik Akj . Mais le seul terme non
nul parmi les Iik est Iii , qui vaut 1 . On a donc bien mij = Aij . Pour le produit à droite par In ,
la démonstration est essentiellement la même.
- Laissée en exercice !

Remarque 1.3.5. Le produit de deux matrices triangulaires supérieures (resp. inférieures) est
une matrice triangulaire supérieure (resp. inférieure).

Dans le calcul matriciel, la matrice identité In joue un rôle analogue à celui du nombre 1 pour
les réels. C’est l’élément neutre pour la multiplication.

1.3.5 L’anneau (Mn (K), +, ×)

Nous venons de définir deux opérations de natures différentes sur l’ensemble des matrices,
l’addition et la multiplication des matrices. Ces deux lois de compositions internes se comportent
sans surprises, elles nous permettent de munir Mn (K) d’une structure d’anneau.

Proposition 1.3.2. Soient m et n deux éléments de N∗ . Alors (Mm,n (K), +) est un groupe
abélien d’élément neutre la matrice nulle de Mm,n (K).
14 Chapitre 1. Matrices

Preuve. Soient A, B et C trois matrices appartenant à Mm,n (K). Il est simple de vérifier que :
1. A + B = B + A : la somme est commutative,
2. A + (B + C) = (A + B) + C : la somme est associative,
3. A + (−A) = (−A) + A = 0 : le symétrique de A est −A,
4. A + 0 = A : la matrice nulle est l’élément neutre pour l’addition.

En tenant compte des deux Propositions 1.3.1 et 1.3.2, nous avons le théorème suivant.

Théorème 1.3.1. Soit n ∈ N∗ . L’ensemble (Mn (K), +, ×) des matrices carrées d’ordre n muni
de l’addition et de la multiplication des matrices est un anneau unitaire. L’élément neutre pour
la multiplication est la matrice unité In .

Remarque 1.3.6. Par les remarques 1.3.1, si n ≥ 2, alors l’anneau (Mn (K), +, ×) n’est ni
commutatif ni intègre.

1.3.6 La transposée d’une matrice



Définition 1.3.5. Soit A = aij 1≤i≤m ∈ Mm,n (K) (A est de type m × n). On appelle matrice
1≤j≤n
transposée de la matrice A la matrice notée t A (ou At ) de taille n × m obtenue
 en échangeant
les lignes et les colonnes de A. Plus précisément, t A est donnée par t A = aji 1≤i≤n ∈ Mn,m (K).
1≤j≤m
Si A est donnée par
   
a11 a12 ... a1n a11 a21 ... am1
 a21 a22 ... a2n   a12 a22 ... am2 
A=  alors t A =  .
   
.. .. .. .. .. ..
 . . .   . . . 
am1 am2 ... amn a1n a2n ... amn

Autrement dit : le coefficient à la place (i, j) de t A est aji . Ou encore la i-ème ligne de A devient
la i-ème colonne de t A (et réciproquement la j-ème colonne de t A est la j-ème ligne de A).

Exemple 1.3.7.
   
1 2 3 1 4 −7
1. La matrice transposée de la matrice A =  4 5 −6 est t A = 2 5 8 .
−7 8 9 3 −6 9
 
0 3  
t 0 1 −1
2. La matrice transposée de la matrice A =  1 −5 est A =
 et celle de
3 −5 2
−1 2
 
1
B = (1 − 2 5) est t B = −2 .
5

Théorème 1.3.2. Soient A et B deux matrices dans Mm,n (K), et soit α ∈ K. L’opération de
transposition obéit aux règles suivantes :
1. t (A + B) = t A + t B.
1.3. Opérations sur les matrices 15

2. t (α.A) = α.t A.
3. t (t A) = A.
4. Si le produit AB est défini, alors le produit t B t A est aussi défini et l’on a t (AB) = t B t A.
Notez bien l’inversion : t (AB) = t B t A.

Preuve.
1. Soient A = (aij ) et B = (bij ) deux éléments de Mm,n (K). Alors t A = (aji ) et t B = (bji ) pour
tout i compris entre 1 et m et tout j compris entre 1 et n. On sait que A + B = (cij ) avec
∀i, 1 ≤ i ≤ m, ∀j, 1 ≤ j ≤ n, cij = aij + bij . Alors t (A + B) = (cji ) avec cji = aji + bji .
D’où d’après la définition de la somme de deux matrice t (A + B) = t A + t B.
2. Simple à montrer.
3. Simple à montrer.
4. Soient A = (aij ) ∈ Mmn (K) et B = (bjk ) ∈ Mnp (K)Mmp (K), d’où AB ∈ Mmp (K). On
voit donc que t B ∈ Mpn (K) et t A ∈ Mnm (K). Par conséquent, t B t A est bien défini et de la
même taille que t (AB). Rappelons que t (AB) = (cji ) avec (AB) = (cij ). Notons par (L)ij le
coefficient de la matrice L qui se trouve à l’intersection de la i-ème ligne et la j-ème colonne.
Donc (AB)ij est le coefficient de (AB) qui se trouve à l’intersection de la i-ème ligne et la
j-ème colonne :
n
X
(AB)ij = ai1 b1j + ai2 b2j + · · · + ain bnj = aik bkj ,
k=1

donc
n
X n
X n
X
t
B tA t t t
   
ij
= B ik
A kj
= bki ajk = ajk bki = (AB)ji = (AB) ij ,
k=1 k=1 k=1

d’où le résultat.

1.3.7 Matrices symétriques, antisymétriques

Définition 1.3.6. Une matrice carrée A = (aij ) ∈ Mn (K) est dite symétrique si elle est égale
à sa transposée, c’est-à-dire si A = t A (si aij = aji ). Et elle est dite antisymétrique si elle est
égale à l’opposé de sa transposée, c’est-à-dire si t A = −A (si aij = −aji ).

Exemples 1.3.1.
 
  −1 0 5
0 2
1. Les matrices A et B suivantes sont symétriques : A = B= 0 2 −1 .
2 4
5 −1 0
 
  0 4 2
0 −1
2. Les matrices C et D suivantes sont antisymétriques C = et D = −4 0 −5
1 0
−2 5 0

On montre facilement les propriétés suivantes.

Proposition 1.3.3. Soit A une matrice carrée d’ordre n.


16 Chapitre 1. Matrices

1. La matrice A + t A est symétrique.


2. La matrice A − t A est antisymétrique.
3. La somme de deux matrices symétriques (resp. antisymétriques) est symétrique (resp. antisy-
métrique).
4. Toute matrice diagonale est symétrique.
5. Les coefficients diagonaux d’une matrice antisymétrique sont tous nuls.
6. La matrice nulle est la seule qui soit à la fois symétrique et antisymétrique.
7. Toute matrice se décompose d’une unique façon comme somme d’une matrice symétrique et
d’une matrice antisymétrique, c’est-à-dire toute matrice A s’écrit A = M + N où M est une
matrice symétrique et N est antisymétrique, donc
M = 12 (A + t A) et N = 12 (A − t A).

Remarque 1.3.7. Pour toute matrice B, les matrices B t B et t BB sont symétriques. En effet,
t
(B t B) = t (t B) t B = B t B. Même démonstration pour la matrice t BB.

1.3.8 La trace d’une matrice

Dans le cas d’une matrice carrée de taille n×n, les éléments de la diagonale a11 , a22 , . . . , ann
sont appelés les éléments diagonaux. Sa diagonale est le vecteur (a11 , a22 , . . . , ann ).
 
a11 a12 ... a1n
 a21 a22 ... a2n 
 
 .. .. .. .. 
 . . . . 
an1 an2 ... ann

Définition 1.3.7. La trace de la matrice carrée A, qu’on note tr(A), est la somme de ses
éléments diagonaux. Autrement dit,

tr(A) = a11 + a22 + · · · + ann ·

Attention, la trace n’existe que pour les matrices carrées.

Exemple 1.3.8.
 
2 1
1. Si A = , alors tr(A) = 2 + 5 = 7.
0 5
 
1 1 2
2. Pour B =  5 2 8 , tr(B) = 1 + 2 − 10 = −7.
11 0 −10

Théorème 1.3.3. Soient A et B deux matrices n × n. Alors :


1. tr(A + B) = tr(A) + tr(B),
2. tr(αA) = α tr(A) pour tout α ∈ K,
3. tr(t A) = tr(A),
4. tr(AB) = tr(BA).
1.3. Opérations sur les matrices 17

Preuve. Nous démontrons le quatrième point, les autres sont simples. Soient, dans Mn (R), les
deux matrices carrées A = (aij )1≤i,j≤n et B = (bij )1≤i,j≤n . On note C = (cij )1≤i,j≤n ∈ Mn (R)
et D = (dij )1≤i,j≤n ∈ Mn (R) telles que C = AB et D = BA.
Pour tout i ∈ J1, nK (l’ensemble des entiers naturels de 1 à n), nous avons
n
X
cii = aik bki ,
k=1

alors
n
X n X
X n
tr(C) = tr(AB) = cii = aik bki .
i=1 i=1 k=1

De la même façon, pour tout i ∈ J1, nK, on a :


n
X
dii = bik aki ,
k=1

alors
n
X n X
X n n X
X n
tr(D) = tr(BA) = dii = bik aki = bki aik .
i=1 i=1 k=1 i=1 k=1

On a donc bien tr(AB) = tr(BA).

Remarque 1.3.8. De ce théorème, on déduit que l’application " trace"

tr : Mn (K) −→ Mn (K)
A 7−→ tr(A)

est une application linéaire, c’est-à-dire pour toutes matrices A et B de types n × n et pour tout
scalaire α on a : tr(A + αB) = tr(A) + αtr(B).

1.3.9 L’inverse d’une matrice

Définition 1.3.8. Soit A une matrice carrée d’ordre n. S’il existe une matrice carrée B d’ordre
n telle que AB = BA = In , alors on dit que A est inversible (ou régulière ou encore non
singulière). On appelle B l’inverse de A et on note B = A−1 .

L’ensemble des matrices inversibles de Mn (K) est noté GLn (K) (qu’on appelle groupe général
linéaire).
 
1 2
Exemple 1.3.9. Soit A = . Étudier si A est inversible, c’est étudier l’existence d’une
0 3
 
a b
matrice B = à coefficients dans K, telle que AB = I2 et BA = I2 . On a :
c d
        
1 2 a b 1 0 a + 2c b + 2d 1 0
AB = I2 ⇐⇒ = ⇐⇒ =
0 3 c d 0 1 3c 3d 0 1
18 Chapitre 1. Matrices

Ce qui est équivaut au système suivant :




 a + 2c = 1
b + 2d = 0


 3c = 0
3d = 1

Sa résolution est immédiate : a = 1, b = − 32 , c = 0, d = 13 . Il n’y a donc qu’une seule matrice


1 − 23
 
possible, à savoir B = 1 .
0 3

 BA =
Pour prouver qu’elle convient, il faut aussi montrer l’égalité
2
I, dont la vérification est
1 −
laissée au lecteur. La matrice A est donc inversible et A−1 = 1
3 .
0 3
   
3 0 a b
Exemple 1.3.10. La matrice A = n’est pas inversible. En effet, soit B = une
5 0 c d
matrice quelconque. Alors le produit
    
a b 3 0 3a + 5b 0
BA = =
c d 5 0 3c + 5d 0
 
1 0
ne peut jamais être égal à la matrice identité I2 = , sinon on obtiendra l’absurdité 1 = 0.
0 1

Proposition 1.3.4. Si A est inversible, alors son inverse est unique.

Preuve. Supposons que A admet deux inverses B et C, alors AB = BA = AC = CA = I.


Montrons que B = C. On a

C(BA) = (CA)B = IB = B et (CB)A = C(BA) = CI = C.

Or le produit des matrices est associatif, donc C(BA) = (CB)A, d’où B = C.

Remarque 1.3.9. Soit A une matrice carrée, alors


• si A est inversible, alors A−1 est aussi inversible et son inverse est (A−1 )−1 = A. En effet, en
posant B = A−1 , alors AB = BA = I, donc par définition B est inversible et B −1 = A, d’où
le résultat.
• si A est inversible, alors t A l’est aussi, et on a (t A)−1 = t (A−1 ). En effet, on remarque que
comme In = AA−1 et que t In = In , on a

In = t AA−1 = t A−1 t A.
 

De même, le fait que In = A−1 A implique que In = t At A−1 , donc t A est inversible et son


inverse est la transposée de A−1 .

Proposition 1.3.5. Soient A et B deux matrices inversibles dans Mn (K). Alors AB est inver-
sible et (AB)−1 = B −1 A−1 .
1.3. Opérations sur les matrices 19

Preuve. Par l’associativité du produit des matrices on a :


(AB)(B −1 A−1 ) = ((AB)B −1 )A−1 = (A(BB −1 ))A−1 = (AIn )A−1 = AA−1 = In ,
de la même façon on montre que (B −1 A−1 )(AB) = In , d’où le résultat.
Il faut bien faire attention à l’inversion de l’ordre des matrices.
Proposition 1.3.6. Soient A et B deux matrices de Mn (K) et C une matrice dans Mn (K)
inversible. Alors AC = BC implique l’égalité A = B.

Preuve. Il suffit de multiplier par C −1 .


Définition 1.3.9. Deux matrices A et B de Mn (K) sont dites semblables si et seulement s’il
existe une matrice inversible P ∈ Mn (K) telle que B = P −1 AP .

Méthode de Gauss pour inverser une matrice.


Il y a plusieurs méthode pour calculer l’inverse d’une matrice, mais dans cette section nous
allons voir une méthode pour calculer cette inverse d’une manière efficace. Cette méthode est
une reformulation de la méthode du pivot de Gauss pour les systèmes linéaires (qu’on va
voir dans les chapitres suivants).
La méthode du pivot de Gauss est une méthode pour transformer (par les opé-
rations élémentaires autorisées voir ci-dessous) un système en un autre système
équivalent (ayant les mêmes solutions) qui est triangulaire et donc facile à résoudre.
Auparavant, nous commençons par une formule directe dans le cas simple des matrices carrées
de type 2 × 2. Ce résultat va être généraliser dans le chapitre suivant.
 
a b
Proposition 1.3.7. Considérons la matrice A = de type 2 × 2. Si det(A) = ad − bc ̸= 0,
c d
alors A est inversible et on a :
   
1 d −b 1 d −b
A−1 = = .
ad − bc −c a det(A) −c a
Si det(A) = ad − bc = 0, alors A ne possède pas d’inverse.
    
a b x y 1 0
Preuve. Il suffit par exemple de résoudre l’équation = dont l’inconnu
c d z t 0 1
 
x y
est la matrice X = .
z t

La méthode pour inverser une matrice A consiste à faire des opérations élémentaires sur les
lignes de la matrice A jusqu’à la transformer en la matrice identité I. On fait simultanément les
mêmes opérations élémentaires en partant de la matrice I. On aboutit alors à une matrice qui
est A−1 .
En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante :
à côté de la matrice A que l’on veut inverser, on rajoute la matrice identité pour former le tableau
suivant dit matrice augmentée :
(A | I).
20 Chapitre 1. Matrices

Sur les lignes de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir
le tableau
(I | B).
Et alors l’inverse de A est la matrice A−1 = B.
Remarque 1.3.10. Les opérations élémentaires qu’on effectue sur les lignes sont :
1. Li ↔ Lj : on peut échanger deux lignes.
2. Li ← λLi avec λ ̸= 0 : on peut multiplier une ligne par un élément de K \ {0}. La formule
Li ← λLi signifie qu’on va attribuer à la ligne Li la valeur du produit λLi .
3. Li ← Li + λLj avec λ ∈ K (et j ̸= i) : on peut rajouter à la ligne Li un multiple d’une autre
ligne Lj . De même la formule Li ← Li + λLj signifie qu’on va attribuer à la ligne Li la valeur
de la somme Li + λLj .

Appliquons ça sur un exemple.


 
1 2 1
Exemple 1.3.11. Calculons l’inverse de A =  4 0 −1 .
−1 2 2
Voici la matrice augmentée, avec les lignes numérotées L1 , L2 et L3 :
 
1 2 1 1 0 0 L1
(A | I) =  4 0 −1 0 1 0  L2
−1 2 2 0 0 1 L3

On applique la méthode de Gauss. On conserve alors la ligne L1 , qui sert de pivot, pour faire
apparaître des 0 sur la première colonne des autres lignes. Commençons par la deuxième ligne
par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice augmentée suvante :
 
1 2 1 1 0 0
 0 −8 −5 −4 1 0  L2 ←L2 −4L1
−1 2 2 0 0 1
Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :
 
1 2 1 1 0 0
 0 −8 −5 −4 1 0 
0 4 3 1 0 1 L3 ←L3 +L1

On multiplie la ligne L2 par − 18


afin qu’elle commence par 1 :
 
1 2 1 1 0 0
 0 1 5 1 − 1 0  L2 ←− 18 L2
8 2 8
0 4 3 1 0 1
On continue afin de faire apparaître des 0 partout sous la diagonale, et on multiplie la ligne L3
par 2. Ce qui termine la première partie de la méthode de Gauss :
 
1 2 1 1 0 0
 0 1 5 1
− 18 0 
8 2
1 1
0 0 2 −1 2 1 L3 ←L3 −4L2
1.3. Opérations sur les matrices 21

puis  
1 2 1 1 0 0
5 1
 0 1
8 2 − 81 0 
0 0 1 −2 1 2 L3 ←2L3

Il ne reste plus qu’à « remonter » pour faire apparaître des zéros au-dessus de la diagonale :
 
1 2 1 1 0 0
7
 0 1 0
4 − 43 − 54  L2 ←L2 − 58 L3
0 0 1 −2 1 2
puis  
1 2 0 3 −1 −2 L1 ←L1 −L3
7
 0 1 0
4 − 43 − 54 
0 0 1 −2 1 2
en suite
− 12 1 1
 
1 0 0 2 2 L1 ←L1 −2L2
7
 0 1 0
4 − 34 − 54 
0 0 1 −2 1 2

Ainsi l’inverse de A est la matrice obtenue à droite, et après factorisation par 14 , on trouve
 1 1 1
  
−2 2 2 −2 2 2
1
A−1 =  47 − 34 − 45  =  7 −3 −5
4
−2 1 2 −8 4 8

Pour se rassurer sur ses calculs, on vérifie que A × A−1 = I.

1.3.10 Puissance d’une matrice

Définition 1.3.10. Pour tout A ∈ Mn (K), on définit les puissances successives de A par A0 = In
et Ap+1 = Ap × A pour tout p ∈ N.
Autrement dit, Ap = A × A × · · · × A.
| {z }
p facteurs
 
1 0 1
Exemple 1.3.12. On cherche à calculer Ap avec A = 0 −1 0.
0 0 2
On calcule A2 , A3 et A4 . On obtient :
     
1 0 3 1 0 7 1 0 15
A2 = 0 1 0 , A3 = A2 × A = 0 −1 0 et A4 = A3 × A = 0 1 0 .
0 0 4 0 0 8 0 0 16

L’observation de ces premières puissances permet de penser que :


2p − 1
 
1 0
Ap = 0 (−1)p 0 .
0 0 2p
22 Chapitre 1. Matrices

Démontrons ce résultat par récurrence.


Il est vrai pour p = 0 (on trouve l’identité). On le suppose vrai pour un entier p et on va le
démontrer pour p + 1. On a, d’après la définition,

2p − 1 2p+1 − 1
     
1 0 1 0 1 1 0
Ap+1 = Ap × A = 0 (−1)p 0  × 0 −1 0 = 0 (−1)p+1 0 .
p p+1
0 0 2 0 0 2 0 0 2
Donc la propriété est démontrée.

Pour les matrices diagonales, le calcul des puissances est simple.


Exemple 1.3.13 (Puissances d’une matrice diagonale). Si A est une matrice diagonale, il
est très facile de calculer ses puissances Ap (par récurrence sur p) :
   p 
α1 0 . . . ... 0 α1 0 ... ... 0
 0 α2 0
 . . . 0 

0
 α2p 0 ... 0 

A =  ... . . . . . . .. 
.. p  .. .. .. .. ..
=⇒ A =
 
. . 
  . . . . . 
p
  
 0 . . . 0 αn−1 0  0 ... 0 αn−1 0
0 ... ... 0 αn 0 ... ... 0 αnp

La formule du binôme de Newton.


La formule suivante, dite la formule du binôme de Newton , est parfois utile dans le calcul
des puissances d’une matrice.
Proposition 1.3.8. Soient A et B deux matrices commutatives (c’est-à-dire AB = BA), alors
pour tout m ∈ N∗ , on a :
Xm
(A + B)m = ∁km Ak B m−k ·
k=0
 
1 0 2
Exemple 1.3.14. Soit la matrice A = 1 1 0 . Calculer A100 .
0 0 1
Remarquons
 que
      
1 0 2 1 0 0 0 0 2 0 0 2
A = 1 1 0 = 0 1 0 + 1 0 0 = I3 + B, où B = 1 0 0.
0 0 1 0 0 1 0 0 0 0 0 0
Donc par la formule du binôme de Newton on a :
100
X 100
X
A100 = (I3 + B)100 = ∁k100 B k I3m−k = ∁k100 B k ·
k=0 k=0
   
0 0 0 0 0 0
Nous remarquons aussi que B 2 = B.B = 0 0 2 et B 3 = B 2 .B = 0 0 0.
0 0 0 0 0 0
k
Donc pour tout k ≥ 3, B = 0, d’où
100
X 2
X
A100 = (I3 + B)100 = ∁k100 Ak B m−k = ∁k100 B k = ∁0100 B 0 + ∁1100 B 1 + ∁2100 B 2 ·
k=0 k=0
1.4. Exercices 23

Or ∁0100 = 1, ∁1100 = 100, ∁2100 = 4950 et B 0 = I, alors


     
1 0 0 0 0 200 0 0 0
A100 = I3 + 100B + 4950B 2 = 0 1 0 + 100 0 0  + 0 0 9900 .
0 0 1 0 0 0 0 0 0
 
1 0 200
Par suite A100 = 100 1 9900.
0 0 1

1.4 Exercices
Exercice 1.1. On considère les matrices suivantes :
   
      2 −3 0 1 2
1 2 1 0 −1 0 1
A= ,B= ,C= , D = −1 0 −2 3 et E = −1.
3 4 1 0 2 2 3
−1 0 0 1 0

1. Calculer, lorsque cela est possible, A + B, A − C, 3C, AB, AC, AE, CD, CE, A2 , C 2 , t A,
t
D, t C, A t A, C t C, t A t C et E t C.
2. L’égalité (A + B)2 = A2 + 2AB + B 2 est-elle vraie ? Justifier.
 
2 −2
Exercice 1.2. On considère la matrice : A = .
2 −3
1. Calculer A2 et montrer que A2 + A − 2I2 = 0.
2. En déduire que A est inversible. Exprimer A−1 en fonction de A, déduire la matrice A−1 .
Exercice 1.3. On considère les matrices
     
1 0 0 1 1 1 1 1 1
A =  0 1 1 , B =  0 1 0  et C =  1 2 1 .
3 1 1 1 0 0 0 −1 −1

Calculer AB, AC. Que remarque-t-on ? La matrice A peut-elle être inversible ? Trouver toutes
les matrices F ∈ M3 (R) telles que AF = 0 (où 0 désigne la matrice nulle).
 
a b
Exercice 1.4. On considère la matrice A = , où a et b sont des réels quelconques.
0 a
1. Calculer A2 et A3 .
2. Calculer An pour tout entier n ∈ N∗ .
3. En remarquant qu’il existe une matrice N telle que A = aI2 + bN , retrouver le résultat
précédent en utilisant la formule du binôme de Newton.
t
Exercice 1.5. On rappel qu’une matrice A est dite symétrique si A = A, et elle est dite
antisymétrique t A = −A.
1. Que peut-on dire de la taille d’une matrice symétrique ?
2. Montrer que toute matrice M carrée d’ordre n, à coefficients dans R, s’écrit de manière unique
comme somme d’une matrice symétrique et d’une matrice antisymétrique.
24 Chapitre 1. Matrices

3. Soient A et B ∈ Mn (R) deux matrices symétriques. Montrer que AB est symétrique ssi
AB = BA.
4. Montrer que pour tout M ∈ Mn,p (K), M t M et t M M sont symétriques.

Exercice 1.6. Montrer que toute matrice M carrée d’ordre n, à coefficients dans un corps
commutatif K de caractéristique différente de 2, s’écrit de manière unique comme somme d’une
matrice symétrique et d’une matrice antisymétrique.

Exercice 1.7. Soient A et B ∈ Mn (K) deux matrices symétriques. Montrer que AB est symé-
trique ssi AB = BA.
 
1 2
Exercice 1.8. Soit la matrice A =  3 4. Déterminer toutes les matrices B telles que
−1 4
BA = I.
 
1 −1 −1
Exercice 1.9. Soit la matrice A = −1 1 −1. Montrer que la matrice An est de la forme
−1 −1 1
 
an bn bn
 bn an bn . Exprimer an+1 et bn+1 en fonction de an et bn .
bn bn an
 
1 2 −1
Exercice 1.10. Calculer A−1 l’inverse de la matrice A = 0 1 2 .
0 0 1
Exercice 1.11. Soit M une matrice carrée. On dit que M est nilpotente s’il existe n ∈ N tel
que M n = 0.   M est nilpotente, alors I − M est inversible. Déduire l’inverse de la
Montrer que si
1 a b c
0 1 a b 
matrice A = 0 0 1 a.

0 0 0 1
CHAPITRE 2

DÉTERMINANT

Dans toute la suite, la lettre K désignera un corps commutatif. Ce chapitre ne concerne que
les matrices carrées. On travaillera systématiquement dans Mn (K).
Dans ce chapitre, nous allons associer à chaque matrice carrée A un scalaire (élément de K)
qu’on appellera le déterminant de A. Pour les matrices dont les entrées sont des nombres
réels, les nombres associés (les déterminants) seront aussi des nombres réels. Nous noterons le
déterminant de A par det(A).
Une propriété importante du déterminant est sa connexion à l’inverse de la matrice. Nous
trouverons qu’une matrice A est inversible si et seulement si det(A) ̸= 0. Nous établirons une
formule qui donne l’inverse d’une matrice exclusivement en terme de déterminant.

2.1 Définitions

Dans cette partie, on cherche à associer à toute matrice carrée A = aij 1≤i≤n ∈ Mn (K) de
1≤j≤n
taille n un scalaire (élément de K) qu’on nomme le déterminant de A, et il sera noté det(A).
Nous allons définir cette notion par récurrence comme suit :

1. si A = (a11 ), alors det(A) = a11 ,


 
a11 a12
2. si A est une matrice carrée d’ordre 2, c’est-à-dire A = , alors
a21 a22

a11 a12
det(A) = = a11 a22 − a12 a21 .
a21 a22

25
26 Chapitre 2. Déterminant

 
a11 a12 a13
3. si A = a21 a22 a23  , alors posons
a31 a32 a33
     
a22 a23 a21 a23 a21 a22
A11 = , A12 = et A13 = .
a32 a33 a31 a33 a31 a32

Donc le déterminant de A est défini par


a11 a12 a13
det(A) = a21 a22 a23
a31 a32 a33
X 3
= (−1)1+j a1j det(A1j )
j=1
= a11 det(A1j ) − a12 det(A12 ) + a13 det(A13 )
a a23 a a23 a a22
= a11 22 − a12 21 + a13 21 .
a32 a33 a31 a33 a31 a32
Remarquer qu’on a utilisé les coefficients a1j , 1 ≤ j ≤ 3, de la première ligne, on dit qu’on
a développé le déterminant suivant la première ligne. Remarquer aussi que pour
calculer le déterminant de A, nous avons utilisé les déterminants des matrices carrés A1j
d’ordre 2 obtenue en supprimant la première ligne et la j-ème colonne. Nous utiliserons
cette dernière remarque dans la suite.
4. Soit A une matrice carrée de taille n. On construit une matrice qu’on note Aij obtenue
de la matrice A en supprimant sa i-ème ligne et sa j-ème colonne. Ainsi la matrice Aij
associée à A est une matrice carré d’ordre n − 1. Le déterminant de la matrice A est le
scalaire défini par :
n
X
det(A) = (−1)1+j a1j det(A1j )
j=1
= a11 det(A11 ) − a12 det(A12 ) + a13 det(A13 ) + · · · + (−1)1+n a1n det(A1n )·

Exemple 2.1.1.
 
2 3
1. Soit la matrice A = , alors A11 = −6 et A12 = 5. Donc
5 −6

det(A) = 2 det(A11 ) − 3 det(A12 ) = 2 × (−6) − 3 × 5 = −27.


 
2 3 5    
−6 −1 5 −1
2. Soit la matrice B = 5 −6 −1 , alors B11 =
 , B12 = et B13 =
−4 7 1 7
1 −4 7
 
5 −6
. Donc
1 −4

det(B) = 2 det(B11 ) − 3 det(B12 ) + 5 det(B13 )


−6 −1 5 −1 5 −6
=2 −3 +5
−4 7 1 7 1 −4
= 2 × (−38) − 3 × 36 + 5 × (−14)
= −254.
2.1. Définitions 27

Remarque 2.1.1. Pour calculer det(B) dans l’exemple précédent, nous avons utilisé seulement
les coefficients de la première ligne. Peut-on utilisé ceux de la première colonne par exemple ? La
réponse est oui, mais nous devons garder la matrice B11 et remplacer les matrices B12 et B13
par les matrices B21 et B31 respectivement. On a
   
3 5 3 5
B21 = et B31 = .
−4 7 −6 −1

Donc et puisque les coefficients de la première colonne sont 2, 5 et 1, on a :

det(B) = 2 det(B11 ) − 5 det(B


 21 ) 
+ 1 det(B
 31 ) 
−6 −1 3 5 3 5
=2 −5 +1
−4 7 −4 7 −6 −1
= 2 × (−38) − 5 × 41 + 1 × (27)
= −76 − 205 + 27
= −254.

D’où le résultat est le même. Puisque nous avons utilisé les coefficients de la première colonne, on
dit qu’on a développé suivant la première colonne. En réalité on peut développer suivant
n’importe quelle ligne ou n’importe quelle colonne et le résultat restera toujours le même.
Remarque 2.1.2. Le résultat de la remarque précédente 2.1.1 se généralise à n’importe quelle
matrice carrée de taille n. Soit A = (aij ) une matrice carrée d’ordre n. Pour calculer det(A),
on peut développer par rapport à une ligne i ou par rapport à une colonne j. Notons par
∆ij = det(Aij ) le déterminant de la matrice Aij obtenue de la matrice A en supprimant sa i-ème
ligne et sa j-ème colonne, ce scalaire est appelé le mineur en i et j ou le mineur associé au
coefficient aij .
• Le développement suivant la ligne i est
n
X
deti (A) = (−1)(i+k) aik ∆ik
k=1
= (−1)(i+1) ai1 ∆i1 + (−1)(i+2) ai2 ∆i2 + · · · + (−1)(i+n) ain ∆in .

• Le développement suivant la colonne j est


n
X
detj (A) = (−1)(k+j) akj ∆kj
k=1
= (−1)(1+j) a1j ∆1j + (−1)(2+j) a2j ∆2j + · · · + (−1)(n+j) anj ∆nj .
 
a11 a12 a13
Pour n = 3, on a A = a21 a22 a23  .
a31 a32 a33

• Le développement suivant la première ligne est :

a11 a12 a13 X 3


det1 (A) = a21 a22 a23 = (−1)1+j a1j det(A1j )
a31 a32 a33 j=1
a22 a23 a a23 a a22
= a11 − a12 21 + a13 21 .
a32 a33 a31 a33 a31 a32
28 Chapitre 2. Déterminant

• Le développement suivant la première colonne est :

a11 a12 a13 X 3


det1 (A) = a21 a22 a23 = (−1)i+1 ai1 det(Ai1 )
a31 a32 a33 i=1
a22 a23 a a13 a a13
= a11 − a21 12 + a31 12 .
a32 a33 a32 a33 a22 a23
Proposition 2.1.1. Pour tout i et tout j, on a :

deti (A) = detj (A) = det(A).

En d’autre termes, le développement donne une formule pour calculer le déterminant, en fonction
de déterminants plus petits.

L’intérêt de cette Proposition 2.1.1 est de choisir la ligne ou la colonne qui nous permet de
calculer rapidement le déterminant.
NB. Pour faciliter le calcul, il faut développer suivant la ligne ou la colonne qui
contient plus de zéros
 
0 −1 −1
Exemple 2.1.2. Prenons A = −2 0 5 .
−3 0 −1
Pour gérer le signe (−1)i+j , on peut par exemple dresser un tableau de signes comme
 
+ − +
 − + − .
+ − +

Pour développer par rapport à la première ligne, disons, on prend les mineurs et les coefficients
dans la matrice, les signes dans le tableau, pour avoir :

0 5 −2 5 −2 0
det(A) = +0 × − (−1) × + (−1) ×
0 −1 −3 −1 −3 0
= 0 + 17 + 0 = 17.

Par rapport à la troisième colonne, on a :

−2 0 0 −1 0 −1
det(A) = +(−1) × −5× + (−1) ×
−3 0 −3 0 −2 0
= 0 − 5 × (−3) − (−2) = 17.

Mais regardons si on développe suivant la deuxième colonne, on trouve facilement det(A) :

−2 5
det(A) = −(−1) × = 17.
−3 −1

Ce n’est pas un hasard si on trouve le même résultat.


2.1. Définitions 29

Soit A une matrice carrée de taille n. Notons par C1 , C2 · · · , Cn , · · · , Cn les n colonnes de


A. Alors le déterminant de A peut être vu comme une application des colonnes de A : on écrit
det(A) = det(C1 , · · · , Cj , · · · , Cn ).
Proposition 2.1.2. det(A) est linéaire par rapport à chaque colonne Cj , c’est-à-dire les deux
points suivants sont vérifiés :
• pour tout α ∈ K et pour tout indice 1 ≤ j ≤ n, on a :
det(C1 , · · · , αCj , · · · , Cn ) = α det(C1 , · · · , Cj , · · · , Cn ).
• pour tout indice 1 ≤ j ≤ n, si le vecteur Cj est somme de deux autres vecteurs : Cj = Cj′ + Cj′′ ,
alors
det(C1 , · · · , Cj , · · · , Cn ) = det(C1 , · · · , Cj′ + Cj′′ , · · · , Cn )
= det(C1 , · · · , Cj′ , · · · , Cn ) + det(C1 , · · · , Cj′′ , · · · , Cn ).
On peut regrouper ces deux propriétés en une seule en écrivant pour tout α ∈ K :
det(C1 , · · · , Cj′ + αCj′′ , · · · , Cn ) = det(C1 , · · · , Cj′ , · · · , Cn ) + α det(C1 , · · · , Cj′′ , · · · , Cn ).

Voilà ce que cela signifie pour les deux cas n = 2 et n = 3.


     
a b a b
1. Si A = , alors, en posant C1 = et C2 = , on a :
c d c d
det(A) = det(C1 , C2 ).
Le déterminant est une application   linéaire par rapport à chaque colonne c-à-d pour tout
α
λ ∈ K et pour toute colonne C = , nous avons :
β
a. det(C1 , C2 + λC) = det(C1 , C2 ) + λ det(C1 , C). En effet,
a b + λα a b a α
= a(d + λβ) − c(b + λα) = ad − bc + λ(aβ − cα) = +λ .
c d + λβ c d c β
b. det(C1 + λC, C2 ) = det(C1 , C2 ) + λ det(C, C2 ). Ceci se démontre de la même façon que
précédemment.
Nous avons aussi, pour tous λ et µ dans K :
det(C1 , C2 ) = det(C1 , C2 + λC1 ) = det(C1 + µC2 , C2 ).
En effet,
det(C1 , C2 + λC1 ) = det(C1 , C2 ) + λ det(C1 , C1 ) = det(C1 , C2 ),
puisque
a a b b
det(C1 , C1 ) = = 0 et det(C2 , C2 ) =
= 0.
c c d d
       
a b c a b c
′ ′ ′ ′ ′
2. Si A = a b c , alors, en posant C1 = a , C2 = b
  et C3 = c′  on a le

′′ ′′ ′′ ′′ ′′
a b c a b c′′
déterminant de A est det(A) = det(C1 , C2 , C3 ) qui est une application
 linéaire par rapport à
α
chaque colonne c-à-d pour tout λ ∈ K et pour toute colonne C = β , nous avons :
γ
30 Chapitre 2. Déterminant

a. det(C1 + λC, C2 , C3 ) = det(C1 , C2 , C3 ) + λ det(C, C2 , C3 ).


b. det(C1 , C2 + λC, C3 ) = det(C1 , C2 , C3 ) + λ det(C1 , C, C3 ).
c. det(C1 , C2 , C3 + λC) = det(C1 , C2 , C3 ) + λ det(C1 , C2 , C).

2.2 Propriétés du déterminant


La proposition précédente, nous permet de justifier les résultats suivants qui nous donne
quelques importantes propriétés pour calculer facilement le déterminant d’une matrice.

Propriétés 2.2.1. Soient A et B deux matrices carrées d’ordre n.


1. Si A1 est une matrice obtenue à partir de A en multipliant une ligne ou une colonne par
λ ∈ K, alors det(A1 ) = λ det(A).
2. Pour tout λ ∈ K, det(λA) = λn det(A).
3. Pour toute matrice A, on a det(A) = det(t A).
4. det(AB) = det(A) det(B).
5. Si deux lignes ou deux colonnes d’une matrice sont identiques, alors son déterminant est nul.
6. Si A2 est une matrice obtenue à partir de A en permutant deux lignes (resp. deux colonnes),
alors det(A2 ) = − det(A).
7. Si A3 est une matrice obtenue à partir de A en ajoutant à une ligne (resp. colonne) une
combinaison linéaire des autres, alors det(A3 ) = det(A).
8. Si une ligne ou une colonne est nulle, alors det(A) = 0.
9. Si une ligne (resp. colonne) de A est une combinaison linéaire d’autres lignes (resp. colonnes),
alors det(A) = 0.

Preuve. Soient A et B deux matrices carrées d’ordre n. Si on note par Cj la j-ème colonne d’une
matrice A, alors on sait que

det(A) = det(C1 , · · · , Cj , · · · , Cn ).

1. Supposons que A = (aij ), où 1 ≤ i ≤ n et 1 ≤ j ≤ n.


• Supposons que A1 est obtenue à partir de A en multipliant une ligne par λ ∈ K. Supposons
qu’on a multiplié la première ligne de A par λ, alors la première ligne de A1 est

λa11 , λa12 , ··· λa1n .

Donc en développant det(A1 ) suivant la première ligne, on obtient :


n
X
det(A1 ) = (−1)(1+k) λa1k ∆1k
k=1
= (−1)(1+1) λa11 ∆11 + (−1)(1+2) λa12 ∆12 + · · · + (−1)(1+n) λa1n ∆1n
= λ (−1)(1+1) a11 ∆11 + (−1)(1+2) a12 ∆12 + · · · + (−1)(1+n) a1n ∆1n
Xn
=λ (−1)(1+k) a1k ∆1k
k=1
= λ det(A).
2.2. Propriétés du déterminant 31

• Si A1 est obtenue à partir de A en multipliant une colonne Cj par λ ∈ K, alors le résultat


est obtenu en appliquant la linéarité du déterminant. En effet,

det(A1 ) = det(C1 , · · · , λCj , · · · , Cn ) = λ det(C1 , · · · , Cj , · · · , Cn ) = λ det(A).

2. Notons par Ak la matrice obtenue en multipliant k lignes de A par λ. Donc pour k = n, on


a An = λA, c-à-d, pour avoir An il faut multiplier chaque ligne de A par λ ; noter aussi que
pour avoir An−1 il faut multiplier n − 1 lignes de A par λ. Remarquer qu’on peut obtenir An
à partir de An−1 en multipliant par λ la ligne non multipliée par λ. D’où par le premier point
on trouve que :
det(λA) = det(An ) = λ det(An−1 ),
et par récurrence on obtient que det(λA) = λn det(A).
3. Pour toute matrice A, montrons que det(A) = det(t A). Posons A = (aij ), où 1 ≤ i ≤ n
et 1 ≤ j ≤ n. Notons d’abord que la i-ème ligne de A est exactement la i-ème colonne de
t
A. Alors la matrice obtenue en supprimant la première ligne et la j-ème colonne de A est
exactement la matrice obtenue en supprimant la première colonne et la j-ème ligne de t A.
Donc le mineur ∆1j en 1 et j de A est égal au mineur ∆j1 en j et 1 de t A. Par suite en
développant suivant la première colonne de t A on obtient :
n
X n
X
t (k+1)
det( A) = (−1) ak1 ∆k1 = (−1)(1+k) a1k ∆1k = det(A).
k=1 k=1

4. Le résultat det(AB) = det(A) det(B) est admis.


5. Montrons par recurrence sur l’ordre n ≥ 2 d’une matrice carrée A que si deux colonnes sont
identiques, le déterminant est nul. Pour simplifier notons par An une matrice carrée d’ordre
n ≥ 2.
La propriété est vraie pour n = 2.
Supposons qu’elle est vraie pour n − 1, c’est-à-dire si An−1 est une matrice carrée admettant
deux colonnes identiques, alors det(An−1 ) = 0.
Soit maintenant An = (aij ) une matrice carrée admettant deux colonnes identiques, sans
perdre de généralité on suppose que les deux dernières colonnes sont identiques. En dévelop-
pant suivant la première colonne, on obtient :
n
X
det(An ) = (−1)(k+1) ak1 ∆k1
k=1
= (−1)(1+1) a11 ∆11 + (−1)(2+1) a21 ∆22 + · · · + (−1)(n+1) an1 ∆n1 .
Remarquons que chaque mineur ∆k1 est obtenu en supprimant la première colonne et le k-
ème ligne, donc les deux dernière colonnes de ∆k1 sont identiques, d’où par hypothèse de
récurrence ∆k1 = det(An−1 ) = 0 pour tout k ; par suite det(An ) = 0.
Par consequent le principe de récurrence nous donne que pour tout n, det(An ) = 0.
6. Si A2 est une matrice obtenue à partir de A en permutant deux colonnes. Supposons que
A = (C1 , C2 , · · · , Ci , · · · , Cj , · · · , Cn ). On va échanger les colonnes Ci et Cj , ce qui donne
la matrice A2 = (C1 , C2 , · · · , Cj , · · · , Ci , · · · , Cn ), où le vecteur Cj se retrouve en colonne i
et le vecteur Ci en colonne j (on prend, sans perte de généralité, i < j). Introduisons alors
une troisième matrice B = (C1 , C2 , · · · , Ci + Cj , · · · , Cj + Ci , · · · , Cn ), cette matrice a deux
colonnes distinctes égales, donc
det(B) = 0.
32 Chapitre 2. Déterminant

D’un autre côté, nous pouvons développer ce déterminant en utilisant la multilinéarité du


déterminant, c’est-à-dire la linéarité par rapport à chaque colonne. Ceci donne

0 = det(B) = det(C1 , C2 , · · · , Ci + Cj , · · · , Cj + Ci , · · · , Cn )
= det(C1 , C2 , · · · , Ci , · · · , Cj , · · · , Cn ) + det(C1 , C2 , · · · , Ci , · · · , Ci , · · · , Cn )
+ det(C1 , C2 , · · · , Cj , · · · , Cj , · · · , Cn ) + det(C1 , C2 , · · · , Cj , · · · , Ci , · · · , Cn )
= det(A) + 0 + 0 + det(A1 ).

Les deux déterminants det(C1 , C2 , · · · , Ci , · · · , Ci , · · · , Cn ) et det(C1 , C2 , · · · , Cj , · · · , Cj , · · · , Cn )


sont nuls car chacun a deux colonnes égales. D’où det(A)+0+0+det(A1 ) = 0, ce qui implique
que det(A1 ) = − det(A).
7. Si A3 est une matrice obtenue à partir de A en ajoutant à une colonne Cj une combinaison
linéaire des autres, alors
n
X
det(A3 ) = det(C1 , · · · , Cj + λk Ck , · · · , Cn ),
k=1
k̸=j

Par linéarité par rapport à la colonne Cj , on en déduit que


n
X
det(A3 ) = det(C1 , · · · , Cj + λk Ck , · · · , Cn )
k=1
k̸=j
n
X
= det(C1 , · · · , Cj , · · · , Cn ) + λk det(C1 , · · · , Ck , · · · , Cn )
k=1
k̸=j
n
X
= det(A) + λk det(C1 , · · · , Ck , · · · , Cn )
k=1
k̸=j

Or chacun des déterminants apparaissant sous le signe de sommation est nul, puisqu’il concerne
une matrice dont les colonnes Ci et Ck , où i, k ∈ {1, · · · j − 1, j + 1, · · · , n}, sont égales. D’où
det(A3 ) = det(A).
8. Si une colonne d’une matrice A est nulle, alors par linéarité par rapport à cette colonne
det(A) = 0.
9. Supposons qu’une ligne (resp. colonne) de A est une combinaison linéaire d’autres lignes (resp.
colonnes). Alors on soustrait à cette colonne (à cette ligne) la combinaison linéaire en question,
ce qui ne modifie pas le déterminant. La matrice obtenue a une colonne nulle, alors det(A) = 0.

2.3 Règle de Sarrus


Nous avons une autre méthode pour calculer le déterminant d’une matrice de type 3 × 3, dite
règle de Sarrus. Cette règle consiste à écrire les trois colonnes de la matrice et à répéter, dans
l’ordre, les deux premières colonnes à droite de la matrice. Il suffit alors d’effectuer les produits
des coefficients de chaque diagonale et d’en faire la somme si la diagonale est descendante ou la
2.4. Déterminants de quelques matrices particulières 33

différence si la diagonale est ascendante.

a11 a12 a13 a11 a12 ↘ ↙


det(A) = a21 a22 a23 a21 a22
a31 a32 a33 a31 a32 − +
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a13 a22 a31 + a11 a23 a32 + a12 a21 a33 ).
 
0 −1 −1
Exemple 2.3.1. Pour la matrice A = −2 1 5 , on a :
−3 2 −1

0 −1 −1 0 −1
det(A) = −2 1 5 −2 1
−3 2 −1 −3 2
= [0.1.(−1) + (−1).5.(−3) + (−1).(−2).2] − [(−3).1.(−1) + 2.5.0 + (−1).(−2).(−1)]
= (15 + 4) − (3 − 2) = 18.

On peut, au lieu de répéter les colonnes, on répète les lignes : on écrit les trois lignes de la
matrice et on répète, dans l’ordre, les deux premières lignes en bas de la matrice. Il suffit alors
d’effectuer les produits des coefficients de chaque diagonale et d’en faire la somme si la diagonale
est descendante ou la différence si la diagonale est ascendante.

a11 a12 a13


det(A) = a21 a22 a23
a31 a32 a33
↘ ↙
a11 a12 a13
a21 a22 a23
− +
= (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 ) − (a13 a22 a31 + a11 a32 a23 + a21 a12 a33 ).

2.4 Déterminants de quelques matrices particulières


Comme nous l’avons déjà signaler, l’intérêt de la Proposition 2.1.1 est de choisir la ligne ou
la colonne qui nous permet de calculer rapidement le déterminant. Il s’ensuit que le calcul du
déterminant de certaines matrice se fait facilement.

1. Pour une matrice diagonale A = (aij ), en développant suivant la première ligne par exemple,
on obtient : det(A) = a11 det(A11 ), et par récurrence on a :

det(A) = a11 a22 · · · ann .

2. Pour une matrice triangulaire A = (aij ) supérieur (resp. inférieur) on développe suivant la
première colonne (resp. ligne). On trouve alors par récurrence que

det(A) = a11 a22 · · · ann .

3. Donc pour la matrice unité In , on a det(In ) = 1.


34 Chapitre 2. Déterminant

Exemples 2.4.1. Rappelons que le tableau des signes utilisé pour calculer un déterminant est
formé en commençant par le signe +, et en respectant le fait que deux signes consécutifs dans
une ligne ou une colonne sont opposés.

+ − + ···

− + − · · ·
.
 
+ − + · · ·
 
.. .. ..
. . . ···

Rappelons aussi que si aux éléments d’une ligne (ou colonne) on ajoute k fois les éléments
correspondants d’une autre ligne (ou colonne), la valeur du déterminant reste inchangée (cette
propriété est utilisée pour faire apparaître des zéros sur une ligne (ou colonne)).
 
1 9 −3
1. Soit la matrice A =  4 6 −2.
−3 1 5

1 9 −3 1 9 + 3.(−3) −3
det(A) = 4 6 −2 = 4 6 + 3.(−2) −2
−3 1 5 −3 1 + 3.5 5
1 0 −3
1 −3
= 4 0 −2 = −16
4 −2
−3 16 5
= −16(−2 + 12) = −160.

1 3 0 2
−2 −5 7 4
2. Soit à calculer le déterminant ∆ = .
3 5 2 1
1 −1 2 −3
Nous avons, en remplaçant la colonne C2 par C2 − 3C1 et la colonne C4 par C4 − 2C1 :

1 3 0 2 1 0 0 2 1 0 0 0
−2 −5 7 4 −2 1 7 4 −2 1 7 8
∆ = = =
3 5 2 1 3 −4 2 1 3 −4 2 −5
1 −1 2 −3 1 −4 2 −3 1 −4 2 −5
1 7 8
= −4 2 −5 = 0,
−4 2 −5

car la deuxième et la troisième ligne, du dernier déterminant, sont égales.


1 3 −1 0 −2
0 2 −4 −1 −6
3. Calculons le déterminant ∆ = −2 −6 2 3 9 . Nous avons en remplaçant les
3 7 −3 8 −7
3 5 5 2 7
2.5. Application : l’inverse d’une matrice 35

lignes L3 par L3 + 2L1 , L4 par L4 − 3L1 et L5 par L5 − 3L1 :

1 3 −1 0 −2 1 3 −1 0 −2
0 2 −4 −1 −6 0 2 −4 −1 −6
∆= −2−6 2 3 9 = 0 0 0 3 5
3 7 −3 8 −7 0 −2 0 8 −1
3 5 5 2 7 0 −4 8 2 13
2−4 −1 −6
0 0 3 5
=
−2 0 8 −1
−4 8 2 13
1 1 −1 −6
0 0 3 5
= −8 factorisation de la 1-ère colonne par 2 et la 2-ème par -4
−1 0 8 −1
−2 −2 2 13
0 1 −1 −6
1 −1 −6
0 0 3 5
= −8 =8 0 3 5
−1 0 8 −1
−2 2 13
0 −2 2 13
0 −1 −6
= 8 3 3 5 = 8 × 3 = 24.
0 2 13

2.5 Application : l’inverse d’une matrice


Dans cette application, nous allons donner une formule pour calculer l’inverse d’une matrice
carrée inversible. Commençons par définir ce qu’on appelle la comatrice d’une matrice A.

Définition 2.5.1. Soit une matrice carrée A = aij 1≤i≤n ∈ Mn (K). Soit Aij la matrice carrée
1≤j≤n
de type (n − 1) × (n − 1) obtenue en supprimant la ligne i et la colonne j de la matrice A.
Le déterminant ∆ij = det(Aij ) est appelé le mineur en i et j ou mineur de aij .
On appelle co-facteur de A relatif à aij le nombre Cij = (−1)i+j ∆ij . Et la matrice

com(A) = (−1)i+j ∆ij 1≤i≤n



1≤j≤n

est appelée la matrice des co-facteurs ou la comatrice de A.


 
1 2 3
Exemple 2.5.1. Soit la matrice A = 4 5 6 . Alors les mineurs de A sont :
7 8 9

5 6 4 6 4 5
∆11 = = 5.9 − 8.6 = −3, ∆12 = = −6, ∆13 = = −3,
8 9 7 9 7 8
2 3 1 3 1 2
∆21 = = −6, ∆22 = = −12, ∆23 = = −6,
8 9 7 9 7 8
2 3 1 3 1 2
∆31 = = −3, ∆32 = = −6, ∆33 = = −3.
5 6 4 6 4 5
36 Chapitre 2. Déterminant

La comatrice de A est la matrice suivante (attention aux signes) :


   
∆11 −∆12 ∆13 −3 6 −3
com(A) = −∆21 ∆22 −∆23  =  6 −12 6 .
∆31 −∆32 ∆33 −3 6 −3

Théorème 2.5.1. Une matrice carrée A est inversible si et seulement si son déterminant est
1
non-nul. Si c’est le cas on a : det(A−1 ) = ·
det(A)

Preuve. A est inversible ssi il existe une matrice B telle que AB = In , ceci est équivaut à
det(A) det(B) = det(AB) = det(In ) = 1, ce qui est équivalent à det(A) est non nul et que
det(A−1 ) = det(A)
1
, car B = A−1 .
 
cos(θ) − sin(θ)
Exemple 2.5.2. Soit θ un paramètre réel. La matrice est toujours inversible.
sin(θ) cos(θ)
En effet, en calculant le déterminant, on obtient cos(θ)2 + sin(θ)2 = 1.
Théorème 2.5.2. Soit A ∈ Mn (K) une matrice carrée et soit C = com(A) sa comatrice. Alors

A t C = t CA = det(A)In .

Preuve. Soit une matrice carrée A = aij 1≤i≤n ∈ Mn (K). Soient aussi les mineurs ∆ij =
1≤j≤n
i+j
det(Aij ) en i et j et les co-facteurs Cij = (−1) ∆ij de A relatif à aij .
Considérons l’expression :
aj1 Ck1 + aj2 Ck2 + · · · + ajn Ckn
• si k = j, alors cette expression vaut det(A) puisqu’il s’agit du développement selon la j-ème
ligne ;
• si k ̸= j, alors l’expression vaut 0. En effet, soit B la matrice obtenue de A en remplaçant la
k-ème ligne par la j-ème ligne. Son déterminant vaut 0 , car B a deux lignes égales :

0 = det(B) = ak1 Ck1 + · · · + akn Ckn


= aj1 Ck1 + · · · + ajn Ckn .

Donc nous avons la formule (∗) suivante :

(∗) aj1 Ck1 + aj2 Ck2 + · · · + ajn Ckn = δjk det(A),

où δjk est le "symbole de Kronecker" défini par :


(
1 si j = k
δjk =
0 si j ̸= k.

Remarquons que le premier membre de la formule (∗) est le terme de la j-ème ligne et la k-ème
colonne de A t C, et le second membre δjk det(A) est le terme de la j-ème ligne et la k-ème colonne
de det(A)In . D’où A t C = det(A)In .
D’une manière analogue, on démontre que t C A = det(A)In .
1 t
Corollaire 2.5.1. Soit A ∈ Mn (K) une matrice inversible. Alors A−1 = C.
det(A)
2.5. Application : l’inverse d’une matrice 37

Preuve. Comme A est inversible, alors det(A) ̸= 0. Donc t C = t CAA−1 = det(A)A−1 , d’où le
résultat.

Exemples 2.5.1.
 
1 2 1
1. Soit la matrice A =  4 0 −1 . La matrice A est-elle inversible ? Si oui calculer son
−1 2 2
inverse. On a :
1 2 1 1+4 2 1 5 2 1
det(A) = 4 0 −1 = 4 + 4(−1) 0 −1 = 0 0 −1
−1 2 2 −1 + 4.2 2 2 7 2 2
5 2
= −(−1) = 10 − 14 = −4 ̸= 0.
7 2

Donc la matrice A est inversible.


Les mineurs de A sont :

0 −1 4 −1 4 0
∆11 = = 2, ∆12 = = 7, ∆13 = = 8,
2 2 −1 2 −1 2
2 1 1 1 1 2
∆21 = = 2, ∆22 = = 3, ∆23 = = 4,
2 2 −1 2 −1 2
2 1 1 1 1 2
∆31 = = −2, ∆32 = = −5, ∆33 = = −8.
0 −1 4 −1 4 0
La comatrice de A est la matrice suivante (ne pas oublier les signes +/−) :
   
∆11 −∆12 ∆13 2 −7 8
com(A) = C = −∆21 ∆22 −∆23  = −2 3 −4 .
∆31 −∆32 ∆33 −2 5 −8
 
−2 2 2
Donc A−1 = det(A)
1
·t C = 14  7 −3 −5 .
−8 4 8
 
2 1 3
2. Trouver l’inverse (s’il existe) de la matrice A =  1 −1 1 .
1 4 −2
2 1 3 0 1 0
Nous avons det A = 1 −1 1 = 3 −1 4 = −(−14 · 3 + 14 · 2) = 14. Donc
1 4 −2 −7 4 −14
la matrice A est inversible.  
−2 3 5
La comatrice associée à A est com(A) =  14 −7 −7 , donc l’inverse de A est la
4 1 −3
matrice  
−2 14 4
1
A−1 =  3 −7 1 .
14
5 −7 −3

Nous terminons cette sous-section par la remarque suivante.


38 Chapitre 2. Déterminant

Remarque 2.5.1. Sauf pour n = 2, ou pour des matrices très particulières, utiliser la méthode
de la comatrice ce n’est pas la bonne façon de calculer explicitement l’inverse d’une matrice. Si
on a vraiment besoin de l’inverse d’une matrice, alors on a tout intérêt à utiliser la méthode de
Gauss dès que n ≥ 3. Par contre, la formule précédente de la comatrice est intéressante pour la
théorie.

2.6 Rang d’une matrice


La principale application des déterminants concerne la théorie du rang. Commençons d’abord
par définir le rang d’une matrice, pour cela nous avons besoin de la matrice extraite.
Définition 2.6.1. Soit A une matrice de type m × n. Soient p et q deux entiers tels que 0 ≤
p ≤ m − 1 et 0 ≤ q ≤ n − 1. Une matrice M obtenue en supprimant p lignes et q colonnes de A
est appelée matrice extraite (ou sous-matrice) de A.
 
1 2 −3
Exemple 2.6.1. Soit la matrice A =  2 4 5 .
−2 1 9
   
1 2 1 2 −3
Alors M1 = et M2 = sont des matrices extraites de A.
2 4 2 4 5
Définition 2.6.2. Le rang d’une matrice A de type m × n, qu’on note rg(A), est le plus
grand entier r tel qu’il existe une matrice carrée M extraite de A d’ordre r et de
déterminant det(M ) non nul.
Autrement dit, le rang de la matrice A est le plus grand entier r tel qu’il existe un mineur ∆
non-nul extrait de A d’ordre r.
1 2 − 21 0
 
Exemple 2.6.2. Calculer le rang de la matrice A = ∈ M2,4 (K).
2 4 −1 0
Toutes les matrices carrées extraites de A ont des déterminants nuls. En effet,
1 2 1 − 21 1 0 2 − 12
= 0, = 0, = 0, = 0, ....
2 4 2 −1 2 0 4 −1
Donc rg(A) = 1, puisque on peut extraire une matrice carrée d’ordre 1 et de déterminant non
nul.
 
1 0 1
2 1 5 
 
Exemple 2.6.3. Calculer le rang de la matrice A =  3 2 9  ∈ M5,3 (K).

3 4 −2
5 0 0
 
3 2 9
Soit la matrice M = 3 4 −2 extraite de A. On a
5 0 0

3 2 9
2 9
det(M ) = 3 4 −2 = 5 = 5 × (−40) = −120 ̸= 0.
4 −2
5 0 0
Donc rg(A) = 3.
2.6. Rang d’une matrice 39

Proposition 2.6.1. Soit A une matrice de type m × n.


1. L’entier r est le rang de A si et seulement s’il existe un mineur non-nul d’ordre r extrait de
A et tous les mineurs d’ordre s strictement supérieur à r extraits de A sont nuls.
2. 0 ≤ rg(A) ≤ inf(m, n).
3. rg(A) = 0 si et seulement si A est la matrice nulle.

Preuve. Facile à prouver.

Théorème 2.6.1. Pour toute matrice A, nous avons rg(A) = rg(t A).

Preuve. Soit A une matrice de type m × n. Montrons que : rg(A) = rg(t A).
Supposons que rg(A) = r, alors, par définition, il existe une sous-matrice carrée M de A d’ordre
r ayant un déterminant non nul. Donc la transposée t M est une sous-matrice de t A de même
taille r × r. Or det(t M ) = det(M ) ̸= 0, ceci implique que t A possède un mineur d’ordre r non
nul, donc r ≤ rg(t A). Nous avons donc montré que :

rg(A) ≤ rg(t A).

De la même manière, supposons que rg(t A) = s, ceci signifie qu’il existe une sous-matrice N de
t
A d’ordre s avec det(N ) ̸= 0. Comme N est une sous-matrice de t A, sa transposée t N est une
sous-matrice de A. Du fait que det(t N ) = det(N ) ̸= 0, on tire que A possède un mineur d’ordre
s non nul, ce qui entraîne s ≤ rg(A).
Nous obtenons ainsi : rg(t A) ≤ rg(A).
Enfin les deux inégalités :

rg(A) ≤ rg(t A) et rg(t A) ≤ rg(A),

nous donnent l’égalité :


rg(A) = rg(t A).
Ce qui achève la démonstration.

En tenant compte du fait qu’une matrice carrée est inversible si et seulement si son déterminant
est non nul, nous avons les remarques suivantes.

Remarques 2.6.1.
1. Une matrice carrée A d’ordre n est inversible si et seulement si rg(A) = n si et seulement si
det(A) ̸= 0.
2. Le rang d’une matrice A est égal au plus grand des ordres des matrices carrées inversibles
extraites de A.
3. Si A est une matrice carrée de rang r, alors les deux propriétés suivantes sont satisfaites :
a. il existe une matrice carrée d’ordre r, inversible, extraite de A.
b. toute matrice carrée inversible extraite de A est d’ordre inférieur ou égal à r.

Les propriétés suivantes découlent facilement des propriétés du déterminant.

Propriétés 2.6.1. Le rang d’une matrice A ne change pas si


40 Chapitre 2. Déterminant

1. on change l’ordre des lignes (ou des colonnes),


2. on multiplie (ou divise) une ligne (ou une colonne) par un scalaire non nul,
3. on rajoute (ou retranche) à une ligne ou une colonne une combinaison linéaire des autres,
4. on rajoute à la matrice une nouvelle ligne (colonne) qui est combinaison linéaire des autres.

Pour déterminer le rang d’une matrice A, on peut appliquer la méthode de Gauss (ou de
pivotage) utilisée dans le chapitre précédent la sous-section 1.3.9 (mais sans ajouter la matrice
identité) pour transformer la matrice A en une autre matrice B dite échelonnée en lignes :

Définition 2.6.3. Une matrice B est dite échelonnée en lignes si


• toute ligne non nulle de B commence avec un nombre de zéros strictement plus grand que le
nombre de zéros dans le début de la ligne précédente,
• les lignes nulles (c-à-d, contenant que les 0) de B viennent en bas de la matrice après les lignes
non nulles (en-dessous d’une ligne nulle, on ne peut trouver qu’une ligne nulle).
   
1 2 1 1 2 1
Exemple 2.6.4. Les deux matrices B1 = 0 4 3 et B2 = 0 0 3 sont échelonnées.
0 0 0 0 0 0
   
1 2 1 1 2 1
Les matrices C1 et C2 ne sont pas échelonnées C1 = 2 3 4 et C2 = 0 0 3.
0 1 1 0 2 4

L’intérêt des matrices échelonnées est que le calcul de leur rang est particulièrement simple.

Propriété 2.6.1. Le rang d’une matrice échelonnée est égal au nombre de ses lignes non nulles.

Preuve. Soit A une matrice échelonnée de type (m, n). Nous devons montrer que son rang est
égal au nombre de ses lignes non nulles. Notons d’abord qu’une matrice échelonnée a au plus
une seule valeur non nulle par colonne dans les premières lignes non nulles (les pivots), c’est-à-
dire si une colonne contient un pivot, alors tous les autres éléments en dessous de ce pivot dans
cette colonne sont nuls. Donc toute sous-matrice carrée d’ordre strictement supérieur au nombre
de lignes non nulles doit contenir au moins une ligne nulle. Une telle sous-matrice a alors un
déterminant nul. D’où, il n’existe pas de mineur non nul d’ordre supérieur au nombre de lignes
non nulles.
Ceci dit, considérons maintenant la sous-matrice formée en prenant les colonnes contenant
les pivots et les lignes non nulles correspondantes. Il clair que cette sous-matrice est triangulaire
supérieure, donc son déterminant est non nul, car il est égal au produit des pivots (qui sont non
nuls). D’où, il existe au moins un mineur non nul d’ordre égal au nombre de lignes non nulles. En
réalité, nous avons montré que d’une matrice échelonnée de r lignes non nulles, on peut toujours
extraire une matrice carrée d’ordre r de déterminant non nul. ce qui prouve le résultat.

Définition 2.6.4. Deux matrices A et B de types m × n sont équivalentes si l’on peut passer
de A à B par une suite d’opérations élémentaires (voir la remarque 1.3.10 page 20). Dans ce cas,
on écrit : A ∼ B.

Propriété 2.6.2. Toute matrice A de type m × n est équivalente à une matrice échelonnée.
2.6. Rang d’une matrice 41

Preuve. La preuve repose sur le principe du pivot de Gauss. Soit une matrice A, pour aboutir
à une matrice échelonnée on applique les opérations élémentaires sur les lignes (ce procédé est
appelé échelonnement de la matrice). Ce procédé est constitué des points suivants :
• Si la première colonne de A est totalement nulle, on passe à la colonne suivante. Sinon, on
trouve le premier élément non nul (appelé pivot) et, si nécessaire, on permutera les lignes
pour qu’il soit en haut.
• On utilise des combinaisons linéaires des lignes pour annuler tous les éléments sous le pivot,
en soustrayant des multiples appropriés de la ligne du pivot aux lignes situées en dessous.
• On passe à la ligne suivante et à la colonne suivante, et on cherche un nouveau pivot (qui doit
être situé strictement à droite du précédent).
• On répète l’étape d’élimination pour annuler tous les éléments sous ce nouveau pivot.
• On continue ainsi jusqu’à ce que toutes les lignes soient traitées.
Après avoir appliqué ces transformations, on obtient une matrice où : Chaque ligne non nulle a
son premier élément non nul (pivot) strictement à droite du pivot de la ligne précédente. Toutes
les lignes nulles sont en bas.
La matrice obtenue enfin est donc une matrice échelonnée qui est bien équivalente à la matrice
A.

Nous pouvons maintenant énoncer le résultat le plus important pour le calcul pratique du
rang.

Théorème 2.6.2. Deux matrices équivalentes ont même rang.

Preuve. Tout revient à montrer que les opérations élémentaires ne modifient pas le rang d’une
matrice donnée. Les trois opérations élémentaires sur les lignes sont :

• permutation de deux lignes : cela revient à échanger deux lignes dans un déterminant, ce qui
change le signe du déterminant mais ne l’annule pas. Ainsi, les mineurs ne sont pas affectés en
termes de nullité.
• multiplication d’une ligne par un scalaire non nul : un déterminant d’une sous-matrice conte-
nant cette ligne est multiplié par ce scalaire, mais reste non nul si le mineur initial était non
nul. Cela ne change donc pas l’ordre du plus grand mineur non nul.
• ajout à une ligne un multiple d’une autre ligne : cela revient à une opération de combinaison
linéaire qui ne modifie pas l’annulation ou la non-annulation des mineurs.

Donc puisque les mineurs non nuls restent de même ordre après chaque opération élémentaire, le
plus grand ordre d’un mineur non nul (qui définit le rang) ne change pas. D’où si A est équivalente
à B, elles ont alors le même plus grand mineur non nul, donc le même rang.

Remarque 2.6.1 (Méthode pratique de calcul du rang). Grâce aux résultats précédents
cette méthode est simple. On considère A une matrice de type m × n.
— Étape 1 : on cherche une matrice échelonnée B telle que A ∼ B.
— Étape 2 : le rang de A est alors le nombre de lignes non nulles de B.

Appliquons ça sur des exemples.


42 Chapitre 2. Déterminant

 
1 2 1 L1
Exemple 2.6.5. Calculons le rang de la matrice carrée suivante A =  4 0 −1 L2 .
−1 2 2 L3

Notez d’abord que rg(A) ≤ 3. Pour le calculer, on applique la méthode de Gauss, en gardant
la ligne L1 qui sert de pivot, pour faire apparaître des 0 sur la première colonne, mais d’abord sur
la deuxième ligne par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice suivante :
 
1 2 1
 0 −8 −5  L2 ←L2 −4L1
−1 2 2
Puis un 0 sur la première colonne à la troisième ligne, avec L3 ← L3 + L1 :
 
1 2 1
 0 −8 −5 
0 4 3 L3 ←L3 +L1

Ensuite un 0 sur la deuxième colonne à la troisième ligne (dans ce cas on prend L2 comme pivot),
avec L3 ← L2 + 2L3 :
 
1 2 1
B= 0 −8 −5 
0 0 1 L3 ←L2 +2L3

Donc la matrice B est la forme échelonnée de la matrice A dans laquelle les lignes sont non
nulles, donc rg(A) = 3.
Exemple 2.6.6. Déterminons le rang rg(A) de la matrice A de type 4 × 5 :
 
1 −1 1 −1 1 L1
1 1 −1 −1 −1 L2
A= 
1 1 1 −1 0  L3
1 −1 −1 1 2 L4 .

Reamarquez d’abord que le rang de A est rg(A) ≤ inf (4, 5) = 4. Le rang de A est le rang de
chacune des matrices équivalentes suivantes :
 
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2 ←L2 −L1
 
0 2 0 0 −1 L3 ←L3 −L1
0 0 −2 2 1 L4 ←L4 −L1
 
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2
 
0 0 2 0 1  L3 ←L3 −L2
0 0 −2 2 1 L4
 
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2
B=
0 0

2 0 1  L3
0 0 0 2 2 L4 ←L4 +L3

Le nombre de lignes non nulles de la matrice échelonnée B est 4, donc le rang cherché est 4.
2.7. Exercices 43

Exemple
 2.6.7. Déterminer,
 selon les valeurs des paramètres a et b dans R, le rang de la matrice
a 2 −1 b L1
A = 3 0 1 −4 L2
5 4 −1 2 L3 .

Notez que Le rang de A est ≤ 3. Le rang de A est le rang de chacune des matrices suivantes :
 
3 0 1 −4 L1 ←L2
5 4 −1 2  L2 ←L3
a 2 −1 b L3 ←L1

 
3 0 1 −4 L1
0 12 −8 26  L2 ←3L2 −5L1
0 6 −3 − a 4a + 3b L3 ←3L3 −aL1
 
3 0 1 −4 L1
B = 0 12 −8 26  L2
0 0 2 − 2a 8a + 6b − 26 L3 ←2L3 −L2

Le rang est le nombre de lignes non nulles de la matrice échelonnée B. On distingue les cas
suivants :
• la ligne L3 est non nulle ssi a ̸= 1 ou 4a + 3b − 13 ̸= 0, attention le “ou” ici au sens de la
logique, c’est-à-dire “a ̸= 1 et 4a + 3b − 13 ̸= 0′′ ou bien “a ̸= 1 et 4a + 3b − 13 = 0′′ ou bien
“a = 1 et 4a + 3b − 13 ̸= 0′′ . Dans tous ces cas rg(A) = 3.
• la ligne L3 est nulle ssi a = 1 et 4a + 3b − 13 = 0, ce qui est équivaut à a = 1 et b = 3, donc
rg(A) = 2.

2.7 Exercices
Exercice 2.1. Calculer les déterminants suivants :

0 1 2 3
1 1 2 1 0 0 3 5 −5
2 3 1 2 3 0
D1 = , D2 = 3 4 5 , D3 = 2 3 5 , D4 = 2 −5 4 , D5 = ,
−1 4 2 3 0 1
5 6 7 4 1 3 1 2 1
3 0 1 2

3 16 24 33
x+2 2x + 3 3x + 4 1+i 1 − 2i 1+i
1 5 7 9
D6 = , D7 = 2x + 3 3x + 4 4x + 5 , D8 = 1 − 2i 1+i 1+i ,
5 27 36 55
3x + 5 5x + 8 10x + 17 1+i 1+i 1 − 2i
7 38 51 78

a+b a ... ... a a b ... ... b


1 0 0 1 a a+b a ... a a a b ... b
0 1 0 0 .. ..
D9 = , D10 = .
..
.
..
.
..
. . et D11 = ... ..
.
..
.
..
.
.. ,
.
1 0 1 1
2 3 1 1 a ... a a+b a a ... a a b
a ... ... a a+b a ... ... a a
où D10 et D11 sont de type (n, n) et a, b sont dans R.
44 Chapitre 2. Déterminant

Exercice 2.2. Soient a, b, c, d et x des réels.


a 0 b 0
1 a −b
0 a 0 b
1. Calculer les déterminants suivants : ∆1 = −a 1 c , ∆2 = et ∆3 =
c 0 d 0
b −c 1
0 c 0 d
x+3 −1 1
5 x−3 1 .
6 −6 x+4
1 1 1 1
x a 0 0
2. Résoudre l’équation suivante : = 0, où a, b et c sont dans R∗ .
x 0 b 0
x 0 0 c
3. Montrer que le déterminant suivant est nul (n > 2) :
a1 − b1 a1 − b2 a1 − b3 ······ a1 − bn
a2 − b1 a2 − b2 a2 − b2 ······ a2 − bn
.. .. .. ..
∆= . . . ······ .
.. .. .. ..
. . . ······ .
an − b1 an − b2 an − b3 ······ an − bn
4. Les nombres 136, 221 et 595 sont divisibles par 17. Montrer, sans le calculer, que le déterminant
1 3 6
∆ suivant est divisible par 17, où ∆ = 2 2 1 .
5 9 5
Exercice 2.3. Soit A ∈ Mn (K) une matrice antisymétrique. Montrer que si n est impair, alors
det(A) = 0.
 
1 1 1
Exercice 2.4. Soit la matrice A = 2 1 3. Montrer que A est inversible, déduire son
1 −1 2
rang. Calculer A−1 par deux méthodes différentes.
Exercice 2.5. Pour quelles valeursde a ∈ R  suivantes A, B ∈ Mn (R) sont inver-
les matrices
1 1 1 6 −6 a + 4
sibles ? Calculer leurs inverses. A = 1 2 4 et B = a + 3 −1 1 .
1 3 a 5 a−3 1
 
a 2 −1 b
Exercice 2.6. Soit la matrice A = 3 0 1 −4.
5 4 −1 2
1. Montrer que rg(A) ≥ 2.
2. Pour quelles valeurs de a et b ∈ R a-t-on rg(A) = 2 ?
Exercice 2.7. Calculer le rang de chacune des matrices suivantes :
   
2 1 0   1 3
−2 −1 3  1 2 0 −1 0 −2
A= −1 4 −2,
 B = 2 6 −3 −3 et C =  
5 −1
3 10 −6 −5
1 2 −3 −2 3
2.7. Exercices 45

Exercice 2.8. Déterminer, selonles valeurs du paramètre réel a, le rang de la matrice suivante
−3 −1

1 2 5
0 1
 −1 −1 4 
A= 2 1 −3 a −2 ,

1 a −2 a−1 1
1 1 a − 3 2a − 2 13

Exercice 2.9. 1. Montrer par récurrence que le déterminant :

1 a1 a21 · · · · · · an−1
1
1 a2 a22 · · · · · · an−1
2
· · · ······ · Y
∆n (a1 , a2 , · · · , an ) = = (aj − ai ).
· · · ······ ·
1≤i<j≤n
· · · ······ ·
1 an a2n · · · · · · an−1
n

∆n (a1 , a2 , · · · , an ) s’appelle le déterminant de Vandermonde.


2. Applications du déterminant de Vandermonde.
1 x yz 1 1 1
i. Calculer les déterminants suivants : ∆1 = 1 y xz , et ∆2 = cosα cosβ cosγ ,
1 z xy cos2α cos2β cos2γ
où x, y, z ∈ R − {0}. Rappelons que ∀x ∈ R, cos(2x) = 2 cos2 (x) − 1.
1 a a2
 

ii. Soit la matrice A = 1 b b2 , où a, b et c sont dans R. Pour quelles valeurs de a, b


1 c c2
et c, A est-elle inversible ? Trouver, lorsque c’est possible, A−1 en utilisant la comatrice.

Exercice 2.10. Soient a1 , a2 , · · · , an des nombres réels tous non nuls. Pour tout entier n ≥ 2
et tout nombre réel λ, considérons la matrice An (λ) à n + 1 lignes et n + 1 colonnes définie par :

1 −a1 −a2 · · · · · · −an


 
 a1 λ 0 ··· ··· 0 
..
 
 .. 
 a2 0 λ . . 
An (λ) =  . .
 
.. .. .. .. ..
 .. . . . . . 
 
 . .. .. ..
 ..

. . . 0 
an 0 ··· ··· 0 λ

Le déterminant de An (λ) sera noté ∆n (λ).


1. Calculer ∆n (λ) pour n = 2 et n = 3.
2. Montrer que, pour tout n ≥ 2, ∆n (λ) = λn−1 a2n + λ∆n−1 (λ). Indication : développer le
déterminant ∆n (λ) par rapport à la dernière ligne.
3. Montrer par récurrence que pour tout n ≥ 2, ∆n (λ) = λn + λn−1 (a21 + a22 + · · · + a2n ).
4. Déterminer les valeurs de λ pour lesquelles la matrice An (λ) est inversible.
5. Déterminer le rang de An (λ) suivant les valeurs de λ.
46 Chapitre 2. Déterminant

Exercice 2.11. Soient n et m dans N∗ . Soit A = (aij ) ∈ Mn,m (C), on appelle la matrice
conjuguée de A, et on note A, la matrice des conjugués des coefficients de A, i.e. A = (aij ).
La matrice adjointe (aussi appelée matrice transconjuguée) de A, habituellement notée A∗ , est
la matrice transposée de la matrice A, i.e. A∗ = t (A) = t A. Dans le cas particulier où A
est à coefficients réels, sa matrice adjointe est donc simplement sa matrice transposée. Soient
A, B ∈ Mn,m (C).
1. Montrer que (A∗ )∗ = A et (AB)∗ = B ∗ A∗ .
2. Si A est une matrice carrée, montrer que det(A∗ ) = det(A).

Exercice 2.12. Notons par GLn (K) = {M ∈ Mn (K) | det(M ) ̸= 0} le groupe des matrices
inversibles de taille n à coefficients dans un corps commutatif K, on l’appelle le groupe général
linéaire ou groupe linéaire de degré n du K. On peut aussi parler du groupe linéaire d’un
anneau commutatif unifère. Soit SLn (K) = {A ∈ GLn (K) | det(A) = 1}, SLn (K) est appelé
groupe spécial linéaire. Dans la suite, on prend K = Z.
1. Soit A ∈ Mn (Z). Montrer que A ∈ GLn (Z) si et seulement si det(A) = ±1.
    
1 m 1 0
2. Soit S = , | m, n ∈ Z . Pour A ∈ SL2 (Z), montrer que, en multipliant A
0 1 n 1
par des matrices de S, on peut faire apparaître un 0 sur la première colonne.
   
1 1 1 0
3. Prouver que le groupe SL2 (Z) est engendré par , .
0 1 1 1
1 X
4. Soit un sous-groupe fini de GLn (Z), on note m son cardinal. On pose P = M.
m
M ∈G

a. Montrer que AP = P pour tout A ∈ G. En déduire que P 2 = P .


X
b. Montrer que tr(M ) ∈ mZ.
M ∈G
CHAPITRE 3

SYSTÈMES D’ÉQUATIONS
LINÉAIRES

Les systèmes linéaires interviennent, à travers leurs applications, dans de nombreux contextes,
car ils forment la base calculatoire de l’algèbre linéaire. Ils permettent aussi de traiter une bonne
partie de la théorie de l’algèbre linéaire en dimension finie. C’est pourquoi nous consacrons tout
un chapitre à l’étude des équations linéaires et de leur résolution. Le but de ce chapitre est de
présenter les principales méthodes utilisées pour résoudre un système linéaire.

3.1 Définition
Définition 3.1.1. On appelle équation linéaire dans les variables (ou inconnues) x1 , . . . , xp
toute relation de la forme
a1 x1 + · · · + ap xp = b,
où a1 , . . . , ap et b sont des éléments d’un corps commutatf donnés.
Exemple 3.1.1.
1. L’égalité 5x − 7y = 10 est une équation linéaire dans les variables (ou inconnues) sont x et y.
2. L’égalité 5x − 7y + 11z = −25 est une équation linéaire dans les variables (ou inconnues) sont
x, y et z.
3. L’égalité 17x−y +11z +2t−23u = 5 est une équation linéaire dans les variables (ou inconnues)
sont x, y, z, t et u.
Remarque 3.1.1. Il importe d’insister sur le fait qu’une équation linéaire est implicite, c’est-à-
dire elle décrive des relations entre les variables, mais ne donne pas directement les valeurs que
peuvent prendre les variables. Mais résoudre une équation signifie la rendre explicite, c’est-à-dire
rendre plus apparentes les valeurs que les variables peuvent prendre.

47
48 Chapitre 3. Systèmes d’équations linéaires

Soit m ⩾ 1 un entier.
Définition 3.1.2. Un système de m équations linéaires à n inconnues est une liste de m équations
linéaires.

Un système d’équations linéaires est donc un système constitué d’équations linéaires qui
portent sur les mêmes inconnues (les inconnues sont les mêmes pour toutes les équations). Un
système d’équations linéaires (S) à m équations et n inconnues s’écrit sous la forme suivante :
a x + a12 x2 + · · · + a1n xn

= b1
 11 1

 a
 21 1

 x + a x
22 2 + · · · + a x
2n n = b2

 .
.. ..
.

(S) :

 a x
i1 1 + a x
i2 2 + · · · + a x
in n = b i


 .. ..


 . .

am1 x1 + am2 x2 + · · · + amn xn = bm
Les aij et bk sont dans un corps commutatif K, on les appelle les coefficients du système.
Les xi sont dits les inconnues du système, résoudre le système revient à déterminer toutes
les valeurs possibles des inconnues xi . On appelle solution de (S) tout n-uplet (vecteur)
x = (x1 , x2 , · · · , xn ) d’éléments de K dont les composantes xi satisfont toutes les équations
du système. Le système est dit compatible s’il admet au moins une solution.
Exemple 3.1.2.
1. Le système suivant est un système d’équations linéaires à 3 équations et 3 inconnues :

2x1 + 3x2 + x3 = −1

x1 + x2 + 3x3 = 4

2x1 + 3x2 + x3 = 3.

Résoudre ce système revient à trouver les valeurs des inconnues x1 , x2 et x3 qui satisfassent
les trois équations simultanément.
2. Le système suivant est un système d’équations linéaires à 2 équations et 4 inconnues :
(
2x1 + 3x2 + x3 − 5x4 = −7
x1 + x2 + 3x3 + 11x4 = 9.
Résoudre ce système revient à trouver les valeurs des inconnues x1 , x2 , x3 et x4 qui satisfassent
les deux équations simultanément.

3.2 L’écriture matricielle d’un système linéaire


Soit un système d’équations linéaires (S) à m équations et n inconnues.
a11 x1 + a12 x2 + · · · + a1n xn

 = b1



 a21 x1 + a22 x2 + · · · + a2n xn = b2
.. ..



. .

(S) :

 ai1 x1 + ai2 x2 + · · · + ain xn = bi


 .. ..


 . .

am1 x1 + am2 x2 + · · · + amn xn = bm
3.2. L’écriture matricielle d’un système linéaire 49

On peut utiliser les matrices pour presenter un système d’équations linéaires.


Expression matricielle du système.
Au système (S), on associe les trois matrices suivantes :

a11 a12 ··· a1n


 
 a21 a22 ··· a2n  
x1
 
b1

.. .. ..
 
x2 b2
 
. . .
      
A = aij 1≤i≤m =  ∈ Mn (K), X =  .

et B = 

.. .

 ai1 ai2 ··· ain  ..
 
.
1≤j≤n
   
 
 . .. ..
 ..

. .  xn bm
am1 am2 ··· amn

Donc le système (S) est représenté sous la forme d’un produit matriciel :
     
a11 . . . a1n x1 b1
 a21 . . . a2n   x2   b2 
..   ..  =  ..  .
     
 ..
 . .   .   . 
am1 ... amn xn bm
| {z } | {z } | {z }
A X B

On appelle A ∈ Mm,n (K) la matrice des coefficients du système ou la matrice asso-


ciée au système, B ∈ Mm,1 (K) est le vecteur du second membre ou le terme constant
du système. Le vecteur X ∈ Mn,1 (K) est le vecteur des inconnues. Le vecteur X ∈ Mn,1 (K)
est une solution du système si et seulement si AX = B.
Résoudre le système (S) signifie trouver l’ensemble de toutes les solutions de (S), c’est-à-dire
trouver tous les n-uplets (x1 , x2 , · · · , xn ) d’éléments de K qui satisfont à la fois les équations du
système (Résoudre le système (S) dans K consiste à trouver les scalaires x1 , x2 , · · · , xn dans K
vérifiant les m équations du système).
L’ensemble des solutions de (S) peut être vide, un singleton (ensemble contenant un
seul élément) ou une infinité de solutions.
Définition 3.2.1. Le rang d’un système d’équations linéaires est le rang de la matrice A.

Expression vectorielle du système.  


a1j
 a2j 
Remarquons que si on note la j-ème colonne de la matrice A par Cj , c’est-à-dire Cj =  ,
 
..
 . 
amj
alors la matrice A s’écrit donc sous la forme A = (C1 , C2 , · · · , Cn ), alors le système (S) peut
s’écrire comme suit :
x1 C1 + x2 C2 + · · · + xn Cn = B.
Définition 3.2.2. Un système d’équations linéaires est dit homogène si la matrice B est nulle,
et il est dit non-homogène dans la cas contraire.
Un système homogène possède toujours au moins une solution, la solution nulle ou triviale à
savoir X = 0.
50 Chapitre 3. Systèmes d’équations linéaires

Remarque 3.2.1. Un système d’équations linéaires soit il n’a aucune solution, soit une seule
solution, soit une infinité de solutions.

3.3 Système de Cramer


Les déterminants fournissent un outil efficace et indispensable pour la discussion des systèmes
d’équations linéaires. En effet, les déterminants nous permettent d’avoir les conditions de com-
patibilité sous forme de relation liant les coefficients du système et fournissent aussi des formules
qui donnent explicitement les solutions.

Définition 3.3.1. Un système d’équations linéaires est dit un système de Cramer si le


nombre des équations est égal au nombre des inconnues et le déterminant de la matrice A des
coefficients est non nul.
Autrement dit, un système de Cramer est un système dont la matrice associée A est carrée
et inversible.

Il existe plusieurs méthodes pour résoudre un système de Cramer, nous allons en donner deux.

3.3.1 Règle de Cramer

Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour la solution des
systèmes de Cramer. Considérons le système d’équations linéaires à n équations et n inconnues
suivant : 

 a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2


 ...
an1 x1 + an2 x2 + · · · + ann xn = bn

Les matrices associées à ce système sont :



a11 a12 · · · a1n
    
x1 b1
 a21 a22 · · · a2n   x2   b2 
A= . ..  ∈ Mn (K), X= et B =  .
     
. .. ..  ..
 . . .   .   . 
an1 an2 ··· ann xn bn

Définissons la matrice Aj ∈ Mn (K) par


 
a11 ... a1,j−1 b1 a1,j+1 ... a1n
 a21 ... a2,j−1 b2 a2,j+1 ... a2n 
Aj = 
 
.. .. .. .. .. 
 . . . . . 
an1 ... an,j−1 bn an,j+1 ... ann

Autrement dit, Aj est la matrice obtenue en remplaçant la j-ème colonne de A par


le second membre B. La règle de Cramer va nous permettre de calculer la solution du système
dans le cas où det(A) ̸= 0 en fonction des déterminants des matrices A et Aj .
3.3. Système de Cramer 51

Théorème 3.3.1 (Règle de Cramer). Si le système




 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn

= b2
(S) : .. .. .. ,


 . . .
an1 x1 + an2 x2 + · · · + ann xn

= bn

est un système de Cramer, alors il admet une solution unique (x1 , x2 , · · · , xn ) ∈ Kn donnée par :

a11 ··· a1j−1 b1 a1j+1 ··· a1n


.. .. .. .. ..
. . . . .
an1 ··· anj−1 bn anj+1 ··· ann
∀1 ≤ j ≤ n, xj = ·
det A
Autrement dit, la solution unique (x1 , x2 , . . . , xn ) du système AX = B à n équations et à n
inconnues est donnée par :

det(A1 ) det(A2 ) det(Aj ) det(An )


x1 = , x2 = , ..., xj = , ..., xn = ·
det(A) det(A) det(A) det(A)

Preuve. Notons par Cj , où 1 ≤ j ≤ n, les n colonnes de la matrice A associée au système (S),


alors le système (S) est équivalent à l’égalité
n
X
xi Ci = B.
i=1

Par suite, pour 1 ≤ j ≤ n, nous avons par la linéarité du déterminant :


n
X
det(C1 , · · · , Cj−1 , B, Cj+1 , · · · , Cn ) = det(C1 , · · · , Cj−1 , xi Ci , Cj+1 , · · · , Cn )
i=1
n
X
= xi det(C1 , · · · , Cj−1 , Ci , Cj+1 , · · · , Cn )
i=1
= xj det(C1 , · · · , Cj−1 , Cj , Cj+1 , · · · , Cn )
= xj det A,

car pour i ̸= j, on a det(C1 , · · · , Cj−1 , Ci , Cj+1 , · · · , Cn ) = 0 puisque c’est le déterminant d’une


matrice ayant deux colonnes identiques, à savoir les colonnes Ci et l’une des colonnes Cj , où
i ̸= j. Par suite,
det(C1 , · · · , Cj−1 , B, Cj+1 , · · · , Cn ) det(Aj )
xj = = ·
det A det(A)

Exemple 3.3.1. Résolvons le système suivant :



 x1 + 2x3 = 6
−3x1 + 4x2 + 6x3 = 30
−x1 − 2x2 + 3x3 = 8.

52 Chapitre 3. Systèmes d’équations linéaires

On a donc AX = B, où
     
1 0 2 x1 6
A =  −3 4 6 , X =  x2  et B =  30 
−1 −2 3 x3 8

Comme det(A) = 44 ̸= 0, alors le système est de Cramer, et donc il admet une solution unique.
Nous avons
     
6 0 2 1 6 2 1 0 6
A1 =  30 4 6 , A2 =  −3 30 6 , A3 =  −3 4 30 
8 −2 3 −1 8 3 −1 −2 8

et
det(A1 ) = −40, det(A2 ) = 72, det(A3 ) = 152.

La solution est alors (x1 , x2 , x3 ), où

det(A1 ) 40 10 det(A2 ) 72 18 det(A3 ) 152 38


x1 = =− =− , x2 = = = et x3 = = = ·
det(A) 44 11 det(A) 44 11 det(A) 44 11

Exemple 3.3.2. Soit le système linéaire suivant :



 2x − 5y + 2z = 7
S: x + 2y − 4z = 3
3x − 4y − 6z = 5.

Nous avons AX = B, où
     
2 −5 2 x1 7
A=  1 2 −4  , X =  x2  et B= 3 
3 −4 −6 x3 5

2 −5 2
Comme det(A) = 1 2 −4 = −46, le système est de Cramer, sa solution unique est donnée
3 −4 −6
par :

7 −5 2 2 7 2 2 −5 7
1 1
x=− 3 2 −4 = 5, y=− 1 3 −4 = 1, z= 1 2 3 = 1.
46 46
5 −4 −6 3 5 −6 3 −4 5

Exemple 3.3.3. Soit le système linéaire suivant :



 x + y + z = 1
S: x − y + z = 2
x + y − z = 3.

Le système S est-il de Cramer ? Si oui trouver sa solution unique.


3.3. Système de Cramer 53

3.3.2 Utilisation des matrices inversibles

Considérons le système d’équations linéaires suivant :


     
a11 ... a1n x1 b1
 a21 ... a2n   x2   b2 
=  .
     
 .. ..   ..  ..
 . .   .   . 
an1 ... ann xn bn
| {z } | {z } | {z }
A X B

Alors A ∈ Mn (K) est une matrice carrée et B un vecteur de Mn,1 (K). Pour tout second
membre, nous pouvons utiliser les matrices pour trouver la solution du système linéaire.

Proposition 3.3.1. Si la matrice A est inversible, alors la solution du système AX = B est


donnée par X = A−1 B.

La preuve est juste de vérifier que si X = A−1 B, alors

AX = A A−1 B = AA−1 B = I · B = B.
 

Réciproquement si AX = B, alors nécessairement X = A−1 B.


Nous verrons bientôt que si la matrice n’est pas inversible, alors soit il n’y a pas de solution,
soit une infinité.

Exemple 3.3.4. Soit le système linéaire suivant :



 x + 2y + z = 1
S: x − z = 2
−x + 2y + 2z = 3.

 
1 2 1
La matrice associé au système est A =  4 0 −1  qui est bien inversible (voir exemples
−1 2 2
 
−2 2 2
2.5.1 page 37) et son inverse est A−1 = 41  7 −3 −5 .
−8 4 8
   
x 1
Le système S s’écrit comme suit AX = B, où X =  y  et B =  2 .
z 3
Donc la solution du système AX = B est donnée par X = A−1 B ce qui equivalent à

       
x −2 2 2 1 −2 + 4 + 6 2
1 1
X= y =  7 −3 −5  2  =  7 − 6 − 15  = −4 .
4 4
z −8 4 8 3 −8 + 8 + 24 6

Donc x = 2, y = −4 et z = 6.
54 Chapitre 3. Systèmes d’équations linéaires

3.4 Systèmes quelconques


Soit (S) : AX = B un système linéaire à m équations et n inconnues. Rappelons d’abord que
le rang du système (S) est le rang de sa matrice associée A.
Nous nous trouvons devant trois cas : le cas d’un système de Cramer (déjà traiter), et les
deux autres sont le cas où m ̸= n, et le cas où m = n et rg(S) < n. Ces deux derniers cas se
traitent de la même façon.
Considérons la matrice AB = [A|B] = (C1 · · · Cn B) la matrice obtenue en ajoutant à A la
colonne B, AB s’appelle la matrice augmentée :

···

a11 a12 a1n b1
 a21 a22 ··· a2n b2 
AB =  .
 
.. .. .. .. 
 .. . . . . 
am1 am2 ··· amn bm

Théorème 3.4.1. Le système (S) admet une solution si et seulement si

rg(A) = rg([A|B]).

Donc, si rg(A) < rg([A|B]), alors (S) n’a aucune solution.


Et si rg(A) = rg([A|B]) = r, alors le système admet une solution unique si r = n, sinon, le
système admet une infinité de solutions.

Preuve. Sens direct. Si le système AX = B a une solution X0 , alors le vecteur B est une
combinaison linéaire des colonnes C1 , · · · , Cn de la matrice A. Par conséquent, ajouter B comme
colonne supplémentaire dans la matrice A ne change pas le rang de la matrice. Ainsi, nous avons :

rg(AB ) = rang([A|B]) = rg(C1 , · · · , Cn ) = rg(C1 , · · · , Cn , B) = rg(A).

Sens réciproque. Si rang(A) = rang([A|B]), alors le système admet une solution. En effet,
rang(A) = rang([A|B]) signifie que l’ajout de la colonne B à A A ne change pas le rang. Au-
trement dit, B est une combinaison linéaire des colonnes de A, ce qui implique qu’il existe un
vecteur X0 tel que : AX0 = B. Donc, le système admet au moins une solution.
Ainsi nous avons prouvé l’équivalence suivante :

AX = B admet une solution ⇐⇒ rang(A) = rang([A|B]).

Ce résultat est connu sous le théorème de Rouché-Capelli.

Remarque 3.4.1. Pour résoudre le système (S), on calcule le rang da la matrice A associée à
(S). Si r = rg(A), alors il existe un déterminant non nul d’ordre r, qu’on note ∆r , appelé dé-
terminant principal. Les équations correspondant aux lignes de ∆r s’appellent les équations
principales, et les inconnues correspondant aux colonnes de ∆r s’appellent les inconnues
principales. Les autres inconnues s’appellent des paramètres. Sans perte de généralité, on peut
supposer que le déterminant ∆r est formé des r premières lignes et des r premières colonnes de
3.4. Systèmes quelconques 55

A. Le système (S) implique le système de Cramer (Sr ) suivant :




 a11 x1 + a12 x2 + · · · + a1r xr = b1 − a1r+1 xr+1 − · · · − a1n xn
 a21 x1 + a22 x2 + · · · + a2r xr = b2 − a2r+1 xr+1 − · · · − a2n xn

(Sr ) : .. .. ..


 . . .
ar1 x1 + ar2 x2 + · · · + arr xr = br − arr+1 xr+1 − · · · − arn xn ,

où xr+1 , · · · , xn sont des paramètres. On calcule ensuite, x1 , · · · , xr , en fonction de xr+1 , · · · , xn


et b1 , · · · , br . Puis on vérifie si les m − r équations non principales sont satisfaites. Si l’une des
équations non principales n’est pas satisfaite, le système n’admet pas de solutions.

3.4.1 Méthode du pivot de Gauss

Pour résoudre un système linéaire, nous proposons dans la suite une méthode dite la méthode
du pivot de Gauss. L’idée de cette méthode est de transformer par étapes, le système à
résoudre en des systèmes plus simples, tous équivalents au système initial, jusqu’à un système
duquel on tire facilement la solution. Autrement dit, la méthode de Gauss transforme un système
linéaire en un système triangulaire équivalent duquel on calcule facilement les inconnues. Pour se
ramener à ce système triangulaire (par fois on dit système échelonné), on applique les opérations
élémentaires suivantes sur les lignes du système.
1. Li ← λLi avec λ ̸= 0 : on peut multiplier une ligne par un réel non nul (ou un élément de
K \ {0}).
2. Li ← Li + λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre
ligne Lj .
3. Li ↔ Lj : on peut échanger deux lignes.
Remarque 3.4.2. Toute opération élémentaire sur les lignes d’un système d’équations linéaires
transforme ce dernier en un système équivalent ayant le même ensemble de solutions.

Description de l’algorithme.
Pour transforme un système linéaire en un autre simple à résoudre, on applique les étapes sui-
vantes.
i. On cherche un pivot : premier coefficient non nul d’une certaine variable x dans une des
équations. Par permutation, cette équation devient la première équation.
ii. On utilise ce pivot et cette équation pour éliminer x des équations suivantes. Pour cela on
ajoute cette équation multipliée par un coefficient convenable aux équations suivantes.
iii. S’il y a des équations dont le premier membre est nul = 0, on les place en dernier, c’est-à-dire
à la fin du système.
iv. On recommence l’étape i avec le système privé de la première équation.
v. L’algorithme s’arrête lorsqu’il ne reste plus que des équations = 0.

3.4.2 Exemples

Appliquons ces méthodes sur des exemples.


Première Méthode.
56 Chapitre 3. Systèmes d’équations linéaires

Exemple 3.4.1. Soit à résoudre dans R le système (S) :




 x1 − x2 + x3 − x4 + x5 = 1
2x1 − x2 + 3x3 + 4x5 = 2


 3x1 − 2x2 + 2x3 + x4 + x5 = 1
x1 + x3 + 2x4 + x5 = 0

La matrice A associée au système (S) est :


 
1 −1 1 −1 1
 2 −1 3 0 4 
A= 
 3 −2 2 1 1 
1 0 1 2 1

Calculons d’abord le rang de A. Comme A est de type (4, 5), alors rg(A) ≤ 4. On vérifie que
rg(A) = 3. On peut donc considérer que

1 −1 1
△3 = 2 −1 3 = −2
3 −2 2

est un déterminant principal, par suite les trois premières équations sont les équation principales
et x1 , x2 et x3 sont les inconnues principales. x4 et x5 seront considérées comme des paramètres.
Le système (S) implique donc le système de Cramer suivant :

 x1 −x2 +x3 = 1 + x4 − x5
2x1 −x2 +3x3 = 2 − 4x5
3x1 −2x2 +2x3 = 1 − x4 − x5

Pour résoudre ce système, on va appliquer la méthode d’élimination de Gauss, qui donne :



 x1 −x2 +x3 = 1 + x4 − x5
x2 +x3 = −2x4 − 2x5
x2 −x3 = −2 − 4x4 + 2x5

Ce qui implique :

 x1 −x2 +x3 = 1 + x4 − x5
x2 +x3 = −2x4 − 2x5
−2x3 = −2 − 2x4 + 4x5

Donc x3 = 1 + x4 − 2x5 et par suite x2 = −2x4 − 2x5 − x3 = −1 − 3x4 , ce qui implique que
x1 = 1 + x4 − x5 + x2 − x3 = −1 − 3x4 + x5 .
Il faut maintenant voir si la dernière équation du système est satisfaite. On a :

x1 + x3 + 2x4 + x5 = −1 − 3x4 + x5 + 1 + x4 − 2x5 + 2x4 + x5 = 0.

Donc le système (S) est resoluble et l’ensemble des solutions est :

{(−1 − 3x4 + x5 , −1 − 3x4 , 1 + x4 − 2x5 , x4 , x5 ) | x4 , x5 ∈ R}.


3.4. Systèmes quelconques 57

Exemple 3.4.2. Soit à résoudre le système (S) suivant :




 x1 +2x2 +x3 = −1
 6x1

 +x2 +x3 = −4
2x1 −3x2 −x3 = 0
−x −7x2 −2x3 = 7



 1
−x2

x1 = 1.

La matrice A associée au système est :


 
1 2 1

 6 1 1 

A=
 2 −3 −1 
.
 −1 −7 −2 
1 −1 0

Elle est de rang rg(A) = 3, et on peut donc choisir le déterminant

1 2 1
∆3 = 6 1 1 = −2 ̸= 0
2 −3 −1

comme déterminant principal, par suite, toutes les inconnues x1 , x2 et x3 sont principales et les
trois premières équations sont les équations principales. Le système (S) implique donc le système
de Cramer suivant : 
 x1 +2x2 +x3 = −1
6x1 +x2 +x3 = −4
2x1 −3x2 −x3 = 0

Les solutions sont donc (par application de la règle de Cramer) :

−1 2 1 −1 −1 0
−4 1 1 −4 −2 0
0−3 −1 0 −3 −1 2
x1 = = = = −1,
−2 −2 −2
1 −1 1 3 −1 0
6 −4 1 8 −4 0
2 0 −1 2 0 −1 4
x2 = = = = −2 et
−2 −2 −2
1 2 −1 0 0 −1
6 1 −4 2 −7 −4
2 −3 0 2 −3 0 −8
x3 = = = = 4.
−2 −2 −2

On vérifie si les équations non principales (équations 4 et 5) sont satisfaites.

−x1 − 7x2 − 2x3 = 1 + 14 − 8 = 7 et x1 − x2 = −1 + 2 = 1.

Donc le système admet une solution unique (x1 , x2 , x3 ) = (−1, −2, 4).
58 Chapitre 3. Systèmes d’équations linéaires

Exemple 3.4.3. Soit à résoudre dans R le système (S) :



 x1 + x2 + x3 + x4
 = a
x1 − x2 − x3 + x4 = b


 −x 1 − x 2 + x3 + x 4 = c
−3x1 + x2 − 3x3 − 7x4 = d,

où a, b, c et d sont des nombres réels strictement positifs.


Le déterminant ∆ de la matrice A associée au système est :

1 1 1 1 1 0 0 0 1 0 0 0
1 −1 −1 1 1 −2 −2 0 1 −2 0 0
∆= = = = 0.
−1 −1 1 1 −1 0 2 2 −1 0 2 2
−3 1 −3 −7 −3 4 0 −4 −3 4 −4 −4

Donc rg(A) ≤ 3. Comme le déterminant

1 1 1 1 1 0
∆3 = 1 −1 −1 = 1 −1 0 = −4 ̸= 0,
−1 −1 1 −1 −1 2

alors la matrice A est de rang 3 et ∆3 peut être considéré comme un déterminant principal. Ainsi,
les trois premières équations sont les équations principales, et x1 , x2 et x3 sont les inconnues
principales. L’inconnue x4 sera donc considérée comme un paramètre. Le système (S) implique
le système : 
 x1 + x2 + x3 = a − x4
x1 − x2 − x3 = b − x4
−x1 − x2 + x3 = c − x4

En ajoutant la première équation à la deuxième, on obtient :

2x1 = a + b − 2x4 , d’où x1 = a + b


2 − x4 .

En ajoutant la deuxième équation à la troisième, on trouve que :

−2x2 = c + b − 2x4 , d’où x2 = x4 − b + c


2 .

En ajoutant la première équation à la troisième, on aura :

2x3 = c + a − 2x4 , d’où x3 = a + c


2 − x4 .

Vérifions si la dernière équation du système est satisfaite. En remplaçant x1 , x2 et x3 par les


valeurs trouvées, on obtient :

−3( a + b b+c a+c


2 − x4 ) + (x4 − 2 ) − 3( 2 − x4 ) − 7x4 = d, c.à.d. −(3a + 2b + 2c) = d.

Comme a, b, c et d sont des nombres réels strictement positifs, alors l’égalité −(3a+2b+2c) = d
est impossible, donc le système (S) n’admet pas de solutions.
3.4. Systèmes quelconques 59

Exemple 3.4.4. Soit à résoudre le système suivant dont les inconnues sont x, y, z, t.


 x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3

Le rang de la matrice A associée à ce système est rg(A) = 2, de plus le déterminant

1 1
= 2 ̸= 0,
−1 1

donc ce déterminant peut être considéré comme un déterminant principal. Ainsi, la première
équation et la troisième sont les équations principales, et x et z sont les inconnues principales.
Les inconnues y et t seront donc considérées comme des paramètres. Le système (S) implique le
système :


x + z = 1 − 2y + t L1
S:
−x + z = −3 + 2y − 3t L3

L’opération L1 − L3 donne x = 2 − 2y + 2t et l’opération L1 + L3 donne z = −1 − t. Vérifions


si la deuxième équation est satisfaite. En remplaçant x et z par les valeurs trouvées :

2x + 4y − z − 5t = 4 − 4y + 4t + 4y + 1 + t − 5t = 5.
Donc le système (S) est resoluble et l’ensemble des solutions est {(2−2y+2t, y, −1−t, t) | y, t ∈ R}.

Deuxième Méthode.

Exemple 3.4.5. Soit à résoudre le système suivant dont les inconnues sont x, y, z, t.


 x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3

On applique la méthode du pivot de Gauss. Pour cela choisissons une équation avec un coefficient
non nul pour la première inconnue x. Ici la première équation convient avec le coefficient 1, pour
x, qu’on appelle le premier pivot. On utilisera ce pivot de notre algorithme pour faire disparaître
l’inconnue x des autres équations. Pour cela on ajoute à ces équations la première multipliée par
un coefficient convenable. On obtient un système linéaire équivalent :

 x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3


 x + 2y + z − t = 1 L1
S ⇐⇒ −3z −3t = 3 L2 ← L2 − 2L1
−x − 2y + z + 3t = −3 L3

60 Chapitre 3. Systèmes d’équations linéaires


 x + 2y + z − t = 1 L1
S ⇐⇒ −3z − 3t = 3 L2
2z + 2t = −2 L3 ← L3 + L1

Simplifions la deuxième équation et la troisième.



 x + 2y + z − t = 1 L1
S ⇐⇒ + z + t = −1 L2 ← −1
3 L2
1
z + t = −1 L3 ← 2 L2

Ce dernier système est équivaut au suivant :



x + 2y + z − t = 1 L1
z + t = −1
Ce qui donne
 
x + 2y + z − t = 1 L1 x = 1 − 2y + 1 + t + t = 2 − 2y + 2t
⇐⇒
z = −1 − t z = −1 − t.
Donc on trouve le même ensemble des solutions : {(2 − 2y + 2t, y, −1 − t, t) | y, t ∈ R}.
Exemple 3.4.6. Résoudre le système suivant dans R5 .


 8t = 2 L1
x + y − z + t = 1 L2

(S) :

 2x + 2y + z + 3t = 2 L3
2z + u = 0 L4

Choisissons une équation avec un coefficient non nul pour la première inconnue x. Ici la
deuxième équation convient avec le coefficient 1, pour x, qui sera le premier pivot. Permutons les
deux lignes L1 et L2 (L1 ↔ L2 ) et renumérotons les pour avoir le système équivalent suivant :


 x + y − z + t = 1 L1
8t = 2 L2

(S) ⇐⇒

 2x + 2y + z + 3t = 2 L3
2z + u = 0 L4

Permutons ensuite les deux lignes L2 et L3 (L2 ↔ L3 ) et renumérotons les pour avoir

 x + y − z + t
 = 1 L1
2x + 2y + z + 3t = 2 L2

(S) ⇐⇒

 8t = 2 L3
2z + u = 0 L4

Il y a un terme en x dans la première équation de ce système, notre premier pivot de Gauss


sera ce terme. Utilisons le pour éliminer les termes en x des autres équations.


 x + y − z + t = 1 L1
3z + t = 0 L2 ← L2 − 2L1

(S) ⇐⇒

 8t = 2 L3
2z + u = 0 L4

3.4. Systèmes quelconques 61

Nous divisons la deuxième équation par 3 de sorte à avoir z au lieu de 3z.



 x + y − z + t = 1 L1
z + 13 t L2 ← 31 L2

= 0

(S) ⇐⇒

 8t = 2 L3
2z + u = 0 L4

Le terme en z de la deuxième équation est notre nouveau pivot de Gauss ; nous l’utilisons
pour éliminer les termes en z des équations situés en dessous.

 x + y − z + t = 1 L1
1

z + t = 0 L2

(S) ⇐⇒ 3
1

 t = 4 L3 ← 18 L3
2
−3t + u = 0 L4 ← L4 − 2L2

Le terme en t de la troisième équation devient notre nouveau pivot de Gauss : nous l’utiliserons
pour éliminer les termes en t de la quatrième équation.

 x + y − z + t = 1 L1
z + 13 t

= 0 L2

(S) ⇐⇒ 1

 t = 4 L3 ← 18 L3
1
u = 6 L4 ← L4 + 32 L3

Il ne reste qu’à remonter pour trouver les valeurs de z et x.



 x + y − z + t = 1 L1
1
L2 ← L2 − 13 L3

z = − 12

(S) ⇐⇒ 1

 t = 4 L3
1
u = L4

6

2

 x + y = 3 L1 ← L1 + L2 − L3
1

z = − 12 L2

(S) ⇐⇒ 1

 t = 4 L3
1
u = L4

6
En prenant comme paramètre y, on trouve l’ensemble des solutions :
  
2 −1 1 1
S= − y, y, , , |y∈R .
3 12 4 6
Exemple 3.4.7. Discuter, selon les valeurs de k, a, b, c ∈ R, les solutions du système suivant :

 2x + y − z = a
(S) : y + 3z = b
2x + ky + 2z = c

2 1 −1
On étudie d’abord le rang du système, on a : det(A) = 0 1 3 = 4 + 6 + 0 − (−2 + 6k) =
2 k 2
6(2 − k).
Donc si k ̸= 2, alors rg(A) = 3 ; et si k = 2, alors rg(A) = 2. Deux cas à discuter.
62 Chapitre 3. Systèmes d’équations linéaires

1. Si k ̸= 2, alors le système est de Cramer et la solution unique est donnée par :


a 1 −1
x = 1
6(2−k) b 1 3 = (2−3k)a−(2+k)b+4c
6(2−k) ·
c k 2
2 a −1
1
y = 6(2−k) 0 b 3 = a+b−c
2−k ·
2 c 2
2 1 a
z = 1
6(2−k) 0 1 b = −a+(1−k)b+c
3(2−k) ·
2 k c
2. Si k = 2, alors on peut applique la méthode du pivot de Gauss.

 2x + y − z = a
0 y + 3z = b
0 + y + 3z = c − a

En prenant la deuxième équation comme pivot, on trouve :



 2x + y − z = a
0 y + 3z = b
0 + 0 + 0 = c−a−b

Donc si c − a − b ̸= 0 ⇐⇒ c ̸= a + b, alors le système n’a pas de solutions.


Si c − a − b = 0 ⇐⇒ c = a + b, alors y = b − 3z et donc
a−y+z a − b + 3z + z a − b + 4z
x= = = ·
2 2 2
a−b+4z
Dans ce cas le système admet une infinité de solutions à savoir x = 2 , y = b − 3z et
z ∈ R.

3.5 Exercices
Exercice 3.1. Résoudre les deux systèmes suivants :

 x+y+z+t = 10
 2x + y + z = 3 

x−y+z+t = 6

(1) : 3x − y − 2z = 0 et (2) :
x+y−z+t = 4
x+y−z = −2
 

x+y+z−t = 4.

Exercice
 3.2. Résoudre les systèmes
 suivants : 
 x + 2y − 3z = −1  2x + y − 2z = 10  x − 3y + 7z = −4
S1 : 3x − y + 2z = 7 , S2 : x + y + 4z = −9 et S3 : x + 2y − 3z =6
8x + 2y − 2z = 9 7x + 5y + z = 14 7x + 4y − z = 22
  

Exercice 3.3. Résoudre le système homogène suivant dans R5 .




 3x + 3y − 2z − u = 0 L1
−x − y + z + 3t + u = 0 L2

(S) :

 2x + 2y − z + 2t + 2u = 0 L3
z + 8t + 4u = 0 L4

3.5. Exercices 63

Exercice 3.4. Résoudre le système suivant.



 x + y
 = 1 L1
y + z + = 2 L2

(S) :

 z + t = 3 L3
x + t = 4 L4

Exercice 3.5. Discuter suivant les valeurs du paramètre a les solutions du système suivant.

 x − y + az = a
(S) : x + ay − z = −1
x + y + z = 2.

Exercice 3.6. Discuter suivant les valeurs du paramètre a les solutions du système suivant.

 x − y = 1
(S) : 2x − y = 3
3x − 4y = a.

Exercice 3.7. Discuter suivant les valeurs du paramètre réel a les solutions du système suivant.

 x − 3z = −3
(S) : 2x + ay − z = −2
x + 2y + az = 1.

Exercice 3.8. Discuter suivant les valeurs du paramètre réel a les solutions du système

 x +y −z =1
x +2y +az = 2
2x +ay +2z = 3

Exercice 3.9. Pour quelles valeurs de a, b, c le système suivant admet-il au moins une solution ?

 x +2y −3z =a
3x +8y −14z = b
2x +4z =c

Exercice 3.10. Soient a, b, c dans R. Résoudre les systèmes suivants :


 
 3x −y +2z =a  (1 + i)x +(1 − 2i)y +(−1 + 3i)z =2+i
−x +2y −3z =b et x −2y +z =0
x +2y +z =c ix +(2 − i)y −2z =0
 

Exercice 3.11. Discuter, suivant les valeurs a ∈ R, les solutions du système suivant :

 x + y + (1 − 2a)z = 2(1 + a)
(1 + a)x − (1 + a)y + (2 + a)z = 0
2x − 2ay + 3z = 2(1 + a).

CHAPITRE 4

ESPACES VECTORIELS

Dans tout ce cours, nous désignerons par la lettre K un corps commutatif.

4.1 Définitions et généralités

4.1.1 Rappels

Définition 4.1.1. Soit E un ensemble quelconque.


1. Une loi de composition interne sur l’ensemble E est une application de E × E dans
E. Elle sera notée par “+” et appelée l’addition.
2. Une loi de composition externe de K sur E est un application de K × E dans E. Elle
sera notée par un point “.” et appelée la multiplication externe.

Exemples 4.1.1.
1. L’addition des vecteurs du plan est une loi de compositions interne.
2. L’addition des réels est une loi de compositions interne sur R c’est-à-dire la somme de deux
réels est un réel.
3. Le produit des réels est une loi de compositions interne sur R c’est-à-dire le produit de deux
réels est un réel.
4. Le produit d’un réel par un vecteur du plan est une loi de composition externe sur le plan.
5. Le produit d’un réel par un complexe est une loi de composition externe sur C.

Définition 4.1.2. Un groupe est un ensemble G menu d’une de loi de composition interne ⋆
vérifiant les propriétés suivantes :
1. la loi ⋆ est associative,

64
4.1. Définitions et généralités 65

2. la loi ⋆ admet un élément neutre e,


3. tout élément de G admet un symétrique pour la loi ⋆.
Si de plus, ∀x, y ∈ G, on a x ⋆ y = y ⋆ x, alors G est dit commutatif (ou abélien).

Exemples 4.1.2.
1. (Z, +) est un groupe abélien.
2. (Q, +) est un groupe abélien.
3. (R∗ , ×) est un groupe abélien.
4. (Z, ×) n’est pas un groupe.

4.1.2 Définition d’un espace vectoriel

Définition 4.1.3. Un espace vectoriel sur K ou un K-espace vectoriel est un ensemble non
vide E muni d’une loi de composition interne E × E −→ E; (u, v) 7−→ u + v et d’une loi de
composition externe K × E −→ E; (λ, u) 7−→ λ · u tels que les propriétés suivantes sont vérifiées :
1. (E, +) est un groupe abélien,
2. ∀λ ∈ K, ∀(u, v) ∈ E 2 :
i. λ · (u + v) = λ · u + λ · v,
ii. (λ + µ) · u = λ · u + µ · u,
iii. λ · (µ · u) = (λµ) · u,
iv. 1 · u = u.
Les éléments de E sont appelés vecteurs et ceux de K sont dits scalaires.

Exemples 4.1.3.
1. L’ensemble E = R menu de l’addition et de la multiplication des réels est un espace vec-
toriel sur R. Dans cet exemple la loi interne est l’addition des réels et la loi externe est la
multiplication. En fait, tout corps commutatif K est un espace vectoriel sur lui-même.
2. L’ensemble E = C menu de l’addition des complexes et de la multiplication d’un complexe
par un réel est un espace vectoriel sur R, (l’addition est la loi interne et la multiplication est
la loi externe).
3. L’ensemble E = Rn est un espace vectoriel sur R. Les lois interne et externe sont données
par :
soient x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) deux vecteurs de E = Rn et α ∈ R un réel,

x + y = (x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn ) et


α.x =αx = α(x1 , · · · , xn ) = (αx1 , · · · , αxn ).

4. L’ensemble (M2 (R), +, .) des matrices carrée à coefficients dans R, menu de la somme des
matrices et de la multiplication par un scalaire, est un espaces vectoriel sur R (voir la section
4.6 page 84).
5. L’ensemble E = K[X] des polynômes à coefficients dans K est un espace vectoriel sur K. La
loi interne est la somme des polynômes, et la loi externe et la multiplication d’un réel par un
polynôme.
66 Chapitre 4. Espaces vectoriels

6. Soit l’ensemble E = Kn [X] des polynômes à coefficients dans K de degré ≤ n. E menu de


la somme des polynômes et de la multiplication d’un réel par un polynôme est un espace
vectoriel sur K.
7. Soit X un ensemble quelconque. Notons par E = F(X, R) l’ensemble des fonctions

f : X → R.

Soient f et g dans E et α ∈ R, alors les fonctions f + g et α.f sont définies par :

(f + g)(x) = f (x) + g(x) et


(α.f )(x) =αf (x).

Donc (E, +, .) est un espace vectoriel sur R.


8. Soit S l’ensemble des suites (un )n de nombres réels. Soient (un )n et (vn )n deux suites réels et
α ∈ R, alors posons

(un )n + (vn )n =(un + vn )n et


α.((un )n ) =(αun )n .

Donc S menu de la somme “+” et de la multiplication “.” est un espace vectoriel sur R.

Remarque 4.1.1. D’après la définition d’un espace vectoriel et les exemples vu en haut, on
remarque que la notion de vecteurs est une notion algébrique et non pas géométrique.

4.1.3 Propriétés

Proposition 4.1.1. Soit (E, +, .) un espace vectoriel sur K, alors pour tous (x, y) ∈ E 2 et
(α, β) ∈ K2 on a :
1. α(x − y) = αx − αy,
2. (α − β)x = αx − βx,
3. (−α)x = α(−x) = −αx,
4. αx = 0E si et seulement α = 0K ou x = 0E .

Preuve. Facile à démontrer, il suffit d’utiliser les propriétés de la définition.

La proposition suivante généralise l’exemple 3.

Proposition 4.1.2. Considérons n espaces vectoriels E1 , E2 , · · · , En sur K. Sur le produit


cartésien E = E1 × E2 × · · · × En , on définit les deux lois suivantes : pour x = (x1 , · · · , xn ) et
y = (y1 , · · · , yn ) deux éléments de E et α ∈ K

x + y = (x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn ) et


α.x =αx = α(x1 , · · · , xn ) = (αx1 , · · · , αxn ).

Alors (E, +, .) est un espace vectoriel sur K, appelé espace produit.


4.2. Sous-espaces vectoriels 67

Preuve. Facile à vérifier, car les propriétés des lois définies sur le produit cartésien E découlent
des propriétés des lois définies sur chaque espace vectoriel Ei .
Noter que l’élément neutre de la loi interne est le n-uplet dont la i-ème composante est l’élément
neutre de Ei , soit (0E1 , 0E2 , . . . , 0En ).

Remarque 4.1.2. Dans le cas particulier où tous les espaces vectoriels Ei sont égaux à un
espace vectoriel E, l’espace vectoriel produit sera noté E n .
Exemples : Rn est un R-espace vectoriel et Kn est un espace vectoriel sur K.

4.2 Sous-espaces vectoriels


Définition 4.2.1. Soit E un ensemble muni d’une loi de composition interne ∗ et soit F ⊂ E.
La loi de composition interne définie sur F par F × F −→ F ; (x, y) 7−→ x ∗ y est appelée loi
induite par ∗ sur F ou la restriction de ∗ à F .
Définition 4.2.2. Soit E un ensemble muni d’une loi de composition externe ∗ et soit F ⊂ E.
La loi de composition externe définie sur F par K × F −→ F ; (α, x) 7−→ α.x est appelée loi
externe induite par ∗ sur F ou la restriction externe de ∗ à F .
Définition 4.2.3. Soit E un espace vectoriel sur K. Un sous-ensemble non vide F de E est dit
un sous-espace vectoriel (en abrégé : s.e.v) de E si les restrictions des lois de E à F font de
F un espace vectoriel sur K.

Donc pour montrer que F est un sous-espace vectoriel de E, on doit vérifier les huit points
de la définition d’un espace vectoriel. En fait, il suffit de vérifier la stabilité des deux lois comme
l’affirme le théorème suivant.
Théorème 4.2.1. Soit E un espace vectoriel sur K. Un sous-ensemble F de E est un sous-espace
vectoriel de E si et seulement si F est non vide, et il est stable par les deux lois de composition
définies sur E. Autrement dit, F est un s.e.v de E si et seulement si
1. F ̸= ∅,
2. ∀x, y ∈ F, x + y ∈ F ,
3. ∀x ∈ F, ∀α ∈ K, α.x ∈ F .

Preuve.
• Les conditions sont nécessaires. Supposons que F est un sous-espace vectoriel de E, alors par
définition les restrictions des lois de E à F font de F un espace vectoriel sur K ; d’où les trois
conditions sont vérifiées.
• Les conditions sont suffisantes. Supposons que les trois conditions sont satisfaites.
a. (F, +) est groupe commutatif. En effet, comme la somme est commutative et associative sur
E, elle les est sur F . De plus F admet un neutre pour la somme qui est 0E ; en effet, en
prenant α = 0, on a pour tout x ∈ F , 0E = 0.x ∈ F . En prenant aussi α = −1, on a pour
tout x ∈ F , on a : −x = (−1).x ∈ F .
b. Les quatre propriétés restantes sont vérifiées sur F puisque elles sont vérifiées pour tous les
éléments de E.
68 Chapitre 4. Espaces vectoriels

Remarque 4.2.1. L’élément neutre, 0E , pour la somme dans E appartient à F . En effet, dans
le Théorème 4.2.1 on prend α = 0, alors pour tout x ∈ F , on a : 0 = 0.x ∈ F .

Exemples 4.2.1.
1. Pour tout K-espace vectoriel E, E et {0} sont des s.e.v de E, on les appelles les sous-espaces
vectoriels triviaux de E.
2. F1 = {(a, 0)| a ∈ R} est un sous-espace vectoriel de R2 . En effet, F1 est non vide puisque
(0, 0) ∈ F1 ; pour tous x = (a, 0), y = (b, 0) de F1 et pour tout α ∈ R, on a : x + y = (a + b, 0)
et α.x = (αa, 0), donc x + y ∈ F1 et α.x ∈ F1 .
3. F2 = {(0, b)| b ∈ R} est un sous-espace vectoriel de R2 .
4. F3 = {(a, 0, 0)| a ∈ R} est un sous-espace vectoriel de R3 .
5. F4 = {(a, b, 0)| a, b ∈ R} est un sous-espace vectoriel de R3 .
6. F5 = {(a, b, 1)| a, b ∈ R} n’est pas un sous-espace vectoriel de R3 , car 0 ̸∈ F4 .
7. Soit n ∈ N∗ , alors F = {(x1 , · · · , xn−1 , 0) | ∀i; xi ∈ K} est un sous-espace vectoriel de Kn .
8. L’ensemble Kn [X] des polynômes de degré ≤ n est un sous-espace vectoriel de l’espace vectoriel
K[X].
9. Soit C(I, R) l’ensemble des fonctions continues sur l’intervalle I. On a déjà : C(I, R) ⊂ F(I, R),
et c’est un sous-espace vectoriel. On peut remplacer «continue» par «dérivable». On peut
même considérer

E = {f ∈ F(I, R)| f est dérivable deux fois et 3f ′′ − 5f ′ + f = 0}.

On vérifie que E est alors un sous-espace vectoriel de F(I, R).

Les conditions citées dans le Théorème 4.2.1 peuvent être résumées de la façon suivante.

Théorème 4.2.2 (Caractérisation d’un s.e.v). Soit F une partie d’un K-espace vectoriel E.
Alors F est un s.e.v de E si et seulement si :
1. 0E ∈ F ,
2. ∀x, y ∈ F , ∀α, β ∈ K, αx + βy ∈ F .

Preuve. Soit F une partie de E. Supposons que F est un sous-espace de E, alors F est non vide.
Soit x ∈ F , alors par l’assertion 3 de la Théorème 4.2.1 on a (−1).x = −x ∈ F , et par l’assertion
2 de la Théorème 4.2.1 on a x + (−x) = 0E ∈ F . Soient maintenant x, y ∈ F , α, β ∈ R, alors par
la Théorème 4.2.1(3) on a αx ∈ F et βy ∈ F . Par suite l’assertion 2 de la même Théorème 4.2.1
implique que αx + βy ∈ F .
Réciproquement, supposons que les points de la Proposition 4.2.2 sont satisfaits ; alors F
est non vide puisque 0E ∈ F . Soient x, y dans E et α ∈ R, alors x + y = 1.x + 1.y ∈ F , et
αx = αx + 0E y ∈ F . D’où F est un sous-espace vectoriel de E.

Remarques 4.2.1.
1. Tout s.e.v F d’un K-espace vectoriel E doit contenir le 0E de E.
2. Le deuxième point du Théorème 4.2.2 peut être remplacé par l’assertion suivante :
∀x, y ∈ F , ∀α ∈ K, αx + y ∈ F .
4.3. Somme directe 69

Exemples 4.2.2.
1. Pour E = R3 , on pose : F = {(x, y, z) ∈ E | x − 2y + 3z = 0}. Montrer que F est un s.e.v de
E.
Que diriez-vous du sous ensemble G = {(x, y, z) ∈ E | x − 2y + 3z = 1} de E ?
Solution.
a. Montrons que F est un s.e.v de E.
• L’ensemble F est non vide car 0R3 = (0, 0, 0) ∈ F puisque 0 − 2.0 + 3.0 = 0.
• Soient X = (x, y, z) et X ′ = (x′ , y ′ , z ′ ) dans F , alors x − 2y + 3z = 0 et x′ − 2y ′ + 3z ′ = 0 ;
soient aussi α, β dans R, alors

αX + βX ′ = α(x, y, z) + β(x′ , y ′ , z ′ ) = (αx + βx′ , αy + βy ′ , αz + βz ′ ).

De plus

(αx + βx′ ) − 2(αy + βy ′ ) + 3(αz + βz ′ ) = α(x − 2y + 3z) + β(x′ − 2y ′ + 3z ′ )


= 0 + 0 = 0.

Donc αX + βX ′ ∈ F .
Par suite F est un s.e.v de E. On peut utiliser le Théorème 4.2.1 pour montrer que F est
s.e.v de E.

b. G n’est pas un sous-espace vectoriel de E, dire pourquoi.


2. Soit E un espace vectoriel, et soit v un vecteur non nul de E. Montrer que F = {αv | α ∈ K}
est un sous-espace vectoriel de E. F est dit droite vectorielle engendré par le vecteur
v.

Remarque 4.2.2. Un des grands intérêts de la notion de sous-espace vectoriel est qu’elle permet
de montrer facilement qu’un certain ensemble est muni d’une structure d’espace vectoriel. Donc
pour montrer qu’un ensemble F est un K-espace vectoriel, il suffit, dans la plupart des cas, de
montrer que F est un sous-espace vectoriel d’un K-espace vectoriel connu.

4.3 Somme directe


Définition 4.3.1. Soient F et G deux sous-espaces vectoriels de E, l’ensemble

{x + y | x ∈ F et y ∈ G}

est dit la somme de F et G, et il est noté F + G.

X ∈ F + G ⇐⇒ ∃x ∈ F, ∃y ∈ G; X = x + y.

De la même façon, on définit la somme de plusieurs sous-espaces vectoriels de E.

Rappelons que si F et G sont deux ensembles, alors


1. l’intersection de F et G, F ∩ G, est l’ensemble des éléments communs entre F et G. F ∩ G =
{x | x ∈ F et x ∈ G}·
70 Chapitre 4. Espaces vectoriels

2. la réunion de F et G, F ∪ G, est l’ensemble des éléments qui appartiennent à F ou à G.


F ∪ G = {x | x ∈ F ou x ∈ G}·
3. Le complémentaire de F dans E est l’ensemble noté F ou E\F et il est défini comme suit :
E\F = {x ∈ E et x ̸∈ F }.
Proposition 4.3.1. Si F et G sont deux s.e.v. d’un K-espace vectoriel E, alors
1. F ∩ G est un s.e.v. de E,
2. F + G = {x + y | x ∈ F et y ∈ G} est un s.e.v. de E,
3. en général F ∪ G n’est pas un s.e.v de E.
4. E\F n’est pas un s.e.v de E.

Preuve.
1. Montrons que F ∩ G est un s.e.v. de E.
• On a F ∩ G est non vide car 0E ∈ F ∩ G (pourquoi ?).
• Soient x et y dans F ∩ G, alors x + y appartient à F et à G en même temps (pourquoi ?), donc
x + y ∈ F ∩ G.
• De même si x ∈ F ∩ G et α ∈ R, alors αx appartient aussi à F et à G, donc αx ∈ F ∩ G. Par
suite F ∩ G est un s.e.v de E.
2. Montrons que F + G est un s.e.v. de E.
• On a F + G est non vide car 0 = 0 + 0 = 0E + 0E ∈ F + G.
• Soient u et v dans F + G, alors il existe u1 , v1 ∈ F et u2 , v2 ∈ G tels que

u = u1 + u2 et v = v1 + v2 ,

donc
u + v = u1 + u2 + v1 + v2 = (u1 + v1 ) + (u2 + v2 ),
d’où x + y ∈ F + G. De même, pour tout a ∈ K, au = au1 + au2 ∈ F + G.
Par suite F + G est un s.e.v de E.
3. Pour montrer que F ∪ G n’est en général pas un s.e.v de E, il suffit de donner un contre
exemple. Dans R2 , qui est un e.v sur R, on considère F = {(a, 0) | a ∈ R} et G = {(0, b)| a ∈ R},
alors on a (2, 0) ∈ F et (0, −5) ∈ G, mais

(2, 0) + (0, −5) = (2, −5) ̸∈ F ∪ G.

C’est-à-dire F ∪ G n’est pas stable par l’addition.


4. E\F n’est pas un s.e.v de E, car il ne contient pas le 0.

Remarque 4.3.1. F + G est le plus petit s.e.v de E contenant F ∪ G. En effet, si H est un s.e.v
de E contenant F ∪ G, alors F ⊂ H et G ⊂ H, donc F + G ⊂ H.
Définition 4.3.2. Soient F et G deux sous-espaces d’un K-espace vectoriel E. On dit que la
somme F + G est directe, et on note F ⊕ G, si tout u de F + G s’écrit de manière unique comme
somme d’un élément x de F et d’un élément y de G,

u ∈ F ⊕ G ⇐⇒ ∃!x ∈ F, ∃!y ∈ G; u = x + y.

Proposition 4.3.2. Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E, alors
la somme de F et G est directe si et seulement si F ∩ G = {0}.
4.4. Base d’un espace vectoriel 71

Preuve. Supposons que la somme de F et G est directe. Soit u ∈ F ∩ G, alors

u = u + 0 = 0 + u;

dans les deux écritures u est la somme d’un vecteur de F et d’un vecteur de G, or l’écriture de
u est unique, donc u = 0.
Inversement, supposons que F ∩ G = {0}, et montrons que la somme de F et G est directe,
c’est-à-dire chaque élément de F + G s’écrit d’une façon unique comme somme d’un vecteur de
F et d’un vecteur de G.
Soit x ∈ F + G, si x = u1 + v1 = u2 + v2 , où u1 , u2 ∈ F et v1 , v2 ∈ G, alors u1 + v1 = u2 + v2
implique que u1 − u2 = v1 − v2 ∈ F ∩ G, comme F ∩ G = {0}, donc u1 − u2 = 0 et v1 − v2 = 0,
d’où u1 = u2 et v1 = v2 . Ce qui implique que u s’est écrit de façon unique comme somme d’un
vecteur de F et d’un vecteur de G.

Définition 4.3.3. On dit que deux sous-espaces F et G d’un K-espace vectoriel E sont sup-
plémentaires si leur somme est directe et E = F + G, c-à-d F ∩ G = {0} et E = F + G.

Exemple 4.3.1. On sait que F = {(a, 0)| a ∈ R} et G = {(0, b)| b ∈ R} sont des s.e.v de R2
(voir Exemples 4.2.1).
• On a d’une part F + G est directe, car F ∩ G = {(0, 0)} puisque si (a, b) ∈ F ∩ G, alors
(a, b) ∈ F et (a, b) ∈ G ; d’où a = 0 et b = 0.
• D’autre part F + G = R2 , en effet d’abord on sait bien que F + G ⊂ R2 . De plus pour
(a, b) ∈ R2 , on a (a, b) = (a, 0) + (0, b) qui est bien un élément de F + G ; d’où F + G = R2 .
Donc F et G sont supplémentaire dans R2 .

Par récurrence et en utilisant la Proposition 4.3.1 on montre facilement la proposition sui-


vante :

Proposition 4.3.3. Soit E un K-espace vectoriel.


1. L’intersection d’une famille de sous-espaces vectoriels de E est un sous-espace de E.
2. La somme d’un nombre fini de sous-espaces vectoriels de E est un sous-espace de E.

4.4 Base d’un espace vectoriel

4.4.1 Famille génératrice

Définitions 4.4.1. Soit E un espace vectoriel, et soit A une partie non vide d’éléments de E.
1. Supposons que A = {e1 , e2 , . . . en } est finie, alors un vecteur x de E est dit combinaison
linéaire des éléments de A s’il existe des scalaires λ1 , λ2 , . . . , λn de K tels que :

x = λ1 e1 + λ2 e2 + . . . + λn en .

2. Si A est une partie quelconque de E, alors un vecteur x de E est dit combinaison linéaire
des éléments de A s’il existe une partie finie B de A, telle que x soit combinaison linéaire des
éléments de B.
72 Chapitre 4. Espaces vectoriels

Les scalaires λi sont dits les coefficients de la combinaison linéaire x.

Exemples 4.4.1.
1. Pour n = 1, alors u = λ1 e1 , est une combinaison linéaire de e1 , on dit que le vecteur u est
colinéaire à e1 .
2. Pour n = 2, alors u = λ1 e1 + λ2 e2 est une combinaison linéaire de e1 et e2 .
3. Dans R2 , prenons e1 = (2, 1) et e2 = (−3, 5), alors

5e1 + 7e2 = 5(2, 1) + 7(−3, 5) = (−11, 40)

est une combinaison linéaire de e1 et e2 de coefficients 5 et 7.


4. Dans R3 , prenons e1 = (2, 1, −4), e2 = (−3, 5, 1) et e3 = (−3, 7, 9), alors

5e1 + 7e2 − 5e3 = 5(2, 1, −4) + 7(−3, 5, 1) − 5(−3, 7, 9)


= (10, 5, −20) + (−21, 35, 7) + (15, −35, −45)
= (4, 5, −58)

est une combinaison linéaire des trois vecteurs e1 , e2 et e3 de coefficients 5, 7 et −5.

Proposition 4.4.1. Soit E un espace vectoriel, et soit A = {e1 , e2 , . . . en } une famille non
vide d’éléments de E. L’ensemble de toutes les combinaisons linéaires des vecteurs de A est un
sous-espace vectoriel de E, il sera noté

Vect(A) = Vect(e1 , e2 , . . . en ).

Nous dirons que Vect(e1 , e2 , . . . en ) est le sous-espace vectoriel de E engendré par la partie
A. On dit aussi que A est une partie génératrice ou un système de générateurs de
Vect(A).

Preuve.
p
X
• Vect(e1 , e2 , · · · , ep ) est non vide car il contient 0E = 0ei .
i=0
• Soient x, y dans Vect(e1 , e2 , · · · , ep ) et λ ∈ K, alors il existe des scalaires αi et βi dans K tels
que :
i=p
X
x = α1 e1 + α2 e2 + · · · + αp ep = αi ei
i=1
i=p
X
y = β1 e1 + β2 e2 + · · · + βp ep = βi e i ,
i=1

i=p
X
donc x + y = (α1 + β1 )e1 + (α2 + β2 )e2 + · · · + (αp + βp )ep = (αi + βi )ei ,
i=1
d’où x + y ∈ Vect{e1 , e2 , · · · , ep }.
i=p
X
• Enfin, λx = λα1 e1 + λα2 e2 + · · · + λαp ep = λαi ei , par suite λx ∈ Vect{e1 , e2 , · · · , ep }.
i=1
D’où Vect(e1 , e2 , · · · , ep ) est un s.e.v de E.
4.4. Base d’un espace vectoriel 73

Remarque 4.4.1.
1. Notons que

Vect(A) = Vect(e1 , e2 , . . . en ) = {λ1 e1 + λ2 e2 + . . . + λn en | λi ∈ K}.

2. Si v1 , v2 , · · · , vr sont des vecteurs de Vect(X1 , X2 , · · · , Xp ), alors

Vect(v1 , v2 , · · · , vr ) ⊂ Vect(X1 , X2 , · · · , Xp ).

Montrer, à titre d’exercice, ce résultat.


Exemple 4.4.1. Soit n un entier naturel et soit Kn [X] le sous-espace vectoriel de K[X] formé des
polynômes de degré inférieur ou égal à n. Comme tout élément P ∈ Kn [X] s’écrit sous la forme
P = a0 + a1 X + · · · + an X n , où les ai ∈ K, c.à.d. que P est une combinaison linéaire des éléments
de A = {1, X, · · · , X n }, alors A est une partie génératrice de Kn [X]. Ainsi, Vect(A) = Kn [X].
Lemme 4.4.1. Soit F un s.e.v d’un espace vectoriel de E, alors Vect(F ) = F .

Preuve. Il est simple de voir que F ⊂ Vect(F ). De plus, chaque élément de Vect(F ) est une
combinaison linéaire des éléments de F , or F est stable pour la somme et la multiplication par
les scalaires, alors Vect(F ) ⊂ F . D’où l’égalité.

Définition 4.4.1. Soit E un espace vectoriel. Une famille A = {e1 , e2 , . . . en } d’éléments de E


est dite famille génératrice (ou un système de générateurs) de E lorsque

E = Vect(e1 , e2 , . . . en ),

c’est-à-dire que tout élément de E s’écrit comme combinaison linéaire des vecteurs e1 , e2 , . . . en .
Autrement dit, E est l’ensemble des combinaisons des vecteurs e1 , e2 , . . . en .
Exemples 4.4.2. Prenons E = R2 .
   
1 0
• Considérons les deux vecteurs e1 = et e2 = , alors, pour tout (x, y) de R2 , nous
0 1
avons :      
x 1 0
=x +y = xe1 + ye2 .
y 0 1
On constate bien que tout vecteur de R2 peut s’écrire comme une combinaison linéaire de e1
et e2 , donc {e1 , e2 } est une famille génératrice de R2 .
   
2 1
• Il y en a d’autres, par exemple prenons ε1 = et ε2 = . La condition pour qu’un
3 1
 
x
vecteur appartienne à Vect(ε1 , ε2 ) est l’existence de deux nombres λ1 et λ2 tels que
y

2λ1 + λ2 = x
3λ1 + λ2 = y

Ce système admet une solution unique (λ1 , λ2 ) = (y − x, x − 2y).


• Montrer que R2 est engendré aussi par les deux vecteurs v1 = (1, 1) et v2 = (1, −1).

Nous terminons cette sous-section par les remarques suivantes.


74 Chapitre 4. Espaces vectoriels

Remarques 4.4.1. Soit E un K-espace vectoriel.


1. x et y de E sont colinéaires si et seulement si x ∈ Vect(y) ou y ∈ Vect(x) ; autrement dit,
x = ay ou y = ax, a ∈ K.
2. Toute famille contenant une famille génératrice est elle même génératrice.
3. Toute sous-famille d’une famille génératrice n’est pas forcément génératrice. En effet,
La famille {(1, 0, 0); (0, 1, 0); (0, 0, 1)} engendre R3 , par contre la sous-famille {(1, 0, 0); (0, 1, 0)}
n’engendre pas R3 . Si c’est le cas, on aura (0, 0, 3) = a(1, 0, 0) + b(0, 1, 0) et donc 3 = 0. Ce
qui est absurde.
4. Vect(e1 , e2 , · · · , en ) ne change pas quand on change un des vecteurs en lui ajoutant une com-
binaison linéaire des autres.
5. Par convention, on dira que l’ensemble vide ∅ a pour (seule) combinaison linéaire le vecteur
nul 0.

4.4.2 Famille libre

Définition 4.4.2. Soit E un K-espace vectoriel. Soient e1 , e2 , · · · , en des vecteurs de E. On dit


que la famille {e1 , e2 , · · · , en } est une famille liée ou que les vecteurs e1 , e2 , · · · , en sont
linéairement dépendants (ou sont liés) s’il existe des scalaires α1 , α2 , · · · , αn de K non tous
nuls tels que
α1 e1 + α2 e2 + · · · + αp en = 0.

Dans le cas contraire les vecteurs e1 , e2 , · · · , en sont dits linéairement indépendants, ou


forment une famille ou un système libre, c-à-d

∀α1 , α2 , · · · , αn ∈ K : α1 e1 + α2 e2 + · · · + αp en = 0 =⇒ α1 = α2 = · · · = αn = 0.

Remarque 4.4.2.
1. Les vecteurs e1 , e2 , · · · , en sont linéairement indépendants si et seulement si la seule combi-
naison linéaire des vecteurs e1 , e2 , · · · , ep qui soit nulle, est celle dont les coefficients sont tous
nuls c’est-à-dire :

∀α1 , α2 , · · · , αn ∈ K : α1 e1 + α2 e2 + · · · + αn en = 0 =⇒ α1 = α2 = · · · = αn = 0.

Autrement dit, la famille {e1 , e2 , · · · , en } est libre si et seulement si aucun de ces vecteurs
n’appartient à l’espace engendré par les autres.
2. La famille {e1 , e2 , · · · , en } est liée si et seulement si l’un au moins de ces vecteurs appartient
à l’espace engendré par les autres (s’écrit comme combinaison linéaire des autres).

Exemples 4.4.3.
1. Soient, dans le R-espace vectoriel E = R2 , les deux vecteurs e1 = (−5, 1) et e2 = (3, 7).
Pour vérifier si la famille {e1 , e2 } est libre ou non, nous devons résoudre l’équation

λ1 e1 + λ2 e2 = 0,
4.4. Base d’un espace vectoriel 75

qui est équivalente au système suivant :


    
−5 3 0
λ1 e1 + λ2 e2 = 0 ⇐⇒ λ1 + λ2 =
 1 7 0
−5λ1 + 3λ2 = 0
⇐⇒
 λ1 + 7λ2 = 0
−5λ1 + 3λ2 = 0
⇐⇒
 5λ1 + 35λ2 = 0
38λ2 = 0
⇐⇒
λ1 + 7λ2 = 0
⇐⇒ λ1 = λ2 = 0.

Donc la famille est libre.


   
2 −5 3
2. Soit toujours dans le R-espace vectoriel E = R les vecteurs e1 = et e2 =
1 7
 
−2
e3 = , la famille {e1 , e2 , e3 } est-elle libre ? On obtient système
8

−5λ1 + 3λ2 − 2λ3 = 0 L1
λ1 + 7λ2 + 8λ3 = 0 L2

En remplaçant la ligne L1 par L1 + 5L2 , on trouve



λ1 + 7λ2 + 8λ3 = 0
38λ2 + 38λ3 = 0

alors λ1 = λ2 = −λ3 . En particulier, on a la solution λ1 = λ2 = 1, λ3 = −1, et d’ailleurs on


vérifie effectivement que e1 + e2 − e3 = 0. La famille n’est donc pas libre.
3. Soit dans le R-espace vectoriel E = R2 la famille A = {e1 , e2 }, où e1 = (2, 1) et e2 = (−1, 5),
la famille A est libre. En effet, s’il existe a, b dans R tels que ae1 + be2 = 0, alors
a(2, 1) + b(−1, 5) = (0, 0) ⇐⇒ (2a  − b, a + 5b) = (0, 0)
2a − b = 0
⇐⇒
a + 5b = 0
⇐⇒ a = b = 0
4. Dans R2 , la partie {(1, 0), (0, 1)} est libre.
5. Dans K[X], la partie {1, X, · · · , X n } est libre pour tout entier n ∈ N, car l’égalité a0 + a1 X +
· · · + an X n = 0 implique ai = 0 pour tout 0 ≤ i ≤ n.
6. Toute partie finie, non vide, et contenant le vecteur nul est liée.
7. Dans R3 , on considère la famille B = {e1 , e2 , e3 } telle que e1 = (1, 2, 3), e2 = (−2, 1, 3) et
e3 = (6, 2, 2). La famille B est-elle libre ?

Les points suivants se démontrent facilement.

Remarques 4.4.2.
1. Toute famille contenant un seul vecteur non nul u est libre : {u} est libre ⇐⇒ u ̸= 0
2. Toute sous-famille d’une famille libre est une famille libre.
3. Toute famille contenant une sous-famille liée est liée.
76 Chapitre 4. Espaces vectoriels

4. Toute famille contenant une sous-famille génératrice est génératrice.


5. Toute famille dont l’un des vecteurs est nul, est liée.

L’intérêt d’une famille libre réside dans la proposition suivante.

Proposition 4.4.2. Soit A = {e1 , e2 , · · · , en } une famille libre. Si x ∈ Vect(A), alors x s’écrit
d’une façon unique comme combinaison linéaire des vecteurs de A.

Preuve. Supposons que x s’écrit de deux façons, c’est-à-dire

x = α1 e1 + α2 e2 + · · · + αn en et
x = β1 e1 + β2 e2 + · · · + βn en ·

En faisant la différence, on trouve que (α1 − β1 )e1 + (α2 − β2 )e2 + · · · + (αn − βn )en = 0. Comme
la famille A = {e1 , e2 , · · · , en } est libre, alors pour tout 1 ≤ i ≤ n, αi − βi = 0, donc pour tout
1 ≤ i ≤ n, αi = βi . D’où le résultat.

4.4.3 Base et dimension

Définition 4.4.3. Une famille X = {e1 , e2 , · · · , en } de vecteurs d’un K-espace vectoriel E est
dite base de E si elle est à la fois une famille libre et une famille génératrice de E.

Exemples 4.4.4.
1. Soit E = Kn , pour i = 1, 2, · · · , n, on note ei le vecteur défini par le n-uplet dont toutes les
composantes sont nulles sauf la i-ième qui est égale à 1, c-à-d,

e1 = (1, 0, · · · , 0),
e2 = (0, 1, 0, · · · , 0),
···
la i-ième position
z}|{
ei = (0, · · · , 0, 1 , 0, · · · , 0),
···
en = (0, · · · , 0, 1).

Par exemple, dans K2 on a : e1 = (1, 0), e2 = (0, 1), et dans K3 on a : e1 = (1, 0, 0), e2 = (0, 1, 0)
et e3 = (0, 0, 1).
a. {1} est une base de K.
b. {e1 ; e2 } est une base de K2 , où e1 = (1, 0) et e2 = (0, 1).
c. {e1 ; e2 ; e3 } est une base de K3 , où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).
d. {e1 ; e2 ; e3 ; e4 } est une base de K4 ; où e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0) et
e4 = (0, 0, 0, 1).
e. En générale, la famille B = {e1 , e2 , · · · , en } de Kn , est une base de Kn . Elle est dite la
base canonique ou naturelle de Kn .
2. La famille {1, i} est une base de C considéré comme espace vectoriel sur R, puisque pour tout
z ∈ C, il existe un unique couple (a, b) ∈ R2 tel que z = a + ib.
4.4. Base d’un espace vectoriel 77

3. Considérons E = Kn [X], l’espace vectoriel des polynômes de degré ≤ n. Posons ei = X i , pour


0 ≤ i ≤ n. Tout polynôme s’écrit comme combinaison linéaire des puissances de X, donc la
famille est génératrice, de plus si :
λ0 e0 + λ1 e1 + λ2 e2 + · · · + λn en = 0 =⇒ λ0 + λ1 X + λ2 X 2 + · · · + λn X n = 0,
alors on a λ0 = λ1 = · · · = λn = 0 (par définition du polynôme nul). Donc la famille est
libre. Finalement la famille {1, X, X 2 , · · · , X n } est une base, qu’on appelle encore la base
canonique de Kn [X]. Noter qu’elle comprend n + 1 vecteurs.
On construit une autre base de Rn [X], en considérant la famille des polynômes {P0 , P1 , · · · , Pn }
telle que deg(Pk ) = k ; montrer ce résultat à titre d’exercice. Par exemple la famille {3, 1 +
X, 1 + 3X − 4X 2 } est une base de R2 [X].
Théorème 4.4.1. Une famille B = {e1 , e2 , · · · , en } de vecteurs d’un K-espace vectoriel E est
une base de E si et seulement si tout vecteur u de E s’écrit de façon unique comme combinai-
Pn
son linéaire d’éléments de la famille B, i.e. u = i=1 αi ei , Les scalaires αi sont appelés les
coordonnées ou les composantes de u dans la base B.

Preuve. Supposons que B = {e1 , e2 , · · · , en } est une base de E, donc la famille B est libre. Soit
u un vecteur de E, si
u = α1 e1 + α2 e2 + · · · + αn en et
u = β1 e 1 + β2 e 2 + · · · + βn e n ,
alors (α1 − β1 )e1 + (α2 − β2 )e2 + · · · + (αn − βn )en = 0. Or la famille B est libre, donc α1 = β1 ,
α2 = β2 , · · · , αn = βn ; ceci implique le résultat.
Inversement, supposons que tout vecteur de E s’écrit de façon unique comme combinaison
linéaire d’éléments de B. Soit u ∈ E, alors il existe un unique n-uplet (α1 , α2 , · · · , αn ) formé des
éléments de K tel que
u = α1 e1 + α2 e2 + · · · + αn en ,
donc la famille B est génératrice, de plus elle est libre car si
n
X
α1 e1 + α2 e2 + · · · + αn en = 0 = 0ei ,
i=1

alors puisque l’écriture α1 e1 + α2 e2 + · · · + αn en est unique, on obtient αi = 0 pour tout i. D’où


B est base de E.
Remarque 4.4.3. Soit E un espace vectoriel de base B = {e1 , e2 , · · · , en }. Il existe une bijection
φ entre E et Kn à savoir :
φ: E −→ Kn
x = α1 e1 + α2 e2 + · · · + αn en 7−→ (α1 , α2 , · · · , αn )
Définition 4.4.4. On dit qu’un K-espace vectoriel E est de dimension finie s’il est engendré
par une famille finie (contenant un nombre fini de vecteurs).

Dire que E est de dimension finie revient à dire qu’il existe des vecteurs e1 , e2 , · · · , en de E
tels que tout élément x ∈ E s’écrit sous la forme :
x = α1 e1 + α2 e2 + · · · + αn en ,
où les αi sont dans K.
78 Chapitre 4. Espaces vectoriels

Exemples 4.4.5.
1. Kn est de dimension finie car admet la famille {e1 , e2 , · · · , en } comme famille génératrice.
2. l’espace Kn [X] est de dimension finie car il admet la famille {1, X, X 2 , · · · , X n } comme
famille génératrice.
3. Par contre l’espace K[X] est de dimension infinie, car il admet une famille infinie comme
famille génératrice à savoir {1, X, X 2 , · · · , X n , · · · }.

Théorème 4.4.2. Soient E un K-e.v et B = {e1 , · · · , en } une base de E, et soit A = {v1 , · · · , vm }


une partie de E où les vi sont distincts deux à deux. Si m > n, alors A est une partie liée.

Preuve. Supposons A libre, alors tous ses vecteurs sont non nuls.
Montrons par récurrence que {v1 , v2 , · · · , vn } engendre E.
Comme B = {e1 , · · · , en } est une base de E, alors il existe des scalaires λ1 , λ2 , · · · , λn dans K
tels que
v1 = λ1 e1 + λ2 e2 + · · · + λn en .
On peut supposer λ1 ̸= 0, donc e1 = λ−1 1 (v1 − λ2 e2 − · · · − λn en ), d’où le s.e.v. F engendré par
{v1 , e2 , · · · , en } contient aussi e1 , par suite F = E.
Hypothèse de récurrence : {v1 , · · · , vr , er+1 , · · · , en } engendre E. On peut donc écrire

vr+1 = µ1 v1 + · · · + µr vr + µr+1 er+1 + · · · + µn en .

Les µi pour i ≥ r + 1 ne peuvent pas être tous nuls car A est supposée libre. Sans perte de
généralité on peut supposer que µr+1 ̸= 0. On aura alors,

er+1 = µ−1
r+1 (vr+1 − µ1 v1 − · · · − µr vr − µr+2 er+2 − · · · − µn en ) ,

et le s.e.v. G engendré par {v1 , · · · , vr+1 , er+2 , · · · , en } contient er+1 , donc G = E.


Finalement, le principe de recurrence implique que {v1 , v2 , · · · , vn } engendre E, mais m > n et
vm s’écrira comme combinaison linéaire des vi pour 1 ≤ i ≤ n, c-à-d, il existe λ1 , λ2 , · · · , λn ∈ K
tels que vm = λ1 v1 + λ2 v2 + · · · + λn vn , ce qui est absurde car A est supposée libre.

Théorème 4.4.3. Soit E un K-espace vectoriel de dimension finie. Toutes les bases de E (il y
en a une infinité) ont le même nombre de vecteurs.

Preuve. Soit E un K-e.v. et soit B = {e1 , · · · , en } une base de E formée de n vecteurs, soit
C = {v1 , · · · , vm } une autre base de E. Alors, par le théorème 4.4.2, m > n est impossible, donc
m ≤ n. De même la condition n > m est impossible, d’où n ≤ m. Finalement, n = m.

Corollaire 4.4.1.
1. Dans un espace vectoriel E de dimension n, toute famille de plus de n éléments est liée.
2. Dans un espace vectoriel E de dimension n, une famille de moins de n éléments ne peut pas
être génératrice.

Preuve. Le premier point du corollaire est ce qui est démontré dans le Théorème 4.4.2.
Le deuxième point vient du Théorème 4.4.4 page 80 : si A était une famille génératrice de E
ayant moins de n éléments, on pourrait alors extraire de A une base de E de moins de n éléments,
ce qui contredit le Théorème précèdent.
4.4. Base d’un espace vectoriel 79

Définition 4.4.5. Soit E un K-espace vectoriel. Le nombre de vecteurs n commun entre toutes
les bases de E est dit la dimension de E sur K, et est noté dimK (E) = n ou dim(E) = n.

Exemples 4.4.6.
1. dimK ({0}) = 0.
2. dimK (K) = 1.
3. dimK (K2 ) = 2.
4. En générale dimK (Kn ) = n.
5. dimR (C) = 2.
6. La dimension de Kn [X] est n + 1, prendre la base canonique {1, X, X 2 , · · · , X n }.

Remarque 4.4.4. La dimension d’un K-espace vectoriel E dépend non seulement de E mais
aussi du corps K. Par exemple si on considère C comme espace vectoriel sur R, alors dimR (C) = 2
car il est de base {1, i}. Mais si on considère C comme espace vectoriel sur C, alors dimC (C) = 1.

Pour continuer nous avons besoin des deux propositions suivantes.

Proposition 4.4.3. Soit F une famille libre d’un K-espace vectoriel E. Alors la famille F ′ =
F ∪ {v} est encore libre si et seulement si v ̸∈ Vect(F ) ; autrement dit, F ′ = F ∪ {v} est liée si
et seulement si v ∈ Vect(F ).

Preuve. Considérons une famille libre F = {v1 , v2 , · · · , vn } de E.


⇐=) Soit v ∈ Vect(F ), alors v = λ1 v1 + λ2 v2 + · · · + λn vn ceci est équivalent à λ1 v1 + λ2 v2 +
· · · + λn vn − v = 0, c’est donc une combinaison linéaire de F ∪ {v} qui est nulle, mais elle est
non triviale puisque le coefficeint de v est non nul (= −1). Par suite la famille F ∪ {v} est liée.
=⇒) On suppose maintenant que F ∪ {v} est liée. On veut montrer que v ∈ Vect(F ). Comme
F ∪ {v} est liée, alors il existe des scalaires λ, λ1 , λ2 , · · · , λn non tous nuls tels que

λv + λ1 v1 + λ2 v2 + · · · + λn vn = 0.

Si λ = 0, alors λ1 v1 + λ2 v2 + · · · + λn vn = 0 =⇒ λ = λ1 = λ2 = · · · = λn = 0, car F est libre


par hypothèse. Ce qui donne donc une contradiction car λ, λ1 , λ2 , · · · , λn sont supposés non tous
nuls. D’où forcement λ ̸= 0, on en déduit que
n n
λ1 λ2 λn X λi X λi
v=− v1 − v2 − · · · − vn = − vi = λ′i vi , avec λ′i = −
λ λ λ i=1
λ i=1
λ

qui est une combinaison linéaire d’éléments de F . Ce qui donne donc que v ∈ Vect(F ).

Proposition 4.4.4. Soit F une famille génératrice d’un K-espace vectoriel E. Alors F est liée
si et seulement si il existe un vecteur v ∈ F tel que la famille F ′ = F − {v} reste génératrice.
Autrement dit, F est liée si et seulement si ∃v ∈ F tel que v ∈ Vect(F − {v}).

Preuve. Soit F = {v1 , v2 , · · · , vn } une famille génératrice de E.


Supposons que F est liée, alors il existe des scalaires λ1 , λ2 , · · · , λn non tous nuls tels que

λ1 v1 + λ2 v2 + · · · + λn vn = 0,
80 Chapitre 4. Espaces vectoriels

ce qui implique qu’il existe un j tel que λj ̸= 0. Donc


λ1 λ2 λn X λi
vj = − v1 − v2 − · · · − vn = − vi .
λj λj λj λj
i̸=j

Ce qui implique vj ∈ Vect(F − {vj }). De plus pour tout i ̸= j, vi ∈ Vect(F − {vj }), d’où pour
tout i, vi ∈ Vect(F − {vj }). Par suite
E = Vect(F ) ⊂ Vect(F − {vj }) ⊂ E.
D’où E = Vect(F − {vj }), c’est-à-dire F − {vj } est une famille génératrice de E.
La réciproque est simple, il suffit d’appliquer le point 2 des Remarques 4.4.1 qui affirme que toute
famille contenant une famille génératrice est elle même génératrice.
Théorème 4.4.4 (Théorème de la base extraite). Soit E ̸= {0} un K-espace vectoriel de dimen-
sion finie. De toute famille génératrice F de E, on peut extraire une base B de E, c’est-à-dire,
si F est une partie génératrice de E, alors il existe une base B de E telle que B ⊂ F .

Preuve. Nous allons se baser sur la Proposition 4.4.4. Soit F = {v1 , v2 , · · · , vm } une famille
génératrice de E.
- Si F est libre, alors c’est fini rien à démontrer, F est une base de E.
- Sinon, par la proposition 4.4.4, il existe u1 ∈ F tel que F1 = F − {u1 } est encore une famille
génératrice de E.
On continue l’algorithme avec F1 :
- si F1 est libre, alors c’est fini rien à démontrer, F1 est une base de E.
- sinon, par la proposition 4.4.4, il existe u2 ∈ F1 tel que F2 = F1 − {u2 } est encore une famille
génératrice de E.
On continue l’algorithme avec F2 .
Comme E ̸= {0} on s’arrêtera sur une famille libre et génératrice (une base) de E.
Théorème 4.4.5 (Théorème de la base incomplète). Soit E un espace vectoriel de dimen-
sion finie n. Toute famille libre C = {u1 , · · · , up }, où p ≤ n, de vecteurs de E peut être complétée
en une base E, c’est-à-dire il existe des vecteurs {up+1 , · · · , un } tels B = {u1 , · · · , up , up+1 , · · · , un }
soit une base de E.
Ainsi si E est un espace vectoriel de dimension finie n, alors toute famille contenant n + 1
vecteurs ou plus est liée.

Preuve. Pour la preuve on se base sur la Proposition 4.4.3. Pour completer une famille libre C
de p vecteurs en une base de E, on peut rajouter à C un vecteur up+1 d’une famille génératrice
G de E qu’on connaît auparavant. Si la nouvelle famille C ∪ {up+1 } de p + 1 vecteurs est libre
(voir la Proposition 4.4.3), on la garde et on lui rajoute un nouveau vecteur, et ainsi de suite
jusqu’à construire une famille libre de n vecteurs.
Exemple 4.4.2. Soit E = R4 et soient les deux vecteurs
u1 = (1, 0, 1, 1) et u2 = (1, 1, 1, 1).
Il est simple de vérifier que la famille C = {u1 , u2 } est libre. On rajoute à C le vecteur e1 =
(1, 0, 0, 0), on obtient la famille {u1 , u2 , e1 } qui est bien libre, mais la famille {u1 , u2 , e1 , e2 }, où
e2 = (0, 1, 0, 0), est liée puisque e2 = −u1 + u2 , donc on élimine e2 et on rajoute e3 = (0, 0, 0, 1)
pour avoir la famille libre {u1 , u2 , e1 , e3 } qui est donc bien une base de R4 .
4.4. Base d’un espace vectoriel 81

Remarques 4.4.3. Soit un K-espace vectoriel E de dimension finie n.


1. Toute famille libre de n vecteurs de E est une base.
2. Toute famille libre de E a au plus n vecteurs.
3. Toute famille génératrice de n vecteurs de E est une base.
4. Toute famille génératrice de E a au moins n vecteurs.
5. Corollaire utile. Pour vérifier qu’une famille B est une base de E, il faut et il suffit que l’une
des assertions suivantes soit vérifiée :
• B contient n vecteurs et elle est une famille libre de E,
• B contient n vecteurs et elle est une famille génératrice de E ou
• B est libre et génératrice de E.

On déduit donc la proposition suivante.


Proposition 4.4.5. Soit E un K-e.v. de dimension n et soit B une partie de E contenant
exactement n éléments, alors les propriétés suivantes sont équivalentes :
1. B est une base de E.
2. B est une partie génératrice de E.
3. B est une partie libre de E.
Proposition 4.4.6.
1. Un sous-espace vectoriel F d’un espace vectoriel E de dimension finie n est lui aussi de
dimension finie. De plus
2. dim(F ) ≤ dim(E).
3. Si dim(F ) = dim(E), alors F = E.

Preuve.
1. Si F = {0}, alors F est de dimension finie puisque dim({0}) = 0.
Si F ̸= {0}, alors il existe des familles libres dans F , et elles ont au plus n = dim(E) éléments.
Soit A une famille libre de F de cardinal maximal. Montrons que F = Vect(A).
• Sinon, c-à-d, si F ̸= Vect(A), prenons v ∈ F \ Vect(A). Alors, par la Proposition 4.4.3, la
famille A ∪ {v} est encore une famille libre de F , ceci contredit le fait que A est une famille
libre de cardinal maximal. Donc A engendre F , qui est donc de dimension finie.
2. Soit F un sous-espace vectoriel d’un K-espace vectoriel E de dimension finie n. Toute famille
libre C d’éléments de F est aussi une famille libre dans E, elle contient donc moins de n
éléments d’après la remarque 4.4.3, donc dim(F ) ≤ dim(E).
3. Pour le troisième point, si C est une base de F alors C sera une famille libre de E contenant
exactement n éléments, c’est-à-dire C est une base de E, d’où le résultat.

Proposition 4.4.7. Soient E1 , E2 , · · · , Ep des espaces vectoriels de dimension finie sur le


même corps K. Alors

dim(E1 × E2 × · · · × Ep ) = dim(E1 ) + dim(E2 ) + · · · + dim(Ep ).

En particulier, on a : dimC (Cn ) = n et dimR (Cn ) = 2n.


82 Chapitre 4. Espaces vectoriels

Preuve. Soient {a1 , a2 , · · · , an1 }, {b1 , b2 , · · · , bn2 }, · · · , {c1 , c2 , · · · , cnp } des bases de E1 , E2 , · · · ,
Ep respectivement. Alors la famille :

(ai , 0, · · · , 0)1≤i≤n1 , (0, bi , · · · , 0)1≤i≤n2 , · · · , (0, 0, · · · , ci )1≤i≤np

est une base de E1 × E2 × · · · × Ep , d’où le résultat.

4.5 Formule de Grassmann


Revenons à la somme des sous-espaces vectoriels. Soient E un K-espace vectoriel, F et G des
sous-espaces vectoriels de E. On rappelle que la somme de F et G est le sous-espace vectoriel de
E définit par F + G = {x + y | x ∈ F et y ∈ G}. Rappelons aussi que l’union F ∪ G n’est en
général pas un espace vectoriel (sauf dans des conditions particulières).

Lemme 4.5.1. La somme de F et G est le sous-espace V ect(F ∪ G) de E engendré par F ∪ G.

F + G = Vect(F ∪ G).

Preuve. Il est simple de voir que F ∪ G ⊂ F + G. En effet, pour tout x ∈ F ∪ G, on a :


x = x + 0 = 0 + x. Donc Vect(F ∪ G) ⊂ Vect(F + G) = F + G (voir Lemme 4.4.1).
Soit maintenant x ∈ F +G, alors par définition il existe x1 ∈ F et x2 ∈ G tels que x = x1 +x2 ,
d’où x est une combinaison linéaire des éléments de F ∪ G. Par suite x ∈ Vect(F ∪ G), donc
l’égalité.

Proposition 4.5.1 (Formule de Grassmann). Soient F et G deux sous-espaces vectoriels


d’un K-espace vectoriel E de dimension finie. Alors

dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Preuve. Comme E est de dimension finie, alors F + G est aussi de dimension finie car la réunion
d’une base de F et d’une base de G est une famille génératrice finie de F + G.
On sait par la Proposition 4.3.1 que F ∩ G est un sous-espace vectoriel de F et de G. Notons par
s = dim(F ∩ G), p = dim(F ) et q = dim(G).
Soit S = {e1 , · · · , es } une base de F ∩ G. Par le Théorème de la base incomplète, on peut
complété S en une base {e1 , · · · , es , f1 , · · · , fp−s } de F (en ajoutant p − s vecteurs de F ) et
en une base {e1 , · · · , es , g1 , · · · , gq−s } de G (en ajoutant q − s vecteurs de G). Donc le système
{e1 , · · · , es , f1 , · · · , fp−s , g1 , · · · , gq−s } est un système générateur de F + G. Montrons qu’il est
libre.
Soit une combinaison linéaire nulle :

ν e + · · · + νr es + λ1 f1 + · · · + λp−s fp−s + µr+1 g1 + · · · + µ1 gq−s = 0 (∗ ) .


| 1 1 {z } | {z } | {z }
x∈F ∩G y∈F z∈G

On a donc x+y +z = 0, d’où z = −(x+y). Or z ∈ G et x+y ∈ F , alors z = −(x+y) ∈ F ∩G.


Par conséquent, z peut s’écrire comme combinaison linéaire des ei :

µ1 g1 + · · · + µq−s gq−s = ρ1 e1 + · · · + ρr es
4.5. Formule de Grassmann 83

Mais ceci est une combinaison linéaire nulle des vecteurs {e1 , . . . , er , g1 , . . . , gq−s } qui est une
base de G, donc tous les coefficients de cette combinaison linéaire doivent être nuls. En particulier,

µ1 = 0, . . . , µq−s = 0.

On montre de la même façon que : λ1 = 0, . . . , λp−s = 0. D’où de (∗ ) on déduit que : ν1 e1 +


· · · + νs es = 0. Or la famille {e1 , . . . , es } est libre, donc ν1 = 0, . . . , νs = 0. Ainsi la famille
{e1 , . . . , es , f1 , . . . , fp−s , g1 , . . . , gq−s } est libre et donc elle est une base de F + G. On en déduit
donc que dim(F + G) = p + q − s, d’où le résultat voulu.

Théorème 4.5.1. Soit E un K-e.v. de dimension n ≥ 1 et soit F un s.e.v. de E, alors il existe


un s.e.v. G de E tel que E = F ⊕ G. G est appelé le supplémentaire de F dans E.

Preuve. Il est clair que r = dim F ≤ n.


Si r = n, il suffit de prendre G = {0}, et si r = 0, il suffit de prendre G = E.
On suppose 0 < r < n, et soit {x1 , x2 , · · · , xr } une base de F , c’est en particulier une partie libre
de E qu’on peut completer en une base de E par des vecteurs xr+1 , · · · , xn , donc

{x1 , x2 , · · · , xr , xr+1 , · · · , xn } est une base de E.

Soit alors G le s.e.v. engendré par les vecteurs xr+1 , · · · , xn . Donc E = F ⊕ G. En effet, pour
tout x ∈ E, il existe des scalaires αi ∈ K tels que
n
X r
X n
X
x= αi xi = αi xi + αi xi ·
i=1 i=1 i=r+1

r
X r
X
Or αi xi ∈ F et αi xi ∈ G, alors x ∈ F + G ; ce qui implique E ⊂ F + G, et comme
i=1 i=r+1
F + G ⊂ E, alors E = F + G.
Ceci dit, soit x ∈ F ∩ G, alors x ∈ F et x ∈ G. Donc il existe des scalaires αi ∈ K vérifiant les
Xr Xn
deux relations suivantes : x = αi xi et x = αi xi , ce qui donne que
i=1 i=r+1

α1 x1 + α2 x2 + · · · + αr xr − αr+1 xr+1 − αr+2 xr+2 + · · · + αn xn = 0,

ceci implique que les scalaires αi sont tous nuls, par suite x = 0, d’où F ∩ G = {0}.

Corollaire 4.5.1. Soient E un espace vectoriel de dimension finie et F et G deux sous-espaces


vectoriels de E. Si F et G sont supplémentaires dans E, alors

dim(E) = dim(F ) + dim(G).

Corollaire 4.5.2. Soient E un espace vectoriel de dimension finie et F et G deux sous-espaces


vectoriels de E.

E = F ⊕ G si et seulement si F ∩ G = {0} et dim(E) = dim(F ) + dim(G).


Corollaire 4.5.3. Soit E un espace vectoriel de dimension finie n, et soient F et G deux sous-
espaces vectoriels de E de dimensions respectives p et n − p. Alors E = F ⊕ G si et seulement si
F ∩ G = {0}.
84 Chapitre 4. Espaces vectoriels

Preuve. Comme dim(E) = dim(F ) + dim(G) = n, alors E = F ⊕ G si et seulement si F ∩ G =


{0}.
Définition 4.5.1. Un hyperplan d’un espace E de dimension n est un sous-espace vectoriel H
de dimension n − 1. Si F est un sous-espace vectoriel de E contenant un hyperplan H, alors
F = H ou F = E.

4.6 L’espace vectoriel (Mm,n (K), +, .)


Nous avons défini deux opérations de natures différentes sur l’ensemble des matrices, l’addition
des matrices et la multiplication d’une matrice par un scalaire. Ces deux lois se comportent sans
surprises, elles nous permettent de munir Mm,n (K) d’une structure d’espace vectoriel.
Proposition 4.6.1. (Mm,n (K), +, .) est un espace vectoriel sur K.
Autrement dit, (Mm,n (K), +) est un groupe abélien et pour toutes matrices A, B de Mm,n (K)
et pour tous scalaires α, β ∈ K on a :
1. (α + β)A = αA + βA,
2. α(A + B) = αA + αB,
3. α(βA) = (αβ)A,
4. 1.A = A.

Preuve. Simple à démontrer.

On peut se demander si l’espace vectoriel (Mm,n (K), +, .) est de dimension finie ou non, si
oui quelle est sa dimension ? Prenons l’exemple suivant : soit la matrice
 
2 3 5
A= ∈ M2,3 (K).
4 7 2
La matrice A peut s’écrire de la façon suivante :
           
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0
A=2 +3 +5 +4 +7 +2 .
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
Donc notre matrice A est une combinaison linéaire de 6 matrices de type 2 × 3 dont tous les
éléments sont nuls sauf un qui est égal à 1 ; ce coefficient non nul prend toutes les positions
possibles. Si on note par Eij la matrice de M2,3 (K) à 2 lignes et 3 colonnes dont tous les
coefficients sont nuls sauf celui de la i-ième ligne et j-ième colonne qui est égal à 1, alors la
matrice A est donnée par :
A = 2E11 + 3E12 + 5E13 + 4E21 + 7E22 + 2E23 .
On montre que la famille {E11 , E12 , E13 , E21 , E22 , E23 } est une base de M2,3 (K), appelée la base
canonique. Ceci est un cas particulier du théorème général suivant.
Théorème 4.6.1. Soient m et n deux entiers de N∗ . Pour tout entier i compris entre 1 et m,
et pour tout entier j compris entre 1 et n, désignons par Eij la matrice de Mm,n (K) à m lignes
et n colonnes dont tous les coefficients sont nuls sauf celui de la i-ième ligne et j-ième colonne
qui est égal à 1. Alors les matrices Eij définissent une base de Mm,n (K), dite base canonique de
Mm,n (K).
4.7. Rang d’une famille de vecteurs 85

Preuve. Soit A = (aij ) une matrice de type m × n, alors vu l’exemple en haut on peut écrire
X
A= aij Eij .
1≤i≤m
1≤j≤n

Cet écriture montre que la familles des matrices Eij engendre Mm,n (K).
P
De plus cette famille est aussi libre, car si 1≤i≤m aij Eij = 0, alors on obtient que A = 0,
1≤j≤n
c’est-à-dire aij = 0 pour tous i et j. D’où (Eij )1≤i≤m est une base de Mm,n (K).
1≤j≤n

Corollaire 4.6.1. L’espace vectoriel (Mm,n (K), +, .) est de dimension fini et sa dimension est
mn.

4.7 Rang d’une famille de vecteurs


Nous continuons par la notion du rang d’une famille de vecteurs. La notion du rang, que nous
avons déjà rencontré dans les chapitres 2 et 3, est fondamentale en algèbre linéaire. On retrouve
le mot “rang” dans des domaines apparemment distincts comme par exemple l’étude des systèmes
linéaires, des matrices ou celle de l’image d’une application linéaire voir Chapitre 5. En fait, à
la source, il y a la notion du rang d’une famille finie de vecteurs qui va être étudiée dans cette
section.
Soient E un K-espace vectoriel et {v1 , . . . , vp } une famille finie de vecteurs de E. Le sous-
espace vectoriel Vect(v1 , . . . , vp ) engendré par {v1 , . . . , vp } étant de dimension finie, on peut donc
donner la définition suivante.
Définition 4.7.1. Soit E un K-espace vectoriel. Le rang d’une famille finie F = {v1 , . . . , vp }
de vecteurs de E, qu’on note rg(F ), est la dimension du s.e.v qu’elle engendre, c’est-à-dire
rg(F ) = dim(Vect(F)).

Attention. Ne pas confondre le rang et le cardinal d’une famille ! Le cardinal est simplement
le nombre d’éléments de la famille, alors que le rang est une notion plus abstraite basée sur la
dimension.
Remarque 4.7.1. Nous avons défini au Chapitre 2 (section 2.6) le rang d’une matrice, mais
comme une matrice peut être vue comme une juxtaposition de vecteurs colonnes. On peut donc
dire que le rang d’une famille finie F = {v1 , . . . , vp } de vecteurs d’un K-espace vectoriel E, est le
rang de la matrice A obtenue en juxtaposant les vecteurs vj comme vecteurs colonnes de A. En
effet, on se donne une famille de p vecteurs {v1 , . . . , vp } d’un espace vectoriel E de dimension n.
Fixons une base B = {e1 , . . . , en } de E. Chaque vecteur vj se décompose dans la base B comme
suit : vj = a1j e1 + · · · + aij ei + · · · + anj en , ce que l’on note
 
a1j
 .. 
 . 
 
vj =   aij  .

 . 
 .. 
anj B
86 Chapitre 4. Espaces vectoriels

En juxtaposant ces vecteurs colonnes, on obtient une matrice A = (aij ) ∈ Mn,p (K). Le rang de
la famille {v1 , . . . , vp } est donc égal au rang de la matrice A. Nous avons donc le résultat suivant.

Théorème 4.7.1. Le rang d’une famille de vecteurs d’un espace vectoriel E de dimension finie
est égal au rang de la matrice des coordonnées de ces vecteurs dans une base quelconque de E.
Nous avons aussi :
Le rang d’une matrice est le rang de la famille constituée par les vecteurs colonnes de cette
matrice.

Remarque 4.7.2. Le rang d’une matrice est égal au nombre maximal de colonnes formant
un système libre. Et comme le rang d’une matrice est égal au rang de sa transposée, alors le
rang d’une matrice est aussi égal au nombre maximal de lignes formant un système libre. Il est
inférieur ou égal au nombre de lignes et de colonnes de la matrice.

Remarque 4.7.3. Soient maintenant n vecteurs F = {v1 , . . . , vn } d’un K-e.v. E de dimension


n sur K. Dans ce cas la matrice A = (aij ) ∈ Mn (K), obtenue en juxtaposant les vecteurs vj
comme vecteurs colonnes, est carrée d’ordre n. Alors

F = {v1 , . . . , vn } est libre ⇐⇒ det(v1 , · · · , vn ) ̸= 0


⇐⇒ rg(A) = rg(aij )1≤i,j≤n = n
⇐⇒ A est inversible.

Calculer le rang d’une famille de vecteurs n’est pas toujours évident, cependant il y a des
inégalités qui découlent directement de la définition.

Proposition 4.7.1. Soient E un K-espace vectoriel et F = {v1 , . . . , vp } une famille de p vec-


teurs de E. Alors :
1. 0 ≤ rg(F ) ≤ p : le rang est inférieur ou égal au nombre d’éléments dans la famille.
2. Si E est de dimension finie alors rg(F ) ≤ dim(E) : le rang est inférieur ou égal à la dimension
de l’espace ambiant E.

Remarques 4.7.1. Pour faciliter le calcul du rang d’une famille de vecteurs, nous utiliserons
les considérations suivantes (qui sont simples à prouver en utilisant la définition) :
1. Le rang d’une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
2. Le rang d’une famille vaut 1 si et seulement si tous ses vecteurs sont proportionnels.
3. Le rang d’une famille {v1 , . . . , vp } vaut p si et seulement si la famille {v1 , . . . , vp } est libre.
4. Le rang d’une famille de vecteurs ne change pas si on permute les vecteurs de la famille. c’est
à dire que le rang est indépendant de l’ordre des vecteurs de la famille.
5. Le rang ne change pas si on multiplie un vecteur de la famille par un scalaire non nul.
6. Le rang d’une famille finie F = {v1 , . . . , vp } de vecteurs ne change pas si on ajoute à l’un des
vecteurs une combinaison linéaire des autres.
7. Enfin, si rg(v1 , v2 , · · · , vp ) = r, alors toute partie libre de r éléments extraite de {v1 , . . . , vp }
détermine une base du sous-espace vectoriel engendré par les vecteurs v1 , . . . , vp .

Exemple 4.7.1. Quel est le rang de la famille F = {v1 , v2 , v3 } suivante dans l’espace vectoriel
R4 ? On donne
v1 = (1, 0, 1, 0) v2 = (0, 1, 1, 1) v3 = (−1, 1, 0, 1).
4.7. Rang d’une famille de vecteurs 87

 
1 0 −1
0 1 1 
1 1 0  .
Le rang de la famille F est le rang de la matrice A =  

0 1 1
Pour cette exemple, nous calculons le rang par la méthode suivante :
a. Ce sont des vecteurs de R4 donc rg(v1 , v2 , v3 ) ≤ 4.
b. Mais comme il n’y a que 3 vecteurs dans F , alors rg(v1 , v2 , v3 ) ≤ 3.
c. Le vecteur v1 est non nul, donc 1 ≤ rg(v1 , v2 , v3 ) ≤ 3.
d. Il est clair que v1 et v2 sont linéairement indépendants donc
rg(v1 , v2 ) = 2 ≤ rg(v1 , v2 , v3 ) ≤ 3.
Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1 , v2 , v3 } est libre ou
liée en résolvant le système linéaire suivant. Soient α, β et γ dans R tels que αv1 + βv2 + γv3 = 0,
alors

αv1 + βv2 + γv3 = 0 ⇐⇒ (α, 0, α, 0) + (0, β, β, β) + (−γ, γ, 0, γ) = (0, 0, 0, 0)


⇐⇒ 
(α − γ, β + γ, α + β, β + γ) = (0, 0, 0, 0)

 α−γ =0
β+γ =0

⇐⇒

 α +β =0
β + γ=0


γ = α,
⇐⇒
β = −α.

On trouve v1 − v2 + v3 = 0. La famille est donc liée. Ainsi Vect(v1 , v2 , v3 ) = Vect(v1 , v2 ), donc


rg(v1 , v2 , v3 ) = dim(Vect(v1 , v2 , v3 )) = 2.

Exemple 4.7.2. Dans cet exemple, nous présentons la méthode générale pour déterminer le rang
d’une famille de vecteurs, c’est la méthode du pivot de Gauss pour résoudre les systèmes
linéaires que nous avons déjà utilisée (voir chapitre 3). Nous avons rencontré cette méthode dans
plusieurs reprises dans les chapitres précédents. Le but est d’échelonner la matrice qui représente
cette famille de vecteurs, et le rang de cette famille est le nombre de lignes non nulles qui restent
dans la matrice échelonnée.
Soit à déterminer le rang de la famille des 5 vecteurs suivants de R4 :

v1 = (1, 1, 1, 1), v2 = (−1, 2, 0, 1), v3 = (3, 2, −1, −3), v4 = (3, 5, 0, −1) et


v5 = (3, 8, 1, 1).

Comme dans l’exemple précédent, le rang r de ces 5 vecteurs vérifie 1 ≤ r ≤ 4, et comme les
deux vecteurs v1 et v2 sont indépendants,
 alors 2 ≤ r ≤ 4.  Notons donc que le rang de cette
1 −1 3 3 3
1 2 2 5 8
famille est le rang de la matrice A = 
1 0 −1 0 1 .

1 1 −3 −1 1
Pour déterminer ce rang nous insistons sur les lignes de la matrice, on suit donc l’algorithme
suivant :
88 Chapitre 4. Espaces vectoriels

Première étape.
On range, dans un rectangle, par colonne les coordonnées de chaque vecteur, comme suit :
v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 : 1 2 2 5 8
L3 : 1 0 −1 0 1
L4 : 1 1 −3 −1 1
Deuxième étape.
On laisse la première ligne L1 invariante et on remplace, pour tout i tel que 2 ≤ i ≤ 4, les lignes
Li respectivement par Li − aL1 de manière à ce que la première composante de chaque ligne soit
nulle. On obtient :

v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 ← L2 − L1 : 0 3 −1 2 5
L3 ← L3 − L1 : 0 1 −4 −3 −2
L4 ← L4 − L1 : 0 2 −6 −4 −2
Troisième étape.
On applique de nouveau la même technique à ce nouveau rectangle. Pour faciliter les calculs (en
particulier pour éviter les fractions), on permutera L3 et L2 .
v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 ← L3 : 0 1 −4 −3 −2
L3 ← L2 : 0 3 −1 2 5
L4 : 0 2 −6 −4 −2
On gardera la nouvelle ligne L2 invariante et on remplacera les autres suivant le procédé précédent
de manière à avoir des lignes dont la deuxième composante est nulle.
v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
L3 ← L3 − 3L2 : 0 0 11 11 11
L4 ← L4 − 2L2 : 0 0 2 2 2
Quatrième étape.
Pour faciliter les calculs et ne pas avoir des fractions, on divisera L3 par 11 et L4 par 2.
v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
1
L3 ← 11 L3 : 0 0 1 1 1
L4 ← 12 L4 : 0 0 1 1 1
4.7. Rang d’une famille de vecteurs 89

Cinquième étape.
On recommence, en gardant la ligne L3 fixe :

v1 v2 v3 v4 v5

L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
L3 : 0 0 1 1 1
L4 ← L4 − L3 : 0 0 0 0 0

Conclusion.
Le rang des cinq vecteurs v1 , v2 , v3 , v4 , v5 est égal au nombre des lignes non nuls dans le dernier
système. Ce nombre est égal à 3. Donc le rang qu’on cherche est 3.

Exemple 4.7.3. Calculons le rang de la matrice A suivante.


 
1 −1 1 −1 1
2 −1 3 0 4
A= .
3 −2 2 1 1
1 0 1 2 1

Notons par Ci la colonne i de la matrice A. Alors le rang de la matrice A est le rang de la famille
{C1 , C2 , C3 , C4 , C5 }. Nous pouvons donc utiliser soit la méthode d’élimination de Gauss soit la
définition donnée pour les matrices. Comme A est de type(4, 5), alors rg(A) ≤ 4. On a :

1 −1 1 0 −1 0
2 −1 3 = 1 −1 2 = −2 ̸= 0,
3 −2 2 1 −2 0

d’où rg(A) ≥ 3 et 3 = rg(C1 , C2 , C3 ), c-à-d, que les trois premières colonnes de A engendrent un
e.v. de dimension 3.
On a aussi :

1 −1 1 −1 1 −1 0 −3
1 0 −3 1 0 0
2 −1 3 0 2 −1 1 −4
= = 1 1 −4 = 1 1 −1 = 0,
3 −2 2 1 3 −2 −1 −5
2 −1 −5 2 −1 1
1 0 1 2 1 0 0 0

donc rg(C1 , C2 , C3 , C4 ) = 3 = rg(C1 , C2 , C3 ), c-à-d, que C4 appartient au s.e.v. engendré par


C1 , C2 et C3 .
On a aussi :
1 −1 1 1 1 −1 0 0
2 −1 3 4 2 −1 1 2
= = 0,
3 −2 2 1 3 −2 −1 −2
1 0 1 1 1 0 0 0
d’où rg(C1 , C2 , C3 , C5 ) = 3 = rg(C1 , C2 , C3 ), c-à-d, que C5 appartient au s.e.v. engendré par
C1 , C2 et C3 . Ainsi,

rg(A) = rg(C1 , C2 , C3 , C4 , C5 ) = rg(C1 , C2 , C3 ) = 3.


90 Chapitre 4. Espaces vectoriels

4.8 Espaces affines

4.8.1 Définitions et propriétés

Définition 4.8.1. Soit E un espace vectoriel sur K. Un espace affine de direction E est un
ensemble E non vide muni d’une application f qui à chaque couple (A, B) ∈ E × E associe un
−−→
vecteur de E noté AB.
f : E × E −→ E
−−→
(A, B) 7−→ f (A, B) = AB
vérifiant
−−→
1. ∀A ∈ E , ∀⃗u ∈ E, ∃!B ∈ E tel que AB = ⃗u (existence et unicité de B).
−−→ −−→ −→
2. ∀A, B, C ∈ E , on a AB + BC = AC (relation de Chasles).
- E est dit l’espace vectoriel directeur de E .
- Les éléments de E sont dits des points et ceux de E sont des vecteurs.
Remarques 4.8.1.
1. La propriété 1. de la Définition 4.8.1 assure, pour tout point A ∈ E et pour tout vecteur
−−→
⃗u ∈ E, l’existence et l’unicité d’un point B ∈ E vérifiant : AB = ⃗u. Le point B est dit le
translaté de A par ⃗u ; on écrit parfois B = A + ⃗u ou ⃗u = B − A (notation de Grassmann) et
on a bien sur : −−→
B = A + ⃗u si et seulement si AB = ⃗u.
2. Si on fixe ⃗u ∈ E, alors l’application

t⃗u : E −→ E
−−→
A 7−→ B tel que ⃗u = AB
est bijective, et elle est dite la translation de vecteur ⃗u.
3. Si on fixe un point origine O, par définition d’un espace affine, il existe une application

fO : E −→ E
−−→
M 7−→ OM .

La propriété énonce que cette application fO est bijective pour tout point O. Cette corres-
pondance permet donc, par choix d’une origine, de munir (de façon non canonique) l’espace
affine E d’une structure d’espace vectoriel isomorphe à E, dite structure vectorielle d’origine
O, et que l’on note EO . Cette opération s’appelle la vectorialisation de l’espace affine au point
O.
L’étude des problèmes de géométrie affine se ramène souvent à une étude en géométrie vecto-
rielle, par choix convenable d’une origine de l’espace affine.
4. Tout espace vectoriel E est canoniquement (naturellement) muni d’une structure d’espace
affine de direction E, lui même, par :

f : E×E −→ E
(⃗u, ⃗v ) 7−→ ⃗u − ⃗v
−−→
Il arrive d’ailleurs que ce que l’on a noté dans un espace affine AB soit noté B − A, et quand
cet espace affine est un espace vectoriel muni de sa structure affine canonique, les notations
4.8. Espaces affines 91

sont cohérentes, de même qu’avec la notation de Grassmann, qui donne B = A + (B - A).


Ainsi, pour tout entier n ∈ N, Kn (et en particulier Rn ) est un espace affine de direction lui
même Kn (resp. Rn ).
Exemples 4.8.1 (Exemples d’espaces affines).
• Le plan affine réel est le plan E = R2 de direction lui-même en tant qu’espace vectoriel, avec
l’opération
R2 × R2 −→ R2
.
((x1 , y1 ), (x2 , y2 )) 7−→ (x2 − x1 , y2 − y1 )
• L’espace affine réel de dimension 3 se définit de façon analogue :

R3 × R3 −→ R3
.
((x1 , y1 , z1 ), (x2 , y2 , z2 )) 7−→ (x2 − x1 , y2 − y1 , z2 − z1 )

• Soient E = {(x, y, 1) | x ∈ R, y ∈ R} et E = {(x, y, 0) | x ∈ R, y ∈ R}, E est un espace affine


dirigé par E par l’intermédiaire de l’application

f : E × E −→ E
−−→
(A, B) 7−→ f (A, B) = AB = B − A.

En effet, si A = (xA , yA , 1) et B = (xB , yB , 1), alors


−−→ −−→
AB = B − A = (xB − xA , yB − yA , 0), d’où AB ∈ E.
De plus pour tous A = (xA , yA , 1) ∈ E et ⃗u = (a, b, 0), il existe un unique point B = (a+xA , b+
−−→
yA , 1) ∈ E tel que AB = ⃗u. Et pour tous A = (xA , yA , 1), B = (xB , yB , 1) et C = (xC , yC , 1)
−−→ −−→ −→
de E on a AB + BC = AC.
Proposition 4.8.1. Soient A et B deux points quelconques d’un espace affine E .
−→ → −
1. AA = 0 .
−−→ →−
2. AB = 0 ⇐⇒ A = B.
−−→ −−→
3. AB = −BA.
4. Soient A1 , A2 , · · · , An un nombre fini de points de E , on a :
i=n
−−−→ −−−→ −−−→ −−−−−→ X −−−−→
A1 An = A1 A2 + A2 A3 + · · · + An−1 An = Ai−1 Ai .
i=2

Preuve. Ces propriétés découlent directement de la définition d’espace affine, c’est-à-dire des
axiomes 1. et 2. de la Définition 4.8.1.
−→ −→ −→ −→ −→ −→
1. On a AA + AA = AA, donc AA = AA − AA = ⃗0.
−−→ ⃗ −−→ −→
2. On a aussi AB = 0 ⇐⇒ AB = AA
⇐⇒ A = B, par l’axiome 1. de la définition 4.8.1
−−→ −−→ −→ −−→ −−→
3. De même on a AB + BA = AA = ⃗0, donc AB = −BA.
4. L’assertion 4. est prouvé par récurrence sur n ≥ 2.

Proposition 4.8.2 (Règle du parallélogramme). Soient A, A′ , B, B ′ quatre points de E . On a


l’équivalence
−−→ −−′−→′ −−→ −−→
AB = A B ⇐⇒ AA′ = BB ′ .
S’il en est ainsi, on dit que A, A′ , B ′ et B forment un parallélogramme.
92 Chapitre 4. Espaces vectoriels

Preuve. Par la relation de Chasles les égalités suivantes sont toujours vraies :
−−→′ −−→ −−→′ −−→′ −−→′ −−′−→′
AB = AB + BB et AB = AA + A B .
−−→ −−→ −−→ −−−→
Donc AB + BB ′ = AA′ + A′ B ′ . On en déduit l’équivalence.

Proposition 4.8.3. Pour que quatre points A, A′ , B ′ et B forment un parallélogramme, il faut


et il suffit que [AB ′ ] et [A′ B] aient même milieu.
−−→ −

Preuve. Soit I le milieu de [AB ′ ], donc AB ′ = 2AI. Donc
−−′→ −→ −−→ −−→ −−→ − →
A B − 2A′ I = A′ A + AB − 2(A′ A + AI)
−−′→ −−→ −−′→ −→
= A A + AB − 2A A − 2AI
−−→ −−→ −−→
= AB − A′ A − AB ′
−−→ −−→ −−→
= AB − (A′ A + AB ′ )
−−→ −−−→
= AB − A′ B ′ .

Pour que A, B ′ , A′ , B soit un parallélogramme, il faut et il suffit que ce vecteur soit nul, donc
que I soit aussi milieu de [A′ B].

Définition 4.8.2. Soit E un espace affine associé à l’espace vectoriel E. Si E est un espace
vectoriel de dimension finie, on dit aussi que E est un espace affine de dimension finie et on pose
dim(E ) = dim(E).
1. Un point est un espace affine de dimension 0 associé à l’espace vectoriel {0}.
2. Une droite affine est un espace affine de dimension 1 associé à un espace vectoriel de dimension
1.
3. Un plan affine est un espace affine de dimension 2 associé un à espace vectoriel de dimension
2.

4.8.2 Repères dans un espace affine

Dans cette section, E désigne un espace affine dirigé par un espace vectoriel E.

[Link] Définition

Définition 4.8.3. Un repère cartésien ou affine de E est un couple R = (O, B) formé d’un
point O ∈ E et d’une base B de E, B = (e1 , e2 , · · · , en ).
- Le point O est dit l’origine du repère, B sa base et e1 , e2 , · · · , en sont les vecteurs de la base.
−−→ −−→
- Pour tout point M ∈ E , OM est un vecteur de E. Les composantes de OM dans la base B
sont appelées les coordonnées cartésiennes du point M dans le repère R. Ainsi, on écrit
i=n
−−→ X
OM = x1 e1 + x2 e2 + · · · + xn en = xi ei .
i=1

−−→ −−→
On note OM (x1 , x2 , · · · , xn ) ou OM = (x1 , x2 , · · · , xn ) ou M (x1 , x2 , · · · , xn ) ou encore M =
(x1 , x2 , · · · , xn )
4.8. Espaces affines 93

Remarque 4.8.1. Si M = (x1 , x2 , · · · , xn ) et N = (y1 , y2 , · · · , yn ) dans un repère R, alors


−−→ −−→ −−→ −−→ −−→ −−→
M N = (y1 − x1 , y2 − x2 , · · · , yn − xn ) ; en effet M N = M O + ON = ON − OM .

Définition 4.8.4.
1. Un repère (O,⃗i, ⃗j) du plan affine est dit direct si la mesure principale de (⃗i, ⃗j) est positive,
c
c’est-à-dire, pour aller de ⃗i à ⃗j on tourne dans le sens inverse au mouvement des aiguilles
d’une montre.
y

⃗j +

x
O ⃗i

2. Un repère (O,⃗i, ⃗j, ⃗k) d’un espace affine de dimension 3 est dit direct si la base (⃗i, ⃗j, ⃗k) est
directe, c’est-à-dire, elle vérifie “la règle du bonhomme d’Ampère" : une personne qui a les
pieds en O portée par l’axe (0z) regardant vers le vecteur ⃗i et le vecteur ⃗j est à sa gauche.

Remarques 4.8.2.
1. Si le repère (O,⃗i, ⃗j) est direct, alors le repère (O, ⃗j,⃗i) est indirect.
2. Si le repère (O,⃗i, ⃗j, ⃗k) est direct, alors les repères :
a. (O, ⃗j, ⃗k,⃗i) et (O, ⃗k,⃗i, ⃗j) sont directs.
b. (O, ⃗j,⃗i, ⃗k), (O,⃗i, ⃗k, ⃗j) et (O, ⃗k, ⃗j,⃗i) sont indirects.

[Link] Changement de Repères

Il est naturel de vouloir passer de l’expression d’un point dans un repère R = (O, B) donné à
celle dans un autre repère R′ = (O′ , B ′ ). Pour simplifier les calculs, faisons ça dans des exemples.

Exemples 4.8.2.
1. On muni R2 du repère R = (O, B) et du repère R′ = (O′ , B ′ ), où B = {e1 , e2 } la base
canonique de R2
O = (0, 0), e1 = (1, 0) et e2 = (0, 1),
′ 2
et B = {u1 , u2 } une autre base de R définie par :
O′ = (1, 2)
u1 = (2, 3) = 2e1 + 3e2 et u2 = (−1, 2) = −e1 + 2e2 .
Soit M ∈ E tel que
M = (a, b) dans le repère R et
M = (a′ , b′ ) dans le repère R′ .
Calculons a′ et b′ en fonction de a et b.
94 Chapitre 4. Espaces vectoriels

−−→ −−→ −−−→


On a : OM = OO′ + O′ M ,
−−−→ −−→ −−→
donc O′ M = OM − OO′ .
−−→ −−→
D’autre part, OM = ae1 + be2 , OO′ = e1 + 2e2 et
−−′−→
O M = a′ u1 + b′ u2 = a′ (2e1 + 3e2 ) + b′ (−e1 + 2e2 ) = (2a′ − b′ )e1 + (3a′ + 2b′ )e2 ,
par suite (2a′ − b′ )e1 +(3a′ + 2b′ )e2 = (a − 1)e1 + (b − 2)e2 ,
2a′ − b′ = a − 1,
d’où
3a′ + 2b′ = b − 2,

ce qui donne que a = 7 (2a + b − 4) et b′ = 17 (−3a + 2b − 1).
1

2. Soit un repère R = (O,⃗i, ⃗j, ⃗k) de l’espace affine R3 . Considérons les vecteurs
√ √
u = − 22 (⃗i + ⃗j), v = 22 (−⃗i + ⃗j) et w = ⃗k.

a. Montrer que R′ = (O, u, v, w) est un repère de R3 .


b. Dans le repère (O,⃗i, ⃗j, ⃗k), on donne le vecteur X = (1, 1, 1). Donner les coordonnées de X
dans le repère R′ = (O, u, v, w).

4.8.3 Sous-espace affines

Définition 4.8.5. Soit E un espace affine dirigé par un espace vectoriel E. Une partie non vide
F de E est dite un sous-espace affine de E s’il existe un point A ∈ F tel que l’ensemble
−−→
F = {AM | M ∈ F } est un sous-espace vectoriel (s.e.v) de E.

On dit alors que F est le sous-espace affine de E de direction F passant par A, et la dimension
de F est par définition celle de son espace directeur F .

Proposition 4.8.4. Soit F un sous-espace affine de E de direction F . On a alors, pour tout


−−→
point B de F , F = {BM | M ∈ F }. Autrement dit : un sous-espace affine est défini par sa
direction et par l’un quelconque de ses points.

−−→ −−→
Preuve. On a F = {AM | M ∈ F }, notons F ′ = {BM | M ∈ F }. Montrons que F = F ′ . Puisque
−−→
B appartient à F , alors le vecteur AB appartient à F .
−−→ −−→ −−→ −−→
Comme BM = AM − AB, donc BM ∈ F , car F est un sous-espace vectoriel de E, d’où F ′ ⊂ F .
−−→ −−→ −−→
De même AM = AB + BM ∈ F , d’où F ⊂ F ′ . Il en résulte que F = F ′ .

Exemples 4.8.3. Soient E un espace affine dirigé par un espace vectoriel E et A ∈ E .


1. Un sous-espace affine est toujours non vide.
2. L’ensemble E est un sous-espace affine de lui-même, de direction E.
3. les singletons de E (ensembles contenant un seul point) sont les sous-espaces affines de dimen-
sion 0, ils sont dirigés par {⃗0}.
4. Si u est un vecteur non nul de E, le sous-espace affine de E de direction Vect{u} passant par
A est la droite affine
−−→
D(A, u) = {M ∈ E | AM = αu, α ∈ R}

passant par A et de direction Vect{u}, la droite vectorielle engendré par u.


4.8. Espaces affines 95

5. Si u et v sont deux vecteurs linéairement indépendants, le sous-espace affine de E de direction


Vect{u, v} passant par A est le plan affine
−−→
P (A, u, v) = {M ∈ E | AM = αu + βv, α, β ∈ R}
passant par A et de direction le plan vectoriel engendré par les deux vecteurs u et v.
6. Deux sous-espaces affines sont égaux si et seulement s’ils ont la même direction et un point
en commun.
Définition 4.8.6. On appelle hyperplan d’un espace affine E de dimension finie n, où n ∈ N,
tout sous-espace affine F de E de dimension dim(F ) = dim(E ) − 1 = n − 1.
Exemple 4.8.1. La droite affine D = {(x, 0)| x ∈ R} est un hyperplan de R2 .
Proposition 4.8.5. L’intersection de toute famille (finie ou infinie) de sous-espaces affines
d’un même espace affine est soit vide, soit un sous-espace affine de direction l’intersection des
directions de ces sous-espaces affines.

Preuve. Soit (Fi )i∈I une famille de sous-espaces affines d’un espace affine E attaché à un e.v.
Fi de cette famille est vide, il n’y a rien à démontrer.
T
E. Si l’intersection
i∈I
Sinon, soit A un point de cette intersection. Pour tout i ∈ I, un point M de E appartient à Fi si
−−→
et seulement si le vecteur AM appartient à la direction Fi de Fi , puisque A appartient à Fi . Il
−−→
Fi si et seulement si AM appartient au sous-espace vectoriel
T
en résulte que M appartient à
i∈I
Fi est un sous-espace affine de E de direction
T T T
Fi de E, ce qui montre que Fi .
i∈I i∈I i∈I

Cette stabilité par intersection permet de donner la définition suivante :


Définition 4.8.7. Soit A une partie non vide d’un espace affine E . On appelle sous-espace affine
engendré par A l’intersection de tous les sous-espaces affines de E contenant A
Définition 4.8.8. Soient F et G deux sous-espaces affines d’un espace E de directions respec-
tives F et G. On dit que F est parallèle à G , et on note F //G , si F = G. On dit que F est
faiblement parallèle à G si F ⊂ G.
Proposition 4.8.6. Soient F et G deux sous-espaces affines d’un espace affine E de directions
respectives F et G.
1. Si F //G , alors F = G ou F ∩ G = ∅.
2. Si F est faiblement parallèle G , alors F ⊂ G ou F ∩ G = ∅.
3. Pour que F soit faiblement parallèle à G , il faut et il suffit que F soit parallèle à un sous-
espace affine de G .

Preuve. 1. Le premier point est banal. En effet, si F ∩ G ̸= ∅, on prend A ∈ F ∩ G et alors


F = G , car ils ont un point commun et la même direction.
−−→ −−→
2. Si F ∩ G ̸= ∅, on prend A ∈ F ∩ G et alors F = {AM |M ∈ F } et G = {AM |M ∈ G }.
Comme F ⊂ G, donc
−−→
M ∈F =⇒ AM ∈ F
−−→
=⇒ AM ∈ G
=⇒ M ∈ G
96 Chapitre 4. Espaces vectoriels

Par suite F ⊂ G .
−−→
3. Le sens direct est immédiat, on choisit un point A ∈ G , alors {M ∈ G |AM ∈ F } est un s.e.a.
de G parallèle à F .
Réciproquement, si F est faiblement parallèle à H (s.e.a. de G ), alors F = H ⊂ G.

Remarque 4.8.2. Deux sous-espaces affines peuvent avoir une intersection vide sans être pa-
rallèles. Pensez à deux droites dans l’espace.

4.9 Espace vectoriel quotient

4.9.1 Rappel : relation d’équivalence

Définition 4.9.1. Soit A un ensemble, soit R une relation binaire sur A. On dit que R est une
relation d’équivalence si elle vérifie les trois conditions suivantes :
1. la réflexivité : ∀x ∈ A, xRx,
2. la symétrie : ∀x, y ∈ A, xRy =⇒ yRx,
3. la transitivité : ∀x, y, z ∈ A, si xRy et yRz, alors xRz.

Définition 4.9.2. Soit A un ensemble, soit R une relation d’équivalence sur A. Soit x ∈ A, alors
l’ensemble {y ∈ A | yRx} est dit la classe d’équivalence de x par R, et est noté x̄.

x̄ = {y ∈ A | yRx}.

Tout élément de la classe est dit représentant de la classe. En particulier x est un représentant
de x̄.

Proposition 4.9.1. Soit R une relation d’équivalence sur un ensemble A. Alors les classes
d’équivalence des différents éléments de A forment une partition de A.
Réciproquement, si (Xi )i est une partition de A, il existe alors sur A une relation d’équivalence
dont les classes sont les éléments de la partition.

Remarque 4.9.1. Deux classes d’équivalence sont donc soit égales : x̄ = ȳ (si xRy), soit
disjointes : x̄ ∩ ȳ = ∅ (si x n’est pas en relation avec y).

Définition 4.9.3. Soit A un ensemble, et soit R une relation d’équivalence sur A. L’ensemble
de toutes les classes d’équivalence de A par R est appelé l’ensemble quotient de A par R, et est
noté A/R.

Exemple 4.9.1. Sur l’ensemble des entiers relatifs Z, on définit une relation binaire R par :

xRy ⇐⇒ x − y est un nombre pair.

Alors R est une relation d’équivalence, et les classes d’équivalences sont :


• 0̄ = {y ∈ Z | yR0} = {y ∈ Z | y = y − 0 est pair}
= {2k | k ∈ Z} = {· · · , −4, −2, 0, 2, 4, 6, 8, · · · }.
• 1̄ = {y ∈ Z | yR1} = {y ∈ Z | y − 1 est pair} = {y ∈ Z | y est impair}
= {2k + 1 | k ∈ Z} = {· · · , −5, −3, −1, 1, 3, 5, 7, 9, · · · }.
4.9. Espace vectoriel quotient 97

L’ensemble quotient est Z/R = {0̄, 1̄}, on le note aussi Z/2Z. C’est un ensemble fini à 2 éléments :
0, 1.

Exemple 4.9.2. Plus généralement, sur l’ensemble des entiers relatifs Z, pour un entier naturel
n, on définit une relation binaire R par :

xRy ⇐⇒ ∃k ∈ Z; x − y = kn.

Il s’agit d’une relation d’équivalence, elle est dite la relation de congruence modulo n : on
la note

x ≡ y [n] ⇐⇒ ∃k ∈ Z; x − y = kn.

Les classes d’équivalence pour cette relation sont :


• 0̄ = {y ∈ Z | yR0} = {y ∈ Z | ∃k ∈ Z; y = y − 0 = kn}
= {y ∈ Z | y = kn; k ∈ Z} = {· · · , −2n, −n, 0, n, 2n, · · · } = nZ,
• 1̄ = {y ∈ Z | yR1} = {y ∈ Z | ∃k ∈ Z; y − 1 = kn}
= {y ∈ Z | y = 1 + kn; k ∈ Z} = 1 + nZ,
• 2̄ = {y ∈ Z | yR2} = {y ∈ Z | ∃k ∈ Z; y − 2 = kn}
= {y ∈ Z | y = 2 + kn; k ∈ Z} = 2 + nZ,
• ···
• ···
• n−1 = {y ∈ Z | yR(n − 1)} = {y ∈ Z | ∃k ∈ Z; y − (n − 1) = kn}
= {y ∈ Z | y = n − 1 + kn; k ∈ Z} = (n − 1) + nZ.
L’ensemble quotient est noté Z/nZ = {0, 1, . . . , n − 1}. C’est un ensemble fini à n éléments :
0, 1, . . . , n − 1.

4.9.2 Quotient d’un espace vectoriel par un s.e.v

Soit E un K-espace vectoriel, et soit F un sous-espace vectoriel de E. On s’inspire de la


relation de congruence pour associer à F une relation binaire R définie sur E par :

pour tous x, y ∈ E, xRy ⇐⇒ x − y ∈ F .

Proposition 4.9.2. R est une relation d’équivalence.

Preuve.
• x − x = 0E ∈ F , car F est un sous-espace vectoriel, donc xRx. La relation est donc réflexive.
• Si x − y ∈ F , alors y − x = −(x − y) ∈ F , car F est un sous-espace vectoriel. Autrement dit la
relation xRy =⇒ yRx. Donc la relation est bien symétrique.
• Si x − y et y − z ∈ F , alors leur somme x − z appartient aussi à F (car F est un sous-
espace vectoriel). Autrement dit les relations xRy et yRz implique que xRz. La relation est donc
transitive.
D’où le résultat.
98 Chapitre 4. Espaces vectoriels

Par suite, la relation d’équivalence R donne lieu à des classes d’équivalence x̄, où x ∈ E, et à un
ensemble quotient qu’on note E/F au lieu de E/R,

E/F = {x̄ | x ∈ E}.

Remarque 4.9.2. x̄ est, par définition, l’ensemble des vecteurs y ∈ E tels que yRx, c’est-à-dire
l’ensemble des vecteurs y ∈ E tels que y − x ∈ F . Autrement dit c’est l’ensemble des vecteurs de
la forme x + f avec f ∈ F :
x̄ = {x + f | f ∈ F } = x + F.
Lorsque x = 0E = 0, on a :
0E = 0 = {f : f ∈ F } = F
Notons que x + F n’est pas un sous-espace vectoriel de E, mais un sous-espace affine de direction
F . Donc l’ensemble quotient E/F est formé de tous les sous-espaces affines de direction F .

Dans l’ensemble E nous avons une structure d’espace vectoriel, liée à deux opérations :
la somme et la multiplication par un scalaire. Obtient-on une telle structure dans l’ensemble
quotient ? Pour répondre à cette question, nous avons besoin de la définition suivante.

Définition 4.9.4.
1. Soit E un ensemble muni d’une loi de composition interne ∗ et d’une relation d’équivalence
R. On dit que la loi ∗ est compatible avec la relation R si pour tous x, y, x′ , et y ′ dans E
on a :
xRx′

=⇒ (x ∗ y)R(x′ ∗ y ′ )
yRy ′
2. Soit E un ensemble muni d’une loi de composition externe “.” de domaine d’opération K et
d’une relation d’équivalence R. On dit que la loi “.” est compatible avec la relation R si
pour tous x, y dans E et pour tout α ∈ K on a :

xRy =⇒ (α.x)R(α.y)

Exemple 4.9.3. Soient (E, +, .) un K-espace vectoriel et F un s.e.v de E. La relation d’équiva-


lence

pour tous x, y ∈ E, xRy ⇐⇒ x − y ∈ F

est compatible avec les lois de l’espace de E. En effet,


1. R est compatible avec l’addition. Si x, y, x′ , y ′ ∈ E avec xRx′ et yRy ′ , alors x − x′ ∈ F et
y − y ′ ∈ F . Donc (x + y) − (x′ + y ′ ) = (x − x′ ) + (y − y ′ ) ∈ F . D’où (x + y)R(x′ + y ′ ).
2. R est compatible avec le produit par un scalaire. Si x, x′ sont équivalents et α ∈ K, alors
x − x′ ∈ F . Donc α.x − α.x′ = α. (x − x′ ) ∈ F . D’où α.xRα.x′ .

Proposition 4.9.3. Soit E un ensemble muni d’une loi de composition interne ∗ et d’une loi
de composition externe “.” de domaine d’opération K, qui sont compatibles avec une relation
d’équivalence R définie sur E. On peut définir sur E/F une loi de composition interne et une
loi de composition externe (dites lois quotient) en posant pour tous x et y dans E et pour tout
α∈K:
x̄ ∗ ȳ = x ∗ y et α.x̄ = αx·
4.9. Espace vectoriel quotient 99

Preuve. Il s’agit de montrer que les définitions ne dépendent pas du choix des représentants.
• La loi interne sur le quotient E/F est définie de la manière suivante : soient C1 et C2 deux
classes d’équivalence, c’est-à-dire deux éléments de E/F ; on choisit un représentant dans chaque
classe en prenant par exemple x ∈ C1 et y ∈ C2 donc C1 = x̄ et C2 = ȳ ; on pose alors :

C1 ∗ C2 = x ∗ y

Il faut montrer donc que si on change de représentants, le résultat ne change pas. Soient x′ ∈ C1
et y ′ ∈ C2 deux autres représentants, alors xRx′ et yRy ′ ; comme la loi est compatible avec la
relation d’équivalence, on déduit que x ∗ yRx′ ∗ y ′ , c’est-à-dire x ∗ y = x′ ∗ y ′ .
• De la même manière on montre que la loi externe sur le quotient est bien définie : si on change
de représentant, le résultat ne change pas.

4.9.3 Espace vectoriel quotient

Soit E un espace vectoriel, F un sous-espace vectoriel de E et E/F l’espace quotient, E/F =


{x + F | x ∈ E}. Nous savons que la relation d’équivalence définie sur E par :

xRy ⇐⇒ x−y ∈F

est compatible avec les lois de E. Par conséquent les lois de E "passent an quotient". On pose
pour tous x et y dans E et pour tout α ∈ K :
x̄ + ȳ = x + y
α.x̄ = αx
Ceci veut dire :
(x + F ) + (y + F ) = (x + y) + F
α.(x + F ) = αx + F
Remarquez qu’il s’agit d’égalités entre des sous-ensembles de E.
Théorème 4.9.1. E/F muni des lois quotient est un K-espace vectoriel, on l’appelle espace
quotient, ou quotient de E par F .

Preuve. La démonstration est simple. Notons que l’élément neutre est 0E/F = 0 = F et −x̄ =
−x.

Exemple 4.9.4. Dans E = R2 on considère le sous-espace vectoriel

F = (x, y) ∈ R2 : y = x = Vect((1, 1))




On peut interpréter E comme le plan. Alors F est la première bissectrice (la droite d’équation
y = x ). Pour tout "point du plan" p = (x0 , y0 ) ∈ E, on a

p̄ = {p + f : f ∈ F } = {(x0 + α, y0 + α) : α ∈ R} .

En posant, dans la formule précédente, x = x0 + α et y = y0 + α, on obtient que p̄ est la


droite d’équation y = x + (y0 − x0 ) ; c’est la droite parallèle à F passant par p. Dans cet exemple,
l’espace quotient E/F est l’ensemble des droites du plan parallèles à F .
100 Chapitre 4. Espaces vectoriels

Théorème 4.9.2. Si l’espace vectoriel E est de dimension finie, alors l’espace quotient E/F est
de dimension finie et on a :

dim (E/F ) = dim(E) − dim(F )·

Preuve. Admis.

4.10 Exercices
Exercice 4.1. On définit sur R∗+ , l’ensemble des nombres réels strictement positifs, deux lois
“ ⊕ ” et “.” de la manière suivante : pour tous x, y, ∈ R∗+ et λ ∈ R on pose x ⊕ y = xy et
λ.x = xλ . Montrer que le triplet (R∗+ , ⊕, .) est un R-espace vectoriel.

Exercice 4.2. Soit un réel a, considérons E l’ensemble des fonctions numériques définies sur R
par f (0) = a. Donner une condition nécessaire et suffisante portant sur a pour que E soit un
R-espace vectoriel.

Exercice 4.3. Considérons l’espace vectoriel E = R3 ou R2 . Soient les sous-ensembles suivants


de E :
A = {(x+y, x−y, 2y)| x, y ∈ R}, B = {(x, y, z) ∈ R3 | x−y +z = 0}, C = {(x, y) ∈ R2 | 2x+3y =
1},
D = {(x, y, z) ∈ R3 | x − y + 2z = x + y = 0} et F = {(x, y) ∈ E | (x − y)2 = 2x + y}.
Ces ensembles sont-ils des s.e.v de E ? Si oui donner leurs générateurs en les écrivant avec la
notion Vect.

Exercice 4.4. On considère, dans E = R3 , les vecteurs : v1 = (1, 0, 0), v2 = (0, 1, 0) et v3 =


(1, 1, 1). Soit F le s.e.v engendré par {v1 , v2 } et soit G celui engendré par {v3 }. Montrer que
F ⊕ G = E.

Exercice 4.5. Montrer que les deux vecteurs u = (1, −1) et v = (1, 1) engendrent le R-e.v. R2 .
La famille {u, v} est-elle libre ? Justifier. Exprimer le vecteur w = (−3, −7) comme combinaison
linéaire de u et v.

Exercice 4.6. Soient les vecteurs v1 = (−1, 2, 1), v2 = (2, 3, −3) et v3 = (−3, −1, m), où m est
un réel.
1. Pour quelle condition sur m le vecteur v3 est-il combinaison linéaire de v1 et v2 ?
2. On suppose que cette condition n’est pas vérifiée. Montrer alors que tout vecteur de R3 est
combinaison linéaire de v1 , v2 et v3 .

Exercice 4.7. Montrer que les familles de polynômes suivantes sont des bases des espaces
indiqués.

1. Dans R4 [X], la famille 1, X − 1, (X − 1)2 , (X − 1)3 , (X − 1)4 . Déterminer l’écriture d’un
polynôme P ∈ R4 [X] dans cette base en fonction des valeurs de P et de ses dérivées successives
en 1.

2. Dans R2 [X], la famille X, X(X + 1), (X + 1)2 . Déterminer l’écriture des polynômes 1, X, X 2
dans cette base, puis l’écriture d’un polynôme quelconque a + bX + cX 2 .
4.10. Exercices 101

Exercice 4.8. On considère dans R3 [X], l’espace des polynômes de degré ≤ 3, la famille des
polynômes A = {P0 , P1 , P2 }, où P0 (X) = 1, P1 (X) = 1 + X, P2 (X) = 1 + X 2 .
1. Montrer que la famille A est libre.
2. Soit le polynôme P3 (X) = 1 + aX 3 , où a ∈ R.
i. Donner le rang de la famille {P0 , P1 , P2 , P3 } selon les valeurs de a.
ii. Completer A en une base de R3 [X].
iii. Soit F le sous-espace vectoriel engendré par A. Déduire un supplémentaire direct de F
dans R3 [X].
Exercice 4.9. On considère dans R4 les vecteurs u1 = (1, 0, 0, 0), u2 = (1, 1, 0, 0) et u3 =
(1, 0, 1, 0).
1. Montrer que la famille {u1 , u2 , u3 } est libre dans R4 .
2. Soit le vecteur u4 = (1, 0, a, b), où a et b sont dans R. Déterminer les valeurs de a et b pour
que le rang de la famille {u1 , u2 , u3 , u4 } soit égal à 4.
3. Soit F le sous-espace vectoriel de R4 engendré par u1 et u2 . Donner un supplémentaire direct
de F dans R4 .
Exercice 4.10. Soit F le sous-espace vectoriel de R3 engendré par les deux vecteurs u1 = (1, 1, 0)
et u2 = (0, 1, 1), et soit G le sous-espace vectoriel de R3 engendré par v = (1, 1, 1). Déterminer
F + G et F ∩ G.
Exercice 4.11. On considère, dans R4 , les vecteurs : v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v3 =
(2, 1, 1, 1), v4 = (−1, 0, −1, 2), v5 = (2, 3, 0, 1).
1. Soit F le sous-espace vectoriel de R4 engendré par {v1 , v2 , v3 } et G celui engendré par {v4 , v5 }.
Calculer les dimensions respectives de F , G, F ∩ G, F + G.
2. Déduire le rang de la famille {v1 , v2 , v3 , v4 , v5 }. Assurez-vous de ce résultat par la méthode du
pivot de Gauss.
Exercice 4.12. Déterminer le rang de la famille F dans les cas suivants.
1. Soit E = R3 considéré comme R-espace vectoriel. Soient les vecteurs u = (1, 1, 1), v =
(2, 3, −1) et w = (4, 5, 1). F = {u, v, w}.
2. Dans R5 , F = {u1 = (2, 0, 0, 0, 2), u2 = (1, 3, 0, 0, 0), u3 = (4, 5, 6, 0, 0), u4 = (8, 1, 0, 2, 0)}
(rg(F ) = 4).
3. On considère, dans R3 , la famille F = {u = (1, 2, 1), v = (1, 4, a), w = (−1, 0, −2)}. Donner le
rang de F en fonction de a. Dire quand F est une base de R3 .
Exercice 4.13. Notons par Sn (R) et An (R) les ensembles des matrices respectivement symé-
triques et antisymétriques carrées d’ordre n.
1. Montrer que Sn (R) et An (R) sont des sous-espaces vectoriels de Mn (K).
2. Déterminer une base et la dimension de Sn (R) et de An (R) pour n = 3.
3. Montrer que Mn (R) = Sn (R) ⊕ An (R).
Exercice 4.14. Soit Mn,m (C) l’espace des matrices à coefficients complexes, où n et m sont
dans N∗ . Soit A = (aij ) ∈ Mn,m (C). On appelle la matrice conjuguée de A, et on note A, la
matrice des conjugués des coefficients de A, i.e. A = (aij ). On appelle la matrice adjointe (aussi
appelée la matrice transconjuguée) de A, habituellement notée A∗ , la matrice transposée de la
matrice A, i.e. A∗ = t (A) = t A. Dans le cas particulier où A est à coefficients réels, sa matrice
adjointe est donc simplement sa matrice transposée.
102 Chapitre 4. Espaces vectoriels

1. Soient A, B ∈ Mn,m (C).


i. Montrer que (A∗ )∗ = A et (AB)∗ = B ∗ A∗ .
ii. Si A est une matrice carrée, montrer que det(A∗ ) = det(A).
     
0 1 0 −i 1 0
2. Considérons dans M2 (C) les matrices σ1 = , σ2 = et σ3 = .
1 0 i 0 0 −1
i. Montrer que la famille {σ1 , σ2 , σ3 } est libre dans M2 (C).
ii. Montrer que σk∗ = σk pour tout k = 1, 2, 3.
iii. Vérifier que σ1 σ2 σ3 = iI2 .
  
a b
iv. Montrer que F = ∈ M2 (C) est un s.e.v de M2 (C) de base {σ1 , σ2 , σ3 }.
c −a
CHAPITRE 5

APPLICATIONS LINÉAIRES

Dans ce chapitre nous introduisons une notion permettant à la structure d’espace vectoriel de
devenir très intéressante, il s’agit de la notion d’application linéaire. Elles sont des applications
(relations) entre espaces vectoriels qui conservent la structure d’espace vectoriel. Nous nous
contentons de donner les définitions et les résultats élémentaires de base. Nous commençons par
définir les applications.

5.1 Rappel d’application


Définition 5.1.1. Soient E et F deux ensembles non vides. Une application f de E dans F est
une relation qui relie chaque élément x de E à un et un seul élément y de F .

f : E −→ F
x 7−→ f (x) = y

y est dit image de x par f et x est dit antécédent de y, et on a

∀x ∈ E, ∃!y ∈ F, f (x) = y.

Exemple 5.1.1. f : N −→ R
2n − 3
n 7−→ f (n) =
n+2
Définition 5.1.2. Soit une application f d’un ensemble E dans un ensemble F .
1. f est dite injective si ∀(x, x′ ) ∈ E 2 , f (x) = f (x′ ) =⇒ x = x′ , ce qui est équivaut à dire que f
est injective si ∀(x, x′ ) ∈ E 2 , x ̸= x′ =⇒ f (x) ̸= f (x′ ).
2. f est dite surjective si ∀y ∈ F , ∃x ∈ E, f (x) = y.
3. f est dite bijective si elle est injective et surjective.

103
104 Chapitre 5. Applications linéaires

Exemples 5.1.1.
1. L’application f : N −→ Z est injective, mais elle n’est pas surjective.
n 7−→ f (n) = 2n − 3
2. L’application f : R −→ R∗+ est bijective.
x 7−→ f (x) = ex

5.2 Applications linéaires

5.2.1 Définitions et Propriétés

Soient (E, +, .) et (F, +, .) deux K-espaces vectoriels.

Définition 5.2.1. Une application f : E −→ F est dite linéaire si elle vérifie les deux propriétés
suivantes :
1. ∀(x, y) ∈ E 2 , f (x + y) = f (x) + f (y).
2. ∀x ∈ E, ∀α ∈ K, f (αx) = αf (x).
L’ensemble des applications linéaires de E dans F sera noté L(E, F ).

Exemples 5.2.1.
1. L’application de f : R3 −→ R2 telle que f (x, y, z) = (x, y + 2z) est linéaire. En effet, soient
X = (x, y, z) et Y = (x′ , y ′ , z ′ ) dans R3 , et soit α ∈ R, alors on a :

f (X + Y ) = f ((x, y, z) + (x′ , y ′ , z ′ ))
= f (x + x′ , y + y ′ , z + z ′ )
= (x + x′ , y + y ′ + 2(z + z ′ ))
= (x + x′ , y + 2z + y ′ + 2z ′ )
= (x, y + 2z) + (x′ , y ′ + 2z ′ )
= f (X) + f (Y ).

f (αX) = f (α(x, y, z))
= f (αx, αy, αz)
= (αx, αy + 2αz)
= α(x, y + 2z)
= αf (X).

2. L’application g : R2 −→ R telle que g(x, y) = xy, ∀(x, y) ∈ R2 , n’est pas linéaire. En effet, si
on prend par exemple X = (2, −7) et α = 6, on trouve :

g(αX) = g(6(2, −7)) = g(12, −42) = 12 × (−42) = −504,

et
αg(X) = 6 × g(2, −7) = 6 × 2.(−7) = 6 × (−14) = −84.

Donc g(αX) ̸= αg(X).


5.2. Applications linéaires 105

3. Soient les scalaires a1 , a2 , · · · , an dans K. L’application f : Kn −→ K qui à X = (x1 , x2 , · · · , xn ) ∈


Kn associe
i=n
X
f (X) = f (x1 , x2 , · · · , xn ) = ai xi ,
i=1

est une application linéaire.


4. Pour une matrice fixée A ∈ Mm,n (K), l’application f : Kn −→ Km définie par f (X) = AX
est une application linéaire.
5. L’application f de E = Rn [X] dans lui même définie par f (P ) = P ′ , où P ′ est la dérivée de
P , est une application linéaire. Rappelons que P ′ = 0 ou deg(P ′ ) = deg(P ) − 1 ≤ n.
6. L’application suivante qui à une matrice A lui associe sa transposée est une application linéaire.

T : Mm,n (K) −→ Mn,m (K)


A 7−→ t A

En effet, il suffit d’appliquer les assertions 1 et 2 du Théorème 1.3.2.


7. L’application suivante qui à une matrice A carrée d’ordre n lui associe sa trace est une appli-
cation linéaire.
tr : Mn (K) −→ Mn (K)
A 7−→ tr(A)
En effet, il suffit d’appliquer les assertions 1 et 2 du Théorème 2.1.1.

Remarques 5.2.1. Soient E et F deux K-espaces vectoriels.


1. L’application linéaire nulle, notée 0L(E,F ) , est l’application f : E −→ F telle que f (u) = 0F
pour tout u ∈ E.
2. L’application identité, notée idE , est l’application f : E −→ E, telle que f (u) = u pour tout
u ∈ E.
3. Une application linéaire de E dans F est aussi appelée morphisme (ou homomorphisme)
d’espaces vectoriels.
4. Une application linéaire de E dans F qui est bijective est dite un isomorphisme de E dans
F , dans ce cas on note E ≃ F et on dit que E et F sont isomorphes.
L’application T : Mm,n (K) −→ Mn,m (K) est un isomorphisme d’espaces vectoriels. En
A 7−→ t A
effet, T est injective et surjective.
5. Une application linéaire de E dans E (i.e., E = F ) est dite un endomorphisme de E, et
leur ensemble est noté L(E).
6. Un endomorphisme de E qui est bijectif est dit un automorphisme.

Exemple 5.2.1. Soit E un K-e.v. de dimension n et B = {e1 , e2 , · · · , en } une base de E.


L’application
f: E −→ Kn
Pi=n
X = i=1 ai ei 7−→ f (X) = (a1 , a2 , · · · , an ),
est un isomorphisme, c-à-d, E ≃ Kn .

Proposition 5.2.1. Soient E et F deux K-espaces vectoriels. Si f est une application linéaire
de E dans F , alors : f (0E ) = 0F et f (−u) = −f (u), pour tout u ∈ E.
106 Chapitre 5. Applications linéaires

Preuve. Comme f est une application linéaire, alors

f (0) = f (0 + 0) = f (0) + f (0), donc f (0) = f (0) − f (0) = 0F ;

ceci montre la première assertion. Pour la deuxième, il suffit de prendre dans la définition α =
−1.

Pour démontrer qu’une application est linéaire, on peut aussi utiliser la proposition suivante
dite la caractérisation d’une application linéaire.

Proposition 5.2.2. Soient E et F deux K-espaces vectoriels et f une application de E dans


F . L’application f est linéaire si, et seulement si, pour tous vecteurs u et v de E et pour tous
scalaires λ et µ de K,
f (λu + µv) = λf (u) + µf (v).
Plus généralement, une application linéaire f préserve les combinaisons linéaires : pour tous
λ1 , . . . , λn ∈ K et tous v1 , . . . , vn ∈ E, on a

f (λ1 v1 + · · · + λn vn ) = λ1 f (v1 ) + · · · + λn f (vn ).

Preuve. Supposons que f est linéaire, alors, par définition, pour tous u et v dans E et pour tous
λ et µ dans K on a f (λu + µv) = f (λu) + f (µv) = λf (u) + µf (v).
Réciproquement, supposons que f (λu + µv) = λf (u) + µf (v) pour tous u et v de E et pour
tous λ et µ de K. Alors en prenant λ = µ = 1 on obtient le premier point de la définition, et en
prenant µ = 0 on obtient le deuxième.

5.2.2 Image d’une application linéaire

Dans toute la suite, E et F désigneront des K-espaces vectoriels et f : E −→ F une application


linéaire.

Définition 5.2.2. Soient G et H deux ensembles et f une application de G dans H. Soit A un


sous-ensemble de G. L’ensemble des images des éléments de A par f est appelé l’image directe
de A par f , et est noté f (A). C’est un sous-ensemble de H, et on a :

f (A) = f (x) | x ∈ A .

Définition 5.2.3. Soit f : E −→ F une application linéaire. f (E) l’image directe par f de E
s’appelle l’image de l’application linéaire f , et est noté Im(f ). On a :

Im(f ) = f (E) = {f (x) | x ∈ E}·

Parmi les propriétés importantes des applications linéaires, on trouve le résultat suivant qui
affirme qu’une application linéaire conserve la structure d’espace vectoriel.

Théorème 5.2.1. Soit f : E −→ F une application linéaire. Si E ′ est un sous-espace vectoriel


de E, alors f (E ′ ) est un sous-espace vectoriel de F . En particulier, Im(f ) = f (E) est un sous-
espace vectoriel de F .
5.2. Applications linéaires 107

Preuve.
• Tout d’abord, comme 0E ∈ E ′ , alors 0F = f (0E ) ∈ f (E ′ ), donc f (E ′ ) est non vide.
• Ensuite, on montre que pour tout couple (y1 , y2 ) d’éléments de f (E ′ ) et pour tous scalaires λ,
µ, l’élément λy1 + µy2 appartient à f (E ′ ). En effet :

y1 ∈ f (E ′ ) ⇐⇒ ∃x1 ∈ E ′ , f (x1 ) = y1
y2 ∈ f (E ′ ) ⇐⇒ ∃x2 ∈ E ′ , f (x2 ) = y2 .

Comme f est linéaire, alors

λy1 + µy2 = λf (x1 ) + µf (x2 ) = f (λx1 + µx2 ).

Or λx1 + µx2 est un élément de E ′ , car E ′ est un sous-espace vectoriel de E, donc λy1 + µy2 est
bien un élément de f (E ′ ). D’où le résultat cherché.

Remarque 5.2.1. Par définition de l’image directe f (E), on a : f est surjective si, et seulement
si, Im(f ) = F . En effet,

f est surjective ⇐⇒ ∀y ∈ F, ∃x ∈ E; f (x) = y


⇐⇒ f (E) = F.

5.2.3 Noyau d’une application linéaire

Définition 5.2.4. Soient E et F deux ensembles et f une application de E dans F . Soit B un


sous-ensemble de F . L’ensemble des éléments de E dont les images par f sont dans B est appelé
l’image réciproque de B par f , et est noté f −1 (B). C’est un sous-ensemble de E, et on a :

f −1 (B) = x ∈ E | f (x) ∈ B .


Définition 5.2.5 (Définition du noyau). Soient E et F deux K-espaces vectoriels et f une


application linéaire de E dans F . Le noyau de f , noté ker(f ), est l’image réciproque du vecteur
nul de l’espace d’arrivée F :
ker(f ) = f −1 {0F }.
Autrement dit, le noyau de f est l’ensemble des éléments de E dont l’image par f est 0F :

ker(f ) = x ∈ E | f (x) = 0F .

Proposition 5.2.3. Soient E et F deux K-espaces vectoriels et f une application linéaire de E


dans F . Le noyau de f est un sous-espace vectoriel de E.

Preuve. ker(f ) est non vide car f (0E ) = 0F donc 0E ∈ ker(f ).


Soient x1 , x2 ∈ ker(f ) et λ, µ ∈ K. Montrons que λx1 + µx2 est un élément de ker(f ). On a, en
utilisant la linéarité de f et le fait que x1 et x2 sont des éléments de ker(f ) :
f (λx1 + µx2 ) = λf (x1 ) + µf (x2 ) = λ0F + µ0F = 0F .

Exemple 5.2.2. Soit A ∈ M  m,n (K). Soitf : Kn −→ Km l’application linéaire définie par
f (X) = AX. Alors ker(f ) = X ∈ R | AX = 0 , c’est donc l’ensemble des X ∈ Kn solutions
n

du système linéaire homogène AX = 0.


Remarque 5.2.2. Le noyau fournit une nouvelle façon d’obtenir des sous-espaces vectoriels.
108 Chapitre 5. Applications linéaires

Théorème 5.2.2 (Caractérisation d’une applications linéaire injective). Soient E et F


 et f une application linéaire de E dans F . Alors f est injective si et
deux K-espaces vectoriels
seulement si ker(f ) = 0E .
En particulier, pour montrer que f est injective, il suffit de vérifier que si f (x) = 0F alors
x = 0E .

Preuve. Supposons que f est injective. Soit x un élément de ker(f ), alors f (x) = 0F . Or, comme
f est linéaire, on a aussi f (0E ) = 0F . Donc l’égalité f (x) = f (0E ) implique que x = 0E car f est
injective. Donc ker(f ) = {0E }.
Réciproquement, supposons maintenant que ker(f ) = {0E }. Soient x et y deux éléments de E
tels que f (x) = f (y), donc f (x) − f (y) = 0F . Comme f est linéaire, on en déduit f (x − y) = 0F ,
c’est-à-dire x − y est un élément de ker(f ). Donc x − y = 0E , soit x = y.

Exemple 5.2.3. Considérons, pour n ≥ 1, l’application linéaire

f : Rn [X] −→ Rn+1 [X]


P (X) 7−→ X · P (X).

Étudions le noyau de f . Soit P (X) = an X n + · · · + a1 X + a0 ∈ Rn [X] tel que P (X) ∈ ker(f ),


alors f (P ) = X · P (X) = 0. Donc

an X n+1 + · · · + a1 X 2 + a0 X = 0.

Ainsi, ai = 0 pour tout i ∈ {0, . . . , n} et donc P (X) = 0. Le noyau de f est donc nul : ker(f ) =
{0}.
Notons que l’image de f est l’espace

Im(f ) = {f (P ) | P ∈ Rn [X]}
= {X · P (X) | P ∈ Rn [X]}
= {an X n+1 + · · · + a1 X 2 + a0 X | ai ∈ R, ∀ i}.

D’où Im(f ) est l’ensemble des polynômes de Rn+1 [X] sans terme constant c’est-à-dire :

Im(f ) = V ect X, X 2 , . . . , X n+1 ̸= Rn+1 [X].




Conclusion : f est injective, mais n’est pas surjective.

5.2.4 Rang d’une application linéaire

Définition 5.2.6. Soient E et F deux K-espaces vectoriels et f ∈ L(E, F ) une application


linéaire. Alors le rang de f , noté rg(f ), est la dimension de Im(f ).

Proposition 5.2.4. Soient E et F deux K-espaces vectoriels et f ∈ L(E, F ) une application


linéaire. Si {e1 , e2 , · · · , en } est une base de E, alors

Im(f ) = ⟨f (e1 ), f (e2 ), · · · , f (en )⟩ = Vect{f (e1 ), f (e2 ), · · · , f (en )}.

Inversement, f est bien définie par la donnée de la famille {f (e1 ), f (e2 ), · · · , f (en )}.
5.2. Applications linéaires 109

Pn
Preuve. Soit x ∈ E, alors x = i=1 ai ei , donc par linéarité de f on déduit que

Xn n
X
f (x) = f ( ai ei ) = ai f (ei ).
i=1 i=1

D’où
f (x) ∈ ⟨f (e1 ), f (e2 ), · · · , f (en )⟩.
Par suite
Im(f ) ⊂ Vect{f (e1 ), f (e2 ), · · · , f (en )}.

Inversement, soit y ∈ Vect{f (e1 ), f (e2 ), · · · , f (en )}, alors il existe des scalaires ai ∈ K tels
que :
Xn X n
y= ai f (ei ) = f ( ai ei ) = f (x),
i=1 i=1
Pn
où x = i=1 ai ei , ceci implique que Vect{f (e1 ), f (e2 ), · · · , f (en )} ⊂ Im(f ). D’où le résultat.

Corollaire 5.2.1. Soient E et F deux K-espaces vectoriels et f ∈ L(E, F ) une application


linéaire. Si {e1 , e2 , · · · , en } est une base de E, alors

rg(f ) = rg(f (e1 ), f (e2 ), · · · , f (en ))·

Le théorème suivant donne une relation entre la dimension du noyau et la dimension de


l’image de f .

Théorème 5.2.3 (Théorème du rang). Soit f : E −→ F une application linéaire entre deux
K-espaces vectoriels, E étant de dimension finie n. Alors Im(f ) est de dimension finie et on a :

dim(E) = dim(ker(f )) + rg(f ).

Preuve. Comme E est de dimension finie n, E admet une base B = {e1 , · · · , en }. Or ker(f ) est
un sous-espace vectoriel de E, ker(f ) a donc une base K = {v1 , · · · , vp } (avec bien sûr p ≤ n).
D’autre part, B ′ = {f (e1 ), · · · , f (en )} est une famille génératrice finie de Im(f ). Donc Im(f )
est de dimension finie, et on peut extraire de B ′ une sous-famille I qui est une base de Im(f ) ;
disons qu’il s’agit des q premiers vecteurs de B ′ (avec q ≤ n), et posons wi = f (ei ) ; ainsi on a
I = {w1 , · · · , wq }.
Si nous arrivons à montrer que la famille F = {v1 , · · · , vp , e1 , · · · , eq } est une base de E, le
problème sera résolu, ainsi on aura

n = dim(E) = p + q = dim(ker(f )) + rg(f ),

et ce qu’on cherche à prouver.


Montrons d’abord que la famille F est libre. Soit a1 e1 + · · · + aq eq + b1 v1 + · · · + bp vp = 0 ;
nous devons donc montrer que tous les coefficients sont nuls.

f (a1 e1 + · · · + aq eq + b1 v1 + · · · + bp vp ) = f (0) = 0,

par linéarité de f et en tenant compte que les vi ∈ ker(f ) on obtient


110 Chapitre 5. Applications linéaires

f (a1 e1 + · · · + aq eq + b1 v1 + · · · + bp vp ) = a1 f (e1 ) + · · · + aq f (eq ) + b1 f (v1 ) + · · · + bp f (vp )


= a1 w1 + · · · + aq wq + b1 .0 + · · · + bp .0
= a1 w1 + · · · + aq wq .

Donc on a une combinaison linéaire nulle des vecteurs de la base I, donc tous les coefficients
ai = 0 sont nuls. Alors la relation du départ devient

b1 v1 + · · · + bp vp = 0;

mais cella là aussi est une combinaison linéaire nulle des vecteurs de la base K de ker(f ), d’où
tous les coefficients bi = 0 sont nuls. Par suite la famille F est libre.
Montrons enfin que la famille F est génératrice de E. Soit un vecteur quelconque u ∈ E ; on
doit montrer que u est une combinaison linéaire des vecteurs de F. Comme I engendre Im(f ),
alors
f (u) = a1 w1 + · · · + aq wq = a1 f (e1 ) + · · · + aq f (eq ) = f (a1 e1 + · · · + aq eq ).
D’où f (a1 e1 + · · · + aq eq ) − f (u) = 0 c’est-à-dire f (a1 e1 + · · · + aq eq − u) = 0, et donc

a1 e1 + · · · + aq eq − u ∈ ker(f ).

D’autre part, on sait que la famille K engendre ker(f ), alors on peut écrire que

a1 e1 + · · · + aq eq − u = b1 v1 + · · · + bp vp ,

et par suite u = a1 e1 + · · · + aq eq − b1 v1 − · · · − bp vp . Ce qui prouve le résultat voulu.

Exemple 5.2.4. Soit l’application linéaire

f : R3 −→ R2
(x, y, z) 7−→ (x − y, x − z).

Calculer le rang de f .
Solution.
On a ker(f ) = {(x, y, z) ∈ R3 | f (x, y, z) = 0}
= {(x, y, z) ∈ R3 | x − y = x − z = 0}
= {(x, y, z) ∈ R3 | x = y = z}
= {x(1, 1, 1) ∈ R3 | x ∈ R}.
Donc ker(f ) = Vect(1, 1, 1), ainsi dim(ker(f )) = 1. D’où le théorème du rang nous donne rg(f ) =
dim(R3 ) − dim(ker(f )) = 3 − 1 = 2.

Le résultat suivant est simple à prouver.

Corollaire 5.2.2.
1. rg(f ) ≤ inf (dim(E), dim(F )).
2. rg(f ) = dim(E) ⇐⇒ f est injective.
3. rg(f ) = dim(F ) ⇐⇒ f est surjective.

Preuve.
5.3. L’espace vectoriel L(E, F ) 111

1. Pour le premier point, on sait que rg(f ) = dim(Im(f )), donc rg(f ) ≤ dim(F ) puisque Im(f ) ⊂
F . De plus par le Théorème du rang on a : dim(E) = dim(ker(f )) + rg(f ), alors rg(f ) =
dim(E) − dim(ker(f )) ≤ dim(E), et le résultat en découle.
2. On sait que dim(E) = dim(ker(f )) + rg(f ), alors
rg(f ) = dim(E) ⇐⇒ dim(ker(f )) = 0 ⇐⇒ ker(f ) = {0} ⇐⇒ f est injective.
3. Pour le troisième point, on sait que rg(f ) = dim(Im(f )) et Im(f ) ⊂ F , alors
rg(f ) = dim(F ) ⇐⇒ Im(f ) = F ⇐⇒ f est surjective.

Corollaire 5.2.3. Soit f ∈ L (E, F ), où E, F sont deux espaces vectoriels de même dimension
finie n (en particulier, par exemple, si f ∈ L(E), avec E de dimension finie n). Alors les
propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
4. rg(f ) = n.

Preuve. Il suffit de montrer que 1. est équivalent à 2. Nous savons que f est injective si et
seulement si ker(f ) = {0}, et comme dim(E) = rg f + dim(ker f ), alors f est injective si et
seulement si dim E = rg(f ), c’est-à-dire dim(E) = dim(Im f ). Or, par hypothèse, dim(E) =
dim(F ), donc f est injective si et seulement si dim(Im(f )) = dim(F ). Puisque Im f ⊂ F cela
équivaut à Im f = F c’est-à-dire f surjective.

Exercice. Soit E et F deux K-e.v. de dimension finie. Montrer que E et F sont isomorphes si
et seulement si dim(E) = dim(F ). E et F sont dits isomorphes s’il existe un isomorphisme de E
dans F .

5.3 L’espace vectoriel L(E, F )


Soient E et F deux K-espaces vectoriels. Remarquons tout d’abord que, l’ensemble des ap-
plications de E dans F , noté F(E, F ), peut être muni d’une loi de composition interne “+” et
d’une loi de composition externe “.” définies de la façon suivante :
f, g étant deux éléments de F(E, F ), et λ étant un élément de K, pour tout vecteur u de E, on
pose
(f + g)(u) = f (u) + g(u) et (λ · f )(u) = λf (u).
L’ensemble F(E, F ) menu de ces deux lois est un K-espaces vectoriel (vérifier le à titre d’exercice).
Pour montrer que (L(E, F ), +, .) est un K-e.v., il suffit de montrer que (L(E, F ), +, .) est un s.e.v
de F(E, F ).
Proposition 5.3.1. L’ensemble, L(E, F ), des applications linéaires entre deux K-espaces vec-
toriels E et F , muni des deux lois définies précédemment, est un K-espace vectoriel.

Preuve. L’ensemble L(E, F ) est inclus dans le K-espace vectoriel F(E, F ). Pour montrer que
L(E, F ) est un K-espace vectoriel, il suffit donc de montrer que L(E, F ) est un sous-espace
vectoriel de F(E, F ).
112 Chapitre 5. Applications linéaires

• Tout d’abord L(E, F ) est non vide puisque l’application nulle lui appartient.
• Soient f, g ∈ L(E, F ), montrons que f + g est linéaire. Pour tous vecteurs u et v de E et pour
tous scalaires α, β de K on a :

(f + g)(αu + βv) = f (αu + βv) + g(αu + βv) (définition de f + g)


= αf (u) + βf (v) + αg(u) + βg(v) (linéarité de f et de g)
= α (f (u) + g(u)) + β (f (v) + g(v)) (propriétés des lois de F )
= α(f + g)(u) + β(f + g)(v) (définition de f + g)

f + g est donc linéaire et L(E, F ) est stable pour l’addition.


• Soient f ∈ L(E, F ), λ ∈ K, montrons que λf est linéaire. Pour tous vecteurs u et v de E et
pour tous scalaires α, β de K on a :

(λf )(αu + βv) = λf (αu + βv) (définition de λf )


= λ (αf (u) + βf (v)) (linéarité de f )
= αλf (u) + βλf (v) (propriétés des lois de F )
= α(λf )(u) + β(λf )(v) (définition de λf )

λf est donc linéaire et L(E, F ) est stable pour la loi externe.

L(E, F ) est donc un sous-espace vectoriel de F(E, F ). Par suite L(E, F ) est un espace vectoriel
sur K.

En particulier, L(E) est un espace vectoriel sur K (prendre dans la Proposition 5.3.1 précé-
dente E = F ).

5.4 Composition et inverse d’applications linéaires


Proposition 5.4.1 (Composée de deux applications linéaires). Soient E, F, G trois K-
espaces vectoriels, f une application linéaire de E dans F et g une application linéaire de F dans
G. Alors g ◦ f est une application linéaire de E dans G.

Preuve. Soient u et v deux vecteurs de E, et α et β deux éléments de K. Alors :

(g ◦ f )(αu + βv) = g (f (αu + βv)) (définition de g ◦ f )


= g (αf (u) + βf (v)) (linéarité de f )
= αg (f (u)) + βg (f (v)) (linéarité de g)
= α(g ◦ f )(u) + β(g ◦ f )(v) (définition de g ◦ f )

Remarque 5.4.1. En particulier, le composé de deux endomorphismes de E est un endomor-


phisme de E. Autrement dit, la loi “ ◦ ” est une loi de composition interne sur L(E).

Lemme 5.4.1. Si f est une application bijective d’un ensemble A sur un ensemble B, alors f −1
est une application bijective de B sur A.

Preuve. La preuve est laissée au lecteur.


5.4. Composition et inverse d’applications linéaires 113

La proposition suivante traite la linéarité de l’application réciproque d’un isomor-


phisme.

Proposition 5.4.2. Soient E et F deux K-espaces vectoriels. Si f est un isomorphisme de E


sur F , alors f −1 est un isomorphisme de F sur E.

Preuve. Comme f est une application bijective de E sur F , alors par le Lemme 5.4.1, f −1 est
aussi une application bijective de F sur E. Il reste donc à prouver que f −1 est linéaire.
Soient u′ et v ′ deux vecteurs de F et soient α et β deux éléments de K. Puisque f −1 est
bijective, alors il existe u, v dans E tels que f −1 (u′ ) = u et f −1 (v ′ ) = v, et donc f (u) = u′ et
f (v) = v ′ . Par la linéarité de f , nous avons donc

f −1 (αu′ + βv ′ ) = f −1 (αf (u) + βf (v)) = f −1 (f (αu + βv)) = αu + βv

car f −1 ◦ f = idE (où idE désigne l’application identité de E dans E). Ainsi

f −1 (αu′ + βv ′ ) = αf −1 (u′ ) + βf −1 (v ′ ),

et f −1 est donc bien linéaire.

Exemple 5.4.1. Soit f : R2 −→ R2


(x, y) 7−→ f (x, y) = (2x + 3y, x + y).
Il est facile de prouver que f est linéaire. En effet, pour (x, y), (x′ , y ′ ) dans R2 et a, b dans R
(R2 est un e.v. sur R), on a :

f (a(x, y) + b(x′ , y ′ )) = f (ax + bx′ , ay + by ′ )


= (2(ax + bx′ ) + 3(ay + by ′ ), ax + bx′ + ay + by ′ )
= (2ax + 3ay + 2bx′ + 3by ′ , ax + ay + bx′ + by ′ )
= (2ax + 3ay, ax + ay) + (2bx′ + 3by ′ , bx′ + by ′ )
= a (2x + 3y, x + y) + b (2x′ + 3y ′ , x′ + y ′ )
= af (x, y)) + bf (x′ , y ′ ).

Pour prouver que f est bijective, on pourrait calculer son noyau (ou son image puisque on ait
dans le cas de dimension finie). Mais ici nous allons calculer directement son inverse en résolvant
l’équation f (x, y) = (x′ , y ′ ). Cela correspond à l’équation (2x + 3y, x + y) = (x′ , y ′ ) qui est un
système linéaire à deux équations et deux inconnues.
On trouve (x, y) = (−x′ + 3y ′ , x′ − 2y ′ ). Donc f −1 (x′ , y ′ ) = (−x′ + 3y ′ , x′ − 2y ′ ), et on vérifie
aisément que f −1 est l’inverse de f , et on remarque que f −1 est une application linéaire.

Exemple 5.4.2. Plus généralement, soit f : Kn −→ Kn l’application linéaire définie par f (X) =
AX (où A est une matrice de Mn (K)). Si la matrice A est inversible, alors f −1 est une application
linéaire bijective et est définie par f −1 (X) = A−1 X.
Dans l’exemple précédent 5.4.1,
     
x 2 3 −1 3
X= A= A−1 = .
y 1 1 1 −2
114 Chapitre 5. Applications linéaires

5.5 Matrice d’une application linéaire


Il existe un lien étroit entre les matrices et les applications linéaires. À une matrice on as-
socie naturellement une application linéaire. Et réciproquement, étant donné une application
linéaire, et des bases pour les espaces vectoriels de départ et d’arrivée, on associe une matrice à
l’application linéaire.
Dans cette section, tous les espaces vectoriels sont de dimension finie.

5.5.1 Matrice associée à une application linéaire

Soient E et F deux K-espaces vectoriels de dimensions finies. Soient n la dimension de E et


B = {e1 , . . . , en } une base de E. Soient m la dimension de F et B ′ = {f1 , . . . , fm } une base de
F . Soit enfin f : E −→ F une application linéaire.
Les propriétés des applications linéaires entre deux espaces de dimension finie permettent
d’affirmer que :
• l’application linéaire f est déterminée de façon unique par l’image d’une base de E, donc par
les vecteurs f (e1 ), f (e2 ), . . . , f (en ) (voir la Proposition 5.2.4).
• pour j ∈ {1, . . . , n}, f (ej ) est un vecteur de F et s’écrit de manière unique comme combinaison
linéaire des vecteurs de la base B ′ = {f1 , . . . , fm } de F .
Il existe donc m scalaires uniques a1j , a2j , . . . , amj tels que
 
a1j
 a2j 
f (ej ) = a1j f1 + a2j f2 + · · · + amj fm = .  .
 
 .. 
amj B′

Ainsi, l’application linéaire f est entièrement déterminée par les coefficients

(aij )(i,j)∈{1,...,m}×{1,...,n} .

Il est donc naturel d’introduire la définition suivante :

Définition 5.5.1. La matrice de l’application linéaire f par rapport aux bases B et B ′ est la
matrice (aij ) ∈ Mm,n (K) dont la j-ème colonne est constituée par les coordonnées du vecteur
f (ej ) dans la base B ′ = {f1 , . . . , fm } :

f (e1 ) . . . f (ej ) ... f (en )


 
f1 a11 . . . a1j ... a1n
f2  a
 21 . . . a2j ... a2n  
..  .. .. .. .. 
.  . . . . 
fm am1 . . . amj ... amn

En termes plus simples : c’est la matrice dont les vecteurs colonnes sont les images par f des
vecteurs de la base de départ B, exprimée dans la base d’arrivée B ′ . On note cette matrice
MB,B′ (f ).
5.5. Matrice d’une application linéaire 115

Remarque 5.5.1. Notons que


1. la taille de la matrice MB,B′ (f ) dépend uniquement de la dimension de E et de celle de F .
2. les coefficients de la matrice dépendent du choix de la base B de E et de la base B ′ de F . La
matrice change en effectuant un changement de B ou B ′ ou les deux à la fois. Contrairement,
une matrice peut représenter deux applications linéaires dans des bases différentes.
3. rg(MB,B′ (f )) = rg(f ) (par définitions des rangs).
Exemple 5.5.1. Soit f : R2 → R3 ; f (x, y) = (x, 2y, x − y) une application linéaire. Il est utile
d’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être écrite comme suit :
 
  x
x
f: 7→  2y  .
y
x−y

Soient B = {e1 , e2 } la base canonique de R2 et B ′ = {f1 , f2 , f3 } la base canonique de R3 c’est-à-


dire      
    1 0 0
1 0
e1 = e2 = f1 = 0 f2 = 1 f3 = 0 .
0 1
0 0 1
Alors pour calculer la matrice de f dans les bases B et B ′ , on doit calculer les images f (e1 ), f (e2 )
dans la base B ′ . On a :
 
1
• f (e1 ) = f ((1, 0)) = (1, 0, 1) = (1, 0, 0) + (0, 0, 1) = f1 + f3 ) = 0 ,
1 B′
 
0
• f (e2 ) = f ((0, 1)) = (0, 2, −1) = (0, 2, 0)+(0, 0, −1) = 2(0, 1, 0)−(0, 0, 1) = 2f2 −f3 =  2  ,
−1 B′
d’où la matrice de f dans les bases B et B ′ est :
 
1 0
MB,B′ (f ) = 0 2 .
1 −1

Exemple 5.5.2. Soit f l’application linéaire de R3 dans R2 définie par

f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (x1 + x2 − x3 , x1 − 2x2 + 3x3 )

utiled’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être écrite comme
Il est 
x1  
x1 + x2 − x3
suit : f : x2 7→
  .
x1 − 2x2 + 3x3
x3
Soient B = {e1 , e2 , e3 } la base canonique de R3 et B ′ = {f1 , f2 } la base canonique de R2 ,
c’est-à-dire :
     
1 0 0    
1 0
e1 = 0
  e2 = 1
  e3 = 0
  f1 = f2 =
0 1
0 0 1
116 Chapitre 5. Applications linéaires

1. Calculons la matrice de f dans les bases B et B ′ , ceci revient à calculer les images f (e1 ),
f (e2 ) et f (e3 ).
• f (e1 ) = f (1, 0, 0) = (1, 1) = f1 + f2 . La première colonne de la matrice MB,B′ (f ) est
donc ( 11 ).
• De même f (e2 ) = f (0,1, 0) = (1, −2) = f1 − 2f2 . La deuxième colonne de la matrice
1
MB,B′ (f ) est donc −2 .
• Enfin f (e3 ) = f (0, 0, 1)
 = (−1, 3) = −f1 + 3f2 . La troisième colonne de la matrice
MB,B′ (f ) est donc −1 3 .
Ainsi :  
1 1 −1
MB,B′ (f ) =
1 −2 3
2. On va maintenant changer la base de l’espace de départ et celle de l’espace d’arrivée. Soient
les vecteurs
     
1 1 0    
1 1
ϵ1 = 1
  ϵ2 = 0  ϵ3 = 1  ϕ1 = ϕ2 =
0 1
0 1 1

On montre facilement que B0 = {ϵ1 , ϵ2 , ϵ3 } est une base de R3 et B0′ = {ϕ1 , ϕ2 } est une
base de R2 .
Calculons la matrice de f dans les bases B0 et B0′ .
- f (ϵ1 ) = f (1, 1, 0) = (2, −1) = 3ϕ1 − ϕ2 ,
- f (ϵ2 ) = f (1, 0, 1) = (0, 4) = −4ϕ1 + 4ϕ2 ,
- f (ϵ3 ) = f (0, 1, 1) = (0, 1) = −ϕ1 + ϕ2 , donc
 
3 −4 −1
MB0 ,B0′ (f ) = .
−1 4 1

Cet exemple illustre bien le fait que la matrice dépend du choix des bases.

5.5.2 Opérations sur les applications linéaires et les matrices

Proposition 5.5.1. Soient f, g : E −→ F deux applications linéaires et soient B une base de E


et B ′ une base de F . Alors

MB,B′ (f + g) = MB,B′ (f ) + MB,B′ (g) et MB,B′ (λf ) = λMB,B′ (f ).

C’est-à-dire la matrice associée à la somme de deux applications linéaires est la somme des
matrices (à condition de considérer la même base sur l’espace de départ pour les deux applications
et la même base sur l’espace d’arrivée). Idem avec le produit par un scalaire.

Preuve. Soient n la dimension de E, B = {e1 , e2 , · · · , en } et m la dimension de F et B ′ =


{f1 , f2 , · · · , fm }. Soient A = (aij ) = MB,B′ (f ) et B = (bij ) = MB,B′ (g). Cela signifie que, pour
tout j compris entre 1 et n on a les égalités :
i=m
X i=m
X
f (ej ) = aij fi et g(ej ) = bij fi
i=1 i=1
5.5. Matrice d’une application linéaire 117

d’où on déduit immédiatement que :


i=m
X
(f + g)(ej ) = (aij + bij ) fi .
i=1

Ce qui montre facilement que le terme général de la matrice associée à f + g par rapport aux
bases B et B ′ est aij + bij qui est le terme général de la matrice A + B.
La démonstration de la deuxième formule est semblable.
Remarque 5.5.2. Soient E et F deux K-espace vectoriels de dimensions respectivement n et
m. Soient B une base E et B ′ une de F . Nous savons déjà que L(E, F ) et Mm,n (K) sont des
K-espace vectoriels. De la proposition précédente nous déduisons que l’application suivante est
un isomorphisme d’espaces vectoriels.
φ : L(E, F ) −→ Mm,n (K)
f 7−→ MB,B′ (f )
Donc dim(Mm,n (K)) = dim(L(E, F )) = mn.

Le plus important sera la composition des applications linéaires.


Proposition 5.5.2. Soient f : E −→ F et g : F −→ G deux applications linéaires et soient B
une base de E, B ′ une base de F et B ′′ une base de G. Alors :
MB,B′′ (g ◦ f ) = MB′ ,B′′ (g) × MB,B′ (f ).

Autrement dit, à condition de bien choisir les bases, la matrice associée à la composition de
deux applications linéaires est le produit des matrices associées à chacune d’elles, dans le même
ordre. En fait, le produit de matrices, qui semble compliqué au premier abord, est défini afin de
correspondre à la composition des applications linéaires.

Preuve. Posons n = dim(E) et B = {e1 , . . . , en } une base de E ; m = dim(F ) et B ′ =


{f1 , . . . , fm } une base de F ; q = dim(G) et B ′′ = {g1 , . . . , gq } une base de G.
Écrivons A = MB,B′ (f ) = (aij ) ∈ Mm,n (K) la matrice de f , B = MB′ ,B′′ (g) = (bij ) ∈
Mq,m (K) la matrice de g, C = MB,B′′ (g ◦ f ) = (cij ) ∈ Mq,n (K) la matrice de g ◦ f .

On a (g ◦ f )(e1 ) = g f (e1 )
= g(a11 f1 + a21 f2 + · · · + am1 fm )
= a11 g(f1 ) + a21 g(f2 ) + · ·· + am1g(fm ) 
= a11 b11 g1 + · · · + bq1 gq + a21 b12 g1 + · · · + bq2 gq + · · · +
 
am1 b1m g1 + · · · + bqm gq
= (a11 b11 + a21 b12 + · · · + am1 b1m ) g1 + · · · +
(a11 bq1 + a21 bq2 · · · + am1 bqm ) gq
Ainsi, la première colonne de C = MB,B′′ (g ◦ f ) est

a11 b11 + · · · + am1 b1m

 a11 b21 + · · · + am1 b2m 
.
 
 ..
 . 
a11 bq1 + · · · + am1 bqm
118 Chapitre 5. Applications linéaires

Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose avec les autres
colonnes, on remarque que C = MB,B′′ (g ◦ f ) et BA sont deux matrices ayant leurs colonnes
égales. On a donc bien l’égalité cherchée.

Exemple 5.5.3. On considère deux applications linéaires

f : R2 −→ R3 et g : R3 −→ R2 .

On pose E = R2 , F = R3 , G = R2 , alors

f : E −→ F et g : F −→ G.

On se donne des bases : B = {e1 , e2 } une base de E, B ′ = {f1 , f2 , f3 } une base de F , et


B ′′ = {g1 , g2 } une base de G.
On suppose connues les matrices de f et g :
 
1 0  
2 −1 0
A = MB,B′ (f ) = 1 1 ∈ M3,2
  B = MB′ ,B′′ (g) = ∈ M2,3
3 1 2
0 2

Calculons la matrice C = MB,B′′ (g ◦ f ) associée à g ◦ f : E −→ G, de deux façons différentes.


1. Première méthode.
Revenons à la définition de la matrice de l’application linéaire g ◦ f . Il s’agit d’exprimer
l’image des vecteurs de la base de départ B dans la base d’arrivée B ′′ . C’est-à-dire qu’il
faut exprimer g ◦ f (ej ) dans la base B ′′ = {g1 , g2 }.
a. Calcul des f (ej ). On sait par définition de la matrice
 A que f (e1 ) correspond au premier
1
vecteur colonne : plus précisément, f (e1 ) = 1 ′ = 1f1 + 1f2 + 0f3 = f1 + f2 .
0 B
0
De même, f (e2 ) = 1 ′ = 0f1 + 1f2 + 2f3 = f2 + 2f3 .
2 B
b. Calcul des g(fj ). Par définition, g(fj ) correspond à la j-ème colonne de la matrice B ′′ :
 
2
- g(f1 ) = = 2g1 + 3g2
3 B′′
 
−1
- g(f2 ) = = −g1 + g2
1 B′′
 
0
- g(f3 ) = = 2g2
2 B′′
c. Calcul des g ◦ f (ej ). Pour cela on combine les deux séries de calculs précédents :

g ◦ f (e1 ) = g(f1 + f2 ) = g(f1 ) + g(f2 ) = (2g1 + 3g2 ) + (−g1 + g2 ) = g1 + 4g2

g ◦ f (e2 ) = g(f2 + 2f3 ) = g(f2 ) + 2g(f3 ) = (−g1 + g2 ) + 2(2g2 ) = −g1 + 5g2


d. Calcul de la matrice C = MB,B′′ (g ◦f ) : cette matrice est composée des vecteurs g ◦f (ej )
exprimés dans la base B ′′ . Comme
   
1 −1
g ◦ f (e1 ) = g1 + 4g2 = g ◦ f (e2 ) = −g1 + 5g2 =
4 B′′ 5 B′′
5.5. Matrice d’une application linéaire 119

alors  
1 −1
C= .
4 5

On trouve bien une matrice de taille 2 × 2 (car l’espace de départ et d’arrivée de g ◦ f est
R2 ).
2. Deuxième méthode.
Utilisons le produit de matrices : on sait que C = BA. Donc
 
  1 0  
2 −1 0 1 −1
MB,B′′ (g ◦ f ) = C = B × A = × 1 1 =
3 1 2 4 5
0 2

Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en passant
par l’intermédiaire des matrices.

5.5.3 Matrice d’un endomorphisme

Dans cette section, on étudie le cas où l’espace de départ et l’espace d’arrivée d’une application
linéaire sont identiques, c’est-à-dire,

f : E −→ E est un endomorphisme.

Si dim(E) = n, alors chaque matrice associée à f est une matrice carrée de taille n × n. Nous
sommes devant deux situations :
a. si on choisit la même base B au départ et à l’arrivée, alors on note simplement MB (f ) la
matrice associée à f .
Exemple 5.5.4. Comme exemples.
• Cas de l’identité : id : E −→ E est définie par id(x) = x. Alors quelle que soit la base B de
E, la matrice associée est la matrice identité : MB (id) = In .
• Cas d’une homothétie vectorielle hλ : E −→ E, hλ (x) = λ · x (où λ ∈ K est le rapport de
l’homothétie) : MB (hλ ) = λIn .
b. mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel E ; on note
alors la matrice associée à f comme précédemment MB,B′ (f ).

5.5.4 Matrice d’un isomorphisme

Passons maintenant aux isomorphismes. Rappelons qu’un isomorphisme f : E −→ F est une


application linéaire bijective. Nous avons vu que cela entraîne dim(E) = dim(F ).

Théorème 5.5.1 (Caractérisation de la matrice d’un isomorphisme). Soient E et F


deux K-espaces vectoriels de même dimension finie. Soit f : E −→ F une application linéaire.
Soient B une base de E, B ′ une base de F et A = MB,B′ (f ).

f est bijective si et seulement si la matrice A est inversible. Autrement dit, f est un isomorphisme
si et seulement si sa matrice associée MB,B′ (f ) est inversible.
120 Chapitre 5. Applications linéaires

De plus, si f : E −→ F est bijective, alors la matrice de l’application linéaire f −1 : F −→ E est


 −1
−1 −1
la matrice A . Autrement dit, MB′ ,B (f ) = MB,B′ (f ) .

Preuve. On note A = MB,B′ (f ).


1. Si f est bijective, notons B = MB′ ,B (f −1 ), alors par la Proposition 5.5.2, on sait que

BA = MB′ ,B (f −1 ) × MB,B′ (f ) = MB,B (f −1 ◦ f ) = MB,B (idE ) = I.

De même AB = I. Ainsi A = MB,B′ (f ) est inversible et son inverse est B = MB′ ,B (f −1 ).


2. Réciproquement, si A = MB,B′ (f ) est une matrice inversible, notons B = A−1 . Soit
g : F −→ E l’application linéaire telle que B = MB′ ,B (g). Alors, toujours par la Proposition
5.5.2
MB,B (g ◦ f ) = MB′ ,B (g) × MB,B′ (f ) = BA = I
Donc la matrice de g ◦ f est l’identité, ce qui implique g ◦ f = idE . De même, on montre que
f ◦ g = idF . Ainsi f est bijective (et sa bijection réciproque est g).

Voici un cas particulier très important.

Corollaire 5.5.1. Soit un endomorphisme f : E −→ E, où E est muni de la même base B au


départ et à l’arrivée. Posons A = MB (f ), alors
1. f est bijective si et seulement si A est inversible.
2. si f est bijective, alors la matrice associée à f −1 dans la base B est A−1 .
−1
Autrement dit : MB (f −1 ) = MB (f ) .

5.6 Changement de bases

5.6.1 Application linéaire, matrice, vecteur

Soit E un espace vectoriel de dimension finie et soit B = {e1 , e2 , . . . , en } une base de E. Pour
chaque x ∈ E, il existe un n-uplet unique (x1 , x2 , . . . , xn ) d’éléments de K tel que

x = x1 e1 + x2 e2 + · · · + xn en .

On  écrire la matrice des coordonnées de x comme un vecteur colonne,noté


 x1peut x1
MB (x) ou encore
x2 x2
 .  . Dans Kn , si B est la base canonique, alors on note simplement  .  en omettant de
.. ..
xn B xn
mentionner la base.
Soient E et F deux K-espaces vectoriels de dimension finie et f : E −→ F une application
linéaire. Le but de ce paragraphe est de traduire l’égalité vectorielle y = f (x) par une égalité
matricielle. Soient B une base de E et B ′ une base de F .
5.6. Changement de bases 121

Soient x = x1 e1 + x2 e2 + · · · + xn en un élément de E et y = y1 f1 + y2 f2 + · · · + ym fm un
élément de F tels que y = f (x), alors par la linéarité de f on a :

y = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ).

Sachant que f (ej ) ∈ F , alors il existe des scalaires λij , 1 ≤ i ≤ m, tels que
m
X
f (ej ) = λij fi = λ1j f1 + λ2j f2 + · · · + λmj fm .
i=1
 
x1
 x2 
On pose X =   la matrice unicolonne formée par les coordonnées de x dans la base B et
 
..
 . 
xn
 
y1
 y2 
Y =  la matrice unicolonne formée par les coordonnées de y dans la base B ′ . Alors on
 
..
 . 
ym
montrera l’équivalence suivante :

y = f (x) est équivalente à l’égalité matricielle MB,B′ (f )X = Y .

En d’autres termes, les coordonnées de f (x) dans la base B ′ peuvent être calculées grâce au
produit matriciel MB,B′ (f )X.
 x1 
x2
Proposition 5.6.1. Soit A = MB,B′ (f ). Pour x ∈ E, notons X = MB (x) =  ..  . Pour
.
xn B
 y1 
y2
y ∈ F , notons Y = MB′ (y) =  ..  . Alors,
.
ym B′

y = f (x) si et seulement si Y = AX.



Autrement dit : MB′ f (x) = MB,B′ (f ) × MB (x).

Preuve.

-   B = {e1 , . . . , en }, B = {f1 , f2 , . . . , fm }, A = (aij ) = MB,B′ (f ) et X = MB (x) =
On pose
x1
x2
 . .
..
xn
  !
Xn n
X n
X m
X
- On sait que f (x) = f  xj ej  = xj f (ej ) = xj aij fi , donc, en utilisant la
j=1 j=1 j=1 i=1
commutativité de K, on trouve que
   
n
X n
X
f (x) =  a1j xj  f1 + · · · +  amj xj  fm .
j=1 j=1
122 Chapitre 5. Applications linéaires

Pn
j=1 a1j xj
 
Pn
j=1 a2j xj
- La matrice colonne des coordonnées de y = f (x) dans la base {f1 , f2 , . . . , fm } est  .
 
..
Pn .
j=1 amj xj
Pn
j=1 a1j xj
   x1 
Pn
  j=1 a2j xj
x2
- Ainsi la matrice Y = MB′ f (x) =   n’est autre que le produit A  ..  .

..
. .
Pn
amj xj xn
j=1

Exemples 5.6.1.
1. Soit f: R3 −→R2 une application linéaire dont la matrice associée dans la base canonique est
2 1 1
A= . Alors pour tous x = (x1 , x2 , x3 ) ∈ R3 et y = (y1 , y2 ) ∈ R2 , on a y = f (x)
1 2 1
est équivaut à la formule Y = AX, donc
 
 x
2 1 1  1
    
y1 2x1 + x2 + x3
= x2 = .
y2 1 2 1 x1 + 2x2 + x3
x3

2. Soient E un K-espace vectoriel de dimension 3 et B = {e1 , e2 , e3 } une base de E. Soit f


l’endomorphisme de E dont la matrice dans la base B est égale à
 
1 2 1
A = MB (f ) = 2 3 1 .
1 1 0
On se propose de déterminer le noyau et l’image de f . Les éléments x de E sont des combi-
naisons linéaires de e1 , e2 et e3 : x = x1 e1 + x2 e2 + x3 e3 . On a
 
 0
x ∈ ker(f ) ⇐⇒ f (x) = 0E ⇐⇒ MB f (x) = 0
0
     
0 x1 0
⇐⇒ AX = 0 ⇐⇒ A x2  = 0
 0 x3 0
 x1 + 2x2 + x3 = 0
⇐⇒ 2x + 3x2 + x3 = 0
 1
x1 + x2 = 0
La résolution de ce système nous donne :

ker(f ) = x1 e1 + x2 e2 + x3 e3 ∈ E | x1 + 2x2 + x3 = 0 et x2 + x3 = 0
n t  o  1  
= −t | t ∈ K = V ect −1
t 1 B

Le noyau est donc de dimension 1, et par le théorème du rang, l’image Im(f ) est donc de
dimension 2. Rappelons que Im(f ) est engendré par les images f (e1 ), f (e2 ) et f (e3 et que ces
vecteurs sont les colonnes des la matrice A. Les deux premiers vecteurs colonnes de la matrice
A sont linéairement indépendants, ils engendrent donc Im(f ) :
 1   2  
Im(f ) = V ect 2 , 3 .
1 B 1 B
5.6. Changement de bases 123

5.6.2 Matrice de passage d’une base à une autre

Soit E un espace vectoriel de dimension finie n. On sait que toutes les bases de E ont le même
nombre d’éléments n.
Définition 5.6.1. Soient B et B ′ deux bases différentes de E. On appelle matrice de passage
de la base B à la base B ′ , et on note PB,B′ , la matrice carrée de taille n × n dont la j-ième
colonne est formée des coordonnées du j-ième vecteur de la base B ′ écrit dans la base B.
Si on prend B = {e1 , e2 , · · · , en } et B ′ = {f1 , f2 , · · · , fn }, alors

f1 ... fj ... fn
 
e1 a11 ... a1j ... a1n
e2  a21 ... a2j ... a2n 
PB,B′ = .
 
..  .. .. .. .. 
 . . . . 
en an1 ... anj ... ann

Exemple 5.6.1. Soit l’espace vectoriel réel R2 . On considère


       
1 1 1 5
e1 = e2 = ϵ1 = ϵ2 = .
0 1 2 4

On considère la base B = {e1 , e2 } et la base B ′ = {ϵ1 , ϵ2 }. Quelle est la matrice de passage de la


base B à la base B ′ ?
Il faut exprimer ϵ1 et ϵ2 en fonction de e1 et e2 . On calcule que :
   
−1 1
ϵ1 = −e1 + 2e2 = ϵ2 = e1 + 4e2 =
2 B 4 B

La matrice de passage est donc :  


−1 1
PB,B′ =
2 4

Dans la proposition suivante, on interprétera la matrice de passage comme la matrice associée


à l’application identité de E par rapport à des bases bien choisies.
Proposition 5.6.2. La matrice de passage PB,B′ de la base B à la base B ′ est la matrice associée
à l’identité idE : (E, B ′ ) −→ (E, B), où E est l’espace de départ muni de la base B ′ , et E est
aussi l’espace d’arrivée, mais muni de la base B :

PB,B′ = MB′ ,B (idE )

Faites bien attention à l’inversion de l’ordre des bases.

Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d’obtenir les
résultats de façon très élégante et avec un minimum de calculs.

Preuve. On pose B = {e1 , e2 , . . . , en } et B ′ = {f1 , f2 , · · · , fn }. On considère

idE : (E, B ′ ) −→ (E, B)


x 7−→ idE (x) = x
124 Chapitre 5. Applications linéaires

Pn
On a idE (fj ) = fj = i=1 aij ei et MB′ ,B (idE )est lamatrice dont la j-ème colonne est formée
a1j
a2j
des coordonnées de fj par rapport à B, soit  .. . Cette colonne est la j-ème colonne de
.
anj
PB,B′ .

Proposition 5.6.3. On a :
1. La matrice de passage d’une base B à une base B ′ est inversible
−1 et son inverse est égale à la
matrice de passage de la base B ′ à la base B : PB′ ,B = PB,B′ .
2. Si B, B ′ et B ′′ sont trois bases, alors PB,B′′ = PB,B′ × PB′ ,B′′ .

Preuve.

1. On a PB,B′ = MB′ ,B idE . Donc, d’après le théorème caractérisant la matrice d’un isomor-
phisme, on a : −1
−1
= MB,B′ id−1 −1 −1
 
PB,B ′ = MB′ ,B idE E . Or idE = idE , donc PB,B′ = MB,B′ idE =
PB′ ,B .
2. idE : (E, B ′′ ) −→ (E, B) se factorise de la façon suivante :
id id
(E, B ′′ ) −→
E
(E, B ′ ) −→
E
(E, B).

Autrement dit, on écrit idE = idE ◦ idE . Cette factorisation


 permet d’écrire l’égalité sui-
vante : MB′′ ,B idE = MB′ ,B idE × MB′′ ,B′ idE , soit PB,B′′ = PB,B′ × PB′ ,B′′ .

Exemple 5.6.2. Soit l’espace vectoriel E = R3 muni de sa base canonique B. Définissons


           
1 0 3 1 0 0
B1 = 1 , −1 ,  2  et B2 = −1 , 1 ,  0  .
0 0 −1 0 0 −1

Quelle est la matrice de passage de B1 à B2 ?


   
1 0 3 1 0 0
On a d’abord PB,B1 = 1 −1 2  et PB,B2 = −1
 1 0 .
0 0 −1 0 0 −1
−1
La proposition implique que PB,B2 = PB,B1 × PB1 ,B2 . Donc on a PB1 ,B2 = PB,B1
× PB,B2 . En
−1
appliquant la méthode de Gauss pour calculer PB,B1 , on trouve alors :
 −1  
1 0 3 1 0 0
PB1 ,B2 = 1 −1 2  × −1 1 0
0 0 −1 0 0 −1
     
1 0 3 1 0 0 1 0 −3
= 1 −1 1  × −1 1 0  = 2 −1 −1 .
0 0 −1 0 0 −1 0 0 1

Nous allons maintenant étudier l’effet d’un changement de bases sur les coordonnées d’un
vecteur, pour cela considérons les notations suivantes.
5.6. Changement de bases 125

a. Soient B = {e1 , e2 , . . . , en } et B ′ = {e′1 , e′2 , . . . , e′n } deux bases d’un même K-espace vectoriel
E.
b. Soit PB,B′ la matrice de passage de la base B à la base B ′ .
Pn
c. Pour x ∈ E, il se décompose en x = i=1 xi ei dans la base B et on note X = MB (x) =
x1
 
x2
 . .
..
xn B
Pn
d. Ce
 xmême x ∈ E se décompose en x = i=1 x′i e′i dans la base B ′ et on note X ′ = MB′ (x) =
′ 
1

 x2 
 ..  .
.′
xn B′

Proposition 5.6.4. X = PB,B′ × X ′ . Notez bien l’ordre !

Preuve. PB,B′ est la matrice de idE : (E, B ′ ) −→ (E, B). On utilise que x = idE (x) et la
Proposition 5.6.3. On trouve
X = MB (x) = MB idE (x) = MB′ ,B (idE ) × MB′ (x) = PB,B′ × X ′ .


5.6.3 Formule de changement de base

Soient E et F deux K-espaces vectoriels de dimension finie. Soit f : E −→ F une application


linéaire.

• Soient BE , BE deux bases de E, et Soient BF , BF′ deux bases de F .

• Soit P = PBE ,BE′ la matrice de passage de BE à BE .

• Soit Q = PBF ,BF′ la matrice de passage de BF à BF .
• Soit A = MBE ,BF (f ) la matrice de l’application linéaire f par rapport aux deux bases BE et
BF .

• Soit B = MBE′ ,BF′ (f ) la matrice de l’application linéaire f par rapport aux deux bases BE et

BF .
Y’a-t-il une relation entre les deux matrices A et B ?
Théorème 5.6.1 (Formule de changement de base). La matrice B est donnée par la formule
B = Q−1 AP . On dit que les deux matrices A et B sont équivalentes.


Preuve. L’application f : (E, BE ) −→ (F, BF′ ) se factorise de la façon suivante :
′ id f id
(E, BE E
) −→ F
(E, BE ) −→ (F, BF ) −→ (F, BF′ ),
c’est-à-dire que f = idF ◦ f ◦ idE . On a donc l’égalité de matrices suivante :
B = MBE′ ,BF′ (f )
= MBF ,BF′ (idF ) × MBE ,BF (f ) × MBE′ ,BE (idE )
= PBF′ ,BF × MBE ,BF (f ) × PBE ,BE′
= Q−1 AP
126 Chapitre 5. Applications linéaires

Dans le cas particulier d’un endomorphisme f : E −→ E, nous obtenons une formule plus
simple.
• Soient B, B ′ deux bases de E.
• Soit P = PB,B′ la matrice de passage de B à B ′ .
• Soit A = MB (f ) la matrice de l’application linéaire f dans la base B.
• Soit B = MB′ (f ) la matrice de l’application linéaire f dans la base B ′ .
Le théorème devient alors :

Corollaire 5.6.1. B = P −1 AP , on dit que les deux matrices A et B sont semblables.

Exemple 5.6.3. Reprenons les deux bases de R3 de l’exemple 5.6.2.


           
1 0 3 1 0 0
B1 = 1 , −1 ,  2  et B2 = −1 , 1 ,  0  .
0 0 −1 0 0 −1

Soit f : R3 −→ R3 l’application linéaire dont la matrice dans la base B1 est :


 
1 0 −6
A = MB1 (f ) = −2 2 −7
0 0 3

Que vaut la matrice de f dans la base B2 , B = MB2 (f ) ?

1. Nous avons calculé la matrice de passage de B1 vers B2 qui est


 
1 0 −3
P = PB1 ,B2 = 2 −1 −1 .
0 0 1
 
1 0 3
2. On calcule aussi P −1 = 2 −1 5 .
0 0 1
3. On applique la formule du changement de base du corollaire :

       
1 0 3 1 0 −6 1 0 −3 1 0 0
B = P −1 AP = 2 −1 5 × −2 2 −7 × 2 −1 −1 = 0 2 0
0 0 1 0 0 3 0 0 1 0 0 3

C’est souvent l’intérêt des changements de base, se ramener à une matrice plus simple. Par
exemple ici, il est facile de calculer les puissances B k , pour en déduire les Ak .

Exemple 5.6.4. Soit B = {e1 , e2 , e3 } la base canonique de R3 , où e1 = (1, 0, 0), e2 = (0, 1, 0), e3 =
(0, 0, 1). Soit la famille B ′ = {f1 , f2 , f3 }, où f1 = (1, −1, 1), f2 = (0, 2, 1) et f3 = (1, 2, −2). On
vérifie que B ′ est une base de R3 , et nous avons :

f1 = e1 − e2 + e3 , f2 = 2e2 + e3 , f3 = e1 + 2e2 − 2e3 .


5.6. Changement de bases 127

Donc la matrice de passage P de B à B ′ est :


 
1 0 1
P =  −1 2 2 .
1 1 −2
Pour calculer la matrice de passage P −1 de B ′ à B, on peut par exemple exprimer les vecteurs
e1 , e2 et e3 en fonction de f1 , f2 et f3 . On a :
 
 f1 = e1 − e2 + e3  f1 = e1 − e2 + e3
f = 2e2 + e3 ⇐⇒ f = 2e2 + e3
 2  2
f3 = e1 + 2e2 − 2e3  f3 − f 1 = 3e2 − 3e3

 f1 = e1 − e2 + e3
⇐⇒ f2 = 2e2 + e3
 1 (f − f ) = e − e

 3 3 1 2 3

 f1
 = e1 − e2 + e3
⇐⇒ f2 = 2e2 + e3
 f + 1 (f − f ) = 3e

 2 3 3 1 2

 f1 = e 1 − e 2 + e 3
⇐⇒ f2 = 2e2 + e3
 e = −1f + 1f + 1f

2 9 1 3 2 9 3
 e1 = f1 + e2 − e3 = 32 f1 + 31 f3


⇐⇒ e2 = − 19 f1 + 31 f2 + 19 f3
e3 = f2 − 2e2 = 92 f1 + 31 f2 − 29 f3 .

Ainsi, la matrice de passage P −1 de B ′ à B est :


 2
3 − 19 2 
9
 
 
−1
P = 0
 1 1  .
 3 3 

 
1 1 − 92
3 9
Si on utilise la méthode de la comatrice, on obtient :
1 0 1 1 0 0
det P = −1 2 2 = −1 2 3 = −9.
1 1 −2 1 1 −3
 
−6 0 −3
La comatrice associée à P est com(P ) =  1 −3 −1 .
−2 −3 2
Donc
  2 − 19 2 
−6 −2

1 3 9
   
−1 1 t 1    1

1 
P = com(P ) = · 0 −3 −3 
= 0 .
 
det P −9    3 3 

 
−3 −1 2 1 1 − 29
3 9
128 Chapitre 5. Applications linéaires

Exemple 5.6.5. Soit la matrice


 
−1 1 1
A=  1 −1 1 .
1 1 −1

On note par f l’endomorphisme de R3 dont la matrice par rapport à la base canonique B =


{e1 , e2 , e3 } de R3 est A. Cela signifie que f (e1 ) = (−1, 1, 1), f (e2 ) = (1, −1, 1) et f (e3 ) =
(1, 1, −1).
Soient les vecteurs f1 = (1, 0, −1), f2 = (0, 1, −1) et f3 = (1, 1, 1). On vérifie facilement que
B ′ = {f1 , f2 , f3 } est une base de R3 . La matrice de passage P de B à B ′ est :
 
1 0 1
P = 0 1 1 .
−1 −1 1
 
2 −1 −1
Un simple calcul permet de voir que : P −1 = 31 ·  −1 2 −1  .
1 1 1
   
−4 2 2 −2 0 0
De plus : P −1 A = 31 ·  2 −4 2  , et P −1 AP =  0 −2 0  = A′ ; où A′ est la
1 1 1 0 0 1
matrice de l’endomorphisme f dans la base B ′ . En fait, on peut vérifier directement ce résultat
si on calcule f (f1 ), f (f2 ) et f (f3 ) dans B ′ , et après calculs, on trouve :

f (f1 ) = −2f1 , f (f2 ) = −2f2 et f (f3 ) = f3 .

5.7 Exercices
Exercice 5.1.
1. Soit E l’espace vectoriel des fonctions continues de [0, 1] dans R. Montrer que l’application
φ : E −→ R définie par φ(f ) = f (0) est linéaire.
2. Soient les deux applications f : R2 −→ R2 ; (x, y) 7−→ (x+y, x−y) et g : R3 −→ R2 ; (x, y, z) 7−→
(xz, yz). f et g sont-elles linéaires ?
3. On considère l’application linéaire h de R3 dans R2 définie par h(x, y, z) = (x − y, y − z).
Déterminer ker(h), h est-elle injective ? Surjective ?

Exercice 5.2. Les applications suivantes sont-elles des applications linéaires ?


1. f : R2 −→ R3 ; (x, y) 7−→ (x + y, x − 2y, 0),
2. f : R2 −→ R3 ; (x, y) 7−→ (x + y, x − 2y, 1),
3. f : R2 −→ R; (x, y) 7−→ x2 − y 2 .

Exercice 5.3. Soit l’application linéaire f : R2 −→ R3 ; (x, y) 7−→ (x+y, x−y, x+y). Déterminer
le noyau et l’ image de f . L’application f est-elle injective ? surjective ?

Exercice 5.4. Soit l’application linéaire f : R3 −→ R4 ; (x, y, z) 7−→ (x+z, y−x, z +y, x+y+2z).
5.7. Exercices 129

1. Déterminer une base de Im(f ).


2. Déterminer une base de ker(f ).
3. L’application f est-elle injective ? surjective ?

Exercice 5.5. Soit φ l’application linéaire de R2 dans R2 définie par : φ(x, y) = (x + y, −x − y).
1. Déterminer le noyau et le rang de φ.
2. Déterminer la matrice MB (φ) de φ dans la base canonique B = {e1 , e2 } de R2 .
3. Soient u1 = e1 − e2 et u2 = e1 + e2 . Vérifier que B ′ = {u1 , u2 } est une base de R2 , et
déterminer P la matrice de passage de B à B ′ . Déduire P −1 .
4. En déduire MB ′ (φ) la matrice de φ dans la nouvelle base B ′ .

Exercice 5.6. Soit f l’application linéaire de R3 dans R2 définie par : f (x, y, z) = (x + 2y +


z, x − 2y + z).
1. Déterminer M (f ) la matrice associée à f par rapport aux bases canoniques de R3 et R2 .
2. Soient u1 = (1, 0, −1), u2 = (1, 1, 0), u3 = (1, 1, 1), v1 = (1, 1), et v2 = (1, −1). Vérifier que
B3 = {u1 , u2 , u3 } est une base de R3 et que B2 = {v1 , v2 } est une base de R2 . Déterminer la
matrice M ′ (f ) associée à f par rapport aux bases B3 et B2 .
3. Trouver une base B2′ de R2 telle que la matrice associée à f par rapport aux bases B3 et B2′
soit :  
0 1 0
B= .
0 0 1

Exercice 5.7. Soit B = {e1 , e2 , e3 } la base canonique


 de R3 . Soitf l’endomorphisme de R3
1 4 4
dont la matrice dans la base canonique est : A =  −1 −3 −3  . Soient les vecteurs u =
0 2 3
e1 − e2 + e3 , v = 2e1 − e2 + e3 , w = 2e1 − 2e2 + e3 de R3 .
1. Montrer que B ′ = {u, v, w} est une base de R3 .
2. Déterminer la matrice de passage P de B à B ′ .
3. Calculer P −1 .
4. Déterminer la matrice R de f dans la base B ′ .
5. Exprimer A en fonction de R, calculer R4 et en déduire les valeurs de A4n , avec n ∈ N∗ .
CHAPITRE 6

DIAGONALISATION,
TRIGONALISATION ET
APPLICATIONS

Soit E un K-espace vectoriel de dimension finie n, et soit f : E → E une application linéaire.


Soient B1 = {e1 , e2 , · · · , en } une base de E et MB1 (f ) la matrice de f dans cette base ; on sait
que si on change de base la matrice en générale change, soit B2 = {f1 , f2 , · · · , fn } une autre base
de E et B = MB2 (f ) la matrice de f dans cette nouvelle base. On sait qu’il existe une matrice
inversible P telle que
B = P −1 AP ·
Un moyen de calculer plus facilement avec une application linéaire f : E → E est de trouver une
base de E dans laquelle la matrice de f ait une forme simple : diagonale si possible, ou triangulaire.
Notre but dans ce chapitre est de trouver des bases de E dans lesquelles la matrice de f est
diagonale ou triangulaire. Cela s’appelle diagonaliser, triangulariser (on dit aussi trigonaliser),
ou plus généralement réduire l’endomorphisme f , c’est-à-dire chercher une base B2 telle que
B = MB2 (f ) soit diagonale ou triangulaire.
f est dite diagonalisable s’il existe une base B telle que MB (f ) est diagonale, et elle est dite
trigonalisable s’il existe une base B telle que MB (f ) est triangulaire.

6.1 Vecteurs et valeurs propres


La clé de la diagonalisation et la trigonalisation est la notion du vecteur propre.
Définition 6.1.1. Soit E un espace vectoriel sur K, et soit f : E −→ E un endomorphisme de
E, alors :

130
6.1. Vecteurs et valeurs propres 131

1. Un vecteur x de E est dit vecteur propre de f si :


a. x ̸= 0,
b. il existe un scalaire λ de K tel que f (x) = λx.
Ceci nous ramène à définir une valeur propre.
2. Un scalaire λ ∈ K est dit valeur propre de f s’il existe un vecteur x non nul de E tel que
f (x) = λx.
On dit que x et λ sont associés.

Remarque 6.1.1.
1. Un vecteur propre est par définition non nul (car il est utilisé pour construire des bases de
E), alors que la valeur propre peut être nulle.
2. Noter que les éléments non nuls de ker(f ) sont les vecteurs propres associés à la valeur propre
λ = 0.
3. Si v est un vecteur propre associé à la valeur propre λ, alors pour tout α ∈ K et α ̸= 0, le
vecteur αv est aussi un vecteur propre associé à la même valeur propre. En effet,

f (αv) = αf (v) = αλv = λ(αv).

Exemple 6.1.1. Soit E = R3 et soit l’endomorphisme

f : R3 −→ R3 ; f (x, y, z) = (x, x + 2y, 3z).

Soient les deux vecteurs v = (0, 1, 0) et u = (0, 0, 1), alors on a :

f (v) = f (0, 1, 0) = (0, 2, 0) = 2(0, 1, 0) = 2v et f (u) = f (0, 0, 1) = (0, 0, 3) = 3(0, 0, 1) = 3u.

Donc v = (0, 1, 0) est un vecteur propre associé à la valeur propre λ = 2,


et u = (0, 0, 1) est un vecteur propre associé à la valeur propre λ = 3.

Remarque 6.1.2. Soit x un vecteur propre de f , ceci est équivaut à l’existence d’un scalaire λ
tel que f (x) = λx, donc

f (x) = λx ⇐⇒ f (x) − λx = 0 ⇐⇒ (f − λ.idE )(x) = 0 ⇐⇒ x ∈ ker(f − λ.idE ).

Or on sait bien que le noyau d’une application linéaire est un sous-espace vectoriel de E, d’où la
définition suivante.

Définition 6.1.2. Soit E un K-espace vectoriel, et soit f : E → E un endomorphisme de E.


Soit λ ∈ K, l’ensemble des vecteurs v de E tels que f (v) = λv est un sous-espace vectoriel de E
appelé espace propre de f associé à λ. On le note Eλ et on a :

Eλ = ker(f − λ.idE ) = {x ∈ E | (f − λ.idE )(x) = 0}


= {x ∈ E | f (x) − λ.idE (x) = 0}
= {x ∈ E | f (x) − λx = 0}
= {x ∈ E | f (x) = λx}.

Remarque 6.1.3. Notez que :


1. si λ n’est pas valeur propre, alors Eλ = {0},
132 Chapitre 6. Diagonalisation, trigonalisation et applications

2. si λ est valeur propre, alors Eλ = {vecteurs propres associés à λ} ∪ {0}.

Proposition 6.1.1. Soient f : E −→ E un endomorphisme et λ ∈ K.


1. λ est une valeur propre de f si et seulement si Eλ ̸= {0} si et seulement si f − λidE est non
inversible.
2. Si λ1 et λ2 sont deux valeurs propres distinctes et v1 , v2 leurs vecteurs propres associés respec-
tivement, alors v1 et v2 sont indépendants. Même remarque pour p valeurs propres distinctes
deux à deux.

Preuve. 1. Pour le premier point 1, par définition λ est une valeur propre si et seulement s’il
existe un vecteur non nul x tel que f (x) = λx, mais ceci est équivaut à Eλ ̸= {0}, ceci à son tour
est équivaut à ker(f − λidE ) ̸= {0} ce qui est équivaut à f − λidE n’est pas injectif donc non
bijectif.
2. Pour le second point 2. Soient λ1 et λ2 deux valeurs propres distinctes et v1 ̸= 0, v2 ̸= 0 leurs
vecteurs propres associés respectivement. Si v1 et v2 sont linéairement dépendants, alors il existe
un scalaire α ̸= 0 tel que v1 = αv2 , d’où
1
v1 = αv2 ⇐⇒ v2 = v1 , α ̸= 0,
α
alors
1 1 1 1
λ2 v2 = f (v2 ) = f ( v1 ) = f (v1 ) = λ1 v1 = λ1 v1 = λ1 v2 ,
α α α α
donc λ1 = λ2 , ce qui est absurde. La dernière assertion se démontre par récurrence sur p.

Corollaire 6.1.1. Si la dimension de E est n, et si f possède n valeurs propres distinctes deux


à deux {λ1 , λ2 , · · · , λn }, alors l’ensemble des vecteurs propres associés {v1 , v2 , · · · , vn } forment
une base de E.

Preuve. Puisque les valeurs propres {λ1 , λ2 , · · · , λn } sont distinctes, alors par récurrence on
montre que la famille {v1 , v2 , · · · , vn } est libre, d’où elle forme une base de E puisque dim(E) =
n.

Remarque 6.1.4. Si dim(E) = n, alors tout endomorphisme f de E admet au plus n valeurs


propres distinctes deux à deux.

Proposition 6.1.2. Les sous-espaces propres d’un endomorphisme f sont en somme directe,
c’est-à-dire si {λ1 , · · · , λp } sont des valeurs propres distinctes, alors la somme Eλ1 + · · · + Eλp
est directe.

Preuve. Cette propriété joue un rôle essentiel dans cette théorie. Sa preuve est basée sur une
démonstration par récurrence.
Si p = 2, soient λ1 et λ2 deux valeurs propres distinctes de f . Montrons que la somme
Eλ1 + Eλ2 est directe, c’est-à-dire chaque élément x ∈ Eλ1 + Eλ2 s’écrit d’une façon unique
comme somme d’un élément de Eλ1 et d’un élément de Eλ2 . Pour cela il suffit de prouver que si
x1 et x2 sont deux vecteurs respectivement de Eλ1 et Eλ2 , alors x1 + x2 = 0 implique que x1 = 0
et x2 = 0. Or

x1 + x2 = 0 =⇒ f (x1 ) + f (x2 ) = f (0) = 0 ⇐⇒ λ1 x1 + λ2 x2 = 0.


6.1. Vecteurs et valeurs propres 133

Donc les vecteurs vérifient les deux égalités :



x1 + x2 = 0,
λ1 x1 + λ2 x2 = 0.
D’où (λ2 − λ1 )x2 = 0, ceci donne x2 = 0 car λ1 ̸= λ2 , par suite x1 = 0, c’est ce qu’on cherche.
Supposons la propriété vraie pour p − 1 valeurs propres et démontrons la pour p. Le type de
calcul est le même que pour p = 2. Soient x1 , x2 , · · · , xp des vecteurs respectivement de Eλ1 et
Eλ2 , · · · , Eλp , tels que x1 + x2 + · · · + xp = 0, alors f (x1 ) + f (x2 ) + · · · + f (xp ) = f (0) = 0, ce
qui donne λ1 x1 + λ2 x2 + · · · + λp xp = 0 ; d’où le système

x1 + x2 + · · · + xp = 0
λ1 x1 + λ2 x2 + · · · + λp xp = 0.
En prenant la deuxième équation moins λ1 fois la première, on obtient :
(λ2 − λ1 )x2 + · · · + (λp − λ1 )xp = 0;
donc par l’hypothèse de récurrence on trouve que pour tout 2 ≤ i ≤ p ; (λi − λ1 )xi = 0, et comme
λi ̸= λ1 , on déduit que pour tout 2 ≤ i ≤ p ; xi = 0. En fin la relation x1 + x2 + · · · + xp = 0
implique que x1 = 0 ; ce qui achève la démonstration.
Remarque 6.1.5. Soit E un K espace vectoriel de dimension n, et soit B = {e1 , e2 , · · · , en }
une base de E. L’isomorphisme
φ : L(E) −→ Mn (K)
f 7−→ MB (f )
permet d’étendre les notions définies pour f à toute matrice de Mn (K). Donc les valeurs propres
et les vecteurs propres de A = MB (f ) sont par définition les valeurs propres et les vecteurs
Pn
propres de f ; dans le sens que si λ et x = i=1 xi ei sont une valeur propre et un vecteur propre
associé de f , et si X désigne la matrice unicolonne formée par les coordonnées de x dans la
Pn
base B. Alors un vecteur x = i=1 xi ei est un vecteur propre associé à la valeur propre λ si et
seulement si AX = λX, et on a :
f (x) = λX ⇐⇒ AX = λX.
 
x1
 .. 
Notons que X =  . .
xn
 
1 1 −1
Exemple 6.1.2. Soient E = R3 et l’endomorphisme u : R3 −→ R3 de matrice A = 2 3 −4
0 2 −1
 
1
et soit le vecteur X = 1. Alors
1
      
1 1 −1 1 1+1−1 1
AX = 2 3 −41 = 2 + 3 − 4 = 1 = X,
0 2 −1 1 0+2−1 1
donc X est un vecteur propre de A associé à la valeur propre λ = 1.
134 Chapitre 6. Diagonalisation, trigonalisation et applications

Par la suite on ne considérera que les matrices carrées à coefficients dans K. Rappelons que
MB (idE ) = In .

Théorème 6.1.1. Soit A une matrice de Mn (K), alors pour tout λ ∈ K, les propriétés suivantes
sont équivalentes :
1. λ est une valeur propre de A.
2. A − λIn est non inversible.
3. det(A − λIn ) = 0.

Définition 6.1.3. Soit f un endomorphisme d’un K-espace vectoriel E.


Spec(f ) = {λ ∈ K | λ est une valeur propre def } ; (Spec(f ) = le spectre de f ).

6.2 Détermination des valeurs propres, polynôme caracté-


ristique
Soit E un K-e.v. de dimension n muni d’une base B, soit f un endomorphisme de E et
A = MB (f ) = (aij )1≤i,j≤n . D’après la troisième condition du Théorème précédent 6.1.1, λ est
une valeur propre si et seulement si

a11 − λ a12 ··· a1n


a21 a22 − λ ··· a2n
det(A − λIn ) = .. .. .. .. = 0.
. . . .
an1 an2 ··· ann − λ

En remplaçant λ par l’indéterminée X on définit le polynôme de K[X] suivant :

a11 − X a12 ··· a1n


a21 a22 − X ··· a2n
χA (X) = det(A − XIn ) = .. .. .. .. .
. . . .
an1 an2 ··· ann − X

On remarque que les termes du polynôme χA (X) de degré n ou n − 1 proviennent du terme


suivant :

(a11 −X)(a22 −X) · · · (ann −X) = (−1)n X n +(−1)n−1 (a11 +· · ·+ann )X n−1 +· · ·+a11 a22 · · · ann .

Comme χA (0) = det(A), alors le terme constant de χA (X) est det(A), d’où on a :

χA (X) = (−1)n X n + (−1)n−1 (a11 + · · · + ann )X n−1 + · · · + det(A),

et comme tr(A) = a11 + · · · + ann , alors

χA (X) = (−1)n X n + (−1)n−1 tr(A)X n−1 + · · · + det(A).

Le polynôme χA (X) de degré n qu’on vient de définir s’appelle le polynôme caractéristique


de la matrice A.
6.2. Détermination des valeurs propres, polynôme caractéristique 135

Définition 6.2.1. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. On appelle polynôme
caractéristique de A le polynôme de K[X] de degré n donné par det(A − XIn ). On le note χA .

Rappelons qu’une matrice B est dite semblable à A s’il existe une matrice P carrée d’ordre
n inversible telle que B = P −1 AP .
Proposition 6.2.1. Soient A et B deux matrices semblables. Alors les polynômes caractéris-
tiques χA et χB sont identiques.

Preuve. Si A et B sont semblables, alors il existe une matrice inversible P tel que B = P −1 AP .
On a aussi B − XIn = P −1 (A − XIn ) P , car

P −1 (A − XIn ) P = P −1 A − P −1 XIn P


= P −1 AP − P −1 XIn P = P −1 AP − P −1 XP
= P −1 AP − XP −1 P = P −1 AP − XIn .

Comme le déterminant d’un produit est le produit des déterminants, alors on a :

χB = det P −1 (A − XIn ) P


= det(P )−1 det (A − XIn ) det(P )


= det(P )−1 det(P ) det (A − XIn )
= det (A − XIn ) = χA .

Remarque 6.2.1. Rappelons aussi que deux matrices A et B sont semblables représentent le
même endormorphisme, par rapport à deux bases différentes. Autrement dit, si f est un endo-
morphisme d’un K-espace vectoriel E, et si B et B ′ sont deux bases de E, alors A = MB (f ) et
B = M′B (f ) sont semblables. Par la Proposition 6.2.1, A et B ont le même polynôme caractéris-
tique. Le polynôme caractéristique dépend donc uniquement de f , et non pas de la base. Cette
remarque justifie la définition suivante.
Définition 6.2.2 (Polynôme caractéristique d’un endomorphisme). Si f : E → E est
un endomorphisme, le polynôme caractéristique χf de f est le polynôme caractéristique d’une
matrice MB (f ) pour une base B de E. Autrement dit, χf = det(f − XidE ).
Proposition 6.2.2. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. Alors λ est une valeur
propre de A (ou de f ) si et seulement si det(A − λI) = 0 si et seulement si χA (λ) = 0.
Autrement dit, les valeurs propres de A sont les racines de son polynôme caractéristique dans K.
Il y’en a au plus n. En particulier, deux matrices semblables ont les mêmes spectres.

Preuve. Ceci est une conséquence du fait que det(A − [Link] ) est exactement le polynôme carac-
téristique. Plus précisément, λ est une valeur propre de A si et seulement si det(A − λIn ) = 0.
Donc λ est une valeur propre de A si et seulement si χA (λ) = 0.

Remarque 6.2.2. Attention au fait que le spectre de f depend du corps K. En effet, soit

3 −2
l’endomorphisme f : R2 −→ R2 représenté dans la base canonique par la matrice A = .
5 −3
3−λ −2
Donc χA (λ) = det(A − λI2 ) = = λ2 + 1. D’où
5 −3 − λ
136 Chapitre 6. Diagonalisation, trigonalisation et applications

- dans R, Spec(f ) = ∅, et
- dans C, Spec(f ) = {−i, i}.

La Proposition 6.2.2 peut être énoncée comme suit :

Proposition 6.2.3. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. les énoncés suivants
sont équivalents :
1. λ est une valeur propre de A et x ∈ Kn un vecteur propre associé,
2. λ est une racine du polynôme caractéristique et x une solution du système homogène (A −
λ.I)x = 0.

Résumons ces résultats dans la proposition suivante qui va nous aider à déterminer les valeurs
et les vecteurs propres (s’ils existent) d’un endomorphisme f .

Théorème 6.2.1. Soit A ∈ Mn (K) une matrice carrée d’ordre n, et soit f l’application f (x) =
Ax. Les énoncés suivants sont équivalents :
1. λ est une valeur propre de A,
2. le système homogène (A − λ.In )x = 0 possède une solution non nulle,
3. λ est une racine du polynôme caractéristique χA , i.e., χA (λ) = 0,
4. ker(f − λ.id) ̸= 0, i.e., f − λ.id n’est pas injectif,
5. la matrice A − λ.I n’est pas inversible,
6. det(A − λ.I) = 0.

Remarque 6.2.3. Comme C est un corps algébriquement clos (un corps commutatif K est dit
algébriquement clos si tout polynôme de degré supérieur ou égal à 1, à coefficients dans K, admet
(au moins) une racine dans K), alors le polynôme caractéristique de degré n de A s’écrit comme
suit :
Yp
χA = (−1)n (λ − λi )mi ,
i=1

où les λi , 1 ≤ i ≤ p, sont les valeurs propres de A, et les mi sont les multiplicités respectives. On
Xp
a mi = n.
i=1

Donnons quelques exemples.


 
a b
Exemple 6.2.1. Prenons une matrice 2 × 2 : A = . On a
c d
     
a b 1 0 a−λ b
A − λI = −λ = .
c d 0 1 c d−λ

Donc le polynôme caractéristique est alors

a−λ b
χA = det(A − λI) = = λ2 − (a + d)λ + (ad − bc) = λ2 − tr(A)λ + det(A).
c d−λ
6.2. Détermination des valeurs propres, polynôme caractéristique 137

 
5 −3
- Si A = , alors χA = λ2 − λ − 2 = (λ + 1)(λ − 2). D’où les valeurs propres de A (de
6 −4
1 = −1 et
f ) sont λ  λ2 = 2.
2 −1
- Si A = , alors χA = λ2 + 1, donc A n’a pas de valeurs propre si K = R, et si K = C
5 −2
les valeurs propres sont λ1 = −i et λ2 = i.
 
6 2 1
Exemple 6.2.2. Prenons maintenant A = −6 −1 −2 . On a
0 0 3
     
6 2 1 1 0 0 6−λ 2 1
A − λI = −6 −1 −2 − λ 0 1 0 =  −6 −1 − λ −2  .
0 0 3 0 0 1 0 0 3−λ

Le polynôme caractéristique est alors

6−λ 2 1
χA = det(A − λ) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ

Donc, χA = −(λ − 3)2 (λ − 2). Les valeurs propres sont donc 2 et 3, et on dit que 3 a une
«multiplicité» égale à 2 puisque le polynôme caractéristique a (λ − 3)2 en facteur (3 est une
racine double).
 
2 2 2
Exemple 6.2.3. Prenons maintenant A = 1 2 0 . Le polynôme caractéristique est alors
1 0 2

2−λ 2 2
χA = det(A − λI) = 1 2−λ 0 = −λ3 + 6λ2 − 8λ.
1 0 2−λ

Donc, χA = −λ3 + 6λ2 − 8λ = −λ(λ − 2)(λ − 4). Les valeurs propres sont donc 0, 2 et 4. Elles
sont toutes de multiplicités 1.

Terminons cette sous-section par le théorème suivant dit théorème de Cayley-Hamilton,


qu’on ne démontrera pas, il est suffisant de connaître l’énoncé. Soit

P (X) = a0 + a1 + · · · + an X n ∈ K[X],

et soient f un endomorphisme d’un espace vectoriel E et A une matrice carrée de taille (n, n).
On définit alors P (A) = a0 In + a1 A + · · · + an An , (on a remplacé l’indéterminé X du polynôme
caractéristique par la matrice A). En particulier si χA = P est le polynôme caractéristique de A,
on a :
χA (A) = a0 In + a1 A + · · · + an An .
Théorème 6.2.2 (Cayley-Hamilton). Soient f un endomorphisme d’un K-espace vectoriel
E de matrice associée A qui est matrice carrée de taille (n, n), alors χA (A) = 0, où 0 est la
matrice carrée nulle d’ordre n. Autrement dit, le polynôme minimal de A divise son polynôme
caractéristique.
138 Chapitre 6. Diagonalisation, trigonalisation et applications

6.3 Diagonalisation
Commençons par rappeler que deux matrices carrées A et B à coefficients dans K sont dites
semblables, s’il existe une matrice inversible P à coefficients dans K telle que B = P −1 AP (ou
ce qui revient au même, A = P BP −1 ).
Définissons maintenant qu’est ce qu’une matrice diagonalisable.
Définition 6.3.1.
1. On dit qu’un endomorphisme f d’un K-espace vectoriel E de dimension n est diagonalisable
s’il existe une base B de E telle que la matrice associée à f relativement à cette base B soit
diagonale.
2. On dit qu’une matrice A ∈ Mn (K) est diagonalisable s’il existe une matrice diagonale D
d’ordre n telle que A et D sont semblables, c’est-à-dire il existe une matrice inversible P
d’ordre n telle que A = P DP −1 .

Notons que les deux conditions de la définition sont les mêmes. Il suffit de remarquer que si
B et B ′ sont deux bases de E telles que A = MB (f ) et D = MB′ (f ) est une matrice diagonale,
alors la matrice P n’est rien d’autre que la matrice de passage de B à B ′ .
Remarques 6.3.1. 1. Notons que D est la matrice diagonale :
 
λ1 0 ... 0 0
 .. .. .. 
 0 λ1 . . .
 
.
 .. . . .
D = diag(λ1 , · · · , λ1 , · · · , λp , · · · , λp ) =  .. ,
 . 0 0 
 0 ... 0 λp 0
0 ... 0 0 λp

λi répétée mi fois (mi est l’ordre de multiplicité de λi ).


2. Attention, on ne peut diagonaliser que des matrices carrées, donc toutes les matrices que l’on
cherche à diagonaliser sont des matrices carrées.
3. Diagonaliser une matrice A revient à chercher une matrice diagonale D et une matrice inver-
sible P telle que :
A = P DP −1 ⇐⇒ D = P −1 AP.
Autrement dit, on cherche une base B ′ dans laquelle la matrice A est diagonale. La matrice P
est alors la matrice de changement de base (c’est pourquoi elle est inversible). En fait, A est
la représentation matricielle d’un endomorphisme dans une base B, et D la représentation de
ce même endomorphisme dans une base B ′ . P est donc la matrice de passage de B dans B ′ .
Exemple 6.3.1.
 
2 −1
1. La matrice A = est diagonalisable. En effet, A est semblable à la matrice B =
4 −3
   
1 0 1 2
puisque B = P −1 AP où P = .
0 2 1 3
   
2 2 2 0 0 0
2. La matrice A = 1 2 0 est diagonalisable, où D = Diag(0, 2, 4) = 0 2 0 .
1 0 2 0 0 4
6.3. Diagonalisation 139

Théorème 6.3.1. Soit un endomorphisme f d’un K-espace vectoriel E de dimension n. Soit


A ∈ Mn (K) la matrice associée à f , alors f est diagonalisable si et seulement si il existe une
base de E formée de vecteurs propres.

Preuve. Soit B = {v1 , · · · , vn } une base formée de vecteurs propres correspondants aux valeurs
propres λ1 , · · · , λn , alors on a :

f (v1 ) = λ1 v1 , f (v2 ) = λ2 v2 , · · · , f (vn ) = λn vn .

···
 
λ1 0 0 0
0
 λ2 0 ··· 0 
Donc MB (f ) =  ... .. . . .. . D’où f est diagonalisable.
 
 . . . 0 
0 0 · · · λn−1 0 
0 0 0 ··· λn
Réciproquement, s’il existe une base B ′ = {e1 , e2 , · · · , en } telle que la matrice M (f )B ′ de f
dans cette base soit diagonale c’est-à-dire :

a11 0 · · ·
 
0
.. 
 0 a22 . . .

. 
M (f )B ′ =  .
 
 .. . .. . ..

0 
0 · · · 0 ann

alors des colonnes de cette matrice, on déduit que

f (e1 ) = a11 e1 , f (e2 ) = a22 e2 , ..., f (en ) = ann en ,

ceci implique que tous les vecteurs ei sont des vecteurs propres.

Rappelons la définition d’un polynôme scindé.

Définition 6.3.2. Soit P ∈ K[X] de degré m. On dit que P est scindé dans K si P admet m
racines dans K (en comptant chaque racine avec sa multiplicité). Autrement dit, P est un produit
de facteurs de degré 1, c’est-à-dire s’il est de la forme

a(X − a1 )α1 (X − a2 )α2 · · · (X − ap )αp ,

avec a, ai ∈ K et ai ̸= aj pour i ̸= j et deg(P ) = m = α1 + α2 + · · · + αp .

Exemple 6.3.2.
1. Le polynôme P (X) = X 2 − 5X + 6 = (X − 2)(X − 3) est scindé dans R.
2. P (X) = X 3 − 4X 2 + 5X − 2 est scindé dans R, car il s’écrit : P (X) = (X − 1)2 (X − 2) et
donc il a trois racines {1, 1, 2}.
3. En revanche P (X) = X 2 + 1 n’est pas scindé dans R, mais il est scindé dans C puisque dans
C on a : P (X) = X 2 + 1 = (X + i)(X − i). En général, le Théorème de D’Alembert affirme
que tout polynôme de C[X] est scindé dans C.

Théorème 6.3.2. Soit f un endomrphisme d’un K-espace vectoriel E, et soient λ1 , · · · , λp les


valeurs propres de f . Alors les propriétés suivantes sont équivalentes :
140 Chapitre 6. Diagonalisation, trigonalisation et applications

1. f est diagonalisable.
2. E est somme directe des sous-espaces propres : E = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp .
3. dim(E) = dim(Eλ1 ) + dim(Eλ2 ) + · · · + dim(Eλp ).

Preuve. Comme Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp ⊂ E, alors il est simple de voir que 2 ⇐⇒ 3.
D’autre part :
- si E = Eλ1 ⊕ · · · ⊕ Eλp alors, en prenant des bases B1 , . . . , Bp de Eλ1 , . . . , Eλp , la famille B :=
{B1 , · · · , Bp } est une base de E ; puisque B est formée de vecteurs propres, f est diagonalisable.
Donc (2) =⇒ (1).
- Réciproquement, si f est diagonalisable, il existe une base B de E formée de vecteurs propres.
Soit :
B = {v1 , · · · , vn1 , · · · , w1 , · · · , wnp }.
| {z } | {z }
∈Eλ1 ∈Eλp

Comme card(B) = dim E, on a : n1 + · · · + np = dim E, c’est-à-dire :

dim Eλ1 + · · · + dim Eλ′ = dim E.

Donc (1) =⇒ (3).

Corollaire 6.3.1. Si f , est un endomorphisme d’un K-e.v. E de dimension n, ou A est une


matrice carrée d’ordre n possède n valeurs propres toutes distinctes deux à deux dans K, alors f
et A sont diagonalisables.

Preuve. Puisque, dans ce cas, f admet n valeurs propres de multiplicité égale à 1. Il y aura donc
n espaces propres de dimension 1.

Théorème 6.3.3. Soit f un endomorphisme d’un K-espace vectoriel E de dimension n, et soit


A sa matrice dans une base. La matrice A carrée d’ordre n est diagonalisable si et seulement si
1. son polynôme caractéristique est scindé dans K et
2. pour toute valeur propre λi de A de multiplicité mi , dim(Eλi ) = mi .

Preuve. Si les deux conditions sont satisfaites, alors on a :

dim Eλ1 + · · · + dim Eλp = m1 + · · · + mp = n

et donc, d’après le théorème 6.3.2, f est diagonalisable.


Réciproquement, supposons que f est diagonalisable, c’est-à-dire, d’après le théorème 6.3.2,
dim Eλ1 + · · · + dim Eλp = n.
Si χf (X) n’était pas scindé il serait du type :
α1 αk
χf (X) = Q(X) (X − λ1 ) · · · (X − λk ) avec α1 + · · · + αk < n.

Par conséquent : dim Eλ1 + · · · + dim Eλk ≤ α1 + · · · + αk < n, ce qui est faux. χf (X) est
donc scindé.
6.3. Diagonalisation 141

D’autre part, s’il existait un λj tel que dim Eλj < αj on aurait :

dim Eλ1 + · · · + dim Eλp < α1 + · · · + αp = n

ce qui est aussi faux. Donc la condition 2. est aussi vérifiée.

Voilà un récapitulatif :

Proposition 6.3.1. Soit un endomorphisme f d’un K-espace vectoriel E de dimension n. Soit


A ∈ Mn (K) la matrice associée à f , alors les propriétés suivantes sont équivalentes :
1. A est diagonalisable.
2. A possède n vecteurs propres linéairement indépendants (i.e., E admet une base de vecteurs
propres).
3. χA est scindé et pour chaque valeur propre λi de A de multiplicité mi , dim(Eλi ) = mi .

Résumé.
Après avoir trouvé des vecteurs propres pour les diverses valeurs propres, nous devons vérifier
si l’on peut trouver une base complète, formée de ces vecteurs propres. Il s’ensuit un travail de
vérification, pour savoir si certaines familles sont libres.
Soit A ∈ Mn (K), soit f : E −→ E l’application linéaire définie par f (x) = Ax, où E est un
K-espace vectoriel de dimension n. Pour tenter de diagonaliser A, on suit les étapes suivantes.
1. On calcule le polynôme caractéristique χA = det(A − λIn ), et on détermine ses racines
distinctes λ1 , · · · , λm dans K.
— Si χA n’est pas scindé sur K, alors A n’est pas diagonalisable, et on s’arrête.
— Si χA est scindé sur K, on passe à l’étape suivante. Rappelons que si n = m, c’est-à-dire
si on a n valeurs propres distinctes, alors on sait déjà que A est diagonalisable (voir
Corollaire 6.3.1).
2. Pour chaque λi , on calcule une base de Eλi = ker(f − λi idE ). On en déduit sa dimension
ni .
P
— Si i ni < n, la matrice A n’est pas diagonalisable, et on s’arrête.
P
— Si i ni = n, la matrice est diagonalisable, et on passe à l’étape suivante.
3. Soit ei1 , ei2 , · · · , eini une base de Eλi = ker(f − λi idE ). Alors la réunion de tous ces
vecteurs est une base B ′ de E. Soit P la matrice dont les colonnes sont, dans l’ordre, les
coefficients des vecteurs : e11 , · · · , e1n1 , · · · , em1 , · · · , emnm (c’est-à-dire P est la matrice
de passage à la base B ′ ), et la matrice D = P −1 AP est la matrice diagonale dont les
coefficients sont les valeurs propres de A, écrites dans le même ordre que les vecteurs
colonnes de P attention chaque λi apparaît ni fois sur sa diagonale.
 
2 0 4
Exemple 6.3.3. Soit la matrice A =  3 −4 12  .
1 −2 5
142 Chapitre 6. Diagonalisation, trigonalisation et applications

 
2−λ 0 4
On a : A − λI3 =  3 −4 − λ 12  , donc
1 −2 5−λ

2−λ 0 4
χA (λ) = det(A − λI3 ) = 3 −4 − λ 12
1 −2 5−λ
−4 − λ 12 3 −4 − λ
= (2 − λ) +4
−2 5−λ 1 −2
= −λ(λ − 1)(λ − 2).

Donc χA (λ) = −λ(λ − 1)(λ − 2), d’où A admet 3 valeurs propres distinctes à savoir les racines
de l’équation χA (λ) = 0 : λ1 = 0, λ2 = 1 et λ3 = 2, par suite A est diagonalisable.
Déterminons les sous-espaces propres.  
x
• Eλ1 = E0 (le sous-espaces propre associé à λ1 = 0). Soit v1 =  y  ; v1 ∈ E0 si et seulement
z
si Av1 = 0.v1 = 0 (v1 vecteur propre associé à λ1 = 0) :
   
2 0 4 x  2x + 4z = 0
 3 −4 12   y  = 0 ⇐⇒ 3x − 4y + 12z = 0
1 −2 5 z  x − 2y + 5z = 0

 x = −4 y

⇐⇒ 3
2
 z = y.

3
 
−4
Donc Eλ1 = E0 = {( −4 2
3 y, y, 3 y) | y ∈ R}, on prend y = 3, pour avoir v1 =
 3  (on peut
2
prendre tout autre vecteur colinéaire à v1 .)
• E1 
(le sous-espaces
 propre associé
 à λ1 =1). Il faut résoudre le système (A − I)v2 = 0, où
x 1 0 4
v2 =  y , comme A − I = 3 −5 12, alors
z 1 −2 4
   
1 0 4 x  x + 4z =0
3 −5 12  y  = 0 ⇐⇒ 3x − 5y + 12z =0
1 −2 4 z x − 2y + 4z =0

 
−4
ce qui donne, par exemple v2 =  0 
1
• E2 (le sous-espaces propre associé à λ2 = 2). On doit résoudre (A − 2I)v3 = 0, c’est-à-dire :

 4z = 0
3x − 6y + 12z = 0
x − 2y + 3z = 0

6.3. Diagonalisation 143

 
2
d’où v3 =  1 , à un facteur de proportionnalité près. Donc A est semblable à la matrice
0
   
0 0 0 −4 −4 2
A′ =  0 1 0  et une matrice de passage est P =  3 0 1
0 0 2 2 1 0
 
1 −1 3
Exemple 6.3.4. Prenons A = 2 3 2 .
3 1 1
Le calcul du polynôme caractéristique donne :

χA = −λ3 + 5λ2 + 2λ − 24.

Selon la façon de calculer le déterminant, ce polynôme peut vous apparaître factorisé, ce qui est
évidemment une bonne chose pour calculer les racines. On applique successivement les opérations
élémentaires C1 − C3 et L1 + L3 :

1−λ −1 3
χA (λ) = 2 3−λ 2
3 1 1−λ
−2 − λ −1 3
= 0 3−λ 2 ; C1 − C3
2+λ 1 1−λ
−2 − λ −1 3
= 0 3−λ 2 ; L1 + L3
0 0 4−λ
= −(λ + 2)(λ − 4)(λ − 3)

Donc χA = −(λ + 2)(λ − 4)(λ − 3). Les valeurs propres sont −2, 4 et 3. On a trois valeurs propres
distinctes, donc la matrice A est diagonalisable.
Nous allons déterminer les vecteurs v1 , v2 et v3 , i.e., les vecteurs propres associés aux valeurs
propres −2, 4 et 3 respectivement, ces vecteurs vont former une base de R3 .
Soit P la matrice dont les colonnes sont le coefficients de v1 , v2 et v3 , alors
 
−2 0 0
D = P −1 AP =  0 4 0 .
0 0 3

Ne pas oublier que D est la matrice de l’endomorphisme f associé à A dans la base B ′ =


{v1 , v2 , v3 }, et P est la matrice de passage de la base canonique B à la base B ′ .
Pour la valeur propre −2 par exemple et en posant v1 = (x, y, z), on cherche ker(f + 2idE ) ce
qui revient à résoudre :

 3x − y + 3z = 0
2x + 5y + 2z = 0
3x + y + 3z = 0

En quelques étapes on constate que ce système équivaut aux équations y = 0 et x + z = 0. En


144 Chapitre 6. Diagonalisation, trigonalisation et applications

   
−1 1
prenant z = 1 par exemple, on obtient v1 =  0  . De la même manière, on obtient v2 = 12
1 5
   
−1 −1 1 −1
et v3 =  5  . Donc la matrice de passage est P =  0 12 5  .
1 1 5 1

Exemple 6.3.5. Soit la matrice


 
−1 1 1
A= 1 −1 1 .
1 1 −1

On note par f l’endomorphisme de R3 dont la matrice par rapport à la base canonique de R3


est A. On a, en ajoutant la deuxième et la troisième colonne à la première,

−1 − λ 1 1
det(A − λI3 ) = 1 −1 − λ 1
1 1 −1 − λ
1−λ 1 1
= 1 − λ −1 − λ 1
1−λ 1 −1 − λ
1−λ 1 1
= 0 −2 − λ 0
0 0 −2 − λ
= (2 + λ)2 (1 − λ).

Donc le polynôme caractéristique de A, donc de f , est

χA (X) = (1 − X)(2 + X)2 .

Ainsi, −2 est une valeur propre double et 1 une valeur propre simple de A.
Cherchons si f est diagonalisable. Pour cela il faut déterminer les sous-espaces propres E−2 et
E1 .
• E−2 =?

v = (x, y, z) ∈ E−2 ⇐⇒ f (v) = −2v


   
x 0
⇐⇒ (A + 2I3 )  y  =  0 
z 0
    
1 1 1 x 0
⇐⇒  1 1 1   y  =  0 
1 1 1 z 0
⇐⇒ x + y + z = 0
⇐⇒ z = −x − y
⇐⇒ v = (x, y, −x − y) = x(1, 0, −1) + y(0, 1, −1).

Ainsi, E−2 = Vect{v1 , v2 }, où v1 = (1, 0, −1) et v2 = (0, 1, −1). Il est clair que dim E−2 = 2.
6.3. Diagonalisation 145

• E1 = ?
v = (x, y, z) ∈ E1 ⇐⇒ f (v) = v
   
x 0
⇐⇒ (A − I3 )  y  =  0 
z 0
    
−2 1 1 x 0
⇐⇒  1 −2 1   y  =  0 
 1 1 −2 z 0
 −2x + y + z = 0
⇐⇒ x − 2y + z = 0
 x + y − 2z = 0

 −2x + y + z = 0
⇐⇒ −3y + 3z = 0
3y − 3z = 0

⇐⇒ x = y = z
⇐⇒ v = (z, z, z) = z(1, 1, 1).
Ainsi, E1 = Vect{v3 }, où v3 = (1, 1, 1).
Si on pose C = {v1 , v2 , v3 }, alors C est une base de R3 , formée de vecteurs propres de f ,
par rapport à laquelle la matrice de f est :
 
−2 0 0
A′ =  0 −2 0  .
0 0 1
 
1 0 1
On vérifie que A′ = P −1 AP , où P =  0 1 1  est la matrice de passage de la base
−1 −1 1
canonique de R3 à la base C.
 
−4 0 −2
Exemple 6.3.6. Soit la matrice A =  0 1 0 .
5 1 3
Le polynôme caractéristique de A est χA (X) = −(1 − X)2 (X + 2) qui est bien un polynôme
scindé, donc A admet deux valeurs propres 1 de multiplicité 2 et −2 de multiplicité 1. On vérifie
que dim E1 = dim E−2 = 1, donc A n’est pas diagonalisable puisque dim E1 = 1 ̸= 2 ; qui est
l’ordre de multiplicité de la valeur propre 1.
 
6 2 1
Exemple 6.3.7. Soit la matrice A = −6 −1 −2 .
0 0 3
Le polynôme caractéristique est alors

6−λ 2 1
χA = det(A − λId) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ

Donc,
χA = −(λ − 3)2 (λ − 2).
146 Chapitre 6. Diagonalisation, trigonalisation et applications

Les valeurs propres sont donc 2 et 3.


Cherchons les vecteurs propres. Pour trouver ceux associés à la valeur propre 2, on résout le
système Ax = 2x ⇐⇒ (A − 2I3 )x =  0. Faites
 le calcul, vous trouverez un espace de dimension 1,
−1
avec pour base par exemple v1 =  2 . Pour la valeur propre 3, on résout Ax = 3x ⇐⇒
0
(A − 3I3 )x = 0. L’ensemble
  des solutions est de dimension 2, avec pour base par exemple
0 1
v2 =  1  et v3 = −1 . Il se trouve que {v1 , v2 , v3 } est une base de R3 . Nous avons donc
−2 −1
une base de vecteurs propres, ce qui signifie que A est diagonalisable. Plus précisément, si P est
la matrice dont les colonnes sont les coefficients de v1 , v2 , v3 , on sait sans calcul supplémentaire
que :

   
2 0 0 −1 0 1
D = P −1 AP = 0 3 0 et P = 2 1 −1
0 0 3 0 −2 −1
 
0 2 −3
Exemple 6.3.8. Soit la matrice A = −1 3 −3 .
−1 2 −2
Le polynôme caractéristique est alors (on ajoute la première colonne et la deuxième à la troi-
sième) :

−λ 2 −3 −λ 2 −λ − 1 −λ 2 1
χA = det(A − λId) = −1 3−λ −3 = −1 3−λ −λ − 1 = −(λ + 1) −1 3−λ 1
−1 2 −2 − λ −1 2 −λ − 1 −1 2 1

d’où, en applicant maintenant les opérations C1 + C3 et C2 − 2C3 , on trouve que :

−λ + 1 0 1
χA = −(λ + 1) 0 1 − λ 1 = −(λ + 1)(1 − λ)2 .
0 0 1

Les valeurs propres sont donc λ = −1 et λ = 1.


Cherchons des bases de E−1 et E1 , i.e., les vecteurs propres.
Pour trouver ceux associés à la valeur propre −1, on résout le système Ax= −x.  Vous trouverez
−1
un espace de dimension 1 (x = y = z), avec pour base par exemple e1 =  1 .
1
Pour la valeur propre 1, on résout Ax = x, on trouve x
  = 2y − 3z. L’ensemble
  des solutions est
2 −3
de dimension 2, avec pour base par exemple e2 = 1 et e3 =  0  . Par suite {e1 , e2 , e3 }
0 1
est une base de R3 . Nous avons donc une base de vecteurs propres, ce qui signifie que A est
diagonalisable. Plus précisément, si P est la matrice dont les colonnes sont e1 , e2 , e3 , on sait sans
calcul supplémentaire que :
6.4. Trigonalisation 147

   
−1 0 0 1 2 −3
D = P −1 AP =  0 1 0 et P = 1 1 0 .
0 0 1 1 0 1

6.4 Trigonalisation
Définition 6.4.1. Une matrice A ∈ Mn (K) est dite trigonalisable si et seulement si elle est
semblable à une matrice triangulaire.
     
5 −1 3 −1 1 1
Exemple 6.4.1. Soient les matrices A = , B = , et P = , nous
4 1 0 3 2 3
avons B = P −1 AP, donc la matrice A est trigonalisable.

Définition 6.4.2. Un endomorphisme f ∈ L(E) d’un K-espace vectoriel E de dimension n est


dit trigonalisable s’il existe une base B de E telle que MB (f ) soit une matrice triangulaire. Dans
ce cas, la base B est appelée une base de trigonalisation de f .

Proposition 6.4.1. Toute matrice triangulaire supérieure est semblable à une matrice triangu-
laire inférieure.

Preuve. En effet, soit A une matrice triangulaire supérieure et f l’endomorphisme de Kn qui


dans la base canonique B = {e1 , · · · , en } est représenté par la matrice A, c’est-à-dire :


 f (e1 ) = a11 e1


 f (e2 ) = a12 e1 + a22 e2
··· ..............................
f (e ) = a1,n−1 e1 + · · · + an−1,n−1 en−1



 n−1
= a1n e1 + · · · + ann en .

f (en )

Considérons la base B = {ε1 , ε2 , ε3 , · · · · · · , εn−1 , εn } telle que

ε1 = en , ε2 = en−1 , ε3 = en−2 , · · · · · · , εn−1 = e2 , ε n = e1 .

On aura donc : 

 f (ε1 ) = a1n εn + a2n εn−1 + · · · + ann ε1

1,n−1 εn + · · · + an−1,n−1 ε2

 f (ε ) = a
2


 ······························

f (ε ) = a ε
n 11 n

Par suite la matrice de f dans la base B ′ est donnée par :


 
ann ... 0
 an−1,n an−1,n−1 
A′ = MB ′ (f ) = 
 
.. .. 
 . . 
a1n ...... a11

D’où A et A′ sont semblables car elles représentent le même endomorphisme en des bases diffé-
rentes.
148 Chapitre 6. Diagonalisation, trigonalisation et applications

Le problème que nous allons étudier est de savoir quand une matrice A ∈ Mn (K) est semblable
à une matrice triangulaire de Mn (K) (ou, en termes d’endomorphisme, quand un endomorphisme
peut être représenté dans une certaine base par une matrice triangulaire). D’après la Proposition
6.4.1, il suffira d’étudier le cas où A est semblable à une matrice triangulaire supérieure.

Proposition 6.4.2. Une matrice A ∈ Mn (K) est trigonalisable dans Mn (K) si et seulement si
son ploynôme caractéristique χA est scindé sur K.

Preuve. Soit une matrice A ∈ Mn (K).


Supposons que la matrice A est trigonalisable, alors elle est semblable à une matrice C triangulaire
 
a11 ∗
C=
 .. 
. 
0 ann

donc
 
a11 − X ∗
χA (X) = χC (X) = det 
 ..  = (a11 − X) (a22 − X) · · · (ann − X) .

.
0 ann − X

d’où χA (X) est scindé (remarquons que si C est triangulaire, alors les éléments de la diagonale
aii sont les valeurs propres).
Réciproquement supposons χA (X) scindé et montrons par récurrence que A est trigonalisable.
Soit f l’endomorphisme représenté par A dans une base B = {e1 , · · · , en }.
Pour n = 1 (c-à-d A = (a) est une matrice scalaire) il n’y a rien à montrer.
Supposons le résultat vrai à l’ordre n − 1. Puisque χA (X) est scindé, il admet donc au moins
une racine λ ∈ K et alors il existe au moins un vecteur propre u1 ∈ Eλ . Complétons la famille
{u1 } en une base : ε = {u1 , u2 , · · · , un }. On a :

···

λ b2 bn
 0 
A = Mε (f ) =  , où B ∈ Mn−1 (K).
 
..
 . B 
0

Soit F = Vect {u2 , . . . , un } et soit g : F −→ F l’unique endomorphisme de F tel que


Mu2 ,...,un (g) = B. On a :

χA (X) = det (A − XIn ) = (λ − X) det (B − XIn−1 ) = (λ − X)χB (X)

Puisque χA (X) est scindé, χB (X) l’est aussi et donc, d’après l’hypothèse de récurrence, B est
trigonalisable, c’est-à-dire il existe une base {e2 , . . . , en } de F relativement à laquelle Me2 ,...,en (g)
est triangulaire. Dans la base {u1 , e2 , . . . , en } la matrice A est triangulaire.

Remarque 6.4.1. Pratiquement, pour trigonaliser une matrice A, comme la diagonalisation


éventuelle, on suit les étapes suivantes :
6.4. Trigonalisation 149

• on calcule le polynôme caractéristique χA de A, s’il n’est pas scindé on s’arrête la matrice n’est
pas trigonalisable. Si χA est scindé on passe à l’étape suivante,
• on détermine les valeurs propres de A,
• on cherche les sous-espaces propres associés aux vecteurs propres ;
• dans le cas où la dimension de chaque sous-espace propre est égale à la multiplicité de la valeur
propre associée, on choisit une base de vecteurs propres. Dans les autres cas, on choisit une
base incomplète de vecteurs propres et on complète cette famille par des vecteurs non propres,
souvent des vecteurs de la base canonique.
 
−4 0 −2
Exemple 6.4.2. Soit la matrice A =  0 1 0 . Pour trigonaliser cette matrice, nous
5 1 3
devons calculer son polynôme caracteristique. Rappelons que dans ce cas χA (X) = det(A−X.I3 ) ;
alors
−4 − X 0 −2
χA (X) = det(A − X.I3 ) = 0 1−X 0 = −(X − 1)2 (X + 2).
5 1 3−X

Comme χA (X) = −(X −1)2 (X +2), alors le polynôme caractéristique est scindé dans R; donc
la matrice A est trigonalisable dans R. En regardant A comme la matrice d’un endomorphisme
f de R3 dans la base canonique, on sait qu’il existe une base B = {e, e2 , e3 } de vecteurs de R3
telle que

f (e1 ) f (e2 ) f (e3 )


 
1 a b e1
MB (f ) =  0 1 c  e2
0 0 −2 e3

 f (e1 ) = e1
Ceci signifie que : f (e2 ) = ae1 + e2
f (e3 ) = be1 + ce2 − 2e3 .

Calcul de e1 . (e1 est le vecteur propre correspondant à λ1 = 1).
La première équation f (e1 ) = e1 est équivalente à (A − I)e1 = 0), et cette dernière équation
donne (en prenant e1 = (x, y, z)) :
( (
−5x − 2z = 0 5x = −2z
⇐⇒
5x + y + 2z = 0 y=0

 
2
On peut prendre donc (en choisissant z = −5) e1 =  0  .
−5
Calcul de e2 .
On résout de même l’équation (f − id)e2 = ae1 , qui est équivalente à (A − I)e2 = ae1 , on trouve
que : 
−5x − z = 2a
5x + y + 2z = −5a.
150 Chapitre 6. Diagonalisation, trigonalisation et applications

D’où, en prenant par exemple a = 1 et z = 4, on trouve que e2 = (−2, −3, 4).


Calcul de e3 .
On sait qu’il existe un vecteur propre v correspondant à la valeur propre −2 , c’est-à-dire tel que
f (v) = −2v. On peut prendre, donc : e3 = v, b = c = 0 (on peut donner à b et c les valeurs qu’on
veut et on résout l’équation f (e3 ) + 2e3 = ae1 + be2 ). En résolvant (f + 2id)e3 = 0, c’est-à-dire
(A + 2I)e3 = 0, on trouve :

−2x − 2z = 0
3y =0
 
1
qui donne, par exemple : e3 =  0 . Ainsi A est semblable à la matrice
−1
 
1 1 0
D = Mei (f ) =  0 1 0 
0 0 −2

et la matrice de passage est la matrice


 
2 −2 1
P = 0 −3 0 .
−5 4 −1
 
1 4 −2
Exemple 6.4.3. Trigonaliser la matrice A suivante : A =  0 6 −3 .
−1 4 0
On commence par calculer le polynôme caractéristique de A, on trouve

χA (λ) = det(A − λI3 ) = (λ − 3)(λ − 2)2 .

Donc la matrice A est trigonalisable. Les valeurs propres sont donc λ1 = 3 et λ2 = 2.


On cherche ensuite E3 , le sous-espace propre associé à la valeur propre 3, en résolvant AX = 3X.
Un calcul rapide montre que E3 est engendré par le vecteur propre v1 = (1, 1, 1).
On cherche ensuite E2 , le sous-espace propre associé à la valeur propre 2, en résolvant AX = 2X.
On trouve cette fois qu’il est engendré par le vecteur propre v2 = (4, 3, 4).
Pour trigonaliser la matrice, il suffit de compléter la base {v1 , v2 } par untroisième
 vecteur
−2
indépendant des deux premiers, par exemple v3 = (0, 0, 1). On a donc Av3 = −3. Cherchons
0
a, b et c tels que Av3 = (−2, −3, 0) = av1 + bv2 + cv3 . Nous avons

(−2, −3, 0) = av1 + bv2 + cv3 ⇐⇒ (−2,


 −3, 0) = (a + 4b, a + 3b, a + 4b + c)
 a + 4b = −2
⇐⇒ a + 3b = −3
 a + 4b + c = 0

 a = −6
⇐⇒ b=1
c = 2.

6.4. Trigonalisation 151

 
3 0 −6
Par suite la matrice A est semblable à la matrice D = 0 2 1  (les valeurs propres sont
0 0 2
 
1 4 0
sur la diagonale) et la matrice de passage étant P = 1 3 0 .
1 4 1
Attention, il n’y a pas bien sûr unicité ni de la matrice triangulaire supérieure à laquelle A est
semblable, ni de la matrice de passage.
 
2 −1 −1
Exemple 6.4.4. Trigonaliser la matrice B suivante : B = 2 1 −2 .
3 −1 −2
Dans cet exemple, nous allons donner une forme plus précise à la trigonalisation. Le polynôme
caractéristique de B est :

χB (λ) = det(B − λI3 ) = (λ + 1)(λ − 1)2 .

Donc la matrice B est trigonalisable. Les valeurs propres sont donc λ1 = −1 et λ2 = 1.


On cherche maintenant E−1 , le sous-espace propre associé à la valeur propre −1, en résolvant
BX = −X. On trouve que E−1 est engendré par le vecteur propre v1 = (1, 1, 2).
De même, on cherche ensuite E1 , le sous-espace propre associé à la valeur propre 1, en résolvant
BX = X. On trouve qu’il est engendré par le vecteur propre v2 = (1, 0, 1).
Pour trigonaliser la matrice, il suffit de compléter la base {v1 , v2 } par un troisième vecteur v3
indépendant des deux vecteurs v1 et v2 . Cherchons v3 de tel sorte que Bv3 = v2 + v3 (on peut
aussi chercher le vecteur v3 pour avoir Bv3 = 2v1 + v2 + v3 etc...), après les calculs on obtient
que levecteur v3 = (0, −1, 0) convient. On a la matrice B est donc semblable à la matrice
−1 0 0
D =  0 1 1 (les valeurs propres sont sur la diagonale) et la matrice de passage est
0 0 1
 
1 1 0
P = 1 0 −1 .
2 1 0

Exemple 6.4.5. Soit la matrice


 
1 −3 4
M = 4 −7 8 
6 −7 7

Son polynôme caractéristique est

χM (X) = −(X + 1)2 (X − 3).

Les valeurs propres sont λ1 = 3, racine simple et λ2 = −1, racine double. L’espace propre
associé à λ1 est de dimension 1 et engendré par le vecteur v1 = (1, 2, 2). L’espace propre associé à
la valeur double λ2 est de dimension 1 et engendré par le vecteur v2 = (1, 2, 1). La matrice n’est
donc pas diagonalisable. Pour trigonaliser la matrice, il suffit de compléter la famille libre {v1 , v2 }
en une base de C3 . Soit v3 = (1, 0, 0) (ce choix est loin d’être unique). La famille {v1 , v2 , v3 } est
152 Chapitre 6. Diagonalisation, trigonalisation et applications

bien une base. La matrice de changement de base est


 
1 1 1
P = 2 2 0 
2 1 0
qui est de déterminant -2 donc non nul, ce qui montre bien que la famille {v1 , v2 , v3 } est une
base. La matrice semblable T = P −1 M P s’écrit
 
3 0 a
T =  0 −1 b 
0 0 −1
(les valeurs propres sont sur la diagonale). On peut calculer les paramètres a et b soit en calculant
P −1 M P , soit plus simplement, en écrivant que
        
1 −3 4 1 1 1 1
 4 −7 8   0  = a  2  + b  2  −  0  .
6 −7 7 0 2 1 0

On trouve
a = 4, b = −2.

Ainsi M est semblable à la matrice triangulaire


 
3 0 4
T =  0 −1 −2 
0 0 −1
Exemple 6.4.6. Soit la matrice
 
−2 −1 2
M =  −15 −6 11 
−14 −6 11

Son polynôme caractéristique est


χM (X) = −(X − 1)3 .
Les valeurs propres sont λ1 = 1, racine triple. L’espace propre associé à λ1 est de dimension 1 et
engendré par le vecteur v1 = (1, 1, 2). La matrice n’est donc pas diagonalisable. Pour trigonaliser
la matrice, nous n’avons pas de méthode efficace. On revient donc à la définition. On commence
à chercher un vecteur v2 = (x, y, z) tel que
     
x 1 x
M.  y  = a  1  +  y  .
z 2 z

Ce système linéaire est indéterminé. On prend a = 1 (a est nécessairement non nul). On a


alors le système 
−3x − y + 2z
 =1
−15x − 7y + 11z =1

−14x − 6y + 10z =2

6.5. Applications 153

qui admet comme solution (x, x + 3, 2x + 2). On prendra v2 = (0, 3, 2). Complètons la famille
{v1 , v2 } en une base {v1 , v2 , v3 }. Si P est la matrice de changement de bases associée, alors la
matrice semblable T = P −1 M P est de la forme
 
1 1 b
T = 0 1 c 
0 0 d

Mais d est valeur propre de T donc de M ce qui implique d = 1. Il reste donc à calculer les
constantes b et c. Choisissons v3 = (1, 0, 0). Alors
         
1 −2 1 0 1
M.  0  =  −15  =b  1  +c  3  +  0 
0 −14 2 2 0

et donc b = −3, c = −4. Ainsi M est semblable à la matrice


 
1 1 −3
T = 0 1 −4 
0 0 1

la matrice de passage étant


 
1 0 1
P = 1 3 0 .
2 2 0

6.5 Applications

6.5.1 Calcul de la puissance d’une matrice

Soit A ∈ Mn (K), supposons que la matrice A est diagonalisable, il existe alors une matrice
diagonale D et une matrice inversible P telles que : D = P −1 AP , c’est-à-dire A = P DP −1 .
Donc :

Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 .
| {z }
k f ois
   k 
λ1 0 λ1 0
D’autre part, si D = 
 .. k
 on a D = 
  ..  , et donc Ak se calcule facile-

. .
0 λn 0 λkn
ment par la formule :
 k 
λ1 0
k
A =P
 ..  −1
P .
.
0 λkn

Exemple 6.5.1.
154 Chapitre 6. Diagonalisation, trigonalisation et applications

   
1 −1 2 0
Soit A = , donc χA (λ) = λ2 − 5λ + 6 = (λ − 2)(λ − 3). Alors, D = . Pour
2 4 0 3
les valeurs propres 2 et 3 on trouve :  
1
— E2 est définie par −x − y = 0 donc v1 = .
−1
 
1
— E3 est définie par −2x − y = 0 donc v2 = .
−2
   
1 1 2 1
Ainsi, P = et P −1 = . En effectuant les calculs, on obtient :
−1 −2 −1 −1

2k+1 − 3k 2k − 3k
 
k
A = .
−2k+1 + 2.3k −2k + 2.3k

6.5.2 Résolution d’un système de suites récurrentes

Exemple 6.5.2. Prenons un exemple. Déterminer deux suites (Un )n∈N et (Vn )n∈N telles que :
( (
Un+1 = Un − Vn U0 = 2
(1) et telles que .
Vn+1 = 2Un + 4Vn V0 = 1
 
Un
On pose Xn = . Le système (1) s’écrit :
Vn
 
1 −1
Xn+1 = AXn avec A = ,
2 4

d’où, par récurrence :


 
n 2
Xn = A X0 avec X0 = .
1
On est ainsi ramené au calcul de An . Dans notre cas, compte tenu du résultat ci-dessus :
   n+1
− 3n 2n − 3n 5.2n − 3n+1
   
Un 2 2
= = ,
Vn −2n+1 + 2.3n −2n + 2.3n 1 −5.2n + 2.3n+1

c’est à dire : (
Un = 5.2n − 3n+1
.
Vn = −5.2n + 2.3n+1

6.5.3 Système différentiel linéaire à coefficients constants

Soit à résoudre de système différentiel suivant :



dx1
= a11 x1 + . . . + a1n xn
 dt


..
. avec aii ∈ R, xi : R → R dérivables.

 dxn

= an1 x1 + . . . + ann xn
dt
6.5. Applications 155

Ce système s’écrit sous forme matricielle comme suite :


 
x1
dX
= AX, où A = (aii ) et X =  ...  .
 
dt
xn

Supposons que A est diagonalisable, il existe alors, une matrice diagonale D et une matrice
inversible P telles que : D = P −1 AP. Si A est la matrice d’un endomorphisme f dans la base
canonique B, D sa matrice dans la base des vecteurs propores B ′ , X est la matrice d’un vecteur
x dans B et X ′ sa matrice dans B ′ , alors on a : X ′ = P −1 X.
En dérivant cette relation, on obtient :

dX ′ dX
= P −1 = P −1 AX = P −1 AP X ′ = DX ′ .
dt dt

Ce système s’intègre facilement, car D est diagonale.


Ainsi, on peut résoudre le système dX
dt = AX de la manière suivante :
— On diagonalise A si D = P −1 AP est diagonale semblable à A.


— On intègre le système dX dt = DX .

— On revient à X par X = P X .

Exemple 6.5.3.

Soit le système suivant : (


dx
dt =x−y
dy .
dt = 2x + 4y

On a :
     
1 −1 2 0 1 1
A= ,D= et P = .
2 4 0 3 −1 −2
dX ′
Le système dt = DX ′ s’écrit :
dx′
(
dt = 2x′
dy ′
,
dt = 3y ′
ce qui donne immédiatement : (
x′ = c1 e2t
,
y ′ = c2 e3t

et donc, en revenant à X par X = P X ′ :


  2t  
c1 e2t + c2 e3t
   
x 1 1 c1 e
= = ,
y −1 −2 c2 e3t −c1 e2t − 2c2 e3t

c’est à dire : (
x = c1 e2t + c2 e3t
.
y = −c1 e2t − 2c2 e3t
156 Chapitre 6. Diagonalisation, trigonalisation et applications

6.6 Exercices
 
1 1
Exercice 6.1. Soit A la matrice suivante A = .
2 1
1. Calculer le polynôme caractéristique et déterminer les valeurs propres de A. A est-elle
diagonalisable ?
2. On note λ1 > λ2 les valeurs propres de A, E1 et E2 les sous-espaces propres associés.
Déterminer une base (ε⃗1 , ε⃗2 ) de R2 telle que ε⃗1 ∈ E1 , ε⃗2 ∈ E2 , les deux vecteurs ayant des
coordonnées de la forme (1, y).
3. Déduire une diagonalisation de A.

Exercice 6.2. Donner les valeurs propres, vecteurs propres et matrice de diagonalisation éven-
tuelle des matrices suivantes dans R2 :
     
4 4 2 5 5 3
, , .
1 4 4 3 −8 6
 
3 0 −1
Exercice 6.3. Soit A la matrice suivante A =  2 4 2 .
−1 0 3
1. Déterminer et factoriser le polynôme caractéristique de A.
2. Démontrer que A est diagonalisable et déterminer une matrice D diagonale et une matrice
P inversible telles A = P DP −1 .
3. Donner le polynôme minimal de A.
4. Calculer An pour n ∈ N.

Exercice 6.4. Soit l’application linéaire u : R3 −→ R3 définie par sa matrice A dans la base
canonique B = {e1 , e2 , e3 } de R3 :
 
1 2 0
A = 1 3 −1.
1 −1 3

1. Donner une base du noyau de u et une base de son image.


2. i. Calculer le polynôme caractéristique de u, en déduire ses valeurs propres.
ii. u est-elle diagonalisable ? Donner une matrice diagonale semblable à A.
iii. Calculer une base de R3 formée des vecteurs propres de u.
3. Soient f1 = −2e1 + e2 + e3 , f2 = e1 + e2 + e3 et f3 = 2e1 + 3e2 − e3 trois vecteurs de R3 .
i. Vérifier que B ′ = {f1 , f2 , f3 } est une base de R3 et écrire la matrice P de passage de la
base B à la base B ′ .
ii. Calculer P −1 .
iii. Écrire la matrice D de u dans la base B ′ .
4. Quelle relation reliant A3 , D3 , P et P −1 ? En déduire A3 .
6.6. Exercices 157

Exercice 6.5. Diagonaliser, si c’est possible, les matrices suivantes :


     
  3 −3 −4 −1 1 0 0 0 3 −1 7 −14
2 −1 1
1 0 −1
0 2
 0 −1 
1 1 −1 1
 
4
 −1 7 −15

2 −4 −3 0  2 −1 1 1 0 0 3 −4 
2 −2 1
0 2 0 −1 3 −1 −1 3 0 0 2 −3

Exercice 6.6. On considère l’application suivante :

Rn [X] → Rn [X]
f:
P 7→ (X 2 − 1)P ′ − 2(nX + a)P

Vérifier que f est bien définie. Déterminer ses valeurs propres, et les espaces propres associés.
 
1 0 0
Exercice 6.7. Soit la matrice A = 0 0 −1 .
0 1 2
 
1 0 0
A est-elle diagonalisable ? Montrer que A est semblable à la matrice triangulaire B = 0 1 1 .
0 0 1
 
0 1 0 0
2 0 −1 0
Exercice 6.8. Soit M la matrice de R4 suivante M =  0 7 0 6 .

0 0 3 0

1. Déterminer les valeurs propres de M et ses sous-espaces propres.


2. Montrer que M est diagonalisable.
3. Déterminer une base de vecteurs propres et P la matrice de passage.
4. On a D = P −1 M P , pour k ∈ N exprimer M k en fonction de Dk , puis calculer M k .
 
1 −1 0
Exercice 6.9. Déterminer a ∈ R pour que 2 soit valeur propore de A = a 1 1 .
0 1+a 3
Montrer alors que A est diagonalisable et déterminer ses éléments propores.

Exercice 6.10. Soit f l’endomorphisme de R4 dont la matrice dans la base canonique B est :
 
0 1 0 0
0 0 0 0
A= 0 0 0
.
1
−1 2 −1 2

1. Calculer le polynôme caractéristique de f .


2. Déterminer les sous-espaces propres de f .
3. L’endomorphisme f est-il diagonalisable ?
4. Trouver une base de R4 dans laquelle la matrice de f est triangulaire supérieure.
BIBLIOGRAPHIE

[1] A. Bodin, Algèbre : Cours de mathématiques - Première année. 2016.


[2] Bernard Le Stum, Algèbre linéaire et bilinéaire. 1er décembre 2016.
[3] François Cottet-Emard, Algèbre linéaire et bilinéaire : Cours et exercices corrigés. Édition de
Boeck, 2006.
[4] Mohamed Houimdi, Algèbre linéaire et algèbre bilinéaire, Cours et exercices corrigés. Ellipses,
2021.
[5] J. P. Escofier, Toute l’algèbre de la Licence : Cours et exercices corrigés. 4e édition, Dunod
(2016).
[6] J. Grifone, Algèbre linéaire. 4e édition, Cépaduès-éditions (2011).
[7] Patrice Tauvel, Exercices d’algèbre linéaire, Dunod Paris, (2004).
[8] M. C. Ismaili, Notes de cours d’Algèbre 3 pour SMIA, Semestre 2, Faculté des sciences Oujda,
2018-2019.

158

Vous aimerez peut-être aussi