Cours D'algèbre 2 Pour MIP S2
Cours D'algèbre 2 Pour MIP S2
Cours d’Algèbre 2
Algèbre linéaire
Remerciements 1
Introduction 4
1 Matrices 6
1.1 Définitions et Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Égalité de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Somme de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Produit d’une matrice par un scalaire . . . . . . . . . . . . . . . . . . . . 10
1.3.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.5 L’anneau (Mn (K), +, ×) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.6 La transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.7 Matrices symétriques, antisymétriques . . . . . . . . . . . . . . . . . . . . 15
1.3.8 La trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.9 L’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.10 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
i
ii TABLE DES MATIÈRES
2 Déterminant 25
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Règle de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Déterminants de quelques matrices particulières . . . . . . . . . . . . . . . . . . . 33
2.5 Application : l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4 Espaces vectoriels 64
4.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1.2 Définition d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Base d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4.1 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.4.3 Base et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5 Formule de Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6 L’espace vectoriel (Mm,n (K), +, .) . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
TABLE DES MATIÈRES iii
Bibliographie 158
REMERCIEMENTS
Nous tenons à remercier tous les collègues et amis qui ont contribué à la réalisation de ce
cours, surtout le professeur Moulay Chrif ISMAILI de la Faculté des Sciences d’Oujda qui a
mis à ma disposition son cours d’algèbre 3 pour SMIA des années précédentes.
1
"Beaucoup de gens, et notamment la plupart de ceux qui se bornent à "utiliser" les
Mathématiques, prétendent que lorsqu’on écrit pour les débutants il est inutile ou
même nuisible, d’essayer de faire preuve d’une trop grande rigueur, de tout démon-
trer, d’introduire des notions trop générales, d’utiliser une terminologie strictement
définie et dépourvue de discours fleuris. S’ils avaient raison, cela voudrait dire que,
contrairement aux mathématiciens professionnels, et au bon sens, les débutants com-
prennent d’autant plus facilement un texte mathématique qu’il est plus mal rédigé."
"Nous voulons, autant que cela est possible, introduire dans toutes les sciences la
finesse et la sévérité des mathématiques, sans imaginer que par là nous arriverons à
connaître les choses, mais seulement pour déterminer nos relations humaines avec les
choses. La mathématique n’est que le moyen de la science générale et dernière des
hommes."
"Le lecteur débutant ne doit pas désespérer, mais plutôt reprendre la chaîne des
définitions et des applications, jusqu’à ce que tout lui apparaisse bien clairement."
2
PRÉAMBULE
Ces notes de cours sont destinées en premier lieu aux étudiants de la faculté des sciences
d’Oujda, de la filière MIP semestre 2. C’est une introduction aux notions d’algèbre linéaire qui
sont des notions fondamentales des mathématiques modernes.
Par ce type de cours, on cherche à dégager les propriétés communes que partagent des en-
sembles qui sont très différents. Par exemple, on peut additionner deux vecteurs du plan ou de
l’espace et aussi multiplier un vecteur par un réel. Mais on peut aussi additionner deux fonctions,
ou multiplier une fonction par un réel. Même chose avec les polynômes, les matrices, les suites,
les séries, ...
Le but est d’obtenir des théorèmes généraux qui s’appliqueront aussi bien aux vecteurs du
plan, de l’espace, aux espaces de fonctions, aux polynômes, aux matrices, aux suites, ...
Pour ceux qui s’intéressent ou veulent approfondir l’un ou l’autre des sujets traités, je recom-
mande les références citées à la fin de ce polycopié.
Malgré une relecture attentive, des erreurs peuvent encore subsister quelques part dans ce
polycopié, prière à toute personne utilisant ce document de bien vouloir me signaler toute erreur
ou remarque pertinente à l’e-mail : zekha2@[Link], et ce dans le but de l’améliorer.
3
INTRODUCTION
L’algèbre linéaire est l’une des «structures fondamentales» des mathématiques, elle est un
outil fondamental dans presque toutes les disciplines modernes des mathématiques et dans des
grandes parties de la physique, en particulier lorsqu’il s’agit de modéliser puis résoudre numé-
riquement des problèmes dans divers domaines : théorie des nombres, analyse, analyse fonc-
tionnelle, physique mathématique, etc. C’est par conséquent un élément essentiel du bagage
mathématique indispensable aux mathématiciens, physiciens, ingénieurs et autres scientifiques.
Le cours que je présente dans ce polycopié s’agit de l’algèbre linéaire désignée aux étudiants de
MIP (les étudiants de la filière Mathématiques, Informatique et Physique) en module d’algèbre 2
du deuxième semestre du premier cycle des universités. Il peut également être utile aux étudiants
des classes prépas et écoles d’ingénieurs et à tous ceux qui s’intéressent à l’algèbre linéaire.
L’expérience montre que le passage des lycées à la première année de la faculté constitue pour
la plus part des étudiants un énorme obstacle et une difficulté insurmontable dus au manque des
notions aux lycées et la façon avec laquelle ont traité ces dernières. C’est pourquoi, dans ce
cours, j’ai essayé de présenter les notions à partir du début, sans supposer que les étudiants en
ont entendu parler, avec plus de détails, sans abandonner la rigueur, j’ai illustré ces notions par
de nombreux exemples et remarques qui aideront l’étudiant à mieux assimiler et comprendre les
notions introduites.
Il est bien connu que «faire des mathématiques» veut dire d’abord et avant tout «résoudre
des problèmes et des exercices». L’étudiant est donc, après avoir appris et compris son cours,
demandé de l’assimiler et l’approfondir en résolvant des exercices et problèmes. Notons que l’ef-
fort que l’étudiant fournira est important : tout d’abord il doit comprendre son cours, ensuite il
doit bien connaître les définitions, les théorèmes, les propositions... sans oublier de travailler les
exemples et les démonstrations, qui permettent de bien assimiler les notions et les mécanismes
de raisonnement. Il est nécessaire de résoudre activement par vous-même des exercices, sans re-
garder les solutions. L’étudiant trouvera donc à la fin de chaque chapitre de nombreux exercices
et problèmes qui vont l’aider à contrôler la compréhension et l’acquisition de ses connaissances.
Ce cours est composé de six chapitres.
4
Introduction 5
MATRICES
6
1.2. Matrices particulières 7
1 −2 5
2. B = est une matrice constituée de 2 lignes et 3 colonnes, donc de type (2, 3).
0 3 7
On a
a11 = 1, a12 = −2 et a13 = 5,
a21 = 0, a22 = 3 et a23 = 7.
1 −2 5
0 3 7
3. C = 2 −7 11 est une matrice constituée de 4 lignes et 3 colonnes, donc de type
−3 2 9
(4, 3). On a par exemple, a21 = 0, a23 = 7 et a43 = 9.
1. Matrice carrée d’ordre n. Si m = n (même nombre de lignes que de colonnes), la matrice est
dite matrice carrée d’ordre ou de taille n. On note leur ensemble Mn (K) au lieu de Mn,n (K).
a11 a12 ... a1n
a21 a22 ... a2n
.. .. .. ..
. . . .
an1 an2 ... ann
3. Matrice colonne. De même, une matrice qui n’a qu’une seule colonne (n = 1) est appelée
matrice colonne. On la note
a11
a21
A = . .
..
am1
4. La matrice nulle. La matrice (de taille m × n) dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0m,n ou plus simplement 0. Dans le calcul matriciel, la
matrice nulle joue le rôle du 0 pour les nombres réels ou complexes.
5. Matrices triangulaires. Soit A une matrice de taille n × n. On dit que A est triangulaire
inférieure si ses éléments au-dessus de la diagonale sont nuls, autrement dit :
i < j =⇒ aij = 0.
8 Chapitre 1. Matrices
··· ···
a11 0 0
.. ..
a21 a22 . .
.. .. .. .. ..
.
. . . .
. .. ..
..
. . 0
an1 an2 ··· · · · ann
On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale sont nuls,
autrement dit :
i > j =⇒ aij = 0.
··· ···
a11 0 0
.. ..
0 a22 . .
.. .. .. .. ..
.
. . . .
. .. .. ..
..
. . . 0
0 0 · · · 0 ann
0 ··· ··· 0 1
Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre 1 pour
les réels.
Définition 1.3.1. Soient quatre entiers naturels non nuls m, n, m′ et n′ . Soient A = (aij ) de
Mm,n (K) et B = (bij ) une matrice appartenant à Mm′ ,n′ (K). On dit que ces deux matrices A
et B sont égales si et seulement si m = m′ , n = n′ et aij = bij pour tous i et j. Autrement dit, A
et B sont égales lorsqu’elles ont la même taille et que les coefficients correspondants sont égaux.
Exemple 1.3.1.
3 9 3 5
1- Les deux matrices A = et B = ne sont pas égales car a12 = 9 ̸= b12 = 5.
1 7 1 7
√
a b 9 −5
2- = √ si et seulement si a = 9, b = −5, c = 2 et d = 17.
c d 2 17
√
√ √
x y 4 √−1 2 4
3- = si et seulement si x = −1, y = 2, z = 111.
z 17 23 111 17 23
Définition 1.3.2. Soient A = (aij ) et B = (bij ) deux matrices ayant la même taille m × n (dans
Mm,n (K)). Leur somme C = A + B est la matrice C = (cij ) de taille m × n définie par
Exemple 1.3.2.
3 −2 0 5 3+0 (−2) + 5 3 3
Si A = et B = , alors A + B = = .
1 7 2 −1 1+2 7 + (−1) 3 6
10 Chapitre 1. Matrices
−2
Par contre pour C = , la somme A + C n’est pas définie (Pourquoi ?).
8
Remarque 1.3.1. Il est facile de prouver que la somme de deux matrices triangulaires supé-
rieures (resp. inférieures) est une matrice triangulaire supérieure (resp. inférieure).
Remarque 1.3.2.
1. On peut définir par récurrence la somme de plusieurs matrices de même type.
2. La différence de deux matrices A et B de même type est la matrice notée A − B et est
définie par : A + (−B).
Exemple 1.3.3.
2 −1 0 −1 4 2 3 −5 −2
Si A = et B = , alors A − B = .
4 −5 2 7 −5 3 −3 0 −1
Exemple 1.3.4.
1 2 3 2×1 2×2 2×3 2 4 6
Si A = et α = 2, alors αA = = .
0 1 0 2×0 2×1 2×0 0 2 0
Remarque 1.3.3. La matrice (−1)A est dite l’opposée de A = (aij ) et est notée −A et on a :
−A = (−aij ).
Commençons par dire que le produit de deux matrices A et B n’est défini que si le
nombre de colonnes de A est égal au nombre de lignes de B.
Définition 1.3.4. Soient A = (aij ) une matrice de type m × n et B = (bij ) une matrice de type
n × p. Alors le produit C = AB des deux matrices A et B est une matrice de type m × p dont
les coefficients cij sont définis par :
n
X
cij = aik bkj ·
k=1
×
×
←B
×
×
|
|
A→
×
← AB
× × × − − − cij
Exemple 1.3.5.
1 2
1 2 3
A= B = −1 1
2 3 4
1 1
On dispose d’abord le produit correctement (la matrice qu’on va obtenir est de taille 2 × 2) :
1 2
−1 1
1 1
1 2 3 c11 c12
2 3 4 c21 c22
c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2.
On obtient :
1 2
−1 1
1 1
1 2 3 2 c12
2 3 4 c21 c22
c12 = 1 × 2 + 2 × 1 + 3 × 1 = 7,
c21 = 2 × 1 + 3 × (−1) + 4 × 1 = 3,
c22 = 2 × 2 + 3 × 1 + 4 × 1 = 11,
12 Chapitre 1. Matrices
On obtient donc
1 2
−1 1
1 1
1 2 3 2 7
.
2 3 4 3 11
1 2
1 2 3 2 7
C’est-à-dire AB = −1 1 =
.
2 3 4 3 11
1 1
Exemple 1.3.6. Un autre exemple intéressant est le produit d’un vecteur ligne par un vecteur
colonne :
b1
b2
u = a1 a2 · · · an v=.
..
bn
Alors u × v est une matrice de taille 1 × 1 dont l’unique coefficient est
a1 b1 + a2 b2 + · · · + an bn .
Ce nombre n’est que le produit scalaire des vecteurs u et v. Donc la remarque suivante.
Remarque 1.3.4. Calculer le coefficient cij dans le produit A × B revient donc à calculer le
produit scalaire des vecteurs formés par la i-ème ligne de A et la j-ème colonne de B.
Malgré les remarques citées en haut, le produit de matrices possède les propriétés suivantes
qui sont faciles à montrer.
Proposition 1.3.1. Le produit des matrices, quand il est défini, est associatif, distributif à
gauche et à droite, possède un élément neutre (à droite et à gauche) et la matrice nulle est
l’élément absorbant pour la multiplication, c’est-à-dire on a :
1. A(BC) = (AB)C : l’associativité du produit,
2. A(B + C) = AB + AC et (B + C)A = BA + CA : la distributivité du produit par rapport à
la somme,
1.3. Opérations sur les matrices 13
Preuve.
- Pour prouver l’associativité : considérons A de type (m, n) et B de type (n, p), et C ∈ Mp,q (K).
Posons D = (AB)C, on peut alors écrire
p q n
!
X X X
dij = (AB)ik Ckj = ail blk ckj .
k=1 k=1 l=1
Les deux formules sont bien les mêmes puisque les indices dans une somme double sont muets.
- C’est un calcul assez élémentaire sur les sommes :
n
X n
X n
X
aik (bkj + ckj ) = aik bkj + aik ckj .
k=1 k=1 k=1
Remarque 1.3.5. Le produit de deux matrices triangulaires supérieures (resp. inférieures) est
une matrice triangulaire supérieure (resp. inférieure).
Dans le calcul matriciel, la matrice identité In joue un rôle analogue à celui du nombre 1 pour
les réels. C’est l’élément neutre pour la multiplication.
Nous venons de définir deux opérations de natures différentes sur l’ensemble des matrices,
l’addition et la multiplication des matrices. Ces deux lois de compositions internes se comportent
sans surprises, elles nous permettent de munir Mn (K) d’une structure d’anneau.
Proposition 1.3.2. Soient m et n deux éléments de N∗ . Alors (Mm,n (K), +) est un groupe
abélien d’élément neutre la matrice nulle de Mm,n (K).
14 Chapitre 1. Matrices
Preuve. Soient A, B et C trois matrices appartenant à Mm,n (K). Il est simple de vérifier que :
1. A + B = B + A : la somme est commutative,
2. A + (B + C) = (A + B) + C : la somme est associative,
3. A + (−A) = (−A) + A = 0 : le symétrique de A est −A,
4. A + 0 = A : la matrice nulle est l’élément neutre pour l’addition.
En tenant compte des deux Propositions 1.3.1 et 1.3.2, nous avons le théorème suivant.
Théorème 1.3.1. Soit n ∈ N∗ . L’ensemble (Mn (K), +, ×) des matrices carrées d’ordre n muni
de l’addition et de la multiplication des matrices est un anneau unitaire. L’élément neutre pour
la multiplication est la matrice unité In .
Remarque 1.3.6. Par les remarques 1.3.1, si n ≥ 2, alors l’anneau (Mn (K), +, ×) n’est ni
commutatif ni intègre.
Autrement dit : le coefficient à la place (i, j) de t A est aji . Ou encore la i-ème ligne de A devient
la i-ème colonne de t A (et réciproquement la j-ème colonne de t A est la j-ème ligne de A).
Exemple 1.3.7.
1 2 3 1 4 −7
1. La matrice transposée de la matrice A = 4 5 −6 est t A = 2 5 8 .
−7 8 9 3 −6 9
0 3
t 0 1 −1
2. La matrice transposée de la matrice A = 1 −5 est A =
et celle de
3 −5 2
−1 2
1
B = (1 − 2 5) est t B = −2 .
5
Théorème 1.3.2. Soient A et B deux matrices dans Mm,n (K), et soit α ∈ K. L’opération de
transposition obéit aux règles suivantes :
1. t (A + B) = t A + t B.
1.3. Opérations sur les matrices 15
2. t (α.A) = α.t A.
3. t (t A) = A.
4. Si le produit AB est défini, alors le produit t B t A est aussi défini et l’on a t (AB) = t B t A.
Notez bien l’inversion : t (AB) = t B t A.
Preuve.
1. Soient A = (aij ) et B = (bij ) deux éléments de Mm,n (K). Alors t A = (aji ) et t B = (bji ) pour
tout i compris entre 1 et m et tout j compris entre 1 et n. On sait que A + B = (cij ) avec
∀i, 1 ≤ i ≤ m, ∀j, 1 ≤ j ≤ n, cij = aij + bij . Alors t (A + B) = (cji ) avec cji = aji + bji .
D’où d’après la définition de la somme de deux matrice t (A + B) = t A + t B.
2. Simple à montrer.
3. Simple à montrer.
4. Soient A = (aij ) ∈ Mmn (K) et B = (bjk ) ∈ Mnp (K)Mmp (K), d’où AB ∈ Mmp (K). On
voit donc que t B ∈ Mpn (K) et t A ∈ Mnm (K). Par conséquent, t B t A est bien défini et de la
même taille que t (AB). Rappelons que t (AB) = (cji ) avec (AB) = (cij ). Notons par (L)ij le
coefficient de la matrice L qui se trouve à l’intersection de la i-ème ligne et la j-ème colonne.
Donc (AB)ij est le coefficient de (AB) qui se trouve à l’intersection de la i-ème ligne et la
j-ème colonne :
n
X
(AB)ij = ai1 b1j + ai2 b2j + · · · + ain bnj = aik bkj ,
k=1
donc
n
X n
X n
X
t
B tA t t t
ij
= B ik
A kj
= bki ajk = ajk bki = (AB)ji = (AB) ij ,
k=1 k=1 k=1
d’où le résultat.
Définition 1.3.6. Une matrice carrée A = (aij ) ∈ Mn (K) est dite symétrique si elle est égale
à sa transposée, c’est-à-dire si A = t A (si aij = aji ). Et elle est dite antisymétrique si elle est
égale à l’opposé de sa transposée, c’est-à-dire si t A = −A (si aij = −aji ).
Exemples 1.3.1.
−1 0 5
0 2
1. Les matrices A et B suivantes sont symétriques : A = B= 0 2 −1 .
2 4
5 −1 0
0 4 2
0 −1
2. Les matrices C et D suivantes sont antisymétriques C = et D = −4 0 −5
1 0
−2 5 0
Remarque 1.3.7. Pour toute matrice B, les matrices B t B et t BB sont symétriques. En effet,
t
(B t B) = t (t B) t B = B t B. Même démonstration pour la matrice t BB.
Dans le cas d’une matrice carrée de taille n×n, les éléments de la diagonale a11 , a22 , . . . , ann
sont appelés les éléments diagonaux. Sa diagonale est le vecteur (a11 , a22 , . . . , ann ).
a11 a12 ... a1n
a21 a22 ... a2n
.. .. .. ..
. . . .
an1 an2 ... ann
Définition 1.3.7. La trace de la matrice carrée A, qu’on note tr(A), est la somme de ses
éléments diagonaux. Autrement dit,
Exemple 1.3.8.
2 1
1. Si A = , alors tr(A) = 2 + 5 = 7.
0 5
1 1 2
2. Pour B = 5 2 8 , tr(B) = 1 + 2 − 10 = −7.
11 0 −10
Preuve. Nous démontrons le quatrième point, les autres sont simples. Soient, dans Mn (R), les
deux matrices carrées A = (aij )1≤i,j≤n et B = (bij )1≤i,j≤n . On note C = (cij )1≤i,j≤n ∈ Mn (R)
et D = (dij )1≤i,j≤n ∈ Mn (R) telles que C = AB et D = BA.
Pour tout i ∈ J1, nK (l’ensemble des entiers naturels de 1 à n), nous avons
n
X
cii = aik bki ,
k=1
alors
n
X n X
X n
tr(C) = tr(AB) = cii = aik bki .
i=1 i=1 k=1
alors
n
X n X
X n n X
X n
tr(D) = tr(BA) = dii = bik aki = bki aik .
i=1 i=1 k=1 i=1 k=1
tr : Mn (K) −→ Mn (K)
A 7−→ tr(A)
est une application linéaire, c’est-à-dire pour toutes matrices A et B de types n × n et pour tout
scalaire α on a : tr(A + αB) = tr(A) + αtr(B).
Définition 1.3.8. Soit A une matrice carrée d’ordre n. S’il existe une matrice carrée B d’ordre
n telle que AB = BA = In , alors on dit que A est inversible (ou régulière ou encore non
singulière). On appelle B l’inverse de A et on note B = A−1 .
L’ensemble des matrices inversibles de Mn (K) est noté GLn (K) (qu’on appelle groupe général
linéaire).
1 2
Exemple 1.3.9. Soit A = . Étudier si A est inversible, c’est étudier l’existence d’une
0 3
a b
matrice B = à coefficients dans K, telle que AB = I2 et BA = I2 . On a :
c d
1 2 a b 1 0 a + 2c b + 2d 1 0
AB = I2 ⇐⇒ = ⇐⇒ =
0 3 c d 0 1 3c 3d 0 1
18 Chapitre 1. Matrices
BA =
Pour prouver qu’elle convient, il faut aussi montrer l’égalité
2
I, dont la vérification est
1 −
laissée au lecteur. La matrice A est donc inversible et A−1 = 1
3 .
0 3
3 0 a b
Exemple 1.3.10. La matrice A = n’est pas inversible. En effet, soit B = une
5 0 c d
matrice quelconque. Alors le produit
a b 3 0 3a + 5b 0
BA = =
c d 5 0 3c + 5d 0
1 0
ne peut jamais être égal à la matrice identité I2 = , sinon on obtiendra l’absurdité 1 = 0.
0 1
In = t AA−1 = t A−1 t A.
De même, le fait que In = A−1 A implique que In = t At A−1 , donc t A est inversible et son
Proposition 1.3.5. Soient A et B deux matrices inversibles dans Mn (K). Alors AB est inver-
sible et (AB)−1 = B −1 A−1 .
1.3. Opérations sur les matrices 19
La méthode pour inverser une matrice A consiste à faire des opérations élémentaires sur les
lignes de la matrice A jusqu’à la transformer en la matrice identité I. On fait simultanément les
mêmes opérations élémentaires en partant de la matrice I. On aboutit alors à une matrice qui
est A−1 .
En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante :
à côté de la matrice A que l’on veut inverser, on rajoute la matrice identité pour former le tableau
suivant dit matrice augmentée :
(A | I).
20 Chapitre 1. Matrices
Sur les lignes de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir
le tableau
(I | B).
Et alors l’inverse de A est la matrice A−1 = B.
Remarque 1.3.10. Les opérations élémentaires qu’on effectue sur les lignes sont :
1. Li ↔ Lj : on peut échanger deux lignes.
2. Li ← λLi avec λ ̸= 0 : on peut multiplier une ligne par un élément de K \ {0}. La formule
Li ← λLi signifie qu’on va attribuer à la ligne Li la valeur du produit λLi .
3. Li ← Li + λLj avec λ ∈ K (et j ̸= i) : on peut rajouter à la ligne Li un multiple d’une autre
ligne Lj . De même la formule Li ← Li + λLj signifie qu’on va attribuer à la ligne Li la valeur
de la somme Li + λLj .
On applique la méthode de Gauss. On conserve alors la ligne L1 , qui sert de pivot, pour faire
apparaître des 0 sur la première colonne des autres lignes. Commençons par la deuxième ligne
par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice augmentée suvante :
1 2 1 1 0 0
0 −8 −5 −4 1 0 L2 ←L2 −4L1
−1 2 2 0 0 1
Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :
1 2 1 1 0 0
0 −8 −5 −4 1 0
0 4 3 1 0 1 L3 ←L3 +L1
puis
1 2 1 1 0 0
5 1
0 1
8 2 − 81 0
0 0 1 −2 1 2 L3 ←2L3
Il ne reste plus qu’à « remonter » pour faire apparaître des zéros au-dessus de la diagonale :
1 2 1 1 0 0
7
0 1 0
4 − 43 − 54 L2 ←L2 − 58 L3
0 0 1 −2 1 2
puis
1 2 0 3 −1 −2 L1 ←L1 −L3
7
0 1 0
4 − 43 − 54
0 0 1 −2 1 2
en suite
− 12 1 1
1 0 0 2 2 L1 ←L1 −2L2
7
0 1 0
4 − 34 − 54
0 0 1 −2 1 2
Ainsi l’inverse de A est la matrice obtenue à droite, et après factorisation par 14 , on trouve
1 1 1
−2 2 2 −2 2 2
1
A−1 = 47 − 34 − 45 = 7 −3 −5
4
−2 1 2 −8 4 8
Définition 1.3.10. Pour tout A ∈ Mn (K), on définit les puissances successives de A par A0 = In
et Ap+1 = Ap × A pour tout p ∈ N.
Autrement dit, Ap = A × A × · · · × A.
| {z }
p facteurs
1 0 1
Exemple 1.3.12. On cherche à calculer Ap avec A = 0 −1 0.
0 0 2
On calcule A2 , A3 et A4 . On obtient :
1 0 3 1 0 7 1 0 15
A2 = 0 1 0 , A3 = A2 × A = 0 −1 0 et A4 = A3 × A = 0 1 0 .
0 0 4 0 0 8 0 0 16
2p − 1 2p+1 − 1
1 0 1 0 1 1 0
Ap+1 = Ap × A = 0 (−1)p 0 × 0 −1 0 = 0 (−1)p+1 0 .
p p+1
0 0 2 0 0 2 0 0 2
Donc la propriété est démontrée.
1.4 Exercices
Exercice 1.1. On considère les matrices suivantes :
2 −3 0 1 2
1 2 1 0 −1 0 1
A= ,B= ,C= , D = −1 0 −2 3 et E = −1.
3 4 1 0 2 2 3
−1 0 0 1 0
1. Calculer, lorsque cela est possible, A + B, A − C, 3C, AB, AC, AE, CD, CE, A2 , C 2 , t A,
t
D, t C, A t A, C t C, t A t C et E t C.
2. L’égalité (A + B)2 = A2 + 2AB + B 2 est-elle vraie ? Justifier.
2 −2
Exercice 1.2. On considère la matrice : A = .
2 −3
1. Calculer A2 et montrer que A2 + A − 2I2 = 0.
2. En déduire que A est inversible. Exprimer A−1 en fonction de A, déduire la matrice A−1 .
Exercice 1.3. On considère les matrices
1 0 0 1 1 1 1 1 1
A = 0 1 1 , B = 0 1 0 et C = 1 2 1 .
3 1 1 1 0 0 0 −1 −1
Calculer AB, AC. Que remarque-t-on ? La matrice A peut-elle être inversible ? Trouver toutes
les matrices F ∈ M3 (R) telles que AF = 0 (où 0 désigne la matrice nulle).
a b
Exercice 1.4. On considère la matrice A = , où a et b sont des réels quelconques.
0 a
1. Calculer A2 et A3 .
2. Calculer An pour tout entier n ∈ N∗ .
3. En remarquant qu’il existe une matrice N telle que A = aI2 + bN , retrouver le résultat
précédent en utilisant la formule du binôme de Newton.
t
Exercice 1.5. On rappel qu’une matrice A est dite symétrique si A = A, et elle est dite
antisymétrique t A = −A.
1. Que peut-on dire de la taille d’une matrice symétrique ?
2. Montrer que toute matrice M carrée d’ordre n, à coefficients dans R, s’écrit de manière unique
comme somme d’une matrice symétrique et d’une matrice antisymétrique.
24 Chapitre 1. Matrices
3. Soient A et B ∈ Mn (R) deux matrices symétriques. Montrer que AB est symétrique ssi
AB = BA.
4. Montrer que pour tout M ∈ Mn,p (K), M t M et t M M sont symétriques.
Exercice 1.6. Montrer que toute matrice M carrée d’ordre n, à coefficients dans un corps
commutatif K de caractéristique différente de 2, s’écrit de manière unique comme somme d’une
matrice symétrique et d’une matrice antisymétrique.
Exercice 1.7. Soient A et B ∈ Mn (K) deux matrices symétriques. Montrer que AB est symé-
trique ssi AB = BA.
1 2
Exercice 1.8. Soit la matrice A = 3 4. Déterminer toutes les matrices B telles que
−1 4
BA = I.
1 −1 −1
Exercice 1.9. Soit la matrice A = −1 1 −1. Montrer que la matrice An est de la forme
−1 −1 1
an bn bn
bn an bn . Exprimer an+1 et bn+1 en fonction de an et bn .
bn bn an
1 2 −1
Exercice 1.10. Calculer A−1 l’inverse de la matrice A = 0 1 2 .
0 0 1
Exercice 1.11. Soit M une matrice carrée. On dit que M est nilpotente s’il existe n ∈ N tel
que M n = 0. M est nilpotente, alors I − M est inversible. Déduire l’inverse de la
Montrer que si
1 a b c
0 1 a b
matrice A = 0 0 1 a.
0 0 0 1
CHAPITRE 2
DÉTERMINANT
Dans toute la suite, la lettre K désignera un corps commutatif. Ce chapitre ne concerne que
les matrices carrées. On travaillera systématiquement dans Mn (K).
Dans ce chapitre, nous allons associer à chaque matrice carrée A un scalaire (élément de K)
qu’on appellera le déterminant de A. Pour les matrices dont les entrées sont des nombres
réels, les nombres associés (les déterminants) seront aussi des nombres réels. Nous noterons le
déterminant de A par det(A).
Une propriété importante du déterminant est sa connexion à l’inverse de la matrice. Nous
trouverons qu’une matrice A est inversible si et seulement si det(A) ̸= 0. Nous établirons une
formule qui donne l’inverse d’une matrice exclusivement en terme de déterminant.
2.1 Définitions
Dans cette partie, on cherche à associer à toute matrice carrée A = aij 1≤i≤n ∈ Mn (K) de
1≤j≤n
taille n un scalaire (élément de K) qu’on nomme le déterminant de A, et il sera noté det(A).
Nous allons définir cette notion par récurrence comme suit :
a11 a12
det(A) = = a11 a22 − a12 a21 .
a21 a22
25
26 Chapitre 2. Déterminant
a11 a12 a13
3. si A = a21 a22 a23 , alors posons
a31 a32 a33
a22 a23 a21 a23 a21 a22
A11 = , A12 = et A13 = .
a32 a33 a31 a33 a31 a32
Exemple 2.1.1.
2 3
1. Soit la matrice A = , alors A11 = −6 et A12 = 5. Donc
5 −6
Remarque 2.1.1. Pour calculer det(B) dans l’exemple précédent, nous avons utilisé seulement
les coefficients de la première ligne. Peut-on utilisé ceux de la première colonne par exemple ? La
réponse est oui, mais nous devons garder la matrice B11 et remplacer les matrices B12 et B13
par les matrices B21 et B31 respectivement. On a
3 5 3 5
B21 = et B31 = .
−4 7 −6 −1
D’où le résultat est le même. Puisque nous avons utilisé les coefficients de la première colonne, on
dit qu’on a développé suivant la première colonne. En réalité on peut développer suivant
n’importe quelle ligne ou n’importe quelle colonne et le résultat restera toujours le même.
Remarque 2.1.2. Le résultat de la remarque précédente 2.1.1 se généralise à n’importe quelle
matrice carrée de taille n. Soit A = (aij ) une matrice carrée d’ordre n. Pour calculer det(A),
on peut développer par rapport à une ligne i ou par rapport à une colonne j. Notons par
∆ij = det(Aij ) le déterminant de la matrice Aij obtenue de la matrice A en supprimant sa i-ème
ligne et sa j-ème colonne, ce scalaire est appelé le mineur en i et j ou le mineur associé au
coefficient aij .
• Le développement suivant la ligne i est
n
X
deti (A) = (−1)(i+k) aik ∆ik
k=1
= (−1)(i+1) ai1 ∆i1 + (−1)(i+2) ai2 ∆i2 + · · · + (−1)(i+n) ain ∆in .
En d’autre termes, le développement donne une formule pour calculer le déterminant, en fonction
de déterminants plus petits.
L’intérêt de cette Proposition 2.1.1 est de choisir la ligne ou la colonne qui nous permet de
calculer rapidement le déterminant.
NB. Pour faciliter le calcul, il faut développer suivant la ligne ou la colonne qui
contient plus de zéros
0 −1 −1
Exemple 2.1.2. Prenons A = −2 0 5 .
−3 0 −1
Pour gérer le signe (−1)i+j , on peut par exemple dresser un tableau de signes comme
+ − +
− + − .
+ − +
Pour développer par rapport à la première ligne, disons, on prend les mineurs et les coefficients
dans la matrice, les signes dans le tableau, pour avoir :
0 5 −2 5 −2 0
det(A) = +0 × − (−1) × + (−1) ×
0 −1 −3 −1 −3 0
= 0 + 17 + 0 = 17.
−2 0 0 −1 0 −1
det(A) = +(−1) × −5× + (−1) ×
−3 0 −3 0 −2 0
= 0 − 5 × (−3) − (−2) = 17.
−2 5
det(A) = −(−1) × = 17.
−3 −1
Preuve. Soient A et B deux matrices carrées d’ordre n. Si on note par Cj la j-ème colonne d’une
matrice A, alors on sait que
det(A) = det(C1 , · · · , Cj , · · · , Cn ).
0 = det(B) = det(C1 , C2 , · · · , Ci + Cj , · · · , Cj + Ci , · · · , Cn )
= det(C1 , C2 , · · · , Ci , · · · , Cj , · · · , Cn ) + det(C1 , C2 , · · · , Ci , · · · , Ci , · · · , Cn )
+ det(C1 , C2 , · · · , Cj , · · · , Cj , · · · , Cn ) + det(C1 , C2 , · · · , Cj , · · · , Ci , · · · , Cn )
= det(A) + 0 + 0 + det(A1 ).
Or chacun des déterminants apparaissant sous le signe de sommation est nul, puisqu’il concerne
une matrice dont les colonnes Ci et Ck , où i, k ∈ {1, · · · j − 1, j + 1, · · · , n}, sont égales. D’où
det(A3 ) = det(A).
8. Si une colonne d’une matrice A est nulle, alors par linéarité par rapport à cette colonne
det(A) = 0.
9. Supposons qu’une ligne (resp. colonne) de A est une combinaison linéaire d’autres lignes (resp.
colonnes). Alors on soustrait à cette colonne (à cette ligne) la combinaison linéaire en question,
ce qui ne modifie pas le déterminant. La matrice obtenue a une colonne nulle, alors det(A) = 0.
0 −1 −1 0 −1
det(A) = −2 1 5 −2 1
−3 2 −1 −3 2
= [0.1.(−1) + (−1).5.(−3) + (−1).(−2).2] − [(−3).1.(−1) + 2.5.0 + (−1).(−2).(−1)]
= (15 + 4) − (3 − 2) = 18.
On peut, au lieu de répéter les colonnes, on répète les lignes : on écrit les trois lignes de la
matrice et on répète, dans l’ordre, les deux premières lignes en bas de la matrice. Il suffit alors
d’effectuer les produits des coefficients de chaque diagonale et d’en faire la somme si la diagonale
est descendante ou la différence si la diagonale est ascendante.
1. Pour une matrice diagonale A = (aij ), en développant suivant la première ligne par exemple,
on obtient : det(A) = a11 det(A11 ), et par récurrence on a :
2. Pour une matrice triangulaire A = (aij ) supérieur (resp. inférieur) on développe suivant la
première colonne (resp. ligne). On trouve alors par récurrence que
Exemples 2.4.1. Rappelons que le tableau des signes utilisé pour calculer un déterminant est
formé en commençant par le signe +, et en respectant le fait que deux signes consécutifs dans
une ligne ou une colonne sont opposés.
+ − + ···
− + − · · ·
.
+ − + · · ·
.. .. ..
. . . ···
Rappelons aussi que si aux éléments d’une ligne (ou colonne) on ajoute k fois les éléments
correspondants d’une autre ligne (ou colonne), la valeur du déterminant reste inchangée (cette
propriété est utilisée pour faire apparaître des zéros sur une ligne (ou colonne)).
1 9 −3
1. Soit la matrice A = 4 6 −2.
−3 1 5
1 9 −3 1 9 + 3.(−3) −3
det(A) = 4 6 −2 = 4 6 + 3.(−2) −2
−3 1 5 −3 1 + 3.5 5
1 0 −3
1 −3
= 4 0 −2 = −16
4 −2
−3 16 5
= −16(−2 + 12) = −160.
1 3 0 2
−2 −5 7 4
2. Soit à calculer le déterminant ∆ = .
3 5 2 1
1 −1 2 −3
Nous avons, en remplaçant la colonne C2 par C2 − 3C1 et la colonne C4 par C4 − 2C1 :
1 3 0 2 1 0 0 2 1 0 0 0
−2 −5 7 4 −2 1 7 4 −2 1 7 8
∆ = = =
3 5 2 1 3 −4 2 1 3 −4 2 −5
1 −1 2 −3 1 −4 2 −3 1 −4 2 −5
1 7 8
= −4 2 −5 = 0,
−4 2 −5
1 3 −1 0 −2 1 3 −1 0 −2
0 2 −4 −1 −6 0 2 −4 −1 −6
∆= −2−6 2 3 9 = 0 0 0 3 5
3 7 −3 8 −7 0 −2 0 8 −1
3 5 5 2 7 0 −4 8 2 13
2−4 −1 −6
0 0 3 5
=
−2 0 8 −1
−4 8 2 13
1 1 −1 −6
0 0 3 5
= −8 factorisation de la 1-ère colonne par 2 et la 2-ème par -4
−1 0 8 −1
−2 −2 2 13
0 1 −1 −6
1 −1 −6
0 0 3 5
= −8 =8 0 3 5
−1 0 8 −1
−2 2 13
0 −2 2 13
0 −1 −6
= 8 3 3 5 = 8 × 3 = 24.
0 2 13
5 6 4 6 4 5
∆11 = = 5.9 − 8.6 = −3, ∆12 = = −6, ∆13 = = −3,
8 9 7 9 7 8
2 3 1 3 1 2
∆21 = = −6, ∆22 = = −12, ∆23 = = −6,
8 9 7 9 7 8
2 3 1 3 1 2
∆31 = = −3, ∆32 = = −6, ∆33 = = −3.
5 6 4 6 4 5
36 Chapitre 2. Déterminant
Théorème 2.5.1. Une matrice carrée A est inversible si et seulement si son déterminant est
1
non-nul. Si c’est le cas on a : det(A−1 ) = ·
det(A)
Preuve. A est inversible ssi il existe une matrice B telle que AB = In , ceci est équivaut à
det(A) det(B) = det(AB) = det(In ) = 1, ce qui est équivalent à det(A) est non nul et que
det(A−1 ) = det(A)
1
, car B = A−1 .
cos(θ) − sin(θ)
Exemple 2.5.2. Soit θ un paramètre réel. La matrice est toujours inversible.
sin(θ) cos(θ)
En effet, en calculant le déterminant, on obtient cos(θ)2 + sin(θ)2 = 1.
Théorème 2.5.2. Soit A ∈ Mn (K) une matrice carrée et soit C = com(A) sa comatrice. Alors
A t C = t CA = det(A)In .
Preuve. Soit une matrice carrée A = aij 1≤i≤n ∈ Mn (K). Soient aussi les mineurs ∆ij =
1≤j≤n
i+j
det(Aij ) en i et j et les co-facteurs Cij = (−1) ∆ij de A relatif à aij .
Considérons l’expression :
aj1 Ck1 + aj2 Ck2 + · · · + ajn Ckn
• si k = j, alors cette expression vaut det(A) puisqu’il s’agit du développement selon la j-ème
ligne ;
• si k ̸= j, alors l’expression vaut 0. En effet, soit B la matrice obtenue de A en remplaçant la
k-ème ligne par la j-ème ligne. Son déterminant vaut 0 , car B a deux lignes égales :
Remarquons que le premier membre de la formule (∗) est le terme de la j-ème ligne et la k-ème
colonne de A t C, et le second membre δjk det(A) est le terme de la j-ème ligne et la k-ème colonne
de det(A)In . D’où A t C = det(A)In .
D’une manière analogue, on démontre que t C A = det(A)In .
1 t
Corollaire 2.5.1. Soit A ∈ Mn (K) une matrice inversible. Alors A−1 = C.
det(A)
2.5. Application : l’inverse d’une matrice 37
Preuve. Comme A est inversible, alors det(A) ̸= 0. Donc t C = t CAA−1 = det(A)A−1 , d’où le
résultat.
Exemples 2.5.1.
1 2 1
1. Soit la matrice A = 4 0 −1 . La matrice A est-elle inversible ? Si oui calculer son
−1 2 2
inverse. On a :
1 2 1 1+4 2 1 5 2 1
det(A) = 4 0 −1 = 4 + 4(−1) 0 −1 = 0 0 −1
−1 2 2 −1 + 4.2 2 2 7 2 2
5 2
= −(−1) = 10 − 14 = −4 ̸= 0.
7 2
0 −1 4 −1 4 0
∆11 = = 2, ∆12 = = 7, ∆13 = = 8,
2 2 −1 2 −1 2
2 1 1 1 1 2
∆21 = = 2, ∆22 = = 3, ∆23 = = 4,
2 2 −1 2 −1 2
2 1 1 1 1 2
∆31 = = −2, ∆32 = = −5, ∆33 = = −8.
0 −1 4 −1 4 0
La comatrice de A est la matrice suivante (ne pas oublier les signes +/−) :
∆11 −∆12 ∆13 2 −7 8
com(A) = C = −∆21 ∆22 −∆23 = −2 3 −4 .
∆31 −∆32 ∆33 −2 5 −8
−2 2 2
Donc A−1 = det(A)
1
·t C = 14 7 −3 −5 .
−8 4 8
2 1 3
2. Trouver l’inverse (s’il existe) de la matrice A = 1 −1 1 .
1 4 −2
2 1 3 0 1 0
Nous avons det A = 1 −1 1 = 3 −1 4 = −(−14 · 3 + 14 · 2) = 14. Donc
1 4 −2 −7 4 −14
la matrice A est inversible.
−2 3 5
La comatrice associée à A est com(A) = 14 −7 −7 , donc l’inverse de A est la
4 1 −3
matrice
−2 14 4
1
A−1 = 3 −7 1 .
14
5 −7 −3
Remarque 2.5.1. Sauf pour n = 2, ou pour des matrices très particulières, utiliser la méthode
de la comatrice ce n’est pas la bonne façon de calculer explicitement l’inverse d’une matrice. Si
on a vraiment besoin de l’inverse d’une matrice, alors on a tout intérêt à utiliser la méthode de
Gauss dès que n ≥ 3. Par contre, la formule précédente de la comatrice est intéressante pour la
théorie.
3 2 9
2 9
det(M ) = 3 4 −2 = 5 = 5 × (−40) = −120 ̸= 0.
4 −2
5 0 0
Donc rg(A) = 3.
2.6. Rang d’une matrice 39
Théorème 2.6.1. Pour toute matrice A, nous avons rg(A) = rg(t A).
Preuve. Soit A une matrice de type m × n. Montrons que : rg(A) = rg(t A).
Supposons que rg(A) = r, alors, par définition, il existe une sous-matrice carrée M de A d’ordre
r ayant un déterminant non nul. Donc la transposée t M est une sous-matrice de t A de même
taille r × r. Or det(t M ) = det(M ) ̸= 0, ceci implique que t A possède un mineur d’ordre r non
nul, donc r ≤ rg(t A). Nous avons donc montré que :
De la même manière, supposons que rg(t A) = s, ceci signifie qu’il existe une sous-matrice N de
t
A d’ordre s avec det(N ) ̸= 0. Comme N est une sous-matrice de t A, sa transposée t N est une
sous-matrice de A. Du fait que det(t N ) = det(N ) ̸= 0, on tire que A possède un mineur d’ordre
s non nul, ce qui entraîne s ≤ rg(A).
Nous obtenons ainsi : rg(t A) ≤ rg(A).
Enfin les deux inégalités :
En tenant compte du fait qu’une matrice carrée est inversible si et seulement si son déterminant
est non nul, nous avons les remarques suivantes.
Remarques 2.6.1.
1. Une matrice carrée A d’ordre n est inversible si et seulement si rg(A) = n si et seulement si
det(A) ̸= 0.
2. Le rang d’une matrice A est égal au plus grand des ordres des matrices carrées inversibles
extraites de A.
3. Si A est une matrice carrée de rang r, alors les deux propriétés suivantes sont satisfaites :
a. il existe une matrice carrée d’ordre r, inversible, extraite de A.
b. toute matrice carrée inversible extraite de A est d’ordre inférieur ou égal à r.
Pour déterminer le rang d’une matrice A, on peut appliquer la méthode de Gauss (ou de
pivotage) utilisée dans le chapitre précédent la sous-section 1.3.9 (mais sans ajouter la matrice
identité) pour transformer la matrice A en une autre matrice B dite échelonnée en lignes :
L’intérêt des matrices échelonnées est que le calcul de leur rang est particulièrement simple.
Propriété 2.6.1. Le rang d’une matrice échelonnée est égal au nombre de ses lignes non nulles.
Preuve. Soit A une matrice échelonnée de type (m, n). Nous devons montrer que son rang est
égal au nombre de ses lignes non nulles. Notons d’abord qu’une matrice échelonnée a au plus
une seule valeur non nulle par colonne dans les premières lignes non nulles (les pivots), c’est-à-
dire si une colonne contient un pivot, alors tous les autres éléments en dessous de ce pivot dans
cette colonne sont nuls. Donc toute sous-matrice carrée d’ordre strictement supérieur au nombre
de lignes non nulles doit contenir au moins une ligne nulle. Une telle sous-matrice a alors un
déterminant nul. D’où, il n’existe pas de mineur non nul d’ordre supérieur au nombre de lignes
non nulles.
Ceci dit, considérons maintenant la sous-matrice formée en prenant les colonnes contenant
les pivots et les lignes non nulles correspondantes. Il clair que cette sous-matrice est triangulaire
supérieure, donc son déterminant est non nul, car il est égal au produit des pivots (qui sont non
nuls). D’où, il existe au moins un mineur non nul d’ordre égal au nombre de lignes non nulles. En
réalité, nous avons montré que d’une matrice échelonnée de r lignes non nulles, on peut toujours
extraire une matrice carrée d’ordre r de déterminant non nul. ce qui prouve le résultat.
Définition 2.6.4. Deux matrices A et B de types m × n sont équivalentes si l’on peut passer
de A à B par une suite d’opérations élémentaires (voir la remarque 1.3.10 page 20). Dans ce cas,
on écrit : A ∼ B.
Propriété 2.6.2. Toute matrice A de type m × n est équivalente à une matrice échelonnée.
2.6. Rang d’une matrice 41
Preuve. La preuve repose sur le principe du pivot de Gauss. Soit une matrice A, pour aboutir
à une matrice échelonnée on applique les opérations élémentaires sur les lignes (ce procédé est
appelé échelonnement de la matrice). Ce procédé est constitué des points suivants :
• Si la première colonne de A est totalement nulle, on passe à la colonne suivante. Sinon, on
trouve le premier élément non nul (appelé pivot) et, si nécessaire, on permutera les lignes
pour qu’il soit en haut.
• On utilise des combinaisons linéaires des lignes pour annuler tous les éléments sous le pivot,
en soustrayant des multiples appropriés de la ligne du pivot aux lignes situées en dessous.
• On passe à la ligne suivante et à la colonne suivante, et on cherche un nouveau pivot (qui doit
être situé strictement à droite du précédent).
• On répète l’étape d’élimination pour annuler tous les éléments sous ce nouveau pivot.
• On continue ainsi jusqu’à ce que toutes les lignes soient traitées.
Après avoir appliqué ces transformations, on obtient une matrice où : Chaque ligne non nulle a
son premier élément non nul (pivot) strictement à droite du pivot de la ligne précédente. Toutes
les lignes nulles sont en bas.
La matrice obtenue enfin est donc une matrice échelonnée qui est bien équivalente à la matrice
A.
Nous pouvons maintenant énoncer le résultat le plus important pour le calcul pratique du
rang.
Preuve. Tout revient à montrer que les opérations élémentaires ne modifient pas le rang d’une
matrice donnée. Les trois opérations élémentaires sur les lignes sont :
• permutation de deux lignes : cela revient à échanger deux lignes dans un déterminant, ce qui
change le signe du déterminant mais ne l’annule pas. Ainsi, les mineurs ne sont pas affectés en
termes de nullité.
• multiplication d’une ligne par un scalaire non nul : un déterminant d’une sous-matrice conte-
nant cette ligne est multiplié par ce scalaire, mais reste non nul si le mineur initial était non
nul. Cela ne change donc pas l’ordre du plus grand mineur non nul.
• ajout à une ligne un multiple d’une autre ligne : cela revient à une opération de combinaison
linéaire qui ne modifie pas l’annulation ou la non-annulation des mineurs.
Donc puisque les mineurs non nuls restent de même ordre après chaque opération élémentaire, le
plus grand ordre d’un mineur non nul (qui définit le rang) ne change pas. D’où si A est équivalente
à B, elles ont alors le même plus grand mineur non nul, donc le même rang.
Remarque 2.6.1 (Méthode pratique de calcul du rang). Grâce aux résultats précédents
cette méthode est simple. On considère A une matrice de type m × n.
— Étape 1 : on cherche une matrice échelonnée B telle que A ∼ B.
— Étape 2 : le rang de A est alors le nombre de lignes non nulles de B.
1 2 1 L1
Exemple 2.6.5. Calculons le rang de la matrice carrée suivante A = 4 0 −1 L2 .
−1 2 2 L3
Notez d’abord que rg(A) ≤ 3. Pour le calculer, on applique la méthode de Gauss, en gardant
la ligne L1 qui sert de pivot, pour faire apparaître des 0 sur la première colonne, mais d’abord sur
la deuxième ligne par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice suivante :
1 2 1
0 −8 −5 L2 ←L2 −4L1
−1 2 2
Puis un 0 sur la première colonne à la troisième ligne, avec L3 ← L3 + L1 :
1 2 1
0 −8 −5
0 4 3 L3 ←L3 +L1
Ensuite un 0 sur la deuxième colonne à la troisième ligne (dans ce cas on prend L2 comme pivot),
avec L3 ← L2 + 2L3 :
1 2 1
B= 0 −8 −5
0 0 1 L3 ←L2 +2L3
Donc la matrice B est la forme échelonnée de la matrice A dans laquelle les lignes sont non
nulles, donc rg(A) = 3.
Exemple 2.6.6. Déterminons le rang rg(A) de la matrice A de type 4 × 5 :
1 −1 1 −1 1 L1
1 1 −1 −1 −1 L2
A=
1 1 1 −1 0 L3
1 −1 −1 1 2 L4 .
Reamarquez d’abord que le rang de A est rg(A) ≤ inf (4, 5) = 4. Le rang de A est le rang de
chacune des matrices équivalentes suivantes :
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2 ←L2 −L1
0 2 0 0 −1 L3 ←L3 −L1
0 0 −2 2 1 L4 ←L4 −L1
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2
0 0 2 0 1 L3 ←L3 −L2
0 0 −2 2 1 L4
1 −1 1 −1 1 L1
0 2 −2 0 −2 L2
B=
0 0
2 0 1 L3
0 0 0 2 2 L4 ←L4 +L3
Le nombre de lignes non nulles de la matrice échelonnée B est 4, donc le rang cherché est 4.
2.7. Exercices 43
Exemple
2.6.7. Déterminer,
selon les valeurs des paramètres a et b dans R, le rang de la matrice
a 2 −1 b L1
A = 3 0 1 −4 L2
5 4 −1 2 L3 .
Notez que Le rang de A est ≤ 3. Le rang de A est le rang de chacune des matrices suivantes :
3 0 1 −4 L1 ←L2
5 4 −1 2 L2 ←L3
a 2 −1 b L3 ←L1
3 0 1 −4 L1
0 12 −8 26 L2 ←3L2 −5L1
0 6 −3 − a 4a + 3b L3 ←3L3 −aL1
3 0 1 −4 L1
B = 0 12 −8 26 L2
0 0 2 − 2a 8a + 6b − 26 L3 ←2L3 −L2
Le rang est le nombre de lignes non nulles de la matrice échelonnée B. On distingue les cas
suivants :
• la ligne L3 est non nulle ssi a ̸= 1 ou 4a + 3b − 13 ̸= 0, attention le “ou” ici au sens de la
logique, c’est-à-dire “a ̸= 1 et 4a + 3b − 13 ̸= 0′′ ou bien “a ̸= 1 et 4a + 3b − 13 = 0′′ ou bien
“a = 1 et 4a + 3b − 13 ̸= 0′′ . Dans tous ces cas rg(A) = 3.
• la ligne L3 est nulle ssi a = 1 et 4a + 3b − 13 = 0, ce qui est équivaut à a = 1 et b = 3, donc
rg(A) = 2.
2.7 Exercices
Exercice 2.1. Calculer les déterminants suivants :
0 1 2 3
1 1 2 1 0 0 3 5 −5
2 3 1 2 3 0
D1 = , D2 = 3 4 5 , D3 = 2 3 5 , D4 = 2 −5 4 , D5 = ,
−1 4 2 3 0 1
5 6 7 4 1 3 1 2 1
3 0 1 2
3 16 24 33
x+2 2x + 3 3x + 4 1+i 1 − 2i 1+i
1 5 7 9
D6 = , D7 = 2x + 3 3x + 4 4x + 5 , D8 = 1 − 2i 1+i 1+i ,
5 27 36 55
3x + 5 5x + 8 10x + 17 1+i 1+i 1 − 2i
7 38 51 78
Exercice 2.8. Déterminer, selonles valeurs du paramètre réel a, le rang de la matrice suivante
−3 −1
1 2 5
0 1
−1 −1 4
A= 2 1 −3 a −2 ,
1 a −2 a−1 1
1 1 a − 3 2a − 2 13
1 a1 a21 · · · · · · an−1
1
1 a2 a22 · · · · · · an−1
2
· · · ······ · Y
∆n (a1 , a2 , · · · , an ) = = (aj − ai ).
· · · ······ ·
1≤i<j≤n
· · · ······ ·
1 an a2n · · · · · · an−1
n
Exercice 2.10. Soient a1 , a2 , · · · , an des nombres réels tous non nuls. Pour tout entier n ≥ 2
et tout nombre réel λ, considérons la matrice An (λ) à n + 1 lignes et n + 1 colonnes définie par :
Exercice 2.11. Soient n et m dans N∗ . Soit A = (aij ) ∈ Mn,m (C), on appelle la matrice
conjuguée de A, et on note A, la matrice des conjugués des coefficients de A, i.e. A = (aij ).
La matrice adjointe (aussi appelée matrice transconjuguée) de A, habituellement notée A∗ , est
la matrice transposée de la matrice A, i.e. A∗ = t (A) = t A. Dans le cas particulier où A
est à coefficients réels, sa matrice adjointe est donc simplement sa matrice transposée. Soient
A, B ∈ Mn,m (C).
1. Montrer que (A∗ )∗ = A et (AB)∗ = B ∗ A∗ .
2. Si A est une matrice carrée, montrer que det(A∗ ) = det(A).
Exercice 2.12. Notons par GLn (K) = {M ∈ Mn (K) | det(M ) ̸= 0} le groupe des matrices
inversibles de taille n à coefficients dans un corps commutatif K, on l’appelle le groupe général
linéaire ou groupe linéaire de degré n du K. On peut aussi parler du groupe linéaire d’un
anneau commutatif unifère. Soit SLn (K) = {A ∈ GLn (K) | det(A) = 1}, SLn (K) est appelé
groupe spécial linéaire. Dans la suite, on prend K = Z.
1. Soit A ∈ Mn (Z). Montrer que A ∈ GLn (Z) si et seulement si det(A) = ±1.
1 m 1 0
2. Soit S = , | m, n ∈ Z . Pour A ∈ SL2 (Z), montrer que, en multipliant A
0 1 n 1
par des matrices de S, on peut faire apparaître un 0 sur la première colonne.
1 1 1 0
3. Prouver que le groupe SL2 (Z) est engendré par , .
0 1 1 1
1 X
4. Soit un sous-groupe fini de GLn (Z), on note m son cardinal. On pose P = M.
m
M ∈G
SYSTÈMES D’ÉQUATIONS
LINÉAIRES
Les systèmes linéaires interviennent, à travers leurs applications, dans de nombreux contextes,
car ils forment la base calculatoire de l’algèbre linéaire. Ils permettent aussi de traiter une bonne
partie de la théorie de l’algèbre linéaire en dimension finie. C’est pourquoi nous consacrons tout
un chapitre à l’étude des équations linéaires et de leur résolution. Le but de ce chapitre est de
présenter les principales méthodes utilisées pour résoudre un système linéaire.
3.1 Définition
Définition 3.1.1. On appelle équation linéaire dans les variables (ou inconnues) x1 , . . . , xp
toute relation de la forme
a1 x1 + · · · + ap xp = b,
où a1 , . . . , ap et b sont des éléments d’un corps commutatf donnés.
Exemple 3.1.1.
1. L’égalité 5x − 7y = 10 est une équation linéaire dans les variables (ou inconnues) sont x et y.
2. L’égalité 5x − 7y + 11z = −25 est une équation linéaire dans les variables (ou inconnues) sont
x, y et z.
3. L’égalité 17x−y +11z +2t−23u = 5 est une équation linéaire dans les variables (ou inconnues)
sont x, y, z, t et u.
Remarque 3.1.1. Il importe d’insister sur le fait qu’une équation linéaire est implicite, c’est-à-
dire elle décrive des relations entre les variables, mais ne donne pas directement les valeurs que
peuvent prendre les variables. Mais résoudre une équation signifie la rendre explicite, c’est-à-dire
rendre plus apparentes les valeurs que les variables peuvent prendre.
47
48 Chapitre 3. Systèmes d’équations linéaires
Soit m ⩾ 1 un entier.
Définition 3.1.2. Un système de m équations linéaires à n inconnues est une liste de m équations
linéaires.
Un système d’équations linéaires est donc un système constitué d’équations linéaires qui
portent sur les mêmes inconnues (les inconnues sont les mêmes pour toutes les équations). Un
système d’équations linéaires (S) à m équations et n inconnues s’écrit sous la forme suivante :
a x + a12 x2 + · · · + a1n xn
= b1
11 1
a
21 1
x + a x
22 2 + · · · + a x
2n n = b2
.
.. ..
.
(S) :
a x
i1 1 + a x
i2 2 + · · · + a x
in n = b i
.. ..
. .
am1 x1 + am2 x2 + · · · + amn xn = bm
Les aij et bk sont dans un corps commutatif K, on les appelle les coefficients du système.
Les xi sont dits les inconnues du système, résoudre le système revient à déterminer toutes
les valeurs possibles des inconnues xi . On appelle solution de (S) tout n-uplet (vecteur)
x = (x1 , x2 , · · · , xn ) d’éléments de K dont les composantes xi satisfont toutes les équations
du système. Le système est dit compatible s’il admet au moins une solution.
Exemple 3.1.2.
1. Le système suivant est un système d’équations linéaires à 3 équations et 3 inconnues :
2x1 + 3x2 + x3 = −1
x1 + x2 + 3x3 = 4
2x1 + 3x2 + x3 = 3.
Résoudre ce système revient à trouver les valeurs des inconnues x1 , x2 et x3 qui satisfassent
les trois équations simultanément.
2. Le système suivant est un système d’équations linéaires à 2 équations et 4 inconnues :
(
2x1 + 3x2 + x3 − 5x4 = −7
x1 + x2 + 3x3 + 11x4 = 9.
Résoudre ce système revient à trouver les valeurs des inconnues x1 , x2 , x3 et x4 qui satisfassent
les deux équations simultanément.
Donc le système (S) est représenté sous la forme d’un produit matriciel :
a11 . . . a1n x1 b1
a21 . . . a2n x2 b2
.. .. = .. .
..
. . . .
am1 ... amn xn bm
| {z } | {z } | {z }
A X B
Remarque 3.2.1. Un système d’équations linéaires soit il n’a aucune solution, soit une seule
solution, soit une infinité de solutions.
Il existe plusieurs méthodes pour résoudre un système de Cramer, nous allons en donner deux.
Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour la solution des
systèmes de Cramer. Considérons le système d’équations linéaires à n équations et n inconnues
suivant :
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
...
an1 x1 + an2 x2 + · · · + ann xn = bn
est un système de Cramer, alors il admet une solution unique (x1 , x2 , · · · , xn ) ∈ Kn donnée par :
On a donc AX = B, où
1 0 2 x1 6
A = −3 4 6 , X = x2 et B = 30
−1 −2 3 x3 8
Comme det(A) = 44 ̸= 0, alors le système est de Cramer, et donc il admet une solution unique.
Nous avons
6 0 2 1 6 2 1 0 6
A1 = 30 4 6 , A2 = −3 30 6 , A3 = −3 4 30
8 −2 3 −1 8 3 −1 −2 8
et
det(A1 ) = −40, det(A2 ) = 72, det(A3 ) = 152.
Nous avons AX = B, où
2 −5 2 x1 7
A= 1 2 −4 , X = x2 et B= 3
3 −4 −6 x3 5
2 −5 2
Comme det(A) = 1 2 −4 = −46, le système est de Cramer, sa solution unique est donnée
3 −4 −6
par :
7 −5 2 2 7 2 2 −5 7
1 1
x=− 3 2 −4 = 5, y=− 1 3 −4 = 1, z= 1 2 3 = 1.
46 46
5 −4 −6 3 5 −6 3 −4 5
Alors A ∈ Mn (K) est une matrice carrée et B un vecteur de Mn,1 (K). Pour tout second
membre, nous pouvons utiliser les matrices pour trouver la solution du système linéaire.
AX = A A−1 B = AA−1 B = I · B = B.
1 2 1
La matrice associé au système est A = 4 0 −1 qui est bien inversible (voir exemples
−1 2 2
−2 2 2
2.5.1 page 37) et son inverse est A−1 = 41 7 −3 −5 .
−8 4 8
x 1
Le système S s’écrit comme suit AX = B, où X = y et B = 2 .
z 3
Donc la solution du système AX = B est donnée par X = A−1 B ce qui equivalent à
x −2 2 2 1 −2 + 4 + 6 2
1 1
X= y = 7 −3 −5 2 = 7 − 6 − 15 = −4 .
4 4
z −8 4 8 3 −8 + 8 + 24 6
Donc x = 2, y = −4 et z = 6.
54 Chapitre 3. Systèmes d’équations linéaires
rg(A) = rg([A|B]).
Preuve. Sens direct. Si le système AX = B a une solution X0 , alors le vecteur B est une
combinaison linéaire des colonnes C1 , · · · , Cn de la matrice A. Par conséquent, ajouter B comme
colonne supplémentaire dans la matrice A ne change pas le rang de la matrice. Ainsi, nous avons :
Sens réciproque. Si rang(A) = rang([A|B]), alors le système admet une solution. En effet,
rang(A) = rang([A|B]) signifie que l’ajout de la colonne B à A A ne change pas le rang. Au-
trement dit, B est une combinaison linéaire des colonnes de A, ce qui implique qu’il existe un
vecteur X0 tel que : AX0 = B. Donc, le système admet au moins une solution.
Ainsi nous avons prouvé l’équivalence suivante :
Remarque 3.4.1. Pour résoudre le système (S), on calcule le rang da la matrice A associée à
(S). Si r = rg(A), alors il existe un déterminant non nul d’ordre r, qu’on note ∆r , appelé dé-
terminant principal. Les équations correspondant aux lignes de ∆r s’appellent les équations
principales, et les inconnues correspondant aux colonnes de ∆r s’appellent les inconnues
principales. Les autres inconnues s’appellent des paramètres. Sans perte de généralité, on peut
supposer que le déterminant ∆r est formé des r premières lignes et des r premières colonnes de
3.4. Systèmes quelconques 55
Pour résoudre un système linéaire, nous proposons dans la suite une méthode dite la méthode
du pivot de Gauss. L’idée de cette méthode est de transformer par étapes, le système à
résoudre en des systèmes plus simples, tous équivalents au système initial, jusqu’à un système
duquel on tire facilement la solution. Autrement dit, la méthode de Gauss transforme un système
linéaire en un système triangulaire équivalent duquel on calcule facilement les inconnues. Pour se
ramener à ce système triangulaire (par fois on dit système échelonné), on applique les opérations
élémentaires suivantes sur les lignes du système.
1. Li ← λLi avec λ ̸= 0 : on peut multiplier une ligne par un réel non nul (ou un élément de
K \ {0}).
2. Li ← Li + λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre
ligne Lj .
3. Li ↔ Lj : on peut échanger deux lignes.
Remarque 3.4.2. Toute opération élémentaire sur les lignes d’un système d’équations linéaires
transforme ce dernier en un système équivalent ayant le même ensemble de solutions.
Description de l’algorithme.
Pour transforme un système linéaire en un autre simple à résoudre, on applique les étapes sui-
vantes.
i. On cherche un pivot : premier coefficient non nul d’une certaine variable x dans une des
équations. Par permutation, cette équation devient la première équation.
ii. On utilise ce pivot et cette équation pour éliminer x des équations suivantes. Pour cela on
ajoute cette équation multipliée par un coefficient convenable aux équations suivantes.
iii. S’il y a des équations dont le premier membre est nul = 0, on les place en dernier, c’est-à-dire
à la fin du système.
iv. On recommence l’étape i avec le système privé de la première équation.
v. L’algorithme s’arrête lorsqu’il ne reste plus que des équations = 0.
3.4.2 Exemples
Calculons d’abord le rang de A. Comme A est de type (4, 5), alors rg(A) ≤ 4. On vérifie que
rg(A) = 3. On peut donc considérer que
1 −1 1
△3 = 2 −1 3 = −2
3 −2 2
est un déterminant principal, par suite les trois premières équations sont les équation principales
et x1 , x2 et x3 sont les inconnues principales. x4 et x5 seront considérées comme des paramètres.
Le système (S) implique donc le système de Cramer suivant :
x1 −x2 +x3 = 1 + x4 − x5
2x1 −x2 +3x3 = 2 − 4x5
3x1 −2x2 +2x3 = 1 − x4 − x5
Ce qui implique :
x1 −x2 +x3 = 1 + x4 − x5
x2 +x3 = −2x4 − 2x5
−2x3 = −2 − 2x4 + 4x5
Donc x3 = 1 + x4 − 2x5 et par suite x2 = −2x4 − 2x5 − x3 = −1 − 3x4 , ce qui implique que
x1 = 1 + x4 − x5 + x2 − x3 = −1 − 3x4 + x5 .
Il faut maintenant voir si la dernière équation du système est satisfaite. On a :
1 2 1
∆3 = 6 1 1 = −2 ̸= 0
2 −3 −1
comme déterminant principal, par suite, toutes les inconnues x1 , x2 et x3 sont principales et les
trois premières équations sont les équations principales. Le système (S) implique donc le système
de Cramer suivant :
x1 +2x2 +x3 = −1
6x1 +x2 +x3 = −4
2x1 −3x2 −x3 = 0
−1 2 1 −1 −1 0
−4 1 1 −4 −2 0
0−3 −1 0 −3 −1 2
x1 = = = = −1,
−2 −2 −2
1 −1 1 3 −1 0
6 −4 1 8 −4 0
2 0 −1 2 0 −1 4
x2 = = = = −2 et
−2 −2 −2
1 2 −1 0 0 −1
6 1 −4 2 −7 −4
2 −3 0 2 −3 0 −8
x3 = = = = 4.
−2 −2 −2
Donc le système admet une solution unique (x1 , x2 , x3 ) = (−1, −2, 4).
58 Chapitre 3. Systèmes d’équations linéaires
1 1 1 1 1 0 0 0 1 0 0 0
1 −1 −1 1 1 −2 −2 0 1 −2 0 0
∆= = = = 0.
−1 −1 1 1 −1 0 2 2 −1 0 2 2
−3 1 −3 −7 −3 4 0 −4 −3 4 −4 −4
1 1 1 1 1 0
∆3 = 1 −1 −1 = 1 −1 0 = −4 ̸= 0,
−1 −1 1 −1 −1 2
alors la matrice A est de rang 3 et ∆3 peut être considéré comme un déterminant principal. Ainsi,
les trois premières équations sont les équations principales, et x1 , x2 et x3 sont les inconnues
principales. L’inconnue x4 sera donc considérée comme un paramètre. Le système (S) implique
le système :
x1 + x2 + x3 = a − x4
x1 − x2 − x3 = b − x4
−x1 − x2 + x3 = c − x4
Comme a, b, c et d sont des nombres réels strictement positifs, alors l’égalité −(3a+2b+2c) = d
est impossible, donc le système (S) n’admet pas de solutions.
3.4. Systèmes quelconques 59
Exemple 3.4.4. Soit à résoudre le système suivant dont les inconnues sont x, y, z, t.
x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3
1 1
= 2 ̸= 0,
−1 1
donc ce déterminant peut être considéré comme un déterminant principal. Ainsi, la première
équation et la troisième sont les équations principales, et x et z sont les inconnues principales.
Les inconnues y et t seront donc considérées comme des paramètres. Le système (S) implique le
système :
x + z = 1 − 2y + t L1
S:
−x + z = −3 + 2y − 3t L3
2x + 4y − z − 5t = 4 − 4y + 4t + 4y + 1 + t − 5t = 5.
Donc le système (S) est resoluble et l’ensemble des solutions est {(2−2y+2t, y, −1−t, t) | y, t ∈ R}.
Deuxième Méthode.
Exemple 3.4.5. Soit à résoudre le système suivant dont les inconnues sont x, y, z, t.
x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3
On applique la méthode du pivot de Gauss. Pour cela choisissons une équation avec un coefficient
non nul pour la première inconnue x. Ici la première équation convient avec le coefficient 1, pour
x, qu’on appelle le premier pivot. On utilisera ce pivot de notre algorithme pour faire disparaître
l’inconnue x des autres équations. Pour cela on ajoute à ces équations la première multipliée par
un coefficient convenable. On obtient un système linéaire équivalent :
x + 2y + z − t = 1 L1
S: 2x + 4y − z −5t = 5 L2
−x − 2y + z + 3t = −3 L3
x + 2y + z − t = 1 L1
S ⇐⇒ −3z −3t = 3 L2 ← L2 − 2L1
−x − 2y + z + 3t = −3 L3
60 Chapitre 3. Systèmes d’équations linéaires
x + 2y + z − t = 1 L1
S ⇐⇒ −3z − 3t = 3 L2
2z + 2t = −2 L3 ← L3 + L1
Choisissons une équation avec un coefficient non nul pour la première inconnue x. Ici la
deuxième équation convient avec le coefficient 1, pour x, qui sera le premier pivot. Permutons les
deux lignes L1 et L2 (L1 ↔ L2 ) et renumérotons les pour avoir le système équivalent suivant :
x + y − z + t = 1 L1
8t = 2 L2
(S) ⇐⇒
2x + 2y + z + 3t = 2 L3
2z + u = 0 L4
Permutons ensuite les deux lignes L2 et L3 (L2 ↔ L3 ) et renumérotons les pour avoir
x + y − z + t
= 1 L1
2x + 2y + z + 3t = 2 L2
(S) ⇐⇒
8t = 2 L3
2z + u = 0 L4
Le terme en z de la deuxième équation est notre nouveau pivot de Gauss ; nous l’utilisons
pour éliminer les termes en z des équations situés en dessous.
x + y − z + t = 1 L1
1
z + t = 0 L2
(S) ⇐⇒ 3
1
t = 4 L3 ← 18 L3
2
−3t + u = 0 L4 ← L4 − 2L2
Le terme en t de la troisième équation devient notre nouveau pivot de Gauss : nous l’utiliserons
pour éliminer les termes en t de la quatrième équation.
x + y − z + t = 1 L1
z + 13 t
= 0 L2
(S) ⇐⇒ 1
t = 4 L3 ← 18 L3
1
u = 6 L4 ← L4 + 32 L3
2
x + y = 3 L1 ← L1 + L2 − L3
1
z = − 12 L2
(S) ⇐⇒ 1
t = 4 L3
1
u = L4
6
En prenant comme paramètre y, on trouve l’ensemble des solutions :
2 −1 1 1
S= − y, y, , , |y∈R .
3 12 4 6
Exemple 3.4.7. Discuter, selon les valeurs de k, a, b, c ∈ R, les solutions du système suivant :
2x + y − z = a
(S) : y + 3z = b
2x + ky + 2z = c
2 1 −1
On étudie d’abord le rang du système, on a : det(A) = 0 1 3 = 4 + 6 + 0 − (−2 + 6k) =
2 k 2
6(2 − k).
Donc si k ̸= 2, alors rg(A) = 3 ; et si k = 2, alors rg(A) = 2. Deux cas à discuter.
62 Chapitre 3. Systèmes d’équations linéaires
3.5 Exercices
Exercice 3.1. Résoudre les deux systèmes suivants :
x+y+z+t = 10
2x + y + z = 3
x−y+z+t = 6
(1) : 3x − y − 2z = 0 et (2) :
x+y−z+t = 4
x+y−z = −2
x+y+z−t = 4.
Exercice
3.2. Résoudre les systèmes
suivants :
x + 2y − 3z = −1 2x + y − 2z = 10 x − 3y + 7z = −4
S1 : 3x − y + 2z = 7 , S2 : x + y + 4z = −9 et S3 : x + 2y − 3z =6
8x + 2y − 2z = 9 7x + 5y + z = 14 7x + 4y − z = 22
Exercice 3.5. Discuter suivant les valeurs du paramètre a les solutions du système suivant.
x − y + az = a
(S) : x + ay − z = −1
x + y + z = 2.
Exercice 3.6. Discuter suivant les valeurs du paramètre a les solutions du système suivant.
x − y = 1
(S) : 2x − y = 3
3x − 4y = a.
Exercice 3.7. Discuter suivant les valeurs du paramètre réel a les solutions du système suivant.
x − 3z = −3
(S) : 2x + ay − z = −2
x + 2y + az = 1.
Exercice 3.8. Discuter suivant les valeurs du paramètre réel a les solutions du système
x +y −z =1
x +2y +az = 2
2x +ay +2z = 3
Exercice 3.9. Pour quelles valeurs de a, b, c le système suivant admet-il au moins une solution ?
x +2y −3z =a
3x +8y −14z = b
2x +4z =c
Exercice 3.11. Discuter, suivant les valeurs a ∈ R, les solutions du système suivant :
x + y + (1 − 2a)z = 2(1 + a)
(1 + a)x − (1 + a)y + (2 + a)z = 0
2x − 2ay + 3z = 2(1 + a).
CHAPITRE 4
ESPACES VECTORIELS
4.1.1 Rappels
Exemples 4.1.1.
1. L’addition des vecteurs du plan est une loi de compositions interne.
2. L’addition des réels est une loi de compositions interne sur R c’est-à-dire la somme de deux
réels est un réel.
3. Le produit des réels est une loi de compositions interne sur R c’est-à-dire le produit de deux
réels est un réel.
4. Le produit d’un réel par un vecteur du plan est une loi de composition externe sur le plan.
5. Le produit d’un réel par un complexe est une loi de composition externe sur C.
Définition 4.1.2. Un groupe est un ensemble G menu d’une de loi de composition interne ⋆
vérifiant les propriétés suivantes :
1. la loi ⋆ est associative,
64
4.1. Définitions et généralités 65
Exemples 4.1.2.
1. (Z, +) est un groupe abélien.
2. (Q, +) est un groupe abélien.
3. (R∗ , ×) est un groupe abélien.
4. (Z, ×) n’est pas un groupe.
Définition 4.1.3. Un espace vectoriel sur K ou un K-espace vectoriel est un ensemble non
vide E muni d’une loi de composition interne E × E −→ E; (u, v) 7−→ u + v et d’une loi de
composition externe K × E −→ E; (λ, u) 7−→ λ · u tels que les propriétés suivantes sont vérifiées :
1. (E, +) est un groupe abélien,
2. ∀λ ∈ K, ∀(u, v) ∈ E 2 :
i. λ · (u + v) = λ · u + λ · v,
ii. (λ + µ) · u = λ · u + µ · u,
iii. λ · (µ · u) = (λµ) · u,
iv. 1 · u = u.
Les éléments de E sont appelés vecteurs et ceux de K sont dits scalaires.
Exemples 4.1.3.
1. L’ensemble E = R menu de l’addition et de la multiplication des réels est un espace vec-
toriel sur R. Dans cet exemple la loi interne est l’addition des réels et la loi externe est la
multiplication. En fait, tout corps commutatif K est un espace vectoriel sur lui-même.
2. L’ensemble E = C menu de l’addition des complexes et de la multiplication d’un complexe
par un réel est un espace vectoriel sur R, (l’addition est la loi interne et la multiplication est
la loi externe).
3. L’ensemble E = Rn est un espace vectoriel sur R. Les lois interne et externe sont données
par :
soient x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) deux vecteurs de E = Rn et α ∈ R un réel,
4. L’ensemble (M2 (R), +, .) des matrices carrée à coefficients dans R, menu de la somme des
matrices et de la multiplication par un scalaire, est un espaces vectoriel sur R (voir la section
4.6 page 84).
5. L’ensemble E = K[X] des polynômes à coefficients dans K est un espace vectoriel sur K. La
loi interne est la somme des polynômes, et la loi externe et la multiplication d’un réel par un
polynôme.
66 Chapitre 4. Espaces vectoriels
f : X → R.
Donc S menu de la somme “+” et de la multiplication “.” est un espace vectoriel sur R.
Remarque 4.1.1. D’après la définition d’un espace vectoriel et les exemples vu en haut, on
remarque que la notion de vecteurs est une notion algébrique et non pas géométrique.
4.1.3 Propriétés
Proposition 4.1.1. Soit (E, +, .) un espace vectoriel sur K, alors pour tous (x, y) ∈ E 2 et
(α, β) ∈ K2 on a :
1. α(x − y) = αx − αy,
2. (α − β)x = αx − βx,
3. (−α)x = α(−x) = −αx,
4. αx = 0E si et seulement α = 0K ou x = 0E .
Preuve. Facile à vérifier, car les propriétés des lois définies sur le produit cartésien E découlent
des propriétés des lois définies sur chaque espace vectoriel Ei .
Noter que l’élément neutre de la loi interne est le n-uplet dont la i-ème composante est l’élément
neutre de Ei , soit (0E1 , 0E2 , . . . , 0En ).
Remarque 4.1.2. Dans le cas particulier où tous les espaces vectoriels Ei sont égaux à un
espace vectoriel E, l’espace vectoriel produit sera noté E n .
Exemples : Rn est un R-espace vectoriel et Kn est un espace vectoriel sur K.
Donc pour montrer que F est un sous-espace vectoriel de E, on doit vérifier les huit points
de la définition d’un espace vectoriel. En fait, il suffit de vérifier la stabilité des deux lois comme
l’affirme le théorème suivant.
Théorème 4.2.1. Soit E un espace vectoriel sur K. Un sous-ensemble F de E est un sous-espace
vectoriel de E si et seulement si F est non vide, et il est stable par les deux lois de composition
définies sur E. Autrement dit, F est un s.e.v de E si et seulement si
1. F ̸= ∅,
2. ∀x, y ∈ F, x + y ∈ F ,
3. ∀x ∈ F, ∀α ∈ K, α.x ∈ F .
Preuve.
• Les conditions sont nécessaires. Supposons que F est un sous-espace vectoriel de E, alors par
définition les restrictions des lois de E à F font de F un espace vectoriel sur K ; d’où les trois
conditions sont vérifiées.
• Les conditions sont suffisantes. Supposons que les trois conditions sont satisfaites.
a. (F, +) est groupe commutatif. En effet, comme la somme est commutative et associative sur
E, elle les est sur F . De plus F admet un neutre pour la somme qui est 0E ; en effet, en
prenant α = 0, on a pour tout x ∈ F , 0E = 0.x ∈ F . En prenant aussi α = −1, on a pour
tout x ∈ F , on a : −x = (−1).x ∈ F .
b. Les quatre propriétés restantes sont vérifiées sur F puisque elles sont vérifiées pour tous les
éléments de E.
68 Chapitre 4. Espaces vectoriels
Remarque 4.2.1. L’élément neutre, 0E , pour la somme dans E appartient à F . En effet, dans
le Théorème 4.2.1 on prend α = 0, alors pour tout x ∈ F , on a : 0 = 0.x ∈ F .
Exemples 4.2.1.
1. Pour tout K-espace vectoriel E, E et {0} sont des s.e.v de E, on les appelles les sous-espaces
vectoriels triviaux de E.
2. F1 = {(a, 0)| a ∈ R} est un sous-espace vectoriel de R2 . En effet, F1 est non vide puisque
(0, 0) ∈ F1 ; pour tous x = (a, 0), y = (b, 0) de F1 et pour tout α ∈ R, on a : x + y = (a + b, 0)
et α.x = (αa, 0), donc x + y ∈ F1 et α.x ∈ F1 .
3. F2 = {(0, b)| b ∈ R} est un sous-espace vectoriel de R2 .
4. F3 = {(a, 0, 0)| a ∈ R} est un sous-espace vectoriel de R3 .
5. F4 = {(a, b, 0)| a, b ∈ R} est un sous-espace vectoriel de R3 .
6. F5 = {(a, b, 1)| a, b ∈ R} n’est pas un sous-espace vectoriel de R3 , car 0 ̸∈ F4 .
7. Soit n ∈ N∗ , alors F = {(x1 , · · · , xn−1 , 0) | ∀i; xi ∈ K} est un sous-espace vectoriel de Kn .
8. L’ensemble Kn [X] des polynômes de degré ≤ n est un sous-espace vectoriel de l’espace vectoriel
K[X].
9. Soit C(I, R) l’ensemble des fonctions continues sur l’intervalle I. On a déjà : C(I, R) ⊂ F(I, R),
et c’est un sous-espace vectoriel. On peut remplacer «continue» par «dérivable». On peut
même considérer
Les conditions citées dans le Théorème 4.2.1 peuvent être résumées de la façon suivante.
Théorème 4.2.2 (Caractérisation d’un s.e.v). Soit F une partie d’un K-espace vectoriel E.
Alors F est un s.e.v de E si et seulement si :
1. 0E ∈ F ,
2. ∀x, y ∈ F , ∀α, β ∈ K, αx + βy ∈ F .
Preuve. Soit F une partie de E. Supposons que F est un sous-espace de E, alors F est non vide.
Soit x ∈ F , alors par l’assertion 3 de la Théorème 4.2.1 on a (−1).x = −x ∈ F , et par l’assertion
2 de la Théorème 4.2.1 on a x + (−x) = 0E ∈ F . Soient maintenant x, y ∈ F , α, β ∈ R, alors par
la Théorème 4.2.1(3) on a αx ∈ F et βy ∈ F . Par suite l’assertion 2 de la même Théorème 4.2.1
implique que αx + βy ∈ F .
Réciproquement, supposons que les points de la Proposition 4.2.2 sont satisfaits ; alors F
est non vide puisque 0E ∈ F . Soient x, y dans E et α ∈ R, alors x + y = 1.x + 1.y ∈ F , et
αx = αx + 0E y ∈ F . D’où F est un sous-espace vectoriel de E.
Remarques 4.2.1.
1. Tout s.e.v F d’un K-espace vectoriel E doit contenir le 0E de E.
2. Le deuxième point du Théorème 4.2.2 peut être remplacé par l’assertion suivante :
∀x, y ∈ F , ∀α ∈ K, αx + y ∈ F .
4.3. Somme directe 69
Exemples 4.2.2.
1. Pour E = R3 , on pose : F = {(x, y, z) ∈ E | x − 2y + 3z = 0}. Montrer que F est un s.e.v de
E.
Que diriez-vous du sous ensemble G = {(x, y, z) ∈ E | x − 2y + 3z = 1} de E ?
Solution.
a. Montrons que F est un s.e.v de E.
• L’ensemble F est non vide car 0R3 = (0, 0, 0) ∈ F puisque 0 − 2.0 + 3.0 = 0.
• Soient X = (x, y, z) et X ′ = (x′ , y ′ , z ′ ) dans F , alors x − 2y + 3z = 0 et x′ − 2y ′ + 3z ′ = 0 ;
soient aussi α, β dans R, alors
De plus
Donc αX + βX ′ ∈ F .
Par suite F est un s.e.v de E. On peut utiliser le Théorème 4.2.1 pour montrer que F est
s.e.v de E.
Remarque 4.2.2. Un des grands intérêts de la notion de sous-espace vectoriel est qu’elle permet
de montrer facilement qu’un certain ensemble est muni d’une structure d’espace vectoriel. Donc
pour montrer qu’un ensemble F est un K-espace vectoriel, il suffit, dans la plupart des cas, de
montrer que F est un sous-espace vectoriel d’un K-espace vectoriel connu.
{x + y | x ∈ F et y ∈ G}
X ∈ F + G ⇐⇒ ∃x ∈ F, ∃y ∈ G; X = x + y.
Preuve.
1. Montrons que F ∩ G est un s.e.v. de E.
• On a F ∩ G est non vide car 0E ∈ F ∩ G (pourquoi ?).
• Soient x et y dans F ∩ G, alors x + y appartient à F et à G en même temps (pourquoi ?), donc
x + y ∈ F ∩ G.
• De même si x ∈ F ∩ G et α ∈ R, alors αx appartient aussi à F et à G, donc αx ∈ F ∩ G. Par
suite F ∩ G est un s.e.v de E.
2. Montrons que F + G est un s.e.v. de E.
• On a F + G est non vide car 0 = 0 + 0 = 0E + 0E ∈ F + G.
• Soient u et v dans F + G, alors il existe u1 , v1 ∈ F et u2 , v2 ∈ G tels que
u = u1 + u2 et v = v1 + v2 ,
donc
u + v = u1 + u2 + v1 + v2 = (u1 + v1 ) + (u2 + v2 ),
d’où x + y ∈ F + G. De même, pour tout a ∈ K, au = au1 + au2 ∈ F + G.
Par suite F + G est un s.e.v de E.
3. Pour montrer que F ∪ G n’est en général pas un s.e.v de E, il suffit de donner un contre
exemple. Dans R2 , qui est un e.v sur R, on considère F = {(a, 0) | a ∈ R} et G = {(0, b)| a ∈ R},
alors on a (2, 0) ∈ F et (0, −5) ∈ G, mais
Remarque 4.3.1. F + G est le plus petit s.e.v de E contenant F ∪ G. En effet, si H est un s.e.v
de E contenant F ∪ G, alors F ⊂ H et G ⊂ H, donc F + G ⊂ H.
Définition 4.3.2. Soient F et G deux sous-espaces d’un K-espace vectoriel E. On dit que la
somme F + G est directe, et on note F ⊕ G, si tout u de F + G s’écrit de manière unique comme
somme d’un élément x de F et d’un élément y de G,
u ∈ F ⊕ G ⇐⇒ ∃!x ∈ F, ∃!y ∈ G; u = x + y.
Proposition 4.3.2. Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E, alors
la somme de F et G est directe si et seulement si F ∩ G = {0}.
4.4. Base d’un espace vectoriel 71
u = u + 0 = 0 + u;
dans les deux écritures u est la somme d’un vecteur de F et d’un vecteur de G, or l’écriture de
u est unique, donc u = 0.
Inversement, supposons que F ∩ G = {0}, et montrons que la somme de F et G est directe,
c’est-à-dire chaque élément de F + G s’écrit d’une façon unique comme somme d’un vecteur de
F et d’un vecteur de G.
Soit x ∈ F + G, si x = u1 + v1 = u2 + v2 , où u1 , u2 ∈ F et v1 , v2 ∈ G, alors u1 + v1 = u2 + v2
implique que u1 − u2 = v1 − v2 ∈ F ∩ G, comme F ∩ G = {0}, donc u1 − u2 = 0 et v1 − v2 = 0,
d’où u1 = u2 et v1 = v2 . Ce qui implique que u s’est écrit de façon unique comme somme d’un
vecteur de F et d’un vecteur de G.
Définition 4.3.3. On dit que deux sous-espaces F et G d’un K-espace vectoriel E sont sup-
plémentaires si leur somme est directe et E = F + G, c-à-d F ∩ G = {0} et E = F + G.
Exemple 4.3.1. On sait que F = {(a, 0)| a ∈ R} et G = {(0, b)| b ∈ R} sont des s.e.v de R2
(voir Exemples 4.2.1).
• On a d’une part F + G est directe, car F ∩ G = {(0, 0)} puisque si (a, b) ∈ F ∩ G, alors
(a, b) ∈ F et (a, b) ∈ G ; d’où a = 0 et b = 0.
• D’autre part F + G = R2 , en effet d’abord on sait bien que F + G ⊂ R2 . De plus pour
(a, b) ∈ R2 , on a (a, b) = (a, 0) + (0, b) qui est bien un élément de F + G ; d’où F + G = R2 .
Donc F et G sont supplémentaire dans R2 .
Définitions 4.4.1. Soit E un espace vectoriel, et soit A une partie non vide d’éléments de E.
1. Supposons que A = {e1 , e2 , . . . en } est finie, alors un vecteur x de E est dit combinaison
linéaire des éléments de A s’il existe des scalaires λ1 , λ2 , . . . , λn de K tels que :
x = λ1 e1 + λ2 e2 + . . . + λn en .
2. Si A est une partie quelconque de E, alors un vecteur x de E est dit combinaison linéaire
des éléments de A s’il existe une partie finie B de A, telle que x soit combinaison linéaire des
éléments de B.
72 Chapitre 4. Espaces vectoriels
Exemples 4.4.1.
1. Pour n = 1, alors u = λ1 e1 , est une combinaison linéaire de e1 , on dit que le vecteur u est
colinéaire à e1 .
2. Pour n = 2, alors u = λ1 e1 + λ2 e2 est une combinaison linéaire de e1 et e2 .
3. Dans R2 , prenons e1 = (2, 1) et e2 = (−3, 5), alors
Proposition 4.4.1. Soit E un espace vectoriel, et soit A = {e1 , e2 , . . . en } une famille non
vide d’éléments de E. L’ensemble de toutes les combinaisons linéaires des vecteurs de A est un
sous-espace vectoriel de E, il sera noté
Vect(A) = Vect(e1 , e2 , . . . en ).
Nous dirons que Vect(e1 , e2 , . . . en ) est le sous-espace vectoriel de E engendré par la partie
A. On dit aussi que A est une partie génératrice ou un système de générateurs de
Vect(A).
Preuve.
p
X
• Vect(e1 , e2 , · · · , ep ) est non vide car il contient 0E = 0ei .
i=0
• Soient x, y dans Vect(e1 , e2 , · · · , ep ) et λ ∈ K, alors il existe des scalaires αi et βi dans K tels
que :
i=p
X
x = α1 e1 + α2 e2 + · · · + αp ep = αi ei
i=1
i=p
X
y = β1 e1 + β2 e2 + · · · + βp ep = βi e i ,
i=1
i=p
X
donc x + y = (α1 + β1 )e1 + (α2 + β2 )e2 + · · · + (αp + βp )ep = (αi + βi )ei ,
i=1
d’où x + y ∈ Vect{e1 , e2 , · · · , ep }.
i=p
X
• Enfin, λx = λα1 e1 + λα2 e2 + · · · + λαp ep = λαi ei , par suite λx ∈ Vect{e1 , e2 , · · · , ep }.
i=1
D’où Vect(e1 , e2 , · · · , ep ) est un s.e.v de E.
4.4. Base d’un espace vectoriel 73
Remarque 4.4.1.
1. Notons que
Vect(v1 , v2 , · · · , vr ) ⊂ Vect(X1 , X2 , · · · , Xp ).
Preuve. Il est simple de voir que F ⊂ Vect(F ). De plus, chaque élément de Vect(F ) est une
combinaison linéaire des éléments de F , or F est stable pour la somme et la multiplication par
les scalaires, alors Vect(F ) ⊂ F . D’où l’égalité.
E = Vect(e1 , e2 , . . . en ),
c’est-à-dire que tout élément de E s’écrit comme combinaison linéaire des vecteurs e1 , e2 , . . . en .
Autrement dit, E est l’ensemble des combinaisons des vecteurs e1 , e2 , . . . en .
Exemples 4.4.2. Prenons E = R2 .
1 0
• Considérons les deux vecteurs e1 = et e2 = , alors, pour tout (x, y) de R2 , nous
0 1
avons :
x 1 0
=x +y = xe1 + ye2 .
y 0 1
On constate bien que tout vecteur de R2 peut s’écrire comme une combinaison linéaire de e1
et e2 , donc {e1 , e2 } est une famille génératrice de R2 .
2 1
• Il y en a d’autres, par exemple prenons ε1 = et ε2 = . La condition pour qu’un
3 1
x
vecteur appartienne à Vect(ε1 , ε2 ) est l’existence de deux nombres λ1 et λ2 tels que
y
2λ1 + λ2 = x
3λ1 + λ2 = y
∀α1 , α2 , · · · , αn ∈ K : α1 e1 + α2 e2 + · · · + αp en = 0 =⇒ α1 = α2 = · · · = αn = 0.
Remarque 4.4.2.
1. Les vecteurs e1 , e2 , · · · , en sont linéairement indépendants si et seulement si la seule combi-
naison linéaire des vecteurs e1 , e2 , · · · , ep qui soit nulle, est celle dont les coefficients sont tous
nuls c’est-à-dire :
∀α1 , α2 , · · · , αn ∈ K : α1 e1 + α2 e2 + · · · + αn en = 0 =⇒ α1 = α2 = · · · = αn = 0.
Autrement dit, la famille {e1 , e2 , · · · , en } est libre si et seulement si aucun de ces vecteurs
n’appartient à l’espace engendré par les autres.
2. La famille {e1 , e2 , · · · , en } est liée si et seulement si l’un au moins de ces vecteurs appartient
à l’espace engendré par les autres (s’écrit comme combinaison linéaire des autres).
Exemples 4.4.3.
1. Soient, dans le R-espace vectoriel E = R2 , les deux vecteurs e1 = (−5, 1) et e2 = (3, 7).
Pour vérifier si la famille {e1 , e2 } est libre ou non, nous devons résoudre l’équation
λ1 e1 + λ2 e2 = 0,
4.4. Base d’un espace vectoriel 75
Remarques 4.4.2.
1. Toute famille contenant un seul vecteur non nul u est libre : {u} est libre ⇐⇒ u ̸= 0
2. Toute sous-famille d’une famille libre est une famille libre.
3. Toute famille contenant une sous-famille liée est liée.
76 Chapitre 4. Espaces vectoriels
Proposition 4.4.2. Soit A = {e1 , e2 , · · · , en } une famille libre. Si x ∈ Vect(A), alors x s’écrit
d’une façon unique comme combinaison linéaire des vecteurs de A.
x = α1 e1 + α2 e2 + · · · + αn en et
x = β1 e1 + β2 e2 + · · · + βn en ·
En faisant la différence, on trouve que (α1 − β1 )e1 + (α2 − β2 )e2 + · · · + (αn − βn )en = 0. Comme
la famille A = {e1 , e2 , · · · , en } est libre, alors pour tout 1 ≤ i ≤ n, αi − βi = 0, donc pour tout
1 ≤ i ≤ n, αi = βi . D’où le résultat.
Définition 4.4.3. Une famille X = {e1 , e2 , · · · , en } de vecteurs d’un K-espace vectoriel E est
dite base de E si elle est à la fois une famille libre et une famille génératrice de E.
Exemples 4.4.4.
1. Soit E = Kn , pour i = 1, 2, · · · , n, on note ei le vecteur défini par le n-uplet dont toutes les
composantes sont nulles sauf la i-ième qui est égale à 1, c-à-d,
e1 = (1, 0, · · · , 0),
e2 = (0, 1, 0, · · · , 0),
···
la i-ième position
z}|{
ei = (0, · · · , 0, 1 , 0, · · · , 0),
···
en = (0, · · · , 0, 1).
Par exemple, dans K2 on a : e1 = (1, 0), e2 = (0, 1), et dans K3 on a : e1 = (1, 0, 0), e2 = (0, 1, 0)
et e3 = (0, 0, 1).
a. {1} est une base de K.
b. {e1 ; e2 } est une base de K2 , où e1 = (1, 0) et e2 = (0, 1).
c. {e1 ; e2 ; e3 } est une base de K3 , où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).
d. {e1 ; e2 ; e3 ; e4 } est une base de K4 ; où e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0) et
e4 = (0, 0, 0, 1).
e. En générale, la famille B = {e1 , e2 , · · · , en } de Kn , est une base de Kn . Elle est dite la
base canonique ou naturelle de Kn .
2. La famille {1, i} est une base de C considéré comme espace vectoriel sur R, puisque pour tout
z ∈ C, il existe un unique couple (a, b) ∈ R2 tel que z = a + ib.
4.4. Base d’un espace vectoriel 77
Preuve. Supposons que B = {e1 , e2 , · · · , en } est une base de E, donc la famille B est libre. Soit
u un vecteur de E, si
u = α1 e1 + α2 e2 + · · · + αn en et
u = β1 e 1 + β2 e 2 + · · · + βn e n ,
alors (α1 − β1 )e1 + (α2 − β2 )e2 + · · · + (αn − βn )en = 0. Or la famille B est libre, donc α1 = β1 ,
α2 = β2 , · · · , αn = βn ; ceci implique le résultat.
Inversement, supposons que tout vecteur de E s’écrit de façon unique comme combinaison
linéaire d’éléments de B. Soit u ∈ E, alors il existe un unique n-uplet (α1 , α2 , · · · , αn ) formé des
éléments de K tel que
u = α1 e1 + α2 e2 + · · · + αn en ,
donc la famille B est génératrice, de plus elle est libre car si
n
X
α1 e1 + α2 e2 + · · · + αn en = 0 = 0ei ,
i=1
Dire que E est de dimension finie revient à dire qu’il existe des vecteurs e1 , e2 , · · · , en de E
tels que tout élément x ∈ E s’écrit sous la forme :
x = α1 e1 + α2 e2 + · · · + αn en ,
où les αi sont dans K.
78 Chapitre 4. Espaces vectoriels
Exemples 4.4.5.
1. Kn est de dimension finie car admet la famille {e1 , e2 , · · · , en } comme famille génératrice.
2. l’espace Kn [X] est de dimension finie car il admet la famille {1, X, X 2 , · · · , X n } comme
famille génératrice.
3. Par contre l’espace K[X] est de dimension infinie, car il admet une famille infinie comme
famille génératrice à savoir {1, X, X 2 , · · · , X n , · · · }.
Preuve. Supposons A libre, alors tous ses vecteurs sont non nuls.
Montrons par récurrence que {v1 , v2 , · · · , vn } engendre E.
Comme B = {e1 , · · · , en } est une base de E, alors il existe des scalaires λ1 , λ2 , · · · , λn dans K
tels que
v1 = λ1 e1 + λ2 e2 + · · · + λn en .
On peut supposer λ1 ̸= 0, donc e1 = λ−1 1 (v1 − λ2 e2 − · · · − λn en ), d’où le s.e.v. F engendré par
{v1 , e2 , · · · , en } contient aussi e1 , par suite F = E.
Hypothèse de récurrence : {v1 , · · · , vr , er+1 , · · · , en } engendre E. On peut donc écrire
Les µi pour i ≥ r + 1 ne peuvent pas être tous nuls car A est supposée libre. Sans perte de
généralité on peut supposer que µr+1 ̸= 0. On aura alors,
er+1 = µ−1
r+1 (vr+1 − µ1 v1 − · · · − µr vr − µr+2 er+2 − · · · − µn en ) ,
Théorème 4.4.3. Soit E un K-espace vectoriel de dimension finie. Toutes les bases de E (il y
en a une infinité) ont le même nombre de vecteurs.
Preuve. Soit E un K-e.v. et soit B = {e1 , · · · , en } une base de E formée de n vecteurs, soit
C = {v1 , · · · , vm } une autre base de E. Alors, par le théorème 4.4.2, m > n est impossible, donc
m ≤ n. De même la condition n > m est impossible, d’où n ≤ m. Finalement, n = m.
Corollaire 4.4.1.
1. Dans un espace vectoriel E de dimension n, toute famille de plus de n éléments est liée.
2. Dans un espace vectoriel E de dimension n, une famille de moins de n éléments ne peut pas
être génératrice.
Preuve. Le premier point du corollaire est ce qui est démontré dans le Théorème 4.4.2.
Le deuxième point vient du Théorème 4.4.4 page 80 : si A était une famille génératrice de E
ayant moins de n éléments, on pourrait alors extraire de A une base de E de moins de n éléments,
ce qui contredit le Théorème précèdent.
4.4. Base d’un espace vectoriel 79
Définition 4.4.5. Soit E un K-espace vectoriel. Le nombre de vecteurs n commun entre toutes
les bases de E est dit la dimension de E sur K, et est noté dimK (E) = n ou dim(E) = n.
Exemples 4.4.6.
1. dimK ({0}) = 0.
2. dimK (K) = 1.
3. dimK (K2 ) = 2.
4. En générale dimK (Kn ) = n.
5. dimR (C) = 2.
6. La dimension de Kn [X] est n + 1, prendre la base canonique {1, X, X 2 , · · · , X n }.
Remarque 4.4.4. La dimension d’un K-espace vectoriel E dépend non seulement de E mais
aussi du corps K. Par exemple si on considère C comme espace vectoriel sur R, alors dimR (C) = 2
car il est de base {1, i}. Mais si on considère C comme espace vectoriel sur C, alors dimC (C) = 1.
Proposition 4.4.3. Soit F une famille libre d’un K-espace vectoriel E. Alors la famille F ′ =
F ∪ {v} est encore libre si et seulement si v ̸∈ Vect(F ) ; autrement dit, F ′ = F ∪ {v} est liée si
et seulement si v ∈ Vect(F ).
λv + λ1 v1 + λ2 v2 + · · · + λn vn = 0.
qui est une combinaison linéaire d’éléments de F . Ce qui donne donc que v ∈ Vect(F ).
Proposition 4.4.4. Soit F une famille génératrice d’un K-espace vectoriel E. Alors F est liée
si et seulement si il existe un vecteur v ∈ F tel que la famille F ′ = F − {v} reste génératrice.
Autrement dit, F est liée si et seulement si ∃v ∈ F tel que v ∈ Vect(F − {v}).
λ1 v1 + λ2 v2 + · · · + λn vn = 0,
80 Chapitre 4. Espaces vectoriels
Ce qui implique vj ∈ Vect(F − {vj }). De plus pour tout i ̸= j, vi ∈ Vect(F − {vj }), d’où pour
tout i, vi ∈ Vect(F − {vj }). Par suite
E = Vect(F ) ⊂ Vect(F − {vj }) ⊂ E.
D’où E = Vect(F − {vj }), c’est-à-dire F − {vj } est une famille génératrice de E.
La réciproque est simple, il suffit d’appliquer le point 2 des Remarques 4.4.1 qui affirme que toute
famille contenant une famille génératrice est elle même génératrice.
Théorème 4.4.4 (Théorème de la base extraite). Soit E ̸= {0} un K-espace vectoriel de dimen-
sion finie. De toute famille génératrice F de E, on peut extraire une base B de E, c’est-à-dire,
si F est une partie génératrice de E, alors il existe une base B de E telle que B ⊂ F .
Preuve. Nous allons se baser sur la Proposition 4.4.4. Soit F = {v1 , v2 , · · · , vm } une famille
génératrice de E.
- Si F est libre, alors c’est fini rien à démontrer, F est une base de E.
- Sinon, par la proposition 4.4.4, il existe u1 ∈ F tel que F1 = F − {u1 } est encore une famille
génératrice de E.
On continue l’algorithme avec F1 :
- si F1 est libre, alors c’est fini rien à démontrer, F1 est une base de E.
- sinon, par la proposition 4.4.4, il existe u2 ∈ F1 tel que F2 = F1 − {u2 } est encore une famille
génératrice de E.
On continue l’algorithme avec F2 .
Comme E ̸= {0} on s’arrêtera sur une famille libre et génératrice (une base) de E.
Théorème 4.4.5 (Théorème de la base incomplète). Soit E un espace vectoriel de dimen-
sion finie n. Toute famille libre C = {u1 , · · · , up }, où p ≤ n, de vecteurs de E peut être complétée
en une base E, c’est-à-dire il existe des vecteurs {up+1 , · · · , un } tels B = {u1 , · · · , up , up+1 , · · · , un }
soit une base de E.
Ainsi si E est un espace vectoriel de dimension finie n, alors toute famille contenant n + 1
vecteurs ou plus est liée.
Preuve. Pour la preuve on se base sur la Proposition 4.4.3. Pour completer une famille libre C
de p vecteurs en une base de E, on peut rajouter à C un vecteur up+1 d’une famille génératrice
G de E qu’on connaît auparavant. Si la nouvelle famille C ∪ {up+1 } de p + 1 vecteurs est libre
(voir la Proposition 4.4.3), on la garde et on lui rajoute un nouveau vecteur, et ainsi de suite
jusqu’à construire une famille libre de n vecteurs.
Exemple 4.4.2. Soit E = R4 et soient les deux vecteurs
u1 = (1, 0, 1, 1) et u2 = (1, 1, 1, 1).
Il est simple de vérifier que la famille C = {u1 , u2 } est libre. On rajoute à C le vecteur e1 =
(1, 0, 0, 0), on obtient la famille {u1 , u2 , e1 } qui est bien libre, mais la famille {u1 , u2 , e1 , e2 }, où
e2 = (0, 1, 0, 0), est liée puisque e2 = −u1 + u2 , donc on élimine e2 et on rajoute e3 = (0, 0, 0, 1)
pour avoir la famille libre {u1 , u2 , e1 , e3 } qui est donc bien une base de R4 .
4.4. Base d’un espace vectoriel 81
Preuve.
1. Si F = {0}, alors F est de dimension finie puisque dim({0}) = 0.
Si F ̸= {0}, alors il existe des familles libres dans F , et elles ont au plus n = dim(E) éléments.
Soit A une famille libre de F de cardinal maximal. Montrons que F = Vect(A).
• Sinon, c-à-d, si F ̸= Vect(A), prenons v ∈ F \ Vect(A). Alors, par la Proposition 4.4.3, la
famille A ∪ {v} est encore une famille libre de F , ceci contredit le fait que A est une famille
libre de cardinal maximal. Donc A engendre F , qui est donc de dimension finie.
2. Soit F un sous-espace vectoriel d’un K-espace vectoriel E de dimension finie n. Toute famille
libre C d’éléments de F est aussi une famille libre dans E, elle contient donc moins de n
éléments d’après la remarque 4.4.3, donc dim(F ) ≤ dim(E).
3. Pour le troisième point, si C est une base de F alors C sera une famille libre de E contenant
exactement n éléments, c’est-à-dire C est une base de E, d’où le résultat.
Preuve. Soient {a1 , a2 , · · · , an1 }, {b1 , b2 , · · · , bn2 }, · · · , {c1 , c2 , · · · , cnp } des bases de E1 , E2 , · · · ,
Ep respectivement. Alors la famille :
(ai , 0, · · · , 0)1≤i≤n1 , (0, bi , · · · , 0)1≤i≤n2 , · · · , (0, 0, · · · , ci )1≤i≤np
F + G = Vect(F ∪ G).
Preuve. Comme E est de dimension finie, alors F + G est aussi de dimension finie car la réunion
d’une base de F et d’une base de G est une famille génératrice finie de F + G.
On sait par la Proposition 4.3.1 que F ∩ G est un sous-espace vectoriel de F et de G. Notons par
s = dim(F ∩ G), p = dim(F ) et q = dim(G).
Soit S = {e1 , · · · , es } une base de F ∩ G. Par le Théorème de la base incomplète, on peut
complété S en une base {e1 , · · · , es , f1 , · · · , fp−s } de F (en ajoutant p − s vecteurs de F ) et
en une base {e1 , · · · , es , g1 , · · · , gq−s } de G (en ajoutant q − s vecteurs de G). Donc le système
{e1 , · · · , es , f1 , · · · , fp−s , g1 , · · · , gq−s } est un système générateur de F + G. Montrons qu’il est
libre.
Soit une combinaison linéaire nulle :
µ1 g1 + · · · + µq−s gq−s = ρ1 e1 + · · · + ρr es
4.5. Formule de Grassmann 83
Mais ceci est une combinaison linéaire nulle des vecteurs {e1 , . . . , er , g1 , . . . , gq−s } qui est une
base de G, donc tous les coefficients de cette combinaison linéaire doivent être nuls. En particulier,
µ1 = 0, . . . , µq−s = 0.
Soit alors G le s.e.v. engendré par les vecteurs xr+1 , · · · , xn . Donc E = F ⊕ G. En effet, pour
tout x ∈ E, il existe des scalaires αi ∈ K tels que
n
X r
X n
X
x= αi xi = αi xi + αi xi ·
i=1 i=1 i=r+1
r
X r
X
Or αi xi ∈ F et αi xi ∈ G, alors x ∈ F + G ; ce qui implique E ⊂ F + G, et comme
i=1 i=r+1
F + G ⊂ E, alors E = F + G.
Ceci dit, soit x ∈ F ∩ G, alors x ∈ F et x ∈ G. Donc il existe des scalaires αi ∈ K vérifiant les
Xr Xn
deux relations suivantes : x = αi xi et x = αi xi , ce qui donne que
i=1 i=r+1
ceci implique que les scalaires αi sont tous nuls, par suite x = 0, d’où F ∩ G = {0}.
On peut se demander si l’espace vectoriel (Mm,n (K), +, .) est de dimension finie ou non, si
oui quelle est sa dimension ? Prenons l’exemple suivant : soit la matrice
2 3 5
A= ∈ M2,3 (K).
4 7 2
La matrice A peut s’écrire de la façon suivante :
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0
A=2 +3 +5 +4 +7 +2 .
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
Donc notre matrice A est une combinaison linéaire de 6 matrices de type 2 × 3 dont tous les
éléments sont nuls sauf un qui est égal à 1 ; ce coefficient non nul prend toutes les positions
possibles. Si on note par Eij la matrice de M2,3 (K) à 2 lignes et 3 colonnes dont tous les
coefficients sont nuls sauf celui de la i-ième ligne et j-ième colonne qui est égal à 1, alors la
matrice A est donnée par :
A = 2E11 + 3E12 + 5E13 + 4E21 + 7E22 + 2E23 .
On montre que la famille {E11 , E12 , E13 , E21 , E22 , E23 } est une base de M2,3 (K), appelée la base
canonique. Ceci est un cas particulier du théorème général suivant.
Théorème 4.6.1. Soient m et n deux entiers de N∗ . Pour tout entier i compris entre 1 et m,
et pour tout entier j compris entre 1 et n, désignons par Eij la matrice de Mm,n (K) à m lignes
et n colonnes dont tous les coefficients sont nuls sauf celui de la i-ième ligne et j-ième colonne
qui est égal à 1. Alors les matrices Eij définissent une base de Mm,n (K), dite base canonique de
Mm,n (K).
4.7. Rang d’une famille de vecteurs 85
Preuve. Soit A = (aij ) une matrice de type m × n, alors vu l’exemple en haut on peut écrire
X
A= aij Eij .
1≤i≤m
1≤j≤n
Cet écriture montre que la familles des matrices Eij engendre Mm,n (K).
P
De plus cette famille est aussi libre, car si 1≤i≤m aij Eij = 0, alors on obtient que A = 0,
1≤j≤n
c’est-à-dire aij = 0 pour tous i et j. D’où (Eij )1≤i≤m est une base de Mm,n (K).
1≤j≤n
Corollaire 4.6.1. L’espace vectoriel (Mm,n (K), +, .) est de dimension fini et sa dimension est
mn.
Attention. Ne pas confondre le rang et le cardinal d’une famille ! Le cardinal est simplement
le nombre d’éléments de la famille, alors que le rang est une notion plus abstraite basée sur la
dimension.
Remarque 4.7.1. Nous avons défini au Chapitre 2 (section 2.6) le rang d’une matrice, mais
comme une matrice peut être vue comme une juxtaposition de vecteurs colonnes. On peut donc
dire que le rang d’une famille finie F = {v1 , . . . , vp } de vecteurs d’un K-espace vectoriel E, est le
rang de la matrice A obtenue en juxtaposant les vecteurs vj comme vecteurs colonnes de A. En
effet, on se donne une famille de p vecteurs {v1 , . . . , vp } d’un espace vectoriel E de dimension n.
Fixons une base B = {e1 , . . . , en } de E. Chaque vecteur vj se décompose dans la base B comme
suit : vj = a1j e1 + · · · + aij ei + · · · + anj en , ce que l’on note
a1j
..
.
vj = aij .
.
..
anj B
86 Chapitre 4. Espaces vectoriels
En juxtaposant ces vecteurs colonnes, on obtient une matrice A = (aij ) ∈ Mn,p (K). Le rang de
la famille {v1 , . . . , vp } est donc égal au rang de la matrice A. Nous avons donc le résultat suivant.
Théorème 4.7.1. Le rang d’une famille de vecteurs d’un espace vectoriel E de dimension finie
est égal au rang de la matrice des coordonnées de ces vecteurs dans une base quelconque de E.
Nous avons aussi :
Le rang d’une matrice est le rang de la famille constituée par les vecteurs colonnes de cette
matrice.
Remarque 4.7.2. Le rang d’une matrice est égal au nombre maximal de colonnes formant
un système libre. Et comme le rang d’une matrice est égal au rang de sa transposée, alors le
rang d’une matrice est aussi égal au nombre maximal de lignes formant un système libre. Il est
inférieur ou égal au nombre de lignes et de colonnes de la matrice.
Calculer le rang d’une famille de vecteurs n’est pas toujours évident, cependant il y a des
inégalités qui découlent directement de la définition.
Remarques 4.7.1. Pour faciliter le calcul du rang d’une famille de vecteurs, nous utiliserons
les considérations suivantes (qui sont simples à prouver en utilisant la définition) :
1. Le rang d’une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
2. Le rang d’une famille vaut 1 si et seulement si tous ses vecteurs sont proportionnels.
3. Le rang d’une famille {v1 , . . . , vp } vaut p si et seulement si la famille {v1 , . . . , vp } est libre.
4. Le rang d’une famille de vecteurs ne change pas si on permute les vecteurs de la famille. c’est
à dire que le rang est indépendant de l’ordre des vecteurs de la famille.
5. Le rang ne change pas si on multiplie un vecteur de la famille par un scalaire non nul.
6. Le rang d’une famille finie F = {v1 , . . . , vp } de vecteurs ne change pas si on ajoute à l’un des
vecteurs une combinaison linéaire des autres.
7. Enfin, si rg(v1 , v2 , · · · , vp ) = r, alors toute partie libre de r éléments extraite de {v1 , . . . , vp }
détermine une base du sous-espace vectoriel engendré par les vecteurs v1 , . . . , vp .
Exemple 4.7.1. Quel est le rang de la famille F = {v1 , v2 , v3 } suivante dans l’espace vectoriel
R4 ? On donne
v1 = (1, 0, 1, 0) v2 = (0, 1, 1, 1) v3 = (−1, 1, 0, 1).
4.7. Rang d’une famille de vecteurs 87
1 0 −1
0 1 1
1 1 0 .
Le rang de la famille F est le rang de la matrice A =
0 1 1
Pour cette exemple, nous calculons le rang par la méthode suivante :
a. Ce sont des vecteurs de R4 donc rg(v1 , v2 , v3 ) ≤ 4.
b. Mais comme il n’y a que 3 vecteurs dans F , alors rg(v1 , v2 , v3 ) ≤ 3.
c. Le vecteur v1 est non nul, donc 1 ≤ rg(v1 , v2 , v3 ) ≤ 3.
d. Il est clair que v1 et v2 sont linéairement indépendants donc
rg(v1 , v2 ) = 2 ≤ rg(v1 , v2 , v3 ) ≤ 3.
Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1 , v2 , v3 } est libre ou
liée en résolvant le système linéaire suivant. Soient α, β et γ dans R tels que αv1 + βv2 + γv3 = 0,
alors
Exemple 4.7.2. Dans cet exemple, nous présentons la méthode générale pour déterminer le rang
d’une famille de vecteurs, c’est la méthode du pivot de Gauss pour résoudre les systèmes
linéaires que nous avons déjà utilisée (voir chapitre 3). Nous avons rencontré cette méthode dans
plusieurs reprises dans les chapitres précédents. Le but est d’échelonner la matrice qui représente
cette famille de vecteurs, et le rang de cette famille est le nombre de lignes non nulles qui restent
dans la matrice échelonnée.
Soit à déterminer le rang de la famille des 5 vecteurs suivants de R4 :
Comme dans l’exemple précédent, le rang r de ces 5 vecteurs vérifie 1 ≤ r ≤ 4, et comme les
deux vecteurs v1 et v2 sont indépendants,
alors 2 ≤ r ≤ 4. Notons donc que le rang de cette
1 −1 3 3 3
1 2 2 5 8
famille est le rang de la matrice A =
1 0 −1 0 1 .
1 1 −3 −1 1
Pour déterminer ce rang nous insistons sur les lignes de la matrice, on suit donc l’algorithme
suivant :
88 Chapitre 4. Espaces vectoriels
Première étape.
On range, dans un rectangle, par colonne les coordonnées de chaque vecteur, comme suit :
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 : 1 2 2 5 8
L3 : 1 0 −1 0 1
L4 : 1 1 −3 −1 1
Deuxième étape.
On laisse la première ligne L1 invariante et on remplace, pour tout i tel que 2 ≤ i ≤ 4, les lignes
Li respectivement par Li − aL1 de manière à ce que la première composante de chaque ligne soit
nulle. On obtient :
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 ← L2 − L1 : 0 3 −1 2 5
L3 ← L3 − L1 : 0 1 −4 −3 −2
L4 ← L4 − L1 : 0 2 −6 −4 −2
Troisième étape.
On applique de nouveau la même technique à ce nouveau rectangle. Pour faciliter les calculs (en
particulier pour éviter les fractions), on permutera L3 et L2 .
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 ← L3 : 0 1 −4 −3 −2
L3 ← L2 : 0 3 −1 2 5
L4 : 0 2 −6 −4 −2
On gardera la nouvelle ligne L2 invariante et on remplacera les autres suivant le procédé précédent
de manière à avoir des lignes dont la deuxième composante est nulle.
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
L3 ← L3 − 3L2 : 0 0 11 11 11
L4 ← L4 − 2L2 : 0 0 2 2 2
Quatrième étape.
Pour faciliter les calculs et ne pas avoir des fractions, on divisera L3 par 11 et L4 par 2.
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
1
L3 ← 11 L3 : 0 0 1 1 1
L4 ← 12 L4 : 0 0 1 1 1
4.7. Rang d’une famille de vecteurs 89
Cinquième étape.
On recommence, en gardant la ligne L3 fixe :
v1 v2 v3 v4 v5
L1 : 1 −1 3 3 3
L2 : 0 1 −4 −3 −2
L3 : 0 0 1 1 1
L4 ← L4 − L3 : 0 0 0 0 0
Conclusion.
Le rang des cinq vecteurs v1 , v2 , v3 , v4 , v5 est égal au nombre des lignes non nuls dans le dernier
système. Ce nombre est égal à 3. Donc le rang qu’on cherche est 3.
Notons par Ci la colonne i de la matrice A. Alors le rang de la matrice A est le rang de la famille
{C1 , C2 , C3 , C4 , C5 }. Nous pouvons donc utiliser soit la méthode d’élimination de Gauss soit la
définition donnée pour les matrices. Comme A est de type(4, 5), alors rg(A) ≤ 4. On a :
1 −1 1 0 −1 0
2 −1 3 = 1 −1 2 = −2 ̸= 0,
3 −2 2 1 −2 0
d’où rg(A) ≥ 3 et 3 = rg(C1 , C2 , C3 ), c-à-d, que les trois premières colonnes de A engendrent un
e.v. de dimension 3.
On a aussi :
1 −1 1 −1 1 −1 0 −3
1 0 −3 1 0 0
2 −1 3 0 2 −1 1 −4
= = 1 1 −4 = 1 1 −1 = 0,
3 −2 2 1 3 −2 −1 −5
2 −1 −5 2 −1 1
1 0 1 2 1 0 0 0
Définition 4.8.1. Soit E un espace vectoriel sur K. Un espace affine de direction E est un
ensemble E non vide muni d’une application f qui à chaque couple (A, B) ∈ E × E associe un
−−→
vecteur de E noté AB.
f : E × E −→ E
−−→
(A, B) 7−→ f (A, B) = AB
vérifiant
−−→
1. ∀A ∈ E , ∀⃗u ∈ E, ∃!B ∈ E tel que AB = ⃗u (existence et unicité de B).
−−→ −−→ −→
2. ∀A, B, C ∈ E , on a AB + BC = AC (relation de Chasles).
- E est dit l’espace vectoriel directeur de E .
- Les éléments de E sont dits des points et ceux de E sont des vecteurs.
Remarques 4.8.1.
1. La propriété 1. de la Définition 4.8.1 assure, pour tout point A ∈ E et pour tout vecteur
−−→
⃗u ∈ E, l’existence et l’unicité d’un point B ∈ E vérifiant : AB = ⃗u. Le point B est dit le
translaté de A par ⃗u ; on écrit parfois B = A + ⃗u ou ⃗u = B − A (notation de Grassmann) et
on a bien sur : −−→
B = A + ⃗u si et seulement si AB = ⃗u.
2. Si on fixe ⃗u ∈ E, alors l’application
t⃗u : E −→ E
−−→
A 7−→ B tel que ⃗u = AB
est bijective, et elle est dite la translation de vecteur ⃗u.
3. Si on fixe un point origine O, par définition d’un espace affine, il existe une application
fO : E −→ E
−−→
M 7−→ OM .
La propriété énonce que cette application fO est bijective pour tout point O. Cette corres-
pondance permet donc, par choix d’une origine, de munir (de façon non canonique) l’espace
affine E d’une structure d’espace vectoriel isomorphe à E, dite structure vectorielle d’origine
O, et que l’on note EO . Cette opération s’appelle la vectorialisation de l’espace affine au point
O.
L’étude des problèmes de géométrie affine se ramène souvent à une étude en géométrie vecto-
rielle, par choix convenable d’une origine de l’espace affine.
4. Tout espace vectoriel E est canoniquement (naturellement) muni d’une structure d’espace
affine de direction E, lui même, par :
f : E×E −→ E
(⃗u, ⃗v ) 7−→ ⃗u − ⃗v
−−→
Il arrive d’ailleurs que ce que l’on a noté dans un espace affine AB soit noté B − A, et quand
cet espace affine est un espace vectoriel muni de sa structure affine canonique, les notations
4.8. Espaces affines 91
R3 × R3 −→ R3
.
((x1 , y1 , z1 ), (x2 , y2 , z2 )) 7−→ (x2 − x1 , y2 − y1 , z2 − z1 )
f : E × E −→ E
−−→
(A, B) 7−→ f (A, B) = AB = B − A.
Preuve. Ces propriétés découlent directement de la définition d’espace affine, c’est-à-dire des
axiomes 1. et 2. de la Définition 4.8.1.
−→ −→ −→ −→ −→ −→
1. On a AA + AA = AA, donc AA = AA − AA = ⃗0.
−−→ ⃗ −−→ −→
2. On a aussi AB = 0 ⇐⇒ AB = AA
⇐⇒ A = B, par l’axiome 1. de la définition 4.8.1
−−→ −−→ −→ −−→ −−→
3. De même on a AB + BA = AA = ⃗0, donc AB = −BA.
4. L’assertion 4. est prouvé par récurrence sur n ≥ 2.
Preuve. Par la relation de Chasles les égalités suivantes sont toujours vraies :
−−→′ −−→ −−→′ −−→′ −−→′ −−′−→′
AB = AB + BB et AB = AA + A B .
−−→ −−→ −−→ −−−→
Donc AB + BB ′ = AA′ + A′ B ′ . On en déduit l’équivalence.
Pour que A, B ′ , A′ , B soit un parallélogramme, il faut et il suffit que ce vecteur soit nul, donc
que I soit aussi milieu de [A′ B].
Définition 4.8.2. Soit E un espace affine associé à l’espace vectoriel E. Si E est un espace
vectoriel de dimension finie, on dit aussi que E est un espace affine de dimension finie et on pose
dim(E ) = dim(E).
1. Un point est un espace affine de dimension 0 associé à l’espace vectoriel {0}.
2. Une droite affine est un espace affine de dimension 1 associé à un espace vectoriel de dimension
1.
3. Un plan affine est un espace affine de dimension 2 associé un à espace vectoriel de dimension
2.
Dans cette section, E désigne un espace affine dirigé par un espace vectoriel E.
[Link] Définition
Définition 4.8.3. Un repère cartésien ou affine de E est un couple R = (O, B) formé d’un
point O ∈ E et d’une base B de E, B = (e1 , e2 , · · · , en ).
- Le point O est dit l’origine du repère, B sa base et e1 , e2 , · · · , en sont les vecteurs de la base.
−−→ −−→
- Pour tout point M ∈ E , OM est un vecteur de E. Les composantes de OM dans la base B
sont appelées les coordonnées cartésiennes du point M dans le repère R. Ainsi, on écrit
i=n
−−→ X
OM = x1 e1 + x2 e2 + · · · + xn en = xi ei .
i=1
−−→ −−→
On note OM (x1 , x2 , · · · , xn ) ou OM = (x1 , x2 , · · · , xn ) ou M (x1 , x2 , · · · , xn ) ou encore M =
(x1 , x2 , · · · , xn )
4.8. Espaces affines 93
Définition 4.8.4.
1. Un repère (O,⃗i, ⃗j) du plan affine est dit direct si la mesure principale de (⃗i, ⃗j) est positive,
c
c’est-à-dire, pour aller de ⃗i à ⃗j on tourne dans le sens inverse au mouvement des aiguilles
d’une montre.
y
⃗j +
x
O ⃗i
2. Un repère (O,⃗i, ⃗j, ⃗k) d’un espace affine de dimension 3 est dit direct si la base (⃗i, ⃗j, ⃗k) est
directe, c’est-à-dire, elle vérifie “la règle du bonhomme d’Ampère" : une personne qui a les
pieds en O portée par l’axe (0z) regardant vers le vecteur ⃗i et le vecteur ⃗j est à sa gauche.
Remarques 4.8.2.
1. Si le repère (O,⃗i, ⃗j) est direct, alors le repère (O, ⃗j,⃗i) est indirect.
2. Si le repère (O,⃗i, ⃗j, ⃗k) est direct, alors les repères :
a. (O, ⃗j, ⃗k,⃗i) et (O, ⃗k,⃗i, ⃗j) sont directs.
b. (O, ⃗j,⃗i, ⃗k), (O,⃗i, ⃗k, ⃗j) et (O, ⃗k, ⃗j,⃗i) sont indirects.
Il est naturel de vouloir passer de l’expression d’un point dans un repère R = (O, B) donné à
celle dans un autre repère R′ = (O′ , B ′ ). Pour simplifier les calculs, faisons ça dans des exemples.
Exemples 4.8.2.
1. On muni R2 du repère R = (O, B) et du repère R′ = (O′ , B ′ ), où B = {e1 , e2 } la base
canonique de R2
O = (0, 0), e1 = (1, 0) et e2 = (0, 1),
′ 2
et B = {u1 , u2 } une autre base de R définie par :
O′ = (1, 2)
u1 = (2, 3) = 2e1 + 3e2 et u2 = (−1, 2) = −e1 + 2e2 .
Soit M ∈ E tel que
M = (a, b) dans le repère R et
M = (a′ , b′ ) dans le repère R′ .
Calculons a′ et b′ en fonction de a et b.
94 Chapitre 4. Espaces vectoriels
2. Soit un repère R = (O,⃗i, ⃗j, ⃗k) de l’espace affine R3 . Considérons les vecteurs
√ √
u = − 22 (⃗i + ⃗j), v = 22 (−⃗i + ⃗j) et w = ⃗k.
Définition 4.8.5. Soit E un espace affine dirigé par un espace vectoriel E. Une partie non vide
F de E est dite un sous-espace affine de E s’il existe un point A ∈ F tel que l’ensemble
−−→
F = {AM | M ∈ F } est un sous-espace vectoriel (s.e.v) de E.
On dit alors que F est le sous-espace affine de E de direction F passant par A, et la dimension
de F est par définition celle de son espace directeur F .
−−→ −−→
Preuve. On a F = {AM | M ∈ F }, notons F ′ = {BM | M ∈ F }. Montrons que F = F ′ . Puisque
−−→
B appartient à F , alors le vecteur AB appartient à F .
−−→ −−→ −−→ −−→
Comme BM = AM − AB, donc BM ∈ F , car F est un sous-espace vectoriel de E, d’où F ′ ⊂ F .
−−→ −−→ −−→
De même AM = AB + BM ∈ F , d’où F ⊂ F ′ . Il en résulte que F = F ′ .
Preuve. Soit (Fi )i∈I une famille de sous-espaces affines d’un espace affine E attaché à un e.v.
Fi de cette famille est vide, il n’y a rien à démontrer.
T
E. Si l’intersection
i∈I
Sinon, soit A un point de cette intersection. Pour tout i ∈ I, un point M de E appartient à Fi si
−−→
et seulement si le vecteur AM appartient à la direction Fi de Fi , puisque A appartient à Fi . Il
−−→
Fi si et seulement si AM appartient au sous-espace vectoriel
T
en résulte que M appartient à
i∈I
Fi est un sous-espace affine de E de direction
T T T
Fi de E, ce qui montre que Fi .
i∈I i∈I i∈I
Par suite F ⊂ G .
−−→
3. Le sens direct est immédiat, on choisit un point A ∈ G , alors {M ∈ G |AM ∈ F } est un s.e.a.
de G parallèle à F .
Réciproquement, si F est faiblement parallèle à H (s.e.a. de G ), alors F = H ⊂ G.
Remarque 4.8.2. Deux sous-espaces affines peuvent avoir une intersection vide sans être pa-
rallèles. Pensez à deux droites dans l’espace.
Définition 4.9.1. Soit A un ensemble, soit R une relation binaire sur A. On dit que R est une
relation d’équivalence si elle vérifie les trois conditions suivantes :
1. la réflexivité : ∀x ∈ A, xRx,
2. la symétrie : ∀x, y ∈ A, xRy =⇒ yRx,
3. la transitivité : ∀x, y, z ∈ A, si xRy et yRz, alors xRz.
Définition 4.9.2. Soit A un ensemble, soit R une relation d’équivalence sur A. Soit x ∈ A, alors
l’ensemble {y ∈ A | yRx} est dit la classe d’équivalence de x par R, et est noté x̄.
x̄ = {y ∈ A | yRx}.
Tout élément de la classe est dit représentant de la classe. En particulier x est un représentant
de x̄.
Proposition 4.9.1. Soit R une relation d’équivalence sur un ensemble A. Alors les classes
d’équivalence des différents éléments de A forment une partition de A.
Réciproquement, si (Xi )i est une partition de A, il existe alors sur A une relation d’équivalence
dont les classes sont les éléments de la partition.
Remarque 4.9.1. Deux classes d’équivalence sont donc soit égales : x̄ = ȳ (si xRy), soit
disjointes : x̄ ∩ ȳ = ∅ (si x n’est pas en relation avec y).
Définition 4.9.3. Soit A un ensemble, et soit R une relation d’équivalence sur A. L’ensemble
de toutes les classes d’équivalence de A par R est appelé l’ensemble quotient de A par R, et est
noté A/R.
Exemple 4.9.1. Sur l’ensemble des entiers relatifs Z, on définit une relation binaire R par :
L’ensemble quotient est Z/R = {0̄, 1̄}, on le note aussi Z/2Z. C’est un ensemble fini à 2 éléments :
0, 1.
Exemple 4.9.2. Plus généralement, sur l’ensemble des entiers relatifs Z, pour un entier naturel
n, on définit une relation binaire R par :
xRy ⇐⇒ ∃k ∈ Z; x − y = kn.
Il s’agit d’une relation d’équivalence, elle est dite la relation de congruence modulo n : on
la note
x ≡ y [n] ⇐⇒ ∃k ∈ Z; x − y = kn.
Preuve.
• x − x = 0E ∈ F , car F est un sous-espace vectoriel, donc xRx. La relation est donc réflexive.
• Si x − y ∈ F , alors y − x = −(x − y) ∈ F , car F est un sous-espace vectoriel. Autrement dit la
relation xRy =⇒ yRx. Donc la relation est bien symétrique.
• Si x − y et y − z ∈ F , alors leur somme x − z appartient aussi à F (car F est un sous-
espace vectoriel). Autrement dit les relations xRy et yRz implique que xRz. La relation est donc
transitive.
D’où le résultat.
98 Chapitre 4. Espaces vectoriels
Par suite, la relation d’équivalence R donne lieu à des classes d’équivalence x̄, où x ∈ E, et à un
ensemble quotient qu’on note E/F au lieu de E/R,
Remarque 4.9.2. x̄ est, par définition, l’ensemble des vecteurs y ∈ E tels que yRx, c’est-à-dire
l’ensemble des vecteurs y ∈ E tels que y − x ∈ F . Autrement dit c’est l’ensemble des vecteurs de
la forme x + f avec f ∈ F :
x̄ = {x + f | f ∈ F } = x + F.
Lorsque x = 0E = 0, on a :
0E = 0 = {f : f ∈ F } = F
Notons que x + F n’est pas un sous-espace vectoriel de E, mais un sous-espace affine de direction
F . Donc l’ensemble quotient E/F est formé de tous les sous-espaces affines de direction F .
Dans l’ensemble E nous avons une structure d’espace vectoriel, liée à deux opérations :
la somme et la multiplication par un scalaire. Obtient-on une telle structure dans l’ensemble
quotient ? Pour répondre à cette question, nous avons besoin de la définition suivante.
Définition 4.9.4.
1. Soit E un ensemble muni d’une loi de composition interne ∗ et d’une relation d’équivalence
R. On dit que la loi ∗ est compatible avec la relation R si pour tous x, y, x′ , et y ′ dans E
on a :
xRx′
=⇒ (x ∗ y)R(x′ ∗ y ′ )
yRy ′
2. Soit E un ensemble muni d’une loi de composition externe “.” de domaine d’opération K et
d’une relation d’équivalence R. On dit que la loi “.” est compatible avec la relation R si
pour tous x, y dans E et pour tout α ∈ K on a :
xRy =⇒ (α.x)R(α.y)
Proposition 4.9.3. Soit E un ensemble muni d’une loi de composition interne ∗ et d’une loi
de composition externe “.” de domaine d’opération K, qui sont compatibles avec une relation
d’équivalence R définie sur E. On peut définir sur E/F une loi de composition interne et une
loi de composition externe (dites lois quotient) en posant pour tous x et y dans E et pour tout
α∈K:
x̄ ∗ ȳ = x ∗ y et α.x̄ = αx·
4.9. Espace vectoriel quotient 99
Preuve. Il s’agit de montrer que les définitions ne dépendent pas du choix des représentants.
• La loi interne sur le quotient E/F est définie de la manière suivante : soient C1 et C2 deux
classes d’équivalence, c’est-à-dire deux éléments de E/F ; on choisit un représentant dans chaque
classe en prenant par exemple x ∈ C1 et y ∈ C2 donc C1 = x̄ et C2 = ȳ ; on pose alors :
C1 ∗ C2 = x ∗ y
Il faut montrer donc que si on change de représentants, le résultat ne change pas. Soient x′ ∈ C1
et y ′ ∈ C2 deux autres représentants, alors xRx′ et yRy ′ ; comme la loi est compatible avec la
relation d’équivalence, on déduit que x ∗ yRx′ ∗ y ′ , c’est-à-dire x ∗ y = x′ ∗ y ′ .
• De la même manière on montre que la loi externe sur le quotient est bien définie : si on change
de représentant, le résultat ne change pas.
xRy ⇐⇒ x−y ∈F
est compatible avec les lois de E. Par conséquent les lois de E "passent an quotient". On pose
pour tous x et y dans E et pour tout α ∈ K :
x̄ + ȳ = x + y
α.x̄ = αx
Ceci veut dire :
(x + F ) + (y + F ) = (x + y) + F
α.(x + F ) = αx + F
Remarquez qu’il s’agit d’égalités entre des sous-ensembles de E.
Théorème 4.9.1. E/F muni des lois quotient est un K-espace vectoriel, on l’appelle espace
quotient, ou quotient de E par F .
Preuve. La démonstration est simple. Notons que l’élément neutre est 0E/F = 0 = F et −x̄ =
−x.
On peut interpréter E comme le plan. Alors F est la première bissectrice (la droite d’équation
y = x ). Pour tout "point du plan" p = (x0 , y0 ) ∈ E, on a
p̄ = {p + f : f ∈ F } = {(x0 + α, y0 + α) : α ∈ R} .
Théorème 4.9.2. Si l’espace vectoriel E est de dimension finie, alors l’espace quotient E/F est
de dimension finie et on a :
Preuve. Admis.
4.10 Exercices
Exercice 4.1. On définit sur R∗+ , l’ensemble des nombres réels strictement positifs, deux lois
“ ⊕ ” et “.” de la manière suivante : pour tous x, y, ∈ R∗+ et λ ∈ R on pose x ⊕ y = xy et
λ.x = xλ . Montrer que le triplet (R∗+ , ⊕, .) est un R-espace vectoriel.
Exercice 4.2. Soit un réel a, considérons E l’ensemble des fonctions numériques définies sur R
par f (0) = a. Donner une condition nécessaire et suffisante portant sur a pour que E soit un
R-espace vectoriel.
Exercice 4.5. Montrer que les deux vecteurs u = (1, −1) et v = (1, 1) engendrent le R-e.v. R2 .
La famille {u, v} est-elle libre ? Justifier. Exprimer le vecteur w = (−3, −7) comme combinaison
linéaire de u et v.
Exercice 4.6. Soient les vecteurs v1 = (−1, 2, 1), v2 = (2, 3, −3) et v3 = (−3, −1, m), où m est
un réel.
1. Pour quelle condition sur m le vecteur v3 est-il combinaison linéaire de v1 et v2 ?
2. On suppose que cette condition n’est pas vérifiée. Montrer alors que tout vecteur de R3 est
combinaison linéaire de v1 , v2 et v3 .
Exercice 4.7. Montrer que les familles de polynômes suivantes sont des bases des espaces
indiqués.
1. Dans R4 [X], la famille 1, X − 1, (X − 1)2 , (X − 1)3 , (X − 1)4 . Déterminer l’écriture d’un
polynôme P ∈ R4 [X] dans cette base en fonction des valeurs de P et de ses dérivées successives
en 1.
2. Dans R2 [X], la famille X, X(X + 1), (X + 1)2 . Déterminer l’écriture des polynômes 1, X, X 2
dans cette base, puis l’écriture d’un polynôme quelconque a + bX + cX 2 .
4.10. Exercices 101
Exercice 4.8. On considère dans R3 [X], l’espace des polynômes de degré ≤ 3, la famille des
polynômes A = {P0 , P1 , P2 }, où P0 (X) = 1, P1 (X) = 1 + X, P2 (X) = 1 + X 2 .
1. Montrer que la famille A est libre.
2. Soit le polynôme P3 (X) = 1 + aX 3 , où a ∈ R.
i. Donner le rang de la famille {P0 , P1 , P2 , P3 } selon les valeurs de a.
ii. Completer A en une base de R3 [X].
iii. Soit F le sous-espace vectoriel engendré par A. Déduire un supplémentaire direct de F
dans R3 [X].
Exercice 4.9. On considère dans R4 les vecteurs u1 = (1, 0, 0, 0), u2 = (1, 1, 0, 0) et u3 =
(1, 0, 1, 0).
1. Montrer que la famille {u1 , u2 , u3 } est libre dans R4 .
2. Soit le vecteur u4 = (1, 0, a, b), où a et b sont dans R. Déterminer les valeurs de a et b pour
que le rang de la famille {u1 , u2 , u3 , u4 } soit égal à 4.
3. Soit F le sous-espace vectoriel de R4 engendré par u1 et u2 . Donner un supplémentaire direct
de F dans R4 .
Exercice 4.10. Soit F le sous-espace vectoriel de R3 engendré par les deux vecteurs u1 = (1, 1, 0)
et u2 = (0, 1, 1), et soit G le sous-espace vectoriel de R3 engendré par v = (1, 1, 1). Déterminer
F + G et F ∩ G.
Exercice 4.11. On considère, dans R4 , les vecteurs : v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v3 =
(2, 1, 1, 1), v4 = (−1, 0, −1, 2), v5 = (2, 3, 0, 1).
1. Soit F le sous-espace vectoriel de R4 engendré par {v1 , v2 , v3 } et G celui engendré par {v4 , v5 }.
Calculer les dimensions respectives de F , G, F ∩ G, F + G.
2. Déduire le rang de la famille {v1 , v2 , v3 , v4 , v5 }. Assurez-vous de ce résultat par la méthode du
pivot de Gauss.
Exercice 4.12. Déterminer le rang de la famille F dans les cas suivants.
1. Soit E = R3 considéré comme R-espace vectoriel. Soient les vecteurs u = (1, 1, 1), v =
(2, 3, −1) et w = (4, 5, 1). F = {u, v, w}.
2. Dans R5 , F = {u1 = (2, 0, 0, 0, 2), u2 = (1, 3, 0, 0, 0), u3 = (4, 5, 6, 0, 0), u4 = (8, 1, 0, 2, 0)}
(rg(F ) = 4).
3. On considère, dans R3 , la famille F = {u = (1, 2, 1), v = (1, 4, a), w = (−1, 0, −2)}. Donner le
rang de F en fonction de a. Dire quand F est une base de R3 .
Exercice 4.13. Notons par Sn (R) et An (R) les ensembles des matrices respectivement symé-
triques et antisymétriques carrées d’ordre n.
1. Montrer que Sn (R) et An (R) sont des sous-espaces vectoriels de Mn (K).
2. Déterminer une base et la dimension de Sn (R) et de An (R) pour n = 3.
3. Montrer que Mn (R) = Sn (R) ⊕ An (R).
Exercice 4.14. Soit Mn,m (C) l’espace des matrices à coefficients complexes, où n et m sont
dans N∗ . Soit A = (aij ) ∈ Mn,m (C). On appelle la matrice conjuguée de A, et on note A, la
matrice des conjugués des coefficients de A, i.e. A = (aij ). On appelle la matrice adjointe (aussi
appelée la matrice transconjuguée) de A, habituellement notée A∗ , la matrice transposée de la
matrice A, i.e. A∗ = t (A) = t A. Dans le cas particulier où A est à coefficients réels, sa matrice
adjointe est donc simplement sa matrice transposée.
102 Chapitre 4. Espaces vectoriels
APPLICATIONS LINÉAIRES
Dans ce chapitre nous introduisons une notion permettant à la structure d’espace vectoriel de
devenir très intéressante, il s’agit de la notion d’application linéaire. Elles sont des applications
(relations) entre espaces vectoriels qui conservent la structure d’espace vectoriel. Nous nous
contentons de donner les définitions et les résultats élémentaires de base. Nous commençons par
définir les applications.
f : E −→ F
x 7−→ f (x) = y
∀x ∈ E, ∃!y ∈ F, f (x) = y.
Exemple 5.1.1. f : N −→ R
2n − 3
n 7−→ f (n) =
n+2
Définition 5.1.2. Soit une application f d’un ensemble E dans un ensemble F .
1. f est dite injective si ∀(x, x′ ) ∈ E 2 , f (x) = f (x′ ) =⇒ x = x′ , ce qui est équivaut à dire que f
est injective si ∀(x, x′ ) ∈ E 2 , x ̸= x′ =⇒ f (x) ̸= f (x′ ).
2. f est dite surjective si ∀y ∈ F , ∃x ∈ E, f (x) = y.
3. f est dite bijective si elle est injective et surjective.
103
104 Chapitre 5. Applications linéaires
Exemples 5.1.1.
1. L’application f : N −→ Z est injective, mais elle n’est pas surjective.
n 7−→ f (n) = 2n − 3
2. L’application f : R −→ R∗+ est bijective.
x 7−→ f (x) = ex
Définition 5.2.1. Une application f : E −→ F est dite linéaire si elle vérifie les deux propriétés
suivantes :
1. ∀(x, y) ∈ E 2 , f (x + y) = f (x) + f (y).
2. ∀x ∈ E, ∀α ∈ K, f (αx) = αf (x).
L’ensemble des applications linéaires de E dans F sera noté L(E, F ).
Exemples 5.2.1.
1. L’application de f : R3 −→ R2 telle que f (x, y, z) = (x, y + 2z) est linéaire. En effet, soient
X = (x, y, z) et Y = (x′ , y ′ , z ′ ) dans R3 , et soit α ∈ R, alors on a :
•
f (X + Y ) = f ((x, y, z) + (x′ , y ′ , z ′ ))
= f (x + x′ , y + y ′ , z + z ′ )
= (x + x′ , y + y ′ + 2(z + z ′ ))
= (x + x′ , y + 2z + y ′ + 2z ′ )
= (x, y + 2z) + (x′ , y ′ + 2z ′ )
= f (X) + f (Y ).
•
f (αX) = f (α(x, y, z))
= f (αx, αy, αz)
= (αx, αy + 2αz)
= α(x, y + 2z)
= αf (X).
2. L’application g : R2 −→ R telle que g(x, y) = xy, ∀(x, y) ∈ R2 , n’est pas linéaire. En effet, si
on prend par exemple X = (2, −7) et α = 6, on trouve :
et
αg(X) = 6 × g(2, −7) = 6 × 2.(−7) = 6 × (−14) = −84.
Proposition 5.2.1. Soient E et F deux K-espaces vectoriels. Si f est une application linéaire
de E dans F , alors : f (0E ) = 0F et f (−u) = −f (u), pour tout u ∈ E.
106 Chapitre 5. Applications linéaires
ceci montre la première assertion. Pour la deuxième, il suffit de prendre dans la définition α =
−1.
Pour démontrer qu’une application est linéaire, on peut aussi utiliser la proposition suivante
dite la caractérisation d’une application linéaire.
Preuve. Supposons que f est linéaire, alors, par définition, pour tous u et v dans E et pour tous
λ et µ dans K on a f (λu + µv) = f (λu) + f (µv) = λf (u) + µf (v).
Réciproquement, supposons que f (λu + µv) = λf (u) + µf (v) pour tous u et v de E et pour
tous λ et µ de K. Alors en prenant λ = µ = 1 on obtient le premier point de la définition, et en
prenant µ = 0 on obtient le deuxième.
Définition 5.2.3. Soit f : E −→ F une application linéaire. f (E) l’image directe par f de E
s’appelle l’image de l’application linéaire f , et est noté Im(f ). On a :
Parmi les propriétés importantes des applications linéaires, on trouve le résultat suivant qui
affirme qu’une application linéaire conserve la structure d’espace vectoriel.
Preuve.
• Tout d’abord, comme 0E ∈ E ′ , alors 0F = f (0E ) ∈ f (E ′ ), donc f (E ′ ) est non vide.
• Ensuite, on montre que pour tout couple (y1 , y2 ) d’éléments de f (E ′ ) et pour tous scalaires λ,
µ, l’élément λy1 + µy2 appartient à f (E ′ ). En effet :
y1 ∈ f (E ′ ) ⇐⇒ ∃x1 ∈ E ′ , f (x1 ) = y1
y2 ∈ f (E ′ ) ⇐⇒ ∃x2 ∈ E ′ , f (x2 ) = y2 .
Or λx1 + µx2 est un élément de E ′ , car E ′ est un sous-espace vectoriel de E, donc λy1 + µy2 est
bien un élément de f (E ′ ). D’où le résultat cherché.
Remarque 5.2.1. Par définition de l’image directe f (E), on a : f est surjective si, et seulement
si, Im(f ) = F . En effet,
f −1 (B) = x ∈ E | f (x) ∈ B .
Exemple 5.2.2. Soit A ∈ M m,n (K). Soitf : Kn −→ Km l’application linéaire définie par
f (X) = AX. Alors ker(f ) = X ∈ R | AX = 0 , c’est donc l’ensemble des X ∈ Kn solutions
n
Preuve. Supposons que f est injective. Soit x un élément de ker(f ), alors f (x) = 0F . Or, comme
f est linéaire, on a aussi f (0E ) = 0F . Donc l’égalité f (x) = f (0E ) implique que x = 0E car f est
injective. Donc ker(f ) = {0E }.
Réciproquement, supposons maintenant que ker(f ) = {0E }. Soient x et y deux éléments de E
tels que f (x) = f (y), donc f (x) − f (y) = 0F . Comme f est linéaire, on en déduit f (x − y) = 0F ,
c’est-à-dire x − y est un élément de ker(f ). Donc x − y = 0E , soit x = y.
an X n+1 + · · · + a1 X 2 + a0 X = 0.
Ainsi, ai = 0 pour tout i ∈ {0, . . . , n} et donc P (X) = 0. Le noyau de f est donc nul : ker(f ) =
{0}.
Notons que l’image de f est l’espace
Im(f ) = {f (P ) | P ∈ Rn [X]}
= {X · P (X) | P ∈ Rn [X]}
= {an X n+1 + · · · + a1 X 2 + a0 X | ai ∈ R, ∀ i}.
D’où Im(f ) est l’ensemble des polynômes de Rn+1 [X] sans terme constant c’est-à-dire :
Inversement, f est bien définie par la donnée de la famille {f (e1 ), f (e2 ), · · · , f (en )}.
5.2. Applications linéaires 109
Pn
Preuve. Soit x ∈ E, alors x = i=1 ai ei , donc par linéarité de f on déduit que
Xn n
X
f (x) = f ( ai ei ) = ai f (ei ).
i=1 i=1
D’où
f (x) ∈ ⟨f (e1 ), f (e2 ), · · · , f (en )⟩.
Par suite
Im(f ) ⊂ Vect{f (e1 ), f (e2 ), · · · , f (en )}.
Inversement, soit y ∈ Vect{f (e1 ), f (e2 ), · · · , f (en )}, alors il existe des scalaires ai ∈ K tels
que :
Xn X n
y= ai f (ei ) = f ( ai ei ) = f (x),
i=1 i=1
Pn
où x = i=1 ai ei , ceci implique que Vect{f (e1 ), f (e2 ), · · · , f (en )} ⊂ Im(f ). D’où le résultat.
Théorème 5.2.3 (Théorème du rang). Soit f : E −→ F une application linéaire entre deux
K-espaces vectoriels, E étant de dimension finie n. Alors Im(f ) est de dimension finie et on a :
Preuve. Comme E est de dimension finie n, E admet une base B = {e1 , · · · , en }. Or ker(f ) est
un sous-espace vectoriel de E, ker(f ) a donc une base K = {v1 , · · · , vp } (avec bien sûr p ≤ n).
D’autre part, B ′ = {f (e1 ), · · · , f (en )} est une famille génératrice finie de Im(f ). Donc Im(f )
est de dimension finie, et on peut extraire de B ′ une sous-famille I qui est une base de Im(f ) ;
disons qu’il s’agit des q premiers vecteurs de B ′ (avec q ≤ n), et posons wi = f (ei ) ; ainsi on a
I = {w1 , · · · , wq }.
Si nous arrivons à montrer que la famille F = {v1 , · · · , vp , e1 , · · · , eq } est une base de E, le
problème sera résolu, ainsi on aura
f (a1 e1 + · · · + aq eq + b1 v1 + · · · + bp vp ) = f (0) = 0,
Donc on a une combinaison linéaire nulle des vecteurs de la base I, donc tous les coefficients
ai = 0 sont nuls. Alors la relation du départ devient
b1 v1 + · · · + bp vp = 0;
mais cella là aussi est une combinaison linéaire nulle des vecteurs de la base K de ker(f ), d’où
tous les coefficients bi = 0 sont nuls. Par suite la famille F est libre.
Montrons enfin que la famille F est génératrice de E. Soit un vecteur quelconque u ∈ E ; on
doit montrer que u est une combinaison linéaire des vecteurs de F. Comme I engendre Im(f ),
alors
f (u) = a1 w1 + · · · + aq wq = a1 f (e1 ) + · · · + aq f (eq ) = f (a1 e1 + · · · + aq eq ).
D’où f (a1 e1 + · · · + aq eq ) − f (u) = 0 c’est-à-dire f (a1 e1 + · · · + aq eq − u) = 0, et donc
a1 e1 + · · · + aq eq − u ∈ ker(f ).
D’autre part, on sait que la famille K engendre ker(f ), alors on peut écrire que
a1 e1 + · · · + aq eq − u = b1 v1 + · · · + bp vp ,
f : R3 −→ R2
(x, y, z) 7−→ (x − y, x − z).
Calculer le rang de f .
Solution.
On a ker(f ) = {(x, y, z) ∈ R3 | f (x, y, z) = 0}
= {(x, y, z) ∈ R3 | x − y = x − z = 0}
= {(x, y, z) ∈ R3 | x = y = z}
= {x(1, 1, 1) ∈ R3 | x ∈ R}.
Donc ker(f ) = Vect(1, 1, 1), ainsi dim(ker(f )) = 1. D’où le théorème du rang nous donne rg(f ) =
dim(R3 ) − dim(ker(f )) = 3 − 1 = 2.
Corollaire 5.2.2.
1. rg(f ) ≤ inf (dim(E), dim(F )).
2. rg(f ) = dim(E) ⇐⇒ f est injective.
3. rg(f ) = dim(F ) ⇐⇒ f est surjective.
Preuve.
5.3. L’espace vectoriel L(E, F ) 111
1. Pour le premier point, on sait que rg(f ) = dim(Im(f )), donc rg(f ) ≤ dim(F ) puisque Im(f ) ⊂
F . De plus par le Théorème du rang on a : dim(E) = dim(ker(f )) + rg(f ), alors rg(f ) =
dim(E) − dim(ker(f )) ≤ dim(E), et le résultat en découle.
2. On sait que dim(E) = dim(ker(f )) + rg(f ), alors
rg(f ) = dim(E) ⇐⇒ dim(ker(f )) = 0 ⇐⇒ ker(f ) = {0} ⇐⇒ f est injective.
3. Pour le troisième point, on sait que rg(f ) = dim(Im(f )) et Im(f ) ⊂ F , alors
rg(f ) = dim(F ) ⇐⇒ Im(f ) = F ⇐⇒ f est surjective.
Corollaire 5.2.3. Soit f ∈ L (E, F ), où E, F sont deux espaces vectoriels de même dimension
finie n (en particulier, par exemple, si f ∈ L(E), avec E de dimension finie n). Alors les
propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
4. rg(f ) = n.
Preuve. Il suffit de montrer que 1. est équivalent à 2. Nous savons que f est injective si et
seulement si ker(f ) = {0}, et comme dim(E) = rg f + dim(ker f ), alors f est injective si et
seulement si dim E = rg(f ), c’est-à-dire dim(E) = dim(Im f ). Or, par hypothèse, dim(E) =
dim(F ), donc f est injective si et seulement si dim(Im(f )) = dim(F ). Puisque Im f ⊂ F cela
équivaut à Im f = F c’est-à-dire f surjective.
Exercice. Soit E et F deux K-e.v. de dimension finie. Montrer que E et F sont isomorphes si
et seulement si dim(E) = dim(F ). E et F sont dits isomorphes s’il existe un isomorphisme de E
dans F .
Preuve. L’ensemble L(E, F ) est inclus dans le K-espace vectoriel F(E, F ). Pour montrer que
L(E, F ) est un K-espace vectoriel, il suffit donc de montrer que L(E, F ) est un sous-espace
vectoriel de F(E, F ).
112 Chapitre 5. Applications linéaires
• Tout d’abord L(E, F ) est non vide puisque l’application nulle lui appartient.
• Soient f, g ∈ L(E, F ), montrons que f + g est linéaire. Pour tous vecteurs u et v de E et pour
tous scalaires α, β de K on a :
L(E, F ) est donc un sous-espace vectoriel de F(E, F ). Par suite L(E, F ) est un espace vectoriel
sur K.
En particulier, L(E) est un espace vectoriel sur K (prendre dans la Proposition 5.3.1 précé-
dente E = F ).
Lemme 5.4.1. Si f est une application bijective d’un ensemble A sur un ensemble B, alors f −1
est une application bijective de B sur A.
Preuve. Comme f est une application bijective de E sur F , alors par le Lemme 5.4.1, f −1 est
aussi une application bijective de F sur E. Il reste donc à prouver que f −1 est linéaire.
Soient u′ et v ′ deux vecteurs de F et soient α et β deux éléments de K. Puisque f −1 est
bijective, alors il existe u, v dans E tels que f −1 (u′ ) = u et f −1 (v ′ ) = v, et donc f (u) = u′ et
f (v) = v ′ . Par la linéarité de f , nous avons donc
car f −1 ◦ f = idE (où idE désigne l’application identité de E dans E). Ainsi
f −1 (αu′ + βv ′ ) = αf −1 (u′ ) + βf −1 (v ′ ),
Pour prouver que f est bijective, on pourrait calculer son noyau (ou son image puisque on ait
dans le cas de dimension finie). Mais ici nous allons calculer directement son inverse en résolvant
l’équation f (x, y) = (x′ , y ′ ). Cela correspond à l’équation (2x + 3y, x + y) = (x′ , y ′ ) qui est un
système linéaire à deux équations et deux inconnues.
On trouve (x, y) = (−x′ + 3y ′ , x′ − 2y ′ ). Donc f −1 (x′ , y ′ ) = (−x′ + 3y ′ , x′ − 2y ′ ), et on vérifie
aisément que f −1 est l’inverse de f , et on remarque que f −1 est une application linéaire.
Exemple 5.4.2. Plus généralement, soit f : Kn −→ Kn l’application linéaire définie par f (X) =
AX (où A est une matrice de Mn (K)). Si la matrice A est inversible, alors f −1 est une application
linéaire bijective et est définie par f −1 (X) = A−1 X.
Dans l’exemple précédent 5.4.1,
x 2 3 −1 3
X= A= A−1 = .
y 1 1 1 −2
114 Chapitre 5. Applications linéaires
(aij )(i,j)∈{1,...,m}×{1,...,n} .
Définition 5.5.1. La matrice de l’application linéaire f par rapport aux bases B et B ′ est la
matrice (aij ) ∈ Mm,n (K) dont la j-ème colonne est constituée par les coordonnées du vecteur
f (ej ) dans la base B ′ = {f1 , . . . , fm } :
En termes plus simples : c’est la matrice dont les vecteurs colonnes sont les images par f des
vecteurs de la base de départ B, exprimée dans la base d’arrivée B ′ . On note cette matrice
MB,B′ (f ).
5.5. Matrice d’une application linéaire 115
f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (x1 + x2 − x3 , x1 − 2x2 + 3x3 )
utiled’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être écrite comme
Il est
x1
x1 + x2 − x3
suit : f : x2 7→
.
x1 − 2x2 + 3x3
x3
Soient B = {e1 , e2 , e3 } la base canonique de R3 et B ′ = {f1 , f2 } la base canonique de R2 ,
c’est-à-dire :
1 0 0
1 0
e1 = 0
e2 = 1
e3 = 0
f1 = f2 =
0 1
0 0 1
116 Chapitre 5. Applications linéaires
1. Calculons la matrice de f dans les bases B et B ′ , ceci revient à calculer les images f (e1 ),
f (e2 ) et f (e3 ).
• f (e1 ) = f (1, 0, 0) = (1, 1) = f1 + f2 . La première colonne de la matrice MB,B′ (f ) est
donc ( 11 ).
• De même f (e2 ) = f (0,1, 0) = (1, −2) = f1 − 2f2 . La deuxième colonne de la matrice
1
MB,B′ (f ) est donc −2 .
• Enfin f (e3 ) = f (0, 0, 1)
= (−1, 3) = −f1 + 3f2 . La troisième colonne de la matrice
MB,B′ (f ) est donc −1 3 .
Ainsi :
1 1 −1
MB,B′ (f ) =
1 −2 3
2. On va maintenant changer la base de l’espace de départ et celle de l’espace d’arrivée. Soient
les vecteurs
1 1 0
1 1
ϵ1 = 1
ϵ2 = 0 ϵ3 = 1 ϕ1 = ϕ2 =
0 1
0 1 1
On montre facilement que B0 = {ϵ1 , ϵ2 , ϵ3 } est une base de R3 et B0′ = {ϕ1 , ϕ2 } est une
base de R2 .
Calculons la matrice de f dans les bases B0 et B0′ .
- f (ϵ1 ) = f (1, 1, 0) = (2, −1) = 3ϕ1 − ϕ2 ,
- f (ϵ2 ) = f (1, 0, 1) = (0, 4) = −4ϕ1 + 4ϕ2 ,
- f (ϵ3 ) = f (0, 1, 1) = (0, 1) = −ϕ1 + ϕ2 , donc
3 −4 −1
MB0 ,B0′ (f ) = .
−1 4 1
Cet exemple illustre bien le fait que la matrice dépend du choix des bases.
C’est-à-dire la matrice associée à la somme de deux applications linéaires est la somme des
matrices (à condition de considérer la même base sur l’espace de départ pour les deux applications
et la même base sur l’espace d’arrivée). Idem avec le produit par un scalaire.
Ce qui montre facilement que le terme général de la matrice associée à f + g par rapport aux
bases B et B ′ est aij + bij qui est le terme général de la matrice A + B.
La démonstration de la deuxième formule est semblable.
Remarque 5.5.2. Soient E et F deux K-espace vectoriels de dimensions respectivement n et
m. Soient B une base E et B ′ une de F . Nous savons déjà que L(E, F ) et Mm,n (K) sont des
K-espace vectoriels. De la proposition précédente nous déduisons que l’application suivante est
un isomorphisme d’espaces vectoriels.
φ : L(E, F ) −→ Mm,n (K)
f 7−→ MB,B′ (f )
Donc dim(Mm,n (K)) = dim(L(E, F )) = mn.
Autrement dit, à condition de bien choisir les bases, la matrice associée à la composition de
deux applications linéaires est le produit des matrices associées à chacune d’elles, dans le même
ordre. En fait, le produit de matrices, qui semble compliqué au premier abord, est défini afin de
correspondre à la composition des applications linéaires.
Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose avec les autres
colonnes, on remarque que C = MB,B′′ (g ◦ f ) et BA sont deux matrices ayant leurs colonnes
égales. On a donc bien l’égalité cherchée.
f : R2 −→ R3 et g : R3 −→ R2 .
On pose E = R2 , F = R3 , G = R2 , alors
f : E −→ F et g : F −→ G.
alors
1 −1
C= .
4 5
On trouve bien une matrice de taille 2 × 2 (car l’espace de départ et d’arrivée de g ◦ f est
R2 ).
2. Deuxième méthode.
Utilisons le produit de matrices : on sait que C = BA. Donc
1 0
2 −1 0 1 −1
MB,B′′ (g ◦ f ) = C = B × A = × 1 1 =
3 1 2 4 5
0 2
Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en passant
par l’intermédiaire des matrices.
Dans cette section, on étudie le cas où l’espace de départ et l’espace d’arrivée d’une application
linéaire sont identiques, c’est-à-dire,
f : E −→ E est un endomorphisme.
Si dim(E) = n, alors chaque matrice associée à f est une matrice carrée de taille n × n. Nous
sommes devant deux situations :
a. si on choisit la même base B au départ et à l’arrivée, alors on note simplement MB (f ) la
matrice associée à f .
Exemple 5.5.4. Comme exemples.
• Cas de l’identité : id : E −→ E est définie par id(x) = x. Alors quelle que soit la base B de
E, la matrice associée est la matrice identité : MB (id) = In .
• Cas d’une homothétie vectorielle hλ : E −→ E, hλ (x) = λ · x (où λ ∈ K est le rapport de
l’homothétie) : MB (hλ ) = λIn .
b. mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel E ; on note
alors la matrice associée à f comme précédemment MB,B′ (f ).
f est bijective si et seulement si la matrice A est inversible. Autrement dit, f est un isomorphisme
si et seulement si sa matrice associée MB,B′ (f ) est inversible.
120 Chapitre 5. Applications linéaires
Soit E un espace vectoriel de dimension finie et soit B = {e1 , e2 , . . . , en } une base de E. Pour
chaque x ∈ E, il existe un n-uplet unique (x1 , x2 , . . . , xn ) d’éléments de K tel que
x = x1 e1 + x2 e2 + · · · + xn en .
Soient x = x1 e1 + x2 e2 + · · · + xn en un élément de E et y = y1 f1 + y2 f2 + · · · + ym fm un
élément de F tels que y = f (x), alors par la linéarité de f on a :
Sachant que f (ej ) ∈ F , alors il existe des scalaires λij , 1 ≤ i ≤ m, tels que
m
X
f (ej ) = λij fi = λ1j f1 + λ2j f2 + · · · + λmj fm .
i=1
x1
x2
On pose X = la matrice unicolonne formée par les coordonnées de x dans la base B et
..
.
xn
y1
y2
Y = la matrice unicolonne formée par les coordonnées de y dans la base B ′ . Alors on
..
.
ym
montrera l’équivalence suivante :
En d’autres termes, les coordonnées de f (x) dans la base B ′ peuvent être calculées grâce au
produit matriciel MB,B′ (f )X.
x1
x2
Proposition 5.6.1. Soit A = MB,B′ (f ). Pour x ∈ E, notons X = MB (x) = .. . Pour
.
xn B
y1
y2
y ∈ F , notons Y = MB′ (y) = .. . Alors,
.
ym B′
Preuve.
′
- B = {e1 , . . . , en }, B = {f1 , f2 , . . . , fm }, A = (aij ) = MB,B′ (f ) et X = MB (x) =
On pose
x1
x2
. .
..
xn
!
Xn n
X n
X m
X
- On sait que f (x) = f xj ej = xj f (ej ) = xj aij fi , donc, en utilisant la
j=1 j=1 j=1 i=1
commutativité de K, on trouve que
n
X n
X
f (x) = a1j xj f1 + · · · + amj xj fm .
j=1 j=1
122 Chapitre 5. Applications linéaires
Pn
j=1 a1j xj
Pn
j=1 a2j xj
- La matrice colonne des coordonnées de y = f (x) dans la base {f1 , f2 , . . . , fm } est .
..
Pn .
j=1 amj xj
Pn
j=1 a1j xj
x1
Pn
j=1 a2j xj
x2
- Ainsi la matrice Y = MB′ f (x) = n’est autre que le produit A .. .
..
. .
Pn
amj xj xn
j=1
Exemples 5.6.1.
1. Soit f: R3 −→R2 une application linéaire dont la matrice associée dans la base canonique est
2 1 1
A= . Alors pour tous x = (x1 , x2 , x3 ) ∈ R3 et y = (y1 , y2 ) ∈ R2 , on a y = f (x)
1 2 1
est équivaut à la formule Y = AX, donc
x
2 1 1 1
y1 2x1 + x2 + x3
= x2 = .
y2 1 2 1 x1 + 2x2 + x3
x3
Le noyau est donc de dimension 1, et par le théorème du rang, l’image Im(f ) est donc de
dimension 2. Rappelons que Im(f ) est engendré par les images f (e1 ), f (e2 ) et f (e3 et que ces
vecteurs sont les colonnes des la matrice A. Les deux premiers vecteurs colonnes de la matrice
A sont linéairement indépendants, ils engendrent donc Im(f ) :
1 2
Im(f ) = V ect 2 , 3 .
1 B 1 B
5.6. Changement de bases 123
Soit E un espace vectoriel de dimension finie n. On sait que toutes les bases de E ont le même
nombre d’éléments n.
Définition 5.6.1. Soient B et B ′ deux bases différentes de E. On appelle matrice de passage
de la base B à la base B ′ , et on note PB,B′ , la matrice carrée de taille n × n dont la j-ième
colonne est formée des coordonnées du j-ième vecteur de la base B ′ écrit dans la base B.
Si on prend B = {e1 , e2 , · · · , en } et B ′ = {f1 , f2 , · · · , fn }, alors
f1 ... fj ... fn
e1 a11 ... a1j ... a1n
e2 a21 ... a2j ... a2n
PB,B′ = .
.. .. .. .. ..
. . . .
en an1 ... anj ... ann
Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d’obtenir les
résultats de façon très élégante et avec un minimum de calculs.
Pn
On a idE (fj ) = fj = i=1 aij ei et MB′ ,B (idE )est lamatrice dont la j-ème colonne est formée
a1j
a2j
des coordonnées de fj par rapport à B, soit .. . Cette colonne est la j-ème colonne de
.
anj
PB,B′ .
Proposition 5.6.3. On a :
1. La matrice de passage d’une base B à une base B ′ est inversible
−1 et son inverse est égale à la
matrice de passage de la base B ′ à la base B : PB′ ,B = PB,B′ .
2. Si B, B ′ et B ′′ sont trois bases, alors PB,B′′ = PB,B′ × PB′ ,B′′ .
Preuve.
1. On a PB,B′ = MB′ ,B idE . Donc, d’après le théorème caractérisant la matrice d’un isomor-
phisme, on a : −1
−1
= MB,B′ id−1 −1 −1
PB,B ′ = MB′ ,B idE E . Or idE = idE , donc PB,B′ = MB,B′ idE =
PB′ ,B .
2. idE : (E, B ′′ ) −→ (E, B) se factorise de la façon suivante :
id id
(E, B ′′ ) −→
E
(E, B ′ ) −→
E
(E, B).
Nous allons maintenant étudier l’effet d’un changement de bases sur les coordonnées d’un
vecteur, pour cela considérons les notations suivantes.
5.6. Changement de bases 125
a. Soient B = {e1 , e2 , . . . , en } et B ′ = {e′1 , e′2 , . . . , e′n } deux bases d’un même K-espace vectoriel
E.
b. Soit PB,B′ la matrice de passage de la base B à la base B ′ .
Pn
c. Pour x ∈ E, il se décompose en x = i=1 xi ei dans la base B et on note X = MB (x) =
x1
x2
. .
..
xn B
Pn
d. Ce
xmême x ∈ E se décompose en x = i=1 x′i e′i dans la base B ′ et on note X ′ = MB′ (x) =
′
1
′
x2
.. .
.′
xn B′
Preuve. PB,B′ est la matrice de idE : (E, B ′ ) −→ (E, B). On utilise que x = idE (x) et la
Proposition 5.6.3. On trouve
X = MB (x) = MB idE (x) = MB′ ,B (idE ) × MB′ (x) = PB,B′ × X ′ .
′
Preuve. L’application f : (E, BE ) −→ (F, BF′ ) se factorise de la façon suivante :
′ id f id
(E, BE E
) −→ F
(E, BE ) −→ (F, BF ) −→ (F, BF′ ),
c’est-à-dire que f = idF ◦ f ◦ idE . On a donc l’égalité de matrices suivante :
B = MBE′ ,BF′ (f )
= MBF ,BF′ (idF ) × MBE ,BF (f ) × MBE′ ,BE (idE )
= PBF′ ,BF × MBE ,BF (f ) × PBE ,BE′
= Q−1 AP
126 Chapitre 5. Applications linéaires
Dans le cas particulier d’un endomorphisme f : E −→ E, nous obtenons une formule plus
simple.
• Soient B, B ′ deux bases de E.
• Soit P = PB,B′ la matrice de passage de B à B ′ .
• Soit A = MB (f ) la matrice de l’application linéaire f dans la base B.
• Soit B = MB′ (f ) la matrice de l’application linéaire f dans la base B ′ .
Le théorème devient alors :
1 0 3 1 0 −6 1 0 −3 1 0 0
B = P −1 AP = 2 −1 5 × −2 2 −7 × 2 −1 −1 = 0 2 0
0 0 1 0 0 3 0 0 1 0 0 3
C’est souvent l’intérêt des changements de base, se ramener à une matrice plus simple. Par
exemple ici, il est facile de calculer les puissances B k , pour en déduire les Ak .
Exemple 5.6.4. Soit B = {e1 , e2 , e3 } la base canonique de R3 , où e1 = (1, 0, 0), e2 = (0, 1, 0), e3 =
(0, 0, 1). Soit la famille B ′ = {f1 , f2 , f3 }, où f1 = (1, −1, 1), f2 = (0, 2, 1) et f3 = (1, 2, −2). On
vérifie que B ′ est une base de R3 , et nous avons :
f1
= e1 − e2 + e3
⇐⇒ f2 = 2e2 + e3
f + 1 (f − f ) = 3e
2 3 3 1 2
f1 = e 1 − e 2 + e 3
⇐⇒ f2 = 2e2 + e3
e = −1f + 1f + 1f
2 9 1 3 2 9 3
e1 = f1 + e2 − e3 = 32 f1 + 31 f3
⇐⇒ e2 = − 19 f1 + 31 f2 + 19 f3
e3 = f2 − 2e2 = 92 f1 + 31 f2 − 29 f3 .
5.7 Exercices
Exercice 5.1.
1. Soit E l’espace vectoriel des fonctions continues de [0, 1] dans R. Montrer que l’application
φ : E −→ R définie par φ(f ) = f (0) est linéaire.
2. Soient les deux applications f : R2 −→ R2 ; (x, y) 7−→ (x+y, x−y) et g : R3 −→ R2 ; (x, y, z) 7−→
(xz, yz). f et g sont-elles linéaires ?
3. On considère l’application linéaire h de R3 dans R2 définie par h(x, y, z) = (x − y, y − z).
Déterminer ker(h), h est-elle injective ? Surjective ?
Exercice 5.3. Soit l’application linéaire f : R2 −→ R3 ; (x, y) 7−→ (x+y, x−y, x+y). Déterminer
le noyau et l’ image de f . L’application f est-elle injective ? surjective ?
Exercice 5.4. Soit l’application linéaire f : R3 −→ R4 ; (x, y, z) 7−→ (x+z, y−x, z +y, x+y+2z).
5.7. Exercices 129
Exercice 5.5. Soit φ l’application linéaire de R2 dans R2 définie par : φ(x, y) = (x + y, −x − y).
1. Déterminer le noyau et le rang de φ.
2. Déterminer la matrice MB (φ) de φ dans la base canonique B = {e1 , e2 } de R2 .
3. Soient u1 = e1 − e2 et u2 = e1 + e2 . Vérifier que B ′ = {u1 , u2 } est une base de R2 , et
déterminer P la matrice de passage de B à B ′ . Déduire P −1 .
4. En déduire MB ′ (φ) la matrice de φ dans la nouvelle base B ′ .
DIAGONALISATION,
TRIGONALISATION ET
APPLICATIONS
130
6.1. Vecteurs et valeurs propres 131
Remarque 6.1.1.
1. Un vecteur propre est par définition non nul (car il est utilisé pour construire des bases de
E), alors que la valeur propre peut être nulle.
2. Noter que les éléments non nuls de ker(f ) sont les vecteurs propres associés à la valeur propre
λ = 0.
3. Si v est un vecteur propre associé à la valeur propre λ, alors pour tout α ∈ K et α ̸= 0, le
vecteur αv est aussi un vecteur propre associé à la même valeur propre. En effet,
Remarque 6.1.2. Soit x un vecteur propre de f , ceci est équivaut à l’existence d’un scalaire λ
tel que f (x) = λx, donc
Or on sait bien que le noyau d’une application linéaire est un sous-espace vectoriel de E, d’où la
définition suivante.
Preuve. 1. Pour le premier point 1, par définition λ est une valeur propre si et seulement s’il
existe un vecteur non nul x tel que f (x) = λx, mais ceci est équivaut à Eλ ̸= {0}, ceci à son tour
est équivaut à ker(f − λidE ) ̸= {0} ce qui est équivaut à f − λidE n’est pas injectif donc non
bijectif.
2. Pour le second point 2. Soient λ1 et λ2 deux valeurs propres distinctes et v1 ̸= 0, v2 ̸= 0 leurs
vecteurs propres associés respectivement. Si v1 et v2 sont linéairement dépendants, alors il existe
un scalaire α ̸= 0 tel que v1 = αv2 , d’où
1
v1 = αv2 ⇐⇒ v2 = v1 , α ̸= 0,
α
alors
1 1 1 1
λ2 v2 = f (v2 ) = f ( v1 ) = f (v1 ) = λ1 v1 = λ1 v1 = λ1 v2 ,
α α α α
donc λ1 = λ2 , ce qui est absurde. La dernière assertion se démontre par récurrence sur p.
Preuve. Puisque les valeurs propres {λ1 , λ2 , · · · , λn } sont distinctes, alors par récurrence on
montre que la famille {v1 , v2 , · · · , vn } est libre, d’où elle forme une base de E puisque dim(E) =
n.
Proposition 6.1.2. Les sous-espaces propres d’un endomorphisme f sont en somme directe,
c’est-à-dire si {λ1 , · · · , λp } sont des valeurs propres distinctes, alors la somme Eλ1 + · · · + Eλp
est directe.
Preuve. Cette propriété joue un rôle essentiel dans cette théorie. Sa preuve est basée sur une
démonstration par récurrence.
Si p = 2, soient λ1 et λ2 deux valeurs propres distinctes de f . Montrons que la somme
Eλ1 + Eλ2 est directe, c’est-à-dire chaque élément x ∈ Eλ1 + Eλ2 s’écrit d’une façon unique
comme somme d’un élément de Eλ1 et d’un élément de Eλ2 . Pour cela il suffit de prouver que si
x1 et x2 sont deux vecteurs respectivement de Eλ1 et Eλ2 , alors x1 + x2 = 0 implique que x1 = 0
et x2 = 0. Or
Par la suite on ne considérera que les matrices carrées à coefficients dans K. Rappelons que
MB (idE ) = In .
Théorème 6.1.1. Soit A une matrice de Mn (K), alors pour tout λ ∈ K, les propriétés suivantes
sont équivalentes :
1. λ est une valeur propre de A.
2. A − λIn est non inversible.
3. det(A − λIn ) = 0.
(a11 −X)(a22 −X) · · · (ann −X) = (−1)n X n +(−1)n−1 (a11 +· · ·+ann )X n−1 +· · ·+a11 a22 · · · ann .
Comme χA (0) = det(A), alors le terme constant de χA (X) est det(A), d’où on a :
Définition 6.2.1. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. On appelle polynôme
caractéristique de A le polynôme de K[X] de degré n donné par det(A − XIn ). On le note χA .
Rappelons qu’une matrice B est dite semblable à A s’il existe une matrice P carrée d’ordre
n inversible telle que B = P −1 AP .
Proposition 6.2.1. Soient A et B deux matrices semblables. Alors les polynômes caractéris-
tiques χA et χB sont identiques.
Preuve. Si A et B sont semblables, alors il existe une matrice inversible P tel que B = P −1 AP .
On a aussi B − XIn = P −1 (A − XIn ) P , car
P −1 (A − XIn ) P = P −1 A − P −1 XIn P
= P −1 AP − P −1 XIn P = P −1 AP − P −1 XP
= P −1 AP − XP −1 P = P −1 AP − XIn .
χB = det P −1 (A − XIn ) P
Remarque 6.2.1. Rappelons aussi que deux matrices A et B sont semblables représentent le
même endormorphisme, par rapport à deux bases différentes. Autrement dit, si f est un endo-
morphisme d’un K-espace vectoriel E, et si B et B ′ sont deux bases de E, alors A = MB (f ) et
B = M′B (f ) sont semblables. Par la Proposition 6.2.1, A et B ont le même polynôme caractéris-
tique. Le polynôme caractéristique dépend donc uniquement de f , et non pas de la base. Cette
remarque justifie la définition suivante.
Définition 6.2.2 (Polynôme caractéristique d’un endomorphisme). Si f : E → E est
un endomorphisme, le polynôme caractéristique χf de f est le polynôme caractéristique d’une
matrice MB (f ) pour une base B de E. Autrement dit, χf = det(f − XidE ).
Proposition 6.2.2. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. Alors λ est une valeur
propre de A (ou de f ) si et seulement si det(A − λI) = 0 si et seulement si χA (λ) = 0.
Autrement dit, les valeurs propres de A sont les racines de son polynôme caractéristique dans K.
Il y’en a au plus n. En particulier, deux matrices semblables ont les mêmes spectres.
Preuve. Ceci est une conséquence du fait que det(A − [Link] ) est exactement le polynôme carac-
téristique. Plus précisément, λ est une valeur propre de A si et seulement si det(A − λIn ) = 0.
Donc λ est une valeur propre de A si et seulement si χA (λ) = 0.
Remarque 6.2.2. Attention au fait que le spectre de f depend du corps K. En effet, soit
3 −2
l’endomorphisme f : R2 −→ R2 représenté dans la base canonique par la matrice A = .
5 −3
3−λ −2
Donc χA (λ) = det(A − λI2 ) = = λ2 + 1. D’où
5 −3 − λ
136 Chapitre 6. Diagonalisation, trigonalisation et applications
- dans R, Spec(f ) = ∅, et
- dans C, Spec(f ) = {−i, i}.
Proposition 6.2.3. Soit A ∈ Mn (K), et soit f l’application f (x) = Ax. les énoncés suivants
sont équivalents :
1. λ est une valeur propre de A et x ∈ Kn un vecteur propre associé,
2. λ est une racine du polynôme caractéristique et x une solution du système homogène (A −
λ.I)x = 0.
Résumons ces résultats dans la proposition suivante qui va nous aider à déterminer les valeurs
et les vecteurs propres (s’ils existent) d’un endomorphisme f .
Théorème 6.2.1. Soit A ∈ Mn (K) une matrice carrée d’ordre n, et soit f l’application f (x) =
Ax. Les énoncés suivants sont équivalents :
1. λ est une valeur propre de A,
2. le système homogène (A − λ.In )x = 0 possède une solution non nulle,
3. λ est une racine du polynôme caractéristique χA , i.e., χA (λ) = 0,
4. ker(f − λ.id) ̸= 0, i.e., f − λ.id n’est pas injectif,
5. la matrice A − λ.I n’est pas inversible,
6. det(A − λ.I) = 0.
Remarque 6.2.3. Comme C est un corps algébriquement clos (un corps commutatif K est dit
algébriquement clos si tout polynôme de degré supérieur ou égal à 1, à coefficients dans K, admet
(au moins) une racine dans K), alors le polynôme caractéristique de degré n de A s’écrit comme
suit :
Yp
χA = (−1)n (λ − λi )mi ,
i=1
où les λi , 1 ≤ i ≤ p, sont les valeurs propres de A, et les mi sont les multiplicités respectives. On
Xp
a mi = n.
i=1
a−λ b
χA = det(A − λI) = = λ2 − (a + d)λ + (ad − bc) = λ2 − tr(A)λ + det(A).
c d−λ
6.2. Détermination des valeurs propres, polynôme caractéristique 137
5 −3
- Si A = , alors χA = λ2 − λ − 2 = (λ + 1)(λ − 2). D’où les valeurs propres de A (de
6 −4
1 = −1 et
f ) sont λ λ2 = 2.
2 −1
- Si A = , alors χA = λ2 + 1, donc A n’a pas de valeurs propre si K = R, et si K = C
5 −2
les valeurs propres sont λ1 = −i et λ2 = i.
6 2 1
Exemple 6.2.2. Prenons maintenant A = −6 −1 −2 . On a
0 0 3
6 2 1 1 0 0 6−λ 2 1
A − λI = −6 −1 −2 − λ 0 1 0 = −6 −1 − λ −2 .
0 0 3 0 0 1 0 0 3−λ
6−λ 2 1
χA = det(A − λ) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ
Donc, χA = −(λ − 3)2 (λ − 2). Les valeurs propres sont donc 2 et 3, et on dit que 3 a une
«multiplicité» égale à 2 puisque le polynôme caractéristique a (λ − 3)2 en facteur (3 est une
racine double).
2 2 2
Exemple 6.2.3. Prenons maintenant A = 1 2 0 . Le polynôme caractéristique est alors
1 0 2
2−λ 2 2
χA = det(A − λI) = 1 2−λ 0 = −λ3 + 6λ2 − 8λ.
1 0 2−λ
Donc, χA = −λ3 + 6λ2 − 8λ = −λ(λ − 2)(λ − 4). Les valeurs propres sont donc 0, 2 et 4. Elles
sont toutes de multiplicités 1.
P (X) = a0 + a1 + · · · + an X n ∈ K[X],
et soient f un endomorphisme d’un espace vectoriel E et A une matrice carrée de taille (n, n).
On définit alors P (A) = a0 In + a1 A + · · · + an An , (on a remplacé l’indéterminé X du polynôme
caractéristique par la matrice A). En particulier si χA = P est le polynôme caractéristique de A,
on a :
χA (A) = a0 In + a1 A + · · · + an An .
Théorème 6.2.2 (Cayley-Hamilton). Soient f un endomorphisme d’un K-espace vectoriel
E de matrice associée A qui est matrice carrée de taille (n, n), alors χA (A) = 0, où 0 est la
matrice carrée nulle d’ordre n. Autrement dit, le polynôme minimal de A divise son polynôme
caractéristique.
138 Chapitre 6. Diagonalisation, trigonalisation et applications
6.3 Diagonalisation
Commençons par rappeler que deux matrices carrées A et B à coefficients dans K sont dites
semblables, s’il existe une matrice inversible P à coefficients dans K telle que B = P −1 AP (ou
ce qui revient au même, A = P BP −1 ).
Définissons maintenant qu’est ce qu’une matrice diagonalisable.
Définition 6.3.1.
1. On dit qu’un endomorphisme f d’un K-espace vectoriel E de dimension n est diagonalisable
s’il existe une base B de E telle que la matrice associée à f relativement à cette base B soit
diagonale.
2. On dit qu’une matrice A ∈ Mn (K) est diagonalisable s’il existe une matrice diagonale D
d’ordre n telle que A et D sont semblables, c’est-à-dire il existe une matrice inversible P
d’ordre n telle que A = P DP −1 .
Notons que les deux conditions de la définition sont les mêmes. Il suffit de remarquer que si
B et B ′ sont deux bases de E telles que A = MB (f ) et D = MB′ (f ) est une matrice diagonale,
alors la matrice P n’est rien d’autre que la matrice de passage de B à B ′ .
Remarques 6.3.1. 1. Notons que D est la matrice diagonale :
λ1 0 ... 0 0
.. .. ..
0 λ1 . . .
.
.. . . .
D = diag(λ1 , · · · , λ1 , · · · , λp , · · · , λp ) = .. ,
. 0 0
0 ... 0 λp 0
0 ... 0 0 λp
Preuve. Soit B = {v1 , · · · , vn } une base formée de vecteurs propres correspondants aux valeurs
propres λ1 , · · · , λn , alors on a :
···
λ1 0 0 0
0
λ2 0 ··· 0
Donc MB (f ) = ... .. . . .. . D’où f est diagonalisable.
. . . 0
0 0 · · · λn−1 0
0 0 0 ··· λn
Réciproquement, s’il existe une base B ′ = {e1 , e2 , · · · , en } telle que la matrice M (f )B ′ de f
dans cette base soit diagonale c’est-à-dire :
a11 0 · · ·
0
..
0 a22 . . .
.
M (f )B ′ = .
.. . .. . ..
0
0 · · · 0 ann
ceci implique que tous les vecteurs ei sont des vecteurs propres.
Définition 6.3.2. Soit P ∈ K[X] de degré m. On dit que P est scindé dans K si P admet m
racines dans K (en comptant chaque racine avec sa multiplicité). Autrement dit, P est un produit
de facteurs de degré 1, c’est-à-dire s’il est de la forme
Exemple 6.3.2.
1. Le polynôme P (X) = X 2 − 5X + 6 = (X − 2)(X − 3) est scindé dans R.
2. P (X) = X 3 − 4X 2 + 5X − 2 est scindé dans R, car il s’écrit : P (X) = (X − 1)2 (X − 2) et
donc il a trois racines {1, 1, 2}.
3. En revanche P (X) = X 2 + 1 n’est pas scindé dans R, mais il est scindé dans C puisque dans
C on a : P (X) = X 2 + 1 = (X + i)(X − i). En général, le Théorème de D’Alembert affirme
que tout polynôme de C[X] est scindé dans C.
1. f est diagonalisable.
2. E est somme directe des sous-espaces propres : E = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp .
3. dim(E) = dim(Eλ1 ) + dim(Eλ2 ) + · · · + dim(Eλp ).
Preuve. Comme Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp ⊂ E, alors il est simple de voir que 2 ⇐⇒ 3.
D’autre part :
- si E = Eλ1 ⊕ · · · ⊕ Eλp alors, en prenant des bases B1 , . . . , Bp de Eλ1 , . . . , Eλp , la famille B :=
{B1 , · · · , Bp } est une base de E ; puisque B est formée de vecteurs propres, f est diagonalisable.
Donc (2) =⇒ (1).
- Réciproquement, si f est diagonalisable, il existe une base B de E formée de vecteurs propres.
Soit :
B = {v1 , · · · , vn1 , · · · , w1 , · · · , wnp }.
| {z } | {z }
∈Eλ1 ∈Eλp
Preuve. Puisque, dans ce cas, f admet n valeurs propres de multiplicité égale à 1. Il y aura donc
n espaces propres de dimension 1.
Par conséquent : dim Eλ1 + · · · + dim Eλk ≤ α1 + · · · + αk < n, ce qui est faux. χf (X) est
donc scindé.
6.3. Diagonalisation 141
D’autre part, s’il existait un λj tel que dim Eλj < αj on aurait :
Voilà un récapitulatif :
Résumé.
Après avoir trouvé des vecteurs propres pour les diverses valeurs propres, nous devons vérifier
si l’on peut trouver une base complète, formée de ces vecteurs propres. Il s’ensuit un travail de
vérification, pour savoir si certaines familles sont libres.
Soit A ∈ Mn (K), soit f : E −→ E l’application linéaire définie par f (x) = Ax, où E est un
K-espace vectoriel de dimension n. Pour tenter de diagonaliser A, on suit les étapes suivantes.
1. On calcule le polynôme caractéristique χA = det(A − λIn ), et on détermine ses racines
distinctes λ1 , · · · , λm dans K.
— Si χA n’est pas scindé sur K, alors A n’est pas diagonalisable, et on s’arrête.
— Si χA est scindé sur K, on passe à l’étape suivante. Rappelons que si n = m, c’est-à-dire
si on a n valeurs propres distinctes, alors on sait déjà que A est diagonalisable (voir
Corollaire 6.3.1).
2. Pour chaque λi , on calcule une base de Eλi = ker(f − λi idE ). On en déduit sa dimension
ni .
P
— Si i ni < n, la matrice A n’est pas diagonalisable, et on s’arrête.
P
— Si i ni = n, la matrice est diagonalisable, et on passe à l’étape suivante.
3. Soit ei1 , ei2 , · · · , eini une base de Eλi = ker(f − λi idE ). Alors la réunion de tous ces
vecteurs est une base B ′ de E. Soit P la matrice dont les colonnes sont, dans l’ordre, les
coefficients des vecteurs : e11 , · · · , e1n1 , · · · , em1 , · · · , emnm (c’est-à-dire P est la matrice
de passage à la base B ′ ), et la matrice D = P −1 AP est la matrice diagonale dont les
coefficients sont les valeurs propres de A, écrites dans le même ordre que les vecteurs
colonnes de P attention chaque λi apparaît ni fois sur sa diagonale.
2 0 4
Exemple 6.3.3. Soit la matrice A = 3 −4 12 .
1 −2 5
142 Chapitre 6. Diagonalisation, trigonalisation et applications
2−λ 0 4
On a : A − λI3 = 3 −4 − λ 12 , donc
1 −2 5−λ
2−λ 0 4
χA (λ) = det(A − λI3 ) = 3 −4 − λ 12
1 −2 5−λ
−4 − λ 12 3 −4 − λ
= (2 − λ) +4
−2 5−λ 1 −2
= −λ(λ − 1)(λ − 2).
Donc χA (λ) = −λ(λ − 1)(λ − 2), d’où A admet 3 valeurs propres distinctes à savoir les racines
de l’équation χA (λ) = 0 : λ1 = 0, λ2 = 1 et λ3 = 2, par suite A est diagonalisable.
Déterminons les sous-espaces propres.
x
• Eλ1 = E0 (le sous-espaces propre associé à λ1 = 0). Soit v1 = y ; v1 ∈ E0 si et seulement
z
si Av1 = 0.v1 = 0 (v1 vecteur propre associé à λ1 = 0) :
2 0 4 x 2x + 4z = 0
3 −4 12 y = 0 ⇐⇒ 3x − 4y + 12z = 0
1 −2 5 z x − 2y + 5z = 0
x = −4 y
⇐⇒ 3
2
z = y.
3
−4
Donc Eλ1 = E0 = {( −4 2
3 y, y, 3 y) | y ∈ R}, on prend y = 3, pour avoir v1 =
3 (on peut
2
prendre tout autre vecteur colinéaire à v1 .)
• E1
(le sous-espaces
propre associé
à λ1 =1). Il faut résoudre le système (A − I)v2 = 0, où
x 1 0 4
v2 = y , comme A − I = 3 −5 12, alors
z 1 −2 4
1 0 4 x x + 4z =0
3 −5 12 y = 0 ⇐⇒ 3x − 5y + 12z =0
1 −2 4 z x − 2y + 4z =0
−4
ce qui donne, par exemple v2 = 0
1
• E2 (le sous-espaces propre associé à λ2 = 2). On doit résoudre (A − 2I)v3 = 0, c’est-à-dire :
4z = 0
3x − 6y + 12z = 0
x − 2y + 3z = 0
6.3. Diagonalisation 143
2
d’où v3 = 1 , à un facteur de proportionnalité près. Donc A est semblable à la matrice
0
0 0 0 −4 −4 2
A′ = 0 1 0 et une matrice de passage est P = 3 0 1
0 0 2 2 1 0
1 −1 3
Exemple 6.3.4. Prenons A = 2 3 2 .
3 1 1
Le calcul du polynôme caractéristique donne :
Selon la façon de calculer le déterminant, ce polynôme peut vous apparaître factorisé, ce qui est
évidemment une bonne chose pour calculer les racines. On applique successivement les opérations
élémentaires C1 − C3 et L1 + L3 :
1−λ −1 3
χA (λ) = 2 3−λ 2
3 1 1−λ
−2 − λ −1 3
= 0 3−λ 2 ; C1 − C3
2+λ 1 1−λ
−2 − λ −1 3
= 0 3−λ 2 ; L1 + L3
0 0 4−λ
= −(λ + 2)(λ − 4)(λ − 3)
Donc χA = −(λ + 2)(λ − 4)(λ − 3). Les valeurs propres sont −2, 4 et 3. On a trois valeurs propres
distinctes, donc la matrice A est diagonalisable.
Nous allons déterminer les vecteurs v1 , v2 et v3 , i.e., les vecteurs propres associés aux valeurs
propres −2, 4 et 3 respectivement, ces vecteurs vont former une base de R3 .
Soit P la matrice dont les colonnes sont le coefficients de v1 , v2 et v3 , alors
−2 0 0
D = P −1 AP = 0 4 0 .
0 0 3
−1 1
prenant z = 1 par exemple, on obtient v1 = 0 . De la même manière, on obtient v2 = 12
1 5
−1 −1 1 −1
et v3 = 5 . Donc la matrice de passage est P = 0 12 5 .
1 1 5 1
−1 − λ 1 1
det(A − λI3 ) = 1 −1 − λ 1
1 1 −1 − λ
1−λ 1 1
= 1 − λ −1 − λ 1
1−λ 1 −1 − λ
1−λ 1 1
= 0 −2 − λ 0
0 0 −2 − λ
= (2 + λ)2 (1 − λ).
Ainsi, −2 est une valeur propre double et 1 une valeur propre simple de A.
Cherchons si f est diagonalisable. Pour cela il faut déterminer les sous-espaces propres E−2 et
E1 .
• E−2 =?
Ainsi, E−2 = Vect{v1 , v2 }, où v1 = (1, 0, −1) et v2 = (0, 1, −1). Il est clair que dim E−2 = 2.
6.3. Diagonalisation 145
• E1 = ?
v = (x, y, z) ∈ E1 ⇐⇒ f (v) = v
x 0
⇐⇒ (A − I3 ) y = 0
z 0
−2 1 1 x 0
⇐⇒ 1 −2 1 y = 0
1 1 −2 z 0
−2x + y + z = 0
⇐⇒ x − 2y + z = 0
x + y − 2z = 0
−2x + y + z = 0
⇐⇒ −3y + 3z = 0
3y − 3z = 0
⇐⇒ x = y = z
⇐⇒ v = (z, z, z) = z(1, 1, 1).
Ainsi, E1 = Vect{v3 }, où v3 = (1, 1, 1).
Si on pose C = {v1 , v2 , v3 }, alors C est une base de R3 , formée de vecteurs propres de f ,
par rapport à laquelle la matrice de f est :
−2 0 0
A′ = 0 −2 0 .
0 0 1
1 0 1
On vérifie que A′ = P −1 AP , où P = 0 1 1 est la matrice de passage de la base
−1 −1 1
canonique de R3 à la base C.
−4 0 −2
Exemple 6.3.6. Soit la matrice A = 0 1 0 .
5 1 3
Le polynôme caractéristique de A est χA (X) = −(1 − X)2 (X + 2) qui est bien un polynôme
scindé, donc A admet deux valeurs propres 1 de multiplicité 2 et −2 de multiplicité 1. On vérifie
que dim E1 = dim E−2 = 1, donc A n’est pas diagonalisable puisque dim E1 = 1 ̸= 2 ; qui est
l’ordre de multiplicité de la valeur propre 1.
6 2 1
Exemple 6.3.7. Soit la matrice A = −6 −1 −2 .
0 0 3
Le polynôme caractéristique est alors
6−λ 2 1
χA = det(A − λId) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ
Donc,
χA = −(λ − 3)2 (λ − 2).
146 Chapitre 6. Diagonalisation, trigonalisation et applications
2 0 0 −1 0 1
D = P −1 AP = 0 3 0 et P = 2 1 −1
0 0 3 0 −2 −1
0 2 −3
Exemple 6.3.8. Soit la matrice A = −1 3 −3 .
−1 2 −2
Le polynôme caractéristique est alors (on ajoute la première colonne et la deuxième à la troi-
sième) :
−λ 2 −3 −λ 2 −λ − 1 −λ 2 1
χA = det(A − λId) = −1 3−λ −3 = −1 3−λ −λ − 1 = −(λ + 1) −1 3−λ 1
−1 2 −2 − λ −1 2 −λ − 1 −1 2 1
−λ + 1 0 1
χA = −(λ + 1) 0 1 − λ 1 = −(λ + 1)(1 − λ)2 .
0 0 1
−1 0 0 1 2 −3
D = P −1 AP = 0 1 0 et P = 1 1 0 .
0 0 1 1 0 1
6.4 Trigonalisation
Définition 6.4.1. Une matrice A ∈ Mn (K) est dite trigonalisable si et seulement si elle est
semblable à une matrice triangulaire.
5 −1 3 −1 1 1
Exemple 6.4.1. Soient les matrices A = , B = , et P = , nous
4 1 0 3 2 3
avons B = P −1 AP, donc la matrice A est trigonalisable.
Proposition 6.4.1. Toute matrice triangulaire supérieure est semblable à une matrice triangu-
laire inférieure.
On aura donc :
f (ε1 ) = a1n εn + a2n εn−1 + · · · + ann ε1
1,n−1 εn + · · · + an−1,n−1 ε2
f (ε ) = a
2
······························
f (ε ) = a ε
n 11 n
D’où A et A′ sont semblables car elles représentent le même endomorphisme en des bases diffé-
rentes.
148 Chapitre 6. Diagonalisation, trigonalisation et applications
Le problème que nous allons étudier est de savoir quand une matrice A ∈ Mn (K) est semblable
à une matrice triangulaire de Mn (K) (ou, en termes d’endomorphisme, quand un endomorphisme
peut être représenté dans une certaine base par une matrice triangulaire). D’après la Proposition
6.4.1, il suffira d’étudier le cas où A est semblable à une matrice triangulaire supérieure.
Proposition 6.4.2. Une matrice A ∈ Mn (K) est trigonalisable dans Mn (K) si et seulement si
son ploynôme caractéristique χA est scindé sur K.
donc
a11 − X ∗
χA (X) = χC (X) = det
.. = (a11 − X) (a22 − X) · · · (ann − X) .
.
0 ann − X
d’où χA (X) est scindé (remarquons que si C est triangulaire, alors les éléments de la diagonale
aii sont les valeurs propres).
Réciproquement supposons χA (X) scindé et montrons par récurrence que A est trigonalisable.
Soit f l’endomorphisme représenté par A dans une base B = {e1 , · · · , en }.
Pour n = 1 (c-à-d A = (a) est une matrice scalaire) il n’y a rien à montrer.
Supposons le résultat vrai à l’ordre n − 1. Puisque χA (X) est scindé, il admet donc au moins
une racine λ ∈ K et alors il existe au moins un vecteur propre u1 ∈ Eλ . Complétons la famille
{u1 } en une base : ε = {u1 , u2 , · · · , un }. On a :
···
λ b2 bn
0
A = Mε (f ) = , où B ∈ Mn−1 (K).
..
. B
0
Puisque χA (X) est scindé, χB (X) l’est aussi et donc, d’après l’hypothèse de récurrence, B est
trigonalisable, c’est-à-dire il existe une base {e2 , . . . , en } de F relativement à laquelle Me2 ,...,en (g)
est triangulaire. Dans la base {u1 , e2 , . . . , en } la matrice A est triangulaire.
• on calcule le polynôme caractéristique χA de A, s’il n’est pas scindé on s’arrête la matrice n’est
pas trigonalisable. Si χA est scindé on passe à l’étape suivante,
• on détermine les valeurs propres de A,
• on cherche les sous-espaces propres associés aux vecteurs propres ;
• dans le cas où la dimension de chaque sous-espace propre est égale à la multiplicité de la valeur
propre associée, on choisit une base de vecteurs propres. Dans les autres cas, on choisit une
base incomplète de vecteurs propres et on complète cette famille par des vecteurs non propres,
souvent des vecteurs de la base canonique.
−4 0 −2
Exemple 6.4.2. Soit la matrice A = 0 1 0 . Pour trigonaliser cette matrice, nous
5 1 3
devons calculer son polynôme caracteristique. Rappelons que dans ce cas χA (X) = det(A−X.I3 ) ;
alors
−4 − X 0 −2
χA (X) = det(A − X.I3 ) = 0 1−X 0 = −(X − 1)2 (X + 2).
5 1 3−X
Comme χA (X) = −(X −1)2 (X +2), alors le polynôme caractéristique est scindé dans R; donc
la matrice A est trigonalisable dans R. En regardant A comme la matrice d’un endomorphisme
f de R3 dans la base canonique, on sait qu’il existe une base B = {e, e2 , e3 } de vecteurs de R3
telle que
2
On peut prendre donc (en choisissant z = −5) e1 = 0 .
−5
Calcul de e2 .
On résout de même l’équation (f − id)e2 = ae1 , qui est équivalente à (A − I)e2 = ae1 , on trouve
que :
−5x − z = 2a
5x + y + 2z = −5a.
150 Chapitre 6. Diagonalisation, trigonalisation et applications
3 0 −6
Par suite la matrice A est semblable à la matrice D = 0 2 1 (les valeurs propres sont
0 0 2
1 4 0
sur la diagonale) et la matrice de passage étant P = 1 3 0 .
1 4 1
Attention, il n’y a pas bien sûr unicité ni de la matrice triangulaire supérieure à laquelle A est
semblable, ni de la matrice de passage.
2 −1 −1
Exemple 6.4.4. Trigonaliser la matrice B suivante : B = 2 1 −2 .
3 −1 −2
Dans cet exemple, nous allons donner une forme plus précise à la trigonalisation. Le polynôme
caractéristique de B est :
Les valeurs propres sont λ1 = 3, racine simple et λ2 = −1, racine double. L’espace propre
associé à λ1 est de dimension 1 et engendré par le vecteur v1 = (1, 2, 2). L’espace propre associé à
la valeur double λ2 est de dimension 1 et engendré par le vecteur v2 = (1, 2, 1). La matrice n’est
donc pas diagonalisable. Pour trigonaliser la matrice, il suffit de compléter la famille libre {v1 , v2 }
en une base de C3 . Soit v3 = (1, 0, 0) (ce choix est loin d’être unique). La famille {v1 , v2 , v3 } est
152 Chapitre 6. Diagonalisation, trigonalisation et applications
On trouve
a = 4, b = −2.
qui admet comme solution (x, x + 3, 2x + 2). On prendra v2 = (0, 3, 2). Complètons la famille
{v1 , v2 } en une base {v1 , v2 , v3 }. Si P est la matrice de changement de bases associée, alors la
matrice semblable T = P −1 M P est de la forme
1 1 b
T = 0 1 c
0 0 d
Mais d est valeur propre de T donc de M ce qui implique d = 1. Il reste donc à calculer les
constantes b et c. Choisissons v3 = (1, 0, 0). Alors
1 −2 1 0 1
M. 0 = −15 =b 1 +c 3 + 0
0 −14 2 2 0
6.5 Applications
Soit A ∈ Mn (K), supposons que la matrice A est diagonalisable, il existe alors une matrice
diagonale D et une matrice inversible P telles que : D = P −1 AP , c’est-à-dire A = P DP −1 .
Donc :
Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 .
| {z }
k f ois
k
λ1 0 λ1 0
D’autre part, si D =
.. k
on a D =
.. , et donc Ak se calcule facile-
. .
0 λn 0 λkn
ment par la formule :
k
λ1 0
k
A =P
.. −1
P .
.
0 λkn
Exemple 6.5.1.
154 Chapitre 6. Diagonalisation, trigonalisation et applications
1 −1 2 0
Soit A = , donc χA (λ) = λ2 − 5λ + 6 = (λ − 2)(λ − 3). Alors, D = . Pour
2 4 0 3
les valeurs propres 2 et 3 on trouve :
1
— E2 est définie par −x − y = 0 donc v1 = .
−1
1
— E3 est définie par −2x − y = 0 donc v2 = .
−2
1 1 2 1
Ainsi, P = et P −1 = . En effectuant les calculs, on obtient :
−1 −2 −1 −1
2k+1 − 3k 2k − 3k
k
A = .
−2k+1 + 2.3k −2k + 2.3k
Exemple 6.5.2. Prenons un exemple. Déterminer deux suites (Un )n∈N et (Vn )n∈N telles que :
( (
Un+1 = Un − Vn U0 = 2
(1) et telles que .
Vn+1 = 2Un + 4Vn V0 = 1
Un
On pose Xn = . Le système (1) s’écrit :
Vn
1 −1
Xn+1 = AXn avec A = ,
2 4
c’est à dire : (
Un = 5.2n − 3n+1
.
Vn = −5.2n + 2.3n+1
Supposons que A est diagonalisable, il existe alors, une matrice diagonale D et une matrice
inversible P telles que : D = P −1 AP. Si A est la matrice d’un endomorphisme f dans la base
canonique B, D sa matrice dans la base des vecteurs propores B ′ , X est la matrice d’un vecteur
x dans B et X ′ sa matrice dans B ′ , alors on a : X ′ = P −1 X.
En dérivant cette relation, on obtient :
dX ′ dX
= P −1 = P −1 AX = P −1 AP X ′ = DX ′ .
dt dt
Exemple 6.5.3.
On a :
1 −1 2 0 1 1
A= ,D= et P = .
2 4 0 3 −1 −2
dX ′
Le système dt = DX ′ s’écrit :
dx′
(
dt = 2x′
dy ′
,
dt = 3y ′
ce qui donne immédiatement : (
x′ = c1 e2t
,
y ′ = c2 e3t
c’est à dire : (
x = c1 e2t + c2 e3t
.
y = −c1 e2t − 2c2 e3t
156 Chapitre 6. Diagonalisation, trigonalisation et applications
6.6 Exercices
1 1
Exercice 6.1. Soit A la matrice suivante A = .
2 1
1. Calculer le polynôme caractéristique et déterminer les valeurs propres de A. A est-elle
diagonalisable ?
2. On note λ1 > λ2 les valeurs propres de A, E1 et E2 les sous-espaces propres associés.
Déterminer une base (ε⃗1 , ε⃗2 ) de R2 telle que ε⃗1 ∈ E1 , ε⃗2 ∈ E2 , les deux vecteurs ayant des
coordonnées de la forme (1, y).
3. Déduire une diagonalisation de A.
Exercice 6.2. Donner les valeurs propres, vecteurs propres et matrice de diagonalisation éven-
tuelle des matrices suivantes dans R2 :
4 4 2 5 5 3
, , .
1 4 4 3 −8 6
3 0 −1
Exercice 6.3. Soit A la matrice suivante A = 2 4 2 .
−1 0 3
1. Déterminer et factoriser le polynôme caractéristique de A.
2. Démontrer que A est diagonalisable et déterminer une matrice D diagonale et une matrice
P inversible telles A = P DP −1 .
3. Donner le polynôme minimal de A.
4. Calculer An pour n ∈ N.
Exercice 6.4. Soit l’application linéaire u : R3 −→ R3 définie par sa matrice A dans la base
canonique B = {e1 , e2 , e3 } de R3 :
1 2 0
A = 1 3 −1.
1 −1 3
Rn [X] → Rn [X]
f:
P 7→ (X 2 − 1)P ′ − 2(nX + a)P
Vérifier que f est bien définie. Déterminer ses valeurs propres, et les espaces propres associés.
1 0 0
Exercice 6.7. Soit la matrice A = 0 0 −1 .
0 1 2
1 0 0
A est-elle diagonalisable ? Montrer que A est semblable à la matrice triangulaire B = 0 1 1 .
0 0 1
0 1 0 0
2 0 −1 0
Exercice 6.8. Soit M la matrice de R4 suivante M = 0 7 0 6 .
0 0 3 0
Exercice 6.10. Soit f l’endomorphisme de R4 dont la matrice dans la base canonique B est :
0 1 0 0
0 0 0 0
A= 0 0 0
.
1
−1 2 −1 2
158