0% ont trouvé ce document utile (0 vote)
64 vues59 pages

M22 Cours

Ce document est un cours d'algèbre linéaire couvrant des sujets tels que les matrices, les systèmes d'équations linéaires, les applications linéaires, et les déterminants. Il est structuré en plusieurs sections détaillant les concepts fondamentaux et leurs applications. Les auteurs sont K. Boulifa et B. Gmira, et le cours est destiné aux étudiants de MIPC-S 2 à la FST de Tanger pour l'année académique 2021-2022.

Transféré par

elguermatromaissae
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
64 vues59 pages

M22 Cours

Ce document est un cours d'algèbre linéaire couvrant des sujets tels que les matrices, les systèmes d'équations linéaires, les applications linéaires, et les déterminants. Il est structuré en plusieurs sections détaillant les concepts fondamentaux et leurs applications. Les auteurs sont K. Boulifa et B. Gmira, et le cours est destiné aux étudiants de MIPC-S 2 à la FST de Tanger pour l'année académique 2021-2022.

Transféré par

elguermatromaissae
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours d’algèbre linéaire

MIPC-S 2 : FST-Tanger

K.Boulifa & B.Gmira

1. Matrices
2. Système d’équations linéaires
3. Applications linéaires
4. Déterminants
5. Réduction des Endomorphismes

2021-2022
Table des matières

1 Matrices : définition et vocabulaire 4


1.1 Matrices à n lignes et p colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Egalité de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Addition des matrices et multiplication par un scalaire . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Espace vectoriel des matrices à n lignes et p colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Quelques types classiques de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Matrices symétriques et matrices antisymétriques . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4 Puissances successives d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.5 Matrices nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Inverse d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.1 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Etude d’un système d’équations linéaires par la méthode du pivot ou méthode d’élimination de Gauss 11
2.1 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Matrice échelonnée en lignes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Cas des systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5 Utilisation pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot . . . . . . . . . . . . . . . . . . . . 17

3 Applications linéaires 19
3.1 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 Image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.2 Noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Matrices associées à une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Matrice d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.7.1 Propriétés des matrices de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7.2 Application au calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7.3 La matrice associée à une application linéaire bijective est-elle inversible ? . . . . . . . . . . 32

4 Déterminants 33
4.1 Groupe des permutations d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Inversions d’une permutation. Calcul de la signature . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2.1 Forme bilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2
TABLE DES MATIÈRES TABLE DES MATIÈRES

A) Propriété d’antisymétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
B) Intérêt d’une forme bilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2.2 Cas d’un espace vectoriel de dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.1 Forme trilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.2 Cas d’un espace vectoriel de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.1 Forme multilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.2 Cas d’un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.6 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.1 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.2 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.3 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

5 Réduction des endomorphismes 46


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Somme directe (rappels ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Eléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.2 Caractérisation des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 Recherche des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.5 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.5.1 Recherche des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.5.2 Dimension d’un sous-espace propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6.1 Diagonalisation d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6.2 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.6.3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.6.4 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.7 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

——————— 3 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
TABLE DES MATIÈRES TABLE DES MATIÈRES

AVANT-PROPOS

Le présent polycopié s’adresse aux étudiants de la filière MIPC (Mathématiques, Informatique, Physique et Chimie)
deuxième semestre. Des exemples sont introduits et des exercices sont accompagnés de leurs solutions pour que l’étudiant
s’y entraine. Ce polycopié est divisé en cinq chapitres :

Chapitre 1 : Rappelle les techniques et les méthodes de calcul matriciel


Chapitre 2 : Est consacré à l’étude d’un système d’équations linéaires par la méthode du pivot ou méthode
d’élimination de Gauss.
Chapitre 3 : Applications linéaires
Chapitre 4 : Déterminants
Chapitre 5 : Réduction des endomorphismes

——————— 4 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1
MATRICES : DÉFINITION ET
VOCABULAIRE

1.1 Matrices à n lignes et p colonnes


Définition 1.1. Soit K un corps arbitraire (R ou C). Soit n et p deux entiers strictement positifs.

On appelle matrice, de type (n,p) à coefficients dans IK, la donnée d’un tableau noté
a . . . a1 j . . . a1p 
 11 
 . . .. 
 . ..
 . . .. . 
A =  ai1 . . . ai j . . . aip 
 
 
 .. .. .. .. 
 . . . . 

an1 . . . an j . . . anp
— Les ai j sont des scalaires du corps K
— Les p, n-uplet horizontaux (a11 , a12 , . . ., a1n ), (a21 , a22 , . . ., a2n ), . . ., (a p1 , an2 , . . ., a pn ) sont les lignes de A.
a  a  a 
 11   12   1p 
 a   a 
21  ,  22 , . . .,  a2p  sont les colonnes de A.
 
— Les n, p uplet verticaux 
 . . .   . . .   . . . 
 
an1 an2 anp
— L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K).
— Si p = n on note Mn,n (K) = Mn (K) et on parle de matrices carrées d’ordre n.
— Le coefficient ai j se trouve à l’intersection de la i-ème ligne et de la j-ème colonne de la matrice A

1.1.1 Egalité de deux matrices


Définition 1.2. L’égalité des matrices A et B de Mn,p (K) équivaut à :

∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, ai j = bi j

Exemple 1.1. Soit la matrice 2x3 :


1 −3 4
!

0 5 −2

1 −3 4
! ! !
Ses lignes sont (1, −3, 4), (0, 5, −2) et ses colonnes sont , ,
0 5 −2

5
1.1. MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES

Exemple 1.2. L’égalité


x + y 2z + w 3 5
! !
=
x−y z−w 1 4
x+y =3




x − y =1



est équivalente au système d’équations suivant : 





 w + 2z = 5

−w + z=4

1.1.2 Addition des matrices et multiplication par un scalaire


Soient A et B deux matrices de même type (n,p), c’est-à-dire ayant le même nombre de lignes et de colonnes,
c’est-à-dire, deux (n, p) matrices :
a . . . a1 j . . . a1p  b . . . b1 j . . . b1p 
 11   11 
 . . ..   . . .. 
 . .. ..
 . . .. . 
 .
 . . .. . 
A =  ai1 . . . ai j . . . aip  et B =  bi1 . . . bi j . . . bip .
   
   
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
   
an1 . . . an j . . . anp bn1 . . . bn j . . . bnp

— La somme de A et B, écrite A + B, est la matrice obtenue en ajoutant les éléments correspondants des deux
matrices :
a + b . . . a1 j + b1 j . . . a1p + b1p 
 11 11

 .
.. .. .. .. 

 . . . 
A + B =  ai1 + bi1 . . . ai j + bi j . . . aip + bip 
 
 
 .. .. .. .. 
 . . . . 
an1 + bn1 . . . an j + bn j . . . anp + bnp
— La somme de deux matrices de type différents n’est pas définie.
— Le produit d’une matrice A par un scalaire k, noté kA
 ka . . . ka1 j . . . ka1p 
 11 
 . . .. 
 . ..
 . . .. . 
kA =  kai1 . . . kai j . . . kaip 
 
 
 .. .. .. .. 
 . . . . 

kan1 . . . kan j . . . kanp
Propriétés 1.1. Soient A, B, C ∈ Mn,p (K) et k1 , k2 ∈ K.
Les principales propriétés des matrices se déduisant de l’addition et de la multiplication par un scalaire sont :
1. (A + B) + C = A + (B + C)
2. A + 0 = A
3. A + (−A) = 0
4. A + B = B + A
5. k1 (A + B) = k1 A + k1 B
6. (k1 + k2 )A = k1 A + k2 A

1 -2 3 3 0 2
! !
Soient A = et B = Alors :
4 5 -6 -7 1 8 !
1 + 3 −2 + 0 3+2 4 −2 5
!
Addition : A+B = =
4−7 5+1 −6 + 8 −3 6 2

——————— 6 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.1. MATRICES À N LIGNES ET P COLONNES

3.1 3.(−2) 3.3


!
Multiplication par un scalaire : 3A =
3.4 3.5 3.(−6)
La matrice nulle : La matrice de type (n, p) dont les éléments sont tous nuls est appelée la matrice nulle, et sera notée
O: 0 ... 0 ... 0
 
 . . . .
. . . .

 .
 . . . 
 0 . . . 0 . . . 0 
 
 .. .. . . .. 
 . . . . 
0 ... 0 ... 0
 

1.1.3 Produit matriciel


Définition 1.3. (Matrice identité :) On appelle matrice identité d’ordre n, la matrice carrée dont les éléments de la
diagonale sont égaux à 1 et tous les autres sont égaux à 0. on la note In .

 1 0 0 
 
Ainsi, pour n = 3, I3 =  0 1 0  est la matrice identité d’ordre 3.
 
0 0 1
 

Exemples 1.3. 1. Compte tenu de ce!qui précède, on définit le produit de deux matrices A1 et A2 de M2 (K) de la
a1 b1 a2 b2
!
manière suivante : si A1 = et A2 = , on pose :
c1 d1 c2 d2

a1 a2 + b1 c2 a1 b2 + b1 d2
!
A1 A2 =
c1 a2 + d1 c2 c1 b2 + d1 d2

1 0
!
2. La matrice identité I2 = est l’élément neutre de M2 (K) pour la multiplication :
0 1

∀A ∈ M2 (K), AI = IA = A

3. Le produit de deux matrices n’est pas commutatif et que le produit de deux matrices non nulles peut être égal à la
1 1 1 1
! !
matrice nulle. Soit par exemple : A = et B = .
0 0 −1 −1
AB = 02,2 et BA = B, alors que A , I2 et que B2 = B × B = 02,2

Définition 1.4. -
On définit d’abord le produit d’une matrice ligne L de type (1, n) et d’une matrice colonne Cde type (n,1) :
b 
 1 
L = (a1 , ..., an ) , C =  ... 
 
 
bn
on pose :
n
X
LC = ai bi (1.1)
i=1

Il s’agit d’un scalaire

Définition 1.5. On définit ensuite le produit de deux matrices A et B (AB) lorsque le nombre de colonnes de A est égal
au nombre de lignes de B, de la manière suivante : si A ∈ Mn,m (K) et B ∈ Mm,p (K). AB est la matrice de Mn,p (K) dont
le terme indexé par (i, j) est égal au produit de la i-ème ligne de A et de la j-ème colonne de B.
Autrement dit, C = AB si et seulement si ∀(i, j) ∈{1,2,.., n}×{1,2,..., p}
m
X
ci j = Ligi (A)Col j (B) = ai,k bk, j (1.2)
k=1

——————— 7 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
1.2. ESPACE VECTORIEL DES MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES

B : p lignes q colonnes
 
 

 b11 ... b1 j ... b1q 

 
 
 .. .. .. .. .. 

 . . . . .


 
bk1 bk j bkq
 
 ... ... 

j
b1
 

×
 

1
 
.. .. .. ..
ai
..

+
 

..
. . . . .

.+
 
j
 
bk  
×  b p1 ... bp j ... b pq 
a ik  

+
..
.+
j
bp
×
a ip
   
   

 a11 ... a1k ... a1p 


 c11 ... c1 j ... c1q 

   
   
 .. .. .. .. ..   .. .. .. .. .. 

 . . . . . 


 . . . . . 

   
ai1 ... aik ... aip ci1 ... ci j ... ciq
   
   
   
   
.. .. .. .. .. .. .. ..
   
.. ..
. .
   
 . . . .   . . . . 
   
   

 an1 ... ank ... anp 


 cn1 ... cnk ... cnq 


A : n lignes p colonnes C = A × B : n lignes q colonnes

Propriétés 1.2.
A(BC) = (AB)C, ∀A ∈ M p,n (K), ∀B ∈ Mn,q (K), ∀C ∈ Mq,m (K)

A(B + C) = AB + AC, ∀A ∈ M p,n (K), ∀B, C ∈ Mn,q (K)


(A + D)B = AB + DB. ∀A, D ∈ M p,n (K), ∀B, C ∈ Mn,q (K)

1.2 Espace vectoriel des matrices à n lignes et p colonnes


On vérifie sans problème que Mn,p (K) est un K espace vectoriel.
— Le vecteur nul de cet espace n’est autre que la matrice nulle On,p (ou O )
— Chaque matrice A de Mn,p (K) admet pour matrice opposée la matrice −A que l’on construit en posant :

∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, −(ai j ) = −ai j


Les notions de famille libre, famille génératrice et de base sont valables aussi pour les familles de matrices. En
particulier, Mn,p (K) possède une base canonique : elle est constituée des matrices El,k ,1 ≤ k ≤ n et 1 ≤ l ≤ p où El,k est
la matrice dont tous les coefficients sont nuls sauf celui d’indice (l, k) qui vaut 1. Par exemple, dans M2,3 (K).
0 1 0 0 0 0
! !
E1,2 = ; E2,1 =
0 0 0 1 0 0
Toute matrice A ∈ Mn,p (K) se décompose alors d’une unique façon sous la forme :
p
n X
X
A= al,k El,k
l=1 k=1

——————— 8 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.3. TRANSPOSÉE D’UNE MATRICE

Exercice 1.1. On considère l’ensemble E des matrices carrées d’ordre 3 défini par :
 a b b 
   

 

E= M(a, b) =  b a b , a ∈ R, b ∈ R

 
   

b b a

   

1. Montrer que Eest un sous-espace vectoriel de l’espace vectoriel des matrices carrées d’ordre 3.
 1 0 0   0 1 1 
   
2. Justifier que les matrices I =  0 1 0  et J =  1 0 1  forment une famille génératrice de E.
0 0 1 1 1 0
   

a 2a + b a 3a + b
( !) ( !)
Exercice 1.2. Soient F = A ∈ M2 (R)| et G = A ∈ M2 (R)|
−b −a −b −2a + b
Montrer que M2 (R) = F ⊕ G.
1 2 0 1
! !
Solution de l’exercice 1.1. Base de F : { A1 , A2 } avec A1 = , A2 =
0 -1 -1 0
1 3 0 1
! !
Base de G : { B1 , B2 } avec B1 = , B2 =
0 -2 -1 1
Montrer que {A1 , A2 , B1 , B2 } est une famille libre.

Théorème 1.3. Mn,p (K) est un K espace vectoriel de dimension np

1.3 Transposée d’une matrice


Définition 1.6. A étant une matrice de Mn,p (K). On appelle transposée de A et l’on note t A la matrice à p lignes et n
colonnes de terme général b ji défini par : pour tout (i, j) de {1,2,.., n}×{1,2,..., p},

ai j = b ji

Exemple 1.4. Si √
 1 2 i + 1 
 
A =  0 3 2 
 

0 0 −1
 

alors
 √1 0 0 
 
t
A =  2 3 0 
 
i + 1 2 −1
 

— Si A et B sont deux matrices de Mn,p (K) et λ, µ deux scalaires quelconques :


t
(λA + µB) = λ t A + µ t B
t
(AB) = t B t A
— Quelle que soit la matrice A : t (t A) = A

1.4 Quelques types classiques de matrices


1.4.1 Matrices diagonales
Définition 1.7. Une matrice carrée D = (di j ) de Mn (K) est diagonale si di j = 0 pour tout i , j. En posant pour tout i
dii = λi , on écrira encore que D = Diag(λ1 , λ2 , .. λn ).
λ
 1 0 0 0 

 0 λ2 0 0 
Ainsi, lorsque n = 4, D =   = Diag(λ , λ , λ , λ )
1 2 3 4
 0 0 λ3 0 
0 0 0

λ4

——————— 9 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
1.4. QUELQUES TYPES CLASSIQUES DE MATRICES CHAPITRE 1. MATRICES

1.4.2 Matrices triangulaires


Définition 1.8. A ∈ Mn (K) est une matrice triangulaire supérieure (resp. inférieure) si ai j = 0 pour i > j (resp i < j)
a . . . a1 j . . . a1n  a ... 0 ... 0 
 11   11
 . .. . ..   . .. . .. 

 .. . .. .   .. . .. . 
 
A =  0 . . . aii . . . ain , resp A =  ai1 . . . aii . . . 0 
 

 .. .. .. .   .. .. .. . 
  
 . . . ..   . . . .. 
an1 . . . an j . . . ann
 
0 ... 0 . . . ann

 √
 1 2 i+1 

Exemple 1.5. A =  0 3 2  ∈ M3 (C) est une matrice triangulaire supérieure.
 

 0 0 -1
 
 √1 0 0 

B =  2 3 0  = t A est une matrice triangulaire inférieure.
 
i+1 2 -1
 

1.4.3 Matrices symétriques et matrices antisymétriques


Définition 1.9. Une matrice carrée A de ∈ Mn (K) est symétrique si t A = A et antisymétrique si t A = −A.


 √1 2 i 
 
Exemple 1.6. A =  2 0 4  est une matrice symétrique.
 
 
√ i 4 -1
0 2 -4 
 
 √
B =  - 2 0 -3  est une matrice antisymétrique.
 
 
4 3 -1

1.4.4 Puissances successives d’une matrice carrée


Soit A une matrice de Mn (K).
1. On définit Ak pour tout entier k ≥ 0 par itérations successives en posant :

A0 = In et ∀k ∈ N, Ak+1 = Ak A

2. Pour tous entiers naturels n, r, s et k :

Ar+s = Ar A s et (Ar ) s = Ars

3. Si AB = BA, alors :
(AB)k = Ak Bk

n
X
(A + B)n = Cnk Ak Bn−k ((Formule du binôme))
k=0

n
X
An − Bn = (A − B) Bk−1 An−k
k=1

n
4. In − An+1 = (In − A) Ak
P
k=0

——————— 10 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.5. INVERSE D’UNE MATRICE CARRÉE

1.4.5 Matrices nilpotentes


Définition 1.10. La matrice A de Mn (K) est nilpotente s’il existe un entier naturel k tel que Ak = 0. Dans ces conditions
A s = 0 pour tout entier s ≥ k. Le premier entier p tel que A p = 0 s’appelle indice de nilpotence de A.
0 1 1 1  0 0 2 4  0 0 0 6  0 0 0 0 
   
 0 0 2 1 
  0 0 0 6  3  0 0

0 0  4  0 0

0 0 

2
Exemple 1.7. N =  , N =  , N =  , N =  . Ainsi, la matrice N est
 0 0 0 3   0 0 0 0   0 0 0 0   0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
   
nilpotente d’indice p = 4
Exercice 1.3. Soit A et B deux matrices de Mn (K).

1. On suppose que AB est une matrice nilpotente. Prouver que BA l’est également.
2. On suppose que A et B sont nilpotentes et que AB = BA. Démontrer que A + B est également nilpotente.

1.5 Inverse d’une matrice carrée


Définition 1.11. Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe une matrice A′ ∈ Mn (K) telle que :

AA′ = A′ A = In

A′ est l’inverse de A et notée par A−1 .

1 2 3 −2
! !
Exemple 1.8. A = est inversible et son inverse est : A−1 =
1 3 −1 1

Proposition 1.4. Une matrice diagonale Diag(λ1 , ..., λn ) est inversible si et seulement si le produit de ses termes
diagonaux est différent de 0. L’inverse en est alors la matrice diagonale Diag(λ−1 −1
1 , ..., λn )

1.5.1 Trace d’une matrice


Soit A est une matrice carrée de Mn (K).
La somme de ses éléments diagonaux (ai,i )1≤i≤n est appelée trace de A :
n
X
tr A = ai,i
i=1

— si A et B sont deux matrices de Mn (K) et λ et µ, deux scalaires quelconques :


tr(λA + µB) = λ tr A + µ tr B

——————— 11 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2
ETUDE D’UN SYSTÈME D’ÉQUATIONS
LINÉAIRES PAR LA MÉTHODE DU PIVOT
OU MÉTHODE D’ÉLIMINATION DE GAUSS

2.1 Système d’équations linéaires


On appelle système d’équations linéaires un système du type :

a11 x1 + a12 x2 ..... + a1p x p = b1






 a21 x1 + a22 x2 ..... + a2p x p = b2



(2.1)

................................. = ....






an1 x1 + an2 x2 ..... + anp x p = bn

Les ai j et les bi sont des éléments de K, donnés. Les xi sont dites "inconnues" et résoudre le système signifie déterminer
les xi ∈ K, s’ils existent, ils vérifient toutes les équations.
Le système linéaire (2.1) s’écrit sous la forme d’une équation matricielle (équivalente au système) AX = b

x  b 
a11 ··· a1 j ··· a1p   1   1 
.  . 
 .. .. .. 
  
..  ..   .. 

 
 

 . . . .     
A =  ai1 ··· ai j ··· aip  X =  xi  et b =  bi .
    
 .. .. .. ..   .   .. 
     
 . . . .   ..   . 
 
an1 ··· an j ··· anp xp bn

On définit la matrice augmentée du système (2.1) par :

a11 ... a1 j ... a1p b1 


 .. .. .. .. 

..
 . . . . . 
(A | b) =  ai1 ... ai j ... aip bi 
 
 .. .. .. .. .. 
 
 . . . . . 
an1 ... an j ... anp bn

Le système (2.1) est homogène si b1 = b2 = .......bn = 0.

12
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.2. MATRICE ÉCHELONNÉE EN LIGNES

Exemple 2.1. Soit le système :


2x1 + x2 − 2x3 + 3x4 = 1 L1




3 x1 + 2x2 − x3 + 2x4 = 4 L2 (2.2)





 3 x + 3x + 3x − 3x = 5

L3
1 2 3 4

La matrice augmentée du système (2.2) :

2 1 −2 3 1 L1

(A|b) =  3 2 2 4 L2

−1
3 3 3 5 L3
 
−3

La première équation du système (2.1) commence par un coefficient non nul, ce qu’on peut toujours faire en changeant
éventuellement l’ordre des équations (première opération élémentaire). Ce coefficient non nul est dit pivot. (Dans
système (2.2), le pivot est 2).
La méthode du pivot est fondée sur la remarque suivante :

Propriété 2.1. L’ensemble des solutions d’un système linéaire ne change pas si l’on effectue sur les équations les «
opérations élémentaires» suivantes :
1. Changer l’ordre des équations ;
2. Multiplier une équation (premier et second membre ) par un scalaire non nul ;
3. Ajouter à une équation une combinaison linéaire des autres équations.

Exemple 2.2. Pour le système (2.2), la matrice augmentée est :

2 1 −2 3 1 L1

 3 2 −1 2 4 L2


3 3 3 5 L3

−3

On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients encadrés. L’ensemble des
solutions n’a pas changé.

2 1 −2 3 1 L1 ← L1

0 1 4 −5 5 L2 ← 2L2 − 3L1

0 3 12 −15 7 L3 ← 2L3 − 3L1

On répète maintenant l’opération sur les deux dernières équations :

2 1 −2 3 1  L1 ← L1

0 1 4 −5 5 

L2 ← L2
0 0 0 0 −8 L3 ← L3 − 3L2

On voit immédiatement que le système n’admet pas de solution.

2.2 Matrice échelonnée en lignes


On dit qu’une matrice est échelonnée si les lignes commencent par un nombre de zéros strictement croissant à
mesure que l’indice augmente (c’est-à-dire, par exemple, la ligne L3 commence par un nombre de zéros strictement plus
grand que la ligne L2 et celle-ci par un nombre de zéros strictement plus grand que la ligne L1 ).

——————— 13 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES


 12 4 
 
Exemple 2.3. La matrice  0 2 4  est une matrice échelonnée.
 

0
0  −1
 

 1 2
4 

Alors que la matrice  0 0 4  n’est pas échelonnée.
 

0 0
 
−1
 1 −3 6 2 
 
Exemple 2.4. La matrice A =  2 −5 10 3  se réduit en sa forme échelonnée en lignes par les pivotages
 
3 −8 17 4
 

1 −3 6 2  L1 ← L1 1 −3 6 2  L1 ← L1
 
0 1 −2 −1 L2 ← L2 − 2L1 ⇔ 0 1 −2 −1 L2 ← L2
 
0 1 −1 −2 L3 ← L3 − 3L1 0 0 1 −1 L3 ← L3 − L2
 

 1 3 2 
 
Pour la matrice B =  1 4 1 , on a :
 
0 1 −1
 

1 3 2  L1 ← L1 1 3 2  L1 ← L1
 
0 1 −1 L2 ← L2 − L1 ⇔ 0 1 −1 L2 ← L2
 
0 1 −1 L3 ← L3 0 0 0 L3 ← L3 − L2

Définition 2.1. Un système d’équation matricielle AX = b avec A ∈ Mn,p (K), X ∈ M p,1 (K) et b ∈ Mn,1 (K) est dit
rectangulaire. En particulier, il est dit :
— échelonné si la matrice A est échelonnée,
— carré si la matrice A est carrée,
— triangulaire si la matrice A est triangulaire,
— diagonal si la matrice A est diagonale.

2.3 Résolution d’un système linéaire


— Il faut tout d’abord préparer le système en échangeant éventuellement l’ordre des équations et des variables de
manière à ce que le pivot soit non nul ;

— On échelonne ensuite le système. Deux cas peuvent se donner :


(a) Il existe une équation du type :

0x1 + 0x2 + .................0x p = b; b,0 (2.3)

Dans ce cas, il n’y a pas de solution : on dit que le système est incompatible.
(b) Il n’y a pas d’équation du type (2.3) : S’il existe une équation du type :

0x1 + 0x2 + .................0x p = 0

elle peut être écartée, on aboutit à un système du type :


 a11 a12 ··· ··· a1s ··· a1p b1 
.. .. ..
 
0 . . .
 

0 air aip bi 
 


.. .. 
0 . .
 
 
0 ··· ··· ··· ans ··· anp bn

——————— 14 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE

où les coefficients encadrés (ceux qui sont au début de chaque équation) sont tous non nuls.
Les inconnues qui apparaissent au début de chaque équation (celles correspondantes aux coefficients encadrés) sont
dites inconnues principales, les autres (s’il y en a) variables libres.

Deux cas sont possibles :


A-Il n’y a pas de variable libre : Alors le système admet une et une seule solution que l’on obtient en résolvant
d’abord la dernière équation et en remontant jusqu’à la première.

Exemple 2.5. Résoudre le système :


x + 2y − 3z = 4




 x + 3y + z = 11




2x + 5y − 4z = 13






4x + 11y = 37

1 2 −3 4  L1
1 3 1 11 L2
 
La matrice augmentée :
2 5 −4 13 L3
 
4 11 0 37 L4

1 2 −3 4  L1 1 2 −3 4  L1
0 1 4 7  L2 ← L2 − L1 ⇒ 0 1 4 7  L2
   
0 1 2 5  L3 ← L3 − 2L1 0 0 −2 −2 L3 ← L3 − L2
  

0 3 12 21 L4 ← L4 − 4L1 0 0 0 0 L4 ← L4 − 3L2

Il n’y a pas de variable libre, donc le système admet une solution unique x = 1, y = 3, z = 1.

B-Il y a des variables libres : On donne alors aux variables libres des valeurs arbitraires λ1 ,..., λm , on porte les λi au
second membre et l’on est ramené au cas précédent, il existe alors une et une seule solution pour chaque choix de λ1 ,...,
λm , c’est-à-dire, une infinité de solutions dépendante de m paramètres (m = nombre des variables libres).

t − 3x + 4y − 2z = 5




Exemple 2.6. Résoudre le système t − x + 9y − z = 7




t − 2x + 7y − 2z = 9

1 −3 4 −2 5 L1
La matrice augmentée :

1 −1 9 −1 7 L2

1 −2 7 −2 9 L3

1 −3 4 −2 5 L1 ← L1 1 −3 4 −2 5 L1 ← L1
 
0 2 5 1 2 L2 ← L2 − L1 ⇒ 0 2 5 1 2 L2 ← L2
 
0 1 3 0 4 L3 ← L3 − L1 0 0 1 −1 6 L3 ← 2L3 − L2

t, x et y sont les inconnues principales et z la variable libre. En donnant à z une valeur arbitraire λ :
Donc, z = λ, y = λ + 6, x = −3λ − 14, t = −11λ − 61 Ainsi, le système admet une infinité de solutions à 1 paramètre :

(−11λ − 61, −14 − 3λ, 6 + λ, λ) = λ(−11, −3, 1, 1) + (−61, −14, 6, 0)

——————— 15 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.4. CAS DES SYSTÈMES LINÉAIRES HOMOGÈNES CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES

2.4 Cas des systèmes linéaires homogènes


On appelle système linéaire homogène un système d’équations linéaires dont le second membre est nul :

a11 x1 + a12 x2 ..... + a1p x p = 0






 a21 x1 + a22 x2 ..... + a2p x p = 0



(2.4)

................................. = 0






an1 x1 + an2 x2 ..... + anp x p = 0

La matrice augmentée du système (2.4) :

a11 ... a1 j ... a1p 0


 .. .. .. .. 

..
 . . . . . 
(A|b) =  ai1 ... ai j ... aip 0
 
 .. .. .. .. .. 
 
 . . . . . 
an1 ... an j ... anp 0

Théorème 2.1. L’ensemble des solutions d’un système linéaire homogène à n inconnues est un sous-espace vectoriel
de Kn . Si le système sous forme échelonnée comporte k équations, l’espace des solutions est de dimension n − k. En
particulier un système homogène avec plus d’inconnues que d’équations (n > k) admet des solutions non nulles.

REMARQUE. La dimension de l’espace des solutions est égale au nombre de variables libres qui apparaissent dans la
forme échelonnée.

Exemple 2.7.
x1 + 2x2 − 3x3 + x4 − x5 = 0




x1 + 3x2 − 4x3 + x5 = 0





2x + 5x − 7x

+ x5 = 0
1 2 3

On ramène facilement le système à la forme échelonnée :

x1 + 2x2 − 3x3 + x4 − x5 = 0
(

x2 − x3 − x4 + 2x5 = 0

1 2 −3 1 −1 0 
(A|b) = 0
 
1 −1 −1 2 0 
0 0 0 0 0 0
 

Les variables libres sont x3 , x4 et x5 , l’ensemble des solutions est donc un sous-espace vectoriel de dimension 3 de R5 .
La solution générale est :

x1 = λ − 3µ, x2 = λ + µ − 2ν, x3 = λ, x4 = µ, x5 = ν

c’est-à-dire :

S = (λ − 3µ, λ + µ − 2ν, λ, µ, ν) = λ(1, 1, 1, 0, 0) + µ(−3, 1, 0, 1, 0) + ν(0, −2, 0, 0, 1)

Donc une base de l’espace des solutions est :

Vect{(1, 1, 1, 0, 0), (−3, 1, 0, 1, 0), (0, −2, 0, 0, 1)}

——————— 16 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.5. UTILISATION PRATIQUE

2.5 Utilisation pratique


La méthode du pivot fournit une technique qui permet de s’affranchir de l’étude du système et de travailler directement
sur les familles de vecteurs.
Théorème 2.2. (Opérations élémentaires sur une famille de vecteurs) Soit (υ1 , ......, υ p ) une famille de vecteurs. L’espace
qu’ils engendrent ne change pas si l’on effectue sur les vecteurs de la famille l’une des "opérations élémentaires"
suivantes :
a) changer l’ordre des vecteurs ;
b) multiplier un vecteur par un scalaire non nul ;
c) ajouter à un vecteur une combinaison linéaire des autres vecteurs.

Définition 2.2. Soit (υ1 , ......, υ p ) une famille de vecteurs de E. On appelle matrice engendrée par les vecteurs υi dans
la base {ei } (ou plus simplement : matrice des vecteurs υi ) la matrice dont les lignes sont les composantes des vecteurs
υ1 , ......υ p dans la base ei

Exemple 2.8. La matrice engendrée par les vecteurs υ1 = (1, 1, 1, 0, 0), υ2 = (−3, 1, 0, 1, 0), υ3 = (5, −2, 0, 0, 1) dans la
base canonique de R5
1 1 1 0 0 υ1

−3 1 0 1 0 υ2

5 −2 0 0 1

υ3

Corollaire 2.1. Les vecteurs lignes d’une matrice et les vecteurs lignes de sa réduite échelonnée engendrent le même
espace vectoriel.
Le résultat suivant donne la clé de la méthode :
Théorème 2.3. Soit (υ1 , ......, υ p ) une famille de vecteurs, A la matrice engendrée (dans une base quelconque) et A′
une réduite échelonnée de A. Alors les lignes non nulles de A′ donnent une base de Vect(υ1 , ......, υ p )

2.6 Applications
A- Extraire une base d’une famille génératrice et déterminer les relations liant les vecteurs.
Exercice 2.1. υ1 = (1, 1, 0, −1), υ2 = (−1, 1, 1, 0), υ2 = (0, 2, 1, −1) trois vecteurs.
1. Déterminer une base du sous-espace de R4 engendré par ces vecteurs.
2. Déduire le rang de la matrice engendrée par les vecteurs ligne υ1 , υ2 et υ3
3. Trouver une relation entre υ1 , υ2 et υ3

B- Compléter une famille libre en une base. Détermination d’un supplémentaire.


Exercice 2.2. Soient les vecteurs υ1 = (1, 2, −1, 0, 1), υ2 = (2, 1, 1, 1, 1), υ3 = (3, 2, 0, 1, 2)
1. Montrer que (υ1 , υ2 , υ3 ) forment une famille libre de R5 ;
2. Déterminer deux vecteurs w1 , w2 de R5 de manière à ce que {υ1 , υ2 , υ3 , w1 , w2 } soit une base de R5 .

2.6.1 Le rang d’une matrice


Soit A une matrice de type (m, n) quelconque sur un corps K. Rappelons que l’espace ligne de A est le sous-espace
de Kn engendré par les lignes de A, et l’espace colonne de A est le sous-espace de Km engendré par ses colonnes. Les
dimensions de l’espace ligne et de l’espace colonne de A sont appelées, respectivement, le rang ligne et le rang colonne
de la matrice A.
Théorème 2.4. Le rang ligne et le rang colonne d’une matrice A sont égaux.

Définition 2.3. Le rang de la matrice A, que l’on écrit rg(A), est la valeur commune du rang ligne et du rang colonne de
A.

——————— 17 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.6. APPLICATIONS CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES

Définition 2.4. Le rang d’une matrice A est :


(a) Le nombre de lignes non nulles dans sa forme échelonnée en lignes ;
(b) Le plus grand entier r tel qu’il existe une matrice carrée d’ordre r extraite de A, inversible.
REMARQUE.
- Le rang d’un système linéaire est le rang de sa matrice des coefficients A
- rg(A) = rg( t A)
Exemple 2.9. Soit
 1 2 −1 0 1 
 
A =  2 1 1 1 1 
 
3 2 0 1 2
 

La forme échelonnée de A est


 1 2 −1 0 1 
 
A′ =  0 −3 3 1 −1 
 
0 0 −3 −1 1
 

Le nombre de lignes non nulles dans A′ est 3, donc rg(A) = 3


Exemple 2.10. Calculons le rang de la matrice A
 1 1 1 2
 

A =  1 2 0 1
 

1 −1 3 4

La forme échelonné de A (en lignes)


 1 1 1 2
 

A′ =  0 1 −1 −1
 

0 0 0 0

d’où rg(A) = 2.
La forme échelonné de A (en colonnes)
 1 0 0 0
 


A =  1 1 0 0
 

1 −2 0 0

le nombre de colonnes non nuls est 2. Donc rg(A) = 2

2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot


Proposition 2.5. Soit A ∈ Mn (K). Supposons qu’en faisant une suite d’opérations élémentaires sur les lignes de la
matrice A, on parvienne à la transformer en la matrice identité In . Alors la matrice A est inversible et en faisant la même
suite d’opérations élémentaires sur la matrice In on obtient à la fin la matrice A−1
Exemple 2.11. Soit
 1 1 1 
 
A =  1 3 5 
 
−2 −2 1
 

On forme le tableau contenant A dans la partie gauche et I3 dans la partie droite :

1 1 1 1 0 0 L1

 1 3 5 0 1 0 L2

−2 −2 1 0 0 1 L3

Puis on fait des opérations élémentaires sur les lignes de manière à mettre la partie gauche sous forme échelonné réduite :

1 1 1 1 0 0 L1 ← L1 1 0 0 7/2 −1/2 1  L1 ← L1 − L2


 
0 2 4 −1 1 0 L2 ← L2 − L1 ⇒ 0 1 0 −9/2 1/2 −2 L2
 
0 0 1 2 0 1 L3 ← L3 + 2L1 0 0 1 2 0 1 L3

——————— 18 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.6. APPLICATIONS

Donc la matrice A est inversible et son inverse est :


 7/2 −1/2 1 
 
A−1 =  −9/2 1/2 −2 
 
2 0 1
 

Proposition 2.6. soit A ∈ Mn (K), A est inversible si et seulement si rgA = n.

Exemple 2.12. On prend la matrice de l’exemple 2.11

 1 1 1 
 
A =  1 3 5 
 
−2 −2 1
 

La forme échelonné de A
 1 1 1 
 

 0 2 4 
 
0 0 1
rgA = 3, donc A est inversible

REMARQUE. Soient A une matrice d’ordre n inversible et A−1 son inverse. La propriété d’inversibilité d’une matrice
carrée A = (ai j )1≤i, j≤n d’ordre n équivaut à l’existence de n2 scalaires a′i j , 1 ≤ i, j ≤ n (ce sont les coefficients de la
matrice inverse de A vérifiant :
 a . . . a . . . a   a′11 . . . a′1 j . . . a′1n  
 11 1j 1n  
    1 . . . 0 . . . 0 
 .
 . . . . .. ..   .. . . . ..   .. . . .. .. 
 . . .   . . .. .   . . . . 
  ′ ′ ′ 
a a a a . . . a . . . a = 
 
0 1 0

. . . . . . . . . . . .

 i1 ij in  
  i1
 ij in   
   .
  . . . 
 .. .. . . ..   .. .. . . ..   .. .. . . .. 
  
 . . . .   .   . . .     
0 . . . 0 . . . 1
 
an1 . . . an j . . . ann ′ ′ ′
an1 . . . an j . . . ann

d’après les règles de calcul sur les matrices


n
X
∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., n} aik a′k j = δi j (2.5)
k=1

 1 si i = j

δi j = 

 0 si i , j

Le calcul de A−1 peut donc être mené en résolvant successivement, pour j variant de 1 à n,
 ′ 
a
 11 . . . a1 j . . . a1n   a1 j   0 
    
 . .. . .
..   .   . .
 .. . ..
    
.   .   . 
   ′   
 ai1
 . . . ai j . . . ain   ai j  =  1 ← j-ième ligne 
.   .   .
 .     
.. ..
 .. . ..   ..   ..

 . 
0
  
an1 . . . an j . . . ann ′
an j

dont les inconnues sont les n scalaires a′1 j , a′2 j , ..............a′n j (ce sont les coefficients de la j-ième matrice-colonne extraite
de A−1 .

Exercice 2.3. Soit la matrice :


 0 1 0 
 
A =  1 −1 −2 
 
0 −1 −2
 

Montrer que A est inversible et calculer A−1

——————— 19 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3
APPLICATIONS LINÉAIRES

3.1 Application
Soient A et B deux ensembles quelconques. Supposons qu’à chaque a ∈ A on associe un élément unique de B ;
l’ensemble de ces correspondances est appelé une application de A dans B et on l’écrit
f : A −→ B

Soit a ∈ A, on écrit f (a) l’image de a par f .

(a) Si A′ est un sous-ensemble quelconque de A, alors f (A′ ) est l’ensemble des images des éléments de A′ :

f (A′ ) = { f (a); a ∈ A′ }

(b) Si B′ est un sous-ensemble de B, alors f −1 (B′ ) est l’ensemble des éléments de A dont les images appartiennent à
B′ :
f −1 (B′ ) = {a ∈ A; f (a) ∈ B′ }
Exemple 3.1. Soient A = {a, b, c, d} et B = {x, y, z, w}. Le diagramme suivant définit une application f de A dans B :

f (a) = y, f (b) = x, f (c) = z, f (d) = y

f ({a, b, c, d}) = { f (a), f (b), f (c), f (d)} = {x, y, z}


L’image de f est l’ensemble {x, y, z} : f (A) = {x, y, z}
1 −3 5
!
Exemple 3.2. Soit la matrice A = .
2 4 −1
A détermine l’application
f : R3 −→ R2
v 7−→ Av

20
CHAPITRE 3. APPLICATION LINÉAIRE 3.2. APPLICATIONS LINÉAIRES

 x 
 
Donc si v =  y , alors :
 
z
 
x − 3y + 5z
!
f (v) = Av =
2x + 4y − z
.
Définition 3.1. (Applications injectives) Rappelons qu’une application entre deux ensembles f : A −→ B est dite
injective si, pour tous x et x′ de A distincts, on a f (x) , f (x′ ). On sait que, pour les démonstrations, il est souvent plus
pratique de montrer que, pour tout x et x′ de A, si f (x) = f (x′ ), alors x = x′ .

Définition 3.2. (Applications surjective) Une application f : A −→ B est dite surjective si chaque b ∈ B est l’image
d’au moins un a ∈ A (∀b ∈ B, ∃a ∈ A, f (a) = b)
Une application qui est à la fois injective et surjective est dite bijective.
Exercice 3.1. Soient les applications f : A −→ B ; g : B −→ C et h : C −→ D définies par le diagramme

Déterminer si chacune de ces applications est :


1. injective,
2. surjective,
3. a un inverse.

3.2 Applications linéaires


Définition 3.3. Soient E et F deux espaces vectoriels sur le même corps K et f une application de E dans F. On dit que
f est linéaire, si :

f (v + w) = f (v) + f (w), ∀ v, w ∈ E
(3.1)
f (λv) = λ f (v), ∀v ∈ E, ∀λ ∈ K.

L’ensemble des applications linéaires de E dans F est noté L(E, F)


Exemple 3.3. L’application f définie dans l’exemple 3.2 est linéaire.
si v, w ∈ R3 et λ ∈ K , alors
f (v + w) = A(v + w) = Av + Aw
f (λv) = A(λv) = λA(v) = λ f (v)
Exemple 3.4.
f : R3 −→ R2
(x1 , x2 , x3 ) 7−→ (2x1 + x2 , x2 − x3 )
est une application linéaire.
En effet, si u = (x1 , x2 , x3 ) et v = (y1 , y2 , y3 ), on a :
f (u + v) = f (x1 + y1 , x2 + y2 , x3 + y3 )
= ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 )) = f (u) + f (v)
f (λv) = f (λx1 , λx2 , λx3 ) = f (λ(2x1 + x3 , x2 − x3 )) = λ f ((2x1 + x3 , x2 − x3 )) = λ f (v)

——————— 21 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.2. APPLICATIONS LINÉAIRES CHAPITRE 3. APPLICATION LINÉAIRE

REMARQUE. Soit f : E −→ F une application linéaire, on a

f (0) = f (0 − 0) = f (0) − f (0) = 0.

Pour tous u, v ∈ E et tous λ, µ ∈ K on a


f (λu + µv) = λ f (u) + µ f (v)
Par récurrence sur n, on en déduit que pour tout n ∈ N, pour tous vecteurs v1 , ..., vn ∈ E et et pour tous scalaires
λ1 , λ2 , .........., λn ∈ K  n n

X  X
f  λi vi  =
 λi f (vi )
i=1 i=1

Définition 3.4. (Somme d’applications linéaires) Soient f : E −→ F et g : E −→ F deux applications linéaires. On


définit leur somme f + g : E −→ F en posant : ( f + g)(u) = f (u) + g(u)

Proposition 3.1. La somme de deux applications linéaires est linéaire.

Démonstration. En effet, ( f + g)(u + v) = f (u + v) + g(u + v) = f (u) + f (v) + g(u) + g(v) = ( f + g)(u) + ( f + g)(v) De
même, ( f + g)(λu) = λ( f + g)(u). cqfd

Exemple 3.5. Soient A, B ∈ M2,3 (R), f et g deux applications linéaires :

f : R3 −→ R2
v 7−→ Av

g: R3 −→ R2
v 7−→ Bv

Soient u, v ∈ R3 . On pose h = f + g.

h(u + v) = (A + B)(u + v) = (A + B)u + (A + B)v = h(u) + h(v)

h(kv) = (A + B)(kv) = k(A + B)v = kh(v)

Proposition 3.2. (Composée d’applications linéaires) La composée de deux applications linéaires est linéaire.

Démonstration. Soient f : E −→ F et g : F −→ G. deux applications linéaires. Pour tout u et tout v de E, pour tout λ
de R, on a :
1. go f (u + v) = g( f (u + v)) = g( f (u) + f (v)) = g( f (u)) + g( f (v)) = go f (u) + go f (v),
2. go f (λu) = g( f (λu)) = g(λ f (u)) = λg( f (u)) = λgo f (u).
cqfd

Définition 3.5 (Endomorphisme). On appelle endomorphisme de E, une application linéaire de E dans E (même
espace de départ et d’arrivée). L’ensemble des endomorphismes de E est noté L(E)
On appelle isomorphisme de E sur F une application linéaire bijective de E dans F.

Exemple 3.6.
idE : E −→ E
x 7−→ x

est un endomorphisme de E dit identité sur E.

Exemple 3.7.
f : R2 −→ R2
(x1 , x2 ) 7−→ (2x1 + x2 , x2 )

est un endomorphisme

——————— 22 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE

3.3 Noyau et image d’une application linéaire


3.3.1 Image d’une application linéaire
Définition 3.6. (Image d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire. On appelle image de f et on note Im f ou f (E).
Im f = f (E) ={v ∈ F tels qu’il existe u ∈ E tel que f (u) = v}

Proposition 3.3. (Image d’espace engendré) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire.
1) Soit (u1 , ..., u p ) une famille de vecteurs de E. Alors :

f (vect(u1 , ..., u p )) = vect( f (u1 ), ..., f (u p )).

2) Soit (u1 , ..., u p ) une famille génératrice de vecteurs de E, par exemple une base de E. Alors

Im f = Vect( f (u1 ), ..., f (u p ))

Démonstration. 1) si v ∈ f (vect(u1 , ..., u p )).


v est de la forme :
v = f (λ1 u1 + ....... + λ p u p )
Donc
v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p )
ce qui montre que
v ∈ vect( f (u1 ), f (u2 ), .............., f (u p ))
Réciproquement, si
v ∈ Vect( f (u1 ), ..., f (u p )),
v est de la forme
v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p ),
d’où
v = f (λ1 u1 + ....... + λ p u p ).
Donc
v ∈ f (vect(u1 , ..., u p ))
2) est une conséquence de 1). cqfd

Proposition 3.4. Soit f : E −→ F une application linéaire et F un sous-espace vectoriel de E. L’image par f d’un
sous-espace vectoriel G de E est un sous-espace vectoriel de F noté f (G). En particulier, ℑ f = f (E) est un sous-espace
vectoriel de F.

Démonstration. Soient v et v′ dans f (G) et λ, µ deux réels. Il existe deux éléments u et u′ de G, tels que f (u) = ν et
f (u′ ) = v′ . Il faut montrer que λv + µv′ est dans f (G), ce qui résulte de :
λv + µv′ = λ f (u) + µ f (u′ ) = f (λu + µu′ ). cqfd

Proposition 3.5. Soit f : E −→ F une application linéaire injective. L’image d’une famille libre de E est une famille
libre de F.

3.3.2 Noyau d’une application linéaire


Définition 3.7. (Noyau d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire. On appelle noyau de f et on le note ker f , l’ensemble des vecteurs de E dont l’image est le vecteur nul de F,
autrement dit : ker f = {u ∈ E/ f (u) = 0}

Proposition 3.6. Le noyau d’une application linéaire f : E −→ F est un sous-espace vectoriel de E.

——————— 23 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATION LINÉAIRE

Démonstration. Soient u et u′ dans le noyau de f et λ, µ deux réels. Il faut montrer que λu + µu′ est dans ker( f ), ce qui
résulte de :
f (λu + µu′ ) = λ f (u) + µ f (u′ ) = 0 + 0 = 0.
cqfd

Exemple 3.8. Soit f une application linéaire définie par


f : R4 −→ R3
(x1 , x2 , x3 , x4 ) 7−→ (x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 )
Trouver une base et la dimension de ker f .
Cherchons l’ensemble des (x1 , x2 , x3 , x4 ) tel que f (x1 , x2 , x3 , x4 ) = (0, 0, 0).
Le système homogène suivant dont l’espace solution est le noyau de f (ker f ) :
x1 − x2 + x3 + x4 = 0




x1 + 2x3 − x4 = 0





 x + x + 3x − 3x = 0

1 2 3 4

on obtient le système échelonné :


x1 − x2 + x3 + x4 = 0
(

x2 + x3 − 2x4 = 0
Les inconnues libres sont x3 et x4 ; donc dim(ker f = 2.
Pour x3 = −1, x4 = 0 on obtient la solution υ1 = (2, 1, −1, 0)
Pour x3 = 0, x4 = 1 on obtient la solution υ2 = (1, 2, 0, 1)
Ainsi, (υ1 , υ2 ) est une base de ker f
Proposition 3.7. (Critère d’injectivité) Soient f : E −→ F une application linéaire. L’application linéaire f est injective
si et seulement si ker f = {0}.
Démonstration. Supposons f injective. On sait que f (0) = 0 ; aucun autre élément de E ne peut avoir pour image 0,
donc ker( f ) = 0. Réciproquement, si u et u sont deux vecteurs ayant la même image : f (u) = f (u′ ), on a : f (u − u′ ) = 0,
donc u − u′ ∈ ker f = {0}, donc u = u′ . cqfd

Exemple 3.9. Soit f une application linéaire définie par


f : R3 −→ R3
(x1 , x2 , x3 ) 7−→ (x1 , x1 − x2 − 2x3 , −x2 − 2x3 )
Déterminer ker f
Le système homogène suivant dont l’espace solution est le noyau de f
x1 =0




x − x − 2x3 =0



 1 2

 − x − 2x = 0

2 3

Le système échelonné :
x1 − x2 − 23 = 0




x2 =0





− 2x3 =0


zéro inconnue libre, donc ker f = {0}
Démonstration. Il s’agit de montrer que la famille ( f (u1 ), f (u2 ), ..... f (u p )) est libre.
Supposons que
λ1 f (u1 ) + λ2 f (u2 ) + ..... + λ f (u p ) = 0
. L’application f étant linéaire, on a :
f (λ1 u1 + λ2 u2 + ..... + λ p u p ) = 0
. Comme le ker f = {0}, on a
λ1 u1 + λ2 u2 + ..... + λ p u p = 0,
la famille (u1 , u2 , .....u p ) étant libre, ainsi, λ1 = λ2 = .......λ p = 0. cqfd

——————— 24 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.4. RANG D’UNE APPLICATION LINÉAIRE

Exercice 3.2. Reprenons l’application de l’exemple 3.8

f : R4 −→ R3
(x1 , x2 , x3 , x4 ) 7−→ (x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 )

Trouver une base et la dimension de ℑ f .


Soit (e1 , e2 , e3 ) la base canonique de R4
On a :
Im( f ) = Vect( f (e1 ), f (e2 ), f (e3 ), f (e4 ))
avec
f (e1 ) = (1, 1, 1), f (e2 ) = (−1, 0, 1), f (e3 ) = (1, 2, 3), f (e4 ) = (1, −1, −3)
La matrice ligne engendrée de ℑ f .

1 1 1  f (e1 )
0 1  f (e2 )

A = −1
 
 1 2 3 

f (e3 )
1 −1 −3 f (e4 )

réduisons cette matrice par des opérations élémentaires sur les lignes à sa forme échelonnée :

1 1 1 υ1
0 1 2 υ2
 
0 0 0
 
0 0 0

Ainsi, (υ1 , υ2 ) est une base de Im f , avec υ1 = (1, 1, 1) et υ2 = (0, 1, 2)

3.4 Rang d’une application linéaire


Le rang d’une application linéaire f est par définition la dimension de Im f . On le notera rg f .

Exemple 3.10. Considérons la projection

p: R5 −→ R5
(x, y, z, s, t) 7−→ (x, 0, z, 0, t)

La famille (e1 , e3 , e5 ) est de rang 3 et engendre Im f , donc rg( f ) = 3.

Théorème 3.8. (Théorème du rang :) Soient E, F deux espaces vectoriels de dimension finie, et f : E −→ F une
application linéaire. Alors ker f et Im f sont des espaces vectoriels de dimension finie et :
dim E = dim ker f + rg f .

Démonstration. Comme ker f est un sous-espace vectoriel de l’espace de dimension finie E, il est de dimension finie.
Posons dim E = n et soit (u1 , ..., ur ) une base de ker f . On peut compléter cette base en une base (u1 , .ur ..un ) de E.
Montrons que β = ( f (ur+1 ), ..., f (un )) est une base de Im f .
On sait que β est une famille génératrice de Im f . β est aussi une famille libre de Im f , car si :

λr+1 f (ur+1 ) + ............ + λn f (un ) = 0.

On a :
f (λr+1 ur+1 + ............ + λn un ) = 0,
donc :
λr+1 ur+1 + ............ + λn un ∈ ker( f ),

——————— 25 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATION LINÉAIRE

Ce vecteur étant dans ker f , donc

λr+1 ur+1 + ............ + λn un = λ1 u1 + ............ + λr ur ,

Donc :
λ1 u1 + ............ + λr ur − λr+1 ur+1 − ............ − λn un = 0.
Tous les coefficients de cette égalité sont nuls car (u1 , ..., ur , ..., un) est une base de E, donc β est une famille libre de
Im( f ). Par conséquent, B est une base de Im f . Comme elle a n − r éléments et que dim ker f = r. On conclut que

dim E = dim ker f + rg f.

cqfd

Exemple 3.11. Soit l’application linéaire

f : R4 −→ R3
(x1 , x2 , x3 , x4 ) 7−→ (x1 − x2 + x3 , 2x1 + 2x2 + 6x3 + 4x4 , −x1 − 2x3 − x4 )

x1 − x2 + x3 =0




(x1 , x2 , x3 , x4 ) ∈ ker( f ) ⇔ f ((x1 , x2 , x3 , x4 )) = (0, 0, 0) ⇔  2x1 + 2x2 + 6x3 + 4x4 = 0




−x − 2x3 − x4 = 0

1

x1 − x2 + x3 =0
(

x2 + x3 + x4 = 0
Deux inconnues libres (x3 et x4 ) et deux inconnues principales (x1 et x2 ), donc

dim ker f = 2, dim Im f = 2 et dim R4 = dim Im f + dim ker f = 2 + 2 = 4

Propriété 3.1. Soit f ∈ L(E, E ′ ), E, E ′ étant deux espaces vectoriels de même dimension finie (en particulier, par
exemple, si f ∈ L(E), avec E de dimension finie). Alors les propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.

3.5 Matrices associées à une application linéaire


Soient E et E ′ deux espaces vectoriels sur K de dimension n et p respectivement, et f : E −→ E ′ une application
linéaire. Soient {e1 , ..., en } une base de E et {e′i , ..., e′p } une base de E ′ . Les images par f des vecteurs e1 ,..., en se
décomposent sur la base {e′1 , ..., e′p } :

f (e1 ) = a11 e′1 + a21 e′2 + ................a p1 e′p


f (e2 ) = a12 e′1 + a22 e′2 + ................a p2 e′p
...... = .....................................................
f (en ) = a1n e′1 + a2n e′2 + ................a pn e′p

Définition 3.8. (Matrice d’une application linéaire) On appelle matrice de f dans les bases β = {e1 , ..., en } et β =
{e′i , ..., e′p } la matrice notée M( f )β,β′ appartenant à M p,n (K) dont les colonnes sont les composantes des vecteurs f (e1 ),...,

f (en ) dans la base β = {e′i , ..., e′p } :

f (e1 ) ... f (en )



 a11 ... a1n  e′1
MB,B′ ( f ) =  .. .. ..  ..
 . . .  .
a p1 ... a pn e′p

——————— 26 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE

Exemple 3.12. Soit {ϵ1 , ϵ2 } la base canonique de R2 et B = {e1 , e2 , e3 } la base canonique de R3 . On considère
l’application linéaire
f : R3 −→ R2
(x, y, z) 7−→ (x − y, z − y)
on a :
f (e1 ) = f (1, 0, 0) = (1, 0) = ϵ1
f (e2 ) = f (0, 1, 0) = (−1, −1) = −ϵ1 − ϵ2
f (e3 ) = f (0, 0, 1) = (0, 1) = ϵ2

Donc :
f (e1 ) f (e2 ) f (e3 )
1 −1 0 ϵ1
 
MB,B′ ( f ) =
0 −1 1 ϵ2

Exemple 3.13. Soient E un espace vectoriel de dimension 2 muni de la base BE = (e1 , e2 ) et F un espace vectoriel de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ).
Soit f l’application linéaire : f : E −→ F définie par :

f (e1 ) = 2 f1 + 3 f2 − f3 , f (e2 ) = f1 − f2 + 4 f3

f (e1 ) f (e2 )
 2 1  f1
MBE ,BF ( f ) =

 3 −1  f2

−1 4 f3

Soient
CE = (e2 , e1 ) et CF = ( f3 , f2 , f1 )
Rappelons que l’ordre des vecteurs a une importance dans la définition d’une famille. Ainsi,

f (e2 ) f (e1 )
 4 −1  f3
MCE ,CF ( f ) =

 −1 3  f2

1 2 f1

Exercice 3.3. Soit f un endomorphisme de R3 défini par :

f : R3 −→ R3
(x1 , x2 , x3 ) 7−→ (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )

On considère dans R3 les deux bases B = (e1 , e2 , e3 ) et C = (u1 , u2 , u3 ) avec

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)


u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1)
Expliciter les matrices :
(a) MatB ( f )
(b) MatC ( f )
(c) MatB,C ( f )
(d) MatC,B ( f )

Proposition 3.9. Soit A une matrice rectangulaire. Si f est une application linéaire de E dans F, avec E un espace
vectoriel muni d’une base BE et F un espace vectoriel muni d’une base BF , telle que A = MatBE ,BF ( f ) alors :

rgA = rg f

——————— 27 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.6. MATRICE D’UNE COMPOSÉE CHAPITRE 3. APPLICATION LINÉAIRE

3.6 Matrice d’une composée


Si f : E −→ F et g : F −→ G sont deux applications linéaires, où E, F, G sont trois espaces vectoriels de dimension
finie et de bases données, alors
Mgo f = Mg .M f

Exemple 3.14. Soient E un espace vectoriel de dimension 4 muni de la base BE = (e1 , e2 , e3 , e4 ), F un espace de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ) et G un espace de dimension 2 muni de la base BG = (g1 , g2 ). On considère
l’application linéaire f de E dans F définie par

f (e1 ) = 2 f1 − 5 f2 + 7 f3




 f (e2 ) = f1 − 2 f2 + 3 f3




f (e3 ) = 2 f1 − 3 f2 − 4 f3






f (e4 ) = 6 f1 − 2 f2 − 3 f3

On considère l’application linéaire ψ de F dans G définie par

ψ( f1 ) = 2g1 − 3g2




ψ( f2 ) = 2g1 − 2g2





ψ( f ) = g1 + g2

3

Il convient donc de déterminer la matrice représentative de ψo f dans les bases BE et BG

MatBE ,BG (ψo f ) = MatBF ,BG (ψ) × MatBE ,BF ( f )

On déduit facilement des définitions de ψ et f

 2 1 2 6 
 
 2 2 1 
  
MatBE ,BF ( f ) =  −5 −2 −3 −2  , MatBF ,BG (ψ) = 

3 −2 1 

7 3 −4

−3 


et on vérifie que l’on a :

 2 1 2 6  
 
 2 2 1     1 1 −6 5 
 
  −5 −2 −3 −2  = 
3 −2 1   23 10 8 19 
 
7 3 −4

−3 

Relativement aux bases BE et BG , z = (ψo f )(x) s’écrit ainsi :

 x1 
 
 
 z1   1 1 −6 5   x2 
   
 = 
z2   23 10 8 19  x3 
   
 
x4 

On en déduit alors les équations de ψo f relativement à BE et BG :

z1 = x1 + x2 − 6x3 + 5x4
(

z2 = 23x1 + 10x2 + 8x3 + 19x4

Proposition 3.10. Soient E, F, G trois espaces vectoriels de dimensions finies, f et g deux applications linéaires.
f : E −→ F et g : F −→ G Alors
rggo f ≤ min(rg( f ), rg(g))
En particulier,
— Si f est surjective alors rg(go f ) = rg(g).
— Si g est injective alors rg(go f ) = rg( f ).

——————— 28 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES

Exercice 3.4. Soient E un espace de dimension 3 et f un endomorphisme de E vérifiant


f 2 , 0 et f 3 = 0
où on a noté
f 2 = f o f et f 3 = f o f o f
1. Montrer les deux séries d’inclusion
(a) {0E } = Im f 3 ⊂ Im f 2 ⊂ Im f ⊂ E
(b) {0E } ⊂ ker f ⊂ ker f 2 ⊂ ker f 3 = E
2. (a) Montrer que Im f 2 ⊂ ker f
(b) Déduire que rg f 2 ≤ dim ker f 2 ).
3. (a) Justifier que 2 ≤ dim ker f 2 ≤ 3
(b) Le cas dim ker f 2 = 3 est-il possible ?
(c) Déduire dim ker f 2 ) puis rg f 2
4. (a) Justifier que 1 ≤ rg f ≤ 3 .
(b) Montrer que Im f 2 , Im f
(c) Déduire que rg f , 1
(d) Le cas rg f = 3 est-il possible ?
(e) En déduire rg f et dim ker f ).

3.7 Changement de bases


Considérons dans un espace vectoriel E de dimension n deux bases distinctes
BE = (e1 , e2 , ..., en ) et C E = (u1 , u2 , ..., un ).
Qualifions la base BE d’"ancienne base" et la base C E de" nouvelle base".
Décomposons chacun des vecteurs u1 , u2 , ..., un de la nouvelle base C E dans l’ancienne base BE :
u1 = p11 e1 + p21 e2 + ................pn1 en
u2 = p12 e1 + p22 e2 + ................pn2 en
...... = .....................................................
un = p1n e1 + p2n e2 + ................pnn e p

Définition 3.9 (Matrice de passage). Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. On appelle
matrice de passage de BE à C E la matrice carrée d’ordre n dont la j-ième colonne est formée des coordonnées dans BE
du j-ième vecteur de la base C E .
Avec les notations utilisées, la matrice de passage de BE à C E est donc la matrice P définie par :
u1 ... un
p ... p1n  e1
 11
P=  .. .. ..  ..

 . . .  .
pn1 ... pnn en

Exemple 3.15. On munit l’espace R3 de la base BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et de
la base CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
On a
u1 = e1 − e3 , u2 = e1 − e2 , u3 = e1 + e2 + e3
La matrice P de passage de BR3 à CR3
u1 u2 u3
1 1 1  e1
P=

 0 −1 1  e2

−1 0 1 e3

——————— 29 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.7. CHANGEMENT DE BASES CHAPITRE 3. APPLICATION LINÉAIRE

3.7.1 Propriétés des matrices de passage


Proposition 3.11. Soit E un espace vectoriel muni des bases BE et C E . La matrice de passage P de BE à C E est la
matrice représentant l’application identité relativement aux bases C E et BE . idE : x ∈ E 7−→ x ∈ E. En d’autres termes,

P = MatCE ,BE (idE )

REMARQUES. (a) Une matrice de passage P est nécessairement inversible puisque c’est la matrice associée à une
application bijective.
(b) si Q = MatC E ,BE (idE ) et P = MatBE ,CE (idE ), alors :

QP = MatCE ,BE (idE ) × MatBE ,CE (idE )


= MatCE ,CE (idE oidE )
= MatCE (idE ) = In

On en déduit directement que Q = P−1

Proposition 3.12. Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. Si P est la matrice de
passage de BE à C E alors P−1 , la matrice inverse de P, est la matrice de passage de C E à BE .

Exemple 3.16. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).

On a
u1 = e1 − e3 e1 = 1/3(u1 + u2 + u3 )
 


 


u2 = e1 − e2 e2 = 1/3(u1 − 2u2 + u3 )
 
⇒
 


 

u3 = e1 + e2 + e3 e3 = 1/3(−2u1 + u2 + u3 )

 

La matrice de passage Q de CR3 à BR3 est

e1 e2 e3
1 1 −2 u1
Q = MatCR3 ,BR3 = 1/3

 0 −2 1  u2

1 1 1 u3

u1 u2 u3
1 1 1  e1
P = MatBR3 ,CR3 =

 0 −1 1  e2

−1 0 1 e3

On voit que l’on a effectivement Q = P−1 en vérifiant l’une des deux égalités PQ = QP = I3

3.7.2 Application au calcul de l’inverse d’une matrice


Présentons la méthode sur un exemple. Considérons la matrice inversible :
0 1 0 

1 −1 −2

A=
0 −1 −2

Interprétons A comme la matrice de passage d’une base BE = (e1 , e2 , e3 ) à une base C E = (u1 , u2 , u3 ), ce qui revient à
écrire le système :
u1 = e2




u2 = e1 − e2 − e3





u = −2e − 2e


3 2 3

——————— 30 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES

La matrice A−1 , peut alors s’interpréter comme la matrice de passage de C E à BE .


Une méthode pour l’obtenir consiste à exprimer les vecteurs de l’ancienne base BE en fonction des vecteurs de la
nouvelle base C E . On déduit facilement du système précédent le nouveau système :

e1 = u2 − 1/2u3




e2 = u1





e3 = −u1 − 1/2u3

On obtient finalement :
 0 1 −1 

 1 0 0 

A−1 = MatCR3 ,BR3 =
−1/2 0 −1/2

Proposition 3.13 (Changement de bases pour un vecteur). Soit E un espace vectoriel muni des bases BE et C E . Si X
et X’ désignent les matrices-colonnes des coordonnées de x dans les bases respectives BE et C E et P est la matrice de
passage de BE à C E alors
X = PX ′

Exemple 3.17. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
Considérons le vecteur x = (3, 6, 9) de R3 .

(3, 6, 9) = 3(1, 0, 0) + 6(0, 1, 0) + 9(0, 0, 1) = 3e1 + 6e2 + 9e3

On note x1′ , x2′ , x3′ les coordonnées de x dans la nouvelle base CR3 = (u1 , u2 , u3 ) x = x1′ u1 + x2′ u2 + x3′ u3

1   x1′   3 
1 1
     
     
0 −1 1   x2′  =  6 


0 1   x3′   9 
     
−1
| {z } | {z } |{z}
=P =X ′ =X

ou encore, de manière équivalente,


 ′ 
 x1   1 1−2   3 
  
 ′    
 x2  = 1/3  1 −2 1   6 

 ′ 
x3 1 1 1  9 
   
| {z } | {z } |{z}
=X ′ =P−1 =X

x1′ = −3, x2′ = 0 et x3′ = 6, c’est-à-dire :


x = −3u1 + 6u3

REMARQUE. Attention, il ne faut pas écrire ”x = (−3, 0, 6)”. C’est faux car (−3, 0, 6) représente le vecteur −3e1 + 6e3 .

Théorème 3.14. Soient E un espace vectoriel muni des deux bases BE et C E , F un espace vectoriel muni des deux bases
BF et C F . Soit f une application linéaire de E dans F. Alors les deux matrices A = MatBE ,BF ( f ) et B = MatCE ,CF ( f )
toutes les deux du même type, vérifient l’égalité matricielle :

B = Q−1 AP

où P est la matrice de passage de BE à C E et où Q est la matrice de passage de BF à C F .

——————— 31 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.7. CHANGEMENT DE BASES CHAPITRE 3. APPLICATION LINÉAIRE

A = MatBE ,BF ( f )
(E, BE ) (F, BF )

P = MatCE ,BE (IdE ) Q−1 = MatBF ,CF (IdF )

(E, C E ) (F, C F )
B = MatCE ,CF ( f )
On retrouve l’égalité matricielle :

MatC E ,C F ( f ) = MatBF ,C F (IdF ) × MatBE ,BF ( f ) × MatCE ,BE (IdE )


| {z } | {z } | {z } | {z }
B Q−1 A P

Lorsque f est un endomorphisme de E, on peut choisir :


— BE = BF = B et C E = C F = C
— MatB ( f ), la matrice associée à f dans la base B
— MatC ( f ) la matrice associée à f dans la base C
— La matrice Q, matrice de passage de BF à C F , est donc égale à la matrice P

A = MatB ( f )
(E, B) (E, B)

P = MatC,B (IdE ) P−1 = MatB,C (IdE )

(E, C) (E, C)
B = MatC ( f )
On retrouve l’égalité matricielle :

MatC ( f ) = MatB (IdE ) × MatB ( f ) × MatC (IdE )


| {z } | {z } | {z } | {z }
B P−1 A P

Exemple 3.18. Reprenons l’exercice 3.3 : Soit f un endomorphisme de R3 défini par :

f : R3 −→ R3
(x1 , x2 , x3 ) 7−→ (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )

On considère dans R3 les deux bases BR3 = (e1 , e2 , e3 ) et CR3 = (u1 , u2 , u3 ) avec

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) et u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1)
On a :
f (e1 ) = 2e1 + e2 + e3




f (e2 ) = e1 + 2e2 + e3





 f (e ) = e + e + 2e

3 1 2 3

——————— 32 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES

On en déduit alors l’expression de la matrice A représentative de f dans BR3

f (e1 ) f (e2 ) f (e3 )


 2 1 1  e1
A = MatBR3 =

 1 2 1  e2

1 1 2 e3

On a aussi :
f (u1 ) = u1




f (u2 ) = u2





 f (u ) = 4u

3 3

On en déduit la matrice B représentative de f dans CR3

f (u1 ) f (u2 ) f (u3 )


 1 0 0  u1
B = MatCR3 =

 0 1 0  u2

0 0 4 u3

La matrice de passage de BR3 à CR3

1 1 1 1 1 −2
P= et P−1 = 1/3
 
 0 −1 1
 1 −2 1 

−1 0 1 1 1 1
 

On vérifie que l’on a

1 0 0 1 1 −2 2 1 1 1 1 1


MatCR3 = = 1/3
   
0 1 0
 1 −2 1 
 1 2 1
  0 −1 1

0 0 4 1 1 1 1 1 2 −1 0 1
   

| {z } | {z }| {z }| {z }
B P−1 A P

3.7.3 La matrice associée à une application linéaire bijective est-elle inversible ?


Considérons une matrice A carrée d’ordre n, et deux K espaces vectoriels E, F, munis des bases respectives BE et
BF , et une application linéaire f :
f : E −→ F
Supposons l’application linéaire f bijective. Il existe alors une application : f −1 : F −→ E (nécessairement linéaire
puisque f l’est) telle que :
f −1 o f = IdE et f o f −1 = IdF

Proposition 3.15. Une application linéaire f d’un espace E de dimension finie dans un F de même dimension est
bijective si et seulement si, la matrice carrée associée à f relativement à des bases quelconques BE de E et BF de F, est
inversible. Si f est bijective alors
MatBE ,BF ( f ) −1 = MatBE ,BF ( f −1 )
   

et, en particulier, lorsque E = F et BE = BF = B,


−1
MatB ( f ) = [MatB ] ( f −1 )


——————— 33 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4
DÉTERMINANTS

4.1 Groupe des permutations d’un ensemble


4.1.1 Généralités
E est un ensemble non vide, une permutation de E est une bijection de E sur E. Si on note S(E) l’ensemble des
permutations de E, alors (S(E), ◦) est un groupe.
Le cas particulier où E = {1, 2, ...... n}, n étant un entier naturel non nul donné. Dans ce cas, l’ensemble S(E) se note
Sn (Sn est donc l’ensemble des permutations de l’ensemble {1, 2, ...... n}).
— IdE est une permutation de E.
— La composée de deux permutations de E est une permutation de E.
— La réciproque d’une permutation de E est une permutation de E.
— ∀(σ, σ′ ) ∈ (S(E))2 , (σ ◦ σ′ )−1 = σ′−1 ◦ σ−1 et (σ−1 )−1 = σ.
1 2 ... n − 1 n
!
Une permutation donnée de {1, 2, ...... n} se note σ =
σ(1) σ(2) . . . σ(n − 1) σ(n)
1 2 3 4 5
!
Exemple 4.1. σ = , est la permutation de {1 2 3 4 5} définie par :
4 1 3 5 2
σ(1) = 4, σ(2) = 1, σ(3) = 3, σ(4) = 5, σ(5) = 2

Pour composer deux permutations σ et σ′ , nous écrirons

σ ◦ σ′ = (σ(1) σ(2) . . . σ(n) ) ◦ (σ′(1) σ′(2) . . . σ′(n) )

si σ = (4 1 3 2) et σ′ = (2 3 4 1), alors

σ ◦ σ′ = (4 1 3 2) ◦ (2 3 4 1) = (1 3 2 4)

σ ◦ σ′ (1) = σ(σ′ (1)) = σ(2) = 1.

Définition 4.1 (Transposition). La permutation qui échange i et j et laisse les autres éléments invariants est appelée
transposition et est notée τi, j .

S1 est l’ensemble qui contient 1 élément qui est l’identité


1 2
!
Exemples 4.2. S2 contient deux éléments : la permutation identique et la transposition qui échange 1 et 2
1 2
1 2
!
, elle se note τ1,2 (ou τ2,1 ). Ainsi, S2 = {Id, τ1,2 }
2 1
Les six éléments de S3 sont
1 2 3
!
— la permutation identique : id = ;
1 2 3

34
CHAPITRE 4. DÉTERMINANTS 4.2. DÉTERMINANT D’ORDRE 2

1 2 3 1 2 3 1 2 3
! ! !
— trois transpositions : τ2,3 = , τ1,3 = et τ1,2 = ;
1 3 2 !3 2 1 ! 2 1 3
1 2 3 1 2 3
— deux permutations circulaires : c1 = et c2 = .
2 3 1 3 1 2
Ainsi, S3 = {Id, τ1,2 , τ1,3 , τ2,3 , c1 , c2 }.

Théorème 4.1. (Décomposition d’une permutation en produit de transpositions :) Soit n > 1. Toute permutation σ de
{1, 2, ........n} peut s’écrire comme un produit de transpositions.

Définition 4.2. (Signature d’une permutation) Soient n ≥ 2 et σ ∈ S n .


La signature de σ est
Y σ(i) − σ( j)
ε(σ) =
1≤i< j≤n
i− j

! n = 1, S 1 = Id{1} , on pose ε(Id{1} ) = 1.


Par convention, si
1 2 3 4
σ= , alors
2 4 3 1

2−4 2−3 2−1 4−3 4−1 3−1 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)
ε(σ) = × × × × × = (−1)4 =1
1−2 1−3 1−4 2−3 2−4 3−4 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)

4.1.2 Inversions d’une permutation. Calcul de la signature


Définition 4.3. (Inversion) Soient n ≥ 2 et σ ∈ S n .
Une inversion de σ est une paire i, j d’éléments de {1, 2, ...... n} telle que i < j et σ(i) > σ( j).

1 2 3 4
!
Exemple 4.3. σ =
2 4 3 1
Les inversions de σ sont les paires {1, 4}, {2, 3}, {2, 4} et {3, 4}.
Les paires {1, 2} et {1, 3} ne sont pas des inversions (voire la table 4.1)

Table 4.1 – Les inversions de σ dans l’exemple 4.3

(i, j), i < j σ(i) σ( j) σ( j) − σ(i) Inversion (i, j)


(1,2) 2 4 -2 Non
(1,3) 2 3 -1 Non
(1,4) 2 1 1 Oui
(2,3) 4 3 1 Oui
(2,4) 4 1 3 Oui
(3,4) 3 1 2 Oui

Théorème 4.2. Soient n ≥ 2 et σ ∈ Sn .


La signature de σ est : ε(σ) = (−1)N où N est le nombre d’inversions de σ.

Le nombre d’inversions de σ dans l’exemple 4.3 est 4, donc ε(σ) = (−1)4 = 1

4.2 Déterminant d’ordre 2


4.2.1 Forme bilinéaire alternée
Définition 4.4. Soit E un espace vectoriel.
Une application (c1 , c2 ) ∈ E × E 7→ φ(c1 , c2 ) ∈ K est une forme bilinéaire si elle est linéaire en chacune des variables c1
et c2 .
Une forme bilinéaire φ : E × E → K est dite alternée si φ(c, c) = 0 pour tout c ∈ E.

Une application φ : E × E → K est une forme bilinéaire si

——————— 35 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.2. DÉTERMINANT D’ORDRE 2 CHAPITRE 4. DÉTERMINANTS

(a) Pour tous c1 , c′1 , c2 ∈ E et pour tous α, β ∈ K

φ(αc1 + βc′1 , c2 ) = αφ(c1 , c2 ) + βφ(c′1 , c2 )


(b) Pour tous c1 , c2 , c′2 ∈ E et pour tous α, β ∈ K

φ(c1 , αc2 + βc′2 , ) = αφ(c1 , c2 ) + βφ(c1 , c′2 )

Exemples 4.4. -
1. L’application φ : R3 × R3 7→ R définie pour x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 )

φ(x, y) = x1 y1 + x2 y2 + x3 y3

est une forme bilinéaire sur E = R3


2. L’application φ : R4 × R4 7→ R définie pour x = (x1 , x2 , x3 , x4 ) et y = (y1 , y2 , y3 , y4 )

φ(x, y) = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4

est une forme bilinéaire sur E = R4 . où c désigne un paramètre réel, est une forme bilinéaire. Cette forme bilinéaire
qui intervient dans la théorie de la relativité est nommée forme de Lorentz 1
3. L’application φ : R2 7→ R définie pour x = (x1 , x2 ) et y = (y1 , y2 )

φ(x, y) = x1 y2 − x2 y1

est une forme bilinéaire alternée sur E = R2 :

φ(x, x) = x1 x2 − x2 x1 = 0

A) Propriété d’antisymétrie
Soit φ : E × E → K, une forme bilinéaire alternée. et soient c1 , c2 ∈ E.
Puisque φ est alternée
φ(c1 + c2 , c1 + c2 ) = 0
Or, φ étant bilinéaire, on a :

φ(c1 + c2 , c1 + c2 ) = φ(c1 , c1 ) + φ(c2 , c2 ) + φ(c1 , c2 ) + φ(c2 , c1 ) = φ(c1 , c2 ) + φ(c2 , c1 ) = 0

Ainsi,
φ(c1 , c2 ) = −φ(c2 , c1 )
Le signe de φ(c1 , c2 ) change lorsque l’on permute les deux vecteurs c1 et c2 . On dit que φ est antisymétrique.

B) Intérêt d’une forme bilinéaire alternée


Soit φ : E × E → K, une forme bilinéaire alternée.
Si c1 et c2 sont deux vecteurs liés alors φ(c1 , c2 ) = 0
En effet, si c1 et c2 sont liés alors il existe (α, β) ∈ K2 avec (α, β) , (0, 0) tel que αc1 + βc2 = 0E .
Sans perte de généralité, Supposons que β , 0. Alors c2 = − αβ c1 et

α α
φ(c1 , c2 ) = φ(c1 , − c1 ) = − φ(c1 , c1 ) = 0
β β

Conséquence Soit φ : E × E → K, une forme bilinéaire alternée et soient c1 , c2 ∈ E, λ ∈ K

φ(c1 , c2 + λc1 ) = φ(c1 , c2 ) + λφ(c1 , c1 ) = φ(c1 , c2 )


1. LORENTZ, Hendrik Antoon ( 1853, Arnhem - 1928, Haarlem). Physicien néerlandais qui reçut le prix Nobel de physique en 1902.

——————— 36 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.3. DÉTERMINANT D’ORDRE 3

4.2.2 Cas d’un espace vectoriel de dimension 2


Soient E un espace vectoriel de dimension 2 muni d’une base B = (e1 , e2 ) et φ : E × E → K, une forme bilinéaire
alternée. c1 et c2 sont deux vecteurs de E rapportés à la base B :

c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2

où (a11 , a21 ) ∈ K2 et (a12 , a22 ) ∈ K2

φ(c1 , c2 ) = φ(a11 e1 + a21 e2 , a12 e1 + a22 e2 )


= a11 a12 φ(e1 , e1 ) + a11 a22 φ(e1 , e2 ) + a21 a12 φ(e2 , e1 ) + a21 a22 φ(e2 , e2 )
d’où, puisque φ(e1 , e1 ) = φ(e2 , e2 ) = 0

φ(c1 , c2 ) = a11 a22 φ(e1 , e2 ) + a21 a12 φ(e2 , e1 )

Du fait que φ(e2 , e1 ) = −φ(e1 , e2 )


φ(c1 , c2 ) = (a11 a22 − a21 a12 )φ(e1 , e2 ) (4.1)
La forme bilinéaire alternée φ : E × E → K dépend de la base B de E.
Notons φ par detB , ainsi,
det(c1 , c2 ) = (a11 a22 − a21 a12 ) det(e1 , e2 )
B B

Définition 4.5. Soient E un espace vectoriel de dimension 2 muni d’une bas B = (e1 , e2 ).

On appelle déterminant d’ordre 2 dans la base B l’unique forme bilinéaire alternée notée detB : E × E → K vérifiant :
detB (e1 , e2 ) = 1

Si c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2 alors

det(c1 , c2 ) = a11 a22 − a21 a12


B

On note symboliquement :

det(c1 , c2 ) = a11 a12 = a a − a a


11 22 21 12
B a21 a22

Pour c1 = 2e1 + 3e2 et c2 = 10e1 + 5e2

det(c1 , c2 ) = 2 10 = 2 × 5 − 3 × 10 = −20
B 3 5

4.3 Déterminant d’ordre 3


4.3.1 Forme trilinéaire alternée
Définition 4.6. Soit E un espace vectoriel.

Une application (c1 , c2 , c3 ) ∈ E 3 7→ φ(c1 , c2 , c3 ) ∈ K est une forme trilinéaire si elle est linéaire en chacune des
variables c1 , c2 et c3 .

Une forme trilinéaire φ : E 3 → K est dite alternée si φ(c1 , c2 , c3 ) = 0 dès que deux des trois vecteurs c1 ,c2 et c3 sont
égaux. Autrement dit, la forme trilinéaire φ : E 3 → K est alternée si

∀(c, c′ ) ∈ E 2 , φ(c, c, c′ ) = φ(c, c′ , c) = φ(c′ , c, c) = 0.

Une application φ : E 3 → K est une forme trilinéaire si


(a) pour tous c1 , c′1 , c2 , c3 ∈ E et α, β ∈ K

φ(αc1 + βc′1 , c2 , c3 ) = αφ(c1 , c2 , c3 ) + βφ(c′1 , c2 , c3 ),

——————— 37 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.3. DÉTERMINANT D’ORDRE 3 CHAPITRE 4. DÉTERMINANTS

(b) pour tous c1 , c2 , c′2 , c3 ∈ E et α, β ∈ K

φ(c1 , αc2 + βc′2 , c3 ) = αφ(c1 , c2 , c3 ) + βφ(c1 , c′2 , c3 ),

(c) pour tous c1 , c2 , c3 , c′3 ∈ E et α, β ∈ K

φ(c1 , c2 , αc3 + βc′3 ) = αφ(c1 , c2 , c3 ) + βφ(c1 , c2 , c′3 ),

Propriétés 4.3. Soient E un espace vectoriel



Pour tous c1 , c2 , c3 appartenant à E,

φ(c1 , c2 , c3 ) = −φ(c3 , c2 , c1 ) = φ(c2 , c3 , c1 )



Si l’un des trois vecteurs est combinaison linéaire des deux autres alors la valeur par φ est nulle. Par exemple,
considérons trois vecteurs c1 , c2 et c3 de E et supposons qu’il existe (α, β) ∈ K2 tel que c3 = αc1 + βc2 Alors,

φ(c1 , c2 , c3 ) = φ(c1 , c2 , αc1 + βc2 ) = αφ(c1 , c2 , c1 ) + βφ(c1 , c2 , c2 ) = 0



Lorsqu’on ajoute à l’un des trois vecteurs une combinaison linéaire des deux autres, la valeur par φ ne change pas.
Par exemple, pour tous α et β dans K et pour tous c1 , c2 , c3 appartenant à E,

φ(c1 , c2 , c3 + αc1 + βc2 ) = φ(c1 , c2 , c3 ) + αφ(c1 , c2 , c1 ) + βφ(c1 , c2 , c2 ) = φ(c1 , c2 , c3 )

4.3.2 Cas d’un espace vectoriel de dimension 3


Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
Soit φ : E 3 → K une forme trilinéaire alternée, et soit c1 , c2 , c3 ∈ E
3
X 3
X 3
X
c1 = ai1 ,1 ei1 , c2 = ai2 ,2 ei2 , c3 = ai3 ,3 ei3 .
i1 =1 i2 =1 i3 =1

φ est une forme trilinéaire, donc


3
X 3
X 3
X
φ(c1 , c2 , c3 ) = φ( ai1 ,1 ei1 , ai2 ,2 ei2 , ai3 ,3 ei3 )
i1 =1 i2 =1 i3 =1
3
X 3
X 3
X
= ai1 ,1 φ(ei1 , ai2 ,2 ei2 , ai3 ,3 ei3 )
i1 =1 i2 =1 i3 =1
3
X 3
X 3
X
= ai1 ,1 ai2 ,2 φ(ei1 , ei2 , ai3 ,3 ei3 ) (4.2)
i1 =1 i2 =1 i3 =1
3
X 3
X 3
X
= ai1 ,1 ai2 ,2 ai3 ,3 φ(ei1 , ei2 , ei3 )
i1 =1 i2 =1 i3 =1
3 X
X 3 X
3
= ai1 ,1 ai2 ,2 ai3 ,3 φ(ei1 , ei2 , ei3 )
i1 =1 i2 =1 i3 =1

φ est alternée
φ(c1 , c2 , c3 ) = a11 a12 a13 φ(e1 , e1 , e1 ) +a11 a12 a23 φ(e1 , e1 , e2 ) +...........
| {z } | {z }
=0 =0

On ne considère que les termes où les indices i1 , i2 et i3 sont tous les trois distincts. Autrement dit, on ne considère que
les termes pour lesquels {i1 , i2 , i3 } = σ({1, 2, 3}) avec σ une permutation de l’ensemble {1, 2, 3} (σ ∈ S3 )
3! = 6 permutations possibles de l’ensemble{l, 2, 3} . Elles s’écrivent :

1 2 3 1 2 3 1 2 3 1 2 3
! ! ! !
σ1 = id{1,2,3} = ; σ2 = τ1,2 = ; σ3 = τ2,3 = , σ4 = τ1,3 =
1 2 3 2 1 3 1 3 2 3 2 1

——————— 38 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.3. DÉTERMINANT D’ORDRE 3

et deux permutations circulaires :


1 2 3 1 2 3
! !
c1 = σ5 = τ2,3 ◦ τ1,3 = , c2 = σ6 = τ2,3 ◦ τ1,2 = .
2 3 1 3 1 2

Table 4.2 – Les inversions de σi , i ∈ {1, 2, 3, 4, 5, 6}

(i, j), i < j (σ1 (i), σ1 ( j)) (σ2 (i), σ2 ( j)) (σ3 (i), σ3 ( j)) (σ4 (i), σ4 ( j)) (σ5 (i), σ5 ( j)) (σ6 (i), σ6 ( j))
(1,2) (1,2) (2,1) (1,3) (3,2) (2,3) (3,1)
(1,3) (1,3) (2,3) (1,2) (3,1) (2,1) (3,2)
(2,3) (2,3) (1 ,3) (3,2) (2,1) (3,1) (1,2)
N (*) 0 1 1 3 2 2
ε(σi ) = (−1)N 1 -1 -1 -1 1 1
(*)
Le nombre d’inversions de σi
X
φ(c1 , c2 , c3 ) = aσ(1),1 aσ(2),2 aσ(3),3 φ(eσ(1) , eσ(2) , eσ(3) ) (4.3)
σ∈S3

c’est-à-dire :
φ(c1 , c2 , c3 ) = a11 a22 a33 φ(e1 , e2 , e3 ) + a21 a32 a13 φ(e2 , e3 , e1 )
+ a31 a12 a23 φ(e3 , e1 , e2 ) + a31 a22 a13 φ(e3 , e2 , e1 ) (4.4)
+ a21 a12 a33 φ(e2 , e1 , e3 ) + a11 a32 a23 φ(e1 , e3 , e2 )
Montrons que, ∀σ ∈ S3 , φ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)φ(e1 , e2 , e3 )

Si σ = σ1 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e1 , e2 , e3 ) = ε(σ1 )φ(e1 , e2 , e3 )

Si σ = σ2 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e2 , e1 , e3 ) = −φ(e1 , e2 , e3 ) = ε(σ2 )φ(e1 , e2 , e3 )

Si σ = σ3 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e1 , e3 , e2 ) = −φ(e1 , e2 , e3 ) = ε(σ3 )φ(e1 , e2 , e3 )

Si σ = σ4 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e3 , e2 , e1 ) = −φ(e1 , e2 , e3 ) = ε(σ4 )φ(e1 , e2 , e3 )

Si σ = σ5 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e2 , e3 , e1 ) = φ(e1 , e2 , e3 ) = ε(σ5 )φ(e1 , e2 , e3 )

Si σ = σ6 : φ(eσ(1) , eσ(2) , eσ(3) ) = φ(e3 , e1 , e2 ) = φ(e1 , e2 , e3 ) = ε(σ6 )φ(e1 , e2 , e3 )


Ainsi,
∀σ ∈ S3 , φ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)φ(e1 , e2 , e3 )
On déduit de (4.3) que  
 X 
φ(c1 , c2 , c3 ) =   ε(σ)aσ(1),1 aσ(2),2 aσ(3),3  φ(e1 , e2 , e3 ) (4.5)
σ∈S3

D’où
φ(c1 , c2 , c3 ) = (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23 ) φ(e1 , e2 , e3 )
Si φ(e1 , e2 , e3 ) = 1. On note φ = detB : φ : E 3 → K.
En remplaçant φ par detB dans (4.5), on obtient :
 
 X 
det(c1 , c2 , c3 ) =   ε(σ)aσ(1),1 aσ(2),2 aσ(3),3  det(e1 , e2 , e3 ) (4.6)
B B
σ∈S3

On peut vérifier que detB est trilinéaire et alternée.

——————— 39 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.4. DÉTERMINANT D’ORDRE N CHAPITRE 4. DÉTERMINANTS

Définition
√ 4.7. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
On appelle déterminant d’ordre 3 dans la base B l’unique forme trilinéaire alternée notée detB : E 3 → K
√ vérifiant : detB (e1 , e2 , e3 ) = 1
Si, pour tout j ∈ {1, 2, 3}, les scalaires a1 j , a2 j , a3 j désignent les coordonnées du vecteur c j dans la base B alors
X
det(c1 , c2 , c3 ) = ε(σ)aσ(1),1 aσ(2),2 aσ(3),3
B
σ∈S3

On a donc :
det(c1 , c2 , c3 ) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23
B

on note symboliquement

a11 a12 a13


det(c1 , c2 , c3 ) = a21 a22 a23
B
a31 a32 a33

Exemple 4.5. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ) et les trois vecteurs
c1 = e1 − e3 , c2 = −e2 + 2e3 , c3 = −e1 + e2

1 0 −1
det(c1 , c2 , c3 ) = 0 −1 1 = −1
B
−1 2 0

REMARQUE. Les coordonnées par rapport à la base B de chacun des trois vecteurs c1 , c2 et c3 peuvent être disposées
soit en colonne, soit en ligne. Cela n’influe pas sur la valeur finale de detB (c1 , c2 , c3 )

a11 a12 a13 a11 a21 a31


det(c1 , c2 , c3 ) = a21 a22 a23 = a12 a22 a32
B
a31 a32 a33 a13 a23 a33

4.4 Déterminant d’ordre n


4.4.1 Forme multilinéaire alternée
Définition 4.8. Soit E un espace vectoriel et n ∈ K, n ≥ 2

Une application (c1 , c2 , ...., cn ) ∈ E n 7→ φ(c1 , c2 , ...., cn ) ∈ K est une forme n-linéaire si elle est linéaire en chacune de
ses variables.

Une forme n-linéaire φ : E n → K est dite alternée si φ(c1 , c2 , ...., cn ) = 0 dès que au moins deux des vecteurs
c1 ,c2 ,........ cn sont égaux.

4.4.2 Cas d’un espace vectoriel de dimension n


Soit E un espace vectoriel de dimension n muni d’une base B = (e1 , e2 , ....., en ) et soit une forme n-linéaire alternée
φ : En → K
Xn n
X n
X
c1 = ai1 ,1 ei1 , c2 = ai2 ,2 ei2 , ........., cn = ain ,n ein
i1 =1 i2 =1 in =1
 n n n

X X X 
φ(c1 , c2 , ......., cn ) = φ  ai1 ,1 ,
 ai2 ,2 ei2 , ........ ain ,n ein 
i1 =1 i2 =1 in =1
n X
n n
(4.7)
X X
= ....... ai1 ,1 ai2 ,2 ........ain ,n φ(ei1 , ei2 , .........., ein )

i1 =1 i2 =1 in =1

——————— 40 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.5. DÉTERMINANT D’UNE MATRICE CARRÉE

φ est aussi alternée. Ainsi, parmi les termes présents dans la somme (il y en a nn ), tous sont nuls sauf ceux pour lesquels
{i1 , i2 , ......i3 } ∈ σ ({1, 2, ......3})
X
φ(c1 , c2 , ........, cn ) = aσ(1),1 aσ(2),2 .....aσ(n),n φ(eσ(1) , eσ(2) , .......eσ(n) ) (4.8)

σ∈Sn

nous utilisons la notation suivante :


n
Y
aσ(i),i = aσ(1),1 × aσ(2),2 × ........... × aσ(n),n
i=1

finalement on obtient
n
  
 X Y 
φ(c1 , c2 , ........, cn ) = 

ε(σ) aσ(i),i  φ(e1 , e2 , .......en )
σ∈Sn i=1

Définition
√ 4.9. Soit E un K espace vectoriel de dimensionn ≥ 2 muni d’une base B = (e1 , e2 , ..., en ).
On appelle déterminant d’ordre n dans la base B l’unique forme n-linéaire alternée notée detB : E n → K
√ vérifiant : detB (e1 , e2 , ...., en ) = 1
Si, pour tout j ∈ {1, 2, ...., n}, les scalaires a1 j , a2 j , ....., an j désignent les coordonnées du vecteur c j dans la base
B alors
n
 
X  Y
det(c1 , c2 , ......., cn ) =

ε(σ)
 aσ(i),i 
B
σ∈Sn i=1

On note symboliquement :

a11 a12 ··· a1n


a21 a22 ··· a2n
det(c1 , c2 , c3 ) = . .. .. ..
B .. . . .
an1 an2 ··· ann

4.5 Déterminant d’une matrice carrée


On peut définir le déterminant d’une matrice carrée indépendamment de tout contexte vectoriel.

Définition 4.10. Soit A = (ai j )1≤,i, j≤n une matrice carrée d’ordre n ≥ 2 à coefficients dans K . On appelle déterminant de
A et on note det(A), le scalaire
n
 
X  Y
det(A) =

ε(σ)

 aσ(i),i 
σ∈Sn i=1

Par convention, si n = 1, c’est-à-dire si A = (a11 ), alors det(A) = a11


Le déterminant de la matrice A = (ai j )1≤,i, j≤n est aussi noté

a11 a12 ··· a1n


a21 a22 ··· a2n
det(A) = . .. .. ..
.. . . .
an1 an2 ··· ann

Le déterminant de A s’interprète alors comme le déterminant des vecteurs c1 , ..., cn de E par rapport à la base B :

det(A) = detB (c1 , c2 , ...., cn )

Théorème 4.4. Pour toute matrice A ∈ Mn (K)

det(t A) = det(A)

——————— 41 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.6. CALCUL DES DÉTERMINANTS CHAPITRE 4. DÉTERMINANTS

Exemple 4.6. Calcule de det(A) et det(t A) avec


0 0 0 1 0 

 1 0 0 0 0 

A =  0

0 0 0 1 

 0 1 0 0 0 
 

0 0 1 0 0

det(A) = det(e2 , e4 , e5 , e1 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1


det(t A) = det(e4 , e1 , e5 , e2 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1
Théorème 4.5. Soit A = (c1 , c2 , ........, cn ) ∈ Mn (K) a
Les vecteurs c1 ,...,cn forment une base de Kn si et seulement si det(A) , 0.
a. (c1 , c2 , ........, cn ) représente la matrice engendrée par les vecteurs colonne c1 , c2 , ........, cn

4.6 Calcul des déterminants


Définition 4.11. Soit A = (ai j )1≤,i, j≤n .
On appelle cofacteur de l’élément ai j le scalaire :

Co f (ai j ) = (−1)i+ j det(Ai j )

où Ai j est la matrice obtenue en supprimant la ième ligne et la jème colonne.

Exemple 4.7.
 1 0 −3 
 
A =  2 4 −2 , Co f (1) = + 4 −2 , Co f (0) = − 2 −2 = −16
 
−1 3 5 3
5 −1 3
 

REMARQUE. Le signe (−1)i+ j dans la définition de cofacteur est déterminé par le schéma suivant :
+ − + − ···
 
 − + − − · · · 
 
A =  + − + − · · · 
 
 − + − − · · · 
 
 .. .. .. .. 
. . . .
Théorème 4.6. On a les formules suivantes :
Développement du déterminant selon la jème ligne :

det(A) = a j1Co f (a j1 ) + a j2Co f (a j2 ) + ...................a jnCo f (a jn )

Développement du déterminant selon la jème colonne :

det(A) = a1 jCo f (a1 j ) + a2 jCo f (a2 j ) + ...................an jCo f (an j )

Exemple 4.8. Soit


 1 −2 3 
 
A =  2 1 0 
 
1 −1 2
 

Développons A selon la 3ème ligne


1 −2 3
−2 3 1 3 1 −2
2 1 0 = +1 − (−1) +2 = −3 − 6 + 10 = 1
1 0 2 0 2 1
1 −1 2

——————— 42 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.6. CALCUL DES DÉTERMINANTS

Développons A selon la 3ème colonne :

1 −2 3
2 1 1 −2
2 1 0 =3 +2 = −9 + 10 = 1
1 −1 2 1
1 −1 2

Proposition 4.7. Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute une combinaison
linéaire des autres lignes (respect, des autres colonnes).

Exemple 4.9.

1 −2 1 3 4 L1 1 −2 1 3 4 L1′ = L1

1 −1 0 2 4 L2 0 1 −1 −1 0 L2 = L2 − L1
∆= 2 1 3 1 2 L3 = 0 5 1 −5 −6 L3′ = L3 − 2L1
−1 0 1 1 3 L4 0 −2 2 4 7 L4′ = L4 + L1
0 1 −1 1 3 L5 0 1 −1 1 3 L5′ = L5

On développant selon la 1ère colonne :

c1 c2 c3 c4 c1 + c2 c3 + c1 c4
1 −1 −1 0 1 0 0 0
∆= 5 1 −5 −6 = 5 6 0 −6
−2 2 4 7 −2 0 2 7
1 −1 1 3 1 0 2 3

On développant selon la 1ère ligne :

6 0 −6
2 2
∆= 0 2 7 =6 2 3 = 6(7 − 14) = −48
0 2 3

Proposition 4.8. Pour qu’une matrice carrée soit inversible il faut et il suffit que son déterminant soit non nul.

Proposition 4.9.
Pour tous A, B ∈ Mn (K), on a
det(A × B) = det(A) × det(B)
En particulier, si A est inversible alors
1
det(A−1 ) =
det(A)
Si A et B sont semblables alors leurs déterminants ont la même valeur. En effet, supposer A et B semblables signifie
qu’il existe une matrice inversible P, d’ordre n et à coefficients dans K , telle que B = P−1 AP et on en déduit

det(P−1 AP) = det(P−1 ) det(A) det(P) = det(A)

Proposition 4.10. (Déterminant d’une matrice triangulaire) Le déterminant d’une matrice triangulaire (inférieure ou
supérieure) est égal au produit de ses coefficients diagonaux.

REMARQUES. -
(a) Une condition nécessaire et suffisante pour qu’une matrice triangulaire (supérieure ou inférieure) soit inversible
est que ses coefficients diagonaux soient tous non nuls.
(b) Pour tout α ∈ K et pour tout A, ∈ Mn (K),

det(αA) = αn det(A)

——————— 43 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS

Définition 4.12. (Déterminant d’un endomorphisme) Soit E un espace vectoriel et f un endomorphisme de E. On


appelle déterminant de f le déterminant de la matrice qui représente f dans une base (quelconque) de E :

det( f ) = det MB ( f )

B étant une base quelconque de E.

4.7 Applications
4.7.1 Calcul du rang d’une matrice
Définition 4.13. Soit A ∈ Mn,p (K) . On appelle déterminant d’ordre k extrait de A tout déterminant d’une matrice carrée
d’ordre k déduite de A par suppression de n − k lignes et de p − k colonnes.

Proposition 4.11. Soit A une matrice non nulle de Mn,p (K) . Le rang de A est le plus grand entier k tel qu’il existe un
déterminant non nul d’ordre k extrait de A.
Calculons le rang de la matrice rectangulaire 4 × 3 suivante :
1 2 0
3 2 2
 
A= 4 4 2
 
5 6 0

La matrice extraite obtenue en supprimant la première ligne a un déterminant non nul :


3 2 2
4 4 2 = −8 , 0
5 6 0

Ainsi, rg(A) = 3

4.7.2 Calcul de l’inverse d’une matrice


Théorème 4.12. Soit A ∈ Mn (K) et Co f (A) la comatrice de A, c’est-à-dire la matrice obtenue de A en remplaçant
chaque élément par son cofacteur. On a alors :
t
ACo f (A) =t Co f (A)A = det(A)I

En particulier, si A est inversible (c’est-à-dire det(A) , 0), on a :


t
Co f (A)
A−1 =
det(A)

1 2
!
Exemple 4.10. Soit A =
−1 3
on a det(A) = 5 ,= 0, donc A est inversible et on a
Co f (3) = 1, Co f (−1) = −2, Co f (2) = 1, Co f (1) = 3.
3 1 3 1
! !
Donc Co f (A) = et A−1 = 15
−2 1 −2 1
 1 2 0 
 
Exemple 4.11. Soit A= −1 3 0 , det(A) = −3 − 2 = −5 , 0. Donc A est inversible.
 
0 1 −1
 
Les cofacteurs des coefficients de la première ligne sont :
3 1 −1 0 −1 3
Co f (1) = = −3, Co f (2) = − = −1, Co f (0) = = −1
0 −1 0 −1 0 1

——————— 44 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.7. APPLICATIONS

Après calcul des autres cofacteurs, on trouve :


 −3 2 0 
 
−1 
A−1 =  −1 −1 0 
5 
−1 −1 5

4.7.3 Systèmes de Cramer


Définition 4.14. On appelle système de Cramer un système linéaire dont la matrice A est carrée et inversible. Il s’agit
donc d’un système de n équations en n inconnues de rang n :

a11 x1 + a12 x2 ..... + a1n xn = b1






 21 x1 + a22 x2 ..... + a2n xn
a = b2



(4.9)

................................. = ....






an1 x1 + an2 x2 ..... + ann xn = bn

Le système s’écrit sous forme matricielle : AX = b


Théorème 4.13. Théorème de Cramer : Un système de Cramer :

a11 x1 + a12 x2 ..... + a1n xn = b1






 a21 x1 + a22 x2 ..... + a2n xn = b2



(4.10)

................................. = ....






an1 x1 + an2 x2 ..... + ann xn = bn

(avec A = (a)1≤i, j≤n = (c1 , c2 , ....cn ), det(A) , 0))


admet toujours une et une seule solution, quel que soit le vecteur b = (b1 , b2 , ....bn ) solution donnée par les formules de
Cramer :
det(c1 , c2 , ....., ci−1 , b, ci+1 , ....cn )
xi =
det(A)
Exemple 4.12. Soit le système
2x1 − 5x2 + 2x3 = 7




x1 + 2x2 − 4x3 = 3





3x − 4x + 6x = 5

1 2 3

2 −5 2
det(A) = 1 2 −4 = 62
3 −4 6
Donc Le système est de Cramer.
Les formules de Cramer donnent :
7 −5 2 2 7 2 2 −5 7
118 58 46
x1 = 3 2 −4 = , x2 = 1 3 −4 =− , x3 = 1 2 3 =−
62 62 62
5 −4 6 3 5 6 3 −4 5
 t + 3 −1 1 
 
Exercice 4.1. Calculer le déterminant de A =  5 t − 3 1 
 

6 −6 t + 4
 

Exercice 4.2. Soit n ∈ N, n ≥ 2


Calculer
1 n ··· n
n 2 n n
..
∆n = n n 3 .
.. ..
. . ···
n n n n

——————— 45 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS

Exercice 4.3. Soient x, y et z trois nombres complexes. Calculer le déterminant

x+y y+z z+x


D(x, y, z) = x 2 + y2 y2 + z2 z2 + x 2
x 3 + y3 y3 + z3 z3 + x3

Exercice 4.4. 1. Soit v1 = (2, 1) et v2 = (1, 2), vérifier que (v1 , v2 ) forme une base de R3
2. Déterminer selon le paramètre du réel α si la famille de vecteurs de R3 suivante est libre ou liée

v1 = (4, −1, 3), v2 = (2, 2, 1), v3 = (α, 1, 1 − α)

3. Déterminer les valeurs du réel α pour lesquelles la matrice

 4 −1 3 
 
B =  2 2 1 
 

α 1 α−2
 

est inversible. Dans ce cas, calculer det(B−1 ) puis det(B−2 ) et det(B−3 ) (Sans calculer B−1 )
4. Soient v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0), v3 = (1, 0, 0, 1) trois vecteurs de R4
(a) Donner une base de F = vect(v1 , v2 , v3 )
(b) Soit u = (x, y, z, t) ∈ R3 . Monter que u ∈ F ⇔ y + z + t − x = 0

——————— 46 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5
RÉDUCTION DES ENDOMORPHISMES

5.1 Introduction
Soit Eun espace vectoriel et f un endomorphisme de E. Si B = (e1 , e2 , .......en ) une base de E, on peut construire la
matrice qui représente f dans cette base :

f (e1 ) ... f (en )



 a11 ... a1n  e1
MB ( f ) = .. .. ..  ..
 
 . . .  .
an1 ... ann en

On cherche des bases de E dans lesquelles la forme de la matrice est la plus simple possible, c’est-à-dire, par exemple,
diagonale ou, éventuellement, triangulaire. Plus précisément, on dira que f est diagonalisable s’il existe une base
B = (u1 , u2 , .....un ), telle que :
f (u1 ) . . . f (un )
 λ
 1 ... 0  u1
MB ( f ) = . . ..  ..

 .
 ..
 . .  .
0 ... λn un

On dira que f est trigonalisable s’il existe une base C = (v1 , v2 , .....vn ), de E telle que :

f (v1 ) ... f (vn ) f (v1 ) ... f (vn )



 a11 ... ⋇  v1 
 a11 ... 0  v1
MB ( f ) = .. .. ..  .. ou MB ( f ) = .. .. ..  ..
   
 . . .  .  . . .  .
0 ... ann vn ⋇ ... ann vn

Le problème qui nous occupe est double :


1. Caractériser les endomorphismes diagonalisables (ou trigonalisables).
2. Déterminer effectivement, si elles existent, les bases dans lesquelles la matrice est diagonale ou triangulaire.
Puisque deux matrices A et A′ liées par la relation A′ = P−1 AP représentent le même endomorphisme en des bases
différentes, le problème s’énonce ainsi :
1. Caractériser les matrices A ∈ Mn (K) pour lesquelles il existe P ∈ Mn (K) inversible, telles que A′ = P−1 AP soit
diagonale (respectivement : triangulaire).
2. Déterminer effectivement P et A′ .

47
5.2. SOMME DIRECTE (RAPPELS ) CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

Deux polynômes jouent un rôle essentiel dans la réduction des endomorphisme, ce sont le polynôme caractéris-
tique et le polynôme minimal. Ces deux polynômes sont d’ailleurs reliés l’un à l’autre, comme nous le verrons.
Un polynôme P ∈ K[X] non constant, de degré n ≥ 1, est dit scindé, ou scindé sur K, s’il est produit de
polynômes de degré 1. Si c’est le cas, on peut écrire

P(x) = a(X − α1 )(X − α1 ).........(X − αn )

où a ∈ K∗ est le coefficient de X n et α1 , α2 , ............. αn ∈ K


Les αi ne sont pas nécessairement distincts.
Notons {λ1 ,1 , ......., λ p } l’ensemble des racines de P. Alors P s’écrit ainsi :

P(X) = a(X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p

5.2 Somme directe (rappels )


Définition 5.1. Soient E1 , E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme de E1 et E2 le
sous-espace de E défini par :

E1 + E2 = {x ∈ E/∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 }

Proposition 5.1. Soient E1 et E2 deux sous-espaces vectoriels de E, et soit F = E1 + E2 . La décomposition de tout


élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement si E1 E2 = {0E }. On
T
écrit alors :
F = E1 ⊕ E2
et on dit que F est somme directe de E1 et E2

Théorème 5.2. Soit E un espace vectoriel de dimension finie. Alors :

E = E1 ⊕ E1 ⇔ E1 ∩ E2 = {0E } et dim E = dim E1 + dim E2

Exemple 5.1. Dans R3 , soient E1 = vect{(u(1, 0, 0)} et E2 = vect{(0, 1, 0)}


On vérifie que
E1 ∩ E2 = {(0, 0, 0)} et dim(E1 + E2 ) = dim E1 + dim E2

Donc, la somme est directe


E1 ⊕ E2 = R × R × {0}

Théorème 5.3. Soient E1 ,..., E p des sous-espaces vectoriels d’un même espace vectoriel E. Alors ces espaces sont en
somme directe si et seulement si pour toutes bases B1 , B2 ,.....B p de E1 ,..., E p respectivement, la réunion des bases B1 ,
B2 ,..., B p qui est une famille libre.
En d’autres termes, E = E1 ⊕ E2 ⊕ ...... ⊕ E p si et seulement si pour toutes bases B1 , B2 ,.....B p , la famille (B1 , .....B p ) est
une base de E

Corollaire 5.1. Soit E un espace vectoriel.


E = E1 ⊕ E2 ⊕ ...... ⊕ E p , si et seulement si :
1. E = E1 + E2 + ...... + E p
2. dim E = dim E1 + dim E2 + ...... + dim E p

Exemple 5.2. Dans R3 soient E1 = vect{(1, 0, 0)}, E2 = vect{(0, 1, 0)} et E3 = vect{(0, 0, 1)}
On vérifie que
R3 = E1 + E2 + E3 et dim(E1 + E2 + E3 ) = dim E1 + dim E2 + dim E3 = 3

Donc, la somme est directe


E1 ⊕ E2 ⊕ E3 = R × R × R

——————— 48 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES5.3. ELÉMENTS PROPRES D’UN ENDOMORPHISME

5.3 Eléments propres d’un endomorphisme


5.3.1 Valeurs propres et vecteurs propres
Définition 5.2. Soit f un endomorphisme d’un K-espace vectoriel E. On appelle valeur propre de f tout scalaire λ ∈ K
pour lequel il existe un vecteur u non nul de E tel que :

f (u) = λu

Ce vecteur u non nul de E se nomme vecteur propre de f associé à la valeur propre , et le couple (λ, u) ∈ K × E \ {0E },
se nomme élément propre de f .

Exemples 5.3. -
1. Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
On considère l’endomorphisme f de E défini par

f (e1 ) = e1 − e2 − e3




f (e2 ) = −e1 + e2 − e3





 f (e ) = −e − e + e .

3 1 2 3

Le vecteur u1 = e1 + e2 + e3 est un vecteur propre de f associé à la valeur propre λ1 = −1, car

f (u) = f (e1 + e2 + e3 ) = −(e1 + e2 + e3 ) = −u

Les deux vecteurs u2 = e1 − e3 et u3 = e2 − e3 sont deux vecteurs propres de f associés à la valeur propre λ = 2 puisque

f (u2 ) = 2(e1 − e3 ) = 2u2


(

f (u3 ) = 2(e2 − e3 ) = 2u3

2. Soit f l’application linéaire


C ∞ (R) → C∞ (R)
φ 7→ φ′

Toute application de la forme x 7→ eλx est vecteur propre de f associé à la valeur propre λ ∈ R car, pour tout ∈ R

(eλx )′ = λeλx

L’ensemble des valeurs propres de f est donc l’ensemble R. Remarquons que cet ensemble est infini.

5.3.2 Caractérisation des valeurs propres


Soit idE : x ∈ E 7−→ x ∈ E l’application identité de E. Soient λ ∈ R une valeur propre de l’endomorphisme f de E
et u un vecteur propre associé à λ.
On a les équivalences suivantes :

f (u) = λu ⇐⇒ ( f − λidE )(u) = 0E ⇐⇒ u ∈ ker( f − λidE )

Proposition 5.4. Soient E un K- espace vectoriel et f un endomorphisme de E. Une condition nécessaire et suffisante
pour que λ ∈ R soit valeur propre de f est que l’endomorphisme f − λidE ne soit pas injectif.

Proposition 5.5. Soient E un K-espace vectoriel et f un endomorphisme de E et (λ, u) ∈ K × E \ {0E } un élément


propre de f . Alors, pour tout k ∈ N ∗ , (λk , u) est un élément propre de f k où

f k = f ◦ f ◦ ...... ◦ f
| {z }
k fois

De plus, si f est bijectif alors λ , 0 et (λ−1 , u) est un élément propre f −1

——————— 49 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.4. RECHERCHE DES VALEURS PROPRES CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

5.4 Recherche des valeurs propres


Proposition 5.6. (Polynôme caractéristique) Soit f ∈ L(E) où E est un espace vectoriel de dimension finie n. Les
valeurs propres de f sont les racines du polynôme :

P f (λ) = det(M f − λI)

— P f est un polynôme de degré n en λ appelé polynôme caractéristique de f


— M f est la matrice de f dans une base quelconque de E
Exemple 5.4. Soit f l’endomorphisme qui, dans la base canonique, est représenté par la matrice
1 2
!
A=
−1 4
On a :
1−λ 2
P f (λ) = det(A − λI) = = (λ − 2)(λ − 3)
−1 4−λ
Donc, les valeurs propres de f sont λ1 = 2 et λ2 = 3
— Si A = MB ( f ), P f (λ) sera noté aussi PA (λ)

— L’ensemble des valeurs propres!de f est dit spectre de f et est noté S p ( f )


2 1
— Par exemple, si A = , alors
−5 −2

2−λ 2
PA (λ) = = λ2 + 1
−5 −2 − λ

Si K = R, A n’a pas de valeurs propres. Donc S p (A) = ∅


Si K = C, A admet deux valeurs propres ı et ı2 . Donc S p (A) = {ı, ı2 }
Soit E un espace vectoriel de dimension n et soit f ∈ L(E), alors f admet au plus n valeurs propres.
Si P f (X) est scindé dans K, il s’écrit :
P f (X) = (−1)n (X − λ1 )(X − λ2 )......................(X − λn )
où λ1 , λ2 ......λn ∈ K sont les valeurs propres de f
On peut écrire P f sous la forme :
P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ......................(X − λ p )m p
avec m1 , m2 , ................m p les multiplicité respectivement de λ1 , λ2 ......λ p
Soit A ∈ Mn (K), on a les propriétés suivantes :

trA = λ1 + λ2 + ..............λn

PA (0) = det(A) = λ1 .λ2 ...............λn


∀X ∈ K, PA (X) = (−1)n X n + (−1)n−1 trAX (n−1) + ......... + det(A)
1 2
!
Exemple 5.5. si A = , alors
3 4
det(A − λI) = λ2 − λtr(A) + det(A) = λ2 − 5λ − 2

5.5 Sous-espaces propres


Définition 5.3. Soient f un endormorphisme d’un K-espace vectoriel E et λ ∈ K une valeur propre de f . On appelle
sous-espace propre associé à λ, et on note Eλ le sous-espace vectoriel de E constitué des vecteurs propres associés à λ et
du vecteur nul. Autrement dit,
Eλ = {x ∈ E | f (x) = λx} = ker( f − λidE )

——————— 50 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.5. SOUS-ESPACES PROPRES

5.5.1 Recherche des vecteurs propres


Une fois calculées les valeurs propres on détermine les vecteurs propres en résolvant, dans le cas où la dimension
est finie, le système (A − λI)v = 0
1 2
!
Soit f l’endomorphisme de R3 qui dans la base canonique est défini par .
−1 4
Les valeurs propres sont λ1 = 2 et λ2 = 3.
Il existe donc deux vecteurs propres v1 et v2 tels que :

f (v1 ) = λ1 v1 et f (v2 ) = λ2 v2

Calcul de v1
 x
 
Notons v1 =  ,
y
−1 2  x
! 
(A − 2I)v1 = 0 ⇔   = 0
−1 2 y

ce qui donne le système


−x + 2y = 0
(

−x + 2y = 0

2
!
la solution est engendrée par v1 = ⇒ Eλ1 = vect{(2, 1)}
1
Calcul de v2
 x
 
Notons v2 =  
y
−2x + 2y = 0
(
(A − 3I)v2 = 0 ⇔
−2x + 2y = 0

1
!
la solution est engendrée par v2 = ⇒ Eλ2 = vect{(1, 1)}
1
On vérifié que B′ = (v1 , v2 ) est une base de R2 ,

2 1
det(v1 , v2 ) = =1,0
1 1

2 0
!
M( f )B =
0 3
La matrice de passage de B = (e1 , e2 ) à B′ = (v1 , v2 )

2 1
!
P=
1 1

On vérifie facilement que


2 0
!
= A′ = P−1 AP
0 3

5.5.2 Dimension d’un sous-espace propre


Pour déterminer dim Eλ , il suffit d’appliquer le théorème du rang à l’endomorphisme f − λidE

dim E = rg( f − λidE ) + dim ker( f − λidE ) = rg( f − λidE ) + dim Eλ

dim Eλ = dim E − rg( f − λidE )

——————— 51 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.5. SOUS-ESPACES PROPRES CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

Exercice 5.1. Soit E un R-espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
Soit f ∈ L(E) :
f (e1 ) = e1 − e2 − e3




f (e2 ) = −e1 + e2 − e3





 f (e ) = −e − e + e

3 1 2 3

1. Donner le polynôme caractéristique de f et déduire S p ( f )


2. Déterminer les sous-espaces propres Eλi
Solution de l’exercice 5.1. –
1. La matrice associée à f est
 1 −1 −1 
 
A =  −1 1 −1 
 
−1 −1 1
 

Le polynôme caractéristique de A est donné par

1−λ −1 −1
PA (λ) = det(A − λI) −1 1−λ −1 = −(λ + 1)(λ − 2)2
−1 −1 1−λ

Les valeurs propres de f sont λ1 = −1 et λ2 = 2.


Donc
S p (A) = {−1, 2}
2. (a) Détermination du sous-espace propre Eλ1
On doit résoudre (A − (−1)I3 )X = 0, c’est-à-dire :

 2 −1 −1  x1   0 


    

 −1 2 −1  x2  =  0 


    
−1 −1 2 x3 0
Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant :

2x1 − x2 − x3 = 0




(S )  −x1 + 2x2 − x3 = 0




−x − x + 2x = 0

1 2 3

En utilisant la méthode du pivot de Gauss, ce système est équivalent au système échelonné suivant :

2x1 − x2 − x3 =0




′ 
(S )  3x2 − 3x3 =0



0=0

deux variables principales x1 et x2 et un libre est x3 donc dimension de l’espace solution égale à

dim ker( f − λ1 idE ) = dimEλ1 = 1.

(ou bien rg(A − (−1)I3 ) = 2, c’est à dire dim Eλ1 = 3 − 2 = 1)


Soit x3 = µ, donc x1 = x2 =3 = µ. Ainsi,

Eλ1 = ker( f − λ1 idE ) = vect(1, 1, 1)

(b) Détermination du sous-espace propre Eλ2


On doit résoudre (A − 2I3 )X = 0, c’est-à-dire :

 − −1 −1  x1   0 


    

 −1 − −1  x2  =  0 


    
−1 −1 − x3 0

——————— 52 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.6. DIAGONALISATION

Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant :

x1 + x2 + x3 =0




(S )  0=0




0=0

deux variables libres x2 et x3 et et un principale est x1 donc dimension de l’espace solution égale à

dim ker( f − λ1 idE ) = dim Eλ1 = 2.

Soient x2 = λ, x3 = µ, d’où x1 = −λ − µ

(x1 , x2 , x3 ) = (−λ − µ, λ, µ) = λ(−1, 1, 0) + µ(−1, 0, 1)

Ainsi, Eλ2 = vect{(v1 , v2 )} avec v1 = (−1, 1, 0) et v2 = (−1, 0, 1)


De plus (v1 , v2 ) est une base de Eλ2
On remarque que
dim Eλ1 + dim Eλ2 = dim E
| {z } | {z } |{z}
=1 =2 =3

puisque Eλ1 ∩ Eλ2 = {0E }, on en déduit que


E = Eλ1 ⊕ Eλ2
On vérifie que C = (v1 , v2 , v3 ) est une base de E avec

v1 = −e1 + e2 , v2 = −e1 + e3 , v3 = e1 + e2 + e3

la matrice de f dans la base C est :


 2 0 0 
 
A′ =  0 2 0 
 
0 0 −1
 

On a aussi A′ = P−1 AP, avec P la matrice de passage de B à C :

 −1 −1 1 
 
P =  1 0 1 
 
0 1 1
 

5.6 Diagonalisation
5.6.1 Diagonalisation d’un endomorphisme
Comme nous l’avons vu dans l’exemple 5.4, tous les endomorphismes d’un K espace vectoriel E n’admettent pas
nécessairement de valeurs propres (et donc de vecteurs propres).

Définition 5.4. Soit E un K-espace de dimension finie ou infinie. Un endomorphisme f de E est dit diagonalisable sur
K s’il existe une base de E formée de vecteurs propres de f . Diagonaliser f , c’est trouver une telle base.
Soit E espace vectoriel de dimension n et considérons un endomorphisme f ∈ L(E).
Supposons f diagonalisable. D’après la définition 5.4, il existe une base notée C = (u1 , u2 , ........un ) constituée de
vecteurs propres de f
Il existe donc n valeurs propres, comptées avec leurs multiplicités et notées λ1 , λ2 , ........λn ∈ K telles que

f (u1 ) = λ1 u1 , f (u2 ) = λ2 u2 , , ............. f (un ) = λn un

f (u1 ) ... f (un )


 λ
 1 ... 0  u1
MatC ( f ) =  .. .. ..  .. = Diag(λ1 , λ2 , ......λn )

 . . .  .
0 ... λn un

——————— 53 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

Définition 5.5. Soit A une matrice de Mn (K). On dit que A est diagonalisable si elle est semblable à une matrice
diagonale, c’est-à-dire s’il existe une matrice inversible P d’ordre n sur K, et s’il existe une matrice diagonale D d’ordre
n sur K, telles que
D = P−1 AP
Soit A la matrice définie dans l’exercice 5.1
 1 −1 −1 
 
A =  −1 1 −1 
 
−1 −1 1
 

PA (λ) = −(λ + 1)(λ − 2)2


1. Les valeurs propres de A sont λ1 = −1 (simple) et λ2 = 2 (double) .
2. Les vecteurs propres de A sont : v1 = (−1, 1, 0), v2 = (−1, 0, 1) et v3 = (1, 1, 1)

 2 0 0 
 
 0 2 0  = P−1 AP
 
0 0 −1
avec P la matrice de passage de B à C = (v1 , v2 , v3 ) :

Théorème 5.7. Soit f ∈ L(E) et λ1 ,..., λ p les valeurs propres de f .


Alors les propriétés suivantes sont équivalentes :
1. f est diagonalisable
2. E est somme directe des espaces propres E = Eλ1 ⊕ Eλ2 ⊕ ............. ⊕ Eλ p
3. dim E = dim Eλ1 + Eλ2 + ............. + Eλ p

Corollaire 5.2. Si f admet n valeurs propres deux à deux distinctes alors f est diagonalisable.
Corollaire 5.3. Soient E un K-espace de dimension n et f un endomorphisme de E. Soient λ1 ,..., λ p les valeurs
propres distinctes de f de multiplicités respectives m1 , m2 , ..............., m p et Eλ1 , Eλ2 , ...........Eλ p les sous-espaces propres
correspondants.
Une condition nécessaire et suffisante pour que f soit diagonalisable est que

m1 + m2 + ....... + m p = n, ∀ ∈ {1, 2, .....p}, dimEλi = mi


 2 1 0 
 
A) Soit A = 0 1 −1  ∈ M3 (R)
 
0 2 4
 
PA (λ) = −(λ − 1)2 (λ − 3)
1. Les valeurs propres de A sont λ1 = 1 (double) et λ2 = 3 (simple).
2. Les sous espaces propres : Eλ1 = vect{(1, 2, −2)} et Eλ2 = vect{(1, 0, 0)}

dim Eλ1 + dim Eλ1 = 2 , dim R3 = 3


Donc, la matrice A n’est pas diagonalisable.
B) La matrice A de l’exercice 5.1 est diagonalisable :

PA (λ) = −(λ + 1)(λ − 2)2 = −(λ + 1)m1 (λ − 2)m2

dim Eλ1 = m1 = 1 et dim Eλ2 = m2 = 2


dim Eλ1 + dim Eλ2 = 1 + 2 = 3

5.6.2 Polynômes annulateurs


Soit E un espace vectoriel sur K et P ∈ K[X]

P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0

——————— 54 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.6. DIAGONALISATION

Si f ∈ L(E), on note P( f ) l’endomorphisme de E défini par :

P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 idE

Soit f un endomorphisme de E. Nous nous intéresserons par la suite aux polynômes P ∈ K[X], non nuls tels que
P( f ) = 0.
Par exemple, si f est un projecteur (c’est-à-dire f 2 = f ), on a f 2 − f = 0, donc le polynôme P(X) = X 2 − X
vérifie P( f ) = 0

Définition 5.6. Soit E un espace vectoriel sur K et soit f ∈ L(E). Un polynôme P ∈ K[X] est dit annulateur de f si
P( f ) = 0.

Exemple 5.6. E un espace vectoriel sur R soit f un endomorphisme de E tel que f 3 = f .


Le polynôme P(X) = (X 3 − X) = X(X − 1)(X + 1) est annulateur de f

Proposition 5.8. Soit P un polynôme annulateur de f . Alors les valeurs propres de f figurent parmi les racines de P,
c’est-à-dire :
S p( f ) ⊂ Rac(P)

Démonstration. Si λ est une valeur propre de f , il existe un vecteur v non nul tel que f (v) = λv. On a

f 2 (v) = f ( f (v)) = f (λv) = λ2 v


f 3 (v) = λ3 v
... = ....
f (v) = λk v
k

Soit P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0 un polynôme tel P( f ) = 0, c’est-à-dire vérifiant :

P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 id = 0

En prenant l’image du vecteur v par l’endomorphisme on trouve :

(am f m + am−1 f m−1 + ............ + a1 f + a0 id)v = 0

c’est-à-dire
(am λm + am−1 λm−1 + ............ + a1 λ + a0 id)v = 0

Or v , 0, donc
am λm + am−1 λm−1 + ............ + a1 λ + a0 id = 0

c’est-à-dire P(λ) = 0 cqfd

REMARQUE. Toutes les racines de P ne sont pas nécessairement valeurs propres de f .


Si E = R2 et B = (e1 , e2 ) la base canonique de R2 et f = id.
f vérifie f 2 = id, donc Q(X) = !X(X − 1) est annulateur de f
1 0
On a A = MatB ( f ) = et PA (λ) = (1 − λ)2
0 1
0 racine de Q mais n’est pas valeur propre de f

5.6.3 Théorème de Cayley-Hamilton


Théorème 5.9. Soit f ∈ L(E) et P f le polynôme caractéristique de f . On a alors

Pf ( f ) = 0

——————— 55 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

f (e1 ) = 2e1
(
2 2
Exemple 5.7. Si E = R et B = (e1 , e2 ) la base canonique de R et f ∈ L(E) tel que
f (e2 ) = 3e2
On a :
2 0
!
A = MatB ( f ) = , PA (λ) = (2 − λ)(3 − λ), PA ( f ) = f 2 − 5 f + 6id
0 3
PA ( f )(e1 ) = f 2 (e1 ) − 5 f (e1 ) + 6e1 = 4e1 − 10e1 + 6e1 = 0
(

PA ( f )(e2 ) = f 2 (e2 ) − 5 f (e2 ) + 6e2 = 9e1 − 15e1 + 6e2 = 0


Ainsi PA ( f ) = 0
Proposition 5.10. Soit f un endomorphisme et

P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p

le polynôme caractéristique. Alors, si f est diagonalisable, le polynôme Q(X) = (X − λ1 )(X − λ2 )...............(X − λ p ),


annule f .

Proposition 5.11. Soit f un endomorphisme d’un K espace vectoriel E de dimension finie. Supposons f non identique-
ment nul. Si f est nilpotent a alors f n’est pas diagonalisable.
a. Un endomorphisme f de E est dit nilpotent s’il existe un entier naturel non nul k tel que f k = 0.

5.6.4 Polynôme minimal


Définition 5.7. On appelle polynôme minimal de f -noté m f (X)- le polynôme normalisé a annulateur de f de degré le
plus petit.
a. Le premier coefficient = 1

Proposition 5.12. Les racines de m f (X) sont exactement les racines de P f (X), c’est-à-dire les valeurs propres, mais
avec une multiplicité en général différente. En d’autres termes, si on considère P f (X) scindé, c’est-à-dire si

P f (X) = (−1)n (X − λ1 )α1 (X − λ2 )α2 ...............(X − λ p )α p , avec : λi , λ j , α1 + α2 + ...... + α p = n

alors
m f (X) = (X − λ1 )β1 (X − λ2 )β2 ...............(X − β p )β p , avec : 1 ≤ βi ≤ αi
Exemples 5.8. -

 0 1 2 
 
1. Soit A =  1 0 2 .
 
1 2 0
 
On a
PA (X) = −(X + 1)(X + 2)(X − 3)
Donc
mA (X) = (X + 1)(X + 2)(X − 3)
 −1 1 1 
 
2. A =  1 −1 1 
 
1 1 −1
 
PA (X) = −(X − l)(X + 2)2 .
On a donc
mA (X) = (X − 1)(X + 2) ou mA (X) = (X − 1)(X + 2)2
Calculons (A − I)(A + 2I) ; si l’on trouve la matrice nulle le polynôme minimal sera le premier, si non ce sera le
second.
 −2 1 1  1 1 1   0 0 0 
    
(A − I)(A + 2I) =  1 −2 1  1 1 1  =  0 0 0 
    
1 1 −2 1 1 1 0 0 0
    

Donc :
mA (X) = (X − 1)(X + 2)

——————— 56 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.7. TRIGONALISATION

Théorème 5.13. Un endomorphisme f est diagonalisable si et seulement si son polynôme minimal est scindé et il a
toutes ses racines simples.

Exemples 5.9. 1. On a vu dans l’exemple 5.8

 −1 1 1 
 
A =  1 −1 1  et mA (X) = (X − 1)(X + 2)
 
1 1 −1
 

Donc A est diagonalisable.

2.
 3 2 −2 
 
A =  −1 0 1  et PA (X) = −(X − 1)3
 
1 1 0
 

donc
mA (X) = (X − 1) ou (X − 1)2 ou (X − 1)3
si A est diagonalisable
mA (X) = (X − 1) ⇔ A − I = 0.
Comme A , I, donc A n’est pas diagonalisable.

3.
 3 −1 1 
 
A =  2 0 1  et PA (X) = −(X − 1)(X − 2)2
 
1 −1 2
 

donc
mA (X) = (X − 1)(X − 2) ou mA (X) = (X − 1)(X − 2)2
A est diagonalisable
⇔ mA (X) = (X − 1)(X − 2) ⇔ (A − I)(A − 2I) = 0

Or (A − I)(A − 2I) , 0, doc A n’est pas diagonalisable

5.7 Trigonalisation
Définition 5.8. Soit E un K espace de dimension finie. Un endomorphisme f de E est dit trigonalisable s’il existe une
base de E relativement à laquelle la matrice de f est triangulaire.

Définition 5.9. Une matrice A de Mn (K) est dite trigonalisable si elle est semblable à une matrice triangulaire,
c’est-à-dire s’il existe une matrice P inversible et s’il existe une matrice triangulaire T telle que

T = P−1 AP

Théorème 5.14. Un endomorphisme est trigonalisable dans K si et seulement si son polynôme caractéristique est
scindé dans K .

Corollaire 5.4. Toute matrice A ∈ Mn (C) est semblable à une matrice triangulaire de Mn (C) .

Démonstration. Soit B = (e1 , e2 , ....en ) une base de E.


Supposons que l’endomorphisme f est trigonalisable
a ··· ∗ 
 11 
 . . .
MB ( f ) =  .. . . .. 

 
0 · · · ann

——————— 57 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.7. TRIGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

On a
a11 − λ ··· ∗
P f (λ) = .. .. .. = (a11 − λ)(a22 − λ).............(ann − λ)
. . .
0 ··· ann − λ
donc P f (λ) est scindé (Les éléments de la diagonale aii sont les valeurs propres).
Réciproquement supposons P f (λ) scindé et montrons par récurrence que f est trigonalisable.
Supposons le résultat vrai à l’ordre n − 1, (n ≥ 2).
Puisque P f (λ) est scindé, il admet au moins une racine λ ∈ K et donc il existe au moins un vecteur propre ϵ1 ∈ Eλ
Complétons {ϵ1 } en une base : {ϵ1 , ϵ2 , ........ϵn }
On a : λ b ··· b 
 2 n
 
 
 0 
MB ( f ) =    où B ∈ Mn−1 (K)
 . 
.
 . B 
 
0
Soit F = vect{ϵ2 , ϵ3 , ........, ϵn } et g un endomorphisme de F tel que

Mat{ϵ2 ,ϵ3 ,........,ϵn } (g) = B

cqfd

——————— 58 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
Références
., J.-M. et FRAYSSE, H. (1990). Cours de mathématiques - 4 Algèbre bilinéaire et
géométrie. Dunod.
Arnaudiès., J., ., P. D. et Fraysse, H. (1994). Exercices résolus d’algèbre du cours de
mathéntatiaues 1. DUNOD.
Gostiaux, B. (1993). Cours de mathèmatiques spèciales : Tome 1 Algébre. Presses
universitaires de France.
GRIFONE, J. (2011). Algèbre linéaire. 4 édition.

LAC., S. B. et STURM, F. (2009). Algèbre et analyse Cours de mathèmatiques de pre-


miére annvec exercices corriges. Presses polytechniques et universitaires romandes.
Ramis, J.-P. et Warusfel, A. (2007). Mathématiques Tout-en-un pour la Licence 2 :
Cours complet avec applications et 760 exercices corrigès. DUNOD.
Roudier, H. (2008). Algèbre linéaire, Cours et exercices : CAPES et agrégation externe
et interne. VUIBERT.
VOEDTS, J. (2002). Cours de Mathèmatiques MP-MP∗. ellipes.

Vous aimerez peut-être aussi