M22 Cours
M22 Cours
MIPC-S 2 : FST-Tanger
1. Matrices
2. Système d’équations linéaires
3. Applications linéaires
4. Déterminants
5. Réduction des Endomorphismes
2021-2022
Table des matières
2 Etude d’un système d’équations linéaires par la méthode du pivot ou méthode d’élimination de Gauss 11
2.1 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Matrice échelonnée en lignes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Cas des systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5 Utilisation pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot . . . . . . . . . . . . . . . . . . . . 17
3 Applications linéaires 19
3.1 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 Image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.2 Noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Matrices associées à une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Matrice d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.7.1 Propriétés des matrices de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7.2 Application au calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7.3 La matrice associée à une application linéaire bijective est-elle inversible ? . . . . . . . . . . 32
4 Déterminants 33
4.1 Groupe des permutations d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Inversions d’une permutation. Calcul de la signature . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2.1 Forme bilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2
TABLE DES MATIÈRES TABLE DES MATIÈRES
A) Propriété d’antisymétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
B) Intérêt d’une forme bilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2.2 Cas d’un espace vectoriel de dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.1 Forme trilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.2 Cas d’un espace vectoriel de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.1 Forme multilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.2 Cas d’un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.6 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.1 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.2 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7.3 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
——————— 3 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
TABLE DES MATIÈRES TABLE DES MATIÈRES
AVANT-PROPOS
Le présent polycopié s’adresse aux étudiants de la filière MIPC (Mathématiques, Informatique, Physique et Chimie)
deuxième semestre. Des exemples sont introduits et des exercices sont accompagnés de leurs solutions pour que l’étudiant
s’y entraine. Ce polycopié est divisé en cinq chapitres :
——————— 4 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1
MATRICES : DÉFINITION ET
VOCABULAIRE
On appelle matrice, de type (n,p) à coefficients dans IK, la donnée d’un tableau noté
a . . . a1 j . . . a1p
11
. . ..
. ..
. . .. .
A = ai1 . . . ai j . . . aip
.. .. .. ..
. . . .
an1 . . . an j . . . anp
— Les ai j sont des scalaires du corps K
— Les p, n-uplet horizontaux (a11 , a12 , . . ., a1n ), (a21 , a22 , . . ., a2n ), . . ., (a p1 , an2 , . . ., a pn ) sont les lignes de A.
a a a
11 12 1p
a a
21 , 22 , . . ., a2p sont les colonnes de A.
— Les n, p uplet verticaux
. . . . . . . . .
an1 an2 anp
— L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K).
— Si p = n on note Mn,n (K) = Mn (K) et on parle de matrices carrées d’ordre n.
— Le coefficient ai j se trouve à l’intersection de la i-ème ligne et de la j-ème colonne de la matrice A
0 5 −2
1 −3 4
! ! !
Ses lignes sont (1, −3, 4), (0, 5, −2) et ses colonnes sont , ,
0 5 −2
5
1.1. MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES
— La somme de A et B, écrite A + B, est la matrice obtenue en ajoutant les éléments correspondants des deux
matrices :
a + b . . . a1 j + b1 j . . . a1p + b1p
11 11
.
.. .. .. ..
. . .
A + B = ai1 + bi1 . . . ai j + bi j . . . aip + bip
.. .. .. ..
. . . .
an1 + bn1 . . . an j + bn j . . . anp + bnp
— La somme de deux matrices de type différents n’est pas définie.
— Le produit d’une matrice A par un scalaire k, noté kA
ka . . . ka1 j . . . ka1p
11
. . ..
. ..
. . .. .
kA = kai1 . . . kai j . . . kaip
.. .. .. ..
. . . .
kan1 . . . kan j . . . kanp
Propriétés 1.1. Soient A, B, C ∈ Mn,p (K) et k1 , k2 ∈ K.
Les principales propriétés des matrices se déduisant de l’addition et de la multiplication par un scalaire sont :
1. (A + B) + C = A + (B + C)
2. A + 0 = A
3. A + (−A) = 0
4. A + B = B + A
5. k1 (A + B) = k1 A + k1 B
6. (k1 + k2 )A = k1 A + k2 A
1 -2 3 3 0 2
! !
Soient A = et B = Alors :
4 5 -6 -7 1 8 !
1 + 3 −2 + 0 3+2 4 −2 5
!
Addition : A+B = =
4−7 5+1 −6 + 8 −3 6 2
——————— 6 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.1. MATRICES À N LIGNES ET P COLONNES
1 0 0
Ainsi, pour n = 3, I3 = 0 1 0 est la matrice identité d’ordre 3.
0 0 1
Exemples 1.3. 1. Compte tenu de ce!qui précède, on définit le produit de deux matrices A1 et A2 de M2 (K) de la
a1 b1 a2 b2
!
manière suivante : si A1 = et A2 = , on pose :
c1 d1 c2 d2
a1 a2 + b1 c2 a1 b2 + b1 d2
!
A1 A2 =
c1 a2 + d1 c2 c1 b2 + d1 d2
1 0
!
2. La matrice identité I2 = est l’élément neutre de M2 (K) pour la multiplication :
0 1
∀A ∈ M2 (K), AI = IA = A
3. Le produit de deux matrices n’est pas commutatif et que le produit de deux matrices non nulles peut être égal à la
1 1 1 1
! !
matrice nulle. Soit par exemple : A = et B = .
0 0 −1 −1
AB = 02,2 et BA = B, alors que A , I2 et que B2 = B × B = 02,2
Définition 1.4. -
On définit d’abord le produit d’une matrice ligne L de type (1, n) et d’une matrice colonne Cde type (n,1) :
b
1
L = (a1 , ..., an ) , C = ...
bn
on pose :
n
X
LC = ai bi (1.1)
i=1
Définition 1.5. On définit ensuite le produit de deux matrices A et B (AB) lorsque le nombre de colonnes de A est égal
au nombre de lignes de B, de la manière suivante : si A ∈ Mn,m (K) et B ∈ Mm,p (K). AB est la matrice de Mn,p (K) dont
le terme indexé par (i, j) est égal au produit de la i-ème ligne de A et de la j-ème colonne de B.
Autrement dit, C = AB si et seulement si ∀(i, j) ∈{1,2,.., n}×{1,2,..., p}
m
X
ci j = Ligi (A)Col j (B) = ai,k bk, j (1.2)
k=1
——————— 7 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
1.2. ESPACE VECTORIEL DES MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES
B : p lignes q colonnes
b11 ... b1 j ... b1q
.. .. .. .. ..
. . . . .
bk1 bk j bkq
... ...
j
b1
×
1
.. .. .. ..
ai
..
+
..
. . . . .
.+
j
bk
× b p1 ... bp j ... b pq
a ik
+
..
.+
j
bp
×
a ip
a11 ... a1k ... a1p
c11 ... c1 j ... c1q
.. .. .. .. .. .. .. .. .. ..
. . . . .
. . . . .
ai1 ... aik ... aip ci1 ... ci j ... ciq
.. .. .. .. .. .. .. ..
.. ..
. .
. . . . . . . .
an1 ... ank ... anp
cn1 ... cnk ... cnq
Propriétés 1.2.
A(BC) = (AB)C, ∀A ∈ M p,n (K), ∀B ∈ Mn,q (K), ∀C ∈ Mq,m (K)
——————— 8 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.3. TRANSPOSÉE D’UNE MATRICE
Exercice 1.1. On considère l’ensemble E des matrices carrées d’ordre 3 défini par :
a b b
E= M(a, b) = b a b , a ∈ R, b ∈ R
b b a
1. Montrer que Eest un sous-espace vectoriel de l’espace vectoriel des matrices carrées d’ordre 3.
1 0 0 0 1 1
2. Justifier que les matrices I = 0 1 0 et J = 1 0 1 forment une famille génératrice de E.
0 0 1 1 1 0
a 2a + b a 3a + b
( !) ( !)
Exercice 1.2. Soient F = A ∈ M2 (R)| et G = A ∈ M2 (R)|
−b −a −b −2a + b
Montrer que M2 (R) = F ⊕ G.
1 2 0 1
! !
Solution de l’exercice 1.1. Base de F : { A1 , A2 } avec A1 = , A2 =
0 -1 -1 0
1 3 0 1
! !
Base de G : { B1 , B2 } avec B1 = , B2 =
0 -2 -1 1
Montrer que {A1 , A2 , B1 , B2 } est une famille libre.
ai j = b ji
Exemple 1.4. Si √
1 2 i + 1
A = 0 3 2
0 0 −1
alors
√1 0 0
t
A = 2 3 0
i + 1 2 −1
——————— 9 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
1.4. QUELQUES TYPES CLASSIQUES DE MATRICES CHAPITRE 1. MATRICES
√
1 2 i+1
Exemple 1.5. A = 0 3 2 ∈ M3 (C) est une matrice triangulaire supérieure.
0 0 -1
√1 0 0
B = 2 3 0 = t A est une matrice triangulaire inférieure.
i+1 2 -1
√
√1 2 i
Exemple 1.6. A = 2 0 4 est une matrice symétrique.
√ i 4 -1
0 2 -4
√
B = - 2 0 -3 est une matrice antisymétrique.
4 3 -1
A0 = In et ∀k ∈ N, Ak+1 = Ak A
3. Si AB = BA, alors :
(AB)k = Ak Bk
n
X
(A + B)n = Cnk Ak Bn−k ((Formule du binôme))
k=0
n
X
An − Bn = (A − B) Bk−1 An−k
k=1
n
4. In − An+1 = (In − A) Ak
P
k=0
——————— 10 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 1. MATRICES 1.5. INVERSE D’UNE MATRICE CARRÉE
1. On suppose que AB est une matrice nilpotente. Prouver que BA l’est également.
2. On suppose que A et B sont nilpotentes et que AB = BA. Démontrer que A + B est également nilpotente.
AA′ = A′ A = In
1 2 3 −2
! !
Exemple 1.8. A = est inversible et son inverse est : A−1 =
1 3 −1 1
Proposition 1.4. Une matrice diagonale Diag(λ1 , ..., λn ) est inversible si et seulement si le produit de ses termes
diagonaux est différent de 0. L’inverse en est alors la matrice diagonale Diag(λ−1 −1
1 , ..., λn )
——————— 11 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2
ETUDE D’UN SYSTÈME D’ÉQUATIONS
LINÉAIRES PAR LA MÉTHODE DU PIVOT
OU MÉTHODE D’ÉLIMINATION DE GAUSS
Les ai j et les bi sont des éléments de K, donnés. Les xi sont dites "inconnues" et résoudre le système signifie déterminer
les xi ∈ K, s’ils existent, ils vérifient toutes les équations.
Le système linéaire (2.1) s’écrit sous la forme d’une équation matricielle (équivalente au système) AX = b
x b
a11 ··· a1 j ··· a1p 1 1
. .
.. .. ..
.. .. ..
. . . .
A = ai1 ··· ai j ··· aip X = xi et b = bi .
.. .. .. .. . ..
. . . . .. .
an1 ··· an j ··· anp xp bn
12
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.2. MATRICE ÉCHELONNÉE EN LIGNES
2 1 −2 3 1 L1
(A|b) = 3 2 2 4 L2
−1
3 3 3 5 L3
−3
La première équation du système (2.1) commence par un coefficient non nul, ce qu’on peut toujours faire en changeant
éventuellement l’ordre des équations (première opération élémentaire). Ce coefficient non nul est dit pivot. (Dans
système (2.2), le pivot est 2).
La méthode du pivot est fondée sur la remarque suivante :
Propriété 2.1. L’ensemble des solutions d’un système linéaire ne change pas si l’on effectue sur les équations les «
opérations élémentaires» suivantes :
1. Changer l’ordre des équations ;
2. Multiplier une équation (premier et second membre ) par un scalaire non nul ;
3. Ajouter à une équation une combinaison linéaire des autres équations.
2 1 −2 3 1 L1
3 2 −1 2 4 L2
3 3 3 5 L3
−3
On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients encadrés. L’ensemble des
solutions n’a pas changé.
2 1 −2 3 1 L1 ← L1
0 1 4 −5 5 L2 ← 2L2 − 3L1
0 3 12 −15 7 L3 ← 2L3 − 3L1
2 1 −2 3 1 L1 ← L1
0 1 4 −5 5
L2 ← L2
0 0 0 0 −8 L3 ← L3 − 3L2
——————— 13 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
√
12 4
Exemple 2.3. La matrice 0 2 4 est une matrice échelonnée.
0
0 −1
√
1 2
4
Alors que la matrice 0 0 4 n’est pas échelonnée.
0 0
−1
1 −3 6 2
Exemple 2.4. La matrice A = 2 −5 10 3 se réduit en sa forme échelonnée en lignes par les pivotages
3 −8 17 4
1 −3 6 2 L1 ← L1 1 −3 6 2 L1 ← L1
0 1 −2 −1 L2 ← L2 − 2L1 ⇔ 0 1 −2 −1 L2 ← L2
0 1 −1 −2 L3 ← L3 − 3L1 0 0 1 −1 L3 ← L3 − L2
1 3 2
Pour la matrice B = 1 4 1 , on a :
0 1 −1
1 3 2 L1 ← L1 1 3 2 L1 ← L1
0 1 −1 L2 ← L2 − L1 ⇔ 0 1 −1 L2 ← L2
0 1 −1 L3 ← L3 0 0 0 L3 ← L3 − L2
Définition 2.1. Un système d’équation matricielle AX = b avec A ∈ Mn,p (K), X ∈ M p,1 (K) et b ∈ Mn,1 (K) est dit
rectangulaire. En particulier, il est dit :
— échelonné si la matrice A est échelonnée,
— carré si la matrice A est carrée,
— triangulaire si la matrice A est triangulaire,
— diagonal si la matrice A est diagonale.
Dans ce cas, il n’y a pas de solution : on dit que le système est incompatible.
(b) Il n’y a pas d’équation du type (2.3) : S’il existe une équation du type :
a11 a12 ··· ··· a1s ··· a1p b1
.. .. ..
0 . . .
0 air aip bi
.. ..
0 . .
0 ··· ··· ··· ans ··· anp bn
——————— 14 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE
où les coefficients encadrés (ceux qui sont au début de chaque équation) sont tous non nuls.
Les inconnues qui apparaissent au début de chaque équation (celles correspondantes aux coefficients encadrés) sont
dites inconnues principales, les autres (s’il y en a) variables libres.
1 2 −3 4 L1
1 3 1 11 L2
La matrice augmentée :
2 5 −4 13 L3
4 11 0 37 L4
1 2 −3 4 L1 1 2 −3 4 L1
0 1 4 7 L2 ← L2 − L1 ⇒ 0 1 4 7 L2
0 1 2 5 L3 ← L3 − 2L1 0 0 −2 −2 L3 ← L3 − L2
0 3 12 21 L4 ← L4 − 4L1 0 0 0 0 L4 ← L4 − 3L2
Il n’y a pas de variable libre, donc le système admet une solution unique x = 1, y = 3, z = 1.
B-Il y a des variables libres : On donne alors aux variables libres des valeurs arbitraires λ1 ,..., λm , on porte les λi au
second membre et l’on est ramené au cas précédent, il existe alors une et une seule solution pour chaque choix de λ1 ,...,
λm , c’est-à-dire, une infinité de solutions dépendante de m paramètres (m = nombre des variables libres).
t − 3x + 4y − 2z = 5
Exemple 2.6. Résoudre le système t − x + 9y − z = 7
t − 2x + 7y − 2z = 9
1 −3 4 −2 5 L1
La matrice augmentée :
1 −1 9 −1 7 L2
1 −2 7 −2 9 L3
1 −3 4 −2 5 L1 ← L1 1 −3 4 −2 5 L1 ← L1
0 2 5 1 2 L2 ← L2 − L1 ⇒ 0 2 5 1 2 L2 ← L2
0 1 3 0 4 L3 ← L3 − L1 0 0 1 −1 6 L3 ← 2L3 − L2
t, x et y sont les inconnues principales et z la variable libre. En donnant à z une valeur arbitraire λ :
Donc, z = λ, y = λ + 6, x = −3λ − 14, t = −11λ − 61 Ainsi, le système admet une infinité de solutions à 1 paramètre :
——————— 15 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.4. CAS DES SYSTÈMES LINÉAIRES HOMOGÈNES CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
Théorème 2.1. L’ensemble des solutions d’un système linéaire homogène à n inconnues est un sous-espace vectoriel
de Kn . Si le système sous forme échelonnée comporte k équations, l’espace des solutions est de dimension n − k. En
particulier un système homogène avec plus d’inconnues que d’équations (n > k) admet des solutions non nulles.
REMARQUE. La dimension de l’espace des solutions est égale au nombre de variables libres qui apparaissent dans la
forme échelonnée.
Exemple 2.7.
x1 + 2x2 − 3x3 + x4 − x5 = 0
x1 + 3x2 − 4x3 + x5 = 0
2x + 5x − 7x
+ x5 = 0
1 2 3
x1 + 2x2 − 3x3 + x4 − x5 = 0
(
x2 − x3 − x4 + 2x5 = 0
1 2 −3 1 −1 0
(A|b) = 0
1 −1 −1 2 0
0 0 0 0 0 0
Les variables libres sont x3 , x4 et x5 , l’ensemble des solutions est donc un sous-espace vectoriel de dimension 3 de R5 .
La solution générale est :
x1 = λ − 3µ, x2 = λ + µ − 2ν, x3 = λ, x4 = µ, x5 = ν
c’est-à-dire :
——————— 16 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.5. UTILISATION PRATIQUE
Définition 2.2. Soit (υ1 , ......, υ p ) une famille de vecteurs de E. On appelle matrice engendrée par les vecteurs υi dans
la base {ei } (ou plus simplement : matrice des vecteurs υi ) la matrice dont les lignes sont les composantes des vecteurs
υ1 , ......υ p dans la base ei
Exemple 2.8. La matrice engendrée par les vecteurs υ1 = (1, 1, 1, 0, 0), υ2 = (−3, 1, 0, 1, 0), υ3 = (5, −2, 0, 0, 1) dans la
base canonique de R5
1 1 1 0 0 υ1
−3 1 0 1 0 υ2
5 −2 0 0 1
υ3
Corollaire 2.1. Les vecteurs lignes d’une matrice et les vecteurs lignes de sa réduite échelonnée engendrent le même
espace vectoriel.
Le résultat suivant donne la clé de la méthode :
Théorème 2.3. Soit (υ1 , ......, υ p ) une famille de vecteurs, A la matrice engendrée (dans une base quelconque) et A′
une réduite échelonnée de A. Alors les lignes non nulles de A′ donnent une base de Vect(υ1 , ......, υ p )
2.6 Applications
A- Extraire une base d’une famille génératrice et déterminer les relations liant les vecteurs.
Exercice 2.1. υ1 = (1, 1, 0, −1), υ2 = (−1, 1, 1, 0), υ2 = (0, 2, 1, −1) trois vecteurs.
1. Déterminer une base du sous-espace de R4 engendré par ces vecteurs.
2. Déduire le rang de la matrice engendrée par les vecteurs ligne υ1 , υ2 et υ3
3. Trouver une relation entre υ1 , υ2 et υ3
Définition 2.3. Le rang de la matrice A, que l’on écrit rg(A), est la valeur commune du rang ligne et du rang colonne de
A.
——————— 17 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
2.6. APPLICATIONS CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
d’où rg(A) = 2.
La forme échelonné de A (en colonnes)
1 0 0 0
′
A = 1 1 0 0
1 −2 0 0
1 1 1 1 0 0 L1
1 3 5 0 1 0 L2
−2 −2 1 0 0 1 L3
Puis on fait des opérations élémentaires sur les lignes de manière à mettre la partie gauche sous forme échelonné réduite :
——————— 18 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.6. APPLICATIONS
1 1 1
A = 1 3 5
−2 −2 1
La forme échelonné de A
1 1 1
0 2 4
0 0 1
rgA = 3, donc A est inversible
REMARQUE. Soient A une matrice d’ordre n inversible et A−1 son inverse. La propriété d’inversibilité d’une matrice
carrée A = (ai j )1≤i, j≤n d’ordre n équivaut à l’existence de n2 scalaires a′i j , 1 ≤ i, j ≤ n (ce sont les coefficients de la
matrice inverse de A vérifiant :
a . . . a . . . a a′11 . . . a′1 j . . . a′1n
11 1j 1n
1 . . . 0 . . . 0
.
. . . . .. .. .. . . . .. .. . . .. ..
. . . . . .. . . . . .
′ ′ ′
a a a a . . . a . . . a =
0 1 0
. . . . . . . . . . . .
i1 ij in
i1
ij in
.
. . .
.. .. . . .. .. .. . . .. .. .. . . ..
. . . . . . . .
0 . . . 0 . . . 1
an1 . . . an j . . . ann ′ ′ ′
an1 . . . an j . . . ann
1 si i = j
δi j =
0 si i , j
Le calcul de A−1 peut donc être mené en résolvant successivement, pour j variant de 1 à n,
′
a
11 . . . a1 j . . . a1n a1 j 0
. .. . .
.. . . .
.. . ..
. . .
′
ai1
. . . ai j . . . ain ai j = 1 ← j-ième ligne
. . .
.
.. ..
.. . .. .. ..
.
0
an1 . . . an j . . . ann ′
an j
dont les inconnues sont les n scalaires a′1 j , a′2 j , ..............a′n j (ce sont les coefficients de la j-ième matrice-colonne extraite
de A−1 .
——————— 19 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3
APPLICATIONS LINÉAIRES
3.1 Application
Soient A et B deux ensembles quelconques. Supposons qu’à chaque a ∈ A on associe un élément unique de B ;
l’ensemble de ces correspondances est appelé une application de A dans B et on l’écrit
f : A −→ B
(a) Si A′ est un sous-ensemble quelconque de A, alors f (A′ ) est l’ensemble des images des éléments de A′ :
f (A′ ) = { f (a); a ∈ A′ }
(b) Si B′ est un sous-ensemble de B, alors f −1 (B′ ) est l’ensemble des éléments de A dont les images appartiennent à
B′ :
f −1 (B′ ) = {a ∈ A; f (a) ∈ B′ }
Exemple 3.1. Soient A = {a, b, c, d} et B = {x, y, z, w}. Le diagramme suivant définit une application f de A dans B :
20
CHAPITRE 3. APPLICATION LINÉAIRE 3.2. APPLICATIONS LINÉAIRES
x
Donc si v = y , alors :
z
x − 3y + 5z
!
f (v) = Av =
2x + 4y − z
.
Définition 3.1. (Applications injectives) Rappelons qu’une application entre deux ensembles f : A −→ B est dite
injective si, pour tous x et x′ de A distincts, on a f (x) , f (x′ ). On sait que, pour les démonstrations, il est souvent plus
pratique de montrer que, pour tout x et x′ de A, si f (x) = f (x′ ), alors x = x′ .
Définition 3.2. (Applications surjective) Une application f : A −→ B est dite surjective si chaque b ∈ B est l’image
d’au moins un a ∈ A (∀b ∈ B, ∃a ∈ A, f (a) = b)
Une application qui est à la fois injective et surjective est dite bijective.
Exercice 3.1. Soient les applications f : A −→ B ; g : B −→ C et h : C −→ D définies par le diagramme
f (v + w) = f (v) + f (w), ∀ v, w ∈ E
(3.1)
f (λv) = λ f (v), ∀v ∈ E, ∀λ ∈ K.
——————— 21 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.2. APPLICATIONS LINÉAIRES CHAPITRE 3. APPLICATION LINÉAIRE
Démonstration. En effet, ( f + g)(u + v) = f (u + v) + g(u + v) = f (u) + f (v) + g(u) + g(v) = ( f + g)(u) + ( f + g)(v) De
même, ( f + g)(λu) = λ( f + g)(u). cqfd
f : R3 −→ R2
v 7−→ Av
g: R3 −→ R2
v 7−→ Bv
Soient u, v ∈ R3 . On pose h = f + g.
Proposition 3.2. (Composée d’applications linéaires) La composée de deux applications linéaires est linéaire.
Démonstration. Soient f : E −→ F et g : F −→ G. deux applications linéaires. Pour tout u et tout v de E, pour tout λ
de R, on a :
1. go f (u + v) = g( f (u + v)) = g( f (u) + f (v)) = g( f (u)) + g( f (v)) = go f (u) + go f (v),
2. go f (λu) = g( f (λu)) = g(λ f (u)) = λg( f (u)) = λgo f (u).
cqfd
Définition 3.5 (Endomorphisme). On appelle endomorphisme de E, une application linéaire de E dans E (même
espace de départ et d’arrivée). L’ensemble des endomorphismes de E est noté L(E)
On appelle isomorphisme de E sur F une application linéaire bijective de E dans F.
Exemple 3.6.
idE : E −→ E
x 7−→ x
Exemple 3.7.
f : R2 −→ R2
(x1 , x2 ) 7−→ (2x1 + x2 , x2 )
est un endomorphisme
——————— 22 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE
Proposition 3.3. (Image d’espace engendré) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire.
1) Soit (u1 , ..., u p ) une famille de vecteurs de E. Alors :
2) Soit (u1 , ..., u p ) une famille génératrice de vecteurs de E, par exemple une base de E. Alors
Proposition 3.4. Soit f : E −→ F une application linéaire et F un sous-espace vectoriel de E. L’image par f d’un
sous-espace vectoriel G de E est un sous-espace vectoriel de F noté f (G). En particulier, ℑ f = f (E) est un sous-espace
vectoriel de F.
Démonstration. Soient v et v′ dans f (G) et λ, µ deux réels. Il existe deux éléments u et u′ de G, tels que f (u) = ν et
f (u′ ) = v′ . Il faut montrer que λv + µv′ est dans f (G), ce qui résulte de :
λv + µv′ = λ f (u) + µ f (u′ ) = f (λu + µu′ ). cqfd
Proposition 3.5. Soit f : E −→ F une application linéaire injective. L’image d’une famille libre de E est une famille
libre de F.
——————— 23 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATION LINÉAIRE
Démonstration. Soient u et u′ dans le noyau de f et λ, µ deux réels. Il faut montrer que λu + µu′ est dans ker( f ), ce qui
résulte de :
f (λu + µu′ ) = λ f (u) + µ f (u′ ) = 0 + 0 = 0.
cqfd
x2 + x3 − 2x4 = 0
Les inconnues libres sont x3 et x4 ; donc dim(ker f = 2.
Pour x3 = −1, x4 = 0 on obtient la solution υ1 = (2, 1, −1, 0)
Pour x3 = 0, x4 = 1 on obtient la solution υ2 = (1, 2, 0, 1)
Ainsi, (υ1 , υ2 ) est une base de ker f
Proposition 3.7. (Critère d’injectivité) Soient f : E −→ F une application linéaire. L’application linéaire f est injective
si et seulement si ker f = {0}.
Démonstration. Supposons f injective. On sait que f (0) = 0 ; aucun autre élément de E ne peut avoir pour image 0,
donc ker( f ) = 0. Réciproquement, si u et u sont deux vecteurs ayant la même image : f (u) = f (u′ ), on a : f (u − u′ ) = 0,
donc u − u′ ∈ ker f = {0}, donc u = u′ . cqfd
Le système échelonné :
x1 − x2 − 23 = 0
x2 =0
− 2x3 =0
zéro inconnue libre, donc ker f = {0}
Démonstration. Il s’agit de montrer que la famille ( f (u1 ), f (u2 ), ..... f (u p )) est libre.
Supposons que
λ1 f (u1 ) + λ2 f (u2 ) + ..... + λ f (u p ) = 0
. L’application f étant linéaire, on a :
f (λ1 u1 + λ2 u2 + ..... + λ p u p ) = 0
. Comme le ker f = {0}, on a
λ1 u1 + λ2 u2 + ..... + λ p u p = 0,
la famille (u1 , u2 , .....u p ) étant libre, ainsi, λ1 = λ2 = .......λ p = 0. cqfd
——————— 24 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.4. RANG D’UNE APPLICATION LINÉAIRE
f : R4 −→ R3
(x1 , x2 , x3 , x4 ) 7−→ (x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 )
1 1 1 f (e1 )
0 1 f (e2 )
A = −1
1 2 3
f (e3 )
1 −1 −3 f (e4 )
réduisons cette matrice par des opérations élémentaires sur les lignes à sa forme échelonnée :
1 1 1 υ1
0 1 2 υ2
0 0 0
0 0 0
p: R5 −→ R5
(x, y, z, s, t) 7−→ (x, 0, z, 0, t)
Théorème 3.8. (Théorème du rang :) Soient E, F deux espaces vectoriels de dimension finie, et f : E −→ F une
application linéaire. Alors ker f et Im f sont des espaces vectoriels de dimension finie et :
dim E = dim ker f + rg f .
Démonstration. Comme ker f est un sous-espace vectoriel de l’espace de dimension finie E, il est de dimension finie.
Posons dim E = n et soit (u1 , ..., ur ) une base de ker f . On peut compléter cette base en une base (u1 , .ur ..un ) de E.
Montrons que β = ( f (ur+1 ), ..., f (un )) est une base de Im f .
On sait que β est une famille génératrice de Im f . β est aussi une famille libre de Im f , car si :
On a :
f (λr+1 ur+1 + ............ + λn un ) = 0,
donc :
λr+1 ur+1 + ............ + λn un ∈ ker( f ),
——————— 25 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATION LINÉAIRE
Donc :
λ1 u1 + ............ + λr ur − λr+1 ur+1 − ............ − λn un = 0.
Tous les coefficients de cette égalité sont nuls car (u1 , ..., ur , ..., un) est une base de E, donc β est une famille libre de
Im( f ). Par conséquent, B est une base de Im f . Comme elle a n − r éléments et que dim ker f = r. On conclut que
cqfd
f : R4 −→ R3
(x1 , x2 , x3 , x4 ) 7−→ (x1 − x2 + x3 , 2x1 + 2x2 + 6x3 + 4x4 , −x1 − 2x3 − x4 )
x1 − x2 + x3 =0
(x1 , x2 , x3 , x4 ) ∈ ker( f ) ⇔ f ((x1 , x2 , x3 , x4 )) = (0, 0, 0) ⇔ 2x1 + 2x2 + 6x3 + 4x4 = 0
−x − 2x3 − x4 = 0
1
x1 − x2 + x3 =0
(
⇔
x2 + x3 + x4 = 0
Deux inconnues libres (x3 et x4 ) et deux inconnues principales (x1 et x2 ), donc
Propriété 3.1. Soit f ∈ L(E, E ′ ), E, E ′ étant deux espaces vectoriels de même dimension finie (en particulier, par
exemple, si f ∈ L(E), avec E de dimension finie). Alors les propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
——————— 26 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE
Exemple 3.12. Soit {ϵ1 , ϵ2 } la base canonique de R2 et B = {e1 , e2 , e3 } la base canonique de R3 . On considère
l’application linéaire
f : R3 −→ R2
(x, y, z) 7−→ (x − y, z − y)
on a :
f (e1 ) = f (1, 0, 0) = (1, 0) = ϵ1
f (e2 ) = f (0, 1, 0) = (−1, −1) = −ϵ1 − ϵ2
f (e3 ) = f (0, 0, 1) = (0, 1) = ϵ2
Donc :
f (e1 ) f (e2 ) f (e3 )
1 −1 0 ϵ1
MB,B′ ( f ) =
0 −1 1 ϵ2
Exemple 3.13. Soient E un espace vectoriel de dimension 2 muni de la base BE = (e1 , e2 ) et F un espace vectoriel de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ).
Soit f l’application linéaire : f : E −→ F définie par :
f (e1 ) = 2 f1 + 3 f2 − f3 , f (e2 ) = f1 − f2 + 4 f3
f (e1 ) f (e2 )
2 1 f1
MBE ,BF ( f ) =
3 −1 f2
−1 4 f3
Soient
CE = (e2 , e1 ) et CF = ( f3 , f2 , f1 )
Rappelons que l’ordre des vecteurs a une importance dans la définition d’une famille. Ainsi,
f (e2 ) f (e1 )
4 −1 f3
MCE ,CF ( f ) =
−1 3 f2
1 2 f1
f : R3 −→ R3
(x1 , x2 , x3 ) 7−→ (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )
Proposition 3.9. Soit A une matrice rectangulaire. Si f est une application linéaire de E dans F, avec E un espace
vectoriel muni d’une base BE et F un espace vectoriel muni d’une base BF , telle que A = MatBE ,BF ( f ) alors :
rgA = rg f
——————— 27 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.6. MATRICE D’UNE COMPOSÉE CHAPITRE 3. APPLICATION LINÉAIRE
Exemple 3.14. Soient E un espace vectoriel de dimension 4 muni de la base BE = (e1 , e2 , e3 , e4 ), F un espace de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ) et G un espace de dimension 2 muni de la base BG = (g1 , g2 ). On considère
l’application linéaire f de E dans F définie par
f (e1 ) = 2 f1 − 5 f2 + 7 f3
f (e2 ) = f1 − 2 f2 + 3 f3
f (e3 ) = 2 f1 − 3 f2 − 4 f3
f (e4 ) = 6 f1 − 2 f2 − 3 f3
ψ( f1 ) = 2g1 − 3g2
ψ( f2 ) = 2g1 − 2g2
ψ( f ) = g1 + g2
3
2 1 2 6
2 2 1
MatBE ,BF ( f ) = −5 −2 −3 −2 , MatBF ,BG (ψ) =
3 −2 1
7 3 −4
−3
2 1 2 6
2 2 1 1 1 −6 5
−5 −2 −3 −2 =
3 −2 1 23 10 8 19
7 3 −4
−3
x1
z1 1 1 −6 5 x2
=
z2 23 10 8 19 x3
x4
z1 = x1 + x2 − 6x3 + 5x4
(
Proposition 3.10. Soient E, F, G trois espaces vectoriels de dimensions finies, f et g deux applications linéaires.
f : E −→ F et g : F −→ G Alors
rggo f ≤ min(rg( f ), rg(g))
En particulier,
— Si f est surjective alors rg(go f ) = rg(g).
— Si g est injective alors rg(go f ) = rg( f ).
——————— 28 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES
Définition 3.9 (Matrice de passage). Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. On appelle
matrice de passage de BE à C E la matrice carrée d’ordre n dont la j-ième colonne est formée des coordonnées dans BE
du j-ième vecteur de la base C E .
Avec les notations utilisées, la matrice de passage de BE à C E est donc la matrice P définie par :
u1 ... un
p ... p1n e1
11
P= .. .. .. ..
. . . .
pn1 ... pnn en
Exemple 3.15. On munit l’espace R3 de la base BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et de
la base CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
On a
u1 = e1 − e3 , u2 = e1 − e2 , u3 = e1 + e2 + e3
La matrice P de passage de BR3 à CR3
u1 u2 u3
1 1 1 e1
P=
0 −1 1 e2
−1 0 1 e3
——————— 29 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.7. CHANGEMENT DE BASES CHAPITRE 3. APPLICATION LINÉAIRE
REMARQUES. (a) Une matrice de passage P est nécessairement inversible puisque c’est la matrice associée à une
application bijective.
(b) si Q = MatC E ,BE (idE ) et P = MatBE ,CE (idE ), alors :
Proposition 3.12. Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. Si P est la matrice de
passage de BE à C E alors P−1 , la matrice inverse de P, est la matrice de passage de C E à BE .
Exemple 3.16. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
On a
u1 = e1 − e3 e1 = 1/3(u1 + u2 + u3 )
u2 = e1 − e2 e2 = 1/3(u1 − 2u2 + u3 )
⇒
u3 = e1 + e2 + e3 e3 = 1/3(−2u1 + u2 + u3 )
e1 e2 e3
1 1 −2 u1
Q = MatCR3 ,BR3 = 1/3
0 −2 1 u2
1 1 1 u3
u1 u2 u3
1 1 1 e1
P = MatBR3 ,CR3 =
0 −1 1 e2
−1 0 1 e3
On voit que l’on a effectivement Q = P−1 en vérifiant l’une des deux égalités PQ = QP = I3
Interprétons A comme la matrice de passage d’une base BE = (e1 , e2 , e3 ) à une base C E = (u1 , u2 , u3 ), ce qui revient à
écrire le système :
u1 = e2
u2 = e1 − e2 − e3
u = −2e − 2e
3 2 3
——————— 30 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES
e1 = u2 − 1/2u3
e2 = u1
e3 = −u1 − 1/2u3
On obtient finalement :
0 1 −1
1 0 0
A−1 = MatCR3 ,BR3 =
−1/2 0 −1/2
Proposition 3.13 (Changement de bases pour un vecteur). Soit E un espace vectoriel muni des bases BE et C E . Si X
et X’ désignent les matrices-colonnes des coordonnées de x dans les bases respectives BE et C E et P est la matrice de
passage de BE à C E alors
X = PX ′
Exemple 3.17. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
Considérons le vecteur x = (3, 6, 9) de R3 .
On note x1′ , x2′ , x3′ les coordonnées de x dans la nouvelle base CR3 = (u1 , u2 , u3 ) x = x1′ u1 + x2′ u2 + x3′ u3
1 x1′ 3
1 1
0 −1 1 x2′ = 6
0 1 x3′ 9
−1
| {z } | {z } |{z}
=P =X ′ =X
REMARQUE. Attention, il ne faut pas écrire ”x = (−3, 0, 6)”. C’est faux car (−3, 0, 6) représente le vecteur −3e1 + 6e3 .
Théorème 3.14. Soient E un espace vectoriel muni des deux bases BE et C E , F un espace vectoriel muni des deux bases
BF et C F . Soit f une application linéaire de E dans F. Alors les deux matrices A = MatBE ,BF ( f ) et B = MatCE ,CF ( f )
toutes les deux du même type, vérifient l’égalité matricielle :
B = Q−1 AP
——————— 31 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
3.7. CHANGEMENT DE BASES CHAPITRE 3. APPLICATION LINÉAIRE
A = MatBE ,BF ( f )
(E, BE ) (F, BF )
(E, C E ) (F, C F )
B = MatCE ,CF ( f )
On retrouve l’égalité matricielle :
A = MatB ( f )
(E, B) (E, B)
(E, C) (E, C)
B = MatC ( f )
On retrouve l’égalité matricielle :
f : R3 −→ R3
(x1 , x2 , x3 ) 7−→ (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )
On considère dans R3 les deux bases BR3 = (e1 , e2 , e3 ) et CR3 = (u1 , u2 , u3 ) avec
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) et u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1)
On a :
f (e1 ) = 2e1 + e2 + e3
f (e2 ) = e1 + 2e2 + e3
f (e ) = e + e + 2e
3 1 2 3
——————— 32 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 3. APPLICATION LINÉAIRE 3.7. CHANGEMENT DE BASES
On a aussi :
f (u1 ) = u1
f (u2 ) = u2
f (u ) = 4u
3 3
1 1 1 1 1 −2
P= et P−1 = 1/3
0 −1 1
1 −2 1
−1 0 1 1 1 1
| {z } | {z }| {z }| {z }
B P−1 A P
Proposition 3.15. Une application linéaire f d’un espace E de dimension finie dans un F de même dimension est
bijective si et seulement si, la matrice carrée associée à f relativement à des bases quelconques BE de E et BF de F, est
inversible. Si f est bijective alors
MatBE ,BF ( f ) −1 = MatBE ,BF ( f −1 )
——————— 33 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4
DÉTERMINANTS
si σ = (4 1 3 2) et σ′ = (2 3 4 1), alors
σ ◦ σ′ = (4 1 3 2) ◦ (2 3 4 1) = (1 3 2 4)
Définition 4.1 (Transposition). La permutation qui échange i et j et laisse les autres éléments invariants est appelée
transposition et est notée τi, j .
34
CHAPITRE 4. DÉTERMINANTS 4.2. DÉTERMINANT D’ORDRE 2
1 2 3 1 2 3 1 2 3
! ! !
— trois transpositions : τ2,3 = , τ1,3 = et τ1,2 = ;
1 3 2 !3 2 1 ! 2 1 3
1 2 3 1 2 3
— deux permutations circulaires : c1 = et c2 = .
2 3 1 3 1 2
Ainsi, S3 = {Id, τ1,2 , τ1,3 , τ2,3 , c1 , c2 }.
Théorème 4.1. (Décomposition d’une permutation en produit de transpositions :) Soit n > 1. Toute permutation σ de
{1, 2, ........n} peut s’écrire comme un produit de transpositions.
2−4 2−3 2−1 4−3 4−1 3−1 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)
ε(σ) = × × × × × = (−1)4 =1
1−2 1−3 1−4 2−3 2−4 3−4 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)
1 2 3 4
!
Exemple 4.3. σ =
2 4 3 1
Les inversions de σ sont les paires {1, 4}, {2, 3}, {2, 4} et {3, 4}.
Les paires {1, 2} et {1, 3} ne sont pas des inversions (voire la table 4.1)
——————— 35 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.2. DÉTERMINANT D’ORDRE 2 CHAPITRE 4. DÉTERMINANTS
Exemples 4.4. -
1. L’application φ : R3 × R3 7→ R définie pour x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 )
φ(x, y) = x1 y1 + x2 y2 + x3 y3
φ(x, y) = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4
est une forme bilinéaire sur E = R4 . où c désigne un paramètre réel, est une forme bilinéaire. Cette forme bilinéaire
qui intervient dans la théorie de la relativité est nommée forme de Lorentz 1
3. L’application φ : R2 7→ R définie pour x = (x1 , x2 ) et y = (y1 , y2 )
φ(x, y) = x1 y2 − x2 y1
φ(x, x) = x1 x2 − x2 x1 = 0
A) Propriété d’antisymétrie
Soit φ : E × E → K, une forme bilinéaire alternée. et soient c1 , c2 ∈ E.
Puisque φ est alternée
φ(c1 + c2 , c1 + c2 ) = 0
Or, φ étant bilinéaire, on a :
Ainsi,
φ(c1 , c2 ) = −φ(c2 , c1 )
Le signe de φ(c1 , c2 ) change lorsque l’on permute les deux vecteurs c1 et c2 . On dit que φ est antisymétrique.
α α
φ(c1 , c2 ) = φ(c1 , − c1 ) = − φ(c1 , c1 ) = 0
β β
——————— 36 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.3. DÉTERMINANT D’ORDRE 3
Définition 4.5. Soient E un espace vectoriel de dimension 2 muni d’une bas B = (e1 , e2 ).
√
On appelle déterminant d’ordre 2 dans la base B l’unique forme bilinéaire alternée notée detB : E × E → K vérifiant :
detB (e1 , e2 ) = 1
√
Si c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2 alors
On note symboliquement :
det(c1 , c2 ) = 2 10 = 2 × 5 − 3 × 10 = −20
B 3 5
——————— 37 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.3. DÉTERMINANT D’ORDRE 3 CHAPITRE 4. DÉTERMINANTS
φ est alternée
φ(c1 , c2 , c3 ) = a11 a12 a13 φ(e1 , e1 , e1 ) +a11 a12 a23 φ(e1 , e1 , e2 ) +...........
| {z } | {z }
=0 =0
On ne considère que les termes où les indices i1 , i2 et i3 sont tous les trois distincts. Autrement dit, on ne considère que
les termes pour lesquels {i1 , i2 , i3 } = σ({1, 2, 3}) avec σ une permutation de l’ensemble {1, 2, 3} (σ ∈ S3 )
3! = 6 permutations possibles de l’ensemble{l, 2, 3} . Elles s’écrivent :
1 2 3 1 2 3 1 2 3 1 2 3
! ! ! !
σ1 = id{1,2,3} = ; σ2 = τ1,2 = ; σ3 = τ2,3 = , σ4 = τ1,3 =
1 2 3 2 1 3 1 3 2 3 2 1
——————— 38 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.3. DÉTERMINANT D’ORDRE 3
(i, j), i < j (σ1 (i), σ1 ( j)) (σ2 (i), σ2 ( j)) (σ3 (i), σ3 ( j)) (σ4 (i), σ4 ( j)) (σ5 (i), σ5 ( j)) (σ6 (i), σ6 ( j))
(1,2) (1,2) (2,1) (1,3) (3,2) (2,3) (3,1)
(1,3) (1,3) (2,3) (1,2) (3,1) (2,1) (3,2)
(2,3) (2,3) (1 ,3) (3,2) (2,1) (3,1) (1,2)
N (*) 0 1 1 3 2 2
ε(σi ) = (−1)N 1 -1 -1 -1 1 1
(*)
Le nombre d’inversions de σi
X
φ(c1 , c2 , c3 ) = aσ(1),1 aσ(2),2 aσ(3),3 φ(eσ(1) , eσ(2) , eσ(3) ) (4.3)
σ∈S3
c’est-à-dire :
φ(c1 , c2 , c3 ) = a11 a22 a33 φ(e1 , e2 , e3 ) + a21 a32 a13 φ(e2 , e3 , e1 )
+ a31 a12 a23 φ(e3 , e1 , e2 ) + a31 a22 a13 φ(e3 , e2 , e1 ) (4.4)
+ a21 a12 a33 φ(e2 , e1 , e3 ) + a11 a32 a23 φ(e1 , e3 , e2 )
Montrons que, ∀σ ∈ S3 , φ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)φ(e1 , e2 , e3 )
D’où
φ(c1 , c2 , c3 ) = (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23 ) φ(e1 , e2 , e3 )
Si φ(e1 , e2 , e3 ) = 1. On note φ = detB : φ : E 3 → K.
En remplaçant φ par detB dans (4.5), on obtient :
X
det(c1 , c2 , c3 ) = ε(σ)aσ(1),1 aσ(2),2 aσ(3),3 det(e1 , e2 , e3 ) (4.6)
B B
σ∈S3
——————— 39 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.4. DÉTERMINANT D’ORDRE N CHAPITRE 4. DÉTERMINANTS
Définition
√ 4.7. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
On appelle déterminant d’ordre 3 dans la base B l’unique forme trilinéaire alternée notée detB : E 3 → K
√ vérifiant : detB (e1 , e2 , e3 ) = 1
Si, pour tout j ∈ {1, 2, 3}, les scalaires a1 j , a2 j , a3 j désignent les coordonnées du vecteur c j dans la base B alors
X
det(c1 , c2 , c3 ) = ε(σ)aσ(1),1 aσ(2),2 aσ(3),3
B
σ∈S3
On a donc :
det(c1 , c2 , c3 ) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23
B
on note symboliquement
Exemple 4.5. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ) et les trois vecteurs
c1 = e1 − e3 , c2 = −e2 + 2e3 , c3 = −e1 + e2
1 0 −1
det(c1 , c2 , c3 ) = 0 −1 1 = −1
B
−1 2 0
REMARQUE. Les coordonnées par rapport à la base B de chacun des trois vecteurs c1 , c2 et c3 peuvent être disposées
soit en colonne, soit en ligne. Cela n’influe pas sur la valeur finale de detB (c1 , c2 , c3 )
——————— 40 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.5. DÉTERMINANT D’UNE MATRICE CARRÉE
φ est aussi alternée. Ainsi, parmi les termes présents dans la somme (il y en a nn ), tous sont nuls sauf ceux pour lesquels
{i1 , i2 , ......i3 } ∈ σ ({1, 2, ......3})
X
φ(c1 , c2 , ........, cn ) = aσ(1),1 aσ(2),2 .....aσ(n),n φ(eσ(1) , eσ(2) , .......eσ(n) ) (4.8)
σ∈Sn
finalement on obtient
n
X Y
φ(c1 , c2 , ........, cn ) =
ε(σ) aσ(i),i φ(e1 , e2 , .......en )
σ∈Sn i=1
Définition
√ 4.9. Soit E un K espace vectoriel de dimensionn ≥ 2 muni d’une base B = (e1 , e2 , ..., en ).
On appelle déterminant d’ordre n dans la base B l’unique forme n-linéaire alternée notée detB : E n → K
√ vérifiant : detB (e1 , e2 , ...., en ) = 1
Si, pour tout j ∈ {1, 2, ...., n}, les scalaires a1 j , a2 j , ....., an j désignent les coordonnées du vecteur c j dans la base
B alors
n
X Y
det(c1 , c2 , ......., cn ) =
ε(σ)
aσ(i),i
B
σ∈Sn i=1
On note symboliquement :
Définition 4.10. Soit A = (ai j )1≤,i, j≤n une matrice carrée d’ordre n ≥ 2 à coefficients dans K . On appelle déterminant de
A et on note det(A), le scalaire
n
X Y
det(A) =
ε(σ)
aσ(i),i
σ∈Sn i=1
Le déterminant de A s’interprète alors comme le déterminant des vecteurs c1 , ..., cn de E par rapport à la base B :
det(t A) = det(A)
——————— 41 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.6. CALCUL DES DÉTERMINANTS CHAPITRE 4. DÉTERMINANTS
A = 0
0 0 0 1
0 1 0 0 0
0 0 1 0 0
Exemple 4.7.
1 0 −3
A = 2 4 −2 , Co f (1) = + 4 −2 , Co f (0) = − 2 −2 = −16
−1 3 5 3
5 −1 3
REMARQUE. Le signe (−1)i+ j dans la définition de cofacteur est déterminé par le schéma suivant :
+ − + − ···
− + − − · · ·
A = + − + − · · ·
− + − − · · ·
.. .. .. ..
. . . .
Théorème 4.6. On a les formules suivantes :
Développement du déterminant selon la jème ligne :
——————— 42 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.6. CALCUL DES DÉTERMINANTS
1 −2 3
2 1 1 −2
2 1 0 =3 +2 = −9 + 10 = 1
1 −1 2 1
1 −1 2
Proposition 4.7. Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute une combinaison
linéaire des autres lignes (respect, des autres colonnes).
Exemple 4.9.
1 −2 1 3 4 L1 1 −2 1 3 4 L1′ = L1
′
1 −1 0 2 4 L2 0 1 −1 −1 0 L2 = L2 − L1
∆= 2 1 3 1 2 L3 = 0 5 1 −5 −6 L3′ = L3 − 2L1
−1 0 1 1 3 L4 0 −2 2 4 7 L4′ = L4 + L1
0 1 −1 1 3 L5 0 1 −1 1 3 L5′ = L5
c1 c2 c3 c4 c1 + c2 c3 + c1 c4
1 −1 −1 0 1 0 0 0
∆= 5 1 −5 −6 = 5 6 0 −6
−2 2 4 7 −2 0 2 7
1 −1 1 3 1 0 2 3
6 0 −6
2 2
∆= 0 2 7 =6 2 3 = 6(7 − 14) = −48
0 2 3
Proposition 4.8. Pour qu’une matrice carrée soit inversible il faut et il suffit que son déterminant soit non nul.
Proposition 4.9.
Pour tous A, B ∈ Mn (K), on a
det(A × B) = det(A) × det(B)
En particulier, si A est inversible alors
1
det(A−1 ) =
det(A)
Si A et B sont semblables alors leurs déterminants ont la même valeur. En effet, supposer A et B semblables signifie
qu’il existe une matrice inversible P, d’ordre n et à coefficients dans K , telle que B = P−1 AP et on en déduit
Proposition 4.10. (Déterminant d’une matrice triangulaire) Le déterminant d’une matrice triangulaire (inférieure ou
supérieure) est égal au produit de ses coefficients diagonaux.
REMARQUES. -
(a) Une condition nécessaire et suffisante pour qu’une matrice triangulaire (supérieure ou inférieure) soit inversible
est que ses coefficients diagonaux soient tous non nuls.
(b) Pour tout α ∈ K et pour tout A, ∈ Mn (K),
det(αA) = αn det(A)
——————— 43 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS
det( f ) = det MB ( f )
4.7 Applications
4.7.1 Calcul du rang d’une matrice
Définition 4.13. Soit A ∈ Mn,p (K) . On appelle déterminant d’ordre k extrait de A tout déterminant d’une matrice carrée
d’ordre k déduite de A par suppression de n − k lignes et de p − k colonnes.
Proposition 4.11. Soit A une matrice non nulle de Mn,p (K) . Le rang de A est le plus grand entier k tel qu’il existe un
déterminant non nul d’ordre k extrait de A.
Calculons le rang de la matrice rectangulaire 4 × 3 suivante :
1 2 0
3 2 2
A= 4 4 2
5 6 0
Ainsi, rg(A) = 3
1 2
!
Exemple 4.10. Soit A =
−1 3
on a det(A) = 5 ,= 0, donc A est inversible et on a
Co f (3) = 1, Co f (−1) = −2, Co f (2) = 1, Co f (1) = 3.
3 1 3 1
! !
Donc Co f (A) = et A−1 = 15
−2 1 −2 1
1 2 0
Exemple 4.11. Soit A= −1 3 0 , det(A) = −3 − 2 = −5 , 0. Donc A est inversible.
0 1 −1
Les cofacteurs des coefficients de la première ligne sont :
3 1 −1 0 −1 3
Co f (1) = = −3, Co f (2) = − = −1, Co f (0) = = −1
0 −1 0 −1 0 1
——————— 44 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 4. DÉTERMINANTS 4.7. APPLICATIONS
2 −5 2
det(A) = 1 2 −4 = 62
3 −4 6
Donc Le système est de Cramer.
Les formules de Cramer donnent :
7 −5 2 2 7 2 2 −5 7
118 58 46
x1 = 3 2 −4 = , x2 = 1 3 −4 =− , x3 = 1 2 3 =−
62 62 62
5 −4 6 3 5 6 3 −4 5
t + 3 −1 1
Exercice 4.1. Calculer le déterminant de A = 5 t − 3 1
6 −6 t + 4
——————— 45 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS
Exercice 4.4. 1. Soit v1 = (2, 1) et v2 = (1, 2), vérifier que (v1 , v2 ) forme une base de R3
2. Déterminer selon le paramètre du réel α si la famille de vecteurs de R3 suivante est libre ou liée
4 −1 3
B = 2 2 1
α 1 α−2
est inversible. Dans ce cas, calculer det(B−1 ) puis det(B−2 ) et det(B−3 ) (Sans calculer B−1 )
4. Soient v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0), v3 = (1, 0, 0, 1) trois vecteurs de R4
(a) Donner une base de F = vect(v1 , v2 , v3 )
(b) Soit u = (x, y, z, t) ∈ R3 . Monter que u ∈ F ⇔ y + z + t − x = 0
——————— 46 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5
RÉDUCTION DES ENDOMORPHISMES
5.1 Introduction
Soit Eun espace vectoriel et f un endomorphisme de E. Si B = (e1 , e2 , .......en ) une base de E, on peut construire la
matrice qui représente f dans cette base :
On cherche des bases de E dans lesquelles la forme de la matrice est la plus simple possible, c’est-à-dire, par exemple,
diagonale ou, éventuellement, triangulaire. Plus précisément, on dira que f est diagonalisable s’il existe une base
B = (u1 , u2 , .....un ), telle que :
f (u1 ) . . . f (un )
λ
1 ... 0 u1
MB ( f ) = . . .. ..
.
..
. . .
0 ... λn un
On dira que f est trigonalisable s’il existe une base C = (v1 , v2 , .....vn ), de E telle que :
47
5.2. SOMME DIRECTE (RAPPELS ) CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Deux polynômes jouent un rôle essentiel dans la réduction des endomorphisme, ce sont le polynôme caractéris-
tique et le polynôme minimal. Ces deux polynômes sont d’ailleurs reliés l’un à l’autre, comme nous le verrons.
Un polynôme P ∈ K[X] non constant, de degré n ≥ 1, est dit scindé, ou scindé sur K, s’il est produit de
polynômes de degré 1. Si c’est le cas, on peut écrire
E1 + E2 = {x ∈ E/∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 }
Théorème 5.3. Soient E1 ,..., E p des sous-espaces vectoriels d’un même espace vectoriel E. Alors ces espaces sont en
somme directe si et seulement si pour toutes bases B1 , B2 ,.....B p de E1 ,..., E p respectivement, la réunion des bases B1 ,
B2 ,..., B p qui est une famille libre.
En d’autres termes, E = E1 ⊕ E2 ⊕ ...... ⊕ E p si et seulement si pour toutes bases B1 , B2 ,.....B p , la famille (B1 , .....B p ) est
une base de E
Exemple 5.2. Dans R3 soient E1 = vect{(1, 0, 0)}, E2 = vect{(0, 1, 0)} et E3 = vect{(0, 0, 1)}
On vérifie que
R3 = E1 + E2 + E3 et dim(E1 + E2 + E3 ) = dim E1 + dim E2 + dim E3 = 3
——————— 48 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES5.3. ELÉMENTS PROPRES D’UN ENDOMORPHISME
f (u) = λu
Ce vecteur u non nul de E se nomme vecteur propre de f associé à la valeur propre , et le couple (λ, u) ∈ K × E \ {0E },
se nomme élément propre de f .
Exemples 5.3. -
1. Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
On considère l’endomorphisme f de E défini par
f (e1 ) = e1 − e2 − e3
f (e2 ) = −e1 + e2 − e3
f (e ) = −e − e + e .
3 1 2 3
Les deux vecteurs u2 = e1 − e3 et u3 = e2 − e3 sont deux vecteurs propres de f associés à la valeur propre λ = 2 puisque
Toute application de la forme x 7→ eλx est vecteur propre de f associé à la valeur propre λ ∈ R car, pour tout ∈ R
(eλx )′ = λeλx
L’ensemble des valeurs propres de f est donc l’ensemble R. Remarquons que cet ensemble est infini.
Proposition 5.4. Soient E un K- espace vectoriel et f un endomorphisme de E. Une condition nécessaire et suffisante
pour que λ ∈ R soit valeur propre de f est que l’endomorphisme f − λidE ne soit pas injectif.
f k = f ◦ f ◦ ...... ◦ f
| {z }
k fois
——————— 49 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.4. RECHERCHE DES VALEURS PROPRES CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
2−λ 2
PA (λ) = = λ2 + 1
−5 −2 − λ
trA = λ1 + λ2 + ..............λn
——————— 50 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.5. SOUS-ESPACES PROPRES
f (v1 ) = λ1 v1 et f (v2 ) = λ2 v2
Calcul de v1
x
Notons v1 = ,
y
−1 2 x
!
(A − 2I)v1 = 0 ⇔ = 0
−1 2 y
−x + 2y = 0
2
!
la solution est engendrée par v1 = ⇒ Eλ1 = vect{(2, 1)}
1
Calcul de v2
x
Notons v2 =
y
−2x + 2y = 0
(
(A − 3I)v2 = 0 ⇔
−2x + 2y = 0
1
!
la solution est engendrée par v2 = ⇒ Eλ2 = vect{(1, 1)}
1
On vérifié que B′ = (v1 , v2 ) est une base de R2 ,
2 1
det(v1 , v2 ) = =1,0
1 1
2 0
!
M( f )B =
0 3
La matrice de passage de B = (e1 , e2 ) à B′ = (v1 , v2 )
2 1
!
P=
1 1
——————— 51 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.5. SOUS-ESPACES PROPRES CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Exercice 5.1. Soit E un R-espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
Soit f ∈ L(E) :
f (e1 ) = e1 − e2 − e3
f (e2 ) = −e1 + e2 − e3
f (e ) = −e − e + e
3 1 2 3
1−λ −1 −1
PA (λ) = det(A − λI) −1 1−λ −1 = −(λ + 1)(λ − 2)2
−1 −1 1−λ
2x1 − x2 − x3 = 0
(S ) −x1 + 2x2 − x3 = 0
−x − x + 2x = 0
1 2 3
En utilisant la méthode du pivot de Gauss, ce système est équivalent au système échelonné suivant :
2x1 − x2 − x3 =0
′
(S ) 3x2 − 3x3 =0
0=0
deux variables principales x1 et x2 et un libre est x3 donc dimension de l’espace solution égale à
——————— 52 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.6. DIAGONALISATION
x1 + x2 + x3 =0
(S ) 0=0
0=0
deux variables libres x2 et x3 et et un principale est x1 donc dimension de l’espace solution égale à
Soient x2 = λ, x3 = µ, d’où x1 = −λ − µ
v1 = −e1 + e2 , v2 = −e1 + e3 , v3 = e1 + e2 + e3
−1 −1 1
P = 1 0 1
0 1 1
5.6 Diagonalisation
5.6.1 Diagonalisation d’un endomorphisme
Comme nous l’avons vu dans l’exemple 5.4, tous les endomorphismes d’un K espace vectoriel E n’admettent pas
nécessairement de valeurs propres (et donc de vecteurs propres).
Définition 5.4. Soit E un K-espace de dimension finie ou infinie. Un endomorphisme f de E est dit diagonalisable sur
K s’il existe une base de E formée de vecteurs propres de f . Diagonaliser f , c’est trouver une telle base.
Soit E espace vectoriel de dimension n et considérons un endomorphisme f ∈ L(E).
Supposons f diagonalisable. D’après la définition 5.4, il existe une base notée C = (u1 , u2 , ........un ) constituée de
vecteurs propres de f
Il existe donc n valeurs propres, comptées avec leurs multiplicités et notées λ1 , λ2 , ........λn ∈ K telles que
——————— 53 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Définition 5.5. Soit A une matrice de Mn (K). On dit que A est diagonalisable si elle est semblable à une matrice
diagonale, c’est-à-dire s’il existe une matrice inversible P d’ordre n sur K, et s’il existe une matrice diagonale D d’ordre
n sur K, telles que
D = P−1 AP
Soit A la matrice définie dans l’exercice 5.1
1 −1 −1
A = −1 1 −1
−1 −1 1
2 0 0
0 2 0 = P−1 AP
0 0 −1
avec P la matrice de passage de B à C = (v1 , v2 , v3 ) :
Corollaire 5.2. Si f admet n valeurs propres deux à deux distinctes alors f est diagonalisable.
Corollaire 5.3. Soient E un K-espace de dimension n et f un endomorphisme de E. Soient λ1 ,..., λ p les valeurs
propres distinctes de f de multiplicités respectives m1 , m2 , ..............., m p et Eλ1 , Eλ2 , ...........Eλ p les sous-espaces propres
correspondants.
Une condition nécessaire et suffisante pour que f soit diagonalisable est que
——————— 54 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.6. DIAGONALISATION
Soit f un endomorphisme de E. Nous nous intéresserons par la suite aux polynômes P ∈ K[X], non nuls tels que
P( f ) = 0.
Par exemple, si f est un projecteur (c’est-à-dire f 2 = f ), on a f 2 − f = 0, donc le polynôme P(X) = X 2 − X
vérifie P( f ) = 0
Définition 5.6. Soit E un espace vectoriel sur K et soit f ∈ L(E). Un polynôme P ∈ K[X] est dit annulateur de f si
P( f ) = 0.
Proposition 5.8. Soit P un polynôme annulateur de f . Alors les valeurs propres de f figurent parmi les racines de P,
c’est-à-dire :
S p( f ) ⊂ Rac(P)
Démonstration. Si λ est une valeur propre de f , il existe un vecteur v non nul tel que f (v) = λv. On a
c’est-à-dire
(am λm + am−1 λm−1 + ............ + a1 λ + a0 id)v = 0
Or v , 0, donc
am λm + am−1 λm−1 + ............ + a1 λ + a0 id = 0
Pf ( f ) = 0
——————— 55 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
f (e1 ) = 2e1
(
2 2
Exemple 5.7. Si E = R et B = (e1 , e2 ) la base canonique de R et f ∈ L(E) tel que
f (e2 ) = 3e2
On a :
2 0
!
A = MatB ( f ) = , PA (λ) = (2 − λ)(3 − λ), PA ( f ) = f 2 − 5 f + 6id
0 3
PA ( f )(e1 ) = f 2 (e1 ) − 5 f (e1 ) + 6e1 = 4e1 − 10e1 + 6e1 = 0
(
Proposition 5.11. Soit f un endomorphisme d’un K espace vectoriel E de dimension finie. Supposons f non identique-
ment nul. Si f est nilpotent a alors f n’est pas diagonalisable.
a. Un endomorphisme f de E est dit nilpotent s’il existe un entier naturel non nul k tel que f k = 0.
Proposition 5.12. Les racines de m f (X) sont exactement les racines de P f (X), c’est-à-dire les valeurs propres, mais
avec une multiplicité en général différente. En d’autres termes, si on considère P f (X) scindé, c’est-à-dire si
alors
m f (X) = (X − λ1 )β1 (X − λ2 )β2 ...............(X − β p )β p , avec : 1 ≤ βi ≤ αi
Exemples 5.8. -
0 1 2
1. Soit A = 1 0 2 .
1 2 0
On a
PA (X) = −(X + 1)(X + 2)(X − 3)
Donc
mA (X) = (X + 1)(X + 2)(X − 3)
−1 1 1
2. A = 1 −1 1
1 1 −1
PA (X) = −(X − l)(X + 2)2 .
On a donc
mA (X) = (X − 1)(X + 2) ou mA (X) = (X − 1)(X + 2)2
Calculons (A − I)(A + 2I) ; si l’on trouve la matrice nulle le polynôme minimal sera le premier, si non ce sera le
second.
−2 1 1 1 1 1 0 0 0
(A − I)(A + 2I) = 1 −2 1 1 1 1 = 0 0 0
1 1 −2 1 1 1 0 0 0
Donc :
mA (X) = (X − 1)(X + 2)
——————— 56 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.7. TRIGONALISATION
Théorème 5.13. Un endomorphisme f est diagonalisable si et seulement si son polynôme minimal est scindé et il a
toutes ses racines simples.
−1 1 1
A = 1 −1 1 et mA (X) = (X − 1)(X + 2)
1 1 −1
2.
3 2 −2
A = −1 0 1 et PA (X) = −(X − 1)3
1 1 0
donc
mA (X) = (X − 1) ou (X − 1)2 ou (X − 1)3
si A est diagonalisable
mA (X) = (X − 1) ⇔ A − I = 0.
Comme A , I, donc A n’est pas diagonalisable.
3.
3 −1 1
A = 2 0 1 et PA (X) = −(X − 1)(X − 2)2
1 −1 2
donc
mA (X) = (X − 1)(X − 2) ou mA (X) = (X − 1)(X − 2)2
A est diagonalisable
⇔ mA (X) = (X − 1)(X − 2) ⇔ (A − I)(A − 2I) = 0
5.7 Trigonalisation
Définition 5.8. Soit E un K espace de dimension finie. Un endomorphisme f de E est dit trigonalisable s’il existe une
base de E relativement à laquelle la matrice de f est triangulaire.
Définition 5.9. Une matrice A de Mn (K) est dite trigonalisable si elle est semblable à une matrice triangulaire,
c’est-à-dire s’il existe une matrice P inversible et s’il existe une matrice triangulaire T telle que
T = P−1 AP
Théorème 5.14. Un endomorphisme est trigonalisable dans K si et seulement si son polynôme caractéristique est
scindé dans K .
Corollaire 5.4. Toute matrice A ∈ Mn (C) est semblable à une matrice triangulaire de Mn (C) .
——————— 57 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
5.7. TRIGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
On a
a11 − λ ··· ∗
P f (λ) = .. .. .. = (a11 − λ)(a22 − λ).............(ann − λ)
. . .
0 ··· ann − λ
donc P f (λ) est scindé (Les éléments de la diagonale aii sont les valeurs propres).
Réciproquement supposons P f (λ) scindé et montrons par récurrence que f est trigonalisable.
Supposons le résultat vrai à l’ordre n − 1, (n ≥ 2).
Puisque P f (λ) est scindé, il admet au moins une racine λ ∈ K et donc il existe au moins un vecteur propre ϵ1 ∈ Eλ
Complétons {ϵ1 } en une base : {ϵ1 , ϵ2 , ........ϵn }
On a : λ b ··· b
2 n
0
MB ( f ) = où B ∈ Mn−1 (K)
.
.
. B
0
Soit F = vect{ϵ2 , ϵ3 , ........, ϵn } et g un endomorphisme de F tel que
cqfd
——————— 58 ———————-
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2021-2022
Références
., J.-M. et FRAYSSE, H. (1990). Cours de mathématiques - 4 Algèbre bilinéaire et
géométrie. Dunod.
Arnaudiès., J., ., P. D. et Fraysse, H. (1994). Exercices résolus d’algèbre du cours de
mathéntatiaues 1. DUNOD.
Gostiaux, B. (1993). Cours de mathèmatiques spèciales : Tome 1 Algébre. Presses
universitaires de France.
GRIFONE, J. (2011). Algèbre linéaire. 4 édition.