Cours Algèbre Linéaire S2
Cours Algèbre Linéaire S2
Algèbre Linéaire
Omar EL FOURCHI
Année universitaire 2017-2018
USTV
1
Matrices
Définition Matrice
On appelle matrice m × n (ou d’ordre m × n) à coefficients dans K tout tableau de m lignes et n colonnes
d’éléments de K. L’ensemble des matrices m × n à coefficients dans K est noté Mm,n (K).
Si m = n on dit qu’on a une matrice carrée. L’ensemble des matrices carrées d’ordre n à coefficients dans K est
noté Mn (K).
Une matrice m × 1 est appelée vecteur-colonne et une matrice 1 × n est appelée vecteur-ligne.
On convient de noter aij l’élément de la matrice situé sur la i-ème ligne et j-ème colonne (1 ≤ i ≤ m et 1 ≤ j ≤ n).
Une matrice A est représentée entre deux parenthèses ou deux crochets :
a11 . . . a1j . . . a1n a11 . . . a1j . . . a1n
.. .. .. .. .. ..
. . . . . .
A= a
i1 . . . a ij . . . a in
ou A = a
i1
. . . a ij . . . a in
.. .. .. .. .. ..
. . . . . .
am1 . . . amj . . . amn am1 . . . amj . . . amn
ou encore
A = (aij )1≤i≤m ou A = [aij ]1≤i≤m
1≤j≤n 1≤j≤n
La matrice nulle, notée Om,n , est la matrice dont tous les éléments sont nuls.
La matrice opposée d’une matrice A est notée −A. Si A = (aij )1≤i≤m alors −A = (−aij )1≤i≤m .
1≤j≤n 1≤j≤n
Exemple
Soient les matrices
3 4 2 6 1 9
A= , B= .
1 3 5 2 0 3
On obtient
3+6 4+1 2+9 9 5 11
A+B= = .
1+2 3+0 5+3 3 3 8
Attention
La somme de deux matrices d’ordres différents n’est pas définie.
Propriété
Si A, B et C sont des matrices de même ordre, alors nous avons
B A + B = B + A (commutativité),
B A + (B + C) = (A + B) + C (associativité).
Exemple
Soient les matrices
1 −1 6 −5 0 2
A= , B= , C= .
3 0 2 1 2 4
On a alors
1+6 −1 − 5 7 −6 6+1 −5 − 1 7 −6 6+0 −5 + 2 6 −3
A+B= = , B+A= = , B+C= = .
3+2 0+1 5 1 2+3 1+0 5 1 2+2 1+4 4 5
De plus,
7 −4 7 −4
(A + B) + C = , A + (B + C) = .
7 5 7 5
Définition
On appelle matrice diagonale toute matrice carrée D = (dij )1≤i,j≤n telle que i 6= j =⇒ dij = 0. Si on note
di = dii , une matrice diagonale est de la forme
d1 0 ... 0 0
0 d2 ... 0 0
Dn = ... .
.. .. ..
. . .
0 0 ... dn−1 0
0 0 ... 0 dn
On la note Diag(d1 , d2 , . . . , dn ).
La matrice identité d’ordre n, notée In , est la matrice diagonale Diag(1, 1, . . . , 1).
α · A = (α · aij )1≤i≤m
1≤j≤n
Propriété
Soient A et B deux matrices de même ordre et α ∈ K un scalaire, on a
B α · (A + B) = α · A + α · B (distributivité).
Exemple
3 4 2 3/2 2 1
Soit A = et α = 12 . On obtient C = α · A = 1/2 3/2 5/2
.
1 3 5
Exemple
Soient les deux matrices
1 2 0
1 3 0
A= B = 0 2 3
−1 1 2
et
0 −1 −2
La matrice A est d’ordre 2 × 3, la matrice B est d’ordre 3 × 3, donc la matrice produit A × B est une matrice d’ordre 2 × 3 :
1×1+3×0+0×0 1 × 2 + 3 × 2 + 0 × (−1) 1 × 0 + 3 × 3 + 0 × (−2) 1 8 9
A×B= = .
−1 × 1 + 1 × 0 + 2 × 0 −1 × 2 + 1 × 2 + 2 × (−1) −1 × 0 + 1 × 3 + 2 × (−2) −1 −2 −1
B : n lignes p colonnes
b11 ... b1j ... b1p
.. .. .. .. ..
. . . . .
bk1 ... bkj ... bkp
1j
b
×
i1
a
+
.. .. .. ..
..
..
.+
. . . . .
kj
b
×
bn1 ... bnj ... bnp
ik
a
+
..
.+
j
bp
×
a ip
a11 ... a1k ... a1n c11 ... c1j ... c1p
.. .. .. .. .. .. .. .. .. ..
. .
. . . . . . . .
ai1 ... aik ... ain
ci1 ... cij ... cip
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
am1 ... amk ... amn cm1 ... cmk ... cmp
Propriété
Si A ∈ Mm,n (K), B ∈ Mn,p (K), C ∈ Mp,q (K), alors
B A × (B × C) = (A × B) × C (associativité) ;
B A(×(B + C) = A × B + A × C (distributivité) ;
Si A ∈ Mn (K) alors A × In = In × A = A.
Attention
A × B 6= B × A en général (non commutativité).
Prenons le cas général avec A d’ordre m × p et B d’ordre p × n. Le produit A × B est défini, c’est une matrice
d’ordre m × n. Qu’en est-il du produit B × A ? Il faut distinguer trois cas :
B si m 6= n le produit B × A n’est pas défini ;
B si m = n mais p 6= n, le produit A × B est défini et c’est une matrice d’ordre m × n tandis que le produit B × A
est défini mais c’est une matrice d’ordre p × p donc A × B 6= B × A ;
B si m = n = p, A et B sont deux matrices carrées d’ordre m. Les produits A × B et B × A sont aussi carrés et
d’ordre m mais là encore, en général, A × B 6= B × A ;
Exemple
Soient les matrices
1 −1 6 −5
A= , B= .
3 0 2 1
On obtient
4 −6 −9 −6
A×B= B×A= .
18 −15 5 −2
et
Définition Matrice transposée
Si A = (aij )1≤i≤m est une matrice m × n, on définit la matrice transposée de A, notée AT , par A = (aji ) 1≤j≤n .
1≤j≤n 1≤i≤m
C’est donc une matrice n × m obtenue en échangeant lignes et colonnes de la matrice initiale.
Exemple
Soit la matrice A d’ordre 2 × 3 suivante
1 −1 5
A= .
3 0 7
Sa transposée est la matrice AT d’ordre 3 × 2 suivante
1 3
T
A = −1 0 .
5 7
Propriété
B (AT )T = A si A ∈ Mm,n (K),
B (αA)T = αAT si α ∈ K et A ∈ Mm,n (K),
B (A + B)T = AT + BT si A, B ∈ Mm,n (K),
B (A × B)T = BT × AT si A ∈ Mm,n (K) et B ∈ Mn,p (K).
Exemple
1 5 −9
A= 5 4 0 est une matrice symétrique.
−9 0 7
1 5 −9
B = −5 4 0 est une matrice anti-symétrique.
9 0 7
Proposition
Soit A et B deux matricesinversibles, alors
−1
B A−1 l’est aussi et A−1 = A,
−1 T
B AT l’est aussi et AT = A−1 ,
Définition Trace
Si A est une matrice carrée d’ordre n, on définit la trace de A comme la somme des éléments de la diagonale
principale :
Xn
tr(A) = aii .
i=1
Exemple
La trace de la matrice A suivante
1 2 0
0 2 3
0 −1 −2
est tr(A) = a11 + a22 + a33 = 1 + 2 + (−2) = 1.
Propriété
Si A et B sont deux matrices carrées d’ordre n, alors
B tr(AT ) = tr(A),
B tr(A + B) = tr(A) + tr(B).
Si A est une matrice m × n et B une matrice n × m, alors
B tr(A × B) = tr(B × A).
det(A) = a11 ,
n
X
det(A) = (−1)i+j aij det(Aij ) quelque soit la colonne j, 1 ≤ j ≤ n.
i=1
Astuce
Pour se souvenir des signes de ces deux formules, on peut remarquer que la distribution des signes + et − avec
la formule (−1)i+j est analogue à la distribution des cases noirs et blanches sur un damier :
+ − + − . . .
− + − + . . .
+ − + − . . .
.. .. .. .. . .
. . . . .
Exemple
Soit A une matrice carrée d’ordre n = 2.
a11 a12
det(A) = det = a11 a22 −
a21 a22 a12 a21 .
a11 a12
a21 a22
−
Exemple
Soit la matrice
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
alors
a22 a23
det(A11 ) = det = a22 a33 − a23 a32 ,
a32 a33
a21 a23
det(A12 ) = det = a21 a33 − a23 a31 ,
a31 a33
a21 a22
det(A13 ) = det = a21 a32 − a22 a31 ,
a31 a32
a12 a13
det(A21 ) = det = a12 a33 − a13 a32 ,
a32 a33
a11 a13
det(A22 ) = det = a11 a33 − a13 a31 ,
a31 a33
a11 a12
det(A23 ) = det = a11 a32 − a12 a31 ,
a31 a32
a12 a13
det(A31 ) = det = a12 a23 − a13 a22 ,
a22 a23
a11 a13
det(A32 ) = det = a11 a23 − a13 a21 ,
a21 a23
a11 a12
det(A33 ) = det = a11 a22 − a12 a21 ,
a21 a22
Astuce
Il convient d’utiliser cette définition après avoir fait apparaître sur une même rangée le plus possible de zéro
sachant que
B si deux colonnes (resp. deux lignes) sont identiques ou proportionnelles, alors det(A) = 0 ;
B si on échange deux colonnes (resp. deux lignes), alors le déterminant est changé en son opposé ;
B on ne change pas un déterminant si on ajoute à une colonne (resp. une ligne) une combinaison linéaire des
autres colonnes (resp. lignes), i.e.
Ci ← Ci + αCj , Li ← Li + αLj ,
avec j 6= i et α 6= 0.
Exemple
Soit la matrice
1 0 1
A = 0 2 0
0 3 5
alors
2 0 0 0 0 2
det(A11 ) = det = 10, det(A12 ) = det = 0, det(A13 ) = det = 0,
3 5 0 5 0 3
0 1 1 1 1 0
det(A21 ) = det = −3, det(A22 ) = det = 5, det(A23 ) = det = 3,
3 5 0 5 0 3
0 1 1 1 1 0
det(A31 ) = det = −2, det(A32 ) = det = 0, det(A33 ) = det = 2,
2 0 0 0 0 2
donc on peut calculer det(A) par l’une des formules suivantes :
B 1 det(A11 ) + 0 det(A12 ) + 1 det(A13 ) = 10 + 0 + 0 = 10
B 0 det(A21 ) + 2 det(A22 ) + 0 det(A23 ) = 0 + 2 × 5 + 0 = 10 L99 formule pratique car il n’y a qu’un déterminant à calculer
B 0 det(A31 ) + 3 det(A32 ) + 5 det(A33 ) = 0 + 0 + 5 × 2 = 10
B 1 det(A11 ) + 0 det(A21 ) + 0 det(A31 ) = 10 + 0 + 0 = 10 L99 formule pratique car il n’y a qu’un déterminant à calculer
B 0 det(A12 ) + 2 det(A22 ) + 3 det(A32 ) = 0 + 2 × 5 + 0 = 10
B 1 det(A13 ) + 0 det(A23 ) + 5 det(A33 ) = 0 + 0 + 5 × 2 = 10
Propriété
Le déterminant d’une matrice triangulaire est égal au produit des éléments diagonaux.
Théorème
A est inversible si et seulement si det(A) 6= 0.
Propriété
B det(AT ) = det(A),
1
B det(A−1 ) = ,
det(A)
B det(A × B) = det(A) · det(B).
Définition Rang
Le rang d’une matrice quelconque A est égal au plus grand entier s tel que l’on puisse extraire de A une matrice
carrée d’ordre s inversible, c’est-à-dire de déterminant non nul. Les opérations élémentaires sur les lignes ou les
colonnes d’une matrice ne modifient pas le rang.
Exemple
Soit A la matrice suivante
1 3 2
A= .
1 3 1
Le rang de A est 2 car
B A est d’ordre 2 × 3 donc s ≤ min{2, 3} donc s = 0, 1 ou 2 ;
B comme le déterminant de la sous-matrice composée de la première et de la deuxième colonne est nul, on ne peut pas
conclure ;
B comme le déterminant de la sous-matrice composée de la première et de la troisième colonne est non nul, alors s = 2.
Exemple
Soit A la matrice suivante
1 0 1
A= 0 5 −1 .
−1 0 −1
B A est d’ordre 3 × 3 donc s ≤ 3
B le déterminant de A est 0 donc s 6= 3
B le déterminant de la sous-matrice 10 05 est 5, donc s = 2.
Définition Cofacteur
Soit A une matrice carrée d’ordre n. Étant donné un couple (i, j) d’entiers, 1 ≤ i, j ≤ n, on note Aij la matrice
carrée d’ordre n − 1 obtenue en supprimant la i-ème ligne et la j-ème colonne de A. On appelle cofacteur de
l’élément aij le nombre (−1)i+j det(Aij ).
Exemple
a b d −c
Soit A = . Alors la matrice des cofacteurs de A est la matrice
c d −b a
.
Calcul de A−1
A étant inversible, pour obtenir A−1 il suffit de résoudre le système Ax = b qui admet pour solution x = A−1 b.
1. On calcul la matrice des cofacteurs des éléments de A, appelée comatrice de A ;
2. on transpose la comatrice de A ;
3. on divise par det(A).
1 i+j T
A−1 = , (−1) det(Aij ).
det(A)
Exemple
a b
Soit A = avec det(A) = ad − bc 6= 0.
c d
on a déjà calculé le déterminant de cette matrice ainsi que la matrice des cofacteurs, il suffit alors de
calculer la transposée et on obtient
−1 1 d −b
A = .
ad − bc −c a
Exemple
Calculer l’inverse de la matrice
1 1 −1
A = −1 1 1 .
1 −1 1
B Les coefficients aij et les secondes membres bi sont des éléments donnés de K. Les inconnues x1 , x2 , . . . , xp
sont à chercher dans K.
B Le système homogène associé à (S) est le système obtenu en remplaçant les bi par 0.
B Une solution de (S) est un p-uplet (x1 , x2 , . . . , xp ) qui vérifie simultanément les n équations de (S). Résoudre
(S) signifie chercher toutes les solutions.
B Un système est impossible, ou incompatible, s’il n’admet pas de solution. Un système est possible, ou compa-
tible, s’il admet une ou plusieurs solutions.
B Deux systèmes sont équivalents s’ils admettent les mêmes solutions.
Écriture matricielle
Si on note
x1 b1 a11 ... a1p
x= . b = ... A= .
.. .. ..
.
xp bn an1 ... anp
Autrement dit, un système est échelonné si les coefficients non nuls des équations se présentent avec une sorte
d’escalier à marches de longueurs variables marquant la séparation entre une zone composée uniquement de zéros
et une zone où les lignes situées à droite de l’escalier commencent par des termes non nuls, comme dans l’exemple
suivant de 5 équations à 6 inconnues :
5x1 −x2 −x3 +2x4 +x6 = b1
3x −x +2x = b2
3 4 5
−x5 +x6 = b3
5x6 = b4
0 = b5
Réduction
Quand un système contient une équation du type
0x1 + · · · + 0xp = b,
Exemple
Soit le système linéaire
x1 +2x2 +3x3 +4x4 = 1,
2x1 +3x2 +4x3 +x4 = 2,
3x1 +4x2 +x3 +2x4 = 3,
4x1 +x2 +2x3 +3x4 = 4.
donc
x4 = 0, x3 = 0, x2 = 0, x1 = 1.
2. Résolution par la méthode du pivot de Gauss en écriture matricielle :
1 2 3 4 1 L2 ←L2 −2L1 1 2 3 4 1
L3 ←L3 −3L1
2 3 4 1 2
−L4 ←L4 −4L1 0 −1 −2 −7 0
[A|b] = −−−−−−→
3 4 1 2 3 0 −2 −8 −10 0
4 1 2 3 4 0 −7 −10 −13 0
1 2 3 4 1 1 2 3 4 1
L3 ←L3 −2L2
L4 ←L4 −7L2 0 −1 −2 −7 0 L4 ←L4 +L3 0 −1 −2 −7 0
−−−−−−−→ − −−−−−→
0 0 −4 4 0 0 0 −4 4 0
0 0 4 36 0 0 0 0 40 0
donc
x4 = 0, x3 = 0, x2 = 0, x1 = 1.
Définition Rang
Le nombre d’équations du système réduit en escalier obtenu par la méthode de Gauss est le rang r de la matrice
A, ou du système (S).
Théorème
Un système Ax = b de m équations à n inconnues est compatible si et seulement si rg(A) = rg([A|b]).
1. Si le système a n équations et n inconnues, la matrice A est carrée d’ordre n.
1.1. Si rg(A) = n (i.e. si det(A) 6= 0) alors rg(A) = rg([A|b]) et la solution est unique.
1.2. Si rg(A) = rg([A|b]) < n il y a une infinité de solutions.
1.3. Si rg(A) 6= rg([A|b]) il n’y a pas de solution.
2. Si le système a m équations et n inconnues avec m > n alors
2.1. Si rg(A) = rg([A|b]) = n la solution est unique.
2.2. Si rg(A) = rg([A|b]) < n il y a une infinité de solutions.
2.3. Si rg(A) 6= rg([A|b]) il n’y a pas de solution.
3. Si le système a m équations et n inconnues avec m < n alors
3.1. Si rg(A) = rg([A|b]) ≤ m < n il y a une infinité de solutions.
3.2. Si rg(A) 6= rg([A|b]) il n’y a pas de solution.
Remarque
Soit A = (aij )1≤i≤n la matrice des coefficients du système (S). Alors
1≤j≤p
0 ≤ rg(A) ≤ min { n, p }
rg(A) ≤ rg([A|b]) ≤ min { n, p + 1 } .
Exemple
On veut résoudre les systèmes linéaires suivantes de 2 équations et 2 inconnues :
( ( (
x +y=1 x +y=1 x +y=1
¬ ®
x −y=1 2x + 2y = 2 2x + 2 = 1
donc
¬ rg(A) = rg([A|b]) = 2 donc il existe une et une seule solution :
( (
x +y=1 L2 ←L2 −L1 x +y=1
−− −−−−→
x −y=1 −2y = 0
Propriété
Considérons un système carré d’ordre n à coefficients réels. Le système est de Cramer si une des conditions
équivalentes suivantes est remplie :
1. A est inversible ;
2. rg(A) = n ;
3. le système homogène Ax = 0 admet seulement la solution nulle.
Méthode de Cramer
La solution d’un système de Cramer d’écriture matricielle Ax = b est donnée par
det(Aj )
xj = , 1≤j≤n
det(A)
où Aj est la matrice obtenue à partir de A en remplaçant la j-ème colonne par la colonne des seconds membres b.
Cette formule est cependant d’une utilité pratique limitée à cause du calcul des déterminants qui est très couteux.
Exemple Système d’ordre 2
On veut résoudre le système linéaire
a11 a12 x1 b1
=
a21 a22 x2 b2
par la méthode de Cramer. On a
a11 a12
A= , det(A) = a11 a22 − a12 a21 ,
a21 a22
b1 a12
A1 = , det(A1 ) = b1 a22 − a12 b2 ,
b2 a22
a11 b1
A2 = , det(A2 ) = a11 b2 − b1 a21 ,
a21 b2
donc
b1 a22 − a12 b2 a11 b2 − b1 a21
x1 = , x2 = .
a11 a22 − a12 a21 a11 a22 − a12 a21
Exemple
On veut résoudre le système linéaire
1 −1 2 x 2
2 1 0 y = −1
3 2 0 z 1
par la méthode de Cramer. On a
1 −1 2
A = 2 1 0 , det(A) = 2,
3 2 0
2 −1 2
A1 = −1 1 0 , det(A1 ) = −6,
1 2 0
1 2 2
A2 = 2 −1 0 , det(A2 ) = 10,
3 1 0
1 −1 2
A3 = 2 1 −1 , det(A3 ) = 10,
3 2 1
donc
−6 10 10
x= = −3, y= = 5, z= = 5.
2 2 2
Espaces Vectoriels
3
Espaces4vectoriels,4Sous-espaces4vectoriels
Définition Espace vectoriel
Un espace vectoriel sur K est un ensemble E contenant au moins un élément, noté 0E , ou simplement 0, muni
d’une addition
u+v ∈E pour tout u, v ∈ E
et d’une multiplication par les scalaires
Pour montrer qu’un ensemble F est un sous-espace vectoriel d’un espace vectoriel E on utilise le théorème suivant.
Théorème
F est un sous-espace vectoriel de E si et seulement si
1. F ⊂ E
2. 0E ∈ F
3. u, v ∈ F =⇒ u + v ∈ F
4. u ∈ F , α ∈ K =⇒ α · u ∈ F
Exemple
L’ensemble
a b
F = { A ∈ M2 (R) | tr(A) = O2 } = a+d=0
c d
est un sous-espace vectoriel de l’ensemble E = M2 (R). En effet :
1. F ⊂ M2 (R) ;
0 0
2. 0E = ∈ F car 0 + 0 = 0 ;
0 0
a b e f a+e b+f
3. si M = et N = appartiennent à F (c’est-à-dire a+d = 0 et e+h = 0), alors M+N =
c d g h c+g d+h
appartient à F car (a + e) + (d + h) = (a + d) + (e + h) = 0 + 0 = 0 ;
a b αa αb
4. si M = appartient à F (c’est-à-dire a + d = 0) et si α ∈ R alors α · M = appartient à F car
c d αc αd
αa + αd = α(a + d) = 0.
Exemple
L’ensemble
a b
F = { A ∈ M2 (R) | det(A) = 0 } = ad = bc
c d
n’est pas un sous-espace vectoriel de l’ensemble E = M2 (R). En effet la somme de deux éléments de F peut ne pas appartenir
à F , par exemple
1 0 0 0 1 0
+ =
0 0 0 1 0 1
Exemple
On note Fonct(R, R) l’espace vectoriel des fonctions de R dans R et on considère les sous-ensembles suivants de Fonct(R, R)
¬ F = { f : R → R | f est paire } ;
F = { f : R → R | f est impaire } ;
® F = { f : R → R | f(−x) = f(x) + 2 } ;
¯ F = { f : R → R | f(x) ≥ 0 } ;
° F = { f : R → R | f(x) = 0 } ;
± F = { f : R → R | f(x) = 1 } ;
² F = { f : R → R | f(1) = 0 }.
On cherche lesquels forment des sous-espaces vectoriels :
¬ F est un sous-espace vectoriel de Fonct(R, R) car
1. x 7→ 0 ∈ F ,
2. f, g ∈ F =⇒ f + g ∈ F car (f + g)(−x) = f(−x) + g(−x) = f(x) + g(x) = (f + g)(x),
3. f ∈ F , α ∈ R =⇒ α · f ∈ F car (α · f)(−x) = αf(−x) = αf(x) = (α · f)(x) ;
F est un sous-espace vectoriel de Fonct(R, R) car
1. x 7→ 0 ∈ F ,
2. f, g ∈ F =⇒ f + g ∈ F car (f + g)(−x) = f(−x) + g(−x) = −f(x) − g(x) = −(f + g)(x),
3. f ∈ F , α ∈ R =⇒ α · f ∈ F car (α · f)(−x) = αf(−x) = −αf(x) = −(α · f)(x) ;
® F n’est pas un sous-espace vectoriel de Fonct(R, R) car il ne contient pas la fonction nulle x 7→ 0 ;
¯ F n’est pas un sous-espace vectoriel de Fonct(R, R) car l’opposé de la fonction f : x 7→ 1, qui est un élément de F , est
la fonction f : x 7→ −1, qui n’est pas un élément de F ;
° F est un sous-espace vectoriel de Fonct(R, R) car
1. x 7→ 0 ∈ F ,
2. f, g ∈ F =⇒ f + g ∈ F car (f + g)(x) = f(x) + g(x) ≡ 0 pour tout x ∈ R,
3. f ∈ F , α ∈ R =⇒ α · f ∈ F car (α · f)(x) = αf(x) ≡ 0 pour tout x ∈ R ;
± F n’est pas un sous-espace vectoriel de Fonct(R, R) car il ne contient pas la fonction nulle x 7→ 0 ;
² F = { f : R → R | f(1) = 0 } ; F est un sous-espace vectoriel de Fonct(R, R) car
1. x 7→ 0 ∈ F ,
2. f, g ∈ F =⇒ f + g ∈ F car (f + g)(1) = f(1) + g(1) = 0,
3. f ∈ F , α ∈ R =⇒ α · f ∈ F car (α · f)(1) = αf(1) = 0.
Combinaisons4linéaires,4espace4engendré
Définition Combinaison linéaire
Soient u1 , u2 , . . . , up des éléments de l’espace vectoriel E et α1 , α2 , . . . , αp des éléments de K. Le vecteur
p
X
αi · ui
i=1
Exemple
Considérons les trois vecteurs
−1 0 −1
u1 = −2 , u2 = 2 , u3 = 0 .
−3 −1 −4
Montrons que u3 est combinaison linéaire des vecteurs u1 et u2 .
Pour prouver qu’un vecteur v est une combinaison linéaire des vecteurs u1 , u2 , . . . , up il faut montrer qu’il existe p constantes
α1 , α2 , . . . , αp telles que
v = α1 u1 + α2 u2 + · · · + αp up .
Bien sûr le vecteur 0E appartient à Vect u1 , . . . , up car
p
X
0E = 0 · ui .
i=1
Exemple
B Vect {0E } =
{ 0E }
1 0 0 1 1 0 0 1 a b
B Vect , = a +b a, b ∈ R = a, b ∈ R
0 1 1 0 0 1 1 0 b a
.
Familles4libres,4génératrices,4bases
Définition Famille libre, famille génératrice, base
Soit p ∈ N∗ , E un espace vectoriel et F = u1 , . . . , up une famille de vecteurs de E. On dit que la famille F
est. . .
. . . génératrice de E si et seulement si tout vecteur de E est combinaison linéaire des éléments de F :
p
X
pour tout u ∈ E il existe (α1 , . . . , αp ) ∈ Rp tel que u = αi · ui ;
i=1
. . . libre si et seulement si le vecteur nul 0E est combinaison linéaire des éléments de F de façon unique :
p
X
αi · ui = 0E =⇒ αi = 0 ∀i
i=1
. . . base de E si et seulement si tout vecteur de E est combinaison linéaire des éléments de F de façon unique :
p
X
pour tout u ∈ E il existe unique (α1 , . . . , αp ) ∈ Rp tel que u = αi · ui ;
i=1
Les réels α1 , . . . , αp sont alors les coordonnées du vecteur u dans la base F , on écrit coord(u, F ) =
(α1 , . . . , αp ) et on dit que E est de dimension p finie.
Exemple
La famille { u = (1, 0), v = (0, 1), w = u + v } de vecteurs de R2 n’est pas libre : par exemple le vecteur (2, −1) peut s’écrire
comme 2u − v, comme 2w − 3v etc.
Exemple
Considérons les trois vecteurs
3 0 0
1 0 0
2 ,
u1 = −1 ,
u2 = 0 .
u3 =
0 1 2
Pour montrer qu’ils sont linéairement indépendants dans R4 , il faut montrer que le vecteur (0, 0, 0, 0) ne peut s’écrire que
d’une seule façon comme combinaison linéaire de u1 , u2 et u3 . Supposons que
0 = α1 u1 + α2 u2 + α3 u3 ,
Théorème de la dimension
Soit F une famille d’éléments de E de dimension finie n. Les propriétés suivantes sont équivalentes :
¶ F est une base de E
· F est libre et de cardinal n
¸ F est génératrice de E et de cardinal n
¹ F est libre et génératrice de E
Attention
On utilise ce théorème principalement pour montrer qu’une famille F est une base de E. On utilisera surtout les
implications suivantes (avec E de dimension n) :
B si F est libre et de cardinal n alors F est une base de E
B si F est libre et génératrice de E alors F est une base de E
Exemple
Avec n ∈ N, l’espace vectoriel Rn est de dimension n. La famille B = { (1, 0, . . . , 0); (0, 1, . . . , 0); . . . ; (0, 0, . . . , 1) } est une base,
appelée base canonique de Rn , car pour tout vecteur u ∈ Rn , u = (u1 , u2 , . . . , un ) = u1 · (1, 0, . . . , 0) + u2 · (0, 1, . . . , 0) + · · · +
un · (0, 0, . . . , 1) de façon unique.
Exemple
On a déjà vu que A = { (1, 0), (0, 1) } est une base de R2 et que par conséquent R2 est de dimension 2. Soit B =
{ (2, −1), (1, 2) }. Pour prouver que B est une base de R2 on va prouver qu’elle est une famille libre de cardinal 2 :
B B est une famille libre car
(
2α1 + α2 = 0
α1 · (2, −1) + α2 · (1, 2) = (0, 0) =⇒ =⇒ α1 = α2 = 0,
−α1 + 2α2 = 0
B cardinal(B ) = 2.
Exemple
Avec n ∈ N, l’espace vectoriel Rn [x] des polynômes de degré ≤ n est de dimension n + 1. La base C = { 1, x, x 2 , . . . , x n } est
appelée base canonique de Rn [x] car, pour tout polynôme p ∈ Rn [x], p(x) = a0 + a1 x + a2 x 2 + · · · + an x n de façon unique.
Exemple
Avec n, m ∈ N∗ , l’espace vectoriel Mn,m (R) des matrices n × m est un espace vectoriel de dimension nm. L’espace vectoriel
Mn (R) des matrices n × n est un espace vectoriel de dimension n2 . La base canonique de M2 (R) est
1 0 0 1 0 0 0 0
C= , , , .
0 0 0 0 1 0 0 1
Définition Vecteurs linéairement indépendants
Quand une famille est libre, on dit que les vecteurs qui la composent sont linéairement indépendants. Une famille
liée est une famille non libre.
Exemple
B { u } est une famille libre si et seulement si u 6= 0E .
B L’espace vectoriel { 0E } n’as pas de base, il est de dimension 0.
B Soit E un espace vectoriel de dimension n. Le seul sous-espace vectoriel de E de dimension 0 est { 0E }, le seul sous-espace
vectoriel de E de dimension n est E.
Exemple
Soient u = (2, −1, 3), v = (−4, 2, −6) et w = (−4, 2, 6).
B u et v sont colinéaires car v = 2 · u : la famille { u, v } n’est donc pas libre ;
B u et w ne sont pas colinéaires : la famille { u, w } est libre ;
B v et w ne sont pas colinéaires : la famille { v, w } est libre.
Théorème
Soit F une famille de vecteurs. Si deux vecteurs de F sont colinéaires alors la famille est liée. La réciproque est
fausse.
Exemple
B Soit F = { u, v, w } avec u = (1, 0, −1), v = (2, 3, 5) et w = (−1, 0, 1). La famille est liée car w = (−1) · u.
B Soit F = { u, v, w } avec u = (1, 1, −1), v = (2, −1, 2) et w = (3, 0, 1). La famille est liée car w = u + v. Cependant les
vecteurs u, v et w ne sont pas à deux à deux colinéaires.
Attention
Pour montrer qu’une famille de plus de deux vecteurs est libre, on sera amené à résoudre le système linéaire
correspondant, qui est un système homogène : la famille est libre si et seulement si le système admet uniquement
la solution nulle.
Attention
Le rang d’une matrice A est le rang des vecteurs colonnes de A, c’est-à-dire la dimension du sous-espace vectoriel
qu’ils engendrent. Donc
rg(F ) = rg([e1 , e2 , . . . , en ]),
où [e1 , e2 , . . . , en ] est la matrice dont les colonnes sont les vecteurs de la famille F .
Applications Linéaires
4
Rappels : relation, fonction, application
Définition
Soient E et F deux ensembles.
B Une application f de E dans F est une fonction de E dans F dont le domaine de définition est égal à E.
B Une injection f de E dans F est une application de E dans F vérifiant
∀y ∈ F ∃x ∈ E y = f(x).
B Une bijection f de E dans F est une application de E dans F qui est injective et surjective.
Exemple
E F
1. Elle n’est pas une fonction.
E F
2. Elle est une fonction mais elle n’est pas une application.
E F
3. Elle est une application ni injective ni surjective.
E F
4. Elle est une application surjective non injective.
E F
5. Elle est une application injective non surjective.
E F
6. Elle est une bijection.
Définitions
Définition Application linéaire
Soit E, F deux espaces vectoriels. Une application f : E → F est dite linéaire (ou homomorphisme) de E vers F si
B f(u + v) = f(u) + f(v) pour tout u, v ∈ E,
B f(α · u) = α · f(u) pour tout u, α ∈ K,
ou, de manière équivalente,
B f(α · u + β · v) = α · f(u) + β · f(v) pour tout u, v ∈ E et pour tout α, β ∈ K.
Exemple
Soit les applications :
¬ f : R3 → R3 définie par f(x, y, z) = (x + 2y + 3z, 2y − z, x + z) ;
f : R3 → R3 définie par f(x, y, z) = (0, 2y − z, 0) ;
® f : R3 → R3 définie par f(x, y, z) = (x + 2y + 3, 2y − z, x + z) ;
¯ f : R3 → R3 définie par f(x, y, z) = (x + 2y + 3z, 2yz, x + z) ;
° f : R3 → R définie par f(x, y, z) = x + 2y + 3z ;
± f : R → R définie par f(x) = x 2 + 2x.
On veut trouver celles qui sont linéaires :
¬ f est une application linéaire car pour tout (x, y, z), (x 0 , y0 , z 0 ) ∈ R3 et pour tout a, b ∈ R on a
f(ax + bx 0 , ay + by0 , az + bz 0 )
= (ax + bx 0 + 2(ay + by0 ) + 3(az + bz 0 ), 2(ay + by0 ) − (az + bz 0 ), ax + bx 0 + (az + bz 0 ))
= a(x + 2y + 3z, 2y − z, x + z) + b(x 0 + 2y0 + 3z 0 , 2y0 − z 0 , x 0 + z 0 ) = af(x, y, z) + bf(x 0 , y0 , z 0 );
f est une application linéaire car pour tout (x, y, z), (x 0 , y0 , z 0 ) ∈ R3 et pour tout a, b ∈ R on a
® f n’est pas une application linéaire car par exemple f(0, 0, 0) = (3, 0, 0) ;
¯ f n’est pas une application linéaire car pour (x, y, z) ∈ R3 \ { (0, 0, 0) } et pour a ∈ R \ { 0; 1 } on a
° f est une application linéaire car pour tout (x, y, z), (x 0 , y0 , z 0 ) ∈ R3 et pour tout a, b ∈ R on a
f(ax + bx 0 , ay + by0 , az + bz 0 )
= ax + bx 0 + 2(ay + by0 ) + 3(az + bz 0 )
= a(x + 2y + 3z) + b(x 0 + 2y0 + 3z 0 ) = af(x, y, z) + bf(x 0 , y0 , z 0 );
± f n’est pas une application linéaire car par exemple f(2) = 8 6= 2f(1) = 3.
Définition
Soit f : E → F une application linéaire.
B Si f : E → F est bijective, on dit que f est un isomorphisme de E sur F .
B Si F = E, on dit que f : E → E est un endomorphisme de E.
B Si F = E et f : E → E est bijective, on dit que f est un automorphisme de E.
B Si F = R, on dit que f : E → R est une forme linéaire.
B Pour prouver qu’une application f : E → F est linéaire on utilise la définition.
B Si f est une application linéaire, pour prouver qu’elle est un isomorphisme il suffit de prouver qu’elle est bijective ;
B si f est une application linéaire, pour prouver qu’elle est un endomorphisme il suffit de prouver que f(E) ⊂ E ;
B si f est une application linéaire, pour prouver qu’elle est un automorphisme il suffit de prouver qu’elle est bijective
et que f(E) ⊂ E.
Exemple
L’application nulle
f: E → F
u 7→ 0F
f: E → E
u 7→ u
Exemple
Les applications linéaires de R dans R sont les applications x 7→ ax (à ne pas confondre avec les applications affines).
Exemple
Les formes linéaires de R3 dans R sont les applications (x, y, z) 7→ ax + by + cz.
Définition
B L’ensemble des applications linéaires de E vers F est noté L(E, F ) ou Hom(E, F ) ;
B l’ensemble des isomorphismes de E sur F est noté Isom(E, F ) ;
B L’ensemble des endomorphismes de E est noté L(E) ou End(E) ;
B L’ensemble des automorphismes de E est noté Aut(E).
Propriété
¶ Soit f : E → F une application linéaire. L’image du vecteur nul est le vecteur nul : f(0E ) = 0F .
· Soit f : E → F une application linéaire. L’image de l’opposé est l’opposé de l’image : f(−u) = −f(u) pour
tout u ∈ E.
¸ Soit f : E →PF une application linéaire. L’image d’une combinaison linéaire est la combinaison linéaire des
p Pp
images : f( i=1 αi ui ) = i=1 αi f(ui ) pour tout u1 , u2 , . . . , up ∈ E.
¹ La composée de deux applications linéaires f : E → F et g : F → G est linéaire : f ∈ L(E, F ) et g ∈ L(F , G)
=⇒ g ◦ f ∈ L(E, G).
º La somme de deux applications linéaires est linéaire : f ∈ L(E, F ) et g ∈ L(E, F ) =⇒ f + g ∈ L(E, F ).
» Le produit entre un scalaire et une application linéaire est linéaire : f ∈ L(E, F ) et α ∈ R =⇒
αf ∈ L(E, F ).
¼ Si f est un isomorphisme, alors f −1 est un isomorphisme : f ∈ Isom(E, F ) =⇒ f −1 ∈ Isom(E, F ).
½ La composée de deux isomorphismes f : E → F et g : F → G est un isomorphisme : f ∈ Isom(E, F ) et
g ∈ Isom(F , G) =⇒ g ◦ f ∈ Isom(E, G).
ker(f) = { u ∈ E | f(u) = 0F } .
La détermination du ker(f) conduit donc naturellement à la résolution d’un système linéaire homogène.
f
E F
ker(f)
0E 0F
B On appelle image d’une application linéaire f de E vers F l’ensemble des vecteurs v ∈ F tels qu’il existe u ∈ E
vérifiant f(u) = v. L’image est notée im(f). On a donc
im(f) = { v ∈ F | ∃ u ∈ E, v = f(u) } .
f
E F
im(f)
0E 0F
B On appelle rang d’une application linéaire f de E vers F la dimension de l’image de f. On le note rg(f). On a
donc
rg(f) = dim(im(f)).
Proposition
B ker(f) est un sous espace vectoriel de E.
B im(f) est un sous espace vectoriel de F .
Proposition
B f est injective si et seulement si ker(f) = { 0E }.
B f est surjective si et seulement si im(f) = F .
B f est bijective si et seulement si ker(f) = { 0E } et im(f) = F .
Proposition
Soit E et F deux espaces vectoriels de dimension finie et f une application linéaire de E vers F .
¶ L’image d’une base de E est une famille génératrice de im(F ).
· L’image d’une famille génératrice de E est une famille génératrice de F si et seulement si f est surjective.
¸ L’image d’une famille libre de E est une famille libre de F si et seulement si f est injective.
¹ L’image d’une base de E est une base de F si et seulement si f est bijective.
º S’il existe un isomorphisme de E vers F alors dim(E) = dim(F ).
Théorème du rang ou des dimensions
dim(E) = dim(ker(f)) + rg(f)
Proposition
Soit E et F deux espaces vectoriels de dimension finie et f une application linéaire de E vers F .
Si dim(E) = dim(F ), il y a équivalence entre :
B f ∈ Isom(E, F ),
B ker(f) = { 0E },
B im(f) = F , i.e. rg(f) = dim(F ).
Cas particulier : si E = F , il y a équivalence entre :
B f ∈ Aut(E),
B ker(f) = { 0E },
B im(f) = E.
Matrices et applications linéaires
Définition Matrice d’une application linéaire
Soit
E et F deux espaces vectoriels,
B = { e1 , e2 , . . . , en } une base de E,
C = { e01 , e02 , . . . , e0m } une base de F ,
f : E → F une application linéaire de E dans F .
On appelle matrice de f relativement aux bases B de E et C de F la matrice m × n dont la j-ème colonne est
constituée des coordonnées de f(ej ) dans la base C :
a11 . . . a1j . . . a1n
.. .. ..
. . .
M(f, B , C) = ai1 . . . aij . . . ain
.. .. ..
. . .
am1 . . . amj . . . amn
coordonnées de f(ej )
On voit tout de suite que la matrice d’une application linéaire ne sera pas la même suivant l’ordre dans lequel on
prend les vecteurs de B et l’ordre dans lequel on prend les vecteurs de C.
Exemple
Si B = { b1 = (1, 0, 0), b2 = (0, 1, 0), b3 = (0, 0, 1) } est la base canonique de R3 et si C = { c1 = (1, 0), c2 = (0, 1 } est la base
canonique de R2 , l’application linéaire f : R3 → R2 définie par f(b1 ) = 2c1 − c2 , f(b2 ) = 5c2 , f(b3 ) = −c1 + 3c2 , a pour matrice
2 0 −1
M(f, B , C) = .
−1 5 3
Propriété
Soit A une matrice d’ordre m × n, E un espace vectoriel de dimension n, F un espace vectoriel de dimension m.
Quelles que soient les bases choisies dans E et F , le rang de l’application linéaire f : E → F associée à A est
toujours le même est est égale au rang de la matrice A.
Propriété
Soit E et F deux espaces vectoriels, B une base de E, C une base de F , f : E → F une application linéaire de E
dans F . Alors
B f est injective si et seulement si ker(f) = { 0E } si et seulement si rg(M(f, B , C)) = dim(E),
B f est surjective si et seulement si im(f) = F si et seulement si rg(M(f, B , C)) = dim(F ),
B f est bijective si et seulement si ker(f) = { 0E } et im(f) = F si et seulement si rg(M(f, B , C)) = dim(E) =
dim(F ) si et seulement si det(M(f, B , C)) 6= 0.
Proposition
Une matrice carrée est inversible si et seulement si c’est la matrice d’un isomorphisme.
Exemple
La matrice de l’application linéaire nulle
f: E → F
u 7→ 0F
Exemple
Soient B = { e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) } et C = { e01 = (1, 0), e02 = (0, 1) } les bases canoniques de R3 et R2
respectivement, et soit f : R3 → R2 l’application linéaire telle que
Comme
f(e1 ) = e01 + 2e02 , f(e2 ) = 3e01 + 4e02 , f(e3 ) = 5e01 + 6e02 ,
alors
1 3 5
M(f, B , C) = .
2 4 6
Si u = xe1 + ye2 + ze2 ∈ R3 , i.e. que u a pour coordonnées (x, y, z) dans la base B , alors f(u) a pour coordonnées dans la
base C le vecteur
x
1 3 5 x + 3y + 5z
M(f, B , C) coord(u, B ) = y = = coord(f(u), C).
2 4 6 2x + 4y + 6z
z
On a donc f(u) = (x + 3y + 5z; 2x + 4y + 6z) dans la base C, ce qui confirme le calcul direct f(u) = xf(e1 ) + yf(e2 ) + zf(e3 ).
Diagonalisation
5
: B = {e1 , e2 , . . . , en }
Soit E un espace vectoriel de dimension n dont une base est
E −→ E
On note f une application linéaire définie par : f : et soit A sa matrice dans la
x 7−→ f (x)
base B.
Préliminaires
Soit (x, b) ∈ E 2 . On note X et B leur représentation sous forme de vecteurs dans la base B.
La résolution du système linéaire :
f (x) = b
équivaut à la résolution du système matriciel :
A.X = B
La résolution de ce système linéaire peut se faire en appliquant la méthode dite du Pivot de Gauss afin
de se ramener à un système triangulaire du type :
0
a1,1 .x1 +a01,2 .x2 +a01,3 .x3 · · · +a01,n .xn = b01
a02,2 .x2 +a02,3 .x3 · · · +a02,n .xn = b02
0
a03,3 .x3 · · · +a03,n .xn = b03
0 0
.. .. .. ..
. . . = .
0 ... ... 0 +a0n,n .xn = b0n
Il faut trouver une base de E dans laquelle l’expression de la matrice de f est plus simple que dans
la base B.
=⇒ Diagonaliser (resp. triangulariser) une application (ou une matrice), c’est trouver une base (e1 , e2 , · · · , en )
Pi
où f (ei ) = λi ei (resp f (ei ) = j=1 αij ej ).
=⇒ Diagonaliser (resp. triangulariser) une application (ou une matrice), c’est trouver une matrice in-
versible P telle que la matrice ∆ = P −1 .A.P soit diagonale (resp triangulaire).
La diagonalisation d’une matrice est utile pour calculer ses puissances. Soit A une matrice semblable
à une matrice diagonale ∆ (A = P ∆P −1 ).
Les puissances de la matrice A se calculent de la façon suivante :
An = P ∆n P −1
La puissance nème d’une matrice diagonale se calcule en élevant à la puissance n les termes diagonaux.
Soit λ ∈ K. On dit que λ est valeur propre de f s’il existe x ∈ E \{0} tel que f (x) = λx
Si λ ∈ K est une valeur propre de f , alors Ef (λ) = {x ∈ E /f (x) = λx} est l’espace propre associé à λ
Si λ ∈ K est une valeur propre de f , alors tout vecteur de Ef (λ) est appelé vecteur propre associé à la
valeur propre λ.
Propriétés
Soit λ ∈ K. Ef (λ) = {x ∈ E/f (x) = λx} = ker(f − λ.Id) est un sous espace vectoriel de E stable par f .
λ ∈ Spec(f ) ⇐⇒ Ef (λ) 6= {0}
Remarque
Le produit des valeurs propres est égal au déterminant de f et la somme des valeurs propres à la Trace
(somme des éléments diagonaux) de la matrice représentative de f dans une base quelconque.
Exemple
1 2
Montrez que les valeurs propres de la matrice : B = sont : λ1 = −1 et λ2 = 4.
3 2
Conditions de diagonalisation
Définitions
On dit que l’application linéaire f (ou la matrice A) est diagonalisable si E possède une base de vecteurs
propres de f (ou de A).
Cette base est appelée base propre.
On appelle ordre de la valeur propre λi l’ordre de la racine λi dans le polynôme caractéristique det(A−λId).
On note αi l’ordre de la valeur iième valeur propre.
Propriétés
Remarques
4.3.4 Application
1 2
Cherchons la matrice de changement de base P associée à la matrice : B = .
3 2
On sait que la matrice B est diagonalisable car elle possède 2 valeurs propres distinctes λ1 = −1 et λ2 = 4.
La résolution des 2 équations
A.Xi = λi X permetde trouver
une base des 2 espaces propres :
1 2
E−1 de base u−1 = et E4 de base u4 =
−1 3
0 −1 0
Dans la base propre : B = (u−1 , u4 ), la matrice de f est diagonale : ∆ = .
0 4
Enfin on a la relation suivante entre les matrices B et ∆ : ∆ = P −1 .B.P , avec :
1 2 1 3 −2
P = et P −1 = .
−1 3 5 1 1
Exemple d’une matrice
non-diagonalisable
1 0
Soit la matrice : C = .
2 1
La matrice C possède une seule valeur propre d’ordre 2 : λ = 1. La matrice est diagonalisable si dimEλ = 2.
Eλ = ker(C − Id)
x 0 = 0
Eλ = u= /
y 2x = 0
x x = 0
Eλ = u= /
y y = ∀
Remarque
On peut montrer que sur C