Introduction à l'Algèbre Linéaire
Introduction à l'Algèbre Linéaire
Algèbre linéaire 1
2017-2018
1. Ce polycopié a été rédigé par Johan Taflin et modifié à la marge par Emmanuel Wagner.
2
[Link]@[Link]
Bureau A322
3
Préface
Ce texte est destiné aux étudiants de première année de licence physique/chimie à l’uni-
versité de Bourgogne. Il s’agit d’une introduction à l’algèbre linéaire et au calcul matriciel.
Cette version est susceptible de contenir des coquilles et des erreurs. Tout commentaire
est le bienvenu.
Méthodologie : L’assimilation d’un nouveau cours est difficile et exige un travail person-
nel assidu. Il est important de s’approprier les notions, de trouver ses propres exemples et
contre-exemples, de connaître les définitions, de s’interroger sur les hypothèses des énoncés
etc.
Par ailleurs, il est illusoire de penser que ces notes de cours puissent remplacer une
présence attentive en cours magistral.
Table des matières
1 Matrices 1
1.1 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Rang et noyau d’une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Inversion de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Espaces Vectoriels 15
2.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Familles génératrices, familles libres . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Rang d’un système de vecteurs et rang d’une matrice . . . . . . . . . . . . . 22
2.6 L’espace vectoriel des polynômes . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Applications linéaires 27
3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Noyau, image et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Calculs pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Matrices d’une application linéaire, matrices de passage . . . . . . . . . . . 33
4 Déterminant 35
4.1 Formes n-linéaires, formes alternées, déterminant . . . . . . . . . . . . . . . 35
4.2 Calculs pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Matrices
Ce chapitre introduit des objets très pratiques en algèbre linéaire : les matrices. Ce
sont des tableaux de nombres sur lesquels il est possible de faire une série d’opérations.
Bien que leur manipulation soit très simple, elles interviennent dans de nombreux pro-
blèmes. Nous les utiliserons par la suite aussi bien pour résoudre des systèmes linéaires
que pour représenter des applications linéaires. Par ailleurs, les méthodes introduites dans
ce chapitre sont algorithmiques, elles jouent un rôle important en informatique et sont
présentes dans presque toutes les modélisations.
Définition 1.3. L’ensemble des matrices de taille m × n sera noté Mm,n (R).
Définition 1.4. Un élément de Mm,1 (R) est un vecteur colonne de taille m. Un élément
de M1,n (R) est un vecteur ligne de taille n.
Définition 1.8. Soit A = (aij ) ∈ Mm,n (R). La transposée de A est la matrice B = (bij )
de Mn,m (R) avec bij = aji . On la note t A.
Exemple 1.9. Si on reprend l’exemple précédent, la transposée de
5 −1 0 3
A= 0 1 2 3
−1 −7 0 12
est
5 0 −1
−1 1 −7
t
A= .
0 2 0
3 3 12
Il est possible de définir deux opérations naturelles sur les matrices : l’addition de deux
matrices de même taille et la multiplication d’une matrice par un nombre réel.
Définition 1.10. Si A = (aij ) et B = (bij ) sont deux éléments de Mm,n (R), la somme de
A et B, notée A + B, est la matrice C = (cij ) avec cij = aij + bij .
Exemple 1.11. Par exemple dans le cas de matrice 2 × 4
! ! !
0 2 7 9 1 −2 0 −5 1 0 7 4
+ = .
17 −4 0 1 −12 −1 −1 0 5 −5 −1 1
1.1. Calcul matriciel 3
Définition 1.12. Si A = (aij ) est une matrice de taille m × n et λ un nombre réel alors
la multiplication de A par λ est donnée par la matrice λA = (λaij ).
Exemple 1.13. Si la matrice A est donnée par
!
8 2 −1 6
A=
7 4 0 −4
Il est facile de voir qu’il s’agit de l’une unique matrice A de Mm,n (R) telle que A + B = B
pour toute matrice B de Mm,n (R). S’il n’y a pas d’ambiguïté sur les indices, on la notera
simplement par 0.
Il existe une troisième opération sur les matrices, à première vue moins intuitive mais
essentielle pour la suite.
Définition 1.15. Soit m, n et p trois entiers. La multiplication d’une matrice A = (aij )
de taille m × n par une matrice B = (bij ) de taille n × p est une matrice AB = (cij ) de
taille m × p où
n
X
cij = aik bkj .
k=1
Remarque 1.16. Il n’est pas possible en général de faire la multiplication de deux ma-
trices quelconques. Le produit AB n’est possible que si le nombre de colonnes de la matrice
A est égal au nombre de lignes de la matrice B.
Exemple 1.17. 1) Un cas simple mais intéressant est celui de la multiplication d’un
vecteur ligne par un vecteur colonne de même taille. Le résultat est un réel donné par
b1
b2
a1 a2 · · · an ×
.. = a1 b1 + a2 b2 + · · · + an bn .
.
bn
2) De manière plus générale si A = (aij ) ∈ Mm,n (R) et B = (bij ) ∈ Mn,p (R), le coefficient
cij de AB = (cij ) ∈ Mm,p (R) est donnée par la multiplication de la i-ème ligne de A par
la j-ème colonne de B.
a11 ··· a1n c11 ··· c1j ··· c1
. .. .. . .. .. .. ..
.. b11 · · · b1j · · · b1p ..
. . . . . .
.. .. .. .. .. =
ai1 · · · ain . c · · · cij ··· cip
. . . . . .i1
. .. .. b
.. .. .. ..
. . . · · · b · · · bnp .. . . . .
n1 nj
am1 · · · amn cm1 · · · cmj · · · cmp
4 Chapitre 1. Matrices
Attention : Même si le produit AB est défini, ce n’est pas forcément le cas pour
le produit BA. Et quand bien même les deux produits seraient bien définis, en général
AB 6= BA. Le produit matriciel n’est pas commutatif !
! !
0 1 1 1
Exemple 1.18. Soit A = et B = . On peut vérifier que
0 0 0 0
! !
0 0 0 1
AB = 6= BA = = A.
0 0 0 0
A(B + C) = AB + AC,
et
(A + B)C = AC + BC.
3) Si λ ∈ R alors
λ(AB) = (λA)B = A(λB).
Proposition 1.20. Soit A et B deux matrices. Si le produit AB est bien défini alors le
produit t B t A l’est aussi et t B t A = t (AB).
Les matrices avec autant de lignes que de colonnes interviennent souvent dans la pra-
tique.
Définition 1.21. Une matrice de taille n × n est dite carrée. L’ensemble de toutes ces
matrices est noté Mn (R). Pour une matrice A = (aij ) ∈ Mn (R), les coefficients aii ,
1 ≤ i ≤ n, sont appelés les coefficients diagonaux de A.
Définition 1.22. La matrice identité de taille n est la matrice de Mn (R) dont les coef-
ficients diagonaux valent 1 et tous les autres coefficients valent 0. On la note In , Idn ou
simplement Id.
1 0 ··· 0
0 1 ..
.
In = .
. ..
. . 0
0 ··· 0 1
Comme son nom l’indique, la multiplication par In agit par identité.
Proposition 1.23. Si A ∈ Mm,n (R) alors
AIn = Im A = A.
Définition 1.24. Une matrice A ∈ Mn (R) est dite inversible s’il existe B ∈ Mn (R) tel
que
AB = BA = In .
Dans ce cas, B est appelé inverse de A et est noté A−1 . L’ensemble des matrices inversibles
de Mn (R) est désigné par Gln (R), pour groupe linéaire.
Attention : Si A et B sont dans Gln (R) alors le produit AB l’est aussi et
(AB)−1 = B −1 A−1 .
Remarque 1.25. Nous verrons dans le chapitre sur les applications linéaires que pour
qu’une matrice A soit inversible, il suffit qu’elle ait un inverse à gauche (c.à.d une matrice
B telle que BA = In ) ou un inverse à droite (c.à.d une matrice C telle que AC = In ).
Dans la suite du cours, nous rencontrerons un certain nombre d’ensembles de matrices
particulières.
Définition 1.26. Soit A = (aij ) ∈ Mn (R).
1) Si aij = 0 dès que i > j alors la matrice A est dite triangulaire supérieure,
2) Si aij = 0 dès que i < j alors la matrice A est dite triangulaire inférieure,
3) Si aij = aji pour tout 1 ≤ i, j ≤ n (autrement dit si t A = A) alors A est dite symétrique,
4) Si aij = −aji pour tout 1 ≤ i, j ≤ n (autrement dit si t A = −A) alors A est dite anti-
symétrique. En particulier, les coefficients diagonaux de A sont nuls.
Exemple 1.27. 1) La matrice
2 4 −8
0 7 1
0 0 −1
est triangulaire supérieure alors que
3 0 0 0
1 4 0 0
2 −1 0 0
1 2 3 4
est triangulaire inférieure.
2) La matrice
1 2 −3 −1
2 0 9 7
−3 9 5 1
−1 7 1 8
6 Chapitre 1. Matrices
Définition 1.31. Une matrice est dite échelonnée si le premier coefficient non nul de la
ligne i + 1 est à droite de celui de la ligne i. Dans ce cas, le premier coefficient non nul
d’une ligne est appelé pivot.
Définition 1.32. Une matrice est dite échelonnée réduite si elle est échelonnée et vérifie
les deux propriétés suivantes :
1) Les pivots valent tous 1.
2) Dans sa colonne, le pivot est le seul coefficient non nul.
le sont et leurs pivots sont marqués en bleu. Par contre elles ne sont pas échelonnées
réduites.
2) La matrice
0 1 0 6 0
0 0 1 4 0
0 0 0 0 1
est échelonnée réduite.
Plus généralement, on notera parfois les matrices avec des blocs. Par exemple, si
1 2 3
A = 4 5 6
7 8 9
8 Chapitre 1. Matrices
alors
1 2 3 !
5 6
A = 4 B avec B =
8 9
7
ou encore
1 2 3
A = 4 C avec C = 5 6 .
7 8 9
La méthode
0
..
A = . A0
On choisit une ligne dont le premier coefficient est non nul et on la place en première
ligne.
Etape 4 (Itération)
Si A0 est non nulle, on reprend l’étape 1 avec elle. Sinon, on arrête l’algorithme.
Puisque après une boucle, l’algorithme reprend avec une matrice plus petite et que la
matrice d’origine est de taille finie, l’algorithme aboutit forcément. De cette manière, en
partant de n’importe quelle matrice, on arrive à une matrice échelonnée. De là, on peut
faire deux étapes supplémentaires pour obtenir une matrice échelonnée réduite.
1.3. La méthode du pivot 9
Etape 5
Etage 6
On nettoie au dessus des pivots.
Remarque 1.34. Il est toujours possible de faire des étapes intermédiaires si cela semble
simplifier les calculs.
Exemple 1.35. Considérons la matrice suivante
0 4 2 6
0 2 2 3
A= .
0 1 0 1
0 0 4 2
On choisit une ligne de la matrice en question dont le premier coefficient est non nul. Pour
simplifier les calculs, il peut être astucieux de prendre un pivot simple, par exemple 1 dans
notre cas.
0 4 2 6 L3 0 1 0 1
0 2 2 3 0 2 2 3
→ .
0 1 0 1 L1 0 4 2 6
0 0 4 2 0 0 4 2
Puis on nettoie sous le pivot
0 1 0 1 0 1 0 1
0 2 2 3 L2 − 2L1 0 0 2 1
→ .
0 4 2 6 L3 − 4L1 0 0 2 2
0 0 4 2 0 0 4 2
Et on recommence
0 1 0 1 0 1 0 1
0 0 2 1 0 0 2 1
→
0 0 2 2 L3 − L2 0 0 0 1
0 0 4 2 L4 − 2L2 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
Remarque 1.36. La forme échelonnée d’une matrice n’est pas unique mais par contre la
forme échelonnée réduite l’est.
10 Chapitre 1. Matrices
Une manière plus formelle de le voir est d’introduire les matrices suivantes. Soit n ≥ 1
et 1 ≤ k, l ≤ n trois entiers. La matrice Ekl = (eij ) ∈ Mn (R) est définie par ekl = elk = 1,
ekk = ell = 0, eii = 1 pour tout i 6= k, l et eij = 0 sinon. Multiplier à gauche une matrice
A par Ekl revient à inverser la ligne k avec la ligne l.
!
1 0 9 8
Exemple 1.39. Si n = 2 et A = alors
−2 −3 4 5
! ! !
0 1 1 0 9 8 −2 −3 4 5
E12 A = = .
1 0 −2 −3 4 5 1 0 9 8
De même, la matrice Fkl = (fij ) ∈ Mn (R) est définie par fkl = 1, fii = 1 pour tout
1 ≤ i ≤ n et fij = 0 sinon. Multiplier à gauche A par Fkl revient à échanger la ligne k par
sa somme avec la ligne l.
Exemple 1.40.
! ! !
1 1 1 0 9 8 −1 −3 13 13
F12 A = = .
0 1 −2 −3 4 5 −2 −3 4 5
Enfin, si α ∈ R, α 6= 0, alors la matrice Gk (α) = (gij ) ∈ Mn (R) est définie par gkk = α,
gii = 1 si i 6= k et gij = 0 sinon. La multiplication à gauche de A par Gk (α) revient à
multiplier la ligne k par α.
Exemple 1.41.
! ! !
3 0 1 0 9 8 3 0 27 24
G1 (3)A = = .
0 1 −2 −3 4 5 −2 −3 4 5
Pour résumer, la multiplication à gauche par une matrice élémentaire revient exac-
tement à faire une des trois opérations élémentaires sur les lignes d’une matrice. Par
conséquent, appliquer la méthode du pivot, revient à faire une succession de multiplica-
tions à gauches par des matrices élémentaires. Le théorème découle alors de la proposition
élémentaire suivante.
1.4. Résolution des systèmes linéaires 11
Proposition 1.43. Si A et B sont des matrices avec n lignes et que C a n colonnes alors
C(A|B) = (CA|CB).
E1 · · · EN AX = E1 · · · EN B c’est-à-dire A0 X = B 0 .
Théorème 1.44. Soit AX = B un système linéaire tel que la matrice (A|B) soit éche-
lonnée réduite. Le système a au moins une solution si et seulement si il n’y a pas de pivot
dans la dernière colonne.
Dans ce cas, les inconnues correspondant à une colonne avec pivot sont dites contraintes
et les autres sont dites libres. L’ensemble des solutions s’obtient en fixant arbitrairement
chacune des inconnues libres et en calculant à partir de là les variables contraintes.
0 1 2 0 9 0
Exemple 1.45. Si A = 0 0 0 1 8 et B = 0 alors la matrice (A|B) est éche-
0 0 0 0 0 1
lonnée réduite et correspond au système linéaire
x2 + 2x3
+9x5 = 0
x4 +8x5 = 0 ,
0 =1
qui n’a évidemment pas de solution car la dernière ligne est contradictoire. Cela vient du
fait que (A|B) a un pivotdans
ça dernière colonne.
2
En revanche, si C = −4 alors la matrice (A|C) est aussi échelonnée et le système
0
correspondant est
x2 + 2x3
+9x5 = 2
x4 +8x5 = −4 .
0 =0
Cette fois il n’y a pas de pivot dans la dernière colonne. Les variables x2 et x4 correspondent
à une colonne avec un pivot, elles sont donc contraintes, alors que les colonnes de x1 , x3
et x5 sont sans pivot et ces variables sont libres. L’ensemble des solutions de AX = C est
donc
S = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 | x2 = 2 − 2x3 − 9x5 , x4 = −4 − 8x5 }.
Si l’on veut une solution particulière, il suffit de choisir les variables libres de manière
arbitraire, par exemple ici x1 = 12, x3 = −1 et x5 = 1, et d’en déduire les autres variables,
ici x2 = −5 et x4 = −12.
12 Chapitre 1. Matrices
Une conséquence de ce théorème est que l’ensemble des solutions d’un système linéaire
est soit vide, soit réduit à un élément, soit infini. Dans le cas d’un système homogène, le
premier cas n’est pas possible car il y a toujours au moins une solution qui est 0.
Corollaire 1.46. Si un système homogène a (strictement) plus d’inconnues que d’équa-
tions alors il a une infinité de solutions.
On verra dans le chapître suivant que Ker(A) est un exemple d’espace vectoriel, et
obtenir une forme échélonnée réduite pour A permettra de donner des solutions de AX = 0
préférée à partir desquelles retrouver toutes les autres, cet ensemble de solutions préférées
formeront ce qu’on appelera une base de Ker(A).
Exemple 1.49. On considère :
1 2 0 2 0
0 0 1 1 0
0 0 1 1 1
A= ,
1 2 0 2 0
1 2 1 3 0
0 0 0 0 0
dont une forme échélonnée réduite est donnée par :
1 2 0 2 0
0 0 1 1 0
0 0 0 0 1
0
A = .
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
Le rang de A est donc de 3. Trouver le noyau revient donc à résoudre
x1 + 2x2 + 2x4 = 0
x3 + x4 = 0
x5 = 0
1.6. Inversion de matrices 13
On notera que la somme du nombre de variables pouvant être choisis librement dans
le calcul du noyau et du rang est évidement égal au nombre de colonnes. On reverra cette
propriété dans le chapître 3, sous le nom de Théorème du rang.
Démonstration. Si la forme échelonnée réduite de (A|In ) est (In |B), cela signifie qu’il
existe une suite de matrices élémentaires E1 , . . . , EN telle que (In |B) = E1 · · · EN (A|In ).
Cela implique, d’après la Proposition 1.43, que E1 · · · EN A = In et que B = E1 · · · EN ,
c’est-à-dire que BA = In et donc que A est inversible avec A−1 = B.
Inversement, puisque la seule matrice échelonnée réduite qui est inversible est In , si
A est inversible alors la forme échelonnée réduite de (A|In ) est forcement de la forme
(In |B).
1 2 3
Exemple 1.51. 1) Soit A = 4 5 6 . Vérifions si elle est inversible.
7 8 9
1 2 3 1 0 0 1 2 3 1 0 0
(A|I3 ) = 4 5 6 0 1 0 → L2 − 4L1 0 −3 −6 −4 1 0
7 8 9 0 0 1 L3 − 7L1 0 −6 −12 −7 0 1
1 2 3 1 0 0
→ 0 −3 −6 −4 1 0 .
L3 − 2L2 0 0 0 1 −2 1
A cette étape, on voit que l’on n’arrivera jamais à avoir In à gauche et donc que A n’est
pas inversible.
1 1 1
2) Par contre si A0 = 0 1 0 alors
2 3 3
1 1 1 1 0 0 1 1 1 1 0 0
(A0 |In ) = 0 1 0 0 1 0 → 0 1 0 0 1 0
2 3 3 0 0 1 L3 − 2L1 0 1 1 −2 0 1
14 Chapitre 1. Matrices
1 1 1 1 0 0 L1 − L2 − L3 1 0 0 3 0 −1
→ 0 1 0 0 1 0 → 0 1 0 0 1 0 .
L3 − L2 0 0 1 −2 −1 1 0 0 1 −2 −1 1
3 0 −1
Donc A0 est inversible et A−1 = 0 1 0 .
−2 −1 1
Chapitre 2
Espaces Vectoriels
La notion d’espace vectoriel est centrale aussi bien en mathématiques qu’en physique ou
en informatique. Elle cherche à formaliser l’intuition d’"espace ambiant" à trois dimensions
et ce faisant, donne un cadre bien plus général.
L’algèbre linéaire fournit un ensemble de techniques de calcul dans les espaces vectoriels
qui s’avèrent particulièrement efficaces dans de nombreux problèmes, aussi bien théoriques
qu’appliqués.
En fait, la Définition 2.1 généralise les règles de calcul sur Rn sans utiliser de système
de coordonnées.
Démonstration. 1) Si λ = 0R alors
0R · u = (0R + 0R ) · u = 0R · u + 0R · u,
λ · (0E ) = λ · (0E + 0E ) = λ · 0E + λ · 0E ,
et on obtient λ · 0E = 0E .
Inversement, si λ · u = 0E et λ 6= 0R alors
2) u + (−1) · u = (1 − 1) · u = 0R · u = 0E .
Notation 2.6. Pour simplicité, s’il n’y a pas de confusion possible le symbole · sera omis
et on écrira 0 au lieu de 0E ou 0R .
Exemple 2.7. 1) Si m ≥ 1 et n ≥ 1 sont deux entiers, alors Mm,n (R) munit des deux
lois définies dans la Définition 1.10 et la Définition 1.12 est un e.v.
2) L’ensemble F (R, R) des fonctions de R dans R est un e.v. muni des lois suivantes. Si
f et g sont deux fonctions de F (R, R) alors la valeur de f + g en x est par définition
(f + g)(x) := f (x) + g(x). De même, si λ ∈ R est un scalaire alors (λf )(x) := λf (x) par
définition.
3) Soit a ∈ R. L’ensemble {(x, y) ∈ R2 | y = ax} muni des lois induites par celles de R2 est
un e.v.
4) Soit (a, b) ∈ R2 . L’ensemble {(x, y) ∈ R2 | y = ax + b} n’est pas un e.v si b 6= 0.
Un moyen de détecter qu’un sous-ensemble n’est pas un s.e.v est donné par l’exercice
suivant.
F := {(x, y) ∈ R2 | y = x2 }
n’est pas un s.e.v de R2 bien que (0, 0) = 0R2 ∈ F. En effet, (1, 1) appartient à F mais
(−1) · (1, 1) = (−1, −1) n’est pas dans F, donc F ne peut pas être un s.e.v.
Proposition 2.15. Soit u1 , . . . , un des vecteurs d’un e.v E. Si F est un s.e.v de E conte-
nant u1 , . . . , un alors F contient toutes les combinaisons linéaires de u1 , . . . , un .
18 Chapitre 2. Espaces Vectoriels
Proposition 2.16. L’intersection de deux s.e.v est un s.e.v. Plus généralement, l’inter-
section d’une famille de s.e.v est encore un s.e.v.
Exercice 2.18. Soit F et G deux s.e.v de E. Montrer que F ∪G est un s.e.v si et seulement
si F ⊂ G ou G ⊂ F.
Définition 2.24. Soit (u1 , . . . , un ) une famille d’un e.v E. Le sous-espace vectoriel engen-
dré par la famille (u1 , . . . , un ) est l’ensemble de toutes les combinaisons linéaires possibles
des u1 , . . . , un . On le note Vect(u1 , . . . , un ).
2.3. Familles génératrices, familles libres 19
Proposition 2.3.1. L’ensemble Vect(u1 , . . . , un ) est, comme son nom l’indique, un s.e.v
de E.
Définition 2.25. Soit (u1 , . . . , un ) une famille de vecteurs d’un e.v E. Soit F un sous-
ensemble de E. On dit que la famille (u1 , . . . , un ) engendre F si F = Vect(u1 , . . . , un ). Dans
ce cas on dira aussi que la famille (u1 , . . . , un ) est une famille génératrice de F. Lorsque
Vect(u1 , . . . , un ) = E on dira simplement que (u1 , . . . , un ) est une famille génératrice.
Définition 2.27. Soit E un e.v. Une famille de vecteur (u1 , . . . , un ) est dite libre si toute
combinaison linéaire vérifiant λ1 u1 +· · ·+λn un = 0 vérifie aussi λi = 0 pour tout 1 ≤ i ≤ n.
Une famille qui n’est pas libre est dite liée.
Exemple 2.28. 1) Soit u ∈ E avec u 6= 0. La famille à un élément (u) est alors une
famille libre.
2) Toute famille contenant le vecteur nul 0 est liée.
3) Les vecteurs (1, 0, 0), (0, 1, 0) et (0, 0, 1) forment une famille libre dans R3 .
4) La famille (cos, sin) est une famille libre dans F (R, R). En effet, supposons qu’il existe
(λ, µ) ∈ R2 tel que λ cos +µ sin = 0, c’est-à-dire que pour tout x dans R, λ cos(x) +
µ sin(x) = 0. En particulier, pour x = 0 on obtient que 0 = λ cos(0) + µ sin(0) = λ et
pour x = π/2, 0 = λ cos(π/2) + µ sin(π/2) = µ. Donc λ = µ = 0 dès que λ cos +µ sin = 0,
c’est-à-dire que notre famille est libre.
Définition 2.29. Deux vecteurs u et v d’un e.v E sont dit colinéaires s’il existe λ ∈ R
tel que u = λv ou v = λu.
Proposition 2.30. Une famille de deux vecteurs (u, v) est liée si et seulement si u et v
sont colinéaires.
Attention : Il n’y a plus de tel critère pour une famille de plus de trois vecteurs !
Exemple 2.31. Les trois vecteurs u1 = (1, 0), u2 = (0, 1) et u3 = (1, 1) forment une
famille liée bien qu’aucun d’eux n’est colinéaire à un autre. En effet u1 + u2 − u3 = 0.
Proposition 2.32. Soit (u1 , . . . , un ) une famille libre d’un e.v E et v ∈ E. La famille
(u1 , . . . , un , v) est liée si et seulement si v ∈ Vect(u1 , . . . , un ).
20 Chapitre 2. Espaces Vectoriels
Démonstration. Supposons que v est dans Vect(u1 , . . . , un ). Par définition, il existe des
réels λ1 , . . . , λn tels que v = λ1 u1 + λ2 u2 + · · · + λn un . Par conséquent, λ1 u1 + · · · + λn un +
λn+1 v = 0 avec λn+1 = −1 donne une combinaison linéaire non triviale de u1 , . . . , un , v
qui s’annule et donc la famille est liée. Inversement, si la famille (u1 , . . . , un , v) est liée, il
existe des réels λ1 , . . . , λn+1 , non tous nuls, tels que λ1 u1 + · · · + λn un + λn+1 v = 0. Le
coefficient λn+1 n’est pas nul car la famille u1 , . . . , un est libre. En divisant par λn+1 on
obtient
n
X λi
v=− ui ,
λ
i=1 n+1
et donc v ∈ Vect(u1 , . . . , un ).
Théorème 2.33. Soit E un e.v engendré par une famille finie de n vecteurs (u1 , . . . , un ).
Alors, toute famille libre de E admet au plus n éléments.
Démonstration. Supposons que E possède une famille de n vecteurs (u1 , . . . , un ) qui l’en-
gendre. Soit m > n un entier et soit (v1 , . . . , vm ) une famille de m vecteurs. Notre but est
de montrer que cette famille est liée, c-à-d qu’il existe des réels λi , 1 ≤ i ≤ m, non tous
nuls tels que
m
X
λi vi = 0.
i=1
pour chaque 1 ≤ j ≤ n. On obtient ainsi un système homogène (le deuxième terme est
nul) avec m inconnues (les λ1 , . . . , λm ) et n équations (une pour chaque j, 1 ≤ j ≤ n).
Puisque m > n, le Corollaire 1.46 dit qu’il y a une infinité de solution à ce système. En
particulier, λ1 = λ2 = · · · = λm = 0 n’est pas la seule solution.
2.4. Bases et dimension 21
Définition 2.34. Si un e.v E admet une famille génératrice finie, on dit qu’il est de
dimension finie. Si ce n’est pas le cas, E est dit de dimension infinie.
Définition 2.35. Une famille libre et génératrice d’un e.v E est appelée une base de E.
Proposition 2.36. Soit E un e.v et (e1 , . . . , en ) une base de E. Tout élément u de E s’écrit
de manière unique comme combinaison linéaire de (e1 , . . . , en ). Les coefficients λ1 , . . . , λn
tels que u = λ1 e1 + · · · + λn en sont appelés les coordonnées de u dans la base (e1 , . . . , en ).
Démonstration. Puisque la famille (e1 , . . . , en ) est une base, en particulier elle est gé-
nératrice. Donc, si u est un vecteur de E, il existe des réels λ1 , . . . , λn tels que u =
λ1 e1 + · · · + λn en . Ceci montre l’existence des coordonnées.
Il reste à montrer l’unicité. Supposons que α1 , . . . , αn soient aussi des réels tels que
α1 e1 + · · · + αn en = u. On en déduit que
n
X n
X
αi ei = λi ei
i=1 i=1
et donc que
n
X
(αi − λi )ei = 0.
i=1
Or la famille (e1 , . . . , en ) est libre donc on doit forcément avoir (αi − λi ) = 0 pour tout
1 ≤ i ≤ 0, c’est-à-dire αi = λi .
Remarque 2.37. Il existe de nombreuses bases d’un même e.v E, qui donneront autant
de systèmes de coordonnées différents.
Exemple 2.38. 1) Les vecteurs (1, 0, 0), (0, 1, 0) et (0, 0, 1) forment une base de R3 .
2) Plus généralement, les vecteurs ei = (0, . . . , 0, 1, 0 . . . , 0), où le 1 se trouve à la i-ème
place, donnent une base de Rn , appelée base canonique.
Théorème 2.39. Soit E une e.v de dimension finie. Toutes les bases de E ont le même
cardinal (i.e. le même nombre d’éléments).
Démonstration. Soit (e1 , . . . , en ) et (f1 , . . . , fm ) deux bases de E. Par définition, elles sont
toutes les deux libres et génératrices. Si n < m alors par le Théorème 2.33, la famille
(f1 , . . . , fm ) est liée ce qui est une contradiction. Donc n ≤ m et par symétrie, n = m.
Définition 2.40. Si E est un e.v de dimension finie alors la dimension de E est le cardinal
d’une de ses bases. On la note dim(E) et par convention dim(E) = 0 si E = {0}.
Exemple 2.41. 1) Puisque la famille des vecteurs ei 1 ≤ i ≤ n est une base de Rn , cet
e.v est de dimension n, comme attendu.
2) Soit a ∈ R. Le s.e.v de R2 défini par {(x, y) ∈ R2 | y = ax} est de dimension 1 car le
vecteur (1, a) en est une base.
22 Chapitre 2. Espaces Vectoriels
Théorème 2.42. Soit E un e.v de dimension finie, G une famille génératrice et L une
famille libre telles que L ⊂ G . Alors, il existe une base B de E telle que L ⊂ B ⊂ G .
Proposition 2.45. Soit F et G deux s.e.v d’un e.v E de dimension finie. Alors, la di-
mension de F + G vérifie dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Corollaire 2.46. Soit F et G deux s.e.v d’un e.v E de dimension finie. Les assertions
suivantes sont équivalentes.
1) F et G sont des supplémentaires.
2) dim(E) = dim(F ) + dim(G) et F ∩ G = {0}.
3) dim(E) = dim(F ) + dim(G) et E = F + G.
Exemple 2.47. 1) L’ensemble des polynômes R[X] est de dimension infinie. En effet,
pour tout n ≥ 1, la famille (1, X, . . . , X n ) est libre ce qui implique par le Corollaire 2.44
que dim(R[X]) > n.
2) De même, l’e.v F (R, R) est de dimension infinie, ainsi que son s.e.v des fonctions
continues de R dans R.
Définition 2.48. Soit (v1 , . . . , vn ) une famille de vecteurs. Le rang de (v1 , . . . , vn ) est le
nombre maximal de vi qui sont linéairement indépendant. Dit autrement, c’est la dimension
de Vect(v1 , . . . , vn ). On le note rg(v1 , . . . , vn ).
On identifie les vecteurs vi aux colonnes Ci d’une matrice A ∈ Mm,n (R), on a alors le
résultat suivant :
2.6. L’espace vectoriel des polynômes 23
Proposition 2.49. Le rang d’une matrice A est égal au rang de son système de vecteurs
colonnes, [Link] nombre de pivot d’une de ses formes échelonnées.
On obtient aussi immédiatement le résultat suivant :
Proposition 2.50. Si A ∈ Mm,n (R) alors rg(A) ≤ min(m, n).
La proposition suivante dit que l’espace engendré par les colonnes et celui engendré
par les lignes d’une matrice sont de même dimension.
Proposition 2.51. Soit A ∈ Mm,n (R). Le rang de A est égal au rang de t A.
Démonstration. Soit A = (aij ) ∈ Mm,n (R). On note Ci , 1 ≤ i ≤ n, les colonnes de A et
Lj , 1 ≤ j ≤ m ses lignes. Rappelons qu’on identifie une colonne à un vecteur de Rm et
une ligne à un vecteur de Rn .
Le résultat équivaut à montrer que dim(Vect(C1 , . . . , Cn )) = dim(Vect(L1 , . . . , Lm )).
Posons r = dim(Vect(L1 , . . . , Lm )) et choisissons une base (u1 , . . . , ur ) de Vect(L1 , . . . , Lm ).
Par définition, il existe des réels λij , 1 ≤ i ≤ m, 1 ≤ i ≤ r, tels que
L1 = λ11 u1 + · · · + λ1r ur
.. .. .
. .
Lm = λm1 u1 + · · · + λmr ur
Chacune de ces équations est une égalité entre vecteur de Rn et donc une égalité coordon-
nées par coordonnées. Cela implique que si u1 = (α11 , . . . , α1n ), · · · , ur = (αr1 , . . . , αrn )
alors
λ11 λ12 λ1r
λ21 λ22 λ2r
C1 = α11 . + α21 . + · · · + αr1 .
,
.. .. ..
λm1 λm2 λmr
et de même pour chaque Ci , 1 ≤ i ≤ n.
λ11 λ1r
λ21 λ2r
Les Ci sont donc engendrées par r vecteurs . , . . . , .
ce qui implique que
.. ..
λm1 λmr
dim(Vect(C1 , . . . , Cn )) ≤ r. L’inégalité inverse se prouve de la même façon en raisonnant
sur t A et on obtient bien une égalité entre ces deux dimensions.
d
X
P = ad X d + ad−1 X d−1 + · · · + a1 X + a0 = an X n
n=0
où les an sont des nombres réels avec ad 6= 0. Les an sont les coefficients de P et on pose
par convention que an = 0 si n > d. On obtient alors qu’un polynôme P est une expression
de la forme P = n≥0 an X n où les an sont tous nuls sauf un nombre fini. On retrouve
P
Il est important de comprendre quand deux polynômes sont égaux. La définition, simple,
est la suivante.
Remarque 2.55. Le polynôme dont tous les coefficients sont nuls, le polynôme nul P = 0
joue un rôle particulier. Par convention on pose deg(0) = −∞.
polynôme et λ ∈ R est un réel alors λP est défini par λP = n≥0 (λan )X n . Si λ 6= 0 alors
P
deg(λP ) = deg(P ).
Proposition 2.6.1. L’ensemble de tous les polynômes muni des deux lois ci-dessus est
un espace vectoriel. On le note R[X]. Son zéro est le polynôme nul P = 0.
Proposition 2.6.2. Soit d ∈ N. L’ensemble Rd [X] des polynômes réels de degré inférieur
ou égal à d est un s.e.v de R[X].
Démonstration. En effet, Rd [X] est non vide car le polynôme nul est dedans. De plus, si
(P, Q) ∈ (R[X])2 et λ ∈ R alors deg(P + λQ) ≤ max(deg(P ), deg(Q)).
Proposition 2.6.3. La famille (1, X, X 2 , . . . , X d ) est une base de Rd [X]. Par conséquent
Rd [X] est de dimension d + 1.
Puisque un polynôme est nul si et seulement si tous ses coefficients sont nuls, on obtient
les équations
λ2 = 0
λ2 + λ1 = 0 ,
λ + 2λ + 2λ = 0
2 1 0
et on voit facilement que la seule solution est λ2 = λ1 = λ0 = 0. Donc la famille est libre
et c’est donc une base de R2 [X].
Chapitre 3
Applications linéaires
Les applications linéaires sont les applications entre espaces vectoriels qui préservent
leur structure. De nombreuses transformations géométriques comme les rotations, les sy-
métries ou les projections en font partie.
Exemple 3.2. 1) L’application entre E et F qui envoie tout élément de E sur 0 est une
application linéaire. On l’appelle l’application nulle.
2) L’application définie par
IdE : E → E
u 7→ u
est une application linéaire appelée identitée de E. On la note Id s’il n’y a pas d’ambiguïté.
3) Soit a ∈ R. L’application linéaire de R dans lui-même définie par x 7→ ax est linéaire.
En fait, tout application linéaire de R dans lui-même est de cette forme.
4) L’application
R2 → R2
(x, y) 7→ (x, 0)
est une application linéaire. C’est la projection sur l’axe des x parallèlement à l’axe des y.
5) L’application de R[X] dans lui même qui à un polynôme P associe sont polynôme dérivé
P 0 est linéaire. En effet (P + Q)0 = P 0 + Q0 et (λP )0 = λ(P )0 .
Exemple 3.4. L’application de R dans R défini par x 7→ x + 1 ne peut pas être linéaire
car elle vaut 1 en 0.
28 Chapitre 3. Applications linéaires
Pl
Proposition 3.5. Si f : E → F est une application linéaire et que i=1 λi ui est une
combinaison linéaire dans E alors
l l
!
X X
f λi ui = λi f (ui ).
i=1 i=1
fA : Rn → Rm
x1 x1
.. ..
. 7→ A .
xn xn
A = (f (e1 )| · · · |f (en )) ,
où f (ei ) ∈ Rm est représenté comme un vecteur colonne. On obtient bien une matrice de
taille m × n. De plus, on observe facilement que A × ei = f (ei ) pour tout 1 ≤ i ≤ n. Par
ailleurs, si u ∈ Rn , il existe λ1 , . . . , λn ∈ R tels que u = ni=1 λi ei . La Proposition 3.5
P
ce qui montre bien que f = fA . L’unicité de A vient du fait que si B vérifie aussi fB = f
alors Bei = f (ei ) = Aei ce qui implique que la i-ème colonne de B coïncide avec celle de
A. Donc A = B.
A = (f (e1 )| · · · |f (en ))
est un s.e.v de F.
2) Si H est un s.e.v de F alors l’image réciproque de H par f,
est un s.e.v de E.
Démonstration. 1) Soit G un s.e.v de E. On a déjà vu que 0 ∈ G et que f (0) = 0 donc
f (G) contient 0 et est donc non-vide. Soit y1 , y2 deux éléments de f (G) et soit λ ∈ R.
Par définition, il existe deux éléments x1 et x2 de G tels que f (x1 ) = y1 et f (x2 ) = y2 .
Puisque G est un s.e.v on a que x1 + x2 ∈ G et λx1 ∈ G. Par ailleurs, le fait que f soit
linéaire implique que f (x1 + x2 ) = f (x1 ) + f (x2 ) et f (λx1 ) = λf (x1 ). Par conséquent,
y1 + y2 = f (x1 ) + f (x2 ) = f (x1 + x2 ) avec x1 + x2 ∈ G donc y1 + y2 ∈ f (G). De même,
λy1 = λf (x1 ) = f (λx1 ) avec λx1 ∈ G donc λy1 ∈ f (G). On a bien vérifié les trois
conditions pour avoir un s.e.v donc f (G) est un s.e.v.
Le théorème suivant est important aussi bien théoriquement que dans la pratique.
Mais les vecteurs ui , 1 ≤ i ≤ k, sont dans le noyau de f donc f (ui ) = 0. Cela implique que
r
X
w= βj f (vj )
j=1
et donc par conséquent w ∈ Vect(f (v1 ), . . . , f (vr )). Puisque le choix de w était arbitraire,
on obtient
Im(f ) ⊂ Vect(f (v1 ), . . . , f (vr )).
Les deux inclusions impliquent l’égalité et donc la famille (f (v1 ), . . . , f (vr )) est bien géné-
ratrice de Im(f ).
Il reste à montrer que cette famille est libre. Soit λ1 , . . . , λr des scalaires tels que
λ1 f (v1 ) + · · · + λr f (vr ) = 0. Par linéarité, on a
r r
!
X X
λi f (vi ) = f λi vi =0
i=1 i=1
donc ri=1 λi vi ∈ Ker(f ). Or (u1 , . . . , uk ) est une base de Ker(f ) donc il existe des scalaires
P
α1 , . . . , αk tels que
λ1 v1 + · · · + λr vr = α1 u1 + · · · + αk uk ,
ou écrit autrement
λ1 v1 + · · · + λr vr − α1 u1 − · · · − αk uk = 0.
Mais la famille (u1 , . . . , uk , v1 , . . . , vr ) est libre donc λ1 = · · · = λr = −α1 = · · · = −αk = 0.
On est parti d’une combinaison linéaire des f (vi ) qui s’annulait et on en a conclu qu’elle
était forcément triviale, ce qui signifie que la famille (f (v1 ), . . . , f (vr )) est libre.
xn
(A|Y ) pour obtenir une matrice (A0 |Y 0 ).
-Le rang de f est le nombre de pivots dans la matrice A0 .
-Les équations de l’image sont les équations en y1 , . . . , ym qui garantissent qu’il n’y a pas
de pivot dans la dernière colonne de (A0 |Y 0 ).
-Une base de Im(f ) est donnée par la famille constituée des f (ei ) pour lesquels il y a un
pivot dans la i-ème colonne de A0 .
Exemple 3.21. Si f : R5 → R6 est définie par la matrice
1 2 0 2 0
0 0 1 1 0
0 0 1 1 1
A=
1 2 0 2 0
1 2 1 3 0
0 0 0 0 0
alors la matrice échelonnée réduite correspondante est
1 2 0 2 0 y1
0
0 1 1 0 y2
0 0 0 0 1 y3 − y2
(A0 |Y 0 ) = .
0 0 0 0 0 y4 − y1
0 0 0 0 0 y5 − y1 − y2
0 0 0 0 0 y6
Il y a 3 pivots dans A0 donc le rang de f est 3 et Im(f ) est donnée par les équations
y1
y4 − y1 = 0
Im(f ) = ... ∈ R6 y5 − y1 − y2 = 0 .
y6 y =0
6
De plus, les pivots sont dans les colonnes 1, 3 et 5 donc les trois vecteurs
1 0 0
0 1 0
0 1 1
f (e1 ) = , f (e3 ) = et f (e5 ) =
1 0 0
1 1 0
0 0 0
forment une base de Im(f ).
3.3. Matrices d’une application linéaire, matrices de passage 33
Les colonnes 2 et 4 n’ont pas de pivot donc une base de Ker(f ) est donnée par les deux
vecteurs de Ker(f ) obtenus en prenant x2 = 1 et x4 = 0 puis x2 = 0 et x4 = 1, c’est-à-dire
−2 −2
1 0
0 et −1 .
0 1
0 0
Remarque 3.23. Dans le cas d’une application f entre e.v E et F de dimension finie,
il est possible de faire la même chose dès que l’on a deux bases A et B de E et F
respectivement. On regarde alors la matrice MB,A (f ) de f dans les bases A et B sans
oublier alors que les différents vecteurs colonnes obtenus ne sont que des coordonnées dans
A ou B.
Exemple ( 3.26.
! 1) Pour
!) toute base
( ! A, la matrice
!) CA,A est l’identitée.
1 1 1 −2
2) Si A = , et B = , sont deux bases de R2 on a
1 2 0 1
!
2 −5
CA,B = .
−1 3
Remarque 3.27. Il faut faire bien attention à l’ordre des bases dans la notation. La
matrice CA,B permet de passer de la base A à la base B et non l’inverse ! Cette convention
est justifiée par la proposition suivante qui est d’une certaine manière une relation de
Chasles.
Déterminant
Dans ce chapitre, nous allons introduire la notion de déterminant dans Rn , qui à une
famille (u1 , . . . , un ) de n vecteurs de Rn associe un nombre réel. Il fournit deux informations
sur cette famille. Sa valeur absolue s’interprète comme le “volume” du parallélépipède
engendré par les vecteurs u1 , . . . , un . Le terme “volume” doit être compris ici comme
“longueur” si n = 1, “aire” si n = 2, “volume” si n = 3 et comme une notion similaire
quand n ≥ 4.
En particulier, cette interprétation géométrique implique que le déterminant est nul si
et seulement si le parallélépipède en question est “plat”, c’est-à-dire si et seulement si la
famille (u1 , . . . , un ) est liée. S’il est non nul alors u1 , . . . , un forment une base de Rn et le
signe de leur déterminant indique si cette base est un repère direct ou indirect de Rn .
La définition du déterminant en toute généralité est abstraite mais il intervient dans
de très nombreuses situations pratiques.
f : En = E × · · · × E → R
(u1 , . . . , un ) 7→ f (u1 , . . . , un ),
telle que
Définition 4.2. Soit E un e.v et f une forme n-linéaire. On dira que f est symétrique si
elle est invariante par permutation des variables, c’est-à-dire
f (u1 , . . . , ui , . . . , uj , . . . , un ) = f (u1 , . . . , uj , . . . , ui , . . . , un ),
f (u1 , . . . , ui , . . . , uj , . . . , un ) = −f (u1 , . . . , uj , . . . , ui , . . . , un ).
36 Chapitre 4. Déterminant
Remarque 4.3. 1) Si f est une n-forme alternée, il est facile de voir que f (u1 , . . . , un ) = 0
dès que ui = uj avec i 6= j.
2) Les formes bilinéaires symétriques et les formes linéaires vont jouer un rôle important
par la suite. Dans ce chapitre, on se concentrera sur les formes n-linéaires alternées.
Exemple 4.4. 1) Le produit scalaire dans R2 défini par
R2 × R2 →R
! !!
x1 x0
, 10 7→x1 x01 + x2 x02
x2 x2
Des formules similaires peuvent être données en toute dimension mais elles sont très longues
dès la dimension 4. Dans la prochaine section, on verra des méthodes pour calculer des
déterminants en toute dimension.
Une des propriétés fondamentales du déterminant est donnée par le théorème suivant.
Démonstration. Rappelons que dans un e.v de dimension n, une famille de n vecteurs est
libre si et seulement si c’est une base. Donc si les vecteurs u1 , . . . , un ne sont pas liés, ils
forment une base et par le Théorème 4.5, detB (u1 , . . . , un ) 6= 0.
Inversement, si la famille est liée, il existe une combinaison linéaire non triviale entre
les ui , c-à-d
n
X
λi ui = 0,
i=1
Définition 4.10. Soit A = (aij ) ∈ Mn (R) une matrice carrée de taille n. Le déterminant
de A est défini comme le déterminant des n vecteurs colonnes de A dans la base canonique
de Rn . On le note det(A) ou
a11 · · · a1n
.. .. ..
. . .
an1 · · · ann
38 Chapitre 4. Déterminant
Exemple 4.11. 1) En utilisant la formule obtenue dans l’Exemple 4.8 1) on trouve que
!
1 2 1 2
det = = 1 × 4 − 2 × 3 = −2.
3 4 3 4
Exemple 4.15. Si
1 2 3
A = 4 5 6 ,
7 8 9
alors ! !
5 6 1 2
A11 = , A23 = ···
8 9 7 8
Théorème 4.16 (Formule de Laplace). Soit A = (aij ) ∈ Mn (R) et 1 ≤ k ≤ n.
— Le déterminant peut se développer par rapport à la k-ième colonne :
n
X
det(A) = (−1)i+k aik det(Aik ).
i=1
— Le déterminant peut se développer par rapport à la k-ième ligne :
n
X
det(A) = (−1)k+i aki det(Aki ).
i=1
Remarque 4.17. 1) Dans chacune de ces formules, il faut bien faire attention aux signes !
2) Dans la pratique, on appliquera la formule de Laplace après avoir fait des opérations
élémentaires sur les lignes ou les colonnes afin de développer par rapport à une ligne ou
une colonne simple (par exemple avec un seul coefficient non nul).
Exemple 4.18. 1) On considère la matrice
2 1 0
A = 1 2 3 .
4 −1 0
Si on développe par rapport à la deuxième ligne, on obtient
det(A) = (−1)2+1 a21 det(A21 ) + (−1)2+2 a22 det(A22 ) + (−1)2+3 a23 det(A23 )
1 0 2 0 2 1
= −1 × +2× −3×
−1 0 4 0 4 −1
= 0 + 0 + 18 = 18.
Si on avait choisi de développer par rapport à la troisième colonne, alors on aurait obtenu
1 2 2 1 2 1
det(A) = 0 × −3× +0× = 18,
4 −1 4 −1 1 2
ce qui est bien cohérent.
2) Dans les exemples de plus grandes tailles, il est souvent très préférable de faire des
simplifications avant. Par exemple, si
1 0 1 2
1 3 2 4
B=
2 1 2 5
1 1 1 6
alors
1 0 1 2 1 0 1 2
3 1 2
1 3 2 4 0 3 1 2 1 1
det(B) = = =1× 1 0 1 = −1 × = −3.
2 1 2 5 0 1 0 1 1 4
1 0 4
1 1 1 6 0 1 0 4
40 Chapitre 4. Déterminant
Définition 5.1. Une valeur propre de f est un scalaire λ ∈ R tel qu’il existe un vecteur
u ∈ E non nul vérifiant
f (u) = λu.
Un tel vecteur est dit vecteur propre de f associé à λ.
Définition 5.3. Si λ est une valeur propre de f, on appelle espace propre associé à λ
l’ensemble des vecteurs propres associés à λ auquel on ajoute le vecteur nul. On le notera
Eλ .
Remarque 5.4. En particulier, 0 est valeur propre si et seulement si Ker(f ) n’est pas
réduit à 0.
Remarque 5.5. On peut définir les même notions pour une matrice de Mn (R), en consi-
dérant l’endomorphisme de Rn qui lui est associé.
Eλ = Ker(f − λId).
Proposition 5.1.3. Soit A ∈ Mn (R). Comme son nom l’indique, le polynôme caractéris-
tique de A est un polynôme, son degré est n.
L’ensemble de ses racines coïncide avec le spectre de A. De plus, si on note
n
X
PA (λ) = ai λ i
i=1
alors
— a0 = det(A),
— an = (−1)n ,
— an−1 = (−1)n−1 Tr(A) où Tr(A) désigne la trace de A, c’est à dire la somme des
éléments diagonaux de A.
On a alors
1−λ 0 3
A − λIn = 2 7−λ 3 ,
3 0 1−λ
et
1−λ 0 3
1−λ 3
PA (λ) = 2 7−λ 3 = (7 − λ)
3 1−λ
3 0 1−λ
= (7 − λ)((1 − λ)2 − 9) = (7 − λ)(4 − λ)(−2 − λ).
Proposition 5.1.4. Soit A ∈ Gln (R). Les polynômes caractéristiques de A et A−1 vérifient
En particulier, si λ est valeur propre de A alors λ 6= 0 et λ−1 est valeur propre de A−1 .
5.1. Valeurs propres, spectres et polynômes caractéristiques 43
et