0% ont trouvé ce document utile (0 vote)
46 vues49 pages

Introduction à l'Algèbre Linéaire

Ce document est un polycopié d'algèbre linéaire destiné aux étudiants de première année de licence physique/chimie à l'Université de Bourgogne. Il couvre des concepts fondamentaux tels que les matrices, les systèmes linéaires, les espaces vectoriels, les applications linéaires, les déterminants, et les valeurs propres. Les notes de cours soulignent l'importance d'un travail personnel assidu et ne remplacent pas la présence en cours magistral.

Transféré par

Ahmed Yahia
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
46 vues49 pages

Introduction à l'Algèbre Linéaire

Ce document est un polycopié d'algèbre linéaire destiné aux étudiants de première année de licence physique/chimie à l'Université de Bourgogne. Il couvre des concepts fondamentaux tels que les matrices, les systèmes linéaires, les espaces vectoriels, les applications linéaires, les déterminants, et les valeurs propres. Les notes de cours soulignent l'importance d'un travail personnel assidu et ne remplacent pas la présence en cours magistral.

Transféré par

Ahmed Yahia
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université de Bourgogne

Algèbre linéaire 1

2017-2018

1. Ce polycopié a été rédigé par Johan Taflin et modifié à la marge par Emmanuel Wagner.
2

[Link]@[Link]
Bureau A322
3

Préface
Ce texte est destiné aux étudiants de première année de licence physique/chimie à l’uni-
versité de Bourgogne. Il s’agit d’une introduction à l’algèbre linéaire et au calcul matriciel.
Cette version est susceptible de contenir des coquilles et des erreurs. Tout commentaire
est le bienvenu.
Méthodologie : L’assimilation d’un nouveau cours est difficile et exige un travail person-
nel assidu. Il est important de s’approprier les notions, de trouver ses propres exemples et
contre-exemples, de connaître les définitions, de s’interroger sur les hypothèses des énoncés
etc.
Par ailleurs, il est illusoire de penser que ces notes de cours puissent remplacer une
présence attentive en cours magistral.
Table des matières

1 Matrices 1
1.1 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Rang et noyau d’une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Inversion de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Espaces Vectoriels 15
2.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Familles génératrices, familles libres . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Rang d’un système de vecteurs et rang d’une matrice . . . . . . . . . . . . . 22
2.6 L’espace vectoriel des polynômes . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Applications linéaires 27
3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Noyau, image et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Calculs pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Matrices d’une application linéaire, matrices de passage . . . . . . . . . . . 33

4 Déterminant 35
4.1 Formes n-linéaires, formes alternées, déterminant . . . . . . . . . . . . . . . 35
4.2 Calculs pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

5 Valeurs propres, vecteurs propres 41


5.1 Valeurs propres, spectres et polynômes caractéristiques . . . . . . . . . . . . 41
Chapitre 1

Matrices

Ce chapitre introduit des objets très pratiques en algèbre linéaire : les matrices. Ce
sont des tableaux de nombres sur lesquels il est possible de faire une série d’opérations.
Bien que leur manipulation soit très simple, elles interviennent dans de nombreux pro-
blèmes. Nous les utiliserons par la suite aussi bien pour résoudre des systèmes linéaires
que pour représenter des applications linéaires. Par ailleurs, les méthodes introduites dans
ce chapitre sont algorithmiques, elles jouent un rôle important en informatique et sont
présentes dans presque toutes les modélisations.

1.1 Calcul matriciel


Définition 1.1. Soit m et n deux entiers. Une matrice de taille m × n est un tableau de
nombres avec m lignes et n colonnes de la forme
 
a11 a12 ··· a1n
 a21

a22 ··· a2n 

A=
 .. .. .. ,
.. 
 . . . . 
am1 am2 · · · amn

Les aij sont des réels appelés coefficients de A. On notera aussi

A = (aij )1≤i≤m ou A = (aij ),


1≤j≤n

s’il n’y a pas d’ambiguïté sur les indices.

Exemple 1.2. La matrice


!
0 5 8 −1
A = (aij ) =
1 −4 18 2

est de taille 2 × 4. Le coefficient a23 est 18 et le a12 est 5.

Définition 1.3. L’ensemble des matrices de taille m × n sera noté Mm,n (R).

Définition 1.4. Un élément de Mm,1 (R) est un vecteur colonne de taille m. Un élément
de M1,n (R) est un vecteur ligne de taille n.

Exemple 1.5. La matrice  


1 2 10 −8 3
2 Chapitre 1. Matrices

est un vecteur ligne de taille 5 alors que la matrice


 
3
 1 
 
−5
 

est un vecteur colonne de taille 4.


Définition 1.6.
 Soit A = (aij ) une matrice de Mm,n (R). La i-ème ligne de A est le
vecteur ligne ai1 ai2 . . . ain . La i-ème colonne de A est le vecteur colonne
 
a1j
 a2j 
 
 . .
 . 
 . 
amj

Exemple 1.7. Soit A la matrice 3 × 4 donnée par


 
5 −1 0 3
A= 0 1 2 3 .
 
−1 −7 0 12
 
La troisième ligne de A est −1 −7 0 12 et sa deuxième colonne
 
−1
 1 .
 
−7

Définition 1.8. Soit A = (aij ) ∈ Mm,n (R). La transposée de A est la matrice B = (bij )
de Mn,m (R) avec bij = aji . On la note t A.
Exemple 1.9. Si on reprend l’exemple précédent, la transposée de
 
5 −1 0 3
A= 0 1 2 3
 
−1 −7 0 12

est  
5 0 −1
−1 1 −7
t
A= .
 
 0 2 0
3 3 12
Il est possible de définir deux opérations naturelles sur les matrices : l’addition de deux
matrices de même taille et la multiplication d’une matrice par un nombre réel.
Définition 1.10. Si A = (aij ) et B = (bij ) sont deux éléments de Mm,n (R), la somme de
A et B, notée A + B, est la matrice C = (cij ) avec cij = aij + bij .
Exemple 1.11. Par exemple dans le cas de matrice 2 × 4
! ! !
0 2 7 9 1 −2 0 −5 1 0 7 4
+ = .
17 −4 0 1 −12 −1 −1 0 5 −5 −1 1
1.1. Calcul matriciel 3

Définition 1.12. Si A = (aij ) est une matrice de taille m × n et λ un nombre réel alors
la multiplication de A par λ est donnée par la matrice λA = (λaij ).
Exemple 1.13. Si la matrice A est donnée par
!
8 2 −1 6
A=
7 4 0 −4

alors la matrice (1/2)A est !


4 1 −(1/2) 3
.
7/2 2 0 −2
Définition 1.14. Pour m ≥ 1 et n ≥ 1 deux entiers fixés, on définit la matrice 0Mm,n (R)
comme étant la matrice de Mm,n (R) dont tous les coefficients sont nuls. On l’appelle zéro
de Mm,n (R). Par exemple, si m = 2 et n = 4 alors
!
0 0 0 0
0M2,4 (R) = .
0 0 0 0

Il est facile de voir qu’il s’agit de l’une unique matrice A de Mm,n (R) telle que A + B = B
pour toute matrice B de Mm,n (R). S’il n’y a pas d’ambiguïté sur les indices, on la notera
simplement par 0.
Il existe une troisième opération sur les matrices, à première vue moins intuitive mais
essentielle pour la suite.
Définition 1.15. Soit m, n et p trois entiers. La multiplication d’une matrice A = (aij )
de taille m × n par une matrice B = (bij ) de taille n × p est une matrice AB = (cij ) de
taille m × p où
n
X
cij = aik bkj .
k=1

Remarque 1.16. Il n’est pas possible en général de faire la multiplication de deux ma-
trices quelconques. Le produit AB n’est possible que si le nombre de colonnes de la matrice
A est égal au nombre de lignes de la matrice B.
Exemple 1.17. 1) Un cas simple mais intéressant est celui de la multiplication d’un
vecteur ligne par un vecteur colonne de même taille. Le résultat est un réel donné par
 
b1
  b2 
 
a1 a2 · · · an × 
 ..  = a1 b1 + a2 b2 + · · · + an bn .

.
bn
2) De manière plus générale si A = (aij ) ∈ Mm,n (R) et B = (bij ) ∈ Mn,p (R), le coefficient
cij de AB = (cij ) ∈ Mm,p (R) est donnée par la multiplication de la i-ème ligne de A par
la j-ème colonne de B.

   
a11 ··· a1n c11 ··· c1j ··· c1
 . .. ..   . .. .. .. .. 
 .. b11 · · · b1j · · · b1p  ..
 
. .  . . . . 
  .. .. .. .. ..  = 
   
 ai1 · · · ain   . c · · · cij ··· cip
 
 . . . . .    .i1

 . .. ..  b
 .. .. .. .. 
 . . .  · · · b · · · bnp  .. . . . .
 
n1 nj 
am1 · · · amn cm1 · · · cmj · · · cmp
4 Chapitre 1. Matrices

avec cij = ai1 b1j + ai2 b2j + · · · + ain bnj .


3) De manière plus concrète :
 
! 1 1 0 !
0 −1 3 4  1 2 1  −5 −5 −4
= .
 
1 2 −3 4 0 −1 −1 −1 8 5

 
−1 0 0

Attention : Même si le produit AB est défini, ce n’est pas forcément le cas pour
le produit BA. Et quand bien même les deux produits seraient bien définis, en général
AB 6= BA. Le produit matriciel n’est pas commutatif !
! !
0 1 1 1
Exemple 1.18. Soit A = et B = . On peut vérifier que
0 0 0 0
! !
0 0 0 1
AB = 6= BA = = A.
0 0 0 0

Attention : Comme on vient de le voir dans l’exemple précédent, le fait que AB = 0


n’implique pas que A = 0 ou B = 0.
Néanmoins, il est facile de vérifier que les opérations sur les matrices vérifient les règles
suivantes.

Proposition 1.19. 1) Le produit est distributif :

A(B + C) = AB + AC,

et
(A + B)C = AC + BC.

2) Le produit est associatif :


(AB)C = A(BC).

3) Si λ ∈ R alors
λ(AB) = (λA)B = A(λB).

4) Si A ∈ Mm,n (R) alors

0Mq,m (R) × A = 0Mq,n (R) et A × 0Mn,p (R) = 0Mm,p (R) .

Proposition 1.20. Soit A et B deux matrices. Si le produit AB est bien défini alors le
produit t B t A l’est aussi et t B t A = t (AB).

Les matrices avec autant de lignes que de colonnes interviennent souvent dans la pra-
tique.

Définition 1.21. Une matrice de taille n × n est dite carrée. L’ensemble de toutes ces
matrices est noté Mn (R). Pour une matrice A = (aij ) ∈ Mn (R), les coefficients aii ,
1 ≤ i ≤ n, sont appelés les coefficients diagonaux de A.

Parmi les matrices carrées, une est particulièrement importante.


1.1. Calcul matriciel 5

Définition 1.22. La matrice identité de taille n est la matrice de Mn (R) dont les coef-
ficients diagonaux valent 1 et tous les autres coefficients valent 0. On la note In , Idn ou
simplement Id.  
1 0 ··· 0

0 1 .. 
.
In =  .
 
. .. 
. . 0 
0 ··· 0 1
Comme son nom l’indique, la multiplication par In agit par identité.
Proposition 1.23. Si A ∈ Mm,n (R) alors
AIn = Im A = A.
Définition 1.24. Une matrice A ∈ Mn (R) est dite inversible s’il existe B ∈ Mn (R) tel
que
AB = BA = In .
Dans ce cas, B est appelé inverse de A et est noté A−1 . L’ensemble des matrices inversibles
de Mn (R) est désigné par Gln (R), pour groupe linéaire.
Attention : Si A et B sont dans Gln (R) alors le produit AB l’est aussi et
(AB)−1 = B −1 A−1 .
Remarque 1.25. Nous verrons dans le chapitre sur les applications linéaires que pour
qu’une matrice A soit inversible, il suffit qu’elle ait un inverse à gauche (c.à.d une matrice
B telle que BA = In ) ou un inverse à droite (c.à.d une matrice C telle que AC = In ).
Dans la suite du cours, nous rencontrerons un certain nombre d’ensembles de matrices
particulières.
Définition 1.26. Soit A = (aij ) ∈ Mn (R).
1) Si aij = 0 dès que i > j alors la matrice A est dite triangulaire supérieure,
2) Si aij = 0 dès que i < j alors la matrice A est dite triangulaire inférieure,
3) Si aij = aji pour tout 1 ≤ i, j ≤ n (autrement dit si t A = A) alors A est dite symétrique,
4) Si aij = −aji pour tout 1 ≤ i, j ≤ n (autrement dit si t A = −A) alors A est dite anti-
symétrique. En particulier, les coefficients diagonaux de A sont nuls.
Exemple 1.27. 1) La matrice  
2 4 −8
0 7 1 
 
0 0 −1
est triangulaire supérieure alors que
 
3 0 0 0
1 4 0 0
 
2 −1 0 0
 

1 2 3 4
est triangulaire inférieure.
2) La matrice  
1 2 −3 −1
 2 0 9 7
 
−3 9 5 1
 

−1 7 1 8
6 Chapitre 1. Matrices

est symétrique alors que  


0 1 2
−1 0 −5
 
−2 5 0
est anti-symétrique.

1.2 Systèmes linéaires


Un des avantages des matrices est qu’elles permettent de réécrire les systèmes linéaire
de manière concise et manipulable. Rappelons qu’un système linéaire est un système
d’équations linéaires


 a11 x1 + a12 x2 + ··· +a1n xn = b1

 a21 x1 + a22 x2 +

··· +a2n xn = b2
.. .. .. .. .


 . . . .

 a x +a x +
m1 1 m2 2 · · · +amn xn = bm
Dans cette exemple, il y a m équations avec n inconnues x1 , . . . , xn . En utilisant une
écriture matricielle, le système linéaire est équivalent à
AX = B
x1 b1
   
 ..   .. 
où A = (aij ) ∈ Mm,n (R), X =  .  et B =  .  . Résoudre un tel système revient à
xn bm
n
déterminer tous les n-uplets (x1 , . . . , xn ) ∈ R tels que toutes les équations sont vérifiées.
Nous verrons dans la section suivante qu’en utilisant la méthode du pivot, il est possible
de résoudre de manière systématique tout système linéaire.
Dans le cas particulier où il y a autant d’équations que d’inconnues, c’est-à-dire quand
A est une matrice carrée, et que de plus A est inversible alors pour tout B il existe un
unique X vérifiant AX = B, donné par X = A−1 B.

1.3 La méthode du pivot


Le but de cette section est d’expliquer une méthode, souvent dite du pivot de Gauss,
particulièrement efficace pour résoudre des systèmes linéaires. Elle repose sur seulement
trois opérations sur les matrices.
Définition 1.28. Soit A une matrice dont on note par Li la i-ème ligne. Une opération
élémentaire sur les lignes de A consiste à
1. remplacer une ligne Li par Li + Lj ,
2. échanger deux lignes,
3. ou multiplier une ligne par un scalaire non nul.
On notera A → A0 quand on passe d’une matrice A à une matrice A0 par une opération
élémentaire. Dans ce poly, on écrira les opérations à gauche de la nouvelle matrice.
Exemple 1.29.
       
1 2 L2 4 6 4 6 4 6
3 4 → L1 3 4 → L3 5 6 → 5 6  .
       
5 6 5 6 L2 3 4 2L3 6 8
1.3. La méthode du pivot 7

Remarque 1.30. 1) Il est aussi possible de faire plusieurs opérations élémentaires à la


fois, tant qu’elles restent réversibles. De cette façon, on peut remplacer Li par Li + λLj
avec λ ∈ R et i 6= j.
2) Par contre, il n’est pas possible de multiplier une ligne par 0 ou de faire des opérations
du type    
1 2 L1 + L2 4 6
3 4 → L1 + L2 4 6 .
   
5 6 5 6
Les systèmes linéaires associés aux matrices suivantes sont particulièrement simples à
résoudre.

Définition 1.31. Une matrice est dite échelonnée si le premier coefficient non nul de la
ligne i + 1 est à droite de celui de la ligne i. Dans ce cas, le premier coefficient non nul
d’une ligne est appelé pivot.

Définition 1.32. Une matrice est dite échelonnée réduite si elle est échelonnée et vérifie
les deux propriétés suivantes :
1) Les pivots valent tous 1.
2) Dans sa colonne, le pivot est le seul coefficient non nul.

Exemple 1.33. 1) Les matrices


   
1 0 2 1 2 2
0 0 1 , 0 0 1
   
1 0 0 0 0 2

ne sont pas échelonnées alors que


   
1 2 2 0 4 2 3 !
9 0 2 8
 0 0 1  ,  0 0 −1 5  ,
   
0 0 1 1
0 0 0 0 0 0 7

le sont et leurs pivots sont marqués en bleu. Par contre elles ne sont pas échelonnées
réduites.
2) La matrice  
0 1 0 6 0
 0 0 1 4 0 
 
0 0 0 0 1
est échelonnée réduite.

Avant d’introduire la méthode du pivot, il reste à fixer quelques notations.


Si A et B sont deux matrices avec le même nombre de lignes, on notera (A|B) la
matrice obtenue en juxtaposant A à côté de B. Par exemple, si
! ! !
1 0 9 7 −1 1 0 9 7 −1
A= et B = alors (A|B) = .
2 1 5 −2 8 2 1 5 −2 8

Plus généralement, on notera parfois les matrices avec des blocs. Par exemple, si
 
1 2 3
A = 4 5 6
 
7 8 9
8 Chapitre 1. Matrices

alors  
1 2 3 !
5 6
A =  4 B  avec B =
 
8 9
7
ou encore
   
1 2 3
A =  4 C  avec C = 5 6 .
   
7 8 9
La méthode

La méthode du pivot fournit un algorithme pour passer d’une matrice quelconque à


une matrice échelonnée (voire échelonnée réduite) en utilisant des opérations élémentaires.
Voici les différentes étapes pour une matrice A.

Etape 1 (On ignore les colonnes nulles)

Si la première colonne de A est nulle, c’est-à-dire

0
 
 ..
A =  . A0 

on reprend l’étape 1 avec A0 . Sinon on passe à l’étape suivante.

Etape 2 (Installation du pivot)

On choisit une ligne dont le premier coefficient est non nul et on la place en première
ligne.

Etape 3 (Nettoyage sous le pivot)

On remplace chacune des lignes Li (i 6= 1) par Li − λi L1 avec λi choisi de sorte que le


premier coefficient de la nouvelle ligne Li s’annule.

Etape 4 (Itération)

La matrice qu’on obtient est maintenant de la forme


 
p ×···×

 0 

 .. .
. A0
 
 
0

Si A0 est non nulle, on reprend l’étape 1 avec elle. Sinon, on arrête l’algorithme.

Puisque après une boucle, l’algorithme reprend avec une matrice plus petite et que la
matrice d’origine est de taille finie, l’algorithme aboutit forcément. De cette manière, en
partant de n’importe quelle matrice, on arrive à une matrice échelonnée. De là, on peut
faire deux étapes supplémentaires pour obtenir une matrice échelonnée réduite.
1.3. La méthode du pivot 9

Etape 5

On multiplie les lignes avec pivots pour qu’ils valent 1.

Etage 6
On nettoie au dessus des pivots.
Remarque 1.34. Il est toujours possible de faire des étapes intermédiaires si cela semble
simplifier les calculs.
Exemple 1.35. Considérons la matrice suivante
 
0 4 2 6
0 2 2 3
A= .
 
0 1 0 1
0 0 4 2

Puisque la première colonne est nulle, on considère la sous-matrice en bleu


 
0 4 2 6
 0 2 2 3 
.
 
0 1 0 1

 
0 0 4 2

On choisit une ligne de la matrice en question dont le premier coefficient est non nul. Pour
simplifier les calculs, il peut être astucieux de prendre un pivot simple, par exemple 1 dans
notre cas.    
0 4 2 6 L3 0 1 0 1
0 2 2 3 0 2 2 3
→ .
   
0 1 0 1 L1 0 4 2 6
 

0 0 4 2 0 0 4 2
Puis on nettoie sous le pivot
   
0 1 0 1 0 1 0 1
0 2 2 3 L2 − 2L1 0 0 2 1
→ .
   
0 4 2 6 L3 − 4L1 0 0 2 2
 

0 0 4 2 0 0 4 2

Et on recommence
   
0 1 0 1 0 1 0 1
0 0 2 1 0 0 2 1
→
   
0 0 2 2 L3 − L2 0 0 0 1
  

0 0 4 2 L4 − 2L2 0 0 0 0

pour obtenir une matrice échelonnée. Il reste à la réduire


     
0 1 0 1 0 1 0 1 0 1 0 0
L1 − L3
0 0 2 1 L2 /2 0 0 1 1/2 0 0 1 0
→  → L2 − L3 /2 .
     
0 0 0 1 0 0 0 1  0 0 0 1
  

0 0 0 0 0 0 0 0 0 0 0 0

Remarque 1.36. La forme échelonnée d’une matrice n’est pas unique mais par contre la
forme échelonnée réduite l’est.
10 Chapitre 1. Matrices

1.4 Résolution des systèmes linéaires


La première application de la méthode du pivot est de résoudre les systèmes linéaires.
En effet, il est évident que les solutions d’un système linéaire ne change pas si on inter-
change deux équations, si on multiplie une équation par une constante non nulle ou encore
si on remplace une équation par sa somme avec une autre équation.

Définition 1.37. Soit AX = B et A0 X = B 0 deux systèmes linéaires. On dit qu’ils sont


équivalents si l’on peut passer de la matrice (A|B) à la matrice (A0 |B 0 ) par des opérations
élémentaires.

La discussion ci-dessus implique le résultat suivant.

Théorème 1.38. Deux systèmes équivalents ont même ensemble de solutions.

Une manière plus formelle de le voir est d’introduire les matrices suivantes. Soit n ≥ 1
et 1 ≤ k, l ≤ n trois entiers. La matrice Ekl = (eij ) ∈ Mn (R) est définie par ekl = elk = 1,
ekk = ell = 0, eii = 1 pour tout i 6= k, l et eij = 0 sinon. Multiplier à gauche une matrice
A par Ekl revient à inverser la ligne k avec la ligne l.
!
1 0 9 8
Exemple 1.39. Si n = 2 et A = alors
−2 −3 4 5
! ! !
0 1 1 0 9 8 −2 −3 4 5
E12 A = = .
1 0 −2 −3 4 5 1 0 9 8

De même, la matrice Fkl = (fij ) ∈ Mn (R) est définie par fkl = 1, fii = 1 pour tout
1 ≤ i ≤ n et fij = 0 sinon. Multiplier à gauche A par Fkl revient à échanger la ligne k par
sa somme avec la ligne l.

Exemple 1.40.
! ! !
1 1 1 0 9 8 −1 −3 13 13
F12 A = = .
0 1 −2 −3 4 5 −2 −3 4 5

Enfin, si α ∈ R, α 6= 0, alors la matrice Gk (α) = (gij ) ∈ Mn (R) est définie par gkk = α,
gii = 1 si i 6= k et gij = 0 sinon. La multiplication à gauche de A par Gk (α) revient à
multiplier la ligne k par α.

Exemple 1.41.
! ! !
3 0 1 0 9 8 3 0 27 24
G1 (3)A = = .
0 1 −2 −3 4 5 −2 −3 4 5

Ces trois types de matrices s’appellent des matrices élémentaires.


−1
Remarque 1.42. Ces matrices sont inversibles, d’inverse Ekl = Ekl , Gk (α)−1 = Gk (α−1 )
−1
et Fkl = Gk (−1)Fkl Gk (−1).

Pour résumer, la multiplication à gauche par une matrice élémentaire revient exac-
tement à faire une des trois opérations élémentaires sur les lignes d’une matrice. Par
conséquent, appliquer la méthode du pivot, revient à faire une succession de multiplica-
tions à gauches par des matrices élémentaires. Le théorème découle alors de la proposition
élémentaire suivante.
1.4. Résolution des systèmes linéaires 11

Proposition 1.43. Si A et B sont des matrices avec n lignes et que C a n colonnes alors

C(A|B) = (CA|CB).

Démonstration du théorème. Si on passe de (A|B) à (A0 |B 0 ) par une suite d’opération


élémentaires, cela veut dire qu’il existe une suite de matrices élémentaires E1 , . . . , EN telle
que (A0 |B 0 ) = E1 E2 · · · EN (A|B). La Proposition 1.43 implique que A0 = E1 · · · EN A et
que B 0 = E1 · · · EN B. Donc si X vérifie AX = B il vérifie aussi

E1 · · · EN AX = E1 · · · EN B c’est-à-dire A0 X = B 0 .

Inversement, si A0 X = B 0 on a aussi AX = B car les Ei sont inversibles.

Par ailleurs, à tout système AX = B, on peut associer grâce à la méthode du pivot un


système A0 X = B 0 avec (A0 |B 0 ) échelonnée réduite. Il ne reste plus qu’a résoudre ce type
de système.

Théorème 1.44. Soit AX = B un système linéaire tel que la matrice (A|B) soit éche-
lonnée réduite. Le système a au moins une solution si et seulement si il n’y a pas de pivot
dans la dernière colonne.
Dans ce cas, les inconnues correspondant à une colonne avec pivot sont dites contraintes
et les autres sont dites libres. L’ensemble des solutions s’obtient en fixant arbitrairement
chacune des inconnues libres et en calculant à partir de là les variables contraintes.
   
0 1 2 0 9 0
Exemple 1.45. Si A = 0 0 0 1 8 et B = 0 alors la matrice (A|B) est éche-
   
0 0 0 0 0 1
lonnée réduite et correspond au système linéaire

 x2 + 2x3
 +9x5 = 0
x4 +8x5 = 0 ,

 0 =1

qui n’a évidemment pas de solution car la dernière ligne est contradictoire. Cela vient du
fait que (A|B) a un pivotdans
 ça dernière colonne.
2
En revanche, si C = −4 alors la matrice (A|C) est aussi échelonnée et le système
 
0
correspondant est 
 x2 + 2x3
 +9x5 = 2
x4 +8x5 = −4 .

 0 =0
Cette fois il n’y a pas de pivot dans la dernière colonne. Les variables x2 et x4 correspondent
à une colonne avec un pivot, elles sont donc contraintes, alors que les colonnes de x1 , x3
et x5 sont sans pivot et ces variables sont libres. L’ensemble des solutions de AX = C est
donc
S = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 | x2 = 2 − 2x3 − 9x5 , x4 = −4 − 8x5 }.
Si l’on veut une solution particulière, il suffit de choisir les variables libres de manière
arbitraire, par exemple ici x1 = 12, x3 = −1 et x5 = 1, et d’en déduire les autres variables,
ici x2 = −5 et x4 = −12.
12 Chapitre 1. Matrices

Une conséquence de ce théorème est que l’ensemble des solutions d’un système linéaire
est soit vide, soit réduit à un élément, soit infini. Dans le cas d’un système homogène, le
premier cas n’est pas possible car il y a toujours au moins une solution qui est 0.
Corollaire 1.46. Si un système homogène a (strictement) plus d’inconnues que d’équa-
tions alors il a une infinité de solutions.

1.5 Rang et noyau d’une matrice.


On définit ici, le rang et le noyau d’une matrice, ainsi que la méthode pour les calcu-
ler. Ces notions seront reprise dans les deux chapîtres suivant pour parler et calculer le
rang d’un système de vecteurs ou d’une application linéaire et déterminer le noyau d’une
application linéaire.
Définition 1.47. Le rang d’une matrice A est le nombre de pivot d’une de ses formes
échelonnées.
Pour calculer le rang d’une matrice A il suffit donc de la mettre sous-forme échelonnée
réduite.
Définition 1.48. Le noyau d’une matrice A est l’ensemble des solutions du système
homogène AX = 0. On le note Ker(A).
Trouver le noyau d’une matrice A revient donc à résoudre le système AX = 0 et encore
une fois on échelonne et on réduit la matrice A.

On verra dans le chapître suivant que Ker(A) est un exemple d’espace vectoriel, et
obtenir une forme échélonnée réduite pour A permettra de donner des solutions de AX = 0
préférée à partir desquelles retrouver toutes les autres, cet ensemble de solutions préférées
formeront ce qu’on appelera une base de Ker(A).
Exemple 1.49. On considère :
 
1 2 0 2 0

 0 0 1 1 0 

 0 0 1 1 1 
A= ,
 
 1 2 0 2 0 
 
 1 2 1 3 0 
0 0 0 0 0
dont une forme échélonnée réduite est donnée par :
 
1 2 0 2 0
0 0 1 1 0
 
0 0 0 0 1
0
A = .
 
0 0 0 0 0
 
0 0 0 0 0
0 0 0 0 0
Le rang de A est donc de 3. Trouver le noyau revient donc à résoudre

 x1 + 2x2 + 2x4 = 0

x3 + x4 = 0

 x5 = 0
1.6. Inversion de matrices 13

En mettant à gauche les variables correspondants aux colonnes contenant un pivot et à


droite les autres : 
 x1 = −2x2 − 2x4

x3 = −x4

 x5 = 0
On peut choisir librement les valeurs de x2 et x4 et n’importe quelle choix détermine de
manière unique les valeurs pour de x1 , x3 et x5 (x5 étant déjà égal à zéro.)

On notera que la somme du nombre de variables pouvant être choisis librement dans
le calcul du noyau et du rang est évidement égal au nombre de colonnes. On reverra cette
propriété dans le chapître 3, sous le nom de Théorème du rang.

1.6 Inversion de matrices


Il n’est pas évident à première vue de voir si une matrice est inversible ni de trouver
cet inverse s’il existe. La méthode du pivot permet de répondre à ces deux questions.

Théorème 1.50. Soit A ∈ Mn (R). La matrice A est inversible si et seulement si la


matrice échelonnée réduite associée à (A|In ) est de la forme (In |B). Dans ce cas, l’inverse
de A est précisément la matrice B, c’est-à-dire A−1 = B.

Démonstration. Si la forme échelonnée réduite de (A|In ) est (In |B), cela signifie qu’il
existe une suite de matrices élémentaires E1 , . . . , EN telle que (In |B) = E1 · · · EN (A|In ).
Cela implique, d’après la Proposition 1.43, que E1 · · · EN A = In et que B = E1 · · · EN ,
c’est-à-dire que BA = In et donc que A est inversible avec A−1 = B.
Inversement, puisque la seule matrice échelonnée réduite qui est inversible est In , si
A est inversible alors la forme échelonnée réduite de (A|In ) est forcement de la forme
(In |B).
 
1 2 3
Exemple 1.51. 1) Soit A = 4 5 6 . Vérifions si elle est inversible.
 
7 8 9
   
1 2 3 1 0 0 1 2 3 1 0 0
(A|I3 ) = 4 5 6 0 1 0 → L2 − 4L1 0 −3 −6 −4 1 0
   
7 8 9 0 0 1 L3 − 7L1 0 −6 −12 −7 0 1
 
1 2 3 1 0 0
→ 0 −3 −6 −4 1 0 .
 
L3 − 2L2 0 0 0 1 −2 1
A cette étape, on voit que l’on n’arrivera jamais à avoir In à gauche et donc que A n’est
pas inversible.  
1 1 1
2) Par contre si A0 = 0 1 0 alors
 
2 3 3
   
1 1 1 1 0 0 1 1 1 1 0 0
(A0 |In ) = 0 1 0 0 1 0 → 0 1 0 0 1 0
   
2 3 3 0 0 1 L3 − 2L1 0 1 1 −2 0 1
14 Chapitre 1. Matrices

   
1 1 1 1 0 0 L1 − L2 − L3 1 0 0 3 0 −1
→ 0 1 0 0 1 0 → 0 1 0 0 1 0 .
   
L3 − L2 0 0 1 −2 −1 1 0 0 1 −2 −1 1
 
3 0 −1
Donc A0 est inversible et A−1 = 0 1 0 .
 
−2 −1 1
Chapitre 2

Espaces Vectoriels

La notion d’espace vectoriel est centrale aussi bien en mathématiques qu’en physique ou
en informatique. Elle cherche à formaliser l’intuition d’"espace ambiant" à trois dimensions
et ce faisant, donne un cadre bien plus général.
L’algèbre linéaire fournit un ensemble de techniques de calcul dans les espaces vectoriels
qui s’avèrent particulièrement efficaces dans de nombreux problèmes, aussi bien théoriques
qu’appliqués.

2.1 Définitions et exemples


La définition d’un espace vectoriel est abstraite et est rarement utilisée directement.
Néanmoins, il est important de bien se familiariser avec.
Définition 2.1. Un espace vectoriel (E, +, ·) est un ensemble E muni de deux lois

— une loi interne, notée + : E × E → E, (u, v) 7→ u + v,


— une loi externe, notée · : R × E → E, (λ, u) 7→ λ · u,

telles que les relations suivantes soient vérifiées :


1)∀(u, v) ∈ E 2 , u + v = v + u, (+ est commutative)
3
2)∀(u, v, w) ∈ E , u + (v + w) = (u + v) + w, (+ est associative)
3)∃0E ∈ E, ∀u ∈ E, u + 0E = u, (0E est l’élément neutre de +)
4)∀u ∈ E, ∃ − u ∈ E, u + (−u) = 0E , (tout élément de E a un inverse)
2
5)∀λ ∈ R, (u, v) ∈ E , λ · (u + v) = λ · u + λ · v
2
6)∀(λ, µ) ∈ R , ∀u ∈ E, λ · u + µ · u = (λ + µ) · u
7)∀(λ, µ) ∈ R2 , ∀u ∈ E, λ · (µ · u) = (λµ) · u
8)∀u ∈ E, 1 · u = u.
Notation 2.2. On abrégera “espace vectoriel” par “e.v”.
Définition 2.3. Les éléments d’un e.v sont appelés des vecteurs et ceux de R des scalaires.
L’exemple le plus élémentaire d’e.v est Rn .
Exemple 2.4. Soit n ≥ 1 un entier. On note Rn l’ensemble des n-uplets d’éléments de R,
c-à-d les objets de la forme (x1 , x2 , . . . , xn ) où pour tout 1 ≤ i ≤ n, xi est un élément de
R et tel que (x1 , . . . , xn ) = (x01 , . . . , x0n ) si et seulement si xi = x0i pour tout 1 ≤ i ≤ n.
L’ensemble Rn muni des lois
16 Chapitre 2. Espaces Vectoriels

— (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),


— λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn ),
est un e.v.

En fait, la Définition 2.1 généralise les règles de calcul sur Rn sans utiliser de système
de coordonnées.

Proposition 2.5. Soit E un e.v, u ∈ E et λ ∈ R. Alors on a


1) λ · u = 0E si et seulement si λ = 0R ou u = 0E ,
2) −u = (−1) · u.

Démonstration. 1) Si λ = 0R alors

0R · u = (0R + 0R ) · u = 0R · u + 0R · u,

d’où 0R · u = 0E . De manière similaire, si u = 0E alors

λ · (0E ) = λ · (0E + 0E ) = λ · 0E + λ · 0E ,

et on obtient λ · 0E = 0E .
Inversement, si λ · u = 0E et λ 6= 0R alors

0E = λ−1 · 0E = λ−1 · (λ · u) = (λ−1 λ) · u = 1 · u = u.

2) u + (−1) · u = (1 − 1) · u = 0R · u = 0E .

Notation 2.6. Pour simplicité, s’il n’y a pas de confusion possible le symbole · sera omis
et on écrira 0 au lieu de 0E ou 0R .

Voici d’autres exemples d’e.v.

Exemple 2.7. 1) Si m ≥ 1 et n ≥ 1 sont deux entiers, alors Mm,n (R) munit des deux
lois définies dans la Définition 1.10 et la Définition 1.12 est un e.v.
2) L’ensemble F (R, R) des fonctions de R dans R est un e.v. muni des lois suivantes. Si
f et g sont deux fonctions de F (R, R) alors la valeur de f + g en x est par définition
(f + g)(x) := f (x) + g(x). De même, si λ ∈ R est un scalaire alors (λf )(x) := λf (x) par
définition.
3) Soit a ∈ R. L’ensemble {(x, y) ∈ R2 | y = ax} muni des lois induites par celles de R2 est
un e.v.
4) Soit (a, b) ∈ R2 . L’ensemble {(x, y) ∈ R2 | y = ax + b} n’est pas un e.v si b 6= 0.

Définition 2.8. Soit E un e.v et n ≥ 1 un entier. Soit u1 , . . . , un des éléments de E. On


appelle combinaison linéaire de u1 , . . . , un tout vecteur v de la forme v = λ1 u1 + · · · + λn un
avec λi ∈ R. On dira que la combinaison est non triviale si les λi ne sont pas tous nuls.

2.2 Sous-espaces vectoriels


Un moyen simple de vérifier qu’un ensemble est un e.v est de montrer qu’il est un
sous-espace vectoriel d’un e.v qu’on connaît déjà.
2.2. Sous-espaces vectoriels 17

Définition 2.9. Soit (E, +, ·) un e.v. Un sous-ensemble F de E est une sous-espace


vectoriel si
1) F est non vide,
2) F est stable pour + :
∀(u, v) ∈ F 2 , u + v ∈ F.
3) F est stable pour · :
∀u ∈ F, ∀λ ∈ R, λu ∈ F.

Si F est un sous-espace vectoriel de E, on le munit des lois induites par celles de E,


ce qui en fait naturellement un e.v.

Notation 2.10. On abrégera “sous-espace vectoriel” par “s.e.v”.

Exemple 2.11. 1) L’ensemble défini dans l’Exemple 2.7 3) est un s.e.v de R2 .


2) Si n ≥ 1 est un entier alors l’ensemble des matrices triangulaires supérieures de Mn (R)
forme un s.e.v de Mn (R). Il en est de même avec l’ensemble de matrices triangulaires
inférieures, les matrices symétriques ou encore les matrices anti-symétriques.
3) L’ensemble C (R) des fonctions continues de R dans R est un s.e.v de F (R, R). En effet,
C (R) n’est pas vide car les fonctions constantes sont dedans. De plus la somme de deux
fonctions continues est continue et le produit d’une fonction continue par une constante
est encore continue.
4) Si on considère l’équation différentielle y 00 + y = 0 alors l’ensemble des solutions

S := {f ∈ F (R, R) | f est deux fois dérivable et f 00 + f = 0}

est un s.e.v de F (R, R).

Un moyen de détecter qu’un sous-ensemble n’est pas un s.e.v est donné par l’exercice
suivant.

Exercice 2.12. Montrer que si F ⊂ E est un s.e.v alors 0E appartient à F.

Néanmoins, il n’est pas suffisant.

Exemple 2.13. Le sous-ensemble de R2 défini par

F := {(x, y) ∈ R2 | y = x2 }

n’est pas un s.e.v de R2 bien que (0, 0) = 0R2 ∈ F. En effet, (1, 1) appartient à F mais
(−1) · (1, 1) = (−1, −1) n’est pas dans F, donc F ne peut pas être un s.e.v.

La proposition suivante permet de vérifier plus rapidement qu’un sous-ensemble est un


s.e.v.

Proposition 2.14. Soit (E, +, ·) un e.v. Un sous-ensemble F ⊂ E est un s.e.v si et


seulement si
1) F est non vide.
2) ∀(u, v) ∈ F 2 , ∀λ ∈ R, u + λv ∈ F.

Plus généralement, un s.e.v est un sous-ensemble stable par combinaisons linéaires.

Proposition 2.15. Soit u1 , . . . , un des vecteurs d’un e.v E. Si F est un s.e.v de E conte-
nant u1 , . . . , un alors F contient toutes les combinaisons linéaires de u1 , . . . , un .
18 Chapitre 2. Espaces Vectoriels

Démonstration. On raisonne par récurrence sur n. Pour n = 1, une combinaison linéaire


de u1 est de la forme λ1 u1 avec λ1 ∈ R. Mais si u1 appartient à F, alors, par définition
d’un s.e.v, λ1 u1 aussi. Maintenant, supposons qu’il existe un n ≥ 1 tel que la proposition
soit vérifiée pour toute famille de n vecteurs. On en déduit que si n+1
P
i=1 λi ui est une
combinaison linéaire de n+1 vecteurs u1 , . . . , un+1 de F alors par l’hypothèse de récurrence,
λi ui appartient à F. Mais, par la Proposition 2.14 cela implique que n+1
Pn P
Pni=1 i=1 λi ui =
i=1 λi ui + λn+1 un+1 est aussi un élément de F.

Il est facile de voir que l’intersection de s.e.v est encore un s.e.v.

Proposition 2.16. L’intersection de deux s.e.v est un s.e.v. Plus généralement, l’inter-
section d’une famille de s.e.v est encore un s.e.v.

Exemple 2.17. Dans Mn (R), l’intersection de l’ensemble de matrices triangulaires supé-


rieures avec celui des matrices triangulaires inférieures est égale à l’ensemble de matrices
diagonales qui est lui aussi un s.e.v.

Attention : En général, l’union de deux s.e.v n’en est pas un !

Exercice 2.18. Soit F et G deux s.e.v de E. Montrer que F ∪G est un s.e.v si et seulement
si F ⊂ G ou G ⊂ F.

En revanche, il est possible de définir la somme de deux s.e.v F1 et F2 de E, qui est


encore un s.e.v de E.

Définition 2.19. Soit E un e.v et F1 , F2 ⊂ E des s.e.v. La somme F1 + F2 de F1 avec F2


est définie par
F1 + F2 = {u = u1 + u2 | u1 ∈ F1 , u2 ∈ F2 }.
La somme est dite directe si F1 ∩ F2 = {0}, et on écrira dans ce cas F1 ⊕ F2 . Dans ce cas,
le couple (u1 , u2 ) ∈ F1 × F2 tel que u = u1 + u2 est unique.

Définition 2.20. Soit E un e.v et F ⊂ E un s.e.v. Un supplémentaire G ⊂ E de F est


un s.e.v tel que E = F ⊕ G. On dit aussi que F et G sont supplémentaires.

Attention : En général, le supplémentaire à F n’est pas unique !

Exemple 2.21. Soit F = {(x, 0) ∈ R2 }. Les s.e.v G1 = {(0, x) ∈ R2 } et G2 = {(x, x) ∈


R2 } sont deux supplémentaires différents de F.

Exercice 2.22. Soit P ⊂ F (R, R) l’ensemble des fonctions paires de R dans R et I ⊂


F (R, R) l’ensemble des fonctions impaires.
1) Montrer que P et I sont des s.e.v de F (R, R).
2) Montrer que P et I sont supplémentaires dans F (R, R).

2.3 Familles génératrices, familles libres


Définition 2.23. Une famille d’un s.e.v E est simplement un sous-ensemble de E dont les
éléments sont indexés. Dans ce cours, nous considérerons uniquement des familles finies,
c-à-d de la forme (u1 , . . . , un ) où chaque ui est un vecteur de E pour 1 ≤ i ≤ n.

Définition 2.24. Soit (u1 , . . . , un ) une famille d’un e.v E. Le sous-espace vectoriel engen-
dré par la famille (u1 , . . . , un ) est l’ensemble de toutes les combinaisons linéaires possibles
des u1 , . . . , un . On le note Vect(u1 , . . . , un ).
2.3. Familles génératrices, familles libres 19

Proposition 2.3.1. L’ensemble Vect(u1 , . . . , un ) est, comme son nom l’indique, un s.e.v
de E.

Démonstration. En effet il est non vide car u1 ∈ Vect({u1 , . . . , un }) et si v = λ1 u1 + · · · +


λn un et v 0 = λ01 u1 + · · · + λ0n un sont deux éléments de Vect(u1 , . . . , un ) et α ∈ R alors
v +αv 0 = (λ1 +αλ01 )u1 +· · ·+(λn +αλ0n )un est aussi une combinaison linéaire de u1 , . . . , un
et donc un élément de Vect(u1 , . . . , un ).

Définition 2.25. Soit (u1 , . . . , un ) une famille de vecteurs d’un e.v E. Soit F un sous-
ensemble de E. On dit que la famille (u1 , . . . , un ) engendre F si F = Vect(u1 , . . . , un ). Dans
ce cas on dira aussi que la famille (u1 , . . . , un ) est une famille génératrice de F. Lorsque
Vect(u1 , . . . , un ) = E on dira simplement que (u1 , . . . , un ) est une famille génératrice.

Exemple 2.26. 1) Soit u = (1, 1) ∈ R2 . Une combinaison linéaire de u est simplement


un vecteur de la forme λu où λ ∈ R. On a donc que Vect(u) = {(x, y) | x = y} qui est la
droite passant (0, 0) dirigée par le vecteur u. Le vecteur u engendre donc cette droite.
2) Dans R3 , les combinaisons linéaires des vecteurs e1 = (1, 0, 0) et e2 = (0, 1, 0) sont de
la forme v = λ1 e1 + λ2 e2 , c-à-d v = (λ1 , λ2 , 0). Puisque λ1 et λ2 sont arbitraires, on voit
que e1 et e2 engendre le plan d’équation z = 0 :

Vect(e1 , e2 ) = {(x, y, z) ∈ R3 | z = 0}.

3) Si nous considérons de nouveau l’ensemble S des solutions l’équation y 00 + y = 0 défini


dans l’Exemple 2.11 4) alors un résultat classique en équations différentielles dit que S est
engendré par la famille (cos, sin) de F (R, R), c-à-d que toute solution f est de la forme
f (x) = α cos(x) + β sin(x) où α et β sont deux constantes.

Définition 2.27. Soit E un e.v. Une famille de vecteur (u1 , . . . , un ) est dite libre si toute
combinaison linéaire vérifiant λ1 u1 +· · ·+λn un = 0 vérifie aussi λi = 0 pour tout 1 ≤ i ≤ n.
Une famille qui n’est pas libre est dite liée.

Exemple 2.28. 1) Soit u ∈ E avec u 6= 0. La famille à un élément (u) est alors une
famille libre.
2) Toute famille contenant le vecteur nul 0 est liée.
3) Les vecteurs (1, 0, 0), (0, 1, 0) et (0, 0, 1) forment une famille libre dans R3 .
4) La famille (cos, sin) est une famille libre dans F (R, R). En effet, supposons qu’il existe
(λ, µ) ∈ R2 tel que λ cos +µ sin = 0, c’est-à-dire que pour tout x dans R, λ cos(x) +
µ sin(x) = 0. En particulier, pour x = 0 on obtient que 0 = λ cos(0) + µ sin(0) = λ et
pour x = π/2, 0 = λ cos(π/2) + µ sin(π/2) = µ. Donc λ = µ = 0 dès que λ cos +µ sin = 0,
c’est-à-dire que notre famille est libre.

Définition 2.29. Deux vecteurs u et v d’un e.v E sont dit colinéaires s’il existe λ ∈ R
tel que u = λv ou v = λu.

Proposition 2.30. Une famille de deux vecteurs (u, v) est liée si et seulement si u et v
sont colinéaires.

Attention : Il n’y a plus de tel critère pour une famille de plus de trois vecteurs !

Exemple 2.31. Les trois vecteurs u1 = (1, 0), u2 = (0, 1) et u3 = (1, 1) forment une
famille liée bien qu’aucun d’eux n’est colinéaire à un autre. En effet u1 + u2 − u3 = 0.

Proposition 2.32. Soit (u1 , . . . , un ) une famille libre d’un e.v E et v ∈ E. La famille
(u1 , . . . , un , v) est liée si et seulement si v ∈ Vect(u1 , . . . , un ).
20 Chapitre 2. Espaces Vectoriels

Démonstration. Supposons que v est dans Vect(u1 , . . . , un ). Par définition, il existe des
réels λ1 , . . . , λn tels que v = λ1 u1 + λ2 u2 + · · · + λn un . Par conséquent, λ1 u1 + · · · + λn un +
λn+1 v = 0 avec λn+1 = −1 donne une combinaison linéaire non triviale de u1 , . . . , un , v
qui s’annule et donc la famille est liée. Inversement, si la famille (u1 , . . . , un , v) est liée, il
existe des réels λ1 , . . . , λn+1 , non tous nuls, tels que λ1 u1 + · · · + λn un + λn+1 v = 0. Le
coefficient λn+1 n’est pas nul car la famille u1 , . . . , un est libre. En divisant par λn+1 on
obtient
n
X λi
v=− ui ,
λ
i=1 n+1

et donc v ∈ Vect(u1 , . . . , un ).

Le théorème suivant est essentiel pour le prochain paragraphe.

Théorème 2.33. Soit E un e.v engendré par une famille finie de n vecteurs (u1 , . . . , un ).
Alors, toute famille libre de E admet au plus n éléments.

Démonstration. Supposons que E possède une famille de n vecteurs (u1 , . . . , un ) qui l’en-
gendre. Soit m > n un entier et soit (v1 , . . . , vm ) une famille de m vecteurs. Notre but est
de montrer que cette famille est liée, c-à-d qu’il existe des réels λi , 1 ≤ i ≤ m, non tous
nuls tels que
m
X
λi vi = 0.
i=1

Pour cela, nous allons considérer les λi comme des inconnues.


Par hypothèse, puisque la famille (u1 , . . . , un ) engendre E, pour chaque 1 ≤ i ≤ n il
existe n réels, αi,j avec 1 ≤ j ≤ n, tels que
n
X
vi = αi,j uj .
j=1
Pm
En utilisant ces égalités, l’expression i=1 λi vi = 0 devient
 
m
X n
X
λi  αi,j uj  = 0.
i=1 j=1

En regroupant les termes contenant uj on obtient


n m
!
X X
λi αi,j uj = 0.
j=1 i=1

Pour vérifier cette égalité, il suffit que les λi satisfassent


m
X
λi αi,j = 0
i=1

pour chaque 1 ≤ j ≤ n. On obtient ainsi un système homogène (le deuxième terme est
nul) avec m inconnues (les λ1 , . . . , λm ) et n équations (une pour chaque j, 1 ≤ j ≤ n).
Puisque m > n, le Corollaire 1.46 dit qu’il y a une infinité de solution à ce système. En
particulier, λ1 = λ2 = · · · = λm = 0 n’est pas la seule solution.
2.4. Bases et dimension 21

2.4 Bases et dimension


La dimension d’un e.v est l’invariant le plus important en algèbre linéaire. Dans une
premier temps, nous voyons ce que signifie d’être de dimension finie.

Définition 2.34. Si un e.v E admet une famille génératrice finie, on dit qu’il est de
dimension finie. Si ce n’est pas le cas, E est dit de dimension infinie.

Définition 2.35. Une famille libre et génératrice d’un e.v E est appelée une base de E.

Proposition 2.36. Soit E un e.v et (e1 , . . . , en ) une base de E. Tout élément u de E s’écrit
de manière unique comme combinaison linéaire de (e1 , . . . , en ). Les coefficients λ1 , . . . , λn
tels que u = λ1 e1 + · · · + λn en sont appelés les coordonnées de u dans la base (e1 , . . . , en ).

Démonstration. Puisque la famille (e1 , . . . , en ) est une base, en particulier elle est gé-
nératrice. Donc, si u est un vecteur de E, il existe des réels λ1 , . . . , λn tels que u =
λ1 e1 + · · · + λn en . Ceci montre l’existence des coordonnées.
Il reste à montrer l’unicité. Supposons que α1 , . . . , αn soient aussi des réels tels que
α1 e1 + · · · + αn en = u. On en déduit que
n
X n
X
αi ei = λi ei
i=1 i=1

et donc que
n
X
(αi − λi )ei = 0.
i=1

Or la famille (e1 , . . . , en ) est libre donc on doit forcément avoir (αi − λi ) = 0 pour tout
1 ≤ i ≤ 0, c’est-à-dire αi = λi .

Remarque 2.37. Il existe de nombreuses bases d’un même e.v E, qui donneront autant
de systèmes de coordonnées différents.

Exemple 2.38. 1) Les vecteurs (1, 0, 0), (0, 1, 0) et (0, 0, 1) forment une base de R3 .
2) Plus généralement, les vecteurs ei = (0, . . . , 0, 1, 0 . . . , 0), où le 1 se trouve à la i-ème
place, donnent une base de Rn , appelée base canonique.

Le Théorème 2.33 entraîne le résultat suivant.

Théorème 2.39. Soit E une e.v de dimension finie. Toutes les bases de E ont le même
cardinal (i.e. le même nombre d’éléments).

Démonstration. Soit (e1 , . . . , en ) et (f1 , . . . , fm ) deux bases de E. Par définition, elles sont
toutes les deux libres et génératrices. Si n < m alors par le Théorème 2.33, la famille
(f1 , . . . , fm ) est liée ce qui est une contradiction. Donc n ≤ m et par symétrie, n = m.

On peut maintenant poser la définition suivante.

Définition 2.40. Si E est un e.v de dimension finie alors la dimension de E est le cardinal
d’une de ses bases. On la note dim(E) et par convention dim(E) = 0 si E = {0}.

Exemple 2.41. 1) Puisque la famille des vecteurs ei 1 ≤ i ≤ n est une base de Rn , cet
e.v est de dimension n, comme attendu.
2) Soit a ∈ R. Le s.e.v de R2 défini par {(x, y) ∈ R2 | y = ax} est de dimension 1 car le
vecteur (1, a) en est une base.
22 Chapitre 2. Espaces Vectoriels

Les résultats suivants sont très utiles dans la pratiques.

Théorème 2.42. Soit E un e.v de dimension finie, G une famille génératrice et L une
famille libre telles que L ⊂ G . Alors, il existe une base B de E telle que L ⊂ B ⊂ G .

Démonstration. Soit B un sous-ensemble de G tel que L ⊂ B, que B forme une famille


libre et que B soit de cardinal maximal pour cette propriété. L’existence d’un tel B est
garantie par le Théorème 2.33 et par le fait que E soit de dimension finie.
Montrons que B est une base de E. Puisque B est une famille libre, il reste à prouver
qu’elle est aussi génératrice. Or, si Vect(B) 6= E = Vect(G ), alors par la Proposition 2.32
il existe u ∈ G \ B tel que B 0 := B ∪ {u} ⊂ G est libre et vérifie Card(B 0 ) = Card(B) + 1
ce qui contredit la définition de B. Donc, on obtient par l’absurde que la famille B est
une base de E vérifiant L ⊂ B ⊂ G .

Corollaire 2.43. Soit E un e.v de dimension finie.


1) Toute famille libre de E peut-être complétée en une base (Théorème de la base incom-
plète).
2) De toute famille génératrice, on peut extraire une base.
3) E possède une base.

Corollaire 2.44. Soit E un e.v de dimension n.


1) Toute famille libre a au plus n éléments, avec égalité si et seulement si c’est une base.
2) Toute famille génératrice a au moins n éléments, avec égalité si et seulement si c’est
une base.

Ils permettent entre autre de calculer la dimension de la somme de s.e.v.

Proposition 2.45. Soit F et G deux s.e.v d’un e.v E de dimension finie. Alors, la di-
mension de F + G vérifie dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Corollaire 2.46. Soit F et G deux s.e.v d’un e.v E de dimension finie. Les assertions
suivantes sont équivalentes.
1) F et G sont des supplémentaires.
2) dim(E) = dim(F ) + dim(G) et F ∩ G = {0}.
3) dim(E) = dim(F ) + dim(G) et E = F + G.

Exemple 2.47. 1) L’ensemble des polynômes R[X] est de dimension infinie. En effet,
pour tout n ≥ 1, la famille (1, X, . . . , X n ) est libre ce qui implique par le Corollaire 2.44
que dim(R[X]) > n.
2) De même, l’e.v F (R, R) est de dimension infinie, ainsi que son s.e.v des fonctions
continues de R dans R.

2.5 Rang d’un système de vecteurs et rang d’une matrice


Le rang d’une matrice est un invariant important qui a plusieurs interprétations diffé-
rentes.

Définition 2.48. Soit (v1 , . . . , vn ) une famille de vecteurs. Le rang de (v1 , . . . , vn ) est le
nombre maximal de vi qui sont linéairement indépendant. Dit autrement, c’est la dimension
de Vect(v1 , . . . , vn ). On le note rg(v1 , . . . , vn ).

On identifie les vecteurs vi aux colonnes Ci d’une matrice A ∈ Mm,n (R), on a alors le
résultat suivant :
2.6. L’espace vectoriel des polynômes 23

Proposition 2.49. Le rang d’une matrice A est égal au rang de son système de vecteurs
colonnes, [Link] nombre de pivot d’une de ses formes échelonnées.
On obtient aussi immédiatement le résultat suivant :
Proposition 2.50. Si A ∈ Mm,n (R) alors rg(A) ≤ min(m, n).
La proposition suivante dit que l’espace engendré par les colonnes et celui engendré
par les lignes d’une matrice sont de même dimension.
Proposition 2.51. Soit A ∈ Mm,n (R). Le rang de A est égal au rang de t A.
Démonstration. Soit A = (aij ) ∈ Mm,n (R). On note Ci , 1 ≤ i ≤ n, les colonnes de A et
Lj , 1 ≤ j ≤ m ses lignes. Rappelons qu’on identifie une colonne à un vecteur de Rm et
une ligne à un vecteur de Rn .
Le résultat équivaut à montrer que dim(Vect(C1 , . . . , Cn )) = dim(Vect(L1 , . . . , Lm )).
Posons r = dim(Vect(L1 , . . . , Lm )) et choisissons une base (u1 , . . . , ur ) de Vect(L1 , . . . , Lm ).
Par définition, il existe des réels λij , 1 ≤ i ≤ m, 1 ≤ i ≤ r, tels que

L1 = λ11 u1 + · · · + λ1r ur
.. .. .
. .
Lm = λm1 u1 + · · · + λmr ur

Chacune de ces équations est une égalité entre vecteur de Rn et donc une égalité coordon-
nées par coordonnées. Cela implique que si u1 = (α11 , . . . , α1n ), · · · , ur = (αr1 , . . . , αrn )
alors      
λ11 λ12 λ1r
 λ21   λ22   λ2r 
     
C1 = α11  .  + α21  .  + · · · + αr1  . 
    
,
 ..   ..   .. 
λm1 λm2 λmr
et de même pour chaque Ci , 1 ≤ i ≤ n.    
λ11 λ1r
 λ21   λ2r 
   
Les Ci sont donc engendrées par r vecteurs  .  , . . . ,  . 
  
 ce qui implique que
 ..   .. 
λm1 λmr
dim(Vect(C1 , . . . , Cn )) ≤ r. L’inégalité inverse se prouve de la même façon en raisonnant
sur t A et on obtient bien une égalité entre ces deux dimensions.

Voici deux applications du concept de rang.


Proposition 2.52. Soit u1 , . . . , un des vecteurs de Rm . La famille (u1 , . . . , un ) est libre
si et seulement si la matrice dont les colonnes sont les ui est de rang n.
Proposition 2.53. Une matrice de Mn (R) est inversible si et seulement si sont rang est
n.

2.6 L’espace vectoriel des polynômes


Pour finir ce chapitre, nous introduisons un exemple particulièrement important d’es-
pace vectoriel : l’ensemble des polynômes à coefficients réels. Les polynômes jouent un
rôle central dans de nombreuses applications. Une des raisons est que ce sont des objets
algébriques à la définition simple et facilement manipulable par un ordinateur.
24 Chapitre 2. Espaces Vectoriels

Pour commencer, on choisit un symbole X qu’on appellera "indéterminé". Pour chaque


entier n ≥ 1 on notera formellement X n la puissance n-ième de X. On prendra comme
convention que X 0 = 1. Si d ≥ 0 est un entier alors un polynôme P en X de degré d est
une expression de la forme

d
X
P = ad X d + ad−1 X d−1 + · · · + a1 X + a0 = an X n
n=0

où les an sont des nombres réels avec ad 6= 0. Les an sont les coefficients de P et on pose
par convention que an = 0 si n > d. On obtient alors qu’un polynôme P est une expression
de la forme P = n≥0 an X n où les an sont tous nuls sauf un nombre fini. On retrouve
P

alors le degré de P par la formule

deg(P ) = max{n ∈ N | an 6= 0}.

Il est important de comprendre quand deux polynômes sont égaux. La définition, simple,
est la suivante.

Définition 2.54. Deux polynômes P =


P n P n
n≥0 an X et Q = n≥0 bn X sont égaux si
an = bn pour tout n ≥ 0.

Remarque 2.55. Le polynôme dont tous les coefficients sont nuls, le polynôme nul P = 0
joue un rôle particulier. Par convention on pose deg(0) = −∞.

On peut définir naturellement la somme de deux polynômes. Si P = n≥0 an X n et


P

Q = n≥0 bn X n alors on définie P + Q par P + Q = n≥0 (an + bn )X n . Il est facile de


P P

voir que deg(P + Q) ≤ max{deg(P ), deg(Q)}.

Exemple 2.56. Si P = X 2 +3X −10 et Q = −X 10 +2 alors P +Q = −X 10 +X 2 +3X −8.

De même on peut multiplier un polynôme par un scalaire. Si P = n≥0 an X n est un


P

polynôme et λ ∈ R est un réel alors λP est défini par λP = n≥0 (λan )X n . Si λ 6= 0 alors
P

deg(λP ) = deg(P ).

Exemple 2.57. Si P = −X 6 + 3X 2 − 5X alors −3P = 3X 6 − 9X 2 + 15.

Proposition 2.6.1. L’ensemble de tous les polynômes muni des deux lois ci-dessus est
un espace vectoriel. On le note R[X]. Son zéro est le polynôme nul P = 0.

L’e.v R[X] possède les s.e.v naturels suivants.

Proposition 2.6.2. Soit d ∈ N. L’ensemble Rd [X] des polynômes réels de degré inférieur
ou égal à d est un s.e.v de R[X].

Démonstration. En effet, Rd [X] est non vide car le polynôme nul est dedans. De plus, si
(P, Q) ∈ (R[X])2 et λ ∈ R alors deg(P + λQ) ≤ max(deg(P ), deg(Q)).

Remarque 2.58. Si d ≥ 1, l’ensemble des polynômes de degré exactement d n’est pas un


s.e.v de R[X] car il n’est pas stable par +. Par exemple (X d + 1) + (1 − X d ) = 2 qui est
de degré 0.

On peut illustrer plusieurs notions dans ces s.e.v


2.6. L’espace vectoriel des polynômes 25

Exemple 2.59. Soit F = {aX + b | (a, b) ∈ R2 } et G = {cX 2 + d | (c, d) ∈ R2 }. Ce sont des


s.e.v de R[X], et on a que F +G = R2 [X]. En effet, si P ∈ R2 [X] alors P (X) = αX 2 +βX+γ
avec βX + γ ∈ F et αX 2 ∈ G, d’où R2 [X] ⊂ F + G. L’autre inclusion est évidente.
En revanche, la somme n’est pas directe car l’intersection de F et G est l’ensemble des
polynômes constants.

Chacun des s.e.v Rd [X] possède une base naturelle.

Proposition 2.6.3. La famille (1, X, X 2 , . . . , X d ) est une base de Rd [X]. Par conséquent
Rd [X] est de dimension d + 1.

Mais il existe de nombreuses autres bases.

Exemple 2.60. La famille (P0 , P1 , P2 ) avec P0 = 2, P1 = X + 2, P2 = X 2 + X + 1 est


une base de R2 [X]. En effet, la famille a 3 éléments et on a déjà vu que R2 [X] est de
dimension 3. Donc par le Corollaire 2.44 il suffit de montrer que la famille est libre. Pour
cela, choisissons une combinaison linéaire λ0 P0 + λ1 P1 + λ2 P2 qui s’annule. En utilisant
les expressions des Pi on obtient

λ2 X 2 + (λ2 + λ1 )X + (λ2 + 2λ1 + 2λ0 ) = 0.

Puisque un polynôme est nul si et seulement si tous ses coefficients sont nuls, on obtient
les équations 

 λ2 = 0
λ2 + λ1 = 0 ,

 λ + 2λ + 2λ = 0
2 1 0

et on voit facilement que la seule solution est λ2 = λ1 = λ0 = 0. Donc la famille est libre
et c’est donc une base de R2 [X].
Chapitre 3

Applications linéaires

Les applications linéaires sont les applications entre espaces vectoriels qui préservent
leur structure. De nombreuses transformations géométriques comme les rotations, les sy-
métries ou les projections en font partie.

3.1 Définition et premières propriétés


Définition 3.1. Soit E et F deux e.v. Une application f : E → F est dite linéaire si
— f (u + v) = f (u) + f (v) pour tout u et v dans E,
— f (λu) = λf (u) pour tout u ∈ E et λ ∈ R.

Exemple 3.2. 1) L’application entre E et F qui envoie tout élément de E sur 0 est une
application linéaire. On l’appelle l’application nulle.
2) L’application définie par

IdE : E → E
u 7→ u

est une application linéaire appelée identitée de E. On la note Id s’il n’y a pas d’ambiguïté.
3) Soit a ∈ R. L’application linéaire de R dans lui-même définie par x 7→ ax est linéaire.
En fait, tout application linéaire de R dans lui-même est de cette forme.
4) L’application

R2 → R2
(x, y) 7→ (x, 0)

est une application linéaire. C’est la projection sur l’axe des x parallèlement à l’axe des y.
5) L’application de R[X] dans lui même qui à un polynôme P associe sont polynôme dérivé
P 0 est linéaire. En effet (P + Q)0 = P 0 + Q0 et (λP )0 = λ(P )0 .

On obtient facilement ces premières propriétés.

Proposition 3.3. Soit f une application entre deux e.v E et F.


1) Si f est linéaire alors f (0) = 0.
2) f est linéaire si et seulement si f (u + λv) = f (u) + λf (v), pour tout u, v ∈ E et
λ ∈ R.

Exemple 3.4. L’application de R dans R défini par x 7→ x + 1 ne peut pas être linéaire
car elle vaut 1 en 0.
28 Chapitre 3. Applications linéaires

Pl
Proposition 3.5. Si f : E → F est une application linéaire et que i=1 λi ui est une
combinaison linéaire dans E alors
l l
!
X X
f λi ui = λi f (ui ).
i=1 i=1

Proposition 3.6. Si λ ∈ R et f, g sont deux applications linéaires entre E et F alors


f + g et λf aussi.
De plus, l’ensemble des applications linéaires de E dans F est une e.v que l’on note
L (E, F ).
Proposition 3.7. Si f et g sont deux applications linéaires telles que f ◦ g est bien défini
alors c’est aussi une application linéaire.
Un moyen d’obtenir beaucoup exemples est d’utiliser les matrices.
Proposition 3.8. Si A est une matrice de Mm,n (R) alors on peut lui associer une appli-
cation linéaire fA de Rn dans Rm par

fA : Rn → Rm
x1 x1
   
 ..   .. 
 .  7→ A  . 
xn xn

Démonstration. Si u et v sont des vecteurs de Rn et λ ∈ R alors A(u + λv) = Au + λAv.


Donc fA est linéaire.

En fait, on obtient toutes les applications linéaires de Rn dans Rm de cette manière.


Proposition 3.9. Si f est une application linéaire de Rn dans Rm alors il existe une
unique matrice A ∈ Mm,n (R) telle que f = fA .
Démonstration. Soit (e1 , . . . , en ) la base canonique de Rn . On définit la matrice A par

A = (f (e1 )| · · · |f (en )) ,

où f (ei ) ∈ Rm est représenté comme un vecteur colonne. On obtient bien une matrice de
taille m × n. De plus, on observe facilement que A × ei = f (ei ) pour tout 1 ≤ i ≤ n. Par
ailleurs, si u ∈ Rn , il existe λ1 , . . . , λn ∈ R tels que u = ni=1 λi ei . La Proposition 3.5
P

implique alors que


n n n n
! !
X X X X
f (u) = f λi ei = λi f (ei ) = λi Aei = A λi ei = fA (u),
i=1 i=1 i=1 i=1

ce qui montre bien que f = fA . L’unicité de A vient du fait que si B vérifie aussi fB = f
alors Bei = f (ei ) = Aei ce qui implique que la i-ème colonne de B coïncide avec celle de
A. Donc A = B.

La preuve ci-dessus donne en plus une formule explicite de A.


Définition 3.10. Si f : Rn → Rm est une application linéaire alors la matrice

A = (f (e1 )| · · · |f (en ))

s’appelle la matrice associée à f (dans les bases canoniques de Rn et Rm ). Elle vérifie


fA = f.
3.2. Noyau, image et rang 29

Exemple 3.11. 1) L’application de R3 dans R2 définie par


 
x !
x+z
f y  = .
 
−x + 2y + 5z
z
!
1 0 1
est linéaire est sa matrice est
−1 2 5
2) Soit θ ∈ [0, 2π[. L’application associée à la matrice
!
cos(θ) − sin(θ)
Rθ =
− sin(θ) cos(θ)

est la rotation de centre 0 et d’angle θ.


Proposition 3.12. Si A, B ∈ Mm,n (R), C ∈ Mn,p (R) et λ ∈ R alors

fA+B = fA + fB , fλA = λfA et fAC = fA ◦ fC .

Remarque 3.13. L’égalité fAC = fA ◦ fC est en quelque sorte la raison d’être de la


définition, peu intuitive, du produit matriciel.

3.2 Noyau, image et rang


Puisque qu’une application linéaire respecte la structure d’e.v, elle envoie s.e.v sur
s.e.v. Plus exactement, on a la proposition suivante.
Proposition 3.14. Soit f : E → F une application linéaire.
1) Si G est un s.e.v de E alors l’image de G par f,

f (G) := {y ∈ F | ∃x ∈ G, f (x) = y},

est un s.e.v de F.
2) Si H est un s.e.v de F alors l’image réciproque de H par f,

f −1 (H) := {x ∈ E | f (x) ∈ H},

est un s.e.v de E.
Démonstration. 1) Soit G un s.e.v de E. On a déjà vu que 0 ∈ G et que f (0) = 0 donc
f (G) contient 0 et est donc non-vide. Soit y1 , y2 deux éléments de f (G) et soit λ ∈ R.
Par définition, il existe deux éléments x1 et x2 de G tels que f (x1 ) = y1 et f (x2 ) = y2 .
Puisque G est un s.e.v on a que x1 + x2 ∈ G et λx1 ∈ G. Par ailleurs, le fait que f soit
linéaire implique que f (x1 + x2 ) = f (x1 ) + f (x2 ) et f (λx1 ) = λf (x1 ). Par conséquent,
y1 + y2 = f (x1 ) + f (x2 ) = f (x1 + x2 ) avec x1 + x2 ∈ G donc y1 + y2 ∈ f (G). De même,
λy1 = λf (x1 ) = f (λx1 ) avec λx1 ∈ G donc λy1 ∈ f (G). On a bien vérifié les trois
conditions pour avoir un s.e.v donc f (G) est un s.e.v.

2) Soit H un s.e.v de F. Comme ci-dessus, on sait que 0 appartient à H et que f (0) = 0


donc 0 ∈ f −1 (H). On en déduit que f −1 (H) est non-vide. Pour aller un peu plus vite,
nous allons utiliser la Proposition 2.14 pour montrer qu’un coup la stabilité par addition et
celle par multiplication. Soit x et x0 deux éléments de f −1 (H). Par définition, ils vérifient
f (x) ∈ H et f (x0 ) ∈ H. De plus, si λ ∈ R alors f (x+λx0 ) = f (x)+λf (x0 ) car f est linéaire.
Donc, H étant un s.e.v, on a bien que f (x + λx0 ) ∈ H, c-à-d x + λx0 ∈ f −1 (H).
30 Chapitre 3. Applications linéaires

Cela permet d’associer naturellement à f deux s.e.v.

Définition 3.15. Si f : E → F est une application linéaire alors on appelle image de f


le s.e.v de F défini par

Im(f ) = f (E) = {y ∈ F | ∃x ∈ E, f (x) = y}.

La dimension de Im(f ) s’appelle le rang de f, rg(f ) = dim(Im(f )).

Définition 3.16. Si f : E → F est une application linéaire alors on appelle noyau de f


le s.e.v de E défini par

Ker(f ) = f −1 (0) = {x ∈ E | f (x) = 0}.

Certaines propriétés de f , comment l’injectivité ou la surjectivité, se lisent directement


sur ces s.e.v. Mais rappelons d’abord ces notions.

Définition 3.17. Soit f une application entre deux ensembles E et F.


— f est dite injective si le fait que f (x) = f (y) entraîne que x = y.
— f est dite surjective si f (E) = F.
— f est dite bijective si elle est à la fois injective et surjective.

Proposition 3.18. Soit f : E → F une application linéaire.


1) Elle est injective si et seulement si Ker(f ) = {0}.
2) Si la dimension de F est n alors f est surjective si et seulement si rg(f ) = n.

Démonstration. 1) Puisque f est linéaire, on a que f (0) = 0.


Supposons maintenant que f est injective. Si x est dans le noyau de f alors f (x) =
0 = f (0) et donc par injectivité x = 0. Par conséquent, Ker(f ) = {0}.
Inversement, supposons que Ker(f ) = {0}. Si x et y sont deux vecteurs tels que f (x) =
f (y), alors par linéarité f (x − y) = 0. Cela implique que x − y ∈ Ker(f ) et donc que x = y
car Ker(f ) = {0}.
2) On a toujours l’inclusion f (E) ⊂ F. Par conséquent, f est surjective si et seulement si
f (E) = F et donc si et seulement si rg(f ) = dim(Im(f )) = dim(f (E)) = n.

Le théorème suivant est important aussi bien théoriquement que dans la pratique.

Théorème 3.19 (Théorème du rang). Soit E et F deux e.v de dimension finie. Si f :


E → F est une application linéaire alors

dim(E) = rg(f ) + dim(Ker(f )).

Démonstration. Soit f : E → F une application linéaire entre e.v de dimension finie.


Soit (u1 , . . . , uk ) une base de Ker(f ) où, par définition, dim(Ker(f )) = k. En particulier,
la famille (u1 , . . . , uk ) est libre et on peut, par le théorème de la base incomplète, la
compléter en une base (u1 , . . . , uk , v1 , . . . , vr ) de E. On a alors dim(E) = k + r. Pour
obtenir le théorème il suffit donc de montrer que r = rg(f ). Pour cela, on va montrer
que la famille (f (v1 ), . . . , f (vr )) est une base de Im(f ), c’est-à-dire qu’elle est libre et
génératrice de Im(f ).
La première remarque est que f (vi ) ∈ Im(f ) pour tout 1 ≤ i ≤ r, donc

Vect(f (v1 ), . . . , f (vr )) ⊂ Im(f ).


3.2. Noyau, image et rang 31

Pour l’inclusion inverse, choisissons arbitrairement w ∈ Im(f ). Par définition de l’image,


il existe un vecteur v ∈ E tel que w = f (v). Or (u1 , . . . , uk , v1 , . . . , vr ) est une base de E
donc il existe des réels α1 , . . . , αk et β1 , . . . , βr tels que
k
X r
X
v= αi ui + β j vj .
i=1 j=1

Par linéarité, on a alors que


 
Xk r
X k
X r
X
w = f (v) = f  αi ui + βj vj  = αi f (ui ) + βj f (vj ).
i=1 j=1 i=1 j=1

Mais les vecteurs ui , 1 ≤ i ≤ k, sont dans le noyau de f donc f (ui ) = 0. Cela implique que
r
X
w= βj f (vj )
j=1

et donc par conséquent w ∈ Vect(f (v1 ), . . . , f (vr )). Puisque le choix de w était arbitraire,
on obtient
Im(f ) ⊂ Vect(f (v1 ), . . . , f (vr )).
Les deux inclusions impliquent l’égalité et donc la famille (f (v1 ), . . . , f (vr )) est bien géné-
ratrice de Im(f ).
Il reste à montrer que cette famille est libre. Soit λ1 , . . . , λr des scalaires tels que
λ1 f (v1 ) + · · · + λr f (vr ) = 0. Par linéarité, on a
r r
!
X X
λi f (vi ) = f λi vi =0
i=1 i=1

donc ri=1 λi vi ∈ Ker(f ). Or (u1 , . . . , uk ) est une base de Ker(f ) donc il existe des scalaires
P

α1 , . . . , αk tels que
λ1 v1 + · · · + λr vr = α1 u1 + · · · + αk uk ,
ou écrit autrement
λ1 v1 + · · · + λr vr − α1 u1 − · · · − αk uk = 0.
Mais la famille (u1 , . . . , uk , v1 , . . . , vr ) est libre donc λ1 = · · · = λr = −α1 = · · · = −αk = 0.
On est parti d’une combinaison linéaire des f (vi ) qui s’annulait et on en a conclu qu’elle
était forcément triviale, ce qui signifie que la famille (f (v1 ), . . . , f (vr )) est libre.

Corollaire 3.20. Soit E et F deux e.v de dimension n et m respectivement. Soit f une


application linéaire entre E et F.
1) Si n > m alors f n’est jamais injective.
2) Si n < m alors f n’est jamais surjective.
3) Si n = m alors f est injective si et seulement si elle est surjective et donc si et seulement
si elle est bijective.
Démonstration. 1) Supposons que n > m. D’après le théorème du rang, n = rg(f ) +
dim(Ker(f )). De plus Im(f ) ⊂ F donc rg(f ) ≤ m. Par conséquent, dim(Ker(f )) = n −
rg(f ) ≥ n − m > 0 et donc Ker(f ) 6= {0}. Par la Proposition 3.18, f n’est donc pas
injective.
2) Supposons que n < m. Toujours d’après le théorème du rang, rg(f ) = n−dim(Ker(f )) ≤
n < m donc d’après la Proposition 3.18, f n’est pas surjective.
3) L’égalité rg(f ) = n−dim(Ker(f )) implique que si n = m alors rg(f ) = m si et seulement
si dim(Ker(f )) = 0, et donc Ker(f ) = {0}.
32 Chapitre 3. Applications linéaires

3.2.1 Calculs pratiques


Dans cette section, nous allons voir comment déterminer, aussi bien en termes d’équa-
tions que de bases, l’image et le noyau d’une application linéaire.
Dans la suite, f sera une application linéaire entre Rn et Rm donnée par une matrice
A.
y1
 
 .. 
Si l’on veut déterminer l’image de f, il faut trouver tous les Y =  .  ∈ Rm tels qu’il
ym
x1
 

existe un X =  ...  ∈ Rn avec AX = Y. Pour cela, on échelonne et réduit la matrice


 

xn
(A|Y ) pour obtenir une matrice (A0 |Y 0 ).
-Le rang de f est le nombre de pivots dans la matrice A0 .
-Les équations de l’image sont les équations en y1 , . . . , ym qui garantissent qu’il n’y a pas
de pivot dans la dernière colonne de (A0 |Y 0 ).
-Une base de Im(f ) est donnée par la famille constituée des f (ei ) pour lesquels il y a un
pivot dans la i-ème colonne de A0 .
Exemple 3.21. Si f : R5 → R6 est définie par la matrice
 
1 2 0 2 0
0 0 1 1 0
 
0 0 1 1 1
A=
 
1 2 0 2 0

 
1 2 1 3 0
0 0 0 0 0
alors la matrice échelonnée réduite correspondante est
 
1 2 0 2 0 y1
0
 0 1 1 0 y2 

0 0 0 0 1 y3 − y2 
(A0 |Y 0 ) =  .
 
0 0 0 0 0 y4 − y1 
 
0 0 0 0 0 y5 − y1 − y2 
0 0 0 0 0 y6

Il y a 3 pivots dans A0 donc le rang de f est 3 et Im(f ) est donnée par les équations
  
 y1
 y4 − y1 = 0 
Im(f ) =  ...  ∈ R6 y5 − y1 − y2 = 0 .

 
 

y6 y =0 
6

De plus, les pivots sont dans les colonnes 1, 3 et 5 donc les trois vecteurs
     
1 0 0
0 1 0
     
0 1 1
f (e1 ) =   , f (e3 ) =   et f (e5 ) =  
     
1 0 0
     
1 1 0
0 0 0
forment une base de Im(f ).
3.3. Matrices d’une application linéaire, matrices de passage 33

Pour le noyau, on prend Y = 0 et donc Y 0 = 0.


-Les équations de Ker(f ) sont simplement données par le système A0 X = 0.
-Si on note k = dim(Ker(f )), le système ci-dessus a exactement k inconnues libres (sans
pivot dans leur colonne). Pour chacune de ces k inconnues, on considère le vecteur obtenue
en prenant cette inconnue égale à 1 et toutes les autres inconnues libres égales à 0 (les
inconnues contraintes étant déterminées par ces choix). On obtient k vecteurs qui forment
une base de Ker(f ).
Exemple 3.22. En reprenant l’exemple ci-dessus, on obtient grâce à A0 que
  
 x1
 x1 = −2x2 − 2x4 
Ker(f ) =  ...  ∈ R5

x3 = −x4 .
 
 

x5 x =0 5

Les colonnes 2 et 4 n’ont pas de pivot donc une base de Ker(f ) est donnée par les deux
vecteurs de Ker(f ) obtenus en prenant x2 = 1 et x4 = 0 puis x2 = 0 et x4 = 1, c’est-à-dire
   
−2 −2
 1   0 
   
 0  et −1 .
   
   
 0   1 
0 0
Remarque 3.23. Dans le cas d’une application f entre e.v E et F de dimension finie,
il est possible de faire la même chose dès que l’on a deux bases A et B de E et F
respectivement. On regarde alors la matrice MB,A (f ) de f dans les bases A et B sans
oublier alors que les différents vecteurs colonnes obtenus ne sont que des coordonnées dans
A ou B.

3.3 Matrices d’une application linéaire, matrices de passage


Pour une application entre Rn et Rm , on a vu qu’il est possible de lui associer de
manière “naturelle” une matrice. Ce n’est plus le cas pour une application entre deux e.v
quelconques. Il faut faire des choix de bases et pour chaque choix, la matrice obtenue sera
différente.
Définition 3.24. Soit E, F deux e.v de dimension finie et A = (u1 , . . . , un ), B =
(v1 , . . . , vm ) des bases de E et F respectivement.
Si f est entre application linéaire entre E et F alors on note MB,A (f ) la matrice dont
la i-ème colonne est constituée des coordonnées du vecteur f (ui ) dans la base B. MB,A
s’appelle la matrice de f dans les bases A et B.
Cette notion permet d’associer, dès qu’on a une base de E et une base de F , une
matrice à n’importe quelle application linéaire entre E et F.
Si E = Rn et F = Rm tous deux équipés de leur base canonique, alors on retrouve
les matrices de la Définition 3.10. Dans la pratique, prendre la base canonique n’est pas
forcement un bon choix et trouver de “bonnes bases” pour une application donnée est au
centre du programme de deuxième année, à travers la diagonalisation par exemple.
Un cas particulièrement important est le cas où E = F et f = IdE .
Définition 3.25. Soit E un e.v de dimension finie et A, B deux bases de E. La matrice
de passage de la base A à la base B est définie par
CA,B := MB,A (IdE ).
34 Chapitre 3. Applications linéaires

Exemple ( 3.26.
! 1) Pour
!) toute base
( ! A, la matrice
!) CA,A est l’identitée.
1 1 1 −2
2) Si A = , et B = , sont deux bases de R2 on a
1 2 0 1
!
2 −5
CA,B = .
−1 3

En effet, on peut vérifier que


! ! ! ! ! !
1 1 1 1 1 −2
2 − = et − 5 +3 = .
1 2 0 1 2 1

Remarque 3.27. Il faut faire bien attention à l’ordre des bases dans la notation. La
matrice CA,B permet de passer de la base A à la base B et non l’inverse ! Cette convention
est justifiée par la proposition suivante qui est d’une certaine manière une relation de
Chasles.

Proposition 3.3.1. Soit E, F et G trois e.v de dimension finie et A, B et C trois bases


de E, F et G respectivement. Si f : E → F et g : F → G sont des application linéaires
alors
MC,B (g)MB,A (f ) = MC,A (g ◦ f ).
En particulier, si E = F alors
CA,B = (CB,A )−1
et
MA,A (f ) = CA,B MB,B (f )CB,A = (CB,A )−1 MB,B (f )CB,A .
Chapitre 4

Déterminant

Dans ce chapitre, nous allons introduire la notion de déterminant dans Rn , qui à une
famille (u1 , . . . , un ) de n vecteurs de Rn associe un nombre réel. Il fournit deux informations
sur cette famille. Sa valeur absolue s’interprète comme le “volume” du parallélépipède
engendré par les vecteurs u1 , . . . , un . Le terme “volume” doit être compris ici comme
“longueur” si n = 1, “aire” si n = 2, “volume” si n = 3 et comme une notion similaire
quand n ≥ 4.
En particulier, cette interprétation géométrique implique que le déterminant est nul si
et seulement si le parallélépipède en question est “plat”, c’est-à-dire si et seulement si la
famille (u1 , . . . , un ) est liée. S’il est non nul alors u1 , . . . , un forment une base de Rn et le
signe de leur déterminant indique si cette base est un repère direct ou indirect de Rn .
La définition du déterminant en toute généralité est abstraite mais il intervient dans
de très nombreuses situations pratiques.

4.1 Formes n-linéaires, formes alternées, déterminant


Définition 4.1. Soit E un e.v. Une forme n-linéaire sur E est une application

f : En = E × · · · × E → R
(u1 , . . . , un ) 7→ f (u1 , . . . , un ),

telle que

f (u1 , . . . , ui−1 , (ui + λu0i ), ui+1 , . . . , un )


= f (u1 , . . . , ui−1 , ui , ui+1 , . . . , un ) + λf (u1 , . . . , ui−1 , u0i , ui+1 , . . . , un ),

c’est-à-dire si f est linéaire en chacune des variables.


Si n = 1 on dira simplement que f est une forme linéaire et si n = 2 que f est une
forme bilinéaire.

Définition 4.2. Soit E un e.v et f une forme n-linéaire. On dira que f est symétrique si
elle est invariante par permutation des variables, c’est-à-dire

f (u1 , . . . , ui , . . . , uj , . . . , un ) = f (u1 , . . . , uj , . . . , ui , . . . , un ),

et alternée (ou antisymétrique) si le fait de permuter deux variables change le signe :

f (u1 , . . . , ui , . . . , uj , . . . , un ) = −f (u1 , . . . , uj , . . . , ui , . . . , un ).
36 Chapitre 4. Déterminant

Remarque 4.3. 1) Si f est une n-forme alternée, il est facile de voir que f (u1 , . . . , un ) = 0
dès que ui = uj avec i 6= j.
2) Les formes bilinéaires symétriques et les formes linéaires vont jouer un rôle important
par la suite. Dans ce chapitre, on se concentrera sur les formes n-linéaires alternées.
Exemple 4.4. 1) Le produit scalaire dans R2 défini par
R2 × R2 →R
! !!
x1 x0
, 10 7→x1 x01 + x2 x02
x2 x2

est une forme bilinéaire symétrique sur R2 .


2) Plus généralement, le produit scalaire de Rn
Rn × Rn →R
x1 x01
   
n
 ..   .. 
xi x0i
X
,
 .   .  →
7
xn x02 i=1

est une forme bilinéaire symétrique sur Rn .


3) L’application
R2 × R2 →R
! !!
a c
, 7→ad − bc
b d

est une forme bilinéaire alternée.


La définition du déterminant repose sur le théorème suivant.
Théorème 4.5. Soit E un e.v de dimension n.
1) L’ensemble des formes n-linéaires alternées sur E forment un e.v de dimension 1.
2) De plus si B = (u1 , . . . , un ) est une base de E et que f est une forme n-linéaire alternée
non identiquement nulle alors
f (u1 , . . . , un ) 6= 0.
Définition 4.6. Soit E un e.v de dimension n et B = (u1 , . . . , un ). Le déterminant associé
à la base B est l’unique forme n-linéaire alternée detB telle que
detB (u1 , . . . , un ) = 1.
Dans le cas où E = Rn et B est la base canonique, on écrira simplement det .
Remarque 4.7. Le point 1) du Théorème 4.5 implique l’unicité alors que les points 1) et
2) entraînent l’existence.
Exemple 4.8. 1) On va voir comment trouver une formule explicite du déterminant
associé à la base !
canonique (e1! , e2 ) dans R2 .
a c
Soit u1 = et u2 = deux vecteurs de R2 . Ils peuvent s‘écrire u1 = ae1 + be2
b d
et u2 = ce1 + de2 . On voit alors que
det(u1 , u2 ) = det(ae1 + be2 , u2 )
=a det(e1 , u2 ) + b det(e2 , u2 )
4.1. Formes n-linéaires, formes alternées, déterminant 37

en utilisant la linéarité en la première variable, puis que

a det(e1 , u2 ) + b det(e2 , u2 ) =a(c det(e1 , e1 ) + d(det(e1 , e2 ))


+ b(c det(e2 , e1 ) + d det(e2 , e2 ))
=ad − bc

car det(e1 , e2 ) = − det(e2 , e1 ) = 1 et det(e1 , e1 ) = det(e2 , e2 ) = 0.


2) En effectuant le même genre de calcul dans R3 , déjà plus laborieux, on obtiendrait la
formule de Sarrus
     
a d g
det  b  ,  e  , h = aei + dhc + gbf − gec − hf a − idb.
     
c f i

Des formules similaires peuvent être données en toute dimension mais elles sont très longues
dès la dimension 4. Dans la prochaine section, on verra des méthodes pour calculer des
déterminants en toute dimension.

Une des propriétés fondamentales du déterminant est donnée par le théorème suivant.

Théorème 4.9. Soit E un e.v de dimension n et B une base de E. Une famille de n


vecteurs u1 , . . . , un est liée si et seulement si detB (u1 , . . . , un ) = 0.

Démonstration. Rappelons que dans un e.v de dimension n, une famille de n vecteurs est
libre si et seulement si c’est une base. Donc si les vecteurs u1 , . . . , un ne sont pas liés, ils
forment une base et par le Théorème 4.5, detB (u1 , . . . , un ) 6= 0.
Inversement, si la famille est liée, il existe une combinaison linéaire non triviale entre
les ui , c-à-d
n
X
λi ui = 0,
i=1

avec au moins un λi différent de 0. Sans perte de généralités, on peut supposer que λ1 6= 0.


On a alors
n
!
1 X
detB (u1 , u2 , . . . , un ) = detB − λi ui , u2 , . . . , un
λ1 i=2
n
1 X
=− λi detB (ui , u2 , . . . , un ) = 0,
λ1 i=2

où la dernière égalité vient du fait que detB (ui , u2 , . . . , un ) = 0 si 2 ≤ i ≤ n.

En utilisant le déterminant dans Rn associé à la base canonique, il est aussi possible


de définir le déterminant d’une matrice carrée.

Définition 4.10. Soit A = (aij ) ∈ Mn (R) une matrice carrée de taille n. Le déterminant
de A est défini comme le déterminant des n vecteurs colonnes de A dans la base canonique
de Rn . On le note det(A) ou
a11 · · · a1n
.. .. ..
. . .
an1 · · · ann
38 Chapitre 4. Déterminant

Exemple 4.11. 1) En utilisant la formule obtenue dans l’Exemple 4.8 1) on trouve que
!
1 2 1 2
det = = 1 × 4 − 2 × 3 = −2.
3 4 3 4

2) La formule de Sarrus nous donne que


 
1 2 3 1 2 3
det 4 5 6 = 4 5 6 = 45 + 84 + 96 − 105 − 72 − 48 = 0
 
7 8 9 7 8 9

Le Théorème 4.9 se traduit de la manière suivante pour les matrices.

Théorème 4.12. Un matrice A ∈ Mn (R) est inversible si et seulement si det(A) 6= 0.

Une propriété remarquable du déterminant est qu’il respecte le produit matriciel.

Proposition 4.1.1. Le déterminant de matrices est multiplicatif, c’est-à-dire

det(AB) = det(A) det(B).

4.2 Calculs pratiques


Nous allons voir une méthode pour calculer les déterminants en toute dimension qui
repose sur la formule de Laplace et les opérations élémentaires sur les lignes et les colonnes.
Le déterminant étant une forme n-linéaire alternée, on peut faire les opérations élé-
mentaires suivantes sur les colonnes.
— Si on échange deux colonnes alors on change le signe du déterminant. Par exemple,
dans le cas 2 × 2,
a b b a
=− .
c d d c
— Si α ∈ R est un scalaire et qu’on change une colonne Ci par αCi , alors on multiplie
le déterminant par α.
a αb a b
=α .
c αd c d
— Si on remplace une colonne Ci par Ci + αCj avec i 6= j, alors le déterminant reste
inchangé.
a b a b + αa
= .
c d c d + αc
Le théorème suivant dit en particulier que ces trois règles restent valables si on remplace
“colonne” par “ligne”.

Théorème 4.13. Soit A ∈ Mn (R). Le déterminant de A est égal au déterminant de t A,

det(A) = det(t A).

Avant d’introduire la formule de Laplace, on a besoin des notations suivantes.

Définition 4.14. Soit A ∈ Mn (R) et 1 ≤ i, j ≤ n. On note Aij ∈ Mn−1 (R) la matrice


obtenue à partir de A en supprimant la i-ième ligne et la j-ième colonne.
4.2. Calculs pratiques 39

Exemple 4.15. Si  
1 2 3
A = 4 5 6  ,
 
7 8 9
alors ! !
5 6 1 2
A11 = , A23 = ···
8 9 7 8
Théorème 4.16 (Formule de Laplace). Soit A = (aij ) ∈ Mn (R) et 1 ≤ k ≤ n.
— Le déterminant peut se développer par rapport à la k-ième colonne :
n
X
det(A) = (−1)i+k aik det(Aik ).
i=1
— Le déterminant peut se développer par rapport à la k-ième ligne :
n
X
det(A) = (−1)k+i aki det(Aki ).
i=1

Remarque 4.17. 1) Dans chacune de ces formules, il faut bien faire attention aux signes !
2) Dans la pratique, on appliquera la formule de Laplace après avoir fait des opérations
élémentaires sur les lignes ou les colonnes afin de développer par rapport à une ligne ou
une colonne simple (par exemple avec un seul coefficient non nul).
Exemple 4.18. 1) On considère la matrice
 
2 1 0
A = 1 2 3 .
 
4 −1 0
Si on développe par rapport à la deuxième ligne, on obtient
det(A) = (−1)2+1 a21 det(A21 ) + (−1)2+2 a22 det(A22 ) + (−1)2+3 a23 det(A23 )
1 0 2 0 2 1
= −1 × +2× −3×
−1 0 4 0 4 −1
= 0 + 0 + 18 = 18.
Si on avait choisi de développer par rapport à la troisième colonne, alors on aurait obtenu
1 2 2 1 2 1
det(A) = 0 × −3× +0× = 18,
4 −1 4 −1 1 2
ce qui est bien cohérent.
2) Dans les exemples de plus grandes tailles, il est souvent très préférable de faire des
simplifications avant. Par exemple, si
 
1 0 1 2
1 3 2 4
B=
 
2 1 2 5

1 1 1 6
alors
1 0 1 2 1 0 1 2
3 1 2
1 3 2 4 0 3 1 2 1 1
det(B) = = =1× 1 0 1 = −1 × = −3.
2 1 2 5 0 1 0 1 1 4
1 0 4
1 1 1 6 0 1 0 4
40 Chapitre 4. Déterminant

Une conséquence de la formule de Laplace est le théorème suivant.

Théorème 4.19. Le déterminant d’une matrice A = (aij ) triangulaire (supérieure ou


inférieure) est le produit de ses éléments diagonaux.

det(A) = a11 × a22 × · · · × ann .


Chapitre 5

Valeurs propres, vecteurs propres

Un endomorphisme f d’un e.v E est une application linéaire f : E → E. Dans ce dernier


chapitre, nous allons introduire plusieurs objets associés à un endomorphisme d’un e.v qui
va permettre de les étudier plus en profondeur. Dans tout ce chapitre, E sera un e.v de
dimension finie et f un endomorphisme de E.

5.1 Valeurs propres, spectres et polynômes caractéristiques


Voici les définitions des objets de bases de ce chapitre.

Définition 5.1. Une valeur propre de f est un scalaire λ ∈ R tel qu’il existe un vecteur
u ∈ E non nul vérifiant
f (u) = λu.
Un tel vecteur est dit vecteur propre de f associé à λ.

Définition 5.2. L’ensemble de toutes les valeurs propres de f s’appelle le spectre de f et


se note Spec(f ).

Définition 5.3. Si λ est une valeur propre de f, on appelle espace propre associé à λ
l’ensemble des vecteurs propres associés à λ auquel on ajoute le vecteur nul. On le notera
Eλ .

Remarque 5.4. En particulier, 0 est valeur propre si et seulement si Ker(f ) n’est pas
réduit à 0.

Remarque 5.5. On peut définir les même notions pour une matrice de Mn (R), en consi-
dérant l’endomorphisme de Rn qui lui est associé.

Proposition 5.1.1. Soit λ ∈ Spec(f ). L’espace propre Eλ vérifie

Eλ = Ker(f − λId).

En particulier, c’est un s.e.v.

Démonstration. Par définition, u ∈ Eλ si et seulement si f (u) = λu ou u = 0. Mais


puisque f est linéaire, f (0) = 0 = λ · 0 donc u ∈ Eλ si et seulement si f (u) = λu ou écrit
autrement (f − λId)(u) = 0, c’est-à-dire si et seulement si u ∈ Ker(f − λId).

Proposition 5.1.2. Si λ, µ ∈ Spec(f ) alors λ 6= µ si et seulement si Eλ ∩ Eµ = {0}.


42 Chapitre 5. Valeurs propres, vecteurs propres

Démonstration. Supposons qu’il existe u ∈ Eλ ∩ Eµ avec u 6= 0. On a alors que f (u) = λu


mais aussi que f (u) = µu. D’où λu = µu et donc que λ = µ car u 6= 0.
La réciproque est évidente.

D’après la Proposition 5.1.1, λ ∈ R est valeur propre si et seulement si Ker(f − λId) 6=


{0} ou dit autrement, puisqu’on est en dimension finie, si f − λId est non inversible. Cela
amène, pour les matrices dans un premier temps, à la définition suivante.

Définition 5.6. Soit A ∈ Mn (R). Le polynôme caractéristique de A est le polynôme défini


par
PA (λ) = det(A − λIn ).

Ce polynôme vérifie plusieurs propriétés.

Proposition 5.1.3. Soit A ∈ Mn (R). Comme son nom l’indique, le polynôme caractéris-
tique de A est un polynôme, son degré est n.
L’ensemble de ses racines coïncide avec le spectre de A. De plus, si on note
n
X
PA (λ) = ai λ i
i=1

alors
— a0 = det(A),
— an = (−1)n ,
— an−1 = (−1)n−1 Tr(A) où Tr(A) désigne la trace de A, c’est à dire la somme des
éléments diagonaux de A.

Exemple 5.7. Considérons la matrice


 
1 0 3
A = 2 7 3  .
 
3 0 1

On a alors  
1−λ 0 3
A − λIn =  2 7−λ 3 ,
 
3 0 1−λ
et

1−λ 0 3
1−λ 3
PA (λ) = 2 7−λ 3 = (7 − λ)
3 1−λ
3 0 1−λ
= (7 − λ)((1 − λ)2 − 9) = (7 − λ)(4 − λ)(−2 − λ).

Le spectre de A est donc Spec(A) = {−2, 4, 7}.

Proposition 5.1.4. Soit A ∈ Gln (R). Les polynômes caractéristiques de A et A−1 vérifient

PA−1 (λ) = (−1)n det(A−1 )λn PA (1/λ).

En particulier, si λ est valeur propre de A alors λ 6= 0 et λ−1 est valeur propre de A−1 .
5.1. Valeurs propres, spectres et polynômes caractéristiques 43

Démonstration. Par définition,

PA−1 (λ) = det(A−1 − λIn ) = det(A−1 − λ(A−1 A))


= det(λA−1 (λ−1 In − A))
= det(λA−1 ) × det(λ−1 In − 1)
= λn det(A−1 )(−1)n det(A − λ−1 In )
= (−1)n det(A−1 )λn PA (1/λ).

Proposition 5.1.5. Soit A ∈ Mn (R) et S ∈ Gln (R). Les matrices A, t A et S −1 AS ont


même polynôme caractéristique.

Démonstration. C’est une conséquence des égalités det(M ) = det(t M ) et det(M N ) =


det(M ) det(N ). En effet, par définition

Pt A (λ) = det(t A − λIn ) = det(t (A − λIn )) = det(A − λIn ) = PA (λ),

et

PS −1 AS = det(S −1 AS − λIn ) = det(S −1 AS − λ(S −1 In S))


= det(S −1 (A − λIn )S) = det(S −1 ) det(A − λIn ) det(S) = PA (λ).

On déduit de cette proposition que le polynôme caractéristique de la matrice MB,B (f )


de f dans la base B ne dépend pas de B.

Définition 5.8. Le polynôme caractéristique de f est par définition le polynôme caracté-


ristique de sa matrice dans une base quelconque.

Vous aimerez peut-être aussi