0% ont trouvé ce document utile (0 vote)
40 vues67 pages

Cours MATH

Le document présente un cours d'Algèbre Linéaire pour la Licence L2 en sciences économiques, couvrant des thèmes tels que les vecteurs, les matrices, les systèmes d'équations linéaires, la base et la dimension des sous-espaces vectoriels, ainsi que la diagonalisation des matrices carrées. Chaque section est détaillée avec des définitions, des propriétés et des méthodes de résolution. Le contenu est structuré pour faciliter l'apprentissage des concepts fondamentaux de l'algèbre linéaire.

Transféré par

alidounima8
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues67 pages

Cours MATH

Le document présente un cours d'Algèbre Linéaire pour la Licence L2 en sciences économiques, couvrant des thèmes tels que les vecteurs, les matrices, les systèmes d'équations linéaires, la base et la dimension des sous-espaces vectoriels, ainsi que la diagonalisation des matrices carrées. Chaque section est détaillée avec des définitions, des propriétés et des méthodes de résolution. Le contenu est structuré pour faciliter l'apprentissage des concepts fondamentaux de l'algèbre linéaire.

Transféré par

alidounima8
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UFR SEGMI a.a.

2020/21

Algèbre Linéaire
Licence L2 - sces éco

Table des matières


1 Vecteurs 4
1.1 Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Combinaisons linéaires de vecteurs de Rn . . . . . . . . . . . . . . . 5
1.3 Sous-espaces vectoriels de Rn . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 SEV de Rn engendré par une famille de vecteurs . . . . . . . 7
1.3.3 Droites et plans vectoriels . . . . . . . . . . . . . . . . . . . 7
1.3.4 Équations des droites et des plans vectoriels. . . . . . . . . . 9
1.4 R[n] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Matrices 11
2.1 Définition des matrices m × n . . . . . . . . . . . . . . . . . . . . . 11
2.2 Combinaison linéaires de matrices . . . . . . . . . . . . . . . . . . . 12
2.2.1 Addition des matrices . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Multiplication par un scalaire . . . . . . . . . . . . . . . . . 12
2.2.3 Combinaisons linéaires de matrices . . . . . . . . . . . . . . 13
2.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Multiplication de matrices . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.1 Multiplication d’un vecteur ligne et d’un vecteur colonne . . 14
2.4.2 Multiplication de deux matrices . . . . . . . . . . . . . . . . 14
2.4.3 Multiplication d’une matrice et d’un vecteur . . . . . . . . . 16
2.5 Propriétés de la multiplication des matrices . . . . . . . . . . . . . . 18
2.6 Noyau et image d’une matrice . . . . . . . . . . . . . . . . . . . . . 19
2.7 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.1 Matrice identité . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.2 Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.3 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . 20
2.7.4 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . 21

1
3 Système d’équations linéaires 23
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1 Système d’équation linéaires à deux inconnues . . . . . . . . 23
3.1.2 Système d’équations linéaires à trois inconnues . . . . . . . . 24
3.1.3 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Formes vectorielles et matricielles d’un système linéaire . . . . . . . 27
3.3 SEV de Rn et systèmes d’équations linéaires à n inconnues . . . . . 28
3.4 Équation d’une droite et d’un plan dans R3 . . . . . . . . . . . . . . 28
3.4.1 Équation d’un plan . . . . . . . . . . . . . . . . . . . . . . . 28
3.4.2 Équation d’une droite . . . . . . . . . . . . . . . . . . . . . 30
3.5 Résolution d’un système linéaire par la méthode du pivot de Gauss 30
3.5.1 La méthode par substitution . . . . . . . . . . . . . . . . . . 31
3.5.2 La méthode par élimination . . . . . . . . . . . . . . . . . . 31
3.5.3 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.1 Système d’équations linéaires à deux inconnues . . . . . . . 35
3.6.2 Système d’équations linéaires à trois inconnues . . . . . . . . 38
3.6.3 Système d’équations linéaires à quatre inconnues . . . . . . . 41
3.7 Détermination de l’inversibilité et calcul de l’inverse : . . . . . . . . 42

4 Base et dimension d’un SEV de Rn 44


4.1 SEV engendré par F . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Famille génératrice de Rn . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Base de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Base canonique de Rn . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6 Base et dimension d’un SEV de Rn . . . . . . . . . . . . . . . . . . 50
4.6.1 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6.3 Dimension d’un SEV défini par un système linéaire homogène 51
4.7 Coordonnées d’un vecteur de Rn dans une base de Rn . . . . . . . . 53

5 Diagonalisation de matrices carrées 54


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2 Diagonalisation - Définition . . . . . . . . . . . . . . . . . . . . . . 55
5.3 Éléments propres de A . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 Valeurs propres de A . . . . . . . . . . . . . . . . . . . . . . 55
5.3.2 Vecteurs propres de A . . . . . . . . . . . . . . . . . . . . . 56
5.3.3 Espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.4 Spectre de A . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4 Base propre et diagonalisation . . . . . . . . . . . . . . . . . . . . . 57

2
5.5 Méthode pour diagonaliser une matrice A . . . . . . . . . . . . . . 59
5.6 Méthode pour diagonaliser une matrice 2 × 2 . . . . . . . . . . . . . 60
5.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7.1 Exemple 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7.2 Exemple 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.7.3 Exemple 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.7.4 Exemple 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7.5 Exemple 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3
1 Vecteurs
1.1 Rn
 
x1
Pour n ≥ 1, Rn est l’ensemble des vecteurs colonnes X =  ... , où x1 , x2 , . . . , xn
 
xn
 
0
 .. 
sont n nombres réels. On notera le vecteur  .  simplement par 0.
0

Exemples : 
— R est l’ensemble des vecteurs de la forme X = x1 . Ces vecteurs sont
simplement les nombres réels (un vecteur avec une seule composante est un
nombre).  
2 x1
— R est l’ensemble des vecteurs de la forme X = . Par exemple le
  x 2
2
vecteur 3 est un vecteur de R2 .
2  
x1
— R3 est l’ensemble des vecteurs de la forme X = x2 . Par exemple le
  x3
1
vecteur  2  est un vecteur de R3 .
−7
Addition de deux vecteurs X et Y de Rn .
Le résultat est un vecteur de Rn , noté X + Y , et on a :
     
x1 y1 x1 + y 1
X + Y =  ...  +  ...  =  ... 
     
xn yn xn + y n

Multiplication d’un vecteur X de Rn par un scalaire 1 λ ∈ R.


Le résultat est un vecteur de Rn , noté λX, et on a :
 
λx1
λX =  ...  .
 
λxn

4
Exemples :    
1 3
— La somme des vecteurs X =  2  et Y = −5 est

−7 0
     
1 3 4
X +Y =  2 + −5 = −3 .
   
−7 0 −7
 
1
— Le produit de X =  2  par λ = 2 est
−7
   
2×1 2
2X =  2 × 2  =  4  .
2 × (−7) −14

1.2 Combinaisons linéaires de vecteurs de Rn


Soit {X1 , . . . , Xp }, une famille 2 de p vecteurs de Rn . Une combinaison linéaire
des vecteurs X1 , . . . , Xp est un vecteur X tel que
p
X
X= λi Xi ,
i=1

où {λ1 , . . . , λp } est une famille de p nombres réels. Ces p nombres réels sont appelés
les coefficients de cette combinaison linéaire.
 
1
Exemple : un exemple de combinaison linéaire des vecteurs X =  2  et
  −7
3
Y = −5 est
0
     
1 3 −7
2X − 3Y = 2  2  − 3 −5 =  19  .
−7 0 −14

2. Une famille se distingue d’une suite par le fait que l’ordre des termes ne compte pas. On
utilise alors la notation {a, b, ...} et non (a, b, ...).

5

x1
Remarque : pour tout vecteur X =  ...  ∈ Rn on a que
 
xn
     
1 0 0
0 1 0
     
X = x1 0 + x2 0 + · · · + xn  ...  .
     
 ..   ..   
. . 0
0 0 1

Les nombres x1 , x2 , ... , xn sont appelés les coordonnées


   du  X,ou plus
vecteur 
1 0 0
0 1 0
     
précisément coordonnées par rapport aux vecteurs 0 , 0 , · · · ,  ...  .
     
 ..   ..   
. . 0
0 0 1

1.3 Sous-espaces vectoriels de Rn


1.3.1 Définition
Un sous-ensemble E de Rn est appelé un sous-espace vectoriel (ou SEV) de Rn
si on a :

— 0 ∈ E,

— Si X ∈ E et λ ∈ R, alors λX ∈ E,

— Si X ∈ E et si Y ∈ E, alors X + Y ∈ E.

Exemples :

— Rn est un SEV de Rn .
  
x1
— L’ensemble E = ∈ R x1 + x2 = 0 est un SEV de R2 . En effet,
2

  x 2
0
• 0= ∈ E car 0 + 0 = 0 ;
0

6
   
x1 λx1
• si X = ∈ E, alors λX = et λx1 + λx2 = λ(x1 + x2 ) = 0,
x2 λx2
car x1 +x2  = 0 par hypothèse,
  donc λX ∈ E ;  
x1 y1 x1 + y1
• si X = ∈ E et si y = ∈ E, alors X + Y = ∈ E et
x2 y2 x2 + y2
(x1 + y1 ) + (x2 + y2 ) = (x1 + y1 ) + (x2 + y2 ) = 0 + 0 = 0, donc X + Y ∈ E.

Remarques :

— Pour vérifier qu’un sous-ensemble E de Rn est un SEV de Rn , il suffit de


vérifier que 0 ∈ E et que λX + Y ∈ E pour tout λ ∈ R, X ∈ E et Y ∈ E.

— Un SEV E de Rn est un ensemble de vecteurs stable par combinaison li-


néaire.

1.3.2 SEV de Rn engendré par une famille de vecteurs


Soit F = {X1 , . . . , Xp }, une famille de p vecteurs de Rn . On note Vect(F)
l’ensemble des combinaisons linéaires des vecteurs de F, i.e. Vect(F) est l’ensemble
des vecteurs X qui peuvent s’écrire sous la forme
p
X
X= λi Xi ,
i=1

où {λ1 , . . . , λp } est une famille de p nombres réels.

Proposition 1.1. Vect(F) est un SEV de Rn , qui sera appelé le SEV de Rn


engendré par F.

On utilisera la convention Vect(∅) = {0}.

1.3.3 Droites et plans vectoriels


(a) Vecteurs Colinéaires : Soient X et Y deux vecteurs de Rn . On dit que X
et Y sont colinéaires s’il existe un scalaire λ ∈ R tel que X = λY ou Y = λX.

Exemples :       
−1 3 3 −1
— Les vecteurs et sont colinéaires car = −3 (ou
  2 −6
  −6 2
−1 3
parce que = − 13 ).
2 −6

7
   
−1 3
— Les vecteurs et ne sont pas colinéaires car on ne peut pas
2  −5      
3 −1 −1 3
trouver λ ∈ R tel que =λ ou tel que =λ .
−5 2 2 −5

Remarques :
— Si X = 0 (ou si Y = 0), alors X et Y sont colinéaires (il suffit de prendre
λ = 0) ;
— Pour vérifier que X et Y sont colinéaires, il faut montrer qu’il existe deux
réels a et b, tels que a ou b est différent de 0 et tels que aX + bY = 0. Si ce
n’est pas possible (car aX + bY ⇒ a = b = 0) alors X et Y ne sont pas
colinéaires.

(b) Droite vectorielle : On appelle droite vectorielle un SEV engendré par un


seul vecteur X non nul. Ce vecteur X est appelé un vecteur directeur de cette
droite.

Exemple :    
3 3
— Vect est la droite vectorielle de R2 de vecteur directeur ;
4
   4 
 1  1
3
— Vect  −2  est la droite vectorielle de R de vecteur directeur −2.

1 1
 


  
2  1 
Remarque : −4 est aussi un vecteur directeur de Vect −2 .
2 1
 

(c) Plan vectoriel : On appelle plan vectoriel un SEV engendré par deux vec-
teurs non colinéaires.

Exemple :    
 1 1 
— Vect −2 , 1 est un plan vectoriel de R3 car les deux vecteurs
  1  0
 
1 1
−2 et 1 ne sont pas colinéaires ;
1 0

8
    
 3 1 
— E = Vect  3 , 1 n’est pas un plan vectoriel de R3 car les deux
 
 0   0
 
3 1
vecteurs 3 et 1 sont colinéaires. Dans ce cas,
  
0 0
      
 3 1   1 
E = Vect  3 , 1
   = Vect 1
0 0 0
   
 
1
3
et E est la droite vectorielle de R de vecteur directeur 1.

0

1.3.4 Équations des droites et des plans vectoriels.


Il faut ici distinguer selon l’espace ambiant, R2 ou R3 (ou Rn ).

(a) Équation d’une droite vectorielle dans R2 : Dans R2 , l’équation d’une


droite vectorielle est une équation de la forme ax + by = 0 (avec a ou b non nul).
On a alors l’égalité suivante :
          
x −b −b
X= ax + by = 0 = Vect = λ λ∈R .
y a a

Exemples :  
3
— La droite vectorielle ∆ d’équation 2x − 3y = 0 est Vect .
  2  
x 2 x
En effet, si X = ∈ ∆ alors 2x − 3y = 0, y = 3 x et donc X = =
   y y
x 3 3
3
∈ Vect .
2 2    
x 3
Réciproquement, si X = ∈ Vect , alors il existe λ ∈ R tel que
    y 2
x 3
=λ et donc x = 3λ, y = 2λ et 2x − 3y = 6λ − 6λ = 0, ce qui
y 2
montre que X ∈ ∆.

2
— 
La droite
 vectorielle deR d’équation
 2x+y = 0 est engendrée par le vecteur
1 −2
(ou le vecteur ).
−2 4

9
Dans R2 , il n’y a qu’un seul plan vectoriel, R2 (le plan) tout entier. Il n’y pas
alors à parler d’équation de ce plan.

(b) Équation d’un plan vectoriel dans R3 : Dans R3 , l’équation d’un plan
vectoriel est une équation de la forme ax + by + cz = 0 (avec a, b ou c non nul).
Par exemple si a 6= 0 on a alors l’égalité suivante :
       
 x   −b −c 
X = y  ax + by + cz = 0 = Vect  a  ,  0  .
z 0 a
   

Exemple : Le plan vectoriel


  de R3d’équation
 x + y + 3z = 0 est engendré (par
−1 −3
exemple) par les vecteurs  1  et  0 .
  0 1
x
En effet, un vecteur y  de R3 est dans ce plan si et seulement si
z
       
x −y − 3z −1 −3
y  =  y  = y 1  + z 0 .
z z 0 1

(c) Équation d’une droite vectorielle dans R3 : Dans R3 , une droite vecto-
rielle peut être vue comme l’intersection de deux plans vectoriels. L’équation d’une
droite vectorielle est donc donnée par les équations de deux plans vectoriels.
 
1
Exemple : La droite vectorielle de R3 de vecteur directeur −2 est l’inter-
1
section des deux plans vectoriels d’équations 2x1 + x2 = 0 et x1 + x2 + x3 = 0.

1.4 R[n]
Au lieu de considérer des vecteurs colonnes (suite finie de nombres écrits en
colonne), on peut également considérer des vecteurs lignes. Ainsi, pour n ≥ 1, on
désigne par R[n] l’ensemble des vecteurs lignes X = x1 . . . xn , où x1 , x2 , ... ,
xn sont n nombres réels. L’addition de vecteurs de R[n] et la multiplication par un
scalaire se font comme pour les vecteurs colonnes.

10
 
Exemple : Considérons X = 1 0 −1 et Y = 0 2 3 deux vecteurs lignes
de R[3] . Alors X + 2Y = 1 4 5 .
Dans la suite, si ce n’est pas précisé les vecteurs seront toujours des vecteurs
colonnes.

2 Matrices
2.1 Définition des matrices m × n
Une matrice m×n est un tableau A de nombres réels à m lignes et n colonnes :
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  ..
 
.. .. .. 
 . . . . 
am1 am2 . . . amn

On note aij le réel se trouvant à la ligne i et à la colonne j.

On remarque qu’un vecteur de Rm est une matrice à m lignes et 1 colonne,


c’est à dire une matrice m × 1 et un vecteur de R[n] est une matrice à 1 ligne et
n colonnes, c’est-à-dire une matrice 1 × n.

On utilisera la notation A = (C1 C2 · · · Cn ) où C1 , . . . , Cn sont les n vecteurs


colonnes de Rm données par
     
a11 a1j a1n
 a21   a2j   a2n 
C1 =  ..  , . . . , Cj =  ..  , . . . , Cn =  ..  .
     
 .   .   . 
am1 amj amn

Ainsi, C1 , C2 , ... , Cn sont les colonnes de A.


On pourra aussi noter  
L1
 L2 
A =  .. 
 
 . 
Lm

11
avec
L1 = (a11 a12 . . . a1n ),
..
.
Li = (ai1 ai2 . . . ain ),
..
.
Lm = (am1 am2 . . . amn ).
Ici, L1 , L2 , ..., Lm ∈ R[n] sont les m vecteurs lignes (de taille n) donnés par les
lignes de A.
L’ensemble des matrices de taille m × n sera noté Mm,n (R).

2.2 Combinaison linéaires de matrices


2.2.1 Addition des matrices
Soient A et B deux matrices m × n, alors on peut additionner A et B :
     
a11 a12 . . . a1n b11 b12 . . . b1n a11 + b11 a12 + b12 ··· a1n + b1n
 a21 a22 · · · a2n   b21 b22 · · · b2n   a21 + b21 a22 + b22 ··· a2n + b2n 
.. + .. ..  =  .
     
 .. .. .. .. .. ..
 . . ··· .   . . ··· .   . . ··· . 
am1 am2 · · · amn bm1 bm2 · · · bmn am1 + bm1 am2 + bm2 · · · amn + bmn
Autrement dit, si M = A + B, alors mij = aij + bij .

Exemple : les vecteurs colonnes (resp. lignes) de A + B sont les sommes des
vecteurs colonnes (resp. lignes) de A et de B. Ainsi, on a
(C1 C2 · · · Cn ) + (D1 D2 · · · Dn ) = (C1 + D1 C2 + D2 · · · Cn + Dn )
où C1 , . . . , Dn ∈ Rm .

2.2.2 Multiplication par un scalaire


Rappelons que scalaire désigne un nombre réel par opposition à un vecteur ou
une matrice.

Soit A une matrice m × n et λ ∈ R un scalaire, alors λA est la matrice


 
λa11 λa12 . . . λa1n
 λa21 λa22 . . . λa2n 
λA =  ..
 
.. .. .. 
 . . . . 
λam1 λam2 . . . λamn

12
2.2.3 Combinaisons linéaires de matrices
Si A1 , . . . , Ap sont p matrices de même taille (elles ont toutes le même nombre
de lignes et le même nombre de colonnes) et si λ1 , . . . , λp sont p scalaires, on peut
définir la matrice A = λ1 A1 + · · · + λp Ap , qui est une combinaison linéaire des
matrices A1 , . . . , Ap .
   
2 3 1 0
Exemple : Si A1 = , A2 = , λ1 = 2 et λ2 = −1, alors
1 31 3 2
     
2×2 2×3 −1 × 1 −1 × 0 3 6
A = λ1 A1 + λ2 A2 = + = .
2 × 1 2 × 13 −1 × 3 −1 × 2 −1 − 43

2.3 Transposée d’une matrice


Soit A une matrice m × n. La transposée de A est B la matrice n × m telle
que pour tout 1 ≤ i ≤ n et tout 1 ≤ j ≤ m, on a bij = aji . La transposée de
A sera notée AT . Dans cette opération, on peut remarquer que les colonnes de A
deviennent les lignes de AT , et que les lignes de A deviennent les colonnes de AT .
En particulier, si X est un vecteur colonne, alors X T est un vecteur ligne.
On a les propriétés suivantes :
— Si A est une matrice m × n, alors

(AT )T = A,

— Si A et B sont deux matrices m × n, alors

(A + B)T = AT + B T ,

— Si λ ∈ R et si A est une matrice m × n, alors

(λA)T = λAT .
 
x1
Remarque : Si C =  ...  est un vecteur (colonne), alors on peut voir C
 
xm

comme une matrice m × 1 et donc la transposée du vecteur est C T = x1 · · · xm ,
qui est un vecteur ligne (et donc une matrice 1 × m).

13
2.4 Multiplication de matrices
2.4.1 Multiplication d’un vecteur ligne et d’un vecteur colonne
 
c1
 [n]  .. 
Soit n ≥ 1, L = l1 · · · ln ∈ R un vecteur ligne de taille n et C =  .  ∈
cn
n
R un vecteur colonne de taille n. Alors on définit leur produit LC comme le
nombre réel
LC = l1 c1 + l2 c2 + · · · + ln cn .

Quelques remarques importantes :


1. Ce produit n’a de sens que pour des vecteurs de même taille ;
2. L’ordre est très important : nous verrons plus loin qu’un produit CL est
toujours défini (quelque soit la taille des vecteurs) et à valeur matricielle ;
3. Le produit vecteur ligne × vecteur colonne (lorsqu’il est possible) est tou-
jours à valeur scalaire (réelle) ;
4. On ne peut pas (sauf si n = 1) multiplier deux vecteurs lignes (resp. co-
lonnes) ensemble.

Exemples :  
 −1
— Soit L = 1 2 et C = (n = 2). On a
3
 
 −1
LC = 1 2 = 1 × (−1) + 2 × 3 = 5
3
 
 3
— Soit L = −1 0 3 et C = 5 (n = 3). On a

1
 
 3
LC = −1 0 3 5 = (−1) × 3 + 0 × 5 + 3 × 1 = 0
1

2.4.2 Multiplication de deux matrices


Soient A et B deux matrices. Si le nombre de colonnes de A est égale au nombre
de lignes de B, on pourra définir le produit AB. Le produit AB sera une matrice
qui aura le même nombre de lignes que A et le même nombre de colonnes que B.

14
Si A est une matrice `×m et B est une matrice m×n, alors le produit P = AB
est bien défini et P est la matrice ` × n dont les coefficients pij s’obtiennent en
effectuant le produit de la i-ème ligne de A avec la j-ème colonne de B, c’est à
dire :  
b
  1j
pij = ai1 ai2 . . . aim  ... 

bmj
et donc m
X
pij = aik bkj .
k=1

Exemple 2.1. Vérifions le coefficient encadré en deuxième ligne et première co-


lonne du produit
    
0 −1 2 1 0 2 5
3 4 −6 4 −1 =  1 −16
1 0 −1 3 2 −2 −2

On a bien :
 
 1
3 4 −6 4 = 3 × 1 + 4 × 4 + (−6) × 3 = 1 .
3

On peut  interpréter ce produit en terme de vecteurs lignes et colonnes. Écrivons


L1
A =  ...  avec L1 , . . . , L` , ` vecteurs lignes de R[m] , et B = C1 . . . Cn avec
  

L`
C1 , . . . , Cn , n vecteurs colonnes de Rm . Alors le produit P = AB est la matrice
de taille ` × n définie par pij = Li Cj .
 
  3 0 −1
1 2 3
Exemple 2.2. Considérons A = et B = 0 −1 −1. On pose
0 5 −1
    2 2 −1  
  3 0 −1
L1 = 1 2 3 , L2 = 0 5 −1 , C1 = 0 , C2 = −1 et C3 = −1. On
    
2 2 −1
obtient
     
L1  L1 C1 L1 C2 L1 C3 9 4 −6
AB = C1 C2 C3 = =
L2 L2 C1 L2 C2 L2 C3 −2 −7 −4

15
Remarques :
— Si une matrice ligne L et si une matrice colonne C sont de même taille
(même nombre de coefficients), alors leur produit LC existe et est un nombre
réel : c’est tout simplement le produit LC vu comme produit d’un vecteur
ligne et d’un vecteur colonne !
— Le produit CL d’une matrice colonne C et d’une matrice ligne L existe
quelque soient leurs tailles : en général c’est une matrice qui n’est ni un
scalaire, ni une matrice ligne, ni une matrice colonne.
— Si A est une matrice ` × m et B est une matrice m × n, alors

(AB)T = B T AT .

— Le produit BA n’existe que si l = n. Notons également que même si les


produits AB et BA ont un sens, en général

AB 6= BA.

 
−3 
Exemple 2.3. Soient A = et B = 1 2 −1 . Le produit BA n’existe pas,
  2
−3 −6 3
mais AB = .
2 4 −2

2.4.3 Multiplication d’une matrice et d’un vecteur


Soit A une matrice m × n et X un vecteur de Rn (il faut que le nombre de
colonnes de A soit égale au nombre de lignes de X). On peut remarquer que
le produit AX s’interprète comme étant la combinaison linéaire des colonnes de
A = (C1 C2 · · · Cn ) avec Cj ∈ Rm :

AX = x1 C1 + · · · + xn Cn .

Ainsi Y = AX est un vecteur de Rm et on a :

yi = ai1 x1 + ai2 x2 + · · · + ain xn .

On en déduit que pour tout scalaire λ ∈ R, A(λX) = λ(AX). En effet,

A(λX) = (λx1 )C1 + · · · + (λxn )Cn = λ(x1 C1 + · · · + xn Cn ) = λ(AX).

16
Exemples :      
1 2   1 2
2
— Soit A = 3 0 et X =
  . On pose C1 = 3 et C2 = 0  (de
  
1 3 1
1 3 1 3
telle sorte que A = (C1 C2 )). Alors
     
2 6 8
AX = 2C1 + 3C2 = 6 + 0 = 6 .
    
2 1 3
 
1
— Soit A = (C1 C2 C3 ) une matrice m × 3 et X = 0. Alors AX = C1 .

0

Remarques :
— Les colonnes d’un produit AB sont des combinaisons linéaires des colonnes
de A, les coefficients de ces combinaisons linéaires étant donnés par les
colonnes de B.
— Les lignes d’un produit AB sont des combinaisons linéaires des lignes de B,
les coefficients de ces combinaisons linéaires étant donnés par les lignes de
A.

Exemple 2.4. Pour les matrices de l’exemple 2.1, la première colonne du produit
de matrice est
       
2 0 −1 2
 1  = 1 × 3 + 4 ×  4  + 3 × −6
−2 1 0 −1

et la seconde colonne du produit de matrice est


       
5 0 −1 2
−16 = 0 × 3 − 1 ×  4  + 2 × −6 .
−2 1 0 −1
 
−3 
Exemple 2.5. Soient A = et B = 1 2 −1 les matrices de l’exemple
  2      
1 2 1 2 1
2.3 et C = 3 −4. On a CA = −3 3 + 2 −4 = −17
2 0   2  0  −6
et BC = 1 × 1 2 + 2 × 3 −4 − 1 × 2 0 = 5 −6 .

17
2.5 Propriétés de la multiplication des matrices
Remarque la plus importante de cette section : la multiplication des
matrices n’est pas commutative. Lorsque le produit AB est défini, le produit
BA n’est pas nécessairement défini ; lorsque BA est aussi défini, il n’est pas néces-
sairement de même taille que AB. Les produits AB et BA ne sont définis et de
même taille que si les matrices A et B sont carrées et de même taille. Même dans
ce cas, ces deux produits ne sont pas égaux en général : Par exemple
       
0 1 0 0 0 1 0 0
A= et B = donnent AB = , mais BA = .
0 0 0 1 0 0 0 0
Proposition 2.6. La multiplication des matrices est associative, et elle est distri-
butive à droite et à gauche par rapport à l’addition : pour toutes A et A0 matrices
m × n, B et B 0 matrices n × p, et C matrice p × q, on a :
(AB)C = A(BC), A(B + B 0 ) = AB + AB 0 et (A + A0 )B = AB + A0 B .
Démonstration. Nous ne montrons que l’associativité (et laissons celle de la dis-
tributivité en exercice).

Soient A une matrice m × n, B une matrice P n × p et C une matrice p × q.


Le produit ABPa pour coefficients γik = nj=1 aij bjk et le produit BC a pour
coefficients αjl = pk=1 bjk ckl .
Donc la matrice (AB)C a pour coefficients en développant
p p p
n
! n
X X X X X
βil = γik ckl = aij bjk ckl = aij bjk ckl ,
k=1 k=1 j=1 k=1 j=1

et en permutant ces sommes finies puis en factorisant, on a


p p
n X n
! n
X X X X
βil = aij bjk ckl = aij bjk ckl = aij αjl
j=1 k=1 j=1 k=1 j=1

qui sont aussi les coefficients de A(BC).

Exemple : On vérifie l’associativité pour les matrices de l’exemple 2.5 :


 
 1
B(CA) = 1 2 −1 −17 = −27
−6
et  
 −3
(BC)A = 5 −6 = −27.
2
On a bien B(CA) = (BC)A.

18
Exercice : vérifier l’associativité pour
 
  2 0
1 
A= , B = 1 0 1 et C = 1 1 .
2
0 1

2.6 Noyau et image d’une matrice


Soit A = (C1 · · · Cn ) une matrice m × n.
1. L’ensemble des vecteurs X de Rn vérifiant AX = 0 s’appelle le noyau de
A, on le notera ker(A) ;
2. L’ensemble des vecteurs Y de Rm pouvant s’écrire sous la forme Y =
AX s’appelle l’image de A, on le notera im(A). On a l’égalité im(A) =
Vect{C1 , . . . , Cn }.
Nous avons alors

Proposition 2.7. — Le noyau de A est un SEV de Rn ;


— L’image de A est un SEV de Rm .

Démonstration. — Vérifions que ker(A) est un SEV de Rn . Il est clair que


ker(A) est un sous-ensemble non vide de Rn car les vecteurs X de ker(A)
sont des vecteurs de Rn et car le vecteur nul dans Rn appartient à ker(A)
(on a bien A0 = 0).
Il reste à vérifier que ker(A) est stable par combinaisons linéaires : Soient
X, Y ∈ ker(A) et λ ∈ R. Alors AX = 0 et AY = 0. On a donc A(X +λY ) =
AX + A(λY ) par distributivité, puis comme A(λY ) = λAY on en déduit
A(X + λY ) = AX + λAY = 0 + 0 = 0 et donc X + λY ∈ ker(A).
— Vérifions que im(A) est un SEV de Rm . Il est clair que im(A) est un sous-
ensemble non vide de Rm car les vecteurs Y de im(A) sont des vecteurs de
Rm et car le vecteur nul dans Rm appartient à im(A) (car 0 = A0 ∈ im(A)).
Il reste à vérifier que im(A) est stable par combinaisons linéaires : Soient
maintenant Y, Y 0 ∈ im(A) et λ ∈ R. Alors il existe X, X 0 ∈ Rn tels que
AX = Y et AX 0 = Y 0 . On a alors A(X + λX 0 ) = AX + A(λX 0 ) = AX +
λAX 0 = Y + λY 0 et Y + λY 0 ∈ im(A).

Cette proposition permet de montrer la proposition 1.1. En effet, si F =


{X1 , . . . , Xm } est une famille de m vecteurs de Rn , on pose A = (X1 · · · Xn )
une matrice m × n et on a Vect(F) = im(A), qui est un SEV de Rm .

19
2.7 Matrices carrées
Une matrice carrée est une matrice ayant le même nombre de lignes et de
colonnes. Ainsi, une matrice carrée à n lignes est une matrice n × n.

2.7.1 Matrice identité


On note In la matrice carrée à n lignes définie par
 
1 0 ... 0
. . . .. 
0 1 .

In =  . . ..
 .. . .

. 0
0 ... 0 1

La matrice In est appelée matrice identité (à n lignes, ou de taille n).


Le calcul montre que, pour toute matrice carrée A à n lignes, on a

AIn = In A = A.

2.7.2 Matrices diagonales


Une matrice carrée D est dite diagonale si pour tout i 6= j, on a dij = 0 :
 
d11 0 ...0
..... 
0 d22 . 

D=

.. .. .. 
 . . . 0 
0 . . . 0 dnn

2.7.3 Matrices triangulaires


Une matrice carrée T est dite triangulaire supérieure si pour tout i > j, on a
tij = 0 :  
t11 t12 . . . t1n
 0 t22 . . . t2n 
T =  .. . . . . ..  .
 
 . . . . 
0 . . . 0 tnn
Une matrice carrée T est dite triangulaire inférieure si pour tout i < j, on a
tij = 0.

20
Remarques :
— Le produit de deux matrices du même type (diagonales ou triangulaires
supérieures) est encore du même type ;
— La transposée d’une matrice triangulaire supérieure est triangulaire infé-
rieure (et réciproquement) ;
— Les matrices diagonales commutent entre elles : pour toutes matrices dia-
gonales D et D0 , on a DD0 = D0 D.

2.7.4 Inverse d’une matrice


Définition : soit A une matrice carrée à n lignes. Un inverse de A est une matrice
carrée B de même taille que A telle que AB = In et BA = In .

Un calcul rapide montre qu’il y a au plus un inverse d’une matrice A : si B et


C sont deux inverses de A, on a donc AB = In et CA = In , ce qui entraîne que

C = CIn = C(AB) = (CA)B = In B = B

et donc C = B.

On dit que A est inversible s’il existe un inverse de A. Dans ce cas, on note
A−1 l’inverse de A.

Remarques :  
0 1
— Les matrices carrées ne sont pas toutes inversibles : la matrice A =
 0 0
a b
n’est pas inversible car, en la multipliant par une matrice B = quel-
c d
   
c d 1 0
conque, on obtient que AB = ne peut pas valoir I2 = .
0 0 0 1
— Plus généralement, si la ligne i de A est nulle alors la ligne i de AB l’est
aussi, et A n’est pas inversible.
— Notons que si A est inversible, il est alors immédiat que A−1 est inversible,
d’inverse A (c’est-à-dire (A−1 )−1 = A).
— En pratique, pour montrer qu’une matrice B de la même taille que A est
bien l’inverse de A, il suffit de vérifier que AB = In ou BA = In . Car la
proposition suivante montre que si BA vaut l’identité alors AB aussi, et
réciproquement, si AB vaut l’identité alors BA aussi (attention c’est faux
si A et B n’ont pas la même taille). Ce n’est pas évident a priori puisqu’en
général AB 6= BA (la multiplication des matrices n’est pas commutative).

21
Proposition 2.8. Soient A et B des matrices n×n, alors AB = In si et seulement
si BA = In .
Ce résultat est admis (la preuve s’appuie sur la notion de base de Rn qui sera
vue plus tard)

Remarque : pour vérifier que B est l’inverse de A, il suffit de vérifier que AB =


In ou que BA = In .

Remarque : soient A et B deux matrices n × n. Avec cette proposition, nous


voyons que pour vérifier que B est l’inverse de A, il suffit de vérifier soit que
AB = In ou que BA = In .
Proposition 2.9. Soient A et B des matrices carrées à n lignes inversibles. Alors
AB est inversible, et
(AB)−1 = B −1 A−1 .
Démonstration. Il suffit de calculer ABB −1 A−1 = AIn A−1 = AA−1 = In (ou bien
B −1 A−1 AB = B −1 In B = B −1 B = In ).
Réciproquement, on a :
Proposition 2.10. Soient A et B des matrices carrées à n lignes. Si AB est
inversible, alors A et B sont inversibles.
Démonstration. Soit M l’inverse de AB. Alors A(BM ) = (AB)M = In . Ainsi, en
utilisant la Proposition 2.8, BM est un inverse de A et donc A est inversible. De
manière symétrique, (M A)B = M (AB) = In et B est inversible d’inverse M A.
La méthode générale que nous allons utiliser pour déterminer l’inversibilité et
calculer l’inverse d’une matrice repose sur les systèmes d’équations linéaires, que
nous allons présenter dans le prochain chapitre. Le calcul de l’inverse d’une matrice
sera présenté ensuite, dans la Section 3.7.
On peut cependant dès maintenant se donner un critère d’inversibilité  pour les
a b
matrices 2 × 2 basé sur la remarque suivante : pour toute matrice A = on
c d
a     
a b d −b 1 0
= (ad − bc) .
c d −c a 0 1
On en déduit :
 
a b
Proposition 2.11. La matrice A = est inversible si et seulement si ad −
c d
bc 6= 0.
Ce critère se généralise en dimension supérieure à l’aide du déterminant d’une
matrice, qui ne sera pas abordé dans le cadre de ce cours.

22
3 Système d’équations linéaires
3.1 Définition
3.1.1 Système d’équation linéaires à deux inconnues
Équations linéaires à deux inconnues : Une équation linéaire à deux incon-
nues x1 et x2 est une équation qui s’écrit sous la forme

ax1 + bx2 = c (1)

où a, b et c sont trois nombres réels donnés.


 Résoudre
 l’équation linéaire (1) revient
x1
à trouver l’ensemble S des vecteurs X = de R2 pour lesquels (1) est vérifiée :
x2
   
x1
S= X= ax1 + bx2 = c .
x2

On dit que c est le second membre de l’équation. Si c = 0, on parle d’équation


homogène (on dit également sans second membre).
3
— Si a 6= 0 ou si b 6= 0, l’ensemble des solutions est
 une  droite : dans le cas
 coù
−b
a 6= 0, c’est la droite de vecteur directeur V = passant par X̃ = a
a 0
(où X̃ est un vecteur solution de l’équation), c’est-à-dire
n o
S = X̃ + Vect{V } = X = X̃ + Y Y ∈ Vect{V } .
 
x1
En effet, si X = ∈ S, comme ax1 + bx2 = c est équivalent à x1 =
x2
c
a
− ab x2 , on a que
c b  c  b c  
a
− a x2 a
−a a
x2 −b
X= = + x2 = + .
x2 0 1 0 a a

Si de plus c = 0 (équation homogène), alors cette


  droite est un SEV de R2 ,
−b
c’est la droite vectorielle engendrée par V = .
a
— Si a = b = 0, l’ensemble des solutions est vide si c 6= 0 ou est R2 si c = 0.
3. une droite est la somme d’un point et d’une droite vectorielle

23
Système d’équations linéaires à deux inconnues : Un système d’équations
linéaires à deux inconnues est la donnée de plusieurs équations
  linéaires. Résoudre
x1
ce système revient à trouver l’ensemble des vecteurs X = de R2 pour lesquels
x2
chacune de ces équations est vérifiée.

Par exemple, considérons un système de deux équations linéaires à deux incon-


nues de la forme 
ax1 + bx2 = y1
(2)
cx1 + dx2 = y2
       
a 0 c 0
Supposons pour simplifier que 6= et 6= . L’ensemble des solu-
b 0 d 0
tions de ce système est alors l’intersection de deux droites.
   
a c
— Si ces deux droites ne sont pas parallèles, ce qui est le cas si et
b d
4
ne sont pas colinéaires , alors l’ensemble des solutions est réduit à un point.

— Si ces deux droites sont parallèles, l’ensemble des solutions est vide ou est
une droite (les deux droites étant alors confondues).

3.1.2 Système d’équations linéaires à trois inconnues


Équations linéaires à trois inconnues : Une équation linéaire à trois incon-
nues x1 , x2 et x3 est une équation qui s’écrit sous la forme

ax1 + bx2 + cx3 = d (3)

où a, b, c et d sont quatre nombres réels donnés.


 Résoudre
 l’équation linéaire (3)
x1
revient à trouver l’ensemble des vecteurs X = x2  de R3 pour lesquels (3) est

x3
vérifiée.
   
a 0
— Si b 6= 0, l’ensemble des solutions est un plan 5 . Si de plus d = 0,
  
c 0
alors ce plan est un SEV de R3 (un plan vectoriel).

4. on rappelle que deux vecteurs X et Y sont dits colinéaires si il existe un scalaire λ pour
lequel on a Y = λX ou pour lequel X = λY .
5. somme d’un vecteur et d’un plan vectoriel, ce point sera détaillé plus loin.

24
— Dans le cas où a = b = c = 0, l’ensemble des solutions est vide si d 6= 0 ou
est R3 si d = 0.

Système d’équations linéaires à trois inconnues : Un système d’équations


linéaires à trois inconnues est la donnée de plusieurs équation linéaires à trois
inconnues.
  Résoudre ce système revient à trouver l’ensemble des vecteurs X =
x1
x2  de R3 pour lesquels chacune de ces équations est vérifiée.
x3

Par exemple, considérons un système de deux équations linéaires à trois incon-


nues de la forme 
a1 x1 + b1 x2 + c1 x3 = y1
(4)
a2 x1 + b2 x2 + c2 x3 = y2
       
a1 0 a2 0
Supposons pour simplifier que  b1  6= 0 et  b2  6= 0. L’ensemble des
c1 0 c2 0
solutions de ce système est alors l’intersection de deux plans.
   
a1 a2
— Si ces deux plans ne sont pas parallèles, ce qui est le cas si  b1  et  b2 
c1 c2
ne sont pas colinéaires, alors l’ensemble des solutions est une droite.

— Si ces deux plans sont parallèles, l’ensemble des solutions est vide ou est un
plan (les deux plans étant alors confondus).

On pourra aussi considérer un système de trois équations linéaires à trois in-


connues de la forme 
a1 x1 + b1 x2 + c1 x3 = y1
a2 x1 + b2 x2 + c2 x3 = y2 (5)
a3 x1 + b3 x2 + c3 x3 = y3

           
a1 0 a2 0 a3 0
Supposons pour simplifier que  b1  6= 0,  b2  6= 0 et  b3  6= 0.
c1 0 c2 0 c3 0
L’ensemble des solutions de ce système est alors l’intersection de trois plans. Cet
ensemble peut être vide, réduit à un point, être une droite ou un plan.

25
3.1.3 Cas général
Équations linéaires à n inconnues : Une équation linéaire à n inconnues x1 ,
x2 , . . . , xn est une équation qui s’écrit sous la forme
n
X
aj x j = b (6)
j=1

où a1 , a2 , . . . , an et b sont n + 1 nombres réels donnés.


 Résoudre
 l’équation linéaire
x1
 .. 
(6) revient à trouver l’ensemble des vecteurs X =  .  de Rn pour lesquels (6)
xn
est vérifiée.
   
a1 0
 ..   .. 
— Si  .  6=  . , l’ensemble des solutions est appelé un hyperplan. Si de
an 0
plus b = 0, alors cet hyperplan est un SEV de Rn .
   
a1 0
 ..   .. 
— Dans le cas où  .  =  . , l’ensemble des solutions est vide si b 6= 0 ou
an 0
est Rn si b = 0.

Système d’équations linéaires à n inconnues : Un système d’équations li-


néaires à n inconnues est la donnée de plusieurs équations linéaires à
n inconnues.

x1
Résoudre ce système revient à trouver l’ensemble des vecteurs X =  ...  de Rn
 
xn
pour lesquels chacune de ces équations est vérifiée.

Par exemple, on pourra considérer un système de m équations linéaires à n


inconnues de la forme  Pn
 j=1 a1j xj = y1

.. (7)
.
 n a x =y
 P
j=1 mj j m

L’ensemble des solutions de ce système est l’intersection de m hyperplans.

26
3.2 Formes vectorielles et matricielles d’un système linéaire
Considérons un système linéaire
a11 x1 + a12 x2 + · · · + a1j xj + · · · + a1n xn = y1



 .. ..
. .



ai1 x1 + ai2 x2 + · · · + aij xj + · · · + ain xn = yi (S)

 .. ..


 . .
am1 x1 + am2 x2 + · · · + amj xj + · · · + amn xn = ym

Forme matricielle : Notons


 
a11 a12 . . . a1n    
 a21 x1 y1
a22 . . . a2n 

 ..   .. 
A =  .. ..  , X =  .  et Y =  .  .

.. ..
 . . . . 
xn ym
am1 am2 . . . amn
Alors A est une matrice m × n, X est un vecteur de Rn et Y est un vecteur de
Rm . Le système (S) équivaut à l’équation matricielle
AX = Y.
On dit qu’on a mis le système (S) sous forme matricielle.

Forme vectorielle : Notons C1 , C2 , . . ., Cn les colonnes de A. Le système (S)


équivaut à l’équation vectorielle
x1 C1 + x2 C2 + · · · + xn Cn = Y.
On dit qu’on a mis le système (S) sous forme vectorielle. Nous voyons que résoudre
(S) permet de trouver toutes les combinaisons linéaires des vecteurs C1 , C2 , . . . , Cn
donnant le vecteur Y .

Le vecteur Y est en général appelé second membre du système d’équations (S).


Dans le cas où Y = 0, le système (S) devient
 Pn
 j=1 a1j xj = 0

.. (8)
.
 n a x =0
 P
j=1 mj j

Il est appelé système homogène 6 associé à (S) et équivaut donc à l’équation ma-
tricielle AX = 0.
6. On dit quelquefois également sans second membre

27
3.3 SEV de Rn et systèmes d’équations linéaires à n incon-
nues
Proposition 3.1. L’ensemble des solutions de l’équation linéaire homogène à n
inconnues n
X
aj x j = 0 (9)
j=1
n
est un SEV de R .
Notons SY l’ensemble des solutions du système de m équations linéaires à n
inconnues donné par (7) et S0 l’ensemble des solutions du système homogène as-
socié donné par (8).

Remarques :

— S0 est l’intersection de m SEVs de Rn . C’est donc un SEV de Rn .

— S0 = {X ∈ Rn |AX = 0} est le noyau de A. C’est donc un SEV de Rn .

— Tout SEV de Rn peut être vu comme étant l’ensemble des solutions d’un
système d’équations linéaires à n inconnues de la forme (8).

— Si X̃ ∈ SY est une solution particulière de (7), alors on a

X ∈ SY si et seulement si X − X̃ ∈ S0 .
Ainsi,
SY = X̃ + S0 = {X ∈ Rn | X = X̃ + Y avec Y ∈ S0 }.

3.4 Équation d’une droite et d’un plan dans R3 .


Nous venons de voir que l’ensemble des solutions d’un système linéaire avec
second membre Y est SY = X̃ + S0 , où S0 est l’ensemble des solutions du sys-
tème linéaire homogène associé. Ainsi, si S0 est une droite vectorielle (ou un plan
vectoriel) alors SY sera une droite (ou un plan) passant par X̃ et parallèle à S0 .

3.4.1 Équation d’un plan


Dans R3 , un plan vectoriel est donné par une seule équation linéaire non nulle 7
sans second membre : ax + by + cz = 0. Un plan de R3 est donc donné par une
7. C’est à dire à coefficients non tous nuls

28
seule équation non nulle 8 avec second membre d : ax + by + cz = d.

Notons comme ci-dessus Sd l’ensemble des solutions de l’équation ax+by+cz =


d. Le plan P = Sd peut également être décrit par la donnée d’un vecteur X̃ ∈ P
du plan et du plan vectoriel S0 . Ainsi, l’ensemble
   
 x1 
3
X = x2 ∈ R 2x1 + x2 − x3 = 5
 
x3
 

est le plan parallèle au plan vectoriel


       
 x1   −1 1 
X = x2  ∈ R3 2x1 + x2 − x3 = 0 = Vect  2  , 0
x3 0 2
   
5
2
passant par X̃ =  0 . On dit aussi que c’est le plan engendré par les vecteurs
 1 0 
1
−2 2
V1 =  1  et V2 =  0  passant par X̃.
0 1
Expliquons comment trouver les vecteurs X̃, V1 et V2 : On remarque que l’équa-
tion 2x1 + x2 − x3 = 5 est équivalente à dire que x1 = 52 − 12 x2 + 12 x3 . On peut
choisir x2 et x3 comme on veut, et ensuite calculer x1 . On peut alors exprimer une
solution X ∈ R3 de l’équation en fonction de x2 et de x3 :
5
− 12 x2 + 12 x3
  
x1 2
X =  x2  =  x2 
x3 x3
5  1 1
2
−2 2
=  0  + x2  1  + x3  0  .
0 0 1
   
2 −1
Ce choix pour X̃, V1 et V2 n’est pas unique. Les vecteurs X̃ = 1 , V1 =
   2
  0 0
1
et V2 = 0 conviennent également.

2
8. C’est à dire à coefficients non tous nuls

29
3.4.2 Équation d’une droite
De même, dans R3 , une droite est donnée par un système à deux équations
(non liées) avec second membre. Si le second membre vaut 0, alors c’est une droite
vectorielle.
Une droite D est également décrite par la donnée d’un vecteur X̃ ∈ D de la droite
et de la droite vectorielle parallèle. Ainsi, l’ensemble
   
 x1 
3
X = x2 ∈ R x1 − x3 = −2 et x2 + x3 = 2
 
x3
 

est la droite parallèle à la droite vectorielle


     
 x1   1 
3
X = x2 ∈ R x1 − x3 = 0 et x2 + x3 = 0 = Vect −1
 
x3 1
   

 
−2
passant par X̃ =  2 . On dit aussi que c’est la droite de vecteur directeur
  0
1
V = −1 passant par X̃.

1
Pour trouver les vecteurs X̃ et V , on exprime x1 , x2 et x3 en fonction de x3 :

x1 = −2 +x3
x2 = 2 −x3
x3 = x3

soit sous forme vectorielle


       
x1 −2 + x3 −2 1
X = x2 =
   2 − x3  =  2 + x3 −1 .
 
x3 0 + x3 0 1

3.5 Résolution d’un système linéaire par la méthode du pi-


vot de Gauss
On cherche à résoudre un système de m équations linéaires avec n inconnues
x1 , . . . , xn (souvent on aura n ≥ m). Une notion importante ici est l’équivalence

30
de deux systèmes : on dira que deux systèmes sont équivalents s’ils ont le même
ensemble de solutions.
Avant de présenter la méthode du pivot de Gauss, rappelons deux autres mé-
thodes : la méthode par substitution et la méthode par élimination. Nous ne pré-
sentons cette méthode que pour des systèmes à deux équations et deux inconnues.
Ces méthodes peuvent se généraliser pour des plus grands systèmes, mais on leur
préférera celle du pivot.

3.5.1 La méthode par substitution


La méthode par substitution consiste à choisir une équation afin d’exprimer x2
en fonction de x1 (ou x1 en fonction de x2 ). On substitue ensuite (on remplace) x2
par son expression dans l’autre équation. On résout (si possible) cette équation en
x1 et on en déduit la valeur de x2 .

Exemple : on cherche à résoudre le système linéaire à deux équations, notées


L1 et L2 , avec deux inconnues suivant

2x1 − 3x2 = 5 (L1 )
(S)
−x1 + 2x2 = 3 (L2 )

On choisit la seconde équation L2 et on exprime x1 en fonction de x2 :



2x1 − 3x2 = 5
(S) ⇔
x1 = 2x2 − 3 (∗)

On substitue alors x1 dans la première équation L1 et on obtient x2 = 11, soit



x2 = 11
(S) ⇔
x1 = 2x2 − 3

On remplace la valeur de x2 dans l’équation (∗) et on obtient que x1 =


2×11−3
 =
19
19. Ainsi l’ensemble des solutions du système (S) est un point : S = .
11

3.5.2 La méthode par élimination


La méthode par élimination consiste à combiner linéairement les deux équations
afin d’éliminer une inconnue. On conclut comme dans la méthode par substitution.

31
Exemple : reprenons le système précédent

2x1 − 3x2 = 5 (L1 )
(S)
−x1 + 2x2 = 3 (L2 )

On multiplie la seconde équation L2 par 2



2x1 − 3x2 = 5
(S) ⇔
−2x1 + 4x2 = 6

puis on élimine x1 en additionnant les deux équations,



2x1 − 3x2 = 5
(S) ⇔
x2 = 11

On remplace x2 par sa valeur dans la première équation L1 et on obtient bien que


x1 = 19.

Remarque : Si dans un système linéaire



ax1 + bx2 = 0
(C)
cx1 + dx2 = 0
       
a c a 0
on a que et sont colinéaires et que 6= , alors en utilisant la
b d b 0
méthode par élimination on obtient que le système (C) est équivalent à

ax1 + bx2 = 0
 
c
et la solution est une droite. En effet, supposons qu’il existe λ 6= 0 tel que =
  d
a
λ alors (C) se réécrit
b

ax1 + bx2 = 0
(C)
λax1 + λbx2 = 0

En remplaçant la deuxième équation par Lλ2 − L1 (pour éliminer x1 dans L2 ), on


a que le système (C) est équivalent à

ax1 + bx2 = 0 
⇔ ax1 + bx2 = 0
0 = 0

32
3.5.3 La méthode du pivot
La méthode du pivot de Gauss consiste à remplacer le système par un système
équivalent et beaucoup plus facile à résoudre en effectuant des combinaisons li-
néaires des équations du système.

Cette méthode comprend deux cycles : la descente et la remontée. On considère


un système linéaire avec m équations et n inconnues


 a11 x1 + a12 x2 + · · · + a1n xn = d1
 a21 x1 + a22 x2 + · · · + a2n xn = d2



(S) a31 x1 + a32 x2 + · · · + a3n xn = d3
. .. ..
 ..



 ··· ··· . .
a x + a x + · · · + a x = d
m1 1 m2 2 mn n m

Pour i ∈ {1, . . . , n}, la i-ème équation d’un système sera notée Li .

La descente :
1. — Si x1 apparaît dans la première équation, alors on utilise son coefficient
(non nul) comme pivot pour éliminer dans toutes les autres équations
(au dessous, c’est-à-dire dans les équations 2, 3, ... , m) l’inconnue x1 .

Pour éliminer x1 dans l’équation Li (avec i ≥ 2), on fera une combinaison


linéaire de cette équation et de la première équation : en notant p1 =
a11 6= 0 le pivot, on pourra remplacer Li par Li − api11 L1 ). On obtient
ainsi un système (S 0 ) équivalent à (S) de la forme (l’inconnue x1 a été
éliminée dans L2 , L3 , . . . , Ln )

a11 x1 + a12 x2 + · · · + a1n xn = d1

 0 + a022 x2 + · · · + a02n xn = d02



(S 0 ) 0 + a032 x2 + · · · + a03n xn = d03
 .. .. ..


 . ··· ··· . .
+ a0m2 x2 + · · · + a0mn xn = d0m

 0

— Si x1 n’apparaît pas dans la première équation, on échange la première


équation avec une équation dans laquelle apparaît x1 .

On ne touchera plus par la suite à cette première équation (dans la des-


cente).
2. On passe alors à x2 , et on fait la même chose :

33
— Si x2 apparaît dans la deuxième équation, alors on utilise son coefficient
(non nul) comme pivot pour éliminer dans toutes les autres équations
(au dessous, c’est-à-dire dans les équations 3, ... , m) l’inconnue x2 .

Pour éliminer x2 dans l’équation Li (avec i ≥ 3), on fera une combi-


naison linéaire de cette équation et de la deuxième équation : en notant
a0
p2 = a022 6= 0 le pivot, on pourra remplacer Li par Li − pi22 L2 ). On obtient
ainsi un nouceau système équivalent à (S) telle que l’inconnue x2 a été
éliminée dans L3 , . . . , Ln .

— Si x2 n’apparaît pas dans la deuxième équation, on échange la deuxième


équation avec une équation (au dessous) dans laquelle apparaît x2 .

On ne touchera plus par la suite à cette deuxième équation (dans la des-


cente). A ce point, l’inconnue x1 n’apparaît que dans la première équation
et l’inconnue x2 que dans les deux premières équations.
3. On itère cette procédure tant que possible, c’est-à-dire tant qu’il est possible
de descendre dans le système donc ici m − 1 fois.
À la fin de la descente, l’inconnue x1 n’apparaît que dans la première équation,
l’inconnue x2 que dans les deux premières équations, l’inconnue x3 que dans les
trois premières équations ...

La remontée : Ce cycle est a priori plus rapide que la descente. Ce coup-ci, on


part de la dernière équation (l’équation m).
1. on utilise le coefficient (non nul) de xm dans l’équation m comme pivot pour
éliminer dans toutes les autres équations (au dessus) l’inconnue xm .
À ce point, l’inconnue xm n’apparaît que dans l’équation m.
2. On passe alors à l’avant-dernière équation (l’équation m − 1), et on fait
la même chose : on utilise le coefficient (non nul) de xm−1 dans l’équation
m − 1 comme pivot pour éliminer dans toutes les autres équations (au
dessus) l’inconnue xm−1 .
À ce point, l’inconnue xm n’apparaît que dans l’équation m et l’inconnue
xm−1 n’apparaît que dans l’équation m − 1.
3. On itère cette procédure tant que possible, c’est-à-dire tant qu’il est possible
de remonter.
À la fin de la remontée, l’inconnue x1 n’apparaît que dans la première équation,
l’inconnue x2 que dans les deux premières équations, l’inconnue x3 que dans la
troisième équation ... et l’inconnue xm que dans la m-ième équation.

34
L’ensemble des solutions : Il reste à donner l’ensemble des solutions du sys-
tème. Les inconnues xm+1 , . . . , xn peuvent être choisies librement et servir de para-
mètres. On exprime alors les variables x1 , x2 , . . . , xm en fonction des paramètres
xm+1 , . . . , xn .
Il est bien sûr possible qu’à une étape de la descente une inconnue n’apparaisse
dans aucune des équations (au dessous), on passe alors à l’inconnue suivante. Il
est aussi possible qu’à une étape de la descente, il ne reste plus d’inconnues dans
les équations (au dessous) alors soit toutes les équations restantes sont l’équation
0 = 0 et il suffit d’oublier ces équations, ou alors une des équations est 0 = a avec
a 6= 0, auquel cas le système est impossible et il n’y a aucune solution au système
(l’ensemble des solutions étant alors vide).
La méthode du pivot de Gauss permet dans tous les cas de donner une solution
particulière X̃ ∈ Rn et une famille de vecteurs F de Rn telle que l’ensemble des
solutions est S = X̃ + Vect(F), ce qui veut dire que X ∈ S si et seulement si X
peut s’écrire sous la forme X = X̃ + X0 , avec X0 ∈ Vect(F).
Nous explicitons cet algorithme sur des exemples dans la section suivante.

3.6 Exemples :
3.6.1 Système d’équations linéaires à deux inconnues
Exemple 1 : notons S1 , l’ensemble des solutions de l’équation notée (S1 )
2x1 − 3x2 = 5.
On peut exprimer x1 en fonction de x2 :
3x2 + 5
x1 =
2
et choisir x2 librement. On a alors
  
(3x2 + 5)/2
S1 = : x2 ∈ R .
x2
En pratique, on pourra également donner l’ensemble des solutions sous forme des
vecteurs lignes X T , et on notera également (mais de manière abusive)
S1 = {((3x2 + 5)/2, x2 ) : x2 ∈ R}.
 
x1
Nous voyons que X = ∈ S1 si et seulement si il existe λ ∈ R tel que
    x 2
 
3/2 5/2 5/2
X=λ + (ici, λ = x2 ). Ainsi S1 est la droite passant par de
1 0 0

35
 
3/2
vecteur directeur . On pourra donc noter
1
   
5/2 3/2
S1 = + Vect .
0 1

Exemple 2 : reprenons le système résolu par les méthodes de substitution et


d’élimination dans les sections 3.5.1 et 3.5.2 :

2x1 − 3x2 = 5 (L1 )
(S2 )
−x1 + 2x2 = 3 (L2 )

Nous voyons que x1 apparaît dans la première équation L1 . On peut s’en servir de
pivot : 
2x1 − 3x2 = 5
(S2 )
−x1 + 2x2 = 3
On remplace alors L2 par L1 + 2L2 (qu’on notera plus simplement L2 → L1 + 2L2 )
pour éliminer x1 dans L2 , on obtient alors :

2x1 − 3x2 = 5
(S2 ) ⇔
x2 = 11

La descente est terminée !

Remontons : on se sert de L2 pour éliminer x2 dans L1 . On fait l’opération


L1 → L1 + 3L2 et on obtient :

2x1 = 38
(S2 ) ⇔
x2 = 11
 
19
Nous retrouvons bien le même ensemble de solutions : S2 = .
11

Exemple 3 : on cherche à résoudre le système suivant :



2x1 − 3x2 = 5
(S3 )
4x1 − 6x2 = 10

qui est équivalent à (L2 → 2L1 − L2 )



2x1 − 3x2 = 5
0 = 0

36
La deuxième équation étant toujours vérifiée, elle peut être supprimée. On
 a donc

5/2
(S3 ) ⇔ (S1 ) et l’ensemble des solutions de (S3 ) est la droite S1 = +
  0
3/2
Vect .
1

Exemple 4 : on cherche à résoudre le système suivant :



2x1 − 3x2 = 5
(S4 )
4x1 − 6x2 = 12

qui est équivalent à (L2 → 2L1 − L2 )



2x1 − 3x2 = 5
0 = −2

La deuxième équation n’est jamais vérifiée. Il n’y a donc pas de solution. L’en-
semble des solutions de (S4 ) est vide : S4 = ∅.

Exemple 5 : on cherche à résoudre le système suivant :



 x1 +x2 = 2
(S5 ) 2x1 +3x2 = 1
3x1 +4x2 = 5

Par pivot sur la première ligne (L2 → L2 − 2L1 et L3 → L3 − 3L1 , pour éliminer
x1 dans la première et la deuxième équation), (S5 ) est équivalent au système

x1 +x2 = 2
x2 = −3
x2 = −1

On élimine maintenant x2 dans L3 à l’aide de L2 en faisont l’opération L3 → L3 −L2


(x2 encadré ci-dessus sert de pivot) :

x1 +x2 = 2
(S5 ) ⇔ x2 = −3
0 = 2

Ce système est impossible (0 6= 2). le système (S5 ) n’a pas de solution : S5 = ∅.

37
Exemple 6 : reprenons le système précédent légèrement modifié

 x1 +x2 = 2
(S6 ) 2x1 +3x2 = 1
3x1 +4x2 = 6

En réalisant les mêmes opérations de lignes, on obtient



x1 +x2 = 2
(S6 ) ⇔ x2 = −3
0 = 0

La dernière équation est toujours vérifée, il ne reste donc que deux équations (les
deux premières). Remontons : on se sert de L2 pour éliminer x2 dans L1 . On fait
l’opération L1 → L1 − L2 et on obtient :

x1 = 5
(S6 ) ⇔
x2 = −3
 
5
Donc il y a une seule solution, S6 = .
−3

3.6.2 Système d’équations linéaires à trois inconnues


Exemple 1 : on cherche à résoudre le système suivant :

 x1 +x2 +x3 = 2
(S1 ) −x1 +2x2 +x3 = 1
2x1 −x2 +3x3 = 0

On se sert de L1 pour éliminer x1 dans L2 et L3 en faisant les opérations suivantes


L2 → L1 + L2 et L3 → −2L1 + L3 . On obtient

x1 +x2 +x3 = 2
(S1 ) ⇔ 3x2 +2x3 = 3
−3x2 +x3 = −4

x2 apparaît dans la deuxième équation, on s’en sert de pivot pour éliminer x2 dans
la troisième équation (L3 → L2 + L3 ) :

 x1 +x2 +x3 = 2
(S1 ) ⇔ 3x2 +2x3 = 3
3x3 = −1

38
Remontons : on se sert de L3 pour éliminer x3 dans L2 et dans L1 par les
opérations L2 → 3L2 − 2L3 et L1 → 3L1 − L3 . On obtient

 3x1 +3x2 = 7
(S1 ) ⇔ 9x2 = 11
3x3 = −1

On utilise maintenant L2 pour éliminer x2 dans L1 avec L1 → 3L1 − L2 :



 9x1 = 10
(S1 ) ⇔ 9x2 = 11
3x3 = −1

 
 10/9 
Ainsi l’ensemble des solutions du système (S1 ) est S1 =  11/9  .
−1/3
 

Exemple 2 : on cherche à résoudre le système suivant :



 x2 +x3 = 2
(S2 ) −x1 +2x2 +x3 = 1
2x1 −x2 +3x3 = 0

Ici, l’inconnue x1 n’apparaît pas dans la première équation, on va alors dans un


premier temps réordonner les équations, pour obtenir le système équivalent sui-
vant : 
−x1 +2x2 +x3 = 1
(S2 ) ⇔ 2x1 −x2 +3x3 = 0
x2 +x3 = 2

On élimine ensuite x1 de la deuxième équation par L2 → 2L1 + L2 , ce qui donne



−x1 +2x2 +x3 = 1
(S2 ) ⇔ 3x2 +5x3 = 2
x2 +x3 = 2

puis on élimine x2 dans L3 avec L3 → −L2 + 3L3 :



−x1 +2x2 +x3 = 1
(S2 ) ⇔ 3x2 +5x3 = 2
x3 = −2

Remontons : on se sert de L3 pour éliminer x3 dans L2 et dans L1 par les


opérations L2 → L2 − 5L3 et L1 → L1 − L3 . On obtient

 −x1 +2x2 = 3
(S2 ) ⇔ 3x2 = 12
3x3 = −2

39
On utilise maintenant L2 pour éliminer x2 dans L1 avec L1 → 3L1 − 2L2 :
 
 −3x1 = −15  x1 = 5
(S2 ) ⇔ 3x2 = 12 ⇔ x2 = 4
x3 = −2 x3 = −2
 
  
 5 
Ainsi l’ensemble des solutions du système (S2 ) est S2 =  4  .
−2
 

Exemple 3 : on cherche à résoudre le système suivant :



x1 +2x2 +x3 = 1
(S3 )
x1 +x2 +2x3 = 2
On élimine x1 dans la seconde équation en faisant l’opération L2 → L1 − L2 :

x1 +2x2 +x3 = 1
(S3 ) ⇔
x2 −x3 = −1
On ne peut pas descendre plus. On effectue alors la remontée. Eliminons x2 dans
la première équation à l’aide de la deuxième avec L1 → L1 − 2L2 (x2 encadré
ci-dessous sert de pivot) :
 
x1 +2x2 +x3 = 1 x1 +3x3 = 3

x2 −x3 = −1 x2 −x3 = −1

On ne peut plus remonter. On exprime alors x1 , x2 et x3 en fonction de x3 (qui


peut être choisi librement) :

 x1 = 3 − 3x3
(S3 ) ⇔ x2 = −1 + x3
x3 = 0 + x3

 
x1
X = x2  est solution du système (S3 ) si et seulement si

x3
   
3 −3
X = −1 + x3  1  ,
0 1
   
3  −3 
avec x3 ∈ R. Ainsi, S3 = −1 + Vect  1  .
 
0 1
 

40
3.6.3 Système d’équations linéaires à quatre inconnues
On cherche à résoudre le système suivant :

x1 +0.x2 +2x3 +x4 = 5
(S) x1 +x2 +5x3 +2x4 = 7
x1 +2x2 +8x3 +4x4 = 12.

On élimine x1 dans L2 et L3 avec les opérations L2 → L2 − L1 et L3 → L3 − L1


(on se sert de x1 encadré ci-dessus comme pivot) :
 
 x1 +0.x2 +2x3 +x4 = 5 x 1 +2x3 +x4 = 5
x1 +x2 +5x3 +2x4 = 7 ⇔ x2 +3x3 +x4 = 2
x1 +2x2 +8x3 +4x4 = 12. 2x2 +6x3 +3x4 = 7,
 

puis L3 → L3 − 2L2 pour éliminer x2 dans L3 (on se sert de x1 encadré ci-dessous


comme pivot) : 
x 1 +2x3 +x4 = 5
(S) ⇔ x2 +3x3 +x4 = 2
x4 = 3.

On ne peut plus descendre. On fait donc la remontée. On élimine x4 dans L1 et


L2 avec les opérations L1 → L1 − L2 et L2 → L2 − L3 (on se sert de x4 encadré
ci-dessus comme pivot) :

x 1 +2x3 = 2
(S) ⇔ x2 +3x3 = −1
x4 = 3.

On ne peut plus monter (la dernière montée aurait été ici d’éliminer x2 dans L1
en servant de x2 encadré ci-dessus dans L1 , mais x2 n’apparaît pas dans L1 ).
L’inconnue x3 , qui n’a pas servi de pivot, peut être choisie librement et servir de
paramètre. On exprime x1 , x2 et x4 en fonction de x3 :

x1 = 2 −2x3
x2 = −1 −3x3
x4 = 3.

Il y a donc une   de solutions, dépendant d’un paramètre x3 ∈ R. Nous


infinité
x1
 x2 
voyons que X = x3  est une solution si et seulement si

x4
     
2 −2x3 2 −2
−1 −3x3  −1 −3
X=  0 +x3  =  0  + x3  1  ,
    

3 3 0

41
x3 pouvant être
 choisi arbitrairement.
  Nous voyons donc que l’ensemble
  des solu-
2 
 −2  2
−1  
 + Vect −3 . C’est la droite passant par −1 de vecteur
  
tions est 
0  1  0

 
3 0 3
 
 
−2
−3
directeur 
 1 .

3.7 Détermination de l’inversibilité et calcul de l’inverse :


Soit A une matrice carrée n×n. Dans cette section, nous donnons une méthode
pour vérifier que A est inversible et pour calculer son inverse. Quelle que soit la
méthode utilisée pour trouver l’inverse B de A, on conseille d’effectuer ensuite le
produit AB : s’il vaut In , ce calcul prouve à lui seul que A est inversible d’inverse
B.
La méthode de calcul que l’on préconise repose simplement sur l’observation
suivante : si B est un inverse de A, alors pour tout Y ∈ Rn , BY est une solution
du système linéaire (d’inconnues les composantes de X et de paramètres celles de
Y) :
AX = Y
(car, par définition de l’inverse, A(BY ) = (AB)Y = Y ). On peut en fait voir que
c’est une équivalence car si pour tout Y ∈ Rn , BY est une solution du système
linéaire AX = Y , alors pour tout Y ∈ Rn , ABY = Y , ce qui entraîne que AB = In .
Ainsi, pour trouver l’inverse d’une matrice A (et pour vérifier qu’elle est inver-
sible), on cherche à résoudre le système d’équations linéaires AX = Y , pour tout
Y ∈ Rn .
— Si A est inversible, alors on aboutit à une unique solution X qui peut écrire
sous la forme BY , ce qui fait apparaître une matrice B qui est l’inverse de
A.
— Si A n’est pas inversible, alors on n’aboutit pas à un unique X pour tout
Y . En particulier, lorsque Y = 0, le calcul fournit un X 6= 0 solution du
système, ce qui prouve bien que A n’est pas inversible : en effet, si B est
l’inverse de A, alors X = BAX = B(AX) = 0, ce qui n’est pas possible.

Si, pour tout Y ∈ Rn , ce système admet une unique solution X, alors A sera
inversible et on aura X = A−1 Y .
Pour résoudre le système linéaire AX = Y , on utilisera la méthode du pivot.

42
La méthode de la matrice témoin consiste à faire le même calcul en ne conser-
vant que les coefficients au lieu d’écrire X et Y à chaque étape de la résolution par
équivalence : on interprète les systèmes de départ et d’arrivée comme AX = In Y
et In X = BY ; à chaque étape on représente un système de la forme M X = N Y
en juxtaposant simplement les matrices M et N .
 
1 2 0
Exemple : soit A = −1 1 2. Le système linéaire AX = Y s’écrit :
0 0 1

 x1 +2x2 = y1
−x1 +x2 +2x3 = y2
x3 = y3

On résout ce système par la méthode du pivot de Gauss. La descente : on élimine


x1 dans L2 et L3 . Le système AX = Y est équivalent à (L2 → L2 + L1 )

x1 +2x2 = y1
3x2 +2x3 = y1 +y2
x3 = y3

On élimine ensuite x2 dans L3 , mais comme x2 n’apparaît pas dans L3 , la descente


est terminée.
Ce système ayant une et une seule solution pour tout Y , à ce point il est possible
de dire que A est inversible (si ça n’avait pas été le cas, cela aurait voulu dire que
A n’était pas inversible).
Remontons. On élimine x3 dans L1 et L2 . Le système AX = Y est équivalent
à (L2 → (L2 − 2L3 )/3)

x1 +2x2 = y1
x2 = y1 /3 +y2 /3 −2y3 /3
x3 = y3

On élimine ensuite x2 dans L1 . Le système AX = Y est équivalent à (L1 →


L1 − 2L2 ),
  
x 1 = y1 /3 −2y2 /3 +4y3 /3 1/3 −2/3 4/3
x2 = y1 /3 +y2 /3 −2y3 /3 ⇔ X = 1/3 1/3 −2/3 Y
x3 = y3 0 0 1

et donc  
1/3 −2/3 4/3
A−1 = 1/3 1/3 −2/3 .
0 0 1

43
On peut aussi écrire le système linéaire AX = Y matriciellement (en "oubliant"
X et Y ) :  
1 2 0 1 0 0
 −1 1 2 0 1 0 
0 0 1 0 0 1
qui équivaut à (L2 → L2 + L1 )
 
1 2 0 1 0 0
 0 3 2 1 1 0 
0 0 1 0 0 1

qui équivaut à (L2 → (L2 − 2L3 )/3)


 
1 2 0 1 0 0
 0 1 0 1/3 1/3 −2/3 
0 0 1 0 0 1

qui équivaut à (L2 → L1 − 2L2 )


 
1 0 0 1/3 −2/3 4/3
 0 1 0 1/3 1/3 −2/3 
0 0 1 0 0 1

Ce dernier système est X = A−1 Y . On en déduit donc A−1 .


Si le système linéaire AX = Y n’admet pas de solution, ou admet une infinité
de solutions,  A n’est pas inversible. On peut le voir par exemple pour la
alors 
1 1
matrice A = , alors AX = Y n’admet pas de solution si y2 6= 0 et admet
0 0
une infinité de solutions si y2 = 0 (l’ensemble des solutions étant alors une droite).

On remarque qu’une matrice triangulaire A est inversible si et seulement si


pour tout 1 ≤ i ≤ n, aii 6= 0, autrement dit si tous les termes diagonaux sont non
nuls.

4 Base et dimension d’un SEV de Rn


Dans cette partie, on se donne F = {X1 , . . . , Xp }, une famille de p vecteurs de
n
R . On désignera par P la matrice n × p définie par P = (X1 X2 . . . Xp ) (les
colonnes de P sont les vecteurs de F).

44
Exemples :        
2 3 0 2 3 0
— Si F = , , , alors P = .
−1  2   −1  −1
 2 −1 
 2 3 0  2 3 0
— Si F = −1 , 2 , −1 , alors P = −1 2 −1.
4 1 0 4 1 0
 

4.1 SEV engendré par F


On rappelle que Vect(F) est l’ensemble des combinaisons linéaires des vecteurs
de F, c’est-à-dire l’ensemble des vecteurs X qui peuvent s’écrire sous la forme
p
X
X= λi Xi ,
i=1

où {λ1 , . . . , λp } est une famille de p nombres réels. Vect(F) est un SEV de Rn ,


appelé le SEV engendré par F. On rappelle la convention Vect(∅) = {0}.
 
λ1
 .. 
Remarquons que si on note Λ =  . , Vect(F) est l’ensemble des vecteurs X
λp
de Rn qui s’écrivent sous la forme

X = P Λ.

4.2 Famille génératrice de Rn


Définition : F est une famille génératrice de Rn si tout vecteur X de Rn est
une combinaison linéaire des vecteurs de F, c’est-à-dire si il existe une famille de
p nombres réels, {λ1 , . . . , λp }, telle que
p
X
X= λi Xi
i=1

Autrement dit, F est une famille génératrice de Rn si Vect(F) = Rn .

Remarque : trouver λ1 , . . . , λp ∈ R tels que X = pi=1 λi Xi = P Λ pour X ∈ Rn


P
revient à résoudre le système linéaire P Λ = X (avec pour inconnues λ1 , . . . , λp ).

45
   
1 1
Exemple 4.1. Soient les vecteurs X1 = et X2 = de R2 . La famille
1 −1
{X1 , X2 } est une
 famille
 génératrice de R2 .
x1
Pour tout X = de R2 , on cherche λ1 et λ2 deux nombres réels tels que
x2
λ1 X1 + λ2 X2 = X.
Le système linéaire associé à cette formulation vectorielle s’écrit

λ1 + λ2 = x1
λ1 − λ2 = x2
qui a comme solution λ1 = x1 +x2
2
et λ2 = x1 −x2
2
. Il y a une solution à ce système
pour tout X ∈ R donc la famille {X1 , X2 } est bien génératrice de R2 .
2
     
1 1 0
Exemple 4.2. Soient les vecteurs X1 =  0 , X2 = −1 et X3 =
    1  de
−1 0 −1
R3 . La famille de vecteurs
  {X 1 , X 2 , X3 } n’est pas génératrice de R 3
.
x1
Pour tout X = x2  ∈ R3 , on cherche λ1 , λ2 et λ3 trois nombres réels tels que
x3
λ1 X1 + λ2 X2 + λ3 X3 = X.
Le système associé à cette formulation vectorielle s’écrit

 λ1 +λ2 = x1
−λ2 +λ3 = x2
−λ1 −λ3 = x3


λ1 +λ2 = x1
⇔ −λ2 +λ3 = x2
λ2 −λ3 = x1 + x3 (L3 → L1 + L3 )


λ1 +λ2 = x1
⇔ −λ2 +λ3 = x2
0 = x1 + x2 + x3 (L3 → L2 + L3 )

Ainsi si x1 +x2 +x3 6= 0, ce système n’a pas de solution. Si au contraire x1 +x2 +x3 =
0, ce système a une infinité de solutions. Ceci montre que {X1 , X2 , X3 } n’est pas
génératrice de R3 , car tout vecteur X de R3 ne peut pas s’écrire comme
  combinaison
1
linéaire des vecteurs X1 , X2 , X3 . Par exemple le vecteur X = 1 ne peut pas

1
s’écrire comme combinaison linéaire des vecteurs X1 , X2 et X3 (1 + 1 + 1 6= 0).

46
Proposition 4.3 (admise). Si F est une famille génératrice de Rn , alors on a
forcément que p ≥ n.
ATTENTION, la réciproque est fausse. Il ne suffit pas d’avoir p ≥ n pour que
F soit génératrice de Rn . Ainsi, dans l’Exemple 4.2, p = n = 3 mais {X1 , X2 , X3 }
n’est pas une base de R3 .

4.3 Famille libre


Définition : F est une famille libre si toute combinaison linéaire nulle des
vecteurs de F p
X
λi Xi = 0
i=1

est telle que tous ses coefficients sont nuls, c’est-à-dire

λ1 = · · · = λp = 0.

Remarque : trouver λ1 , . . . , λp ∈ R tels que pi=1 λi Xi = 0 revient à résoudre


P
le système linéaire P Λ = 0 (avec pour inconnues λ1 , . . . , λp ).

Exemples :    
1 2
— soient les vecteurs X1 = 1 et
 X2 = −3 de R3 . Le système associé à
4 −1
l’équation λ1 X1 + λ2 X2 = 0 est
 
λ1 + 2λ2 = 0 λ1 +2λ2 = 0
λ1 − 3λ2 = 0⇔ 5λ2 = 0
4λ1 − λ2 = 0 9λ2 = 0
 

Ce sytème a comme solution unique λ1 = λ2 = 0. La famille {X1 , X2 } est


donc libre.    
6 3
— soient les vecteurs X1 = et X2 = de R2 . Le système associé à
2 1
l’équation λ1 X1 + λ2 X2 = 0 est
 
6λ1 + 3λ2 = 0 6λ1 +3λ2 = 0

2λ1 + λ2 = 0 0 = 0

On a que λ2 = −2λ1 . La famille {X1 , X2 } n’est donc pas libre. Il suffisait de


remarquer que X1 et X2 sont des vecteurs colinéaires (donc liés) : X1 = 2X2 .

47
Remarque : une famille F qui contient deux vecteurs colinéaires n’est pas libre.

Proposition 4.4. Si F est une famille libre, alors on a forcément que p ≤ n.

≤n
ATTENTION, la réciproque est fausse. Il ne suffit pas d’avoir p pour que
1
F soit libre. Ainsi, dans l’Exemple 4.2, p = n = 3 mais {X1 =  0  , X2 =
    −1
1 0
−1 , X3 =  1 } n’est pas une famille libre. En effet, X1 − X2 − X3 = 0.
0 −1

4.4 Base de Rn
Définition : F est une base de Rn si F est une famille libre et génératrice Rn .

Proposition 4.5. Si F est une base de Rn , alors on a forcément que p = n.

ATTENTION, la réciproque est fausse. Cependant on a :

Proposition 4.6. Soit F une famille de p vecteurs de Rn . Si on a p = n alors les


trois assertions suivantes sont équivalentes :
1. F est une base de Rn ;
2. F est une famille libre ;
3. F est une famille génératrice de Rn .

Démonstration. Soit F une famille libre de n vecteurs. Supposons qu’elle n’est


pas génératrice. Alors il existe un vecteur X qui n’est pas combinaison linéaire des
vecteurs de F. On a alors que F ∪ {X} est une famille libre. Mais elle a p = n + 1
vecteurs, ce qui contredit p ≤ n. Donc F est également génératrice de Rn , donc
est une base de Rn .
Soit F une famille génératrice de Rn de n vecteurs. Supposons qu’elle n’est pas
libre. Alors il existe un vecteur X ∈ F qui est combinaison linéaire des n − 1
vecteurs de F restants. On a alors que F \ {X} est génératrice de Rn . Mais elle a
p = n − 1 vecteurs, ce qui contredit p ≥ n. Donc F est également libre, donc est
une base de Rn .

Proposition 4.7. F est une base de Rn si et seulement si P est une matrice


carrée n × n inversible.

Démonstration. Pour X ∈ Rn , notons (SX ) le système linéaire P Λ = X, d’incon-


nues Λ ∈ Rp .

48
Supposons d’abord que F est une base de Rn . Alors (Proposition 4.5) p = n et
donc P est une matrice carrée. Comme F est génératrice de Rn , pour tout X ∈ Rn ,
le système (SX ) admet au moins une solution. Comme F est libre, cette solution
est unique. En effet, si Λ et Λ0 sont deux solutions de (SX ), alors P (Λ − Λ0 ) = 0.
Comme F est libre, on doit donc avoir que Λ = Λ0 . On a donc montré que le
système admet une unique solution pour tout X. Ceci montre que P est inversible
et la solution du système (SX ) est Λ = P −1 X.
Supposons maintenant que P est une matrice carrée inversible. On a alors que
P Λ = X si et seulement si Λ = P −1 X. On vérifie alors facilement que F est
génératrice de Rn et F est libre. On a donc bien que F est une base de Rn .
On déduit des propositions précédentes le résultat suivant :

Corollaire 4.8. Soit A une matrice carrée n × n. Alors les propositions suivantes
sont équivalentes :
1. A est inversible (l’équation AX = Y admet une unique solution pour tout
Y ∈ Rn ) ;
2. l’équation AX = Y admet une solution pour tout Y ∈ Rn (im(A) = Rn ) ;
3. l’équation AX = 0 admet comme unique solution le vecteur nul (ker(A) =
0).

Le point 2. de ce corollaire est équivalent à dire que les colonnes de A sont


génératrices de Rn et le point 3. est équivalent à dire que les colonnes de A forment
une famille libre.
Par la proposition 4.7, on a que si F = {X1 , . . . , Xn } est une base de Rn , alors
tout vecteur X de Rn s’écrit de façon unique  comme
 combinaison linéaire des
λ1
 .. 
vecteurs de F : Il existe un seul vecteur Λ =  .  ∈ Rn tel que X = ni=1 λi Xi
P

λp
ou, écrit sous forme matricielle,
X = P Λ.
Notons qu’on peut exprimer Λ en fonction de X en inversant P :

Λ = P −1 X.

   
1 1
Exemple : F = , est une base de R2 .
1  −1   
1 1 x1
En effet, en notant P = , pour tout X = ∈ R2 , le système linéaire
1 −1 x2

49
 
λ1
P Λ = X (d’inconnu Λ = ) a une unique solution :
λ2

λ1 = x1 +x
 
λ 1 + λ 2 = x1 2
PΛ = X ⇔ ⇔ 2 ⇔ Λ = P −1 X
λ 1 − λ 2 = x2 λ2 = x1 −x 2
2

avec  
−1 1 1 1
P =
2 1 −1

4.5 Base canonique de Rn


La base canonique de R2 est la famille composée des deux vecteurs
   
1 0
et .
0 1

La base canonique de R3 est la famille composée des trois vecteurs


     
1 0 0
0 , 1 et 0 .
0 0 1
De même, on définit la base canonique de Rn .

4.6 Base et dimension d’un SEV de Rn


On se donne E un SEV de Rn .

4.6.1 Base
Une famille B de vecteurs de E est une base de E si l’on a à la fois que B est
libre et que E = Vect(B) (i.e. B est génératrice de E).

4.6.2 Dimension
Théorème 4.9. Soient B et B 0 deux bases de E, alors B et B 0 contiennent le
même nombre de vecteurs.
Définition : la dimension de E, notée dim(E), est le nombre de vecteurs d’une
base de E.

Exemples :
— {0} est un SEV de Rn de dimension nulle.
— Rn , avec n ≥ 1, est un SEV de Rn de dimension n.

50
Conditions pour qu’une famille de vecteurs soit une base d’un SEV :
Soit E un SEV de Rn de dimension d. On a les résultats suivants :

Proposition 4.10. Soit F = {X1 , . . . , Xp } une famille de p vecteurs de E. Alors

— Si F est génératrice de E, alors p ≥ d.

— Si F est libre, alors p ≤ d.

Cette proposition entraîne les conditions suivantes pour qu’une famille de vec-
teurs soit une base :

Proposition 4.11. Soit F = {X1 , . . . , Xp } une famille de p vecteurs de E. Alors

— F est une base de E si et seulement si p = d et si F est libre.

— F est une base de E si et seulement si p = d et si F est génératrice de E.

Dans le cas où E = Rn , on retrouve la proposition 4.6 (et la démonstration est


similaire).

Nous donnons également cette dernière proposition :

Proposition 4.12. Si F est un SEV de E, alors dim(F ) ≤ dim(E). De plus, si


dim(F ) = dim(E) alors F = E.

4.6.3 Dimension d’un SEV défini par un système linéaire homogène


Nous avons vu que tout SEV pouvait s’exprimer comme ensemble de solutions
d’un système linéaire homogène, ou, de manière équivalente (à l’aide de la forme
matricielle), comme noyau d’une matrice. On peut calculer sa dimension à l’aide
du pivot de Gauss de la manière suivante.
On considère une matrice A de taille m × n. Son noyau est ker(A) = {X ∈
n
R : AX = 0}, l’ensemble des solutions du système linéaire homogène AX = 0.
Après l’étape de descente dans l’algorithme du pivot de Gauss, il reste p équations
non nulles. La dimension du noyau est alors n − p, ce qui correspond au nombre
de paramètres libres permettant d’exprimer l’ensemble des solutions du système
AX = 0.

51
 
1 2 0
0 −1 2
Exemple : Considérons la matrice A = 
1 1
. Alors AX = 0 correspond
2
2 4 0
au système 

 x1 +2x2 =0
−x2 +2x3 =0

(S)

 x1 +x2 +2x3 =0
2x1 +4x2 =0

On élimine d’abord x1 des lignes 2, 3, 4 (L3 → L3 − L1 et L4 → L4 − 2L1 ) :




 x1 +2x2 =0
−x2 +2x3 = 0

(S) ⇔

 −x2 +2x3 = 0
0 =0

On élimine ensuite x2 des lignes 3 et 4 (L3 → L3 − L2 ) :




 x1 +2x2 =0
−x2 +2x3 = 0


 0 =0
0 =0

Finalement il reste deux équations non nulles. La dimension du noyau de A, ou


encore de l’ensemble des solutions du système AX = 0, est 3 − 2 = 1 (il y a un
paramètre libre x3 et tout choix de x3 détermine x1 et x2 ).

Pour trouver une base de ker(A), il suffit de trouver un vecteur (non nul)
solution du système. On peut le trouver en effectuant la remontée dans la méthode
du pivot, puis la résolution. L’étape de remontée (L1 → L1 + 2L2 ) donne :

x1 +0 +4x3 = 0
(S) ⇔
−x2 +2x3 = 0
   
x1 −4x3
On se sert du paramètre libre x3 pour exprimer X : X = x2  =  2x3  =
     x3 x3
−4  −4 
x3  2 . Finalement, ker(A) = Vect  2  .
1 1
 

52
4.7 Coordonnées d’un vecteur de Rn dans une base de Rn
On a vu dans la section 4.4 que si F = {X1 , . . . , Xn } est une base de Rn alors
P = (X1 X2 . . . Xp ) et tout vecteur X P de Rn s’écrit de façon unique comme
n
desX1 , . . . , Xn : X = i=1 λi Xi , ou (sous forme matricielle)
combinaison linéaire
λ1
 .. 
X = P Λ avec Λ =  . .
λp
Les nombres λ1 , . . . , λn sont appelés les coordonnées de X dans la base F ou
Λ est appelé le vecteur des coordonnées de X dans la base F. Ce vecteur est
usuellement noté [X]F . On a alors les formules de changement de base suivantes :
[X]F = P −1 X et X = P [X]F
La matrice P pourra être appelée matrice de passage de la base canonique à la
base F.

Remarque : si F est la base canonique de Rn , alors P = In et le vecteur des


coordonnées de X dans la base F est X.
 
5
Exemple 4.13. Les coordonnées de dans la base canonique de R2 sont bien
  −1
5
. En effet, on a bien que
−1
     
5 1 0
=5× + (−1) × .
−1 0 1
     
1 1 1 1
Exemple 4.14. Soit F = , . On a alors P = . On vérifie
1 −1
  1 −1
1 1
que P est inversible et que P −1 = 21 . On a donc que F est une base de
1 −1
R2 . Le vecteur des coordonnées
  d’un vecteur X dans la base F est [X]F = P −1 X.
5
Par exemple, si X = , on a
−1
    
−1 1 1 1 5 2
[X]F = P X = =
2 1 −1 −1 3
     
5 1 1
qui est bien le vecteur des coordonnées de dans la base F = , .
−1 1 −1
En effet, on a bien que
     
5 1 1
=2× +3× .
−1 1 −1

53
5 Diagonalisation de matrices carrées
Dans ce chapitre, on se donne A une matrice carrée n × n.

5.1 Introduction
  
1 2 x1
Considérons la matrice carrée A = . Pour X = ∈ R2 , on a
    2 1   x 2
x1 + 2x2 1 1
AX = . Posons X1 = et X2 = . On a alors
2x1 + x2 1 −1
   
3 −1
AX1 = et AX2 = .
3 1

Remarquons que
AX1 = 3X1 et AX2 = −X2 .
 
 1 1
Posons P = X1 X2 = , la matrice de passage de la base canonique de
1 −1
R2 à la base {X1 , X2 } (les colonnes de P sont X1 et X2 ).
Calculons AP :  
3 −1
AP = ,
3 1
les colonnes de AP
 sontAX1 et AX2 .
3 0
Posons D = . La matrice D est diagonale. Calculons P D :
0 −1
 
3 −1
PD = .
3 1
   
3 0
Les colonnes de P D sont P (= 3X1 ) et P (= −X2 ).
0 −1
On remarque que AP = P D. En multipliant à droite par P −1 (la matrice P est
bien inversible car {X1 , X2 } est une base de R2 ), on obtient que AP P −1 = P DP −1
et donc que (en utilisant le fait que AP P −1 = AI = A)

A = P DP −1 .

La matrice A est dite diagonalisable.

54
5.2 Diagonalisation - Définition
Une matrice carrée n × n est dite diagonalisable si et seulement si elle est
semblable à une matrice diagonale, c’est-à-dire si il existe une matrice diagonale
D et une matrice inversible P telles que

A = P DP −1 .

Si on peut écrire A sous cette forme, on dire que A a été diagonalisée.


Dans la suite de ce chapitre nous allons développer une méthode permettant
de décider si une matrice carrée est diagonalisable ou non et de la diagonaliser (si
c’est possible).

5.3 Éléments propres de A


5.3.1 Valeurs propres de A
Soit λ ∈ R, on dira que λ est une valeur propre de A s’il existe un vecteur non
nul X ∈ Rn tel que X 6= 0 et tel que

AX = λX.
 
1 2
Exemple : Soit A = . On a que 3 et −1 sont des valeurs propres de A.
2 1  
1 1
En effet, en posant X1 = et X2 = , on a que
1 −1

AX1 = 3X1 et AX2 = −X2 .

On montre facilement que

Proposition 5.1. λ est une valeur propre de A si et seulement si A − λIn n’est


pas inversible.

Démonstration. On utilise le Corollaire 4.8. Supposons que λ est une valeur propre
de A, alors il existe un vecteur X 6= 0 tel que AX = λX. Ainsi, (A − λIn )X =
AX −λX = 0 et donc A−λIn n’est pas inversible. Réciproquement, supposons que
A−λIn n’est pas inversible. Alors il existe un vecteur X 6= 0 tel que (A−λIn )X = 0
et donc par définition λ est une valeur propre de A.

55
 
1 2
Exemple : Soit A = . On a vu que 3 était une valeur propre de A.
2 1
Calculons A − 3I2 :
     
1 2 1 0 −2 2
A − 3I2 = −3 = .
2 1 0 1 2 −2
   
−2 2
Les colonnes de cette matrice, et , ne forment pas une base de
    2 −2
−2 2
R2 car =− . Par la proposition 4.7, on a bien que A − 3I2 n’est pas
2 −2
inversible.

Remarque. Il est possible de montrer qu’une matrice carrée n × n a au plus n


valeurs propres distinctes (mais elle peut en avoir moins).
 
0 1
Exemple : La matrice A = n’a aucune valeur propre. En effet, λ ∈ R
−1 0
est une valeur propre de A, alors A − λI2 n’est pas inversible. Calculons A − λI2 :
     
0 1 1 0 −λ 1
A − λI2 = −λ = .
−1 0 0 1 −1 −λ

En utilisant la proposition 2.11, on a donc que A − λI2 n’est pas inversible si et


seulement si (−λ)2 − (−1) × 1 = 0. Comme (−λ)2 − (−1) × 1 = λ2 + 1 6= 0, on a
que A − λI2 est inversible et ne peut donc pas être une valeur propre de A.

5.3.2 Vecteurs propres de A


Les vecteurs X 6= 0 de Rn pour lesquels il existe λ réel tel que AX = λX sont
appelés des vecteurs propres de A associés à la valeur propre λ.
   
1 2 1
Exemple : Soit A = . On a que X1 = est un vecteur propre associé
2 1   1
1
à la valeur propre 3 et que X2 = est un vecteur propre associé à la valeur
−1
propre −1. En effet,
AX1 = 3X1 et AX2 = −X2 .

56
5.3.3 Espaces propres
Soit λ ∈ R. On note Eλ = {X ∈ Rn , AX = λX}. Si λ est une valeur propre
de A, Eλ sera appelé l’espace propre associé à la valeur propre λ.

Proposition 5.2. Pour tout λ ∈ R, on a que

— Eλ est un SEV de Rn .

— λ est une valeur propre si et seulement si la dimension de Eλ est supérieure


ou égale à 1.

Remarque : l’espace Eλ est le noyau de la matrice A − λIn : Eλ = ker(A − λIn ).


En effet, AX = λX si et seulement si AX − λX = 0 ou encore (A − λIn )X = 0.

5.3.4 Spectre de A
L’ensemble noté Sp(A) de toutes les valeurs propres de A est appelé spectre de
A : Sp(A) = {λ1 , . . . , λp }, où λ1 , . . . , λp sont toutes les valeurs propres de A.

5.4 Base propre et diagonalisation


Définition Une base B = {X1 , . . . , Xn } de Rn est appelée une base propre pour
la matrice A si pour tout i, Xi est un vecteur propre de A.
Supposons que B = {X1 , . . . , Xn } de Rn est une base propre pour la matrice
A. Notons par λi la valeur propre associé à Xi . On a alors AXi = λi Xi .
Notons P la matrice de passage de la base canonique de Rn à B,

P = (X1 · · · Xn )

(les colonnes de P sont les vecteurs de la base B).


Notons D la matrice diagonale, avec sur la diagonale les valeurs propres λ1 , . . . , λn ,
 
λ1 0 . . . 0
. .
 0 λ2 . . .. 

D=. . .
 .. .. ... 0 
0 . . . 0 λn

Proposition 5.3. On a que A = P DP −1 , et donc que A est diagonalisable.

57
Démonstration. Comme dans l’introduction, calculons AP (les colonnes de AP
sont AX1 , AX2 , . . . , AXn ) :

AP = (AX1 · · · AXn )
= (λ1 X1 · · · λn Xn ).

Calculonsmaintenant
 P D. Comme P = (X1 · · · Xn ) et comme la première colonne
λ1
0
de D est  .. , la première colonne de P D est λ1 X1 +0×X2 +· · ·+0×Xn = λ1 X1 .
 
.
0
De même la i-ème colonne de P D est λi Xi et donc

P D = (λ1 X1 · · · λn Xn )

On a donc que AP = P D. En multipliant à droite par P −1 (la matrice P est


bien inversible car {X1 , . . . , Xn } est une base de Rn ), on obtient que

AP P −1 = P DP −1

et donc que (en utilisant le fait que AP P −1 = AIn = A)

A = P DP −1 .

La matrice A est bien diagonalisable.


Pour conclure cette section on a le résultat suivant
Proposition 5.4. A est diagonalisable si et seulement si il existe une base propre
pour A.
Démonstration. La proposition 5.3 montre que si il existe une base propre pour
A, alors A est diagonalisable.
Montrons la réciproque : Si A est diagonalisable, alors il y a une matrice diago-
nale D et une matrice inversible P telles que A = P DP −1 . Notons X1 , . . . , Xn les
colonnes de P , alors P = (X1 · · · Xn ). Comme P est inversible, {X1 , . . . , Xn } est
une base de Rn Notons λ1 , . . . , λn les éléments diagonaux de D (d11 = λ1 ,d22 = λ2 ,
... et dnn = λn ). Comme précédemment, on a

P D = (λ1 X1 · · · λn Xn ).

En multipliant la relation A = P DP −1 à droite par P , on a AP = P DP −1 P et


donc AP = P D. On montre ainsi que

AP = (λ1 X1 · · · λn Xn ).

58
Par ailleurs,

P D = (AX1 · · · AXn ).

On en déduit donc que AX1 = λ1 X1 , AX2 = λ2 X2 ... AXn = λn Xn . Autrement


dit, X1 , . . . , Xn sont des vecteurs propres et {X1 , . . . , Xn } est une base propre.

5.5 Méthode pour diagonaliser une matrice A


La méthode générale de diagonalisation consiste en 3 étapes :
1. On commence par déterminer le spectre de A, c’est-à-dire l’ensemble des
valeurs propres de A : Sp(A) = {λ1 , . . . , λp } est le spectre de A.

Pour trouver une valeur propre λ ∈ R de A, on résout le système linéaire


AX = λX (où de manière équivalente (A − λIn )X = 0). Si ce système
admet au moins une solution différente de 0, alors λ est une valeur propre.

2. Pour chaque valeur propre λi , on détermine une base Bi de Eλi le sous-


espace propre associé à λi . On trouve cette base en résolvant le système
linéaire (A − λi In )X = 0 par la méthode du pivot de Gauss.

3. On pose B = B1 ∪ · · · ∪ Bp . Si cette famille de vecteurs est une base de


Rn , alors B est une base propre pour A et donc A est diagonalisable :
A = P DP −1 avec P la matrice dont les vecteurs colonnes sont les vecteurs
de B et D la matrice diagonale dont la diagonale est constituée des valeurs
propres.

Proposition 5.5. [admise] La famille de vecteurs B construite ci-dessus est tou-


jours libre.

Cette proposition entraîne les deux corollaires suivants :

Corollaire 5.6. Les trois assertions suivantes sont équivalentes :


1. A est diagonalisable ;
2. B est une famille de n vecteurs ;
3. La somme des dimensions des sous-espaces propres vaut n :
p
X
dim(Eλi ) = n.
i=1

59
Démonstration. Montrons que l’assertion 3 entraîne l’assertion 2. Supposons que
la somme des dimensions des p sous-espaces propres vaut n. Notons B1 , · · · , Bp des
bases de chaque sous-espace propre. Alors B = B1 ∪ · · · ∪ Bp contient exactement
n vecteurs, ce qui montre l’assertion 2.
Montrons maintenant que l’assertion 2 entraîne l’assertion 1. Supposons que B
est une famille de n vecteurs. La proposition 5.5 montre B est une famille libre. On
en déduit que B est une base de Rn . Comme les vecteurs de B sont des vecteurs
propres, on a que B est une base propre. Ainsi A est diagonalisable, ce qui montre
l’assertion 2.
Pour finir la démonstration de ce corollaire, il nous reste à montrer que l’asser-
tion 1 entraîne l’assertion 3. Supposons que A soit diagonalisable. Alors elle admet
une base propre. En regroupant les vecteurs de cette base par valeur propre, on
obtient une base de chaque espace propre. La somme des dimensions des espaces
propres vaut donc n.
Corollaire 5.7. Si A possède n valeurs propres distinctes, alors A est diagonali-
sable.
Démonstration. Supposons que A possède n valeurs propres distinctes, que nous
notons λ1 , · · · , λn . Donnons-nous X1 , . . . , Xn , n vecteurs propres associés respec-
tivement à λ1 , · · · , λn . Alors B = {X1 , . . . , Xn } est une famille libre contenant n
vecteurs et est donc une base propre pour A.

5.6 Méthode pour diagonaliser une matrice 2 × 2


Les Corollaires 5.6 ou 5.7 permettent de donner une méthode simple pour
diagonaliser une matrice 2 × 2.
 
a b
Soit A = . Alors, en utilisant la proposition 2.11, on a que A − λI2 =
 c d
a−λ b
n’est pas inversible si et seulement si
c d−λ

(a − λ)(d − λ) − bc = 0.

Notons P (λ) = (a − λ)(d − λ) − bc, alors P (λ) = λ2 − (a + d)λ + (ad − bc). Ainsi
P est un polynôme du second degré. Son discriminant est

∆ = (a + d)2 − 4(ad − bc).

Comme λ est une valeur propre de A si et seulement si A − λI2 n’est pas


inversible. On a donc que les valeurs propres de A sont les zéros P .
Proposition 5.8. On a que

60
(a) Si ∆ > 0, A possède deux valeurs propres distinctes et est diagonalisable ;
(b) Si ∆ =0, A possède
 une unique valeur propre λ et n’est diagonalisable que
λ 0
si A = ;
0 λ
(c) Si ∆ < 0, A n’est pas diagonalisable.

Démonstration. On a que
(a) Si ∆ > 0, alors P a deux racines distinctes. Ces racines sont des valeurs
propres et on peut conclure avec le corollaire 5.7.
(b) Si ∆ = 0, alors P a une seule racine. Donc A a une seule valeur
 propre
 λ.
λ 0
Si A était diagonalisable, alors on aurait A = P DP −1 , avec D = = λI2
0 λ
et donc P DP −1 = λP I2 P −1 = λI2 = D.
(c) Si ∆ < 0, alors P n’a pas de racine. Donc A n’a pas de valeur propre et
donc ne peut pas être diagonalisable.
Pour diagonaliser A dans le cas où ∆ > 0, on cherche deux vecteurs propres
X1 et X2 respectivement associés aux deuxvaleurs propres λ1 et λ2 . On pose
λ1 0
P = (X1 X2 ) et on a A = P DP −1 avec D = .
0 λ2

Remarque : Dans le cas où A est une matrice symétrique non diagonale (c’est-
à-dire A = AT ), on a b = c 6= 0. Comme ∆ = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc,
on a ∆ = (a − d)2 + 4b2 > 0. On a donc que toutes les matrices symétriques 2 × 2
sont diagonalisables 9 .

5.7 Exemples
5.7.1 Exemple 1.
 
1 2
Reprenons la matrice considérée dans l’introduction A = .
2 1
1. Méthode générale : pour trouver les valeurs propres de A, on doit
résoudre le système linéaire AX = λX ou encore (A − λI2 )X = 0. On a que
     
1 2 1 0 1−λ 2
A − λI2 = −λ = .
2 1 0 1 2 1−λ
9. Ce résultat est en fait également vrai pour les matrices symétriques n × n, n ≥ 3.

61
 
x1
Soit X = dans R2 , le système associé à l’équation (A − λI2 )X = 0
x2
est (
(1 − λ)x1 + 2x2 = 0
2x1 + (1 − λ)x2 = 0
On résout le système par la méthode de substitution, on obtient que le
système est équivalent au système
( ( (
x2 = − (1−λ)
2
x 1 x 2 = − (1−λ)
2
x 1 x2 = − (1−λ)
2
x1
⇔ 2

2x1 + (1 − λ)x2 = 0 (4 − (1 − λ) )x1 = 0 (λ + 1)(λ − 3)x1 = 0
On cherche une solution différente de X = 0. La seconde équation s’annule
si λ = −1 ou λ = 3. On obtient donc deux valeurs propres distinctes. Par
le corollaire 5.7, on a que la matrice A est diagonalisable.

Recherchons maintenant une base de chaque sous-espace propre (donc un


seul vecteur propre par valeur propre ici).
Soit E3 le sous-espace propre associé à la valeur propre 3. On résout le
système linéaire AX = 3X ou encore (A − 3I2 )X = 0, soit
( (
−2x1 + 2x2 = 0 −2x1 + 2x2 = 0 n
⇔ ⇔ x1 = x2
2x1 − 2x2 =0 0=0
 
1
D’où E3 = Vect . On retrouve bien le vecteur propre X1 associé à
1
la valeur propre 3.
Soit E−1 le sous-espace propre associé à la valeur propre −1. On résout le
système linéaire AX = −X ou encore (A + I2 )X = 0, soit
( ( (
2x1 + 2x2 = 0 2x1 + 2x2 = 0 x2 = −x2
⇔ ⇔
2x1 + 2x2 = 0 0=0 0=0
 
1
D’où E−1 = Vect . On retrouve bien le vecteur propre X2 associé
−1
à la valeur propre −1.
   
1 1
La famille de vecteurs B = , est une base de R2 (les deux
1 −1
vecteurs n’étant pas colinéaires), donc une base propre de A. On a que
A = P DP −1 avec
   
1 1 3 0
P = , D=
1 −1 0 −1

62
2. Méthode propre aux matrices 2 × 2 : on cherche les racines du poly-
nôme
P (λ) = (1 − λ)(1 − λ) − 4 = (1 − λ)2 − 4 = (−1 − λ)(3 − λ).
On retrouve bien les valeurs propres 3 et −1. On cherche ensuite les deux
vecteurs propres associés comme ci-dessus.

5.7.2 Exemple 2.
 
1 2
Soit la matrice A = .
0 1
1. Méthode générale :
On résout le système linéaire associé à l’équation AX = λX ou encore
(A − λI2 )X = 0 : 
(1 − λ)x1 +2x2 = 0
(1 − λ)x2 = 0
Si λ 6= 1, ce système est équivalent à
 
(1 − λ)x1 +2x2 = 0 (1 − λ)x1 = 0
⇔ ⇔ {x1 = x2 = 0.
x2 = 0 x2 = 0
Ainsi si λ 6= 1, ce système n’ayant pas de solution non nulle, λ n’est pas
une valeur propre.
Si λ = 1, le système AX = λX est équivalent à

2x2 = 0
⇔ {x2 = 0.
0 = 0
 
1
Ce système admet par exemple comme solution. On a donc que λ = 1
0
est la seule valeur propre possible.

On cherche une base de E1 , sous-espace propre associé à la valeur propre


1 : on résout le système (A − I2 )X = 0
(
2x2 = 0
0=0
    
x1 1
Donc E1 = , x1 ∈ R = Vect qui est de dimension 1. On
0 0
  par le corollaire 5.6 que A n’est pas diagonalisable (ici on a B =
conclut
1
ne contient qu’un vecteur).
0

63
2. Méthode propre aux matrices 2 × 2 : le polynôme
P (λ) = (1 − λ)(1 − λ) − 0 ∗ 2 = (1 − λ)2
admet une racine double 1. La matrice A n’étant pas diagonale, on conclut
par la proposition 5.8 que A n’est pas diagonalisable.

5.7.3 Exemple 3.
 
1 1
Soit la matrice A = .
1 −1
1. Méthode générale : on résout le système associé à (A − λI2 )X = 0 (par
la méthode de substitution)
 
(1 − λ)x1 + x2 = 0 (1 − λ)x1 + x2 = 0

x1 + (−1 − λ)x2 = 0 x1 = (1 + λ)x2
 2
(2 − λ )x2 = 0

x1 = (1 + λ)x2
 
0
Si λ2 6= 2, est l’unique solution de ce système et donc λ n’est pas une
0
valeur propre de A. Si λ2 = 2, il y a des solutions non nulles et λ est une
√ de A.√Finalement, on a que
valeur propre
2
A possède deux valeurs propres
distinctes, 2 et − 2 (les solutions de λ = 2). On en déduit que la matrice
A est diagonalisable.

On cherche une base de chaque espace propre E√2 et E−√2 . Pour λ = 2,
le système est (
0=0

x1 = ( 2 + 1)x2
√   √ 
√ 2+1 √ − 2+1
et E 2 = Vect . De même E− 2 = Vect .
1 1
√ √  √ 
−1 2+1 − 2+1 2 0
√ .
Ainsi, A = P DP avec P = et D =
1 1 0 − 2
2. Méthode propre aux matrices 2×2 : on peut remarquer que la matrice
B est symétrique avec b = c = 1 non nul donc elle possède forcément deux
valeurs propres distinctes et est diagonalisable (ici ∆ = (1−1)2 −4(−1−1) =
8 6= 0). Ces deux valeurs propres sont les racines du polynôme
P (λ) = (1 − λ)(−1 − λ) − 12 = λ2 − 2,
√ √
c’est-à-dire 2 et − 2. On construit ensuite une base propre comme dans
la méthode générale ci-dessus.

64
5.7.4 Exemple 4.
 
1 1 1
Soit A = 1 1 1. Comme la matrice est carrée de taille 3 on doit faire la
1 1 1
méthode générale. On cherche donc à résoudre le système AX = λX, soit

x1 + x2 + x2 = λx1

(S) x1 + x2 + x3 = λx2

x1 + x2 + x3 = λx3

En faisant L2 → L2 − L1 et L3 → L3 − L1 on obtient

x1 + x2 + x3 = λx1

(S) ⇔ 0 = λ(x2 − x1 )

0 = λ(x3 − x1 )

on distingue deux cas : λ = 0 et λ 6= 0.


? λ = 0. Dans ce cas, le système est équivalent à l’unique équation x1 + x2 +
10
x3 = 0, qui a  pour
 solution
  un SEV de dimension 2(= 3 − 1) , donné
 1 1 
par E0 = Vect −1 , 0  . Ainsi, 0 est une valeur propre de A et
 
     0 −1
 
 1 1 
−1 ,  0  est une base de E0 .
0 −1
 
? λ 6= 0. Dans ce cas on a forcément x1 = x2 = x3 par les deux dernières
équations et la première équation donne
3x1=λx1 . Donc λ = 3 est l’unique
 1 
valeur propre non nulle et E3 = Vect 1 .
    1 
 
 1 1 1 
La famille de vecteurs B =  −1 , 0 , 1 est une base propre pour A
   
0 −1 1
 
 
1 1 1
et la matrice A est diagonalisable. De plus A = P DP −1 avec P = −1 0 1
  0 −1 1
0 0 0
et D = 0 0 0.

0 0 3
10. 3 inconnues, 1 seule équation

65
5.7.5 Exemple 5.
Dans les cas précédent, nous n’avons pas véritablement utilisé le pivot de Gauss.
Nous présentons la méthode sur ce dernier exemple. Soit la matrice
 
2 −2 2
A = 1 −1 2
1 −2 3

On cherche donc à résoudre le système (A − λI3 )X = 0, qu’on note (Sλ ), par la


méthode du pivot de Gauss :

(2 − λ)x1 −2x2 +2x3 = 0
(Sλ ) x1 −(1 + λ)x2 +2x3 = 0
x1 −2x2 +(3 − λ)x3 = 0

Pour effectuer le pivot, il vaut mieux échanger l’ordre des équations (ici L1 et L2 )

 x1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔ x1 −(1 + λ)x2 +2x3 = 0
(2 − λ)x1 −2x2 +2x3 = 0

On élimine x1 dans L2 et L3 en faisant L2 → L2 − L1 et L3 → L3 − (2 − λ)L1 :



x 1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔ (1 − λ)x2 +(λ − 1)x3 = 0
2(1 − λ)x2 +(−λ2 + 5λ − 4)x3 = 0

On élimine x2 dans L3 en faisant L3 → L3 − 2L2 :



x 1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔ (1 − λ)x2 +(λ − 1)x3 = 0
2
−(λ − 3λ + 2)x3 = 0


x 1 −2x2 +(3 − λ)x3 = 0
⇔ (1 − λ)x2 +(λ − 1)x3 = 0
(λ − 1)(λ − 2)x3 = 0

 
0
Nous voyons que si λ 6∈ {1, 2} alors 0 est l’unique solution du système (Sλ ) :

   0
 0 
Eλ = 0 .
0
 

66
Si au contraire λ ∈ {1, 2}, la troisième équation est 0 = 0 qui peut être donc
enlevée et on a

x1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔
(1 − λ)x2 +(λ − 1)x3 = 0

Si λ = 1, la deuxième équation est 0 = 0 qui peut être donc enlevée et on a

(S1 ) ⇔ x1 − 2x2 + 2x3 = 0


   
 2 −2 
On en déduit que E1 = Vect  1 , 0  (car X ∈ E1 si et seulement si
 
0 1
 
   
2x2 − 2x3 2 −2
X=  x2  = x2 1 + x3 0 ).
  
x3 0 1
Si λ = 2, on a 
x1 −2x2 +x3 = 0
(S2 ) ⇔
−x2 +x3 = 0
On effectue la remontée du pivot de Gauss en éliminant x2 dans L1 en faisant
L1 → L1 − 2L2 et on a
 
x1 −x3 = 0 x1 = x3
(S2 ) ⇔ ⇔
−x2 +x3 = 0 x2 = x3
   
 1  x3
On en déduit que E2 = Vect  1 (car X ∈ E2 si et seulement si X = x3  =

1 x3
 
 
1
x3 1).

1

Conclusion.
  La matrice
  A possède
 deux valeurs propres distinctes 1 et 2. De
 2 −2 1 
plus B = 1 ,  0  , 1 est une base propre pour A. La matrice A est
0 1  1
 
  
1 0 0 2 −2 1
diagonalisable et si D = 0 1 0 et si P = 1 0 1, on a A = P DP −1 .
0 0 2 0 1 1

67

Vous aimerez peut-être aussi