0% ont trouvé ce document utile (0 vote)
120 vues62 pages

MTH 1102

Ce document est un cours sur l'algèbre linéaire, couvrant des sujets tels que les vecteurs réels, les matrices, les systèmes d'équations linéaires, et les espaces vectoriels. Il inclut des définitions, des théories, des propriétés, et des exercices pour renforcer la compréhension des concepts. Le contenu est structuré en chapitres, chacun abordant des aspects fondamentaux de l'algèbre linéaire.

Transféré par

morineyamada
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
120 vues62 pages

MTH 1102

Ce document est un cours sur l'algèbre linéaire, couvrant des sujets tels que les vecteurs réels, les matrices, les systèmes d'équations linéaires, et les espaces vectoriels. Il inclut des définitions, des théories, des propriétés, et des exercices pour renforcer la compréhension des concepts. Le contenu est structuré en chapitres, chacun abordant des aspects fondamentaux de l'algèbre linéaire.

Transféré par

morineyamada
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Algèbre linéaire

Cours et travaux dirigés

Christian Bingane, ing., Ph. D.


[Link]@[Link]

3 juillet 2025
Table des matières

1 Introduction 4
1.1 Vecteurs réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Produit scalaire et norme euclidienne . . . . . . . . . . . . . . . . . . . . . 6
1.2 Matrices réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Produit scalaire, norme de Frobenius et norme spectrale . . . . . . . . . . . 9
1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Systèmes d’équations linéaires 12


2.1 Théorie générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Opérations élémentaires sur les lignes d’une matrice . . . . . . . . . . . . . . . . . 15
2.3 Résolution d’un système homogène . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Décomposition LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Espaces vectoriels 24
3.1 Espaces vectoriels et sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Indépendance linéaire, base et dimension . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Sous-espaces associés à une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4 Orthogonalité 34
4.1 Produit scalaire et norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Famille orthogonale et procédé de Gram-Schmidt . . . . . . . . . . . . . . . . . . . 34
4.3 Complément orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5 Déterminants 43
5.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

6 Valeurs propres et vecteurs propres 51


6.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.3 Matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2
TABLE DES MATIÈRES C. Bingane

6.4 Matrices définies positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54


6.5 Décomposition en valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3
Chapitre 1

Introduction

1.1 Vecteurs réels


1.1.1 Définitions
Un vecteur réel x de dimension n est un n-uplet de nombres réels x1 , x2 , . . . , xn . On écrit
 
x1
 x2 
x =  ..  = (x1 , x2 , . . . , xn )
 
.
xn

et le nombre xi est la i-ième coordonnée du vecteur x. L’ensemble des vecteurs réels de dimension n
est noté Rn .
Si on munit l’ensemble Rn des opérations :
1. l’addition + : pour tout x = (xi ), y = (yi ) ∈ Rn , x + y = (xi + yi ) ∈ Rn ,
2. la multiplication par un scalaire · : pour tout a ∈ R, pour tout x = (xi ) ∈ Rn , ax = (axi ) ∈ Rn ,
alors les propriétés suivantes soient vérifiées.
i) Pour tout x, y ∈ Rn , x + y = y + x.
ii) Pour tout x, y, z ∈ Rn , (x + y) + z = x + (y + z).
iii) Il existe 0 = (0) ∈ Rn , appelé vecteur nul, tel que pour tout x ∈ Rn , x + 0 = x.
iv) Pour tout x = (xi ) ∈ Rn , il existe −x = (−xi ) ∈ Rn , appelé vecteur opposé, tel que
x + (−x) = 0.
v) Pour tout a ∈ R, pour tout x, y ∈ Rn , a(x + y) = ax + ay.
vi) Pour tout a, b ∈ R, pour tout x ∈ Rn , (a + b)x = ax + bx.
vii) Pour tout a, b ∈ R, pour tout x ∈ Rn , (ab)x = a(bx).
viii) Pour tout x ∈ Rn , 1x = x.

Exemple 1. Soit a ∈ R et soit x ∈ Rn . Démontrez les propositions suivantes.

a) 0x = 0. c) Si ax = 0, alors a = 0 ou x = 0.
b) a0 = 0. d) (−1)x = −x.

4
CHAPITRE 1. INTRODUCTION C. Bingane

Combinaison linéaire Un vecteur x ∈ Rn est une combinaison linéaire de m vecteurs v 1 , . . . , v m ∈


Rn s’il existe m scalaires a1 , . . . , am ∈ R tels que x = a1 v 1 + . . . + am v m .

Exemple 2. Déterminez si le vecteur (0, 2) est une combinaison linéaire des vecteurs donnés.
a) v 1 = (1, 1)
b) v 1 = (1, 1), v 2 = (−1, 1)
c) v 1 = (1, 1), v 2 = (−1, 1), v 3 = (0, −2)

On dit que m vecteurs v 1 , . . . , v m ∈ Rn engendrent Rn si pour tout vecteur x ∈ Rn , il existe m


scalaires a1 , . . . , am ∈ R tels que x = a1 v 1 + . . . + am v m .

Exemple 3. Déterminez si les vecteurs donnés engendrent R2 .


a) v 1 = (1, 1)
b) v 1 = (1, 1), v 2 = (−1, 1)
c) v 1 = (1, 1), v 2 = (−1, 1), v 3 = (0, −2)

Propriété. Si m vecteurs v 1 , . . . , v m ∈ Rn engendrent Rn , alors m ≥ n.

Indépendance linéaire On dit que m vecteurs v 1 , . . . , v m ∈ Rn sont linéairement indépendants


(sur R) si pour des scalaires a1 , . . . , am ∈ R, a1 v 1 + . . . + am v m = 0 implique nécessairement
a1 = . . . = am = 0. Sinon, on dit que les vecteurs v 1 , . . . , v m ∈ Rn sont linéairement dépendants.

Exemple 4. Déterminez si les vecteurs donnés sont linéairement indépendants sur R.


a) v 1 = (1, 1)
b) v 1 = (1, 1), v 2 = (−1, 1)
c) v 1 = (1, 1), v 2 = (−1, 1), v 3 = (0, −2)

Propriété. Si m vecteurs v 1 , . . . , v m ∈ Rn sont linéairement indépendants, alors m ≤ n.

Base Si n vecteurs v 1 , . . . , v n ∈ Rn engendrent Rn et sont linéairement indépendants, on dit qu’ils


forment une base de Rn .

Exemple 5. Déterminez si les vecteurs donnés forment une base de R2 .


a) v 1 = (1, 1)
b) v 1 = (1, 1), v 2 = (−1, 1)
c) v 1 = (1, 1), v 2 = (−1, 1), v 3 = (0, −2)

Propriété. n vecteurs v 1 , . . . , v n ∈ Rn forment n n


Pnune base de R ssi pour tout x ∈ R , il existe un
n
n-uplet unique (a1 , . . . , an ) ∈ R tel que x = i=1 ai v i .
Les vecteurs e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1) ∈ Rn forment une base
de Rn appelée base canonique.

5
C. Bingane CHAPITRE 1. INTRODUCTION

1.1.2 Produit scalaire et norme euclidienne


Produit scalaire Le produit scalaire de deux vecteurs x = (xi ) ∈ Rn et y = (yi ) ∈ Rn est le
nombre réel
⟨x, y⟩ := x1 y1 + . . . + xn yn .

Exemple 6. Soit e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1) ∈ Rn . Montrez que


(
1 si i = j,
⟨ei , ej ⟩ = δij =
0 si i ̸= j.

Propriétés. Pour tout x, y, z ∈ Rn , pour tout a, b ∈ R, on a


1. ⟨x, y⟩ = ⟨y, x⟩,
2. ⟨ax + by, z⟩ = a⟨x, z⟩ + b⟨y, z⟩,
3. ⟨x, x⟩ > 0 si x ̸= 0.

Norme euclidienne La norme euclidienne d’un vecteur x = (x1 , . . . , xn ) ∈ Rn est le nombre positif
p q
∥x∥ := ⟨x, x⟩ = x21 + . . . + x2n .

Si ∥x∥ = 1, on dit que le vecteur x est unitaire.

Exemple 7. Montrez que pour tout x, y ∈ Rn , ∥x + y∥2 = ∥x∥2 + ∥y∥2 + 2⟨x, y⟩.

Propriétés. Pour tout x, y ∈ Rn , pour tout a ∈ R, on a

1. ∥ax∥ = |a|∥x∥, 3. |⟨x, y⟩| ≤ ∥x∥∥y∥,


2. ∥x∥ = 0 ⇔ x = 0, 4. ∥x + y∥ ≤ ∥x∥ + ∥y∥.

Angle de deux vecteurs L’angle θ ∈ [0, π] que forment deux vecteurs non nuls x, y ∈ Rn est donné
par
⟨x, y⟩
cos θ := .
∥x∥∥y∥
On dit que deux vecteurs x, y ∈ Rn sont orthogonaux si ⟨x, y⟩ = 0.

Projection orthogonale Soit a ∈ Rn \ {0}. La projection orthogonale d’un vecteur x ∈ Rn sur la


droite vectorielle {ta | t ∈ R} engendrée par a est le vecteur

⟨a, x⟩
proja x := a.
∥a∥2

L’ensemble {x ∈ Rn | ⟨a, x⟩ = 0} est appelé hyperplan vectoriel orthogonal à a.

Exemple 8. Calculez la projection orthogonale de v = (x, y) sur la droite vectorielle engendrée par
a = (cos α, sin α), où 0 ≤ α ≤ 2π.

Propriétés. Soit a ∈ Rn \ {0}. Pour tout x ∈ Rn ,


i) ∥x − proja x∥ = mint∈R ∥x − ta∥,
ii) ⟨x − proja x, a⟩ = 0.

6
CHAPITRE 1. INTRODUCTION C. Bingane

1.2 Matrices réelles


1.2.1 Définitions
Une matrice réelle A de dimension m × n est un tableau de nombres réels aij , où i = 1, 2, . . . , m et
j = 1, 2, . . . , n, arrangés en m lignes et n colonnes. On écrit
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  = [aij ]
 
..
 . . . 
am1 am2 . . . amn

et le nombre aij est le coefficient (i, j) de la matrice A. L’ensemble des matrices réelles de dimension
m × n est noté Rm×n .
Remarques.
1. Une matrice A ∈ Rm×n est appelée vecteur colonne si m > n = 1, vecteur ligne si n > m = 1.
2. Pour une matrice A = [aij ] ∈ Rm×n , on notera ai· ∈ Rn sa i-ième ligne et a·j ∈ Rm sa j-ième
colonne. On écrira A = (a1· , . . . , am· ) ou A = [a·1 , . . . , a·n ] pour indiquer que la matrice A est
donnée par ses lignes ai· ou par ses colonnes a·j , respectivement.
3. Une matrice réelle A est dite définie par blocs si elle est de la forme
 
A11 A12 . . . A1n
 A21 A22 . . . A2n 
A =  .. ..  = [Aij ],
 
..
 . . . 
Am1 Am2 . . . Amn

où Aij ∈ Rµi ×νj pour tout i = 1, . . . , m, j = 1, . . . , n.


Si on munit l’ensemble Rm×n des opérations :
1. l’addition : pour tout A = [aij ], B = [bij ] ∈ Rm×n , A + B = [aij + bij ] ∈ Rm×n ,
2. la multiplication par un scalaire : pour tout x ∈ R, A = [aij ] ∈ Rm×n , xA = [xaij ] ∈ Rm×n ,
alors les propriétés suivantes sont vérifiées.
i) Pour tout A, B ∈ Rm×n , A + B = B + A.
ii) Pour tout A, B, C ∈ Rm×n , (A + B) + C = A + (B + C).
iii) Il existe Om,n = [0] ∈ Rm×n , appelée matrice nulle, telle que pour tout A ∈ Rm×n , A + Om,n =
A.
iv) Pour tout A = [aij ] ∈ Rm×n , il existe −A = [−aij ] ∈ Rm×n , appelée matrice opposée, telle
que A + (−A) = Om,n .
v) Pour tout x ∈ R, pour tout A, B ∈ Rm×n , x(A + B) = xA + yB.
vi) Pour tout x, y ∈ R, pour tout A ∈ Rm×n , (x + y)A = xA + yA.
vii) Pour tout x, y ∈ R, pour tout A ∈ Rm×n , (xy)A = x(yA).
viii) Pour tout A ∈ Rm×n , 1A = A.

Exemple 9. Soit A ∈ Rm×n et soit x ∈ R. Démontrez les propositions suivantes.

7
C. Bingane CHAPITRE 1. INTRODUCTION

a) 0A = Om,n . c) Si xA = Om,n , alors x = 0 ou A = Om,n .


b) xOm,n = Om,n . d) (−1)A = −A.

Transposée La transposée d’une matrice A = [aij ] ∈ Rm×n est la matrice AT := [a′ji ] ∈ Rn×m , où
a′ji = aij .
Exemple 10. Trouvez la transposée de la matrice
 
1 −1 0
A= .
1 1 −2

Propriétés.
1. Pour tout A ∈ Rm×n , (AT )T = A.
2. Pour tout A, B ∈ Rm×n et pour tout x, y ∈ R, on a (xA + yB)T = xAT + yB T .

m×n
Produit matriciel Le produit de deux Pnmatrices A = [aij ] ∈ R et B = [bjk ] ∈ Rn×p est la
m×p
matrice AB := [cik ] ∈ R , où cik = j=1 aij bjk .
Exemple 11. Calculez AB si
 
 1 −1 −1
 1
1 −1 0
A= et B = 1 1 −1 −1 .
1 1 −2
1 1 1 −3

Propriétés.
1. Pour tout A ∈ Rm×n et B ∈ Rn×p , (AB)T = B T AT .
2. Pour tout A ∈ Rm×n , B ∈ Rn×p et C ∈ Rp×q , (AB)C = A(BC).
3. Pour tout A, B ∈ Rm×n et C ∈ Rn×p , (A + B)C = AC + BC.
4. Pour tout A ∈ Rm×n et B, C ∈ Rn×p , A(B + C) = AB + AC.
µi ×νj
jk ], où Aij ∈ R
5. Si A = [Aij ] et B = [BP pour tout i, j et Bjk ∈ Rνj ×πk pour tout j, k, alors
AB = [Cik ], où Cik = nj=1 Aij Bjk ∈ Rµi ×πk pour tout i, k.

1.2.2 Matrice carrée


Une matrice A ∈ Rm×n est appelée matrice carrée si m = n. Une matrice A = [aij ] ∈ Rn×n est dite
• diagonale si aij = 0 pour tout i ̸= j,
• triangulaire inférieure si aij = 0 pour tout i < j,
• triangulaire supérieure si aij = 0 pour tout i > j,
• symétrique si AT = A,
• antisymétrique si AT = −A.
Remarques.
1. Une matrice diagonale  
a1 . . . 0
 .. . . .
. . ..  ,
0 . . . an
où a1 , . . . , an ∈ R, est souvent notée diag(a1 , . . . , an ).
2. La matrice carrée nulle d’ordre n sera simplement notée On .

8
CHAPITRE 1. INTRODUCTION C. Bingane

Matrice identité La matrice diagonale In := diag(1, . . . , 1) = [δij ] = (e1 , . . . , en ) est appelée


matrice identité d’ordre n.
Exemple 12. Montrez que pour toute matrice A ∈ Rm×n , Im A = AIn = A.

Trace La trace d’une matrice A = [aij ] ∈ Rn×n est le nombre tr A := a11 + . . . + ann .
Exemple 13. Montrez que
a) pour tout A ∈ Rn×n , tr AT = tr A,
b) pour tout A ∈ Rm×n et B ∈ Rn×m , tr(AB) = tr(BA).
Propriété. Pour tout A, B ∈ Rn×n et pour tout x, y ∈ R, on a tr(xA + yB) = x tr A + y tr B.

Inverse Une matrice A ∈ Rn×n est dite inversible s’il existe une matrice unique A−1 ∈ Rn×n ,
appelée matrice inverse, telle que A−1 A = AA−1 = In .
Exemple 14. Montrez que si A, B ∈ Rn×n sont inversibles, alors (AB)−1 = B −1 A−1 .
Propriétés. Soit A ∈ Rn×n une matrice inversible et soit x un scalaire non nul.
1. (A−1 )−1 = A. 2. (AT )−1 = (A−1 )T . 3. (xA)−1 = x−1 A−1 .

Puissance Pour tout entier k ≥ 2, la k-ième puissance d’une matrice A ∈ Rn×n est la matrice Ak
telle que Ak := Ai Ak−i , où 1 ≤ i ≤ k − 1. Une matrice A ∈ Rn×n est dite idempotente si A2 = A,
involutive si A2 = In , nilpotente d’indice k ≥ 2 si Ak−1 ̸= On et Ak = On .
Exemple 15. Montrez que si A = diag(a1 , . . . , an ), où a1 , . . . , an ∈ R, alors Ak = diag(ak1 , . . . , akn )
pour tout entier k ≥ 1.

1.2.3 Produit scalaire, norme de Frobenius et norme spectrale


Produit scalaire Le produit scalaire de deux matrices A = [aij ] ∈ Rm×n et B = [bij ] ∈ Rm×n est
le nombre réel m X n
X
T
⟨A, B⟩ := tr(A B) = aij bij .
i=1 j=1

Exemple 16. Calculez le produit scalaire des matrices


   
1 −1 0 1 0 −1
A= et B = .
1 1 −2 0 1 −1
Propriétés. Pour tout A, B, C ∈ Rm×n , pour tout x, y ∈ R, on a
1. ⟨A, B⟩ = ⟨B, A⟩,
2. ⟨xA + yB, C⟩ = x⟨A, C⟩ + y⟨B, C⟩,
3. ⟨A, A⟩ > 0 si A ̸= Om,n .

Norme de Frobenius La norme de Frobenius d’une matrice A = [aij ] ∈ Rm×n est le nombre positif
v
u m X n
uX
p
T
∥A∥F := tr(A A) = t a2ij .
i=1 j=1

Exemple 17. Calculez la norme de Frobenius de la matrice


 
1 −1 0
A= .
1 1 −2
Propriétés. Pour tout A, B ∈ Rm×n , pour tout x ∈ R, on a

9
C. Bingane CHAPITRE 1. INTRODUCTION

1. ∥xA∥F = |x|∥A∥F , 3. |⟨A, B⟩| ≤ ∥A∥F ∥B∥F ,


2. ∥A∥F = 0 ⇔ A = Om,n , 4. ∥A + B∥F ≤ ∥A∥F + ∥B∥F .

Norme spectrale La norme spectrale d’une matrice A ∈ Rm×n est le nombre positif

∥Ax∥
∥A∥ := max = max ∥Ax∥.
x̸=0 ∥x∥ ∥x∥=1

Exemple 18. On donne  


1 −1 0
A= .
1 1 −2

Montrez que 2 ≤ ∥A∥ ≤ 2 2.

Propriétés. Pour tout A, B ∈ Rm×n , pour tout x ∈ R, on a

1. ∥xA∥ = |x|∥A∥, 2. ∥A∥ = 0 ⇔ A = Om,n , 3. ∥A + B∥ ≤ ∥A∥ + ∥B∥.

1.3 Exercices
1. Soient les vecteurs v 1 = (cos θ, sin θ) et v 2 = (− sin θ, cos θ), où 0 ≤ θ ≤ 2π.
a) Montrez qu’ils engendrent R2 .
b) Montrez qu’ils sont linéairement indépendants.
c) Montrez que ⟨v i , v j ⟩ = δij pour tout i, j = 1, 2.

2. Soient les vecteurs v 1 = (sin ϕ cos θ, sin ϕ sin θ, cos ϕ), v 2 = (cos ϕ cos θ, cos ϕ sin θ, − sin ϕ) et
v 3 = (− sin θ, cos θ, 0), où 0 ≤ ϕ ≤ π et 0 ≤ θ ≤ 2π.
a) Montrez qu’ils engendrent R3 .
b) Montrez qu’ils sont linéairement indépendants.
c) Montrez que ⟨v i , v j ⟩ = δij pour tout i, j = 1, 2, 3.

3. Montrez que si m vecteurs non nuls v 1 , . . . , v m ∈ Rn sont deux à deux orthogonaux, alors ils sont
linéairement indépendants.

4. Soient m vecteurs v 1 , . . . , v m ∈ Rn .
a) Montrez que si v 1 , . . . , v m engendrent Rn , alors pour tout v m+1 , . . . , v p ∈ Rn , p ≥ m, les
vecteurs v 1 , . . . , v m , v m+1 , . . . , v p engendrent Rn .
b) Montrez que si v 1 , . . . , v m sont linéairement indépendants, alors pour tout 1 ≤ i1 < . . . < ik ≤
m, 1 ≤ k ≤ m, les vecteurs v i1 , . . . , v ik sont linéairement indépendants.

5. Pour un vecteur unitaire a ∈ Rn , soient Da := {ta | t ∈ R} et Ha := {x ∈ Rn | ⟨a, x⟩ = 0}.


Démontrez les propositions suivantes.
a) Pour tout u, v ∈ Da , α, β ∈ R, αu + βv ∈ Da .
b) Pour tout u, v ∈ Ha , α, β ∈ R, αu + βv ∈ Ha .
c) Da ∩ Ha = {0}.
d) Pour tout (u, v) ∈ Da × Ha , ⟨u, v⟩ = 0.
e) Pour tout x ∈ Rn , il existe un unique couple (u, v) ∈ Da × Ha tel que x = u + v.

6. Montrez que pour tout x, y ∈ Rn ,

10
CHAPITRE 1. INTRODUCTION C. Bingane

a) ∥x + y∥2 + ∥x − y∥2 = 2∥x∥2 + 2∥y∥2 ,


b) ∥x + y∥2 − ∥x − y∥2 = 4⟨x, y⟩,
c) |∥x∥ − ∥y∥| ≤ ∥x − y∥.
Pn √
7. Montrez que pour tout x = (x1 , . . . , xn ) ∈ Rn , ∥x∥ ≤ i=1 |xi | ≤ n∥x∥.

8. Soient A ∈ Rm×n et B ∈ Rn×m . Montrez que B = AT ssi ⟨Ax, y⟩ = ⟨x, By⟩ pour tout
(x, y) ∈ Rn × Rm .

9. Soit une matrice A ∈ Rn×n .


a) Montrez que si A est symétrique et ⟨Ax, x⟩ = 0 pour tout x ∈ Rn , alors A = On .
b) Montrez que si A est antisymétrique, alors ⟨Ax, x⟩ = 0 pour tout x ∈ Rn .

10. Soit A ∈ Rn×n une matrice symétrique.


a) Montrez que si A est idempotente, alors ⟨x − Ax, Ax⟩ = 0.
b) Montrez que si A est involutive, alors ∥Ax∥ = ∥x∥.

11. Soient A = [aij ], B = [bjk ] ∈ Rn×n deux matrices triangulaires supérieures et C = AB = [cik ].
a) Montrez que la matrice C est triangulaire supérieure.
b) Montrez que cii = aii bii pour tout i = 1, . . . , n.

12. Soit une matrice A ∈ Rn×n .


a) Montrez que si A est idempotente, alors In − A est aussi idempotente.
b) Montrez que si A est involutive, alors −A est aussi involutive.
c) Montrez que si A est idempotente, alors 2A − In est involutive.

13. Soit une matrice A ∈ Rn×n . Calculez (In + A)m , où m ≥ 2 est un entier, si A est idempotente,
involutive.

14. Soit A ∈ Rn×n une matrice nilpotente d’indice k. Montrez que In − A est inversible.

15. Pour une matrice A ∈ Rn×n , soit eA := ∞ Ak


P
k=0 k! .
a) Si A = diag(a1 , . . . , an ), montrez que eA = diag(ea1 , . . . , ean ).
b) Soit S ∈ Rn×n une matrice inversible et Λ = diag(λ1 , . . . , λn ). Si A = SΛS −1 , montrez que
Ak = SΛk S −1 pour tout entier k ≥ 0. Déduisez que eA = SeΛ S −1 .

16. Calculez ⟨A, B⟩ si A ∈ Rn×n est symétrique et B ∈ Rn×n est antisymétrique.

17. Démontrez les propositions suivantes.


a) Pour tout A ∈ Rm×n , x ∈ Rn , ∥Ax∥ ≤ ∥A∥∥x∥ ≤ ∥A∥F ∥x∥.
b) Pour tout A ∈ Rm×n , B ∈ Rn×p , ∥AB∥F ≤ ∥A∥F ∥B∥F et ∥AB∥ ≤ ∥A∥∥B∥.

11
Chapitre 2

Systèmes d’équations linéaires

2.1 Théorie générale


Système linéaire Soit a1 , a2 , . . . , an ∈ R et soit b ∈ R. Une équation linéaire à n inconnues
x1 , x2 , . . . , xn est une équation de la forme

a1 x1 + a2 x2 + . . . + an xn = b.

Soit A = [aij ] ∈ Rm×n et b = (b1 , b2 , . . . , bm ) ∈ Rm . Un système linéaire est un ensemble de m


équations linéaires à n inconnues x1 , x2 , . . . , xn :


 a11 x1 + a12 x2 + . . . + a1n xn = b1 ,
a21 x1 + a22 x2 + . . . + a2n xn = b2 ,


 ... ... ... ... ...
am1 x1 + am2 x2 + . . . + amn xn = bm .

Il peut simplement s’écrire sous forme matricielle

Ax = b,

avec x = (x1 , x2 , . . . , xn ). La matrice


 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
[A | b] :=  ..
 
.. .. .. 
 . . . . 
am1 am2 . . . amn bm

est appelée matrice augmentée du système linéaire Ax = b. Tout vecteur v tel que Av = b est appelé
solution du système linéaire Ax = b.

Exemple 19. Résolvez le système linéaire

x1 + 12 x2 = 12 ,

1
x + ax2 = b
2 1

en fonction des paramètres a, b ∈ R.

Théorème 1. Un système linéaire n’a soit aucune solution, soit une solution unique, soit une infinité
de solutions.

12
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

Démonstration. Nous montrons que si un système linéaire a deux solutions distinctes, alors il a une
infinité de solutions.
Soient v 0 et v 1 deux solutions distinctes d’un système linéaire Ax = b. Pour tout c ∈ R, v =
v 0 + c(v 1 − v 0 ) est une solution du système linéaire Ax = b. En effet, Av = A[v 0 + c(v 1 − v 0 )] =
Av 0 + c(Av 1 − Av 0 ) = b + c(b − b) = b.

Théorème 2. Si m > n, alors il existe b ∈ Rm tel que le système linéaire Ax = b n’a pas de solution.

Démonstration. Nous démontrons cet énoncé par récurrence sur n.


i) Soit n = 1 < m. Considérons le système linéaire

 a1 x = b 1 ,

a2 x = b 2 ,


 ... ...
am x = b m .

Si a1 = . . . = am = 0, alors le système linéaire n’a pas de solution pour b = (1, . . . , 1).


Supposons qu’un des coefficients ai est non nul, par exemple a1 ̸= 0. Alors
 
 a 1 x = b 1 ,  a1 x = b 1 ,
  0x = b − a2 b ,

a2 x = b 2 ,

2 a1 1


 . . . . . . 
 . . . . . .
am x = b m 0x = bm − aam1 b1 .
 

Pour b = (a1 , a1 + a2 , . . . , a1 + am ), le système linéaire n’a pas de solution.


ii) Supposons que l’énoncé est vrai pour m − 1 > n − 1. Montrons qu’il est vrai pour m > n. Si
A = Om,n , alors le système linéaire n’a pas de solution pour b = (1, . . . , 1). Supposons qu’un
des coefficients aij de A est non nul, par exemple a11 ̸= 0. Alors on a


 a11 x1 + a12 x2 + . . . + a1n xn = b1 ,
a21 x1 + a22 x2 + . . . + a2n xn = b2 ,


 ... ... ... ... ...
am1 x1 + am2 x2 + . . . + amn xn = bm



 a11 x1 + a12 x2 + . . . + a1n xn = b1 ,
a′22 x2 + . . . + a′2n xn = b′2 ,



 ... ... ... ...
′ ′
am2 x2 + . . . + amn xn = b′m ,

où a′ij = aij − aa11


i1
a1j et b′i = bi − aa11
i1
b1 . D’après l’hypothèse de récurrence, il existe (b′2 , . . . , b′m )
tel que le système linéaire
 ′
 a22 x2 + . . . + a′2n xn = b′2 ,
... ... ... ...
 ′
am2 x2 + . . . + a′mn xn = b′m ,

n’a pas de solution. Il suit que pour b = (a11 , b′2 + a21 , . . . , b′m + am1 ), le système linéaire
Ax = b n’a pas de solution.

13
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES

Système homogène Le système linéaire Ax = b est dit homogène si b = 0. Le système homogène


Ax = 0 a toujours une solution v = 0 appelée solution triviale. On note ker A l’ensemble solution
du système homogène Ax = 0, i.e.,

ker A := {x | Ax = 0}.

Théorème 3. Si m < n, alors le système homogène Ax = 0 a une solution non triviale.


Démonstration. Nous démontrons cet énoncé par récurrence sur m.
i) Soit m = 1 < n. Considérons l’équation

a1 x1 + . . . + an xn = 0.

Si a1 = . . . = an = 0, alors le système homogène admet une solution non triviale x = (1, . . . , 1).
Supposons qu’un des coefficients ai est non nul, par exemple a1 ̸= 0. Alors le système homogène
admet une solution non triviale x = (−a2 − . . . − an , a1 , . . . , a1 ).
ii) Supposons que l’énoncé est vrai pour m − 1 < n − 1. Montrons qu’il est vrai pour m < n.
Si A = Om,n , alors le système homogène admet une solution non triviale x = (1, . . . , 1).
Supposons qu’un des coefficients aij de A est non nul, par exemple a11 ̸= 0. Alors on a

 a11 x1 + a12 x2 + . . . + a1n xn = 0,

a21 x1 + a22 x2 + . . . + a2n xn = 0,


 ... ... ... ... ...
am1 x1 + am2 x2 + . . . + amn xn = 0



 a11 x1 + a12 x2 + . . . + a1n xn = 0,
a′22 x2 + . . . + a′2n xn = 0,



 ... ... ... ...
′ ′
am2 x2 + . . . + amn xn = 0,

ai1
où a′ij = aij − a .
a11 1j
D’après l’hypothèse de récurrence, le système homogène
 ′
 a22 x2 + . . . + a′2n xn = 0,
... ... ... ...
 ′
am2 x2 + . . . + a′mn xn = 0,

a une solution non triviale (x2 , . . . , xn ) = (v2 , . . . , vn ). Il suit que le système homogène Ax = 0
a une solution non triviale x = (−a12 v2 − . . . − a1n vn , a11 v2 , . . . , a11 vn ).

Théorème 4. Soit un système linéaire Ax = b et soit ker A := {x | Ax = 0} l’ensemble solution


du système homogène Ax = 0.
i) Si v 0 et v 1 sont deux solutions de Ax = b, alors v 1 − v 0 ∈ ker A.
ii) Si v est une solution de Ax = b, alors la solution générale de Ax = b est x = v + ker A.
Démonstration.
i) Si Av 0 = Av 1 = b, alors A(v 1 − v0 ) = Av 1 − Av 0 = b − b = 0 ⇒ v 1 − v 0 ∈ ker A.
ii) Si Av = b, alors Ax = b = Av ⇒ A(x − v) = 0 ⇒ x − v ∈ ker A ⇒ x = v + ker A.

Exemple 20. Trouvez la solution générale du système linéaire



x1 − x2 = 0,
x1 + x2 − 2x3 = 2.

14
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

2.2 Opérations élémentaires sur les lignes d’une matrice


Effectuer une opération élémentaire sur les lignes d’une matrice consiste à
i) permuter deux lignes ;
ii) multiplier une ligne par un scalaire non nul ;
iii) ajouter à une ligne un multiple d’une autre ligne.
Deux matrices A, B ∈ Rm×n sont dites équivalentes selon les lignes si l’une peut être obtenue à partir
de l’autre par des opérations élémentaires sur les lignes. On note A ∼ B.

Matrice élémentaire Une matrice élémentaire est une matrice obtenue en effectuant une opération
élémentaire sur les lignes d’une matrice identité.
Exemple 21. Soit la matrice  
1 −1 0
A= .
1 1 −2
a) Trouvez toutes les matrices élémentaires d’ordre 2 et déterminez leurs inverses.
b) Pour chaque matrice élémentaire E d’ordre 2, calculez EA. Que remarque-t-on ?
Propriétés.
1. Toute matrice élémentaire est inversible et son inverse est aussi élémentaire.
2. Effectuer une opération élémentaire sur les lignes d’une matrice A ∈ Rm×n revient à la multiplier
à gauche par une matrice élémentaire E ∈ Rm×m obtenue à partir de Im par la même opération.

Matrice échelonnée Une matrice est dite échelonnée si le nombre de zéros commençant une ligne
croît strictement ligne par ligne jusqu’à ce qu’il ne reste plus que des zéros. Une matrice échelonnée
non nulle U ∈ Rm×n est donc de la forme
 
. . . 0 u1j1 . . . u1j2 . . . u1jr . . . u1n
. . . 0 0 . . . u2j2 . . . u2jr . . . u2n 
 

 .
.. .
.. .
.. .
.. .
.. 

U =  ,
 . . . 0 0 . . . 0 . . . urjr . . . u rn 

. . . 0 0 ... 0 ... 0 ... 0 
 
.. .. .. .. ..
. . . . .
où 1 ≤ j1 < . . . < jr ≤ n et uiji ̸= 0 pour tout i = 1, . . . , r. Le premier élément non nul uiji de
la i-ième ligne non nulle de U est appelé pivot. Les colonnes u·j1 , . . . , u·jr de U contenant les pivots
sont appelées colonnes pivots, tandis que les autres sont appelées colonnes libres.
Théorème 5. Toute matrice peut être transformée en une matrice échelonnée par des opérations
élémentaires sur les lignes.
Démonstration. Soit A = [aij ] ∈ Rm×n .
i) Si A = Om,n , alors elle est déjà échelonnée. Supposons que A ̸= Om,n . Soient j1 = min{j |
a·j ̸= 0} et i1 = min{i | aij1 ̸= 0}. Si i1 > 1, on peut trouver une matrice A′ ∼ A telle que
a′1j1 ̸= 0 en effectuant une permutation des lignes. Sans perte de généralité, on peut supposer
que a11 ̸= 0. On a
   
a11 a12 . . . a1n a11 a12 . . . a1n
 a21 a22 . . . a2n   0 a′ . . . a′2n 
22
A =  .. ..  ∼  .. ..  ,
   
.. ..
 . . .   . . . 
am1 am2 . . . amn 0 a′m2 . . . a′mn

15
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES

où a′ij = aij − aa11


i1
a1j .
ii) On peut alors répéter le procédé avec la sous-matrice
 
a′22 a′23 . . . a′2n
 a′ ′ ′ 
 32 a33 . . . a3n 
A1 =  .. .. .. 
 . . . 
′ ′ ′
am2 am3 . . . amn
jusqu’à obtenir une forme échelonnée de A.

Remarque. L’algorithme qui consiste à transformer une matrice en une forme échelonnée par des
opérations élémentaires sur les lignes est appelé élimination de Gauss.
Exemple 22. Trouvez une forme échelonnée de la matrice donnée.
   
1 −1 0 1 1
a) A =
1 1 −2 b) B = −1 1 
0 −2
Propriétés.
1. Dans une matrice échelonnée, les colonnes pivots sont linéairement indépendantes et les co-
lonnes libres dépendent linéairement des colonnes pivots.
2. Une matrice A ∈ Rn×n est inversible ssi A ∼ In .
3. Deux matrices A, B ∈ Rm×n sont équivalentes selon les lignes ssi il existe une matrice inversible
C ∈ Rm×m telle que B = CA.

2.3 Résolution d’un système homogène


Solution spéciale Soit U = [uij ] ∈ Rm×n une matrice échelonnée avec r pivots. Soient u·j1 , . . . , u·jr ,
1 ≤ j1 < . . . < jr ≤ n, les colonnes pivots de U et u·jr+1 , . . . , u·jn , 1 ≤ jr+1 < . . . < jn ≤ n, ses
colonnes libres. Pour k = r + 1, . . . , n, une solution spéciale de U x = 0 associée à la colonne libre
u·jk est un vecteur de la forme
Xr
v k = ejk + vji k eji ,
i=1
où vji k ∈ R. Comme les colonnes pivots u·j1 , . . . , u·jr de U sont linéairement indépendantes, le
vecteur v k est unique pour tout k = r + 1, . . . , n.
Théorème 6. Soit U = [uij ] ∈ Rm×n une matrice échelonnée. Les solutions spéciales du système
homogène U x = 0 sont linéairement indépendantes.
Démonstration. Supposons que U a r pivots. Soient v k = (vjk ) = ejk + ri=1 vji k eji , k = r+1, . . . , n,
P
les solutions spéciales de U x = 0. Pour αr+1 , . . . , αn ∈ R, on a
n
X n
X r
X n
X
αk v k = αk ejk + αk vji k eji .
k=r+1 k=r+1 i=1 k=r+1

Comme les vecteurs ej1 , . . . , ejn sont linéairement indépendants, on déduit


n
X n
X r
X n
X
αk v k = 0 ⇒ αk ejk + αk vji k eji = 0 ⇒ αr+1 = . . . = αn = 0.
k=r+1 k=r+1 i=1 k=r+1

16
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

Théorème 7. Soit A = [aij ] ∈ Rm×n et soit U = [uij ] ∈ Rm×n une forme échelonnée de A. Toute
solution du système homogène Ax = 0 s’écrit comme une combinaison linéaire des solutions spéciales
de U x = 0.
Démonstration.
Pr Comme A ∼ U , on a Ax = 0 ⇔ U x = 0. Si U a r pivots, soient v k = (vjk ) =
ejk + i=1 vji kP
eji , k = r + 1, . . . , n, les solutions spéciales de U x = 0. Pour tout k = r + 1, . . . , n,
U v k = u·jk + ri=1 vji k u·ji = 0. On peut alors écrire
n
X r
X n
X r
X n
X r
X
Ux = u·j xj = u·ji xji + u·jk xjk = u·ji xji − vji k u·ji xjk
j=1 i=1 k=r+1 i=1 k=r+1 i=1
r n
!
X X
= xj i − vji k xjk u·ji .
i=1 k=r+1

Comme les colonnes pivots u·j1 , . . . , u·jr sont linéairement indépendantes, on a


n
X
U x = 0 ⇔ xji = vji k xjk ∀i = 1, . . . , r.
k=r+1

La solution générale x de Ax = 0 s’écrit alors


n
X r
X n
X r
X n
X n
X
x= xj e j = xji eji + xjk ejk = vji k xjk eji + xjk ejk
j=1 i=1 k=r+1 i=1 k=r+1 k=r+1
n r
! n
X X X
= xj k ejk + vji k eji = xjk v k .
k=r+1 i=1 k=r+1

Exemple 23. Trouvez la solution générale du système homogène



 x1 − x2 + 3x3 − 4x4 = 0,
2x1 − 2x2 + x3 − 3x4 = 0,
3x1 − 3x2 + 2x3 − 5x4 = 0.

Théorème 8. Si U et U ′ sont deux formes échelonnées d’une matrice A, alors elles ont le même
nombre des pivots.
Démonstration. Supposons que U et U ′ ont respectivement r et r′ pivots, avec r > r′ . Soient
v r+1 , . . . , v n les solutions spéciales de U x = 0 et v ′r′ +1 , . . . , v ′n les solutions spéciales de U ′ x = 0.
Comme A ∼ U ∼ U ′ , pour tout j = 1, . . . , n − r′ , il existe β1j , . . . , βn−r,j ∈ R tels que v ′r+j =
Pn−r
i=1 βij v r+i . Pour x1 , . . . , xn−r′ ∈ R,

n−r ′ n−r ′ n−r n−r n−r ′


X X X X X
xj v ′r′ +j = xj βij v r+i = βij xj v r+i
j=1 j=1 i=1 i=1 j=1

Comme v r+1 , . . . , v n sont linéairement indépendants, on a


n−r ′ n−r n−r ′ n−r ′
X X X X
xj v ′r′ +j = βij xj v r+i = 0 ⇒ βij xj = 0 ∀i = 1, . . . , n − r.
j=1 i=1 j=1 j=1

On obtient un système homogène de n − r équations avec n − r′ inconnues. D’après le théorème 3,


comme r > r′ , ce système admet au moins une solution non triviale, i.e., les vecteurs v ′r′ +1 , . . . , v ′n
sont linéairement dépendants, ce qui est une contradiction. D’où r = r′ .

17
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES

Matrice échelonnée réduite Une matrice échelonnée est dite réduite si le pivot d’une ligne vaut 1
et c’est le seul élément non nul de sa colonne.

Théorème 9. La forme échelonnée réduite d’une matrice est unique.

Démonstration. Soit A ∈ Rm×n . Nous démontrons cet énoncé par récurrence sur n.
i) Soit n = 1. Si A = Om,n , alors elle est déjà sous forme échelonnée réduite. Si A ̸= Om,n , alors
la forme échelonnée réduite de A est U = e1 ∈ Rm .
ii) Supposons que l’énoncé est vrai pour n − 1. Montrons qu’il est vrai pour n. Soit U et U ′
deux formes échelonnées réduites de A avec r pivots. Pour une matrice B ∈ Rm×n , soit
Bn−1 ∈ Rm×(n−1) la sous-matrice déduite de B en supprimant la dernière colonne. On a que

Un−1 et Un−1 sont des formes échelonnées réduites de An−1 et, par hypothèse de récurrence,

Un−1 = Un−1 .
Si Ax = 0, alors U x = U ′ x = 0 ⇒ (U − U ′ )x = 0 ⇒ (u·n − u′·n )xn = 0. On a u·n = u′·n
ou xn = 0.
• Si u·n = u′·n , alors U = U ′ .
• Si xn = 0, alors u·n et u′·n sont des colonnes pivots de U et U ′ , respectivement. Comme
U et U ′ sont des formes échelonnées réduites, on a u·n = u′·n = er ∈ Rm ⇒ U = U ′ .

Exemple 24. Trouvez la forme échelonnée réduite de la matrice donnée.


   
1 −1 0 1 1
a) A =
1 1 −2 b) B = −1 1 
0 −2

Remarque. L’algorithme qui consiste à transformer une matrice en une forme échelonnée réduite par
des opérations élémentaires sur les lignes est parfois appelé élimination de Gauss-Jordan.

Rang Le rang d’une matrice A ∈ Rm×n , dénoté rg A, est le nombre des colonnes linéairement
indépendantes de A.

Théorème 10. Le rang d’une matrice A est le nombre des pivots dans une forme échelonnée de A.

Démonstration. Soit U = [uij ] ∈ Rm×n la forme échelonnée réduite d’une matrice A = [aij ] ∈ Rm×n .
Supposons que U a r pivots. Nous démontrons que rg A = r.
i) Soient v k = ejk − ri=1 uijk eji , k = r + 1, . .P
P
. , n, les solutions spéciales de U x = 0. Pour
tout k = r + 1, . . . , n, on a Av k = 0 ⇒ a·jk = ri=1 uijk a·ji , i.e., les colonnes a·jr+1 , . . . , a·jn
dépendent linéairement des colonnes a·j1 , . . . , a·jr .
ii) Comme A ∼ U , il existe une matrice inversible C ∈ Rm×m telle que U = CA. Pour
xj1 , . . . , xjr ∈ R,
r r
U =CA
X X
xji a·ji = 0 ⇔ xji u·ji = 0 ⇔ xj1 = . . . = xjr = 0.
|{z}
i=1 i=1
=ei

Les colonnes a·j1 , . . . , a·jr sont linéairement indépendantes.


Donc, rg A = rg U = r.

Exemple 25. Trouvez le rang de la matrice donnée.

18
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

  
1 −1 0 1 1
a) A =
1 1 −2 b) B = −1 1 
0 −2

Théorème 11. Pour tout A ∈ Rm×n , rg AT = rg A.

Démonstration. Par définition, le rang de AT est le nombre des lignes linéairement indépendantes
dans A. Supposons que rg A = r. Nous montrons que rg AT = r.
• Soit U une forme échelonnée de A. Les r lignes non nulles u1· , . . . , ur· de U sont linéairement
indépendantes. On a rg U T = rg U = r.
• Les lignes de A sont des combinaisons des r lignes non nulles de U . On a rg AT ≤ rg U T = r.
Or, A = (AT )T ⇒ r = rg A = rg(AT )T ≤ rg AT ≤ r ⇒ rg AT = r.

Propriétés.
1. Si A ∈ Rm×n , alors rg A ≤ min{m, n}.
2. Si A, B ∈ Rm×n et A ∼ B, alors rg A = rg B.
3. Si A ∈ Rm×n et B ∈ Rn×p , alors rg(AB) ≤ min{rg A, rg B}.

2.4 Résolution d’un système linéaire


Solution générale Soit A ∈ Rm×n et b ∈ Rm . Supposons que rg A = r. D’après les théorèmes 4
et 7, si v 0 est une solution du système linéaire Ax = b et v r+1 , . . . , v n sont les solutions spéciales du
système homogène Ax = 0, alors la solution générale de Ax = b s’écrit
n
X
x = v0 + tk v k ,
k=r+1

avec tr+1 , . . . , tn ∈ R.

Théorème 12. Soit A ∈ Rm×n et b ∈ Rm . Le système linéaire Ax = b


a) n’admet aucune solution si rg A < rg[A | b],
b) admet exactement une solution si rg A = rg[A | b] = n,
c) admet une infinité de solutions si rg A = rg[A | b] < n.

Démonstration. Supposons que rg A = r. Soit U la forme échelonnée réduite de A. Il existe une


matrice inversible C ∈ Rm×m telle que U = CA. Si b′ = Cb, on a [A | b] ∼ [U | b′ ], rg[A | b] =
rg[U | b′ ] et Ax = b ⇔ U x = b′ .
a) Si rg[U | b′ ] > r, il existe i > r tel que b′i ̸= 0 et le système linéaire U x = b′ a une équation de
la forme
0x1 + . . . + 0xn = b′i .
Donc, Ax = b n’a aucune solution.
b) Si rg[U | b′ ] = r = n, alors ui· = 0 et b′i = 0 pour tout i > n. Le système linéaire Ax = b a
une solution unique x = (b′1 , . . . , b′n ).

19
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES

c) Si rg[U | b′ ] = r < n, alors ui· = 0 et b′i = 0 pour tout i > r. Soient j1 < . . . < jr les indices
des colonnes pivots de U et jr+1 < . . . < jn ceux des colonnes libres. Le système linéaire
Ax = b admet une solution v 0 = (v0j ) telle que
(
b′ si j = j1 , . . . jr ,
v0j = j
0 sinon.

Si v r+1 , . . . , v n sont les solutions spéciales de U x = 0, alors la solution générale de Ax = b


est n
X
x = v0 + tk v k ,
k=r+1

avec tr+1 , . . . , tn ∈ R.

Exemple 26. Soit le système linéaire



 x1 − x2 + 3x3 − 4x4 = b1 ,
2x1 − 2x2 + x3 − 3x4 = b2 ,
3x1 − 3x2 + 2x3 − 5x4 = b3 ,

où b = (b1 , b2 , b3 ) ∈ R3 .
a) Trouvez tous les vecteurs b = (b1 , b2 , b3 ) pour lesquels le système linéaire admet au moins une
solution ?
b) Quelle est la solution générale du système linéaire si b = (5, 14, 35) ?

Calcul de la matrice inverse Soit une matrice A ∈ Rn×n . On cherche une matrice X ∈ Rn×n
telle que AX = In . Si X = [x1 , . . . , xn ], cela revient à résoudre n systèmes linéaires Axi = ei . On
peut les résoudre simultanément en considérant la matrice augmentée [A | In ]. Si A est inversible,
l’élimination de Gauss-Jordan donne [A | In ] ∼ [In | A−1 ].
Exemple 27. Trouvez, si possible, l’inverse de la matrice
1 1 1
2 3 6
A =  16 1
2
1
3
1 1 1
3 6 2

en utlisant l’élimination de Gauss-Jordan.

2.5 Décomposition LU
La décomposition LU d’une matrice carrée A consiste à écrire A comme le produit d’une matrice
triangulaire inférieure L et d’une matrice triangulaire supérieure U , i.e., A = LU .

Existence Si une matrice carrée A peut être échelonnée sans permutation des lignes, alors il existe
une matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que A = LU .
Exemple 28. Trouvez, si possible, une décomposition LU de la matrice
1 1 1
2 3 6
A =  16 1
2
1
3
.
1 1 1
3 6 2

20
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

Application Soit une matrice inversible A ∈ Rn×n et soit b ∈ Rn . Si A possède une décomposition
LU , alors résoudre le système linéaire Ax = b revient à résoudre
(
Ly = b,
U x = y.

Le système linéaire Ly = b est résolu par l’algorithme de descente triangulaire suivant :


b1
y1 = ,
l11
bi − i−1
P
j=1 lij yj
yi = ∀i = 2, . . . , n.
lii
Par la suite, on trouve x par l’algorithme de remontée triangulaire :
yn
xn = ,
unn
yn−i+1 − i−1
P
j=1 un−i+1,n−j+1 yn−j+1
xn−i+1 = ∀i = 2, . . . , n.
un−i+1,n−i+1
Exemple 29. Utilisez une décomposition LU pour résoudre le système linéaire
1
 2 x1 + 31 x2 + 16 x3 = 13 ,
1
6
x1 + 21 x2 + 13 x3 = 13 ,
1
x + 61 x2 + 12 x3 = 13 .
3 1

Matrice de permutation Soit σ = (σ(1), . . . , σ(n)) est une permutation de {1, . . . , n}. Une matrice
de permutation est une matrice Pσ := (eσ(1) , . . . , eσ(n) ), obtenue en permutant les lignes de la matrice
identité In .
Propriétés.
1. Si σ et τ sont deux permutations de {1, . . . , n}, alors Pσ◦τ = Pσ Pτ .
2. Si σ est une permutation de {1, . . . , n}, alors Pσ−1 = Pσ−1 = PσT .
3. Si A = (a1 , . . . , an ) ∈ Rn×n et σ est une permutation {1, . . . , n}, Pσ A = (aσ(1) , . . . , aσ(n) ).

Décomposition P A = LU Pour toute matrice carrée A, il existe une matrice de permutation P , une
matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que P A = LU .

2.6 Exercices
18. Pour un entier n ≥ 2, trouvez toutes les matrices élémentaires d’ordre n et déterminez leurs
inverses respectives.
19. Calculez le rang de la matrice
 
1 x0 . . . xm
0
1 x1 . . . xm 
1 
Vn,m =  .. .. ,

. . . . . .. 
. 
1 xn . . . xm
n

où m, n ≥ 1 sont des entiers et x0 < x1 < . . . < xn des nombres réels deux à deux distincts.

21
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES

20. Soit une matrice A ∈ Rm×n .


a) Montrez que A est de rang m ssi il existe une matrice B ∈ Rn×m telle que AB = Im .
b) Montrez que A est de rang n ssi il existe une matrice C ∈ Rn×m telle que CA = In .

21. Montrez qu’une matrice A ∈ Rm×n est de rang r > 0 ssi il existe deux matrices B ∈ Rm×r et
C ∈ Rr×n de rang r telles que A = BC.

22. Montrez qu’une matrice A ∈ Rm×n est de rang r > 0 ssi il existe deux matrices B ∈ Rm×r et
C ∈ Rr×n de rang r telles que CAB = Ir .

23. Soit le système linéaire




 x1 + x2 + x3 + x4 + 6x5 = b1 ,
x1 + x2 + 2x3 − x4 + 6x5 = b2 ,


 x 1 + x2 + x3 + 2x4 + 7x5 = b3 ,
3x1 + 3x2 − x3 + 2x4 + 9x5 = b4 ,

où b = (b1 , b2 , b3 , b4 ) ∈ R4 .
a) Trouvez tous les vecteurs b = (b1 , b2 , b3 , b4 ) pour lesquels le système linéaire admet au moins
une solution.
b) Quelle est la solution générale du système linéaire si b = (27, 36, 16, 144) ?

24. Soit le système linéaire




 y1 + y2 + y3 + 3y4 = c1 ,
 y1 + y2 + y3 + 3y4 = c2 ,


y1 + 2y2 + y3 − y4 = c3 ,
y1 − y2 + 2y3 + 2y4 = c4 ,




6y1 + 6y2 + 7y3 + 9y4 = c5 ,

où c = (c1 , . . . , c5 ) ∈ R5 .
a) Trouvez tous les vecteurs c = (c1 , . . . , c5 ) pour lesquels le système linéaire admet au moins une
solution.
b) Quelle est la solution générale du système linéaire si c = (2, 2, 3, 6, 18) ?

25. Pour la matrice A = [aij ] ∈ Rn×n donnée, trouvez A−1 si possible.

a) aij = min{i, j} b) aij = max{i, j}

26. On donne la matrice de Hilbert d’ordre 3


1 1
 
1 2 3
H =  21 1
3
1
4
.
1 1 1
3 4 5

a) Trouvez, si possible, une décomposition LU de H.


b) Utilisez la décomposition LU trouvée en a) pour résoudre le système linéaire

 x1 + 12 x2 + 13 x3 = 13 ,
1
2
x1 + 13 x2 + 14 x3 = 13 ,
1
x + 14 x2 + 15 x3 = 13 .
3 1

22
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane

27. On donne  
A11 A12
A= ,
A21 A22
où Aij ∈ Rνi ×νj pour tout i, j = 1, 2.
a) Montrez que si A11 et B22 := A22 − A21 A−1
11 A12 sont inversibles, alors
 −1
A11 + A−1 −1 −1
−A−1 −1

−1 11 A12 B22 A21 A11 11 A12 B22
A = −1 .
−B22 A21 A−1
11
−1
B22

b) Montrez que si A22 et B11 := A11 − A12 A−122 A21 sont inversibles, alors

−1 −1
A12 A−1
 
−1 B11 −B11 22
A = −1 .
−A−1 −1
22 A21 B11 A−1 −1 −1
22 + A22 A21 B11 A12 A22

23
Chapitre 3

Espaces vectoriels

3.1 Espaces vectoriels et sous-espaces


Un espace vectoriel réel est un ensemble E, dont les éléments sont appelés vecteurs, muni des
opérations :
1. l’addition + : pour tout x, y ∈ E, x + y ∈ E,
2. la multiplication par un scalaire · : pour tout a ∈ R, pour tout x ∈ E, ax ∈ E,
telles que les propriétés suivantes sont vérifiées.
i) Pour tout x, y ∈ E, x + y = y + x.
ii) Pour tout x, y, z ∈ E, (x + y) + z = x + (y + z).
iii) Il existe 0 ∈ E, appelé vecteur nul, tel que pour tout x ∈ E, x + 0 = x.
iv) Pour tout x ∈ E, il existe −x ∈ E, appelé vecteur opposé, tel que x + (−x) = 0.
v) Pour tout a ∈ R, pour tout x, y ∈ E, a(x + y) = ax + ay.
vi) Pour tout a, b ∈ R, pour tout x ∈ E, (a + b)x = ax + bx.
vii) Pour tout a, b ∈ R, pour tout x ∈ E, (ab)x = a(bx).
viii) Pour tout x ∈ E, 1x = x.
Théorème 13. Soit E un espace vectoriel réel.
a) Le vecteur nul 0 ∈ E est unique.
b) Pour tout x ∈ E, le vecteur opposé −x est unique.
c) Pour tout x ∈ E, 0x = 0.
d) Pour tout a ∈ R, a0 = 0.
e) Pour a ∈ R, x ∈ E, si ax = 0, alors a = 0 ou x = 0.
f) Pour tout x ∈ E, (−1)x = −x.
Démonstration.
a) Supposons qu’il existe y ∈ E tel que pour tout x ∈ E, x + y = x. Par définition du vecteur
nul 0, y = 0 + y. Par définition du vecteur y, 0 + y = 0. Donc, y = 0.
b) Soit x ∈ E et supposons qu’il existe y ∈ E tel que x + y = 0. Par définition du vecteur
opposé −x, −x + x = 0. Donc, y = 0 + y = −x + x + y = −x + 0 = −x.
c) Pour tout x ∈ E, 0x + 0x = (0 + 0)x = 0x. Donc, 0x = 0 par unicité du vecteur nul 0.
d) Pour tout a ∈ R, a0 + a0 = a(0 + 0) = a0. Donc, a0 = 0 par unicité du vecteur nul 0.
e) Supposons que ax = 0. Si a ̸= 0 alors x = 1x = (a−1 a)x = a−1 (ax) = a−1 0 = 0.
f) Pour tout x ∈ E, x + (−1)x = (1 − 1)x = 0x = 0. Donc, (−1)x = −x par unicité du vecteur
opposé −x.

24
CHAPITRE 3. ESPACES VECTORIELS C. Bingane

Sous-espace vectoriel Soit E un espace vectoriel réel. Un ensemble non vide F ⊆ E est un sous-
espace de E si pour tout x, y ∈ F, pour tout a, b ∈ R, ax + by ∈ F.

Exemple 30. Soit une matrice A ∈ Rm×n .


a) Montrez que im A := {Ax | x ∈ Rn } est un sous-espace de Rm .
b) Montrez que ker A := {x ∈ Rn | Ax = 0} est un sous-espace de Rn .

Remarques.
1. {0} et E sont des sous-espaces de E, appelés sous-espaces triviaux.
2. Un sous-espace F ⊃ {0} est une droite vectorielle de E si pour tout sous-espace G ⊆ F, on a
G = {0} ou G = F.
3. Un sous-espace F ⊂ E est un hyperplan vectoriel de E si pour tout sous-espace G ⊇ F, on a
G = F ou G = E.

Théorème 14. Si F est un sous-espace de E, alors F est un espace vectoriel réel.

Démonstration. Soit F un sous-espace de E. Par définition d’un sous-espace, on a


i) x + y ∈ F pour tout x, y ∈ F ;
ii) ax ∈ F pour tout , a ∈ R, x ∈ F ;
iii) 0 = 0x ∈ F pour tout x ∈ F ;
iv) −x = (−1)x ∈ F pour tout x ∈ F.
Comme F ⊆ E, toutes les propriétés d’un espace vectoriel réel sont vérifiées dans F. Donc, F est un
espace vectoriel réel.

Théorème 15. Soient F et G deux sous-espaces de E.


a) F ∩ G est un sous-espace de E.
b) F + G := {x + y | (x, y) ∈ F × G} est un sous-espace de E.

Démonstration. Soient F et G deux sous-espaces de E.


a) Soient x, y ∈ F ∩ G et a, b ∈ R. Si x, y ∈ F ∩ G, alors x, y ∈ F ⇒ ax + by ∈ F. Aussi, si
x, y ∈ F ∩ G, alors x, y ∈ G ⇒ ax + by ∈ G. On a ax + by ∈ F ∩ G. Donc, F ∩ G est un
sous-espace de E.
b) Soient z, w ∈ F + G et a, b ∈ R. Comme z ∈ F + G, il existe (x, y) ∈ F × G tel que
z = x + y. De même pour w ∈ F + G, il existe (u, v) ∈ F × G tel que w = u + v. On a
az + bw = a(x + y) + b(u + v) = (ax + bu) + (ay + bv). Or, ax + bu ∈ F et ay + bv ∈ G.
Donc, az + bw ∈ F + G, i.e., F + G est un sous-espace de E.

Exemple 31. Soient F = {(x, 0) | x ∈ R} et G = {(0, y) | y ∈ R} deux sous-espaces de R2 . F ∪ G


est-il un sous-espace de R2 ?

Somme directe La somme F + G de deux sous-espaces F et G de E est dite directe si tout vecteur
z ∈ F + G se décompose de façon unique en z = x + y, où (x, y) ∈ F × G. On note la somme
directe F ⊕ G. Si F ⊕ G = E, on dit que F et G sont supplémentaires dans E.

Théorème 16. La somme F + G de deux sous-espaces F et G d’un espace vectoriel réel E est directe
ssi F ∩ G = {0}.

Démonstration.

25
C. Bingane CHAPITRE 3. ESPACES VECTORIELS

• Supposons que F + G = F ⊕ G. Soit z ∈ F ∩ G. Comme z ∈ F, il existe (z, 0) ∈ F × G


tel que z = z + 0. De même, comme z ∈ G, il existe (0, z) ∈ F × G tel que z = 0 + z. Par
unicité d’écriture, on doit avoir (z, 0) = (0, z) ⇒ z = 0. Donc, F ∩ G = {0}.
• Supposons que F ∩ G = {0}. Soit z ∈ F + G. Il existe (x, y) ∈ F × G tel que z = x + y.
Supposons qu’il existe (v, w) ∈ F × G tel que z = v + w. On a x + y = v + w ⇒ x − v =
w − y ∈ F ∩ G = {0} ⇒ (x, y) = (v, w). Donc, F + G = F ⊕ G.

Exemple 32. Soit a ∈ Rn \ {0}. Montrez que la droite vectorielle Da := {ta | t ∈ R} et l’hyperplan
vectoriel Ha := {x ∈ Rn | ⟨a, x⟩ = 0} sont supplémentaires dans Rn .

Combinaison linéaire Un vecteur x ∈ E est une combinaison linéaire de m vecteurs v 1 , . . . , v m ∈ E


s’il existe m scalaires a1 , . . . , am ∈ R tels que x = a1 v 1 + . . . + am v m . De façon générale, un vecteur
x ∈ E est une combinaison linéaire d’une famille P (v i )i∈I de vecteurs de E s’il existe une famille à
support fini (ai )i∈I de scalaires telle que x = i∈I ai v i .

Théorème 17. Soit (v i )i∈I une famille de vecteurs de E. L’ensemble

vect(v i )i∈I := {ai1 v i1 + . . . + aim v im | m ≥ 1, i1 , . . . , im ∈ I, ai1 , . . . , aim ∈ R}

est un sous-espace de E, appelé sous-espace engendré par les vecteurs v i , i ∈ I. De plus, vect(v i )i∈I
est le plus petit sous-espace de E contenant tous les vecteurs v i .

Démonstration. Soit (v i )i∈I une famille de vecteurs de E et soit F = vect(v i )i∈I .


• F est un sous-espace de E. Soient x, y ∈ F et a, b ∈P R. Comme x ∈ F, il existe une
famille à support fini (αi )i∈I de scalaires telle que x = i∈I P αi v i . De même pour y ∈ F,
il P
existe une famille
P à support P fini (βi )i∈I de scalaires y = i∈I βi v i . On a ax + by =
a i∈I αi v i + b i∈I βi v i = i∈I (aαi + bβi )v i . Or, (aαi + bβi )i∈I est une famille de scalaires
à support fini. Donc, ax + by ∈ F.
• F est le plus petit sous-espace de E contenant tous les vecteurs v i . Soit G un sous-espace de E
tel que v i ∈ G pour tout
Pi ∈ I. Si x ∈ F, alors il existe une famille à support fini (αi )i∈I de
P que x = i∈I αi v i . Comme G est un sous-espace de E et v i ∈ G pour tout i ∈ I,
scalaires telle
on a x = i∈I αi v i ∈ G. Donc, F ⊆ G.

On dit qu’une famille (v i )i∈I de vecteurs de E engendre E si vect(v i )i∈I = E. Si I est fini, on dit que
E est de dimension finie.

3.2 Indépendance linéaire, base et dimension


Indépendance linéaire Soit (v i )i∈I une famille de vecteurs d’un espace vectoriel réel E. On dit
, i ∈ I, sont linéairement indépendants
que la famille (v i )i∈I est libre (sur R) ou que les vecteurs v iP
(sur R) si pour une famille à support fini (ai )i∈I de scalaires, i∈I ai v i = 0 implique nécessairement
ai = 0 pour tout i ∈ I. Sinon, on dit que la famille (v i )i∈I est liée ou que les vecteurs v i , i ∈ I, sont
linéairement dépendants.

Exemple 33. Montrez que la famille (1, x, . . . , xn ) de monômes de Rn [x] est libre.

Théorème 18. Une famille (v i )i∈I de vecteurs de E est liée ssi il existe k ∈ I tel que v k ∈
vect(v i )i∈I\{k} .

26
CHAPITRE 3. ESPACES VECTORIELS C. Bingane

Démonstration.
• Supposons que la famille P (v i )i∈I est liée. Il existe une famille à support fini (ai )i∈I de scalaires
pas tous nuls telle que i∈I ai v i = 0. Il existe k ∈ I tel que
X ai
ak ̸= 0 ⇒ v k = − v i ⇒ v k ∈ vect(v i )i∈I\{k} .
ak
i∈I\{k}

• Supposons qu’il existe k ∈ I tel que v k ∈ vect(v i )i∈I\{k} . Il existe une famille à support fini
(ai )i∈I\{k} de scalaires telle que
X X
vk = ai v i ⇒ v k − ai v i = 0.
i∈I\{k} i∈I\{k}

La famille (v i )i∈I est liée.

Théorème 19. Si (v i )i∈I est une famille libre de vecteurs de E et (wj )j∈J est une famille qui
engendre E, alors |I| ≤ |J|.
Démonstration. Nous démontrons ce théorème pour le cas où I et J sont finis. Soient |I| = m et
|J| = n. Nous montrons par récurrence sur m que m ≤ n.
i) Soit m = 1 et soit E = vect(w1 , . . . , wn ). Comme v 1 ∈ E, il existe b1 , . . . , bn ∈ R tels que
v 1 = b1 w 1 + . . . + bn w n .
Comme v 1 ̸= 0, il existe j = 1, . . . , n tel que bj ̸= 0. Sans perte de généralité, supposons que
b1 ̸= 0. Alors
1
w1 = − (−v 1 + b2 w2 + . . . + bn wn )
b1
⇒ w1 ∈ vect(v 1 , w2 , . . . , wn )
⇒ E = vect(v 1 , w2 , . . . , wn ) ⇒ n ≥ 1.
ii) Supposons que E = vect(v 1 , . . . , v m−1 , wm , . . . , wn ). Comme v m ∈ E, il existe
a1 , . . . , am−1 , bm , . . . , bn ∈ R
tels que
v m = a1 v 1 + . . . + am−1 v m−1 + bm wm + . . . + bn wn .
Comme (v 1 , . . . , v m ) est libre, il existe j = m, . . . , n tel que bj ̸= 0. Sans perte de généralité,
supposons que bm ̸= 0. Alors
1
wm = − (a1 v 1 + . . . + am−1 v m−1 − v m + bm+1 wm+1 + . . . + bn wn )
bm
⇒ wm ∈ vect(v 1 , . . . , v m , wm+1 , . . . , wn )
⇒ E = vect(v 1 , . . . , v m , wm+1 , . . . , wn ) ⇒ n ≥ m.

Théorème 20. Soit E un espace vectoriel réel de dimension finie. Si F est un sous-espace de E, alors
F est de dimension finie.
Démonstration. Supposons que E = vect(v 1 , . . . , v n ) et soit F un sous-espace de E. Nous démontrons
par construction que F est de dimension finie.
i) Si F = {0}, alors F est de dimension finie. Sinon, F ⊃ {0} et il existe un vecteur non nul
w1 ∈ F.
ii) Pour k ≥ 2, si F = vect(w1 , . . . , wk−1 ), alors F est de dimension finie. Sinon, F ⊃
vect(w1 , . . . , wk−1 ) et il existe wk ∈ F tel que wk ̸∈ vect(w1 , . . . , wk−1 ).

27
C. Bingane CHAPITRE 3. ESPACES VECTORIELS

Base Une base de E est une famille libre qui engendre E.


Théorème 21. Tout espace vectoriel réel possède une base.
Exemple 34. Trouvez une base de Rn [x].
Théorème 22. Une famille (v i )i∈I de vecteurs de E est une base de P E ssi pour tout x ∈ E, il existe
une unique famille à support fini (ai )i∈I de scalaires telle que x = i∈I ai v i .
Démonstration. Soit une famille (v i )i∈I de vecteurs de E.
• Supposons que (v i )i∈I est une base de E. Comme (v i )i∈I engendre E, alors P pour tout x ∈ E,
il existe une famille à support fini (ai )i∈I de scalaires telle queP x = i∈I ai v i . S’il existe
une famille àP
P (bi )i∈I de scalaires telle que x = i∈I bi v i , alors 0 = x − x =
support fini P
a v
i∈I i i − b v
i∈I i i = i∈I (ai − bi )v i . Comme (v i )i∈I est libre, alors ai = bi pour tout
i ∈ I.
• Supposons quePpour tout x ∈ E, il existe une unique famille à support fini (ai )i∈I de scalaires
telle que x = i∈I ai v i . Alors (v i )i∈I engendre
P E. Aussi, (vPi )i∈I est libre dans E, car pour une
famille à support fini (ai )i∈I de scalaires, i∈I ai v i = 0 = i∈I 0v i implique nécessairement
ai = 0 pour tout i ∈ I par unicité d’écriture. Donc, (v i )i∈I est une base de E.

Théorème 23. Si (v i )i∈I et (wj )j∈J sont deux bases de E, alors |I| = |J|.
Démonstration. Par définition, (v i )i∈I est libre et (wj )j∈J engendre E. D’après le théorème 19,
|I| ≤ |J|. De même, |I| ≥ |J| car (v i )i∈I engendre E et (wj )j∈J est libre. Donc, |I| = |J|.

Dimension La dimension de E, dénotée dim E, est le nombre des vecteurs dans une base de E.
Exemple 35. Quelle est la dimension de Rn [x] ?
Propriétés. Soit dim E = n.
1. Si v 1 , . . . , v m ∈ E engendrent E, alors m ≥ n.
2. Si v 1 , . . . , v m ∈ E sont linéairement indépendants, alors m ≤ n.
3. Si v 1 , . . . , v n ∈ E engendrent E, alors ils forment une base de E.
4. Si v 1 , . . . , v n ∈ E sont linéairement indépendants, alors ils forment une base de E.
5. Si F est un sous-espace de E, alors dim F ≤ n et dim F = n ⇔ F = E.
6. Si F est un sous-espace de E et (v 1 , . . . , v m ) est une base de F avec m < n, alors il existe
n − m vecteurs v m+1 , . . . , v n ∈ E tels que (v 1 , . . . , v m , v m+1 , . . . , v n ) est une base de E.

n×n
Pn deux bases de E, alors il existe une matrice
7. Si (v 1 , . . . , v n ) et (w1 , . . . , wn ) sont Pn inversible
A = [aij ] ∈ R telle que v j = i=1 aij wi . De plus, pour tout x ∈ E, si x = j=1 xj v j =
P n
y
i=1 i i w , alors     
y1 a11 . . . a1n x1
 ..   .. . . .
..   ... 
.= . .
 
.
yn an1 . . . ann xn
Théorème 24. Si F et G sont deux sous-espaces de E, alors

dim(F + G) + dim(F ∩ G) = dim F + dim G.

Démonstration. Nous démontrons ce théorème pour le cas où F et G sont de dimension finie. Soit
dim F = m et dim G = n. Supposons que dim(F ∩ G) = r ≤ min{m, n}.

28
CHAPITRE 3. ESPACES VECTORIELS C. Bingane

• Soit (u1 , . . . , ur ) une base de F ∩ G. Comme F ∩ G ⊆ F, il existe v r+1 , . . . , v m ∈ F tels que

(u1 , . . . , ur , v r+1 , . . . , v m )

est une base de F. De même, comme F ∩ G ⊆ G, il existe wr+1 , . . . , wn ∈ G tels que

(u1 , . . . , ur , wr+1 , . . . , wn )

est une base de G.


• On a F = vect(u1 , . . . , ur , v r+1 , . . . , v m ) et G = vect(u1 , . . . , ur , wr+1 , . . . , wn ). Donc,

F + G = vect(u1 , . . . , ur , v r+1 , . . . , v m , wr+1 , . . . , wn ).

• La famille (u1 , . . . , ur , v r+1 , . . . , v m , wr+1 , . . . , wn ) est libre. Pour

a1 , . . . , ar , br+1 , . . . , bm , cr+1 , . . . , cn ∈ R,

on a
a1 u1 + . . . + ar ur + br+1 v r+1 + . . . + bm v m + cr+1 wr+1 + . . . + cn wn = 0
⇒ cr+1 wr+1 + . . . + cn wn = −a1 u1 − . . . − ar ur − br+1 v r+1 − . . . − bm v m
| {z } | {z }
∈G ∈F

⇒ cr+1 wr+1 + . . . + cn wn ∈ F ∩ G.

Il existe a′1 , . . . , a′r ∈ R tels que

cr+1 wr+1 + . . . + cn wn = a′1 u1 + . . . + a′r ur


⇒ −a′1 u1 − . . . − a′r ur + cr+1 wr+1 + . . . + cn wn = 0
⇒ −a′1 = . . . = −a′r = cr+1 = . . . = cn = 0.

Il suit que

a1 u1 + . . . + ar ur + br+1 v r+1 + . . . + bm v m + cr+1 wr+1 + . . . + cn wn = 0


| {z }
=0
⇒ a1 u1 + . . . + ar ur + br+1 v r+1 + . . . + bm v m = 0
⇒ a1 = . . . = ar = br+1 = . . . = bm = 0.

Donc, la famille (u1 , . . . , ur , v r+1 , . . . , v m , wr+1 , . . . , wn ) est une base de F + G, ce qui implique

dim(F + G) = r + (m − r) + (n − r) = m + n − r.

3.3 Sous-espaces associés à une matrice


Soit une matrice A ∈ Rm×n . On appelle
• espace des colonnes ou image de A le sous-espace im A := {Ax ∈ Rm | x ∈ Rn },
• noyau de A le sous-espace ker A := {x ∈ Rn | Ax = 0},
• espace des lignes ou coimage de A le sous-espace im AT := {AT y ∈ Rn | y ∈ Rm },
• conoyau de A le sous-espace ker AT := {y ∈ Rm | AT y = 0}.

29
C. Bingane CHAPITRE 3. ESPACES VECTORIELS

Exemple 36. Déterminez les 4 sous-espaces vectoriels associés à la matrice


 
1 −1 0
A= .
1 1 −2

Quelles sont leurs dimensions respectives ?


Remarque. Par définition du rang, pour tout A ∈ Rm×n , rg A = dim im A.
Théorème 25. Pour tout A ∈ Rm×n , rg A + dim ker A = n.
Démonstration. . Soit dim ker A = k et soit (v 1 , . . . , v k ) une base de ker A. Il existe v k+1 , . . . , v n ∈
Rn tels que (v 1 , . . . , v k , v k+1 , . . . , v n ) est une base de Rn . Montrons que (Av k+1 , . . . , Av n ) est une
base de im A.
i) (Av k+1 , . . . , Av n ) est libre sur R. En effet, pour ck+1 , . . . , cn ∈ R,

ck+1 Av k+1 + . . . + cn Av n = 0 ⇒ A(ck+1 v k+1 + . . . + cn v n ) = 0


⇒ ck+1 v k+1 + . . . + cn v n ∈ ker A.

Comme ker A = vect(v 1 , . . . , v k ), il existe c1 , . . . , ck ∈ R tels que

ck+1 v k+1 + . . . + cn v n = c1 v 1 + . . . + ck v k
⇒ −c1 v 1 − . . . − ck v k + ck+1 v k+1 + . . . + cn v n = 0.

Or, (v 1 , . . . , v k , v k+1 , . . . , v n ) est une base de Rn . Donc, −c1 = . . . = −ck = ck+1 = . . . =


cn = 0.
ii) (Av k+1 , . . . , Av n ) engendre im A. Pour tout y ∈ im A, il existe x ∈ Rn tel que y = Ax.
Comme (v 1 , . . . , v k , v k+1 , . . . , v n ) est une base de Rn , il existe c1 , . . . , ck , ck+1 , . . . , cn ∈ R tels
que
x = c1 v 1 + . . . + ck v k +ck+1 v k+1 + . . . + cn v n
| {z }
∈ker A
⇒ y = Ax = A(c1 v 1 + . . . + ck v k ) +A(ck+1 v k+1 + . . . + cn v n )
| {z }
=0
= ck+1 Av k+1 + . . . + cn Av n
⇒ y ∈ vect(Av k+1 , . . . , Av n ).
Donc, im A = vect(Av k+1 , . . . , Av n ).
D’où rg A = dim im A = n − k.
Théorème 26. Pour tout A ∈ Rm×n , pour tout B ∈ Rn×p , im(AB) ⊆ im A et ker B ⊆ ker(AB).
De plus, si rg B = n, alors im(AB) = im A et si rg A = n, alors ker B = ker(AB).
Démonstration. Soient A ∈ Rm×n et B ∈ Rn×p .
x=Bw
• Pour tout y ∈ im(AB), il existe w ∈ Rp tel que y = ABw = Ax ⇒ y ∈ im A. Donc,
im(AB) ⊆ im A.
• Pour tout w ∈ ker B, Bw = 0 ⇒ ABw = A0 = 0 ⇒ w ∈ ker(AB). Donc, ker B ⊆
ker(AB).
• Supposons que rg B = n, i.e., im B = Rn . Pour tout y ∈ im A, il existe x ∈ Rn tel que
y = Ax. Comme rg B = n, il existe w ∈ Rp tel que x = Bw ⇒ y = Ax = ABw. Donc,
im A ⊆ im(AB) ⇒ im A = im(AB).
• Supposons que rg A = n, i.e., ker A = {0}. Pour tout w ∈ ker(AB), ABw = 0. Comme
rg A = n, on doit avoir Bw = 0 ⇒ w ∈ ker B. Donc, ker(AB) ⊆ ker A ⇒ ker(AB) = ker A.

30
CHAPITRE 3. ESPACES VECTORIELS C. Bingane

Propriétés. Soit A ∈ Rm×n une matrice de rang r, soit U ∈ Rm×n une forme échelonnée de A, et soit
C ∈ Rm×m la matrice inversible telle que A = CU .
1. Les lignes non nulles u1· , . . . , ur· ∈ Rn de U forment une base de l’espace des lignes im AT .
2. Les solutions spéciales v r+1 , . . . , v n ∈ Rn de U x = 0 forment une base du noyau ker A.
3. Les colonnes a·j1 , . . . , a·jr ∈ Rm de A correspondant respectivement aux colonnes pivots
u·j1 , . . . , u·jr ∈ Rm de U forment une base de l’espace des colonnes im A.
4. Les colonnes c·1 , . . . , c·r ∈ Rm de C forment une base de l’espace des colonnes im A.
5. Les vecteurs er+1 , . . . , em ∈ Rm forment une base du conoyau im U T .
6. Les vecteurs wr+1 , . . . , wm ∈ Rm tels que C T wi = ei , i = r + 1, . . . , m, forment une base du
conoyau im AT .

3.4 Exercices
28. Montrez que l’ensemble donné, muni des opérations usuelles : l’addition + et la multiplication
par un scalaire ·, est un espace vectoriel réel.
a) L’ensemble Rn des vecteurs réels de dimension n
b) L’ensemble Rm×n des matrices réelles de dimension m × n
c) L’ensemble RN des suites réelles
d) L’ensemble Rn [x] des polynômes à coefficients réels de degré inférieur ou égal à n
e) L’ensemble R[x] des polynômes à coefficients réels
f) L’ensemble R[a,b] des fonctions réelles définies sur [a, b]
g) L’ensemble C 0 [a, b] des fonctions réelles continues sur [a, b]
h) L’ensemble C n [a, b] des fonctions réelles n fois continûment dérivables sur [a, b]

29. On munit E := {x = (xi ) ∈ Rn | x1 , . . . , xn > 0} des opérations suivantes :


1. l’addition ⊕ : pour tout x = (xi ), y = (yi ) ∈ E, x ⊕ y = (xi yi ) ∈ E,
2. la multiplication par un scalaire ⊙ : pour tout a ∈ R, x = (xi ) ∈ E, a ⊙ x = (xai ) ∈ E.
a) Montrez que E est un espace vectoriel réel.
b) Trouvez une base de E. Quelle est la dimension de E ?

30. Soit F un sous-ensemble d’un espace vectoriel réel E. Soit vect(F) l’ensemble de toutes les
combinaisons linéaires de vecteurs de F.
a) Montrez que vect(F) est un sous-espace de E.
b) Montrez que vect(F) est le plus petit sous-espace de E contenant F.

31. Soient F et G deux sous-espaces d’un espace vectoriel réel E.


a) Montrez que F + G est le plus petit sous-espace contenant F ∪ G.
b) Montrez que F ∪ G est un sous-espace de E ssi F ⊆ G ou G ⊆ F.

32. Soient F, G et H trois sous-espaces d’un espace vectoriel réel E.


a) Montrez que F + (G ∩ H) ⊆ (F + G) ∩ (F + H).
b) Montrez que F ∩ (G + H) ⊇ (F ∩ G) + (F ∩ H).

31
C. Bingane CHAPITRE 3. ESPACES VECTORIELS

33. Pour un entier n ≥ 1, on note Mn l’espace vectoriel réel des matrices carrées d’ordre n. Soit Sn
le sous-ensemble des matrices symétriques et Tn celui des matrices antisymétriques.
a) Montrez que Sn et Tn sont des sous-espaces de Mn .
b) Montrez que Mn = Sn ⊕ Tn .
34. On note F l’espace vectoriel réel des fonctions réelles. Soit G le sous-ensemble des fonctions
paires et H celui des fonctions impaires.
a) Montrez que G et H sont des sous-espaces de F.
b) Montrez que F = G ⊕ H.
35. Soit (v i )i∈I une famille de vecteurs d’un espace vectoriel réel E.
a) Montrez que si (v i )i∈I engendre E, alors toute famille (v i )i∈I + de vecteurs de E telle que I + ⊃ I
engendre E.
b) Montrez que si (v i )i∈I est libre, alors toute famille (v i )i∈I − de vecteurs de E telle que I − ⊂ I
est libre.
36. Montrez que si (v 1 , . . . , v n ) et (w1 , . . . , wm ) sont respectivement des bases de Rn et Rm , alors
les matrices wi v Tj , i = 1, . . . , m et j = 1, . . . , n, forment une base de Rm×n .
37. Pour un entier n ≥ 1, soit n + 1 nombres réels x0 < x1 < . . . < xn .
a) Pour tout i = 0, 1, . . . , n, on donne le polynôme de Lagrange
n
Y x − xj
ℓi (x) =
j=0,j̸=i
xi − xj

associé au nombre xi .
i) Montrez que les polynômes ℓi engendrent Rn [x].
ii) Montrez que les polynômes ℓi sont linéairement indépendants dans Rn [x].
b) On donne les polynômes de Newton

q0 (x) = 1,
i−1
Y
qi (x) = (x − xj ) ∀i = 1, 2, . . . , n.
j=0

i) Montrez que les polynômes qi engendrent Rn [x].


ii) Montrez que les polynômes qi sont linéairement indépendants dans Rn [x].
38. Trouvez une base pour chacun des quatre sous-espaces associés à la matrice
 
1 0 0  
1 1 1 1 1 6
1 0
 0 0 1 −2 0 .
A= 1 0 1
0 0 0 1 1
3 −4 −9

39. Trouvez une base pour chacun des quatre sous-espaces associés à la matrice
  
0 0 0 0 1 1 0 0  
1 0 0 0 0 1 1 0
   1 1 1 3
B= 0 1 0 0 0 1 −2 1 0 1 0 −4 .
  
0 0 1 0 0 6 0 1 0 0 1 −9
0 0 0 1 0 1 0 0

32
CHAPITRE 3. ESPACES VECTORIELS C. Bingane

40. Soient les matrices  


A  
X= et Y = B C ,
B
où A ∈ Rk×n , B ∈ Rm×n et C ∈ Rm×p .
a) Montrez que ker X = ker A ∩ ker B.
b) Montrez que im Y = im A + im B.

41. Soit une matrice A ∈ Rn×n .


a) Montrez que pour tout entier k ≥ 0, ker Ak ⊆ ker Ak+1 .
b) Montrez que s’il existe un entier k ≥ 0 tel que ker Ak = ker Ak+1 , alors pour tout entier m ≥ 1,
ker Ak = ker Ak+m .
c) Montrez que si A est une matrice nilpotente d’indice k, alors k ≤ n.

33
Chapitre 4

Orthogonalité

4.1 Produit scalaire et norme euclidienne


Produit scalaire Un produit scalaire sur un espace vectoriel réel E est une fonction ⟨·, ·⟩ : E 2 → R
telle que pour tout x, y, z ∈ E, pour tout a, b ∈ R,
i) ⟨x, y⟩ = ⟨y, x⟩,
ii) ⟨ax + by, z⟩ = a⟨x, z⟩ + b⟨y, z⟩,
iii) ⟨x, x⟩ > 0 si x ̸= 0.
Un espace vectoriel E muni d’un produit scalaire est appelé espace préhilbertien. Si E est réel et de
dimension finie, il est appelé espace euclidien.
Exemple 37. Montrez que la fonction ⟨·, ·⟩ donnée est un produit scalaire.
a) Pour tout x, y ∈ Rn , ⟨x, y⟩ := xT y.
b) Pour tout A, B ∈ Rm×n , ⟨A, B⟩ := tr(AT B).
Rb
c) Pour tout f, g ∈ C 0 [a, b], ⟨f, g⟩ := a f (t)g(t) dt.

Norme euclidienne Soit E un espace préhilbertien réel. La norme euclidienne d’un vecteur x ∈ E
est le nombre positif p
∥x∥ := ⟨x, x⟩.
Si ∥x∥ = 1, on dit que le vecteur x est unitaire.
Propriétés. Pour tout x, y ∈ E, pour tout a ∈ R,

1. ∥ax∥ = |a|∥x∥, 3. |⟨x, y⟩| ≤ ∥x∥∥y∥,


2. ∥x∥ = 0 ⇔ x = 0, 4. ∥x + y∥ ≤ ∥x∥ + ∥y∥.

Vecteurs orthogonaux On dit que deux vecteurs x, y ∈ E sont orthogonaux si ⟨x, y⟩ = 0.


Exemple 38. Soit E un espace préhilbertien réel. Montrez que deux vecteurs x, y ∈ E sont orthogo-
naux ssi ∥x + y∥2 = ∥x∥2 + ∥y∥2 .

4.2 Famille orthogonale et procédé de Gram-Schmidt


Famille orthogonale Soit E un espace préhilbertien réel. On dit qu’une famille (v i )i∈I de vecteurs
de E est orthogonale si v i ̸= 0 pour tout i et ⟨v i , v j ⟩ = 0 pour tout i ̸= j. Elle est orthonormale si
(
1 si i = j,
⟨v i , v j ⟩ = δij =
0 si i ̸= j.

34
CHAPITRE 4. ORTHOGONALITÉ C. Bingane

Théorème 27. Si une famille (v i )i∈I de vecteurs de E est orthogonale, alors elle est libre.
P
Démonstration. Soit i∈I ai v i = 0 pour une famille à support fini (ai )i∈I de scalaires. Pour tout
j ∈ I, * +
X X v j ̸=0
0 = ⟨0, v j ⟩ = ai v i , v j = ai ⟨v i , v j ⟩ = aj ∥v j ∥2 ⇒ aj = 0.
i∈I i∈I

Donc, (v i )i∈I est libre.

Théorème 28. Soit (ei )i∈I une famille orthonormale de vecteurs de E et soit F = vect(ei )i∈I .
a) (ei )i∈I est une base orthonormale de F.
P
b) Pour tout x ∈ F, x = i∈I ⟨x, ei ⟩ei .
P
c) Pour tout x, y ∈ F, ⟨x, y⟩ = i∈I ⟨x, ei ⟩⟨y, ei ⟩.
d) Pour tout x ∈ F, ∥x∥2 = i∈I ⟨x, ei ⟩2 .
P

Démonstration.
a) La famille (ei )i∈I est libre, donc une base de F.
P
b) Pour tout x ∈ F, il existe une famille à support fini (ai )i∈I de scalaires telle que x = i∈I ai e i .
Pour tout j ∈ I,
* +
X X
⟨x, ej ⟩ = ai e i , e j = ai ⟨ei , ej ⟩ = aj ∥ej ∥2 = aj .
i∈I i∈I

c) Pour tout x, y ∈ F,
* +
X X
⟨x, y⟩ = x, ⟨y, ei ⟩ei = ⟨y, ei ⟩⟨x, ei ⟩.
i∈I i∈I

d) Pour tout x ∈ F,
X X
∥x∥2 = ⟨x, x⟩ = ⟨x, ei ⟩⟨x, ei ⟩ = ⟨x, ei ⟩2 .
i∈I i∈I

Matrice orthogonale Une matrice Q ∈ Rn×n est dite orthogonale si QT Q = QQT = In . On dit
qu’une matrice Q ∈ Rm×n est semi-orthogonale si QT Q = In ou QQT = Im .

Exemple 39. Montrez que la matrice


 
cos θ − sin θ
Q=
sin θ cos θ

est orthogonale pour tout θ ∈ R.

Propriétés. Soit Q ∈ Rn×n une matrice orthogonale.


1. Q est inversible et Q−1 = QT .
2. Pour tout x, y ∈ Rn , ⟨Qx, Qy⟩ = ⟨x, y⟩.
3. Pour tout x ∈ Rn , ∥Qx∥ = ∥x∥.

35
C. Bingane CHAPITRE 4. ORTHOGONALITÉ

Procédé de Gram-Schmidt Le procédé de Gram-Schmidt, énoncé dans le théorème 29, est un


algorithme qui permet de construire, à partir d’une famille libre finie ou dénombrable de vecteurs d’un
espace préhilbertien, une famille orthogonale de vecteurs de ce même espace.

Théorème 29 (Procédé de Gram-Schmidt). Soit (v i )i≥1 une famille libre de vecteurs d’un espace
préhilbertien E. Si
w1 := v 1 ,
i−1
X ⟨v i , wj ⟩
wi := v i − wj , i ≥ 2,
j=1
∥wj ∥2

alors (wi )i≥1 est une famille orthogonale. De plus,

vect(w1 , . . . , wi ) = vect(v 1 , . . . , v i ),
⟨wi , v i ⟩ > 0

pour tout i ≥ 1.

Démonstration. Nous démontrons cet énoncé par récurrence sur i.


i) Pour i = 1, on a w1 = v 1 . Donc, (w1 ) est une famille orthogonale telle que vect(w1 ) = vect(v 1 )
et ⟨w1 , v 1 ⟩ = ∥w1 ∥2 > 0.
ii) Supposons que l’énoncé est vrai pour i−1, i.e., (w1 , . . . , wi−1 ) est une famille orthogonale telle
que vect(w1 , . . . , wj ) = vect(v 1 , . . . , v j ) et ⟨wj , v j ⟩ > 0 pour tout 1 ≤ j ≤ i − 1. Montrons
qu’il est vrai pour i. Soit
i−1
X ⟨v i , wj ⟩
wi = v i − 2
wj .
j=1
∥w j ∥

• Comme (v i )i≥1 est libre, on a v i ̸∈ vect(v 1 , . . . , v i−1 ) = vect(w1 , . . . , wi−1 ) ⇒ wi ̸= 0.


⟨v ,w ⟩
Pour tout 1 ≤ j ≤ i−1, ⟨wi , wj ⟩ = ⟨v i , wj ⟩− ∥wi j ∥j2 ∥wj ∥2 = 0. Comme (w1 , . . . , wi−1 )
est orthogonale, alors (w1 , . . . , wi ) est orthogonale.
Pi−1 ⟨vi ,wj ⟩
• Soit ui = j=1 ∥wj ∥2 w j ∈ vect(w 1 , . . . , w i−1 ) = vect(v 1 , . . . , v i−1 ). On a w i =
v i − ui ∈ vect(v 1 , . . . , v i ) ⇒ vect(w1 , . . . , wi ) ⊆ vect(v 1 , . . . , v i ) et v i = wi + ui ∈
vect(w1 , . . . , wi ) ⇒ vect(v 1 , . . . , v i ) ⊆ vect(w1 , . . . , wi ). Donc, vect(w1 , . . . , wi ) =
vect(v 1 , . . . , v i ).
⟨v i ,wj ⟩
• On a 0 < ∥wi ∥2 = ⟨wi , wi ⟩ = ⟨wi , v i ⟩ − i−1
P
j=1 ∥wj ∥2 ⟨w i , w j ⟩ = ⟨w i , v i ⟩.

Exemple 40. Trouvez une base orthonormale de R3 en appliquant le procédé de Gram-Schmidt sur la
base formée par les vecteurs v 1 = ( 12 , 61 , 13 ), v 2 = ( 13 , 21 , 16 ) et v 3 = ( 16 , 31 , 12 ).

Décomposition QR Si A = [a1 , . . . , an ] ∈ Rm×n est une matrice de rang n, alors il existe une
matrice semi-orthogonale Q = [q 1 , . . . , q n ] ∈ Rm×n et une matrice triangulaire supérieure R ∈ Rn×n
telles que A = QR. (q 1 , . . . , q n ) est la base orthonormale de im A obtenue de la base (a1 , . . . , an )
avec le procédé de Gram-Schmidt.

Exemple 41. Trouvez la décomposition QR de la matrice


1 1 1
2 3 6
A =  16 1
2
1
3
.
1 1 1
3 6 2

36
CHAPITRE 4. ORTHOGONALITÉ C. Bingane

4.3 Complément orthogonal


Sous-ensembles orthogonaux Soit E un espace préhilbertien réel. Deux sous-ensembles F et G
de E sont dits orthogonaux si
∀(x, y) ∈ F × G, ⟨x, y⟩ = 0.
Exemple 42. Montrez que pour tout A ∈ Rm×n , im A et ker AT sont orthogonaux.
Propriété. Si F et G sont deux sous-ensembles orthogonaux de E, alors F ∩ G ⊆ {0}.

Complément orthogonal On appelle complément orthogonal d’un sous-ensemble F de E le sous-


espace
F ⊥ := {y ∈ E | ∀x ∈ F, ⟨x, y⟩ = 0}.
Exemple 43. Montrez que pour tout A ∈ Rm×n , (im A)⊥ = ker AT .
Exemple 44. Trouvez le complément orthogonal de F = {(x, 0, 0) | x ∈ R} dans E = R3 .
Propriétés.
1. {0}⊥ = E et E ⊥ = {0}.
2. Pour tout F ⊆ E, F ∩ F ⊥ ⊆ {0} et F ⊆ (F ⊥ )⊥ .
3. Pour tout F ⊆ G ⊆ E, G ⊥ ⊆ F ⊥ .
4. Pour tout F, G ⊆ E, F ⊥ + G ⊥ ⊆ (F ∩ G)⊥ .
Théorème 30. Si F est un sous-espace de dimension finie de E, alors E = F ⊕ F ⊥ et F = (F ⊥ )⊥ .
Démonstration. Soit F un sous-espace de dimension finie de E.
i) Comme F est un sous-espace de E, on a F ∩F ⊥ = {0}. Soit (e1 , . . . , em ) une base orthonormale
de F. Pour tout x ∈ E, soit

v = ⟨x, e1 ⟩e1 + . . . + ⟨x, em ⟩em

et w = x − v. On a v ∈ F et pour tout i = 1, . . . , m,

⟨w, ei ⟩ = ⟨x, ei ⟩ − ⟨v, ei ⟩ = ⟨x, ei ⟩ − ⟨x, ei ⟩ = 0 ⇒ w ∈ F ⊥ .

Donc, E = F + F ⊥ ⇒ E = F ⊕ F ⊥ .
ii) On sait que F ⊆ (F ⊥ )⊥ et F ⊥ ∩(F ⊥ )⊥ = {0}. Soit x ∈ (F ⊥ )⊥ . Comme E = F ⊕F ⊥ , il existe
(v, w) ∈ F × F ⊥ tel que x = v + w. Comme v ∈ F ⊆ (F ⊥ )⊥ , on a w = x − v ∈ (F ⊥ )⊥ ⇒
w ∈ F ⊥ ∩ (F ⊥ )⊥ = {0} ⇒ w = 0 ⇒ x = v ∈ F. Donc, (F ⊥ )⊥ ⊆ F ⇒ (F ⊥ )⊥ = F.

Exemple 45. Montrez que pour tout A ∈ Rm×n , im A ⊕ ker AT = Rm .

4.4 Projection orthogonale


Soit E un espace préhilbertien réel et F un sous-espace de E. La projection orthogonale d’un vecteur
x ∈ E sur F, si elle existe, est un vecteur projF x ∈ F tel que x − projF x ∈ F ⊥ .
Exemple 46. Soit E un espace préhilbertien et soit v ∈ E. Si x ∈ E et F = vect(v), montrez que
(
0 si v = 0,
projF x = ⟨x,v⟩
∥v∥2
v sinon.

37
C. Bingane CHAPITRE 4. ORTHOGONALITÉ

Théorème 31. Soit F un sous-espace de E et soit x ∈ E.


a) Il existe au plus un vecteur projF x ∈ F tel que x − projF x ∈ F ⊥ .
b) Si projF x existe, alors ∥ projF x∥ ≤ ∥x∥.
c) Si x ∈ F, alors projF x = x.
d) Si x ∈ F ⊥ , alors projF x = 0.
e) Si F est de dimension finie, alors projF x existe.
f) Si (e1 , . . . , em ) est une base orthonormale de F, alors projF x = ⟨x, e1 ⟩e1 + . . . + ⟨x, em ⟩em .

Démonstration.
a) Supposons qu’il existe v ∈ F tel que x−v ∈ F ⊥ . On a v−projF x = (x−projF x)−(x−v) ∈
F ⊥ . Donc, v − projF x ∈ F ∩ F ⊥ = {0} ⇒ v = projF x.
b) Si projF x existe, alors x = (x − projF x) + projF x ⇒ ∥x∥2 = ∥x − projF x∥2 +
∥ projF x∥2 ⇒ ∥x∥ ≥ ∥ projF x∥.
c) Si x ∈ F, on peut écrire x = x + 0, avec x ∈ F et 0 ∈ F ⊥ . Si on pose projF x = x ∈ F, on
a x − projF x = 0 ∈ F ⊥ .
d) Si x ∈ F ⊥ , on peut écrire x = 0 + x, avec 0 ∈ F et x ∈ F ⊥ . Si on pose projF x = 0 ∈ F,
on a x − projF x = x ∈ F ⊥ .
e) Si F est dimension finie, alors E = F ⊕ F ⊥ . Il existe (v, w) ∈ F × F ⊥ tel que x = v + w et
⟨v, w⟩ = 0. Si on pose projF x = v ∈ F, on a x − projF x = v ∈ F ⊥ .
f) Supposons que projF x = a1 e1 + . . . + am em , où a1 , . . . , am ∈ R. Comme x − projF x ∈ F ⊥ ,
on doit avoir ⟨x − projF x, ei ⟩ = 0 ⇒ ⟨x, ei ⟩ − ai = 0 ⇒ ai = ⟨x, ei ⟩ pour tout i = 1, . . . , m.

Exemple 47. Trouvez la projection orthogonale de c = (2, 1, 0) sur l’image de la matrice


 
1 1
B = −1 1 .
0 −2

Matrice de projection orthogonale Une matrice P ∈ Rn×n est dite de projection orthogonale si
elle est idempotente et symétrique, i.e., P 2 = P = P T .

Exemple 48. Montrez que la matrice


 
cos2 θ cos θ sin θ
P =
cos θ sin θ sin2 θ

est de projection orthogonale pour tout θ ∈ R.

Propriétés. Soit P ∈ Rn×n une matrice de projection orthogonale.


1. In − P est une matrice de projection orthogonale et im P = ker(In − P ).
2. Pour tout x, y ∈ Rn , ⟨P x, P y⟩ = ⟨x, P y⟩ = ⟨P x, y⟩.
3. Pour tout x ∈ Rn , ∥P x∥ ≤ ∥x∥.

38
CHAPITRE 4. ORTHOGONALITÉ C. Bingane

Approximation au sens des moindres carrés Soit F un sous-espace de E et soit x ∈ E. On veut


trouver un vecteur v ∈ F qui minimise l’erreur quadratique ∥x − v∥. On démontre que si la projection
orthogonale projF x existe, alors elle est l’unique solution optimale.

Théorème 32. Soit F un sous-espace de E et soit x ∈ E. Si projF x existe, alors pour tout v ∈ F,
∥x − projF x∥ ≤ ∥x − v∥, avec égalité ssi v = projF x.

Démonstration. Supposons que projF x existe. Pour tout v ∈ F,

x − v = x − projF x + projF x − v ⇒ ∥x − v∥2 = ∥x − projF x∥2 + ∥ projF x − v∥2


| {z } | {z }
∈F ⊥ ∈F

⇒ ∥x − v∥ ≥ ∥x − projF x∥.

On voit qu’il y a égalité ssi v = projF x.

Exemple 49. Soit une matrice A ∈ Rm×n . Montrez que la projection orthogonale d’un vecteur y ∈ Rm
sur im A est ŷ = Ax̂, où x̂ est une solution de l’équation matricielle AT Ax = AT y.

Exemple 50. Trouvez un polynôme p(x) ∈ R1 [x] qui minimise −π (sin(x) − p(x))2 dx.

Pseudo-inverse Le pseudo-inverse d’une matrice A ∈ Rm×n est l’unique matrice A+ ∈ Rn×m telle
que

i) AA+ A = A, iii) (AA+ )T = AA+ ,


ii) A+ AA+ = A+ , iv) (A+ A)T = A+ A.

Exemple 51. Soit x ∈ R. Montrez que


(
+ 0 si x = 0,
x =
x−1 sinon.

Exemple 52. Montrez que si A est une matrice nulle, alors A+ = AT .

Propriétés. Soit A ∈ Rm×n .


1. (A+ )+ = A.
2. (AT )+ = (A+ )T .
3. Pour x ∈ R, (xA)+ = x+ A+ .
4. A+ A et AA+ sont des matrices de projection orthogonale.
5. im A = im(AA+ ) et ker A = ker(A+ A).
6. im A+ = im AT et ker A+ = ker AT .
7. Si A est de rang m, alors A+ = AT (AAT )−1 et si A est de rang n, alors A+ = (AT A)−1 AT .
8. Si A = BC, où B ∈ Rm×r et C ∈ Rr×n sont de rang r, alors A+ = C + B + .
9. Si A = BC, où B ∈ Rm×r , C ∈ Rr×n et B T B = Ir , alors A+ = C + B + = C + B T .
10. Si A = BC, où B ∈ Rm×r , C ∈ Rr×n et CC T = Ir , alors A+ = C + B + = C T B + .

Exemple 53. Calculez le pseudo-inverse de la matrice


 
1 −1 0
A= .
1 1 −2

39
C. Bingane CHAPITRE 4. ORTHOGONALITÉ

Théorème 33. Soit A ∈ Rm×n et b ∈ Rm .


a) Si x ∈ Rn , alors ∥AA+ b − b∥ ≤ ∥Ax − b∥, avec égalité ssi x = A+ b + ker A.
b) Si x = A+ b + ker A, alors ∥A+ b∥ ≤ ∥x∥, avec égalité ssi x = A+ b.

Démonstration.
a) Soit x ∈ Rn . On a

+ +
Ax − b = Ax
| −{zAA b} + AA
| {z b − b} ⇒ ∥Ax − b∥2 = ∥Ax − AA+ b∥2 + ∥AA+ b − b∥2
∈im A ∈ker A+ =ker AT
⇒ ∥Ax − b∥ ≥ ∥AA+ b − b∥.

On voit qu’il y a égalité ssi Ax = AA+ b ⇔ x = A+ b + ker A.


b) Si x = A+ b + ker A, alors

+
| −{zA b} +
x=x A+ b
|{z} ⇒ ∥x∥2 = ∥x − A+ b∥2 + ∥A+ b∥2
∈ker A ∈im A+ =im AT

⇒ ∥x∥ ≥ ∥A+ b∥.

On voit qu’il y a égalité ssi x = A+ b.

Exemple 54. On donne


   
1 1 2
B = −1 1 et c = 1 .

0 −2 0

Trouvez tous les vecteurs y = (y1 , y2 ) ∈ R2 qui minimisent ∥By − c∥.

Théorème 34. Soit A ∈ Rm×n et b ∈ Rm .


a) Le système linéaire Ax = b a au moins une solution ssi AA+ b = b.
b) Si AA+ b = b, alors la solution générale au système linéaire Ax = b est x = A+ b + (In −
A+ A)v, v ∈ Rn .

Démonstration.
a) S’il existe x ∈ Rn tel que Ax = b, alors AA+ b = AA+ Ax = Ax = b. Si AA+ b = b, alors il
existe x = A+ b tel que Ax = AA+ b = b.
b) Si AA+ b = b, alors la solution générale au système linéaire Ax = b est x = A+ b + ker A. Or,
ker A = ker(A+ A) = im(In − A+ A). Donc, x = A+ b + (In − A+ A)v, v ∈ Rn .

Exemple 55. Utilisez le pseudo-inverse pour résoudre le système linéaire



x1 − x2 = 0,
x1 + x2 − 2x3 = 2.

40
CHAPITRE 4. ORTHOGONALITÉ C. Bingane

4.5 Exercices
42. Montrez que si (v 1 , . . . , v n ) et (w1 , . . . , wm ) sont respectivement des bases orthonormales de
Rn et Rm , alors les matrices wi v Tj , i = 1, . . . , m et j = 1, . . . , n, forment une base orthonormale
de Rm×n .

43. Montrez que pour tout A ∈ Rm×n , ker A = ker(AT A) et im A = im(AAT ).

44. Soit A ∈ Rn×n une matrice normale, i.e., AT A = AAT . Démontrez les propositions suivantes.
a) ∥Ax∥ = ∥AT x∥ pour tout x ∈ Rn .
b) ker AT = ker A et im AT = im A.
c) ker Ak = ker A et im Ak = im A pour tout entier k ≥ 1.

une famille orthonormale de vecteurs d’un espace préhilbertien réel E. Montrez


45. Soit (e1 , . . . , en ) P
que pour tout x ∈ E, ni=1 ⟨x, ei ⟩2 ≤ ∥x∥2 , avec égalité ssi x ∈ vect(e1 , . . . , en ).

46. Pour un entier n ≥ 1, soient n + 1 nombres réels x0 < x1 < . . . < xn . Pour tout p, q ∈ Rn [x], soit

⟨p, q⟩ := p(x0 )q(x0 ) + p(x1 )q(x1 ) + . . . + p(xn )q(xn ).

a) Montrez que la fonction ⟨·, ·⟩ est un produit scalaire dans Rn [x].


b) Pour tout i = 0, 1, . . . , n, on donne le polynôme de Lagrange
n
Y x − xj
ℓi (x) =
j=0,j̸=i
xi − xj

associé au nombre xi . Montrez que les polynômes de Lagrange ℓi forment une base orthonormale
de Rn [x].
c) Avec le procédé de Gram-Schmidt, construisez une base orthogonale de Rn [x] à partir de la
base (1, x, . . . , xn ).
R1
47. On munit C 0 [−1, 1] du produit scalaire ⟨f, g⟩ := −1 f (t)g(t) dt pour tout f, g ∈ C 0 [−1, 1]. Avec
le procédé de Gram-Schmidt, construisez une base orthogonale du sous-espace Rn [x] à partir de la
base (1, x, . . . , xn ).

48. Soit (v i )i≥1 une famille libre de vecteurs d’un espace préhilbertien E. Montrez qu’il existe une
unique famille orthonormale (ei )i≥1 telle que vect(e1 , . . . , ei ) = vect(v 1 , . . . , v i ) et ⟨ei , v i ⟩ > 0
pour tout i ≥ 1.

49. Montrez que si A et B sont deux matrices orthogonales, alors AB est une matrice orthogonale.

50. On munit E = C 0 [−π, π] du produit scalaire ⟨f, g⟩ := −π f (t)g(t) dt pour tout f, g ∈ E. Pour
tout entier n ≥ 0, soit

Fn = vect(1, cos(x), . . . , cos(nx), sin(x), . . . , sin(nx)),

un sous-espace de E.
a) Montrez que la famille (1, cos(x), . . . , cos(nx), sin(x), . . . , sin(nx)) est orthogonale.
b) Montrez que Fn ⊂ Fn+1 pour tout n ≥ 0.
c) Trouvez la projection orthogonale fˆn d’une fonction f ∈ E sur Fn . La fonction fˆ est appelée
approximation de Fourier de f .

41
C. Bingane CHAPITRE 4. ORTHOGONALITÉ

51. Dans Rn×n , soient Sn le sous-espace des matrices symétriques et Tn le sous-espace des matrices
antisymétriques. Montrez que Sn⊥ = Tn .

52. Soit E un espace préhilbertien réel. Démontrez les propositions suivantes.


a) Pour tout F ⊆ E, F ⊥ = vect(F)⊥ .
b) Si F et G sont deux sous-espaces de E, alors (F + G)⊥ = F ⊥ ∩ G ⊥ .
c) Si F et G sont deux sous-espaces de dimension finie de E, alors (F ∩ G)⊥ = F ⊥ + G ⊥ .

53. Trouvez un polynôme p(x) ∈ R3 [x] qui minimise −π (sin(x) − p(x))2 dx.

54. Calculez le pseudo-inverse de la matrice A.


a) A = x, avec x ∈ Rn \ {0}.
b) A = yxT , avec x ∈ Rn \ {0} et y ∈ Rm \ {0}.

55. Montrez que si A ∈ Rn×n est une matrice inversible, alors A+ = A−1 .

56. Démontrez les propositions suivantes pour une matrice A ∈ Rm×n .


a) AT = AT AA+ = A+ AAT .
b) (AT A)+ = A+ (A+ )T et (AAT )+ = (A+ )T A+ .
c) (A+ A)+ = A+ A et (AA+ )+ = AA+ .

42
Chapitre 5

Déterminants

5.1 Propriétés
Soit une matrice A = (a1 , . . . , an ) ∈ Rn×n donnée par ses vecteurs lignes ai . Le déterminant de A
est le nombre réel
a11 a12 . . . a1n
a21 a22 . . . a2n
det A = |A| = .. .. . . ..
. . . .
an1 an2 . . . ann
qui vérifie les propriétés suivantes.
i) Pour tout 1 ≤ i ≤ n, si ai = xb + yc, où b, c ∈ Rn et x, y ∈ R, alors

det(. . . , ai , . . .) = x det(. . . , b, . . .) + y det(. . . , c, . . .).


i i i

ii) Pour tout 1 ≤ i < j ≤ n,

det(. . . , ai , . . . , aj , . . .) = − det(. . . , aj , . . . , ai , . . .).


i j i j

iii) det(e1 , . . . , en ) = 1.
De ces propriétés, on déduit que
iv) pour tout i, si ai = 0, alors det A = 0 ;
v) pour tout i < j, si ai = aj , alors det A = 0 ;
vi) pour tout i < j, pour tout λ ∈ R,

det A = det(. . . , ai , . . . , aj + λai , . . .) = det(. . . , ai + λaj , . . . , aj , . . .).


i j i j

Exemple 56. Calculez le déterminant de la matrice A ∈ Rn×n .


a) A est une matrice élémentaire.
b) A est une matrice diagonale.
c) A est une matrice triangulaire.

Exemple 57. Montrez que pour tout x ∈ R, A ∈ Rn×n , det(xA) = xn det A.

43
C. Bingane CHAPITRE 5. DÉTERMINANTS

Signature d’une permutation Pour un entier n ≥ 1, soit σ = (σ(1), . . . , σ(n)) une permutation de
{1, . . . , n}. On dit qu’un couple (i, j), i < j, est en inversion dans σ si σ(i) > σ(j). Si |σ| dénote le
nombre d’inversions dans σ, la signature de σ est ε(σ) := (−1)|σ| .
Propriétés. Soit un entier n ≥ 1.
1. Si σ est une permutation de {1, . . . , n} et Pσ = (eσ(1) , . . . , eσ(n) ), alors det Pσ = ε(σ).
2. Si σ et τ sont deux permutations de {1, . . . , n}, alors ε(σ ◦ τ ) = ε(σ)ε(τ ).
3. Si σ est une permutation de {1, . . . , n}, alors ε(σ −1 ) = ε(σ).

Théorème 35. Soit A = [aij ] ∈ Rn×n . Si σ = (σ(1), . . . , σ(n)) est une permutation de {1, . . . , n},
alors n
X Y
det A = ε(σ) ai,σ(i) ,
σ i=1

avec ε(σ) = det(eσ(1) , eσ(2) , . . . , eσ(n) ) = ±1.


Pn
Démonstration. Soit A = (a1· , . . . , an· ) ∈ Rn×n . Pour tout i = 1, . . . , n, ai· = j=1 aij ej . On a
!
X
det A = det(a1· , . . . , an· ) = det a1j1 ej1 , a2· , . . . , an·
1≤j1 ≤n
!
X X X
= a1j1 det(ej1 , a2· , . . . , an· ) = a1j1 det ej1 , a2j2 ej2 , . . . , an·
1≤j1 ≤n 1≤j1 ≤n 1≤j2 ≤n
X X
= a1j1 a2j2 det(ej1 , ej2 , a3· , . . . , an· )
1≤j1 ≤n 1≤j2 ≤n
X
= ... = a1j1 . . . anjn det(ej1 , . . . , ejn ).
1≤j1 ,...,jn ≤n

Or, det(ej1 , . . . , ejn ) est non nul si (j1 , . . . , jn ) est une permutation σ de {1, . . . , n}. Donc,

X n
Y
det A = det(eσ(1) , . . . , eσ(n) ) ai,σ(i) .
σ i=1

Théorème 36. Pour tout A ∈ Rn×n , det AT = det A.

Démonstration. Soit A = [aij ] ∈ Rn×n . On a AT = [a′ji ] ∈ Rn×n , où a′ji = aij . On calcule


n n n
X Y a′ji =aij X Y X Y
det AT = ε(σ) a′j,σ(j) = ε(σ) aσ(j),j = ε(σ −1 ) ai,σ−1 (i) = det A.
σ j=1 σ j=1 σ −1 j=1

Exemple 58. Soit A ∈ Rn×n une matrice antisymétrique. Montrez que si n est impair alors det A = 0.

Exemple 59. Soit une matrice A ∈ Rn×n .


a) Montrez que pour toute matrice élémentaire E ∈ Rn×n , det(EA) = det E det A.
b) Montrez que pour toute matrice de permutation P ∈ Rn×n , det(P A) = det P det A.

Théorème 37. Pour tout A, B ∈ Rn×n , det(AB) = det A det B.

44
CHAPITRE 5. DÉTERMINANTS C. Bingane

Pn
Démonstration. Soit AB = (c1· , . . . , cn· ) ∈ Rn×n . Pour tout i = 1, . . . , n, ci· = j=1 aij bj· . On a
!
X
det(AB) = det(c1· , . . . , cn· ) = det a1j1 bj1 · , c2· , . . . , cn·
1≤j1 ≤n
X X
= a1j1 det(bj1 · , c2· , . . . , cn· ) = . . . = a1j1 . . . anjn det(bj1 · , . . . , bjn · )
1≤j1 ≤n 1≤j1 ,...,jn ≤n
X n
Y X n
Y
= det(bσ(1),· , . . . , bσ(n),· ) ai,σ(i) = det(P B) ai,σ(i)
| {z } i=1 | {zσ }
σ σ i=1
=Pσ B =det Pσ det B
X Y n
= det B det Pσ ai,σ(i) = det B det A.
σ i=1

Exemple 60. Montrez que si A est inversible, alors det A−1 = det−1 A.

Théorème 38. a1 , . . . , an ∈ Rn sont linéairement dépendants ssi det(a1 , . . . , an ) = 0.

Démonstration. Soient a1 , . . . , an ∈ Rn .
• Supposons
Pn que a1 , . . . , an sont linéairement dépendants. Il existe i = 1, . . . , n tel que ai =
j=1,j̸=i j aj , où xj ∈ R. On a
x
n
X
det(a1 , . . . , ai−1 , ai , ai+1 , . . . , an ) = xj det(a1 , . . . , ai−1 , aj , ai+1 , . . . , an )
j=1,j̸=i
X n
= xj · 0 = 0.
j=1,j̸=i

• Supposons que a1 , . . . , an sont linéairement indépendants. La matrice A = (a1 , . . . , an ) est


inversible. Donc, 1 = det In = det(AA−1 ) = det A det A−1 ⇒ det A = det(a1 , . . . , an ) ̸= 0.

Exemple 61. Déterminez si les vecteurs v 1 = ( 12 , 16 , 31 ), v 2 = ( 16 , 12 , 13 ) et v 3 = ( 13 , 16 , 12 ) sont


linéairement indépendants.

5.2 Cofacteurs
Soit A = [aij ] ∈ Rn×n . Pour tout i, j = 1, . . . , n, soit Aij la sous-matrice carrée déduite de A en sup-
primant la i-ième ligne et la j-ième colonne. On définit le cofacteur de aij par cij = (−1)i+j det(Aij ).
La matrice des cofacteurs com A = [cij ] ∈ Rn×n est appelée comatrice de A.

Exemple 62. Calculez la comatrice de la matrice


1 1 1

2 3 6
A= 1 1 1
.
6 2 3
1 1 1
3 6 2

Exemple 63. Soit une matrice A = [aij ] ∈ Rn×n telle que a1j = 0 pour tout j = 2, . . . , n. Montrez
que det A = a11 c11 , où c11 = det A11 est le cofacteur de a11 .

45
C. Bingane CHAPITRE 5. DÉTERMINANTS

Théorème 39. Soit A = P [aij ] ∈ Rn×n . Pour tout i, j = 1, . . . , n, soit cij le cofacteur
P de aij . Pour
tout i = 1, . . . , n, det A = nj=1 aij cij . De même, pour tout j = 1, . . . , n, det A = ni=1 aij cij .
Démonstration. Pour tout i = 1, . . . , n,
det A = det(a1· , . . . , ai−1,· , ai· , ai+1,· , . . . , an· )
= (−1)i−1 det(ai· , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ).
Or,
n
!
X
det(ai· , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ) = det aij ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an·
j=1
n
X
= aij det(ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ).
j=1

Pour tout j = 1, . . . , n,
0 ... 0 1 0 ... 0
a11 ... a1,j−1 a1j a1,j+1 ... a1n
.. .. .. .. ..
. . . . .
det(ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ) = ai−1,1 . . . ai−1,j−1 ai−1,j ai−1,j+1 . . . ai−1,n
ai+1,1 . . . ai+1,j−1 ai+1,j ai+1,j+1 . . . ai+1,n
.. .. .. .. ..
. . . . .
an1 . . . an,j−1 anj an,j+1 . . . ann
1 0 ... 0 0 ... 0
a1j a11 ... a1,j−1 a1,j+1 ... a1n
.. .. .. .. ..
. . . . .
= (−1)j−1 ai−1,j ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
ai+1,j ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. .. ..
. . . . .
anj an1 . . . an,j−1 an,j+1 . . . ann
a11 ... a1,j−1 a1,j+1 ... a1n
.. .. .. ..
. . . .
ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
= (−1)j−1 = (−1)j−1 det Aij .
ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. ..
. . . .
an1 . . . an,j−1 an,j+1 . . . ann
Donc,
n
X n
X n
X
i−1 j−1 i+j
det A = (−1) aij (−1) det Aij = aij (−1) det Aij = aij cij .
j=1 j=1 j=1
Pn
Sachant que det AT = det A, on a det A = i=1 aij cij pour tout j = 1, . . . , n.
Exemple 64. Calculez le déterminant de la matrice
1 1 1

2 3 6
A= 1 1 1
6 2 3
1 1 1
3 6 2

en utilisant les cofacteurs.

46
CHAPITRE 5. DÉTERMINANTS C. Bingane

Théorème 40. Pour tout A ∈ Rn×n , A(com A)T = (com A)T A = det(A)In . De plus
a) si A est inversible, alors com A = det(A)(A−1 )T ;
b) si rg A = n − 1, alors rg(com A) = 1 et com A = yxT , avec x ∈ ker A et y ∈ ker AT ;
c) si rg A ≤ n − 2, alors com A = On .

Démonstration. Soit A = [aij ] ∈ Rn×n et com A = [cijP ] la comatrice de A. Soit


Pn D = A(com A) =
T
′ T ′ n ′
[dik ] et D = (com A) A = [dik ]. Pour tout i, k, dik = j=1 aij ckj et dik = j=1 aji cjk . D’après le
théorème 39, on peut écrire
(
det A si i = k,
dik = det(a1· , . . . , ak−1,· , ai· , ak+1,· , . . . , an· ) =
0 sinon,
(
det A si i = k,
d′ik = det[a·1 , . . . , a·,k−1 , ai· , a·,k+1 , . . . , a·n ] =
0 sinon,

Donc, D = D′ = det(A)In .
a) Si A est inversible, on a A(com A)T = det(A)In ⇒ com A = det(A)(A−1 )T .
b) Si rg A = n − 1, on a det A = 0 ⇒ A(com A)T = On ⇒ im(com A)T ⊆ ker A ⇒
rg(com A) ≤ dim ker A = 1. Comme rg A = n − 1, il existe i, j tels que det Aij ̸= 0. Donc,
com A ̸= On ⇒ rg(com A) = 1. On peut écrire alors com A = yxT , où x, y ∈ Rn \ {0}.
Comme A(com A)T = On , on doit avoir x ∈ ker A et y ∈ ker AT .
c) Si rg A ≤ n − 2, alors pour tout i, j, det Aij = 0. Donc, com A = On .

Exemple 65. Calculez la matrice inverse de la matrice


1 1 1

2 3 6
A= 1 1 1
6 2 3
1 1 1
3 6 2

en utilisant les cofacteurs.

Propriétés.
1. Pour tout A ∈ Rn×n , com AT = (com A)T et det(com A) = detn−1 A.
2. Pour tout A ∈ Rn×n , pour tout x ∈ R, com(xA) = xn−1 com A.
3. Pour tout A, B ∈ Rn×n , com(AB) = com A com B.

5.3 Applications
Théorème 41 (Règle de Cramer). Soit A = [a1 , . . . , an ] ∈ Rn×n et soit b ∈ Rn . Si A est inversible,
alors l’unique solution x = (x1 , . . . , xn ) au système linéaire a1 x1 + . . . + an xn = b est donnée par

det[a1 , . . . , aj−1 , b, aj+1 , . . . , an ]


xj =
det[a1 , . . . , aj−1 , aj , aj+1 , . . . , an ]

pour tout j = 1, . . . , n.

47
C. Bingane CHAPITRE 5. DÉTERMINANTS

Démonstration. Soit A = [aij ] ∈ Rn×n et com A = [cij ] la comatrice de A. Si A est inversible, alors
A)T A)T b
A−1 = (com
det A
et l’unique solution du système linéaire Ax = b est x = A−1 b = (comdet A
. D’après
le théorème 39, on peut écrire
n
X
xj det A = bi cij = det[a1 , . . . , aj−1 , b, aj+1 , . . . , an ]
i=1

pour tout j = 1, . . . , n.

Exemple 66. Résoudre le système d’équations linéaires


1
 2 x1 + 31 x2 + 16 x3 = 1
3
,
1
x1 + 21 x2 + 13 x3 = 1
,
 61 3
x + 61 x2 + 12 x3 =
3 1
1
3

en utilisant la règle de Cramer.


m
Théorème 42. Soit n vecteurs linéairement indépendants a1 , . . . , an ∈ Rp . L’hypervolume de
dimension n du parallélotope {a1 x1 + . . . + an xn | x1 , . . . , xn ∈ [0, 1]} est det(AT A), où A =
[a1 , . . . , an ] ∈ Rm×n . En particulier si m = n, ce volume vaut | det A|.

Démonstration. Soit A = [a1 , . . . , an ] ∈ Rm×n , soit P(A) le parallélotope engendré par les vecteurs
colonnes de A et soit Vn (P(A)) l’hypervolume de dimension n de P(A). Comme a1 , . . . , an sont
linéairement indépendants, il existe une matrice semi-orthogonale Q ∈ Rm×n et une matrice triangu-
laire supérieure R ∈ Rn×n telles que A = QR. La matrice Q représente une transformation unitaire
n m
p R vers R , i.e., Vn (P(A)) = VnT(P(R)). D’une part,
de Vn (P(R)) = |r11 | . . . |rnn | = | det R| =
det(RT R). D’autre part, comme Q Q = In , on a RT R = RT QT QR T
√ = A A. Donc, Vn (P(A)) =
p p
det(AT A). En particulier, si m = n, Vn (P(A)) = det(AT A) = det2 A = | det A|.

Exemple 67. Calculez le volume du parallélépipède engendré par les vecteurs v 1 = ( 12 , 16 , 31 ), v 2 =


( 16 , 12 , 31 ) et v 3 = ( 13 , 16 , 12 ).

5.4 Exercices
57. Pour la matrice A = [aij ] ∈ Rn×n donnée, calculez det A et com A.

a) aij = min{i, j} b) aij = max{i, j}

58. Soit A ∈ Rn×n une matrice idempotente. Montrez que det A ∈ {0, 1} et det A = 1 ssi A = I.

59. On considère la matrice tridiagonale


 
a1 b 1 0 ... 0 0 0
 c 1 a2 b 2 ... 0 0 0
 
 0 c 2 a3 ... 0 0 0
 
Tn =  ... ... ... .. .. .. ..
 
. . . .

 
0 0 0 . . . an−2 bn−2 0 
 
0 0 0 . . . cn−2 an−1 bn−1 
0 0 0 ... 0 cn−1 an

pour un entier n ≥ 1. Montrez que |Tn | = an |Tn−1 | − bn−1 cn−1 |Tn−2 | pour tout n ≥ 3.

48
CHAPITRE 5. DÉTERMINANTS C. Bingane

60. Pour un entier n ≥ 1, soit la matrice


 
a1 b . . . b b
 c a2 . . . b b
 
An =  ... ... . . . .. .. 

 . .
 c c . . . an−1 b 
c c ... c an

avec a1 , . . . , an , b, c ∈ R. Si pn (λ) = ni=1 (ai − λ), montrez que


Q

(
bpn (c)−cpn (b)
b−c
si b ̸= c,
|An | = ′
pn (b) − bpn (b) si b = c.

61. Pour un entier n ≥ 1, calculez le déterminant de la matrice de Vandermonde


 
1 x0 . . . xn0
1 x1 . . . xn 
1
Vn =  .. .. . . . ,

. . . .. 
1 xn . . . xnn

où x0 , x1 , . . . , xn ∈ R.
62. Pour un entier n ≥ 1, calculez le déterminant de la matrice de Hilbert
 
1 21 . . . 1
n
1 1
. . . 1 
2 3 n+1 
Hn =  .. .. .. ..  .
. . . . 
1 1 1
n n+1
... 2n−1

63. Pour un entier n ≥ 1, calculez le déterminant de la matrice circulante


 
c0 c1 . . . cn−1
cn−1 c0 . . . cn−2 
Cn =  .. ..  ,
 
.. . .
 . . . . 
c1 c2 . . . c0

où c0 , c1 , . . . , cn−1 ∈ R.
64. Montrez que n fonctions y1 , y2 , . . . , yn ∈ C n [a, b] sont linéairement indépendantes ssi il existe
a < t < b tel que
y1 (t) y2 (t) ... yn (t)

y1 (t) y2′ (t) ... yn′ (t)
W (t) := .. .. .. .. ̸= 0.
. . . .
(n−1) (n−1) (n−1)
y1 (t) y2 (t) . . . yn (t)
65. On donne n vecteurs v 1 , . . . , v n d’un espace préhilbertien réel. Soit la matrice de Gram
 
⟨v 1 , v 1 ⟩ ⟨v 1 , v 2 ⟩ . . . ⟨v 1 , v n ⟩
 ⟨v 2 , v 1 ⟩ ⟨v 2 , v 2 ⟩ . . . ⟨v 2 , v n ⟩ 
G(v 1 , . . . , v n ) := 
 
.. .. . . .. 
 . . . . 
⟨v n , v 1 ⟩ ⟨v n , v 2 ⟩ . . . ⟨v n , v n ⟩

associée aux vecteurs v 1 , . . . , v n .

49
C. Bingane CHAPITRE 5. DÉTERMINANTS

a) Montrez que v 1 , . . . , v n sont linéairement indépendants ssi le déterminant de Gram |G(v 1 , . . . , v n )|


est non nul.
b) Montrez que si v 1 , . . . , v n sont linéairement indépendants alors |G(v 1 , . . . , v n )| > 0.

66. Pour un entier n ≥ 1, soit A = [aij ] ∈ R2n×2n une matrice antisymétrique. Montrez que

n
!2
X Y
det A = ε(σ) aσ(2i−1),σ(2i) .
σ i=1

67. On donne  
A11 A12
A= ,
A21 A22
où Aij ∈ Rνi ×νj pour tout i, j = 1, 2.
a) Montrez que si A12 = Oν1 ,ν2 ou A21 = Oν2 ,ν1 , alors det A = det(A11 ) det(A22 ).
b) Montrez que si A11 est inversible, alors det A = det(A11 ) det(A22 − A21 A−1
11 A12 ).
c) Montrez que si A22 est inversible, alors det A = det(A22 ) det(A11 − A12 A−1
22 A21 ).

68. Soit A = [aij ] ∈ Rn×n . Montrez que pour tout i = 1, . . . , n, det A = aii det(Aii )−cTi (com Aii )T bi ,
où Aii est la sous-matrice obtenue de A en supprimant la i-ème ligne et la i-ème colonne, b =
(a1i , . . . , ai−1,i , ai+1,i , . . . , ani ) et c = (ai1 , . . . , ai,i−1 , ai,i+1 , . . . , ain ).

50
Chapitre 6

Valeurs propres et vecteurs propres

6.1 Valeurs propres et vecteurs propres


Valeur propre et vecteur propre Soit une matrice A ∈ Rn×n . Un nombre λ ∈ R est une valeur
propre de A ∈ Rn×n s’il existe un vecteur x ∈ Rn \ {0} qui vérifie Ax = λx. Le vecteur x est appelé
vecteur propre de A associé à la valeur propre λ.

Sous-espace propre Si λ ∈ R est une valeur propre de A ∈ Rn×n , alors ker(A − λIn ) est appelé
sous-espace propre de A associé à la valeur propre λ.

Théorème 43. Soit une matrice A ∈ Rn×n . Les propositions suivantes sont équivalentes.
a) λ ∈ R est une valeur propre de A.
b) ker(A − λIn ) ⊃ {0}.
c) det(A − λIn ) = 0.

Démonstration.
a) ⇒ b) : Si λ ∈ R est une valeur propre de A, alors il existe x ∈ Rn \ {0} tel que Ax = λx ⇒
(A − λIn )x = 0 ⇒ ker(A − λIn ) ⊃ {0}.
b) ⇒ c) : Si ker(A − λIn ) ⊃ {0}, alors rg(A − λIn ) < n ⇒ det(A − λIn ) = 0.
c) ⇒ a) : Si det(A − λIn ) = 0, alors il existe x ∈ Rn \ {0} tel que (A − λIn )x = 0 ⇒ Ax = λx.
Donc, λ est une valeur propre de A.

Polynôme caractéristique Les valeurs propres de A ∈ Rn×n sont les racines du polynôme pA (t) :=
det(A − tIn ) de degré n, appelé polynôme caractéristique de A.
Propriétés. Soit A ∈ Rn×n .
1. pAT = pA .
2. Si B ∈ Rn×n est une matrice inversible, alors pB −1 AB = pA .
3. Si A possède n valeurs propres λ1 , . . . , λn , alors tr A = ni=1 λi et det A = ni=1 λi .
P Q

Exemple 68. On donne  


0 1
A= .
1 0
a) Trouvez les valeurs propres de A.
b) Pour chaque valeur propre, donnez un vecteur propre associé.

51
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES

c) Calculez pA (A).
Théorème 44. Si v 1 , . . . , v k ∈ Rn sont des vecteurs propres d’une matrice A ∈ Rn×n associés
respectivement aux valeurs propres distinctes λ1 , . . . , λk ∈ R, alors ils sont linéairement indépendants.
Démonstration. Nous démontrons cet énoncé par récurrence sur k.
i) Pour k = 1, v 1 ̸= 0 est linéairement indépendant.
ii) Supposons que l’énoncé est vrai pour k − 1, i.e., v 1 , . . . , v k−1 sont linéairement indépendants.
Montrons qu’il est vrai pour k. Pour c1 , . . . , ck ∈ R, soit l’équation vectorielle
c1 v 1 + . . . + ck v k = 0.
D’une part,
0 = A0 = A(c1 v 1 + . . . + ck v k ) = c1 Av 1 + . . . + ck Av k = c1 λ1 v 1 + . . . + ck λk v k .
D’autre part,
0 = λk 0 = λk (c1 v 1 + . . . + ck v k ) = c1 λk v 1 + . . . + ck λk v k .
Il suit que c1 (λk −λ1 )v 1 +. . .+ck−1 (λk −λk−1 )v k−1 = 0. Comme v 1 , . . . , v k−1 sont linéairement
indépendants et λ1 , . . . , λk sont deux à deux distinctes, on a
k v ̸=0
c1 = . . . = ck−1 = 0 ⇒ c1 v 1 + . . . + ck v k = ck v k = 0 ⇒ ck = 0.
Donc, v 1 , . . . , v k sont linéairement indépendants.

6.2 Diagonalisation
Matrice diagonalisable Une matrice A ∈ Rn×n est diagonalisable sur R s’il existe une matrice
inversible S ∈ Rn×n et une matrice diagonale Λ ∈ Rn×n telles que A = SΛS −1 . On dit que S
diagonalise A sur R.

Multiplicité d’une valeur propre Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . On
définit
• la multiplicité algébrique de λ par l’ordre de multiplicité m de λ comme racine dans le polynôme
caractéristique de A,
• la multiplicité géométrique de λ par la dimension d du sous-espace propre associé.
Théorème 45. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . Si m est sa multiplicité
algébrique et d sa multiplicité géométrique, alors 1 ≤ d ≤ m.
Démonstration. Soit λ ∈ R une valeur propre de A ∈ Rn×n de multiplicité algébrique m et de
multiplicité géométrique d = dim ker(A − λIn ). Soit (v 1 , . . . , v d ) une base de ker(A − λIn ). Il existe
v d+1 , . . . , v n ∈ Rn tels que (v 1 , . . . , v d , v d+1 , . . . , v n ) est une base de Rn . Considérons la matrice
inversible
V = [v 1 , . . . , v d , v d+1 , . . . , v n ].
D’une part,  
−1 λId B
V AV = ,
On−d,d C
où B ∈ Rd×(n−d) et C ∈ R(n−d)×(n−d) . D’autre part,
pA (t) = pV −1 AV (t) = det(V −1 AV − tIn ) = (λ − t)d det(C − tIn−d ).
Donc, m ≥ d.

52
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane

Théorème 46. Soit une matrice A ∈ Rn×n . Les propositions suivantes sont équivalentes.
a) A est diagonalisable sur R.
b) A possède n vecteurs propres linéairement indépendants.
c) Si λ1 , . . . , λk ∈ R sont les valeurs propres distinctes de A de multiplicités algébriques respectives
m1 , . . . , mk et de multiplicités géométriques respectives d1 , . . . , dk , alors ki=1 mi = n et pour
P
tout i = 1, . . . , k, di = mi .

Démonstration. Soit A ∈ Rn×n .


a) ⇒ b) : Supposons que A est diagonalisable sur R. Il existe une matrice inversible S = [v 1 , . . . , v n ]
et une matrice diagonale Λ = diag(λ1 , . . . , λn ) telles que AS = SΛ. Pour tout i = 1, . . . , n, on
a Av i = λv i et v i ̸= 0, i.e., v i est un vecteur propre de A. Comme S est inversible, les vecteurs
v 1 , . . . , v n sont linéairement indépendants.
b) ⇒ c) : Supposons que A possède n vecteurs propres v 1 , . . . , v n linéairement indépendants. Pour
tout i = 1, . . . , n, il existe une valeur propre λi ∈ R tel que Av i = λi v i . Soient λi1 , . . . , λik
les valeurs propres distinctes de A. Pour tout j = 1, . . . , k, la multiplicité algébrique de λij
est mj = |{i | λi = λij }| et sa multiplicité géométrique dj = dim vect{v i | Av i = λij v i }.
Comme A possède n valeurs propres, on a kj=1 mj = n et comme les vecteurs v 1 , . . . , v n sont
P
linéairement indépendants, on a dj = mj pour tout j = 1, . . . , k.
c) ⇒ a) : Soient λ1 , . . . , λk ∈ R les valeurs propres distinctes de A de multiplicités algébriques
respectives
Pk m1 , . . . , mk et de multiplicités géométriques respectives d1 , . . . , dk . Supposons
i=1 m i = n et pour tout i = 1, . . . , k, di = mi . Pour tout i = 1, . . . , k, soit (v i1 , . . . , v imi ) une
base de ker(A − λi In ) et soit la matrice Si := [v i1 , . . . , v imi ] ∈ Rn×mi . Comme λ1 , . . . , λk sont
distinctes, la matrice S := [S1 , . . . , Sk ] ∈ Rn×n est inversible. On a AS = [AS1 , . . . , ASk ] =
[λ1 S1 , . . . , λk Sk ] = ΛS, où Λ = diag(λ1 Im1 , . . . , λk Imk ). Donc, A est diagonalisable.

Exemple 69. Diagonalisez la matrice A sur R si possible.


    
1 0 −1 1 3 −2
a) A = b) A = c) A =
3 −1 −1 1 5 −3

Théorème 47 (Cayley-Hamilton). Pour tout A ∈ Rn×n , pA (A) = On .

P Nous démontrons ce théorème pour le cas où A est diagonalisable sur R.


Démonstration.
Soit pA (t) = ni=0 ci ti le polynôme caractéristique de A. Si A = SΛS −1 , où Λ = diag(λ1 , . . . , λn ),
alors pA (A) = SpA (Λ)S −1 . Or, pA (Λ) = diag(pA (λ1 ), . . . , pA (λn )) = diag(0, . . . , 0) = On . Donc,
pA (A) = SOn S −1 = On .

6.3 Matrices symétriques


Une matrice A ∈ Rn×n est dite symétrique si AT = A.

Théorème 48 (Décomposition spectrale). Si une matrice A ∈ Rn×n est symétrique alors il existe
n×n
1, . . . , qn] ∈ R
une matrice orthogonale Q = [qP et une matrice diagonale Λ = diag(λ1 , . . . , λn ) ∈
Rn×n telles que A = QΛQT = ni=1 λi q i q Ti .

Démonstration. Soit A ∈ Rn×n . Supposons que AT = A.


i) Soit λ1 = max{xT Ax | ∥x∥ = 1}. Il existe q 1 ∈ Rn tel que λ1 = q T1 Aq 1 et ∥q 1 ∥ = 1. De
plus, Aq 1 = λ1 q 1 , i.e., λ1 est une valeur propre de A associée au vecteur propre q 1 .

53
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES

ii) Pour i = 2, . . . , n, soit λi = max{xT Ax | ∥x∥ = 1, x ∈ Fi }, où Fi = {q 1 , . . . , q i−1 }⊥ . Il


existe q i ∈ Rn tel que λi = q Ti Aq i , ∥q i ∥ = 1 et q i ∈ Fi . De plus, Aq i = λi q i , i.e., λi est une
valeur propre de A associée au vecteur propre q i .
La matrice Q = [q 1 , . . . , q n ] est orthogonale. Si Λ = diag(λ1 , . . . , λn ), on a A = QΛQT .

Exemple 70. Trouvez la décomposition spectrale de la matrice


 
0 1 1
A = 1 0 1 .
1 1 0

Propriétés. Soit A ∈ Rn×n une matrice symétrique.


1. A a n valeurs propres réelles.
2. Si x, y ∈ Rn sont deux vecteurs propres de A associés respectivement aux valeurs propres
distinctes λ, µ ∈ R, alors ils sont orthogonaux.
3. λ = 0 est une valeur propre de A de multiplicité algébrique m0 ssi rg A = n − m0 .

Théorème 49. Soit A ∈ Rn×n une matrice symétrique et soit C = B T AB, où B ∈ Rn×k et
B T B = Ik . Si λ1 ≥ . . . ≥ λn sont les valeurs propres de A et µ1 ≥ . . . ≥ µk celles de C, alors

λi ≥ µi ≥ λn−k+i

pour tout i = 1, . . . , k.
Pn Pk
Démonstration. Soit A = i=1 λi q i q Ti une décomposition spectrale de A et C = i=1 µi si sTi celle
de C. Soit i = 1, . . . , k.
• Soit F = vect(q i , . . . , q n ) et G = vect(s1 , . . . , si ). Comme dim F = n − i + 1 et dim G = i,
T T
il existe (x, y) ∈ F × G tel que x = By ̸= 0. On a λi ≥ xxTAx x
= yyTCy
y
≥ µi .
• Soit F = vect(q 1 , . . . , q n−k+i ) et G = vect(si , . . . , sk ). Comme dim F = n − k + i et dim G =
T T
k − i + 1, il existe (x, y) ∈ F × G tel que x = By ̸= 0. On a λn−k+i ≤ xxTAx x
= yyTCyy
≤ µi .

6.4 Matrices définies positives


Matrice définie positive Une matrice symétrique A ∈ Rn×n est dite définie positive si xT Ax > 0
pour tout x ∈ Rn \ {0} et on note A ≻ On . Elle est dite définie négative si −A est définie positive et
on note A ≺ On .

Exemple 71. Montrez que la matrice  


1 1
A=
1 2
est définie positive.

Propriétés.
1. Si A, B ≻ On , alors A + B ≻ On .
2. Si A ≻ On et x > 0, alors xA ≻ On .
3. Si A ≻ On , alors A−1 existe et A−1 ≻ On .
4. Si A ≻ On et B ∈ Rn×m , avec rg B = m, alors B T AB ≻ Om .

54
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane

Théorème 50. Soit A = [aij ] ∈ Rn×n une matrice symétrique. Les propositions suivantes sont
équivalentes.
a) A est définie positive.
b) Les n valeurs propres de A sont strictement positives.
c) Il existe un matrice B ∈ Rn×n de rang n telle que A = BB T .
d) Pour tout k = 1, . . . , n,
a11 . . . a1k
.. . . .
. . .. > 0.
ak1 . . . akk

Démonstration. Soit une matrice symétrique A ∈ Rn×n .


a) ⇒ b) : Soit A ≻ On . Si λ ∈ R est une valeur propre de A, alors il existe x ∈ Rn \ {0} tel que
Ax = λx. Comme A ≻ On , on a xT Ax = λ∥x∥2 > 0 ⇒ λ > 0.
Pn T
b) ⇒ c) : Soit
√ A = i=1 √ λi q i q i , avec λ1 ≥ . . . ≥ λn > 0, la décomposition spectrale de A. Si
B = [ λ1 q 1 , . . . , λn q n ] ∈ Rn×n , on a A = BB T et rg B = n.
c) ⇒ d) : Soit A = BB T , avec B ∈ Rn×n et rg B = n. Pour k = 1, . . . , n, soit Bk = (b1· , . . . , bk· ).
On peut écrire  
a11 . . . a1k
Ak =  ... . . . ...  = Bk BkT .
 
ak1 . . . akk

D’après le théorème 42, det Ak = det(Bk BkT ) représente le carré de l’hypervolume de di-
mension k du parallélotope engendré par les vecteurs lignes de Bk . Comme rg Bk = k, on a
det Ak > 0.
d) ⇒ a) : Pour tout k = 1, . . . , n, soit
 
a11 . . . a1k
Ak =  ... . . . ... 
 
ak1 . . . akk

et supposons que det Ak > 0. Nous montrons par récurrence sur k que Ak ≻ Ok .
i) Pour k = 1, on a A1 = [a11 ] ≻ O1 car det A1 = a11 > 0.
ii) Pour k ≥ 2, supposons que Ak−1 ≻ Ok−1 . On peut écrire

Ik−1 A−1
     
Ak−1 b Ik−1 0 Ak−1 0 k−1 b
Ak = = T −1 ,
bT akk b Ak−1 1 0T akk − bT A−1
k−1 b 0T 1
| {z }| {z }| {z }
=Lk =Dk =LT
k

où b = (a1k , . . . , ak−1,k ). On doit avoir

det Ak = det Dk = det(Ak−1 )(akk − bT A−1 T −1


k−1 b) > 0 ⇒ akk > b Ak−1 b ≥ 0.
| {z }
>0

Comme Ak−1 ≻ Ok−1 , on a Dk ≻ Ok ⇒ Ak ≻ Ok . En particulier, pour k = n, on trouve


A ≻ On .

55
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES

Matrice semidéfinie positive Une matrice symétrique A ∈ Rn×n est dite semidéfinie positive si
xT Ax ≥ 0 pour tout x ∈ Rn et on note A ⪰ On . Elle est dite semidéfinie négative si −A est
semidéfinie positive et on note A ⪯ On .
Exemple 72. Montrez que la matrice  
1 1
A=
1 1
est semidéfinie positive.
Propriétés.
1. Si A, B ⪰ On , alors A + B ⪰ On .
2. Si A ⪰ On et x ≥ 0, alors xA ⪰ On .
3. Si A ⪰ On , alors A+ ⪰ On et com A ⪰ On .
4. Si A ⪰ On et B ∈ Rn×m , alors B T AB ⪰ Om .
Remarque. Toute matrice définie positive est semidéfinie positive. La réciproque n’est pas nécessai-
rement vraie.
Théorème 51. Soit A = [aij ] ∈ Rn×n une matrice symétrique. Les propositions suivantes sont
équivalentes.
a) A est semidéfinie positive.
b) Les n valeurs propres de A sont positives.
c) Il existe un matrice B ∈ Rn×r , où r = rg A, telle que A = BB T .
d) Pour tout k = 1, . . . , n, pour tout 1 ≤ i1 < . . . < ik ≤ n,
ai 1 i 1 . . . a i 1 i k
.. ... .. ≥ 0.
. .
aik i1 . . . aik ik

Démonstration. Soit une matrice symétrique A ∈ Rn×n .


a) ⇒ b) : Soit A ⪰ On . Si λ ∈ R est une valeur propre de A, alors il existe x ∈ Rn \ {0} tel que
Ax = λx. Comme A ⪰ On , on a xT Ax = λ∥x∥2 ≥ 0 ⇒ λ ≥ 0.
A = ri=1 λ√ T
P
b) ⇒ c) : Soit√ i q i q i , avec λ1 ≥ . . . ≥ λr > 0 et r ≤ n, la décomposition spectrale de A.
Si B = [ λ1 q 1 , . . . , λr q r ] ∈ Rn×r , on a A = BB T et rg B = r.
c) ⇒ d) : Soit A = BB T , avec B ∈ Rn×r et rg B = r. Pour k = 1, . . . , n, 1 ≤ i1 < . . . < ik ≤ n,
soit B(i1 ,...,ik ) = (bi1 · , . . . , bik · ) ∈ Rk×r . On peut écrire
 
ai 1 i 1 . . . a i 1 i k
A(i1 ,...,ik ) =  ... ... ..  = B T
(i1 ,...,ik ) B(i1 ,...,ik ) .

. 
aik i1 . . . aik ik

D’après le théorème 42, det A(i1 ,...,ik ) = det(B(i1 ,...,ik ) B(iT 1 ,...,ik ) ) représente le carré de l’hyper-
volume de dimension k du parallélotope engendré par les vecteurs lignes de B(i1 ,...,ik ) . On a
det A(i1 ,...,ik ) ≥ 0.
d) ⇒ a) : Pour tout k = 1, . . . , n, 1 ≤ i1 < . . . < ik ≤ n, soit
 
ai 1 i 1 . . . a i 1 i k
A(i1 ,...,ik ) =  ... .. .. 

. . 
aik i1 . . . aik ik
et supposons que det A(i1 ,...,ik ) ≥ 0. Nous montrons par récurrence sur k que A(i1 ,...,ik ) ⪰ Ok .

56
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane

i) Soit k = 1. Pour tout 1 ≤ i1 ≤ n, on a A(i1 ) = [ai1 i1 ] ⪰ O1 car det A(i1 ) = ai1 i1 ≥ 0.


ii) Soit k ≥ 2, 1 ≤ i1 < . . . < ik ≤ n. Pour tout {j1 , . . . , jk−1 } ⊂ {i1 , . . . , ik }, avec
j1 < . . . < jk−1 , supposons que A(j1 ,...,jk−1 ) ⪰ Ok−1 . Soit r = rg A(i1 ,...,ik ) .
• Si r = 0, alors A(i1 ,...,ik ) = Ok ⪰ Ok .
• Si 0 < r < k, alors il existe {j1 , . . . , jr } ⊂ {i1 , . . . , ik }, avec j1 < . . . < jr , tel
que A(j1 , . . . , jr ) ≻ Or . Sans perte de généralité, supposons que {j1 , . . . , jr } =
{i1 , . . . , ir }. On peut écrire
 
A(i1 ,...,ir ) B
A(i1 ,...,ik ) = = Lk Dk LTk ,
BT A(ir+1 ,...,ik )

où  
A(i1 ,...,ir ) Or,k−r
Dk = ,
Ok−r,r A(ir+1 ,...,ik ) − B T A−1 (i1 ,...,ir ) B
 
Ir Or,k−r
Lk = ,
B T A−1(i1 ,...,ir ) Ik−r
 
ai1 ir+1 . . . ai1 ik
B =  ... .. ..  .

. . 
air ir+1 . . . air ik
Comme rg A(i1 ,...,ir ) = r, on doit avoir

A(ir+1 ,...,ik ) = B T A−1


(i1 ,...,ir ) B ⇒ Dk = diag(A(i1 ,...,ir ) , Ok−r ) ⪰ Ok

⇒ A(i1 ,...,ik ) ⪰ Ok .

• Si r = k, on montre assez aisément que A(i1 ,...,ik ) ≻ Ok .


En particulier, pour k = n, on a A ⪰ On .

Théorème 52 (Décomposition de Cholesky). Si une matrice symétrique A = [aij ] ∈ Rn×n est


semidéfinie positive alors il existe une matrice triangulaire inférieure L = [lij ] ∈ Rn×n , avec lii ≥ 0
pour tout i, telle que A = LLT .

Démonstration. Soit une matrice symétrique A = [aij ] ∈ Rn×n . Supposons que A ⪰ On,n . Nous
démontrons par récurrence sur n qu’il existe une matrice triangulaire inférieure L telle que A = LLT .

i) Pour n = 1, on a A = [a11 ] et L = [ a11 ].
ii) Pour n ≥ 2, supposons que le théorème est vrai pour n − 1. Soit A = [aij ] ∈ Rn×n . On écrit
 
An−1 b
A= ,
bT ann

où An−1 est la sous-matrice obtenue de A en supprimant la dernière ligne et la dernière colonne et


b = (an1 , . . . , an,n−1 ). Comme A ⪰ On , on a An−1 ⪰ On−1 , ann ≥ 0 et ann An−1 −bbT ⪰ On−1 .
• Par hypothèse de récurrence, comme An−1 ⪰ On−1 , il existe une matrice triangulaire
inférieure Ln−1 telle que An−1 = Ln−1 LTn−1 . On cherche alors une matrice triangulaire
inférieure  
Ln−1 0
L=
xT lnn
telle que A = LLT . On doit avoir Ln−1 x = b et lnn
2
+ ∥x∥2 = ann .

57
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES

• Comme ann An−1 − bbT ⪰ On−1 , on a pour tout y ∈ ker An−1 = ker LTn−1 ,

y T (ann An−1 − bbT )y ≥ 0 ⇒ ann y T An−1 y −(bT y)2 ≥ 0 ⇒ bT y = 0


| {z }
=0
⇒b∈ (ker LTn−1 )⊥ = im Ln−1 = im An−1 .

Le vecteur x = L+
n−1 b vérifie Ln−1 x = b.
• Comme A ⪰ On , on a

−A+
  
 An−1 b n−1 b
= ann − bT A+
 T +
−b An−1 1 n−1 b ≥ 0.
bT ann 1
T +
Or, A+ + T + + 2
n−1 = (Ln−1 ) Ln−1 ⇒ ann − b An−1 b = ann − ∥Ln−1 b∥ ≥ 0. Donc,
q
2
lnn = ann − ∥L+
n−1 b∥
2
≥ 0 ⇒ lnn = ann − ∥L+ 2
n−1 b∥ .

Remarque. La matrice triangulaire inférieure L = [lij ] de la décomposition de Cholesky d’une matrice


semidéfinie positive A = [aij ] ∈ Rn×n peut être construite comme suit :
√ +
l11 = a11 , li1 = l11 ai1 , 1 < i ≤ n,
s !
X X
2 +
ljj = ajj − ljk , lij = ljj aij − lik ljk , 2 ≤ j < i ≤ n,
k<j k<j

où x+ est le pseudo-inverse de x.

Exemple 73. Trouvez, si possible, la décomposition de Cholesky de la matrice A.


   
1 1 1 1
a) A = b) A =
1 2 1 1

Matrice indéfinie Une matrice symétrique A est dite indéfinie si elle n’est ni semidéfinie positive
ni semidéfinie négative.

6.5 Décomposition en valeurs singulières


Soit une matrice A ∈ Rm×n . Si rg A = r, alors AT A ∈ Rn×n et AAT ∈ Rm×m sont des matrices
semidéfinies positives de rang r. On peut montrer que si σ 2 > 0 est une valeur propre de AT A associée
au vecteur propre unitaire v ∈ Rn , alors σ 2 > 0 est une valeur propre de AAT associée au vecteur
propre unitaire w = Av/σ ∈ Rm .
Une valeur singulière de A ∈ Rm×n est un nombre σ > 0 tel qu’il existe deux vecteurs unitaires
v ∈ Rn et w ∈ Rm qui vérifient Av = σw et AT w = σv. Les vecteurs v et w sont respectivement
appelés vecteur singulier à droite et vecteur singulier à gauche de A associés à la valeur singulière σ.
Si rg A = r > 0, alors la matrice A possède exactement r valeurs singulières σ1 ≥ . . . ≥ σr > 0.

Exemple 74. Trouvez les valeurs singulières de la matrice


 
1 −1 0
A= .
1 1 −2

58
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane

Théorème 53 (Décomposition en valeurs singulières). Si A ∈ Rm×n est une matrice de rang r > 0
et σ1 ≥ . . . ≥ σr > 0 sont ses valeurs singulières, alors il existe deux matrices orthogonales

V = [v 1 , . . . , v r , v r+1 , . . . , v n ] ∈ Rn×n ,
W = [w1 , . . . , wr , wr+1 , . . . , wm ] ∈ Rm×m

et une matrice  
diag(σ1 , . . . , σr ) Or,n−r
Σ= ∈ Rm×n
Om−r,r Om−r,n−r
telles que A = W ΣV T = ri=1 σi wi v Ti . De plus,
P

• (v 1 , . . . , v r ) est une base orthonormale de im AT ,


• (v r+1 , . . . , v n ) est une base orthonormale de ker A,
• (w1 , . . . , wr ) est une base orthonormale de im A,
• (wr+1 , . . . , wm ) est une base orthonormale de ker AT .
Démonstration. Soit A ∈ Rm×n une matrice de rang r > 0.
i) On a AT A ⪰ On et rg(AT A) = rg A = r. Il existe une matrice diagonale

Λ = diag(λ1 , . . . , λr , 0, . . . , 0),

avec λ1 ≥ . . . ≥ λr > 0, et une matrice orthogonale

V = [v 1 , . . . , v r , v r+1 , . . . , v n ]

telles que AT A = V ΛV T . On peut noter que (v 1 , . . . , v r ) est une base orthonormale de


im(AT A) = im AT et (v r+1 , . . . , v n ) est une base orthonormale de ker(AT A) = ker A.

ii) Pour tout i = 1, . . . , r, soit σi = λi et wi = Av i /σi . La famille (w1 , . . . , wr ) est une base
orthonormale de im A. En effet, pour tout i, j,
1 1 T T σj
⟨wi , wj ⟩ = ⟨Av i , Av j ⟩ = v i A Av j = v Ti v j = δij .
σi σj σi σj | {z } σi
=σj2 v j

Comme ker AT = (im A)⊥ et im A⊕ker AT = Rm , il existe une base orthonormale (wr+1 , . . . , wm )
de ker AT de telle sorte que (w1 , . . . , wr , wr+1 , . . . , wm ) est une base orthonormale de Rm .
Construisons à présent les matrices
 
diag(σ1 , . . . , σr ) Or,n−r
Σ= ,
Om−r,r Om−r,n−r
W = [w1 , . . . , wr , wr+1 , . . . , wm ].

La matrice W est orthogonale et

W Σ = [σ1 w1 , . . . , σr wr , 0, . . . , 0]
= [Av 1 , . . . , Av r , Av r+1 , . . . , Av n ] = AV.

Donc, A = W ΣV T = ri=1 σi wi v Ti .
P

Remarque. La décomposition en valeurs singulières A = W ΣV T = ri=1 σi wi v Ti peut simplement


P
s’écrire A = Wr Σr VrT , où Vr = [v 1 , . . . , v r ], Wr = [w1 , . . . , wr ] et Σr = diag(σ1 , . . . , σr ). On parle
alors de décomposition compacte.

59
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES

Propriétés. Soit A = ri=1 σi wi v Ti une décomposition en valeurs singulières de la matrice A ∈ Rm×n


P
de rang r.
p
1. ∥A∥F = σ12 + . . . + σr2 et ∥A∥ = σ1 .
2. A+ = ri=1 σ1i v i wTi .
P

3. Pour tout k = 1, . . . , r, si Ak = ki=1 σi wi v Ti , alors ∥A − Ak ∥ ≤ ∥A − B∥ pour toute matrice


P
B ∈ Rm×n de rang k.

Exemple 75. On donne  


1 −1 0
A= .
1 1 −2
a) Trouvez une décomposition en valeurs singulières de A.
b) Calculez le pseudo-inverse de A en utilisant sa décomposition en valeurs singulières.
c) Trouvez la meilleure approximation de rang 1 de A.

6.6 Exercices
69. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n associée au vecteur propre x ∈ Rn .
Démontrez les propositions suivantes.
a) Pour tout µ ∈ R, λ − µ est une valeur de propre de A − µI associée au vecteur propre x.
b) Pour tout entier k > 0, λk est une valeur propre de Ak associée au vecteur propre x.
c) Si A est inversible, alors 1/λ est une valeur propre de A−1 associée au vecteur propre x.

70. Soient deux matrices A, B ∈ Rn×n . Montrez que si λ ∈ R est une valeur propre de AB, alors elle
est aussi une valeur propre de BA.

71. Montrez que si λ ∈ R est une valeur propre d’une matrice A = [aij ] ∈ Rn×n , alors il existe
i = 1, . . . , n tel que
Xn
|λ − aii | ≤ |aij |.
j=1,j̸=i

72. On donne  
2 −1 0
A= 0 3 −2 .
−3 9 −5
a) Trouvez toutes les valeurs propres de A.
b) Si possible, déterminez une matrice S qui diagonlise A.
c) Calculez eA := ∞ An
P
n=0 n! .

73. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . Montrez que si la multiplicité algébrique
de λ est m, alors dim ker(A − λIn )m = m.

74. Soit A ∈ Rn×n une matrice normale. Démontrez les propositions suivantes.
a) Pour tout λ ∈ R, A − λIn est une matrice normale.
b) Si λ ∈ R et x ∈ Rn , alors Ax = λx ⇔ AT x = λx.
c) Si x, y ∈ Rn sont deux vecteurs propres de A associés respectivement aux valeurs propres
distinctes λ, µ ∈ R, alors ils sont orthogonaux.

60
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane

75. Décrivez l’ensemble des points (x, y, z) ∈ R3 tels que la matrice


 
1 x y
A = x 1 z 
y z 1

est semidéfinie positive.

76. Pour un entier n ≥ 1, montrez que la matrice de Hilbert Hn d’ordre n est définie positive.

77. Pour un entier n ≥ 1, soit Sn = [sij ] ∈ Rn×n , où sij = i+j−2



i−1
, la matrice de Pascal d’ordre n.
a) Montrez que Sn est définie positive.
b) Donnez la décomposition de Cholesky de Sn .

78. Montrez que si A, B ∈ Rn×n sont semidéfinies positives, alors det(A) + det(B) ≤ det(A + B).

79. Trouvez la décomposition en valeurs singulières de la matrice A.


     
1 0 −1 1 3 −2
a) A = b) A = c) A =
3 −1 −1 1 5 −3

80. Montrez que la décomposition spectrale d’une matrice réelle semidéfinie positive est aussi sa
décomposition en valeurs singulières.

81. Montrez que pour tout A ∈ Rm×n ,

A+ = lim(AT A + εIn )−1 AT = lim AT (AAT + εIm )−1 .


ε↓0 ε↓0

61
Bibliographie

[1] S. Lang, Introduction to Linear Algebra. Springer-Verlag New York Inc., 1986.
[2] R. Cairoli, Algèbre linéaire. Presses polytechniques et universitaires romandes, 1991.
[3] G. Strang, Introduction to Linear Algebra. Wellesley - Cambridge Press, 2009.
[4] G. Strang and S. Dufour, Introduction à l’algèbre linéaire. Presses internationales Polytechnique,
2015.
[5] D. C. Lay, S. R. Lay, and J. J. McDonald, Linear Algebra and Its Applications. Pearson Education,
Inc., 2016.
[6] S. Le Digabel, “MTH1007 Algèbre linéaire pour ingénieurs.” Polytechnique Montréal, 2023.
[7] S. Axler, Linear Algebra Done Right. Springer Nature, 2024.

62

Vous aimerez peut-être aussi