MTH 1102
MTH 1102
3 juillet 2025
Table des matières
1 Introduction 4
1.1 Vecteurs réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Produit scalaire et norme euclidienne . . . . . . . . . . . . . . . . . . . . . 6
1.2 Matrices réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Produit scalaire, norme de Frobenius et norme spectrale . . . . . . . . . . . 9
1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Espaces vectoriels 24
3.1 Espaces vectoriels et sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Indépendance linéaire, base et dimension . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Sous-espaces associés à une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4 Orthogonalité 34
4.1 Produit scalaire et norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Famille orthogonale et procédé de Gram-Schmidt . . . . . . . . . . . . . . . . . . . 34
4.3 Complément orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 Déterminants 43
5.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2
TABLE DES MATIÈRES C. Bingane
3
Chapitre 1
Introduction
et le nombre xi est la i-ième coordonnée du vecteur x. L’ensemble des vecteurs réels de dimension n
est noté Rn .
Si on munit l’ensemble Rn des opérations :
1. l’addition + : pour tout x = (xi ), y = (yi ) ∈ Rn , x + y = (xi + yi ) ∈ Rn ,
2. la multiplication par un scalaire · : pour tout a ∈ R, pour tout x = (xi ) ∈ Rn , ax = (axi ) ∈ Rn ,
alors les propriétés suivantes soient vérifiées.
i) Pour tout x, y ∈ Rn , x + y = y + x.
ii) Pour tout x, y, z ∈ Rn , (x + y) + z = x + (y + z).
iii) Il existe 0 = (0) ∈ Rn , appelé vecteur nul, tel que pour tout x ∈ Rn , x + 0 = x.
iv) Pour tout x = (xi ) ∈ Rn , il existe −x = (−xi ) ∈ Rn , appelé vecteur opposé, tel que
x + (−x) = 0.
v) Pour tout a ∈ R, pour tout x, y ∈ Rn , a(x + y) = ax + ay.
vi) Pour tout a, b ∈ R, pour tout x ∈ Rn , (a + b)x = ax + bx.
vii) Pour tout a, b ∈ R, pour tout x ∈ Rn , (ab)x = a(bx).
viii) Pour tout x ∈ Rn , 1x = x.
a) 0x = 0. c) Si ax = 0, alors a = 0 ou x = 0.
b) a0 = 0. d) (−1)x = −x.
4
CHAPITRE 1. INTRODUCTION C. Bingane
Exemple 2. Déterminez si le vecteur (0, 2) est une combinaison linéaire des vecteurs donnés.
a) v 1 = (1, 1)
b) v 1 = (1, 1), v 2 = (−1, 1)
c) v 1 = (1, 1), v 2 = (−1, 1), v 3 = (0, −2)
5
C. Bingane CHAPITRE 1. INTRODUCTION
Norme euclidienne La norme euclidienne d’un vecteur x = (x1 , . . . , xn ) ∈ Rn est le nombre positif
p q
∥x∥ := ⟨x, x⟩ = x21 + . . . + x2n .
Exemple 7. Montrez que pour tout x, y ∈ Rn , ∥x + y∥2 = ∥x∥2 + ∥y∥2 + 2⟨x, y⟩.
Angle de deux vecteurs L’angle θ ∈ [0, π] que forment deux vecteurs non nuls x, y ∈ Rn est donné
par
⟨x, y⟩
cos θ := .
∥x∥∥y∥
On dit que deux vecteurs x, y ∈ Rn sont orthogonaux si ⟨x, y⟩ = 0.
⟨a, x⟩
proja x := a.
∥a∥2
Exemple 8. Calculez la projection orthogonale de v = (x, y) sur la droite vectorielle engendrée par
a = (cos α, sin α), où 0 ≤ α ≤ 2π.
6
CHAPITRE 1. INTRODUCTION C. Bingane
et le nombre aij est le coefficient (i, j) de la matrice A. L’ensemble des matrices réelles de dimension
m × n est noté Rm×n .
Remarques.
1. Une matrice A ∈ Rm×n est appelée vecteur colonne si m > n = 1, vecteur ligne si n > m = 1.
2. Pour une matrice A = [aij ] ∈ Rm×n , on notera ai· ∈ Rn sa i-ième ligne et a·j ∈ Rm sa j-ième
colonne. On écrira A = (a1· , . . . , am· ) ou A = [a·1 , . . . , a·n ] pour indiquer que la matrice A est
donnée par ses lignes ai· ou par ses colonnes a·j , respectivement.
3. Une matrice réelle A est dite définie par blocs si elle est de la forme
A11 A12 . . . A1n
A21 A22 . . . A2n
A = .. .. = [Aij ],
..
. . .
Am1 Am2 . . . Amn
7
C. Bingane CHAPITRE 1. INTRODUCTION
Transposée La transposée d’une matrice A = [aij ] ∈ Rm×n est la matrice AT := [a′ji ] ∈ Rn×m , où
a′ji = aij .
Exemple 10. Trouvez la transposée de la matrice
1 −1 0
A= .
1 1 −2
Propriétés.
1. Pour tout A ∈ Rm×n , (AT )T = A.
2. Pour tout A, B ∈ Rm×n et pour tout x, y ∈ R, on a (xA + yB)T = xAT + yB T .
m×n
Produit matriciel Le produit de deux Pnmatrices A = [aij ] ∈ R et B = [bjk ] ∈ Rn×p est la
m×p
matrice AB := [cik ] ∈ R , où cik = j=1 aij bjk .
Exemple 11. Calculez AB si
1 −1 −1
1
1 −1 0
A= et B = 1 1 −1 −1 .
1 1 −2
1 1 1 −3
Propriétés.
1. Pour tout A ∈ Rm×n et B ∈ Rn×p , (AB)T = B T AT .
2. Pour tout A ∈ Rm×n , B ∈ Rn×p et C ∈ Rp×q , (AB)C = A(BC).
3. Pour tout A, B ∈ Rm×n et C ∈ Rn×p , (A + B)C = AC + BC.
4. Pour tout A ∈ Rm×n et B, C ∈ Rn×p , A(B + C) = AB + AC.
µi ×νj
jk ], où Aij ∈ R
5. Si A = [Aij ] et B = [BP pour tout i, j et Bjk ∈ Rνj ×πk pour tout j, k, alors
AB = [Cik ], où Cik = nj=1 Aij Bjk ∈ Rµi ×πk pour tout i, k.
8
CHAPITRE 1. INTRODUCTION C. Bingane
Trace La trace d’une matrice A = [aij ] ∈ Rn×n est le nombre tr A := a11 + . . . + ann .
Exemple 13. Montrez que
a) pour tout A ∈ Rn×n , tr AT = tr A,
b) pour tout A ∈ Rm×n et B ∈ Rn×m , tr(AB) = tr(BA).
Propriété. Pour tout A, B ∈ Rn×n et pour tout x, y ∈ R, on a tr(xA + yB) = x tr A + y tr B.
Inverse Une matrice A ∈ Rn×n est dite inversible s’il existe une matrice unique A−1 ∈ Rn×n ,
appelée matrice inverse, telle que A−1 A = AA−1 = In .
Exemple 14. Montrez que si A, B ∈ Rn×n sont inversibles, alors (AB)−1 = B −1 A−1 .
Propriétés. Soit A ∈ Rn×n une matrice inversible et soit x un scalaire non nul.
1. (A−1 )−1 = A. 2. (AT )−1 = (A−1 )T . 3. (xA)−1 = x−1 A−1 .
Puissance Pour tout entier k ≥ 2, la k-ième puissance d’une matrice A ∈ Rn×n est la matrice Ak
telle que Ak := Ai Ak−i , où 1 ≤ i ≤ k − 1. Une matrice A ∈ Rn×n est dite idempotente si A2 = A,
involutive si A2 = In , nilpotente d’indice k ≥ 2 si Ak−1 ̸= On et Ak = On .
Exemple 15. Montrez que si A = diag(a1 , . . . , an ), où a1 , . . . , an ∈ R, alors Ak = diag(ak1 , . . . , akn )
pour tout entier k ≥ 1.
Norme de Frobenius La norme de Frobenius d’une matrice A = [aij ] ∈ Rm×n est le nombre positif
v
u m X n
uX
p
T
∥A∥F := tr(A A) = t a2ij .
i=1 j=1
9
C. Bingane CHAPITRE 1. INTRODUCTION
Norme spectrale La norme spectrale d’une matrice A ∈ Rm×n est le nombre positif
∥Ax∥
∥A∥ := max = max ∥Ax∥.
x̸=0 ∥x∥ ∥x∥=1
1.3 Exercices
1. Soient les vecteurs v 1 = (cos θ, sin θ) et v 2 = (− sin θ, cos θ), où 0 ≤ θ ≤ 2π.
a) Montrez qu’ils engendrent R2 .
b) Montrez qu’ils sont linéairement indépendants.
c) Montrez que ⟨v i , v j ⟩ = δij pour tout i, j = 1, 2.
2. Soient les vecteurs v 1 = (sin ϕ cos θ, sin ϕ sin θ, cos ϕ), v 2 = (cos ϕ cos θ, cos ϕ sin θ, − sin ϕ) et
v 3 = (− sin θ, cos θ, 0), où 0 ≤ ϕ ≤ π et 0 ≤ θ ≤ 2π.
a) Montrez qu’ils engendrent R3 .
b) Montrez qu’ils sont linéairement indépendants.
c) Montrez que ⟨v i , v j ⟩ = δij pour tout i, j = 1, 2, 3.
3. Montrez que si m vecteurs non nuls v 1 , . . . , v m ∈ Rn sont deux à deux orthogonaux, alors ils sont
linéairement indépendants.
4. Soient m vecteurs v 1 , . . . , v m ∈ Rn .
a) Montrez que si v 1 , . . . , v m engendrent Rn , alors pour tout v m+1 , . . . , v p ∈ Rn , p ≥ m, les
vecteurs v 1 , . . . , v m , v m+1 , . . . , v p engendrent Rn .
b) Montrez que si v 1 , . . . , v m sont linéairement indépendants, alors pour tout 1 ≤ i1 < . . . < ik ≤
m, 1 ≤ k ≤ m, les vecteurs v i1 , . . . , v ik sont linéairement indépendants.
10
CHAPITRE 1. INTRODUCTION C. Bingane
8. Soient A ∈ Rm×n et B ∈ Rn×m . Montrez que B = AT ssi ⟨Ax, y⟩ = ⟨x, By⟩ pour tout
(x, y) ∈ Rn × Rm .
11. Soient A = [aij ], B = [bjk ] ∈ Rn×n deux matrices triangulaires supérieures et C = AB = [cik ].
a) Montrez que la matrice C est triangulaire supérieure.
b) Montrez que cii = aii bii pour tout i = 1, . . . , n.
13. Soit une matrice A ∈ Rn×n . Calculez (In + A)m , où m ≥ 2 est un entier, si A est idempotente,
involutive.
14. Soit A ∈ Rn×n une matrice nilpotente d’indice k. Montrez que In − A est inversible.
11
Chapitre 2
a1 x1 + a2 x2 + . . . + an xn = b.
Ax = b,
est appelée matrice augmentée du système linéaire Ax = b. Tout vecteur v tel que Av = b est appelé
solution du système linéaire Ax = b.
x1 + 12 x2 = 12 ,
1
x + ax2 = b
2 1
Théorème 1. Un système linéaire n’a soit aucune solution, soit une solution unique, soit une infinité
de solutions.
12
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
Démonstration. Nous montrons que si un système linéaire a deux solutions distinctes, alors il a une
infinité de solutions.
Soient v 0 et v 1 deux solutions distinctes d’un système linéaire Ax = b. Pour tout c ∈ R, v =
v 0 + c(v 1 − v 0 ) est une solution du système linéaire Ax = b. En effet, Av = A[v 0 + c(v 1 − v 0 )] =
Av 0 + c(Av 1 − Av 0 ) = b + c(b − b) = b.
Théorème 2. Si m > n, alors il existe b ∈ Rm tel que le système linéaire Ax = b n’a pas de solution.
n’a pas de solution. Il suit que pour b = (a11 , b′2 + a21 , . . . , b′m + am1 ), le système linéaire
Ax = b n’a pas de solution.
13
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES
ker A := {x | Ax = 0}.
a1 x1 + . . . + an xn = 0.
Si a1 = . . . = an = 0, alors le système homogène admet une solution non triviale x = (1, . . . , 1).
Supposons qu’un des coefficients ai est non nul, par exemple a1 ̸= 0. Alors le système homogène
admet une solution non triviale x = (−a2 − . . . − an , a1 , . . . , a1 ).
ii) Supposons que l’énoncé est vrai pour m − 1 < n − 1. Montrons qu’il est vrai pour m < n.
Si A = Om,n , alors le système homogène admet une solution non triviale x = (1, . . . , 1).
Supposons qu’un des coefficients aij de A est non nul, par exemple a11 ̸= 0. Alors on a
a11 x1 + a12 x2 + . . . + a1n xn = 0,
a21 x1 + a22 x2 + . . . + a2n xn = 0,
... ... ... ... ...
am1 x1 + am2 x2 + . . . + amn xn = 0
a11 x1 + a12 x2 + . . . + a1n xn = 0,
a′22 x2 + . . . + a′2n xn = 0,
⇔
... ... ... ...
′ ′
am2 x2 + . . . + amn xn = 0,
ai1
où a′ij = aij − a .
a11 1j
D’après l’hypothèse de récurrence, le système homogène
′
a22 x2 + . . . + a′2n xn = 0,
... ... ... ...
′
am2 x2 + . . . + a′mn xn = 0,
a une solution non triviale (x2 , . . . , xn ) = (v2 , . . . , vn ). Il suit que le système homogène Ax = 0
a une solution non triviale x = (−a12 v2 − . . . − a1n vn , a11 v2 , . . . , a11 vn ).
14
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
Matrice élémentaire Une matrice élémentaire est une matrice obtenue en effectuant une opération
élémentaire sur les lignes d’une matrice identité.
Exemple 21. Soit la matrice
1 −1 0
A= .
1 1 −2
a) Trouvez toutes les matrices élémentaires d’ordre 2 et déterminez leurs inverses.
b) Pour chaque matrice élémentaire E d’ordre 2, calculez EA. Que remarque-t-on ?
Propriétés.
1. Toute matrice élémentaire est inversible et son inverse est aussi élémentaire.
2. Effectuer une opération élémentaire sur les lignes d’une matrice A ∈ Rm×n revient à la multiplier
à gauche par une matrice élémentaire E ∈ Rm×m obtenue à partir de Im par la même opération.
Matrice échelonnée Une matrice est dite échelonnée si le nombre de zéros commençant une ligne
croît strictement ligne par ligne jusqu’à ce qu’il ne reste plus que des zéros. Une matrice échelonnée
non nulle U ∈ Rm×n est donc de la forme
. . . 0 u1j1 . . . u1j2 . . . u1jr . . . u1n
. . . 0 0 . . . u2j2 . . . u2jr . . . u2n
.
.. .
.. .
.. .
.. .
..
U = ,
. . . 0 0 . . . 0 . . . urjr . . . u rn
. . . 0 0 ... 0 ... 0 ... 0
.. .. .. .. ..
. . . . .
où 1 ≤ j1 < . . . < jr ≤ n et uiji ̸= 0 pour tout i = 1, . . . , r. Le premier élément non nul uiji de
la i-ième ligne non nulle de U est appelé pivot. Les colonnes u·j1 , . . . , u·jr de U contenant les pivots
sont appelées colonnes pivots, tandis que les autres sont appelées colonnes libres.
Théorème 5. Toute matrice peut être transformée en une matrice échelonnée par des opérations
élémentaires sur les lignes.
Démonstration. Soit A = [aij ] ∈ Rm×n .
i) Si A = Om,n , alors elle est déjà échelonnée. Supposons que A ̸= Om,n . Soient j1 = min{j |
a·j ̸= 0} et i1 = min{i | aij1 ̸= 0}. Si i1 > 1, on peut trouver une matrice A′ ∼ A telle que
a′1j1 ̸= 0 en effectuant une permutation des lignes. Sans perte de généralité, on peut supposer
que a11 ̸= 0. On a
a11 a12 . . . a1n a11 a12 . . . a1n
a21 a22 . . . a2n 0 a′ . . . a′2n
22
A = .. .. ∼ .. .. ,
.. ..
. . . . . .
am1 am2 . . . amn 0 a′m2 . . . a′mn
15
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES
Remarque. L’algorithme qui consiste à transformer une matrice en une forme échelonnée par des
opérations élémentaires sur les lignes est appelé élimination de Gauss.
Exemple 22. Trouvez une forme échelonnée de la matrice donnée.
1 −1 0 1 1
a) A =
1 1 −2 b) B = −1 1
0 −2
Propriétés.
1. Dans une matrice échelonnée, les colonnes pivots sont linéairement indépendantes et les co-
lonnes libres dépendent linéairement des colonnes pivots.
2. Une matrice A ∈ Rn×n est inversible ssi A ∼ In .
3. Deux matrices A, B ∈ Rm×n sont équivalentes selon les lignes ssi il existe une matrice inversible
C ∈ Rm×m telle que B = CA.
16
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
Théorème 7. Soit A = [aij ] ∈ Rm×n et soit U = [uij ] ∈ Rm×n une forme échelonnée de A. Toute
solution du système homogène Ax = 0 s’écrit comme une combinaison linéaire des solutions spéciales
de U x = 0.
Démonstration.
Pr Comme A ∼ U , on a Ax = 0 ⇔ U x = 0. Si U a r pivots, soient v k = (vjk ) =
ejk + i=1 vji kP
eji , k = r + 1, . . . , n, les solutions spéciales de U x = 0. Pour tout k = r + 1, . . . , n,
U v k = u·jk + ri=1 vji k u·ji = 0. On peut alors écrire
n
X r
X n
X r
X n
X r
X
Ux = u·j xj = u·ji xji + u·jk xjk = u·ji xji − vji k u·ji xjk
j=1 i=1 k=r+1 i=1 k=r+1 i=1
r n
!
X X
= xj i − vji k xjk u·ji .
i=1 k=r+1
Théorème 8. Si U et U ′ sont deux formes échelonnées d’une matrice A, alors elles ont le même
nombre des pivots.
Démonstration. Supposons que U et U ′ ont respectivement r et r′ pivots, avec r > r′ . Soient
v r+1 , . . . , v n les solutions spéciales de U x = 0 et v ′r′ +1 , . . . , v ′n les solutions spéciales de U ′ x = 0.
Comme A ∼ U ∼ U ′ , pour tout j = 1, . . . , n − r′ , il existe β1j , . . . , βn−r,j ∈ R tels que v ′r+j =
Pn−r
i=1 βij v r+i . Pour x1 , . . . , xn−r′ ∈ R,
17
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES
Matrice échelonnée réduite Une matrice échelonnée est dite réduite si le pivot d’une ligne vaut 1
et c’est le seul élément non nul de sa colonne.
Démonstration. Soit A ∈ Rm×n . Nous démontrons cet énoncé par récurrence sur n.
i) Soit n = 1. Si A = Om,n , alors elle est déjà sous forme échelonnée réduite. Si A ̸= Om,n , alors
la forme échelonnée réduite de A est U = e1 ∈ Rm .
ii) Supposons que l’énoncé est vrai pour n − 1. Montrons qu’il est vrai pour n. Soit U et U ′
deux formes échelonnées réduites de A avec r pivots. Pour une matrice B ∈ Rm×n , soit
Bn−1 ∈ Rm×(n−1) la sous-matrice déduite de B en supprimant la dernière colonne. On a que
′
Un−1 et Un−1 sont des formes échelonnées réduites de An−1 et, par hypothèse de récurrence,
′
Un−1 = Un−1 .
Si Ax = 0, alors U x = U ′ x = 0 ⇒ (U − U ′ )x = 0 ⇒ (u·n − u′·n )xn = 0. On a u·n = u′·n
ou xn = 0.
• Si u·n = u′·n , alors U = U ′ .
• Si xn = 0, alors u·n et u′·n sont des colonnes pivots de U et U ′ , respectivement. Comme
U et U ′ sont des formes échelonnées réduites, on a u·n = u′·n = er ∈ Rm ⇒ U = U ′ .
Remarque. L’algorithme qui consiste à transformer une matrice en une forme échelonnée réduite par
des opérations élémentaires sur les lignes est parfois appelé élimination de Gauss-Jordan.
Rang Le rang d’une matrice A ∈ Rm×n , dénoté rg A, est le nombre des colonnes linéairement
indépendantes de A.
Théorème 10. Le rang d’une matrice A est le nombre des pivots dans une forme échelonnée de A.
Démonstration. Soit U = [uij ] ∈ Rm×n la forme échelonnée réduite d’une matrice A = [aij ] ∈ Rm×n .
Supposons que U a r pivots. Nous démontrons que rg A = r.
i) Soient v k = ejk − ri=1 uijk eji , k = r + 1, . .P
P
. , n, les solutions spéciales de U x = 0. Pour
tout k = r + 1, . . . , n, on a Av k = 0 ⇒ a·jk = ri=1 uijk a·ji , i.e., les colonnes a·jr+1 , . . . , a·jn
dépendent linéairement des colonnes a·j1 , . . . , a·jr .
ii) Comme A ∼ U , il existe une matrice inversible C ∈ Rm×m telle que U = CA. Pour
xj1 , . . . , xjr ∈ R,
r r
U =CA
X X
xji a·ji = 0 ⇔ xji u·ji = 0 ⇔ xj1 = . . . = xjr = 0.
|{z}
i=1 i=1
=ei
18
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
1 −1 0 1 1
a) A =
1 1 −2 b) B = −1 1
0 −2
Démonstration. Par définition, le rang de AT est le nombre des lignes linéairement indépendantes
dans A. Supposons que rg A = r. Nous montrons que rg AT = r.
• Soit U une forme échelonnée de A. Les r lignes non nulles u1· , . . . , ur· de U sont linéairement
indépendantes. On a rg U T = rg U = r.
• Les lignes de A sont des combinaisons des r lignes non nulles de U . On a rg AT ≤ rg U T = r.
Or, A = (AT )T ⇒ r = rg A = rg(AT )T ≤ rg AT ≤ r ⇒ rg AT = r.
Propriétés.
1. Si A ∈ Rm×n , alors rg A ≤ min{m, n}.
2. Si A, B ∈ Rm×n et A ∼ B, alors rg A = rg B.
3. Si A ∈ Rm×n et B ∈ Rn×p , alors rg(AB) ≤ min{rg A, rg B}.
avec tr+1 , . . . , tn ∈ R.
19
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES
c) Si rg[U | b′ ] = r < n, alors ui· = 0 et b′i = 0 pour tout i > r. Soient j1 < . . . < jr les indices
des colonnes pivots de U et jr+1 < . . . < jn ceux des colonnes libres. Le système linéaire
Ax = b admet une solution v 0 = (v0j ) telle que
(
b′ si j = j1 , . . . jr ,
v0j = j
0 sinon.
avec tr+1 , . . . , tn ∈ R.
où b = (b1 , b2 , b3 ) ∈ R3 .
a) Trouvez tous les vecteurs b = (b1 , b2 , b3 ) pour lesquels le système linéaire admet au moins une
solution ?
b) Quelle est la solution générale du système linéaire si b = (5, 14, 35) ?
Calcul de la matrice inverse Soit une matrice A ∈ Rn×n . On cherche une matrice X ∈ Rn×n
telle que AX = In . Si X = [x1 , . . . , xn ], cela revient à résoudre n systèmes linéaires Axi = ei . On
peut les résoudre simultanément en considérant la matrice augmentée [A | In ]. Si A est inversible,
l’élimination de Gauss-Jordan donne [A | In ] ∼ [In | A−1 ].
Exemple 27. Trouvez, si possible, l’inverse de la matrice
1 1 1
2 3 6
A = 16 1
2
1
3
1 1 1
3 6 2
2.5 Décomposition LU
La décomposition LU d’une matrice carrée A consiste à écrire A comme le produit d’une matrice
triangulaire inférieure L et d’une matrice triangulaire supérieure U , i.e., A = LU .
Existence Si une matrice carrée A peut être échelonnée sans permutation des lignes, alors il existe
une matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que A = LU .
Exemple 28. Trouvez, si possible, une décomposition LU de la matrice
1 1 1
2 3 6
A = 16 1
2
1
3
.
1 1 1
3 6 2
20
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
Application Soit une matrice inversible A ∈ Rn×n et soit b ∈ Rn . Si A possède une décomposition
LU , alors résoudre le système linéaire Ax = b revient à résoudre
(
Ly = b,
U x = y.
Matrice de permutation Soit σ = (σ(1), . . . , σ(n)) est une permutation de {1, . . . , n}. Une matrice
de permutation est une matrice Pσ := (eσ(1) , . . . , eσ(n) ), obtenue en permutant les lignes de la matrice
identité In .
Propriétés.
1. Si σ et τ sont deux permutations de {1, . . . , n}, alors Pσ◦τ = Pσ Pτ .
2. Si σ est une permutation de {1, . . . , n}, alors Pσ−1 = Pσ−1 = PσT .
3. Si A = (a1 , . . . , an ) ∈ Rn×n et σ est une permutation {1, . . . , n}, Pσ A = (aσ(1) , . . . , aσ(n) ).
Décomposition P A = LU Pour toute matrice carrée A, il existe une matrice de permutation P , une
matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que P A = LU .
2.6 Exercices
18. Pour un entier n ≥ 2, trouvez toutes les matrices élémentaires d’ordre n et déterminez leurs
inverses respectives.
19. Calculez le rang de la matrice
1 x0 . . . xm
0
1 x1 . . . xm
1
Vn,m = .. .. ,
. . . . . ..
.
1 xn . . . xm
n
où m, n ≥ 1 sont des entiers et x0 < x1 < . . . < xn des nombres réels deux à deux distincts.
21
C. Bingane CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES
21. Montrez qu’une matrice A ∈ Rm×n est de rang r > 0 ssi il existe deux matrices B ∈ Rm×r et
C ∈ Rr×n de rang r telles que A = BC.
22. Montrez qu’une matrice A ∈ Rm×n est de rang r > 0 ssi il existe deux matrices B ∈ Rm×r et
C ∈ Rr×n de rang r telles que CAB = Ir .
où b = (b1 , b2 , b3 , b4 ) ∈ R4 .
a) Trouvez tous les vecteurs b = (b1 , b2 , b3 , b4 ) pour lesquels le système linéaire admet au moins
une solution.
b) Quelle est la solution générale du système linéaire si b = (27, 36, 16, 144) ?
où c = (c1 , . . . , c5 ) ∈ R5 .
a) Trouvez tous les vecteurs c = (c1 , . . . , c5 ) pour lesquels le système linéaire admet au moins une
solution.
b) Quelle est la solution générale du système linéaire si c = (2, 2, 3, 6, 18) ?
22
CHAPITRE 2. SYSTÈMES D’ÉQUATIONS LINÉAIRES C. Bingane
27. On donne
A11 A12
A= ,
A21 A22
où Aij ∈ Rνi ×νj pour tout i, j = 1, 2.
a) Montrez que si A11 et B22 := A22 − A21 A−1
11 A12 sont inversibles, alors
−1
A11 + A−1 −1 −1
−A−1 −1
−1 11 A12 B22 A21 A11 11 A12 B22
A = −1 .
−B22 A21 A−1
11
−1
B22
b) Montrez que si A22 et B11 := A11 − A12 A−122 A21 sont inversibles, alors
−1 −1
A12 A−1
−1 B11 −B11 22
A = −1 .
−A−1 −1
22 A21 B11 A−1 −1 −1
22 + A22 A21 B11 A12 A22
23
Chapitre 3
Espaces vectoriels
24
CHAPITRE 3. ESPACES VECTORIELS C. Bingane
Sous-espace vectoriel Soit E un espace vectoriel réel. Un ensemble non vide F ⊆ E est un sous-
espace de E si pour tout x, y ∈ F, pour tout a, b ∈ R, ax + by ∈ F.
Remarques.
1. {0} et E sont des sous-espaces de E, appelés sous-espaces triviaux.
2. Un sous-espace F ⊃ {0} est une droite vectorielle de E si pour tout sous-espace G ⊆ F, on a
G = {0} ou G = F.
3. Un sous-espace F ⊂ E est un hyperplan vectoriel de E si pour tout sous-espace G ⊇ F, on a
G = F ou G = E.
Somme directe La somme F + G de deux sous-espaces F et G de E est dite directe si tout vecteur
z ∈ F + G se décompose de façon unique en z = x + y, où (x, y) ∈ F × G. On note la somme
directe F ⊕ G. Si F ⊕ G = E, on dit que F et G sont supplémentaires dans E.
Théorème 16. La somme F + G de deux sous-espaces F et G d’un espace vectoriel réel E est directe
ssi F ∩ G = {0}.
Démonstration.
25
C. Bingane CHAPITRE 3. ESPACES VECTORIELS
Exemple 32. Soit a ∈ Rn \ {0}. Montrez que la droite vectorielle Da := {ta | t ∈ R} et l’hyperplan
vectoriel Ha := {x ∈ Rn | ⟨a, x⟩ = 0} sont supplémentaires dans Rn .
est un sous-espace de E, appelé sous-espace engendré par les vecteurs v i , i ∈ I. De plus, vect(v i )i∈I
est le plus petit sous-espace de E contenant tous les vecteurs v i .
On dit qu’une famille (v i )i∈I de vecteurs de E engendre E si vect(v i )i∈I = E. Si I est fini, on dit que
E est de dimension finie.
Exemple 33. Montrez que la famille (1, x, . . . , xn ) de monômes de Rn [x] est libre.
Théorème 18. Une famille (v i )i∈I de vecteurs de E est liée ssi il existe k ∈ I tel que v k ∈
vect(v i )i∈I\{k} .
26
CHAPITRE 3. ESPACES VECTORIELS C. Bingane
Démonstration.
• Supposons que la famille P (v i )i∈I est liée. Il existe une famille à support fini (ai )i∈I de scalaires
pas tous nuls telle que i∈I ai v i = 0. Il existe k ∈ I tel que
X ai
ak ̸= 0 ⇒ v k = − v i ⇒ v k ∈ vect(v i )i∈I\{k} .
ak
i∈I\{k}
• Supposons qu’il existe k ∈ I tel que v k ∈ vect(v i )i∈I\{k} . Il existe une famille à support fini
(ai )i∈I\{k} de scalaires telle que
X X
vk = ai v i ⇒ v k − ai v i = 0.
i∈I\{k} i∈I\{k}
Théorème 19. Si (v i )i∈I est une famille libre de vecteurs de E et (wj )j∈J est une famille qui
engendre E, alors |I| ≤ |J|.
Démonstration. Nous démontrons ce théorème pour le cas où I et J sont finis. Soient |I| = m et
|J| = n. Nous montrons par récurrence sur m que m ≤ n.
i) Soit m = 1 et soit E = vect(w1 , . . . , wn ). Comme v 1 ∈ E, il existe b1 , . . . , bn ∈ R tels que
v 1 = b1 w 1 + . . . + bn w n .
Comme v 1 ̸= 0, il existe j = 1, . . . , n tel que bj ̸= 0. Sans perte de généralité, supposons que
b1 ̸= 0. Alors
1
w1 = − (−v 1 + b2 w2 + . . . + bn wn )
b1
⇒ w1 ∈ vect(v 1 , w2 , . . . , wn )
⇒ E = vect(v 1 , w2 , . . . , wn ) ⇒ n ≥ 1.
ii) Supposons que E = vect(v 1 , . . . , v m−1 , wm , . . . , wn ). Comme v m ∈ E, il existe
a1 , . . . , am−1 , bm , . . . , bn ∈ R
tels que
v m = a1 v 1 + . . . + am−1 v m−1 + bm wm + . . . + bn wn .
Comme (v 1 , . . . , v m ) est libre, il existe j = m, . . . , n tel que bj ̸= 0. Sans perte de généralité,
supposons que bm ̸= 0. Alors
1
wm = − (a1 v 1 + . . . + am−1 v m−1 − v m + bm+1 wm+1 + . . . + bn wn )
bm
⇒ wm ∈ vect(v 1 , . . . , v m , wm+1 , . . . , wn )
⇒ E = vect(v 1 , . . . , v m , wm+1 , . . . , wn ) ⇒ n ≥ m.
Théorème 20. Soit E un espace vectoriel réel de dimension finie. Si F est un sous-espace de E, alors
F est de dimension finie.
Démonstration. Supposons que E = vect(v 1 , . . . , v n ) et soit F un sous-espace de E. Nous démontrons
par construction que F est de dimension finie.
i) Si F = {0}, alors F est de dimension finie. Sinon, F ⊃ {0} et il existe un vecteur non nul
w1 ∈ F.
ii) Pour k ≥ 2, si F = vect(w1 , . . . , wk−1 ), alors F est de dimension finie. Sinon, F ⊃
vect(w1 , . . . , wk−1 ) et il existe wk ∈ F tel que wk ̸∈ vect(w1 , . . . , wk−1 ).
27
C. Bingane CHAPITRE 3. ESPACES VECTORIELS
Théorème 23. Si (v i )i∈I et (wj )j∈J sont deux bases de E, alors |I| = |J|.
Démonstration. Par définition, (v i )i∈I est libre et (wj )j∈J engendre E. D’après le théorème 19,
|I| ≤ |J|. De même, |I| ≥ |J| car (v i )i∈I engendre E et (wj )j∈J est libre. Donc, |I| = |J|.
Dimension La dimension de E, dénotée dim E, est le nombre des vecteurs dans une base de E.
Exemple 35. Quelle est la dimension de Rn [x] ?
Propriétés. Soit dim E = n.
1. Si v 1 , . . . , v m ∈ E engendrent E, alors m ≥ n.
2. Si v 1 , . . . , v m ∈ E sont linéairement indépendants, alors m ≤ n.
3. Si v 1 , . . . , v n ∈ E engendrent E, alors ils forment une base de E.
4. Si v 1 , . . . , v n ∈ E sont linéairement indépendants, alors ils forment une base de E.
5. Si F est un sous-espace de E, alors dim F ≤ n et dim F = n ⇔ F = E.
6. Si F est un sous-espace de E et (v 1 , . . . , v m ) est une base de F avec m < n, alors il existe
n − m vecteurs v m+1 , . . . , v n ∈ E tels que (v 1 , . . . , v m , v m+1 , . . . , v n ) est une base de E.
n×n
Pn deux bases de E, alors il existe une matrice
7. Si (v 1 , . . . , v n ) et (w1 , . . . , wn ) sont Pn inversible
A = [aij ] ∈ R telle que v j = i=1 aij wi . De plus, pour tout x ∈ E, si x = j=1 xj v j =
P n
y
i=1 i i w , alors
y1 a11 . . . a1n x1
.. .. . . .
.. ...
.= . .
.
yn an1 . . . ann xn
Théorème 24. Si F et G sont deux sous-espaces de E, alors
Démonstration. Nous démontrons ce théorème pour le cas où F et G sont de dimension finie. Soit
dim F = m et dim G = n. Supposons que dim(F ∩ G) = r ≤ min{m, n}.
28
CHAPITRE 3. ESPACES VECTORIELS C. Bingane
(u1 , . . . , ur , v r+1 , . . . , v m )
(u1 , . . . , ur , wr+1 , . . . , wn )
a1 , . . . , ar , br+1 , . . . , bm , cr+1 , . . . , cn ∈ R,
on a
a1 u1 + . . . + ar ur + br+1 v r+1 + . . . + bm v m + cr+1 wr+1 + . . . + cn wn = 0
⇒ cr+1 wr+1 + . . . + cn wn = −a1 u1 − . . . − ar ur − br+1 v r+1 − . . . − bm v m
| {z } | {z }
∈G ∈F
⇒ cr+1 wr+1 + . . . + cn wn ∈ F ∩ G.
Il suit que
Donc, la famille (u1 , . . . , ur , v r+1 , . . . , v m , wr+1 , . . . , wn ) est une base de F + G, ce qui implique
dim(F + G) = r + (m − r) + (n − r) = m + n − r.
29
C. Bingane CHAPITRE 3. ESPACES VECTORIELS
ck+1 v k+1 + . . . + cn v n = c1 v 1 + . . . + ck v k
⇒ −c1 v 1 − . . . − ck v k + ck+1 v k+1 + . . . + cn v n = 0.
30
CHAPITRE 3. ESPACES VECTORIELS C. Bingane
Propriétés. Soit A ∈ Rm×n une matrice de rang r, soit U ∈ Rm×n une forme échelonnée de A, et soit
C ∈ Rm×m la matrice inversible telle que A = CU .
1. Les lignes non nulles u1· , . . . , ur· ∈ Rn de U forment une base de l’espace des lignes im AT .
2. Les solutions spéciales v r+1 , . . . , v n ∈ Rn de U x = 0 forment une base du noyau ker A.
3. Les colonnes a·j1 , . . . , a·jr ∈ Rm de A correspondant respectivement aux colonnes pivots
u·j1 , . . . , u·jr ∈ Rm de U forment une base de l’espace des colonnes im A.
4. Les colonnes c·1 , . . . , c·r ∈ Rm de C forment une base de l’espace des colonnes im A.
5. Les vecteurs er+1 , . . . , em ∈ Rm forment une base du conoyau im U T .
6. Les vecteurs wr+1 , . . . , wm ∈ Rm tels que C T wi = ei , i = r + 1, . . . , m, forment une base du
conoyau im AT .
3.4 Exercices
28. Montrez que l’ensemble donné, muni des opérations usuelles : l’addition + et la multiplication
par un scalaire ·, est un espace vectoriel réel.
a) L’ensemble Rn des vecteurs réels de dimension n
b) L’ensemble Rm×n des matrices réelles de dimension m × n
c) L’ensemble RN des suites réelles
d) L’ensemble Rn [x] des polynômes à coefficients réels de degré inférieur ou égal à n
e) L’ensemble R[x] des polynômes à coefficients réels
f) L’ensemble R[a,b] des fonctions réelles définies sur [a, b]
g) L’ensemble C 0 [a, b] des fonctions réelles continues sur [a, b]
h) L’ensemble C n [a, b] des fonctions réelles n fois continûment dérivables sur [a, b]
30. Soit F un sous-ensemble d’un espace vectoriel réel E. Soit vect(F) l’ensemble de toutes les
combinaisons linéaires de vecteurs de F.
a) Montrez que vect(F) est un sous-espace de E.
b) Montrez que vect(F) est le plus petit sous-espace de E contenant F.
31
C. Bingane CHAPITRE 3. ESPACES VECTORIELS
33. Pour un entier n ≥ 1, on note Mn l’espace vectoriel réel des matrices carrées d’ordre n. Soit Sn
le sous-ensemble des matrices symétriques et Tn celui des matrices antisymétriques.
a) Montrez que Sn et Tn sont des sous-espaces de Mn .
b) Montrez que Mn = Sn ⊕ Tn .
34. On note F l’espace vectoriel réel des fonctions réelles. Soit G le sous-ensemble des fonctions
paires et H celui des fonctions impaires.
a) Montrez que G et H sont des sous-espaces de F.
b) Montrez que F = G ⊕ H.
35. Soit (v i )i∈I une famille de vecteurs d’un espace vectoriel réel E.
a) Montrez que si (v i )i∈I engendre E, alors toute famille (v i )i∈I + de vecteurs de E telle que I + ⊃ I
engendre E.
b) Montrez que si (v i )i∈I est libre, alors toute famille (v i )i∈I − de vecteurs de E telle que I − ⊂ I
est libre.
36. Montrez que si (v 1 , . . . , v n ) et (w1 , . . . , wm ) sont respectivement des bases de Rn et Rm , alors
les matrices wi v Tj , i = 1, . . . , m et j = 1, . . . , n, forment une base de Rm×n .
37. Pour un entier n ≥ 1, soit n + 1 nombres réels x0 < x1 < . . . < xn .
a) Pour tout i = 0, 1, . . . , n, on donne le polynôme de Lagrange
n
Y x − xj
ℓi (x) =
j=0,j̸=i
xi − xj
associé au nombre xi .
i) Montrez que les polynômes ℓi engendrent Rn [x].
ii) Montrez que les polynômes ℓi sont linéairement indépendants dans Rn [x].
b) On donne les polynômes de Newton
q0 (x) = 1,
i−1
Y
qi (x) = (x − xj ) ∀i = 1, 2, . . . , n.
j=0
39. Trouvez une base pour chacun des quatre sous-espaces associés à la matrice
0 0 0 0 1 1 0 0
1 0 0 0 0 1 1 0
1 1 1 3
B= 0 1 0 0 0 1 −2 1 0 1 0 −4 .
0 0 1 0 0 6 0 1 0 0 1 −9
0 0 0 1 0 1 0 0
32
CHAPITRE 3. ESPACES VECTORIELS C. Bingane
33
Chapitre 4
Orthogonalité
Norme euclidienne Soit E un espace préhilbertien réel. La norme euclidienne d’un vecteur x ∈ E
est le nombre positif p
∥x∥ := ⟨x, x⟩.
Si ∥x∥ = 1, on dit que le vecteur x est unitaire.
Propriétés. Pour tout x, y ∈ E, pour tout a ∈ R,
34
CHAPITRE 4. ORTHOGONALITÉ C. Bingane
Théorème 27. Si une famille (v i )i∈I de vecteurs de E est orthogonale, alors elle est libre.
P
Démonstration. Soit i∈I ai v i = 0 pour une famille à support fini (ai )i∈I de scalaires. Pour tout
j ∈ I, * +
X X v j ̸=0
0 = ⟨0, v j ⟩ = ai v i , v j = ai ⟨v i , v j ⟩ = aj ∥v j ∥2 ⇒ aj = 0.
i∈I i∈I
Théorème 28. Soit (ei )i∈I une famille orthonormale de vecteurs de E et soit F = vect(ei )i∈I .
a) (ei )i∈I est une base orthonormale de F.
P
b) Pour tout x ∈ F, x = i∈I ⟨x, ei ⟩ei .
P
c) Pour tout x, y ∈ F, ⟨x, y⟩ = i∈I ⟨x, ei ⟩⟨y, ei ⟩.
d) Pour tout x ∈ F, ∥x∥2 = i∈I ⟨x, ei ⟩2 .
P
Démonstration.
a) La famille (ei )i∈I est libre, donc une base de F.
P
b) Pour tout x ∈ F, il existe une famille à support fini (ai )i∈I de scalaires telle que x = i∈I ai e i .
Pour tout j ∈ I,
* +
X X
⟨x, ej ⟩ = ai e i , e j = ai ⟨ei , ej ⟩ = aj ∥ej ∥2 = aj .
i∈I i∈I
c) Pour tout x, y ∈ F,
* +
X X
⟨x, y⟩ = x, ⟨y, ei ⟩ei = ⟨y, ei ⟩⟨x, ei ⟩.
i∈I i∈I
d) Pour tout x ∈ F,
X X
∥x∥2 = ⟨x, x⟩ = ⟨x, ei ⟩⟨x, ei ⟩ = ⟨x, ei ⟩2 .
i∈I i∈I
Matrice orthogonale Une matrice Q ∈ Rn×n est dite orthogonale si QT Q = QQT = In . On dit
qu’une matrice Q ∈ Rm×n est semi-orthogonale si QT Q = In ou QQT = Im .
35
C. Bingane CHAPITRE 4. ORTHOGONALITÉ
Théorème 29 (Procédé de Gram-Schmidt). Soit (v i )i≥1 une famille libre de vecteurs d’un espace
préhilbertien E. Si
w1 := v 1 ,
i−1
X ⟨v i , wj ⟩
wi := v i − wj , i ≥ 2,
j=1
∥wj ∥2
vect(w1 , . . . , wi ) = vect(v 1 , . . . , v i ),
⟨wi , v i ⟩ > 0
pour tout i ≥ 1.
Exemple 40. Trouvez une base orthonormale de R3 en appliquant le procédé de Gram-Schmidt sur la
base formée par les vecteurs v 1 = ( 12 , 61 , 13 ), v 2 = ( 13 , 21 , 16 ) et v 3 = ( 16 , 31 , 12 ).
Décomposition QR Si A = [a1 , . . . , an ] ∈ Rm×n est une matrice de rang n, alors il existe une
matrice semi-orthogonale Q = [q 1 , . . . , q n ] ∈ Rm×n et une matrice triangulaire supérieure R ∈ Rn×n
telles que A = QR. (q 1 , . . . , q n ) est la base orthonormale de im A obtenue de la base (a1 , . . . , an )
avec le procédé de Gram-Schmidt.
36
CHAPITRE 4. ORTHOGONALITÉ C. Bingane
et w = x − v. On a v ∈ F et pour tout i = 1, . . . , m,
Donc, E = F + F ⊥ ⇒ E = F ⊕ F ⊥ .
ii) On sait que F ⊆ (F ⊥ )⊥ et F ⊥ ∩(F ⊥ )⊥ = {0}. Soit x ∈ (F ⊥ )⊥ . Comme E = F ⊕F ⊥ , il existe
(v, w) ∈ F × F ⊥ tel que x = v + w. Comme v ∈ F ⊆ (F ⊥ )⊥ , on a w = x − v ∈ (F ⊥ )⊥ ⇒
w ∈ F ⊥ ∩ (F ⊥ )⊥ = {0} ⇒ w = 0 ⇒ x = v ∈ F. Donc, (F ⊥ )⊥ ⊆ F ⇒ (F ⊥ )⊥ = F.
37
C. Bingane CHAPITRE 4. ORTHOGONALITÉ
Démonstration.
a) Supposons qu’il existe v ∈ F tel que x−v ∈ F ⊥ . On a v−projF x = (x−projF x)−(x−v) ∈
F ⊥ . Donc, v − projF x ∈ F ∩ F ⊥ = {0} ⇒ v = projF x.
b) Si projF x existe, alors x = (x − projF x) + projF x ⇒ ∥x∥2 = ∥x − projF x∥2 +
∥ projF x∥2 ⇒ ∥x∥ ≥ ∥ projF x∥.
c) Si x ∈ F, on peut écrire x = x + 0, avec x ∈ F et 0 ∈ F ⊥ . Si on pose projF x = x ∈ F, on
a x − projF x = 0 ∈ F ⊥ .
d) Si x ∈ F ⊥ , on peut écrire x = 0 + x, avec 0 ∈ F et x ∈ F ⊥ . Si on pose projF x = 0 ∈ F,
on a x − projF x = x ∈ F ⊥ .
e) Si F est dimension finie, alors E = F ⊕ F ⊥ . Il existe (v, w) ∈ F × F ⊥ tel que x = v + w et
⟨v, w⟩ = 0. Si on pose projF x = v ∈ F, on a x − projF x = v ∈ F ⊥ .
f) Supposons que projF x = a1 e1 + . . . + am em , où a1 , . . . , am ∈ R. Comme x − projF x ∈ F ⊥ ,
on doit avoir ⟨x − projF x, ei ⟩ = 0 ⇒ ⟨x, ei ⟩ − ai = 0 ⇒ ai = ⟨x, ei ⟩ pour tout i = 1, . . . , m.
Matrice de projection orthogonale Une matrice P ∈ Rn×n est dite de projection orthogonale si
elle est idempotente et symétrique, i.e., P 2 = P = P T .
38
CHAPITRE 4. ORTHOGONALITÉ C. Bingane
Théorème 32. Soit F un sous-espace de E et soit x ∈ E. Si projF x existe, alors pour tout v ∈ F,
∥x − projF x∥ ≤ ∥x − v∥, avec égalité ssi v = projF x.
⇒ ∥x − v∥ ≥ ∥x − projF x∥.
Exemple 49. Soit une matrice A ∈ Rm×n . Montrez que la projection orthogonale d’un vecteur y ∈ Rm
sur im A est ŷ = Ax̂, où x̂ est une solution de l’équation matricielle AT Ax = AT y.
Rπ
Exemple 50. Trouvez un polynôme p(x) ∈ R1 [x] qui minimise −π (sin(x) − p(x))2 dx.
Pseudo-inverse Le pseudo-inverse d’une matrice A ∈ Rm×n est l’unique matrice A+ ∈ Rn×m telle
que
39
C. Bingane CHAPITRE 4. ORTHOGONALITÉ
Démonstration.
a) Soit x ∈ Rn . On a
+ +
Ax − b = Ax
| −{zAA b} + AA
| {z b − b} ⇒ ∥Ax − b∥2 = ∥Ax − AA+ b∥2 + ∥AA+ b − b∥2
∈im A ∈ker A+ =ker AT
⇒ ∥Ax − b∥ ≥ ∥AA+ b − b∥.
+
| −{zA b} +
x=x A+ b
|{z} ⇒ ∥x∥2 = ∥x − A+ b∥2 + ∥A+ b∥2
∈ker A ∈im A+ =im AT
Démonstration.
a) S’il existe x ∈ Rn tel que Ax = b, alors AA+ b = AA+ Ax = Ax = b. Si AA+ b = b, alors il
existe x = A+ b tel que Ax = AA+ b = b.
b) Si AA+ b = b, alors la solution générale au système linéaire Ax = b est x = A+ b + ker A. Or,
ker A = ker(A+ A) = im(In − A+ A). Donc, x = A+ b + (In − A+ A)v, v ∈ Rn .
40
CHAPITRE 4. ORTHOGONALITÉ C. Bingane
4.5 Exercices
42. Montrez que si (v 1 , . . . , v n ) et (w1 , . . . , wm ) sont respectivement des bases orthonormales de
Rn et Rm , alors les matrices wi v Tj , i = 1, . . . , m et j = 1, . . . , n, forment une base orthonormale
de Rm×n .
44. Soit A ∈ Rn×n une matrice normale, i.e., AT A = AAT . Démontrez les propositions suivantes.
a) ∥Ax∥ = ∥AT x∥ pour tout x ∈ Rn .
b) ker AT = ker A et im AT = im A.
c) ker Ak = ker A et im Ak = im A pour tout entier k ≥ 1.
46. Pour un entier n ≥ 1, soient n + 1 nombres réels x0 < x1 < . . . < xn . Pour tout p, q ∈ Rn [x], soit
associé au nombre xi . Montrez que les polynômes de Lagrange ℓi forment une base orthonormale
de Rn [x].
c) Avec le procédé de Gram-Schmidt, construisez une base orthogonale de Rn [x] à partir de la
base (1, x, . . . , xn ).
R1
47. On munit C 0 [−1, 1] du produit scalaire ⟨f, g⟩ := −1 f (t)g(t) dt pour tout f, g ∈ C 0 [−1, 1]. Avec
le procédé de Gram-Schmidt, construisez une base orthogonale du sous-espace Rn [x] à partir de la
base (1, x, . . . , xn ).
48. Soit (v i )i≥1 une famille libre de vecteurs d’un espace préhilbertien E. Montrez qu’il existe une
unique famille orthonormale (ei )i≥1 telle que vect(e1 , . . . , ei ) = vect(v 1 , . . . , v i ) et ⟨ei , v i ⟩ > 0
pour tout i ≥ 1.
49. Montrez que si A et B sont deux matrices orthogonales, alors AB est une matrice orthogonale.
Rπ
50. On munit E = C 0 [−π, π] du produit scalaire ⟨f, g⟩ := −π f (t)g(t) dt pour tout f, g ∈ E. Pour
tout entier n ≥ 0, soit
un sous-espace de E.
a) Montrez que la famille (1, cos(x), . . . , cos(nx), sin(x), . . . , sin(nx)) est orthogonale.
b) Montrez que Fn ⊂ Fn+1 pour tout n ≥ 0.
c) Trouvez la projection orthogonale fˆn d’une fonction f ∈ E sur Fn . La fonction fˆ est appelée
approximation de Fourier de f .
41
C. Bingane CHAPITRE 4. ORTHOGONALITÉ
51. Dans Rn×n , soient Sn le sous-espace des matrices symétriques et Tn le sous-espace des matrices
antisymétriques. Montrez que Sn⊥ = Tn .
55. Montrez que si A ∈ Rn×n est une matrice inversible, alors A+ = A−1 .
42
Chapitre 5
Déterminants
5.1 Propriétés
Soit une matrice A = (a1 , . . . , an ) ∈ Rn×n donnée par ses vecteurs lignes ai . Le déterminant de A
est le nombre réel
a11 a12 . . . a1n
a21 a22 . . . a2n
det A = |A| = .. .. . . ..
. . . .
an1 an2 . . . ann
qui vérifie les propriétés suivantes.
i) Pour tout 1 ≤ i ≤ n, si ai = xb + yc, où b, c ∈ Rn et x, y ∈ R, alors
iii) det(e1 , . . . , en ) = 1.
De ces propriétés, on déduit que
iv) pour tout i, si ai = 0, alors det A = 0 ;
v) pour tout i < j, si ai = aj , alors det A = 0 ;
vi) pour tout i < j, pour tout λ ∈ R,
43
C. Bingane CHAPITRE 5. DÉTERMINANTS
Signature d’une permutation Pour un entier n ≥ 1, soit σ = (σ(1), . . . , σ(n)) une permutation de
{1, . . . , n}. On dit qu’un couple (i, j), i < j, est en inversion dans σ si σ(i) > σ(j). Si |σ| dénote le
nombre d’inversions dans σ, la signature de σ est ε(σ) := (−1)|σ| .
Propriétés. Soit un entier n ≥ 1.
1. Si σ est une permutation de {1, . . . , n} et Pσ = (eσ(1) , . . . , eσ(n) ), alors det Pσ = ε(σ).
2. Si σ et τ sont deux permutations de {1, . . . , n}, alors ε(σ ◦ τ ) = ε(σ)ε(τ ).
3. Si σ est une permutation de {1, . . . , n}, alors ε(σ −1 ) = ε(σ).
Théorème 35. Soit A = [aij ] ∈ Rn×n . Si σ = (σ(1), . . . , σ(n)) est une permutation de {1, . . . , n},
alors n
X Y
det A = ε(σ) ai,σ(i) ,
σ i=1
Or, det(ej1 , . . . , ejn ) est non nul si (j1 , . . . , jn ) est une permutation σ de {1, . . . , n}. Donc,
X n
Y
det A = det(eσ(1) , . . . , eσ(n) ) ai,σ(i) .
σ i=1
Exemple 58. Soit A ∈ Rn×n une matrice antisymétrique. Montrez que si n est impair alors det A = 0.
44
CHAPITRE 5. DÉTERMINANTS C. Bingane
Pn
Démonstration. Soit AB = (c1· , . . . , cn· ) ∈ Rn×n . Pour tout i = 1, . . . , n, ci· = j=1 aij bj· . On a
!
X
det(AB) = det(c1· , . . . , cn· ) = det a1j1 bj1 · , c2· , . . . , cn·
1≤j1 ≤n
X X
= a1j1 det(bj1 · , c2· , . . . , cn· ) = . . . = a1j1 . . . anjn det(bj1 · , . . . , bjn · )
1≤j1 ≤n 1≤j1 ,...,jn ≤n
X n
Y X n
Y
= det(bσ(1),· , . . . , bσ(n),· ) ai,σ(i) = det(P B) ai,σ(i)
| {z } i=1 | {zσ }
σ σ i=1
=Pσ B =det Pσ det B
X Y n
= det B det Pσ ai,σ(i) = det B det A.
σ i=1
Exemple 60. Montrez que si A est inversible, alors det A−1 = det−1 A.
Démonstration. Soient a1 , . . . , an ∈ Rn .
• Supposons
Pn que a1 , . . . , an sont linéairement dépendants. Il existe i = 1, . . . , n tel que ai =
j=1,j̸=i j aj , où xj ∈ R. On a
x
n
X
det(a1 , . . . , ai−1 , ai , ai+1 , . . . , an ) = xj det(a1 , . . . , ai−1 , aj , ai+1 , . . . , an )
j=1,j̸=i
X n
= xj · 0 = 0.
j=1,j̸=i
5.2 Cofacteurs
Soit A = [aij ] ∈ Rn×n . Pour tout i, j = 1, . . . , n, soit Aij la sous-matrice carrée déduite de A en sup-
primant la i-ième ligne et la j-ième colonne. On définit le cofacteur de aij par cij = (−1)i+j det(Aij ).
La matrice des cofacteurs com A = [cij ] ∈ Rn×n est appelée comatrice de A.
Exemple 63. Soit une matrice A = [aij ] ∈ Rn×n telle que a1j = 0 pour tout j = 2, . . . , n. Montrez
que det A = a11 c11 , où c11 = det A11 est le cofacteur de a11 .
45
C. Bingane CHAPITRE 5. DÉTERMINANTS
Théorème 39. Soit A = P [aij ] ∈ Rn×n . Pour tout i, j = 1, . . . , n, soit cij le cofacteur
P de aij . Pour
tout i = 1, . . . , n, det A = nj=1 aij cij . De même, pour tout j = 1, . . . , n, det A = ni=1 aij cij .
Démonstration. Pour tout i = 1, . . . , n,
det A = det(a1· , . . . , ai−1,· , ai· , ai+1,· , . . . , an· )
= (−1)i−1 det(ai· , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ).
Or,
n
!
X
det(ai· , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ) = det aij ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an·
j=1
n
X
= aij det(ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ).
j=1
Pour tout j = 1, . . . , n,
0 ... 0 1 0 ... 0
a11 ... a1,j−1 a1j a1,j+1 ... a1n
.. .. .. .. ..
. . . . .
det(ej , a1· , . . . , ai−1,· , ai+1,· , . . . , an· ) = ai−1,1 . . . ai−1,j−1 ai−1,j ai−1,j+1 . . . ai−1,n
ai+1,1 . . . ai+1,j−1 ai+1,j ai+1,j+1 . . . ai+1,n
.. .. .. .. ..
. . . . .
an1 . . . an,j−1 anj an,j+1 . . . ann
1 0 ... 0 0 ... 0
a1j a11 ... a1,j−1 a1,j+1 ... a1n
.. .. .. .. ..
. . . . .
= (−1)j−1 ai−1,j ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
ai+1,j ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. .. ..
. . . . .
anj an1 . . . an,j−1 an,j+1 . . . ann
a11 ... a1,j−1 a1,j+1 ... a1n
.. .. .. ..
. . . .
ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
= (−1)j−1 = (−1)j−1 det Aij .
ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. ..
. . . .
an1 . . . an,j−1 an,j+1 . . . ann
Donc,
n
X n
X n
X
i−1 j−1 i+j
det A = (−1) aij (−1) det Aij = aij (−1) det Aij = aij cij .
j=1 j=1 j=1
Pn
Sachant que det AT = det A, on a det A = i=1 aij cij pour tout j = 1, . . . , n.
Exemple 64. Calculez le déterminant de la matrice
1 1 1
2 3 6
A= 1 1 1
6 2 3
1 1 1
3 6 2
46
CHAPITRE 5. DÉTERMINANTS C. Bingane
Théorème 40. Pour tout A ∈ Rn×n , A(com A)T = (com A)T A = det(A)In . De plus
a) si A est inversible, alors com A = det(A)(A−1 )T ;
b) si rg A = n − 1, alors rg(com A) = 1 et com A = yxT , avec x ∈ ker A et y ∈ ker AT ;
c) si rg A ≤ n − 2, alors com A = On .
Donc, D = D′ = det(A)In .
a) Si A est inversible, on a A(com A)T = det(A)In ⇒ com A = det(A)(A−1 )T .
b) Si rg A = n − 1, on a det A = 0 ⇒ A(com A)T = On ⇒ im(com A)T ⊆ ker A ⇒
rg(com A) ≤ dim ker A = 1. Comme rg A = n − 1, il existe i, j tels que det Aij ̸= 0. Donc,
com A ̸= On ⇒ rg(com A) = 1. On peut écrire alors com A = yxT , où x, y ∈ Rn \ {0}.
Comme A(com A)T = On , on doit avoir x ∈ ker A et y ∈ ker AT .
c) Si rg A ≤ n − 2, alors pour tout i, j, det Aij = 0. Donc, com A = On .
Propriétés.
1. Pour tout A ∈ Rn×n , com AT = (com A)T et det(com A) = detn−1 A.
2. Pour tout A ∈ Rn×n , pour tout x ∈ R, com(xA) = xn−1 com A.
3. Pour tout A, B ∈ Rn×n , com(AB) = com A com B.
5.3 Applications
Théorème 41 (Règle de Cramer). Soit A = [a1 , . . . , an ] ∈ Rn×n et soit b ∈ Rn . Si A est inversible,
alors l’unique solution x = (x1 , . . . , xn ) au système linéaire a1 x1 + . . . + an xn = b est donnée par
pour tout j = 1, . . . , n.
47
C. Bingane CHAPITRE 5. DÉTERMINANTS
Démonstration. Soit A = [aij ] ∈ Rn×n et com A = [cij ] la comatrice de A. Si A est inversible, alors
A)T A)T b
A−1 = (com
det A
et l’unique solution du système linéaire Ax = b est x = A−1 b = (comdet A
. D’après
le théorème 39, on peut écrire
n
X
xj det A = bi cij = det[a1 , . . . , aj−1 , b, aj+1 , . . . , an ]
i=1
pour tout j = 1, . . . , n.
Démonstration. Soit A = [a1 , . . . , an ] ∈ Rm×n , soit P(A) le parallélotope engendré par les vecteurs
colonnes de A et soit Vn (P(A)) l’hypervolume de dimension n de P(A). Comme a1 , . . . , an sont
linéairement indépendants, il existe une matrice semi-orthogonale Q ∈ Rm×n et une matrice triangu-
laire supérieure R ∈ Rn×n telles que A = QR. La matrice Q représente une transformation unitaire
n m
p R vers R , i.e., Vn (P(A)) = VnT(P(R)). D’une part,
de Vn (P(R)) = |r11 | . . . |rnn | = | det R| =
det(RT R). D’autre part, comme Q Q = In , on a RT R = RT QT QR T
√ = A A. Donc, Vn (P(A)) =
p p
det(AT A). En particulier, si m = n, Vn (P(A)) = det(AT A) = det2 A = | det A|.
5.4 Exercices
57. Pour la matrice A = [aij ] ∈ Rn×n donnée, calculez det A et com A.
58. Soit A ∈ Rn×n une matrice idempotente. Montrez que det A ∈ {0, 1} et det A = 1 ssi A = I.
pour un entier n ≥ 1. Montrez que |Tn | = an |Tn−1 | − bn−1 cn−1 |Tn−2 | pour tout n ≥ 3.
48
CHAPITRE 5. DÉTERMINANTS C. Bingane
(
bpn (c)−cpn (b)
b−c
si b ̸= c,
|An | = ′
pn (b) − bpn (b) si b = c.
où x0 , x1 , . . . , xn ∈ R.
62. Pour un entier n ≥ 1, calculez le déterminant de la matrice de Hilbert
1 21 . . . 1
n
1 1
. . . 1
2 3 n+1
Hn = .. .. .. .. .
. . . .
1 1 1
n n+1
... 2n−1
où c0 , c1 , . . . , cn−1 ∈ R.
64. Montrez que n fonctions y1 , y2 , . . . , yn ∈ C n [a, b] sont linéairement indépendantes ssi il existe
a < t < b tel que
y1 (t) y2 (t) ... yn (t)
′
y1 (t) y2′ (t) ... yn′ (t)
W (t) := .. .. .. .. ̸= 0.
. . . .
(n−1) (n−1) (n−1)
y1 (t) y2 (t) . . . yn (t)
65. On donne n vecteurs v 1 , . . . , v n d’un espace préhilbertien réel. Soit la matrice de Gram
⟨v 1 , v 1 ⟩ ⟨v 1 , v 2 ⟩ . . . ⟨v 1 , v n ⟩
⟨v 2 , v 1 ⟩ ⟨v 2 , v 2 ⟩ . . . ⟨v 2 , v n ⟩
G(v 1 , . . . , v n ) :=
.. .. . . ..
. . . .
⟨v n , v 1 ⟩ ⟨v n , v 2 ⟩ . . . ⟨v n , v n ⟩
49
C. Bingane CHAPITRE 5. DÉTERMINANTS
66. Pour un entier n ≥ 1, soit A = [aij ] ∈ R2n×2n une matrice antisymétrique. Montrez que
n
!2
X Y
det A = ε(σ) aσ(2i−1),σ(2i) .
σ i=1
67. On donne
A11 A12
A= ,
A21 A22
où Aij ∈ Rνi ×νj pour tout i, j = 1, 2.
a) Montrez que si A12 = Oν1 ,ν2 ou A21 = Oν2 ,ν1 , alors det A = det(A11 ) det(A22 ).
b) Montrez que si A11 est inversible, alors det A = det(A11 ) det(A22 − A21 A−1
11 A12 ).
c) Montrez que si A22 est inversible, alors det A = det(A22 ) det(A11 − A12 A−1
22 A21 ).
68. Soit A = [aij ] ∈ Rn×n . Montrez que pour tout i = 1, . . . , n, det A = aii det(Aii )−cTi (com Aii )T bi ,
où Aii est la sous-matrice obtenue de A en supprimant la i-ème ligne et la i-ème colonne, b =
(a1i , . . . , ai−1,i , ai+1,i , . . . , ani ) et c = (ai1 , . . . , ai,i−1 , ai,i+1 , . . . , ain ).
50
Chapitre 6
Sous-espace propre Si λ ∈ R est une valeur propre de A ∈ Rn×n , alors ker(A − λIn ) est appelé
sous-espace propre de A associé à la valeur propre λ.
Théorème 43. Soit une matrice A ∈ Rn×n . Les propositions suivantes sont équivalentes.
a) λ ∈ R est une valeur propre de A.
b) ker(A − λIn ) ⊃ {0}.
c) det(A − λIn ) = 0.
Démonstration.
a) ⇒ b) : Si λ ∈ R est une valeur propre de A, alors il existe x ∈ Rn \ {0} tel que Ax = λx ⇒
(A − λIn )x = 0 ⇒ ker(A − λIn ) ⊃ {0}.
b) ⇒ c) : Si ker(A − λIn ) ⊃ {0}, alors rg(A − λIn ) < n ⇒ det(A − λIn ) = 0.
c) ⇒ a) : Si det(A − λIn ) = 0, alors il existe x ∈ Rn \ {0} tel que (A − λIn )x = 0 ⇒ Ax = λx.
Donc, λ est une valeur propre de A.
Polynôme caractéristique Les valeurs propres de A ∈ Rn×n sont les racines du polynôme pA (t) :=
det(A − tIn ) de degré n, appelé polynôme caractéristique de A.
Propriétés. Soit A ∈ Rn×n .
1. pAT = pA .
2. Si B ∈ Rn×n est une matrice inversible, alors pB −1 AB = pA .
3. Si A possède n valeurs propres λ1 , . . . , λn , alors tr A = ni=1 λi et det A = ni=1 λi .
P Q
51
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES
c) Calculez pA (A).
Théorème 44. Si v 1 , . . . , v k ∈ Rn sont des vecteurs propres d’une matrice A ∈ Rn×n associés
respectivement aux valeurs propres distinctes λ1 , . . . , λk ∈ R, alors ils sont linéairement indépendants.
Démonstration. Nous démontrons cet énoncé par récurrence sur k.
i) Pour k = 1, v 1 ̸= 0 est linéairement indépendant.
ii) Supposons que l’énoncé est vrai pour k − 1, i.e., v 1 , . . . , v k−1 sont linéairement indépendants.
Montrons qu’il est vrai pour k. Pour c1 , . . . , ck ∈ R, soit l’équation vectorielle
c1 v 1 + . . . + ck v k = 0.
D’une part,
0 = A0 = A(c1 v 1 + . . . + ck v k ) = c1 Av 1 + . . . + ck Av k = c1 λ1 v 1 + . . . + ck λk v k .
D’autre part,
0 = λk 0 = λk (c1 v 1 + . . . + ck v k ) = c1 λk v 1 + . . . + ck λk v k .
Il suit que c1 (λk −λ1 )v 1 +. . .+ck−1 (λk −λk−1 )v k−1 = 0. Comme v 1 , . . . , v k−1 sont linéairement
indépendants et λ1 , . . . , λk sont deux à deux distinctes, on a
k v ̸=0
c1 = . . . = ck−1 = 0 ⇒ c1 v 1 + . . . + ck v k = ck v k = 0 ⇒ ck = 0.
Donc, v 1 , . . . , v k sont linéairement indépendants.
6.2 Diagonalisation
Matrice diagonalisable Une matrice A ∈ Rn×n est diagonalisable sur R s’il existe une matrice
inversible S ∈ Rn×n et une matrice diagonale Λ ∈ Rn×n telles que A = SΛS −1 . On dit que S
diagonalise A sur R.
Multiplicité d’une valeur propre Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . On
définit
• la multiplicité algébrique de λ par l’ordre de multiplicité m de λ comme racine dans le polynôme
caractéristique de A,
• la multiplicité géométrique de λ par la dimension d du sous-espace propre associé.
Théorème 45. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . Si m est sa multiplicité
algébrique et d sa multiplicité géométrique, alors 1 ≤ d ≤ m.
Démonstration. Soit λ ∈ R une valeur propre de A ∈ Rn×n de multiplicité algébrique m et de
multiplicité géométrique d = dim ker(A − λIn ). Soit (v 1 , . . . , v d ) une base de ker(A − λIn ). Il existe
v d+1 , . . . , v n ∈ Rn tels que (v 1 , . . . , v d , v d+1 , . . . , v n ) est une base de Rn . Considérons la matrice
inversible
V = [v 1 , . . . , v d , v d+1 , . . . , v n ].
D’une part,
−1 λId B
V AV = ,
On−d,d C
où B ∈ Rd×(n−d) et C ∈ R(n−d)×(n−d) . D’autre part,
pA (t) = pV −1 AV (t) = det(V −1 AV − tIn ) = (λ − t)d det(C − tIn−d ).
Donc, m ≥ d.
52
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane
Théorème 46. Soit une matrice A ∈ Rn×n . Les propositions suivantes sont équivalentes.
a) A est diagonalisable sur R.
b) A possède n vecteurs propres linéairement indépendants.
c) Si λ1 , . . . , λk ∈ R sont les valeurs propres distinctes de A de multiplicités algébriques respectives
m1 , . . . , mk et de multiplicités géométriques respectives d1 , . . . , dk , alors ki=1 mi = n et pour
P
tout i = 1, . . . , k, di = mi .
Théorème 48 (Décomposition spectrale). Si une matrice A ∈ Rn×n est symétrique alors il existe
n×n
1, . . . , qn] ∈ R
une matrice orthogonale Q = [qP et une matrice diagonale Λ = diag(λ1 , . . . , λn ) ∈
Rn×n telles que A = QΛQT = ni=1 λi q i q Ti .
53
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES
Théorème 49. Soit A ∈ Rn×n une matrice symétrique et soit C = B T AB, où B ∈ Rn×k et
B T B = Ik . Si λ1 ≥ . . . ≥ λn sont les valeurs propres de A et µ1 ≥ . . . ≥ µk celles de C, alors
λi ≥ µi ≥ λn−k+i
pour tout i = 1, . . . , k.
Pn Pk
Démonstration. Soit A = i=1 λi q i q Ti une décomposition spectrale de A et C = i=1 µi si sTi celle
de C. Soit i = 1, . . . , k.
• Soit F = vect(q i , . . . , q n ) et G = vect(s1 , . . . , si ). Comme dim F = n − i + 1 et dim G = i,
T T
il existe (x, y) ∈ F × G tel que x = By ̸= 0. On a λi ≥ xxTAx x
= yyTCy
y
≥ µi .
• Soit F = vect(q 1 , . . . , q n−k+i ) et G = vect(si , . . . , sk ). Comme dim F = n − k + i et dim G =
T T
k − i + 1, il existe (x, y) ∈ F × G tel que x = By ̸= 0. On a λn−k+i ≤ xxTAx x
= yyTCyy
≤ µi .
Propriétés.
1. Si A, B ≻ On , alors A + B ≻ On .
2. Si A ≻ On et x > 0, alors xA ≻ On .
3. Si A ≻ On , alors A−1 existe et A−1 ≻ On .
4. Si A ≻ On et B ∈ Rn×m , avec rg B = m, alors B T AB ≻ Om .
54
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane
Théorème 50. Soit A = [aij ] ∈ Rn×n une matrice symétrique. Les propositions suivantes sont
équivalentes.
a) A est définie positive.
b) Les n valeurs propres de A sont strictement positives.
c) Il existe un matrice B ∈ Rn×n de rang n telle que A = BB T .
d) Pour tout k = 1, . . . , n,
a11 . . . a1k
.. . . .
. . .. > 0.
ak1 . . . akk
D’après le théorème 42, det Ak = det(Bk BkT ) représente le carré de l’hypervolume de di-
mension k du parallélotope engendré par les vecteurs lignes de Bk . Comme rg Bk = k, on a
det Ak > 0.
d) ⇒ a) : Pour tout k = 1, . . . , n, soit
a11 . . . a1k
Ak = ... . . . ...
ak1 . . . akk
et supposons que det Ak > 0. Nous montrons par récurrence sur k que Ak ≻ Ok .
i) Pour k = 1, on a A1 = [a11 ] ≻ O1 car det A1 = a11 > 0.
ii) Pour k ≥ 2, supposons que Ak−1 ≻ Ok−1 . On peut écrire
Ik−1 A−1
Ak−1 b Ik−1 0 Ak−1 0 k−1 b
Ak = = T −1 ,
bT akk b Ak−1 1 0T akk − bT A−1
k−1 b 0T 1
| {z }| {z }| {z }
=Lk =Dk =LT
k
55
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES
Matrice semidéfinie positive Une matrice symétrique A ∈ Rn×n est dite semidéfinie positive si
xT Ax ≥ 0 pour tout x ∈ Rn et on note A ⪰ On . Elle est dite semidéfinie négative si −A est
semidéfinie positive et on note A ⪯ On .
Exemple 72. Montrez que la matrice
1 1
A=
1 1
est semidéfinie positive.
Propriétés.
1. Si A, B ⪰ On , alors A + B ⪰ On .
2. Si A ⪰ On et x ≥ 0, alors xA ⪰ On .
3. Si A ⪰ On , alors A+ ⪰ On et com A ⪰ On .
4. Si A ⪰ On et B ∈ Rn×m , alors B T AB ⪰ Om .
Remarque. Toute matrice définie positive est semidéfinie positive. La réciproque n’est pas nécessai-
rement vraie.
Théorème 51. Soit A = [aij ] ∈ Rn×n une matrice symétrique. Les propositions suivantes sont
équivalentes.
a) A est semidéfinie positive.
b) Les n valeurs propres de A sont positives.
c) Il existe un matrice B ∈ Rn×r , où r = rg A, telle que A = BB T .
d) Pour tout k = 1, . . . , n, pour tout 1 ≤ i1 < . . . < ik ≤ n,
ai 1 i 1 . . . a i 1 i k
.. ... .. ≥ 0.
. .
aik i1 . . . aik ik
D’après le théorème 42, det A(i1 ,...,ik ) = det(B(i1 ,...,ik ) B(iT 1 ,...,ik ) ) représente le carré de l’hyper-
volume de dimension k du parallélotope engendré par les vecteurs lignes de B(i1 ,...,ik ) . On a
det A(i1 ,...,ik ) ≥ 0.
d) ⇒ a) : Pour tout k = 1, . . . , n, 1 ≤ i1 < . . . < ik ≤ n, soit
ai 1 i 1 . . . a i 1 i k
A(i1 ,...,ik ) = ... .. ..
. .
aik i1 . . . aik ik
et supposons que det A(i1 ,...,ik ) ≥ 0. Nous montrons par récurrence sur k que A(i1 ,...,ik ) ⪰ Ok .
56
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane
où
A(i1 ,...,ir ) Or,k−r
Dk = ,
Ok−r,r A(ir+1 ,...,ik ) − B T A−1 (i1 ,...,ir ) B
Ir Or,k−r
Lk = ,
B T A−1(i1 ,...,ir ) Ik−r
ai1 ir+1 . . . ai1 ik
B = ... .. .. .
. .
air ir+1 . . . air ik
Comme rg A(i1 ,...,ir ) = r, on doit avoir
⇒ A(i1 ,...,ik ) ⪰ Ok .
Démonstration. Soit une matrice symétrique A = [aij ] ∈ Rn×n . Supposons que A ⪰ On,n . Nous
démontrons par récurrence sur n qu’il existe une matrice triangulaire inférieure L telle que A = LLT .
√
i) Pour n = 1, on a A = [a11 ] et L = [ a11 ].
ii) Pour n ≥ 2, supposons que le théorème est vrai pour n − 1. Soit A = [aij ] ∈ Rn×n . On écrit
An−1 b
A= ,
bT ann
57
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES
• Comme ann An−1 − bbT ⪰ On−1 , on a pour tout y ∈ ker An−1 = ker LTn−1 ,
Le vecteur x = L+
n−1 b vérifie Ln−1 x = b.
• Comme A ⪰ On , on a
−A+
An−1 b n−1 b
= ann − bT A+
T +
−b An−1 1 n−1 b ≥ 0.
bT ann 1
T +
Or, A+ + T + + 2
n−1 = (Ln−1 ) Ln−1 ⇒ ann − b An−1 b = ann − ∥Ln−1 b∥ ≥ 0. Donc,
q
2
lnn = ann − ∥L+
n−1 b∥
2
≥ 0 ⇒ lnn = ann − ∥L+ 2
n−1 b∥ .
où x+ est le pseudo-inverse de x.
Matrice indéfinie Une matrice symétrique A est dite indéfinie si elle n’est ni semidéfinie positive
ni semidéfinie négative.
58
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane
Théorème 53 (Décomposition en valeurs singulières). Si A ∈ Rm×n est une matrice de rang r > 0
et σ1 ≥ . . . ≥ σr > 0 sont ses valeurs singulières, alors il existe deux matrices orthogonales
V = [v 1 , . . . , v r , v r+1 , . . . , v n ] ∈ Rn×n ,
W = [w1 , . . . , wr , wr+1 , . . . , wm ] ∈ Rm×m
et une matrice
diag(σ1 , . . . , σr ) Or,n−r
Σ= ∈ Rm×n
Om−r,r Om−r,n−r
telles que A = W ΣV T = ri=1 σi wi v Ti . De plus,
P
Λ = diag(λ1 , . . . , λr , 0, . . . , 0),
V = [v 1 , . . . , v r , v r+1 , . . . , v n ]
Comme ker AT = (im A)⊥ et im A⊕ker AT = Rm , il existe une base orthonormale (wr+1 , . . . , wm )
de ker AT de telle sorte que (w1 , . . . , wr , wr+1 , . . . , wm ) est une base orthonormale de Rm .
Construisons à présent les matrices
diag(σ1 , . . . , σr ) Or,n−r
Σ= ,
Om−r,r Om−r,n−r
W = [w1 , . . . , wr , wr+1 , . . . , wm ].
W Σ = [σ1 w1 , . . . , σr wr , 0, . . . , 0]
= [Av 1 , . . . , Av r , Av r+1 , . . . , Av n ] = AV.
Donc, A = W ΣV T = ri=1 σi wi v Ti .
P
59
C. Bingane CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES
6.6 Exercices
69. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n associée au vecteur propre x ∈ Rn .
Démontrez les propositions suivantes.
a) Pour tout µ ∈ R, λ − µ est une valeur de propre de A − µI associée au vecteur propre x.
b) Pour tout entier k > 0, λk est une valeur propre de Ak associée au vecteur propre x.
c) Si A est inversible, alors 1/λ est une valeur propre de A−1 associée au vecteur propre x.
70. Soient deux matrices A, B ∈ Rn×n . Montrez que si λ ∈ R est une valeur propre de AB, alors elle
est aussi une valeur propre de BA.
71. Montrez que si λ ∈ R est une valeur propre d’une matrice A = [aij ] ∈ Rn×n , alors il existe
i = 1, . . . , n tel que
Xn
|λ − aii | ≤ |aij |.
j=1,j̸=i
72. On donne
2 −1 0
A= 0 3 −2 .
−3 9 −5
a) Trouvez toutes les valeurs propres de A.
b) Si possible, déterminez une matrice S qui diagonlise A.
c) Calculez eA := ∞ An
P
n=0 n! .
73. Soit λ ∈ R une valeur propre d’une matrice A ∈ Rn×n . Montrez que si la multiplicité algébrique
de λ est m, alors dim ker(A − λIn )m = m.
74. Soit A ∈ Rn×n une matrice normale. Démontrez les propositions suivantes.
a) Pour tout λ ∈ R, A − λIn est une matrice normale.
b) Si λ ∈ R et x ∈ Rn , alors Ax = λx ⇔ AT x = λx.
c) Si x, y ∈ Rn sont deux vecteurs propres de A associés respectivement aux valeurs propres
distinctes λ, µ ∈ R, alors ils sont orthogonaux.
60
CHAPITRE 6. VALEURS PROPRES ET VECTEURS PROPRES C. Bingane
76. Pour un entier n ≥ 1, montrez que la matrice de Hilbert Hn d’ordre n est définie positive.
78. Montrez que si A, B ∈ Rn×n sont semidéfinies positives, alors det(A) + det(B) ≤ det(A + B).
80. Montrez que la décomposition spectrale d’une matrice réelle semidéfinie positive est aussi sa
décomposition en valeurs singulières.
61
Bibliographie
[1] S. Lang, Introduction to Linear Algebra. Springer-Verlag New York Inc., 1986.
[2] R. Cairoli, Algèbre linéaire. Presses polytechniques et universitaires romandes, 1991.
[3] G. Strang, Introduction to Linear Algebra. Wellesley - Cambridge Press, 2009.
[4] G. Strang and S. Dufour, Introduction à l’algèbre linéaire. Presses internationales Polytechnique,
2015.
[5] D. C. Lay, S. R. Lay, and J. J. McDonald, Linear Algebra and Its Applications. Pearson Education,
Inc., 2016.
[6] S. Le Digabel, “MTH1007 Algèbre linéaire pour ingénieurs.” Polytechnique Montréal, 2023.
[7] S. Axler, Linear Algebra Done Right. Springer Nature, 2024.
62