Chapitre 8
Projections et inverse généralisé
Application linéaire de projection
Définition (sous-espaces complémentaires)
Deux sous-espace vectoriels M et N de E sont dits
complémentaires si M ⊕ N = E , c’est-à-dire si
span(M ∪ N) = E et M ∩ N = {0}.
Dans ce cas, tout vecteur z de E peut s’écrire de manière unique
sous la forme z = x + y avec x ∈ M et y ∈ N.
Définition (projection)
Soient les sous-espaces vectoriels complémentaires M et N de E .
La transformation linéaire P : E → E telle que, pour tout z ∈ E ,
P(z) = x
avec z = x + y, x ∈ M et y ∈ N, est appelée projection sur M le
long de N.
Propriétés des projections
Proposition
Si P est la projection sur un sous-espace M le long d’un
sous-espace N, alors P 2 = P ◦ P = P.
Réciproquement, si P 2 = P, alors P est une projection sur un
sous-espace vectoriel M le long d’un sous-espace vectoriel N, avec
M = {z ∈ E | P(z) = z}
N = {z ∈ E | P(z) = 0}.
Proposition
P est une projection sur M le long de N si et seulement si I − P
est une projection sur N le long de M.
Proposition
Soit P une projection sur M le long de N. Alors les valeurs propres
de P sont 0 et 1, et sont associées à n vecteurs propres
linéairement indépendants.
Projection orthogonale
Définition
Soient un espace métrique E et un ensemble X ⊂ E . Le
complémentaire orthogonal de X dans E , noté X ⊥ , est
l’ensemble
X ⊥ = {y ∈ E | ∀x ∈ X : hx, yi = 0}.
X ⊥ est un sous-espace vectoriel de E même si X ne l’est pas.
Si M est un sous-espace vectoriel de E , alors M ⊕ M ⊥ = E .
Définition (projection orthogonale)
La projection sur M le long de son complémentaire orthogonal M ⊥
est appelée projection orthogonale sur M.
On vérifie que hz − P(z), vi = 0 pour tout vecteur v ∈ M
Propriétés des projections orthogonales
Proposition
Soit P une transformation linéaire sur E , représentée par la matrice
P. Alors les affirmations suivantes sont équivalentes :
I P est une projection orthogonale,
I P = P2 et P = P∗ ,
I P2 = P et kPk2 = 1.
Proposition
Soit M un sous-espace de dimension m de E ≡ Rn dont les
vecteurs {vi }m
i=1 forment une base. Alors la matrice P représentant
la projection orthogonale sur M est donnée par
P = V(V∗ V)−1 V∗
où V est la matrice de type n × m dont les colonnes contiennent
les vecteurs de composantes vi des vecteurs vi .
Inverse généralisé
On peut utiliser les projections orthogonales pour définir l’“inverse”
de matrices rectangulaires ou singulières.
Définition (inverse généralisé)
Soit A une matrice de dimension n × m et de rang r , et soient W
et F deux matrices de dimensions n × r et r × m, respectivement,
et de rang r , telles que A = WF. Alors, l’inverse généralisé (ou
pseudo-inverse) de A, noté A+ , est donné par
A+ = F∗ (FF∗ )−1 (W∗ W)−1 W∗ .
I Si r = n (A surjective), alors on peut choisir W = I, F = A et
on obtient A+ = A∗ (AA∗ )−1 .
I Si r = m (A injective), alors on peut choisir F = I, W = A et
on obtient A+ = (A∗ A)−1 A∗ .
Inverse généralisé (suite)
Proposition
Soient A une matrice de dimension n × m et A+ son inverse
généralisé. Alors,
I les matrices AA+ et A+ A correspondent respectivement aux
projections orthogonales sur Im(A) et (Ker(A))⊥ ,
I AA+ A = A et A+ AA+ = A+ ,
I A+ est la seule matrice qui satisfait ces relations.
Corollaire
Soit A une matrice de dimension n × m et de rang r .
I Si r = n (A surjective), alors AA+ = I,
I Si r = m (A injective), alors A+ A = I,
I Si r = m = n (A carrée non singulière), alors A+ = A−1 .
Problème aux moindres carrés
Soit le système d’équations Ax = b, avec rg([A, b]) > rg(A)
(système sur-contraint - pas de solution).
⇒ On recherche la solution x au sens des moindres carrés, telle que
kAx − bk2 = minm kAx − bk2
x∈R
Exemple : réussite du cours d’Algèbre linéaire I
Sondage 2021-2022
Nombre d’heures d’étude h 10 34 63 274 2 124 196 150
Note à l’examen f (h) 3,5 5 7 18 2 10,5 17 13,5
On souhaite trouver la fonction f (h) = a0 + a1 h + a2 h2
Solution du problème aux moindres carrés
Proposition
Soit M un sous-espace de l’espace métrique E . Alors, si b est un
vecteur quelconque de E ,
kPM (b) − bk = min kz − bk,
z∈M
où PM est la projection orthogonale de b sur le sous-espace M.
Proposition
Soit A une matrice de dimension n × m (avec n > m). Alors, une
solution de Ax = b au sens des moindres carrés est donnée par
x = A+ b,
où A+ est l’inverse généralisé de A.
Cette solution est unique si A est de rang plein (rg(A) = m).