0% ont trouvé ce document utile (0 vote)
4 vues9 pages

Chap 8

Le chapitre 8 traite des projections et de l'inverse généralisé dans les espaces vectoriels. Il définit les projections sur des sous-espaces complémentaires, les projections orthogonales, et introduit l'inverse généralisé des matrices. Enfin, il aborde le problème des moindres carrés pour résoudre des systèmes d'équations sur-contraints.

Transféré par

samueltilmant100808
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
4 vues9 pages

Chap 8

Le chapitre 8 traite des projections et de l'inverse généralisé dans les espaces vectoriels. Il définit les projections sur des sous-espaces complémentaires, les projections orthogonales, et introduit l'inverse généralisé des matrices. Enfin, il aborde le problème des moindres carrés pour résoudre des systèmes d'équations sur-contraints.

Transféré par

samueltilmant100808
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 8

Projections et inverse généralisé


Application linéaire de projection
Définition (sous-espaces complémentaires)
Deux sous-espace vectoriels M et N de E sont dits
complémentaires si M ⊕ N = E , c’est-à-dire si
span(M ∪ N) = E et M ∩ N = {0}.

Dans ce cas, tout vecteur z de E peut s’écrire de manière unique


sous la forme z = x + y avec x ∈ M et y ∈ N.

Définition (projection)
Soient les sous-espaces vectoriels complémentaires M et N de E .
La transformation linéaire P : E → E telle que, pour tout z ∈ E ,

P(z) = x

avec z = x + y, x ∈ M et y ∈ N, est appelée projection sur M le


long de N.
Propriétés des projections
Proposition
Si P est la projection sur un sous-espace M le long d’un
sous-espace N, alors P 2 = P ◦ P = P.
Réciproquement, si P 2 = P, alors P est une projection sur un
sous-espace vectoriel M le long d’un sous-espace vectoriel N, avec
M = {z ∈ E | P(z) = z}
N = {z ∈ E | P(z) = 0}.

Proposition
P est une projection sur M le long de N si et seulement si I − P
est une projection sur N le long de M.

Proposition
Soit P une projection sur M le long de N. Alors les valeurs propres
de P sont 0 et 1, et sont associées à n vecteurs propres
linéairement indépendants.
Projection orthogonale

Définition
Soient un espace métrique E et un ensemble X ⊂ E . Le
complémentaire orthogonal de X dans E , noté X ⊥ , est
l’ensemble
X ⊥ = {y ∈ E | ∀x ∈ X : hx, yi = 0}.

X ⊥ est un sous-espace vectoriel de E même si X ne l’est pas.


Si M est un sous-espace vectoriel de E , alors M ⊕ M ⊥ = E .

Définition (projection orthogonale)


La projection sur M le long de son complémentaire orthogonal M ⊥
est appelée projection orthogonale sur M.

On vérifie que hz − P(z), vi = 0 pour tout vecteur v ∈ M


Propriétés des projections orthogonales
Proposition
Soit P une transformation linéaire sur E , représentée par la matrice
P. Alors les affirmations suivantes sont équivalentes :
I P est une projection orthogonale,
I P = P2 et P = P∗ ,
I P2 = P et kPk2 = 1.

Proposition
Soit M un sous-espace de dimension m de E ≡ Rn dont les
vecteurs {vi }m
i=1 forment une base. Alors la matrice P représentant
la projection orthogonale sur M est donnée par

P = V(V∗ V)−1 V∗

où V est la matrice de type n × m dont les colonnes contiennent


les vecteurs de composantes vi des vecteurs vi .
Inverse généralisé
On peut utiliser les projections orthogonales pour définir l’“inverse”
de matrices rectangulaires ou singulières.

Définition (inverse généralisé)


Soit A une matrice de dimension n × m et de rang r , et soient W
et F deux matrices de dimensions n × r et r × m, respectivement,
et de rang r , telles que A = WF. Alors, l’inverse généralisé (ou
pseudo-inverse) de A, noté A+ , est donné par

A+ = F∗ (FF∗ )−1 (W∗ W)−1 W∗ .

I Si r = n (A surjective), alors on peut choisir W = I, F = A et


on obtient A+ = A∗ (AA∗ )−1 .
I Si r = m (A injective), alors on peut choisir F = I, W = A et
on obtient A+ = (A∗ A)−1 A∗ .
Inverse généralisé (suite)
Proposition
Soient A une matrice de dimension n × m et A+ son inverse
généralisé. Alors,
I les matrices AA+ et A+ A correspondent respectivement aux
projections orthogonales sur Im(A) et (Ker(A))⊥ ,
I AA+ A = A et A+ AA+ = A+ ,
I A+ est la seule matrice qui satisfait ces relations.

Corollaire
Soit A une matrice de dimension n × m et de rang r .
I Si r = n (A surjective), alors AA+ = I,
I Si r = m (A injective), alors A+ A = I,
I Si r = m = n (A carrée non singulière), alors A+ = A−1 .
Problème aux moindres carrés

Soit le système d’équations Ax = b, avec rg([A, b]) > rg(A)


(système sur-contraint - pas de solution).
⇒ On recherche la solution x au sens des moindres carrés, telle que

kAx − bk2 = minm kAx − bk2


x∈R

Exemple : réussite du cours d’Algèbre linéaire I

Sondage 2021-2022
Nombre d’heures d’étude h 10 34 63 274 2 124 196 150
Note à l’examen f (h) 3,5 5 7 18 2 10,5 17 13,5

On souhaite trouver la fonction f (h) = a0 + a1 h + a2 h2


Solution du problème aux moindres carrés
Proposition
Soit M un sous-espace de l’espace métrique E . Alors, si b est un
vecteur quelconque de E ,

kPM (b) − bk = min kz − bk,


z∈M

où PM est la projection orthogonale de b sur le sous-espace M.

Proposition
Soit A une matrice de dimension n × m (avec n > m). Alors, une
solution de Ax = b au sens des moindres carrés est donnée par

x = A+ b,

où A+ est l’inverse généralisé de A.


Cette solution est unique si A est de rang plein (rg(A) = m).

Vous aimerez peut-être aussi