0% ont trouvé ce document utile (0 vote)
66 vues20 pages

CH13 Prehilb

Transféré par

abdoamigo623
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
66 vues20 pages

CH13 Prehilb

Transféré par

abdoamigo623
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ESPACES PRÉHILBERTIENS RÉELS

B. Landelle

Table des matières


I Produit scalaire 2
1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Exemples importants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

II Orthogonalité 5
1 Vecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Orthogonal d'une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3 Famille orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

III Projection orthogonale 11


1 Supplémentaire orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Distance à un sev de dimension nie . . . . . . . . . . . . . . . . . . . . . . . . 16

IV Exemples importants 17
1 Distance à un hyperplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Droite des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1
Dans tout ce chapitre, l'ensemble E désigne un R-ev.

I Produit scalaire
1 Dénition
Dénition 1. Une application φ : E2 → R est appelée produit scalaire sur E si elle est :
1. bilinéaire, i.e. linéaire par rapport à chaque variable ;
∀y ∈ E x 7→ φ(x, y) ∈ L (E, R) et ∀x ∈ E y 7→ φ(x, y) ∈ L (E, R)

2. symétrique ; ∀(x, y) ∈ E2 φ(x, y) = φ(y, x)

3. positive ; ∀x ∈ E φ(x, x) ⩾ 0

4. dénie. ∀x ∈ E φ(x, x) = 0 ⇐⇒ x = 0
On dit que φ est une forme bilinéaire symétrique dénie positive.

Notations : On note φ(x, y) = ⟨x, y⟩ ou (x|y) ou ⟨x|y⟩ ou x · y.


Dénition 2. Un R-ev muni d'un produit scalaire est dit espace préhilbertien réel. Si E est de
dimension nie, on dit que E est un espace euclidien.

Proposition 1. Soit φ une application sur E2 vériant les propriétés suivantes :


1. φ est symétrique ;
2. φ est linéaire par rapport à une des deux variables ;
3. φ est positive ;
4. φ est dénie.
Alors φ est un produit scalaire.

Démonstration. La symétrie étend la linéarité par rapport aux deux variables.

Proposition 2. Soit E espace préhilbertien réel. Soit (xi )1⩽i⩽n et (yj )1⩽j⩽p des familles nies
de vecteurs de E, (αi )1⩽i⩽n et (βj )1⩽j⩽p des familles de scalaires. On a
Æ ∏
n
P p
P P
αi xi , βj yj = αi βj ⟨xi , yj ⟩
i=1 j=1 (i,j)∈[[ 1 ; n ]]×[[ 1 ; p ]]

Démonstration. Conséquence immédiate de la bilinéarité.

2 Exemples importants
Proposition 3.
n
1. L'espace E = Rn muni de ⟨x, y⟩ = xi yi est euclidien.
P
i=1

2. L'espace E = Mn,1 (R) muni de ⟨X, Y⟩ = X⊤ Y est euclidien.


3. L'espace E = Mn (R) muni de ⟨A, B⟩ = Tr (A⊤ B) est euclidien.

B. Landelle 2 ISM MP
Démonstration. 1. net n2. immédiats.
3. On a ⟨A, B⟩ = aj,i bi,j avec A⊤ = a′i,j . D'où
PP ′ 
j=1 i=1
P
⟨A, B⟩ = ai,j bi,j
1⩽i,j⩽n

expression symétrique en les coecients d'où la symétrie de l'application. Les autres propriétés
s'obtiennent alors facilement.
Remarques : 1. On confond souvent Rn et Mn,1 (R) qui sont naturellement isomorphes.
2. Les produits scalaires présentés ci-avant sont canoniques, y compris celui sur Mn (R) en
considérant l'isomorphisme Mn (R) ≃ Rn .
2

Proposition 4. Soient a, b des réels avec a < b.


Z b
1. L'espace E = C ([ a ; b ] , R) muni de ⟨f, g⟩ =
0
f (t)g(t) dt est préhilbertien réel.
a
Z 1
2. L'espace E = R[X] muni de ⟨P, Q⟩ = P(t)Q(t) dt est préhilbertien réel.
0
Z +∞

3. L'espace E = R[X] muni de ⟨P, Q⟩ = P(t)Q(t)e −t dt est préhilbertien réel.


0

Démonstration. 1. Symétrie immédiate, linéarité en la première variable par bilinéarité du


produit à droite
Z et de l'intégrale, positive par positivité de l'intégrale.
1
Si ⟨f, f ⟩ = f 2 (t) dt = 0, comme f 2 est continue positive, alors d'après la propriété de
0
séparation de l'intégrale, on a f = 0.
2. Presque identique au cas précédent. Comme P(t) = 0 pour tout t ∈ [ 0 ; 1 ], alors P admet
une innité de racines et est donc le polynôme nul.
3. On justie la convergence de l'intégrale puis quasi identique au précédent.

3 Norme euclidienne
Dénition 3. Soit E espace préhilbertien réel. On appelle norme euclidienne associée au produit
scalaire ⟨·, ·⟩ l'application notée ∥ · ∥ dénie par
®
E → R+
∥·∥: p
x 7→ ∥x∥ = ⟨x, x⟩

Remarque : La norme euclidienne associée à un produit scalaire est bien dénie par positivité
du produit scalaire.

Proposition 5. Soit E espace préhilbertien réel et (x, y) ∈ E2 . On a


1. ∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2
2. ∥x − y∥2 = ∥x∥2 − 2⟨x, y⟩ + ∥y∥2
3. ∥x + y∥2 + ∥x − y∥2 = 2 (∥x∥2 + ∥y∥2 ) (identité du parallélogramme)

Démonstration. Immédiate par dénition de la norme et bilinéarité du produit scalaire.

B. Landelle 3 ISM MP
Remarques : 1. Vérier l'identité du parallélogramme est caractéristique d'une norme eucli-
dienne (exercice dicile). Par exemple, la norme ∥ · ∥1 sur Rn n'est pas une norme euclidienne
(considérer x = (1, 0, . . .) et y = (0, 1, 0, . . .)).
2. L'identité du parallélogramme peut aussi être reformulée en identité de la médiane :
x+y 2 1
∀(x, y) ∈ E2 ∥x∥2 + ∥y∥2 = 2∥ ∥ + ∥x − y∥2
2 2

x+y

x−y
x

Figure 1  Identité du parallélogramme

Proposition 6 (Identités de polarisation). Soit E espace préhilbertien réel et ∥ · ∥ la norme


euclidienne associée. On a
1
∀(x, y) ∈ E2 ⟨x, y⟩ = (∥x + y∥ − ∥x∥2 − ∥y∥2 )
2
1
= (∥x∥2 + ∥y∥2 − ∥x − y∥2 )
2
1
⟨x, y⟩ = (∥x + y∥2 − ∥x − y∥2 )
4

Démonstration. Immédiate avec le résultat de la proposition précédente.


Remarque : Les identités de polarisation permettent de reconstruire le produit scalaire d'un
espace préhilbertien réel à partir de la connaissance de la norme euclidienne.

Théorème 1 (Inégalité de Cauchy-Schwarz). Soit E espace préhilbertien réel et ∥ · ∥ la


norme euclidienne associée. On a
∀(x, y) ∈ E2 |⟨x, y⟩| ⩽ ∥x∥∥y∥

De plus |⟨x, y⟩| = ∥x∥∥y∥ ⇐⇒ (x, y) famille liée

Démonstration. Soit (x, y) ∈ E2 . On pose


∀t ∈ R P(t) = ∥x + ty∥2 = t2 ∥y∥2 + 2t⟨x, y⟩ + ∥x∥2
• Si ∥y∥2 > 0, la fonction P est polynomiale de degré deux positive et admet donc au plus une
racine d'où son discriminant ∆ = 4 [⟨x, y⟩2 − ∥x∥2 × ∥y∥2 ] ⩽ 0.
• Si ∥y∥2 = 0, la fonction P est une fonction ane de signe constant positif ce qui impose
⟨x, y⟩ = 0 et l'égalité donc l'inégalité a lieu.

B. Landelle 4 ISM MP
u u
u = 2t ⟨x, y⟩ + ∥x∥2

t t
u = 2t ⟨x, y⟩ + ∥x∥2

Figure 3  Graphe pour ⟨x, y⟩ > 0


Figure 2  Graphe pour ⟨x, y⟩ < 0

L'équivalence a clairement lieu pour y = 0E . Pour y ̸= 0E ce qui équivaut à ∥y∥2 > 0, on a


|⟨x, y⟩| = ∥x∥∥y∥ ⇐⇒ ∆ = 0 ⇐⇒ ∃!t0 ∈ R | P(t0 ) = 0 ⇐⇒ ∃!t0 ∈ R | x = −t0 y
Cette dernière assertion équivaut au caractère lié de (x, y) car y ̸= 0E d'où l'existence de λ réel
tel que x = λy et ce λ est unique car (y) est libre.
Remarques : 1. Dans R2 , résultat bien connu car

− →− →
− → − →
− → −
x · y = ∥ x ∥∥ y ∥ |cos α| ⩽ ∥ x ∥∥ y ∥
2. La preuve de l'inégalité sans le cas d'égalité n'utilise pas le caractère déni du produit scalaire
(remarque qui servira plus tard dans le cours Probabilités Discrètes).

Corollaire 1. Soit E espace préhilbertien réel. La norme euclidienne associée est une norme,
plus précisément elle vérie les propriétés suivantes :
1. ∀(x, λ) ∈ E × R ∥λx∥ = |λ| ∥x∥.
2. ∀x ∈ E ∥x∥ = 0 ⇐⇒ x = 0E
3. ∀(x, y) ∈ E 2
∥x + y∥ ⩽ ∥x∥ + ∥y∥ avec égalité si et seulement si la famille (x, y) est
positivement liée.

Démonstration. 1. et 2. Immédiates.
3. D'après l'inégalité de Cauchy-Schwarz, on a
∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 ⩽ ∥x∥2 + 2∥x∥∥y∥ + ∥y∥2
et le résultat suit par croissance de √ sur R+ . Le cas d'égalité résulte du cas d'égalité dans
l'inégalité de Cauchy-Schwarz.

II Orthogonalité
Dans tout ce qui suit, E désigne un espace préhilbertien réel.

1 Vecteurs orthogonaux
Dénition 4. Deux vecteurs x et y de E sont dits orthogonaux si ⟨x, y⟩ = 0. On note x⊥y.

Dénition 5. Une famille (ui )i∈I de vecteurs de E est dite orthogonale si elle constituée de
vecteurs deux à deux orthogonaux, i.e.
∀(i, j) ∈ I2 avec i ̸= j ⟨ui , uj ⟩ = 0

B. Landelle 5 ISM MP
Proposition 7. Soit (ui )i∈I une famille orthogonale de vecteurs non nuls. Alors (ui )i∈I est une
famille libre.

Démonstration. Soit (αi )i∈I famille de réels presque nulle telle que αi ui = 0E . On a
P
i∈I
≠ ∑
= αj ∥uj ∥2 = 0
P
∀j ∈ I αi ui , uj =⇒ αj = 0
i∈I

d'où le résultat.
Théorème 2 (Théorème de Pythagore). Soit (ui )i∈[[ 1 ; p ]] ∈ Ep une famille orthogonale.
Alors
p p
ui ∥2 = ∥ui ∥2
P P

i=1 i=1

Æ ∏
p p p p
Démonstration. On a ui ∥2 = ∥ui ∥2
P P P P P
∥ ui , uj = ⟨ui , uj ⟩ =
i=1 i=1 j=1 (i,j)∈[[ 1 ; p ]]2 i=1

Proposition 8. Soit (x, y) ∈ E2 . On a


(x, y) orthogonale ⇐⇒ ∥x + y∥2 = ∥x∥2 + ∥y∥2

Démonstration. On a
∥x + y∥2 = ∥x∥2 + ∥y∥2 ⇐⇒ ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 = ∥x∥2 + ∥y∥2 ⇐⇒ ⟨x, y⟩ = 0

x+y
y

Figure 4  Pythagore, le grand retour

Remarque : La réciproque du théorème de Pythagore est fausse pour une famille de plus de
deux vecteurs. Par exemple, dans E = R3 avec a = e1 + e2 , b = e1 − e2 et c = e2 + e3 . On a
⟨a, b⟩ + ⟨a, c⟩ + ⟨b, c⟩ = 0 =⇒ ∥a + b + c∥2 = ∥a∥2 + ∥b∥2 + ∥c∥2
mais les vecteurs a, b, c ne sont pas deux à deux orthogonaux (et on peut même choisir une telle
famille libre).

B. Landelle 6 ISM MP
2 Orthogonal d'une partie
Dénition 6. Soit A une partie non vide de E. On appelle orthogonal de A l'ensemble noté
A⊥ déni par
A⊥ = {x ∈ E | ∀a ∈ A ⟨a, x⟩ = 0}

Proposition 9. On a E⊥ = {0E } et {0E }⊥ = E.


Démonstration. La deuxième égalité est immédiate. Pour la première, soit x ∈ E⊥ . On a donc
⟨x, y⟩ = 0 pour tout y ∈ E et en particulier pour y = x d'où ∥x∥ = 0 et par suite x = 0E .

Proposition 10. Soient A, B des parties non vides de E. On a


1. A⊥ est un sev de E ;
2. A ⊂ B =⇒ B⊥ ⊂ A⊥ ;
3. A⊥ = Vect (A)⊥ ;
4. A ⊂ (A⊥ )⊥ .

Démonstration. 1.\Vérication naïve immédiate.


Variante : A⊥ = Ker (x 7→ ⟨x, a⟩).
a∈A
2. Soit x ∈ B⊥ . Alors, pour tout a ∈ A ⊂ B, on a ⟨x, a⟩ = 0 d'où x ∈ A⊥ .
3. Comme A ⊂ Vect (A), on a Vect (A)⊥ ⊂ A⊥ d'après le 2.
Réciproquement, soit x ∈ A⊥ . Soit y ∈ Vect (A), c'est-à-dire, notant A = (ai )i∈I , qu'il existe
(αi )i∈I famille presque nulle telle que y = αi ai et
P
i∈I
P
⟨x, y⟩ = αi ⟨x, ai ⟩ = 0
i∈I

et le résultat suit.
4. Soit x ∈ A. Alors pour tout y ∈ A⊥ , on a ⟨x, y⟩ = 0.
Remarque : Si A n'est pas un sev, l'inclusion A ⊂ (A⊥ )⊥ est stricte puisque A ⊊ Vect (A) et
Vect (A) ⊂ (Vect (A)⊥ )⊥ = (A⊥ )⊥ . Si A est un sev, c'est moins évident. Un contre-exemple est
donné ultérieurement.
Dénition 7. Les sev F et G de E sont dits orthogonaux si
∀(x, y) ∈ F × G ⟨x, y⟩ = 0
On note F⊥G.
Proposition 11. Soient F, G des sev de E.
1. F⊥G =⇒ F ∩ G = {0E }
2. F⊥G ⇐⇒ F ⊂ G⊥ ⇐⇒ G ⊂ F⊥
3. F⊥F⊥ et F ∩ F⊥ = {0E }

Démonstration. 1. Soit x ∈ F ∩ G. Alors ⟨x, x⟩ = 0 d'où x = 0E .


2. On a F⊥G ⇐⇒ ∀x ∈ F ∀y ∈ G ⟨x, y⟩ = 0 ⇐⇒ F ⊂ G⊥
et l'autre équivalence s'en déduit par symétrie des rôles.
3. Immédiat.

B. Landelle 7 ISM MP
Théorème 3 (Orthogonal d'une famille génératrice).
1. Soit F = Vect (ui )i∈I . On a
x ∈ F⊥ ⇐⇒ ∀i ∈ I x⊥ui
2. Soit F = Vect (ui )i∈I et G = Vect (vj )j∈J . On a
F⊥G ⇐⇒ ∀(i, j) ∈ I × J ui ⊥vj

Démonstration. 1. D'après la proposition 10, on a F⊥ = {ui , i ∈ I}⊥ et le résultat suit.


2. Le sens direct est immédiat. Réciproquement, on a
∀(i, j) ∈ I × J ui ⊥vj ⇐⇒ ∀i ∈ I ui ∈ Vect (vj , j ∈ J)⊥ = G⊥ =⇒ Vect (ui , i ∈ I) ⊂ G⊥
et le résultat suit.
Proposition 12. Soient F, G des sev de E tels que E = F + G. Dans ce cas,
F⊥G ⇐⇒ F = G⊥ ⇐⇒ G = F⊥

Démonstration. D'après la proposition 11, on sait que


F⊥G ⇐⇒ F ⊂ G⊥ ⇐⇒ G ⊂ F⊥
Montrons simplement que sous l'hypothèse E = F + G, on a
F⊥G ⇐⇒ F = G⊥
On suppose F⊥G. On sait déjà F ⊂ G⊥ . Soit x ∈ G⊥ . Il existe (u, v) ∈ F × G tel que x = u + v .
On a ⟨x, v⟩ = 0 = ⟨u, v⟩ +⟨v, v⟩ = ∥v∥2 =⇒ x = u ∈ F
| {z }
=0

Les rôles joués par F et G étant symétriques, on en déduit le résultat attendu.



Notation : Si E = F + G avec F⊥G, alors on a E = F ⊕ G et on note E = F ⊕ G.
Remarque : Une conséquence de la proposition 12 est que si un sev admet un supplémentaire

orthogonal, alors celui-ci est unique. En eet, si E = F ⊕ G, alors on a G = F⊥ .

3 Famille orthonormale
Dénition 8. Une famille de vecteurs de E est dite orthonormale si elle est orthogonale et
constituée de vecteurs unitaires (on dit aussi normés) , i.e. de norme égale à 1.

Proposition 13. Toute famille orthonormale de E est libre.


Démonstration. Conséquence de la proposition 7.

Théorème 4 (Orthonormalisation de Gram-Schmidt). Soit (u1 , . . . , up ) une famille libre


de E. Il existe (v1 , . . . , vp ) une famille orthonormale de E telle que
∀k ∈ [[ 1 ; p ]] Vect (u1 , . . . , uk ) = Vect (v1 , . . . vk )

B. Landelle 8 ISM MP
Démonstration. On met en ÷uvre l'algorithme dit d'orthonormalisation de Gram-Schmidt.
u1
• On initialise avec v1 = .
∥u1 ∥
k−1 zk
• Pour k ∈ [[ 2 ; p ]], on pose zk = uk − ⟨vi , uk ⟩vi puis vk = .
P
i=1 ∥zk ∥
Montrons par récurrence que la famille (v1 , . . . , vp ) vérie les propriétés voulues. Soit
P(k) : ”(v1 , . . . , vk ) orthonormé et Vect (v1 , . . . , vk ) = Vect (u1 , . . . , uk )”
• P(1) : L'initialisation est immédiate.

• P(k) =⇒ P(k + 1) : Supposons P(k) vraie pour k ∈ [[ 1 ; p − 1 ]] xé (on exclut k = p sinon
on suppose le résultat nal). On a
k
P
zk+1 = uk+1 − ⟨vi , uk+1 ⟩vi
i=1

Alors, pour tout j ∈ [[ 1 ; k ]],


k k
≠ ∑
P P
⟨zk+1 , vj ⟩ = uk+1 − ⟨vi , uk+1 ⟩vi , vj = ⟨uk+1 , vj ⟩ − ⟨vi , uk+1 ⟩ ⟨vi , vj ⟩
i=1 i=1 | {z }
=δi,j
= ⟨uk+1 , vj ⟩ − ⟨vj , uk+1 ⟩ = 0
Le vecteur zk+1 est non nul. Sinon, on aurait
k
P
zk+1 = 0E ⇐⇒ uk+1 = ⟨vi , uk+1 ⟩vi ∈ Vect (v1 , . . . , vk ) = Vect (u1 , . . . , uk )
i=1

Dans ce cas, la famille (u1 , . . . , uk+1 ) serait liée ce qui est absurde puisqu'elle est extraite de la
z
famille libre (u1 , . . . , up ). Par suite, la norme ∥zk+1 ∥ est non nulle et le vecteur vk+1 = k+1
∥zk+1 ∥
est normé. Ainsi, la famille (v1 , . . . , vk+1 ) est orthonormée. On a
Vect (v1 , . . . , vk ) = Vect (u1 , . . . , uk ) ⊂ Vect (u1 , . . . , uk+1 )

et vk+1 ∈ Vect (u1 , . . . , uk+1 )

d'où Vect (v1 , . . . , vk+1 ) ⊂ Vect (u1 , . . . , uk+1 )


Enn, la famille (v1 , . . . , vk+1 ) est libre car orthonormée et (u1 , . . . , uk+1 ) est libre car extraite
de la famille libre (u1 , . . . , up ). Par suite
dim Vect (v1 , . . . , vk+1 ) = dim Vect (u1 , . . . , uk+1 ) = k + 1
Par inclusion et égalité des dimensions, il vient
Vect (v1 , . . . , vk+1 ) = Vect (u1 , . . . , uk+1 )
ce qui clôt la récurrence.
Ainsi, P(k) est vraie pour tout k ∈ [[ 1 ; p ]] d'où (v1 , . . . , vp ) orthonormée et
∀k ∈ [[ 1 ; p ]] Vect (u1 , . . . , uk ) = Vect (v1 , . . . vk )

Remarque : Si on impose une condition additionnelle d'orientation à la famille (v1 , . . . , vp ),


alors celle-ci est unique.

B. Landelle 9 ISM MP
Théorème 5. Soit (u1 , . . . , up ) une famille libre de E. Il existe une unique famille orthonormée
(v1 , . . . , vp ) de E telle que
∀k ∈ [[ 1 ; p ]] Vect (u1 , . . . , uk ) = Vect (v1 , . . . vk ) et ⟨uk , vk ⟩ > 0

k−1
Démonstration. Soit k ∈ [[ 1 ; p ]]. Notons πk = ⟨uk , vi ⟩ vi . Par construction, on a zk ⊥vi pour
P
i=1
i ∈ [[ 1 ; k − 1 ]] d'où
⟨zk , uk ⟩ = ⟨zk , zk + πk ⟩ = ∥zk ∥2 + ⟨zk , πk ⟩ = ∥zk ∥2 > 0
| {z }
=0

1
et par suite ⟨vk , uk ⟩ = ⟨zk , uk ⟩ > 0
∥zk ∥
Ainsi, la base construite par l'algorithme de Gram-Schmidt vérie la condition d'orientation.
Soit (w1 , . . . , wp ) une famille orthonormée qui vérie les mêmes propriétés que (v1 , . . . , vp ).
Alors, pour k ∈ [[ 1 ; p ]], on a
wk ∈ Vect (w1 , . . . , wk ) ∩ Vect (w1 , . . . , wk−1 )⊥ = Vect (v1 , . . . , vk ) ∩ Vect (v1 , . . . , vk−1 )⊥
autrement dit wk ∈ Vect (vk ). Comme wk est normé et vérie la même condition d'orientation
que vk , on conclut wk = vk .
Remarque : Les résultats et démonstrations d'orthonormalisation s'étendent au cas d'une fa-
mille libre dénombrable.

Application : Un cas particulier du théorème de Riesz


Soit E préhilbertien réel de dimension innie. Alors, la sphère S(0, 1) n'est pas compacte.
En eet, soit (un )n une famille libre de vecteurs de E. On note (vn )n la famille obtenue par
orthonormalisation de Gram-Schmidt. Ainsi, on a pour p, q entiers distincts
∥vp − vq ∥2 = ∥vp ∥2 − 2 ⟨vp , vq ⟩ + ∥vq ∥2 = 2

Ainsi, la suite (vn )n est à valeurs dans S(0, 1) avec ∥vp − vq ∥ = 2 pour tout p ̸= q ce qui
interdit l'existence d'une valeur d'adhérence.

4 Bases orthonormales
Dénition 9. Soit E euclidien. On appelle base orthonormale (ou base orthonormée) notée
BON en abrégé une base de E qui est également une famille orthonormale.

Corollaire 2. Soit F sev de dimension nie de E. Alors F possède une base orthonormée.
Démonstration. Le sev F admet une base que l'on orthonormalise avec l'algorithme de Schmidt
pour obtenir une base orthonormée de F.

Corollaire 3. Soit E un espace euclidien. Alors


1. l'espace E possède une base orthonormée ;
2. Toute famille orthonormale de E peut être complétée en une base orthonormée de E.

B. Landelle 10 ISM MP
Démonstration. 1. C'est le corollaire précédent avec F = E.
2. Soit (u1 , . . . , up ) une famille orthonormée de E avec p ⩽ n = dim E. D'après le théorème de
la base incomplète, on peut compléter (u1 , . . . , up ) en (u1 , . . . , un ) base de E. On xe ensuite
vi = ui pour tout i ∈ [[ 1 ; p ]] puis on poursuit la construction des vi en suivant l'algorithme
de Schmidt. On obtient alors une base orthonormée de E qui est une complétion de la famille
initiale.
Proposition 14. Soit E euclidien muni d'une base orthonormée B = (e1 , . . . , en ). Soit (x, y) ∈
E2 avec
n n
et y =
P P
x= xi e i yi ei
i=1 i=1

n n
On a et ∥x∥2 = x2i
P P
⟨x, y⟩ = xi yi
i=1 i=1

n
Démonstration. On a
P P
⟨x, y⟩ = xi yj ⟨ei , ej ⟩ = xi yi
(i,j)∈[[ 1 ; n ]]2 | {z } i=1
=δi,j

Le reste suit.
Proposition 15. Soit E euclidien muni d'une base orthonormée B = (e1 , . . . , en ). Soit (x, y) ∈
E2 avec et X = matB x, Y = matB y . On a
⟨x, y⟩ = X⊤ Y, ∥x∥2 = X⊤ X

Démonstration. Immédiate.
Proposition
 16. Soit E euclidien muni d'une base orthonormée B = (e1 , . . . , en ), f ∈ L (E)
et A = ai,j = matB f . On a
n
∀(i, j) ∈ [[ 1 ; n ]]2 ai,j = ⟨f (ej ), ei ⟩ et
P
Tr (A) = ⟨f (ei ), ei ⟩
i=1

n
Démonstration. Soit (i, j) ∈ [[ 1 ; n ]]2 . On a f (ej ) = ak,j ek puis
P
k=1
n
P
⟨f (ej ), ei ⟩ = ak,j ⟨ek , ei ⟩ = ai,j
k=1 | {z }
=δk,i

Le reste suit.

III Projection orthogonale


Dans tout ce qui suit, E désigne un espace préhilbertien réel muni d'un produit scalaire ⟨·, ·⟩.

1 Supplémentaire orthogonal

Théorème 6. Soit F sev de dimension nie de E. Alors on a E = F ⊕ F⊥ .

B. Landelle 11 ISM MP
Démonstration. Soit (e1 , . . . , ep ) une base orthonormée de F et x ∈ E. On procède par ana-
lyse/synthèse.

Analyse : Soit (α1 , . . . , αp ) ∈ Rp tel que


p p p
avec x − αi ei ∈ F⊥
P P P
x= αi ei + x − αi e i
i=1 i=1 i=1

p
≠ ∑
On a
P
∀k ∈ [[ 1 ; p ]] x− αi ei , ek = ⟨x, ek ⟩ − αk = 0
i=1

Ainsi les αk sont déterminés (cela prouve aussi l'unicité dans la décomposition F ⊕ F⊥ sous
réserve d'existence mais on l'a déjà en réalité car on sait F⊥F⊥ ).

p p
Synthèse : On a
P P
x= ⟨x, ei ⟩ei +x − ⟨x, ei ⟩ei
|i=1 {z } i=1

∈F

p
≠ ∑
Puis ⟨x, ei ⟩ei , ek = ⟨x, ek ⟩ − ⟨x, ek ⟩∥ek ∥2 = 0
P
∀k ∈ [[ 1 ; p ]] x−
i=1
p
donc, d'après le théorème 3, on a x − ⟨x, ei ⟩ei ∈ F⊥ ce qui prouve le résultat attendu.
P
i=1

Remarque : Le résultat est faux si F est de dimension innie. Considérons par exemple
Z 1
E = C 0 ([ 0 ; 1 ] , R) muni du produit scalaire ⟨f, g⟩ = f (t)g(t) dt pour (f, g) ∈ E2 . On pose
0
F = {f ∈ E | f (0) = 0}. Soit f ∈ F⊥ . Notant g : t 7→ tf (t), on a g ∈ F d'où
Z 1
⟨f, g⟩ = tf (t)2 dt = 0
0

Comme t 7→ tf (t)2 est continue positive sur [ 0 ; 1 ], on en déduit tf 2 (t) = 0 pour t ∈ [ 0 ; 1 ] d'où
f (t) = 0 pour t ∈ ] 0 ; 1 ]. Par continuité de f en 0, on a également f (0) = 0 d'où F⊥ = {0E } et
par conséquent
F ⊕ F⊥ ̸= E

Corollaire 4. Soit F un sev de dimension nie de E. On a (F⊥ )⊥ = F.

Démonstration. On a E = F ⊕ F⊥ donc, d'après la proposition 12, comme F⊥F⊥ , on a (F⊥ )⊥ =


F.
Remarque : Le résultat est faux en dimension innie. On reprend le contre-exemple précédent.
On a trouvé F⊥ = {0E } d'où (F⊥ )⊥ = E et par conséquent
F ⊊ (F⊥ )⊥

2 Projection orthogonale
Dénition 10. Soit F un sev de dimension nie de E. On appelle projection orthogonale sur
F notée pF la projection sur F parallèlement à F⊥ .

B. Landelle 12 ISM MP
Remarque : 1. Comme F et F⊥ sont supplémentaires, on peut dénir une telle projection.
2. Si E est euclidien, alors F et F⊥ sont de dimension nie. Par suite, le projecteur id −pF
associé à pF peut se noter pF⊥ (notation licite car F⊥ de dimension nie).

Théorème 7 (Caractérisation géométrique du projeté orthogonal). Soit F un sev de


E de dimension nie et x ∈ E. On a
®
y∈F
y = pF (x) ⇐⇒
x − y ∈ F⊥

Démonstration. Le sens direct est immédiat par dénition de pF et le sens indirect résulte de
l'unicité de la décomposition dans F × F⊥ :
x = y+ (x − y) avec (y, x − y) ∈ F × F⊥
= pF (x)+ x − pF (x) avec (pF (x), x − pF (x)) ∈ F × F⊥
et on identie terme à terme.

x
x − pF (x)

pF (x) F

Figure 5  Décomposition d'une projection orthogonale


Z +∞

Exemple : Soit E = R2 [X] muni de ⟨P, Q⟩ = P(t)Q(t)e −t dt.


0
Déterminer la projection de 1 sur F = Vect (X, X2 ). On note pF (1) = aX + bX2 . On a

®
2
⟨1 − (aX + bX ), X⟩ = 0 2a + 6b = 1 Å
1
ã
⇐⇒ ⇐⇒ (a, b) = 1, −
⟨1 − (aX + bX2 ), X2 ⟩ = 0 6a + 24b = 2 6

X2
Ainsi pF (1) = X −
6

Théorème 8. Soit F un sev de dimension nie de E et (e1 , . . . , ep ) une base orthonormée de


F. On a
p
P
∀x ∈ E pF (x) = ⟨x, ei ⟩ei
i=1

Démonstration. Dans la preuve du théorème 6, on a établi que E = F ⊕ F⊥ avec (e1 , . . . , ep )


une base orthonormée de F et x ∈ E se décompose de manière unique en

B. Landelle 13 ISM MP
p
P p
P
x= ⟨x, ei ⟩ei + x − ⟨x, ei ⟩ei
|i=1 {z } | i=1{z }
∈F ∈F⊥

p
On en déduit
P
∀x ∈ E pF (x) = ⟨x, ei ⟩ei
i=1

Remarque : Dans l'algorithme de Gram-Schmidt, l'étape itérative consiste à construire zk =


uk − pFk (uk ) où Fk = Vect (u1 , . . . , uk−1 ) = Vect (v1 , . . . , vk−1 ). Ainsi, on a
zk
vk = ∈ F⊥ k d'où vk ⊥vi ∀i ∈ [[ 1 ; k − 1 ]]
∥zk ∥

uk
zk ← uk − pFk (uk )

pFk (uk ) Fk = Vect (u1 , . . . , uk−1 )

Figure 6  Étape itérative de l'algorithme d'orthonormalisation

Proposition 17 (Inégalité de Bessel). Soit (e1 , . . . , ep ) une famille orthonormée de E. On


a
p
⟨x, ei ⟩2 ⩽ ∥x∥2
P
∀x ∈ E
i=1

Démonstration. On note F = Vect (e1 , . . . , ep ). Soit x ∈ E. On décompose


p
P Pp
x= ⟨x, ei ⟩ ei + x − ⟨x, ei ⟩ ei
i=1 i=1
| {z } | {z }
∈F ∈F⊥

D'après le théorème de Pythagore, il vient


p p p p
∥x∥2 = ∥ ⟨x, ei ⟩ xi ∥2 + ∥x − ⟨x, ei ⟩ ei ∥2 ⩾ ∥ ⟨x, ei ⟩ ei ∥2 = ⟨x, ei ⟩2
P P P P
i=1 i=1 i=1 i=1

Proposition 18 (à refaire). Soit a un vecteur normé de E euclidien. On a


∀x ∈ E pVect (a)⊥ (x) = x − ⟨x, a⟩a

Démonstration. Pour x ∈ E, comme (a) est une base orthonormée de Vect (a), on a

pVect (a)⊥ (x) = id −pVect (a) (x) = x − ⟨x, a⟩a

B. Landelle 14 ISM MP
Dénition 11. Soit p un projecteur de E. Le projecteur p est dit orthogonal si Im p⊥ Ker p.
Remarque : Cette dénition étend la dénition 10 puisque Im p n'est pas nécessairement de
dimension nie. Les deux dénitions sont cohérentes entre elles : si F sev de dimension nie
de E , alors pF est un projecteur orthogonal au sens de la dénition 11. Le projecteur associé
id −pF est également un projecteur orthogonal puisqu'il est le projecteur sur F⊥ parallèlement
à F.
Proposition 19. Soit p un projecteur de E. On a
p projecteur orthogonal ⇐⇒ ∀x ∈ E ∥p(x)∥ ⩽ ∥x∥
Démonstration. Supposons p projecteur orthogonal. Soit x ∈ E. On a
x = p(x) + x − p(x)
|{z} | {z }
∈Im p ∈Ker p

D'après le théorème de Pythagore, il vient


∥x∥2 = ∥p(x)∥2 + ∥x − p(x)∥2 ⩾ ∥p(x)∥2
Le résultat suit. Réciproquement, soit (a, b) ∈ Im p × Ker p. on a
∀t ∈ R ∥p(ta + b)∥2 ⩽ ∥ta + b∥2 ⇐⇒ ∀t ∈ R 0 ⩽ 2t ⟨a, b⟩ + ∥b∥2
Dans cette dernière assertion, une fonction ane prend des valeurs toujours positives.
y y
y = 2x ⟨a, b⟩ + ∥b∥2

x x
y = 2x ⟨a, b⟩ + ∥b∥2

Figure 8  Graphe pour ⟨a, b⟩ > 0


Figure 7  Graphe pour ⟨a, b⟩ < 0

Ceci n'est possible que si la fonction est constante d'où ⟨a, b⟩ = 0 pour (a, b) ∈ Im p × Ker p ce
qui prouve que p est orthogonal.

Ker p
3a + b 2a + b a+b

3a 2a a Im p

Figure 9  Décomposition d'une projection non orthogonale

B. Landelle 15 ISM MP
Sur la gure ci-avant, avec un projecteur non orthogonal, on observe trois congurations dié-
rentes :
∥a∥ < ∥a + b∥ ∥2a∥ = ∥2a + b∥ ∥3a∥ > ∥3a + b∥
Remarque : Ce résultat ne gure pas explicitement dans le programme ociel. Il faut savoir
le redémontrer.

3 Distance à un sev de dimension nie


Théorème 9 (Caractérisation métrique du projeté orthogonal). Soit F un sev de di-
mension nie et x ∈ E. Alors, on a ∥x − pF (x)∥ = d(x, F) et pF (x) est l'unique élément de F
qui réalise cette égalité, i.e.
®
y∈F
⇐⇒ y = pF (x)
∥x − y∥ = d(x, F)

Démonstration. Soit x ∈ E. Pour y ∈ F, on a


=⇒ ∥x − y∥2 = ∥x − pF (x)∥2 + ∥pF (x) − y∥2
x − y = x − pF (x) + pF (x) − y |{z}
Pythagore
| {z } | {z }
∈F⊥ ∈F
⩾ ∥x − pF (x)∥2

d'où d(x, F) = ∥x − pF (x)∥


Si y ∈ F tel que ∥x − y∥ = d(x, F), alors
∥pF (x) − y∥2 = ∥x − y∥2 − ∥x − pF (x)∥2 = 0 =⇒ y = pF (x)

Corollaire 5. Soit F un sev de dimension nie et x ∈ E. On a


d(x, F)2 = ⟨x − pF (x), x⟩

Démonstration. On a d(x, F)2 = ∥x − pF (x)∥2 = ⟨x − pF (x), x⟩ − ⟨x − pF (x), pF (x)⟩


| {z } | {z }
∈F⊥ ∈F

Remarque : En pratique, ce résultat permet de beaucoup simplier certains calculs.


Z +∞

Exemple : Soit E = R2 [X] muni de ⟨P, Q⟩ = P(t)Q(t)e −t dt et F = Vect (X, X2 ). Déter-


0
miner d(1, F). On a
+∞
t2 −t
Z ï ò
2 1
d(1, F) = ⟨1 − pF (1), 1⟩ = 1−t+ e dt =
0 6 3

B. Landelle 16 ISM MP
x
x − pF (x)
x−y

pF (x)
pF (x) − y F
y

Figure 10  Distance à un sous-espace de dimension nie

IV Exemples importants
1 Distance à un hyperplan
Proposition 20. Soit E un espace euclidien et H un hyperplan de E avec n ∈ H⊥ et n ̸= 0E .
|⟨x, n⟩|
On a ∀x ∈ E d(x, H) =
∥n∥

Démonstration. On a E = H⊕ Vect (n). Comme Vect (n) = H⊥ est de dimension nie, on a
id −pH = pH⊥ . La famille (n/∥n∥) est une base orthonormée de H⊥ et on obtient
|⟨x, n⟩|
d(x, H) = ∥(id −pH )(x)∥ = ∥pH⊥ (x)∥ =
∥n∥

n
Exemple : Soit E = Rn et H : xi = 0. Notons u = (1, . . . , 1) ∈ E. On a
P
i=1

H = {x ∈ E | x⊥u} = Vect (u)⊥


n
P
xi
|⟨x, u⟩|
d'où ∀x ∈ E d(x, H) = i=1
= √
∥u∥ n

2 Droite des moindres carrés


Proposition 21. Soit (Mi )1⩽i⩽n une suite de points (n ⩾ 2) de coordonnées (xi , yi ) telle que
toutes les abscisses ne soient pas égales. Étant donnée une droite D d'équation y = ax + b,
on note Hi le projeté de Mi sur D parallèlement à l'axe (Oy) avec i ∈ [[ 1 ; n ]]. Alors il existe
n
une unique droite D∗ telle que la somme des distances au carrés Mi H2i soit minimale. Cette
P
i=1
droite s'appelle la droite des moindre carrés et est décrite par l'équation
σx,y
y = a∗ x + b ∗ avec a∗ = b∗ = ȳ − a∗ x̄
σx2
1P n 1P n 1P n 1P n
où x̄ = xi ȳ = yi σx2 = x2i − x̄2 σx,y = xi yi − x̄ȳ
n i=1 n i=1 n i=1 n i=1

B. Landelle 17 ISM MP
y La droite des moindre carrés d'équation y =
ax + b est choisie telle que la quantité

n n
• • Mi H2i = [yi − (axi + b)]2
P P
i=1 i=1

• •
soit minimale. C'est la droite qui passe  au
mieux au plus près  des points M1 , . . . , Mn .
x Le problème consiste donc en la minimisa-
tion en (a, b) ∈ R2 de la somme des carrés
n
[yi − (axi + b)]2 .
P
Figure 11  Droite des moindres carrés i=1

Vocabulaire : La suite de points M1 , . . . , Mn s'appelle un échantillon, en général obtenu par


une suite de mesures. La quantité x̄ est la moyenne des abscisses, ȳ la moyenne des ordonnées,
σx2 la variance des abscisses, σx l'écart-type des abscisses et σx,y la covariance entre les abscisses
et ordonnées.
n n
Démonstration. On a Mi H2i = [yi − (axi + b)]2
P P
i=1 i=1

Munissons R du produit scalaire canonique. Ainsi, notant y = (y1 , . . . , yn ), x = (x1 , . . . , xn ) et


n

u = (1, . . . , 1), on a
n n
Mi H2i = [yi − (axi + b)]2 = ∥y − (ax + bu)∥2
P P
i=1 i=1

Par croissance et continuité de t 7→ t2 sur R+ , on a


n
Å ã2
Inf 2 Mi H2i 2
P
= Inf ∥y − (ax + bu)∥ = Inf ∥y − (ax + bu)∥
(a,b)∈R i=1 (a,b)∈R2 (a,b)∈R2

Notons F = Vect (u, x). D'après la caractérisation métrique du projeté orthogonal, on sait que
inf {∥y − (ax + bu)∥, (a, b) ∈ R2 } = inf {∥y − z∥, z ∈ F} = ∥y − pF (y)∥
La famille (x, u) est libre car les xi ne sont pas toutes égales. On a donc reformulé le problème
de la droite des moindres carrés comme recherche de distance à un plan vectoriel. On construit
une base (v1 , v2 ) orthonormée de F avec l'algorithme d'orthonormalisation :
u 1
v1 = √ v2 = √ (x − x̄u)
n nσx

Puis pF (y) = ⟨y, v1 ⟩v1 + ⟨y, v2 ⟩v2


1
= ȳu + (⟨y, x⟩ − ⟨y, u⟩x̄) (x − x̄u)
nσx2 Å ã
nσx,y σx,y σx,y
pF (y) = ȳu + (x − x̄u) = 2 x + ȳ − 2 x̄ u
nσx2 σx σx
Par liberté de (x, u), on identie les coecients a∗ et b∗ attendus.

Variante : On peut opter pour une approche un peu diérente, moins géométrique et plus
probabiliste, pour obtenir le résultat. On a

B. Landelle 18 ISM MP
n
Mi H2i = ∥y − ax − bu∥2 = ∥y − ax − (ȳ − ax̄)u + (ȳ − ax̄)u − bu∥2
P
i=1

Après calcul, on vérie ⟨y − ax − (ȳ − ax̄)u, u⟩ = 0


Ainsi, on obtient
n
Mi H2i = ∥y − ȳu − a(x − x̄u)∥2 + ∥(ȳ − ax̄ − b)u∥2
P
i=1

Le premier terme est un trinôme en a qu'on minimise avec le choix


⟨x − x̄u, y − ȳu⟩
a=
∥x − x̄u∥2
puis, on choisit b = ȳ − ax̄ qui annule le second terme et on donc minimisé la somme des carrés
des écarts. Cette démarche est inspirée des probabilités. Soit (Ω, A , P) espace probabilisé. Si
on suppose que le couple (X, Y) suit une loi uniforme sur (xi , yi )1⩽i⩽n , on a par transfert
Ä ä
nE (Y − aX − b)2 = ∥y − ax − bu∥2
et la décomposition proposée consiste à écrire
Ä ä
E (Y − aX − b)2 = V(Y − aX − b) + (E (Y − aX − b))2

et on observe V(Y − aX − b) = V(Y − aX)


Ce terme ne dépend donc que de a. On le minimise puis on choisit b.
Applications : Innombrables ! !

B. Landelle 19 ISM MP
Annexe
Borne inférieure et distance
Soit A partie non vide minorée de R et f dénie sur A ∪ inf A. Si f est croissante et continue
en inf A, on a
inf f (A) = f (inf A)
Par croissance de f , on a
∀x ∈ A x ⩾ inf A =⇒ f (x) ⩾ f (inf A)

d'où inf f (A) ⩾ f (inf A)


Puis, on a l'existence d'une suite (an ) à valeurs dans A avec an −−−→ inf A. Or
n→∞

∀n ∈ N f (an ) ⩾ inf f (A)


Comme f est continue en inf A, faisant tendre n → +∞, il vient
f (inf A) = lim f (an ) ⩾ inf f (A)
n→+∞

On conclut f (inf A) = inf f (A)


Si f n'est pas croissante, le résultat est faux : prendre f (x) = x2 et A = [ −1 ; 1 ] par exemple.
On a
f (inf A) = f (−1) = 1 ̸= 0 = inf {x2 , x ∈ [ −1 ; 1 ]}
si x > 0
®
x
Si f n'est pas continue en inf A, le résultat est faux également : prendre f (x) =
−1 si x = 0
et A = [ 0 ; +∞ [. On a
f (inf A) = f (0) = −1 ̸= 0 = inf {x, x > 0}
Application : Situation typique dans E préhilbertien avec (x, y, z) ∈ E3
Å ã2
2
Inf ∥x + ay + bz∥ = Inf ∥x + ay + bz∥ = d(x, Vect (y, z))2
(a,b)∈R2 (a,b)∈R2

La fonction t 7→ t2 est croissante continue sur R+ d'où l'application du résultat qui précède.

B. Landelle 20 ISM MP

Vous aimerez peut-être aussi