Ressource 2
Ressource 2
2 Orthogonalité 3
2.1 Bases orthogonales, orthogonalisation de Gram-Schmidt . . . . . . . . . . . 3
2.2 Théorèmes de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Un exemple : les polynômes orthogonaux . . . . . . . . . . . . . . . . . . . 7
1
Chapitre 2 : Espaces euclidiens réels
Dans tout ce chapitre E est un R-espace vectoriel.
Proposition 1.3. Toute norme euclidienne est une norme, c’est à dire satisfait, pour
tout x, y ∈ E et λ ∈ R,
kxk = 0 ⇔ x = 0, (1)
kλxk = |λ| kxk , (2)
kx + yk ≤ kxk + kyk . (3)
Proposition 1.4. Une norme est euclienne si et seulement si elle vérifie l’identité du
parallélogramme
2
Définition 1.6. On appelle θ l’angle
non orienté entre x et y noté
|hx, yi|
θ = ^(x, y) = arccos .
kxk kyk
Théorème 1.7 (Pythagore généralisé). Soient x , y deux vecteurs non nuls d’un espace
euclidien ou pré-hilbertien, alors
kx + yk2 = kxk2 + kyk2 + 2cos(^(x, y)) kxk kyk , (5)
2 Orthogonalité
2.1 Bases orthogonales, orthogonalisation de Gram-Schmidt
Proposition 2.1. Dans un espace euclidien ou pré-hilbertien, toute famille orthogonale
de vecteurs non nuls est libre.
En divisant les vecteurs par leur norme on obtient une famille orthonormée. Il découle
du corollaire ?? que :
Théorème 2.2 (Théorème fondamental des espaces euclidiens). . Tout espace
euclidien admet une base orthonormée.
Remarque 2.3. Si e = {e1 , · · · , en } est une base orthonormée de (E, h·, ·i), alors
* +
X X X
hx, yi = xi e i , yj ej = xi yj hei , ej i
i j i,j
X
= xi yi = hX, Y iRn
i
Autrement dit, à isomorphisme près (celui qui associe à x ses coordonnées dans une
base orthonormée), il n’y a qu’un espace euclidien de dimension n : Rn muni de son
produit scalaire canonique. Entre deux espaces euclidiens E, F de dimension n, il existe
donc un isomorphisme f : E → F tel que pour tous x, y ∈ E,
hx, yiE = hf (x), f (y)iF .
Pour les produits scalaires, il existe une autre méthode que la méthode de Gauss ?? pour
construire effectivement des bases orthogonales.
3
Proposition 2.4 (Procédé d’orthogonalisation de Gram-Schmidt). . Soit E un
espace euclidien ou pré-hilbertien, (en )n une famille (finie ou dénombrable) libre de vec-
teurs. Alors il existe une unique famille orthogonale (un )n telle que pour tout k, (1)
vect {e1 , . . . , ek } = vect {u1 , . . . , uk }. (2) La matrice de passage de (e1 , . . . , ek ) ȧ (u1 , . . . , uk )
est triangulaire supérieure idempotente (la diagonale est constituée de 1).
Corollaire 2.5. Sous les mêmes hypothèses, il existe une unique famille orthonormée
(εn )n telle que pour tout k, vect {e1 , . . . , ek } = vect {ε1 , . . . , εk } et hek , εk i > 0.
Remarque 2.7. Si (en )n est une famille libre d’un espace euclidien ou pré-hilbertien, et
F = vect {e1 , . . . , ek } un sous-espace vectoriel de E, l’orthogonalisation de Gram-Schmidt
produit une famille orthogonale (un )n telle que {u1 , . . . , uk } est une base orthogonale de F ,
ce qu’on n’obtient pas à priori par la méthode de Gauss. En particulier, on peut compléter
une base orthogonale d’un sous-espace F d’un espace euclidien en une base orthogonale
de l’espace.
Pn 2
Pn 2
Si x = i=1 xi ei dans une base orthonormée, alors kxk = i=1 xi par Pythagore
généralisé. Ceci se généralise à des sommes infinies, avec quelques précautions.
Proposition 2.8. Soit E un espace pré-hilbertien, (en )n∈N une famille orthonormée de
E. (1) (inégalité de Bessel) pour tout x ∈ E,
∞
X
hx, ei i2 ≤ kxk2 .
i=0
P∞ Pn
(2) Si x = i=0 xi ei , (au sens que kx − i=0 xi ei k → 0 quand n → ∞, ò ? xi ∈ R ),
alors xi = hx, ei i pour tout i ∈ N et
∞
X
x2i = kxk2 .
i=0
4
Remarque
P∞ 2.9. Une famille orthonormée (en )n∈N telle que tout x ∈ E s’écrive x =
x e
i=0 i i est appelée base hilbertienne de E. Ce n’est pas à priori une base au sens clas-
sique, où on demande que tout x soit combinaison linéaire finie des ei ( par exemple R[X]
admet une base hilbertienne qui est une base au sens classique, mais `2 (R) non). L’exis-
tence de base hilbertienne n’est pas garantie dans un espace pré-hilbertien quelconque. Une
condition suffisante est que l’espace pré-hilbertien soit complet, c’est-à-dire que toutes les
suites de Cauchy de E convergent dans E, pour la norme induite par le produit scalaire.
Un espace pré-hilbertien complet est appelé espace de Hilbert, il admet toujours une
famille orthonormée (en )n∈N telle que vect {en , n ∈ N} = E, qui forme une base hilber-
tienne. Tout x ∈ E s’écrivant alors x = ∞
P P∞ 2 2
i=0 hx, ei i ei , on a i=0 hx, ei i = kxk (égalité
de Parseval). Ceci est traité dans le cours de L3 ”Espaces de Hilbert-Analyse de Fourier”.
Théorème 2.12 (Projection sur un convexe). Soit C ⊂ E une partie convexe, non
vide, complète. Alors pour tout x ∈ E, (1) Il existe un unique p ∈ C tel que
d(x, C) = kx − pk (6)
∀y ∈ C, hx − p, y − pi ≤ 0. (7)
d(x, F ) = kx − pk (8)
∀y ∈ F, hx − p, y − pi = 0. (9)
5
Corollaire 2.15. Sous les mêmes hypothèses,
E = F ⊕ F⊥ (10)
Réciproquement, on peut définir la projection orthogonale à partir d’une décomposition
thogonale :
Définition 2.16. Soit E un espace euclidien ou pré-hilbertien, qui admet une décomposition
orthogonale E = F ⊕F ⊥ . Tout x ∈ E s’écrivant de manière unique x = y+z, avec y ∈ F et
z ∈ F ⊥ , on définit la projection orthogonale sur F comme étant l’application pF : E → F ,
pF (x) = y.
Exercice 2.17. Vérifier (avec Pythagore) que tour tout y ∈ F on a kx−yk ≥ kx − pF (x)k,
avec égalité si et seulement si y = pF (x).
Remarque 2.18. B.37. pF est un endomorphisme de E, pF ◦ pF = pF , Im P(pF ) = F et
ker pF = F ⊥ . Si {e1 , . . . , ek } est une base orthonormée de F , alors pF (x) = ki=1 hx, ei i ei
pour tout x ∈ E.
L’existence d’une décomposition orthogonale est garantie si F (et à fortiori si E ) est de
dimension finie, puisque qu’alors (F, h·, ·i) est isométrique à (Rn , h·, ·iRn ) donc complet.
Corollaire 2.19 (Décomposition orthogonale). Soit E un espace euclidien, et soit
F ⊂ E un sous-espace vectoriel. Alors
(1) E = F ⊕ F ⊥ .
(2) dim E = dim F + dim F ⊥ .
⊥
(3) F ⊥ = F .
⊥
Remarque 2.20. Si E et F sont quelconques on peut avoir F ⊕ F ⊥ 6= E et F ⊥ 6= F .
Soit F le sous-espace vectoriel de E = `2 (R) formé des suites à support fini, on note
en ∈ F la suite (0, · · · , 0, 1, 0 · · · ) dont tous les termes sont nuls sauf le (n + 1)me qui vaut
1 . La famille (en )n∈N est une base orthonormée de F (base au sens classique : tout x ∈ F
est une combinaison linéaire finie des ei ). Soit un vecteur x = (xn ) ∈ `2 (R) orthogonal à
F , alors hx, en i = xn = 0, pour tout entier n, donc x = 0. On a alors F ⊥ = {0}, et donc
⊥
F ⊕ F ⊥ = F 6= E et F ⊥ = E 6= F .
Proposition 2.21. Soit E un espace euclidien. Toute projection orthogonale pF de E sur
un sous-espace vectoriel F est diagonalisable dans une base orthonormée. Si {e1 , . . . , en }
est une base orthonormée telle que vect {e1 , . . . , ek } = F , alors
1 0
...
0 1
M (sF )e→e =
0 0
..
.
0 0
Définition 2.22. Soit E un espace euclidien ou pré-hilbertien admettant une décomposition
orthognale E = F ⊕ F ⊥ , on appelle symétrie orthogonale par rapport à F l’applica-
tion sF : E → E définie par sF (x) = y − z, pour tout x = y + z ∈ F ⊕ F ⊥ . On a
sF (x) = 2pF (x) − x, soit aussi pF (x) = x+s2F (x) .
6
Proposition 2.23. Toute symétrie orthogonale préserve le produit scalaire, c’est-à-dire
vérifie
Remarque 2.26. Le lemme est vrai sous l’hypothèse plus générale que ω : I → R+ est
positive non identiquement nulle.
La base canonique (X n )n∈N de R[X] n’est pas orthogonale à priori. En fait elle ne l’est
jamais, quelque soit I et ω.
Définition 2.27. On appelle polynômes orthogonaux une base (Pn )n∈N de R[X] telle que
Pn est de degré n pour chaque n ∈ N, et hPn , Pm iω = 0 pour tous n 6= m dans N.
Lemme 2.29. Soit (Pn )n∈N des polynômes orthogonaux unitaires. Alors pour n ≥ 1,
7
Une application à l’approximation
Supposons I compact et ω = 1, alors C(I, R) muni Rde h·, ·iω est pré-hilbertien. La
norme euclidienne associée est la norme L2 , soit kf k22 = I f 2 (t)dt. Identifions R[X] avec
les fonctions polynomiales sur I, on a alors abusivement R[X] ⊂ C(I, R).
Proposition 2.30. Soit f ∈ C(I, R), (Pn )n∈N des polynômes orthonormés. Alors pour n ∈
N !
Xn
d2 (f, Rn [X]) = d2 f, hf, Pk i Pk .
k=0
On peut montrer que la distance tend vers 0 quand le degré n → ∞, à l’aide du résultat
suivant :
Théorème 2.31 (Stone-Weirstrass). R[X] est dense dans C(I, R) pour la norme k·k∞ .
R R
On a, puisque kf k22 = I f 2 (t)dt ≤ I kf k2∞ (t)dt < Ckf k2∞ , que R[X] est aussi dense
dans C(I, R) pour la norme k · k2 ). Il s’ensuit que d2 (f, Rn [X]) tend vers 0 quand n → ∞.
8
Remarque 3.4. 1) Si e est une base orthonormée de E, et b = Θ(f ), on voit immédiatement
que M (b)e = M (f )e→e . ”Isomorpher” L (E, E) à B(E) à l’aide du produit scalaire revient
donc, matriciellement, à identifier une matrice d’endomorphisme à une matrice de forme
bilinéaire (en travaillant dans une base orthonormée). Notez que si e0 est une autre base
orthonormée, on a M (b)e0 = M (f )e0 →e0 . Les formules de changement de base nous disent
deux bases orthonormées, t P = P −1 (on dit que la matrice est orthogonale cf section
3.3.
2) Si on avait défini Θ par b(x, y) = hf (x), y)i, on aurait obtenu M (f )e→e = t M (b)e .
3) On a construit en section ?? un isomorphisme L (E, E ∗ ) ≈ B(E), notons le L, en-
voyant f sur b tel que b(x, y) = f (y)(x). Si on note K : L (E, E) → L (E, E ∗ ) l’isomor-
phisme envoyant g sur f tel que f (y)(x) = hx, g(y)i, on voit que Θ = L ◦ K.
Exercice 3.5. Si e = {ei } est une base quelconque de E, A = M (f )e→e et A∗ =
M (f ∗ )e→e , alors M = GA et A∗ = G−1t AG, où G est la matrice de Gram du produit
scalaire dans la base {ei }, i.e. G = (hei , ej i). (utiliser (13))
Exemple 3.6. 1) Soit E = `2 (R) muni que hx, yi = xi yi . Si note x = (x0 , x1 , x2 , . . .) les
P
éléments de E, posons f (x) = (0, x0 , x1 , . . .) (décalage vers la droite). Alors f ∈ End(E)
admet pour adjoint le décalage à gauche défini par f ∗ (x) = (x1 , x2 , x3 , . . .), puisque
∞
X ∞
X
hf (x), yi = xi−1 yi = xj yj+1 = hx, f ∗ (y)i .
i=1 j=0
9
Exercice 3.12. Dans une base e quelconque, M (f )e→e n’est pas nécessairement symétrique
si f l’est : montrer que f est symétrique si et seulement si t AG = GA, où G est la matrice
du produit scalaire dans la base e.
Les projections orthogonales et symétries orthogonales sont des endomorphismes symétriques,
puisqu’ils admettent une matrice diagonale (donc symétrique) dans une base orthonormée
(cf Propositions 2.21 et 2.24 ). En fait, le fait d’être symétrique caractérise, parmi les
projections et symétries, les projections orthogonales et les symétries orthogonales. Si E
a une décomposition en deux espaces supplémentaires E = F ⊕ G (non nécessairement
orthogonaux), on définit la projection pF et la symétrie sF parallèlement à G en posant,
pour x = y + z ∈ F ⊕ G, pF (x) = y et sF (x) = y − z. Alors
Corollaire 3.17. Soient E un espace vectoriel réel de dimension finie, b ∈ S(E) une
forme bilinéaire symétrique, e une base de E et M = M (b)e . Alors b est un produit scalaire
sur E si et seulement si les valeurs propres de M sont toutes strictement positives.
10
Applications
Définition 3.18. Soit E un espace euclidien, on dit qu’un endomorphisme f ∈ End(E)
est positif, resp. négatif, resp. définie, si la forme bilinéaire définie par b(x, y) = hf (x), yi
est positive, resp. négative, resp. définie.
Proposition 3.21. Soit E un espace euclidien non nul, et soit f ∈ End(E) symétrique,
alors
hf (x), xi
sup hf (x), xi = sup = sup{spec(f )}
kxk=1 kxk6=0 kxk2
hf (x), xi
inf hf (x), xi = inf = inf{spec(f )}
kxk=1 kxk6=0 kxk2
Rappelons que la matrice hessiène d’une application 2 fois dérivable de R2 dans R est
la matrice de ses dérivées partielles secondes, c’est une matrice symétrique donc diagona-
lisable. On rappelle un résultat vu en analyse :
11
4) Une application orthogonale est linéaire (voir lemme 3.25(1) ci-dessous).
5) Une application orthogonale est une isométrie :
6) Une isométrie n’est pas nécessairement linéaire, donc pas nécessairement orthogonale.
Par exemple, pour v ∈ E\{0} fixé, la translation x 7→ x+v est une isométrie non linéaire.
Cependant une isométrie fixant 0, et en particulier une isométrie linéaire, est orthogonale :
Lemme 3.25. Soit f : E → E une application. (1) Si f est orthogonale, alors elle est
linéaire et injective. Si E est de dimension finie, alors f est un automorphisme (i.e. un
isomorphisme de E dans lui-même).
(2) Si f est une isométrie fixant 0 , alors f est orthogonale.
Exercice 3.28. Si e est une base quelconque de E, et A = M (f )e→e , alors f est orthogo-
nale si et seulement sit AGA = G, où G est la matrice de Gram du produit scalaire dans
la base e.
12
Pour la première implication, soit f une symétrie et E = E1 ⊕ E−1 la décomposition en
sous-espaces propres correspondante, alors si on suppose f orthogonale comme application,
i.e. f ∗ = f −1 , pour tous x ∈ E1 et y ∈ E−1 , on a
hx, −yi = hf (x), f (y)i = hx, f ∗ (f (y))i = hx, yi = 0
donc E−1 = E1⊥ , i.e. f est une symétrie orthogonale.
13
Proposition 3.37. Soient e, e0 deux bases orthonormées de E, alors la matrice de passage
Pe→e0 = M (id)e0 →e est orthogonale.
Définition 3.38. On dit que deux bases e, e0 ∈ B ont même orientation si det (Pe→e0 ) >
0, sinon on dit qu’elle ont orientation opposée.
Lemme 3.39. R est une relation d’equivalence sur B, qui a exactement deux classes
d’équivalence, appelées classes d’orientation.
Démonstration. On a eRe puisque Pe→e = In est de déterminant 1. Si eRe0 , alors e0 Re
−1 −1 −1
puisque Pe0 →e = Pe→e 0 et que det Pe0 →e = det Pe→e0 = (det Pe→e0 ) > 0. Supposons eRe0
0 00
et e Re . On a donc det Pe→e0 > 0 et det Pe0 →e00 > 0. Rappelons que Pe→e0 = M (id)e0 →e et
qu’étant données trois bases b, b0 , b00 on a la formule fondamentale de composition
On a donc
Pe→e00 = M (id)e00 →e = M (id ◦ id)e00 →e = M (id)e0 →e M (id)e00 →e0 = Pe→e0 Pe0 →e00
d’où det Pe→e00 = det (Pe→e0 ) det (Pe0 →e00 ) > 0, ce qui montre que eRe00 . La relation ”avoir
la même orientation” est donc bien une relation d’équivalence. Il est clair qu’il y a au plus
deux classes d’équivalence. Si e = (e1 , . . . , en ) est une base de E, alors e0 = (−e1 , e2 , . . . , en )
a l’orientation opposée à e. Il y a donc exactement deux classes d’orientation.
On a donc une partition B = B1 ∪ B2 , où toutes les bases de B1 ont même orientation,
toutes les bases de B2 ont même orientation, et les bases de B1 ont l’orientation opposée
à celles de B2 .
Définition 3.40. On dit que E est orienté, ou qu’on a fixé une orientation de E si on
a choisi une classe d’orientation. On dit alors que les bases de cette classe sont directes,
et que celles de l’autre sont indirectes.
Pour fixer une orientation de E il suffit de choisir une base e ∈ B, qui conduit à écrire
la partition en classes B = B+ ∪ B− , où B+ est la classe d’orientation de e.
Exemple 3.41. On oriente souvent Rn par la base canonique. Ainsi (~i, ~j) dans R2 et
(~i, ~j, ~k) dans R3 sont directes, (~j, ~k,~i) est directe mais (~j,~i, ~k) est indirecte.
14
Un automorphisme f ∈ Aut(E) respecte l’orientation, c’est-à-dire envoie une base sur
une base de même orientation, si et seulement si det f > 0. En effet, soit e ∈ B, soit e0 =
{f (e1 ) , . . . , f (en )} = f (e) ∈ B, on voit que
Théorème 3.42 (Un peu de culture). Tout groupe fini est isomorphe à un sous-groupe
de On (R).
G −→ S(G)
g 7−→ φg : h 7→ gh
On peut aussi vérifier que c’est un morphisme de groupe injectif. Ensuite S(G) est iso-
morphe à Sn (numéroter de 1 à n les éléments du groupe...).
Proposition
A ∈ O2 (R), alors il existe θ ∈ R unique modulo 2π tel que : (1)
3.43. Soit
cos(θ) − sin(θ)
A = =: Rθ ∈ SO2 (R) représente une rotation d’angle θ, ou bien
sin(θ)
cos(θ)
cos(θ) sin(θ)
(2) A = =: Sθ ∈ O2− (R) représente une symétrie orthogonale par
sin(θ) − cos(θ)
rapport à la droite d’angle polaire θ/2.
2
3.44. Vérifier que (a) Si on identifie R ≈ C par (x, y) ≈ x + iy, alors
Exercice
x
Rθ ≈ eiθ (x + iy).
y
(b) Rθ Rβ = Rθ+β .
(c) Sθ est bien la matrice d’une symétrie orthogonale (tester sur les vecteurs propres)
(d) Sθ Sβ = Rθ−β .
15
(b) implique que SO2 (R) est abélien, et en fait que l’application (SO2 (R), ◦) → (S 1 ⊂ C, ·)
définie par Rθ 7→ eiθ est un isomorphisme de groupe.
et un unique θ ∈ [0, 2π [ tel que f soit représentée par Rθ dans toute base orthonormée
directe. Dans toute base orthonormée directe e = (e1 , e2 ), on a
Supposons A 6= I3 . Si det A = 1, A ∈ SO3 (R) représente une rotation d’axe vect {e03 } =
E1 et d’angle θ. Si det A = −1, A ∈ O− 3 (R) représente la composée d’une rotation d’angle
⊥
θ par rapport à l’axe E−1 et de la symétrie orthogonale par rapport à E−1 . On peut toujours
supposer que e a même orientation que e, quitte à remplacer e3 par −e03 , sans changer
0 0
A0 . Par contre l’angle θ dépend de l’orientation du plan invariant vect {e01 , e02 }, fixé par
le choix (e01 , e02 ). Remplacer (e01 , e02 ) par une base orthonormée ayant même orientation ne
change pas A0 , par contre remplacer (e01 , e02 ) par une b.o. d’orientation opposée remplace
θ par −θ modulo 2π, soit θ par 2π − θ si on prend l’angle dans [0, 2π[.
16
invariante par changement de base (car tr(A) = tr (P −1 A0 P ) = tr (A0 P P −1 ) = tr A0 ), on
a donc
Puisque cos θ = cos(2π − θ), la formule détermine {θ, 2π − θ} où θ ∈ [0, 2π[. Ceci permet
de déterminer l’angle non orienté entre u ∈ Eε⊥ et f (u) :
où u ∈ Eε⊥ est un vecteur non nul du plan de rotation et e est orthonormée avec même
orientation que e0 . On peut vérifier cette formule en la calculant dans e0 et utilisant
(u, f (u), ~n)e = Pe→e0 . (u, f (u), ~n)e0 et le fait que det Pe→e0 = 1. On peut aussi calculer
θ via l’expression
f (v1 ) = cos(θ)v1 + sin(θ)v2
valable pour toute b.o. directe (v1 , v2 ) de E⊥ .
hu,f (u)i
Remarque 3.47. On a aussi cos(θ) = kuk2
Remarque 3.49. (1) La quantité | sin θ|kxkkyk est l’aire du parallélogramme engendré
par x et y.
(2) Si (x, y) est orthonormée alors (x, y, x ∧ y) est orthonormée directe
(3) Si λ > 0, alors (λx) ∧ y = λ(x ∧ y) = x ∧ (λy).
(4) y ∧ x = −x ∧ y = (−x) ∧ y = x ∧ (−y).
x ∧ y = det(x, y, ~n)e~n
17
Corollaire 3.51. L’application E × E → E × E, (u, v) 7→ u ∧ v est bilinéaire alternée. Si
e = {e1 , e2 , e3 } est orthonormée directe, x = x1 e1 + x2 e2 + x3 e3 et y = y1 e1 + y2 e2 + y3 e3
on a
x ∧ y = (x2 y3 − x3 y2 ) e1 + (x3 y1 − x1 y3 ) e2 + (x1 y2 − x2 y1 ) e3
Proposition 3.52. On a pour tous x, y, z ∈ E :
(1) (Identité de Lagrange)
kx ∧ yk2 = kxk2 kyk2 − hx, yi (19)
(2) (double produit vectoriel)
x ∧ (y ∧ z) = hx, ziy − hx, yiz (20)
(3) (Identité de Jacobi)
x ∧ (y ∧ z) + y ∧ (z ∧ x) + z ∧ (x ∧ y) = 0. (21)
18