0% ont trouvé ce document utile (0 vote)
43 vues18 pages

Ressource 2

Le document traite des concepts fondamentaux des espaces euclidiens, y compris le produit scalaire, la norme, et les distances euclidiennes. Il aborde également l'orthogonalité, les bases orthogonales, et la méthode d'orthogonalisation de Gram-Schmidt. Enfin, il présente des théorèmes clés tels que le théorème de Pythagore généralisé et l'existence de bases hilbertiennes dans les espaces pré-hilbertiens complets.

Transféré par

patinda Pascal Kabore
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
43 vues18 pages

Ressource 2

Le document traite des concepts fondamentaux des espaces euclidiens, y compris le produit scalaire, la norme, et les distances euclidiennes. Il aborde également l'orthogonalité, les bases orthogonales, et la méthode d'orthogonalisation de Gram-Schmidt. Enfin, il présente des théorèmes clés tels que le théorème de Pythagore généralisé et l'existence de bases hilbertiennes dans les espaces pré-hilbertiens complets.

Transféré par

patinda Pascal Kabore
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Table des matières

1 Produit scalaire, norme, distances euclidiennes 2

2 Orthogonalité 3
2.1 Bases orthogonales, orthogonalisation de Gram-Schmidt . . . . . . . . . . . 3
2.2 Théorèmes de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Un exemple : les polynômes orthogonaux . . . . . . . . . . . . . . . . . . . 7

3 Endomorphismes dans un espace euclidien 8


3.1 Endomorphismes adjoints . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Endomorphismes symétriques, ou autoadjoints . . . . . . . . . . . . . . . . 9
3.3 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3.1 Application orthogonales et isométries . . . . . . . . . . . . . . . . 11
3.3.2 Groupe orthogonal et spécial orthogonal, orientation . . . . . . . . 13
3.3.3 Groupe O2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3.4 Groupe O3 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3.5 Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.6 Miscellannées : On (R), décomposition polaire . . . . . . . . . . . . 18

1
Chapitre 2 : Espaces euclidiens réels
Dans tout ce chapitre E est un R-espace vectoriel.

1 Produit scalaire, norme, distances euclidiennes


On rappelle qu’un produit scalaire sur E est une forme bilinéaire symétrique définie
positive.
Définition 1.1. Un espace vectoriel muni d’un produit scalaire est dit euclidien s’il
est de dimension finie, et pré-hilbertien p sinon. La norme euclidienne associée à un
produit scalaire h·, ·i est définie par kxk = hx, xi.
Exemple 1.2. P
(Rn , hx, xi =
(1)  xZi yi ) est euclidien.
1 
(2) R[X], hP, Qi = P (t)Q(t)dt est pré-hilbertien.
 0 
2
P 2
(3)` (R) = x : N −→ R |xi | < +∞ l’espace des suites réelles de carré sommable,
i∈N
P m
P
est pré-hilbertien muni de hx, yi = xi yi . Cette somme est bien définie car 2 |xi yi | ≤
i=n
m m n
|xi |2 + |yi |2 montre que la suite n 7→
P P P
xi yi est de Cauchy dans R, donc converge.
i=n i=n i=0

Proposition 1.3. Toute norme euclidienne est une norme, c’est à dire satisfait, pour
tout x, y ∈ E et λ ∈ R,

kxk = 0 ⇔ x = 0, (1)
kλxk = |λ| kxk , (2)
kx + yk ≤ kxk + kyk . (3)

Proposition 1.4. Une norme est euclienne si et seulement si elle vérifie l’identité du
parallélogramme

kx + yk2 + kx − yk2 = 2 kxk2 + kyk2



(4)

Démonstration. Si la norme est euclidienne, on a par bilinéarité et symétrie,

kx + yk2 = kxk2 + 2 hx, yi + kyk2 et kx − yk2 = kxk2 − 2 hx, yi + kyk2

d’où en additionnant, on obtient l’identité du parallélogramme. Reciproque en exercice


de TD.
On peut vérifier que la norme L1 , k(x1 , y1 )k1 = |x1 | + |x2 | sur R2 n’est pas euclidienne.
Proposition 1.5. Toute norme sur un espace vectoriel définit une distance par la formule
d(x, y) = kx − yk. On appelle distance euclidienne une distance ainsi obtenue.
Soient x, y deux vecteurs non nuls d’un espace euclidien. On a par l’inégalité de Cauchy-
|hx, yi| |hx, yi|
Schwarz ≤ 1. Il existe donc un unique θ ∈ [0, π] tel que cos(θ) = .
kxk kyk kxk kyk

2
Définition 1.6. On appelle θ l’angle
 non orienté entre x et y noté
|hx, yi|
θ = ^(x, y) = arccos .
kxk kyk
Théorème 1.7 (Pythagore généralisé). Soient x , y deux vecteurs non nuls d’un espace
euclidien ou pré-hilbertien, alors
kx + yk2 = kxk2 + kyk2 + 2cos(^(x, y)) kxk kyk , (5)

et en particulier kx + yk2 = kxk2 + kyk2 si x ⊥ y.


Si u1 , ..., uk sont deux à deux orthogonaux ku1 + ... + uk k2 = ku1 k2 + ... + kuk k2 .
Théorème 1.8 (Toute forme linéaire sur un espace euclien est le produit scalaire
avec vecteur). Soit E un espace euclidien. Alors l’application a 7→ ab
Remarque 1.9. En conséquence, pour toute forme linéaire ` sur E il existe un unique
a ∈ E tel que `(x) = hx, ai pour tout x ∈ E. On note a = `] . Les applications b : E →
E ∗ , a 7→ ab et ] : E ∗ → E, ` 7→ `] , sont appelés isomorphismes musicaux. Ils ne dépendent
pas d’un choix de bases sur E et E ∗ (mais dépendent du produit scalaire).
Exercice 1.10. Si e = {e1 , . . . , en } est une base orthonormée de E eucliden et e∗ =
{e∗1 , . . . , e∗n } est sa base duale, alors ebi = e∗i .

2 Orthogonalité
2.1 Bases orthogonales, orthogonalisation de Gram-Schmidt
Proposition 2.1. Dans un espace euclidien ou pré-hilbertien, toute famille orthogonale
de vecteurs non nuls est libre.
En divisant les vecteurs par leur norme on obtient une famille orthonormée. Il découle
du corollaire ?? que :
Théorème 2.2 (Théorème fondamental des espaces euclidiens). . Tout espace
euclidien admet une base orthonormée.
Remarque 2.3. Si e = {e1 , · · · , en } est une base orthonormée de (E, h·, ·i), alors
* +
X X X
hx, yi = xi e i , yj ej = xi yj hei , ej i
i j i,j
X
= xi yi = hX, Y iRn
i

Autrement dit, à isomorphisme près (celui qui associe à x ses coordonnées dans une
base orthonormée), il n’y a qu’un espace euclidien de dimension n : Rn muni de son
produit scalaire canonique. Entre deux espaces euclidiens E, F de dimension n, il existe
donc un isomorphisme f : E → F tel que pour tous x, y ∈ E,
hx, yiE = hf (x), f (y)iF .
Pour les produits scalaires, il existe une autre méthode que la méthode de Gauss ?? pour
construire effectivement des bases orthogonales.

3
Proposition 2.4 (Procédé d’orthogonalisation de Gram-Schmidt). . Soit E un
espace euclidien ou pré-hilbertien, (en )n une famille (finie ou dénombrable) libre de vec-
teurs. Alors il existe une unique famille orthogonale (un )n telle que pour tout k, (1)
vect {e1 , . . . , ek } = vect {u1 , . . . , uk }. (2) La matrice de passage de (e1 , . . . , ek ) ȧ (u1 , . . . , uk )
est triangulaire supérieure idempotente (la diagonale est constituée de 1).

Corollaire 2.5. Sous les mêmes hypothèses, il existe une unique famille orthonormée
(εn )n telle que pour tout k, vect {e1 , . . . , ek } = vect {ε1 , . . . , εk } et hek , εk i > 0.

Remarque 2.6. Puisque εk ∈ vect {e1 , . . . , ek } = vect {u1 , . . . , uk }, et est orthogonal à


vect {ε1 , . . . , εk−1 } = vect {e1 , . . . , ek−1 } = vect {u1 , . . . , uk−1 }, on a nécessairement εk =
± kuukk k , d’où l’unicité.

Démonstration. (Orthogonalisation) On construit (un )n par récurrence. On pose u1 = e1 .


Ayant défini u1 , . . . , uk satisfaisant 1 ) et 2 ), on cherche un vecteur uk+1 ∈ vect {e1 , . . . , ek+1 },
orthogonal à vect {u1 , . . . , uk } et dont la composante sur ek+1 est 1. Le fait que uk+1 ∈
vect {e1 , . . . , ek+1 } impliquera que la matrice de passage soit triangulaire supérieure.
Pour définir uk+1 il suffit de retrancher à ek+1 sa contribution sur vect {u1 , . . . , uk }.
Posant εi = kuuii k pour i ∈ {1, . . . , k}, la famille {ε1 , . . . , εk } est une base orthonormée de
vect {u1 , . . . , uk }. On pose donc

uk+1 = ek+1 − hek+1 , ε1 i ε1 − · · · − hek+1 , εk i εk


u1 uk
= ek+1 − hek+1 , u1 i 2 − · · · − hek+1 , uk i
ku1 k kuk k2

En effet, en cherchant uk+1 = ek+1 + λ1 ε1 + . . . + λk εk ⊥ εi , on trouve 0 = huk+1 , εi i =


hek+1 , εi i + λi d’où les coefficients ci-dessus.

Remarque 2.7. Si (en )n est une famille libre d’un espace euclidien ou pré-hilbertien, et
F = vect {e1 , . . . , ek } un sous-espace vectoriel de E, l’orthogonalisation de Gram-Schmidt
produit une famille orthogonale (un )n telle que {u1 , . . . , uk } est une base orthogonale de F ,
ce qu’on n’obtient pas à priori par la méthode de Gauss. En particulier, on peut compléter
une base orthogonale d’un sous-espace F d’un espace euclidien en une base orthogonale
de l’espace.
Pn 2
Pn 2
Si x = i=1 xi ei dans une base orthonormée, alors kxk = i=1 xi par Pythagore
généralisé. Ceci se généralise à des sommes infinies, avec quelques précautions.

Proposition 2.8. Soit E un espace pré-hilbertien, (en )n∈N une famille orthonormée de
E. (1) (inégalité de Bessel) pour tout x ∈ E,

X
hx, ei i2 ≤ kxk2 .
i=0
P∞ Pn
(2) Si x = i=0 xi ei , (au sens que kx − i=0 xi ei k → 0 quand n → ∞, ò ? xi ∈ R ),
alors xi = hx, ei i pour tout i ∈ N et

X
x2i = kxk2 .
i=0

4
Remarque
P∞ 2.9. Une famille orthonormée (en )n∈N telle que tout x ∈ E s’écrive x =
x e
i=0 i i est appelée base hilbertienne de E. Ce n’est pas à priori une base au sens clas-
sique, où on demande que tout x soit combinaison linéaire finie des ei ( par exemple R[X]
admet une base hilbertienne qui est une base au sens classique, mais `2 (R) non). L’exis-
tence de base hilbertienne n’est pas garantie dans un espace pré-hilbertien quelconque. Une
condition suffisante est que l’espace pré-hilbertien soit complet, c’est-à-dire que toutes les
suites de Cauchy de E convergent dans E, pour la norme induite par le produit scalaire.
Un espace pré-hilbertien complet est appelé espace de Hilbert, il admet toujours une
famille orthonormée (en )n∈N telle que vect {en , n ∈ N} = E, qui forme une base hilber-
tienne. Tout x ∈ E s’écrivant alors x = ∞
P P∞ 2 2
i=0 hx, ei i ei , on a i=0 hx, ei i = kxk (égalité
de Parseval). Ceci est traité dans le cours de L3 ”Espaces de Hilbert-Analyse de Fourier”.

2.2 Théorèmes de projection


Soit E un espace euclidien ou pré-hilbertien.

Définition 2.10. Une partie C ⊂ E est dite convexe si

∀x, y ∈ C, ∀t ∈ [0, 1], tx + (1−)ty ∈ C.

Définition 2.11. Soit A ⊂ E une partie non vide de E, et soit x ∈ E. On appelle


distance de x à A,
d(x, A) = inf kx − yk
y∈A

Théorème 2.12 (Projection sur un convexe). Soit C ⊂ E une partie convexe, non
vide, complète. Alors pour tout x ∈ E, (1) Il existe un unique p ∈ C tel que

d(x, C) = kx − pk (6)

(2) p estl’unique point de C tel que

∀y ∈ C, hx − p, y − pi ≤ 0. (7)

On appelle p le projeté de x sur C.

Exercice 2.13. Montrer que x 7→ p = pC (x) est 1-lipschitz sur E.

Corollaire 2.14 (Projection orthogonale sur un sous-espace vectoriel). Soit F ⊂


E un sous-espace vectoriel complet. Soit x ∈ E, alors
(1) Il existe un unique p ∈ F tel que

d(x, F ) = kx − pk (8)

(2) p est l’unique point de F tel que

∀y ∈ F, hx − p, y − pi = 0. (9)

Le point p est appelé projeté orthogonal de x sur F .

5
Corollaire 2.15. Sous les mêmes hypothèses,
E = F ⊕ F⊥ (10)
Réciproquement, on peut définir la projection orthogonale à partir d’une décomposition
thogonale :
Définition 2.16. Soit E un espace euclidien ou pré-hilbertien, qui admet une décomposition
orthogonale E = F ⊕F ⊥ . Tout x ∈ E s’écrivant de manière unique x = y+z, avec y ∈ F et
z ∈ F ⊥ , on définit la projection orthogonale sur F comme étant l’application pF : E → F ,
pF (x) = y.
Exercice 2.17. Vérifier (avec Pythagore) que tour tout y ∈ F on a kx−yk ≥ kx − pF (x)k,
avec égalité si et seulement si y = pF (x).
Remarque 2.18. B.37. pF est un endomorphisme de E, pF ◦ pF = pF , Im P(pF ) = F et
ker pF = F ⊥ . Si {e1 , . . . , ek } est une base orthonormée de F , alors pF (x) = ki=1 hx, ei i ei
pour tout x ∈ E.
L’existence d’une décomposition orthogonale est garantie si F (et à fortiori si E ) est de
dimension finie, puisque qu’alors (F, h·, ·i) est isométrique à (Rn , h·, ·iRn ) donc complet.
Corollaire 2.19 (Décomposition orthogonale). Soit E un espace euclidien, et soit
F ⊂ E un sous-espace vectoriel. Alors
(1) E = F ⊕ F ⊥ .
(2) dim E = dim F + dim F ⊥ .
⊥
(3) F ⊥ = F .
⊥
Remarque 2.20. Si E et F sont quelconques on peut avoir F ⊕ F ⊥ 6= E et F ⊥ 6= F .
Soit F le sous-espace vectoriel de E = `2 (R) formé des suites à support fini, on note
en ∈ F la suite (0, · · · , 0, 1, 0 · · · ) dont tous les termes sont nuls sauf le (n + 1)me qui vaut
1 . La famille (en )n∈N est une base orthonormée de F (base au sens classique : tout x ∈ F
est une combinaison linéaire finie des ei ). Soit un vecteur x = (xn ) ∈ `2 (R) orthogonal à
F , alors hx, en i = xn = 0, pour tout entier n, donc x = 0. On a alors F ⊥ = {0}, et donc
⊥
F ⊕ F ⊥ = F 6= E et F ⊥ = E 6= F .
Proposition 2.21. Soit E un espace euclidien. Toute projection orthogonale pF de E sur
un sous-espace vectoriel F est diagonalisable dans une base orthonormée. Si {e1 , . . . , en }
est une base orthonormée telle que vect {e1 , . . . , ek } = F , alors
 
1 0
 ... 
 
0 1
 
M (sF )e→e = 

0 0

 
 .. 
 . 
0 0
Définition 2.22. Soit E un espace euclidien ou pré-hilbertien admettant une décomposition
orthognale E = F ⊕ F ⊥ , on appelle symétrie orthogonale par rapport à F l’applica-
tion sF : E → E définie par sF (x) = y − z, pour tout x = y + z ∈ F ⊕ F ⊥ . On a
sF (x) = 2pF (x) − x, soit aussi pF (x) = x+s2F (x) .

6
Proposition 2.23. Toute symétrie orthogonale préserve le produit scalaire, c’est-à-dire
vérifie

∀x, y ∈ E hsF (x), sF (y)i = hx, yi. (11)

En particulier ksF (x)k = kxk pour tout x ∈ E.

Proposition 2.24. Soit E un espace euclidien. Toute symétrie orthogonale sF de E par


rapport à un sous-espace vectoriel F est diagonalisable dans une base orthonormée. Si
{e1 , . . . , en } est une base orthonormée telle que vect {e1 , . . . , ek } = F , alors
 
1 0
 ... 
 
0 1
 
M (sF )e→e =

−1 0

 
 .. 
 . 
0 −1

2.3 Un exemple : les polynômes orthogonaux


On considère E = R[X] l’espace vectoriel des polynômes à coefficients réels, I ⊂ R un
intervalle, et ω : I → R∗+ une fonction C 1 . Pour P, Q ∈ R[X] on pose
Z
hP, Qiω = P (t)Q(t)ω(t)dt (12)
I
R
(si I est non borné, on impose à ω de vérifier I
tn ω(t)dt < ∞ pour chaque n ∈ N.)

Lemme 2.25. h·, ·iω est un produit scalaire sur R[X].

Remarque 2.26. Le lemme est vrai sous l’hypothèse plus générale que ω : I → R+ est
positive non identiquement nulle.

La base canonique (X n )n∈N de R[X] n’est pas orthogonale à priori. En fait elle ne l’est
jamais, quelque soit I et ω.

Définition 2.27. On appelle polynômes orthogonaux une base (Pn )n∈N de R[X] telle que
Pn est de degré n pour chaque n ∈ N, et hPn , Pm iω = 0 pour tous n 6= m dans N.

Exemple 2.28. Le procédé l’orthogonalisation de Gram-Schmidt appliqué à (X n )n∈N


donne des polynômes orthogonaux (Pn )n∈N unitaires, c’est-à-dire telle que Pn = X n +
Pn−1 i
i=0 αi X . Par construction P0 est constant et Pn est orthogonal à Rn−1 [X] l’espace des
polynômes de degré ≤ n − 1. On a une formule de récurrence :

Lemme 2.29. Soit (Pn )n∈N des polynômes orthogonaux unitaires. Alors pour n ≥ 1,

XPn = Pn+1 + an Pn + bn Pn−1 ,


hXPn ,Pn iω hXPn ,Pn−1 iω
où an = hPn ,Pn iω
et bn = hPn−1 ,Pn−1 iω
.

7
Une application à l’approximation
Supposons I compact et ω = 1, alors C(I, R) muni Rde h·, ·iω est pré-hilbertien. La
norme euclidienne associée est la norme L2 , soit kf k22 = I f 2 (t)dt. Identifions R[X] avec
les fonctions polynomiales sur I, on a alors abusivement R[X] ⊂ C(I, R).
Proposition 2.30. Soit f ∈ C(I, R), (Pn )n∈N des polynômes orthonormés. Alors pour n ∈
N !
Xn
d2 (f, Rn [X]) = d2 f, hf, Pk i Pk .
k=0

On peut montrer que la distance tend vers 0 quand le degré n → ∞, à l’aide du résultat
suivant :
Théorème 2.31 (Stone-Weirstrass). R[X] est dense dans C(I, R) pour la norme k·k∞ .
R R
On a, puisque kf k22 = I f 2 (t)dt ≤ I kf k2∞ (t)dt < Ckf k2∞ , que R[X] est aussi dense
dans C(I, R) pour la norme k · k2 ). Il s’ensuit que d2 (f, Rn [X]) tend vers 0 quand n → ∞.

3 Endomorphismes dans un espace euclidien


3.1 Endomorphismes adjoints
Définition 3.1. Soit E un espace euclidien ou pré-hilbertien, et soit f ∈ End(E) un
endomorphisme de E. On dit que f ∗ ∈ End(E) est l’endomorphisme adjoint de f si
∀x, y ∈ E, hf (x), yi = hx, f ∗ (y)i . (13)
Remarque 3.2. 1) On vérifie sans peine que si l’adjoint existe il est unique.
2) En inversant les variables x et y et par symétrie du produit scalaire, (B.54) équivaut à
∀x, y ∈ E, hx, f (y)i = hf ∗ (x), yi . (14)
Théorème 3.3. Soit E un espace euclidien et soit f ∈ End(E) un endomorphisme de E.
Alors f admet un adjoint f ∗ . Si {ei } est une base orthonormée de E, et A = M (f )e→e ,
alors la matrice A∗ = M (f ∗ )e→e de f ∗ dans la même base vaut A∗ = t A. L’adjoint f ∗
de f est donc une sorte de ”symétrique” de f . On peut formaliser cette remarque comme
suit. Dans un espace euclidien E, le produit scalaire induit une identification de E avec
le dual E ∗ (cf. remarque 1.9). De même il permet d’identifier L (E, E) avec B(E), par
exemple via l’application
Θ
L (E, E) → B(E)
f 7→ b
b(x, y) := hx, f (y)i.
Il est clair que Θ est linéaire et injective. C’est donc un isomorphisme par égalité des
dimensions de L (E, E) et B(E). Maintenant, si on définit t b ∈ B(E) par t b(x, y) =
b(y, x), on a
Θ (f ∗ ) (x, y) = hx, f ∗ (y)i = hf (x), yi = hy, f (x)i = t b(x, y), (15)
donc Θ (f ∗ ) = t b. Prendre l’adjoint d’un endomorphisme correspond donc à prendre le
symétrique de la forme bilinéaire associée (par l’isomorphisme Θ ).

8
Remarque 3.4. 1) Si e est une base orthonormée de E, et b = Θ(f ), on voit immédiatement
que M (b)e = M (f )e→e . ”Isomorpher” L (E, E) à B(E) à l’aide du produit scalaire revient
donc, matriciellement, à identifier une matrice d’endomorphisme à une matrice de forme
bilinéaire (en travaillant dans une base orthonormée). Notez que si e0 est une autre base
orthonormée, on a M (b)e0 = M (f )e0 →e0 . Les formules de changement de base nous disent
deux bases orthonormées, t P = P −1 (on dit que la matrice est orthogonale cf section
3.3.
2) Si on avait défini Θ par b(x, y) = hf (x), y)i, on aurait obtenu M (f )e→e = t M (b)e .
3) On a construit en section ?? un isomorphisme L (E, E ∗ ) ≈ B(E), notons le L, en-
voyant f sur b tel que b(x, y) = f (y)(x). Si on note K : L (E, E) → L (E, E ∗ ) l’isomor-
phisme envoyant g sur f tel que f (y)(x) = hx, g(y)i, on voit que Θ = L ◦ K.
Exercice 3.5. Si e = {ei } est une base quelconque de E, A = M (f )e→e et A∗ =
M (f ∗ )e→e , alors M = GA et A∗ = G−1t AG, où G est la matrice de Gram du produit
scalaire dans la base {ei }, i.e. G = (hei , ej i). (utiliser (13))
Exemple 3.6. 1) Soit E = `2 (R) muni que hx, yi = xi yi . Si note x = (x0 , x1 , x2 , . . .) les
P
éléments de E, posons f (x) = (0, x0 , x1 , . . .) (décalage vers la droite). Alors f ∈ End(E)
admet pour adjoint le décalage à gauche défini par f ∗ (x) = (x1 , x2 , x3 , . . .), puisque

X ∞
X
hf (x), yi = xi−1 yi = xj yj+1 = hx, f ∗ (y)i .
i=1 j=0

2) Soit E = R[X] muni du produit scalaire vérifiant hX n , X m i = δnm . Soit f ∈ End(E)


vérifiant par f (X n ) = 1 pour tout n ∈ N. Si l’adjoint f ∗ existe, alors 1 = hf (X n ) , 1i =
hX n , f ∗ (1)i pour tout n, ce qui est absurde puisque f ∗ (1) ∈ R[X] est de degré fini.
Proposition 3.7. Soient f, g ∈ End(E) et λ ∈ R, alors (1) f ∗∗ = f, id∗ = id,
(2) (f + g)∗ = f ∗ + g ∗ , (λf )∗ = λf ∗ , (f ◦ g)∗ = g ∗ ◦ f ∗
(3) rg f ∗ = rg f , det f ∗ = det f .

On déduit de 1) et 2) que si f est un isomorphisme, alors f ∗ aussi et (f ∗ )−1 = (f −1 ) .
Proposition 3.8. Soient E un espace euclidien et f ∈ End(E), alors
(1) ker f ∗ = (Im f )⊥
et Im f ∗ = (ker f )⊥ (2) F ⊂ E est f -stable si et seulement si F ⊥ est f ∗ − stable.
Corollaire 3.9. Soit E un espace euclidien et f ∈ End(E), alors on a les décompositions
orthogonales
⊥ ⊥
E = ker f ⊕ Im f ∗ = ker f ∗ ⊕ Im f.

3.2 Endomorphismes symétriques, ou autoadjoints


Définition 3.10. Un endomorphisme f ∈ End(E) d’un espace euclidien ou pré-hilbertien
est symétrique, ou auto-adjoint, si
∀x, y ∈ E, hf (x), yi = hx, f (y)i.
Remarque 3.11. 1) f est symétrique si et seulement si f ∗ = f .
2) f est symétrique si et seulement si la forme bilinéaire b(x, y) := hf (x), yi est symétrique.
3) Si A = M (f )e→e où e est orthonormée, alors f est symétrique si et seulement t A = A.

9
Exercice 3.12. Dans une base e quelconque, M (f )e→e n’est pas nécessairement symétrique
si f l’est : montrer que f est symétrique si et seulement si t AG = GA, où G est la matrice
du produit scalaire dans la base e.
Les projections orthogonales et symétries orthogonales sont des endomorphismes symétriques,
puisqu’ils admettent une matrice diagonale (donc symétrique) dans une base orthonormée
(cf Propositions 2.21 et 2.24 ). En fait, le fait d’être symétrique caractérise, parmi les
projections et symétries, les projections orthogonales et les symétries orthogonales. Si E
a une décomposition en deux espaces supplémentaires E = F ⊕ G (non nécessairement
orthogonaux), on définit la projection pF et la symétrie sF parallèlement à G en posant,
pour x = y + z ∈ F ⊕ G, pF (x) = y et sF (x) = y − z. Alors

Lemme 3.13. (1) pF est un endomorphisme symétrique ⇔ G = F ⊥ .


(2) sF est un endomorphisme symétrique ⇔ G = F ⊥ .
On voit donc qu’une symétrie est symétrique si et seulement si c’est une symétrie
orthogonale. Ce phénomène de ”rigidité” est en fait emblématique des endomorphismes
symétriques, comme le montre l’important théorème suivant :
Théorème B.69 (Théorème spectral). Soient E un espace euclidien et f ∈ End(E) un
endomorphisme symétrique, alors (1) f est diagonalisable. (2) Les sous-espaces propres
sont deux à deux orthogonaux. En conséquence f admet une base orthonormée de vecteurs
propres, formée en prenant une base orthonormée de chaque sous-espace propre.

Remarque 3.14. On réfère parfois à ce résultat par ”diagonalisation simultanée” ou


”orthogonalisation simultanée”. En effet si h·, ·i est le produit scalaire de E et b la forme
bilinaire symétrique définie par b(x, y) = hf (x), yi, alors la base orthonormée de vecteurs
propres de f orthogonalise simultanément h·, ·i et b. Maintenant soient q1 et q2 sont deux
formes quadratiques sur un espace vectoriel de dimension finie, où q1 est définie positive,
on peut alors orthogonaliser simultanément g1 et q2 : soit f l’endomorphisme tel que
b2 (x, y) = b1 (x, f (y)), où b1 et b2 sont les formes polaires de q1 et q2 , b1 étant un produit
scalaire (avec les conventions de la page ? ?, f = Θ (b2 ) où Θ est défini en utilisant b1 ).
Puisque b2 est symétrique, f est symétrique pour b1 et la base q1 -orthonormée de vecteurs
propres de f est q2 -orthogonale.

Corollaire 3.15. Soient q1 et q2 deux formes quadratiques sur un espace vectoriel E de


dimension finie, où on suppose q1 définie positive. Alors il existe une base de E qui est
q1 − orthonomée et q2 -orthogonale.

Corollaire 3.16 (Théorème spectral, version matricielle). Soit M ∈ Mn×n (R ) une


matrice symétrique.
(1) M est diagonalisable dans une base orthonormée de Rn .
(2) Il existe une matrice P ∈ Mn×n (R) inversible telle que P −1 = t P et une matrice
diagonale D telle que
t
P M P = P −1 M P = D.

Une matrice P vérifiant P −1 = t P est dite orthogonale (voir section 3.3.

Corollaire 3.17. Soient E un espace vectoriel réel de dimension finie, b ∈ S(E) une
forme bilinéaire symétrique, e une base de E et M = M (b)e . Alors b est un produit scalaire
sur E si et seulement si les valeurs propres de M sont toutes strictement positives.

10
Applications
Définition 3.18. Soit E un espace euclidien, on dit qu’un endomorphisme f ∈ End(E)
est positif, resp. négatif, resp. définie, si la forme bilinéaire définie par b(x, y) = hf (x), yi
est positive, resp. négative, resp. définie.

Exercice 3.19. Si E est euclidien et f ∈ End(E), alors f ◦ f ∗ et f ∗ ◦ f sont symétriques


positifs, et définis si f ∗ est injectif, resp. f est injectif.

Proposition 3.20 (Racine carrée d’un endomorphisme symétrique positif). Soit E un


espace euclidien et soit f ∈ End(E) symétrique et positif, alors il existe un unique g ∈
End(E) symétrique et positif tel que f = g ◦ g.

Proposition 3.21. Soit E un espace euclidien non nul, et soit f ∈ End(E) symétrique,
alors
hf (x), xi
sup hf (x), xi = sup = sup{spec(f )}
kxk=1 kxk6=0 kxk2
hf (x), xi
inf hf (x), xi = inf = inf{spec(f )}
kxk=1 kxk6=0 kxk2
Rappelons que la matrice hessiène d’une application 2 fois dérivable de R2 dans R est
la matrice de ses dérivées partielles secondes, c’est une matrice symétrique donc diagona-
lisable. On rappelle un résultat vu en analyse :

Proposition 3.22. Soit F : R2 → R une application de classe C 3 , p ∈ R2 un point


critique de F , et λ1 , λ2 ∈ R les valeurs propres de la matrice hessiènne de F en p. Alors
(1) Si λ1 > 0 et λ2 > 0, alors F admet un minimum local strict en p,
(2) Si λ1 < 0 et λ2 < 0, alors F admet un maximum local strict en p,
(3) Si λ1 λ2 < 0, alors F admet un point selle en p.

3.3 Endomorphismes orthogonaux


Soit E un espace euclidien ou pré-hilbertien, non réduit à {0}.

3.3.1 Application orthogonales et isométries


Définition 3.23. Une application f : E → E est orthogonale si

∀x, y ∈ E, hf (x), f (y)i = hx, yi

C’est une isométrie si


∀x, y ∈ E, d(f (x), f (y)) = d(x, y)

Remarque 3.24. 1) Une application orthogonale préserve l’orthogonalité : si x ⊥ y, alors


0 = hx, yi = hf (x), f (y)i donc f (x) ⊥ f (y).
2) Une application orthogonale préserve la norme : ∀x ∈ E, kf (x)k = kxk.
3) Une application orthogonale préserve les angles :
   
hf (x), f (y)i hx, yi
^(f (x), f (y)) = arccos = arccos = ^(x, y).
kf (x)k kf (y)k kxk kyk

11
4) Une application orthogonale est linéaire (voir lemme 3.25(1) ci-dessous).
5) Une application orthogonale est une isométrie :

d(f (x), f (y)) = kf (x) − f (y)k


= kf (x − y)k ( par linéarité)
= kx − yk (préserve la norme)
= d(x, y)

6) Une isométrie n’est pas nécessairement linéaire, donc pas nécessairement orthogonale.
Par exemple, pour v ∈ E\{0} fixé, la translation x 7→ x+v est une isométrie non linéaire.
Cependant une isométrie fixant 0, et en particulier une isométrie linéaire, est orthogonale :

Lemme 3.25. Soit f : E → E une application. (1) Si f est orthogonale, alors elle est
linéaire et injective. Si E est de dimension finie, alors f est un automorphisme (i.e. un
isomorphisme de E dans lui-même).
(2) Si f est une isométrie fixant 0 , alors f est orthogonale.

Si E est préhilbertien, une application orthogonale n’est pas nécessairement surjective :


par exemple sur E = R[X] muni du produit scalaire tel que hX n , X m i = δnm , l’endomor-
phisme engendré par X n 7→ X n+1 est orthogonal mais pas surjectif.
On note Aut(E) ⊂ End(E) le sous-groupe (pour la loi composition) formé par les auto-
morphismes, O(E) ⊂ End(E) l’ensemble des applications orthogonales de E, et Isom(E)
l’ensemble des isométries.

Corollaire 3.26. Soit f ∈ I som(E). Alors il existe un unique couple g ∈ O(E) et v ∈ E


tel que,
∀x ∈ E, f (x) = g(x) + v.

Proposition 3.27. Soit f ∈ Aut(E). Sont équivalents : (1) f est orthogonal,


(2) f préserve la norme, ie ∀x ∈ E, kf (x)k = kxk.
(3) l’adjoint f ∗ existe et f ∗ = f −1 . En dimension finie, également :
(4) Il existe une base orthononormée e telle que f transforme e une base orthonormée.
(5) f transforme toute base orthonormée en une base orthonormée.
(6) Si A = M (f )e→e est la matrice de f dans une base orthonormée, alors t AA = I. De
manière équivalente, At A = I, ◦ut A = A−1 .

Exercice 3.28. Si e est une base quelconque de E, et A = M (f )e→e , alors f est orthogo-
nale si et seulement sit AGA = G, où G est la matrice de Gram du produit scalaire dans
la base e.

Remarque 3.29. [Club confusion] On prendra garde que


1) Une projection orthogonale n’est pas un endomorphisme orthogonal général ! (car pas
injective, sauf quand c’est l’identité...)
2) Une symétrie orthogonale est orthogonale (cf prop. B.42). En fait, une symétrie est
orthogonale comme application ssi c’est une symétrie orthogonale ssi elle est symétrique
comme endomorphisme ( cf lemme 3.13).

12
Pour la première implication, soit f une symétrie et E = E1 ⊕ E−1 la décomposition en
sous-espaces propres correspondante, alors si on suppose f orthogonale comme application,
i.e. f ∗ = f −1 , pour tous x ∈ E1 et y ∈ E−1 , on a
hx, −yi = hf (x), f (y)i = hx, f ∗ (f (y))i = hx, yi = 0
donc E−1 = E1⊥ , i.e. f est une symétrie orthogonale.

3.3.2 Groupe orthogonal et spécial orthogonal, orientation


Théorème 3.30. On suppose E euclidien. L’ensemble O(E) est un sous-groupe de Aut(E),
appelé groupe orthogonal de E. L’application déterminant det : O(E) → {−1, 1} ⊂ (R∗ , ·)
est un morphisme de groupe. Le sous-groupe SO(E) := det−1 ({1}) est appelé groupe
spécial orthogonal ou groupe des rotations, ou groupe des isométries directes.
On peut aussi noter SO(E) = O+ (E) et O− (E) = det−1 ({−1}) ⊂ O(E). Contrairement
à O+ (E), l’ensemble O− (E) n’est pas un sous-groupe.
Exemple 3.31. 1) Une symétrie orthogonale par rapport à un hyperplan F , i.e. où E =
F ⊕ F ⊥ avec dim F ⊥ = 1, est un élément de O− (E), qu’on appelle réflexion.
2) Plus généralement, si s est une symétrie orthogonale par rapport à F , alors s ∈ SO(E)
si dim F ⊥ est paire et s ∈ O− (E) sinon.
Proposition 3.32. Soit f ∈ O(E) et λ ∈ R une valeur propre de f , alors λ ∈ {−1, 1}.
Du coup, c’est très restrictif d’être orthogonal et diagonalisable :
Proposition 3.33. Soit f ∈ O(E), alors f diagonalisable si et seulement si f est une
symétrie orthogonale.
En particulier un endomorphisme symétrique et orthogonal est une symétrie orthogo-
nale.
Définition 3.34. On appelle On (R) := {A ∈ Mn (R) | t AA = I} = {A ∈ GLn (R) | t AA = I}
le groupe orthogonal, et SOn (R) = {A ∈ On (R) | det A = 1} le groupe spécial ortho-
gonal.
Proposition 3.35. Soit A ∈ Mn (R). Sont équivalents : (1) X 7→ AX est une une
application orthogonale de Rn muni du produit scalaire canonique.
(2) A ∈ On (R).
(3) At A = I.
(4) Les lignes de A sont orthonormées dans Rn .
(5) Les colonnes de A sont orthonormées dans Rn .
 
2 −1 2
Exemple 3.36. A = 31  2 2 −1  est orthogonale.
−1 2 2
Pour tout espace euclidien E de dimension n, et toute base orthonormée de E, les
matrices orthogonales sont exactement les matrices des transformations orthogonales de
E exprimées dans la base orthonormée. Formellement, si e est une base orthonormée de
E, on a l’isomorphisme :
O(E) −→ On (R)
f 7−→ M (f )e→e
qui envoie SO(E) sur SOn (R).

13
Proposition 3.37. Soient e, e0 deux bases orthonormées de E, alors la matrice de passage
Pe→e0 = M (id)e0 →e est orthogonale.

On a dans ce cas P −1 = t P , ce qui peut faciliter certains calculs. Soit E un espace


vectoriel réel de dimension n. Notons B = {e = {e1 , . . . , en } , e base de E} l’ensemble des
bases ordonnées de E (les vecteurs sont numérotés de 1 à n ).

Définition 3.38. On dit que deux bases e, e0 ∈ B ont même orientation si det (Pe→e0 ) >
0, sinon on dit qu’elle ont orientation opposée.

Ainsi, permuter 2 vecteurs dans une base en change l’orientation. Si e0 s’obtient de e


par permutation circulaire de n vecteurs, e = (e1 , e2 , . . . , en ) 7→ e0 = (e2 , e3 , . . . , en , e1 ),
alors e et e0 on tmême orientation si n est impair, et ont orientation opposée si n est pair
(Exercice). Avoir la même orientation définit une relation d’équivalence sur B, formelle-
ment :
∀e, e0 ∈ B, eRe0 ⇔ det (Pe→e0 ) > 0.

Lemme 3.39. R est une relation d’equivalence sur B, qui a exactement deux classes
d’équivalence, appelées classes d’orientation.
Démonstration. On a eRe puisque Pe→e = In est de déterminant 1. Si eRe0 , alors e0 Re
−1 −1 −1
puisque Pe0 →e = Pe→e 0 et que det Pe0 →e = det Pe→e0 = (det Pe→e0 ) > 0. Supposons eRe0
0 00
et e Re . On a donc det Pe→e0 > 0 et det Pe0 →e00 > 0. Rappelons que Pe→e0 = M (id)e0 →e et
qu’étant données trois bases b, b0 , b00 on a la formule fondamentale de composition

M (g ◦ f )b→b00 = M (g)b0 →b00 M (f )b→b0 .

On a donc

Pe→e00 = M (id)e00 →e = M (id ◦ id)e00 →e = M (id)e0 →e M (id)e00 →e0 = Pe→e0 Pe0 →e00

d’où det Pe→e00 = det (Pe→e0 ) det (Pe0 →e00 ) > 0, ce qui montre que eRe00 . La relation ”avoir
la même orientation” est donc bien une relation d’équivalence. Il est clair qu’il y a au plus
deux classes d’équivalence. Si e = (e1 , . . . , en ) est une base de E, alors e0 = (−e1 , e2 , . . . , en )
a l’orientation opposée à e. Il y a donc exactement deux classes d’orientation.
On a donc une partition B = B1 ∪ B2 , où toutes les bases de B1 ont même orientation,
toutes les bases de B2 ont même orientation, et les bases de B1 ont l’orientation opposée
à celles de B2 .

Définition 3.40. On dit que E est orienté, ou qu’on a fixé une orientation de E si on
a choisi une classe d’orientation. On dit alors que les bases de cette classe sont directes,
et que celles de l’autre sont indirectes.

Pour fixer une orientation de E il suffit de choisir une base e ∈ B, qui conduit à écrire
la partition en classes B = B+ ∪ B− , où B+ est la classe d’orientation de e.

Exemple 3.41. On oriente souvent Rn par la base canonique. Ainsi (~i, ~j) dans R2 et
(~i, ~j, ~k) dans R3 sont directes, (~j, ~k,~i) est directe mais (~j,~i, ~k) est indirecte.

14
Un automorphisme f ∈ Aut(E) respecte l’orientation, c’est-à-dire envoie une base sur
une base de même orientation, si et seulement si det f > 0. En effet, soit e ∈ B, soit e0 =
{f (e1 ) , . . . , f (en )} = f (e) ∈ B, on voit que

M (f )e→e = M (id)e0 →e = Pe→e0 ,

et on se rappelle que det f se calcule comme le déterminant de la matrice de f dans


une base quelconque (et ne dépend pas de la base), par exemple det f = det M (f )e→e ,
d’où l’assertion. Si E est euclidien, f ∈ SO(E) agit donc sur les bases orthonormées en
préservant l’orientation.

Théorème 3.42 (Un peu de culture). Tout groupe fini est isomorphe à un sous-groupe
de On (R).

Démonstration. Soit G un groupe de cardinal n, un théorème de Cayley dit qu’alors G


est isomorphe à un sous-groupe du groupe des permutations Sn = Bij({1, . . . , n}), i.e.
l’ensemble des bijections σ : {1, . . . , n} → {1, . . . , n} muni de la loi de composition. On
considère alors
inj
G 7−→ Sn −→ On (R)
g 7−→ σ 7−→ f, où f (ei ) = eσ(i)
On peut vérifier que la deuxième flèche est bien un morphisme de groupe et injective.
L’idée du théorème de Cayley est de considérer S(G) le groupe des bijections de G dans
lui-même. On peut injecter G dans S(G), en faisant agir G sur lui-même par produit à
gauche, i.e. à g ∈ G on associe la bijection φg : G → G définie par φg (h) = gh, et on pose

G −→ S(G)
g 7−→ φg : h 7→ gh

On peut aussi vérifier que c’est un morphisme de groupe injectif. Ensuite S(G) est iso-
morphe à Sn (numéroter de 1 à n les éléments du groupe...).

3.3.3 Groupe O2 (R)


On rappelle que SO2 (R) = {A ∈ O2 (R), det A = 1}, et O−
2 (R) = O2 (R)\SO2 (R).

Proposition
 A ∈ O2 (R), alors il existe θ ∈ R unique modulo 2π tel que : (1)
3.43. Soit 
cos(θ) − sin(θ)
A = =: Rθ ∈ SO2 (R) représente une rotation d’angle θ, ou bien
sin(θ)
 cos(θ) 
cos(θ) sin(θ)
(2) A = =: Sθ ∈ O2− (R) représente une symétrie orthogonale par
sin(θ) − cos(θ)
rapport à la droite d’angle polaire θ/2.
2
  3.44. Vérifier que (a) Si on identifie R ≈ C par (x, y) ≈ x + iy, alors
Exercice
x
Rθ ≈ eiθ (x + iy).
y
(b) Rθ Rβ = Rθ+β .
(c) Sθ est bien la matrice d’une symétrie orthogonale (tester sur les vecteurs propres)
(d) Sθ Sβ = Rθ−β .

15
(b) implique que SO2 (R) est abélien, et en fait que l’application (SO2 (R), ◦) → (S 1 ⊂ C, ·)
définie par Rθ 7→ eiθ est un isomorphisme de groupe.

Corollaire 3.45. [Angle orienté] Soit E euclidien de dimension 2 orienté, et soit u, v ∈


E\{0}. Alors il existe un unique f ∈ SO(E) tel que.
 
u v
f = ,
kuk kvk

et un unique θ ∈ [0, 2π [ tel que f soit représentée par Rθ dans toute base orthonormée
directe. Dans toute base orthonormée directe e = (e1 , e2 ), on a

hu, vi det(u, v)e


cos(θ) = , sin(θ) = ,
kukkvk kukkvk
 
u1 v1
où (u, v)e = est la matrice des coordonnées de u, v dans la base e. L’angle θ
u2 v2
est également déterminé par f (e1 ) = cos(θ)e1 + sin(θ)e2 .

On appelle θ l’angle orienté de u à v. Un changement d’orientation remplace θ par


2π − θ.

3.3.4 Groupe O3 (R)


Soit e une base orthonormée de R3 .

Proposition 3.46. Soit A ∈ O3 (R) et f l’endomorphisme de R3 tel que A = M (f )e → e.


Il existe une base e0 = {e01 , e02 , e03 } orthonormée et telle que
 
cos(θ) − sin(θ) 0
A0 := M(f )e0 →e0 =  sin(θ) cos(θ) 0  , (det A ∈ {−1, 1})
0 0 det(A)

Supposons A 6= I3 . Si det A = 1, A ∈ SO3 (R) représente une rotation d’axe vect {e03 } =
E1 et d’angle θ. Si det A = −1, A ∈ O− 3 (R) représente la composée d’une rotation d’angle

θ par rapport à l’axe E−1 et de la symétrie orthogonale par rapport à E−1 . On peut toujours
supposer que e a même orientation que e, quitte à remplacer e3 par −e03 , sans changer
0 0

A0 . Par contre l’angle θ dépend de l’orientation du plan invariant vect {e01 , e02 }, fixé par
le choix (e01 , e02 ). Remplacer (e01 , e02 ) par une base orthonormée ayant même orientation ne
change pas A0 , par contre remplacer (e01 , e02 ) par une b.o. d’orientation opposée remplace
θ par −θ modulo 2π, soit θ par 2π − θ si on prend l’angle dans [0, 2π[.

Détermination d’un angle orienté de rotation


Il dépend donc d’un choix de la base e0 , et plus particulièrement de (e01 , e02 ). Si l’es-
pace ambient est orienté et qu’on impose à e0 d’être directe, l’orientation du plan est
déterminé par le choix du vecteur orthonormal e03 = ~n. Supposons A 6= ±Id, notons
ε = det A ∈ {−1, +1}, et E l’espace propre de dimension 1 associé à la valeur propre .
Une orientation étant fixée, on peut déterminer l’angle orienté θ ∈ [0, 2π[ en combinant
les deux formules (B.105) et (B.106) ci-dessous. Rappelons que la trace d’une matrice est

16
invariante par changement de base (car tr(A) = tr (P −1 A0 P ) = tr (A0 P P −1 ) = tr A0 ), on
a donc

tr(A) = 2 cos(θ) + det A (16)

Puisque cos θ = cos(2π − θ), la formule détermine {θ, 2π − θ} où θ ∈ [0, 2π[. Ceci permet
de déterminer l’angle non orienté entre u ∈ Eε⊥ et f (u) :

^(u, f (u)) = min{θ, 2π − θ} = arccos((tr A − det A)/2) ∈ [0, π]

L’angle orienté θ ∈ [0, 2π[ satisfait

det(u, f (u), ~n)e


sin(θ) = (17)
kuk2 k~nk

où u ∈ Eε⊥ est un vecteur non nul du plan de rotation et e est orthonormée avec même
orientation que e0 . On peut vérifier cette formule en la calculant dans e0 et utilisant
(u, f (u), ~n)e = Pe→e0 . (u, f (u), ~n)e0 et le fait que det Pe→e0 = 1. On peut aussi calculer
θ via l’expression
f (v1 ) = cos(θ)v1 + sin(θ)v2
valable pour toute b.o. directe (v1 , v2 ) de E⊥ .
hu,f (u)i
Remarque 3.47. On a aussi cos(θ) = kuk2

3.3.5 Produit vectoriel


Soit E un espace euclidien de dimension 3 orienté.

Définition 3.48. On appelle produit vectoriel de deux vecteurs indépendants x, y ∈ E le


vecteur x∧y ∈ E tel que : (a) x∧y est orthogonal à vect{x, y}, (b) kx∧yk = | sin θ|kxkkyk,
où θ est l’angle (non orienté) entre x et y, (c) (x, y, x ∧ y) est une base directe de E. Si
x et y sont liés on pose x ∧ y = 0.

Remarque 3.49. (1) La quantité | sin θ|kxkkyk est l’aire du parallélogramme engendré
par x et y.
(2) Si (x, y) est orthonormée alors (x, y, x ∧ y) est orthonormée directe
(3) Si λ > 0, alors (λx) ∧ y = λ(x ∧ y) = x ∧ (λy).
(4) y ∧ x = −x ∧ y = (−x) ∧ y = x ∧ (−y).

Proposition 3.50. Soit x, y ∈ E, e une base oorthonormée directe de E. Alors


(1) Soit n ∈ E unitaire et orthogonal à x, y, alors

x ∧ y = det(x, y, ~n)e~n

(2) x ∧ y est l’unique vecteur de E tel que

∀z ∈ E, hx ∧ y, zi = det(x, y, z)e . (18)

17
Corollaire 3.51. L’application E × E → E × E, (u, v) 7→ u ∧ v est bilinéaire alternée. Si
e = {e1 , e2 , e3 } est orthonormée directe, x = x1 e1 + x2 e2 + x3 e3 et y = y1 e1 + y2 e2 + y3 e3
on a
x ∧ y = (x2 y3 − x3 y2 ) e1 + (x3 y1 − x1 y3 ) e2 + (x1 y2 − x2 y1 ) e3
Proposition 3.52. On a pour tous x, y, z ∈ E :
(1) (Identité de Lagrange)
kx ∧ yk2 = kxk2 kyk2 − hx, yi (19)
(2) (double produit vectoriel)
x ∧ (y ∧ z) = hx, ziy − hx, yiz (20)
(3) (Identité de Jacobi)
x ∧ (y ∧ z) + y ∧ (z ∧ x) + z ∧ (x ∧ y) = 0. (21)

3.3.6 Miscellannées : On (R), décomposition polaire


Soit E un espace euclidien.
Théorème 3.53. Soit f ∈ O(E). Alors il existe une base orthonormée e de E telle que
 
1
..
.
 
 
1
 
 
−1
 
 

 . ..


 
M (f )e→e = 
 −1 


 cos(θ1 ) −sin(θ1 ) 


 sin(θ1 ) cos(θ1 ) 


 . ..


 
 cos(θr ) −sin(θr ) 
sin(θr ) cos(θr )
On note que f ∈ SO(E) s’il a un nombre pair 2p de valeurs propres −1, qui corres-
pondent à p rotations d’angle π sur des 2-plans deux à deux orthogonaux. On voit donc
que f ∈ SO(E) si et seulement si c’est une composée de rotations ( p + r dans ce cas), ce
qui justifie qu’on appelle SO(E) le groupe des rotations.
On appelle refléxion une symétrie orthogonale par rapport à un hyperplan de E, i.e. la
symétrie orthogonale par rapport à F ⊂ E où F est un sous-espace vectoriel de dimension
dim F = dim E − 1.
Théorème 3.54. On suppose que dim E = n ≥ 2. Alors toute transformation orthogonale
f ∈ O(E) s’écrit :
f = s1 ◦ · · · ◦ sr , r ≤ n
où les si sont des réflexions (la décomposition n’est pas unique).
Théorème 3.55 (Décomposition polaire). Tout automorphisme f ∈ Aut (E) s’écrit de
manière unique sous la forme
f =g◦a
où g est orthogonal et a est auto-adjoint défini positif.

18

Vous aimerez peut-être aussi