CHAPITRE 4
ENDOMORPHISMES D’UN ESPACE
EUCLIDIEN
Table des matières
1. Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3. Groupe orthogonal en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4. Groupe orthogonal en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5. Exemples d’isometries en dimension 3 : méthode . . . . . . . . . . . . . . 18
Dans tout ce chapitre E est un espace euclidien de dimension n et de
produit scalaire h·|·i.
1. Adjoint d’un endomorphisme
Théorème 1.1. — Soit u ∈ L(E). Il existe un unique endomorphisme
de E noté u∗ tel que
∀x, y ∈ E, hu(x)|yi = hx|u∗ (y)i.
u∗ est appelé l’endomorphisme adjoint de u.
Démonstration. — Soit B P= {ei }ni=1 une b.o.n. de E, alors pour tout
x = i=1 xi ei et tout y = ni=1 yi ei éléments de E on a
Pn
n
X
hx|yi = xi y i = X T Y
i=1
où X = M atB (x) et Y = M atB (y). On note A = M atB (u), alors
hu(x)|yi = (AX)T Y = X T AT Y.
c Février 2017, Khalid Koufany
2 LICENCE DE MATHÉMATIQUES, S4
Soit u∗ ∈ L(E) tel que M atB (u∗ ) = AT , alors
hu(x)|yi = X T AT Y = X T (AT Y ) = hx|u∗ (y)i.
Supposons qu’il existe un autre endomorphisme v ∈ L(E) vérifiant
hu(x)|yi = hx|v(y)i pour tout x, y ∈ E. On a alors
∀x, y ∈ E, hx|(u∗ − v)(y)i = hx|u∗ (y) − v(y)i = 0
donc, pour tout y ∈ E, (u∗ − v)(y) ∈ E ⊥ = {0E }, ce qui entraîne v = u∗ ,
d’où l’unicité.
Exemple 1.2. — On considère E = Mn (R) muni de son produit scalaire
usuel hA|Bi = tr(AT B) et on considère l’endomorphisme uA défini pour
tout A ∈ E par
uA (M ) = M A.
On a pour tout M, N ∈ E,
huA (M )|N i = tr((M A)T N ) = tr(AT M T N ) = tr(M T N AT ) = hM |N AT i.
On en déduit que l’endomorphisme adjoint est donné par
u∗A (N ) = N AT = uAT (N ).
Proposition 1.3. — (a) Soient B une b.o.n. de E, u ∈ L(E) et A =
M atB (u), alors M atB (u∗ ) = AT .
(b) Id∗E = IdE .
(c) L’application u 7→ u∗ est un automorphisme involutif de l’espace
vectoriel L(E), c-à-d. ∀u ∈ L(E), (u∗ )∗ = u.
(d) ∀u, v ∈ L(E), (u ◦ v)∗ = v ∗ ◦ u∗ . En particulier, si u est inversible,
alors u∗ est inversible et (u−1 )∗ = (u∗ )−1 .
(e) ∀u ∈ L(E), Ker u∗ = (Im u)⊥ et Im u∗ = (Ker u)⊥ . En particulier
rang(u∗ ) = rang(u).
(f ) ∀u ∈ L(E), u et u∗ ont le même polynôme caractéristique, donc
même déterminant et même trace.
(g) Si F est un sous-espace vectoriel de E stable par u, alors F ⊥ est
stable par u∗ .
Démonstration. — (a) Découle de la démonstration du théorème précé-
dent.
(b) ∀x, y ∈ E on a
hx|yi = hIdE (x)|yi = hx|Id∗E (y)i
LICENCE DE MATHÉMATIQUES, S4 3
donc pour tout x ∈ E, hx|y − Id∗E (y)i = 0, d’où ∀y ∈ E, y − Id∗E (y) ∈
E ⊥ = {0} ce qui entraîne Id∗E = IdE .
(c) ∀x, y ∈ E on a hu∗ (x)|yi = hy|u∗ (x)i = hu(y)|xi = hx|u(y)i et
hu∗ (x)|yi = hx|(u∗ )∗ (y)i donc hx|u(y)i = hx|(u∗ )∗ (y)i et u(y) = (u∗ )∗ (y)
pour tout y ∈ E, d’où (u∗ )∗ = u.
(d) ∀x, y ∈ E on a
h(u◦v)(x)|yi = hu(v(x))|yi = hv(x)|u∗ (y)i = hx|v ∗ (u∗ (y))i = hx|(v ∗ ◦u∗ )(y)i
donc par unicité de l’adjoint, (u ◦ v)∗ = v ∗ ◦ u∗ .
En particulier, si u est inversible, u ◦ u−1 = IdE , donc (u−1 )∗ ◦ u∗ = Id∗E =
IdE ., c-à-d. (u−1 )∗ = (u∗ )−1 .
(e) On a
x ∈ Ker u∗ ⇐⇒ u∗ (x) = 0
⇐⇒ ∀y ∈ E, hy|u∗ (x)i = 0
⇐⇒ ∀y ∈ E, hu(y)|xi = 0
⇐⇒ x ∈ (Im u)⊥
La seconde égalité se déduit de (u∗ )∗ = u et (F ⊥ )⊥ = F car F est de
dimension finie. D’où
rang(u∗ ) = dim Im u∗ = dim(Ker u)⊥ = n−dim Ker u = dim Im u = rang(u).
(f) On a χu∗ = χu , car χA = χAT . Donc det(u∗ ) = det(u) et tr(u∗ ) =
tr(u).
(g) Supposons u(F ) ⊂ F et soit x ∈ F ⊥ , alors pour tout y ∈ F ,
hu∗ (x)|yi = hx|u(y)i = 0 car u(y) ∈ F . On en déduit que u∗ (x) ∈ F ⊥ et
F ⊥ est stable par u∗ .
Definition 1.4. — Soit u un endomorphisme de E.
On dit que u est symétrique ou autoadjoint si u∗ = u ;
(b) On dit que u est un automorphisme orthogonal si u ∈ GL(E) et
u∗ = u−1 . On notera O(E) l’ensemble des automorphismes orthogonaux
de E.
Proposition 1.5. — Soit p ∈ L(E) un projecteur de E. On a équiva-
lence entre :
(a) p est un projecteur orthogonal, c-à-d. Ker p = (Im p)⊥ ;
(b) p est autoadjoint ;
(c) kp(x)k ≤ kxk pour tout x ∈ E.
4 LICENCE DE MATHÉMATIQUES, S4
Démonstration. — On peut d’abord remarquer que si p est un projec-
teur, c-à-d. p2 = p, alors p∗ l’est aussi.
(a) ⇒ (b) : puisque p est orthogonal, on a Ker p = (Im p)⊥ , donc
Im p = (Ker p)⊥ . Or d’après la proposition précédente (Im p)⊥ = Ker p∗
et (Ker p)⊥ = Im p∗ . Donc Ker p = Ker p∗ et Im p = Im p∗ . Puisque p
est un projecteur, E = Ker p ⊕ Im p. Soit x = a + b ∈ E = Ker p ⊕ Im p.
On a p∗ (x) = p∗ (a) + p∗ (b) = 0 + b = b = p(x). On en déduit que p∗ = p.
(b) ⇒ (c) : soit x ∈ E, on a
kp(x)k2 = hp(x)|p(x)i = hx|(p∗ ◦ p)(x)ihx|(p ◦ p)(x)i = hx|p(x)i
en utilisant l’inégalité de Cauchy-Schwarz, hx|p(x)i ≤ kxkkp(x)k, on dé-
duit que kp(x)k2 ≤ kxkkp(x)k.
Si kp(x)k = 0, alors l’inégalité demandée est triviale.
Si kp(x)k =6 0, alors on clairement kp(x)k ≤ kxk.
(c) ⇒ (a) : Il suffit de montrer que (Ker p)⊥ = Im p. Soit x ∈
(Ker p)⊥ ⊂ E = Ker p ⊕ Im p. Alors x = a + b avec a ∈ Ker p et
b ∈ Im p. On a hx|ai = 0, donc kbk2 = kx − ak2 = kxk2 + kak2 ≥ kxk2 .
Or b = p(x), donc kbk = kp(x)k ≤ kxk. On en déduit que kxk = kbk
et a = 0, donc x = b ∈ Im p et (Ker p)⊥ ⊂ Im p. Puisque ces deux
sous-espaces ont la même dimension, on a (Ker p)⊥ = Im p.
Remarque 1.6. — Un projecteur orthogonal différent de id n’est pas
un automorphisme orthgonal.
La norme euclidienne de E induit une norme sur L(E) en posant pour
tout u ∈ L(E),
ku(x)k
kukop := sup .
x∈E\{0} kxk
On remarque que, pour tout x ∈ E, ku(x)k ≤ kukop kxk.
Proposition 1.7. — Pour tout u ∈ L(E), on a
(a) ku∗ kop = kukop ;
(b) ku∗ ◦ ukop = kuk2op .
Démonstration. — Si u ≡ 0, alors les deux égalités sont évidentes. Sup-
posons que u 6≡ 0.
LICENCE DE MATHÉMATIQUES, S4 5
Pour tout x ∈ E,
ku(x)k2 = hu(x)|u(x)i
= hx|u∗ ◦ u(x)i
≤ kxkk(u∗ ◦ u)(x)k
≤ kxk2 ku∗ ◦ ukop ,
d’où kuk2op ≤ ku∗ ◦ ukop . De plus, pour tout x ∈ E tel que x 6= 0 et
u(x) 6= 0, on a
ku∗ (u(x))k ku∗ (u(x))k ku(x)k
= ×
kxk ku(x)k kxk
et en passant au sup, on trouve ku∗ ◦ ukop ≤ ku∗ kop kukop . On en déduit
que kuk2op ≤ ku∗ ◦ ukop ≤ ku∗ kop kukop .
Comme u 6≡ 0, alors kukop 6= 0, d’où kukop ≤ ku∗ kop . En utilisant cette
dernière inégalité avec l’endomorphisme u∗ , on a ku∗ kop ≤ k(u∗ )∗ kop =
kukop d’où ku∗ kop = kukop . Finalement kuk2op ≤ ku∗ ◦ukop ≤ ku∗ kop kukop =
kuk2op , d’où ku∗ ◦ ukop = kuk2op .
Remarque 1.8. — Si p est un projecteur orthogonal non nul de E, alors
kpkop = supx∈E\{0} kp(x)k
kxk
≤ 1 d’après la proposition 1.5. Ce sup est atteint
en tout x ∈ Im p. On en déduit que kpkop = 1.
Manel
2. Automorphismes orthogonaux
Théorème 2.1. — Soit u ∈ L(E). Les assertions suivantes sont équi-
valentes :
(a) u ∈ O(E) ;
(b) u conserve la norme : ∀x ∈ E, ku(x)k = kxk ;
(c) u conserve le produit scalaire : ∀x, y ∈ E, hu(x)|u(y)i = hx|yi ;
(d) L’image par u de toute b.o.n. de E est une b.o.n. de E.
(e) Il existe une b.o.n. de E telle que l’image par u est une b.o.n. de
E;
(f ) Il existe une b.o.n. B de E telle que AT A = In , où A = MatB (u) ;
(g) Il existe une b.o.n. B de E telle que AAT = In , où A = MatB (u).
Démonstration. — On peut tout d’abord remarquer que
u ∈ O(E) ⇐⇒ u ∈ GL(n, R) et u−1 = u∗ ⇐⇒ u ◦ u∗ = u∗ ◦ u = IdE .
6 LICENCE DE MATHÉMATIQUES, S4
(a) ⇒ (b) : ∀x ∈ E, ku(x)k2 = hu(x)|u(x)i = hx|u∗ ◦ u(x)i = hx|xi =
kxk2 , d’où ku(x)k = kxk.
(b) ⇒ (c) : ∀x, y ∈ E, on a
4hu(x)|u(y)i = ku(x) + u(y)k2 − ku(x) − u(y)k2
= ku(x + y)k2 − ku(x − y)k2
= kx + yk2 − kx − yk2
= 4hx|yi.
D’où le résultat.
(c) ⇒ (d) : si B = {ei }ni=1 est une b.o.n. de E et B 0 = {u(ei )}ni=1 ,
alors pour tout i, j ∈ {1, . . . , n}, hu(ei )|u(ej )i = hei |ej i = δi,j . Donc B 0
est orthonormée et par suite libre. Comme le card B 0 = n = dim E, la
famille B 0 est une b.o.n. de E.
(d) ⇒ (e) : car l’espace euclidien E possède au moins une P b.o.n.
(e) ⇒ (f) : si AP = MatB (u) = (ai,j )1≤i,j≤n alors u(ej ) = nk=1 ak,j ek
n T
et hu(ei )|u(ej )i = P k=1 ak,i ak,j . Or hu(ei )|u(ej )i = hei |ej iδi,j et A A =
n T
(ci,j )1≤i,j≤n où ci,j = k=1 ak,i ak,j . Donc A A = In .
(f) ⇒ (g) : conséquence du fait qu’une matrice est inversible à droite
si et seulement si, elle est inversible à gauche si, et seulement si, elle est
inversible.
(g) ⇒ (a) : On a A ∈ GLn (R) et A−1 = AT , donc u ∈ GL(E) et
u−1 = u∗ , c-à-d. u ∈ O(E).
Théorème 2.2 (Groupe orthogonal). — (a) O(E) est un sous-groupe
de GL(E) appelé groupe orthogonal de E ; ou groupe des isométries
de E ;
(b) Pour tout u ∈ O(E), det u = ±1 ;
(c) SO(E) = {u ∈ O(E), det u = +1} est un sous-groupe de O(E)
appelé groupe spécial orthogonal ou groupe des rotations vectorielles
de E.
Démonstration. — (a) On a O(E) ⊂ GL(E) et O(E) 6= ∅, puisque IdE ∈
O(E).
Soient u, v ∈ O(E). On a ∀x ∈ E, ku◦v −1 (x)k = kv −1 (x)k car u conserve
la norme. Or kxk = kIdE (x)k = kv ◦ v −1 (x)k = kv −1 (x)k car v conserve
la norme. Par conséquent ku ◦ v −1 (x)k = kv −1 (x)k = kxk. Ainsi u ◦ v −1
conserve la norme et donc u ◦ v −1 ∈ O(E).
LICENCE DE MATHÉMATIQUES, S4 7
(b) Si u ∈ O(E), alors u◦u∗ = IdE . Comme det(u∗ ◦u) = (det u∗ )(det u)
et det u∗ = det u, on a (det u)2 = 1.
(c) L’application θ : O(E) → {−1, +1} définie par θ(u) = det u est
un morphisme du groupe (O(E), ◦) dans le groupe ({−1, +1}, ×). Son
noyau, Ker θ = {u ∈ O(E), det u = +1} = SO(E) est donc un sous-
groupe de O(E) (distingué d’indice 2) de O(E).
Remarque 2.3. — (a) Le sous-groupe SO(E) est parfois noté, O+ (E).
L’ensemble O− (E) = {u ∈ O(E), det u = −1} n’est pas un sous-groupe
de O(E) puisqu’il n’est pas stable par la loi ◦.
(b) Un automorphisme orthogonal u de E est une application qui
conserve l’orthogonalité, c-à-d. ∀x, y ∈ E
hx|yi = 0 ⇒ hu(x)|u(y)i = 0
mais une application qui conserve l’orthogonalité n’est pas nécessaire-
ment pas un automorphisme orthogonal comme le montre l’exemple d’une
homothétie de rapport λ ∈ / {−1, 1}.
(c) Un automorphisme orthogonal u de E conserve les mesures d’angles
géométriques. En effet, pour x, y non nuls dans E, on a
[ hx|yi hu(x)|u(y)i) \
(x, y) = arccos( ) = arccos( ) = (u(x), u(y)).
kxkkyk ku(x)kku(y)k
(d) Un automorphisme orthogonal de E est parfois appelé isométrie
de E.
On revient sur la notion de symétrie orthogonale par rapport à un
sous-espace vectoriel traitée dans le paragraphe 5 du chapitre 3.
Proposition 2.4. — Soit F un sous-espace vectoriel de E et sF la sy-
métrie par rapport à F , sF = 2pF − IdE = IdE − 2pF ⊥ . On a,
(a) ∀x, y ∈ E, hsF (x)|yi = hx|sF (y)i, autrement dit sF est autoadjoint.
(b) ∀x, y ∈ E, hsF (x)|sF (y)i = hx|yi, autrement dit sF est une isomé-
trie.
(d) Si F est de dimension p ∈ {1, .. . , n−1}, il existe
alors une b.o.n. de
Ip 0
E dans laquelle la matrice de sF est et det sF = (−1)n−p .
0 −In−p
Démonstration. — A faire par l’étudiant.
Definition 2.5. — On appelle réflexion une symétrie orthogonale par
rapport à un hyperplan et demi-tour ou retournement une symétrie
orthogonale par rapport à une droite.
8 LICENCE DE MATHÉMATIQUES, S4
Remarque 2.6. — D’après la proposition 2.4, si sH est une réflexion,
on a det sH = (−1)n−(n−1) = −1 et si sD est un demi-tour, on a det sD =
(−1)n−1 .
Comme conséquence du Théorème 2.1 on a :
Théorème et définition 2.7. — Une matrice A ∈ Mn (R) est dite or-
thogonale si l’une des assertions équivalentes suivantes est vérifiée :
(a) A ∈ GLn (R) et A−1 = AT ;
(b) AAT = In ;
(c) AT A = In ;
(d) Les vecteurs colonnes de A forment une b.o.n. pour le produit sca-
laire usuel de Rn ;
(e) Les vecteurs lignes de A forment une b.o.n. pour le produit scalaire
usuel de Rn ;
Théorème et définition 2.8. — (a) L’ensemble des matrices orthogo-
nale est un sous-groupe multiplicatif de GLn (R) appelé groupe ortho-
gonal et il sera noté O(n) ou On (R) ;
(b) Si A ∈ O(n), alors det A = ±1 ;
(c) SO(n) = {A ∈ O(n), det A = +1} est un sous-groupe multiplicatif
de O(n) appelé groupe spécial orthogonal.
Démonstration. — On considère l’espace vectoriel euclidien Rn muni de
son produit scalaire usuel. Soit u ∈ O(Rn ). Si B est une b.o.n. de Rn et
A = MatB (u), alors u ∈ O(Rn ) ⇐⇒ A ∈ O(n).
L’application ψ : O(Rn ) → O(n), u 7→ MatB (u) est un isomorphisme de
(O(Rn ), ◦) sur (O(n), ×). On en déduit (a), (b) et (c).
Remarque 2.9. — A ∈ O(n) ⇒ det A = ±1 mais la
réciproque est
1 α
fausse comme le montre le contre-exemple : A = est une ma-
0 1
T 1 + α2 α
trice de déterminant 1, alors que A A = 6= I2 si α 6= 0.
α 1
Proposition 2.10. — Soit B une b.o.n. de Rn et soit P = MatB0 (B) ∈
O(n). On a les équivalences suivantes :
(a) B est une b.o.n. directe ⇐⇒ P ∈ SO(n) ;
(b) B est une b.o.n. indirecte ⇐⇒ P ∈ O− (n).
Démonstration. — Conséquence directe de det P = ±1.
LICENCE DE MATHÉMATIQUES, S4 9
Théorème 2.11. — Soit u ∈ O(E).
(a) Sp(u) ⊂ {−1, 1} et les sous-espaces propres sont orthogonaux.
(b) u est diagonalisable si, et seulement si, u est une symétrie ortho-
gonale de E.
(c) Si F est un sous-espace vectoriel stable par u, alors F ⊥ est stable
par u et l’application induite u|F (resp. u|F ⊥ ) par u sur F (resp. sur F ⊥ )
est un élément de O(F ) (resp. O(F ⊥ )).
(d) Ker(u − idE ) et Im(u − idE ) sont supplémentaires orthogonaux,
E = Ker(u − idE ) ⊕⊥ Im(u − idE )
(e) La matrice de passage d’une b.o.n. à une autre b.o.n. est orthogo-
nale.
(f ) Si A ∈ O+ (n) et n impair, alors 1 est une valeur propre de A.
Démonstration. — (a) Si λ est une valeur propre de u, il existe x ∈
E \ {0} tel que u(x) = λx. Comme ku(x)k = kxk, alors kλxk = kxk et
|λ|kxk = kxk ce qui entraîne que |λ| = 1, puisque x 6= 0.
Notons Eu (1) = Ker(u − id) et Eu (1) = Ker(u + id) les sous-espaces
propres associés aux valeurs propres éventuelles 1 et −1. Pour (x, y) ∈
Eu (1) × Eu (−1), on a hx|yi = hu(x)|u(y)i = hx| − yi = −hx|yi, donc
hx|yi = 0 et Eu (1) ⊥ Eu (−1).
(b) Si u est diagonalisable, E = Eu (1)⊕Eu (−1). Donc u est la symétrie
orthogonale par rapport à Eu (1) = Ker(u − id).
(c) Soit F est un sous-espace vectoriel de E stable par u, u(F ) ⊂ F .
Notons u|F la restriction de u à F , alors u|F : F → F est linéaire et u|F ∈
L(F ). Comme ∀x ∈ F , ku|F (x)k = ku(x)k = kxk, donc u|F ∈ O(F ).
F étant stable par u, F ⊥ est stable par u∗ = u−1 , donc u−1 (F ⊥ ) ⊂ F ⊥ ou
encore F ⊥ ⊂ u(F ⊥ ). Puisque u est inversible u(F ⊥ ) a la même dimension
que F ⊥ , d’où u(F ⊥ ) = F ⊥ et F ⊥ est stable par u. On montre comme
ci-dessus que u|F ⊥ ∈ O(F ⊥ ).
(d) D’après la Proposition 1.3, Ker((u − idE )∗ ) = (Im(u − idE ))⊥ .
Comme (u−idE )∗ = u∗ −id∗E = u−1 −idE = u−1 (idE −u), donc Ker((u−
idE )∗ ) = Ker(u−1 (idE − u)) = Ker(idE − u). D’où le résultat.
(e) Comme idE ∈ O(E), si B et B 0 sont des b.o.n. de E, la matrice de
passage P = MatB,B0 (idE ) est orthogonale.
(f) Soit A ∈ On+ (R). On a A − In = A − AAT = A(In − AT ) = A(In −
A)T , donc det(A − In ) = det(A) det(In − A) = (−1)n det(A) det(A −
In ) = (−1)n det(A − In ). Par conséquent, si n est impair, det(A − In ) =
− det(A − In ), d’où det(A − In ) = 0 et 1 est une valeur propre.
10 LICENCE DE MATHÉMATIQUES, S4
Soit TS+n (R) l’ensemble des matrices n × n triangulaires supérieures
dont les coefficients diagonaux sont > 0. Alors il est facile de montrer le
lemme suivant :
Lemme 2.12. — TS+
n (R) est un sous-groupe de GLn (R).
Théorème 2.13 (Interprétation matricielle du procédé de Gram-
Schmidt)
Pour toute matrice A ∈ GLn (R), il existe une unique matrice orthogo-
nale Q ∈ O(n) et une unique matrice triangulaire supérieure à diagonale
strictement positive R ∈ TS+
n (R) telles que A = QR.
Démonstration. — On considère Rn muni de son produit scalaire usuel
et sa base canonique B0 (qui est une b.o.n.).
Soit A ∈ GLn (R), notons v1 , . . . , vn les vecteurs colonnes de A. Alors
B = (v1 , . . . , vn ) est une base de Rn et A = MatB0 (B). D’après le théo-
rème de Gram-Schmidt, il existe une b.o.n. C = (f1 , . . . , fn ) de Rn telle
que, pour tout k = 1, . . . , n, on ait Vect(v1 , . . . , vk ) = Vect(f1 , . . . , fk ) et
hfk |vk i > 0 et ceci équivaut à dire que la matrice de passage R = MatC (B)
appartient à TS+ n (R). D’autre part, comme C est orthonormée, la matrice
de passage Q = MatB0 (C) apparrient à O(n). D’après la formule de chan-
gement de bases, on a
A = MatB0 (B) = MatB0 (C) × MatC (B) = QR
ce qui prouve l’existence.
Montrons l’unicité : supposons qu’on ait A = Q0 R0 avec Q0 ∈ O(n)
et R0 ∈ TS+ n (R) et notons f1 , . . . , fn les vecteurs colonnes de la matrice
Q = AR et R0 = (mij )1≤i,j≤n . Alors C = (f1 , . . . , fn ) est une b.o.n. de
0 0−1
Rn . On a MatB0 (C) = Q0 et la matrice de B dans la base C est
MatC (B) = MatC (B0 ) × MatB0 (B) = Q0−1 A = R0 .
Comme A = Q0 R0 , on a, pour tout k = 1, . . . , n, vk = ki=1 mik fi avec
P
hvk |fk i = mkk > 0. Donc, pour tout i = 1, . . . , n, les vecteurs f1 , . . . , fi
appartiennent à Vect(v1 , . . . , vi ), et par suite en forment une base ortho-
normée. La base C = (f1 , . . . , fn ) vérifie donc les conditions du théorème
de Gram-Schmidt, d’où par unicité, R = R0 , puis Q0 = AR−1 = Q.
LICENCE DE MATHÉMATIQUES, S4 11
3. Groupe orthogonal en dimension 2
On note R/2πZ le groupe abélien additif, quotient de R par le sous-
groupe 2πZ : deux réels t, t0 définissent le même élément de R/2πZ si et
seulement si, il existe k ∈ Z tel que t0 − t = 2kπ. Autrement dit, c’est
l’ensemble des nombres réels définis modulo 2π.
Rappelons le lemme élémentaire suivant :
Lemme 3.1. — Soient a, b ∈ R tels que a2 + b2 = 1. Il existe un unique
θ ∈ R/2πZ tel que cos(θ) = a et sin(θ) = b.
Dans ce qui suint, on munit R2 du produit scalaire usuel h|i, de la
norme correspondante, et de l’orientation définie par la base canonique
B0 = (e1 , e2 ).
Proposition et définition 3.2 (Angle orienté de deux vecteurs
de R2 )
Soient w, w0 ∈ R2 \ {0}. Il existe un unique θ ∈ R/2πZ vérifiant les
deux conditions suivantes :
(a) hw|w0 i = kwkkw0 k cos(θ) ;
(b) sin(θ) est du même signe (> 0, = 0, < 0) que detB0 (w, w0 ).
On appelle θ l’angle orienté de w à w0 , on le note ww
d0 . On a ww d0 =
−wd0 w.
Démonstration. — Soient les vecteurs unitaires v = kwk1
w et v 0 = kw10 k w0 ,
alors la condition (a) devient cos(θ) = hv|v 0 i. D’après l’inégalité de
Cauchy-Schwarz, on sait que hv|v 0 i ∈ [−1, 1] et que
hv|v 0 i = ±1 ⇐⇒ v et v 0 sont liés ⇐⇒ detB0 (v, v 0 ) = 0.
Par conséquent, en notant ε ∈ {−1, 0, 1} le signe de detB0 (v, v 0 ), on voit
(b) sont équivalent à dire que cos(θ) = hv|v 0 i =
que les conditions (a) et √
a ∈ [−1, 1] et sin(θ) = ε 1 − a2 = b ; d’après le lemme précédent, ceci
détermine un unique θ ∈ R modulo 2π.
Pour tout θ ∈ R, soit le vecteur xθ = cos(θ)e1 + sin(θ)e2 . C’est l’unique
vecteur unitaire x tel que ec 1 x = θ. En effet, si x = ae1 + be2 alors
2 2
1 = kxk = a + b et il existe θ tel que a = hu|e1 i = cos(θ) d’où
b = ± sin(θ). De plus
1 cos(θ)
detB0 (e1 , x) = det =b
0 b
12 LICENCE DE MATHÉMATIQUES, S4
est du signe de sin(θ), d’où b = sin(θ).
On va maintenant étudier le groupe O2 (R) des isométries del’espace
a
euclidien R2 . Soit u ∈ O2 (R) et posons u(e1 ) = ae1 + be2 = . Alors
b
a2 + b2 = ku(e1 )k = ke1 k = 1. D’autre part, comme u préserve le produit
scalaire, on a
hu(e2 )|u(e1 )i = he2 |e1 i = 0
donc u(e2 ) appartient
à a droite
(Ru(e1 ))⊥ , qui est engendré par le vecteur
−b
unitaire −be1 +ae2 = , et comme u(e2 ) est aussi un vecteur unitaire
a
−b
de cette droite, on a nécessairement u(e2 ) = ± .
a
−b
– Si u(e2 ) = , alors dans ce cas, la matrice de u dans la base
a
a −b
B0 = (e1 , e2 ) est et son déterminant est a2 + b2 = 1. Par
b a
conséquent u ∈ O2+ (R). Dans ce cas, la matrice de u dans la base B0 est
de la forme
cos θ − sin θ
Rθ =
sin θ cos θ
avec θ ∈ R modulo 2π.
−b
– Si u(e2 ) = − , alors dans ce cas, la matrice de u dans la base
a
a b
B0 = (e1 , e2 ) est et son déterminant est −a2 − b2 = −1. Par
b −a
conséquent u ∈ O− (2). Dans ce cas, la matrice de u dans la base B0 est
de la forme
cos θ sin θ
Sθ =
sin θ − cos θ
avec θ ∈ R modulo 2π.
Ainsi
cos θ −ε sin θ
O2 (R) = {A = , θ ∈ R et ε = det(A) ∈ {−1, +1}},
sin θ ε cos θ
le réel θ étant unique si on le prend dans ] − π, π[.
LICENCE DE MATHÉMATIQUES, S4 13
Une isométrie directe u ∈ O2+ (R) de matrice Rθ dans une base ortho-
normée directe B, est appelée rotation et θ est une mesure de l’angle
de cette rotation. Si on impose θ dans l’intervalle ] − π, π], il est alors
uniquement déterminée et on dit que c’est la mesure principale de l’angle
de la rotation.
On rappelle qu’une réflexion dans un espace euclidien est une symétrie
orthogonale par rapport à un hyperplan (une droite dans ce cas) et que
c’est une isométrie indirecte. Une telle réflexion est une involution.
Dans le plan euclidien R2 , une réflexion est donc une symétrie ortho-
gonale par rapport à une droite. Si sD est une réflexion par rapport à
la droite, on a alors sD (x) = x pour tout x ∈ D et sD (x) = −x pour
tout x ∈ D⊥ . En désignant par f1 un vecteur non nul de D et f2 un
vecteur non nul de D⊥ , la famille (f1 , f
2 ) est une
base orthogonale de R
2
1 0
et la matrice de sD dans cette base est . De plus la droite D est
0 −1
l’espace des point fixes de sD , soit D = Ker(sD − id).
Les isométries indirectes du plan euclidien R2 sont les réflexions. Si
cos θ sin θ
Sθ =
sin θ − cos θ
est la base d’une isométrie indirecte u ∈ O2− (R) dans la base orthonormée
B0 et en posant
θ θ θ θ
f1 = cos( )e1 + sin( )e2 , f2 = − cos( )e1 + sin( )e2
2 2 2 2
la matrice de u dans la base (f1 , f2 ) est
T 1 0 cos(θ/2) − sin(θ/2)
P Sθ P = , où P =
0 −1 sin(θ/2) cos(θ/2)
ce qui signifie que u est la réflexion par rapport à la droite D = Rf1 .
4. Groupe orthogonal en dimension 3
Nous allons maintenant étudier les isométries en dimension 3. Soit E
un espace vectoriel euclidien de dimension 3, E ' R3 , orienté par le choix
d’une base orthonormée B0 = (e1 , e2 , e3 ).
Lemme 4.1. — Une isométrie u ∈ O3 (R), a au moins une valeurs
propre réelle λ ∈ {−1, +1}.
14 LICENCE DE MATHÉMATIQUES, S4
Démonstration. — Le polynôme caractéristique χu de u étant de degré
3 à coefficients réels, le théorème des valeurs intermédiaires nous assure
qu’il admet au moins une racine réelle λ. Soit x un vecteur propre associé
à λ. Comme u conserve la norme kxk = ku(λx)k = |λ|kxk, d’où λ ∈
{−1, +1}.
Remarque 4.2. — (a) Si u est une réflexion (symétrie orthogonale par
rapport à un plan), sa matrice dans une base orthonormée adaptée est
alors
−1 0 0
S = 0 1 0
0 0 1
et χu (λ) = det(u − λid) = −(1 − λ)2 (1 + λ).
(b) Si u est un retournement (symétrie orthogonale par rapport à une
droite), sa matrice dans une base orthonormée adaptée est alors
1 0 0
S = 0 −1 0
0 0 −1
et χu (λ) = det(u − λid) = (1 − λ)(1 + λ)2 .
Théorème 4.3. — Soit u ∈ O3 (R) et
H = Ker(u − id) = {x ∈ R3 , u(x) = x}
l’ensemble des points fixes de u.
(a) Si dim(H) = 3, on a u = id.
(b) Si dim(H) = 2, on a alors u ∈ O3− (R) \ {−id} et c’est la réflexion
par rapport au plan H. En désignant par (f1 , f2 , f3 ) une base orthonormée
de R3 où (f2 , f3 ) une base orthonormée de H, la matrice de u dans cette
base est
−1 0 0
0 1 0 .
0 0 1
(c) Si dim(H) = 1, on a alors u ∈ O3+ (R) \ {id} et en désignant par
(f1 , f2 , f3 ) une base orthonormée de R3 où (f2 , f3 ) une base orthonormée
de P = H ⊥ , la matrice de u dans cette base est
1 0 0
0 cos(θ) − sin(θ) .
0 sin(θ) cos(θ)
LICENCE DE MATHÉMATIQUES, S4 15
(d) Si dim(H) = 0 (c-à-d. H = {0}), on a alors u ∈ O3− (R) et soit
u = −id, soit u est la composée commutative d’une rotation r∆ d’axe
∆ = Ker(u + id) avec une réflexion sP par rapport au plan P = ∆⊥ et,
en désignant par (f1 , f2 , f3 ) une base orthonormée de R3 où (f2 , f3 ) une
base orthonormée de P = ∆⊥ , la matrice de u dans cette base est
−1 0 0
0 cos(θ) − sin(θ) .
0 sin(θ) cos(θ)
Démonstration. — (a) Si dim(H) = 3, alors H = E et u = id.
(b) Si dim(H) = 2, alors H ⊥ est une droite vectorielle stable par u
et dans une b.o.n. (f1 , f2 , f3 ) directe adaptée à la somme directe E =
H ⊥ ⊕ H, (c-à-d. (f1 ) b.o.n. de H ⊥ et (f2 , f3 ) b.o.n. de H) la matrice de
u est
ε 0 0
A = 0 1 0
0 0 1
avec ε = det(A) = ±1. Comme dim(H) = 2, on a nécessairement ε = −1
et u est la réflexion par rapport au plan H, donc u ∈ O− (E) \ {−id}.
(c) Si dim(H) = 1, on a u 6= id et la restriction v de u au plan stable
P = H ⊥ est alors une isométrie qui ne peut être une réflexion (elle n’a
pas de point fixe non nul), c’est donc une rotation et la matrice de u dans
une b.o.n. directe adaptée à E = H ⊕ H ⊥ est
1 0 0
Rθ = 0 cos θ − sin θ
0 sin θ cos θ
donc u ∈ O+ (E) \ {id}.
(d) Si dim(H) = 0, on a alors H = {0} et 1 n’est pas valeur propre de
u. Dans ce cas −1 est nécessairement valeur propre de u (et Ker(u+id) 6=
{0}).
– Si u = −id ∈ O− (E), alors c’est terminé.
– Sinon on choisit f1 ∈ Ker(f + id) un vecteur unitaire. Le plan P
orthogonal à la droite ∆ dirigée par f1 est stable par u et dans une b.o.n.
directe adaptée à la somme directe orthogonale E = ∆ ⊕ P , la matrice
de u est de a forme
−1 0
A=
0 B
16 LICENCE DE MATHÉMATIQUES, S4
où B est la matrice de la restriction v de u à P . Si B ∈ O2− (R), alors v
est une réflexion et a des points fixes non nuls, ce qui contredit H = {0}.
Donc B ∈ O2+ (R) et det(A) = −1, c’est-à-dire que u ∈ O− (E) \ {−id}
et il existe un réels θ tel que
−1 0 0
A = 0 cos θ − sin θ
0 sin θ cos θ
En remarquons que
−1 0 0 1 0 0 −1 0 0
0 cos θ − sin θ = 0 cos θ − sin θ 0 1 0
0 sin θ cos θ 0 sin θ cos θ 0 0 1
−1 0 0 1 0 0
= 0 1 0 0 cos θ − sin θ
0 0 1 0 sin θ cos θ
on voit que u = r∆,θ ◦ sP = sP ◦ r∆,θ où r∆,θ est la rotation d’axe ∆ et
d’angle θ et sP est la réflexion par rapport à P = ∆⊥ .
On déduit de cette étude que si H = Ker(u − id) = {0}, et si u 6= −id,
alors Ker(u + id) est nécessairement de dimension 1, c’est donc l’axe ∆
de la rotation r∆,θ qui compose l’isométrie u = r∆,θ ◦ sP .
Remarque 4.4. — Comme dim E = 3, si (v1 , v2 ) est une b.o.n. d’un
plan P , et si v3 = v1 ∧ v2 , alors (v1 , v2 , v3 ) est une b.o.n. directe de E.
Théorème 4.5. — Soit u un endomorphisme de E, u 6= id. Alors u est
une rotation si, et seuelemnt si, il existe un vecteur unitaire f3 et un réel
θ ∈] − π, π] \ {0} tels que
u(x) = cos(θ)x + (1 − cos(θ))hf1 |xif1 + sin(θ)(f1 ∧ x), ∀x ∈ E. (1)
Dans ce cas la droite ∆ = Rf1 est l’axe orienté de la rotation, θ la mesure
principale de son angle et pour tout vecteur x unitaire et orthogonal au
vecteur f1 , on a
cos(θ) = hx|u(x)i,
1 + 2 cos(θ) = tr(u)
sin(θ) = [x, u(x), f1 ] = detB0 (x, u(x), f1 )
LICENCE DE MATHÉMATIQUES, S4 17
Démonstration. — Supposons u ∈ O+ (E) \ {−id}. On utilise la b.o.n.
B = (f1 , f2 , f3 ) du théorème précédent où Rf1 = ∆ = Ker(u − id)
et (f2 , f3 ) est une b.o.n. de P = ∆⊥ . Soit x ∈ E, puis posons x =
x1 f1 + x2 f2 + x3 f3 et u(x) = y1 f1 + y2 f2 + y3 f3 . Donc
y1 1 0 0 x1 x1
y2 = 0 cos(θ) − sin(θ) x2 = cos(θ)x2 − sin(θ)x3
y3 0 sin(θ) cos(θ) x3 sin(θ)x2 + cos(θ)x3
x1 x1 0
= cos(θ) x2 + (1 − cos(θ)) 0 + sin(θ) −x3
x3 0 x2
= cos(θ)x + (1 − cos(θ))hf1 |xif1 + sin(θ)(f1 ∧ x).
Réciproquement, si u ∈ L(E) \ {−id} vérifie (1), on choisit une vecteur
unitaire f2 orthogonal à f1 , puis f3 = f1 ∧ f2 . Donc (f1 , f2 , f3 ) est une
b.o.n. directe et on a
u(f1 ) = cos(θ)f1 + (1 − cos(θ))f1 = f1
u(f2 ) = cos(θ)f2 + sin(θ)(f1 ∧ f2 ) = cos(θ)f2 + sin(θ)(f1 ∧ f2 )
= cos(θ)f2 + sin(θ)f3
u(f3 ) = cos(θ)f3 + sin(θ)(f1 ∧ f3 ) = cos(θ)f3 + sin(θ)(−f2 )
= − sin(θ)f2 + cos(θ)f3 .
Donc la matrice de u dans cette base est
−1 0 0
0 cos θ − sin θ
0 sin θ cos θ
et u est la rotation d’axe ∆ = Rf1 et d’angle de mesure principale θ.
Si x ∈ (Rf1 )⊥ est unitaire, alors x = x2 f2 + x3 f3 et x22 + x23 = 1. De
plus u(x) = (cos(θ)x2 − sin(θ)x3 )f2 + (sin(θ)x2 + cos(θ)x3 )f3 . Donc
hx|u(x)i = cos(θ)(x22 + x23 ) = cos(θ).
La relation
1 + 2 cos(θ) = tr(u)
18 LICENCE DE MATHÉMATIQUES, S4
est évidente. Enfin
0 0 1
[x, u(x), f1 ] = detB0 (x, u(x), f1 ) = x2 cos(θ)x2 − sin(θ)x3 0
x3 sin(θ)x2 + cos(θ)x3 0
= sin(θ)(x22 + x23 ) = sin(θ).
Proposition 4.6. — Si u = r∆,θ ◦sP est la composée d’une rotation r∆,θ
et d’une réflexion sP , alors l’axe de la rotation est ∆ = Ker(u+id) = Rf1
et et la mesure principale de l’angle est déterminé par
−1 + 2 cos(θ) = tr(u)
sin(θ) = [x, u(x), f1 ] = detB0 (x, u(x), f1 )
pour tout vecteur unitaire x ∈ ∆⊥ .
Démonstration. — Découle des deux théorèmes précédents.
On peut aussi résumé cette étude comme suit :
Théorème 4.7. — Soit E un espace vectoriel euclidien de dimension 3,
soit u ∈ O(E) − \id et soit A la matrice de u dans la base canonique de
E.
(a) Si det(A) = 1, alors u = r∆,θ est une rotation d’axe ∆ = Ker(A −
I3 ) = Re et d’angle θ vérifiant 1 + 2 cos(θ) = tr(u) et signe(sin(θ)) =
signe([x, Ax, e]) pour tout vecteur non colinéaire à e.
(b) Si det(A) = −1, alors
(i) si A est symétrique, alors u = sP est la symétrie orthogonale
par rapport au plan P = Ker(A − I3 )
(ii) si A n’est pas symétrique, alors u = r∆,θ ◦ sP = sP ◦ r∆,θ où
r∆,θ est la rotation d’axe ∆ = Ker(A + I3 ) = Re et d’angle θ vérifiant
−1+2 cos(θ) = tr(u) et signe(sin(θ)) = signe([x, Ax, e]) pour tout vecteur
non colinéaire à e et sP est symétrie orthogonale par rapport au plan
P = ∆⊥ .
5. Exemples d’isometries en dimension 3 : méthode
On considère R3 muni de son produit scalaire usuel et de sa base cano-
nique (e1 , e2 , e3 ), qui est une base orthonormale directe (son déterminant
est égal à +1), R3 est un espace euclidien orienté (par le choix de la b.o.n.
(e1 , e2 , e3 )).
LICENCE DE MATHÉMATIQUES, S4 19
5.1. Rotation. — Soit u l’endomorphisme de R3 dont la matrice dans
la base canonique est
−2 −1 2 −2/3 −1/3 2/3
1
A = 2 −2 1 = 2/3 −2/3 1/3
3 1 2 2 1/3 2/3 2/3
? Les vecteurs colonnes de la matrice A sont tous de norme 1, par
exemple pour le premier vecteur colonne on trouve (−2/3)2 +(2/3)2 +
(1/3)2 = 1. Les trois vecteurs colonnes sont deux à deux orthogo-
naux, par exemples pour les deux premiers on trouve (−2/3)(−1/3)+
(2/3)(−2/3) + (1/3)(2/3) = 0. On en déduit que A ∈ O3 (R).
? det(A) = +1, donc u est une rotaion r∆,θ d’axe ∆ et d’angle θ.
? Recherche de l’axe de rotation : ∆ = Ker(u − id), espace des inva-
riants.
Pour cela on peut appliquer la méthode du pivot de Gauss sur la
matrice
−5/3 −1/3 2/3
A − I3 = 2/3 −5/3 1/3
1/3 2/3 1/3
(on peut aussi considérer 3A − 3I3 pour éviter les fractions)
−5 −1 2 0 9 −3
2 −5 1 → 0 −9 3
1 2 −1 1 2 −1
0 0 0 0 0 0
→ 0 −3 1 → 0 −3 1
1 2 −1 1 −1 0
x
Donc un vecteur v = y = xe1 + ye2 + ze3 ∈ Ker(u − id), ssi
z
1
−3y + z = 0 et x − y = 0 ssi v = y 1 . Par conséquent, ∆ est
3
1
v 1
l’axe orienté et dirigé par le vecteur e = kvk = 11√ 1 .
3
? Recherche de l’angle. De la relation 1 + 2 cos θ = tr(A) = − 23 , on
trouve cos θ = − 56 . Pour déterminer θ, il suffit de connaitre le signe
20 LICENCE DE MATHÉMATIQUES, S4
de sin θ qui est le même que celui du produit mixte [f, u(f ), e] pour
n’importe quel vecteur u non colinéaire à e. On peut prendre tout
simplement f = e1 , donc
√
1 −2/3 1/√11 √
[e1 , u(e1 ), e] = det(e1 , u(e1 ), e) = 0 2/3 1/√11 = 5/3 11 > 0
0 1/3 3/ 11
On en déduit que θ = arccos(− 65 ).
? Conclusion
: u est la rotation d’axe dirigé et orienté par vecteur
1
√1 1 et d’angle θ = arccos(− 5 ).
11 6
3
5.2. Réflexion. — Soit u l’endomorphisme de R3 dont la matrice dans
la base canonique est
−8 4 1 8/9 −4/9 −1/9
1
A=− 4 7 4 = −4/9 −7/9 −4/9
9 1 4 −8 −1/9 −4/9 8/9
? Les vecteurs colonnes de la matrice A sont tous de norme 1, par
exemple pour le premier vecteur colonne on trouve (8/9)2 +(−4/9)2 +
(−1/9)2 = 1. Les trois vecteurs colonnes sont deux à deux orthogo-
naux, par exemples pour les deux premiers on trouve (8/9)(−4/9) +
(−4/9)(−7/9) + (−1/9)(−4/9) = 0. On en déduit que A ∈ O3 (R).
? det(A) = −1, et AT = A, donc u est une réflexion.
? Recherche du plan de réflexion : P = Ker(u − id), espace des inva-
riants.
On applique la méthode du pivots de Gauss à la matrice
1 4 1 1 4 1
1
A − I3 = − 4 16 4 → 0 0 0
9 1 4 1 0 0 0
Donc P est le plan d’équation x + 4y + z = 0.
? Conclusion : u est la réflexion par rapport au plan d’équation x +
4y + z = 0.
LICENCE DE MATHÉMATIQUES, S4 21
5.3. Composée d’une rotation et d’une réflexion. — Soit u l’en-
domorphisme de R3 dont la matrice dans la base canonique est
√ √
3 1 √6 3/4 1/4 √ 6/4
1
A = − √1 √3 − 6 = − √1/4 √3/4 − 6/4
4
− 6 6 2 − 6/4 6/4 1/2
? Les vecteurs colonnes de la matrice A sont tous de norme 1 et deux
à deux orthogonaux. On en déduit que A ∈ O3 (R).
? det(A) = −1 et AT = −A (la matrice A n’est pas symétrique),
donc u est la composée commutative d’une rotation r∆,θ et d’une
réflexion sP de plan P = ∆⊥ , u = r∆,θ ◦ sP = sP ◦ r∆,θ
? Recherche de l’axe de rotation ∆.
Dans ce cas l’axe ∆ = Ker(u + id). On applique la méthode du
pivots de Gauss à la matrice
√ √
1 −1 −√6 1 −1 − 6 1 −1 0
A+I3 = √ −1 √1 6 → 0 0 0 → 0 0 0
6 − 6 2 0 0 8 0 0 1
x
Donc un vecteur y ∈ Ker(u + id) ssi −x + y = 0 et z = 0,
z
x 1
d’où y = x 1 . On normalise ce vecteur, par conséquent
z 0
1
l’axe ∆ est la droite dirigé et orienté par e = √12 1 .
0
– Recherche de l’angle de rotation.
De la relation −1 + 2 cos θ = tr(A) = −2, on trouve cos θ = − 21 ,
donc θ = 2π 3
ou − 2π3
. Pour déterminer exactement θ, on cherche le
signe de sin θ. Le vecteur e1 de la bse canonique n’est pas colinéaire
à e, et
√
1 −3/4 1/√2 √
[e1 , u(e1 ), e] = det(e1 , f (e1 ), e) = 0 √−1/4 1/ 2 = − 3/4 < 0
0 6/4 0
donc θ = − 2π
3
.
22 LICENCE DE MATHÉMATIQUES, S4
? Recherche du plande réflexion.
x x
Un vecteur y ∈ P = ∆⊥ ssi h y , ei = 0 ssi x + y = 0.
z z
Ainsi P est le plan d’équation x + y = 0.
? Conclusion : u = r∆,θ ◦ sP = sP ◦ r∆,θ est la composée commutative
de la rotation r∆,θ d’axe orienté et dirigé par le vecteur e et d’angle
− 2π
3
et de la réflexion sP de plan d’équation x + y = 0.
version 1, 18 avril 2018