0% ont trouvé ce document utile (0 vote)
85 vues33 pages

Espaces Euclidiens et Produits Scalaires

Transféré par

mouadrca042
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
85 vues33 pages

Espaces Euclidiens et Produits Scalaires

Transféré par

mouadrca042
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Espaces préhilbertiens réels

Chapitre 3

Abdelhak ESSANHAJI

1
Sommaire

1 Rappels de première année . . . . . . . . . . . . . . . . . . . . . . . . . . 3


1.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Sous-espaces vectoriels orthogonaux . . . . . . . . . . . . . . . . . 7
1.4 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . . . 12
1.6 Projecteurs et symétries orthogonaux . . . . . . . . . . . . . . . . . 15
2 Matrices orthogonales, Endomorphismes orthogonaux . . . . . . . . . . . 20
2.1 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . 22
2.3 Réduction des endomorphismes orthogonaux . . . . . . . . . . . . . 24
3 Endomorphismes symétriques, théorème spectral . . . . . . . . . . . . . . 27
3.1 Endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . 27
3.2 Théorème spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Formes linéaires d’un espace euclidien, adjoint d’un endomorphisme . . . 29
4.1 Endomorphismes autoadjoints positifs . . . . . . . . . . . . . . . . 32

2
CPGE - Ibn Ghazi 2024/2025

Dans tout ce chapitre, E désigne un R-espace vectoriel.

1 Rappels de première année


1.1 Produit scalaire
Définition 1.1: Produit scalaire
ˆ On appelle produit scalaire sur E, une application : u : E × E → R vérifiant :

– u est une forme bilinéaire : ∀x, y, z ∈ E, ∀α ∈ R


* u(αx + y, z) = αu(x, z) + u(y, z)
* u(x, αy + z) = αu(x, y) + u(x, z)
– u est symétrique : ∀x, y ∈ E, u(x, y) = u(y, x)
– u est positive : ∀x ∈ E, u(x, x) ≥ 0
– u est définie : ∀x ∈ E, u(x, x) = 0 ⇒ x = 0

ˆ Un R-espace vectoriel E muni d’un produit scalaire est appelé un espace


préhilbertien réel.

ˆ Un espace préhilbertien réel de dimension finie est appelé un espace euclidien.

ˆ On note ⟨x, y⟩ au lieu de u(x, y).

Remarque 1.1:
ˆ u est linéaire par rapport à une variable et symétrique ⇒ u est bilinéaire.

ˆ u est définie et positive ⇔ ∀x ∈ E \ {0}, u(x, x) > 0.

Définition 1.2: Norme euclidienne


Soit (E, ⟨, ⟩) un espace préhilbertien réel. On définit la norme euclidienne associée
au produit scalaire ⟨, ⟩ par :
p
∀x ∈ E, ∥x∥ = ⟨x, x⟩

Proposition 1.1: Définition : Norme euclidienne

L’application suivante, notée ∥ · ∥, associe à chaque vecteur x ∈ E un réel positif :


E −→ R+
∥·∥: p
x 7−→ ∥x∥ = ⟨x, x⟩,
où ⟨·, ·⟩ désigne le produit scalaire de E. Cette norme vérifie les axiomes suivants :

Abdelhak ESSANHAJI 3/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

1. Séparation (N.1) :

∀x ∈ E, ∥x∥ = 0 =⇒ x = 0E .

2. Homogénéité (N.2) :

∀λ ∈ R, ∀x ∈ E, ∥λx∥ = |λ| ∥x∥.

3. Inégalité triangulaire (N.3) :

∀x, y ∈ E, ∥x + y∥ ≤ ∥x∥ + ∥y∥.

On dit que ∥ · ∥ est la norme euclidienne de E associée à son produit scalaire.

Définition 1.3: vecteur unitaire


p
Un vecteur x de E est dit vecteur unitaire ou normalisé si ∥x∥ = ⟨x, x⟩ = 1

Théorème 1.1: Règles de calcul


Pour tout vecteurs x, y ∈ E :

1. ∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 et ∥x − y∥2 = ∥x∥2 − 2⟨x, y⟩ + ∥y∥2

2. Égalité du parallélogramme :

∥x + y∥2 + ∥x − y∥2 = 2(∥x∥2 + ∥y∥2 )

3. Identité de polarisation :
1
⟨x, y⟩ = (∥x + y∥2 − ∥x − y∥2 )
4

4. Pour des vecteurs x1 , ..., xn , y1 , ..., ym ∈ E et des scalaires α1 , ..., αn , β1 , ..., βm ∈


R, * n +
X m
X Xn X m
α i xi , βj y j = αi βj ⟨xi , yj ⟩
i=1 j=1 i=1 j=1

n 2 n
X X X
αi xi = αi2 ∥xi ∥2 + 2 αi αj ⟨xi , xj ⟩
i=1 i=1 1≤i<j≤n

Abdelhak ESSANHAJI 4/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Théorème 1.2: Inégalité de Cauchy-Schwartz


Pour tous vecteurs x, y ∈ E, on a l’inégalité de Cauchy-Schwartz :

|⟨x, y⟩| ≤ ∥x∥∥y∥

Avec 
x = 0

|⟨x, y⟩| = ∥x∥∥y∥ ⇔ ou

∃α ∈ R, y = αx

et 
x = 0

⟨x, y⟩ = ∥x∥∥y∥ ⇔ ou

∃α ∈ R+ , y = αx

Exemple 1.1: Quelques exemples de produits scalaires

1. Produit scalaire canonique sur Rn : Si X = (x1 , ..., xn ), Y = (y1 , ..., yn ) ∈ Rn ,


n
X
⟨X, Y ⟩ = xk y k
k=1
v
u n
uX
∥X∥ = t x2 k
k=1
v v
n
X
u n u n
uX uX
2
xk y k ≤t xk t yk2 (Cauchy-Schwartz)
k=1 k=1 k=1

2. Produit scalaire canonique sur Mn,p (R) : Si A, B ∈ Mn,p (R),

⟨A, B⟩ = T r(t AB)


p
∥A∥ = T r(t AA)
p p
|T r(t AB)| ≤ T r(t AA) T r(t BB) (Cauchy-Schwartz)

3. Un produit scalaire sur l’espace des fonctions continues sur [a, b], E =
C([a, b], R) : Si u, g ∈ E,
Z b
⟨u, g⟩ = u(t)g(t)dt
a
s
Z b
∥f ∥ = u(t)2 dt
a

Abdelhak ESSANHAJI 5/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

s s
Z b Z b Z b
u(t)g(t)dt ≤ u(t)2 dt g(t)2 dt (Cauchy-Schwartz)
a a a

Exercice 1.1: 1
On note ℓ2 (R) = {(xn )n∈N ∈ RN / x2n converge}
P
n≥0

1. Montrer que ℓ2 (R) est un R-espace vectoriel.

2. Soit x = (xn )n∈N , y = (yn )n∈N ∈ ℓ2 (R),


P
(a) Montrer que xn yn converge.
n≥0
+∞
P
(b) On pose alors ⟨x, y⟩ = xn y n
n=0
Vérifier que ⟨, ⟩ définit un produit scalaire sur ℓ2 (R).

Exercice 1.2:
Soit a ∈ R un réel. Pour tout P, Q ∈ Rn [X], on pose
n
X
< P, Q >= P (k) (a)Q(k) (a)
k=0

Montrer que <, > est un produit scalaire sur Rn [X].

1.2 Orthogonalité
On considère dans ce paragraphe un espace préhilbertien réel (E, ⟨·, ·⟩).

Définition 1.4: Vecteurs orthogonaux


ˆ Deux vecteurs x et y de E sont dits orthogonaux si :

⟨x, y⟩ = 0.

ˆ Une famille (xi )i∈I de vecteurs de E est dite orthogonale si :

∀i, j ∈ I, i ̸= j =⇒ ⟨xi , xj ⟩ = 0.

ˆ Une famille (xi )i∈I de vecteurs de E est dite orthonormale si :

∀i, j ∈ I, ⟨xi , xj ⟩ = δi,j ,


où δi,j désigne le symbole de Kronecker.

Abdelhak ESSANHAJI 6/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Remarque 1.2:
ˆ ∀x ∈ E, on a : 0E ⊥ x

ˆ x ∈ E. x ⊥ x ssi x = 0E

Théorème 1.3: Identité de Pythagore


1. Soient x et y deux vecteurs de E. Alors :

⟨x, y⟩ = 0 (x et y sont orthogonaux ) ⇐⇒ ∥x + y∥2 = ∥x∥2 + ∥y∥2 .

2. Soient x1 , x2 , . . . , xn des vecteurs de E. Alors :


n 2 n
X X
(xk )1≤k≤n est une famille orthogonale =⇒ xk = ∥xk ∥2 .
k=1 k=1

Remarque 1.3: Remarque

En général, la réciproque de (2) est fausse si n ≥ 3, comme le montre l’exemple


suivant : On munit E = R2 du produit scalaire canonique, avec :

x1 = (1, 0), x2 = (0, 1), x3 = (1, −1).

Théorème 1.4: Liberté d’une famille orthogonale

Toute famille (xi )i∈I orthogonale de vecteurs non nuls de E est libre.

Corollaire 1.1:
Toute famille (xi )i∈I orthonormale de vecteurs de E est libre.

1.3 Sous-espaces vectoriels orthogonaux


Définition 1.5: Orthogonal d’une partie

Soit A une partie de E. On définit l’orthogonal de A, noté A⊥ , par :

A⊥ = {x ∈ E | ∀a ∈ A, ⟨a, x⟩ = 0}.

Proposition 1.2: Propriétés de l’orthogonal


Soient A une partie E.

A⊥ est un sous-espace vectoriel de E.

Abdelhak ESSANHAJI 7/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Exemple 1.2:
1.
E⊥ = {0} et {0}⊥ = E.

2. Si F = Vect (ek )1⩽k⩽m alors

F ⊥ = {x ∈ E, ∀1 ⩽ k ⩽ m, (ek | x) = 0}

Proposition 1.3: Propriétés de l’orthogonal


Soient A et B deux parties de E.

1. A ⊂ B =⇒ B ⊥ ⊂ A⊥ .

2. A⊥ = (Vect(A))⊥ .
⊥
3. A ⊂ A⊥ .

Exercice 1.3:
1. Dans R3 déterminer l’orthogonal de :

F = {(x, y, z) ∈ R3 ; x − y + z = 0}

+∞ +∞
an X n et Q = bn X n on pose :
P P
2. Dans R[X] pour tout polynômes P =
n=0 n=0

+∞
X
(P |Q) = an bn
n=0

(a) Montrer que l’on définit ainsi un produit scalaire sur R[X]
(b) On considère :

F = {P ∈ R[X] ; P (0) = 0}
G = {P ∈ R[X] ; P (1) = 0}

Vérifier que F et G sont deux hyperplans vectoriels de R[X] et montrer


que :

F ⊥ = R0 [X]
G⊥ = {0}
⊥
(c) En déduire que l’inclusion A ⊂ A⊥ peut être stricte.

Abdelhak ESSANHAJI 8/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

3. Exemple Considérons E = ℓ2 (N, R) muni de son produit scalaire usuel. Soit

F = R(N) = u ∈ RN / ∃N ∈ N, ∀n ⩾ N, un = 0


F est un sous-espace vectoriel de E. Déterminons F ⊥ .

Sous-espaces vectoriels orthogonaux

Définition 1.6: Sous-espaces orthogonaux


Deux sous-espaces vectoriels F et G de E sont dits orthogonaux si :

∀(x, y) ∈ F × G, ⟨x, y⟩ = 0.

Parfois on note F ⊥ G pour exprimer que F et G sont orthogonaux.

Remarque 1.4:

F et F ⊥ sont des sous-espaces vectoriels orthogonaux.

Exemple 1.3:

On munit E = Mn (R) du produit scalaire canonique :

⟨A, B⟩ = Tr t AB .


L’espace des matrices réelles symétriques Sn (R) et l’espace des matrices réelles an-
tisymétriques An (R) sont orthogonaux.

Proposition 1.4:
On a équivalence entre :
1. F et G sont orthogonaux ;

2. F ⊂ G⊥ ;

3. G ⊂ F ⊥ .

Abdelhak ESSANHAJI 9/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Somme directe orthogonale

Remarque 1.5:

Si F et G sont orthogonaux, alors F ∩ G = {0E }, car :

x ∈ F ∩ G ⇒ (x | x) = 0.

Ainsi, deux sous-espaces vectoriels orthogonaux sont en somme directe. Plus


généralement :

Proposition 1.5:
Si F1 , . . . , Fm sont des sous-espaces vectoriels de E, deux à deux orthogonaux, alors
ceux-ci sont en somme directe.

Définition 1.7:
Lorsque les sous-espaces vectoriels F1 , . . . , Fm sont deux à deux orthogonaux, on dit
n

L
qu’ils sont en somme directe orthogonale et leur somme est notée Fk .
k=1

Exemple 1.4:

Les espaces F et F ⊥ sont en somme directe orthogonale.

Supplémentaire orthogonal

Définition 1.8:
Deux sous-espaces vectoriels F et G sont dits supplémentaires orthogonaux s’ils
sont à la fois supplémentaires et orthogonaux, c’est-à-dire si :

E = F ⊕⊥ G.

Théorème 1.5:
Si F et G sont supplémentaires orthogonaux alors :

F ⊥ = G et G⊥ = F.

Corollaire 1.2:
Si F admet un supplémentaire orthogonal, celui-ci est unique et c’est F ⊥ . On dit
alors que F ⊥ est le supplémentaire orthogonal de F .

Abdelhak ESSANHAJI 10/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Danger 1.1:

Il se peut que F et F ⊥ ne soient pas supplémentaires.

Exemple 1.5:

Dans E = ℓ2 (N, R) muni du produit scalaire usuel, considérons F = R(N) . Ici,


F ⊥ = {0}, donc F et F ⊥ ne sont pas supplémentaires.

Corollaire 1.3:
Si F admet un supplémentaire orthogonal, alors F ⊥⊥ = F .

1.4 Bases orthonormées


On considère un espace euclidien (E, ⟨·, ·⟩). On note n la dimension de E.

Définition 1.9: Bases orthogonales et orthonormales

Une base B = (e1 , . . . , en ) de E est dite :

1. Orthogonale si ∀i, j ∈ J1, nK, i ̸= j =⇒ ⟨ei , ej ⟩ = 0.

2. Orthonormale si ∀i, j ∈ J1, nK, ⟨ei , ej ⟩ = δi,j , où δi,j est le symbole de
Kronecker.

Exemple 1.6:
1. La base canonique de Rn est orthonormale pour le produit scalaire canonique
de Rn .

2. La base canonique de Mn (R) est orthonormale pour le produit scalaire canon-


ique de Mn (R).

Théorème 1.6: Calculs dans une base orthonormale


Soit B = (e1 , . . . , en ) une base orthonormale de E.
n
P
1. ∀x ∈ E, x= ⟨x, ek ⟩ek .
k=1

n
P n
P
2. Si x = xk ek et y = yk ek , alors :
k=1 k=1

n
X
⟨x, y⟩ = xk yk .
k=1

Abdelhak ESSANHAJI 11/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

n
P
3. Si x = xk ek , alors :
k=1 v
u n
uX
∥x∥ = t x2 . k
k=1

Exercice 1.4:
Soient a0 , . . . , an ∈ R des réels deux à deux distincts. Pour P, Q ∈ Rn [X], on pose :
n
X
⟨P, Q⟩ = P (ak ) Q (ak ) .
k=0

1. Montrer que ⟨·, ·⟩ définit un produit scalaire sur Rn [X].


 
Qn X − ak
2. Pour i ∈ J0, nK, on pose Li =
k=1 ai − ak
k̸=i

(a) Vérifier que (L0 , L1 , . . . , Ln ) est une base orthonormale de Rn [X].


Pn
(b) En déduire que ∀P ∈ Rn [X], P = P (ak ) Lk .
k=0

1.5 Orthonormalisation de Gram-Schmidt


Théorème 1.7: Procédé de Gram-Schmidt
Soit E un espace préhilbertien réel. Si (e1 , . . . , ep ) est une famille libre de E, alors il
existe une unique famille orthonormale (v1 , . . . , vp ) de E telle que :

1. Vect (v1 , . . . , vk ) = Vect (e1 , . . . , ek ) pour tout k ∈ J1, pK,

2. ⟨vk , ek ⟩ > 0.

La famille (v1 , . . . , vp ) est donnée par :


e1
v1 = ,
∥e1 ∥
k−1
P
ek − ⟨ek , vi ⟩vi
i=1
∀k ∈ J2, pK, vk = k−1
.
P
ek − ⟨ek , vi ⟩vi
i=1

Abdelhak ESSANHAJI 12/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Remarque 1.6:

Si (e1 , . . . , ep ) est un famille orthonormale alors, (v1 , . . . , vp ) = (e1 , . . . , ep )

Corollaire 1.4:
1. Existence d’une base orthonormale : Tout espace euclidien E non nul
admet au moins une base orthonormale.

2. Théorème de la base orthonormale incomplète : Toute famille orthonor-


male (v1 , . . . , vp ) d’un espace euclidien E de dimension n (p ≤ n) peut être
complétée en une base orthonormale (v1 , . . . , vp , vp+1 , . . . , vn ).

Remarque 1.7: Algorithme d’Orthonormalisation

Dans la pratique, pour orthonormaliser une base (e1 , . . . , en ), on procède comme


suit :

1. On pose u1 = e1 .

2. On pose u2 = e2 + λu1 et on détermine λ pour que (u1 | u2 ) = 0.

3. On pose u3 = e3 + λu1 + µu2 et on détermine λ et µ pour que

(u1 | u3 ) = (u2 | u3 ) = 0.

4. .....

5. On forme la base orthonormale (v1 , . . . , vn ) en normant chaque vecteur, c’est-


à-dire
u1 u2 un
v1 = , v2 = , . . . , vn = .
∥u1 ∥ ∥u2 ∥ ∥un ∥

Exemple 1.7:

Soit R2 [X] muni du produit scalaire :


Z +1
⟨P, Q⟩ = P (t)Q(t) dt.
−1

En utilisant la base canonique de R2 [X], déterminer une base orthonormale de


R2 [X].

Abdelhak ESSANHAJI 13/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Théorème 1.8: Propriétés de l’orthogonal

Soit (E, ⟨·, ·⟩) un espace préhilbertien réel et F un sous-espace vectoriel de dimension
finie. On a :
E = F ⊕ F⊥
.

Supplémentaire orthogonal et dimension finie

Corollaire 1.5:
Si F et G sont des sous-espaces vectoriels d’un espace euclidien E, alors :

1. F ⊕⊥ F ⊥ = E et F ⊥⊥ = F .

2. dim F ⊥ = dim E − dim F .

3. (F + G)⊥ = F ⊥ ∩ G⊥ .

4. (F ∩ G)⊥ = F ⊥ + G⊥ .

Application : hyperplan et forme linéaire

Définition 1.10: Droite normale d’un hyperplan en dimension finie

Si H est un hyperplan d’un espace euclidien E, alors H ⊥ est une droite de E appelée
droite normale de H. Les vecteurs non nuls de cette droite sont appelés vecteurs
normaux à H.

Théorème 1.9:
Si a est un tel vecteur normal à l’hyperplan H, alors :

∀x ∈ E, x ∈ H ⇔ ⟨a, x⟩ = 0.

Exemple 1.8:
Dans Rn , muni du produit scalaire canonique, considérons l’hyperplan :
( n
)
X
H = (x1 , . . . , xn ) ∈ Rn | α k xk = 0 ,
k=1

où α = (α1 , . . . , αn ) ∈ Rn . Alors, H ⊥ est une droite vectorielle, donnée par :

H ⊥ = Vect(α).

Abdelhak ESSANHAJI 14/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

1.6 Projecteurs et symétries orthogonaux


Soit (E, ⟨·, ·⟩) un espace préhilbertien réel.

Projecteurs orthogonaux

Définition 1.11: Projecteurs et projecteurs orthogonaux

Soit p ∈ L(E).

1. Projecteur : On dit que p est un projecteur si p ◦ p = p.

2. Projecteur orthogonal : p est un projecteur orthogonal si p est un pro-


jecteur et Ker(p) et Im(p) sont orthogonaux.

3. Projection sur F parallèlement à G : Si E = F ⊕ G, la projection sur F


parallèlement à G est l’endomorphisme f défini par :

E = F ⊕ G −→ E
f:
x = xF + xG 7−→ xF

4. Projection orthogonale sur F : La projection orthogonale sur F est la


projection sur F parallèlement à F ⊥ .

Exemple 1.9:

Dans Mn (R) muni du produit scalaire canonique, la projection orthogonale sur


Sn (R) est donnée par :

Mn (R) = Sn (R) ⊕ An (R) −→ Mn (R)


f: M + tM
M 7−→
2

Exercice 1.5:
Soit p ∈ L(E) un projecteur. Montrer que :

p est orthogonal ⇐⇒ ∀x ∈ E, ∥p(x)∥ ≤ ∥x∥.

Théorème 1.10: Caractérisation du Projection orthogonale


Soit F un sous-espace vectoriel de E admettant un supplémentaire orthogonal. Alors
:
Pour tous x, y ∈ E, (
y ∈ F,
y = pF (x) ⇐⇒
x − y ∈ F ⊥.

Abdelhak ESSANHAJI 15/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Propriété 1.1: Projection orthogonale


Soit F un sous-espace vectoriel de E admettant un supplémentaire orthogonal. Alors
:

1. p2F = pF , ker(pF ) = F ⊥ et Im(pF ) = F = ker(pF − idE ).

2. idE −pF = pF ⊥ .

3. Pour tout x ∈ E,
∥pF (x)∥2 + ∥pF ⊥ (x)∥2 = ∥x∥2 .

Corollaire 1.6:

∀x ∈ E, ∥pF (x)∥ ⩽ ∥x∥

Théorème 1.11:

∀x, y ∈ E, (pF (x) | y) = (x | pF (y))

Théorème 1.12: Expression de la projection orthogonale

Soit F un sous-espace vectoriel de E de dimension finie p et (e1 , . . . , ep ) une base


orthonormale de F . La projection orthogonale pF sur F est donnée par :
p
X
∀x ∈ E, pF (x) = ⟨x, ek ⟩ek .
k=1

Exemple 1.10:

1. Si F = Vect(u) est une droite, alors :

⟨x, u⟩
∀x ∈ E, pF (x) = u.
∥u∥2

2. Si H est un hyperplan, alors :

⟨x, v⟩
∀x ∈ E, pH (x) = x − v,
∥v∥2

où v ∈ H ⊥ est non nul.

Abdelhak ESSANHAJI 16/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Corollaire 1.7:
Si (e1 , . . . , en ) est une famille orthonormée de vecteurs de E alors
n
X
∀x ∈ E, |(ek | x)|2 ⩽ ∥x∥2
k=1

symétries orthogonales

Définition 1.12: Symétries et symétries orthogonales

Soit s ∈ L(E).

1. Symétrie : On dit que s est une symétrie si s ◦ s = IdE .

2. Symétrie orthogonale : Une symétrie est orthogonale si Ker(s − IdE ) et


Ker(s + IdE ) sont orthogonaux.

3. Symétrie par rapport à F parallèlement à G : Si E = F ⊕ G, la symétrie


par rapport à F parallèlement à G est l’endomorphisme f défini par :

E = F ⊕ G −→ E
f:
x = xF + xG 7−→ xF − xG

4. Symétrie orthogonale par rapport à F : La symétrie orthogonale par


rapport à F est la symétrie par rapport à F parallèlement à F ⊥ .

Exemple 1.11:

Dans Mn (R) muni du produit scalaire canonique, la symétrie orthogonale par rap-
port à Sn (R) est donnée par :

Mn (R) = Sn (R) ⊕ An (R) −→ Mn (R)


f:
M 7−→ t M

Théorème 1.13: caractérisation de la symétrie orthogonale


Soit F un sous-espace vectoriel de E admettant un supplémentaire orthogonal. Alors
:
Pour tous x, y ∈ E,
(
x + y ∈ F,
y = sF (x) ⇐⇒
x − y ∈ F ⊥.

Abdelhak ESSANHAJI 17/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Propriété 1.2: Symétrie orthogonale


Soit F un sous-espace vectoriel de E admettant un supplémentaire orthogonal. Alors
:

1. sF = 2pF − idE et sF + sF ⊥ = 0.

2. s2F = idE , ker(sF − idE ) = F et ker(sF + idE ) = F ⊥ .

Distance de x à A
Si A est une partie non vide de E et x ∈ E, on définit la distance de x à A, notée d(x, A)
par :

d(x, A) = inf ∥x − a∥
a∈A

Théorème 1.14: Distance à un sous-espace vectoriel


Soit F un sous-espace vectoriel de E de dimension finie. La distance de x ∈ E à F ,
notée d(x, F ), est donnée par :

d(x, F ) = ∥x − pF (x)∥.

Exemple 1.12:

Soit D = Vect(a) avec a ̸= 0. Pour tout x ∈ E :

(a | x)
d(x, D) = x − a
∥a∥2

Exemple 1.13:
Si H est un hyperplan de E, alors :

|⟨x, v⟩|
∀x ∈ E, d(x, H) = ,
∥v∥

où v ∈ H ⊥ est non nul.

Proposition 1.6:

Si B = (e1 , . . . , en ) est une base orthonormée de E et si H est un hyperplan


d’équation

a1 x 1 + · · · + an x n = 0

Abdelhak ESSANHAJI 18/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

(avec (a1 , . . . , an ) ̸= (0, . . . , 0)) alors pour tout vecteur x de E de composantes


x1 , . . . , xn dans B on a

|a1 x1 + · · · + an xn |
d(x, H) = p
a21 + · · · + a2n

Remarque 1.8:

Puisque x = (x − pF (x)) + pF (x) avec (x − pF (x)) ⊥ pF (x), on a :

d(x, F )2 = ∥x∥2 − ∥pF (x)∥2 .

Si (e1 , . . . , ep ) est une base orthonormale de F , alors :


p
X
2 2
d(x, F ) = ∥x∥ − ⟨x, ek ⟩2 .
k=1

Exemple 1.14:
Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée
B = (i, j, k).
Soient P : x + 2y − 3z = 0 et D = Vect(u) avec u = i + k.
Soit x = i + 2j + 3k.
Calculons d(x, P ) et d(x, D).
Par les formules précédentes
4
d(x, P ) = √
14
et

d(x, D) = 6

Abdelhak ESSANHAJI 19/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

2 Matrices orthogonales, Endomorphismes orthogo-


naux
2.1 Matrices orthogonales
Définition 2.1: Matrice orthogonale

Une matrice A ∈ Mn (R) est dite orthogonale si t AA = In . On note On (R)


l’ensemble des matrices orthogonales de Mn (R).

Exemple 2.1: Exemples de matrices orthogonales

ˆ ±In ∈ On (R)

ˆ D = diag (λ1 , . . . , λn ) ∈ On (R) ⇐⇒ ∀k ∈ J1, nK, λk = ±1.

ˆ A ∈ On (R) ⇐⇒ t A ∈ On (R)

Proposition 2.1: Propriétés des matrices orthogonales

Soit A ∈ Mn (R). Alors :

1. A ∈ On (R) ⇐⇒ A ∈ GLn (R) et A−1 = t A.

2. Si A ∈ On (R), alors det(A) = ±1.

Définition et théorème 2.1: Groupe orthogonal

1. On (R) est un groupe, appelé groupe orthogonal d’ordre n.

2. On+ (R) = {A ∈ On (R), det(A) = 1} est un groupe, appelé groupe spécial


orthogonal d’ordre n. On le note aussi SOn (R)

3. On− (R) = {A ∈ On (R), det(A) = −1} n’est pas un groupe.

Exemple 2.2: Exemple de groupe spécial orthogonal

−In ∈ On+ (R) ⇐⇒ n est pair.

Proposition 2.2: Caractérisations des matrices orthogonales

Soit A ∈ Mn (R), alors les assertions suivantes sont équivalentes :


1. A ∈ On (R).
2. Les vecteurs colonnes de A forment une famille orthonormale pour le produit
scalaire canonique de Mn,1 (R).

Abdelhak ESSANHAJI 20/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

3. Les vecteurs lignes de A forment une famille orthonormale pour le produit


scalaire canonique de M1,n (R).

Remarque 2.1: Exemple d’une matrice orthogonale


 
cos(θ) − sin(θ)
1. ∀θ ∈ R, R(θ) = ∈ SO2 (R)
sin(θ) cos(θ)
 
2 −1 −2
2. A = 13  1 −2 2  ∈ SO3 (R)
2 2 1

Remarque 2.2: Propriétés des éléments d’un groupe orthogonal

Si A = (ai,j )1≤i,j≤n ∈ On (R), alors ∀i, j ∈ J1, nK, |ai,j | ≤ 1.

Proposition 2.3: Caractérisations de O2− (R) et O2+ (R)


  
+ cos(θ) − sin(θ)
1. O2 (R) = ∈ M2 (R), θ ∈ R ,
sin(θ) cos(θ)
  
− cos(θ) sin(θ)
2. O2 (R) = ∈ M2 (R), θ ∈ R ,
sin(θ) − cos(θ)
  
cos(θ) −ε sin(θ)
3. O2 (R) = ∈ M2 (R), θ ∈ R, ε ∈ {−1, 1} .
sin(θ) ε cos(θ)

Remarque 2.3: Propriétés des matrices de rotation


 
cos(θ) − sin(θ)
Pour tout θ ∈ R, on pose R(θ) = . Alors,
sin(θ) cos(θ)

∀θ, θ′ ∈ R, R(θ) × R (θ′ ) = R (θ + θ′ )

donc O2+ (R) est un groupe commutatif et (R(θ))−1 = R(−θ).

Corollaire 2.1:
Le groupe SO(2) (O2+ (R)) est abélien et de plus, l’application
 
cos(θ) − sin(θ)
R : θ ∈ R 7→ R(θ) =
sin(θ) cos(θ)

est un morphisme de groupes surjectif du groupe additif R vers le groupe SO(2) de


noyau 2πR.

Abdelhak ESSANHAJI 21/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

2.2 Endomorphismes orthogonaux

Dans tout ce qui suit, (E, <>) désigne un espace euclidien de dimension n.

Définition et théorème 2.2: Endomorphisme orthogonal

Soit u ∈ L(E). Alors sont équivalentes :

1. ∀x ∈ E, ∥u(x)∥ = ∥x∥,

2. ∀x, y ∈ E, < u(x), u(y) >=< x, y >,

3. u transforme une base orthonormée B = (e1 , . . . , en ) de E en une base or-


thonormée (u (e1 ) , . . . , u (en )) de E.

Si u vérifie l’une de ces propriétés équivalentes (1), (2), (3), on dit que u est un
endomorphisme orthogonal de E ou une isométrie vectorielle de E.
On note O(E) l’ensemble des endomorphismes orthogonaux de E.

Remarque 2.4:
Un endomorphisme orthogonal de E est un automorphisme de E.

Exemple 2.3: Exemples d’endomorphismes orthogonaux

1. Soit λ ∈ R, alors λId ∈ O(E) ⇐⇒ λ = ±1.

2. Soit s une symétrie vectorielle de E, alors s ∈ O(E) ⇐⇒ s est une symétrie


orthogonale de E.

3. Soit p un projecteur orthogonal de E, alors p ∈ O(E) ⇐⇒ p = Id .

Proposition 2.4: Caractérisation matricielle

Soit u ∈ L(E) et B = (ei )1≤i≤n une base orthonormée de E, et

A = (ai,j )1≤i,j≤n = MatB (u)

de colonnes C1 , . . . , Cn . Alors

1. ∀i, j ∈ J1, nK, (Ci , Cj ) =< u (ei ) , u (ej ) > où (,) désigne le produit scalaire
canonique de Mn,1 (R).

2. u ∈ O(E) ⇐⇒ A ∈ On (R).

Abdelhak ESSANHAJI 22/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Corollaire 2.2: Propriétés des isométries

1. Pour tout u ∈ O(E), on a det(u) = ±1.

2. Une isométrie de déterminant égal à +1 s’appelle isométrie directe ou rotation.

3. Une isométrie de déterminant égal à -1 s’appelle isométrie indirecte.

Définition 2.2: Groupe orthogonal

1. O(E) est un groupe, appelé groupe orthogonal de E.

2. O+ (E) = {f ∈ O(E), det(u) = 1} est un groupe, appelé groupe spécial or-


thogonal de E.

3. O− (E) = {f ∈ O(E), det(u) = −1} n’est pas un groupe.

Remarque 2.5: Propriétés des matrices orthogonales

Soit u ∈ L(E) et B une base orthonormée de E, et A = MatB (u). Alors :

1. u ∈ O+ (E) ⇐⇒ A ∈ On+ (R).

2. u ∈ O− (E) ⇐⇒ A ∈ On− (R).

Proposition 2.5: Matrice de passage entre deux bases orthonormées



Soit B = (ei )1≤i≤n et B ′ = (e′i )1≤i≤n deux bases orthonormées de E, et PBB la matrice

de passage de B à B ′ . Alors PBB ∈ On (R).

Définition 2.3: Espace euclidien orienté


1. Un espace euclidien muni d’une base orthonormée B de référence est dit un
espace euclidien orienté.

2. Une autre base orthonormée B de E est dite directe (resp. indirecte) si
B ′  B ′ 
det PB = +1 (resp. det PB = −1).

Proposition 2.6: Formule de passage entre deux bases orthonormées

Soit u ∈ L(E), B = (ei )1≤i≤n et B ′ = (e′i )1≤i≤n deux bases orthonormées de E. On


note A = MatB (u) et A′ = MatB′ (u).
Alors A′ = t P AP , où P désigne la matrice de passage de B à B ′ .

Abdelhak ESSANHAJI 23/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

2.3 Réduction des endomorphismes orthogonaux

Proposition 2.7: Propriétés d’un endomorphisme orthogonal

Soit u ∈ O(E) et F un sous-espace vectoriel de E, alors :

1. dim E = 1, O(E) = {id; −id}

2. SpR (U ) ⊂ {−1, 1}.

3. Si F est stable par u, alors u|F ∈ O(F )

4. Si F est stable par u, alors F ⊥ est stable par u

Lemme 2.1: Un résultat de stabilité


Soit E un R-espace vectoriel de dimension finie et u ∈ L(E), alors :

1. SpR (u) ̸= ∅ =⇒ u admet une droite vectorielle stable.

2. SpR (u) = ∅ =⇒ u admet un plan stable.

Théorème 2.1: Réduction d’un endomorphisme u ∈ O(E)

Soit u ∈ O(E), alors il existe une base orthonormée B de E telle que


 
Ip

 −Iq (0) 

MatB (u) = 
 R (θ1 ) 

 . .. 
 (0) 
R (θr )

∈ N, p + q + 2r = n et
où p, q, r   ∀i ∈ J1, rK, θi ̸= 0[π] et
cos (θi ) − sin (θi )
R (θi ) = .
sin (θi ) cos (θi )

Exercice 2.1: classique

Soit u ∈ O(E), montrer que :

u est diagonalisable ⇐⇒ u est une symétrie

Abdelhak ESSANHAJI 24/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Corollaire 2.3: Réduction d’une matrice orthogonale

Soit A ∈ On (R), alors il existe P ∈ On (R) telle que A = t P RP , où


 
Ip

 −Iq (0) 

R=
 R (θ1 ) 

 . . 
 (0) . 
R (θr )

et p, q, r ∈ N, p + q + 2r = n et ∀i ∈ J1, rK, θi ∈ R.

Théorème 2.2: Réduction d’un endomorphisme u ∈ SO(E)

Soit u ∈ SO(E), alors il existe une base orthonormée B de E telle que


 
Ip
 R (θ1 ) (0) 
MatB (u) = 
 
. . 
 (0) . 
R (θs )
où p, s ∈ N, p + 2s = n et ∀i ∈ J1, sK, θi ∈ R.

Corollaire 2.4: Réduction d’une matrice orthogonale positive

Soit A ∈ On+ (R), alors ilexiste P ∈ On (R) telle que A = t P RP , où R =



Ip
 R (θ1 ) (0) 
 et p, s ∈ N, p + 2s = n et ∀i ∈ J1, sK, θi ∈ R.
 

 (0) . .. 
R (θs )

Proposition 2.8: Isométries directes en dimension 2

Soit E un plan euclidien orienté et u ∈ O+ (E) (une rotation), alors il existe un


unique θ ∈] − π, π[ telle que pour toute base orthonormée directe B de E,
 
cos(θ) − sin(θ)
MatB (u) =
sin(θ) cos(θ)
On dit alors que u est la rotation d’angle orienté θ.

Abdelhak ESSANHAJI 25/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Remarque 2.6: Détermination pratique de θ

ˆ Soit E un plan euclidien orienté et u ∈ O+ (E), alors Tr(u) = 2 cos(θ).

ˆ ⟨u (e1 ) , e2 ⟩ = sin(θ), donc le signe de θ est celui de ⟨u (e1 ) , e2 ⟩.

Proposition 2.9: Isométries directes en dimension 3

Soit E un espace euclidien orienté de dimension 3 et u ∈ O+ (E)\{IdE } (une rota-


tion), alors

1. E1 (u) = Ker(u−IdE ) est une droite vectorielle de E. (C’est l’axe de rotation).

2. Soit e1 un vecteur unitaire de E1 (u). Il existe un unique θ ∈] − π, π], telle que


pour toute base orthonormée directe adaptée à l’axe de rotation B = (e1 , e2 , e3 )
de E (le premier vecteur e1 dirigeant l’axe de rotation), la matrice de u dans
la base s’écrit
 
1 0 0
MatB (u) =  0 cos(θ) − sin(θ) 
0 sin(θ) cos(θ)

On dit alors que u est la rotation d’axe orienté vect (e1 ) et d’angle orienté θ.

Remarque 2.7: Détermination pratique de l’axe et θ

Soit E un espace euclidien orienté de dimension 3 et u ∈ O+ (E)\{IdE }. Alors :

ˆ L’axe de rotation est bien déterminé par Ker(u − IdE ).

ˆ Tr(u) = 1 + 2 cos(θ).

1 0 0
ˆ On a detB (e1 , e2 , u (e2 )) = 0 1 cos(θ) = sin(θ), donc le signe de θ est
0 0 sin(θ)
celui de detB (e1 , e2 , u (e2 )) où e1 est un vecteur unitaire de l’axe de rotation
et e2 est un vecteur unitaire orthogonal à e1 .

Exemple 2.4: Exemple de matrice orthogonale positive


 √ 
3 1 √6
1  ∈ M3 (R) et u l’endomorphisme de R3 canon-
Soit A = 4 1
√ √3 − 6
− 6 6 2
iquement associé à A.

1. Vérifier que u ∈ O+ (R3 ).

Abdelhak ESSANHAJI 26/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

2. Déterminer les éléments caractéristiques de u.

3 Endomorphismes symétriques, théorème spectral


Soit (E, <>) un espace euclidien.

3.1 Endomorphismes symétriques


Définition 3.1: Endomorphisme symétrique

Soit u ∈ L(E). On dit que u est symétrique si :

∀x, y ∈ E < u(x), y >=< x, u(y) > .

On note S(E) l’ensemble des endomorphismes symétriques.

Exemple 3.1: Exemple d’endomorphisme symétrique

∀λ ∈ R, λIdE ∈ S(E).

Proposition 3.1: Caractérisation des endomorphismes symétriques

Soit u ∈ L(E) et B = (e1 , . . . , en ) une base orthonormée de E et

A = (ai,j )1≤i,j≤n = M atB (u)

alors

1. ∀i, j ∈ J1, nK, < u (ej ) , ei >= ai,j .

2. u ∈ S(E) ⇐⇒ A ∈ Sn (R).

Corollaire 3.1:
S(E) est un sous-espace vectoriel de L(E) isomorphe à Sn (R).
n(n + 1)
En particulier, dim(S(E)) = .
2

Proposition 3.2: Projecteurs et symétries orthogonales

Soit u ∈ L(E), alors

1. u est un projecteur orthogonal de E si, et seulement si, u est un projecteur


vectoriel de E et symétrique.

Abdelhak ESSANHAJI 27/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

2. u est une symétrie orthogonale de E si, et seulement si, u est une symétrie
vectorielle de E et symétrique.

Corollaire 3.2: Caractérisations des projecteurs et symétries orthogonales

Soit u ∈ L(E) et B une base orthonormée de E et A = MatB (u), alors


 2
A =A
1. u est un projecteur orthogonal de E ⇐⇒ t
A=A
 2
A = In
2. u est une symétrie orthogonale de E ⇐⇒ t
A=A

Exercice 3.1:
Soit u ∈ Rn un vecteur unitaire (∥u∥ = 1) et A = In − 2t uu et u l’endomorphisme
de Rn canoniquement associé à A. Montrer que u est une symétrie orthogonale de
Rn en déterminant ses éléments caractéristiques.

3.2 Théorème spectral

Proposition 3.3:

Soit u ∈ S(E) et F un sous-espace vectoriel de E. Alors

1. SpC (u) ⊂ R.

2. ∀λ, µ ∈ Sp(u), λ ̸= µ ⇒ Eλ (u) et Eµ (u) sont orthogonaux.

3. F stable par u =⇒ F ⊥ est stable par u.

Théorème 3.1: Théorème spectral pour u ∈ S(E)

Tout endomorphisme u ∈ L(E) symétrique est diagonalisable dans une base or-
thonormée de E. Autrement dit, il existe B une b.o.n de E telle que MatB (u) est
diagonale.

Théorème 3.2: Théorème spectral pour A ∈ Sn (R)

Toute matrice A ∈ Mn (R) symétrique réelle est orthogonalement diagonalisable.


Autrement dit, il existe (P, D) ∈ On (R) × Dn (R) telle que A = P Dt P .

Abdelhak ESSANHAJI 28/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Remarque 3.1: Remarque 11

1. Si A ∈ Mn (R) symétrique réelle, pour trouver un couple (P, D) ∈ On (R) ×


Dn (R) telle que A = P Dt P :

ˆ On détermine χA le polynôme caractéristique de A.


ˆ On détermine une base orthonormée de chaque espace propre.

2. Une matrice symétrique complexe n’est pas nécessairement diagonalisable,


comme le montre l’exemple suivant :
 
i 1
A= ∈ M2 (C)
1 −i

Exemple 3.2: Exemple


 
2 1 1
On considère A =  1 2 1  ∈ M3 (R). Trouver (P, D) ∈ On (R) × Dn (R) telle
1 1 2
que A = P Dt P .

4 Formes linéaires d’un espace euclidien, adjoint d’un


endomorphisme

Soit (E, <>) un espace euclidien de dimension n.

Théorème 4.1: de représentation des formes linéaires


Pour toute forme linéaire φ sur E, il existe un et un seul vecteur a tel que ∀x ∈
E, φ(x) =< a, x >.

Exemple 4.1: Exemples

1. Formes linéaires sur E = Rn : ∀φ ∈ (Rn )∗ , ∃!a = (a1 , . . . , an ) ∈ Rn , telle que


n
∀x = (x1 , . . . , xn ) ∈ Rn , φ(x) =
P
ak x k .
k=1

2. Formes linéaires sur E = Mn (R): ∀φ ∈ (Mn (R))∗ , ∃!A ∈ Mn (R), telle que
∀M ∈ Mn (R), φ(M ) = Tr(AM ).

Abdelhak ESSANHAJI 29/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Corollaire 4.1: E et E ∗ sont canoniquement isomorphes


L’application
E → E∗


y 7→ φy
est un isomorphisme d’espaces vectoriels où ∀x ∈ E, φy (x) =< x, y > et E ∗ l’espace
vectoriel des formes linéaires sur E.

Remarque 4.1:
Dans ce cas, l’isomorphisme ne dépend pas des bases de E, on parle d’un isomor-
phisme canonique.

Proposition 4.1: Proposition 16 (Endomorphisme adjoint)

Soit u ∈ L(E), il existe un unique endomorphisme g de E tel que,

∀x, y ∈ E, < u(x), y >=< x, g(y) >

g s’appelle l’endomorphisme adjoint de u et noté u∗ .

Exemple 4.2: important : Endomorphismes symétriques ou autoadjoints


Un endomorphisme symétrique f de E est appelé aussi endomorphisme autoad-
joint :

f ∈ S(E) ⇐⇒ f ∗ = f .

Exemple 4.3:

1. u ∈ O(E) ⇐⇒ f ∗ ◦ f = IdE .

2. 0̃⋆ = 0̃ et (IdE )⋆ = IdE .

3. Si p est une projection orthogonale alors p⋆ = p.

4. si s est une symétrie orthogonale alors s⋆ = s

Théorème 4.2: Matrice de u∗ dans une b.o.n


Soit u ∈ L(E). Dans toute base orthonormée B de E

MatB (f ⋆ ) = t [MatB (u)]

Abdelhak ESSANHAJI 30/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Proposition 4.2: Opérations

Soient u, g ∈ L(E) et α, β ∈ R.

1. (αf + βg)∗ = αf ∗ + βg ∗ .

2. (g ◦ f )∗ = f ∗ ◦ g ∗ .

3. (f ∗ )∗ = u.

4. u ∈ GL(E) ⇐⇒ f ∗ ∈ GL(E). Dans ce cas, (f ∗ )−1 = (f −1 ) .

Corollaire 4.2:

∀f ∈ L(E), ∀n ∈ N, (f ⋆ )n = (f n )⋆ et ∀P ∈ R[X], P (f ⋆ ) = (P (u))⋆ .

Exercice 4.1:
Soit u ∈ L(E). Démontrer que

1. Ker (f ∗ ) = Im(u)⊥ et Im (f ∗ ) = Ker(u)⊥ .

2. Ker(u) = Ker (f ∗ ◦ f ) et Im (f ∗ ) = Im (f ∗ ◦ f ).

Remarque 4.2:

u est diagonalisable (resp. trigonalisable) si, et seulement si, u⋆ l’est également, car
u et u⋆ ont les mêmes polynômes annulateurs.

Propriétés de l’adjoint

Théorème 4.3:

∀u ∈ L(E), rg (u⋆ ) = rg(u), tr (u⋆ ) = tr(u), det u⋆ = det u, χu⋆ = χu .

Corollaire 4.3:
u et u⋆ ont les mêmes valeurs propres comptées avec multiplicité.

Proposition 4.3:

ker (u⋆ ) = [Im u]⊥ et Im (u⋆ ) = [ker u]⊥ .

Abdelhak ESSANHAJI 31/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Théorème 4.4: Sous-espaces vectoriels stables et l’adjoint

Un sous-espace vectoriel F est stable pour u si, et seulement si, F ⊥ est stable pour
u⋆ .

Corollaire 4.4:
Les hyperplans stables par u sont ceux possédant un vecteur normal qui est vecteur
propre de u⋆ .

4.1 Endomorphismes autoadjoints positifs


Définition 4.1:
1. Soit u ∈ S(E). On dit que :

(a) u est un endomorphisme autoadjoint (ou symétrique) positif si,


de plus :
∀x ∈ E, (u(x) | x) ≥ 0.
(b) u est un endomorphisme autoadjoint (ou symétrique) défini posi-
tif si, de plus :
∀x ∈ E \ {0E }, (u(x) | x) > 0.

L’ensemble des endomorphismes symétriques positifs est noté S + (E), et celui


des endomorphismes symétriques définis positifs est noté S ++ (E).

2. De même, si A ∈ Sn (R), on dit que :

(a) A est une matrice symétrique positive si elle vérifie :

∀X ∈ Mn,1 (R), X T AX ≥ 0.

(b) A est une matrice symétrique définie positive si elle vérifie :

∀X ∈ Mn,1 (R) \ {0}, X T AX > 0.

L’ensemble des matrices symétriques positives est noté Sn+ (R), et celui des
matrices symétriques définies positives est noté Sn++ (R).

Proposition 4.4:

Soit u ∈ L(E) et A sa matrice dans une base orthonormée de E. Alors, u est un


endomorphisme autoadjoint positif (resp. défini positif) si et seulement si A est une
matrice symétrique positive (resp. définie positive).

Abdelhak ESSANHAJI 32/33 [email protected]


CPGE - Ibn Ghazi 2024/2025

Théorème 4.5: Caractérisation spectrale

Soit u ∈ S(E) et A ∈ Sn (R). Alors, on a :

1. u ∈ S + (E) ⇔ sp(u) ⊂ R+ .

2. A ∈ Sn+ (R) ⇔ sp(A) ⊂ R+ .

3. u ∈ S ++ (E) ⇔ sp(u) ⊂ R∗+ .

4. A ∈ Sn++ (R) ⇔ sp(A) ⊂ R∗+ .

Abdelhak ESSANHAJI 33/33 [email protected]

Vous aimerez peut-être aussi