0% ont trouvé ce document utile (0 vote)
44 vues13 pages

13 Algbil Cor

Le document présente des exercices d'algèbre bilinéaire, incluant des démonstrations de bilinéarité, de symétrie et de positivité des produits scalaires. Il aborde également des concepts tels que la méthode de Gram-Schmidt, les projections orthogonales et les matrices symétriques. Enfin, des résultats sur les bases orthonormales et les propriétés des espaces préhilbertiens sont discutés.

Transféré par

OWONO NZONO
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
44 vues13 pages

13 Algbil Cor

Le document présente des exercices d'algèbre bilinéaire, incluant des démonstrations de bilinéarité, de symétrie et de positivité des produits scalaires. Il aborde également des concepts tels que la méthode de Gram-Schmidt, les projections orthogonales et les matrices symétriques. Enfin, des résultats sur les bases orthonormales et les propriétés des espaces préhilbertiens sont discutés.

Transféré par

OWONO NZONO
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

PC - ENCPB Espaces préhilbertiens Corrigé

Algèbre bilinéaire Sol. 4) : 1) La bilinéarité, la symétrie et la positivité se prouvent de façon simple. Soit
∑n
P ∈ E tel que φ(P, P) = P2 (k) = 0. Puisque P2 est à valeurs réelles, cela donne
Exercices d’application k=0
P(k) = 0 pour tout k ∈ [[0, n]].
∫ Le polynôme P admet donc au moins n + 1 racines. Or il est de degré au plus n, il
+∞
est donc nul.
e−x · P (x) · Q (x) dx définit un produit
2
Ex 1 Montrer que φ : (P, Q) 7→ ⟨P | Q⟩ =
−∞ L’application φ est bien un produit scalaire.
scalaire sur R [X]. 2) Attention, le produit scalaire change avec n.
On applique la méthode de Gram-Schmidt à la base de R2 [X] formée par les poly-
Sol. 1) : Ne pas oublier la continuité pour montrer le caractère défini positif.
nômes P0 = 1, P1 = X et P2 = X2 .

2
1
Ex 2

Soit x1 , x2 , ..., xn , n ∈ N , des réels strictement positifs de somme 1. Montrer • On a F0 = P0 avec ∥F0 ∥2 = P20 (k) = 3, d’où Q0 = √ (le polynôme P0 est
∑n k=0
3
1
qu’alors ⩾ n2 . le polynôme constant 1, mais il est normé pour le produit scalaire considéré).
xk
k=1 P′1 φ(F0 , P1 )
• On obtient ensuite Q1 = où F1 = P1 − 2 F0 = X − 1
Sol. 2) : C’est du Cauchy-Schwarz : ∥P′1 ∥ ∥F0 ∥
( n )2 ( n )( n )
∑ ∑ ∑ 1 X−1
1 ⩽ xk . Calculons ∥F1 ∥2 = (0 − 1)2 + (1 − 1)2 + (2 − 1)2 = 2, ce qui donne Q1 = √
xk 2
k=1 k=1 k=1
P′2 φ(F0 , P2 ) φ(F1 , P2 )
• On a enfin Q2 = ′ où F2 = P2 − F0 − 2 F1 . On obtient
∥P2 ∥ ∥F0 ∥
2
∥F1 ∥
Ex 3 Dans l’espace vectoriel R4 muni de son produit scalaire canonique, on considère 1
F2 = X2 − 2X + .
v = (0, 3, 1, −1) et w = (1, 2, −1, 1). Soit F = Vect(v, w) 3
√ ( )
Déterminer une base orthonormale de F⊥ 2 3 1
Par calcul, ∥F2 ∥ = et donc Q2 =
2
X − 2X +
2

Sol. 3) : (x, y, z, t) ∈ F⊥ ⇔ ( 3y + z − t = 0 et x + 2y − z + t = 0) 3 2 3
d’où une base (0, 0, 1, 1) et (−5, 1, 0, 3) √ ( √ ( ))
1 2 3 3 1 X−1 3 1
par le procédé de Schmidt : √ (0, 0, 1, 1) et √ (−5, 1, , ) forment un bon de F⊥ . La famille √ , √ , X − 2X +
2
est une base orthonormée de R2 [X]
2 61 2 2 3 2 2 3
pour le produit scalaire considéré.

Ex 4

n Ex 5 Montrer que (A, B) 7→ tr(tAB) est un produit scalaire sur Mn (R)
1) Montrer que l’application φ : (P, Q) 7→ P(k)Q(k) définit un produit scalaire sur 1) La base canonique de Mn (R) est-elle orthonormale vis-à-vis de ce produit scalaire ?
k=0
2) Montrer que l’ensemble des matrices symétriques Sn (R) et l’ensemble des matrices
Rn [X].
antisymétriques An (R) sont des sous-espaces supplémentaires orthogonaux pour ce
2) Pour n = 2, construire une base orthonormale à partir de la base (1, X, X2 ). produit scalaire.
3) Déterminer la projection orthogonale d’une matrice M ∈ Mn (R) sur An (R).
4) Déterminer d(M, An (R)).

1/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

∑ ( 2 )n
Sol. 5) : trivial, résultat du cours. tr(tAB) = aij bij et la base canonique est Sol. 7) : Soit ∫Rn = x − 1
1 n
(i,j)∈[[1,n]]2 d Rn dp Rp
Pour calculer n . dx avec n ⩾ p, on effectue des intégrations par partie suc-
bien une bon. −1 dx dxp
la suite est immédiate cessives.
1 t dk Rp
en particulier pAn (R) (M) = (M− M). Au début les crochets sont nuls car 1 et −1 sont racines d’ordres p − k pour (k ∈
2 dxk
Pour la dernière question, c’est le principe des moindres carrés [[1, p]]).
d(M, An (R)) = inf ∥M − A∥ = M − pAn (R) (M) On a ainsi,
M∈An (R)
√ ∫ 1 n ∫ 1 n−1 ∫ 1 n−p
1 1 ∑ d Rn dp Rp d Rn dp+1 Rp d Rn d2p Rp
= t
(M + M) = 2
(mi,j + mj,i ) . n . dx = − . dx = · · · = (−1) p
n−p . dx
2 2 i,j −1 dx dxp −1 dx
n−1
dxp+1 −1 dx dx2p
Si n > p, on continue une fois de plus l’intégration par partie et on obtient
Ex 6 Soient U un vecteur unitaire de R et A = In − 2U U.
n t ∫ 1 n ∫ 1 n−p
d Rn dp Rp p+1 d Rn d2p+1 Rp
Montrer que A est orthogonale et déterminer la nature de l’endomorphisme canoniquement n . p dx = (−1) n−p . 2p+1 dx = 0.
associé. −1 dx dx −1 dx |dx{z }
=0
Sol. 6) : La matrice A est symétrique car tA = In − 2t(UtU) = A. On a donc tAA = A2 .
Par ailleurs, on a A = (In − 2U U) = In − 4U U + 4U UU U. Or UU = 1, si bien que Si n = p, alors
2 t 2 t t t t

UtUUtU = U(tUU)tU = UtU. ∫ 1 n ∫ 1 ∫ 1


Finalement tAA = In . La matrice A est donc orthogonale, mais également symétrique. 2 d Rn dn Rn d2n Rn
∥Pn ∥ = n . dx = (−1) n
Rn . n
dx = (−1) (2n)!2 Rn dx
C’est donc la matrice d’une symétrie orthogonale. Il reste à déterminer les vecteurs inva- −1 dx dxn −1 dx2n 0
riants par A. ∫ 1
Soit X ∈ Mn1 (R) tel que AX = X. Cela équivaut à l’équation (E) : 2UtUX = 0 ⇔<
t Calcul de In = (x2 − 1)n dx.
U, X >= 0. Si (U est le vecteur
) (u1 , . . . , un ) et S le vecteur t(x1 , . . . , xn ), l’équation (E) est 0 ∫ π2
∑n
équivalente à ui xi u = 0. (c’est presque une intégrale de Wallis : u = sin x donne In = (−1)n cos2n+1 (x)dx)
0
i=1

n On peut éviter le changement de variable et écrire :
Comme le vecteur u est non nul, l’espace invariant est l’hyperplan d’équation ui xi = 0. (x 2
− 1)n = x × x(x2 − 1)n−1 − (x2 − 1)n−1 et avec une intégration par partie sur x ×
x(x − 1)n−1 ,
2
i=1 ∫ 1
La matrice A est donc une réflexion orthogonale par rapport à l’hyperplan orthogonal au 1 2 1
vecteur u. x → 1 et x(x − 1)
2 n−1
← (x − 1) , il vient
n
x × x(x2 − 1)n−1 dx = − In .
2n 0 2n
1 2n n (2n) × · · · × 4 × 2
Finalement, In = − In −In−1 d’où In = − In−1 = · · · = (−1) I0 =
2n 2n + 1 (2n + 1) × · · · × 3 × 1
Exercices d’entraînement 22n (n!)2
(−1)n .
(2n + 1)!
Ex 7 b 2 22n (n!)2 22n+1 (n!)2
dn [( 2 )n ] Conclusion : ∥Pn ∥ = (−1)n (2n)! × 2 × (−1)n
(2n + 1)!
=
2n + 1
.
Pour n ∈ N, on pose Pn (x) = x − 1 . Montrer que (Pn )n∈N est une base
dxn ∫ 1
orthogonale de R [X] pour le produit scalaire défini par (P | Q) = P (x) · Q (x) dx, et
−1 Ex 8 Soit E un espace euclidien de dimension n rapporté à une base orthonormée B, et
calculer ∥Pn ∥. −

u un vecteur unitaire de E.

2/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

1) Montrer que la matrice de la projection orthogonale sur D = Vect (− →


u ) relativement La bilinéarité et ∫la symétrie sont immédiates, la positivité également.
à la base B, est U U, où U est la matrice colonne des coordonnées de −
t →
u relativement +∞

à B. Si f ∈ E vérifie f 2 (t)e−t dt = 0 alors, puisque t 7→ f 2 (t)e−t est continue et positive


0
sur R+ , pour tout t ⩾ 0, on a f 2 (t)e−t = 0.
2) En déduire la matrice de la projection orthogonale sur le plan P : x + y + z = 0 de
La fonction polynômiale f est donc nulle sur R+ donc f = 0.
l’espace euclidien usuel R3 rapporté à sa base canonique.
Ainsi φ définit un produit scalaire sur E, que l’on notera (.|.). On pose alors P0 = X3 et
F = R2 [X].
Sol. 8) : On peut interpréter m comme m = min ∥P0 − P∥2 = d(P0 , F)2 .

→ −
→ (t ) (t ) ( t ) P∈F
1) p(x) =< u , x > u ce qui s’écrit : MX = UX U = U UX = U U X. Cette distance est atteinte pour le projeté orthogonal Q de P0 sur F.
Donc M = Ut U. Pour déterminer ce projeté orthogonal, on peut déterminer une base orthonormée de F et
1 utiliser la formule donnant le projeté orthogonal.
2) On prend U = √ (1, 1, 1) et pP = id −pU d’où la matrice M = I − Ut U. Plus rapidement, on écrit les conditions que doit vérifier le polynôme Q, c’est-à-dire Q ∈ F
3 et P − Q ⊥ F.
0
La première condition se traduit par l’existence d’un triplet (a, b, c) ∈ R3 tel que Q =
aX2 + bX + c.
Ex 9 Soit√A et B deux matrices symétriques de Mn (R). Pour la seconde condition, il suffit que P0 −Q soit orthogonal à une base de F, par exemple
[ ] √ √ ( ) ( )
2 2 aux polynômes 1, X et X2 , ce qui donne trois conditions (P0 − Q|Xi ) = 0 pour i = 0, 1 et
Montrer : tr (A + B) ⩽ tr (A2 ) + tr (B2 ) , et : (tr (AB)) ⩽ tr A2 tr B2 .
2, qui se réécrivent en (Q|Xi ) = (X3 |Xi ). On obtient finalement le système
Cas d’égalités ? {
( ) 2! a + 1! b + 0! c = 3!
Sol. 9) : < A, B >= tr t AB donc c’est Minkowski et Cauchy-Schwarz, cas d’égalité : 3! a + 2! b + 1! c = 4! ,
A = 0 ou A = λB avec λ ⩾ 0 (resp. λ ∈ R) 4! a + 3! b + 2! c = 5!

ce qui donne a = 9, b = −18 et c = 6, c’est-à-dire Q = 9X2 − 19X + 6.


On calcule enfin ∥Q − P0 ∥2 = 36 qui est le minimum recherché.
Ex 10 b
Classique. ∫ +∞
Calculer m = min (t3 − at2 − bt − c)2 e−t dt. Ex 11 Soit (a, b, c) ∈ R3 tel que a2 + b2 + c2 = 1, et
(a,b,c)∈R3
0 ∫ +∞  
2a2 − 1 2ab 2ac
Indication : On rappelle que pour tout n ∈ N, tn e−t dt = n! et on pourra considérer A =  2ab 2b2 − 1 2bc 
0 ∫ +∞ 2ac 2bc 2c2 − 1
l’espace vectoriel E = R[X] et l’application φ : (f, g) 7→ f (t)g(t)e−t dt. On doit
0 Déterminer la nature géométrique de l’endomorphisme de R3 canoniquement associé à A.
trouver m = 36.
Sol. 11) : A est symétrique et orthogonale donc c’est une symétrie orthogonale (à réex-
Sol. 10) : On interprète ce minimum comme une distance entre un vecteur fixe et un pliquer en détail)
sous-espace vectoriel, pour un bon produit scalaire. ∫ +∞ tr A = −1 donc c’est un retournement (symétrie orthogonale par rapport à une droite)
( )
Considérons, sur l’espace vectoriel E = R[X], l’application φ : (f, g) 7→ −t
f (t)g(t)e dt. a
0 on cherche l’axe, c’est–à–dire E1 , mais sans calcul on voit que b ∈ E1 donc :
−t
Cette (
application
) est bien définie car h : t →
7 f (t)g(t)e est continue sur R +
et f (t) = c
1 ( )
o . a
t→+∞ t2 A est le retournement par rapport à Vect b
La fonction h est donc intégrable sur R+ , ce qui garantit l’existence de φ(f, g). c

3/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

∫ 1  
Ex 12 Dans Rn [X], avec le produit scalaire (P | Q) = P (t) Q (t) dt, soit 0 0 0 0
−1  0 2 0 0 
 0 0 6 0 
( )
f : P 7−→ 2XP′ + X2 − 1 P′′ . 0 0 0 12

Montrer que f est un endomorphisme symétrique de Rn [X], et donner ses éléments propres
quand n = 3.
Ex 13 Soit f un endomorphisme symétrique d’un espace euclidien E de dimension n, tel
Sol. 12) : Pour tout (P, Q) ∈ (Rn [X]) , écrivons2 qu’il existe un entier naturel k vérifiant f k = id. Montrer alors que f est une symétrie
orthogonale.
∫ 1
( ( ) )
(f (P) | Q) = 2tP′ (t) + t2 − 1 P′′ (t) Q (t) dt. Sol. 13) : f est diagonalisable en base orthonormale et ses valeurs propres vérifient λk = 1
−1
donc Sp(f ) ⊂ {−1, 1}.
1 ( ∫ Un endomorphisme diagonalisable avec des valeurs propres parmi −1 et 1 est une symétrie.
)
Une intégration par partie sur t2 − 1 P′′ (t)Q (t) dt donne : Comme l’endomorphisme est symétrique, la symétrie est orthogonale (résultat de cours,
( ) −1 ( ) tout simplement les sous-espaces propres E−1 et E1 sont orthogonaux, f ∈ {− id, id}, cas
P′′ ← P′ et t2 − 1 Q (t) → 2tQ(t) + t2 − 1 Q′ donc marginal).
∫ ∫
1 ( ) 1 [ ]
t − 1 P′′ (t)Q (t) dt = −
2
2tP′ (t)Q (t) + (t2 − 1)P′ (t)Q′ (t) dt.
−1 −1

Il vient Ex 14 Soit M = (aij )1⩽i,j⩽n une matrice orthogonale. Montrer que aij ⩽n.
1⩽i,j⩽n
∫ ∫
1 ( ( ) ) 1
(on pourra écrire aij comme produit scalaire)
2tP′ (t) + t2 − 1 P′′ (t) Q (t) dt = − (t2 − 1)P′ (t)Q′ (t)dt.
−1 −1
∑ ∑
n

Le caractère symétrique est alors immédiat en échangeant le rôle de P et de Q. Sol. 14) : aij =< u(ej ), ei > donc aij =< u(X), X > avec X = ei
Pour n = 3, on peut faire tous les calculs, voici les résultat avec Maple. 1⩽i,j⩽n i=1

> restart:with(linalg):n:=3; ∑ 2
d’où aij ⩽ ∥u(X)∥ ∥X∥ = ∥X∥ = n.
n := 3
1⩽i,j⩽n
> phi:=P->2*X*diff(P,X)+(X^2-1)*diff(P,X,X);

∂ ∂2
φ := P → 2 X ( P) + (X2 − 1) ( 2 P)
∂X ∂X Ex 15 Soit A ∈ Mn (R).
> M:=matrix(n+1,n+1,(i,j)->coeff(phi(X^(j-1)),X,i-1));
  1) Montrer que tAA = 0 si et seulement si A = 0.
0 0 −2 0
 0 2 0 −6  2) Montrer que AtAA = A implique (tAA)2 = tAA. Montrer la réciproque, en simplifiant
M := 
0  BB où B = AtAA − A.
t
0 0 6
0 0 0 12
> eigenvects(M); Sol. 15) : 1) Si A = 0, alors on a directement AtA = 0.
[ ] Supposons que tAA = 0. Considérons un vecteur X quelconque dans Mn1 (R).
−5
[6, 1, {[1, 0, −3, 0]}], [12, 1, { 0, 1, 0, }], [2, 1, {[0, 1, 0, 0]}], [0, 1, {[1, 0, 0, 0]}] Afin de faire apparaître une norme, on calcule tXtAAX = t(AX)(AX) = ∥AX∥2 = 0.
3
Ainsi, pour tout vecteur colonne X, on a AX = 0 et la matrice A est donc nulle.
> jordan(M,P);

4/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

( ) ⊥
2) Pour le sens direct, on a (tAA)2 = tA AtAA = tAA. Pour la réciproque, on calcule Sol. 18) : On considère < A, B >= tr( t AB) alors M (R) = S ⊕ ASn
n n
t
comme demandé BB et on obtient donc
( ) ∑
t
BB = (tAAtA − tA)(AtAA − A) = tAAtAAtAA − 2tAAtAA + tAA = 0, inf
2
(aij − mij )2 = min ∥A − M∥ = d(A, Sn )2
M∈Sn M∈Sn
1⩽i,j⩽n
en utilisant (tAA)2 = tAA. La matrice C = tBB est nulle. D’après la question précé-
1∑
2
dente, cela implique que B est nulle. 2A − tA
= ∥pASn (A)∥ = = (aij − aji )2
On a donc l’équivalence entre AtAA = A et (tAA)2 = tAA. 2 4
i̸=j

Ex 16 Soit A ∈ Mn (R) telle que la matrice B = A A − A A ait toutes ses valeurs propres
t t

positives. Montrer que B = 0. Ex 19 Soit (a, b) ∈ R2 tel que a(< b, et f : [a, b]) → R continue, positive, et non nulle.
∫ b
Sol. 16) : Comme tB = A tA − tA A = B, la matrice B est symétrique et réelle. Montrer que la matrice M = ti+j f (t) dt est symétrique définie positive,
Elle est donc diagonalisable dans une base orthonormée avec, d’après l’énoncé, des valeurs a
1⩽i,j⩽n
propres toutes positives. c’est-à-dire : pour tout X ∈ Rn
− {0} t
XMX > 0.
Or tr B = tr(A A) − tr( A A) = 0 est la somme des valeurs propres.
t t

Les valeurs propres sont donc toutes nulles et B est semblable à la matrice nulle donc B Sol. 19) : c’est une matrice symétrique, c’est (< Xi , Xj >) dans le produit scalaire adapté
est nulle.
dans Vect(X, · · · , Xn )
Montrons que les valeurs propres de la matrice M sont strictement positifs, ou ce qui
revient au même :
Ex 17 Soit A ∈ Sn (R) et B = A . Montrer qu’il existe un polynôme P tel que A = P(B).
3
∀X ∈ Rn − {0} t XMX > 0 :
Sol. 17) : La matrice A est symétrique réelle donc A est diagonalisable. ∑ ∫ b ∫ b (∑n
)2
t t
Il existe donc Q ∈ On (R) telle que Q−1 AQ soit la matrice diagonale D, de diagonale les si X = (x1 , ..., xn ) alors XMX = xi xj ti+j f (t) dt = xi ti f (t)dt > 0
a a
réels λ1 , . . . , λn . i,j i=1
On a B = A3 = QD3 Q−1 et si P ∈ R[X] alors P(B) = QP(D3 )Q−1 . 2
donc si X est un vecteur propre : t XMX = λ ∥X∥can. et c’est fini !
La question revient à chercher un polynôme P tel que P(D3 ) = D, c’est-à-dire tel que,
pour tout i ∈ [[1, n]], P(λ3i ) = λi .
Notons µ1 , . . . , µm les valeurs propres distinctes de A. Ex 20 b
On cherche donc un polynôme P tel que, pour tout i ∈ [[1, m]], P(µ3i ) = µi . Soit E un espace euclidien. Soit v un endomorphisme symétrique positif de E c’est-à-dire
Les réels µ1 , . . . , µm sont deux à deux distincts, donc les réels µ31 , . . . , µ3m le sont également tel que Sp(u) ⊂ R+ (en plus d’être symétrique).
(x 7→ x3 est une bijection de R sur R). 1) Montrer qu’il existe un endomorphisme symétrique positif w tel que w2 = v.
On peut alors considérer les polynômes interpolateurs de Lagrange aux points µ31 , . . . , µ3m .
Il existe un unique polynôme P de degré au plus m − 1 tel que, pour tout i ∈ [[1, m]], 2) Soit λ un réel positif et h un endomorphisme symétrique positif de E. Montrer que
3
P(µi ) = µi . Ker (h − λ idE ) = Ker (h2 − λ2 idE ).
Ce polynôme donne alors P(B) = A. 3) En déduire que w est unique.

Sol. 20) : 1) Soient (e1 , . . . , en ) une base orthonormale de vecteurs propres de v et


Ex 18 b (λ1 , . . . , λn ) les valeurs propres associées.
Soit Sn l’ensemble des matrices symétriques réelles de taille n. Pour A ∈ Mn (R) fixée, Comme v est positif, on a ∀i, λi ⩾ 0. On définit l’endomorphisme w par w(ei ) =
calculer : ∑ √
λi ei pour tout i ∈ [[1, n]].
inf (aij − mij )2
M∈Sn
1⩽i,j⩽n Par construction, w2 = v et w est symétrique positif car il admet une base ortho-
normale de vecteurs propres et ses valeurs propres sont positives.

5/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

2) • L’inclusion Ker (h − λ idE ) ⊂ Ker (h2 − λ2 idE ) est évidente. d’après l’hypothèse de récurrence ils sont simultanément diagonalisables dans une base
• Posons F = Ker (h − λ idE ). Comme h commute avec h − λ idE , F est stable
2 2 2 2 orthonormale BF de F
par h, et h|F est symétrique donc diagonalisable dans une base orthonormale la base B obtenue par concaténation des bases BF pour tous les espaces propres de un+1
B de F. diagonalise alors simultanément tous les ui ( 1 ⩽ i ⩽ n + 1 ) : les Ai sont donc diagonali-
sables au moyen de la même matrice orthogonale
Il existe des réels positifs α1 , . . . , αp tels que la matrice de h|F dans B soit égale
à diag(α1 , . . . , αp ).
Troisième( cas : I)quelconque. Comme dim (Sn (R)) ∈ N , il existe une base B = (B1 , · · · , Bn )
de Vect (Ai )i∈I , sous-famille des Ai (de toute famille génératrice d’un espace vectoriel
Or (h|F )2 = λ2 id, donc ∀i, αi2 = λ2 , d’où αi = λ car ils sont positifs. Il en on peut extraire une base), d’après ce qui précède il existe alors une matrice orthogonale
F
résulte que h|F = λ id, donc que F ⊂ Ker (h − λ idE ). diagonalisant simultanément les Bi , et il est immédiat que cette base diagonalise tous les
F Ai , par combinaison linéaire.
3) Soit h un endomorphisme symétrique positif tel que h2 = v. Soit λ une valeur propre 2) Notons Q ∈ On (R) diagonalisant simultanément les Ai , et, pour i ∈ I , Q−1 Ai Q =
de v. √ √ diag (λi,1 , · · · , λi,p )
D’après 2), Ker (h − λ idE ) = Ker (v − λ idE ) = Ker (w − λ idE ). Notons ∆ = diag (1, · · · , p) . Soit i ∈ I , d’après le théorème d’interpolation de Lagrange
On en déduit que h et w coïncident sur chaque sous-espace propre de v, il existe Pi ∈ Rp−1 [X] tel que ∀k ∈ [[1, p]] λi,k = Pi (k) , et on a alors :
Pi (∆) = diag (Pi (1) , · · · , Pi (p)) = diag (λi,1 , · · · , λi,p ) , ce qui montre qu’avec B =
or v est diagonalisable, donc E est la somme directe des sous-espaces propres de v,
d’où h = w, ce qui démontre bien l’unicité de w. P∆P−1 , on a pour tout i ∈ I, Pi (B) = Ai

Ex 21 b Ex 22 b
Soit (Ai )i∈I une famille de matrices symétriques réelles commutant deux à deux Diagonaliser les matrices réelles suivantes au moyen d’une matrice orthogonale :
   
a b ··· b a b (0)
1) Montrer qu’elles sont diagonalisables au moyen de la même matrice orthogonale.  . . .   .. .. 
(Etudier successivement les cas : I = {1, 2} , I = [[1, n]] , I quelconque )  b . . . . ..   b . . 
a *)  . . b ***)  .
2) Montrer qu’il existe B , matrice symétrique réelle, telle que ∀i ∈ I, Ai ∈ R [B]  . .. ..
. . b   .. ..
. . b 
.
b ··· b a (0) b a
 
Sol. 21) : 1) si n = 2 a (0) b
Notons u1 et u2 respectivement les endomorphismes de Rp de matrices A1 et A2 dans le  .. . 
 . .. 
base canonique. A1 étant symétrique réelle, u1 est un endomorphisme symétrique, donc  
c *)  (0) (0)  ∈ M2n (R)
u1 est diagonalisable, et ses espaces propres sont en somme directe orthogonale.  
De plus, comme u2 et u1 commutent, ces espaces propres sont u2 − stables.  ..
. . .. 
Soit F un de ces espaces propres, et u2,F l’endomorphisme induit, u2,F est un endomor- b (0) a
phisme symétrique de F
(pour tout (x, y) ∈ F2 , on a (u2,F (x) |y ) = (u2 (x) |y ) = (x |u2 (y) ) = (x |u2,F (y) ) .) Sol. 22) : On remarque que dans les trois cas il s’agit d’une matrice symétrique réelle,
on en déduit que u2,F est diagonalisable dans une base orthonormale BF de F, et la base qui est donc diagonalisable au moyen d’une matrice orthogonale.
B obtenue par concaténation des bases BF pour tous les espaces propres de u1 diagonalise  
1 ··· 1
simultanément u1 et u2 . A1 et A2 sont donc diagonalisables au moyen de la même matrice
orthogonale. a) Posons Jn =  ... ..  ∈ M (R), de sorte que M = (a − b) I + bJ . J est de
. n n n n
Deuxième cas : I = [[1, n]] . On raisonne par récurrence sur n , c’est immédiat pour n = 1 1 ··· 1
si c’est vrai pour n , on le montre pour n + 1 : rang 1.
les endomorphismes ui étant définis comme ci-dessus, un+1 est diagonalisable, et ses es- Son noyau, c’est-à-dire l’espace propre de la valeur propre 0 est de dimension n − 1, c’est
paces propres sont en somme directe orthogonale l’hyperplan d’équation x1 + · · · + xn = 0.
De plus, comme ui et un+1 commutent ( 1 ⩽ i ⩽ n ), ces espaces propres sont ui − stables On trouve ( /√sans trop /√ de difficulté ) une base
( /orthonormale
√ /√
de
/√cet hyperplan )
Soit F un de ces espaces propres, et ui,F les endomorphismes induit, ce sont des endomor- e1 = 1 2, −1 2, 0, · · · , 0 , e2 = 1 6, 1 6, −2 6, 0, · · · , 0 , . . . ,
phismes symétriques de F , et il commutent deux à deux, donc

6/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

( /√ /√ /√ )
en−1 = 1 n2 − n, · · · , 1 n2 − n, (−n + 1) n2 − n examinons d’abord le cas où cette équation admet deux racines distinctes r1 et r2 . On a
On complète cette base en une base orthonormale en déterminant un vecteur unitaire alors xk = αr1k + βr2k
⊥ De x0 = 0 on déduit β = −α, de e ̸= 0 on déduit α ̸= 0,
directeur de (Ker (Jn )) ( )n+1
r1
((les
/√sous-espaces
/√ propres de Jn sont en somme directe orthogonale), par exemple en = n+1 n+1
) et de xn+1 = 0 on déduit alors r1 = r2 , et donc = 1,
1 n, · · · , 1 n , ( ) 2 r
c’est effectivement  un vecteur r1 2ipπ
/√ propre /√de Jn , associé à /
la√
valeur propre n
/√  et donc qu’il existe p ∈ 0, n tel que = exp .
1 2 1 6 ··· 1 n2 − n 1 n r2 n+1 ( )
 / /√ /√ /√ 
 −1 √2 ··· n2 − n 1 n  De l’équation caractéristique on déduit que r1 r2 = 1 , et donc r12 = exp
2ipπ
 1 6 1  n+1
 /√  ( ) ( )
 . . .  ipπ ipπ
On pose donc P =   0 −2 6 .. .. .. , et on a
 D’où r1 = exp et r2 = exp − (ou l’inverse, mais ça revient au même)
 / √  n+1 ( (n + 1 ) ( )) ( )
 .. .. .. .. 
 . . . 1 n2 − n .  On a alors pour k ∈ 0, n : xk = α exp
ipkπ
− exp −
ipkπ pkπ
 /√ /√  n+1 n+1
= 2iα sin
n+1
0 ··· 0 ( −n + 1) n2 − n 1 n Il faut alors exclure le cas p = 0 car (on trouve alors e = 0.
)
  On déduit aussi λ = r + r = 2 cos

0 (0) 1 2
n+1
 . .  pour tout p ∈ [[1, n]], le vecteur
−1 t
P Jn P = PJn P =   .  Réciproquement, on vérifie aisément que
0  ( ( ) ( ) ( ))
pπ 2pπ npπ
(0) n sin , sin , · · · , sin
n+1 n+1 n+1
et donc   ( )
a−b (0) pπ
 ..  est un vecteur propre de J n associé à la valeur propre 2 cos
n+1
P−1 MP = t PMP =  
. 

a−b On a trouvé n valeurs propres deux à deux distinctes (la fonction cosinus réalise une bijec-
(0) n (a − b) + b tion de [0, π] sur [−1, 1]), il est donc inutile d’en chercher d’autres, et nous n’envisagerons
  pas le cas où l’équation caractéristique a une racine double. Jn admet n valeurs propres
0 1 (0) deux à deux distinctes, ses espaces propres sont des droites vectorielles, et, comme Jn est
 .. ..  une matrice symétrique réelle, ces droites vectorielles sont en somme directe orthogonale,
 1 . . 
b) On pose Jn =  , de sorte que M = aIn + Jn on a donc trouvé une base orthogonale de vecteurs propres. Il ne reste plus qu’a normaliser
 .. ..
. . 1  ces vecteurs.
(0) 1 0 Pour cela on calcule
Soit e = (x1 , · · · , xn ) ∈ Rn , e est un vecteur propre de Jn si et seulement si c’est un ∑n ( ) ∑ n ( ) ∑ n ( ( ))
pkπ pkπ 1 2pkπ
vecteur non nul et qu’il existe λ ∈ R tel que 2
∥e∥ = sin2
= sin2
= 1 − cos
{ n+1 n+1 2 n+1
k=1 k=0 k=0
x2 = λx1 ( )
n+1 1 ∑
n
∀k ∈ 2, n − 1, xk−1 + xk+1 = λxk 2pkπ
= − cos
xn−1 = λxn 2 2 n+1
k=0
Posons arbitrairement x0 = 0 et xn+1 = 0 , ce dernier système est alors équivalent à Comme on a pour θ ∈
/ πZ
∀k ∈ [[1, n]], xk−1 − λxk + xk+1 = 0

n ∑
n
On sait résoudre ce type de suite récurrente : son équation caractéristique est r2 −λr +1 = 2 sin (θ) cos (2kθ) = [sin ((2k + 1) θ) − sin ((2k − 1) θ)] = sin ((2n + 1) θ) + sin (θ) ,
0, k=0 k=0

7/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

on déduit Comme Jn est diagonalisable et n’est pas la matrice d’une homothétie, ces deux valeurs
sont valeurs propres de Jn
( ) ( ) ( ) ( ) Espace propre de la valeur propre 1
∑n ( ) sin (2n+1)pπ + sin pπ sin 2pπ − n+1 pπ
+ sin n+1 pπ
il admet pour équations : ∀k ∈ [[1, n]], xk = x2n−k , il est donc de dimension n , et on en
2pkπ n+1 n+1
cos = ( ) = ( ) = 0, trouve( sans
/√ difficulté une /√ ) orthonormale
base ( /√: /√ )
n+1 pπ pπ
k=0 2 sin n+1 2 sin n+1 e1 = 1 2, 0, · · · , 0, 1 2 , e2 = 0, 1 2, 0, · · · , 0, 1 2, 0 , . . . ,
( /√ /√ )
n+1 en = 0, · · · , 0, 1 2, 1 2, 0, · · · , 0
2
et enfin∥e∥ = Espace propre de la valeur propre −1
2
En résumé, si, pour p ∈ [[1, n]] il admet pour équations : ∀k ∈ [[1, n]], xk = −x2n−k , il est donc de dimension n , et on en
√ ( ( ) ( ) ( )) ( /√
trouve sans difficulté une base /√orthonormale
) (: /√ /√ )
2 pπ 2pπ npπ en+1 = 1 2, 0, · · · , 0, −1 2 , en+2 = 0, 1 2, 0, · · · , 0, −1 2, 0 , . . . ,
ep = sin , sin , · · · , sin , ( /√ /√ )
n+1 n+1 n+1 n+1
e2n = 0, · · · , 0, 1 2, −1 2, 0, · · · , 0
 1 
la famille (e1 , · · · , en ) est
( un base
) orthonormale de vecteurs propres de J n , e p étant associé √ In
1
√ Jn
pπ  
à la valeur propre 2 cos . Donc en posant P =  12 2
1 , P est une matrice orthogonale et on a
[√ n + 1 ( )] √ Jn − √ In
2 klπ 2 2
C’est-à-dire que P = sin est une matrice orthogonale (et symé- [ ]
n+1 n + 1 1⩽k⩽n −1 t In (0)
P J P = PJ P = ,
1⩽l⩽n 2n 2n
(0) −In
trique) [ ]
et on a −1 t (a + b) In (0)
 ( )  et donc P MP = PMP = .
(0) (a − b) In
π
 2 cos n + 1 (0) 
 
−1  .  Ex 23 b
P Jn P = PJn P = PJn P = 
t
.. 
 ( )  Déterminer l’ensemble des matrices A ∈ Mn (R) qui commutent avec toutes les matrices
 nπ  symétriques
(0) 2 cos
n+1
Sol. 23) : (on prend ) M diagonale à valeurs propres distinctes d’où A est diagonale,
et donc 0 1
puis avec on montre que toutes les valeurs propres de A sont égales : A est
 ( )  1 0
π donc une homothétie.
 a + 2b cos n + 1 (0) 
 
 
P−1 MP = t PMP = PMP =  ..
. 
 ( ) 
 nπ 
(0) a + 2b cos
n+1
Exercices d’approfondissement
[ ] Ex 24 b
(0) 1
c) On pose J2n = . .. de sorte que M = aI2n + bJ2n Déterminant de Gram
1 (0) Soit E un espace préhilbertien et (x1 , ..., xp ) une famille de vecteurs de E. Nous noterons
G(x1 , ..., xp ) le déterminant de Gram :
On remarque que J22n = I2n , J2n est une symétrie, ses valeurs propres appartiennent à
l’ensemble {−1, 1} G(x1 , ..., xp ) = det (< xi , xj >)1⩽i,j⩽p

8/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

1) Montrer que G(x1 , ..., xp ) est nul si et seulement si (x1 , ..., xp ) est liée. u est défini positif, c’est-à-dire que ∀k λk > 0, en particulier u est inversible et u−1 (ek ) =
2) Soit F un sous-espace vectoriel de E de dimension p et (e1 , ..., ep ) une base de F. 1 ek
Montrer que l’on a λk
G(e , . . . , e , x) ∑ n
Donc < u−1 (x), x >= λ−1
1 p
∀x ∈ E, d2 (x, F) = 2
k xk .
G(e1 , ..., ep )
k=1
Ecrivons pour ∥x∥ = 1,
Sol. 24) :
( n )( n ) ( n (√ )( )
1) si la famille (xi ) est liée alors un des vecteurs est combinaison linéaire des autres et ∑ ∑ ∑ √ ) 2
−1 −1 2 −1
une colonne de la matrice de Gram est combinaison des autres donc le déterminant < u(x), x >< u (x), x >= 2
λ k xk λi xi ⩾ λk xk λ k xk =
C-Schwarz
est nul. k=1 i=1 k=1
Réciproquement, si la famille (xi ) est libre alors elle forme une base. D’après le
procédé de Gram-Schmidt, il existe une b.o.n. (ei ) telle que Le minorant 1 étant "trivialement" atteint pour x égal à l’un des ek , on conclut
(e )
P(xii ) = triangulaire supérieure avec éléments diagonaux > 0. min < u(x), x >< u−1 (x), x >= 1
( )−1 ∥x∥=1
(e ) (x )
Etudions plutôt M = P(xii ) = P(eii) = (< xj , ei >)1⩽i,j⩽p = (aij )1⩽i,j⩽p . On
remarque comme dans le cours que G = (< xi , xj >)1⩽i,j⩽p = t MM
2 Ex 26 b
Finalement det G = (det M) > 0, en particulier non nul. Racine carrée d’une matrice symétrique positive, décomposition OS
2
Ainsi (et dans tous les cas), det G = ([x1 , · · · , xn ]) ([· · · ] = produit mixte) On dit qu’une matrice S ∈ Sn (R) est positive si et seulement si ∀X ∈ Mn,1 (R) , t XSX ⩾ 0
On dit qu’elle est définie positive si et seulement si ∀X ∈ Mn,1 (R) \ {0} , t XSX > 0 .
2
2) d2 (x, F) = ∥x − pF (x)∥ mais
1) Soit S ∈ Sn (R) , montrer que S est positive [resp. définie positive] si et seulement si
d’après a)
toutes ses valeurs propres sont positives [resp. strictement positives].
G(e1 , . . . , ep , x) = G(e1 , . . . , ep , x − pF (x)) 2) Soit S ∈ Sn (R) positive. Montrer qu’il existe une unique matrice R symétrique
(< ei , ej >1⩽i,j⩽p ) 0 2 positive telle que R2 = S.
= 2 = ∥x − pF (x)∥ × G(e1 , ..., ep )
0 ∥x − pF (x)∥ 3) Soit M ∈ GLn (R), montrer que t MM est symétrique définie positive
En déduire qu’il existe une unique matrice orthogonale O et une unique matrice
symétrique positive S telles que M = OS .
Ex 25 b
Soit u un endomorphisme symétrique tel que Sp(u) ⊂ R+∗ (endomorphisme symétrique Sol. 26) : 1) Supposons S positive, soit X un vecteur propre de S associé à la valeur
défini positif) d’un espace euclidien E. Calculer propre λ
2
on a alors t XSX = t XλX = λt XX = λ ∥X∥ ⩾ 0, d’où λ ⩾ 0.
−1
min < u(x), x >< u (x), x > Supposons S strictement positive, soit X un vecteur propre de S associé à la valeur propre
∥x∥=1 λ.
2
on a alors t XSX = t XλX = λt XX = λ ∥X∥ > 0, d’où λ > 0 , puisque X étant un vecteur
propre est un vecteur non nul.
Sol. 25) : Soit (ek ) un b.o.n. de diagonalisation de u (valeurs propres associées (λk )). On Supposons que toutes les valeurs propres de S soient ⩾ 0, notons (X , · · · , X ) une base
1 n
a orthonormée de vecteurs propres associés au valeurs propres λ1 , · · · , λn positives.
∑n ∑ n ∑n
Soit X = α1 X1 + · · · + αn Xn , décomposé selon la base orthonormée de vecteurs propres,
si x = xk ek alors u(x) = xk λk ek donc < u(x), x >= λk · x2k
on a alors
k=1 k=1 k=1
t
XSX = (α1 X1 + · · · + αn Xn |α1 λ1 X1 + · · · + αn λn Xn ) = α12 λ1 + · · · + αn2 λn ⩾ 0

9/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

Supposons que toutes les valeurs propres de S soient > 0, notons (X1 , · · · , Xn ) une base Sol. 27) :
orthonormée de vecteurs propres associés au valeurs propres λ1 , · · · , λn strictement posi-
1) t AA est une matrice symétrique réelle donc elle est diagonalisable.
tives
Soit X = α1 X1 + · · · + αn Xn ̸= 0 , décomposé selon la base orthonormée de vecteurs 2) On a t AA − In = A donc A est diagonalisable mais, mieux, elle est aussi symétrique
propres, on a alors réelle.
3) On a donc A = A−1 + In d’où
t
XSX = (α1 X1 + · · · + αn Xn |α1 λ1 X1 + · · · + αn λn Xn ) = α12 λ1 + · · · + αn2 λn > 0, A2 − A − In = 0.
puisque les λi sont strictement positives, et que l’un au moins des αi est non nul. 4) Si λ ∈ Sp(A) alors λ2 − λ − 1 = 0.
2) Unicité Soit u l’endomorphisme de Rn de matrice S dans la base canonique, et v un 1 1√
endomorphisme symétrique positif tel que v 2 = u. Donc λ = ± 5.
2 2
Alors u et v commutent, donc les espaces propres de u sont v− stables Conclusion : comme Sp(A) n’est pas un singleton,
⊥ ⊥
Soit Rn = F1 ⊕ · · · ⊕ Fp la décomposition de Rn en somme directe orthogonale d’espaces { }
propres, Fk étant associé à la valeur propre λk . 1√ 1 1 1√
Sp(A) = 5+ , − 5 .
On a alors vFk est un endomorphisme symétrique positif (immédiat), donc est diagonali- 2 2 2 2
sable dans une base orthonormée de vecteurs propres
Dans √cette base on a matBk (vFk ) = diag (µ1 , · · · , µnk ) , avec µi ⩾ 0 , et µ2i = λk , d’où
µi = λ k Ex 28 b

et ce pour tout i ∈ [[1, nk ]] , ce qui montre que vFk est l’homothétie de rapport λk , ce Soit u un endomorphisme symétrique d’un espace euclidien E. On note λ et µ la plus
qui montre l’unicité des vFk et par suite celle de v. petite et la plus grande valeur propre en valeur absolue de u.
Existence cet endomorphisme v convient. Montrer que ∀x ∈ E |λ| ∥x∥⩽∥u(x)∥⩽ |µ| ∥x∥.
2
3) On a pour tout X non nul, t Xt MMX = ∥MX∥ > 0 puisque M est inversible. Sol. 28) : u diagonalise dans une b.o.n. (ek ).
Unicité Si M = OS , alors MM = S OOS = SS = S2 ( t OO = In et t S = S ), ce qui
t t t t
∑n ∑
n
montre l’unicité de S. Soit x ∈ E, x = xk ek , u(x) = λk xk · ek
Comme M = OS est inversible, S l’est aussi, d’où l’unicité de O = MS−1 . k=1 k=1
Existence t MM étant symétrique positive admet une « racine carrée » symétrique positive 2
∑ ∑
n
d’après le 2), notons-la S, comme M est inversible, t MM l’est aussi, et comme t MM = S2 , < u(x), u(x) >= ∥u(x)∥ = λi λj xi xj < ei , ej >= λ2i · x2i donc
S est aussi inversible. (i,j n ) i=1
( n )
Notons alors O = MS−1 . On a t OO = t S−1t MMS−1 = S−1 S2 S−1 = In , ce qui montre que ∑ ∑
2
O ∈ On (R) , et le résultat. min(λ2i ) x2i ⩽ ∥u(x)∥ ⩽ max(λ2i ) x2i
i=1 i=1

donc λ∥x∥⩽∥u(x)∥⩽µ∥x∥.
Ex 27 b
Soit A ∈ Mn (R) inversible telle que
Ex 29 b
t
A = A−1 + In . Soit (aij )1⩽i,j⩽n une matrice symétrique réelle d’ordre n de valeurs propres λ1 , · · · , λn
∑ ∑
n
1) Montrer que t AA est diagonalisable. (comptées avec leur ordre de multiplicité). Montrer que a2ij = λ2k .
2) En déduire que A est diagonalisable. 1⩽i,j⩽n k=1

3) Déterminer un polynôme annulateur de A (un polynôme P tel que P(A) = 0). ∑ ∑


n
4) On suppose que A n’est pas une homothétie. Déterminer le spectre de A. Sol. 29) : tr(t AA) = a2ij = tr(A2 ) = λ2k .
1⩽i,j⩽n k=1

10/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

Ex 30 b ∥MX∥ √ t
On a montré : ∀X ∈ Mn,1 (R) \ {0} , ⩽ ρ ( MM) et
Soient A et B sont deux matrices symétriques (réelles), est-il vrai que ∥X∥

Sp(A + B) ⊂ [min Sp A + min Sp B, max Sp A + max Sp B] ? ∥MX∥ √ t


∃X ∈ Mn,1 (R) \ {0} , = ρ ( MM),
∥X∥
t t
Indication : montrer que sup XSX = max Sp(S) et inf XSX = min Sp(S) pour
∥X∥=1 ∥X∥=1
d’où :
S ∈ Sn (R). ∥MX∥ √ t
sup = ρ ( MM).
X∈Mn,1 (R)\{0} ∥X∥
Sol. 30) : Vrai car pour X de norme 1, t X(A + B)X = t XAX+ t XBX ∈ [min Sp A +
min Sp B, max Sp A + max Sp B]
et on sait que Sp(A + B) ⊂ {t X(A + B)X, ∥X∥ = 1}, donc c’est bon !
Ex 32 b
Décomposition QR(= OT)
Soit M ∈ GLn (R). Montrer qu’il existe une unique matrice orthogonale O et une unique
Ex 31 b matrice triangulaire supérieure T dont les coefficients diagonaux sont strictement positifs
K Un classique tels que M = OT.
On appelle rayon spectral d’une matrice M ∈ Mn (C) le réel positif ρ (M) = max |λ|
λ∈sp(M)
Soit M ∈ Mn (R) , Mn,1 (R) étant identifié à Rn et muni de la norme euclidienne canonique Sol. 32) : Notons B la base canonique de Rn et pour tout O ∈ On (R), BO [resp. BM ] la
∥·∥ base des vecteurs colonnes de O [resp. de M]
∥MX∥ √ t On a alors en notant T = O−1 M, et donc T = matBO (BM ) .
Montrer : sup = ρ ( MM) Le problème revient donc à chercher, étant donnée une base BM = (e1 , · · · , en ) , une
X∈Mn,1 (R)\{0} ∥X∥ base orthonormale BO = (ε1 , · · · , εn ) telle que matBO (BM ) est triangulaire supérieure à
coefficients diagonaux non nuls
Sol. 31) : Il est immédiat que t MM est une matrice symétrique, notons donc (X1 , · · · , Xn ) c’est-à-dire ∀k ∈ [[1, n]], Vect (e1 , · · · , ek ) = Vect (ε1 , · · · , εk ) et ces coefficients diagonaux
une base orthonormée de Mn,1 (R) constituée de vecteurs propres de t MM , sont positifs, c’est-à-dire que la k− ième coordonnée de ek dans la base BO = (ε1 , · · · , εn )
c’est-à-dire : ∀k ∈ [[1, n]], t MMXk = λk Xk où λk ∈ R. est positive, c’est-à-dire : ∀k ∈ [[1, n]], (εk |ek ) ⩾ 0
D’une part on a : ∥MXk ∥ = t (MXk ) MXk = t Xk t MMXk = t Xk (λk Xk ) = λk ∥Xk ∥ = λk On sait que ce problème admet une solution unique : c’est le procédé d’orthonormalisation
2 2

ce qui montre (que λ)k est un réel positif, de Schmidt.


t
et donc que ρ MM est la plus grande de ces valeurs propres.
D’autre part on a pour tout X = α1 X1 + · · · + αn Xn ∈ Mn,1 (R) \ {0} :
Ex 33 K Centrale 2015
( n ) Soit E l’espace des fonctions continues f de R+ dans R telles que x 7→ f (x)2 e−x soit
2
∑ ∑n
intégrable sur R+ . On munit E du produit scalaire défini par :
∥MX∥ = t Xt MMX = αk Xk αk λk Xk
k=1 k=1 ∫ +∞

n
(t ) ∑n
(t ) ∀(f, g) ∈ E 2
, ⟨f, g⟩ = f (x)g(x)e−x dx
2
= λk αk ⩽ ρ MM
2
αk = ρ MM ∥X∥
2 0
k=1 k=1
Pour n ∈ N, soit Ln la fonction
) (t
Enfin on a si X est un vecteur propre de la valeur propre ρ MM : ex dn −x n
x 7→ (e x ).
2 ( ( ) ) ( ) 2 n! dxn
∥MX∥ = X ρ t MM X = ρ t MM ∥X∥
1) Justifier que E contient les fonctions polynomiales et que Ln est une fonction poly-
nomiale de degré n dont on indiquera le coefficient dominant et le terme constant.

11/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

2) Montrer que (Ln )n∈N est une famille orthonormale de E. On en déduit par récurrence Jn = n!J0 = n!, d’où In,n = (−1)n (n!)2 .
3) Soit n ∈ N∗ . Montrer qu’il existe (an , bn , cn ) ∈ R3 tels que : Cela entraîne que pour tout p < n, (Ln | Xp ) = 0, donc par linéarité, Ln est ortho-
gonal à Rn−1 [X], donc en particulier à Lp pour tout p < n.
XLn = an Ln+1 + bn Ln + cn Ln−1 . Déterminer an (−1)n (−1)n
Comme le coefficient dominant de Ln est , on a ⟨Ln , Ln ⟩ = ⟨Ln , Xn ⟩ =
n! n!
4) Pour a ∈ R, soit fa : x 7→ e−ax . À quelle condition a-t-on fa ∈ E ? Cette condition (−1)n
In,n = 1.
étant supposée réalisée, calculer (n!)2
On a bien montré que (Ln )n∈N est une famille orthonormale de E.

+∞
⟨fa , Ln ⟩2 − ⟨fa , fa ⟩. 3) Comme XLn est de degré n + 1 et que (Lk )0⩽k⩽n est une base orthonormale de
n=0
Rn+1 [X],

n+1
Que peut-on en conclure ? on a XLn = ⟨XLn , Lk ⟩Lk .
k=0
Sol. 33) : 1) Si P ∈ R[X), alors 2
lim x P(x) e 2 −x
= 0, donc x 7→ P (x)e
2 −x
est inté- On remarque que ⟨XLn , Lk ⟩ = ⟨Ln , XLk ⟩, donc si k ⩽ n − 2, alors XLk ∈ Rn−1 [X]
x→+∞ d’où ⟨XLn , Lk ⟩ = 0.
grable sur R+ . En utilisant la formule de Leibniz, on obtient
En remplaçant, on obtient XLn = an Ln+1 +bn Ln +cn Ln avec an = ⟨XLn , Ln+1 ⟩, bn =
n ( ) ⟨XLn , Ln ⟩ et cn = ⟨XLn , Ln−1 ⟩.
ex ∑ n ∑
n
n!
Ln (x) = (−1)k e−x n(n − 1) · · · (k + 1)xk = (−1)k xk . Comme le coefficient dominant de Ln est égal à (−1)n /n!, le polynôme n!XLn + (n +
n! k (k!) (n − k)!
2
1)!Ln+1 est de degré inférieur ou égal à n, donc son produit scalaire par Ln+1 est
k=0 k=0
nul, d’où n!an + (n + 1)! = 0, d’où an = −(n + 1).
On en déduit que Ln est une fonction polynomiale de degré n, de coefficient dominant
(−1)n /n! et de terme constant égal à 1. 4) La fonction fa appartient à E si et seulement si x 7→ e−(2a+1)x est intégrable sur R+ ,
∫ c’est-à-dire a > −1/2.
1 +∞ p dn −x n ∫ +∞
2) On remarque que pour p ⩽ n, ⟨Ln , X ⟩ = p 1
n! 0
x
dxn
(e x )dx. On a d’une part ⟨fa , fa ⟩ = e−(2a+1)x dx = et d’autre part
∫ +∞ 0 2a +1
dk ∫
Posons pour k et j entiers naturels tels que j ⩽ k ⩽ n, Ikj = xj k (e−x xn )dx. +∞
dn n −x
0 dx n!⟨fa , Ln ⟩ = e−ax (x e ) dx
[ k−1 ]+∞ dxn
d [
0
]+∞
En intégrant par parties, on obtient Ikj = (e−x xn )xj − jIk−1,j−1 . n−1 ∫ +∞ n−1
dxk−1 −ax d n −x −ax d
0 = e (x e ) + a e (xn e−x ) dx
Le crochet a pour limite 0 en +∞ et est nul en 0 car il reste une puissance de x dxn−1 0 0 dxn−1
quand on dérive k − 1 fois e−x xn .
On en déduit que Ik,j = −jIk−1,j−1 , donc par récurrence, en intégrant par parties. Le premier crochet est nul. En poursuivant les intégrations
∫ +∞ n−p par parties, de la même façon qu’à la question 2), on obtient
d
p
In,p = (−1) p!In−p,0 = (−1) p
(e−x xn ) dx. ∫
0 dxn−p +∞

Si p < n, alors In,p = 0 car la dérivée (n − p − 1)ème de e−x xn s’annule en 0 et tend n!⟨fa , Ln ⟩ = a
n
e−ax xn e−x dx
0
vers 0 en +∞. ∫ +∞ ∫ +∞
n
Si p = n, alors In,n = (−1) n!Jn , où Jn = e−x xn dx. an
Après le changement de variables t = (a+1)x, on aboutit à tn e−t dt.
0
∫ +∞ (a + 1)n+1 0
[ ]+∞ an
En intégrant par parties, on obtient Jn = −e−x xn 0 + n e−x xn−1 dx = Cette dernière intégrale a été calculée plus haut et vaut n!, d’où ⟨fa , Ln ⟩ = .
0 (a + 1)n+1
nJn−1 .

12/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé

On en déduit que


+∞ ∞ (
∑ )2n
1 a 1
⟨fa , Ln ⟩ − ⟨fa , fa ⟩ =
2
2

n=0
(a + 1) n=0 a + 1 2a + 1
1 1 1
= − =0
(a + 1)2 1 − (a+1)
a2
2
2a +1

Par conséquent, d(fa , Rn [X]) −−−−→ 0, autrement dit fa appartient à l’adhérence de


n→∞
R[X] dans E muni de la norme préhilbertienne étudiée.

13/13 M. Rezzouk

Vous aimerez peut-être aussi