13 Algbil Cor
13 Algbil Cor
Algèbre bilinéaire Sol. 4) : 1) La bilinéarité, la symétrie et la positivité se prouvent de façon simple. Soit
∑n
P ∈ E tel que φ(P, P) = P2 (k) = 0. Puisque P2 est à valeurs réelles, cela donne
Exercices d’application k=0
P(k) = 0 pour tout k ∈ [[0, n]].
∫ Le polynôme P admet donc au moins n + 1 racines. Or il est de degré au plus n, il
+∞
est donc nul.
e−x · P (x) · Q (x) dx définit un produit
2
Ex 1 Montrer que φ : (P, Q) 7→ ⟨P | Q⟩ =
−∞ L’application φ est bien un produit scalaire.
scalaire sur R [X]. 2) Attention, le produit scalaire change avec n.
On applique la méthode de Gram-Schmidt à la base de R2 [X] formée par les poly-
Sol. 1) : Ne pas oublier la continuité pour montrer le caractère défini positif.
nômes P0 = 1, P1 = X et P2 = X2 .
∑
2
1
Ex 2
∗
Soit x1 , x2 , ..., xn , n ∈ N , des réels strictement positifs de somme 1. Montrer • On a F0 = P0 avec ∥F0 ∥2 = P20 (k) = 3, d’où Q0 = √ (le polynôme P0 est
∑n k=0
3
1
qu’alors ⩾ n2 . le polynôme constant 1, mais il est normé pour le produit scalaire considéré).
xk
k=1 P′1 φ(F0 , P1 )
• On obtient ensuite Q1 = où F1 = P1 − 2 F0 = X − 1
Sol. 2) : C’est du Cauchy-Schwarz : ∥P′1 ∥ ∥F0 ∥
( n )2 ( n )( n )
∑ ∑ ∑ 1 X−1
1 ⩽ xk . Calculons ∥F1 ∥2 = (0 − 1)2 + (1 − 1)2 + (2 − 1)2 = 2, ce qui donne Q1 = √
xk 2
k=1 k=1 k=1
P′2 φ(F0 , P2 ) φ(F1 , P2 )
• On a enfin Q2 = ′ où F2 = P2 − F0 − 2 F1 . On obtient
∥P2 ∥ ∥F0 ∥
2
∥F1 ∥
Ex 3 Dans l’espace vectoriel R4 muni de son produit scalaire canonique, on considère 1
F2 = X2 − 2X + .
v = (0, 3, 1, −1) et w = (1, 2, −1, 1). Soit F = Vect(v, w) 3
√ ( )
Déterminer une base orthonormale de F⊥ 2 3 1
Par calcul, ∥F2 ∥ = et donc Q2 =
2
X − 2X +
2
Sol. 3) : (x, y, z, t) ∈ F⊥ ⇔ ( 3y + z − t = 0 et x + 2y − z + t = 0) 3 2 3
d’où une base (0, 0, 1, 1) et (−5, 1, 0, 3) √ ( √ ( ))
1 2 3 3 1 X−1 3 1
par le procédé de Schmidt : √ (0, 0, 1, 1) et √ (−5, 1, , ) forment un bon de F⊥ . La famille √ , √ , X − 2X +
2
est une base orthonormée de R2 [X]
2 61 2 2 3 2 2 3
pour le produit scalaire considéré.
Ex 4
∑
n Ex 5 Montrer que (A, B) 7→ tr(tAB) est un produit scalaire sur Mn (R)
1) Montrer que l’application φ : (P, Q) 7→ P(k)Q(k) définit un produit scalaire sur 1) La base canonique de Mn (R) est-elle orthonormale vis-à-vis de ce produit scalaire ?
k=0
2) Montrer que l’ensemble des matrices symétriques Sn (R) et l’ensemble des matrices
Rn [X].
antisymétriques An (R) sont des sous-espaces supplémentaires orthogonaux pour ce
2) Pour n = 2, construire une base orthonormale à partir de la base (1, X, X2 ). produit scalaire.
3) Déterminer la projection orthogonale d’une matrice M ∈ Mn (R) sur An (R).
4) Déterminer d(M, An (R)).
1/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
∑ ( 2 )n
Sol. 5) : trivial, résultat du cours. tr(tAB) = aij bij et la base canonique est Sol. 7) : Soit ∫Rn = x − 1
1 n
(i,j)∈[[1,n]]2 d Rn dp Rp
Pour calculer n . dx avec n ⩾ p, on effectue des intégrations par partie suc-
bien une bon. −1 dx dxp
la suite est immédiate cessives.
1 t dk Rp
en particulier pAn (R) (M) = (M− M). Au début les crochets sont nuls car 1 et −1 sont racines d’ordres p − k pour (k ∈
2 dxk
Pour la dernière question, c’est le principe des moindres carrés [[1, p]]).
d(M, An (R)) = inf ∥M − A∥ = M − pAn (R) (M) On a ainsi,
M∈An (R)
√ ∫ 1 n ∫ 1 n−1 ∫ 1 n−p
1 1 ∑ d Rn dp Rp d Rn dp+1 Rp d Rn d2p Rp
= t
(M + M) = 2
(mi,j + mj,i ) . n . dx = − . dx = · · · = (−1) p
n−p . dx
2 2 i,j −1 dx dxp −1 dx
n−1
dxp+1 −1 dx dx2p
Si n > p, on continue une fois de plus l’intégration par partie et on obtient
Ex 6 Soient U un vecteur unitaire de R et A = In − 2U U.
n t ∫ 1 n ∫ 1 n−p
d Rn dp Rp p+1 d Rn d2p+1 Rp
Montrer que A est orthogonale et déterminer la nature de l’endomorphisme canoniquement n . p dx = (−1) n−p . 2p+1 dx = 0.
associé. −1 dx dx −1 dx |dx{z }
=0
Sol. 6) : La matrice A est symétrique car tA = In − 2t(UtU) = A. On a donc tAA = A2 .
Par ailleurs, on a A = (In − 2U U) = In − 4U U + 4U UU U. Or UU = 1, si bien que Si n = p, alors
2 t 2 t t t t
2/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
3/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
∫ 1
Ex 12 Dans Rn [X], avec le produit scalaire (P | Q) = P (t) Q (t) dt, soit 0 0 0 0
−1 0 2 0 0
0 0 6 0
( )
f : P 7−→ 2XP′ + X2 − 1 P′′ . 0 0 0 12
Montrer que f est un endomorphisme symétrique de Rn [X], et donner ses éléments propres
quand n = 3.
Ex 13 Soit f un endomorphisme symétrique d’un espace euclidien E de dimension n, tel
Sol. 12) : Pour tout (P, Q) ∈ (Rn [X]) , écrivons2 qu’il existe un entier naturel k vérifiant f k = id. Montrer alors que f est une symétrie
orthogonale.
∫ 1
( ( ) )
(f (P) | Q) = 2tP′ (t) + t2 − 1 P′′ (t) Q (t) dt. Sol. 13) : f est diagonalisable en base orthonormale et ses valeurs propres vérifient λk = 1
−1
donc Sp(f ) ⊂ {−1, 1}.
1 ( ∫ Un endomorphisme diagonalisable avec des valeurs propres parmi −1 et 1 est une symétrie.
)
Une intégration par partie sur t2 − 1 P′′ (t)Q (t) dt donne : Comme l’endomorphisme est symétrique, la symétrie est orthogonale (résultat de cours,
( ) −1 ( ) tout simplement les sous-espaces propres E−1 et E1 sont orthogonaux, f ∈ {− id, id}, cas
P′′ ← P′ et t2 − 1 Q (t) → 2tQ(t) + t2 − 1 Q′ donc marginal).
∫ ∫
1 ( ) 1 [ ]
t − 1 P′′ (t)Q (t) dt = −
2
2tP′ (t)Q (t) + (t2 − 1)P′ (t)Q′ (t) dt.
−1 −1
∑
Il vient Ex 14 Soit M = (aij )1⩽i,j⩽n une matrice orthogonale. Montrer que aij ⩽n.
1⩽i,j⩽n
∫ ∫
1 ( ( ) ) 1
(on pourra écrire aij comme produit scalaire)
2tP′ (t) + t2 − 1 P′′ (t) Q (t) dt = − (t2 − 1)P′ (t)Q′ (t)dt.
−1 −1
∑ ∑
n
Le caractère symétrique est alors immédiat en échangeant le rôle de P et de Q. Sol. 14) : aij =< u(ej ), ei > donc aij =< u(X), X > avec X = ei
Pour n = 3, on peut faire tous les calculs, voici les résultat avec Maple. 1⩽i,j⩽n i=1
> restart:with(linalg):n:=3; ∑ 2
d’où aij ⩽ ∥u(X)∥ ∥X∥ = ∥X∥ = n.
n := 3
1⩽i,j⩽n
> phi:=P->2*X*diff(P,X)+(X^2-1)*diff(P,X,X);
∂ ∂2
φ := P → 2 X ( P) + (X2 − 1) ( 2 P)
∂X ∂X Ex 15 Soit A ∈ Mn (R).
> M:=matrix(n+1,n+1,(i,j)->coeff(phi(X^(j-1)),X,i-1));
1) Montrer que tAA = 0 si et seulement si A = 0.
0 0 −2 0
0 2 0 −6 2) Montrer que AtAA = A implique (tAA)2 = tAA. Montrer la réciproque, en simplifiant
M :=
0 BB où B = AtAA − A.
t
0 0 6
0 0 0 12
> eigenvects(M); Sol. 15) : 1) Si A = 0, alors on a directement AtA = 0.
[ ] Supposons que tAA = 0. Considérons un vecteur X quelconque dans Mn1 (R).
−5
[6, 1, {[1, 0, −3, 0]}], [12, 1, { 0, 1, 0, }], [2, 1, {[0, 1, 0, 0]}], [0, 1, {[1, 0, 0, 0]}] Afin de faire apparaître une norme, on calcule tXtAAX = t(AX)(AX) = ∥AX∥2 = 0.
3
Ainsi, pour tout vecteur colonne X, on a AX = 0 et la matrice A est donc nulle.
> jordan(M,P);
4/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
( ) ⊥
2) Pour le sens direct, on a (tAA)2 = tA AtAA = tAA. Pour la réciproque, on calcule Sol. 18) : On considère < A, B >= tr( t AB) alors M (R) = S ⊕ ASn
n n
t
comme demandé BB et on obtient donc
( ) ∑
t
BB = (tAAtA − tA)(AtAA − A) = tAAtAAtAA − 2tAAtAA + tAA = 0, inf
2
(aij − mij )2 = min ∥A − M∥ = d(A, Sn )2
M∈Sn M∈Sn
1⩽i,j⩽n
en utilisant (tAA)2 = tAA. La matrice C = tBB est nulle. D’après la question précé-
1∑
2
dente, cela implique que B est nulle. 2A − tA
= ∥pASn (A)∥ = = (aij − aji )2
On a donc l’équivalence entre AtAA = A et (tAA)2 = tAA. 2 4
i̸=j
Ex 16 Soit A ∈ Mn (R) telle que la matrice B = A A − A A ait toutes ses valeurs propres
t t
positives. Montrer que B = 0. Ex 19 Soit (a, b) ∈ R2 tel que a(< b, et f : [a, b]) → R continue, positive, et non nulle.
∫ b
Sol. 16) : Comme tB = A tA − tA A = B, la matrice B est symétrique et réelle. Montrer que la matrice M = ti+j f (t) dt est symétrique définie positive,
Elle est donc diagonalisable dans une base orthonormée avec, d’après l’énoncé, des valeurs a
1⩽i,j⩽n
propres toutes positives. c’est-à-dire : pour tout X ∈ Rn
− {0} t
XMX > 0.
Or tr B = tr(A A) − tr( A A) = 0 est la somme des valeurs propres.
t t
Les valeurs propres sont donc toutes nulles et B est semblable à la matrice nulle donc B Sol. 19) : c’est une matrice symétrique, c’est (< Xi , Xj >) dans le produit scalaire adapté
est nulle.
dans Vect(X, · · · , Xn )
Montrons que les valeurs propres de la matrice M sont strictement positifs, ou ce qui
revient au même :
Ex 17 Soit A ∈ Sn (R) et B = A . Montrer qu’il existe un polynôme P tel que A = P(B).
3
∀X ∈ Rn − {0} t XMX > 0 :
Sol. 17) : La matrice A est symétrique réelle donc A est diagonalisable. ∑ ∫ b ∫ b (∑n
)2
t t
Il existe donc Q ∈ On (R) telle que Q−1 AQ soit la matrice diagonale D, de diagonale les si X = (x1 , ..., xn ) alors XMX = xi xj ti+j f (t) dt = xi ti f (t)dt > 0
a a
réels λ1 , . . . , λn . i,j i=1
On a B = A3 = QD3 Q−1 et si P ∈ R[X] alors P(B) = QP(D3 )Q−1 . 2
donc si X est un vecteur propre : t XMX = λ ∥X∥can. et c’est fini !
La question revient à chercher un polynôme P tel que P(D3 ) = D, c’est-à-dire tel que,
pour tout i ∈ [[1, n]], P(λ3i ) = λi .
Notons µ1 , . . . , µm les valeurs propres distinctes de A. Ex 20 b
On cherche donc un polynôme P tel que, pour tout i ∈ [[1, m]], P(µ3i ) = µi . Soit E un espace euclidien. Soit v un endomorphisme symétrique positif de E c’est-à-dire
Les réels µ1 , . . . , µm sont deux à deux distincts, donc les réels µ31 , . . . , µ3m le sont également tel que Sp(u) ⊂ R+ (en plus d’être symétrique).
(x 7→ x3 est une bijection de R sur R). 1) Montrer qu’il existe un endomorphisme symétrique positif w tel que w2 = v.
On peut alors considérer les polynômes interpolateurs de Lagrange aux points µ31 , . . . , µ3m .
Il existe un unique polynôme P de degré au plus m − 1 tel que, pour tout i ∈ [[1, m]], 2) Soit λ un réel positif et h un endomorphisme symétrique positif de E. Montrer que
3
P(µi ) = µi . Ker (h − λ idE ) = Ker (h2 − λ2 idE ).
Ce polynôme donne alors P(B) = A. 3) En déduire que w est unique.
5/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
2) • L’inclusion Ker (h − λ idE ) ⊂ Ker (h2 − λ2 idE ) est évidente. d’après l’hypothèse de récurrence ils sont simultanément diagonalisables dans une base
• Posons F = Ker (h − λ idE ). Comme h commute avec h − λ idE , F est stable
2 2 2 2 orthonormale BF de F
par h, et h|F est symétrique donc diagonalisable dans une base orthonormale la base B obtenue par concaténation des bases BF pour tous les espaces propres de un+1
B de F. diagonalise alors simultanément tous les ui ( 1 ⩽ i ⩽ n + 1 ) : les Ai sont donc diagonali-
sables au moyen de la même matrice orthogonale
Il existe des réels positifs α1 , . . . , αp tels que la matrice de h|F dans B soit égale
à diag(α1 , . . . , αp ).
Troisième( cas : I)quelconque. Comme dim (Sn (R)) ∈ N , il existe une base B = (B1 , · · · , Bn )
de Vect (Ai )i∈I , sous-famille des Ai (de toute famille génératrice d’un espace vectoriel
Or (h|F )2 = λ2 id, donc ∀i, αi2 = λ2 , d’où αi = λ car ils sont positifs. Il en on peut extraire une base), d’après ce qui précède il existe alors une matrice orthogonale
F
résulte que h|F = λ id, donc que F ⊂ Ker (h − λ idE ). diagonalisant simultanément les Bi , et il est immédiat que cette base diagonalise tous les
F Ai , par combinaison linéaire.
3) Soit h un endomorphisme symétrique positif tel que h2 = v. Soit λ une valeur propre 2) Notons Q ∈ On (R) diagonalisant simultanément les Ai , et, pour i ∈ I , Q−1 Ai Q =
de v. √ √ diag (λi,1 , · · · , λi,p )
D’après 2), Ker (h − λ idE ) = Ker (v − λ idE ) = Ker (w − λ idE ). Notons ∆ = diag (1, · · · , p) . Soit i ∈ I , d’après le théorème d’interpolation de Lagrange
On en déduit que h et w coïncident sur chaque sous-espace propre de v, il existe Pi ∈ Rp−1 [X] tel que ∀k ∈ [[1, p]] λi,k = Pi (k) , et on a alors :
Pi (∆) = diag (Pi (1) , · · · , Pi (p)) = diag (λi,1 , · · · , λi,p ) , ce qui montre qu’avec B =
or v est diagonalisable, donc E est la somme directe des sous-espaces propres de v,
d’où h = w, ce qui démontre bien l’unicité de w. P∆P−1 , on a pour tout i ∈ I, Pi (B) = Ai
Ex 21 b Ex 22 b
Soit (Ai )i∈I une famille de matrices symétriques réelles commutant deux à deux Diagonaliser les matrices réelles suivantes au moyen d’une matrice orthogonale :
a b ··· b a b (0)
1) Montrer qu’elles sont diagonalisables au moyen de la même matrice orthogonale. . . . .. ..
(Etudier successivement les cas : I = {1, 2} , I = [[1, n]] , I quelconque ) b . . . . .. b . .
a *) . . b ***) .
2) Montrer qu’il existe B , matrice symétrique réelle, telle que ∀i ∈ I, Ai ∈ R [B] . .. ..
. . b .. ..
. . b
.
b ··· b a (0) b a
Sol. 21) : 1) si n = 2 a (0) b
Notons u1 et u2 respectivement les endomorphismes de Rp de matrices A1 et A2 dans le .. .
. ..
base canonique. A1 étant symétrique réelle, u1 est un endomorphisme symétrique, donc
c *) (0) (0) ∈ M2n (R)
u1 est diagonalisable, et ses espaces propres sont en somme directe orthogonale.
De plus, comme u2 et u1 commutent, ces espaces propres sont u2 − stables. ..
. . ..
Soit F un de ces espaces propres, et u2,F l’endomorphisme induit, u2,F est un endomor- b (0) a
phisme symétrique de F
(pour tout (x, y) ∈ F2 , on a (u2,F (x) |y ) = (u2 (x) |y ) = (x |u2 (y) ) = (x |u2,F (y) ) .) Sol. 22) : On remarque que dans les trois cas il s’agit d’une matrice symétrique réelle,
on en déduit que u2,F est diagonalisable dans une base orthonormale BF de F, et la base qui est donc diagonalisable au moyen d’une matrice orthogonale.
B obtenue par concaténation des bases BF pour tous les espaces propres de u1 diagonalise
1 ··· 1
simultanément u1 et u2 . A1 et A2 sont donc diagonalisables au moyen de la même matrice
orthogonale. a) Posons Jn = ... .. ∈ M (R), de sorte que M = (a − b) I + bJ . J est de
. n n n n
Deuxième cas : I = [[1, n]] . On raisonne par récurrence sur n , c’est immédiat pour n = 1 1 ··· 1
si c’est vrai pour n , on le montre pour n + 1 : rang 1.
les endomorphismes ui étant définis comme ci-dessus, un+1 est diagonalisable, et ses es- Son noyau, c’est-à-dire l’espace propre de la valeur propre 0 est de dimension n − 1, c’est
paces propres sont en somme directe orthogonale l’hyperplan d’équation x1 + · · · + xn = 0.
De plus, comme ui et un+1 commutent ( 1 ⩽ i ⩽ n ), ces espaces propres sont ui − stables On trouve ( /√sans trop /√ de difficulté ) une base
( /orthonormale
√ /√
de
/√cet hyperplan )
Soit F un de ces espaces propres, et ui,F les endomorphismes induit, ce sont des endomor- e1 = 1 2, −1 2, 0, · · · , 0 , e2 = 1 6, 1 6, −2 6, 0, · · · , 0 , . . . ,
phismes symétriques de F , et il commutent deux à deux, donc
6/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
( /√ /√ /√ )
en−1 = 1 n2 − n, · · · , 1 n2 − n, (−n + 1) n2 − n examinons d’abord le cas où cette équation admet deux racines distinctes r1 et r2 . On a
On complète cette base en une base orthonormale en déterminant un vecteur unitaire alors xk = αr1k + βr2k
⊥ De x0 = 0 on déduit β = −α, de e ̸= 0 on déduit α ̸= 0,
directeur de (Ker (Jn )) ( )n+1
r1
((les
/√sous-espaces
/√ propres de Jn sont en somme directe orthogonale), par exemple en = n+1 n+1
) et de xn+1 = 0 on déduit alors r1 = r2 , et donc = 1,
1 n, · · · , 1 n , ( ) 2 r
c’est effectivement un vecteur r1 2ipπ
/√ propre /√de Jn , associé à /
la√
valeur propre n
/√ et donc qu’il existe p ∈ 0, n tel que = exp .
1 2 1 6 ··· 1 n2 − n 1 n r2 n+1 ( )
/ /√ /√ /√
−1 √2 ··· n2 − n 1 n De l’équation caractéristique on déduit que r1 r2 = 1 , et donc r12 = exp
2ipπ
1 6 1 n+1
/√ ( ) ( )
. . . ipπ ipπ
On pose donc P = 0 −2 6 .. .. .. , et on a
D’où r1 = exp et r2 = exp − (ou l’inverse, mais ça revient au même)
/ √ n+1 ( (n + 1 ) ( )) ( )
.. .. .. ..
. . . 1 n2 − n . On a alors pour k ∈ 0, n : xk = α exp
ipkπ
− exp −
ipkπ pkπ
/√ /√ n+1 n+1
= 2iα sin
n+1
0 ··· 0 ( −n + 1) n2 − n 1 n Il faut alors exclure le cas p = 0 car (on trouve alors e = 0.
)
On déduit aussi λ = r + r = 2 cos
pπ
0 (0) 1 2
n+1
. . pour tout p ∈ [[1, n]], le vecteur
−1 t
P Jn P = PJn P = . Réciproquement, on vérifie aisément que
0 ( ( ) ( ) ( ))
pπ 2pπ npπ
(0) n sin , sin , · · · , sin
n+1 n+1 n+1
et donc ( )
a−b (0) pπ
.. est un vecteur propre de J n associé à la valeur propre 2 cos
n+1
P−1 MP = t PMP =
.
a−b On a trouvé n valeurs propres deux à deux distinctes (la fonction cosinus réalise une bijec-
(0) n (a − b) + b tion de [0, π] sur [−1, 1]), il est donc inutile d’en chercher d’autres, et nous n’envisagerons
pas le cas où l’équation caractéristique a une racine double. Jn admet n valeurs propres
0 1 (0) deux à deux distinctes, ses espaces propres sont des droites vectorielles, et, comme Jn est
.. .. une matrice symétrique réelle, ces droites vectorielles sont en somme directe orthogonale,
1 . .
b) On pose Jn = , de sorte que M = aIn + Jn on a donc trouvé une base orthogonale de vecteurs propres. Il ne reste plus qu’a normaliser
.. ..
. . 1 ces vecteurs.
(0) 1 0 Pour cela on calcule
Soit e = (x1 , · · · , xn ) ∈ Rn , e est un vecteur propre de Jn si et seulement si c’est un ∑n ( ) ∑ n ( ) ∑ n ( ( ))
pkπ pkπ 1 2pkπ
vecteur non nul et qu’il existe λ ∈ R tel que 2
∥e∥ = sin2
= sin2
= 1 − cos
{ n+1 n+1 2 n+1
k=1 k=0 k=0
x2 = λx1 ( )
n+1 1 ∑
n
∀k ∈ 2, n − 1, xk−1 + xk+1 = λxk 2pkπ
= − cos
xn−1 = λxn 2 2 n+1
k=0
Posons arbitrairement x0 = 0 et xn+1 = 0 , ce dernier système est alors équivalent à Comme on a pour θ ∈
/ πZ
∀k ∈ [[1, n]], xk−1 − λxk + xk+1 = 0
∑
n ∑
n
On sait résoudre ce type de suite récurrente : son équation caractéristique est r2 −λr +1 = 2 sin (θ) cos (2kθ) = [sin ((2k + 1) θ) − sin ((2k − 1) θ)] = sin ((2n + 1) θ) + sin (θ) ,
0, k=0 k=0
7/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
on déduit Comme Jn est diagonalisable et n’est pas la matrice d’une homothétie, ces deux valeurs
sont valeurs propres de Jn
( ) ( ) ( ) ( ) Espace propre de la valeur propre 1
∑n ( ) sin (2n+1)pπ + sin pπ sin 2pπ − n+1 pπ
+ sin n+1 pπ
il admet pour équations : ∀k ∈ [[1, n]], xk = x2n−k , il est donc de dimension n , et on en
2pkπ n+1 n+1
cos = ( ) = ( ) = 0, trouve( sans
/√ difficulté une /√ ) orthonormale
base ( /√: /√ )
n+1 pπ pπ
k=0 2 sin n+1 2 sin n+1 e1 = 1 2, 0, · · · , 0, 1 2 , e2 = 0, 1 2, 0, · · · , 0, 1 2, 0 , . . . ,
( /√ /√ )
n+1 en = 0, · · · , 0, 1 2, 1 2, 0, · · · , 0
2
et enfin∥e∥ = Espace propre de la valeur propre −1
2
En résumé, si, pour p ∈ [[1, n]] il admet pour équations : ∀k ∈ [[1, n]], xk = −x2n−k , il est donc de dimension n , et on en
√ ( ( ) ( ) ( )) ( /√
trouve sans difficulté une base /√orthonormale
) (: /√ /√ )
2 pπ 2pπ npπ en+1 = 1 2, 0, · · · , 0, −1 2 , en+2 = 0, 1 2, 0, · · · , 0, −1 2, 0 , . . . ,
ep = sin , sin , · · · , sin , ( /√ /√ )
n+1 n+1 n+1 n+1
e2n = 0, · · · , 0, 1 2, −1 2, 0, · · · , 0
1
la famille (e1 , · · · , en ) est
( un base
) orthonormale de vecteurs propres de J n , e p étant associé √ In
1
√ Jn
pπ
à la valeur propre 2 cos . Donc en posant P = 12 2
1 , P est une matrice orthogonale et on a
[√ n + 1 ( )] √ Jn − √ In
2 klπ 2 2
C’est-à-dire que P = sin est une matrice orthogonale (et symé- [ ]
n+1 n + 1 1⩽k⩽n −1 t In (0)
P J P = PJ P = ,
1⩽l⩽n 2n 2n
(0) −In
trique) [ ]
et on a −1 t (a + b) In (0)
( ) et donc P MP = PMP = .
(0) (a − b) In
π
2 cos n + 1 (0)
−1 . Ex 23 b
P Jn P = PJn P = PJn P =
t
..
( ) Déterminer l’ensemble des matrices A ∈ Mn (R) qui commutent avec toutes les matrices
nπ symétriques
(0) 2 cos
n+1
Sol. 23) : (on prend ) M diagonale à valeurs propres distinctes d’où A est diagonale,
et donc 0 1
puis avec on montre que toutes les valeurs propres de A sont égales : A est
( ) 1 0
π donc une homothétie.
a + 2b cos n + 1 (0)
P−1 MP = t PMP = PMP = ..
.
( )
nπ
(0) a + 2b cos
n+1
Exercices d’approfondissement
[ ] Ex 24 b
(0) 1
c) On pose J2n = . .. de sorte que M = aI2n + bJ2n Déterminant de Gram
1 (0) Soit E un espace préhilbertien et (x1 , ..., xp ) une famille de vecteurs de E. Nous noterons
G(x1 , ..., xp ) le déterminant de Gram :
On remarque que J22n = I2n , J2n est une symétrie, ses valeurs propres appartiennent à
l’ensemble {−1, 1} G(x1 , ..., xp ) = det (< xi , xj >)1⩽i,j⩽p
8/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
1) Montrer que G(x1 , ..., xp ) est nul si et seulement si (x1 , ..., xp ) est liée. u est défini positif, c’est-à-dire que ∀k λk > 0, en particulier u est inversible et u−1 (ek ) =
2) Soit F un sous-espace vectoriel de E de dimension p et (e1 , ..., ep ) une base de F. 1 ek
Montrer que l’on a λk
G(e , . . . , e , x) ∑ n
Donc < u−1 (x), x >= λ−1
1 p
∀x ∈ E, d2 (x, F) = 2
k xk .
G(e1 , ..., ep )
k=1
Ecrivons pour ∥x∥ = 1,
Sol. 24) :
( n )( n ) ( n (√ )( )
1) si la famille (xi ) est liée alors un des vecteurs est combinaison linéaire des autres et ∑ ∑ ∑ √ ) 2
−1 −1 2 −1
une colonne de la matrice de Gram est combinaison des autres donc le déterminant < u(x), x >< u (x), x >= 2
λ k xk λi xi ⩾ λk xk λ k xk =
C-Schwarz
est nul. k=1 i=1 k=1
Réciproquement, si la famille (xi ) est libre alors elle forme une base. D’après le
procédé de Gram-Schmidt, il existe une b.o.n. (ei ) telle que Le minorant 1 étant "trivialement" atteint pour x égal à l’un des ek , on conclut
(e )
P(xii ) = triangulaire supérieure avec éléments diagonaux > 0. min < u(x), x >< u−1 (x), x >= 1
( )−1 ∥x∥=1
(e ) (x )
Etudions plutôt M = P(xii ) = P(eii) = (< xj , ei >)1⩽i,j⩽p = (aij )1⩽i,j⩽p . On
remarque comme dans le cours que G = (< xi , xj >)1⩽i,j⩽p = t MM
2 Ex 26 b
Finalement det G = (det M) > 0, en particulier non nul. Racine carrée d’une matrice symétrique positive, décomposition OS
2
Ainsi (et dans tous les cas), det G = ([x1 , · · · , xn ]) ([· · · ] = produit mixte) On dit qu’une matrice S ∈ Sn (R) est positive si et seulement si ∀X ∈ Mn,1 (R) , t XSX ⩾ 0
On dit qu’elle est définie positive si et seulement si ∀X ∈ Mn,1 (R) \ {0} , t XSX > 0 .
2
2) d2 (x, F) = ∥x − pF (x)∥ mais
1) Soit S ∈ Sn (R) , montrer que S est positive [resp. définie positive] si et seulement si
d’après a)
toutes ses valeurs propres sont positives [resp. strictement positives].
G(e1 , . . . , ep , x) = G(e1 , . . . , ep , x − pF (x)) 2) Soit S ∈ Sn (R) positive. Montrer qu’il existe une unique matrice R symétrique
(< ei , ej >1⩽i,j⩽p ) 0 2 positive telle que R2 = S.
= 2 = ∥x − pF (x)∥ × G(e1 , ..., ep )
0 ∥x − pF (x)∥ 3) Soit M ∈ GLn (R), montrer que t MM est symétrique définie positive
En déduire qu’il existe une unique matrice orthogonale O et une unique matrice
symétrique positive S telles que M = OS .
Ex 25 b
Soit u un endomorphisme symétrique tel que Sp(u) ⊂ R+∗ (endomorphisme symétrique Sol. 26) : 1) Supposons S positive, soit X un vecteur propre de S associé à la valeur
défini positif) d’un espace euclidien E. Calculer propre λ
2
on a alors t XSX = t XλX = λt XX = λ ∥X∥ ⩾ 0, d’où λ ⩾ 0.
−1
min < u(x), x >< u (x), x > Supposons S strictement positive, soit X un vecteur propre de S associé à la valeur propre
∥x∥=1 λ.
2
on a alors t XSX = t XλX = λt XX = λ ∥X∥ > 0, d’où λ > 0 , puisque X étant un vecteur
propre est un vecteur non nul.
Sol. 25) : Soit (ek ) un b.o.n. de diagonalisation de u (valeurs propres associées (λk )). On Supposons que toutes les valeurs propres de S soient ⩾ 0, notons (X , · · · , X ) une base
1 n
a orthonormée de vecteurs propres associés au valeurs propres λ1 , · · · , λn positives.
∑n ∑ n ∑n
Soit X = α1 X1 + · · · + αn Xn , décomposé selon la base orthonormée de vecteurs propres,
si x = xk ek alors u(x) = xk λk ek donc < u(x), x >= λk · x2k
on a alors
k=1 k=1 k=1
t
XSX = (α1 X1 + · · · + αn Xn |α1 λ1 X1 + · · · + αn λn Xn ) = α12 λ1 + · · · + αn2 λn ⩾ 0
9/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
Supposons que toutes les valeurs propres de S soient > 0, notons (X1 , · · · , Xn ) une base Sol. 27) :
orthonormée de vecteurs propres associés au valeurs propres λ1 , · · · , λn strictement posi-
1) t AA est une matrice symétrique réelle donc elle est diagonalisable.
tives
Soit X = α1 X1 + · · · + αn Xn ̸= 0 , décomposé selon la base orthonormée de vecteurs 2) On a t AA − In = A donc A est diagonalisable mais, mieux, elle est aussi symétrique
propres, on a alors réelle.
3) On a donc A = A−1 + In d’où
t
XSX = (α1 X1 + · · · + αn Xn |α1 λ1 X1 + · · · + αn λn Xn ) = α12 λ1 + · · · + αn2 λn > 0, A2 − A − In = 0.
puisque les λi sont strictement positives, et que l’un au moins des αi est non nul. 4) Si λ ∈ Sp(A) alors λ2 − λ − 1 = 0.
2) Unicité Soit u l’endomorphisme de Rn de matrice S dans la base canonique, et v un 1 1√
endomorphisme symétrique positif tel que v 2 = u. Donc λ = ± 5.
2 2
Alors u et v commutent, donc les espaces propres de u sont v− stables Conclusion : comme Sp(A) n’est pas un singleton,
⊥ ⊥
Soit Rn = F1 ⊕ · · · ⊕ Fp la décomposition de Rn en somme directe orthogonale d’espaces { }
propres, Fk étant associé à la valeur propre λk . 1√ 1 1 1√
Sp(A) = 5+ , − 5 .
On a alors vFk est un endomorphisme symétrique positif (immédiat), donc est diagonali- 2 2 2 2
sable dans une base orthonormée de vecteurs propres
Dans √cette base on a matBk (vFk ) = diag (µ1 , · · · , µnk ) , avec µi ⩾ 0 , et µ2i = λk , d’où
µi = λ k Ex 28 b
√
et ce pour tout i ∈ [[1, nk ]] , ce qui montre que vFk est l’homothétie de rapport λk , ce Soit u un endomorphisme symétrique d’un espace euclidien E. On note λ et µ la plus
qui montre l’unicité des vFk et par suite celle de v. petite et la plus grande valeur propre en valeur absolue de u.
Existence cet endomorphisme v convient. Montrer que ∀x ∈ E |λ| ∥x∥⩽∥u(x)∥⩽ |µ| ∥x∥.
2
3) On a pour tout X non nul, t Xt MMX = ∥MX∥ > 0 puisque M est inversible. Sol. 28) : u diagonalise dans une b.o.n. (ek ).
Unicité Si M = OS , alors MM = S OOS = SS = S2 ( t OO = In et t S = S ), ce qui
t t t t
∑n ∑
n
montre l’unicité de S. Soit x ∈ E, x = xk ek , u(x) = λk xk · ek
Comme M = OS est inversible, S l’est aussi, d’où l’unicité de O = MS−1 . k=1 k=1
Existence t MM étant symétrique positive admet une « racine carrée » symétrique positive 2
∑ ∑
n
d’après le 2), notons-la S, comme M est inversible, t MM l’est aussi, et comme t MM = S2 , < u(x), u(x) >= ∥u(x)∥ = λi λj xi xj < ei , ej >= λ2i · x2i donc
S est aussi inversible. (i,j n ) i=1
( n )
Notons alors O = MS−1 . On a t OO = t S−1t MMS−1 = S−1 S2 S−1 = In , ce qui montre que ∑ ∑
2
O ∈ On (R) , et le résultat. min(λ2i ) x2i ⩽ ∥u(x)∥ ⩽ max(λ2i ) x2i
i=1 i=1
donc λ∥x∥⩽∥u(x)∥⩽µ∥x∥.
Ex 27 b
Soit A ∈ Mn (R) inversible telle que
Ex 29 b
t
A = A−1 + In . Soit (aij )1⩽i,j⩽n une matrice symétrique réelle d’ordre n de valeurs propres λ1 , · · · , λn
∑ ∑
n
1) Montrer que t AA est diagonalisable. (comptées avec leur ordre de multiplicité). Montrer que a2ij = λ2k .
2) En déduire que A est diagonalisable. 1⩽i,j⩽n k=1
10/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
Ex 30 b ∥MX∥ √ t
On a montré : ∀X ∈ Mn,1 (R) \ {0} , ⩽ ρ ( MM) et
Soient A et B sont deux matrices symétriques (réelles), est-il vrai que ∥X∥
11/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
2) Montrer que (Ln )n∈N est une famille orthonormale de E. On en déduit par récurrence Jn = n!J0 = n!, d’où In,n = (−1)n (n!)2 .
3) Soit n ∈ N∗ . Montrer qu’il existe (an , bn , cn ) ∈ R3 tels que : Cela entraîne que pour tout p < n, (Ln | Xp ) = 0, donc par linéarité, Ln est ortho-
gonal à Rn−1 [X], donc en particulier à Lp pour tout p < n.
XLn = an Ln+1 + bn Ln + cn Ln−1 . Déterminer an (−1)n (−1)n
Comme le coefficient dominant de Ln est , on a ⟨Ln , Ln ⟩ = ⟨Ln , Xn ⟩ =
n! n!
4) Pour a ∈ R, soit fa : x 7→ e−ax . À quelle condition a-t-on fa ∈ E ? Cette condition (−1)n
In,n = 1.
étant supposée réalisée, calculer (n!)2
On a bien montré que (Ln )n∈N est une famille orthonormale de E.
∑
+∞
⟨fa , Ln ⟩2 − ⟨fa , fa ⟩. 3) Comme XLn est de degré n + 1 et que (Lk )0⩽k⩽n est une base orthonormale de
n=0
Rn+1 [X],
∑
n+1
Que peut-on en conclure ? on a XLn = ⟨XLn , Lk ⟩Lk .
k=0
Sol. 33) : 1) Si P ∈ R[X), alors 2
lim x P(x) e 2 −x
= 0, donc x 7→ P (x)e
2 −x
est inté- On remarque que ⟨XLn , Lk ⟩ = ⟨Ln , XLk ⟩, donc si k ⩽ n − 2, alors XLk ∈ Rn−1 [X]
x→+∞ d’où ⟨XLn , Lk ⟩ = 0.
grable sur R+ . En utilisant la formule de Leibniz, on obtient
En remplaçant, on obtient XLn = an Ln+1 +bn Ln +cn Ln avec an = ⟨XLn , Ln+1 ⟩, bn =
n ( ) ⟨XLn , Ln ⟩ et cn = ⟨XLn , Ln−1 ⟩.
ex ∑ n ∑
n
n!
Ln (x) = (−1)k e−x n(n − 1) · · · (k + 1)xk = (−1)k xk . Comme le coefficient dominant de Ln est égal à (−1)n /n!, le polynôme n!XLn + (n +
n! k (k!) (n − k)!
2
1)!Ln+1 est de degré inférieur ou égal à n, donc son produit scalaire par Ln+1 est
k=0 k=0
nul, d’où n!an + (n + 1)! = 0, d’où an = −(n + 1).
On en déduit que Ln est une fonction polynomiale de degré n, de coefficient dominant
(−1)n /n! et de terme constant égal à 1. 4) La fonction fa appartient à E si et seulement si x 7→ e−(2a+1)x est intégrable sur R+ ,
∫ c’est-à-dire a > −1/2.
1 +∞ p dn −x n ∫ +∞
2) On remarque que pour p ⩽ n, ⟨Ln , X ⟩ = p 1
n! 0
x
dxn
(e x )dx. On a d’une part ⟨fa , fa ⟩ = e−(2a+1)x dx = et d’autre part
∫ +∞ 0 2a +1
dk ∫
Posons pour k et j entiers naturels tels que j ⩽ k ⩽ n, Ikj = xj k (e−x xn )dx. +∞
dn n −x
0 dx n!⟨fa , Ln ⟩ = e−ax (x e ) dx
[ k−1 ]+∞ dxn
d [
0
]+∞
En intégrant par parties, on obtient Ikj = (e−x xn )xj − jIk−1,j−1 . n−1 ∫ +∞ n−1
dxk−1 −ax d n −x −ax d
0 = e (x e ) + a e (xn e−x ) dx
Le crochet a pour limite 0 en +∞ et est nul en 0 car il reste une puissance de x dxn−1 0 0 dxn−1
quand on dérive k − 1 fois e−x xn .
On en déduit que Ik,j = −jIk−1,j−1 , donc par récurrence, en intégrant par parties. Le premier crochet est nul. En poursuivant les intégrations
∫ +∞ n−p par parties, de la même façon qu’à la question 2), on obtient
d
p
In,p = (−1) p!In−p,0 = (−1) p
(e−x xn ) dx. ∫
0 dxn−p +∞
Si p < n, alors In,p = 0 car la dérivée (n − p − 1)ème de e−x xn s’annule en 0 et tend n!⟨fa , Ln ⟩ = a
n
e−ax xn e−x dx
0
vers 0 en +∞. ∫ +∞ ∫ +∞
n
Si p = n, alors In,n = (−1) n!Jn , où Jn = e−x xn dx. an
Après le changement de variables t = (a+1)x, on aboutit à tn e−t dt.
0
∫ +∞ (a + 1)n+1 0
[ ]+∞ an
En intégrant par parties, on obtient Jn = −e−x xn 0 + n e−x xn−1 dx = Cette dernière intégrale a été calculée plus haut et vaut n!, d’où ⟨fa , Ln ⟩ = .
0 (a + 1)n+1
nJn−1 .
12/13 M. Rezzouk
PC - ENCPB Espaces préhilbertiens Corrigé
On en déduit que
∑
+∞ ∞ (
∑ )2n
1 a 1
⟨fa , Ln ⟩ − ⟨fa , fa ⟩ =
2
2
−
n=0
(a + 1) n=0 a + 1 2a + 1
1 1 1
= − =0
(a + 1)2 1 − (a+1)
a2
2
2a +1
13/13 M. Rezzouk