F2 C
F2 C
ALGÈBRE BILINÉAIRE
Feuille d’exercices n˚ 2 - Correction -
Exercice 1 :
Note sur l’énoncé :
On remarque que l’on a une famille de polynômes.
P0 = 1 : P0 est la fonction constante égale à 1.
1
Pour tout k ∈ [[1, n]], Pk (X) = X(X − k)k−1 : on a un polynôme défini sous forme factorisée. On note qu’ici : Pk est
k!
de degré k (= 1 + 1 ∗ (k − 1)), que 0 est racine simple de Pk , k est racine d’ordre de multiplicité k − 1 de Pk .
On peut déjà remarquer que : (P0 , P1 , . . . , Pn ) est une famille de n + 1 polynômes tous non nuls de Rn [X] (k 6 n), de
degrés échelonnés, donc une famille libre de Rn [X], donc une base de Rn [X] car dim(Rn [X]) = n + 1.
1. Soit k ∈ [[1, n]].
Pour k = 1, P1 (X) = X, donc P1′ (X) = 1, et donc P1′ (X + 1) = 1 = P0 (X).
Pour k > 2,
1 h i (X − k)k−2
Pk′ (X) = (X − k)k−1 + X.(k − 1).(X − k)k−2 = [(X − k) + (k − 1)X]
k! k!
(X − k)k−2 1
= [kX − k] = (X − 1)(X − k)k−2
k! (k − 1)!
1 1
et donc : Pk′ (X + 1) = ((X + 1) − 1).(X + 1 − k)k−2 = X(X − (k − 1))(k−1)−1 = Pk−1 (X).
(k − 1)! (k − 1)!
On a donc, pour tout k ∈ [[1, n]], Pk′ (X) = Pk−1 (X − 1).
En effet : Pk′ (X + 1) = Pk−1 (X), donc Pk′ (X) = Pk′ ((X − 1) + 1) = Pk−1 (X − 1).
On note que : dériver Pk , c’est diminuer l’indice k d’une unité, et diminuer la variable X d’une unité aussi : à
chaque fois qu’on dérive, on va perdre une unité en indice et en variable X.
(j)
D’où la conjecture : Pk (X) = Pk−j (X − j), lorsque k − j > 0 soit j 6 k.
La réponse n’étant pas donnée dans l’énoncé, on peut travailler par itérations.
Je démontre également ci-dessous la propriété par récurrence.
Méthode par itérations :
Ainsi, pour tout (k, j) ∈ [[1, n]]2 tels que j 6 k, on a :
L’application h., .i est linéaire à gauche et symétrique. Elle est donc bilinéaire.
⋆ Définie-positivité
Soit P ∈ Rn [X].
Xn h i2
Alors : hP, P i = P (k) (k) > 0.
k=0 | {z }
carré, donc > 0
Petit rappel :
Pour tout i ∈ N, pour tout k ∈ N,
i = i!
X X i−k si k = 0
(k)
(i − k)!
Xi = i(i − 1) · · · (i − k + 1)X i−k = i!
X i−k si 1 6 k 6 i
(i − k)!
0 si k > i
D’où Pi ⊥ Pj .
De même, si on suppose j < i, on déduit du calcul ci-dessus (valable pour tous entiers i′ et j ′ tels que
i′ < j ′ : Pi′ ⊥ Pj ′ . Et ici, on prend i′ = j et j ′ = i.), que Pj ⊥ Pi .
On en déduit que la famille (P0 , P1 , . . . , Pn ) est orthogonale.
Soit i ∈ [[0, n]]. En reprenant le calcul ci-dessus, on a, pour tout i ∈ [[0, n]],
Xi
||Pi ||2 = hPi , Pi i = Pi−k (0).Pi−k (0) = P0 (0)2 = 1, car 0 est racine de Pi−k lorsque i − k > 0. D’où ||Pi || = 1.
k=0
On a donc montré que (P0 , P1 , . . . , Pn ) est une famille orthonormée de Rn [X]. Or toute famille orthonormée
est libre. De plus, (P0 , P1 , . . . , Pn ) es une famille constituée de n + 1 vecteurs et dim Rn [X] = n + 1. On en
conclut que (P0 , P1 , . . . , Pn ) est une base orthonormée de Rn [X].
n
X
(c) Soit P ∈ E. Comme (P0 , P1 , . . . , Pn ) est une base orthonormée de E, on sait que P = hP, Pk i Pk . Et pour
k=0
tout k ∈ [[0, n]],
n
X (i)
hP, Pk i = P (i) (i).Pk (i)
i=0
k
X
= P (i) (i)Pk−i (i − i) car deg(Pk ) = k, et d’après la question 1
i=0
(k)
= P (k) × P0 (0) = P (k) (k) car P0 (0) = 1 et 0 est racine de Pℓ pour tout ℓ > 1
dans la somme, tous les termes sont nuls, sauf le terme pour i = k.
Les fonctions x 7→ x − 1 et x 7→ x + 1 ont pour dérivée x 7→ 1. Ainsi, pour tout k ∈ [[0, n]], pour tout réel x,
on a :
n! n!
f (k) (x) = (x + 1)n−k et g (k) (x) = (−1)n−k
(n − k)! (n − k)!
4/ 16 C. Carchereux, lycée Carnot
D’où, pour tout réel x,
n
X n n! n!
Ln (x) = (x + 1)n−k (x − 1)k
k (n − k)! k!
k=0
n
X n 2
= n! (x − 1)n−k (x + 1)k
k
k=0
Pn n2
Et on a bien : Ln = n! k=0 k (X − 1)n−k (X + 1)k .
(0)
(b) L0 = P0 = P0 = 1 : L0 est un polynôme de degré 0 et de cœfficient dominant égal à 1.
Soit n ∈ N∗ .
(n)
Comme Pn = (X + 1)n (X − 1)n est un polynôme de degré 2n, Ln = Pn est un polynôme de degré
2n − n = n.
k
X k
On rappelle que, pour tout k ∈ N, (X − 1)k (−1)k−i X i , d’après la formule du binôme de Newton.
i
i=0
Ainsi, (X − 1)k est un polynôme de degré k et de cœfficient dominant égal à 1. De même, pour (X + 1)k .
Ainsi, on déduit de la question précédente le cœfficient dominant an de Ln :
n 2
X n
an = n!
k
k=0
n n
= n!
k n−k
2n
= n! , par la formule de Vandermonde.
n
(c) Soit n ∈ N∗ .
Comme Pn = (X + 1)n (X − 1)n , −1 est racine de Pn d’ordre de multiplicité n. Par conséquent, pour tout
(k)
k ∈ [[0, n − 1]], Pn (−1) = 0.
(k)
Pour les mêmes raisons, pour tout k ∈ [[0, n − 1]], Pn (1) = 0.
Z 1
2. Soit ϕ l’application de R[X]2 définie par ϕ(P, Q) = P (t)Q(t) dt.
−1
Et :
′′
Pn+1 = 2(n + 1) Pn + XPn′
= 2(n + 1) (Pn + X (2nXPn−1 )) d’après le premier point valable pour tout n ∈ N
= 2(n + 1)Pn + 4n(n + 1)X 2 Pn−1
= 2(n + 1)Pn + 4n(n + 1)((X 2 − 1) + 1)Pn−1
= 2(n + 1)Pn + 4n(n + 1) (X − 1)(X + 1)Pn−1 +4n(n + 1)Pn−1
| {z }
Pn
= 2(2n + 1)(n + 1)Pn + 4n(n + 1)Pn−1
2(n + 1)
D’où : (2n + 3)In+1 = −2(n + 1)In , soit encore : In+1 = − In . Par itération de cette égalité
2(n + 1) + 1
(valable pour tout entier naturel n), on a :
n
In = −2 In−1
2n + 1
2n 2(n − 1)
= − −2 In−1
2n + 1 2(n − 1) + 1
..
.
Z 1 Z 1
2n 2(n − 1) 2×1
= − −2 ... − I0 , avec I0 = P0 (t) dt = dt = 2
2n + 1 2(n − 1) + 1 2×1+1 −1 −1
2n n!
= (−1)n ×2
(2n + 1)(2n − 1)(2n − 3) · · · 3
2n+1 n! 2n × (2(n − 1)) × 2(n − 2) × · · · × 2
= (−1)n ×
(2n + 1)(2n − 1)(2n − 3) · · · 3 2n × (2(n − 1)) × 2(n − 2) × · · · × 2
22n+1 (n!)2
= (−1)n
(2n + 1)!
(c) Soit n ∈ N. On a :
Z 1 Z 1
2 2
||Lk || = Lk (t) dt = Lk (t)Lk (t) dt
−1 −1
Z 1
k (k)
= (−1) Lk (t)Pk (t) dt d’après 2b avec f = Lk
−1
2k (k)
Or Lk est un polynôme de degré k et de cœfficient dominant ak = k! k . On en déduit que Lk est le
polynôme constant égal à k! × ak . D’où :
Exercice 4 :
1
Par unicité du polynôme Q2 , on en déduit que : Q2 = R = X 2 − 2X + 1
2
(b) Ck = (Q0 , . . . , Qk ) est une famille de k + 1 polynômes de Rk [X], libre car orthonormée, et dim Rk [X] = k + 1.
Donc Ck = (Q0 , . . . , Qk ) est une base de Rk [X].
6. Étude du cas n = 2 :
(a) Pour tout i et j : hi,j = hX i−1 , X j−1 i = (i + j − 2)!
0! 1! 2! 1 1 2
Donc H2 = 1! 2! 3! = 1 2 6
2! 3! 4! 2 6 24
10/ 16 C. Carchereux, lycée Carnot
3 −3 12 1 1 2 1 0 0
Et −3 5 −1 1 2 6 = 0 1 0
1
2 −1 14 2 6 24 0 0 1
3 −3 12
Donc H2 est inversible et H2−1 = −3 5 −1
1
2 −1 14
(b) On a Q0 = 1, Q1 = X − 1 et Q2 = 21 X 2 − 2X + 1.
1 = Q0 = 1Q0 + 0Q1 + 0Q2
X = X − 1 + 1 = 1Q0 + 1Q1 + 0Q2
X 2 = 2 12 X 2 − 2X + 1 + 4 (X − 1) + 2 = 2Q0 + 4Q1 + 2Q2
1 1 2
et A2 = 0 1 4
0 0 2
1 0 0 1 1 2 1 1 2
Donc t A2 A2 = 1 1 0 0 1 4 = 1 2 6 = H2
2 4 2 0 0 2 2 6 24
7. (a) An est la matrice de passage de Cn dans Bn qui sont deux bases de Rn [X]
Donc An est inversible
(b) les (ak,j )k sont les coordonnées de X j−1 dans la base Cn donc
P
∀j ∈ [[1; n + 1]] , X j−1 = n+1
k=1 ak,j Qk−1 .
Et comme la base Cn est orthonormée, le produit scalaire se calcule à partir des coordonnées de X i−1 et
X j−1 dans la base Cn :
P
hX i−1 , X j−1 i = n+1
k=1 ak,i ak,j
(Est ce que l’énoncé attendait ici que l’on redémontrer ce résultat de cours ?)
P
(c) On a donc hi,j = hX i−1 , X j−1 i = n+1
k=1 ak,i ak,j
t
Pn+1
et An An i,j = k=1 ak,i ak,j
Donc Hn = t An An .
8. (a) An est inversible donc t An également et donc
Hn est inversible comme produit de matrices inversibles.
(b) t Hn = t t An An = t An t t An = t An An = Hn
Donc Hn est symétrique réelle donc diagonalisable.
(c) Soit α une valeur propre et Y une colonne propre associée alors
t Y H Y = t Y αY = α kY k2 avec la norme canonique de M
n n,1 (R)
et c’est également = Y An An Y = (An Y ) An Y = kAn Y k2 norme canonique de Mn+1 (R)
t t t
Exercice 5 :
Exercice 6 :
X ∈ E0 ⇐⇒ U tU X = 0
⇐⇒ U. hU, Xi = 0U et X étant deux vecteurs colonnes, on reconnaît : tU X = hU, Xi
⇐⇒ hU, Xi .U = 0
| {z }
∈R
⇐⇒ hU, Xi = 0 car (u, v) est libre, donc u 6= 0, et donc U 6= 0
⇐⇒ X ⊥ U RÉFLEXE : produit scalaire nul ←→ vecteurs orthogonaux
⇐⇒ X ∈ (Vect(U ))⊥ cf. cours :
X ∈ Vect(U )⊥ ⇐⇒ X ⊥ U , car (U ) est une famille génératrice de Vect(U )
13/ 16 C. Carchereux, lycée Carnot
Conclusion : E0 = (Vect(U ))⊥ .
Comme U 6= 0, dim(Vect(U )) = 1. Comme Mn,1 (R) est euclidien, Vect(U ) et (Vect(U ))⊥ sont
supplémentaires orthogonaux, et donc dim(E0 ) + dim Vect(U ) = dim Mn,1 (R). D’où dim(E0 ) = n − 1.
Puisque M est diagonalisable, la somme des dimension des sous-espaces propres de M est égale à n.
On en déduit que M admet une unique valeur propre non nulle λ, et son sous-espace propre Eλ est de
dimension 1.
Une idée : comme M est diagonalisable, M est semblable à une matrice diagonale D, avec n − 1 zéros sur sa
diagonale, et λ l’unique valeur propre non nulle de M . Deux matrice semblables ayant même trace, on en
Pn
déduit que λ = u2k = ||U ||2 .
k=1
Mais, cela ne donne pas le sous-espace propre de M associé à la valeur propre ||U ||2 .
On peut ici se souvenir que si − →
x est vecteur propre d’un endomorphisme f associé à une valeur propre non
→
−
nulle, alors x ∈ Im(f ).
En notant f l’endomorphisme de Rn canoniquement associé à la matrice M , on a : Im(f ) ⊂ Vect(u), puisque
toutes les colonnes de M sont colinéaires à U .
Donc les vecteurs propres de M associé à une valeur propre non nulle sont de la forme xU , avec x ∈ R∗ . Un
sous-espace propre étant stable par multiplication par un scalaire, il suffit de vérifier que U est bien vecteur
propre de M .
De plus, on remarque que U 6= 0 et M U = U tU U = U. ||U ||2 = ||U ||2 .U , avec ||U ||2 6= 0 (puisque U 6= 0). On
en déduit que ||U ||2 est valeur propre non nulle de M . Le sous-espace propre associé E||U ||2 étant de
dimension 1, on en déduit que E||U ||2 = Vect(U ).
La matrice M étant diagonalisable, notons B ′ la base de Mn,1 (R) obtenue en concaténant une base de E0 et
une base de E||U ||2 . Par la formule de changement de base, on a : P −1 M P = D, où D est la matrice diagonale
où tous ses cœfficients sont nuls, sauf celui situé à la dernière ligne et dernière colonne qui est égal à ||U ||2 .
Enfin, A = αM + In .
On a : P −1 AP = αP −1 M P + P −1 In P = αD + In , et αD + In est la matrice diagonale, donc les cœfficients
diagonaux sont 1, 1, . . . , 1, α ||U ||2 + 1, avec 1 + α ||U ||2 6= 1 (α 6= 0 et U 6= 0).
On en déduit que A est diagonalisable, Sp(A) = {1, α ||U ||2 + 1}, et par la formule de changement de bases :
E1 (A) = E0 = Vect(U )⊥ , et E1+α||U ||2 = E||U ||2 = Vect(U ).
Finalement, f est diagonalisable, Sp(f ) = {1, 1 + α ||u||2 }, Ker(f − id) = Vect(u)⊥ et
Ker(f − (1 + α ||u||2 )id) = Vect(u).
(b) Soit λ ∈ Sp(Q). Soit alors X ∈ Mn,1 (R) tel que X 6= 0 et QX = λX.
D’après la question 1a, on a : ||QX|| = ||X||.
Or ||QX|| = ||λX|| = |λ| ||X||.
D’où |λ| ||X|| = ||X||.
On a alors : (|λ| − 1) ||X|| = 0, et comme X 6= 0, ||X|| =
6 0, et donc |λ| = 1 : λ ∈ {−1, 1}.
(c) Supposons que la matrice A est orthogonale.
D’après les deux questions précédentes, on en déduit que nécessairement 1 + α ||u||2 ∈ {−1, 1}.
2
6 0, on en déduit que 1 + α ||u||2 = −1, soit α = − 2 .
Comme α 6= 0 et ||u|| =
||u||
2
Supposons maintenant que α = − 2 .
||u||
On a alors :
t
AA = α tM + tIn .(αM + In ) = (αM + In ).(αM + In ) par linéarité de la transposition
= (αM + In )2 car M et In sont symétriques
2 2
= α M + 2αM + In car M et In commutent
2
2
= α . ||u|| M + 2αM + In car M 2 = U t
UU
|{z} U = ||u||2 U tU
t
B X = λ X ⇐⇒ λ X = X + U.t V X + V.t U X
⇐⇒ (λ − 1) X = hX, V i U + hX, U i V
(b) On remarque, d’après la question précédente, que si x est vecteur propre de g associé à la valeur propre λ,
alors :
soit 1 − λ = 0, et donc λ = 1,
hx, vi hx, ui
soit 1 − λ 6= 0, et donc x = u+ v, et en particulier x ∈ Vect(u, v).
1−λ 1−λ
Cas λ = 1
Pour tout x ∈ Rn ,
g(au + bv) = λ(au + bv) ⇐⇒ (1 − λ)(au + bv) = hau + bv, vi u + hau + bv, ui v
(
(1 − λ)a = hau + bv, vi
⇐⇒ car (u, v) est libre : il y a unicité de l’écriture
(1 − λ)b) hau + bv, ui
(
(1 − λ)a = a hu, vi + b ||v||2
⇐⇒
(1 − λ)b = a ||u||2 + b hu, vi
(
a (hu, vi − 1 + λ) + b ||v||2 = 0
⇐⇒
a ||u||2 + b (hu, vi − 1 + λ) = 0
hu, vi − 1 + λ ||v||2 a 0
⇐⇒ =
||u||2 hu, vi − 1 + λ b 0
| {z }
=Mλ
Comme (u, v) est libre, on sait d’après l’inégalité de Cauchy Schwarz que : |hu, vi| < ||u|| ||v||. Donc :
− ||u|| ||v|| < hu, vi < ||u|| ||v||. D’où λ1 6= 1 et λ2 6= 1.
15/ 16 C. Carchereux, lycée Carnot
Et comme ||u|| = 6 0, λ1 6= λ2 .
6 0, ||v|| =
Conclusion : Sp(g) = {1, λ1 , λ2 }.
On sait que le sous-espace propre E1 de g est de dimension n − 2.
Et en tant que sous-espaces propres, les deux autres sous-espaces propres de g vérifient : dim(Eλ1 ) > 1 et
dim(Eλ2 ) > 1.
D’où dim(E1 ) + dim(Eλ1 ) + dim(Eλ2 ) > n − 2 + 1 + 1 = n.
Or la somme des dimensions des sous-espaces propres de g est 6 n.
On en déduit que la somme des sous-espaces propres de g est égaleà n = dim(Rn ). Donc g est diagonalisable.