0% ont trouvé ce document utile (0 vote)
36 vues8 pages

F3 C

Transféré par

Sixtine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues8 pages

F3 C

Transféré par

Sixtine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Novembre 2021

ALGÈBRE BILINÉAIRE

Feuille d'exercices n 3 - Correction -

Exercice 1 :
Adapté de ECRICOME 2003
1. ? ϕ : Mn (R) × Mn (R) → R.
? Soit (A, B) ∈ Mn (R) × Mn (R). On a : ϕ(A, B) = Tr( t AB) et ϕ(B, A) = Tr( tBA) = Tr( t ( tBA)) car la
transposition laisse invariant les termes diagonaux d'une matrice. Donc ϕ(B, A) = Tr( tAB) = ϕ(A, B).
L'application ϕ est symétrique.
? Soit (A, B, C) ∈ Mn (R)3 . Soit λ ∈ R. Par linéarité dela trace, on a :
ϕ(A, λB + C) = Tr( tA (λB + C)) = Tr λ. tAB + tAC = λTr( tAB) + Tr( tAC) = λϕ(A, B) + ϕ(A, C).
L'application ϕ est linéaire à droite. Etant de plus symétrique, ϕ est bilinéaire.
? Soit A ∈ Mn (R). On pose A = (ai,j )16i,j6n , tA = (bi,j )16i,j6n et tAA = (ci,j )16i,j6n . Alors :
n n X n X
n n X
n
Tr tAA = a2i,k . En tant que somme de termes tous
 X X X X
ci,i = ai,k bk,i = ai,k .ai,k =
i=1 i=1 k=1 i=1 k=1 i=1 k=1
positifs : Tr( tAA) > 0.
De plus, une somme de termes tous positifs ne peut être nulle que si tous les termes sont nuls. D'où :

Tr( tAA) = 0 ⇐⇒ ∀i ∈ [[1, n]], ∀k :∈ [[1, n]], a2i,k = 0


⇐⇒ ∀i ∈ [[1, n]], ∀k ∈ [[1, n]], ai,k = 0
⇐⇒ A = 0Mn (R) .

L'application ϕ est donc dénie positive.


On déduit des 4 points ci-dessus que ϕ dénit un produit scalaire sur Mn (R). Et d'après le dernier point :
n X
n
∀A ∈ Mn (R), ||A|| = ϕ(A, A) = Tr( tAA) a2i,j .
2
X
=
i=1 j=1
2. Soit A ∈ Mn (R).
On remarque que : Tr(A) = Tr( tIn A) = ϕ(In , A).
D'aprèspl'inégalité de Cauchy-Schwarz

: |Tr(A)| = |ϕ(A, In )| 6 ||A|| . ||In ||. Or
||In || = Tr( tIn .In ) = Tr(In ) = n.
p

On a bien établi l'inégalité : |Tr(A)| 6 n. ||A||.
3. Soient A et B deux matrices de Mn (R) telles que : ∀M ∈ Mn (R), Tr(AM ) = Tr(BM ).
Par linéarité de la trace, on en déduit que : ∀M ∈ Mn (R), Tr((A − B).M ) = 0, et donc Tr(M.(A − B)) = 0. En
particulier pour M = t(A − B), on obtient : Tr( t(A − B).(A − B)) = 0 soit ||A − B||2 = 0. On en déduit que
A − B = 0, donc A = B .
4. ? Soient S ∈ Sn (R) et A ∈ An (R). Alors : ϕ(S, A) = Tr( tSA) = Tr(SA) car S est symétrique. Et par symétrie
de ϕ, on a aussi : ϕ(S, A) = ϕ(A, S) = Tr( tAS) = Tr(−AS) = −Tr(AS) = −Tr(SA), par propriété de la trace.
On en déduit que Tr(SA) = −Tr(SA), et donc Tr(SA). Par conséquent, ϕ(S, A) = 0 et donc S ⊥ A.
On en déduit que les sous-espaces Sn ( R◦ et An (R) sont orthogonaux.
? Étant orthogonaux, les sous-espaces Sn (R) et An (R) sont en somme directe : ∀A ∈ Sn (R) ∩ An (R),
||A||2 = ϕ(A, A) = 0 car A ⊥ A, et donc A = 0Mn (R) .
? On a la première inclusion : Sn (R) + An (R) ⊂ Mn (R).
Soit maintenant M ∈ Mn (R). On cherche une matrice S symétrique et une matrice A antisymétrique telles que
M = S + A et donc tM = tS + tA = S − A.
1 1
Posons S = M + tM = et A = M − tM . On remarque, par linéarité de la transposition que S ∈ Sn (R),
 
2 2
A ∈ An (R) et M = S + A.
On en déduit l'inclusion réciproque : Mn (R) ⊂ Sn (R) + An (R).
Les trois points ci-dessus permettent de conclure que Sn (R) et An (R) sont supplémentaires orthogonaux dans
Mn (R).
5. Soit A = (ai,j ) 16i6n ∈ Mn (R).
16j6n
On note (M, N ) l'unique couple de matrices de Sn (R) × An (R) tel que A = M + N .
1/ 8 C. Carchereux, lycée Carnot
(a) Soit S ∈ Sn (R).
On a : ||A − S||2 = ||M + N − S||2 = ||(M − S) + N ||2 = ||M − S||2 + ||N ||2 , d'après le théorème de Pythagore
puisque les vecteurs M − S ∈ Sn (R) et N ∈ An (R) sont orthogonaux d'après la question précédente.
Ainsi, pour tout matrice S ∈ Sn (R), ||A − S||2 = ||M − S||2 + ||N ||2 = ||M − S||2 + ||A − M ||2 > ||A − M ||2 ,
avec égalité si, et seulement si, ||M − S||2 = 0, c'est-à-dire si, et seulement si, S = M .
1
(b) La décomposition déterminée à la question 4 étant unique, on a : M = tA +A .

2
n X
n
(c) Pour tout S ∈ Mn (R), on remarque que (ai,j − si,j )2 = ||A − S||2 .
X

i=1 j=1
1  2
De plus, d'après la question a, on a : min ||A − S||2 = ||A − M ||2 , soit min ||A − S||2 = A − tA ,
S∈Sn (R) S∈Sn (R) 2
d'après la question précédente. Enn,d'après l'expression de la norme, on a bien :
n X
n n X
n  2 n n
1 1 XX
(ai,j − aj,i )2 .
X 2
X
min (ai,j − si,j ) = (ai,j − aj,i ) =
S∈Sn (R) 2 4
i=1 j=1 i=1 j=1 i=1 j=1

Exercice 2 :
Note sur l'énoncé :
Les notations proposées ici sont un peu pénibles...
u
Je note v = . Le vecteur v est alors un vecteur normé de E .
||u||
De plus, par linéarité à droite du produit scalaire, on remarque que :
 
hx, ui 1 u u u
∀x ∈ E, 2 u = ||u|| hx, ui . ||u|| = x, . = hx, vi v
||u|| ||u|| ||u||

et donc : ∀x ∈ E, ϕu (x) = 2 hx, vi v − x = ϕv (x), ce qui aurait beaucoup plus sympathique à manipuler !
1. ? L'espace E étant stable par combinaisons linéaires, ϕu est une application de E dans E .
Vérions que ϕu est linéaire. Soient x, y deux vecteurs de E et λ un réel. On a, par bilinéarité du produit
scalaire :
 
hλx + y, ui λ hx, ui + hy, ui hx, ui hy, ui
ϕu (λx + y) = 2 2 u − (λx + y) = 2 2 u − λx − y = λ 2 2 u − x +2 u−y
||u|| ||u|| ||u|| ||u||2
= λϕu (x) + ϕu (y)

ϕu est donc un endomorphisme de E.


? Soit x ∈ E . On a :
Présentation 1 :

 
 hx, ui 
ϕu ◦ ϕu (x) = ϕu ( ϕu (x) ) = ϕu 2 u − x
 
 ||u|| 2 

| {z }
réel
hx, ui
= 2 ϕu (u) − ϕu (x) par linéarité de ϕu
||u2 ||
   
hx, ui hu, ui hx, ui
= 2 2 2 u−u − 2 u−x
||u || ||u||2 ||u||2
hx, ui hx, ui
= 2 2 (2u − u) − 2 2 u + x car hu, ui = ||u||2
||u || ||u||
= x

Présentation 2 :

2/ 8 C. Carchereux, lycée Carnot


hϕu (x), ui
ϕu ◦ ϕu (x) = ϕu ( ϕu (x) ) = 2 u − ϕu (x)
||u||2
* +  
2 hx, ui hx, ui
= 2 u − x, u u − 2 u−x
||u||2 ||u||2 ||u||2
| {z }
réel
 
2 hx, ui hx, ui
= 2 2 2 hu, ui − hx, ui u − 2 u+x
||u|| ||u|| ||u||2
hx, ui
Attention : le facteur 2 ne multiplie que le vecteur u, et donc que hu, ui par linéarité
||u||2
2 hx, ui
= 2 [2hx, ui − hx, ui] u − 2 u + x car hu, ui = ||u||2
||u|| ||u||2
= x

Conclusion :
Puisque pour tout x ∈ E , ϕu ◦ ϕu (x) = x = idE (x), on a bien : ϕu ◦ ϕu = idE .
Remarque :
On vient de montrer que ϕu ◦ ϕu = idE . On en déduit que P = X 2 − 1 est un polynôme annulateur de ϕu .
2. On sait que u est non nul.
hu, ui
De plus, ϕu (u) = 2 2 u − u = 2u − u = u, car hu, ui = ||u|| . D'où : ϕu (u) = 1.u.
2
||u||
Ainsi, u est vecteur propre de ϕu associé à la valeur propre 1.
3. Regarder vos calculs : vérier que vous n'avez pas faits de calculs superus (i.e. vous avez utiliser les propriétés de
linéarité à droite (resp. à gauche) du produit scalaire d'un coup : les scalaires  sortent  des produits scalaires).
Soient x1 et x2 deux vecteurs de E . On a, par bilinéarité du produit scalaire :
 
hx1 , ui hx2 , ui
hϕu (x1 ), ϕu (x2 )i = 2 u − x1 , 2 u − x2
||u||2 ||u||2
   
hx1 , ui hx2 , ui hx2 , ui
= 2 u, 2 u − x2 − x1 , 2 u − x2 Là, j'ai utilisé la linéarité à gauche,
||u||2 ||u||2 ||u||2
hx , ui
en remarquant que 2 1 2 u − x1 est de la forme λu − x1 , avec λ ∈ R
||u||
   
hx1 , ui hx2 , ui hx2 , ui
= 2 2 hu, ui − hu, x2 i − 2 hx1 , ui − hx1 , x2 i Même remarque
||u||2 ||u||2 ||u||2
 
hx1 , ui  hx2 , ui
= 2 2 2hx2 , ui − |
hu, x2 i  − 2 hx1 , ui + hx1 , x2 i

||u|| {z } ||u||2
= hx2 , ui
hx1 , ui hx2 , ui
= 2 2 × hx2 , ui − 2 hx1 , ui + hx1 , x2 i par symétrie du produit scalaire
||u|| ||u||2
= hx1 , x2 i

En posant x1 = x2 = x dans l'égalité précédente, on obtient : hϕx (x), ϕu (x)i = hx, xi, donc ||ϕu (x)||2 = ||x||2 , et
donc : ||ϕu (x)|| = ||x||.
4. (a) N'oubliez pas de justier que −1 est bien valeur propre de ϕu !
Ce n'est pas en écrivant  ∀x ∈ Hu , ϕu (x) = 0  que ça justie que −1 est valeur propre de ϕu ...

3/ 8 C. Carchereux, lycée Carnot


Soit x ∈ E . On a :
hx, ui
ϕu (x) = −x ⇐⇒ 2 u − x = −x
||u||2
hx, ui →

⇐⇒ 2 2 u= 0
||u||
hx, ui →

⇐⇒ 2 2 = 0 car u 6= 0
||u||


=⇒ hx, ui = 0
⇐⇒ x ⊥ u
⇐⇒ x ∈ Hu

On en conclut que : Ker(f + idE ) = Hu . On a eectivement : f − λidE = f − (−1)idE = f + idE .


De plus, comme E est euclidien, les sous-espaces Du et Hu sont supplémentaires orthogonaux. D'où
dim Du + dim Hu = dim(E). Donc : dim Hu = dim(E) − 1 = n − 1 > 1.
Conclusion :
Ker(f + idE ) n'est pas réduit au vecteur nul, donc −1 est sous-espace propre de ϕu et E−1 = Hu est le
sous-espace propre associé.
(b) Attention :
D'après 2, u est un vecteur propre de ϕu associé à la valeur propre 1. Mais, sans un autre argument, ça ne
vous permet pas de conclure directement que Du est le sous-espace propre de ϕu associé à la valeur propre 1.
Méthode 1 :
? D'après la question 1, on a : ϕ2u − idE = 0. On en déduit que P = X 2 = (X − 1)(X + 1) est un
polynôme annulateur de ϕu . D'après le cours, 1 et −1 sont les seules valeurs propres possible de ϕu .
? D'après 2, 1 est valeur propre de ϕu .
D'après 4a, −1 est valeur propre de ϕu , de sous-espace propre associé Hu .
? De plus, pour tout x ∈ E ,

hx, ui
ϕu (x) = x ⇐⇒ 2 u − x = x Objectif : Trouver x. J'isole donc x dans l'égalité
||u||2
hx, ui
⇐⇒ 2 u = 2x
||u||2
hx, ui
⇐⇒ x = u :  donc x est de la forme λu, avec λ ∈ R 
||u||2
| {z }
un réel
=⇒ x ∈ Vect(u) ici, ce n'est plus une équivalence a priori :
dire  x ∈ Vect(u)  signie qu'il existe λ ∈ R tel que x = λu,
hx, ui
mais ça n'entraîne pas a priori que  λ = 
||u||2

Ainsi, on a : Ker(ϕu − idE ) ⊂ Vect(u).


Il reste à vérier la réciproque. Comme tout est linéaire/stable par combinaisons linéaires, et comme
Vect(u) = {λu | λ ∈ R}, il me sut de considérer le vecteur u.
De plus, d'après 2, u ∈ Ker(ϕu − idE ), donc Vect(u) ⊂ Ker(ϕu − IdE ), car Ker(ϕu − idE ) est stable par
combinaisons linéaires.
Par double inclusion, on a : E1 = Du .
? Conclusion :
1 et −1 sont les valeurs propres de ϕu ,
de sous-espaces propres respectivement associés Du et Hu = Du⊥ .
Comme E est euclidien (E est de dimension nie), on sait que : E = Du ⊕ Du⊥ .
Ainsi, ϕu est diagonalisable car E est la somme directe des sous-espaces propres de ϕu .
Méthode 2 :
? On sait déjà à que −1 est valeur propre de ϕu , de sous-espace propre associé Hu qui est de dimension
n − 1 (question a).
4/ 8 C. Carchereux, lycée Carnot
? D'après 2, u est vecteur propre de ϕu associé à la valeur propre 1.
En notant E1 le sous-espace propre de ϕu associé à la valeur propre 1, on a : Vect(u) ⊂ E1 (car u ∈ E1 ,
et E1 est stable par combinaisons linéaires. Donc, pour tout λ ∈ R, λ.u ∈ E1 , ce qui montre l'inclusion
Vect(u) ⊂ E1 .)
En particulier, on a : dim(E1 ) > 1.
? D'après le cours, les sous-espaces propres de u sont en somme directe.
Donc, nécessairement : dim(E1 ) + dim(E−1 ) 6 n. Or dim(E1 ) > 1 et dim(E−1 ) = n − 1.
On en déduit que :
1 et −1 sont les seules valeurs propres de ϕu ,
dim(E1 ) = 1,
et comme Du ⊂ E1 avec dim Du = 1, on a E1 = Du .
Et on rappelle que : E−1 = Hu .
Puisque dim(E1 ) + dim(E−1 ) = 1 + n − 1 = n = dim(E), ϕu est bien diagonalisable.
(c) Soit t ∈ R∗ .
Pour l'application ϕtu : on remplace tous les  u  de la dénition donnée tout au début d'énoncé par des
 tu  .
Rappel : ||tu|| = |t| ||u||. Donc ||tu||2 = (|t| ||u||)2 = |t|2 ||u||2 = t2 ||u||2 .
hx, tui t hx, ui hx, ui
Pour tout x ∈ E , ϕtu (x) = 2 2 tu − x = 2 2 2 tu − x = 2 u − x = ϕu (x).
||tu|| t ||u|| ||u||2
D'où ϕtu = ϕu .
5. ATTENTION, notamment pour la question a : Bien revenir à la dénition de deux sous-espaces supplémentaires.
Sinon, il y a de grandes chances pour que votre rédaction soit fausse...(me la montrer si vous avez un doute...)
(a) On sait que les sous-espaces ∆ et ∆⊥ sont supplémentaires : ∆ ⊕ ∆⊥ = E .
? Soit x ∈ E . Il existe alors deux vecteurs uniques a ∈ ∆ et b ∈ ∆⊥ tels que x = a + b.
On a, par linéarité de ψ : ψ(x) = ψ(a + b) = ψ(a) + ψ(b) = a − b.
D'où : ψ ◦ ψ(x) = ψ(a − b) = ψ(a) − ψ(b) = a − (−b) = a + b = x.
On a donc bien : ψ ◦ ψ = idE .
? Soit (x1 , x2 ) ∈ E 2 .
Il existe alors (a1 , b1 ) ∈ ∆ × ∆⊥ , et (a2 , b2 ) ∈ ∆ × ∆⊥ tels que x1 = a1 + b1 et x2 = a2 + b2 .
Alors :

hψ(x1 ), ψ(x2 )i = ha1 − b1 , a2 − b2 i cf. calcul de ψ(x) ci-dessus


= ha1 , a2 − b2 i − hb1 , a2 − b2 i
= ha1 , a2 i − ha1 , b2 i − hb1 , a2 i + hb1 , b2 i
= ha1 , a2 i + hb1 , b2 i car a1 ∈ ∆ et b2 ∈ ∆⊥ , donc a1 ⊥ b2 , et de même a2 ⊥ b1
Rappel : ne jamais perdre de vue ce que l'on manipule : qui sont les ai et les bi ici ?

Pour l'instant, on ne reconnaît pas hx1 , x2 i : c'est normal, pour calculer hψ(x1 ), ψ(x2 )i, on a utilisé les
notations  xi = ai + bi  . On va donc faire de même avec hx1 , x2 i, pour pouvoir identier deux même
écritures.
Et de même :

hx1 , x2 i = ha1 + b1 , a2 + b2 i
= ha1 , a2 + b2 i + hb1 , a2 + b2 i
= ha1 , a2 i + ha1 , b2 i + hb1 , a2 i + hb1 , b2 i
= ha1 , b1 i + hb1 , b2 i comme précédemment : car a1 ∈ ∆ et b2 ∈ ∆⊥ , donc a1 ⊥ b2 , et de même a2 ⊥ b

D'où hψ(x1 ), ψ(x2 )i = hx1 , x2 i.


Et donc, ψ conserve bien le produit scalaire.
(b) L'objectif ici est de trouver un vecteur u qui convient.
Il faut essayer de faire le lien entre les endomorphismes ψ et ϕu , en observant leurs propriétés.
L'idée est de remarquer que : ∀x ∈ ∆, ψ(x) = x, et pour tout x ∈ ∆⊥ , ψ(x) = −x.
Comme ∆ est de dimension 1, il existe bien un vecteur non nul u de ∆, et donc 1 est bien valeur propre de
ψ (u étant un vecteur propre associé.
De plus, pour tout x ∈ ∆, ψ(x) = x. On en déduit que : ∆ ⊂ E1 (ψ), avec E1 (ψ) le sous-espace propre de ψ
associé à la valeur propre 1 (ATTENTION : il s'agit bien d'une simple INCLUSION.)
5/ 8 C. Carchereux, lycée Carnot
De même, comme dim(∆) + dim(∆⊥ ) = dim(E), dim(∆⊥ ) = n − 1 > 1. Il existe donc un vecteur non nul
y ∈ ∆⊥ , vériant ψ(y) = −y . Donc −1 est valeur propre de ψ .
De plus, pour tout x ∈ ∆⊥ , ψ(x) = −x. On a donc l'inclusion : ∆⊥ ⊂ E−1 (ψ).
On déduit des inclusions ci-dessus que : dim(E) = dim(∆) + dim(∆⊥ ) 6 dim(E1 (ψ)) + dim(E−1 (ψ)). Mais
d'après le cours, la somme des dimensions des sous-espaces propres de ψ est toujours 6 n.
On en déduit que nécessairement dim(∆) = dim(E1 (ψ)) et dim(∆⊥ ) = dim(E−1 (ψ), et par suite (on a déjà
montré une inclusion) : E1 (ψ) = ∆, et E−1 (ψ) = ∆⊥ .
Enn, si ψ = ϕu , nécessairement : E1 (ψ) = E1 (ϕu ). Or on a montré que E1 (ϕu ) est Du = Vect(u).
On va donc choisir comme vecteur u, une base de ∆ (puisque ∆ = E1 (ψ), et on veut que ∆ = Vect(u)). Et
comme ∆ est de dimension 1, à un scalaire multiplicatif près, le choix du vecteur u est unique. Et d'après la
question 4c, si t 6= 0, ϕu = ϕtu : le choix d'un vecteur non nul constituant une base de ∆ est donc sans
importance pour résoudre la question.
Comme ∆ est de dimension 1, notons (u) une base de ∆ : u est un vecteur non nul de ∆.
Soit x ∈ E . Il existe deux vecteurs uniques a ∈ ∆ et b ∈ ∆⊥ tels que x = a + b, et comme (u) est une base de
∆, on a : a = λu avec λ ∈ R.
D'une part, on a : ψ(x) = ψ(a + b) = a − b = λu − b.
Et d'autre part, par linéarité de ϕu , on a : ϕu (x) = ϕu (λu + b) = λϕu (u) + ϕu (b) = λu − b, car on a vu dans
la question 2 que u est vecteur propre de ϕu associé à la valeur propre 1 et dans la question 4a, que
∆⊥ = Du⊥ est le sous-espace propre de ϕu associé à la valeur propre −1.
On a bien : ψ(x) = ϕu (x), pour tout x ∈ E .
(c) Notons qu'ici on redémontre un résultat du cours : une matrice carrée est orthogonale si, et seulement si, ses
colonnes forment une base orthonormée de Mn,1 (R)
Notons, pour tout i ∈ [[1, n]], Ci la iième colonne de la matrice M . On sait que Ci est la matrice-colonne des
coordonnées de ψ(ei ) dans la base B = (e1 , . . . , en ) de E . D'après les propriété du calcul matriciel, on sait
que pour tout i ∈ [[1, n]], la matrice ligne tCi est la iième ligne de la matrice tM , et donc le produit tCi Cj est
égal à ai,j . (*)
Or Ci et Cj étant les matrices-colonnes des coordonnées de ψ(ei ) et ψ(ej ) respectivement dans la base B, on
sait que hψ(ei ), ψ(ej )i = tCi Cj , car la base B est orthonormée. On a donc bien : ai,j = hψ(ei ), ψ(ej )i.
On a vu que ψ conserve le produit ( scalaire. D'où, pour tout (i, j) ∈ [[1, n]] ,
2

||ei || = 1 si i = j
2
ai,j = hψ(ei ), ψ(ej )i = hei , ej i = car B = (e1 , . . . , en ) est une base orthonormée. On a
0 si i 6= j
donc bien : tM M = (ai,j ) = In .
(*) Quelques explications si besoin.
On note M = (mi,j )16i,j6n , tM = (bi,j )16i,j6n , avec bi,j = mj,i , et t M M = (ai,j )16i,j6n .
n n
D'après le cours : ai,j = mk,i .mk,j : pour calculer ai,j on  balaye  la iième ligne de la
P P
bi,k .mk,j =
k=1 k=1
matrice tM et la j ième colonne de M . Or la iième ligne de tM est : 
m1,i
 m2,i 
bi,1 bi,2 . . . bi,n = m1,i m2,i . . . mn,i = tCi , avec Ci =  .  la iième colonne de la matrice M .
   
 .. 
mn,i
 
m1,j
 m2,j  n
On a donc bien : tCi Cj = m1,i m2,i . . . mn,i  ..  = mk,i mk,j = ai,j .
  P
 .  k=1
mn,j

Exercice 3 :
1. a) On a x ∈ Ker(u) si et seulement si ha, xib = hb, xia. Or la famille (a, b) est libre ; donc ceci impose
hb, xi = ha, xi = 0 et x ∈ Vect(a, b)⊥ .
La réciproque est immédiate.
Ainsi Ker(u) = Vect(a, b)⊥ , qui est de dimension 2.
Comme pour tout x, u(x) = ha, xib − hb, xia, on a Imu ⊂ Vect(a, b) et comme u est de rang 2, il vient
Im(u) = Ker(u)⊥ .
b) Par le cours et la question précédente, on a Ker(u) ⊕⊥ Im(u) = E .
2. Il sut d'écrire :
6/ 8 C. Carchereux, lycée Carnot
(
hu(x), yi = ha, xihb, yi − hb, xiha, yi
hu(y), xi = ha, yihb, xi − hb, yiha, xi
D'où :
∀ x, y, hu(x), yi = −hx, u(y)i
Matriciellement ceci se traduit par le fait que A est une matrice antisymétrique.
3. Si λ est une valeur propre (nécessairement réelle) de u, il existe x 6= 0 tel que u(x) = λx. Ainsi :
λ||x||2 = hλx, xi = hu(x), xi = −hx, u(x)i = −λ||x||2
Donc λ = 0. Comme le noyau de u est de dimension 2, 0 est eectivement valeur propre de u.
4. Pour tout (x, y) ∈ E 2 , en appliquant deux fois la question 2, on obtient :
hu ◦ u(x), yi = hu(u(x)), yi = − hu(x), u(y)i = −[− hx, u(u(y))i] = hx, u ◦ u(y)i.

Exercice 4 :
1. Soit a ∈ E . Par bilinéarité du produit scalaire, on a, pour tout (x, y, z) ∈ E 3 , et pour tout λ ∈ R,
ϕa (λx + y) = hλx + y, ai = λ hx, ai + hy, ai = λϕa (x) + ϕa (y). L'application ϕ est donc linéaire et est à valeurs
dans R : ϕa est une forme linéaire de E .
2. (a) i. Soient (a, b) ∈ E 2 et λ ∈ R.
Pour tout x ∈ E , ϕλa+b (x) = hx, λa + bi = λ hx, ai + hx, bi, par bilinéarité du produit scalaire. On a
donc, pour tout x ∈ E : ϕλa+b (x) = λϕa (x) + ϕb (x) = (λϕa + ϕb ) (x). On en déduit que
ϕλa+b = λϕa + ϕb , soit Φ(λa + b) = λΦ(a) + Φ(b). L'application Φ est bien linéaire, et va de E dans
L(E, R) par dénition.
ii. Soit a ∈ E tel que Φ(a) = θ, avec θ la forme linéaire nulle sur E . On a donc, pour tout x ∈ E ,

− →

ϕa (x) = 0 . En particulier : ϕa (a) = 0, soit ha, ai = 0. On en déduit que a = 0 car un produit scalaire


est une application dénie positive. Par conséquent, Ker(Φ) ⊂ { 0 }. L'inclusion réciproque étant


toujours vériée, on en déduit que Ker(Φ = { 0 }, ce qui signie que Φ est injective.
iii. On déduit du théorème du rang que
dim Im(Φ) = dim E − dim Ker(Φ) = dim(E) = dim(E) × 1 = dim L(E, R). Ainsi, Im(Φ) est un
sous-espace vectoriel de L(E, R) de même dimension. On en déduit que Im(Φ) = L(E, R).
On en déduit que Φ est un isomorphisme de E sur L(E, R) (c'est une application linéaire injective et
surjective). Par conséquent, pour toute forme linéaire f de E , il existe un unique vecteur a de E tel que
f = Φ(a), c'est-à-dire tel que f = ϕa .
n
(b) Soit f ∈ L(E, R). Soit x ∈ E . Comme la base (ε1 , . . . , εn ) est orthonormée, on a : x = hx, εk i εk , et donc
X

k=1
n
par linéarité de f : f (x) = hx, εk i f (εk ). Par bilinéarité du produit scalaire, on obtient, pour tout x ∈ E :
X

k=1
n n
* +
f (εk )εk . Ainsi, en posant a = εk f (εk ), on a bien, pour tout x ∈ E :
X X
f (x) = x,
k=1 k=1
f (x) = hx, ai = ϕa (x), ce qui montre que f = ϕa .
Montrons l'unicité d'un tel réel a. Supposons que a et b sont deux vecteurs de E tels que f = ϕa = ϕb . Par
bilinéarité du produit scalaire, on remarque que, pour tout x ∈ E :
hx, a − bi = hx, ai − hx, bi = ϕa (x) − ϕb (x) = 0. Pour x = a − b, on obtient en particulier :


||a − b||2 = ha − b, a − bi = 0. On en déduit que a − b = 0 et donc a = b.
n
Finalement, a = f (εk )εk est bien l'unique vecteur de E tel que f = ϕa .
X

k=1
3. On se place dans l'espace euclidien E = Rn [X] muni du produit scalaire déni par : ∀(P, Q) ∈ Rn [X] × Rn [X],
Z 1
hP, Qi = P (t)Q(t) dt.
0
L'application f dénie sur Rn [X] par : ∀Q ∈ Rn [X], f (Q) = Q(0) est une forme linéaire sur Rn [X].
On déduit de la question précédente qu'il existe Zun unique polynôme P ∈ Rn [X] tel que ∀Q ∈ Rn [X],
1
hP, Qi = f (Q), c'est-à-dire tel que ∀Q ∈ Rn [X], P (t)Q(t) dt = Q(0).
0
4. (a) On reprend les notations de la question précédente dans le cas où n = 2. Notons Q0 = 1, Q1 = X et
Q2 = X 2 .
7/ 8 C. Carchereux, lycée Carnot
D'après la question précédente, il existe un unique polynôme P = aX 2 + bX + c tel que : ∀Q ∈ R2 [X],
hP, Qi = f (Q). Par linéarité à droite du produit scalaire et par linéarité de f , cela revient à dire qu'il existe
un unique polynôme P = aX 2 + bX + c tel que hP, Qi i = f (Qi ), pour tout i ∈ [[0, 2]], car (Q0 , Q1 , Q2 ) est
une base de R2 [X].
1
Z
(at2 + bt + c).1 dt = Q0 (1) = 1


  

a Z0 1


Ainsi, il existe un unique vecteur b tel que :
  (at2 + bt + c).t dt = Q1 (0) = 0 , soit
c

 0
Z 1
 (at2 + bt + c).t2 dt = Q2 (0) = 0



0
a b


 + +c=1 1 1    
3 2 1 a 1


a b c 3 2
+ + = 0 , ce qui se traduit matriciellement par : 4 3 2 1 1 1  
b = 0.
 4 3 2 1 1 1
c 0
a + b + c = 0


 5 4 3
5 4 3
   
a 1
(b) Comme le système A  b  = 0 est de Cramer, la matrice A est bien inversible.
c 0
5. La fonction polynomiale P étant continue sur le segment [ 0 ; 1 ], il existe un réel M tel que : ∀t ∈ [ 0 ; 1 ],
|P (t)| 6 M .
Soit n ∈ N. Z 1 Z 1 Z 1
L'inégalité triangulaire donne : P (t).(1 − t)n dt 6 |P (t).(1 − t)n | dt = |P (t)| .(1 − t)n dt, car 0 6 1.
0 0 0
Or, pour tout t ∈ [ 0 ; 1 ] , |P (t)| .(1 − t)n 6 M.(1 − t)n . On obtient par positivité de l'intégrale :
1 1 1
(1 − t)n+1
Z Z 
M
|P (t)| .(1 − t) dt 6
n
M (1 − t) dt = M −
n
= . On a donc bien :
0 0 n+1 0 n+1
Z 1
M
∀n ∈ N, P (t).(1 − t)n dt 6 .
0 n+1
Z 1
M
Par hypothèse, pour tout n ∈ N, P (t).(1 − t)n dt = (1 − 0)n = 1. On a donc montré que : ∀n ∈ N, 1 6 .
0 n+1
On aboutit à une contradiction
Z 1 en faisant tendre n vers +∞. Par conséquent, il n'existe pas de polynôme P de
R[X] tel que ∀Q ∈ R[X], P (t).Q(t) dt = Q(0). Ce n'est pas en contradiction avec le résultat de les questions 2
0
et 3 car l'espace vectoriel R[X] n'est pas de dimension nie (le théorème du rang ne s'applique plus, et on ne peut
plus parler de base...)

8/ 8 C. Carchereux, lycée Carnot

Vous aimerez peut-être aussi