DM7 24
DM7 24
2024-2025
DEVOIR no 7
A rendre avant le 30 janvier 2025
EXERCICE
Dans cet
exercice
E=R3 est muni de sa srtucture euclidienne canonique.
a
Soit u = b tel que kuk = [Link] note D = V ect(u) et p la projection orthogonale sur D.
c
1. Soit x ∈ E
(a) Exprimer p(x) en fonction de u et x.
(b) Ecrire la matrice P de p dans la base canonique de E.
0 −c b
On note M = c 0 −a et f l’endomorphisme de E canoniquement associé à M.
−b a 0
2. Montrer que Ker(f ) = D et Im(f ) = D⊥
3. (a) ExprimerM 2 en fonction de P et I.
(b) En déduire les valeurs propres de f 2 .
(c) L’endomorphisme est-il diagonalisable sur R ?
4. On pose pour tout réel y, gt = I + (sin t)f + (1 − cos t)f 2 .
(a) Exprimer f 3 en fonction de f .
(b) Calculer gt ◦ gt0 pour (t, t0 ) ∈ R2 .
(c) En déduire que pour tout réel t, gt est bijectif et déterminer son inverse.
PROBLÈME
Toutes les variables aléatoires qui interviennent dans ce problème sont réelles et définies sur un même espace pro-
babilisé (Ω, A, P ) où P peut dépendre de paramètres réels inconnus a, b, σ etc ; elles admettent toutes une espérance
et une variance : si J désigne l’une de ces variables aléatoires, on note E(J) son espérance et V (J) sa variance.
Si J1 , J2 et J1 + J2 sont des variables aléatoires à densité, on admet alors l’existence de la covariance de J1 et J2 ,
notée Cov(J1 , J2 ), qui est définie par la formule : Cov(J1 , J2 ) = 12 (V (J1 + J2 ) − V (J1 ) − V (J2 )).
On admet que les covariances de variables aléatoires à densité vérifient les mêmes règles de calcul que celles des
variables aléatoires discrètes. Dans tout le problème, n désigne un entier supérieur ou égal à 3.
L’objectif du problème est l’étude de quelques propriétés du modèle de régression linéaire élémentaire.
1
n n n
(xi − x) X 1
αi2 =
P P
(c) On pose pour tout i de [[1, n]] : αi = . Montrer que : αi = 0, αi x i = 1 et
ns2x i=1 i=1 i=1
ns2x
L’espace vectoriel Rn est muni de sa structure euclidienne canonique. Soit F le sous-espace vectoriel engendré
par les vecteurs (x1 , · · · , xn ) et (1 · · · , 1) de Rn
. On note p le projecteur orthogonal de Rn sur F dans la base
a n n
canonique de Rn . On cherche les matrices θ = u2i = (yi − (axi + b))2 .
P P
de M2,1 (R) qui minimisent
b i=1 i=1
â
2. Montrer que ce problème admet une unique solution θ̂ =
b̂
Pn
3. Montrer que â = αi yi et b̂ = y − âx.
i=1
Dans cette partie, on cherche à modéliser les fluctuations aléatoires du caractère Y sur l’échantillon.
2
CORRIGÉ
Exercice 1
1. (a) On sait que l’on a alors :p(x) = hx, uiu.
a2 ab ac
3
n n
(xi − x)2 = (x2i ) − nx2 .
P P
Donc
i=1 i=1
n n n
!
X X (xi −x) 1 X 1
(c) αi = = xi − nx = (nx − nx)
ns2x ns2x ns2x
i=1 i=1 i=1
n n
X X (xi − x)
αi xi = xi
i=1 i=1
ns2x
n
X xi − x
= (xi − x + x)
i=1
ns2x
n
!
1 X
= (xi − x)2 + x(xi − x)
ns2x
i=1
n
!
1 X
= ns2x +x (xi − x)
ns2x
i=1
n
!!
1 X
= ns2x +x xi − nx
ns2x
i=1
= 1
n n
X X (xi − x)2
αi2 =
i=1 i=1
(ns2x )2
n
1 X
= (xi − x)2
(ns2x )2
i=1
1
= ns2x
(ns2x )2
1
=
ns2x
2. cf méthode des moindres carrés dans le cours : existence et unicité par la projection orthogonale de
y = (y1 , y2 , . . . , yn ) sur F le sous-espace vectoriel engendré par les vecteurs (x1 , · · · , xn ) et (1 · · · , 1) de Rn .
On cherche une BON de F : si u1 = (1, 1 . . . , 1) et u2 = (x1 , · · · , xn ) alrs comme par hypothèse on peut appliquer
le POS et on trouve :
n
1
e1 = √1 (1, 1 . . . , 1) et v2 = u2 − < u2 , e1 > e1 = (x1 , · · · , xn ) −
X
xi (1, 1 . . . , 1) = (x1 − x, . . . , xn − x) que
n n
i=1
2
l’on norme .On a ku2 k = nsx donc e2 = p 1 (x1 − x, . . . , xn − x).
ns2x
La formule de la projection orthogonale donne alors
4
4. (a) On a
n
X n
X
An = αi Yi = αi (axi + b + Ui )
i=1 i=1
n
X n
X n
X
= a α i xi + αi b + αi Ui
i=1 i=1 i=1
n
X
= a+0+ α i Ui
i=1
Pn
i=1 (xi − x)Ui
= 0+
ns2x
(b)
Les variables aléatoires Yi admettent une espérance, donc An admet une espérance.
n
X
E(An ) = αi E(Yi ) par linéarité de l’espérance
i=1
Xn
= αi axi + b + E(Ui ) car Yi = axi + b + Ui
i=1
Xn
= αi axi + b car E(Ui ) = 0
i=1
n
X n
X
= a αi xi + b αi
i=1 i=1
n
X n
X
= a (car toujours d’après 1c) αi = 0, αi xi = 1)
i=1 i=1
5
n
1
P
Par définition de Yn et de An , Bn = Y n − An x = n − αi x Yi .
i=1
n 2
1
P
Par indépendance des variables aléatoires Y1 , Y2 , · · · , Yn , V (Bn ) = n − αi x V (Yi ).
i=1
n 2
1
Or V (Yi ) = σ 2 . Donc V (Bn ) = σ 2
P
n − αi x .
i=1
n 2 n
1 1 1
X X
Par ailleurs − αi x = − 2 αi x + αi2 x2
n n2 n
i=1 i=1
n n
1 1 X X
= −2 x αi + x2 αi2
n n
i=1 i=1
1 2 1
= +x
n ns2x
x2
σ2
x2
2
Ainsi V (Bn ) = σ 2 n1 1 + s2x
et
. Finalement V (An ) = V (B n ) = 1 + 2
σ
n .
ns2x sx
n n n
X 1 X X
An + Bn = αi Yi + Yi − αi xYi
n
i=1 i=1 i=1
n
1
X
= + αi − αi x Yi
n
i=1
Calcul de V (An + Bn ) .
Les variables aléatoires Y1 , · · · , Yn sont mutuellement indépendantes.
n 2
1
P
Donc V (An + Bn ) = n + αi − αi x V (Yi ).
i=1
n
P 1 2
Or V (Yi ) = σ 2 . Donc V (An + Bn ) = σ 2 n + αi − αi x .
i=1
n 2 n
1 1 1
X X
Par ailleurs + αi − αi x = + (1 − x)2 αi2 + 2 (1 − x)αi
n n2 n
i=1 i=1
n n
1 X 1 X
= + (1 − x)2 αi2 + 2 (1 − x) αi
n n
i=1 i=1
1 2 1
= + (1 − x)
n ns2x
σ2
Ainsi V (An + Bn ) = n 1 + (1 − x)2 s12 .
x
Calcul de Cov(An , Bn ) .
1
Cov(An , Bn ) = V (An + Bn ) − V (An ) − V (Bn )
2
1 σ2 1 σ2 x2 σ2
= 1 + (1 − x)2 2 − 2 − 1 +
2 n sx nsx s2x n
2
σ
(1 − x)2 − 1 − x 2
=
2ns2x
−xσ 2
=
ns2x
−xσ 2
Ainsi Cov(An , Bn ) = .
ns2x
6
n
1
5. s2x = (xi − x)2 . Par hypothèse dans cette question s2x µ2 donc lim ns2x = +∞.
P
n ∼
i=1 n→+∞ n→+∞
σ2
Or V (An ) = ns2x
. Donc lim V (An ) = 0.
n→+∞
D’après l’inégalité de Bienaymé-Tchebychev appliquée à la variable aléatoire An qui admet un moment d’ordre
2: V (A )
n
∀ε > 0, P |An − E(An )| > ε 6
ε2
Or E(An ) = a. Donc par encadrement lim P |An − a| > ε = 0. Ainsi la suite (An )n>3 converge en proba-
n→+∞ 2
2
bilité vers a. D’après la question 4b), V (Bn ) = 1 + xs2 σn .
x
2
λ2
Par hypothèse dans cette question lim x = λ et lim s2x = µ2 , donc lim 1 + xs2 = 1 + 2 .
n→+∞ n→+∞ n→+∞ x µ
Donc lim V (Bn ) = 0.
n→+∞
Or d’après l’inégalité
de Bienaymé-Tchebychev
appliquée à la variable aléatoire Bn qui admet un moment d’ordre
V (Bn )
2 : ∀ε > 0, P |Bn − E(Bn )| > ε 6 ε2 .
Or E(Bn ) = b. Donc par encadrement lim P |Bn − b| > ε = 0. Ainsi la suite (Bn )n>3 converge en probabi-
n→+∞
lité vers b.
6. (a) Par linéarité de l’espérance E(Ûi ) = E(Yi ) − xi E(An ) − E(Bn ).
Or E(Yi ) = axi + b car Yi = axi + b + Ui et E(Ui ) = 0. Et E(An ) = a et E(Bn ) = b. Donc E(Ûi ) = 0.
(b) Remarquons que Ûi = Yi − An xi − Bn = axi + b + Ui − An xi − Y n + An x.
n n
Or Y n = n1 Yi = n1
P P
(axi + b + Ui ) = ax + b + U n .
i=1 i=1
Donc Ûi = Ui − U n − (xi − x)(An − a).
n n
X X 2
Ûi2 = Ui − U n − (xi − x)(An − a)
i=1 i=1
n
X n
X n
X
= (Ui − U n )2 + (xi − x)2 (An − a)2 − 2 (xi − x)(Ui − U n )(An − a)
i=1 i=1 i=1
n
X n
X
= (Ui − U n )2 + ns2x (An − a)2 − 2 (xi − x)(Ui − U n )(An − a)
i=1 i=1
n n
1 1
Yi − Yj − a(xi − xj ) = Yi − Y n − a(xi − x) et (xi − x) = ns2x αi .
P P
Or Ui − U n = n (Ui − Uj ) = n
j=1 j=1
n
X n
X n
X
Donc (xi − x)(Ui − U n ) = (xi − x)(Yi − Y n ) − a (xi − x)2
i=1 i=1 i=1
n n
!
X X
= ns2x αi Yi − αi Y n − ans2x
i=1 i=1
= nsx An − ns2x a
2
= ns2x (An − a)
n n
(Ui − U n )2 − ns2x (An − a)2 .
Ûi2 =
P P
Ainsi
i=1 i=1
n n
P 2
E (Ui − U n )2 − ns2x E (An − a)2 .
P
(c) Par linéarité de l’espérance, E Ûi =
i=1 i=1
n n n
X X 2 X
E (Ui − U n )2 E(Ui2 ) + nE(U n ) − 2
Or = E(Ui U n )
i=1 i=1 i=1
n
!
2 X
= nσ 2 + nE(U n ) − 2E Ui U n car E(Ui ) = 0 alors V (Ui ) = E(Ui2 )
i=1
2
2
2
= nσ + nE(U n ) − 2E nU n
2
= nσ 2 − nE(U n )
7
n n
2 1 X X
Mais E(U n ) = E Ui Uj
n2
i=1 j=1
n X
n
1 X
= E(Ui Uj )
n2
i=1 j=1
n n X
n
1 X X
= E(Ui2 ) + E(Ui )E(Uj ) car Ui et Uj sont indépendantes
n2
i=1 i=1 j=1
j6=i
σ2
=
n
n
X
E (Ui − U n )2 (n − 1)σ 2
Donc =
i=1
n
σ2
2
2
Ûi2 = (n − 2)σ 2 .
P
Et E (An − a) = E (An − E(An )) = V (An ) = ns2x
. Donc E
i=1
n
1
Ûi2 est un estimateur sans biais de σ 2 .
P
La variable aléatoire n−2
i=1