0% ont trouvé ce document utile (0 vote)
27 vues8 pages

DM7 24

Le document présente un devoir de mathématiques portant sur des concepts d'algèbre linéaire et de statistiques, avec des exercices sur la projection orthogonale, les endomorphismes, et le modèle de régression linéaire. Il comprend des questions sur les propriétés des matrices, les estimateurs sans biais, et les fluctuations des variables aléatoires dans le cadre d'une étude de régression. Les solutions et démonstrations sont également fournies pour chaque exercice et problème.

Transféré par

Simpson Bartツ
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
27 vues8 pages

DM7 24

Le document présente un devoir de mathématiques portant sur des concepts d'algèbre linéaire et de statistiques, avec des exercices sur la projection orthogonale, les endomorphismes, et le modèle de régression linéaire. Il comprend des questions sur les propriétés des matrices, les estimateurs sans biais, et les fluctuations des variables aléatoires dans le cadre d'une étude de régression. Les solutions et démonstrations sont également fournies pour chaque exercice et problème.

Transféré par

Simpson Bartツ
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ECS2

2024-2025
DEVOIR no 7
A rendre avant le 30 janvier 2025

EXERCICE
Dans cet 
exercice
 E=R3 est muni de sa srtucture euclidienne canonique.
a
Soit u =  b  tel que kuk = [Link] note D = V ect(u) et p la projection orthogonale sur D.
c
1. Soit x ∈ E
(a) Exprimer p(x) en fonction de u et x.
(b) Ecrire la matrice P de p dans la base canonique de E.
 
0 −c b
On note M =  c 0 −a et f l’endomorphisme de E canoniquement associé à M.
−b a 0
2. Montrer que Ker(f ) = D et Im(f ) = D⊥
3. (a) ExprimerM 2 en fonction de P et I.
(b) En déduire les valeurs propres de f 2 .
(c) L’endomorphisme est-il diagonalisable sur R ?
4. On pose pour tout réel y, gt = I + (sin t)f + (1 − cos t)f 2 .
(a) Exprimer f 3 en fonction de f .
(b) Calculer gt ◦ gt0 pour (t, t0 ) ∈ R2 .
(c) En déduire que pour tout réel t, gt est bijectif et déterminer son inverse.

PROBLÈME

Toutes les variables aléatoires qui interviennent dans ce problème sont réelles et définies sur un même espace pro-
babilisé (Ω, A, P ) où P peut dépendre de paramètres réels inconnus a, b, σ etc ; elles admettent toutes une espérance
et une variance : si J désigne l’une de ces variables aléatoires, on note E(J) son espérance et V (J) sa variance.
Si J1 , J2 et J1 + J2 sont des variables aléatoires à densité, on admet alors l’existence de la covariance de J1 et J2 ,
notée Cov(J1 , J2 ), qui est définie par la formule : Cov(J1 , J2 ) = 12 (V (J1 + J2 ) − V (J1 ) − V (J2 )).

On admet que les covariances de variables aléatoires à densité vérifient les mêmes règles de calcul que celles des
variables aléatoires discrètes. Dans tout le problème, n désigne un entier supérieur ou égal à 3.

L’objectif du problème est l’étude de quelques propriétés du modèle de régression linéaire élémentaire.

Partie I : Quelques résultats statistiques et algébriques


On considère une population d’individus statistiques dans laquelle on étudie deux caractères quantitatifs X et Y.
On extrait de cette population, un échantillon de n individus sélectionnés selon des valeurs choisies du caractère X et
numérotées de 1 à n.
Pour tout i de [[1, n]], les réels xi et yi sont les observations respectives de X et de Y pour l’individu i de l’échantillon.
On suppose que les réels x1 , x2 , · · · , xn ne sont pas tous égaux.
Soit a et b deux paramètres réels. On pose pour tout i de [[1, n]], ui = yi − (axi + b). (∗)
1. On note x (resp. y) et s2x (resp. s2y ), la moyenne empirique et la variance empirique de la série statistique (xi )16i6n
n n
(resp.(yi )16i6n ) ; on rappelle que x = n1 xi et s2x = n1 (xi − x)2 .
P P
i=1 i=1
(a) Montrer que s2x > 0.
n n n n
(xi − x)2 = (x2i ) − nx2 .
P P P P
(b) Etablir les formules : (xi − x)yi = (xi yi ) − nx y et
i=1 i=1 i=1 i=1

1
n n n
(xi − x) X 1
αi2 =
P P
(c) On pose pour tout i de [[1, n]] : αi = . Montrer que : αi = 0, αi x i = 1 et
ns2x i=1 i=1 i=1
ns2x

L’espace vectoriel Rn est muni de sa structure euclidienne canonique. Soit F le sous-espace vectoriel engendré
par les vecteurs (x1 , · · · , xn ) et (1 · · · , 1) de Rn
. On note p le projecteur orthogonal de Rn sur F dans la base
a n n
canonique de Rn . On cherche les matrices θ = u2i = (yi − (axi + b))2 .
P P
de M2,1 (R) qui minimisent
b i=1 i=1
 

2. Montrer que ce problème admet une unique solution θ̂ =

Pn
3. Montrer que â = αi yi et b̂ = y − âx.
i=1

Partie II : Fluctuations du modèle

Dans cette partie, on cherche à modéliser les fluctuations aléatoires du caractère Y sur l’échantillon.

Les hypothèses du modèle de régression linéaire élémentaire sont les suivants :


– les réels a et b sont des paramètres inconnus.
– pour tout i de [[1, n]], la valeur xi du caractère X est connue et la valeur yi du caractère Y est la réalisation
d’une variable aléatoire Yi .
– pour tout i de [[1, n]], Yi est la somme d’une composante déterministe axi + b, fonction affine de la valeur xi ,
et d’une composante aléatoire Ui .
– les variables aléatoires U1 , U2 , · · · , Un sont mutuellement indépendantes, de même loi, possèdent une densité,
et pour tout i de [[1, n]] : E(Ui ) = 0 et V (Ui ) = σ 2 , où le paramètre inconnu σ est strictement positif.
Le modèle de régression linéaire s’écrit alors : pour tout i de [[1, n]], Yi = axi + b + Ui (1).

L’objectif consiste à estimer les paramètres inconnus a, b et σ 2 du modèle (1).


n n
1 1
P P
On pose pour tout n > 3 : Y n = n Yi et U n = n Ui .
i=1 i=1
On dit que Xn est un estimateur sans bias d’un paramètre θ si Xn est une variable aléatoire telle
que E(Xn ) existe et vaut θ.
n
P
4. On note An et Bn les deux variables aléatoires définies par An = αi Yi et Bn = Y n − An x, où le réel αi a été
i=1
défini dans la question 1c
n
X
(xi − x)Ui
i=1
(a) Montrer que An = a + et Bn = b + (a − An )x + Un .
ns2x
(b) En déduire que que An et Bn sont des estimateurs sans biais de a et b respectivement.
σ2
  2
x2 σ
(c) Etablir les formules suivantes : V (An ) = 2 et V (Bn ) = 1 + 2 .
nsx sx n

(d) Calculer Cov(An , Bn ).


5. Dans cette question uniquement, l’entier n n’est plus fixé.
n n
On suppose l’existence de λ = lim n1 xi et µ2 = lim 1
− x)2 , avec (λ, µ) ∈ R × R∗+ .
P P
n (xi
n→+∞ i=1 n→+∞ i=1
Montrer que les deux suites (An )n>3 et (Bn )n>3 convergent en probabilité vers a et b respectivement.
6. (a) On pose pour tout i de [[1, n]] : Ûi = Yi − An xi − Bn . Calculer E(Ûi ).
n n
Ûi2 = (Ui − U n )2 − ns2x (An − a)2 .
P P
(b) Etablir l’égalité :
i=1 i=1
 n

Ûi . En déduire un estimateur sans biais de σ 2 .
2
P
(c) Calculer E
i=1

2
CORRIGÉ
Exercice 1
1. (a) On sait que l’on a alors :p(x) = hx, uiu.
a2 ab ac


(b) En utilisant pour x respectivement e1 , e2 , e3 , il vient P ab b2 bc  .


ac bc c2

−cy + bz = 0

t
2. Pour X = (x y z), on a M X = 0 ⇐⇒ cx − az =0

−bx + ay = 0

b c
Supposons par exemple a 6= 0, le système donne alors y = x, z = x et donc (x, y, z) est colinéaire à (a, b, c).
a a
Le résultat est bien entendu le même si on suppose b 6= 0 ou c 6= 0 et comme a2 + b2 + c2 = 1 il y en a un au
moins de non nul. Dcc Ker(f ) = D.
Soit y ∈ Im(f ), il existe x tel que y = f (x) et la matrice M est antisymétrique et pour tout z ∈ D on a :
hz, f (x)i =t ZM X =t X T M Z = −t XM Z = −hx, f (z)i = 0.

Cela montre que Im(f ) ⊂ D⊥ .Par le théorème du rang, dim(D ) = 2.
3. (a) Après calculs M 2 = P − I.
(b) Les valeurs propres de M 2 sont celles de P décallées de -1, par conséquent Sp(f 2 )={−1, 0}.
(c) Si λ est une valeur propre de f , alors λ2 est une valeur propre de f 2 et donc λ = 0 est la seule possibilité.
Si f était diagonalisable sur R, sa seule valeur propre étant 0 f serait nulle, ce qui est impossible. Donc f
non diagonalisable sur R.
4. (a) On sait que M 2 = P − I. En calculant MP, on trouve M 3 + M = 0 soit f 3 + f = 0.
(b) En utilisant les formules trigonométriques et f 3 = −f, f 4 = f 2 ,
il vient gt ◦ gt0 = I + sin(t + t0 )f + (1 − cos(t + t0 ))f 2 .
(c) Ainsi, comme g0 = Id, (gt )−1 = g−t

Problème d’après CCIP 2012

Partie I :Quelques résultats statistiques et algébriques

1. (a)  s2x est la somme de carrés, donc s2x > 0.


 Si s2x = 0 alors ∀i ∈ [[1, n]], xi = x. Donc les réels x1 , x2 , · · · , xn sont égaux.
Par hypothèse, les réels x1 , x2 , · · · , xn ne sont pas tous égaux, donc par contraposée s2x 6= 0.
Ainsi s2x > 0.
(b) 
n
X n
X n
X
(xi − x)yi = xi yi − xyi par linéarité
i=1 i=1 i=1
Xn
= xi yi − nx y par définition de y
i=1
n n
 Donc
P P
(xi − x)yi = (xi yi ) − nx y
i=1 n
i=1
X n
X
(xi − x)2 = x2i − 2xi x + x2
i=1 i=1
n
X n
X
= x2i − 2x xi + nx2 par linéarité
i=1 i=1
Xn
= x2i − 2nx2 + nx2 par définition de x
i=1
Xn
= x2i − nx2
i=1

3
n n
(xi − x)2 = (x2i ) − nx2 .
P P
Donc
i=1 i=1
n n n
!
X X (xi −x) 1 X 1
(c)  αi = = xi − nx = (nx − nx)
ns2x ns2x ns2x
i=1 i=1 i=1

n n
X X (xi − x)
αi xi = xi
i=1 i=1
ns2x
n
X xi − x
= (xi − x + x)
i=1
ns2x
n
!
1 X
= (xi − x)2 + x(xi − x)
ns2x
i=1
n
!
1 X
= ns2x +x (xi − x)
ns2x
i=1
n
!!
1 X
= ns2x +x xi − nx
ns2x
i=1
= 1


n n
X X (xi − x)2
αi2 =
i=1 i=1
(ns2x )2
n
1 X
= (xi − x)2
(ns2x )2
i=1
1
= ns2x
(ns2x )2
1
=
ns2x

2. cf méthode des moindres carrés dans le cours : existence et unicité par la projection orthogonale de
y = (y1 , y2 , . . . , yn ) sur F le sous-espace vectoriel engendré par les vecteurs (x1 , · · · , xn ) et (1 · · · , 1) de Rn .
On cherche une BON de F : si u1 = (1, 1 . . . , 1) et u2 = (x1 , · · · , xn ) alrs comme par hypothèse on peut appliquer
le POS et on trouve :
n
1
e1 = √1 (1, 1 . . . , 1) et v2 = u2 − < u2 , e1 > e1 = (x1 , · · · , xn ) −
X
xi (1, 1 . . . , 1) = (x1 − x, . . . , xn − x) que
n n
i=1
2
l’on norme .On a ku2 k = nsx donc e2 = p 1 (x1 − x, . . . , xn − x).
ns2x
La formule de la projection orthogonale donne alors

p(y) =< y, e1 > e1 + < y, e2 > e2


n
X 1
= y(1, 1 . . . , 1) + (xi − x)yi 2 (x1 − x, . . . , xn − x)
i=1
ns x
n
X
= y(1, 1 . . . , 1) + αi yi (x1 − x, . . . , xn − x)
i=1
n
X n
X
= αi yi (x1 , · · · , xn ) + (y − αi yi x)(1, · · · , 1)
i=1 i=1
= â(x1 , · · · , xn ) + (y − ax)(1, · · · , 1)
n
X
3. expression résultant du calcul du projeté en question : on trouve â = αi yi et b̂ = (y − ax).
i=1

Partie II : Fluctuations du modèle

4
4. (a) On a
n
X n
X
An = αi Yi = αi (axi + b + Ui )
i=1 i=1
n
X n
X n
X
= a α i xi + αi b + αi Ui
i=1 i=1 i=1
n
X
= a+0+ α i Ui
i=1
Pn
i=1 (xi − x)Ui
= 0+
ns2x

compte tenu de la définition de αi et des relations démontrées en 1c


De même pour la relation suivante :
n n
1 X 1 X
Y n − An x = Yi = Y n = (axi + b + Ui ) − An x = (a − An )x + b + Un .
n n
i=1 i=1

(b)
 Les variables aléatoires Yi admettent une espérance, donc An admet une espérance.
n
X
E(An ) = αi E(Yi ) par linéarité de l’espérance
i=1
Xn

= αi axi + b + E(Ui ) car Yi = axi + b + Ui
i=1
Xn

= αi axi + b car E(Ui ) = 0
i=1
n
X n
X
= a αi xi + b αi
i=1 i=1
n
X n
X
= a (car toujours d’après 1c) αi = 0, αi xi = 1)
i=1 i=1

E(Bn ) = E(Y n ) − xE(An ) par linéarité de l’espérance


n
1 X
= E(Yi ) − ax
n
i=1
n
1 X
= axi + b + E(Ui ) − ax car Yi = axi + bUi
n
i=1
n
1 X
= axi + b − ax car E(Ui ) = 0
n
i=1
= ax + b − ax
= b

Donc An et Bn sont des estimateurs sans biais de a et b respectivement.


(c)  Comme les variables aléatoires U1 ,U2 , · · · , Un sont mutuellement indépendantes, Y1 , Y2 , · · · ,Yn sont
n
αi2 V (Yi ).
P
mutuellement indépendantes. Donc V (An ) =
i=1
Or Yi = axi + b + Ui . Donc V (Yi ) = V (Ui ) = σ 2 .
n σ2
αi2 σ 2 = 2 d’après la question 1c) de la partie I.
P
Alors V (An ) =
i=1 nsx

5
n
1
P 
 Par définition de Yn et de An , Bn = Y n − An x = n − αi x Yi .
i=1
n 2
1
P
Par indépendance des variables aléatoires Y1 , Y2 , · · · , Yn , V (Bn ) = n − αi x V (Yi ).
i=1
n 2
1
Or V (Yi ) = σ 2 . Donc V (Bn ) = σ 2
P
n − αi x .
i=1

n  2 n 
1 1 1
X X 
Par ailleurs − αi x = − 2 αi x + αi2 x2
n n2 n
i=1 i=1
n n
1 1 X X
= −2 x αi + x2 αi2
n n
i=1 i=1
1 2 1
= +x
n ns2x


x2
 σ2 
x2
 2
Ainsi V (Bn ) = σ 2 n1 1 + s2x
et
. Finalement V (An ) = V (B n ) = 1 + 2
σ
n .
ns2x sx

(d) Déterminons d’abord l’expression de An + Bn en fonction de Yi , pour ensuite déterminer la variance de


An + Bn et enfin trouver la covariance de (An , Bn) à l’aide la formule
Cov(An , Bn ) = 12 V (An + Bn ) − V (An ) − V (Bn ) .
Expression de An + Bn .

n n n
X 1 X X
An + Bn = αi Yi + Yi − αi xYi
n
i=1 i=1 i=1
n 
1
X 
= + αi − αi x Yi
n
i=1

Calcul de V (An + Bn ) .
Les variables aléatoires Y1 , · · · , Yn sont mutuellement indépendantes.
n 2
1
P
Donc V (An + Bn ) = n + αi − αi x V (Yi ).
i=1
n
P 1 2
Or V (Yi ) = σ 2 . Donc V (An + Bn ) = σ 2 n + αi − αi x .
i=1

n  2 n 
1 1 1
X X 
Par ailleurs + αi − αi x = + (1 − x)2 αi2 + 2 (1 − x)αi
n n2 n
i=1 i=1
n n
1 X 1 X
= + (1 − x)2 αi2 + 2 (1 − x) αi
n n
i=1 i=1
1 2 1
= + (1 − x)
n ns2x
 
σ2
Ainsi V (An + Bn ) = n 1 + (1 − x)2 s12 .
x

Calcul de Cov(An , Bn ) .
1 
Cov(An , Bn ) = V (An + Bn ) − V (An ) − V (Bn )
2
     
1 σ2 1 σ2 x2 σ2
= 1 + (1 − x)2 2 − 2 − 1 +
2 n sx nsx s2x n
2
σ
(1 − x)2 − 1 − x 2

=
2ns2x
−xσ 2
=
ns2x

−xσ 2
Ainsi Cov(An , Bn ) = .
ns2x

6
n
1
5. s2x = (xi − x)2 . Par hypothèse dans cette question s2x µ2 donc lim ns2x = +∞.
P
n ∼
i=1 n→+∞ n→+∞
σ2
Or V (An ) = ns2x
. Donc lim V (An ) = 0.
n→+∞
D’après l’inégalité de Bienaymé-Tchebychev appliquée à la variable aléatoire An qui admet un moment d’ordre
2:   V (A )
n
∀ε > 0, P |An − E(An )| > ε 6
ε2
 
Or E(An ) = a. Donc par encadrement lim P |An − a| > ε = 0. Ainsi la suite (An )n>3 converge en proba-
n→+∞   2
2
bilité vers a. D’après la question 4b), V (Bn ) = 1 + xs2 σn .
x
 2
 λ2
Par hypothèse dans cette question lim x = λ et lim s2x = µ2 , donc lim 1 + xs2 = 1 + 2 .
n→+∞ n→+∞ n→+∞ x µ
Donc lim V (Bn ) = 0.
n→+∞
Or d’après l’inégalité
 de Bienaymé-Tchebychev
 appliquée à la variable aléatoire Bn qui admet un moment d’ordre
V (Bn )
2 : ∀ε > 0, P |Bn − E(Bn )| > ε 6 ε2 .
 
Or E(Bn ) = b. Donc par encadrement lim P |Bn − b| > ε = 0. Ainsi la suite (Bn )n>3 converge en probabi-
n→+∞
lité vers b.
6. (a) Par linéarité de l’espérance E(Ûi ) = E(Yi ) − xi E(An ) − E(Bn ).
Or E(Yi ) = axi + b car Yi = axi + b + Ui et E(Ui ) = 0. Et E(An ) = a et E(Bn ) = b. Donc E(Ûi ) = 0.
(b) Remarquons que Ûi = Yi − An xi − Bn = axi + b + Ui − An xi − Y n + An x.
n n
Or Y n = n1 Yi = n1
P P
(axi + b + Ui ) = ax + b + U n .
i=1 i=1
Donc Ûi = Ui − U n − (xi − x)(An − a).

n n
X X 2
Ûi2 = Ui − U n − (xi − x)(An − a)
i=1 i=1
n
X n
X n
X
= (Ui − U n )2 + (xi − x)2 (An − a)2 − 2 (xi − x)(Ui − U n )(An − a)
i=1 i=1 i=1
n
X n
X
= (Ui − U n )2 + ns2x (An − a)2 − 2 (xi − x)(Ui − U n )(An − a)
i=1 i=1
n n
1 1

Yi − Yj − a(xi − xj ) = Yi − Y n − a(xi − x) et (xi − x) = ns2x αi .
P P
Or Ui − U n = n (Ui − Uj ) = n
j=1 j=1
n
X n
X n
X
Donc (xi − x)(Ui − U n ) = (xi − x)(Yi − Y n ) − a (xi − x)2
i=1 i=1 i=1
n n
!
X X
= ns2x αi Yi − αi Y n − ans2x
i=1 i=1
= nsx An − ns2x a
2

= ns2x (An − a)
n n
(Ui − U n )2 − ns2x (An − a)2 .
Ûi2 =
P P
Ainsi
i=1 i=1
 n  n
P 2  
E (Ui − U n )2 − ns2x E (An − a)2 .
P
(c) Par linéarité de l’espérance, E Ûi =
i=1 i=1
n n n
X X 2 X
E (Ui − U n )2 E(Ui2 ) + nE(U n ) − 2

Or = E(Ui U n )
i=1 i=1 i=1
n
!
2 X
= nσ 2 + nE(U n ) − 2E Ui U n car E(Ui ) = 0 alors V (Ui ) = E(Ui2 )
i=1
2
 2

2
= nσ + nE(U n ) − 2E nU n
2
= nσ 2 − nE(U n )

7
 
n n
2 1 X X
Mais E(U n ) = E Ui Uj 
n2
i=1 j=1
n X
n
1 X
= E(Ui Uj )
n2
i=1 j=1
 
n n X
n
1 X X
= E(Ui2 ) + E(Ui )E(Uj ) car Ui et Uj sont indépendantes
 
n2

i=1 i=1 j=1
j6=i

σ2
=
n
n
X
E (Ui − U n )2 (n − 1)σ 2

Donc =
i=1
 n

σ2
2
 2

Ûi2 = (n − 2)σ 2 .
P
Et E (An − a) = E (An − E(An )) = V (An ) = ns2x
. Donc E
i=1
n
1
Ûi2 est un estimateur sans biais de σ 2 .
P
La variable aléatoire n−2
i=1

Vous aimerez peut-être aussi