0% ont trouvé ce document utile (0 vote)
300 vues5 pages

Régression et Tests Statistiques en Économétrie

Ce document présente plusieurs exercices d'économétrie. Il introduit des notions de régression linéaire simple et multiple, notamment le calcul de la matrice de régression et l'estimation des coefficients. Des tests de significativité des coefficients et de la qualité globale de la régression sont également abordés.

Transféré par

Benze Abd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
300 vues5 pages

Régression et Tests Statistiques en Économétrie

Ce document présente plusieurs exercices d'économétrie. Il introduit des notions de régression linéaire simple et multiple, notamment le calcul de la matrice de régression et l'estimation des coefficients. Des tests de significativité des coefficients et de la qualité globale de la régression sont également abordés.

Transféré par

Benze Abd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

TD3 L3 Econométrie

Exercice I

1) Pour i = 1, 2, on note la moyenne x̄i = n1 t≤n xi (t) et xci les variables


P
centrées xci = xi − x̄i . De même y c = y − ȳ.
Posons    
xc1 (1) xc2 (1) y c (1)
X =  ... ..  , Y =  .. 

.   . 
c c
x1 (n) x2 (n) y c (n)
en notant X ′ la transposée de X on obtient
 
c c
 c  x1 (1) x2 (1)  P c 2
P c c

′ x1 (1) · · · xc1 (n)  .. .
..  = P t≤n x 1 (t) t≤n x1 (t)x2 (t)
XX=

 .
xc2 (1) · · · xc2 (n) c c c 2
P
c c t≤n x2 (t)x1 (t) t≤n x2 (t)
x1 (n) x2 (n)

Ainsi on doit d’abord calculer


X X
xc1 (t)2 = (x1 (t) − x̄1 )2
t≤n t≤n
X
= x1 (t)2 − nx̄2
t≤n

= 1400000 − 7(2800/7)2
= 280000

De même X
xc2 (t)2 = 3200 − 7(140/7)2 = 400,
t≤n

et X
xc1 (t)xc2 (t) = 63000 − 7(140/7)(2800/7) = 7000.
t≤n

On obtient la matrice  
′ 280000 7000
XX= .
7000 400
On peut l’inverser directement, det(X ′ X) = 280000.400 − 70002 = 63000000
Donc  
′ −1 1 400 −7000
(X X) = .
63000000 −7000 280000

1
Il reste à calculer
c c
P     
′ x1 (t)y(t) 184500 − 7(420/7)(2800/7) 16500
X Y = Pt≤n c c = P =
t≤n x2 (t)y(t) t≤n 9000 − 7(420/7)(140/7) 600

Finalement on peut calculer les coefficients de la régression centrée


   
α1 ′ −1 ′ 0.0381
A= = (X X) X Y =
α2 0.8333
Remarque : On a alors ŷ c = α1 xc1 +α2 xc2 . En remplaçant les variables centrées par
leur définition on peut retrouver la valeur du terme constant β = ȳ − α1 x̄1 − α2 x̄2 .

2˚) On retrouve la somme des carrés totaux


 2
X 420
SCT = yic (t)2 = 26350 − 7. = 1150
t≤n
7

Pour le SCE on peut utiliser l’égalité SCE = A′ X ′ Y


 
 16500
SCE = 0.0381 0.8333 = 0.0381 × 16500 + 0.8333 × 600 = 1128.6.
600

Attention : cette égalité n’est vraie que sur des variables centrées.
Finalement
SCE
R2 = = 0.9814
SCT

3˚) Pour estimer la variance des coefficients de la regression on estime la va-


riance du résidu. Il y a n = 7 observations et m = 2 variables expicatives, on
SCR = 1150−1128.6 = 5.34.
obtient σu2 = n−m−1 4
Puis on lit les termes de la diagonale de la matrice,
 
σα21 · −1
= σu2 X t X .
· σα22
En identifiant terme à terme il vient σα2 1 = 3, 3921.10−5 et σα2 2 = 0.0237.
On effectue ensuite le test bilatéral de Student. On sait que la variable t suit
une loi de Student
α̂1 − α1
t= ∼ St(n − m − 1)
σα1

2
On remplace α̂1 par l’estimation obtenue, et α1 par la valeur à tester. Ici (et
souvent) on teste la nullité des coefficients, donc on remplace α1 = 0.
Finalement il s’agit de comparer
α̂1
tobs,1 = = 6.54
σα1
α̂2
tobs,2 = = 143.07
σα2
à la valeur de référence qu’on lit dans la table de Student St(4), p = 0.05, tref =
2.776. tobs,1 6∈ [−2.776, 2.776] donc α1 est significativement non nul. Même conclu-
sion pour le test à p = 0.01, tref = 4.64.

4˚) Test de Fisher du R2 On sait que la variable F qui suit une loi de Fisher
R2 /m
F = ∼ F (m, n − m − 1),
(1 − R2 )/(n − m − 1)
et on observe Fobs = 105.62
On veut comparer la valeur observée à la valeur limite de référence qu’on lit
dans la table de Fisher, F (2, 4) Fref = 6.94. Le test est unilatéral, Fobs ≥ Fref donc
la régression est bonne dans son ensemble.

Exercice II

1˚) cf. cours

2˚) On sait que la variable t suit une loi de Student


α̂1
t= ∼ St(n − m − 1)
σα1
Il y a n = 7 observations et m = 1 variable explicative. Finalement il s’agit de
comparer
α̂
tobs = = 6.50
σα
à la valeur de référence tref dans la table St(5), tref ] = 2.571. On a bien tobs 6∈
[−tref , tref ] donc α est significativement non nul.

3
On calcule la somme des carrés totale SCT = t≤n (Y (t) − Ȳ )2 = 160.
P
3˚)
Ainsi R2 = 1 − SCR 75.09
SCT = 1 − 160 = 0.53
Le R2 n’est pas proche de 1, donc la régression est plutôt mauvaise.
Remarque : Il faut en toute rigueur un test de Fisher pour estimer la qualité de
la régression. On peut cependant s’attendre à une bonne régression quand 0.8 <
R2 ≤ 1 et une mauvaise régression quand 0 < R2 ≤ 0.8.

4˚) C’est une régression multilinéaire. On traite X 2 comme une deuxième va-
riable explicative, indépendante de X.

5˚) On définit deux variables t1 , t2 qui suivent une loi de Student d’après le
cours :
β̂1
t1 = ∼ St(n − m − 1),
σβ1

β̂2
t2 = ∼ St(n − m − 1).
σβ2
On observe t1 = −19.0435 et t2 = 16.2012. On a n = 7 observations et m = 2
variables explicatives, donc on lit tref = 2.776 dans la table St(4). On vérifie
tobs 6∈ [−tref , tref ]. et on conclut : β1 et β2 sont significativement non nuls.

6˚) Ici R2 = 1 − SCR


SCT = 1 −
1.67
160
= 0.9896.

 
23.25
Exercice III Attention : Il faut lire Y t Y = 1200 et X t Y = 52.75
130.7

1) La demande est une fonction décroissante du prix de vente, donc α1 < 0. Par
contre si le prix du concurrent augmente, la demande augmente et α2 > 0.
 
−0.85
−1
2) En suivant les notations de l’énoncé A = (X t X) X t Y =  1.2 
5

4
3) On est dans une régression multilinéaire sur des données brutes. Les variables
ne sont pas centrées. Ainsi par définition
   
x1 (1) x2 (1) 1 y(1)
X =  ... .. ..  , Y =  .. 

. .  . 
x1 (n) x2 (n) 1 y(n)
P 
t≤n x1t yt
Le calcul de X t Y contient presque la moyenne de Y , puisque X t Y =  Pt≤n x2t yt 
P

t≤n y(t)
2 2 2 130.70 2
P P
On a SCT = t≤n (yt − ȳ) = t≤n yt − nȳ = 1200 − 25( 25 ) = 516.7.
On calcule SCR = Y t Y − At X t Y = 1200 − 697.03 = 502.9625
On en déduit SCE = SCT − SCR = 13.73
Remarque : L’équation SCR = Y t Y −At X t Y est vraie dans le cas des données
brutes et dans le cas des données centrées.

4˚) Finalement
SCE
R2 = = 0.02,
SCT
l’ajustement a l’air très mauvais.

5˚) SCR = 22.86


On estime la variance du bruit σu2 = n−m−1
Ensuite on construit la matrice de variance des coefficients de régression
 2 
σα1 · · −1
 · σα2
2
·  = σu2 X t X .
· · σβ
La variance des coefficients se lit sur la diagonale
 
σα2 1 σα2 2 σβ2 = 1.8485 3.7079 1.3672
On lit tref = 2.074 dans la table St(22) à 5%, et on en déduit les intervalles de
confiance.
IC(α1 ) = [α1 ± σα1 tref ] = [−3.6698, 1.9698]
IC(α2 ) = [−2.79375.1937]
IC(α3 ) = [2.57497.4251]
Les intervalles de confiance sont équivalents aux tests de Student sur les coef-
ficients. Ici, 0 ∈ IC(α1 ) et 0 ∈ IC(α2 ) donc α1 , α2 ne sont pas non nuls significa-
tivement. Par contre α3 est non nul significativement.

Vous aimerez peut-être aussi