Économétrie
Économétrie
Econométrie
Dr DONFACK Véronique
PLAN DU COURS
I. Introduction
II. Hypothèses et données du problème.
III. Estimation de et de par la méthode des moindres carrées ordinaires.
IV. Inférence statistique
V. Prévisions
I. Introduction
Méthodologie économétrique:
2
Rejeter la théorie si non compatible avec les données et dans ce cas, réviser la théorie et
confronter la nouvelle théorie avec les données.
=
( , ) qui satisfasse les conditions suivantes:
Le but de l’économétrie est d’estimer ce modèle, c’est -à-dire, de trouver une fonction
(plusieurs milliers d’observation). C’est le type de données le plus adapté pour le calibrage
macro-économique.
But de l’estimation :
1. L’estimation vérifie qu’une variable a bien un effet sur une variable , et quantifie cet
effet.
3
CHAPITRE I REGRESSION LINEAIRE SIMPLE
Dans ce chapitre, nous étudierons le modèle linéaire à deux variables dans le but de tester les
hypothèses concernant la relation entre une variable dépendante et une variable indépendante
ou explicative et, de faire des prévisions.
Cette analyse commence habituellement par le tracé d’un nuage de points {( , ), ' =
1, … , *} et la détermination par inspection d’une relation linéaire appropriée = + .
Puisque les points de ce tracé ne sont malheureusement pas sur la droite d’équation précédente,
l’on doit spécifier la relation en ajoutant un terme stochastique d’erreur normalement
distribué
= + + (2)
+ : ( )=-=0
+ : / 0( ) = 1 = 23
•
Les trois premières hypothèses reviennent à dire que les observations sont
indépendantes les unes les autres.
Notations utiles :
= ( ,…, @)
A
, 1(*, 1) est le vecteur colonne formé de 1 et = ( ,… @ )′
2. BC = @ ∑@ , EC = @ ∑@ et de .
1. .
(MCO).
II-1 Définition
minimisation de la somme des carrées des écarts entre chacune des valeurs observées
4
et les valeurs ajustées GF = + : K(HI , HJ ) = ∑@ ̂ = ∑@ ( − −
) . Sous forme vectorielle : K(HI , HJ ) = || − HI 1(*, 1) − HJ || . Ainsi
( , ) = argmin(HI , HJ ) de K(HI , HJ ).
I-2 Propriétés
O'') ∑ ST UT VWCXC
Q
= Q Y CY
par : (3)
R
N R
∑ ST VX
Preuve : K(HI , HJ ) = ∑@ ̂ = ∑@ ( − − )
P ') =0
Z [(HI ,HJ )
Z\]
O Z [(HI ,HJ )
1) Conditions du 1er ordre :
N'') =0
(4)
Z\Q
(i) de (4) donne ∑@ ( − − ) = 0 et par transformation, nous avons
C ^
+ B = E. (ii) de (4) donne
∑@ ( − − ) =0 (5)
∑ ST UT VWCXC
Q
= RQ .
∑ STY VXC Y
En remplaçant par sa valeur obtenue précédemment, nous avons
R
Exercice: Condition du second ordre: Ecrire cette condition et justifier qu’elle est vérifiée.
= = E^ − BC.
_`a(X,W) _db(X,W)
b\c(X) bef(X)
Exemple 1 1) Justifier que et
= ∑(@ − ∑(S VX )
TXC (S VXC)
C )Y
T
2) Justifier que (6)
') ∑( − BC) = ∑ − EC ∑
3) Justifier que g
'') ∑( − BC) = ∑ − BC ∑ = ∑( − BC)
(7)
1. ∑ = 0 et ∑ =0
5
( )= ( , )=
; ( ), ( )=, c’est-à-dire ( ) = et ( ) = .
2. et sont les estimateurs sans biais de et , c’est-à-dire
3. / 0( )= = 1\Q , / 0( )= = 1\] et
hY hY ∑ STY
∑(ST VXC )Y @ ∑(ST VXC )Y
%i/( , )=-
hY XC
∑(ST VXC)Y
.
Preuve: 1) i) ∑ = ∑( − − ) = ∑ − * − ∑ = *EC − * − * BC =
*(EC − BC) − * . i) de (3) donne ∑ = *(EC − BC) − * = * − * = 0.
∑ ST UT VWCXC
Q
= RQ
∑ STY VXC Y
2) i) Nous avons . Avec (7), nous obtenons
R
=
∑(ST VXC )UT
∑(ST VXC )Y
(10)
3) i) Montrons que / 0( )=
hY
∑(ST VXC )Y
.
/ 0 j ∑(ST VXC)YT l = / 0( ) = ∑(S VXCT)Y . Avec (ii) de (9), nous obtenons le résultat.
∑(S VXC )U ∑(ST VXC)Y b\c(U )
Y
T (∑(ST VXC )Y ) T
6
Avec la formule (6), nous avons / 0( ) = / 0 j∑ j − l l. Comme les
T XC (S VXC)
∑(S @ C )Y
T VX
sont
/ 0( )=1 j + l.
XC Y
∑(S
@ C )Y
T VX
(11)
Définition 1. 1. Le coefficient de détermination est le réel positif noté & et définie par
m n
KX = KW − = KW (1 − & ).
[mn Y [mn Y
[m
r [m
Y
7
3) Exercice
Nous souhaitons connaitre la loi des estimateurs afin de déterminer les intervalles ou régions de
confiance pour effectuer les tests.
• e ↝ t(-, 1
1. Nous supposons les hypothèses :
• - 0
• / 0 1 23
• ∀', 6 ∈ !1, … , *$, ' 7 6 ⟹ %9:; , < = 0.
2. Le modèle de régression linéaire s’écrie comme le modèle paramétrique u@ ,
vu , t ,1 .
GI , H
. Loi des estimateurs H G J et H GJ
GI , H
• GI
↝ t ,/ 0 H
• GJ
↝ t ,/ 0 H
∑ xY
T VXC
• j\\] l ↝ t j\\] l , 1 / 0 / où / w R y.
Q Q ST VXC Y VXC
@V
• hY
1 suit une loi de z@V (chi deux) à (n-2) degrés de liberté.
• j\\] l et 1 sont indépendants.
Q
Un des buts de la régression linéaire est de proposer des prévisions pour la variable à expliquer
.
8
Soit @) une nouvelle variable . Nous voulons prédire @) .
Nous supposons que, pour cette nouvelle observation @) , le modèle reste vrai, c’est.-à-dire;
E@) = + @) + @) + à +>
( @) ) = 0
avec les hypothèses et l’hypothèse
g / 0( @) ) = 1 = 23
∀' ∈ {1, … , *}, %9:( @) , ) = 0
Deux types d’erreurs vont entacher notre prévision, l’une dû à la non connaissance de @) et
l’autre dû à l’estimation des paramètres. Nous obtenons le résultat suivant qui sera démontré
dans le cas général.
est / 0( ) = 1² j + l.
(SR’Q VXC)²
• La variance de la valeur ajustée @) @) @ ∑(ST VXC )²
= @) − ̂@)
“
• @)
; ̂@) = = 0
“
L’erreur de prévision définie par satisfait les propriétés
suivantes : ”
/ 0; ̂@) = = 1² j1 + @ + ∑(S l
“ (SR’Q VXC)² .
VXC)² T
˜ J = ™š›(œ,•) =
J
∑(œ¡ V¢^ )(•¡ V£
^)
— žHŸ(œ)
I
J ^)
∑(œ¡ V¢
.
I
J ^ )(•¡ − £
^)
∑(œ¡ − ¢ ¤, ¤
˜
—J = I = = I, J
J ^) ¥, ¦
∑(œ¡ − ¢
I
˜I = £
— ˜ J¢
^−— ^ = J¥, §¨ − I, J . §¨, ¦ = JI, ¤J©
9
Y
Q
∑(œ¡ V¢^ )(•¡ V£
^) ‡
Q
^ )(•¡ V£
∑(œ¡ V¢ ^ )‰
& 0 2900 , ) = ª Y]
¬ = Q
Y]
^ ) . J ∑(•¡ V£^)
Q
« ∑(œ¡ V¢ ^ ) . J ∑(•¡ V£
^) ∑(œ¡ V¢
Y] I Y] I
(6,26)
= = 0,486 ≈ 0,5
28,29. 2,85
10
CHAPITRE II : LA REGRESSION LINEAIRE MULTIPLE OU MODELE LINEAIRE
A PLUSIEURS VARIABLES
µ = (E − B )A (E − B ) = (E A − A
B A )(E − B ) = E A E − E A B − A
BAE + A
BAB .
¶(E A B ) ¶( B A B ) ¶( A B′E)
= E A B, = B A B + B A B = 2B A B , = E A B.
¶ ¶ ¶
.
SQ
¹̧ . ¼ ¹̧ ¼
. .. . SQ
.
Soient les matrices : = 1(*, 1) = , B = ½ T. ¾ , B = (B , B ) =
» ».
S
.. 4 .
ST
..
@
· º · SR º
DéterminonsÀ
Déterminons À.
Donc ∀ E ∈ ℝ@ , ¿ (E) = B .
∑ ST U T
∑ STY
Déterminons À À
11
Nous avons: ¿X B BAB V
B′ et ¿X ⊥ È ¿X .
II Modélisation
¹̧ ¼ ¹̧ ¼
. . .
¹̧ U ¼ . . . STQ . . . STÎ ¹̧ ¼
. »= » Ï. T »
+ . »
pT
¸ » ¸ »¸ » ¸ »
T
¸ »¸ »
(13)
.
· @º • ·pR º
·1 @ . . . @“ º · “ º
12
Hypothèses :
N.B. : Dans le cas de la régression linaire simple, +Ò ne s’impose pas, car nous avons un seul
vecteur d’observations = , … @ ) qui est par conséquent libre.
V
Preuve : •Ø_d = B′B B′E.
/ •Ø_d / B′B V
BAE B′B V
BA / E B′B V
BA A
( 17)
( ̂ ) = 0.
4. / 0( ̂ ) = Ê ¿X •Q .
3.
5. ') ( ̂ A ̂ ) = (* − ´ − 1)Ê .
ii) La statistique Ê = @V“V est un estimateur sans biais de Ê .
p̂ Ù p̂
Ainsi Eo = B•– ∈ < B > et ̂ ∈ < B >Ú . Donc ̂ est orthogonal à Eo.
D’où le résultat.
14
j ̂ ;•– ¿X ⊥ e;•–
A A
•= l •= car le premier résultat précédent. Ainsi (18) donne
j ̂ ;•–
A
•= l ¿X ⊥ eeA B B′B V
¿X ⊥ eeA B B′B V
¿X ⊥ Ê È@ B B′B V
Ê ¿X ⊥ B B′B V
0, car ¿X ⊥ B = 0.
3) Montrons que ( ̂ ) = 0.
( ̂ ) = ;¿X ⊥ ( )= = ¿X ⊥ ; ( )= = 0, car ( ) = 0.
4) Montrons que / 0( ̂ ) = Ê ¿X ⊥.
̂A ̂ 1 1
;Ê– = = w y= ( ̂ A ̂) = (* − ´ − 1)Ê = Ê .
*−´−1 *−´−1 *−´−1
IV Prévision
Modèle :
E = •B +
” + à +Ò .
* 9 3 0: '9*3
E@) = •B@) + @)
+ à +Ò
Û .
( @) ) = 0
∀' ∈ {1, … , *}, 29:( @) , ) = 0
; “
@) − @) == ; A
@) •– − A
@) •− @) == A
@) ;•– − •= − ( @) ) = 0.
15
Ü@) Ü@) A
@) • . Comme Ü@) est une combinaison linéaire
des , … , @ , c’en est une des , … , @ , donc ( Ü@) − A @) •) et @) ne sont pas corrélés,
@)
L’espérance de l’erreur:
; == ; − == ( )− ; == •− ;•– = = 0.
“ “ “ A
@) @) @) @) @) @) @)
/ 0; “
@) = = / 0; @) − “
@) = = / 0; A
@) •+ @) − @) •– =
= / 0( @) ) + / 0; @) •– = = Ê + @) / 0;•– = @)
=Ê + @) Ê (B B) = Ê (1 + (B A B) @) ).
A
@) @)
V Analyse de la variance
Hypothèse: on suppose que la constante est incluse dans les variables explicatives.
∑( − C) = @ ∑( − )² + @ ∑ ̂ .
@
(19)
Définition 5. (& ).
& =1− .
Œ̃ Y
Œ̃á
Y (20)
16
Du fait du théorème de décomposition, & ∈ â0,1ã, et & = 1 − . Comme & fait
∑ p̂TY
∑(UT VUC)Y
intervenir la variance de E, il est sensible à la forme de la modélisation.
En outre, on a le problème que le & augmente mécaniquement quand la liste des variables
explicatives augmentent.
Définition 6. (& ) 6 3 é
&\<äå é = 1 − ∑(UT .
∑(U VU)Y
C)²
T VU
(21)
+æ : ↷ ((0, Ê ). (22)
Intervalle de confiance
↷ #(* − ´ − 1).
Ï̃é VÏé
Œ̃ßêé
Preuve: Exercice
Un intervalle de confiance, de niveau 1 − †, pour • est donné par
Test d’hypothèse
+ : •< =
Æ .
+ : •< ≠
Sous + , •< ↷ t( , ÊÏ{ ) où ÊÏ{ = â(B A B)V 1 ã<< qui est estimée par 1Ï{ = â(B A B)V 1 ã<< .
17
Ê ↷ z@V“V . Donc ÊÏ{ =
@V“V
et •– sont indépendants et que
@V“V
Rappelons que Ê
ŒY Œí
Y
{
G Y ì{{
(@V“V )ë(X Ù X)•Q h
↷ z@V“V . De plus, ↷ t(0,1).
Ï̃{ Vî
â(X Ù X)•Q h
G Y ã{{ Œ̃í
{
í̃{ •ï
1) degré de libertés).
3) Les estimations des écarts types de •– et de •– donnent Ê–Ï] = 1,89 etÊ–ÏQ = 0,05. Testez
+ : •< = 0 contre + : •< ≠ 0 pour j = 0,1.
Sous + , Œ̃ ↷ ò j1 − l = 2,101.
] Ï̃ , Ò
í]
des arbres.
Sous + , Œ̃ Q ↷ ò j1 − l = 2,101.
Ï̃ , Ò
íQ
Donc on rejette + . On conclut au risque 5% que le diamètre d’un arbre a un effet significatif
íQ
sur sa hauteur.
18