Econométrie
avec application sous SAS
M1 IES
[Link]@[Link]
Bibliographie
B. Crépon et N. Jacquemet (2010), Econométrie: méthode et
applications, Groupe de Boeck s.a.;
V. Delsart, A. Rys et N. Vaneecloo (2009), Econométrie:
théorie et application sous SAS, Presses Universitaires du
Septentrion
B. Dormont (2006), Introduction à l’économétrie,
Montchrestien, 2ème édition;
W. Green (2011), Econométrie, Pearson Education
J. Wooldridge (2009), Introductory Econometrics. A Modern
Approach, Forth Edition.
2
Plan du cours
Introduction: définition, modélisation, données,
estimation, régression simple
Le modèle de régression multiple
Estimation, tests, interprétation des coefficients,
mesures de la qualité de l’ajustement, spécification
Violation de certaines hypothèses:
Multicollinéarité
Hétéroscédasticité et autocorrélation
3
Régression multiple
Estimation et mesure de la qualité de
l’ajustement (le coefficient de détermination)
Notation
Les principaux ingrédients d’un modèle économétriques sont les
variables expliquées et explicatives, paramètres et les perturbations:
Une forme particulièrement compacte pour exprimer un modèle
économétrique est la forme matricielle:
= +
avec:
= ⋮ ; = ⋮ ; = ⋮
, , … , ,
, , … , ,
= ⋮ ⋮ ⋮ ⋮
, , … , ,
, , … , ,
5
L’estimateur des Moindres Carrés Ordinaires de
L’estimateur des MCO est l’un des estimateurs les plus fréquemment utilisés.
Il consiste à déterminer les paramètres tels que le modèle soit le plus proche de
la réalité i.e. en minimisant le critère des moindres carrés, une mesure de la
distance entre le modèle et la réalité:
= Min = Min − − =
= Min[ −2 + ]
( )
= −2 +2 =0
( )
=2 #é%&'&( )*+&,&-(
La matrice est inversible ∀ '
En examinant la condition du premier ordre, on obtient:
= – Equations normales
/ = 0 0 10 2
6
Les hypothèses associées à l’estimateur des MCO de
Sous quelles hypothèses pouvons nous parvenir à un
estimateur sans biais de plus petite variance (BLUE –
Best Linear Unbiased Estimator)?
Rappel:
L’estimateur MCO est BLUE (Best Linear Unbiaised Estimator)
1) L’estimateur est sans biais: E(β)=β → la qualité de l’identification
Intuitivement, l’absence de biais implique que l’estimateur concorde en
moyenne avec la vraie valeur du paramètre
2) L’estimateur est efficace: → la qualité de la précision
Il présente la variance minimale dans la classe des estimateurs linéaires
sans biais
7
Les hypothèses associées à l’estimateur des MCO de
H1: Le modèle est linéaire en ses paramètres.
= +
H2: Le terme résiduel est d’espérance nulle: 4 =0
H3: Sphéricité du terme résiduel:
o Homoscédasticité des résidus: 5 6 = 7 ∀& = 1, … , '.
o Absence d’autocorrélation des résidus: 9*- 6 , : = 0, ∀ &, ; =
1, … , ' ,(<+ = ( & ≠ ;
H4: Aucune variable explicative ne peut s’exprimer comme une
combinaison linéaire des autres variables explicatives ⇔ La
matrice est de plein rang colonne ⇔ La matrice est de
plein rang et par conséquent inversible
H5: Le résidu n’est pas corrélé aux variables explicatives:
9*- , =4 =0
Théorème de Gauss-Markov
Sous les hypothèses H1-H5 l’estimateur des moindres carrés ordinaires
du modèle = + est l’estimateur de plus petite variance parmi
8
tous les estimateurs sans biais
Les hypothèses associées à l’estimateur des MCO de
On peut montrer que:
@ / = AB 0 0 1
Puis on retrouve l’estimateur des MCO de AB :
∑ F B
B
C
D C
′D C
D
IJ1 I KLM
C =
A = =
F−G F−G F−G
Enfin, l’estimateur de la matrice de variance-
covariance:
/ / =A
@ CB 0 0 1
9
C lorsque le modèle contient un
Propriétés de D
terme constant
ON = 0 et ∑6J N 6 = 0
En présence d’une constante, le résidu estimé est de moyenne nulle
= R + N et O = OR + ON
Puisque ON = 0: O = OR
En présence d’une constante, la moyenne des prévisions de Y est
égale à la moyenne de ses observations
10
L’analyse de la variance et le coefficient de détermination
5S = 5S R + 5S N
Variance totale=variance expliquée + variance résiduelle
T 6−
O = T R6 − OR + T N 6 − ON
6J 6J 6J
Si le modèle contient un terme constant ON =0 et OR = O :
T 6 −O = T R6 − O + T N6
6J 6J 6J
SCT=SCE+SCR
SCT : Somme des carrés totales
SCE: Somme des carrés expliquées
SCR : Somme des carrées résiduelles
11
L’analyse de la variance et le coefficient de détermination
V94 V9W − V9U V9U
U = = =1−
V9W V9W V9W
Si le modèle comporte une constante, on a
forcément 0 ≤ U ≤ 1
MB = 1 indique que notre modèle prédit
parfaitement Y: R6 = 6 ∀ &.
MB = Z indique que tous les coefficients estimés,
sauf la constante, sont nuls: les variations des X
n’entraînent pas de variation de R6
12
Coefficient de détermination
Interprétation du MB
Le U s’interprète comme la part des variations de Y que
l’on peut reproduire (expliquer) par nos variables
explicatives dans notre modèle linéaire
Un U de 0 n’indique pas une absence de toute relation
entre Y et les X, mais une absence de relation linéaire
Remarque: Le critère de minimisation de la SCR équivaut
à une maximisation du U
13
Coefficient de détermination
Source: cours d’Antoine Terracol pour la première année du Master Economie Théorique et Empirique à Paris 1.
14
Coefficient de détermination
Le U est non décroissant en p, le nombre de variables
explicatives:
La SCT est indépendante du nombre de variables
explicatives
mais pas la SCR car l’ajout d’une variable explicative ne
peut pas mener à une SCR plus grande (puisque le principe
des moindres carrés est de la minimiser)
Le MB ajusté:
V9U[
'−) '−1
O
U =1− =1− 1−U
V9W[ '−)
'−1
« ajuste » pour le nombre de degrés de libertés dans
l’estimation des variances totales (n-1) et résiduelles (n-p) 15