Techniques Économétriques 2023-2024
Techniques Économétriques 2023-2024
Notes de cours
Techniques économétriques
Mohamed Bouzahzah
1
La séance d’aujourd’hui
0. Prise de contact
1. Plan du cours
2. Bibliographie
3. Déroulement du cours
4. Evaluation
5. Introduction générale
2
Sommaire 0. Introduction générale
0.1. Définitions
0.2. Modèle économique vs modèle économétrique
0.3. Objectifs de l’économétrie
0.5. Données et logiciels
3
Bibliographie
4
Déroulement des cours
- Le cours est présenté sous forme de slides assez détaillés présentant les principaux concepts,
théories, modèles et applications
- Des séances de travaux dirigés sont organisées dans le cadre de ce cours
- Production de travaux en liaison avec le cours
5
Modalités d’évaluation
La note finale :
• Travaux rendus
6
Introduction
- Etymologiquement, le terme économétrie signifie « mesure de l’économie ». Cette définition est trop
large pour être utilisée. En économie, on mesure les agrégats (PIB, consommation nationale,
investissement,…) en utilisant la comptabilité nationale.
- L’économétrie est un ensemble de méthodes statistiques et mathématiques qui permettent d’analyser les
données afin de valider ou d’infirmer des théories (objectif initial, il a d’autres objectifs)
- Il s’agit d’une discipline récente mais qui ne cesse de prendre de l’importance en sciences économiques.
- Même s’il existait quelques travaux antérieurs, l’économétrie a démarré réellement avec la constitution de
l’Econometric Society en 1930.
- En 1933 est publié le premier numéro de la revue Economtrica (la revue scientifique de référence en
économétrie).
- Aujourd’hui plusieurs prix Nobel d’économétrie Ragnar Frisch et Jan Tinbergen en 1969, Engel et
Granger (cointegration causalité, ARCH), Heckman et Mc Fadden (2000) Sims en 2011.
7
Introduction
8
Introduction
Pour vérifier la validité empirique ce cette théorie, il faut réécrire ces hypothèses à vérifier sous forme
mathématique. Une relation simple qui rempli les trois hypothèses est la relation linéaire suivante :
𝐶 = 𝐶 + 𝑐𝑌
avec 0<𝑐<1
H1 : 𝐶 ≠ 0 H2 : 𝐶 ≠0
On peut aussi être tenté d’évaluer la valeur de selon qu’elle est proche de 1 (vision keynésienne) ou faible
proche de 0 (vision néoclassique) ce qui permet d’estimer la valeur du multiplicateur et donner des
indications sur l’efficacité des politiques budgétaires (voir J.O. Blanchacrd et FMI, multiplicateurs crise
2008).
9
Introduction
(i) confirmer ou infirmer une théorie (voir exemple ci-dessous concernant la validité du MEDAF).
Trancher entre des théories concurrentes (voir exemple ci-dessous entre théorie keynésienne et
néoclassique de la consommation).
(ii) L’économétrie peut être considérée comme un outil d’investigation statistique. L’économétrie peut être
utilisée pour découvrir des relations entre variables économiques. Lorsque de telles relations sont assez
stables, un contenu théorique peut être donné. C’est ce qui s’est passé avec la courbe de Phillips.
(iii) L’économétrie peut être utilisée pour évaluer quantitativement les effets de politiques économiques (les
modèles macroéconométriques)
(iv) Les modèles économétriques peuvent être utilisés pour réaliser des prévisions (les modèles
autoregessifs ARIMA, VAR, etc.)
10
Introduction
L’économétrie fonctionne avec des modèles économétriques. Ces derniers sont la contrepartie numérique
(empirique) des modèles économiques.
Un modèle économique est une représentation simplifiée de la réalité. Comme dans l’exemple de la
fonction de consommation keynésienne qui explique la consommation nationale par le revenu
disponible.
Bien entendu la réalité est plus complexe. D’autres variables participent à expliquer la consommation
nationale. Le modèle économique est une approximation de la réalité. Keynes lui-même, reconnaissait
que le taux d’intérêt peut expliquer la consommation mais de manière très marginale.
Retenir le modèle économique sous forme mathématique avec des variables observables et mesurables
Remplacer la complexité de la réalité que ne retiennent pas les modèles théoriques par un aléa
(composante stochastique)
11
Introduction
Les données ou coupe transversales (observations d’individus à une même période de temps).
Les données chronologiques ou séries temporelles (time series) qui consistent à observer un individu
dans le temps
Les données de panel qui consistent à observer plusieurs individus pendant une période de temps
Nous l’avons déjà souligné, l’économétrie utilise des outils statistiques et des données. Les calculs se font
généralement en faisant appel à des logiciels (SPSS, Stata, Eviews, SAS, RATS, GAUSS, MATLAB,
Python, etc.) Il existe des logiciels en open source ; le plus célèbre est le logiciel R.
12
Chapitre 1. Le modèle linéaire simple
13
Chapitre 1. Le modèle linéaire simple
Introduction
- Elle débute par un ensemble de propositions théoriques sur une question économique. En effet, la
théorie économique spécifie des relations théoriques entre des variables. La loi de la demande met en
relation les quantités et les prix relatifs d’un bien donné, la relation de Phillips met en relation le taux
d’inflation et le taux de chômage, la fonction de consommation keynésienne la consommation nationale et
le revenu disponible, etc.
- Certes, le coefficient de corrélation permet de détecter l’existence d’une relation statistique entre deux
variables mais ne donne aucune idée sur la nature de la relation (sens de la causalité, non linéarité, etc.). Un
coefficient de corrélation nulle (r = 0) ne signifie pas absence de relation entre les deux variables mais
absence de relation linéaire.
- L’estimation économétrique (le modèle linéaire simple) permet de décrire et d’évaluer quantitativement la
relation entre une variable donnée, dite expliquée (ou dépendante ou endogène) et une variable dite
explicative (ou indépendante ou exogène).
14
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
La relation entre la variable expliquée y et la variable explicative x prend la forme mathématique suivante :
- Déterministe ou mathématique qui fait correspondre à chaque valeur de x une seule valeur de y . Ces
relations se rencontrent dans les sciences physiques mais pas dans les sciences humaines et sociales.
15
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
𝑦 = 1000 + 0,8𝑥
Cette relation est déterministe ; le niveau de la consommation peut être déterminé de manière exacte pour
chaque niveau de revenu disponible.
Mais la consommation peut varier sous l’effet d’autres causes (prix, moral des consommateurs, taux
d’intérêt, etc.). Dans ce cas, la relation s’écrira
𝑦 = 1000 + 0,8𝑥 + 𝜀
16
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
𝑦 = 1000 + 0,8𝑥 + 𝜀
𝑥 𝑦
0 900 1100
100 980 1180
200 1060 1260
200 1140 1340
… … …
Si 𝜀 suit une loi normale par exemple, on obtient la relation suivante entre 𝑦 et 𝑥
17
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
18
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
Pour Keynes, la relation entre ces deux variables est gouvernée par une loi psychologique. Il écrivait dans la
théorie générale «En moyenne et la plupart du temps, les hommes tendent à accroître leur niveau de consommation à
mesure que le revenu s’accroit mais non d’une quantité aussi grande que l’accroissement du revenu».
En plus, pour Keynes, la propension moyenne à consommer est décroissante par rapport au revenu
disponible ce qui signifie l’existence d’un minimum vital (une consommation incompressible).
Ainsi, pour Keynes, la fonction de consommation doit satisfaire les conditions suivantes :
𝜕𝑦 et 𝑥
0< <1 𝜕 𝑦
𝜕𝑥 <0
𝜕𝑦
19
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
𝑦 =𝛽 +𝛽 𝑥
De plus pour les keynésiens la valeur de 𝛽 est élevée et proche de 1 ce qui signifie un multiplicateur élevé
et donc une efficacité de la politique budgétaire.
Pour les néoclassiques, il n’existe pas de minimum vital 𝛽 = 0 et bien que positive 𝛽 est faible et
proche de 0.
Ce cadre offre une base pour une étude empirique qui permettrait de trancher entre la vision keynésienne
et classique.
Si on dispose des données relatives à la consommation nationale et au revenu disponible on peut estimer
les valeurs de 𝛽 et 𝛽 .
20
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
La figure ci-dessous met en relation la consommation et le revenu disponible au Maroc.
400
350
300
250
200
150
100
100 200 300 400 500
L’examen de la figure permet de voir que les données sont cohérentes avec la théorie keynésienne mais
qu’une relation déterministe ne semble pas appropriée pour décrire la relation.
On doit incorporer une composante aléatoire ou stochastique. L’approche la plus utilisée est l’approche
additive. Ainsi on obtient
𝑦 =𝛽 +𝛽 𝑥+𝜀
21
Chapitre 1. Le modèle linéaire simple
1. Spécification
Spécification des
desrelations
relations
- Omission d’autres variables explicatives. Dans la réalité, beaucoup d’autres variables peuvent
influencer la consommation. Elles ne sont pas introduites soit parce qu’elles ne sont pas connues, soit
qu’elles ne peuvent pas être mesurées. Certaines sont connues et sont mesurables mais leurs effets est
supposé marginal
- Agrégation de variables. La consommation nationale et le revenu disponible sont les agrégations des
consommations individuelles et des revenus disponibles individuels. Toute agrégation est en réalité une
approximation
- Mauvaise spécification du modèle. Le modèle peut être mal spécifié dans sa structure. La
consommation peut dépendre du revenu disponible mais peut dépendre aussi du revenu futur
- Mauvaise spécification des formes fonctionnelles. La relation peut ne pas être linéaire entre la
variable expliquée et la variable explicative.
- Erreurs de mesure.
22
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
De manière plus précise, on suppose que chaque observation dans notre échantillon
(𝑦 , 𝑥 ) 𝑖 = 1,2, . . . , 𝑛 est générée par le processus suivant :
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
- Notre objectif est d’utiliser une méthode d’estimation afin de construire des estimateurs des paramètres𝛽
et 𝛽 .
- Ensuite, utiliser les données disponibles pour avoir des estimations des paramètres et examiner la validité
des propositions théoriques.
- On peut également utiliser le modèle pour réaliser les cas échéant des prévisions relatives à la
consommation.
La manière avec laquelle nous allons procéder va dépendre de la nature du processus stochastique qui sous-
tend nos données.
23
Chapitre 1. Le modèle linéaire simple
2. Les hypothèses du modèle linéaire simple
Les hypothèses qui sous-tendent le modèle linéaire, dites hypothèses de Gauss-Markov, se présentent
comme suit :
𝑉(𝜀 ) = 𝜎 𝑜𝑢 𝐸(𝜀 ) = 𝜎
Bien entendu 𝜎 n’est pas connue nous allons devoir l’estimer. Si cette condition n’est pas satisfaite,
l’estimateur ne sera pas efficace.
24
Chapitre 1. Le modèle linéaire simple
2. Les hypothèses du modèle linéaire simple
4. Absence d’autocorrélation des erreurs. Les erreurs doivent être indépendantes. Formellement cela se
traduit par
cov( 𝜀 , 𝜀 ) = 0 𝑜𝑢 𝐸(𝜀 𝜀 ) = 0
Là encore, si cette condition n’est pas satisfaite, les estimateurs des paramètres ne seront pas efficaces.
5. Absence d’autocorrélation entre l’erreur et la variable explicative. Pour l’instant on suppose que la
variable explicative n’est pas stochastique. Elle est exogène c.a.d. déterminée en dehors du modèle. Cela
revient à ce que
cov( 𝑥 , 𝜀 ) = 0 𝑜𝑢 𝐸(𝑥 𝜀 ) = 0
6. Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).
25
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Nous supposons que nos données sont générées par la relation stochastique suivante :
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 =𝑦 −𝛽 −𝛽 𝑥 𝑖 = 1,2, . . . , 𝑛
Les estimations à partir d’un échantillon sont notées 𝛽 et 𝛽 , l’erreur est estimée comme un
résidu
𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥 𝑖 = 1,2, . . . , 𝑛
Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
27
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
28
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
1
𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0
𝑛
29
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛
30
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛
(𝑦 − 𝛽 , −𝛽 , 𝑥)=0
(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0
31
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛
(𝑦 − 𝛽 , −𝛽 , 𝑥)=0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
32
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :
𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0
1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛
(𝑦 − 𝛽 , −𝛽 , 𝑥)=0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
Equations normales
33
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
34
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
35
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
36
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥
37
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
38
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
39
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
40
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
41
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
42
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1
∑
𝑛 𝑥 − 𝑥̄
43
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1
∑
𝑛 𝑥 − 𝑥̄
𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)
44
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
En définitive, les estimateurs par la méthode des moments sont donnés par
𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)
𝛽 , =𝑦−𝛽 , 𝑥
45
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 → 𝑁(0, 𝜎 )
46
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 → 𝑁(0, 𝜎 )
47
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 → 𝑁(0, 𝜎 )
𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )
48
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 → 𝑁(0, 𝜎 )
𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝑓(𝑦 ) = exp − −
2𝜋𝜎 2 𝜎
49
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛
𝜀 → 𝑁(0, 𝜎 )
𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝑓(𝑦 ) = exp − −
2𝜋𝜎 2 𝜎
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
50
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
51
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
52
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
53
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
, ,
,
54
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
, ,
,
, ,
,
55
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎
, ,
,
, ,
,
, ,
56
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
, ,
,
, ,
,
, ,
57
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
, ,
,
, ,
,
, ,
𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
58
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
, ,
,
, ,
,
, ,
𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
59
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du maximum de vraisemblance
, ,
,
, ,
,
, ,
𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
Equations normales
60
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
, ,
,
, ,
,
, ,
𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
Equations normales
Nous obtenons les estimateurs suivants
cov( 𝑥, 𝑦)
𝛽 , = 𝛽 , =𝑦−𝛽 , 𝑥
var( 𝑥)
61
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance
, ,
,
, ,
,
, ,
, ,
∑ 𝜀̂
𝜎 =
𝑛
62
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽 , et 𝛽 , de manière à
minimiser la somme des carrés des erreurs. C'est-à-dire faire en sorte que la droite (le modèle) soit la plus
proche de toutes les observations (la réalité)
63
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽 , et 𝛽 , de manière à
minimiser la somme des carrés des résidus. C'est-à-dire faire en sorte que la droite (le modèle) soit la plus
proche de toutes les observations (la réalité)
𝑦
9
8
7 𝜀̂
6
5
4
𝜀̂
3
2
1
0 𝑥
0 1 2 3 4 5 6
64
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
𝑦
9
8
7 𝜀̂
6
5
4
𝜀̂
3
2
1
0 𝑥
0 1 2 3 4 5 6
65
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
66
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
67
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
68
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
Ou
𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
69
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés
𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
Ou
𝑦 − 𝛽 , −𝛽 , 𝑥 =0
Equations normales
𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0
70
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
71
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
72
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
73
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑦 − 𝛽 , −𝛽 , 𝑥 =0
(1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥
74
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)
𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,
𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥
𝛽 , =𝑦−𝛽 , 𝑥
𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
75
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
76
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
77
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
78
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
79
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1
∑
𝑛 𝑥 − 𝑥̄
80
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥
𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥
𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄
1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1
∑
𝑛 𝑥 − 𝑥̄
𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)
81
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés
En définitive, les estimateurs par la méthode des moments sont donnés par
𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)
𝛽 , =𝑦−𝛽 , 𝑥
82
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :
Obs. xi yi
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25
83
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :
Obs. xi yi
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25
84
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :
xi yi
𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 5
Pour ce faire nous devons estimer les paramètres. Comme nous avons un modèle linéaire simple nous
savons que quel que soit la méthode d’estimation nous avons
cov( 𝑥, 𝑦)
𝛽 , = 𝛽 , =𝑦−𝛽 , 𝑥
var( 𝑥)
85
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Dependent Variable: YI
Method: Leas t Squares
Date: 03/14/21 Tim e: 11:25
Sam ple: 1 5
Included obs ervations : 5
86
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
. regress y x
87
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire
Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55
88
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire
Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55
15 25
𝑥̄ = =3 𝑦̄ = =5
5 5
89
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire
Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55
15 25
𝑥̄ = =3 𝑦̄ = =5
Ainsi 5 5
92
5
−3×5 et 𝛽 = 5 − 1,7 × 3 = −0,1
𝛽 = = 1,7000
55
−3×3
5
90
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire
Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55
15 25
𝑥̄ = =3 𝑦̄ = =5
Ainsi 5 5
92
5
−3×5 et 𝛽 = 5 − 1,7 × 3 = −0,1
𝛽 = = 1,7000
55
−3×3
5
En définitive nous avons
𝑦 = −0,1 + 1,7𝑥
91
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
𝑦 = −0,1 + 1,7𝑥
𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥
𝜀̂ = 𝑦 − (−0,1) − (1,7)𝑥
Obs.
xi yi 𝜀̂
1 1 1 -0,6
2 2 5 1,7
3 3 3 -2
4 4 8 1,3
5 5 8 -0,4
Total 15 25 0
92
Chapitre 1. Le modèle linéaire simple
93
Chapitre 1. Le modèle linéaire simple
(1)
(2)
94
Chapitre 1. Le modèle linéaire simple
(1)
(2)
95
Chapitre 1. Le modèle linéaire simple
Rappelons que
96
Chapitre 1. Le modèle linéaire simple
(1)
(2)
Rappelons que
97
Chapitre 1. Le modèle linéaire simple
98
Chapitre 1. Le modèle linéaire simple
99
Chapitre 1. Le modèle linéaire simple
100
Chapitre 1. Le modèle linéaire simple
101
Chapitre 1. Le modèle linéaire simple
102
Chapitre 1. Le modèle linéaire simple
Notons que
103
Chapitre 1. Le modèle linéaire simple
Notons que
Donc,
104
Chapitre 1. Le modèle linéaire simple
Notons que
Ainsi,
105
Chapitre 1. Le modèle linéaire simple
Notons que
Ainsi,
Comme
106
Chapitre 1. Le modèle linéaire simple
107
Chapitre 1. Le modèle linéaire simple
En effet,
108
Chapitre 1. Le modèle linéaire simple
En effet,
109
Chapitre 1. Le modèle linéaire simple
En effet,
110
Chapitre 1. Le modèle linéaire simple
En effet,
111
Chapitre 1. Le modèle linéaire simple
En effet,
112
Chapitre 1. Le modèle linéaire simple
En effet,
113
Chapitre 1. Le modèle linéaire simple
114
Chapitre 1. Le modèle linéaire simple
115
Chapitre 1. Le modèle linéaire simple
116
Chapitre 1. Le modèle linéaire simple
117
Chapitre 1. Le modèle linéaire simple
Posons
118
Chapitre 1. Le modèle linéaire simple
Avec
119
Chapitre 1. Le modèle linéaire simple
Avec
120
Chapitre 1. Le modèle linéaire simple
121
Chapitre 1. Le modèle linéaire simple
122
Chapitre 1. Le modèle linéaire simple
Ainsi,
123
Chapitre 1. Le modèle linéaire simple
Ainsi,
124
Chapitre 1. Le modèle linéaire simple
Ainsi,
126
Chapitre 1. Le modèle linéaire simple
Théorème de Gauss-Markov
Si les conditions de Gauss-Markov sont remplies alors les estimateurs par la méthode des
moindres carrés sont les meilleurs estimateurs linéaires non biaisés (Best Linear Unbiaised
Estimators : BLUE).
127
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesurer la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
128
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).
𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
129
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme des carrés total (SCT).
𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )
130
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).
𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )
131
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).
𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ − 𝛽 𝑥 − 𝑥̄
132
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).
𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )
𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ − 𝛽 𝑥 − 𝑥̄
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
133
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
134
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)
𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)
𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)
135
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)
𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)
𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)
Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)
136
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)
𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)
𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)
Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)
137
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄
Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)
𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)
𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)
Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝑛 var( 𝑥) − 2 𝑛 cov( 𝑥, 𝑦)
var( 𝑥) var( 𝑥)
138
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)
139
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)
cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)
140
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)
cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)
141
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)
cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)
142
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)
cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)
Un indicateur de la qualité de la régression est donnée par le coefficient de détermination , donné par
𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇
Plus le 𝑅 est élevé (proche de 1) plus le modèle est de bonne qualité. Cela signifie que les variations de la
variable expliquée sont attribuées aux variations de la variable explicative.
143
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
Reprenons notre exemple. Les calculs sont réalisés dans le tableau ci-dessous
Obs. 𝑥 𝑦 𝑥𝑦 𝑥 𝑦 𝜀̂ (𝑦 − 𝑦̄ )
1 1 1 1 1 1,6 0,36 16
2 2 5 10 4 3,3 2,89 0
3 3 3 9 9 5 4 4
4 4 8 32 16 6,7 1,69 9
5 5 8 40 25 8,4 0,16 9
Total 15 25 92 55 25 9,1 38
28,9
𝑅 = = 0,76052 ≡ 76,052%
38
144
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Tous les résultats obtenus sont des estimations ponctuelles. Leurs qualités dépend de l’échantillon
considéré. Pour surmonter cette limite il faut réaliser de l’inférence statistique (les intervalles de confiance
ou les tests d’hypothèses).
Pour obtenir les estimateurs de 𝛽 et 𝛽 , aucune hypothèse sur la distribution de l’erreur n’était
nécessaire. En effet, à partir des hypothèses de Gauss-Markov, on peut montrer que les estimateurs par la
méthode des moindres carrés ordinaires (MCO) (en anglais Ordinary Least squares OLS) sont non biaisés et
efficaces (BLUE).
Si en plus des hypothèses de Gauss-Markov, on suppose que les erreurs sont normalement distribuées alors
il est possible de construire des intervalles de confiance et réaliser des tests d’hypothèses.
𝜎
𝐸(𝛽 ) = 𝛽 𝑉(𝛽 ) =
𝑛 var( 𝑥)
145
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Les choses auraient été faciles si on connaissait 𝜎 . Bien entendu, en pratique il faut l’estimer. On peut
montrer qu’un estimateur non biaisé de 𝜎 est donné par
𝑆𝐶𝑅
𝜎 =
𝑛−2
146
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Les choses auraient été faciles si on connaissait 𝜎 . Bien entendu, en pratique il faut l’estimer. On peut
montrer qu’un estimateur non biaisé de 𝜎 est donné par
𝑆𝐶𝑅
𝜎 =
𝑛−2
𝐼 = 𝛽 − var( 𝛽 ) × 𝑡 , ; 𝛽 + var( 𝛽 ) × 𝑡 ,
𝑡 , est lue sur la table de la loi de Student avec (n-2) degrés de libertés.
Les résultats restent valables pour un grand nombre d’observations, sinon cela pose problème.
147
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Ainsi l’intervalle de confiance de 𝛽 est donné par
A
𝐼 = 𝛽 − var( 𝛽 ) × 𝑡 , ; 𝛽 + var( 𝛽 ) × 𝑡 ,
𝑡 est lue sur la table de la loi de Student avec (n-2) degrés de libertés.
Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ? Les résultats restent valables pour un
grand nombre d’observations, sinon cela pose problème.
𝑆𝐶𝑅 9,1
𝜎 = = = 3,0333 𝜎 = 𝑆. 𝐸. 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = 3,0333 = 𝟏, 𝟕𝟒𝟏𝟔
𝑛−2 3
D’un autre côté nous avons
𝜎 3,033
𝑉(𝛽 ) = = = 0,30333
𝑛 var( 𝑥) 5 × 2
𝑆. 𝐸. (𝛽 ) = 0,30333 = 𝟎, 𝟓𝟓𝟎𝟕
148
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Pour 𝛽 on peut montrer que la variance est donnée par
1 𝑥̄ 1 9
𝑉(𝛽 ) = 𝜎 + = 3,03 + = 3,3366
𝑛 𝑛 var( 𝑥) 5 10
𝑆. 𝐸. (𝛽 ) = 2,3366 = 𝟏, 𝟖𝟐𝟔𝟔𝟓
149
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Exemple numérique
Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)
150
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
𝛽 = −0,1 𝛽 = 1,7
𝛽 ∈ −5,89 ; 5,69
𝛽 ∈ −0,0501 ; 3,4501
151
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
152
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses
- Comme nous l’avons souligné dans l’introduction générale on est essentiellement intéressé à savoir si les
variations de x sont à l’origine des variations de y.
- On peut également être intéressé, comme dans les exemples de la fonction de consommation keynésienne
ou du MEDAF, de savoir si 𝛽 est significativement différent de zéro. On est amené dans ce cas à réaliser
des tests d’hypothèses (tests de Student)
On testera en particulier les hypothèses nulles
𝐻 :𝛽 = 0 contre 𝐻 :𝛽 ≠ 0 ∀𝑖 = 0,1
Si cette valeur est incluse dans la zone d’acceptation définie par les valeurs lues sur la table de Student pour
un seuil 𝛼 et 𝑛 − 2 degrés de libertés, on accepte l’hypothèse nulle.
153
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses
𝛽 −0,1000
𝑡 𝛽 = = = −𝟎, 𝟎𝟓𝟒𝟕
𝑠. 𝑒. 𝛽 1,8266
𝛽 1,7000
𝑡 (𝛽 ) = = = 𝟑, 𝟎𝟖𝟔𝟔
𝑠. 𝑒. (𝛽 ) 0,5507
La zone d’acceptation pour un seuil de 5% et 3 ddl est donnée par l’intervalle [-3,182 ; 3,182]
La zone d’acceptation pour un seuil de 10% et 3 ddl est donnée par l’intervalle [-2,363 ; 2,353]
Ainsi,
- La constante n’est pas significativement différente de 0 ni au seuil 5% ni au seuil 10%
- La pente n’est pas significativement différente de zéro au seuil 5% mais significativement différente de 0 au
seuil 10%
154
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Exemple numérique
Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)
155
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses
Généralement on calcule plutôt la probabilité à partir de laquelle l’hypothèse nulle est acceptée ou rejetée.
Ainsi,
156
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
157
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses
Les résultats plus complets se présentent comme suit
Coef. SE t-statistic Prob.
Constante -0,1000 1,8266 -0,0547 0,9598
X 1,7000 0,5507 3,0866 0,0539
R2 0,76
S.E.reg 1,74
SCR 9,1
Les ratios de Student ou les erreurs standards sont donnés pour tester d’autres hypothèses
𝐻 :𝛽 = 2 𝐻 :𝛽 ≠ 2
Le ratio de Student est donné par
𝛽 −2 0,3000
𝑡 (𝛽 ) = = = 0,545
𝑠. 𝑒. (𝛽 ) 0,5507
158
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :
Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE k SCE / k
Résidus SCR n–2 SCR / (n – 2)
Total SCT k+n–2
Le but est de tester la significativité des variables explicatives . Dans le cas linéaire simple cela revient à
tester la significativité de la pente 𝛽
159
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :
𝑆𝐶𝐸/1 28,9
𝐹= = = 9,52
𝑆𝐶𝑅/(𝑛 − 2) 3,0333
160
Chapitre 1. Le modèle linéaire simple
La statistique de Fisher permet de réaliser un test relatif à une contrainte. Il consiste à comparer les SCR des
modèles sans contrainte (libre) et avec contrainte
Si on ne rejette pas
161
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance
Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI
162
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires
𝑦 =𝛽 +𝛽 𝑥
Le modèle est dit linéaire non pas en termes de relation entre y et x mais en termes de manière avec laquelle
ils sont considérés dans l’équation même de manière transformées.
Considérons la figure suivante :
𝑦 𝑦 =𝛽 +𝛽 𝑒
1
𝑦 =𝛽 +𝛽 ( )
𝑥
𝑦 =𝛽 +𝛽 𝑥
𝑦 = 𝛽 + 𝛽 ln( 𝑥)
163
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires
Mais si nous posons
1 𝑣=𝑒 𝑤 = ln 𝑥
𝑧=
𝑥
𝑦 𝑦 =𝛽 +𝛽 𝑣
𝑦 =𝛽 +𝛽 𝑧
𝑦 =𝛽 +𝛽 𝑥
𝑦 =𝛽 +𝛽 𝑤
164
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires
Toutes les formes précédentes sont linéaires. Le nombre de formes fonctionnelles qui peuvent être
transformées en relations linéaires est important.
Une forme très utilisée est la forme log linéaire. Elle est donnée par
𝑦 = 𝐴𝑥
En plus, lorsque les variables sont considérées en termes logarithmiques cela donne plusieurs avantages
- Rapprochement des échelles des variables x et y
- Parfois le log suffit pour s’assurer que les données soient homoscédastiques
- Le paramètre 𝛽 s’interprète comme une élasticité
𝑦
𝛽 =2 𝛽 =1
𝛽 = −1
𝛽 = 0,5
165
Chapitre 1. Le modèle linéaire simple
6. Application 1 : estimation du Nairu dans le cas des EU
- Le Nairu (non accelerating inflation rate of unemployment) ou taux de chômage n’accélérant pas
l’inflation est un concept très intéressant il s’agit d’un taux de chômage naturel (d’équilibre) proche du taux
de chômage structurel (concept du prix Nobel Milton Friedman)
- Lorsque le taux de chômage est au dessus du Nairu on peut mettre en place une politique expansionniste
pour réduire le taux de chômage sans que cela n’augmente l’inflation
- Lorsque le taux de chômage est en dessous du Nairu on doit s’attendre à des tensions inflationnistes
- On ne peut pas réduire de manière importante et durable le taux de chômage en dessous du Nairu par des
politiques conjoncturelles mais par des réformes du marché du travail
166
Taux de chômage
Taux de
chômage
Taux de chômage
naturel
Temps
167
Chapitre 1. Le modèle linéaire simple
6. Application 2 : estimation du Nairu dans le cas des EU
Le Nairu n’est pas observable, il doit être estimé. Il peut l’être à l’aide de la courbe de Phillips.
Dans sa version augmentée elle est donnée par
Dans cette équation 𝜋 est le taux d’inflation effectif, 𝜋 est le taux d’inflation anticipé, 𝑢 le taux de
chômage effectif, 𝑢 est le taux de chômage naturel, 𝜀 est un choc d’offre.
Ainsi, la courbe de Phillips identifie, dans sa version moderne, trois sources de l’inflation
1. l’inflation anticipée
2. l’écart du chômage par rapport à son taux naturel (chômage conjoncturel)
3. les chocs d’offre
Pour pouvoir utiliser la courbe de Phillips nous devons savoir de quoi dépend l’inflation anticipée.
Supposons que les agents économiques forment leurs anticipations d’inflation sur la base de l’histoire récente
de l’inflation.
168
Chapitre 1. Le modèle linéaire simple
Un exemple simple est de supposer que l’inflation anticipée est égale à l’inflation de la période précédente
𝜋 =𝜋
𝜋 −𝜋 = Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀
Dans cette configuration, le taux de chômage naturel est appelé NAIRU (= Non-Accelerating Inflation Rate
of Unemployment) taux de chômage n’accélérant pas l’inflation
169
Chapitre 1. Le modèle linéaire simple
4. Application 1 : estimation du Nairu dans le cas des EU
𝜋 −𝜋 = Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀
Inflation induite par les coûts (Cost Push Inflation) : L’inflation résulte des chocs sur l’offre : Un choc
négatif d’offre augmente les coûts de production ce qui augmente les prix (Exemple : choc pétrolier)
Inflation induite par la demande (Demand Push Inflation) : L’inflation peut résulter également d’un choc
de demande : un choc positif sur la demande provoque une baisse du taux de chômage en dessous du niveau
naturel ce qui cause une inflation
170
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas du Maroc
Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀
Δ𝜋 = −𝑎𝑢 + 𝑎𝑢 + 𝜀
On pose
𝛽 = −𝑎 𝛽 = 𝑎𝑢 = −𝛽 𝑢
Ou encore
Δ𝜋 = 𝛽 + 𝛽 𝑢 + 𝜀
𝛽
𝑢 =−
𝛽
171
Chapitre 1. Le modèle linéaire simple
4. Application 1 : estimation du Nairu dans le cas des EU
172
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU
∗∗ ∗∗
(0,34) (0,057)
173
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU
∗∗ ∗∗
(0,34) (0,057)
Les résultats du modèle économétrique peuvent être utilisés pour estimer le Nairu au E.U.
174
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU
∗∗ ∗∗
(0,34) (0,057)
175
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU
TCE NAIRU
14,000
Nairu Taux chômage
12,000
10,000
8,000
6,000
4,000
2,000
0,000
176
Chapitre 1. Le modèle linéaire simple
Martin Feldstein Charles Horioka (1981) « DOMESTIC SAVINGS AND INTERNATIONAL CAPITAL
FLOWS »
Les auteurs cherchent à estimer le degré de mobilité des capitaux entre 16 pays de l’OCDE en particulier sur
la période 1960-1074 (et puis sur plusieurs périodes différentes).
Ils utilisent les données relatives au taux d’épargne (S/PIB) et au taux d’investissement (I/PIB)
L’idée est que s’il n’y a pas de mobilité internationale des capitaux cela signifie que l’épargne dans un pays
reste dans le pays (elle est investie dans le pays) l’élasticité de l’investissement par rapport à l’épargne doit
être égale à 1
Si cette élasticité est égale à 0 cela signifie qu’il y a mobilité internationale parfaite des capitaux
177
Chapitre 1. Le modèle linéaire simple
Pour répondre à cette question, les auteurs estiment le modèle économétrique suivant :
, ,
Test 1. contre .
Test 2. contre .
179
Chapitre 1. Le modèle linéaire simple
∗ ∗∗∗
(0,0174) (0,0707)
180
Chapitre 1. Le modèle linéaire simple
∗ ∗∗∗
(0,0174) (0,0707)
Les résultats du modèle économétrique peuvent être utilisés pour évaluer la mobilité
internationale des capitaux
181
Chapitre 1. Le modèle linéaire simple
∗ ∗∗∗
(0,0174) (0,0707)
On rejette l’hypothèse nulle au seuil 1% (P-valeur = 0,000)
Le test de Wald montre qu’on ne peut pas rejeter l’hypothèse nulle
,
. .( ) , ; ,
La première hypothèse montre qu’il y a bien une relation entre txi et txs et la deuxième montre
qu’un accroissement de l’épargne se traduit par une hausse quasi équivalente de l’investissement
La statistique de Fisher permet de réaliser un test relatif à une contrainte. Il consiste à comparer les SCR des
modèles sans contrainte (libre) et avec contrainte
Si on ne rejette pas
183
Chapitre 1. Le modèle linéaire simple
184
Chapitre 2. Le modèle linéaire multiple
185
Chapitre 2. Le modèle linéaire multiple
- Le modèle linéaire multiple (régression multiple) est une généralisation du modèle linéaire simple.
- L’essentiel des techniques qui sous-tendent le modèle linéaire simple restent valables
- Dans le modèle multiple on s’intéresse à savoir dans quelle mesure les variations de la variable dépendante
sont expliquées par les variations des variables explicatives : x1, x2,…, xk
𝑦 = 𝛽 + 𝛽 𝑥 +. . . +𝛽 𝑥 + 𝜀 𝑖 = 1,2, . . . , 𝑛
1. 𝐸(𝜀 ) = 0 2. 𝑉(𝜀 ) = 𝜎 3. 𝜀 , 𝜀 ) = 0
cov( ∀𝑖 ≠ 𝑗
4. cov( 𝜀 , 𝑥 ) = 0 5. 𝜀 → 𝑁(0, 𝜎 )
Les estimateurs par les moindres carrés 𝛽 , 𝛽 , . . . , 𝛽 sont non biaisés et présentent la variance la plus
petite parmi tous les autres estimateurs (moments et maximum de vraisemblance). Sous ces conditions
les estimateurs par la méthode des moindres carrés sont BLUE. Le théorème de Gauss-Markov est
valable dans le cas multiple.
186
Chapitre 2. Le modèle linéaire multiple
Bien entendu, comme dans le cas simple, les estimateurs par les moindres carrés sont ceux qui minimisent la
somme des carrés des résidus. Soit
𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥 −. . . −𝛽 𝑥
En plus des hypothèses précédentes (Gauss-Markov), il ne faut pas qu’il y ait de colliniarité entre les
variables explicatives. C’est-à-dire qu’il n’existe pas de relation linéaire déterministe entre les variables
explicatives.
187
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit
188
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit
189
Chapitre 2. Le modèle linéaire multiple
190
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit
Ou encore
La colonne de la constante
191
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
192
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
En développant,
193
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
En développant,
194
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
En développant,
195
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
En développant,
196
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
197
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
Ou encore
198
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
Ou encore
En distribuant,
Ou
199
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
Ou encore
En distribuant,
Ou
200
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
Ou encore
En distribuant,
Ou
201
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
Ou encore
En distribuant,
Ou
202
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Considérons les données suivantes (24 observations)
Y X1 X2 X3
8,5 16,9 0,7 2,1
7,2 19,2 0,9 2,4
11,3 9,6 0,6 2,0
4,6 4,9 0,3 2,0
13,0 18,0 0,9 1,9
11,0 10,5 0,6 2,2
10,1 14,8 0,8 2,0
7,8 19,9 1,0 2,0
9,1 17,8 0,9 1,9
11,0 16,4 0,9 2,1
12,0 18,1 0,8 2,0
11,1 9,3 0,5 2,1
9,2 13,6 0,7 2,4
4,6 10,0 0,6 1,8
3,1 1,2 0,1 1,7
18,5 20,4 1,1 2,0
12,6 15,3 0,9 2,2
12,0 18,9 0,8 2,1
4,9 5,4 0,3 2,0
15,9 17,4 0,9 2,2
9,2 8,7 0,5 2,1
10,6 10,3 0,6 2,1
12,2 18,2 0,9 2,0
13,9 14,4 0,7 2,4
Estimez sur Excel et Eviews la relation (fichier Excel Exemple Reg multiple)
𝑦 =𝛽 +𝛽 𝑥 +𝛽 𝑥 +𝛽 𝑥 +𝜀
203
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :
243,40 𝛽 −4,985
3616,28 𝛽 −0,323
𝑋′𝑌 = 𝛽= 𝑋𝑋 𝑋𝑌 = =
186,26 𝛽 16,237
509,00 3,894
𝛽
204
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24
205
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
Supposons que deux variables x1 et x2 permettent d’expliquer une variable dépendante y
Les coefficients 𝛽 et 𝛽 donnent une estimation de l’influence de chacune des deux variables
explicatives sur y en contrôlant l’effet de l’autre variable explicative.
Supposons que
𝑦 =𝛽 +𝛽 𝑥 , +𝜀
206
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
𝑦 =𝛽 +𝛽 𝑥 +𝜀
Si x1 augmente alors
Ainsi avec un modèle simple, la valeur de 𝛽 va capter tous ces effets et sa valeur sera sur-estimée par
rapport à la réalité. Donc 𝛽 sera biaisé. Ainsi, lorsque certaines variables ne sont pas prises en compte
les estimateurs sont biaisés.
Ainsi, plus le nombre de variables explicatives est important, plus les estimateurs auront moins tendance à
être biaisés.
207
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
208
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
209
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
210
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
On trouve une élasticité positive. Ce qui n’est pas conforme aux attentes théoriques.
Le problème est que l’estimateur est tellement biaisé qu’il surestime l’élasticité à telle point qu’elle devient
positive. Il y a probablement omission d’une variable importante.
211
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
On trouve une élasticité positive. Ce qui n’est pas conforme aux attentes théoriques.
Le problème est que l’estimateur est tellement biaisé qu’il surestime l’élasticité à telle point qu’elle devient
positive. Il y a probablement omission d’une variable importante. Le revenu disponible.
Estimons maintenant le modèle avec deux variables explicatives: prix et revenu disponible.
212
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
Malheureusement, on ne peut pas inclure toutes les variables. Et ce pour deux raisons
- Certaines ne sont pas connues ou ne sont pas mesurables
- La précision des estimations devient faible (estimateurs pas efficaces)
Le choix des variables explicative à inclure dans le modèle est le problème majeur qui se pose en pratique.
Ces problèmes sont surmontés grâce à l’expérience et à la connaissance fine du domaine et de la théorie
économique.
Un autre problème se pose lorsqu’on considère un nombre important de variables explicatives. Il y a le
risque que certaines d’entre elles soient corrélées. Dans ce cas il est difficile de déterminer l’effet de
chacune d’entre elles. C’est le problème de la multicollinéarité.
contre
Comme dans le cas simple, la décision est prise en comparant l’écart observé
215
Chapitre 2. Le modèle linéaire multiple
Dans cette équation la variance de la régression est donnée comme dans le cas simple par
et
216
Chapitre 2. Le modèle linéaire multiple
Ainsi
217
Chapitre 2. Le modèle linéaire multiple
Stratégie d’estimation
• Lorsqu’on ne dispose pas de modèle théorique et qu’on cherche à expliquer une variable, la stratégie
consiste à inclure le maximum de variables.
• Lorsqu’une variable explicative n’est pas significative (c.a.d. pour laquelle H0 est acceptée) on régresse le
modèle à nouveau sans la prendre en considération.
• Par contre, on garde la constante même si elle n’est pas significative (Stratégie d’estimation).
218
Chapitre 2. Le modèle linéaire multiple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24
219
Chapitre 2. Le modèle linéaire multiple
Dependent Variable: Y
Method: Least Squares
Date: 04/15/21 Time: 13:54
Sample: 1 24
Included observations: 24
220
Chapitre 2. Le modèle linéaire multiple
Dependent Variable: Y
Method: Least Squares Dependent Variable: Y
Date: 04/15/21 Time: 13:54 Method: Least Squares
Sample: 1 24 Date: 04/15/21 Time: 13:55
Included observations: 24 Sample: 1 24
Included observations: 24
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C -3.895437 6.810711 -0.571957 0.5734
X2 9.507400 2.427714 3.916195 0.0008 C 2.918405 1.747078 1.670449 0.1090
X3 3.526453 3.407275 1.034977 0.3125 X2 10.19755 2.338113 4.361444 0.0002
R-squared 0.489733 Mean dependent var 10.14167 R-squared 0.463705 Mean dependent var 10.14167
Adjusted R-squared 0.441136 S.D. dependent var 3.639269 Adjusted R-squared 0.439328 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062 S.E. of regression 2.725013 Akaike info criterion 4.922479
Sum squared resid 155.4367 Schwarz criterion 5.103319 Sum squared resid 163.3653 Schwarz criterion 5.020650
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129 Log likelihood -57.06975 Hannan-Quinn criter. 4.948524
F-statistic 10.07746 Durbin-Watson stat 1.753960 F-statistic 19.02219 Durbin-Watson stat 1.601258
Prob(F-statistic) 0.000855 Prob(F-statistic) 0.000250
221
Chapitre 2. Le modèle linéaire multiple
(𝑦 − 𝑦̄ ) = (𝑦 − 𝑦̄ ) + (𝑦 − 𝑦 )
Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE k SCE / k
Résidus SCR n–k-1 SCR / (n – k - 1)
Total SCT n-1
𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇
222
Chapitre 2. Le modèle linéaire multiple
𝑆𝐶𝑅/(𝑛 − 𝑘 − 1)
𝑅 = 1−
𝑆𝐶𝑇/(𝑛 − 1)
Ou encore
223
Chapitre 2. Le modèle linéaire multiple
24 − 1
𝑅 = 1− (1 − 0,506753) = 0,432766
24 − 3 − 1
224
Chapitre 2. Le modèle linéaire multiple
𝐻 : 𝛽 = 𝛽 =. . . = 𝛽 = 0
𝐻 :𝛽 ≠ 0
Ce test donne le pouvoir explicatif des toutes les variables prises ensemble.
On peut montrer que F suit une loi de Fisher avec (k) et (n - k - 1) d.d.l
225
Chapitre 2. Le modèle linéaire multiple
𝑅 /𝑘 0,5067/3
𝐹= = = 6,849
(1 − 𝑅 )/(𝑛 − 𝑘 − 1) (1 − 0,5067)/(24 − 3 − 1)
Prob(𝐹) = 0,00234
226
Chapitre 2. Le modèle linéaire multiple
On peut par exemple être tentés de voir si les élasticités prix et revenu sont égales. Dans ce cas nous allons
tester
227
Chapitre 2. Le modèle linéaire multiple
228
Chapitre 2. Le modèle linéaire multiple
Wald Tes t:
Equation: Untitled
229
8. La question des proxy
- Il arrive souvent qu’il soit impossible d’avoir des données relatives à une variable que l’on souhaite
inclure comme variable explicative.
- En effet, certaines variables socioéconomiques sont difficiles à mesurer comme les statuts
socioéconomiques des individus, la qualité de l’éducation, etc.
- Parfois on utilise des données d’enquêtes mais une variable importante n’a pas été prise en compte.
Dans ce cas deux options s’offrent à nous
- Ne pas prendre en considération la variable en question. Auquel cas, les estimateurs des variables pris en
considération sont biaisés (omission de variables)
- La remplacer par une variable qui lui est corrélée (proxy) et qui est observable
Ainsi par exemple, on peut utiliser le revenu d’une personne comme une proxy de son statut
socioéconomique, les dépenses d’éducation par élève comme proxy de la qualité de l’éducation, etc.
230
8. La question des proxy
𝜶 𝜷
et sont respectivement les parts des revenus du capital et du travail dans le revenu national.
En cas de concurrence pure et parfaite, nous avons (rendements constants à l’échelle)
231
8. La question des proxy
Nous souhaitons estimer les paramètres de la fonction de production en utilisant les données américaines.
En Log-linéarisant nous obtenons,
Comme le progrès technique n’est pas observable, nous ne disposons pas de données relatives à et donc ne
nous la prendrons pas en compte.
En utilisant les données américaines entre 1949-1978 (voir Kendrick et Grossman, 1980). Nous obtenons le
résultat suivant
232
8. La question des proxy
L’examen du résultat montre que le capital capte l’effet du progrès technique. Son coefficient est trop élevé
(l’estimateur est baisé).
- D’abord sa valeur est supérieure à 1. Une hausse du capital (pour travail constant) augmente le revenu
de manière plus que proportionnelle. Mais normalement il y’a productivité marginale décroissante du
capital
- La part du revenu du capital dans le revenu national est supérieure à 1 ce qui n’est pas possible.
233
8. La question des proxy
- Il est préférable de refaire la régression mais en choisissant une proxy pour le progrès technique.
- Un choix possible, et souvent utilisé, est le temps. Ainsi, la variable est introduite
- Elle prend les valeurs 1 en 1949, 2 en 1950 et ainsi de suite.
Ainsi, lorsque la variable temps est introduite (elle est corrélée au progrès technique), la variable capital
cesse d’être une proxy et elle n’est plus biaisée.
Sa valeur est maintenant plus raisonnable (< 1).
234
8. La question des proxy
Nous souhaitons estimer l’élasticité prix de la demande de biens alimentaires. Pour ce faire nous régressons
la demande de biens alimentaire, sur le revenu disponible des ménages et l’indice des prix des biens
alimentaires.
235
8. La question des proxy
Lorsque nous utilisons les données réelles de l’indice des prix et du revenu disponible (fichier Exemple
demande BA) nous obtenons le résultat suivant :
236
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.
237
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.
Nous obtenons
(0,000) (0,000)
238
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).
239
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).
Nous obtenons
(0,000) (0,000)
240
9. Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait
241
9. Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait
En utilisant les données américaines 1959-1983 (fichier Excel Exemple demande logement), nous obtenons
le résultat suivant
242
9. Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
243
9. Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
244
9. Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
245
9. Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
246
10. Régression sur variables qualitatives
Il peut arriver que les variables explicatives soient qualitatives et non mesurables.
- Si on régresse le salaire sur le nombre d’années d’études et que dans notre échantillon il y a des hommes
et des femmes, on pourrait être tenté de savoir si le sexe influence cette relation
- Lorsqu’on examine les effets de l’investissement direct étranger sur le PIB et que dans l’échantillon
nous avons des pays développés et des pays en développement et qu’on souhaite connaitre l’impact des
FDI sur la croissance selon le niveau de développement
247
10. Régression sur variables qualitatives
Un moyen simple de traiter ce problème est de réaliser deux régressions en scindant l’échantillon en deux
sous-ensembles et de comparer les coefficients obtenus
- Dans le premier cas, une régression avec un échantillon composé d’hommes et un échantillon composé
de femmes
- Dans le second cas, une régression avec un échantillon composé de pays développé et une régression
avec un échantillon composé de pays en développement
L’autre moyen et de réaliser une régression avec un seul échantillon et d’évaluer l’effet des variables
qualitatives par le concept de variables muettes ou factices (dummy variables).
La deuxième méthode est meilleure dans la mesure où on travaille avec l’échantillon dans sa globalité
(échantillon de plus grande taille plus de degrés de libertés).
248
10. Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
nouveaux nés. L’étude a porté sur plus de 900 naissances. Ici, nous avons retenu 20 observations
Nous allons commencer par la relation suivante :
Dans cette relation y représente le poids des bébés (en grammes) et x le nombre de cigarettes fumées par jour
par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu le résultat
suivant : Voir sortie Eviews
249
10. Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
bébés. L’étude à porté sur plus de 900 naissances. Ici 20 observations
Nous allons commencer par la relation suivante :
Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par jour
par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu la régression
suivante :
∗∗∗ ∗∗∗
avec
Ainsi, un bébé né d’une femme non fumeuse pèse 3,60 kg et que chaque cigarette fumée fait perdre au bébé
17,463 grammes.
250
10. Régression sur variables qualitatives
On souhaite maintenant connaître l’effet, sur le poids des bébés, d’être le premier né ou avoir déjà des frères
et sœurs. La variable est qualitative
On peut modéliser cette situation comme suit
premier né
fratrie
- Notons que les deux équations présentent la même pente et des intercepts différents.
- Cela revient à supposer que le fait que l’enfant soit le premier né ou non affecte le poids de base du bébé
et non l’effet des cigarettes fumées par la maman
Un autre moyen de modéliser le problème est de l’écrire comme suit
L’idée est de scinder le poids basique des nouveaux nés ayant déjà des frères et sœurs en deux parties : le
poids basique des enfants premiers nouveaux nés et un supplément de poids (qui peut être négatif)
251
10. Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit
Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un premier
né et 1 lorsqu’il fait partie d’une fratrie.
252
10. Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit
Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un premier
né et 1 lorsqu'il fait partie d’une fratrie.
Les résultats de la régression est donné par
Ainsi la variation du poids du fait de ne pas être le premier né est de 234,8 grammes.
Ainsi l’équation précédente pourrait s’écrire.
premiers nés
fratrie
253
10. L’exemple des séries temporelles
Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.
DDE RD
1963 18,5 542,3
1964 19,7 580,8
1965 23,5 616,3
1966 23,6 646,8
1967 22,2 673,5
1968 26,5 701,3
1969 26,7 722,5
1970 22,7 751,6
1971 28 779,2
1972 31,6 810,3
1973 33,9 865,3
1974 25,5 858,4
1975 25,4 875,4
1976 31,1 906,8
1977 34,4 942,9
1978 34,8 988,8
1979 32,9 1015,5
1980 28,7 1021,6
1981 29,6 1049,3
1982 29,8 1058,3
254
10. L’exemple des séries temporelles
On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982
DDE RD DD
1963 18,5 542,3 0
1964 19,7 580,8 0
1965 23,5 616,3 0
1966 23,6 646,8 0
1967 22,2 673,5 0
1968 26,5 701,3 0
1969 26,7 722,5 0
1970 22,7 751,6 0
1971 28 779,2 0
1972 31,6 810,3 0
1973 33,9 865,3 0
1974 25,5 858,4 1
1975 25,4 875,4 1
1976 31,1 906,8 1
1977 34,4 942,9 1
1978 34,8 988,8 1
1979 32,9 1015,5 1
1980 28,7 1021,6 1
1981 29,6 1049,3 1
1982 29,8 1058,3 1
255
10. L’exemple des séries temporelles
Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.
On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982
256
10. L’exemple des séries temporelles
L’utilisation des données rend le résultat suivant :
Avec un
Ainsi, l’intercept entre 1963 et 1973 est égal à 0,14 et -4,43 entre 1974 et 1982
Le test de Student montre que le changement est significatif au seuil 10%
257
10. Le cas des variations saisonnières
Lorsque les données sont disponibles, les chercheurs préfèrent travailler avec des données trimestrielles
plutôt qu’avec des données annuelles. Cela leur procure 4 fois plus d’observations. Cependant il peut arriver
que la saison (le trimestre) ait un effet important. Il es alors nécessaire de prendre en compte l’effet de la
saison.
258
10. Le cas des variations saisonnières
259
10. Le cas des variations saisonnières
Nous allons considérer le premier trimestre comme notre référence et introduire des variables muettes pour
estimer les différences entre les estimations relatives à ce premier trimestres et aux autres.
Notre modèle s’écrit comme suit
260
10. Le cas des variations saisonnières
Année DEP t D2 D3 D4
1977T1 7,33 1 0 0 0
1977T2 4,7 2 1 0 0
1977T3 5,1 3 0 1 0
1977T4 5,46 4 0 0 1
1978T1 7,65 5 0 0 0
1978T2 4,92 6 1 0 0
1978T3 5,15 7 0 1 0
1978T4 5,55 8 0 0 1
1979T1 7,96 9 0 0 0
1979T2 5,01 10 1 0 0
1979T3 5,05 11 0 1 0
1979T4 5,59 12 0 0 1
1980T1 7,74 13 0 0 0
1980T2 5,1 14 1 0 0
1980T3 5,67 15 0 1 0
1980T4 5,92 16 0 0 1
1981T1 8,04 17 0 0 0
1981T2 5,27 18 1 0 0
1981T3 5,51 19 0 1 0
1981T4 6,04 20 0 0 1
1982T1 8,26 21 0 0 0
1982T2 5,51 22 1 0 0
1982T3 5,41 23 0 1 0
1982T4 5,83 24 0 0 1
261
10. Le cas des variations saisonnières
262
10. Le cas des variations saisonnières
On voit que la consommation est la plus importante pour le premier et le quatrième trimestre
263
11. Application 1. validation empirique du modèle de Solow ?
Economiste américain
Travaux sur la théorie de la croissance, résidu de Solow
Paradoxe productivité
Prix Nobel 1987 pour ces travaux.
Robert Solow (1956) « A Contribution to the Theory of Economic Growth », QJE (42 992 citations)
Robert Solow (1957) « Technical Change and the Aggregate Production Function», RES (22 920
citations)
264
Présentation du modèle
- Apportent une première explication aux écarts de développement et de taux de croissance entre
pays
- Constituent les bases de la théorie de la croissance
- Courant néoclassique (post keynésien)
Le modèle de Solow utilise deux équations ; la fonction de production et celle d’accumulation du
capital. L’ économie produit un bien composite en quantité Y à partir de deux facteurs primaires K
et L selon une technologie à rendements constants
Hypothèses :
- Economie fermée et absence de l’Etat I = S
- L’épargne est une fraction fixe s du revenu S = s Y
- Fonction de production néoclassique Y = F (K, L)
* substitution entre capital et travail
* PmF décroissantes (Hypothèse très importante)
* Rendements constants
265
Présentation du modèle
Exemple : Fonction de production Cobb-Douglas
266
Pour simplifier, nous présentons toutes les variables par rapport au volume de la force de travail efficient
Ainsi, on pose et
La production (le revenu) par travailleur efficient est donc donnée par
267
La fonction de production
268
La fonction de production
Production y = f(k)
269
La fonction de production
y
Production y = f(k)
Production par travailleur
k
Capital par travailleur
270
L ’accumulation du capital physique
Les individus épargnent une fraction constante s du revenu et consomment la fraction restante (1-s)
c (1 s) y
y (1 s ) y i
i sy i sf ( k )
k sf ( k ) ( n g ) k
271
Production, consommation et investissement
k
Capital par travailleur efficient
272
Production, consommation et investissement
Production y = f(k)
k
Capital par travailleur efficient
273
Production, consommation et investissement
Production y = f(k)
Investissement i= s × f(k)
k
Capital par travailleur efficient
274
Production, consommation et investissement
Production y = f(k)
Production par
travailleur efficient
y Investissement i= s × f(k)
k
Capital par travailleur efficient
275
Production, consommation et investissement
Production y = f(k)
Production par
Consommation par
travailleur efficient
travailleur efficient
c
y Investissement i= s × f(k)
Investissement par
i travailleur efficient
k
Capital par travailleur efficient
276
Consommation du capital
k
Capital par travailleur efficient
277
Investissement, amortissement et état stationnaire
Consommations de capital
(δ+n+g)×k
Investissement
i = s×f(k)
278
Investissement, amortissement et état stationnaire
Consommations de capital
(δ+n+g)×k
Investissement
(δ+n+g)×k*=i*
i = s×f(k)
k*
Niveau stationnaire du
capital par travailleur
279
Investissement, amortissement et état stationnaire
Consommations de capital
(δ+n+g)×k
(δ+n+g)×k*=i* Investissement
i1 i = s×f(k)
(δ+n+g)k1
k1 k*
Le stock de capital augmente car Niveau stationnaire du
l’investissement est supérieur à la capital par travailleur
consommation de capital
280
Investissement, amortissement et état stationnaire
Consommations de capital
(δ+n+g)×k
(δ+n+g)k2
i2
(δ+n+g)×k*=i* Investissement
i1 i = s×f(k)
(δ+n+g)k1
k1 k* k2
Le stock de capital augmente car Niveau stationnaire du Le stock de capital baisse car
l’investissement est supérieur à la capital par travailleur l’investissement est inférieur à la
consommation de capital consommation de capital
281
Il existe un seul état stationnaire
- Lorsque cet état est atteint le stock de capital par travailleur est stable
- Une économie qui n’a pas atteint ce stock tend vers lui
c/c : toute économie atteint un jour son état stationnaire : c’est l’équilibre de long terme
Exemple : la croissance importante de l’Allemagne et du Japon après la seconde guerre mondiale. La destruction
du stock de capital qui passe de k* à k1
282
Effet d’une hausse du taux d’épargne
283
Effet d’une hausse du taux d’épargne
s1×f(k)
284
Effet d’une hausse du taux d’épargne
s2×f(k)
s1×f(k)
…augmente le stock de
capital de l’état stationnaire.
285
Taux d’investissement et revenu par habitant
LUX
40000
Maroc USA
30000
Revenu par habitant en 1999
NZL
ESP
ISR
ATG BRB PRT SVN
K KOR
GRC
MUS CZE
SVK
10000
TTO ARG
SYC
URY CHL MYSHUN
GABEST HRV MEX POL
LVA ZAF LTU BWA RUS BLR
BRA
KAZ
VCT TUR
BLZ
LCA TUN
VEN THA
GEOBGR LBN
COL CRI FJI IRN PAN
GRD
SWZ
SLV GTM PRY MKD
DOM DZA
UKR M PER ROM
EGY SYRMAR
JOR
IDN CHN CPV
PHL JAM
GUY
ECU
KGZ LKABOL
ALBGIN
PNG
ARM
INDPAK AZE ZWE
CMR
COM
SEN MDA
CIV TJK GNQ HND KEN LSO COG
UGA
MOZ
MDGETHKHM
RWA MRT
GMB
BDI BEN
MLI
YEMTGO
NGA
NER BFA BGDNIC
TCD NPL
GHA MWI ZMB
GNB TZA
0
0 10 20 30 40
Investissement en pourcentage de la production (1960-1999)
286
Epargne et croissance économique
- Un taux d’épargne important signifie un stock de capital important et une production importante de biens et
services
- Une épargne importante accélère la croissance économique mais de manière transitoire
- La croissance augmente jusqu’à ce que l’économie atteigne son état stationnaire
- L’épargne affecte le niveau du revenu par habitant mais pas son taux de croissance (il explique les écarts de
revenus mais pas les taux de croissance). Différence avec le modèle de Harrod-Domar
- Pour agir sur le taux de croissance de ce revenu il faut mettre en place des politiques économiques
appropriées (lesquels ?)
Mais alors qu’est ce qui explique ces différences au niveau des taux d’épargne et d’investissement ?
- Politiques économiques, développement des marchés financiers, qualité des institutions, etc. ?
- Le sens de la causalité ? Epargne et investissement déterminent – ils le revenu ou l’inverse ?
287
Effet de la hausse de la croissance démographique
Investissements
(δ+g+n1)×k
s×f(k)
k1* k
Capital par
travailleur
288
Effet de la hausse de la croissance démographique
Investissements
1. Une croissance
démographique plus
forte…
(δ+g+n1)×k
s×f(k)
k1* k
Capital par
travailleur
289
Effet de la hausse de la croissance démographique
Investissements
s×f(k)
k2* k1* k
Capital par
travailleur
290
Effet de la hausse de la croissance démographique
Investissements
s×f(k)
Le modèle de Solow
prédit donc que les
pays à fort taux de
croissance
démographique
auront, ceteris
paribus, un revenu
par habitant plus
faible.
k2* k1* k
291
Taux de croissance démographique et revenu par
habitant
LUX
40000
USA
Maroc
Revenu par habitant en 2000
30000
IRL NOR
DNK CHE CAN
AUS
JPN
NLD ISL
BEL FIN
AUT
GBR
ITA FRA
20000
NZL
ESP
ISR
PRT
MUS
10000
TTO ARG
URY
MEX
THAZAF
BRA
TUR VEN
PAN
COL CRI
S
EGY PER
LV
LKA MAR PHL GTM
IND BOL HND
PAK NIC KEN
ETH NGA UGA
0
0 1 2 3
Croissance démographique (taux de croissance annuel moyen)
292
Taux de croissance démographique et revenu par habitant
- Selon le modèle de Solow la croissance démographique peut expliquer les écarts de revenus mais
pas les taux de croissance
- Une forte croissance démographique réduit le stock de capital à l’état stationnaire
- Les données montrent un lien négatif entre taux de croissance démographique et revenu par
habitant
- Le modèle de Solow fait de bonnes prédictions
- Politiques économiques de planning familial ?
- Aujourd’hui on croit à un sens de causalité inverse : parce que les pays sont riches que la croissance
démographique est faible
- Politiques économiques en faveur de la natalité
293
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
294
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g )k 0
295
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g )k 0
sk (n g ) k
296
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g )k 0
sk (n g ) k sk 1 (n g )
297
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g )k 0
sk (n g ) k sk 1 (n g )
1
s 1
k LT
n g
298
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g )k 0
sk (n g ) k sk 1 (n g )
1
s 1
kes
n g
s 1
yes
n g
299
3. Confrontations aux données
Si on remplace dans la fonction de production et on introduit le logarithme des deux côtés nous obtenons
Le reflète non seulement l’état de la technologie mais aussi les ressources, le climat, les institutions, etc.
Donc il diffère d’un pays à un autre.
On peut écrire
Yt F ( K t , At Lt ) K t ( At Lt )1
301
1. Introduction
La confrontation du modèle de Solow aux données a posé deux principaux problèmes :
1. Le modèle sous-estime le rôle de l’épargne et de l’investissement (et de la croissance démographique). Or les études
empiriques montrent que l’investissement joue un rôle important dans l’explication des écarts de revenus
2. Le modèle surestime le rôle du progrès technologique et prédit une convergence qui n’est pas constatée dans la réalité.
Du moins pas aussi rapide que le prédit le modèle
R2 ajusté 0,59
Nbre observations 98
Effet positif de l’épargne. R2 est égal à 60% cela signifie que A (efficacité du travail) explique 40% des écarts
Test de Wald confirme l’égalité des coefficients
Alpha est compris entre 0,33 et 0,41 soit une moyenne de 0,37
302
1. Introduction
Mankiw, Romer et Weil (1992) « A contribution to the empirics of economic growth », AER (25 626 citations)
303
1. Introduction
Leur point de départ est le suivant : On calcule la vitesse de convergence chez Solow
k k *
G * (k ) (1 )( n g )
k*
(1 )( n g )
𝜆 = 0,049 = 4,9, %
Chaque année l’économie comble 5,95% de l’écart restant à combler par rapport à l’état stationnaire
On peut calculer en combien de temps une économie aura comblé la moitié de son écart par rapport à son état
stationnaire.
Il faut résoudre
Ceci est clairement irréaliste. C’est trop rapide. On n’observe pas ça empiriquement
304
1. Introduction
Leur point de départ est le suivant :
On a montré que la vitesse de convergence dans le modèle de Solow est donnée par
(1 )(n g )
C ’est cette idée qui a poussé MRW à ajouter le capital humain au modèle de Solow
305
5. Confrontations aux données
Effet positif de l’épargne. R2 est égal à 59% cela signifie que A explique 41% des écarts
Le capital humain explique une partie. Vitesse de convergence plus lente (3,5% au lieu de 5,35%)
R2 0,78. Cela signifie que le A explique 32% seulement des écarts de revenus
306
3. Confrontations aux données
MRW(1992) introduisent un troisième facteur : le capital humain
𝑌 = 𝐾 𝐻 (𝐴 𝐿 )
Le revenu d’équilibre est donné par
ln( 𝑦) = 𝛽 + 𝛽 ln( 𝑠 ) + 𝛽 ln( 𝑛 + 𝛿 + 𝑔) + 𝛽 ln( 𝑠 ) + 𝜀
-MRW(1992) prédisent des paramètres 𝛽 ,𝛽 ,𝛽
Dependent Variable: GDP
Method: Least Squares
Date: 04/20/21 Time: 15:36
Sample: 1 106
Included observations: 106
307
Chapitre 3. Variations autour du modèle
linéaire multiple
308
Introduction
Pour chacune des conditions nous allons examiner, à chaque fois que c’est possible, les éléments
suivants :
309
3.1. La nullité de la moyenne des erreurs
En réalité à chaque fois que le modèle contient une constante on est sûr que cette condition est
vérifiée
310
3.2. Absence d’autocorrélation
Les erreurs ne doivent pas être corrélées entre elles
0 0
Autocorrélation positive 𝜀
Autocorrélation négative
0 Absence d’autocorrélation
311
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test h de Durbin, test LM
312
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM
Et que (2)
313
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM
Et que (2)
314
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
-Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et
notée MA(q).
-Si nous avons par exemple MA(3), elle s’écrit
-Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p ,
q)
315
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et
notée MA(q).
- Si nous avons par exemple MA(3), elle s’écrit
- Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p , q)
- Supposons que notre autocorrélation est de type AR(1)
𝜀 = 𝜌𝜀 +𝜐
𝐻 : 𝜌=0
𝐻: 𝜌≠0
317
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester
318
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester
319
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester
- Si pas d’autocorrélation
- Si autocorrélation positive
- Si autocorrélation négative
Ainsi 0 2 4
320
3.2. Absence d’autocorrélation
Pour décider de manière formelle, on compare la statistique de Durbin Watson à un intervalle [𝑑, 𝑑] qui dépend
des paramètres 𝛼, 𝑘, 𝑛 dont les valeurs sont lues sur une table de Durbin-Watson
Autocorrélation
Absence négative
Autocorrélation d’autocorrélation
positive
321
Alpha = 0,05 Table de DW
322
3.2. Absence d’autocorrélation
Reprenons notre exemple relatif au modèle de Solow
- Le modèle doit comporter une constante sinon il utiliser une table de DW spécifique aux
modèles sans constantes
- La variable expliquée retardées ne doit pas figurer parmi les variables explicatives (modèles
dynamiques). Dans ce cas on peut utiliser le test h de Durbin
- Pour les données en coupe instantanée, elles doivent être ordonnées de manière croissante (ce
n’est pas le cas chez nous)
- Le nombre d’observations doit dépasser 15
324
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
325
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
326
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
Si le modèle est vrai pour t, il l’est aussi pour t -1
(2)
327
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
𝜐 → 𝑁(0, 𝜎 )
(2)
(1)-(2)
328
329
330
331
∗ ∗ ∗
332
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 +𝜐
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 + 𝜀 − 𝜌𝜀
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 +𝜐
∗ ∗ ∗
- L’estimation de cette dernière régression par MCO revient à estimer le modèle initial par la
méthode des moindres carrés quasi-différenciés (MCQD)
∗ ∗
- Pour transformer et en et , il faut connaître
- Plusieurs techniques sont utilisées.
DW = 0,38429
334
Reprenons notre exemple de l’élasticité prix de la demande
Le modèle initial et le modèle transformé (quasi-différence) s’écrit comme suit :
R-squared 0.328461 Mean dependent var 0.752434 dde = -20,062 + 4,96 prix +
Adjusted R-squared 0.291154 S.D. dependent var 0.131347
S.E. of regression 0.110585 Akaike info criterion -1.471422
Sum squared resid
Log likelihood
0.220124
16.71422
Schwarz criterion
Hannan-Quinn criter.
-1.371848
-1.451984
DW = 1,793
F-statistic 8.804111 Durbin-Watson stat 1.793809
Prob(F-statistic) 0.008253
335
3.2. Absence d’autocorrélation
Estimation directe de par la procédure de Cochrane-Orcutt
Etape 1. Réaliser la régression suivante par MCO :
Etape 3. Utilisation de pour transformer les variables et estimer par MCO la relation
∗ ∗ ∗
336
3.2. Absence d’autocorrélation
Reprenons notre exemple de la demande
Etape 1. Réaliser la régression suivante (Y = demande et X = Prix, t = 1980,…, 2000) :
337
3.2. Absence d’autocorrélation
Reprenons notre exemple de la demande
Etape 2. Générons les nouvelles séries y* et x*
338
3.2. Absence d’autocorrélation
Procédure de Cochrane-Orcutt
Etape 1. Réaliser la régression suivante :
339
3.2. Absence d’autocorrélation
Procédure de Cochrane-Orcutt
340
3.2. Absence d’autocorrélation
Sur Eviews on peut estimer
Dependent Variable: DDE
Method: ARMA Maximum Likelihood (OPG - BHHH)
Date: 01/02/23 Time: 11:25
Sample: 1980 2000
Included observations: 21
Convergence achieved after 15 iterations
Coefficient covariance computed using outer product of gradients
341
3.2. Absence d’autocorrélation
Sur Stata on code prais DDE PRIX, corc
. prais dde prix, corc
rho .7887085
342
3.2. Absence d’autocorrélation
Pour les autocorrélations d’ordre supérieur à 1, on peut utiliser le test de Breusch & Godfrey (appelé
test LM)
Considérons le modèle linéaire suivant :
, ,
, ,
343
3.2.. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons
344
3.2.. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 12/06/23 Time: 09:20
Sample: 1980 2000
Included observations: 21
Presample missing value lagged residuals set to zero.
13,24 = 0,6306 * 21
Variable Coefficient Std. Error t-Statistic Prob.
345
3.2. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons
Les probabilités sont largement << 0,05, on rejette H0 (H0: les rho sont nuls) il y a autocorrélation
La probabilité associé à la statistique de Khi-deux est << 0,05 on rejette H0, il y a autocorrélation
346
3.2. Absence d’autocorrélation
Comment corriger l’autoccorélation ? Il suffit de généraliser les procédures précédentes.
Pour une autocorrélation d’ordre 2, Eviews rend
347
3.3. La variance est finie et constante
Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 . Dans ce cas on parle d’un modèle
homoscédastique. Dans le cas contraire on parle de modèle hétéroscédastique
. . .. . .
0
. . .. . .
.
Homoscédasticité
348
3.3. La variance est finie et constante
Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique
. .
.. . .
0
. . .
. . .
.
Hétéroscédasticité
349
3.3. La variance est finie et constante
Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique
. .
. . ..
0
. .. .
. .
.
hétéroscédasticité
350
3.3. La variance est finie et constante
Considérons un échantillon de 30 observations relatif à deux variables y et x (fichier Excel
hétéroscédasticité)
RESID
Dependent Variable: Y 20
Method: Least Squares
Date: 12/11/23 Time: 09:07
Sample: 1 30
15
Included observations: 30
10
Variable Coefficient Std. Error t-Statistic Prob.
5
C 24.09442 2.397697 10.04898 0.0000
X -4.125322 0.982272 -4.199774 0.0002 0
R-squared 0.386478 Mean dependent var 15.50000
Adjusted R-squared 0.364566 S.D. dependent var 8.585272
-5
S.E. of regression 6.843674 Akaike info criterion 6.748867
Sum squared resid 1311.404 Schwarz criterion 6.842280 -10
Log likelihood -99.23300 Hannan-Quinn criter. 6.778751
F-statistic 17.63810 Durbin-Watson stat 1.808528 -15
Prob(F-statistic) 0.000245
-20
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
Le test de White
On régresse le carré des résidus sur les variables explicatives, les carrés des variables explicatives et
sur les produits croisés des variables explicatives
Etape 1. Si par exemple notre modèle s’écrit
352
3.3. La variance est finie et constante
Les tests formels : le test de White
Soit recourir à la statistique LM qui est distribuée selon un Khi-deux avec degrés de libertés (nombre de
coefficients estimés dans la régression auxiliaire ici 5).
On note le coefficient de détermination de cette régression
Bien entendu si , (ou P-valeur >> 0,05) on accepte l’hypothèse nulle que le modèle est
homoscédastique
353
3.3. La variance est finie et constante
Reprenons l’exemple de la régression de y sur x
Dans Eviews, il faut suivre le chemin suivant :
354
3.3. La variance est finie et constante
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/11/23 Time: 09:16 𝑛𝑅 = 30 × 0,2266 = 6,798
Sample: 1 30
Included observations: 30
𝜒 ; , = 0,10
Variable Coefficient Std. Error t-Statistic Prob.
355
3.3. La variance est finie et constante
Les tests formels : le test de Glejser
- L’avantage de ce test par rapport au test de white est qu’il permet aussi de détecter la forme de
l’hétéroscédasticité (et donc de la corriger).
- Il est fondé sur la relation entre le résidu de l’estimation par les MCO effectuée sur le modèle de base
et la variable explicative supposée être la cause de l’hétéroscédasticité
Etape 1. On régresse par MCO le modèle initial afin d’obtenir les résidus
356
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 1 :
357
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 2 :
/
358
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 3 :
359
3.3. La variance est finie et constante
Dans Eviews il faut suivre le chemin suivant :
view residual diagnistics heteroscedasticity tests Glejser
Eviews rend le résultat suivant
Heteroskedasticity Test: Glejser
Null hypothesis: Hom os kedasticity
Test Equation:
Dependent Variable: ARESID
Method: Least Squares
Date: 12/12/23 Time: 09:28
Sample: 1 30
Included obs ervations: 30
360
3.3. La variance est finie et constante
Causes de l’hétéroscédasticité :
Conséquences de l’hétéroscédasticité
Si l’hypothèse de l’hétéroscédasticité est vérifiée, les coefficients restent toujours non biaisés mais
pas BLUE. Cela signifie qu’on peut toujours continuer à utiliser les MCO. Cependant les S.E. (écart-
types) ne sont pas bons. On ne peut pas faire de l’inférence statistique.
361
3.3. La variance est finie et constante
Solutions
- Si on connait la source de l’hétéroscédasticité (population non homogène, grand pays et petits pays,
données non stationnaires, etc.) on peut résoudre le problème (prendre des variables par tête, travailler
avec des données stationnaires, etc.).
- Utilisation des données en log
- Utiliser les estimateurs des MCG et MCP
- On estime les erreurs standards à la white
362
3.3. La variance est finie et constante : introduction du logarithme
Reprenons notre exemple et régressons Y sur X
Le test n’est pas significatif. On ne rejette pas l’hypothèse nulle. Le modèle est homoscédastique
L’introduction du log a permis de résoudre le problème de l’hétéroscédasticité
364
3.3. La variance est finie et constante
Les estimateurs des MCG et des MCP (généralisés et pondérés)
Considérons le modèle linéaire général suivant :
(1)
(2
365
3.3. La variance est finie et constante
(2)
Ou encore
∗ ∗ ∗ ∗ ∗
(3)
366
3.3. La variance est finie et constante
Les estimateurs des MCG et des MCP
Considérons le modèle linéaire général suivant :
(1)
(4)
367
3.3. La variance est finie et constante
Les estimateurs des MCP
(5)
Avec
368
3.3. La variance est finie et constante : Estimateur MCG et MCP
Nous avons
Nous avons
369
3.3. La variance est finie et constante : Estimateur MCG et MCP
Nous avons
Nous avons
370
3.3. La variance est finie et constante : Estimateur MCG et MCP
Nous avons
Nous avons
371
3.3. La variance est finie et constante : Estimateur MCG et MCP
Rappelons que dans notre exemple nous avons hétéroscédasticité de la forme 2. On doit diviser
les variables par
Ainsi, le modèle définitif est donné par
Dependent Variable: Y
Method: Least Squares
Date: 12/12/23 Time: 10:03
Sample: 1 30
Included observations: 30
Weighting series: X^(0.5)
Weight type: Standard deviation (average scaling)
Dependent Variable: Y/(X^0.5)
Variable Coefficient Std. Error t-Statistic Prob.
Method: Least Squares
Date: 12/11/23 Time: 11:18 C 24.94147 2.503469 9.962763 0.0000
Sample: 1 30 X -4.531905 1.535487 -2.951445 0.0063
Included observations: 30
Weighted Statistics
Variable Coefficient Std. Error t-Statistic Prob. R-squared 0.237286 Mean dependent var 16.28856
Adjusted R-squared 0.210047 S.D. dependent var 14.05345
1/(X^0.5) 24.94147 2.503469 9.962763 0.0000 S.E. of regression 8.536179 Akaike info criterion 7.190845
X/(X^0.5) -4.531905 1.535487 -2.951445 0.0063 Sum squared resid 2040.258 Schwarz criterion 7.284258
Log likelihood -105.8627 Hannan-Quinn criter. 7.220728
F-statistic 8.711027 Durbin-Watson stat 1.723276
R-squared 0.643778 Mean dependent var 14.42003 Prob(F-s tatistic) 0.006332 Weighted mean dep. 19.15899
Adjusted R-squared 0.631055 S.D. dependent var 12.44131
S.E. of regression 7.556954 Akaike info criterion 6.947154 Unweighted Statistics
Sum squared resid 1599.012 Schwarz criterion 7.040567
R-squared 0.382723 Mean dependent var 15.50000
Log likelihood -102.2073 Hannan-Quinn criter. 6.977038 Adjusted R-squared 0.360678 S.D. dependent var 8.585272
Durbin-Watson stat 1.723276 S.E. of regression 6.864580 Sum squared resid 1319.429
Durbin-Watson stat 1.831775
372
3.3. La variance est finie et constante : Estimation des erreurs standards robustes à la white
Dependent Variable: Y
Method: Least Squares
Date: 12/11/23 Time: 11:22
Sample: 1 30
Included observations: 30
Huber-White-Hinkley (HC1) heteroskedasticity consistent standard errors
and covariance
373
3.4. Normalité des erreurs
Afin de réaliser l’inférence statistique, nous avons supposé que les erreurs sont normales. Nous
devons tester cette hypothèse en testant la normalité des erreurs.
Il existe plusieurs tests pour vérifier si les erreurs sont un bruit blanc gaussien. Le plus connu et le
plus utilisé (implémenté dans Eviews) est le test de Jarque-Berra. Il est basé sur les moments d’ordre 3
(asymétrie ou Skewness) et 4 (aplatissement ou Kurtosis).
Le test de Jarque-Bera regroupe ces deux tests en un seul. La statistique de Jarque-Bera est donné par
374
3.4. Normalité des erreurs
On peut montrer que, sous l’hypothèse nulle (les erreurs suivent une loi normale), cette quantité
suit une loi de Khi-deux avec 2 d.d.l.
Ainsi si on ne peut rejeter l’hypothèse nulle et les erreurs suivent une loi normale.
375
3.4. Normalité des erreurs
Dans notre exemple des dépenses en énergie, Eviews rend le résultat suivant :
8
Series: RESID
7 Sample 1 30
Observations 30
6
5 Mean 4.80e-15
Median -0.937768
4 Maximum 15.96824
Minimum -15.03176
3
Std. Dev. 6.724644
2 Skewness 0.218653
Kurtosis 3.421781
1
0 Jarque-Bera 0.461419
-15 -10 -5 0 5 10 15 Probability 0.793970
Comme la probabilité est supérieure à 0,05, on ne rejette pas H0. Les erreurs sont normales
Lorsque la P-value n’est pas très éloignée de 0,05, on utilise les autres tests de normalité
Il existe d’autres tests implémentés sur Eviews (Lilliefors, Cramer-von Mises, Warson, Anderson-
Darling)
Resid Statistiques descriptives&test Empirical distribution tests
376
3.4. Normalité des erreurs
Lorsque la P-value n’est pas très éloignée de 0,05, on utilise les autres tests de normalité
Il existe d’autres tests implémentés sur Eviews (Lilliefors, Cramer-von Mises, Warson, Anderson-Darling)
377
3.4. Normalité des erreurs
Deux solutions
- Augmenter la taille de l’échantillon
- Réaliser une transformation à la Box-Cox. Elle est donnée par
378
3.5. Les autres questions
Test de spécification fonctionnelle
Jusqu’à présent nous avons supposé que le modèle est linéaire. Ce qui n’est pas forcément le cas.
On peut tester formellement l’hypothèse que la forme est linéaire en utilisant le test RESET (Regression
Specification Error Test).
On teste H0 : Forme fonctionnelle correcte
H1: Erreur de spécification
Le test fonctionne de la manière suivante :
On construit une régression auxiliaire
380
3.5. Les autres questions
Test de rupture structurelle: test de Chow : exemple de la demane
Sur Eviews
-Estimer le modèle sous forme de liste de variables explicatives
View Stability test breakpoints
F-statistic 2.043434 Prob. F(2,17) 0.1602 F-statistic 24.28155 Prob. F(2,17) 0.0000
Log likelihood ratio 4.524180 Prob. Chi-Square(2) 0.1041 Log likelihood ratio 28.34579 Prob. Chi-Square(2) 0.0000
Wald Statistic 4.086868 Prob. Chi-Square(2) 0.1296 Wald Statistic 48.56310 Prob. Chi-Square(2) 0.0000
Pas de rupture en 1983 (Pv>>0,05) mais rupture en 1993 (Solution : on peut utiliser des dummy variables)
381
3.5. Les autres questions
Test de stabilité des coefficients : test CUSUM (cumulative sum) et CUSUMQ
On teste l’hypothèse nulle : les paramètres sont stables dans le temps
View Stability test recursive estimates
15
10
-5
-10
-15
1982 1984 1986 1988 1990 1992 1994 1996 1998 2000
CUSUM 5% Significance
Ici on accepte H0
382
3.5. Les autres questions
Omission de variables et variables redondantes
Variable omise. Reprenons notre exemple Y = f(x1, x2, x3)
LR test s um m ary:
Value
Restricted LogL -56.47274
Unres tricted LogL -56.06565
383
3.5. Les autres questions
Omission de variables et variables redondantes
Variable omise. Reprenons notre exemple Y = f(x1, x2, x3)
F-test summary:
Sum of Sq. df Mean Squares
Test SSR 9.511344 1 9.511344
Restricted SSR 159.7634 21 7.607781
Unrestricted SSR 150.2520 20 7.512602
LR test summary:
Value
Restricted LogL -56.80221
Unrestricted LogL -56.06565
384
3.5. Les autres questions
Le problème de la multicollinéarité
- On parle de multicollinéarité lorsque certaines variables explicatives sont liées entre elles de manière linéaire
- Le problème survient essentiellement dans le cas des séries temporelles et lorsque les variables présentent des
tendances fortes
- Lorsqu’il y a multicollinéarité le R2 est très élevé et les SE sont très élevés également. Il s’en suit des
intervalles de confiances assez larges et partant, une absence de précisions au niveau des tests
- Il existe deux types de multicolinéarité
1. Structurelle ou mathématique. Elle survient lorsqu’on crée une variable explicative à partir d’une autre. Par
exemple 𝑥 à partir de 𝑥 (Courbes Laffer, Kuznets, etc.)
2. Multicollinéarité (empirique) basée sur les données dues aux types d’observations
386
3.5. Les autres questions
Le problème de la multicollinéarité
Test de Klein : il consiste à examiner la matrice des corrélations simples
Dans notre exemple relatif au modèle de Solow, la matrice des corrélations simple est donnée par
X1 X2 X3
X1 1 0,96 0,298
X2 0,96 1 0,274
X3 0,298 0,274 1
La matrices des coefficients de corrélation au carré est donnée par
X1 X2 X3
X1 1 0,922 0,089
X2 0,922 1 0,0750
X3 0,089 0,075 1
On voit que certains coefficients de corrélations simples élevés au carré sont >>> à R 2 =0,506, il y a un risque de
multicollinéarité.
387
3.5. Les autres questions
Le problème de la multicollinéarité
Test de Farrar—Glauber : Il teste que le déterminant D de la matrice de corrélation est égal à 1.
Ainsi on teste
H0 : Les variables explicatives sont des variables aléatoires non-corrélées
H1 : Les variables explicatives sont des variables aléatoires corrélées.
Le test est basé sur le fait que sous H0 et avec une hypothèse de normalité, la statistique (sur 10
observations)
388
3.5. Les autres questions
Le problème de la multicollinéarité
Dans notre exemple, le déterminant de la matrice des coefficients de corrélation est donné par 0,0713
Ainsi
1
𝜒 = − 10 − 1 − 2 3 + 1 + 5 log( 0,0713) = 18,04
6
389
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
- Généralement on juge la présence de la multicollinéarité en examinant la variance inflation factors
(VIF) pour détecter la multicollinéarité
- Lorsqu’il y multicollinéarité il y a une surestimation de la variance des coefficients. Plus
particulièrement, chaque coefficient voit sa variance surestimée d’un facteur noté avec
Dans cette équation est le coefficient de détermination de la régression de 𝒋 sur les autres
variables explicatives
Interprétation
signifie qu’il n’y a pas de corrélation entre la variable explicative j et les autres. La variance
n’est pas surestimée.
A partir de 4 on commence à s’interroger
Si VIF est > à 10 il y a multicollinarité et il faut la corriger 390
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
Reprenons notre exemple Y X1 X2 X3
Dependent Variable: Y
Method: Least Squares
Date: 12/25/23 Time: 10:16
Sample: 1 24
Included observations: 24
391
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
Reprenons notre exemple Y X1 X2 X3
Il semble y avoir une forte corrélation entre X1 et X2
X1 X2 X3
X1 1 0.9605 0.29806
X2 0.9605 1 0.2746
X3 0.2980 0.2746 1
Dependent Variable: X1
Method: Least Squares
Date: 12/31/22 Time: 16:35
Sample: 1 24
Included observations: 24
1
𝑉𝐼𝐹 =
Variable Coefficient Std. Error t-Statistic Prob. 1 − 0,923885
= 𝟏𝟑, 𝟏𝟑𝟖
1. Suppression d’une des deux variables. Dans notre exemple on supprime X1 ou X2. Le choix
de la variable à supprimer dépend de la question étudiée. Sinon, on peut choisir la moins
significative. Dans notre exemple, c’est X1, on obtient un R2 de 49% au lieu de 50%.
Dependent Variable: Y
Method: Least Squares
Date: 01/01/23 Time: 14:32
Sample: 1 24
Included observations: 24
1. Suppression d’une des deux variables. Dans notre exemple on supprime X1 ou X2. Le choix
de la variable à supprimer dépend de la question étudiée. Sinon, on peut choisir la moins
significative. Dans notre exemple, c’est X1, on obtient un R2 de 49% au lieu de 50%.
C 46.38579 150.4048 NA
X2 5.893793 10.67002 1.081600
X3 11.60953 162.5106 1.081600
395
3.5. Les autres questions
Le problème de la multicollinéarité structurelle : Quelles solutions ?
Dans le cas de la multicollinéarité structurelle, on remplace la variable corrélée par elle-même,
mais centrée par rapport à sa moyenne
Dependent Variable: Y
Method: Least Squares
Date: 01/01/23 Time: 14:44
Variance Inflation Factors
Sample: 1 24
Included observations: 24
Date: 01/01/23 Time: 14:45
Sample: 1 24
Variable Coefficient Std. Error t-Statistic Prob. Included observations: 24
396
3.5. Les autres questions
Le problème de la multicollinéarité : Quelles solutions ?
Dans le cas de la multicollinéarité structurelle, on remplace la variable corrélée par elle-même
mais centrée par rapport à sa moyenne (dans notre exemple 13,717)
Dependent Variable: Y
Method: Least Squares
Date: 12/25/23 Time: 10:21
Sample: 1 24
Included observations: 24
Variance Inflation Factors
Variable Coefficient Std. Error t-Statistic Prob. Date: 12/25/23 Time: 10:22
Sample: 1 24
C 10.91052 0.824312 13.23591 0.0000
X1-13.717 0.323936 0.136621 2.371057 0.0274 Included observations: 24
(X1-13.717)^2 -0.028373 0.021479 -1.320996 0.2007
Coefficient Uncentered Centered
R-squared 0.436031 Mean dependent var 10.14167 Variable Variance VIF VIF
Adjusted R-squared 0.382320 S.D. dependent var 3.639269
S.E. of regression 2.860198 Akaike info criterion 5.056127 C 0.679490 1.993437 NA
Sum squared resid 171.7953 Schwarz criterion 5.203384
X1-13.717 0.018665 1.483626 1.483626
Log likelihood -57.67353 Hannan-Quinn criter. 5.095194
F-statistic 8.118040 Durbin-Watson stat 1.540715
(X1-13.717)^2 0.000461 2.477152 1.483626
Prob(F-statistic) 0.002444
La multicollinéarité à disparue
397
3.6. La question de l’exogénéité des variables explicatives
- Les MCO fournissent des estimateurs BLUE lorsque les régresseurs (les variables explicatives)
sont exogènes et non stochastiques
- Cela signifie que si on prélève un autre échantillon les caractéristiques des variables explicatives
seraient les mêmes que dans l’échantillon initial
- Souvent, cette hypothèse n’est pas réaliste. Il est nécessaire d’examiner les conséquences du
relâchement de cette hypothèse.
398
3.6. La question de l’exogénéité des variables explicatives
- Dans un MES il existe deux types de variables : les variables endogènes (conjointement
déterminées, ici y et x) et des variables exogènes (si séries temporelles on les appelle
prédéterminées, ici z).
- L’exemple typique est celui du modèle offre-demande. Sur un marché donné, les prix et les
quantités échangées sont déterminées de manière simultanée (conjointement).
- Dans un modèle avec séries temporelles si est endogène est une variable
prédéterminée, et donc exogène.
400
3.6. La question de l’exogénéité des variables explicatives
Exemple. Considérons le modèle d’offre et de demande des produits agricoles suivant :
- Dans ce système (ES), sont les quantités échangées, le prix d’équilibre, le revenu et les
précipitations.
- Ici et sont les variables endogènes et et sont les exogènes (modèle d’équilibre partiel).
- On ne peut pas estimer les équations du MES par MCO mais on peut régresser par MC et sur
le et .
- Parfois, il est possible de retrouver à partir de cette régression les estimations des paramètres du
système 1.
Cette méthode est appelée méthode des Moindres Carrés Indirects (MCI).
401
3.6. La question de l’exogénéité des variables explicatives
Exemple.
Si nous résolvons le système (1) pour exprimer et en fonction des exogènes, nous obtenons
Les équations du système 2 sont appelées les équations de la forme réduite (FR). Les équations
du système 1 sont appelées les équations de la forme structurelle FS (elles décrivent la structure
de l’économie).
402
3.5. La question de l’exogénéité des variables explicatives
Exemple.
Avec
= = =
= = =
403
3.5. La question de l’exogénéité des variables explicatives
Exemple.
Avec
= = =
= = =
̂ ̂
= = =
= =
̂
=
̂
- Comme pour chaque paramètre nous avons pu trouver une et une seule estimation, les fonctions
de demande et d’offre sont dites justes identifiées (exactement identifiées).
- Comme nous l’avons déjà dit cette méthode est appelée méthode des moindres carrés indirects
(MMCI).
405
3.5. La question de l’exogénéité des variables explicatives
Exemple.
Malheureusement, il n’est pas toujours possible d’obtenir les estimations des paramètres
structurels à partir des estimations des paramètres de la forme réduite.
406
3.5. La question de l’exogénéité des variables explicatives
Exemple.
La forme réduite est donnée par
Ou encore
- Malheureusement, il n’est pas possible d’obtenir les estimations des autres paramètres.
- On arrive à estimer tous les paramètres de la fonction d’offre. Elle est identifiée
- Mais pas ceux de la fonction de demande. Elle est non identifiée
407
3.5. La question de l’exogénéité des variables explicatives
Exemple. Supposons maintenant que notre modèle offre-demande s’écrit comme suit
Ou encore
408
3.5. La question de l’exogénéité des variables explicatives
Exemple.
1. Le modèle est sous-identifié si une équation du modèle est sous-identifiable (il y a moins
d’équations que de paramètres à identifier dans la forme structurelle, le système est donc impossible
à résoudre) ;
2. Le modèle est juste identifié si toutes les équations sont justes identifiables ;
3. Le modèle est sur-identifié si les équations du modèle sont soit justes identifiables, soit sur-
identifiables.
Si le modèle est sous-identifié, il n’existe aucune possibilité d’estimation des paramètres du modèle,
celui-ci doit être respécifié.
411
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
Nous allons présenter cette condition à partir d’un exemple.
Considérons le modèle macroéconomique suivant comportant 7 équations avec 7 variables
endogènes et 3 variables exogènes
412
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
C Consommation réelle Endogène
I Investissement réel Endogène
N Emploi Endogène
P Indice des prix Endogène
R Taux d’intérêt Endogène
Y Revenu réel Endogène
W Taux de salaire Endogène
G Dépenses publiques réelles Exogène
T Recettes publiques réelles Exogène
M Offre de monnaie nominale Exogène
Fonction de consommation
Fonction d’investissement
Identité comptable (équilibre B&S)
Offre et demande de monnaie
Fonction de production
Demande de travail
Offre de travail
413
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
Pour savoir quel est le statut de chaque équation en termes d’identification, nous construisons le
tableau ci-dessous dans lequel le 1 signifie que la variable est présente dans l’équation et 0 qu’elle
est absente
Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
6 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0
414
3.5. La question de l’exogénéité et suffisante (condition de rang).
Examinons la condition de rang pour l’équation 1.
Eliminons la 1ère ligne et les colonnes où apparaissent les variables présentes dans éq. 1
Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
- 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0
Nous obtenons 1 0 0 0 0 0
1 0 0 0 1 0
0 0 1 0 0 1
0 1 0 0 0 0
0 1 1 1 0 0
0 1 1 1 0 0
Comme nous avons 6 lignes et 6 colonnes dont les éléments ne sont pas tous nuls l’équation 1
est identifiée
415
3.5. La question de l’exogénéité et suffisante (condition de rang).
Examinons la condition de rang pour l’équation 2.
Eliminons la 1ère ligne et les colonnes où apparaissent les variables présentes dans éq. 1
Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
- 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0
Nous obtenons 1 0 0 0 0 1 0
0 0 0 0 0 0 0
1 0 0 0 1 0 0
0 0 1 0 0 0 1
0 1 0 0 0 0 0
0 1 1 1 0 0 0
0 1 1 1 0 0 0
Comme nous avons 7 colonnes et 7 lignes mais une ligne dont les éléments tous nuls
l’équation 2 n’est pas identifiée
416
3.5. La question de l’exogénéité des variables explicatives
Dans ce qui suit nous nous limiterons à la méthode des variables instrumentales, des moments et à la
méthode des doubles moindres carrés
417
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et des moments
Considérons le modèle suivant :
Soit
mais
419
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des moments
420
3.5. La question de l’exogénéité des variables explicatives
Exemple de la demande des biens alimentaires
421
3.5. La question de l’exogénéité des variables explicatives
Exemple de la demande des biens alimentaires
422
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales En pratique, et de
manière générale, on procède comme suit :
Etape 1. On régresse la variable explicative endogène sur les autres variables explicatives et les
instruments. On calcule (valeurs prédites de la variable endogène) qui est exogène.
Etape 2. On régresse la variable endogène expliquée sur les variables explicatives et sur la
variable .
- Les paramètres estimés à la fin de cette seconde étape sont les estimateurs par la méthode des
variables instrumentales.
- Cette estimation en deux étapes correspond aussi à la méthode des Doubles Moindres Carrés,
DMC (ou 2SLS).
423
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
On souhaite régresser dde sur rd et prix
Variable Coefficient Std. Error t-Statistic Prob. - Mais le prix peut être considéré comme
endogène.
C 36.91330 7.754589 4.760188 0.0002
RD 15.28665 2.339936 6.532936 0.0000 - Les estimateurs par MCO sont biaisés et
PRIX -22.56720 4.002149 -5.638771 0.0000
non efficaces (ES élevées)
R-squared 0.926063 Mean dependent var 3.677773 - Il faut utiliser les estimateurs des VI ou
Adjusted R-squared 0.917848 S.D. dependent var 0.367112
S.E. of regression 0.105222 Akaike info criterion -1.533917
les DMC
Sum squared resid 0.199292 Schwarz criterion -1.384699 - Il faut trouver un instrument pour le
Log likelihood 19.10613 Hannan-Quinn criter. -1.501533
F-statistic 112.7252 Durbin-Watson stat 1.365818
prix (prix à la période précédente)
Prob(F-statistic) 0.000000
424
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
On souhaite régresser dde sur rd et prix (mais prix endogène on va utiliser prix(t-1) comme
instruement
Etape 1. on régresse le prix sur le revenu disponible (rd) et sur prix(t-1) et on génère la série
prixfitted (prixf)
425
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
426
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
Méthode GMM
Dependent Variable: DDE
Method: Generalized Method of Moments
Date: 01/10/24 Time: 09:02
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments
Linear estimation with 1 weight update
Estimation weighting matrix: HAC (Bartlett kernel, Newey-West fixed
bandwidth = 3.0000)
Standard errors & covariance computed using estimation weighting matrix
Instrument specification: RD PRIX(-1)
Constant added to instrument list
427
3.5. La question de l’exogénéité des variables explicatives
Exercice : Bourbounais
Considérons le modèle à équations simultanées ci-dessous
1. Identification
Equation Identification Conclusion Méthode d’estimation
1 g et L’équation est sur- DMC
mais comme 1 restriction identifiée
429
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Considérons le modèle à équations simultanées ci-dessous
R-squared 0.812854 Mean dependent var 0.000000 R-squared 0.504569 Mean dependent var 0.000000
Adjusted R-squared 0.812854 S.D. dependent var 18.70160 Adjusted R-squared 0.433793 S.D. dependent var 13.87444
S.E. of regression 8.090375 Akaike info criterion 7.123666 S.E. of regression 10.44006 Akaike info criterion 7.722307
Sum squared resid 762.9637 Schwarz criterion 7.766135
Sum squared resid 523.6333 Schwarz criterion 7.145580
Log likelihood -32.75038 Hannan-Quinn criter. 7.627727
Log likelihood -31.05650 Hannan-Quinn criter. 7.076376
Durbin-Watson stat 3.010021
Durbin-Watson stat 1.751585
430
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Estimation par MCI : Sous forme réduite les équations 1 et 2 s’écrivent
Posons
431
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Equation 1 Equation 2
Dependent Variable: Y1 Dependent Variable: Y2
Method: Least Squares Method: Least Squares
Date: 12/22/23 Time: 13:03 Date: 12/22/23 Time: 13:03
Sample: 1 9 Sample: 1 9
Included observations: 9 Included observations: 9
Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.
R-squared 0.784723 Mean dependent var 0.000000 R-squared 0.366987 Mean dependent var 0.000000
Adjusted R-squared 0.753970 S.D. dependent var 18.70160 Adjusted R-squared 0.276556 S.D. dependent var 13.87444
S.E. of regression 9.276268 Akaike info criterion 7.485926 S.E. of regression 11.80097 Akaike info criterion 7.967371
Sum squared resid 602.3440 Schwarz criterion 7.529753 Sum squared resid 974.8403 Schwarz criterion 8.011198
Log likelihood -31.68667 Hannan-Quinn criter. 7.391346 Log likelihood -33.85317 Hannan-Quinn criter. 7.872791
Durbin-Watson stat 1.557471 Durbin-Watson stat 3.010084
432
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
433
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
434
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
435
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
436
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
0u encore
437
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
0u encore
438
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle
0u encore
439
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Ce dernier est le modèle sous forme réduite avec la matrice des paramètres
estimés. Ainsi,
440
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle par DMC rend
Equation 1 Equation 2
Dependent Variable: Y1 Dependent Variable: Y2
Method: Two-Stage Least Squares Method: Two-Stage Least Squares
Date: 12/23/23 Time: 11:19 Date: 12/23/23 Time: 11:21
Sample: 1 9 Sample: 1 9
Included observations: 9 Included observations: 9
Instrument specification: X1 Y1D Instrument specification: X1 Y1D
Constant added to instrument list Constant added to instrument list
Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.
441
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
442
3.5. La question de l’exogénéité des variables explicatives
Test d’endogénéité (Sargan)
Les DMC (2SLS : two-stage least square) sont moins efficaces que les OLS quand les variables
explicatives sont toutes exogènes. Donc si les variables explicatives sont toutes exogènes, il faut
utiliser les MCO. On dispose d’un test d’endogénéité qui permet de savoir si les 2SLS sont
nécessaires. L’idée du test est que la différence entre les estimateurs des MCO et des DMC doit
être faible si la variable explicative est exogène. Si cette différence est “grande" on conclut que la
variable explicative suspectée est endogène.
Etape 1. On régresse par MCO la variable explicative endogène sur les autres variables exogènes
et les instruments (régression auxiliaire).
Etape 2. On régresse le modèle initial en ajoutant les résidus de la régression auxiliaire comme
variable explicative. Si le coefficient du résidu est significativement nul alors il n’y a pas de
variable explicative endogène.
443
3.5. La question de l’exogénéité des variables explicatives
Dans notre exemple de la demande
444
La question des proxy
- Il arrive souvent qu’il soit impossible d’avoir des données relatives à une variable que l’on souhaite
inclure comme variable explicative.
- En effet, certaines variables socioéconomiques sont difficiles à mesurer comme les statuts
socioéconomiques des individus, la qualité de l’éducation, etc.
- Parfois on utilise des données d’enquêtes mais une variable importante n’a pas été prise en compte.
Dans ce cas deux options s’offrent à nous
- Ne pas prendre en considération la variable en question. Au quel cas les estimateurs des variables pris
en considération sont biaisés (omission de variables)
- La remplacer par une variable qui lui est corrélée (proxy)
Ainsi par exemple, on peut utiliser le revenu d’une personne comme une proxy de son statut
socioéconomique, les dépenses d’éducation par élève comme proxy de la qualité de l’éducation, etc.
445
La question des proxy
𝜶 𝜷
446
La question des proxy
Nous souhaitons estimer les paramètres de la fonction de production en utilisant les données américaines.
En Log-linéarisant nous obtenons,
Comme le progrès technique n’est pas observable, nous ne disposons pas de données relatives à et donc
ne nous la prendrons pas en compte.
En utilisant les données américaines entre 1949-1978 (voir Kendrick et Grossman, 1980). Nous obtenons le
résultat suivant
447
La question des proxy
L’examen du résultat montre que le capital capte l’effet du progrès technique. Son coefficient est trop élevé
(l’estimateur est baisé).
- D’abord sa valeur est supérieure à 1. Une hausse du capital (pour travail constant) augmente le revenu
de manière plus que proportionnelle. Mais normalement il y’a productivité marginale décroissante du
capital
- La part du revenu du capital dans le revenu national est supérieure à 1 ce qui n’est pas possible.
448
La question des proxy
Exemple 1 (estimation d’une fonction de production Cobb-Douglas)
- Il est préférable de refaire la régression mais en choisissant une proxy pour le progrès technique.
- Un choix possible, et souvent utilisé, est le temps. Ainsi, la variable est introduite
- Elle prend les valeurs 1 en 1949, 2 en 1950 et ainsi de suite.
Ainsi, lorsque la variable temps est introduite (elle est corrélée au progrès technique), la variable capital
cesse d’être une proxy et elle n’est plus biaisée.
Sa valeur est maintenant plus raisonnable (< 1).
449
La question des proxy
Nous souhaitons estimer l’élasticité prix de la demande de biens alimentaires. Pour ce faire nous régressons
la demande de biens alimentaire, sur le revenu disponible des ménages et l’indice des prix des biens
alimentaires.
𝟎 𝟏 𝟐
450
La question des proxy
Exemple 2 (estimation élasticité prix)
Lorsque nous utilisons les données réelles de l’indice des prix et du revenu disponible nous obtenons le
résultat suivant :
451
La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.
452
La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.
Nous obtenons
(0,000) (0,000)
453
La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).
454
La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).
Nous obtenons
(0,000) (0,000)
455
Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait
456
Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait
457
Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
458
Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
459
Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
460
Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.
461
Régression sur variables qualitatives
Il peut arriver que les variables explicatives soient qualitatives et non mesurables.
- Si on régresse le salaire sur le nombre d’années d’études et que dans notre échantillon il y a des
hommes et des femmes on pourrait être tenté de savoir si le sexe influence cette relation
- Lorsqu’on examine les effets de l’investissement direct étranger sur le PIB et que dans l’échantillon nous
avons des pays développés et des pays en développement et qu’on souhaite connaitre l’impact des FDI
sur la croissance selon le niveau de développement
462
Régression sur variables qualitatives
Un moyen simple de traiter ce problème est de réaliser deux régressions en scindant l’échantillon en deux
sous-ensembles et de comparer les coefficients obtenus
- Dans le premier cas une régression avec un échantillon composé d’hommes et un échantillon composé
de femmes
- Dans le second cas une régression avec un échantillon composé de pays développé et une régression
avec un échantillon composé de pays en développement
L’autre moyen et de réaliser une régression avec un seul échantillon et d’évaluer l’effet des variables
qualitatives par le concept de variables muettes.
La deuxième méthode est meilleure dans la mesure où on travaille avec l’échantillon dans sa globalité
(échantillon de plus grande taille).
463
Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
nouveaux nés. L’étude à porté sur plus de 900 naissances. Ici, nous avons retenu 20 observations
Nous allons commencer par la relation suivante :
Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par
jour par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu le
résultat suivant : Voir sortie Eviews
464
Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
bébés. L’étude à porté sur plus de 900 naissances. Ici 20 observations
Nous allons commencer par la relation suivante :
Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par
jour par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu la
régression suivante :
avec
Ainsi, un bébé né d’une femme non fumeuse pèse 3,472 kg et que chaque cigarette fumée fait perdre au
bébé 9,6 grammes.
465
Régression sur variables qualitatives
On souhaite maintenant savoir l’effet, sur le poids des bébé, d’être le premier né ou avoir déjà des frères et
sœurs. La variable est qualitative
On peut modéliser cette situation comme suit
premier né
fratrie
- Notons que les deux équations présentent la même pente et des intercepts différents.
- Cela revient à supposer que le fait que l’enfant soit le premier né ou non affecte le poids de base et non
l’effet des cigarettes fumées par la maman
Un autre moyen de modéliser le problème est de l’écrire comme suit
L’idée est de scinder le poids basique des nouveaux nés ayant déjà des frères et sœurs en deux parties :
le poids basique des enfants premiers nouveaux nés et un supplément de poids (qui peut être négatif)
466
Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit
Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un
premier né et 1 lorsqu’il fait partie d’une fratrie.
467
Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit
Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un
premier né et 1 losqu’il fait partie d’une fratrie.
Les résultats de la régression est donné par
Ainsi la variation du poids du fait de ne pas être le premier né est de 103,4 grammes.
Ainsi l’équation précédente pourrait s’écrire.
premiers nés
fratrie
468
L’exemple des séries temporelles
Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.
469
L’exemple des séries temporelles
Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.
On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982
470
L’exemple des séries temporelles
L’utilisation des données rend le résultat suivant :
Avec un
Ainsi, l’intercept entre 1963 et 1973 est égal à 0,14 et
Le test de Student montre que le changement est significatif au seuil 10%
471
Le cas des variations saisonnières
Lorsque les données sont disponibles les chercheurs préfèrent travailler avec des données trimestrielles
plutôt qu’avec des données annuelles. Cela leur procure 4 fois plus d’observations. Cependant il peut arriver
que la saison (le trimestre) ait un effet important. Il es alors nécessaire de prendre en compte l’effet de la
saison.
472
Le cas des variations saisonnières
473
Le cas des variations saisonnières
Nous allons considérer le premier trimestre comme notre référence et introduire des variables muettes
pour estimer les différences entre les estimations relatives à ce premier trimestres et aux autres.
Notre modèle s’écrit comme suit
474
Le cas des variations saisonnières
Année DEP t D2 D3 D4
1977T1 7,33 1 0 0 0
1977T2 4,7 2 1 0 0
1977T3 5,1 3 0 1 0
1977T4 5,46 4 0 0 1
1978T1 7,65 5 0 0 0
1978T2 4,92 6 1 0 0
1978T3 5,15 7 0 1 0
1978T4 5,55 8 0 0 1
1979T1 7,96 9 0 0 0
1979T2 5,01 10 1 0 0
1979T3 5,05 11 0 1 0
1979T4 5,59 12 0 0 1
1980T1 7,74 13 0 0 0
1980T2 5,1 14 1 0 0
1980T3 5,67 15 0 1 0
1980T4 5,92 16 0 0 1
1981T1 8,04 17 0 0 0
1981T2 5,27 18 1 0 0
1981T3 5,51 19 0 1 0
1981T4 6,04 20 0 0 1
1982T1 8,26 21 0 0 0
1982T2 5,51 22 1 0 0
1982T3 5,41 23 0 1 0
1982T4 5,83 24 0 0 1
475
Le cas des variations saisonnières
476
Le cas des variations saisonnières
On voit que la consommation est la plus importante pour le premier et le quatrième trimestre
477
Exercice 1.
Exercice 12. Soit le modèle économétrique suivant :
Nous disposons d’un échantillon de couples pour estimer par moindres carrés
ordinaires les coefficients et .
1. Rappelez les formules des deux estimateurs présentés au chapitre relatif à la régression
simple
2. Montrez que l’utilisation de la formule présentée dans le chapitre relatif à la régression
multiple donne le même résultat que dans 1.
478
Réponse 1.
1. Soit le modèle économétrique suivant :
Dans le chapitre 1 nous avons montré que la méthode des MCO rend les estimateurs suivants :
479
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
480
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
481
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
et
482
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par
483
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par
Nous avons
484
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par
Nous avons
485
Réponse 1.
2. Par ailleurs
486
Réponse 1.
2. Par ailleurs
Enfin,
487
Réponse 1.
2. Par ailleurs
Enfin,
488
Réponse 1.
2. Il vient
489
Réponse 1.
2. Il vient
490
Réponse 1.
2. Il vient
491
Réponse 1.
2. De même
492
Réponse 1.
2. De même
493
Réponse 1.
2. De même
494
Réponse 1.
495
Réponse 1.
496
Réponse 1.
497
Réponse 1.
498
Exercice 2.
Considérons le modèle économétrique suivant
499
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :
500
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :
501
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :
et
502
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :
et
503
Réponse 2.
2. Les valeurs manquantes peuvent être obtenues grâce à la propriété de symétrie de la matrice
504
Réponse 2.
2. Les valeurs manquantes peuvent être obtenues grâce à la propriété de symétrie de la matrice
3. La taille de l’échantillon est de 20. En utilisant les valeurs de la matrice il est possible de
calculer les moyennes empiriques de et de
505
Réponse 2.
4. Le coefficient de corrélation linéaire entre et est donné par
506
Réponse 2.
5. La régression donne . Soit
Puisque le modèle présente une constante alors la moyenne des résidus est nulle ( ),
Par ailleurs
507
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que
508
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que
509
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que
510
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que
511
Réponse 2.
6.
512
Réponse 2.
6.
Il vient que
513
Réponse 2.
6.
Il vient que
Ainsi,
514