0% ont trouvé ce document utile (0 vote)
168 vues514 pages

Techniques Économétriques 2023-2024

Transféré par

aitelasrichaimaa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
168 vues514 pages

Techniques Économétriques 2023-2024

Transféré par

aitelasrichaimaa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE MOHAMMED V - RABAT

Faculté des Sciences Juridiques, Economiques et Sociales de Salé

Notes de cours
Techniques économétriques

Année universitaire 2023 - 2024

Mohamed Bouzahzah

1
La séance d’aujourd’hui

0. Prise de contact

1. Plan du cours

2. Bibliographie

3. Déroulement du cours

4. Evaluation

5. Introduction générale

2
Sommaire 0. Introduction générale
0.1. Définitions
0.2. Modèle économique vs modèle économétrique
0.3. Objectifs de l’économétrie
0.5. Données et logiciels

1. Le modèle linéaire simple (MLS)


1.1. Les méthodes d’estimation MM, MMV, MMC
1.2. Inférence statistique dans le MLS
1.3. Application 1. Estimation du Nairu
1.4. Application 2. Epargne, investissement et mobilité du capital. Feldstein et
Horioka (1980)

2. Le modèle linéaire multiple (MLM)


2.1. Estimation par les MCO
2.2. Inférence statistiques dans le MLM
2.3. Spécifications dans le MLM
2.4. Application. Validité du modèle de Solow (MRW, 1992)

3. Variations autour du MLM


3.1. Le problème de l’hétéroscédasticité
3.2. Le problème de l’autocorrélation
3.3. Application : Validité du MEDAF. Application à la BVC

3
Bibliographie

Ces diaporamas ont été réalisé à l’aide de deux ouvrages, en particulier

o Christopher Dougherty. Introduction to Econometrics. Oxford University Press


o Gangadharrao Soundalyarao Maddala. Introduction to Econometrics. Macmillan Publishing
Company

Pour des ouvrages en langue française, on peut consulter en particulier

o Régis Bourbounnais. Econométrie. Dunod


o Cadoret I., Benjamen Ch. Martin F. Herrard N. et Tanguy S. Econométrie appliquée. De Boeck

4
Déroulement des cours

- Le cours est présenté sous forme de slides assez détaillés présentant les principaux concepts,
théories, modèles et applications
- Des séances de travaux dirigés sont organisées dans le cadre de ce cours
- Production de travaux en liaison avec le cours

5
Modalités d’évaluation

La note finale :

• Travaux rendus

• Examen final sur table

6
Introduction

- Etymologiquement, le terme économétrie signifie « mesure de l’économie ». Cette définition est trop
large pour être utilisée. En économie, on mesure les agrégats (PIB, consommation nationale,
investissement,…) en utilisant la comptabilité nationale.

- L’économétrie est un ensemble de méthodes statistiques et mathématiques qui permettent d’analyser les
données afin de valider ou d’infirmer des théories (objectif initial, il a d’autres objectifs)

- C’est l’application des techniques de l’inférence statistique à la théorie économique

- Il s’agit d’une discipline récente mais qui ne cesse de prendre de l’importance en sciences économiques.

- Même s’il existait quelques travaux antérieurs, l’économétrie a démarré réellement avec la constitution de
l’Econometric Society en 1930.

- En 1933 est publié le premier numéro de la revue Economtrica (la revue scientifique de référence en
économétrie).

- Depuis, plusieurs modèles économétriques ont été construits.

- Aujourd’hui plusieurs prix Nobel d’économétrie Ragnar Frisch et Jan Tinbergen en 1969, Engel et
Granger (cointegration causalité, ARCH), Heckman et Mc Fadden (2000) Sims en 2011.

7
Introduction

Les objectifs de l’économétrie :

L’économétrie est une application de la statistique inférentielle à l’économie

En économie, il n’existe pas d’expérimentation, or plusieurs théories concurrentes co-existent.


L’économétrie est un moyen pour faire le tri entre les différentes théories

Elle permet de confirmer ou d’infirmer les théories économiques

Exemple : La théorie keynésienne de la consommation

Un exemple simple de modèle économique est la théorie keynésienne de la consommation. On peut


résumer cette théorie par trois hypothèses :

(i) Seul le revenu disponible détermine la consommation nationale


(ii) Loi psychologique fondamentale (la propension marginale à consommer est comprise entre 0 et 1
(iii) Décroissance de la propension moyenne à consommer (l’existence d’une consommation
incompressible).

8
Introduction

Pour vérifier la validité empirique ce cette théorie, il faut réécrire ces hypothèses à vérifier sous forme
mathématique. Une relation simple qui rempli les trois hypothèses est la relation linéaire suivante :

𝐶 = 𝐶 + 𝑐𝑌

avec 0<𝑐<1

Pour vérifier la validité empirique il faut tester les hypothèses

H1 : 𝐶 ≠ 0 H2 : 𝐶 ≠0

On peut aussi être tenté d’évaluer la valeur de selon qu’elle est proche de 1 (vision keynésienne) ou faible
proche de 0 (vision néoclassique) ce qui permet d’estimer la valeur du multiplicateur et donner des
indications sur l’efficacité des politiques budgétaires (voir J.O. Blanchacrd et FMI, multiplicateurs crise
2008).

9
Introduction

En réalité, l’économétrie peut remplir 4 objectifs

(i) confirmer ou infirmer une théorie (voir exemple ci-dessous concernant la validité du MEDAF).
Trancher entre des théories concurrentes (voir exemple ci-dessous entre théorie keynésienne et
néoclassique de la consommation).

(ii) L’économétrie peut être considérée comme un outil d’investigation statistique. L’économétrie peut être
utilisée pour découvrir des relations entre variables économiques. Lorsque de telles relations sont assez
stables, un contenu théorique peut être donné. C’est ce qui s’est passé avec la courbe de Phillips.

(iii) L’économétrie peut être utilisée pour évaluer quantitativement les effets de politiques économiques (les
modèles macroéconométriques)

(iv) Les modèles économétriques peuvent être utilisés pour réaliser des prévisions (les modèles
autoregessifs ARIMA, VAR, etc.)
10
Introduction

L’économétrie fonctionne avec des modèles économétriques. Ces derniers sont la contrepartie numérique
(empirique) des modèles économiques.

 Un modèle économique est une représentation simplifiée de la réalité. Comme dans l’exemple de la
fonction de consommation keynésienne qui explique la consommation nationale par le revenu
disponible.

 Bien entendu la réalité est plus complexe. D’autres variables participent à expliquer la consommation
nationale. Le modèle économique est une approximation de la réalité. Keynes lui-même, reconnaissait
que le taux d’intérêt peut expliquer la consommation mais de manière très marginale.

Un modèle économétrique utilise le modèle économique avec les conditions suivantes :

 Retenir le modèle économique sous forme mathématique avec des variables observables et mesurables

 Remplacer la complexité de la réalité que ne retiennent pas les modèles théoriques par un aléa
(composante stochastique)

 Avoir une idée (sa distribution) sur l’aléa (l’erreur)

11
Introduction

Il existe principalement trois types de données

 Les données ou coupe transversales (observations d’individus à une même période de temps).
 Les données chronologiques ou séries temporelles (time series) qui consistent à observer un individu
dans le temps
 Les données de panel qui consistent à observer plusieurs individus pendant une période de temps

Ces données donnent lieu à des diverses méthodes économétriques.

Nous l’avons déjà souligné, l’économétrie utilise des outils statistiques et des données. Les calculs se font
généralement en faisant appel à des logiciels (SPSS, Stata, Eviews, SAS, RATS, GAUSS, MATLAB,
Python, etc.) Il existe des logiciels en open source ; le plus célèbre est le logiciel R.

12
Chapitre 1. Le modèle linéaire simple

13
Chapitre 1. Le modèle linéaire simple

Introduction

- La régression simple constitue la base de l’estimation économétrique.

- Elle débute par un ensemble de propositions théoriques sur une question économique. En effet, la
théorie économique spécifie des relations théoriques entre des variables. La loi de la demande met en
relation les quantités et les prix relatifs d’un bien donné, la relation de Phillips met en relation le taux
d’inflation et le taux de chômage, la fonction de consommation keynésienne la consommation nationale et
le revenu disponible, etc.

- Certes, le coefficient de corrélation permet de détecter l’existence d’une relation statistique entre deux
variables mais ne donne aucune idée sur la nature de la relation (sens de la causalité, non linéarité, etc.). Un
coefficient de corrélation nulle (r = 0) ne signifie pas absence de relation entre les deux variables mais
absence de relation linéaire.

- L’estimation économétrique (le modèle linéaire simple) permet de décrire et d’évaluer quantitativement la
relation entre une variable donnée, dite expliquée (ou dépendante ou endogène) et une variable dite
explicative (ou indépendante ou exogène).

- La variable expliquée est généralement notée y et la variable explicative notée x.

14
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

La relation entre la variable expliquée y et la variable explicative x prend la forme mathématique suivante :

𝑦 = 𝑓(𝑥) avec 𝑓(. ) une application

Il existe deux types de relations :

- Déterministe ou mathématique qui fait correspondre à chaque valeur de x une seule valeur de y . Ces
relations se rencontrent dans les sciences physiques mais pas dans les sciences humaines et sociales.

- Statistique ou stochastique qui fait correspondre à chaque valeur de x un ensemble de valeurs de y .


Ce type de relations existe dans les sciences physiques mais aussi dans les sciences humaines et sociales

En économétrie on s’intéresse bien entendu à ce deuxième type de relations.

15
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

Considérons la relation ci-dessous entre la consommation 𝑦 et le revenu disponible 𝑥

𝑦 = 1000 + 0,8𝑥

Cette relation est déterministe ; le niveau de la consommation peut être déterminé de manière exacte pour
chaque niveau de revenu disponible.

Mais la consommation peut varier sous l’effet d’autres causes (prix, moral des consommateurs, taux
d’intérêt, etc.). Dans ce cas, la relation s’écrira

𝑦 = 1000 + 0,8𝑥 + 𝜀

Supposons que dans cette relation nous avons

100 𝑎𝑣𝑒𝑐 𝑝 = 0,5


𝜀=
−100 𝑎𝑣𝑒𝑐 𝑝 = 0,5

16
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

𝑦 = 1000 + 0,8𝑥 + 𝜀

100 𝑎𝑣𝑒𝑐 𝑝 = 0,5


𝜀=
−100 𝑎𝑣𝑒𝑐 𝑝 = 0,5

Ainsi, les valeurs de y seront données par

𝑥 𝑦
0 900 1100
100 980 1180
200 1060 1260
200 1140 1340
… … …

Si 𝑦 est continu, 𝜀 peut prendre n’importe qu’elle valeur (infinité).

Si 𝜀 suit une loi normale par exemple, on obtient la relation suivante entre 𝑦 et 𝑥

17
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

18
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

Exemple de la consommation keynésienne de nouveau. Considérons la relation entre la


consommation et le revenu disponible et considérons les propositions théoriques keynésiennes.

Notons y la consommation nationale et x le revenu disponible.


La relation entre la consommation et le revenu disponible est appelé propension marginale à consommer.

Pour Keynes, la relation entre ces deux variables est gouvernée par une loi psychologique. Il écrivait dans la
théorie générale «En moyenne et la plupart du temps, les hommes tendent à accroître leur niveau de consommation à
mesure que le revenu s’accroit mais non d’une quantité aussi grande que l’accroissement du revenu».

En plus, pour Keynes, la propension moyenne à consommer est décroissante par rapport au revenu
disponible ce qui signifie l’existence d’un minimum vital (une consommation incompressible).

Ainsi, pour Keynes, la fonction de consommation doit satisfaire les conditions suivantes :

𝜕𝑦 et 𝑥
0< <1 𝜕 𝑦
𝜕𝑥 <0
𝜕𝑦

19
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

Si on note la propension marginale à consommer 𝛽 et la consommation incompressible 𝛽

𝑦 =𝛽 +𝛽 𝑥

Avec 𝛽 > 0 et 0<𝛽 <1

De plus pour les keynésiens la valeur de 𝛽 est élevée et proche de 1 ce qui signifie un multiplicateur élevé
et donc une efficacité de la politique budgétaire.

Pour les néoclassiques, il n’existe pas de minimum vital 𝛽 = 0 et bien que positive 𝛽 est faible et
proche de 0.

Ce cadre offre une base pour une étude empirique qui permettrait de trancher entre la vision keynésienne
et classique.

Si on dispose des données relatives à la consommation nationale et au revenu disponible on peut estimer
les valeurs de 𝛽 et 𝛽 .

20
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations
La figure ci-dessous met en relation la consommation et le revenu disponible au Maroc.

400
350
300
250
200
150
100
100 200 300 400 500

L’examen de la figure permet de voir que les données sont cohérentes avec la théorie keynésienne mais
qu’une relation déterministe ne semble pas appropriée pour décrire la relation.

On doit incorporer une composante aléatoire ou stochastique. L’approche la plus utilisée est l’approche
additive. Ainsi on obtient
𝑦 =𝛽 +𝛽 𝑥+𝜀
21
Chapitre 1. Le modèle linéaire simple
1. Spécification
Spécification des
desrelations
relations

La présence de la composante stochastique 𝜀 est due à plusieurs causes

- Omission d’autres variables explicatives. Dans la réalité, beaucoup d’autres variables peuvent
influencer la consommation. Elles ne sont pas introduites soit parce qu’elles ne sont pas connues, soit
qu’elles ne peuvent pas être mesurées. Certaines sont connues et sont mesurables mais leurs effets est
supposé marginal

- Agrégation de variables. La consommation nationale et le revenu disponible sont les agrégations des
consommations individuelles et des revenus disponibles individuels. Toute agrégation est en réalité une
approximation

- Mauvaise spécification du modèle. Le modèle peut être mal spécifié dans sa structure. La
consommation peut dépendre du revenu disponible mais peut dépendre aussi du revenu futur

- Mauvaise spécification des formes fonctionnelles. La relation peut ne pas être linéaire entre la
variable expliquée et la variable explicative.

- Erreurs de mesure.

22
Chapitre 1. Le modèle linéaire simple
1. Spécification des relations

Le travail économétrique consiste à utiliser un échantillon pour estimer les paramètres 𝛽 et 𝛽

De manière plus précise, on suppose que chaque observation dans notre échantillon
(𝑦 , 𝑥 ) 𝑖 = 1,2, . . . , 𝑛 est générée par le processus suivant :

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

- Notre objectif est d’utiliser une méthode d’estimation afin de construire des estimateurs des paramètres𝛽
et 𝛽 .

- Ensuite, utiliser les données disponibles pour avoir des estimations des paramètres et examiner la validité
des propositions théoriques.

- On peut également utiliser le modèle pour réaliser les cas échéant des prévisions relatives à la
consommation.

La manière avec laquelle nous allons procéder va dépendre de la nature du processus stochastique qui sous-
tend nos données.
23
Chapitre 1. Le modèle linéaire simple
2. Les hypothèses du modèle linéaire simple

Les hypothèses qui sous-tendent le modèle linéaire, dites hypothèses de Gauss-Markov, se présentent
comme suit :

1. La relation doit être linéaire


𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

2. La moyenne de l’erreur est nulle. De manière formelle 𝐸(𝜀 ) = 0 . Généralement, l’introduction de


la constante 𝛽 assure la satisfaction de cette condition (c’est l’un des rôles de la constante). Si cette
condition n’est pas satisfaite, l’estimateur utilisé sera biaisé.

3. Homoscédasticité. La variance doit être constante. Formellement nous devons avoir

𝑉(𝜀 ) = 𝜎 𝑜𝑢 𝐸(𝜀 ) = 𝜎

Bien entendu 𝜎 n’est pas connue nous allons devoir l’estimer. Si cette condition n’est pas satisfaite,
l’estimateur ne sera pas efficace.

24
Chapitre 1. Le modèle linéaire simple
2. Les hypothèses du modèle linéaire simple

4. Absence d’autocorrélation des erreurs. Les erreurs doivent être indépendantes. Formellement cela se
traduit par
cov( 𝜀 , 𝜀 ) = 0 𝑜𝑢 𝐸(𝜀 𝜀 ) = 0

Là encore, si cette condition n’est pas satisfaite, les estimateurs des paramètres ne seront pas efficaces.

5. Absence d’autocorrélation entre l’erreur et la variable explicative. Pour l’instant on suppose que la
variable explicative n’est pas stochastique. Elle est exogène c.a.d. déterminée en dehors du modèle. Cela
revient à ce que

cov( 𝑥 , 𝜀 ) = 0 𝑜𝑢 𝐸(𝑥 𝜀 ) = 0

6. Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).

25
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation

Nous supposons que nos données sont générées par la relation stochastique suivante :

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

L’erreur pour chaque observation est donnée par

𝜀 =𝑦 −𝛽 −𝛽 𝑥 𝑖 = 1,2, . . . , 𝑛

Les estimations à partir d’un échantillon sont notées 𝛽 et 𝛽 , l’erreur est estimée comme un
résidu
𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥 𝑖 = 1,2, . . . , 𝑛

Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).

Rappelons qu’il existe trois méthodes d’estimation des paramètres :

- La méthode des moments


- La méthode des moindres carrés
- La méthode du maximum de vraisemblance
26
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

27
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

28
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

1
𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0
𝑛

29
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛

30
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛

(𝑦 − 𝛽 , −𝛽 , 𝑥)=0

(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0

31
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛

(𝑦 − 𝛽 , −𝛽 , 𝑥)=0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0

(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

32
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments suivants :

𝐸(𝜀 ) = 0 𝐸(𝑥 𝜀 ) = 0

1
𝜀̂ = 0 𝜀̂ = 0
𝑛
1
𝜀̂ 𝑥 = 0 𝜀̂ 𝑥 = 0
𝑛

(𝑦 − 𝛽 , −𝛽 , 𝑥)=0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0

(𝑦 − 𝛽 , −𝛽 , 𝑥 )𝑥 = 0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

Equations normales
33
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

34
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

35
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

36
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥

37
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

38
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

39
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

40
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

41
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

42
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1

𝑛 𝑥 − 𝑥̄

43
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1

𝑛 𝑥 − 𝑥̄

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)

44
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moments

En définitive, les estimateurs par la méthode des moments sont donnés par

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)

𝛽 , =𝑦−𝛽 , 𝑥

45
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

𝜀 → 𝑁(0, 𝜎 )

46
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

𝜀 → 𝑁(0, 𝜎 )

𝐸(𝑦 ) = 𝛽 + 𝛽 𝑥 + 𝐸(𝜀 )= 𝛽 + 𝛽 𝑥 𝑉(𝑦 ) = 𝑉(𝜀 ) = 𝜎

47
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

𝜀 → 𝑁(0, 𝜎 )

𝐸(𝑦 ) = 𝛽 + 𝛽 𝑥 + 𝐸(𝜀 )= 𝛽 + 𝛽 𝑥 𝑉(𝑦 ) = 𝑉(𝜀 ) = 𝜎

𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )

48
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

𝜀 → 𝑁(0, 𝜎 )

𝐸(𝑦 ) = 𝛽 + 𝛽 𝑥 + 𝐸(𝜀 )= 𝛽 + 𝛽 𝑥 𝑉(𝑦 ) = 𝑉(𝜀 ) = 𝜎

𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝑓(𝑦 ) = exp − −
2𝜋𝜎 2 𝜎

49
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 𝑛

𝜀 → 𝑁(0, 𝜎 )

𝐸(𝑦 ) = 𝛽 + 𝛽 𝑥 + 𝐸(𝜀 )= 𝛽 + 𝛽 𝑥 𝑉(𝑦 ) = 𝑉(𝜀 ) = 𝜎

𝑦 → 𝑁(𝛽 + 𝛽 𝑥 , 𝜎 )

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝑓(𝑦 ) = exp − −
2𝜋𝜎 2 𝜎

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎
50
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

51
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

52
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

53
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

, ,
,

54
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

, ,
,

, ,
,

55
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

/
1 1 𝑦 −𝛽 −𝛽 𝑥
𝐿(𝑦 , . . . , 𝑦 ; 𝛽 , 𝛽 , 𝜎 ) = exp − −
2𝜋𝜎 2 𝜎

1 1
log 𝐿 (. ) = − log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 ) − (𝑦 − 𝛽 − 𝛽 𝑥 )
2 2𝜎

, ,
,

, ,
,

, ,

56
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

, ,
,

, ,
,

, ,

57
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

, ,
,

, ,
,

, ,

Les deux équation 1 et 2 peuvent se réécrire comme suit

𝑦 −𝛽 , −𝛽 , 𝑥 =0

𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

58
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

, ,
,

, ,
,

, ,

Les deux équation 1 et 2 peuvent se réécrire comme suit

𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0

𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

59
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du maximum de vraisemblance

, ,
,

, ,
,

, ,

Les deux équation 1 et 2 peuvent se réécrire comme suit

𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0

𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

Equations normales

60
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

, ,
,

, ,
,

, ,

Les deux équation 1 et 2 peuvent se réécrire comme suit

𝑦 −𝛽 , −𝛽 , 𝑥 =0 𝑦 − 𝛽 , −𝛽 , 𝑥 =0

𝑦 𝑥 −𝛽 , 𝑥 −𝛽 , 𝑥 =0 𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

Equations normales
Nous obtenons les estimateurs suivants
cov( 𝑥, 𝑦)
𝛽 , = 𝛽 , =𝑦−𝛽 , 𝑥
var( 𝑥)
61
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.2. La méthode du Maximum de vraisemblance

, ,
,

, ,
,

, ,

De la troisième équation nous avons

, ,

Nous obtenons l’estimateur suivant

∑ 𝜀̂
𝜎 =
𝑛

62
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽 , et 𝛽 , de manière à
minimiser la somme des carrés des erreurs. C'est-à-dire faire en sorte que la droite (le modèle) soit la plus
proche de toutes les observations (la réalité)

63
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽 , et 𝛽 , de manière à
minimiser la somme des carrés des résidus. C'est-à-dire faire en sorte que la droite (le modèle) soit la plus
proche de toutes les observations (la réalité)

𝑦
9
8
7 𝜀̂
6
5
4
𝜀̂
3
2
1
0 𝑥
0 1 2 3 4 5 6

64
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

𝑦
9
8
7 𝜀̂
6
5
4
𝜀̂
3
2
1
0 𝑥
0 1 2 3 4 5 6

65
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

L’annulation des dérivées premières rend

66
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

L’annulation des dérivées premières rend

𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,

67
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

L’annulation des dérivées premières rend

𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,

68
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

L’annulation des dérivées premières rend

𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,

Ou

𝑦 − 𝛽 , −𝛽 , 𝑥 =0

𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

69
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝑆𝐶𝑅 = 𝑀𝑖𝑛 𝑖 (𝑦 − 𝛽 − 𝛽 𝑥 )


, ,

L’annulation des dérivées premières rend

𝜕𝑆𝐶𝑅(. )
= (2)(−1) 𝑦 −𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,
𝜕𝑆𝐶𝑅(. )
= (2) (−𝑥 ) 𝑦 − 𝛽 , −𝛽 , 𝑥 =0
𝜕𝛽 ,

Ou

𝑦 − 𝛽 , −𝛽 , 𝑥 =0
Equations normales
𝑥 𝑦 −𝛽 , 𝑥 −𝛽 , 𝑥 =0

70
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

71
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

72
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

73
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑦 − 𝛽 , −𝛽 , 𝑥 =0
(1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥

74
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑦 − 𝛽 , −𝛽 , 𝑥 =0 (1)

𝑥 𝑦 −𝛽 𝑥 −𝛽 𝑥 =0 (2)
, ,

𝑛𝑦 = 𝑛𝛽 , +𝛽 , 𝑛𝑥

𝛽 , =𝑦−𝛽 , 𝑥

𝑥𝑦 =𝛽 , 𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

75
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

76
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

77
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

78
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

79
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1

𝑛 𝑥 − 𝑥̄

80
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

𝑥 𝑦 = (𝑦 − 𝛽 , 𝑥)𝑛𝑥 + 𝛽 , 𝑥

𝑥 𝑦 = 𝑦̄ 𝑛𝑥̄ − 𝛽 , 𝑛𝑥̄ + 𝛽 , 𝑥

𝑥 𝑦 − 𝑦̄ 𝑛𝑥̄ = 𝛽 , 𝑥 − 𝑛𝑥̄

1
∑ 𝑥 𝑦 − 𝑥̄ 𝑦̄
𝛽 = 𝑛
, 1

𝑛 𝑥 − 𝑥̄

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)

81
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
2.1. La méthode des moindres carrés

En définitive, les estimateurs par la méthode des moments sont donnés par

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽 , =
𝑣𝑎𝑟( 𝑥)

𝛽 , =𝑦−𝛽 , 𝑥

82
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :

Obs. xi yi
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25

On souhaite expliquer les variations de y par celles de x

Nous allons examiner le diagramme de dispersion entre y et x

83
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :

Obs. xi yi
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25

On souhaite expliquer les variations de y par celles de x

Nous allons examiner le diagramme de dispersion entre y et x

84
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Considérons les données suivantes :

xi yi

On souhaite expliquer les variations de y par celles de x

𝑦 =𝛽 +𝛽 𝑥 +𝜀 𝑖 = 1,2, . . . , 5
Pour ce faire nous devons estimer les paramètres. Comme nous avons un modèle linéaire simple nous
savons que quel que soit la méthode d’estimation nous avons

cov( 𝑥, 𝑦)
𝛽 , = 𝛽 , =𝑦−𝛽 , 𝑥
var( 𝑥)
85
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: YI
Method: Leas t Squares
Date: 03/14/21 Tim e: 11:25
Sam ple: 1 5
Included obs ervations : 5

Variable Coefficient Std. Error t-Statis tic Prob.

C -0.100000 1.826655 -0.054745 0.9598


XI 1.700000 0.550757 3.086660 0.0539

R-s quared 0.760526 Mean dependent var 5.000000


Adjus ted R-s quared 0.680702 S.D. dependent var 3.082207
S.E. of regres s ion 1.741647 Akaike info criterion 4.236714
Sum s quared res id 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statis tic 9.527473 Durbin-Wats on s tat 3.600000
Prob(F-s tatis tic) 0.053854

Nous allons tenter de retrouver les principaux résultats

86
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique

Le logiciel Stata rend le résultat suivant :

. regress y x

Source SS df MS Number of obs = 5


F( 1, 3) = 9.53
Model 28.9 1 28.9 Prob > F = 0.0539
Residual 9.1 3 3.03333333 R-squared = 0.7605
Adj R-squared = 0.6807
Total 38 4 9.5 Root MSE = 1.7416

y Coef. Std. Err. t P>|t| [95% Conf. Interval]

x 1.7 .5507571 3.09 0.054 -.0527548 3.452755


_cons -.1 1.826655 -0.05 0.960 -5.91323 5.71323

87
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire

Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

88
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire

Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

Les moyennes des deux variables sont données par

15 25
𝑥̄ = =3 𝑦̄ = =5
5 5

89
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire

Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

Les moyennes des deux variables sont données par

15 25
𝑥̄ = =3 𝑦̄ = =5
Ainsi 5 5
92
5
−3×5 et 𝛽 = 5 − 1,7 × 3 = −0,1
𝛽 = = 1,7000
55
−3×3
5

90
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire

Obs. xi 𝑦 𝑥 𝑦 𝑥
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

Les moyennes des deux variables sont données par

15 25
𝑥̄ = =3 𝑦̄ = =5
Ainsi 5 5
92
5
−3×5 et 𝛽 = 5 − 1,7 × 3 = −0,1
𝛽 = = 1,7000
55
−3×3
5
En définitive nous avons
𝑦 = −0,1 + 1,7𝑥

91
Chapitre 1. Le modèle linéaire simple
2. Les méthodes d’estimation
Exemple numérique
𝑦 = −0,1 + 1,7𝑥

- Une hausse d’une unité de x augmente y de 1,7 unité


- La constante n’a pas toujours d’interprétation.
- Elle est introduite pour assurer la nullité de la moyenne des erreurs (hypothèse 1 de Gauss-Markov)
On peut calculer les résidus de la manière suivante :

𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥

𝜀̂ = 𝑦 − (−0,1) − (1,7)𝑥

Obs.
xi yi 𝜀̂
1 1 1 -0,6
2 2 5 1,7
3 3 3 -2
4 4 8 1,3
5 5 8 -0,4
Total 15 25 0
92
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Rappelons que notre modèle s’écrit

93
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Rappelons que notre modèle s’écrit

(1)
(2)

94
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Rappelons que notre modèle s’écrit

(1)
(2)

Aussi (1) – (2), rend

95
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Rappelons que notre modèle s’écrit

Aussi (1)-(2), rend

Rappelons que

96
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Rappelons que notre modèle s’écrit

(1)
(2)

Aussi (1) – (2)

Rappelons que

En remplaçant par son expression, il vient

97
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

98
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

99
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

100
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

101
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

102
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Notons que

103
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Notons que

Donc,

104
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Notons que

Ainsi,

Propriété d’absence de bais

105
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Notons que

Ainsi,

Propriété d’absence de bais

Comme

106
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

107
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

108
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

En égalisant les deux équations, il vient

109
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

En égalisant les deux équations, il vient

110
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

En égalisant les deux équations, il vient

111
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

En égalisant les deux équations, il vient

112
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


On peut démontrer également que

En effet,

En égalisant les deux équations, il vient

Ainsi, les estimateurs par MCO sont non biaisés

113
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

114
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

115
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

116
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

117
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

Posons

118
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

Avec

119
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

L’estimateur est convergent si

Avec

120
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

121
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

Or d’après les hypothèses de Gauss-Markov

122
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

Or d’après les hypothèses de Gauss-Markov

Ainsi,

123
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

Or d’après les hypothèses de Gauss-Markov

Ainsi,

124
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

Or d’après les hypothèses de Gauss-Markov

Ainsi,

Lorsque tend vers l’infini, tend vers 0


125
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO


Propriété de convergence

On peut réaliser la même démonstration en montrant que

Là encore, on peut montrer que


Ainsi, les estimateurs par MCO sont non biaisés et convergents

126
Chapitre 1. Le modèle linéaire simple

3. Qualité des estimateurs par la méthode des MCO

Théorème de Gauss-Markov

Si les conditions de Gauss-Markov sont remplies alors les estimateurs par la méthode des
moindres carrés sont les meilleurs estimateurs linéaires non biaisés (Best Linear Unbiaised
Estimators : BLUE).

127
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesurer la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

128
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).

𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )

129
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme des carrés total (SCT).

𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )

130
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).

𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )

131
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).

𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ − 𝛽 𝑥 − 𝑥̄

132
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).

𝑆𝐶𝑇 = (𝑦 − 𝑦̄ )
La somme des carrés des résidus (SCR) est donné par

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝛽 − 𝛽 𝑥 )

𝑆𝐶𝑅 = 𝜀̂ = (𝑦 − 𝑦̄ + 𝛽 𝑥̄ − 𝛽 𝑥 )

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ − 𝛽 𝑥 − 𝑥̄

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

133
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

134
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)

𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)

𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)

135
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)

𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)

𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)

Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)

136
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)

𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)

𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)

Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝛽 𝑛 var( 𝑥) − 2𝛽 𝑛 cov( 𝑥, 𝑦)

137
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝑦̄ +𝛽 𝑥 − 𝑥̄ − 2𝛽 𝑥 − 𝑥̄ 𝑦 − 𝑦̄

Nous avons
𝑥 − 𝑥̄ = 𝑛 × var( 𝑥)

𝑦 − 𝑦̄ = 𝑛 × var( 𝑦)

𝑥 − 𝑥̄ 𝑦 − 𝑦̄ = 𝑛 × cov( 𝑥, 𝑦)

Rappelons que
cov( 𝑥, 𝑦)
𝛽 =
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝛽 𝑛 var( 𝑥) − 2𝛽 𝑛 cov( 𝑥, 𝑦)

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝑛 var( 𝑥) − 2 𝑛 cov( 𝑥, 𝑦)
var( 𝑥) var( 𝑥)

138
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

139
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)

140
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛𝛽 cov( 𝑥, 𝑦)

141
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛𝛽 cov( 𝑥, 𝑦)

𝑆𝐶𝑅 = 𝑆𝐶𝑇 − 𝑆𝐶𝐸

𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅

142
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression

cov( 𝑥, 𝑦) cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝜀̂ = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

cov( 𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛𝛽 cov( 𝑥, 𝑦)

𝑆𝐶𝑅 = 𝑆𝐶𝑇 − 𝑆𝐶𝐸

𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅

Un indicateur de la qualité de la régression est donnée par le coefficient de détermination , donné par

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇

Plus le 𝑅 est élevé (proche de 1) plus le modèle est de bonne qualité. Cela signifie que les variations de la
variable expliquée sont attribuées aux variations de la variable explicative.

143
Chapitre 1. Le modèle linéaire simple
3. Qualité de la régression
Reprenons notre exemple. Les calculs sont réalisés dans le tableau ci-dessous
Obs. 𝑥 𝑦 𝑥𝑦 𝑥 𝑦 𝜀̂ (𝑦 − 𝑦̄ )
1 1 1 1 1 1,6 0,36 16
2 2 5 10 4 3,3 2,89 0
3 3 3 9 9 5 4 4
4 4 8 32 16 6,7 1,69 9
5 5 8 40 25 8,4 0,16 9
Total 15 25 92 55 25 9,1 38

𝑆𝐶𝑇 = 38 𝑆𝐶𝑅 = 9,1 𝑆𝐶𝐸 = 38 − 9,1 = 28,9

𝑆𝐶𝐸 = 1,7 × 5 × ((92/5) − 3 × 5) = 28,9

28,9
𝑅 = = 0,76052 ≡ 76,052%
38

Ainsi 76,052% des variations de y sont expliquées par les variations de x


Notre modèle économique explique 76,052% de la réalité

144
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Tous les résultats obtenus sont des estimations ponctuelles. Leurs qualités dépend de l’échantillon
considéré. Pour surmonter cette limite il faut réaliser de l’inférence statistique (les intervalles de confiance
ou les tests d’hypothèses).

Pour obtenir les estimateurs de 𝛽 et 𝛽 , aucune hypothèse sur la distribution de l’erreur n’était
nécessaire. En effet, à partir des hypothèses de Gauss-Markov, on peut montrer que les estimateurs par la
méthode des moindres carrés ordinaires (MCO) (en anglais Ordinary Least squares OLS) sont non biaisés et
efficaces (BLUE).

4.1. Les intervalles de confiance des coefficients

Si en plus des hypothèses de Gauss-Markov, on suppose que les erreurs sont normalement distribuées alors
il est possible de construire des intervalles de confiance et réaliser des tests d’hypothèses.

Nous allons le faire pour 𝛽 .

Nous avons montré que 𝛽 est une variable aléatoire avec

𝜎
𝐸(𝛽 ) = 𝛽 𝑉(𝛽 ) =
𝑛 var( 𝑥)

145
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple

Les choses auraient été faciles si on connaissait 𝜎 . Bien entendu, en pratique il faut l’estimer. On peut
montrer qu’un estimateur non biaisé de 𝜎 est donné par

𝑆𝐶𝑅
𝜎 =
𝑛−2

146
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple

Les choses auraient été faciles si on connaissait 𝜎 . Bien entendu, en pratique il faut l’estimer. On peut
montrer qu’un estimateur non biaisé de 𝜎 est donné par

𝑆𝐶𝑅
𝜎 =
𝑛−2

Ainsi, un intervalle de confiance pour le coefficient 𝛽 est donné par

𝐼 = 𝛽 − var( 𝛽 ) × 𝑡 , ; 𝛽 + var( 𝛽 ) × 𝑡 ,

𝑡 , est lue sur la table de la loi de Student avec (n-2) degrés de libertés.

Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ?

Les résultats restent valables pour un grand nombre d’observations, sinon cela pose problème.

147
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Ainsi l’intervalle de confiance de 𝛽 est donné par
A

𝐼 = 𝛽 − var( 𝛽 ) × 𝑡 , ; 𝛽 + var( 𝛽 ) × 𝑡 ,

𝑡 est lue sur la table de la loi de Student avec (n-2) degrés de libertés.
Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ? Les résultats restent valables pour un
grand nombre d’observations, sinon cela pose problème.

Reprenons notre exemple.


Calculons les écart-types de la régression et des deux coefficients

𝑆𝐶𝑅 9,1
𝜎 = = = 3,0333 𝜎 = 𝑆. 𝐸. 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = 3,0333 = 𝟏, 𝟕𝟒𝟏𝟔
𝑛−2 3
D’un autre côté nous avons

𝜎 3,033
𝑉(𝛽 ) = = = 0,30333
𝑛 var( 𝑥) 5 × 2

𝑆. 𝐸. (𝛽 ) = 0,30333 = 𝟎, 𝟓𝟓𝟎𝟕

148
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Pour 𝛽 on peut montrer que la variance est donnée par

1 𝑥̄ 1 9
𝑉(𝛽 ) = 𝜎 + = 3,03 + = 3,3366
𝑛 𝑛 var( 𝑥) 5 10

𝑆. 𝐸. (𝛽 ) = 2,3366 = 𝟏, 𝟖𝟐𝟔𝟔𝟓

149
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Exemple numérique

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)

Variable Coefficient Std. Error t-Statistic Prob.

C -0.100000 1.826655 -0.054745 0.9598


x 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

150
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple

Récapitulons nos calculs

𝛽 = −0,1 𝛽 = 1,7

𝑆. 𝐸. (𝛽 ) = 1,826 𝑆. 𝐸. (𝛽 ) = 0,550 𝑡 , = 3,182

On peut maintenant construire les intervalles de confiance au seuil 5%

𝛽 ∈ −0,1 − 1,82 × 3,182 ; −0,1 + 1,82 × 3,182

𝛽 ∈ −5,89 ; 5,69

𝛽 ∈ 1,7 − 0,55 × 3,182 ; 1,7 + 0,55 × 3,182

𝛽 ∈ −0,0501 ; 3,4501

151
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique

152
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses

- Comme nous l’avons souligné dans l’introduction générale on est essentiellement intéressé à savoir si les
variations de x sont à l’origine des variations de y.

- Autrement dit, si le paramètre 𝛽 est significativement différent de 0.

- On peut également être intéressé, comme dans les exemples de la fonction de consommation keynésienne
ou du MEDAF, de savoir si 𝛽 est significativement différent de zéro. On est amené dans ce cas à réaliser
des tests d’hypothèses (tests de Student)
On testera en particulier les hypothèses nulles

𝐻 :𝛽 = 0 contre 𝐻 :𝛽 ≠ 0 ∀𝑖 = 0,1

Dans ce cas on calcule les ratios de Student données par


𝛽
𝑡 = ∀𝑖 = 0,1
𝑠. 𝑒. (𝛽 )

Si cette valeur est incluse dans la zone d’acceptation définie par les valeurs lues sur la table de Student pour
un seuil 𝛼 et 𝑛 − 2 degrés de libertés, on accepte l’hypothèse nulle.

153
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses

- Dans notre exemple nous avons

𝛽 −0,1000
𝑡 𝛽 = = = −𝟎, 𝟎𝟓𝟒𝟕
𝑠. 𝑒. 𝛽 1,8266
𝛽 1,7000
𝑡 (𝛽 ) = = = 𝟑, 𝟎𝟖𝟔𝟔
𝑠. 𝑒. (𝛽 ) 0,5507

La zone d’acceptation pour un seuil de 5% et 3 ddl est donnée par l’intervalle [-3,182 ; 3,182]

La zone d’acceptation pour un seuil de 10% et 3 ddl est donnée par l’intervalle [-2,363 ; 2,353]

Ainsi,
- La constante n’est pas significativement différente de 0 ni au seuil 5% ni au seuil 10%
- La pente n’est pas significativement différente de zéro au seuil 5% mais significativement différente de 0 au
seuil 10%

154
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique dans le modèle linéaire simple
Exemple numérique

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)

Variable Coefficient Std. Error t-Statistic Prob.

C -0.100000 1.826655 -0.054745 0.9598


x 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

155
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses

Généralement on calcule plutôt la probabilité à partir de laquelle l’hypothèse nulle est acceptée ou rejetée.
Ainsi,

𝛼 = 𝑃( 𝑧 < 0,0547) = 0,9598


𝛼 = 𝑃( 𝑧 < 3,0866) = 0,0538

156
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique

157
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.2. Les tests d’hypothèses
Les résultats plus complets se présentent comme suit
Coef. SE t-statistic Prob.
Constante -0,1000 1,8266 -0,0547 0,9598
X 1,7000 0,5507 3,0866 0,0539
R2 0,76
S.E.reg 1,74
SCR 9,1

Les ratios de Student ou les erreurs standards sont donnés pour tester d’autres hypothèses

On peut tester par exemple

𝐻 :𝛽 = 2 𝐻 :𝛽 ≠ 2
Le ratio de Student est donné par

𝛽 −2 0,3000
𝑡 (𝛽 ) = = = 0,545
𝑠. 𝑒. (𝛽 ) 0,5507

Comme 𝑡 (𝛽 ) << 3,182 on ne rejette pas l’hypothèse nulle au seuil 5%

158
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :

Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE k SCE / k
Résidus SCR n–2 SCR / (n – 2)
Total SCT k+n–2

Le but est de tester la significativité des variables explicatives . Dans le cas linéaire simple cela revient à
tester la significativité de la pente 𝛽

La statistique de Fisher est donnée par


𝑆𝐶𝐸/𝑘
𝐹= →𝐹 ,
𝑆𝐶𝑅/(𝑛 − 2)
Dans notre exemple nous avons
Source des Somme des carrés Degrés de libertés Carrés moyens
variations
x 28,9 1 28,9
Résidus 9,1 3 3,0333
Total 38 4

159
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :

𝑆𝐶𝐸/1 28,9
𝐹= = = 9,52
𝑆𝐶𝑅/(𝑛 − 2) 3,0333

On peut vérifier que dans le modèle simple nous avons

𝐹 = 𝑡 = 3,0866 × 3,0866 = 9,52

La p-value est donnée par

𝛼 = 𝑃( 𝑧 < 9,52) = 0,0539

160
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

La statistique de Fisher permet de réaliser un test relatif à une contrainte. Il consiste à comparer les SCR des
modèles sans contrainte (libre) et avec contrainte

La statistique associée s’écrit

Si on ne rejette pas

Dans notre exemple


(juste la constante)

161
Chapitre 1. Le modèle linéaire simple
4. Inférence statistique
4.3. Analyse de la variance

Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI

Coefficient Std. Error t-Statistic Prob.

C(1) -0.100000 1.826655 -0.054745 0.9598


C(2) 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

162
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires

Revenons à la forme déterministe de notre modèle. Rappelons-le, il s’écrit

𝑦 =𝛽 +𝛽 𝑥

Le modèle est dit linéaire non pas en termes de relation entre y et x mais en termes de manière avec laquelle
ils sont considérés dans l’équation même de manière transformées.
Considérons la figure suivante :

𝑦 𝑦 =𝛽 +𝛽 𝑒
1
𝑦 =𝛽 +𝛽 ( )
𝑥
𝑦 =𝛽 +𝛽 𝑥

𝑦 = 𝛽 + 𝛽 ln( 𝑥)

163
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires
Mais si nous posons
1 𝑣=𝑒 𝑤 = ln 𝑥
𝑧=
𝑥

Nous obtenons les relations linaires suivantes :


𝑦 =𝛽 +𝛽 𝑣 𝑦 =𝛽 +𝛽 𝑤

𝑦 𝑦 =𝛽 +𝛽 𝑣
𝑦 =𝛽 +𝛽 𝑧

𝑦 =𝛽 +𝛽 𝑥

𝑦 =𝛽 +𝛽 𝑤

164
Chapitre 1. Le modèle linéaire simple
5. Fromes fonctionnelles et modèles linéaires
Toutes les formes précédentes sont linéaires. Le nombre de formes fonctionnelles qui peuvent être
transformées en relations linéaires est important.
Une forme très utilisée est la forme log linéaire. Elle est donnée par
𝑦 = 𝐴𝑥

En termes log elle s’écrit ln( 𝑦) = 𝛽 + 𝛽 ln( 𝑥)

En plus, lorsque les variables sont considérées en termes logarithmiques cela donne plusieurs avantages
- Rapprochement des échelles des variables x et y
- Parfois le log suffit pour s’assurer que les données soient homoscédastiques
- Le paramètre 𝛽 s’interprète comme une élasticité

𝑦
𝛽 =2 𝛽 =1
𝛽 = −1

𝛽 = 0,5

165
Chapitre 1. Le modèle linéaire simple
6. Application 1 : estimation du Nairu dans le cas des EU

- Le Nairu (non accelerating inflation rate of unemployment) ou taux de chômage n’accélérant pas
l’inflation est un concept très intéressant il s’agit d’un taux de chômage naturel (d’équilibre) proche du taux
de chômage structurel (concept du prix Nobel Milton Friedman)

- Très utile de connaître sa valeur pour la conduite de la politique économique

- Lorsque le taux de chômage est au dessus du Nairu on peut mettre en place une politique expansionniste
pour réduire le taux de chômage sans que cela n’augmente l’inflation

- Lorsque le taux de chômage est en dessous du Nairu on doit s’attendre à des tensions inflationnistes

- On ne peut pas réduire de manière importante et durable le taux de chômage en dessous du Nairu par des
politiques conjoncturelles mais par des réformes du marché du travail

- L’OCDE et le FMI donnent régulièrement des estimations du NAIRU

- Etats Unis 6,1%


- France 9,2%
- Allemagne 6,3%
- Japon 4,3%

166
Taux de chômage
Taux de
chômage

Taux de chômage
naturel

Temps

167
Chapitre 1. Le modèle linéaire simple
6. Application 2 : estimation du Nairu dans le cas des EU

Le Nairu n’est pas observable, il doit être estimé. Il peut l’être à l’aide de la courbe de Phillips.
Dans sa version augmentée elle est donnée par

Dans cette équation 𝜋 est le taux d’inflation effectif, 𝜋 est le taux d’inflation anticipé, 𝑢 le taux de
chômage effectif, 𝑢 est le taux de chômage naturel, 𝜀 est un choc d’offre.

Ainsi, la courbe de Phillips identifie, dans sa version moderne, trois sources de l’inflation
1. l’inflation anticipée
2. l’écart du chômage par rapport à son taux naturel (chômage conjoncturel)
3. les chocs d’offre

Pour pouvoir utiliser la courbe de Phillips nous devons savoir de quoi dépend l’inflation anticipée.

Comment se forment les anticipations ?

Supposons que les agents économiques forment leurs anticipations d’inflation sur la base de l’histoire récente
de l’inflation.

168
Chapitre 1. Le modèle linéaire simple

4. Application 1 : estimation du Nairu dans le cas du Maroc

Un exemple simple est de supposer que l’inflation anticipée est égale à l’inflation de la période précédente

𝜋 =𝜋

Dans ce cas, la courbe de Phillips se réecrit

𝜋 −𝜋 = Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀

Dans cette configuration, le taux de chômage naturel est appelé NAIRU (= Non-Accelerating Inflation Rate
of Unemployment) taux de chômage n’accélérant pas l’inflation

Cette équation traduit une inertie de l’inflation

- En l’absence de chocs d’offre ou de chômage cyclique, le niveau de l’inflation ne change pas


- L’inflation passée, détermine l’inflation anticipée qui détermine les salaires et les prix fixés par les agents
économiques

169
Chapitre 1. Le modèle linéaire simple
4. Application 1 : estimation du Nairu dans le cas des EU

Principalement deux causes de l’inflation:

𝜋 −𝜋 = Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀

Inflation induite par les coûts (Cost Push Inflation) : L’inflation résulte des chocs sur l’offre : Un choc
négatif d’offre augmente les coûts de production ce qui augmente les prix (Exemple : choc pétrolier)

Inflation induite par la demande (Demand Push Inflation) : L’inflation peut résulter également d’un choc
de demande : un choc positif sur la demande provoque une baisse du taux de chômage en dessous du niveau
naturel ce qui cause une inflation

170
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas du Maroc

Le modèle économétrique s’écrit

Δ𝜋 = −𝑎(𝑢 − 𝑢 ) + 𝜀

Δ𝜋 = −𝑎𝑢 + 𝑎𝑢 + 𝜀

On pose
𝛽 = −𝑎 𝛽 = 𝑎𝑢 = −𝛽 𝑢

Ou encore
Δ𝜋 = 𝛽 + 𝛽 𝑢 + 𝜀

On utilise la méthode des moindres carrés pour estimer 𝛽 et 𝛽

Ensuite on estime le taux de chômage naturel

𝛽
𝑢 =−
𝛽

171
Chapitre 1. Le modèle linéaire simple
4. Application 1 : estimation du Nairu dans le cas des EU

Les données américaines

Date txi txc vartxi Date txi txc vartxi


2012T1 3,8 8,27 0,4 2017T1 2,5 4,57 0,7
2012T2 3,3 8,2 -0,5 2017T2 1,9 4,37 -0,6
2012T3 2,8 8,03 -0,5 2017T3 2 4,33 0,1
2012T4 1,9 7,8 -0,9 2017T4 2,1 4,17 0,1
2013T1 1,7 7,73 -0,2 2018T1 2,2 4,03 0,1
2013T2 1,4 7,53 -0,3 2018T2 2,7 3,93 0,5
2013T3 1,6 7,23 0,2 2018T3 2,6 3,77 -0,1
2013T4 1,2 6,93 -0,4 2018T4 2,2 3,83 -0,4
2014T1 1,4 6,67 0,2 2019T1 1,6 3,87 -0,6
2014T2 2,1 6,2 0,7 2019T2 1,8 3,6 0,2
2014T3 1,8 6,07 -0,3 2019T3 1,8 3,63 0
2014T4 1,2 5,7 -0,6 2019T4 2 3,6 0,2
2015T1 -0,1 5,53 -1,3 2020T1 2,1 3,8 0,1
2015T2 0 5,43 0,1 2020T2 0,4 12,97 -1,7
2015T3 0,1 5,1 0,1 2020T3 1,2 8,83 0,8
2015T4 0,5 5,03 0,4 2020T4 1,2 6,77 0
2016T1 1,1 4,9 0,6 2021T1 1,9 6,2 0,7
2016T2 1 4,93 -0,1 2021T2 4,8 5,9 2,9
2016T3 1,1 4,9 0,1 2021T3 5,3 5,1 0,5
2016T4 1,8 4,77 0,7 2021T4 6,7 4,23 1,4
2022T1 8 3,8 1,3
2020T2 8,6 3,6 0,6

172
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU

Le logiciel Eviewq rend le résultat suivant :


Dependent Variable: VARTXI
Method: Leas t Squares
Date: 11/04/22 Tim e: 11:09
Sam ple: 2012Q1 2022Q2
Included obs ervations : 42

Variable Coefficient Std. Error t-Statis tic Prob.

C 0.859654 0.343934 2.499476 0.0166


TXC -0.131039 0.057974 -2.260303 0.0293

R-s quared 0.113258 Mean dependent var 0.123810


Adjus ted R-s quared 0.091090 S.D. dependent var 0.754114
S.E. of regres s ion 0.718948 Akaike info criterion 2.224392
Sum s quared res id 20.67544 Schwarz criterion 2.307138
Log likelihood -44.71223 Hannan-Quinn criter. 2.254722
F-s tatis tic 5.108970 Durbin-Wats on s tat 1.384683
Prob(F-s tatis tic) 0.029316

∗∗ ∗∗
(0,34) (0,057)

173
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU

Le résultat peut se présenter comme suit :

∗∗ ∗∗

(0,34) (0,057)

- Le modèle est satisfaisant sur le plan statistique


- Le modèle est également satisfaisant sur le plan économique (lien négatif)

Les résultats du modèle économétrique peuvent être utilisés pour estimer le Nairu au E.U.

174
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU

Le résultat peut se présenter comme suit :

∗∗ ∗∗

(0,34) (0,057)

Le taux de chômage naturel est donné par

175
Chapitre 1. Le modèle linéaire simple
4. Application : estimation du Nairu dans le cas des EU

TCE NAIRU

14,000
Nairu Taux chômage
12,000

10,000

8,000

6,000

4,000

2,000

0,000

176
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

Martin Feldstein Charles Horioka (1981) « DOMESTIC SAVINGS AND INTERNATIONAL CAPITAL
FLOWS »

Les auteurs cherchent à estimer le degré de mobilité des capitaux entre 16 pays de l’OCDE en particulier sur
la période 1960-1074 (et puis sur plusieurs périodes différentes).

Ils utilisent les données relatives au taux d’épargne (S/PIB) et au taux d’investissement (I/PIB)

L’idée est que s’il n’y a pas de mobilité internationale des capitaux cela signifie que l’épargne dans un pays
reste dans le pays (elle est investie dans le pays) l’élasticité de l’investissement par rapport à l’épargne doit
être égale à 1
Si cette élasticité est égale à 0 cela signifie qu’il y a mobilité internationale parfaite des capitaux

177
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

Martin Feldstein Charles Horioka (1981) « DOMESTIC SAVINGS AND INTERNATIONAL


CAPITAL FLOWS »

Pour répondre à cette question, les auteurs estiment le modèle économétrique suivant :

, ,

Ensuite ils testent les hypothèses suivantes :

Test 1. contre .
Test 2. contre .

Si on rejette H0 pour le test 1 et on accepte H0 pour le test 2 pas de mobilité 178


Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux


Les données utilisées (moyennes sur la période 1960-1974):

Pays txs txi


Australie 0,25 0,27
Autriche 0,285 0,282
Belgique 0,235 0,224
Canada 0,219 0,231
Danemark 0,202 0,224
Finland 0,288 0,305
Allemagne 0,271 0,264
Grèce 0,219 0,248
Irlande 0,19 0,218
Italie 0,235 0,224
Japon 0,372 0,368
Pays-Bas 0,273 0,266
Nouvelle Zelande 0,232 0,249
Suède 0,241 0,242
Royaume-Uni 0,184 0,192
Etats-Unis 0,186 0,186

179
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux


Eviews rend le résultat suivant :
Dependent Variable: TXI
Method: Leas t Squares
Date: 11/07/23 Tim e: 10:24
Sam ple: 1 16
Included obs ervations : 16

Variable Coefficient Std. Error t-Statis tic Prob.

C 0.034533 0.017491 1.974253 0.0684


TXS 0.886264 0.070797 12.51838 0.0000

R-s quared 0.917989 Mean dependent var 0.249563


Adjus ted R-s quared 0.912132 S.D. dependent var 0.044545
S.E. of regres sion 0.013204 Akaike info criterion -5.700077
Sum s quared res id 0.002441 Schwarz criterion -5.603503
Log likelihood 47.60061 Hannan-Quinn criter. -5.695131
F-s tatis tic 156.7097 Durbin-Watson stat 2.131095
Prob(F-statis tic) 0.000000

∗ ∗∗∗

(0,0174) (0,0707)

180
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

Evaluation du modèle économétrique :

∗ ∗∗∗

(0,0174) (0,0707)

- Le modèle est très satisfaisant sur le plan statistique


- Le modèle est également satisfaisant sur le plan économique (lien positif)

Les résultats du modèle économétrique peuvent être utilisés pour évaluer la mobilité
internationale des capitaux

181
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux


Eviews rend le résultat suivant :

∗ ∗∗∗

(0,0174) (0,0707)
On rejette l’hypothèse nulle au seuil 1% (P-valeur = 0,000)
Le test de Wald montre qu’on ne peut pas rejeter l’hypothèse nulle

,
. .( ) , ; ,

Comme ; , on ne rejette pas l’hypothèse nulle

La première hypothèse montre qu’il y a bien une relation entre txi et txs et la deuxième montre
qu’un accroissement de l’épargne se traduit par une hausse quasi équivalente de l’investissement

Il n’y a pas de mobilité internationale des capitaux


182
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

La statistique de Fisher permet de réaliser un test relatif à une contrainte. Il consiste à comparer les SCR des
modèles sans contrainte (libre) et avec contrainte

La statistique associée s’écrit

Si on ne rejette pas

183
Chapitre 1. Le modèle linéaire simple

4. Application : Estimation du degré de mobilité des capitaux

Si on souhaite par exemple

Si on souhaite par exemple

184
Chapitre 2. Le modèle linéaire multiple

185
Chapitre 2. Le modèle linéaire multiple

- Le modèle linéaire multiple (régression multiple) est une généralisation du modèle linéaire simple.
- L’essentiel des techniques qui sous-tendent le modèle linéaire simple restent valables
- Dans le modèle multiple on s’intéresse à savoir dans quelle mesure les variations de la variable dépendante
sont expliquées par les variations des variables explicatives : x1, x2,…, xk

- Ainsi le modèle linéaire multiple s’écrira comme suit

𝑦 = 𝛽 + 𝛽 𝑥 +. . . +𝛽 𝑥 + 𝜀 𝑖 = 1,2, . . . , 𝑛

On peut montrer que si les hypothèses suivantes (Gauss-Markov) sont remplies

1. 𝐸(𝜀 ) = 0 2. 𝑉(𝜀 ) = 𝜎 3. 𝜀 , 𝜀 ) = 0
cov( ∀𝑖 ≠ 𝑗

4. cov( 𝜀 , 𝑥 ) = 0 5. 𝜀 → 𝑁(0, 𝜎 )

Les estimateurs par les moindres carrés 𝛽 , 𝛽 , . . . , 𝛽 sont non biaisés et présentent la variance la plus
petite parmi tous les autres estimateurs (moments et maximum de vraisemblance). Sous ces conditions
les estimateurs par la méthode des moindres carrés sont BLUE. Le théorème de Gauss-Markov est
valable dans le cas multiple.

186
Chapitre 2. Le modèle linéaire multiple

Bien entendu, comme dans le cas simple, les estimateurs par les moindres carrés sont ceux qui minimisent la
somme des carrés des résidus. Soit

𝑆𝐶𝑅 = 𝜀̂ = 𝑦 − 𝛽 − 𝛽 𝑥 −. . . −𝛽 𝑥

En plus des hypothèses précédentes (Gauss-Markov), il ne faut pas qu’il y ait de colliniarité entre les
variables explicatives. C’est-à-dire qu’il n’existe pas de relation linéaire déterministe entre les variables
explicatives.

On reviendra plus tard sur cette hypothèse.

187
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit

Le système complet s’écrit

188
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit

Le système complet s’écrit

189
Chapitre 2. Le modèle linéaire multiple

1. Coefficients de la régression multiple


Le modèle linéaire général s’écrit

Le système complet s’écrit

Ou sous forme matricielle

190
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit

Le système complet s’écrit

Ou sous forme matricielle

Ou encore

La colonne de la constante

Les dimensions des matrices (n,1) = (n,k+1)*(k+1,1)+(n,1)

191
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

192
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

En développant,

193
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

En développant,

194
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

En développant,

La minimisation de la somme des carrés des résidus est donnée par

195
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

En développant,

La minimisation de la somme des carrés des résidus est données par

Enfin les estimateurs sont donnés par le vecteur suivant

196
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

197
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

Ou encore

198
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

Ou encore

En distribuant,

Ou

199
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

Ou encore

En distribuant,

Ou

En introduisant l’espérance, il vient que

200
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

Ou encore

En distribuant,

Ou

En introduisant l’espérance, il vient que

201
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par

Ou encore

En distribuant,

Ou

En introduisant l’espérance, il vient que

Les estimateurs par la Méthode des MCO sont non biaisés


Par ailleurs on peut montrer qu’ils sont convergents
Enfin on peut montrer qu’ils sont BLUE (Best Linear Unbiaised Estimator)

202
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Considérons les données suivantes (24 observations)
Y X1 X2 X3
8,5 16,9 0,7 2,1
7,2 19,2 0,9 2,4
11,3 9,6 0,6 2,0
4,6 4,9 0,3 2,0
13,0 18,0 0,9 1,9
11,0 10,5 0,6 2,2
10,1 14,8 0,8 2,0
7,8 19,9 1,0 2,0
9,1 17,8 0,9 1,9
11,0 16,4 0,9 2,1
12,0 18,1 0,8 2,0
11,1 9,3 0,5 2,1
9,2 13,6 0,7 2,4
4,6 10,0 0,6 1,8
3,1 1,2 0,1 1,7
18,5 20,4 1,1 2,0
12,6 15,3 0,9 2,2
12,0 18,9 0,8 2,1
4,9 5,4 0,3 2,0
15,9 17,4 0,9 2,2
9,2 8,7 0,5 2,1
10,6 10,3 0,6 2,1
12,2 18,2 0,9 2,0
13,9 14,4 0,7 2,4
Estimez sur Excel et Eviews la relation (fichier Excel Exemple Reg multiple)
𝑦 =𝛽 +𝛽 𝑥 +𝛽 𝑥 +𝛽 𝑥 +𝜀
203
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :

6,49 0,068 −1,34 −3,10


0,068 0,020 −0,42 −0,023
𝑋′𝑋 =
−1,34 −0,42 9,53 0,17
−3,120 −0,023 0,17 1,59

243,40 𝛽 −4,985
3616,28 𝛽 −0,323
𝑋′𝑌 = 𝛽= 𝑋𝑋 𝑋𝑌 = =
186,26 𝛽 16,237
509,00 3,894
𝛽

204
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

205
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
Supposons que deux variables x1 et x2 permettent d’expliquer une variable dépendante y

Le vrai modèle s’écrit alors


𝑦 =𝛽 +𝛽 𝑥 , +𝛽 𝑥 , +𝜀

Les coefficients 𝛽 et 𝛽 donnent une estimation de l’influence de chacune des deux variables
explicatives sur y en contrôlant l’effet de l’autre variable explicative.

Supposons que

𝛽 >0 𝛽 >0 cov( 𝑥 , 𝑥 ) > 0

Supposons que nous estimons le modèle suivant :

𝑦 =𝛽 +𝛽 𝑥 , +𝜀

206
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

𝑦 =𝛽 +𝛽 𝑥 +𝜀

Si x1 augmente alors

- y va augmenter car 𝛽 >0

- x2 va augmenter car cov( 𝑥 , 𝑥 ) > 0


- y va encore augmenter car x2 a augmenté et que 𝛽 >0

Ainsi avec un modèle simple, la valeur de 𝛽 va capter tous ces effets et sa valeur sera sur-estimée par
rapport à la réalité. Donc 𝛽 sera biaisé. Ainsi, lorsque certaines variables ne sont pas prises en compte
les estimateurs sont biaisés.

Ainsi, plus le nombre de variables explicatives est important, plus les estimateurs auront moins tendance à
être biaisés.

207
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix

On souhaite estimer l’élasticité prix (1980-2000). On estime le modèle ci-dessous

Pour les données (voir fichier Excel Exemple demande)


Eviews rend le résultat suivant :

208
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix

On souhaite estimer l’élasticité prix. On estime le modèle ci-dessous

Pour les données (voir fichier Excel Exemple demande


Eviews rend le résultat suivant :
Dependent Variable: LNDDE
Method: Leas t Squares
Date: 11/25/22 Tim e: 08:45
Sam ple: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob.

C -13.09420 2.217420 -5.905149 0.0000


LNPRIX 3.523096 0.465708 7.565026 0.0000

R-squared 0.750753 Mean dependent var 3.677773


Adjus ted R-squared 0.737635 S.D. dependent var 0.367112
S.E. of regres sion 0.188041 Akaike info criterion -0.413925
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-s tatistic) 0.000000

209
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix

On souhaite estimer l’élasticité prix. On estime le modèle ci-dessous

Pour les données (voir fichier Excel Exemple demande


Eviews rend le résultat suivant :
Dependent Variable: LNDDE
Method: Leas t Squares
Date: 11/25/22 Tim e: 08:45
Sam ple: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob.

C -13.09420 2.217420 -5.905149 0.0000


LNPRIX 3.523096 0.465708 7.565026 0.0000 Sur le plan
R-squared 0.750753 Mean dependent var 3.677773 statistique le
Adjus ted R-squared
S.E. of regres sion
0.737635
0.188041
S.D. dependent var
Akaike info criterion
0.367112
-0.413925
modèle est très bon
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-s tatistic) 0.000000

210
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix


Dependent Variable: LNDDE
Method: Leas t Squares
Date: 11/25/22 Tim e: 08:45
Sam ple: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob.

C -13.09420 2.217420 -5.905149 0.0000


LNPRIX 3.523096 0.465708 7.565026 0.0000

R-squared 0.750753 Mean dependent var 3.677773


Adjusted R-squared 0.737635 S.D. dependent var 0.367112
S.E. of regres sion 0.188041 Akaike info criterion -0.413925
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-s tatistic) 0.000000

On trouve une élasticité positive. Ce qui n’est pas conforme aux attentes théoriques.
Le problème est que l’estimateur est tellement biaisé qu’il surestime l’élasticité à telle point qu’elle devient
positive. Il y a probablement omission d’une variable importante.

211
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix


Dependent Variable: LNDDE
Method: Leas t Squares
Date: 11/25/22 Tim e: 08:45
Sam ple: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob.

C -13.09420 2.217420 -5.905149 0.0000


LNPRIX 3.523096 0.465708 7.565026 0.0000

R-squared 0.750753 Mean dependent var 3.677773


Adjusted R-squared 0.737635 S.D. dependent var 0.367112
S.E. of regres sion 0.188041 Akaike info criterion -0.413925
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-s tatistic) 0.000000

On trouve une élasticité positive. Ce qui n’est pas conforme aux attentes théoriques.
Le problème est que l’estimateur est tellement biaisé qu’il surestime l’élasticité à telle point qu’elle devient
positive. Il y a probablement omission d’une variable importante. Le revenu disponible.

Estimons maintenant le modèle avec deux variables explicatives: prix et revenu disponible.

On obtient le résultat suivant :

212
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple

Exemple. Estimation de l’élasticité prix (en présence du revenu disponible)

Dependent Variable: LNDDE


Method: Leas t Squares
Date: 11/25/22 Tim e: 08:46
Sam ple: 1980 2000
Included obs ervations : 21

Variable Coefficient Std. Error t-Statis tic Prob.

C 36.91330 7.754589 4.760188 0.0002


LNPRIX -22.56720 4.002149 -5.638771 0.0000
LNRD 15.28665 2.339936 6.532936 0.0000

R-s quared 0.926063 Mean dependent var 3.677773


Adjus ted R-s quared 0.917848 S.D. dependent var 0.367112
S.E. of regres s ion 0.105222 Akaike info criterion -1.533917
Sum s quared res id 0.199292 Schwarz criterion -1.384699
Log likelihood 19.10613 Hannan-Quinn criter. -1.501533
F-s tatis tic 112.7252 Durbin-Wats on s tat 1.365818
Prob(F-s tatis tic) 0.000000

Maintenant on obtient une élasticité prix négative comme attendu


Il faut inclure plusieurs variables explicatives, pas seulement la variable d’intérêt (il faut inclure des variables
de contrôle)
213
Chapitre 2. Le modèle linéaire multiple

3. Interprétation des coefficients dans la régression multiple

Malheureusement, on ne peut pas inclure toutes les variables. Et ce pour deux raisons
- Certaines ne sont pas connues ou ne sont pas mesurables
- La précision des estimations devient faible (estimateurs pas efficaces)

Le choix des variables explicative à inclure dans le modèle est le problème majeur qui se pose en pratique.
Ces problèmes sont surmontés grâce à l’expérience et à la connaissance fine du domaine et de la théorie
économique.
Un autre problème se pose lorsqu’on considère un nombre important de variables explicatives. Il y a le
risque que certaines d’entre elles soient corrélées. Dans ce cas il est difficile de déterminer l’effet de
chacune d’entre elles. C’est le problème de la multicollinéarité.

Enfin se pose le problème de la stratégie d’estimation


- Du général vers le particulier
- Du particulier vers le général
214
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Les tests d’hypothèses présentés dans le cas simple restent valables.


On commence par tester les hypothèses

contre

Comme dans le cas simple, la décision est prise en comparant l’écart observé

À l’écart théorique lu sur la table de Student avec d.d.l.

Bien entendu, si le , on ne rejette pas

215
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Les écarts-types sont estimés à partir de la matrice variances-covariances

Dans cette équation la variance de la régression est donnée comme dans le cas simple par

Dans notre exemple nous avons

et

216
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Ainsi

Les variances est les écarts types sont donnés par

217
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Stratégie d’estimation

• Lorsqu’on ne dispose pas de modèle théorique et qu’on cherche à expliquer une variable, la stratégie
consiste à inclure le maximum de variables.

• Lorsqu’une variable explicative n’est pas significative (c.a.d. pour laquelle H0 est acceptée) on régresse le
modèle à nouveau sans la prendre en considération.

• Par contre, on garde la constante même si elle n’est pas significative (Stratégie d’estimation).

218
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Dans notre exemple nous avons

Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

219
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple


Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

Dependent Variable: Y
Method: Least Squares
Date: 04/15/21 Time: 13:54
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -3.895437 6.810711 -0.571957 0.5734


X2 9.507400 2.427714 3.916195 0.0008
X3 3.526453 3.407275 1.034977 0.3125

R-squared 0.489733 Mean dependent var 10.14167


Adjusted R-squared 0.441136 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062
Sum squared resid 155.4367 Schwarz criterion 5.103319
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129
F-statistic 10.07746 Durbin-Watson stat 1.753960
Prob(F-statistic) 0.000855

220
Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple


Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

Dependent Variable: Y
Method: Least Squares Dependent Variable: Y
Date: 04/15/21 Time: 13:54 Method: Least Squares
Sample: 1 24 Date: 04/15/21 Time: 13:55
Included observations: 24 Sample: 1 24
Included observations: 24
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C -3.895437 6.810711 -0.571957 0.5734
X2 9.507400 2.427714 3.916195 0.0008 C 2.918405 1.747078 1.670449 0.1090
X3 3.526453 3.407275 1.034977 0.3125 X2 10.19755 2.338113 4.361444 0.0002

R-squared 0.489733 Mean dependent var 10.14167 R-squared 0.463705 Mean dependent var 10.14167
Adjusted R-squared 0.441136 S.D. dependent var 3.639269 Adjusted R-squared 0.439328 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062 S.E. of regression 2.725013 Akaike info criterion 4.922479
Sum squared resid 155.4367 Schwarz criterion 5.103319 Sum squared resid 163.3653 Schwarz criterion 5.020650
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129 Log likelihood -57.06975 Hannan-Quinn criter. 4.948524
F-statistic 10.07746 Durbin-Watson stat 1.753960 F-statistic 19.02219 Durbin-Watson stat 1.601258
Prob(F-statistic) 0.000855 Prob(F-statistic) 0.000250

221
Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Comme dans le modèle simple, nous avons

𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅

(𝑦 − 𝑦̄ ) = (𝑦 − 𝑦̄ ) + (𝑦 − 𝑦 )

Le tableau ANOVA est donné par

Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE k SCE / k
Résidus SCR n–k-1 SCR / (n – k - 1)
Total SCT n-1

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇

222
Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Dans le modèle linéaire multiple la qualité globale du modèle ne peut pas être évaluée à l’aide du R2. Ce
dernier est d’autant plus important que le nombre de variables explicatives est important.
Surtout, il n’est pas possible de comparer les qualités de plusieurs modèles qui n’ont pas le même nombre
de variables explicatives.
C’est pourquoi on ajuste le R2 par rapport aux nombre de variables explicatives (nddl).
On définit le R2 ajusté noté ( 𝑅 )

Le R2 ajusté (par le nombre de ddl) est donné par

𝑆𝐶𝑅/(𝑛 − 𝑘 − 1)
𝑅 = 1−
𝑆𝐶𝑇/(𝑛 − 1)

Ou encore

223
Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Reprenons notre exemple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

24 − 1
𝑅 = 1− (1 − 0,506753) = 0,432766
24 − 3 − 1

224
Chapitre 2. Le modèle linéaire multiple

6. Test de significativité globale de la régression


La statistique de Student est utilisée pour tester un seul coefficient à la fois. Si on souhaite tester des
hypothèses relatives à plusieurs variables on utilise la statistique de Fisher

La statistique de Fisher dans le cas multiple est donnée par


𝑆𝐶𝐸/𝑘 𝑅 /𝑘
𝐹= =
𝑆𝐶𝑅/(𝑛 − 𝑘 − 1) (1 − 𝑅 )/(𝑛 − 𝑘 − 1)

Ainsi, on peut tester les hypothèses suivantes :

𝐻 : 𝛽 = 𝛽 =. . . = 𝛽 = 0

𝐻 :𝛽 ≠ 0

Ce test donne le pouvoir explicatif des toutes les variables prises ensemble.
On peut montrer que F suit une loi de Fisher avec (k) et (n - k - 1) d.d.l

225
Chapitre 2. Le modèle linéaire multiple

6. Test de significativité globale des coefficients


Reprenons notre exemple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

𝑅 /𝑘 0,5067/3
𝐹= = = 6,849
(1 − 𝑅 )/(𝑛 − 𝑘 − 1) (1 − 0,5067)/(24 − 3 − 1)

Prob(𝐹) = 0,00234

226
Chapitre 2. Le modèle linéaire multiple

7. Test de contraintes linéaires sur les coefficients (test de Wald)


La statistique de Fisher peut être utilisée pour tester des hypothèses relatives à des relations linéaires
concernant les coefficients.

On peut par exemple être tentés de voir si les élasticités prix et revenu sont égales. Dans ce cas nous allons
tester

Cela revient à comparer

227
Chapitre 2. Le modèle linéaire multiple

7. Test de contraintes linéaires sur les coefficients (test de Wald)


Le test concerne

La statistique de Fischer associée à ce test est donnée par

Bien entendu si F<<F(NC,n-k-1) on accepte H0. Les coefficients sont identiques

Reprenons notre exemple relatif à l’estimation des élasticités.

228
Chapitre 2. Le modèle linéaire multiple

7. Test de contraintes linéaires sur les coefficients (test de Wald)


Reprenons notre exemple relatif à l’estimation des élasticités.
Nous avons
SCRL = 0,199292
SCRC = 0,594114

La table de Fisher donne une valeur de 0,000.


On rejette l’hypothèse nulle
Sur Eviews. View - Coeefficient diagnostics Wald test on obtient

Wald Tes t:
Equation: Untitled

Tes t Statis tic Value df Probability

t-s tatis tic -5.971628 18 0.0000


F-s tatis tic 35.66034 (1, 18) 0.0000
Chi-s quare 35.66034 1 0.0000

229
8. La question des proxy

- Il arrive souvent qu’il soit impossible d’avoir des données relatives à une variable que l’on souhaite
inclure comme variable explicative.
- En effet, certaines variables socioéconomiques sont difficiles à mesurer comme les statuts
socioéconomiques des individus, la qualité de l’éducation, etc.
- Parfois on utilise des données d’enquêtes mais une variable importante n’a pas été prise en compte.
Dans ce cas deux options s’offrent à nous

- Ne pas prendre en considération la variable en question. Auquel cas, les estimateurs des variables pris en
considération sont biaisés (omission de variables)
- La remplacer par une variable qui lui est corrélée (proxy) et qui est observable

Ainsi par exemple, on peut utiliser le revenu d’une personne comme une proxy de son statut
socioéconomique, les dépenses d’éducation par élève comme proxy de la qualité de l’éducation, etc.
230
8. La question des proxy

Exemple 1. Considérons la fonction de production macroéconomiques de type Cobb-Douglass suivante :

𝜶 𝜷

Dans cette équation,

Y est la valeur ajoutée (PIB),


K est le stock de capital,
L le travail
A représente la productivité globale des facteurs

et sont respectivement les parts des revenus du capital et du travail dans le revenu national.
En cas de concurrence pure et parfaite, nous avons (rendements constants à l’échelle)

231
8. La question des proxy

Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

Nous souhaitons estimer les paramètres de la fonction de production en utilisant les données américaines.
En Log-linéarisant nous obtenons,

Comme le progrès technique n’est pas observable, nous ne disposons pas de données relatives à et donc ne
nous la prendrons pas en compte.
En utilisant les données américaines entre 1949-1978 (voir Kendrick et Grossman, 1980). Nous obtenons le
résultat suivant

232
8. La question des proxy

Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

L’examen du résultat montre que le capital capte l’effet du progrès technique. Son coefficient est trop élevé
(l’estimateur est baisé).
- D’abord sa valeur est supérieure à 1. Une hausse du capital (pour travail constant) augmente le revenu
de manière plus que proportionnelle. Mais normalement il y’a productivité marginale décroissante du
capital
- La part du revenu du capital dans le revenu national est supérieure à 1 ce qui n’est pas possible.

Cette régression n’est pas satisfaisante sur le plan économique

233
8. La question des proxy

Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

- Il est préférable de refaire la régression mais en choisissant une proxy pour le progrès technique.
- Un choix possible, et souvent utilisé, est le temps. Ainsi, la variable est introduite
- Elle prend les valeurs 1 en 1949, 2 en 1950 et ainsi de suite.

L’utilisation des MCO rend le résultat suivant :

Ainsi, lorsque la variable temps est introduite (elle est corrélée au progrès technique), la variable capital
cesse d’être une proxy et elle n’est plus biaisée.
Sa valeur est maintenant plus raisonnable (< 1).

234
8. La question des proxy

Exemple 2 (estimation élasticité prix)

Nous souhaitons estimer l’élasticité prix de la demande de biens alimentaires. Pour ce faire nous régressons
la demande de biens alimentaire, sur le revenu disponible des ménages et l’indice des prix des biens
alimentaires.

Nous estimons le modèle suivant :

Données Fichier Excel exemple


Voir sortie Eviews

235
8. La question des proxy

Exemple 2 (estimation élasticité prix)

Lorsque nous utilisons les données réelles de l’indice des prix et du revenu disponible (fichier Exemple
demande BA) nous obtenons le résultat suivant :

(0,000) (0,000) (0,000)

Les valeurs en (.) désignent les probabilités


La régression est satisfaisante. Le R2 est élevé, les coefficients sont significatifs et présentent les bons signes
La demande des produits alimentaires est très élastique
- Une hausse de 1% du prix fait baisser la demande de 22,5%
- Une hausse de 1% du RD fait augmenter le revenu de 15,28%

236
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.

Voir sortie eviews

237
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.

Nous obtenons

(0,000) (0,000)

Les valeurs en (.) désignent les probabilités


Les résultats sont contre intuitifs.
On obtient une élasticité positive ce qui n’a pas de sens.
Le R2 est plus faible
Le coefficient du prix a été tellement surestimé qu’il est devenu positif (estimateur biaisé)

238
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).

Voir sortie Eviews

239
8. La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).

Nous obtenons

(0,000) (0,000)

Les valeurs en (.) désignent les probabilités


Lorsqu’on utilise le temps comme une proxy du revenu disponible qui présente une tendance haussière on
arrive à avoir des estimateurs non biaisé et un R2 assez élevé.
L’élasticité prix est proche de la première estimation

240
9. Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait

En utilisant les données américaines 1959-1983, nous obtenons le résultat suivant

241
9. Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait

En utilisant les données américaines 1959-1983 (fichier Excel Exemple demande logement), nous obtenons
le résultat suivant

Dependent Variable: DEMANDE


Method: Leas t Squares
Date: 04/19/22 Tim e: 13:14
Sam ple: 1959 1983
Included obs ervations : 25

Variable Coefficient Std. Error t-Statis tic Prob.

C -1.566390 1.768164 -0.885885 0.3853


RD 1.179237 0.052038 22.66105 0.0000
PR -0.343885 0.316179 -1.087630 0.2885

R-s quared 0.991977 Mean dependent var 4.666162


Adjus ted R-s quared 0.991248 S.D. dependent var 0.329797
S.E. of regres s ion 0.030853 Akaike info criterion -4.007008
Sum s quared res id 0.020942 Schwarz criterion -3.860743
Log likelihood 53.08760 Hannan-Quinn criter. -3.966440
F-s tatis tic 1360.143 Durbin-Wats on s tat 0.351347
Prob(F-s tatis tic) 0.000000

242
9. Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

243
9. Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

Dependent Variable: DEMANDE


Method: Leas t Squares
Date: 04/19/22 Tim e: 13:17
Sam ple (adjus ted): 1960 1983
Included obs ervations : 24 after adjus tm ents

Variable Coefficient Std. Error t-Statis tic Prob.

C 0.872691 1.849122 0.471949 0.6418


RD(-1) 1.086483 0.056084 19.37227 0.0000
PR(-1) -0.731941 0.326046 -2.244897 0.0357

R-s quared 0.993896 Mean dependent var 4.689367


Adjus ted R-s quared 0.993315 S.D. dependent var 0.315353
S.E. of regres s ion 0.025784 Akaike info criterion -4.361668
Sum s quared res id 0.013961 Schwarz criterion -4.214412
Log likelihood 55.34002 Hannan-Quinn criter. -4.322601
F-s tatistic 1709.763 Durbin-Wats on s tat 0.445064
Prob(F-s tatis tic) 0.000000

244
9. Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

245
9. Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

Dependent Variable: DEMANDE


Method: Least Squares
Date: 04/19/22 Time: 13:17
Sample (adjusted): 1961 1983
Included observations: 23 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 3.280224 1.682885 1.949168 0.0654


RD(-2) 0.988153 0.052441 18.84303 0.0000
PR(-2) -1.105551 0.294248 -3.757212 0.0012

R-squared 0.995455 Mean dependent var 4.712431


Adjus ted R-squared 0.995000 S.D. dependent var 0.301031
S.E. of regression 0.021286 Akaike info criterion -4.740463
Sum s quared res id 0.009062 Schwarz criterion -4.592355
Log likelihood 57.51533 Hannan-Quinn criter. -4.703214
F-statistic 2190.108 Durbin-Watson stat 0.793382
Prob(F-statistic) 0.000000

246
10. Régression sur variables qualitatives

Il peut arriver que les variables explicatives soient qualitatives et non mesurables.

Voici quelques exemples

- Si on régresse le salaire sur le nombre d’années d’études et que dans notre échantillon il y a des hommes
et des femmes, on pourrait être tenté de savoir si le sexe influence cette relation

- Lorsqu’on examine les effets de l’investissement direct étranger sur le PIB et que dans l’échantillon
nous avons des pays développés et des pays en développement et qu’on souhaite connaitre l’impact des
FDI sur la croissance selon le niveau de développement

247
10. Régression sur variables qualitatives
Un moyen simple de traiter ce problème est de réaliser deux régressions en scindant l’échantillon en deux
sous-ensembles et de comparer les coefficients obtenus

- Dans le premier cas, une régression avec un échantillon composé d’hommes et un échantillon composé
de femmes

- Dans le second cas, une régression avec un échantillon composé de pays développé et une régression
avec un échantillon composé de pays en développement

L’autre moyen et de réaliser une régression avec un seul échantillon et d’évaluer l’effet des variables
qualitatives par le concept de variables muettes ou factices (dummy variables).

La deuxième méthode est meilleure dans la mesure où on travaille avec l’échantillon dans sa globalité
(échantillon de plus grande taille plus de degrés de libertés).

248
10. Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
nouveaux nés. L’étude a porté sur plus de 900 naissances. Ici, nous avons retenu 20 observations
Nous allons commencer par la relation suivante :

Dans cette relation y représente le poids des bébés (en grammes) et x le nombre de cigarettes fumées par jour
par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu le résultat
suivant : Voir sortie Eviews

249
10. Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
bébés. L’étude à porté sur plus de 900 naissances. Ici 20 observations
Nous allons commencer par la relation suivante :

Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par jour
par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu la régression
suivante :

∗∗∗ ∗∗∗
avec

Ainsi, un bébé né d’une femme non fumeuse pèse 3,60 kg et que chaque cigarette fumée fait perdre au bébé
17,463 grammes.

250
10. Régression sur variables qualitatives
On souhaite maintenant connaître l’effet, sur le poids des bébés, d’être le premier né ou avoir déjà des frères
et sœurs. La variable est qualitative
On peut modéliser cette situation comme suit
premier né
fratrie

- Notons que les deux équations présentent la même pente et des intercepts différents.
- Cela revient à supposer que le fait que l’enfant soit le premier né ou non affecte le poids de base du bébé
et non l’effet des cigarettes fumées par la maman
Un autre moyen de modéliser le problème est de l’écrire comme suit

L’idée est de scinder le poids basique des nouveaux nés ayant déjà des frères et sœurs en deux parties : le
poids basique des enfants premiers nouveaux nés et un supplément de poids (qui peut être négatif)

251
10. Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit

Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un premier
né et 1 lorsqu’il fait partie d’une fratrie.

252
10. Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit

Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un premier
né et 1 lorsqu'il fait partie d’une fratrie.
Les résultats de la régression est donné par

∗∗∗ ∗∗∗ ∗∗∗

Ainsi la variation du poids du fait de ne pas être le premier né est de 234,8 grammes.
Ainsi l’équation précédente pourrait s’écrire.

premiers nés
fratrie
253
10. L’exemple des séries temporelles

Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.
DDE RD
1963 18,5 542,3
1964 19,7 580,8
1965 23,5 616,3
1966 23,6 646,8
1967 22,2 673,5
1968 26,5 701,3
1969 26,7 722,5
1970 22,7 751,6
1971 28 779,2
1972 31,6 810,3
1973 33,9 865,3
1974 25,5 858,4
1975 25,4 875,4
1976 31,1 906,8
1977 34,4 942,9
1978 34,8 988,8
1979 32,9 1015,5
1980 28,7 1021,6
1981 29,6 1049,3
1982 29,8 1058,3
254
10. L’exemple des séries temporelles

On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982
DDE RD DD
1963 18,5 542,3 0
1964 19,7 580,8 0
1965 23,5 616,3 0
1966 23,6 646,8 0
1967 22,2 673,5 0
1968 26,5 701,3 0
1969 26,7 722,5 0
1970 22,7 751,6 0
1971 28 779,2 0
1972 31,6 810,3 0
1973 33,9 865,3 0
1974 25,5 858,4 1
1975 25,4 875,4 1
1976 31,1 906,8 1
1977 34,4 942,9 1
1978 34,8 988,8 1
1979 32,9 1015,5 1
1980 28,7 1021,6 1
1981 29,6 1049,3 1
1982 29,8 1058,3 1
255
10. L’exemple des séries temporelles

Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.

On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982

Ainsi, pour la période 1963-1973, nous avons

Et pour la période 1974-1982, nous avons

Bien entendu on doit s’attendre à un coefficient négatif pour .

256
10. L’exemple des séries temporelles
L’utilisation des données rend le résultat suivant :

Avec un
Ainsi, l’intercept entre 1963 et 1973 est égal à 0,14 et -4,43 entre 1974 et 1982
Le test de Student montre que le changement est significatif au seuil 10%

257
10. Le cas des variations saisonnières
Lorsque les données sont disponibles, les chercheurs préfèrent travailler avec des données trimestrielles
plutôt qu’avec des données annuelles. Cela leur procure 4 fois plus d’observations. Cependant il peut arriver
que la saison (le trimestre) ait un effet important. Il es alors nécessaire de prendre en compte l’effet de la
saison.

Le tableau suivant donne la consommation du gaz et électricité aux EU

1977T1 7,33 1979T1 7,96 1981T1 8,04


1977T2 4,7 1979T2 5,01 1981T2 5,27
1977T3 5,1 1979T3 5,05 1981T3 5,51
1977T4 5,46 1979T4 5,59 1981T4 6,04
1978T1 7,65 1980T1 7,74 1982T1 8,26
1978T2 4,92 1980T2 5,1 1982T2 5,51
1978T3 5,15 1980T3 5,67 1982T3 5,41
1978T4 5,55 1980T4 5,92 1982T4 5,83

258
10. Le cas des variations saisonnières

259
10. Le cas des variations saisonnières
Nous allons considérer le premier trimestre comme notre référence et introduire des variables muettes pour
estimer les différences entre les estimations relatives à ce premier trimestres et aux autres.
Notre modèle s’écrit comme suit

est égal à 1 quand l’observation concerne un deuxième trimestre et 0 par ailleurs


est égal à 1 quand l’observation concerne un troisième trimestre et 0 par ailleurs
est égal à 1 quand l’observation concerne un troisième trimestre et 0 par ailleurs
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au deuxième trimestre par
rapport au premier trimestre
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au troisième trimestre par
rapport au premier trimestre
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au quatrième trimestre par
rapport au premier trimestre
Les données sont comme suit

260
10. Le cas des variations saisonnières
Année DEP t D2 D3 D4
1977T1 7,33 1 0 0 0
1977T2 4,7 2 1 0 0
1977T3 5,1 3 0 1 0
1977T4 5,46 4 0 0 1
1978T1 7,65 5 0 0 0
1978T2 4,92 6 1 0 0
1978T3 5,15 7 0 1 0
1978T4 5,55 8 0 0 1
1979T1 7,96 9 0 0 0
1979T2 5,01 10 1 0 0
1979T3 5,05 11 0 1 0
1979T4 5,59 12 0 0 1
1980T1 7,74 13 0 0 0
1980T2 5,1 14 1 0 0
1980T3 5,67 15 0 1 0
1980T4 5,92 16 0 0 1
1981T1 8,04 17 0 0 0
1981T2 5,27 18 1 0 0
1981T3 5,51 19 0 1 0
1981T4 6,04 20 0 0 1
1982T1 8,26 21 0 0 0
1982T2 5,51 22 1 0 0
1982T3 5,41 23 0 1 0
1982T4 5,83 24 0 0 1
261
10. Le cas des variations saisonnières

Les résultats de la régression son comme suit

Dependent Variable: DEP


Method: Least Squares
Date: 04/22/22 Time: 13:31
Sample: 1 24
Included observations : 24

Variable Coefficient Std. Error t-Statistic Prob.

C 7.482518 0.075929 98.54636 0.0000


T 0.031589 0.004329 7.297479 0.0000
D2 -2.776589 0.083752 -33.15244 0.0000
D3 -2.578179 0.084087 -30.66080 0.0000
D4 -2.193101 0.084642 -25.91019 0.0000

R-squared 0.986654 Mean dependent var 5.990417


Adjusted R-squared 0.983844 S.D. dependent var 1.139762
S.E. of regress ion 0.144869 Akaike info criterion -0.842920
Sum s quared resid 0.398754 Schwarz criterion -0.597492
Log likelihood 15.11504 Hannan-Quinn criter. -0.777808
F-s tatistic 351.1631 Durbin-Watson s tat 1.174124
Prob(F-statistic) 0.000000

262
10. Le cas des variations saisonnières

Les résultats de la régression sont comme suit

On peut alors obtenir les estimation pour chaque trimestre

On voit que la consommation est la plus importante pour le premier et le quatrième trimestre

Ce qui est tout à fait cohérent

263
11. Application 1. validation empirique du modèle de Solow ?

Economiste américain
Travaux sur la théorie de la croissance, résidu de Solow
Paradoxe productivité
Prix Nobel 1987 pour ces travaux.

Robert Solow (1956) « A Contribution to the Theory of Economic Growth », QJE (42 992 citations)
Robert Solow (1957) « Technical Change and the Aggregate Production Function», RES (22 920
citations)
264
Présentation du modèle

- Apportent une première explication aux écarts de développement et de taux de croissance entre
pays
- Constituent les bases de la théorie de la croissance
- Courant néoclassique (post keynésien)
Le modèle de Solow utilise deux équations ; la fonction de production et celle d’accumulation du
capital. L’ économie produit un bien composite en quantité Y à partir de deux facteurs primaires K
et L selon une technologie à rendements constants
Hypothèses :
- Economie fermée et absence de l’Etat I = S
- L’épargne est une fraction fixe s du revenu S = s Y
- Fonction de production néoclassique Y = F (K, L)
* substitution entre capital et travail
* PmF décroissantes (Hypothèse très importante)
* Rendements constants
265
Présentation du modèle
Exemple : Fonction de production Cobb-Douglas

Que représente L dans cette fonction ?


L est le nombre de travailleurs efficients

est l’efficience du travail


La fonction de production s’écrit

L’efficience s’accroit au taux g et la population au taux n

Le travail efficace croit alors au taux n + g

266
Pour simplifier, nous présentons toutes les variables par rapport au volume de la force de travail efficient

Ainsi, on pose et

Le revenu par habitant est donné par

La production (le revenu) par travailleur efficient est donc donnée par

Par la suite nous retenons comme exemple la fonction Cobb-Douglas

267
La fonction de production

Production par travailleur

Capital par travailleur k

268
La fonction de production

Production par travailleur

Production y = f(k)

Capital par travailleur k

269
La fonction de production

y
Production y = f(k)
Production par travailleur

Rendement marginal décroissant :


Chaque unité de capital supplémentaire
décroit la PmK
1

k
Capital par travailleur

270
L ’accumulation du capital physique

La seconde équation de Solow décrit l’accumulation du capital physique


Le point de départ est la demande de biens et services (identité comptable = équilibre sur le marché des
biens)
y  c i

Les individus épargnent une fraction constante s du revenu et consomment la fraction restante (1-s)
c  (1 s) y

y  (1  s ) y  i

i  sy i  sf ( k )

L’accumulation du capital est donnée par l’investissement sf ( k )


diminué de l’investissement stabilisateur (consommation du capital) (  n  g )k

 k  sf ( k )  (   n  g ) k
271
Production, consommation et investissement

k
Capital par travailleur efficient

272
Production, consommation et investissement

Production y = f(k)

k
Capital par travailleur efficient

273
Production, consommation et investissement

Production y = f(k)

Investissement i= s × f(k)

k
Capital par travailleur efficient

274
Production, consommation et investissement

Production y = f(k)

Production par
travailleur efficient

y Investissement i= s × f(k)

k
Capital par travailleur efficient

275
Production, consommation et investissement

Production y = f(k)

Production par
Consommation par
travailleur efficient
travailleur efficient

c
y Investissement i= s × f(k)

Investissement par
i travailleur efficient

k
Capital par travailleur efficient

276
Consommation du capital

Consommations de capital (δ+ n + g)k


Consommation de capital

Dépense nécessaire pour maintenir


constant le niveau de capital par
travailleur

k
Capital par travailleur efficient

277
Investissement, amortissement et état stationnaire

Consommations de capital
(δ+n+g)×k

Investissement
i = s×f(k)

278
Investissement, amortissement et état stationnaire

Consommations de capital
(δ+n+g)×k

Investissement
(δ+n+g)×k*=i*
i = s×f(k)

k*
Niveau stationnaire du
capital par travailleur

279
Investissement, amortissement et état stationnaire

Consommations de capital
(δ+n+g)×k

(δ+n+g)×k*=i* Investissement

i1 i = s×f(k)

(δ+n+g)k1

k1 k*
Le stock de capital augmente car Niveau stationnaire du
l’investissement est supérieur à la capital par travailleur
consommation de capital

280
Investissement, amortissement et état stationnaire

Consommations de capital
(δ+n+g)×k

(δ+n+g)k2

i2
(δ+n+g)×k*=i* Investissement

i1 i = s×f(k)

(δ+n+g)k1

k1 k* k2
Le stock de capital augmente car Niveau stationnaire du Le stock de capital baisse car
l’investissement est supérieur à la capital par travailleur l’investissement est inférieur à la
consommation de capital consommation de capital
281
Il existe un seul état stationnaire

- Lorsque cet état est atteint le stock de capital par travailleur est stable
- Une économie qui n’a pas atteint ce stock tend vers lui

c/c : toute économie atteint un jour son état stationnaire : c’est l’équilibre de long terme

Exemple : la croissance importante de l’Allemagne et du Japon après la seconde guerre mondiale. La destruction
du stock de capital qui passe de k* à k1

282
Effet d’une hausse du taux d’épargne

Investissements Consommation de capital


(δ+n+g)k

Capital par travailleur (k)

283
Effet d’une hausse du taux d’épargne

Investissements Consommation de capital


(δ+n+g)k

s1×f(k)

k1* Capital par travailleur (k)

284
Effet d’une hausse du taux d’épargne

Investissements Consommation de capital


(δ+n+g)k

s2×f(k)

s1×f(k)

…augmente le stock de
capital de l’état stationnaire.

k1* k2* Capital par travailleur (k)

Ancien état Nouvel état


stationnaire stationnaire

285
Taux d’investissement et revenu par habitant

LUX
40000

Maroc USA
30000
Revenu par habitant en 1999

CANDNK AUS NOR


CHE
IRL HKGISL JPN
NLD
SWEBEL AUT FIN
MAC GERITA
GBR FRA
20000

NZL
ESP
ISR
ATG BRB PRT SVN
K KOR
GRC
MUS CZE
SVK
10000

TTO ARG
SYC
URY CHL MYSHUN
GABEST HRV MEX POL
LVA ZAF LTU BWA RUS BLR
BRA
KAZ
VCT TUR
BLZ
LCA TUN
VEN THA
GEOBGR LBN
COL CRI FJI IRN PAN
GRD
SWZ
SLV GTM PRY MKD
DOM DZA
UKR M PER ROM
EGY SYRMAR
JOR
IDN CHN CPV
PHL JAM
GUY
ECU
KGZ LKABOL
ALBGIN
PNG
ARM
INDPAK AZE ZWE
CMR
COM
SEN MDA
CIV TJK GNQ HND KEN LSO COG
UGA
MOZ
MDGETHKHM
RWA MRT
GMB
BDI BEN
MLI
YEMTGO
NGA
NER BFA BGDNIC
TCD NPL
GHA MWI ZMB
GNB TZA
0

0 10 20 30 40
Investissement en pourcentage de la production (1960-1999)

286
Epargne et croissance économique

- Un taux d’épargne important signifie un stock de capital important et une production importante de biens et
services
- Une épargne importante accélère la croissance économique mais de manière transitoire
- La croissance augmente jusqu’à ce que l’économie atteigne son état stationnaire
- L’épargne affecte le niveau du revenu par habitant mais pas son taux de croissance (il explique les écarts de
revenus mais pas les taux de croissance). Différence avec le modèle de Harrod-Domar
- Pour agir sur le taux de croissance de ce revenu il faut mettre en place des politiques économiques
appropriées (lesquels ?)

Mais alors qu’est ce qui explique ces différences au niveau des taux d’épargne et d’investissement ?

- Politiques économiques, développement des marchés financiers, qualité des institutions, etc. ?
- Le sens de la causalité ? Epargne et investissement déterminent – ils le revenu ou l’inverse ?

287
Effet de la hausse de la croissance démographique

Investissements

(δ+g+n1)×k

s×f(k)

k1* k
Capital par
travailleur

288
Effet de la hausse de la croissance démographique

Investissements
1. Une croissance
démographique plus
forte…
(δ+g+n1)×k

s×f(k)

k1* k
Capital par
travailleur

289
Effet de la hausse de la croissance démographique

Investissements

2... diminue le stock de 1. Une croissance


capital par travailleur… (δ+g+n2)×k démographique plus
forte…
(δ+g+n1)×k

s×f(k)

k2* k1* k
Capital par
travailleur

290
Effet de la hausse de la croissance démographique

Investissements

2... diminue le stock de 1. Une croissance


capital par travailleur… (δ+g+n2)×k démographique plus
forte…
(δ+g+n1)×k

s×f(k)
Le modèle de Solow
prédit donc que les
pays à fort taux de
croissance
démographique
auront, ceteris
paribus, un revenu
par habitant plus
faible.

k2* k1* k

3. …et donc réduit le stock de capital Capital par


qui correspond à l’état stationnaire travailleur
de l’économie.

291
Taux de croissance démographique et revenu par
habitant

LUX

40000

USA
Maroc
Revenu par habitant en 2000
30000

IRL NOR
DNK CHE CAN
AUS
JPN
NLD ISL
BEL FIN
AUT
GBR
ITA FRA
20000

NZL
ESP
ISR
PRT
MUS
10000

TTO ARG
URY
MEX
THAZAF
BRA
TUR VEN
PAN
COL CRI
S
EGY PER
LV
LKA MAR PHL GTM
IND BOL HND
PAK NIC KEN
ETH NGA UGA
0

0 1 2 3
Croissance démographique (taux de croissance annuel moyen)

292
Taux de croissance démographique et revenu par habitant

- Selon le modèle de Solow la croissance démographique peut expliquer les écarts de revenus mais
pas les taux de croissance
- Une forte croissance démographique réduit le stock de capital à l’état stationnaire
- Les données montrent un lien négatif entre taux de croissance démographique et revenu par
habitant
- Le modèle de Solow fait de bonnes prédictions
- Politiques économiques de planning familial ?
- Aujourd’hui on croit à un sens de causalité inverse : parce que les pays sont riches que la croissance
démographique est faible
- Politiques économiques en faveur de la natalité

293
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

294
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

sk   (n    g )k  0

295
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

sk   (n    g )k  0

sk   (n    g ) k

296
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

sk   (n    g )k  0

sk   (n    g ) k sk  1  (n    g )

297
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

sk   (n    g )k  0

sk   (n    g ) k sk  1  (n    g )

1
 s  1
k LT   
 n    g 

298
3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

y  k

k  sf (k )  (n    g )k  0

sk   (n    g )k  0

sk   (n    g ) k sk  1  (n    g )

1
 s  1
kes   
 n    g 


 s  1
yes   
 n   g 

299
3. Confrontations aux données

Si on remplace dans la fonction de production et on introduit le logarithme des deux côtés nous obtenons

Le reflète non seulement l’état de la technologie mais aussi les ressources, le climat, les institutions, etc.
Donc il diffère d’un pays à un autre.

On peut écrire

Ainsi le modèle économétrique s’écrit

Ainsi le modèle prédit


- Un effet positif de l’épargne (investissement) sur le revenu par tête
- Un effet négatif du taux de croissance de la population sur le revenu par tête
- Les coefficients des deux variables explicatives (les élasticités) sont identiques
- Comme , le modèle prédit des élasticité de 0,5 et de – 0,5
300
1. Introduction

Le modèle de Solow en utilisant


-Une fonction de production néoclassique avec deux facteurs de production (capital physique et travail)

Yt  F ( K t , At Lt )  K t ( At Lt )1

- Un taux d’épargne exogène

Montre que Chapitre 3. Le modèle de Solow avec


capital humain
- Le taux d’épargne et le taux de croissance démographique expliquent les écarts de revenus par habitant entre nations
- Seul le progrès technologique permet d’expliquer le taux de croissance économique de long terme

301
1. Introduction
La confrontation du modèle de Solow aux données a posé deux principaux problèmes :

1. Le modèle sous-estime le rôle de l’épargne et de l’investissement (et de la croissance démographique). Or les études
empiriques montrent que l’investissement joue un rôle important dans l’explication des écarts de revenus
2. Le modèle surestime le rôle du progrès technologique et prédit une convergence qui n’est pas constatée dans la réalité.
Du moins pas aussi rapide que le prédit le modèle

log (sk) 1,42***

log (n+delta+g) -1,98***

R2 ajusté 0,59

Nbre observations 98

Effet positif de l’épargne. R2 est égal à 60% cela signifie que A (efficacité du travail) explique 40% des écarts
Test de Wald confirme l’égalité des coefficients

Alpha est compris entre 0,33 et 0,41 soit une moyenne de 0,37

302
1. Introduction

Le modèle de Solow doit être amélioré. Commet et dans quelle direction ?

La réponse a été apportée par MRW (1992)

Mankiw, Romer et Weil (1992) « A contribution to the empirics of economic growth », AER (25 626 citations)

Ils ont introduit le capital humain dans le modèle de Solow


Chapitre 3. Le modèle de Solow avec
capital humain
Pourquoi et comment ?

303
1. Introduction
Leur point de départ est le suivant : On calcule la vitesse de convergence chez Solow

 k  k *
G * (k )  (1   )(  n  g ) 
 k* 

  (1   )(  n  g )

𝛼 = 0,3 𝛿 = 0,04 𝑛 = 0,01 𝑔 = 0,02

𝜆 = 0,049 = 4,9, %

Chaque année l’économie comble 5,95% de l’écart restant à combler par rapport à l’état stationnaire
On peut calculer en combien de temps une économie aura comblé la moitié de son écart par rapport à son état
stationnaire.
Il faut résoudre

ln( 0,5) 0,6931


𝑡= = = 14 𝑎𝑛𝑠
𝜆 0,049

Ceci est clairement irréaliste. C’est trop rapide. On n’observe pas ça empiriquement

304
1. Introduction
Leur point de départ est le suivant :
On a montré que la vitesse de convergence dans le modèle de Solow est donnée par

  (1   )(n  g   )

- Les valeurs retenues pour n, g et  sont réalistes


- Plus  est élevé plus la convergence est lente et le modèle de Solow devient plus réaliste
- Plus  est élevé plus le capital est productif relativement au travail plus il aura tendance à s’accumuler. Ce qui
Chapitre 3. Le modèle de Solow avec
prend du temps. Donc plus ce paramètre est élevé plus la convergence est faible.
capital
- Pour rendre le modèle de Solow plus réaliste  doit humain
augmenter. Mais comment ?
- Si on peut trouver un autre type de capital avec une élasticité  qui s’accumule mais où les revenus vont aux
travailleurs on aura donc pour le revenu du capital

   

Ce capital existe : c’est le capital humain

C ’est cette idée qui a poussé MRW à ajouter le capital humain au modèle de Solow

305
5. Confrontations aux données

Résultats du travail de MRW(1992)

Sans capital humain


log (sk) 1,42***
log (n+delta+g) -1,98***
R2 ajusté 0,59
Nbre observations 98

Effet positif de l’épargne. R2 est égal à 59% cela signifie que A explique 41% des écarts

Avec capital humain

log (sk) 0,69***


log (n+delta+g) -1,74***
log (sh) 0,65***
R2 ajusté 0,78
Nbre observations 98

Le capital humain explique une partie. Vitesse de convergence plus lente (3,5% au lieu de 5,35%)
R2 0,78. Cela signifie que le A explique 32% seulement des écarts de revenus
306
3. Confrontations aux données
MRW(1992) introduisent un troisième facteur : le capital humain

𝑌 = 𝐾 𝐻 (𝐴 𝐿 )
Le revenu d’équilibre est donné par
ln( 𝑦) = 𝛽 + 𝛽 ln( 𝑠 ) + 𝛽 ln( 𝑛 + 𝛿 + 𝑔) + 𝛽 ln( 𝑠 ) + 𝜀
-MRW(1992) prédisent des paramètres 𝛽 ,𝛽 ,𝛽
Dependent Variable: GDP
Method: Least Squares
Date: 04/20/21 Time: 15:36
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.

C 6.938353 1.126200 6.160855 0.0000


INV 0.710886 0.164554 4.320074 0.0000
POP -0.862911 0.479046 -1.801312 0.0746
HC 0.686682 0.086412 7.946622 0.0000

R-squared 0.673093 Mean dependent var 8.123731


Adjusted R-squared 0.663478 S.D. dependent var 1.118648
S.E. of regression 0.648934 Akaike info criterion 2.010034
Sum squared resid 42.95375 Schwarz criterion 2.110541
Log likelihood -102.5318 Hannan-Quinn criter. 2.050770
F-statistic 70.00496 Durbin-Watson stat 1.956580
Prob(F-statistic) 0.000000

- L’explication des différences de développement entre les nations est améliorée


- Les différences d’accumulations du capital humain contribue a expliquer les différences de revenus
- Le modèle explique maintenant 66,3% de la réalité alors que le modèle de Solow n’explique que 46% de la réalité
- Les valeurs de paramètres sont pratiquement identiques comme le prédit la théorie

307
Chapitre 3. Variations autour du modèle
linéaire multiple

308
Introduction

- Les propriétés des estimateurs dépendent des propriétés de l’erreur


- Jusqu’à présent nous avons supposé que l’erreur satisfait toutes les conditions de Gauss-
Markov
- Dans ce chapitre nous allons examiner ce que devient le modèle linéaire si une ou plusieurs
conditions ne sont pas satisfaites.

Pour chacune des conditions nous allons examiner, à chaque fois que c’est possible, les éléments
suivants :

- Comment savoir si une des conditions est vérifiée ou non ?


- Les causes de la violation de la condition
- Les conséquences sur les coefficients, les écart-types etc.
- Les solutions

309
3.1. La nullité de la moyenne des erreurs

Bien entendu, il n’est pas possible de savoir si

C’est pourquoi on examine la validité de cette condition au niveau des résidus.


Nous devons avoir

En réalité à chaque fois que le modèle contient une constante on est sûr que cette condition est
vérifiée

310
3.2. Absence d’autocorrélation
Les erreurs ne doivent pas être corrélées entre elles

On examine les résidus


𝜀
𝜀

0 0

Autocorrélation positive 𝜀
Autocorrélation négative

0 Absence d’autocorrélation

311
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test h de Durbin, test LM

312
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM

Le test de Durbin Watson permet de détecter les autocorrélations d’ordre 1.


Supposons que le vrai modèle est donné par
(1)

Et que (2)

313
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM

Le test de Durbin Watson permet de détecter les autocorrélations d’ordre 1.


Supposons que le vrai modèle est donné par
(1)

Et que (2)

L’équation (2) décrit un modèle auto-régressif d’ordre 1 noté AR(1)


Un modèle AR(p) est donné par

314
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
-Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et
notée MA(q).
-Si nous avons par exemple MA(3), elle s’écrit

-Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p ,
q)

315
3.2. Absence d’autocorrélation
Détection de l’autocorrélation
- Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et
notée MA(q).
- Si nous avons par exemple MA(3), elle s’écrit

- Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p , q)
- Supposons que notre autocorrélation est de type AR(1)

𝜀 = 𝜌𝜀 +𝜐

- Si 𝜌 > 0 on a une autocorrélation positive


- Si 𝜌 < 0 on a une autocorrélation négative
- Si 𝜌 = 0 on n’a pas d’autocorrélation
316
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester

𝐻 : 𝜌=0
𝐻: 𝜌≠0

317
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester

La statistique de DW est donnée par

318
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester

La statistique de DW est donnée par

Si n est très grand alors

319
3.2. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester

La statistique de DW est donnée par

Si n est très grand alors

- Si pas d’autocorrélation
- Si autocorrélation positive
- Si autocorrélation négative

Ainsi 0 2 4

Auto. + Pas d’auto. Auto. -

320
3.2. Absence d’autocorrélation
Pour décider de manière formelle, on compare la statistique de Durbin Watson à un intervalle [𝑑, 𝑑] qui dépend
des paramètres 𝛼, 𝑘, 𝑛 dont les valeurs sont lues sur une table de Durbin-Watson

Exemple. n= 106 𝑘=2 𝛼 = 0,05

La table de Durbin Watson rend l’intervalle [1,63; 1,72]

1,63 1,72 2,28 2,37


Ainsi
0 2 4

Autocorrélation
Absence négative
Autocorrélation d’autocorrélation
positive

321
Alpha = 0,05 Table de DW

322
3.2. Absence d’autocorrélation
Reprenons notre exemple relatif au modèle de Solow

Dependent Variable: GDP


Method: Least Squares
Date: 04/20/21 Time: 15:37
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.

C 5.642796 1.411028 3.999069 0.0001


INV 1.470884 0.169561 8.674645 0.0000
POP -0.793577 0.606490 -1.308474 0.1936

R-squared 0.470702 Mean dependent var 8.123731


Adjusted R-squared 0.460425 S.D. dependent var 1.118648
S.E. of regression 0.821712 Akaike info criterion 2.473040
Sum squared resid 69.54667 Schwarz criterion 2.548420
Log likelihood -128.0711 Hannan-Quinn criter. 2.503592
F-statistic 45.79871 Durbin-Watson stat 1.398609
Prob(F-statistic) 0.000000

- La statistique du DW est donnée par 1,398


- Pour qu’il y ait absence d’autocorrélation la statistique de DW doit être comprise entre 1,72 et 2,28
- Le DW appartient à l’intervalle [0 ; 1,63] : il y a autocorrélation positive
323
3.2. Absence d’autocorrélation

Conditions d’utilisation du test DW

- Le modèle doit comporter une constante sinon il utiliser une table de DW spécifique aux
modèles sans constantes
- La variable expliquée retardées ne doit pas figurer parmi les variables explicatives (modèles
dynamiques). Dans ce cas on peut utiliser le test h de Durbin
- Pour les données en coupe instantanée, elles doivent être ordonnées de manière croissante (ce
n’est pas le cas chez nous)
- Le nombre d’observations doit dépasser 15

324
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et

Bruit blanc gaussien

325
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et

Si le modèle est vrai pour t, il l’est aussi pour t -1

326
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
Si le modèle est vrai pour t, il l’est aussi pour t -1

(2)

327
3.2. Absence d’autocorrélation
Conséquences de l’autocorrélation
Les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de faire de
l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
(1)
Et
𝜐 → 𝑁(0, 𝜎 )

(2)
(1)-(2)

328
329
330
331
∗ ∗ ∗

332
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 +𝜐
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 + 𝜀 − 𝜌𝜀
𝑦 − 𝜌𝑦 = 𝛽 (1 − 𝜌) + 𝛽 𝑥 − 𝜌𝛽 𝑥 +𝜐

∗ ∗ ∗

- L’estimation de cette dernière régression par MCO revient à estimer le modèle initial par la
méthode des moindres carrés quasi-différenciés (MCQD)
∗ ∗
- Pour transformer et en et , il faut connaître
- Plusieurs techniques sont utilisées.

- On peut utiliser ou par estimation directe

- A titre d’exemple, nous présentons la procédure de Cochrane-Orcutt (Prais-Winsten plus


efficiente)
333
Reprenons notre exemple de l’élasticité prix de la demande

DW = 0,38429

On peut utiliser pour estimer directement . On trouve

334
Reprenons notre exemple de l’élasticité prix de la demande
Le modèle initial et le modèle transformé (quasi-différence) s’écrit comme suit :

Son estimation par MCO rend


Dependent Variable: DDE-0.807*DDE(-1)
Method: Least Squares
Date: 12/04/23 Time: 10:02 = - 3,872
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments

Variable Coefficient Std. Error t-Statistic Prob. =-20,062


C -3.872661 1.558951 -2.484145 0.0231
PRIX-0.807*PRIX(-1) 4.961927 1.672275 2.967172 0.0083

R-squared 0.328461 Mean dependent var 0.752434 dde = -20,062 + 4,96 prix +
Adjusted R-squared 0.291154 S.D. dependent var 0.131347
S.E. of regression 0.110585 Akaike info criterion -1.471422
Sum squared resid
Log likelihood
0.220124
16.71422
Schwarz criterion
Hannan-Quinn criter.
-1.371848
-1.451984
DW = 1,793
F-statistic 8.804111 Durbin-Watson stat 1.793809
Prob(F-statistic) 0.008253

335
3.2. Absence d’autocorrélation
Estimation directe de par la procédure de Cochrane-Orcutt
Etape 1. Réaliser la régression suivante par MCO :

Etape 2. Utiliser les résidus pour obtenir en estimant par MCO

Etape 3. Utilisation de pour transformer les variables et estimer par MCO la relation

∗ ∗ ∗

La constante est donnée par ∗


)

336
3.2. Absence d’autocorrélation
Reprenons notre exemple de la demande
Etape 1. Réaliser la régression suivante (Y = demande et X = Prix, t = 1980,…, 2000) :

Dependent Variable: DDE


Method: Least Squares
Date: 12/03/23 Time: 08:56
Sample: 1980 2000
Included observations: 21 Dependent Variable: RESIDU
Method: Least Squares
Date: 12/03/23 Time: 08:58
Variable Coefficient Std. Error t-Statistic Prob.
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments
C -13.09420 2.217420 -5.905149 0.0000
PRIX 3.523096 0.465708 7.565026 0.0000 Variable Coefficient Std. Error t-Statistic Prob.

RESIDU(-1) 0.791466 0.135052 5.860437 0.0000


R-squared 0.750753 Mean dependent var 3.677773
Adjusted R-squared 0.737635 S.D. dependent var 0.367112 R-squared 0.643056 Mean dependent var -0.008334
S.E. of regression 0.188041 Akaike info criterion -0.413925 Adjusted R-squared 0.643056 S.D. dependent var 0.183912
Sum squared resid 0.671826 Schwarz criterion -0.314447 S.E. of regression 0.109878 Akaike info criterion -1.530184
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336 Sum squared resid 0.229391 Schwarz criterion -1.480398
Log likelihood 16.30184 Hannan-Quinn criter. -1.520466
F-statistic 57.22962 Durbin-Watson stat 0.384290 Durbin-Watson stat 1.709405
Prob(F-statistic) 0.000000

337
3.2. Absence d’autocorrélation
Reprenons notre exemple de la demande
Etape 2. Générons les nouvelles séries y* et x*

Régressons par MCO y* sur x*, on obtient

Dependent Variable: DDDE


Method: Least Squares
Date: 12/03/23 Time: 09:05
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments
)= -19,49
Variable Coefficient Std. Error t-Statistic Prob.

C -4.075494 1.544789 -2.638220 0.0167


DPRIX 4.846680 1.532066 3.163494 0.0054

R-squared 0.357319 Mean dependent var 0.810811


dde = -19,49 + 4,84 prix +
Adjusted R-squared 0.321615 S.D. dependent var 0.134191
S.E. of regression 0.110525 Akaike info criterion -1.472502
Sum squared resid 0.219886 Schwarz criterion -1.372929
Log likelihood 16.72502 Hannan-Quinn criter. -1.453065
F-statistic 10.00769 Durbin-Watson stat 1.769940 DW = 1,769
Prob(F-statistic) 0.005377

338
3.2. Absence d’autocorrélation
Procédure de Cochrane-Orcutt
Etape 1. Réaliser la régression suivante :

Etape 2. Utiliser les résidus pour obtenir en estimant

Etape 3. Utilisation de pour transformer les variables et estimer la relation

Si le Durbin Watson montre qu’il y a toujours autocorrélation on recommence à partir de


l’étape 3

339
3.2. Absence d’autocorrélation
Procédure de Cochrane-Orcutt

Etape 4. On obtient les résidus et on régresse pour obtenir

Etape 5. On utilise pour transformer les variables

- Si le Durbin Watson montre qu’il y a toujours autocorrélation, il faut aller à la troisième


itérations et ainsi de suite jusqu’à la suppression de l’autocorrélation.
- Sinon on arrête lorsque la différence entre deux rho estimés est assez faible (0,01 par
exemple)

340
3.2. Absence d’autocorrélation
Sur Eviews on peut estimer
Dependent Variable: DDE
Method: ARMA Maximum Likelihood (OPG - BHHH)
Date: 01/02/23 Time: 11:25
Sample: 1980 2000
Included observations: 21
Convergence achieved after 15 iterations
Coefficient covariance computed using outer product of gradients

Variable Coefficient Std. Error t-Statistic Prob.

C -12.01984 7.762397 -1.548470 0.1399


PRIX 3.304724 1.634946 2.021304 0.0593
AR(1) 0.791255 0.472973 1.672941 0.1126
SIGMASQ 0.011304 0.005023 2.250445 0.0379

R-squared 0.911931 Mean dependent var 3.677773


Adjusted R-squared 0.896389 S.D. dependent var 0.367112
S.E. of regression 0.118168 Akaike info criterion -1.216925
Sum squared resid 0.237384 Schwarz criterion -1.017968
Log likelihood 16.77771 Hannan-Quinn criter. -1.173746
F-statistic 58.67660 Durbin-Watson stat 1.663842
Prob(F-statistic) 0.000000

Inverted AR Roots .79

341
3.2. Absence d’autocorrélation
Sur Stata on code prais DDE PRIX, corc
. prais dde prix, corc

Iteration 0: rho = 0.0000


Iteration 1: rho = 0.7915
Iteration 2: rho = 0.7898
Iteration 3: rho = 0.7891
Iteration 4: rho = 0.7889
Iteration 5: rho = 0.7888
Iteration 6: rho = 0.7887
Iteration 7: rho = 0.7887
Iteration 8: rho = 0.7887
Iteration 9: rho = 0.7887
Iteration 10: rho = 0.7887

Cochrane-Orcutt AR(1) regression -- iterated estimates

Source SS df MS Number of obs = 20


F( 1, 18) = 10.18
Model .12440942 1 .12440942 Prob > F = 0.0051
Residual .219882001 18 .012215667 R-squared = 0.3613
Adj R-squared = 0.3259
Total .344291421 19 .018120601 Root MSE = .11052

dde Coef. Std. Err. t P>|t| [95% Conf. Interval]

prix 4.831534 1.513969 3.19 0.005 1.650803 8.012264


_cons -19.42574 7.30288 -2.66 0.016 -34.76852 -4.082959

rho .7887085

Durbin-Watson statistic (original) 0.384290


Durbin-Watson statistic (transformed) 1.766304

342
3.2. Absence d’autocorrélation
Pour les autocorrélations d’ordre supérieur à 1, on peut utiliser le test de Breusch & Godfrey (appelé
test LM)
Considérons le modèle linéaire suivant :

, ,

Les erreurs suivent un processus AR(p)

On définit la régression auxiliaire suivante :

, ,

On peut montrer que

Ainsi, si ou (on ne rejette pas H0) il n’y a pas d’autocorrélation des


erreurs

343
3.2.. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons

Dependent Variable: DDE


Au regard du DW, il est clair qu’il y a
Method: Least Squares autocorrélation (peut être même d’un
Date: 12/27/22 Time: 15:59
Sample: 1980 2000 ordre supérieur à 1).
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob. Pour le vérifier, examinons le


C -13.09420 2.217420 -5.905149 0.0000 corrélogramme et réalisons un test LM
PRIX 3.523096 0.465708 7.565026 0.0000

R-squared 0.750753 Mean dependent var 3.677773


Adjusted R-squared 0.737635 S.D. dependent var 0.367112
S.E. of regression 0.188041 Akaike info criterion -0.413925
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-statistic) 0.000000

344
3.2.. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons

Breusch-Godfrey Serial Correlation LM Test:


Null hypothesis: No serial correlation at up to 2 lags Autocorrélation d’ordre 2
F-statistic 14.51447 Prob. F(2,17) 0.0002
Obs*R-squared 13.24401 Prob. Chi-Square(2) 0.0013

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 12/06/23 Time: 09:20
Sample: 1980 2000
Included observations: 21
Presample missing value lagged residuals set to zero.
13,24 = 0,6306 * 21
Variable Coefficient Std. Error t-Statistic Prob.

C -0.223033 1.431559 -0.155797 0.8780


PRIX 0.047392 0.300696 0.157607 0.8766
RESID(-1) 0.931719 0.238606 3.904845 0.0011
RESID(-2) -0.179379 0.242095 -0.740944 0.4688

R-squared 0.630667 Mean dependent var 1.70E-15 Pvalue << 0,05 on


Adjusted R-squared
S.E. of regression
0.565491
0.120813
S.D. dependent var
Akaike info criterion
0.183279
-1.219506 rejette H0 absence
Sum squared resid
Log likelihood
0.248127
16.80481
Schwarz criterion
Hannan-Quinn criter.
-1.020549
-1.176327
d’autocorrélation
F-statistic 9.676313 Durbin-Watson stat 1.936939
Prob(F-statistic) 0.000591

345
3.2. Absence d’autocorrélation
Reprenons notre exemple demande et régressons la demande sur les prix. Nous obtenons

Date: 12/27/22 Time: 16:03


Sample: 1980 2000 Breusch-Godfrey Serial Correlation LM Test:
Included observations: 21 Null hypothesis: No serial correlation at up to 2 lags
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
F-statistic 14.51447 Prob. F(2,17) 0.0002
Obs*R-squared 13.24401 Prob. Chi-Square(2) 0.0013
1 0.780 0.780 14.686 0.000
2 0.535 -0.187 21.952 0.000 Test Equation:
3 0.293 -0.148 24.253 0.000 Dependent Variable: RESID
4 0.052 -0.185 24.331 0.000 Method: Least Squares
Date: 12/27/22 Time: 16:05
5 -0.188 -0.228 25.398 0.000 Sample: 1980 2000
6 -0.422 -0.279 31.144 0.000 Included observations: 21
Presample missing value lagged residuals set to zero.
7 -0.626 -0.309 44.670 0.000
8 -0.553 0.423 56.022 0.000 Variable Coefficient Std. Error t-Statistic Prob.
9 -0.445 -0.075 63.985 0.000
C -0.223033 1.431559 -0.155797 0.8780
10 -0.337 -0.116 68.961 0.000 PRIX 0.047392 0.300696 0.157607 0.8766
11 -0.223 -0.123 71.361 0.000 RESID(-1) 0.931719 0.238606 3.904845 0.0011
RESID(-2) -0.179379 0.242095 -0.740944 0.4688
12 -0.100 -0.128 71.901 0.000

Les probabilités sont largement << 0,05, on rejette H0 (H0: les rho sont nuls) il y a autocorrélation
La probabilité associé à la statistique de Khi-deux est << 0,05 on rejette H0, il y a autocorrélation
346
3.2. Absence d’autocorrélation
Comment corriger l’autoccorélation ? Il suffit de généraliser les procédures précédentes.
Pour une autocorrélation d’ordre 2, Eviews rend

Dependent Variable: DDE


Method: ARMA Maxim um Likelihood (OPG - BHHH)
Date: 12/03/23 Tim e: 14:33
Sam ple: 1980 2000
Included obs ervations : 21
Convergence achieved after 53 iterations
Coefficient covariance com puted us ing outer product of gradients

Variable Coefficient Std. Error t-Statis tic Prob.

C 32.12745 16.33658 1.966596 0.0680


PRIX -20.10963 8.796311 -2.286144 0.0372
RD 13.86197 5.312563 2.609281 0.0197
AR(1) 0.349544 0.392275 0.891070 0.3870
AR(2) -0.034745 0.531418 -0.065382 0.9487
SIGMASQ 0.008494 0.002814 3.018504 0.0086

R-s quared 0.933827 Mean dependent var 3.677773


Adjus ted R-s quared 0.911769 S.D. dependent var 0.367112
S.E. of regres s ion 0.109046 Akaike info criterion -1.353253
Sum s quared res id 0.178365 Schwarz criterion -1.054818
Log likelihood 20.20916 Hannan-Quinn criter. -1.288485
F-s tatis tic 42.33543 Durbin-Wats on s tat 1.970578
Prob(F-s tatis tic) 0.000000

Inverted AR Roots .17+.06i .17-.06i

347
3.3. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 . Dans ce cas on parle d’un modèle
homoscédastique. Dans le cas contraire on parle de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante
𝜀

. . .. . .
0
. . .. . .
.
Homoscédasticité

348
3.3. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante
𝜀

. .
.. . .
0
. . .
. . .
.
Hétéroscédasticité
349
3.3. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 ) = 𝜎 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante
𝜀

. .
. . ..
0
. .. .
. .
.
hétéroscédasticité
350
3.3. La variance est finie et constante
Considérons un échantillon de 30 observations relatif à deux variables y et x (fichier Excel
hétéroscédasticité)
RESID
Dependent Variable: Y 20
Method: Least Squares
Date: 12/11/23 Time: 09:07
Sample: 1 30
15
Included observations: 30
10
Variable Coefficient Std. Error t-Statistic Prob.
5
C 24.09442 2.397697 10.04898 0.0000
X -4.125322 0.982272 -4.199774 0.0002 0
R-squared 0.386478 Mean dependent var 15.50000
Adjusted R-squared 0.364566 S.D. dependent var 8.585272
-5
S.E. of regression 6.843674 Akaike info criterion 6.748867
Sum squared resid 1311.404 Schwarz criterion 6.842280 -10
Log likelihood -99.23300 Hannan-Quinn criter. 6.778751
F-statistic 17.63810 Durbin-Watson stat 1.808528 -15
Prob(F-statistic) 0.000245
-20
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30

Le graphique des résidus montre clairement la présence de l’hétéroscédasticité (à confirmer par


un test formel)
351
3.3. La variance est finie et constante
Comment détecter l’hétéroscédasticité ?
Les tests formels. Il en existe plusieurs.
Sur Eviews 5 sont implémentés : Breush Pagan, Harvey, Glejser, ARCH et White
Ici, nous allons en présenter 2 : White et Glejser

Le test de White
On régresse le carré des résidus sur les variables explicatives, les carrés des variables explicatives et
sur les produits croisés des variables explicatives
Etape 1. Si par exemple notre modèle s’écrit

Etape 2. La régression auxiliaire est donnée par

352
3.3. La variance est finie et constante
Les tests formels : le test de White

Si l’un de ces coefficients de régression est significativement différent de 0 , alors on accepte


l’hypothèse d’hétéroscédasticité. Nous pouvons procéder à ce test soit à l’aide d’un test de Fisher
classique de nullité de coefficients : On teste alors

Soit recourir à la statistique LM qui est distribuée selon un Khi-deux avec degrés de libertés (nombre de
coefficients estimés dans la régression auxiliaire ici 5).
On note le coefficient de détermination de cette régression
Bien entendu si , (ou P-valeur >> 0,05) on accepte l’hypothèse nulle que le modèle est
homoscédastique
353
3.3. La variance est finie et constante
Reprenons l’exemple de la régression de y sur x
Dans Eviews, il faut suivre le chemin suivant :

view residual diagnistics heteroscedasticity tests white

Eviews rend le résultat suivant

354
3.3. La variance est finie et constante

Heteroskedasticity Test: White


Null hypothesis: Homoskedasticity

F-statistic 3.956388 Prob. F(2,27) 0.0311


Obs*R-squared 6.799324 Prob. Chi-Square(2) 0.0334
Scaled explained SS 7.172065 Prob. Chi-Square(2) 0.0277

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/11/23 Time: 09:16 𝑛𝑅 = 30 × 0,2266 = 6,798
Sample: 1 30
Included observations: 30
𝜒 ; , = 0,10
Variable Coefficient Std. Error t-Statistic Prob.

C 136.0182 43.70370 3.112280 0.0044


X^2 11.98436 10.25804 1.168289 0.2529 Pr = 0,033
X -78.58151 48.29367 -1.627160 0.1153

R-squared 0.226644 Mean dependent var 43.71348


Adjusted R-squared 0.169359 S.D. dependent var 69.19018
S.E. of regression 63.05961 Akaike info criterion 11.22068
Sum squared resid 107365.9 Schwarz criterion 11.36080
Log likelihood -165.3102 Hannan-Quinn criter. 11.26550
On rejette l’hypothèse nulle.
F-statistic 3.956388 Durbin-Watson stat 1.589880 Le modèle est hétéroscédastique
Prob(F-statistic) 0.031126

355
3.3. La variance est finie et constante
Les tests formels : le test de Glejser
- L’avantage de ce test par rapport au test de white est qu’il permet aussi de détecter la forme de
l’hétéroscédasticité (et donc de la corriger).
- Il est fondé sur la relation entre le résidu de l’estimation par les MCO effectuée sur le modèle de base
et la variable explicative supposée être la cause de l’hétéroscédasticité

Etape 1. On régresse par MCO le modèle initial afin d’obtenir les résidus

Etape 2. On régresse par MCO sur les

Glejser suggère de tester différentes formes de la relation

356
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 1 :

- Si est significatif, il y a dans ce cas une hétéroscédasticité de type ( une constante)


- En effet, si nous avons une relation entre et , cela signifie que nous avons de fait une relation
entre le résidu au carré et la variable .
Dependent Variable: ABS(RESIDUS)
Method: Least Squares
Date: 12/11/23 Time: 10:02
Sample: 1 30
Included observations: 30

Variable Coefficient Std. Error t-Statistic Prob. hétéroscédasticité


C 8.090138 1.399626 5.780215 0.0000
X -1.467253 0.573389 -2.558912 0.0162

R-squared 0.189534 Mean dependent var 5.033362


Adjusted R-squared 0.160589 S.D. dependent var 4.360332
S.E. of regression 3.994909 Akaike info criterion 5.672259
Sum squared resid 446.8603 Schwarz criterion 5.765672
Log likelihood -83.08389 Hannan-Quinn criter. 5.702143
F-statistic 6.548031 Durbin-Watson stat 1.500031
Prob(F-statistic) 0.016193

357
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 2 :
/

- Si est significatif, il y a dans ce cas une hétéroscédasticité de type ( une constante)


- En effet, si nous avons une relation entre et , cela signifie que nous avons de fait une relation
entre le résidu au carré et la variable .
Dependent Variable: ABS(RESIDUS)
Method: Least Squares
Date: 12/11/23 Time: 10:06
Sample: 1 30
Included observations: 30

Variable Coefficient Std. Error t-Statis tic Prob. hétéroscédasticité


C 10.71379 2.301941 4.654243 0.0001
X^0.5 -4.147868 1.594832 -2.600819 0.0147

R-squared 0.194575 Mean dependent var 5.033362


Adjusted R-squared 0.165810 S.D. dependent var 4.360332
S.E. of regression 3.982466 Akaike info criterion 5.666020
Sum s quared resid 444.0810 Schwarz criterion 5.759433
Log likelihood -82.99030 Hannan-Quinn criter. 5.695904
F-statistic 6.764257 Durbin-Watson stat 1.506722
Prob(F-statistic) 0.014688

358
3.3. La variance est finie et constante
Les tests formels le test de Glejser
Forme 3 :

- Si est significatif, il y a dans ce cas une hétéroscédasticité de type ( une constante)


- En effet, si nous avons une relation entre et , cela signifie que nous avons de fait une relation
entre le résidu au carré et la variable .
Dependent Variable: ABS(RESIDUS)
Method: Least Squares
Date: 12/11/23 Time: 10:15
Sample: 1 30
Included observations: 30 - Pour les trois spécifications nous
Variable Coefficient Std. Error t-Statistic Prob. avons conclu au rejet de
C 2.794411 1.223202 2.284505 0.0301 l’homoscédasticité
X^(-1) 2.856788 1.239996 2.303868 0.0289
- Le ratio de Student de la forme 2 est
R-squared
Adjusted R-squared
0.159356
0.129333
Mean dependent var
S.D. dependent var
5.033362
4.360332
le plus élevé
S.E. of regression 4.068605 Akaike info criterion 5.708818 - Nous avons une hétéroscédasticité
Sum squared resid 463.4993 Schwarz criterion 5.802231
Log likelihood -83.63227 Hannan-Quinn criter. 5.738702 de la forme 𝟐𝜺𝒊 𝟐
𝒊
F-statistic 5.307806 Durbin-Watson stat 1.454900
Prob(F-statistic) 0.028864

359
3.3. La variance est finie et constante
Dans Eviews il faut suivre le chemin suivant :
view residual diagnistics heteroscedasticity tests Glejser
Eviews rend le résultat suivant
Heteroskedasticity Test: Glejser
Null hypothesis: Hom os kedasticity

F-statistic 6.548031 Prob. F(1,28) 0.0162


Obs*R-squared 5.686024 Prob. Chi-Square(1) 0.0171
Scaled explained SS 6.140230 Prob. Chi-Square(1) 0.0132

Test Equation:
Dependent Variable: ARESID
Method: Least Squares
Date: 12/12/23 Time: 09:28
Sample: 1 30
Included obs ervations: 30

Variable Coefficient Std. Error t-Statis tic Prob.

C 8.090138 1.399626 5.780215 0.0000


X -1.467253 0.573389 -2.558912 0.0162

R-s quared 0.189534 Mean dependent var 5.033362


Adjusted R-s quared 0.160589 S.D. dependent var 4.360332
S.E. of regress ion 3.994909 Akaike info criterion 5.672259
Sum s quared resid 446.8603 Schwarz criterion 5.765672
Log likelihood -83.08389 Hannan-Quinn criter. 5.702143
F-statistic 6.548031 Durbin-Wats on stat 1.500031
Prob(F-statis tic) 0.016193

360
3.3. La variance est finie et constante
Causes de l’hétéroscédasticité :

- Omission de variables importantes


- Un changement dans la structure de l’économie
- Plage des données trop larges. Si dans un même échantillon il y a de grandes et de petites valeurs
- Lorsque les séries sont temporelles et qu’elles présentent d’importantes tendances.

Conséquences de l’hétéroscédasticité
Si l’hypothèse de l’hétéroscédasticité est vérifiée, les coefficients restent toujours non biaisés mais
pas BLUE. Cela signifie qu’on peut toujours continuer à utiliser les MCO. Cependant les S.E. (écart-
types) ne sont pas bons. On ne peut pas faire de l’inférence statistique.

361
3.3. La variance est finie et constante

Solutions
- Si on connait la source de l’hétéroscédasticité (population non homogène, grand pays et petits pays,
données non stationnaires, etc.) on peut résoudre le problème (prendre des variables par tête, travailler
avec des données stationnaires, etc.).
- Utilisation des données en log
- Utiliser les estimateurs des MCG et MCP
- On estime les erreurs standards à la white

362
3.3. La variance est finie et constante : introduction du logarithme
Reprenons notre exemple et régressons Y sur X

Le test est significatif. On rejette H0, donc il y a hétéroscédasticité


363
3.3. La variance est finie et constante : introduction du logarithme
Heteroskedasticity Test: White
Null hypothesis: Homoskedasticity

F-statistic 0.587419 Prob. F(2,27) 0.5627


Obs*R-squared 1.250944 Prob. Chi-Square(2) 0.5350
Dependent Variable: LOG(Y) Scaled explained SS 1.114720 Prob. Chi-Square(2) 0.5727
Method: Least Squares
Date: 12/25/23 Time: 09:51
Sample: 1 30 Test Equation:
Included observations: 30 Dependent Variable: RESID^2
Method: Least Squares
Variable Coefficient Std. Error t-Statistic Prob. Date: 12/11/23 Time: 10:30
Sample: 1 30
C 2.830790 0.106433 26.59688 0.0000 Included observations: 30
LOG(X) -0.482997 0.121337 -3.980617 0.0004
Variable Coefficient Std. Error t-Statistic Prob.
R-squared 0.361391 Mean dependent var 2.585707
Adjusted R-squared 0.338584 S.D. dependent var 0.584696 C 0.204981 0.083912 2.442807 0.0214
S.E. of regression 0.475519 Akaike info criterion 1.415519 LOG(X)^2 0.095718 0.122726 0.779930 0.4422
LOG(X) -0.133193 0.123152 -1.081534 0.2890
Sum squared resid 6.331305 Schwarz criterion 1.508933
Log likelihood -19.23279 Hannan-Quinn criter. 1.445403
R-squared 0.041698 Mean dependent var 0.211043
F-statistic 15.84531 Durbin-Watson stat 1.741224
Adjusted R-squared -0.029287 S.D. dependent var 0.307026
Prob(F-statistic) 0.000443
S.E. of regression 0.311490 Akaike info criterion 0.599740
Sum squared resid 2.619701 Schwarz criterion 0.739860
Log likelihood -5.996096 Hannan-Quinn criter. 0.644565
F-statistic 0.587419 Durbin-Watson stat 1.652100

Le test n’est pas significatif. On ne rejette pas l’hypothèse nulle. Le modèle est homoscédastique
L’introduction du log a permis de résoudre le problème de l’hétéroscédasticité
364
3.3. La variance est finie et constante
Les estimateurs des MCG et des MCP (généralisés et pondérés)
Considérons le modèle linéaire général suivant :

(1)

Supposons que la variance est hétéroscédastique

Les estimateurs des MCG


Si on divise chaque terme de (1) par on obtient le modèle suivant :

(2
365
3.3. La variance est finie et constante

(2)

Ou encore
∗ ∗ ∗ ∗ ∗
(3)

Le modèle (3) est homoscédastique. En effet

Les estimateurs de (3) sont efficients et donc BLUE

366
3.3. La variance est finie et constante
Les estimateurs des MCG et des MCP
Considérons le modèle linéaire général suivant :

(1)

Supposons que la variance est hétéroscédastique

Les estimateurs des MCP


La procédure est la même que plus haut. On utilise les pondérations pour ajuster les
variables. Ainsi, le modèle (1) devient :

(4)

367
3.3. La variance est finie et constante
Les estimateurs des MCP

On obtient le même modèle que pour MCG


∗ ∗ ∗ ∗ ∗
(3’)

Questions importantes relatives aux estimateurs MCP


- Il y a une difficulté à estimer les modèles 3 et 4 car les sont inconnus
- Il est nécessaire d’avoir des informations préalables relatives à la structure de
- On pose . Dans cette équation, est une variable connue avec des valeurs
pour toutes les observations.
- En divisant (1) par , on obtient le modèle final

(5)

Avec

368
3.3. La variance est finie et constante : Estimateur MCG et MCP

Si l’hétéroscédasticité est de la forme 1.

Nous avons

Pour corriger l’hétéroscédasticité, on régresse par MCO

Nous avons

369
3.3. La variance est finie et constante : Estimateur MCG et MCP

Si l’hétéroscédasticité est de la forme 2.

Nous avons

Pour corriger l’hétéroscédasticité on régresse par MCO

Nous avons

370
3.3. La variance est finie et constante : Estimateur MCG et MCP

Si l’hétéroscédasticité est de la forme 3.

Nous avons

Pour corriger l’hétéroscédasticité on régresse par MCO

Nous avons

371
3.3. La variance est finie et constante : Estimateur MCG et MCP
Rappelons que dans notre exemple nous avons hétéroscédasticité de la forme 2. On doit diviser
les variables par
Ainsi, le modèle définitif est donné par
Dependent Variable: Y
Method: Least Squares
Date: 12/12/23 Time: 10:03
Sample: 1 30
Included observations: 30
Weighting series: X^(0.5)
Weight type: Standard deviation (average scaling)
Dependent Variable: Y/(X^0.5)
Variable Coefficient Std. Error t-Statistic Prob.
Method: Least Squares
Date: 12/11/23 Time: 11:18 C 24.94147 2.503469 9.962763 0.0000
Sample: 1 30 X -4.531905 1.535487 -2.951445 0.0063
Included observations: 30
Weighted Statistics

Variable Coefficient Std. Error t-Statistic Prob. R-squared 0.237286 Mean dependent var 16.28856
Adjusted R-squared 0.210047 S.D. dependent var 14.05345
1/(X^0.5) 24.94147 2.503469 9.962763 0.0000 S.E. of regression 8.536179 Akaike info criterion 7.190845
X/(X^0.5) -4.531905 1.535487 -2.951445 0.0063 Sum squared resid 2040.258 Schwarz criterion 7.284258
Log likelihood -105.8627 Hannan-Quinn criter. 7.220728
F-statistic 8.711027 Durbin-Watson stat 1.723276
R-squared 0.643778 Mean dependent var 14.42003 Prob(F-s tatistic) 0.006332 Weighted mean dep. 19.15899
Adjusted R-squared 0.631055 S.D. dependent var 12.44131
S.E. of regression 7.556954 Akaike info criterion 6.947154 Unweighted Statistics
Sum squared resid 1599.012 Schwarz criterion 7.040567
R-squared 0.382723 Mean dependent var 15.50000
Log likelihood -102.2073 Hannan-Quinn criter. 6.977038 Adjusted R-squared 0.360678 S.D. dependent var 8.585272
Durbin-Watson stat 1.723276 S.E. of regression 6.864580 Sum squared resid 1319.429
Durbin-Watson stat 1.831775
372
3.3. La variance est finie et constante : Estimation des erreurs standards robustes à la white

Dependent Variable: Y
Method: Least Squares
Date: 12/11/23 Time: 11:22
Sample: 1 30
Included observations: 30
Huber-White-Hinkley (HC1) heteroskedasticity consistent standard errors
and covariance

Variable Coefficient Std. Error t-Statistic Prob.

C 24.09442 3.012222 7.998886 0.0000


X -4.125322 0.967865 -4.262289 0.0002

R-squared 0.386478 Mean dependent var 15.50000


Adjusted R-squared 0.364566 S.D. dependent var 8.585272
S.E. of regression 6.843674 Akaike info criterion 6.748867
Sum squared resid 1311.404 Schwarz criterion 6.842280
Log likelihood -99.23300 Hannan-Quinn criter. 6.778751
F-statistic 17.63810 Durbin-Watson stat 1.808528
Prob(F-statistic) 0.000245 Wald F-statistic 18.16711
Prob(Wald F-statistic) 0.000207

373
3.4. Normalité des erreurs
Afin de réaliser l’inférence statistique, nous avons supposé que les erreurs sont normales. Nous
devons tester cette hypothèse en testant la normalité des erreurs.
Il existe plusieurs tests pour vérifier si les erreurs sont un bruit blanc gaussien. Le plus connu et le
plus utilisé (implémenté dans Eviews) est le test de Jarque-Berra. Il est basé sur les moments d’ordre 3
(asymétrie ou Skewness) et 4 (aplatissement ou Kurtosis).

Le Skewness est donné par

Le Kurtosis est donné par

Dans le cas de la loi normale nous avons 𝑆=0 et 𝐾=3

Le test de Jarque-Bera regroupe ces deux tests en un seul. La statistique de Jarque-Bera est donné par

374
3.4. Normalité des erreurs

On peut montrer que, sous l’hypothèse nulle (les erreurs suivent une loi normale), cette quantité
suit une loi de Khi-deux avec 2 d.d.l.
Ainsi si on ne peut rejeter l’hypothèse nulle et les erreurs suivent une loi normale.

Sur Eviews suivre le chemin :


View Residual diagnostics Histogram-Normality test

Eviews donne la statistique de JB et la probabilité d’acceptation de l’hypothèse nulle.


Bien entendu si on accepte H0 et les erreurs sont considérées normales au seuil 5%

375
3.4. Normalité des erreurs
Dans notre exemple des dépenses en énergie, Eviews rend le résultat suivant :
8
Series: RESID
7 Sample 1 30
Observations 30
6
5 Mean 4.80e-15
Median -0.937768
4 Maximum 15.96824
Minimum -15.03176
3
Std. Dev. 6.724644
2 Skewness 0.218653
Kurtosis 3.421781
1
0 Jarque-Bera 0.461419
-15 -10 -5 0 5 10 15 Probability 0.793970

Comme la probabilité est supérieure à 0,05, on ne rejette pas H0. Les erreurs sont normales
Lorsque la P-value n’est pas très éloignée de 0,05, on utilise les autres tests de normalité
Il existe d’autres tests implémentés sur Eviews (Lilliefors, Cramer-von Mises, Warson, Anderson-
Darling)
Resid Statistiques descriptives&test Empirical distribution tests
376
3.4. Normalité des erreurs
Lorsque la P-value n’est pas très éloignée de 0,05, on utilise les autres tests de normalité
Il existe d’autres tests implémentés sur Eviews (Lilliefors, Cramer-von Mises, Warson, Anderson-Darling)

Resid Statistiques descriptives&test Empirical distribution tests


Empirical Distribution Test for RESID
Hypothesis: Normal
Date: 12/12/23 Time: 10:23
Sample: 1 30
Included observations: 30

Method Value Adj. Value Probability

Lilliefors (D) 0.096639 NA > 0.1


Cramer-von Mises (W2) 0.055761 0.056690 0.4183
Watson (U2) 0.054541 0.055450 0.3928
Anderson-Darling (A2) 0.341735 0.351132 0.4700

Method: Maximum Likelihood - d.f. corrected (Exact Solution)

Parameter Value Std. Error z-Statistic Prob.

MU 5.03E-15 1.227746 4.10E-15 1.0000


SIGMA 6.724644 0.882989 7.615773 0.0000

Log likelihood -99.24153 Mean dependent var. 4.80E-15


No. of Coefficients 2 S.D. dependent var. 6.724644

377
3.4. Normalité des erreurs
Deux solutions
- Augmenter la taille de l’échantillon
- Réaliser une transformation à la Box-Cox. Elle est donnée par

La valeur de qui est comprise entre -2 et 2, doit être estimée par MV

Généralement on essaie avec les valeurs suivantes : 2 1 0,5 0 -0,5 -1 -2

378
3.5. Les autres questions
Test de spécification fonctionnelle
Jusqu’à présent nous avons supposé que le modèle est linéaire. Ce qui n’est pas forcément le cas.
On peut tester formellement l’hypothèse que la forme est linéaire en utilisant le test RESET (Regression
Specification Error Test).
On teste H0 : Forme fonctionnelle correcte
H1: Erreur de spécification
Le test fonctionne de la manière suivante :
On construit une régression auxiliaire

Le test revient à tester l’hypothèse nulle

La statistique associée à ce test est la statistique F de Fisher


Si H0 est acceptée alors le modèle ne souffre pas de mauvaise spécification
379
3.5. Les autres questions
Test de spécification fonctionnelle
Sur Eviews
-Estimer le modèle sous forme de liste de variables explicatives
View Stability test Ramsey RESET test Choix de P On rejette H0. Le
modèle n’est pas
linéaire
En reprenant le modèle relatif au modèle y c x pour p =1, on obtient
Unrestricted Test Equation:
Ramsey RESET Test
Dependent Variable: Y
Equation: UNTITLED
Method: Least Squares
Omitted Variables: Squares of fitted values
Date: 12/25/23 Time: 10:05
Specification: Y C X
Sample: 1 30
Included observations: 30
Value df Probability
t-statistic 0.378520 27 0.7080
Variable Coefficient Std. Error t-Statistic Prob.
F-statistic 0.143277 (1, 27) 0.7080
Likelihood ratio 0.158776 1 0.6903
C 11.06760 34.50122 0.320789 0.7508
X -1.105057 8.041272 -0.137423 0.8917
F-test summary:
FITTED^2 0.025149 0.066441 0.378520 0.7080
Sum of Sq. df Mean Squares
Test SSR 6.922321 1 6.922321
R-squared 0.389716 Mean dependent var 15.50000
Restricted SSR 1311.404 28 46.83587
Adjusted R-squared 0.344510 S.D. dependent var 8.585272
Unrestricted SSR 1304.482 27 48.31415
S.E. of regression 6.950838 Akaike info criterion 6.810241
Sum squared resid 1304.482 Schwarz criterion 6.950361
LR test summary:
Log likelihood -99.15361 Hannan-Quinn criter. 6.855066
Value
F-statistic 8.620850 Durbin-Watson stat 1.851124
Restricted LogL -99.23300
Prob(F-statistic) 0.001273
Unrestricted LogL -99.15361

380
3.5. Les autres questions
Test de rupture structurelle: test de Chow : exemple de la demane
Sur Eviews
-Estimer le modèle sous forme de liste de variables explicatives
View Stability test breakpoints

Chow Breakpoint Test: 1983 Chow Breakpoint Test: 1993


Null Hypothesis: No breaks at specified breakpoints Null Hypothesis: No breaks at specified breakpoints
Varying regressors: All equation variables Varying regressors: All equation variables
Equation Sample: 1980 2000 Equation Sample: 1980 2000

F-statistic 2.043434 Prob. F(2,17) 0.1602 F-statistic 24.28155 Prob. F(2,17) 0.0000
Log likelihood ratio 4.524180 Prob. Chi-Square(2) 0.1041 Log likelihood ratio 28.34579 Prob. Chi-Square(2) 0.0000
Wald Statistic 4.086868 Prob. Chi-Square(2) 0.1296 Wald Statistic 48.56310 Prob. Chi-Square(2) 0.0000

Pas de rupture en 1983 (Pv>>0,05) mais rupture en 1993 (Solution : on peut utiliser des dummy variables)
381
3.5. Les autres questions
Test de stabilité des coefficients : test CUSUM (cumulative sum) et CUSUMQ
On teste l’hypothèse nulle : les paramètres sont stables dans le temps
View Stability test recursive estimates

15

10

-5

-10

-15
1982 1984 1986 1988 1990 1992 1994 1996 1998 2000

CUSUM 5% Significance

Ici on accepte H0
382
3.5. Les autres questions
Omission de variables et variables redondantes
Variable omise. Reprenons notre exemple Y = f(x1, x2, x3)

On régresse Y sur X2 et X3 et souhaite savoir s’il faut ajouter la variable X1

Omitted Variable Test


Equation: UNTITLED
Omitted Variables: X1
Specification: Y C X2 X3 Comme Pv > 0,05 on
Null hypothes is: X1 is not significant accepte H0
Value df Probability X1 n’est pas significatif
t-statis tic 0.830742 20 0.4159
F-statistic 0.690132 (1, 20) 0.4159 Il n’est pas nécessaire
Likelihood ratio 0.814190 1 0.3669
de l’ajouter
F-tes t summ ary:
Sum of Sq. df Mean Squares
Test SSR 5.184686 1 5.184686
Restricted SSR 155.4367 21 7.401749
Unres tricted SSR 150.2520 20 7.512602

LR test s um m ary:
Value
Restricted LogL -56.47274
Unres tricted LogL -56.06565

383
3.5. Les autres questions
Omission de variables et variables redondantes
Variable omise. Reprenons notre exemple Y = f(x1, x2, x3)

On régresse Y sur X1 X2 X3 et on veut savoir si on garde X3

Redundant Variable Test


Equation: UNTITLED
Redundant variables: X3
Specification: Y C X1 X2 X3
Comme Pv >>> 0,05 on
Null hypothesis: X3 is not significant accepte H0
Value df Probability X3 n’est pas significatif
t-statistic
F-statistic
1.125190
1.266052
20
(1, 20)
0.2738
0.2738
On peut la supprimer
Likelihood ratio 1.473113 1 0.2249

F-test summary:
Sum of Sq. df Mean Squares
Test SSR 9.511344 1 9.511344
Restricted SSR 159.7634 21 7.607781
Unrestricted SSR 150.2520 20 7.512602

LR test summary:
Value
Restricted LogL -56.80221
Unrestricted LogL -56.06565

384
3.5. Les autres questions
Le problème de la multicollinéarité
- On parle de multicollinéarité lorsque certaines variables explicatives sont liées entre elles de manière linéaire
- Le problème survient essentiellement dans le cas des séries temporelles et lorsque les variables présentent des
tendances fortes
- Lorsqu’il y a multicollinéarité le R2 est très élevé et les SE sont très élevés également. Il s’en suit des
intervalles de confiances assez larges et partant, une absence de précisions au niveau des tests
- Il existe deux types de multicolinéarité

1. Structurelle ou mathématique. Elle survient lorsqu’on crée une variable explicative à partir d’une autre. Par
exemple 𝑥 à partir de 𝑥 (Courbes Laffer, Kuznets, etc.)

2. Multicollinéarité (empirique) basée sur les données dues aux types d’observations

- Il existe plusieurs tests pour tester la multicollinéarité


Nous en présentons 3
-Test de Klein
- Test de Farrar-Glauber
- Variance Impact factor (VIF)
385
3.5. Les autres questions
Le problème de la multicollinéarité
Test de Klein : il consiste à examiner la matrice des corrélations simples
Si les coefficients de corrélations simples élevés au carré sont tous inférieurs à R2 alors il n’y a pas de
risque de multicollinéarité.

Reprenons notre exemple y = f(x1, x2, x3)


Dependent Variable: Y
Method: Leas t Squares
Date: 12/26/23 Time: 10:18
Sample: 1 24
Included observations : 24

Variable Coefficient Std. Error t-Statistic Prob.


R2 = 0,506
C -4.985071 6.985763 -0.713604 0.4837
X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjus ted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regres sion 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

386
3.5. Les autres questions
Le problème de la multicollinéarité
Test de Klein : il consiste à examiner la matrice des corrélations simples
Dans notre exemple relatif au modèle de Solow, la matrice des corrélations simple est donnée par

X1 X2 X3
X1 1 0,96 0,298
X2 0,96 1 0,274
X3 0,298 0,274 1
La matrices des coefficients de corrélation au carré est donnée par

X1 X2 X3
X1 1 0,922 0,089
X2 0,922 1 0,0750
X3 0,089 0,075 1

On voit que certains coefficients de corrélations simples élevés au carré sont >>> à R 2 =0,506, il y a un risque de
multicollinéarité.

387
3.5. Les autres questions
Le problème de la multicollinéarité
Test de Farrar—Glauber : Il teste que le déterminant D de la matrice de corrélation est égal à 1.

Ainsi on teste
H0 : Les variables explicatives sont des variables aléatoires non-corrélées
H1 : Les variables explicatives sont des variables aléatoires corrélées.
Le test est basé sur le fait que sous H0 et avec une hypothèse de normalité, la statistique (sur 10
observations)

Suit une loi de Khi-deux à (𝑘 + 1)𝑘/2 d.d.l.

Bien entendu si 𝜒 << 𝜒 il n’y a pas de problème de multicollinéarité

388
3.5. Les autres questions
Le problème de la multicollinéarité
Dans notre exemple, le déterminant de la matrice des coefficients de corrélation est donné par 0,0713
Ainsi

1
𝜒 = − 10 − 1 − 2 3 + 1 + 5 log( 0,0713) = 18,04
6

A comparer avec 𝜒 , ; = 12,59

Comme 𝜒 ≫𝜒 on rejette H0. Il ya un problème de multicollinéarité

389
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
- Généralement on juge la présence de la multicollinéarité en examinant la variance inflation factors
(VIF) pour détecter la multicollinéarité
- Lorsqu’il y multicollinéarité il y a une surestimation de la variance des coefficients. Plus
particulièrement, chaque coefficient voit sa variance surestimée d’un facteur noté avec

Dans cette équation est le coefficient de détermination de la régression de 𝒋 sur les autres
variables explicatives
Interprétation
signifie qu’il n’y a pas de corrélation entre la variable explicative j et les autres. La variance
n’est pas surestimée.
A partir de 4 on commence à s’interroger
Si VIF est > à 10 il y a multicollinarité et il faut la corriger 390
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
Reprenons notre exemple Y X1 X2 X3
Dependent Variable: Y
Method: Least Squares
Date: 12/25/23 Time: 10:16
Sample: 1 24
Included observations: 24

Variable Coefficient Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

391
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
Reprenons notre exemple Y X1 X2 X3
Il semble y avoir une forte corrélation entre X1 et X2

X1 X2 X3
X1 1 0.9605 0.29806
X2 0.9605 1 0.2746
X3 0.2980 0.2746 1

Multicollinéarité confirmée par VIF Variance Inflation Factors


Date: 12/31/22 Time: 16:33
Sample: 1 24
Included observations: 24
View Coef. diagnostics VIF Coefficient Uncentered Centered
Variable Variance VIF VIF

X1 et X2 corrélés C 48.80089 155.9009 NA


X1 0.151789 104.3724 13.13810
X2 71.61056 127.7296 12.94771
X3 11.97964 165.2171 1.099613
392
3.5. Les autres questions
Le problème de la multicollinéarité (VIF)
Régressons X1 sur X2 et X3

Dependent Variable: X1
Method: Least Squares
Date: 12/31/22 Time: 16:35
Sample: 1 24
Included observations: 24
1
𝑉𝐼𝐹 =
Variable Coefficient Std. Error t-Statistic Prob. 1 − 0,923885
= 𝟏𝟑, 𝟏𝟑𝟖

C -3.366622 3.843180 -0.875999 0.3909


X2 20.79343 1.369921 15.17855 0.0000
X3 1.137035 1.922673 0.591383 0.5606

R-squared 0.923885 Mean dependent var 13.71667


Adjusted R-squared 0.916636 S.D. dependent var 5.317131
S.E. of regression 1.535202 Akaike info criterion 3.811669
Sum squared resid 49.49372 Schwarz criterion 3.958926
Log likelihood -42.74003 Hannan-Quinn criter. 3.850736
F-statistic 127.4500 Durbin-Watson stat 2.020405
Prob(F-statistic) 0.000000
393
3.5. Les autres questions
Le problème de la multicollinéarité : Quelles solutions ?

1. Suppression d’une des deux variables. Dans notre exemple on supprime X1 ou X2. Le choix
de la variable à supprimer dépend de la question étudiée. Sinon, on peut choisir la moins
significative. Dans notre exemple, c’est X1, on obtient un R2 de 49% au lieu de 50%.
Dependent Variable: Y
Method: Least Squares
Date: 01/01/23 Time: 14:32
Sample: 1 24
Included observations: 24

Variable Coefficient Std. Error t-Statistic Prob.

C -3.895437 6.810711 -0.571957 0.5734


X2 9.507400 2.427714 3.916195 0.0008
X3 3.526453 3.407275 1.034977 0.3125

R-squared 0.489733 Mean dependent var 10.14167


Adjusted R-squared 0.441136 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062
Sum squared resid 155.4367 Schwarz criterion 5.103319
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129
F-statistic 10.07746 Durbin-Watson stat 1.753960
Prob(F-statistic) 0.000855
394
3.5. Les autres questions
Le problème de la multicollinéarité : Quelles solutions ?

1. Suppression d’une des deux variables. Dans notre exemple on supprime X1 ou X2. Le choix
de la variable à supprimer dépend de la question étudiée. Sinon, on peut choisir la moins
significative. Dans notre exemple, c’est X1, on obtient un R2 de 49% au lieu de 50%.

Variance Inflation Factors


Date: 01/01/23 Time: 14:34
Sample: 1 24
Included observations: 24 2. La deuxième solution consiste à
augmenter la taille de l’échantillon
Uncentere
Coefficient d Centered
Variable Variance VIF VIF

C 46.38579 150.4048 NA
X2 5.893793 10.67002 1.081600
X3 11.60953 162.5106 1.081600

395
3.5. Les autres questions
Le problème de la multicollinéarité structurelle : Quelles solutions ?
Dans le cas de la multicollinéarité structurelle, on remplace la variable corrélée par elle-même,
mais centrée par rapport à sa moyenne

Dependent Variable: Y
Method: Least Squares
Date: 01/01/23 Time: 14:44
Variance Inflation Factors
Sample: 1 24
Included observations: 24
Date: 01/01/23 Time: 14:45
Sample: 1 24
Variable Coefficient Std. Error t-Statistic Prob. Included observations: 24

C 1.128475 2.901293 0.388956 0.7012


X1 1.102330 0.523404 2.106077 0.0474 Coefficient Uncentered Centered
X1^2 -0.028373 0.021479 -1.320996 0.2007 Variable Variance VIF VIF

R-squared 0.436031 Mean dependent var 10.14167


Adjusted R-squared 0.382320 S.D. dependent var 3.639269 C 8.417500 24.69462 NA
S.E. of regression 2.860198 Akaike info criterion 5.056127 X1 0.273952 172.9890 21.77535
Sum squared resid 171.7953 Schwarz criterion 5.203384
X1^2 0.000461 84.47800 21.77535
Log likelihood -57.67353 Hannan-Quinn criter. 5.095194
F-statistic 8.118040 Durbin-Watson stat 1.540715
Prob(F-statistic) 0.002444

396
3.5. Les autres questions
Le problème de la multicollinéarité : Quelles solutions ?
Dans le cas de la multicollinéarité structurelle, on remplace la variable corrélée par elle-même
mais centrée par rapport à sa moyenne (dans notre exemple 13,717)

Dependent Variable: Y
Method: Least Squares
Date: 12/25/23 Time: 10:21
Sample: 1 24
Included observations: 24
Variance Inflation Factors
Variable Coefficient Std. Error t-Statistic Prob. Date: 12/25/23 Time: 10:22
Sample: 1 24
C 10.91052 0.824312 13.23591 0.0000
X1-13.717 0.323936 0.136621 2.371057 0.0274 Included observations: 24
(X1-13.717)^2 -0.028373 0.021479 -1.320996 0.2007
Coefficient Uncentered Centered
R-squared 0.436031 Mean dependent var 10.14167 Variable Variance VIF VIF
Adjusted R-squared 0.382320 S.D. dependent var 3.639269
S.E. of regression 2.860198 Akaike info criterion 5.056127 C 0.679490 1.993437 NA
Sum squared resid 171.7953 Schwarz criterion 5.203384
X1-13.717 0.018665 1.483626 1.483626
Log likelihood -57.67353 Hannan-Quinn criter. 5.095194
F-statistic 8.118040 Durbin-Watson stat 1.540715
(X1-13.717)^2 0.000461 2.477152 1.483626
Prob(F-statistic) 0.002444

La multicollinéarité à disparue
397
3.6. La question de l’exogénéité des variables explicatives

- Les MCO fournissent des estimateurs BLUE lorsque les régresseurs (les variables explicatives)
sont exogènes et non stochastiques
- Cela signifie que si on prélève un autre échantillon les caractéristiques des variables explicatives
seraient les mêmes que dans l’échantillon initial
- Souvent, cette hypothèse n’est pas réaliste. Il est nécessaire d’examiner les conséquences du
relâchement de cette hypothèse.

- Plusieurs causes : hétérogénéité inobservée, erreurs de mesure, fortes autocorrélations,


omissions de variables, simultanéité dans la détermination de la variable endogène et des
variables exogènes

398
3.6. La question de l’exogénéité des variables explicatives

Considérons le modèle linéaire simple suivant :

Pour utiliser les MCO il faut, entre autres, que .


Supposons que la variable n’est pas exogène - elle dépend d’une autre variable (exogène)-,
nous aurons

Ainsi, nous avons un système d’équations

Ce modèle est appelé modèle à équations simultanées (MES)


399
3.6. La question de l’exogénéité des variables explicatives

- Dans un MES il existe deux types de variables : les variables endogènes (conjointement
déterminées, ici y et x) et des variables exogènes (si séries temporelles on les appelle
prédéterminées, ici z).

- L’exemple typique est celui du modèle offre-demande. Sur un marché donné, les prix et les
quantités échangées sont déterminées de manière simultanée (conjointement).

- Dans un modèle avec séries temporelles si est endogène est une variable
prédéterminée, et donc exogène.

400
3.6. La question de l’exogénéité des variables explicatives
Exemple. Considérons le modèle d’offre et de demande des produits agricoles suivant :

- Dans ce système (ES), sont les quantités échangées, le prix d’équilibre, le revenu et les
précipitations.
- Ici et sont les variables endogènes et et sont les exogènes (modèle d’équilibre partiel).
- On ne peut pas estimer les équations du MES par MCO mais on peut régresser par MC et sur
le et .
- Parfois, il est possible de retrouver à partir de cette régression les estimations des paramètres du
système 1.

Cette méthode est appelée méthode des Moindres Carrés Indirects (MCI).

401
3.6. La question de l’exogénéité des variables explicatives
Exemple.

Si nous résolvons le système (1) pour exprimer et en fonction des exogènes, nous obtenons

Les équations du système 2 sont appelées les équations de la forme réduite (FR). Les équations
du système 1 sont appelées les équations de la forme structurelle FS (elles décrivent la structure
de l’économie).
402
3.5. La question de l’exogénéité des variables explicatives
Exemple.

Le système 2 peut se réécrire comme suit :

Avec

= = =

= = =

403
3.5. La question de l’exogénéité des variables explicatives
Exemple.

Avec

= = =

= = =

- Les paramètres sont appelés les paramètres de la forme réduite


- Les paramètres ( sont appelés les paramètres structurels.
- L’estimation des équations du système 3 par MCO donne des estimateurs de bonne qualité
pour les paramètres de la forme réduite .
404
3.5. La question de l’exogénéité des variables explicatives
Exemple.

̂ ̂
= = =

= =
̂
=
̂

Les estimations des paramètres structurels sont données par

- Comme pour chaque paramètre nous avons pu trouver une et une seule estimation, les fonctions
de demande et d’offre sont dites justes identifiées (exactement identifiées).
- Comme nous l’avons déjà dit cette méthode est appelée méthode des moindres carrés indirects
(MMCI).
405
3.5. La question de l’exogénéité des variables explicatives
Exemple.
Malheureusement, il n’est pas toujours possible d’obtenir les estimations des paramètres
structurels à partir des estimations des paramètres de la forme réduite.

Supposons que notre modèle offre et demande est donné par

La forme réduite est donnée par

406
3.5. La question de l’exogénéité des variables explicatives
Exemple.
La forme réduite est donnée par

Ou encore

Dans ce cas, nous avons

- Malheureusement, il n’est pas possible d’obtenir les estimations des autres paramètres.
- On arrive à estimer tous les paramètres de la fonction d’offre. Elle est identifiée
- Mais pas ceux de la fonction de demande. Elle est non identifiée
407
3.5. La question de l’exogénéité des variables explicatives
Exemple. Supposons maintenant que notre modèle offre-demande s’écrit comme suit

La forme réduite est donnée par

Ou encore

408
3.5. La question de l’exogénéité des variables explicatives
Exemple.

Maintenant, nous obtenons deux estimations différentes pour

La même chose pour le paramètre puisqu’il dépend de


D’un autre côté nous n’arrivons pas à estimer les paramètres (
- La fonction d’offre est sur-identifiée
- La fonction de demande est sous-identifiée
409
3.5. La question de l’exogénéité des variables explicatives
Exemple.
Il y a une règle simple pour savoir si une équation est juste identifiée, sur-identifiée ou sous-
identifiée. Cette condition qui est une condition nécessaire mais pas suffisante est appelée
condition d’ordre d’identification.
Si on note le nombre d’endogènes dans le système, le nombre total de variables manquantes
dans une équation et le nombre de restrictions sur les paramètres, alors
Si , l’équation est juste identifiée
Si , l’équation est sur-identifiée
Si , l’équation est sous-identifiée

Appliquons cette règle au système 5. Dans ce système et


Dans la fonction de demande, . Comme , elle est sous-identifiée
Dans la fonction d’offre, . Comme , elle est sur-identifiée.
410
3.5. La question de l’exogénéité des variables explicatives
Identification du modèle (système d’équations)
L’identification du modèle est déterminée par rapport à l’identification des équations qui le
composent

1. Le modèle est sous-identifié si une équation du modèle est sous-identifiable (il y a moins
d’équations que de paramètres à identifier dans la forme structurelle, le système est donc impossible
à résoudre) ;
2. Le modèle est juste identifié si toutes les équations sont justes identifiables ;
3. Le modèle est sur-identifié si les équations du modèle sont soit justes identifiables, soit sur-
identifiables.

Si le modèle est sous-identifié, il n’existe aucune possibilité d’estimation des paramètres du modèle,
celui-ci doit être respécifié.

411
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
Nous allons présenter cette condition à partir d’un exemple.
Considérons le modèle macroéconomique suivant comportant 7 équations avec 7 variables
endogènes et 3 variables exogènes

C Consommation réelle Endogène


I Investissement réel Endogène
N Emploi Endogène
P Indice des prix Endogène
R Taux d’intérêt Endogène
Y Revenu réel Endogène
W Taux de salaire Endogène
G Dépenses publiques réelles Exogène
T Recettes publiques réelles Exogène
M Offre de monnaie nominale Exogène

412
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
C Consommation réelle Endogène
I Investissement réel Endogène
N Emploi Endogène
P Indice des prix Endogène
R Taux d’intérêt Endogène
Y Revenu réel Endogène
W Taux de salaire Endogène
G Dépenses publiques réelles Exogène
T Recettes publiques réelles Exogène
M Offre de monnaie nominale Exogène

Fonction de consommation
Fonction d’investissement
Identité comptable (équilibre B&S)
Offre et demande de monnaie
Fonction de production
Demande de travail
Offre de travail
413
3.5. La question de l’exogénéité des variables explicatives
Condition d’ordre nécessaire et suffisante (condition de rang).
Pour savoir quel est le statut de chaque équation en termes d’identification, nous construisons le
tableau ci-dessous dans lequel le 1 signifie que la variable est présente dans l’équation et 0 qu’elle
est absente

Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
6 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0

414
3.5. La question de l’exogénéité et suffisante (condition de rang).
Examinons la condition de rang pour l’équation 1.
Eliminons la 1ère ligne et les colonnes où apparaissent les variables présentes dans éq. 1

Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
- 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0

Nous obtenons 1 0 0 0 0 0
1 0 0 0 1 0
0 0 1 0 0 1
0 1 0 0 0 0
0 1 1 1 0 0
0 1 1 1 0 0

Comme nous avons 6 lignes et 6 colonnes dont les éléments ne sont pas tous nuls l’équation 1
est identifiée
415
3.5. La question de l’exogénéité et suffisante (condition de rang).
Examinons la condition de rang pour l’équation 2.
Eliminons la 1ère ligne et les colonnes où apparaissent les variables présentes dans éq. 1

Equ. C I N P R Y W G T M
1 1 0 0 0 1 1 0 0 1 0
2 0 1 0 0 1 1 0 0 0 0
3 1 1 0 0 0 1 0 1 0 0
4 0 0 0 1 1 1 0 0 0 1
5 0 0 1 0 0 1 0 0 0 0
- 0 0 1 1 0 0 1 0 0 0
7 0 0 1 1 0 0 1 0 0 0

Nous obtenons 1 0 0 0 0 1 0
0 0 0 0 0 0 0
1 0 0 0 1 0 0
0 0 1 0 0 0 1
0 1 0 0 0 0 0
0 1 1 1 0 0 0
0 1 1 1 0 0 0

Comme nous avons 7 colonnes et 7 lignes mais une ligne dont les éléments tous nuls
l’équation 2 n’est pas identifiée
416
3.5. La question de l’exogénéité des variables explicatives

Les méthodes d’estimation


- On a vu que parfois même en présence de variables explicatives endogènes on peut utiliser les
MCO (MCI)
- Cette technique n’est pas très utilisée, surtout lorsque le nombre d’équation est élevé
- Il existe beaucoup de techniques alternatives
- On peut les diviser en deux groupes :
1. Si on souhaite estimer tous les paramètres on utilisera une technique d’estimation appelée
estimation en information complète.
2. Si on souhaite estimer une seule équation on utilisera des techniques dites d’estimation en
information limitée EIL (variables instrumentales, moments et doubles moindres carrés).

Dans ce qui suit nous nous limiterons à la méthode des variables instrumentales, des moments et à la
méthode des doubles moindres carrés

417
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et des moments
Considérons le modèle suivant :

Supposons par ailleurs que est exogène c.a.d.

Par ailleurs on sait que

Dans ce cas les estimateurs MCO sont cohérents.


Si l’hypothèse d’exogénéité n’est pas valide, les estimateurs MCO ne sont pas cohérents.
On peut utiliser la méthode des variables instrumentales, des moments ou des DMC 418
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des moments
Considérons le modèle suivant :

Une variable est dite instrumentale si


- Elle n’apparait pas dans l’équation à estimer
- Corrélée avec la variable explicative soupçonnée d’être endogène
- N’est pas corrélée avec l’erreur

Soit
mais

419
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des moments

Ce qui n’est possible que si


Ainsi, l’estimateur cohérent (estimateur des moments) est donné par

420
3.5. La question de l’exogénéité des variables explicatives
Exemple de la demande des biens alimentaires

Utilisation des MCO


Dependent Variable: DDE
Method: Least Squares
Date: 01/08/24 Time: 15:08
Sample: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob.

C -13.09420 2.217420 -5.905149 0.0000


PRIX 3.523096 0.465708 7.565026 0.0000

R-squared 0.750753 Mean dependent var 3.677773


Adjusted R-squared 0.737635 S.D. dependent var 0.367112
S.E. of regression 0.188041 Akaike info criterion -0.413925
Sum squared resid 0.671826 Schwarz criterion -0.314447
Log likelihood 6.346213 Hannan-Quinn criter. -0.392336
F-statistic 57.22962 Durbin-Watson stat 0.384290
Prob(F-statistic) 0.000000

421
3.5. La question de l’exogénéité des variables explicatives
Exemple de la demande des biens alimentaires

Dependent Variable: DDE


Method: Generalized Method of Moments
Date: 01/08/24 Time: 14:58
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments ,
Linear estim ation with 1 weight update
Estimation weighting matrix: HAC (Bartlett kernel, Newey-West fixed
bandwidth = 3.0000)
Standard errors & covariance computed using estimation weighting matrix
Instrument specification: PRIX(-1)
Constant added to instrument list
,
Variable Coefficient Std. Error t-Statistic Prob.

C -14.03325 2.856620 -4.912538 0.0001


PRIX 3.718283 0.599233 6.205073 0.0000

R-squared 0.749413 Mean dependent var 3.696814


Adjusted R-squared 0.735492 S.D. dependent var 0.365855
S.E. of regression 0.188160 Sum squared resid 0.637278
Durbin-Watson stat 0.406515 J-statistic 4.72E-41
Instrument rank 2

422
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales En pratique, et de
manière générale, on procède comme suit :

Etape 1. On régresse la variable explicative endogène sur les autres variables explicatives et les
instruments. On calcule (valeurs prédites de la variable endogène) qui est exogène.

Etape 2. On régresse la variable endogène expliquée sur les variables explicatives et sur la
variable .

- Les paramètres estimés à la fin de cette seconde étape sont les estimateurs par la méthode des
variables instrumentales.

- Cette estimation en deux étapes correspond aussi à la méthode des Doubles Moindres Carrés,
DMC (ou 2SLS).

423
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
On souhaite régresser dde sur rd et prix

Dependent Variable: DDE


Method: Least Squares
Date: 12/27/23 Time: 09:07
Sample: 1980 2000
Included observations: 21

Variable Coefficient Std. Error t-Statistic Prob. - Mais le prix peut être considéré comme
endogène.
C 36.91330 7.754589 4.760188 0.0002
RD 15.28665 2.339936 6.532936 0.0000 - Les estimateurs par MCO sont biaisés et
PRIX -22.56720 4.002149 -5.638771 0.0000
non efficaces (ES élevées)
R-squared 0.926063 Mean dependent var 3.677773 - Il faut utiliser les estimateurs des VI ou
Adjusted R-squared 0.917848 S.D. dependent var 0.367112
S.E. of regression 0.105222 Akaike info criterion -1.533917
les DMC
Sum squared resid 0.199292 Schwarz criterion -1.384699 - Il faut trouver un instrument pour le
Log likelihood 19.10613 Hannan-Quinn criter. -1.501533
F-statistic 112.7252 Durbin-Watson stat 1.365818
prix (prix à la période précédente)
Prob(F-statistic) 0.000000

424
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.
On souhaite régresser dde sur rd et prix (mais prix endogène on va utiliser prix(t-1) comme
instruement
Etape 1. on régresse le prix sur le revenu disponible (rd) et sur prix(t-1) et on génère la série
prixfitted (prixf)

Dependent Variable: PRIX


Method: Least Squares
Date: 12/26/23 Time: 11:46 Last updated: 12/26/23 - 11:44
Sample (adjusted): 1981 2000 Modified: 1980 2000 =>
Included observations: 20 after adjustments prixf=0.19551+0.02772*rd+0.93357*prix(-1)
Variable Coefficient Std. Error t-Statistic Prob.
4.62310810...
C 0.195512 0.152099 1.285423 0.2159
4.63791161...
RD 0.027720 0.047179 0.587561 0.5646
4.65548901...
PRIX(-1) 0.933578 0.080049 11.66263 0.0000
4.67323174...
R-squared 0.999548 Mean dependent var 4.768348 4.68955875...
Adjusted R-squared 0.999495 S.D. dependent var 0.085123 4.70422875...
S.E. of regression 0.001913 Akaike info criterion -9.542535 4.72254367...
Sum squared resid 6.22E-05 Schwarz criterion -9.393175
Log likelihood 98.42535 Hannan-Quinn criter. -9.513378
F-statistic 18796.50 Durbin-Watson stat 1.946527
Prob(F-statistic) 0.000000

425
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.

Etape 2. on régresse dde sur rd et prixf

Méthode VI Méthode des DMC


Dependent Variable: DDE
Dependent Variable: DDE Method: Two-Stage Least Squares
Method: Leas t Squares Date: 12/26/23 Time: 11:48
Date: 12/26/23 Time: 11:47 Sample (adjusted): 1981 2000
Sample (adjusted): 1981 2000 Included observations: 20 after adjustments
Included observations: 20 after adjustments Instrument specification: RD PRIX(-1)
Constant added to instrument list
Variable Coefficient Std. Error t-Statis tic Prob.
Variable Coefficient Std. Error t-Statistic Prob.
C 46.24961 8.487588 5.449088 0.0000
RD 17.89550 2.491608 7.182311 0.0000 C 46.24962 9.363771 4.939208 0.0001
PRIXF -27.18685 4.311549 -6.305588 0.0000 RD 17.89551 2.748820 6.510250 0.0000
PRIX -27.18662 4.756595 -5.715564 0.0000
R-squared 0.938130 Mean dependent var 3.696814
Adjusted R-squared 0.930851 S.D. dependent var 0.365855 R-squared 0.924697 Mean dependent var 3.696814
S.E. of regres sion 0.096206 Akaike info criterion -1.707177 Adjusted R-squared 0.915838 S.D. dependent var 0.365855
Sum squared resid 0.157344 Schwarz criterion -1.557817 S.E. of regression 0.106137 Sum squared resid 0.191506
Log likelihood 20.07177 Hannan-Quinn criter. -1.678020 F-statistic 105.8937 Durbin-Watson stat 1.547213
F-statis tic 128.8852 Durbin-Watson stat 1.375095 Prob(F-statistic) 0.000000 Second-Stage SSR 0.157344
Prob(F-statistic) 0.000000 J-statistic 1.73E-30 Instrument rank 3

426
3.5. La question de l’exogénéité des variables explicatives
Les méthodes d’estimation : la méthode des variables instrumentales et doubles MC
Exemple de la demande.

Méthode GMM
Dependent Variable: DDE
Method: Generalized Method of Moments
Date: 01/10/24 Time: 09:02
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments
Linear estimation with 1 weight update
Estimation weighting matrix: HAC (Bartlett kernel, Newey-West fixed
bandwidth = 3.0000)
Standard errors & covariance computed using estimation weighting matrix
Instrument specification: RD PRIX(-1)
Constant added to instrument list

Variable Coefficient Std. Error t-Statistic Prob.

C 46.24962 9.994024 4.627727 0.0002


RD 17.89551 2.752701 6.501072 0.0000
PRIX -27.18662 4.898220 -5.550307 0.0000

R-squared 0.924697 Mean dependent var 3.696814


Adjusted R-squared 0.915838 S.D. dependent var 0.365855
S.E. of regression 0.106137 Sum squared resid 0.191506
Durbin-Watson stat 1.547213 J-statistic 4.21E-36
Instrument rank 3

427
3.5. La question de l’exogénéité des variables explicatives
Exercice : Bourbounais
Considérons le modèle à équations simultanées ci-dessous

production nationale (variable endogène)


consommation des ménages (variable endogène)
demande finale autre que consommation des ménages (variable exogène)
production nationale passée (variable endogène prédéterminée)
On souhaite
1. Identifier le modèle ;
2. Estimer les équations structurelles par les Moindres Carrés Ordinaires/MCO ;
3. Estimer les équations (1) et (2) par les Double Moindres Carrés/DMC et les Moindre
Carrés Indirects/MCI;
4. Comparer les résultats. 428
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Considérons le modèle à équations simultanées ci-dessous

1. Identification
Equation Identification Conclusion Méthode d’estimation
1 g et L’équation est sur- DMC
mais comme 1 restriction identifiée

2 g et Juste identifiée MCI


DMC

429
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Considérons le modèle à équations simultanées ci-dessous

2. Estimation des équations 1 et 2 par MCO


Equation 1 Equation 2
Dependent Variable: Y1 Dependent Variable: Y2
Method: Least Squares Method: Least Squares
Date: 12/19/23 Time: 14:14 Date: 12/19/23 Time: 14:16
Sample: 1 9 Sample: 1 9
Included observations: 9 Included observations: 9

Variable Coefficient Std. Error t-Statistic Prob.


Variable Coefficient Std. Error t-Statistic Prob.
Y1 0.518740 0.201001 2.580778 0.0364
Y2+X1 0.516667 0.087649 5.894698 0.0004 Y1D 0.040260 0.218999 0.183835 0.8594

R-squared 0.812854 Mean dependent var 0.000000 R-squared 0.504569 Mean dependent var 0.000000
Adjusted R-squared 0.812854 S.D. dependent var 18.70160 Adjusted R-squared 0.433793 S.D. dependent var 13.87444
S.E. of regression 8.090375 Akaike info criterion 7.123666 S.E. of regression 10.44006 Akaike info criterion 7.722307
Sum squared resid 762.9637 Schwarz criterion 7.766135
Sum squared resid 523.6333 Schwarz criterion 7.145580
Log likelihood -32.75038 Hannan-Quinn criter. 7.627727
Log likelihood -31.05650 Hannan-Quinn criter. 7.076376
Durbin-Watson stat 3.010021
Durbin-Watson stat 1.751585
430
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Estimation par MCI : Sous forme réduite les équations 1 et 2 s’écrivent

Posons

Le système précédent peut s’écrire comme suit :

431
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend

Equation 1 Equation 2
Dependent Variable: Y1 Dependent Variable: Y2
Method: Least Squares Method: Least Squares
Date: 12/22/23 Time: 13:03 Date: 12/22/23 Time: 13:03
Sample: 1 9 Sample: 1 9
Included observations: 9 Included observations: 9

Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.

X1 0.717449 0.145387 4.934747 0.0017 X1 0.355358 0.184957 1.921300 0.0961


Y1D 0.190975 0.191095 0.999369 0.3509 Y1D 0.139683 0.243105 0.574577 0.5836

R-squared 0.784723 Mean dependent var 0.000000 R-squared 0.366987 Mean dependent var 0.000000
Adjusted R-squared 0.753970 S.D. dependent var 18.70160 Adjusted R-squared 0.276556 S.D. dependent var 13.87444
S.E. of regression 9.276268 Akaike info criterion 7.485926 S.E. of regression 11.80097 Akaike info criterion 7.967371
Sum squared resid 602.3440 Schwarz criterion 7.529753 Sum squared resid 974.8403 Schwarz criterion 8.011198
Log likelihood -31.68667 Hannan-Quinn criter. 7.391346 Log likelihood -33.85317 Hannan-Quinn criter. 7.872791
Durbin-Watson stat 1.557471 Durbin-Watson stat 3.010084

432
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend

Ainsi nous obtenons

433
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

434
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

435
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

436
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

0u encore

437
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

0u encore

438
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle structurel par MCI rend
Reprenons le modèle sous forme structurelle

0u encore

439
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
Ce dernier est le modèle sous forme réduite avec la matrice des paramètres
estimés. Ainsi,

Enfin nous avons

Des deux dernières équations on peut tirer les valeurs de

440
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais
L’estimation du modèle par DMC rend

Equation 1 Equation 2
Dependent Variable: Y1 Dependent Variable: Y2
Method: Two-Stage Least Squares Method: Two-Stage Least Squares
Date: 12/23/23 Time: 11:19 Date: 12/23/23 Time: 11:21
Sample: 1 9 Sample: 1 9
Included observations: 9 Included observations: 9
Instrument specification: X1 Y1D Instrument specification: X1 Y1D
Constant added to instrument list Constant added to instrument list

Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.

X1+Y1D 0.523357 0.139035 3.764203 0.0055 Y1 0.495344 0.228271 2.169985 0.0666


Y1D 0.045084 0.220336 0.204614 0.8437

R-squared 0.639139 Mean dependent var 0.000000


Adjusted R-squared 0.639139 S.D. dependent var 18.70160 R-squared 0.503610 Mean dependent var 0.000000
S.E. of regression 11.23437 Sum squared resid 1009.688 Adjusted R-squared 0.432697 S.D. dependent var 13.87444
Durbin-Watson stat 1.609311 Second-Stage SSR 1009.688 S.E. of regression 10.45016 Sum squared resid 764.4403
J-statistic 3.230095 Instrument rank 3 Durbin-Watson stat 3.011822 Second-Stage SSR 974.6823
Prob(J-statistic) 0.198881 J-statistic 0.000168 Instrument rank 3
Prob(J-statistic) 0.989653

441
3.5. La question de l’exogénéité des variables explicatives
Cas pratique : Bourbounais

Synthèse des résultats

MCO MCI DMC


𝑎 0,517 0,523
𝑏 0,518 0,459 0,495
𝑐̂ 0,040 0,045 0,045

Bien entendu, en pratique on utilise directement les DMC

442
3.5. La question de l’exogénéité des variables explicatives
Test d’endogénéité (Sargan)

Les DMC (2SLS : two-stage least square) sont moins efficaces que les OLS quand les variables
explicatives sont toutes exogènes. Donc si les variables explicatives sont toutes exogènes, il faut
utiliser les MCO. On dispose d’un test d’endogénéité qui permet de savoir si les 2SLS sont
nécessaires. L’idée du test est que la différence entre les estimateurs des MCO et des DMC doit
être faible si la variable explicative est exogène. Si cette différence est “grande" on conclut que la
variable explicative suspectée est endogène.

En pratique on procède donc de la manière suivante :

Etape 1. On régresse par MCO la variable explicative endogène sur les autres variables exogènes
et les instruments (régression auxiliaire).

Etape 2. On régresse le modèle initial en ajoutant les résidus de la régression auxiliaire comme
variable explicative. Si le coefficient du résidu est significativement nul alors il n’y a pas de
variable explicative endogène.
443
3.5. La question de l’exogénéité des variables explicatives
Dans notre exemple de la demande

Dependent Variable: DDE


Method: Least Squares
Date: 01/08/24 Time: 15:34
Sample (adjusted): 1981 2000
Included observations: 20 after adjustments
Endogeneity Test
Equation: UNTITLED
Variable Coefficient Std. Error t-Statistic Prob. Endogenous variables to treat as exogenous: PRIX
Specification: DDE C PRIX RD
C 46.24962 8.727624 5.299222 0.0001 Instrument specification: C RD PRIX(-1)
PRIX -27.18662 4.433446 -6.132166 0.0000 Null hypothesis: PRIX are exogenous
RD 17.89551 2.562073 6.984776 0.0000
Value df Probability
RESID1 23.68967 13.30108 1.781034 0.0939
Difference in J-stats 2.812704 1 0.0935

R-squared 0.938429 Mean dependent var 3.696814 J-statistic summary:


Adjusted R-squared 0.926885 S.D. dependent var 0.365855 Value
S.E. of regression 0.098926 Akaike info criterion -1.612025 Restricted J-statistic 2.812704
Sum squared resid 0.156583 Schwarz criterion -1.412879 Unrestricted J-statistic 2.67E-29
Log likelihood 20.12025 Hannan-Quinn criter. -1.573149
F-statistic 81.28811 Durbin-Watson stat 1.383358
Prob(F-statistic) 0.000000

444
La question des proxy
- Il arrive souvent qu’il soit impossible d’avoir des données relatives à une variable que l’on souhaite
inclure comme variable explicative.
- En effet, certaines variables socioéconomiques sont difficiles à mesurer comme les statuts
socioéconomiques des individus, la qualité de l’éducation, etc.
- Parfois on utilise des données d’enquêtes mais une variable importante n’a pas été prise en compte.
Dans ce cas deux options s’offrent à nous

- Ne pas prendre en considération la variable en question. Au quel cas les estimateurs des variables pris
en considération sont biaisés (omission de variables)
- La remplacer par une variable qui lui est corrélée (proxy)

Ainsi par exemple, on peut utiliser le revenu d’une personne comme une proxy de son statut
socioéconomique, les dépenses d’éducation par élève comme proxy de la qualité de l’éducation, etc.

445
La question des proxy

Exemple 1. Considérons la fonction de production macroéconomiques de type Cobb-Douglass suivante :

𝜶 𝜷

Dans cette équation,


Y est la valeur ajoutée (PIB),
K est le stock de capital,
L le travail
A est mesure du progrès technique (productivité globale des facteurs).
et sont respectivement les parts des revenus du capital et du travail dans le revenu national.
En cas de concurrence pure et parfaite, nous avons (rendements constants à l’échelle)

446
La question des proxy

Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

Nous souhaitons estimer les paramètres de la fonction de production en utilisant les données américaines.
En Log-linéarisant nous obtenons,

Comme le progrès technique n’est pas observable, nous ne disposons pas de données relatives à et donc
ne nous la prendrons pas en compte.
En utilisant les données américaines entre 1949-1978 (voir Kendrick et Grossman, 1980). Nous obtenons le
résultat suivant

447
La question des proxy

Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

L’examen du résultat montre que le capital capte l’effet du progrès technique. Son coefficient est trop élevé
(l’estimateur est baisé).
- D’abord sa valeur est supérieure à 1. Une hausse du capital (pour travail constant) augmente le revenu
de manière plus que proportionnelle. Mais normalement il y’a productivité marginale décroissante du
capital
- La part du revenu du capital dans le revenu national est supérieure à 1 ce qui n’est pas possible.

Cette régression n’est pas satisfaisante

448
La question des proxy
Exemple 1 (estimation d’une fonction de production Cobb-Douglas)

- Il est préférable de refaire la régression mais en choisissant une proxy pour le progrès technique.
- Un choix possible, et souvent utilisé, est le temps. Ainsi, la variable est introduite
- Elle prend les valeurs 1 en 1949, 2 en 1950 et ainsi de suite.

L’utilisation des MCO rend le résultat suivant :

Ainsi, lorsque la variable temps est introduite (elle est corrélée au progrès technique), la variable capital
cesse d’être une proxy et elle n’est plus biaisée.
Sa valeur est maintenant plus raisonnable (< 1).

449
La question des proxy

Exemple 2 (estimation élasticité prix)

Nous souhaitons estimer l’élasticité prix de la demande de biens alimentaires. Pour ce faire nous régressons
la demande de biens alimentaire, sur le revenu disponible des ménages et l’indice des prix des biens
alimentaires.

Nous estimons le modèle suivant :

𝟎 𝟏 𝟐

Données Fichier Excel exemple


Voir sortie Eviews

450
La question des proxy
Exemple 2 (estimation élasticité prix)

Lorsque nous utilisons les données réelles de l’indice des prix et du revenu disponible nous obtenons le
résultat suivant :

(0,000) (0,000) (0,000)

Les valeurs en (.) désignent les probabilités


La régression est satisfaisante. Le R2 est élevé, les coefficients sont significatifs et présentent les bons signes
La demande des produits alimentaires est très élastique
- Une hausse de 1% du prix fait baisser la demande de 22,5%
- Une hausse de 1% du RD fait augmenter le revenu de 15,28%

451
La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.

Voir sortie eviews

452
La question des proxy
Exemple 2 (estimation élasticité prix)
Supposons que nous ne disposons pas des données relatives au revenu disponible. Et décidons d’estimer
l’élasticité demande par rapport au prix dans le cadre d’une régression simple.

Nous obtenons

(0,000) (0,000)

Les valeurs en (.) désignent les probabilités


Les résultats sont contre intuitifs.
On obtient une élasticité positive ce qui n’a pas de sens.
Le R2 est plus faible
Le coefficient du prix a été tellement surestimé qu’il est devenu positif (estimateur biaisé)

453
La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).

Voir sortie eviews

454
La question des proxy
Exemple 2 (estimation élasticité prix)
Maintenant, bien que nous ne disposons pas des données relatives au revenu disponible, nous décidons
d’estimer l’élasticité demande par rapport au prix en utilisant le temps comme proxy du revenu disponible
(les deux variables présentent une tendance haussière).

Nous obtenons

(0,000) (0,000)

Les valeurs en (.) désignent les probabilités


Lorsqu’on utilise le temps comme une proxy du revenu disponible qui présente une tendance haussière on
arrive à avoir des estimateurs non biaisé et un R2 assez élevé.
L’élasticité prix est proche de la première estimation

455
Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait

En utilisant les données américaines 1959-1983, nous obtenons le résultat suivant

456
Les modèles avec variables décalées
- Jusqu’à présent on a régressé, dans le cas de données temporelles, des variables à la même période. Il est
possible d’examiner l’existence de décalages.
Si on s’intéresse par exemple à expliquer les dépenses liées au logement y par le revenu disponible et les
prix. La relation s’écrirait

En utilisant les données américaines 1959-1983, nous obtenons le résultat suivant

Dependent Variable: DEMANDE


Method: Leas t Squares
Date: 04/19/22 Tim e: 13:14
Sam ple: 1959 1983
Included obs ervations : 25

Variable Coefficient Std. Error t-Statis tic Prob.

C -1.566390 1.768164 -0.885885 0.3853


RD 1.179237 0.052038 22.66105 0.0000
PR -0.343885 0.316179 -1.087630 0.2885

R-s quared 0.991977 Mean dependent var 4.666162


Adjus ted R-s quared 0.991248 S.D. dependent var 0.329797
S.E. of regres s ion 0.030853 Akaike info criterion -4.007008
Sum s quared res id 0.020942 Schwarz criterion -3.860743
Log likelihood 53.08760 Hannan-Quinn criter. -3.966440
F-s tatis tic 1360.143 Durbin-Wats on s tat 0.351347
Prob(F-s tatis tic) 0.000000

457
Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

458
Les modèles avec variables décalées
- On pourrait penser que la demande de logement est sujette à une sorte d’inertie.
- L’ajustement de la demande prend du temps par rapport aux changements du revenu et des prix.
- On pourrait par exemple introduire un délai d’ajustement d’un an. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

Dependent Variable: DEMANDE


Method: Leas t Squares
Date: 04/19/22 Tim e: 13:17
Sam ple (adjus ted): 1960 1983
Included obs ervations : 24 after adjus tm ents

Variable Coefficient Std. Error t-Statis tic Prob.

C 0.872691 1.849122 0.471949 0.6418


RD(-1) 1.086483 0.056084 19.37227 0.0000
PR(-1) -0.731941 0.326046 -2.244897 0.0357

R-s quared 0.993896 Mean dependent var 4.689367


Adjus ted R-s quared 0.993315 S.D. dependent var 0.315353
S.E. of regres s ion 0.025784 Akaike info criterion -4.361668
Sum s quared res id 0.013961 Schwarz criterion -4.214412
Log likelihood 55.34002 Hannan-Quinn criter. -4.322601
F-s tatistic 1709.763 Durbin-Wats on s tat 0.445064
Prob(F-s tatis tic) 0.000000

459
Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

460
Les modèles avec variables décalées
- On pourrait exemple introduire un délai d’ajustement de deux années. Ainsi, la demande dépendrait du
revenu et du prix de l’année passée.

Dependent Variable: DEMANDE


Method: Least Squares
Date: 04/19/22 Time: 13:17
Sample (adjusted): 1961 1983
Included observations: 23 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 3.280224 1.682885 1.949168 0.0654


RD(-2) 0.988153 0.052441 18.84303 0.0000
PR(-2) -1.105551 0.294248 -3.757212 0.0012

R-squared 0.995455 Mean dependent var 4.712431


Adjus ted R-squared 0.995000 S.D. dependent var 0.301031
S.E. of regression 0.021286 Akaike info criterion -4.740463
Sum s quared res id 0.009062 Schwarz criterion -4.592355
Log likelihood 57.51533 Hannan-Quinn criter. -4.703214
F-statistic 2190.108 Durbin-Watson stat 0.793382
Prob(F-statistic) 0.000000

461
Régression sur variables qualitatives

Il peut arriver que les variables explicatives soient qualitatives et non mesurables.

Voici quelques exemples

- Si on régresse le salaire sur le nombre d’années d’études et que dans notre échantillon il y a des
hommes et des femmes on pourrait être tenté de savoir si le sexe influence cette relation
- Lorsqu’on examine les effets de l’investissement direct étranger sur le PIB et que dans l’échantillon nous
avons des pays développés et des pays en développement et qu’on souhaite connaitre l’impact des FDI
sur la croissance selon le niveau de développement

462
Régression sur variables qualitatives
Un moyen simple de traiter ce problème est de réaliser deux régressions en scindant l’échantillon en deux
sous-ensembles et de comparer les coefficients obtenus

- Dans le premier cas une régression avec un échantillon composé d’hommes et un échantillon composé
de femmes
- Dans le second cas une régression avec un échantillon composé de pays développé et une régression
avec un échantillon composé de pays en développement

L’autre moyen et de réaliser une régression avec un seul échantillon et d’évaluer l’effet des variables
qualitatives par le concept de variables muettes.
La deuxième méthode est meilleure dans la mesure où on travaille avec l’échantillon dans sa globalité
(échantillon de plus grande taille).

463
Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
nouveaux nés. L’étude à porté sur plus de 900 naissances. Ici, nous avons retenu 20 observations
Nous allons commencer par la relation suivante :

Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par
jour par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu le
résultat suivant : Voir sortie Eviews

464
Régression sur variables qualitatives
Intéressons nous à reproduire les résultats d’une étude américaine relative aux déterminants des poids des
bébés. L’étude à porté sur plus de 900 naissances. Ici 20 observations
Nous allons commencer par la relation suivante :

Dans cette relation y représente le poids des bébés en grammes et x le nombre de cigarettes fumées par
jour par les mamans pendant la grossesse. Avec un échantillon de 20 naissances nous avons obtenu la
régression suivante :

avec

Ainsi, un bébé né d’une femme non fumeuse pèse 3,472 kg et que chaque cigarette fumée fait perdre au
bébé 9,6 grammes.

465
Régression sur variables qualitatives
On souhaite maintenant savoir l’effet, sur le poids des bébé, d’être le premier né ou avoir déjà des frères et
sœurs. La variable est qualitative
On peut modéliser cette situation comme suit
premier né
fratrie

- Notons que les deux équations présentent la même pente et des intercepts différents.
- Cela revient à supposer que le fait que l’enfant soit le premier né ou non affecte le poids de base et non
l’effet des cigarettes fumées par la maman
Un autre moyen de modéliser le problème est de l’écrire comme suit

L’idée est de scinder le poids basique des nouveaux nés ayant déjà des frères et sœurs en deux parties :
le poids basique des enfants premiers nouveaux nés et un supplément de poids (qui peut être négatif)

466
Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit

Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un
premier né et 1 lorsqu’il fait partie d’une fratrie.

467
Régression sur variables qualitatives
Pour estimer cette équation nous allons introduire une variable muette . On doit réécrire le modèle comme
suit

Dans cette équation est une variable muette (Dummy) qui prend la valeur 0 lorsque l’enfant est un
premier né et 1 losqu’il fait partie d’une fratrie.
Les résultats de la régression est donné par

Ainsi la variation du poids du fait de ne pas être le premier né est de 103,4 grammes.
Ainsi l’équation précédente pourrait s’écrire.
premiers nés
fratrie

468
L’exemple des séries temporelles

Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.

469
L’exemple des séries temporelles

Dans le tableau ci-dessous on enregistre une cassure dans les dépenses consacrées à l’achat de voitures aux
USA en 1974. On pourrait faire l’hypothèse que la fonction de demande s’est déplacée vers le bas.

On peut vérifier et illustrer ce changement de manière formelle en introduisant une variable muette D, qui
prend la valeur 0 entre 1963 et 1973 et la valeur 1 entre 1974 et 1982

Ainsi, pour la période 1963-1973, nous avons

Et pour la période 1974-1982, nous avons

Bien entendu on doit s’attendre à un coefficient négatif pour .

470
L’exemple des séries temporelles
L’utilisation des données rend le résultat suivant :

Avec un
Ainsi, l’intercept entre 1963 et 1973 est égal à 0,14 et
Le test de Student montre que le changement est significatif au seuil 10%

471
Le cas des variations saisonnières
Lorsque les données sont disponibles les chercheurs préfèrent travailler avec des données trimestrielles
plutôt qu’avec des données annuelles. Cela leur procure 4 fois plus d’observations. Cependant il peut arriver
que la saison (le trimestre) ait un effet important. Il es alors nécessaire de prendre en compte l’effet de la
saison.

Le tableau suivant donne la consommation du gaz et électricité aux usa

1977T1 7,33 1979T1 7,96 1981T1 8,04


1977T2 4,7 1979T2 5,01 1981T2 5,27
1977T3 5,1 1979T3 5,05 1981T3 5,51
1977T4 5,46 1979T4 5,59 1981T4 6,04
1978T1 7,65 1980T1 7,74 1982T1 8,26
1978T2 4,92 1980T2 5,1 1982T2 5,51
1978T3 5,15 1980T3 5,67 1982T3 5,41
1978T4 5,55 1980T4 5,92 1982T4 5,83

472
Le cas des variations saisonnières

473
Le cas des variations saisonnières
Nous allons considérer le premier trimestre comme notre référence et introduire des variables muettes
pour estimer les différences entre les estimations relatives à ce premier trimestres et aux autres.
Notre modèle s’écrit comme suit

est égal à 1 quand l’observation concerne un deuxième trimestre et 0 par ailleurs


est égal à 1 quand l’observation concerne un troisième trimestre et 0 par ailleurs
est égal à 1 quand l’observation concerne un troisième trimestre et 0 par ailleurs
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au deuxième trimestre par
rapport au premier trimestre
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au troisième trimestre par
rapport au premier trimestre
Le coefficient donne le supplément (ou l’inverse) de consommation d’énergie au quatrième trimestre par
rapport au premier trimestre
Les données sont comme suit

474
Le cas des variations saisonnières
Année DEP t D2 D3 D4
1977T1 7,33 1 0 0 0
1977T2 4,7 2 1 0 0
1977T3 5,1 3 0 1 0
1977T4 5,46 4 0 0 1
1978T1 7,65 5 0 0 0
1978T2 4,92 6 1 0 0
1978T3 5,15 7 0 1 0
1978T4 5,55 8 0 0 1
1979T1 7,96 9 0 0 0
1979T2 5,01 10 1 0 0
1979T3 5,05 11 0 1 0
1979T4 5,59 12 0 0 1
1980T1 7,74 13 0 0 0
1980T2 5,1 14 1 0 0
1980T3 5,67 15 0 1 0
1980T4 5,92 16 0 0 1
1981T1 8,04 17 0 0 0
1981T2 5,27 18 1 0 0
1981T3 5,51 19 0 1 0
1981T4 6,04 20 0 0 1
1982T1 8,26 21 0 0 0
1982T2 5,51 22 1 0 0
1982T3 5,41 23 0 1 0
1982T4 5,83 24 0 0 1
475
Le cas des variations saisonnières

Les résultats de la régression son comme suit

Dependent Variable: DEP


Method: Least Squares
Date: 04/22/22 Time: 13:31
Sample: 1 24
Included observations : 24

Variable Coefficient Std. Error t-Statistic Prob.

C 7.482518 0.075929 98.54636 0.0000


T 0.031589 0.004329 7.297479 0.0000
D2 -2.776589 0.083752 -33.15244 0.0000
D3 -2.578179 0.084087 -30.66080 0.0000
D4 -2.193101 0.084642 -25.91019 0.0000

R-squared 0.986654 Mean dependent var 5.990417


Adjusted R-squared 0.983844 S.D. dependent var 1.139762
S.E. of regress ion 0.144869 Akaike info criterion -0.842920
Sum s quared resid 0.398754 Schwarz criterion -0.597492
Log likelihood 15.11504 Hannan-Quinn criter. -0.777808
F-s tatistic 351.1631 Durbin-Watson s tat 1.174124
Prob(F-statistic) 0.000000

476
Le cas des variations saisonnières

Les résultats de la régression sont comme suit

On peut alors obtenir les estimation pour chaque trimestre

On voit que la consommation est la plus importante pour le premier et le quatrième trimestre

Ce qui est tout à fait cohérent

477
Exercice 1.
Exercice 12. Soit le modèle économétrique suivant :

Nous disposons d’un échantillon de couples pour estimer par moindres carrés
ordinaires les coefficients et .
1. Rappelez les formules des deux estimateurs présentés au chapitre relatif à la régression
simple
2. Montrez que l’utilisation de la formule présentée dans le chapitre relatif à la régression
multiple donne le même résultat que dans 1.

478
Réponse 1.
1. Soit le modèle économétrique suivant :

Dans le chapitre 1 nous avons montré que la méthode des MCO rend les estimateurs suivants :

479
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :

480
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :

Ou encore sous forme matricielle comme suit

481
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :

Ou encore sous forme matricielle comme suit

Ainsi, nous avons

et

482
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par

483
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par

Nous avons

484
Réponse 1.
2. Le modèle précédent peut s’écrire comme suite :
Les estimateurs sont donnés par

Nous avons

485
Réponse 1.
2. Par ailleurs

486
Réponse 1.
2. Par ailleurs

Enfin,

487
Réponse 1.
2. Par ailleurs

Enfin,

488
Réponse 1.
2. Il vient

489
Réponse 1.
2. Il vient

490
Réponse 1.
2. Il vient

491
Réponse 1.
2. De même

492
Réponse 1.
2. De même

493
Réponse 1.
2. De même

En ajoutant et en soustrayant le même terme, il vient

Ensuite on factorise par et par

494
Réponse 1.

495
Réponse 1.

496
Réponse 1.

497
Réponse 1.

498
Exercice 2.
Considérons le modèle économétrique suivant

A partir d’un échantillon de n observations nous obtenons

1. Utilisez le modèle précédent pour calculer la matrice de manière générale


2. Complétez la matrice ci-dessous
3. Qu’elle a été la taille de l’échantillon ? Calculez x moyen et z moyen
4. Vérifiez l’absence de multi colinéarité en calculant le coefficient de corrélation linéaire
empirique entre x et z
5. En utilisant les données on obtient et .
Déterminez la moyenne empirique de y et calculez le coefficient de détermination de la
régression.

499
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :

500
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :

Ou encore sous forme matricielle comme suit

501
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :

Ou encore sous forme matricielle comme suit

Ainsi, nous avons

et

502
Réponse 2.
1. Le modèle précédent peut s’écrire comme suite :

et

503
Réponse 2.
2. Les valeurs manquantes peuvent être obtenues grâce à la propriété de symétrie de la matrice

504
Réponse 2.
2. Les valeurs manquantes peuvent être obtenues grâce à la propriété de symétrie de la matrice

3. La taille de l’échantillon est de 20. En utilisant les valeurs de la matrice il est possible de
calculer les moyennes empiriques de et de

505
Réponse 2.
4. Le coefficient de corrélation linéaire entre et est donné par

En utilisant les valeurs de la matrice , nous obtenons

Il y a en effet un fort risque de multicolliniarité

506
Réponse 2.
5. La régression donne . Soit

Puisque le modèle présente une constante alors la moyenne des résidus est nulle ( ),
Par ailleurs

507
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que

508
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que

509
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que

510
Réponse 2.
6. Pour calculer le coefficient de détermination nous devons calculer la
Nous avons que

511
Réponse 2.
6.

512
Réponse 2.
6.

Il vient que

513
Réponse 2.
6.

Il vient que

Ainsi,

514

Vous aimerez peut-être aussi