0% ont trouvé ce document utile (0 vote)
186 vues50 pages

Violation des Hypothèses en Économétrie

Transféré par

Séraphin Muzinga
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
186 vues50 pages

Violation des Hypothèses en Économétrie

Transféré par

Séraphin Muzinga
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Chapitre 4 : RELACHEMENT DES HYPOTHESES DE BASE :

Conséquences et procédures d’estimation

Ce chapitre est consacré aux problèmes particuliers liés à la violation des


hypothèses.

4.1. HYPOTHESE DE NORMALITE

Ce problème se pose lorsque l’hypothèse u → N (o , δ 2) est violée. La violation de


l’hypothèse de normalité des erreurs ne biaise pas l’estimation des paramètres. Par contre, elle
est requise pour effectuer des tests statistiques et construire les intervalles de confiance. En
effet, cette hypothèse permet de définir la loi de probabilité des estimateurs.

4.1.1. Détection

Pour tester cette hypothèse, on fait souvent appelle au test de Jarque-Bera (1980).
Les logiciels économétriques calculent la statistique de Jarque-Bera « J.B », si la probabilité
associée à cette statistique est supérieure 0,05, on conclut à la normalité des résidus.

[ ]
2
S2 (K −3)
JB=n −
6 24

où S représente le coefficient d’asymétrie (de PEARSON) et le coefficient d’aplatissement


(de PEARSON) des résidus.

Cette statistique suit une loi de Khi-carré avec deux degrés de liberté. On va donc
comparer cette statistique de J.B avec la statistique χ 2 lu dans la table de Khi-carré à un seuil
de signification α donné.

Si│ JB │> χ 2, on rejette H0. Cela veut dire que les erreurs ne sont pas normalement
distribuées.

Si│ JB │< χ 2, accepter H0 : il y a normalité des résidus.

4.1.2. Correction

En cas de violation de cette hypothèse, on peut la corriger de plusieurs manières :

- Augmenter la taille de l’échantillon : en effet lorsque n ≥ 30, on peut procéder à


l’approximation par la loi normale,
- Sur petit échantillon, on procède de la manière suivante :
1°) On calcule une régression multiple par OLS, puis on génère les résidus ε^ t de
l’estimation.
2°) On examine les n résidus et on repère ceux dont la valeur absolue est
exceptionnellement grande.
3°) On corrige ces résidus anormaux de manière à ramener ε^ t à une distribution plus
ou moins normale. Pour ce faire, on prend la valeur du résidu la plus proche
parmi à ceux qui ne semblent pas exceptionnel.

Comme critère de sélection, on prend :

o Soit déterminer la proportion des résidus qui donnent lieu à une


correction (par exemple 5%) ;
o Soit fixer une règle de rejet : considérer comme résidus anormaux ceux
dont la valeur absolue │ε^ t│dépasse trois fois la moyenne des │ε^ t│.

4.2. MULTICOLINEARITE

D’une manière générale, le but poursuivi lors du choix des variables explicatives
est d’assurer une précision maximum de l’équation de régression, c’est-à-dire une variance
résiduelle minimum. Cet objectif conduit à donner la préférence, à priori, à des variables
explicatives fortement corrélées avec la variable dépendante et faiblement corrélées entre
elles.

Il y a multicolinéarité lorsqu’il existe une relation linéaire significative entre


quelques ou toutes les variables explicatives d’un modèle de régression.

La conséquence de la multicolinéarité est que la matrice (X’X) -1 n’est pas


inversible et donc la méthode OLS devient défaillante. Les estimateurs obtenus par l’OLS ne
seront donc pas utilisables ; certains pouvant même donner un intervalle de confiance qui
contient la valeur nulle pour des paramètres du modèle. On ne pourra donc pas dire si tel
paramètre est positif ou négatif à un seuil de signification donné.

4.2.1. Détection

Il y a plusieurs façons de détecter la multicolinéarité.

1. Se référer au coefficient de détermination. Lorsqu’on a R 2 très élevé pendant que les


paramètres ^β sont non significatifs, on doit soupçonner la présence de la
multicolinéarité. En d’autres termes, la statistique F de Fisher est significative alors
que les t-de student sont non significatifs, cela veut dire que qu’il y a présomption de
multicolinéarité.
2. Voir si l’ajoute de quelques observations modifie les résultats du modèle. Si les
coefficients ^β changent après l’ajoute d’une ou quelques observations
supplémentaires, il y a présomption de multicolinéarité.
3. Appliquer le test de KLEIN. Il s’agit de générer, à partir de l’ordinateur, la matrice de
corrélation simple entre différentes variables. Ensuite, on compare les coefficients de
cette matrice notée rij (avec i ≠ j) avec le coefficient de détermination. Si r ij >R2, il
présomption de multicolinéarité.
Le calcul de rij peut aussi se faire sans pouvoir générer la matrice de corrélation
simple. Mais il s’agit d’un processus long et fastidieux d’où l’intérêt d’utiliser un
ordinateur.
4. Faire le test de Farrar-Glauber. [cfr. BOURBONAIS R. (1998), Econométrie, p. 103].

4.2.2. Correction

Pour remédier au problème de multicolinéarité, il y a plusieurs techniques :

- Augmenter la taille de l’échantillon.


- Combiner les données en coupes transversales avec les données time-séries
(Econométrie sur les données de panel ou en pooling).
- Limiter le nombre des variables explicatives intervenant simultanément dans une
équation de régression, en éliminant celles dont les coefficients ne sont pas
significatifs. La pratique montre qu’il est généralement inutile d’introduire
simultanément dans une même équation plus de quatre variables explicatives.
- Lorsque l’objectif poursuivi est plus d’expliquer ou d’interpréter un phénomène, que
d’essayer de le prévoir, il peut être utile de procéder à une régression orthogonalisée
si l’on souhaite que toutes les variables observées soient prises en considération. (cfr.
DAGNELIE P., Analyse Statistique à plusieurs variables, p.96).

Face à ces articles de calcul, la seule parade vraiment efficace consiste, lors de la
spécification du modèle, d’éviter autant que possible d’introduire dans une même équation,
non seulement des variables explicatives fortement corrélées entre elles, mais aussi des
variables explicatives telles que l’une soit, même approximativement, fonction des autres.

En particulier, on doit éviter l’utilisation simultanée des variables explicatives


dont la somme est constante. Ce qui est important pour éviter « l’effet masque ».

4.3. FORME FONCTIONNELLE

Parmi les hypothèses qui doivent satisfaire un modèle se trouve la linéarité en X t


ou n’importe quelle transformation de Xt.

La violation de cette hypothèse rend inopérante la méthode OLS. Toutefois,


l’économètre peut être buté au problème du choix entre la régression linéaire et la régression
non linéaire par la transformation de X.
Le test de Mackinnon, White et Davidson (MWD) permet de faire le choix.

Soient les modèles ci-après :

Yt=α0+ α1X1t+ α2X2t+…+ αkXkt+εt (1)


Yt’= β0+ β1X’1t+ β2X’1t+…+ βkX’kt+ εt’ (2)
avec Y’t= logYt et X’it= log Xit

Les étapes à suivre dans l’application du test MWD sont les suivantes :

1. Poser les hypothèses :


H0 : modèle linéaire : Y est une fonction linéaire des régresseurs X
H1 : modèle logarithmique linéaire : log Y est une fonction linéaire des logarithmes
des régresseurs X
2. Estimer le modèle linéaire (1) et obtenir la droite de régression Y^
3. Estimer le modèle logarithmique (2) et obtenir la droite de régression Y^ ’
4. Obtenir les Zt = Y^ t’-Y^ t
5. Régresser Yt sur les X et sur Zt : rejeter H0 si le coefficient de Zt est statistiquement
significatif en utilisant le test de t- de Student ;
6. Obtenir Zt’=antilog[Y^ t’-Y^ t]
7. Régresser Y^ t’ sur les X’ et sur Z t’ : rejeter H1 si le coefficient de Z t’est statistiquement
significatif en utilisant le test de t-Student.

4.3.1. Détection

Pour détecter la violation de cette hypothèse, on fait souvent recours au test de


RESET incorporé dans l’ordinateur.

Si la probabilité associée à la statistique F-Reset Test est supérieur à 0.05, cela


veut dire que la forme fonctionnelle est plus ou moins bonne. Toutefois, la pratique
économétrique exige que cette probabilité soit au moins supérieur à 0,10.

P.S. Cette statistique suit la loi de χ 2 à (n-2) degrés de liberté. On peut donc comparer le
F-Reset Test à la statistique χ 2 lu dans la table de khi-carré.
Si F-Reset < χ 2, on conclut que la forme fonctionnelle est bonne.

4.3.2. Correction

En cas de violation de cette hypothèse, on peut recourir à la transformation


logarithmique ou à l’insertion dans l’équation de régression des variables indicatives (variable
muette). On peut aussi introduire le trend,
4.4. AUTOCORRELATION

Il y a autocorrélation lorsque l’hypothèse E(εε’) = 0 est violée. Dans ce cas,


l’estimateur de moindre carré ordinaire β reste sans biais, mais cet estimateur n’est plus à
variance minimale.

En d’autres termes, la matrice de variance-covariance Ω ε= E(εε’)≠δ 2ε I (elle n’a


plus la forme δ 2ε I, parce qu’elle plus composée de 0 à l’extérieur de la diagonale principale. Et
cela parce que Cov(εε’) = E(εε’) ≠ 0.

Dans le cas de l’autocorrélation, le modèle s’écrit :

Y = Xβ+ ε (1)
avec εt = ρ1 εt-1+ ρ2 εt-2+ ρp εt-p+ ut (autocorrélation d’ordre p)

4.4.1. Détection

Deux tests sont souvent utilisés pour détecter l’auto corrélation :

- Test de Durbin et Watson (1950 et 1951)


- LM-Test de Breush-Godfrey (1978)

[Link]. Test de Durbin-Watson

Le Test de Durbin-Watson (DW) permet de détecter l’autocorrélation des erreurs


d’ordre 1 selon la forme :

εt = ρεt-1+ut (2)

Le test d’hypothèse est le suivant :

H0 : ρ = 0 (absence d’auto corrélation)


H1 : ρ ≠ 0 (il y a doute et donc on ne peut pas conclure)
ou H1 : ρ > 0 ou ρ < 0 (il y a présence d’autocorrélation positive ou négative)

Pour tester ces hypothèses, on calcule la statistique de Durbin–Watson, comme


suit :
2
∑( ε t−ε t −1 )
Dw = 2 (Dw varie toujours entre 0 et 4)
∑ εt

où εt est le résidu de l’estimation de l’équation (1).


Cette statistique sera comparée aux valeurs tabulées dans la table de Durbin et
Watson au seuil de 5 % en fonction de la taille n et du nombre de variables explicatives (k).
ρ>0 ? ρ=0 ρ=0 ? ρ<0
0 d1 d2 2 4-d2 4-d1 4

La lecture de la table de déterminer deux valeurs d 1 et d2 comprise entre 0 et 2 qui


délimitent l’espace entre 0 et 4 selon le schéma ci-après :

Par exemple si n = 20 et k = 3, alors d1= 1 et d2 = 1,68


D’où, on tire 4-d2= 2,32 et 4-d1 = 3.

Selon la position du Dw empirique dans l’espace ci-dessus, les conclusions ci-


après en découlent :

 Si d2 < Dw < 4-d2, il y a absence d’autocorrélation


 Si 0< Dw <d1, il y a autocorrélation positive
 Si 4-d1< Dw <4, il y a autocorrélation négative
 Si d1< Dw <d2, 4-d2 < Dw < 4-d1, il y a doute sous la présence d’autocorrélation.
Ces deux zones s’appellent zones d’indétermination.

P.S. Durbin et Watson ont montré que pour un processus stationnaire, la valeur de Dw est
comprise entre 0 et 4 avec absence d’auto corrélation au voisinage de 2.

[Link]. LM-Test de Breush - Godfrey

Ce test est plus complet que le test de Durbin-Watson parce qu’il permet de tester
une autocorrélation supérieur à 1 et reste valide en présence de la variable dépendante décalée
en tant que variable explicative. Ce test est mené par trois étapes :

1. estimation par OLS du modèle général (1) afin de générer les résidus εt de l’estimation ;
2. estimation par OLS de l’équation intermédiaire suivante :εt = ρ1 εt-1+ ρ2 εt-2+ ρp εt-p+ ut
A partir de cette estimation, tirer la valeur de R2
3. tester l’hypothèse nullité des ρi sur l’équation intermédiaire ; soit :

H0 : ρ1 = ρ2 =… = ρp= 0 (absence d’auto corrélation)


H0 : ρ1 ≠ ρ2 ≠ … ≠ ρp ≠ 0 (présence d’auto corrélation)

Ce test peut être mené à deux niveaux :

 Soit effectuer un test Fisher classique de nullité des ρi (cfr. Chapitre 3)


2
R /k
F= 2 si Fc > FT, on rejette H0. D’où, il y a autocorrélation.
(1−R )/(n−k−1)
 Soit recourir à la statistique LM qui est distribuée comme un X 2 à p degrés de
libertés : LM = n.R2
Si LM > X2p on rejette H0. D’où il y a autocorrélation des erreurs.
P.S. La statistique F-LM Test est généré automatiquement dans l’ordinateur avec sa
probabilité. Si la probabilité associée à la statistique F-LM Test est supérieur à 0.05,
cela veut dire qu’il y a absence d’autocorrélation.

4.4.2. Correction

Pour corriger l’autocorrélation, on applique l’OLS sur le modèle transformé en


différence de la manière suivante :

 Considérons un modèle à deux variables suivantes :

Yt = a0 + a1 X1t+ a2 X2t + εt (1)


avec εt = ρ εt-1 + ut (1’)

 On écrit le modèle (1) en t-1 ; ce qui donne :

⇒ρ Yt-1 = a0 ρ + a1 ρX1t-1+ a2 ρX2t-1 + ρ εt-1


Yt-1 = a0 + a1 X1t-1+ a2 X2t-1 + εt-1 (2)
(2’)

 On enlève de (1) l’équation (2’) pour obtenir :

Yt – ρYt-1 = a0 - a0 ρ + a1 X1t – a1 ρX1t-1 + a2X2t – a2 ρ X2t-1+ εt - ρ εt-1


DYt = b0 + b1DX1t + b2DX2t + vt (3)

En appliquant l’OLS sur le modèle (3) où le terme aléatoire v t répond aux


hypothèses classiques, on retrouve directement les paramètres du modèle initial ; en ce qui
concerne le terme constant a0.
b^ 0
a^ 0=
(1− ρ)

Toutefois, l’application de l’OLS sur le modèle (3) nécessite la connaissance de ρ.


Il existe plusieurs méthodes pour estimer ρ, dont les plus populaires sont :

- La méthode basée sur la statistique de Durbin–Watson


- La procédure itérative de Cochrane – Orcutt

[Link]. Méthode basée sur la statistique Dw

Il y a deux étapes dans l’application de cette méthode :

Etape 1 : estimation de ρ par :


Dw
 ρ = 1- ; ou encore
2
 Par la régression directe de εt sur εt-1 ; εt étant générée à partir de l’équation
initiale Y = Xβ + ε
2
∑( ε t−ε t −1 )
εt = ρ εt-1 ( ^ρ = 2
¿
∑ εt

Etape 2 : transformation des variables en introduisant ^ρ et régression sur les quasi-


différences :

Yt - ρYt-1 = b0 + a1(X1t – ρX1t-1) + a2(X2t – ρX2t-1) + … + ak(Xkt – ρXkt-1) + vt

b0
Les estimateurs de MCO obtenus sont : a^ 1, a^ 2,…, a^ k et a^ 0 =
1−ρ

L’inconvénient de cette méthode est que cette méthode ne présente pas de


garanties pour les petits échantillons.

[Link]. Procédure itérative de Cochrane-Orcutt

Il s’agit d’une procédure itérative de re-estimation jusqu’à la stabilité des


coefficients a i( i = 1, 2, …, k), il existe plusieurs étapes dans l’application de cette méthode :

Etape 1 : régression de εt sur εt-1 ; εt étant générée à partir de l’équation initiale

Y = Xβ + ε (1)
Yt = a 0 + a 1 X1t+ a 2 X2t +…+ a k Xkt + εt
ε^ t = ^ρ εt-1 ; on fixe ^ρ = ^ρ 0

Etape 2 : régression sur les quasi-différences

Yt - ^ρ Yt-1 = b0 + a 1(X1t – ^ρ X1t-1) + a 2(X2t – ^ρ X2t-1) + … + a k(Xkt – ^ρ Xkt-1) + vt


DYt = b0 +a1DX1t + a2DX2t + …+ akDXkt + vt

b^ 0
Les paramètres estimés sont a^ 1, a^ 2,…, a^ k et a^ 0 = puisque b0 = a0 –a0ρ0= a0( 1 –ρ0)
1−^ρ

Etape 3 : régression de vt sur vt-1 ; vt étant générée à partir de l’équation (2)


^v t = ^ρ vt-1 ; on fixe ^ρ = ^ρ 1

Etape 4 : régression sur les quasi-différences


Yt - ^ρ 1 Yt-1 = b0 + a^ 1(X1t – ^ρ 1X1t-1) + a^ 2(X2t – ^ρ 1X2t-1) +…+ a^ k(Xkt – ^ρ 1Xkt-1) + wt (3)
Etape 5 : régression de wt sur wt-1 ; εt étant générée à partir de l’équation (3)
^ t = ^ρ wt-1 ; on fixe ^ρ = ^ρ 2
w

Etape 6 : régression sur les quasi-différences


Yt - ^ρ 2Yt-1 = b0 + a1(X1t – ^ρ 2X1t-1) + a2(X2t – ^ρ 2X2t-1) +…+ ak(Xkt – ^ρ 2Xkt-1) + ut (4)

Puis nous générons un nouveau résidu ut à partir de l’équation (4) qui servira au
calcul de ^ρ 3 et ainsi de suite jusqu’à la stabilité des coefficients a i de l’estimation ; c’est-à-dire
lorsque les valeurs trouvées des ai après deux itérations successives ne diffèrent plus que d’un
nombre donné aussi petit que l’on veut ; c’est-à-dire (a ij−aki = epsilon).

Notons à ce sujet que le logiciel E-views permet d’arriver automatiquement à la


fin du processus sans passer par tous ces calculs. Pour ce faire, il suffit tout simplement
d’insérer, à la commande de l’estimation, la variable AR(1) ou AR(2), ou encore MA(1) ou
MA(2) pour corriger cette auto corrélation. Par exemple la commande de la corrélation de
l’auto corrélation d’ordre 1 est :

Ls Y C X1 X2…Xk AR(1).

La corrélation de l’auto corrélation est acceptée si le coefficient associé à la


variable AR(1) est significatif.

4.5. HETEROSCEDASTICITE

Il y a hétéroscedasticité lorsque la variance des erreurs n’est plus constante. Dans


ce cas, l’hypothèse var(u) = δ 2ε I est violée.
Les conséquences de l’hétéroscedasticité sont identiques à celle de l’autocorrélation ; c’est-à-
dire l’estimateur OLS reste sans biais, mais il n’est plus à variance minimale.

4.5.1. Détection

Il existe plusieurs tests pour détecter l’hétéroscedasticité, dont les plus


utilisées sont :

- Le test de Park
- Le test de rang de Spearman
- Le test de White et Arch-Test

[Link]. Test de Park

Il existe trios étapes dans l’application de ce test :


Etape 1 : générer ε^ t à partir de l’estimation du modèle initial : Y = Xβ+ ε (1)
Etape 2 : estimer le modèle logarithmique suivant :
ln│ε^ t│= α + a1lnX1t + a2lnX2t + … + ak lnkt + ut
Etape 3 : tester la significativité des coefficients ai
Si un de coefficient au moins a i est significatif, il y a présomption
d’hétéroscedasticité.

[Link]. Test de rang de Spearman

Les étapes à suivre sont les suivantes :

1. Appliquer l’OLS dans le modèle initial : Y = Xβ + ε afin de générer de l’estimation ε^ t


2. Prendre les valeurs absolues de ε^ t ; soit │ε^ t│puis les ranger en ordre croissant ou
décroissant en même temps que Xt ou Y^ t
3. Générer la différence dt correspondant à la différence entre les deux nouvelles séries
formées des chiffres 1, 2, …, n (différence de rangs)
4. Calculer la statistique de Spearman par la formule :

2
6 ∑ dt
rs = 1 -
n ( n2−1 )

5. Calculer la statistique t par :

r s √ n−2
tc =
√1−r 2
s

6. Comparer cette statistique à la statistique t- de Student de la table à (n-2) degrés de liberté


et pour un seuil de signification α = 0,05.

Les hypothèses du test sont :

H0 : hétéroscedasticité
H1 : homoscedasticité
Si tc > tT : rejet H0. Donc, il y a homoscedasticité
Si tc < tT : Accepter H0. Il y a hétéroscedasticité

[Link]. Test de White et Arch-Test

Ces deux tests sont incorporés dans le logiciel d’économétrie (E-views, TSP,…).
Ces logiciels donnent les valeurs des statistiques de test (F-Arch Test et E-White Test).
Celles-ci suivent la loi de Khi-deux.
Si les probabilités associées à cette statistiques sont supérieurs à 0.05, cela veut
dire qu’il y absence d’hétéroscedasticité.

4.5.2. Correction

La correction de l’hétéroscedasticité se fait par la régression pondérée sur les


données brutes (Y = Xβ+ ε ) divisées par une variable de correction. C’est la méthode de
Gleijser.

Les étapes à suivre dans l’application de cette méthode sont les suivantes :

Etape 1 : générer les résidus εt à partir du modèle initial Y = Xβ + ε (1)


Etape 2 : effectuer trois régressions successives de la valeur absolue │ ε^ t│de résidus sur les X
de la manière suivante :

1. Estimer │ε^ t│=Xβ + ε en faisant accompagner chaque coefficient de son t- de


student empirique.
1
2. Estimer│ε^ t│= X 2 β en associant à chaque coefficient son t-de student empirique (2)
3. Estimer│ε^ t│= X 2 β en associant à chaque coefficient son t-de student empirique (3)

Etape 3 : comparer les t-de student empiriques obtenus dans les trois régressions et retenir la
régression affectée des t -de student empiriques les plus élevés.
Etape 4 :

→ Si la régression (1) domine les deux autres (c’est-à-dire si elle est affectée des t–de student
empiriques les plus élevés), faire la régression pondérée en divisant les données brutes de
l’équation initiale Y = Xβ+ ε par Xit de l’équation affectée du ratio de student le plus
élevé, en valeur absolue, de l’équation (1) :

1 X1t X2t X X kt
Yt = a 0 +a 1 + a2 X 2 t + …+a i ¿ +…+ a k +u
X¿ X¿ X¿ X¿ X¿ t

⇒Yt = a i + a 0 +a 1
1 X1t X2t x
+ a2 X 2 t + …+a i ¿ +u t
X¿ X¿ X¿ x¿

En estimant ce modèle, chaque paramètre restitué comme telle dans la régression initiale.

→ Si la régression (2) domine les deux autres, faire la régression pondérée en divisant les
données brutes de l’équation initiale Y = Xβ+ ε par, √ X ¿ ; Xit étant effectée du ratio de
student le plus élevé, en valeur absolue, de l’équation :
1 X X X X
Yt = a0 +a1 1 t + a2 X 2 t 2 t + …+ai ¿ + …+ a k kt +ut
√ X¿ √X¿ √ X¿ √X ¿ √ X¿

L’estimation de ce modèle, sans la constante, fournit de bons résultats et restitue les


paramètres du modèle initial : Y = Xβ + ε.

→ Si c’est régression (3) qui domine les deux autres, faire la régression pondérée en divisant
les données brutes de l’équation initiale par X −1i . Ce qui revient de multiplier chaque

variable initiale par Xi.

Notons à ce sujet, que dans la pratique, c’est la correction par √ X ¿ qui est la plus couramment
utilisée.

4.6. EXOGENEITE DE LA VARIABLE EXPLICATIVE

Lorsque, dans un modèle, les variables exogènes ne sont plus observées sans
erreurs, il en résulte une corrélation entre les erreurs et les variables exogènes du modèle. En
d’autres termes, l’hypothèse E(u/ X ¿ ¿= 0 n’est plus vérifiée.

La conséquence de la violation de cette hypothèse est que les estimateurs OLS


obtenus par la méthode de Moindres Carrés Ordinaires sont biaisés et non convergent.

4.6.1. Détection

Il existe deux grands tests pour la violation de cette hypothèse :

- Le test de Wu–Hausman
- Le test de Nakamura–Nakamura

[Link]. Test de Wu–Hausman

Ce test étant ennuyeux à réaliser, cela ne fait pas partie d’une analyse dans ces
notes. De plus, il a été démontré que le test de Nakamura–Nakamura était identique au test de
Wu–Hausman au niveau puissance.

[Link]. Test de Nakamura-Nakamura

Pour comprendre ce test, on part d’un modèle linéaire à une seule variable
indépendante. Les conclusions tirées de ces résultats seront généralisés dans le cas à plusieurs
variables exogènes.

 Construction du test :

Ho : Y i=a+b X i + ε i (X est exogène)


{Y i=a '+ b ' ^
'
X i + εi
H1 : (X est endogène)
X i= ^
X i +e i

^
X i est le prédicteur de Xi ; c’est-à-dire la valeur estimé de Xi obtenu en régressant X sur ses
instruments.
Un instrument est une variable fortement corrélée avec X i et supposée non corrélée avec ε i.
L’objectif de ce test est de comparer b et b’. Si b=b’, H o l’emporte. Cela veut dire que la
variable Xi est exogène (non corrélé avec le résidu).

 Astuce du test

Pour mener ce test, il convient d’estimer l’équation ci-après :

^ )+ε
Y i=a+b X i + c( X i− X i i

Si le coefficient estimé de c est non significatif, accepter H o. Cela veut dire que
l’écart entre Xi et ^
X i est nul, et donc Xi= ^
X i (Xi étant mesuré sans erreur).

 Généralisation au cas de régression multiple

Dans le cas d’un modèle à plusieurs variables, ce test se fera de la manière


suivante :

Y i=a+b X i + d Z i+ …+c ( X i− ^
X i ) +m ( Zi + Z^ i ) +…+ ε i

Pour tester si les coefficients c, m, … sont égaux à zéro, on fait recours au test de
F qui est un test global de signification des coefficients de la régression.

Si c=m=…=0 ; accepte Ho

Si F est significatif et qu’en même temps les t sont non significatifs, cela veut dire qu’il y a un
problème de multicolinéarité. Toutefois, F- test prime sur t-test.

P.S. On ne peut présenter le test d’exogeneité que lorsqu’ on soupçonne l’endogenité ; sinon
on ne présente pas le test.

4.6.2. Correction

En cas de violation de cette hypothèse, on doit utiliser la méthode de variables


instrumentales.
Pour utiliser cette méthode, il convient tout d’abord de rechercher les
instruments pour les variables exogènes (corrélées avec les résidus). Ces instruments doivent
être « intelligents », c’est-à-dire :
- avoir un sens théorique ;
- être fortement corrélés avec les Xi endogènes ;
- être exogènes, c’est-à-dire non corrélés avec les résidus.

C’est pourquoi, dans certains cas limites, on choisit comme instrument, les
exogènes décalés d’une période.

[Link]. Présentation de la méthode de variables instrumentales

1. Chercher d’abord k variables instrumentales notées z 1, z 2, …, z k ; soit la matrice Z.


Cette dernière est composée de 1 pour la première colonne et des z i pour les colonnes
suivantes.
2. Trouver la transposé de Z, notée Z’.
3. Estimer β par la formule ^β=(Z ’ X )−1 Z ’ Y ; et trouve la nouvelle matrice variance-
covariance ; soit : Ώ ^ =δ^ (Z ’ X ) ( Z Z ) ( Z ’ X ) .
2 −1 ' −1
β ε

Cette matrice va servir pour les tests d’hypothèses sur les coefficients.

[Link]. Application de la méthode

Un agronome désire estimer la relation entre le rendement de blé (Y i) et la


quantité utilisée d’engrais (Xi). Pour ce faire, il ne dispose que de la quantité d’engrais (X i)
déclarée par les agriculteurs qui est entachée d’erreurs. Cependant, il pense que la variable de
dépense effective en achat d’engrais (Z i) est indépendante de l’erreur d’observation de la
quantité d’engrais déclarée et bien corrélé avec la consommation réelle d’engrais.
On dispose de 20 observations présentées au tableau ci-après :

Y X Z

15,3 17,3 3
19,91 21,91 7
20,94 22,96 5,4
19,66 21,86 9,8
21,32 23,72 7,8
18,33 20,73 7,8
19,59 22,19 10,2
21,3 23,9 10,2
20,93 23,73 12,6
21,64 24,44 12,6
21,9 24,9 15
20,5 23,5 15
22,83 26,05 17,4
23,49 26,69 17,4
24,2 27,6 19,8
23,05 26,45 19,8
24,01 27,61 22,2
25,83 29,43 22,2
25,15 28,95 24,6
25,06 28,86 24,6
492,78 284,4

On demande d’estimer la relation entre Yi et Xi

Solution

La régression de Yi sur Xi conduit aux résultats suivants :

Y^ i=1.47 +0.82 X i
(44.06)
2
R =0.99 F=1942 Dw=1.45

Cependant la méthode OLS n’est pas applicable, car E(u/X)≠0. On va donc


appliquer la méthode des variables instrumentales :

^β =(Z ' X )−1Z’Y

On obtient :

Z ’ X=
[284.40
20.00 492.78
7369.53
'
]−1
; (Z X ) =
1 , 02 −0 , 07
−0 , 04 0 , 00 [
et Z’Y=
434 , 94
6472 ,88 ] [ ]
[ ]
⟹ ^β= 2, 15
0 , 80

−1
L’estimateur de la variance est donnée par :Ω ^β= δ^ 2ε ( Z ' X ) (Z ' Z)(Z ' X )−1

εε ' 1 ,29
δ^ ε =
2
= =0,071
n−2 18
Z ’ Z=
[
20 , 00 284 , 40
284 , 40 4866 , 08 ]
D’où Ω ^β= [−02 , 65, 09 −0 ,18
0 , 01 ] ⟹ S =0,0266
a^ 1

L’estimation par la méthode des variables instrumentales donne :

Y^ =2, 15+0 , 80 X i
(37,5)
2
R =0,98 F=1942 Dw=1,71
Nous constatons que les valeurs estimées du terme constant sont légèrement
différentes à celles obtenus par OLS. Toutefois, le coefficient de régression a^ 1 sont
quasiment identiques.

4.7. STABILITE DES COEFFICIENTS

Nous avions dit au chapitre 2 que l’hypothèse de stabilité des coefficients n’est
requise que lorsque le modèle a pour objectif la prévision.

La stabilité des coefficients implique l’absence des changements structurels dans


le modèle. En d’autres termes, si les données de l’échantillon sont coupées en deux sous-
échantillons, les paramètres de l’estimation doivent tendre vers la même valeur.

4.7.1. Détection

La violation de cette hypothèse est détectée à partir du test de Chow et de Cusum.

Il existe deux façons de présenter le test de Chow, selon qu’on a suffisamment de


données par sous échantillon (±18 données) ou non.

[Link]. Test de Chow

Dans le premier cas, les étapes à suivre sont les suivantes :

Etape 1 : Chercher durant la période estimée, un événement important pouvant conduire au


changement structurel du modèle. L’année de survenance de cet événement servira
à séparer les deux sous-échantillons. Comme événement important, on peut citer :
la guerre, la démocratisation de l’économie, la réforme monétaire, les pillages, le
coup d’Etat, etc.

Etape 2 : Construire les hypothèses du modèle :

Ho ; les coefficients du modèle sont stables


H1 : les coefficients du modèle sont variables

Le modèle estimé étant Y = Xß+ ε (1)

Supposons que l'estimation concerne la période 1960 – 1995. Par ailleurs, on sait
qu'en 1979, le pays est entré en Programme d'Ajustement Structurel avec le FMI (PAS). Ce
qui conduit à fractionner l'échantillon en deux sous-échantillons de la manière suivante :
Période avant le PAS (1960 - 1978 : S/échantillon I) ; et
Période après le PAS (1979 - 1995 : S/échantillon II)

Etape 3 : Construire le test de Chow en suivant la procédure ci-après :

 - Faire la régression du modèle initial (1) sur la sous-période 1960 - 1978 (sous-
échantillon 1); puis générer la somme de carrés de résidu notée SCR1
- Faire la régression du modèle initial (1) sur la sous-période 1979 - 1995 (sous-
chantillon 2); puis générer la somme de carrés de résidu notée SCR2.

- Faire la régression du modèle' initial (1) sur toute la période 1960 - 1995 ; puis
générer la somme de carrés de résidu notée SCRT.

 Construire la statistique du test

F c=
( SCR T −SCR 1−SCR 2
SCR 1 + SCR 2 )( n−2 k
k )
avec n=taille de l'échantillon (n=n1+n2)

Cette statistique suit une distribution F de Fisher à k et (n-2k) degrés de liberté;(Fα; k;n-2k)

 Faire le test de la manière suivante

Si Fc > FT : Rejet Ho. Cela veut dite que les coefficients ne sont pas stables sur
l’ensemble de la période.

[Link]. Test de Chow réduit

Lorsque les données ne sont pas suffisamment élevées par sous échantillon, on
utilise le test de Chow réduit.

Il s'agit du test sur un seul sous-échantillon : le sous-échantillon ayant plus ou


moins 15 données.

Par exemple, si l'on veut tester le modèle ci-dessus sur la période d'estimation 1970 - 1995, la
procédure à suivre sera la suivante :

 Choisir l’année supposée de changement de structure ; 1979 pour notre exemple ;

 Faire la régression du modèle initial sur la sous-période ayant suffisamment de


données (1979 - 1995 , 17 données ; contre 9 données seulement pour 1970 - 1978) ;
puis générer la somme de carrés de résidu, notée SCR1
 Faire la régression sur l'ensemble de l'échantillon (1970-1995); puis générer la somme
de carrés de résidu, notée SCRT

 Construire la statistique du test

F c=
( SCR T −SCR 1
SCR 1 )( n1−2 k
n2 )
n1= taille de l’échantillon total et n2= taille échantillon ayant moins de données
Cette statistique suit une distribution F de Fisher à n2 et (n1-k) degrés de liberté (Fα; n2; n1-k).

 Faire le test de la manière suivante :

Si Fc > FT : Rejet Ho.

P.S. On peut aussi appliquer le test de Chow sur les données en coupes transversales. Pour ce
faire, le partage de l'échantillon en deux sous-échantillons peut se faire par exemple de
la manière suivante :

- les pays de la zone Francs (sous-échantillon I) ;


- les pays hors zone Francs (sous-échantillon II).

ou encore :

- les Hommes : sous-échantillon I


- les Femmes : sous-échantillon II

[Link]. Alternative au Test de Chow : Cusum-Test

Le test de CUSUM ne concerne que les données en Time-séries. La procédure à


suivre est la suivante :

- Appliquer l’OLS sur la première sous-période (ex. 1960 - 1978 pour notre exemple).
- Reprendre progressivement l'estimation OLS du modèle en ajoutant chaque fois une
observation supplémentaire jusqu'à l'épuisement complète de l'échantillon choisi.
- Si les coefficients de l'estimation tendent vers les mêmes valeurs (approximativement),
on conclut à la stabilité du modèle. Sinon, les coefficients ne sont pas stables et il
importe de corriger les points aberrants : un point aberrant est une donnée ayant
conduit à l'instabilité des coefficients. Il est repéré à partir de l'observation du
graphique.

4.7.2. Correction

Corriger l'instabilité des coefficients revient à traiter les données aberrantes de


l'estimation.
Il existe plusieurs méthodes pour le traitement des points aberrants dont :

- Remplacer chacune des points aberrants par la moyenne générale de la variable


correspondante et à utiliser ensuite les méthodes de calcul habituelles, à partir de la
nouvelle matrice de données.
- Estimation de nouvelles données par la méthode de régression. Chacune de données
aberrantes peut en effet être estimée soit directement par régression multiple en
fonction de l'ensemble des autres variables explicatives ; soit indirectement par
régression simple, en fonction de chacune des autres variables explicatives, en
calculant ensuite une moyenne éventuellement pondérée différents résultats ainsi
obtenus.
- On peut aussi introduire une variable muette qui anéantirait l'impact du point
aberrant.

Remarquons que ces solutions s'appliquent également en cas de données manquantes ; la


troisième solution étant similaire à l’élimination complète de ou données correspondantes.
Chapitre 5 : LES MODELES A DECALAGES TEMPORELS

Les modèles à décalages temporels sont des modèles qui incluent parmi les
variables explicatives les variables endogènes et exogènes retardées.

La formulation générale est :

Y t =f (X 1 t , X t −i , Y t − j )avec i=1 , 2, … , h ; j=1 ,2 , … , h et l=1 , 2 , … , k

L'expression analytique de cette équation est :

0 1 2 0 1 2 0
Y t =b1 Y t −1 +b 2 Y t −2+ …+b h Y t −h+ a0 +a 1 X 1 t +a1 X 1 t −1 + a1 X 1t −2+ …+a 2 X 2t +a2 X 2 t −1 + a2 X 2t −2+ …+a k X kt + a
(1)

Lorsque les variables exogènes décalées ne figurent pas dans le modèle, le


modèle est dit « autorégressif » ; et lorsque les variables endogènes décalées ne figurent pas
dans l'équation, le modèle est dit « à variables échelonnées ».

5.1. MODELES LINEAIRES AUTOREGRESSIFS

Ce sont des modèles qui ne comprennent pour variables explicatives que les
variables exogènes et des variables endogènes décalées.

5.1.1. Formulation générale

La formulation générale d'un modèle autorégressif est :

Y t =b1 Y t −1 +b 2 Y t −2+ …+b h Y t −h+ a0 +a 1 X 1t + a2 X 2 t +…+ ak X kt + μt (2)

Le modèle tel que spécifié ci-dessus est rarement utilisé. Le plus souvent, la
spécification du modèle se limite aux processus autorégressif d'ordre l de la forme :

Y t =b1 Y t −1 +a 0 +a1 X 1 t + a2 X 2t +…+ ak X kt + μ t (3)

Lorsque │bl│< 1, on dit que le processus est stable; et lorsque │bl│> 1, on est en
présence d'un processus explosif.

5.1.2. Estimation du modèle

La méthode d'estimation adéquate dépend d'une éventuelle autocorrélation des


erreurs :

- si les erreurs ne sont pas corrélées, on applique l'OLS sur le modèle (3) ;
- en cas d'autocorrélation des erreurs, c’est-à-dire
Y t =b1 Y t −1 +a 0 +a1 X 1 t + a2 X 2t +…+ ak X kt + μ t
avec μt =ρ1 μ t−1 + ρ2 μ t−2 +…+ ρ p μt − p +ε t

On applique l’OLS sur le modèle transformé en quasi-différence tel qu’exposé à


la section 4.4. A ce sujet, la méthode de COCHRANE ORCUTT s'avère la meilleure pour
estimer un tel modèle.

P.S. Dans le cas d’un modèle autoregressif d'ordre 1, le test classique de Durbin et Watson
sous-estime le risque d'autocorrélation. C'est pourquoi un nouveau test d'autocorrélation
(test de Durbin-h) doit être utilisé.

La construction de ce test se fait de la manière suivante :

1° Calculer la statistique du test (h) par la formule :

h=^ρ
√ n
1−n S2^b
Dw 2
1
→ N (0 ,1)

où ^ρ =1− et Sb^ , la variance estimée de b1 estimée à partir du modèle (3).


2 1

Cette statistique h suit la loi normale centrée réduite.

2° Formulation des hypothèses :

Ho : ρ=0: absence d’autocorrélation (c’est-à-dire h=0)


H1 : ρ ≠ 0: présence d’autocorrélation (c’est-à-dire h≠0)

Si |h| < Z α , accepter H0, cela veut dire qu’il y a indépendance sérielle des écarts.
2
2
N.B. Lorsque nS b^ ≥1, la statistique « h » ne peut pas être calculée. Dans ce cas, on peut
1

toujours utiliser la statistique Dw de Durbin-Watson en incluant la zoné de doute dans


la zone d'autocorrélation des erreurs.

Exercice

Un économiste désire tester la relation entre le prix officiel (Y) de la tonne de café
et le prix réellement appliqué à l’exportation (X) dans son pays. Il se propose d’estimer la
relation suivante : Y t =a 0+ a1 Y t−1 +a2 X t + μ t ; dans laquelle le prix officiel est fonction de
manière instantanée du prix observé et s'ajuste avec un retard d'un an au prix officiel.

Il dispose de données, de 1976 à 1991, présentées dans le tableau ci-dessous.


Année Y X
1976 455 615
1977 500 665
1978 555 725
1979 611 795
1980 672 870
1981 748,5 970
1982 846 1095
1983 954,5 1235
1984 1090 1415
1985 1243,5 1615
1986 1390 1795
1987 1559 2015
1988 1781 2315
1989 2046,5 2660
1990 2311 2990
1991 2551 3280
On demande :

a) d’estimer la relation et de tester une éventuelle autocorrélation des erreurs ;


b) d'en corriger les effets, le cas échéant.

Solution

a) L'estimation du modèle par OLS se fait en utilisant les fonctions ci-après dans E-Views :

DATA Y
DATA Y(-1)
DATA X
Ls Y C Y(-1) X

Les résultats de l'estimation se trouvent dans tableau suivant :

Variable dépend. Constante Yt-1 X


(Y) (C)
-7,08* 0,22* 0,62*
(-3,82) (6,04) (24,4)

R2 = 0,99 Fstat = 294296 F-Reset test = 6,94 (Prob, = 0,007)


R 2= 0,99 SSR = 125,5 J.B = 9,08 = 0,49 (Prob, = 0,01)
DW=0,63 F-LM test =1,95 (Prob, = 0,13)
Les chiffes entre-parenthèses sont des t-de student
* signifie que le coefficient est significatif au seuil de 1%.
La statistique de Durbin-Watson (Dw) laisse augurer d'une autocorrélation des
erreurs (Dw de loin inférieur à 2) ; alors que le LM-test laisse présager qu'il n'y a pas
d'autocorrélation. C'est pourquoi le test de Durbin-h est recommandé.

En faisant le test « h » de Durbin, on trouve :

h=^ρ
√ n
2
1−n S ^b
Z 0 ,05 =1 , 96
1
=0,685
√ 16
1−16( 0,0014)
=2 ,78

h(2,78)> Z α ¿), on rejette H0. Donc, il y a présence d’autocorrélation


2

b) Pour corriger l'autocorrélation, nous faisons recours à la méthode ; itérative de


COCHRANE ORCUTT. Il s'agit tout simplement d'ajouter, dans le modèle à estimer, la
variable AR(1). Pour ce faire, on lance, dans E-views, la commande :

Ls Y C Y(-1) X AR(1)

Les résultats restitués par l'ordinateur figurent dans le tableau ci-après :

Variable dépend. Constante Yt-1 X AR(1)


(Y) (C)
-2,77 0,23* 0,61* 0,42*
(-1,68) (15,5) (58,0) (3,69)

R2 = 0,99 Fstat = 1223832 F-Reset test = 3,23 (Prob. = 0,02)


R 2= 0,99 SSR = 15,1 J.B = 0,20 (Prob. = 0,90)
DW=2,09 F-LM test =0,02 (Prob.= 0,96)
Les chiffes entre-parenthèses sont des t-de student
* signifie que le coefficient est significatif au seuil de 1%.

Nous remarquons que l'autocorrélation est bel et bien corrigée dans la deuxième
estimation.

Sous réserve de satisfaction aux autres hypothèses classiques, l'interprétation des


résultats ne peut se faire que sur l'estimation amélioré (deuxième estimation). Ainsi, de
l'observation de ces résultats, on constate que le prix officiel de la période t est plus influencé
par le prix réellement pratiqué en t que par le prix officiel de l'année précédente.

5.2. LES MODELES A VARIABLES ECHELONNEES

Un modèle à variables échelonnées est un modèle dans lequel la variable


endogène dépend non seulement des variables exogènes mais aussi des variables exogènes
retardées.
5.2.1. Formulation Générale

D'une manière générale, l'analyse se limite dans le modèle du type :


Y t =b 0+ a0 X t + a1 X t−1 +a 2 X t −2+ …+a h X t−h + μt (4)
où la variable endogène dépend des valeurs prises par une variable exogène à des époques
différentes.

En général, l'effet de la variable explicative s'estompe avec le temps :

a 0> a1 >a 2> …>a h

Et la somme des coefficients a j tend vers une limite finie ; sinon il serait un
processus explosif.

L'estimation des paramètres du modèle (4) soulève deux types de difficultés :

- en pratique, la valeur de h qui mesure l'importance du nombre de retards est rarement


connue, même si nous en connaissons l'ordre de grandeur ;
- le second problème résulte de la colinéarité entre les variables exogènes. En effet, lorsque
le nombre de retards est important, la colinéarité entre les variables explicatives décalées
risque d'entraîner une imprécision dans l'estimation des coefficients.

C'est pourquoi, le plus souvent, on préfère émettre les hypothèses sur la forme de
retards. Pour ce faire, on postule une forme particulière que peut prendre la succession des
coefficients a 0 , a 1 , a2 , … , ah .

Il existe plusieurs types de spécifications dont la plus populaire est l'approche de


KOYOCK qui postule une décroissance géométrique des effets de la variable exogène à
travers le temps.

5.2.2. Rationnalisation de KOYOCK

L'approche de KOYOCK part de l'hypothèse que les a j de l'équation (4)


décroissent géométriquement de la manière suivante :

a1= λa0
a 2=λ 2 a 0
(5)

h
a h=λ a 0

avec 0 < λ < 1


Pour rationaliser l'expression (4), on procède de la manière suivante
n remplaçant les a j par leurs valeurs en (5) dans l'équation (4), on obtient :

2 h
Y t =b 0+ a0 X t + λa0 X t−1 + λ a 0 X t−2 +…+ λ a0 X t −h+ μ t (6)

ou encore : Y t =b 0+ a0 (X t + λX t −1+ λ2 X t−2 +…+ λh X t −h)+ μt

En écrivant le modèle (6) en t-1, on obtient :

2 h
Y t −1=b0 + a0 X t−1 + λa 0 X t −2+ λ a0 X t −3+ …+ λ a0 X t−h−1 + μt −1 (7)
⇒ λY t −1=λb0 + λa0 X t−1 + λ a 0 X t−2 + λ a 0 X t −3 +…+ λ (8)
2 3 h+1
a0 X t −h−1+ λμt −1

En enlevant de (6) l'équation (8), on obtient :

Y t −λY t −1=b0 ( 1−λ ) +a0 X t +( μ t−λμ t−1 )


⇒ Y t =λY t −1+ a0 X t + b0 ( 1−λ )+ v t (9)

On obtient ainsi un processus autorégressif d'ordre 1 dont la procédure


d'estimation a été exposée à la section 5.1.

Le coefficient a 0 est appelé multiplicateur de court terme (instantané) ou


multiplicateur d’impact.

a0
L’expression∑ a j =a0 + a1+ a2 +…+ ah= est appelé multiplicateur de long
1−λ
terme ou multiplicateur total 1.

5.2.3. Le modèle d'ajustement partiel

Le plus souvent, en économie, la rigidité des institutions ou des structures


empêche les variables à expliquer d'atteindre le niveau désiré en-une seule période.

Examinons deux exemples :

• Afin de faire face à une augmentation de la demande, une entreprise cherche à se doter de
moyens de production supplémentaires. Cependant cet investissement ne peut pas être
réalisé immédiatement et demande un certain temps d'ajustement.

1
Il s’agit de la somme de termes d’une progression géométrique de premier terme 1 et de raison r = λ dont les manuels

( ) (a
)
n h
1−r 1− λ
élémentaires nous apprennent à calculer la somme
1−r
. D’où ∑ a j =a0 1−λ = 1−0 λ lorsque h devient infini ;

h
puisque λ → 0.
• Lors de l'augmentation des prix du pétrole en 1970, les consommateurs et les institutions ont
réagi avec retard à cette modification des prix. Il en résulte qu'à court terme le
comportement des consommateurs ne reflète pas l'ajustement qui s'est produit à long terme.

La formulation de ce modèle est la suivante :

Il est nécessaire de distinguer entre la valeur désirée, de la variable à expliquer Y tD


, et la valeur vraie de cette même variable (Y t). Le niveau désiré de la variable à expliquer est
fonction de la variable explicative Xt tel que :

D
Y t =a0 +a1 X t + ε t (10)
Une modification de la valeur de Xt entraîne une modification de la valeur désirée
de la variable à expliquer. Cependant, malgré une spécification simple, on ne peut appliquer
l'OLS puisque nous n'avons aucune mesure de Y tD .

Puisque le niveau désiré de la variable à expliquer n'est pas directement,


observable, NERLOVE propose une spécification permettant de saisir la relation entre Y tD et
Yt ; soit :

D
Y t −Y t −1 =δ(Y ¿¿ t −Y t−1)¿ avec 0 ≤ δ ≤ 1 (11)

δ est appelé le « coefficient d'ajustement ».

La relation (11) représente l'ajustement progressif qui s'opère entre la valeur


désirée et la valeur observée.

Ce modèle peut se ramener de manière simple à un modèle de KOYOCK. En


substituant (10) dans (11), on obtient :

Y t −Y t −1 =δ(a ¿ ¿ 0+ a1 X t + ε t−Y t−1)¿


⇒ Y t =¿ ¿
⇒ Y t =¿ ¿ (12)
⇒ Y t =b 0 Y t −1+ c 1 X t +c 0 +v t (12’)

On peut aisément estimer les paramètres de l'équation (12’) par l'OLS.


La restitution des paramètres permet de retrouver :

c0 c1
a 0= ; a1= et δ=(1−b0 )
δ δ

5.2.4. Le modèle d'anticipation adaptative


Dans cette spécification, les valeurs de la variable à expliquer Y t sont fonctions
des valeurs, non pas observées d'une variable explicative, mais des valeurs attendues, telles
que :
P
Y t =a 0+ a1 X t + ε t (13)
où X tP est la valeur prévue de la variable explicative Xt.

Par exemple, la production d’une entreprise est fonction des valeurs prévues de ventes.

Comme pour le modèle précédant, on est confronté à l'absence de mesure de la


P
variable X . Pour lever cette difficulté, on pose une hypothèse concernant la formation de la
t
P
variable X : L'hypothèse des anticipations adaptatives.
t

Cette relation s’écrit donc :

P P P
X t − X t−1= λ(X t− X t−1 ) avec 0 ≤ λ ≤1 (14)
P
Ou encore X = λ X t +¿
t (15)
Où λ=coefficient d ' anticipation

En substituant X tP de (15) dans l'équation (13), on obtient :

Y t =a 0+ λ a1 X t + ( 1−λ ¿ a1 X Pt−1 ) + ε t (16)

Ce modèle peut se ramener à un modèle de KOYOCK :

En décalant (13) d'une période, puis en multipliant par (1- λ ), on obtient :

( 1− λ ) Y t−1=( 1−λ ) a0 + ( 1−λ ) a1 X tP−1+ (1−λ ) ε t−1 (17)

En faisant la soustraction de (16) et (17), on obtient :

Y t −( 1−λ ) Y t−1=λa 0+ λa1 X t +ε t−( 1−λ ) ε t −1


⇒ Y t =λa 0+ λa1 X t + ( 1− λ ) Y t−1 +v t (18)

On peut aisément estimer les paramètres de l'équation (18) par OLS.


La restitution des paramètres permet de retrouver : a0, a1 et λ

EXERCICE

La théorie économique postule que les dépenses d'investissement (notée Y)


peuvent être expliquées par les profits passés (notés X). Le modèle prend la forme d'un
modèle à retards échelonnés du type (4).
Nous disposons des données trimestrielles suivant concernant une industrie manufacturière.

Date Y X Date Y X Date Y X Date Y X


80:1 2072 1660 82:4 2309 3903 85:3 2140 1990 88:2 2448 2282
80:2 2077 1926 83:1
_ 2614 3912 85:4 2012 1993 88:3 2429 2533
80:3 2078 2181 83:2 2896 3571 86:1 2071 2520 88:4 2516 2517
80:4 2043 1897 83:3 3058 3199 86:2 2192 2804 89 :1 2534 2772
81:1 2062 1695 83:4 3309 3262 86:3 2240 2919 89 :2 2494 2380
81:2 2067 1705 84:1 3446 3476 86:4 2421 3024 89 :3 2596 2568
81:3 1964 1731 84:2 3466 2993 87:1 2639 2725 89 :4 2572 2944
81:4 1981 2151 84:3 3435 2262 87:2 2733 2321 90 :1 2601 2629
82:1 1914 2556 84:4 3183 2011 87:3 2721 2131 90 :2 2648 3133
82:2 1991 3152 85:1 2697 1511 87:4 2640 2552 90 :3 2840 3449
82:3 2129 3763 85:2 2338 1631 88:1 2513 2234 90 :4 2837 3764

On demande d'estimer la relation Investissement / Profit suivant la spécification KOYOCK.

Solution

La relation Investissement / Profit est du type :

Y t =b 0+ a0 X t + a1 X t−1 +a 2 X t −2+ …+a h X t−h +ε t

La spécification de KOYOCK nous permet d'estimer la relation :

Y t =λY t −1+ a0 X t + b0 (1−λ )+ v t

L'estimation du modèle par OLS nous donne les résultats suivants :

Variable dépend. Constante Yt-1 X


(Y) (C)
-222,24** 0,91* 0,18*
(-2,10) (25,25) (7,60)

R2 = 0,95 Fstat = 366 F-Reset test = 0,63 (Prob. = 0,48)


2
R =0 , 95 SSR = 403506 J.B = 9.08=1,26 (Prob. = 0,53)
DW=0,98 F-LM test =6,45 (Prob.= 0,004)
Les chiffes entre-parenthèses sont des t-de student
* signifie que le coefficient est significatif au seuil de 1% et **significatif à 5%

Cependant, comme nous l’avions souligné précédement, il y a un problème


d’autocorrélation dans ce type de modèle. Nous avions trouvé la subsistance d’une
autocorrélation d’ordre 1. Il convient donc de corriger cette autocorrélation par la procédure
de COCHRANE ORCUTT. Pour ce faire, nous devons re-estimer l’équation, en introduisant
la variable AR(1) de la manière suivante :

Ls Y C Y(-1) X AR(1)
La re-estimation du modèle fournit les résultats ci-après :

Variable dépend. Constante Yt-1 X


(Y) (C)
-103,04 0,88* 0,16*
(-0,47) (11,08) (4,23)

R2 = 0,96 Fstat = 308 F-Reset test = 0,63 (Prob. = 0,48)


2
R =0 , 96 SSR = 299441 J.B =1,44 (Prob. = 0,49)
DW=1,83 F-LM test =0,84 (Prob.= 0,039)
Les chiffes entre-parenthèses sont des t-de student
* signifie que le coefficient est significatif au seuil de 1%

Nous remarquons que l'autocorrélation est bel et bien corrigée dans la deuxième
estimation.
Sous réserve de satisfaction aux autres hypothèses classiques, l'interprétation des
résultats ne peut se faire que sur l'estimation amélioré (deuxième estimation).

La restitution des paramètres permet de retrouver


a 0=0 , 16 , a1=0 ,14 , a2=0 , 12 , a3=0 , 11, a 4=0 , 10 , a5=0 ,08 , … , et
−103 , 4
b 0= =−858 , 65 (non significatif)
1−0 , 88
Le paramètre d'ajustement est λ=0 , 88.

L’équation de régression estimée peut donc s’écrire :

Y t =−858 , 65+0 , 16 X t +0 , 14 X t −1+ 0 ,12 X t −2+ 0 ,11 X t−3 +0 , 10 X t −4 +0 , 08 X t −5 + …

Le multiplicateur de l'impact est 0,16, tandis que le multiplicateur total est 1,33 (0,16 + 0,14
+ 0,12 + 0,11+ 0,10 + 0,08 +…).

La PAGE 82 EST ABSENTE


Chapitre 6 : LA CO-INTEGRATION ET LE MODELE A CORRECTION
D'ERREUR

6.1. NOTION DE CO-INTEGRATION

Les méthodes statistiques classiques de l'économétrie ne sont applicables qu’à des


séries stationnaires. La satisfaction au test de stationnarité des variables constitue la condition
sine qua none pour l'application de la méthode des Moindres Carrés Ordinaires. En règle
générale, la régression des séries non stationnaires conduit à un vecteur d'erreur non
stationnaire, c'est-à-dire ayant une variance infinie. Cependant, lorsque les séries sont co-
intégrées, le vecteur d'erreur devient stationnaire et l'inférence statistique demeure alors
possible. Cependant, les tests de student ne suivent pas la distribution usuelle. La méthode de
WEST-NEWEY (1988) permet de corriger les t-de student dans une relation de co-intégration
afin de leur rendre leurs propriétés usuelles.

On dit qu'un processus est stationnaire lorsque tous ses moments sont
indépendants du temps. Dans ce cas, tout choc tendant à l'éloigner de sa moyenne déclenchera
des mécanismes le ramenant tendanciellement vers sa valeur moyenne. La stationnarité des
variables représente une solide garantie contre les régressions artificielles et non cohérentes.

Si une variable est stationnaire, on dit qu'elle est intégrée d'ordre 0; ce qu'on peut
noter I(0). D'une manière générale, on dit qu'une série est intégrée d'ordre « d », s'il faut la
différentier « d» fois pour qu'elle soit stationnaire.

On appelle variables co-intégrées X t, Yt une combinaison de variables intégrées


d'ordre « d, b », telle que le résidu de la régression :

Z t= X t + β Y t(2) soit intégré d’ordre (d-b), 0<b≤d.

La relation de co-intégration est une relation de long terme. Ce type de relations


sont des critiques à l'économétrie traditionnelle qui exige que les variables soient
stationnaires ; c’est-à-dire de type I(0). Dans cette relation de co-intégration, on régresse une
variable I(1) sur au moins une variable I (1).

Selon Engle et Granger (1987), lorsque deux séries sont co-intégrés CI(1,1), il est
possible de dégager une représentation dynamique de court terme avec un terme de rappel Z t-1
de long terme. C'est ce qu'on appelle « Modèle à Correction d'Erreur ».
Il s'agit de la relation entre les déviations de ces deux variables par rapport à leur niveau
d'équilibre de long terme respectif.

2()
( β ) s’appelle le vecteur co-intégrant.
6.2. TEST DE CO-INTEGRATION

La condition nécessaire de co-intégration est que les séries doivent être intégrées
de même ordre; en général d'ordre 1. Si les séries statistiques ne sont pas intégrées de même
ordre, la procédure s'arrête; il n'y a pas de relation de co-intégration.

Tester la stationnarité des séries revient à tester leur ordre d'intégration. Pour
savoir si les séries sont stationnaires, on fait recours au test de Dickey-Fuller (DF) ou au test
plus général de Dickey-Fuller Amélioré (ADF).

Avant de conclure qu'il y a relation de co-intégration une fois vérifiée la condition


nécessaire, on estime la relation de long terme : Y t = a + b Xt + ut. La relation de co-
intégration est acceptée si et seulement si la combinaison linéaire de ces variables, en
l'occurrence la série des résidus ut, issus de cette régression de long terme, est stationnaire;
c’est-à-dire I(0).

La stationnarité du résidu est testée à l'aide des tests DF ou DFA sans trend
constante.

Si le résidu de la relation de long terme est non stationnaire, il n'y a pas de co-
intégration. On est donc en présence d'une régression artificielle ou fallacieuse.

6.3. ESTIMATION DE LA RELATION DE LONG TERME

Pour estimer la relation de long ternie lorsque les séries sont co-intégrées, il n’y a
aucun problème particulier. On applique l'OLS. Et si on travail sur grand échantillon,
l'estimateur de Moindres Carrés Ordinaires possède une propriété remarquable : c'est la
« super-convergence». Cette propriété dit qu'en présence des variables co-intégrées,
l'estimateur OLS du vecteur co-intégrant converge rapidement vers sa vraie valeur, et la
vitesse de convergence est plus élevée que dans le cas habituel. Dans ce cas, tous les tests de
vérification des hypothèses classiques, développés au chapitre 4, sont sans importance.
Toutefois, il est indispensable que l'hypothèse d'indépendance sérielle des écarts soit vérifiée
afin que les paramètres issus de l'estimation soient interprétables ; sous réserve de la
correction de WEST.

6.4. ESTIMATION DU MODELE A CORRECTION D'ERREUR

Nous allons présenter les deux techniques les plus simples et les plus répandues
d’estimation d'un modèle à correction d'erreur (ECM ou MCE) :

- Méthode à trois étapes de Engle et Granger


- Méthode à une seule étape de Hildreth.
6.4.1. Méthode d’ENGLE et GRANGER

Cette méthode est requise si l'on travail sur grand échantillon (n ≤30).

Tout d'abord, on va estimer la relation de long terme sans tenir compte de la


dynamique de court terme :

Y t =α +b X t + ε t (1)

Ensuite, on teste si les résidus de la régression de long terme ( ε^ t) est bien I(0);
c'est-à-dire s'il y a co-intégration.

Enfin, la dynamique de court terme est estimée au travers d'une équation du type :

∆ Y t=α 0 +α 1 ∆ X t + δ ε t −1+ v t (2)

En considérant la forme plus générale où l'on introduit dans le modèle tous les
retards significatifs, on obtient :

∆ Y t=a0 +α 0 ∆ X t + α 1 ∆ X t −1+ α 2 ∆ X t−2 +…+ β 1 ∆ Y t−1 + β 2 ∆ Y t−2 +…+ δ ε t −1+ v t

Ce qui s’écrire :
∆ Y t=a0 + ∑ α i ∆ X t −i + ∑ β i ∆ Y t −i + δ ε t −1+ v t (3)
i i

On effectue cette régression (3) en fixant d'abord un certain nombre de retards (en
principe 2 retards pour les données annuelles; 4 retards pour les données semestrielles; 8
retards pour les données trimestrielles ; …). Puis, on élimine progressivement les variables
non significatives par la méthode d’éliminations successives ou de sélections régressives. A
chaque étape, on va éliminer la variable dont la contribution est la moins importante ; pour
retenir la régression finale dans laquelle les coefficients de régression s'avèrent significatifs
par rapport à une valeur critique classique.

Toutefois, cette régression finale doit satisfaire à une caractéristique importante :


le coefficient δ (appelé «force de rappel vers l'équilibre») associé au terme de correction ε t−1
doit être à la fois significatif, systématiquement négatif et compris entre 0 et 1 en valeur
absolue. Sinon, le mécanisme de correction d'erreur (rattrapage qui permet de tendre vers
relation de long terme) irait, soit en sens contraire (si δ positif) et s'éloignerait de la cible de
long terme ; soit il irait dans le même sens (si δ négatif) en dépassant immédiatement la cible
qu'il est censé corriger progressivement, et donc en s'écartant d'elle au fi1 de temps.
6.4.2. Méthode de HILDRETH

Cette méthode est souvent utilisée lorsqu'on travaille sur petit échantillon. Elle
consiste à estimer directement la relation :

∆ Y t=α 0 +α 1 ∆ X t + δ Y t−1 + β X t −1 + v t (4)


Cela revient tout simplement à remplacer ε t−1 , de l'équation (2) par sa valeur
tirée, de l’équation (1) : ε t−1=Y t −1−a−b X t −1 (5)
(5) dans (2) donne :

∆ Y t=α 0 +α 1 ∆ X t + δ ( Y t −1 −a−bX t−1 ) + v t


¿ α 0 +α 1 ∆ X t +δ Y t−1−bδX t −1 +Y t −δa
¿(α¿¿ 0−δa)+ α 1 ∆ X t +δ Y t −1−bδX t−1 +v t ¿

Ce qui peut s'écrire :

∆ Y t= α +α 1 ∆ X t +δ Y t−1 + βX t −1 + v t

où δ joue le même rôle que dans l'équation (2). Par conséquent, il doit être à la fois
significatif, systématiquement négatif et compris entre 0 et 1 en valeur absolue. La restitution
des paramètres permet de retrouver les paramètres de la relation de long terme :
−β −α
b= et a= (en posant α 0=0 ¿
δ δ

Remarquons toutefois que cette méthode de Hildreth n'est utilisée que dans les cas
extrêmes.

Nous allons proposer dans le chapitre suivant un exemple d'interprétation d'un


modèle à correction d'erreur à partir d'un exemple faisant recours aux étapes de réalisation
d'un travail scientifique.

6.5. EVALUATION DU POUVOIR PREVISIONNEL DES RESULTATS

L'utilisation des résultats aux fins de prévision suppose que ces résultats soient en
mesure de répliquer dans l'avenir l'environnement économique ainsi estimé. Le coefficient de
Theil permet d'évaluer le pouvoir prévisionnel du modèle. Il est calculé comme suit:


S +h
1

h+1 t =S
( ^y t − y t )
2

Ut=

√ √
S +h S +h
1 1
∑ ^y 2t + h+1
h+1 t =S
∑ y 2t
t= S
Ce coefficient est compris entre 0 et 1. Lorsqu'il est proche de 0, cela signifie que
le pouvoir de prévision du modèle estimé est élevé.
P.S. On trouve directement ce coefficient dans le logiciel E-Views, Il suffit tout simplement de
lancer, après estimation, la commande : Forescast-Forescast Evaluation-Enter pour que
l'ordinateur vous le calcul.

6.6. EXERCICE 1: Estimation d'un Modèle a Correction d'Erreur par les deux méthodes

Soient les séries de consommation (Y) et de revenu (X) des habitants de la RDC
dont les données sont présentées au Tableau 1 de la page 33b. On demande d'estimer la
relation entre ces deux variables.

Si on doit estimer la relation entre Y et X, il convient d'abord de tester la


stationnarité des séries. Les tests DF et ADF effectués sur ces deux séries prises en logarithme
ont montré que les séries ne sont pas stationnaires. D'où l'intérêt de vérifier une éventuelle co-
intégration afin de procéder à l'estimation d’un MCE.

Le modèle à estimer est : log Y t =a+ log X t + v t

A. Estimation par la méthode d’Engle et Granger

Etape 1: Estimation de la relation de long terme

Le tableau ci-dessous résume les résultats de nos estimations.

Relation de long terme

Var.Dépend. Constante log X Variable Dummy


log Y (C) DUM
-0,661 1,075** -0,062***
(-1,478) (3,007) (-1,939)

R2 = 0,96 Dw=2,17 R2 = 0,95 F= 133,2


Les chiffres entre parenthèse sont des t-de student
L’astérisque (**) signifie que le coefficient est significatif au seuil de 5%
et (***) indique qu’il est significatif au seuil de 10%.

Etape 2 : Test de co-intégration

Le test de co-intégration (stationnarité des résidus de la relation de long terme) est


présenté dans le tableau ci-après :
Résidu (Res) Valeur seuil de MacKinnon
-3,28 (sans trend et avec 1 retard) -2,7760 (au seuil de 1 %)
-1,6295 (au seuil de 5 %)

On remarque que la série des résidus est stationnaire au seuil de 1%

Etape 3: Estimation du Modèle à correction d'erreur

Nous présentons le résultat de la régression finale. Nous avions au départ estimé


le modèle à correction d'erreur en introduisant deux retards. Etant donné qu'aucun retard ne
s’est avéré significatif, nous avions enlevé les variables concernées de la régression finale.

Par ailleurs, nous avions introduit une variable muette (DUM) afin de capter les
effets défavorables des pillages de 1991 et 1993. Cette variable a la valeur 1 dans ces deux
années 0 ailleurs. (cfr. Chapitre 7) pour l'application de variables dummy.

Le résultat de l'estimation figure dans le tableau suivant.

Modèle à correction d'erreur

D(log Y) (C) D(log X) Dum Res (-1)


0,008 0,762** -0,096** -1,088*
(0,474) (3,823) (-2,284) (-4,071)
R²=0,84 F-stat = 16,92 F-Reset test = 1,39 (Prob.= 0,26)
R2cor. = 0,77 SSR = 0,03 F-LM test = 0,45 (Prob. = 0,49)
DW = 1,56 J-B = 0,20 (Prob. = 0,90)
Les chiffres entre-parenthèses sont des t-de student
L’astérisque(*) signifie que le coefficient est significatif au seuil de 1%
et (**) indique qu'il est significatif au seuil de 5%,

Nous constatons que le ternie de rappel (coefficient de Res t-1) est significativement
négatif mais supérieur à 1 en valeur absolue (ρ = -1,09). La représentation à correction ci
'erreur n'est donc pas validée. Cela est probablement dû au fait que la taille de l'échantillon (n
= 20) n'est pas suffisamment grande.

B. Estimation par la méthode de Hitdreth

Les résultats de l'estimation du Modèle à correction d'erreur à équation unique se


trouvent dans le tableau suivant :
Modèle à correction d'erreur

D(logY) ( C) D(logX) logXt-1 log Yt-1 Dum


-1,566** 0,603** 1,157* -0,944* -0,115**
(-2,807) (2,690) (4,104) (-3,404) (-2,691)

R2 = 0,86 F-stat = 14,2 F-Arch test = 3,50 (Prob. = 0,08)


R2cor, = 0,80 SSR = 0,05 F-LM test = 0,16 (Prob. = 0,60)
DW = 1,63 J-B = 1,01 (Prob. = 0,60)
Les chiffres entre parenthèses sont tics t-de student
L’astérisque (*) signifie que le coéfficient est significatif au seuil de 1% et (**) indique qu’il est significatif au seuil de 5%

Nous constatons que le terme de rappel (coefficient de log Y t-1) est


significativement négatif et inférieur à 1 en valeur absolue (ρ=-0,94). La représentation à
correction d'erreur est donc validée.
Ce qui confirme le fait que cette méthode est la mieux adaptée pour les petits échantillons.

La restitution des paramètres de long terme donne :

−1,157 1,566
b= =1 , 23 et a= =−1, 66
−0,944 −0,944

6.7. EXERCICE 2 : Exemple d'interprétation d'un Modèle à Correction d'Erreur

On se propose de tester pour la R.D.C. une équation de demande de monnaie


friedmanienne.

I. CONSIDERATIONS THEORIQUES : Il s'agit de faire une revue de la littérature. p.m

II. MODELISATION

Un consensus s'est presqu'établi sur les études centrées sur la demande de


monnaie. Cette dernière se traite comme la recherche par les agents économiques d'un
équilibre entre les différentes composantes de leur patrimoine. De ce point de vue, la monnaie
est conçue comme l'un des éléments de l'arbitrage ternaire (…).

Dans l'approche de Friedman, la fonction de demande de monnaie est traitée


comme un problème de choix d'actif. Cette approche fait de la monnaie un actif et recherche
sa proportion optimale dans le patrimoine et non plus seulement dans un portefeuille de titres
diversifiés.

2.1. La fonction de demande de monnaie friedmanienne


L'approche de Friedman considère d'abord que le taux d'actualisation (r) est une
fonction du taux de rendement des obligations (r b) et du taux de rendement des actions (r e).
Ensuite, elle substitue le concept de revenu permanent (y) à celui de richesse. Enfin, elle
considère que la substitution monnaie-actif n'est pas restreinte aux seuls actifs financiers, mais
qu'elle concerne également les actifs physiques, dont le rendement est constitué par la
variation du niveau général des prix (π) et même par le capital humain.

Si l'on appelle W le rapport du capital humain au capital non humain et u le


rendement d'usage des actifs monétaires, on peut donc écrire la fonction de demande de
monnaie (M) comme :

M = f(y, W, u, p, rb, re, π)

Cette formulation, qui n'est pas limitée à la monnaie et aux titres, est très complète
car elle introduit un nombre assez important de variables qui peuvent influencer la demande
de la monnaie.

Cependant, du point de vue empirique, il se pose un problème du la spécification


de la fonctionnelle et celui du choix des variables. Dans la plupart d'étude, on retient la
reformulation sous la forme logarithmique en considérant que les facteurs explicatifs de la
demande de monnaie jouent de façon multiplicative dans la fonction. En ce qui concerne le
choix de variables, cela dépend d'un auteur à un autre selon l'agrégat monétaire retenu et le
niveau de développement de l'économie du pays considéré (avec une attention particulière
pour le secteur financier). D'autre part, le caractère de l'inflation, qu'elle soit modérée ou
chronique détermine aussi les variables explicatives introduites dans la fonction.

Pour notre exemple, la spécification que nous avions retenue s'inspire de


l'équation de Goldfeld3. Celle-ci exprime la demande de monnaie trimestrielle à partir :

- du revenu réel y (ou pouvoir d'achat effectif), et


- du coût d'opportunité de la détention de la monnaie nationale.

La demande trimestre de monnaie (lV) s'écrit donc sous la forme :

log ( M / P )t =α 0+ α 1 ξ t +α 2 y t +α 3 st + ε t

M= l'agrégat monétaire
y = la variable d'échelle en terme réel (en log)
ξ = taux d'inflation anticipé, utilisé comme proxy du coût d'opportunité
s = un indicateur de la dollarisation approximé par le taux de dépréciation de la monnaie
nationale
P= indice des prix utilisé comme déflateur.

3
Pour des plus amples détails sur la formulation du modèle, voir RENVERSEZ.F., [Link]., pp. 75-76.
Plusieurs considérations ont militées dans le choix de cette forme fonctionnelle.
Tout d’abord, l’étroitesse du marché financier en R.D.C. fait que très peu d'actifs financiers
sont à la disposition des agents pour constituer une alternative à la détention de la monnaie
nationale. D'autre part, les taux d'intérêt sont très administrés et maintenus à des niveaux très
faibles comparés à l'inflation. C'est ainsi que nous avions retenu l'inflation comme le coût
opportunité pertinent.

Enfin, nous avons introduit dans notre modèle un indicateur de la dollarisation.


En effet, sous l’hypothèse de rationalité de comportement, un agent économique va convertir
ses dépôts du franc-congolais au dollar et inversement. Ce raisonnement est pertinent dans le
cas de notre pays, car la dynamique du marché parallèle des devises permet le passage sans
restriction d’une monnaie à l'autre dans le portefeuille des agents économiques. Le but de ces
mouvements est en premier lieu la préservation du pouvoir d'achat. De plus, le taux de change
officiel dans notre pays a toujours été soit administré, soit contrôlé par les autorités
monétaires. L'ajustèrent se faisant toujours avec retard par rapport aux poussés inflationnistes,
il s'observe une évolution tendancielle à la hausse de la prime de change et donc une fuite
devant la monnaie nationale4.

2.2. Le modèle à correction d'erreur

Le principe d'ajustement partiel sur lequel repose les estimations économétriques


traditionnelles de la fonction de demande de monnaie a été remis en cause dans de
nombreuses études empiriques. Une autre voie de recherche consiste à estimer des fonctions
de demande de monnaie de court terme auxquelles on impose à priori de respecter des
relations de long terme.

Beaucoup de variables macro-économiques (même exprimées en logarithmes) ne


sont pas stationnaires et souvent contiennent une racine unitaire [Engle et Granger (87)]. C'est
le cas, comme nous le verrons dans nos tests de stationnarité da variables que nous avons
retenu dans notre modèle. Cela veut dire qu'un choc subi par une variable la fait quitter
durablement son trajectoire de long terme.

En présence des variables non stationnaires, les tests usuels de l'économétrie ne


sont plus d'application. Il faut alors faire appel à l'économétrie dite "de la co-intégration". La
représentation de la situation de court terme dans un tel cas est le modèle à correction d'erreur
(MCE). Dans ces modèles, la variable expliquée réagit, d'une part aux variations de ses
déterminants et d'autre part, à l'écart à son équilibre de long terme.

L'application de la méthode de co-intégration est très répandue depuis la fin des


années 80 sur les études traitant de la monnaie. Des exemples sont trouvés dans Adam C

4
voir à ce sujet l'évolution de la prime de change dans BOFOYA KOMBA B.(1997), p.63.
(1992, 1995, 1996) pour les pays africains, Brun J.F. (1995) pour l'Israël et l'Argentine,
Huang (1994) pour la chine, BOFOYA K.B. et LUWA.K (1999) pour la RDC, etc.
Les raisons qui expliquent les applications de cette méthodes sont diverses5.
Tout d'abord, la co-intégration fournit une manière d'estimer des relations de long terme entre
les variables non stationnaires. Ensuite, ce concept nous permet également d'éviter le
problème de régression fictives (ou artificielle) si fréquemment rencontré jusque dans les
années 70.

Enfin, une autre source de popularité croissante pour ce concept est son lien étroit
avec les MCE devenus très courant depuis la contribution de DAVIIDSON et al. (1978).

III. ANALYSE ECONOMETRIQUE

Nous avons utilisé la technique de la co-intégration dans l'estimation de notre


modèle. Cela est dû au fait que les variables que nous avions sélectionnées se sont avérées
non stationnaires. L'estimation du modèle est faite sur base des données trimestrielles
couvrant la période 1980: 1 et 1995 : 4. Les données relatives au taux de change et à l'indice
des prix à la consommation sont extraites des Bulletins Trimestriels de la Banque Centrale.
Les séries du PIB et de la masse monétaire ont été tirées des Statistiques Financières
Internationales publiées par le FMI.

3.1. Sélection des variables

Dans ce paragraphe, nous présentons les différentes variables qui nous ont servi
dans l'estimation économétrique. En effet, l'estimation d'une fonction de demande de monnaie
requiert au préalable de choisir les indicateurs représentant la masse monétaire nominale et
son déflateur et le coût d'opportunité des encaisses en monnaie nationale.

3.1.1. Agrégat monétaire

Les agrégats monétaires sont des grandeurs définies par les autorités monétaires,
et qui servent de support à la politique de contrôle de la croissance des moyens de paiement.
Leurs définitions varient cependant d'un pays à un autre.

Au Zaïre, trois types d'agrégats sont calculés par les autorités monétaires: M1, M2
et M3.

Généralement, dans les études empiriques, on choisit l'agrégat qui répond le


mieux au problème étudié. L'agrégat monétaire que nous retenons est la masse monétaire
prise au sens large (M2). Il correspond à l'ensemble de tous les moyens de paiement
immédiats (billets et pièces métalliques, dépôts bancaires à vue) auquel on ajoute les dépôts à
terme et les dépôts d'épargne liquide.
5
Langaskens Y. (94), Introduction à l'Econométrie, Ed. Point de vue, 1994, p. 336.
3.1.2. Le coût d'opportunité de détention de la monnaie nationale

L'augmentation du niveau général des prix entraîne une perte du pouvoir d'achat
de la monnaie. C'est aussi le coût d'opportunité retenu dans la plupart d'études sur les pays en
développement qui sont soumis à des désordres monétaires. L'idée de base est que l'étroitesse
du marché financier intérieur fait que très peu d'actifs financiers sont à la disposition des
agents pour constituer une alternative à la détention de la monnaie. L'effet du rendement des
actifs réels est donc capté par l'inflation. En effet, la perte de pouvoir d'achat doit, toutes
choses égales par ailleurs, inciter les ménages à détenir relativement moins de billets.

Afin d'apprécier cette influence, plusieurs études ont cherché à formaliser la


perception par les agents économiques de la hausse des prix. En raison du faible
développement des marchés financiers et du niveau très négatif des taux d'intérêt réel au
Zaïre, nous considérons le taux d'inflation anticipé comme l'indicateur du coût d'opportunité
de la détention des encaisses sous forme de monnaie nationale. Nous retenons le même
indicateur que CALVO et LEIDERMAN (1992) et BOFOYA K. (1997). C'est-à-dire,
πt
ξt= où π est le taux d’inflation obtenu à partir de l’indice des prix à consommation.
(1+ π t )

3.1.3. Variable d'échelle

Le patrimoine est la variable d'échelle de la fonction friedmanienne. Compte tenu


des difficultés rencontrées pour mesurer une telle variable, elle est généralement approximée
par le revenu.

WAKA (1995) a pu déceler plusieurs options6. En ce qui concerne notre étude,


nous avons retenu comme variable d'échelle le produit intérieur brut. Elle est exprimée en
terme réels.

3.1.4. Difficile mesure de la dollarisation

Le degré de la dollarisation d'une économie reste à apprécier dans un pays comme


le Zaïre et cela, à plusieurs égards :

 une grande partie de la masse monétaire en circulation est détenue hors du système
bancaire, et donc thésaurisée ;
 il est très difficile de connaître le montant total des billets étrangers qui constituent
certainement une part très importante des encaisses monétaires en devises des
résidents ;
 les fonds détenus à l'étranger par les particuliers résidents et les entreprises privés
ne sont pas du tout connu avec certitude; etc.

6
Voir à ce sujet WAKA N., [Link]., p.56.
Toutefois, le problème qui nous intéresse n'est pas de distinguer les variables
susceptibles d'agir sur la répartition entre encaisses en monnaie locale et encaisse en devises,
mais d'essayer de relever l'effet de la dollarisation dans la stabilité de la fonction de demande
de monnaie. «Pour apprécier la portée macro-économique de ce phénomène, le degré de
substituabilité des monnaies peut être apprécier en fonction, des variations attendues de leur
cours »(7). Cependant, dans la plupart des études économétriques, le degré de substituabilité de
monnaies se fait de manière indirecte, généralement en introduisant la variation anticipée du
taux de change, dans la fonction de demande de monnaie nationale.

En ce qui concerne notre étude, nous retenons le même indicateur que ADAM C,
(1995), à savoir le taux de dépréciation anticipée du taux de change du marché parallèle. Nous
suivrons l’hypothèse d’anticipations « myope » : les valeurs anticipées du taux de change sont
donc égales aux valeurs actuelles. Ainsi :

ht
st =log où h représente le taux, de change à l'incertain sur le marché parallèle.
ht −1

3.2. Application de la co-intégràtion à l'estimation d'une fonction dynamique de


demande de monnaie en R.D.C.

Avant de procéder à l'estimation de notre modèle, nous avions effectué le test de


stationnarité sur nos variables. Les résultats fournis par ce test nous a fourni les informations
sur le choix de la méthode d'estimation que nous avons utilisée.

3.2.1. Test de racine unitaire sur les variables

Avant d'appliquer les méthodes économétriques classiques, les tests d'intégration


des séries est recommandé afin d'éviter le problème de régression artificielle que nous avions
développé dans la section 2.2. Les résultats des tests de stationnarité, présentés en annexe 1,
montrent que les variables ne sont pas stationnaires. Après les avoir différenciées une fois,
elles sont devenues stationnaires au seuil de 1 %. Ce qui nous a conduit à estimer un modèle à
correction d'erreur pour voir l'effet de la substitution monétaire sur la demande de monnaie.

3.2.2. Résultats

Plusieurs méthodes ont été proposées pour estimer les modèles à correction
d'erreur. Dans le cadre de cette étude, nous avons adopté la méthode à trois étapes de Engle et
Granger (1987) (8).

7 ()
Guillaunont S.J., La politique économique en présence de substitution monétaire, in révue
économique, vol. 45, n°3, mai 1994, p. 351.
8()
Voir à ce sujet B. BOFOYA KOMBA (1997), p. 83.
Tout d'abord, nous avons estimé par la méthode de moindres carrés ordinaires
(OLS) la relation de long terme entre la masse monétaire et les variables explicatives sans
tenir compte de la dynamique de court terme.

Ensuite, nous avons testé si les résidus de cette régression (appelée relation de
long terme) était bien I(0) ; c'est-à-dire s'il y a co-intégration. Engle et Granger ont montré, en
effet, que s'il y a co-intégration, alors les estimateurs OLS des coefficients sont consistants et
convergent très rapidement vers la vraie valeur des paramètres ; plus rapidement que dans le
cas stationnaire. C'est pour cette raison que l'on qualifie l'estimateur OLS de la relation de
long terme de "super consistant".

Le résultat ci-dessous montre que le résidu de la régression est I(0) au seuil de


1%. En d'autres termes, nous avons l'assurance d'avoir des estimations fiables des élasticités
de long terme.

Résidu (Res) Valeur seuil de MacKinnon


-4,12 (sans trend, ni constante et avec 1 retard) -3,5889 (au seuil de 1 %)
-2,9303 (au seuil de 5 %)

Enfin, nous avons estimé un modèle à correction l'erreur du type :

D(m 2)t =τ 0+ ∑ τ i D(m 2)t −i+ ∑ βi D( y )t−i + ∑ λ i D(ξ)t−i + ∑ η i D(s)t −i + ρ Res t−1+ v t
i=1 i=0 i=0 i=0

En effet, comme la non co-intégration est rejetée par les données, nous savons
grâce au théorème de représentation de Granger qu'un modèle à correction d'erreur nous
fournira une bonne représentation de court terme.

Nous avions effectué notre régression en fixant d'abord huit retards. Ensuite, nous
avons progressivement éliminé les variables non significatives par la méthode d’éliminations
successives ou de sélections régressives. A chaque étape, nous avons éliminé la variable dont
la contribution était la moins importante. Enfin, nous avons retenu la régression finale lorsque
tous les coefficients de régression se sont avérés significatifs par rapport à une valeur critique
classique.

Le tableau ci-dessous résume les résultats de nos estimations.


Relation de long terme
Var. Dép. Constante y ξ s
m2(9) (C)
3,049* 0,127* -0,265** -0,030* *
(14,495) (3,007) (-2,549) (-2,345)
R2=0,63 2
R cor.=0,60 F=26,19
Les chiffes entre-parenthèses sont des t-de student
L’astérisque (*) signifie que le coefficient est significatif au seuil de 1% et
(**) indique qu'il est significatif au seuil de 5%

Modèle à correction d'erreur


D(m2) C D(m2)-1 D(Y)-4 D(~) D(S)-2 Res(-1)
0,010 -0,179*** -0,097* -0,242* -0,125** -0,505*
(0,741) (-1,915) (-3,410) (-3,026) (-2,315) (-3,145)
R²= 0,69 F-stat = 15,9 F-Reset test = 0,38 (Prob. = 0,54)
R²cor.= 0,64 SSR = 0,24 F-LM test = 0,53 (Prob.= 0,59)
D.W=1,70 J-B= 1,33 (Prob.= 0,54) F-Chow test = 2,47 (Prob.= 0,07)
Arch-test=
Les chiffres entre-parenthèses sont 0,58 (Pté = 0,45)
des t-de studen
L’astérisque_ (*) signifie que le coefficient est significatif au seuil de 1% et (**) indique qu'il est significatif au seuil de 5%.

3.2.2. Interprétation des résultats

a. Relation de long, terme

Toutes les variables agissent sur la demande de monnaie avec le signé attendu
à long terme. Le coût d'opportunité affecte négativement les encaisses réelles. La semi-
élasticité de la demande d'encaisses réelles par rapport à l'inflation est de 0,27. Ce qui signifie
qu'une augmentation de 1% du taux d'inflation anticipé induit une réduction de 0,27 % de la
demande de monnaie. Il apparaît également dans cette que la variation du taux de change
anticipée du marché parallèle affecte négativement les encaisses réelles. Ce résultat est
conforme aux prédications du modèle de choix du portefeuille qui suppose qu’une
dépréciation du taux de change induit une réduction de la demande de monnaie nationale. Le
revenu réel affecte positivement la demande de monnaie avec une élasticité de l’ordre de 0,13.
Cette dernière, qui est proche de résultat obtenu par WAKA sur la période 1960-1990, est très
faible par rapport à celle généralement trouvées dans les études sur la plus part des pays en
développement10. Ces résultats indiquent que le lien entre le secteur monétaire et le secteur
réel de l’économie est très faible en RDC. En effet, le taux d’intérêt réels étant négatifs sur
toute la période, l’expansion monétaire est plus la résultante de la hausse des prix de la
formation du revenu.

b. Modèle à correction d’erreur


9
m2 est le logarithme nepérien de la masse monétaire réel.
10
Cfr WAKA N.,op .cit.,p.89
Etant donné que le résidu de la relation de co-intégration est stationnaire au
seuil de 1 %, la spécification à correction d’erreur postulée ci-dessus parait justifier. Les tests
économétriques (11) effectués sur le modèle se sont avérés concluant. Les résidus selon le test
de Jarque-Bera suivent une distribution normale. Le test de Reset semble ne pas détecter
l’existence d’une mauvaise forme fonctionnelle. Le test de Chow, appliqué en séparant
l’échantillon en deux sous-période (1980-1987 contre 1987-1995) ne rejet pas l’hypothèse
d’une constance des coefficients. Enfin, le LM –test de Breusch et Godfredy indique que le
modèle rejette l’hypothèse d’autocorrélation des résidus.

Le pouvoir explicatif du modèle est très satisfaisant (R 2 de 0,69). Le signe associé


au PIB réel (D(y)-4) semble confirmer les thèses récentes, sur les études des pays en
développement, qui établissent un lien négatif à court terme entre l’output et la demande de
monnaie (12). En ce qui concerne la R.D.C, on peut dire qu’une accélération de la récession de
1 % sur un trimestre entraine une augmentation d’encaisses réelles de plus ou moins 0,10 %
quatre trimestres après.

Par ailleurs, l’accélération de l’inflation a un effet négatif sur les encaisses réelles.
Ce résultat traduit probablement l’existence d’une substitution, a court terme entre les dépôts
à terme et les actifs réels (biens durables).

Le fait que le coefficient associé à la dépréciation de la monnaie nationale D(s) -2


soit significatif indique que l’économie congolaise est dollarisée. On peut situer cela à deux
niveaux. D’abord, come nous avons vu plus haut, à travers la relation de long terme en
affectant négativement la demande de monnaie. Ensuite par un effet de court terme en
affectant négativement et significativement l'accroissement des encaisses réelles. L'élasticité
de long terme (-0,03) est inférieure à celle de court terme (-0,12), traduisant le fait que l'effet
de la substitution monétaire sur les encaisses réelles est plus fort à court terme qu'à long
terme.

Les implications d'un tel résultat sont très importantes pour la conduite de la
politique monétaire. Plus particulièrement, ces résultats montrent que comme la substitution
monétaire s'accélère, la perte de seigneuriage subie par les agents économiques demandera un
taux de croissance de la masse monétaire plus important pour les périodes suivantes et par
conséquent un taux d'inflation encore plus élevé. Ce qui conduit à la baisse des encaisses
réelles ; car les agents économiques vont chercher à se débarrasser de la monnaie excédentaire
et réaménager leur portefeuille d'encaisses au profit des devises.

Enfin, le modèle à correction d'erreur estimé dénote un effet de feed-back très


important, de l'ordre de 50%. Ce qui signifie que lorsqu'un choc affecte les encaisses réelles
au cours d'un trimestre courant ; environs 50 % de celui-ci est corrigé au trimestre suivant. En

11
Les détail sur tous le tests économiques se trouve dans BOFAYA KOMBA (1997),pp.69-73
12
Cfr .Les résultats obtenus par ADA C., NDILU [Link] SOWA N.,“ Libéralisation and Seigneurioge Revenue in
Kenya, ghana and Tanzania“, in journal of Developpeent Studies , vol .32,n°4, April 1996,p.548.
d'autres termes, le long terme est plus ou moins insensible aux forces économiques
notamment de court terme. Cette déconnexion a pour conséquence qu'un choc transitoire sur
les facteurs disponibles a des effets seulement transitoires sur la trajectoire des grandeurs
économiques. Celles-ci finissent par retourner sur la trajectoire qu'elles suivaient
antérieurement et les effets du choc sont gommés. Nos résultats amènes donc à pensée, par
exemple, que s'il n'y avait pas eu les pillages de septembre 1991 et celui de février 1993,
l'ampleur du désordre monétaire pendant la deuxième république serait proche de ce qu'il était
effectivement à l'avènement de l'AFDL.

IV. CONCLUSION ET RECOMMANDATIONS

Ce papier, avait pour objet d'analyser le phénomène de substitution monétaire en


République Démocratique du Congo et ses implications sur la conduite de la politique
monétaire.

Les prédictions de notre modèle étaient de tester l'hypothèse selon laquelle il


existait une relation de long terme entre la dépréciation de la monnaie nationale et la demande
de celle-ci relativement aux devises.

L'idée est que si la substitution monétaire augmente, il en résulte une perte de


seigneuriage. Un déficit constant en termes réels conduit à une inflation croissante car, au fur
et à mesure que s'opère la substitution de monnaies étrangères à la monnaie nationale à cause
de la dépréciation du taux de change, la croissance de la masse monétaire nécessaire au
financement du déficit s'accroît.

Le résultat de notre analyse vient de montrer la présence de la substitution


monétaire en R.D.C. L'effet à long terme, comme à court terme, de ce phénomène sur la
demande de monnaie est négatif. Toutes choses égales par ailleurs, la réduction de la
substitution monétaire entraîne un accroissement des encaisses réelles et donc, de l'assiette
fiscale. Ces résultats sont conformes aux prédictions de notre modèle, à savoir que la
réduction de la dollarisation conduit, lorsqu'elle accroît les encaisses réelles, à une baisse de
l'inflation. Etant donné que la fonction de demande de monnaie est stable sur la période sous-
étude, la maîtrise de la masse monétaire nationale devrait permettre de contrôler à la fois le
revenu national et les prix. Il est donc urgent que les interventions des autorités monétaires
visant à stabiliser l'économie tiennent compte des ajustements de la demande de monnaie
provoqués par le phénomène de substitution monétaire. En d'autres tenues, la dollarisation de
notre économie devrait impérativement pousser le gouvernement à une politique budgétaire
plus rigoureuse par crainte de l'hyperinflation. Ce qui peut être un facteur important de
crédibilité de la politique de stabilisation. Le succès des politiques dépend donc
manifestement de capacité de l'Etat à réduire durablement le déficit budgétaire, qui constitue
la principale cause de l'expansion monétaire.
ANNEXE I13

Augmented Dickey-Fuller unit Root Test on ξ (taux d’inflation anticipé)


ADF Test Statistic - 1,913739 1% Critical Value* -3,5850
5% Critical value -2,9286
10% Critical Value -2,6021
ξ n’est pas stationnaire

Augmented Dickey-Fuller unit Root Test on y (PIB)


ADF Test Statistic - 2,021602 1% Critical Value* -3,5973
5% Critical value -2,9339
10% Critical Value -2,6048
y n’est pas stationnaire

Augmented Dickey-Fuller unit Root Test on m2 (masse monétaire)


ADF Test Statistic - 2,082023 1% Critical Value* -3,5814
5% Critical value -2,9271
10% Critical Value -2,6013
m2 n’est pas stationnaire

Augmented Dickey-Fuller unit Root Test on s (taux de depreciation de la monnaie)


ADF Test Statistic - 2,793855 1% Critical Value* -3,5814
5% Critical value -2,9271
10% Critical Value -2,6013
s est pas stationnaire à 10%

Augmented Dickey-Fuller unit Root Test on D (ξ)


ADF Test Statistic - 4,072185 1% Critical Value* -3,5850
5% Critical value -2,9286
10% Critical Value -2,6021
D(ξ) est stationnaire à 1%

Augmented Dickey-Fuller unit Root Test on D(y)


ADF Test Statistic - 3,9842 1% Critical Value* -3,5478
5% Critical value -2,9127
10% Critical Value -2,5937
D(y) est stationnaire à 1%

Augmented Dickey-Fuller unit Root Test on D(m2)


ADF Test statistic -6,848927 1% critical value* -3,5850
5%cristical value -2,9286
10%cristal value -2,6021
D(m2) est stationnaire à 1%

Augmented Dickey-Fuller unit Root Test on D(s)


ADF Test statistic -4,729858 1% critical value* -3,5850
5%cristical value -2,9286
10%cristal value -2,6021
D(s) est stationnaire à 1%

13
Si la statistique ADF est supérieure à la valeur critique, cela veut dire que la variable concerné est stationnaire à ce
seuil.
Chapitre 7. UTILISATION DES VARIABLES MUETTES
EN ECONOMIE

7.1. VARIABE MUETTE EXPLICATIVE

Une variable muette ou indicatrice est une variable particulier qui n’est composée
que de 0 ou de 1. Le terme anglo-saxon « dummy » est plus couramment utilisé.

Cette variable est utilisée lorsque, dans le modèle, nous désirons intégrer un
facteur explicatif binaire : « le phénomène a lieu ou n’a pas lieu » ou bien lorsque le facteur
explicatif est qualitative : « facteur homme ou facteur femme ».

Le modèle de régression diffère selon l’apparition du phénomène seulement par la


valeur d’un seul coefficient alors que les autres paramètres sont identiques.

7.2. TEST DE STABILITE DES COEFFICIENTS

Lorsqu’on veut tester la stabilité de la constante, le modèle s’écrit :

Y t =a 0+ a1 X t + ε t : si le phénomène n’existe pas.


Y t =b+ a1 X t + ε t : si le phénomène existe (avec b=a 0+ α une constante quelconque).

Ces deux équations peuvent se ramener à une équation unique :

Y t =a 0+ α Dt + a1 X t + ε t (1)

Avec : Dt = 0 lorsque le phénomène n’existe pas (en effet, si D= 0 la constante sera a 0) ; et


Dt= 1 lorsque le phénomène existe (en effet, si D= 1 la constante sera : a 0+ α = b).

Il s’git donc d’incorporer une variation explicative supplémentaire D t au modèle


(1) et d’appliquer les méthodes classiques d’estimation. Si le coefficient associé à la variable
muette Dt est signification, cela veut dire que le phénomène a eu un impact sur la variable
endogène. Dans le cas contraire, le phénomène n’a aucun impact sur l’évolution de la variable
endogène.

De même, en cas de modification structurelle d’un coefficient de régression, la


variable muette affecte le coefficient de la variable explicative considérée.
Il sera donc question d’introduire, cette fois-ci, non plus une variable muette additive, ais
plutôt une muette multiplicative.

Y t =a 0+(a 1+ D t )X t +ε t
Y t =a 0+ a1 X t + Dt X t + ε t (2)
Si le phénomène n’existe pas, l’équation ci-dessus s’écrit :

Y t =a 0+ a1 X t + ε t

Et si le phénomène existe, cette équation s’écrira :

Y t =a 0+(a 1+ β ) X t + ε t
⇒ Y t =a 0 +b X t + ε t (avec b=a 1+ β )

Nous voyons qu’ici, la variable muette est utilisée pour tester la stabilité de la
pente et non plus de la constante. En d’autre termes, si b est significative, cela veut dire que le
phénomène a influencé l’action de X sur Y.

On peut aussi étudier la stabilité de la constante et de la pente à la fois. Dans ce


cas le modèle à estimer devient :

Y t =a 0+ α Dt + a1 X t + β Dt X t + ε t (3)
Y t =b+ a1 X t + β Dt X t + ε t (avec b=a 0+ α Dt )

Si le phénomène n’existe pas, l’équation ci-dessous s’écrit :Y t =a 0+ a1 X t + ε t

Si le phénomène existe, on aura :Y t =( a 0+ α )+(a 1+ β) X t + ε t


⇒ Y t =b 0+ b1 X t + ε t

L’estimation de l’équation (3) revient à tester simultanément l’impact du


phénomène sur la constante et sur la pente.

Le test de l’ensemble des variables muettes (additive et multiplicative) se fera à


travers le F-test. Si Fc est significatif et qu’en même temps les tc sont non significatifs, cela
veut dire qu’il y a un problème de multicolinéaire.

P.S. Nous remarquons que nous pouvons procéder au test de Chow (stabilité du modèle sur
l’ensemble de la période) en recourant à une variable dummy prenant la valeur 1 pour
la première sous-période et la valeur 0 pour la deuxième sous–période. Le test de
Student portant sur le coefficient de la variable muette permet alors de se déterminer
sur un modèle à un régime ou un modèle à deux régimes ; c'est-à-dire de voir si les
régressions respectives sur les deux sous-périodes sont différentes ou identique.

7.3. UTILISATION DE LA VARIABLE BINAIRE

Les séries statistiques sont parfois affectées de valeurs anormales liées à la


survenance d’événement exceptionnel : guerre, pillage, aberration climatique, etc. Deux
problèmes se posent alors : détecter la valeur anormale et la corriger afin qu’elle ne perturbe
pas l’estimation statistique des autres variables.

EXERCICE

Un modèle de production de service de tourisme est spécifié de la manière


suivante :
Y t =a 0+ a1 X t + a2 Z t + ε t
avec Yt = production du secteur tourisme pour l’année t ;
Xt = Valeur ajoutée du secteur tourisme pour l’année t ;
Zt = Population pour l’année t.

L’économètre chargé de l’estimation de ce modèle entre 1975 et 1992 s’interroge


sur la perturbation entraînée par l’effet « guerre du golfe » en 1991. Pour répondre à cette
question, il intègre à son modèle de base une variable dummy Dt tel que :
Dt= 1 pour l’année 1991,
Dt=0 ailleurs.

L’estimation du modèle économétrique donne les résultats suivants :


L’effet « guerre du Golfe » a-t-il eu un impact significatif sur la production du service du
secteur du tourisme ?

Yt = 2340,4 + 23,5Xt + 0,3Zt - 120,6Dt


(4,5) (2,2) (2,9) (5,8)
2 2
R = 0,65 R = 0,72 Dw= 1,97 (.) = t-de student

SOLUTION

La variable dummy Dt a un ratio de studen tc= 5,8  t0,05(14)=1,76, le coefficient de


régression de cette variable est significativement différent de 0 ; d’où la production de service
en 1991 est anormalement basse (-120,6). Cette baisse est, sans doute imputable à l’effet
« guerre du Golfe ».

7.4. UTILISATION DE LA VARIABLE QUALITATIVE

Il peut s’avérer important dans certaines spécification de modèle de tenir compte


de l’effet, sur la variable endogène, de variable qualificatives telles que ; être titulaire d’un
diplôme, sexe, appartenance politique, etc.

L’utilisation d’une variable muette permet de segmenter les individus en deux


groupes et de déterminer si le critère de segmentation est réellement discriminant.
EXERCICE

Afin de déterminer les facteurs explicatifs de la réussite en économétrie en


premier licence Economie à l’Université Protestante de Kinshasa, un économètre spécifie le
modèle suivant :

Y i=a0 +a 1 X i + a2 Di + ε i

avec Yi = note moyenne obtenu par l’étudiant i en Econométrie ;


Xi = note moyenne obtenue par l’étudiant i en Statistique II ;
Di = Variable indicatrice de sexe (1 pour les hommes et 0 pour les femmes).

L’estimation du modèle à partir d’un échantillon de 50 étudiants de première


licence a conduit aux résultats suivants :

Yt = 4,5 + 0,8 Xi - 1,5Di


(3,7) (7,2) (2,3)

2
R2=65 R = 0,72 Dw = 2,11 (.) = t – de student

Le facteur sexe a-t-il une influence sur la note obtenu en Econométrie ?

SOLUTION

La variable indicatrice Dt a un ratio de studen t c = 2,3  t0,05(14) = 1,65, le


coefficient de régression de cette variable est significativement différent de 0 ; d’où le facteur
sexe est un facteur discriminant de la note obtenue en Econométrie.
Il est à noter que le signe négatif associe à la variable indicatrice qu’il est « pénalisant »
d’être un homme (Dt = 1 ) et qu’en moyenne , sur notre échantillon, les hommes ont une
notre inferieur de 1,5 point à celle des femmes. Toutefois, le facteur explicatif le plus
important reste bien la maîtrise du cours de Statistique II (qui se reflète à travers la note
moyenne obtenue en deuxième graduat).

P.S. Si le t- de student associé à D i n’était pas significatif, cela aurait signifié que les hommes
et les femmes étaient traités de manière identique en Econométrie.

Vous aimerez peut-être aussi