Introduction Econometrie III
Introduction Econometrie III
INTRODUCTION A L’ECONOMETRIE
Par:
Mathias Marie Adrien NDINGA
Enseignant chercheur
Avec la collaboration de :
MBOU LIKIBI Gaspard Symphorien
GANGA ZANDZOU Ulrich Jeanin
LEKANA Herman
L’analyse de régression est l’un des outils les plus utilisés dans le travail
économétrique. Ainsi, cette partie du cours est consacrée aux techniques de
base nécessaires dans la conduite d’une analyse des données économiques.
Les discussions dans cette partie du cours vont, par conséquent, démarrer
par un aperçu de l’expression analyse de régression. Pour commencer, il est
indispensable de répondre à une question de base à savoir : qu’est ce qu’une
analyse de régression ?
Il est indispensable de noter ici que l’étude des différentes relations permet
la poursuite de plusieurs objectifs. En effet, l’étude des relations est
indispensable pour :
1
• Examiner si les différentes variables explicatives ont un effet
significatif sur la variable expliquée.
Chacun des termes est pertinent pour une utilisation particulière d’une
analyse de régression. La terminologie (a) est utilisée lorsque l’analyse de
régression est faite à des fins de prédiction. Par exemple, les ventes
constituent, dans le premier exemple, le prédictant et les dépenses de
publicité, le prédicteur. Les terminologies (b), (c) et (d) sont utilisées sont
généralement utilisées dans les discussions sur les modèles de régression
par les économistes. Ce sont des termes équivalents. La terminologie (e) est
utilisée dans les études de causalité. La terminologie (f) est spécifique à
l’analyse économétrique. Enfin, la terminologie (g) est utilisée pour la
résolution des problèmes. Par exemple, l’objectif pourrait être l’atteinte d’un
certain niveau des ventes (variable objectif) et l’on doit déterminer le niveau
des dépenses de publicité (variable contrôle) pour atteindre l’objectif.
Dans ce cours, on utilisera les terminologies (c) et (d). Et, dans cette partie
du cours l’on considéra le cas d’une variable expliquée (dépendante) et une
seule variable explicative (indépendante). Comme il a été mentionné plus
haut, ce cas de figure est celui d’une régression simple qui est développé ici.
2
y = f (x) (2.1)
Dans cette première spécification f(x) est une fonction en x. A ce stade, il est
important de faire une distinction entre deux types de relations : la première
relation est déterministe (relation mathématique) et la seconde est
statistique, c’est-à-dire qu’elle ne permet pas d’avoir une valeur unique de y
pour une valeur donnée de x, mais peut générer plusieurs valeurs de y que
l’on peut exprimer terme de probabilité. Dans ce cours, le choix porte sur la
relation de type statistique pour des raisons que l’on va avancer à travers un
exemple. Pour ce faire, on va supposer que la relation qui existe entre les
ventes y et les dépenses de publicité x se présente comme suit :
y = 2500 + 100x – x2
La relation qui vient d’être spécifiée est de type déterministe. Les ventes pour
les différents niveaux de dépenses de publicité peuvent être déterminées de
manière exacte. Elles se présentent comme suit :
x y
0 2500
20 4100
50 5000
100 2500
Par ailleurs, si l’on suppose que la relation entre les ventes y et les dépenses
de publicité x se présente comme suit :
y = 2500 + 100x – x2 +
Dans cette seconde spécification, est un terme aléatoire qui peut prendre
deux valeurs à savoir :
x y
0 2000 ou 3000
20 3600 ou 4600
50 4500 ou 5500
100 2000 ou 3000
3
Les valeurs de y que l’on peut observer ici pourraient être l’un des huit (8)
cas possibles. Par exemple, on peut avoir :
x y
0 2000
20 4600
50 5500
100 2000
où le terme de l’erreur est distribué suivant une loi normale centré réduite
[ N (0,1)], alors chaque couple (x,y) sera également distribué normalement.
Ceci peut être illustré par le graphique suivant :
y y=2+x
Valeur possible de y
Pour une valeur de x
0 x
f(x) = α + βx.
y = α + βx + (2.2)
4
Dans l’équation (3.2), est le terme de l’erreur qui dispose d’une probabilité
connue (pour rappel on a supposé que ce terme était distribué suivant une
loi normale centrée réduite ; ce qui en fait une variable aléatoire). Ainsi, la
relation qui a été postulée ici a deux composantes dont la première (α + βx)
est déterministe de y et la seconde () est stochastique ou aléatoire de y. α et
β sont appelés coefficient de régression ou paramètre de régression qu’il va
falloir estimer à partir des données de y et x. Il est, certes, possible de
discuter du caractère additif des deux composantes (déterministe et
aléatoire), seulement l’orientation de ce cours suggère de commencer
l’apprentissage avec un modèle simple et évoluer, au fur et à mesure, vers
des modèles plus complexes. C’est précisément pour cette raison que l’on a
considéré que la fonction f(x) est linéaire et que le modèle comprend un
terme de l’erreur. Mais pourquoi est-il indispensable d’ajouter dans cette
spécification le terme de l’erreur ? Quelles sont les sources de l’erreur
dans l’équation (2.2) ?
5
nombre important de variable et (iii) l’erreur de mesure de la variable
endogène. Si l’on dispose de n observations sur y et x, on peut écrire
l’équation (3.2) comme suit :
yi = α + βxi + i i = 1, 2, …, n (2.3)
6
La première étape dans la détermination de l’équation de la droite, pour un
échantillon de données, est de faire une représentation du nuage de points
sur un diagramme et de s’assurer visuellement que celui-ci est
approximativement linéaire. Appelant la droite obtenue à partir des données
de l’échantillon par 𝑦̂ = 𝑎 + 𝑏𝑥𝑖 où 𝑦̂ est l’ordonnée à l’abscisse xi de cette
droite. Les valeurs observées de yi seront, en général, différents de celles de
𝑦̂ estimées. Plusieurs estimations de la paire (a,b) peuvent être proposées.
Les limites de ces différentes démarches ont conduit à la mise sur pied
d’autres méthodes abondement utilisées à savoir la méthode des moments et
celle des moindres carrées ordinaires. Pour ce faire, on va ici opter pour
l’utilisation de la relation (2.3) et une importante implication des hypothèses
(2.4) et (2.6) : dans la population, a une moyenne égale à zéro et n’est pas
corrélé avec les xi. Par conséquent, on peut postuler que a une espérance
mathématique égale à zéro et la covariance entre xi et i est égale à zéro. On
peut donc écrire
E() = 0 (2.9)
Cov (x, ) = E(x, ) = 0 (2.10)
7
E (y – α – βx) = 0 (2.11)
et E [x (y – α – βx)] = 0 (2.12)
𝑦̅ = 𝑎 + 𝑏 𝑥̅ (2.15)
1
où 𝑦̅ = ∑𝑛𝑖=1 𝑦𝑖 représente la moyenne de l’échantillon des observations de y
𝑛
1
et autant pour 𝑥̅ = 𝑛 ∑𝑛𝑖=1 𝑥𝑖 . Cette équation permet d’écrire a en fonction de
b 𝑦̅ et 𝑥̅ .
𝑎 = 𝑦̅ − 𝑏𝑥̅ (2.16)
Par conséquent, une fois que la pente est estimée, il devient aisé d’obtenir
l’estimation de la constante a étant donné 𝑦̅ et 𝑥̅ . En retirant 1/n de
l’équation (2.14) ; ce qui n’affecte pas la solution, et en remplaçant (2.16)
dans (2.14) on obtient ce qui suit :
Bien que (2.16) soit obtenu à partir de la relation (2.6), la seule hypothèse
indispensable pour déterminer les paramètres estimés pour un échantillon
donné est (2.17). Cette hypothèse est très forte à tout point de vue : (2.17)
n’est valable que lorsque tous les xi dans l’échantillon ne sont pas identiques
ou n’ont pas la même valeur. Si cette hypothèse n’est pas respectée, alors on
peut considérer que l’on a été malchanceux lors du tirage de l’échantillon de
la population ou tout simplement on n’a pas spécifié un problème majeur à
savoir x ne varie pas dans la population. Par exemple, si y = salaire et x =
éducation, alors (2.17) n’est pas satisfait lorsque tous les individus de
l’échantillon ont le même niveau d’éducation (par exemple la licence). Si un
seul individu de l’échantillon a un niveau différent des autres, alors la
condition (2.17) est satisfaite et l’estimation des paramètres peut avoir lieu.
Les estimations données par (2.16) et (2.18) sont appelés estimation des
moindres carrées ordinaires (MCO) de α et β. Ce nom est justifié par le fait
que tout a et b permettent de déterminer les yi étant donné la valeur de xi qui
connue tel que :
9
−2 ∑𝑛𝑖=1(𝑦𝑖 − 𝑎 − 𝑏𝑥𝑖 ) = 0
−2 ∑𝑛𝑖=1 𝑥𝑖 (𝑦𝑖 − 𝑎 − 𝑏𝑥𝑖 ) = 0
Les deux équations obtenues ici sont en réalité les équations (2.13) et (2.14)
multipliées par -2n et de ce fait, peuvent être résolu de la même manière
pour déterminer a et b. Mais comment sait-on qu’il s’agit là du minimum de
la somme des carrées des résidus ? Les conditions du premier ordre sont
nécessaires mais non suffisantes. Une façon de vérifier qu’il s’agit du
minimum de la somme des carrées des résidus est de montrer que cette
somme est à sont niveau le plus bas lorsque a = α et b = β. Ainsi, pour tout a
et b :
∑𝑛𝑖=1[(𝛼 − 𝑎) + (𝛽 − 𝑏)𝑥𝑖 ]2
Une fois que les paramètres ont été estimés par les MCO, on peut former
l’équation de la droite de la manière suivante :
𝑦̂ = 𝑎 + 𝑏𝑥 (2.22)
Ce que l’on peut retenir ici c’est le fait que les paramètres a et b ont été
obtenus à partir des équations (2.16) et (2.18). La notation 𝑦̂ que l’on lit y-
chapeau met l’accent sur le fait que les valeurs prédites à partir de l’équation
(2.22) sont estimées. La constante a est la valeur prédite de y lorsque x=0,
bien que dans certains cas cela n’a pas de sens de dire que x=0. Dans ces
situations, a n’est pas en lui-même intéressant. Lorsque l’équation (2.22) est
utilisée pour calculer les valeurs prédites de y pour les valeurs de x données,
la constante doit être pris en compte dans les calculs. L’équation (2.22) est
aussi appelée fonction de régression de l’échantillon parce que c’est une
version estimée de la fonction de régression de la population (FRP). Il est
important de relever que la FRP est fixée, mais pas connue dans la
population. Puisque FRP est obtenu pour un échantillon de données
quelconque, un nouvel échantillon générera une pente et une constante
différente dans l’équation (2.22).
10
Dans la plupart des cas, la pente estimée peut s’écrire de la manière
suivante :
𝑏 = ∆𝑦̂/∆𝑥 (2.23)
• Les points (𝑥̅ , 𝑦̅) sont toujours sur la droite de régression des MCO. En
d’autres termes, si l’on prend l’équation (2.22) et en considérant 𝑥̅ pour
x, alors la valeur prédite est 𝑦̅. C’est ce qui est exactement mis en
évidence par l’équation (2.15).
11
une autre possibilité d’interpréter la régression par les MCO. En effet, pour
chaque i, on peut écrire :
Par ailleurs, on peut définir la somme des carrés totale, SCT, la somme des
carrés expliqués, SCE, et la somme des carrés résiduel, SCR, comme suit :
Il n’est pas difficile d’obtenir la relation (2.31), il suffit d’utiliser les propriétés
de l’opérateur somme dans la relation (2.28). On a :
12
Implication en ce qui concerne la qualité de l’estimation : Depuis longtemps, il
n’y avait pas un moyen d’apprécier la manière dont la variable explicative ou
indépendante x, explique la variable dépendante y. Il est souvent utile de
déterminer un nombre qui résume la qualité de l’ajustement estimé avec des
données. En supposant que la somme totale des carrées SCT, n’est pas égale
à zéro, ce qui est vrai à l’exception du cas extrême où tous les yi sont égale à
la même valeur, on peut diviser (2.31) par SCT, ce qui donne :
Lorsque tous les points sont sur la droite d’ajustement, alors les MCO ont
fourni une estimation parfaite des données. Dans ce cas, le R-carré est égale
à 1. Une valeur de la statistique R-carré qui est proche de zéro indique que
l’ajustement est de mauvaise qualité. En faite, il peut être montré que R-
carré est égale au carré du coefficient de corrélation. C’est de là que vient le
terme de R-carré (la lettre R a été traditionnellement utilisée pour désigner le
coefficient de corrélation estimé d’une population et son usage a été étendu à
l’analyse de régression).
Dans les sciences sociales, un faible niveau du R-carré dans les équations de
régression n’est pas rare, spécialement dans les analyses en coupe
transversale. Ces aspects feront l’objet d’une discussion approfondie dans le
cadre de l’analyse de régression multiple, mais ce qu’il convient de relever ici
c’est le faite qu’un faible niveau de R-carré ne veut pas nécessairement dire
que l’équation de régression par les MCO n’est pas utile. Il est encore
possible que la relation estimée soit une bonne estimation, notamment
lorsqu’elle ne dépend pas du niveau de R-carré. Les étudiants qui
apprennent l’économétrie pour la première fois ont tendance à mettre
l’accent sur le niveau du R-carré pour évaluer une équation de régression.
Pour le moment, on peut tout simplement les avertir que l’utilisation du R-
carré comme le principal gage de succès pour l’analyse économétrique peut
conduire à des erreurs d’appréciation.
13
Le tableau suivant présente l’analyse de la variance pour un modèle de
régression simple. Il se présente comme suit :
𝑆𝐶𝐸⁄
∗
𝐹 = 1
𝑆𝐶𝑅⁄
(𝑛 − 2)
𝑅2
𝐹∗ =
(1 − 𝑅 2 )(𝑛 − 2)
Dans les discussions qui ont eu lieu jusqu’ici on a considéré que l’on
disposait d’un échantillon tiré d’une population. Le modèle de la population
est défini comme suit : yi = α + βxi + µi et l’une des hypothèses-clé de
l’analyse de régression simple est que les valeurs estimées de µ étant donné
x sont nulles. Les propriétés algébriques des MCO ont été présentées.
Maintenant, il convient de revenir au modèle de la population pour étudier
les propriétés statistiques des MCO. En d’autres termes, on s’intéresse
maintenant à a et b comme étant des estimateurs des paramètres α et β qui
14
figurent dans le modèle de la population. Cela suggère qu’il va falloir étudier
les distributions de a et b à travers les différents échantillons de la
population.
L’objectif ici est de mettre en évidence le caractère non biaisé des MCO en se
servant d’un certains nombre d’hypothèses. Ces hypothèses sont au nombre
de quatre et se déclinent comme suit :
y = α + βx + (2.34)
yi = α + βxi + i (2.35)
15
n. Et, si l’on considère l’hypothèse sur le caractère aléatoire de
l’échantillon, on peut faire des simplifications techniques et pratiques.
∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )𝑦𝑖 ∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )(𝛼+𝛽𝑥𝑖 +𝜇𝑖 )
𝑏= ∑𝑛 2
= (2.37)
𝑖=1(𝑥𝑖 −𝑥̅ ) 𝑆𝑥
∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )𝜇𝑖
𝑏= 𝛽+ = 𝛽 + (1⁄𝑆 ) ∑𝑛𝑖=1 𝑑𝑖 𝜇𝑖 (2.39)
𝑆𝑥 𝑥
16
caractère non biaisé des estimateurs des MCO. Pour cela il faut montrer
que :
Où l’on a utilisé le fait que la valeur espérée de chaque µi par rapport aux xi
est nulle sous les hypothèses 2 et 3. La démonstration pour α est
maintenant simple. L’équation des moyennes obtenue à partir de (2.35) se
présente comme suit : 𝑦̅ = 𝛼 + 𝛽𝑥̅ + 𝜇̅ . En remplaçant cette dernière
expression dans la formule de a, on obtient ce qui suit :
17
conduire à une corrélation fortuite : c’est pour cette raison que l’on trouve
une relation entre y et x qui est en réalité due à d’autres facteurs non
observables qui affectent y et aussi se trouve être corrélé avec x. En dehors
des variables omises, il y a d’autres raisons pour x d’être corrélé avec µ dans
un modèle de régression simple. Puisque la même question se pose dans
l’analyse de régression multiple, on différera le traitement de ce problème au
chapitre 2.
Après avoir mis en évidence le caractère non biaisé des estimateurs des
MCO, il est important de savoir l’écart moyen entre b et β. La mesure de
l’étendu de la distribution de b et a avec laquelle on peut travailler
facilement est la variance ou sa racine carrée à savoir l’écart-type. Cette
variance peut être calculée en se servant des hypothèses 1 à 4. Cependant,
ses expressions pourraient être quelque peu compliquées. Pour simplifier
cela, on va ajouter une hypothèse qui est traditionnelle à une analyse en
coupe transversale. Cette hypothèse dit que la variance conditionnelle de µ
par rapport à x est constante. Cette hypothèse est connue sous le nom de
homoscédasticité ou l’hypothèse de la constance de la variance de l’erreur.
E(y/x) = α + βx (2.41)
Var (y/x) = σ2 (2.42)
18
hétéroscédasticité (ou une inconstance de la variance de l’erreur). Puisque
Var (µ/x) = Var (y/x), l’hétéroscédasticité est présente lorsque Var (y/x) est
une fonction de x.
𝜎2 𝜎2
𝑉𝑎𝑟 (𝑏) = ∑𝑛
= (2.43)
𝑖=1(𝑥𝑖 −𝑥̅ )
2 𝑆𝑥2
1 𝑥̅ 2
𝑉𝑎𝑟 (𝑎) = 𝜎 2 (𝑛 + ∑2 2
) (2.44)
𝑖=1(𝑥𝑖 −𝑥̅ )
1 2 1 2
𝑉𝑎𝑟(𝑏) = (𝑆2 ) 𝑉𝑎𝑟(∑𝑛𝑖=1 𝑑𝑖 𝜇𝑖 ) = (𝑆2 ) (∑𝑛𝑖=1 𝑑𝑖2 𝑉𝑎𝑟(𝜇𝑖 ))
𝑥 𝑥
1 2
= (𝑆2 ) (∑𝑛𝑖=1 𝑑𝑖2 𝜎 2 ) puisque Var (µi) = σ2 pour tout i
𝑥
2 1 2 𝜎2
2 1
= 𝜎 (𝑆2 ) (∑𝑛𝑖=1 𝑑𝑖2 ) = 𝜎 2 (𝑆2 ) 𝑆𝑥2 = 𝑆2
𝑥 𝑥 𝑥
Les formules (2.43) et (2.44) sont les formules standards pour l’analyse de
régression simple. Elles sont invalides en présence de l’hétéroscédasticité.
Cela sera important lorsque l’on abordera les intervalles de confiance et les
tests d’hypothèses dans l’analyse de régression multiple. Pour plusieurs
objectifs, on va s’intéresser à la Var(b). Il est facile de résumer de quelle
manière cette variance dépend de la variance de l’erreur σ2 et de la variation
des xi à savoir 𝑆𝑥2 . D’abord, la variance de b [Var(b)] sera aussi grande que la
variance de l’erreur le sera. Cela a un sens dans la mesure où plus de
variation des variables inobservables qui affectent y rend difficile l’estimation
précise de β. Par ailleurs, on préférera une plus grande variation de la
variable indépendante dans la mesure où l’augmentation de la variation de x
implique une diminution de la variance de β.
19
également exprimer yi en fonction de ses valeurs estimées et le résidu de la
manière suivante : 𝑦𝑖 = 𝑎 + 𝑏𝑥̂𝑖 + 𝜇̂ 𝑖 . En comparant ces deux équations, on
constate que l’erreur est mise en évidence dans l’équation de la population
contenant les paramètres a et b. Les erreurs ne sont pas observables, alors
que les résidus sont calculés à partir des données.
On peut utiliser les équations (2.27) et (2.35) pour écrire les résidus comme
une fonction de l’erreur :
𝜇̂ 𝑖 = 𝑦𝑖 − 𝑎 − 𝑏𝑥 = (𝛼 + 𝛽𝑥𝑖 + 𝜇𝑖 ) − 𝑎 − 𝑏𝑥𝑖
𝜇̂ = 𝜇𝑖 − (𝑎 − 𝛼) − (𝑏 − 𝛽)𝑥𝑖 (2.45)
Une autre façon de voir ces restrictions est la suivante : si l’on connait n-2
résidus, on peut toujours avoir deux autres résidus en utilisant les
restrictions résultant des conditions de premier ordre (2.46). De ce fait, il y a
seulement n-2 degrés de liberté pour les résidus des MCO (à l’opposé, il y a n
degrés de liberté pour l’erreur. Si l’on remplace 𝜇̂ 𝑖 par 𝜇𝑖 dans (2.46), la
restriction ne sera plus respectée). L’estimateur non biaisé de σ2 que l’on va
utiliser est le suivant :
1
𝜎 2 = 𝑛−2 ∑𝑛𝑖=1 𝜇̂ 𝑖2 = 𝑆𝐶𝑅⁄(𝑛 − 2) (2.47)
0 = 𝜇̅ − (𝑎 − 𝛼) − (𝑏 − 𝛽)𝑥̅
20
En soustrayant cette dernière relation de (2.45) on obtient : 𝜇̂ = (𝜇𝑖 − 𝜇̅ ) −
(𝑏 − 𝛽)(𝑥𝑖 − 𝑥̅ ) . Par conséquent : 𝜇̂ 𝑖2 = (𝜇𝑖 − 𝜇̅ )2 + (𝑏 − 𝛽)2 (𝑥𝑖 − 𝑥̅ )2 − 2(𝜇𝑖 −
𝜇̅ )(𝑏 − 𝛽)(𝑥𝑖 − 𝑥̅ ). L’intégration de l’opérateur somme donne ce qui suit :
Si 𝜎̂ 2 est intégré dans les formules de variance (2.43) et (2.44), alors on aura
des estimateurs non biaisés de Var (b) et Var (a). Enfin, on a besoin des
estimateurs des déviations standard de b et a et cela requiert une estimation
de σ. L’estimateur naturel de σ est :
𝜎̂ = √𝜎̂ 2 (2.48)
Il s’agit là de l’erreur standard. On note que Se(b) est peut être considéré
comme une variable aléatoire dans la mesure où 𝜎̂ varie pour les différents
échantillons. Pour un échantillon donné, Se(b) est un nombre, juste comme
b est simplement un nombre lorsqu’il est calculé à partir des données
quelconques. Similairement, Se(a) est obtenue à partir de Sd(a) en
remplaçant σ par 𝜎̂. L’erreur standard d’un estimateur donne une idée de la
précision de l’estimateur. L’erreur standard joue un rôle central dans
l’analyse de régression car il va être utilisé pour la construction des tests
statistiques et les intervalles de confiance.
21
peut être formulé à l’aide de la théorie des tests à partir des deux hypothèses
suivantes :
Ho : β = 0
H1 : β ≠ 0
On sait que :
𝑏−𝛽
suit une loi de student à n – 2 degré de liberté
𝜎𝑏
𝑏−0 𝑏
= = 𝑡𝑏∗ suit une loi de student à n – 2 degré de liberté, la distribution
𝜎𝑏 𝜎𝑏
d’échantillonnage sous Ho est représenté par le graphique suivant :
(α/2)% (α/2)%
-∞ b +∞
𝑏
Si 𝑡𝑏∗ = 𝛼
> 𝑡𝑛−2 , alors on rejette l’hypothèse Ho ; le coefficient b est alors
𝜎𝑏
significativement différent de 0 (on accepte H1 : b ≠ 0), la variable explicative
xi est donc contributive à l’explication de la variable yi.
𝑏
Si 𝑡𝑏∗ = 𝛼
< 𝑡𝑛−2 , on accepte l’hypothèse Ho, le coefficient b n’est pas
𝜎𝑏
significativement différent de 0 (on accepte b = 0) ; la variable explicative xi
n’est donc pas contributive à l’explication du phénomène que l’on cherche à
modéliser.
22
1.6. Modèle sans terme constant
Dans des ca rares, on souhaite imposé une restriction telle que lorsque x =
0, la valeur estimée de y est 0. Il existe une relation qui permet une telle
restriction. Par exemple, si le revenu (x) est nul, alors l’impôt sur le revenu
(y) doit être nul. En plus, il y a des problèmes lorsqu’un modèle qui à
l’origine n’a pas une constante nulle est transformé en un modèle sans
constante. Formellement, on choisi une pente que l’on va appeler 𝛽̃ et une
droite d’ajustement de la forme :
𝑦̃ = 𝛽̃𝑥 (2.48)
∑𝑛
𝑖=1 𝑥𝑖 𝑦𝑖
𝛽̃ = ∑𝑛 2 (2.51)
𝑖=1 𝑥𝑖
On note comment 𝛽̃ peut être comparé avec la pente estimé dans le cas de
l’existence d’une constante. Les deux paramètres sont identiques si et
seulement si 𝑥̅ = 0 (voir équation 2.36 pour b). L’obtention d’une estimation
de b en utilisant une régression à travers l’origine n’est pas souvent utilisée
en pratique pour une bonne raison : si la constante α ≠ 0 alors 𝛽̃ est un
estimateur biaisé de b.
Lorsque les coefficients du modèle ont été estimés, il est possible de calculer
une prévision à un horizon h. Soit le modèle estimé sur la période t = 1, 2, …,
n:
𝑦𝑡 = 𝑎 + 𝑏𝑥𝑡 + 𝜇𝑡
23
Il convient de montrer que cette prévision est sans biais. L’erreur de
prévision est égale à 𝜇𝑛+1 = 𝑦𝑛+1 − 𝑦̂𝑛+1 que l’on peut écrire :
𝐸(𝜇𝑛+1 ) = 0
La prévision sans biais est donc obtenue par l’application directe du modèle
de régression estimé. Cependant, dans la pratique, il n’est que de peu
d’utilité de connaître la prévision si on ne sait pas quel est le degré de
confiance que l’on peut lui accorder. On va donc calculer la variance de
l’erreur de prévision qui nous permet de déterminer un intervalle de
confiance bornant la prévision. La variance de l’erreur de prévision est
donnée par :
1 (𝑥𝑛+1 − 𝑥̅ )2
𝑉𝑎𝑟 (𝜇𝑛+1 ) = 𝑉𝑎𝑟 (𝑦𝑛+1 − 𝑦̂𝑛+1 ) = 𝜎̂𝜀2 [ + 𝑛 + 1]
𝑛 ∑𝑖=1(𝑥𝑡 − 𝑥̅ )2
1 (𝑥𝑛+1 − 𝑥̅ )2
𝜀𝑛+1 = 𝑦𝑛+1 − 𝑦̂𝑛+1 → 𝑁 (0, 𝜎𝜀2 [ + 𝑛 ])
𝑛 ∑𝑖=1(𝑥𝑡 − 𝑥̅ )2
𝑎+𝑏𝑥𝑛+1 −𝑦𝑛+1
Soit → 𝑡𝑛−2 (𝑠𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛 − 2 𝑑𝑑𝑖)
1 (𝑥 −𝑥̅ )2
̂𝜀 √ + 𝑛 𝑛+1
𝜎 +1
𝑛 ∑ ̅ )2
(𝑥𝑡 −𝑥
𝑖=1
𝛼⁄
2
1 (𝑥𝑛+1 − 𝑥̅ )2
𝑦𝑛+1 = 𝑦̂𝑛+1 ∓ 𝑡𝑛−2 𝜎̂𝜀 √ + 𝑛 +1
𝑛 ∑𝑖=1(𝑥𝑡 − 𝑥̅ )2
24