Modèles VAR(p) en prévision météorologique
Modèles VAR(p) en prévision météorologique
Master
Spécialité : Mathématiques.
Option : Probabilités et Statistique.
Thème
Présenté par :
∗ Mezhoud Ibtissam
Promotion 2021/2022
♥ Remerciements ♥
Nous tenons à remercier ALLAH, le tout puissant de nous avoir donné courage et volonté
pour accomplir ce modeste travail.
Nous tenons à exprimer tous nos reconnaissances à tous ceux qui ont contribué de prêt ou
de loin à la réalisation de ce travail
Nous tenons à présenter notre profonde gratitude à mon encadreur Cheraitia Hassen
pour son disponibilité, ses remarques et conseils.
Une série temporelle multivariée(STM) est constituée de plus d’une variable temporelle et
chaque variable dépend non seulement de ses valeurs passées mais aussi des valeurs passées des
autres variables. Pour traiter les STM, l’une des méthodes les plus populaires est le modèle
Vector Auto Regressive(VAR) qui est une forme vectorielle de processus auto-régressive (AR)
qui peut être utilisée pour examiner les relations entre plusieurs variables dans l’analyse des
séries chronologiques multivariées.
Dans ce mémoire, trois séries météorologiques mensuelles (Température, Précipitations et
Humidité) ont été modélisé au premier lieu séparément en appliquant la méthode de Box et
Jenkins, et au deuxième lieu simultanément par estimation d’un processus VAR(3).
A la fin, des prévisions à court terme ont été calculées par les deux approches. En termes
de RMSE et MAE, le modèle VAR(3) a fourni des meilleures prévisions que de Box et Jenkins.
A multivariate time series consists of more than one time variable and each variable depends
not only on its past values but also on the past values of other variables. To deal with MTS,
one of the most popular methods is Vector Auto Regressive models (VAR) that is a vector form
of autoregressive process (AR) that can be used to examine the relationships among several
variables in multivariate time series analysis.
In this thesis, three monthly weather series (Temperature, Precipitation and Humidity) were
modeled first separately by applying the Box and Jenkins method, and secondly simultaneously
by estimating a VAR(3) process.
In the end, short-term forecasts were calculated by both approaches. In terms of RMSE and
MAE, the VAR(3) model provided better forecasts than Box Jenkins.
Key Words : univariées time series ,multivariate time series,stochastic process ,Dicky-
Fuller,Box-Jenkins,Models VAR, Forecast.
TABLE DES MATIÈRES
Résumé v
Introduction 1
i
TABLE DES MATIÈRES
1.4.1 Identification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.3 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.4 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
ii
TABLE DES MATIÈRES
Conclution 75
Annexes 77
Bibliographie 85
iii
TABLE DES FIGURES
iv
LISTE DES TABLEAUX
v
vi
LISTE DES TABLEAUX
NOTATION
Tt : Latendance
St : Lasaisonnalité
E: Esperance.
var : Lavariance.
Cov : Lacovariance.
γh : Laf onctiond0 auto − covariance
ρh : Laf onctiond0 auto − corrélation.
ACF : Laf onctiond0 auto − corrélation.
P ACF : Laf onctiond0 auto − corrélationP artielle.
AR : Auto − Régressif.
MA : M oyennemobile
ARM A : Auto − Régressif M oyennemobile.
ARCH : Auto − Régressif ConditionnellementH étéroscédastique.
V AR : vecteurAuto − Régressif.
εt : Lerésidus.
TS : T rendStationary.
DS : Dif f erencyStationary.
bb : bruitblanc.
SK : Skewness.
Kr : Kurtosis.
SCR : Sommedescarrédesrésidus.
SSi : SietSelementSi.
i.i.d : indépendantidentiquementdistribué
vii
INTRODUCTION
L’une des méthodes les plus populaires dans la théorie des séries temporelles est les modèles
autorégressifs vectoriels (VAR), qui est une forme vectorielle de processus autorégressive (AR)
qui peut être utilisée pour examiner les relations entre plusieurs variables dans l’analyse de
séries temporelles multivariées.
Dans un modèle VAR, chaque série temporelle est une fonction linéaire des valeurs passées
d’elle-même et des valeurs passées de toutes les autres séries. Le VAR est capable de com-
prendre et d’utiliser la relation entre plusieurs séries ce qui permet de décrire la dynamique
des comportements des données et pourra fournir de meilleur résultats de prévision. Le modèle
VAR est caractérisé par les points suivants :
— Les séries à modélisées sont toutes stationnaires
— Les séries à modélisées sont toutes potentiellement dépendantes
— Le nombre de retards associe à chaque série dans chaque équation est identique
Notre partie pratique a porté sur l’analyse des séries chronologiques représentant la température,
les précipitations et l’humidité. L’analyse nous permettra de construire un modèle mathématique
qui explique ces trois variables, nous allons proposer dans un premier temps d’étudier indivi-
duellement les séries. Chaque série sera étudiée séparément, négligeant l’effet des autres séries
suivant la méthodologie de Box Jenkins qui permet en plusieurs étapes de trouver un modèle
adéquat avec lequel nous calculons les prévisions.
Cependant la méthodologie de Box Jenkins ne prend pas en compte l’interdépendance des
séries. Dans notre cas pratique et à titre d’exemple plusieurs variables doivent être prise en
1
Introduction
considération pour prédire de manière optimale des précipitations et pour cette raison que nous
allons proposer par la suite une approche multivariée pour pallier aux insuffisances de l’approche
univarié.Étant donné qu’à l’issue de la méthodologie de Box Jenkins les séries sont rendues
stationnaires, l’application de la modélisation VAR(p) à la base de ces séries est possible.
Afin d’atteindre nos objectifs, nous articulons notre mémoire autour de trois chapitres :
Dans le premier chapitre intitulé les séries temporelles univariées , nous présentons
quelques rappels sur les processus stochastiques et la représentation des séries temporelles
linéaires stationnaires et non stationnaires, la stratégie de Dickey Fuller et la méthodologie de
Box et Jenkins.
Le deuxième chapitre intitulé les séries temporelles multivariées et modèle VAR est
consacré à la présentation du modèle VAR, les méthodes d’estimation à savoir la méthode
de maximum de vraisemblance et la méthode des moindres carrées ordinaires, les tests de
validation. Ce chapitre est clôturé par une exposition de la dynamique de modèle VAR via la
fonction de réponse impulsionnel et la décomposition de la variance .
Enfin, dans le troisième chapitre intitulé applications de modèle VAR en météorologie
, on fait compléter notre travail par la mise en place de deux approches ; la première est
univariée qui consiste à appliquer la stratégie de Dickey Fuller et la méthode de Box et Jenkins
séparément sur les trois séries météorologiques (température, précipitations, et humidité). La
deuxième est multivarié dans laquelle nous allons appliquer le modèle VAR sur les trois séries
simultanément. Les prévisions résultants de ces deux modélisations sont calculées et comparées.
A la fin, une conclusion générale englobe les principaux résultats obtenus au cours de notre
travail.
2
CHAPITRE 1
Xt = Tt + St + Rt
où E(Rt ) = 0
3
1.1. Introduction aux séries temporelle
Xt = Tt × St × Rt
où E(Rt ) = 1
γh
ρh =
γ0
Remarque 1.1.2. Le graphe de la fonction d’auto corrélation est appelé ”corrélogramme”
proprieté 1.1.1. soit (Xt )t un processus stationnaire, la fonction d’auto covariance vérifie les
propriétés suivantes :
1 − γ0 = cov(Xt , Xt ) = E((Xt − E(Xt ))2 ) = var(Xt ) = σX
2
≥0
2 − |γh | ≤ γ0
3 − γh = γ−h , γ est une fonction paire.
proprieté 1.1.2. soit (Xt )t un processus stationnaire, la fonction d’auto corrélation vérifie les
propriétés suivantes :
1 − ρ0 = cov(Xt , Xt ) = E((Xt − E(Xt ))2 ) = var(Xt ) = σX
2
≥0
2 − |ρh | ≤ ρ0
3 − ρh = ρ−h , ρ est une fonction paire.
4
1.2. Le processus stochastique
et soit ρ∗h la matrice ρh dans laquelle on a remplacé la dernière colonne par le vecteur [ρ1 , ..., ρh ]
1 ρ1 · · · ρ1
ρ1 1 · · · ρ2
ρ∗h =
.. ..
. ··· .
ρh−1 ρh−2 · · · ρh
|ρ∗h |
φhh =
|ρh |
L’opérateur de retard noté B (back wards), l’opérateur qui fait passer de Xt à Xt−1 :
BXt = Xt−1
plus généralement, on a :
B n Xt = Xt−n
5
1.2. Le processus stochastique
On dit qu’un processus Xt est stationnaire au sens strict (ou fortement stationnaire) si :
pour tout (t1 , t2 , ...tn ), ti ∈ T et si pour tout h ∈ T : {Xt1 , Xt2 , ..., Xtn }a la même distribution
de probabilité jointe que {Xt1 +h , Xt2 +h , ..., Xtn +h }
• E(Xt2 ) < ∞, ∀t ∈ Z .
• E(Xt ) = m, ∀t ∈ Z (m est une constante indépendant du temps)
• cov(Xt , Xt+h ) = γh , ∀t ∈ Z, ∀h ∈ Z ( fonction indépendant de temps)
Le théorème de wold (1954) est un théorème fondamental dans la modélisation des processus
stationnaires.
Xt = dt + ut
où : ∞
X
ut = αi εt−i
i=0
6
1.2. Le processus stochastique
Définition 1.6. (Xt )t∈Z est un processus linéaire de moyenne m s’il peut être écrite sous la
forme :
+∞
X
Xt = m + bk εt−k
k=−∞
P+∞
Avec, εt ∼ bb(0, σε2 ) et telle que : 2
k=−∞ bk < +∞
L’écriture polynomial :
Xt = m + b(B)εt
Les processus ARMA(autoregrissive moving average) sont des processus linéaires très im-
portant dans la modélisation des séries chronologiques.
(1 − φ1 B − ... − φp B p )Xt = εt
Soit
Φ(β)Xt = εt
où
Φ(B) = 1 − φ1 B − ... − φp B p
7
1.2. Le processus stochastique
On a :
γ(h) = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )
On a :
0 h 6= 0
E(Xt−h εt ) =
σ 2 h = 0
ε
et E(Xi Xj ) = γi−j
donc ;
φ1 γh−1 + φ2 γh−2 + ... + φp γh−p si 0<h<=p
γh =
φ γ 2
1 h−1 + φ2 γh−2 + ... + φp γh−p + σε si h=0
γh
On notons : ρh =
γ0
donc :
p
X
ρh = φi ρh−i , ∀h > 0
i=1
Les autocorrélations d’un processus AR(p) sont ainsi décrites par une équation de récurrence
8
1.2. Le processus stochastique
linéaire d’ordre p. En écrivant cette relation pour différentes valeurs de k (k=1,2,...,p), on ob-
tient les équations de Yule-walker :
ρ1 1 ρ1 ρ2 ... ρp−1 φ1
ρ2 ρ1 1 ... ρp−2
φ2
. . .
=
. . .
. . .
ρp ρp−1 ρp−2 ... 1 φp
proprieté 1.2.1. Pour un processus AR(p), φkk = 0, ∀k > p. En d’autres termes, pour un
processus AR(p) les auto corrélations partielles s’annulent à partir du rang p + 1.
• La stationnarité et la causalité :
Le processus autorégressif AR(p) est causal et stationnaire ssi le polynôme Φz = 1 −
Pp k
k=1 φk z est tel que :
9
1.2. Le processus stochastique
Xt = (1 − θ1 B − θ2 B 2 − ... − θq B q )εt
Soit encore :
Xt = Θ(B)εt
Avec,
Θ(B) = (1 + θ1 B + θ2 B 2 + ... + θq B q )
où, θ0 = 1
γh
Donc la fonction d’auto corrélation ρh = γ0
est :
proprieté 1.2.2. Pour un processus MA(q), ρh = 0 pour h > q. En d’autre termes les auto
corrélations s’annulent à partir du rang q+1.
La fonction d’auto corrélation partielle d’un MA(q) n’a pas de propriété particulière et son
expression est relativement compliquée.
10
1.2. Le processus stochastique
• La causalité : le processus moyenne mobile MA(q) est toujours causale.(MA(q) est linéaire
donc qi=0 θi2 < ∞)
P
q q
X X
γh = E(Xt Xt+h ) = E[( θj E(εt−j ))( θk E(εt+h−k ))]
j=0 k=0
q q
XX
= E( θj θk εt−j εt+h−k )
j=0 k=0
q q
XX
= θj θk E(εt−j εt−(k−h) )
j=0 k=0
P
σ 2 q−|h| θj θj+h si j = k − h
ε j=0
=
0 sinon
P
σ 2 q−|h| θj θj+h si 0 < h < q
ε j=0
γh =
0 si h > q
donc γh indépendant de t.
Pq
3. E(Xt2 ) = var(Xt ) = γ0 = σε2 2
j=0 θj <∞
Pq j
• L’inversibilité : un processus M A(q) est inversible ssi le polynome Θ(z) = j=0 θj z où θ0 =
1 est tel que :
Θ(z) 6= 0 pour tout z ∈ C tel que |z| ≤ 1
ou, Θ(z) = 0 pour tout z ∈ C tel que |z| > 1
11
1.2. Le processus stochastique
Définition 1.9. Un processus linéaire stationnaire (Xt )t∈Z est dit ARMA(p,q),(p,q)∈ (N∗ )2 , s’il
existe des constantes : φ1 , φ2 , ..., φp (φp 6= 0), et θ1 , ..., θq (θq 6= 0) et un processus (εt ) ∼ bb(0, σε2 )
tel que :
On ajoute :
Φ(β) = 1 − φ1 B − φ2 B 2 − ... − φp B p
et
Θ(B) = 1 + θ1 B + ... + θq B q
donc,
Φ(B)Xt = Θ(B)εt
Pour calculer les auto corrélations d’un processus ARMA. On procède comme dans le cas
des processus AR. A partir de l’équation :
On a
γ(h) = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )
12
1.2. Le processus stochastique
Donc :
Et on a :
γh
ρh =
γ0
Alors,
ρh = φ1 ρh−1 + φ2 ρh−2 + ... + φp ρh−p
Ou bien :
p
X
ρh = φi ρh−i
i=1
On constate donc que la fonction d’auto corrélation des processus ARMA répond à la même
équation aux différence que celle des processus AR.
La fonction d’Auto corrélation partielle d’un processus ARMA n’a pas d’expression simple.
Elle se caractérise le plus fréquemment soit par une forme exponentielle décroissante, soit par
une forme aléatoire.
• Stationnarité et causalité :
Un processus ARMA(p,q) est stationnaire et causal ssi Φ(z) = 1 − φ1 z − ... − φp z p 6= 0, ∀z ∈ C
tel que |z| ≤ 1
13
1.2. Le processus stochastique
• Inversibilité :
Un processus ARMA(p,q) est inversible ssi Θ(z) = 1 + θ1 z + ... + θq z q 6= 0, ∀z ∈ C tel que
|z| ≤ 1
sont des polynôme dont les racines sont de module supérieur strictement à 1.
proprieté 1.2.3. 1-un modèle de type ARIM A(p, d, q) est non stationnaire :il contient des
tendances de degré d.
2-Le paramètre d indique le nombre de différences prises pour obtenir la stationnarité.
Soit un processus MA(q) : Xt = Θ(B)εt , si Θ(z) 6= 0 pour tout z ∈ C tel que |z| ≤ 1
(inversible), alors on peut écrire Xt sous la forme AR(∞).
∞
X
−1
εt = Θ (B)Xt = βi Xt−i
i=0
P∞
Avec, β0 = 1 et i=0 |βi | < ∞
14
1.2. Le processus stochastique
∞
X
−1
Xt = Φ (B)εt = ψj εt−j
j=0
P∞
Avec, ψ0 = 1 et j=0 |ψj | < ∞
On a : Φ(B)Xt = Θ(B)εt
d’ou : Xt = Θ(B) ε = ∞
P
Φ(B) t i=0 αi εt−i
P∞
Avec : i=0 |αi | < ∞ et α0 = 1
On a : Θ(B)εt = Φ(B)Xt
Donc : εt = Φ(B) X = ∞
P
Θ(β) t i=0 βi Xt−i
P∞
Avec, i=0 |βi | < ∞ et B0 = 1
Xt est Un processus non stationnaire TS. S’il peut s’écrire sous la forme :[1]
X t = f t + εt
où,
ft : est une fonction (déterministe) du temps
15
1.2. Le processus stochastique
Xt = α + βt + εt
Ce processus est en effet non stationnaire puisque son espérance vaut α + βt a la date t, et
donc dépend de t.
Une des propriétés importantes de ce type de processus est qu’il n’ya pas persistance des chocs :
l’influence d’un chocs subit à un instant T aura tendance à s’estomper au cours du temps, et
la variable rejoint alors sa dynamique de long terme, déterminer par f (t).
Xt = ρXt−1 + β + εt
εt : processus stationnaire.
Si l’on suppose ρ = 1 et εt : bruit blanc
Donc on écrire :
Xt = Xt−1 + β + εt
16
1.3. Tests de stationnarité
On a :
Xt = Xt−1 + β + εt
X 1 = X 0 + β + ε1
X 2 = X 1 + β + ε2
X3 = X2 + β + ε3 = (X1 + β + 2 ) + β + ε3 = X0 + β + 1 + β + ε2 + β + 3 = X0 + 3β + ε1 + ε2 + ε3
Par récurrence :
t
X
Xt = X0 + tβ + εi
i=1
Alors,
i = 1t εi ) = X0 + tβ
P
• E(Xt ) = E(X0 + tβ +
• var(Xt ) = var(X0 + tβ + εi ) = tσε2
P
P0
• cov(Xt , Xt0 ) = E[(Xt −E(Xt ))(Xt0 −E(Xt0 ))] = E[( ti=1 εi )( ti=1 εi )] = σε2 min(t, t0 ) t 6=
P
t0
L’espérance et la variance dépendent du temps, donc le processus non stationnaire(marche
aléatoire avec dérivé).
Si le marche aléatoire sans dérivé(β = 0)
E(Xt ) = X0
var(Xt ) = tσε2
cov(Xt , Xt0 ) = σε2 min(t, t0 ) t 6= t0 .
Donc le marche aléatoire non stationnaire en variance.
Remarque 1.2.1. Un processus (DS) est un processus que l’on peut rendre stationnaire par
l’utilisation d’un filtre aux différences :
(1 − B)d Xt = β + εt
εt : processus stationnaire
d : ordre de différenciation
Le processus Xt est intégrer d’ordre d noté (I(d)), si d=1 le processus est dit alors le processus
du premier ordre.
17
1.3. Tests de stationnarité
Les modèles de base du test étant théorique, l’application du test requiert l’estimation en
pratique du modèle :
18
1.3. Tests de stationnarité
⊗ Etape 2
On aura à appliquer cette étape1 on a rejeté l’idée d’une tendance significative. On estime
le modèle (2’) et on test la significativité de la constante c.
◦ Si H0 est accepté, alors Xt est non stationnaire de type DS.
◦ Sinon, Xt est stationnaire.
⊗ Etape 3
Si l’étape2 detecté une constante nul, alors on estime le modèle (1’) et on effectue le test
de racine unitaire tel que :
◦ si H0 ,est acceptée, Xt est non stationnaire de type DS.
◦ si H0 ,est rejetée Xt stationnaire . [6]
19
1.3. Tests de stationnarité
Remarque 1.3.1. Il est également possible de procéder à des tests l’hypothèses jointes dans le
cas des modèles(2) et (3).
20
1.3. Tests de stationnarité
(On adopte la même stratégie séquentielle, aussi les statistiques test sont les même que dans
le cas du test DF-simple).
Les tests joints au moyen de statistiques de Fisher dans les modèles (2) et (3).
M2
On peut tester (c, φ) = (0, 0)
La statistique du test :
(SCRc − SCRnc )/2
F4 = ∼ F(2,T −p−1)
SCRnc /(T − p − 1)
SCRc : La somme des carré résidus du modèle(c=0, φ = 0)
SCRnc : La somme des carré résidus du modèle (2)
M3
Deux types du test :
21
1.4. Procédure de Box et Jenkins
1.4.1 Identification
Identification : détermination des ordres p,q des processus ARMA l’étape suivante consiste
à analyser l’auto corrélation et l’auto corrélation partielle.
22
1.4. Procédure de Box et Jenkins
−
T : nbr d’observation de Xt , X : moyenne de Xt .
Box et Jenkins suggèrent de retenir un nombre maximal de retard K = T /4
Aprés avoir évalué la fonction ρ̂k , on peut tester la significativité statistique de chaque coefficient
d’auto corrélation, pour cela, on utilise la formule de Bartelett donnant l’écart type de la
distribution
q des ρ̂k :
σ̂ρ̂k = T1 (1 + 2 k−1 2
P
i=1 ρ̂i )
T : nombre d’observation.
Pour un nombre d’observation T suffisamment important, Bartelett a montré que ρ̂k suit une
loi normale.
Pour tester :
H0 : ρk ne sont pas significatif
H : ρ significatif
1 k
sinon on rejette H
0
⇒ Ce test permet d’identifier l’ordre q des processus M A, car les auto corrélations d’un
processus M A(q) s’annulent à partir du rang q + 1.
On tester :
H0 : φkk non significatif
H : φ significatif
1 kk
23
1.4. Procédure de Box et Jenkins
• La règle de décision :
si t < t1−α/2 on acceptH0
φ̂kk
sinon on rejetteH
0
• où t1−α/2 : valeur critique lue dans la table de loi de student d’ordre (1 − α/2), degré de
liberté (T − h), avec h : nombre des paramètres estimés.
⇒ Ce test permet d’identifier l’ordre p des processus AR(p), car les auto corrélations par-
tielle d’une processus AR(p) s’annulent à partir du rang p + 1.
A l’issue de cette étape d’identification, on a sélectionné un ou plusieurs modèles, il convient à
présent d’estimer chaque modèle sélectionné.
On passe alors à la deuxième étape.
1.4.2 Estimation
A cette étape les ordres p,q ont été fixés, il reste donc d’estimer les paramètres φi , θj et
aussi σε2 , nous serons intéressés par les deux méthodes :
• Ω : matrice (T × T ) de variance-covariance de vecteur X = (X1 , ..., XT )t elle dépend de
φi (i = 1, ..., p) et θj (j = 1, ..., q) du processus ARMA.
• L : fonction de vraisemblance.
Cette vraisemblance est difficile a calculer à cause du déterminant Ω et de son inverse
Ω−1 quand T très grand.
On ajoute :
T
X
t −1
S(φ, θ) = X Ω X = (E(Xt , φi , θj , σε2 ))2 , i = 1, ..., p; j = 1, ..., q
t=−∞
T T 1 S(φ, θ)
logLT = logL(X, φ, θ, σ2 ) = − log(2π) − logσε2 − log(det Ω) −
2 2 2 2σ2
T : nombre d’observation.
On maximise logLT par rapport aux paramètres φi , θj et σε2 avec i = 1, ..., p; j = 1, ..., q
En pratique, on commence par estimer σε2 en calculant :
∂logLT T S(φ, θ)
2
= 0 ⇔ − σε2 + =0
∂σ 2 2σε4
24
1.4. Procédure de Box et Jenkins
donc :
S(φ, θ)
σε2 =
T
On ajoute σ2 dans logLT on obtient :
T T S(φ, θ) 1 T
logL∗T = − log(2π) − log − log(det Ω) −
2 2 T 2 2
On a ainsi le nombre de paramètres par rapport aux quels la log vraisemblance doit être
maximiser. Maximisé la log vraisemblance par rapport aux paramètre autoregressive et
moyenne mobile revient à minimiser l’expression suivant :
S(φ, θ)
lT∗ = T log + log(det Ω)
T
La minimisation de cette expression nous permet d’obtenir les estimateurs du maxi-
mum de vraisemblance des paramètres φi (i = 1, ..., p) et θj (j = 1, ..., q) des processus
ARMA(p,q).Estimation par la méthode des moindres carrés :
Soit Xt ∼ AR(p), s’écrit sous la forme :
où :εt ∼ bb(0, σε2 ), Z t = (1, Xt−1 , ..., Xt−p ), β t = (c, φ1 , ..., φp )
L’estimation des paramètres de ce modèle par la méthode des moindres carrés est donné
par [1]
β̂ = (ZZ t )−1 ZXt
T
1 X
σ̂ε2 = (Xt − Z t β̂)2
T − (p + 1) t=1
Si les racines du polynôme charactéristique Φ(z) sont à l’extérieure du disque unité alors :
p p
β̂ → β et σˆε2 → σε2
√ D
Et de plus : T (β̂ − β) → N (0, σε2 V ) où V = ρ lim T1 ZZ 0
T →+∞
1.4.3 Validation
Au début de cette étape on dispose de plusieurs processus ARMA dont on a estimé les
paramètres. Il faut maintenant valider ces modèles afin de choisir les meilleur modèles adéquats.
Pour cela, on applique des tests sur les paramètres et sur les résidus. Si plusieurs modèles sont
validés, l’étape de validation doit se poursuivre par une comparaison des qualités de ces derniers.
25
1.4. Procédure de Box et Jenkins
A)
1. Tests sur les paramètres :
Aprés avoir estimé les paramètres d’un modèle on peut se poser la question de savoir si
ces paramètres sont significative.
L’hypothèse :
H0 : le modèle ARMA(p-1,q) (φp = 0)
H : le modèleARM A(p, q) (φ 6= 0)
1 p
• Pour p0 = p − 1 et q 0 = q
φ̂p
La statistique du test : tc = σ̂(φ̂p )
La valeur obtenue est à comparer à la valeur critique lue dans la table de loi de
student, la règle de décision est alors la suivant :
⇒ Si |tc | < ttab , on acceptH0 (φp = 0)
⇒ Si |tc | ≥ ttab , on rejetteH0 (φp 6= 0)
Bien entendu,on peut appliquer un raisonnement similaire au test de l’hypothèse
nulle p0 = p et q 0 = q − 1
• Pour p0 = p + 1 et q 0 = q de même façon, on tester la significativité du coefficient
φp+1 .
L’hypothèse :
H0 : le modèle ARMA(p,q) (φp = 0)
H : le modèleARM A(p + 1, q) (φ 6= 0)
1 p
26
1.4. Procédure de Box et Jenkins
La statistique du test :
K
X
Q=T ρ̂ε̂ (k).
k=1
où ρ̂ε̂ (k) : est le coefficient d’auto corrélation d’ordre k des résidus estimés.
K : nombre maximale de retard.
T : nombre d’observation.
La statistique Q suit une loi de Khi deux de degré de liberté (K-p-q), la région
critique :(la règle de décision) :
si Q > χ2 (K − p − q) on rejette H0
1−α
Sinon on accepte H 0
H0 : εt ∼ N (0, 1)(normalité)
H : ε N (0, 1)
1 t
27
1.4. Procédure de Box et Jenkins
où :
1
PT Xi −X̄ 3
β1 = T i=1 ( S )
1
PT Xi −X̄ 4
β2 = T i=1 ( S )
ou, α : le risque.
1X
M AE = |εˆt |
T t
— Racine de l’erreur quadratique moyenne :
s
1 X ˆ2
RM SE = ε
T t t
28
1.4. Procédure de Box et Jenkins
ln T
ln σˆε2 + α(p + q) ln( )
T
α : (α > 2) est une constante.
p : l’ordre de la partie AR.
q : l’ordre de la partie MA.
1.4.4 Prévision
Étant donné une série stationnaire (Xt )t∈Z . Observé entre 1 et T, on cherche à faire la
prévision à l’horizon h. Et donc à prévoir : Xt+1 , Xt+2 , ..., Xt+h .
On définit : X̂t+h = E(Xt+h /It )
telle que : Xt+h : la prévision faite en t pour la date t + h.
L’espérance est ici pris au sens d’espérance conditionnelle, elle représente la meilleure prévision
de la série X conditionnellement à l’ensemble d’informations disponible. Donc on a :
29
1.4. Procédure de Box et Jenkins
Φ(B)Xt = Θ(B)εt
Xt = φ1 Xt−1 + εt − θ1 εt−1
Il est également possible d’utiliser la forme MA(∞) d’un ARMA pour effectuer les prévisions.
On a :
Θ(B)
Φ(B)Xt = Θ(B)εt ⇒ Xt = εt = ψ(B)εt
Φ(B)
On écrit (Xt ) sous la forme d’une MA(∞).
+∞
X
X t = εt + (ψj εt−j )
j=1
X
X̂t+h = ψh+i εt−i
i≥0
On a la prévision de l’erreur :
êt+h = Xt+h − X̂t+h
Par exemple :
êt+1 = Xt+1 − X̂t+1 = εt+1
êt+2 = Xt+2 − X̂t+2 = εt+2 + ψ1 εt+1
En général :
30
1.4. Procédure de Box et Jenkins
Ph−1
êt+h = Xt+h − X̂t+h = i=0 ψi εt+h−i
avec ψ0 = 1
La variance de l’erreur de prévision : (εt bruit blanc gaussienne)
Ph−1 Ph−1
ψi εt+k−i )2 = ( i=0 ψi E(εt+k−i ))2 = σε2 h−1 2
P
var(êt+h ) = E( i=0 i=1 ψi
L’intervalle de prévision :
h−1
! 12 h−1
! 21
X X
Xt ∈ X̂t+h − 1.96σε ψi2 , X̂t+h + 1.96σε ψi2
i=0 i=0
Avec : (U1− α2 = 1.96) est la quantile d’ordre (1 − α2 ) de loi normale centré réduit, où (α = 5%)
31
CHAPITRE 2
où :
Y1t a1 ε1t a11i a12i . . . a1ni
Y a ε a a . . . a
2t 2 2t 21i 22i 2ni
Yt = . ; φ0 = . ; εt = . φi = . ; (2.1)
.. .. .. .. ...
Ynt an εnt an1i an2i . . . anni
• ε(t) ∼ bb(0, Σε )
Σε = E(ε0 ε) : est la matrice de variance covariance d’erreur
• la forme (1) s’écrit encore : ΦB Yt = φ0 + ε(t)
Φ :polynôme matricielle(N ∗ N) telle que :
p
X
2 p
Φ(B) = I − φ1 B − φ2 B − · · · − φp B = I − φi B i
i=1
32
2.1. Présentation du Modèle
Exemple 2.1.1. considérons deux variable stationnaires y1t et y2t et suppose que :p = 3
le modèle var(4) décrivant :N = 2, p = 3
" # " # " #" # " #" # " #" # " #
y1t a1 a111 a121 y1t−1 a112 a122 y1t−2 a113 a123 y1t−3 ε1t
= + + + +
y2t a2 a211 a221 y2t−1 a212 a222 y2t−2 a213 a223 y2t−3 ε2t
y1t = a1 + a111 y1t−1 + a121 y2t−1 + a112 y1t−2 + a122 y2t−2 + a113 y1t−3 + a123 y2t−3 + ε1t
y = a + a y +a y +a y +a y +a y +a y +ε
2t 2 211 1t−1 221 2t−1 212 1t−2 222 2t−2 213 1t−3 223 2t−3 2t
3 3
P P
y = a + a y + a12i y2t−i + ε1t
1t
1 11i 1t−i
i=1 i=1
3
P 3
P
y2t = a2 + a21i y1t−i + a22i y2t−i + ε2t
i=1 i=1
Remarque 2.1.1. 1-un processus ARMA multivarié ,ce que l’on note processus VARMA qui
s’écrit :
Yt = φ0 + φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + εt + θ1 εt−1 + · · · + θq εt−q
et soit encore :
Φ(B)Yt = Θ(B)ε(t) + φ0
p
φk B k est une polynôme de degré p en B
P
tq : Φ(B) = I −
k=1
q
θi B i est une polynôme de degré q en B
P
Θ(B) = I +
i=1
il est possible de distringés les processus VMA (obtenu quand p = 0) :moyennes mobiles multi-
variées.on a alors VMA(q)s’écrit :
Yt = εt + θ1 εt−1 + · · · + θq εt−q
-VMA sont toujour stationnaires et sont inversibles si les racines du polynome caractéristique
sont à l’extérieure du disque unité.
33
2.1. Présentation du Modèle
un processus VAR(p) peut s’écrire sous la forme d’un VAR(1) q’on notera Zt
Zt = c + φZt−1 + µt
où :
φ1 φ2 . . . φp
I 0
Yt φ 0 ε1t
N N ... 0N
Y
0
0
t−1 N N
φ=
0N IN . . . 0N Zt = . ; c = . ; µt = .
(2.2)
.. .. ..
.
. . . ..
. . .
Yt−p+1 0N 0N
0N . . . . . . IN
;
on a alors :
y1t 3 0.5 0.6 0.8 0.1
y 2 0.4 0.7 0.9 0.2
2t
= +
y1t−1 0 1 0 0 0
y2t−1 0 0 1 0 0
y1t−1 ε1t
y ε
2t−1 2t
+
y1t−2 0
y2t−2 0
ΦB Yt = ε(t)
34
2.2. Stationnarité
en peut écrire :
Yt = (Φ(B))−1 ε(t) = (Φ̃(B)/ det Φ(B))ε(t)
où :
-yt :représentation canonique
-ε(t) :l’innovation du processus
2.2 Stationnarité
Définition 2.1. le processus est stationnaire si :
•E(Yt ) = µ vecteur constant,∀t
•var(Yt ) = E([Yt − µ][Yt − µ]0 ) = Γ :vecteur constant d’elements finis
•cov(Yt , Yt+h ) = E([Yt − µ][Yt+h − µ]) = Γh independant de t mais uniqeument du retard. ,∀t
35
2.3. Les Moments de processus VAR(p)
le polynôme caractéristique
" # " # ! " #
1 0 0.2 0.7 1 − 0.2z −0.7z
det − z = = 1 − 0.6z + 0.13z2
0 1 0.3 0.4 −0.3z 1 − 0.4z
le polynome admet pour racines z = 1.3 et z = −5.91 :donc le processus est stationnaire
2.3.1 Esperance
on a VAR(p) s’écrit :
E[Yt ](I − φ1 − φ2 − · · · − φp ) = φ0
E[Yt ] = (I − φ1 − φ2 − · · · − φp )−1 φ0
par exemple :
Yt = φ0 + φ1 Yt−1 + ε(t)
0
z }| {
E[Yt ] = E[φ0 + φ1 Yt−1 + ε(t)] = φ0 + φ1 E[Yt ] + E[ε(t)]
E[Yt ] = (I − φ1 )−1 φ0
car(E [Yt ] = E[Yt−1 ])(on pose Yt stationnaire)
36
2.3. Les Moments de processus VAR(p)
on pose :
Xt = Yt − E[Yt ]
donc :
γ(0) = E[Xt Xt0 ] = E[(φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + ε(t))Xt0 ]
on a :
E[ε(t)Xt0 ] = E[ε(t)(φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + ε(t))0 ]
0 0
z }| { z }| {
0 0
= φ1 E[ε(t)Xt−1 ] + · · · + φp E[ε(t)Xt−p ] +E[ε(t)ε(t)0 ]
et encore :
0 Si t 6= t0
E[ε(t)ε(t)0 ] =
Σ Si t = t0
ε
donc :
37
2.3. Les Moments de processus VAR(p)
Remarque 2.3.1. la propriété de systéme valable dans le cas univarié n’est plus vérifié ici :
pour h 6= 0 : γ(h) 6= γ(−h)[2]
∗γ(h) = γ(h)0
∗|γij (h)| <= [γii (0)γjj (0)]1/2 , ∀h = 0, 1, .. et ∀i, j = 0, ..N
∗γii (h) : est la fonction d’autocovariance de la composante ,i = 1, ...N
γij (h) : est la fonction de covariance croisée entre les composantesyi,t etyj,t−h du processusyt , ∀i, j =
1, ..N
k
0
a0j γj−h
P
∗ aN >= 0, ∀k = 1, 2, ..eta1 , ...ak ∈ RN
j,N =1
∗ρh = ρ0h ,les élements sur la diagonnale correspondant aux autocorrélations usuelles.
38
2.4. Estimation des paramètres d’un VAR(p)
39
2.4. Estimation des paramètres d’un VAR(p)
soit encore :
Yj = Y ψj + εj
0
Y 0 · · · Y1−p εj1
0
Y 0 ··· Y 0 ε
1 2−p j2
où : Y = . ; εj = .
.. ..
0 0
YT −1 · · · YT −p εjT
et soit : Yt0 = (Y1t−1 Y2t−1 ...YN t−1 , Y1t−2 ...YN t−2 , ...., Y1t−p ...YN t−p ) le modèle est un processus
VAR(p)
à Ncomposantes indicées par le temps t :
φ
11j
..
.
φ
εj1
1N j
ε
j2
ψj = φ21j ; εj = .
. ..
..
..
εjT
.
φpN j
la matrice Y indépendant de j :
Yj = Y ψj + εj
on cherche à estimer (ψ1 , ψ2 , .., ψN )0 la matrice de variance covariance des erreur devient un
40
2.4. Estimation des paramètres d’un VAR(p)
l’observation de cette matrice indique la présense d’hétéroscédasticité (il n’y a en effet ,aucune
raison pour que σ11 = σ22 = ... = σN N ) et d’autocorrélation ,il se pose en conséquence un
problème pour l’application des MCO.
Rappelons en effet que les estimateurs sont sans biais,mais ne sont plus de variance minimale.Il
convient dés lors d’utiliser le technique des MCG(moindres carrés généralisés).qui fournit un
estimateur BLUE (best linear unbiaised estimator).
on peut réécrire la matrice de variance comme :
var[ε] = Σ ⊗ I = Ω
où : Σ = σij et⊗ : désigne le produit de kroeker
Rappelons que :A ⊗ B = aij B
par exemple :
41
2.4. Estimation des paramètres d’un VAR(p)
a1 b 1 a2 b 1 a1 b 2 a2 b 2
" # " #
a1 a2 b1 b2 a b a b a b a b
3 1 4 1 3 2 4 2
⊗ =
a3 a4 b3 b4 a1 b 3 a2 b 3 a1 b 4 a2 b 4
a3 b 3 a4 b 3 a3 b 4 a4 b 4
Nous venons de voir que la matrice de variance covariance des résidus et telle que l’on devrait
théoriquement appliquer les MCG cependant, puisque la matrice des variable explicatives est
bloc diagonale ,on peut appliquer les MCO bloc par bloc. le théoréme de Zellner nous montre
ainsi qu’estimer chacune des N équations par MCO et équivalent à estimer le modele par les
MCG .Afin de le prouver ,considérons le modéle suivant :
X = aY + ε
ε :est un bruit blanc
Rappalons que l’estimateur des MCO est donné par :
aMˆCO = (Y 0 Y )−1 Y 0 X
et que l’estimateur des MCG s’écrit :
aMˆCO = (Y 0 Ω−1 Y )−1 Y 0 Ω−1 X
Ω :matrice variance covariance de ε
et on a :
Y 0 ··· 0
0 Y ··· 0
Y =. =I⊗Y
.. ..
.
0 ··· Y
I :matrice identité.
Remarque 2.4.1. Avant appliquer les MCG rappelons que l’on a les égalités suivantes concer-
nant le produit de kronecker :
∗(A ⊗ B)(C ⊗ D) = AC ⊗ BD
∗(A ⊗ B)0 = A0 ⊗ B 0
∗(A ⊗ B)−1 = A−1 ⊗ B −1
Afin de calculer l’estimateur des MCG ,commencons par étudier la matrice (Y 0 Ω−1 Y ) :
Y 0 Ω−1 Y = (I ⊗ Y 0 )(Σ−1 −1 0
ε ⊗ I)(I ⊗ Y ) = Σε ⊗ Y Y
on en déduit :
(Y 0 Ω−1 Y )−1 = Σε ⊗ (Y 0 Y )−1
42
2.5. Validation de modèle VAR(p)
on a donc :
âM CG = Σε ⊗ (Y 0 Y )−1 (Σ−1 0 0 −1 0
ε ⊗ Y ) = ((I ⊗ Y Y ) Y ))X
D’ou :
(Y 0 Y )−1 Y 0 0 ··· 0 X1 (Y 0 Y )−1 Y 0 X1
. ..
0 (Y 0 Y )−1 Y 0 ··· 0 .. .
âM CG = . = (2.3)
.. ... .. .
..
.
0 −1 0 −1 0
0 ··· (Y Y ) Y XN (Y Y ) Y XN
on retrouve l’estimateur des MCO équation par équation.
cependant, cette technique d’estimation des VAR n’est plut valable dés lors qu’il existe des
contraintes sur les paramétre .
Il convient alors d’utiliser la technique du MV.
T T
Y 1 X
L(Y1 , ...YT ) = Fε (Y ) = exp(−1/2 ε0 (Σε )−1 )ε)
t=1
(2π)T N/2 (detΣε )T /2 t=1
on peut en déduire la fonction de log-vraisemblance qui est :
T
X
log L(Y1 , ...YT ) = (−N T /2) log 2π − (T /2) log(det Σε ) − (1/2) ε0 (Σε )−1 ε
t=1
43
2.5. Validation de modèle VAR(p)
λ = 2(ln(LN c ) − ln(Lc ))
où :
• ln(LN c ) :la fonction de vraisemblance associée au modèle non contraint.
• ln(Lc ) :la fonction de vraisemblance associée au modèle contraint.
on a le test :
H0 : le modèle VAR(p) est vrais : φp+1 = 0
ou
H1 : le modèle VAR(p+1) est vrais : φp+1 6= 0
la technique consiste à estimer le modèle contraint V AR(p) et un modèle non contraint V AR(p+
1).
la log-vraisemblance d’un processus VAR s’écrit :
T
X
log L(X1 , ...XT ) = (−N T /2) log 2π − (T /2) log(det Σε ) − (1/2) ε0 (Σε )−1 ε)
t=1
PT 0 −1
•• t=1 ε (Σε ) ε) est un scalaire.
on notant tr la trace donc :
PT 0 P
−1 T 0 −1 −1
PT 0 −1 1
PT 0
t=1 ε (Σε ) ε) = tr ε (Σε ) ε) = tr Σ ε εε = tr T Σε T εε
t=1 t=1 t=1
T
= tr T Σ−1 1
= tr (T Σ−1
P
ε T t=1 T ε Σε ) = tr(T IN ) = N T
44
2.5. Validation de modèle VAR(p)
cette statistique suit une loi du khi-deux à r degré de liberté , où : r nombre de contraints
si l’on accepte l’hypothèse nulle ,on peut effectuer un deuxième test :
H0 : le modèleV AR(p − 1)est vrai : φp = 0
ou
H1 : le modèleV AR(p)est vrai : φp 6= 0
• la statistique φ0 de Ljung-Box :
h
X 1 ˆ −1 ρ(i)
ˆ ρ(0) ˆ −1 )
ˆ ρ(0)
Φ0h =n 2
trace(ρ(i)
i=1
n−i
45
2.6. Prévision
N 2 p log(T )
•SIC = log det(Σ̂ε ) +
T
2
2N p log(log(T ))
•HQ = log det(Σ̂ε ) +
T
où :
N :nombre de variable
T :nombre d’observation
Σ̂ε :estimateur de la matrice variance covariance des résidus.
2.6 Prévision
la prévision à l’horizon h :
considérons un modèle VAR(1) :
Yt = φ0 + φ1 Yt + εt
q
Yit (h) ± tα/2 Σiih
46
2.7. Causalité
avec :
tα/2 :fractile de loi normal.
2.7 Causalité
La condition signifie que la valeur présente de X apporte une information supplémentaire par
rapport à la connaissance du passé des variables figurant dans I.
Les inégalité sont toujours satisfaites. Elle se transforment en égalités si et seulement si :
• X ne cause pas y si : E(Yt /It ) = E(Yt /I t − X t ).
• X ne cause pas instantanément Y si : E(Yt /I t , X t ) = E(Yt /It )
La définition de la causalité est ici relative à un univers.
On distingue trois grands types de causalité :
47
2.7. Causalité
- X cause instantanément Y :
où
V (Yt /Y t−1 , X t ) : la matrice de variance covariance de l’erreur de prévision associée a la
régression linéaire de Yt sur son passé (Y t−1 ) et sur le passé de Xt jusqu’à la date t-1 incluse
(X t−1 ).
Pour tester la non causalité au sens de Granger de X sur Y, il suffit de tester la nullité jointe
de β1 , β2 .
Par un test en F. l’expression générale est :
(SCR0 − SCR)/P
S1 = ∼ F (P, T − 2P − 1)
SCR/(T − 2P − 1)
Ce test n’est pas un test exact puisque il ya des endogènes retardées dans la régression OLS.
On emploie donc un test asymptotique du χ2(P ) :
T (SCR0 − SCR)
S2 = ∼ χ2(P )
SCR
48
2.7. Causalité
Par exemple :
considérons le processus V AR(p) à deux variables Xt , Yt :
! ! ! ! ! ! !
Yt a0 a11 b11 Yt−1 a1p b1p Yt−p 1t
= + + ... + +
Xt b0 a12 b12 Xt−1 a2p b2p Xt−p 2t
Remarque 2.7.1. Si l’on est amené à rejeter les deux hypothèses nulles. On a une causalité
bi-directionnelle. On parle de boucle rétroactive(feedback effect).
49
2.8. Analyse de réponse impulsionnelle
l’erreur de prévision de Y.
considérons un processus VAR(p) à deux variables :
Yt = a0 + Pp a1 Yt−i + Pp a2 Xt−i + Pp b2 Xt−i + ε1t
1 i=1 1i i=1 1i i=1 i
X = a0 + p a1 X + p a2 Y + p b1 Y + ε
P P P
t 2 i=1 2i t−i i=1 2i t−i i=1 i t−i 2t
Dans ce cas :
• Y ne cause pas X si l’hypothèse nulle suivante est vérifier :H0 : b21 = b22 ... = b2p = 0
• X ne cause pas Y si l’hypothèse nulle suivante est vérifier :H0 : b11 = b12 ... = b1p = 0 IL s’agit
encore de tests de Fisher de nullité des coefficients.
Φ(B)Xt = εt
P
X
Xt = φi Xt−i + εt
i=1
50
2.8. Analyse de réponse impulsionnelle
P
X
−1 −1
P̂ Xt = P̂ φi Xt−i + P̂ −1 εt
i=1
Soit encore :
P
X
−1 −1
P̂ Xt + P̂ φi Xt−i + P̂ −1 εt + Xt − Xt = 0
i=1
Donc,
P
X
−1
Xt = P̂ φi Xt−i + P̂ −1 εt + (I − P̂ −1 )Xt
i=1
On ajoute :
P̂ −1 εt = wt , I − P̂ −1 = ψ0 1 ≤ i ≤ p, P̂ −1 φi = ψi
Donc, l’expression du processus VAR structurel :
P
X
Xt = ψi Xt−i + ψt (2)
i=0
Les relations précédents montrent que l’estimation du VAR structurel est acquise dés que la
matrice P a été estimée.
L’identification des chocs est réalisée puisqu’il est alors possible de passer des chocs estimés
aux chocs structurels (interprétables économiquement)par :
ψ̂t = P̂ −1 ε̂t
On voit qu’un chocs sur ε1 affectera immédiatement la valeur présente de Xt , il affectera aussi
les valeurs futures de y et x car les deux équations corrélé par la valeur passé de X.
•Si ε1t et ε2t ne sont pas corrélées, l’interprétation de la fonction de réponse implusionnelle est
trés simple.
51
2.8. Analyse de réponse impulsionnelle
•La fonction de réponse implusionnelle pour ε2t mesure l’effet chocs de y sur valeur passées et
présentes de X et Y.
•On pratique généralement, les innovations sont corrélées, elles ont donc une composante com-
mune qui ne peut pas êtrès associée a une variable spécifique. il ya une méthode quelque peut
arbitraire mais fréquemment utilisée consiste à attribuer la totalité de la composante comme à
la variable qui intervient en premier dans le système VAR.
Techniquement, les erreurs peuvent êtrès orthogonalités en utilisant la décomposition de Cho-
lesky (la matrice de variance covariance des innovations qui en résulte est diagonale).
Théorème 2.8.1. Si A est une matrice symétrique définie positif, il existe une matrice trian-
gulaire inférieur P telle que :
A = P.P t
De plus, si on pose aux coefficients diagonaux de P d’être strictement positifs, alors cette
décomposition est unique.
Algorithme :
A ∈ MN (R) tq :
t
A = P.P
p11 0 · · · 0 p11 · · · pn1
. . . . .. .
. .. . . .. , P = 0 . ..
t
P = .
pn1 · · · · · · pnn 0 · · · pnn
..
p11 0 . 0 p11 · · · pn1
.
. . .
.. . . . .. 0
.. ..
A= . . .
pn1 · · · · · · pnn 0 ··· pnn
a11 a12 · · · a1n
21 · · · a2n
a
= .
.. .
.. . . . .. .
an1 an2 · · · ann
Rappel
Soit A ∈ Mn (R)
52
2.8. Analyse de réponse impulsionnelle
A symétrique ⇔ A = At .
A définie positif si les n déterminants des sous matrices principales sont strictement positif.
Exemple 2.8.1. N = 3
1 −1 2 1
A= −1 5 −4, b = 1
2 −4 6 2
t
On écrire A sous la forme P.P par les décompositions de Cholesky :
On a A = At (A symétrique).
Pour démontrer que A positif, il faut que les 3 déterminant est positif :
∆1 = 1 > 0
1 −1
∆2 = =5−1=4>0
−1 5
1 −1 2
∆3 = −1 5 −4 = (30 − 16) + (−6 + 8) + 2(4 − 10) = 14 + 2 − 12 = 4 > 0
2 −4 6
1 −1 2 p11 0 0 p11 p21 p31 p211 p11 p21 p11 p31
−1 5 −4 = p21
p22 0 . 0
= p21 p11
p22 p32 p221 + p222 p21 p31 + p22 p32
2 2 2
2 −4 6 p31 p32 p33 0 0 p33 p31 p11 p31 p21 + p32 p22 p31 + p32 + p33
Par suite :
p211 = 1 ⇒ p11 = 1
p11 p21 = −1 ⇒ p21 = −1
p11 p31 = 2 ⇒ p31 = 2
2 2 2
√
p 21 p 22 = 5 ⇒ p 22 = 5 ⇒ p 22 = 5
√
p21 p31 + p22 p32 = −4 ⇒ (−1 × 2) + 5p32 = −4 ⇒ p32 = √25
√
p31 + p232 + p233 = 6 ⇒ (2)2 + ( √25 )2 + p233 = 6 ⇒ p233 = 30 √30
2
24
⇒ p33 = 24
53
2.9. Décomposition de la variance
V (Wt ) = I (1)
Le différents chocs structurels Wt ne sont pas corrélés entre eux sur une même date, et ont une
variance unitaire.
On a :
t = P Wt
V (t ) = P V (Wt )P 0 = P P 0 = Σ
ou
P : la matrice de passage (N 2 paramètre inconnu).
Σ : la matrice de variance covariance de t (innovation canonique).
•On pose N(N+1)/2 contraintes sur les éléments de matrice P(puisque Σ est symétrique). Ces
contraintes sont appelées contraintes d’orthogonalisation.
• Pour identifie les N 2 élément de la matrice P, il reste imposer N (N − 1)/2 contraintes
supplémentaire sont appelées contraintes identifiants structurelles.
54
2.9. Décomposition de la variance
L’espérance vaut alors 0(par définition, les bruit blanc des processus centré).
La matrice de variance covariance donné par :
E[(Xt+h − E(Xt+h ))(Xt+h − E(Xt+h ))0 ]
= E(Xt+h − E(Xt+h ))2
= Σ + θ1 Σθ10 + ... + θh−1 Σθh−1
0
...(3)
Cette erreur de prévision est alors exprimée en fonction de la matrice de variance covariance
des résidus (non diagonale).
Considérons la transformation :
A−1 ε
µt = t ou εt = Aµt et Σ = A.D.A
0
ε1t µ1t
. .
. . d
. = (a1 , a2 , ..., an ) . , ai ∈ R
εt =
εdt µdt
d
X
E[(Xt+h − E(Xt+h ))(Xt+h − E(Xt+h ))0 ] = V (µjt )[θ1 (a1 a01 )θ10 + θh−1 (ah−1 a0h−1 )θh−1
0
]
j=1
La quantité :
V (µjt )[θ1 (a1 a01 )θ10 + θh−1 (ah−1 a0h−1 )θh−1
0
]
55
CHAPITRE 3
3.1 Introduction
Après avoir présenter dans le chapitre précédent le cadre théorique de modèle VAR(p), nous
poursuivons la démarche que nous avons adopté depuis le début de ce mémoire.
Dans ce contexte, nous entamons une phase pratique consiste à appliquer de toutes les
techniques citées auparavant sur trois séries météorologiques mesurées dans la wilaya de Jijel,
ces données sont fournit par la station d’Achouat et s’étalent du Janvier 1996 à Décembre
2005.notre base de données est composée de la température (notée Temp), les précipitations
(notée Prec), et l’humidité (noté Hum).
Dans ce chapitre, nous allons essayer de mettre en place une modélisation univariée de
chaque série séparément via la méthode de Box et Jenkins et une modélisation Multivariée de
toutes les séries simultanément par le biais de modèle VAR(p). nous allons essayer par la suite de
calculer les prévisions par les modèles résultants des deux approches et faire une comparaisons
entre elles.
56
3.2. Etude Univarié
nous comparons les valeurs de V1 et V2 pour chauque série avec la valeur (1.96 :qui repre-
sente la valeur de la loi normal au seuil α = 5%).
D’après les résultats ,on rejette l’hypothèse de normalité pour la série (prec)et la série (temp)et
on l’accepte pour la série(Hum).
57
3.2. Etude Univarié
on constate que les trois courbes sont parallèles à l’axe des abscisses ,donc on peut les considérées
comme des séries stationnaires.
l’analyse de corrélogramme simple est partiel des trois séries nous indique une éventuelle
présence de la saisonnalité .
Etude de saisonnalité
la table suivante regroupe les coefficients saisonniers pour les trois séries ,ces coefficients
sont au nombre 12 car nos séries sont mensuelles :
58
3.2. Etude Univarié
on va appliquer le test de Dicky-Fuller sur les trois séries dépersonnalisées .a l’aide de logiciel
R ,on estime par la méthode MV les paramètres des modelés [4],[5],[6] .
les valeurs mentionnées dans ce tableau représentent les probabilités de signification (p-value).pour
plus de détails sur les estimations de ces tests voir l’annexe
59
3.2. Etude Univarié
l’application de la stratégie du Dicky-Fuller,sur les trois séries nos mène à conclure que nos
séries sont stationnaires parce qu’elles ne sont pas affectées ni de tendance ni de racine unitaire.
3.2.2 Box-Jenkins
Identification
cette étape est effectuée par le biais de l’examination des fonctions ACF et PACF des séries
désaisonnalisées stationnaires.
60
3.2. Etude Univarié
pour la série des températures et la série précipitations, les deux fonctions ACF et PACF
s’annulent à partir de deuxième pics
pour la série Humidité, les deux fonctions ACF et PACF s’annulent à partir de pic numéros 13.
d’après l’analyse ci dessus, on peut identifier les processus dont les ordres mentionnés dans le
tableau (3.4) pour chaque séries.
Estimation et Validation
après avoir identifier l’ordre des processus, il convient d’estimer les paramètres du modèle
et de vérifier par la suite la validité de différents modèles estimés en se basant sur un ensemble
de tests sur paramètres et sur résidus.
série prec
série temp
61
3.2. Etude Univarié
série hum
62
3.3. Etude multivarié
prévision
une fois les modèles adéquats sont choisit, on peut baser sur eux pour calculer les prévisions
de 12 mois de l’année 2006 pour chaque série.
Prec : X̂t = 83.144 + 0.245Xt−1
Temp : X̂t = 18.161 + 0.312Xt−1
hum : X̂t = 75.24805 − 0.24835Xt−12
Table 3.8 – Prévisions des trois séries par la méthode Box et Jekins
63
3.3. Etude multivarié
on choisit le retard qui fournit le minimum des trois critères d’information (AIC,BIC,HQ), la
valeur minimale correspond à un retard p=3.
64
3.3. Etude multivarié
D’après le cercle ,le modèle VAR(3) est stationnaire car touts les racines se situent à l’intérieure
de cercle d’unité.
3.3.4 Causalité
l’hypothèse nul obs f.stat P.value
T ne cause pas
Granger 120 8.50 1.401 ∗ 10−8
H-P
instant 23.51 7.841 ∗ 10−6
P ne cause pas
Granger 120 2.18 0.04411
T-H
instant 16.76 0.00022
H ne cause pas
Granger 120 3.14 0.0052
T-P
instant 24.24 5.435 ∗ 10−6
65
3.3. Etude multivarié
D’aprés le tableau ,on peut conclue :qu’il existe des relations de causalité bidirectionel entre les
trois séries deux à deux au sens de Granger et instantanément
Entre le premier et le deuxième mois après le choc on remarque une diminution de précipitations
suite a la diminution de l’humidité ; a partir du deuxième mois on remarque une évolution
similaire des 2 graphes. Cela s’explique par l’influence de taux de l’humidité sur la quantité des
pluies
Entre le premier et le troisième mois après le choc on remarque une augmentation de températures
suite à la diminution de l’humidité ; a partir de la troisième mois on remarque une diminution
de la température ou moment ou le H augmente. En générale on constate une évolution inverse
des 2 graphes jusqu’à la disparition totale de ce choc .
66
3.3. Etude multivarié
Entre le premier et le sixième mois après le choc on remarque une augmentation de PREC
suite à la diminution de TEMP ; puis a partir du sixième mois au deuxième mois on remarque
une diminution du PREC suite à une augmentation de TEMP. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque six mois
jusqu’à la disparition totale de ce choc .
Entre le premier et le sixième mois après le choc on remarque une augmentation de PREC
suite à la diminution de TEMP ; puis a partir du sixième mois au deuxième mois on remarque
une diminution du PREC suite à une augmentation de TEMP. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque six mois
jusqu’à la disparition totale de ce choc .
67
3.3. Etude multivarié
Entre le premier et le troisième mois après le choc on remarque une augmentation de TEMP
suite à la diminution de PREC ; puis a partir de la troisième mois au sixième mois on remarque
une diminution du TEMP suite à une augmentation de PREC. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque 03 mois
jusqu’à la disparition totale de ce choc .
Entre le premier et le troisième mois après le choc on remarque une diminution de HUM suite
à la diminution de PREC ; puis a partir de la troisième mois au sixième mois on remarque une
augmentation de la HUM suite à une augmentation de PREC. En générale on constate une
évolution similaire des 2 graphes alternant entre l’augmentation et la diminution chaque 03
mois jusqu’à la disparition totale de ce choc .
68
3.3. Etude multivarié
T H P
1.0000 0.0000 0.0000
0.9484358 0.05131760 0.0002466035
0.8948795 0.09495635 0.0101641171
0.8711016 0.11885561 0.0100428007
0.8552797 0.13188230 0.0128380047
0.8463566 0.12384127 0.0298021406
0.8512787 0.11152153 0.0371997669
0.8519694 0.11051644 0.0375141331
0.8463067 0.12000975 0.0336835647
0.8365733 0.13083397 0.0325927484
0.8284242 0.13502452 0.0365513017
0.8270006 0.13068663 0.0423128161
69
3.3. Etude multivarié
T H P
0.2164448 0.7835552 0.00000
0.2253054 0.7717532 0.0002941457
0.2345184 0.7577082 0.007773406
0.2378942 0.7544511 0.007654716
0.2395469 0.7527911 0.007661974
0.2418800 0.7473774 0.010742604
0.2520922 0.7358735 0.012034299
0.2682078 0.7185811 0.013211100
0.2794221 0.7075320 0.013045913
0.2833756 0.7036824 0.012942001
0.2829221 0.7034777 0.013600192
0.2849602 0.7003392 0.014700636
variance de l’erreur de prévision de Hum est due de 74%de Hum, de 25% de Temp , et de 11%
de Prec,donc l’impacte d’un choc affectant HUM sur Temp est plus important que l’impact
d’un choc affectant Hum sur Prec
T H P
0.1165686 0.0506769 0.8327545
0.1244349 0.0960065 0.7795586
0.1492021 0.1062941 0.7445039
0.1493233 0.1063433 0.7443334
0.1585095 0.1061925 0.7352980
0.1966961 0.1029075 0.7003965
0.2350113 0.1019029 0.6630858
0.2574505 0.1053781 0.6371714
0.2612495 0.1095086 0.6292419
0.2607218 0.1106314 0.6286468
0.2700114 0.1088484 0.6211403
0.2904203 0.1073444 0.6022353
70
3.3. Etude multivarié
la variance de l’erreur de prévision de Prec est due de 69%de Prec, de 21%de Temp , et de 10%
de Hum,donc l’impacte d’un choc affectant Prec sur Temp est plus important que l’impact d’un
choc affectant Prec sur Hum
3.3.7 Validation
test d’autocorrelation
L’application de test Ljung-Box sur la série résiduel du modèle VAR(3) nous a conduit à
constater que les erreurs sont autocorrélées (p.value = 0.0107).
test d’hétéroscédasticité
L’application de test ARCH sur la série résiduel du modèle VAR(3) ,nous a conduit à
constater que les erreurs sont homoscédastique(variance homogène)(p.value = 0.71).
test normalité
L’application de test Jarque-Bera sur la série résiduel du modèle VAR(3) ,nous a conduit à
constater que les erreurs ne sont pas gaussiens(normales) (p = 2.2 ∗ 10−16 )
71
3.3. Etude multivarié
3.3.8 Prévision
réel Var residual
Temp Hum Prec Temp Hum Prec Temp Hum prec
01/2006 10.555 162.1028 9.958 78.705 180.323 0.5911 -18.2205
02/2006 11.66 171.8056 10.548 78.534 132.009 1.1116 39.7957
03/2006 14.44 54.0004 13.332 77.236 82.20 1.1079 -28.0196
04/2006 17.77 24.1046 17.140 75.851 39.004 0.6296 -14.8999
05/2006 20.55 32.5882 21.155 74.353 9.674 -0.6057 22.9136
06/2006 23.33 2.9972 24.111 73.202 1.105 -0.7819 1.892
07/2006 26.11 0.000 25.346 72.597 14.367 0.7633 -14.3678
08/2006 25.55 34.6964 24.512 72.798 46.243 1.0371 -11.5467
09/2006 23.33 44.8056 21.978 73.666 86.372 1.3516 -41.5666
10/2006 22.22 38.3032 18.488 74.959 123.670 3.732 -85.3676
11/2006 17.77 39.1922 15.067 76.277 147.662 2.7029 -108.47
12/2006 13.33 205.5114 12.646 77.268 152.508 0.6835 53.0034
72
3.4. comparaison entre le prévision de Box-Jinkins et modèle VAR
Temp
prvun prvml reel res1 res2
01/2006 15.3445 9.9589 10.55 -4.7945 0.5911
02/2006 18.1776 10.5484 11.66 -6.5176 1.1116
03/2006 21.655 13.3321 14.44 -7.215 1.1079
04/2006 23.6251 17.1404 17.77 -5.8551 0.6296
05/2006 26.9753 21.1557 20.55 -6.4253 -0.657
06/2006 31.2167 24.1119 23.3 -7.8867 -0.7819
07/2006 33.5276 25.3467 26.11 -7.4176 0.7633
08/2006 34.5353 24.5129 25.55 -8.9853 1.0371
09/2006 31.771 21.9784 23.33 -8.441 1.3516
10/2006 28.7081 18.488 22.22 -6.4881 3.732
11/2006 23.735 15.0671 17.77 -5.965 2.7029
12/2006 20.8705 12.6465 13.33 -7.5405 0.6835
73
3.4. comparaison entre le prévision de Box-Jinkins et modèle VAR
En générale,les deux critère sont faibles pour la prévision par le modèle VAR que pour la
prévision Box-Jinkins .ce qui nous permet de conclure que la modélisation VAR est plus effi-
cace en terme de la précision de prévision.
74
CONCLUSION
Ce mémoire est juste une petite introduction aux modèles VAR et leur application sur
des séries météorologiques, nous avons donné quelques outils de base de la théorie des séries
temporelles multivariées permettant de prendre en compte la dépendance temporelle entre les
séries et l’analyse de leur comportement dynamique via la fonction de réponse impulsionnelle
(impact de choc) et la décomposition de la variance de l’erreur de prévision.
Notre étude empirique est partagée en deux parties :
–La première partie réservée à la modélisation univariée de trois séries météorologiques
(température, précipitations, et humidité) . après avoir désaisonnaliser les trois série et confirmer
leur stationnarité par le test de racine unitaire ; nous avons suit la méthodologie de Box et
Jenkins qui nous a conduit à obtenir un modèle AR(1) pour la série de température et la série
de précipitations et un processus AR(12) pour la série de l’humidité.
–La seconde partie consacrée à la modélisation des trois séries météorologiques simul-
tanément en appliquant la modélisation VAR. après avoir choisir le retard optimal (P=3) et
étudier la causalité , le modèle VAR(3) est estimé par la méthode de Maximum de vraisemblance
et validé par les tests de résidus.
L’analyse de choc et la décomposition de la variance de l’erreur de prévision ont été discutées
à la fin de cette partie.
L’étude de ces trois séries météorologiques était orientée essentiellement dans une optique
prévisionnelle, les processus résultants de deux approche sont utilisées par la suite au calcul de
prévisions pour une période de 12 mois du janvier 2006 à décembre 2006. En terme de RMSE et
75
Conclusion
MAE, le modèle VAR(3) avait donné des prévisions mieux que celles fournit par les processus
AR(1) et AR(12) pour les trois séries météorologiques.
Nous espérons avoir répondre au problématique posée et les résultats trouvés seront d’une
utilité pertinente.
76
ANNEXES
77
Annexes
78
Annexes
79
Annexes
80
Annexes
81
Annexes
82
Annexes
83
Annexes
84
Annexes
85
BIBLIOGRAPHIE
86