0% ont trouvé ce document utile (0 vote)
28 vues98 pages

Modèles VAR(p) en prévision météorologique

Ce mémoire traite des modèles vectoriels autoregressifs (VAR) appliqués à des séries temporelles multivariées, en particulier pour des données météorologiques telles que la température, les précipitations et l'humidité. Les séries sont d'abord modélisées séparément avec la méthode de Box et Jenkins, puis simultanément avec un processus VAR(3), montrant que le modèle VAR(3) offre de meilleures prévisions en termes de RMSE et MAE. Les résultats soulignent l'importance des modèles VAR dans l'analyse des relations entre plusieurs variables dans les séries chronologiques.

Transféré par

Cheikh Omar Traore
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
28 vues98 pages

Modèles VAR(p) en prévision météorologique

Ce mémoire traite des modèles vectoriels autoregressifs (VAR) appliqués à des séries temporelles multivariées, en particulier pour des données météorologiques telles que la température, les précipitations et l'humidité. Les séries sont d'abord modélisées séparément avec la méthode de Box et Jenkins, puis simultanément avec un processus VAR(3), montrant que le modèle VAR(3) offre de meilleures prévisions en termes de RMSE et MAE. Les résultats soulignent l'importance des modèles VAR dans l'analyse des relations entre plusieurs variables dans les séries chronologiques.

Transféré par

Cheikh Omar Traore
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’enseignement Supérieur et de la Recherche Scientifique Université Mohammed


Seddik Ben Yahia - Jijel

Faculté des Sciences Exacte et Informatique


Département de Mathématique

Mémoire de fin d’études


Présenté pour l’obtention du diplôme de

Master
Spécialité : Mathématiques.
Option : Probabilités et Statistique.
Thème

Sur Les modèles vectoriels autorégressifs


VAR(p)

Présenté par :
∗ Mezhoud Ibtissam

Devant le jury composé de :


Cheraitia Hassen M.C.A Université de Jijel Encadreur
Sellami Nawel M.A.A Université de Jijel Président
Ghouil Djoweyda M.A.A Université de Jijel Examinateur

Promotion 2021/2022
♥ Remerciements ♥

Nous tenons à remercier ALLAH, le tout puissant de nous avoir donné courage et volonté
pour accomplir ce modeste travail.

Nous tenons à exprimer tous nos reconnaissances à tous ceux qui ont contribué de prêt ou
de loin à la réalisation de ce travail

Nous tenons à présenter notre profonde gratitude à mon encadreur Cheraitia Hassen
pour son disponibilité, ses remarques et conseils.

Nos remerciements vont également à l’ensemble de nos enseignants du département de


mathématiques
♥ Dédicace ♥
J’ai le grand plaisir de dédier ce modeste mémoire :

♥ A mes très chers parents

♥ A nos frères et sœurs

♥ A tous mes proches sans exception

♥ A tous mes amis sans exception

♥ A tous ceux qui je connaissent

> Ibtissam >


RÉSUMÉ

Une série temporelle multivariée(STM) est constituée de plus d’une variable temporelle et
chaque variable dépend non seulement de ses valeurs passées mais aussi des valeurs passées des
autres variables. Pour traiter les STM, l’une des méthodes les plus populaires est le modèle
Vector Auto Regressive(VAR) qui est une forme vectorielle de processus auto-régressive (AR)
qui peut être utilisée pour examiner les relations entre plusieurs variables dans l’analyse des
séries chronologiques multivariées.
Dans ce mémoire, trois séries météorologiques mensuelles (Température, Précipitations et
Humidité) ont été modélisé au premier lieu séparément en appliquant la méthode de Box et
Jenkins, et au deuxième lieu simultanément par estimation d’un processus VAR(3).
A la fin, des prévisions à court terme ont été calculées par les deux approches. En termes
de RMSE et MAE, le modèle VAR(3) a fourni des meilleures prévisions que de Box et Jenkins.

Mots clés :Série temporelles univariées ,Série temporelles multivariées,Processus stochastique,Dicky-


Fuller,Box-Jenkins,Modéles VAR, Prévision.
ABSTRACT

A multivariate time series consists of more than one time variable and each variable depends
not only on its past values but also on the past values of other variables. To deal with MTS,
one of the most popular methods is Vector Auto Regressive models (VAR) that is a vector form
of autoregressive process (AR) that can be used to examine the relationships among several
variables in multivariate time series analysis.
In this thesis, three monthly weather series (Temperature, Precipitation and Humidity) were
modeled first separately by applying the Box and Jenkins method, and secondly simultaneously
by estimating a VAR(3) process.
In the end, short-term forecasts were calculated by both approaches. In terms of RMSE and
MAE, the VAR(3) model provided better forecasts than Box Jenkins.

Key Words : univariées time series ,multivariate time series,stochastic process ,Dicky-
Fuller,Box-Jenkins,Models VAR, Forecast.
TABLE DES MATIÈRES

Résumé v

Introduction 1

1 Les Séries Temporelles Univariées 3


1.1 Introduction aux séries temporelle . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Les composantes principales d’une série temporelle . . . . . . . . . . . . 3
1.1.2 Caractéristiques d’une série temporelle [8] . . . . . . . . . . . . . . . . . 4
1.2 Le processus stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Généralisation et notation . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Processus linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Processus linéaires stationnaire . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Processus AR(p)(autoregressive) . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.5 Processus M A(q) (moyenne mobile) . . . . . . . . . . . . . . . . . . . . . 9
1.2.6 Le processus ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.7 processus ARIM A(p, d, q)[5] . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.8 Processus linéaire non stationnaire(TS,DS) . . . . . . . . . . . . . . . . . 15
1.3 Tests de stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Test de Dickey Fuller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Test de Dickey Fuller augmenté . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 Procédure de Box et Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

i
TABLE DES MATIÈRES

1.4.1 Identification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.3 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.4 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2 Les Séries Temporelles Multivariées et Modèle V AR(p) 32


2.1 Présentation du Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.1 Ecriture VAR(1) d’un processus VAR(p) . . . . . . . . . . . . . . . . . . 34
2.1.2 Représentation canonique et processus des innovations : . . . . . . . . . . 34
2.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Les Moments de processus VAR(p) . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Esperance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2 Fonction d’auto-covariance . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.3 Fonction d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.4 Fonction d’autocorrélation partielle(identification) . . . . . . . . . . . . . 39
2.4 Estimation des paramètres d’un VAR(p) . . . . . . . . . . . . . . . . . . . . . . 39
2.4.1 la méthode des moindres carrés ordinaires . . . . . . . . . . . . . . . . . 39
2.4.2 La méthode de maximun de vraisemblance . . . . . . . . . . . . . . . . . 43
2.5 Validation de modèle VAR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5.1 la statistique du rapport de vraisemblance . . . . . . . . . . . . . . . . . 44
2.5.2 Tests de bruit blanc des erreurs [2] . . . . . . . . . . . . . . . . . . . . . 45
2.5.3 Critére d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.6 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.1 La notion de causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.2 Causalité au sens de Granger(1969) . . . . . . . . . . . . . . . . . . . . . 48
2.7.3 Causalité au sens de Pierce et Haugh(1977) . . . . . . . . . . . . . . . . 49
2.7.4 causalité au sens sims (1980) . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8 Analyse de réponse impulsionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.8.1 Représentation VMA d’un processus VAR . . . . . . . . . . . . . . . . . 50
2.8.2 VAR structurel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.8.3 Orthogonalisation des chocs . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.8.4 Décomposition de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . 52

ii
TABLE DES MATIÈRES

2.8.5 Méthode d’identification des chocs . . . . . . . . . . . . . . . . . . . . . 54


2.9 Décomposition de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3 Application de Modèle VAR(p) en Météorologie 56


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Etude Univarié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 Etude de stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.2 Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Etude multivarié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.1 Choix de retard p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.2 Estimation de modèle VAR . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.3 Étude de stationnaire du VAR . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.4 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.5 Fonction de réponse impulsionnelle et analyse de choc . . . . . . . . . . . 66
3.3.6 Décomposition de Variance . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.7 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.8 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 comparaison entre le prévision de Box-Jinkins et modèle VAR . . . . . . . . . . 73

Conclution 75

Annexes 77

Bibliographie 85

iii
TABLE DES FIGURES

1.1 schéma 1 de stratégie de dicky-fuller . . . . . . . . . . . . . . . . . . . . . . . . 19


1.2 schéma 2 de stratigie de Dicky-Fuller . . . . . . . . . . . . . . . . . . . . . . . . 21

3.1 Représentations graphiques des trois séries . . . . . . . . . . . . . . . . . . . . . 58


3.2 ACF et PACF des trois séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 ACF et PACF des séries stationnaires . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4 Cercle des inverses des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.5 Reponse de prec à un choc dans hum . . . . . . . . . . . . . . . . . . . . . . . . 66
3.6 Réponse de Temp à un choc dans hum . . . . . . . . . . . . . . . . . . . . . . . 66
3.7 Reponse de Prec à un choc dans Temp . . . . . . . . . . . . . . . . . . . . . . . 67
3.8 Réponse de Hum à un choc dans Temp . . . . . . . . . . . . . . . . . . . . . . . 67
3.9 Réponse de Temp à un choc dans Prec . . . . . . . . . . . . . . . . . . . . . . . 68
3.10 Réponse de Hum à un choc dans Prec . . . . . . . . . . . . . . . . . . . . . . . . 68
3.11 D.V de l’erreur de prévision des Séries . . . . . . . . . . . . . . . . . . . . . . . 71
3.12 graphe de prévision De modèle VAR(3) . . . . . . . . . . . . . . . . . . . . . . . 72

iv
LISTE DES TABLEAUX

3.1 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


3.2 coefficients saisonniers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3 résultats de test ADF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4 Modèles candidats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Estimation et validation des processus estimés.() représente p-value . . . . . . . 61
3.6 Estimation et validation des processus estimés.() représente p-value . . . . . . . 62
3.7 Estimation et validation des processus estimés.() représente p-value . . . . . . . 62
3.8 Prévisions des trois séries par la méthode Box et Jekins . . . . . . . . . . . . . . 63
3.9 Critères de choix de retard optimal . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.10 Résultats du test de causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.11 D.V de l’erreur de prévision de Temp . . . . . . . . . . . . . . . . . . . . . . . . 69
3.12 D.V de l’erreur de prévision de Hum . . . . . . . . . . . . . . . . . . . . . . . . 70
3.13 D.V de l’erreur de prévision de Prec . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.14 comparaison des données réelles et des résultats prévisionnels de (temp),(Hum)et(prec) 72
3.15 Série Résiduels de Prec . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.16 Série Résiduels de Temp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.17 RMSE et MAE de prévision des séries . . . . . . . . . . . . . . . . . . . . . . . 74

v
vi
LISTE DES TABLEAUX

NOTATION

Tt : Latendance
St : Lasaisonnalité
E: Esperance.
var : Lavariance.
Cov : Lacovariance.
γh : Laf onctiond0 auto − covariance
ρh : Laf onctiond0 auto − corrélation.
ACF : Laf onctiond0 auto − corrélation.
P ACF : Laf onctiond0 auto − corrélationP artielle.
AR : Auto − Régressif.
MA : M oyennemobile
ARM A : Auto − Régressif M oyennemobile.
ARCH : Auto − Régressif ConditionnellementH étéroscédastique.
V AR : vecteurAuto − Régressif.
εt : Lerésidus.
TS : T rendStationary.
DS : Dif f erencyStationary.
bb : bruitblanc.
SK : Skewness.
Kr : Kurtosis.
SCR : Sommedescarrédesrésidus.
SSi : SietSelementSi.
i.i.d : indépendantidentiquementdistribué
vii
INTRODUCTION

L’une des méthodes les plus populaires dans la théorie des séries temporelles est les modèles
autorégressifs vectoriels (VAR), qui est une forme vectorielle de processus autorégressive (AR)
qui peut être utilisée pour examiner les relations entre plusieurs variables dans l’analyse de
séries temporelles multivariées.
Dans un modèle VAR, chaque série temporelle est une fonction linéaire des valeurs passées
d’elle-même et des valeurs passées de toutes les autres séries. Le VAR est capable de com-
prendre et d’utiliser la relation entre plusieurs séries ce qui permet de décrire la dynamique
des comportements des données et pourra fournir de meilleur résultats de prévision. Le modèle
VAR est caractérisé par les points suivants :
— Les séries à modélisées sont toutes stationnaires
— Les séries à modélisées sont toutes potentiellement dépendantes
— Le nombre de retards associe à chaque série dans chaque équation est identique
Notre partie pratique a porté sur l’analyse des séries chronologiques représentant la température,
les précipitations et l’humidité. L’analyse nous permettra de construire un modèle mathématique
qui explique ces trois variables, nous allons proposer dans un premier temps d’étudier indivi-
duellement les séries. Chaque série sera étudiée séparément, négligeant l’effet des autres séries
suivant la méthodologie de Box Jenkins qui permet en plusieurs étapes de trouver un modèle
adéquat avec lequel nous calculons les prévisions.
Cependant la méthodologie de Box Jenkins ne prend pas en compte l’interdépendance des
séries. Dans notre cas pratique et à titre d’exemple plusieurs variables doivent être prise en

1
Introduction

considération pour prédire de manière optimale des précipitations et pour cette raison que nous
allons proposer par la suite une approche multivariée pour pallier aux insuffisances de l’approche
univarié.Étant donné qu’à l’issue de la méthodologie de Box Jenkins les séries sont rendues
stationnaires, l’application de la modélisation VAR(p) à la base de ces séries est possible.
Afin d’atteindre nos objectifs, nous articulons notre mémoire autour de trois chapitres :
Dans le premier chapitre intitulé  les séries temporelles univariées  , nous présentons
quelques rappels sur les processus stochastiques et la représentation des séries temporelles
linéaires stationnaires et non stationnaires, la stratégie de Dickey Fuller et la méthodologie de
Box et Jenkins.
Le deuxième chapitre intitulé  les séries temporelles multivariées et modèle VAR  est
consacré à la présentation du modèle VAR, les méthodes d’estimation à savoir la méthode
de maximum de vraisemblance et la méthode des moindres carrées ordinaires, les tests de
validation. Ce chapitre est clôturé par une exposition de la dynamique de modèle VAR via la
fonction de réponse impulsionnel et la décomposition de la variance .
Enfin, dans le troisième chapitre intitulé  applications de modèle VAR en météorologie
 , on fait compléter notre travail par la mise en place de deux approches ; la première est
univariée qui consiste à appliquer la stratégie de Dickey Fuller et la méthode de Box et Jenkins
séparément sur les trois séries météorologiques (température, précipitations, et humidité). La
deuxième est multivarié dans laquelle nous allons appliquer le modèle VAR sur les trois séries
simultanément. Les prévisions résultants de ces deux modélisations sont calculées et comparées.

A la fin, une conclusion générale englobe les principaux résultats obtenus au cours de notre
travail.

2
CHAPITRE 1

LES SÉRIES TEMPORELLES UNIVARIÉES

1.1 Introduction aux séries temporelle


Définition 1.1. Une série temporelle est une suite d’observations indicées par le temp,notée
{Xt , t = 1...T }. Elle représente généralement l’évolution d’un phénomène au cours du temps

Remarque 1.1.1. • T ⊂ Z (cas discret)


• T ⊂ R (cas continue).

1.1.1 Les composantes principales d’une série temporelle


Il est classique de décomposer une série temporelle {Xt , t = 1, ..., T } en trois termes :
1-La tendance (trend) : notée Tt est une fonction représente le mouvement à long terme de la
série étudiée.
2-Saisonnalité : notée St est une fonction périodique de période d.
3 − Résidus : notée Rt la partie aléatoire est dit bruit blanc correspond à des fluctuations
irrégulières, en général faible amplitude.
On s’intéresse habituellement à deux modèles de décompositions d’une série chronologique :[9]

• Le modèle additif : les trois composantes précédentes indépendantes

Xt = Tt + St + Rt

où E(Rt ) = 0

3
1.1. Introduction aux séries temporelle

• Le modèle multiplicatif : les composantes sont dépendantes

Xt = Tt × St × Rt

où E(Rt ) = 1

1.1.2 Caractéristiques d’une série temporelle [8]


Soit une série stationnaire {Xt , t = 1, ..., T } :
a-La moyenne : E(Xt ) = T1 Tt=1 Xt
P

b-La variance : var(Xt ) = T1 Tt=1 [(Xt − E(Xt ))2 ]


P

c-La fonction d’auto covariance :


On appelle fonction d’auto covariance γh de Xt la fonction :

γ(h) = cov(Xt , Xt+h ) = E(Xt Xt+h ) − E(Xt )E(Xt+h )

d-Fonction d’auto corrélation :


On appelle fonction d’auto corrélation ρh la fonction :

γh
ρh =
γ0
Remarque 1.1.2. Le graphe de la fonction d’auto corrélation est appelé ”corrélogramme”

proprieté 1.1.1. soit (Xt )t un processus stationnaire, la fonction d’auto covariance vérifie les
propriétés suivantes :
1 − γ0 = cov(Xt , Xt ) = E((Xt − E(Xt ))2 ) = var(Xt ) = σX
2
≥0
2 − |γh | ≤ γ0
3 − γh = γ−h , γ est une fonction paire.

proprieté 1.1.2. soit (Xt )t un processus stationnaire, la fonction d’auto corrélation vérifie les
propriétés suivantes :
1 − ρ0 = cov(Xt , Xt ) = E((Xt − E(Xt ))2 ) = var(Xt ) = σX
2
≥0
2 − |ρh | ≤ ρ0
3 − ρh = ρ−h , ρ est une fonction paire.

e-Fonction d’auto corrélation partielle :


Soit la fonction d’auto corrélation notée ρh et la fonction d’auto corrélation partielle noté φhh

4
1.2. Le processus stochastique

La matrice symétrique formée des h − 1 premier auto corrélation de Xt :


 
1 ρ1 · · · ρh−1
 .. 
 ρ
 1 · ·.· ρ 
h−2 
ρh =  . ..
 ..

 · · · . 

ρh−1 ρh−2 · · · 1

et soit ρ∗h la matrice ρh dans laquelle on a remplacé la dernière colonne par le vecteur [ρ1 , ..., ρh ]
 
1 ρ1 · · · ρ1
 
 ρ1 1 · · · ρ2 
ρ∗h = 
 
.. .. 

 . ··· . 

ρh−1 ρh−2 · · · ρh

La fonction d’auto corrélation partielle est donnée par :

|ρ∗h |
φhh =
|ρh |

où |.| est déterminant .

1.2 Le processus stochastique

1.2.1 Généralisation et notation


L’opérateur de retard

L’opérateur de retard noté B (back wards), l’opérateur qui fait passer de Xt à Xt−1 :

BXt = Xt−1

plus généralement, on a :
B n Xt = Xt−n

Stationnarité des processus

Définition 1.2. (La stationnarité forte)

5
1.2. Le processus stochastique

On dit qu’un processus Xt est stationnaire au sens strict (ou fortement stationnaire) si :
pour tout (t1 , t2 , ...tn ), ti ∈ T et si pour tout h ∈ T : {Xt1 , Xt2 , ..., Xtn }a la même distribution
de probabilité jointe que {Xt1 +h , Xt2 +h , ..., Xtn +h }

Définition 1.3. (La stationnarité faible)


Soit un processus Xt àvaleurréellesetentempsdiscret, ilestditstationnaireausensf aible(ou”secondordre”

• E(Xt2 ) < ∞, ∀t ∈ Z .
• E(Xt ) = m, ∀t ∈ Z (m est une constante indépendant du temps)
• cov(Xt , Xt+h ) = γh , ∀t ∈ Z, ∀h ∈ Z ( fonction indépendant de temps)

Exemple 1.2.1. Un bruit blanc est stationnaire.

processus bruit blanc

Définition 1.4. (Bruit blanc)


Un bruit blanc est une suite de variables aléatoire,notée εt ∼ BB(0, σε2 ),vérifiée les propriété
suivantes :
•E(εt ) = 0 ∀t
•var(εt ) = σ2 ∀t
•cov(εt , εt0 ) = 0 ∀t 6= t0

Le théorème de wold (1954)

Le théorème de wold (1954) est un théorème fondamental dans la modélisation des processus
stationnaires.

Théorème 1.2.1. Considérons un processus stationnaire Xt . Il est toujours possible de décomposer


Xt en une composante déterministe dt et une composante stochastique ut tell que :

Xt = dt + ut

où : ∞
X
ut = αi εt−i
i=0

avec εt ∼ bb(0, σε2 )


Le théorème de wold montre ainsi que tout processus stationnaire peut s’écrit sous la forme
d’une somme de deux composantes, un composante déterministe et une composante stochastique.

6
1.2. Le processus stochastique

1.2.2 Processus linéaire


Définition 1.5. Un processus linéaire est un processus stochastique (Xt )t∈T formé par une
combinaison linéaire(non nécessairement finie) de bruit blanc εt ∼ bb(0, σε2 )

Définition 1.6. (Xt )t∈Z est un processus linéaire de moyenne m s’il peut être écrite sous la
forme :

+∞
X
Xt = m + bk εt−k
k=−∞

P+∞
Avec, εt ∼ bb(0, σε2 ) et telle que : 2
k=−∞ bk < +∞
L’écriture polynomial :

Xt = m + b(B)εt

1.2.3 Processus linéaires stationnaire


Les processus ARMA(p,q)

Les processus ARMA(autoregrissive moving average) sont des processus linéaires très im-
portant dans la modélisation des séries chronologiques.

1.2.4 Processus AR(p)(autoregressive)


Définition 1.7. On appelle processus auto régressif d’ordre p, noté AR(p), un processus(Xt )
vérifier une relation du type :

Xt − φ1 Xt−1 − ... − φp Xt−p = εt

ù les φi (i = 1, ..., p) sont des réels et εt ∼ bb(0, σε2 )


En utilisant l’opérateur de retard, la relation peut encore s’écrite :

(1 − φ1 B − ... − φp B p )Xt = εt

Soit
Φ(β)Xt = εt

où
Φ(B) = 1 − φ1 B − ... − φp B p

7
1.2. Le processus stochastique

Auto corrélation et équation de yule-walker

Soit (Xt )t∈T un processus autoregressive AR(p) on écrit :

Xt = φ1 Xt−1 + φ2 Xt−2 + ... + φp Xt−p + εt

On a :
γ(h) = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )

Car : E(Xt ) = E(Xt−h ) = 0 (AR(p)possède une représentation M A(∞),on suppose que


Xt stationnaire) Alors,

γ(h) = E(Xt Xt−h )


= E(Xt−h (φ1 Xt−1 + φ2 Xt−2 + ... + εt ))
= E(φ1 Xt−h Xt−1 ) + E(φ2 Xt−h Xt−2 ) + ... + E(Xt−h εt )
= φ1 E(Xt−1 Xt−k ) + ... + φp E(Xt−p Xt−k ) + E(εt Xt−k )

On a :

0 h 6= 0
E(Xt−h εt ) =
σ 2 h = 0
ε

et E(Xi Xj ) = γi−j
donc ;

φ1 γh−1 + φ2 γh−2 + ... + φp γh−p si 0<h<=p
γh =
φ γ 2
1 h−1 + φ2 γh−2 + ... + φp γh−p + σε si h=0

γh
On notons : ρh =
γ0
donc :

p
X
ρh = φi ρh−i , ∀h > 0
i=1

Les autocorrélations d’un processus AR(p) sont ainsi décrites par une équation de récurrence

8
1.2. Le processus stochastique

linéaire d’ordre p. En écrivant cette relation pour différentes valeurs de k (k=1,2,...,p), on ob-
tient les équations de Yule-walker :
    
ρ1 1 ρ1 ρ2 ... ρp−1 φ1
    
 ρ2   ρ1 1 ... ρp−2 
 φ2 
 
  
    
.  .  . 
 =  
.  .  . 
    
    
.  .  . 
    
ρp ρp−1 ρp−2 ... 1 φp

Auto corrélation partielle

Il est possible de calculer les autocorrélations partielles du processus AR à partir des


équations de Yulle -Walker et des auto corrélations.

proprieté 1.2.1. Pour un processus AR(p), φkk = 0, ∀k > p. En d’autres termes, pour un
processus AR(p) les auto corrélations partielles s’annulent à partir du rang p + 1.

Les propriétés d’un processus AR(p)

• La stationnarité et la causalité :
Le processus autorégressif AR(p) est causal et stationnaire ssi le polynôme Φz = 1 −
Pp k
k=1 φk z est tel que :

Φz 6= 0, ∀z ∈ (C), telle que : |z| ≤ 1 ou Φz = 0, ∀z ∈ (C), telle que : |z| > 1

• L’inversibilité : AR(p) toujours est un processus inversible.

1.2.5 Processus M A(q) (moyenne mobile)


Définition 1.8. On appelle processus moyenne mobile d’ordre q noté MA(q), un processus Xt
stationnaire vérifiant une relation de type :

Xt = εt + θ1 εt−1 + ... + θq εt−q

où les θi (i = 1, ..., q) sont des réels et εt ∼ bb(0, σε2 ).


En utilisant l’opérateur de retard, la relation peut encore s’écrire :

9
1.2. Le processus stochastique

Xt = (1 − θ1 B − θ2 B 2 − ... − θq B q )εt

Soit encore :
Xt = Θ(B)εt

Avec,
Θ(B) = (1 + θ1 B + θ2 B 2 + ... + θq B q )

Auto covariance et l’auto corrélation

La fonction d’auto covariance d’un processus MA(q) est donné par :

γh = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )

(car E(Xt ) = E(Xt−k ) = 0)


γh = E(Xt Xt−h ) = E[(εt − θ1 εt−1 − ... − θq εt−q )(εt−h − ... − θq εt−h−q )]
Quelque calculs simples conduisant alors à l’expression suivante :
 P
σ 2 q−h θj θj+h si 0 ≤ h ≤ q
 j=0
γh =
0 si h > q

où, θ0 = 1
γh
Donc la fonction d’auto corrélation ρh = γ0
est :

−θ + θ1 θh+1 + ... + θq−h θq



 h

2 2 2
si 1 ≤ h ≤ q
ρh = 1 + θ1 + θ2 + ... + θq

0 si h > q

où γ0 = 1 + θ12 + ... + θq2

proprieté 1.2.2. Pour un processus MA(q), ρh = 0 pour h > q. En d’autre termes les auto
corrélations s’annulent à partir du rang q+1.

Auto corrélation partielle

La fonction d’auto corrélation partielle d’un MA(q) n’a pas de propriété particulière et son
expression est relativement compliquée.

10
1.2. Le processus stochastique

Les propriétés d’un processus M A(q)

• La causalité : le processus moyenne mobile MA(q) est toujours causale.(MA(q) est linéaire
donc qi=0 θi2 < ∞)
P

•La stationnarité : le processus MA(q) est toujours stationnaire.

Démonstration. (Stationnaire MA(q))


1. E(Xt ) = E( qj=0 θj εt−j ) = qj=0 θj E(εt−j ) = 0 < ∞(εt ∼ bb(0, σε2 )).
P P

2. γh = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )

q q
X X
γh = E(Xt Xt+h ) = E[( θj E(εt−j ))( θk E(εt+h−k ))]
j=0 k=0
q q
XX
= E( θj θk εt−j εt+h−k )
j=0 k=0
q q
XX
= θj θk E(εt−j εt−(k−h) )
j=0 k=0
 P
σ 2 q−|h| θj θj+h si j = k − h
ε j=0
=
0 sinon
 P
σ 2 q−|h| θj θj+h si 0 < h < q
ε j=0
γh =
0 si h > q

donc γh indépendant de t.
Pq
3. E(Xt2 ) = var(Xt ) = γ0 = σε2 2
j=0 θj <∞

Pq j
• L’inversibilité : un processus M A(q) est inversible ssi le polynome Θ(z) = j=0 θj z où θ0 =
1 est tel que :
Θ(z) 6= 0 pour tout z ∈ C tel que |z| ≤ 1
ou, Θ(z) = 0 pour tout z ∈ C tel que |z| > 1

11
1.2. Le processus stochastique

1.2.6 Le processus ARMA(p,q)


Les modèles ARMA sont un mélange des modèles AR(autoregressif) et MA(moyenne mo-
bile).

Définition 1.9. Un processus linéaire stationnaire (Xt )t∈Z est dit ARMA(p,q),(p,q)∈ (N∗ )2 , s’il
existe des constantes : φ1 , φ2 , ..., φp (φp 6= 0), et θ1 , ..., θq (θq 6= 0) et un processus (εt ) ∼ bb(0, σε2 )
tel que :

Xt − φ1 Xt−1 − φ2 Xt−2 − ... − φp Xt−p = εt + θ1 εt−1 + ... + θq εt−q

En utilisant l’opérateur de retard β, l’équation devient :

Xt − φ1 BXt − φ2 B 2 Xt − ... − φp B p Xt = εt + θ1 βεt + ... + θq B q t

(1 − φ1 B − φ2 B 2 − ... − φp B p )Xt = (1 + θ1 B + ... + θq B q )εt

On ajoute :
Φ(β) = 1 − φ1 B − φ2 B 2 − ... − φp B p

et
Θ(B) = 1 + θ1 B + ... + θq B q

donc,
Φ(B)Xt = Θ(B)εt

Auto covariance et l’auto corrélation (ACF d’un ARM A(p, q))

Pour calculer les auto corrélations d’un processus ARMA. On procède comme dans le cas
des processus AR. A partir de l’équation :

Xt − φ1 Xt−1 − φ2 Xt−2 − ... − φp Xt−p = εt + θ1 εt−1 + ... + θq εt−q

On a
γ(h) = cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = E(Xt Xt−h )

(car E(Xt ) = E(Xt−k ) = 0,on suppose Xt stationnaire)


Donc,

12
1.2. Le processus stochastique

γ(h) = cov(Xt , Xt−h )


= E(Xt Xt−h )
= φ1 E(Xt−1 Xt−h ) + ... +φp E(Xt−p Xt−h ) + E(εt Xt−h ) + θ1 E(εt−1 Xt−h ) + .. + θq E(εt−q Xt−h ).

Puisque, εt ∼ bb donc E(εt−j Xt−h ) = 0, h > q On en déduire que : γh = φ1 E(Xt−1 Xt−h ) +


... + φp E(Xt−p Xt−h ) On a :
E(Xi Xj ) = γi−j

Donc :

γh = φ1 γh−1 + φ2 γh−2 + ... + φp γh−p

Et on a :
γh
ρh =
γ0
Alors,
ρh = φ1 ρh−1 + φ2 ρh−2 + ... + φp ρh−p

Ou bien :

p
X
ρh = φi ρh−i
i=1

On constate donc que la fonction d’auto corrélation des processus ARMA répond à la même
équation aux différence que celle des processus AR.

Auto corrélation partielle(PACF d’un ARM A(p, q))

La fonction d’Auto corrélation partielle d’un processus ARMA n’a pas d’expression simple.
Elle se caractérise le plus fréquemment soit par une forme exponentielle décroissante, soit par
une forme aléatoire.

Les propriétés d’un processus ARMA(p,q)

• Stationnarité et causalité :
Un processus ARMA(p,q) est stationnaire et causal ssi Φ(z) = 1 − φ1 z − ... − φp z p 6= 0, ∀z ∈ C
tel que |z| ≤ 1

13
1.2. Le processus stochastique

• Inversibilité :
Un processus ARMA(p,q) est inversible ssi Θ(z) = 1 + θ1 z + ... + θq z q 6= 0, ∀z ∈ C tel que
|z| ≤ 1

1.2.7 processus ARIM A(p, d, q)[5]


Définition 1.10. on dit que Xt est un modèle ARMA intégré (”Auto-Regressive Moving Ave-
rage”) abrégé ARIM A(p, d, q),si ∆d Xt est un ARM A(p, q).
on d’autre terme Xt ∼ ARIM A(p, d, q) s’il vérifie une équation du type :
Φ(B)(1 − B)d Xt = Θ(B)εt ,∀t ,et εt ∼ BB(0, σε2 )
où : 
Φ(B) = 1 − φ1 B − · − φp B p , où φp 6= 0
Θ(B) = 1 + θ B + · + θ B q , où 6= 0
1 q q

sont des polynôme dont les racines sont de module supérieur strictement à 1.

proprieté 1.2.3. 1-un modèle de type ARIM A(p, d, q) est non stationnaire :il contient des
tendances de degré d.
2-Le paramètre d indique le nombre de différences prises pour obtenir la stationnarité.

L’écriture AR(∞) d’un processus MA(q)

Soit un processus MA(q) : Xt = Θ(B)εt , si Θ(z) 6= 0 pour tout z ∈ C tel que |z| ≤ 1
(inversible), alors on peut écrire Xt sous la forme AR(∞).

X
−1
εt = Θ (B)Xt = βi Xt−i
i=0
P∞
Avec, β0 = 1 et i=0 |βi | < ∞

L’écriture MA(∞) d’un processus AR(p)

AR(p) s’écrit : Φ(B)Xt = εt


Si Φ(z) = 0 pour tout z ∈ C tel que |z| > 1 (causale), alors on peut écrire Xt sous la forme
MA(∞) :

14
1.2. Le processus stochastique


X
−1
Xt = Φ (B)εt = ψj εt−j
j=0

P∞
Avec, ψ0 = 1 et j=0 |ψj | < ∞

L’écriture d’un processus ARMA(p,q) sous la forme MA(∞)

On a : Φ(B)Xt = Θ(B)εt
d’ou : Xt = Θ(B) ε = ∞
P
Φ(B) t i=0 αi εt−i
P∞
Avec : i=0 |αi | < ∞ et α0 = 1

Ecriture ARMA(p,q) sous la forme AR(∞)

On a : Θ(B)εt = Φ(B)Xt
Donc : εt = Φ(B) X = ∞
P
Θ(β) t i=0 βi Xt−i
P∞
Avec, i=0 |βi | < ∞ et B0 = 1

1.2.8 Processus linéaire non stationnaire(TS,DS)


Nelson et Plossen ont retenu en 1982 deux classes de processus non stationnaire peuvent
être distinguées :

• Le processus TS(trend stationnary) : correspondent à une non stationnarité de type


déterministe.
• Le processus DS(difference stationnary) : correspondent à une non stationnarité de type
stochastique.

Les processus TS(trend stationnary)

Xt est Un processus non stationnaire TS. S’il peut s’écrire sous la forme :[1]

X t = f t + εt

où,
ft : est une fonction (déterministe) du temps

15
1.2. Le processus stochastique

εt : est un processus stationnaire.


L’exemple le plus simple est celui de la tendance linéaire :

Xt = α + βt + εt

(ft fonction polynomiale d’ordre 1)

Les caractéristique des processus TS

Supposant que εt ∼ bb(0, σε2 ), on a alors les propriété suivant :

• E(Xt ) = E(α + βt + t ) = α + βt.


• var(Xt ) = E(Xt − E(Xt ))2 = E(εt )2 = var(εt ) = σε2
• cov(Xt , Xs ) = E[(Xt − E(Xt ))(Xs − E(Xs ))] = E(εt εs ) = 0 ∀t 6= s.

Ce processus est en effet non stationnaire puisque son espérance vaut α + βt a la date t, et
donc dépend de t.
Une des propriétés importantes de ce type de processus est qu’il n’ya pas persistance des chocs :
l’influence d’un chocs subit à un instant T aura tendance à s’estomper au cours du temps, et
la variable rejoint alors sa dynamique de long terme, déterminer par f (t).

Le processus DS(difference stationary)

Un processus DS s’écrit sous la forme :

Xt = ρXt−1 + β + εt

εt : processus stationnaire.
Si l’on suppose ρ = 1 et εt : bruit blanc
Donc on écrire :
Xt = Xt−1 + β + εt

Si β = 0 le processus est dit marche aléatoire sans dérivée.


Si β 6= 0 le processus est dit marche aléatoire avec dérivée.

Les caractéristiques des processus DS

Premièrement on démontre (par récurrence) que :


t
X
Xt = Xt−1 + β + εt = X0 + βt + εi
i=1

16
1.3. Tests de stationnarité

On a :
Xt = Xt−1 + β + εt
X 1 = X 0 + β + ε1
X 2 = X 1 + β + ε2
X3 = X2 + β + ε3 = (X1 + β + 2 ) + β + ε3 = X0 + β + 1 + β + ε2 + β + 3 = X0 + 3β + ε1 + ε2 + ε3
Par récurrence :
t
X
Xt = X0 + tβ + εi
i=1
Alors,
i = 1t εi ) = X0 + tβ
P
• E(Xt ) = E(X0 + tβ +
• var(Xt ) = var(X0 + tβ + εi ) = tσε2
P
P0
• cov(Xt , Xt0 ) = E[(Xt −E(Xt ))(Xt0 −E(Xt0 ))] = E[( ti=1 εi )( ti=1 εi )] = σε2 min(t, t0 ) t 6=
P

t0
L’espérance et la variance dépendent du temps, donc le processus non stationnaire(marche
aléatoire avec dérivé).
Si le marche aléatoire sans dérivé(β = 0)
E(Xt ) = X0
var(Xt ) = tσε2
cov(Xt , Xt0 ) = σε2 min(t, t0 ) t 6= t0 .
Donc le marche aléatoire non stationnaire en variance.

Remarque 1.2.1. Un processus (DS) est un processus que l’on peut rendre stationnaire par
l’utilisation d’un filtre aux différences :

(1 − B)d Xt = β + εt

εt : processus stationnaire
d : ordre de différenciation
Le processus Xt est intégrer d’ordre d noté (I(d)), si d=1 le processus est dit alors le processus
du premier ordre.

1.3 Tests de stationnarité


Ce sont des tests qui permettent de détecter la présence ou l’absence d’un racine unitaire.
Dickey Fuller suggère un test qui révèle la présence ou l’absence de racine unitaire.

17
1.3. Tests de stationnarité

1.3.1 Test de Dickey Fuller


Dickey et Fuller ont construit leur test à partir des modèles de bases suivants :
∗ Modèle 1 : Xt = ρXt−1 + εt (sans constant et sans trend)
∗ Modèle 2 : Xt = c + ρXt−1 + εt ( avec constante)
∗ Modèle 3 : Xt = c + βt + ρXt−1 + εt ( avec constante et tendance)
où εt : bruit blanc
β,c : constante réelles
Le principe du test consiste à tester :

H0 : ρ = 1 (présence du racine unitaire)
H : |ρ| < 1 (absence du racine unitaire).
1

Les modèles de base du test étant théorique, l’application du test requiert l’estimation en
pratique du modèle :

∗ Modèle 1’ : ∆Xt = φXt−1 + εt


∗ Modèle 2’ : ∆Xt = φXt−1 + c + εt
∗ Modèle 3’ : ∆Xt = φXt−1 + c + βt + εt

Où : φ = ρ − 1 dans les trois modèles.


La t-statistique tφ̂ qui est donnée par :
φ−1
tφ =
σ2
tφ̂ sera comparée à la valeur critique tabulé noté ttab et on applique la règle suivante :
— Si tφ̂ < ttab : on rejette H0
— si tφ̂ ≥ ttab : on accepte H0
En pratique, on n’effectue pas ce test sur les trois modèles mais on procède par une stratégie
séquentielle en trois étapes :
⊗ Etape 1
On estime le modèle (3) et on test la significativité de la tendance déterministe(test de
Student sur le paramètre ).
— Si cette tendance estimée n’est pas significativement différente de zéro (t-statistique
de la tendance inférieur aux valeur critiques de la tendance tabulé par Dickey Fuller).
alors on passe à l’étape 2.

18
1.3. Tests de stationnarité

— Si la tendance est différente de zéro. On teste l’hypothèse nulle unitaire :

◦ si on accepte H0 , Xt est non stationnaire de type DS.


◦ Sinon, Xt est non stationnaire de type TS.

⊗ Etape 2
On aura à appliquer cette étape1 on a rejeté l’idée d’une tendance significative. On estime
le modèle (2’) et on test la significativité de la constante c.
◦ Si H0 est accepté, alors Xt est non stationnaire de type DS.
◦ Sinon, Xt est stationnaire.
⊗ Etape 3
Si l’étape2 detecté une constante nul, alors on estime le modèle (1’) et on effectue le test
de racine unitaire tel que :
◦ si H0 ,est acceptée, Xt est non stationnaire de type DS.
◦ si H0 ,est rejetée Xt stationnaire . [6]

Figure 1.1 – schéma 1 de stratégie de dicky-fuller

19
1.3. Tests de stationnarité

Remarque 1.3.1. Il est également possible de procéder à des tests l’hypothèses jointes dans le
cas des modèles(2) et (3).

? Pour le modèle (2) :


Xt = ρXt−1 + c + εt

-On peut tester l’hypothèse nulle(c=0,ρ = 1) :


On calculer alors :
(SCRc − SCRnc )/2
F1 = ∼ F(2,t−2)
SCRnc /(T − 2)
SCRc : La somme des carré des résidus du modèle (Xt = Xt−1 + εt )
SCRnc : La somme des carré des résidus du modèle (2’)
? Pour le modèle (3) :
Xt = ρXt−1 + c + βt + εt

On peut mener deux test :


tester(c = 0, β = 0, ρ = 1)

(SCRc − SCRnc )/3


F2 = ∼ F(3,T −3)
SCRn /(T − 3)
SCRc : La somme des carrée des résidus du modèle (c=0, β = 0,ρ = 1)
SCRnc : La somme des carré des résidus du modèle(3).
Tester(c = c,β = 0,ρ = 1), on calcule :

(SCRc − SCRnc )/2


F3 = ∼ F(2,T −3)
SCRnc /(T − 3)
SCRc : La somme des carré des résidus du modèle(β = 0, ρ = 1)
SCRnc : La somme des carré des résidus du modèle(3).
La stratigié séquentielle :

20
1.3. Tests de stationnarité

Figure 1.2 – schéma 2 de stratigie de Dicky-Fuller

1.3.2 Test de Dickey Fuller augmenté


Ce test se déroule exactement comme dans le cas de la version simple, à la seule différence
que les modèles de la base à la construction de ce test sont les suivant :
• Modèle(1) : ∆Xt = φXt−1 + pj=1 φXt−j + εt
P

• Modèle(2) : ∆Xt = φXt−1 + c + pj=1 φXt−j + εt


P

• Modèle (3) : ∆Xt = φXt−1 + c + βt + pj=1 φXt−j + εt


P

(On adopte la même stratégie séquentielle, aussi les statistiques test sont les même que dans
le cas du test DF-simple).
Les tests joints au moyen de statistiques de Fisher dans les modèles (2) et (3).
M2
On peut tester (c, φ) = (0, 0)
La statistique du test :
(SCRc − SCRnc )/2
F4 = ∼ F(2,T −p−1)
SCRnc /(T − p − 1)
SCRc : La somme des carré résidus du modèle(c=0, φ = 0)
SCRnc : La somme des carré résidus du modèle (2)
M3
Deux types du test :

21
1.4. Procédure de Box et Jenkins

— Tester{(c, β, φ) = (0, 0, 0)}


On calculer :
(SCRc − SCRnc )/3
F5 = ∼ F(3,T −p−2)
SCRnc /(T − p − 2)
SCRc : La somme des carré résidus du modèle (c, β, φ) = (0, 0, 0)
SCRnc : La somme des carré résidus du modèle (3).
— Tester {(c, β, φ) = (c, 0, 0)}
On calculer :
(SCRc − SCRnc )/2
F6 = ∼ F(2,T −p−2)
SCRnc /(T − p − 2)
SCRc : La somme des carré résidus du modèle (c, β, φ) = (c, 0, 0)
SCRnc : La somme des carré résidus du modèle (3).

1.4 Procédure de Box et Jenkins


Les processus ARMA(Autoregressive moving average) ont été introduits par Box et Jenkins
(1970). L’objet est de modéliser une série temporelle en fonction de ses valeurs passées, mais
aussi en fonction des valeurs présentes et passées d’un bruit. Afin de déterminer le processus
ARMA adéquat, Box et Jenkins ont suggéré une procédure en quatre étapes :[8]
— Identification du modèle.
— Estimation des paramètre.
— Validation du modèle.
— Prévision a l’aide du modèle validé.

1.4.1 Identification
Identification : détermination des ordres p,q des processus ARMA l’étape suivante consiste
à analyser l’auto corrélation et l’auto corrélation partielle.

Fonction d’auto corrélation :

La fonction d’auto corrélation estimée d’ordre k d’un processus stationnaire Xt s’écrit :


PT −K − −
1
T t=1 (Xt − X )(Xt+k − X )
ρ̂k = PT −
, k = 1, ..., K; t = 1, ..., T
1 2
T t=1 (X t − X )

22
1.4. Procédure de Box et Jenkins


T : nbr d’observation de Xt , X : moyenne de Xt .
Box et Jenkins suggèrent de retenir un nombre maximal de retard K = T /4
Aprés avoir évalué la fonction ρ̂k , on peut tester la significativité statistique de chaque coefficient
d’auto corrélation, pour cela, on utilise la formule de Bartelett donnant l’écart type de la
distribution
q des ρ̂k :
σ̂ρ̂k = T1 (1 + 2 k−1 2
P
i=1 ρ̂i )

T : nombre d’observation.
Pour un nombre d’observation T suffisamment important, Bartelett a montré que ρ̂k suit une
loi normale.
Pour tester : 
H0 : ρk ne sont pas significatif
H : ρ significatif
1 k

-La valeur de la statistique de student :


ρ̂k
tρ̂k =
σ̂(ρ̂k )

si |tρ̂ | < t1−α/2 on accepteH0
k

sinon on rejette H
0

t(1−α/2) : valeur critique lue dans table de student :



 h : nbr de paramètres estimée
(t-h) degré de liberté

⇒ Ce test permet d’identifier l’ordre q des processus M A, car les auto corrélations d’un
processus M A(q) s’annulent à partir du rang q + 1.

Fonction d’auto-corrélation partielle

On tester : 
H0 : φkk non significatif
H : φ significatif
1 kk

Pour de grands échantillons, φkk ∼ N (0, 1/Γ).


• Statistique de test :
φ̂kk
tφ̂kk = p
1/T

23
1.4. Procédure de Box et Jenkins

• La règle de décision : 
si t < t1−α/2 on acceptH0
φ̂kk
sinon on rejetteH
0

• où t1−α/2 : valeur critique lue dans la table de loi de student d’ordre (1 − α/2), degré de
liberté (T − h), avec h : nombre des paramètres estimés.
⇒ Ce test permet d’identifier l’ordre p des processus AR(p), car les auto corrélations par-
tielle d’une processus AR(p) s’annulent à partir du rang p + 1.
A l’issue de cette étape d’identification, on a sélectionné un ou plusieurs modèles, il convient à
présent d’estimer chaque modèle sélectionné.
On passe alors à la deuxième étape.

1.4.2 Estimation
A cette étape les ordres p,q ont été fixés, il reste donc d’estimer les paramètres φi , θj et
aussi σε2 , nous serons intéressés par les deux méthodes :
• Ω : matrice (T × T ) de variance-covariance de vecteur X = (X1 , ..., XT )t elle dépend de
φi (i = 1, ..., p) et θj (j = 1, ..., q) du processus ARMA.
• L : fonction de vraisemblance.
Cette vraisemblance est difficile a calculer à cause du déterminant Ω et de son inverse
Ω−1 quand T très grand.
On ajoute :
T
X
t −1
S(φ, θ) = X Ω X = (E(Xt , φi , θj , σε2 ))2 , i = 1, ..., p; j = 1, ..., q
t=−∞

La log-vraisemblance d’un processus ARMA(p,q), est donnée par :

T T 1 S(φ, θ)
logLT = logL(X, φ, θ, σ2 ) = − log(2π) − logσε2 − log(det Ω) −
2 2 2 2σ2
T : nombre d’observation.
On maximise logLT par rapport aux paramètres φi , θj et σε2 avec i = 1, ..., p; j = 1, ..., q
En pratique, on commence par estimer σε2 en calculant :

∂logLT T S(φ, θ)
2
= 0 ⇔ − σε2 + =0
∂σ 2 2σε4

24
1.4. Procédure de Box et Jenkins

donc :
S(φ, θ)
σε2 =
T
On ajoute σ2 dans logLT on obtient :

T T S(φ, θ) 1 T
logL∗T = − log(2π) − log − log(det Ω) −
2 2 T 2 2
On a ainsi le nombre de paramètres par rapport aux quels la log vraisemblance doit être
maximiser. Maximisé la log vraisemblance par rapport aux paramètre autoregressive et
moyenne mobile revient à minimiser l’expression suivant :
S(φ, θ)
lT∗ = T log + log(det Ω)
T
La minimisation de cette expression nous permet d’obtenir les estimateurs du maxi-
mum de vraisemblance des paramètres φi (i = 1, ..., p) et θj (j = 1, ..., q) des processus
ARMA(p,q).Estimation par la méthode des moindres carrés :
Soit Xt ∼ AR(p), s’écrit sous la forme :

Xt = c + φ1 Xt−1 + ... + φp Xt−p + εt = Z t β + εt .

où :εt ∼ bb(0, σε2 ), Z t = (1, Xt−1 , ..., Xt−p ), β t = (c, φ1 , ..., φp )
L’estimation des paramètres de ce modèle par la méthode des moindres carrés est donné
par [1]
β̂ = (ZZ t )−1 ZXt
T
1 X
σ̂ε2 = (Xt − Z t β̂)2
T − (p + 1) t=1
Si les racines du polynôme charactéristique Φ(z) sont à l’extérieure du disque unité alors :
p p
β̂ → β et σˆε2 → σε2
√ D
Et de plus : T (β̂ − β) → N (0, σε2 V ) où V = ρ lim T1 ZZ 0
T →+∞

1.4.3 Validation
Au début de cette étape on dispose de plusieurs processus ARMA dont on a estimé les
paramètres. Il faut maintenant valider ces modèles afin de choisir les meilleur modèles adéquats.
Pour cela, on applique des tests sur les paramètres et sur les résidus. Si plusieurs modèles sont
validés, l’étape de validation doit se poursuivre par une comparaison des qualités de ces derniers.

25
1.4. Procédure de Box et Jenkins

A)
1. Tests sur les paramètres :
Aprés avoir estimé les paramètres d’un modèle on peut se poser la question de savoir si
ces paramètres sont significative.
L’hypothèse : 
H0 : le modèle ARMA(p-1,q) (φp = 0)
H : le modèleARM A(p, q) (φ 6= 0)
1 p

• Pour p0 = p − 1 et q 0 = q
φ̂p
La statistique du test : tc = σ̂(φ̂p )
La valeur obtenue est à comparer à la valeur critique lue dans la table de loi de
student, la règle de décision est alors la suivant :
⇒ Si |tc | < ttab , on acceptH0 (φp = 0)
⇒ Si |tc | ≥ ttab , on rejetteH0 (φp 6= 0)
Bien entendu,on peut appliquer un raisonnement similaire au test de l’hypothèse
nulle p0 = p et q 0 = q − 1
• Pour p0 = p + 1 et q 0 = q de même façon, on tester la significativité du coefficient
φp+1 .
L’hypothèse : 
H0 : le modèle ARMA(p,q) (φp = 0)
H : le modèleARM A(p + 1, q) (φ 6= 0)
1 p

la règle de décision est alors la suivant :


⇒ Si tφp+1
ˆ < ttab , on acceptH0 (φp = 0)
⇒ Si tφp+1
ˆ ≥ ttab , on rejetteH0 (φp 6= 0)
Bien entendu,on peut appliquer un raisonnement similaire au test de l’hypothèse
nulle p0 = p et q 0 = q + 1

B) Tests sur les résidus :


Φ̂(β)
Ces tests ont pour objet de vérifier que les résidus estimés εˆt = Θ(β) t
X. Suivant bien un
processus de bruit blanc.
Il existe plusieurs des tests d’absence d’auto corrélation le test le plus usuel est le test
proposé par Box-Piére(1970).

26
1.4. Procédure de Box et Jenkins

• Le test de Box et Piére :


Ce test appelé ”test portmanteau”. Pour tester l’hypothèse :

H0 : ρ̂ε̂ (1) = ρ̂ε̂ (2) = ... = ρ̂ε̂ (k) = 0
H : ∃! : ρ̂ (i) 6= 0
1 ε̂

La statistique du test :
K
X
Q=T ρ̂ε̂ (k).
k=1

où ρ̂ε̂ (k) : est le coefficient d’auto corrélation d’ordre k des résidus estimés.
K : nombre maximale de retard.
T : nombre d’observation.
La statistique Q suit une loi de Khi deux de degré de liberté (K-p-q), la région
critique :(la règle de décision) :

si Q > χ2 (K − p − q) on rejette H0
1−α
Sinon on accepte H 0

• Le test de Ljung Box


Ce test est d’une part comme une amélioration du test de Box et Piérce. La distri-
bution de la statistique du test de Ljung-Box est en effet plus proche de celle du
Khi-deux en petit échantillon que ne l’est celle du test de Box-Piérce. La statistique
du test s’écrite :
K
X ρ̂ε̂ (k)
QLβ = T (T + 2)
k=1
T −k

• Le test de normalité des résidus


Le but de ce test est de vérifier la normalité des résidus.
Un test qui permet de tester la normalité du résidus est celui de Jarque-Bera(1980).
Les hypothèses du test :


H0 : εt ∼ N (0, 1)(normalité)
H : ε  N (0, 1)
1 t

La statistique du test est :


T 2 T
JB = β + (β2 − 3)2
6 1 24

27
1.4. Procédure de Box et Jenkins

où :
1
PT Xi −X̄ 3
β1 = T i=1 ( S )
1
PT Xi −X̄ 4
β2 = T i=1 ( S )

où : X̄, S : sont respectivement la moyenne et l’écart type empiriques.


La loi asymptotique de JB est la distribution de Khi deux à deux degrés de liberté
tel que :
n n
6
β1 ∼ χ2(1) et 24
(β2 − 3)2 ∼ χ2(1)
La règle de décision :

Si QJB > χ2
(α,2) on rejetteH0
Sinon Q ≤ χ2
JB (α,2) on accepteH0

ou, α : le risque.

Remarque 1.4.1. En général, les logiciels fournissent la valeur de la statistique de


test, ainsi que la p.valeur. On rejette H0 au niveau α si (p.valeur) < α

C) Les critères de choix de modèles


• Les critères standard Ils sont fondés sur le calcule de l’erreur de prévision que
l’on cherche à minimiser. On rappelle ici l’expression des trois critères les plus
fréquemment utilisés.
— Erreur absolue moyenne :

1X
M AE = |εˆt |
T t
— Racine de l’erreur quadratique moyenne :
s
1 X ˆ2
RM SE = ε
T t t

— Écart absolu moyen en pourcentage :


1 X εˆt
M AP E = 100
T t Xt
T : nombre d’observation.
εˆt : résidus estimés.
Plus la valeur de ces critères est faible. Plus le modèle estimé est proche des
observations.
D’autre critère est basé sur la théorie de l’information.

28
1.4. Procédure de Box et Jenkins

• Les critères d’information L’idée sous-jacente consiste a choisir un modèle sur la


base d’une mesure de l’écart entre la vraie loi inconnue et le modèle estimé.
Cette mesure peut être fournie par la quantité d’information de Kullback. Les
différents critères ont alors pour objet d’estimer cette quantité d’information.
Il existe plusieurs, nous présentons ici les trois critères les plus fréquemment em-
ployés.
— Le critère AIC (AKaike information criterion 1969)
2(p + q)
AIC = ln σˆ2 +
T
— Le critère BIC (Shwartz Bayesian Information Criterion 1977)
(p + q) ln T
BIC = ln σˆε2 +
T
— Le critère de Hannan-Quinn(1979)

ln T
ln σˆε2 + α(p + q) ln( )
T
α : (α > 2) est une constante.
p : l’ordre de la partie AR.
q : l’ordre de la partie MA.

Remarque 1.4.2. - Le critère le plus utilisé est le critère AIC.


- L’objet de (AIC) est de faire la prévision.
- L’objet de (BIC) et (QH) est de s’ajuster à la série observée.

1.4.4 Prévision
Étant donné une série stationnaire (Xt )t∈Z . Observé entre 1 et T, on cherche à faire la
prévision à l’horizon h. Et donc à prévoir : Xt+1 , Xt+2 , ..., Xt+h .
On définit : X̂t+h = E(Xt+h /It )
telle que : Xt+h : la prévision faite en t pour la date t + h.

It = (X1 , X2 , ..., Xt , ε1 , ε2 , ..., εt )

L’espérance est ici pris au sens d’espérance conditionnelle, elle représente la meilleure prévision
de la série X conditionnellement à l’ensemble d’informations disponible. Donc on a :

29
1.4. Procédure de Box et Jenkins

X̂t+h = E(Xt+h /It ) = X̂t+h h = 1, 2, ...


X̂t−h = E(Xt−h /It ) = Xt−h h = 0, 1, ...
ε̂t+h = E(εt+h /It ) = 0 h = 1, 2, ...
ε̂t−h = E(εt−h /It ) = εt−h h = 0, 1, ...
Considérons le processus ARM A(p, q) :

Φ(B)Xt = Θ(B)εt

Prenons l’exemple ARM A(1, 1) :

Xt = φ1 Xt−1 + εt − θ1 εt−1

Avec, |φ1 | < 1 et |θ1 | < 1 (stationnarité et inversibilité).


•Xt+1 = φ1 Xt + εt+1 − θ1 εt .
X̂t+1 = E(Xt+1 /It ) = φ1 Xt − θ1 εt−1 .
•Xt+2 = φ1 Xt+1 + εt+2 − θ1 εt+1 .
X̂t+2 = E(Xt+2 /It ) = E(φ1 Xt+1 + εt+2 − θ1 εt+1 /It ) = φ1 X̂t+1 .
On en déduit :
X̂t+h = φ1 X̂t+h−1 ∀h > 1

Il est également possible d’utiliser la forme MA(∞) d’un ARMA pour effectuer les prévisions.
On a :
Θ(B)
Φ(B)Xt = Θ(B)εt ⇒ Xt = εt = ψ(B)εt
Φ(B)
On écrit (Xt ) sous la forme d’une MA(∞).
+∞
X
X t = εt + (ψj εt−j )
j=1

X
X̂t+h = ψh+i εt−i
i≥0

On a la prévision de l’erreur :
êt+h = Xt+h − X̂t+h

Par exemple :
êt+1 = Xt+1 − X̂t+1 = εt+1
êt+2 = Xt+2 − X̂t+2 = εt+2 + ψ1 εt+1
En général :

30
1.4. Procédure de Box et Jenkins

Ph−1
êt+h = Xt+h − X̂t+h = i=0 ψi εt+h−i
avec ψ0 = 1
La variance de l’erreur de prévision : (εt bruit blanc gaussienne)
Ph−1 Ph−1
ψi εt+k−i )2 = ( i=0 ψi E(εt+k−i ))2 = σε2 h−1 2
P
var(êt+h ) = E( i=0 i=1 ψi

L’intervalle de prévision :

h−1
! 12 h−1
! 21 
X X
Xt ∈ X̂t+h − 1.96σε ψi2 , X̂t+h + 1.96σε ψi2 
i=0 i=0

Avec : (U1− α2 = 1.96) est la quantile d’ordre (1 − α2 ) de loi normale centré réduit, où (α = 5%)

31
CHAPITRE 2

LES SÉRIES TEMPORELLES


MULTIVARIÉES ET MODÈLE V AR(P )

2.1 Présentation du Modèle


la représentation VAR â N variables et â p décalage V AR(p) s’écrit sous la forme matricielle :

Yt = φ0 + φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + ε(t)

où :
       
Y1t a1 ε1t a11i a12i . . . a1ni
       
Y  a  ε  a a . . . a 
 2t   2  2t   21i 22i 2ni 
Yt =  .  ; φ0 =  .  ; εt =  .  φi =  . ; (2.1)
 ..   ..   ..   .. ... 
       
Ynt an εnt an1i an2i . . . anni
• ε(t) ∼ bb(0, Σε )
Σε = E(ε0 ε) : est la matrice de variance covariance d’erreur
• la forme (1) s’écrit encore : ΦB Yt = φ0 + ε(t)
Φ :polynôme matricielle(N ∗ N) telle que :

p
X
2 p
Φ(B) = I − φ1 B − φ2 B − · · · − φp B = I − φi B i
i=1

32
2.1. Présentation du Modèle

• le nombre de paramètre :P ∗ N2 telle que :


−p :nombre de retard
−N :nombre de variable

Exemple 2.1.1. considérons deux variable stationnaires y1t et y2t et suppose que :p = 3
le modèle var(4) décrivant :N = 2, p = 3
" # " # " #" # " #" # " #" # " #
y1t a1 a111 a121 y1t−1 a112 a122 y1t−2 a113 a123 y1t−3 ε1t
= + + + +
y2t a2 a211 a221 y2t−1 a212 a222 y2t−2 a213 a223 y2t−3 ε2t

y1t = a1 + a111 y1t−1 + a121 y2t−1 + a112 y1t−2 + a122 y2t−2 + a113 y1t−3 + a123 y2t−3 + ε1t
y = a + a y +a y +a y +a y +a y +a y +ε
2t 2 211 1t−1 221 2t−1 212 1t−2 222 2t−2 213 1t−3 223 2t−3 2t
 3 3
P P
y = a + a y + a12i y2t−i + ε1t

 1t
 1 11i 1t−i
i=1 i=1
3
P 3
P
y2t = a2 + a21i y1t−i + a22i y2t−i + ε2t


i=1 i=1

Remarque 2.1.1. 1-un processus ARMA multivarié ,ce que l’on note processus VARMA qui
s’écrit :
Yt = φ0 + φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + εt + θ1 εt−1 + · · · + θq εt−q

et soit encore :
Φ(B)Yt = Θ(B)ε(t) + φ0
p
φk B k est une polynôme de degré p en B
P
tq : Φ(B) = I −
k=1
q
θi B i est une polynôme de degré q en B
P
Θ(B) = I +
i=1
il est possible de distringés les processus VMA (obtenu quand p = 0) :moyennes mobiles multi-
variées.on a alors VMA(q)s’écrit :

Yt = εt + θ1 εt−1 + · · · + θq εt−q

-VMA sont toujour stationnaires et sont inversibles si les racines du polynome caractéristique
sont à l’extérieure du disque unité.

33
2.1. Présentation du Modèle

2.1.1 Ecriture VAR(1) d’un processus VAR(p)


soit Yt = (y1t , y2t , · · · , yN t )0 ∈ RN satisfait la représentation VAR(p) suivante :

Yt = φ0 + φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + ε(t) ⇔ ΦB Yt = φ0 + ε(t)

un processus VAR(p) peut s’écrire sous la forme d’un VAR(1) q’on notera Zt

Zt = c + φZt−1 + µt

où :  
φ1 φ2 . . . φp      

I 0
 Yt φ 0 ε1t
 N N ... 0N   
 Y


 
0 
 
0 
   t−1   N  N
φ=
0N IN . . . 0N  Zt =  .  ; c =  .  ; µt =  . 
 (2.2)
 ..   ..   .. 
.
. . . ..
 
 . . .      
  Yt−p+1 0N 0N
0N . . . . . . IN
;

Exemple 2.1.2. considérons le processus bivarié défini par :


" # " # " #" # " #" # " #
y1t 3 0.5 0.6 y1t−1 0.8 0.1 y1t−2 ε1t
= + + +
y2t 2 0.4 0.7 y2t−1 0.9 0.2 y2t−2 ε2t

on a alors :    
 
y1t 3 0.5 0.6 0.8 0.1
     
 y  2 0.4 0.7 0.9 0.2
 2t    
= +

 
y1t−1  0  1 0 0 0 
     
y2t−1 0 0 1 0 0
   
y1t−1 ε1t
   
y  ε 
 2t−1   2t 
 + 
y1t−2   0 
   
y2t−2 0

2.1.2 Représentation canonique et processus des innovations :


considérons VAR(p) avec φ0 = 0 :

ΦB Yt = ε(t)

34
2.2. Stationnarité

en peut écrire :
Yt = (Φ(B))−1 ε(t) = (Φ̃(B)/ det Φ(B))ε(t)

où :
-yt :représentation canonique
-ε(t) :l’innovation du processus

2.2 Stationnarité
Définition 2.1. le processus est stationnaire si :
•E(Yt ) = µ vecteur constant,∀t
•var(Yt ) = E([Yt − µ][Yt − µ]0 ) = Γ :vecteur constant d’elements finis
•cov(Yt , Yt+h ) = E([Yt − µ][Yt+h − µ]) = Γh independant de t mais uniqeument du retard. ,∀t

proprieté 2.2.1. (Stationnarité)


• le processus VAR(p)est stationnaire si :

det Φ(z) = 0, |z| > 1

(tout les racines du det Φ(z) = det(I − φ1 z − φ2 z 2 − · − φp z p ) sont de module supérieure


à 1 (à l’extérieur du cercle unité ))
• si :
det Φ(z) = 0, |z| < 1
(non stationnaire),on put changer les racines en leur inverse et modifier le bruit blanc
associé afin de se ramener à la répresentation canonique.
• si au moins des racines de det Φ( z) = 1, le processus n’est plus stationnare et on ne peut
pas se ramaner à une répresentation canonique.

Exemple 2.2.1. le processus bivarié défini par :[2]


" # " # " #" # " #
y1t 2 0.7 0.4 y1t−1 ε1t
= + +
y2t 3 0.2 0.3 y2t−1 ε2t
le polynome caractéristique :
" # " # ! " #
1 0 0.7 0.4 1 − 0.7z −0.4z
det − z = = 1 − z + 0.13z 2
0 1 0.2 0.3 −0.2z 1 − 0.3z
le polynôme admet pour racines :z = 0.84 et z = −0.15 :donc le processus n’est pas stationnaire.

35
2.3. Les Moments de processus VAR(p)

Exemple 2.2.2. processus bivarié défini par :


" # " # " #" # " #
y1t 2 0.2 0.7 y1t−1 ε1t
= + +
y2t 3 0.3 0.4 y2t−1 ε2t

le polynôme caractéristique
" # " # ! " #
1 0 0.2 0.7 1 − 0.2z −0.7z
det − z = = 1 − 0.6z + 0.13z2
0 1 0.3 0.4 −0.3z 1 − 0.4z

le polynome admet pour racines z = 1.3 et z = −5.91 :donc le processus est stationnaire

Remarque 2.2.1. le processus VAR sont toujours inversibles.

2.3 Les Moments de processus VAR(p)

2.3.1 Esperance
on a VAR(p) s’écrit :

Yt = φ0 + φ1 Yt−1 + φ2 Yt−2 − · · · − φp Yt−p + ε(t)

Yt − φ1 Yt−1 − φ2 Yt−1 − · · · − φp Yt−p = φ0 + ε(t)

E[Yt − φ1 Yt−1 − φ2 Yt−1 − · · · − φp Yt−p ] = E[φ0 + ε(t)]

car E[Yt ] = E[Yt−1 ] = · · · E[Yt−p ] et E[ε(t)] = 0] (on pose Yt stationnaire)

E[Yt ](I − φ1 − φ2 − · · · − φp ) = φ0

E[Yt ] = (I − φ1 − φ2 − · · · − φp )−1 φ0

par exemple :
Yt = φ0 + φ1 Yt−1 + ε(t)
0
z }| {
E[Yt ] = E[φ0 + φ1 Yt−1 + ε(t)] = φ0 + φ1 E[Yt ] + E[ε(t)]
E[Yt ] = (I − φ1 )−1 φ0
car(E [Yt ] = E[Yt−1 ])(on pose Yt stationnaire)

36
2.3. Les Moments de processus VAR(p)

2.3.2 Fonction d’auto-covariance

γ(h) = E[(Yt − E[Yt ])(Yt+h − E[Yt+h ])]

on pose :
Xt = Yt − E[Yt ]

Xt = (φ0 + φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + ε(t)) − E[Yt ]


φ0
z }| {
Xt = (I − φ1 − φ2 − · · · − φp )E[Yt ] +φ1 Yt−1 + φ2 Yt−2 + · · · + φp Yt−p + ε(t) − E[Yt ]
Xt−1 Xt−2 Xt−p
z }| { z }| { z }| {
Xt = E[Yt ] + φ1 (Yt−1 − E[Yt ]) +φ2 (Yt−2 − E[Yt ]) + · · · + φp (Yt−p − E[Yt ]) +ε(t) − E[Yt ]

Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + ε(t)

donc :
γ(0) = E[Xt Xt0 ] = E[(φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + ε(t))Xt0 ]

= φ1 E[Xt−1 Xt0 ] + · · · + φp E[Xt−p Xt0 ] + E[ε(t)Xt0 ]

(on a : E[Xt Xt+h ] = γ(t − (t + h)))

= φ1 γ(1)0 + φ2 γ(2)0 + · · · + φp γ(p)0 + E[ε(t)Xt0 ]

on a :
E[ε(t)Xt0 ] = E[ε(t)(φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + ε(t))0 ]
0 0
z }| { z }| {
0 0
= φ1 E[ε(t)Xt−1 ] + · · · + φp E[ε(t)Xt−p ] +E[ε(t)ε(t)0 ]

et encore : 
0 Si t 6= t0
E[ε(t)ε(t)0 ] =
Σ Si t = t0
ε

donc :

γ(0) = φ1 γ(1)0 + φ2 γ(2)0 + · · · + φp γ(p)0 + Σε

donc la formule générale :



φ1 γ(h − 1)0 + φ2 γ(h − 2)0 + · · · + φp γ(h − p)0 si 0<h<=p
γ(h) =
φ γ(h − 1)0 + φ γ(h − 2)0 + · · · + φ γ(h − p)0 + Σ si h = 0
1 2 p ε

37
2.3. Les Moments de processus VAR(p)

par exemple pour VAR(1) :


Xt = Yt − E[Yt ]
Xt = φ0 + φ1 Xt−1 + ε(t)
γ(0) = E[Xt Xt0 ] = E[(φ1 Xt−1 + ε(t))Xt0 ] = φ1 E[Xt−1 Xt0 ] + E[ε(t)Xt0 ]
or :
0
z }| {
0
(E[ε(t)Xt0 ] = E[ε(t)(φ1 Xt−1 + ε(t))0 ] = φ1 E[ε(t)Xt−1 ] +E[ε(t)ε(t)0 ] = Σ )
donc :
γ(0) = φ1 E[Xt−1 Xt0 ] + Σ
γ(0) = φ1 γ(0)0 + Σ
pour h = 1 :
0 0 0
γ(1) = E[Xt Xt−1 ] = E[(φ1 Xt−1 + ε(t))Xt−1 ] φ1 E[Xt−1 Xt−1 ]
= φ1 γ(0)0

Remarque 2.3.1. la propriété de systéme valable dans le cas univarié n’est plus vérifié ici :
pour h 6= 0 : γ(h) 6= γ(−h)[2]

propriété de fonction d’autocovariance [4]

∗γ(h) = γ(h)0
∗|γij (h)| <= [γii (0)γjj (0)]1/2 , ∀h = 0, 1, .. et ∀i, j = 0, ..N
∗γii (h) : est la fonction d’autocovariance de la composante ,i = 1, ...N
γij (h) : est la fonction de covariance croisée entre les composantesyi,t etyj,t−h du processusyt , ∀i, j =
1, ..N
k
0
a0j γj−h
P
∗ aN >= 0, ∀k = 1, 2, ..eta1 , ...ak ∈ RN
j,N =1

2.3.3 Fonction d’autocorrélation


γij (h)
ρij (h) = p
γi (0)γj (0)
aussi pour tout retard h la matrice d’autocorrélation :
 
ρ11 (h) ρ12 (h) · · · ρ1N (h)
 .. 
 ρ (h)
 21 . · · · ρ 2N (h) 
ρh =  .

 ..


 
ρN 1 (h) ··· ρN N (h)

∗ρh = ρ0h ,les élements sur la diagonnale correspondant aux autocorrélations usuelles.

38
2.4. Estimation des paramètres d’un VAR(p)

2.3.4 Fonction d’autocorrélation partielle(identification)


Pour identifier le nombre de retard p, dans le cas multivarié on ne utilise pas la fonction
d’autocorrélation partielle car elle est très difficile à calculer.
l’idée est de retenir des ordres de retards p suffisamment grands puis d’en réduitre la taille à
l’aide de tests.
on choisit ainsi en général un var(4)pour les données trimestrielles ,var(12)pour des données
mensuelles...ect,on verra cependant qu’il existe des outils,notamment les critère d’information
qui évitent de fixer arbitrairement la valeur de p afin que le nombre de paramètres à estimer
pN 2 ne soit pas trop grand .

2.4 Estimation des paramètres d’un VAR(p)


En pratique,les paramètres d’un VAR(p) ne sont pas connu.
ces paramètres sont les coefficients de régression, c-à-d :φ0 (le vecteur de constant)et les éléments
des matrices φ0 , φ1 · · · φp ,il faut donc estimer aussi la matrice des variance covariance des bruit
blanc vectoriels(Σ)
Il existe différents méthodes :la méthode des moindres carrés(MCO) pour les processus VAR
non contraints,et la technique du maximum de vraisemblance.

2.4.1 la méthode des moindres carrés ordinaires


le processus VAR(p) :
Φ(B)Yt = ε(t) ou : εt ∼ bb(0, Σε )
* le nombre des paramètres à estimer pour un VAR(p) :pN 2 + N (N + 1)/2
−pN 2 : paramétre à estimer dans φ
N (N + 1)/2 : paramétre à estimer dans Σε
Décomposons l’écriture du VAR(p) la j ième équation du VAR(p) s’écrit :
   
Yj1 Y00 0
· · · Y1−p
   
Y   Y 0 · · · Y 0 
 j2   1 2−p 
Yj =  .  =  .  ψ j + εj
 ..   .. 
   
0 0
YjT YT −1 · · · YT −p

39
2.4. Estimation des paramètres d’un VAR(p)

soit encore :
Yj = Y ψj + εj
   
0
Y 0 · · · Y1−p εj1
 0   
 Y 0 ··· Y 0  ε 
 1 2−p   j2 
où : Y =  .  ; εj =  . 
 ..   .. 
   
0 0
YT −1 · · · YT −p εjT

et soit : Yt0 = (Y1t−1 Y2t−1 ...YN t−1 , Y1t−2 ...YN t−2 , ...., Y1t−p ...YN t−p ) le modèle est un processus
VAR(p)
 à Ncomposantes indicées par le temps t :
φ
 11j 
 .. 
 .   

φ 
 εj1
 1N j   
ε 
   j2 
ψj =  φ21j  ; εj =  . 
 
 .   .. 
 ..   

 .. 
 εjT
 . 
 
φpN j

la matrice Y indépendant de j :
Yj = Y ψj + εj

on empile les N équation pour retrouver le VAR :


  
     
Y1 Y11 Y 0 ··· 0 ψ ε
   .     1   11 
 Y   .   0 Y · · · 0   ψ   .. 
 2  .    2  . 
 .        
 ..   Y     ε 
   1T       1T 
 = = ...  .  + 
  ..   ε21 

   Y21  · · ·
        
 ..   ..       .. 
 .   .      . 
        
YN YN T 0 ··· Y ψN εN T

on cherche à estimer (ψ1 , ψ2 , .., ψN )0 la matrice de variance covariance des erreur devient un

40
2.4. Estimation des paramètres d’un VAR(p)

peu plus compliquée et s’écrit :


    
σ11 0 · · · . 0 σ 0 .... . 0
 12
 .. .
  

  . 
  0
 .. 



    
 .   .  ··· . 
    
    
 .
   .  
    
 0 σ11 0 σ12
 

 
 
  
 
 σ 0 .... . 0 
 21 
 0 . . .
  
 
  
 ...
··· .
 
 . 
 
  
 .
  
 
 
 0 σ21 
 
 
 
 
 .. ... 

 . ··· . 

 
 
  
σ 0 .... . 0
 
 NN
 
..
 
 0 .
  
 
  

 . . ··· 
 .


  
  . 
  
0 σN N

l’observation de cette matrice indique la présense d’hétéroscédasticité (il n’y a en effet ,aucune
raison pour que σ11 = σ22 = ... = σN N ) et d’autocorrélation ,il se pose en conséquence un
problème pour l’application des MCO.
Rappelons en effet que les estimateurs sont sans biais,mais ne sont plus de variance minimale.Il
convient dés lors d’utiliser le technique des MCG(moindres carrés généralisés).qui fournit un
estimateur BLUE (best linear unbiaised estimator).
on peut réécrire la matrice de variance comme :
var[ε] = Σ ⊗ I = Ω
où : Σ = σij et⊗ : désigne le produit de kroeker
Rappelons que :A ⊗ B = aij B
par exemple :

41
2.4. Estimation des paramètres d’un VAR(p)

 
a1 b 1 a2 b 1 a1 b 2 a2 b 2
" # " #  
a1 a2 b1 b2 a b a b a b a b 
 3 1 4 1 3 2 4 2
⊗ = 
a3 a4 b3 b4  a1 b 3 a2 b 3 a1 b 4 a2 b 4 
 
a3 b 3 a4 b 3 a3 b 4 a4 b 4
Nous venons de voir que la matrice de variance covariance des résidus et telle que l’on devrait
théoriquement appliquer les MCG cependant, puisque la matrice des variable explicatives est
bloc diagonale ,on peut appliquer les MCO bloc par bloc. le théoréme de Zellner nous montre
ainsi qu’estimer chacune des N équations par MCO et équivalent à estimer le modele par les
MCG .Afin de le prouver ,considérons le modéle suivant :
X = aY + ε
ε :est un bruit blanc
Rappalons que l’estimateur des MCO est donné par :
aMˆCO = (Y 0 Y )−1 Y 0 X
et que l’estimateur des MCG s’écrit :
aMˆCO = (Y 0 Ω−1 Y )−1 Y 0 Ω−1 X
Ω :matrice variance covariance de ε
et on a :  
Y 0 ··· 0
 
0 Y ··· 0
Y =. =I⊗Y
 
 .. ..
 . 

0 ··· Y
I :matrice identité.

Remarque 2.4.1. Avant appliquer les MCG rappelons que l’on a les égalités suivantes concer-
nant le produit de kronecker :
∗(A ⊗ B)(C ⊗ D) = AC ⊗ BD
∗(A ⊗ B)0 = A0 ⊗ B 0
∗(A ⊗ B)−1 = A−1 ⊗ B −1

Afin de calculer l’estimateur des MCG ,commencons par étudier la matrice (Y 0 Ω−1 Y ) :
Y 0 Ω−1 Y = (I ⊗ Y 0 )(Σ−1 −1 0
ε ⊗ I)(I ⊗ Y ) = Σε ⊗ Y Y

avec :Ω−1 = Σ−1


ε ⊗I

on en déduit :
(Y 0 Ω−1 Y )−1 = Σε ⊗ (Y 0 Y )−1

42
2.5. Validation de modèle VAR(p)

pour la matrice Y 0 Ω−1 X


Y 0 Ω−1 X = (I ⊗ Y 0 )(Σ−1 −1 0
ε ⊗ I)X = (Σε ⊗ Y )X

on a donc :
âM CG = Σε ⊗ (Y 0 Y )−1 (Σ−1 0 0 −1 0
ε ⊗ Y ) = ((I ⊗ Y Y ) Y ))X

D’ou :
    
(Y 0 Y )−1 Y 0 0 ··· 0 X1 (Y 0 Y )−1 Y 0 X1
  .   .. 
 0 (Y 0 Y )−1 Y 0 ··· 0   ..   . 
âM CG =  .  =  (2.3)
    
.. ...   ..   .
..


 .   


0 −1 0 −1 0
0 ··· (Y Y ) Y XN (Y Y ) Y XN
on retrouve l’estimateur des MCO équation par équation.
cependant, cette technique d’estimation des VAR n’est plut valable dés lors qu’il existe des
contraintes sur les paramétre .
Il convient alors d’utiliser la technique du MV.

2.4.2 La méthode de maximun de vraisemblance


l’estimation par la méthode de maximun de vraisemblance(MV) nécessite la condition de
bruit blanc soit gaussien ,donc que le processus VAR(p) soit gaussien.
donc : la fonction de densité de bruit blanc(ε) :
Fε (ε) = 1
(2π)N/2 (detΣε )1/2
exp(−1/2ε0 (Σε )−1 )ε)
ε = Yt − φ1 Yt−1 − ... − φp Yt−p
1
Fε (Y ) = exp(−1/2(Yt −φ1 Yt−1 −...−φp Yt−p )0 (Σε )−1 )(Yt −φ1 Yt−1 −...−φp Yt−p )
(2π)N/2 (detΣ ε)
1/2

T T
Y 1 X
L(Y1 , ...YT ) = Fε (Y ) = exp(−1/2 ε0 (Σε )−1 )ε)
t=1
(2π)T N/2 (detΣε )T /2 t=1
on peut en déduire la fonction de log-vraisemblance qui est :
T
X
log L(Y1 , ...YT ) = (−N T /2) log 2π − (T /2) log(det Σε ) − (1/2) ε0 (Σε )−1 ε
t=1

on maximise ensuite cette expression afin d’obtenir les estimation de φ1 ....φp et de Σε

2.5 Validation de modèle VAR(p)


pour choisir le bon ordre du modèle (p),on suppose différents tests :

43
2.5. Validation de modèle VAR(p)

2.5.1 la statistique du rapport de vraisemblance


l’objet de ce test est de comparer deux modèles, l’un qui est dit contraint et l’autre est le
modèle non contraint(complet)[3]
• la statistique du rapport de vraisemblance :noté λ :

λ = 2(ln(LN c ) − ln(Lc ))

où :
• ln(LN c ) :la fonction de vraisemblance associée au modèle non contraint.
• ln(Lc ) :la fonction de vraisemblance associée au modèle contraint.
on a le test : 
H0 : le modèle VAR(p) est vrais : φp+1 = 0





ou



H1 : le modèle VAR(p+1) est vrais : φp+1 6= 0

la technique consiste à estimer le modèle contraint V AR(p) et un modèle non contraint V AR(p+
1).
la log-vraisemblance d’un processus VAR s’écrit :

T
X
log L(X1 , ...XT ) = (−N T /2) log 2π − (T /2) log(det Σε ) − (1/2) ε0 (Σε )−1 ε)
t=1
PT 0 −1
•• t=1 ε (Σε ) ε) est un scalaire.
on notant tr la trace donc :
PT 0 P     
−1 T 0 −1 −1
PT 0 −1 1
PT 0
t=1 ε (Σε ) ε) = tr ε (Σε ) ε) = tr Σ ε εε = tr T Σε T εε
  t=1 t=1 t=1
T
= tr T Σ−1 1
= tr (T Σ−1
P
ε T t=1 T ε Σε ) = tr(T IN ) = N T

donc :La log-vraisemblance estimée du modèle contraint :

• ln(Lc ) = (−N T /2) log 2π − (T /2) log(det Σ̂cε ) − (1/2)N T

donc :La log-vraisemblance estimée du modèle non contraint :

• ln(LN c ) = (−N T /2) log 2π − (T /2) log(det Σ̂N c


ε ) − (1/2)N T

où : Σ̂cε et Σ̂N c


ε : désigne l’estimateur de la matrice de vraince covariance de résidus du modèle

contraint respectivement non contraint.


donc :la statistique du test s’écrit encore :
det Σ̂cε
λ = T log( )
det Σ̂N
ε
c

44
2.5. Validation de modèle VAR(p)

cette statistique suit une loi du khi-deux à r degré de liberté , où : r nombre de contraints
si l’on accepte l’hypothèse nulle ,on peut effectuer un deuxième test :

H0 : le modèleV AR(p − 1)est vrai : φp = 0





ou



H1 : le modèleV AR(p)est vrai : φp 6= 0

ce test s’effectue de la même façon que précédemment.


on a ainsi une séquence de tests emboités dont le but est de déterminer l’ordre p du processus
VAR.

2.5.2 Tests de bruit blanc des erreurs [2]


De la même façon que pour le modèle AR .Il convient de vérifier que l’erreurs correspondent
à un bruit blanc.
on a εt :processus d’erreur et ρ(h) la fonction d’autocorrélation.
l’hypothèse nulle est :H0 : ρ(1) = ρ(2) = ... = ρ(h) = 0
• la statistique φ de Box-Piere(en multivarié) :
h
ˆ −1 ρ(i)
ˆ ρ(0) ˆ −1 )
ˆ ρ(0)
X
Φh = n trace(ρ(i)
i=1

• la statistique φ0 de Ljung-Box :
h
X 1 ˆ −1 ρ(i)
ˆ ρ(0) ˆ −1 )
ˆ ρ(0)
Φ0h =n 2
trace(ρ(i)
i=1
n−i

La distribution asymptotique suite une loi de khi-deux.

2.5.3 Critére d’information


Afin de déterminer l’ordre p du processus VAR. on peut également utiliser des critère d’in-
formation.
on estime un certain nombre de modèle VAR pour un ordre p .on retient le retard p qui minimise
les critère AIC,SIC,HQ :
2N 2 p
•AIC = log det(Σ̂ε ) +
T

45
2.6. Prévision

N 2 p log(T )
•SIC = log det(Σ̂ε ) +
T
2
2N p log(log(T ))
•HQ = log det(Σ̂ε ) +
T
où :
N :nombre de variable
T :nombre d’observation
Σ̂ε :estimateur de la matrice variance covariance des résidus.

Remarque 2.5.1. • le critére AIC donnant des estimateurs efficaces de p.


• les critére SIC,HQ conduisent à des estimateurs convergente de p.

2.6 Prévision
la prévision à l’horizon h :
considérons un modèle VAR(1) :
Yt = φ0 + φ1 Yt + εt

on estimé a partir du T observation :


h = 1 : YTˆ(1) = φˆ0 + φˆ1 YT
h = 2 : YTˆ(2) = φˆ0 + φˆ1 YT (1) = φˆ0 + φˆ1 (φˆ0 + φˆ1 YT ) = φˆ0 + φˆ1 φˆ0 + (φˆ1 )2 YT
En général :
h−1
YTˆ(h) = φˆ0 + φˆ1 YT (h − 1) = (I + φˆ1 + ... + φˆ1 )φˆ0 + (φˆ1 )h YT E(εt ) = 0
la variance :
h = 1 : Σ1 = Σ
0 0
h = 2 : Σ2 = Σ1 + φˆ1 Σφˆ1 = Σ + φˆ1 Σφˆ1
2 2 0 2 2
h = 3 :Σ3 = Σ2 + φˆ1 Σφˆ1 0 = Σ + φˆ1 Σφˆ1 + φˆ1 Σφˆ1 0
En général :
h−1 h−1 0 2 2 h−1 h−1
Σh = Σh−1 + φˆ1 Σφˆ1 0 = Σ + φˆ1 Σφˆ1 + φˆ1 Σφˆ1 0 + φˆ1 Σφˆ1 0
Des formules analogues pour les processus VAR(p).
la variance de l’erreur de prévision de chacun des N variables est obtenue sur la diagonale des
Σh :l’intervalle de confiance de la prévision au niveau (1 − α/2) est donnée :

q
Yit (h) ± tα/2 Σiih

46
2.7. Causalité

avec :
tα/2 :fractile de loi normal.

2.7 Causalité

2.7.1 La notion de causalité


Soit Xt , Yt deux processus aléatoire.
La loi du processus couple(Xt , Yt ) s’écrite à la date t conditionnellement au passé(noté Xt−1 et
Yt−1 ) :l(xt , yt /xt−1 , yt−1 )
Si Xt , Yt sont indépendants, alors :

l(xt , yt /xt−1 , yt−1 ) = l(xt /xt−1 ) × l(yt /yt−1 )

On pose It : un invers, It : information relative au passé, It : information relative au passé et


présent telle que :
It = (Is /s < t) et It = (Is /s ≤ t)
On pose les processus Xt , Yt sont stationnaire alors :
X cause Y si l’erreur de prévision de Y est telle que :

δ 2 (Yt /I t ) < δ 2 (Yt /I t − X t )

où I t − X t : l’information obtenue en retirant de I t les valeurs passé de X.


La condition signifie que, pour prévoir Yt , le passé de X apporte une information supplémentaire
par rapport à la seule prise en compte des autres figurant dans I.
X cause instantanément Y si :

δ 2 (Yt /I t − X t ) < δ 2 (Yt /I t )

La condition signifie que la valeur présente de X apporte une information supplémentaire par
rapport à la connaissance du passé des variables figurant dans I.
Les inégalité sont toujours satisfaites. Elle se transforment en égalités si et seulement si :
• X ne cause pas y si : E(Yt /It ) = E(Yt /I t − X t ).
• X ne cause pas instantanément Y si : E(Yt /I t , X t ) = E(Yt /It )
La définition de la causalité est ici relative à un univers.
On distingue trois grands types de causalité :

47
2.7. Causalité

2.7.2 Causalité au sens de Granger(1969)


La causalité au sens de Granger(1969) est le plus connu on pose Xt , Yt deux processus donc
le but est de se demander si Xt cause Yt et de voir dans quelle proportion la valeur courante de
Yt peut êtrès expliqué par ses valeurs passées, et si en ajoutant des valeurs retardées de (Xt ),
l’explication est meilleure plus formellement on a :

Définition 2.2. - X cause Y à la date t :

E(Yt /Y t−1 , X t−1 ) 6= E(Yt /Yt−1 )

- X ne cause pas Y à la date t :

V (Yt /Y t−1 , X t−1 ) = V (Yt /Y t−1 )

- X cause instantanément Y :

E(Yt /Y t−1 , Xt ) 6= E(Yt /Yt−1 , Xt−1 )

où
V (Yt /Y t−1 , X t ) : la matrice de variance covariance de l’erreur de prévision associée a la
régression linéaire de Yt sur son passé (Y t−1 ) et sur le passé de Xt jusqu’à la date t-1 incluse
(X t−1 ).

Test de causalité [7]

Un modèle VAR(p) de dimension 2 expliquant Xt , Yt , la première équation de ce modèle


s’écrit :
yt = µ1 + α1 yt−1 + α2 yt−2 + β1 Xt−1 + β2 Xt−2 + 1t

Pour tester la non causalité au sens de Granger de X sur Y, il suffit de tester la nullité jointe
de β1 , β2 .
Par un test en F. l’expression générale est :
(SCR0 − SCR)/P
S1 = ∼ F (P, T − 2P − 1)
SCR/(T − 2P − 1)
Ce test n’est pas un test exact puisque il ya des endogènes retardées dans la régression OLS.
On emploie donc un test asymptotique du χ2(P ) :

T (SCR0 − SCR)
S2 = ∼ χ2(P )
SCR

48
2.7. Causalité

Par exemple :
considérons le processus V AR(p) à deux variables Xt , Yt :
! ! ! ! ! ! !
Yt a0 a11 b11 Yt−1 a1p b1p Yt−p 1t
= + + ... + +
Xt b0 a12 b12 Xt−1 a2p b2p Xt−p 2t

Pour tester l’absence de causalité de Xt vers Yt :


l’hypothèse :

H0 : b11 = b12 = ... = b1p = 0(Xt ne cause pasYt )





ou



H0 : a11 = a12 = ... = a1p = 0(Yt ne cause pasXt )

Les tests sont alors tests de Fisher classique.

Remarque 2.7.1. Si l’on est amené à rejeter les deux hypothèses nulles. On a une causalité
bi-directionnelle. On parle de boucle rétroactive(feedback effect).

2.7.3 Causalité au sens de Pierce et Haugh(1977)


Si I = (X, Y ) alors la causalité de X vers Y peut être caractérisée par les corrélations des
innovations de deux processus X et Y .
Soient Yt le processus des innovations de Yt et ηt le processus des innovations de Xt .
La fonction d’auto corrélation est donné par :
cov(ηt µt−h )
ρηµ (h) =
δη δµ

Dans ce cas, Y ne cause pas X si ρηµ (h) = 0, ∀h > 0


(où h ≥ 0 Si la causalité instantanée est exclue).
L’innovation de Xt doit être non corrélée avec touts les innovations passées associées au pro-
cessus Yt .

2.7.4 causalité au sens sims (1980)


selon,sims(1980),propose de considérer les valeurs futures de Yt .si les valeurs futures de Y
peuvent permettre d’expliquer les valeurs présentes de X, alors X est la cause de Y.
De facon similaire , on dira que X cause Y si les innovations de X contribuent à la variance de

49
2.8. Analyse de réponse impulsionnelle

l’erreur de prévision de Y.
considérons un processus VAR(p) à deux variables :

Yt = a0 + Pp a1 Yt−i + Pp a2 Xt−i + Pp b2 Xt−i + ε1t
1 i=1 1i i=1 1i i=1 i
X = a0 + p a1 X + p a2 Y + p b1 Y + ε
P P P
t 2 i=1 2i t−i i=1 2i t−i i=1 i t−i 2t

Dans ce cas :
• Y ne cause pas X si l’hypothèse nulle suivante est vérifier :H0 : b21 = b22 ... = b2p = 0
• X ne cause pas Y si l’hypothèse nulle suivante est vérifier :H0 : b11 = b12 ... = b1p = 0 IL s’agit
encore de tests de Fisher de nullité des coefficients.

2.8 Analyse de réponse impulsionnelle

2.8.1 Représentation VMA d’un processus VAR


la représentation canonique de VAR :

Φ(B)Xt = εt

où : εt ∼ BB soit encore :


p
X
Xt = φi Xt−i + εt
i=1
Dans ce cas,selon le théorème de wold ,ce processus peut étre écrite sous la forme d’un processus
VMA infini : ∞
X
Xt = θj εt−j = Θ(B)εt
j=0
j
P
où :Θ(B) = j>=0 θj B , Θ0 = I

2.8.2 VAR structurel


Le modèle VAR structurel est un système d’équation simultanées dont la forme réduite est
le modèle VAR canonique.
La représentation VAR structurel se déduit de la représentation VAR canonique.
On a la représentation de VAR canonique :

P
X
Xt = φi Xt−i + εt
i=1

50
2.8. Analyse de réponse impulsionnelle

εt : Vecteur des innovations canoniques


Xt : Vecteur des séries observables.
On a P : la matrice de passage (inversible et de dimension N × N ) qui doit être estimée.
On pré multiplie les deux membres (1) par la matrice P̂ −1 (P̂ étant un estimateur de P) :

P
X
−1 −1
P̂ Xt = P̂ φi Xt−i + P̂ −1 εt
i=1

Soit encore :
P
X
−1 −1
P̂ Xt + P̂ φi Xt−i + P̂ −1 εt + Xt − Xt = 0
i=1

Donc,
P
X
−1
Xt = P̂ φi Xt−i + P̂ −1 εt + (I − P̂ −1 )Xt
i=1

On ajoute :
P̂ −1 εt = wt , I − P̂ −1 = ψ0 1 ≤ i ≤ p, P̂ −1 φi = ψi
Donc, l’expression du processus VAR structurel :
P
X
Xt = ψi Xt−i + ψt (2)
i=0

Les relations précédents montrent que l’estimation du VAR structurel est acquise dés que la
matrice P a été estimée.
L’identification des chocs est réalisée puisqu’il est alors possible de passer des chocs estimés
aux chocs structurels (interprétables économiquement)par :
ψ̂t = P̂ −1 ε̂t

2.8.3 Orthogonalisation des chocs


Par exemple le processus VAR(1) suivant :

Xt = a11 Xt−1 + a12 Yt−1 + ε1t
Y = a X + a Y + ε
t 21 t−1 22 t−1 2t

On voit qu’un chocs sur ε1 affectera immédiatement la valeur présente de Xt , il affectera aussi
les valeurs futures de y et x car les deux équations corrélé par la valeur passé de X.
•Si ε1t et ε2t ne sont pas corrélées, l’interprétation de la fonction de réponse implusionnelle est
trés simple.

51
2.8. Analyse de réponse impulsionnelle

•La fonction de réponse implusionnelle pour ε2t mesure l’effet chocs de y sur valeur passées et
présentes de X et Y.
•On pratique généralement, les innovations sont corrélées, elles ont donc une composante com-
mune qui ne peut pas êtrès associée a une variable spécifique. il ya une méthode quelque peut
arbitraire mais fréquemment utilisée consiste à attribuer la totalité de la composante comme à
la variable qui intervient en premier dans le système VAR.
Techniquement, les erreurs peuvent êtrès orthogonalités en utilisant la décomposition de Cho-
lesky (la matrice de variance covariance des innovations qui en résulte est diagonale).

2.8.4 Décomposition de Cholesky


Cette méthode permet de résolve le système AX = b, b ∈ RN
A : matrice symétrique définie positif d’ordre N.

Théorème 2.8.1. Si A est une matrice symétrique définie positif, il existe une matrice trian-
gulaire inférieur P telle que :
A = P.P t
De plus, si on pose aux coefficients diagonaux de P d’être strictement positifs, alors cette
décomposition est unique.
Algorithme :
A ∈ MN (R) tq :
t
A = P.P
   
p11 0 · · · 0 p11 · · · pn1
 . . . . .. . 
. .. . . ..  , P =  0 . .. 
 t 
P = .   
pn1 · · · · · · pnn 0 · · · pnn
 ..  
p11 0 . 0 p11 · · · pn1
 .
. . .
.. . . . ..   0
  .. .. 
A=  .  . . 
pn1 · · · · · · pnn 0 ··· pnn
 
a11 a12 · · · a1n
 
 21 · · · a2n
a 
= .

 .. .
.. . . . .. . 
 
an1 an2 · · · ann
Rappel
Soit A ∈ Mn (R)

52
2.8. Analyse de réponse impulsionnelle

A symétrique ⇔ A = At .
A définie positif si les n déterminants des sous matrices principales sont strictement positif.

Exemple 2.8.1. N = 3
  
1 −1 2 1
   
A= −1 5 −4, b = 1
  
2 −4 6 2
t
On écrire A sous la forme P.P par les décompositions de Cholesky :
On a A = At (A symétrique).
Pour démontrer que A positif, il faut que les 3 déterminant est positif :
∆1 = 1 > 0
1 −1
∆2 = =5−1=4>0
−1 5
1 −1 2
∆3 = −1 5 −4 = (30 − 16) + (−6 + 8) + 2(4 − 10) = 14 + 2 − 12 = 4 > 0
2 −4 6

Donc A définie positif.


Donc ∃ P triangulaire inférieure tq :
A = PPt

       
1 −1 2 p11 0 0 p11 p21 p31 p211 p11 p21 p11 p31
       
−1 5 −4 =  p21
   p22 0 . 0

 = p21 p11
p22 p32   p221 + p222 p21 p31 + p22 p32 

2 2 2
2 −4 6 p31 p32 p33 0 0 p33 p31 p11 p31 p21 + p32 p22 p31 + p32 + p33

 Par suite :
p211 = 1 ⇒ p11 = 1










 p11 p21 = −1 ⇒ p21 = −1


p11 p31 = 2 ⇒ p31 = 2

2 2 2




 p 21 p 22 = 5 ⇒ p 22 = 5 ⇒ p 22 = 5

 √
p21 p31 + p22 p32 = −4 ⇒ (−1 × 2) + 5p32 = −4 ⇒ p32 = √25






 √
p31 + p232 + p233 = 6 ⇒ (2)2 + ( √25 )2 + p233 = 6 ⇒ p233 = 30 √30
 2

24
⇒ p33 = 24

53
2.9. Décomposition de la variance

2.8.5 Méthode d’identification des chocs


Pour facilité l’identification on pose que :

V (Wt ) = I (1)

Le différents chocs structurels Wt ne sont pas corrélés entre eux sur une même date, et ont une
variance unitaire.
On a :
t = P Wt

V (t ) = P V (Wt )P 0 = P P 0 = Σ

ou
P : la matrice de passage (N 2 paramètre inconnu).
Σ : la matrice de variance covariance de t (innovation canonique).
•On pose N(N+1)/2 contraintes sur les éléments de matrice P(puisque Σ est symétrique). Ces
contraintes sont appelées contraintes d’orthogonalisation.
• Pour identifie les N 2 élément de la matrice P, il reste imposer N (N − 1)/2 contraintes
supplémentaire sont appelées contraintes identifiants structurelles.

2.9 Décomposition de la variance


Considérons le processus Xt admettant la représentation VAR(p) :

A(B)Xt = Xt − A0 − A1 Xt−1 − ... − Ap Xt−p = M + εt

εt : bruit blanc de matrice variance covariance Σ.


On suppose Xt est stationnaire
La forme V M A(∞) donc :

X
Xt = µ + εt + θ1 εt−1 + θ2 εt−2 + ... = µ + Θ(β)εt = µ + θi εt−i
i=0

L’erreur de prévision à l’horizon h se note :


h−1
X
Xt+h − E(Xt+h ) = θi εt+h−i = εt+h + θ1 εt+h−1 + ... + θh−1 εt
i=0

54
2.9. Décomposition de la variance

L’espérance vaut alors 0(par définition, les bruit blanc des processus centré).
La matrice de variance covariance donné par :
E[(Xt+h − E(Xt+h ))(Xt+h − E(Xt+h ))0 ]
= E(Xt+h − E(Xt+h ))2
= Σ + θ1 Σθ10 + ... + θh−1 Σθh−1
0
...(3)
Cette erreur de prévision est alors exprimée en fonction de la matrice de variance covariance
des résidus (non diagonale).
Considérons la transformation :
A−1 ε
µt =  t ou εt = Aµt et Σ = A.D.A

0

ε1t µ1t
 .   . 
.   .  d
 .  = (a1 , a2 , ..., an )  . , ai ∈ R
εt = 
εdt µdt

Σ = E(εε0t ) = a1 a01 V (µ1t ) + a2 a02 V (µ2t ) + ... + ad a0d V (µdt )

on remplaçant cette expression dans (3) :

d
X
E[(Xt+h − E(Xt+h ))(Xt+h − E(Xt+h ))0 ] = V (µjt )[θ1 (a1 a01 )θ10 + θh−1 (ah−1 a0h−1 )θh−1
0
]
j=1

La quantité :
V (µjt )[θ1 (a1 a01 )θ10 + θh−1 (ah−1 a0h−1 )θh−1
0
]

est contribution d’une innovation pure à la variance totale de la prévision à un horizon h.

55
CHAPITRE 3

APPLICATION DE MODÈLE VAR(P ) EN


MÉTÉOROLOGIE

3.1 Introduction
Après avoir présenter dans le chapitre précédent le cadre théorique de modèle VAR(p), nous
poursuivons la démarche que nous avons adopté depuis le début de ce mémoire.
Dans ce contexte, nous entamons une phase pratique consiste à appliquer de toutes les
techniques citées auparavant sur trois séries météorologiques mesurées dans la wilaya de Jijel,
ces données sont fournit par la station d’Achouat et s’étalent du Janvier 1996 à Décembre
2005.notre base de données est composée de la température (notée Temp), les précipitations
(notée Prec), et l’humidité (noté Hum).
Dans ce chapitre, nous allons essayer de mettre en place une modélisation univariée de
chaque série séparément via la méthode de Box et Jenkins et une modélisation Multivariée de
toutes les séries simultanément par le biais de modèle VAR(p). nous allons essayer par la suite de
calculer les prévisions par les modèles résultants des deux approches et faire une comparaisons
entre elles.

56
3.2. Etude Univarié

3.2 Etude Univarié

3.2.1 Etude de stationnarité


Statistiques descriptives

la table 3.1 montre les statistiques de base de chaque série :

Prec temp hum


Mean 83.31 18.15 75.22
Med 64.20 17.10 75.65
Max 407.30 28.30 82.80
Min 0.00 9.00 66.60
1 st Q 15.97 13.60 72.97
3 st Q 121.95 23.43 77.42
Skewness 1.45 0.16 −0.29
Kurtosis 5.22 1.66 2.71
 
|SK−0|
V1 = √ 6.48 0.71 1.29
 6/120 
V2 = √|Kr−3| 4.96 2.99 0.64
24/120

Table 3.1 – Statistiques descriptives

nous comparons les valeurs de V1 et V2 pour chauque série avec la valeur (1.96 :qui repre-
sente la valeur de la loi normal au seuil α = 5%).
D’après les résultats ,on rejette l’hypothèse de normalité pour la série (prec)et la série (temp)et
on l’accepte pour la série(Hum).

57
3.2. Etude Univarié

Figure 3.1 – Représentations graphiques des trois séries

on constate que les trois courbes sont parallèles à l’axe des abscisses ,donc on peut les considérées
comme des séries stationnaires.

Figure 3.2 – ACF et PACF des trois séries

l’analyse de corrélogramme simple est partiel des trois séries nous indique une éventuelle
présence de la saisonnalité .

Etude de saisonnalité

la table suivante regroupe les coefficients saisonniers pour les trois séries ,ces coefficients
sont au nombre 12 car nos séries sont mensuelles :

58
3.2. Etude Univarié

prec temp hum


01 63.73423 -6.4980827 2.1226087
02 32.036507 -6.7982657 2.7627454
03 -33.8911057 -4.2984491 0.8328811
04 -0.8844408 -2.6333782 0.3585463
05 -29.4677260 0.6216936 2.6242111
06 -67.4237856 4.8333828 -1.2305805
07 -79.0498108 7.1350719 -3.6653697
08 -66.4602717 8.1398829 -4.0830964
09 -16.5607505 5.3746934 -0.6108214
10 -7.7276270 2.3114726 -1.7190327
11 100.4155347 -2.6617494 1.2927625
12 105.2792275 -5.5262717 1.3151451

Table 3.2 – coefficients saisonniers

test du racine unitaire

on va appliquer le test de Dicky-Fuller sur les trois séries dépersonnalisées .a l’aide de logiciel
R ,on estime par la méthode MV les paramètres des modelés [4],[5],[6] .
les valeurs mentionnées dans ce tableau représentent les probabilités de signification (p-value).pour
plus de détails sur les estimations de ces tests voir l’annexe

59
3.2. Etude Univarié

M3 (M6) M2 (M5) M1 (M4)


Temp
trend 0.919 / /
const 1.34 ∗ 10−8 2 ∗ 10−16 /
R.U 1.35 ∗ 10−8 2 ∗ 10−16 /
Prec
trend 0.29 / /
const 0.0002 1.6 ∗ 10−7 /
R.U 2.65 ∗ 10−9 3.96 ∗ 10−9 /
Hum
trend 0.55 / /
const 3.41 ∗ 10−12 2.99 ∗ 10−12 /
R.U 3.04 ∗ 10−12 2.89 ∗ 10−12 /

Table 3.3 – résultats de test ADF .

l’application de la stratégie du Dicky-Fuller,sur les trois séries nos mène à conclure que nos
séries sont stationnaires parce qu’elles ne sont pas affectées ni de tendance ni de racine unitaire.

3.2.2 Box-Jenkins
Identification

cette étape est effectuée par le biais de l’examination des fonctions ACF et PACF des séries
désaisonnalisées stationnaires.

60
3.2. Etude Univarié

Figure 3.3 – ACF et PACF des séries stationnaires

pour la série des températures et la série précipitations, les deux fonctions ACF et PACF
s’annulent à partir de deuxième pics
pour la série Humidité, les deux fonctions ACF et PACF s’annulent à partir de pic numéros 13.
d’après l’analyse ci dessus, on peut identifier les processus dont les ordres mentionnés dans le
tableau (3.4) pour chaque séries.

prec temp hum


AR(1) AR(1) AR(12)
MA(1) MA(1) MA(12)
ARMA(1,1) ARMA(1,1) ARMA(12,12)

Table 3.4 – Modèles candidats

Estimation et Validation

après avoir identifier l’ordre des processus, il convient d’estimer les paramètres du modèle
et de vérifier par la suite la validité de différents modèles estimés en se basant sur un ensemble
de tests sur paramètres et sur résidus.
série prec

AR(1) MA(1) ARMA(1,1)


cst 83.144 (0.000) 83.131(0.000) 83.174(0.000)
φ 0.245(0.00638) 0.352(0.433)
θ 0.229(0.00791) -1.115(0.813)
AIC 1308.346 1308.931 1310.291
BIC 1313.921 1314.506 1318.654
Box-Piere 0.0022968( 0.9618) 0.020919(0.885) 0.00097522(0.9751)
J-Berra 1.5973( 0.4499) 2.0785( 0.3537) 83.517 (2.2 ∗ 10−16 )

Table 3.5 – Estimation et validation des processus estimés.() représente p-value

série temp

61
3.2. Etude Univarié

AR(1) MA(1) ARMA(1,1)


cst 18.161(0.000) 18.158(0.000) 18.1615(0.000)
φ 0.312(0.000644) 0.3225(0.139)
θ 0.0.263(0.000966) -0.0117(0.958)
AIC 358.7815 360.5169 360.7788
BIC 364.3565 366.0918 369.1412
Box-Piere 0.031331(0.8595) 0.090848( 0.7631) 0.02558 (0.8729)
J-Berra 1.5973( 0.4499) 2.0785( 0.3537) 1.573 (0.4554)

Table 3.6 – Estimation et validation des processus estimés.() représente p-value

série hum

AR(12) MA(12) ARMA(12,12)


cst 75.24805(0.000) 75.25352(0.000)
φ -0.24835(0.00756)
θ -0.28910(0.0235))
AIC 606.7539 607.4742
BIC 642.9913 643.7116
Box-Piere 0.037895(0.8457) 0.075495(0.7835)
J-Berra 1.5633( 0.4577) 1.2123(0.5454)

Table 3.7 – Estimation et validation des processus estimés.() représente p-value

Au regard des résultats d’estimation, on peut valider :


les processus AR(1) et MA(1) pour les séries Prec et Temp dans la mesure ou les coefficients
sont significatives et leurs résidus vérifient les hypothèses de l’homoscédasticité et de la norma-
lité .
les processus AR(12) et MA(12) pour la série Hum dans la mesure ou les coefficients sont si-
gnificatives et ses résidus vérifient les hypothèses de l’homoscédasticité et de la normalité.
d’après les valeurs de critères AIC et BIC, on peut choisir le processus AR(1) comme meilleur
modèle (qui minimise les deux critères) pour Temp et Prec et le processus AR(12) pour Hum.
Conclusion : l’application de la méthodologie de Box et Jenkins nous a conduit à retenir un
processus AR(1) pour la Température et Précipitation et un processus AR(12) pour l’hummi-
dité.

62
3.3. Etude multivarié

prévision

une fois les modèles adéquats sont choisit, on peut baser sur eux pour calculer les prévisions
de 12 mois de l’année 2006 pour chaque série.
Prec : X̂t = 83.144 + 0.245Xt−1
Temp : X̂t = 18.161 + 0.312Xt−1
hum : X̂t = 75.24805 − 0.24835Xt−12

prec temp hum


01/2006 188.92023 15.3445173 57.5523287
02/2006 145.851077 18.1776255 59.0616904
03/2006 77.1374643 21.655029 56.4612811
04/2006 109.461559 23.625107 56.8065013
05/2006 80.711044 26.975341 59.0224961
06/2006 42.7137724 31.2167208 55.8879195
07/2006 31.0778962 33.5276734 54.4713653
08/2006 43.6650163 34.5353746 54.1778136
09/2006 93.5639455 31.7710868 56.9547086
10/2006 102.396924 28.7081473 54.4805723
11/2006 210.54005 23.7350131 58.2374173
12/2006 215.403734 20.8705181 57.4899151

Table 3.8 – Prévisions des trois séries par la méthode Box et Jekins

3.3 Etude multivarié


Dans la section précédente nous avons modélisé séparément les trois séries temporelle. par
contre dans cette section, le modèle VAR nous donne la possibilité de modéliser les trois séries
simultanément afin de prendre en considération les interactions entre les variables.

63
3.3. Etude multivarié

3.3.1 Choix de retard p


AIC BIC HQ
1 12.117 12.402 12.233
2 11.429 11.928 11.632
3 11.030 11.743 11.320
4 11.039 11.965 11.415

Table 3.9 – Critères de choix de retard optimal

on choisit le retard qui fournit le minimum des trois critères d’information (AIC,BIC,HQ), la
valeur minimale correspond à un retard p=3.

3.3.2 Estimation de modèle VAR


l’estimation de modèle VAR(3) par la méthode MV(maximum de vraisemblance),nous per-
met d’écrire notre modèle sous les équations suivantes :
T = (−9.2576)+1.0695Tt−1 +0.1736Tt−2 −0.6658Tt−3 +0.1718Ht−1 +0.0425Ht−2 +0.01422Ht−3 −
0.00061Pt−1 0.00528Pt−2 − 0.00796Pt−3
H = 103.463 − 0.0774Ht−1 − 0.172Ht−2 − 0.049Ht−3 − 0.274Tt−1 − 0.349Tt−2 + 0.3097Tt−3 +
0.0032Pt−1 − 0.0053Pt−2 + 0.0026Pt−3
P = 447.688 + 0.304Pt−1 − 0.0329Pt−2 − 0.01415Pt−3 − 9.0287Tt−1 + 0.6788Tt−2 + 8.568Tt−3 −
6.624Ht−1 + 0.0339Ht−2 + 1.3985Ht−3

3.3.3 Étude de stationnaire du VAR


Il faut s’assurer que nous sommes en présence d’une VAR(3)stationnaire ,ie,que touts les
racines sont supérieurs à 1 ,pour cela en trace le cercle des inverses des racines du polynôme
caractéristique.

64
3.3. Etude multivarié

Figure 3.4 – Cercle des inverses des racines

D’après le cercle ,le modèle VAR(3) est stationnaire car touts les racines se situent à l’intérieure
de cercle d’unité.

3.3.4 Causalité
l’hypothèse nul obs f.stat P.value
T ne cause pas
Granger 120 8.50 1.401 ∗ 10−8
H-P
instant 23.51 7.841 ∗ 10−6
P ne cause pas
Granger 120 2.18 0.04411
T-H
instant 16.76 0.00022
H ne cause pas
Granger 120 3.14 0.0052
T-P
instant 24.24 5.435 ∗ 10−6

Table 3.10 – Résultats du test de causalité

65
3.3. Etude multivarié

D’aprés le tableau ,on peut conclue :qu’il existe des relations de causalité bidirectionel entre les
trois séries deux à deux au sens de Granger et instantanément

3.3.5 Fonction de réponse impulsionnelle et analyse de choc

Figure 3.5 – Reponse de prec à un choc dans hum

Entre le premier et le deuxième mois après le choc on remarque une diminution de précipitations
suite a la diminution de l’humidité ; a partir du deuxième mois on remarque une évolution
similaire des 2 graphes. Cela s’explique par l’influence de taux de l’humidité sur la quantité des
pluies

Figure 3.6 – Réponse de Temp à un choc dans hum

Entre le premier et le troisième mois après le choc on remarque une augmentation de températures
suite à la diminution de l’humidité ; a partir de la troisième mois on remarque une diminution
de la température ou moment ou le H augmente. En générale on constate une évolution inverse
des 2 graphes jusqu’à la disparition totale de ce choc .

66
3.3. Etude multivarié

Figure 3.7 – Reponse de Prec à un choc dans Temp

Entre le premier et le sixième mois après le choc on remarque une augmentation de PREC
suite à la diminution de TEMP ; puis a partir du sixième mois au deuxième mois on remarque
une diminution du PREC suite à une augmentation de TEMP. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque six mois
jusqu’à la disparition totale de ce choc .

Figure 3.8 – Réponse de Hum à un choc dans Temp

Entre le premier et le sixième mois après le choc on remarque une augmentation de PREC
suite à la diminution de TEMP ; puis a partir du sixième mois au deuxième mois on remarque
une diminution du PREC suite à une augmentation de TEMP. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque six mois
jusqu’à la disparition totale de ce choc .

67
3.3. Etude multivarié

Figure 3.9 – Réponse de Temp à un choc dans Prec

Entre le premier et le troisième mois après le choc on remarque une augmentation de TEMP
suite à la diminution de PREC ; puis a partir de la troisième mois au sixième mois on remarque
une diminution du TEMP suite à une augmentation de PREC. En générale on constate une
évolution inverse des 2 graphes alternant entre l’augmentation et la diminution chaque 03 mois
jusqu’à la disparition totale de ce choc .

Figure 3.10 – Réponse de Hum à un choc dans Prec

Entre le premier et le troisième mois après le choc on remarque une diminution de HUM suite
à la diminution de PREC ; puis a partir de la troisième mois au sixième mois on remarque une
augmentation de la HUM suite à une augmentation de PREC. En générale on constate une
évolution similaire des 2 graphes alternant entre l’augmentation et la diminution chaque 03
mois jusqu’à la disparition totale de ce choc .

68
3.3. Etude multivarié

3.3.6 Décomposition de Variance


L’intérêt est de savoir quelle est contribution de chaque innovation a la variance totale de
l’erreur de prévision .On présente les tableaux suivants qui donnent le pourcentage de contri-
bution des résidus de chaque variable sur la variance de l’erreur de prévision de la variable
considérée dont on peux tirer des conclusion sur la variable qui influence le plus au autres
variables.

T H P
1.0000 0.0000 0.0000
0.9484358 0.05131760 0.0002466035
0.8948795 0.09495635 0.0101641171
0.8711016 0.11885561 0.0100428007
0.8552797 0.13188230 0.0128380047
0.8463566 0.12384127 0.0298021406
0.8512787 0.11152153 0.0371997669
0.8519694 0.11051644 0.0375141331
0.8463067 0.12000975 0.0336835647
0.8365733 0.13083397 0.0325927484
0.8284242 0.13502452 0.0365513017
0.8270006 0.13068663 0.0423128161

Table 3.11 – D.V de l’erreur de prévision de Temp

La variance de l’erreur de prévision de Temp est due pour 87%de T, de 10 % de H et de 2 %de


P,donc l’impacte d’un choc affectant Temp sur Hum est plus important que l’impact d’un choc
affectant TE sur Prec

69
3.3. Etude multivarié

T H P
0.2164448 0.7835552 0.00000
0.2253054 0.7717532 0.0002941457
0.2345184 0.7577082 0.007773406
0.2378942 0.7544511 0.007654716
0.2395469 0.7527911 0.007661974
0.2418800 0.7473774 0.010742604
0.2520922 0.7358735 0.012034299
0.2682078 0.7185811 0.013211100
0.2794221 0.7075320 0.013045913
0.2833756 0.7036824 0.012942001
0.2829221 0.7034777 0.013600192
0.2849602 0.7003392 0.014700636

Table 3.12 – D.V de l’erreur de prévision de Hum

variance de l’erreur de prévision de Hum est due de 74%de Hum, de 25% de Temp , et de 11%
de Prec,donc l’impacte d’un choc affectant HUM sur Temp est plus important que l’impact
d’un choc affectant Hum sur Prec

T H P
0.1165686 0.0506769 0.8327545
0.1244349 0.0960065 0.7795586
0.1492021 0.1062941 0.7445039
0.1493233 0.1063433 0.7443334
0.1585095 0.1061925 0.7352980
0.1966961 0.1029075 0.7003965
0.2350113 0.1019029 0.6630858
0.2574505 0.1053781 0.6371714
0.2612495 0.1095086 0.6292419
0.2607218 0.1106314 0.6286468
0.2700114 0.1088484 0.6211403
0.2904203 0.1073444 0.6022353

Table 3.13 – D.V de l’erreur de prévision de Prec

70
3.3. Etude multivarié

la variance de l’erreur de prévision de Prec est due de 69%de Prec, de 21%de Temp , et de 10%
de Hum,donc l’impacte d’un choc affectant Prec sur Temp est plus important que l’impact d’un
choc affectant Prec sur Hum

Figure 3.11 – D.V de l’erreur de prévision des Séries

3.3.7 Validation
test d’autocorrelation

L’application de test Ljung-Box sur la série résiduel du modèle VAR(3) nous a conduit à
constater que les erreurs sont autocorrélées (p.value = 0.0107).

test d’hétéroscédasticité

L’application de test ARCH sur la série résiduel du modèle VAR(3) ,nous a conduit à
constater que les erreurs sont homoscédastique(variance homogène)(p.value = 0.71).

test normalité

L’application de test Jarque-Bera sur la série résiduel du modèle VAR(3) ,nous a conduit à
constater que les erreurs ne sont pas gaussiens(normales) (p = 2.2 ∗ 10−16 )

71
3.3. Etude multivarié

3.3.8 Prévision
réel Var residual
Temp Hum Prec Temp Hum Prec Temp Hum prec
01/2006 10.555 162.1028 9.958 78.705 180.323 0.5911 -18.2205
02/2006 11.66 171.8056 10.548 78.534 132.009 1.1116 39.7957
03/2006 14.44 54.0004 13.332 77.236 82.20 1.1079 -28.0196
04/2006 17.77 24.1046 17.140 75.851 39.004 0.6296 -14.8999
05/2006 20.55 32.5882 21.155 74.353 9.674 -0.6057 22.9136
06/2006 23.33 2.9972 24.111 73.202 1.105 -0.7819 1.892
07/2006 26.11 0.000 25.346 72.597 14.367 0.7633 -14.3678
08/2006 25.55 34.6964 24.512 72.798 46.243 1.0371 -11.5467
09/2006 23.33 44.8056 21.978 73.666 86.372 1.3516 -41.5666
10/2006 22.22 38.3032 18.488 74.959 123.670 3.732 -85.3676
11/2006 17.77 39.1922 15.067 76.277 147.662 2.7029 -108.47
12/2006 13.33 205.5114 12.646 77.268 152.508 0.6835 53.0034

Table 3.14 – comparaison des données réelles et des résultats prévisionnels de


(temp),(Hum)et(prec)

Figure 3.12 – graphe de prévision De modèle VAR(3)

72
3.4. comparaison entre le prévision de Box-Jinkins et modèle VAR

3.4 comparaison entre le prévision de Box-Jinkins et


modèle VAR
Prec
prvun prvml reel res1 res2
01/2006 188.9202 180.3233 162.1028 -26.8174 -18.2205
02/2006 145.851 132.0099 171.8056 25.9546 39.7957
03/2006 77.1374 82.02 54.0004 -23.137 -28.0196
04/2006 109.4615 39.0045 24.1046 -85.3569 -14.8999
05/2006 80.711 9.6746 32.5882 -48.1228 22.9136
06/2006 42.7137 1.1052 2.9972 -39.7165 1.892
07/2006 31.0077 14.3678 0 -31.0077 -14.3678
08/2006 43.665 46.2431 34.6964 -8.9686 -11.5467
09/2006 93.5639 86.3722 44.8056 -48.7583 -41.5666
10/2006 102.3969 123.6708 38.3032 -64.0937 -85.3676
11/2006 210.54 147.6622 39.1922 -171.3478 -108.47
12/2006 215.4037 152.508 205.5114 -9.8923 53.0034

Table 3.15 – Série Résiduels de Prec

Temp
prvun prvml reel res1 res2
01/2006 15.3445 9.9589 10.55 -4.7945 0.5911
02/2006 18.1776 10.5484 11.66 -6.5176 1.1116
03/2006 21.655 13.3321 14.44 -7.215 1.1079
04/2006 23.6251 17.1404 17.77 -5.8551 0.6296
05/2006 26.9753 21.1557 20.55 -6.4253 -0.657
06/2006 31.2167 24.1119 23.3 -7.8867 -0.7819
07/2006 33.5276 25.3467 26.11 -7.4176 0.7633
08/2006 34.5353 24.5129 25.55 -8.9853 1.0371
09/2006 31.771 21.9784 23.33 -8.441 1.3516
10/2006 28.7081 18.488 22.22 -6.4881 3.732
11/2006 23.735 15.0671 17.77 -5.965 2.7029
12/2006 20.8705 12.6465 13.33 -7.5405 0.6835

73
3.4. comparaison entre le prévision de Box-Jinkins et modèle VAR

Table 3.16 – Série Résiduels de Temp

variable RMSE(BJ) RMSE(VAR) MAE(BJ) MAE(VAR)


prec 64.60 47.7682 148.59 36.67
temp 7.052 1.5645 6.96 1.25

Table 3.17 – RMSE et MAE de prévision des séries

En générale,les deux critère sont faibles pour la prévision par le modèle VAR que pour la
prévision Box-Jinkins .ce qui nous permet de conclure que la modélisation VAR est plus effi-
cace en terme de la précision de prévision.

74
CONCLUSION

Ce mémoire est juste une petite introduction aux modèles VAR et leur application sur
des séries météorologiques, nous avons donné quelques outils de base de la théorie des séries
temporelles multivariées permettant de prendre en compte la dépendance temporelle entre les
séries et l’analyse de leur comportement dynamique via la fonction de réponse impulsionnelle
(impact de choc) et la décomposition de la variance de l’erreur de prévision.
Notre étude empirique est partagée en deux parties :
–La première partie réservée à la modélisation univariée de trois séries météorologiques
(température, précipitations, et humidité) . après avoir désaisonnaliser les trois série et confirmer
leur stationnarité par le test de racine unitaire ; nous avons suit la méthodologie de Box et
Jenkins qui nous a conduit à obtenir un modèle AR(1) pour la série de température et la série
de précipitations et un processus AR(12) pour la série de l’humidité.
–La seconde partie consacrée à la modélisation des trois séries météorologiques simul-
tanément en appliquant la modélisation VAR. après avoir choisir le retard optimal (P=3) et
étudier la causalité , le modèle VAR(3) est estimé par la méthode de Maximum de vraisemblance
et validé par les tests de résidus.
L’analyse de choc et la décomposition de la variance de l’erreur de prévision ont été discutées
à la fin de cette partie.
L’étude de ces trois séries météorologiques était orientée essentiellement dans une optique
prévisionnelle, les processus résultants de deux approche sont utilisées par la suite au calcul de
prévisions pour une période de 12 mois du janvier 2006 à décembre 2006. En terme de RMSE et

75
Conclusion

MAE, le modèle VAR(3) avait donné des prévisions mieux que celles fournit par les processus
AR(1) et AR(12) pour les trois séries météorologiques.
Nous espérons avoir répondre au problématique posée et les résultats trouvés seront d’une
utilité pertinente.

76
ANNEXES

77
Annexes

78
Annexes

79
Annexes

80
Annexes

81
Annexes

82
Annexes

83
Annexes

84
Annexes

85
BIBLIOGRAPHIE

[1] Arthur Charpentier : Cours de séries temporelle théorie et applications,Volume1,Paris


Dauphine.
[2] Arthur Charpentier : Cours de séries temporelle théorie et applications,Volume2,Paris
Dauphine.
[3] Amenan Christiane Chukunyere :Les modèles VAR(p),Maı̂trise en statistique - avec
mémoire Maı̂tre ès sciences (M. Sc.),Québec, Canada, c Amenan Christiane Chukunyere,
2019.
[4] Brockwell P.J and David R.A :Introduction to time series and forecasting.Springer,2002
[5] Chaouchkhouane Meriem :Méthode de Box et Jenkins,MASTER en
Mathématiques,DÉPARTEMENT DE MATHÉMATIQUES,FACULTÉ des SCIENCES
EXACTES et des SCIENCES de la NATURE et de laVIE,UNIVERSITÉ MOHAMED
KHIDER,BISKRA,Juin2021
[6] Kesraoui Mahrez et 6 :Etude et modélisation d’une évolution d’une pathologie,Mémoire
de fin d’étude,En vue de l’obtention du Diplôme de Master Professionnel en Mathématiques
Appliquées à la Gestion,Département de Mathématiques,Faculté des Sciences, Promotion :
2016/2017
[7] Michel Lubrano Modèles VAR, modèles VAR structurels,March 17, 2008
[8] Sandrine Lardic and Valérie Mignon :Econométrie des séries temporelles ma-
croéconomique et financiéres,ed.economica,49,rue Héricat,75015 Paris,2002.
[9] Yves Aragon : Introduction aux séries temporelles,Septembre 2004 .

86

Vous aimerez peut-être aussi