Econométrie des séries temporelles
Master Finance de marché et trading
Semestre 2
Année universitaire : 2023-2024
Pr. : Mohamed BERAICH
1
Chapitre 1 : Processus stochastiques
En statistique descriptive, on s’intéresse à des séries d’observations
𝑥1 , 𝑥2 , … , 𝑥𝑁 où les 𝑥𝑗 sont des nombres réels. Lorsque la série est indexée
par le temps on dit que c’est une série chronologique. On pourrait alors
calculer la moyenne, la médiane, la variance, l’écart-type, ...
Les données sont généralement fournies sous forme de tableaux et peuvent
être représentées graphiquement sous forme de nuages de points reliés par
des segments.
𝑥𝑁 ∎
𝑥𝑁−1 ∎
𝑗 𝑥𝑗
1 𝑥1 𝑥3 ∎
3 𝑥3
⋮ ⋮ 𝑥2 ∎
N 𝑥𝑁 𝑥1 ∎
1 2 3 ⋯ 𝑁−1 𝑁 2
Exemples de séries chronologiques :
La série chronologique annuelle du PIB courant du Maroc entre 1960
et 2020 :
3
La série chronologique annuelle du taux de croissance en % du PIB
du Maroc entre 1960 et 2020 :
4
La série chronologique mensuelle de l’indice MASI entre 01/06/2019
et 01/06/2020 :
5
Objectif du cours :
Nous disposons dans la pratique d’une série chronologique obtenue à
partir d’observations 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝑻 entre la date 1 et la date T.
L’objectif est de déterminer une suite de variables aléatoires 𝑿𝟏 ,
𝑿𝟐 , … , 𝑿𝑻 pour lesquelles les observations 𝑥1 , 𝑥2 , … , 𝑥𝑇 seraient des
réalisations particulières. La suite 𝑿𝒕 s’appelle série temporelle ou
processus stochastique générateur (Data Generating Process) de la
série chronologique 𝑥𝑡 . Cette formalisation mathématique
(modélisation) permettrait par exemple de faire des prévisions dans le
futur aux dates 𝑇 + 1, 𝑇 + 2, ….
Dans ce cours on travaille avec des temps discret, c’est-à-dire 𝑡 ∈ ℤ.
6
Définition : Série temporelle ou processus stochastique
Une série temporelle ou processus stochastique est une suite de
variables aléatoires 𝑋𝑡 𝑡∈ℤ indexées par le temps.
Le processus 𝑋𝑡 𝑡∈ℤ est appelé un processus générateur de données
(Data Generating Process).
−2 −1 0 1 2
𝑡
𝑋−2 𝑋−1 𝑋0 𝑋1 𝑋2
7
Définitions :
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ .
1) L’espérance mathématique du processus 𝑋𝑡 𝑡∈ℤ est définie par :
+∞
𝐸 𝑋𝑡 = −∞ 𝑥 × 𝑓𝑋𝑡 𝑥 𝑑𝑥 = 𝜇𝑡 , ∀𝑡 ∈ ℤ
2) La variance du processus 𝑋𝑡 𝑡∈ℤ est définie par :
2 2
𝑉𝑎𝑟 𝑋𝑡 = 𝐸 𝑋𝑡 − 𝐸 𝑋𝑡 =𝐸 𝑋𝑡2 − 𝐸 𝑋𝑡 = 𝜎𝑡2 , ∀𝑡 ∈ ℤ
L’écart type du processus 𝑋𝑡 𝑡∈ℤ est défini par :
𝜎𝑡 = 𝑉𝑎𝑟 𝑋𝑡 , ∀𝑡 ∈ ℤ
8
3) La fonction d’auto-covariance du processus 𝑋𝑡 𝑡∈ℤ est définie par :
∀𝑡 ∈ ℤ, ∀ℎ ∈ ℤ
𝛾𝑡 ℎ = 𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡+ℎ = 𝐸 𝑋𝑡 − 𝐸 𝑋𝑡 𝑋𝑡+ℎ − 𝐸 𝑋𝑡+ℎ
𝑡 𝑡+ℎ
𝑋𝑡 𝑋𝑡+ℎ
La fonction d’auto-covariance généralise la variance :
2
𝛾𝑡 0 = 𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡 = 𝐸 𝑋𝑡 − 𝐸 𝑋𝑡 = 𝑉𝑎𝑟 𝑋𝑡
9
Définition : Processus stochastique stationnaire d’ordre 2
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ .
On dit que 𝑋𝑡 𝑡∈ℤ est un processus stochastique stationnaire d’ordre
deux ou stationnaire au sens faible si :
1) L’espérance mathématique est indépendante du temps 𝑡 :
𝐸 𝑋𝑡 = 𝜇, ∀𝑡 ∈ ℤ
2) La fonction d’auto-covariance est indépendante du temps 𝑡 :
𝛾 ℎ = 𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡+ℎ = 𝐶𝑜𝑣 𝑋𝑡−ℎ , 𝑋𝑡
ℎ>0 ℎ>0
𝑡−ℎ 𝑡 𝑡+ℎ
𝑋𝑡−ℎ 𝑋𝑡 𝑋𝑡+ℎ
𝛾 ℎ = 𝛾 −ℎ
Il est clair que : 𝛾 0 = 𝑉𝑎𝑟 𝑋𝑡 = 𝜎 2 10
Définition : Bruit blanc (White noise)
Soit un processus stochastique 𝜀𝑡 𝑡∈ℤ .
On dit que le processus 𝜀𝑡 𝑡∈ℤ est un bruit blanc s’il est stationnaire
et si : ∀𝑡 ∈ ℤ
1) 𝐸 𝜀𝑡 = 0
2
2) 𝛾 ℎ = 𝐸 𝜀𝑡 𝜀𝑡+ℎ =ቊ 𝜎 𝑠𝑖 ℎ=0
0 𝑠𝑖 ℎ≠0
où 𝜎 2 = 𝑉𝑎𝑟 𝜀𝑡 .
On dit que le bruit blanc est Gaussien ou Normal si 𝜀𝑡 ↝ 𝒩 0, 𝜎 2 .
Il est clair qu’un bruit blanc est indépendant et identiquement distribué
(i.i.d) car : ∀𝑡 ∈ ℤ
𝐸 𝜀𝑡 = 0
𝑉𝑎𝑟 𝜀𝑡 = 𝜎 2
𝐶𝑜𝑣 𝜀𝑡 , 𝜀𝑡+ℎ = 𝛾 ℎ = 0 pour tout ℎ ≠ 0 11
Simulation d’un bruit blanc gaussien 𝓝 𝟎, 𝟏 sur Eviews :
La fonction NRND (Normal Random) du logiciel Eviews permet de
simuler un bruit blanc 𝒩 0,1 . Cela signifie que l’appel de cette
fonction NRND dans un programme Eviews nous permet de générer
aléatoirement un échantillon d’observations ou de réalisations à partir
d’une population normale.
Exemple : Programme de simulation d’un bruit blanc gaussien
𝒩 0,1 sur Eviews
SMPL 1 100
GENR EPSILON=NRND
12
La 1ère ligne de ce programme définit la taille 100 de l’échantillon qui
va être généré.
La 2ème ligne génère un échantillon d’une série notée Epsilon grâce à
la fonction NRND.
Autrement dit, ce programme va choisir aléatoirement 100 nombres
d’une population 𝒩 0,1 et les sauvegarder dans le tableau
epsilon(1), epsilon(2), …, epsilon(100).
13
1 0.49075999757556
2 0.5244925120573605
3 0.2274332304684198
4 -0.7226177753713586
5 -0.8556306743745634
5 2.792415671283873
.... ....
93 -0.6323754328791562
94 0.7817387929096952
95 -0.7292922721299511
96 1.759290688409027
97 0.5061475830322093
98 0.521180423978198
99 2.96776447069802
100 0.6087177851829329
14
Définition : Opérateur retard
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ .
L’opérateur retard, noté 𝐿, est l’opérateur défini par : ∀𝑡 ∈ ℤ
𝐿. 𝑋𝑡 = 𝑋𝑡−1
𝑡−1 𝑡
𝑋𝑡−1 𝑋𝑡
𝐿
Propriétés de l’opérateur retard : ∀𝑡 ∈ ℤ, ∀𝑖 ∈ ℤ, ∀𝑗 ∈ ℤ
𝐿0 . 𝑋𝑡 = 𝑋𝑡
𝐿1 . 𝑋𝑡 = 𝐿. 𝑋𝑡 = 𝑋𝑡−1
𝐿𝑗 . 𝑋𝑡 = 𝑋𝑡−𝑗
Si 𝑋𝑡 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 = 𝑐 alors 𝐿𝑗 . 𝑋𝑡 = 𝐿𝑗 . 𝑐 = 𝑐
𝐿𝑖+𝑗 . 𝑋𝑡 = 𝐿𝑖 𝐿𝑗 . 𝑋𝑡 = 𝐿𝑗 𝐿𝑖 . 𝑋𝑡 = 𝑋𝑡−𝑖−𝑗 15
Exemple :
L’opérateur 𝐿2 est l’opérateur retard de 2 rangs.
𝐿2 . 𝑋𝑡 = 𝑋𝑡−2
L’opérateur 𝐿−2 est l’opérateur avance de 2 rangs.
𝐿−2 . 𝑋𝑡 = 𝑋𝑡+2
𝑡−2 𝒕 𝑡+2
𝑋𝑡−2 𝑿𝒕 𝑋𝑡+2
𝑳𝟐 𝑳−𝟐
Retard Avance
16
Définition : Polynôme retard
Un polynôme retard en 𝐿 d’ordre 𝑞 ∈ ℕ∗ est un opérateur 𝜓 défini
par :
𝑞
𝜓 𝐿 = 𝜓0 𝐿0 + 𝜓1 𝐿1 + 𝜓2 𝐿2 + ⋯ + 𝜓𝑞 𝐿𝑞 = 𝜓𝑗 𝐿𝑗
𝑗=0
où 𝜓0 , 𝜓1 , …, 𝜓𝑞 sont des nombres réels.
En général on choisit 𝜓0 = 1 et on note 𝐿0 = 1.
Si applique le polynôme retard 𝜓 𝐿 au processus 𝑋𝑡 on obtient :
𝑞 𝒒
𝝍 𝑳 . 𝑿𝒕 = σ𝑗=0 𝜓𝑗 𝐿𝑗 . 𝑋𝑡 = σ𝒋=𝟎 𝝍𝒋 . 𝑿𝒕−𝒋
= 𝜓0 𝑋𝑡 + 𝜓1 𝑋𝑡−1 + 𝜓2 𝑋𝑡−2 + ⋯ + 𝜓𝑞 𝑋𝑡−𝑞
17
Exemple :
Soit le polynôme retard d’ordre 3 défini par :
𝜓 𝐿 = 𝐿0 + 3𝐿1 + 2𝐿2 − 4𝐿3 = 1 + 3𝐿 + 2𝐿2 − 4𝐿3
On a :
𝜓 𝐿 . 𝑋𝑡 = 1 + 3𝐿 + 2𝐿2 − 4𝐿3 . 𝑋𝑡
= 𝑋𝑡 + 3𝐿𝑋𝑡 + 2𝐿2 𝑋𝑡 − 4𝐿3 𝑋𝑡
𝜓 𝐿 . 𝑋𝑡 = 𝑋𝑡 + 3𝑋𝑡−1 + 2𝑋𝑡−2 − 4𝑋𝑡−3
18
Définition : Polynôme retard d’ordre infini
Un polynôme retard en 𝐿 d’ordre infini est un opérateur 𝜓 défini par :
+∞
𝜓 𝐿 = 𝜓0 𝐿0 + 𝜓1 𝐿1 + 𝜓2 𝐿2 + ⋯ = 𝜓𝑗 𝐿𝑗
𝑗=0
où les 𝜓𝑗 sont des nombres réels.
On a :
+∞
𝜓 𝐿 . 𝑋𝑡 = 𝜓0 𝑋𝑡 + 𝜓1 𝑋𝑡−1 + 𝜓2 𝑋𝑡−2 + ⋯ = 𝜓𝑗 𝑋𝑡−𝑗
𝑗=0
19
Théorème : Décomposition de Wold
Soit un processus stochastique stationnaire 𝑋𝑡 𝑡∈ℤ . Alors il existe un
polynôme retard d’ordre infini 𝜓 𝐿 = σ+∞ 𝜓
𝑗=0 𝑗 𝐿 𝑗 et un bruit blanc
𝜀𝑡 𝑡∈ℤ tel que :
+∞ +∞
𝑋𝑡 = 𝜇 + 𝜓 𝐿 . 𝜀𝑡 = 𝜇 + 𝜓𝑗 𝐿𝑗 . 𝜀𝑡 = 𝜇 + 𝜓𝑗 𝜀𝑡−𝑗
𝑗=0 𝑗=0
On peut montrer que :
𝐸 𝑋𝑡 = 𝜇 𝑉𝑎𝑟 𝑋𝑡 = σ+∞ 2 2
𝑗=0 𝜓𝑗 𝜎𝜀
où 𝜎𝜀2 = 𝑉𝑎𝑟 𝜀𝑡 20
Déduisons l’espérance et la variance :
On a
𝐸 𝑋𝑡 = 𝐸 𝜇 + 𝜓 𝐿 . 𝜀𝑡 = 𝜇 + 𝐸 𝜓 𝐿 . 𝜀𝑡 = 𝜇 + 𝜓 𝐿 . 𝐸 𝜀𝑡
= 𝜇 + 𝜓 𝐿 .0 = 𝜇
𝑉𝑎𝑟 𝑋𝑡 = 𝑉𝑎𝑟 𝜇 + 𝜓 𝐿 . 𝜀𝑡 = 𝑉𝑎𝑟 𝜓 𝐿 . 𝜀𝑡 =
𝑉𝑎𝑟 σ+∞
𝑗=0 𝜓𝑗 𝐿 𝑗 . 𝜀 = 𝑉𝑎𝑟 σ+∞ 𝜓 𝜀
𝑡 𝑗=0 𝑗 𝑡−𝑗 = σ +∞ 2
𝑗=0 𝜓𝑗 𝑉𝑎𝑟 𝜀𝑡−𝑗
+∞
𝑉𝑎𝑟 𝑋𝑡 = 𝜓𝑗2 𝜎𝜀2
𝑗=0
Tout processus stochastique stationnaire est donc une combinaison
linéaire infinie de bruits blancs. Les bruits blancs sont appelés parfois
chocs ou innovations. 21
Définition : Moyenne Mobile (Moving Average)
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ .
On dit que le processus 𝑋𝑡 𝑡∈ℤ admet une représentation Moyenne
Mobile (Moving Average) d’ordre 𝑞, notée 𝑀𝐴(𝑞), s’il existe un
𝑞
polynôme retard 𝜓 𝐿 = σ𝑗=0 𝜓𝑗 𝐿𝑗 d’ordre 𝑞 avec 𝜓0 = 1 et 𝜓𝑞 ≠ 0
(polynôme 𝑀𝐴) et un bruit blanc 𝜀𝑡 𝑡∈ℤ tel que :
𝒒 𝒒
𝑿𝒕 = 𝝁 + 𝝍 𝑳 . 𝜺𝒕 = 𝝁 + 𝝍𝒋 𝑳𝒋 . 𝜺𝒕 = 𝝁 + 𝝍𝒋 𝜺𝒕−𝒋
𝒋=𝟎 𝒋=𝟎
𝑞
avec : 𝑬 𝑿𝒕 = 𝝁 , 𝑉𝑎𝑟 𝑋𝑡 = σ𝑗=0 𝜓𝑗2 𝜎𝜀2
𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡+ℎ = 𝜇2 , 𝑉𝑎𝑟 𝜀𝑡 = 𝜎𝜀2
22
Résultat important :
Tout processus stochastique MA est donc une combinaison linéaire
finie de bruits blancs.
Tout processus stochastique 𝑴𝑨(𝒒) est un processus stationnaire.
Exercice :
Soit le processus stochastique 𝑋𝑡 défini par :
𝑋𝑡 = 2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−2
où 𝜀𝑡 est un bruit blanc 𝒩 0,1 .
1) Montrer que 𝑋𝑡 est un processus Moyenne Mobile.
2) Ecrire un programme sur Eviews qui simule le processus 𝑋𝑡 en
générant un échantillon de taille 100.
23
Solution :
1) On a:
𝑋𝑡 = 2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−2 = 2 + 𝐿0 . 𝜀𝑡 − 0,5𝐿1 . 𝜀𝑡 + 2𝐿2 . 𝜀𝑡
= 2 + 𝐿0 − 0,5𝐿1 + 2𝐿2 . 𝜀𝑡
On pose :
𝜓 𝐿 = 𝐿0 − 0,5𝐿1 + 2𝐿2
Donc :
𝑋𝑡 = 2 + 𝜓 𝐿 . 𝜀𝑡
Comme le polynôme retard est d’ordre 2, il est clair que le processus
𝑋𝑡 est un processus 𝑀𝐴(2).
24
2) Simulation du processus 𝑋𝑡 sur Eviews :
𝑋𝑡 = 2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−2
SMPL 1 100
GENR Epsilon = NRND (ou SERIES Epsilon = NRND)
SMPL 3 100
GENR X = 2 + Epsilon − 0.5*Epsilon(−1) + 2*Epsilon(-2)
Explication :
Les deux premières lignes du programme permettent de générer
aléatoirement un échantillon de taille 100 à partir d’un bruit blanc
𝒩 0,1 grâce à la commande NRND.
25
On obtient ainsi 100 nombres réels sauvegardés dans le tableau
Epsilon : Epsilon(1), Epsilon(2),…, Epsilon(100).
Les deux dernières lignes du programme permettent de générer un
échantillon 𝑋(𝑡) de taille 98. Ces deux lignes exécutent la boucle :
Pour 3 ≤ 𝑡 ≤ 100 Faire :
𝑋(𝑡) = 2+Epsilon(t)-0.5*Epsilon(t-1)+2*Epsilon(t-2)
La boucle commence par 𝑡 = 3 : où on calcule
X(3)=2+Epsilon(3)-0.5*Epsilon(2)+2*Epsilon(1)
Ensuite, le compteur est incrémenté en passant à 𝑡 = 4 : où on calcule
X(4)=2+Epsilon(4)-0.5*Epsilon(3)+2*Epsilon(2)
Et ainsi de suite jusqu’au terme X(100).
26
27
Définition : Processus stochastique Autorégressif
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ .
On dit que le processus 𝑋𝑡 𝑡∈ℤ admet une représentation
autorégressive d’ordre 𝑝, notée 𝐴𝑅(𝑝), s’il existe un polynôme retard
𝑝
𝜙 𝐿 = σ𝑗=0 𝜙𝑗 𝐿𝑗 d’ordre 𝑝 avec 𝜙0 = 1 et 𝜙𝑝 ≠ 0 (polynôme 𝐴𝑅),
un bruit blanc 𝜀𝑡 𝑡∈ℤ et une constante 𝑐 tel que :
𝒑 𝒑
𝝓 𝑳 . 𝑿𝒕 = 𝝓𝒋 𝑳𝒋 . 𝑿𝒕 = 𝝓𝒋 . 𝑿𝒕−𝒋 = 𝒄 + 𝜺𝒕
𝒋=𝟎 𝒋=𝟎
𝑋𝑡 +𝜙1 𝑋𝑡−1 +𝜙2 𝑋𝑡−2 + ⋯ . +𝜙𝑝 𝑋𝑡−𝑝 = 𝑐 + 𝜀𝑡
𝑿𝒕 = −𝝓𝟏 𝑿𝒕−𝟏 −𝝓𝟐 𝑿𝒕−𝟐 − ⋯ −𝝓𝒑 𝑿𝒕−𝒑 + 𝒄 + 𝜺𝒕
𝒄
avec : 𝑬 𝑿𝒕 =
𝟏 + 𝝓𝟏 + 𝝓𝟐 + ⋯ + 𝝓𝒑 28
Preuve de la formule de l’espérance mathématique :
On a
𝑝
𝐸 𝜙 𝐿 . 𝑋𝑡 = 𝑐 + 𝐸 𝜀𝑡 ⟺ 𝜙𝑗 𝐿𝑗 . 𝐸 𝑋𝑡 = 𝑐 ⟺
𝑗=0
𝑝
𝑐
𝐸 𝑋𝑡 . 𝜙𝑗 𝐿𝑗 . 1 =𝑐⟺ 𝐸 𝑋𝑡 =
1 + 𝜙1 + 𝜙2 + ⋯ + 𝜙𝑝
𝑗=0
Remarque :
Pour un processus 𝐴𝑅, l’espérance mathématique est indépendante du
temps. La variance et la fonction d’autocovariance ne sont pas en
général indépendant du temps et par conséquent un processus 𝐴𝑅
n’est pas en général stationnaire.
29
Exercice :
Soit le processus stochastique 𝑋𝑡 défini par :
𝑋𝑡 = 0,02𝑋𝑡−1 + 0,04𝑋𝑡−2 + 𝑋𝑡−3 + 𝜀𝑡
où 𝜀𝑡 est un bruit blanc 𝒩 0,1 .
1) Montrer que 𝑋𝑡 est un processus autorégressif.
2) Ecrire un programme sur Eviews qui simule le processus 𝑋𝑡 en
générant un échantillon de taille 100.
30
Solution :
1) On a :
𝑋𝑡 = 0,02𝑋𝑡−1 + 0,04𝑋𝑡−2 + 𝑋𝑡−3 + 𝜀𝑡
⟺ 𝑋𝑡 − 0,02𝑋𝑡−1 − 0,04𝑋𝑡−2 − 𝑋𝑡−3 = 𝜀𝑡
⟺ 𝑋𝑡 − 0,02𝐿. 𝑋𝑡 − 0,04𝐿2 𝑋𝑡 − 𝐿3 𝑋𝑡 = 𝜀𝑡
⟺ 1 − 0,02𝐿 − 0,04𝐿2 − 𝐿3 . 𝑋𝑡 = 𝜀𝑡
Si on pose :
𝜙 𝐿 = 1 − 0,02𝐿 − 0,04𝐿2 − 𝐿3
On obtient :
𝜙 𝐿 . 𝑋𝑡 = 𝜀𝑡
31
On déduit que 𝑋𝑡 est un processus 𝐴𝑅 3 .
Comme la constante 𝑐 est nulle on déduit :
𝑐
𝐸 𝑋𝑡 = =0
1 + 𝜙1 + 𝜙2 + 𝜙3
2) Simulation du processus 𝐴𝑅 3 sous Eviews :
𝑋𝑡 = 0,02𝑋𝑡−1 + 0,04𝑋𝑡−2 + 𝑋𝑡−3 + 𝜀𝑡
SMPL 1 100
GENR Epsilon=NRND
SMPL 1 3
GENR X=0
SMPL 4 100
GENR X=0.02*X(-1)+ 0.04*X(-2)+ X(-3)+Epsilon 32
Explication :
Les deux premières lignes du programme permettent de générer
aléatoirement un échantillon de taille 100 à partir d’un bruit blanc
𝒩 0,1 grâce à la commande NRND. On a ainsi 100 nombres
réels sauvegardés dans le tableau Epsilon : Epsilon(1),
Epsilon(2),…, Epsilon(100).
Les deux lignes :
SMPL 1 3
GENR X=0
permettent d’initialiser à zéro les trois premières valeurs de la série 𝑋:
𝑋 1 =𝑋 2 =𝑋 3 =0
33
Les deux dernières lignes du programme :
SMPL 4 100
GENR X=0.02*X(-1)+ 0.04*X(-2)+ X(-3)+Epsilon
permettent de générer un échantillon 𝑋(𝑡) de taille 97. Ces deux
lignes exécutent la boucle :
Pour 4 ≤ 𝑡 ≤ 100 Faire :
X(t)= 0.02*X(t-1)+ 0.04*X(t-2)+ X(t-3)+Epsilon(t)
Par exemple pour 𝑡 = 4 on calcule :
X(4)= 0.02*X(3)+ 0.04*X(2)+ X(1)+Epsilon(1)
34
35
Définition : Processus stochastique ARMA
Soit un processus stochastique 𝑋𝑡 𝑡∈ℤ . On dit que le processus
𝑋𝑡 𝑡∈ℤ admet une représentation Autorégressive et Moyenne Mobile
d’ordres 𝑝 et 𝑞 notée 𝐴𝑅𝑀𝐴(𝑝, 𝑞), s’il existe un polynôme retard
𝑝
𝜙 𝐿 = σ𝑗=0 𝜙𝑗 𝐿𝑗 d’ordre 𝑝 avec 𝜙0 = 1 et 𝜙𝑝 ≠ 0 (polynôme 𝐴𝑅),
𝑞
un polynôme retard 𝜓 𝐿 = σ𝑗=0 𝜓𝑗 𝐿𝑗 d’ordre 𝑞 avec 𝜓0 = 1
(polynôme 𝑀𝐴) et 𝜓𝑞 ≠ 0, un bruit blanc 𝜀𝑡 𝑡∈ℤ et une constante 𝑐
tel que :
𝝓 𝑳 . 𝑿𝒕 = 𝒄 + 𝝍 𝑳 . 𝜺𝒕
𝒄
avec : 𝑬 𝑿𝒕 =
𝟏 + 𝝓𝟏 + 𝝓𝟐 + ⋯ + 𝝓𝒑
36
Exercice :
Soit le processus stochastique 𝑋𝑡 défini par :
𝑋𝑡 = 2 − 0,5𝑋𝑡−1 + 0,2𝑋𝑡−3 + 𝜀𝑡 − 0,5𝜀𝑡−1
où 𝜀𝑡 est un bruit blanc 𝒩 0,1 .
1) Montrer que 𝑋𝑡 est un processus ARMA.
2) Ecrire un programme sur Eviews qui simule le processus 𝑋𝑡 en
générant un échantillon de taille 100.
Solution :
1) On a :
𝑋𝑡 = 2 − 0,5𝑋𝑡−1 + 0,2𝑋𝑡−3 + 𝜀𝑡 − 0,5𝜀𝑡−1 ⟺
𝑋𝑡 + 0,5𝑋𝑡−1 − 0,2𝑋𝑡−3 = 2 + 𝜀𝑡 − 0,5𝜀𝑡−1 ⟺
37
𝑋𝑡 + 0,5𝐿𝑋𝑡 − 0,2𝐿3 𝑋𝑡 = 2 + 𝜀𝑡 − 0,5𝐿𝜀𝑡 ⟺
1 + 0,5𝐿 − 0,2𝐿3 𝑋𝑡 = 2 + 1 − 0,5𝐿 𝜀𝑡
On pose :
𝜙 𝐿 = 1 + 0,5𝐿 − 0,2𝐿3 et 𝜓 𝐿 = 1 − 0,5𝐿
Donc :
𝜙 𝐿 . 𝑋𝑡 = 2 + 𝜓 𝐿 . 𝜀𝑡
On déduit que 𝑋𝑡 est un processus 𝐴𝑅𝑀𝐴 3,1 .
On a aussi :
2 2 2
𝐸 𝑋𝑡 = = = = 1,54
1 + 𝜙1 + 𝜙2 + 𝜙3 1 + 0,5 − 0,2 1,3 38
2) Simulation du processus 𝐴𝑅𝑀𝐴 3,1 sous Eviews :
𝑋𝑡 = 2 − 0,5𝑋𝑡−1 + 0,2𝑋𝑡−3 + 𝜀𝑡 − 0,5𝜀𝑡−1
SMPL 1 100
GENR Epsilon=NRND
SMPL 1 3
GENR X=0
SMPL 4 100
GENR X=2-0.5*X(-1)+ 0.2*X(-3)+ Epsilon-0.5* Epsilon(-1)
Explication :
Les deux premières lignes permettent de générer aléatoirement un
échantillon de taille 100 à partir d’un bruit blanc 𝒩 0,1 grâce à la
commande NRND. On a ainsi 100 nombres réels sauvegardés dans
le tableau Epsilon : Epsilon(1), Epsilon(2),…, Epsilon(100).
39
Les deux lignes :
SMPL 1 3
GENR X=0
permettent d’initialiser à zéro les trois premières valeurs de la série
𝑋 : 𝑋(1) = 𝑋(2) = 𝑋(3) = 0
Les deux dernières lignes du programme :
SMPL 4 100
GENR X=2-0.5*X(-1)+ 0.2*X(-3)+ Epsilon-0.5* Epsilon(-1)
permettent de générer un échantillon 𝑋(𝑡) de taille 97. Ces deux
lignes exécutent la boucle :
Pour 4 ≤ 𝑡 ≤ 100 Faire :
X(t)=2-0.5*X(t-1)+ 0.2*X(t-3)+ Epsilon(t)-0.5* Epsilon(t-1) 40
Conditions de stationnarité des processus 𝑴𝑨, 𝑨𝑹 et 𝑨𝑹𝑴𝑨 :
Un processus 𝑀𝐴(𝑞) est toujours stationnaire.
Un processus 𝐴𝑅(𝑝) est stationnaire si toutes les racines de son
polynôme retard 𝐴𝑅 sont de modules strictement supérieurs à 1.
Un processus 𝐴𝑅𝑀𝐴(𝑝, 𝑞) est stationnaire si toutes les racines de
son polynôme retard 𝐴𝑅 sont de modules strictement supérieurs à 1.
Exercice :
Soient les processus stochastiques 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 définis par :
𝑋𝑡 = 5𝑋𝑡−1 − 4𝑋𝑡−2 + 𝜀𝑡
𝑌𝑡 = 0,1 + 𝜀𝑡 − 0,1𝜀𝑡−1 + 2𝜀𝑡−2 − 𝜀𝑡−3
𝑍𝑡 = −0,2 + 1,2𝑍𝑡−2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−3
1) Quel est le type de représentations des trois processus ?
2) Etudier la stationnarité des processus 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 .
3) Simuler sur Eviews les processus 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 .
41
Solution :
1) Etudions les processus 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 :
Processus 𝑋𝑡 :
𝑋𝑡 = 5𝑋𝑡−1 − 4𝑋𝑡−2 + 𝜀𝑡 ⟺ 𝑋𝑡 − 5𝑋𝑡−1 + 4𝑋𝑡−2 = 𝜀𝑡
⟺ 𝑋𝑡 − 5𝐿𝑋𝑡 + 4𝐿2 𝑋𝑡 = 𝜀𝑡 ⟺ 1 − 5𝐿 + 4𝐿2 𝑋𝑡 = 𝜀𝑡
Si on pose :
𝜙 𝐿 = 1 − 5𝐿 + 4𝐿2
On obtient :
𝜙 𝐿 . 𝑋𝑡 = 𝜀𝑡
On déduit que 𝑋𝑡 est un processus 𝐴𝑅 2 .
Comme la constante 𝑐 est nulle on a :
𝑐
𝐸 𝑋𝑡 = =0
1 + 𝜙1 + 𝜙2 42
Processus 𝑌𝑡 :
𝑌𝑡 = 0,1 + 𝜀𝑡 − 0,1𝜀𝑡−1 + 2𝜀𝑡−2 − 𝜀𝑡−3 ⟺
𝑌𝑡 = 0,1 + 𝜀𝑡 − 0,1𝐿𝜀𝑡 + 2𝐿2 𝜀𝑡 − 𝐿3 𝜀𝑡 ⟺
𝑌𝑡 = 0,1 + 1 − 0,1𝐿 + 2𝐿2 − 𝐿3 𝜀𝑡
Si on pose :
𝜓 𝐿 = 1 − 0,1𝐿 + 2𝐿2 − 𝐿3
On obtient :
𝑌𝑡 = 0,1 + 𝜓 𝐿 . 𝜀𝑡
On déduit que 𝑌𝑡 est un processus 𝑀𝐴 3 .
On a aussi :
𝐸 𝑋𝑡 = 0,1
43
Processus 𝑍𝑡 :
𝑍𝑡 = −0,2 + 1,2𝑍𝑡−2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−3 ⟺
𝑍𝑡 − 1,2𝑍𝑡−2 = −0,2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−3 ⟺
𝑍𝑡 − 1,2𝐿2 𝑍𝑡 = −0,2 + 𝜀𝑡 − 0,5𝐿𝜀𝑡 + 2𝐿3 𝜀𝑡 ⟺
1 − 1,2𝐿2 𝑍𝑡 = −0,2 + 1 − 0,5𝐿 + 2𝐿3 𝜀𝑡
Si on pose :
𝜙 𝐿 = 1 − 1,2𝐿2 et 𝜓 𝐿 = 1 − 0,5𝐿 + 2𝐿3
On obtient :
𝜙 𝐿 . 𝑍𝑡 = −0,2 + 𝜓 𝐿 . 𝜀𝑡
On déduit que 𝑍𝑡 est un processus 𝐴𝑅𝑀𝐴 2,3 .
On a aussi :
−0,2 0,2
𝐸 𝑍𝑡 =𝜇= =− = −1
1 + 𝜙1 + 𝜙2 1 − 1,2 44
2) Etudions la stationnarité des processus 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 :
Processus 𝑋𝑡 :
On a vu que le processus 𝑋𝑡 est un processus 𝐴𝑅(2) qui s’écrit :
1 − 5𝐿 + 4𝐿2 𝑋𝑡 = 𝜀𝑡
Cherchons les racines du polynôme autorégressif 𝜙 𝐿 = 1 − 5𝐿 +
4𝐿2 :
𝜙 𝑥 = 4𝑥 2 − 5𝑥 + 1 = 0
Le discriminant est égal à ∆= 25 − 16 = 9 et les deux racines réelles
sont :
5−3 1 5+3
𝑥1 = = 𝑥2 = =1
8 4 8
La première racine du polynôme a une valeur absolue égale à 0,25
qui est inférieure à 1 et la deuxième racine a une valeur absolue égale
à 1. Par conséquent, le processus 𝑋𝑡 n’est pas stationnaire. 45
Processus 𝑌𝑡 :
On a vu que le un processus 𝑌𝑡 est 𝑀𝐴 3 . Donc il stationnaire.
Processus 𝑍𝑡 :
On a vu 𝑍𝑡 est un processus 𝐴𝑅𝑀𝐴 2,3 . Cherchons les racines du
polynôme retard autorégressif 𝜙 𝐿 = 1 − 1,2𝐿2 .
Il est clair que :
𝜙 𝐿 = 1 − 1,2𝐿2 = 1 − 1,2𝐿 1 + 1,2𝐿
1 1 1
Donc il y a deux racines et − de modules = 0,91.
1,2 1,2 1,2
Les modules des deux racines étant inférieurs à 1 on déduit que le
processus 𝑍𝑡 n’est pas stationnaire.
46
3) Simulation sur Eviews des trois processus 𝑋𝑡 , 𝑌𝑡 et 𝑍𝑡 :
Processus 𝑋𝑡 :
𝑋𝑡 = 5𝑋𝑡−1 − 4𝑋𝑡−2 + 𝜀𝑡
SMPL 1 100
GENR Epsilon=NRND
SMPL 1 3
GENR X=0
SMPL 4 100
GENR X=5*X(-1)-4*X(-2)+Epsilon
Processus 𝑌𝑡 :
𝑌𝑡 = 0,1 + 𝜀𝑡 − 0,1𝜀𝑡−1 + 2𝜀𝑡−2 − 𝜀𝑡−3
SMPL 1 100
GENR Epsilon=NRND
SMPL 4 100
GENR Y=0.1+Epsilon-0.1*Epsilon(-1)+2*Epsilon(-2)-Epsilon(-3) 47
Processus 𝑍𝑡 :
𝑍𝑡 = −0,2 + 1,2𝑍𝑡−2 + 𝜀𝑡 − 0,5𝜀𝑡−1 + 2𝜀𝑡−3
SMPL 1 100
GENR Epsilon=NRND
SMPL 1 3
GENR Z=0
SMPL 4 100
GENR Z=-0.2+1.2*Z(-2)+Epsilon-0.5*Epsilon(-1)+2*Epsilon(-3)
48