0% ont trouvé ce document utile (0 vote)
107 vues11 pages

CoursSeriesTemp Chap3

Ce chapitre présente les méthodes d'identification des processus ARMA, notamment la méthode de Box et Jenkins fondée sur la comparaison des moments empiriques et théoriques. Il décrit les fonctions d'autocorrélation et d'autocorrélation partielle ainsi que leurs estimateurs.

Transféré par

Wajdi Frikha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
107 vues11 pages

CoursSeriesTemp Chap3

Ce chapitre présente les méthodes d'identification des processus ARMA, notamment la méthode de Box et Jenkins fondée sur la comparaison des moments empiriques et théoriques. Il décrit les fonctions d'autocorrélation et d'autocorrélation partielle ainsi que leurs estimateurs.

Transféré par

Wajdi Frikha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 3

Identi…cation des Processus ARMA


Chapitre 3. Identi…cation des Processus ARMA 38

La méthode d’identi…cation de Box et Jenkins (1976) est fondée sur la comparaison des
moments empiriques de la série considérée aux moments théoriques associés aux di¤érentes
représentations potentielles. On se concentre ici sur les moments d’ordre deux résumés par
la fonction d’autocorrélation (FAC) et la fonction d’autocorrélation partielle (FAP).

1. Fonction d’autocorrélation et fonction d’autocorrélation partielle


1.1. Fonction d’autocorrélation
1.1.1. Dé…nition

De…nition 1.1. La fonction d’autocorrélation d’un processus (xt ; t 2 Z) ; de moyenne E (xt ) =


m, notée ½ (k) ou ½k ; est dé…nie par 8k 2 Z :
° (k)
½ (k) = ½k = (1.1)
° (0)
avec ½ (k) 2 [¡1; 1] ; et où ° (k) = ° k désigne la fonction d’autocovariance, 8k 2 Z :

° (k) = ° k = E [(xt ¡ m) (xt¡k ¡ m)]

Remark 1. Les fonctions ° (k) et ½ (k) sont symétriques 8k 2 Z : ° (k) = ° (¡k) et ½ (k) =
½ (¡k)

1.1.2. Estimateur

De…nition 1.2. L’estimateur de la fonction d’autocorrélation, noté b


½ (k) ou b
½k ; obtenu pour
un échantillon de T réalisations du processus (xt ; t 2 Z) ; est donné par 8k 2 Z :
b (k)
°
b
½ (k) = (1.2)
°b (0)
où b ° k ) désigne l’estimateur de la fonction d’autocovariance 8k 2 Z+
° (k) (ou b
T ¡k
1 X
b
° (k) = (xt ¡ xt ) (xt¡k ¡ xt¡k )
T ¡ k t=1
avec
T ¡k
1 X
xt¡k = xt
T ¡ k t=1
Chapitre 3. Identi…cation des Processus ARMA 39

D’après le théorème central limite, la variable centré t½k suit une loi normale centrée
réduite :
½k ¡ ½k
b L
t½k = 1 8k 2 Z
¡! N (0; 1) (1.3)
V (b½k ) T !1 2

où V (b
½k ) désigne l’estimateur de la variance empirique des estimateurs b
½k :
K
1 X 2
V (b
½k ) = b
½ avec K < k (1.4)
T j=¡K j

En utilisant la symétrie des ½k ; on montre que :


à K
!
1 X 2
V (b ½k ) = 1+2 b
½j (1.5)
T j=1

Proposition 1.3. La statistique de Student associée au test H0 : ½k = 0; est donnée par :


b
½k L
tb½k = 1 ¡! N (0; 1) 8k 2 Z
T !1
V (b
½k ) 2

¯ ¯
Au seuil ® = 5%; si ¯tb½k ¯ ¸ 1:96; on rejette l’hypothèse H0 ; c’est à dire la nullité de ½k :

1.2. Fonction d’autocorrélation partielle


1.2.1. Dé…nition

L’autocorrélation partielle d’ordre k désigne la corrélation entre xt et xt¡k obtenue lorsque


l’in‡uence des variables xt¡k¡i ; avec i < k; a été retirée.

De…nition 1.4. L’autocorrélation partielle d’ordre k d’un processus (xt ; t 2 Z) ; de moyenne


E (xt ) = m, notée p (k) ou pk ; est dé…nie par le dernier coe¢cient de la projection linéaire
de xt+1 sur ces k plus récentes valeurs. 8k 2 Z :

xt+1 ¡ m = c1 (xt ¡ m) + c2 (xt¡1 ¡ m) + ::: + ck¡1 (xt¡k ¡ m) + pk (xt¡k+1 ¡ m) (1.6)

ou de façon équivalente par :


0 1 0 1¡1 0 1 0 1¡1 0 1
c1 °0 °1 : ° k¡1 °1 1 ½1 : ½k¡1 ½1
B c2 C B ° 1 °0 : ° k¡2 C B C B
° 2 C B ½1 1 : ½k¡2 C B ½2 C
B C B C B C B C
@ : A=@ : : : : A @ =
: A @ : : : : A @ : A
pk ° k¡1 ° k¡2 : °0 °k ½k¡1 ½k¡2 : 1 ½k
(1.7)
Chapitre 3. Identi…cation des Processus ARMA 40

Remark 2. Pour un processus centré, la FAP est une fonction telle que 8k 2 Z, p (k) 2
[¡1; 1]

Corollary 1.5. De façon générale, la fonction d’autocorrélation partielle d’un processus


stationnaire (xt ; t 2 Z) satisfait la relation

jPk¤ j
pk = 8k 2 N (1.8)
jPk j
avec 0 1
1 ½1 : ½k¡1
B ½1 1 : : C
Pk = B
@ :
C
A
: : :
½k¡1 : 1
et 0 1
1 ½1 : ½1
B ½1 1 : ½2 C
Pk¤ = B
@ :
C
: : : A
½k¡1 : ½k

Remark 3. Les trois premières autocorrélations partielles sont donc déterminées par les
relations suivantes :
p1 = ½1 (1.9)
½2 ¡ ½21
p2 = (1.10)
1 ¡ ½21
½31 ¡ ½1 ½2 (2 ¡ ½2 ) + ½3 (1 ¡ ½21 )
p3 = (1.11)
1 ¡ ½22 ¡ 2½21 (1 ¡ ½2 )

1.2.2. Estimation

Proposition 1.6. Un estimateur naturel pbk de l’autocorrélation partielle pk du processus


(xt ; t 2 Z) consiste en l’estimateur des M CO du dernier paramètre de la régression :

xt+1 = b "t 8k 2 Z
c + pb1 xt + pb2 xt¡1 + ::: + pbk xt¡k+1 + b (1.12)
Chapitre 3. Identi…cation des Processus ARMA 41

A partir de la relation (??), une autre façon d’obtenir les estimateurs pbk consiste à utiliser
les estimateurs des autocorrélations b
½k de la façon suivante :
jPk¤ j
pbk = 8k 2 N (1.13)
jPk j
avec 0 1
1 b
½1 : b
½k¡1
Bb½1 1 : : C
Pk = B
@ :
C
A
: : :
b
½k¡1 : 1
et 0 1
1 b
½1 : b
½1
B b
½1 1 : b½2 C
Pk¤ = B
@ :
C
: : : A
b
½k¡1 : b
½k

1.2.3. Cas particulier d’un AR(p)

Pour un AR (p) les coe¢cients pbk pour k > p; sont distribués selon une loi normale de
moyenne nulle et de variance :
1
pk ) u
var (b 8k > p
T

2. Les caractéristiques des processus AR(p)

On considère un processus (xt ; t 2 Z) stationnaire représenté par un AR (p) tel que :

xt = c + Á1 xt¡1 ::: + Áp xt¡p + "t

avec "t i:i:d: (0; ¾ 2" ) : On pose


© (L) xt = c + "t
avec
Xp
© (L) = Á0 ¡ Ái Li = 1 ¡ Á1 L ¡ Á2 L2 ::: ¡ Áp Lp
i=1
avec Á0 = 1:

Si le processus xt est stationnaire, alors toutes les racines du polynômes © (L) sont
strictement supérieures à 1 en module, ce qui implique en particulier que © (1) 6= 0; dès lors
c c c
m = E (xt ) = = Pp = (2.1)
© (1) Á0 ¡ i=1 Ái 1 ¡ Á1 ¡ Á2 ::: ¡ Áp
Chapitre 3. Identi…cation des Processus ARMA 42

2.1. Fonction d’autocorrélation

Proposition 2.1. Les autocovariances et les autocorrélations d’un processus AR (p) (xt ; t 2 Z)
satisfont la même équation aux di¤érences homogènes que le processus lui même.

2.1.1. Fonction d’autocovariance

On cherche tout d’abord à déterminer la fonction d’autocovariance

° k = E [(xt ¡ m) (xt¡k ¡ m)] 8k 2 Z (2.2)

Proposition 2.2. La fonction d’autocovariance ° k d’un processus AR (p) (xt ; t 2 Z) satis-


fait une relation de récurrence de la forme :
½
Á1 ° 1 + Á2 ° 2 ¡ ::: ¡ Áp ° p + ¾ 2" k=0
°k = (2.3)
Á1 ° k¡1 + Á2 ° k¡2 + ::: + Áp ° k¡p k>0
avec ° k = ° ¡k ; 8k 2 Z

Preuve : On considère la dé…nition de xt :

xt = c + Á1 xt¡1 ::: + Áp xt¡p + "t (2.4)

D’après la dé…nition de la fonction ° k ; on a 8k > 0

° k = E [(xt ¡ m) (xt¡k ¡ m)]


= E (cxt¡k ) + Á1 E (xt¡1 xt¡k ) ::: + Áp E (xt¡p xt¡k ) + E ("t xt¡k )
= Á1 ° k¡1 + Á2 ° k¡2 + ::: + Áp ° k¡p

puisque E ("t xt¡k ) = 0 car xt¡k ne dépend que des "t¡k¡j avec j ¸ 0: De la même façon :
£ ¤
° 0 = E (xt ¡ m)2 = E (cxt ) + Á1 E (xt¡1 xt ) ::: + Áp E (xt¡p xt ) + E ("t xt )
= Á1 ° k¡1 + Á2 ° k¡2 + ::: + Áp ° k¡p + E (xt "t )
= Á1 ° k¡1 + Á2 ° k¡2 + ::: + Áp ° k¡p + ¾ 2"

car E (xt "t ) = ¾ 2" puisque xt peut s’écrire sous la forme d’une somme pondérée des chocs
passés (théorème de Wold) :
1
X
xt = © (L)¡1 "t = µj "t¡j avec µ0 = 1
j=
Chapitre 3. Identi…cation des Processus ARMA 43

2.1.2. Fonction d’autocorrélation

On sait que par dé…nition :


° (k)
½ (k) = (2.5)
° (0)

Proposition 2.3. La fonction d’autocorrélation, notée ½ (k) ou ½k ; d’un processus AR (p)


(xt ; t 2 Z) satisfait une relation de récurrence de la forme :
½
1 k=0
© (L) ½k = 0 () ½k = (2.6)
Á1 ½k¡1 + Á2 ½k¡2 + ::: + Áp ½k¡p 8k 2 Z¤

Ces relations sont connues sous le nom d’équations de Yule-Walker .

L’autocorrélation d’ordre k est donc déterminée par une équation aux di¤érences ho-
mogènes d’ordre k dont on peut donner la solution générale.

Proposition 2.4. Si le polynôme © (L) admet p racines distinctes (¸i )pi=1 , l’autocorrélation
d’ordre k est déterminée par la relation
µ ¶k µ ¶k µ ¶k
1 1 1
½k = A1 + A2 + :: + Ap (2.7)
¸1 ¸2 ¸p

où les paramètres (Ai )pi=1 sont des constantes déterminées par les conditions initiales.

Corollary 2.5. Suivant les valeurs des racines ¸i on obtient deux cas :
² Si ¸i est une racine réelle telle que j¸i j > 1; alors le produit Ai ¸¡k
i décroit avec k et tend
vers 0 (exponentielle amortie).
² Si ¸i est une racine complexe de module strictement supérieur à l’unité, on obtient alors
une sinusoïde amortie.
Chapitre 3. Identi…cation des Processus ARMA 44

2.2. Fonction d’autocorrélation partielle

Proposition 2.6. Les autocorrélations partielles, notés pk ; d’un processus AR (p) xt =


c + Á1 xt¡1 ::: + Áp xt¡p + "t sont nulles pour tout ordre supérieur à p (pk = 0; 8k > p) et non
nulles pour tout ordre inférieur à p: De plus on a

pp = Áp (2.8)

Preuve : Il su¢t d’identi…er membres à membres les termes de la dé…nition de la FAC


et celle du processus xt :
xt = c + Á1 xt¡1 ::: + Áp xt¡p + "t

ce qui peut se récrire sous la forme

xt+1 ¡ m = Á1 (xt ¡ m) ::: + Áp (xt¡p+1 ¡ m) + "t

Dès lors le dernier coe¢cient de la projection linéaire de xt+1 sur les p plus récentes valeurs
est égal à Áp :

Remark 4. La fonction d’autocorrélation partielle d’un AR (p) s’annule à l’ordre p + 1

3. Les caractéristiques des processus M A (q)

On considère un processus (xt ; t 2 Z) stationnaire, d’espérance E (xt ) = m; représenté par


un M A (q) tel que :
xt = m + "t ¡ µ1 "t¡1 ::: ¡ µq "t¡q (3.1)

avec "t i:i:d: (0; ¾ 2" ) : On pose


xt = c + £ (L) "t

avec
£ (L) = 1 ¡ µ1 L ¡ µ2 L2 ::: ¡ µp Lp

avec µ0 = 1:
Chapitre 3. Identi…cation des Processus ARMA 45

3.1. Fonction d’autocorrélation


3.1.1. Fonction d’autocovariance

Proposition 3.1. La fonction d’aucovariance ° k d’un processus M A (q) (xt ; t 2 Z) dé…ni


par xt = m + "t ¡ µ1 "t¡1 ::: ¡ µ q "t¡q est donnée par la relation :
8 ¡ ¢
< 1 + µ 21 + µ22 + :: + µ2q ¾ 2" k=0
°k = 2
(¡µk + µ1 µk+1 + ::: + µ q¡k µq ) ¾ " 0 < k · q (3.2)
:
0 k>q

Preuve : Pour obtenir ce résultat, il su¢t de rappeler que E ("t "t¡j ) = 0 si j 6= 0 et


¡ 2 ¢
E "t¡j = ¾ 2" ; 8j: On a :

° (k) = E [(xt ¡ m) (xt¡k ¡ m)]


= E [("t ¡ µ1 "t¡1 ::: ¡ µq "t¡q ) ("t¡k ¡ µ1 "t¡1¡k ::: ¡ µq "t¡q¡k )]

En developpant cette expression on retrouve le résultat général énoncé ci-dessus.

3.1.2. Fonction d’autocorrélation

Proposition 3.2. La fonction d’autocorrélation ½k d’un processus M A (q) (xt ; t 2 Z) dé…ni


par xt = m + "t ¡ µ1 "t¡1 ::: ¡ µ q "t¡q est donnée par la relation :
8
> 1 k=0
° k < ¡µk +µ1 µk+1 +:::+µq¡k µq
½k = = 1+µ21 +µ22 +::+µ2q 0<k·q (3.3)
°0 > : 0 k>q

Remark 5. La fonction d’autocorrélation d’un M A (q) s’annule à l’ordre q + 1

3.2. Fonction d’autocorrélation partielle

Proposition 3.3. La fonction d’autocorrélation partielle pk d’un processus MA (q) (xt ; t 2 Z)


dé…ni par xt = m + "t ¡ µ 1 "t¡1 ::: ¡ µq "t¡q se comporte comme une exponentielle ou une si-
nusoïdale amortie.
Chapitre 3. Identi…cation des Processus ARMA 46

4. Les caractéristiques des processus ARM A (p; q)

On considère un processus (xt ; t 2 Z) stationnaire, d’espérance E (xt ) = m; représenté par


un ARM A (p; q) tel que :

xt ¡ Á1 xt¡1 ::: ¡ Áp xt¡p = m + "t ¡ µ1 "t¡1 ::: ¡ µq "t¡q (4.1)

avec "t i:i:d: (0; ¾ 2" ) : On pose


© (L) xt = c + £ (L) "t

4.1. Fonction d’autocorrélation


4.1.1. Fonction d’autocovariance

Proposition 4.1. La fonction d’autocovariance ° k d’un processus stationaire ARM A (p; q)


(xt ; t 2 Z) satisfait une relation de récurrence de la forme :

° k = Á1 ° k¡1 + Á2 ° k¡2 + ::: + Áp ° k¡p 8k > q (4.2)

On a donc la même relation de récurrence que pour un AR (p) (équations de Yule Walker),
mais cette dernière n’est valable que pour des ordres supérieurs à q. Cette relation n’est pas
valable pour k · q en raison de la corrélation entre xt¡j et µ j "t¡j :

4.1.2. Fonction d’autocorrélation

Proposition 4.2. La fonction d’autocorrélation ½k d’un processus stationaire ARM A (p; q)


(xt ; t 2 Z) satisfait une relation de récurrence de la forme :

½k = Á1 ½k¡1 + Á2 ½k¡2 + ::: + Áp ½k¡p 8k > q (4.3)

Tout comme pour le cas de l’AR (p) ; on peut obtenir une solution à cette équation.
Lorsque les p racines sont distinctes, cette solution est de la forme
µ ¶k µ ¶k µ ¶k
1 1 1
½k = A1 + A2 + :: + Ap 8k > q (4.4)
¸1 ¸2 ¸p

où les paramètres (Ai )pi=1 sont des constantes déterminées par les conditions initiales et où
les paramètres (¸i )pi=1 désignent les p racines distinctes du polynôme associé à la composante
Chapitre 3. Identi…cation des Processus ARMA 47

¡ ¢
autoregressive du processus : © (L) = 0: Mais dans ce cas les valeurs initiales ½1 :::½q sont
di¤érentes de celles obtenus pour l’AR (p) et les constantes (Ai )pi=1 sont donc elles mêmes
di¤érentes.

Vous aimerez peut-être aussi