0% ont trouvé ce document utile (0 vote)
65 vues19 pages

Stm2actuariat CHP2

Ce chapitre traite des séries temporelles stationnaires et introduit des concepts clés tels que les processus stochastiques, la stationnarité, et les outils d'analyse comme les fonctions d'autocovariance et d'autocorrélation. Il définit également les notions de stationnarité faible et stricte, ainsi que la prévision linéaire optimale. Enfin, il présente des exercices pour illustrer ces concepts et leur application dans l'analyse des séries temporelles.

Transféré par

Trésor DIN
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
65 vues19 pages

Stm2actuariat CHP2

Ce chapitre traite des séries temporelles stationnaires et introduit des concepts clés tels que les processus stochastiques, la stationnarité, et les outils d'analyse comme les fonctions d'autocovariance et d'autocorrélation. Il définit également les notions de stationnarité faible et stricte, ainsi que la prévision linéaire optimale. Enfin, il présente des exercices pour illustrer ces concepts et leur application dans l'analyse des séries temporelles.

Transféré par

Trésor DIN
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 2

Séries temporelles stationnaires

Nous introduisons dans ce chapitre quelques outils fondamentaux que nous utilise-
rons dans la suite du cours pour modéliser certains phénomènes aléatoires évoluant
avec le temps. Il définit les notions de processus stochastique et de stationnarité
ainsi que des outils d’analyse des processus stochastiques stationnaires comme les
fonctions d’autocovariance, d’autocorrélation et d’autocorrélation partielle, la fonc-
tion de densité spectrale. Enfin ce chapitre aborde une notion importante de l’étude
des séries temporelles : la prévision linéaire optimale.

2.1 Processus stochastiques stationnaires

2.1.1 Processus stochastiques : définitions et exemples


I Définitions

Définition 2.1. On appelle processus stochastique toute famille de variables aléa-


toires (Xt , t ∈ T) (encore notée (Xt )t∈T ) d’un espace probabilisé (Ω, F, P ) vers un
espace probabilisable (E, E) c’est-à-dire ∀ t ∈ T, Xt est une variable aléatoire de
(Ω, F, P ) vers (E, E).

L’ensemble T est appelé espace des temps et E espace des états.


Le processus stochastique (Xt , t ∈ T) est dit à temps discret si T ⊂ Z et à temps
continu si T est un intervalle de R.

17
CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Remarque 2.1. Si T ⊂ Z, (Xt , t ∈ T) est une série temporelle (ou série chronolo-
gique).
Définition 2.2. Soit ω ∈ Ω. La fonction X(ω) : T → R, t 7−→ Xt (ω) est appelée
une trajectoire du processus stochastique (Xt , t ∈ T).
I Exemples de processus stochastiques
Définition 2.3. On appelle bruit blanc faible tout processus (t )t∈Z tel que
(
0, si t 6= s ;
E(t ) = 0 ∀ t ∈ Z et cov(t , s ) = 2
σ , si t = s.

On note t ∼ BB(0, σ 2 ).
Définition 2.4. Le processus (t )t∈Z est un bruit blanc fort lorsque les variables
aléatoires t sont centrées, indépendantes et identiquement distribuées de variance
σ 2 . On note t ∼ IID(0, σ 2 )
Définition 2.5. On appelle bruit blanc gaussien tout bruit blanc fort (t )t∈Z tel
que ∀ t ∈ Z, t suit la loi normale N (0, σ 2 ).
Définition 2.6. Le processus (Xt )t∈Z est un processus gaussien si ∀ n ∈ N∗ ,
t1 , t2 , ..., tn ∈ Z, a1 , a2 , ..., an ∈ R, la variable aléatoire a1 Xt1 + a2 Xt2 + ... + an Xtn
suit une loi normale.
Définition 2.7. Le processus (Xt , t = 1, 2, ...) est un processus binaire si les
variables aléatoires Xt sont indépendantes à valeurs dans {−1, 1} telles que

1
P (Xt = −1) = P (Xt = 1) = .
2

Définition 2.8. On appelle marche aléatoire tout processus stochastique (St )t∈N
défini par S0 = 0 et
t
X
St = St−1 + Xt = Xi , t ≥ 1,
i=1

où X1 , X2 , ... est une suite de variables aléatoires indépendantes et identiquement


distribuées. Lorsque (Xt , t = 1, 2, ...) est un processus binaire, la marche aléatoire
(St )t∈N est dite symétrique simple.

N’DRIN Apala Julien 18 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

2.1.2 Processus stationnaires de second ordre


Dans de très nombreux cas, on ne peut pas renouveler la suite de mesures dans des
conditions parfaitement identiques (météo, économie,...). Alors pour que le modèle
déduit à partir d’une suite d’observations ait un sens, il faut que toute portion de
trajectoire observée fournisse des informations sur la loi de X et que des portions
différentes mais de même longueur fournissent les mêmes indications. C’est ce qui
nous amène à définir la notion de stationnarité.
Dans cette section, nous introduisons deux types de stationnarité, à savoir la station-
narité faible et la stricte stationnarité. Les deux exigent que les séries temporelles
présentent un certain comportement invariant dans le temps.

Définition 2.9. On dit qu’une variable aléatoire réelle (v.a.r) X est dans
L2 (Ω, A, P ) ou de carré integrable ou d’ordre 2 si E(X 2 ) < +∞.

Cet espace L2 (Ω, A, P ) est un espace de Hilbert muni du produit scalaire hX, Y i =
p
E(XY ) et de la norme kXkL2 = E(X 2 ).
On a donc dans cet espace X ⊥ Y ⇐⇒ E(XY ) = 0 (Cov(X, Y ) = 0 si les variables
aléatoires X et Y sont centrées).

Définition 2.10. Une série temporelle (Xt , t ∈ T) est dite de second ordre si la
variable aléatoire Xt est dans L2 (Ω, A, P ), ∀ t ∈ T.

Définition 2.11. Soit (Xt )t∈Z une sérié temporelle telle que E(Xt2 ) < +∞ ∀ t ∈ Z.
- La fonction moyenne de (Xt )t∈Z est définie par µX (t) = E(Xt ).
- La fonction de covariance de (Xt )t∈Z est définie par γX (r, s) = Cov(Xr , Xs ) =
E [(Xr − µX (r))(Xs − µX (s))] = E (Xr Xs ) − E(Xr )E(Xs ), pour tous entiers r et s.

Définition 2.12. Un processus stochastique (Xt )t∈Z est dit stationnaire de se-
cond ordre (ou faiblement stationnaire ou stationnaire) si et seulement si :
(i) E(Xt ) est indépendant de t : E(Xt ) = µ, ∀ t ∈ Z ;
(ii) Xt est de carré intégrable pour tout t ∈ Z : E(Xt2 ) < ∞ ;
(iii) γX (r, s) = γX (r + t, s + t) pour tous r, s, t ∈ Z.

Dans cette définition, la propriété (i) exprime la stationnarité en moyenne, la pro-


priété (ii) assure que la variance de chaque variable aléatoire est finie et la propriété
(iii) traduit l’invariance de la structure de covariance.

N’DRIN Apala Julien 19 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Remarque 2.2. La propriété (iii) signifie que γX (r, s) ne dépend de r et s qu’à


travers leur différence |r − s|.

Remarque 2.3. Compte tenu de la condition (iii), si (Xt )t∈Z est stationnaire, alors
γX (r, s) = γX (r − s, 0) ∀ r, s ∈ Z. Il convient de redéfinir la fonction de covariance
d’un processus stationnaire comme une fonction d’une seule variable :

γX (h) ≡ γX (h, 0) = Cov(Xt+h , Xt ).

Propriétés 2.1. Si (Xt )t∈Z est un processus stationnaire, alors V ar(Xt ) =


Cov(Xt , Xt ) = γX (0) ne dépend pas de t.
On dit que le processus est homoscédastique. Dans le cas contraire, il est dit hété-
roscédastique.

Une autre notion importante et fréquemment utilisée de stationnarité est introduite


dans la définition suivante.

Définition 2.13. Un processus stochastique (Xt )t∈Z est dit strictement station-
naire si et seulement si ∀ n ∈ N∗ , t1 , t2 , ..., tn ∈ Z et ∀ h ∈ Z, la loi conjointe de
(Xt1 +h , Xt2 +h , ..., Xtn +h ) ne dépend pas de h c’est-à-dire

0 L 0
(Xt1 , Xt2 , ..., Xtn ) = (Xt1 +h , Xt2 +h , ..., Xtn +h ) ∀ t1 , t2 , ..., tn ∈ Z et ∀ h ∈ Z.

Exemple 2.1. Une suite de variables aléatoires indépendantes et identiquement


distribuées est strictement stationnaire.

Propriétés 2.2. Si (Xt )t∈Z est une série temporelle strictement stationnaire, alors :
- la loi de Xt ne dépend pas de t c’est-à-dire les variables aléatoires Xt sont inden-
tiquement distribuées ;
0 0
- les vecteurs (Xt , Xt+h ) et (X1 , X1+h ) ont la même loi ∀ t ∈ Z et ∀ h ∈ Z.

Remarque 2.4. Si (Xt )t∈Z est strictement stationnaire et E(Xt2 ) < +∞ ∀ t ∈ Z,


alors Xt est stationnaire. La réciproque est fausse en général. Toutefois, si (Xt )t∈Z
est gaussien, alors les concepts de stationnarité et de stricte stationnarité coïncident.

N’DRIN Apala Julien 20 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Exercice 2.1
Montrer que le bruit blanc est un processus stationnaire.

Exercice 2.2
On considère la marche aléatoire (Xt )t∈N définie par Xt = Xt−1 + t , t ∈ N∗ où (t )
est une suite de variables aléatoires indépendantes et identiquement distribuées de
loi normale N (0, σ 2 ).
1. Réécrire Xt en fonction de X0 et des t .
2. Calculer l’espérance de Xt .
3. On suppose que X0 n’est pas aléatoire mais que c’est une donnée initiale.
Calculer Cov(Xt , Xt+h ) pour h ≥ 0. En déduire qu’une marche aléatoire n’est pas
stationnaire.
4. En déduire la variance de Xt . Que peut-on dire ?

2.1.3 Fonctions caractéristiques d’une série temporelle sta-


tionnaire
2.1.3.1 Fonctions d’autocovariance et d’autocorrélation

Définition 2.14. Soit (Xt )t∈Z une série temporelle stationnaire. Sa fonction d’au-
tocovariance, notée γX (.), est la fonction définie sur Z par

γX : Z → R
h 7→ γX (h) = Cov(Xt+h , Xt ) ∀ t ∈ Z.

Le graphe de cette fonction est appelé variogramme.

Propriété 2.1. Si γ est la fonction d’autocovariance d’un processus stationnaire


(Xt )t∈Z , alors :
(i) γX (0) ≥ 0 ;
(ii) |γX (h)| ≤ γX (0) ∀ h ∈ Z ;
(iii) γX (−h) = γX (h).

Preuve : En exercice.

N’DRIN Apala Julien 21 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Définition 2.15. Une fonction réelle K : Z → R est dite définie positive si


n
X
ai K(ti − tj )aj ≥ 0. ∀ n ∈ N∗ , ∀ t1 , t2 , ..., tn ∈ Z et ∀ a1 , a2 , ..., an ∈ R.
i,j=1

Exercice
Montrer que la fonction d’autocovariance d’un processus
n stationnaire
 (Xt )t∈Z est
P
définie positive. Pour cela, on pourra calculer V ar ai Xt−i .
i=1

Théorème 2.1. Une fonction réelle définie sur Z est la fonction d’autocovariance
d’une série temporelle stationnaire si et seulement si elle est paire et définie positive.

Définition 2.16. Soit (Xt )t∈Z un processus stationnaire. Sa fonction d’autocorréla-


tion, notée ρX (.), est la fonction définie sur Z par

ρX : Z → R
γX (h)
h 7→ ρX (h) = = corr(Xt+h , Xt ) ∀ t ∈ Z.
γX (0)

Le graphe de cette fonction est appelé corrélogramme.

Propriété 2.2. Si ρX (.) est la fonction d’autocorrélation d’un processus stationnaire


(Xt )t∈Z , alors :
(i) ρX (0) = 1 ;
(ii) |ρX (h)| ≤ 1 ∀ h ∈ Z ;
(iii) ρX (−h) = ρX (h).

Remarque 2.5. Comme la fonction d’autocovariance, la fonction d’autocorrélation


d’un processus stationnaire est définie positive.

Exercice 2.3
Déterminer la fonction d’autocovariance et d’autocorrélation d’un bruit blanc.

2.1.3.2 Fonction d’autocorrélation partielle

La fonction d’autocorrélation partielle, comme la fonction d’autocorrélation, trans-


met des informations vitales concernant la structure de dépendance d’un processus

N’DRIN Apala Julien 22 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

stationnaire. Comme la fonction d’autocorrélation, elle ne dépend que des propriétés


de second ordre du processus. La fonction d’autocorrélation partielle αX (.) exprime
le lien entre X1 et X1+h lorsqu’on a retiré leur meilleure explication affine en termes
de X2 , ..., Xh . L’idée est précisée dans la définition suivante.

Définition 2.17. Soit (Xt )t∈Z un processus stationnaire. Sa fonction d’autocorréla-


tion partielle, notée αX (.), est définie par

 1, si h = 0 ;


αX (h) = corr(X2 , X1 ) = ρX (1), si h = 1 ;
  
 corr Xh+1 − Pe(Xh+1 |H2,h ), X1 − Pe(X1 |H2,h ) , si h ≥ 2,

1 1

où Pe(Xh+1 |H12,h ) est la projection de Xh+1 sur H12,h = {1, X2 , ..., Xh }.


Le graphe de cette fonction est appelé corrélogramme partiel.

Remarque 2.6. L’autocorrélation partielle αX (h), h ≥ 2 est donc la corrélation des


deux résidus obtenus après régression de Xh+1 et X1 sur les observations intermé-
diaires X2 , ..., Xh .

La proposition suivante permet de déterminer explicitement la fonction d’autocor-


rélation partielle d’une série temporelle stationnaire.

Proposition 2.1. Soit (Xt )t∈Z une série temporelle stationnaire de moyenne nulle
et de fonction d’autocovariance γX (.) telle que γX (h) → 0 quand h → ∞. Alors, sa
fonction d’autocorrélation partielle αX (.) est donnée par

αX (h) = φhh , ∀ h ≥ 1,

−1
où φhh est la dernière composante du vecteur RX,h ρX,h avec

0
RX,h = [ρX (i − j)]hi,j=1 et ρX,h = (ρX (1), ..., ρX (h)) .

Proposition 2.2. Pour tout processus stationnaire, on a :

ρX (2) − ρ2X (1)


αX (2) = .
1 − ρ2X (1)

N’DRIN Apala Julien 23 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

2.1.3.3 Fonction de densité spectrale

Une série temporelle peut être analysée en étudiant son domaine temporel lié aux
caractéristiques telles que la moyenne, la variance et les autocovariances. Cependant,
elle peut également être décrite par ses propriétés liées au domaine fréquentiel telles
que la densité spectrale. Le domaine fréquentiel est particulièrement approprié pour
analyser des séries chronologiques présentant des comportements périodiques ou
saisonniers.

Définition 2.18. Soit (Xt )t∈Z un processus stationnaire centré dont la fonction
P
d’autocovariance γX (.) est absolument sommable c’est-à-dire |γX (h)| < +∞. On
h∈Z
appelle densité spectrale de {Xt }, la fonction f (.) définie sur R par :

1 X 1 X
f (λ) = γX (h) exp(−iλh) = γX (h) (cos(λh) − i sin(λh)) .
2π h∈Z 2π h∈Z

Exercice 2.4
Déterminer la densité spectrale d’un bruit blanc.

Remarque 2.7. Comme la fonction cosinus est paire et la fonction sinus est im-
paire, la densité spectrale d’une série temporelle stationnaire peut s’écrire :

+∞
!
1 X
f (λ) = γX (0) + 2 γX (h) cos(λh) .
2π h=1

Comme les fonctions cosinus et sinus sont périodiques de période 2π, la densité
spectrale l’est aussi. On peut se limiter aux valeurs de f (.) sur l’intervalle ] − π; π].

Propriétés 2.3. Soit f (.) la densité spectrale d’un processus stationnaire (Xt )t∈Z
de fonction d’autocovariance γX (.). Alors
(i) f (.) est paire : f (−λ) = f (λ) ;
(ii) f (λ) ≥ 0 pour tout λ ∈] − π; π] ;
Rπ Rπ
(iii) γX (h) = −π f (λ) exp(iλh)dλ = −π f (λ) cos(λh)dλ.

La définition 2.18 exige que la fonction d’autocovariance du processus stationnaire


soit absolument sommable. Cependant, même si cette condition n’est pas vérifiée, il
peut exister une densité spectrale définie de la manière suivante.

N’DRIN Apala Julien 24 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Définition 2.19. Une fonction f (.) est une densité spectrale d’une série temporelle
stationnaire (Xt )t∈Z de fonction d’autocovariance γX (.) si

(i) f (λ) ≥ 0 ∀ λ ∈] − π, π]
Z π
(ii) γX (h) = exp(iλh)f (λ)dλ ∀ h ∈ Z.
−π

Proposition 2.3. Une fonction réelle f définie sur ]−π; π] est une densité spectrale
d’un processus stationnaire réel si et seulement si
Z π
f (λ) = f (−λ), f (λ) ≥ 0 et f (λ)dλ < ∞.
−π

Corollaire 2.1. Une fonction absolument sommable γ(.) est la fonction d’autoco-
variance d’une série temporelle stationnaire si et seulement si elle est paire et

+∞
1 X
f (λ) = exp(−ihλ)γ(h) ≥ 0, ∀ λ ∈] − π, π].
2π h=−∞

Dans ce cas f (.) est la densité spectrale de γ(.).

Théorème 2.2. (Représentation spectrale de la fonction d’autocovariance)


Une fonction γ(.) définie sur Z est la fonction d’autocovariance d’une série tem-
porelle stationnaire si et seulement si il existe une fonction F (.) continue à droite,
croissante et bornée sur [−π; π] avec F (−π) = 0 telle que
Z
γ(h) = eihλ dF (λ) ∀ h ∈ Z.
]−π;π]

La fonction F (.) est appelée fonction de distribution spectrale de la fonction d’auto-


covariance γ(.).

Pour une série temporelle réelle, la fonction de distribution spectrale F (.) est symé-
trique dans le sens que
Z Z
dF (x) = dF (x) ∀ a, b tels que 0 < a < b.
]a;b] [−b;−a[

N’DRIN Apala Julien 25 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Remarque 2.8. Si la fonction de distribution spectrale F (.) a une densité f (.) telle
que Z λ
F (λ) = f (ω)dω ∀ λ ∈ [−π; π],
−π

alors f (.) est appelée fonction de densité spectrale et on dit que la série temporelle
a un spectre continue.

2.2 Filtres linéaires et processus linéaires

2.2.1 Opérateurs avance et retard


Définition 2.20. On rappelle que l’opérateur retard est l’opérateur noté B qui à
tout processus (Xt )t∈Z associe le processus (Yt )t∈Z défini par

∀ t ∈ Z, Yt = BXt = Xt−1 .

L’opérateur B est linéaire et inversible. Son inverse B −1 = F est défini par

∀ t ∈ Z, F Xt = Xt+1 .

L’opérateur F est appelé opérateur avance.

Propriétés 2.4. Soient {Xt } et {Yt } deux processus stochastiques.


(i) Si Xt = c avec c une constante, alors BXt = c et F Xt = c.
(ii) ∀k ∈ N, B k Xt = Xt−k et F k Xt = Xt+k .
(iii) Pour tous nombres réels a et b et tous entiers m et n, on a :
(aB m + bB n )(Xt + Yt ) = aXt−m + aYt−m + bXt−n + bYt−n .

2.2.2 Opérateur de différenciation


Définition 2.21. On rappelle que l’opérateur de différenciation est l’opérateur
noté ∆ = 1 − B défini par

∆Xt = (1 − B)Xt = Xt − Xt−1 .

N’DRIN Apala Julien 26 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Proposition 2.4. L’opérateur 1 − λB est inversible si et seulement si |λ| =


6 1. Son
inverse est donné par
 +∞
P i i
λB, si |λ| < 1 ;



(1 − λB)−1 = i=0
+∞
1
F i,
P
 − si |λ| > 1.


λi
i=0

Considérons le cas plus général de l’opérateur polynomial. Soit le polynôme


p
X
p
Φ(z) = 1 − φ1 z − ... − φp z = 1 − φi z i .
i=1

Proposition 2.5. L’opérateur Φ(B) est inversible si et seulement si les racines du


polynôme Φ sont de module différent de 1.

2.2.3 Filtrage linéaire de séries temporelles


Définition 2.22. On dit qu’un processus stochastique (Yt , t ∈ Z) est obtenu à
partir d’un processus stochastique (Xt , t ∈ Z) par application d’un filtre linéaire
Ψ = {ψj , j ∈ Z} si
+∞
X
Yt = Ψ(B)Xt = ψj Xt−j .
j=−∞

- Le processus {Xt } est le processus d’entrée et {Yt } est le processus de sortie.


+∞
P
- Le filtre linéaire est dit causal si ψj = 0 pour tout j < 0 et donc Yt = ψj Xt−j .
j=0
+∞
P
- Le filtre est dit absolument sommable si |ψj | < +∞.
j=−∞
En particuler, si {Xt } est un bruit blanc, {Yt } est appelé processus linéaire.

Définition 2.23. La série temporelle (Yt )t∈Z est un processus linéaire si elle peut
être écrite sous la forme

+∞
X +∞
X
Yt = ψj t−j avec |ψj | < +∞
j=−∞ j=−∞

où (t )t∈Z est un bruit blanc de variance σ 2 et (ψj ) une suite de nombres.

N’DRIN Apala Julien 27 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

En utilisant l’opérateur retard B, un processus linéaire Yt peut s’écrire de la manière


suivante :
+∞
X
Yt = ψ(B)t où ψ(B) = ψj B j .
j=−∞

Définition 2.24. Un processus linéaire (Yt )t∈Z est dit moyenne mobile ou M A(∞)
si ψj = 0 pour tout j < 0 c’est-à-dire

+∞
X
Yt = ψj t−j .
j=0

Proposition 2.6. Soit (Xt )t∈Z une série temporelle stationnaire de moyenne µX
et de fonction d’autocovariance γX (.). Si la suite de réels (ψj )j∈Z est absolument
+∞
P
sommable, c’est-à-dire si |ψj | < +∞, alors la série (Yt )t∈Z définie par
j=−∞

+∞
X
Yt = ψ(B)Xt = ψj Xt−j ,
j=−∞

existe et est également stationnaire. La moyenne µY et la fonction d’autocovariance


γY de la série (Yt )t∈Z sont alors telles que

+∞
X +∞ X
X +∞
µY = µX ψj et γY (h) = ψk ψj γX (h + k − j).
j=−∞ k=−∞ j=−∞

Proposition 2.7. Soit (Xt )t∈Z un processus stationnaire dont la densité spectrale
existe et est notée fX (.). La série temporelle (Yt )t∈Z définie par

+∞
X +∞
X
Yt = ψ(B)Xt = ψj Xt−j , avec |ψj | < +∞
j=−∞ j=−∞

est un processus stationnaire de densité spectrale

+∞ 2
X
fY (w) = fX (w) ψj exp(−iwj) .
j=−∞

N’DRIN Apala Julien 28 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

En particulier, pour le processus linéaire, on a le résultat suivant :

Proposition 2.8. Si (Xt )t∈Z est un processus linéaire, alors (Xt )t∈Z est stationnaire.
Sa fonction d’autocovariance γX (.) et sa densité spectrale fX (.) sont données par

+∞ +∞ 2
2
X σ2 X
γX (h) = σ ψj ψj+h et fX (w) = ψj exp(−iwj) .
j=−∞
2π j=−∞

2.3 Prévision des séries temporelles stationnaires

2.3.1 Prévision linéaire optimale


Les problèmes statistiques posés par les séries temporelles ne se limitent pas à celui
de l’estimation des moyennes et des fonctions d’autocovariance ou d’autocorrélation
du processus. Un objectif important dans l’étude de telles séries est de pouvoir
prédire les valeurs non encore observées de la série et cela à des horizons plus ou
moins éloignés. Nous allons maintenant introduire la méthode la plus couramment
utilisée à cet effet : la prévision linéaire optimale.
Soit {Xt } un processus stationnaire de moyenne µ et de fonction d’autocovariance
γ(.). On s’intéresse au problème de prédiction de Xn+h sachant {X1 , ..., Xn } pour
h > 0 à l’aide d’un prédicteur linéaire, noté X en+h , de la forme :

n
X
X
en+h = α0 + α1 Xn + α2 Xn−1 + ... + αn X1 = α0 + αi Xn+1−i , (2.1)
i=1

où les coefficients α0 , α1 , α2 , ..., αn sont des nombres réels.


Les nombres α0 , α1 , α2 , ..., αn sont déterminés en minimisant l’erreur quadratique
moyenne, EQM (.), définie par :
 2
en+h = E (Xn+h − α0 − α1 Xn − ... − αn X1 )2 .
EQM (α0 , ..., αn ) = E Xn+h − X

Ces coefficients sont solutions des équations suivantes :

∂EQM (α0 , ..., αn )


= 0, j = 0, ..., n (2.2)
∂αj

N’DRIN Apala Julien 29 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

qui peuvent s’exprimer de la manière suivante :


  n

P
 E Xn+h − α0 − αi Xn+1−i = 0, ;


i=1

Pn
  (2.3)
 E Xn+h − α0 − αi Xn+1−i Xn+1−j = 0, j = 1, ..., n.


i=1

Ces équations peuvent s’écrire sous la forme :

n
!
X
α0 = µ 1 − αi et Γn Λn = γn (h) avec (2.4)
i=1

 
    γ(0) γ(1) ... γ(n − 1)
α1 γ(h)  
 γ(1) γ(0) ... γ(n − 2) 
 .  .
     
 
     . . ... . 
Λn =  .  , γn (h) =  .  , Γn = 
   
 
  . . ... . 
 .  .
     
   . . ... . 
αn γ(n + h − 1)
 
γ(n − 1) ... γ(1) γ(0)
0
où Γn = [γi−j ]ni,j=1 est la matrice de covariance du vecteur (X1 , ..., Xn ) . Ainsi,

n
X
X
en+h = µ + αi (Xn+1−i − µ) . (2.5)
i=1

Remarque 2.9. Si {Xt } est centré, alors le premier coefficient α0 est nul.
 
De la relation (2.5), il ressort que E Xn+h − X
en+h = 0. Par conséquent l’erreur
quadratique moyenne est égale à

 2 n
X n X
X n
E Xn+h − X
en+h = γ(0) − 2 αi γ(h + i − 1) + αi γ(i − j)αj
i=1 i=1 j=1
0
= γ(0) − Λn γn (h)

où la dernière relation provient de la relation Γn Λn = γn (h).


Si Γn est inversible, alors

0
Λn = (α1 , ..., αn ) = Γ−1
n γn (h). (2.6)

N’DRIN Apala Julien 30 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Une condition suffisante d’inversibilité de la matrice Γn est donnée dans la proposi-


tion ci-dessous.

Proposition 2.9. Si γ(0) > 0 et γ(h) −→ 0 quand h −→ +∞, alors Γn est


inversible pour tout n.

Remarque 2.10. Soit m un entier négatif et Xm , ..., X0 , X1 , ..., Xn une suite d’ob-
servations d’un processus stationnaire {Xt }. On désigne par X em,n+h le prédicteur
linéaire de Xn+h sachant son passé {Xm , ..., X0 , X1 , ..., Xn }. On pose

X
e−∞,n+h = lim X
em,n+h .
m→−∞

n
e−∞,n+h = Pe(Xn+h |H−∞
X ) est appelé prédicteur linéaire de Xn+h sachant son passé
infini {Xt , −∞ < t ≤ n}.

2.3.2 Algorithmes de prévision


Pour n assez grand, on ne peut utiliser la relation (2.6) car cela reviendrait à in-
verser une matrice de grande taille. Il existe, cependant, des solutions itératives ne
nécessitant pas d’inversion de matrice. Nous présentons deux algorithmes permet-
tant d’effectuer des prévisions itératives des processus stationnnaires : l’algorithme
de Durbin-Levinson et l’algorithme des innovations utilisés pour des prévisions à
l’horizon h = 1 mais pouvant être utilisés pour des horizons h > 1.

2.3.2.1 Algorithme de Durbin-Levinson


en+1 de Xn+1 sachant le passé {X1 , ..., Xn }
On sait que la prévision linéaire optimale X
est de la forme
Xen+1 = φn,1 Xn + .... + φn,n X1 , n ≥ 1. (2.7)

Par ailleurs, on désigne par vn l’erreur quadratique moyenne de la prévision :


 2
vn = E Xn+1 − X
en+1 , n ≥ 1.

L’algorithme de Durbin-Levinson permet de déterminer les valeurs de φn =


(φn,1 , ..., φn,n ) et de vn pour n ≥ 1.

N’DRIN Apala Julien 31 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Proposition 2.10. (Algorithme de Durbin-Levinson)


Si (Xt )t∈Z est un processus stationnaire centré dont la fonction d’autocovariance
γX (.) vérifie γX (0) > 0 et γX (h) → 0 quand h → +∞, alors les coefficients φn,j et
l’erreur quadratique moyenne vn sont tels que

γX (1)
φ1,1 = et v0 = γX (0);
γX (0)
n−1
!
X
−1
φn,n = γX (n) − φn−1,j γX (n − j) vn−1 ;
j=1
     
φn,1 φn−1,1 φn−1,n−1
     

 . 


 . 


 . 

.  =  .  − φn,n  .
     
 
     

 . 


 . 


 . 

φn,n−1 φn−1,n−1 φn−1,1

et
vn = vn−1 (1 − φ2n,n ).

2.3.2.2 Algorithme des innovations

L’algorithme des innovations est une application directe de la méthode de Gram-


Schmidt et est, à cet égard, plus élémentaire que l’algorithme de Durbin-Levinson.
Il ne suppose de plus pas que le processus (Xt )t∈Z soit stationnaire. Son application
peut toutefois être simplifiée dans certains cas particuliers.
Supposons, sans perte de généralité que E(Xt ) = 0 et notons κ(i, j) = E (Xi Xj ) la
fonction d’autocovariance de ce processus. En utilisant les innovations n = Xn − Xen ,
la prévision linéaire optimale Xen+1 de Xn+1 sachant le passé {X1 , ..., Xn } donnée
par l’équation (2.7) peut s’exprimer alternativement sous la forme suivante :

n
X  
X
en+1 = θn,j Xn+1−j − Xn+1−j , n ≥ 1.
e (2.8)
j=1

L’algorithme des innovations permet de déterminer les coefficients (θn,j , j = 1, ..., n)


et vn pour n ≥ 1.

N’DRIN Apala Julien 32 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Proposition 2.11. (Algorithme des innovations)


Si le processus (Xt )t∈Z est centré et sa fonction d’autocovariance κ(i, j) = E (Xi Xj )
est telle que la matrice [κ(i, j)]n est inversible, alors X
i,j=1
en+1 et vn sont donnés par :


 0, si n = 0 ;
X
en+1 = Pn  
 θn,j Xn+1−j − X
en+1−j , si n ≥ 1 ;
j=1




 v0 = κ(1, 1),
 !

 k−1
−1
P
θn,n−k = vk κ(n + 1, k + 1) − θk,k−j θn,n−j vj , k = 0, ..., n − 1 ;

 j=0

 n−1
P 2
 vn = κ(n + 1, n + 1) −


 θn,n−j vj .
j=0

Les coefficients sont déterminés par récurrence dans cet ordre : v0 , θ1,1 , v1 , θ2,2 , θ2,1 ,
v2 , θ3,3 , θ3,2 , θ3,1 , v3 ,...

Remarque 2.11. Alors que l’algorithme de Durbin-Levinson donne les coefficients


de Xn ,...,X1 dans la représentation

en+1 = φn,1 Xn + .... + φn,n X1 , n ≥ 1,


X

l’algorithme des innovations donne les coefficients de Xn − X


en ,...,X1 − X
e1 dans la
représentation alternative
n
X  
X
en+1 = θn,j Xn+1−j − X
en+1−j , n ≥ 1.
j=1

Exercice
Soit (Xt )t∈Z un processus M A(1) défini par Xt = t + θt−1 , t ,→ N (0, 1).
1. Déterminer les coefficients de la prévision linéaire optimale X
en+1 de Xn+1 sachant
le passé {X1 , ..., Xn } en utilisant l’algorithme de Durbin-Levinson et l’algorithme
des innovations.
2. Déterminer X e6 sachant que X1 = −2, 58, X2 = 1, 62, X3 = −0, 96, X4 = 2, 62,
X5 = −1, 36 et θ = −0, 9.

N’DRIN Apala Julien 33 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Remarque 2.12. Les prévisions à l’horizon h ≥ 1 d’un processus stochastique


(Xt )t∈Z peuvent s’obtenir à partir de l’algorithme des innovations. La prévision li-
néaire optimale Xen+h de Xn+h sachant le passé {X1 , ..., Xn } peut s’écrire :

n+h−1
X  
X
en+h = θn+h−1,j Xn+h−j − X
en+h−j ,
j=h

où les coefficients θn,j sont déterminés par l’algorithme des innovations. De plus,

 2 n+h−1
X
2
vn,h = E Xn+h − X
en+h = κ(n + h, n + h) − θn+h−1,j vn+h−j−1 ,
j=h

où vn,h est l’erreur quadratique moyenne de la prévision.

2.3.3 Décomposition de Wold


Un des résultats fondamentaux de la théorie des processus stationnaires au second
ordre est la décomposition de Wold. Cette décomposition permet d’écrire n’importe
quel processus stationnaire du second ordre comme la somme d’un processus résul-
tant du filtrage linéaire d’un bruit blanc et d’un processus déterministe.

Définition 2.25. Un processus stationnaire du second ordre (Xt )t∈Z est dit (pu-
rement) déterministe ou (purement) singulier si et seulement s’il peut être prédit
exactement à partir de son passé infini c’est-à-dire si et seulement si
 2
2
σ = E Xt+1 − X−∞,t+1 = 0 ∀ t ∈ Z
e

t
e−∞,t+1 = Pe(Xt+1 |H−∞
où X ) est la prévision linéaire optimale de Xt+1 sachant son
passé infini {Xt , Xt−1 , ...}.

Remarque 2.13. Pour la plupart des processus stationnaires de moyenne nulle


abordés dans ce cours, en particulier pour les processus ARMA, la composante dé-
terministe dans la décomposition de Wold est nulle pour tout t. Ces processus sto-
chastiques sont dits (purement) non déterministes ou réguliers.

N’DRIN Apala Julien 34 Analyse des séries temporelles


CHAPITRE 2. SÉRIES TEMPORELLES STATIONNAIRES

Théorème 2.3. (Décomposition de Wold)


Si (Xt )t∈Z est un processus stationnaire du second ordre non déterministe, alors

+∞
X
Xt = ψj t−j + Vt où
j=0

+∞
ψj2 < +∞,
P
(i) ψ0 = 1 et
j=0
(ii) t est un bruit blanc de variance σ 2 ,
(iii) cov(s , Vt ) = 0 pour tous s et t appartenant à Z,
t
(iv) t = Pe(t |H−∞ ) pour tout t ∈ Z,
s
(v) Vt = Pe(Vt |H−∞ ) pour tous s et t,
(vi) (Vt )t∈Z est déterministe.

Remarque 2.14. Les éléments {t }, {ψj } et {Vt } sont uniques et peuvent être
déterminés de la manière suivante :

t−1

 t = Xt − Pe(Xt |H−∞ ) ;

ψj = E(Xt t−j )/E(2t ) ;

 +∞
P
 Vt = Xt − ψj t−j .


j=0

N’DRIN Apala Julien 35 Analyse des séries temporelles

Vous aimerez peut-être aussi