Ts
Ts
VOLUME 1 Introduction la thorie des processus en temps discret Modles ARIMA et mthode Box & Jenkins
Arthur CHARPENTIER
Contents
1 Introduction et notations 1.1 Approches temps/frquences : un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Analyse harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Modles autoregressifs et moyennes mobiles . . . . . . . . . . . . . . . . . . . . . 1.1.3 Lapproche temporelle : concept de corrlation srielle . . . . . . . . . . . . . . . 1.1.4 Lquivalence entre les deux approches temps/frquence . . . . . . . . . . . . . . 1.2 Les dveloppements rcents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires . . . . . . . . . . 1.2.2 Modles ARCH - volatilit stochastique . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Les processus mmoire longue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Les processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.5 Exemple : histoire de la prvision des modles conomiques (macroconomiques ) 1.2.6 Remarque sur les processus de comptage ou valeurs dans un espace dtats nis 1.2.7 Remarque sur les donnes hautes frquences . . . . . . . . . . . . . . . . . . . . . 1.3 Thorie des processus temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Stationnarit des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Proprit de Markov en temps discret . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Objectifs de ltudes des sries temporelles . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Description et modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Conseils bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Proprits des processus univaris en temps discret 2.1 Rappels sur les martingales temps discret . . . . . . . . . . . . . . 2.2 Rappels sur les Chanes de Markov . . . . . . . . . . . . . . . . . . . 2.3 Notions de processus stationnaire et de processus non-stationnaire 2.4 Fonction dauto covariance et densit spectrale . . . . . . . . . . . . . 2.4.1 Autocovariance et autocorrlation . . . . . . . . . . . . . . . 2.4.2 Densit spectrale . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.3 Estimation de la fonction dautocorrlation . . . . . . . . . . 2.4.4 Estimation de la densit spectrale . . . . . . . . . . . . . . . 2.5 Lien entre processus en temps continu et en temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 8 8 9 9 9 10 11 12 13 13 14 14 16 17 17 17 17 17 19 19 19 20 21 21 21 23 24 25 29 29 29 29 30 30 31 32 32 33 34 34 34 37 38 38 38 39
3 Dsaisonnalisation par regression linaire 3.1 Prsentation des donnes . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Le modle linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Hypothses sur les erreurs . . . . . . . . . . . . . . . . . . . . . 3.2.2 Composante saisonnire du modles . . . . . . . . . . . . . . . 3.2.3 Composante tendancielle . . . . . . . . . . . . . . . . . . . . . 3.2.4 Modle trimestriel de Buys-Ballot (1847) . . . . . . . . . . . . 3.3 Estimateur des moindres carrs ordinaires (mco) . . . . . . . . . . . . 3.3.1 Solutions gnrales . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Cas particulier : le modle trimestriel de Buys-Ballot . . . . . . 3.3.3 Gnralisation des formules de Buys-Ballot (tendance linaire) 3.4 Application au trac voyageur . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Srie agrge par trimestre . . . . . . . . . . . . . . . . . . . . 3.4.2 Analyse sur donnes mensuelles . . . . . . . . . . . . . . . . . . 3.5 Proprits statistiques des estimateurs . . . . . . . . . . . . . . . . . . 3.6 Prvision un horizon h . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Calcul de la prvision . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Application au trac SNCF . . . . . . . . . . . . . . . . . . . .
Arthur CHARPENTIER
4 Dsaisonnalisation par la mthode des moyennes mobiles 4.1 Gnralits sur les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Notion doprateur retard L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Lespace des oprateurs moyenne-mobile . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Vecteurs propres associs une moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Les sries absorbes : = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Absorbtion de la composante saisonnire . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Les sries invariantes : = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Transformation de suites gomtriques (rt ) . . . . . . . . . . . . . . . . . . . . . . . p 4.2.5 Moyenne mobile dirence p = (I L) . . . . . . . . . . . . . . . . . . . . . . . . p 4.2.6 Moyenne mobile dirence saisonnire p;s = (I Ls ) . . . . . . . . . . . . . . . . 4.2.7 Moyenne mobile impaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.8 Moyenne mobile paire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Notion de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Transformation dun bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Les procdures X11 et X12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Un algorithme simple de dsaisonnalisation . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Lalgorithme de base de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Amlioration de la mthode : X11 ARIM A et X12 ARIM A . . . . . . . . . . . 4.4.4 Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers 4.4.5 Exemple simple inspir de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . . 4.5 Description du modle T RAM O/SEAT S . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 La prvision par lissage exponentiel 5.1 Principe du lissage exponentiel simple . . . . . . . . . . . . . . 5.1.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.1.2 Choix de la constante de lissage . . . . . . . . . . . . . . 5.1.3 Lien entre robustesse de la prvision et choix de . . . 5.1.4 Exemple dapplication . . . . . . . . . . . . . . . . . . . 5.2 Principe de lissage exponentiel double . . . . . . . . . . . . . . 5.2.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.2.2 Application de la mthode de lissage exponentiel double 5.3 Lissage exponentiel multiple, ou gnralis . . . . . . . . . . . . 5.3.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.4 Les mthodes de Holt-Winters (1960) . . . . . . . . . . . . . . . 5.4.1 Mthode non saisonnire . . . . . . . . . . . . . . . . . . 5.4.2 La mthode saisonnire additive . . . . . . . . . . . . . 5.5 Exemple de mise en pratique des mthodes de lissage . . . . . . 5.5.1 Prsentation des donnes . . . . . . . . . . . . . . . . . 5.5.2 Lissage linaire . . . . . . . . . . . . . . . . . . . . . . 5.5.3 Lissage exponentiel simple . . . . . . . . . . . . . . . . . 5.5.4 Lissage exponentiel double . . . . . . . . . . . . . . . . . 6 Introduction aux modles linaires ARIM A 6.1 Rappels sur les espaces L 2 . . . . . . . . . . . . . . . . . . . . 6.1.1 Proprits topologiques . . . . . . . . . . . . . . . . . 6.1.2 Rappel sur les vecteurs et processus gaussiens . . . . . 6.1.3 Regression ane dans L 2 . . . . . . . . . . . . . . . . 6.1.4 La notion dinnovation . . . . . . . . . . . . . . . . . . 6.2 Polynmes doprateurs retard L et avance F . . . . . . . . . 6.2.1 Rappels sur les oprateurs retards . . . . . . . . . . . 6.2.2 Inversibilit des polynmes P (L) . . . . . . . . . . . . 6.3 Complments sur les sries stationnaires : les autocorrlations 6.3.1 Autocovariance et autocorrlation . . . . . . . . . . . 6.3.2 Autocorrlations partielles . . . . . . . . . . . . . . . . 6.3.3 Densit spectrale . . . . . . . . . . . . . . . . . . . . . 6.3.4 Autocorrlations inverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40 40 40 41 45 45 46 46 46 47 48 49 49 50 51 51 52 52 52 54 54 55 56 57 57 58 58 58 59 61 61 62 64 66 66 66 67 67 68 69 70 70 73 73 73 73 74 75 77 77 77 79 79 80 82 83
Arthur CHARPENTIER
6.3.5 Complment : autocorrlogrammes de fonctions dterministes Les processus autorgressifs : AR (p) . . . . . . . . . . . . . . . . . . 6.4.1 Rcriture de la forme AR (p) . . . . . . . . . . . . . . . . . . 6.4.2 Proprits des autocorrlations - les quations de Yule-Walker 6.4.3 Le processus AR (1) . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Le processus AR (2) . . . . . . . . . . . . . . . . . . . . . . . 6.5 Les processus moyenne-mobile : M A (q) . . . . . . . . . . . . . . . . 6.5.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . . 6.5.2 Le processus M A (1) . . . . . . . . . . . . . . . . . . . . . . . 6.5.3 Le processus M A (2) . . . . . . . . . . . . . . . . . . . . . . . 6.6 Les processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . . 6.6.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . . 6.6.2 Densit spectrale des processus ARM A (p; q) . . . . . . . . . 6.6.3 Les processus ARM A (1; 1) . . . . . . . . . . . . . . . . . . . 6.7 Introduction aux modles linaires non-stationnaires . . . . . . . . . 6.8 Les processus ARIM A (p; d; q) . . . . . . . . . . . . . . . . . . . . . 6.8.1 Processus ARIM A et formes AR ou M A . . . . . . . . . . . 6.9 Les modles SARIM A . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10 Thorme de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.11 Thorie spectrale et processus ARIM A . . . . . . . . . . . . . . . . 6.11.1 Thorie spectrale et notion de ltre . . . . . . . . . . . . . . . 6.11.2 Le spectre dun processus ARM A . . . . . . . . . . . . . . . 6.11.3 Estimation de la densit spectrale dun processus . . . . . . . 6.4
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85 86 86 87 89 92 94 94 96 97 99 99 100 100 101 102 104 104 107 108 108 109 111 114 114 114 115 121 122 123 124 125 125 126 126 129 129 129 130 130 132 134 134 134 135 139 139 139 140 140 141 142 143
7 Estimation des modles ARIM A : Box-Jenkins 7.1 Estimation du paramtre dintgration d . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Approche empirique par lautocorrlogramme . . . . . . . . . . . . . . . . 7.1.2 Tests de racine unit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.3 Tests de racines unitaires saisonnires . . . . . . . . . . . . . . . . . . . . 7.1.4 Complment sur la notion de sur-direntiation . . . . . . . . . . . . . . . 7.2 Estimation des ordres p et q dun modle ARM A (p; q) . . . . . . . . . . . . . . . 7.2.1 Problmes dunicit de la reprsentation ARM A . . . . . . . . . . . . . . 7.2.2 Comportement asymptotique des moments empiriques . . . . . . . . . . . 7.2.3 Mthode pratique destimation des ordres p et q . . . . . . . . . . . . . . 7.2.4 Cas dun processus M A (q) . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.5 Cas dun processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . . 7.2.6 Proprit des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Test de bruit blanc et de stationnarit . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Analyse des fonctions dautocorrlation . . . . . . . . . . . . . . . . . . . 7.3.2 Statistique de Box-Pierce, ou test de portmanteau . . . . . . . . . . . . 7.3.3 Complments : les tests de normalit . . . . . . . . . . . . . . . . . . . . . 7.3.4 Complment : Test de rupture et de changement de tendance . . . . . . . 7.4 Estimation des paramtres dun modle ARM A (p; q) . . . . . . . . . . . . . . . 7.4.1 Estimation pour les modles AR (p) par la m thode des moindres carrs 7.4.2 Vraissemblance dun processus ARM A (p; q) . . . . . . . . . . . . . . . . . 7.4.3 Rsolution du programme doptimisation . . . . . . . . . . . . . . . . . . 7.4.4 Tests statistiques de validation du modle . . . . . . . . . . . . . . . . . . 7.5 Choix dun modle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Critre de pouvoir prdicitf . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.2 Critre dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 Identication du modle : recherche des paramtres d, p et q . . . . . . . 7.6.2 Estimation du modle ARIM A . . . . . . . . . . . . . . . . . . . . . . . . 7.6.3 Vrication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Arthur CHARPENTIER
8 Prvisions laide des modles ARIM A : Box-Jenkins 8.1 Prvisions laide dun modle AR (p) . . . . . . . . . . . . . . . . . 8.2 Prvisions laide dun modle M A (q) . . . . . . . . . . . . . . . . 8.2.1 Utilisation de lcriture AR (1) du processus M A (q) . . . . 8.2.2 Utilisation de la formule de mise jour des rsultats . . . . . 8.3 Prvisions laide dun modle ARM A (p; q) . . . . . . . . . . . . . 8.3.1 Utilisation de la forme AR (1) pu processus ARM A (p; q) . . 8.3.2 Utilisation de la forme M A (1) pu processus ARM A (p; q) et 8.4 Prvisions dans le cas dun processus ARIM A (p; d; q) . . . . . . . . 8.4.1 Utilisation de lapproximation AR . . . . . . . . . . . . . . . 8.4.2 Utilisation de lapproximation M A . . . . . . . . . . . . . . . 8.5 Intervalle de conance de la prvision . . . . . . . . . . . . . . . . . 8.6 Prvision pour certains processus AR et M A . . . . . . . . . . . . . 8.6.1 Prvision pour un processus AR (1) . . . . . . . . . . . . . . 8.6.2 Prvision pour un processus M A (1) . . . . . . . . . . . . . . 8.6.3 Prvision pour un processus ARIM A (1; 1; 0) . . . . . . . . . 8.7 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.1 Example de prvision : cas dcole . . . . . . . . . . . . . . . 8.7.2 Exemple dapplication : cas pratique . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . des formules de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . mise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . jour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
145 145 145 146 146 146 147 147 147 148 148 149 149 149 150 152 153 153 155 156 156 156 157 161 162 162 163 164 165 165 166 166 170 170 171 173 176
9 Applications de la mthode de Box & Jenkins 9.1 Application un portefeuille dassurance-vie . . . . . . . . . . . . . . . 9.1.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . . 9.1.2 Estimation de modles ARM A . . . . . . . . . . . . . . . . . . 9.2 Application de la srie des taux dintrt 3 mois . . . . . . . . . . . 9.2.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . . 9.2.2 Estimation des paramtres dune modlisation ARIM A (1; 1; 1) 9.2.3 Estimation des paramtres dune modlisation ARIM A (2; 1; 2) 9.2.4 Estimation des paramtres dune modlisation ARIM A (4; 1; 4) 9.2.5 Estimation des paramtres dune modlisation ARIM A (8; 1; 2) 9.2.6 Estimation des paramtres dune modlisation ARIM A (8; 1; 4) 9.2.7 Choix du modle . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Application des donnes simules . . . . . . . . . . . . . . . . . . . . 9.4 Modlisation du trac autoroutier . . . . . . . . . . . . . . . . . . . . 9.4.1 Modlisation du trac sur lautoroute A7 . . . . . . . . . . . . 9.4.2 Modlisation du trac sur lautoroute A13 . . . . . . . . . . . 9.5 Modlisation du nombre de victimes sur les routes . . . . . . . . . . . 9.6 Modlisation du taux de croissance du P IB amricain . . . . . . . . .
Arthur CHARPENTIER
La statistique est la premire des sciences inexactes. Edmond et Jules de Goncourt, Journal
Introduction et notations
Ltude des sries temporelles, ou sries chronologiques, correspond lanalyse statistique dobservations rgulirement espaces dans le temps. Elles ont t utilises en astronomie (on the periodicity of sunspots, 1906), en mtorologie (time-seires regression of sea level on weather , 1968), en thorie du signal (Noise in FM receivers, 1963), en biologie (the autocorrelation curves of schizophrenic brain waves and the power spectrum , 1960), en conomie (time-series analysis of imports, exports and other economic variables, 1971)...etc.
1.1
De faon gnrale, quand on parle de sries stationnaires, on a en tte une reprsentation de la forme Xt , o t 2 Z, reprsentant les observations (potentielles) du processus, dont on peut dnir un ensemble dautocovariance (t; s) = E ([Xt ] [Xs ]) qui ne dpend que la distance entre t et s, (t; s) = (t + h; s + h) pour tout h 2 Z (notion faible de stationnarit). On demande gnralement cette autocovariance (t; s) de tendre vers 0 quand la dirence entre t et s tend vers linni : la covariance entre des lments trs loigns dans la srie tend vers 0. Cette approche, base sur lutilisation des corrlations, correspond lanalyse de type temporelle : elle consiste tudier les corrlations croises de fonctions de la srie (Xt). Ces mthodes sont gnralement paramtriques de type moyenne-mobiles (moving average M A) ou autorgressives (AR) - voire les deux (ARM A). Toutes ces mthodes consistants estimer des paramtres peuvent gnralement tre vus comme des gnralisations de la rgression linaire. Lautre approche galement utilise est celle base sur ltude des frquences. Cette vision est une gnralisation des mthodes utilises en analyse de Fourier. Lide est ici dapproximer une fonction analytique par une somme pondre de fonctions sinus ou cosinus. Historiquement, ce sont les astonomes qui les premiers ont travaill sur des sries chronologiques. La reproduction ci-dessous est tir dun manuscrit du X e sicle, reprsentant linclinaison des orbites des plantes en fonction du temps. Cest en particulier grce ce genre de donnes que Kepler a pu noncer ses lois sur le mouvement des plantes.
Ces visualisations graphiques ont permis, grce aux dirents outils mathmatiques mis en place au XV III e et XIX e sicles, de mettre en place les premires techniques dtude des sries chronologiques1 , parmi lesquelles, lanalyse harmonique.
1 En fait, comme le note Bernstein dans Against the Gods (the remarkable story of risk), les grecs ou les hbreux ont observs des phnomnes cycliques (par exemple), mais ils nont jamais pens faire de la prvision. Il a fallu attendre la Renaissance pour que lave nir ne soit plus quune question de chance ou un fruit du hasard.Y compris au XV IIIme sicle, prvoir des phnomne futurs pouvait faire croire une tentative de rivaliser avec les dieux : Halley remarqua que la mme com te fut aperue en 1531, en 1607 et en 1682 (cette comte avait t observe dail leurs depuis 240 avant J.C.), et il prvoit quon la reverra en 1758 (ce fut eectivement le cas, au grand moi de toute lEurope, puisque tous les 76 ans, la comte, dite de Halley, arrive en vue de la terre).
Arthur CHARPENTIER
1.1.1
Analyse harmonique
Les astronomes ont t les premiers utiliser lanalyse de Fourier pour des sries chronologiques. Leur but tait de dtecter des saisonalits caches au sein de leurs donnes. Ainsi, Lagrange a utilis ces mthodes pour dtecter de la priodicit cache en 1772 et en 1778. Un demi-sicle plus tard, en 1847, Buys et Ballot, dans Les changements priodiques de tempratures ont propos des mthodes pour tudier la priodicit de donnes astronomiques. Toutefois, il a fallu attendre 1889 pour que Sir Arthur Shuster introduise le priodogramme, qui constitue la base des mthodes spectrales danalyse de sries chronologiques. Lide est la suivante : on recherche un modle sous-jacent de la forme X X Yt = j cos [! j t j ] + "t = j cos (! j t) + j sin (! j t) + "t ; o ("t ) est une suite de variables alatoires indpendantes identiquement distribues, qui correspondront un bruit blanc (cette notion serait longuement dveloppe par la suite). q Le facteur j (ou 2 + 2 ) correspond lamplitude de la j-me composante priodique, et indique le poids de j j cette composante au sein de la somme. Exemple 1 Considrons la srie temporelle ci-dessous gauche. Une fois enlev le bruit, nous obtenons une srie qui peut tre dcrite comme une somme pondre de fonctions sinusodales
En loccurence, la srie de gauche peut tre vue comme la somme dun bruit et de 4 fonctions sinusodales (damplitudes j direntes). par A partir dun chantillon Y 0 ; :::; Y T 1 , et en considrant les frquences !j = 2j =T , le priodogramme est dni I (!j ) = 2 X 2 T 2 X Y t cos (! j ) + Y t sin (! j ) = a2 (!j ) + b 2 (!j ) : T 2
Il est alors possible de montrer que 2I (!j ) =T est un estimateur consistant de 2 (au sens o cet estimateur converge j en probabilit quand le nombre dobservations augmente). Cette convergence t longuement tudie par Yule en 1927. Exemple 2 En considrant la srie chronologique du nombre de taches solaires
Arthur CHARPENTIER
Wolf a obtenu le priodogramme reprsent ci-dessous ( gauche en frquence !, droite en priode f = 2=!),
et a ainsi pu montrer quil y avait une priodicit de 11 annes dans le cycle solaire. Ce rsultat a t retrouv par la suite avec davantage de donnes, et un second cycle de lordre de 160 annes a galement t dtect. En 1924, Whittaker et Robinson ont utilis cette thorie sur la brillance de ltoile T-Ursa Major, observe sur 600 jours, et ont montr que la brillance pouvait tre modlise (presque parfaitement ) laide de 2 fonctions harmoniques, de priodes respectives 24 et 29 jours. Si cette thorie a donn de trs bons rsultats en astronomie, son application en conomie a conduit des rsultats nettement moins concluants. En 1921 et 1922, Beveridge a utilis cette thorie sur le prix du bl (wheat prices and rainfall in western europe). La srie prsentait tellement de pics quau moins 20 priodicits taient possibles... et plus encore si lon commenait prendre en compte de facteurs conomiques ou mtorologiques. Si les phnomnes astronomiques permettent dutiliser cette thorie, cest parce que des cycles parfaitement rguliers sont observs. Toutefois, cette mtho de sest rvle plus complique mettre en oeuvre en sciences humaines. 1.1.2 Modles autoregressifs et moyennes mobiles
Deux articles en 1927 ont ouvert une autre voie : larticle de Yule (on the method of investigating periodicities in disturbated series with sepcial reference to Wolfers sunspot numbers ) et celui de Slutsky (the summation of random causes as the source of cyclical processes ). Yule a introduit dans la littrature les modles autorgressifs, en considrant des modles de la forme Yt = Y t1 + Y t2 : Etant donnes deux valeurs initiales, cette suite prsente un comportement saisonnier, fonction des paramtres et . Yule remarque quen fait, le comportement dpend des racines (complexes) de lquation z2 z = 0, et plus particulirement de leur position par rapport au disque unit. Si leur module est infrieur 1, alors on observe un comportement sinusodal amorti. En fait, la forme gnrale des solutions sera Y t = At cos (!t ) ; lorsque 0 < < 1: Le modle autorgressif propos par Yule est le suivant Yt = 1 Yt 1 + 2 Y t2 + "t ; (1)
o (" t) correspond un bruit blanc : un bruit blanc correspond un processus indpendant (ou, plus faiblement, non corrl avec son pass). Nanmoins, des hypothses plus fortes doivent parfois tre faites : on veut que ce bruit soit galement indpendant du pass de la variable Y t , i.e. "t indpendant de Y th pour tout h 1, et on parle alors dinnovation du processus (Y t ) : Exemple 3 La srie dne par Y t = 1:8Y t1 0:8Y t2 , reprsente ci dessous gauche, peut tre crite galement Y t = 2 0:9t cos (4t 1=2), t 2 Z,
Arthur CHARPENTIER
Slutsky a introduit les moyennes mobiles la mme anne que Yule a introduit les processus autorgressifs... mais son article, crit en 1927 en russe na t traduit quen 1937 en anglais. Pour cela, il a utilis des nombres gnrs par la lotterie ocielle, et a russit gnrer une srie dcrivant le cycle conomique en Angleterre, de 1855 1877. La forme gnrale tait la suivante, Yt = 0 "t + 1 "t1 + ::: + q "tq ; (2) o ("t ) est un bruit blanc, correspondant ces nombres gnrs par la lotterie ocielle : on obtient des variables indpendantes entre elles (cf tables de nombres alatoires), mais surtout indpendantes du cycle conomique. Cette criture a suggr dlargir la relation (1) sous une forme proche de (2), savoir 0 Y t + 1 Y t1 + ::: + p Y tp = "t : Les processus introduits par Yule deviendront les processus AR (p) et ceux introduits par Slutsky les processus M A (q). Lanalogie entre les deux processus sera mme pousse plus loin lorsquil sera montr que les processus AR (p) et M A (q) sont respectivement des processus M A (1) et AR (1), sous certaines conditions. 1.1.3 Lapproche temporelle : concept de corrlation srielle
Si lapproche spectrale repose sur lutilisation du spectre (ou du priodogramme), lapproche temporelle repose sur lautocorrlogramme, ou plus gnralement sur lutilisation de la corrlation srielle. Poynting est le premier a introduire cette ide, en 1884, en tudiant la relation entre le mouvement du prix du bl, et les importations de coton et de soie. Le coecient de corrlation srielle a t dnit par Hooker en 1901, dans une tude sur le taux de mariage en Angleterre, et lindice du commerce. Etant donnes deux sries temporelles, (Xt) et (Y t), la covariance srielle est dnie par ck (X; Y ) = cov (Xt ; Y t+k ) et la corrlation srielle sera alors rk (X; Y ) = ck (X; Y ) =c0 (X; Y ). Le coecient dautocorrlation est alors obtenu en considrant k = corr (Xt ; Xt+k ) = rk (X; X). Les annes 30 ont alors vu lclosion des rsultats de base dans le domaine des sries chronologiques, sous limpulsion de Khintchine, Cramer, Wold, Kolmogorov, Wiener...etc. Ces auteurs ont dvelopp une thorie des sries temporelles, en considrant quune srie chronologique est une ralisation dun processus alatoire. 1.1.4 Lquivalence entre les deux approches temps/frquence
Dans un premier temps, lanalyse harmonique a t gnralise pour passer dune somme de Fourier une intgrale de Fourier Z Yt = [cos (!t) dA (!) + sin (!t) dB (!)] :
0
Cette simple ide de lissage du priodogramme a permis de contourner les problmes quavait pu observer Beveridge lorsquil cherchait des priodicits caches dans des disciplines autres que lastronomie. La synthse entre ces deux branches (la premire travaillant en temps, avec des autocorrlations, et la seconde travaillant sur le spectre de la srie) a t faite dans les annes 30, en parallle aux Etats-Unis par Norbert Wiener (generalised harmonic analysis , 1930) et en Union Sovitique par Khintchine (korrelationstheorie der stationaren stochastichen prozesse, 1934). Leur rsultat est de mettre en avant une relation bijective entre la fonction dautocovariance dun processus stationnaire, et sa densit spectrale : Z +1 1 X g (!) = (h) cos (!h) ou (h) = cos (!h) g (!) d!, o (h) = cov (Xt ; Xth ) : 2 0
h= 1
Et si lanalogie entre autocorrlogramme et densit spectrale existe dun point de vue thorique, il est possible de mettre en avant le mme genre de relation entre les autocorrlations empiriques et le priodogramme empirique. Les graphiques ci-dessous reprsentent les variations de lindice CAC 40 en donnes mensuelles, gauche, et le priodogramme associ en frquence (!) droite,
Variation (%) du CAC 40 - index return - net - mensuel
25% 20% 15% 10% 5% 0% -5% -10% -15% -20% 11/08/87 23/12/88 07/05/90 19/09/91 31/01/93 15/06/94 28/10/95 11/03/97 24/07/98 06/12/99 19/04/01
/4
/2
3/4
Arthur CHARPENTIER
1.2
Ltude des sries temporelles semble avoir atteint sa maturit au cours des annes 70 o des dveloppements signicatifs sont apparus. En 1965, Cooley et Tukey ont beaucoup aid ltude spectrale des sries grce leur article an algorithm for the machine calculation of complex Fourier series, introduisant la Fast Fourier Transform (FFT ). Cet algorithme a permis de calculer rapidement des priodogrammes. A la mme poque, en 1970, Box et Jenkins ont publi leur ouvrage Time series analysis, forecasting and control , montrant que ltude des sries temporelles laide de processus de type ARM A (obtenus en associant les critures (1) et (2) des processus AR et M A) pouvait sappliquer de nombreux domaines, et pouvait tre facilement implmente informatiquement2 . 1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires
Les modles ARM A sont un mlange des modles (1) et (2) proposs par Yule et Slutsky. Un processus (Xt ) est un processus ARM A (p; q) sil existe un bruit blanc ("t ) (cest dire un processus stationnaire tel que " t et "t k soient indpendants, pour tout k, pour tout t) tel que Xt = 1 Xt1 + ::: + p Xtp + " t + 1 "t 1 + ::: + q" tq ; pour tout t: Sous certaines conditions, ces processus sont stationnaires. Comme nous le verrons par la suite, ces processus peuvent scrire sous la forme (L) Xt = (L) "t ; o (L) = I 1 L ::: p Lp et (L) = I + 1 L + ::: + qLq ; L reprsentant loprateur retard, au sens o LXt = Xt 1 , et avec la convention Lp = L Lp1 , soit Lp Xt = Xtp : la srie (Y t) telle que Y t = Lp Xt est alors la srie (Xt) retarde de p priodes. Paralllement, on dira quun processus non-stationnaire est intgr dordre 1, si en le direnciant une fois, on obtient un processus stationnaire : (Xt ) (non-stationnaire) sera dit intgr dordre 1 si le processus (Y t ) dnit Y t = Xt = Xt Xt1 = (1 L) Xt est stationnaire. On dira, par extension, que (Xt ) est intgr dordre d si (Xt ) est d1 d non-stationnaire, ..., (Y t ) o Yt = (1 L) Xt, est non-stationnaire, et (Zt) o Zt = (1 L) Xt , est stationnaire. On appelera alors processus ARIM A (p; d; q) un processus (Xt) pouvant se mettre sous la forme (L) Xt = (L) (1 L) Xt = (L) "t ; o ("t ) est un bruit blanc. Pour les donnes relles, on notera que d = 1, 2 ou 3 (au maximum ). Cela signie que (Y t ) dnit comme dirence dordre d du processus (Xt ), soit Yt = (1 L)d Xt , suit un processus ARM A (p; q) 3 . On parlera dailleurs de prsence de racine unit : 1 est alors racine du polynme autorgressif (z). Par gnralisation, on peut considrer le cas o exp (2i=s) est racine du polynme autorgressif : cest dire que (L) = (1 Ls) (L). On dira alors que lon est prsence dune racine unit saisonnire, qui engendreront les modles SARIM A. Les modles intgrs sont trs prsents dans les sries conomiques, par exemple les sries dindices boursiers, dindice de production, dindice de prix.... Les modles SARIM A sont galement trs prsents ds lors que les sries sont trs saisonnires (avec une forte pridicit trimestrielle, annuelle...etc). Remarque 1 Parmi les transformations usuel les des variables, la transformation par (1 L) est parmi les plus utilises : on ne considre alors plus la srie brute (Xt ) mais la variation (brute) Yt = Xt Xt 1 . Dans le cas o Xt est un prix (par exemple un indice boursier, CAC40 ou SP 500), on considre galement souvent la variable obtenue comme dirence des logarithmes des prix Zt = log Xt log Xt1 , qui est alors le rendement ou le taux de croissance (return en anglais). 1.2.2 Modles ARC H - volatilit stochastique
d
Dans les annes 80, des dveloppements ont t apports dans ltude de la non-linarit de certaines sries, et sur leur modlisation. En 1982, Engle a introduit la classe des modles ARCH (autorgressifs conditionnellement htroscdastiques 4 ). Ces modles ont t introduits pour palier une observation empirique qui ntait pas prise
2 Sur les mthodes de prvision en conomie, il peut tre intressant de se reporter The past, present and future of macroeconomic forecasting de Francis Diebold (1997). 3 Cec i nest quune notation : comme nous le verrons par la suite, les processus ARIMA sont un peu plus compliqus que les processus ARMA puisquil faut prendre en compte des conditions initiales : (Yt) ne suit quasymptotiquement un processus ARMA (p; q). 4 Pour rappel, un modle conomtrique est dit homoscdatique si la variance des erreurs (centres) E "2 est constante - quelque soit t la priode dtude. Dans le cas contraire, on parlera dhtroscdasticit. Les modles sont ici conditionne llement htroscdatistique car 2j" E " t t1 dpend de t.
Arthur CHARPENTIER
en compte par les modles : la volatilit conditionelle dune srie (Y t) na aucune raison dtre constante. Dans les modles AR (1), la variance conditionnelle de Xt sachant Xt 1 est constante : V (XtjXt1 ) = 2 o V ("t ) = 2 (notion dhomoscdasticit). Engle a cherch un modle dans lequel la variance conditionnelle de Xt sachant Xt1 2 dpendrait de Xt 1 , et plus particulirement, V (Xt jXt 1 ) = + Xt1 2 . Pour cela, il a considr les modles de la forme p 2 Xt = "t h t ; o h t = 0 + 1 Xt1 : Cette classe de modle, appele ARCH (1) a t gnralise sous la forme ARCH (p), p 2 2 Xt = "t h t ; o ht = 0 + 1 Xt1 + ::: + p Xt p :
Cette forme pour h t a permis lanalogie entre les modles AR et les modles ARC H. De plus, cette classe de modles ARC H a t gnralise de la mme faon que les ARM A gnralisent les AR, en considrant des fonctions h t de la forme p q X X 2 ht = 0 + iXt i + j " tj ;
i=1 j=1
Exemple 4 Le graphique ci-dessous gauche correspond des taux dintert (Xt), et droite, la variation de ces taux dintrt Y t = Xt Xt 1 ,
20 16 12 8 4 0 60
2 0 -2
-4 -6 60
65
70
75
80 X
85
90
95
65
70
75
80 Y
85
90
95
Les longues priodes de fortes volatilit (volatility clustering) sont une des caractristiques des modles ARC H, et cest, entre autres, pour cela que les modles ARCH ou GARC H sont normment utiliss dans les modles nanciers. 1.2.3 Les processus mmoire longue
Dautres avances ont t faites sur la mmoire longue de certaines sries. Les processus stationnaires de type AR ont un autocorrlogramme qui converge vers 0 de faon exponentielle ( (h) = h). Les processus mmoire longue seront caractriss par une dcroissance de leur autocorrlogramme suivant une fonction puissance ( (h) = h ). Exemple 5 Par exemple, le graphique ci-dessous gauche correspond au niveau minimum du Nil entre 622 et 1284,
15 14 13 12 11 10 9
700
800
900
1000 NILE
1100
1200
Bien que la srie soit stationnaire, les autocorrlations (h) = cov (Xt ; Xt+h ) sont encore signicativement non-nulles aprs 60 ans (graphique de droite). Ce type de comportement sera appel mmoire longue.
10
Arthur CHARPENTIER
Plusieurs classes de processus appartiennent cette srie, (i) les processus self-similaires, introduits par Kolmogorov en 1958 et dvelopps par Mandelbrot (1965) : ces processus sont caractriss par lexistence dune constante H (dite de self-similarit) telle que, pour tout constante c, la distribution de Y ct soit gale celle de cH Y t: On retrouve dans cette classe les processus de Levy. (ii) les processus F ARM A, gnralisation des modles ARIM A dcrits par Box et Jenkins. Ces modles ARIM A taient obtenus en considrant que les dirences premires d Xt (o Xt = Xt Xt1 , 2 Xt = (Xt )...etc) suivent un processus ARM A (p; q). On parle alors de processus ARM A intgr. Les processus F ARIM A ont t obtenus en considrant, formellement, les cas o d nest pas entier, compris entre 1=2 et 1=2: Cette gnralisation, propose par Granger en 1980, repose sur la manipulation des sries doprateurs retard (L), et sur le dveloppement d en srie entire de (1 L) . (iii) laggrgation de processus AR (1) a galement t propose par Granger en 1980 et cette classe de processus a t tudie par Gourieroux et Gonalves en 1988. On considre des processus vriant, pour tout t 0, Xi;t = iXi;t1 + Ci" t + i; t pour i = 1; 2; :::
1.2.4
Enn, dautres dveloppements ont t fait dans ltude des processus multivaris. Si lon se place uniquement en dimension 2, on comprend que la gnralisation des processus univaris une dimension suprieur est relativement complique. (i) les modles V AR - vecteurs autorgressifs - sont une gnralisation des modles AR en dimension n. Si lon considre par exemple un couple Zt de deux variables (Xt; Y t ) que lon souhaite expliquer par leur pass, on obtient un modle de la forme Xt 1 1 Xt1 "t = + , soit Zt = A1 Zt1 + Ut ; Yt 1 1 Yt 1 t
o la matrice At est compose des coecients autoregressifs usuels (1 et 1 ) mais aussi des notions relatives la notion de causalit, Xt dpendant de Y t1 , et Yt dpendant de Xt1 . (ii) la cointgration est une notion relative au comportement des plusieurs variables intgres, et la relation qui les unit long terme : on considre (Xt) et (Yt ) non-stationnaires, et intgres dordre d, satisfaisant une relation du type Xt = + Yt + " t:
1 2 n Plus formellement, si le vecteur (Zt ) est intgr dordre d, on dira que les sries Zt ; Zt ; :::; Zt sont cointgres si et seulement sil existe une relation linaire non-nulle des composantes qui soient intgres dordre strictement infrieur d (iii) le modle ltre de Kalman. Ce mo dle est un cas particulier dune classe plus large de modles, les modles espace dtats, de la forme Zt+1 = At Zt + "t Y t = C tZt + t ;
o (Y t ) est le vecteur que lon tudie, (Z t) est un vecteur alatoire (=tat) inconnu, At et C t sont des matrices dterministes, et ("t ; t) est un bruit blanc normal. Lide est destimer rcursivement Zt en fonction de Y 0 ; :::; Y t: Exemple 6 Considrons un entrepreneur amricain, investissant dans dirents pays. An de faire de la prvision de ses rsultats, il est ncessaire de prvoir les taux de change des direntes devises : cette prvision doit se faire sur U SD=F RF U SD=DM K le couple rt ; rt et non pas dvise par devise.
12
4.0 3.5 3.0
10
8
2.5
2 FRF
11
Arthur CHARPENTIER
En eet, deux analyses faites en parallle, et indpendement, peuvent aboutir des rsultats impossibles : il serait incohrent, dans lexemple ci-dessus, de prvoir que le taux de change du Franc va augmenter, et que le taux de change du Deutsche Mark va baisser. 1.2.5 Exemple : histoire de la prvision des mo dles conomiques (macroconomiques )
La thorie conomique inspire de Keynes reposait sur lutilisation de prvisions conditionnelles : sous certaines hypothses, les prvisions dune ou plusieurs variables taient faites conditionellement des comportements, au sein de modles structurels. Plus particulirement, ds 1936, Keynes proposait par exemple de lier la consommation C t au revenu disponible Rt , sous la forme Ct = Rt + : une prvision de Rt permettait de prvoir Ct . Brown avait propos un modle lgrement dirent ds 1952, en intgrant le fait que les individus ont des habitudes de consommation, entrainant une inertie importante : Ct = Rt + + C t1 . Ces prvisions structurelles ont toutefois cess de faire rfrence partir des annes 70. Les prvisions non-structurelles ont alors pu prendre en compte les dirents cycles observs en conomie (1977 : Business cycle modeling without pretending to have too much a priori theory de Sargent et Sims) : des prvisions de sries conomiques peuvent se faire sans ncessairement avoir de modle structurel derrire. Les modles utiliss sont toutefois relativement anciens puisquils sont inspirs des modles de Slutsky et Yule, tous deux datant de 1927, bass sur la notion de modle autorgressif. La publication de louvrage de Box et Jenkins en 1970 permettra une avance rapide avec lutilisation des modles ARM A. Toutefois, le lacune de la thorie de Box et Jenkins est quelle ne prend pas en compte des eets croiss de dpendance entre variables. Pour eectuer de la prvision dun ensemble de variables, a priori lies, il convient deectuer une prvision globale : la thorie des modles V AR (modles autorgressifs vectoriels ) a t introduite en conomie sous limpulsion de Sims en 1980, qui a travaill sur des systmes dquations o toutes les variables sont alors endognes (contrairement aux quations structurelles de Keynes). Cette thorie avait toutefois t tudie ds les annes 70 par Granger par exemple, qui avait travaill sur la notion simple de causalit entre variables. Toutefois, la prsence dun certain nombre de variables non-stationnaires a pos un certain nombre de problmes : Granger a alors introduit la notion de cointgration en 1981 : cette notion dit que deux variables X et Y peuvent suivre une tendance stochastique, mais la dirence (ou le spread ) X Y peut tre stationnaire. Cette notion sera lorigine des modles tendance commune, permettant de travailler sur des systmes dquations o certaines variables sont cointgres. En particulier, ds 1978, Hall se posait la question de savoir si la consommation par habitant ntait pas une martingale, ce qui conduirait crire Ct = Ct 1 + "t o "t est un ala. Nelson et Plosser ont dailleurs not, en 1982 quun grand nombre de sries macroconomiques taient caractrises par la prsence dune racine unitaire (cest dire une criture de la forme Ct = C t1 + Xt ). Et cest nallement en 1987 que Campbell a propos un modle V AR sur la consommation C et le revenu R, puis un modle V AR intgrant dans chaque quation un modle correction derreur. Une autre piste qui a t explore la mme poque est celle des modles non-linaires. Cette voie a t ouverte ds 1982 par Engle, qui introduisi de la dynamique dans la volatilit, laide des modles ARCH. Ces mo dles ont t trs utiliss en nance, mais aussi pour des modles dination. Parmi des amliorations apportes dans les annes 90, on peut noter les modles avec cycles, avec rupture de tendance, changement de rgime...etc. La thorie des modles changement de rgime repose sur lide que derrire les variables observes existent des variables caches, non observes. Pour rsumer lhistoire des applications conomiques des sries temporelles, on peut retenir le schma suivant - annes 20 : macroconomie descriptive : description des cycles (courts = Slutsky, longs = Kondratie ) - annes 50 : dbut de la thorie des sries temporelles, avec comme objectif principal, la prvision - annes 60 : application en macroconomie, avec des modles structurels : une vingtaine de variables, et 200 observations (maximum ) - annes 70 : thorie de Box et Jenkins, sappuyant sur un logiciel (modle linaire ) : on considre les variables une une, sur 200 observations (dbut, la mme poque, de la thorie des panels en microconomie : 3000 individus suivis sur 3 ou 4 priodes) - annes 80 : en marcronomie, modles multivaris (causalit, cointgration, codpendance). Dbut de lutilisation des modles de sries temporelles sur donnes nancires : beaucoup de variables, 2000 observations. Dbut des modles temps continu. - annes 90 : donnes hautes frquences sur les marchs nanciers (de 4000 plus de 2000000 dobservations). Des complments peuvent se trouver dans larticle de Chris Chateld (1997) intitul Forecasting in the 1990s .
12
Arthur CHARPENTIER
1.2.6
Remarque sur les processus de comptage ou valeurs dans un espace dtats nis
A retenir 1 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ) o les variables observes sur supposes valeurs relles : X1 ; X2 ; :::; Xt; :::.2 R. On observera ainsi des prix, des variations de prix, des taux, des montants...etc. Des nombres de voyageurs seront, a la rigueur, considrs comme une variable relle, mais deux cas seront exclus de notre tude, a priori : (i) les processus de comptage (ex : nombre daccident pour un conducteur lanne t) (ii) les processus valeurs dans un espace dtat ni Dans le premier cas, la mthode la plus usuelle pour tuder les processus de comptage est de considrer des modles de la forme suivante : soit (Y t ) le processus dni par
Yt1
Y t = Ut + "t =
X
i=1
Ui;t + "t o
Les processus (Ut ) et ("t ) sont indpendants, conditionellement Y t1 ; Y t2 ; :::; Ut1 ; Ut2 ; :::. De plus, pour tout t, Ut suit une loi binomiale B (Yt 1 ; p) : On a alors Y t ~P , et donc E (Y t ) = . 1p 1p De plus, la fonction dautocorrlation est donne par (h) = cov (Y t; Y th ) = ph : 1p
Ce type de processus est appel Poisson AR (1) ou IN AR (1), selon la terminologie de Al-Osh et Alzad (1987) 5 . Pour information, les paramtres p et dans ce genre de modle sont gnralement estims par maximum de vraisemblance. McKenzie (1988) 6 a galement montr quil est possible de faire de la prvision laide de ce genre de modles, puisque la loi de Y T +h conditionnellement au pass observ jusqu la date T vrie P (Y T + h = xjXT = xT ) =
minfx; xT g
s=0
xT s
s (1 )
xT s
1 (x s)!
1 1 p
1 exp ; o = ph ; 1p
Dans le cas o la loi de Poisson nest pas la plus adapt, McKenzie (1986) 7 a propos dautres modles pour avoir, marginalement, une loi gomtrique, ou une loi binomiale ngative. Dans le second cas, le plus simple est de se ramerner la thorie des chanes de Markov. 1.2.7 Remarque sur les donnes hautes frquences
A retenir 2 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ), observs des dates rgulires : X1 ; X2 ; :::; Xt ; :::. Il peut sagir, par exemple, de la version discrre dun processus en temps continu : on observe Xt1 ; Xt2 ; :::; Xtn ; ::: o les dates ti sont telles que ti ti1 soit constante pour tout i. Dans le cas des donnes hautes frquences, lanalyse est relativement dirente, puisque laspect temporel doit tre pris en compte. Par exemple, pour tudier la liquidit des marchs nanciers, on considre les triplets de variables suivants : (T i; V i; P i), o T i est la date de la ime transaction, V i le volume chang lors de la transaction, et Pi le prix de cette transaction. Cette tude permet de changer lchelle des temps : on ne considre plus le temps calendaire
5 AL-OSH,M.A. & ALZAID,A. (1987). First-order interger-valued autoregressive (IN AR (1)) process. Journal of Time Series Analysis. 8 261-275. 6 McKENZIE,E. (1988). Some ARMA models for dependent seque nces of Poisson counts. Advances in Applied Probability. 20 822-835. 7 McKENZIE,E. (1986). Autoregressive moving-average processes with negative-binomial and geometric marginal distribution. Advances in Applied Probability. 18 679-705.
13
Arthur CHARPENTIER
mais le temps des transactions. Et comme le montre le graphique ci-dessous, ces deux temps peuvent tre relativement dirents
Obs 868 869 870 871 872 873 874 875 876 877 878 879 880 811 Time [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link] PRICE 1378.50 1379.75 1379.50 1379.50 1378.25 1379.00 1379.75 1378.25 1380.25 1379.50 1379.50 1380.25 1380.50 1375.75 VOL 500 1000 800 1250 300 1500 500 750 1250 1500 1750 250 500 500
En eet, il y a trois fois plus de transactions sur un march tt le matin qu lheure du djeuner : le temps entre deux transactions sera alors, en moyenne, trois fois plus long 13 heures 30 qu 9 heures 45. Cette dirence qui existe entre les heures de la journe peut se retrouver entre les jours de la semaine (il y a ainsi, en moyenne, 10% de transaction en plus le mardi, compar au vendredi ou au lundi), ou au mois (il y a, par jour ouvr, prs de deux fois plus de transactions en septembre quen fvrier ). La notion de base pour tudier ce genre de donnes est la thorie des modles de dures. On considre (Ti ), la suite des dates de transaction, et i la date coule entre la ime et la i 1me transaction : i = T i T i1 . Toutefois, dans ce cours, nous ne traiterons pas de ces aspects, mais nous considrerons plutt des agrgations, ou des observations ponctuelles : P t sera le prix observ la date t (par exemple tous les jours, ou toutes les heures) et V t le volume total chang pendant la priode (en une journe, ou une heure). Toutefois, il est noter que mme dans ce cas, o les volumes de donnes sont trs importants, ltude peut savrer plus complexe que dans le cas o lon considre des sries conomiques observes 200 dates, en particulier cause de la prsence de multiples cycles (un cycle dune journe sera observe sur des donnes horaires par exemple, puis des cycles mensuels, ou trimestriels (publication de comptes), ou encore annuels...).
1.3
Deux types de processus sont utiliss dans la thorie des sries stationnaires (i) les processus stationnaires (ii) les processus markoviens 1.3.1 Stationnarit des processus
La stationnarit joue un rle central dans la thorie des processus, car elle remplace (de faon naturelle) lhypothse dobservation i.i.d. en statistique. Deux notions sont gnralement considres. La premire notion de stationnarit peut se dnir de faon forte par une stabilit en loi du processus : quel que soit n, t1 ; :::; tn et h, on a lgalit entre les lois jointes L (Y t1 ; :::; Y tn ) = L (Y t1+h ; :::; Y tn+h ) Cette dnition toutefois peut tre aaiblie : le processus est dit stationnaire au second ordre si - la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z - les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs) = (jt sj) Cette dernire proprit implique en particulier que la variance de Y t est constante : V (Y t) = 2 .
Remarque 2 Si lon considre les lois marginales ( t x) du processus, la stationnarit (forte) signie une stabilit de la loi marginale : la loi de Y t et la loi de Y s sont identiques pour t 6= s. La stationnarit du second ordre correspond uniquement une stabilit des deux premiers moments : E (Y t ) = E (Y s ) et V (Y t) = V (Y s) pour t 6= s. Dans ce cas, rien nempche davoir des skewness et des kurtosis variables en fonction du temps. Le graphique ci-dessous gauche
14
Arthur CHARPENTIER
correspond une stabilit au sens fort, et droite, une stationnarit au second ordre,
En particulier pour la stationnarit au sens fort, les moments dordre k, pour tout k 2 N, sont constants. Remarque 3 Si lon considre la dpendance temporelle, la stationnarit du second ordre suppose uniquement une stabilit de la corrlation (moment dordre 2) : cov (Xt ; Xt+h ) = cov (Xs; Xs+h ). La stationnarit au sens fort est beaucoup plus forte que cette condition sur le moment dordre 2, puisquelle suppose une stabilit de toutes les lois jointes8 : en particulier, cette condition implique lgalit en loi des couples (Xt ; Xt+h ) et (Xs ; Xs+h ). Dans lexemple ci-dessous, nous avons considr deux processus dont les lois marginales reste constantes (Xt s N (0; 1) pour tout t), avec une stationnarit au sens fort gauche (en particulier la loi (Xt; Xt+h ) est gale la loi de (Xs ; Xs+h )), et une stationnarit au second ordre droite (en particulier, on a uniquement galit des covariances cov (Xt ; Xt +h ) = cov (Xs ; Xs+h ))
La notion de stationnarit au second ordre, qui sera utilise dans la premire partie de ce cours, suppose uniquement une stabilit des deux premiers moments : - la stationnarit au second ordre nempche pas une variation des moments dordres plus levs (asymtrie de la loi ou paisseur des queue fonctions du temps), - la stabilit de la structure de dpendence entre Xt et Xt+ h se rsume une stabilit du coecient de corrlation (ou de covariance).
8 Rappel : soient X et X de mme loi, Y et Y de m me loi, tels que cov (X ; Y ) = cov (X ; Y ), alors on na pas galit des lois 1 2 1 2 1 1 2 2 jointes : L(X1 ; Y1 ) 6= L (X2 ; Y2). En particulier, si X et Y suivent des lois normales N X ; 2 et N Y ; 2 avec corr (X; Y ) = , X Y alors on na pas ncessaire X X 2 X Y X sN ; 2 Y Y X Y Y
Un vecteur gaussien nest pas uniquement un vecteur dont les lois marginales sont uniformes (cf cours de probabilit).
15
Arthur CHARPENTIER
Remarque 4 Dans la pratique, on retrouve parfois des courbes aux allures sensiblement direntes,
4 3 2 1 0 -1 -2 -3 -4
20 15 10
5 0 -5
2 0
-10
-2
100 200 X 300 400 500
100
200 Z
300
400
500
-15
100
200 Y
300
400
500
La srie (Xt ) gauche est (ou tout du moins semble) stationnaire, la srie (Zt) au centre est dite non stationnaire en moyenne, et la srie (Yt ) droite est dite non stationnaire en variance9 . Lexemple le plus simple de processus stationnaire est le bruit blanc. Toutefois, de la mme faon quil est possible de dnir deux notions de stationnarit, il existe deux sorte de bruit blanc. Le processus ("t ) est un bruit blanc faible sil existe 2 telle que 8 < E ("t ) = 0 pour tout t V ("t ) = E "2 = 2 pour tout t t : cov (" t; "t h ) = E ("t "th ) = 0 pour tout t; et pour tout h 6= 0: Aucune hypothse dindpendance nest faite dans cette dnition. Les variables aux direntes dates sont uniquement non corrles (ce qui fera une dirence importante, comme nous le verrons dans la partie sur les modles ARCH). Cette hypothse dindpendance permet toutefois de dnir un bruit blanc fort, i.e. 8 < E ("t ) = 0 et V (" t) = E " 2 = 2 (nie) pour tout t t L (" t) = L ("th ) pour tout t; h : "t et "th sont indpendantes pour tout t; et pour tout h 6= 0: 1.3.2 Proprit de Markov en temps discret La thorie sur les chanes de Markov (en temps discret) est galement un lment important. Cette proprit correspond lide que lon souhaite rsumer linformation contenue dans les variables passes du processus par un nombre ni de variables (les variables dtat). Dans le cas le plus simple, on souhaite que les variables dtat soient des valeurs retardes du processus : toute linformation est contenue dans les k valeurs les plus rcentes L (X tjXt1 ; Xt2 ; Xt 3 ; :::) = L (Xt jXt 1 ; :::; Xt k ) ; qui peut se rcrire, lordre 1, Il est possible de montrer que cette relation est quivalente (Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = (Xt jXt 1 ) :
d
Xt = g (Xt1 ; "t ) ; o (" t) est un bruit blanc. Toutefois, cette thorie, visant chercher une fonction f telle que Xt = f (Xt1 ; "t ) peut tre dicile implmenter. En conomtrie, on cherche une relation du type Y = g (X1 ; :::; Xn ; "), permant dexpliquer une variable Y laide de variables exognes X1 ; ::; Xn . Cette fonction g tant a priori dicile exhiber, la mthode la plus simple est de considrer le cas linaire. De la mme faon, la thorie des modles ARIM A vise expliquer Xt en fonction de son pass (et ventuellement dun bruit ), de manire linaire.
9 Dans ce cas particulier, il est possible dutiliser la transformation dite de Box-Cox an de rduire la variabilit de la srie. On pose alors Yt = Xt 1 = si 6= 0 (sinon = log Xt )
16
Arthur CHARPENTIER
Remarque 5 Nous ne nous intresserons, dans ce cours, que dans le cas o lespace dtat est R, cest dire que nous ne traiterons pas le cas des chanes de Markov (o Xt prend ces valeurs dans un espace dtat ni ou dnombrable) espace dtat fi1 ; :::; i n ; :::g espace dtat R t discret Cours sur les Chanes de Markov Cours de Sries Temporelles t continu Cours de Calcul Stochastique
Les chanes de Markov correspondent par exemple au cas o Xt est valeurs dans un ensemble ni (fi 1 ; :::; i n ; :::g) o dnombrable (N) : par exemple les variables dichotomiques, o Xt vaut soit 0, soit 1:. Le calcul stochastique correspond au mouvement brownien, et aux processus de diusion obtenus partir du mouvement brownien. Le cas o le temps est continu et o les variables sont valeurs dans N (par exemple) correspond aux processus de comptage, aux processus de Poisson, la thorie des les dattente...etc.
1.4
1.4.1
Le but est ici de dterminer les direntes composantes dune srie (Xt ), en particulier, obtenir la srie corrige des variations saisonnires (mthodes de dsaisonnalisation ). Pour les sries stationnaires, on peut aussi chercher modliser la srie laide dun modle ARM A, par exemple dans le but de faire de la prvision. 1.4.2 Prvision
Sur la base dobservation X1 ; :::; XT le but est de faire une prvision, la date T , de la ralisation en T + h, note b b XT (h). Une premire mthode est le lissage exponentiel, bas sur une formule de rcurrence de la forme XT (1) = b T 1 (h), o , compris entre 0 et 1, est gnralement choisi de faon minimiser la somme des carrs Xt + (1 ) X des erreurs de prvision. Dans le cas des modles ARM A, de nombreuses relations existent an de faire de la prvision, avec un intervalle de conance. Nous verrons comment ces intervalles de conance sont modis si une modlisation ARC H est retenue, ou du type mmoire longue. Exemple 7 Quelques exemples de prvisions, En 1977, Ken Olson, prsident du conseil dadministration, PDG et fondateur de la socit Digital Equipment armait qu il ny a aucune raison de vouloir possder un ordinateur la maison . Thomas Watson, prsident dIBM, prdisait en 1943 : Je crois que le march mondial pourrait peut-tre accueillir cinq ordinateurs. Une note de service de la Western Union qui armait, en 1876 : Le tlphone a bien trop de dfauts et de lacunes pour que nous le considrions srieusement comme un moyen de communication. Cet appareil na pour ainsi dire aucune valeur nos yeux. En 1895, Lord William Thomson Kelvin, prsident de la Socit Royale des Sciences armait : Il est impossible dimaginer des marchines volantes plus lourdes que lair. Le concept est intressant et bien formul, mais pour esprer avoir une note meilleure quun C, encore faudraitil que lide soit ralisable!. dclara un professeur de management de luniversit de Yale en rponse la proposition de Fred Smith de crer un service able de livraison de nuit (Smith fonda ensuite Federal Express Corp.) Quelques jours avant le dbut de la crise, en 1929, Irving Fisher, Professeur d conomie lUniversit de Yale dclarait Le march de la Bourse semble avoir atteint un haut plateau permanent. Labdomen, la poitrine et le cerveau sont jamais interdits lintrusion de la connaissance et de la chirurgie humaine. selon Sir John Eric Ericksen, chirurgien Anglais, mdecin personnel de la Reine Victoria, 1873. 1.4.3 Filtrage
Le lissage consiste transformer une srie de faon dtecter (pour liminer ou au contraire conserver ) certaines caractrisques (composante saisonnire, points abrants...). Cette mthode permet galement de dtecter des ruptures au sein dune srie.
1.5
Conseils bibliographiques
17
Arthur CHARPENTIER
DROESBEKE,J.J., FICHET,B. & TASSI,P. (1995). Sries chronologiques - thorie et pratique des modles ARIMA, Economica GOURIEROUX,C. & MONFORT,A. (1995) Sries temporelles et modles dynamiques, Economica Des complments dinformations sur dirents points abords peuvent tre trouvs galement dans BOURBONNAIS,R. & TERRAZA,M. (1998). Analyse des sries temporelles en conomie, PUF BOX,G. & JENKINS,G.. (1970). Time Series analysis : forecasting and control , Holden-Day [519:5 BOX] BROCKWELL, P.J. (1987) Time series : theory and methods Springer-Verlag COUTROT, B & DROESBEKE,J.J. (1995) Les Mthodes de prvision Presses Universitaires de France (Que sais-je ? 2157) DACUNHA-CASTELLE,D. & DUFLO,M. (1985). Probabilits et Statistiques - Tome 2 : Problmes temps mobile Masson HAMILTON,J. (1994). Time series analysis , Princeton University Press [519:5 HAM ] HARVEY,A.C. (1993) Time Series Models Cambridge: MIT Press [519:5 HAR] HYLLEBERG S. (1992), Modeling Seasonality Oxford University Press [330:115 M OD] LUTKEPOHL,H. (1991). Introduction to multiple time series analysis Springer-Verlag MELARD, G. (1990) Mthodes de prvision court terme . Ellipses NERLOVE M, GRETHER D.M, CARVALHO J.L. (1995). Analysis of Economic Time Series Academic Press. PINDYCK,R.S & RUBINFELD,L.D. (1984) Econometric models and economic forecasts McGraw-Hill [330:115 P IN Des complments et des documents au format pdf sont tlchargeables sur le site internet, http : ==www:crest:fr=pageperso=lfa=charpent=charpent:htm avec la version pdf de ce polycopis, des liens vers des notes de cours disponibles sur internet, et un certain nombre de bases de donnes qui peuvent tre utilises en guise dexercices.
La nature semblait avoir sagement pourvu ce que les sottises des hommes fussent passagres, et les livres les immortalisent. (Montesquieu, Les Lettres Persanes). Malgr les nombreuses relectures, il est possible quun certain nombre de coquilles, voire derreurs persistent. Merci de men tenir inform....
18
Arthur CHARPENTIER
"Contrariwise," continued Tweedledee, "if it was so, it might be; and if it were so, it would be; but as it isnt, it aint. Thats logic." Lewis Carroll.
La pratique de lanalyse des sries temporelles vise modliser une (ou plusieurs, comme nous le developperons en n de cours) srie dobservations x1 ; :::; x n par un processus alatoire temps discret, cest dire une suite (Xn ) de variables alatoires dnies sur un espace de probabilit (-; A; P), tel que lon puisse penser que la srie observe soit une ralisation du processus. En dautres termes, x1 ; :::; x n doit tre obtenu comme tirage alatoire de X1 ; :::; Xn suivant la probabilit P, cest dire que se ralise un vnement ! tel que x i = Xi (!) pour i = 1; :::; n. Le but est alors, tant donne une tra jectoire x 1 ; :::; xn de reconstruire la dynamique du modle sous-jacent, cest dire de comprendre la liaison entre Xi et son pass Xi1 ; Xi2 ; :::; X1 .
2.1
Un processus ( temps discret ) sur un espace (-; A; P) est une suite de variables alatoires (Xt (!) ; t 2 N), valeurs dans un espace mesur (E; E) (dans le cas qui nous intresse, E = R). On peut considrer le processus comme la variable alatoire X (t; !), dni sur lespace produit - N muni de la tribu produit. Dnition 1 Une ltration fFt ; t 2 Ng est la donne dune suite croissante (au sens de linclusion) de sous-tribus de A. On posera F 1 = sup fFt ; t 2 Ng : il sagit de la plus petit tribu qui contienne toutes les Ft : La ltration la plus usuelle est obtenue de la faon suivante : on observe une suite (Xt) de variables alatoires, et on considre Ft = (X0 ; :::; Xt), qui est la plus petite tribu X qui rende mesurable les variables (X0 ; :::; Xn ). On appellera ltration naturelle cette ltration, et on la notera Ft . On dira que (Xt ) est adapte la ltration (F t) si pour tout t, Xt est F t -mesurable. La ltration naturelle est la plus petite ltration par rapport laquelle le processus soit adapt. On dira que le processus (Xt ) est prvisible si X pour tout t 1, Xt est F t1 -mesurable. Dnition 2 Le processus fXt ; t 2 Ng muni de la ltration fF t; t 2 Ng tel que pour tout t; Xt soit intgrable. On dira que (Xt) est une martingale si et seulement si, pour tout t, E (Xt+1 jFt ) = Xt presque srement. Remarque 6 Si pour tout t, E (Xt+1 jF t ) Xt presque srement, on dira que (Xt ) est une sous-martingale, et si pour tout t, E (Xt+1 jFt ) Xt presque srement, on dira que (Xt ) est une sur-martingale. Si (Xt ) est une (Ft )-martingale, alors pour tout h 0, E (Xt+h jF t) = Xt . De plus, si la martingale est de carr intgrable, les accroissements sont orthogonaux : si Xt = Xt Xt 1 , pour s 6= t, E (Xt Xs ) = 0: Une des consquences est que, pour tout h 0
h X 2 2 E [Xt+h Xt] = E Xt+i : i=1
2.2
Dnition 3 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement si, pour tout t,
Autrement dit, compte tenu de la tra jectoire (XT 1 = xT 1 ; XT 2 = xT 2 ; :::) dun processus (Xt ), la loi de XT linstant T est entirement dtermine par le fait que la valeur en T 1 soit xT 1 . 19
Arthur CHARPENTIER
Thorme 1 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement sil existe une fonction g (:) mesurable et un processus "t tel que Xt = g (Xt1 ; "t ) - avec ("t ) une suite de variables alatoires, indpendantes et de mme loi. Lorsque lapplication g ne dpend par de t, la chane de Markov est dite homogne. Exemple 8 Les processus AR (1) : Xt = + Xt1 + "t; o ("t ) est un bruit blanc, sont markoviens. Exemple 9 En particulier, les processus de la forme Xt = Xt1 + "t correspond une marche alatoire : - si X0 2 Z et P (" t = 1) = P ("t = +1) = 1=2, on obtient la marche alatoire symtrique sur Z (jeu du pile ou face), - si "t suit une loi normale centre, on obtient une discrtisation du mouvement brownien.
2.3
Dnition 4 Un processus (Xt ) est stationnaire au second ordre si 2 (i) pour tout t, E Xt < +1, (ii) pour tout t, E (Xt ) = , constante indpendante de t, (iii) pour tout t et pour tout h, cov (Xt ; Xt+h ) = E ([Xt ] [Xt+h ]) = (h), indpendante de t. Dnition 5 La fonction (:) sera appele fonction dautocovariance On peut montrer aisment que (:) est une fonction paire, au sens o (h) = (h) pour tout h, et que la variance V (Xt ) est constante, indpendante de t; V (Xt ) = (0) : Proprit 1 Si (Xt ; t 2 Z) est un processus stationnaire, et si (ai; i 2 Z) est une suite de rels absolument convergente, P i.e. i2Z jai j < +1; alors, le processus (Y t) dni par X Yt = ai Xti; pour tout t 2 Z,
i2 Z
est un processus stationnaire. Corollaire 2 En particulier, si (ai; i 2 Z) est une suite de rels nie, la suite Yt est stationnaire. Par exemple, si a0 = a1 = 1=2, et ai = 0 pour i 2 f0; 1g : = 1 Y t = (Xt + Xt1 ) ; 2 est stationnaire ds lors que (Xt ) est stationnaire. De mme pour Yt = Xt Xt1 . Dnition 6 Un processus (Xt ) est stationnaire au sens fort si pour tous t1 ; :::; tn et h on a lgalit en loi (Xt1 ; :::; Xtn ) = (Xt1+h ; :::; Xtn +h ) : Remarque 7 Cette notion revient dire que la loi temporelle est invariante en temps. Cette stationnarit est beaucoup plus forte que la stationnarit du second ordre, puisquon ne recherche pas la stabilit de la loi, mais seulement la stabilit des deux premiers moments. Dnition 7 On appelle bruit blanc (parfois appel bruit blanc faible) un processus ("t) stationnaire dont les autocovariance sont toutes nulles : (h) = 0 pour h 6= 0. Remarque 8 Nous avons vu dans la partie prcdante que (Xt) est une martingale si et seulement si, pour tout t, E (Xt+1 jXt ; Xt1 ; ::::) = Xt pour tout t, ou, de faon quivalente, cela signie que Xt+1 = Xt +" t avec E ("t+1 j"t ; "t1 ; ::::) = 0 pour tout t. Cette notion est plus contraignante que celle de marche alatoire : en eet, la proprit de martingale implique lindpendance des accroissements ("t) alors que la dnition de la marche alatoire nimplique que la nullit des corrlations des accroissements. Dnition 8 Un processus stationnaire (Xt) sera dit ergodique si pour tout p 2 N , et pour tout fonction borlienne de Rp valeurs dans R, on a
N 1 X f (Xi+1 ; Xi+ 2; :::; Xi+p ) ! E (f (X1 ; X2 :::; Xp )) ; quand N ! 1; N i=1 d
qui peut tre vu simplement comme une gnralisation de la loi de grand nombre. 20
Arthur CHARPENTIER
La notion de stationnarit (faible, ou au second ordre) se dnie par une invariance des moments dordre 1 et 2 au cours du temps. Par opposition, on dira quune srie est non-stationnaire si elle nest pas stationnaire. On peut noter que la classe des processus non-stationnaire est alors relativement vaste, et surtout htrogne : il existe direntes sources de non-stationnarit, et chaque origine de non-stationnarit est associe une mthode propre de stationnarisation. Nelson et Plosser ont retenu, en 1982, deux classes de processus non-stationnaires : les processus T S (trend stationary ) et les processus DS (dierence stationary ) Les premiers correspondent une non-stationnarit de type dterministe, alors que les seconds correspondent une non-stationnarit de type stochastique. Dnition 9 (Xt) est un processus non-stationnaire TS sil peut scrire sous la forme Xt = f (t) + Zt o f (t) est une fonction (dterministe) du temps, et (Zt) est un processus stationnaire. Lexemple le plus simple est celui de la tendance linaire bruite : Xt = + t + "t . Ce processus est en eet non-stationnaire puisque son esprance vaut + t la date t, et donc, dpend de t. Une des proprits importantes de ce type de processus est quil ny a pas persistance des chocs : linuence dun choc subit un instant aura tendance sestomper au cours du temps, et la variable rejoint alors sa dynamique de long-terme, dtermine par f (t). Dnition 10 (Xt ) est un processus non-stationnaire DS - ou intgr dordre d, not I (d) - si le processus obtenu d aprs d direnciation est stationnaire : Zt = d Xt = (1 L) Xt est stationnaire Comme nous le verrons par la suite, le fait quil faille direncier d fois, cest dire multplier par (1 L) , polynme de loprateur retard L, revient chercher la prsence de racines unit : si le processus (L) Xt est stationnaire, si 1 est une racine du polynme , alors (Xt) sera non-stationnaire. Cest pour cela que la plupart des tests de non-stationnarit sont des tests de dtection de racine unit.
d
2.4
2.4.1
Dnition 11 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocovariance, pour tout t, par h 7! X (h) = cov (Xt ; Xth ) = E (Xt Xth ) E (Xt ) :E (Xt h ) : Dnition 12 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocorrlation, pour tout t, par h 7! X (h) = corr (Xt ; Xth ) = p cov (Xt; Xt h ) (h) p = X : X (0) V (Xt ) V (Xth )
Dnition 13 Un processus ("t ) sera appel bruit blanc (faible) sil est stationnaire, centr et non-autocorrl : E ("t ) = 0; V ("t ) = 2 et " (h) = 0 pour h 6= 0: On parlera de bruit blanc fort sil est indpendant et identiquement distribu (i:i:d:) : la notion dindpendance est plus forte que la nullit des autocorrlations, et le fait que le processus soit identiquement distribu est plus fort que la stabilit des deux premiers moments. Exemple 10 Processus M A (1) : Xt = "t + "t1 o ("t ) est un bruit blanc centr de variance 2 , 8 < (0) = 1 + 2 2 , soit (1) = et (h) = 0 pour jhj 2: (1) = 2 : 1 + 2 (h) = 0 si jhj 2 2.4.2 Densit spectrale Lide ici est que les coecients dautocovariance dune srie stationnaire correspondent aux coecients de Fourier dune mesure positive, appele mesure spectrale du processus. Il est possible de montrer que cette mesure spectrale admet une densit, dite spectrale, par rapport la mesure de Lebesgue sur [; ], que nous noterons fX . Dans le cas o la srie des autocovariance est absolument convergente, la densit spectrale est alors dnie comme la transforme de Fourier des coecients dautocovariance (dans le cas o la somme des jX (h)j tend vers linni, la somme est prendre au sens de L2 ) : comme lont montr Cramr, Kolmogorov, ou encore Wiener, on les rsultats suivants, 21
Arthur CHARPENTIER
(i) la suite des fonctions dautocovariance X (h) dun processus stationnaire peut tre crit sous la forme Z + X (h) = exp (i!h) dFX (!) ;
o F X (!) = X (0) est une fonction de rpartition, R + (ii) tout processus stationnaire peut se mettre sous la forme Xt = exp (i!t) dz (!) o z (!) est une fonction alatoire, complexe, accroissements non corrls. Cette reprsentation est appele reprsentation de Cramr. Dnition 14 Soit (Xt ) un processus stationnaire de fonction dautocovariance X (:), la densit spectrale de (Xt ) scrit 1 X f X (!) = X (h) exp (i!h) : 2
h2 Z
Proprit 2 Rciproquement, si f X (:) est la densit spectrale de (Xt ) alors Z + X (h) = fX (!) exp (i!h) d!:
Exemple 11 Un bruit blanc (" t) est caractris par " (0) = V (" t) = 2 " (h) = 0; pour h 6= 0; Alors sa densit spectrale est donne par 2 (= constante). 2 Proprit 3 Si la densit spectrale dune srie (Zt ) est constante, alors (Z t) est un bruit blanc. f " (!) = Preuve. En eet Z (h) = Z
+
Z |
=0 sau f si h=0
Cette nullit de la fonction dautocorrlation est donc une charactristique du bruit blanc. Proprit 4 Si Xt est une moyenne mobile, X Xt = ak "tk , o ("t ) est un bruit blanc BB 0; 2 ; avec P
k2Z
exp (i!h) d! {z }
Remarque 9 La densit spectrale dun processus peut tre estime sous SAS, laide de la procdure spectra. Nous allons reprendre ici lexemple de taches solaires observe de 1770 1869, tel que lavait fait Wolfer
22
Arthur CHARPENTIER
La procdure suivante permet dobtenir le priodogramme de cette srie title "Wolfer0s Sunspot Data"; proc spectra data = sunspot out = b p s adjmean whitetest; var wolfer; weights 1 2 3 4 3 2 1; run;
avec, respectivement, en haut, le priodogramme (P) en fonction de la frquence ( gauche), et de la priode ( droite), et en bas, la densit spectrale estime (S) en fonction de la frquence ( gauche), et de la priode ( droite). Sur ces donnes, on observe un pic correspondant une priodicit de 11 ans. Le graphique ci-dessous 10 correspond au priodogramme obtenu sur direntes priodes dobservation,
2.4.3
T 1 X = X t: T t=1
23
Arthur CHARPENTIER
Si ces estimateurs sont biaiss ( distance nie), ils sont malgr tout asymptotiquement sans biais. Proprit 5 Les moments empiriques convergent vers les moments thoriques : X T ! m, b T (h) ! (h) et bT (h) ! (h) quand T ! 1. En fait, comme nous le verrons par la suite, nous avons mme normalit asymptotique des moments empiriques. Remarque 10 Bien que ces fonctions soient dnies pour tout h tel que T < h < T , la fonction dautocovariance empirique fournit un estimateur trs pauvre de (h) pour des valeurs h proches de n. A titre indicatif, Box et Jenkins recommandent de nutiliser ces quantits que si T > 50 et h T =4. In pratice, to obtain usefull estimate of the autocorrelation function, we need at least 50 obsevations, and the estimated autocorrelations rk could be calculated for k = 1; :::; K where K was not larger than, say, T =4. An, par exemple, de faire de la selection de modles, il est important de pouvoir dire si les autocovariances empiriques sont signicativement non nulles. Il est alors possible dutiliser le rsultat suivant P Proprit 6 Si (Xt ) est un processus linaire, au sens o il satisfait Xt = j2Z j "t j o ("t) est une suite de 4 2 2 variables i.i.d. centres, telle que E "t = E "t < +1, o les j dnissent une srie absolument convergente, et o est une constante positive, alors, on a la formule dite de Bartlett,
T !1
bT (h) : b T (0)
Preuve. Brockwell et Davis (1991) page 226. Ce thorme nest, en thorie, valable que pour un bruit blanc fort. On peut galement montrer que ces autocorrlation vrient une proprit encore plus forte, P Proprit 7 Si (Xt ) est un processus linaire, au sens o il satisfait Xt = j "t j o ("t) est une suite de 4 2 2 j2Z 2 variables i.i.d. centres, telle que E "t = E "t < +1, et "t s N 0; , et o les j dnissent une srie absolument convergente, et o est une constante positive, alors, on a, pour tout p 0, 0 1 00 1 1 bT (0) (0) p B C BB . C C . . n@ A ! N @@ . A ; V A ; . . o V est la matrice de variance-covariance dnie par " # +1 X V = (h) (k) + (i) (i + k h) + (i + k) (i h)
i=1
i=1
+1 X
(i) (i + k h) + (i + k) (i h) .
bT (p)
(p)
:
h;k=0;:::; p
Preuve. Brockwell et Davis (1991) page 227. 2.4.4 Estimation de la densit spectrale
Le priodogramme est observations est dni comme le module au carr de la transform de Fourier discrte des observations, i.e. T 2 1 X 1 X IT (x) = Xt exp (itx) = bT (h) exp (i!x) : 2T 2
t=1 h2Z
Le plus souvent, on estime le priodogramme aux frquences de Fourier, i.e. x k = 2k=T pour k = 1; :::; T , not IT ;k . Sous des hypothses de rgularit de la densit spectrale, le priodogramme est un estimateur asymptotiquement sans biais de la densit spectrale. Mais il nest pas consistant (on ne peut estimer que les T premier (h) intervenant dans la dnition du priodogramme partir de T observations ). 24
Arthur CHARPENTIER
Exemple 13 Dans le cas dun processus i.i.d. gaussien, valu aux frquences de Fourierde ]0; [ forme une suite de variables indpendantes, et identiquement distribues, suivant une loi du 2 , centr, deux degrs de libert. Exemple 14 Pour les processus dit mmoire longue, la densit spectrale sexprime sous la forme f (x) = j1 exp (ix)j 2d f (x) ; o f est une fonction positive. Les valeurs du priodogramme sont asymptotiquement biaises, et asymptotiquement corrles. Le fait que cette fonction ait un ple (ici en 0) est dailleurs une caractrisation de la mmoire longue. Cette densit spectrale permet dobtenir un grand nombre de rsultat. Par exemple, il est possible destimer directement la variance du processus dinnovation11 , en utilisant la formule dite de Kolmogorov, Z 2 1 2 = 2 exp log fX (x) dx : 2 0 Un estimateur de cette variance est alors 2 = b
T 1 X log IT ;k : T t=1
Dans le cas des processus mmoire longue, la densit spectrale est de la forme f X (x) s Cx 2d . Un estimateur non paramtrique de d peut tre obtenu en rgressant localement le log-priodogramme dans un voisinage de la frquence nulle. On appelle alors estimateur GPH m ! 1 m mT T T X X 2 X 2 b= d LT ; k LT ;n : log L T ;k o LT ; k = 2 log jx k j + log IT ;j ; mT
k=1 k=0 j=1
2.5
Dnition 15 Un mouvement brownien Wt est un processus stochastique, dnit pour t 2 R +, tel que W 0 = 0 et tel que, quelles que soient lesdates t1 < 2 < ::: < tk les variations du processus Wt2 Wt1 ; Wt3 Wt2 ; :::; W tk Wtk1 t , sont indpendantes, avec E Wti Wtj = 0 et V Wti W tj = 2 (ti tj ). De plus, les variations du processus entre deux dates ti et tj (telles que ti < tj ) sont normalement distribues W ti W tj s N 0; 2 (ti tj ) . Dans le cas o 2 = 1, on parlera de mouvement brownien standard. De plus, W t est continu en t, sans tre drivable : bien que le processus soit continu, les variations ne sont pas bornes. Pour visualiser un mouvement browien il sut de considrer une marche alatoire continue : on considre une marche alatoire discrte (Xt = Xt1 + "t o "t s N (0; 1)), pour laquelle on diminue les intervalles temporels entre deux dates conscutives,
50 40 30 20 10 0 -10
100
200
300
400 DX
500
600
700
Proprit 8 Soit X1 ; X2 ; :::; XT un chantillon i:i:d:, centr, de variance 2 . Soit [:] la partie entire au sens o [x] x < [x] + 1 et [x] 2 Z, alors pour tout 0 < r < 1, X 1 L qp Xt ! N 0; 2 [rT ] t=1 25
[rT ]
1 1 Cette
Arthur CHARPENTIER
Ce rsultat est parfois appel Thorme Centrale Limite Fonctionnel . Notons X T la variable construite partir des [rT ] premires observations par [r T ] 1 X (r ) XT = X t; T t=1 du rsultat prcdant, il en dcoule que p
(r ) TXT L
( r)
! N (0; r) ou encore
p (r2) (r1) T XT XT
! N (0; r2 r1 ) ;
p (:) pour r1 < r2 . Ceci permet de montrer que la suite des T :X T = est asymptotiquement distribue comme un mouvement brownien, au sens o p (:) T XT L ! W: Ce type de rsultat est alors trs utile pour obtenir des rsultats analytiques sur les processus intgrs. Considrons par exemple, une marche alatoire dnie par Xt = Xt1 + "t o "t est un bruit blanc de variance 2 , soit Xt = "1 + "2 + ::: + "t pour tout t, avec la convention X0 = 0: Notons X T la variable construite partir des [rT ] premires observations par X T == on a alors
(r ) [rT ] 1 X 1 i 1 i Xt = (" 1 + "2 + ::: + " i) ; o r< ; T t=1 T T T (r)
p Z T
1 0
(r) X T dr
=T
3=2
et daprs le thorme central limite fonctionnel, T 3=2 De faon analogue, on peut montrer que T 2
T X t=1
(:) L
T X t=1
x t1 ;
T X t=1
W s ds:
(Xt1 )
2 T !1
! 2
1 0
(W s) ds:
Ces rsultats seront utiliss en particulier pour la dtermination des proprits asymptotiques des estimateurs obtenus partir de sries intgres. La construction de lintgrale stochastique sobtient dailleurs comme passage la limite sur des processus temps discret12 . Considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit st = t=T pour t = 0; 1; :::; T . Considrons ici (Xst ), not (Y t ), un processus dni pour t = 0; 1; :::; T . On appelera variation quadratique de la srie chronologique (Y ) la srie chronologique dnie par < Y >t =
t X
j= 1
[Y j Y j 1 ] pour t = 0; 1; :::; T
La variation quadratique du mouvement bronwien standard (W t) est obtenu comme passage la limite < W > t= lim
1 2 De
T !1
faon plus simple, lintgrale dune fonction alatoire par rapport une mesure dterministe de dnie dj comme une limite : soit At un processus en temps continu, et considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit s = s=T pour s = 0; 1; :::; T . Considrons ici X s, not Ys, le processus dni pour s = 0; 1; :::; T , par Ys = At I (T t s < T (t + 1)), alors Z t s 1 X As ds = lim Ys T !1 T 0 j =1
t X j=1
[Wj W j1 ]2 = t
26
Arthur CHARPENTIER
XsdW s =
t X i=1
Xi [W j Wj 1 ]
o (Xs ) est un processus discret : Xs = Xi pour (i 1) =T s < i=T , puis par passage la limite, stend aux processus en temps continu. Aussi, tous les modles nanciers en temps continu ont un analogue en temps discret. Mais si les modles en temps continu sont autant utiliss, cest principalement parce que le calcul stochastique et la formule dIto permet danalyser les problmes de faon lgante et relativement rapide. Un processus suivant lquation stochastique Z t Z t dY t = f (t; Y t ) dt + g (t; Y t) dWt ou Yt = Y0 + f (s; Y s ) ds + g (s; Y s) dWs
0 0
peut tre assimil un processus en temps discret vriant lquation (approximation dEuler ) Yt+1 Yt = f (t; Yt ) + g (t; Y t ) [Wt+ 1 Wt ] = f (t; Y t ) + g (t; Y t ) "t o ("t) est un bruit blanc gaussien, de variance 1. Remarque 11 Rciproquement, en reprenant un exemple de Nelson (1990), un modle temps discret de type GARCH (1; 1) M (multivari), dni par Y t = Y t1 + f 2 + t "t t 2 = ! + 2 ( + " t) t+1 t o ("t ) est un bruit blanc gaussien, est lanalogue en temps discret de lquation de diusion 1 dYt = f 2 dt t dW t t 2+ d 2 = ! t dt + 2 dW t2 t t o Wt1 et W t2 sont deux mouvements browniens centrs, rduits et indpendants.
27
Arthur CHARPENTIER
La dcomposition tendance-cycle Lanalyse des sries temporelles (conomiques par exemple ) repose le plus souvent sur une dcomposition tendancecycle de la srie. Toutefois, cette dcomposition, si elle est trs utilise en pratique, ne repose pas sur une construction thorique unique. Il est alors souvent admis que la tendance correspond lquilibre de long terme, alors que le cycle correspond la dynamique de court terme. Mais cette distinction ne sut pas pour identier clairement les deux composantes, et des hypothses supplmentaires sont alors ncessaires. Deux approches sont alors gnrallement utilises : la premire consiste utiliser une thorie conomique (cest dire un modle structurel dont les composantes auront des interprtations conomiques ), alors que la seconde tend utiliser des outils statistiques neutres . Nous allons nous intresser ici cette seconde approche. Nanmoins, nous pouvons ds prsent noter que cette neutralit est dicile mettre en oeuvre : il existe une innit de faon de construire la tendance moyenne, par exemple. Il existe alors de nombreuses mthodes pour valuer la croissance tendancielle. Nous allons nous concentrer ici sur des dcompositions additives de la forme (Xt ) = (T t ) + (C t ). Un modle multiplicatif peut en eet se ramener un modle additif en passant au logarithme. Les mthodes traditionelles reposent sur deux techniques : lestimation dune tendance dterministe et le lissage. Des mthodes plus rcentes se basent sur la notion de tendance stochastique, avec en particulier la mthode de Beveridge et Nelson, et les modles composantes inobservables. Parmi les mthodes de lissage, lapproche la plus simple consiste utiliser des moyennes mobiles on utilise alors une moyenne (pondre) de la srie (Xt) dont la dure correspond au cycle, qui conserve la tendance et limine le cycle. La moyenne symtrique arithmtique est lexemple le plus simple : on considre alors la srie (Yt ) dnie par Yt = M (Xt ) = 1 (Xt m + Xtm+1 + ::: + Y t1 + Yt + Y t+1 + ::: + Yt+m ) 2m + 1 (3)
Ce type de lre, comme nous le verrons par la suite, conserve les tendances linaires, et ltre (ou annule) les sries priodiques de priode 2m + 1. Toutefois, deux problmes apparaissent dans lutilisation des ltres moyennes-mobiles - les points extrmes de la srie ne peuvent tre traits de la mme faon que les autres points (eet de bord ) - les sries lisses sont souvent autocorrles, non pas cause de la structure de la srie initiale, mais il sagit dune consquence du processus de lissage (eet Slutsky-Yule ). Dautre mthodes de lissage existent, par exemple en utilisant la mthode P AT (phase average trend ) ou le ltre de Hodrick-Prescott (1980). Lestimation dun trend dterministe repose sur lutilisation de fonctions simples, par exemple linaires, Xt = T t + C t = a + bt + C t (4)
Ces modles apparaissent parfois dans la littrature sous le terme T S (trend stationary ), et le cycle (suppos stationnaire) apparat alors comme lcart la tendance. Cette tendance est alors estime par rgression. Cette mthode sera celle developpe dans la premire partie, mme si elle a t fortement critique : la croissance long terme est alors xe de faon mcanique. Des modles avec rupture de tendance ont ainsi t introduits. Il convient toutefois de noter que cette dcomposition tendance-cycle ne sont pas adaptes pour les sries nonstationnaires, et il convient dintgrer une composante stochastique dans la tendance. Le modle de Beveridge et Nelson propose dexprimer les composantes laide dune reprsentation ARIM A de la srie (trait dans lexercice (5)). Les modles composantes inobservables repose surlutilisation de modles espace-tat (introduits dans le paragraphe ([Link]) sur le ltre de Kalman). Ces deux mthodes sont prsentes dans larticle de Doz, Rabault et Sobczack Dcomposition tendance-cycle : estimations par des mthodes statistiques univaries (1995).
28
Arthur CHARPENTIER
3
3.1
Nous considrons ici une srie chronologique, mensuelle, comportant une forte saisonalit : trac voyageur de la SNCF (source : Gouriroux & Monfort (1995)) J AN 1750 1710 1670 1810 1850 1834 1798 1854 2008 2084 2081 2223 2481 2667 2706 2820 3313 2848 F EB 1560 1600 1640 1640 1590 1792 1850 1823 1835 2034 2112 2248 2428 2668 2586 2857 2644 2913 M AR 1820 1800 1770 1860 1880 1860 1981 2005 2120 2152 2279 2421 2596 2804 2796 3306 2872 3248 AP R 2090 2120 2190 1990 2210 2138 2085 2418 2304 2522 2661 2710 2923 2806 2978 3333 3267 3250 M AY 1910 2100 2020 2110 2110 2115 2120 2219 2264 2318 2281 2505 2795 2976 3053 3141 3391 3375 J UN 2410 2460 2610 2500 2480 2485 2491 2722 2175 2684 2929 3021 3287 3430 3463 3512 3682 3640 JU L 3140 3200 3190 3030 2880 2581 2834 2912 2928 2971 3089 3327 3598 3705 3649 3744 3937 3771 AU G SE P 2850 2090 2960 2190 2860 2140 2900 2160 2670 2100 2639 2038 2725 1932 2771 2153 2738 2178 2759 2267 2803 2296 3044 2607 3118 2875 3053 2764 3095 2839 3179 2984 3284 2849 3259 3206 OCT 1850 1870 1870 1940 1920 1936 2085 2136 2137 2152 2210 2525 2754 2802 2966 2950 3085 3269 N OV 1630 1770 1760 1750 1670 1784 1856 1910 2009 1978 2135 2160 2588 2707 2863 2896 3043 3181 DE C 2420 2270 2360 2330 2520 2391 2553 2537 2546 2723 2862 2876 3266 3307 3375 3611 3541 4008
1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980
3.2
Le modle linaire
La srie Xt est la somme de 2 composantes dterministes : une tendance Zt , dune saisonnalit St et dune composante alatoire "t Xt = Zt + St + "t :
j i On suppose que Zt et S t sont des combinaisons linaires de fonctions connues dans le temps, Zt et St , i.e. 1 2 m Zt = Zt 1 + Zt 2 + ::: + Zt m 1 2 n S t = St 1 + St 2 + ::: + St n :
Le but est destimer les 1 ; :::; m et 1; :::; n partir des T observations. Xt = 3.2.1 Hypothses sur les erreurs
m X i=1 i Zt i + n X j=1 j St j + "t pour t = 1; :::; T :
On supposera lhypothse (H1) vrie, savoir que les erreurs sont centres : E ("t ) = 0, de mme variance V ("t ) = 2 et non-corrles cov ("t ; " th ) = 0 pour tout h > 0. 29
Arthur CHARPENTIER
3.2.2
i La forme de St dpend du type de donnes, et de la forme de la saisonnalit. On considrera ici des fonctions St indicatrices, 0 si t = mois i 0 si t = 0 [modulo i] i i St = ou St = 1 si t 6= mois i 1 si t 6= 0 [modulo i] : j 3 4 Exemple 15 Pour des donnes trimestrielles, on a St = S1 1 + S2 2 + St 3 + St 4 o St est la fonction indicatrice t t du trimestre j:
3.2.3
Composante tendancielle
Plusieurs types de composantes tendancielles existent : (i) linaire : Zt = 0 + 1 t; (ii) exponentielle : Z t = t, ou Zt = (1 + r)t ou encore Zt = exp (rt) ; (iii) quadratique Zt = 0 + 1 t + 22 ; t (iv) de Gompertz Zt = exp t + ; 1 (v) logistique Zt = t : Le cas (i) se traite par rgression simple (cf partie suivante), le cas (ii) se ramne au cas (i) par transformation logarithmique, et le cas (iii) se traite par rgression multiple. Il est galement possible dutiliser des modles avec des ruptures : 0 + 1 t pour t t0 Zt = 0 + 1 t pour t > t0 : Cette tendance est une des composante les plus complique modliser car il nexiste pas vraiment de mthode Exemple 17 Considrons comme variable le logarithme de lindice du New York Stock [Link] cidessous, en haut gauche, sur laquelle nous avons tent trois ajustements dirents : linaires (en haut droite), quadratique (en bas gauche) et exponentiel (en bas droite) :
7 6,5 6 5,5 5 4,5 4 3,5 3 1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999 log(NYSE) Linaire
log(NYSE) Polynomial
log(NYSE) Exponentiel
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999
3 1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999
La vraie dicult est que la modlisation doit pouvoir avoir un sens : une tendance linaire indique une croissance linaire, alors quune tendance exponentielle indique une augmentation constante (rapport Xt =Xt 1 constant). En revanche, une tendance quadratique peut tre plus dicile justier puisque la plupart des modles structurels sont gnralement additifs (linaires) ou multiplicatifs (linaire en prenant le logarithme). Les tendances linaires avec galement trs utilise, puisquelle sont souvent plus adapte quune tendance linaire simple, et surtout, la rupture a une interprtation structurelle.
30
Arthur CHARPENTIER
3.2.4
La dsaisonnalisation par rgression linaire, dans le cas o la tendance est suppose linaire, et les donnes sont trimestrielles, quivaut tester le modle linaire
1 2 4 Xt = a + t + 1 St + 2 St + 3 S 3 + 4 St + "t ; t | {z } | {z } Zt St
o Zt est la tendance (linaire) et o St est la composante saisonnire. Supposons que les 1er trimestre. Le modle scrit alors, pour lexemple du trac SNCF 0 1 0 1 0 1 0 1 0 1 0 1 0 5130 1 1 1 0 0 B 6410 C B 1 C B 2 C B 0 C B 1 C B 0 C B B C B C B C B C B C B C B B 8080 C B 1 C B 3 C B 0 C B 0 C B 1 C B B C B C B C B C B C B C B B 5900 C B 1 C B 4 C B 0 C B 0 C B 0 C B B C B C B C B C B C B C B B 5110 C B 1 C B 5 C B 1 C B 0 C B 0 C B B C B C B C B C B C B C B B 6680 C B 1 C B 6 C B 0 C B 1 C B 0 C B B C = B C+ B C + 1 B C + 2 B C + 3 B C + 4 B B 8350 C B 1 C B 7 C B 0 C B 0 C B 1 C B B C B C B C B C B C B C B B 5910 C B 1 C B 8 C B 0 C B 0 C B 0 C B B C B C B C B C B C B C B B 5080 C B 1 C B 9 C B 1 C B 0 C B 0 C B B C B C B C B C B C B C B B . C B . C B . C B . C B . C B . C B @ . A @ . A @ . A @ . A @ . A @ . A @ . . . . . . Xt 1 t S1 t
2 St 3 St
donnes commencent au 0 0 0 1 0 0 0 1 0 . . .
4 St
qui peut se rcrire, de faon matricielle, 0 1 0 5130 1 1 B 6410 C B 1 2 B C B B 8080 C B 1 3 B C B B 5900 C B 1 4 B C B B 5110 C B 1 5 B C B B 6680 C B 1 6 B C=B B 8350 C B 1 7 B C B B 5910 C B 1 8 B C B B 5080 C B 1 9 B C B B . C B . . . . . @ . A @ . . Xt 1 t
C B C B C B C B C B C B C B C B C B C+B C B C B C B C B C B C B C B A @
"1 "2 "3 "4 "5 "6 "7 "8 "9 . . . "t
C C C C C C C C C C; C C C C C C C A
1 0 0 0 1 0 0 0 1 . . . S1 t
0 1 0 0 0 1 0 0 0 . . . 2 St
0 0 1 0 0 0 1 0 0 . . . 3 St
0 0 0 1 0 0 0 1 0 . . . 4 St
Lcriture de lestimateur des moindres carrs ordinaires scrit b = (Y 0 Y ) 1 Y 0X. Toutefos, cette criture nest possible que si Y 0Y est inversible, ce qui nest pas le cas ici car la premire colonne (correspondant la constante) est gale la somme des 4 dernires (les composantes trimestrielles ). Deux mthodes sont alors possibles pour faire malgr tout lidentication du modle. ne pas tenir compte de la constante, et identier le modle
1 2 3 4 Xt = t + 1 St + 2 St + 3 St + 4 St + "t ;
C C C0 C C CB CB CB CB CB CB C@ C C C C C A
B B 1 B B B B C B C B C B 1 C +B 2 C B C B 3 A B B 4 B B B @
"1 "2 "3 "4 "5 "6 "7 "8 "9 . . . "t
C C C C C C C C C C soit X = Y + " C C C C C C C A
(5)
(6)
31
Arthur CHARPENTIER
Cette dernire contrainte est arbitraire, mais correspond une interprtation bien prcise. Considrons la srie reprsente ci dessous, avec une saisonnalit dordre 4 (donnes trimestrielles)
350 300 250 200 150 100 50 0 350 300 250 200 150 100 50 0
Le modle (5) correspont au graphique ci-dessus gauche : le modle 0 1 0 45 1 1 0 0 0 B 110 C B 2 0 1 0 0 B C B B 215 C B 3 0 0 1 0 B C B B 80 C B 4 0 0 0 1 B C B B 65 C B 5 1 0 0 0 B C B B 130 C B 6 0 1 0 0 B C=B B 235 C B 7 0 0 1 0 B C B B 100 C B 8 0 0 0 1 B C B B 85 C B 9 1 0 0 0 B C B B . C B . . . . . . . . . @ . A @ . . . . . . . 1 2 3 4 Xt t St S t St St
alors que le modle (6) correspont au graphique ci-dessus droite et le modle scrit alors 0 1 0 1 45 1 1 1 0 0 0 B 110 C B 1 2 0 1 0 0 C B C B C B 215 C B 1 3 0 0 1 0 C0 1 B C B C B 80 C B 1 4 0 100 0 0 1 C B C B CB C B 65 C B 1 5 1 0 0 0 CB 5 C B C B CB B 130 C B 1 6 0 C B 60 C 1 0 0 C C: B C=B B C B 235 C B 1 7 0 0 1 0 CB 0 C B C B C@ 100 A B 100 C B 1 8 0 C 0 0 1 C B C B 40 B 85 C B 1 9 1 0 0 0 C B C B C B . C B . . . . . . C . . . . A @ . A @ . . . . . . . . . 3 4 Xt 1 t S 1 S2 St St t t
Dans le premier modle, la tendance ne correspond pas tout fait la notion intuitive de la saisonnalit En fait, il est possible de voir aisment quun simple jeu de translations permet de passer dun modle lautre.
3.3
3.3.1
32
Arthur CHARPENTIER
La mthode des mco consiste choisir les i et j de faon minimiser le carr des erreurs ( ) X 2 b ;b = arg min "
i j t
=
0
Le modle scrit
8 2 329 >X > m n < = X X i j 4 Xt arg min Zt i + St j 5 : > t=1 > : ; i=1 j=1
0
t= 1
:::
3 j h i S n 5 = S j j=1;:::; n t t=1;:::;T j
Y 0Y b = Y 0 X soit [Z S] b b b = Z0Z S 0Z
Z0S S 0S
ce qui donne les coecients 8 h i 1 h i > b 1 < = Z 0 Z Z 0 S (S 0 S)1 S 0 Z Z 0 X Z 0 S (S 0 S) S 0 X h i 1 h i > 1 : b = S 0 S S 0 Z (Z 0 Z) 1 Z 0S S 0 X S 0 Z (Z 0 Z) Z 0X : 3.3.2 Cas particulier : le modle trimestriel de Buys-Ballot
b= b
X;
Z 0X S0X
Remarque 12 Sil ny a pas deet saisonnier, X = Z + ", et on retrouve le modle linaire usuel, avec pour estimateur mco b = [Z 0 Z]1 Z 0 X: Pour le modle
1 2 4 Xt = 1 + 2 t + St 1 + St 2 + S 3 3 + St 4 + "t ; t
il est possible dexpliciter les dirents coecients. Lquation ( i2 PT h P4 j min ; t= 1 Xt 1 2 t j=1 St j sous contrainte () 1 + 2 + 3 + 4 = 0; peut se rcrire 8 2 32 > T 4 < X X 1 = [1 + 2 + 3 + 4 ] =4 j 4 Xt 2 t min St j 5 o j = j 1 ; > ; t=1 : j=1
En notant N le nombre dannes entires (N = T =4), on pose x e n : moyenne des Xt relatives lanne n x j : moyenne des Xt relatives au trimestre j x : moyenne de toutes les observations Xt On a alors les estimateurs suivant PN N (N+1) nen x x 2 b 2 = 3 n= 1 N (N 2 1) b b j = x j [j + 2 (N 1)] pour j = 1; 2; 3; 4
2
do nallement
h i b = b1 + b2 + b3 + b4 =4 1 b = bj b
j 1
33
Arthur CHARPENTIER
3.3.3
Les relations obtenues dans le cas prcdant peuvent en fait tre gnralises dans le cas dune priodicit m; et en notant (de la mme faon que prcdemment ) N le nombre dannes entures. L modle scrit alors
1 2 3 Xt = 1 + 2 t + St 1 + St 2 + St 3 + ::: + Sm m + "t: t
Lquation
min ;
PT
t=1
h i2 P j X t 1 2 t m St j j=1 nen x 2 N (N 2 1)
N (N+1)
Nm + 1 b 1 = x b2 2 m+1 bj = ej x b 2 j x 2
3.4
3.4.1
Considrons la srie du traic SNCF agrge par trimestre, reprsente colonne les trimestres, nnj 1 2 3 4 1 5130 6410 8080 5900 2 5110 6680 8350 5910 3 5080 6820 8190 5990 4 5310 6600 8090 6020 5 5320 6800 7650 6110 6 5486 6738 7258 6111 7 5629 6696 7491 6494 8 5682 7359 7836 6583 9 5963 6743 7844 6692 10 6270 7524 7997 6853 11 6472 7871 8188 7207 12 6892 8236 8978 7561 13 7505 9005 9591 8608 14 8139 9212 9522 8816 15 8088 9494 9583 9204 16 8983 9986 9907 9457 17 8829 10340 10070 9669 18 9009 10265 10236 10458 xj 6605 7932 8603 7425
34
Arthur CHARPENTIER
reprsente ci-dessous,
11000 10000 9000 8000 7000 6000 5000
64
66
68
70
72 SNCF
74
76
78
80
Considrons alors un modle de la forme suivante, avec une saisonnalit en 4 composantes (les donnes tant trimestrielles : chaque composante correspondant un trimestre ), et une tendance suppose linaire (Zt = 1 + 2 t),
1 2 4 Xt = 1 + 2 t + St 1 + St 2 + S 3 3 + St 4 + "t ; t
Compte tenu de la sur-identication de ce modle, on rajoute la contrainte que la somme des j soit nulle (cest dire que la composante saionnire soit centre : E (St ) = 0). On peut alors faire lestimation de la faon suivante : (i) on estime le modle (5), cest dire sans contrainte, et sans constante 1 (ii) et on se ramne au modle (6) en utilisant les relations. Pour ltape (i) deux mthodes analogues sont possibles : soit en utilisant les expressions des estimateurs, soit en eectuant la rgression sous EViews Calcul direct des estimateurs Les calculs ont t fait ici sous MSExcel, et sont prsents ci-dessous : 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 nnj 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 xj 5 5 5 5 5 5 5 5 5 6 6 6 7 8 8 8 8 9 6 T1 130 110 080 310 320 486 629 682 963 270 472 892 505 139 088 983 829 009 605 6 6 6 6 6 6 6 7 6 7 7 8 9 9 9 9 10 10 7 T2 410 680 820 600 800 738 696 359 743 524 871 236 005 212 494 986 340 265 932 8 8 8 8 7 7 7 7 7 7 8 8 9 9 9 9 10 10 8 T3 T4 080 5 900 350 5 910 190 5 990 090 6 020 650 6 110 258 6 111 491 6 494 836 6 583 844 6 692 997 6 853 188 7 207 978 7 561 591 8 608 522 8 816 583 9 204 907 9 457 070 9 669 236 10 458 603 7 425 x en 6 380,00 6 512,50 6 520,00 6 505,00 6 470,00 6 398,25 6 577,50 6 865,00 6 810,50 7 161,00 7 434,50 7 916,75 8 677,25 8 922,25 9 092,25 9 583,25 9 727,00 9 992,00 7641; 39 6 13 19 26 32 38 46 54 61 71 81 95 112 124 136 153 165 179 n en x 380,00 025,00 560,00 020,00 350,00 389,50 042,50 920,00 294,50 610,00 779,50 001,00 804,25 911,50 383,75 332,00 359,00 856,00
Pour chacune des annes et chacun des trimestre, il est possible de calculer des moyennes : aussi, la moyenne pour 1963 tait de 6380, et de 7435 pour 1973, et de faon analogue, la moyenne pour le premier trimestre est de 6605, et de 8603 pour le troisime. La moyenne totale est alors de 7641, pour ces 72 observations. Aussi, N = 18 (on a 18 annes dobservations), et la pente de la droite de la tendance est donne par " # N X 3 N (N + 1) 3 b 2 = nen x x = [1 419 019-1 306 678] t 57:97 N (N 2 1) 2 18 (18 2 1)
n=1
35
Arthur CHARPENTIER
en utilisant les moyennes par trimestre, et par anne, donnes dans le tableau ci-dessus, et 8 > b1 = 6605 35 57:97 t 4577 > > < b 2 = 7932 36 57:97 t 5845 bj = xj [j + 2 (N 1)] et donc b 2 > b3 = 8603 37 57:97 t 6459 > > : b 4 = 7425 38 57:97 t 5222 do nallement ( Aussi, le modle scrit h i b 1 = b1 + b2 + b3 + b4 =4 t 5526 j = bj b 1 b 8 > b1 = 4577 5526 > > < b 2 = 5845 5526 soit > b3 = 6459 5526 > > : b 4 = 5222 5526
R-squared 0.874440 Adjusted R-squared 0.866943 S.E. of regression 552.7023 Sum squared resid 20467147 Log likelihood -554.2395 Durbin-Watson stat 0.807306
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
La lecture de la sortie donne eectivement les mmes rsultats numriques que les calculs prsents ci-dessus. Toutefois, il est ais de voir que ce modle est dicile retenir, compte tenu du fait que les rsidus ne semblent pas i:i:d:
12000 10000 8000 2000 1000 0 -1000 -2000 6000 4000
64
66
68 Residual
70
72
74
76
78 Fitted
80
Actual
Lerreur de modlisaiton (les rsidus ) est, en moyenne, beaucoup trop importante au dbut, ainsi quau milieu (dbut des annees 70), mais lerreur se faisant ici dans lautre sens. Le caractre non-i:i:d: des rsidus pouvait tre devine la lecture des sorties de la rgression, grce au test de Durbin Watson, qui valide le caractre AR (1) des rsidus. 36
Arthur CHARPENTIER
S t j;
j= 1
j Remarque 13 La composante saisonnire St correspond j=1 St j , telle quelle apparat dans le modle contraint. Elle vrie alors E (St) = 0. Cette proprit nest pas vrie dans le modle sans constante.
Pn
12000
11000 10000
10000
9000
8000
8000 7000
6000
6000
3.4.2
La mthode dcrite ci-dessus donne les rsultats suivants 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 xj JAN 1750 1710 1670 1810 1850 1834 1798 1854 2008 2084 2081 2223 2481 2667 2706 2820 3313 2848 2195 FEB 1560 1600 1640 1640 1590 1792 1850 1823 1835 2034 2112 2248 2428 2668 2586 2857 2644 2913 2101 M AR 1820 1800 1770 1860 1880 1860 1981 2005 2120 2152 2279 2421 2596 2804 2796 3306 2872 3248 2309 AP R 2090 2120 2190 1990 2210 2138 2085 2418 2304 2522 2661 2710 2923 2806 2978 3333 3267 3250 2555 M AY 1910 2100 2020 2110 2110 2115 2120 2219 2264 2318 2281 2505 2795 2976 3053 3141 3391 3375 2489 JUN 2410 2460 2610 2500 2480 2485 2491 2722 2175 2684 2929 3021 3287 3430 3463 3512 3682 3640 2888 J UL 3140 3200 3190 3030 2880 2581 2834 2912 2928 2971 3089 3327 3598 3705 3649 3744 3937 3771 3249 AU G 2850 2960 2860 2900 2670 2639 2725 2771 2738 2759 2803 3044 3118 3053 3095 3179 3284 3259 2928 SEP 2090 2190 2140 2160 2100 2038 1932 2153 2178 2267 2296 2607 2875 2764 2839 2984 2849 3206 2426 OC T 1850 1870 1870 1940 1920 1936 2085 2136 2137 2152 2210 2525 2754 2802 2966 2950 3085 3269 2359 N OV 1630 1770 1760 1750 1670 1784 1856 1910 2009 1978 2135 2160 2588 2707 2863 2896 3043 3181 2205 DEC 2420 2270 2360 2330 2520 2391 2553 2537 2546 2723 2862 2876 3266 3307 3375 3611 3541 4008 2861 x en 2127 2171 2173 2168 2157 2133 2192 2288 2270 2387 2478 2639 2892 2974 3031 3194 3242 3331 2547
qui donne les coecients suivants b 2 9:82 b1 1038 b2 943 b3 1156 b4 1380 b5 1293 b6 1667 37 b7 1938 b8 1517 b9 1135 b10 1123 b11 975 b12 1618
Arthur CHARPENTIER
Ce qui donne la srie ajuste ( gauche) et la srie corrige des variations saisonnires ( droite)
4500 4000 3500 3000 2500 2000 1500 janv-63 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 janv-79 1000
4500 4000 3500 3000 2500 2000 1500 janv-63 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 janv-79 1000
3.5
Sous lhypothse E ("t ) = 0 les estimateurs mco sont sans biais : E b i = i et E bj = j : La variance des estimateurs peut tre estime par " b Z 0Z Z 0S 2 b V =s S0Z S0S b
1
; o s2 =
T X 2 1 " bt ; T nm t=1
3.6
3.6.1
Prvision un horizon h
Calcul de la prvision
avec E (" T +h ) = 0, V ("T +h ) = 2 et cov ("t ; "T +h ) = 0 pour t = 1; :::; T . La variable XT +h peut tre approche par b XT (h) =
m X i=1 i b ZT +h i + n X j ST + h bj :
j=1
Cette prvision est la meilleur (au sens de lerreur quadratique moyenne) prvision, linaire en X1 ; :::; XT et sans biais. Un intervalle de conance de cette prvision est de la forme h p p i b XT (h) 1 =2 bh ; XT (h) + 1=2 bh ; e b e o 1=2 est le quantile dordre de la loi de Student T m n degrs de libert, et o eh b 0 1 h m n i2 X X i j b b b = E X T (h) XT +h =V @ ZT + h b i + ST +h bj "T +h A = h b jb 0
0
b V
" # b b + s2: b b
i=1
j=1
38
Arthur CHARPENTIER
3.6.2
Dans lexemple considr prcdemment, en donnes mensuelles, considrons dsormais lensemble des donnes entre janvier 1970 et dcembre 1980, et considrons le modle suivant
1 2 3 4 5 6 7 8 9 11 12 Xt = 2 t + St 1 + St 2 + St 3 + St 4 + St 5 + St 6 + St 7 + St 8 + St 9 + S10 10 + St 11 + St 12 + "t t
Lestimation par la mthode des moindres carrs donne lestimation suivante b 2 9:82 b1 1038 b2 943 b3 1156 b4 1380 b5 1293 b6 1667 b7 1938 b8 1517 b9 1135 b10 1123 b11 975 b12 1618
LS // Dependent Variable is SNCF Sample: 1970:01 1980:12 Included observations: 132 after adjusting endpoints Variable Coefficient TEMPS MOIS01 MOIS02 MOIS03 MOIS04 MOIS05 MOIS06 MOIS07 MOIS08 MOIS09 MOIS10 MOIS11 MOIS12 9.820391 1038.316 943.3138 1156.312 1380.400 1292.943 1667.396 1938.121 1516.664 1135.480 1122.751 975.1121 1618.201 Std . Error T-Statistic Prob. 0.316040 61.85432 62.08883 62.32406 62.55999 62.79664 63.03398 63.27200 63.51071 63.75009 63.99014 64.23084 64.47220 31.07324 16.78647 15.19297 18.55321 22.06522 20.58937 26.45233 30.63157 23.88045 17.81143 17.54568 15.18137 25.09920 Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic ) 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 2793.386 503.6128 9.944720 10.22863 135.9186 0.000000
R-squared 0.932001 Adjusted R-squared 0.925144 S.E. of regression 137.7877 Sum squared resid 2259269. Log likelihood -830.6514 Durbin-Watson stat 1.284049
Comme le montre la sortie ci-dessus droite, tous les paramtres sont signicatifs, le R 2 est relativement bon (93%), la statistique de Fisher F est susement grande pour valider le modle. La courbe de gauche ci-dessous correspond la prvision du nombre de voyageurs pour 1982 et 1983; et [Link] de conance de cette [Link] donn droite,
4500 4000
5000
4000
3500 3000 2500
3000
2000
2000 1500 70 71 72 73 74 75 76 77 78 79 80 81 82 SNCF SNCFF
A 95%, lintervalle de conance correspond la prvision 145 (soit prvision 5%). Si cette prvision est aussi robuste, cest aussi parce que lon a restreint lintervalle dtude 1970 1980, en enlevant les premires annes. Les rsidus ainsi obtenus sont reprsents ci-dessous
4500 4000 3500 3000 2500 400 200 0 -200 -400 -600 70 71 72 73 74 Residual 75 76 77 78 79 Fitted 80 Actual 2000 1500
39
Arthur CHARPENTIER
Le but est de trouver une transformation du processus Xt qui annule la composante saisonnire St : on cherche un ltre tel que Y t = (Xt) = Zt + "t . Lutilisation des moyennes mobiles est relativement ancienne puisquelle remonte Poynting (1884) puis Hooker (1901) qui, les premiers, ont tent doter (et de distinguer ) la tendance et la composante cyclique pour des sries de prix en considrant des moyennes glissantes. En 1930, Macauley a introduit une mthode pour dsaisonnaliser les sries au sein de la Rserve Fdrale amricaine, base sur lutilisation de moyennes mobiles centres dordre 12, pour obtenir une estimation de la tendance. Dans les annes 50, le bureau du Census aux Etats Unis a commenc developper des modles bass sur lutilisation de moyennes mobiles, modles qui ont abouti la mthode X11 en 1965. Cette mthode a pu tre dveloppe grce aux dveloppements informatiques importants qui ont eu lieu cette poque. Une des implications est que des dcisions, faisant habituellement appel au jugement de lutilisateur, ont pu tre en grande partie automatises. De plus, linformatique a facilit lutilisation de rgressions visant corriger les eets de jours ouvrables (nombre de jours travaills dans le mois ). En 1975, suite au dveloppement des modles ARIM A (conscutif la publication des travaux de Box et Jenkins dans les annes 70), le modle X11 a pu voluer vers le modle dit X11-ARIMA. Le graphique ci-dessous rsume lvolution des mthodes de dsaisonnalisation, montrant la dirence entre modles paramtriques (rgression linaire - chapitre prcdant) et les modles non-paramtriques,
METHODES DE DESAISONNALISATION METHODES NON PARAMETRIQUES (mthodes de rgression locale) METHODES PARAMETRIQUES
MOYENNES MOBILES Slutsky (1927) - Macauley (1930) MEDIANES MOBILES MODELE X11-CENSUS Bureau du Census (1965)
La mthode de Buys-Ballot, bas sur une regression globale du modle a t prsent dans la partie prcdante. Nous allons prsenter dans cette partie les mthodes bases sur des rgressions locales. Les rgressions locales consistent ajuster des polynmes, en gnral par les moindres carrs, sur des intervalles glissants (se dcallant chaque fois dun point). Au centre de cette intervalle, la donne lisse est la valeur, cette date, du polynme ajust. Ces rgressions locales reviennent appliquer des moyennes mobiles.
4.1
4.1.1
Dnition 16 On appelera oprateur retard L (=lag, ou B =backward) loprateur linaire dni par L : Xt 7! L (Xt) = LXt = Xt1 ; et oprateur avance F (=forward) F : Xt 7! F (Xt ) = F Xt = Xt+1 ; 40
Arthur CHARPENTIER
Remarque 14 L F = F L = I (oprateur identit) et on notera par la suite F = L 1 et L = F 1 . Polynmes doprateurs L (i) Il est possible de composer les oprateurs : L2 = L L, et plus gnrallement, Lp = L L {z::: L | }
p fo is
o p 2 N
avec la convention L0 = I. On notera que Lp (Xt) = Xtp : (ii) Soit A le polynme, A (z) = a0 + a1 z + a2 z 2 + ::: + ap z p . On notera A (L) loprateur A (L) = a0I + a1 L + a2 L + ::: + ap L =
2 p p X
ak Lk :
k=0
Soit (Xt ) une srie temporelle. La srie (Yt ) dnie par Y t = A (L) Xt vrie Y t = A (L) Xt =
p X
ak Xtk :
k=0
Par passage la limite, on peut aussi dnir des sries formelles A (z) =
1 X
ak z k et A (L) =
k=0
1 X
ak Lk :
k=0
Proprit 9 Pour toutes moyennes mobiles A et B, alors 8 < A (L) + B (L) = (A + B) (L) 2 R, A (L) = (A) (L) : A (L) B (L) = (AB) (L) = B (L) A (L) :
4.1.2
Dnition 17 Une moyenne mobile est un oprateur linaire, combinaison linaire doprateurs retard M = qui peut scrire M = Lm 1
m1 +m2 X i=0 m2 X
i=m 1
iLi ; o m 1 ; m2 2 N,
im 1L i = Lm1
o (:) est un polynme appel polynme caractristique de M , de degr m1 + m 2 , et m 1 + m2 + 1 sera appel ordre de M (correspondant au nombre (thorique) de terme de M ). Dnition 18 Si m1 = m 2 = m, la moyenne mobile sera dite centre. De plus, si M est centre, et que pour tout i, i = i alors la moyenne mobile est dite symtrique. Exemple 18 La moyenne mobile M1 (Xt ) = (Xt + Xt1 ) =2; soit M 1 = (L + I) =2 = L [I + F ] =2 est de degr 1, dordre 2 et nest pas centre (ni symtrique). Exemple 19 La moyenne mobile M2 (Xt ) = (Xt+1 + 2Xt + Xt1 ) =4; soit M 2 = L 1 + 2I + L =4 = L I + 2F + F 2 =4 est de degr 2, dordre 3, est centre et symtrique.
m 1+m 2 X i=0
i m1 F i = L m1 (F ) ;
(10)
41
Arthur CHARPENTIER
On peut dj noter, pour les moyennes centres symtriques, sont ncessairement dordre impair (pour tre centres). Pour m impair, on considrera les moyennes mobiles dordre m = 2p + 1 dnie par Mm (Xt) = 1 [Xtp + Xtp+1 + ::: + Xt1 + Xt + Xt+ 1 + ::: + Xt+p1 + Xt+p ] : m
Exemple 20 La moyenne mobile dordre 3 - Cette moyenne mobile a pour coecients 1=3; 1=3; 1=3, M3 (Xt ) = 1 [Xt 1 + Xt + Xt+1 ] : 3
Exemple 21 La moyenne mobile dordre 9 - Cette moyenne mobile a pour coecients 1=9; 1=9; :::; 1=9, M9 (Xt ) = 1 [Xt 4 + Xt3 + ::: + Xt + ::: + Xt+4 ] : 9
Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous,
MOYENNE MOBILE ORDRE 3
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
Toutefois, il est possible de construire des moyennes mobiles centres et symtriques dordre pair, de faon articielle. Pour cela, pour m = 2p on considrera les moyennes mobiles dnies par Mm (Xt) = 1 Xtp+1=2 + ::: + Xt1=2 + Xt+ 1=2 + ::: + Xt+p 1=2 ; m
o Xt 1=2 est obtenue comme valeur intermdiaire entre Xt 1 et Xt. Cette moyenne mobile peut donc se rcrire 1 1 1 1 1 M m (Xt) = (Xtp + Xt p+1 ) + ::: + (Xt 1 + Xt) + (Xt + Xt+1 ) + ::: + (Xt+p1 + Xt+p ) m 2 2 2 2 1 1 1 = Xt p + Xtp+1 + ::: + Xt1 + Xt + Xt+1 + ::: + Xt+p 1 + Xt+p : m 2 2
1 [X T11/ 2 + X T1/ 2 + X T+1/ 2 + X T +1+1/ 2 ] 5 1 1 1 YT = X T 2 + X T 1 + X T + X T +1 + X T+ 2 5 2 2 YT =
XT+2
XT+1
T-5
T-4
T-3
T-2
T-1
T+1
T+2
T+3
T+4
T+5
42
Arthur CHARPENTIER
Cette moyenne mobile dordre pair est en fait une moyenne mobile dordre impair, que lon notera M 2p , dnie par 1 [Xt p + 2Xtp+1 + ::: + 2Xt1 + 2Xt + 2Xt+1 + ::: + 2Xt+p 1 + Xt+p ] : 2m Exemple 22 La moyenne mobile 2 4 - Cette moyenne mobile permet permet destimer des tendances dans le cas de donnes trimestrielles, el le est dordre 5 et de coecients 1=8; 1=4; 1=4; 1=4; 1=8 M 2p (Xt ) = 1 [Xt2 + 2Xt1 + 2Xt + 2Xt+1 + Xt+2 ] : 8 Comme nous le verrons par la suite, elle limine les saisonnalits trimestrielles des sries trimestriel les, elle conserve les tendances linaires, et elle rduit de 75% la variance dun bruit blanc. M24 (Xt ) = Exemple 23 La moyenne mobile 2 12 - Cette moyenne mobile permet permet destimer des tendances dans le cas de donnes mensuelles, elle est dordre 13 et de coecients 1=24; 1=12; 1=12; :::; 1=12; 1=24 1 [Xt6 + 2Xt5 + 2Xt4 + ::: + 2Xt+ 5 + Xt+6 ] : 24 Comme nous le verrons par la suite, elle limine les saisonnalits annuelles des sries mensuelles, elle conserve les tendances linaires, et elle rduit de plus de 90% la variance dun bruit blanc. M24 (Xt) = Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous
MOYENNE MOBILE ORDRE 2x4
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile 2x4
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78
Exemple 24 La moyenne mobile 33 - Cette moyenne mobile est dordre 5 et de coecients 1=9; 2=9; 3=9; 2=9; 1=9 1 [Xt2 + 2Xt1 + 3Xt + 2Xt+1 + Xt+2 ] : 9 Exemple 25 La moyenne mobile 3 9 - Cette moyenne mobile est dordre 11 et de coecients 1=27; 2=27; 3=27; 3=27; :::; 3=27; 2=27; 1=27 M33 (Xt ) = 1 [Xt 5 + 2Xt4 + 3Xt3 + 3Xt2 + 3Xt1 + ::: + 3Xt+4 + 2Xt+4 + Xt+5 ] : 27 Ces deux moyennes mobiles conservent les droites, et rduisent respectivement de 75% et de 90% la variance dun bruit blanc. M 39 (Xt) = 43
Arthur CHARPENTIER
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile 3x3
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78
Exemple 26 Les moyennes mobiles dHenderson - Ces moyennes mobiles sont utilises dans la mthode X11 pour extraire la tendance dune estimation de la srie corrige des variations saisonnires (partie ([Link])). Ces P 3 2 moyennes reposent sur lutilisation de loprateur H = i o est loprateur dirence premire (Xt = Xt Xt 1 ). Cette quantit est nulle dans le cas o les i se retrouvent sur une parabole : H mesure la distance entre la forme parabolique et la forme de la fonction dnissant les i . Hendersen a cherch les moyennes mobiles centres, dordre impair, conservant les polynmes de degr 2, et minimisant la fonction H : min
sous constraintes
i= p
+p X
i = 1,
i=p
+p X
ii = 0 et
i=p
+p X
i 2 i = 0;
ce qui donne les expressions explicites de i, en posant n = p + 2 h i i h 2 2 315 (n 1) i 2 n2 i2 (n + 1) i2 3n2 16 11i 2 i = : 8n (n2 1) (4n2 1) (4n2 9) (4n2 25) Cette relation permet dobtenir un certain nombre de moyennes mobiles 5 termes : M5 (Xt) = 7 termes : M7 (Xt ) = 1 [21Xt2 + 84Xt1 + 160Xt + 84Xt+1 21Xt+2 ] ; 286
Les deux moyennes prcdentes (5 et 7 termes) sont reprsentes sur les graphiques ci-dessous
MOYENNE MOBILE HENDERSON - 5
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE
SINUS - PERIODE 24
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
44
Arthur CHARPENTIER
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile Hendersen - ordre 7
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78
Moyenne mobile de 3 x5
0.5 0.4 0.3 0.2 0.1 0 -12 -0.1 -9 -6 -3 0 3 6 9 12
-12
-9
-6
-3
12 -0.1
-12
-9
-6
-3
12
4.1.3
Dnition 19 Soient M1 et M2 deux moyennes mobiles. Le produit de M 1 et M 2 est obtenu par composition des moyennes mobiles M1 M 2 (Xt ) = M 1 M 2 (Xt ) : Proprit 10 Ce produit est commutatif et associatif M1 M2 = M 2 M 1 et M 1 (M 2 M 3 ) = (M 1 M 2 ) M 3 : De plus, le produit est distributif par rapport laddition. Proprit 11 Lensemble des moyennes mobiles constitue un espace vectoriel. Proprit 12 La compose de deux moyennes mobiles symtriques est symtrique.
4.2
Dnition 20 Soit M une moyenne mobile. Sil existe et (Xt) non nul tels que M (Xt) = Xt , (Xt) sera vecteur propre associ la valeur propre .
45
Arthur CHARPENTIER
4.2.1
Dnition 21 Une suite (X t) est dite absorbe par M si et seulement si M (Xt) = 0 pour tout t. Exemple 27 Soit M la moyenne mobile dnie par M (Xt ) = Xt + Xt 1 + Xt 2 . La srie chronologique dnie rcursivement par Yt = [Y t1 + Y t2 ] est absorbe par M . Proprit 13 Les vecteurs propres associs la valeur propre = 0 forment un espace vectoriel de dimension k m 1 + m 2 , dont une base est constitue des Zt = (k rt ) pour k = 0; 1; :::; p 1, o r est racine non nulle du polynme . Exemple 28 Dans lexemple (27), on peut chercher construire une base de la forme Zt = rt , qui devra satisfaire rt + r t1 + rt 2 = 0 pour tout t cest dire r2 + r + 1 = 0. Aussi, r est une racine du polynme caractristique de M si et seulement si p 1 i 3 2i 2i r= soient r1 = exp et r2 = exp 2 3 3 Aussi, les suites absorbes sont ncessairement de la forme
t t Xt = r1 + r2 ; pour tout t:
Or
Et donc, lespace vectoriel des suites absorbes par M admet pour base relle n o B = cos 2t ; sin 2t ; 3 3
ce qui correspond des sries chronologiques de la forme Xt = cos 2t + sin 2t pour tout t: 3 3 4.2.2 Absorbtion de la composante saisonnire Thorme 3 Une moyenne mobile M absorbe la composante saisonnire de priode T si et seulement si son polynme caractristique est divisible par 1 + z + ::: + z T 1 : Preuve. Par dnition de la priodicit des composantes saisonnires, si T est la priode, les St sont les suites solutions de S t+1 + ::: + St+ T = 0 pour tout t 2 Z Lespace vectoriel des solutions est engendr par les suites (rt ) o r satisfait 1 + r + r2 + ::: + r T 1 = 0, cest dire r = exp 2ik o k = 1; :::; T 1 T 4.2.3 Les sries invariantes : = 1
Dnition 22 Une suite (X t) est dite invariante par M si et seulement si M (Xt) = 0 pour tout t Une suite (Xt) est dite invariante par M si elle est absorbe par (M I) : Proprit 14 (i) Les suites constantes sont invariantes par M si et seulement si la somme de ses coecients vaut 1; (ii) Les polynmes de degr k sont invariantes par M si et seulement si 1 est racine dordre au moins k + 1 de = (z) z m1 ;, o M = Lm 1 (F ) ; (iii) Si M est symtrique et conserve les constantes, alors M conserve les polynmes de degr 1:
46
Arthur CHARPENTIER
i Li = Lm 1 (F ) :
i= m1
ik = k; i
i=m 1
avec k non nul, donc la somme des coecients vaut 1. (iii) Soit Xt la suite telle que Xt = t. Alors M Xt = m1 (t m 1 ) + ::: + m 1 (t + m 1 ) = t (m 1 + ::: + m1 ) + m1 ( m1 + m1 ) + (m 1 1) ( m1+1 + m 11 ) + ::: + 1: ( 1 + 1 ) + 0: 0 ;
soit M Xt = t:1 + 0 = t = Xt par symtrie ( k = k ). Les proprits (i) et (iii) montrent dans quel cas la tendance de la srie reste invariante : ces sries peuvent servir enlever la composante saisonnire, pour rcuprer la tendance linaire. 4.2.4 Transformation de suites gomtriques (rt )
Proprit 15 Soit M = Lm1 (F ) une moyenne mobile de polynme caractristique . Alors toute suite (rt ) est vecteur propre de M associ la valeur propre = r m1 (r) : Preuve. De (10) ; on peut crire
m2 m2 X X M rt = i rt+i = r tm1 i ri+m1 = rt r m1 (r) ; i= m1 i= m1
et donc M (rt ) = r m1 (r) r t pour tout t, ce qui correspond la dnition dlments propres. Suites gometriques relles Si r est rel alors lapplication dune moyenne mobile la suite gomtrique (rt ) revient faire une homothtie de rapport rm 1 (r). Suites gomtriques complexes r m1 (r) = (!) ei(!) , Si r = ei! alors appliquer M revient multiplier r t par le nombre complexe r t = te i!t M rt = t ei!t (!) ei(!) = [ (!) t] ei[!t+(!)] ;
ce qui correspond un eet dchelle (le module faisant intervenir le coecient (!)) comme dans le cas rel, mais aussi un eet de phase puisque largument se voit a jouter un lment (!). Exemple 29 Une suite de la forme t sin !t sera transforme par M en [ (!) t] sin [!t + (!)],
=1, >1 et =0
=1, =1 et 0
47
Arthur CHARPENTIER
Proprit 16 Si M est symtrique, alors leet de phase sur la suite gomtrique ei!t est soit = 0 soit = : P Preuve. Ce rsultat se montre en explicitant M e i!t et en notant que m m jjje i!k est rel. Si ce rel est k= positif, alors = 0 et sil est ngatif = . Remarque 15 Ce rsultat ne marche que pour la suite gomtrique ei!t et devient faux pour 6= 1, mme pour une moyenne mobile symtrique. 4.2.5 Moyenne mobile dirence p = (I L)
p
Considrons comme moyenne mobile loprateur dirence p = (I L) p pour p > 0. Cette moyenne mobile transforme un polynme de degr k p en une constante. En eet, appliquer 1 revient abaisser le degr du polynme de 1, car 1 tk = tk (t 1)k , polynme de degr k 1, et recursivement, appliquer p = p revient abaisser le 1 degr du polynme de p. Une telle moyenne mobile permet dliminer une tendance qui serait un plynome de bas degr. Nous allons tudier ici son eet sur une suite de la forme ei!t . Cas p = 1 ! (I L) ei!t = ei!t ei!(t1) = ei!t 1 ei! = e i! :2 sin :ei[ !]=2 2 soit (!) = 1 (!) = 2 sin (!=2) et (!) = 1 (!) = [ !] =2.
p X j p = (I L) = (1) j Lj p p j= 0
Cas p 1
donc
X p e i!t =
j=0
j p
2 1
/3
Le graphique ci-dessus, reprsentant le facteur dchelle en fonction de ! montre que si ! =3, le facteur dchelle dcrot avec p si ! =3, le facteur dchelle crot avec p Le dphasage est dautant plus grand aux basses frquences (! petit ) que p est plus lev : pour un cycle trimestriel13 (! = 2=3) lamplitude est augmente, alors que pour des cycles semi-annuels (! = =3) lamplitude est inchange.
1 3 En considrant des donnes mensuelles T = 12 : ! = 2=12 correspond 12 mois, ! = 2=12 2 = =3 correspond 6 mois, ! = 2=12 4 = =3 correspond 3 mois...etc.
48
Arthur CHARPENTIER
Comme on peut le noter, suite ne change pas damplitude, elle est juste dphase. Exemple 31 Considrons la srie de cycle =2 Xt 1 X t 2 X t 3 X t 4 X t 5 X t 1 1 0 2 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 1 1 2 0 2 2 0 4 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 1 1 2 0 2 2 0 4 4 4 0 1 2 2 0 4
On retrouve l aussi un dphage, avec un coecient damplitude qui augmente avec p. On peut ainsi noter que 4 Xt correspond 4 fois la srie initiale Xt; avec un dphasage puisque les valeurs positives deviennent ngatives, et inversement. Exemple 32 Considrons la srie de cycle =6, alors, comme le montre les graphiques ci-dessous ( gauche Xt et 1 Xt ; et droite 2 Xt et 4 Xt ), on retrouve l aussi un dphage, avec un coecient damplitude qui diminue avec p.
4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00
4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00
2 X t
Xt
1 X t
4 X t
4.2.6
Cette moyenne mobile permet dabsorber les composantes saisonnires de priode s. p;s ei!t = ei!t 1 ei!sp ; alors p;s (!) = 2p [sin !s=2] p;s (!) = p [ !s] =2:
p
En considrant des donnes mensuelles, et une composante saisonnire annuelle (priode 12) et s = 12, alors p;12 (2=12) = 0. On retrouve ainsi le fait que cette moyenne mobile p;12 limine une composante saisonnire de priode 12. Toutefois, les saisonnalits de priodes 8 mois, ou 24 mois sont amplies. 4.2.7 Moyenne mobile impaire
j=q
j Lj o q 2 Nnf0g et j =
1 : 2q + 1
49
Arthur CHARPENTIER
(dmonstration en exercice ) do
sin [(q + 1=2) !] M ei!t = ei!t ; (2q + 1) sin [!=2] sin [(q + 1=2) !] : (!) = (2q + 1) sin [!=2]
La moyenne mobile tant symtrique, le dphasage est 0 ou (selon les valeurs de !). 4.2.8 Moyenne mobile paire
Une moyenne mobile dite dordre impair peut scrire M = On peut montrer que
q X
j=q
j Lj o q 2 Nnf0g et j =
(dmonstration en exercice ) do
Pour des donnes mensuelles, par example, on prend q = 6, et ! sin [6!] ; (!) = cotan 12 2
qui sannule en =6; 2=6; 3=6; 4=6; 5=6... correspondant des priodes 12; 6; :::. Remarque 16 La moyenne mobile dordre pair avec q = 6 absorbe les composantes saisonnires priodiques de priodes 12 (et les harmoniques), tout en conservant les basses frquences (correspondant la tendance). Cette moyenne mobile est appele M2 12 dans la partie ([Link]) sur la mthode X11:
/6
2/6
3/6
Exemple 33 Les graphiques ci-dessous reprsentent, gauche, la moyenne mobile 2 6 et droite, la moyenne
50
Arthur CHARPENTIER
mobile 2 12
MOYENNE MOBILE ORDRE 2x6
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
La premire permet de faire disparatre la saisonnalit semi-annuel le (priode 6 - en bas droite), et la seconde, la saisonnalit annuelle (priode 12 - en haut droite). On peut galement noter, pour la sinusode de priode 24; que plus lordre de la moyenne mobile est important, plus lamplitude diminue.
4.3
De la mme faon que pour la notion de stabilit, il existe deux faon de dnir le bruit blanc, Dnition 23 On appelera bruit blanc faible toute suite ("t ; t 2 Z) telle que E ("t ) = 0 et V (" t) = 2 pour tout t 2 Z et tel que (h) = cov ("t ; "th ) = 0 pour h 6= 0: Dnition 24 On appelera bruit blanc fort toute suite (" t; t 2 Z) telle que ("t ) soit i:i:d: Remarque 17 On notera par la suite (" t) s BB 0; 2 pour bruit blanc faible. 4.3.1 Proprit 17 Soit M la moyenne mobile dnie par (10) et ("t ) s BB 0; 2 pour t 2 Z. Le processus Xt = M ("t ) est stationnaire, centr (E (Xt ) = 0), tel que X
h
j= m1
Il est possible de prolonger cette somme sur Z en posant j = 0 pour j < m 1 ou j > m 2 . Aussi Xt Xt+h = et donc E (Xt Xt+h ) = 2
+1 X
j "t+j
j= 1
k=1
+1 X
k "t+ h+k = 2
j;k=1
+1 X
k+h=j
+1 X
j k = 2
j=1
+1 X
j j h:
51
Arthur CHARPENTIER
X (h) z h
2 2
h=1 j= 1
j=1
+1 X
+1 X
+1 X
j jh z h = 2
+1 X
h= 1 j= 1
+1 X
jzj
jh z hj = 2
h=1
j=1
+1 X
+1 X
j j h zj z hj jzj
+1 X
i=1
1 ; zi
en eectuant le changement dindice i = j h. A retenir 3 Le but des moyennes mobiles est (i) dabsorber les composantes saisonnires en laissant invariantes les tendances, (ii) de rduire la variance des perturbations. Dnition 25 Lindice de rduction de la moyenne mobile M est donn par 2 X E M Xt = = 2: j 2 E (Xt ) j Exemple 34 Dans le cas dune moyenne mobile dnie par M (Xt) = [Xt + Xt1 ] =2, alors = 1=2.
4.4
4.4.1
Considrons une srie mensuelle Xt compose dune tendance Zt, dun cycle saisonnier St, et dune perturbation "t , de faon additive Xt = Zt + St + "t :Lalgorithme suivant, en 4 tapes, permet de dsaisonnaliser la srie Xt (1) (1) Estimation de la tendance par moyenne mobile Zt = M (Xt ) ;o la moyenne mobile M est choisie de faon reproduire au mieux la tendance, tout en liminant la composante saisonnire, et en rduisant la perturbation au maximum (1) (1) (2) Estimation de la composante saisonnire et de la perturbation t = S t + t : = Xt Zt ; " t (3) Estimation de la composante saisonnire par moyenne mobile St = M 0 t et " t = t St . Il sagit ici de lisser les valeurs de la composante t de chaque mois pour extraire lvolution du coecient saisonnier du mois concern. La moyenne mobile M 0 utilise ici devra reproduire la composante saisonnire de chaque mois en rduisant au maximum la composante irrgulire. Une contrainte de normalisation des coecients devra tre impose (somme nulle). (1) (1) (1) b (4) Estimation de la srie corrige des variations saisonnires Xt = Z + " = Xt S .
t t t ( 1) (1) (1) (1) ( 1)
La dicult ici est donc de bien choisir les deux moyennes mobiles utiliser M et M 0 . Lalgorithme de base de la mthode X11
4.4.2
Cette mthode propose deux moyennes mobiles dans le cas de donnes mensuelles. Lalgorithme devient (1) Estimation de la tendance-par moyenne mobile 2 12
(1) Zt = M 2 12 (Xt ) ;
Cette moyenne mobile est paire, avec q = 6. Aussi, les 13 coecients sont 1=24; 1=12; 1=12; :::; 1=12; 1=24. Cette moyenne mobile conserve les tendances linaires, limine les saisonnalits dordre 12 et minimise la variance de la perturbation. (2) Estimation de la composante saisonnire et de la perturbation t = S t + "t t
(1)
= X t Zt ;
(1)
(3) Estimation de la composante saisonnire par moyenne mobile 3 3 sur chaque mois (1) (1) ( 1) (1) ( 1) St = M 33 t et "t = t St :
52
Arthur CHARPENTIER
La moyenne mobile utilise ici est une moyenne mobile sur 5 termes, dite 33, dont les coecients sont 1=9; 2=9; 3=9; 2=9; 1= qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute une priode de 12 mois, soit nulle. ( 1) (1) b( 1) St = S t M 212 St ; (4) Estimation de la srie corrige des variations saisonnires b (1) b(1) X t = X t St :
Cette premire estimation de la srie corrige des variations saisonnires doit, par construction, contenir moins de saisonnalit. (5) Estimation de la tendance par moyenne mobile de Henderson sur 13 termes (2) b Zt = M 13 Xt :
Si les moyennes mobiles dHenderson nont pas de proprits spciales quant llimination de la saisonnalit, mais elles lissent relativement bien, tout en conservant (localement ) les polynmes dordre 2. (6) Estimation de la composante saisonnire et de la perturbation t t
(2)
= X t Zt ;
(2)
La moyenne mobile utilise ici est une moyenne mobile sur 7 termes, dite 35, dont les coecients sont 1=15; 2=15; 3=15; 3=1 qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute une priode de 12 mois, soit nulle. ( 2) (2) b( 2) St = S t M 212 St ; (8) Estimation de la srie corrige des variations saisonnires b (2) b(2) X t = X t St :
(7) Estimation de la composante saisonnire par moyenne mobile 3 5 sur chaque mois (2) (2) ( 2) (2) ( 2) St = M 35 t et "t = t St :
Remarque 18 Cette mthode permet de reprer les points abrants dune srie. Comme lont montr Gouriroux et Monfort (1990), cet algorithme peut se rsumer lapplication dun unique moyenne mobile qui peut tre explicite matriciellement. Les 8 points de lalgorithme scrivent (1) Zt = M212 (Xt ) ( 1) (1) (2) t = Xt Zt = (I M 212 ) (Xt ) (3) St
(1) (1)
o M (3) est la moyenne mobile dnie sur 49 mois, dont les coecients sont f1=9; 0; 0; :::; 0; 2=9; 0; ::::; 0; 3=9g et M ( 5) est la moyenne mobile dnie sur 73 mois, dont les coecients sont
= M (3) (I M 212 ) (Xt ) (1) 2 = M2 12 St = M (3) (I M 212 ) (Xt ) 2 b (1) b(1) Xt = Xt St = I M (3) (I M 212 ) (Xt ) (2) 2 b Zt = M13 Xt = M13 I M (3) (I M 2 12 ) (Xt ) (2) ( 2) = Xt Zt = I I M (3) (I M 212 )2 (Xt ) t (2) (2) b(2) St = St M2 12 St = (I M 212 ) M ( 5) I M (3) (I M 2 12 )2 (Xt ) b (2) b(2) Xt = Xt St = I (I M 212 ) M (5) I M (3) (I M212 )2 (Xt) = M33 t
(1) St
(1)
b(1) St
f1=27; 0; 0; :::; 0; 2=27; 0; ::::; 0; 3=27; 0; 0; :::; 0; 3=27g La moyenne mobile ainsi dnie est dordre 169, cest dire quen toute rigueur, il faudrait 84 observations, soit 7 ans de part et dautre pour pouvoir estimer ce ltre. 53
Arthur CHARPENTIER
Remarque 19 Un algorithme similaire existe pour des donnes trimestrielles, qui peut l aussi scrire sous la forme dune seule moyenne mobile, portant sur 28 trimestres de part et dautre (7 ans l aussi). Dans le cas trimestriel, lallure des coecients i est la suivante
-8
-5
-2
10
13
16
19
22
4.4.3
La mthode X12 ARIM A est fonde sur le mme principe que X11. Elle dcompose la srie selon un schma additif (ou multiplicatif ) : tendance + cycle saisonnier + ala irrgulier. Les composantes sont obtenues lissue dun processus itratif bas sur des lissages laide de moyennes mobiles1 4 . Toutefois, la mthode X11 dcrite dans la partie prcdente pose des problmes en dbut et en n de srie. Une des solutions est alors dutiliser un modle de type ARIM A pour faire de la prvision de la srie, et ainsi mieux sajuster sur les bornes de lintervalle dtude. La mthode la plus simple pour prolonger les sries (X11 tel que le fait SAS) est dutiliser des moyennes mobiles asymtriques, en particulier les moyennes mobiles de Musgrave. Toutefois, les observations les plus rcentes sont moins ables que les donnes au centre. Lextension X11 ARIM A (1975) puis X12 ARIM A a rsolu en partie ces problmes : la srie initiale est modlise par un processus ARIM A, puis prolonge au dbut et la n. Lerreur quadratique des estimation est ainsi minimise. De plus des amliorations ont t ajoutes, par exemple pour prendre en compte de la saisonnalit non-rgulire. En particulier il est possible de prendre en compte leet Pques, observ dans certaines srie. Pques est une fte ne tombant pas la mme date tous les ans. De nombreux modles mathmatiques ont t mis en place pour prvoir lavance la date des jours de Pques15 . Entre 1900 et 2100, le jour de Pques tombera ainsi entre le 22 mars et le 25 avril. Or cette fte entrane gnrallement un changement en niveau dans un certain nombre dactivit ( cause du Vendredi Saint, et du Lundi de Pques fri ), et ceci a des rpercusions soit en mars, soit en avril (pour des donnes mensuelles), soit au premier, soit au second semestre (pour des donnes trimestrielles ). Cet eet Pques a pu ainsi tre mis en vidence sur des ventes en grande surface (chocolat, eurs ), mais aussi sur des nombres de mariages. Il aura aussi un impact si lon considre des donnes mensuelles, obtenues comme agrgation de donnes journalires, puisquil faudra intgrer une pondration fonction du nombre de jours ouvrables. 4.4.4 Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers
Larticle de Cleveland et Tiao Decomposition of Seasonal Time Series : a model for the Census X11 program (1976) tudie sur des cas simples lapplication de la mthode X11.
1 4 Dans le cas dun schma multiplicatif : une moyenne mobile dordre 12 (donnes mensuelles ) fournit une premire estimation de la tendance. La srie initiale est alors divise par cette estimation pour donner des rapports SI (saisonnalit/irrgulier). On applique alors une moyenne mobile 3 3 (par exemple) chaque mois pour liminer la composante irrgulire. 1 5 Voir Gardner Mathematical Games (1981), Scientic American (Fvrier 81) pour plus dinformation sur les dirents algorithmes.
54
Arthur CHARPENTIER
4.4.5
1 Considrons ici une srie trimestrielle St , observe sur 12 ans, et reprsente ci-dessous gauche,
300 280 260 240 220 200 180 160
300 280 260 240 220 200 180 160
90
91
92
93
94
95
96 S1
97
98
99
00
01
90
91
92
93
94
95 S1
96
97 S2
98
99
00
01
2 Appliquons cette srie un ltre moyenne mobile de faon dsaisonnliser la srie : St = M 22 S 1 , reprsente t ci-dessus droite. La srie ainsi obtenue est alors tudie attentivement an de reprer des points abrants. Pour cela, 1 3 1 on considre la composante saisonnire, St = S 1 S2 = St M 22 St . An de dnir une courbe de rfrence, t t considrons la srie de type Buys-Ballot associe, cest dire dnie par la moyenne des composantes saisonnires. S 4 t prend alors 4 valeurs, suivant la valeur de t [4] : 8 3 3 si t est au premier trimestre > S199101 + S 3 199201 + ::: + S200101 =11 > < 3 3 S199102 + S 3 si t est au deuxime trimestre 4 199202 + ::: + S200102 =11 3 St = 3 si t est au troisime trimestre > S199003 + S 3 199103 + ::: + S200003 =11 > : 3 3 S199004 + S 3 si t est au quatrime trimestre 199104 + ::: + S200004 =11
5 Les deux composantes saisonnires ainsi dnies sont reprsentes ci-dessous gauche, ainsi que la dirence St = 4 3 St St , droite
80 60 40 20 0 0 -20 -40 -10 -20 90 91 92 93 94 95 S3 96 97 S4 98 99 00 01 30 20 10
90
91
92
93
94
95
96 S5
97
98
99
00
01
5 En se xant un seuil a priori, on peut reprer trois points abrants, au sens o St est relativement grand. Ces 1 2 3 7 2 4 points seront alors exclus de lchantillon : on remplace St = S t +S t par St = St + St pour les trois valeurs abrantes 1 7 repres. La comparaison entre St et St est prsente ci-dessous gauche. Cette srie, corrige des valeurs aberrantes, est alors liss
300 280 260 240 220 200 180 160
90
91
92
93
94
95 S1
96
97 S7
98
99
00
01
90
91
92
93
94
95 S1
96
97 S8
98
99
00
01
Le graphique ci-dessous gauche compare la srie lisse obtenue sur la srie brute (en trait plein ), et sur la srie corrige des valeurs aberrantes (en pointills ). A partir de srie lisse, S8 , on peut en dduire la composante saisonnire, comme t
55
Arthur CHARPENTIER
9 8 dirence avec la srie initiale, St = S 1 St . Comme le sugre le graphique ci-dessous droite, il est possible de lisser t cette srie an de dgager la vraie composante saisonnire :
80 60
220
230
40
210
20 0
200
-20
190
90
91
92
93
94
95 S2
96
97 S8
98
99
00
01
-40
90
91
92
93
94
95 S9
96
97 S10
98
99
00
01
Comme le montre le graphique ci-dessus, gauche, lutilisation du lissage par moyenne mobile permet de reprer des points extrmes et aberrants (au sens statistiques, car ils peuvent avoir une explication exogne : mto, campagnes de publicit...etc.), et en corrigeant la srie initiale en excluant ces points, on peut mieux lisser la srie.
4.5
Le modle T RAM O=SE AT S 1 6 est bas sur lutilisation des modles ARIM A, et a t dvelopp par Maravall et Gomez, suite lalgorithme de Burman en 1980: Lalgortihme est alors le suivant : 1) un modle ARIM A est a just automatiquement 2) les points aberrants sont identis : ces deux procdures sont faites par le module T RAM O 3) le module SE AT S calcule la densit spectrale de la srie linarise (par le modle ARIM A) 4) la srie est dcompose en un cycle et une tendance saisonnire : utilisation du ltre de Wiener-Kolmogorov17 Les hypothses sont que la srie linarise qui est traite par SEAT S peut scrire Zt = St + Nt , o les deux composantes sont indpendantes : les deux sries suivent des modles ARIM A (inconnu) dont les poslynmes autorgressifs respectifs nont pas de racine commune. Parmi les algorithmes rcents de dsaisonnalisation, on peut rsumer la littrature suivant le schma suivant
RECHERCHE DES COMPOSANTES DE SERIES TEMPORELLES
MODELES IMPLICITES
X11, X11-ARIMA, SABL
MODELES EXPLICITES
MODELES STRUCTURELS
STAMP
MODELES ARIMA
SEATS
signie T ime series Regression with ARIMA noise, Missing observations and Outliers. ltre WK est dtaill dans Applied Time Series Analysis : M odelling, Forecasting, Unobserved Components Analysis and the Wiener-Komlmogorov Filter de C. Planas (1997)
1 7 Le
1 6 T RAMO
56
Arthur CHARPENTIER
Les prvisions sont diciles, surtout lorsquelles concernent lavenir. Jacques Chirac, Le Figaro - Fvrier 1993
Les mthodes de lissages consistent extrapoler une srie en vue de faire de la prvision. Or comme on le voit sur lexemple ci-dessous, une extrapolation simple (linaire en loccurence) dpend fortement du type de rsultats que lon cherche avoir : prvision court, moyen, ou long terme
CT MT
LT
Ces trois mthodes dirent suivant le poids que lon accorde aux observations passes.
5.1
On dispose de N observations X1 ; :::; XN : On souhaite prvoir, la date T = 1; :::; N , la valeur un horizon 1, ou un horizon quelconque h. b Dnition 26 La prvision XT (h) fournie par la mthode de lissage exponentiel simple, avec la constante de lissage , 0 < < 1 est T1 X b XT (h) = (1 ) j XT j
j=0
On donne un poids dautant moins important que les observations sont loins (dans le pass), avec une dcroissance exponentielle : - proche de 1 : prise en compte de tout le pass - proche de 0 : prise en compte davantage des valeurs rcentes (plus sensible aux uctuations )
b b b b Remarque 20 Si ne dpend pas de h, XT (h) ne dpend pas de h, dont XT (h) = XT . Cette valeur XT est la b T (srie lisse la date t) ou F T +1 (valeur prvision faite en T de la valeur en T + 1. Nous appelerons cette srie X prdite pour la date T + 1). Remarque 21 Pour certains logiciels permettant de faire du lissage exponentiel, la constante de lissage nest pas mais = 1 .
57
Arthur CHARPENTIER
5.1.1
Proprit 18 Mthode adaptative de mise jour (ordre 1) b b b XT = XT 1 + [1 ] XT XT 1 = Cette relation scrit galement FT +1 = XT + (1 ) FT
(11)
b b [1 ] XT + XT 1 = XT + [1 ] XT 1
b Proprit 19 XT peut tre vu comme une rgression sur une constante, avec des pondrations exponentielles Preuve. Le programme de minimisation min
c
8 < T 1 X :
j= 0
j (Xtj c)
9 = ;
(12)
c b=
T 1 1 X j XT j 1 T j=0
(13)
Au del des mthodes qualitative de rigidit ou de souplesse du modle aux uctuations conjoncturelles, il est possible dutiliser des mthodes de type minimisation de la somme des carrs des erreurs de prvison : 8 2 32 9 > T > t1 <X = X j b = arg min 4Xt+1 (1 ) Xtj 5 > > : t =1 ; j=0 5.1.3 Lien entre robustesse de la prvision et choix de Il nexiste pas de relation a priori entre lerreur de prvision et le paramtre . Exemple 35 Soit (Xt ) un processus AR (1) de corrlation ; de variance 1, Xt = Xt1 + " t: Lerreur de prvision horizon h est h T 1 i2 X j bT (h) b (; ; h) = E XT +h X avec XT (h) = (1 ) XT j
j= 0
2 (1 ) h h 2 (; ; h) = + 1+ (1 + ) (1 )
2.5
=0.0 =0.4
1.5
=-0.5 =0.7
=0.7
0.5 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5
=0.9
=0.9
0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
pour < 1=3, lerreur de prvision dcroit avec ; et pour > 1=3, lerreur crot avec : 58
Arthur CHARPENTIER
5.1.4
Exemple dapplication
Considrons ici une srie de ventes dune entreprise, sur 18 mois [Link] 98 [Link] 99 J AN 1293 1364 F EB 1209 1330 M AR 1205 1377 AP R 1273 1332 M AY 1220 J UN 1290 JU L 1243 AU G SE P 1203 1390 OC T 1360 N OV 1353 DE C 1343
En septembre, une modication structurelle (nouvelle unit de production) a provoqu un saut des ventes. Les mthodes de lissage permettent defectuer de la prvision en intgrant ce genre de rupture. Une moyenne arithmtique (non-pondre, note y) conduirait sous-estimer les valeurs futures : il est alors naturel dintroduire des poids plus importants pour les valeurs rcentes. La prvision horizon 1 est alors
T 1 T 1 T1 X X 1 X i y T (1) = yT i et bT (1) = y [1 ] y T i = [1 ] i yT i pour ; 2 ]0; 1[ et = 1 T i=0 i=0 i=0
cette dernire valeur tant obtenue par lissage exponentiel (simple). Nous noterons ici b1 ; :::; bT la srie lisse, et y y F 1 ; :::; F T la srie des valeurs prdites. Mise en place de lalgorithme ( x) Pour la premire valeur (T = 0), on considre comme valeur initiale une moyenne des premires valeurs observes. EViews considre une moyenne sur les 8 premiers mois, F 1 = b0 = y 1 (1293 + ::: + 1203) = 1242 8
puis
F2 = b1 = y1 + (1 ) F 1 = 0:3 1293 + 0:7 1242 = 1257:3 y F 3 = y 2 + (1 ) F2 = 0:3 1209 + 0:7 1257:3 = 1242:81
Comme on peut le voir, nous estimation pour la date 2 tait de 1257:3. Or la vraie valeur tait plus faible, savoir 1209. Aussi, pour la date 3, la prvision sera une correction de ce 1257:3 en prenant en compte (avec un poids correspondant la valeur ) lerreur qui avait t faite : en loccurence, F 3 sera plus faible que F 2 (la dirence tant [F2 y 2 ]) 1 2 3 4 5 yj1 1293 1209 1205 1273 1220 F j1 1242:00 1257:30 1242:81 1231:47 Fj 1242:00 1257:30 1242:81 1231:47 1243:93
(puisque F j = yj1 + (1 ) Fj1 ) do nallement la srie lisse exponentiellement pour 1998 yj y j ( = 0:3) b y j ( = 0:7) b J AN 1293 1242 1242 FEB 1209 1257 1278 M AR 1205 1243 1230 AP R 1273 1231 1212 M AY 1220 1244 1255 JU N 1290 1237 1230 JUL 1243 1253 1272 AUG 1203 1250 1252 SE P 1390 1236 1218 OCT 1360 1282 1338 N OV 1353 1305 1353 DE C 1343 1320 1353
59
Arthur CHARPENTIER
1400
1350
1300
1250
1200 98:01
98:03 CA
98:05
98:07
98:09
98:11
99:01
99:03
LISSAGE07
LISSAGE03
On peut noter que plus est proche de 1, plus la courbe lisse colle aux donnes (bj est proche de y j ) : pour = 1, y la prvision F j+1 sera la dernire valeur observe (y j ). Un coecient de lissage plus faible (par exemple = 0:3) permet en revanche de bien lisser les alas importants de la srie. La srie lisse sadapte galement au changement de niveau observ en septembre. Toutefois, cette adaptation se fait dautant plus lentement que est faible : les prvisions sont alors biaises (sous-estimation dans cet exemple) pendant la priode dadaptation, comme on peut le voir sur le graphique ci-dessous : ds octobre 1998, la prvision faite avec un coecient de 0:7 avait atteint un niveau correct, alors que la prvision avec une pondration de 0:3 est plus lente (ce qui rend la prvision moins sensible un choc exogne : si cette variation en septembre navait t quun choc, une faible pondration aurait permis de ne pas le prendre en compte). On peut noter que le lissage dpend non seulement de mais aussi de la valeur initale choisie. Comme le montre le graphique de gauche, on observe une convergence (asymptotique ), avec des valeurs trs proches pour T pro che de 16. En choissant une valeur intiale proche des premires valeurs de la srie (b0 = y 1 ou y 0 moyenne des 2 ou 3 y b premires observations), on saperoit que la courbe observe et les courbes lisse sont quasiment confondues au bout de 10 mois (cette valeur dpendant de : la convergence est dautant plus rapide que est grand ). Le graphique cidessous correspond plusieurs initialisations : F 1 = y1 (prvision parfaite - (1)), F1 = (y 1 + y2 ) =2 (moyenne des deux premires valeurs - (2)), F1 = (y 1 + y 2 + y3 ) =2 (moyenne des trois premires valeurs - (3)) et F1 = (y1 + ::: + yn ) =n (moyenne de lchantillon - (4))
1400 CA LISSAGE03_1 LISSAGE03_2 LISSAGE03_3 LISSAGE03_4
1350
1300
1250
Remarque 22 Il convient de faire attention : dans la littrature, les courbes lisses sont soit Ft , soit y t1 . Certains b auteurs dcallent ainsi (dans les tableaux ou les graphiques) la courbe lisse. A retenir 4 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante 8 < F 0 = X1 ou [X1 + ::: + Xp ] =p F t+1 = Xt + (1 ) F t pour 0 t N : F t = F N+1 pour t N + 1
Choix de la constante de lissage Ce choix peut relever de considrations empiriques : des fortes pondrations pour les valeurs rcentes ( lev) donne de meilleures prvisions court terme qu long terme. Toutefois, une des mthodes les plus utilise est la minisation des moindres carrs des erreurs (prvision/ralisation ) un horizon h = 1.
60
Arthur CHARPENTIER
Lalgorithme (13) donne ici un paramtre = 0:418, qui correspond une somme des erreurs de prvision de 48178, cest dire un cart type de lerreur valant 54:874.
1400
1350
1300
1250
1200 98:01
98:03
98:05
98:07
98:09
98:11
99:01
99:03
LISSAGEOPT
CA
5.2
Le lissage exponentiel simple est adapt des sries pouvant tre ajuste par une constante au voisnage de T . Le principe de lissage exponentiel double permet de faire un ajustement par une droite, savoir approcher Xt par Y t o Y t = A + (t T ) B La prvision horizon h scrit b b b FT +h = XT (h) = A (T ) + h B (T )
De mme que pour (12) le programme doptimisation pour estimer A et B scrit 8 9 <T 1 = X 2 min j (XT j [A + (T j) B]) A;B : ;
j=0
(14)
en posant
k=0
S2 (t) =
(1 )
k= 0
(1 )2
k=0
t 1 tk1 X X i=0
Preuve. Gouriroux et Monfort (1995) pages 110-111 5.2.1 Mthode adaptative de mise jour (ordre 1)
Pour obtenir la formule de mise jour ( lordre 1) permettant de passer de T T + 1, on peut utiliser le rsultat suivant
61
Arthur CHARPENTIER
(15)
Preuve. Gouriroux et Monfort (1995) pages 112-113 b b b b b b Dans le cas dune prvision parfaite, i.e. XT +1 = XT (1), on aurait A (T + 1) = A (T )+ B (T ) et B (T + 1) = B (T )
B (T )
A(T )
X T (1)
T+1
Dans ce cas, les droites de prvision en T et en T + 1 sont les mmes, et la pente, en particulier, est inchange b b (B (T + 1) = B (T )). Remarque 24 Lintervalle de conance de la prvision est alors de la forme s 2 b XT (h) 1:96 X 2 1 5.2.2 Application de la mthode de lissage exponentiel double Considrons la srie suivante, correspondant un indice dactivit 1982 1983 1984 1985 1986 1987 1988 Trim 1 9680 10738 10869 11108 11437 11507 Trim 2 9050 10100 10910 11034 11115 11352 11453 Trim 3 9380 10160 11058 11135 11424 11381 11561 Trim 4 9378 10469 11016 10845 10895 11401
Le lissage exponentiel double est trs proche du lissage exponentiel simple, sauf que lon fait un a justement au voisinage de T non plus par une constante, mais par une droite. En fait, la srie (correspondant un indice) est une srie croissante : la justement par lissage exponentiel simple sous-estimerait les valeurs ralises (graphique page 5.2.2) . Le programme de minimisation scrit ici 8 9 < T 1 = X 2 min j (Xt j [AT + BT (T j )]) A;B : ;
j=0
La prvision horizon h est alors bT (h) = AT + BT h. Trois formulations sont possibles pour crire la srie lisse y Formulation classique - Les coecients Aj et Bj sont donns par o les bj et bj sont obtenus rcursivement par deux lissages conscutifs, y1 y2 1 y j = yj + (1 ) bj 1 : lissage exponentiel simple de yi b y1 2 1 y j = bj + (1 ) bj1 : lissage exponentiel simple de y 1 b y y2 bi 62 Aj = 2b1 bj et B j = yj y2 1 y y2 b bj 1 j
Arthur CHARPENTIER
Formules de lissage direct - lerreur de lissage e j est donne par ej = y j bj = yj [Aj1 + Bj1 ], et donc y ( h i 2 Aj = Aj 1 + Bj1 + 1 (1 ) ej Bj = B j 1 + 2 e j ce qui donne une relation permettant dobtenir rcursivement les Ai et les Bi . Formules de mise jour - cette expression est en fait la mme que la prcdente, sauf que lon remplace lerreur de prvision par la dernire observation y j ; Aj = y j + (1 ) [Aj 1 + Bj1 ] o = 1 (1 )2 et = (16) Bj = [Aj Aj1 ] + (1 ) Bj1 2 Remarque 25 Aj et Bj sont unitiliss pour calculer bj , prvision horizon 1 faite la date j , soit Fj+1 : y Encore une fois, linitialisation de lalgorithme est important. Une mthode possible est de considrer comme valeur initiale pour A1 la premire valeur y1 . La pente B1 peut alors tre choisie comme la pente moyenne entre la date 1 et une date t0 , telle que B1 = [y t0 y 1] =t0 . Dans le cas qui nous intresse on obtient la srie lisse suivante, en prenant comme constante de lissage = 0:384, et comme valeurs initiales de A0 = y 1 et B0 la pente sur une priode de 10 observations (soient 9050 et 177) - laide de la relation (16) ; et = 0:6205 et = 0:2376 1982 2 1982 3 1982 4 1983 1 Srie observe Trim 1 Trim 2 Trim 3 9050 9380 9680 10100 10160 10738 10910 11058 10869 11034 11135 11108 11115 11424 11437 11352 11381 11507 11453 11561 yj 9050 9380 9378 9680 Aj 9050:00 9112:73 9332:05 9421:11 Bj 165:30 140:93 159:56 142:81 Fj+1 9215:30 9253:66 9491:61 9563:92 Srie lisse Trim 2 Trim 3 9215 9254 9796 10189 10932 11143 11138 11166 11118 11159 11364 11412 11541 11524 Trim 4 9492 10372 11303 11234 11405 11443
83
84 CA
85
86 LISS_DOUBLE
87
88
83
84 CA
85
86 LISS_SIMPLE
87
88
A titre de comparaison, nous avons ajout droite le lissage exponentiel simple optimal qui aurait t obtenu sur les mmes donnes. Ce lissage simple est relativement mal adapat ce type de donnes (croissantes) puisque nous allons continuellement sous-valuer la vraie valeur en priode de croissance forte. Supposons que la srie ait t observe jusquau troisime trimestre de 1987: La srie lisse jusqu cette date reste la mme, et les prvisions pour les trimestres suivant aurait t obtenus en utilisant A = A19873 = 11412, B = B 19873 = 47:02, et bT (h) = A + Bh y 1987-4 1988-1 1988-2 1988-3 ralisation 11401 11507 11453 11561 prvision (double) 11459 11506 11553 11600 63 prvision (simple) 11352 11352 11352 11352
Arthur CHARPENTIER
85:1
85:3
86:1 CA
86:3
87:1
87:3
88:1
88:3
DOUBLE
SIMPLE
Les graphiques ci-dessous reprsentent limpact des valeurs initiales, avec gauche, un changement de A0 et droite un changement de B0 . Comme on peut le remarquer, la justement se fait plus rapidement que pour le lissage exponentiel simple
12000 11500 11000 10500 10000 10000 9500 9000 83 84 85 86 87 LISS_A1 LISS_A2 88 CA LISS_DOUBLE 9500 9000 8500 83 84 85 86 87 LISS_B1 LISS_B2 88 CA LISS_DOUBLE 12000 11500 11000 10500
A retenir 5 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante 8 1 > S0 = X1 ou [X1 + ::: + Xp ] =p > > 2 > S0 = 0 > > > 1 1 > St+1 = Xt + (1 ) St pour 0 t N > > < 2 1 2 St+1 = St + (1 ) St pour 0 t N 1 > At +1 = 2St+1 S 2 pour 0 t N t+1 > > > Bt+1 = S 1 S 2 > t+1 t+ 1 = (1 ) > > > Ft+1 = At+1 + Bt+1 pour 0 t N > > : Ft = AN +1 + (t N 1) BN+1 pour t N + 1
5.3
Cette gnralisation a t propose par Brown en 1962, permettant dajuster au voisinage de T une fonction plus complexe quune fonction ane. La rsolution de ce problme repose sur la notion de vecteurs de fonctions matrice de transition xe. Dnition 27 Le vecteur f (t) = [f1 (t) ; :::; fn (t)] , o t 2 Z est dit matrice de transition xe sil existe une matrice A rgulire telle que f (t) = Af (t 1) pour tout t 2 Z La mthode du lissage exponentiel gnralis consiste a juster au voisinage de T de la srie Xt une fonction (t T ) de la forme n X (t) = i fi (t) o f (:) est matrice de transition xe
i=1 0
64
Arthur CHARPENTIER
(1) Les fonctions constantes - (t) = c, obtenues avec f (t) = 1 et A = 1. Dans ce cas, on retrouve le principe de lissage exponentiel simple, 0 (2) Les fonctions linaires - (t) = + t, obtenues avec f (t) = [1; t] de matrice de transition 1 0 1 1 0 1 A= puisque = 1 1 t 1 1 t 1 Dans ce cas, on retrouve le principe de lissage exponentiel double, (3) Les fonctions polynmiales de degr p - Cette famille est obtenue en prenant comme base une base de R p (X) (espace des polynmes de degr infrieur ou gal p). En particulier, on peut choisir la base 1 Bp = P k (t) = t (t 1) ::: (t k + 1) ; k = 1; :::; p + 1 k! obtenue laide du triangle de Pascal, et dnie par rcurence par P k (t) = P k1 (t 1) + P k (t 1) pour k > 1 Le vecteur f (t) = [P1 (t) ; :::; Pp+1 (t)] est alors de matrice de transition (xe) 2 3 1 0 0 0 0 6 1 1 0 0 0 7 6 7 6 0 1 1 0 0 7 6 7 7 .. . . A= 6 6 7 . . 6 7 6 7 .. 4 0 0 0 . 1 0 5 0 0 0 1 1
(4) Les fonctions sinusodales - Les fonctions (t) = sin !t + sin !t sont obtenues en prenant f (t) = [sin !t; cos !t]0 , et dans ce cas cos ! sin ! A= sin ! cos ! (6) Les fonctions exponentielles - Les fonctions (t) = exp (t) sont obtenues en prenant f (t) = exp (t) et dans ce cas A = exp (). Cette mthode de lissage se met en place de la faon suivante. De la mme faon que (14), le programme doptimisation scrit 8 9 < T 1 = X 2 min j (Xtj f 0 (j) a) (17) a : ;
j=0
o la notation f 0 dsigne la transpose de f . Posons 2 3 2 3 2 3 XT f 1 (0) f n (0) f 0 (0) 6 . 7 6 7 6 7 . . . T 1 . . . x = 4 . 5, F = 4 5=4 5 et - = diag 1; 1= ; :::; 1= . . . . X1 f1 (T + 1) f n (T + 1) f 0 (T + 1)
Le programme (17) correspond la regression (linaire) de x sur les colonnes de F , associe la matrice de covariance -. On en dduit que la solution (17) est unique, et est donne par 1 0 1 a b (T ) = F 0 - 1 F F -y = [M (T )] Z (T ) o M (T ) = F 0 - 1 F =
T 1 X j=0
La matrice M (T ) converge vers une matrice nie M quand T ! +1 : on peut estimer b (T ) en utilisant cette matrice a limite, 1 X 1 a b (T ) = M Z (T ) avec M (T ) = j f (j) f 0 (j)
j=0
T1 X j=0
j f (j) XT j
b XT (h) = f 0 (h) b (T ) a 65
Arthur CHARPENTIER
5.3.1
Pour cela, notons que et on peut alors crire que lon peut encore noter b (T + 1) = XT +1 M 1 f (0) + M 1 A1 M b (T ) a a
o les matrices et sont indpendantes de T . Cette relation peut se mettre sous la forme suivante, proche de (11), h i b b (T + 1) = A0 b (T ) + XT + 1 XT (1) a a
b (T + 1) = XT +1 + b (T ) o a a
= M 1 f (0) = M 1 A1 M
5.4
5.4.1
Cette mthode est une gnralisation de la mthode de lissage exponentiel mais avec un point de vue dirent de celui introduit dans le lissage exponentiel gnralis. De la mme faon que pour le lissage exponentiel double, lajustement se fait de faon linaire au voinage de T , la nuance se faisant au niveau de formules de mise jour, direntes de (15) : 8 h i < A (T + 1) = (1 ) XT +1 + A (T ) + B (T ) o 0 < < 1 b b b h i (18) : B (T + 1) = (1 ) A (T + 1) A (T ) + B (T ) o 0 < < 1 b b b b La premire relation est une moyenne pondre de deux informations sur A (T ), correspondant au niveau de la srie b b la date T : lobservation XT +1 et la prvision faite en T (A (T ) + B (T )): La seconde relation sinterprte comme une moyenne pondre de deux informations sur B (T ), correspondant la pente de la srie la date T : la dirence entre les niveaux estims en T et T + 1; et la pente estime en T . Toutefois, ces deux relations ne peuvent tre utilise quaprs initialisation, que lon fera gnralement de la faon b b suivante : A (2) = X2 et B (2) = X2 X1 . La prvision horizon h faite la date T est donne par Cette mthode peut tre vue comme une gnralisation du lissage exponentiel double, qui ne faisait intervenir quun coecient, (ou ). Cette dernire mthode correspond au cas particulier = 2 et = 1 Exemple 36 Sur lexemple prcdant, on obtient
12000 11500 11000 10500 10000 9500 9000 83 84 CA 85 86 LISS_HW 87 88
b b b XT (h) = A (T ) + hB (T )
2
(1 ) 2 2 = 1+ 1
66
Arthur CHARPENTIER
5.4.2
On suppose ici que la srie (Xt) peut tre approche au voisinage de T par la srie Yt = A + (t T ) B + St o St est un facteur saisonnier. Les formules de mise jour scrire de la faon suivante, o s est le facteur de saisonnalisation (ou le nombre de saisons : s = 4 pour des donnes trimestrielles ou s = 12 pour des donnes mensuelles) 8 h i > A (T + 1) = (1 ) [XT +1 ST +1 s] + A (T ) + B (T ) o 0 < < 1 (lissage de la moyenne) b b > b > < h i b b b b B (T + 1) = (1 ) A (T + 1) A (T ) + B (T ) o 0 < < 1 (lissage de la tedance) > h i > > b : ST +1 = (1 ) XT +1 A (T + 1) + ST +1 s o 0 < < 1 b (lissage de la saisonnalit) et la prvision horizon h (1 h s) scrit b b b b XT (h) = A (T ) + hB (T ) + ST + k+ s
La encore, le problme dinitialisation va se poser, et on peut prendre 8 > A (s) = Ms (X1 ; :::; Xs ) o M s est une moyenne pondre > b > < b A (s + 1) = Ms (X2 ; :::; Xs+1 ) b b > b > B (s + 1) = A (s + 1) A (s) > : b b (i) Si = X i A
A gauche, on voit comment trouver loption de lissage exponentiel. EViews propose alors plusieurs mthodes (fentre au centre) : lissage exponentiel simple, double, ou de Holt Winters. Les rsultats sont alors prsents sous la forme de droite. EViews donne ici les paramtres (alpha) et (beta), ainsi que la variance de lerreur de prvision.
5.5
Comme nous allons le voir ici, les mthodes de lissage, an de faire de la prvision, peuvent trs facilement tre mises en oeuvre, en particulier sur des tableurs (Excel par exemple). Nous allons voir comment faire de la prvision sur des donnes comportant de la saisonnalit, laide des mthodes de lissage exponentiel.
67
Arthur CHARPENTIER
5.5.1
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998 2,932,641 133,328 4.546%
MOYENNE MOBILE
DIFFERENCE
SAISONNALITE
126,280 78,024 20,897 -62,580 -121,586 -169,498
VENTES CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588 2,932,641 85,190 2.905%
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Moyenne Ecart-Type Rapport
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998 2,932,641 133,328 4.546%
MOYENNE MOBILE
DIFFERENCE
SAISONNALITE
126,280 78,024 20,897 -62,580 -121,586 -169,498
VENTES CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588 2,932,641 85,190 2.905%
2,844,752 2,864,431 2,885,559 2,904,892 2,920,910 2,934,917 2,947,308 2,954,786 2,960,304 2,967,190 2,972,169 2,975,988 2,978,711 2,979,352 2,976,077 2,970,664 2,967,094 2,965,940 2,967,892 2,975,618 2,982,365 2,983,808 2,984,021 2,984,116
-138,935 -68,733 69,692 102,766 99,174 97,916 128,388 92,401 70,753 -24,662 -98,956 -164,812 -133,906 -143,160 71,120 110,309 99,166 112,382 127,649 67,124 -25,481 -97,020 -140,738 -170,707
-138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410
2,844,752 2,864,431 2,885,559 2,904,892 2,920,910 2,934,917 2,947,308 2,954,786 2,960,304 2,967,190 2,972,169 2,975,988 2,978,711 2,979,352 2,976,077 2,970,664 2,967,094 2,965,940 2,967,892 2,975,618 2,982,365 2,983,808 2,984,021 2,984,116
-138,935 -68,733 69,692 102,766 99,174 97,916 128,388 92,401 70,753 -24,662 -98,956 -164,812 -133,906 -143,160 71,120 110,309 99,166 112,382 127,649 67,124 -25,481 -97,020 -140,738 -170,707
-138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410
Pour lisser cette srie, nous avons utilis une moyenne mobile permettant dannuler une saisonnalit annuelle (priode 12) : M 212 . En particulier 1 1 1 M Xt = Xt6 + Xt 5 + Xt4 + ::: + Xt + ::: + Xt+4 + Xt+ 5 + Xt+6 12 2 2 et ainsi, sur lexemple ci-dessus, on peut noter que 1 2 797 469 3 047 187 2 864 431 = + 2 773 701 + 2 735 895 + ::: + 2 795 698 + ::: + 3 032 833 + 3 075 696 + 12 2 2 La composante saisonnire est alors obtenue comme dirence entre la srie brute Xt et la srie dsaisonnalise M Xt . Cette srie correspond dans le tableau ci-dessus la variable DIFFERENCE. Par exemple, 92 401 = 3 047 187 2 954 786 On considre alors la dirence moyenne pour chaque mois : JAN FEV 1 = 2 =
1 2 1 2
[(XJ AN00 M XJ AN00 ) + (XJ AN01 M XJ AN01 )] [(XF EV 00 M XF EV 00 ) + (XF EV 01 M XF EV 01 )] 1 (69 692 + 71 120) = 70 406 2
On peut noter que la somme de ces dirences moyennes i ne vaut pas 0 : on va alors normaliser les i de faon ce que leur somme soit nulle. On considre alors i = i
12 1 X j 12 j=1
Dans lexemple considre, la somme des i valait 20 865 : aussi, on va dnir i = i 20 865=12. Cette srie i va alors constituer la composante saisonnire de la srie (Xt). Par exemple, la saisonnalit pour le mois de mars est 62 68
Arthur CHARPENTIER
580. Et partir de l, on construit la srie corrige des variations saisonnires (CV S) comme dirence entre (Xt ) et la composante saisonnire du mois correspondant. Cest partir de cette srie corrige des variations saisonnires que lon va faire de la prvision. La mthodologie est alors la suivante. On spare la srie initiale (Xt) de la faon suivante : Xt = Z t + t = srie CV S + composante saisonnire et la prvision sera alors faite en considrant b b Xt = Zt + t
On extrapole la srie corrige des variations saisonnires (par lissage ), et on ra joute ensuite la composante saisonnire. 5.5.2 Lissage linaire
La mthode la plus simple pour faire de la prvision sur une srie dsaisonnalise est dutiliser une rgression linaire,
DATE
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03
VENTES 2 853 123 2 797 469 2 773 701 2 735 895 2 695 410 2 652 799 2 705 817 2 795 698 2 955 251 3 007 658 3 020 084 3 032 833 3 075 696 3 047 187 3 031 057 2 942 528 2 873 213 2 811 176 2 844 805 2 836 192 3 047 197 3 080 972 3 066 260 3 078 322 3 095 541 3 042 742 2 956 884 2 886 788 2 843 283 2 813 409 2 889 432 2 976 979 3 068 328 3 094 477 3 057 867 3 088 998
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998
APPROX. ERREUR COMPOSANTE PREVISION LINEAIRE SAISONNIERE (droite) 2,820,908 -94,064 126,280 2,947,187 2,827,417 -107,972 78,024 2,905,441 2,833,297 -80,493 20,897 2,854,194 2,839,806 -41,331 -62,580 2,777,226
2,846,105 2,852,615 2,858,914 2,865,424 2,871,933 2,878,232 2,884,742 2,891,041 2,897,551 2,904,060 2,910,150 2,916,659 2,922,958 2,929,468 2,935,767 2,942,277 2,948,786 2,955,085 2,961,595 2,967,894 2,974,404 2,980,913 2,986,793 2,993,302 2,999,601 3,006,111 3,012,410 3,018,920 3,025,429 3,031,729 3,038,238 3,044,537 3,051,257 3,057,766 3,063,646 3,070,155 3,076,454 3,082,964 3,089,263 3,095,773 3,102,282 3,108,582 3,115,091 3,121,390 3,127,900 3,134,409 3,140,289 -29,110 -30,317 -14,938 37,960 14,650 24,627 37,911 38,382 51,866 65,103 100,010 88,449 71,840 51,207 47,197 1,601 29,743 21,088 7,234 7,018 -5,142 -16,195 -50,806 -43,934 -34,733 -23,203 15,181 65,745 -25,769 -42,050 -77,802 -58,949 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 2,724,520 2,683,116 2,720,755 2,757,738 2,940,601 2,983,031 2,982,173 2,994,451 3,023,830 2,982,084 2,931,047 2,854,079 2,801,373 2,759,969 2,797,608 2,834,591 3,017,454 3,059,884 3,059,026 3,071,304 3,100,683 3,058,937 3,007,690 2,930,722 2,878,016 2,836,612 2,874,251 2,911,234 3,094,097 3,136,527 3,135,669 3,147,947 3,177,536 3,135,790 3,084,543 3,007,575 2,954,869 2,913,466 2,951,104 2,988,087 3,170,950 3,213,380 3,212,522 3,224,800 3,254,180 3,212,433 3,161,186
ERREUR PREVISION PREVISION (constante) -94,064 3,058,921 -107,972 3,010,665 -80,493 2,953,538 -41,331 2,870,061
-29,110 -30,317 -14,938 37,960 14,650 24,627 37,911 38,382 51,866 65,103 100,010 88,449 71,840 51,207 47,197 1,601 29,743 21,088 7,234 7,018 -5,142 -16,195 -50,806 -43,934 -34,733 -23,203 15,181 65,745 -25,769 -42,050 -77,802 -58,949 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538
janv-99 fvr-99 mars-99 avr-99 mai-99 juin-99 juil-99 aot-99 sept-99 oct-99 nov-99 dc-99 janv-00 fvr-00 mars-00 avr-00 mai-00 juin-00 juil-00 aot-00 sept-00 oct-00 nov-00 dc-00 janv-01 fvr-01 mars-01 avr-01 mai-01 juin-01 juil-01 aot-01 sept-01 oct-01 nov-01 dc-01 janv-02 fvr-02 mars-02 avr-02 mai-02 juin-02 juil-02 aot-02 sept-02 oct-02 nov-02 dc-02 janv-03 fvr-03 mars-03
SERIE CVS 2 726 843 2 719 445 2 752 804 2 798 475 2 816 996 2 822 297 2 843 976 2 903 383 2 886 583 2 902 859 2 922 653 2 929 423 2 949 416 2 969 163 3 010 160 3 005 108 2 994 799 2 980 674 2 982 964 2 943 877 2 978 529 2 976 173 2 968 829 2 974 912 2 969 261 2 964 718 2 935 987 2 949 368 2 964 869 2 982 907 3 027 591 3 084 664 2 999 660 2 989 678 2 960 436 2 985 588
APPROX. ERREUR COMPOSANTE PREVISION LINEAIRE SAISONNIERE (droite) 2 820 908 -94 064 126 280 2 947 187 2 827 417 -107 972 78 024 2 905 441 2 833 297 -80 493 20 897 2 854 194 2 839 806 -41 331 -62 580 2 777 226 2 846 105 -29 110 -121 586 2 724 520 2 852 615 -30 317 -169 498 2 683 116 2 858 914 -14 938 -138 159 2 720 755 2 865 424 37 960 -107 685 2 757 738 2 871 933 14 650 68 668 2 940 601 2 878 232 24 627 104 799 2 983 031 2 884 742 37 911 97 431 2 982 173 2 891 041 38 382 103 410 2 994 451 2 897 551 51 866 126 280 3 023 830 2 904 060 65 103 78 024 2 982 084 2 910 150 100 010 20 897 2 931 047 2 916 659 88 449 -62 580 2 854 079 2 922 958 71 840 -121 586 2 801 373 2 929 468 51 207 -169 498 2 759 969 2 935 767 47 197 -138 159 2 797 608 2 942 277 1 601 -107 685 2 834 591 2 948 786 29 743 68 668 3 017 454 2 955 085 21 088 104 799 3 059 884 2 961 595 7 234 97 431 3 059 026 2 967 894 7 018 103 410 3 071 304 2 974 404 -5 142 126 280 3 100 683 2 980 913 -16 195 78 024 3 058 937 2 986 793 -50 806 20 897 3 007 690 2 993 302 -43 934 -62 580 2 930 722 2 999 601 -34 733 -121 586 2 878 016 3 006 111 -23 203 -169 498 2 836 612 3 012 410 15 181 -138 159 2 874 251 3 018 920 65 745 -107 685 2 911 234 3 025 429 -25 769 68 668 3 094 097 3 031 729 -42 050 104 799 3 136 527 3 038 238 -77 802 97 431 3 135 669 3 044 537 -58 949 103 410 3 147 947 3 051 257 126 280 3 177 536 3 057 766 78 024 3 135 790 3 063 646 20 897 3 084 543 3 070 155 -62 580 3 007 575 3 076 454 -121 586 2 954 869 3 082 964 -169 498 2 913 466 3 089 263 -138 159 2 951 104 3 095 773 -107 685 2 988 087 3 102 282 68 668 3 170 950 3 108 582 104 799 3 213 380 3 115 091 97 431 3 212 522 3 121 390 103 410 3 224 800 3 127 900 126 280 3 254 180 3 134 409 78 024 3 212 433 3 140 289 20 897 3 161 186
ERREUR PREVISION PREVISION (constante) -94 064 3 058 921 -107 972 3 010 665 -80 493 2 953 538 -41 331 2 870 061 -29 110 2 811 055 -30 317 2 763 142 -14 938 2 794 482 37 960 2 824 956 14 650 3 001 308 24 627 3 037 439 37 911 3 030 072 38 382 3 036 051 51 866 3 058 921 65 103 3 010 665 100 010 2 953 538 88 449 2 870 061 71 840 2 811 055 51 207 2 763 142 47 197 2 794 482 1 601 2 824 956 29 743 3 001 308 21 088 3 037 439 7 234 3 030 072 7 018 3 036 051 -5 142 3 058 921 -16 195 3 010 665 -50 806 2 953 538 -43 934 2 870 061 -34 733 2 811 055 -23 203 2 763 142 15 181 2 794 482 65 745 2 824 956 -25 769 3 001 308 -42 050 3 037 439 -77 802 3 030 072 -58 949 3 036 051 3 058 921 3 010 665 2 953 538 2 870 061 2 811 055 2 763 142 2 794 482 2 824 956 3 001 308 3 037 439 3 030 072 3 036 051 3 058 921 3 010 665 2 953 538
ERREUR PREVISION -205 798 -213 196 -179 837 -134 166 -115 645 -110 343 -88 665 -29 258 -46 057 -29 781 -9 988 -3 218 16 775 36 522 77 519 72 467 62 158 48 034 50 323 11 236 45 889 43 533 36 188 42 271 36 620 32 077 3 346 16 727 32 228 50 267 94 950 152 023 67 020 57 038 27 795 52 947
Pour cela, on part des sries de base Xt (srie brute) et Zt (srie corrige des variations saisonnires ). Les sries sur la gauche donne lapproximation linaire. Pour cela, on rgresse la srie Zt sur les sries I (cest dire la constante) et t (la srie temps ), et lon obtient APPROX. LINEAIRE : Zt = A + Bt + "t avec A = 209:98, B = 4772213 et o "t est la sries des erreurs (ERREUR)1 8 . En particulier 2 858 914 = 4 772 213 + 209:98 36 342 (t = 36 342correspond au 1er juillet 1999) 38 382 = 2 929 423 2 891 041 La composante saisonnire (COMPOSANTE SAISONNIERE) est alors la srie obtenue dans la partie prcdante, b b et combine la srie Zt = A+ Bt : on obtient la premire prvision de Xt : Xt = A+ Bt + t . (colonne PREVISION (droite)). Une mthode encore plus simple est de considrer comme a justement de Zt non pas une droite quelconque b mais une constante, Zt = C + t , et la prvision de Xt devient Xt = C + t . (colonne PREVISION (constante)). On pourra ainsi obtenir 2 940 601 = 2 871 933 + 68 668 = (4 772 213 + 209:98 36 404) + 68 668 2 870 061 = 2 932 641 62 580
1 8 Le
temps t est exprim, comme sous Exc el, en nombre de jours par rapport au 1er janvier 1900.
69
Arthur CHARPENTIER
5.5.3
Le lissage exponentiel simple est prsent ci dessous, appliqu la srie corrige des variations saisonnires. Pour cela, on se xe au pralable une constante de lissage, par exemple = 0:7. La srie lisse est alors dnie parde la faon suivante 8 < St = Z t1 = 2 726 843 pour t = F eb99 St = Zt 1 + (1 ) St1 = 0:7 3 005 108 + (1 0:7) 2 953 724 = 2 969 139 pour t > F eb99 : St = S T pour t > T = Dec01 b Lerreur saisonnire est alors toujours la srie ( t) et la prvision est alors donne par Xt = St + t, soit dans lexemple ci-dessous 3 051 423 = 2 925 143 + 126 280
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998
SERIE CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588
SERIE LISSEE
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,781,971 2,909,999 2,961,035 3,007,624 3,061,552 3,018,228 2,998,243 2,971,778 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445
ERREUR SAISONNIERE
78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897
PREVISION (lissage)
2,804,867 2,742,562 2,680,882 2,660,385 2,636,990 2,679,396 2,728,364 2,951,851 2,990,362 2,995,102 3,018,568 3,051,423 3,020,158 2,981,952 2,932,848 2,880,618 2,827,522 2,847,419 2,876,063 3,024,506 3,076,521 3,072,269 3,074,042 3,099,908 3,048,595 2,987,371 2,882,553 2,660,385 2,740,501 2,822,876 2,899,939 3,130,220 3,123,027 3,095,675 3,075,188 3,107,725 3,059,469 3,002,342 2,918,865 2,859,859 2,811,947 2,843,286 2,873,760 3,050,112 3,086,244 3,078,876 3,084,855 3,107,725 3,059,469 3,002,342
ERREUR PREVISION
DATE
Jan-99
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998
SERIE CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588
SERIE LISSEE
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,781,971 2,909,999 2,961,035 3,007,624 3,061,552 3,018,228 2,998,243 2,971,778 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445
ERREUR SAISONNIERE
78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897
PREVISION (lissage)
2,804,867 2,742,562 2,680,882 2,660,385 2,636,990 2,679,396 2,728,364 2,951,851 2,990,362 2,995,102 3,018,568 3,051,423 3,020,158 2,981,952 2,932,848 2,880,618 2,827,522 2,847,419 2,876,063 3,024,506 3,076,521 3,072,269 3,074,042 3,099,908 3,048,595 2,987,371 2,882,553 2,660,385 2,740,501 2,822,876 2,899,939 3,130,220 3,123,027 3,095,675 3,075,188 3,107,725 3,059,469 3,002,342 2,918,865 2,859,859 2,811,947 2,843,286 2,873,760 3,050,112 3,086,244 3,078,876 3,084,855 3,107,725 3,059,469 3,002,342
ERREUR PREVISION
-7,398 31,139 55,013 35,025 15,809 26,421 67,334 3,400 17,296 24,982 14,265 24,273 27,029 49,105 9,680 -7,405 -16,346 -2,614 -39,871 22,691 4,451 -6,009 4,280 -4,367 -5,853 -30,487 4,235 182,898 72,908 66,556 77,040 -61,892 -28,550 -37,808 13,810
-7,398 31,139 55,013 35,025 15,809 26,421 67,334 3,400 17,296 24,982 14,265 24,273 27,029 49,105 9,680 -7,405 -16,346 -2,614 -39,871 22,691 4,451 -6,009 4,280 -4,367 -5,853 -30,487 4,235 182,898 72,908 66,556 77,040 -61,892 -28,550 -37,808 13,810
Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03
5.5.4
Les sries (S) et (S 0) sont dnies rcursivement de la faon suivante St = Xt1 + (1 ) St 1 pour t = 2; :::; n + 1 0 St = St1 + (1 ) S 0 pour t = 2; :::; n + 1 t1 Les coecients A et B sont dnie par
0 At = 2St St et Bt =
soit sur lexemple ci-dessous At = 2 2 771 987 2 746 504 = 2 797 469 et Bt = La srie lissage brut est donne par At + Bt = 2 877 040 + 18 480 = 2 895 520
70
Arthur CHARPENTIER
La srie de la prvision est alors donne, lorsquil y a n observations, par P Xt = At + Bt pour t = 2; :::; n + 1 P Xn+ h = An+1 + h:Bn+1 pour h 1
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03
VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998
SERIE LISSEE S
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,948,097 2,959,837 2,975,986 3,012,110 3,062,898 3,018,632 2,998,364 2,971,814 2,981,456
SERIE LISSEE SS
2,726,843 2,723,218 2,737,389 2,768,596 2,795,121 2,810,824 2,828,482 2,866,773 2,879,926 2,892,347 2,908,315 2,920,095 2,935,523 2,953,395 2,982,818 2,996,388 2,996,831 2,988,954 2,985,310 2,964,680 2,969,610 2,973,270 2,971,423 2,972,966 2,971,290 2,967,919 2,951,969 2,949,259 2,956,664 2,970,190 2,999,534 3,043,889 3,026,209 3,006,718 2,982,285 2,981,705
COEFF. A
2,726,843 2,720,111 2,749,535 2,795,346 2,817,856 2,824,285 2,843,617 2,899,594 2,891,201 2,902,994 2,922,001 2,930,192 2,948,746 2,968,714 3,008,038 3,008,020 2,997,210 2,982,202 2,982,187 2,946,997 2,973,835 2,976,407 2,969,840 2,974,289 2,969,853 2,965,029 2,938,297 2,946,936 2,963,011 2,981,783 3,024,686 3,081,907 3,011,055 2,990,011 2,961,343 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207
COEFF. B
0 -3,625 14,171 31,207 26,524 15,704 17,658 38,291 13,153 12,421 15,968 11,780 15,428 17,872 29,423 13,570 442 -7,877 -3,644 -20,630 4,930 3,660 -1,847 1,543 -1,677 -3,371 -15,950 -2,710 7,405 13,526 29,344 44,355 -17,680 -19,491 -24,432 -581 -1,161 -1,742 -2,323 -2,903 -3,484 -4,065 -4,645 -5,226 -5,806 -6,387 -6,968 -7,548 -8,129 -8,710
LISSAGE BRUT
2,726,843 2,716,486 2,763,706 2,826,553 2,844,380 2,839,989 2,861,275 2,937,884 2,904,354 2,915,415 2,937,969 2,941,972 2,964,174 2,986,587 3,037,461 3,021,590 2,997,652 2,974,326 2,978,543 2,926,367 2,978,764 2,980,067 2,967,994 2,975,833 2,968,176 2,961,659 2,922,347 2,944,226 2,970,416 2,995,309 3,054,030 3,126,262 2,993,375 2,970,520 2,936,911 2,980,626 2,980,046 2,979,465 2,978,884 2,978,304 2,977,723 2,977,142 2,976,562 2,975,981 2,975,401 2,974,820 2,974,239 2,973,659 2,973,078 2,972,497
Les graphiques ci-dessous correspondent, respectivment la comparaison entre les lissages corrigs des variations saisonnires et les lissages de la srie brute (en haut et en bas respectivement ), avec gauche le lissage par une constante et par une droite, au centre un lissage expontiel simple et droite un lissage exponentiel double,
3200000 3100000
3000000
3100000 3000000
3100000
3200000
3000000
2900000
2900000 2800000
2800000
2900000
2800000
2700000
2700000
99:07 SERIE_CVS
00:01
00:07
01:01
01:07 TEND_LINEAIRE
99:07
00:01
00:07
01:01
01:07 TEND_LISS_07_SIM
2700000
99:07
00:01
00:07
01:01
01:07 TEND_07_LISS_DOU
TEND_CSTE
SERIE_CVS
TEND_LISS_03_SIM
SERIE_CVS
TEND_03_LISS_DOU
71
Arthur CHARPENTIER
99:07 SERIE
00:01
00:07
01:01
01:07
99:07
00:01
00:07
01:01
01:07 PREV_LISS_07_SIM
SERIE
99:07
00:01
00:07
01:01
01:07 PREV_07_LISS_DOU
PREV_CSTE
PREV_LINERAIRE
PREV_LISS_03_SIM
PREV_LISS_03_DOU
72
Arthur CHARPENTIER
Prvoir consiste projeter dans lavenir ce quon a peru dans le pass. Henri Bergson, Le possible et le rel (1930) .
6
6.1
6.1.1
On considre le processus (Xt ) dnit sur lespace de probabilit (-; A; P), valeurs dans R. Dnition 28 Lespace L2 (-; A; P) est lespace des variables de carr intgrable (variances-covariances nies). De faon plus gnrale (et plus formelle), on dsigne par Lp lespace de Banach des classes dquivalence (pour R 1=p p lgalit P-presque sre) des fonctions mesurables telles que kf kp = - jf j dP soit nie. Proprit 21 L2 est un espace de Hilbert, muni du produit scalaire h; i et la norme associekk hX; Y i = E (XY ) 2 2 kXk = hX; Xi = E X 2 = V (X) + E (X) :
Par dnition de la covariance, on peut noter que, si X et Y sont centre, hX; Y i = E (XY ) = cov (X; Y ).
Thorme 5 Thorme de projection Si H est un sous espace ferm de L2 , pour toute variable Y 2 L2 , il existe b une unique variable alatoire Y 2 H tel que b Y Y = min kY Hk ;
H 2H
an Xn et Y =
n= p
p;q!+1
n2Z
Pour un vecteur alatoire Z = (Z1 ; :::; Zd ) , on dnit son esprance par E (Z) = (Z1 ) ; :::; E (Zd )) et sa matrice (E de variance-covariance (si elles existent ) par V (Z) = E (Z E (Z)) (Z E (Z ))0 . Cette matrice est hermitienne positive. De plus, si A est la matrice dun application linaire de R d dans Rp , le vecteur AZ admet pour esprance AE (Z) et pour matrice de variance-covariance AV (Z) A0 . Dnition 29 Le vecteur X = (X1 ; :::; Xd ) est un vecteur gaussien si toute combinaison des Xi est une variable gaussienne, i.e. pour tout a 2 R d , aX est une variable gaussienne. Sa densit scrit alors 1 1 0 f (x) = exp (x ) 1 (x ) ; p 2 (2)d=2 det o 2 Rd et est une matrice hermitienne positive d d. Si X est un vecteur gaussien, son moment lordre p existe et de plus, E (X) = et V (X) = : Dnition 30 Le processus (Xt ) est un processus gaussien si tout systme ni extrait est un vecteur alatoire gaussien, i.e. pour tout n, pour tout t1 ; :::; tn , (Xt1; :::; Xtn ) est un vecteur gaussien. 73
Arthur CHARPENTIER
6.1.3
(i) rgression sur un nombre ni de variables La rgression linaire thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans L2 (-; A; P) de X sur H = V ect(X1 ; :::; Xn ), et la rgression ane thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans L2 (-; A; P) de Y sur H = V ect(I; X1 ; :::; Xn ). On note alors o E L (:j:) dsigne lesprance linaire: Cette variable est la meilleure approximation (au sens de L2 ) de Y par une combinaison linaire de I; X1 ; :::; Xn ;
Y
b Y = E L (Y jI; X1 ; :::; Xn ) = H (Y )
Proprit 22 Soit le vecteur [cov (X; Xi )]i=0;1; :::;n et la matrice [cov (Xi; Xj )]i; j=0;1; :::;n . Alors b X = E L (XjI; X1 ; :::; Xn ) = a0 + a1 X1 + ::: + an Xn ;
(1) donne 0 = E (X) 1 E (X1 ) ::: n E (Xn ) et par substitution dans (2), E (XXi ) = + 1 E (X1 Xi) + ::: + n E (Xn Xi ) donc, pour i = 1; :::; n
8 < E (X) = E X = 0 + 1 E (X1 ) + ::: + n E (Xn ) b : E (XXi) = E XXi = 0 E (Xi ) + 1 E (X1 Xi) + ::: + n E (Xn Xi) b E (X) E (Xi) (1 E (X1 ) + ::: + n E (Xn )) E (Xi )
(1) (2)
cov (XXi) = 1 cov (X1 Xi) + ::: + n cov (Xn Xi) ; ce qui donne le systme 8 > cov (XX1 ) = 1 cov (X1 X1 ) + ::: + n cov (Xn X1 ) > < cov (XX2 ) = 1 cov (X1 X2 ) + ::: + n cov (Xn X2 ) > ::: > : cov (XXn ) = 1 cov (X1 Xn ) + ::: + n cov (Xn Xn ) ; = :
74
Arthur CHARPENTIER
Remarque 28 On peut noter que E L (XjI; X1 ; :::; Xn ) = E L (XjX1 ; :::; Xn ) si et seulement si E (X) = 0 et E (Xj ) = 0 pour j = 1; 2; :::; n. (ii) rgression sur un nombre inni de variables On considre cette fois ci X1 ; :::; Xn ; ::: des variables de L2 , et X0 = I 2 L2 . Soit H ladhrance de lespace engendr par les combinaisons linaires des Xi : H =L (I; X1 ; :::; Xn ; :::). b b On considre alors Xn = EL (X jI; X1 ; :::; Xn ). La projection sur H est alors la limite (dans L2 ) des variables Xn 6.1.4 La notion dinnovation b X = lim EL (XjI; X1 ; :::; Xn ) :
n!1
Oprateur de pro jection linaire Etant donnes une variable alatoire Y et une famille de variables alatoires fX1 ; :::; Xn g, on dnit loprateur de projection linaire de la faon suivante : (Y j fX1 ; :::; Xn g) = 1 X1 + ::: + n Xn ; o les i sont les solutions du programme doptimisation (1 ; :::; n ) = arg min fV ar [Y (a1 X1 + ::: + an Xn )]g :
a1 ;:::;a n
En dautres termes, (Y j fX1 ; :::; Xn g) est la meilleure prvision linaire de Y base sur fX1 ; :::; Xn g, au sens o la variance de lerreur sera minimale. On peut noter que cet oprateur est linaire, au sens o (:Y + :Zj fX1 ; :::; Xn g) = : (Y j fX1 ; :::; Xn g) + : (Zj fX1 ; :::; Xn g) : De plus, lerreur de prvision Y (Y j fX1 ; :::; Xn g) est non corrle avec toute fonction linaire des X1 ; :::; Xn . Enn, si cov (X1 ; X2 ) = 0, alors (Y j fX1 ; X2 g) = (Y j fX1 g) + (Y j fX2 g). Il est possible de projeter sur une suite innie de variables alatoires fX1 ; :::; Xn ; :::g, en notant (Y j fX1 ; :::; Xn ; :::g) = lim (Y j fX1 ; :::; Xk g) :
k!1
Cette limite existant pour toute suite de variables alatoires j fX1 ; :::; Xn ; :::g : Prvision linaire Dnition 31 Soit (Xt )t2Z un processus de L2 . On appelle meilleur prvision linaire de Xt sachant son pass la regression linaire (thorique) de Xt sur son pass H =V ect (I; Xt1 ; Xt2 ; :::), et sera note E L (Xt jI; Xt1 ; Xt2 ; :::). Dnition 32 Le processus dinnovation du processus (Xt) est le processus ("t ) dni par "t = Xt E L (Xt jI; Xt1 ; Xt2 ; :::) : Proprit 23 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) dnit par19 Xt = Y t Y t1 pour jj < 1;
1 X i=1
i Xti
Preuve. Le processus (Xt) est stationnaire en tant que moyenne mobile de bruit blanc. Dnissons alors S t;n =
1 9 Cec i
n X i=1
iXti .
75
Arthur CHARPENTIER
A t x, la suite (St;n ) est une suite de Cauchy dans L2 puisque n n X X i i ; kSt;n St;m k = Xti kXtk
i=m+1 i=m+ 1
qui tend vers 0 quand m et n tendent vers linni. (St;n ) converge donc dans L2 vers St = V ect (I; Xt1 ; Xt2 ; :::). Or Xt = Y t Yt 1 , donc Xt + Sn;t = Yt + n+1 Y tn1 et donc Xt +
1 X i=1
P1
i=1
iXt i, lment de
i Xti = Y t ;
puisque n+1 Y tn1 2 jjn+1 ! 0 quand n ! 1, do Xt = St + Y t . Or hXs ; Yt i = 0 pour tout s < t, hI; Y t i = 0 et St 2 V ect (I; Xt1 ; Xt2 ; :::), donc St = EL (XtjI; Xt 1 ; Xt 2 ; :::) et ("t ) est le processus dinnovation. Remarque 29 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) satisfaisant Xt Xt1 = Yt ; avec jj > 1; Comme nous le verrons par la suite (proprit (??)) le processus Y t ainsi dni ne correspond pas linnovation du processus Xt . Il est possible de montrer (en utilisant la densit spectrale) que le processus "t dnit par "t = Xt 1 Xt1 est eectivement un bruit blanc. En fait, ("t ) correspond au processus dinnovation associ au processus (Xt ). Du fait de cette dnition, linnovation possde un certain nombre de proprits
Y
Comme on peut le voir sur le schma ci-dessus, si "t est linnovation, alors elle est orthogonale au pass de Xt cest dire que E ("t Xt1 ) = E (" tXt 2 ) = ::: = E (" tXt h ) = ::: = 0 mais E ("t Xt ) 6= 0: De plus, on aura galement que "t+k sera galement orthonogonale au pass de Xt , pour k 0; E ("t+k Xt1 ) = E (" t+k Xt 2 ) = ::: = E (" t+k Xt h ) = ::: = 0: Remarque 30 De faon rigoureuse, il conviendrait dintroduite la notion de processus rgulier : on dira que le processus stationnaire (Xt ), centr, est rgulier sil existe un bruit blanc ("t ) tel que, pour tout t 2 Z, ladhrance des passs (linaires) Ht = V ect (I; Xt 1 ; Xt2 ; :::) et H t = V ect (I; "t1 ; "t2 ; :::) concident : Ht = H t . On peut alors " " X X montrer si (Xt) est un processus stationnaire rgulier, et si ("t ) est un bruit blanc tel que, chaque date t les passs concident, alors on a la dcomposition Ht = Ht 1 R" t; pour tout t; X X o dsigne une somme directe orthogonale, et le processus bruit blanc est alors unique : il est appel innovation du processus (Xt ) : Le fait que les deux espaces concident implique, en particulier, que si ("t ) est linnovation du processus (Xt ) alors EL (XT + k jXT ; XT 1 ; ::::) = EL (XT +h j"T ; " T 1 ; :::) : 76
Arthur CHARPENTIER
Complments laide des espaces H Etant donn un processus (Xt ), on notera H (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ). On notera HT (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ) avec t T . Dnition 33 On appelle processus dinnovation la suite "t = Xt Ht1(X) (Xt). Ce processus est alors une suite orthogonale (pour le produit scalaire h; i), et on a linclusion Ht1 (") Ht1 (X).
6.2
6.2.1
Nous avions dni prcdemment loprateur retard L par L : Xt 7! L (Xt ) = LXt = Xt1 et loprateur avance F par F : Xt 7! F (Xt ) = F Xt = Xt+1 . On notera alors Lp = L L {z::: L o p 2 N, | }
p fois
avec la convention L0 = I et L1 = F . Et de faon analogue, L p = F p pour p 2 N. 6.2.2 Inversibilit des polynmes P (L)
Soit A () un polynme, on cherche B () tel que A () B () = B () A () = 1. (i) inversibilit de P (L) = 1 L Proprit 24 (i) Si jj < 1 alors 1 L est inversible, et de plus, (1 L)
1 1 X
k Lk :
k= 0
(ii) Si jj > 1 alors 1 L est inversible, et de plus, (1 L) (iii) Si jj = 1, alors 1 L nest pas inversible. Preuve. (i) Si jj < 1 alors (1 ) donc A(L) = P+1
k k=0 k 1 +1 X 1 1 X 1 = F k: k k=1
k =
k=0
1 < +1; 1
ce qui signie que A est le polynme inverse associ (1 L). 1 (ii) De faon analogue, si jj > 1 alors 1 L = L = L 1 (L) En combinant ces deux rsultats : (1 L)
1 1
1 = F et
F 1
. On a alors :
= (L)
+1 X
F 1
1
1 X
1 = F k Lk ;
+1 X 1
k= 0
k=1
Fk = k 77
k=1
Arthur CHARPENTIER
ce qui correspond au rsultat souhait. P P (iii) En eet, il nexiste par de polynme A(L) = k2Z ak Lk ; k2 Z jak j < +1 tel que (1 L)A(L) = 1. En eet, s un tel polynme existait, (1 L)A(L) = 1 ) jak j = jak1 j 9 0 quand k ! 1; P et donc k2Z jak j = +1. Exemple 37 Soit (Xt ) et (Y t ) deux processus stationnaires tels que Y t = Xt Xt 1 = (1 L) X t; o < 1. Cette relation sinverse en Xt = (1 L) 1 Y t = Y t + Y t 1 + ::: + k Y tk + ::: Exemple 38 Dans le cas o = 1 (racine unit) on se retrouve en prsnce dune marche alatoire Yt = Xt Xt1 (non stationnaire). (ii) inversibilit des polynmes en L Tout polynme A (L) = 1 + a1 L + ::: + an L n (normalis tel que A (0) = 1), peut scrire A (z) = an (z z 1 ) (z z2 ) ::: (z zn ) ; correspondant la dcomposition en lments simples (zi = racines du polynme). On peut crire A (L) =
n Y
i=1
(1 iL) o i =
1 zi
Proprit 25 Si pour tout i, ji j 6= 1, alors A (L) est inversible. Pour cela, notons Y Y Y Y 1 A (L) = (1 i L) = (1 iL) 1 F ( i L); i j ij< 1 j ij> 1 j ij>1 | {z }| {z }| {z }
A1(L) A2 (L) A3(L ) 1
(1 iL)
= A1 (L)
A2 (L)
A3 (L)
= |
j ij<1
(1 iL)
P k Lk
{z
}|
j ij> 1
1 1 F i {z P
kF k
2 4
jij> 1
i5 F n ;
P Qp Preuve. En eet, 8i; (1 i L)1 est bien dni, de la forme k2Z ai;k Lk et A(L)1 = i=1 (1 iL) 1 est donc aussi dni. Toutefois, A(L) 1 peut contenir des termes en Lk ; k > 0 qui sont des termes concernant le futur P+1 Si j ij < 1 pour tout i alors (1 iL)1 = k=0 k Lk et : i A(L)1 = Par ailleurs, A(z) =
p Y p Y i=1
(1 iL) 1 =
+1 X
ak Lk
k= 0
+1 X k=0
i=1
(1 iz)
et A(z)A(z)1 = 1 ,
p Y
i=1
(1 iz)
ak z k
= 1;
de telle sorte que A(0)A(0) 1 = 1 a0 = 1 ) a0 = 1. Sil existe i tel que i 2 CnR alors A(L) = (1 i)(1 i)P (L) et ! ! +1 +1 +1 +1 X X k X X k k i Lk = (1 i) 1 (1 i)1 = i L k Lk k 2 R; 0 = 1; jak j < +1:
k=0 k=0 k=0 k=0
Remarque 31 Si des racines sont infrieures 1 (en module), cette dcomposition fait intervenir le futur de la variable. 78
Arthur CHARPENTIER Qp
Pour dterminer, en pratique, linverse dun polynme A (L), supposons quil scrive A(L) = telle sorte que +1 ! p Y X k 1 k A(L) = j L
j=1 k=0
j= 1(1
j L), de
On peut utiliser directement cette mthode de calcul pour p petit (p = 1; 2) mais elle savre fastidieuse en gnral. On note, + 1 ! +1 ! X X A(L) ak Lk = (1 + ' 1 L + + 'p Lp ) ak Lk = 1
k=0 k=0
(L) 1 =
1 1 j L j=1
p Y
On dcompose alors cette fraction rationnelle en lments simples, 1 = (z)Qr (z) + z r+1 Rr (z) avec limr !+1 Qr (z) = A1 (z).
6.3
2 Pour rappels, Un processus (Xt ) est stationnaire (au second ordre) si pour tout t, E Xt < +1; pour tout t, E (Xt ) = , constante indpendante de t et, pour tout t et pour tout h, cov (Xt; Xt+h ) = (h), indpendante de t: 6.3.1 Autocovariance et autocorrlation
Pour une srie stationnaire (Xt ), on dni la fonction dautocovariance h 7! X (h) = cov (Xt Xth ) pour tout t, et on dni la fonction dautocorrlation h 7! X (h) = X (h) =X (0) pour tout t, soit X (h) = corr (Xt ; Xth ) = p (2) (1) 1 .. . .. .. .. (h 1) (h 2) (h 3) . . . .. . cov (Xt ; Xth ) (h) p = X X (0) V (Xt) V (Xth )
Dnition 34 On appelera matrice dautocorrlation du vecteur (Xt ; Xt1 ; :::; Xth+1 ) 6 6 6 6 6 R (h) = 6 6 6 6 4 2 1 (1) (2) (1) 1 (1) 3 (h 1) (h 2) 7 2 7 7 (h 3) 7 6 7 6 R (h 1) 7=6 7 4 7 7 (h 1) (1) (1) 5 1 2 3 3 (h 1) 6 7 7 . . 4 5 7 . 7 5 (1) 1
1 (1)
On peut noter que det R (h) 0 pour tout h 2 Nn f0g. Cette proprit implique un certain nombre de contraintes sur les X (i). Par example, la relation det R (2) 0 implique la contrainte suivante sur le couple ( (1) ; (2)) : h i [1 (2)] 1 + (2) 2 (1)2 0; p ce qui fait quil ne peut y avoir de chute brutale de (1) (2) : il est impossible davoir (2) = 0 si (1) 1= 2. Ces fonctions sont estimes, pour un chantillon X1 ; :::; XT , de la faon suivante :
Th 1 X b (h) b (h) = Xt Xth et b (h) = ; T h b (0) t=1
(quand le processus est centr, sinon, il faut considrer (Xt ) (Xth )).
79
Arthur CHARPENTIER
6.3.2
Autocorrlations partielles
Les deux prcdentes mesures de dpendence entre Xt et Xt+ h ne faisaient intervenir que les variables Xt et Xt+h . Nous allons introduire ici une notion faisant intervenir les variables intermdiaires. Nous supposerons, sans perte de gnralit que le processus (Xt ) est centr : E (Xt) = 0 pour tout t. Dnition 35 Pour une srie stationnaire (Xt), on dni la fonction dautocorrlation partielle h 7! X (h) par b b X (h) = corr Xt ; Xth ; o ( b Xth = Xth E L (Xth jXt1 ; :::; Xth +1 ) b Xt = Xt EL (Xt jXt 1 ; :::; Xt h+1 ) :
On regarde ici la pro jection (ou lesprance linaire) les deux valeurs extrmes Xt et Xth sur lensemble des valeurs intermdiaires t1 = fXt1 ; :::; Xth+1 g. Cette pro jection peut scrire, dans le cas de Xt h1 E L (Xt jXt 1 ; :::; Xth+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt 2 + ::: + ah 1 (h 1) Xth+ 1: On peut aussi crire, en ra joutant Xth ; et en pro jetant ainsi sur t1 , h EL (XtjXt1 ; :::; Xt h ) = a1 (h) Xt1 + a2 (h) Xt2 + ::: + ah1 (h) Xt h+1 + ah (h) Xth : Il est alors possible de montrer que EL (Xt jXt 1 ; :::; Xt h+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt2 + ::: + ah1 (h 1) EL (Xth jXt1 ; :::; Xth+1 ) : On a alors
h1 X i=1
(19)
ai (h 1) Xt i =
Aussi, on a le rsultat suivant, permettant dobtenir les coecients de faon rcursive Proprit 26 Pour j = 1; :::; h 1 aj (h) = aj (h 1) ah (h) + ah j (h 1) (20) Toutefois, cette mthode rcursive nest possible qu condition de connatre ah (h). Pour cela, on peut utiliser le rsultat suivant, Lemme 1 En notant i le coecient dautocorrlation, i = corr (Xt ; Xti), alors P (h) h 1 (h i) ai (h 1) i=1 a h (h) = : Ph1 1 i=1 (i) ai (h 1) Preuve. De (19), on peut dduire (h) = (h 1) a1 (h) + ::: + (1) ah1 (h) + ah (h) ; puisque (0) = 0; cest dire ah (h) = (h) [ (h 1) a1 (h) + ::: + (1) ah 1 (h)] = (h) En utilisant (20), on peut crire ah (h) = (h) " h1 X
i=1 h1 X i=1
h1 X i=1
h 1 X i=1
ah i (h 1) Xt i:
(21)
(h i) ai (h) : #
(h i) ai (h 1) ah (h) :
h1 X i=1
(i) ai (h 1) :
On peut dailleurs noter que lon a la relation suivante 2 3 2 3 a1 (h) (1) 6 7 . 1 6 . 7 . a (h) = 4 5 = R (h) 4 . 5 : . . ah (h) (h) 80
Arthur CHARPENTIER
Dnition 36 Lalgorithme rcursif bas sur (20), (21) et la condition initiale a1 (1) = (1) est appel algorithme de Durbin. De (20) on peut en dduire en particulier que a1 (h) = a1 (h 1) + ah (h) ah1 (h 1) ; et de (21) ; que pour h 2, ah (h) = (1) ah 1 (h 1) : 1 (1) a1 (h 1)
Ces deux quation permettent dobtenir rcursivement les deux coecients extrmes a1 (h) et ah (h) pour tout h. Proprit 27 Soit (Xt ) un processus stationnaire, alors X (0) = 1, et, pour h 1, X (h) est le coecient relatif Xth dans la projection de Xt sur Xt 1 ; :::; Xt h+1 ; Xth , soit ah (h). Preuve. Cette proprit sobtient en notant que EL (XtjXt1 ; :::; Xth ) EL (XtjXt1 ; :::; Xt h+1 ) = ah (h) [Xth E L (Xt hjXt1 ; :::; Xt h+1 )] :
Thorme 6 Il est quivalent de connatre la fonction dautocorrlation (X (h)) ou la fonction dautocorrlation partielle ( X (h)). Preuve. (i) Lalgorithme de Durbin a montr que la connaissance des X (h) permet de construire de faon rcursive les fonctions X (h). (ii) Rciproquement, la relation inverse sobtient par rcurence, en notant que a1 (1) = X (1) = X (1), et que 2 3 2 3 2 3 a1 (h) (h 1) (1) 6 7 6 7 6 7 . . . . . . R (h 1) 4 5+4 5 ah (h) = 4 5; . . . ah1 (h) (1) (h 1) et (h 1) (1) 6 4 2 a 1 (h) . . . ah 1 (h) 3 7 5 + ah (h) = (h) :
Exemple 39 En particulier, on peut noter que X (1) = X (1) et X h i 2 X (2) X (1) h i (2) = 1 X (1)2
Une autre formulation consiste dire que la fonction dautocorrlation partielle mesure la corrlation entre Xt et Xth une fois retire linuence des variables antrieures Xth . En reprenant les notations de la partie prcdante, 2 3 1 (1) (2) (h 3) (h 2) (h 1) 6 (1) 1 (1) (h 4) (h 3) (h 2) 7 6 7 6 7 .. 6 (2) . (h 5) (h 4) (h 3) 7 (1) 1 6 7 6 7 .. .. .. R (h) = 6 7 . . . 6 7 6 7 .. 6 (h 3) (h 4) (h 5) . 1 (1) (2) 7 6 7 4 (h 2) (h 3) (h 4) (1) 1 (1) 5 (h 1) (h 2) (h 3) (2) (1) 1
81
Arthur CHARPENTIER
et on introduit de faon analogue la matrice R (h) obtenue en remplaant la 0 [ (1) ; :::; (h)] , 2 1 (1) (2) (h 3) 6 (1) 1 (1) (h 4) 6 6 .. 6 (2) . (h 5) (1) 1 6 6 .. .. .. R (h) = 6 . . . 6 6 .. 6 (h 3) (h 4) (h 5) . 1 6 4 (h 2) (h 3) (h 4) (1) (h 1) (h 2) (h 3) (2) Il est alors possible de montrer simplement que X (h) = 6.3.3 Densit spectrale jR (h)j pour tout h. jR (h)j
dernire colonne de R (h) par le vecteur (h 2) (h 3) 7 7 7 (h 4) (3) 7 7 7 7 7 7 (1) (h 2) 7 7 1 (h 1) 5 (1) (h) (1) (2) 3
Comme nous lavon dj mentionn, il est quivalent de connatre la fonction dautocorrlation et la densit spectrale du processus. P+1 Proprit 28 Soit (Xt) un processus stationnaire de la forme Xt = m + j=0 aj "tj o (" t) est un bruit blanc et P+1 P j=0 jaj j < +1, alors h2Z jX (h)j < +1. Preuve. X X jX (h)j = aj ak " (h + j k) : h2 Z h2Z j;k X " (h + j k) = et donc, X 0 si h + j k 6= 0 2 si h + j k = 0; "
Proprit 29 La densit spectrale du processus (Xt ) est dnie par 1 X 1 X fX (!) = X (h) exp(i!h) = X (h) cos(!h): 2 2
h 2Z h 2Z
0 12 X X X X 2 " j X (h)j = aj ah+j 2 jaj j jah+j j = 2 @ aj A < +1: " " h2Z h 2Z j h;j j
f X (!) =
1 X (0) + 2 2
X (h)e i!h +
h>0
h <0
X (h)ei!h = 3 2
1 6 4X (0) + 2
X (h)e i!h + 3
h>0
h>0
7 X (h) ei!h 5 | {z }
= X (h)
1 X X (h) cos(!h): 2
h2Z
On peut dailleurs noter que si ("t) est un bruit blanc de variance 2 , on a alors ("t ) B B(0; 2 ) ) f "(!) = 82 " : 2
Arthur CHARPENTIER
Proprit 30 Avec les notations prcdentes, on a le thorme dinjectivit suivant, Z Z 8h 2 Z; X (h) = f X (!)ei!h d! = f X (!) cos(!h)d!:
[ ;] [ ;]
d!
1 2
= X (h):
[ ;]
X (k)e
i! k
k2Z
ei!h d!
Proprit 31 Soient ("t) un bruit blanc, et considrons les processus (Xt) et (Yt ) dnis par X X X X Xt = aj "t j et Y t = bk Xtk o jaj j ; jbj j < +1;
j2 Z k2Z j j
alors Yt =
k2Z c k "t k ,
et de plus,
k2Z
k2Z
j;h2 Z
0 1 X X bk @ aj "t kj A = aj b k "t(k+j)
j2Z
aj bh j " th =
h2Z
0 @ |
j;k2Z
j2 Z
aj b hj A" th :
=ck
1 }
{z
1 2 1 2
h; j;k2Z
h 2Z
j;k2Z
X
l2 Z
X (l)e i!l
1 ! X b j ei! j A b k e i!k
k2Z
6.3.4
Autocorrlations inverses
Cette notion a t introduite en 1972 par Cleveland, et Chateld en a prcis les principales charactristiques en 1979. Etant donn un processus (Xt ) stationnaire, de fonction dautocovariance X et de densit spectrale fX ; il se peut que 1=f X soit interprtable comme une densit spectrale (par exemple ds lors que 1=fX est continue). 83
Arthur CHARPENTIER
Dnition 37 La fonction dautocovariance inverse i X est la fonction dautocovariance associe au spectre inverse 1=f , Z + 1 1 1 X i X (h) = exp (i!h) d! ou = i X (h) exp (i!h) : fX (!) 2 f X (!)
h2Z
De la mme faon que prcdement, on peut alors dnir une autocorrlation inverse, Dnition 38 La fonction dautocorrlation inverse i X est dnie par, i (h) = i X (h) : iX (0)
Considrons une srie (Xt ) stationnaire, de processus dautocovariance (h) pour h 2 Z. On dnit alors la fonction gnratrice dautocovariance comme le polynme (doprateurs retards ) suivant (L) = ::: + (1) L1 + (0) I + (1) L + (2) L2 + ::: =
+1 X
(k) Lk ;
k=1
et de faon similaire, on peut dnir la fonction gnratrice dautocorrlation. La fonction gnratrice dautocovariance inverse, note i (L) est dni par i (L) (L) = I et est telle que i (L) = ::: + i (1) L1 + i (0) I + i (1) L + i (2) L2 + ::: =
+1 X
i (k) Lk = (L)
k=1
Exemple 40 Dans le cas dun processus dit ARM A (p; q) (voir partie (6:6)), dnit par une relation de la forme (L) Xt = (L) " t o "t est un bruit blanc, et o et sont respectivement des polynmes de degr p et q. La fonction gnratrice dautocovariance inverse est donne par (L) L 1 1 i (L) = : o 2 est la variance du bruit blanc " t (L) (L1 ) 2 Dans le cas o la composante moyenne mobile nexiste pas ( = I, on parle alors de processus AR (p)),on peut alors en dduire simplement que lautocovariance inverse est donne par Pph j=0 j j+h i (h) = pour h p et i (h) = 0 pour h p Pp 2 j=0 j avec la convention 0 = 1. Aussi, pour les processus AR (p), les autocorrlations inverses sannulent au del du retard p (de la mme faon que les autocorrlations partielles). Bhansali a montr en 1980 que pour un bruit blanc, les autocorrlations inverses empiriques suivent un bruit blanc de loi normale de moyenne nulle et de variance 1=n. Ainsi, la signicativit des coecients dautocorrlation inverse peut tre teste, au seuil de 5%, en la comparant avec p 1:96= n:
Il est galement possible de dnir les autocorrlations partielles inverses (en utilisant une construction analogue celle dveloppe dans la partie prcdante, en remplaant les par les i). Comme la montr Bhansali (1980 1983) et Cleveland et Parzen, les autocorrlations partielles inverses peuvent tre obtenus laide de mthodes rcursives (proches de celle de Durbin ). Remarque 32 On peut noter la correspondance suivante autocorrlations l autocorrlations partielles inverses autocorrlations partielles l autocorrlations inverses
En fait, comme nous le verrons par la suite, sur lidentication des modles ARM A, les autocorrlations permettent de dtecter (entre autres) si une srie est intgre, et sil faut la direncier, alors que les autocorrlations partielles permettent de vrier que la srie na pas t surdirencie. Les autocorrlations et les autocorrlations inverses i sont identiques si et seulement si X est un bruit blanc 84
Arthur CHARPENTIER
6.3.5
Nous allons rappeler ici les formes des autocorrlogrammes, et des autocorrlogrammes partiels de sries non-stationnaires, et dterministes. Exemple 41 Fonction linaire Xt = a + bt
600 400 200 0 -200 -400 -600
200
400
600 LINEAIRE
800
1000
120
80
40
200
400
600
800
1000
PUISSANCE
85
Arthur CHARPENTIER
20
40
60 SINUS12
80
100
120
6.4
Dnition 39 On appelle processus autoregressif dordre p, not AR (p), un processus stationnaire (Xt ) vriant une relation du type p X Xt i Xti = "t pour tout t 2 Z, (22)
i=1
o les i sont des rels et ("t ) est un bruit blanc de variance 2 . (22) est quivalent lcriture (L) Xt = " t o (L) = I 1 L ::: p Lp
Il convient de faire toutefois attention aux signes, certains ouvrages ou logiciels considrant des polynmes de la forme I + 1 L + ::: + p Lp . Remarque 33 En toute gnralit, un processus AR (p) vrie une relation de la forme (L) Xt = + "t o est un terme constant. De cette forme gnrale, il est possible de se ramener (22) par une simple translation : il sut de consider non pas Xt mais Y t = Xt m o m = = (1). En eet, (L) (Y t + m) = + "t peut se rcire (L) Y t + (1) m = + "t cest dire (L) Yt = "t . m correspond ici lesprance de (Xt). 6.4.1 Rcriture de la forme AR (p)
Comme nous lavons vu dans la partie ([Link]), si lon souhaite inverser un polynme (en loccurence, prsenter Xt comme une fonction des "t ), il convient de regarder les racines du polynme , en particulier leur position par rapport 1 (en module). Comme nous allons le voir dans cette partie, il est possible, lorsque les racines de sont de module dirent de 1, quil est toujours possible de supposer les racines de module suprieur 1, quitte changer la forme du bruit blanc. Ecriture sous la forme M A(1) quand les racines de sont de module strictement suprieur 1 On suppose (L)Xt = + "t o (L) = 1 ('1 L + + ' p L) et aussi que jzj 1 ) (z) 6= 0 (de telle sorte que les racines de sont de module strictement suprieur 1 ). Daprs les rsultats noncs dans la partie sur les polynmes doprateurs retards, (Xt) admet une reprsentation M A(1) i.e. Xt = m +
+1 X k=0
ak "t k
o a0 = 1; ak 2 R;
+1 X
k=0
On sait que (L)(Xt m) = "t, donc Xt m = (L) 1 ("t ): Proprit 32 Sous ces hypothses, L(Xt ) = L("t ), o L(Xt) = L(1; Xt ; Xt1 ; : : : ; Xt p ; : : : ) et L(" t) = L(1; "t ; "t1 ; : : : ; et de plus ("t) est linnovation de (Xt) : P+ 1 Preuve. (i) Xt = + '1 Xt1 + + ' p Xtp + "t , qui peut se rcrire Xt = + k=0 at" tk donc Xt 2 L("t ) = L(1; "t ; "t1 ; : : : ; "tk ; : : : ): Donc 8k 0; Xtk L("tk ) L("t ) On en dduit que L(1; Xt ; Xt1 ; : : : ; Xt k ; : : : ) L(" t) et donc L(Xt ) L("t ). Le second espace tant ferm, on en dduit que L(Xt) L("t ). 86
Arthur CHARPENTIER
De la mme faon et comme " t = Xt ( + '1 Xt 1 + + ' p Xtp ), in obtient linclusion rciproque et nalement L(Xt ) = L("t ). b (ii) Linnovation de (Xt) vaut, par dnition, Xt Xt, o b Xt = E L(Xt jXt 1 ) = EL(Xt j1; Xt 1 ; : : : ; Xtk ; : : : )
2 L(X t1)
b Comme L(Xt 1 ) = L("t 1 ), on a EL(" tjXt1 ) = E L("t j"t1 ) = 0 car (" t) est un bruit blanc. Finalement Xt = b + ' Xt1 + + ' Xtp et Xt Xt = "t : ("t ) est bien linnovation de (Xt ). Si (Xt ) est un processus AR (p), (L)Xt = + "t o les racines de sont lextrieur du disque unit, on dit que la reprsentation (L)Xt = + "t est la reprsentation canonique de (Xt):
1 p
= E L( + ' 1 Xt1 + + ' p Xtp + "t jXt 1 ) = + '1 Xt 1 + + 'p Xt p + E L("t jXt 1 ): | {z }
Ecriture sous la forme M A(1) quand certaines racines de sont de module strictement infrieur 1 On suppose que le processus (Xt ) scrit (L)Xt = + "t avec 2 32 3 p Y Y Y (L) = (1 j L) = 4 (1 j L)5 4 (1 j L)5
j=1 j= jj j<1 j= jj j> 1
On peut alors montrer que lon naura pas L(Xt ) = L("t ), et donc ("t) nest pas linnovation. Pour obtenir la reprsentation canonique il faut changer le polynme et le bruit blanc. On pose 2 32 3 Y Y z (z) = 4 (1 j z)5 4 (1 )5 j
j= jj j< 1 j= jj j>1
Proprit 33 Soit ( t ) le processus tel que t = (L)Xt. Alors ( t ) est un bruit blanc. 2 Preuve. En eet, la densit spectrale de ( t ) est f (!) = fX (!) (ei! ) . Et comme (L)Xt = " t, on a aussi : On peut alors crire 2 2 fX (!) (ei! ) = f" (!) = " 2 hQ
f (!) =
On a donc
2 j= j j j<1 i! 2 2 1 2 " (e ) = " h i hQ i 2 j(ei! )j2 2 Q i! 2 i! 2 j= j j j<1 j1 j e j j= j j j>1 j1 j e j 2 2 Y 1 j ei! 2 Y 1 " " 2 2 = 2 i! j 2 2 j j j j1 j e j j j j; j j j>1 j; j j j>1 | {z } j= jj j>1 1
ei! j =1
i Q 1 j ei! 2
f (!) =
2 2 " = avec = 2 2
j; j j j>1
1 j j j2
<1
et nalement ( t ) est un bruit blanc: La reprsentation (L)Xt = t est alors la reprsentation canonique de (Xt ) et ( t ) est linnovation de (Xt ). 6.4.2 Proprits des autocorrlations - les quations de Yule-Walker Xt = 1 Xt1 + 2 Xt2 + ::: + p Xtp + " t: (23)
87
Arthur CHARPENTIER
= 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t Xt = 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t 1 Xt 1 + 2 Xt2 + ::: + p Xt p + "t = 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "2 + 1 Xt1 + 2 Xt 2 + ::: + p Xt p " t; t (0) = 1 (1) + 2 (2) + ::: + p (p) + 2 + 0;
le dernire terme tant nul car "t est suppos indpendant du pass de Xt ; fXt1 ; Xt2 ; :::; Xtp ; :::g. De plus, en multipliant (23) par Xt h , en prenant lesprance et en divisant par (0), on obtient (h)
p X i= 1
Cette suite dquations dnit le systme dquation dit de Yule-Walker : Proprit 34 Soit (Xt ) un processus AR (p) dautocorrlation (h). Alors 2 (1) (2) (3) . . . 3 7 7 7 7 7 7 7 5 6 6 6 6 6 6 =6 6 6 6 6 4 2 1 (1) (2) .. . (1) 1 (1) .. (2) (1) 1 .. . .. .. .. (p 3) . . . .. . 3 (p 1) 7 2 1 7 .. . (p 2) 7 6 2 76 76 (p 3) 7 6 .3 76 . 76 . .. 76 . 7 4 p1 7 p 1 (1) 5 (1) 1 3 7 7 7 7 7 7 7 5
6 6 6 6 6 6 6 4 (p 1) (p)
. (p 1) (p 2)
Preuve. En eet, 8h > 0; (h) ' 1 (h 1) ' p (h p) = 0. Le polynme caractristique de cette relation de rcurrence est : 'p1 'p ' 1 z p ' 1 z p 1 ' p1 z ' p = z p 1 1 p1 p = zp ( ); z z z z
1 avec (L)Xt = "t et(L) = 1 '1 L ' p Lp . Les racines du polynme caractristique sont les i = zi (les zi tant les racines de ) avec j ij < 1. La forme gnrale de la solution est, si z1 ; : : : ; zn sont des racines distinctes de de multiplicits respectives m1 ; : : : ; mn n X X mi 1 (h) = ik k h k i i=1 k=0
cest dire que (h) dcroit vers 0 exponentiellement avec h. Par inversion, il est possible dexprimer les i en fonction des (h). La mthodologie dveloppe dans la partie ([Link]) permet dobtenir les autocorrlations partielles (h). Il est possible de montrer le rsultat suivant
Proprit 35 (i) Pour un processus AR (p) les autocorrlations partielles sont nulles au del de rang p, (h) = 0 pour h > p: (ii) Pour un processus AR (p) les autocorrlations inverses sont nulles au del de rang p, i (h) = 0 pour h > p: Preuve. (i) Si (Xt ) est un processusAR(p) et si (L)Xt = + "t est sa reprsentation canonique, en notant (h) le coecient de Xth dans E L(Xt jXt1 ; : : : ; Xt h ) alors, Xt = +
2L(1;X t; :::;X tp) L(1;X t;::: ;Xth )
+ "t
+ ' 1 Xt1 + + ' p Xtp + E L("t jXt1 ; : : : ; Xt h ) + ' 1 Xt1 + + ' p Xtp + 0 88
Arthur CHARPENTIER
Aussi, si h > p, le coecient de Xth est 0. et si h = p, le coecient de Xtp est 'p 6= 0. (ii) Les autocorrlation inverses sont dnies par i(h) = i(h)=i (0) o Z 1 i (h) = e i!h d!: f X (!) Si (L)Xt = "t la densit spectrale de (Xt) vrie 2 2 2 1 f X (!) (ei! ) = f "(!) = " donc f X (!) = " : 2 2 j(e i! )j2 2 1 2 = 2 (e i! ) f X (!) " !0 @
p X
Par consquent,
k=0
k=0k
ei!k A =
2 2 "
0k;l p
k l ei!(kl) ;
Cette mthode pourra tre utilise pour identier les processus AR (p) : 6.4.3 Le processus AR (1)
La forme gnral des processus de type AR (1) est Xt Xt1 = "t pour tout t 2 Z, o ("t) est un bruit blanc de variance 2 . (i) si = 1, le processus (Xt ) nest pas stationnaire: Par exemple, pour = 1, Xt = Xt1 + "t peut scrire Xt Xt h = "t + " t1 + ::: + " th+1 ; et donc E (Xt Xt h) = h 2 . Or pour un processus stationnaire, il est possible de montrer que E (Xt Xt h) 4V (Xt). Puisquil est impossible que pour tout h, h 2 4V (Xt), le processus nest pas stationnaire. Si jj 6= 1, il existe un unique processus stationnaire tel que Xt Xt 1 = " t pour tout t 2 Z, ou (1 L) Xt = "t : (ii) si jj < 1 alors on peut inverser le polynme, et Xt = (1 L)1 "t =
1 X i= 0 2 2
(24)
89
Arthur CHARPENTIER
1 Xt 1 = t;
Proprit 36 La fonction dautocorrlation est donne par (h) = h : Preuve. Cette expression sobtient partir des relations du type (24) ; ou en notant que (h) = (h 1). La densit spectrale dun processus AR (1) est de la forme f (!) = 2 1 ; 2 2 1 + 2 cos !
qui correspond au graphique ci-dessous, avec > 0 (les courbes sont ici prsentes dans la mme base 1 : f (0) = 1),
=5
= 2.5
5/6
Les valeurs les plus importantes sont obtenues aux basses frquences, les fonctions tant dcroissantes sur [0; ]. Dans les trois exemples ci-dessous, les " t seront pris gaussiens, "t s N (0; 1) Exemple 45 Processus AR (1), = 0:2 - Dans le cas o est relativement faible
3 2 1 0 -1 -2 -3 20 40 60 80 100 120 140 160 180 200 AR11
90
Arthur CHARPENTIER
-2
20
40
60
80
Remarque 34 Les graphiques ci-dessous reprsentent des simulations de processus AR (1), avec dirents coecients , repectivement, de gauche droite et de bas en haut 0:1, 0:5, 0:9, 0:95, 1, puis 1:002, 0:5, 0:9, 1 et 1:001,
4
6 4 2
10
15 10
40
5 5 0 0 -5
20
0
0
-2
-2
-20
-4
-4
500
1000 AR1_010
1500
2000
500
1000 AR1_050
1500
500
1000 AR1_090
1500
500
1000 AR1_095
1500
2000
50 0 -50
8 4 0
30 20 10 0
500
1000 AR1_M099
1500
500
1000 AR1_M100
1500
500
1000 AR1_M1001
1500
2000
Comme on peut le voir, on retrouve une marche alatoire pour 1, et des processus explosifs quand jj > 1. A retenir 6 Un processus AR (1) : Xt = Xt1 + "t sera auto-corrl positivement si 0 < < 1, et autocorrl ngativement si 1 < < 0. Cette srie va osciller autour de 0, en sen cartant suivant la valeur "t du processus dinnovation (si 1 < < +1). Si = +1, on obtient une marche alatoire, et si > +1 ou < 1 le processus
91
Arthur CHARPENTIER
nest par stationnaire, et on obtient un modle qui explosera ( moyen terme). La valeur , dans le cas o le processus est stationnaire, est la corrlation entre deux dates conscutives = corr (Xt ; Xt1 ). 8 > 0 dcroissance exponentielle > > Fonction dautocorrlation < < 0 sinusode amortie AR (1) : > premire non nulle (signe = signe de ) > Fonction dautocorrlation partielle : toutes nulles aprs 6.4.4 Le processus AR (2) Ces processus sont galement appels modles de Yule, dont la forme gnrale est 1 1 L 2 L2 Xt = "t ;
o les racines du polynme caractristique (z) = 1 1 z 2 z 2 sont supposes lextrieur du disque unit (de telle sorte que le processus "t corresponde linnovation). Cette condition scrit 8 < 1 1 + 2 > 0 1 + 2 > 0 : 2 1 1 + 42 > 0; cest dire que le couple (1 ; 2 ) doit se trouver dans une des 4 parties ci-dessous,
2
La fonction dautocorrlation satisfait lquation de rcurence et la fonction dautocorrlation partielle vrie 8 > (1) pour h = 1 h < h i i 2 2 a (h) = (2) (1) = 1 (1) pour h = 2 > : 0 pour h 3: Exemple 48 Processus AR (0:5; 0:3) - cas 1 6 4 2 0 -2 -4 -6
(h) = 1 (h 1) + 2 (h 2) pour h 2;
20
40
60
80
92
Arthur CHARPENTIER
20
40
60
80
20
40
60
80
-2
Dans le cas dun modle AR (2) avec constante, de la forme 1 1 L 2 L2 Xt = 0 + "t on peut alors noter que lesprance de Xt est 0 E (Xt ) = ds lors que 1 + 2 6= 1: 1 1 2 En utilisant les quations de Yule Walker, nous avions not que la fonction dautocorrlation vriait la relation de rcurence suivante, (0) = 1 et (1) = 1 = (1 2 ) ; (h) = 1 (h 1) + 2 (h 2) pour h 2; 93
Arthur CHARPENTIER
cest dire que le comportement de cette suite peut tre dcrit en tudiant le polynme caractristique associ, q 2 2 x 1 x 2 = 0. Dans le cas o le polynme admet deux racines relles, ! 1 et !2 o ! = 1 1 + 42 =2, alors le polynme autorgressif peut scrire 1 1 L 2 L2 = (1 ! 1 L) (1 ! 2 L) : le modle AR (1) peut tre vu alors comme un modle AR (1) appliqu un processus AR (1). Lautocorrlogramme prsente une dcroissante suivant un mlange dexponentielles. Quand les racines sont complexes (conjugues ), alors les (h) prsentent une p volution sinusodale amortie. On obtient alors des cycles stochastiques, de longueur moyenne 2= cos 1 1 =2 2 . A retenir 7 Le comportement dun processus AR (2) : Xt = 1 Xt1 + 2 Xt 2 + "t dpendra fortement des racines de son quation charactristique 1 1 :z 2 :z 2 = 0. Le cas le plus intressant est celui o lquation charactristique a deux racines complexes conjugues r exp (i) pour r < 1 : le processus est alors stationnaire (et oscille alors autour de 0, sans exploser, de la mme faon que les processus AR (1) dans le cas o jj < 1). Le processus est alors quasi-cyclique, de frquence , avec un bruit alatoire. 8 dcroissance exponentiel le ou sinusode amortie < Fonction dautocorrlation AR (2) : deux premires non nulles Fonction dautocorrlation partielle : toutes nulles aprs
6.5
Dnition 40 On appelle processus moyenne mobile (moving average) dordre q, not M A (q), un processus stationnaire (Xt ) vriant une relation du type Xt = " t +
q X i=1
(25)
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (25) est quivalent lcriture Xt = (L) "t o (L) = I + 1 L + ::: + q Lq : Remarque 35 Encore une fois, nous allons utiliser dans cette partie des modles de la forme (25), toutefois, dans certains ouvrages, la convention est dcrire ces modles sous la forme (L) = I 1 L ::: q Lq . En particulier pour les logiciels dconomtrie, il convient de vrier le signe attribu aux coecients de la forme M A (cf exercice 15 de lexamen de 2002=2003). Contrairement aux processus AR (p), les processus M A (q) sont toujours des processus stationnaires. Les processus P1 M A (1) sont stationnaires si et seulement si i=1 2 est nie. Pour rappel, un processus AR (p) est stationnaire si i les racines du polynme retard sont lextrieur du cercle unit. De la mme faon que pour les AR (p), il est possible dinverser le polynme dans le cas o ses racines sont de module dirent de 1 (quitte changer des bruit blanc, comme pour les processus AR). Supposons que nait pas de racines de module gal 1, et considrons le polynme obtenu en remplaant les racines de de module infrieur 1 par leur inverse. Le processus ( t ) dni par la relation Xt = (L) t est l aussi un bruit blanc, dont la variance 2 est dnie par " p # 1 Y 2 2 2 = ji j ;
i=r+ 1
o i sont les racines de module infrieur 1. Aussi, la variance de ( t ) est ici suprieure celle de ("t ). Par le suite, on supposera que le processus M A est sous forme canonique, cest dire que toutes les racines de sont de module suprieur 1. 6.5.1 Proprits des autocorrlations
La fonction dautocovarariance est donne par (h) = = = E (Xt Xth ) E (["t + 1 "t1 + ::: + q "tq ] ["th + 1 "t h1 + ::: + q "t hq ]) [ h + h+1 1 + ::: + q q h] 2 si 1 h q 0 si h > q; 94
Arthur CHARPENTIER
(0) = 1 + 2 + 2 + ::: + 2 2 : 1 2 q
q X
j j+ k avec la convention 0 = 1:
j=0
si 1 h q;
et (h) = 0 pour h > q. On peut noter en particulier que (q) = 2 q 6= 0, alors que (q + 1) = 0. Cette proprit sera relativement pratique pour faire lestimation de lordre de processus M A. Exemple 52 Le graphique ci-dessous montre lvolution dun processus M A (5), avec un bruit blanc gaussien, de variance 1, avec droite, lautocorrlogramme associ, pour Xt = " t 0:7" t1 + 0:8"t 2 + 0:3"t3 0:1" t4 + 0:7"t 5 ;
6 4 2 0 -2 -4 -6 20 40 60 80 100 120 140 160 180 200 MA5
On retrouve bien sur cette simulation de processus M A (5) le fait que les autocorrlations sannulent pour h > 5. A retenir 8 Les processus M A sont toujours stationnaire, mais ils ne sont inversibles que si les racines du polynme charactristiques sont lextrieur du disque unit. On peut noter que sil ny a pas de rsultat particulier pour les autocorrlations partielles, on a malgr tout le rsultat suivant Proprit 37 Si (Xt) suit un processus M A (q), Xt = (L)"t = "t + 1 "t 1 + ::: + q "t q , alors les autocorrlations inverves i (h) satisfont les quations de Yule-Walker inverse, i (h) + 1i (h 1) + ::: + q i (h q) = 0 pour h = 1; 2; :::; q: En particulier, i(h) dcroit exponentiellement avec h. Preuve. Par dnition i(h) = i(h)=i (0) avec i(h) = f X (!) = R
1 ei!h d!. fX(! )
Soit (Y t )t2Z un processus tel que (L)Y t = t i.e. (Y t ) suit un processus AR (q), et 2 2 = fY (!) (ei! ) : 2 95
Arthur CHARPENTIER
2 1 ; 2 j(ei! )j2
6.5.2
Le processus M A (1)
La forme gnrale des processus de type M A (1) est Xt = "t + " t1 ; pour tout t 2 Z, o ("t) est un bruit blanc de variance 2 . Les autocorrlations sont donnes par (1) = 1 + 2 ; et (h) = 0; pour h 2:
On peut noter que 1=2 (1) 1=2 : les modles M A (1) ne peuvent avoir de fortes autocorrlations lordre 1. Lautocorrlation partielle lordre h est donne par (h) = h (1) h 2 1 1 2(h+1) ;
et plus gnrallement, les coecients de rgression sont donns par a i (h) = (1) i 1 2h+2
i
dans le cas o 6= 1. La densit spectrale dun processus M A (1) est de la forme fX (!) = 2 1 + 2 + 2 cos ! ; 2 h
correspondant un trend dterministe, auquel vient sajouter une constante. De cette dernire expression, on peut en dduire aisment que les autocorrlations inverses, dans le cas dun processus M A (1) vrient i (h) = 1 + 2 pour tout h 1.
96
Arthur CHARPENTIER
20
40
60
80
-2
Remarque 36 Les graphiques ci-dessous reprsentent des simulations de processus M A (1), avec dirents coecients , repectivement, de gauche droite 0, 1, 2, 5,1 et 2
4
6 4
10
20
10
10
2
0
0 -2
-2
-5
-10
-5
-4
-4
500
1000 MA1_0
1500
2000
-10 2000
500
1000 MA1_M2
1500
2000
Comme on peut le voir, ces processus sont toujours stationnaires, quel que soit . A retenir 9 8 > > Fonction dautocorrlation <
M A (1) :
6.5.3
Le processus M A (2)
premire non nulle (signe = signe de ) toutes nulles aprs > 0 dcroissance exponentielle < 0 sinusode amortie
La forme gnrale de (Xt ) suivant un processus M A (2) est Xt = " t + 1 "t1 + 2 "t 2 : 97
Arthur CHARPENTIER
La fonction dautocorrlation est donne par lexpression suivante 8 2 2 < 1 [1 + 2 ] = 1 + 1 + 2 pour h = 1 (h) = = 1 + 2 + 2 pour h = 2 1 2 : 2 0 pour h 3; et la densit spectrale est donne par Les congurations possibles sont donnes dans les 4 examples ci-dessous Exemple 56 Processus M A (0:5; 0:3) - cas 1 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4
Exemple 57 Processus M A (0:5; 0:3) - cas 2 - les deux premires autocorrlations sont telles que (1) 0 et (2) 0 (puis nulles ensuite)
4
-2
-4
20
40
60
80
Exemple 58 Processus M A (0:5; 0:7) - cas 3 - les deux premires autocorrlations sont telles que (1) 0 et (2) 0 (puis nulles ensuite)
4
-2
98
Arthur CHARPENTIER
Exemple 59 Processus M A (0:5; 0:7) - cas 4 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4 3 2 1 0 -1 -2 -3 20 40 60 80 100 120 140 160 180 200 MA24
6.6
Cette classe de processus gnralise les processus AR (p) et M A (q) : Dnition 41 On appelle processus ARM A (p; q), un processus stationnaire (Xt) vriant une relation du type Xt
p X i=1
i Xti = "t +
q X
j=1
(26)
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture (L) = I + 1 L + ::: + q Lq (L) Xt = (L) "t o (L) = I 1 L ::: p Lp On supposera de plus de les polymes et nont pas de racines en module strictement suprieures 1 (criture sous forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement q et p, au sens o q 6= 0 et p 6= 0. On dira dans ce cas que cette criture est la forme minimale. Les processus ARM A (p; q) peuvent donc se mettre (i) sous la forme M A (1) en crivant Xt = (L)1 (L) " t, si toutes les racines de sont lextrieur du disque unit. 1 (ii) ou sous forme AR (1) en crivant (L) (L) Xt = "t ; si toutes les racines de sont lextrieur du disque unit. Remarque 37 Un processus AR (p) est un processus ARM A (p; 0) et un processus M A (q) est un processus ARM A (0; q) : 6.6.1 Proprits des autocorrlations
Proprit 38 Soit (Xt ) un processus ARM A (p; q), alors les autocovariances (h) satisfont (h)
p X i=1
i (h i) = 0 pour h q + 1:
(27)
j Xtj = " t +
q X j=1
j "t j
En multipliant par Xth , o h q + 1, et en prenant lesprance, on obtient (27). De plus, on a la relation suivante
99
Arthur CHARPENTIER
Proprit 39 Soit (Xt ) un processus ARM A (p; q), alors les autocorrlations (h) satisfont (h)
p X i=1
(28)
h j "t j :
Exemple 60 Les sorties ci-dessous correspondent aux autocorrlogrammes de processus ARM A (2; 1), ARM A (1; 2) et ARM A (2; 2) respectivement de gauche droite
Pour tablir une rgle quant au comportement de la fonction dautocorrlation, deux cas sont envisager, Si p > q, la fonction dautocorrlation se comporte comme un mlange de fonctions exponentielles/sinusodales amorties Si q p, le q p +1 premires valeurs de lautocorrlogramme ont un comportement propre, et pour k q p +1, lautocorrlogramme tend vers 0. Des proprits symtriques existent pour lautocorrlogramme partiel. Remarque 38 Avec les notations (26), la variance de Xt est donne par V (Xt) = (0) = 6.6.2 1 + 2 + ::: + 2 + 21 1 + ::: + h h 1 q 1 2 ::: 2 1 p 2 o h = min (p; q) :
Proprit 40 La densit spectrale du processus ARM A (Xt ) stationnaire est une fraction rationnelle en exp (i!), et est donne par 2 2 j (exp [i!])j f X (!) = : 2 j (exp [i!])j2 6.6.3 Les processus ARM A (1; 1)
Soit (Xt ) un processus ARM A (1; 1) dni par Xt Xt1 = "t + "t1 ; pour tout t; o 6= 0, 6= 0, jj < 1 et jj < 1. Ce processus peut de mettre sous forme AR (1), puisque (1 L) (1 + L) o
1
Xt = (L) Xt = "t ;
Arthur CHARPENTIER
aussi (L) =
La fonction dautocorrlation scrit (1) = (1 + ) ( + ) = 1 + 2 + 2 (h) = h (1) pour h 2; et la fonction dautocorrlations partielles a le mme comportement quune moyenne mobile, avec comme valeur initiale a (1) (1). La sortie ci-dessous montre lvolution de lautocorrlogramme dans le cas dun ARM A (1; 1)
+1 X i=0
iL o
0 = 1 i = (1)i [ + ] i 1 pour i 1:
6.7
Tous les processus dcrits dans les parties prcdantes sont des processus stationnaires (Xt ). En fait, la plupart des rsultats obtenus dans les parties prcdantes reposent sur lhypothse (trs forte) de stationnarit. Cest le cas par exemple de la loi des grands nombres telle quelle est formule dans le thorme ergodique. On peut toutefois noter quun certain nombre de processus, trs simples, sont non-stationnaires. Exemple 61 Marche alatoire - La marche alatoire est dnie de la faon suivante : soit "1 ; :::; "t ; ::: une suite de variables i:i:d: et on supposera que " t ademet une variance nie, note 2 . On supposera galement les "t centrs. Une marche alatoire Y t vrie Y t = Y t1 + " t; pour tout t; avec la convention Y 0 = 0. On peut noter que Y t = Y 0 + Y 1 + ::: + Yt 1 . On a alors s^t E (Y t) = 0 , cov (Y s; Y t ) = 2 (s ^ t) et corr (Y s ; Yt ) = p pour s; t 0: V (Y t) = 2 t st En notant F t la ltration gnre par les Y0 ; :::; Y t , cest dire F t = fY 0 ; :::; Y tg, on peut montrer que E (Y s jF t ) = Y t pour tout s t 0: Aussi, le processus (Yt ), muni de sa ltration naturelle, est une martingale. La marche alatoire est stationnaire en moyenne, mais pas en variance. La non stationnarit de cette srie pose de gros problme statistique : considrons par exemple la moyenne dnie sur les n premires observations, soit Yn =
n 1X Yt ; n t=1
alors, de faon triviale, E Y n = 0 mais V Y n = O (n) : Plus prcisment, la variance de cette moyenne est n (n + 1) (2n + 1) V Y n = 2 : 6n2 101
Arthur CHARPENTIER
Exemple 62 Tendance linaire -Un processus tendance linaire est dni de la faon suivante : soit " 1 ; :::; " t; ::: une suite de variables i:i:d: et on supposera que "t ademet une variance nie, note 2 . On supposera galement les "t centrs. Une tendance linaire Y t vrie Y t = t + "t pour tout t, o 2 R. Ce processus vrie E (Y t ) = t V (Y t ) = 2 cov (Ys ; Y t) = corr (Ys ; Y t) = 0 pour s; t 0;
et E (Y s jFt ) = s pour tout s t 0. Cest dire que ce processus nest pas une martingale, et les variables du processus sont indpendantes (au sens non-corrles). En notant comme prcdemment Y n .la moyenne des n premires observations, on a n+1 2 E Yn = et V Y n = ! 0 quand n ! 1: 2 n Exemple 63 March alatoire avec drift - Ce processus est dni comme mlange des deux prcdants : soit Xt une marche alatoire, soit Xt = Xt1 + "t , alors Y t , marche alatoire avec drift, est dni par Yt On a alors les proprits suivantes E (Y t ) = t V (Y t ) = 2 t = t + Xt pour tout t, o 2 R
et E (Ys jFt ) = s + Xt = [s t] + Yt pour tout s t 0. Les processus stationnaires ayant beaucoup de proprits, il peut apparaitre intressant de trouver une transformation simple du processus non-stationnaire que le rendrait stationnaire. La mthode la plus courament utilise est de prendre des dirences : Exemple 64 Marche alatoire - Soit (Y t ) une marche alatoire, Y t = Y t1 + " t; pour tout t; alors Zt = Y t Y t1 est stationnaire (et Z t = "t ). Exemple 65 Tendance linaire - Une tendance linaire Yt vrie Y t = t + "t ; pour tout t, o 2 R, alors Zt = Y t Y t1 = + "t "t1 : il sagit dun processus M A (1) (non inversible, mais stationnaire comme tout processus M A). Exemple 66 March alatoire avec drift - Soit Y t , marche alatoire avec drift, Y t = t + Xt = [ + " 1 ] + [ + "2 ] + ::: + [ + "t ] ; alors Zt = Y t Y t1 = + Xt Xt 1 = + "t est stationnaire. Cest cette importance de la direnciation (dont lintgration est lopration duale) qui a permis de passer des modles ARM A aux modles ARIM A.
6.8
Lhypothse de stationnarit, prsente - sous certaines conditions - dans les modles ARM A, nest que rarement vrie pour des sries conomiques. En revanche, on peut considrer les dirences premires Xt = Xt Xt 1 , ou des dirences des ordres plus levs Xt = Xt Xt1 = (1 L) Xt d d Xt = (1 L) Xt 102
Arthur CHARPENTIER
Dnition 42 Un processus (Xt ) est un processus ARIM A (p; d; q) - autorgressif moyenne mobile intgr - sil vrie une quation du type d (L) (1 L) Xt = (L) "t pour tout t 0 o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0 Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 : Remarque 39 Si les processus ARM A peuvent tre dnis sur Z, il nen est pas de mme pour les processus ARIM A qui doivent commencer une certaine date (t = 0 par convention), avec des valeurs initiales (q valeurs pour les "t , et p + d pour Xt ). En eet, si lon considre un processus Xt , ARIM A(0; 1; 0) (= marche alatoire), soit (1 L) Xt = " t. On peut crire t t X X Xt = X0 + " k mais pas Xt = "k
k=1 k= 1
sont des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales
car cette somme ne converge pas dans L : Cette importance de linitialisation peut se comprendre sur les graphique ci-dessous : considrer un processus AR (1) simul (ou un processus ARM A de faon plus gnrale), partir de la date t = 0 : on peut noter qu relativement court terme les processus (Xt) et (Yt ) simuls respectivement partir de x et y sont indentiques : L (Xt ) = L (Y t ), les deux processus ont la mme loi, quelle que soit la valeur initiale (i.e. une loi normale dans le cas dun bruit blanc gaussien).
6 4 2 0 -2 -4 500 1000 AR1_INIT_0 1500 2000 6 4 2 0 0 -1 -2 -4 500 1000 AR1_INIT_1 1500 -2 -3 2000 3 2 1
20 15
20 15 10
5 0 -5 5 10 15 20 25 30 35 40 45 AR1_INIT_30
10
15
20
25
30
35
40
45
50
AR1_INIT_1
En revanche, pour un processus ARIM A (1; 1; 0) - cest dire un processus AR (1) intgr, la valeur initiale est trs importante : pour deux valeurs initiales direntes, les deux processus nont pas la mme loi L (Xt ) 6= L (Y t ),
6 4
20 15
120 100 80
120 80
10
60 40
40
20 0 -20
-2
-40
-4
-5
500 1000 AR1_INIT_1 1500 2000
500
1000 AR1_INIT_30
1500
2000
500
1000 ARIMA11_INIT_0
1500
-80 2000
500
1000
1500 ARIMA11_INIT_30
2000
ARIMA11_INIT_0
Les deux processus intgrs, droite, ont sensiblement des lois direntes la date t: Remarque 40 Soit Y t un processus intgr dordre d, au sens o il existe (Xt ) stationnaire tel que Y t = (1 L)d Xt satisfaisant (L) Y t = + (L) "t Alors, (Y t ) nest pas un processus ARM A car il ne commence pas en 1. En fait, (Y t ) est asymptotiquement quivalent un processus stationnaire ARM A: Proprit 41 Soit (Xt) un processus ARIM A (p; d; q) alors le processus d Xt converge vers un processus ARM A (p; q) stationnaire.
103
Arthur CHARPENTIER
6.8.1
Proprit 42 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z 1 ; alors (i) (Xt) peut scrire sous la forme suivante, fonction du pass du bruit, Xt =
t X
j=1
hj "tj + h (t) Z 1 ;
o les h j sont les coecients de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne) de fonctions de t (ii) (Xt ) peut scrire sous la forme suivante, fonction du pass de Xt Xt =
t X
j= 1
o les j sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne) de fonctions de t quand tend vers 0 quand t ! 1. Preuve. (ii) La division selon les puissances croissantes de I par scrit, lordre t, I =Qt (Z) (Z) + Z t+1 Rt (Z) o deg (Qt ) = t et deg (Rt ) q 1: Posons (L) = (1 L) (L). Alors lquation (L) Xt = (L) "t peut scrire, en multipliant par Q t (Z), Qt (Z) (L) Xt = Q t (Z) (L) "t = ILt+1 Rt (L) "t = "t Rt (L) " 1 : En posant t (L) = Qt (Z) (L) (de degr p + d + t ni ) on peut crire t (L) Xt = "t Rt (L) " 1 ; soit
p+d+t d
X
j=0
j Xtj = " t
q1 X j=0
rj " 1 j ;
j=0
j Xt j = "t
j=t+1
q1
j Xt j {z
X
j=0
rj "1 j : }
h0 (t)Z1
6.9
Les modles SARIM A peuvent vus comme une gnralisation des modles ARIM A, contenant une partie saisonnire. Dnition 43 De faon gnrale, soient s1 ; :::; sn n entiers, alors un processus (Xt ) est un processus SARIM A (p; d; q) - autorgressif moyenne mobile intgr saisonnier - sil vrie une quation du type (L) (1 Ls1 ) ::: (1 Lsn ) Xt = (L) "t pour tout t 0 o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 et (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= [Link] des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 : Cette forme inclue les modles ARIM A puisquil sut de prendre n = d et s1 = ::: = sn = 1. Toutefois, les deux formes les plus utilises sont les suivantes, (L) (1 Ls ) Xt = (L) "t pour tout t 0 d (L) (1 Ls ) (1 L) Xt = (L) "t pour tout t 0 o un seul facteur saisonnier s intervient, soit appliqu un processus ARM A dans le premier cas, soit appliqu un processus ARIM A dans le second cas. 104
Arthur CHARPENTIER
Exemple 67 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = (1 L) 1 LS "t = "t "t1 "tS + "tS 1 : Les autocorrlations sont donnes par (1) = 1 + 2 = ; 1 + 2 (1 + 2 ) 1 + 2
; (1 + 2 ) 1 + 2 1 + 2 = (S) = ; 2 ) 1 + 2 (1 + 1 + 2 (S 1) = (S + 1) = (1 + 2) et (h) = 0 ailleurs. On peut noter que (S 1) = (S + 1) = (1) (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 100 200 300 400 A1 500 600 700 800
; 1 + 2
Pour les autocorrlations partielles, jusquen S 2 (inclus), la fonction dautocorrlation partielle est celle dun M A (1) de paramtre , puis la fonction est signicative en S 1; S et S + 1. Exemple 68 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par 1 LS Xt = (1 L) 1 LS "t ou Xt Xt 1 = " t "t 1 "tS + "t S1 : Les autocorrlations sont donnes par 1 + 2 = (1) = ; 1 + 2 (1 + 2 ) 1 + 2
105
Arthur CHARPENTIER
(kS) = k1 (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 100 200 300 400 A2 500 600 700 800
Exemple 69 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par (1 L) 1 LS Xt = "t ou Xt Xt1 Xt S + Xt S1 = "t:
Les autocorrlations partielles sont non nul les en 1, S et S + 1. De plus la fonction dautocorrlation vrie lquation de rcurence (h) (h 1) (h S) + (h S 1) = 0; qui a pour polynme caractristique (z ) z S , qui a pour racines et les racines S-imes de . Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 -8
100
200
300
400 A3
500
600
700
800
Exemple 70 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = 1 L LS "t = " t "t 1 "tS :
On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple (67), et lon obtient la fonction dautocorrlation suivante (1) = , (S 1) = et (S) = : 2 + 2 2 + 2 1+ 1+ 1 + 2 + 2
106
Arthur CHARPENTIER
4 2
Exemple 71 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = 1 L LS LS+1 "t = " t "t 1 "tS :
On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple prcdant, et lon obtient la fonction dautocorrlation suivante + (1) = , (S 1) = ; 2 + 2 + 2 2 + 2 + 2 1+ 1+ (S) = et (S + 1) = : 2 + 2 + 2 2 + 2 + 2 1+ 1+
4 2
6.10
Thorme de Wold
Thorme 7 Tout processus (Xt ), centr, et stationnaire au second ordre, peut tre reprsent sous une forme proche de la forme M A 1 X Xt = j "tj + t ;
j= 0
("t ) est linnovation, au sens o "t = Xt E L (Xt jXt 1 ; X :::) ; t2 ; E L ("t jXt1 ; Xt2 ; :::) = 0, E ("t Xtj ) = 0, E ("t ) = 0, E "2 = 2 (indpendant de t) et E ("t" s) = 0 pour t toutes les racines de (L) sont lextrieur du cercle unit : le polynome est inversible, P1 2 j=0 j < 1 et 0 = 1; les coecients j et le processus ("t ) sont uniques, ( t ) vrie t = E L ( t jXt1 ; Xt2 ; :::) : 107
Arthur CHARPENTIER
La proprit (1) signie que ("t) est lestimation de Xt comme combinaison linaire des valeurs passes, et (2) est simplement lcriture des conditions dorthogonalit de la pro jection. La proprit (4) est une consquence de la stationnarit du processus Ce thorme se dmontre avec les direntes proprits des espaces de Hilbert. Ce thorme dit juste que (Xt ) peut tre crit comme une somme des erreurs de prvision. Remarque 41 Ce thorme ne dit pas que les "t suivent une loi normale, ou que les "t sont i.i.d. (ils ont la mme variance et sont non-corrls). Remarque 42 La proprit (2) dit que E L (" tjXt1 ; Xt2 ; :::) = 0, ce qui ne signie pas que E ("t jXt 1 ; Xt 2 ; :::) = 0. Lcriture E L (Y jXt 1 ; Xt 2 ; :::) signie que lon recherche la meilleure approximation de Y comme combinaison linaire du pass de Xt ; 1 Xt1 + 2 Xt 2 + ::: + h Xth + :::. Lesprance conditionnelle E (Y jXt1 ; Xt 2 ; :::) est elle la meilleure approximation de Y comme fonction du pass de Xt , g (Xt1 ; Xt 2 ; :::; Xt h ; ::), o g nest pas ncessairement linaire. Remarque 43 Cette reprsentation nest unique que parce que lon a les direntes conditions, en particulier (1) et (3). Par exemple, un processus de la forme Xt = t + 2 t1 o ( t ) est i.i.d. et de variance 1, est stationnaire. Mais sous cette forme, le polynme M A nest pas inversible. Pour trouver la reprsentation de Wold de ce processus, on va chercher et "t tels que Xt = "t + " t1 . On peut alors montrer que V (" t) = 2= et que est ncessairement soit gal 2, soit gal 1=2: Le cas = 2 et V ("t) = 1 correspond lcriture initiale. Mais = 1=2 et V ("t ) = 4 marche galement, et le polynme M A est alors inversible (comme nous lavons vu prcdement, il est toujours possible de rcrire un processus M A ou AR de faon inversible, condition de changer la variance du bruit). Cette reprsentation est alors la rpresentation de Wold. Remarque 44 Ce thorme peut scrire de faon plus simple si lon nest pas intress par lunicit de lcriture : tout processus (Xt ) stationnaire peut se mettre sous forme M A (1), Xt = +
1 X
j "tj :
j=0
6.11
Comme le rappelle Bourbonnais (1998), lanalyse des sries temporelles dans le dommaine des frquences (ou analyse spectrale) est souvent plus riche en terme dinterprtation, mais ncessite un recours des techniques mathmatiques plus complexes. Le principe de base de lanalyse de Fourier est que toute fonction analytique dnie sur un intervalle (ni ) de R peut scrire comme somme pondre de fonctions sinus et cosinus. 6.11.1 Thorie spectrale et notion de ltre
Thorie spectrale Lanalyse spectrale, ou analyse harmonique, est une gnralisation au cas alatoire de lanalyse de Fourier. Cette analyse sappuie sur deux rsultats de base : le thorme de Loeve et le thorme de Khintchine. Le premier prsente la dcomposition harmonique de (Xt ) sous la forme Xt = Z
+1
dans laquelle les dUZ () sont des variables alatoires (complexes ), alors que le second est quivalent au prcdant, mais porte sur la fonction dautocovariance de (Xt), Z +1 (h) = exp (i2h) E jdUZ ()j2 :
1
Thorme 8 (de Khintchine) La densit spectrale de puissance dun processus alatoire stationnaire est gale la transforme de Fourier de sa fonction dautocorrlation On a alors lcriture suivante f X (!) = Z +1 1 X (h) e i!h ou (h) = ei!h fX (!) d!, o (h) = cov (Xt ; Xth ) ; 2 0
h= 1
Arthur CHARPENTIER
Filtre et processus strochastiques Etant donn un processus (Xt), un ltre est une transformation qui associe 1 2 au processus (Xt ) un autre processus Y t = F (Xt ). Par exemple, on dira quun ltre est linaire si F Xt + Xt = 1 2 F Xt + F Xt . De faon gnrale, on pourra considrer les ltres linaires de la forme suivante X F (Xt) = (i) Xt+i ;
i2Z
o les (i) sont les coecients de pondration, cest dire des ltres moyennes mobiles. Considrons ainsi une fonction dnie sur Z et valeurs dans R (ou C), appartenant lespace des fonctions de carr intgrable sur R, alors admet une transforme de Fourier, note A (!) appele fonction de rponse en frquence du ltre : A (!) = Z
+1
1 2
+1
On appelera gain du ltre le carr de la norme de la fonction de rponse, T (!) = jA (!)j2 . 6.11.2 Le spectre dun processus ARM A
Daprs le thorme de Wold, un processus stationnaire est une combinaison linaire innie des valeurs passes dun bruit blanc, cest dire quil peut scrire comme un processus M A (1) : Xt = (L) "t =
+1 X
k "t k o 0 = 1:
k= 0
Cest dire que (Xt) est la rponse un ltre dun processus (" t), bruit blanc (la stabilit tant assure par la convergence de la somme des carrs de i ). Les i sont alors la fonction de rponse impulsionnelle du ltre. La fonction de gain du ltre scrit +1 2 X 2 i!k T (!) = jA (!)j = ie ;
k= 0
avec A (!) correspondant la fonction de rponse en frquence au ltre. On a alors la relation suivante entre les spectres des deux processus, f X (!) = T (!) f" (!) : Or, le spectre du bruit blanc vrie f " (!) = 2 =2, et donc " f X (!) = 2 " 2 +1 X 2 2 i!k k e = " e i!k : 2
k=0
De faon gnrale et analogue, on a le rsultat suivant pour les processus ARM A; Proprit 43 Soit (Xt ) un processus ARM A (p; q), vriant (L) Xt = (L) "t, sous forme canonique minimal, avec les racines de et de lextrieur du disque unit alors 2 (L) 2 e i!k " Xt = "t et f X (!) = : (L) 2 j (ei!k )j2 Cette criture peut scrire sous la forme expense suivante 2 2 1 + 1 e i! + 2 e2i! + ::: + q e qi! " f X (!) = : 2 1 1 e i! 2e 2i! ::: p e qi! 2
Compte tenu du lien entre la densit spectrale et la fonction dautocorrlation, il est possible dobtenir la densit spectrale dans plusieurs cas simples.
109
Arthur CHARPENTIER
Exemple 72 Considrons le processus M A (1) suivant : Xt "t + t1 o ("t ) suit un bruit blanc de variance 2 . = " Pour mmoire, les autocovariances sont donnes par (0) = 1 + 2 2 , (1) = 2 et (h) = 0 pour h 2. Ainsi, " # +1 X 2 1 + 2 cos (!) + 2 1 f (!) = (0) + 2 (k) cos (k!) = :
k=1
Exemple 73 Considrons le processus AR (1) suivant : Xt = Xt1 + " o ("t ) suit un bruit blanc de variance 2 . t Pour mmoire, les autocovariances sont donnes par (0) = 2 = 1 2 , et (h) = (h 1) pour h 1. Ainsi, (h) = h (0) pour h 1. Cette criture permet dobtenir la relation suivante " # " # +1 +1 X X i!k 1 (0) k i!k f (!) = (0) + 2 (k) cos (k!) = 1+ e +e k=1 k=1 (0) e i!k e i!k 2 = 1+ + = : i!k i!k 1 e 1 e 1 2 cos (!) + 2 ce qui donne une fonction dcroissante pour > 0 et croissante pour < 0: Exemple 74 Considrons le processus AR (2) suivant : Xt = Xt 1 + Xt 2 + "t o ("t ) suit un bruit blanc de variance 2 . Le polynme AR scrit (L) = 1 L L2 dont il faut sassurer que les racines sont lextrieur du disque unit. Le spectre du processus (Xt ) scrit alors fX (!) = 2 1 : 2 2 2 (1 ) cos ! 2 cos 2! 2 1 + + 1 1 ; 2 1:97 2:52 cos ! + 0:8 cos 2! 0 0 8 + % 0:212 0 11:25 1 & 0:38
Considrons le cas particulier o Xt = 0:9Xt 1 0:4Xt2 + " t avec 2 = 1, f X (!) = dont le tableau de variation est !=2 f0 f ce qui donne la reprsentation suivante
2.0
1.5
1.0
0.5
0.0
AR11
Les graphiques suivants donnent les volutions de densits spctrales pour dirents processus ARM A. Les graphiques ci-dessous correspondent des processus AR (1), avec = 0:8 gauche, puis = 0:2 et 0:5 droite, avec des courbes dcroissantes quand 0 et croissantes quand 0,
10 8
1.0 1.4 1.2
6 4
0 AR01
110
Arthur CHARPENTIER
6.11.3
Supposons que nous ayons T observations dune srie temporelle, avec T impair, soit T = 2m + 1. On dni les frquences (dites parfois de Fourier ) ! j = 2j=T pour j = 1; :::; m. Considrons alors le modle de rgression Yt = 0 +
m X
j cos (! j t) +
j=1
m X j=1
j sin (! j t) ;
qui peut tre crit sous forme de modle linaire Y = X + ", avec 1 0 Y1 B . C B Y = @ . A, X = @ . YT 0 1 B B cos (! m ) sin (! m ) B C B . . . . A, = B . . B B cos (! m T ) sin (! m T ) @
T X t=1
1 . . . 1
cos (! 1 ) . . . cos (! 1 T )
sin (! 1 ) . . . sin (! 1 T )
0 1 1 . . . m m
1 Lestimation de par la mthode des moindres carrs donne b = (X 0X) X 0 Y . Compte tenu des proprits suivantes T X t=1
C 0 C C C B C et " = @ C C A
1 "1 . C: . A . "T
cos (! j t) =
T X t=1
sin (! j t) = 0,
T X t=1
cos 2 (! j t) =
sin 2 (! j t) =
T pour tout j; 2
(29)
et
T X t=1
T X t= 1
cos (! j t) cos (! k t) =
T X t=1
(30)
T 0 . . . 0
0 T =2 . . . 0
0 0 . . . T =2
1 1 0 C C C A B B B @
C B C B C=B A @
C C C; A
et la variance empirique des observations (Y t) est donne ( un facteur 1=T prs ) par 2 !2 T !23 T m T X X X 2 X 2 4 Yt Y = cos (! j t) Y t + sin (! j t) Yt 5 : T t=1 j=1 t=1 t=1 Tout ceci permet de dnir le priodogramme I (!) de la faon suivante 2 !2 T !23 T X 1 4 X I (!) = cos (!t) Y t + sin (!t) Y t 5 : T t=1 t=1
T 1 X Yt Y ; T t= 1
Dans cette expression, un facteur 1=2 a t introduit de telle sorte que la variance empirique, donne par b (0) =
soit gale la somme des aires des m rectangles, de hauteur I (!1 ) ; :::; I (! m ), et de base 2=T . La somme des aires
111
Arthur CHARPENTIER
I(4 )
2/
Cette fonction I (!) est alors la version discrte et empirique de la densit spectrale f (!). Proprit 44 Si le processus est stationnaire, et si la densit spectrale existe, alors I (!) est un estimateur sans biais de f (!) : Supposons que (Y t ) soit un bruit blanc gaussien, cest dire Y1 ; :::; Y T sont i:i:d: et distribus suivant une loi N 0; 2 . Pour toute frquence de Fourier, ! = 2j =T ,
T T i X X 1 hb 2 b (!)2 o A (!) = b b (!) = I (!) = A (!) + B Y t cos (!t) et B Yt sin (!t) : T t= 1 t=1
b b Il est facile de montrer que A (!) et B (!) sont centrs, et dont les variance sont donnes par V
t=1 t=1
p p b b De plus, A (!) = 2T 2 et B (!) = 2T 2 sont indpendant, et asymptotiquement distribus suivant une la mme loi, h i 2 2 b b normale, centre et rduite. Et donc, 2 A (!) + B (!) =T 2 est asyptotiquement distribu suivant une loi du chi deux, 2 degrs de libert. Aussi, I (!) s 2 = 2 (2) =2, ce qui montre bien que I (!) est un estimateur sans biais de f (!) = 2 =, mais il nest pas consistant puisque V (I (!)) = 4 = 2 9 0 quand T ! 1: Proprit 45 Soit (Y t ) un processus gaussien , de spectre f (!) Soit I (:) le priodogramme obtenu partir de lchantillon Y 1 ; :::; YT , posons ! j les frquences de Fourier, au sens o ! j = 2j=T pour j < T =2. Dans ce cas, quand T ! 1 ,on a les rsultats suivants; (i) I (! j ) s f (! j ) :2 (2) =2 (ii) I (! j ) et I (! k ) sont indpendant pour j 6= k. Remarque 45 La mthode de calcul des I (!1 ) ; :::; I (!m ) prsent dans cette partie ncessite de lordre de T 2 oprations. La Fast Fourier Transform permet daugmenter les temps de calcul puisque seulement T log 2 T oprations sont ncessaires (le gain en temps est alors en T = log 2 T : pour 100 observations, les calculs sont alors 15 fois plus rapides).
s;t=1
T X
= 2
T X
t=1
= 0:
112
Arthur CHARPENTIER
Remarque 46 Considrons la srie (Xt ) dnie par Xt = 5 cos (t=36) + 7 sin (t=12) + "t o "t s N (0; 1), reprsente ci-dessous gauche. Sa densit spectrale est reprsente ci-dessous
On note deux maximums locaux, aux priodes 110 et 35 (correspondants aux paramtres 1=36 et 1=12).
113
Arthur CHARPENTIER
Pour prvoir lavenir, il faut connatre le pass, car les vnements de ce monde ont en tout temps des liens aux temps qui les ont prcds. Machiavel, Le Prince.
Louvrage de Box et Jenkins Time series analysis, forecasting and control , publi en 1970 a propos une dmarche de prvision pour les sries univaries, fonde sur lutilisation de processus ARIM A: Les tapes pour lestimation des coecients dun processus ARIM A sont les suivantes (1) identication (i) choix de d : combien de fois faut-il direncier pour obtenir une srie stationnaire (autocorrlogrammes, tests statistiques...) (ii) choix de p et q : ordres respectifs des composantes AR et M A (2) estimation des paramtres estimation des i et des j : paramtres respectifs des composantes AR et M A (3) vrication a posteriori (i) signicativit des paramtres (ii) validation de lhypothse de bruit blanc des rsidus Remarque 47 Il convient de retenir, comme en conomtrie, le modle le plus parcimonieux, utilisant le moins de paramtres, et ayant le meil leur comportement en prvision.
7.1
7.1.1
Comme nous lavons vu dans la partie ([Link]), les moments empiriques convergent, avec en plus normalit asymptotique (sous certaines conditions ). En pratique, si b (h) est proche de 1 (pour un grand nombre de retards ), on a une racine unit, et le processus nest pas stationnaire. On peut gallement penser direncier si les premiers (h) sont proches les uns des autres, mme si (1) semble assez dirent de 1. Il est noter que pour des sries conomiques, il est assez rare davoir d 3. Exemple 75 Les graphiques ci-dessous reprsentent les sries (en haut) et les autocorrlogrammes (en bas) de Xt, de Xt et de 2 Xt
14000 12000 10000 8000 6000 4000 2000 0 -2000 100 200 300 400 X 500 600 700
50 40
30 20 10
-2 0
0 -10
-4 100 200 300 400 D2X 500 600 700
100
200
300
400 DX
500
600
700
114
Arthur CHARPENTIER
On peut dailleurs noter que si lon continue direncier, on a toujours des sries stationnaires
6
10
-10
100
200
300
400 D4X
500
600
700
7.1.2
La prsentation sera ici inspire de celle de Hamilton Time Series Analysis (1994). Le test de Dickey & Fuller simple Ce test permet de tester lhypothse H0 : le processus suit une marche alatoire contre lhypothse alternative Ha : le processus suit un modle AR (1). Ces tests peuvent tre regroups en 4 cas : (1) Y t = Y t1 + "t : on teste H0 : = 1 (marche alatoire sans drive) (2) Y t = + Y t1 + "t : on teste H0 : = 0 et = 1 (marche alatoire sans drive) (3) Y t = + Y t1 + "t : on teste H0 : 6= 0 et = 1 (marche alatoire avec drive) (4) Y t = + t + Y t1 + "t : on teste H 0: = 0; = 0 et = 1 (marche alatoire sans drive ) Le test de Dickey & Fuller, dans le cas (1), se construit comme un test de Sutdent de lhypothse = 1, ou plutt 1 = 0. Etant donn lestimateur naturel de , on peut noter que P "tY t1 b1 = P Y t1
Le test de Dickey & Fuller augment Ce test permet de tester lhypothse H 0 : est intgr dordre au moins 1 Ha : le processus suit un modle AR (p). Ces tests peuvent tre regroups en 4 cas : (1) (L) Yt = "t : on teste H0 : (1) = 0 (2) (L) Yt = + "t : on teste H0 : = 0 et (1) = 0 (3) (L) Yt = + "t : on teste H0 : 6= 0 et (1) = 0 (4) (L) Yt = + t + "t : on teste H0 : = 0; = 0 et (1) = 0 Ces 4 cas peuvent tre rcrits en introduisant les notations suivantes, " p 1 # X 0 = (1) 1 i (L) = (1) + (1 L) (L) = (1) iL (1 L) o i = i1 i = i+1 + ::: + p
i= 0
pour i = 1; :::; p. En posant = 1 (1), on peut rcrire les 4 cas en P (1) Y t = Y t1 + i yt i + "t : on teste H0 : = 1 P (2) Y t = + Y t1 + P i yti + "t : on teste H0 : = 0 et = 1 (3) Y t = + Y t1 + i yti + "t : on teste H0 : 6= 0 et = 1 P (4) Y t = + t + Y t1 + i yt i + "t : on teste H0 : = 0; = 0 et = 1
Les statistiques de tests et leurs lois Pour simplier, on crira P (1) Y t = Y t1 + i yt i + " t, avec = 1 appel Modle [1] P (2 3) Y t = + Y t1 + P iyti + "t appel Modle [2] (4) Y t = + t + Y t1 + i yt i + " t appel Modle [3] Les tables ci-aprs, ont t tabules par Dickey & Fuller (1979), et sont analogues aux tables du t de Student. Dans le cas simple, le paramtre (ou ) est estim par la mthode des moindres carrs ordinaires. Lestimation des coecients et des cart-types du modle fournit un t , analogue la statistique de Student dans les modles linaires (rapport du coecient sur son cart-type ). Si tb est suprieur au t tabul, on accepte H0 , hypothse dexistence dune racine unit, et le processus nest alors pas stationnaire. b Il est aussi possible deectuer ce test en utilisant nn , o b n est lestimateur de obtenu partir de n observations. Si cette valeur (empirique) est suprieure celle tabule (et donne dans la deuxime table), on accepte lhypothse H0 .
115
Arthur CHARPENTIER
Mise en place pratique des tests On choisit tout dabord un p susement grand pour que (L) Xt suive peu prs un bruit blanc. On choisit alors parmi les cas proposs suivant que le graphique de la srie prsente, ou pas, une tendance linaire.
116
Arthur CHARPENTIER
50 40
2
30 20 10
-2
0 -10
100
200
300
400 DX
500
600
700
Le test (simple) de Dickey & Fuller revient estimer les 3 modles suivants, 8 < Xt Xt1 = Xt1 X Xt1 = + Xt1 : t Xt Xt1 = + t + Xt1
et dans le cas du test aumgent, avec p = 2 8 < Xt Xt 1 = Xt 1 [2 X t1 + 3 Xt2 ] Xt Xt 1 = + Xt1 [2 Xt 1 + 3 Xt2 ] : Xt Xt 1 = + t + Xt 1 [2 Xt1 + 3 Xt2 ]
Le troisme modle scrit, compte tenu des sorties obtenues ci-dessous, Xt = 0:048502 + 0:00919 t 0:000083 Xt1 1:01516 Xt1 0:022332 Xt2
(0: 092874) ( 0:000466) (0: 0000244) ( 0:035561) (0:035629)
avec n = 794. Les valeurs du test de Dickey & Fuller sont donnes par
ADF Test Statistic -1.555831 1% Critical Value* 5% Critical Value 10% Critical Value -3.9744 -3.4177 -3.1405
Augmented Dickey-Fuller Test Equation LS // Dependent Variable is D(X) Sample: 4 798 Included observations: 795 after adjusting endpoints Variable X(-1) D(X(-1)) D(X(-2)) C Trend Coefficient -3.80E-05 1.015160 -0.022332 -0.048502 0.000919 Std. Error 2.44E-05 0.035561 0.035629 0.092874 0.000466 T-Statistic -1.555831 28.54703 -0.626804 -0.522231 1.971959 17.17545 13.56918 0.063041 0.092464 34333.72 0.000000 Prob. 0.1201 0.0000 0.5310 0.6017 0.0490
R-squared 0.994281 Adjusted R-squared 0.994252 S.E. of regression 1.028792 Sum squared resid 836.1470 Log likelihood -1148.115 Durbin-Watson stat 1.998565
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F- statistic)
En rpettant ce test en changeant la forme du modle (ici sans trend + t, et en changeant lordre p), on conrme ce rejet de H0 : la srie Xt possde une racine unitaire et nest pas stationnaire : la statistique de test ADF Test
117
Arthur CHARPENTIER
0.147201
*MacKinnon critical values for rejection of hypothesis of a unit root. Augmented Dickey-Fuller Test Equation LS // Dependent Variable is D(X) Sample: 4 798 Included observations: 795 after adjusting endpoints
Augmented Dickey-Fuller Test Equation LS // Dependent Variable is D(X) Sample : 3 798 Included observations: 796 after adjusting endpoints Variable X(-1) D(X(-1)) Coefficient 1.19E-06 0.999599 Std. Error 1.44E-05 0.003892 T-Statistic 0.083143 256.8238 17.15451 13.57350 0.063428 0.075186 137020.3 0.000000 Prob. 0.9338 0.0000
Prob. 0.8830 0.0000 0.5043 17.17545 13.56918 0.066067 0.083721 68285.65 0.000000
R- squared 0.994239 Adjusted R-squared 0.994231 S.E. of regression 1.030928 Sum squared resid 843.8728 Log likelihood -1152.719 Durbin-Watson stat 1.952055
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
R-squared 0.994234 Adjusted R-squared 0.994220 S.E. of regression 1.031640 Sum squared resid 842.9113 Log likelihood -1151.318 Durbin -Watson stat 1.998543
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic )
En faisant le test sur la srie direncie une fois (Xt ),on observe l aussi que lADF Test Statistic est toujours suprieure aux valeurs critiques : H0 est encore accepte, et donc la srie Xt possde elle aussi une racine unitaire et nest donc pas stationnaire
ADF Test Statistic -1.301307 1% Critical Value* 5% Critical Value 10% Critical Value -3.4412 -2.8656 -2.5689
*MacKinnon critical values for rejection of hypothesis of a unit root. Augmented Dickey-Fuller Test Equation LS // Dependent Variable is D(DX) Sample: 5 798 Included observations: 794 after adjusting endpoints Variable DX(-1) D(DX(-1)) D(DX(-2)) C Coefficient -0.003514 0.024104 -0.016162 0.094442 Std. Error 0.002700 0.035551 0.035648 0.059015 T-Statistic -1.301307 0.678025 -0.453368 1.600316 0.034441 1.030669 0.066286 0.089848 0.776723 0.507138 Prob. 0.1935 0.4980 0.6504 0.1099
R-squared 0.002941 Adjusted R- squared -0.000845 S.E. of regression 1.031104 Sum squared resid 839.9090 Log likelihood -1148.953 Durbin-Watson stat 1.998939
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
Le test de Dickey & Fuller appliqu cette fois-ci 2 Xt donne les rsultats suivants,
ADF Test Statistic -15.92501 1% Critical Value* 5% Critical Value 10% Critical Value -3.4412 -2.8656 -2.5689
Augmented Dickey- Fuller Test Equation LS // Dependent Variable is D(D2X) Sample : 6 798 Included observations: 793 after adjusting endpoints Variable D2X(-1) D(D2X(-1)) D(D2X(-2)) C Coefficient -0.975906 -0.000917 -0.018974 0.033307 Std. Error 0.061281 0.049987 0.035701 0.036722 T-Statistic -15.92501 -0.018335 -0.531468 0.907005 0.000169 1.441939 0.069255 0.092840 251.7610 0.000000 Prob. 0.0000 0.9854 0.5952 0.3647
R-squared 0.489083 Adjusted R- squared 0.487141 S.E. of regression 1.032633 Sum squared resid 841.3347 Log likelihood -1148.678 Durbin -Watson stat 2.002323
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F- statistic Prob(F-statistic)
Cette fois-ci, le test de Dickey & Fuller permet de rejeter H0 : 2 Xt na pas de racine unitaire, et la srie 2 Xt est donc stationnaire. Ce test valide les rsultats graphiques de lexemple (75) : la srie Xt est intgre dordre 2 : d = 2.
118
Arthur CHARPENTIER
Remarque 48 Dans le cas de sries nancires (par exemple), il convient de faire attention lors de la lecture des rsultats des tests de Dickey & Fuller : les processus mmoire longue, bien que stationnaires, semblent avoir une racine unit. Avant de direncier an dobtenir une srie stationnaire, il peut tre intressant de tester lhypothse de mmoire longue du processus. A retenir 11 Dans les tests de Dickey Fuller augment, trois (ou quatre) alternatives sont proposes : avec ou sans tendance et constante. Il vaut mieux choisir lalternative permettant de mieux dcrire la srie : si la srie (Xt ) nest pas centre, et que lon tente un test de Dickey Fuller sans constante, il est possible il est possible H0 soit rejete, non pas parce quil ny a pas de racine unit, mais parce que le modle test est mal spci (cf exercice 16 de lexamen 2002/2003). Complments sur les tests de racine unit Considrons une criture de la forme
(L) Xt = (L) "t ; o ("t ) est un bruit blanc. Lhypothse tester est (H0 ) : il existe tel que ei = 0, cest dire quune racine est sur le disque unit (racine unit) le reste des racines tant lextrieur du risque unit : (L) = (1 L) (L) o (1) 6= 0, avec les racines de lextrieur du disque unit. Alors (L) "t = (L) "t = t ou Xt = Xt1 + t : Lhypothse alternative (H1 ) scrit alors ei 6= 0 pour tout : na pas de racine unit, et on suppose de plus que toutes les racines sont lextrieur du disque unit : Xt = (L)
1
Xt = (L)
Les tests de Dickey-Fuller permet de tester cette hypothse : le test de rgression scrit alors Xt = Xt1 + t dont lestimation est Xt = b t1 + bt : X
Il est alors possible de montrer que sous lhypothse (H0 ) : = 1 , la statistique de test scrit P i 2 b Xh X s2 b=1 = 1 o b 1 = P t1 t ; s2 = 1 t Xt b t1 et b b = P 2 ; X 2 Xt1 T 1 Xt 1 b b R1 b W dW L b= 1 = 1 ! h 0 t i t 6= N (0; 1) o (W t ) est un brownien standard sur [0; 1] : t R 1 2 1=2 b b W t dt 0
avec b cart type (par moindre carrs) de lestimateur de , et sa distribution est donne par b
Cette distribution nest pas gaussienne, et des tabulations (obtenues par des mthodes de type Monte-Carlo) sont ncessaire pour tabuler la distribution limite20 . Tests de Phillips et Perron Ces tests non paramtriques ont t introduits en 1988. La distribution thorique la base des tests de Dickey & Fuller repose sur lhypothse dhtroscdasticit du bruit. La gnralisation des tests DF aux tests ADF se fait en considrant X Y t = Dt + Y t1 + " t ! Y t = Dt + Y t1 + iy ti + " t; o (Dt ) est une tendance dterministe. La gnralisation des tests DF propose par Phillips et Perron consiste ne plus supposer que (" t) est un bruit blanc, et autoriser que ce processus soit autocorrle. La gnralisation de ces tests au cas htroscdastique a t propose par Phillips et Perron, les valeurs critiques correspondant celles des tests ADF . Ces tests reposent sur des rsultats de la thorie de la convergence faible fonctionelle (thorme central limite fonctionel (FCLT) par exemple). Lutilisation du FCLT pour des tests de racines unit a t propos ds 1958 par White.
2 0 Le
lien entre les processus intgrs et le mouvement brownien est donn page 25:
119
Arthur CHARPENTIER
Si (Xt) est un processus stationnaire alors les statistiques calcules sur ce processus vriront le FCLT. Considrons par exemple le cas AR (1), Xt = Xt 1 +"t pour t = 1; :::; T , et cherchons tester = 1 (hypothse H0 ). En supposons H0 vrie, et considrons la somme partielle du processus dinnovation, St = X t X 0 =
t X i=1
"i .
On prendra comme valeur initiale de (St ), S0 = 0, mais pour le choix de X0 trois possibilits sont gnralement envisages : (i) X0 = c (constante), (ii) X0 admet une distribution spcie a priori, (iii) X0 = XT . Cette dernire condition, dite hypothse de cicularit, a t propos par Hotelling. Phillips avait suggr la seconde possibilit. p En notant XT (r) = S[T r] = T , il possible de montrer (cd partie prcdante) que XT (r) converge faiblement (not =)) vers un mouvement brownien (cf. Billigsley (1968)). n o + Proprit 46 Si ("t ) vrie lhypothse () et si sup j" tj < 1 pour > 0 et > 0 alors, quand T ! 1, sous lhypothse H0 : = 1 dans le modle Xt = Xt1 + "t on a les rsultats suivants (i) Z 1 T 1 X 2 2 Xt 1 =) 2 W s ds T2 0
t=1
Preuve. Phillips (1987), Testing for a unit root in a time series regression. Le point (iv) montre que les moindres carrs ordinaires conservent la proprit de convergence quand il y a une racine unit. Exemple 77 En reprenant la srie de lexemple (75), on retrouve que la srie (Xt ) admet une racine unit, que lon teste un modle simple, sans constante ni tendance ( gauche), ou avec tendance et constante ( droite),
Null Hypothesis: X has a unit root Exogenous: None Bandwidth: 11 (Newey-West using Bartlett kernel) Adj. t -Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p-values. Residual variance (no correction) HAC corrected variance (Bartlett kernel) 31.50308 354.1817 4.053815 -2.576634 -1.942431 -1.615638 Prob.* 1.0000
(iv) b ! 1
Null Hypothesis: X has a unit root Exogenous: Constant, Linear Trend Bandwidth: 11 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p -values. Residual variance (no correction) HAC corrected variance (Bartlett kernel) 16.21938 170.1988 -2.876236 -4.004836 -3.432566 -3.140059 Prob.* 0.1725
Phillips-Perron Test Equation Dependent Variable: D(X) Method: Least Squares Date: 07/11/03 Time: 14:01 Sample(adjusted): 2 200 Included observations: 199 after adjusting endpoints Variable X(-1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Coefficient 0.008077 -0.347519 -0.347519 5.626917 6269.114 -625.6523 Std. Error 0.000570 t-Statistic 14.17192 Prob. 0.0000 6.330875 4.847334 6.298013 6.314562 0.029997
Phillips-Perron Test Equation Dependent Variable: D(X) Method: Least Squares Date: 07/11/03 Time: 14:02 Sample(adjusted): 2 200 Included observations: 199 after adjusting endpoints Variable X(-1) C @TREND(1) R -squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -0.019037 -2.270852 0.184788 0.306229 0.299150 4.058033 3227.656 -559.5963 0.056810 Std. Error 0.002875 0.990735 0.023504 t-Statistic -6.622402 -2.292088 7.861856 Prob. 0.0000 0.0230 0.0000 6.330875 4.847334 5.654234 5.703882 43.25701 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
120
Arthur CHARPENTIER
Phillips-Perron Test Equation Dependent Variable: D(DX) Method: Least Squares Date: 07/11/03 Time: 14:04 Sample(adjusted): 3 200 Included observations: 198 after adjusting endpoints Variable DX(-1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Coefficient -0.005587 0.000805 0.000805 0.970910 185.7053 -274.6033 Std. Error 0.008655 t-Statistic -0.645434 Prob. 0.5194 0.035032 0.971301 2.783872 2.800479 2.089261
Phillips-Perron Test Equation Dependent Variable: D(DX) Method: Least Squares Date: 07/11/03 Time: 14:05 Sample(adjusted): 3 200 Included observations: 198 after adjusting endpoints Variable DX( -1) C @TREND(1) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -0.023867 0.200901 -0.000147 0.015146 0.005045 0.968848 183.0401 -273.1722 2.081225 Std. Error 0.015432 0.146759 0.001309 t-Statistic -1.546605 1.368915 -0.112696 Prob. 0.1236 0.1726 0.9104 0.035032 0.971301 2.789618 2.839440 1.499425 0.225821
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin -Watson stat
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
En revanche, dans le cas de la srie direncie deux fois, tous les tests valident lhypothse dabsence de racine unit
Null Hypothesis: D2X has a unit root Exogenous: None Bandwidth: 2 (Newey -West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one -sided p-values. Residual variance (no correction) HAC corrected variance (Bartlett kernel) 0.939841 0.984773 -14.71894 -2.576753 -1.942448 -1.615628 Prob.* 0.0000
Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p-values. Residual variance (no correction) HAC corrected variance (Bartlett kernel) 0.936095 0.940320 Null Hypothesis: D2X has a unit root Exogenous: Constant, Linear Trend Bandwidth: 1 (Newey-West using Bartlett kernel) Adj. t -Stat -14.71021 -4.005318 -3.432799 -3.140195 Prob.* 0.0000
Phillips-Perron Test Equation Dependent Variable: D(D2X) Method: Least Squares Date: 07/11/03 Time: 14:08 Sample(adjusted): 4 200 Included observations: 197 after adjusting endpoints Variable D2X( -1 ) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Coefficient -1.049877 0.525457 0.525457 0.971924 185.1487 -273.4195 Std. Error 0.071265 t-Statistic -14.73193 Prob. 0.0000 -0.001932 1.410894 2.785985 2.802651 1.990409
Phillips-Perron Test Equation Dependent Variable: D(D2X) Method: Least Squares Date: 07/11/03 Time: 14:08 Sample(adjusted): 4 200 Included observations: 197 after adjusting endpoints Variable D2X(-1) C @TREND(1) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -1.054154 0.124773 -0.000904 0.527348 0.522476 0.974972 184.4107 -273.0261 1.989237 Std. Error 0.071654 0.141908 0.001224 t-Statistic -14.71176 0.879253 -0.738662 Prob. 0.0000 0.3804 0.4610 -0.001932 1.410894 2.802296 2.852294 108.2252 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin -Watson stat
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
Remarques complmentaires Un certains nombres dtudes sur des donnes simules ont montr que ces tests rejettent dicilement lhypothse H0 dans le cas de sries dsaisonnalise. Il est alors parfois intressant dagrger des donnes mensuelles en donnes annuelles, et de tester si la srie annuelle prsente une racine unit. Nelson et Plosser (1992) ont montr que les racines unitaires caractrisent un grand nombre de sries macroconomiques. Bien dautres tests sont disponibles sous EViews (KP SS - Kwiatkowski, Philipps, Schmidt et Shin (1992) ou encore Ng-Perron (1993)). Sous RAT S, un grand nombre de procdures sont galement disponibles sur [Link] galement des implmentations des tests de racine unit saisonnire). Le test de Schmidt-Philipps repose sur lide que dans le cas du test ADF de type 4 - avec tendance linaire - linterprtation des paramtre nest pas la mme : considrons le modle Yt = + t + Yt 1 + "t et lhypothse H0 : = 0 et = 1. Sous H0 et lhypothse alternative Ha , on a respectivement t 1 X X H0 : Y t = Y 0 + t + " tk et Ha : Y t = + + (1 ) + k "t k : 1
k=0 k=0
Autrement dit, sous Ha , (Y t) est stationnaire autour dune tendance dterministe dont la pente est (1 ), alors que sous H0 , (Y t) est non stationnaire, avec pour tendance . Aussi, Schmidt et Philipps ont propos de modliser (Y t ) sous la forme Y t = + t + Xt o (Xt ) est non stationnaire sous H0 et (Xt ) est stationnaire sous Ha . On a alors Y t = + t + Xt H0 = 1 2 o jj 1 et (" t) BB 0; et on teste : Xt = Xt 1 + "t Ha < 1 7.1.3 Tests de racines unitaires saisonnires
Dans le cas dune modlisation SARIM A, avec une saisonnalit dordre s, il peut tre intressant de tester lordre s. Un certain nombre de tests on t mis en oeuvre dans les annes 80 et 90, en particulier pour tester de la saisonnalit lordre 4 et lordre 12. 121
Arthur CHARPENTIER
Tests de Hasza et Fuller (1982) et de Osborn, Chui, Smith & Birchenhall (OCSB, 1988) ont considr le modle Yt = 1 Yt 1 + sY ts + s+1 Y ts 1 + "t o ("t) est un bruit blanc. Lhypothse H0 scrit ici H0 : 1 = s = s+1 = 1: Osborn, Chui, Smith et Birchenhall ont alors tendu cette approche sous la forme (L) (1 L) (1 Ls) Yt =
s X i=1
Hasza et Fuller
sDs; t + (1 Ls ) Yt 1 + (1 L) Y ts + " t
Si lon accepte lhypothse = 0, la dirence lordre s est approprie, et si = = 0, alors le ltre (1 L) (1 Ls) est ncessaire. Test de Hylleberg, Engle, Granger et Yoo (HE GY , 1990) Ce test utilise la dcomposition des polynmes 1 L4 et 1 L12 , avec respectivement 4 et 12 racines units : dans le cas dune saisonnalit lordre s = 12, on considre une criture de la forme (L) P 8 (L) Y t = t + 1 P1 (L) Y t1 + 2 P 2 (L) Y t2 + 3 P3 (L) Y t1 + 4 P 3 (L) Y t2 + 5 P4 (L) Y t1 + 6 P 4 (L) Y t 2 + 7 P 5 (L) Y t1 + 8 P5 (L) Y t2 + 9 P 6 (L) Y t1 + 10 P6 (L) Y t2 + 11 P7 (L) Y t1 + 12 P7 (L) Y t2 o les polynmes retards Pi sont dnis par 8 > P1 (L) = (1 + L) 1 + L2 1 + L4 + L8 > < P3 (L) = 1 L2 1 + L4 + L8 p > P5 (L) = 1 L4 1 + 3L + L2 1 + L2 + 4 L > : P7 (L) = 1 L4 1 L2 + L4 1 + L + L2
(i)
et et et et
Les variables Zt = Pi (L) Y t sont alors associes aux direntes racines du polynme. On peut alors considrer les t de Student pour les variables 1 et 2 , ainsi que les F de Fisher associs aux couples.( 3 ; 4 ) ; ( 5 ; 6 ) ; ( 7 ; 8) ; ( 9 ; 10 ) et ( 11 ; 12 ). Test de Franses ( 1990) Ce test a t mis en place pour tester une saisonnalit lordre 12.
2 = (1 L) 1 + Lp 1 + L4+ L8 ; = 1 L4 1 3L + L2 1 + L2 + 4 ; L = 1 L 4 1 L 2 + L 4 1 L + L 2 ; = 1 L12 :
Dtection graphique dune racine unitaire saisonnire Considrons les sries suivantes, (Xt ), (Y t) et (Zt ) comportant respectivement une racine unitaire saisonnire dordre 2; 4 et 12,
Sur ces trois graphiques, en considrant la srie partielle des autocorrlogrammes rs (h) = j (sh)j ; on obtient une srie constante, proche de 1, de mme que lautocorrlogramme dune srie en prsence de racine unitaire. Toutefois, si ce genre de comportement laisse penser quil y a une racine unitaire saisonnire, lordre s nest pas ncessairement celui indiqu par lautocorrlogramme : une srie saionnire dordre 4 peut avoir un autocorrlogramme proche de celui de gauche. 7.1.4 Complment sur la notion de sur-direntiation
Considrons la srie suivante, correspondant une marche alatoire (Xt). On notera alors Y t = (1 L) Xt et Zt = (1 L) Y t , autrement dit, on direncie respectivement une fois et deux fois la marche alatoire. On reprsentera
122
Arthur CHARPENTIER
Inverse Autocorrelations
Std Error 0 0.044632 0.076676 0.098387 0.115749 0.130527 0.143541 0.155238 0.165889 0.175710 0.184860 0.193424 0.201484 0.209071 0.216257 0.223089 0.229589 0.235760 0.241625 0.247212 0.252542 0.257644 0.262541 0.267257 0.271793 0.276152 0.280339 0.284353 0.288206 0.291886 0.295412 0.298795 0.302040 0.305156 0.308147 0.311025 0.313795
Lag 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Covariance 118.497 117.047 115.741 114.466 113.259 112.118 110.982 109.797 108.734 107.835 106.856 105.916 104.777 103.789 102.853 101.833 100.603 99.335863 98.114218 96.893565 95.781537 94.752555 93.835797 92.828234 91.752164 90.623229 89.378820 88.174909 86.735134 85.437175 84.164093 82.899095 81.660381 80.406003 79.244523 78.109329 76.933940
Correlation 1.00000 0.98777 0.97674 0.96599 0.95579 0.946 17 0.93658 0.92658 0.91761 0.91002 0.90176 0.89383 0.88421 0.875 88 0.86798 0.85937 0.84899 0.83830 0.82799 0.81769 0.80830 0.799 62 0.79188 0.78338 0.77430 0.76477 0.75427 0.74411 0.73196 0.72101 0.71026 0.699 59 0.68913 0.67855 0.66875 0.65917 0.64925
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | . . . . . . . . . . . . . . . . . . . |********************| . |********************| . |**** ****************| . |******************* | |******************* | |******************* | |******************* | |******************* | |****************** |****************** |**** ************** |****************** |****************** |****************** |***************** |***************** |***************** |***************** |**** ************* |**************** |**************** |**************** |**************** |**************** |*************** |*************** |*************** |*************** |**** *********** |************** |************** |************** |************** |************** |************* |************* |**** ********* | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Lag 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Correlation - 0.47865 - 0.02417 - 0.00688 0.01959 0.01927 - 0.07027 0.02549 0.05313 - 0.04099 0.03523 - 0.09894 0.09051 0.01058 - 0.00824 - 0.07292 0.04292 0.01490 - 0.02594 0.00236 0.00943 0.05249 - 0.04692 - 0.01729 0.02241 - 0.02886 0.07200 - 0.11490 0.07382 0.00234 - 0.01380 0.00757 - 0.02967 0.04559 - 0.00567 - 0.03475 0.019 30
- 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | **********| . . | . . | . . | . . | . .*| . . |*. . |*. .*| . . |*. **| . . |** . | . . | . .*| . . |*. . | . .*| . . | . . | . . |*. .*| . . | . . | . .*| . . |*. **| . . |*. . | . . | . . | . .*| . . |*. . | . .*| . . | . | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
. . . . . . . . . . . . . .
Autocorrelations
Inverse Autocorrelations
Std Error 0 0.044677 0.044693 0.044694 0.044844 0.045020 0.045031 0.045056 0.045136 0.045157 0.045261 0.045263 0.045604 0.045630 0.045647 0.045699 0.045850 0.045936 0.045938 0.046042 0.046051 0.046054 0.046149 0.046149 0.046184 0.046185 0.046295 0.046349 0.046541 0.046793 0.046816 0.046818 0.046865 0.046883 0.046947 0.047057 0.047064
Lag 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Covariance 1.951601 - 0.037060 0.0084385 - 0.113388 - 0.122848 0.030231 - 0.046754 - 0.083088 - 0.042463 0.094738 0.010367 0.172028 - 0.047280 0.038754 0.067319 0.114811 0.087056 - 0.011539 - 0.095413 0.029021 0.014966 - 0.091590 -0.0021886 0.055409 -0.0087323 0.098691 - 0.068891 0.130526 - 0.149810 - 0.045138 0.012506 0.064693 - 0.040056 - 0.076052 - 0.099367 - 0.023904 0.030128
Correlation 1.00000 -.01899 0.00432 -.05810 -.06295 0.01549 -. 0 2 3 96 -.04257 -.02176 0.04854 0.00531 0.08815 -.02423 0.01986 0.034 49 0.05883 0.04461 -.00591 -.04889 0.01487 0.00767 -.04693 -.00112 0.02839 -.00447 0.05057 -.03530 0.066 88 -.07676 -.02313 0.00641 0.03315 -.02052 -.03897 -.05092 -. 0 1 2 25 0.01544
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |********************| . | . . | . .*| . .*| . . | . . | . .*| . . | . . |*. . | . . |** . | . . | . . |*. . |*. . |*. . | . .*| . . | . . | . .*| . . | . . |*. . | . . |*. .*| . . |*. **| . . | . . | . . |*. . | . .*| . .*| . . | . . | . | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Lag 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Correlation 0.02583 0.02382 0.05540 0.10253 0.01569 0.03377 0.02562 0.03111 0.06939 0.01005 0.09205 0.00675 0.05308 0.03180 0.08725 0.04029 0.03261 0.02742 0.06047 0.01299 0.03196 0.01293 0.05692 0.01556 0.01881 0.04697 0.05767 0.08423 0.03435 0.01313 0.02299 0.03541 0.03828 0.05492 0.01036 0.01159
- 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | . |*. .| . . |*. . |** . | . . |*. . |*. . |*. .*| . . | . * . *| . | . .*| . .*| . **| . .*| . .*| . . |*. .*| . . | . . |*. . | . .*| . . | . . | . . |*. .*| . . |** . |*. . | . . | . . |*. . |*. . |*. . | . . | . | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Autocorrelations
Inverse Autocorrelations
Std Error 0 0.044721 0.055207 0.055283 0.055313 0.055384 0.055533 0.055540 0.055560 0.055576 0.055684 0.055812 0.056117 0.056332 0.056342 0.056342 0.056349 0.056362 0.056362 0.056489 0.056540 0.056558 0.056629 0.056631 0.056661 0.056727 0.056892 0.057171 0.057661 0.057985 0.057988 0.057988 0.058046 0.058057 0.058057 0.058078 0.058078
Lag 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Covariance 3.968614 -2.031220 0.181453 -0.113464 -0.176131 0.255331 -0.054876 -0.094385 -0.082030 0.217745 -0.237175 0.366656 -0.308261 0.067308 0.00020930 0.054488 0.076474 - 0.0001716 -0.238021 0.150418 0.089441 -0.177946 0.029772 0.115280 -0.172246 0.271504 -0.354107 0.470429 -0.384039 0.039738 0.0033611 0.162465 -0.070734 0.00095295 -0.097395 0.019390 -0.076424
Correlation 1.00000 -.51182 0.04572 -.02859 -.04438 0.06434 -.01383 -.02378 -.02067 0.05487 -.05976 0.09239 -.07767 0.01696 0.00005 0.01373 0.01927 -.00004 -.05998 0.03790 0.02254 -.04484 0.00750 0.02905 -.04340 0.06841 -.08923 0.11854 -.09677 0.01001 0.00085 0.04094 -.01782 0.00024 -.02454 0.00489 -.01926
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |********************| **********| . | . |*. | .*| . .*| . . |*. . | . . | . . | . . |*. .*| . . |** **| . . | . . | . . | . . | . . | . .*| . . |*. . | . .*| . . | . . |*. .*| . . |*. **| . . |** **| . . | . . | . . |*. . | . . | . . | . . | . . | . | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Lag 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Correlation 0.92197 0.84723 0.77535 0.70122 0.61560 0.53893 0.45780 0.37445 0.28937 0.22085 0.1 5320 0.10186 0.05061 0.01171 0.02166 0.03956 0.04823 0.05007 0.05759 0.05239 0.04302 0.03698 0.03360 0.02050 0.00991 0.00534 0.01280 0.03067 0.03363 0.03227 0.03109 0.03606 0.03575 0.03311 0.02420 0.01333
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | | | | | | | | | | | | | | | . |****************** . |***************** . |**************** . |************** . |************ . |*********** . |********* . |******* . |****** . |**** . |*** . |** . |*. . | . . | . .*| . .*| . .*| . .*| . .*| . .*| . .*| . .*| . . | . . | . . | . . | . . |*. . |*. . |*. . |*. . |*. . |*. . |*. . | . . | . | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| | | | | | | | | | | | | | | | | | | | |
Comme nous lavons dj voqu, lautocorrlogramme de la srie (Xt ) permet - a priori - de conclure la prsence dune racine unit. Le comportement de lautocorrlogramme inverse de la srie (Zt) prsente, de faon moins nette certes, le mme genre de comportement. On peut noter galement sur les autocorrlogrammes de (Yt ), correspondant un bruit blanc, que les autocorrlations et les autocorrlations inverses sont identiques (ce qui est une caractrisation des bruits blancs). [A COMPLETER]
7.2
Pour lestimation des paramtres p et q, on utilise le fait que si (Xt ) suit un ARIM A (p; d; q), alors (1 L) Xt suit asymptotiquement un processus ARM A (p; q). En pratique, lide est daplliquer la rgle suivante : si (Xt ) s ARIM A (p; d; q) alors (1 L)d Xt s ARM A (p; q). On appelle processus ARM A (p; q), un processus stationnaire (Xt ) vriant une relation du type Xt +
p X i=1
iXti = " t +
q X j=1
(31)
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture (L) = I + 1 L + ::: + q Lq (L) Xt = (L) " t o (L) = I + 1 L + ::: + p Lp :
(32)
On supposera de plus que les polymes et nont pas de racines en module strictement suprieures 1 (criture sous forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement q et p, au sens o q 6= 0 et p 6= 0. 123
Arthur CHARPENTIER
7.2.1
On peut noter que lcriture ARM A (32) nest pas unique. En eet, il sut de multiplier gauche et droite de (32) par un mme polynme en L, (L). Alors, en posant (L) = (L) (L) et (L) = (L) (L), on peut noter que (L) Xt = (L) "t . Proprit 47 Soit un polynme dont les racines z 2 C soient toutes lextrieur du disque unit. Alors lquation (L) Xt = (L) "t admet une solution stationnaire (Xt) et celle-ci est unique. Dnissons la matrice suivante, partir des autocorrlations (h) du processus stationnaire (Xt ) 2 3 (i) (i 1) (i 2) (i j + 2) (i j + 1) 6 (i + 1) (i) (i 1) (i j + 3) (i j + 2) 7 6 7 6 7 .. 6 (i + 2) . (i j + 4) (i j + 3) 7 (i + 1) (i) 6 7 - i;j = 6 7 .. .. .. 6 7 . . . 6 7 6 7 4 (i + j 2) (i + j 3) (i + j 4) . . . (i) (i 1) 5 (i + j 1) (i + j 2) (i + j 3) (i + 1) (i)
Dnition 44 Un processus (Xt ) est un ARM A (p; q) minimal si (L) Xt = (L) "t o (" t) est un bruit blanc et o et sont de degr respectif p et q (avec p 6= 0 et q 6= 0) dont les racines sont de module suprieur 1, et o et nont pas de racines communes. Proprit 48 Le processus (Xt) est un ARM A (p; q) minimal si et seulement si (i) (i; j) = 0 pour i q + 1 et j p + 1; (ii) (i; j) 6= 0 pour i q; (iii) (i; j) 6= 0 pour j p:
Autrement dit, on peut construire le tableau des (i; j), et il aura la forme suivante pour un processus ARM A (p; q) minimal, inj 1 2 . . . q q+1 q+2 . . . 1 2 (1; 1) (1; 2) (2; 1) (2; 2) . . . . . . (q; 1) (q; 2) (q + 1; 1) (q + 1; 2) (q + 2; 1) (q + 2; 2) . . . . . . p (1; p) (2; p) . . . (q; p) (q + 1; p) (q + 2; p) . . . p+1 (1; p + 1) (2; p + 1) . . . (q; p + 1) 0 0 . . . p+2 (1; p + 2) (2; p + 2) (q; p + 2) 0 0 . . . soit
Dp; q Dq
Dp 0
o les termes Dp;q , Dq et Dp sont non-nuls. Remarque 49 Dans le cas dun processus M A (q), le tableau des (i; j ) a la forme suivante inj 1 2 . . . q q+1 q+2 . . . 1 (1; 1) (2; 1) . . . (q; 1) 0 0 . . . 2 (1; 2) (2; 2) . . . (q; 2) 0 0 . . .
Dq 0
Remarque 50 Dans le cas dun processus AR (p), le tableau des (i; j) a la forme suivante inj 1 = 2 . . . 1 2 (1; 1) (1; 2) (2; 1) (2; 2) . . . . . . 124 p p+1 (1; p) 0 (2; p) 0 . . . . . . p+2 0 0 . . .
Dp
Arthur CHARPENTIER
Lautocorrlogramme partiel scrit a (h) = (1) (1; j) = (0; j ) o (0; j ) est strictement positif (comme dterminant dune matrice de corrlation) pour un AR (p), et donc a (h) = 0 pour h p + 1. 7.2.2 Comportement asymptotique des moments empiriques
j1
Nous avions vu dans la partie ([Link]) que les moments empiriques ( (h) ; (h) ; i (h) :::) convergeaient vers les vraies moments. Proprit 49 Sous lhypothse o (Xt ) s M A (q), et que ("t ) est stationnaire lordre 4, alors p b (h) (h) L T p T Pq ! N (0; 1) pour h > q: 1 + 2 k=1 2 (k)
Proprit 50 Sous lhypothse o (Xt ) s AR (p), et que ("t ) est stationnaire lordre 4, alors p L T [bT (h) a (h)] ! N (0; 1) pour h > q: a
Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations, " r # Pq 1 + 2 k=1 2 (k) bT (h) 1:96 : T
(33)
Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations partielles, 1 b T (h) 1:96 p a ; T Mthode pratique destimation des ordres p et q
Pour estimer les ordres p ou q, on utilise les proprits vues prcdemment sur les formes des autocorrlogrammes ( (h)) ou des autocorrlogrammes partiels (a (h)). En particulier (i) pour les processus AR (p) lautocorrlogramme partiel sannule partir de p ( gauche) (ii) pour les processus M A (q) lautocorrlogramme sannule partir de q ( droite)
Remarque 51 Sil reste de la saisonnalit, celle-ci apparatra galement dans les autocorrlogrammes
6 4 2 0 -2 -4 -6 -8
100
200
300
400 A3
500
600
700
800
125
Arthur CHARPENTIER
7.2.4
Si (Xt) suit un processus M A (q), on peut noter que la variance des autocorrlations empiriques est donne par la relation q X V (b (h)) t 1 + 2 2 (i) ; pour h > q;
i= 1
En pratique, on identie q, ordre dun processus M A (q) comme la premire valeur partir de laquelle les (h) sont dans lintervalle dont les extrmits sont dlimites par i1=2 1:96 h p 1 + 2 b2 (1) + b2 (2) + ::: + b2 (h 1) ; T puisque sous lhypothse o le processus est eectivment un M A (q) p 7.2.5 L T b (h) ! N 0; 1 + 2 2 (1) + ::: + 2 (q 1) pour h > q:
La mthode du coin (Beguin, Gourieroux, Monfort) La mthode suivante, dite mthode du coin permet destimer conjointement p et q lorsque les deux sont non-nuls. Elle est base sur la proprit (48) : Les valeurs de - ij o 2 3 (i) (i 1) (i 2) (i j + 2) (i j + 1) 6 (i + 1) (i) (i 1) (i j + 3) (i j + 2) 7 6 7 6 7 .. 6 (i + 2) . (i j + 4) (i j + 3) 7 (i + 1) (i) 6 7 - i;j = 6 7 .. .. .. 6 7 . . . 6 7 6 7 .. 4 (i + j 2) (i + j 3) (i + j 4) . (i) (i 1) 5 (i + j 1) (i + j 2) (i + j 3) (i + 1) (i) sont inconnues mais peuvent tre estime par les b (h). On pose alors (i; j ) = det - ij , qui sera, de la mme b (i; j) = det -ij . Les (i; j ) sont alors des estimateurs convergents des (i; j) (par continuit b b faon, estim par du dterminant). Les coecients p et q sont alors les valeurs pour lesquels sobservent une rupture. La variance b asymptotique de (i; j )est une fonction direntiable du vecteur des autocorrlations b (h), avec une loi normale asymptotique. r b b b Un test de nullit est bas sur lutilisation de la statistique de Student (i; j) = V (i; j ) , qui doit tre compare 1:96 pour un seuil de 5%.
Exemple 78 Considrons le processus simul (sur 250 valeurs) (1 0:5L) Xt = 1 + 0:1L 0:7L2 " t o ("t ) est un bruit blanc gaussien de variance 1
4 2 0 -2 -4 -6
50
100
150 ARMA
200
250
126
Arthur CHARPENTIER
Le tableau des ij est donn par inj 1 2 3 4 5 1 0:352 0:296 0:316 0:179 0:036 2 0:420 0:199 0:047 0:021 0:010 3 0:006 0:067 0:006 0:000 0:002 4 0:095 0:022 0:001 0:001 0:001 5 inj 0:003 1 0:006 2 t 0:003 3 0:001 4 0:000 5 1 0:352 0:296 0:316 0:179 0:036 2 0:420 0:199 0:047 0:021 0:010 3 4 0:006 0:095 0:067 0:022 0.000 0.000 0.000 0.000 0.000 0.000 5 0:003 0:006 0.000 0.000 0.000
En eet, par exemple, le terme 1;2 est donn par (1) (0) 0:352 1;2 = (2) (1) = 0:296
Lapproximation indique ci-dessous semble valider lhypothse de modlisation ARM A (1; 2). Cette intuition est conrme en tudiant le tableau des Student. Utilisation de la fonction dautocorrlation tendue (Tsay, & Ciao) Cette mthode est appele ESCAF (Extended Sample Autocorrelation Function) sous SAS, et est dcrite dans la document SAS E T S (pages 236237 ). Pour cela, on eectue des regressions linaires, de faon itrative pour calculer les paramtres AR dun ARM A (stationnaire ou pas ). Ensuite, partir de cette estimation, la srie observe est modlise sous forme M A. Soit (Xt ) un processus ARM A (p; q) dont on observe n ralisations, suivant le modle (L) Xt = (1 L)d (L) Xt = (L) "t o ("t ) suit un bruit blanc de variance 2 : Sur la partie autorgressive du processus, on utilise une rgression linaire pour obtenir des estimateurs (par moindres carrs) des paramtres autorgressifs de la composante AR. On dnit alors la premire regression Xt =
p X i=0 |
Ce modle est estim par les mco. On dnit alors la k-me rgression itrative dun AR (m) quelconque Xt =
m X i=0
m;k Xti + i
k X j=0
o les j;k sont les erreurs du processus AR de la k-ime rgression, et les u m;k les rsidus de la rgression. Comme t t on ignore lordre p de la partie autorgressive, on choisit m variant de 1 p0 , et on eectue q 0 rgressions itratives : on choisira a priori p 0 et q0 susamment grands. Les paramtres peuvent alors tre estims rcursivement par b m+1;j1 b m;j = bm+1;j 1 b m;j 1 m+1 i i i1 : b m;j 1 m
Ces paramtres sont alors utiliss pour dnir la E SACF , fonction dautocorrlation tendue, telle que la dnie Tsay et Tia (1984), Dnition 45 On appelle fonction dautocorrlation tendue la fonction rj (m), fonction dautocorrlation du processus m X m;j m b Xti pour j = 1; 2; ::: !j = Xt i
i=1
Si le processus suit un ARM A (p + d; q) la srie ! m suit un processus M A (q) pour j q, cest dire j rj (p + d) t 0 pour j > q rj (p + q) 6= 0 pour j = q:
(34)
127
Arthur CHARPENTIER
La table ESACF est alors dnie par ARnMA 0 1 2 3 . . . 0 r1 (0) r1 (1) r1 (2) r1 (3) . . . 1 r2 (0) r2 (1) r2 (2) r2 (3) . . . 2 r3 (0) r3 (1) r3 (2) r3 (3) . . . 3 r4 (0) r4 (1) r4 (2) r4 (3) . . .
p La nullit thorique de (34) est interprte statistiquement par une valeur infrieur 1:96= n. Mthode SCAN Cette mthode vise utiliser la plus petite corrlation canonique (smallest canonical correlation) pour identier les ordres p et q: Elle a t implmente sous SAS, et est dcrite dans la document SAS E T S (pages 239-241 ). La syntaxe pour utiliser cette procdure ou la pro cdure ESACF est la suivante proc arima data = base; identify var = x esacf scan; run; Considrons une srie Xt que nous allons centrer, Zt = Xt ; dont on observe n ralisations, suivant un processus ARIM A (p; d; q). Cette mthode analyse les valeurs propres de la matrice de corrlation du processus. [A COMPLETER] Exemple 79 Dans le cas dun processus ARM A (2; 1), les tables E SACF et SC AN thoriques seront de la forme ARnMA 0 1 2 3 4 Table ESAC F 0 1 2 3 0 0 0 0 0 0 4 0 0 0 5 0 0 0 6 0 0 0 ARnMA 0 1 2 3 4 Table SC AN 0 1 2 3 0 0 0 0 0 0 0 0 0 4 0 0 0 5 0 0 0 6 0 0 0
o lordre de lAR se lit gauche, et lordre du M A se lit en haut. Dans lexemple ci-dessous, nous avons simul 1500 ralisations dun tel processus.
ARIMA Procedure Extended Sample Autocorrelation Function Lags AR 0 AR 1 AR 2 AR 3 AR 4 AR 5 MA 0 0.5312 0.5206 -0.4404 -0.4803 -0.4981 -0.4721 MA 1 0.0134 0.0203 -0.0326 0.1110 -0.5046 -0.0174 MA 2 -0.3184 -0.2599 -0.0757 -0.1018 -0.3928 -0.3009 MA 3 -0.4086 -0.1589 0.0609 0.0609 0.0213 0.1085 MA 4 -0.3562 -0.1552 0.0045 0.0114 0.0523 0.0143 MA 5 -0.2131 -0.1731 -0.0305 -0.0188 -0.0252 -0.0257 Lags AR 0 AR 1 AR 2 AR 3 AR 4 AR 5 ARIMA Procedure Squared Canonical Correlation Estimates MA 0 0.2828 0.1413 0.0441 0.0225 0.0323 0.0154 MA 1 0.0002 0.1353 0.0005 0.0017 0.0021 0.0001 MA 2 0.1020 0.1208 0.0023 0.0024 0.0025 0.0005 MA 3 0.1685 0.0242 0.0013 0.0017 0.0001 0.0005 MA 4 0.1282 0.0148 0.0001 0.0004 0.0005 0.0002 MA 5 0.0459 0.0145 0.0004 0.0003 0.0003 0.0006
ESACF Probability Values Lags AR 0 AR 1 AR 2 AR 3 AR 4 AR 5 MA 0 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 MA 1 0.6786 0.5352 0.2836 0.0010 0.0001 0.5715 MA 2 0.0001 0.0001 0.0094 0.0012 0.0001 0.0001 MA 3 0.0001 0.0001 0.0496 0.0544 0.4967 0.0021 MA 4 0.0001 0.0001 0.8859 0.7021 0.1254 0.6058 MA 5 Lags 0.0001 0.0001 0.3192 0.5632 0.4283 0.4184 AR 0 AR 1 AR 2 AR 3 AR 4 AR 5 SCAN Chi-Square[1] Probability Values MA 0 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 MA 1 0.6782 0.0001 0.4834 0.1990 0.1510 0.9782 MA 2 0.0001 0.0001 0.1152 0.1480 0.1198 0.4712 MA 3 0.0001 0.0001 0.2162 0.1700 0.8188 0.4376 MA 4 0.0001 0.0001 0.9077 0.4922 0.4879 0.6296 MA 5 0.0001 0.0001 0.5113 0.6210 0.5618 0.4168
ARMA(p+d,q) Tentative Order Selection Tests (5% Significance Level) ESACF p+d 3 4 2 q 3 3 4
ARMA(p+d,q) Tentative Order Selection Tests (5% Significance Level) SCAN p+d q 2 1
Les sorties ESACF ,et SC AN peuvent se rcrire ARnMA 0 1 2 3 4 0 0:53 0:52 0:44 0:48 0:50 Table 1 0:01 0:02 -0.03 0:11 0:51 ESAC F 2 3 0:32 0:41 0:25 0:16 -0.08 -0.06 -0.10 -0.06 0:40 0.02 4 0:36 0:16 0.00 0.01 0.05 5 0:21 0:17 -0.03 -0.02 -0.02 128 ARnMA 0 1 2 3 4 0 0:28 0:14 0:04 0:02 0:03 Table 1 0:00 0:14 0.00 0.00 0.00 SC AN 2 3 0:10 0:17 0:12 0:02 0.00 0.00 0.00 0.00 0.00 0.00 4 0:13 0:01 0.00 0.00 0.00 5 0:05 0:01 0.00 0.00 0.00
Arthur CHARPENTIER
Comme on peut le noter, la mthode SCAN donne de trs bon rsultats, et permet didentier les ordres 2 et 1. Remarque 52 SAS propose une mthode supplmentaire pour estimer lordre des processus ARM A : la mthode M IN IC: 7.2.6 Proprit des estimateurs 0 En notant ! = 1 ; :::; p ; 1 ; :::; q , on a le rsultat suivant
Proprit 51 Lestimateur du maximum de vraissemblance est convergent, et asymptotiquement normal, p ! L 0 - 0 pT (b T !) ! N ; : 0 0 a T (b T ) Cette proprit permet de mettre en place des tests sur les paramtres.
7.3
Lhypothse (Xt) s ARIM A (p; d; q) peut scrire (1 L) (L) Xt = (L) "t, ou encore "t = (L) (1 L) (L) Xt :
d
b b Une fois estims les paramres d; p; q et lensemble des i et j , on obtient des polynmes estims (L) et (L), qui permettent dobtenir les rsidus estims, Pour que les modles obtenus prcdamment soient valides, il convient de vrier que les rsidus estims suivent bien un bruit blanc H0 : ("t ) s BB. 7.3.1 Analyse des fonctions dautocorrlation
1 d b b bt = (L) (1 L) (L) Xt : "
h p p i Lintervalle de conance de b (h) est, dans le cas dun bruit blanc gaussien t=2 = T ; t=2 = T o t=2 est le quantile dordre =2 de la loi de Student (1:96 pour = 5%). Pour avoir un bruit blanc, il est ncessaire quaucune valeur de lautocorrlogramme ne soit signicativement non-nulle. Exemple 80 Pour la srie (1) gauche, aucune valeur nest signicativement non-nulle alors que pour la srie (2), droite, certaines le sont, en particulier pour h = 8 ou h = 16.
129
Arthur CHARPENTIER
7.3.2
Le test de Box-Pierce permet didentier les processus de bruit blanc (i.e. les processus alatoires de moyenne nulle, de variance constante et non autocorrls). Cette statistique permet de tester cov (" t; "t h ) = 0 pour tout h, soit (h) = 0 pour tout h. Ce test scrit H0 : (1) = (2) = ::: = (h) = 0 Ha : il existe i tel que (i) 6= 0: Pour eectuer ce test, on utilise la statistique de Box et Pierce (1970) Q, donne par Qh = T
h X
k=1
o h est le nombre de retards, T est le nombre dobservations et bk lautocorrlation empirique. Asymptotiquement, sous H0 , Q h suit un 2 h degrs de libert. Nous rejetons lhypothse de bruit blanc au seuil h si Q est suprieure au quantile dordre (1 ) de la loi du 2 h degrs de libert. Une statistique ayant de meilleurs proprits asymptotiques peut tre utilise : Q 0 = T (T + 2) h
h X
bk ;
k=1
qui suit asymptotiquement, sous H0 une loi du 2 h degrs de libert. Ces tests sont appels par les anglo-saxons portmanteau tests, soit littralement tests fourre-tout . Exemple 81 Cette statistique est gnralement fournie avec lautocorrlogramme (Q-stat). Les deux sorties cidessous correspondent aux valeurs pour 2 sries de rsidus
bk ; T k
La table du 2 est donne ci-dessous. A titre comparatif, nous obtenons le tableau suivant h Srie (1) Srie (2) 10% (h) 5% (h) 1 0:000 2:088 2:706 3:841 2 0:102 2:206 4:605 5:991 3 0:819 4:059 6:251 7:815 4 4:095 4:673 7:779 9:488 5 4:476 7:2646 9:236 11:070 6 6:852 8:643 10:645 12:592 7 9:087 10:341 12:017 14:067 8 10:676 19:234 13:362 15:507 9 11:310 19:281 14:684 16:919 10 11:388 19:281 15:987 18:307
Si la srie (1) est statistiquement un bruit blanc, il ne semble pas en tre de mme pour la seconde srie, pour laquelle Qh est parfois trop eleve (en particulier partir de h = 8 - ce qui tait conrm par lanalyse graphique des autocorrlogrammes, avec cette valeur (8) signicativement non nulle). Le seuil apparait dailleurs en pointill sous E V iews, et en . sous SAS. 7.3.3 Complments : les tests de normalit
Dans le cadre de la prvision, ou lors des tests de Student sur les paramtres, il convient de vrier la normalit des rsidus. Un test possible est celui de Bera & Jarque (1984), bas sur le skewness (coecient dasymtrie de la distribution) et la kurtosis (aplatissement - paisseur des queues). 130
Arthur CHARPENTIER
s = 3 =2 et kurtosis k = 4 =2 . Sous des hypothses de normalit, on a normalit des estimateurs du skewness et 2 de la kurtosis, p p L L s ! N 0; 6=T et k ! N 3; 24=T quand T ! 1: Le test de Bera & Jarque repose sur le fait que, si la distribution suit une loi normale, alors la quantit BJ = T 2 T 2 s + [k 3] ; 6 24
suit asymptotiquement une loi du 2 2 degrs de libert. Aussi, si BJ 2 (2) on rejette lhypothse H0 de 1 normalit des rsidus au seuil . Exemple 82 Dans lexemple ci-dessous, les rsidus suivent eectivement une loi normale N (0; 1)
4
100
2
80
Series: RESIDUS1 Sample 1 1000 Observations 1000 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis Jarque-Bera Probability 0.006772 -0.009971 3.372898 -3.376546 1.050788 -0.006424 2.876155 0.645941 0.723995
60 40
-2
20
-3
-2
-1
La kurtosis vaut 2:876 (3 pour une loi normale) et le skewness 0:006 (0 pour un loi normale). La statistique de Bera & Jarque vaut alors 0:6459, qui est infrieur le centile du 2 2 degrs de libert, au seuil = 5%, soit 5:991(table ci-dessous). Exemple 83 Dans lexemple ci-dessous, les rsidus ne suivent pas une loi normale N (0; 1)
6 4 2
140 120 100 80 Series: RESIDUS2 Sample 1 1000 Observations 1000 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.052278 0.006300 5.332330 -3.832115 1.128819 0.395539 4.405434
La distribution est beaucoup trop aplatie pour suivre une loi normale (kurtosis valant 4:4), avec un asymtrie galement trop forte. La statistique de Bera & Jarque vaut alors 108 >> 5:991. Remarque 53 La table ci-dessous est la table de la loi du chi-deux, o P est le seuil et le nombre de degrs de
131
Arthur CHARPENTIER
libert
7.3.4
Perron a propos dintroduire, ds 1989, dans la rgression de Dickey & Fuller une variable indicatrice spciant lexistence dune rupture. La date de rupture peut dailleurs tre connue ou inconnue. Dans le cas o elle est inconnue, une procdure squentielle permet de la localiser. Ce lien entre les tests de racine unit et les changements de structure ont donn lieu de nombreuses publications depuis une dizaine dannes. Direntes formes de changement de structure ont dailleurs t tudies : changement de niveau, changement du coecient de tendance linaire, changement sur les coecients des variables de la modlisation...etc. Les tests de racine unit Plusieurs tests ont t implments an de tester lhypothse nulle que la srie stationnaire (Y t) possde une racine unit et une constante, ventuellement nulle, avec une rupture au temps o 1 < < T , contre lhypothse alternative que la srie soit stationnaire autour dune tendance linaire avec rupture en sur cette tendance. Une distinction est alors gnralement apporte entre deux cas : AO - additive outliers - eet instantann IO - innovational outliser - eet avec transition Pour chacun des eets, trois modles sont alors considrs : dans la version AO 8 < (1) Xt = + t + DUt ( ) + Yt pour t = 1; :::; T ; (2) Xt = + t + DTt ( ) + Y t pour t = 1; :::; T ; : (3) Xt = + t + DUt ( ) + DT t ( ) + Y t pour t = 1; :::; T ;
o (Yt ) est la srie (Xt ) laquelle on a retir la tendance dterministe, avec DUt ( ) = 1 si t > et 0 sinon (DUt ( ) = I (t > )) et DT t ( ) = (t ) si t > , 0 sinon (DT t ( ) = [t ] :I (t > )). La mise en oeuvre du test se fait en deux tapes ; (i) estimation (par une mthode de type moindre carrs) de la tendance avec les modles de rgression (1), (2) et (3), et calcul de la srie rsiduelle obtenue en retranchant la srie observe la tendance estime (ii) pour les modles (1) et (3), le test est bas sur la valeur de la t-statistique relative = 0, not t ( ) et b correspond au test de racine unit dans la rgression ADF Yt = Y t1 +
k X
dj DT Bt j ( ) +
j=0
k X i=1
i Y ti + "t
o DT Btj ( ) = I (t = + 1) :
iY ti + "t ,
132
Arthur CHARPENTIER
et utiliser la t-statistique t ( ) pour eectuer les tests classiques ADF . b Dans la version IO, les quations de rgression scrivent 8 h i P > (1) Xt = + t + DUt ( ) + DT Bt ( ) + Xt1 + k ci Xti + "t > i=1 > < h i Pk (2) Xt = + t + DT t ( ) + Xt1 + i=1 ciXt i + " t > h i > P > : (3) Xt = + t + DUt ( ) + DT Bt ( ) + DT t ( ) + Xt1 + k ciXt i + " t i=1
o, encore une fois, DT Bt ( ) = I (t = + 1). Le test de Zivot et Andrews (1992) considre seulement les modles de type IO, sans introduire lindicatrice DT Bt j ( ) (la justication tant que ce coecient est asymptotiquement ngligeable) 21 . Toutefois, dans le cas gnral, la date de rupture est inconnue, ainsi que le paramtre k, permettant dapprocher le processus ARM A (p; q) par un processus AR (k + 1). Direntes mthodes pour slectionner k ont t propose par Perron (1989et 1993) pour les trois modles et les deux types deets, AO et IO. Les procdures squentielles didentication de Zivot et Andrews (1992) et de Perron (1993) permettent de dterminer , ou plutt = =T . Cette mthode consiste estimer les modles de rgressions (A), (B) et (C ) dans les deux cas AO et IO, et retenir le cas o t ( ) = tb () est minimal. Les auteurs ont tudi la disctribution asymptotique de inf t () quand appartient b b un intervalle ferm de ]0; 1[, = [3=20; 17=20] dans ltude de Zivot et Andrews. On rejette alors lhypothse nulle de prsence de racine unit si inf ftb () ; 2 g est plus petit que le fractile correspondant une probabilit xe de la distribution asymptotique de inf ft () ; 2 g. b Les tests de Gregory et Hansen (1996) Ces tests sont une gnralisation des tests de Zivot et Andrews dans le 1 cas mutlivari, o Xt = Xt ; Xt2 .
Les tests du CU SU M Ce test permet dtudier la stabilit dun modle conomtrique estim au cours du temps. Il existe deux versions de ce test : le CU SUM fond sur la somme cumule des rsidus rcursifs, et le C USU M SQ (SQ pour square ) fond sur la somme cumule des carrs des rsidus rrursifs. Pour cela, on note (et) le rsidu " normalis par rapport lcart-type, cest dire et = bt=b " , et on note k le nombre de paramtres estimer dans le " " 0 modles. Les statistiques St du CU SU M et St du CU SU M SQ sont dnies par St = (T k) Pt
0 St
Pt
et
Pt
Si les coecients sont variables au cours du temps, alors les rsidus rcursifs St doivent rester dans lintervalle dni par (2t + T 3k) (2t + T 3k) St 2 p ;+ p ; Tk Tk
0 o = 1:143; 0:918 ou 0:850 suivant que le seuil est 1%; 5% ou 10%. De la mme faon, les rsidus St doivent appartenir lintervalle tT tT 0 St 2 C; +C ; Tk Tk
i=k+1 PT i=k+1
pour t = k + 1; :::; T ;
pour t = k + 1; :::; T:
0 o C est la constante du Durbin. En fait, on peut montrer que sous lhypothse de stabilit, lesprance de St est 0 0 E (St ) = (t T ) = (T k) allant de 0 1 quand t varie entre k et T . Plus prcisment, la variable St suit une loi Bta.
Le test de Chow ou test dhomoscdasticit Puisque les bruits blancs doivent tre homoscdastiques, le test de Chow, visant comparer les variances des rsidus sur des sous-priodes, peuvent tre utiliss2 2 .
test est voqu ici car il existe des codes tlchargeables sur internet, en EV iews, SAS ou Gauss. test nest pas dtaill ici puisquil se trouve dans tous les cours dconomtrie. Pour mmoire, ce test est un test de Fisher : on considre un premier modle Y = X m + " m obtenu sur m observations, et un second modle Y = X n + "n obtenu sur n observations. Le test de Chow permet de test lgalit de s coecient : m = n , ainsi que V ("m ) = V ("n ) :
2 2 Ce 2 1 Ce
133
Arthur CHARPENTIER
7.4
A cette tape, les coecients d; p et q ont t xs. Il convient alors destimer les paramtres i et j du processus ARIM A (p; d; q), ainsi que la volatilit 2 du bruit blanc. Sous lhypothse "t s N 0; 2 , on peut utiliser des mthodes du type maximum de vraissemblance. On supposera ici que le processus (Xt) est centr. 7.4.1 Estimation pour les modles AR (p) par la m thode des moindres carrs
Un modle AR (p) scrit Xt = = c + 1 Xt1 + ::: + p Xtp + "t o (" t) est un bruit blanc, 0 0 Zt + "t o Zt = (1; Xt1 ; Xt2 ; :::; Xt p ) et 0 = c; 1 ; 2 ; :::; p :
Lestimation des paramtres du modle X = Z 0 + " par la mthode des moindres carrs donne 2 X 1 0b b = (ZZ 0 )1 ZX et 2 = b X t Zt : T (p + 1) Toutefois, les rsultats usuels dconomtries ne sont pas vris ici, en particulier E b 6= . Il est toutefois possible de montrer le rsultat suivant, Proprit 52 Si les racines du polynme charactrisque (racines de (z) = 0) sont lextrieur du disque unit alors P b P ! et b 2 ! 2 ; et de plus Remarque 54 Si la mthode des moindres carrs peut tre utilise pour estimer les paramtres dun modle AR (p), elle ne marche plus ds lors que lon a des termes autorgressifs sur les rsidus. 7.4.2 Vraissemblance dun processus ARM A (p; q) p 1 L T b ! N 0; 2 V o V = p lim ZZ 0 : T !1 T
Pour dterminer la vraissemblance, il est ncessaire de supposer connue la loi des erreurs : nous supposerons les erreurs normalement distribues. Les erreurs tant normalement distribues et indpendantes (le processus ("t ) est, par hypothse un bruit blanc), le vecteur (" 1 ; :::; " n ) est un vecteur gaussien. Les composantes du vecteur (X1 ; :::; Xn ) tant obtenues par combinaisons linaires des composantes du vecteur ("1 ; :::; "n ), (X1 ; :::; Xn ) sera un vecteur gaussien : 1 1 1 L X = (X1 ; :::; Xn )0 ; ; ; 2 = exp 2 X 0- 1 X ; 2 (2 2 )n=2 [det -]1=2
o 2- est la matrice (n n) des covariances du vecteur X = (X1 ; :::; Xn )0 . La maximisation, et mme le calcul de cette vraissemblance taient relativement dicile il y a quelques annes, en particulier cause du calcul de linverse -1 , et du dterminant, de -, surtout lorsque n devenait relativement grand. Newbold a propos une autre expression de cette vraissemblance, plus facile calculer. Soit H la matrice triangulaire infrieure, lments positifs sur la diagonale telle que HH 0 = - (dcomposition de Cholesky). Soit alors e le vecteur tel que e = H 1 X. La log-vraissemblance du modle scrit alors 1 1 1 log 2 log jdet -j X 0- 1 X; 2 2 2 2 n n 1=n 0 1=n = log (e0 e) log jdet Hj = log jdet Hj e e jdet H j : 2 2 La mthode du maximum de vraissemlance revient alors chercher le minimum de ` = jdet Hj1=n e0 e jdet Hj1=n : log L = n log 2 2 n log 2 2
Une autre criture, relativement proche est possible dans le cas des processus M A (q). Soit " le vecteur dinnitialisation des erreurs, 0 " = ("1 q; :::; " 1 ; "0 ) ; permettant dengendrer la srie x 1; :::; x n : Considrons alors les vecteurs " = (" 1q ; :::; "1 ; " 0; " 1 ; :::; " n ) et X. On peut alors crire " = N X + M "; 134
0
Arthur CHARPENTIER
o M est une matrice (n + q) q et N (n + q) n. Linitialisation des erreurs sestimant par b = (M 0M ) " et en notant 0 S () = (N X + M b ) (N X + Mb ) ; " " on peut alors montrer que la log-vraissemblance peut scrire n n 1 S () log L = log 2 log 2 log (det (M 0 M )) : 2 2 2 2 2 Et nallement, puisquon peut crire 2 = S () =n, la fonction minimiser scrit ` = n log S () + log (det (M 0 M )) :
M 0N X,
Exemple Dans le cas dun modle AR (1), de la forme Xt = c + Xt1 + "t o "t est i:i:d: et distribu suivant 84 une loi N 0; 2 , avec jj < 1, alors Xt jXt 1 s N c + Xt 1 ; 2 : Aussi, la loi conditionnelle de Xt est donne par 1 1 f x t jx t1 ; c; ; 2 = p exp 2 (xt c x t1 )2 ; 2 2 2 Xt s N (E (Xt ) ; V (Xt)) soit Xt s N c 2 ; 1 1 2 :
En posant = c; ; 2 , la vraissemblance conditionelle du modle est alors donne par L ( jX1 ; :::; XT ) = log L ( jX1 ; :::; XT ) = La vraissemblance marginale scrivant L (; X1 ) =
t= 2 T Y
" 2 # 1 2 1 2 c exp X1 ; 2 2 2 2 1
on en dduit la forme de la log-vraissemblance (exacte, et non plus conditionelle), 2 1 2 1 1 2 c log L (; X1 ; :::; XT ) = ln (2) ln X1 2 2 2 2 1 1 2
t=2
On peut noter que la maximisation de la vraissemblance exacte est un problme doptimisation non-linaire. 7.4.3 Rsolution du programme doptimisation
Une fois crite la vraissemblance, deux mthodes sont alors possibles (1) des mthodes exactes, visant mininimiser eectivement la log-vraissemblance log L, de faon numrique (2) des mthodes de type moindres carrs, visant minimiser la fonction S () dans le cas M A, le second terme dans log L n devenant ngligeable quand n augmente (mthode utilise sous EViews). Pour les modles ARM A stationnaires, les mthodes de maximisation de la vraissemblance conditionnelle, et de maximisation de la vraissemblance (exacte), sont asymptotiquement quivalentes. Lexplication heuristique est que pour les modles stationnaires, leet des valeurs initiales devient asymptotiquement ngligeable, alors que dans le cas o des racines du polynme charactristique sont sur le cercle unit, les valeurs initiales inuencent les chantillons nis.
135
Arthur CHARPENTIER
Critre des moindres carrs conditionnel (M CC ) Exemple 85 Considrons ici un modle de la forme M A (1), Xt = "t "t 1 : Cette quation peut scrire "t = x t + "t 1 , et donc, en supposant "0 = 0, "t =
t1 X i=0
i xti ; pour t 2;
(35)
et donc, la somme des carrs, conditionnelle "0 = 0 scrit S (j" 0 = 0) = Lquation permettant destimer nest pas linaire. Dans le cas gnral, pour un processus ARM A (p; q), on suppose que x1 = ::: = x p sont xs et connus, et que "p = "p+1 = :::"p+q = 0. Alors, par rcurence "t = x t
p X i=1 T X t=1
"2 t
" t1 T X X
t=1 i=0
xt i
#2
i xti +
q X
j "tj :
j= 1
La somme des carrs conditionnelle aux valeurs initiales scrit 2 32 T T p q X X X X 4x t S (j" 0 = 0) = "2 = i xti + j "tj 5 ; t
t=1 t=1 i=1 j= 1
o les "tj peuvent tre crits en fonction des x tj ; :::; xt jp et des "tj 1 ; :::; "tq . Critre des moindres carrs non conditionnel (M C N )
Exemple 86 Considrons ici un modle de la forme M A (1), Xt = "t "t 1; que lon notera, en considrant les innovations en temps invers "t , Xt = "t " t+1 : On supposant " T +1 = 0, on dtermine rcurviement "T = x T ,"T 1 = x T + "T ...etc. De faon rtrospective, on peut ainsi dir b0 = "1 : De faon anologue (35), on peut crire x En posant alors "0 = b0 , on peut obtenir les "t en utilisant (35). On obtient alors une expression (non conditionelle) x de la somme des carrs des rsidus " t1 #2 T T T X X X X 2 i t i S () = "t == xti xi :
t=1 t=1 i=0 i= 1
x0 = b
T X t=1
t xT :
L encore, lquation permettant destimer nest pas linaire. Un des problmes de cette mthode est que, dans le cas de processus comprenant une part autorgressive, les valeurs initiales doivent tre obtenues, thoriquement, en 1. Ceci impose de faire une approximantion sur la base dun critre darrt portant sur la convergence numrique de la rcurrence. Critre du maximum de vraissemblance conditionelle (M V ) Pour utiliser la mthode du maximumum de vraissemblance, il ncessaire de faire des hypothses sur la loi des "t : ce sont des variables indpendantes, et de est mme loi N 0; 2 . La vraissemblance conditionnelle est obtenue de la faon suivante : 0 La densit de " = ("1 ; :::; "T ) est donne par ! T 1 1 X 2 f ("1 ; :::; "T ) = exp 2 " : T =2 2 t=1 t (2 2 ) On supposera connues les valeurs initiales x et " . La densit de x peut sexprimer conditionellement " et x : 136
Arthur CHARPENTIER
Programme doptimisation Nous allons ici nous limiter un cas simple, dun modle M A (1), avec un critre de type M C C. On part dune valeur initiale 0 , et on va mettre en place un algorithme convergent vers la vraie valeur . A la i + 1-me tape, on estime i+1 en fonction de i en utilisant @S () S ( i+ 1 ) = S (i ) + [i+1 i ] g ( ) o g ( ) = ; @ = o est compris entre i et i+1 . Aussi, on minimise la fonction S () en choisant i+1 de telle sorte que i soit de signe oppos au gradient de S () en . Mais comme est inconnu, on choisit i+1 = i g (i ) avec > 0 et ainsi, S ( i+1 ) < S (i ). Le gradient, sil est dicile valuer peut tre remplac par une dirence de la forme [S ( i + ) S ( i)] = avec petit. Ces deux constantes et , propres lalgorithme, peuvent tre xe initialement, par exemple = 0:001 et = 0:01. Exemple 87 Considrons un cas relativement simple avec 6 observations (5; 6; 3; 2; 7; 6), et cherchons tel que Xt = "t + "t1 : (i) (i) (i) 0 = 0 et 0 + = 0:01. Alors S ( 0 ) = 52 + 6 2 + ::: + 7 2 + 6 2 = 159. Alors X1 = 5, X2 = X2 + ( 0 + ) X1 = (i) (i) 6 + 5 0:01 = 6:05, X3 = X3 + ( 0 + ) X2 = 3 + 6:05 0:01 = 3:06, :::etc. Do la somme S ( 0 + ) = 161:225. Aussi, on obtient g (0 ) = 222:458 do nallement 1 = 0:222. Cet algorithme se rpte ltape suivante, et les rsultats sont alors itration i 0 1 2 3 4 5 6 i i + i i + i i + i i i i i i i i i 0:000 0:010 0:222 0:212 0:524 0:514 0:706 0:696 0:821 0:811 0:880 0:870 0:900 0:890 1 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 5:000 2 6:000 6:050 4:888 4:988 3:378 3:478 2:472 2:572 1:896 1:996 1:600 1:700 1:501 1:601 3 3:000 3:061 1:913 2:001 1:229 1:271 1:256 1:271 1:444 1:442 1:592 1:582 1:649 1:636 4 2:000 2:031 1:575 1:606 1:356 1:377 1:114 1:146 0:815 0:861 0:599 0:654 0:516 0:575 5 7:000 7:020 6:650 6:679 6:289 6:312 6:214 6:223 6:331 6:322 6:473 6:451 6:536 6:509 6 6:000 6:070 4:521 4:651 2:702 2:823 1:616 1:742 0:804 0:945 0:303 0:457 0:119 0:279 S (i ) 159:00 161:22 119:68 122:70 86:61 88:42 75:16 76:31 72:07 72:66 72:44 72:64 72:97 73:01 g ( i) 222:46 302:02 181:06 115:23 59:32 19:73 4:01 i+1 0:222 0:524 0:706 0:821 0:880 0:900 0:905
En allant jusqu ltape 10, on obtient = 0:905. Dans le cas des modles moyennes mobiles (M A), lalgorithme du ltre de Kalman peut tre utilis, en considrant que "t (ou "t 1) est inobservable. La mthode destimation est alors la suivante : (Yt ) suit un modle de la forme Y t = + "t + "t1 o "t est i:i:d: et suit une loi N 0; 2 , avec jj < 1. La fonction de vraissemblance conditionnelle est Yt j"t1 s N + "t 1 ; 2 et 1 1 2 2 f yt j"t1 ; ; ; = p exp [Y t "t1 ] 2 2 2 Le problme est que "t1 est inobservable. Le raisonnement est alors le suivant : - on suppose que "0 = 0, alors Y 1 j"0 s N ; 2 - Y1 = + " 1 + " 0 = + " 1 donc "1 = Y1 - Y2 = + " 2 + " 1 donc "2 = Y2 (Y1 ) - ... - Yt = + "t + "t1 et donc "t = (Yt ) (Yt 1 ) + ::: + ()
t1
(Y 1 )
(36)
(on peut reconnatre la version tronque de la reprsentation AR (1) du processus M A (1)) La log vraissemblance conditionelle est T T T 1 X 2 ln (2) ln 2 2 " o " t est donne par (36) 2 2 2 t=1 t 137
Arthur CHARPENTIER
Complments : introduction au ltre de Kalman Un modle espace-tat est dni par le systme dquation Zt+1 = At Zt + "t : quation dtat 0 o ("t; t ) est un bruit blanc normal Y t = C tZ t + t : quation de mesure o At et C t sont dterministes, o Z0 s N (m; p) est indpendant des (" t; t )0 . Les variables peuvent ici tre de dimension suprieure 1. La matrice de variance-covariance "t V ("t ) cov ("t; t ) V =-= t cov ("t ; t ) V ( t) On dira alors 8 > (Zt ) : tat du systme la date t : inobservable > > > (Y t ) : observations du systme la date t : observable > > > > (" t) : innovations du systme la date t : inobservable < ( ) : erreurs de mesure (ou bruit ) en t : inobservable > t > (At ) : matrice de transition > > > > (C t ) : matrice de mesure > > : (C t Zt) : signal la date t
b Le ltre de Kalman permet de calculer t Zt = E (Zt jY 0 ; :::; Y t ) la prvision de Zt : On notera 8 0 > =E Z Z bt Zt t Zt b > t t : erreur quadratique du ltre sur Zt en t > t t > < b Z = E (ZtjY 0 ; :::; Yt 1 ) : prvision de Zt faite en t 1 > t1 t 0 > > > t1 t = E Zt t1 Zt Zt t1 Zt b b : : erreur quadratique moyenne de prvision Dans le cas o cov ("t ; t) = 0, alors, pour tout t 0, le ltre de covariance, h i ( 0 b b b (a) t Zt = t1 Zt + Kt Y t Ct :t1 Zt (a ) t t = [I Kt Ct ]t1 t et (b 0) t t+1 = At :t t :A0 + Q bt+1 = At:t Zt b t (b) t Z
0 K t =t 1 t :C t (Ct :t1 t:C 0 + R) t 1
On peut alors en dduire directement les formules de calcul de prvisions de la variable observe : soit b E (Y t jY 0 ; :::; Y t1 ) et t1 Mt = V Y t t1 Y t alors (c) (c0 ) b b = Ct+1 :tZ t+1 0 M t+1 = Ct+1 :t t+1 :C t+1 + R t
t Y t+1
t1 Y t
b =
Dans le cas dit stationnaire, cest dire quand At = A et C t = C alors le modle se rcrit Z t+1 = AZt + " t Y t = CZt + t b Le ltre doit tre initialis, et on prend gnralement 1 Z0 = E (Z0 ) = m et 1 0 = V (Z0 ) = P . De faon b b rcursive, on peut alors calculer les t Zt laide de (a) et (a0 ) ; puis t t et t Yt+1 laide de (b) et (b 0 ), ainsi que de (c) et (c0 ).
Remarque 55 Dans le cas o les bruits sont corrls, des mthodes similaires peuvent tre utilises, en introduisant le rsidu de la rgression de ("t ) sur ( t ). Pour une prvision lordre h, on introduit une seconde itration : on cherche 8 ( < tM t+ h = V t Yt+ h Yt+ h b b Yt+ h = E (Y t+h jY 0 ; :::; Y t ) t et b b : t Zt+h = E (Zt+h jY0 ; :::; Y t ) =V Z Z
t t+h t t+ h t+h
138
Arthur CHARPENTIER
(pour h = 1 on retrouve le ltre de covariance ). Dans le cas o cov ("t ; t) = 0, on a les formules de rcurrence ( 0 b b t Yt+ h = C t+h :t Zt+h t M t+h = Ct+h : t t+h :Ct+ h + R et b b t t+h = At+h +1 : t t+h1 :At+h 1 + Q t Zt+h = At+ h1 : tZt +h1 La procdure itratif prend alors la forme suivante : b (i) initialisation : t = 0, h = 1, on pose 1 Z0 = E (Z0 ) = m et 1 0 = V (Z0 ) = P (ii) formules (a) et (a0) (iii) formules (b) et (b0 ), et (c) et (c0 ) (iv) si h < H (horizon de prvision ), alors h = h + 1 et (iii) ; sinon (v) (v) si t < T alors t = t + 1 et h = 1, observation de Y t+1 , et (ii), sinon n
b b b Remarque 56 De faon analogue, on peut utiliser le ltre dinformation, bas sur t Ut =t 1 :t Zt et t Ut+1 = t t b 1 :t Zt+1 , et on alors les relations t+1 ( () () 1 o M t = N t Nt + Q 1 et N t = A0 1 :t 1 :A1 . t t t 7.4.4 b =t 1 Ut + C 0 R1 Y t b t 01 b b : t Ut t Ut+1 = [I M t] A
t Ut t
et
(0 0)
1 0 = t1 1 + Ct R1 C t t t t 1 t t+ 1 = [I M t ] N t
Aprs avoir estim les paramtres p et q dun modle ARM A, il convient de vrier que les polynmes AR et M A ne possdent pas de racine commune. Lorsque cest le cas, il y a redondance, ce qui peut conduire des erreurs lors des prvisions. Il convient alors destimer les paramtres processus ARM A avec moins de retards (ou dautres types de retards). Comme lors dune regression linaire, un certain nombre dindicateurs sont intressants. Par exemple le test de Student des paramtres permet de vrier que les paramtres sont bien signicatifs. Il convient ensuite de vrier que le processus "t est eectivement un bruit blanc. Par exemple, pour vrier que p la moyenne est nulle, on compare la moyenne " t=2 b = n p q dans le cas dun processus p + q. Pour tester labsence dautocorrlation de "t , il est possible dutiliser la statistique de Box & Pierce (Q) ou la statistique de Ljung & Box (Q 0) dnies par k k X X r2 i Q (k) = n r2 et Q0 (k) = n (n + 2) ; i ni i=1 i=1 qui sont comparer aux quantiles du chi-deux k (p + q) degrs de libert (lhypothse H0 teste tant (1) = ::: = (h) = 0).
7.5
7.5.1
Comme nous le verrons par la suite, dans un modle ARM A, lerreur de prvision horizon 1 dpend de la variance du rsidu. On peut alors choisir le modle conduisant la plus petite erreur de prvision. Plusieurs indicateurs sont alors possibles : (i) la variance du rsidu 2, ou la somme des carrs des rsidus SCR (ii) le coecient de dtermination R2 , correspondant une normalisation de la variance 2 (iii) le coevient de dtermination modi R (iv) la statistique de Fisher (comme dans le cas du modle linaire) Le but est alors de minimiser (i), ou de maximiser (ii) ; (iii) ou (iv). Exemple 88 Dans lexemple ci-dessous, considrons les 2 modles suivants : un modle ARM A (1; 1) gauche, ou
139
Arthur CHARPENTIER
R -squared 0.183040 Adjusted R-squared 0.182877 S.E. of regression 1.008651 Sum squared resid 5083.836 Log likelihood -7135.336 Durbin -Watson stat 2.002189 Inverted AR Roots Inverted MA Roots .77 .46
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
R -squared 0.183303 Adjusted R-squared 0.182812 S.E. of regression 1.008569 Sum squared resid 5077.916 Log likelihood -7129.642 Durbin -Watson stat 1.999789 Inverted AR Roots .73
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) -.02+.39i -.02 -.39i
soit
[1] [2]
R 0:18287 0:17455
Le modle [1] semble meil leur que le modle [2] : la variance du rsidu est plus faible, mais de plus, les trois autres indicateurs sont plus levs dans le premier cas que dans le second. 7.5.2 Critre dinformation
Cette approche a t introduite par Akake en 1969. Cette mesure de lcart entre le modle propos et la vraie loie peut tre obtenue laide de la quantit dinformation de Kullback. Dnition 46 Soit f 0 la densit inconnue dobservations, et ff (:) ; f 2 F g la famille des densits parmi lesquelles ont fait lestimation. Lcart entre la vraie loi et le modle est donn par Z f 0 (x) I (f 0 ; F) = min log :f 0 (x) dx f 2F f (x) Cette quantit est toujours positive, et ne sannule que si f0 appartient F . Cette mesure tant inconnue puisque b f 0 est inconnue, on essaiera de minimiser un estimateur de I, I. Plusieurs estimateur de la quantit dinformation ont t propos, dans le cas de modles ARM A (p; q), partir de T observations, (i) Aikake (1969) : p+q 2 AIC (p; q) = log + 2 b T (ii) Schwarz (1977) : log T BIC (p; q) = log b 2 + [p + q] T (iii) Hanna-Quinn (1979) : (p; q) = log 2 + [p + q] c b log (log T ) avec c > 2 T
Exemple 89 En reprenant lexemple prcdant un critre dAkake (AIC sous EViews) de 0:017628 pour le modle ARM A (1; 1) contre 0:027968 pour le modle AR (4) : Ici encore, le modle ARM A est prfr au modle AR.
7.6
Application
Nous allons essayer ici de modliser la srie mensuelle du nombre de voyageurs SNCF. 140
Arthur CHARPENTIER
7.6.1
20
40
60
80
Compte tenu de la signicativit des premires autocorrlations (ou tout du moins le fait quelles sont signicativement non-nulles pour les 40 premiers retards) suggre de direncier au moins un fois la srie,
1000
500
-500
La srie Y t = (1 L) Xt prsente alors de fortes corrlations pour les retards multiples de 12 (nous retrouvons ici la saisonnalit annuelle longuement dveloppe dans les premires parties )
600 400 200 0 -200 -400 -600 -800 20 40 60 80 100 120 140 160 180 200 Z
La srie Zt = 1 L12 Yt = (1 L) 1 L12 Xt semble cette fois-ci stationnaire. Nanmois, la prsence de fortes valeurs pour (1) et (12) suggre dintroduire une moyenne mobile de la forme (1 1 L) 1 2 L12 . Ce type de reprsentation est conrm par la forme de lautocorrlogramme partiel : une modlisation de type AR ncessiterait dintroduire un trop grand nombre de termes (les 5 premires valeurs de lautocorrlogramme partiel tant signica tivement non-nulles). De plus, la moyenne mobile (L) = (1 1 L) 1 2 L12 scrit (L) "t = "t 1 "t 1 2 "t12 + 1 2 "t13 admettant des autocorrlations (h) non nulles pour h = 1; 11; 12; 13 (ce qui est conrm par le graphique des autocorrlations). 141
Arthur CHARPENTIER
Enn, lhypothse de processus centr (ne ncessitant pas dintroduire - a priori - de constance ou de tendance linaire) semble galement valide. En eet, lamoyenne des Zt vaut 0:157, avec un cart-type empirique valant 169: Sous SAS, ltude de la srie Zt = (1 L) 1 L12 Xt est la suivante :
ARIMA P r o c e d u r e Name o f v a r i a b l e = Z . Mean o f w o r k i n g s e r i e s = - 0 . 1 5 7 0 7 Standard deviation = 168.8279 Number o f o b s e r v a t i o n s = 191 Autocorrelations Lag Covariance C o r r e l a t i o n 0 28502.844 1.00000 1 -11527.504 -0.40443 2 -1271.936 -0.04462 3 -3278.476 -0.11502 4 1546.474 0.05426 5 262.944 0.00923 6 3733.456 0.13099 7 -4948.216 -0.17360 8 -130.960 -0.00459 9 1868.662 0.06556 10 294.871 0.01035 11 5193.622 0.18221 12 -11223.638 -0.39377 13 5065.270 0.17771 14 240.957 0.00845 15 -734.637 -0.02577 16 1448.290 0.05081 17 2045.000 0.07175 18 -5334.294 -0.18715 19 3949.733 0.13857 20 -2654.638 -0.09314 21 2322.265 0.08147 22 294.898 0.01035 23 -3150.481 -0.11053 24 725.116 0.02544 -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | |********************| | ********| . | | . *| . | | .**| . | | . |* . | | . | . | | . |*** | | ***| . | | . | . | | . |* . | | . | . | | . |**** | | ********| . | | . |**** | | . | . | | . *| . | | . |* . | | . |* . | | ****| . | | . |***. | | . **| . | | . |** . | | . | . | | . **| . | | . |* . | " . " m a r k s two s t a n d a r d e r r o r s Inverse Autocorrelations Lag Correlation 1 0.73489 2 0.63096 3 0.56496 4 0.46772 5 0.41320 6 0.32447 7 0.35323 8 0.32481 9 0.26680 10 0.27313 11 0.27810 12 0.33334 13 0.19712 14 0.16505 15 0.16600 16 0.10828 17 0.09897 18 0.10339 19 0.10580 20 0.10422 21 0.06369 22 0.06875 23 0.06838 24 0.04596 -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 | . |*************** | | . |************* | | . |*********** | | . |********* | | . |******** | | . |****** | | . |******* | | . |****** | | . |***** | | . |***** | | . |****** | | . |******* | | . |**** | | . |*** | | . |*** | | . |**. | | . |**. | | . |**. | | . |**. | | . |**. | | . |* . | | . |* . | | . |* . | | . |* . | Squared Canonical Correlation Estimates Lags AR AR AR AR AR AR 0 1 2 3 4 5 MA 0 0.1652 0.0641 0.0918 0.0489 0.0335 0.0008 MA 1 0.0020 0.0092 0.0081 0.0001 0.0160 0.0167 MA 2 0.0136 0.0106 0.0057 0.0058 0.0075 0.0282 MA 3 0.0031 0.0015 0.0111 0.0135 0.0282 0.0165 MA 4 0.0001 0.0020 0.0172 0.0083 0.0046 0.0073 MA 5 0.0180 0.0145 0.0276 0.0041 0.0001 0.0015 Std 0 0.072357 0.083357 0.083482 0.084307 0.084490 0.084495 0.085552 0.087377 0.087378 0.087635 0.087642 0.089603 0.098246 0.099915 0.099919 0.099954 0.100089 0.100358 0.102169 0.103148 0.103587 0.103922 0.103928 0.104541 Partial Autocorrelations L a g C o r r e l a t i o n -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 -0.40443 | ********| . | 2 -0.24890 | *****| . | 3 -0.30362 | ******| . | 4 -0.21520 | ****| . | 5 -0.17387 | ***| . | 6 0.03620 | . |* . | 7 -0.12206 | .**| . | 8 -0.15158 | ***| . | 9 -0.04777 | . *| . | 10 -0.05286 | . *| . | 11 0.25287 | . |***** | 12 -0.24737 | *****| . | 13 -0.04140 | . *| . | 14 -0.02084 | . | . | 15 -0.19385 | ****| . | 16 -0.03095 | . *| . | 17 0.06008 | . |* . | 18 -0.02038 | . | . | 19 0.01299 | . | . | 20 -0.13278 | ***| . | 21 0.05178 | . |* . | 22 0.03507 | . |* . | 23 -0.02833 | . *| . | 24 -0.13250 | ***| . | A u t o c o r r e l a t i o n Check for W h i t e N o i s e T o Lag 6 12 18 24 Chi Square DF Prob 38.73 6 0.000 -0.404 84.40 12 0.000 -0.174 100.19 18 0.000 0.178 110.46 24 0.000 0.139 Autocorrelations -0.045 -0.115 -0.005 0.066 0.008 -0.026 -0.093 0.081 0.054 0.009 0.131 0.010 0.182 -0.394 0.051 0.072 -0.187 0.010 -0.111 0.025
SCAN Chi-Square[1] Lags AR AR AR AR AR AR 0 1 2 3 4 5 MA 0 0.0001 0.0004 0.0001 0.0022 0.0116 0.6949 MA 1 0.5912 0.2884 0.3162 0.9271 0.1357 0.1124
P r o b a b i l i t y Values MA 3 0.5150 0.6334 0.3337 0.1913 0.1560 0.1577 MA 4 0.9120 0.6320 0.1404 0.3314 0.4376 0.3767 MA 5 0.1168 0.1781 0.1356 0.4683 0.9981 0.6829
Nous retrouvons lautocorrlogramme et lautocorrlogramme partiel tel que nous lavions obtenu sous E V iews. SAS fournit galement les autocorrlations inverse de Zt . La sortie de la procdure ESAC F est la suivante
Extended Sample Autocorrelation Function Lags AR AR AR AR AR AR 0 1 2 3 4 5 M 0 A -0.4044 -0.4658 -0.5064 -0.4882 -0.4944 0.1513 M 1 A -0.0446 0.1111 -0.5251 -0.0734 -0.0310 -0.2850 M 2 A -0.1150 -0.1610 -0.2854 0.1699 0.1540 -0.2818 M 3 A 0.0543 0.0659 0.0290 -0.2394 -0.3410 -0.4169 M 4 A 0.0092 -0.0008 0.0358 -0.0683 -0.3258 -0.3271 M 5 A 0.1310 0.0831 0.1000 0.0560 -0.0023 -0.0197
ESACF Probability Values Lags AR AR AR AR AR AR 0 1 2 3 4 5 M 0 A 0.0001 0.0001 0.0001 0.0001 0.0001 0.0391 M 1 A 0.5924 0.2338 0.0001 0.3873 0.7201 0.0001 M 2 A 0.1683 0.0471 0.0002 0.0558 0.0791 0.0001 M 3 A 0.5199 0.4580 0.7209 0.0089 0.0001 0.0001 M 4 A 0.9131 0.9924 0.6767 0.4434 0.0011 0.0010 M 5 A 0.1211 0.3614 0.2676 0.5225 0.9823 0.8555
ARMA(p+d,q) Tentative Order Selection T e s t s (5% Significance Level ) SCAN p+d 0 5 q 1 0 ESACF p+d 0 2 5 q 2 3 5
7.6.2
Le modle retenu est un modle ARIM A; ou SARIM A, de la forme (1 L) 1 L12 Xt = (1 1 L) 1 2 L12 " t o E (" t) = 0 et V ("t ) = 2
142
Arthur CHARPENTIER
Les trois paramtres estimer sont 1 ; 2 et 2 . Une mtho de base sur les moindres carrs permet destimer les 3 paramtres de " t " t1 "t 12 + " t13 :
Conditional Least Squares Estimation Approx. Std Error 0.04023 0.06872
LS // Dependent Variable is Z Sample: 14 204 Included observations: 191 after adjusting endpoints Convergence achieved after 8 iterations Variable MA(1) MA(12) MA(13) Coefficient -0.768737 -0.475989 0.415363 Std. Error 0.046718 0.062662 0.060472 T-Statistic -16.45476 -7.596094 6.868676 -0.157068 169.2716 9.651690 9.702773 83.82096 0.000000
To Lag 6 12 18 24 30 36
V a r i a n c e E s t i m a t e = 15407.0492 S t d E r r o r E s t i m a t e = 124.125135 AIC = 2385.75684* SBC = 2392.26138* Number o f R e s i d u a l s= 191 * Does not include log determinant . Correlations of the Estimates Parameter MA1,1 MA2,1 MA1,1 1.000 -0.030 MA2,1 -0.030 1.000
R-squared 0.471378 Adjusted R-squared 0.465755 S.E. of regression 123.7241 Sum squared resid 2877839. Log likelihood -1189.754 Durbin-Watson stat 1.792060 Inverted M A Roots
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) .88 -.06i .88+.06i .81+.48i .81 -.48i .46 -.82i .46+.82i -.00+.94i -.00 -.94i -.47+.82i -.47 -.82i -.82 -.47i -.82+.47i -.94
A u t o c o r r e l a t i o n Check of R e s i d u a l s Chi Square DF 7.49 4 13.95 10 19.61 16 22.54 22 26.98 28 34.07 34 Autocorrelations Prob 0.112 0.148 0.175 -0.157 0.238 0.075 0.428 -0.040 0.520 0.088 0.465 0.031 -0.036 -0.062 0.054 -0.085 0.033 -0.004 -0.118 0.022 -0.017 0.024 0.029 0.039 0.022 -0.029 -0.005 0.042 -0.003 -0.128 -0.022 -0.049 -0.023 0.035 0.023 -0.037 0.006 0.094 -0.074 -0.006 0.150 0.034
Toutefois, cette estimation ( gauche, sous EViews ) ne permet pas dintgrer la contrainte = . prcdure ARIMA sous SAS permet de prendre en compte ce genre de modle ( droite).
Toutefois, la
Remarque 57 La procdure ARIMA intgre une dclaration ESTIMATE permattant destimer des paramtres dun modles ARIM A (p; d; q). Parmi les options de cette dclaration, il est possible de choisir les options suivantes, P et Q. Par exemple, en demandant P=(1,2,5)(6,12) on peut estimer les paramtres ; ; ; et pour un modle AR de la forme 1 L L2 L5 1 L6 L12 = " t Remarque 58 Il est ncessaire dutiliser sous SAS loption noconstant de la dclaration ESTIMATE an de ne pas avoir de constante dans la rgression. Do nallement le modle, (1 L) 1 L12 Xt = 1 0:8344 L
(0:0402)
On peut tout dabord noter que les rapports de Student des 2 paramtres 1 et 2 sont respectivment 21 et 7 ( 1:96) : ce deux coecients sont signicatifs. Comme le montre la sortie SAS prsente auparavant, pour les seuils h = 12; 24 et 36, les statistiques Q (h) valaient respectivement 13:95, 22:54 et 34:07, alors que les quantiles de la loi du chi-deux 5% sont respectivement (pour 10; 22 et 34 degrs de libert) 18; 34 et 46. Puisque Q h 1 , on accepte lhypothse de test de bruit blanc sur les rsidus. Toutefois, il serait bien sr possible damliorer le modle. En particulier, on peut noter que les rsidus prsentent des pics au niveau de lautocorrlogramme pour les h multiples de 6.
143
Arthur CHARPENTIER
(Source: Les Formidables Aventures de Lapinot, Blacktown, de Lewis Trondheim, Dargaud, 2000)
144
Arthur CHARPENTIER
Dans toute statistique, linexactitude du nombre est compense par la prcision des dcimales. (Alfred Sauvy)
Etant donne une srie stationnaire (Xt ), observe entre 1 et T , on cherche faire de la prvision horizon h, et donc prvoir XT +1 ; :::; XT +h . Tous les processus AR, M A et ARM A seront supposs mis sous forme canonique, et navoir aucune racine unit. Aussi, toutes les racines des polynmes autorgressifs et des polynmes moyennes-mobiles auront leurs racines lextrieur du disque unit. Ainsi, pour tous les processus Xt tels que (L) Xt = (L) "t , " t sera linnovation du processus Xt.
8.1
La prvision optimale la date T + 1, faite la date T est T XT +1 = E L (XT +1 jXT ; XT 1 ; :::). Aussi, T XT +1
= 1XT + ::: + p XT p
T XT +h
car (" t) est linnovation. De faon analogue, XT +h = 1 XT +h 1 + ::: + p XT +hp + "T + h, et donc E L (XT +h jXT ; XT 1 ; :::) est donn, de faon rcursive par 1 :T XT +h 1 + ::: + h 1 :T XT + 1 + h XT + ::: + p XT +h p pour h p XT +h = T 1 :T XT +h 1 + ::: + p :T XT +h p pour h > p Exemple 90 Dans le cas dun processus AR (1) tel que Xt = + Xt1 + " t alors (i) T XT +1 = + XT ; (ii) T XT +2 = + :T XT +1 = + [ + XT ] = [1 + ] + 2 XT ; (iii) T XT +3 = + :T XT +2 = + [ + [ + XT ]] = 1 + + 2 + 3 XT ; et rcursivement, on peut obtenir T XT +h de la forme h i 2 h1 + hXT : T XT +h = + :T XT +h1 = 1 + + + ::: +
Exemple 91 Une mthode alternative est de considrer le processus centr Y t = Xt =, alors Y t = Y t1 + " t. 1 Alors de faon rcursive T Y T +h = :T Y T +h , et donc T Y T +h = h Y T . Aussi, on peut crire 1 h h + XT = + h XT : T XT +h = 1 | {z }
1++2+: ::+h1
8.2
On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant Xt = " t + 1 "t 1 + ::: + q "tq = (L) "t :
La prvision optimale la date T +1, faite la date T est T XT +1 = E L (XT +1 jXT ; XT 1 ; :::) = E L (XT +1 j"T ; "T 1 ; :::) car (" t) est le processus dinnovation. Aussi, T XT +1
= 0 + 1 "T + ::: + q "T +1 q = E L (XT +h jXT ; XT 1 ; :::) = EL (XT +h j"T ; "T 1 ; :::), et donc (37)
T XT +h
Toutefois, cette mthode prsente le dsavantage destimer XT +h partir des rsidus passs, a priori non observables, et non pas du pass de la variable. 145
Arthur CHARPENTIER
8.2.1
1 X
k=1
T XT +h =
ak :T XT + hk +
1 X
ak Xt+h k
k=h
Toutefois, un des problmes est que les (Xt ) ne sont pas observs, en pratique, pour t < 0. On utilise alors lcriture suivante 1 h 1 1 X X X XT +h = ak XT +hk + "t+h = ak XT +h k + ak XT +h k + " T +h ;
k=1 k=1 k=h Re st e d u ne s rie A CV
o le reste de la srie absolument convergente tend (au sens de L2 ) vers 0 quand T ! 1. On peut alors considrer, quand T est susement grand que
T XT +h = h1 X k=1 ak :T XT +h k + T +h X k=h
{z
ak XT +h k + |
T +h X k=h
k= T +h +1
1 X
ak XT +hk ; {z }
N g lige ab le (h yp .)
b et on approxime T XT +h par T XT +h
8.2.2
b T XT +h =
h 1 X k=1
b ak :T XT +hk +
ak XT +hk :
XT +1 T XT + 1 = "T +1 :
La relation (37) permet dobtenir une estimation, la date T de XT +h . En se plaant la date T + 1, on peut noter que T + 1 XT +h =T +1 X(T +1)+( h1) et donc
T +1 XT +h =
et donc, pour h q + 1
T +1 XT +h
8.3
On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant (L) Xt = (L) "t Remarque 59 Dans le cas dun processus non centr, (L) Xt = + (L) "t , on peut noter que EXt = = (1) = m, et que (L) (Xt m) = (L) "t . Il est donc toujours possible, en translatant le processus, de se ramener un processus centr (pour des processus ARM A seulement).
146
Arthur CHARPENTIER
iXti + "t +
q X
j= 1
p X i=1
i Xt+h i + "t+ h +
q X j=1
j " t+hj :
On a alors T XT +h = EL (XT + hjXT ; XT 1 ; :::) = E L (XT +h j"T ; "T 1 ; :::) car "t est le processus dinnovation. On peut noter que pour h > q 1 :T XT +h 1 + ::: + h1 :T XT +1 + h XT + ::: + p XT +h p pour h p XT +h = T +1 1 :T XT +h 1 + ::: + p :T XT +h p pour h > p:
La forme gnrale des solutions est connue (comme dans le cas des AR (p)). dinitialisation des calculs. 8.3.1 Utilisation de la forme AR (1) pu processus ARM A (p; q)
Lquation (L) Xt = (L) "t peut se rcrire 1 (L) (L) Xt = "t , cest dire, comme dans le cas des processus M A (q), 1 1 X X Xt = ak Xtk + "t et donc Xt+h = ak Xt+h k + "t+h pour tout h 0;
k= 1 k=1
et de la mme faon que pour la modlisation AR (1) des processus M A (q), on peut rcrire XT +h =
1 X
ak XT + hk + "t+h =
k=1
h1 X k=1
ak XT +h k +
k=h
n glig e ab le d an s L2
do la forme itrative, obtenue par approximation, en ne tenant pas compte du second terme, ngligeable dans L2 , b T XT +h =
h 1 X k=1
1 X
ak XT +h k + " T + h; {z }
8.3.2
Utilisation de la forme M A (1) pu processus ARM A (p; q) et des formules de mise jour
1
b ak :T XT +hk +
T +h X k=h
ak XT +hk :
b j "tj :
Puisque23 L2 (Xt ; Xt1 ; :::) = L2 (" t; "t 1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::) = EL (XT +h j"T ; "T 1 ; ::: soit 1 X XT +h = b j " t+hj : T j=h
De plus, puisque
T + 1XT +h
T +1 XT +h
8.4
On considrons ici (Xt ) satisfaisant une quation de la forme (L) (1 L) Xt = (L) "t avec les conditions initiales Z = (X1 ; :::; Xp d ; "1 ; ::; "q ) : Posons alors (L) = (L) (1 L) . La forme ARIM A (p; d; q) peut scrire
p+ d d 0
Xt =
2 3 Cette
proprit L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1; :::) est une caractrisation du fait que " t est linnovation du processus X t.
X
i=1
iXti + "t +
q X
p+d
j= 1
X
i=1
q X j=1
j "t+hj :
147
Arthur CHARPENTIER
X
i=1
i :T XT +hi
XT +h = E L (XT +h jXT ; XT 1 ; :::; X0 ; Z ). Alors 8 q X < T XT +h i = T +h i pour i h X +0+ j :T "T + hj o 0 pour j < h : T " +hj = T j=1 "T +h j pour j h T
X
i=1
i :T XT +hi :
8.4.1
Utilisation de lapproximation AR
Cette approximation est base sur la proprit (42), rappele ci-dessous, Proprit 53 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z; alors (Xt) peut scrire sous la forme AR, t X Xt = aj Xtj + f (t) Z + "t ;
j= 1
o les aj sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et f (t) est un vecteur (ligne) de fonctions de t qui tend vers 0 quand t ! 1. On peut alors crire Xt+ h = et ainsi,
t+h X
j= 1
aj Xt+h j + f 0 (t + h) Z + "t+h ;
t+ h X j=1
aj :T XT +hj + f 0 (T + h) Z + 0;
avec la convention
8.4.2
Utilisation de lapproximation M A
b T XT +h
h 1 X k=1
b ak :T XT +hk +
T +h X k=h
ak XT +hk :
De la mme faon, un processus ARIM A peut tre approxim par un processus M A, Proprit 54 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z; alors (Xt) peut scrire sous la forme M A, t X Xt = b j "tj + g 0 (t) Z; (38)
j=1
o les hj sont les coecients de la division selon les puissances croissantes de par ; et g 0 (t) est un vecteur (ligne) de fonctions de t. La relation (38) permet alors dcrire Xt+ h =
t+h X
j= 1
Puisque L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::; X0 ; Z ) = E L (XT +h j"T ; "T soit T +h X b j " T + hj + g 0 (T + h) Z; T XT +h = j=h
148
Arthur CHARPENTIER
bj "T +h j et
Do la relation
8.5
b T +1 XT +h
j=h 1
T +h X
bj "T +hj :
Cet intervalle est obtenu partir de la forme M A (1) dans le cas o (Xt) est stationnaire, ou de son approximation M A dans le cas non-stationnaire (ARIM A). (i) dans le cas stationnaire, XT +h = et donc
T h 1 X i= 0
b i"T +h i =
T +h X i=0
b i" T +h i +
i= T +h +1
1 X
b i" T +h i;
b = Xt+h T XT + h t
T +h X i=0
h X i=0
bi "T +hi :
b i "T + hi + g (T + h) Z =
bi "T +hi +
i=T +h+1
1 X
bi "T +hi + g 0 (T + h) Z;
Sous lhypothse de normalit des rsidus ("t ), H0 : "t i.i.d., " t s N 0; 2 , alors
T
b T h = Xt+h T XT + h t
h X i=0
bi "T +hi :
h =
b Xt+h T XT +h
sN
0;
h X i= 0
b2 i
o les bi sont des estimateurs des coecients de la forme moyenne mobile, et s est un estimateur de la variance du b rsidu.
b 4T XT +h u 1=2
v 3 u h uX b2 5 ; :s t b
i i=0
8.6
8.6.1
Considrons le processus stationnaire (Xt ), sous la forme gnrale Xt = 1 Xt 1 + + "t .La prvision horizon 1, fait la date T , scrit T XT +1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = 1 XT + ; et de faon similaire
T XT +2 = 1T XT +1 + = 2 XT + [1 + 1] : 1
(39)
Arthur CHARPENTIER
On peut noter que quand h ! 1, T XT +h tend vers = (1 1 ), la moyenne du processus Xt . Lerreur de prvision horizon h est donne par T
= =
T XT +h
T h
Exemple 92 Considrons le processus suivant, Xt = 5 + 0:5Xt 1 + "t o "t s N (0; 1) ; dont les dernires observations ont t 11.391, 12.748, 10.653, 9.285 et 10.738. La prvision pour la date T + 1 est alors T XT + 1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = 1 XT + = 5 + 0:5 10:738 = 10:369 1 :T XT +1 + = [Link] T XT +2 = (1 + 1 ) + 1 :XT Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle de conance horizon T XT +h b V
90% Binf 90% Bsup IC 90%
0 10:738
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation relative de lintervalle de conance,
13 12
0.2
0.1
11
0.0
10
9 8 10
-0.1
15
20
25
30
35
40
45
-0.2
10
15
20 IC
25
30
35
40 IC_SUP90
45
X BORNE_INF90
BORNE_SUP90 SIMUL1
IC_INF90
8.6.2
Considrons le processus stationnaire (Xt ), sous la forme gnrale Xt = + "t + 1 "t1 La prvision horizon 1, fait la date T , scrit
T XT +1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = + 1 "T
150
Arthur CHARPENTIER
o "T est lerreur de la dernire observation, la date T . De faon plus gnrale, on obtient rcursivement la prvision horizon h, (40) T XT +h = E (XT +h jXT ; XT 1 ; :::; X1 ) = E ( + "T +h + 1 "T +h1 ) =
Cest dire qu partir dun horizon 2, la meilleure prvision est la moyenne du processus. Lerreur de prvision horizon h est donne par T h =T XT +h XT +h = "T +h + 1 "T +h1 dont la variance est b V = 1 + 2 2 o V ("t ) = 2 1
Xt = 5 + "t 0:5"t1 o "t s N (0; 1) dont les dernires observations ont t 4.965, 5.247, 4.686 et 5.654. Pour faire de la prvision, soit on considre la forme AR (1) du processus, soit on cherche uniquement exprimer ("t ) en fonction du pass de (Xt ), ou de Y t = Xt 5, processus centr "t = = Yt + 0:5"t 1 = Y t + 0:5 [Y t1 + 0:5"t 2 ] = Y t + 0:5 [Yt 1 + 0:5 [Yt 2 + 0:5"t3 ]] = ::: 1 1 X X (0:5)i Y ti = (0:5)i [Xt i 5]
i= 0 i=0 T XT +1
La prvision pour la date T + 1 est alors = E (XT +1 jXT ; XT 1 ; :::; X1 ) = + 1 "t = 5 0:5 0:606 = 3:3049
==5
Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle de conance horizon T XT +h b V B 90% inf B 90% sup IC 90% 0 5:654 1 3:304 0:250 2:489 4:119 24:7% 2 5:000 1:250 3:178 6:822 36:4% 3 5:000 1:250 3:178 6:822 36:4% 4 5:000 1:250 3:178 6:822 36:4% 5 5:000 1:250 3:178 6:822 36:4% 6 5:000 1:250 3:178 6:822 36:4% 7 5:000 1:250 3:178 6:822 36:4%
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation relative de lintervalle de conance,
8 7
0.4
0.2
6 5 4 3 2
0.0
-0.2
10
15
20
25
30
35
40
45
X SIMUL1
BORNE_INF90 BORNE_SUP90
151
Arthur CHARPENTIER
8.6.3
Il sagit ici dun modle AR (1) pour la variable intgre Y t = Xt Xt1 , Y t = 1 Yt 1 + + " t. Aussi, la prvision horizon h = 1 est donne par T XT +1 = XT + T Y T + 1 ; et de faon plus gnrale
T XT + h = XT +T Y T +1 +T Y T +2 + ::: +T YT +h :
En substituant aux
= (1 + 1 ) XT 1 XT 1 + ;
= 1 + 1 + 2 XT 1 + 2 XT 1 + (1 + 1) + : 1 1
A horizon 2, lerreur de prvision est =T XT +2 XT +2 = T Y T +1 Y T +1 + T Y T +2 Y T +2 = (1 + 1 ) "T + 1 + "T +2 ; h i b dont la variance est V = 1 + (1 + 1 )2 2 . De faon plus gnrale, lerreur de prvision horizion h est
T 2 T
= = =
do la variance
YT +1 + T Y T + 2 Y T +2 + T Y T +1 Y T +1 + ::: + T YT +h Y T +h "T + 1 + ("T +2 + 1 "T +1 ) + ::: + "T +h + 1 "T +h1 + ::: + h2 "T +2 + h 1 "T +1 1 1 "T + h + (1 + 1 ) "T +h 1 + ::: + 1 + 1 + ::: + h 1 "T +1 ; 1
T YT + 1
Lerreur de prvision sur XT + h est alors laccumulation des erreurs de prvision de YT +1 ; :::; Y T +h . Exemple 94 Considrons le processus (Xt ) tel que Xt Xt 1 = Y t o (Y t ) vrie, Y t = 2 + 0:2Y t1 + "t o "t s N (0; 1) ; dont les dernires observations ont t 81.036, 84.074 et 86.586. Le processus (Y t) sous-jacent peut tre obtenu comme dirence entre Xt et Xt 1 . On cherche alors les prvisions de (Yt ) et les prvisions de (Xt ) correspondent la somme des (Y t ) prvus (processus intgr). (Xt ) (Y t ) 70:788
T XT +1
2 0 12 3 h i1 6X @X j A 7 2 b V =4 1 5 :
i=1 j=0
73:606 2:818
74:937 1:331
78:035 3:098
86:586 2:512
et donc
152
Arthur CHARPENTIER
Do nallement les prvisions suivantes, avec de conance horizon 0 1 YT +h 2:512 2:502 T 86:586 89:088 T XT +h b V 1:000 90% Binf 87:458 90% Bs up 90:718 IC 90% 1:8%
la variance, lintervalle de conance, et la taille relative de lintervalle 2 2:500 91:589 2:440 89:043 94:135 2:8% 3 2:500 94:089 3:978 90:838 97:340 3:5% 4 2:500 96:589 5:535 92:754 100:42 4:0% 5 2:500 99:089 7:097 94:747 103:43 4:4% 6 2:500 101:59 8:659 96:793 106:39 4:7% 7 2:500 104:09 10:22 98:878 109:30 5:0%
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation relative de lintervalle de conance,
130 120 110 100 90 80 70 30 32 34 36 38 40 42 44 46 48 X BORNE_INF90 BORNE_SUP90 SIMUL1
0.08 0.06 0.04 0.02 0.00 -0.02 -0.04 -0.06 -0.08 10 15 20 IC 25 30 35 40 IC_SUP90 45
IC_INF90
8.7
8.7.1
Application
Example de prvision : cas dcole
b o lon suppose que "t est gaussien, centr, de variance connue 2 = 0:5, avec XT = 12 et T XT +1 = E L XT +1 jXT = 10, o XT = fX1 ; :::; XT ; Zg. b La prvision horizon h faite en T est T XT +h = E XT +h jXT . b (i) estimation de T XT +h : Cette forme ARIM A scrit Xt 1 Xt 1 2 Xt2 = "t + 1 "t1 , avec une racine unit. b b b Aussi, pour h 2, on peut crire T XT +h 1 :T XT +h1 2 :T XT +h 2 = 0: Pour expliciter les solutions, on se ramne au problme suivant : recherche des suites u n telle que un = u n1 + u n2 24 . Les racines du polynme h b caractristique tant 1 et 1=2, on peut crire T XT +k = :1h + : (1=2) : Compte tenu du fait que XT = 12 et b T XT +1 = 10 on en dduit = 8 et = 4. Aussi (ii) expression de lintervalle de conance : Lintervalle de conance 95% de la prvision est de la forme " # r r b 1:96 V T X b b + 1:96 V T X b : T XT +h T +h ; T XT +h T +h b T XT +h = 8+ 4 do les premires valeurs f12; 10; 9; 8:5; 8:25; 8:125; :::g 2k
2 4 Rappel : Pour une relation rcurente u = u n n n n1 + un2 , la forme gnrale des solutions est un = r1 + r2 o r 1 et r2 sont les racines du polynme P (x) = x2 x , dans le cas o les racines sont distinctes. Dans le cas o P admet une racine double (r), la forme gnrale est un = ( + r) rn . Dans le cas o la suite est e ntirement dtermine par les valeurs initiales u1 et u2, alors et sont entirement dtermins par la rsolution du systme u1 = r1 + r 2 2 u2 = r1 + r2 2
153
Arthur CHARPENTIER
Cette variance sobtient en approximant la forme ARIM A par une forme M A (1), XT +1 XT = "T + b 1 "T 1 + b 2 "T 2 + ::: On note alors que 8 > XT +1 XT = " T +1 + b1 "T + b 2 "T 1 + ::: > < XT +2 XT +1 = "T +2 + b 1 "T +1 + b 2 "T + ::: > ::: > : XT +h XT +h 1 = "T +h + b 1 "T +h 1 + b 2" T + h2 + :::
do , par sommation, lexpression de XT +h XT et en considrant la variance (puique les "t sont identiquement distribus, de variance 2 , et surtout indpendant), h i b V T XT +h = 2 1 + (1 + b 1 )2 + (1 + b 1 + b 2 )2 + ::: + (1 + b 1 + ::: + b h )2 : Or lexpression des b i est donne par la relation B (L) = (L) 1 (L) = (1 0:8L) (1 0:5L)
1
L2 L3 B (L) = (1 0:8L) 1 + 0:5L + 0:52 L2 + ::: = 1 0:3L 0:3 0:3 2 ::: 2 2 1 = 1 0:6 1 j 2 0:6 ; 2j
= 0:4 +
Do nalement les prvisions et les premiers intervalles de conance suivant : h B95% inf B90% inf b T XT +h B90% sup B95% sup IC95% 0 1 8:040 8:360 10:000 11:640 11:960 19:6% 2 6:444 6:862 9:000 11:138 11:556 28:4% 3 5:560 6:040 8:500 10:960 11:440 34:6% 4 5:015 5:543 8:250 10:957 11:485 39:2% 5 4:639 5:209 8:125 11:041 11:611 42:9% 6 4:353 4:959 8:063 11:166 11:772 46:0% 7 4:116 4:755 8:031 11:307 11:947 48:7% 8 3:906 4:577 8:016 11:454 12:125 51:3% 9 3:715 4:416 8:007 11:600 12:301 53:6% 10 3:535 4:265 8:004 11:743 12:473 55:8%
2 h1 X 0:6 bT +h = 2 0:4 + j : TX 2
j=0
12:000
On notera bien sur cet exemple que les prvisions laide dun modle ARIM A moyen terme sont dj relativement incertaines. Graphiquement, on obtient, gauche, la prvision suivante (avec les intervalles de conance 90% et 95%), et droite, lvolution relative de lintervalle de conance en fonction de lhorizon de prvision
14 12 10 8 6 4 2 1 2 3 4 5 6 7 8 9 10 11 X BORNE_INF90 BORNE_SUP90 BORNE_INF95 BORNE_SUP95
0.6 0.4 0.2 0.0 -0.2 -0.4 -0.6 1 2 3 4 5 6 7 8 9 10 11 IC IC_INF90 IC_SUP90 IC_INF95 IC_SUP95
154
Arthur CHARPENTIER
8.7.2
Considrons ici la srie du nombre de voyageurs SNCF, et la modlisation ARIM A que nous avions pu faire, 12 12 (1 L) 1 L Xt = 1 0:8344 L 1 0:4926 L "t :
(0: 0402) (0:0687)
(41)
La srie Zt peut alors tre utilise pour faire de la prvision, laide de sa modlisation M A, sous SAS
ARIMA Procedure Forecasts for variable Z Obs 205 206 207 208 209 210 211 212 213 214 215 216 217 Forecast Std Error -56.9839 124.1251 322.5639 161.6583 43.9931 161.6583 -146.3447 161.6583 -100.0972 161.6583 56.2979 161.6583 -10.3091 161.6583 50.8267 161.6583 95.2525 161.6583 -112.7559 161.6583 -23.3419 161.6583 73.6131 161.6583 -36.8593 172.8357 Lower 95% -300.2647 5.7195 -272.8513 -463.1890 -416.9416 -260.5465 -327.1535 -266.0176 -221.5919 -429.6002 -340.1863 -243.2313 -375.6110 Upper 95% 186.2969 639.4083 360.8374 170.4997 216.7472 373.1422 306.5353 367.6711 412.0968 204.0885 293.5024 390.4574 301.8924
20
40
60
Comme nous le voyons sur cet exemple, la prvision laide dun modliation ARM A reste relativement oue, mme ici court terme (un exemple analogue sera repris plus en dtails dans la partie suivante).
155
Arthur CHARPENTIER
Nous allons ici nous intresser 2 applications de ces modles sur donnes relles. Dans une premire partie, nous allons voir comment utiliser cette mthode en assurance-vie, an de prvoir un nombre de contrats dans un portefeuille. Dans une seconde partie, nous allons voir comment utiliser cette mthode en nance, pour modliser des taux dintrt. Enn, dans une troisime partie, nous allons nous intresser lapplication de cette mthode sur des donnes simules.
9.1
Nous allons considrr ici le nombre de contrats dans un portefeuille, exprim en nombre de contrats mensuels, laide de donnes mensuelles, sur une dizaine dannes (source :Droesbeke, Fichet, Tassi (1992))
600 500 400 300 200 100 0
20
40
60
80 X
100
120
140
La srie brute (Xt ) prsente une forte saisonnalit, correspondant aux mois de septembre. En particulier 4 points se distinguent, correspondant 4 fortes campagnes de publicit faites partir de n aot. 9.1.1 Modlisation de la srie
156
Arthur CHARPENTIER
Toutefois, une tude des tests de racine unit sur la srie (Xt) aurait permi de comrmer lhypothse de stationnarit de la srie
Null Hypothesis: X has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=10) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one- sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(X) Method: Least Squares Date: 07/18/03 Time: 07:58 Sample: 80 144 Included observations: 65 Variable X(-1) C @TREND(80) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -1.108362 296.8203 -0.689283 0.540368 0.525541 104.3387 674966.5 -392.7920 1.953637 Std. Error 0.129918 43.59923 0.698095 t-Statistic -8.531272 6.807926 -0.987377 Prob. 0.0000 0.0000 0.3273 2.907692 151.4768 12.17822 12.27857 36.44527 0.000000 t-Statistic -8.531272 -4.105534 -3.480463 -3.168039 Prob.* 0.0000
Null Hypothesis: X has a unit root Exogenous: Constant, Linear Trend Bandwidth: 2 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p -values. Residual variance (no correction) HAC corrected variance (Bartlett kernel) Phillips-Perron Test Equation Dependent Variable: D(X) Method: Least Squares Variable Coefficient X (-1 ) C @TREND(80) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat -1.108362 296.8203 -0.689283 0.540368 0.525541 104.3387 674966.5 -392.7920 1.953637 10384.10 10040.64 -8.537252 -4.105534 -3.480463 -3.168039 Prob.* 0.0000
Prob. 0.0000 0.0000 0.3273 2.907692 151.4768 12.17822 12.27857 36.44527 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F statistic) -
avec le test ADF (avec constante et tendance), gauche, et le test de Philipps et Perron droite. Ces deux tests rejettent lhypothse de prsence de racine unit. Cette approche napportant rien de plus ltude de la srie, nous pouvons noter que la srie brute Xt possde de fortes autocorrlations (h) quand h est un multiple de 12. Il est donc possible dtudier la srie dsaisonnalise Zt = 1 L12 Xt
400
200
-200
Nous allons modliser cette srie (Zt ) laide dun processus ARM A: 9.1.2 Estimation de modles ARM A
Si la srie parat stationnaire, une autocorrlation reste signicativement non nulle, pour h = 12. Il peut tre intressant de considrer un modle de type M A (12) sur cette srie, [1] 1 L12 Xt = + 1 1 L12 "t
157
Arthur CHARPENTIER
tant donn que les autocorrlations entre 1 et 11 peuvent sembler ngligeables. Une mthode base sur des moindres carrs conditionnels, donne les estimations suivantes (respectivement avec et sans constante)
LS // Dependent Variable is Z Sample: 13 144 Included observations: 132 after adjusting endpoints Convergence achieved after 1 7 iterations Variable Coefficient C 2.086042 MA(12) -0.881818 R -squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat Inverted MA Roots Std . Error 1.845862 0.043054 0.258916 0.253216 56.89094 420755.3 -719.7222 1.517747 .86 -.49i .00+.99i -.86+.49i T-Statistic 1.130118 -20.48182 Prob. 0.2605 0.0000 4.750000 65.83328 8.097308 8.140987 45.41878 0.000000 .49 -.86i -.49+.86i -.99
LS // Dependent Variable i s Z Sample: 13 144 Included observations: 132 after adjusting endpoints Convergence achieved after14 iterations Variable Coefficient MA(12) -0.899009 R -squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted MA Roots Std. Error 0.032780 0.250655 0.250655 56.98839 425445.6 -720.4538 .86+.50i -.00 -.99i -.86+.50i T-Statistic -27.42595 Prob . 0.0000 4.750000 65.83328 8.093242 8.115081 1.502360 .50+.86i -.50 -.86i -.99
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) .86+.49i -.00 -.99i -.86 -.49i
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion Durbin-Watson stat .86 -.50i -.00+.99i -.86 -.50i
o la volatilit de lerreur ("t ) est estime par 57. Les rsidus, reprsents ci-dessous gauche, ont lautocorrlogramme suivant
400 200 400 300 200 -400 100 0 -100 20 40 60 Residual 80 100 Actual 120 Fitted 140 0 -200
Xt =
1 + 0:89901L
(0:0328)
12
"t
Le modle prsent est rejet : les erreurs ne suivent pas un bruit blanc. En particulier, si lon considre les autocorrlations de (Zt) la premire semble signicativement non nulle : ceci pousse tester un modle ARM A (1; 12) de la forme (1 L) Zt = 1 L12 "t , soit
LS // Dependent Variable is Z Sample: 14 144 Included observations: 131 after adjusting endpoints Convergence achieved after 13 iterations Variable Coefficient C 1.959250 AR(1) 0.238275 MA(12) -0.882966 R -squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Std. Error 2.238375 0.085711 0.039380 0.301621 0.290709 55.64982 396403.6 -710.8628 2.040467 .86+.49i .00 -.99i -.86+.49i
LS // Dependent Variable is Z Sample: 14 144 Included observations: 131 after adjusting endpoints Convergence achieved after 10 iterations Variable Coefficient AR(1) 0.247243 MA(12) -0.890845 R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Std. Error 0.084927 0.034450 0.297269 0.291822 55.60616 398873.8 -711.2697 2.049872
Prob. 0.3831 0.0063 0.0000 4.656489 66.07720 8.060792 8.126636 27.64084 0.000000 .49 -.86i -.49 -.86i -.99
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) .86 -.49i -.00+.99i -.86 -.49i
Mean dependent var S.D. dependent v a r Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
[2]
158
Arthur CHARPENTIER
L encore, lhypothse de bruit blanc des rsidus est rejete. A titre de comparaison (de la mme faon que cela est fait dans Droesbeke, Fichet, Tassi (1992)), lestimation dun modle ARM A (3; 12) donne
LS // Dependent Variable is Z Sample : 16 144 Included observations: 129 after adjusting endpoints Convergence achieved after 8 iterations Variable Coefficient AR(1) 0.203724 AR(2) 0.054332 AR(3) 0.152170 MA(12) -0.893591 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Std. Error 0.087952 0.090117 0.089481 0.034620 0.323645 0.307412 55.41111 383798.9 -698.9180 1.988017 -.22+.43i .86 -.50i .00+.99i -.86+.50i T-Statistic 2.316310 0.602907 1.700579 -25.81143 Prob. 0.0222 0.5477 0.0915 0.0000 4.558140 66.58241 8.060077 8.148754 19.93805 0.000000 .50 -.86i -.50+.86i -.99
LS // Dependent Variable i s Z Sample: 16 144 Included observations: 129 after adjusting endpoints Convergence achieved after8 iterations Variable Coefficient AR(1) 0.215663 AR(3) 0.164294 MA(12) -0.892081 R -squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots .63 Inverted MA Roots .99 .50 -.86i -.50+.86i Std. Error 0.085560 0.086724 0.034309 0.321653 0.310886 55.27198 384929.0 -699.1077 2.011660 -.21+.47i .86+.50i -.00 -.99i -.86+.50i T-Statistic 2.520598 1.894447 -26.00140 Prob. 0.0130 0.0605 0.0000 4.558140 66.58241 8.047513 8.114021 29.87288 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) -.22 -.43i .86+.50i -.00 -.99i -.86 -.50i
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic ) -.21 -.47i .86 -.50i -.00+.99i -.86 -.50i
Le modle avec des composantes AR (1), AR (3) et M A (12) est signicatif. [3] 1 0:21566L 0:16429L3 1 L12 Xt = 1 + 0:89208L12 "t
( 0:086) (0:087) (0:0343)
On peut galement noter que les racines des polynmes de la composante AR et de la composante M A sont distinctes deux deux. Toutefois, lallure des rsidus, reprsente ci-dessous, pousse encore une fois rejeter lhypothse de bruit blanc des erreurs,
400 200 400 300 200 100 0 -100 -200 20 40 60 Residual 80 100 Actual 120 Fitted 140 -400 0 -200
En revenant au modle prcdant, on peut noter la prsence dune forte autocorrlation lordre 9. On peut alors
159
Arthur CHARPENTIER
LS // Dependent Variable i s Z Sample : 14 144 Included observations: 131 after adjusting endpoints Convergence achieved after1 3 iterations Variable Coefficient AR(1) 0.214089 MA(12) -0.674685 MA(9) 0.234509 R -squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Std . Error 0.087981 0.060045 0.057176 0.333420 0.323004 54.36816 378354.7 -707.8105 1.997797 .21 .94 .50+.86i -.47+.81i .85+.46i -.03+.97i -.83+.51i
Prob. 0.3131 0.0200 0.0002 0.0000 4.656489 66.07720 8.021470 8.109262 21.68428 0.000000
Prob. 0.0163 0.0000 0.0001 4.656489 66.07720 8.014192 8.080036 32.01242 0.000000 .50 -.86i -.47 -.81i -.99
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) .85 -.46i -.03 -.97i -.83 -.51i
do le modle [4]
L encore, le mo dle est signicatif, et surtout, lhypothse de bruit blanc des rsidus est valide :
400 200 300 200 100 0 -100 -200 20 40 60 Residual 80 100 Actual 120 Fitted 140 0 -200 -400
1 0:21409L
( 0:088)
1L
12
Xt =
1 0:23450 L + 0:67498L
(0:060) ( 0:060)
12
"t
Ce modle peut alors tre utilis pour faire de la prvision. Sous SAS, nous obtenons les prvisions suivantes, sur 10 mois, pour Zt h ZT +h T volatilit
400
1 19:92 55:20
2 12:88 56:08
3 16:18 56:11
4 12:52 56:11
5 9:18 56:11
400
6 69:64 56:11
7 27:40 56:11
8 9:86 56:11
9 52:36 56:11
10 32:02 56:11
200
200
-200
-200
-400 80 85 90 95 100 105 110 115 120 125 130 135 140 VALEUR FORECAST BORNE_INF90 BORNE_SUP90
VALEUR FORECAST BORNE_INF90 BORNE_SUP90
On peut alors noter que T XT +h = T XT + h12 + T ZT + h. De plus, variable Xt peut alors tre prdite en utilisant la la 9 12 forme M A (1) du processus Zt : (1 L) Zt = 1 L L "t . Ainsi,
Zt
= =
1 1 (1 L) 1 L9 L12 = (1 0:21409:L) 1 0:23450:L9 + 0:67498:L12 " t 1 0:23450:L9 + 0:67498:L12 1 + [Link]L + 0:2141 2 :L2 + 0:21413 :L3 + ::: "t 160
Arthur CHARPENTIER
le polynme M A B (L) scrit alors 8 > 1 > 1 < X 0:2141 i i B (L) = b iL o bi = > 0:2141 i 0:2141i9 0:2345 > i= 0 : 0:2141 i 0:2141i9 0:2345 + 0:2141 i 12 0:6745
La variance de la prvision T XT +h est alors donne par
i=0 1i8 9 i 11 11 i
h 1 X 2 XT +h = 2 [1 + b 1 + ::: + b j ] T j=0
T XT +h
1 117:08 54:37
2 177:12 85:52
3 241:18 109:57
4 173:48 129:50
5 172:18 146:81
800 600
6 234:36 162:29
7 173:4 176:41
8 167:86 189:49
9 255:36 201:73
10 277:02 209:47
400 200
400 200
-200
80
85
90
95 100 105 110 115 120 125 130 135 140 VALEUR FORECAST BORNE_INF90 BORNE_SUP90
9.2
Nous allons considrr ici les taux 3 mois du trsor amricain (source :Pindyck et Rubinfeld (1998)), donnes mensuelles, de Janvier 1960 Mars 1996
20 16
12
8 4
0 60
65
70
75
80 X
85
90
95
161
Arthur CHARPENTIER
Lautocorrlogramme de la srie bute des taux (Xt ) permet de se rendre compte rapidement que la srie nest pas stationnaire. La srie direncie Y t = Xt Xt1 a lallure suivante
4 2 0 -2 -4 -6 60
65
70
75
80 Y
85
90
95
La srie ainsi forme semble stationnaire. A titre comparatif, la srie Zt obtenue en direnciant 2 fois donne des rsultats ne semblant pas signicativement dirents
4 2 0 -2 -4 -6 60
65
70
75
80 Z
85
90
95
Aussi, direncier 1 fois sut pour obtenir un modle stationnaire. 9.2.1 Modlisation de la srie
Compte tenu de lallure des autocorrlogrammes de Yt , nous pouvons penser modliser la srie Xt par un processus ARM A (p; q). La mthode du coin, dcrite auparavant, donne le tableau - suivant inj 1 2 3 4 5 6 9.2.2 1 0:272 0:116 0:102 0:042 0:055 0:180 2 0:189 0:041 0:006 0:007 0:004 0:043 3 0:007 0:006 0:003 0:002 0:005 0:012 4 0:024 0:001 0:001 0:002 0:002 0:003 5 0:041 0:003 0:001 0:003 0:001 0:001 6 0:148 0:040 0:011 0:003 0:001 0:000
Lestimation donne les rsultats suivants (la constante tait clairement non signicative), 1 + 0:324 L Yt = 1 + 0:662 L "t
(0: 105) ( 0:083)
162
Arthur CHARPENTIER
LS // Dependent Variable is Y Sample : 1960:01 1996:03 Included observations: 435 Convergence achieved after 4 iterations Variable AR(1) MA(1) Coefficient -0.324261 0.662163 Std . Error 0.104881 0.082710 T-Statistic -3.091706 8.005835 0.000892 0.546661 -1.320703 -1.301966 55.08189 0.000000 Prob . 0.0021 0.0000
R-squared 0.112854 Adjusted R-squared 0.110805 S.E. of regression 0.515486 Sum squared resid 115.0593 Log likelihood -327.9853 Durbin-Watson stat 1.989933 Inverted AR Roots Inverted M A Roots -.32 -.66
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob (F-statistic)
4 2 0 4 -2 2 0 -2 -4 60 -4 -6
Conditional Least Squares Estimation Parameter MU MA1,1 AR1,1 Estimate 0.0009002 -0.65661 -0.31902 Approx. Std Error 0.03114 0.08545 0.10726 T Ratio Lag 0.03 0 -7.68 1 -2.97 1
Constant Estimate = 0.00118737 Variance Estimate = 0.26700634 Std Error Estimate = 0.51672656 AIC = 661.538656* SBC = 673.75779* Number o f Residuals = 434 * Does not include log determinant. Autocorrelation Check of Residuals To Chi Lag Square DF 6 19.81 4 12 49.71 10 18 91.46 16 24 116.80 22 30 125.85 28 36 130.82 34 42 131.09 40 48 137.03 46 Prob 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 Autocorrelations 0.005 -0.012 -0.106 -0.037 0.081 -0.151 0.082 0.173 0.024 0.011 -0.019 0.218 -0.176 0.068 0.041 -0.000 -0.203 -0.112 0.007 -0.003 -0.009 0.043 0.104 0.043 -0.069 -0.065 0.007 -0.066 -0.022 -0.033 0.001 0.016 -0.012 0.010 0.008 0.012 0.002 -0.020 0.023 -0.104 -0.159 -0.083 0.085 -0.041 -0.012 -0.019 0.003 0.017
65
70 Residual
75
80 Actual
85
90 Fitted
95
Si les estimations semblent signicative (compte tenu du niveau de la T -stat ), le rsidu ne semble pas tre un bruit blanc. Ltape suivante est donc daugmenter le nombre de paramtres. 9.2.3 Estimation des paramtres dune modlisation ARIM A (2; 1; 2)
Lestimation donne les rsultats suivants (la constante tant l aussi non signicative), 1 0:564 L 0:125 L2 Yt = 1 0:238 L 0:461 L2 "t
(0:195) (0: 141) ( 0:186) (0:156)
LS // Dependent Variable is Y Sample : 1960:01 1996:03 Included observations: 435 Convergence achieved after 11 iterations Variable AR(1) AR(2) MA(1) MA(2) Coefficient 0.563991 0.125419 -0.238277 -0.461184 Std. Error 0.195947 0.140515 0.1857620.155933 T-Statistic 2.878290 0.892566 1.282700 -2.957584 0.000892 0.546661 -1.319386 -1.281911 19.55661 0.000000 Prob. 0.0042 0.3726 0.2003 0.0033
R-squared 0.119815 Adjusted R-squared 0.113689 S.E. of regression 0.514649 Sum squared resid 114.1564 Log likelihood -326.2718 Durbin -Watson stat 1.986863 Inverted AR Roots Inverted MA Roots .73 .81 -.17 -.57
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F- statistic Prob(F-statistic)
163
Arthur CHARPENTIER
4 2 0 4 -2 2 0 -2 -4 60 -4 -6
Conditional Least Squares Estimation Parameter MU MA1,1 MA1,2 AR1,1 AR1,2 Estimate 0.0018425 0.23910 0.39060 0.56668 0.06125 Approx. Std Error 0.02470 0.20740 0.17076 0.21504 0.14731 T Ratio Lag 0.07 0 1.15 1 2.29 2 2.64 1 0.42 2
Constant Estimate = 0.00068555 Variance Estimate = 0.26632254 Std Error Estimate = 0.51606448 AIC = 662.407167* SBC = 682.77239* Number o f Residuals = 434 * Does not include log determinant. Autocorrelation Check of Residuals To Chi Lag Square DF 6 17.05 2 12 43.83 8 18 86.23 14 24 111.58 20 30 118.83 26 36 124.99 32 42 125.20 38 48 131.58 44 Prob 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 Autocorrelations 0.002 0.022 -0.029 -0.038 0.123 -0.144 -0.128 0.089 0.168 0.012 0.039 -0.079 -0.013 0.226 -0.181 0.072 0.035 0.059 0.008 -0.205 -0.105 0.000 -0.016 -0.047 -0.012 0.028 0.093 0.031 -0.070 -0.013 -0.070 -0.001 -0.071 -0.031 -0.035 -0.030 -0.004 0.008 -0.016 0.005 0.006 -0.006 0.013 -0.009 -0.023 0.019 -0.108 0.016
65
70 Residual
75
80 Actual
85
90 Fitted
95
A titre dinformation, le modle avec constante scrit 2 2 1 0:565 L 0:129 L Y t = 0:004 + 1 0:239 L 0:465 L " t
(0:194) (0:140) (0:024) (0:183) (0:154)
Encore une fois, lhypothse de bruit blanc des rsidus est rejete, de part la prsence dautocorrlations signicativement non nulles. 9.2.4 Estimation des paramtres dune modlisation ARIM A (4; 1; 4)
Lestimation donne les rsultats suivants (la constante tant l aussi non signicative), 2 3 4 2 3 4 1 0:656 L + 0:563 L 0:386 L + 0:456 L Yt = 1 0:341 L + 0:254 L 0:179 L 0:732 L "t
( 0:102) (0:118) (0:118) (0: 098) ( 0:079) (0:084) (0:083) (0:077)
LS // Dependent Variable is Y Sample: 1960:01 1996:03 Included observations: 435 Convergence achieved after 21 iterations Variable AR(1) AR(2) AR(3) AR(4) MA(1) MA(2) MA(3) MA(4) Coefficient 0.656518 -0.562635 0.385954 0.456434 -0.341849 0.254008 -0.179371 -0.732405 Std. Error 0.101944 0.118552 0.118100 0.098600 0.079426 0.084136 0.083193 0.076658 T-Statistic 6.440006 -4.745877 3.268017 4.629142 -4.304007 3.018997 -2.156092 -9.554205 0.000892 0.546661 -1.379905 -1.304956 13.99393 0.000000 Prob. 0.0000 0.0000 0.0012 0.0000 0.0000 0.0027 0.0316 0.0000
R-squared 0.186601 Adjusted R-squared 0.173266 S.E. of regression 0.497051 Sum squared resid 105.4946 Log likelihood -309.1089 Durbin- Watson stat 1.966731 Inverted AR Roots Inverted MA Roots .98 1.00
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic) .08+.97i .08 -.97i .04 -.99i .04+.99i -.49 -.75
Conditional Least Squares Estimation Parameter MU MA1,1 MA1,2 MA1,3 MA1,4 AR1,1 AR1,2 AR1,3 AR1,4 Estimate 0.0015377 -0.93247 -0.51607 0.33273 0.32631 -0.56650 -0.37411 0.29264 -0.05048 Approx. Std Error 0.02530 0.20932 0.34370 0.33343 0.16789 0.21310 0.28332 0.25505 0.12451 T Ratio Lag 0.06 0 -4.45 1 -1.50 2 1.00 3 1.94 4 -2.66 1 -1.32 2 1.15 3 -0.41 4
-4 -6
Constant Estimate = 0.00261178 Variance Estimate = 0.24960404 Std Error Estimate = 0.49960389 AIC = 638.20434* SBC = 674.86174* Number o f Residuals = 434 Autocorrelation Check of Residuals Chi Square 0.00 25.70 53.83 75.58 82.92 88.91 DF 0 4 10 16 22 28 Prob 0.000 0.000 0.000 0.000 0.000 0.000 Autocorrelations 0.001 -0.006 -0.001 0.049 0.004 -0.100 -0.085 0.003 0.189 0.037 -0.029 -0.016 -0.013 0.184 -0.123 0.045 0.007 0.105 -0.038 -0.192 -0.082 -0.020 -0.017 -0.041 -0.017 0.032 0.087 0.036 -0.074 -0.005 -0.060 -0.013 -0.075 -0.019 -0.050 -0.021
164
Arthur CHARPENTIER
9.2.5
R-squared 0.205297 Adjusted R- squared 0.188468 S.E. of regression 0.492460 Sum squared resid 103.0698 Log likelihood -304.0513 Durbin -Watson stat 1.997998
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F- statistic Prob(F-statistic )
4 2 0 4 -2 2 0 -2 -4 60 -4 -6
Conditional Least Squares Estimation Parameter MU MA1,1 MA1,2 AR1,1 AR1,2 AR1,3 AR1,4 AR1,5 AR1,6 AR1,7 AR1,8 Estimate 0.0013416 0.48361 -0.30774 0.80989 -0.63535 0.19796 -0.16464 0.19163 -0.30877 0.06239 0.09180 Approx. Std Error 0.02589 0.24886 0.24844 0.24937 0.29763 0.13780 0.08924 0.07493 0.09036 0.11887 0.09070 0.00101303 0.24414457 0.49410988 630.559134* 675.362624* 434 T Ratio 0.05 1.94 -1.24 3.25 -2.13 1.44 -1.84 2.56 -3.42 0.52 1.01 Lag 0 1 2 1 2 3 4 5 6 7 8
Constant Estimate = Variance Estimate = Std Error Estimate = AIC = SBC = Number of Residuals=
65
70 Residual
75
80 Actual
85
90 Fitted
95
Lag 12 24 36
To Chi Autocorrelations DF Prob 2 0.012 0.038 -0.018 -0.014 -0.013 0.125 -0.022 14 0.000 -0.060 -0.157 -0.076 -0.017 -0.015 -0.042 26 0.000 -0.069 -0.013 -0.059 -0.001 -0.059 -0.061
9.2.6
R-squared 0.227772 Adjusted R-squared 0.207691 S.E. of regression 0.486593 Sum squared resid 100.1548 Log likelihood -297.8114 Durbin- Watson stat 2.002816
Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)
165
Arthur CHARPENTIER
9.2.7
Choix du modle
Les dirents critres sont 0:515 0:515 0:497 0:492 0:487 R2 0:113 0:120 0:186 0:205 0:228 R 0:111 0:114 0:173 0:188 0:208
2
ARIM A (1; 1; 1) ARIM A (2; 1; 2) ARIM A (4; 1; 4) ARIM A (8; 1; 2) ARIM A (8; 1; 4)
Aucun modle ne semble vraiment bien modliser la srie. En fait, aucun modle de type ARM A ne pourra prendre en compte le pic de volatilit au dbut des annes 80. En fait, nous le verrons par la suite, les modles ARCH permettent de prendre en compte ce genre de comportement.
9.3
Considrons dsormais la courbe suivante, reprsentant des donnes mensuelles, sur la priode Janvier 1990-Janvier 2001.
4 2 0 -2 -4 -6 90 91 92 93 94 95 96 X 97 98 99 00 01
Au vu de lallure de la srie ( gauche) et de son corrlogramme ( droite), on peut armer que le processus Xt est stationnaire. Nous allons donc essayer de modliser Xt laide dun processus ARM A (p; q). Au regard de lautocorrlogramme partiel, une modlisation laide dun processus AR (2) semblerait possible. Les sorties cidessous correspondent lestimation des paramtres dun processus AR (2), respectivement avec et sans constante. La constante ne semblant pas signicative, on peut retenir lide dun modle AR (2) sans constante.
On peut faire plusieurs remarques sur cette estimation : - les paramtres sont signicatifs, - le modle est valid par le test de Fisher (statistique F valant 146 ) - le Durbin-Watson est proche de 2 : on rejette lhypothse dautocorrlation lordre 1 des rsidus. Au regard de lautocorrlogramme des rsidus, prsent ci-dessous, on peut en revanche noter que les rsidus sont autocorrls lordre 12.
166
Arthur CHARPENTIER
Sur cette srie des rsidus bt, il est possible de tester un modle AR (12), "
dont lautocorrlogramme des rsidus suit un bruit blanc : lhypothse de modle AR (12) pour bt. Il est aussi possible " de tester un modle M A (12),
Cette modlisation M A (12) est alors valide. Nous avons donc vu quen crivant (L) Xt = "t le processus "t pouvait se mettre sous la forme " t = (L) t , et donc (L) Xt = (L) t : On peut alors tester un modle ARM A (2; 1) ; avec 2 retards sur la composante AR et un terme dordre 12 (uniquement) pour la composante M A. Lestimation est donne ci-dessous, en haut gauche et les autres graphiques donnent des informations sur les rsidus,
4 2 0 4 2 0 -2 -4 -2 -4 -6
91
92
93
94
95
96
97
98
99 Fitted
00
Residual
Actual
167
Arthur CHARPENTIER
20 Series: Residuals Sample 1990:03 2001:01 Observations 131 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis -0.021336 0.011268 3.534483 -2.516675 0.960506 0.270334 3.925844
15
10
Le modle semble tre valid. On peut dailleurs noter que les racines des polynmes AR et M A sont distinctes deux deux, et lextrieur du disque unit (E V iews donne linverse des racines, qui doivent tre lintrieur du disque unit). Lautocorrlogramme aurait aussi pu suggrer un modle avec un retard dordre 11 sur la srie initiale,
Comme on le voit sur la sortie (ci-dessus gauche) la composante AR dordre 11 est signicativement non nulle. Toutefois, comme auparavant, les rsidus ne suivent pas un bruit blanc, lautocorrlation partielle dordre 12 tant signicativement non nulle, on peut alors tester un modle AR (12) sur cette srie. Le modle pouvant tre retenu, on peut alors modliser la srie Xt par un quation de la forme Xt = Xt1 + Xt 2 + Xt 11 + "t "t12 Toutefois, la sortie ci-dessous gauche montre que la composante autocorrgressive dordre 11 nest pas signicative. On en revient alors considrer le modle prcdant, t = Xt1 + Xt2 + "t "t12
168
Arthur CHARPENTIER
Inverse Autocorrelations Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 -0.77526 | ****************| . | 2 0.52645 | . |*********** | 3 -0.40775 | ********| . | 4 0.36394 | . |******* | 5 -0.31446 | ******| . | 6 0.24728 | . |***** | 7 -0.25439 | *****| . | 8 0.23272 | . |***** | 9 -0.19539 | ****| . | 10 0.19393 | . |**** | 11 -0.25485 | *****| . | 12 0.33300 | . |******* | 13 -0.23752 | *****| . | 14 0.10711 | . |**. | 15 -0.01011 | . | . | 16 -0.02764 | . *| . | 17 0.02954 | . |* . | 18 -0.05536 | . *| . | 19 0.03948 | . |* . | 20 -0.01601 | . | . | 21 0.03232 | . |* . | 22 -0.04912 | . *| . | 23 0.02409 | . | . | 24 0.00858 | . | . |
Autocorrelation Check for White Noise To Lag 6 12 18 24 Chi Square 72.01 140.87 168.83 200.13 DF 6 12 18 24 Autocorrelations Prob 0.000 0.641 0.157 -0.125 -0.235 -0.091 0.109 0.000 0.241 0.237 0.072 -0.134 -0.353 -0.456 0.000 -0.233 0.007 0.174 0.272 0.148 -0.054 0.000 -0.218 -0.221 -0.032 0.157 0.222 0.153 ARIMA Procedure Conditional Least Squares Estimation Iteration SSE 0 133.59976 1 130.16169 2 130.10177 3 130.10044 4 130.10042 MA1,1 0.4555 0.6174 0.5998 0.6024 0.6020 AR1,1 0.9177 0.9204 0.9180 0.9184 0.9183 AR1,2 -0.4310 -0.4411 -0.4457 -0.4452 -0.4452 Lambda 0.00001 1E-6 1E-7 1E-8 1E-9 R Crit 1 0.162007 0.02348 0.003393 0.000525
ARIMA Estimation Optimization Summary Estimation Method: Maximum Likelihood Parameters Estimated: 3 Termination Criteria: Maximum Relative Change in Estimates Iteration Stopping Value: 0.001 Criteria Value: 0.00048293 Alternate Criteria: Relative Change in Objective Function Alternate Criteria Value: 4.91058E-6 Maximum Absolute Value of Gradient: 0.04331511 R-Square (Relative Change in Regression SSE) from Last Iteration Step: 0.00032913 Objective Function: Log Gaussian Likelihood Objective Function Value: -188.10066 Marquardt's Lambda Coefficient: 1E-8 Numerical Derivative Perturbation Delta: 0.001 Iterations: 3 Maximum Likelihood Estimation Parameter MA1,1 AR1,1 AR1,2 Estimate 0.59280 0.92523 -0.45195 Approx. Std Error 0.08028 0.07630 0.07619 T Ratio 7.38 12.13 -5.93 Lag 12 1 2
Maximum Likelihood Estimation Iter 0 1 2 3 Loglike -188.11308 -188.10091 -188.10067 -188.10066 MA1,1 0.6020 0.5914 0.5931 0.5928 AR1,1 0.9183 0.9253 0.9252 0.9252 AR1,2 -0.4452 -0.4525 -0.4519 -0.4520 Lambda R Crit 0.00001 1 1E-6 0.01455 1E-7 0.002016 1E-8 0.000329
Variance Estimate = 0.96749844 Std Error Estimate = 0.98361499 AIC = 382.20133 SBC = 390.872377 Number of Residuals= 133
L aussi, le modle est valid (avec des valeurs lgrement direntes des estimateurs, venant des mthodes de calculs direntes sous SAS et E V iews). Le modle retenu est alors le suivant Xt = 0:92523 Xt1 0:45195 Xt2 + " t 0:5928 " t12 o "t s BB (0; 0:984)
(0:0763) (0:0762) ( 0:0803)
SAS donne galement des prvisions (avec intervalle de conance 90% ) de (Xt ). Ces prvisions ont t reprsentes sur le graphique ci-dessous droite,
ARIMA Procedure Model for variable X1 No mean term in this model. Autoregressive Factors Factor 1: 1 - 0.92523 B**(1) + 0.45195 B**(2) Moving Average Factors Factor 1: 1 - 0.5928 B**(12) Forecasts for variable X1 Obs 134 135 136 137 138 139 140 141 142 143 144 145 Forecast Std Error 1.1953 0.9836 1.7406 1.3400 1.4184 1.3978 0.7421 1.3984 0.1647 1.4156 0.1050 1.4275 0.0727 1.4293 -0.3245 1.4294 -0.6680 1.4302 0.2618 1.4306 0.5749 1.4307 0.2436 1.4307 Lower 95% -0.7325 -0.8858 -1.3212 -1.9988 -2.6099 -2.6928 -2.7286 -3.1260 -3.4710 -2.5422 -2.2292 -2.5605 Upper 95% 3.1232 4.3670 4.1579 3.4830 2.9392 2.9029 2.8740 2.4770 2.1351 3.0658 3.3790 3.0478
2 0 -2
-4 -6
95
96
97 X FORECAST
98
99
00
01
BORNE_SUP90 BORNE_INF90
Les graphiques ci-dessous montrent le processus (Xt ), sa prvision (avec intervalle de conance), et 1 puis 2 simulations
169
Arthur CHARPENTIER
-2 -4 -6 98:01
98:07
99:01
99:07
00:01
00:07
01:01
01:07
X FORECAST SIMUL1
Comme on peut le noter, la prvision laide de processus ARM A donne de relativement bons rsultats.
9.4
Les deux sries suivantes correspondent du trac automobile, sur deux autoroutes franaises, lA7 et lA13, en donnes mensuelles,
80000 70000 60000 50000 40000 30000 20000 10000 1990 1991 1992 A007 1993 1994 A013 1995 1996
Les deux sries sont certes, trs corrles entre elles (non dvelopperont ce point dans la partie suivante, sur la modlisation des sries multivaries ), mais elles sont surtout cycliques, comme le montrent les autocorrlogrammes. Nous allons donc travailler ici sur les sries Y t = 1 L12 Xt = Xt Xt12 ,
20000 15000 10000 5000 0 -5000 -10000 -15000 1990 1991 1992 DA007 1993 1994 DA01 3 1995 1996
9.4.1
Arthur CHARPENTIER
Tentons tout dabord une modlisation ne faisant intervenir que le retard lordre 12, on obtient alors
Dependent Variable: DA007 Method: Least Squares Date: 07/18/03 Time: 07:44 Sample(adjusted): 1991:09 1996:09 Included observations: 61 after adjusting endpoints Convergence achieved after 3 iterations Variable C AR(12) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Coefficient 664.4503 -0.349683 0.126465 0.111659 3496.734 7.21E+08 -583.2731 2.226113 .88+.24i .24+.88i -.65+.65i Std. Error 331.7515 0.119648 t-Statistic 2.002856 -2.922612 Prob. 0.0498 0.0049 645.1803 3709.991 19.18928 19.25849 8.541663 0.004914 .65 -.65i -.24+.88i -.88+.24i
20000 10000 15000 10000 5000 0 -5000 -10000 -15000 1992 1993 Residual 1994 Actual 1995 Fitted 1996 -10000 -20000 0
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F -statistic) .88 -.24i .24 -.88i -.65 -.65i .65 -.65i -.24 -.88i -.88 -.24i
La constante et la composante AR (12) sont ici toutes deux signicatives. De plus, lautocorrlogramme des rsidus (prsent ci-desssous gauche) ainsi que le test de Box Pierce conduiensent accepter lhypothse de bruit blanc (au sens L2 ) des rsidus. Nanmoins, si lon regarde la srie des rsidus, prsente ci-dessus droite, on peut noter que certains pics periodiques apparaissent, mais le signe de ces pics ne permet pas de mettre en avant une autocorrlation ventuelle de ces rsidus. Mais si lon regarde lautocorrlogramme du carr des rsidus, on peut noter que lhypothse de bruit blanc au sens fort est rejeter : les carrs des rsidus sont clairement autocorrls. Nous sommes ici en prsence dun eet GARC H sur les rsidus, notion que nous tudierons plus en dtails par la suite.
9.4.2
Compte tenu de lautocorrlogramme de la srie dsaisonalise (i.e. Y t = 1 L12 Xt = Xt Xt12 ), lhypothse de bruit blanc (au sens L2 ) est vrie, autrement dit, la srie (Yt ) est purement alatoire. Modlisation laide dun processus ARMA (4; 4)
171
Arthur CHARPENTIER
An damliorer la prvision, il peut tre intressant de tester un modle ARM A (4; 4) puisque ce sont les dernires valeurs qui pourraient sembler signicatives sur les autocorrlogrammes.
Dependent Variable: DA013 Method: Least Squares Date: 06/05/03 Time: 14:43 Sample(adjusted): 1991:01 1996:09 Included observations: 69 after adjusting endpoints Convergence achieved after 22 iterations Backcast: 1990:09 1990:12 Variable C AR(1) AR(2) AR(3) AR(4) MA(1) MA(2) MA(3) MA(4) R- squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Coefficient 542.3256 0.231052 0.354618 0.260947 -0.378479 -0.222646 -0.480386 -0.207426 0.934617 0.340761 0.252862 1093.358 71725932 -575.8786 1.933998 .69+.31i .83+.52i Std. Error 255.2653 0.120712 0.112041 0.116229 0.121658 0.020711 0.023240 0.022297 0.026394 t-Statistic 2.124557 1.914081 3.165075 2.245119 - 3.110998 - 10.75022 - 20.67077 - 9.303057 35.40974 Prob. 0.0378 0.0604 0.0024 0.0285 0.0029 0.0000 0.0000 0.0000 0.0000 613.8261 1264.917 16.95300 17.24441 3.876750 0.000974 -.58 -.58i -.72 -.66i
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F- statistic Prob(F-statistic) .69 - .31i .83 - .52i -.58+.58i -.72+.66i
On peut noter que tous les retards semblent signicatifs, et le bruit associ vrie lhypothse de bruit blanc : un modle ARM A (4; 4) convient. Toutefois, en toute rigueur, le premier retard de sa composante dautocorrlation (AR(1)) ne passe pas le seuil de 5% : il est possible dessayer de lenlever de la rgression. On obtient alors
Dependent Variable: DA013 Method: Least Squares Date: 06/05/03 Time: 14:46 Sample(adjusted): 1991:01 1996:09 Included observations: 69 after adjusting endpoints Convergence achieved after 16 iterations Backcast: 1990:09 1990:12 Variable C AR(2) AR(3) AR(4) MA(1) MA(2) MA(3) MA(4) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat Inverted AR Roots Inverted MA Roots Coefficient 520.8973 0.539645 0.270148 -0.404489 -0.120464 -0.660822 -0.103716 0.954459 0.308872 0.229562 1110.276 75195450 -577.5083 1.797891 .68 -.30i .84+.53i Std. Error 242.9550 0.108087 0.101843 0.108105 0.013922 0.015333 0.013349 0.016257 t-Statistic 2.144007 4.992716 2.652590 -3.741632 -8.652958 -43.09873 -7.769263 58.71185 Prob. 0.0360 0.0000 0.0102 0.0004 0.0000 0.0000 0.0000 0.0000 613.8261 1264.917 16.97126 17.23028 3.894504 0.001440 -.68 -.54i -.78 -.60i
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .68+.30i .84 -.53i -.68+.54i -.78+.60i
o, cette fois-ci, tous les coecients sont signicatifs au seuil de 5%. Et l aussi, lhypothse de bruit blanc pour les rsidus est valide. Les rsidus des deux rgressions sont prsents ci-dessous, de gauche droite,
4000 2000 0 2000 1000 0 -1000 -2000 -3000 1991 1992 Residual 1993 1994 Actual 1995 Fitted 1996 -2000 -4000
4000 2000 0 2000 1000 0 -1000 -2000 -3000 1991 1992 Residual 1993 1994 Actual 1995 Fitted 1996 -2000 -4000
[A INSERER]
172
Arthur CHARPENTIER
9.5
Considrons la srie suivante, reprsentant le nombre de victimes sur les routes, en France, en donnes mensuelles,
20000 19000 18000 17000 16000 15000 14000 13000 12000 11000 92 93 94 95 96 97 98 99 00 01
VICTIMES_ACCIDEN
avec la srie brute (Xt ) gauche, et son autocorrlogramme droite. Cette srie prsentant clairement un comporte ment saisonnier, nous allons tudier Y t = 1 L12 Xt = Xt Xt 12 ,
2000 1000 0 -1000 -2000
-3000
92
93
94
95
96
97
98
99
00
01
D_VICTIMES
En utilisant lauto corrlogramme de cette srie, nous allons modliser (Y t ) laide dun processus ARM A (p; q). Modlisation laide dun processus AR (12) Compte tenu de la forme de lautocorrlogramme, nous pouvons, par le principe de parcimonie, tenter une modlisation relativement simple, laide dun processus AR (12). Une modlisation laide dun polynme 1 L12 donne les rsultats suivants,
Dependent Variable: D_VICTIMES Method: Least Squares Date: 07/18/03 Time: 06:59 Sample(adjusted): 1994:01 2001:11 Included observations: 95 after adjusting endpoints Convergence achieved after 3 iterations Variable AR(12) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots Coefficient -0.252692 -0.092661 -0.092661 962.3526 87055511 -786.8877 .86+.23i .23 -.86i -.63 -.63i Std. Error 0.092678 t-Statistic -2.726572 Prob. 0.0076 -387.5368 920.6434 16.58711 16.61399 0.808405 .63+.63i -.23 -.86i -.86+.23i
2000 1000 0 2000 1000 0 -1000 -2000 -3000 94 95 96 Res idual 97 98 Actual 99 00 Fitted 01 -1000 -2000 -3000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat .86 -.23i .23+.86i -.63 -.63i .63 -.63i -.23+.86i -.86 -.23i
Le paramtre est eectivement signicatif, et le rsidu semble correspondre un bruit blanc (hypothse valide par le test de Box Pierce), toutefois, la qualit de lajustement ne peut manifestement pas convenir. Lestimation dun 173
Arthur CHARPENTIER
modle AR (12) complet (avec les 12 composantes ), en enlevant ensuite, une une, les composantes non-signicatives (une des tapes tant propose droite)
Dependent Variable: D_VICTIMES Convergence achieved after 3 iterations Variable C AR(1) AR(2) AR(3) AR(4) AR(5) AR(6) AR(7) AR(8) AR(9) AR(10) AR(11) AR(12) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat Inverted AR Roots Coefficient -403.1510 0.373193 -0.028210 0.041577 0.003752 -0.008166 0.012129 0.062211 -0.052965 0.133121 -0.075842 -0.011995 -0.357608 0.378505 0.287555 777.0825 49516291 -760.0861 1.851256 .93+.22i .25 -.89i -.58 -.64i Std. Error 88.13528 0.100646 0.105584 0.104470 0.103359 0.103532 0.103316 0.104500 0.104848 0.105012 0.105460 0.104314 0.095975 t-Statistic - 4.574229 3.707971 - 0.267185 0.397978 0.036302 - 0.078870 0.117397 0.595317 - 0.505165 1.267679 - 0.719149 - 0.114987 - 3.726044 Prob. 0.0000 0.0004 0.7900 0.6917 0.9711 0.9373 0.9068 0.5533 0.6148 0.2085 0.4741 0.9087 0.0004 -387.5368 920.6434 16.27550 16.62497 4.161668 0.000044 .69 - .66i -.23+.87i -.88 -.27i
Dependent Variable: D_VICTIMES Method: Least Squares Date: 07/18/03 Time: 07:25 Sample(adjusted): 1994:01 2001:11 Included observations: 95 after adjusting endpoints Convergence achieved after 3 iterations Variable C AR(1) AR(3) AR(7) AR(9) AR(10) AR(12) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat Inverted AR Roots Coefficient -404.4320 0.362837 0.031491 0.049055 0.112071 -0.083440 -0.355504 0.375645 0.333075 751.8479 49744218 -760.3042 1.826335 .93+.22i .24+.88i - .59+.65i Std. Error 87.66986 0.090355 0.085447 0.083384 0.093093 0.092096 0.083454 t-Statistic - 4.613125 4.015707 0.368541 0.588299 1.203859 - 0.906003 - 4.259889 Prob. 0.0000 0.0001 0.7134 0.5578 0.2319 0.3674 0.0001 -387.5368 920.6434 16.15377 16.34195 8.824230 0.000000 .69+.66i -.21 -.86i -.88 -.27i
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .93 -.22i .25+.89i -.58+.64i .69+.66i -.23 - .87i -.88+.27i
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .93 -.22i .24 -.88i -.59 -.65i .69 -.66i - .21+.86i - .88+.27i
Le modle nal, o toutes les composantes sont signicative comporte toujours le retard dordre 12, ainsi que le retard dordre 1, ainsi que la constante, que nous avions omise auparavant,
Dependent Variable: D_VICTIMES Method: Least Squares Date: 07/18/03 Time: 07:26 Sample(adjusted): 1994:01 2001:11 Included observations: 95 after adjusting endpoints Convergence achieved after 3 iterations Variable C AR(1) AR(12) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin -Watson stat Inverted AR Roots Coefficient -398.4806 0.367802 -0.370033 0.359326 0.345398 744.8694 51044394 -761.5298 1.842573 .93 -.24i .27+.88i -.62+.65i Std. Error 76.31964 0.086803 0.079309 t-Statistic -5.221207 4.237205 -4.665704 Prob. 0.0000 0.0001 0.0000 -387.5368 920.6434 16.09536 16.17601 25.79936 0.000000 .69+.65i -.21 -.88i -.86+.24i
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .93+.24i .27 -.88i -.62 -.65i .69 -.65i -.21+.88i -.86 -.24i
Comme le montre le graphique de droite, lhypothse de bruit blanc des rsidus est valide par le test de Box Pierce. De plus, la justement est nettement meilleur que dans le cas prcdant, comme le montre le graphique ci-dessous gauche.
2000 1000 0 -1000 2000 1000 0 -1000 -2000 -3000 94 95 96 Residual 97 98 Actual 99 00 Fitted 01 -2000 -3000
Remarque 60 Au vu de lautocorrlogramme de (Y t ) on pourrait croire reconnaitre un processus SARIM A dordre 12 (cd secion sur les modles SARIM A). Mais sil lon direncie (Y t ) en notant Zt = 1 L12 Y t , on obtient lautocorrlogramme prsent ci-dessus droite : la direnciation napporte rien. Modlisation laide dun processus ARMA (12; 12) 174
Arthur CHARPENTIER
Compte tenu de la prsence dune autocorrlation partielle et dune autocorrlation signicatives lordre 12, il pourrait tre possible, galement, de tester un modle ARM A (12; 12). On inclus pour cela les 24 retards, et la constante, comme cela est fait ci-dessous, gauche,
Dependent Variable: D_VICTIMES Backcast: 1993:01 1993:12 Variable C AR(1) AR(3) AR(4) AR(5) AR(7) AR(8) AR(11) AR(12) MA(3) MA(4) MA(5) MA(7) MA(8) MA(11) MA(12) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Coefficient -305.0056 0.420150 -0.031261 0.275419 -0.113776 0.309327 -0.036742 -0.214746 -0.134458 0.058559 -0.368560 -0.063851 -0.428437 -0.225824 0.398335 -0.307490 0.511111 0.418285 702.1773 38951181 -748.6864 1.989013 .93+.17i .16+.84i -.65 -.39i .99 .57 -.76i -.36+.82i Std. Error 99.72524 0.099681 0.109530 0.134000 0.118891 0.097592 0.101708 0.115885 0.109928 0.094135 0.115378 0.065686 0.090813 0.097233 0.111243 0.109088 t -Statistic -3.058459 4.214941 -0.285409 2.055372 -0.956980 3.169605 -0.361249 -1.853090 -1.223142 0.622072 -3.194377 -0.972065 -4.717804 -2.322506 3.580766 -2.818742 Prob. 0.0030 0.0001 0.7761 0.0431 0.3415 0.0022 0.7189 0.0676 0.2249 0.5357 0.0020 0.3340 0.0000 0.0228 0.0006 0.0061 -387.5368 920.6434 16.09866 16.52879 5.506068 0.000000 .65+.69i -.21 -.88i -.67+.17i .57+.76i -.36 -.82i -.99
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F -statistic) .93 -.17i .16 -.84i -.65+.39i .62 -.28i .01+.99i -.85+.48i .65 -.69i -.21+.88i -.67 -.17i .62+.28i .01 -.99i -.85 -.48i
Aprs limination, une une, des variables non signicatives, on aboutit aumodle suivant,
Dependent Variable: D_VICTIMES Method: Least Squares Date: 07/18/03 Time: 19:56 Sample(adjusted): 1993:12 2001:11 Included observations: 96 after adjusting endpoints Convergence achieved after 10 iterations Backcast: 1992:12 1993:11 Variable C AR(1) AR(4) AR(7) AR(11) MA(4) MA(7) MA(11) MA(12) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Inverted MA Roots Coefficient -361.4454 0.323792 0.221787 0.360634 -0.223918 -0.243286 -0.367712 0.290547 -0.464710 0.432562 0.380384 723.5614 45548073 -763.5748 1.627925 .88 -.10i .08 -.84i -.77+.43i .97 .52+.79i -.39 -.86i Std. Error 70.05417 0.083297 0.123863 0.095223 0.118132 0.126263 0.080979 0.127322 0.081240 t-Statistic -5.159513 3.887199 1.790575 3.787262 -1.895485 -1.926817 -4.540834 2.281979 -5.720233 Prob. 0.0000 0.0002 0.0768 0.0003 0.0613 0.0573 0.0000 0.0249 0.0000 -379.4479 919.2082 16.09531 16.33572 8.290081 0.000000 .61+.70i -.24+.83i .52 -.79i -.39+.86i -.96
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F -statistic) .88+.10i .08+.84i -.77 -.43i .74 -.39i -.00 -.96i -.87 -.48i .61 -.70i -.24 -.83i -.80 .74+.39i -.00+.96i -.87+.48i
Nanmoins, on peut noter que les rsidus associs ne suivent pas un bruit blanc, comme le montre lautocorrlogramme ci-dessus droite. Les graphiques associs sont prsents ci-dessous gauche. En liminant les variables non signicatives dans le modle prcdant (p-valeur suprieure 5%), on obtient la sortie ci-dessous droite,
2000 1000 0 -1000 2000 1000 0 -1000 -2000 94 95 96 Residual 97 98 99 00 01 Fitted Actual -2000 -3000
Dependent Variable: D_VICTIMES Method: Least Squares Date: 07/18/03 Time: 19:57 Sample(adjusted): 1993:08 2001:11 Included observations: 100 after adjusting endpoints Convergence achieved after 15 iterations Backcast: 1992:08 1993:07 Variable C AR(1) AR(7) MA(7) MA(12) R- squared Adjusted R - squared S.E. of regression Sum squared resid Log likelihood Durbin- Watson stat Inverted AR Roots Inverted MA Roots Coefficient -285.5781 0.429447 0.212892 -0.240872 -0.656765 0.499844 0.478785 678.9883 43797389 -791.3896 1.969953 .88 - .12+.77i .99 .51+.84i - .46 -.84i Std. Error 58.35439 0.077826 0.092498 0.075975 0.075974 t- Statistic -4.893858 5.518073 2.301586 -3.170413 -8.644549 Prob. 0.0000 0.0000 0.0235 0.0020 0.0000 -408.9800 940.4888 15.92779 16.05805 23.73516 0.000000 -.12 - .77i .51 -.84i -.46+.84i - .94
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .57 -.61i .57+.61i -.67+.34i -.67 - .34i .81+.48i .81 -.48i -.02+.97i -.02 - .97i -.86 - .48i -.86+.48i
175
Arthur CHARPENTIER
cest dire que (Y t) est modlisable par un processus ARM A (7; 12) : En eet, lhypothse de bruit blanc des rsidus est valide,
2000 1000 0 -1000 2000 1000 0 -1000 -2000 94 95 96 Residual 97 98 Actual 99 00 01 Fitted -2000 -3000
[A CONTINUER]
9.6
-0.04
50
55
60
65
70
75
80
85
90
GNP_US
Compte tenu de la forme des autocorrlations, il est possible de tester un modle AR (3), i.e.
Dependent Variable: GNP_US Method: Least Squares Date: 05/28/03 Time: 09:43 Sample(adjusted): 1948:1 1991:1 Included observations: 173 after adjusting endpoints Convergence achieved after 3 iterations Variable C AR(1) AR(2) AR(3) R-squared Adjusted R -squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots Coefficient 0.007682 0.350924 0.180937 -0.144305 0.176968 0.162358 0.009894 0.016545 555.0799 2.019838 .44+.29i Std. Error 0.001229 0.076268 0.079722 0.076504 t-Statistic 6.251827 4.601216 2.269604 -1.886233 Prob. 0.0000 0.0000 0.0245 0.0610 0.007748 0.010811 -6.370866 -6.297957 12.11276 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) .44 -.29i -.52
176
Arthur CHARPENTIER
En reprenant ce qui a t fait dans la partie (????) sur les modles AR (2), on peut noter que le polynme autorgressif scrit 1 0:35L 0:18L2 + 0:14L3 = (1 + 0:52L) 1 0:87L + 0:27L2 o le second terme a des racines complexes conjusgues. On peut alors noter que la longueur moyenne du cycle stochastique est alors de 10:83 trimestres, cest dire entre 2 ans et demi et 3 ans.
177