SÉRIE TEMPORELLE
PRINCIPE
CEA | 10 AVRIL 2012
| PAGE 1
PROCESSUS ET SÉRIE TEMPORELLE
Principe : on a un phénomène qui est générateur d’un processus
(succession d’états dans le temps)
Processus :
• On considère un ensemble d’états ordonnés chronologiquement
• Chacun de ces états est décrit par une variable aléatoire Xt
• L’ensemble des Xt forme une suite qui peut être représentée
graphiquement
| PAGE 2
DESCRIPTION D’UN PROCESSUS
Représentation : graphique comme en géométrie
Présence de corrélations (la
tendance linéaire) et de
fluctuations statistiques,
• La tendance modélisée par
une régression linéaire
• La partie stochastique par une
loi de distribution
Rappel, la loi de probabilité caractérisée par des paramètres appelés moments
(moyenne, variance, …)
Ce sont eux qui vont nous permettre de bien décrire les évolution de notre processus
| PAGE 3
RAPPELS SUR LES LES MOMENTS
Les deux premiers moments sont importants :
1. Le moment 1 qui est l’espérance ou la moyenne µ
Il donne la tendance générale du processus, son ordre de grandeur
2. Le moment d’ordre 2 qui est la variance, elle-même reliée à l’écart type
Var(Xt) = ²(Xt)
Il donne la « fluctuation » ou dispersion autour de la moyenne
Rappels sur les moments :
35
Valeur : moyenne
µk = E[(Xt-E(Xt))k] 33
31
Fluctuation : écart type
Mouvement propre 0-18 keV
Ils permettent de décrire de plus en 29
27
plus finement le processus, un peu 25
comme les dérivées d’ordre k 23
décrivent de mieux en mieux une 21
fonction 19
17
15
0 20 40 60 80 100 120 140
Temps en minutes
| PAGE 4
POUR RAPPEL (LES 2 PREMIERS MOMENTS)
Tendance des résultats : la moyenne arithmétique
x
i 1
i
x
n
Fluctuation ou dispersion des résultats : l’écart type
n
xi x
2
x
i 1 n 1
| PAGE 5
1ÈRE ÉTAPE VERS LA MODÉLISATION (ANOVA)
Ces deux moments ne suffisent pas
On voudra séparer la partie linéaire (dépendance entre les variables) de la partie
purement aléatoire.
Il faudra donc analyser les parties linéaires pour ne garder (par soustraction de
la partie linéaire) que la partie aléatoire qui est utilisée pour les cartes de contrôle.
Outils statistiques pour analyser ces dépendances sont la covariance et les
corrélations.
Finalement on utilise l’’équation fondamentale de l’analyse de la variance ou
ANOVA :
Vartotal(Xt) = Varexpliquée (du modèle) + Varrésiduel(du bruit)
Ce qui reste quand
Pour un groupe de point on a enlevé ce qui
Celle d’un ensemble de mesures d’un a été modélisé
seul échantillon au temps t
| PAGE 6
QUESTION DE VOCABULAIRE
La partie expliquée à l’aide de régression linéaire constituera le modèle
Ce modèle peut être utilisé différemment suivant le temps :
• Pour une application aux données passées on parlera de lissage ou d’ajustage
• Pour une application aux données du présent on parlera de filtration
• Pour une application aux données futures on parlera de prédiction
| PAGE 7
RAPPELS SUR L’EXPRESSION DE LA COVARIANCE
Covariance :
Cov (X, Y) = E[(X-µX)*(Y-µY)]
Autre notation :
Interprétation, chacune des deux variables aléatoires est soustrait de sa
moyenne (donc centrée)
Puis on estime la moyenne de l’influence de l’une sur l’autre (analyse de leur
influence réciproque)
Variables aléatoires indépendantes
Cov(X,Y)=0 (équivalent à l’orthogonalité)
Var(X+Y) = Var(X)+Var(Y)
Pour des variables corrélées (dépendantes)
Cov(X,Y) mesure l’écart de la variance par rapport à ce qu’elle serait
si les variables avaient été indépendantes :
Var(X+Y) = Var(X) + Var(Y) + Cov(X,Y)
Il en résulte qu’il existe une structure dans les suites de valeurs
obtenues,
| PAGE 8
PARAMÈTRE DÉRIVÉ : LA CORRÉLATION
La corrélation est la covariance normalisée (on s’affranchit de facteurs d’échelle)
Normalisation par les variances
Covariance
Variances1/2
La présence de corrélation dans un processus des « forces d’inertie »
contrôle le processus,
Il est donc judicieux de les soustraire dès que l’on connait un modèle de
relation (du type des régressions linéaires) et d’analyser ce qui reste.
Dans le cas contraire, on prends le risque d’avoir beaucoup de fausses
alarmes
| PAGE 9
PARAMÈTRE DÉRIVÉ : : L’AUTOCORRELATION
Il s’agit d’étudier les relations ou la moyenne des influences réciproques entre les
valeurs d’un même paramètre mais décalé dans le temps, Cela revient à rechercher
des structures internes dans le processus,
Variable X : X t
Variable Y : X t ± h
Notation : h = Cov(X t, X t ± h)
Graphiquement :
• Cov(X t, X t ± h)>0, les écarts par rapport à la tendance sont systématiquement
situés du même coté
• Cov(X t, X t ± h)<0, ces écarts sont répartis de part et d’autre
| PAGE 10
VARIOGRAME ASSOCIÉ
On a introduit la covariance :
h = Cov(X t, X t ± h)
On peut construire le coefficient de corrélation (qui varie entre -1 et 1) :
𝐂𝐨𝐯(𝐗 𝐭 , 𝐗 𝐭±𝐡 )
𝛒𝐡 =
𝐕𝐚𝐫(𝐗 𝐭 )
Le variograme est obtenu en soustrayant la « fluctuation naturelle ou
intrinsèque » à la covariance. Puis à analyser l’évolution avec le temps, c’est-à-
dire en faisant varier le paramètre h, La forme obtenue permet de déterminer la
nature et la portée des interactions.
Variograme(h) = Var(Xt) - Cov(X t, X t ± h) = (h)/(h) - (h)
Ambiguïté : la lettre sert autant à représenter la covariance que le variograme !!!
| PAGE 11
NOTION DE STATIONNARITÉ
Il y a stationnarité d’un processus quand les conditions suivantes sont
remplies :
1/ La moyenne reste constante dans le temps
2/ Le processus varie toujours de la même façon dans le temps,
Autrement dit sa variance ou moment d’ordre 2 est constante. Ainsi,
une fois retiré du processus la partie modélisable ou explicative, il ne
reste qu’un bruit dont la moyenne et la variance sont constante ce qui
permet d’envisager une description par une loi de probabilité
3/ Les relations de dépendances entre les variables restent constante.
Autrement dit la covariance et les corrélations ne varient pas, elle
reste toujours du même ordre de grandeur quelque soit le temps. Cela
permet d’envisager une modélisation de cette dépendance entre les
variables qui ne varient pas (voir le modèle ARIMA).
Ces variables pour un processus sont les valeurs observées pour une
même mais à des temps différents
| PAGE 12
STATIONNARITÉ AU SENS FAIBLE ET TESTS STATISTIQUES
La stationnarité au sens faible décrit les processus qui respectent les deux
premières conditions seulement (constance de l’espérance et de la variance) mais
pas nécessairement de la troisième (l’influence des valeurs à des temps différents
dépend elle-même du temps !!), Ces deux seules conditions permettent de se
donner une loi de distribution qui ne varie pas trop
On définira la série temporelle comme un processus stochastique stationnaire au
sens faible
L'hypothèse nulle est la stationnarité.
• Test KPSS1
• Test de Leybourne et McCabe2
• Tests de racine unitaire[modifier | modifier le code]
L'hypothèse nulle est la non-stationnarité.
• Test de Dickey Fuller (en)3
• Test augmenté de Dickey Fuller (en) (ADF)4
• Test de Phillips-Perron5(PP)
• Test DF-GLS (ou ERS) 6
| PAGE 13
REMARQUE SUR LA NON-STATIONARITÉ
La stationnarité permet de garantir une certaine stabilité à sa modélisation, un peu
comme le voisinage d’un point en son plan tangent, On s’assure que les choses sont
encadrées, restent à la même échelle et n’évoluent pas de façon chaotique.
Une série qui n’est pas stationnaire est dite intégrée
Ces séries possèdent une racine unitaire
Leurs particularité est d’avoir une loi de distribution qu évolue elle aussi avec le
temps (alors qu’en stationnarité on s’assure que les moments ne varient pas trop
pour pouvoir utilisée cette loi de distribution)
La nature de cette non-sationnarité peut être :
1. déterministe (la moyenne varie)
2. Stochastique (la variance évolue)
| PAGE 14
MODÉLISATION STOCHASTIQUE ET DÉTERMINISTE
Finalement :
• Le deux premières conditions permettent d’envisager une
description stochastique par une loi de probabilité simple, une loi
normale (white noise ou bruit blanc)
• La troisième condition permet d’envisager une modélisation
déterministe
On retrouve le concept des « erreurs » de type A et de type B
| PAGE 15
BILAN
− Effectuer un échantillonnage de valeurs périodiquement dans le temps
− Identifier les corrélations qui pourraient exister, et trouver leurs modèle
(régression linéaire)
− Soustraire des valeurs mesurées la valeur expliquée pour ne garder que la
partie purement aléatoire
− Trouver une loi de distribution de cette partie purement aléatoire
− Trouver une représentation qui permettent de suivre les dérives et de réagir
au plus vite dès qu’un écart est observés (aide à la décision)
| PAGE 16
SÉRIE TEMPORELLE
LA MÉTHODE ARIMA
CEA | 10 AVRIL 2012
| PAGE 17
THÉORÈME DE WAL
Cela rappel la formule de l’ANOVA
Rappel sur la décomposition d’une série temporelle (théorème de Wal) :
Signal total = Signal expliqué déterministe + Bruit aléatoire
On n’a vu que la partie expliqué du signal pouvait l’être par une régression linéaire
Elle peut l’être aussi par une modélisation périodique (utilisation de la Transformée
de Fourrier), C’est en particulier le cas des phénomènes périodiques ou
saisonniers
De façon générale on pourra écrire que : 𝑝 𝑞
𝑋𝑡 = µ + 𝜑𝑖 . 𝑋𝑖 + 𝜃𝑗 . 𝜀𝑗
𝑖=1 𝑗=1
AR(p) MA(q)
Processus Autorégressif Processus de la moyenne Mobile
| PAGE 18
DESCRIPTION DES PROCESSUS AUTORÉGRESSIFS
La valeur qui est relevée au temps t+1, soit Xt+1, peut s’exprimer linéairement en
fonction des p dernières observations, c’est-à-dire de Xt-p à Xt
𝐴𝑅 𝑝 = 𝑋𝑡 = 𝐶𝑠𝑡𝑒 + 𝜑1 . 𝑋𝑡−1 + 𝜑2 . 𝑋𝑡−2 + 𝜑3 . 𝑋𝑡−3 + ………+ 𝜑𝑝 . 𝑋𝑡−𝑝
Seules les p dernières valeurs sont suffisantes pour modéliser la partie corrélée,
La détermination de l’ordre, p s’effectue à partir des Fonctions d’Autocorrélation
(ACF) ou des Fonctions d’Autocorrélation Inverse (AICF) voir par la suite
L’ittération se fait sur le « rail » du temps
Le processus régressif le plus utilisé est celui pour lequel la valeur mesurée peut
être directement en fonction de la valeur précédente, c’est le processus AR(1).
Autrement dit le passé a peu d’influence (peu d’inertie)
| PAGE 19
PROCESSUS AR(1)
| PAGE 20
QUELQUES VALEURS
P=1 P=2
𝐶𝑠𝑡𝑒 𝐶𝑠𝑡𝑒
𝑋𝑡 = 𝑋𝑡 =
1 − 𝜑 1 − 𝜑1 − 𝜑2
𝑉𝑎𝑟(𝜀𝑡 ) 𝑉𝑎𝑟(𝜀𝑡 )
𝑉𝑎𝑟 𝑋𝑡 = 𝑉𝑎𝑟 𝑋𝑡 =
1 − 𝜑² 1 − 𝜑12 − 𝜑22
𝛾𝑗 = 𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡−𝑗 = 𝜑 𝑗 . 𝑉𝑎𝑟(𝑋𝑡 ) 𝛾𝑗 = 𝐶𝑜𝑣 𝑋𝑡 , 𝑋𝑡−𝑗 = 𝜑 𝑗 . 𝑉𝑎𝑟(𝑋𝑡 )
| PAGE 21
DESCRIPTION DES PROCESSUS DE MOYENNES MOBILES
C’est ce qui reste quand on a enlever la partie explicative à l’aide de modèles basés
sur une AR(p) et/ou une transformée de Fourrier. Il s’agit donc de modéliser le bruit
En définitive c’est ce qui nous intéresse le plus car c’est sur ce reste stochastique
que sont établies les cartes de contrôles
Le processus de moyenne mobile suit :
𝐴𝑀 𝑞 = 𝑋𝑡 = 𝐶𝑠𝑡𝑒 + 𝜃1 . 𝜀𝑡−1 + 𝜃2 . 𝜀𝑡−2 + 𝜃3 . 𝜖𝑡−3 + ………+ 𝜃𝑝 . 𝜀𝑡−𝑞
Remarque, la constante est nulle
| PAGE 22
CARTES DE CONTRÔLE
CEA | 10 AVRIL 2012
| PAGE 23
PRINCIPALES CARTES
On étudiera que 3 cartes (correspond à la quasi-totalité des cartes utilisées)
• La carte de SHEWART
• La carte de EWMA
• La carte de CUSUM
| PAGE 24
PRINCIPE
Collecter un ensemble de valeurs ordonnées chronologiquement
« Filtrer » la partie déterministe à l’aide d’un modèle (régression linéaire,
transformée de Fourrier, …), en repérant éventuellement la présence d’un
processus récursif AR(p)
Le reste ou résidu est normalement un bruit, et, très souvent un bruit blanc
modélisable par une loi normale centrée réduite
C’est à partir de ce « reste stochastique » que sont établies les cartes de
contrôle. En effet ce bruit servira à déterminer une cible. Les valeurs mesurées
sont ensuite comparée à cette cible. Des critères d’aide à la décision
permettront d’affirmer si le processus suit son cours normal ou si un écart ou
une dérive est en train de se manifester
| PAGE 25
PRINCIPAUX PARAMÈTRES
Principe :
•La valeur suivie choisie est en général le résultat de la mesure
•La valeur cible choisie est en général la tendance du processus (estimé par la
moyenne des résultats)
•La comparaison se fait en prenant en compte de la fluctuation acceptée pour
ce processus (estimé par l’écart type des résultats)
•La décision (normal / écart) se fait par rapport à un seuil à définir
| PAGE 26
LES DIFFÉRENTS TYPES DE CARTES
La carte Shewhart 1931
Principe : comparaison de la valeur mesurée avec la valeur moyenne
Conséquence : on considère que le comportement passé du processus n’apporte aucune
information pour pouvoir décider si le comportement est normal.
Détection : les dérives importantes, ie les variations « brusques » et locales
La carte EWMA 1959
Principe : ce qui est suivi c’est le comportement de la moyenne dans le passé avec celui de la
moyenne réactualisée par la mesure qui vient d’être faite. L’importance du comportement
passé et réactualisé est ajusté par un poids .
Conséquence : l’influence du comportement passé de la moyenne décroit exponentiellement
avec : c’est donc l’influence du passé récent qui est pris en compte.
Détection : des dérives modérées mais persistantes
La carte CUSUM (CUMmlative SUMmation) 1954
Principe : la valeur suivie S est la somme cumulée des écarts entre la valeur expérimentale
observée xi et la valeur cible de référence X°.
Conséquence : l’ensemble des écarts avec la moyenne est pris en compte
Détection : des très faibles dérives ou variations (qui par sommation des écarts passés
deviennent significatives)
| PAGE 27
EWMA :
Filtration des hautes fréquences pour ne garder que la tendance générale
(nécessite donc un échantillonnage important)
Le poids caractérise le poids du passé ou l’inertie du système.
Si une anomalie est déjà dans les valeurs récemment mesurées, elle a moins
de chance d’être détectée, elle est donc moins adaptée aux échantillonnages
fréquents
Très utile pour les détections saisonnières
Pour des dérives modérées
Elle permet de détectée des dérives persistantes
Les valeurs de sont en général comprises entre 0,25 et 0,5. Si tend vers 1 mieux
vaut utiliser une carte Shewart, au contraire, si tend vers 0 mieux vaut utiliser une
carte CUSUM
CUSUM
Détection des faibles changements dans la moyenne, c’est-à-dire des dérives
petites
Les valeurs de h sont en général comprises entre 4 et 5
| PAGE 28
LA CARTE CUSUM : PRINCIPE
Principe : la valeur suivie S est la somme des écarts entre la valeur
mesurée xi et la cible (valeur de référence X°)
•Valeur cible : une estimation de la moyenne
•Valeur suivie : la somme des écarts entre les valeurs observées et la valeur cible
•Écart type : une estimation de l'écart type expérimental
•Intervalle de décision : h. (en général h 5)
Les principaux paramètres se déduisent de l'écart à la cible maximal acceptable :
K .
2 Il faut donc avoir une idée
xmax acceptable xref de la précision voulue
Exemple : on veut être vigilent pour des écarts de 2 °C sur une valeur
moyenne estimée à 25°C sachant que la variabilité est de 0.5 °C
K = 1, δ = 4
MÉTHODOLOGIE
1ère étape : le calcul de la moyenne µ et de son écart type
2ème étape : se donner un seuil d’alarme (en unité ), l’alarme est
« déclenchée » quand les « fluctuations » dépassent .
en gral 1
3ème étape : construction de la carte
Souvent basée sur deux paramètres : k et h
Deux méthodes pour identifier ces paramètres :
1. A partir de tables à double entrée : .n1/2 et l’ARL
2. A partir des risques (fausse alarme) et (alarme négligée)
en gral k 0,5 et k 4-5
4ème étape : on trace la cible Si
CALCUL DE LA CIBLE ET DES LIMITES
Calcul de la somme (valeur de suivi) :
Estimation de la moyenne
S1 = x1- X°
S2 = S1 + (x2 - X°)
S3 = S2 + (x3 - X°)
C'est Si qui est suivi graphiquement
etc…
Valeur observée Si = Si-1 + (xi - X°)
Graphiquement, les limites de contrôle sont donnée par les relations :
Ci+ = Max[0, (Ci-1+ - K) + (xi - X°)] Avec pour valeurs initiales :
Ci- = Max[0, (Ci-1- - K) - (xi - X°)] C0+ =C0- = 0
LA CARTE CUSUM : POUR UNE APPROCHE GRAPHIQUE
Deux paramètres doivent être calculés :
2 1 β
La fenêtre d'observation d d= Ln
δ2 α
Paramètres liés
h.σ à k et h estimés
La pente des droites de contrôle tg θ = lors de la 3ème
d
étape
Dans l'exemple précédent :
•d = 1,8 soit approximativement 2
•tg = 1,25 ( 50°)
On remarque sur le graphe que Si reste
proche de zéro … sauf quand une
anomalie apparaît
| PAGE 32
LA CARTE EWMA
Principe : la valeur suivie Zi est un équilibre entre le passé (représentées par la
moyenne valeurs observées) et le présent (représentées par la dernière valeur
observée). La proportion entre le passé et le présent est ajusté par un paramètre .
•Valeur suivie : la valeur observée.
•Valeur cible : une moyenne pondérée par un paramètre .
•Écart type : ne estimation de l'écart type expérimental
•Intervalle de décision : h. (en général h = 3)
Calcul de la valeur de suivi (moyenne pondérée)
zi = λ.X° + (1 λ).zi 1
Les limites de surveillance sont données par les expressions :
s λ
LS = X° + / h. . (1 (1 λ) 2i )
n 2 λ
| PAGE 33
EXEMPLES
Paramètre
| PAGE 34
ETUDE DU BRUIT DE FOND
CEA | 10 AVRIL 2012
| PAGE 35
VARIATION DU BRUIT DE FOND (LEPTON, 100 MINUTES)
xmoy =18,6 cpm
exp = 0,4526 cpm
n = 55
ÉVOLUTION DU BRUIT DE FOND (TOUTES LES 17 HEURES)
•De grandes "oscillations"
communes à tous les
compteurs (effet de la
température ?)
•Une variation interne aux
compteurs de même
amplitude
CARTES SHEWHART ET EWMA
EWMA, = 0,6
CARTE CUSUM
Écart maximum toléré sur la moyenne : 1,2 %
EFFICACITÉ TRITIUM
Analyse des résultats du compteur "Meson" (une centaine de données) :
•La variable efficacité ne suit pas une loi normale
•Il y a une tendance chronologique (vieillissement du PM)
•Moyenne : 65,77 % - Écart type expérimental : 7
La carte EWMA avec
un paramètre de 0,6
semble la plus
adaptée