0% ont trouvé ce document utile (0 vote)
127 vues105 pages

Économétrie Box Jenkins

Ce document présente un projet de recherche sur la méthode de Box et Jenkins pour la modélisation de séries chronologiques, réalisé par des étudiants de l'Université Abdelmalek Essaâdi. Il comprend une partie théorique sur les concepts fondamentaux des séries temporelles et une partie pratique appliquant ces concepts à des données réelles. L'objectif est de démontrer l'utilité de ces méthodes dans l'analyse financière.

Transféré par

ilyasalaoui997
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
127 vues105 pages

Économétrie Box Jenkins

Ce document présente un projet de recherche sur la méthode de Box et Jenkins pour la modélisation de séries chronologiques, réalisé par des étudiants de l'Université Abdelmalek Essaâdi. Il comprend une partie théorique sur les concepts fondamentaux des séries temporelles et une partie pratique appliquant ces concepts à des données réelles. L'objectif est de démontrer l'utilité de ces méthodes dans l'analyse financière.

Transféré par

ilyasalaoui997
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Royaume du Maroc

UNIVERSITÉ ABDELMALEK ESSAÂDI


Faculté des Sciences Juridiques, Économiques et Sociales
- Tanger -

MASTER Intelligence Artificielle pour


l’Economie Numérique et la Gestion

Projet de recherche et d’application :


La méthode de Box et Jenkins pour la
modélisation de série chronologique

Réalisé par :

Étudiants :
AHMED EL BADMOUSSI
MOHAMED SAIDI
ILYAS ALAOUI
ADIL LFAOUT
ISMAIL EL HARRAK

Encadrée par :
Dr. Soumaya FELLAJI

Année universitaire 2024 – 2025


Sommaire
Sommaire ...................................................................................................................................... 1
Remerciements ............................................................................................................................. 3
Introduction .................................................................................................................................. 5
Partie 1 : .................................................................................................................................... 6
Partie théorique ........................................................................................................................ 6
Les notions de base .............................................................................................................. 7
1. Différence entre TS et DS et l'utilisation de chaque type ........................................... 11
2. Relation entre TS, DS et les modèles AR et MA .......................................................... 13
3. Hétéroscédasticité et solutions .................................................................................. 17
4. Décalages temporels (Retard) .................................................................................... 19
5. Statistique de Stationnarité : ...................................................................................... 22
6. est de normalité.......................................................................................................... 29
7. Types de transformations : ......................................................................................... 38
8. Stabilité du modèle AR : ............................................................................................. 47
9. Inversibilité des Processus MA(q) : ............................................................................. 49
10. parcimonie dans les modèles ARIMA ..................................................................... 51
11. Qualité de prévision ................................................................................................ 53
12. Critères de sélection du modèle ARIMA ................................................................. 56
13. Définition et Caractéristiques des séries financières :............................................ 58
14. Volatilité : ...................................................................................................................... 62
15. Différence entre les modèles ARCH et GARCH : ........................................................... 65
Partie 2 : .................................................................................................................................. 71
Partie pratique ........................................................................................................................ 71
1. Visualisation de la série (graphique) .......................................................................... 73
2. Type de série et la stationnarité (corrélogramme, ADF) ............................................ 74
3. Transformations de la série (différenciation) ............................................................. 76
4. Chercher le modèle meilleur (ARIMA)........................................................................ 80
5. Tester l’hétéroscédasticité (white, ARCH) .................................................................. 83
6. Correction (GLS Conditional Least Squares) ............................................................... 86

1
7. Predictions .................................................................................................................. 89
8. Équation du Modèle Final ........................................................................................... 95
Conclusion générale ................................................................................................................... 98
Bibliographie ............................................................................................................................... 99

2
Remerciements
Avant de commencer notre projet de fin de module, nous souhaitons exprimer notre
reconnaissance à toutes les personnes qui ont contribué à sa réussite.

Tout d'abord, nous tenons à remercier chaleureusement Madame Soumaya FELLAJI pour son
encadrement précieux et son soutien constant.

Nous sommes également profondément reconnaissants envers ceux qui nous ont aidés tout au
long de la rédaction et de la compréhension des éléments du projet, ainsi que pour leur soutien
émotionnel durant cette expérience.

Nous remercions également l'ensemble du personnel administratif et professoral de l'FSJES


Tanger pour la qualité de leur enseignement et leur compréhension à notre égard. Enfin, nos
sincères remerciements vont à tous ceux qui ont contribué à ce que ce travail soit mené à bien
dans les meilleures conditions possibles.

Nous apprécions énormément le temps et les précieux conseils que chacun nous a accordés,
contribuant ainsi à notre développement continu.

3
4
Introduction
Dans l’analyse des marchés financiers, il est important de comprendre et prévoir les évolutions
des données au fil du temps. Ce rapport présente des méthodes avancées pour étudier et
modéliser ces données, en se concentrant sur la méthode Box-Jenkins (ARIMA), qui est très
utiles et important pour les analystes financiers.

La première partie de ce rapport commence par une présentation des éléments et des
caractéristiques des séries chronologiques. Ensuite, nous montrons les séries non stationnaires
et leurs types TS et DS, Nous décrivons aussi les transformations et ajustements nécessaires
pour rendre les stationnaire (une condition essentielle pour utiliser efficacement la méthodes
Box-Jenkins), Nous parlerons aussi de l’hétéroscédasticité et solutions possibles.

Nous avons aussi plusieurs concepts clés comme les tests de stationnarité, les tests de
normalité, ainsi que les différentes transformations possibles des données et les critères pour
choisir la meilleure méthode. La stabilité des modèles AR, l’inversibilité des modèles MA, la
parcimonie et la qualité des prévisions seront aussi étudiées, nous présenterons le critère de
sélection du modèle ARIMA avant de nous intéresser aux spécificités des séries financières,
notamment la volatilité et la différence entre les modèles ARCH et GARCH.

La deuxième partie de ce rapport est axée sur la pratique. Nous allons appliquer les concepts
théoriques à des données réelles du taux de change de MAD par apport USD ($), afin de montrer
concrètement l’utilité des modèles et des méthodes étudiés.

Ce rapport a pour objectif de répondre aux exigences académiques tout en montrant comment
ces outils avancés sont utilisés concrètement dans l’analyse financière.

5
Partie 1 :
Partie théorique

6
Les notions de base
Définition des séries temporelles

Une série temporelle est une collection d'observations ou de données collectées pour une
variable spécifique à des différents moments, organisées de manière chronologique. Ces
observations sont enregistrées à des intervalles de temps définis, séquentiels et spécifique,
permettant d’analyser l'évolution d'un phénomène au fil du temps.

L’utilisation : Les séries temporelles sont normalement utilisées pour analyser l'évolution des
phénomènes dans l’intervalle de temps et pour faire des prévisions futures.1

Composantes des séries temporelles :

1. Tendance : La tendance montre La direction générale dans laquelle les données évoluent
à long terme, c-à-d si les valeurs augmentent, diminuent ou restent stables sur une
période de long terme.

2. Variation saisonnière : Les variations saisonnières montrent des schémas qui se


répètent à des périodes régulières similaires au cours de périodes similaires
(équivalentes) et séquentielles.

3. Variation cyclique : Les modèles cycliques sont les mouvements alternatifs à la hausse
et à la baisse dans une série chronologique.

4. Composante aléatoire (ou résiduelle) : Les variations non systématiques ou les


variations aléatoires qui ne peuvent pas être attribuées à la tendance, à la Variation
saisonnière ou au Variation cyclique, représentant souvent l’erreur dans les données.

1 https://ensai.fr/wp-content/uploads/2019/06/Polyseriestemp.pdf / Page 5

7
2

Bruit Blanc (BB) :

Le bruit blanc est une suite de variables aléatoires non corrélées dans le temps, avec une
espérance nulle et une variance constante, le bruit blanc est un élément fondamental en
modélisation des séries temporelles, car il représente un signal purement aléatoire. Il est utilisé
comme terme d'erreur dans les modèles AR, MA et ARIMA.3

Les Séries Stationnaires :

2
Ibid. / Page 6
3
Modélisation de séries stationnaires MAP-STA2 : Séries chronologiques / Y. Goude - [email protected] / 2023-2024 / Page
1
8
Une série temporelle est stationnaire si sa moyenne, sa variance et son autocorrélation restent
constantes dans le temps. En d'autres termes, une série est stationnaire si elle ne présente ni la
tendance, ni la saisonnalité, et que ses fluctuations restent stables au fil du temps.4

Composantes des séries stationnaires

Si une série temporelle présente une structure claire avant différenciation (comme tendance,
saisonnalité et cycles), la différenciation modifie ou élimine certaines de ces composantes :

1. Tendance : La différenciation permet généralement d’éliminer la tendance.

2. Variation saisonnière : Une différenciation (ex. Y’t = Yt – Yt-1) peut être utilisée pour
supprimer des effets saisonniers.

3. Variation cyclique : Les cycles de longue durée peuvent être réduits après
différenciation, mais peuvent encore être présents sous une forme atténuée.

4. Composante aléatoire : Après différenciation, il reste souvent un bruit aléatoire et, si la


série était initialement non stationnaire, elle devient stationnaire.

La Différenciation:

La différenciation est la technique de soustraire la valeur actuelle d’une série chronologique de


sa valeur précédente, il permet de transformer la structure d’une série temporelle en
supprimant la tendance et la saisonnalité, tout en conservant les variations aléatoires et,
potentiellement, certaines composantes cycliques. 5

Y’ t = Y t – Y t-1

Y t : la valeur actuelle d’une série chronologique

Y t-1 : la valeur précédente d’une série chronologique

Y’t : la série différenciée.

Processus non stationnaires

Comment faire la différence en Python

Pour effectuer une différenciation sur une séries chronologiques. L’un des moyens les plus
simples consiste à utiliser la bibliothèque pandas dans python, qui fournit une fonction
appelée diff() pour la différenciation. On peut spécifier l’ordre de différenciation en
transmettant un paramètre appelé periods, dont la valeur par défaut est 1. Par exemple, si on a
un objet Pandas Series appelé sales, vous pouvez le différencier en utilisant le code suivant :

4
Ibid. /Page 4
5
https://fr.linkedin.com/advice/1/what-advantages-disadvantages-
differencing?lang=fr&lang=fr#:~:text=Par%20exemple%2C%20si%20vous%20avez,est%20une%20nouvelle%20s%C3%A9rie%2
0chronologique.
9
On peut également utiliser la bibliothèque numpy, qui fournit une fonction appelée diff() pour
la différenciation. On peux spécifier l’ordre de différenciation en transmettant un paramètre
appelé n, dont la valeur par défaut est 1. Par exemple, si on a un objet tableau numpy appelé
sales, vous pouvez le différencier à l’aide du code suivant :

10
1. Différence entre TS et DS et l'utilisation de
chaque type
• Le processus stationnaire autour d’une tendance, Processus TS (Trend Stationary)

Un processus stationnaire en tendance (TS) est une série temporelle et non stationnaire à la
cause de la présence d’une tendance déterministe* (La tendance est significative), ce type de
séries devient stationnaire après la suppression de la tendance directement car il n’y a pas un
effet d’une choc stochastique. 6

*Une tendance déterministe est une tendance qui évolue de manière prévisible et fixe dans le
temps.

Un processus stationnaire en tendance suit le modèle suivant :

𝑌𝑡 = 𝐹(𝑡) + ℇ𝑡

Ou : 𝑌𝑡 = 𝑎 + 𝑏𝑡 + ℇ𝑡

Où :

• 𝐹(𝑡) Est la tendance déterministe

• ℇ𝑡 est l’erreur blanc.

• 𝑎 Et 𝑏 sont les coefficients de tendance.

• On constate que la tendance 𝑎 + 𝑏𝑡 est liées au temps t.

Et quand le bruit est blanc on trouve que

𝐸𝑠𝑝é𝑟𝑎𝑛𝑐𝑒(𝑌𝑡 ) = 𝑎 + 𝑏𝑡

Car la moyenne de ℇ𝑡 = 0, donc le processus n’est pas stationnaire car l’espérance dépend du
temps (𝑡) et n’est pas nulle, donc pour le rendre stationnaire, il est nécessaire d’éliminer la
tendance.

𝑌′𝑡 = 𝑌𝑡 − 𝐹(𝑡)

Ou : 𝑌′𝑡 = ℇ𝑡

Où :

• 𝑌′𝑡 Est une série stationnaire

Utilisation :

6
Chapitre 3 Introduction aux tests de racine unitaire / Ahmed Bensalma / 30 Apr 2022
11
➢ Dans le cas où normalement la série est stationnaire car la racine unitaire est absente
mais il y a une tendance que on a besoin de l’éliminer avant de passer à la modélisation.

➢ Lissage de tendance (modèles de régression).

➢ Prévision des données économiques et macroéconomiques.

• Le processus stationnaire en différence, processus DS (Difference Stationary)

Un processus stationnaire en différence (DS) présente une série temporelle et non stationnaire,
à la cause de la présence d’une racine unitaire, ce type de série temporelle devient stationnaire
après application de la différenciation pour supprimer les sources non-stationnarité dans les
séries temporelles.

* RACINE UNITAIRE indique qu’un choc stochastique aura un effet permanent sur la serie.

Normalement il existe trois types de processus DS :7

Type 1 : il existe une tendance et une constante.

𝑌𝑡 = 𝑎 + 𝑏𝑡 + 𝑌𝑡−1 + ℇ𝑡

Type 2 : il existe seulement une constante (DS avec dérive).

𝑌𝑡 = 𝑎 + 𝑌𝑡−1 + ℇ𝑡

Type 3 : il n’existe ni tendance ni constante (DS sans dérive).

𝑌𝑡 = 𝑌𝑡−1 + ℇ𝑡

Où :

• 𝑎 Est une constante (dérivé)

• 𝑎 + 𝑏𝑡 Est la tendance

• 𝑌𝑡 Est la valeur de la série à l'instant t

• 𝑌𝑡−1 Est la valeur précédant de la série

• ℇ𝑡 Est l'erreur blanc.

Donc pour rendre le processus stationnaire, il est nécessaire de prendre les différences
premières de la série par la formule :

Type 1 : il existe une tendance et une constante

𝑌′𝑡 = 𝑌𝑡 + 𝑌𝑡−1 = 𝑎 + 𝑏 + ℇ𝑡

7
ECONOMETRIE DES SERIES TEMPORELLES / Hélène Hamisultane / 24 Jan 2016
12
Type 2 : il existe seulement une constante (DS avec dérive).

𝑌′𝑡 = 𝑌𝑡 + 𝑌𝑡−1 = 𝑎 + ℇ𝑡

Type 3 : il n’existe ni tendance ni constante (DS sans dérive).

𝑌′𝑡 = 𝑌𝑡 + 𝑌𝑡−1 = ℇ𝑡

Où :

• 𝑌′𝑡 C’est une série stationnaire

Utilisation :

➢ Lorsque la tendance est significative mais il y a la racine unitaire.

➢ Lorsque la tendance n’est pas significative mais il y a la racine unitaire et la constante


présente (avec dérivé).

➢ Lorsque la tendance n’est pas significative mais il y a la racine unitaire et la constante


absente (sans dérivé).

➢ Prédiction des variables à comportement aléatoire.

2. Relation entre TS, DS et les modèles AR et MA


• Définitions de Modèle Autorégressif

Le modèle Autorégressif AR(p) est un modèle de séries temporelles (à condition d’être


stationnaire) dans lequel la valeur actuelle d'une variable dépend linéairement de ses valeurs
passées. 8

Il est utilisé pour modéliser des données stationnaires présentant une dépendance temporelle.

Est défini mathématiquement comme suit :9

YT= θ1YT-1+ θ2YT-2+ θ3YT-3+…+ θPYT-P+ εT


YT: est la valeur actuelle de la série temporelle,
YT-1, YT-2, ... YT-P : sont les valeurs passées de la série temporelle
θ1, θ2, … θp : sont les coefficients du modèle à estimer, mesurent la relation entre la valeur

actuelle de la série et ses valeurs passées (c.-à-d. l’effet des valeur précédant).

8
Les Processus AR / Gilbert Colletaz / 10 octobre 2018
9
IBM / Qu’est-ce qu’un modèle autorégressif ? / Joshua Noble (Data Scientist) / 12 juin 2024
13
εT : est un bruit blanc, une erreur aléatoire avec une moyenne de zéro et une variance constante.
L’ordre (P) :Le modèle AR(p) suppose que la valeur actuelle de la série dépend des p valeurs passées.

Exemple d’un Auto régression d’ordre 1 modèle AR (1)

YT= 0.7YT-1+εT
• Dans ce modèle, la valeur actuelle de YT dépend uniquement de la valeur passée YT-1
et du bruit blanc εT.

• Le coefficient 0.7 est appelé coefficient autorégressif, il indique l'impact de YT-1 sur la
valeur actuelle YT

• εT est un bruit blanc (avec une moyenne nulle et une variance constante),
• Cela signifie que YT est une combinaison pondérée de sa valeur précédente YT-1, avec
un facteur d'atténuation de 0.7, plus une erreur aléatoire.

Exemple d’un Auto régression d’ordre 2 modèle AR(2)

YT= 0.7YT-1+0.5YT-2+εT
• Dans ce modèle, la valeur actuelle de YT dépend de deux valeurs passées : YT-1, YT-2
et du bruit blanc εT.

• Les coefficients 0.7 et 0.5 associés à YT-1, YT-2, indiquent l'impact de ces valeurs passées
sur la valeur actuelleYT

• εT est un bruit blanc (avec une moyenne nulle et une variance constante),
• Cela signifie que YT est une combinaison pondérée de ses deux valeurs passées avec les
facteurs d'atténuation de 0.7 et 0.5, plus une erreur aléatoire .

Application du modèle AR.

• Composante des modèles plus complexes comme ARMA et ARIMA.

• Le modèle AR est particulièrement utile lorsque les valeurs passées influencent


directement les valeurs futures.

14
• Définitions de Moyenne Mobile

Le modèle Moyenne Mobile (MA) est un modèle de séries temporelles (à condition d’être
stationnaire) dans lequel la valeur actuelle d'une variable dépend linéairement de ses erreurs
passées.10

est défini mathématiquement comme suit :

YT= ϕ1 εT-1+ ϕ2 εT-2+ ϕ3 εT-3+…+ ϕP εT-q+εT


YT : est la valeur actuelle de la série temporelle,
εT-1, εT-1 : sont des bruits blancs (variables aléatoires non corrélées)
εT-1 : est le bruit blanc au temps t
ϕ 1, ϕ 2 sont les coefficients du modèle à estimer
L’ordre (q) :Le modèle MA (p) suppose que la valeur actuelle de la série dépend des q erreurs passées

Exemple d’un Moyenne Mobile d’ordre 1 modèle MA (1)

YT= 0.5 εT-1+εT


• Dans ce modèle, la valeur actuelle de YT dépend de l'erreur blanche actuelle εT et de
l'erreur blanche passée εT-1.

• Le coefficient 0.5 est un coefficient de moyenne mobile qui représente l'impact de


l'erreur passées sur la valeur actuelle.

• εT est le bruit blanc actuelle (avec une moyenne nulle et une variance constante),
• Cela signifie que YT est une combinaison pondérée de l'erreur à l'instant actuel et de
l'erreur passée , avec un facteur d'atténuation 0.5.

Exemple d’un Moyenne Mobile d’ordre 2 modèle MA (2)

YT= 0.5 εT-1+0.8 εT-2+εT


• Dans ce modèle, la valeur actuelle de YT dépend de l'erreur blanc actuelle εT et de les
erreurs blanc passée εT-1 et εT-2.

10
Les Processus MA / Gilbert Colletaz / 24 octobre 2019
15
• Les coefficients 0.5 et 0.8 sont des coefficients de moyenne mobile qui représente
l'impact des erreurs passées sur la valeur actuelle.

• εT est le bruit blanc actuelle (avec une moyenne nulle et une variance constante),
• Cela signifie que YT est une combinaison pondérée de l'erreur à l'instant actuel et de
deux erreurs passées, avec les facteurs d'atténuation 0.5et 0.8 .

• Relation enter TS et DS avec AR MA (ARMA et ARIMA)

Combinaison ARMA et extension ARIMA11

• Modèle ARMA (p, q) : combine AR(p) et MA(q).

• Modèle ARIMA (p, d, q) : ajoute un paramètre de différenciation pour rendre une série
stationnaire avant modélisation.

Une série TS est stationnaire après la suppression de la tendance déterministe. Cela signifie
qu'on peut directement appliquer un modèle AR(p) ou ARMA(p,q).

Pour les déjà TS et DS qui sont déjà stationnaire soit avec la différenciation ou avec l’élimination
de la tangence

• Utilisation de MA(q) avec une série TS (Trend Stationary)


L'utilisation d'un modèle MA(q) avec une série TS (Trend Stationary) est possible mais rare. Une
série TS devient stationnaire après suppression de la tendance. Si la série stationnaire obtenue
ne dépend que des erreurs passées et non de ses valeurs passées, un modèle MA(q) peut être
utilisé

Cependant, si la série ne dépend pas de ses erreurs passées, un modèle MA sera inutile.

• Utilisation de MA(q) avec une série DS (Difference Stationary)


L'utilisation d'un modèle MA(q) avec une série DS (Difference Stationary) est rarement
appliquée seule. Une série DS nécessite une différenciation pour devenir stationnaire, et si la
série différenciée est bien décrite par un processus de moyenne mobile, Si la série stationnaire
obtenue ne dépend que des erreurs passées et non de ses valeurs passées, un modèle MA(q)
peut être utilisé

Cependant, si la série ne dépend pas de ses erreurs passées, un modèle MA sera inutile.

• Utilisation de AR(p) avec une série TS (Trend Stationary)

11
IBM / Qu’est-ce qu’un modèle ARIMA ? / Joshua Noble (Data Scientist) / 24 mai 2024
16
L'utilisation d'un modèle AR(p) avec une série TS (Trend Stationary) est courante. Après
suppression de la tendance, si la série stationnaire obtenue dépend de ses valeurs passées, un
modèle AR(p) est approprié.

Toutefois, si des chocs aléatoires affectent significativement la dynamique de la série, un modèle


ARMA peut être plus adapté.

• Utilisation de AR(p) avec une série DS (Difference Stationary)


L'utilisation d'un modèle AR(p) avec une série DS (Difference Stationary) est rarement appliquée
seule. Une série DS devient stationnaire après différenciation et, si la série différenciée ne
dépend que de ses valeurs passées, un modèle AR(p) peut être utilisé.

Cependant, si des chocs aléatoires affectent significativement la dynamique de la série, un


modèle ARIMA peut être plus adapté.

• Utilisation de ARMA(p,q) avec une série TS (Trend Stationary)


L'utilisation d'un modèle ARMA(p,q) avec une série TS (Trend Stationary) est le modelé
standard. Après suppression de la tendance, si la série stationnaire obtenue présente une
dépendance à la fois aux valeurs passées (AR) et aux chocs passés (MA), un modèle ARMA(p,q)
sera mieux.

• Utilisation de ARIMA(p,d,q) avec une série DS (Difference Stationary).


Le modèle ARIMA(p,d,q) est le modelé standard pour les séries DS (Difference Stationary). Une
série DS devient stationnaire après d différenciations, et si la série stationnaire obtenue
présente une dépendance à la fois aux valeurs passées (AR) et aux chocs passés (MA), un modèle
ARIMA(p,d,q) sera mieux (sachant que l’ordre d signifie le nombre des différenciation).

3. Hétéroscédasticité et solutions
• Définition :

L’hétéroscédasticité désigne une situation où la variance des erreurs n’est pas constante dans le
temps ou en fonction des variables explicatives.

Cela viole l’hypothèse de homoscédasticité, qui suppose une variance constante des erreurs
dans un modèle de régression linéaire. 12

La présence d’hétéroscédasticité peut fausser les résultats statistiques, notamment les p-


values et les tests de significativité.

12
Économétrie, cours et exercices corrigés 9éme édition/ Régis BOURBONNAIS / 7 Jan 2015/ Page 142
17
Ce qui peut entraînant Des estimations inefficaces et mauvaise

• Tests de détection de l’hétéroscédasticité :

➢ Test de White :

Détecte l'hétéroscédasticité de manière générale, vérifie si la variance des erreurs varie de


manière non linéaire en fonction des variables explicatives.13

Hypothèses :

• H0 : Homoscédasticité (variance constante).

• H1 : Hétéroscédasticité.

Si la p-valeur est faible (< 0.05), on rejette H0 et on conclut à la présence d’hétéroscédasticité.

➢ Test de Breusch-Pagan

Vérifie si la variance des erreurs dépend linéairement des variables explicatives.


Hypothèses similaires au test de White.
Si la p-valeur est faible, il y a hétéroscédasticité.

➢ Test ARCH14

Détecte l’hétéroscédasticité conditionnelle, où la variance des erreurs dépend des valeurs


passées des erreurs.
Utilisé pour tester si un modèle ARCH ou GARCH est nécessaire dans une série temporelle.

• Solutions pour Corriger l'Hétéroscédasticité


➢ Transformation des Variables

Appliquer une transformation logarithmique ou racine carrée pour stabiliser la variance :


𝑌′𝑡 = √𝑌𝑡

𝑌′𝑡 = log (𝑌𝑡 )

Utile lorsque le test white est significative mais le test ARCH est none significative.

➢ Modèles ARCH/GARCH

Si l’hétéroscédasticité est conditionnelle (le model ARCH est significative), on utilise un modèle
ARCH ou GARCH :

ARCH(q) :

13
Économétrie, cours et exercices corrigés 9éme édition/ Régis BOURBONNAIS / 7 Jan 2015/ Page 162
14
Économétrie, cours et exercices corrigés 9éme édition/ Régis BOURBONNAIS / 7 Jan 2015/ Page 164
18
𝑞

𝑉𝐴𝑅(ℇ𝑡 ) = 𝑎0 + ∑ 𝑎𝑖 ℇ2𝑡−𝑖
𝑖=1

GARCH(p,q) :
𝑞 𝑝

𝑉𝐴𝑅(ℇ𝑡 ) = 𝑎0 + ∑ 𝑎𝑖 ℇ2𝑡−𝑖 + ∑ 𝛽𝑗 𝑉𝐴𝑅(ℇ𝑡−𝑗 )


𝑖=1 𝑗=1

Utile lorsque le test ARCH est significatif.

➢ Erreurs Robustifiées 15

Ajuste les erreurs standards pour tenir compte de l’hétéroscédasticité.

Permet d’avoir les tests statistiques valides même en présence d’hétéroscédasticité.

➢ GLS (Moindres Carrés Généralisés)

La méthode des Moindres Carrés Généralisés (GLS) est utilisée pour corriger
l’hétéroscédasticité en prenant en compte la variation de la variance des erreurs dans un
modèle de régression. Contrairement aux Moindres Carrés Ordinaires, qui supposent une
variance constante des erreurs, Cette méthode est particulièrement utile lorsque le test de
White détecte une hétéroscédasticité, mais que le test ARCH ne montre pas d’effet
conditionnel.

Mais dans le cas où les deux tests sont significatifs, il est possible d’utiliser CLS La méthode des
Moindres Carrés conditionnel lors de l’estimation du modèle, ce qui permet de corriger
automatiquement l’hétéroscédasticité et d’améliorer la fiabilité des résultats.

4. Décalages temporels (Retard)


Dans le cadre de modèle spécifié en séries temporelles, les relations entre les variables ne sont
pas toujours synchrones mais peuvent être décalées dans le temps. Nous pouvons concevoir
que la consommation de l'année t est expliquée par le revenu de l'année t - 1 et non celui de
l'année t. Pour lever cette ambiguité, il est d'usage d'écrire le modèle en le spécifiant à l'aide
d'un indice de temps

c = 𝒂𝟎 + 𝒂𝟏 𝒚𝒕−𝟏 . La variable X,-, est appelée « variable endogène retardée ».


* On appelle « variable exogène » une variable dont les valeurs sont pré-déterminées, et «
variable endogène » une variable dont les valeurs dépendent des variables exogènes.

15
https://fr.statisticseasily.com/ Qu'est-ce que c'est : les erreurs types robustes

19
Pour un décalage de plusieurs unités, on utilise plusieurs fois de suite cet opérateur, ce que l'on
note L élevé à une certaine puissance (l'exposant doit s'entendre au sens de la composition).
Ainsi

𝑳𝒌 𝒙𝒕 = 𝒙𝒕−𝒌
Une généralisation est de décaler non-plus dans le passé mais dans le futur, par un exposant
négatif. Par exemple, on pose

𝑳−𝟏 𝒙𝒕 = 𝒙𝒕+𝟏

• Propriété
L'opérateur des retards et l'opérateur de multiplication sont commutatifs:

𝑳(𝜷𝒙𝒕 ) = 𝜷. (𝑳𝒙𝒕 )
L'opérateur des retards est distributif par rapport à l'opérateur d'addition:

𝑳(𝒙𝒕 + 𝒚𝒕 ) = 𝑳(𝒙𝒕 ) + 𝑳(𝒚𝒕 )

• Polyn𝒐
̂me de retard
On peut combiner les propriétés précédentes pour former un polynôme retard, appelé encore
polynôme caractéristique. Ce genre de polynôme est utilisé pour simplifier l'écriture des
modèles de classe ARMA (autorégressifs et moyenne mobile). Par exemple, pour le
modèle AR(1):16

𝒙𝒕 = 𝑪 + 𝝋𝒙𝒕−𝟏 + 𝜺𝒕 ⇒ (𝟏 − 𝝋𝑳)𝒙𝒕 = 𝒄 + 𝜺𝒕

• Et pour le modèle AR(p)


𝒑 𝟏

𝒙𝒕 = ∑ 𝝋𝒙𝒕−𝟏 + 𝜺𝒕 ⇒ (𝟏 − 𝝋𝟏 𝑳𝟏 𝝋𝟐 𝑳𝟐 − ⋯ − 𝝋𝑷 𝑳𝑷 ) 𝒙𝒕 = (𝟏 − ∑ 𝝋𝟏 ⋅ 𝑳𝒊 ) 𝒙𝒕 = 𝜺𝒕
𝒊=𝟏 𝒊=𝟏

Cela permet d'avoir une notation très concise d'un modèle ARMA(p,q):

𝛷𝑥𝑡 = Θ𝜀𝑡

16

https://fr.m.wikipedia.org/wiki/Op%C3%A9rateur_retard#:~:text=En%20l'analyse%20des%20s%C3%A9ries,%2C%
20associe%20l'observation%20pr%C3%A9c%C3%A9dente.
20
où Φ et Θ représentent les polynômes retard associés aux composantes autorégressives (AR)
et en moyenne mobile (MA)
𝑷

𝜱=𝟏− ∑ 𝝋𝒊 𝑳𝒊
𝒊=𝟏

Et

𝒒
𝚯 = 𝟏 + ∑𝒊=𝟏 𝜽𝑳𝒊

• Equation caractéristique
L'équation caractéristique se trouve très facilement depuis le polynôme caractéristique en
substituant à l'opérateur des retards L la variable x. Pour le modèle AR(p):

(1 − 𝜑1 𝐿1 −𝜑2 𝐿2 − ⋯ − 𝜑𝑃 𝐿𝑃 )

devient (1 − 𝜑1 𝑥 1 − 𝜑2 𝑥 2 − ⋯ − 𝜑𝑝 𝑥 𝑝 )

L'équation caractéristique est utilisée notamment pour vérifier la stationnarité et l'invertibilité


d'un processus ARMA.

Opérateur de différence

L'opérateur de différence première Δ est un polynôme retard spécial :

𝛥𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1
𝛥𝑥𝑡 = (1 − 𝐿) 𝑥𝑡
De manière similaire, l'opérateur de différence seconde est

𝛥(𝛥𝑥𝑡 ) = 𝛥𝑥𝑡 − 𝛥𝑥𝑡−1


𝛥(𝛥𝑥𝑡 ) = 𝑥𝑡 − 2𝑥𝑡−1 + 𝑥𝑡−2

𝛥2 𝑋𝑡 = (1 − 𝐿)𝛥𝑥𝑡
𝛥2 𝑋𝑡 = (1 − 𝐿)(1 − 𝐿)𝑋𝑡
𝛥2 𝑋𝑡 = (1 − 𝐿)2 𝑋𝑡
L’approche précedente se généralise à la i-ème différence

21
𝛥𝑖 𝑋𝑡 = (1 − 𝐿)𝑖 𝑥𝑡

5. Statistique de Stationnarité :
La stationnarité est la propriété d'une série temporelle à garder ses caractéristiques inchangées
au passage du temps.

Elle implique l'absence de tendance dans les données ainsi qu'une moyenne et une variance
constantes pour la série temporelle

On distingue deux types de stationnarité :

• Stationnarité Stricte (Stationnarité au Sens Strict) :


Un processus stochastique est dit strictement stationnaire si sa distribution de probabilité
conjointe reste invariante à toute translation temporelle. Formellement, pour tout ensemble de
temps et tout décalage :

Cela signifie que toutes les statistiques d'ordre supérieur (moyenne, variance, skewness,
kurtosis, etc.) sont invariantes dans le temps. Un bruit blanc gaussien est un exemple de
processus strictement stationnaire, car toutes ses statistiques restent constantes. Cependant,
cette condition est souvent difficile à vérifier en pratique, car elle impose une constance de
toutes les distributions jointes du processus.

• Stationnarité Faible (Stationnarité au Sens Large)


Un processus est dit faiblement stationnaire si seules certaines statistiques d'ordre
inférieur restent constantes dans le temps. Plus précisément, la stationnarité faible
impose trois conditions fondamentales :

1. Moyenne constante
2. Variance constante
3. Autocovariance ne dépend que du décalage

Une série temporelle stationnaire conserve ses caractéristiques statistiques


fondamentales inchangées au cours du temps

Statistiques de Stationnarité :

22
Moyenne constante :
Une série temporelle est stationnaire si sa moyenne reste stable dans le temps. Elle ne
doit pas présenter de tendance à la hausse ou à la baisse. Formellement :

𝐸(𝑦𝑡 ) = 𝐸(𝑦𝑡+𝑘 ) = 𝜇 < ∞ ∀t , k

Variance constante (Homoscédasticité) :


La variance doit rester constante au fil du temps. Si elle varie, la série est considérée comme
hétéroscédastique et donc non stationnaire. Formellement :

Var(𝑦𝑡 ) = Var(𝑦𝑡−𝑘 ) = 𝜎𝑦2 < ∞ ∀t , k

Autocovariance dépendant uniquement du décalage :


L'autocovariance entre deux observations ne doit dépendre que de la distance temporelle
(lag ), et non du temps absolu. Formellement :

Cov(𝑦𝑡 , 𝑦𝑡−𝑘 ) = cov(𝑦𝑡−𝑗 , , 𝑦𝑡−𝑗−𝑘 ) = 𝑦𝑘 < ∞ ∀t , k

Autocorrélation stationnaire d'ordre k :


L'autocorrélation mesure la relation entre les valeurs passées et présentes de la série. Elle doit
être stable dans le temps.

𝑦𝑘
𝜌𝑠 = Cor(𝑦𝑡 , 𝑦𝑡−𝑘 ) =
𝑦0

ces moments de la population peuvent être calculés en utilisant les données d'échantillonnage
avec les formules suivantes:
𝑇
∑𝑡=1(𝑦𝑡 −𝑦̅)2
la variance : 𝑦̂0 =
𝑇
𝑇
∑𝑡=1(𝑦𝑡 −𝑦̅)(𝑦𝑡+𝑘 −𝑦̅)
L’autocovariance d’ordre k : 𝑦̂𝑘 =
𝑇

𝑦̂𝑘
L’autocorrélation d’ordre k : 𝜌̂𝑘 =
𝑦̂0

23
➢ Si la série temporelle est stationnaire, alors tout choc au temps t aura un effet
décroissant qui finira par disparaitre au temps t + s lorsque s → ∞

➢ Cette propriété est désignée sous l'expression « retour à la moyenne »

➢ Tout processus bruit blanc est stationnaire, mais toute série temporelle stationnaire
n'est pas nécessairement un bruit blanc.

La fonction d'autocorrélation empirique ou le corrélogramme d'une série temporelle est la


représentation graphique de ses autocorrélations empiriques 𝜌̂𝑘 à différents décalages de
temps contre ces décalage k = 1,2, ...

24
Pour une série temporelle qui est la réalisation d’un processus stationnaire, les
autocorrélations déclinent rapidement et de manière exponentielle avec le nombre de
décalages (partie a).

Ceci n’est pas le cas pour un processus non stationnaire (partie b). 17

Test de stationnarité (ou tests de racine unitaire) :

• Le test de Dickey-Fuller (DF) 18


Le test de Dickey-Fuller est un test statistique permettant de vérifier si une série temporelle
suit une marche aléatoire (non stationnaire) ou si elle est stationnaire (ses statistiques ne
changent pas dans le temps).

17
Bourbonnais, R., & Terraza, M. (2020). Analyse des séries temporelles : Stationnarité, modèles ARMA et
prévisions. Dunod.
18
https://fr.wikipedia.org/wiki/Test_de_Dickey-Fulleer
25
Ce test repose sur l’estimation d’un modèle autorégressif simple (AR(1)) et l’examen du
coefficient de l’autoregression. Il existe trois versions du test, selon les caractéristiques de la
série analysée :

1. Cas 1 : Série autour de zéro (sans tendance ni constante)


o La série oscille autour de zéro sans tendance apparente.
o Le test vérifie si la série est une marche aléatoire ou stationnaire.
o Si H₀ (non-stationnarité) est rejetée, la série est stationnaire.
2. Cas 2 : Série avec une moyenne constante
o La série fluctue autour d’une valeur fixe différente de zéro.

o Le test vérifie si elle suit une marche aléatoire avec une constante.
o Si H₀ est rejetée, la série est stationnaire avec une moyenne stable.
3. Cas 3 : Série avec une tendance linéaire
o La moyenne de la série augmente ou diminue au fil du temps.
o Le test vérifie si la série suit une marche aléatoire avec une tendance linéaire.
o Si H₀ est rejetée, la série est stationnaire après suppression de la tendance.

• Le Test Dickey-Fuller augmenté :


Le test Augmented Dickey-Fuller (ADF) est un test statistique utilisé pour déterminer si une série
temporelle donnée est stationnaire ou possède une racine unitaire, ce qui indique une non-
stationnarité. La stationnarité est une propriété cruciale dans l'analyse des séries
chronologiques, car de nombreuses méthodes et modèles statistiques, y compris les modèles
de moyenne mobile intégrée autorégressive (ARIMA), supposent que les données sous-jacentes
sont stationnaires. Le test ADF étend le test original de Dickey-Fuller en incluant les termes
décalés de la variable dépendante pour tenir compte des processus autorégressifs d'ordre
supérieur, améliorant ainsi la fiabilité du test en présence d'une corrélation en série.

Les hypothèses du test ADF :


Le test ADF fonctionne sous deux hypothèses concurrentes : l’hypothèse nulle (H0) et
l’hypothèse alternative (H1). L’hypothèse nulle stipule que la série chronologique a une racine
unitaire, ce qui indique qu’elle n’est pas stationnaire. À l’inverse, l’hypothèse alternative postule
que la série chronologique est stationnaire. Le résultat du test ADF conduira soit au rejet de
l'hypothèse nulle en faveur de l'alternative, soit à l'échec du rejet de l'hypothèse nulle, guidant
ainsi les analystes dans leur compréhension des propriétés des séries chronologiques.

26
Les hypothèses du test de Dickey-Fuller Augmenté se définissent de la façon suivante :

H0 : processus non stationnaire, il correspond à une de ces formes de non stationnarité :


𝑝
[1] 𝛥𝑦𝑡 = 𝜌𝑦𝑡−1 − ∑𝑘=2 𝛾𝑡−𝑘+1 + 𝜂𝑡
𝑝
[2] 𝛥𝑦𝑡 = 𝜌𝑦𝑡−1 − ∑𝑘=2 𝛾𝑡−𝑘+1 + 𝑐 + 𝜂𝑡
𝑝
[3] 𝛥𝑦𝑡 = 𝜌𝑦𝑡−1 − ∑𝑘=2 𝛾𝑡−𝑘+1 + 𝑏𝑡 + 𝑐 + 𝜂

Où 𝜌 = 0 , ø =1 et ηt ~>iid(0, σ2 η)
H1 : ø1 < 1

Table de ADF ( t tab) : Comparaison de la statistique t avec la valeur critique tabulée (t-tab)
pour tester la significativité de la tendance et de la constante, afin de déterminer le type de
série (Ts, Ds, Ds avec dérive, Ds sans dérive).

Interprétation des résultats des tests ADF :


L'interprétation des résultats du test ADF implique d'examiner la statistique du test et la valeur
p associée. Une valeur p faible (généralement inférieure à 0.05) indique des preuves solides
contre l'hypothèse nulle, suggérant que la série chronologique est stationnaire. À l’inverse, une
valeur p élevée implique des preuves insuffisantes pour rejeter l’hypothèse nulle, ce qui indique
que la série pourrait être non stationnaire. Il est essentiel de prendre en compte le contexte des
données et les caractéristiques spécifiques de la série chronologique lors de l'interprétation des
résultats, car les données du monde réel peuvent présenter des comportements complexes
susceptibles d'influencer les résultats des tests.

27
Limites du test ADF :
Bien que le test ADF soit une méthode largement utilisée pour tester la stationnarité, il a ses
limites. Une limitation importante est sa sensibilité au choix de la longueur du décalage, qui
peut affecter la puissance et les résultats du test. De plus, le test ADF peut ne pas fonctionner
correctement en présence de ruptures structurelles ou lorsque la série chronologique présente
des tendances. Les analystes devraient envisager de compléter le test ADF avec d'autres tests
de stationnarité, tels que le test de Kwiatkowski-Phillips-Schmidt-Shin (KPSS) ou le test de
Phillips-Perron, pour acquérir une compréhension plus complète des propriétés des séries
chronologiques. 19

• Test de Phillips-Perron : 20

Le test de Phillips et Perron permet de prendre en compte à la fois l’autocorrélation et


l’hétéroscédasticité des erreurs. Il s’appuie sur les mêmes modèles que ceux du test de Dickey
et Fuller simple mais propose une correction non-paramétrique de la statistique . 𝑡𝜙1 Le
déroulement du test de Phillips-Perron s’effectue en quatre étapes qui sont :

1) Estimation par la méthode des moindres carrés ordinaires les trois modèles du test
de Dickey-Fuller simple et calcul des résidus . 𝜀̂𝑡2

2) Détermination de la variance dite de court terme :

𝑛
1
𝜎̂ 2 = ∑ 𝜀̂𝑡2
𝑛
𝑡=1

3) Estimation du facteur correctif s2 t appelé variance de long terme :

𝑏
1 𝑛 𝐽 1 𝑛
= ∑𝑡=1 𝜀̂𝑡2 +2 ∑ (1 − ) ∑𝑡=𝑘=𝑘 𝜀̂𝑡 𝜀̂𝑡−𝑗
𝑛 𝑗=1 𝑏+1 𝑛

Ou
𝑛 2⁄9
B ≈ 4( )
100

19
https://fr.statisticseasily.com/glossaire/qu%27est-ce-que-le-test-Dickey-Fuller-augment%C3%A9/
20
https://shs.hal.science/cel-01261174/document
28
4) Calcul de la statistique de Phillips et Perron :
(𝜙1 − 1) 𝑛(𝑘 − 1)𝜎̂𝜙̂1
𝑡𝜙′ 1 = √𝑘 +
𝜎̂𝜙̂1 √𝑘
Avec
̂2
𝜎
K=
𝑠𝑡2

Phillips et Perron (1988) montrent que cette correction non-paramétrique apportée à ne


modifie pas la distribution asymptotique de la statistique qui reste identique à celle qui est
observée dans le cas du test de Dickey-Fuller simple. En conséquence, les valeurs critiques
tabulées par Dickey et Fuller demeurent également valables pour le test de Phillips-Perron

6. est de normalité
Le test de normalité est utilisé normalement pour vérifier si le bruit est gaussier

(P>0,05).

L'une des hypothèses les plus courantes pour les procédures de test statistique est que les
données utilisées doivent être normalement distribuées. Par exemple, si un test t ou
une ANOVA doit être calculé, il faut d'abord vérifier si les données ou les variables sont
normalement distribuées .

Si la distribution normale des données n'est pas donnée, les procédures ci-dessus ne peuvent
pas être utilisées et les tests non paramétriques, qui ne nécessitent pas une distribution
normale des données, doivent être utilisés.

Dans le cas d'une analyse de régression, les hypothèses de distribution normale sont également
importantes, mais il est important que l'erreur commise par le modèle soit normalement
distribuée et non les données elles-mêmes.

Comment tester la distribution normale ?

La distribution normale peut être testée de manière analytique ou graphique. Les tests
analytiques les plus courants pour vérifier la distribution normale des données sont les suivants
:

▪ Le test de Kolmogorov-Smirnov
▪ Le test de Shapiro-Wilk

29
▪ Le test d'Anderson-Darling.
Pour le test graphique, on utilise soit un histogramme, soit le graphique Q-Q. Q-Q est
l'abréviation de Quantile Quantile Plot, il compare la distribution réelle observée et la
distribution théorique attendue.

Test analytique de la normalité des données

Pour tester analytiquement la distribution normale de vos données, il existe plusieurs


procédures de test, les plus connues étant le test de Kolmogorov-Smirnov, le test de Shapiro-
Wilk et le test d'Anderson Darling.

Avec tous ces tests, vous testez l'hypothèse nulle selon laquelle vos données sont normalement
distribuées. L'hypothèse nulle est donc que la distribution des fréquences de vos données est
normalement distribuée. Pour rejeter ou ne pas rejeter l'hypothèse nulle, vous obtenez
une valeur p à partir de tous ces tests. La grande question est de savoir si cette valeur p est
inférieure ou supérieure à 0,05.

Si la valeur p est inférieure à 0,05, elle est interprétée comme un écart significatif par rapport à
la distribution normale et vous pouvez supposer que vos données ne sont pas normalement

30
distribuées. Si la valeur p est supérieure à 0,05 et que vous voulez être complètement propre
d'un point de vue statistique, vous ne pouvez pas nécessairement dire que la distribution des
fréquences correspond à la distribution normale, vous ne pouvez simplement pas réfuter
l'hypothèse nulle.

Dans la pratique, même si la distribution n'est pas complètement propre, elle est toujours
traitée de telle sorte qu'une valeur supérieure à 0,05 est supposée être une distribution
normale. Néanmoins, il convient toujours d'examiner la solution graphique.

Pour votre information, vous pouvez utiliser le test de Kolmogorov-Smirnov et le test


d'Anderson-Darling pour tester des distributions autres que la distribution normale.

Inconvénient des tests analytiques pour la distribution normale

Malheureusement, les procédures analytiques présentent un inconvénient majeur, ce qui


explique pourquoi les méthodes graphiques sont de plus en plus utilisées.

Le problème est que la valeur p calculée est affectée par la taille de l'échantillon. Par
conséquent, si vous avez un très petit échantillon, votre valeur p peut être beaucoup plus grande
que 0,05, mais si vous avez un très très grand échantillon de la même population, votre valeur
p peut être plus petite que 0,05.

Supposons que la distribution de votre population s'écarte très légèrement de la distribution


normale. Vous obtiendrez alors une valeur p très élevée avec un très petit échantillon et
supposerez donc que les données sont normalement distribuées. Cependant, si vous prenez un
31
échantillon plus grand, la valeur p devient de plus en plus petite, même si les échantillons
proviennent de la même population avec la même distribution. Avec un très grand échantillon,
vous pouvez même obtenir une valeur p inférieure à 0,05 et donc rejeter l'hypothèse nulle d'une
distribution normale.

Pour résoudre ce problème, vous devez utiliser de plus en plus les méthodes graphiques.

Test graphique de la distribution normale

Si la distribution normale est testée graphiquement, on examine soit l'histogramme, soit, mieux
encore, le graphique QQ.

Si vous optez pour l'histogramme, vous tracez la distribution normale sur l'histogramme de vos
données et vous voyez si la courbe de la distribution normale correspond à peu près à celle de
la courbe de la distribution normale.

Toutefois, il est préférable d'utiliser ce que l'on appelle le tracé des quantiles ou tracé QQ en
abrégé. Il s'agit ici de comparer les quantiles théoriques que les données devraient avoir si elles
étaient parfaitement distribuées normalement et les quantiles des valeurs mesurées .

32
Si les données sont parfaitement normales, tous les points se situent sur la ligne. Plus les
données s'écartent de la ligne, moins elles sont normalement distribuées.

En outre, DATAtab trace l'intervalle de confiance à 95 %. Si la totalité ou la quasi-totalité de vos


données se situe dans cet intervalle, cela indique très clairement que vos données sont
normalement distribuées. Vos données ne sont pas normalement distribuées si, par exemple,
elles forment un arc et sont éloignées de la ligne dans certaines zones.

Tester la distribution normale dans DATAtab

Si vous testez la distribution normale de vos données avec DATAtab, vous obtenez l'évaluation
suivante: vous obtenez d'abord les procédures de test analytiques clairement organisées dans
un tableau, puis les procédures de test graphiques.

33
Si vous souhaitez tester la distribution normale de vos données, il vous suffit de copier vos
données dans le tableau de DATAtab, de cliquer sur Statistiques descriptives et de sélectionner
la variable dont vous souhaitez tester la distribution normale. Cliquez ensuite sur Test de la
distribution normale et vous obtiendrez les résultats.

En outre, si vous calculez un test d'hypothèse avec DATAtab, vous pouvez tester les conditions
préalables pour chaque test d'hypothèse. Si l'une des conditions préalables est la distribution
normale, vous obtiendrez le test de distribution normale de la même manière. 21

• Les types de tests :


Test de Normalité de Shapiro-Wilk

Le test de Shapiro-Wilk est le plus utilisé pour évaluer la distribution Normale d’un échantillon.
Il est adapté aussi bien aux petits qu’aux grands échantillons. Ce test réalisable sur un logiciel
de statistique donne directement la p-value.

Nous commençons par poser les hypothèses nulle et alternative du test:

21
https://datatab.fr/tutorial/test-of-normality
34
Hypothèse nulle H0 : La variable dont provient l’échantillon suit une loi Normale. Versus
hypothèse alternative H1 : La variable dont provient l’échantillon ne suit pas une loi Normale.

En réalisant le test de Shapiro-Wilk, nous obtiendrons évidement deux résultats possibles de


la p-value:

Soit p-value > 0,05 (avec le niveau de signification alpha=5%), dans ce cas l’hypothèse nulle H0
est acceptée. Nous pouvons conclure que les données suivent une distribution Normale. Soit
la p-value est ≤ 0,05. L’hypothèse H0 est rejetée et les données n’ont pas une distribution
normale.

Ci-dessous le tableau des résultats d’un test de Shapiro-Wilk. W est la valeur du test et la p-value
est égale à 0,423. Elle est inférieure à 0,05. Nous acceptons donc l’hypothèse nulle et nous
concluons que la distribution de la variable « Height » suit une loi Normale.

Le tracé Q-Q plot montre que les valeurs de la variable « Height » sont bien alignées sur la droite
du graphique.

35
Par contre le test de Shapiro-Wilk appliqué à la variable Cytorachie (c/ul), donne une p-value <
0,0001. Les données de cette variable ne suivent pas une distribution normale . 22

Test de Normalité de Kolmogorov-Smirnov


Le test de Kolmogorov-Smirnov (test KS) est un test statistique non paramétrique utilisé pour
déterminer si un échantillon provient d'une distribution de probabilité spécifique. Il est
particulièrement utile pour comparer une distribution d'échantillon avec une distribution de
probabilité de référence ou pour comparer deux distributions d'échantillon. Le test doit son nom
aux mathématiciens russes Andrey Kolmogorov et Nikolai Smirnov, qui l'ont développé dans les
années 1930. Le test KS est largement utilisé dans divers domaines, notamment les
statistiques, l'analyse des données, et la science des données, en raison de sa robustesse et de
sa simplicité.

Le test de Kolmogorov-Smirnov fonctionne en calculant la distance maximale entre la fonction


de distribution empirique (EDF) des échantillons de données et la fonction de distribution
cumulative (CDF) de la distribution de référence. L'EDF est une fonction échelonnée qui
représente la proportion d'observations inférieure ou égale à une valeur particulière. Le CDF,
quant à lui, est une fonction continue qui décrit la probabilité qu'une variable aléatoire prenne
une valeur inférieure ou égale à un point spécifique. La statistique KS est définie comme la

22
https://statinferentielle.fr/normalite/
36
différence absolue maximale entre ces deux fonctions, qui est ensuite comparée à une valeur
critique pour déterminer la signification du résultat.

Types de tests de Kolmogorov-Smirnov

Il existe deux principaux types de tests de Kolmogorov-Smirnov : le test KS à un échantillon et le


test KS à deux échantillons. Le test KS à un échantillon est utilisé pour comparer une distribution
d'échantillon à une distribution théorique connue, telle que la distribution normale, la
distribution exponentielle ou la distribution uniforme. Le test KS à deux échantillons, quant à
lui, est utilisé pour comparer deux échantillons indépendants afin de déterminer s'ils
proviennent de la même distribution. Les deux tests fournissent des informations précieuses sur
la

distribution sous-jacente des données et peuvent être appliqués dans divers scénarios.

Dans le test de normalité de Kolmogorov Smirnov, la distance maximale (D) entre les fonctions
de distribution cumulative (FDC) indique la probabilité que deux échantillons proviennent de la
même distribution ; plus la valeur D est petite, plus les distributions sont similaires.

Le test de Kolmogorov-Smirnov à deux échantillons est particulièrement utile pour comparer


des échantillons indépendants provenant de distributions inconnues et est applicable dans
divers domaines scientifiques, que les données soient normalement distribuées ou non. 23

Test de normalité d’Anderson Darling 24


La statistique d'Anderson-Darling (AD) détermine dans quelle mesure les données suivent une
distribution spécifique. Généralement, plus la distribution s'ajuste correctement aux données,
plus cette statistique est faible.

La statistique d'AD est utilisée pour calculer la valeur de p du test d'adéquation de l'ajustement,
ce qui vous aide à identifier la loi qui s'ajuste le mieux à vos données. Par exemple, la statistique
d'AD est calculée pour chaque loi lorsque vous exécutez la commande Identification de loi
individuelle. Les valeurs de p calculées à partir de cette statistique permettent d'identifier le

23
https://fr.statisticseasily.com/glossario/what-is-kolmogorov-smirnov-test/#google_vignette
24
https://support.minitab.com/fr-fr/minitab/help-and-how-to/quality-and-process-improvement/capability-
analysis/supporting-topics/distributions-and-transformations-for-nonnormal-data/anderson-darling-and-
distribution-fit/
37
modèle de loi à utiliser pour une analyse de capabilité ou une analyse de fiabilité. La statistique
d'AD est également utilisée pour vérifier si un échantillon de données provient d'une population
avec une distribution spécifique. Par exemple, vous pouvez avoir besoin de vérifier que vos
données sont conformes à l'hypothèse de normalité pour un test t.

Les hypothèses du test d'Anderson-Darling sont les suivantes :

H0 : les données suivent une distribution spécifiée.

H1 : les données ne suivent pas une distribution spécifiée.

Si la valeur de p du test d'Anderson-Darling est inférieure au seuil de signification choisi


(généralement 0,05 ou 0,10), vous pouvez en conclure que les données ne suivent pas la
distribution spécifiée. Minitab n'affiche pas systématiquement une valeur de p pour le test
d'Anderson-Darling car elle n'existe pas mathématiquement dans certains cas.

Si vous comparez l'ajustement de plusieurs lois, celle ayant la valeur de p la plus élevée est
généralement celle qui est la mieux ajustée aux données. Si les lois présentent des valeurs de p
similaires, choisissez-en une en fonction de vos connaissances pratiques.

Certaines commandes génèrent une statistique d'Anderson-Darling ajustée (AD*). La statistique


d'Anderson-Darling non ajustée utilise la fonction en escalier non paramétrique basée sur la
méthode de Kaplan-Meier de calcul des points de diagramme, tandis que la statistique
d'Anderson-Darling ajustée utilise d'autres méthodes de calcul des points de diagramme.

7. Types de transformations :

Les séries temporelles sont des suites de données chronologiques souvent influencées par des
tendances et des variations saisonnières. Pour analyser ces séries de manière efficace, il est
essentiel de transformer les données afin de les rendre stationnaires, c'est-à-dire sans tendance
ni saisonnalité. Si le type de série est (Ts), les transformations avec moindres carrés sont
appréciées. En revanche, s'il est de type (Ds), on procède à la différenciation.

Bien que les séries les plus intéressantes ne soient pas stationnaires, le modèle ARIMA est
efficace tant que la série peut être rendue stationnaire par l'application de transformations
comme :
38
Transformations de stabilisation de variance (méthode de Box-Cox ) : Il est souvent possible de
stabiliser les séries dans lesquelles la variance évolue dans le temps à l'aide d'une
transformation par le logarithme naturel ou par la racine carrée. Ces transformations sont
également appelées transformations fonctionnelles.

Moindres carrés :
Si une série suit une tendance (par exemple, une température qui augmente progressivement
chaque année), elle n'est pas stationnaire. Une première étape consiste à ajuster une tendance
linéaire avec la méthode des moindres carrés, puis à la retirer.

Log naturel : Le logarithme naturel est appliqué aux valeurs de la série.

Racine carrée :La fonction racine carrée est appliquée aux valeurs de la série.

Il n'est pas possible d'utiliser les transformations par le logarithme naturel et par la racine carrée
pour les séries comportant des valeurs négatives.

Transformations de stabilisation de niveau : Une baisse lente des valeurs de la fonction


d'autocorrélation indique que chaque valeur de la série est fortement

corrélée à la valeur précédente. En analysant la variation des valeurs de la

série, vous obtenez un niveau stable.

les techniques couramment utilisées sont : la différenciation, le dé-trend la


désaisonnalisation , transformation logarithmique , lissage, et filtrage :

• Différenciation des séries temporelles :

La différenciation vise à éliminer les tendances et/ou les composantes saisonnières d'une série
temporelle en calculant les différences entre les observations successives. Cette méthode est
particulièrement utile pour stabiliser la moyenne d'une série non stationnaire.

39
Types de différenciation :

- Différenciation simple : Elle consiste à soustraire chaque valeur de la série par la précédente,
éliminant ainsi les tendances linéaires. Mathématiquement, cela s'exprime par : 𝑦𝑡 = 𝑥𝑡 −
𝑥𝑡−1

Différenciation saisonnière : Utilisée pour supprimer les composantes saisonnières en


soustrayant la valeur actuelle par celle de la même période lors du cycle précédent. Par exemple,
pour des données mensuelles avec une saisonnalité annuelle : 𝑦𝑡 = 𝑥𝑡 − 𝑥𝑡−12

- Différenciation combinée : Combine les deux approches précédentes pour éliminer


simultanément la tendance et la saisonnalité. Cette méthode est souvent utilisée dans les
modèles ARIMA saisonniers.

Il est crucial de ne pas sur-différencier une série, car cela peut introduire une complexité inutile
et affecter la qualité des prévisions. Une différenciation excessive peut transformer une série
stationnaire en une série non stationnaire.

• Dé-trend et désaisonnalisation :

Ces techniques visent à isoler et supprimer les composantes de tendance et saisonnières d'une
série temporelle, facilitant ainsi l'analyse des composantes résiduelles.

a) Dé-trend (Suppression de la tendance) :

Le dé-trend consiste à retirer la composante de tendance d'une série, généralement en ajustant


un modèle polynomial ou linéaire. Par exemple, en ajustant un modèle linéaire 𝑥𝑡 = 𝑎 + 𝑏𝑡 +
𝜀𝑡 où 𝑎 et 𝑏 sont des coefficients estimés, la série sans tendance est obtenue par : 𝑦𝑡 = 𝑥𝑡 −
(𝑎 + 𝑏𝑡 ).

40
b) Désaisonnalisation (Suppression de la saisonnalité) :

La désaisonnalisation vise à éliminer les effets saisonniers récurrents. Une méthode courante
est celle des moyennes mobiles, où l'on calcule la moyenne des observations sur une période
complète du cycle saisonnier et on soustrait cette moyenne de la série originale. Par exemple,
pour des données mensuelles avec une saisonnalité annuelle, on calcule la moyenne sur 12 mois
et on l'enlève de chaque observation correspondante

• Transformations logarithmiques et puissances :

Ces transformations sont appliquées pour stabiliser la variance des séries temporelles. La
transformation logarithmique, par exemple, est définie par : 𝑦𝑡 = log(𝑥𝑡 ) . Elle est
particulièrement utile lorsque la variance augmente avec le niveau de la série. La transformation
de Box-Cox est une généralisation qui inclut la transformation logarithmique comme cas
𝑥𝑡𝜆 −1
particulier et est définie par : 𝑦𝑡 = 𝑝𝑜𝑢𝑟 𝜆 ≠ 0 25
𝜆

• Méthodes de lissage :
Le lissage est une technique utilisée en analyse des séries temporelles pour atténuer les
variations aléatoires, révéler les tendances sous-jacentes et faciliter l’identification des
composantes principales (tendance, saisonnalité, bruit). Le lissage permet de rendre une série
plus stationnaire en supprimant certaines structures persistantes. Il existe plusieurs types de
méthodes de lissage, chacune ayant ses propres formules et propriétés.

1. Lissage par moyenne mobile

La méthode de la moyenne mobile consiste à remplacer chaque valeur d'une série par la
moyenne des n valeurs précédentes, réduisant ainsi les fluctuations aléatoires.

a) Moyenne mobile simple

25
https://www.ibm.com/docs/fr/spss-modeler/saas?topic=data-series-transformations
41
La moyenne mobile simple est définie par :

𝑛−1
1
𝑦𝑡 = ∑ 𝑋𝑡−𝑖
𝑛
1=0

Où : 𝑦𝑡 est la valeur lissée à l’instant t

𝑋𝑡 est la valeur initiale de la série

𝑛 𝑒𝑠𝑡 𝑙𝑎 𝑓𝑒𝑛ê𝑡𝑟𝑒 𝑑𝑒 𝑙𝑖𝑠𝑠𝑎𝑔𝑒

b) Moyenne mobile centrée


Elle est similaire à la moyenne mobile simple, mais la moyenne est calculée de manière
symétrique autour de t :

1
𝑦𝑡 = ∑𝑛𝑖=−𝑛 𝑥𝑡+𝑖
2𝑛+1

Cela permet d’obtenir un lissage plus équilibré en conservant le centre des données.

c) Moyenne mobile pondérée


Dans ce cas, on attribue des poids 𝑤𝑖 aux observations, en général en donnant plus de poids aux
valeurs récentes :
𝑛 𝑛

𝑦𝑡 = ∑ 𝑤𝑖 𝑋𝑡−𝑖 𝑎𝑣𝑒𝑐 ∑ 𝑤𝑖 = 1
1=0 1=0

Les poids peuvent être déterminés empiriquement ou selon une règle spécifique.

2. Lissage exponentiel

42
Le lissage exponentiel est une méthode qui applique un coefficient de pondération exponentiel
décroissant sur les observations passées. Contrairement aux moyennes mobiles, il ne nécessite
pas de stocker un grand nombre d’observations passées.

a) Lissage exponentiel simple


Le lissage exponentiel simple est défini par la relation de récurrence :

𝑦𝑡 = 𝑎𝑥𝑡 + (1 − 𝛼)𝑦𝑡−1 , 0 < 𝛼 < 1

Où : 𝑦𝑡 est la valeur lissée

𝑋𝑡 est l’observation réelle

𝛼 est le coefficient de lissage (choisi entre 0 et 1 ).

La constante α

α contrôle la réactivité du lissage aux nouvelles observations.

b) Lissage exponentiel double (modèle de Holt)


Cette méthode introduit un second paramètre pour capturer la tendance :

𝑦𝑡 = 𝑎𝑥𝑡 + (1 − 𝛼)(𝑦𝑡−1 + 𝑏𝑡−1 )

𝑏𝑡 = 𝛽 (𝑦𝑡 − 𝑦𝑡−1 ) + (1 − 𝛽)𝑏𝑡−1


Où : 𝑏𝑡 est la composante de tendance

β est un coefficient de lissage pour la tendance.

Le modèle de Holt est particulièrement utile pour les séries présentant une tendance linéaire.

c) Lissage exponentiel triple (modèle de Holt-Winters)


Le modèle de Holt-Winters est une extension du modèle de Holt qui prend en compte la
saisonnalité :
𝑥𝑡
𝑦𝑡 = 𝛼 + (1 − 𝛼) (𝑦𝑡−1 + 𝑏𝑡−1 )
𝑠𝑡−𝑠

𝑏𝑡 = 𝛽(𝑦𝑡 − 𝑦𝑡−1 ) + (1 − 𝛽)𝑏𝑡−1

43
𝑥𝑡
𝑆𝑡 = 𝛾 + (1 − 𝛾 )𝑠𝑡−𝑠
𝑦𝑡

Où :

𝑆𝑡 est la composante saisonnière

𝑆 est la période de la saisonnalité,

𝛾 est un paramètre de lissage pour la saisonnalité.

Cette méthode est particulièrement efficace pour les séries avec une tendance et une
saisonnalité marquée. 26

. le filtrage par différences : 27

Le filtrage par différences est efficace pour éliminer une tendance monotone croissante ou
décroissante, voire une tendance de forme quelconque, mais dont la courbure varie lentement
(signal à très haute fréquence). Dans ce cas, la méthode est très efficace pour stationnariser une
série. Dans le cas de la superposition d’un cycle, on peut indiquer un décalage lag= d’un demi-
cycle pour épargner au mieux le cycle dans le filtrage.

• Filtres linéaires :
Les filtres linéaires, tels que les moyennes mobiles, sont utilisés pour lisser les séries temporelles
et réduire le bruit aléatoire. Une moyenne mobile simple est calculée en prenant la moyenne
des n observations précédentes :
𝑛−1
1
𝑦𝑡 = ∑ 𝑋𝑡−𝑖 . Cette technique est utile pour révéler les tendances sous-jacentes en
𝑛 𝑖=𝑜
atténuant les fluctuations à court terme.

a) Filtre de Hodrick-Prescott (HP)


Le filtre de Hodrick-Prescott est utilisé pour séparer la tendance d’une série temporelle. Il repose
sur la minimisation de l’expression suivante :

26

https://fr.wikipedia.org/wiki/Lissage_exponentiel#:~:text=Le%20lissage%20exponentiel%20est%20une%20des%2
0m%C3%A9thodes%20de%20fen%C3%AAtrage%20utilis%C3%A9es,fr%C3%A9quences%20%C3%A9lev%C3%A9es
%20du%20signal%20initial.&text=%2C%20d%C3%A9barrass%C3%A9%20des%20al%C3%A9as%20(en%20traitem
ent,bruit)%20en%20fonction%20du%20pass%C3%A9.
27
https://wp.sciviews.org/sdd-umons3-2023/filtrage-dune-s%C3%A9rie.html
44
𝑇 𝑇−1

min ∑(𝑋𝑡 − 𝑇𝑡 )2 + 𝜆 ∑(𝑇𝑡+1 − 2𝑇𝑡 + 𝑇𝑡−1 )2


𝑡=1 𝑡=2

Où : 𝑋𝑡 est la série observée,

𝑇𝑡 est la composante de tendance estimée,

𝜆 st un paramètre de régularisation (plus

λ est grand, plus la tendance est lissée).

Un choix courant est λ=1600 pour des données trimestrielles.

b) Filtre de Kalman

Le filtre de Kalman est une méthode récursive qui met à jour l'estimation de l'état latent d'un
processus stochastique :

𝑋𝑡 = 𝐴𝑥𝑡−1 + 𝑤𝑡

𝑌𝑡 = 𝐻𝑋 + 𝜈𝑡
Où : 𝑋𝑡 est l’état latent,

𝑌𝑡 est l’observation,

𝑤𝑡 𝑒𝑡 𝜈𝑡 sont des bruits gaussiens.

Le filtre de Kalman permet une mise à jour dynamique des prédictions et du lissage.

• Critières de choix :

- Différenciation : Utilisée lorsque la série présente une tendance non stationnaire, c'est-à-dire
une croissance ou une décroissance systématique au fil du temps. Elle consiste à calculer la
différence entre valeurs successives pour éliminer cette tendance. Une différenciation d'ordre 1

45
(𝑥𝑡 − 𝑥𝑡−1 ) est souvent suffisante, mais une différenciation d'ordre 2 peut être nécessaire si la
tendance est quadratique.

- Detrending : Appliqué lorsque la série est affectée par une tendance déterministe,
généralement modélisée par une fonction linéaire ou polynomiale. Cette méthode consiste à
ajuster et soustraire cette tendance (𝑥𝑡 = 𝑚𝑡 + 𝜖𝑡 ), où 𝑚𝑡 est la tendance estimée. Elle est utile
lorsque la tendance est stable et peut être estimée précisément.

- Désaisonnalisation : Employée lorsque la série présente des variations périodiques


récurrentes (saisonnalité). Elle consiste à retirer la composante saisonnière en soustrayant une
moyenne saisonnière ou en divisant la série par un indice saisonnier (𝑋𝑡 = 𝑠𝑡 + 𝜖𝑡 ). Cette
méthode est essentielle pour les séries économiques et météorologiques ayant une périodicité
connue (mensuelle, trimestrielle, annuelle).

- Transformation logarithmique : Utilisée pour stabiliser la variance dans des séries où


l'amplitude des fluctuations augmente avec le niveau de la série (effet multiplicatif). Elle est
particulièrement efficace pour les séries financières et économiques, en convertissant les
évolutions exponentielles en tendances linéaires (𝑦𝑡 = log(𝑥𝑡 )) .

- Lissage : Appliqué lorsque la série contient des variations aléatoires bruyantes, mais qu'une
tendance ou une saisonnalité doit être préservée. Il existe différentes méthodes de lissage
(moyennes mobiles, lissage exponentiel), adaptées selon la nature de la série. Par exemple, le
lissage exponentiel simple est utilisé pour des séries sans tendance, tandis que le modèle de
Holt-Winters est plus adapté aux séries avec tendance et saisonnalité.

- Filtrage : Utilisé pour extraire une composante spécifique d’une série, comme la tendance ou
le cycle. Le filtre de Hodrick-Prescott est couramment utilisé pour séparer la tendance et le cycle
dans les séries macroéconomiques, tandis que le filtre de Kalman est préféré pour les séries
irrégulières nécessitant une mise à jour dynamique des estimations.

Le choix de la méthode dépend des caractéristiques de la série temporelle : présence de


tendance (différenciation, detrending), de saisonnalité (désaisonnalisation),

46
d’hétéroscédasticité (transformation logarithmique), de bruit (lissage) ou de structures
complexes nécessitant une modélisation plus avancée (filtrage). 28

8. Stabilité du modèle AR :
Les modèles AutoRégressifs (AR) sont couramment utilisés en analyse des séries temporelles
pour modéliser la dépendance entre une observation et ses valeurs passées. Cependant, pour
assurer leur pertinence, il est essentiel de vérifier leur stabilité. Un modèle AR instable peut
produire des prédictions erronées ou non stationnaires, rendant l’interprétation des résultats
problématique.

Un modèle autorégressif (AR) est considéré comme stable lorsque l’impact des observations
passées sur les valeurs futures diminue progressivement au fil du temps, permettant ainsi à la
série de converger vers un équilibre. À l’inverse, si cet effet persiste de manière significative, la
série peut devenir instable et difficile à contrôler. 29

La stabilité d’un modèle AR est essentielle pour garantir la fiabilité des prévisions à long terme
et éviter des projections erronées ou excessives. Pour qu’un modèle AR soit stable, il est
nécessaire que les racines de son polynôme caractéristique se situent à l’extérieur du cercle
unité dans le plan complexe. Cette condition assure la stationnarité du modèle, c’est-à-dire que
ses propriétés statistiques restent constantes au cours du temps.

Un modèle AR(p) s’écrit sous la forme suivante :

𝑦𝑡 = 𝜙 + 𝜙1 𝑦𝑡−1 + ⋯ + 𝜙𝑝 𝑦𝑡−𝑝 +𝜀𝑡

• 𝑦𝑡 est la variable à modéliser,


• 𝜙 est une constante,
• 𝜙𝑖 sont les coefficients autorégressifs,
• 𝜀𝑡 est un bruit blanc (moyenne nulle, variance constante et non autocorrélé).

28
Box, G. E. P., & Cox, D. R. (1964). "An Analysis of Transformations." Journal of the Royal Statistical Society: Series
B, 26(2), 211–252.
29
Université de Cambridge – Stability of Autoregressive Processes
47
On peut le transformer en une équation caractéristique en introduisant le décalage temporel 𝐿
(opérateur lag) : 30

(1 − 𝜙1 𝐿 − 𝜙2 𝐿2 − … − 𝜙p 𝐿𝑃 ) 𝑦𝑡 = 𝜀𝑡

En posant 𝑧 = 𝐿−1 (c'est-à-dire en remplaçant 𝐿 par 𝑧 −1 )

(1 − 𝜙1 𝑧 −1 −𝜙2 𝑧 −2 − … − 𝜙p 𝑧 −𝑃 ) = 0

En multipliant par 𝑧 𝑃 pour éliminer les exposants négatifs , on obtient le polynôme


caractéristique :

1 − 𝜙1 𝑧 − 𝜙2 𝑧 2 −…. −𝜙𝑝 𝑧 𝑝 = 0

Le paramètre 𝑧 représente donc les racines de cette équation, qui sont des valeurs complexes
ou réelles associées à la dynamique du modèle.

La stabilité du modèle repose sur les racines du polynôme caractéristique :

1 − 𝜙1 𝑧 − 𝜙2 𝑧 2 −…. −𝜙𝑝 𝑧 𝑝 = 0

Le modèle AR est stable si toutes les racines de ce polynôme sont strictement à l’extérieur du
cercle unité (∣𝑧 ∣>1)

Si au moins une racine est dans le cercle unité (∣ 𝑧 ∣ ≤1), le modèle est instable, ce qui signifie
que la série peut dégrader sa stationnarité ou diverger dans le temps.

Cas AR (1)
Si le processus suit :

𝑦𝑡 = 𝜙 + 𝜙1 𝑦𝑡−1 + 𝜀𝑡

Le polynôme caractéristique est :


1
1 − 𝜙1 𝑧 = 0 ⇒ 𝑧 =
𝜙1

La condition de stabilité est : ∣𝜙1 ∣ < 1

30 Université de Princeton – Stationarity and Stability of ARMA Models.

48
Si ∣𝜙1 ∣ ≥1, le processus est instable et peut diverger.

Cas AR (2)
Si le processus suit :

𝑦𝑡 = 𝜙 + 𝜙1 𝑦𝑡−1 + 𝜙2 𝑦𝑡−2 + 𝜀𝑡

Le polynôme caractéristique est :

1 − 𝜙1 𝑧 − 𝜙2 𝑧 2 = 0

Les conditions de stabilité sont :

1. ∣𝜙2 ∣ <1
2. 𝜙1 + 𝜙2 <1
3. 𝜙2 − 𝜙1 <1
Si ces trois conditions sont respectées, alors le modèle est stable.

Cas AR(p) Général


Pour un modèle AR(p), la stabilité est garantie si toutes les racines du polynôme :

1 − ∑ 𝜙𝑖 𝑧 𝑖 = 0
𝑖=1

sont strictement à l’extérieur du cercle unité (∣𝑧 ∣>1).

Cela peut être vérifié en calculant les racines de l’équation caractéristique et en s’assurant que
leur module est supérieur à 1.

9. Inversibilité des Processus MA(q) :


L’inversibilité d’un modèle MA signifie qu’en disposant des valeurs actuelles et des coefficients
du modèle, il est possible de reconstituer les erreurs passées. Cette propriété est essentielle
pour analyser l’impact des erreurs antérieures sur les prévisions actuelles et affiner les
projections futures en conséquence. 31

31 Peiris, M. S. (2013) Invertibility of MA processes. Time series concepts & methods

49
Tout comme nous pouvons définir un processus de moyenne mobile d'ordre infini, nous
pouvons également définir un processus autorégressif d'ordre infini, AR(∞). Il s'avère que tout
processus MA(q) stationnaire peut être exprimé comme un processus AR(∞). Par exemple,
supposons que nous ayons un processus MA(1) avec

μ = 0.

𝑦𝑖 = 𝜀𝑖 + 𝜃1 𝜀𝑖−1
Donc

𝜀𝑖 = 𝑦𝑖 − 𝜃1 𝜀𝑖−1 = 𝑦𝑖 − 𝜃1 (𝑦𝑖−1 − 𝜃1 𝜀𝑖−2 )= 𝑦𝑖 − 𝜃1 𝑦𝑖−1 + 𝜃12 𝜀𝑖−2

En continuant de cette manière, après n étapes, nous avons

𝜀𝑖 = 𝑦𝑖 𝑦𝑖−1 + 𝜃12 𝑦𝑖−2 − 𝜃13 𝑦𝑖−3 + −𝜃1 … + (−𝜃1 )𝑛 𝑦𝑖−𝑛 + (−𝜃1 )𝑛+1 𝜀𝑖−𝑛−1
𝑛
=∑𝑖=1(−𝜃1 )𝑗 𝑦𝑖−𝑗 + (−𝜃1 )𝑛+1 𝜀𝑖−𝑛−1

Par conséquent, nous avons



𝜀𝑖 = 𝑦𝑖 − 𝑦𝑖−1 + 𝜃12 𝑦𝑖−2 − 𝜃13 𝑦𝑖−3 + … =∑𝑗=0(−𝜃1 )𝑗 𝑦𝑖−𝑗

Ou de manière équivalente

𝑦𝑖 = 𝜃1 𝑦𝑖−1 − 𝜃12 𝑦𝑖−2 + 𝜃13 𝑦𝑖−3 − ⋯ + 𝜀𝑖 = ∑𝑗=1(−𝜃1 )𝑗 𝑦𝑖−𝑗 + 𝜀𝑖

Il s'avère que si |θ1| < 1, alors cette série infinie converge vers une valeur finie. De tels
processus MA(q) sont appelés inversibles. 32

• Propriétés
* Propriété 1 : Si |θ1| < 1, alors le processus MA(1) est inversible.

* Propriété 2 : Le processus MA(q) yi = μ +𝜀𝑖 + 𝜃1 𝜀𝑖−1 + ⋯ + 𝜃𝑞 𝜀𝑖−𝑞 est inversible à


condition que la valeur absolue de toutes les racines du polynôme caractéristique

1 +𝜃1 𝐿 + 𝜃1 𝐿2 = 0 soit supérieure à 1.

• Exemples :
* Exemple 1 : Déterminer si le processus MA(3) suivant est inversible.

𝑦𝑖 = 4 + 𝜀𝑖 + 5𝜀𝑖−1 − 2𝜀𝑖−2 + 6𝜀𝑖−3

50
Nous insérons la formule de tableau =MARoots(B3:B5) dans la plage D3:F5 pour obtenir les
résultats présentés dans la Figure 1.

Figure 1 – Racines d'un processus MA(3)

* Nous constatons que les trois racines de l'équation caractéristique sont 0.605828
–1.23715i, 0.605828 + 1.23715i ,et -0.87832. Puisque la valeur absolue de la racine réelle est
inférieure à 1, nous concluons que le processus n'est pas inversible. 33

* Exemple 2 : Déterminer si le processus MA(2) suivant est inversible.

𝑦𝑖 = 𝜀𝑖 − 1𝜀𝑖−1 + 21𝜀𝑖−2
En utilisant la même approche que pour l'exemple 1, nous constatons que les racines du
polynôme caractéristique sont 10/3 et 10/7, qui sont toutes deux supérieures à un. Nous
concluons donc qu'il s'agit d'un processus inversible.

10. parcimonie dans les modèles ARIMA


a) Définition et importance

La parcimonie est un principe fondamental en modélisation statistique qui consiste à privilégier


les modèles les plus simples possible tout en conservant un bon pouvoir explicatif. Ce principe,
parfois appelé "rasoir d'Occam", stipule qu'entre plusieurs modèles ayant des performances
explicatives similaires, il faut choisir le modèle le plus simple (celui qui comporte le moins de
paramètres).

33Brockwell, P. J. and Davis, R. A. (2002) Introduction to time series and forecasting, 2nd
Ed. Springer.

51
Justifications théoriques et pratiques de la parcimonie

• Réduction du risque de surajustement : Les modèles trop complexes ont tendance à


"apprendre le bruit" présent dans les données d'estimation, ce qui réduit leur capacité de
généralisation.
• Stabilité des estimations : Moins de paramètres signifie généralement des estimations
plus stables.
• Interprétabilité : Les modèles simples sont plus faciles à interpréter et à expliquer.
• Efficacité computationnelle : Les modèles parcimonieux sont généralement plus
rapides à estimer et à utiliser.

b) Application à la modélisation ARIMA

Dans le contexte des modèles ARIMA(p,d,q), la parcimonie implique de minimiser les ordres
p, d et q :

• p : nombre de termes autorégressifs


• d : ordre de différenciation
• q : nombre de termes de moyenne mobile

Exemple concret

Supposons que nous ayons les résultats suivants pour différents modèles d'une même série
temporelle :

Le modèle ARIMA(3,1,3) offre la meilleure log-vraisemblance, mais nécessite 7 paramètres.


Le modèle ARIMA(1,1,1) n'a besoin que de 3 paramètres, avec une log-vraisemblance
légèrement inférieure. Selon le principe de parcimonie, le modèle ARIMA(1,1,1) pourrait être
préféré si la différence de performance n'est pas statistiquement significative.

c) Implications mathématiques

Mathématiquement, le principe de parcimonie peut être vu comme la recherche du modèle qui


minimise une fonction objective composée de deux termes :

• Un terme mesurant l'ajustement aux données (généralement la log-vraisemblance


négative)
• Un terme de pénalité qui augmente avec le nombre de paramètres

52
11. Qualité de prévision
La qualité de prévision évalue la capacité d'un modèle à prédire correctement les valeurs
futures d'une série temporelle. C'est un aspect crucial car l'objectif principal de nombreux
modèles de séries chronologiques est justement la prévision.

a) Méthodes d'évaluation de la qualité de prévision

• Validation croisée temporelle

Contrairement à la validation croisée classique, la validation croisée temporelle respecte


l'ordre chronologique des données :

1. On divise la série en un ensemble d'entraînement (période initiale) et un ensemble de


test (période plus récente)
2. On estime le modèle sur l'ensemble d'entraînement
3. On génère des prévisions pour l'ensemble de test
4. On compare les prévisions aux valeurs réelles

• Prévision récursive et fenêtre glissante

➢ Prévision récursive : Le modèle est estimé une seule fois sur l'échantillon
d'entraînement, puis utilisé pour générer des prévisions multi-horizons.
➢ Fenêtre glissante : Le modèle est ré-estimé à chaque pas de temps en incorporant les
nouvelles observations et en éliminant les plus anciennes.

b) Mesures d'erreur de prévision

• Mesures d'erreur absolue

➢ Erreur Quadratique Moyenne (MSE - Mean Squared Error)

➢ Racine de l'Erreur Quadratique Moyenne (RMSE - Root Mean Squared Error)

53
➢ Erreur Absolue Moyenne (MAE - Mean Absolute Error)

• Mesures d'erreur relative

➢ Erreur Absolue Moyenne en Pourcentage (MAPE - Mean Absolute Percentage


Error)

➢ Erreur Symétrique Absolue Moyenne en Pourcentage (SMAPE - Symmetric Mean


Absolute Percentage Error)

➢ **U de Theil**

c) Analyse de la décomposition des erreurs

On peut décomposer l'erreur quadratique moyenne en trois composantes :

• Biais : Mesure si les prévisions sont systématiquement trop hautes ou trop basses
• Variance : Mesure si l'amplitude des fluctuations des prévisions correspond à celle des
observations
• Covariance : Mesure si les fluctuations des prévisions sont synchronisées avec celles des
observations

54
Analyse graphique des prévisions

L'évaluation graphique est également importante pour identifier les patterns dans les erreurs de
prévision:

1. Graphique des valeurs observées vs prédites : Permet de visualiser l'adéquation


globale du modèle
2. Graphique des erreurs en fonction du temps : Permet de détecter des structures
temporelles dans les erreurs
3. Corrélogramme des erreurs : Permet de vérifier si les erreurs sont autocorrélées

Exemple d'évaluation comparative

Considérons trois modèles ARIMA pour une série de ventes mensuelles :

Dans cet exemple, l'ARIMA(2,1,1) présente les meilleures performances selon tous les critères
d'erreur.

55
12. Critères de sélection du modèle ARIMA
La sélection du modèle ARIMA optimal implique de trouver les valeurs appropriées pour les
paramètres p, d et q. Plusieurs critères peuvent être utilisés pour comparer différents modèles
candidats.

a) Critères d'information

Les critères d'information équilibrent l'ajustement aux données et la complexité du modèle, en


pénalisant l'ajout de paramètres. Ils formalisent le principe de parcimonie.

AIC (Critère d'Information d'Akaike)

BIC (Critère d'Information Bayésien)

où n est le nombre d'observations.

Le BIC impose une pénalité plus sévère pour les modèles complexes, surtout quand n est grand
(ln(n) > 2 pour n > 8).

AICc (AIC corrigé)

Pour les petits échantillons, l'AIC peut être biaisé. L'AICc corrige ce biais :

L'AICc est plus adapté que l'AIC lorsque n est petit ou que k est grand par rapport à n.

b) Interprétation des critères d'information

• Plus la valeur du critère est faible, meilleur est le modèle


• Ces critères permettent de comparer des modèles non emboîtés
• Les différences entre les critères sont plus importantes que leurs valeurs absolues

56
c) Stratégies de sélection automatique du modèle ARIMA

• 1 Recherche exhaustive (Grid Search)

➢ Définir des plages raisonnables pour p, d et q (généralement 0 ≤ p,q ≤ 3 et 0 ≤ d ≤ 2)


➢ Évaluer tous les modèles possibles dans ces plages

1. Sélectionner le modèle avec le meilleur critère d'information

• Approche progressive (Box-Jenkins)

➢ Déterminer d par des tests de stationnarité (ADF, KPSS)


➢ Examiner les fonctions d'autocorrélation (ACF) et d'autocorrélation partielle (PACF)
pour suggérer des valeurs initiales de p et q
➢ Estimer plusieurs modèles candidats autour de ces valeurs
➢ Comparer les modèles à l'aide des critères d'information

57
13. Définition et Caractéristiques des séries
financières :
1. Les séries financières 34: sont des séries chronologiques qui représentent l'évolution
d'une variable financière dans le temps (ex. : prix des actions, taux de change, taux
d'intérêt, PIB, inflation, etc.).

Autrement dit, Une série financière est une suite chronologique de données financières
observées à intervalles réguliers (par exemple, quotidiennement, mensuellement,
annuellement). Elle est utilisée pour analyser l’évolution d’une variable financière dans le
temps.
Les séries financières sont très reconnu par la volatilité, c’est à dire ils sont très volatile.
Parce qu’il s’agit d’un variable monétaire et financière.

Exemples de séries financières :

• Cours boursiers : évolution du prix d’une action ou d’un indice boursier.


• Taux de change : fluctuations du taux de change d’une devise par rapport à une autre.
• Taux d’intérêt : évolution des taux directeurs ou des taux obligataires.
• Prix des matières premières : variations du prix du pétrole, de l’or, etc.
• Bénéfices d’une entreprise : progression des revenus ou des bénéfices sur plusieurs
périodes.

Objectifs de l’analyse des séries financières :

• Prévision : anticiper l’évolution future des prix ou des tendances.


• Détection de tendances et de cycles : identifier des hausses ou baisses de marché.
• Modélisation du risque : mesurer la volatilité et le risque associé à un actif.

---> Les séries financières sont souvent analysées à l’aide de modèles statistiques et
d’apprentissage automatique comme les moyennes mobiles, les modèles ARIMA, GARCH,
ou encore les réseaux de neurones pour prédire les mouvements futurs.

Différence entre les séries chronologiques et les séries financière35s :

Les séries financières sont un cas particulier des séries chronologiques. Voici la distinction
principale :

34
Tsay, R. S. (2010). "Analysis of Financial Time Series" (3rd Edition). Wiley.
35
Statistics for Business and Economics de Paul Newbold, William L. Carver, et Richard E. M.
58
Une série chronologique : est une série de données qui décrit la variation d’un élément par
ràpport au temps.

Exemple : Température quotidienne, consommation d’énergie.

Caractèristiques : Peut être stationnaire ou non stationnaire, il peut également contenir une
tendance ou une saisonnalité.

Methode d’analyse : Modélisation classique (ARIMA, Exponential Smoothing, Machine


Learning).

Une série Financière : Une série chronologique appliquée aux données financières. Il décrit la
variation d’un actif financière en fonction de temps.

Exemple : Prix des actions, taux de change.

Les caractèristiques : Les séries financières sont volatilité, souvent non stationnaire, présence
de "bruits" et d’effets de marché.

Analyse : Analyse spécifique avec des modèles comme GARCH

→ En résumé : Une série financière est une sous-catégorie de série chronologique appliquée
aux marchés financiers.

2. Les caractèristiques des séries financières36 :

Les séries financières possèdent plusieurs caractéristiques spécifiques qui les distinguent des
autres types de séries temporelles. Voici les principales :

• Non-stationnarité

Un série stationnare : est une serié chronologique avec un moyenne et une variance qui sont
constantes et ne dépendent pas de temps.

➔ Les séries financières (prix des actions, taux de change) présentent souvent une
moyenne et une variance qui varient dans le temps.
➔ Une différenciation (ex: calcul des rendements au lieu des prix) est souvent
nécessaire pour obtenir une série stationnaire.

• Volatilité non constante (Hétéroscédasticité)


➔ Les séries financières présentent souvent une volatilité variable dans le temps.
➔ Les périodes de forte volatilité ont tendance à être suivies par d’autres périodes de
forte volatilité, ce qui donne lieu à des modèles comme ARCH et GARCH.

36
Tsay, R. S. (2002). Analysis of Financial Time Series. Wiley.

59
• Asymétrie et queues épaisses

Un rendement financier est asymétrique, cela signifie que ses variations (les gains ou les pertes)
ne sont pas équilibrées autour de la moyenne. Autrement dit, il y a plus de chances d’avoir des
rendements très élevés ou très faibles d’un côté par rapport à l’autre.

Un rendement est symétrique si ses variations c’est à dire (les gains et les pertes) sont répartis
de manière équilibrée autour de la moyenne.

➔ La distribution des rendements financiers est souvent asymétrique et présente des


queues plus épaisses qu’une distribution normale, ce qui signifie que les événements
extrêmes (chocs financiers) sont plus probables que prévu par une loi normale.
➔ L’asymétrie Indique si la distribution des rendements est symétrique ou biaisée vers
la droite (asymétrie positive c’est dire queue plus longue à droite, gains extrêmes
possibles). ou vers la gauche (asymétrie négative c’est dire queue plus longue à
gauche, risques de pertes extrêmes) ou asymétrie constate ( c’est à dire S=0, ce qui
explique que la distribution des rendements financières comme un loi normale).

• Absence d’autocorrélation des rendements

L’autocorrélation : mesure la corrélation ou la variation d’un variable autour lui meme.


Autrement dit, elle permet d’analyser si une variable (comme le rendement d’un actif financier)
à un instant t est influencée par ses valeurs passées (t-1.).

➔ Contrairement aux prix, les rendements financiers présentent généralement une


absence d’autocorrélation significative, sauf à très court terme. En revanche les
rendments financières ne sont pas corrélées à long terme c’est à dire les valeur
passée des rendments des actifs financières sont pas liée aux valeurs de present.
➔ Dans le passé peut avoir un stabilité de rendement par contre dans le present ou
future pas examiner des chocs ou des gains extreme.
Exemple : bitcoin meintenant est estimé à 100 mille de dollars mais de le passé
personne n’a estimé qu’il va réaliser ce chiffre.

• Présence d’anomalies et d’effets de calendrier


➔ Certains phénomènes, comme l’effet janvier (surperformance des actions en début
d’année) ou l’effet jour de semaine (rendements différents selon les jours), sont
parfois observés.
• Influence des chocs exogènes

60
➔ Les séries financières sont souvent impactées par des événements
macroéconomiques, politiques ou même psychologiques (ex: annonces de taux
d’intérêt, crises financières).

Définition de l'Autocorrélation 37 :

L’autocorrélation mesure la corrélation entre les valeurs successives d’une même série
temporelle. Autrement dit, elle permet d’analyser si une variable (comme le rendement d’un
actif financier) à un instant t est influencée par ses valeurs passées (t-1, t-2, etc.).

• Une autocorrélation positive signifie que si une variable a une valeur élevée aujourd’hui,
elle a tendance à rester élevée demain. Inversement, si elle est basse, elle a tendance à
rester basse.

• Une autocorrélation négative indique que si la variable monte aujourd’hui, elle a


tendance à baisser demain, et vice versa.

• Une absence d’autocorrélation signifie que les valeurs passées n’ont aucune influence
sur les valeurs futures (ce qui est le cas d’un mouvement brownien, où les prix suivent
une marche aléatoire).

L’asymétrie : L’asymétrie (skewness) des rendements excédentaires des actifs financiers est une
mesure statistique qui indique la dissymétrie de la distribution des rendements autour de leur
moyenne. Elle permet d’évaluer si la distribution des rendements présente une queue plus
longue à gauche ou à droite, influençant ainsi l’évaluation des risques et des opportunités
d’investissement.

1. La formule l’asymétrie :

𝑵
̅ )𝟑 / (𝑵 − 𝟏). 𝝈𝟑
𝝁 ̃𝟑 = ∑ (𝑿𝒊 − 𝑿
𝒊

Avec :

• 𝝁 ̃𝟑 ∶le coefficient d'asymétrie (skewness),


• N : est la taille de l'échantillon.
• 𝑿𝒊 : est une valeur individuelle de l'échantillon,
• ̅ ∶est la moyenne de l'échantillon,
𝑿
• 𝝈𝟑 : l'écart-type de l'échantillon ( la volatilité).

37
Box, G. E. P., & Jenkins, G. M. (1976). Time Series Analysis: Forecasting and Control. Holden-Day (resumé)
61
Si :

• L’asymétrie > 0 : distribution asymétrique à droite (queue plus longue à droite, gains
extrêmes possibles).

• L’asymétrie < 0 : distribution asymétrique à gauche (queue plus longue à gauche, risques
de pertes extrêmes).

• L’asymétrie ≈ 0 : distribution symétrique (comme une loi normale).

14. Volatilité :

La volatilité est une mesure de la dispersion des rendements d'un actif financier, c'est-à-dire
son niveau de variation ou d’instabilité sur une période donnée. Elle indique à quel point le prix
d’un actif (comme une action, une devise ou une matière première) fluctue autour de sa
moyenne.

La volatilité : désigne la propension d'un actif financère de s'ecarter de sa moyenne historique,


et il permet de quantifier le risque de rendement et de cris de cet actif.

--> La volatilité historique est une mesure de la variation des prix d’un actif financier sur une
période donnée
La volatilité fait partie des principaux paramètres utilisés dans la gestion des risques pour
estimer le rendement futur d’un instrument financier et pour comparer différentes
opportunités d’investissement.

La volatilité des marchés boursièrs :


La volatilité des marchés boursiers mesure les augmentations et les diminutions de leur
valeur globale d’un actif financière. Cela s’applique aussi aux actions ou aux obligations
individuelles, dont les prix sous-jacents peuvent également fluctuer. La manière la plus
répandue d’évaluer la volatilité consiste à mesurer la variation du prix d’un actif par rapport
à son prix moyen sur une période donnée. L’écart-type est la mesure statistique la plus
souvent utilisée pour représenter la volatilité.
Les marchès boursièrs deviennet volatile lorsque les evenements externes créent de
l’incertitude. → les évenemts géopolitiques tels que la guèrre ou bien les crises comme on
a deja mentionné dans les caractèristiques des seriès financières.
Exemple pratique : lorsque la crise du covid 19 a frappé le monde et la guerre entre la russe
et l’ukraine les marchès financières ou les marchès des biens ont devenus plus volatiles en
raison de l’importation de cette evenemts aux autre pays des mondes donc les marchès de
l’energie ont connus une hausse et donc les investisseurs ne savent plus à quoi s’attendre.

62
L’objectif : la volatilité donne une indication de l’ampleur et de la fréquence des
changements par rapport à la valeur moyenne de la période de référence.
En général, la volatilité financière est considérée comme un indicateur mesurant
l’incertitude du rendement d’un instrument donné.
Interprétation :

volatilité élevée : L’actif connaît de fortes variations de prix (plus risqué mais aussi
potentiellement plus rentable).
Autrement dit, plus la volatilité est élevée, plus l’actif en question est risqué

volatilité faible : L’actif évolue de manière plus stable avec peu de fluctuations
plus elle est élevée, plus l’actif en question est risqué.
Autrement dit, le moins elle est faible, plus l’actif en question de stabilité.

L'hétéroscédasticité 38:
L'hétéroscédasticité est un concept en économétrie et en statistique qui désigne une situation
où la variance des erreurs d'un modèle de régression n'est pas constante à travers les
observations. Autrement dit, les résidus (ou erreurs) du modèle ont une dispersion variable
selon les valeurs des variables explicatives.

L’objectif de calcul de volatilité :

• Evaluation des risques : la volatilité permet de mesurer l’incertitude et la dispresion


d’un actif financière
→Une volatilité élevée signifie que les prix fluctuent fortement, impliquant un
risque élevé.
→Une volatilité faible indique une stabilité des prix et donc un risque plus faible.
• Aide à la prise de décision de l’invesstissement : Les investisseurs et gestionnaires
de portefeuille utilisent la volatilité pour choisir entre rendement et risque.
➔ Il permet au invesstisseur de bien savoir lorsqu’il y a un rendement et lorsqu’il y
un risque de pert, en basant sur ces resulats il prendent les décision de
l’invesstissment.
Exemple : les invesstisseurs dans les marchés des capitaux, crypto-monnaie et les
grands entreprises et associés qui aiment d’acheter les actions dans les bourses.
• Modélisation et prévisions des marchés

38
Engle, R. F. (1982). "Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of United
Kingdom Inflation." Econometrica, 50(4), 987-1007 ( Article).
63
→Les modèles économiques et financiers utilisent la volatilité pour prédire les
tendances futures des marchés en aide des modèles comme GARCH (Generalized
Autoregressive Conditional Heteroskedasticity) aident à analyser la volatilité future
en fonction des fluctuations passées.
Exemple : Un trader quantitatif utilise un modèle GARCH pour anticiper les
variations de volatilité et ajuster ses positions.
• Calcul des indicateurs financiers :La volatilité est utilisée dans des indicateurs
comme :
o Ratio de Sharpe (rendement ajusté au risque)
o Value-at-Risk (VaR) (perte potentielle maximale sur une période donnée)

La formule de calcule de la volatilité39 : c’est l’écart type qui va mesurer la dispersion d’un actif
autour de son moyenne.

(σ) = √[𝜮 (𝒙𝒊 − 𝝁)𝟐 /𝐍


M

(σ) : représente l’écart type.


Σ : indique la somme des éléments qui suivent.
Xi : représente chaque valeur individuelle dans l’ensemble de données.
μ: : (mu) est la moyenne de l’ensemble de données.
N : est le nombre total d’observations dans l’ensemble de données.

Interprétation : pour le cas des crypto-monnaie et les actions.

Entre 0 et 3 % Actif stable (très peu volatile)

Entre 3 et 8 % Actif relativement stable (un peu volatile)

Entre 8 et 15 % Actif relativement instable (volatile)

Entre 15 et 22 % Actif instable (très volatile)

Plus que 22 % + Actif très instable (hyper volatile)

Interprétation pricisé :

39
Google chrome : page officiel + connaissance académique.
64
• Actif très stable : faible risque, peu de fluctuations. Typique des grandes
capitalisations stables et des obligations.
• Actif relativement stable : fluctuations modérées. Correspond souvent aux grandes
actions bien établies (blue chips).
• Actif modérément volatil. : niveau courant pour les actions de croissance et les
indices boursiers en période normale.
• Actif très volatil, fluctuations marquées : Typique des petites capitalisations, des
actions spéculatives et de certaines crypto-monnaies stables.
• Actif extrêmement volatil, à haut risque : Typique des crypto-monnaies, des actions
spéculatives et des marchés en crise.

Les cas de l’utilisation de la volatilité : les actions, les marchés financières, les marchès des
capitaux, trading .

15. Différence entre les modèles ARCH et GARCH :

Les modèles ARCH (Autoregressive Conditional Heteroskedasticity) et GARCH (Generalized


Autoregressive Conditional Heteroskedasticity) sont des modèles statistiques utilisés en
économétrie et en finance pour modéliser la volatilité des séries temporelles, en particulier
celles qui présentent une variance conditionnelle hétéroscédastique (volatilité variable dans
le temps).

Le modèle ARCH repose sur l’hétéroscédasticité conditionnelle autorégressive, signifiant


que la variance des erreurs d'une série temporelle dépend des chocs passés. Il est utilisé
pour modéliser la volatilité changeante des séries comme les rendements financiers. Ce
modèle suppose que la variance conditionnelle dépend des erreurs passées au carré, et que
la moyenne de la série est soit constante, soit suit un processus autorégressif.

La variance conditionelle40 : signifie que la variance ( dispension ou floctuation) de l'erreur


à chaque instant (t) est conditionnée (dépend) des informations disponibles au moment
(t−1). En d'autres termes, la volatilité future à un moment donné n'est pas constante mais
dépend des événements passés observés dans la série temporelle.
Autrement dit, la variance conditionelle change à chaque fois en raison des changement des
évenemts et des informations , c’est à dire le Data.

Variance normale ( constante) :

40
Université paris dauphine : cours de séries temporelles théorie et application.
65
𝑽𝒂𝒓 = 𝑬[(𝑿 − 𝑬[𝑿])𝟐 ]
Avec :

Var(X) : mesure la dispersion d'une variable aléatoire X autour de son espérance E[X].
• 𝑬[. ]: Opérateur d'espérance, représentant la moyenne attendue d'une variable
aléatoire.
• X : Variable aléatoire.
• 𝑬[𝑿]: Espérance mathématique de X, sa moyenne.
• (𝑿 − 𝑬[𝑿]) ∶Écart entre X et sa moyenne.
• (𝑿 − 𝑬[𝑿])𝟐 : Carré de l'écart, utilisé pour mesurer la dispersion.
• 𝑽𝒂𝒓 = 𝑬[(𝑿 − 𝑬[𝑿])𝟐 ]: Espérance de cet écart quadratique, définissant la variance.

La variance constante : on peut dire qu’il est constante si la distribution des données (Points)
ne change pas au cours du temps. Par exemple, si on suppose que X suit une loi normale
avec une variance fixe, alors cette variance est indépendante du temps.
Cependant, dans les séries temporelles financières et économiques, les fluctuations des
données changent au fil du temps. C’est là qu’intervient la notion de variance conditionnelle
non constante.

→ les modèles Arch et Garch considèrent que la variance est conditionnelle et la moyenne
est constante. C’est à dire il s’approach de zero.

Différence entre les modèles ARCH et GARCH :


→les modèles ARCH et GARCH, qui sont deux méthodes populaires pour modéliser la volatilité
des données de séries chronologiques. La volatilité est une mesure de la fluctuation
des données au fil du temps et peut avoir des implications importantes pour les prévisions,
la gestion des risques et la tarification des actifs. Les modèles ARCH et GARCH sont tous deux
basés sur l'idée que la variance des données dépend des valeurs passées des données ou des
valeurs passées de la variance elle-même. Cependant, ils diffèrent dans la manière dont ils
spécifient cette dépendance et dans leur flexibilité pour capturer différents modèles de
volatilité.

→Les deux modèles considèrent que la moyenne est contanste et la variance changeant car il
est conditionnelle.

→ Les modèles GARCH nécessitent généralement moins de décalages que les modèles ARCH
pour bien ajuster les données, ce qui les rend plus parcimonieux et plus faciles à estimer et à
interpréter.

66
→ Arch dépend uniquement des chocs passés (En revanche Garch dépend des chocs passés et
de la volatilité passée

→ la mémoire de la volatilité en cas de Arch est Courte (dépend uniquement des erreurs
passées.) par contre Garch est Longue (prend en compte la persistance de la volatilité passée.)

→en terme de stabilité : ARCH est moins stable si q est élevé. Par contre GARCH est Plus stable
𝒑
grâce à la prise en compte de la volatilité passé → ∑𝒊=𝟏 𝛃𝒋 𝝈𝟐 𝒕−𝟏

→pour l’utilisation, Arch Utile pour des séries avec des changements de volatilité courts et
brusques. En revanche, Garch est Meilleur pour modéliser la volatilité persistante, comme dans
les séries financières (ex. marché boursier).

→Arch depend des chocs passés par contre Garch depend des chocs et de la volatilité passé
d’un actif financière.

Formule de Arch41 :
𝒒

𝒂𝟐𝒕 = 𝜶 + ∑. ∝ 𝒊 ⋅ 𝜺𝟐𝒕−𝟏
𝒊=𝟏

avec :

• 𝒂𝟐𝒕 : Variance conditionnelle au tempstt.

• 𝜶 : Constante.

• ∝ 𝒊 : Coefficients du modèle ARCH.

• 𝜺𝟐𝒕−𝟏: Carré des erreurs passées (chocs passés).

• 𝒒: Nombre de retards pris en compte.

Modèle GARCH(p, q)42 :

41
Time Series Analysis and Its Applications: With R Examples: par Shumway et Stoffer
42
Time Series Analysis and Its Applications: With R Examples: par Shumway et Stoffer
67
𝒒 𝒑
𝒂𝟐𝒕 = 𝜶 + ∑𝒊=𝟏. ∝ 𝒊 ⋅ 𝜺𝟐𝒕−𝟏 +∑𝒊=𝟏 𝛃𝒋 𝝈𝟐 𝒕−𝟏

avec :

• Même notation que pour ARCH, mais avec un ajout :

• Βj : Coefficients du terme GARCH.

• 𝝈𝟐 t−j :variance conditionnelle passée ou volatilité passé

• p : Nombre de retards pris en compte pour la volatilité passée.

Discussion et analyse :
Après avoit traité les élements suivantes ( Caractèristiques d’un serie financière, volatilité et
les modèles Arch et garch) dont l’objectif principale est de savoir comment les series financères
se fonctionne afin de modéliser la volatilité des ces seriès qui sont connu par la volatilité élevé
en raison de la variance conditionnelle qui n’est pas constante et qui dépend des chocs et de la
volatilité passés de meme serie ou bien de chque variable de la série.

La détermination ou bien la modélisation de la volatilité permet de gérer le risque future


probable que les invesstisseurs peut rencontre durant le processus de l’invesstissement, alors
que le grand question qu’on doit poser dans ce cadre est comment éliminer l’effet de la
volatilité, si on arrive pas à le faire, au moins comment on peut réduire son effect ?

Les méthodes d’elimination de la volatilité :

En fait, l’élimination de la volatilité peut etre fait par pluseiurs méthodes, c’est dire les methodes
pratique tels que celle de Eviews.

___________________________________________________________________________

L’élimination de l’hetérodacticity en Eviews :

Methode moindre carré conditionnelle :

Pour éliminer l’hetérodacticity ou l’errur causé par la dispertion, on utilise la méthode de


moindre carré conditionnèlles ( Conditional Least Squares ) ou la variance des errurs n’est pas
constant et dépend des valeurs passés de la variance. C’est pour cela qu’on l’appeller
conditionnelle.

Methode technique sur Eviews :

68
Aller au serie étudié → Equation estimation → options → methode → cliquer sur CLS

Donc une nouvelle équation va apparaitre sans heterodaciticity, c’est à dire l’effet de la
volatilité est éliminé.

Methode de differenciation :

Cette methode est utilisé pour rendre une série stationnaire, c’est à dire ( un serie avec and
variance et moyenne constante), mais il est essentielemnt utilisé pour éliminer les tendences
et réduire la volatilité .

Implémentation sur Eviews :

Pour appliquer la différenciation on utilise la commande suivante :

Cas de serie DS avec ou sans dérive :

dX=X-X(-1)

dx=d(X)

Cas de serie TS ( inclut l’effet de tendence) :

Genr t=@trend

Ls X c t → s’il n y a pas de constant ( derive) écrire LS X t

Denr dX=X-( nombre dans la répresentation)

Modélisation par Arch et Garch :

Ces deux modèles sont connus par la modélisation de la volatilité comme on a déja mentioné

ARCH : utilisé pour la modélisation de l’hétéroscédasticité conditionnelle.

Les étapes sur Eviews :

Serie étudié → Quick → estimate équation → y c AR(-) MA(-) puis sélectionner ARCH dans les
option

Les méthodes qu’on a mentionné sont des méthodes purement technique pour éliminer par
les méthodes (moindre carré conditionnelle, différenciation) et modéliser la volatilité
l’hétéroscédasticité, alors que la question qui se pose danc cette context qui comment gérer
la volatilité et les fluctuation en terme stratégique surtout dans les cas des crises ou des
changement dynamiques?!

En fait, il n’exist pas un methode spécifique qui permet d’éliminer la volatilité surtout dans le
cadre des modèls ARCH et GARCH, ces deux modéls ne éliminent pas la volatilité directement
mais plus tot permet de le modéliser et le mesurer pour gérer les risques (gestion de

69
portefeuille) future probable d’un actif financières, ce qui permet aux ainvesstisseurs de
prendre les mailleurs décisions càd de l’invesstissement.

Exemple : un invesstisseur qui veut invesstir dans les marchès boursièrs, la connaissance de la
fluctuation de marches et la volatilité modelisé par ARCH et GARCH permet à cet invesstisseur
de savoir le risque et le rendement de l’actif concerné à travers les donnés de present et passé
pour meiux prédire les valeurs future de l’actif grare à le modèle GARCH, y donc prendre les
mailleurs décision d’invesstissemnt en prendre en considération des les facteurs.

→ Supposant que l’invesstisseur après la modélisation de la volatilité grace à la variance


conditionnelle, donc il a obtenue le résultat que l’actif X aura un volatilité fort c’est à dire plus
élevé dans le future, dans ce cas la l’invesstisseur automatiquement va pas invesstir dans cet
actif du risque, par contre il peut choissir d’invesstiseur dans autre actif plus sécurisé avec moins
de risque.

Diversification du portefeuille

Investir dans plusieurs actifs (actions, obligations, matières premières) pour réduire l’impact
de la volatilité d’un seul actif.
Par exemple, un portefeuille avec des actions + obligations est moins volatil qu’un portefeuille
composé uniquement d’actions.

Gestion dynamique du portefeuille (Risk Management) :

Utilisation de modèles comme Value at Risk (VaR), Expected Shortfall, Stress Testing pour
ajuster l’exposition au risque.
Exemple : Réduire l’exposition aux actifs risqués lorsque la volatilité prévue par un modèle
GARCH augmente.

Intervention des banques centrales et des régulateurs : (le role de gouvernement)

Dans le cas la volatilité des marchés est fort, l’etat répresenté dans les régulateurs les banques
centrales peuvent intervenir pour faire face à l’effet de la volatilité en but de controller le
marchés et gérer le risque, par mettre en place pleusierus procedures.

Principalement la baisse des taux d’intérêt pour encourager les invesstisseurs de prendre les
crédit et investir dans le cas ou la volatilité est plus élevé, c’est à dire un risque probable ce qui
fait les invesstisseur faissent pas confiance aux marchès.

De autre coté, en cas la volatilité est causé par l’inflation, les banques centrales peur proceder
en augmentant le taux directeur, pour controller la masse monétaire, et réduire l’effet
inflationiste.

Exemple : Pendant la crise financière de 2008, la FED et la BCE ont injecté de la liquidité pour
calmer les marchés. En réduissant le taux l’interet pour encourager l’endettement et la
motorisation de l’économie.

70
-→ le gouvernemet peur créer des réglementation exceptionnele dans les cas d’urgences pour
gérer le risque.

Partie 2 :
Partie pratique

71
Cas pratique :
Taux de change (MAD/dollar)

Dans série de donnes est pris de site de banque mondiale, il représente la


variation de taux de change de dirham par rapport au devis étranger en fonction
de l’année, depuis l’année 1960 jusqu’à 2023.
Implémentation sur EViews :

72
1. Visualisation de la série (graphique)

Tout d’abord, nous avons


commencé par la visualisation
graphique de la série temporelle.
On constate que les valeurs
varient en fonction du temps de
manière croissante.

73
2. Type de série et la stationnarité
(corrélogramme, ADF)

Puis nous avons passé pour


analyser le corrélogramme de la
série pour savoir si la série est
stationnaire ou non stationnaire.
D’après le tableau on constante
que toutes les probabilités sont
inférieures de 5%, donc Nous
rejetons l’hypothèse H0 et on
accepte H1, alors on peut dire
que la série est non stationnaire.

Maintenant, nous Allons passer vers


le test de racine unitaire en utilisant
ADF, premièrement on va
commencer par tester le première
modelé (la significativité de la
tendance).

D’après le tableau ce dessous on va


comparer la valeur de t-statistiques
avec le tableau de Dick Fuller à une
percentage de 5% qui interagie avec
la même valeur d’observation (62
dans notre cas), donc selon le
tableau on constate que t
statistiques avec un valeur de
1 ,965832 est inferieur à t tabulé qui
est égale à 3,18 et la valeur de
probabilité 0,0541 est supérieur de
5%, donc on accepte H0 et on rejet
H1 donc la série n’est pas affecté par
une tendance, donc la série n’est
pas de type TS.

74
43

Maintenant, nous Allons passer


vers l’analyse de l’effet de la
constant ou le dérive en utilisant
test DFA, dans ce test on va
seulement sélectionner
l’interception (constante).

D’après le tableau on peut dire


que t statistiques de la constante
est inferieur à celle de t tabulé et
la valeur de probabilité 0,1174
est supérieur de 5%,, donc la
constant n’est pas significative,
c’est n’est affecté par une
constante.

43
Source: Fuller W.A., Introduction to Statistical Times Series, John Wiley, 1976
75
Alors qu’on a trouvé que ni la
constante ni la tendance affecte
notre série, se qui signifie que la
série s’agit d’un série DS sans
dérive.

Apres avoir lancé le test ADF (on


sélectionne non), on a trouvé que
la probabilité de unit root test est
supérieur de 5% donc la série est
non stationnaire (H0).

3. Transformations de la série (différenciation)

Donc la question que se pose, est comment rendre la série temporelle stationnaire ?

Lorsqu’on travaille sur une série qu’il s’agit d’un type DS sans dérive ou avec dérive, la
seule méthode pour rendre une série stationnaire est la différenciation.

Command :

Genre dchange = D(change)

Genre dchange = change – change (-1)

Sachant que notre série s’appelle ‘change’ et la série après la différenciation appelé
dchange.

76
Dans la fenêtre de WorkFile, on
constate qu’un nouveau fichier
s’apparait avec le nom dchange.

Lorsque on affiche le graphique de


cette sérier on constat que la variation
de la série est autour de la moyenne
qui égale à 0.

On constate ci-dessus les présentations


graphiques de la série avant et après :

77
Dans le corrélogramme on constate
que la probabilité est généralement
est supérieur de 5% donc la série est
stationnaire

78
Et pour mieux préciser on
applique le test ADF sur la série
différenciée pour vérifier la
stationnarité.

Selon le tableau on constate que


la probabilité est inférieure de
5% donc la série est stationnaire,
donc il ne nécessite pas une
deuxième différenciation.

79
4. Chercher le modèle meilleur (ARIMA)

Après la vérification de la stationnarité de la série différenciée, maintenant on va


chercher le meilleur modelé à estimer, tout en testant les modelé MA, AR de tous les
combinaison possible (ARIMA)

Selon le corrélogramme on constate que les seule modelé significative son AR (1) et
MA (1)

Avec les command ci-dessus on estimer les équations de tous les candidats possibles :

Ls dchange MA (1)

Ls dchange AR (1)

Ls dchange MA (1) AR (1)

80
Le test de la combinaison AR (1)
MA (1) montre que ni AR ni MA
sont significative donc le modèle
ARIMA (1,1,1) n’est pas possible

Le test du modèle MA (1) où la


proba est inférieure de 5% donc
le modèle est significatif

Le test du modèle AR (1) que la


proba est inférieure de 5% donc
le modèle est significatif

81
Pour choisir le modèle meilleur on sélection le modèle avec R2 maximum est les
valeur AIC, schwarz critérion, hannan-Quinn minimum

Donc le modèle MA (1) est meilleur

On stocker le modèle meilleur


avec le nom ma1

Proc > Automatic ARIMA forecating

Est une méthode pour estimer le modèle efficace pour la série automatiquement

Donc après avoir analyser les résultats de test manuellement avec les résultats estimer
automatiquement par Eviews on conclut que MA (1) est le model meilleur dans les deux cas de
test.

82
5. Tester l’hétéroscédasticité (white, ARCH)

Après avoir estimé le modèle


efficace, maintenant on va
passer vers le processus de
diagnostic pour vérifier la
qualité des erreurs ou le bruit.

Premièrement, on a le
corrélogramme qui affiche une
proba supérieur de 5% donc le
bruit est sans mémoire

Et on a le corrélogramme
squard qui affiche une proba
supérieur de 5% donc le bruit
est blanc

83
Et maintenant on passe vers
les tests de
l’heteroskedasticity :

En commençant par le test


white qui affiche une proba
inferieur de 5%

Donc on a une
heteroskedasticity
significative

84
Et pour le test ARCH qui
affiche une proba supérieur
de 5%

Donc on a une absence de


l'hétéroscédasticité
conditionnelle

Donc les modèle ARCH et


GARCH inutiles dans ce cas

85
6. Correction (GLS Conditional Least Squares)
Donc pour corriger l’effet de
l’heteroskedasticity on va
appliquer la méthode de moindre
carrée générale

(On a déjà les méthodes de


transformation comme la racine
et logarithmique ne fonction pas)

Pour applique la méthode de


moindre carrées conditionnelle

C’est pourquoi on change la


méthode de l’estimation de
modèle ARMA (MA (1) dans notre
cas), on change la méthode ML
par la méthode GLS General Least
Squares

86
Dans cette nouvelle équation on
constate que le bruit est sans
mémoire

Et on constate que le bruit est


blanc selon le corrélogramme
squard

87
Apres on a le test White qui
montre un proba Supérieur de 5%
donc le modèle est
homoscédastiques.

On n’a pas besoin de passer vers


le test ARCH car on déjà vérifier
qui l’erreur est homoscédastiques

Après on passe vers le test de la


normalité où on a la probabilité
est supérieure de 5% donc le
bruit suit une loi normale, on dit
que le bruit est gaussier.

88
7. Predictions
Après on utilise le command

Expand

Pour modifier le Range de

1970-2023 → 1970-2030

C-à-d crée un espace pour les


prévisions

89
Par exemple pour faire les
prévisions on sélection un
sample de 2023 2026

On constate que les mesures


de précision (MAE) sont
proches de 0

90
Ou on peut utiliser la Automatic
ARIMA Forecasting pour faire les
prévisions pour les 7 ans prochain,
on sélection none car on n’a pas
besoin d’autres transformation car
l’erreur est blanc

On constate les prévisions avec le


colleur bleu

91
Dans ce graph on constate les
prévisions pour la série
différencie

On utilise le command

genr change_f = @cumsum(dchange_f)+change(-1)

Pour avoir les prédictions pour la série d’origine

Dans ce graph on constate les prévisions pour les années après

92
On constate ici les prévisions
pour les années prochaine de
puis l’année 2024 jusqu’à
2030

93
Dans les deux graphs au-dessus on a (CHANG) la présentation graphique des valeurs
d’origine et (CHANGE_F) la présentation graphique des valeurs ajuster + les prévisions :

On constate que CHANGE_F a une tendance plus fort

94
8. Équation du Modèle Final

On a DCHANGE est obtenu après une seule différenciation de la série CHANGE :

DCHANGE = CHANGE – CHANGE (-1)


DCHANGET = CHANGET – CHANGET-1
Et on a selon la fenêtre de l’équation de MA1

DCHANGE = 0 + MA (1)
On a (MA) est un modèle dans lequel la valeur actuelle d'une variable dépend linéairement de
ses erreurs passées.

95
YT= θ1 εT-1+εT

➢ Interprétation du modèle MA (1)

Donc : DCHANGET= MA (1) εT-1+εT


On a : MA (1) = 0.386544999403
Alors : DCHANGET = 0.3865 εT-1+εT
➢ Interprétation du modèle ARIMA (0,1,1)

DCHANGET = CHANGET – CHANGET-1


CHANGET = CHANGET-1 + DCHANGET
CHANGET = CHANGET-1 + 0.3865 εT-1+εT

L’équation finale du modèle ARIMA (0,1,1) :

CHANGET = CHANGET-1 + 0.3865 εT-1+εT


YT = YT-1 + 0.3865 εT-1+εT

96
97
Conclusion générale
En conclusion, ce rapport a permis d'aborder de manière complète et détaillée les différentes
techniques théoriques et pratiques utilisées dans l'analyse des séries chronologiques appliquées
à la modélisation financière. Dans la première partie, nous avons exploré les concepts
fondamentaux tels que la différence entre les séries chronologiques en niveaux et en différences
(TS et DS), la relation entre ces séries et les modèles AR et MA, ainsi que les questions de
stationnarité, de normalité, et de volatilité. Nous avons également traité des modèles ARIMA,
ARCH et GARCH, offrant ainsi une base solide pour comprendre et résoudre les défis liés à
l’analyse des séries financières.

Dans la deuxième partie, nous avons appliqué ces concepts théoriques à des données réelles,
en commençant par la visualisation et l’analyse de la stationnarité des séries. Nous avons
ensuite effectué des transformations nécessaires pour rendre les séries stationnaires, cherché
le modèle ARIMA le plus adapté, et testé l’hétéroscédasticité à l'aide des tests de White et ARCH.
La correction de l’hétéroscédasticité a été réalisée à l’aide de la méthode GLS, et les prédictions
ont été effectuées avec le modèle final.

Les résultats obtenus ont démontré l’efficacité des méthodes théoriques et pratiques étudiées.
Les modèles appliqués ont montré leur pertinence pour l’analyse des séries chronologiques et
leur capacité à fournir des prévisions fiables. Ce rapport, tout en répondant aux exigences
académiques, illustre également l’application concrète de ces outils avancés dans l'analyse des
données financières, offrant ainsi une compréhension plus approfondie de la dynamique des
marchés financiers et des fluctuations économiques.

98
Bibliographie
Références en ligne :

1. ENSAI. "Polyseriestemp.pdf", Page 5. lien

2. Ibid., Page 6.

3. LinkedIn. "What are the advantages and disadvantages of differencing?", lien

4. https://fr.wikipedia.org/wiki/Test_de_Dickey-Fuller

5. https://fr.statisticseasily.com/glossaire/qu%27est-ce-que-le-test-Dickey-Fuller-augment%C3%A9/

6. https://fr.statisticseasily.com/ Qu'est-ce que c'est : les erreurs types robustes

7. https://fr.statisticseasily.com/glossario/what-is-kolmogorov-smirnov-test/#google_vignette

8. https://support.minitab.com/fr-fr/minitab/help-and-how-to/quality-and-process-improvement/capability-
analysis/supporting-topics/distributions-and-transformations-for-nonnormal-data/anderson-darling-and-distribution-fit/

9. https://www.ibm.com/docs/fr/spss-modeler/saas?topic=data-series-transformations

10. https://fr.wikipedia.org/wiki/Lissage_exponentiel#:~:text=Le%20lissage%20exponentiel%20est%20une%20des%20m%
C3%A9thodes%20de%20fen%C3%AAtrage%20utilis%C3%A9es,fr%C3%A9quences%20%C3%A9lev%C3%A9es%20
du%20signal%20initial.&text=%2C%20d%C3%A9barrass%C3%A9%20des%20al%C3%A9as%20(en%20traitement,br
uit)%20en%20fonction%20du%20pass%C3%A9

11. https://wp.sciviews.org/sdd-umons3-2023/filtrage-dune-s%C3%A9rie.html

12. https://fr.m.wikipedia.org/wiki/Op%C3%A9rateur_retard#:~:text=En%20l'analyse%20des%20s%C3%A9ries,%2C%20as
socie%20l'observation%20pr%C3%A9c%C3%A9dente

Références académiques :

1. Goude, Y. "Modélisation de séries stationnaires MAP-STA2 : Séries chronologiques", 2023-2024, Page 1.

2. Ibid., Page 4.

3. Hamisultane, H. "ECONOMETRIE DES SERIES TEMPORELLES", 24 Jan 2016.

4. Colletaz, G. "Les Processus AR", 10 octobre 2018.

5. Colletaz, G. "Les Processus MA", 24 octobre 2019.

6. Noble, J. "IBM / Qu’est-ce qu’un modèle autorégressif ?", 12 juin 2024.

7. Noble, J. "IBM / Qu’est-ce qu’un modèle ARIMA ?", 24 mai 2024.

8. Bourbonnais, R. "Économétrie, cours et exercices corrigés 9ème édition", 7 Jan 2015, Page 142.

9. Bourbonnais, R. "Économétrie, cours et exercices corrigés 9ème édition", 7 Jan 2015, Page 162.

10. Bourbonnais, R. "Économétrie, cours et exercices corrigés 9ème édition", 7 Jan 2015, Page 164.

11. Box, G. E. P., & Cox, D. R. (1964). "An Analysis of Transformations." Journal of the Royal Statistical Society: Series B,
26(2), 211–252.

12. Peiris, M. S. (2013). "Invertibility of MA processes." Time series concepts & methods.

13. Tsay, R. S. (2010). "Analysis of Financial Time Series" (3rd Edition). Wiley.

99
14. Brockwell, P. J. and Davis, R. A. (2002). "Introduction to time series and forecasting," 2nd Ed. Springer.

15. Tsay, R. S. (2002). "Analysis of Financial Time Series." Wiley.

16. Box, G. E. P., & Jenkins, G. M. (1976). "Time Series Analysis: Forecasting and Control." Holden-Day.

17. Engle, R. F. (1982). "Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of United Kingdom
Inflation." Econometrica, 50(4), 987-1007.

18. Peiris, M. S. (2013). "Invertibility of MA processes. Time series concepts & methods."

Autres sources :

1. Université de Cambridge – "Stability of Autoregressive Processes"

2. Université de Princeton – "Stationarity and Stability of ARMA Models"

3. "Time Series Analysis and Its Applications: With R Examples" par Shumway et Stoffer

4. Fuller W.A., "Introduction to Statistical Times Series", John Wiley, 1976

100
101

Vous aimerez peut-être aussi