Text 4
Text 4
1
Table des matières
1 Introduction 3
2 Les lois de Mn 3
2.1 Quelques notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Paramètre bn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Paramètre an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Les lois limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.1 Nature du support . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.2 Si γ > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.3 Si γ < 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.4 2. Cas γ = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.5 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
9 Annexe 26
9.1 Méthode de Nelder-Mead . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
9.2 Codes R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2
1 Introduction
Les événements extrêmes tels que les inondations, les crues, les canicules, les crises financières ou encore
les krachs boursiers sont certes rares, mais peuvent avoir des conséquences considérables. Leur modélisation
statistique constitue aujourd’hui un enjeu majeur dans des domaines aussi variés que la climatologie, l’assurance,
la finance ou encore l’ingénierie.
Bien que de tels phénomènes ne puissent pas toujours être évités, la société peut mettre en œuvre des
stratégies préventives afin d’en limiter les impacts. C’est dans cette optique que s’inscrit la théorie des va-
leurs extrêmes (TVE), un outil statistique essentiel dédié à l’analyse et à la prédiction des événements rares.
Développée dès le début du XXe siècle grâce aux travaux fondateurs de Fréchet (1927), Fisher et Tippett (1928),
puis formalisée par Gnedenko (1943), cette théorie vise à modéliser les observations situées dans les queues des
distributions de probabilité.
Dans la plupart des approches statistiques classiques, l’accent est mis sur le comportement global d’un
échantillon, notamment par l’étude de ses moments (moyenne, variance, etc.). Ces méthodes reposent en grande
partie sur le théorème central limite (TCL), énoncé par Pierre-Simon de Laplace en 1809, qui stipule que la
somme (ou la moyenne) normalisée d’un grand nombre de variables aléatoires indépendantes et identiquement
distribuées converge en loi vers une distribution normale.
Toutefois, le TCL ne donne aucune information sur le comportement des valeurs extrêmes, les plus grandes
ou les plus petites observations qui sont pourtant cruciales dans les situations de risque. Il est donc naturel de
se demander s’il existe un résultat asymptotique analogue au TCL pour les extrêmes d’un échantillon.
Pour cela, on considère un échantillon de variables aléatoires i.i.d. (X1 , X2 , . . . , Xn ), et l’on s’intéresse au
comportement du maximum :
Mn = max{X1 , X2 , . . . , Xn }.
La théorie des valeurs extrêmes cherche à étudier la convergence en loi de Mn (après normalisation éventuelle),
ainsi que les conditions sous lesquelles cette convergence a lieu. Elle permet d’identifier les lois limites possibles
pour les maxima (ou minima), qui sont : la loi de Fréchet, la loi de Gumbel et la loi de Weibull, chacune
correspondant à un type de comportement de la queue de distribution.
Remarque : L’étude du minimum est entièrement analogue, il suffit d’examiner − min(X1 , . . . , Xn ).
La théorie des valeurs extrêmes trouve des applications concrètes dans de nombreux domaines. Elle est utilisée
en :
— Hydrologie, pour prévoir les crues et protéger les zones inondables ;
— Climatologie, pour modéliser les épisodes météorologiques extrêmes ;
— Assurance, pour estimer la probabilité de sinistres rares et coûteux ;
— Finance, pour évaluer les risques extrêmes liés aux variations de marché ;
— Ingénierie, pour garantir la fiabilité des structures face à des sollicitations exceptionnelles.
En fournissant un cadre théorique rigoureux pour l’analyse des queues de distribution, la TVE permet
d’anticiper la fréquence et l’intensité des événements rares, et ainsi d’aider à la prise de décision dans des
contextes à fort enjeu.
2 Les lois de Mn
2.1 Quelques notations
On commence par faire une remarque sur la fonction de repartion de Mn en utilisant le fait que les Xi sont
i.i.d :
En effet, si on note FMn la fonction de repartition de Mn , et FXi la fonction de repartition de Xi on a :
∀t ∈ R FMn (t) = P(Mn < t) = P(X1 < t, ..., Xn < t) = P(X1 < t)n = FX
n
1
(t)
Mais on rencontre un probleme ici, puisque si n → +∞, F (t)n converge vers 0 (ou 1 si t est la borne sup
du support des Xi ).
L’idée est donc d’introduire 2 suites (bn ) et (an ) (avec an > 0 pour tout n) afin de pouvoir contrôler Mn .
3
Puis étudier la loi de la limite de Mna−b
n
n
. Comme la fonction de repartition caracterise la loi, il nous suffit
d’étudier la fonction G définie pour tout t dans le support des Xi comme :
M n − bn
P < t −−−−−→ G(t)
an n→+∞
Si il existe de tel suite an et bn alors on dit que F est dans le domaine d’attraction de G.
à ce stade la, il nous faut donc trouver les distributions G qui peuvent apparaı̂tre comme limite dans l’équation
ci-dessus.
Théorème (méthode de la fonction muette) : Soit Yn une variable aléatoire de fonction de répartition
L
Fn , et soit Y une variable aléatoire de fonction de répartition F . Alors Yn −
→ Y si et seulement si pour toute
fonction z réelle, bornée et continue :
E[z(Yn )] → E[z(Y )].
Mn −bn
En prenant ici Yn = an , on obtient :
∞
M n − bn x − bn
Z
E[z( )] = z( ) n F n−1 (x)dF (x)
an −∞ an
Rn R +∞
Or, on a limn→∞ (1 − nv )n−1 = e−v , et on a limn→∞ 0
= 0
.
2.2 Paramètre bn
On en déduit une bonne valeur pour bn . En effet,
Mn − bn
P < t −−−−−→ G(t) ∈]0 : 1[
an n→+∞
ln(1 − x)
⇐⇒ n(−F (an t + bn ) + 1) −−−−−→ ln(G(t)) (car lim = −1)
n→+∞ x→0 x
⇐⇒ n P(X1 > an t + bn ) −−−−−→ −ln(G(t))
n→+∞
4
2.3 Paramètre an
Avec le parametre bn définie au dessus et en posant u = v1 on obtient alors une condition, il faut qu’il existe
une fonction a tel que limx→∞ K(xu)−K(x)
a(x) converge vers une fonction h(u).
Proposition :
Les limites possibles sont données par :
u
uγ − 1
Z
c hγ (u) = c v −γ−1 dv = c . (2)
1 γ
Nous interprétons h0 (u) = log(u) lorsque γ = 0.
Mn −bn
Remarque : On ne veut pas que c = 0, car il conduit à une limite dégénérée pour an . Ensuite, le cas
c > 0 peut être ramené au cas c = 1 en incorporant c dans la fonction a.
Preuve de la Proposition
Soient u, v > 0. Alors :
Si la limite dans F est dans le domaine d’attraction de G (ce qu’on suppose depuis le début), alors le rapport
a(ux)
a(x) converge vers g(u).
De plus,
a(xuv) a(xuv) a(xv)
= .
a(x) a(xv) a(x)
Par passage à la limite pour x, la fonction g satisfait l’équation fonctionnelle de Cauchy :
En réécrivant l’expression (2.3) avec cette convergence, on en déduit que la fonction limite est de la forme
uγ − 1
hγ (u) = c ,
γ
K(xuv) − K(x)
lim = uγ h(v) + h(u)
x→∞ a(x)
5
2.4.1 Nature du support
En reprenant l’équation (2), on obtient :
1 (1/v)γ − 1 v −γ − 1
hγ = =
v γ γ
v −γ −1
Posons u = γ . On résout alors pour v :
v −γ = 1 + γu =⇒ v = (1 + γu)−1/γ
2.4.2 Si γ > 0
L’inversion montre que v ∈ [0, 1] correspond à u > − γ1 .
−1/γ
Or, par un développement asymptotique, 1 + γx est proportionnel à x−1/γ pour x grand. On obtient alors
Par croissance comparé, comme x−1/γ tend vers 0 moins vite que exp(−αx). On a alors :
ce qui caractérise une queue lourde : la probabilité d’observer des valeurs très grandes est plus élevée que dans
un modèle à décroissance exponentielle.
2.4.3 Si γ < 0
Pour γ < 0, la loi est définie quand :
1
1 + γu > 0 =⇒ u<−
γ
Autrement dit, il n’y a aucune probabilité d’observer une valeur au-delà de xmax . Dans ce cas, on dit que
la distribution est à queue bornée.
6
2.4.4 2. Cas γ = 0
Lorsque γ = 0, on a posé h0 (u) = ln u.
Donc, le changement de variable s’adapte :
1 1
u = h0 = ln = − ln v,
v v
ce qui implique
v = e−u .
Le changement de variable transforme alors l’intégrale limite en
Z ∞ n h io
z(u) d exp −e−u ,
−∞
On retrouve ici une queue à décroissance exponentielle, ce qui est caractéristique d’une queue légère : la
probabilité d’observer des valeurs extrêmes est faible.
2.5 Résumé
Les lois limites qui s’imposent dependent d’un parametre γ et sont les suivantes :
— Si γ = 0 (loi de Gumbel) :
G0 (u) = exp −e−u ,
u ∈ R.
— Si γ < 0 (loi de Weibull) :
n
−1/γ
o 1
Gγ (u) = exp − (1 + γu) , u<− .
γ
La loi se généralise pour toute valeur de gamma et on l’appelle GEV (Generalized Extreme Value), et donne :
n −1/γ o
Gµ,σ,γ (x) = exp − 1 + γ u .
7
3 Quelques exemples numériques
Voici maintenant quelques applications numériques sur des lois usuelles de ce que nous avons vu dans cette
section. Pour chacune des représentations suivantes, nous avons simulé 1000 fois chaque loi puis ensuite effectué
10000 simulations pour le maximum afin d’avoir une précision correcte.
P (Mn ≤ x) = P (U1 ≤ x, . . . , Un ≤ x)
= P (U1 ≤ x)n par indépendance des Ui
= xn
Nous allons maintenant effectuer le changement de variable x = 1 − y/n avec y > 0 pour examiner la queue de
la distribution :
P (n(1 − Mn ) ≤ y) → P (Y ≤ y) = 1 − e−y ,
ce qui établit la convergence en loi :
L
Yn = n(1 − Mn ) −
→ E(1).
Ainsi, on trouve que an = n1 et bn = 1.
Avec notre machine, nous obtenons le graphe suivant :
Remarquons que l’on obtient une loi de Gumbell, ce qui est assez logique au vu du fait que ce soit une loi à
queue très légère (elle n’en a tout simplement pas car son support est borné).
8
3.0.2 Loi exponentielle
Pour une loi exponentielle de paramètre 1, la loi limite est une loi de Gumbel. Théoriquement, on trouve an = 1
et bn = log(n).
Cette fois-ci, on avait une loi à queue fine, et on obtient loi de Gumbel, ce qui était attendu.
Notons ainsi que l’on a la même loi limite que pour la loi exponentielle de paramètre 1, les graphes sont quasiment
identiques.
9
Enfin ici, on avait une loi à queue lourde, et on obtient bien la loi de Fréchet attendue.
10
4 Méthodes d’estimation de l’indice de valeurs extrêmes
Dans cette section, nous nous intéressons aux différentes méthodes d’estimation du paramètre γ, intervenant
dans la distribution des valeurs extrêmes généralisée.
D’une part, des approches non paramétriques sont dédiées à l’estimation de l’indice de queue, notamment les
estimateurs de Hill et de Pickands. D’autre part, des méthodes paramétriques ont été développées, parmi les-
quelles la méthode du maximum de vraisemblance, la méthode des moments et les approches bayésiennes.
Définition : On dit qu’un estimateur γˆn est convergent s’il converge en probabilité vers γ, soit :
L’estimateur de Pickands repose sur l’idée que, dans les queues d’une distribution extrême, les plus grandes
observations suivent un comportement régulier. En considérant des statistiques d’ordre décroissantes, on peut
approximer la structure de la queue à l’aide de différences successives entre grandes valeurs. L’utilisation d’une
transformation logarithmique permet alors d’isoler l’indice de queue γ, sous des conditions d’attraction à une
loi limite.
Propriété de consistance. Si (kn ) est une suite intermédiaire, alors :
P
γ̂k,n −
→γ lorsque n → ∞.
11
Cette formule théorique permet de construire des intervalles de confiance pour l’estimation de γ, bien qu’en
pratique la variance soit souvent estimée par simulation.
Enfin, une version généralisée de cet estimateur existe, introduisant deux paramètres u, v > 1, permettant
une plus grande flexibilité :
Xn−k+1,n − Xn−[uk]+1,n
1
γ̂(k,u,v) = ln
ln(v) Xn−[vk]+1,n − Xn−[uvk]+1,n
Cette généralisation permet d’ajuster la stabilité de l’estimation. On retrouve l’estimateur de Pickands classique
en prenant u = v = 2.
La figure 1 illustre l’estimateur de Pickands appliqué à un échantillon simulé selon une loi de Pareto de
paramètre α = 2, ce qui correspond à un indice de queue γ = 1/α = 0.5. L’estimateur converge clairement
vers cette valeur lorsque k augmente, ce qui confirme la bonne performance de l’estimateur dans le cas d’une
distribution à queue lourde.
12
4.2.2 Loi exponentielle
Dans la figure 2, on observe que l’estimateur de Pickands reste proche de zéro, en accord avec l’indice
théorique γ = 0 de la loi exponentielle. Ce résultat est cohérent avec le fait que cette loi appartient au domaine
d’attraction de Gumbel.
13
4.2.3 Loi uniforme [0, 1]
Comme le montre la figure 3, l’estimateur décroı̂t vers γ = −1, valeur attendue pour la loi uniforme qui
possède une queue bornée. La plus grande instabilité observée est due au fait que cette loi n’a pas de queue
lourde, ce qui affecte la stabilité de l’estimation.
14
4.2.4 Loi de Cauchy
La figure 4 présente l’estimateur de Pickands appliqué à un échantillon de loi de Cauchy. Cette loi est
caractérisée par une queue extrêmement lourde et appartient au domaine d’attraction de Fréchet, avec un
indice de queue théorique γ = 1.
Le comportement de l’estimateur est ici particulièrement intéressant. Pour les faibles valeurs de k, l’estima-
teur est très instable, ce qui est attendu compte tenu de la nature explosive des grandes valeurs dans une loi de
Cauchy. À partir d’un certain seuil (environ k = 500), une phase de stabilisation est visible, avec une estimation
qui reste relativement proche de la valeur attendue.
Cependant, on note qu’au-delà de k ≈ 4000, l’estimateur décroı̂t significativement. Cela s’explique par le
fait que l’inclusion d’observations moins extrêmes perturbe la qualité de l’estimation. Ainsi, le cas de la Cauchy
montre bien les limites pratiques de l’estimateur, malgré sa validité théorique.
4.2.5 Synthèse
Ces représentations graphiques montrent que l’estimateur de Pickands parvient globalement à capturer
l’indice de queue γ pour différentes familles de distributions. Il converge correctement pour les cas classiques
(Pareto, exponentielle), mais présente une instabilité accrue pour les queues bornées ou très lourdes. Ces résultats
illustrent à la fois les points forts et les limites de l’estimateur, notamment sa sensibilité au choix de k.
( γ
x −1
U (tx) − U (t) γ si γ ̸= 0,
lim = pour x > 0.
t→0 c(t) log(x) si γ = 0,
15
La dernière affirmation est équivalente à :
xγ −1
(
U (sx) − U (s) y γ −1 si γ ̸= 0,
lim = log(x)
s→0 U (sy) − U (s) si γ = 0.
log(y)
pour x, y > 0 et y ̸= 1.
U (t) − U (t/2)
lim = 2γ .
t→∞ U (t/2) − U (t/4)
En fait, en utilisant la croissance de U qui se déduit de la croissance de F , on obtient
U (t) − U (tc1 (t))
lim = 2γ
t→∞ U (tc1 (t)) − U (tc2 (t))
dès que limt→∞ c1 (t) = 21 et limt→∞ c2 (t) = 14 . Il reste donc à trouver des estimateurs pour U (t).
Soit k(n), n ≥ 1 une suite d’entiers telle que 1 ≤ k(n) ≤ n4 et limn→∞ k(n) n = 0 et limn→∞ k(n) = ∞.
Soit (V1,n , . . . , Vn,n ) la statistique d’ordre d’un échantillon de variables aléatoires indépendantes de loi de
Pareto. On note FV (x) = 1 − x−1 , x ≥ 1.
On déduit avec certains résultats de bases liés à (V1,n , . . . , Vn,n ) que les suites
k 2k 4k
Vn−k+1,n , Vn−2k+1,n , Vn−4k+1,n
n n n
pour n ≥ 1 convergent en probabilité vers 1.
On en déduit en particulier, les convergences en probabilité suivantes :
Vn−2k+1,n 1 Vn−4k+1,n 1
Vn−k+1,n → ∞, → , → .
Vn−k+1,n 2 Vn−k+1,n 4
Donc la convergence suivante a lieu en probabilité :
U (Vn−k+1,n ) − U (Vn−2k+1,n )
→ 2γ .
U (Vn−2k+1,n ) − U (Vn−4k+1,n )
Xn−k+1,n − Xn−2k+1,n
Xn−k+1,n − Xn−4k+1,n
Ainsi cette quantité converge en loi vers 2γ quand n tend vers l’infini.
16
5 La construction de l’estimateur de Hill
Soient αn et βn deux suites de nombres positifs, la construction de l’estimateur de Hill basée sur la relation
suivante :
γ
αn
qβn ≃ qαn . (1.6)
βn
Passons au logarithme dans l’équation (1.6), ce qui donne :
αn
log(qβn ) − log(qαn ) ≃ γ log .
βn
On choisit αn = kn /n et on considère plusieurs valeurs pour βn , βn = i/n avec i = 1, . . . , kn − 1 tout en
ayant βn < αn . On obtient alors :
Le dénominateur se réécrit log(knkn −1 /(kn − 1)!). En utilisant la formule de Stirling, il est équivalent à kn au
voisinage de l’infini. On obtient alors l’estimateur de Hill.
Soit (kn )n≥1 une suite d’entiers avec 1 ≤ kn ≤ n, l’estimateur de Hill est défini par :
n −1
kX
1
γ̂kHn = log(Xn−i+1,n ) − log(Xn−kn +1,n ).
kn − 1 i=1
L’estimateur de Hill satisfait la propriété de consistance faible. Plus précisément, si (kn )n≥1 est une suite
intermédiaire, alors l’estimateur γ̂kHn converge en probabilité vers le paramètre de queue γ, c’est-à-dire :
P
γ̂kHn −
→ γ.
17
Figure 5 – Estimateur de Hill — Loi de Pareto (γ = 0,5)
Loi de Pareto : Dans ce cas, la loi suit un comportement de queue lourde avec un indice théorique γ = 0.5,
ce qui correspond parfaitement aux hypothèses de l’estimateur de Hill. Comme le montre la Figure, l’estimation
converge de manière satisfaisante vers la valeur théorique pour un intervalle raisonnable de seuils k. On observe
une certaine instabilité pour les petites valeurs de k, mais une fois la courbe stabilisée, elle oscille autour de la
vraie valeur. Ce comportement valide l’efficacité de l’estimateur dans ce cadre.
Loi exponentielle : La loi exponentielle appartient au domaine de Gumbel, avec un indice de queue γ = 0.
L’estimateur de Hill n’est pas adapté à ce domaine. Le graphique le confirme clairement : la courbe estimée
commence avec des valeurs très élevées, puis décroı̂t lentement sans jamais converger vers la valeur théorique
nulle. L’absence de convergence met en évidence l’inadéquation de l’estimateur dans ce contexte.
18
Figure 7 – Estimateur de Hill — Loi uniforme (γ = −1)
Loi uniforme : Cette loi présente une queue bornée, avec un indice γ = −1, ce qui sort du domaine d’ap-
plication de Hill. L’estimateur suppose en effet que γ > 0. Le graphique montre une estimation extrêmement
instable, avec des valeurs incohérentes, souvent très grandes ou très faibles, indiquant que le modèle n’est pas
du tout approprié à ce type de données.
Loi de Cauchy : La distribution de Cauchy, avec un indice γ = 1, est dans le domaine de Fréchet, donc en
principe bien adaptée à l’estimateur de Hill. Le graphique montre une bonne estimation dans les faibles valeurs
de k, la courbe noire se stabilisant autour de la valeur théorique. Cependant, dès que k devient trop grand,
l’estimation chute fortement, trahissant un biais introduit par l’inclusion d’observations moins extrêmes. Ce
phénomène illustre la sensibilité de l’estimateur au choix du seuil k.
En résumé, ces observations soulignent la pertinence de l’estimateur de Hill pour les lois à queue lourde
(Pareto, Cauchy), et son inadéquation manifeste pour les lois à queue légère ou bornée (exponentielle, uniforme).
Le choix judicieux du paramètre k demeure également crucial pour obtenir une estimation fiable.
19
6 Méthode des maxima par blocs
L’approche des maxima par blocs (en anglais Blocks Maxima) consiste à diviser les N observations en n blocs
de taille k. Concrètement, la suite X1 , ..., Xn est divisée en N blocs, le premier bloc est X1 , ..., Xk , le second
Xk+1 , ..., X2k , etc. On obtient ainsi une suite de maxima M1 , ..., Mn définis sur chacun des blocs.
En général, on considère une période temporelle, comme une journée ou bien une année pour refléter le sens des
observations.
On peut alors déterminer la loi limite des maxima, en vertu du théorème de Fisher-Tippett-Gnedenko c’est une
distribution GEV classique de la forme :
n −1/γ o
Gµ,σ,γ (x) = exp − 1 + γ u .
De la même manière que ce que l’on avait sans les blocs, il faut alors déterminer les valeurs des paramètres en
les approximant par des méthodes comme le maximum de vraisemblance. Des auteurs comme Ferreira et de
Haan (2006 et 2015) ont alors démontré l’existence d’estimateurs pertinents pour cette méthode, nommés PWM
(pour ”probability weighted moment”). Pour les définir, on part de la statistique suivante, soient X1,k , ..., Xk,k
les observations ordonnées du bloc X1 , ..., Xk , on définit :
k
1 X (i − 1)...(i − r)
βr = Xi,k pour r = 1, 2, 3, ..., k > r
k i=1 (k − 1)...(k − r)
A partir de βr , on peut ensuite définir les trois estimateurs PVM suivants pour γ, an et bn qui possèdent de
bonnes propriétés asymptotiques sous certaines conditions (Γ est la fonction gamma bien connue).
3γ̂k,m −1 3β2 −β0
Pour γ : γ̂k,m est solution de 2γ̂k,m −1 = 2β1 −β0
γ̂k,m 2β1 −β0
Pour an : âk,m = 2γ̂k,m −1 · Γ(1−γ̂k,m )
1−Γ(1−γ̂k,m )
Pour bn : b̂k,m = β0 + âk,m · γ̂k,m
Sous certaines conditions, on peut enfin démontrer que les quantiles élevés sont facilement estimables par cette
méthode. On a ainsi : √
k X̂k,m − Xn d γ−
→ ∆ + (γ − )2 B − γ − Λ − λ −
−
an qγ (cn ) γ +ρ
où :
— X̂k,m est l’estimateur du quantile extrême
— Xn est le vrai quantile à estimer
— an est le paramètre d’échelle
— ∆, Λ, λ sont des paramètres issus de la théorie asymptotique de Ferreira et de Haan (2015)
— B est un pont brownien Rt
— qγ (cn ) est une fonction définie par qγ (t) = 1 sγ−1 log s ds
— γ − = min(0, γ)
Cette approche possède tout de même un défaut car lorsque l’on prend le maximum sur un bloc, on fait
potentiellement disparaı̂tre des valeurs élevées, on perd des données intéressantes.
Yi = Xi − u pour Xi > u
20
Cette approche repose sur un résultat fondamental de Balkema et de Haan (1974), et de Pickands (1975),
selon lequel, pour une grande classe de lois de probabilité F , la loi des excès conditionnels au-delà d’un seuil
élevé converge vers une loi de Pareto généralisée lorsque le seuil u tend vers la borne supérieure de F .
Formellement, on considère une suite de variables aléatoires i.i.d. X1 , . . . , Xn de fonction de répartition F ,
et xF le point terminal de F . Pour tout seuil u < xF , on définit la fonction de répartition des excès par :
F (x + u) − F (u)
Fu (x) := P(X − u ≤ x | X > u) = , pour 0 ≤ x ≤ xF − u.
1 − F (u)
Et sa version en fonction de survie :
F (x + u)
F u (x) := P(X − u > x | X > u) = .
F (u)
Lorsque le seuil u est suffisamment élevé, Fu peut être bien approchée par une distribution de Pareto
généralisée Gγ,β(u) , définie comme suit :
e−(u+y)
P(X − u > y | X > u) = = e−y .
e−u
On retrouve donc une loi exponentielle, qui correspond à une GPD avec γ = 0 et β = 1. Cela montre que
l’exponentielle est un cas particulier de GPD.
Autrement dit, plus le seuil u est élevé, plus la loi des excès au-dessus de ce seuil est bien approchée par une
GPD.
Cette propriété est essentielle en statistique des valeurs extrêmes, car elle permet d’exploiter pleinement les
données situées dans les queues de distribution, sans se limiter au maximum d’un bloc.
21
8 Application sur des données réelles
Afin d’illustrer les méthodes d’estimation de l’indice de valeurs extrêmes, nous allons appliquer ces techniques
sur des données réelles. Nous allons utiliser les données du package ismev de R. Plus précisément wooster et
rain. Wooster contient les données de température minimale (en Fahrenheit) annuelle à Wooster de 1983 à 1988.
Tandis que Rain contient les données de pluie journalière dans en Angleterre de 1914 à 1962.
Nous allons utiliser deux méthodes d’estimation sur les paramètres an , bn et γ afin de d’estimer la valeur
extrême.
On remarque dans un premier temps que les données sont concentrées autour de 0 mais qu’elles sont ca-
pables de prendre des valeurs très élevées jusqu’à 90. Il est alors raisonnable de penser qu’après estimation, on
va obtenir une valeur de gamma positive ou nulle. En effet, il n’apparait pas de cassure dans la distribution des
données. De plus, les données prennent des valeurs grandes mais perdent rapidement en densité pour celle-ci.
Ce qui suggèrerait une valeur de gamma proche de 0.
Une valeur de gamma aussi proche de 0 doit nous conduire à une étude plus approfondie. Plusieurs méthodes
22
s’offrent à nous pour améliorer l’estimation de gamma.
2) On peut chercher les valeurs des paramêtres via une autre méthode (présentée plus bas).
3) Ou alors de façon plus arbitraire, on peut considérer la valeur de gamma en fonction du type de donnée
qu’on étudie et de la cohérence que cela apporte.
Dans un tel graphique, on cherche un ou des plateaux, c’est-à-dire un intervalle sur lequel la courbe noire
est horizontale et stable, et idéalement à l’intérieur des bandes de confiance rouges.
On remarque notament que pour k entre 50 et 200 on a un plateau mais aussi pour k entre 400 et 600. On
essaye de trouver un juste milieu entre biais et variance.
23
Ainsi, pour k = 125, on obtient γ̂ = 0.204.
Pour k = 500, on obtient γ̂ = 0.388.
Via le package evd, on obtient avec la fonction fgev les paramètres suivants :
µ = 40.8, σ = 9.73 et γ = 0.107.
L’estimation des paramètres sont calculées par l’algorithme de Nelder-Mead (voir annexe). On peut pousser
l’estimation des paramètres notamment γ via la méthode de Hill afin d’avoir une valeur plus précise. D’autant
plus que dans le cas de la méthode par depassement de seuil, on a vu que la valeur de γ était aussi positive.
Cela nous conforte dans l’idée d’une valeur de gamma positive.
24
Le graphique ci-dessus montre la distribution de Frechet en blue avec les paramètres estimés superposant
l’histogramme des maximums par année.
On suppose alors que γ > 0, donc il n’existe pas de valeur maximale finie : la probabilité de très gros maxima
décroı̂t lentement, selon un comportement polynomial plutôt que exponentiel ce qui est embettant dans le cas
pratique surtout quand on cherche des seuils rarement atteints.
Dans notre cas, on obtient alors : zt = 98.636. C’est à dire que la probabilité de dépasser cette valeur est de
1/100.
Autrement dit, une fois tous les 100 ans, on peut s’attendre à avoir une pluie de plus de 98.636 mm.
25
9 Annexe
9.1 Méthode de Nelder-Mead
Le package ”evd”, que nous avons utilisé pour réaliser les méthodes de dépassement de seuil et des maxima en
bloc, utilise l’algorithme de Nelder-Mead pour calculer les paramètres de la fonction limite et ainsi savoir dans
quel cas où se trouve : Fréchet, Gumbel ou Weibull.
Nelder-Mead est un algorithme d’optimisation non linéaire, il consiste en la chose suivante dans le cadre des
valeurs extrêmes :
— Etape 1 : on commence par choisir 3 premiers points x1 , x2 , x3 par une rapide estimation des paramètres
σ, µ et γ de nos données. Ce seront nos points de départs de l’algorithme et ils définissent notre premier
simplexe (triangle ici) dans R2 .
— Etape 2 : on calcule ensuite la valeur de la fonction en ces 3 points : f est la fonction GEV généralisée
(à définir plus précisément) et on les trie par valeurs décroissantes.
— Etape 3 : on cherche le centre de gravité x0 de nos premiers points : x0 = x1 +x32 +x3 .
— Etape 4 : on fait ensuite une réflexion en calculant xr = x0 +α(x0 −x3 ) où α > 0 est appelé le coefficient
de réflexion
— Etape 5 : si f (x1 ) ≤ f (xr ) ≤ f (x3 ) : on remplace x3 par xr et on retourne à l’étape 2.
— Etape 6 : si f (xr ) ≤ f (x1 ) : on procède à une expansion du simplexe, on calcule x3 = x0 + γ(xr − x0 )
où γ > 1. Si f (xe ) ≤ f (xr ), on remplace x3 par xe sinon on remplace x3 par xr et on retourne à l’étape
2
— Etape 7 : si f (xr ) ≥ f (x3 ) : on procède à une contraction du simplexe, on cherche xc = x0 + ρ(x3 − x0 )
où 0 < ρ < 0.5 . Si f (xc ) ≤ f (x3 ), on remplace x3 par xc et on retourne à l’étape 2, sinon on continue
jusqu’à l’étape 8.
— Etape 8 : on effectue une homothétie de rapport ω et de centre x1 : on remplace ainsi xi par x1 +ω(xi −x1 )
où 0 < ω < 1et on retourne à l’étape 2 q
Pn+1 (fi −f¯)2 Pn+1
On répète cela jusqu’à atteinte du critère d’arrêt, en général : i=1 n < ϵ où f¯ = n+1
1
i=1 fi et ϵ est
un réel proche de 0.
9.2 Codes R
Voici un exemple de code R utilisé dans la première section :
1 # Param è tres
2 n <- 1000 # Taille de l ’ é chantillon pour la simulation des lois uniformes
3 N <- 10000 # Nombre de simulations pour le maximum
4
5 # Simulation des maxima de lois uniformes (0 ,1)
6 set . seed (123) # fixation de l ’ al é a
7 M _ n <- replicate (N , max ( runif ( n ) ) ) # M _ n = max / X _ n = runif
8
9 # Normalisation pour observer la convergence
10 Y _ n <- n * (1 - M _ n )
11
12 # Histogramme des valeurs transform é es
13 hist ( Y _n , breaks = 50 , probability = TRUE ,
14 col = " lightblue " , border = " white " , ylab = " Densit é " ,
15 xlab = expression ( Y _ n ) , main = " Max ␣ de ␣ 1000 ␣ lois ␣ uniformes " )
16
17 # Densit é th é orique de la loi exponentielle ( param è tre = 1)
18 curve ( dexp (x , rate = 1) , col = " red " , lwd = 2 , add = TRUE )
19
20 # L é gende
21 legend ( " topright " , legend = c ( " Simulation " , " Densit é ␣ th é orique ␣ : ␣ exp (1) " ) ,
22 fill = c ( " lightblue " , NA ) , border = c ( " white " , NA ) ,
23 lty = c ( NA , 1) , col = c ( NA , " red " ) , lwd = c ( NA , 2) )
26
7
8 mu <- as . numeric ( gev _ fit $ param [1])
9 sigma <- as . numeric ( gev _ fit $ param [2])
10 gamma <- as . numeric ( gev _ fit $ param [3])
11
12 # estimation de gamma avec pickands ( juste pour comparer )
13
14 x <- sort ( wooster )
15 n <- length ( x )
16 k <- floor (0.1 * length ( wooster ) )
17 X1 <- x [ n - k + 1]
18 X2 <- x [ n - 2 * k + 1]
19 X3 <- x [ n - 4 * k + 1]
20 pickands _ est <- (1 / log (2) ) * log (( X1 - X2 ) / ( X2 - X3 ) )
21 print ( pickands _ est )
22
23
24 # gamma est < 0 donc on calcule la borne max
25 x _ max <- mu - sigma / gamma
26
27 # D é finir la densit é de la loi ( pour gamma < 0)
28 dgev <- function (x , mu , sigma , gamma ) {
29 t <- 1 + gamma * (( x - mu ) / sigma )
30 dens <- ifelse ( t > 0 ,
31 (1 / sigma ) * t ^( -1 / gamma - 1) * exp ( - t ^( -1 / gamma ) ) ,
32 0)
33 return ( dens )
34 }
35
36 xseq <- seq ( min ( wooster ) , max ( wooster ) , length . out = 200)
37
38 # PLOT
39
40 hist ( wooster , main = " Histogram ␣ de ␣ wooster " , breaks = 60 , probability = TRUE , col = "
lightgray " )
41
42 lines ( xseq , dgev ( xseq , mu , sigma , gamma ) , col = " blue " , lwd = 2)
43
44
45 abline ( v = x _ max , col = " red " , lwd = 2 , lty = 2)
46 legend ( " topright " , legend = paste ( " x _ max ␣ = " , round ( x _ max , 2) ) , col = " red " , lwd = 2 ,
lty = 2)
47
48 # plot plus d é taill é
49 plot ( gev _ fit )
27
29
30 # on trace l ’ histogramme des donn é es en exc é s par rapport au seuil et la loi de pareto
31 hist ( rain _ data [ rain _ data > threshold ] - threshold , breaks = 50 , freq = FALSE , main = "
Rain ␣ Excesses ␣ et ␣ densit é ␣ de ␣ Pareto " )
32
33 # on trace la loi de gpd avec les param è tres estim é s
34 xseq <- seq ( min ( rain ) , max ( rain ) , length . out = 200)
35 lines ( xseq , pareto ( xseq , gamma , sigma ) , col = ’ red ’ , lwd =2)
36
37
38
39 # pour le qq - plot et residus
40 gpd . diag ( gpd _ result )
28