0% ont trouvé ce document utile (0 vote)
66 vues8 pages

Analyse de fréquence en hydrologie

L'analyse de fréquence en hydrologie utilise des méthodes statistiques pour relier l'ampleur des événements extrêmes à leur fréquence d'apparition, ce qui est crucial pour la planification de projets liés à l'eau. Différentes distributions de probabilité, telles que la normale, lognormale, Gumbel et gamma, sont employées pour estimer les paramètres et calculer les facteurs de fréquence associés aux débits. Des tests d'ajustement, comme le test de Smirnov-Kolmogorov et le test du Chi carré, sont utilisés pour évaluer la pertinence des distributions choisies par rapport aux données observées.

Transféré par

ScribdTranslations
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
66 vues8 pages

Analyse de fréquence en hydrologie

L'analyse de fréquence en hydrologie utilise des méthodes statistiques pour relier l'ampleur des événements extrêmes à leur fréquence d'apparition, ce qui est crucial pour la planification de projets liés à l'eau. Différentes distributions de probabilité, telles que la normale, lognormale, Gumbel et gamma, sont employées pour estimer les paramètres et calculer les facteurs de fréquence associés aux débits. Des tests d'ajustement, comme le test de Smirnov-Kolmogorov et le test du Chi carré, sont utilisés pour évaluer la pertinence des distributions choisies par rapport aux données observées.

Transféré par

ScribdTranslations
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

ANALYSE DE FRÉQUENCE EN HYDROLOGIE

I. INTRODUCTION
Les informations sur les différents événements hydrologiques ne dépendent pas de lois
physiques ou chimiques connues, mais sont régies par des probabilités, ce qui est
important dans la planification et la conception de projets liés à l'eau.
Dans le cas du débit d'une rivière, il présente des variations journalières et annuelles et il
n'est pas possible de prédire exactement quelle sera sa valeur à un moment donné.
Par exemple, si l'on souhaite concevoir un pont, l'étude hydrologique déterminera la crue
du fleuve avec une probabilité critique (qui cherche à déterminer le cas le plus critique),
qui représente un risque pour ladite construction. Ces données ne peuvent être
déterminées que par une analyse probabiliste et statistique basée sur les enregistrements
hydrologiques passés du fleuve.
Il convient de noter que les systèmes hydrologiques (rivières, lagunes, montagnes
enneigées, etc.) sont parfois affectés par des événements extrêmes, tels que tempêtes,
précipitations, inondations et sécheresses. L’ampleur de l’événement est inversement
proportionnelle à sa fréquence d’occurrence, ce qui signifie que les événements extrêmes
se produisent moins fréquemment que les événements modérés.
L'analyse fréquentielle des informations hydrologiques cherche à relier l'ampleur des
événements extrêmes à leur fréquence d'apparition, grâce à l'utilisation de fonctions de
distribution de probabilité.

II. CADRE THÉORIQUE


ANALYSE DE FRÉQUENCE
L'analyse de fréquence est un outil utilisé pour prédire le comportement futur des flux sur
un site d'intérêt, sur la base d'informations historiques sur les flux. Il s'agit d'une méthode
basée sur des procédures statistiques qui permet de calculer l'ampleur du débit associé à
une période de retour. Sa fiabilité dépend de la qualité des séries historiques, ainsi que de
l'incertitude de la distribution de probabilité sélectionnée. Lorsque l'on souhaite utiliser
des extrapolations, la période de retour est supérieure à la longueur des séries disponibles,
l'erreur relative associée à la distribution de probabilité utilisée est plus importante, tandis
que dans les interpolations, l'incertitude est principalement associée à la qualité des
données à analyser. modélisé; Dans les deux cas, l'incertitude est élevée en fonction de la
quantité de données disponibles (Ashkar, et al. 1994). L'extrapolation de fréquences
extrêmes dans une distribution empirique de croissants est extrêmement risquée (Garcon,
1994).
Pour déterminer l’ampleur d’événements extrêmes lorsque la distribution de probabilité
n’est pas une fonction facilement inversable, il est nécessaire de connaître la variation de
la variable par rapport à la moyenne. Chow propose en 1951 de déterminer cette
variation à partir d'un facteur de fréquence KT qui peut s'exprimer :
et peut être estimé à partir des données

Pour une distribution donnée, une relation entre K et la période de retour Tr peut être
déterminée. Cette relation peut être exprimée en termes mathématiques ou à l'aide d'un
tableau.

L'analyse fréquentielle consiste à déterminer les paramètres des distributions de


probabilité et à déterminer avec le facteur de fréquence l'ampleur de l'événement pour
une période de retour donnée.

Les principales distributions de probabilité utilisées en hydrologie, la manière d'estimer


leurs paramètres, le facteur de fréquence et les limites de confiance sont décrits ci-
dessous. Ces derniers sont des indicateurs du degré d'incertitude des extrapolations, car
pour déterminer la plage de valeurs où se trouveraient réellement les variables, si la
plage est très grande l'incertitude est très élevée et si elle est petite, au contraire, il y a
sera beaucoup de confiance dans la valeur estimée.

DISTRIBUTIONS DE PROBABILITÉ POUR LES VARIABLES CONTINUES

1. RÉPARTITION NORMALE

La distribution normale est une distribution symétrique en forme de cloche, également


connue sous le nom de cloche gaussienne. Bien qu'elle ne corresponde souvent pas aux
données hydrologiques, elle a de nombreuses applications, par exemple pour les
données transformées qui suivent la distribution normale.

 Fonction densité :

La fonction de densité est donnée par :

Les deux paramètres de la distribution sont la moyenne m et l'écart type s pour


lesquels (moyenne) et s (écart type) sont dérivés des données.

 Estimation des paramètres :


 Facteur de fréquence :

Si vous travaillez avec le X sans transformer le K, cela se calcule comme suit :

Ce facteur est le même que la variable normale


standard

 Limites de confiance :

où a est le niveau de probabilité est le quantile de la distribution normale


standardisée pour une probabilité cumulée de 1-a et Se est l'erreur type

2. DISTRIBUTION LOGNORMALE DE DEUX PARAMÈTRES

Si les logarithmes Y d'une variable aléatoire X sont normalement distribués, on dit que
X est normalement distribué.

Cette distribution est largement utilisée pour le calcul de valeurs extrêmes, par exemple
Q max, Q minimum, P max, P minimum (excellents résultats à Antioquia). Il a
l'avantage que

Limites : il ne comporte que deux paramètres, et nécessite que les logarithmes des
variables soient centrés sur la moyenne

 Fonction densité :

y = ln x
où:
mon : moyenne des logarithmes de la population (paramètre scalaire), estimée
et. sy : Écart type des logarithmes de population, estimé sy.

 Estimation des paramètres :


 Facteur de fréquence :
Vous pouvez travailler sur le champ d'origine et sur le champ transformé.

Champ transformé : Si vous travaillez dans le champ transformé, vous travaillez avec
la moyenne et l'écart type des logarithmes, comme ceci :

Ln(XTr) = xTr+KSy

où: XTr = eln (xTr)

avec K avec variable normale standardisée pour le Tr donné, Xy signifie les


logarithmes et Sy est l'écart type des logarithmes.

Champ d'origine : Si vous travaillez avec le X sans transformer, le K est calculé


comme

K est la variable normale standardisée pour le Tr donné.

 Limites de confiance :

Dans le domaine transformé.

où, n nombre de données, erreur type Se, variable normale normalisée KT.

3. GUMBEL OU DISTRIBUTION EXTRÊME TYPE I

Une famille importante de distributions utilisée dans l'analyse de fréquence


hydrologique est la distribution générale des valeurs extrêmes, qui a été largement
utilisée pour représenter le comportement des inondations et des sécheresses
(maximales et minimales).

 Fonction densité :

Où a et b sont les paramètres de la distribution.


 Estimation des paramètres

Où : x et s sont la moyenne et l’écart type estimés avec l’échantillon.

 Facteur de fréquence :

Où Tr est la période de retour. Pour la distribution Gumbel, le le flux pour


une période de retour de 2,33 ans est égal à la moyenne des flux maximales.

 Limites de confiance :

KT est le facteur de fréquence et t(1-a) est la variable normale normalisée pour une
probabilité de non-dépassement de 1-a.

4. DISTRIBUTION GAMMA DE TROIS PARAMÈTRES OU PEARSON TYPE 3

Cette distribution a été l'une des plus utilisées en hydrologie. Comme la plupart des
variables hydrologiques sont asymétriques, la fonction Gamma est utilisée pour ajuster
la distribution de fréquence de variables telles que les crues annuelles maximales, les
débits minimaux, les volumes de débit annuels et saisonniers, les valeurs de
précipitations extrêmes et les volumes de précipitations de courte durée. La fonction
de distribution Gamma a deux ou trois paramètres.

 Fonction densité :

où,

x0 £ x < a pour a > 0


a < x £ x0 pour a < 0

a et b sont respectivement les paramètres d'échelle et de forme, et x0 est le


paramètre emplacement
 Estimation des paramètres :

Cs est le coefficient d'asymétrie, x et s sont la moyenne et l'écart type du


échantillon respectivement.

 Facteur de fréquence :

où z est la variable normale standardisée

Cette valeur K est tabulée en fonction de la valeur Cs calculée avec l'échantillon.

 Intervalles de confiance :

Xt ± t(1-a)Se

Où S est l'écart type de l'échantillon, n est le nombre de données et d est trouvé


tabulé sur la base de Cs et Tr.

5. LOG GAMMA OU LOGPEARSON DISTRIBUTION DE 3 PARAMETRES

Si les logarithmes Y d'une variable aléatoire X correspondent à une distribution de


Pearson de type III, on dit que la variable aléatoire X correspond à une distribution
Log Pearson de type III. Cette distribution est largement utilisée dans le monde pour
l’analyse fréquentielle des débits maximaux. Cela fonctionne de la même manière que
pour Pearson Type III mais avec Xy et Sy comme moyenne et écart type des
logarithmes de la variable d'origine X.

 Fonction densité :

où,
y0 £ y < a pour a > 0
a £ y £ y0 pour a < 0

a et b sont respectivement les paramètres d'échelle et de forme, et y0 est le


paramètre emplacement.

 Estimation des paramètres :


Cs est le coefficient d'asymétrie, Xy et Sy sont respectivement la moyenne et l'écart
type des logarithmes de l'échantillon.

 Facteur de fréquence :

où z est la variable normale standardisée

Cette valeur K est tabulée en fonction de la valeur Cs calculée avec l'échantillon.

 Intervalles de confiance :

Xt ± t(1-a)Se

Où Sy est l'écart type des logarithmes de l'échantillon, n est le nombre de données


et d est calculé en fonction de Cs et Tr.

TEST D'AJUSTEMENT

Pour déterminer dans quelle mesure l'ajustement des données est adéquat à une
distribution de probabilité, une série de tests statistiques ont été proposés pour
déterminer si l'ajustement est adéquat. Il s’agit d’analyses statistiques et doivent être
comprises comme telles, c’est-à-dire que la signification physique des ajustements ne
peut être ignorée.

a) Test de Smirnov Kolmogorov

La statistique Smirnov Kolmogorov D considère l'écart de la fonction de distribution


de probabilité d'échantillon P(x) par rapport à la fonction de probabilité théorique,
choisie Po(x) telle que :

Le test nécessite que la valeur Dn calculée avec l'expression ci-dessus soit inférieure à
la valeur tabulée Dn pour un niveau de probabilité requis.

Ce test est simple à réaliser et comprend les étapes suivantes :

 La statistique Dn est la différence maximale entre la fonction de distribution


cumulée de l'échantillon et la fonction de distribution cumulée théorique
choisie.
 Le niveau de probabilité est fixé à a, les valeurs de 0,05 et 0,01 sont les plus
courantes.
 La valeur critique Da de l'essai doit être obtenue à partir de tableaux en fonction
de a et n.
 Si la valeur calculée Dn est supérieure à Da, la distribution choisie doit être
rejetée.

b) Test du Chi carré

Une mesure des écarts entre les fréquences observées (fo) et les fréquences calculées
(fc) au moyen d'une distribution théorique est donnée par la statistique χ²
où:

Si la statistique χ²=0 signifie que les distributions théorique et empirique s'ajustent


exactement, alors que si la statistique χ²>0, elles diffèrent. La distribution de la
statistique χ² peut être assimilée à une distribution du Chi carré à (kn-1) degrés de
liberté, où k est le nombre d'intervalles et n est le nombre de paramètres de la
distribution théorique. La fonction χ² est tabulée. Supposons qu'une hypothèse Ho
consiste à accepter qu'une distribution empirique corresponde à une distribution
normale. Si la valeur calculée de χ² par l'équation précédente est supérieure à une
certaine valeur critique de χ², avec des niveaux de signification a de 0,05 et 0,01 (le
niveau de confiance est 1-a), on peut dire que les fréquences observées diffèrent
significativement des fréquences attendu (ou calculé) puis l'hypothèse Ho est rejetée,
si le contraire se produit alors elle est acceptée.

III. LITTÉRATURE

 [Link]
 [Link]
 [Link]

Vous aimerez peut-être aussi