INTRODUCTION AUX EUROCODES.
Rédigée à l’intention des élèves ingénieurs en génie civil par
Dr Kocouvi Agapi HOUANOU
Enseignant-Chercheur au Département du Génie Civil
École Polytechnique d’Abomey-Calavi.
1
Chapitre 4 : Base de la théorie de fiabilité.
4.0. Introduction.
La théorie de la fiabilité propose une évaluation des structures basée sur la théorie des
probabilités. Elle est utilisée dans l’aéronautique, l’industrie offshore, l’industrie nucléaire et,
plus récemment, dans le domaine du bâtiment et des ouvrages d’art.
La théorie de la fiabilité repose sur une approche probabiliste de la sécurité structurale. Elle
vise à évaluer la probabilité de défaillance de la structure : connaissant un critère d’état limite
de la structure ainsi que la variabilité des paramètres qui interviennent dans ce critère, la
probabilité de défaillance est définie comme la probabilité que ce critère soit dépassé. La
structure est finalement considérée comme sûre si cette probabilité de défaillance est
inférieure à une valeur référence appelée probabilité de défaillance acceptable.
Ce chapitre présente les principes qui sous-tendent cette théorie ainsi que ses possibilités
d’application à l’évaluation de la sécurité des structures.
4.1. Définitions
4.1.1. Mode de défaillance et fonction d’état limite
L’évaluation de la sécurité structurale commence par la définition du mode de défaillance que
l’on veut étudier, c’est-à-dire la localisation de l’élément de structure concerné, les propriétés
mécaniques des matériaux, les sollicitations soumises ainsi que le modèle liant résistance et
sollicitations. Notons que le niveau de fiabilité obtenu dépendra donc du mode de défaillance
choisi.
Le mode de défaillance permet ainsi de définir la marge de sécurité ou fonction d’état limite à
respecter. Cette fonction d’état limite, notée g, fait intervenir différents paramètres
géométriques ou physiques du système étudié.
Notons :
• R la résistance du matériau constitutif de la structure ;
• S les sollicitations imposées à la structure.
= ( , )
On peut écrire la marge de sécurité M et la fonction d’état limite g sous la forme générale :
En se plaçant dans l’espace physique, espace formé par R et S, on remarque que la fonction
d’état limite permet de diviser l’espace physique en 3 domaines (Figure 4.1) :
• g (R, S) < 0 : domaine de défaillance ;
• g (R, S) = 0 : état limite ;
• g (R, S) > 0 : domaine de sécurité.
Figure 4.1 : Domaine de défaillance, état limite et domaine de sécurité.
2
4.1.2. Variables aléatoires et lois de probabilité
Dans le cadre de la théorie de la fiabilité, les paramètres intervenant dans la fonction d’état
limite peuvent être définis comme aléatoires pour tenir compte des incertitudes qui planent sur
leur valeur. On les appelle alors variables aléatoires et on leur affecte une loi de probabilité
qui décrit leur variabilité (Figure 4.2). On caractérise généralement les lois de probabilité par
leur valeur moyenne µ et leur écart-type σ ou leur coefficient de variation CdV, défini comme
le rapport de l’écart-type sur la moyenne.
Dans l’évaluation des structures par la théorie de la fiabilité, on utilise couramment :
• la loi normale : elle apparaît naturellement dans les phénomènes aléatoires dont la
base physique est de nature microscopique mais observée à l’échelle macroscopique.
En d’autres termes, la distribution gaussienne est la loi de toute variable dont les
valeurs résultent de la contribution d’une multitude de facteurs indépendants. Elle
traduit généralement bien les erreurs de précision d’implantation et les grandeurs
géométriques. La loi normale est enfin souvent adoptée comme approximation
d’autres lois ;
• la loi lognormale : elle apparaît dans les phénomènes issus du produit d’une multitude
de facteurs. Elle est très utilisée dans la modélisation de données hydrologiques, mais
également dans la construction de modèle liant l’amplitude des séismes avec leurs
intervalles d’occurrence. Elle est parfois utilisée par défaut, pour représenter les
caractéristiques physiques des matériaux et certaines sollicitations permanentes ne
changeant pas de signe ;
• les lois de valeurs extrêmes : la modélisation des variables dans une analyse de la
fiabilité nécessite souvent de considérer des valeurs extrêmes (par exemple, la plus
grande charge qu’une structure aura à subir pendant une période donnée ou la
résistance la plus petite dans un matériau fibré). Il est possible d’établir que seules six
lois d’extrêmes existent, trois pour les maxima et trois pour les minima, appelées lois
de Gumbel, lois de Fréchet et lois de Weibull.
Figure 4.2 : Distribution d’une variable aléatoire Z suivant une loi normale (à gauche) et lognormale (à droite).
Notons que toutes les variables intervenant dans la fonction limite ne sont pas nécessairement
aléatoires, certaines pouvant être définies comme déterministes.
4.1.3. Probabilité de défaillance et indice de fiabilité
La théorie de la fiabilité permet donc, à partir d’une fonction d’état limite et des lois de
probabilité associées à ces variables aléatoires, de connaître la probabilité Pf de se trouver
= ( ( , ) < 0) = ( − < 0)
dans le domaine de défaillance :
3
L’ordre de grandeur de la probabilité de défaillance étant très faible, on traduit généralement
cette valeur en terme d’indice de fiabilité (ou indice de sécurité) β, que l’on calcule à partir de
=−
la probabilité de défaillance selon :
où Φ représente la fonction de répartition de la loi normale centrée réduite.
On représente en figure 4.3 la relation entre la probabilité de défaillance Pf et l’indice de
fiabilité β.
Figure 4.3: Courbe de la probabilité de défaillance Pf en fonction de l’indice de fiabilité β.
On peut donner une interprétation géométrique de l’indice de fiabilité β en se plaçant dans un
espace normalisé correspondant à l’espace physique, c’est-à-dire en considérant que les
variables aléatoires suivent une loi normale de moyenne nulle et d’écart-type 1. On peut alors
représenter géométriquement l’indice de fiabilité β comme la distance entre l’origine O de
l’espace normalisé et la courbe d’état limite. Le point de l’état limite ainsi identifié est appelé
point de fonctionnement Z (figure 4.4).
Figure 4.4 : Représentation géométrique de l’indice de fiabilité β, du point de fonctionnement Z0 et des cosinus
directeurs α.
4
On note le vecteur unitaire portant (ZO) :
= =
Les composantes αR et αS de sont appelées cosinus directeurs : elles donnent le poids relatif
de chacune des variables sur l’indice de fiabilité β. On peut également mesurer la sensibilité
de cet indice aux variations de la moyenne µ (respectivement de l’écart-type σ) de R ou de S
en étudiant leur coefficient de sensibilité Sm (respectivement Ss) :
! %!
= "# =
! $
!%
4.2. Indices de fiabilité.
4.2.1. Variable réduite
Il est important dans le cadre d’analyse de convertir tous les variables aléatoires dans leur
forme standard où elles sont dans une forme adimensionnelle. La forme standard des
− −
variables aléatoires de base R et S, se présente comme suit :
& = "# & =
% %
Les YR et YS sont appelées les variables réduites.
Après transformation, les variables réduites donnent les expressions suivantes des variables de
= + & % "# = +&%
base.
( , )= + & % − − & % = ( − ) + (& % − & % )
Ainsi, la fonction d’état limite est g(R,S)=R-S peut s’exprimer comme suit :
Figure 4.5 : Mutation de l’espace initial physique vers l’espace standard de Gauss.
4.2.2. Indice de fiabilité de Rjanitzyne-Cornell.
L’indice de Rjanitzyne-Cornell βc est obtenu en utilisant la moyenne µY et l’écart-type
standard σY de la fonction d’état limite (fonction de performance) g. L’indice de fiabilité est
défini par l’inverse du coefficient de variation de la variable Y=R-S et exprimé par :
=
)
(
%)
− =
On rappelle que :
)
%)*
= % + % − 2, % % -."/ , désignant le ceof<icient de corrélation.
* *
Lorsque les variables de base, R et S, sont indépendantes ρRS=0.
5
Nous pouvons montrer que cet indice, multiplié par l’écart-type standard σY représente le gap
entre la valeur de la moyenne µY et l’état limite (g=0). Le principal désavantage de cet indice
est qu’il donne de différentes valeurs pour différentes expressions de la fonction d’état limite.
−
Exemple : Lorsque la fonction d’état limite g(R,S)=Y=R-S, nous avons :
=
?% * + % *
Si nous écrivons la fonction d’état limite sous une autre forme, par exemple g(R,S)= R/S -
! !
1≤0, dans ce cas nous aurons après linéarisation :
( , )= ( , )+ ( , )( − ) + ( , )( − )
! !
1 1
Soit
( , )= −1+ ( − )+ ( − )
Ainsi,
= =
A
%A
%* *
B * + %* *
Nous obtenons donc deux différents indices pour la même fonction d’état limite. Pour corriger
cette difficulté, nous allons examiner un nouvel indice de fiabilité, l’indice de Hasofer-Lind.
4.2.3. Indice de Hasofer-Lind
Pour éviter le risque de dépendance de l’indice de fiabilité lié à l’état limite, Hasofer et Lind
ont proposé le calcul de β dans l’espace des variables aléatoires réduites normales centrées et
statistiquement indépendantes. Pour faire ainsi, la variable aléatoire X est en variable aléatoire
U, avec Ui=T(Xi).
Les variables aléatoires suivant la distribution centrée réduite et pour i≠j, Ui et Uj sont
mutuellement indépendantes. Cette loi de probabilité T signifie qu’il faut connaître les
distributions statistiques de chacune des variables. La fonction d’état limite après
C(D) = EFG(D)H
transformation est la suivante :
= (C(D) ≤ 0)
La probabilité de défaillance est ainsi définie par :
avec
=J (K)
L(M)NO
Φm est la densité de fonction de la distribution de la densité de fonction multi-normale centrée
réduite. La fonction de fiabilité βHL est définie comme la distance euclidienne entre le début
de l’espace standard normal et la surface d’état limite H(u)=0. u est une réalisation de la
variable aléatoire U, avec u=(u1, u2, …., um)T. H(u) est une réalisation de la variable aléatoire
LQ = RST?K . K
H(U). Il est ainsi nécessaire de résoudre le problème de minimisation sous contrainte suivant :
U
PK ∈ , .éXSYS-T#Z
C(K) = 0
6
= RSTY(K)
Ce problème est équivalent à :
LQ
PK ∈ , .éXSYS-T#Z
C(K) = 0
1 U
avec
Y(K) = K K
2
Ainsi, l’indice de fiabilité est le minimum de la fonction f sous la contrainte H(u)=0. Le calcul
analytique de βHL peut se faire seulement dans un nombre limité de cas spécifiques donnés,
ceci conduit à l’utilisation fréquente de la solution numérique.
Les fonctions objectif sont convexes, de forme quadratique, doublement continuellement
différentiables en fonction des variables ui. Au contraire, la fonction contrainte H(u) est
rarement convexe. En plus, la fonction H(u) souvent complexe, implicite et non
continuellement différentiable suivant les variables ui.
u* est le vecteur solution du problème de minimisation et P* est le point de la surface d’état
limite sachant que OP*=u*. P* est le point de dimensionnement ou le point de défaillance le
plus probable. Comme résultat :
u*= - βHLα
α est un vecteur normal à la surface H(u)=0 au point où u* est le gradient normé. L’objectif
est de relier βHL à la probabilité de défaillance de la structure. Plusieurs méthodes possibles
donnent des valeurs plus ou précises de Pf.
4.2.4. Méthode itérative de Rackwitz-Fiessler
Le principe de Rackwitz-Fiessler donne l’algorithme de recherche du point de fonctionnement
X0. Il se dresse comme suit :
i. Linéarisation de la fonction d’état limite H(X) au point X0 ;
ii. Intersection de l’hyperplan tangent avec le plan des variables de base ;
iii. Recherche du point X1 le plus près de l’origine et projection de X1 sur Lx
iv. Retour en i) ou FIN.
4.3. Méthodes de calcul de la probabilité de défaillance
En pratique, on recourt à des méthodes d’estimation pour calculer la probabilité de défaillance
reliée à l’indice de fiabilité β. On distingue deux grands types de méthode (figure 4.5) :
• Méthodes de niveau II : on représente la fonction d’état limite g par une surface
approchante :
o un hyperplan dans le cas de la méthode FORM (First Order Reliability
Method) fondée sur une approximation linéaire autour du point de conception;
o une hyperparaboloïde dans le cas de la méthode SORM (Second Order
Reliability Method) fondée sur une approximation non linéaire de degré 2
autour du point de conception.
L’indice de fiabilité β est alors donné par la distance entre l’origine O de l’espace normalisé et
= (− )
cette surface ; on en déduit la probabilité de défaillance
• Méthodes de niveau III : on procède à un tirage aléatoire des couples de valeurs des
variables aléatoires R et S et on vérifie pour chaque couple s’il y a défaillance ou non ;
la probabilité de défaillance Pf est définie comme le rapport entre le nombre de tirages
7
ayant conduit à la défaillance et le nombre total de tirages. Ce type de méthode
requiert un grand nombre de tirages pour obtenir des résultats fiables et peut donc se
révéler très coûteuse en termes de temps de calcul. Cette méthode est appelée aussi
Méthode de Monte-Carlo.
Figure 4.6 : Méthodes d'estimation de la probabilité de défaillance Pf : méthodes de niveau II (à gauche) et méthodes de
niveau III (à droite).
4.3.1. Méthode de Monte Carlo.
La détermination de la probabilité de défaillance Pf directement est généralement impossible.
La technique de simulation numérique généralement donne des évaluations précises de la
probabilité de défaillance Pf et est souvent le seul moyen de tenir compte des non linéarités
des modèles mécaniques ou des fonctions d’état limite. Le moyen le plus simplifié est la
méthode de Monte Carlo. Le principe général de cette méthode est la suivante :
Étape 1 : Sélection d’un nombre y(r), associé à chaque variable aléatoire, dont les valeurs se
trouvent entre 0 et 1. X=(X1, X2, …..., Xm)T est la variable aléatoire d’une fonction. Sachant
que la fonction de répartition FXi de chaque variable Xi est connue, l’échantillon x(r) donné par
[ (\) = ][ , [* , … . . , [ _, représentant le vecteur de variables aléatoires X, est obtenu par
(\) (\) (\)
[` = abc d (\)
(\)
Étape 2 : Évaluation de la défaillance ou de la pleine opération d’une structure g(x(r))≤ 0 ou
g(x(r))>0 pour chaque échantillon. g(x(r)) est la réalisation de la variable aléatoire g(X).
Étape 3 : Calcul de la probabilité de défaillance après Nt simulations, lorsque
ij
1
= ghl [ (\) ≤ 0m
ef
\k
La fonction caractéristique I[G(x(r))≤0] est égale à :
1 oS [ (\) ≤ 0Z
hl [ (\) ≤ 0m = n
0 oS [ (\) > 0
Ce résultat est précis lorsque Nt tend vers l’infini. Notons que cette méthode converge
faiblement pour (n)1/2. Malgré ceci, il n’existe pas une règle stricte de détermination du
nombre exact de simulations nécessaires. Dans la pratique, le nombre minimum
d’échantillons requis pour avoir une probabilité de 10-n pour un niveau de confiance de 95%
donne une valeur qui se trouve entre 10n+2 et 10n+3 avec une erreur de 20%. Pour une valeur
élevée de n, il faut assez de temps de calcul. Ainsi, la méthode Monte Carlo demande un
travail important lorsque la probabilité de défaillance Pf est trop petite. Parfois, la simulation
de Monte Carlo est la seule démarche calibrée des méthodes employées.
8
4.3.2. Méthode FORM.
Le principe général de la méthode FORM est la suivante :
Étape 1 : Définir la loi de probabilité T entre l’espace physique initial et l’espace standard
Gaussien.
Étape 2 : Transformer l’aire de défaillance G(u)=0 dans l’espace initial en une aire de
défaillance H(u)=0 dans l’espace standard de Gauss.
LQ = RSTY(K)
Étape 3 : Calculer l’indexe βHL, qui est solution du problème ci-après :
PK ∈ , .éXSYS-T#Z
C(K) = 0
1
avec
Y(K) = KU K
2
Étape 4 : Calculer Pf*, valeur dérivée de Pf, définie par :
∗
=J (K)rK
s(M)NO
où Pf*=Φ(-βHL)
Φ est la fonction de distribution de la loi normale centrée réduite et Df* est l’aire sur Rm
sachant Z(u)≤0 avec Z(u)=αT.u+βHL
Si la surface de l’état limite est :
• Convexe alors Pf*>Pf ;
• Concave alors Pf*<Pf ;
• Un hyperplan alors Pf*=Pf
9
Tableau 4.1 : Algorithme détaillé de la méthode FORM
4.3.3. Méthode SORM.
Il s’agit de la méthode d’approximation adaptée lorsque les états limites ne sont pas linéaires,
même dans l’espace des coordonnées standard. De plus, ils peuvent comporter bien plus de
deux variables.
10
Figure 4.7 : État limite non linéaire dans l’espace des coordonnées réduites.
4.4. Applications de la théorie de la fiabilité
4.4.1. Application directe à l’évaluation de la structure
La théorie de la fiabilité permet donc de connaître l’indice de fiabilité (ou la probabilité de
défaillance) d’une structure. Dans le cadre d’une application directe de cette théorie à
l’évaluation de la sécurité de la structure, il convient de se fixer une valeur référence de cet
indice de fiabilité, traduisant un niveau de sécurité que l’on juge acceptable : on appelle cette
valeur l’indice de fiabilité cible β0. La structure sera alors jugée sûre, vis-à-vis d’un mode de
défaillance donné, si elle vérifie : β ≥ β0
La valeur de l’indice de fiabilité cible est difficile à appréhender puisqu’elle traduit le niveau
de sécurité que l’on veut se fixer et qu’elle dépend ainsi, entre autres, de la durée de vie de
l’ouvrage, des conséquences engendrées par sa ruine ou des critères économiques liés à son
entretien et son remplacement.
4.4.2. Application au développement d’une approche semi-probabiliste
La théorie de la fiabilité permet également de développer une approche semi-probabiliste de
la sécurité des constructions. En effet, nous avons vu que l’indice de fiabilité β de la structure
était fonction des variables aléatoires et plus particulièrement de leur moyenne µ et de leur
= Y( , % , $ , %$ ) ≥ O ⇔ v ( , % , O ) ≥ v ( $ , %$ , O )
écart-type σ. La vérification de la relation ci-dessus peut donc se transformer de sorte que :
où Rd et Sd sont les valeurs de calcul respectives de la résistance R et de la sollicitation S.
On peut alors définir les coefficients partiels comme le rapport entre les valeurs
représentatives Rk et Sk fournies au projeteur et les valeurs de calcul Rd et Sd :
w = "# w$ =
x v
v x
La théorie de la fiabilité est ainsi à la base des normes Eurocodes traduits sous forme semi-
probabiliste. La théorie de la fiabilité permet de développer une approche probabiliste de la
sécurité des constructions, permettant ainsi la prise en compte d’un large spectre
d’incertitudes sur les différents paramètres du système étudié.
Cette approche présente néanmoins des difficultés d’application. En effet, elle repose sur la
connaissance des lois de probabilité associées aux variables d’entrée : or, il s’avère souvent
difficile d’obtenir des données statistiques suffisantes. D’autre part, lorsque l’état limite
considéré est complexe, les calculs de fiabilité peuvent rapidement devenir insurmontables.
Enfin, son application à l’évaluation de la sécurité d’une structure passe par la définition d’un
indice de fiabilité cible auquel comparer l’indice de fiabilité obtenu pour la structure.
11