Memoire Bouhali Keltoum
Memoire Bouhali Keltoum
1 Notions Préliminaires 9
1.1 Quelques dé…nitions utiles . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Principe de l’analyse Bayésienne . . . . . . . . . . . . . . . . . . . 11
1.2 Statistique d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Notations et exemples . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Types de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Données complètes . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Données censurées de di¤érents types . . . . . . . . . . . . . . . . 21
2 Inférence Bayésienne 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Densités a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.1 Densités a priori conjuguées . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Densités a priori non informatives . . . . . . . . . . . . . . . . . . 26
2.2.3 Exemple d’application . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Marginalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 Estimation paramétrique Bayésienne . . . . . . . . . . . . . . . . . . . . 30
2.4.1 Fonction de coût . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.2 Estimateurs MMSE et MAP . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Estimations a posteriori marginales et conjointes . . . . . . . . . . 36
1
2.5 Tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Application 58
4.1 Prédiction Bayésienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.1 Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.2 Annexe 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.3 Annexe 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5 Conclusion Générale 67
2
Remerciements
Je tiens à adresser mes remerciements les plus chaleureux et ma profonde grati-
tude à mon encadreur Mme A.Chadli, Maître de conférences à l’université d’Annaba,
pour m’avoir proposé le sujet de ce mémoire. C’est grâce à sa grande disponibilité, ses
conseils, ses orientations et ses encouragements que j’ai pu mener à bien ce travail. Mes
remerciements vont également à Monsieur A.Nouar, Maître de conférences à l’univer-
sité de Skikda, qui a bien voulu présider le jury. De même je remercie vivement Mme
N.Seddik Ameur, Professeure à l’université d’Annaba et R.Khelif, Maître de confé-
rences à l’université d’Annaba, qui ont accepté d’examiner le mémoire et béné…cier de
leurs remarques.
En…n, je n’oublie pas de remercier toutes les personnes qui m’ont facilité la tâche
et toute celles que j’ai connue au département de mathématiques et qui ont rendu mon
séjour au département agréable.
3
Résumé
Ce travail porte sur l’étude du problème de la prédiction de statistiques d’ordre et de
fonctions de celles-ci dans le cas des distributions de durées de vie.
Le travail se compose de deux parties :
-La première partie consiste à traiter le problème de la prédiction de durées de vie issues
d’une loi de Weibull en détail avec une expression simple d’un prédicteur de y = y(k) puis
y = X(k) X(r) pour des données de types complètes et de types censurées.
-La deuxième partie montre quelques résultats sur la prédiction pour des données réelles
de TMBF relevés de l’historique des pannes de pompes.
Mots clés : loi a priori, loi a posteriori, statistique d’ordre, loi de Weibull, prédiction
Bayésienne.
4
Abstract
This study focuses on the study of problem of the prediction of the order statistics
and functions of those in the case of the lifetime distributions.
Two types of work are discussed :
- The …rst job is to show to address the problem of the prediction of Weibull lifetime at
summer studies in detail with simple expression of a predictor y = y(k) then y = X(k) X(r)
for given types of data complement.
- The second job demonstrates some results of the prediction for real data of TMBF
statement from failure historic of pumps.
Key words : prior distribution, postriory distribution, orders statistic, Weibull dis-
tribution, Bayesian prediction.
5
Introduction générale
Les méthodes Bayésiennes ont connu après la Seconde Guerre mondiale des déve-
loppements nombreux et très divers, où di¤érents acteurs et écoles de pensée ont été
impliqués.
On notera pour commencer des travaux, venant de probabilistes et statisticiens théo-
riciens, destinés à consolider la théorie en construisant une axiomatique : les ouvrages
majeurs sont ceux de Leonard J. Savage (The Fondations of Statistics, 1954) et Bruno de
Finetti qui développe une approche ne faisant pas appel à la théorie de la mesure (Teoria
delle probabilita, 1970) accompagnés de ceux de D.V.Lindley (Introduction to probability
and Statistics from a Bayesian Viewpoint, 1965). On assiste ensuite à une ‡oraison d’ou-
vrages destinés à populariser la théorie Bayésienne tel celui de James Berger (Statistical
Decision Theory and Bayesian Analysis, 1985), mais on ne peut les citer tous ici.
Une deuxième école de pensée concerne la formalisation des décisions humaines de-
vant le risque qui débute avec l’ouvrage fondamental de John Von Neumann et Oskar
Morgenstern (Theory of Games and Economic Behaviour, 1944). Dans cette lignée, on
trouve les critiques de Maurice Allais (Le comportement de l’homme rationnel devant le
risque, 1953) mettant en évidence des comportements paradoxaux.
Au-delà de cette école ‹‹micro-économique››, on peut y rattacher des travaux plus
proches de la psychologie comme ceux de Kahneman et Tversky [1979] qui portent sur
la révision des croyances, c’est-à-dire la modi…cation des probabilités, en présence d’in-
formation supplémentaire.
Ces recherches ont inspiré de nombreux développements à la …n des années 1950 et
au début des années 1960 chez les chercheurs opérationnels et spécialistes de l’aide à la
décision en avenir incertain mais probabilisable. Citons ici les ouvrages fameux de R.D.
Luce et H. Rai¤a (Games and Decisions, 1958), R.Schalaifer (Probability and Statistics
for Business Decisions, 1959), ainsi que celui de Rai¤a et Schalaifer (Applied Statistical
Decision Theory, 1961).
Cependant le formalisme Bayésien restait limité à l’emploi de distributions conjuguées
6
naturelles et donc à des cas d’école, en raison de di¢ cultés de calcul qui n’ont pu être le-
vées que dans les années 1980. On peut en e¤et a¢ rmer qu’une grande part du renouveau
des méthodes Bayésiennes est venu du fait que le calcul des distributions a posteriori et
prédictives a été rendu possible grâce aux progrès de l’informatique et à l’utilisation sys-
tématique de méthodes de simulation basées sur les algorithmes de Metropolis-Hasting
et les chaînes de Markov.
La méthode Bayésienne consiste à baser l’estimation des paramètres sur une distri-
bution nommée loi a posteriori, qui mélange l’information portée par les données (via la
vraisemblance) et une information a priori exogène aux données (avis d’expert, informa-
tions régionales, contraintes physiques, . . . ).
Le formalisme Bayésien possède plusieurs avantages par rapport à une analyse clas-
sique. Tout d’abord, l’introduction de connaissances a priori est susceptible d’améliorer
l’estimation des paramètres. Ce type de connaissances existe dans la grande majorité des
cas : par exemple, il est possible d’utiliser les méthodes développées pour l’estimation
des quantiles de crues sur des sites non jaugés. De plus, le formalisme Bayésien permet
une analyse complète des incertitudes : échantillonnage (c’est le cas également des ana-
lyses classiques), mais aussi de modélisation (quelle loi de probabilité choisir ? modéliser
une tendance linéaire, exponentielle, quadratique ?), ou de métrologie (prise en compte
de l’incertitude liée à l’extrapolation des courbes de tarage, ou à la reconstitution de
données historiques). En…n, en basant l’inférence sur une loi de probabilité, le calcul des
intervalles de con…ance est très naturel, et ne repose sur aucune hypothèse asymptotique.
Cependant, certains inconvénients demeurent : tout d’abord, la traduction de connais-
sances a priori en une loi de probabilité sur les paramètres est loin d’être triviale. De plus,
la loi a posteriori s’exprime en général comme une distribution multivariée qui est déli-
cate à manipuler dès que le nombre de paramètres est supérieur à deux ou trois. Cette
di¢ culté explique pourquoi l’utilisation de l’analyse Bayésienne est assez récente.
Ce mémoire est réparti en quatre chapitres.
Le premier chapitre : Notions préliminaires.
7
Ce chapitre est un rappel de quelques notions préliminaires ; …abilité, statistique
d’ordre, principe de l’analyse bayésienne, données complètes, données censurées.
Le deuxième chapitre : Inférence Bayésienne.
Cette partie présente le formalisme Bayésien et, en particulier, deux de ses propriétés
fondamentales, la prise en compte des densités a priori et la marginalisation en les illus-
trant par des exemples simples. Puis, nous décrivons les estimateurs paramétriques Bayé-
siens les plus courants. En…n, le problème de l’étude des performances dans le contexte
Bayésien est abordé.
Le troisième chapitre : Prédiction Bayésienne de la durée de vie.
Le cas de la prédiction de durées de vie issues d’une loi de Weibull a été étudié en
détail. Les di¤érents résultats obtennus sont repris sur le sujet notamment dans le cas de
données censurées de types II, le cas de données attribut, le cas de données complètes.
Le quatrième chapitre : Application.
Dans ce chapitre on donne une application des résultats obtenus au chapitre précé-
dent, on utilise des données réelles issues de Sonatrach et concernant le temps de bon
fonctionnement (TMBF) relevés de l’historique des pannes de pompes de même type et
travaillant dans les mêmes conditions.
8
Chapitre 1
Notions Préliminaires
1.1.1 Dé…nitions
W : ( ; A; P) !
9
On note P (XA ; XB ) leur densité jointe.
On note P (XB ) la densité marginale de XB dé…nie par :
Z
P (XB ) = P (XA ; XB ) dXA
I
b: Y ! y ! b (y)
La loi de Bayes est trés pratique pour renverser les dépendances conditionnelles entre
variables aléatiores ; elle est à la base de toute l’approche Bayésienne que nous utiliserons
ultérieurement.
10
Dé…nition 6 (Fiabilité)
La …abilité d’un groupe d’éléments à un instant t est la probabilité de fonctionnement
sans défaillance pendant la période [0; t] c’est donc la probabilité que l’instant de première
défaillance T soit supérieur à t. Bien entendu cette dé…nition posée sur une échelle en
temps de fonctionnement est tout aussi valable avec une autre unité, par exemple en km
ou en nombre de cycles d’usage.
R (t) = p (T > t)
11
– L’inférence Bayésienne fournit un cadre théorique cohérent pour les problèmes de
gestion de ressources naturelles. Ce cadre est en e¤et en liaison directe avec la
notion de risque décisionnel.
Dans le cadre Bayésien, l’incertitude sur les quantités inconnues du modèle est ex-
primée sous la forme de distributions de probabilité. Ainsi, les quantités inconnues sont
considérées comme des variables aléatoires. L’inférence sur les quantités inconnues du
modèle, notées , se fait par probabilité des paramètres conditionnellement aux données,
notée p ( =données), qui s’obtient à l’aide de la formule de Bayes :
p ( ) :L (données= )
p ( =données) =
L (données)
La quantité p ( ) est la distribution de probabilité a priori (c’est-à-dire avant confrontation
avec les données) des paramètres du modèle. L (données= ) représente la fonction de
vraisemblance des données observées conditionnellement aux paramètres . La quantité
L (données) est la vraisemblance marginale des données, égale à :
Z
L (données= ) :p ( ) d
12
p ( =données) / p ( ) :L (données= )
x1 = 6; x2 = 9; x3 = 3; x4 = 8
13
Par convention, la première statistique d’ordre, notée X(1) , est toujours le minimum
de l’échantillon, c’est-à-dire :
Suivant la convention habituelle, les lettres capitales renvoient à des variables aléatoires,
et les lettres en bas de casse aux valeurs observées (réalisations) de ces variables. De même,
pour un échantillon de taille n, la statistique d’ordre n (autrement dit, le maximum) est
Étant donné un échantillon x1 ; x2 ; :::; xn , les statistiques d’ordres, notées X(1) ; X(2) ; :::; X(n)
sont donc obtenues par tri coissant.
j=k
j
14
telque l est le nombre d’images inverse de ', on étudions la bijection de ' :
Détermination le nombre du i :
Donc le vecteur X(1) ; :::; X(n) à n! choix possibles ainssi ' = n! telque ' la permu-
tation :
0:::0 1 0:::0 1 0:::0
0:::1 0 0:::0 0 1:::0
jJwi j = .. = ( 1)m .. =1
. .
0 1 0 0::::::0 0 0:::1
Y
n
fX(1) ;:::;X(n) ( x1 ; :::; xn ) = n! f (xi ) x1 x2 ; :::; xn
i=1
15
On a
Z+1
fX(1) ;:::;X(n 1)
( x1 ; :::; xn 1 ) = fX(1) ;:::;X(n) ( x1 ; :::; xn ) dxn
xn 1
Y1
n Z+1
= n! f (xi ) f (xn ) dxn
i=1 xn 1
Y1
n
= n! f (xi ) [1 F (xn 1 )]
i=1
avec x1 x2 ; :::; xn 1
Z+1
fX(1) ;:::;X(n 2)
( x1 ; :::; xn 2 ) = fX(1) ;:::;X(n 1)
( x1 ; :::; xn 1 ) dxn 1
xn 2
Y2
n Z+1
= n! f (xi ) f (xn 1 ) [1 F (xn 1 )] dxn 1
i=1 xn 2
n! Y2
n
+1
= f (xi ) (1 F (xn 1 ))2 xn
2 i=1
2
n! Y2
n
= f (xi ) (1 F (xn 1 ))2
2 i=1
avec x1 x2 ; :::; xn 2
D’ou
j
n! Y
fX(1) ;:::;X(j) ( x1 ; :::; xj ) = f (xi ) [1 F (xj )]n j
x1 ; :::; xj
j! i=1
16
Trouvons la densité du X(2) ; :::; X(j) :
Zx2
fX(2) ;:::;X(j) ( x2 ; :::; xj ) = fX(1) ;:::;X(j) ( x1 ; :::; xj ) dx1
1
j Zx2
n! Y n j
= f (xi ) [1 F (xj )] f (x1 ) dx1
j! i=2
1
j
n! Y
= f (xi ) [1 F (xj )]n j
F (x2 )
j! i=2
avec x2 x3 ; :::; xJ
Zx3
fX(3) ;:::;X(j) ( x3 ; :::; xj ) = fX(2) ;:::;X(j) ( x2 ; :::; xj ) dx2
1
j Zx3
n! Y
= f (xi ) [1 F (xj )]n j
f (x2 ) dx2
j! i=2
1
j
n! Y
= f (xi ) [1 F (xj )]n j
F (x3 ) x3 ; :::; xj
j!2 i=2
j
n! Y
fX(i) ;:::;X(j) ( xi ; :::; xj ) = f (xk ) [1 F (xj )]n j
F (xi )
j! (i 1)! k=1
avec xi xi+1 ; :::; xj
17
Trouvons la densité du X(i) ; X(i+2) ; :::; X(j) :
j
Y Z
xi+2
avec
n!
C= [1 F (xj )]n j
F (xi )
j! (i 1)!
Trouvons la densité du X(i) ; X(i+3) ; :::; X(j) :
j
Y Z
xi+3
n!
f(X(i) ;X(j) ) ( xi ; xj ) = [1 F (xj )]n j
F (xi )i 1
j! (i 1)! (j i 1)!
f (xi ) f (xj ) [F (xj ) F (xi )]j i 1
xi xj
Z+1
fX(i) (xi ) = f(X(i) ;X(j) ) ( xi ; xj ) dxj
xi
Z+1
= C [1 F (xj )]n j
f (xj ) [F (xj ) F (xi )]j i 1
dxj
xi
18
Posons
F (xj ) F (xi ) f (xj ) dxj
t= ; dt =
1 F (xi ) 1 F (xi )
alors
0
(1 F (xi )) dt
Z1
n j+j i+1 1
= C [1 F (xi )] (1 t)n j j i 1
t dt
0
n i
= C [1 F (xi )] B (j i; n j + 1)
(j i) (n j + 1)
= C [1 F (xi )]n i
(n i + 1)
n!f (xi ) (j i 1)! (n j)!
= F (xi )
(n j)! (i 1)! (j i 1)! (n i)!
[1 F (xi )]n i
d
fX(k) (x) = FX (x)
dx (k)
Xn
n n j
= jF (x)j 1
f (x) (1 F (x)) + F (x)j (n j) (1 F (x))
j=k
j
= iCni f (xi ) F (xi )i 1
[1 F (xi )]n i
Aprés quelques manipulations, non reproduites ici, on trouve une expression plus conden-
sée
n!
fX(k) (x) = F (x)k 1
(1 F (x))n k
f (x) (2)
(k 1)! (n k)!
Pour la loi uniforme continue, la densité de la k ième statistique d’ordre est celle d’une
loi bêta de paramètre k et n + 1 k.
19
exemple 2 (statistique d’ordre de densité de Weibull)
Soit X(1) ; :::; X(n) la statistique d’ordre de l’échantillon aléatoire X1 ; :::; Xn d’un po-
pulation continue avec fonction de répartition
F (x) = 1 exp ( xc )
et densité
f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0
n!
fX(k) (x) = fX (x) [FX (x)]k 1
[1 F (x)]n k
(k 1)! (n k)!
n!
= c (x)c 1
exp ( xc ) [1 exp ( xc )]k 1
(k 1)! (n k)!
1 + exp ( xc )]n k
[1
n!
= c (x)c 1 exp ( xc ) [1 exp ( xc )]k 1
(k 1)! (n k)!
exp [( xc ) (n k)]
n!
= c (x)c 1 exp [( xc ) (1 + n k)]
(k 1)! (n k)!
X
k 1
k 1
( 1)m exp ( xc m)
m=0
m
D’ou
n! X
k 1
k 1
fX(k) (x) = c (x)c 1
exp [( xc ) (1 + n k)] ( 1)m exp ( xc m)
(k 1)! (n k)! m=0
m
(3)
20
1.3 Types de données
Il peut être trop cher inutile, ou tout simplement impossible, d’observer toutes les
durées de fonctionnement x1 ; :::; xn . On décide alors d’interrompre l’observation avant
la dernière. Nous ne considérerons que deux types de censure. Il existe de nombreuses
21
généralisations de ces deux cas de base.
Censure de Type I Les données n’ont été observées que jusqu’à un instant de censure
tc …xé à l’avance. Dans ce cas, l’observation se compose des valeurs de celles des durées
qui étaient inférieures à tc . En d’autres termes, au lieu d’observer la valeur prise par Xi ,
on observe celle de Xi8 avec :
la variable Xi0 vaut tc avec probabilité R (tc ), elle est égale à Xi si Xi tc . La vraisem-
blance des observations est proportionnelle à :
Y
n
L= f (xi ) 1[0;tc ] (xi ) + R (tc ) 1]tc ;+1[ (xi )
i=1
Pour écrire cette formule sous une forme plus lisible, notons x(1) ; :::; x(n) les valeurs
x1 ; :::; xn rangées par ordre criossant, et k le nombre de valeurs inférieures à tc :
X
n
k= 1[0;tc ] (xi ) = max i; x(i) tc
i=1
La vraisemblance devient :
n k
Y
k
L = R (tc ) f x(i)
i=1
Censure de Type II Seules les nc premières valeurs ont été observées, où nc est un
nombre …xé à l’avance. On observe en fait les valeurs prises par X(1) ; :::; X(nc ) , les nc
premières statistiques d’ordre de l’échantillon. La probabilité de l’évènement observé est
ici proportionnelle à :
n nc
Y
nc
L = R x(nc ) f x(i)
i=1
22
Chapitre 2
Inférence Bayésienne
L’objectif de cette partie est de rappeler quelques notions de base sur le formalisme
bayésien, les estimateurs paramétriques bayésiens et les tests d’hypothèses. On
termine cette partie par la prédiction bayésienne. Pour une revue plus complète nous
conseillons de consulter les ouvrages de référence concernant l’analyse bayésienne[1].
2.1 Introduction
Dans le formalisme bayésien, toute inférence repose sur la densité a posteriori des
paramètres qui nous intéressent conditionnellement aux observations et aux informations
a priori sur le paramètre . Supposons que y = (y1 ; :::; yN ) soit le vecteur des observations
et = ( 1 ; :::; d) 2 soit le vecteur de paramètres à estimer. La densité p ( =y) a
posteriori est dé…nie à partir du théorème de bayes :
p (y= ) p ( )
p ( =y) =
p (y)
où :
- p (y= ) est la densité de probabilité conditionnelle des observations connaissant les
paramètres du modèle.
- p ( ) est la densité des paramètres choisie en fonction des connaissances disponibles
23
sur avant la prise en compte des observations.
- p (y) est une constante de normalisation aussi appelée évidence bayésienne. Elle est
dé…nie par :
Z
p (y) = p (y= ) p ( ) d
Dans un premier temps, nous allons présenter les deux principales caractéristiques de
formalisme bayésien c’est à dire l’utilisation des connaissances a priori avant la prise en
compte des observations et la capacité d’éliminer les paramètres du modèle qui ne sont
pas représentatifs du problème par marginalisation. Ensuite, nous nous présentons les
estimateurs paramétriques bayésiens les plus courants.
Lorsque l’information a priori n’est pas su¢ samment importante pour déterminer la
densité a priori, on utilise la densité a priori dite conjuguée qui facilite l’analyse
bayésienne.
24
de la densité a priori de , p ( ) , alors la famille Pest conjuguée avec F si la densité a
posteriori de est telle que p ( =y) 2 Ppour toutes densités p (:= ) 2 F et p (:) 2 P:
Remarque 1 Il est plus intéressant d’utiliser des familles de densités a priori conjuguées
telles que celles-ci aient la même forme fonctionnelle que la fonction de vraisemblance.
Dans ce cas, le passage de la fonction de vraisemblance à la densité a posteriori se réduit
à un changement de paramètre et non à une modi…cation de la forme fonctionnelle de la
famille correspondante .
Remarques
– Si Rd et Rd la famille :
p ( ) _ C ( ) exp R ( )T
25
où et deux hyperparamètre. La densité a posteriori appartient à la famille exponen-
tielle !!
X
N
p ( =y) _ C ( ) +N
exp R ( )T + T (yi )
i=1
Le cas où aucune connaissance a priori, on utilise des densités a priori qui sont dites
non informatives.
p( ) = k
Je¤reys a proposé des densités a priori en se basant sur le principe d’invariance par
transformation .
Soit p (y= ) la fonction de vraisemblance et = f ( ), telle que f est une transfor-
mation bijective de telle que i = fi ( ), i = 1; :::; d et fi0 ( ) 2 C 0 alors les densités a
priori non informatives de Je¤reys sont telles que :
1 1
jJ ( )j 2 d = jJ ( )j 2 d
26
où jJ (:)j est le déterminant de la matrice d’information de Fisher dé…nie par :
@ 2 ln p (y= )
Jij ( ) = E
@ i@ j
Principe d’invariance :
Remarques :
– Si 2 Rd alors la densité a priori de Je¤reys est dé…nie par :
1
p ( ) _ jJ ( )j 2
" # 12
Y
d Y
d
p( ) = p ( i) _ J ( i)
i=1 i=1
27
Y
N
p (y= ) = p (yi = )
i=1
YN
1
_ exp 2
(yi )2
i=1
2
!
1 X
N
_ exp 2
(yi )2
2 i=1
p ( =y) _ p (y= ) p ( )
1
_ exp (yi )2
2 2
1
_ exp ( )2
2 2
avec
1 X
N
= yi
N i=1
2
2
=
N
2
Le paramètre suit donc une loi a posteriori normale de moyenne et de variance
dé…nies ci-dessus.
28
Densité a priori conjuguée
Nous allons maintenant étudier l’in‡uence des densites a priori conjugées sur la den-
sité a posteriori de . La densité a priori conjugée p ( ) est telle que
1
p ( ) _ exp ( 0)
2
2 20
2
où 0 et 0 sont des hyperparamètres que l’on suppose connus. La densité a posteriori
de s’écrit alors de la manière suivante :
p ( =y) _ p (y= ) p ( )
1 1
_ exp ( 0)
2
exp (yi )2
2 20 2 2
" #!
1 X
N
1 1
_ exp ( 2
0) + 2 (yi )2
2 20 i=1
1
_ exp ( 1)
2
2 21
2
Le paramètre suit une loi a posteriori normale de moyenne 1 et de variance 1 telles
que :
N
0
2 + 2 y 1 1 N
0
1 = 1 N 2
= 2
+ 2
2 + 2 1 0
0
X
N
1
avec y = N
yi
i=1
2.3 Marginalisation
La deuxième caractéristique du paradigme bayésien est la capacité d’éliminer des
paramètres qui ne nous intéressent pas par marginalisation. Supposons que le vecteur
des paramètres puise se décomposer en deux vecteurs tels que = ( 1; 2) 2 1 2
et que seul 1 nous intéresse. La densité a posteriori marginale de 1, p ( 1 =y) est déduite
29
de la densité a posteriori conjointe p ( =y) par intégration de 2 sur son domaine de
dé…nition 2. Z
p ( 1 =y) = p ( =y) d 2
C : ! R+ ;b !C ;b
telle que = b () C ;b = 0
30
L’objective est de déterminer l’estimateur de b qui minimise le coût moyen E (C (e))
qui nommé le risque de bayes R dé…nie par :
2 3
Z Z
R = E (C (e)) = 4 C b p (y= ) dy 5 p ( ) d
Pour y …xé, l’estimateur qui minimise R est l’etimateur qui minimise le coût moyen sur
dé…nie par :
Z
E C b =y = C b (y) p ( =y) d
Le choix de cette fonction sera discuté ultérieurement. Avoir un coût minimal n’est pas
su¢ sant pour obtenir un bon estimateur. Nous allons présenter les estimateurs paramé-
triques bayésiens correspondant aux fonctions de coût classiques.
Coût quadratique
2
C b (y) = k b (y) k>0
31
L’estimateur qui minimise le risque de bayes pour cette fonction de coût, doit minimiser :
2
Z 2
E k b (y) =y = k b (y) p ( =y) d
2
= kE b (y) E ( =y) + E ( =y) =y
2
= kE b (y) E ( =y) =y + kE (E ( =y) )2 =y
2
Puisque E [E ( =y) =y] = 0 donc E k b (y) =y est minimisé pour bquad =
E ( =y) c’est à dire pour la moyenne de la densité a posteriori p ( =y).
Par conséquent, pour une fonction de Coût quadratique, l’estimateur de risque de
bayes minimum est la moyenne a poteriori en notée MMSE.
Coût absolu
L’estimateur qui minimise le risque de bayes pour cette fonction de coût, doit minimiser :
Z
E C b (y) =y = k b (y) p ( =y) d
Zb(y) Z+1
E C b (y) =y = k b (y) p ( =y) d + k b (y) p ( =y) d
1 b(y)
32
La condition nécessaire pour minimiser E C b (y) =y est que :
dE C b (y) =y
=0
db (y)
Cette condition est satisfaite pour babs correspond à la médiane de la densité a posteriori
c’est à dire :
Zb(y) Z+1
p ( =y) d = p ( =y) d
1 b(y)
Par conséquent, pour une fonction de Coût absolu, l’estimateur de risque de bayes
minimum est la médiane de la densité a posteriori .
Coût ‘0-1’
8
< 0 pour b (y)
C b (y) = 2
: 1 pour b (y) > 2
Cela signi…e les érreurs d’amplitude inférieur à 2 . Pour y donnée, l’estimateur qui mini-
mise le risque de bayes pour cette fonction de coût, doit minimiser :
b(y)+
Z 2
Remarque 2 Si est arbitrairement petit, l’intégrale est maximisée lorsque b (y) cor-
respond au mode c’est à dire l’argument de maximum a poteriori p ( =y).
33
Par conséquent, pour une fonction de coût 0-1 l’estimateur qui minimise le risque de
bayes est le mode a posteriori qui se nomme l’estimateur du maximum a poteriori MAP.
Conclusion
Les estimateurs minimisant le risque bayésien pour les fonctions de coût présentées
ci-dessus sont la moyenne, la médiane et le mode de la densité a posteriori.
34
C(e)
C(e)
35
2.4.2 Estimateurs MMSE et MAP
Z
bM M SE = p ( =y) d
Z
p ( 1 =y) = p ( =y) d 2
36
Estimateurs MMSE
L’estimation de b1;M M SE à partir de la densité a posteriori conjointe est égale à :
Z Z
b1;M M SE = 1 p ( 1 ; 2 =y) d 1 d 2
conjointe
1 2
Z
= 1 p ( 1 =y) d 1
= b1;M M SE
marginale
O p ( 1; 2 =y) =0
Z
O 1 p ( 1 =y) = O 1 p ( 1; 2 =y) d 2 =0
2
Par conséquent, sauf pour des cas particuliers présentés ci-dessous, les estimations MAP
conjointe et marginale sont distinctes.
37
Introduction
La théorie des tests est la seconde branche aprés l’estimation, de la statistique
mathématique. Considérons un phénomène aléatoire modélisé par une variable aléatoire
X, dont la loi de probabilité notée P est connue à un paramètre 2 inconnu prés.
Comme dans le cadre d’un problème d’estimation, nous disposons d’une observation x
de cette variable X, (souvent, X est un échantillon i.i.d X = (X1 ; :::; Xn ) d’une variable
aléatoire parente et x= (x1 ; :::; xn ) est l’observation de cet échantillon). Nous nous plaçons
cependant ici dans le cas où des informations supplémentaires font penser a priori que la
valeur du paramètre appartient à un certain sous-ensemble 0 de , et nous cherchons
à valider (ou non) cette hypothèse sur la base de l’observation x. C’est à dire tester
l’hypothèse :
H0 : 2 0
H1 : 2 1
c c
lorsque 1 6= 0 donc ( 0 [ 1) n’a pas d’intérêt pour le problème. Notons que d’un
point de vue bayèsien on suppose a priori que :
( 2
= 0 [ 1) =0
Puisque tout test est en fait un estimateur de I 0 ( ) il su¢ t de disposer une fonction de
coût adéquate L (d; ) pour proposer des estimateurs de bayes associés. On cherche par
38
example la fonction de coût introduite par Neyman-Pearson est le coût 0 1:
8
< 1 si d 6= I ( )
0
L ( ; d) =
: 0 sinon
où les estimateurs d sont à valeurs dans D = f0; 1g. Dans ce cas la solution bayèsienne
est :
8
< 1 si p ( 2 >p ( 2 c
0 =x) 0 =x)
d (x) =
: 0 sinon
et pour coût plus générale qui décide que l’hypothèse nulle est vraie ou fausse.
8
>
> 0 si d = I 0 ( )
>
<
L ( ; d) = a0 si 2 0 et d = 0 (4)
>
>
>
: a si 2
1 = 0 et d = 1
Proposition 1 Sous le coût (4), la solution bayèsienne associé à la loi a priori est :
8
< 1 si p ( 2 a1
0 =x) > a0 +a1
d (x) =
: 0 sinon
Par conséqent, on déduire que l’hypothèse nulle H0 sera rejetée si la probabilité a poste-
a1
riori de H0 est trop petite, le seuil d’acceptation étant a0 +a1
déterminer par le choix du
coût. Il en fait naturel, d’un point de vue bayèsien, de fonder la décision pour ce problème
de test sur la probabilité a posteriori que l’hypothèse soit véri…er. On dé…nit le facteur
de bayes est :
p( 2 0 =x) ( 2 0)
B (x) = =
p( 2 1 =x) ( 2 1)
39
Telque ce rapport évalue la modi…cation de la vraisemblance relative de l’hypothèse
nulle, il se compare naturellement à 1. Si
0 = f 0 g et ( 0) = 0
1 = f 1 g et ( 1) = 1
f (x= 0 )
B (x) =
f (x= 1 )
En générale, cette facteur dépend e¤ectivement de l’information a priori. Notons qu’on
retrouve aussi dans le coût (4) la dualité entre cette coût et la distribution a priori. En
e¤et, si
0 = ( 2 0) et 1 = ( 2 1) (5)
a1 0 a1 1
B (x) > = =
a0 1 a0 0
On supposra qu’il est toujours possible de bâtir une loi a priori sur chacune des deux
hypothèses c’est à dire sur chacun des deux sous-espaces 0 et 1 avec comme densités
respectives :
40
( )
g0 ( ) = :I 0 ( )
( 0)
( )
g1 ( ) = :I 1 ( )
( 1)
f (x= 0 ) : 0
( 0 =x) = Z
f (x= 0 ) : 0 d
f (x= 0 ) : 0
=
f (x= 0 ) : 0 + (1 0 ) m1 (x)
Où encore
1
1 0 m1 (x)
( 0 =x) = 1 +
0 f (x= 0 )
De la même manière, on trouve que le facteur de bayes vaut :
f (x= 0 ) : 0 0
B (x) = =
m1 (x) (1 0) 1 0
f (x= 0 )
=
m1 (x)
41
Chapitre 3
3.1 Introduction
Les problèmes de prédiction Bayésienne concernant la construction de distribution de
probabilité de variables non encore observées et engendrées par un modèle d’échantillon-
nage conditionnellement à une information disponible. La variable sur laquelle perte la
prédiction peut être observable mais peut aussi être non observable.
Considérons le modèle bayésien :
42
Z
p (yf =yp ) = p ( =yp ) :p (yp =yf ; ) d
Z
p (yf =yp ) = p ( =yp ) :p (yp = ) d
où (Y1 ; :::; YN ) est une future échantillon indépendant de (x1 ; :::; xn ) et issu d’une
même loi P0 .
Y(1) ; :::; Y(N ) est la statistique d’ordre de (Y1 ; :::; YN ).
Quand les données sont censurées de type II pour la prédiction sur le même échantillon.
Le modèle statistique associé à ce problème de décision est (X; B; P )
où :
(X; B) : espace des observations muni de sa tribu Borélienne.
p= P 2
une mésures de probabilité sur (X; B) :
: l’espace des paramètres.
Soient : (d; D) l’ensemble des décisions muni de sa tribu Borélienne et V : D !
R+ une fonction de perte supposée quadratique.
43
Z
V ( ; d) = (y d)2 f (y= ) dy
R+
L (x= ) p ( )
p ( =x) = Z
L (x= ) p ( ) d
Z
x
R (d) = r ( ; d) p ( =x) d
2 3
Z Z
= 4 (y d)2 f (y= ) dy 5 p ( =x) d
X0
2 3
Z Z
= (y d)2 4 f (y= ) p ( =x) d 5 dY
X0
44
or Z
p (y=x) = f (y= ) p ( =x) d
est une densité, appelée densité prédictive de Y quand x est observé d’où
Z
x
R (d) = (y d)2 p (y=x) dY
X0
= E x (Y d)2
on cherche a
min Rx (d)
d2D
En théorie des probabilités, de loi de Weibull, nommée d’aprés Waloddi Weibull, est
une loi de probabilité continue.
Fonctions caractéristiques
Avec deux paramètres
La densité de probabilité de la loi de Weibull est généralement présentée sous la
forme :
f (x) = c (x)c 1
exp ( xc )
45
et la fonction de répartition devient :
F (x) = 1 exp ( xc )
la fonction de …abilité
Z+1
E (t) = xf (x) dx
1
1 c 1
= 1+
c
1 c 2 2 2 1
var (t) = 1+ 1+
c c
Taux de défaillance
f (x)
(x) = = c xc 1
R (x)
Avec trois paramètres (généralisé)
La densité de probabilité est :
c 1 c
x x
f (x; ; c; ) = exp Pour x
c c c
f (x; c; k; ) = 0 pour x <
46
Où > 0 est le paramètre de forme, c > 0 est le paramètre d’échelle, est le
paramètre de localisation de la distribution. La fonction de répartition pour la loi de
Weibull 3-paramètres est dé…nie par :
c
x
F (x; ; c; ) = 1 exp pour x
c
F (x; ; c; ) = 0 pour x <
1
x
r (x; ; c; ) =
c c
Utilisation pratique
L’expression loi de Weibull recouvre en fait toute une famille de lois, certaines
d’entre elles apparaissant en physique comme conséquence de certaines hypothèses. C’est,
en particulier, le cas de loi exponentielle (c = 1) et de la loi de Rayleigh (c = 2) impor-
tantes en matière de processus stochastique. Ces lois constituent surtout des approxima-
tions particulièrement utiles dans des techniques diverses alors qu’il serait très di¢ cile
et sans grand intérêt de justi…er une forme particulière de loi. Une distribution à valeurs
positives (ou, plus généralement mais moins fréquemment, à valeurs supérieures à une
valeur donnée) a presque toujours la même allure. Elle part d’une fréquence d’apparition
nulle, croît jusqu’à un maximum et décroît plus lentement. Il est alors possible de trouver
dans la famille de Weibull une loi qui ne s’éloigne pas trop des données disponibles en
calculant c et k à partir de la moyenne et la variance observées.
Application particulière
La distribution de Weibull est souvent utilisée dans le domaine de l’analyse de la
durée de vie, grâce à sa ‡exibilité : comme dit précédement, elle permet de représenter au
moins approximativement une in…nité de lois de probabilité. La compréhension du taux
de panne peut fournir une indication au sujet de la nature des pannes.
47
– Un taux de panne décroissant relève d’une “mortalité infantile”. Ainsi, les éléments
défectueux tombent en panne rapidement, et le taux de panne diminue au cours du
temps, quand les éléments fragiles sortent de la population.
– Un taux de panne constant suggère que les éléments tombent en panne à cause
d’évènements aléatoires.
– Un taux de panne croissant suggère une “usure ou un problème de …abilité” : les
éléments ont de plus en plus de chances de tomber en panne quand le temps passe.
La densité d’une loi de Weibull à deux paramètres inconnus est donnée par
f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0 (7)
L (x= ; c) = cr r c 1
u exp ( t)
où :
Y
r
u = xi
i=1
X
r
t = xci + (n r) xcr
i=1
48
naturelle (g0j ; h0j ).
g
h0j0j g0j 1
p ( =cj ) = exp f h0j g (8)
(g0j )
La densité a posteriori sur conditionnellement à cj est celle d’une loi gamma (gj ; hj )
où
gj = g0j + r ; hj = h0j + tj
Xr
c c
tj = xi j + (n r) xi j
i=1
g g
p0j crj ucj h0j0j (gj ) = hj j (g0j )
pj = s
X g g
p0j crj ucj h0j0j (gj ) = hj j (g0j )
i=1
avec la densité a priori adoptée sur ( ; c), la densité prédictive p (y r x) de Y(k) est
donnée par :
N X
s X
k 1
k 1 g
p (y=x) = k ( 1)i cj pj gj hj j
k j=1 i=0
i
y cj 1
= fhj + y cj (N k + 1 + i)ggj +1
N X
s X
k 1
k 1 g
F (y=x) = k ( 1)i pj gj hj j (N k + 1 + i) 1
k j=1 i=0
i
gj yj
hj fhj + y cj (N k + 1 + i)g
49
Prédicteur de Y(k) par rapport à une fonction de perte quadratique et sous l’hypothèse :
1
8j ; 1 j s ; gj >
cj
Z1
E (Y =x) = yp (y=x) dy
0
N X
s X
k 1
k 1 1
B (1 + 1=cj ; gj 1=cj )
( 1)i
c
E (Y =x) = k pj gj hj j 1+1 cj
k j=1 i=0
i (N k + 1 + i)
En particulier pour k = 1
N X
s
c
1
B (1 + 1=cj ; gj 1=cj )
E (Y1 =x) = k pj gj hj j 1+1 cj
k j=1 (N )
Avec la même densité a priori sur ( ; c) ; la densité prédictive de Y a été obtenue par
“Evans et Nigm”(1980) :
r X X
s k r 1
n k r 1
p (y=x) = (k r) ( 1)i
k r j=1 i=0 i
( )
cj 1
1 gj y
cj pj gj y cj hj :
[hj + y cj (n k + 1 + i)]gj +1
50
r X X
s k r 1
n ( 1)i k r 1
F (y=x) = 1 (k r)
k r j=1 i=0 (n k + 1 + i) i
g
pj hj j
[hj + y cj (n k + 1 + i)]gj
En particulier pour k = r + 1
g
X
s
pj hj j
F (y=x) = 1
j=1
[hj + y cj (n r)]gj
n
L (x= ; c) = [1 exp ( T c )]x exp [ T c (n x)] ; x = 0; :::; n
x
On applique la méthode de “soland” en supposant que c ne peut pas prendre qu’un
nombre …ni de valeurs c1 ; :::; cs avec les probabilités a priori p01 ; :::; p0s .
La densité a priori sur ( ; c) est donnée en (8) ; la densité a posteriori p ( ; cj =x) serait
alors :
51
où g0j
X
s X
x
i x h0j
K= ( 1) p0j c
j=1 i=0
i h0j + T (n
j x + i)
N X
k 1
k 1
p (y= ; c) = k cy c 1
( 1)m exp f [y c (N k + 1 + m)]g (9)
k m=0
m
On note
( ) = p (y= ; cj ) p ( ; cj =x)
g
k Nk X X
k 1 x
x k 1 h0j0j
( ) = p0j ( 1)i m
cj y cj 1
K m=1 i=0 i m (g0j )
g0j
f exp [ fy cj (N k + 1 + m) + T cj (n x + i) + h0j g]g
k N X
s X
k 1 X
x
x k 1 g
p (y=x) = k
p0j ( 1)i+m g0j cj h0j0j
K j=1 m=0 i=0
i m
( )
y cj 1
g0j+1
[y cj (N k + 1 + m) + T cj (n x + i) + h0j ]
Zz
F (z=x) = p (y=x) dy
0
52
On obtient aprés l’intégration :
k N X
s X
k 1 X
x
x k 1 g
F (z=x) = k
( 1)i+m p0j h0j0j (N k + 1 + m) 1
K j=1 m=0 i=0
i m
cj g0j
[T (n x + i) + h0j ]
g0j
[z cj (N k + 1 + m) + T cj (n x + i) + h0j ]
Z1
E (Y =x) = yp (y=x) dy
0
k N X
s X
k 1 X
x
x k 1 g
E (Y =x) = k
p0j ( 1)i+m g0j cj h0j0j
K j=1 m=0 i=0
i m
B (1 + 1=cj ; g0j 1=cj ) 1 cj
g0j
1+1=cj
[T cj (n x + i) + h0j ]
(N k + 1 + i)
r X
l 1
n
f (y= ; cj ) = l ( 1)k cj y cj 1
l k=0
cj
exp f (y T cj ) (n r l + k + 1)g I[T;+1[ (y)
1) Densité prédictive de Y
53
s Z
X
1
1 n r XXX
s r l 1
r l 1 g
= l ( 1)i+k p0j g0j cj h0j0j y cj 1
K l j=1 i=0 k=0
i k
(g0j +1)
fT cj (n r + i) + h0j + (y cj T cj ) (n r l + k + 1)g
I[T;+1[ (y)
Zz
F (z=r) = p (y=r) dy pour z T
T
1 n r XXX
s r l 1
r l 1 g
p (y=r) = l ( 1)i+k p0j h0j0j
K l j=1 i=0 k=0
i k
g0j
[h0j + T cj (n r + i)]
h cj
i g0j
h0j + T cj (l + i k 1) + z (n r l + k + 1)
54
1
8j ; 1 j s ; gj >
cj
Z1
E (Y =x) = yp (y=x) dy
0
1 n r XXX
s r l 1
r l 1 g
= l ( 1)i+k p0j g0j cj h0j0j
K l j=1 i=0 k=0
i k
Z1
y cj
c g0j +1 dy
h0j + T cj (l + i k 1) + y j (n r l + k + 1)
T
k n r X
s X
r X
l 1
r l 1 g
E (Y =r) = l
( 1)i+k p0j g0j cj h0j0j
K j=1 i=0 k=0
i m
( )
Bt (1=cj 1; g0j 1=cj )
1 1+1 cj
(n r l + k + 1) [h0j + T cj (l + i k 1)]g0j 1 cj
où
h0j + T cj (l + i k 1)
t = T cj
(n r l + k + 1)
Cas où les données sont complètes
Avec des données complètes sur un n-échantillon tiré de (7) , on étudie la prédiction
de la k ieme statistique d’ordre d’un échantillon future de taille N issu de (7)
1) Vraisemblance et densité a posteriori
Soit X = (X1 ; :::; Xn ) le vecteur des observations, la vraisemblance s’écrit alors :
Y
n X
n
n n c 1
L (x= ; c) = c u exp ( t) où u= xi et t = xci
i=1 i=1
55
( ; c) est donnée en (8) ; la densité a posteriori p ( ; cj =x) serait alors :
g
" ( n )#
1 n Y
n
c 1 h0j0j X
g0j +n 1
p ( ; cj =x) = c xi j p0j exp xci + h0j
L j i=1
(g0j ) i=1
où
g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1
s Z
X
1
g
k N X
s X
k 1
m k 1 Y
n
c 1 h0j0j
p (y=x) = k
cn+1
j ( 1) xi j p0j
L j=1 m=0
m i=1
(g0j )
cj 1
y (g0j + n + 1)
" !#g0j +n+1
X
n
y cj (N k + 1 + m) + xci + h0j
i=1
56
g
k N X
s X
k 1
m k 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = k
cnj ( 1) (N k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j
où
g
X
s Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
j=1 i=0
(g0j ) X
n
xci + h0j
i=1
g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
p (y=x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
cj 1
y (g0j + n + 1)
" !#g0j +n+1
X
n
y cj (N k + 1 + m) + xci + h0j
i=1
g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j
57
Chapitre 4
Application
58
4.1 Prédiction Bayésienne
Nous allons e¤ectuer des simulations pour obtenir des prédictions dans un échantillon
future indépendant du premier et de taille N de
Y = Y(k) 1 k N
Y = X(k) X(r) r k n
Dans le cas d’une distribution de loi de Weibull à 2-paramètres dont la densité est
f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0
g
k N X
s X
k 1
m k 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = k
cnj ( 1) (N k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j
où
g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1
59
g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j
où
g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1
où
n : le nombre de temps de bon fonctionnement, n = 104
N : la taille de l’échantillon futur N = 2
x : le temps de bon fonctionnement observé ; x = 0; :::; n
cj : le paramètre de forme de la loi de Weibull, il suit une loi uniforme discrète sur
l’intervalle (1,9) avec prbabilité 1/4
g0j ; h0j : sont les parmètres de la loi a priori sur qui est de type (g0j ; h0j ), où la
densité a priori prédictive de Y est
" c
#g0j
h0jj
P (Y y) = c ; y>0
h0jj + y cj
60
4.2 Annexes
4.2.1 Annexe 1
L’équation (10) est résolue par le programme (voir annexe 3). Les résultats de la
prédiction sont données dans le tableau suivant :
la prédiction
k=1 258.5
k=2 680.36
61
4.2.2 Annexe 2
L’équation (11) est résolue par le programme (voir annexe 3). Les résultats de la
prédiction sont données dans le tableau suivant :
la prédiction
k =r+1 369.69
k =r+2 298.39
62
4.2.3 Annexe 3
Programme 1
On utilise dans le programme les changements suivants :
(g0j ) = u (j)
(n + 1 + g0j ) = l (j)
(n + g0j ) = f (j)
B (1 + 1=cj ; n + g0j + 1=cj ) = b (j)
function calcul
global calcul
clc
clear all
close all
X=[X1 ,...,X104 ] ;
n=104 ;
s=4 ;
N=2 ;
k=[1,2] ;
c=[c1 ,c2 ,c3 ,c4 ] ;
g=[g1 ,g2 ,g3 ,g4 ] ;
h=[h1 ,h2 ,h3 ,h4 ] ;
B=[b1 ,b2 ,b3 ,b4 ] ;
u=[u1 ,u2 ,u3 ,u4 ] ;
l=[l1 ,l2 ,l3 ,l4 ] ;
f=[f1 ,f2 ,f3 ,f4 ] ;
num=0 ;
for j=1 :s ;
somme=0 ;
63
for m=0 :k-1 ;
somme=somme+(-1)^m*(factorial(k-1)/(factorial(m)*(factorial(k-1+m)))
*(N-k+1+m)^(-1/c(j)-1) ;
end
num=num+c(j)^n*prod(X.^(c(j)-1))*(sum(X.^c(j))+h(j))^((1/c(j))-n-g(j))
*b(j)*(h(j)^g(j))*(I(j)/u(j))*somme ;
end
num
denum=0 ;
for j=1 :s
denum=denum+c(j)^n*prod(X.^(c(j)-1))*(h(j)^g(j))*(f(j)/u(j))
*(sum(X.^c(j))+h(j))^(-g(j)-n) ;
end
denum
total=(k*factorial(N)/(factorial(k)*factorial(N-k))*num)/denum
64
Programme 2
On utilise les changements du programme 1
function calcul
global calcul
clc
clear all
close all
X=[X1 ,...,X104 ] ;
n=104 ;
s=4 ;
r=20 ;
k=[r+1,r+2] ;
c=[c1 ,c2 ,c3 ,c4 ] ;
g=[g1 ,g2 ,g3 ,g4 ] ;
h=[h1 ,h2 ,h3 ,h4 ] ;
B=[b1 ,b2 ,b3 ,b4 ] ;
u=[u1 ,u2 ,u3 ,u4 ] ;
l=[l1 ,l2 ,l3 ,l4 ] ;
f=[f1 ,f2 ,f3 ,f4 ] ;
num=0 ;
for j=1 :s ;
somme=0 ;
for m=0 :k-r-1 ;
somme=somme+(-1)^m*(factorial(k-r-1)/(factorial(k-r-1-m)*(factorial(m)))
*(n-k+1+m)^(-1/c(j)-1) ;
end
num=num+c(j)^n*prod(X.^(c(j)-1))*(sum(X.^c(j))+h(j))^((1/c(j))-n-g(j))
*b(j)*(h(j)^g(j))*(I(j)/u(j))*somme ;
65
end
num
denum=0 ;
for j=1 :s
denum=denum+c(j)^n*prod(X.^(c(j)-1))*(h(j)^g(j))*(f(j)/u(j))
*(sum(X.^c(j))+h(j))^(-g(j)-n) ;
end
denum
total=((k-r)*factorial(n-r)/(factorial(k-r)*factorial(n-k))*num)/denum
66
Chapitre 5
Conclusion Générale
Dans ce mémoire, nous avons essayé d’appliquer les déférentes techniques de la pré-
diction Bayésienne de la durée de vie d’un échantillon future. Ces techniques montrent
bien l’intérêt analytique et numérique surtout la résolution des distributions prédictives
pour trouver la réponse à tout problème d’inférence statistique.
Nous pouvons dire que les statistiques en générale, et la méthode Bayésienne en par-
ticulier, basée sur le retour d’expérience et l’état des connaissances et il est nécessaire de
développer les divers méthodes pour s’assurer la qualité des données de retour d’expé-
rience.
Leur intérêt est la réduction importante du temps de calcul pour obtenir un meilleur
estimateur.
67
Bibliographie
[2] Evans I.G. and Nigm A.H.M..Bayesian prediction for two-parameter weibull lifetime
models. to appear in comm in statist, 1980-pp121-125.
[5] Ringler. J.Réduction des coûts d’essais de …abilité par la pratique des techniques
Bayesiennes. Revue de statistique appliquée, tome 27 , n0 2 (1979), p.55-68.
[7] Dunsmore I.R. The Bayesian predictive distribution in life testing models. Techno-
metrics, Vol 16 N 3 (1974) 445-450.
[8] S. K. Sinha.Bayes estimation of the reliability function and hasard rate of a weibull
failure time distribution. Trabajos de Estadistica. Vol. 1. Nùm. 2, 1986, pp. 47 a 56.
[10] Berger. J. Bayesian reliability for Weibull data. in XXIIes Journées de Statis-
tiques.Tours, 1990, pp. 15-17.
[11] Geisser. S. (1993), Predictive Inference : An Introduction, New York : Chapman and
Hall.
68
[12] Mee. R. and Kushary. D. (1994). Prediction Limits for the Weibull Distribution
Utilizing Simulation. Computational Statistics and Data Analysis, 17, 327–336.
[14] Harold Je¤reys. Theory of Probability. Oxford University Press. Oxford, UK, 1961
reprint edition, 1939.
[15] José M. Bernardo and Adrian F. M. Smith. Bayesian Theory. John Wiley, New
York, NY, 1996.
69