0% ont trouvé ce document utile (0 vote)
62 vues69 pages

Memoire Bouhali Keltoum

Ce document traite de la prédiction des statistiques d'ordre et des fonctions associées dans le contexte des distributions de durées de vie, en se concentrant sur la loi de Weibull. Il est structuré en quatre chapitres, abordant les notions préliminaires, l'inférence Bayésienne, la prédiction Bayésienne de la durée de vie, et une application pratique utilisant des données réelles. Les méthodes Bayésiennes sont mises en avant pour leur capacité à intégrer des connaissances a priori et à analyser les incertitudes.

Transféré par

Ahmed HAMIMES
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
62 vues69 pages

Memoire Bouhali Keltoum

Ce document traite de la prédiction des statistiques d'ordre et des fonctions associées dans le contexte des distributions de durées de vie, en se concentrant sur la loi de Weibull. Il est structuré en quatre chapitres, abordant les notions préliminaires, l'inférence Bayésienne, la prédiction Bayésienne de la durée de vie, et une application pratique utilisant des données réelles. Les méthodes Bayésiennes sont mises en avant pour leur capacité à intégrer des connaissances a priori et à analyser les incertitudes.

Transféré par

Ahmed HAMIMES
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Table des matières

1 Notions Préliminaires 9
1.1 Quelques dé…nitions utiles . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Principe de l’analyse Bayésienne . . . . . . . . . . . . . . . . . . . 11
1.2 Statistique d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Notations et exemples . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Types de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Données complètes . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Données censurées de di¤érents types . . . . . . . . . . . . . . . . 21

2 Inférence Bayésienne 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Densités a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.1 Densités a priori conjuguées . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Densités a priori non informatives . . . . . . . . . . . . . . . . . . 26
2.2.3 Exemple d’application . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Marginalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 Estimation paramétrique Bayésienne . . . . . . . . . . . . . . . . . . . . 30
2.4.1 Fonction de coût . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.2 Estimateurs MMSE et MAP . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Estimations a posteriori marginales et conjointes . . . . . . . . . . 36

1
2.5 Tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3 Prédiction Bayésienne de la durée de vie 42


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Description du problème de la prédiction . . . . . . . . . . . . . . . . . . 43
3.3 Résolution le problème de décision par la méthode Bayesiénne . . . . . . 44
3.4 Cas d’une loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Dé…nition d’une loi de Weibull . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Prédiction d’une loi de Weibull . . . . . . . . . . . . . . . . . . . 48

4 Application 58
4.1 Prédiction Bayésienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.1 Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.2 Annexe 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.3 Annexe 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

5 Conclusion Générale 67

2
Remerciements
Je tiens à adresser mes remerciements les plus chaleureux et ma profonde grati-
tude à mon encadreur Mme A.Chadli, Maître de conférences à l’université d’Annaba,
pour m’avoir proposé le sujet de ce mémoire. C’est grâce à sa grande disponibilité, ses
conseils, ses orientations et ses encouragements que j’ai pu mener à bien ce travail. Mes
remerciements vont également à Monsieur A.Nouar, Maître de conférences à l’univer-
sité de Skikda, qui a bien voulu présider le jury. De même je remercie vivement Mme
N.Seddik Ameur, Professeure à l’université d’Annaba et R.Khelif, Maître de confé-
rences à l’université d’Annaba, qui ont accepté d’examiner le mémoire et béné…cier de
leurs remarques.
En…n, je n’oublie pas de remercier toutes les personnes qui m’ont facilité la tâche
et toute celles que j’ai connue au département de mathématiques et qui ont rendu mon
séjour au département agréable.

3
Résumé
Ce travail porte sur l’étude du problème de la prédiction de statistiques d’ordre et de
fonctions de celles-ci dans le cas des distributions de durées de vie.
Le travail se compose de deux parties :
-La première partie consiste à traiter le problème de la prédiction de durées de vie issues
d’une loi de Weibull en détail avec une expression simple d’un prédicteur de y = y(k) puis
y = X(k) X(r) pour des données de types complètes et de types censurées.
-La deuxième partie montre quelques résultats sur la prédiction pour des données réelles
de TMBF relevés de l’historique des pannes de pompes.
Mots clés : loi a priori, loi a posteriori, statistique d’ordre, loi de Weibull, prédiction
Bayésienne.

4
Abstract
This study focuses on the study of problem of the prediction of the order statistics
and functions of those in the case of the lifetime distributions.
Two types of work are discussed :
- The …rst job is to show to address the problem of the prediction of Weibull lifetime at
summer studies in detail with simple expression of a predictor y = y(k) then y = X(k) X(r)
for given types of data complement.
- The second job demonstrates some results of the prediction for real data of TMBF
statement from failure historic of pumps.
Key words : prior distribution, postriory distribution, orders statistic, Weibull dis-
tribution, Bayesian prediction.

5
Introduction générale
Les méthodes Bayésiennes ont connu après la Seconde Guerre mondiale des déve-
loppements nombreux et très divers, où di¤érents acteurs et écoles de pensée ont été
impliqués.
On notera pour commencer des travaux, venant de probabilistes et statisticiens théo-
riciens, destinés à consolider la théorie en construisant une axiomatique : les ouvrages
majeurs sont ceux de Leonard J. Savage (The Fondations of Statistics, 1954) et Bruno de
Finetti qui développe une approche ne faisant pas appel à la théorie de la mesure (Teoria
delle probabilita, 1970) accompagnés de ceux de D.V.Lindley (Introduction to probability
and Statistics from a Bayesian Viewpoint, 1965). On assiste ensuite à une ‡oraison d’ou-
vrages destinés à populariser la théorie Bayésienne tel celui de James Berger (Statistical
Decision Theory and Bayesian Analysis, 1985), mais on ne peut les citer tous ici.
Une deuxième école de pensée concerne la formalisation des décisions humaines de-
vant le risque qui débute avec l’ouvrage fondamental de John Von Neumann et Oskar
Morgenstern (Theory of Games and Economic Behaviour, 1944). Dans cette lignée, on
trouve les critiques de Maurice Allais (Le comportement de l’homme rationnel devant le
risque, 1953) mettant en évidence des comportements paradoxaux.
Au-delà de cette école ‹‹micro-économique››, on peut y rattacher des travaux plus
proches de la psychologie comme ceux de Kahneman et Tversky [1979] qui portent sur
la révision des croyances, c’est-à-dire la modi…cation des probabilités, en présence d’in-
formation supplémentaire.
Ces recherches ont inspiré de nombreux développements à la …n des années 1950 et
au début des années 1960 chez les chercheurs opérationnels et spécialistes de l’aide à la
décision en avenir incertain mais probabilisable. Citons ici les ouvrages fameux de R.D.
Luce et H. Rai¤a (Games and Decisions, 1958), R.Schalaifer (Probability and Statistics
for Business Decisions, 1959), ainsi que celui de Rai¤a et Schalaifer (Applied Statistical
Decision Theory, 1961).
Cependant le formalisme Bayésien restait limité à l’emploi de distributions conjuguées

6
naturelles et donc à des cas d’école, en raison de di¢ cultés de calcul qui n’ont pu être le-
vées que dans les années 1980. On peut en e¤et a¢ rmer qu’une grande part du renouveau
des méthodes Bayésiennes est venu du fait que le calcul des distributions a posteriori et
prédictives a été rendu possible grâce aux progrès de l’informatique et à l’utilisation sys-
tématique de méthodes de simulation basées sur les algorithmes de Metropolis-Hasting
et les chaînes de Markov.
La méthode Bayésienne consiste à baser l’estimation des paramètres sur une distri-
bution nommée loi a posteriori, qui mélange l’information portée par les données (via la
vraisemblance) et une information a priori exogène aux données (avis d’expert, informa-
tions régionales, contraintes physiques, . . . ).
Le formalisme Bayésien possède plusieurs avantages par rapport à une analyse clas-
sique. Tout d’abord, l’introduction de connaissances a priori est susceptible d’améliorer
l’estimation des paramètres. Ce type de connaissances existe dans la grande majorité des
cas : par exemple, il est possible d’utiliser les méthodes développées pour l’estimation
des quantiles de crues sur des sites non jaugés. De plus, le formalisme Bayésien permet
une analyse complète des incertitudes : échantillonnage (c’est le cas également des ana-
lyses classiques), mais aussi de modélisation (quelle loi de probabilité choisir ? modéliser
une tendance linéaire, exponentielle, quadratique ?), ou de métrologie (prise en compte
de l’incertitude liée à l’extrapolation des courbes de tarage, ou à la reconstitution de
données historiques). En…n, en basant l’inférence sur une loi de probabilité, le calcul des
intervalles de con…ance est très naturel, et ne repose sur aucune hypothèse asymptotique.
Cependant, certains inconvénients demeurent : tout d’abord, la traduction de connais-
sances a priori en une loi de probabilité sur les paramètres est loin d’être triviale. De plus,
la loi a posteriori s’exprime en général comme une distribution multivariée qui est déli-
cate à manipuler dès que le nombre de paramètres est supérieur à deux ou trois. Cette
di¢ culté explique pourquoi l’utilisation de l’analyse Bayésienne est assez récente.
Ce mémoire est réparti en quatre chapitres.
Le premier chapitre : Notions préliminaires.

7
Ce chapitre est un rappel de quelques notions préliminaires ; …abilité, statistique
d’ordre, principe de l’analyse bayésienne, données complètes, données censurées.
Le deuxième chapitre : Inférence Bayésienne.
Cette partie présente le formalisme Bayésien et, en particulier, deux de ses propriétés
fondamentales, la prise en compte des densités a priori et la marginalisation en les illus-
trant par des exemples simples. Puis, nous décrivons les estimateurs paramétriques Bayé-
siens les plus courants. En…n, le problème de l’étude des performances dans le contexte
Bayésien est abordé.
Le troisième chapitre : Prédiction Bayésienne de la durée de vie.
Le cas de la prédiction de durées de vie issues d’une loi de Weibull a été étudié en
détail. Les di¤érents résultats obtennus sont repris sur le sujet notamment dans le cas de
données censurées de types II, le cas de données attribut, le cas de données complètes.
Le quatrième chapitre : Application.
Dans ce chapitre on donne une application des résultats obtenus au chapitre précé-
dent, on utilise des données réelles issues de Sonatrach et concernant le temps de bon
fonctionnement (TMBF) relevés de l’historique des pannes de pompes de même type et
travaillant dans les mêmes conditions.

8
Chapitre 1

Notions Préliminaires

Les techniques bayésiennes appliquées au domaine de la …abilité peuvent constituer un


outil permettant de réduire le volume des essais de …abilité nécessaire devant être é¤ectués
sur un matériel nouveau. Cette nouvelle politique d’essais de …abilité est sensiblement,
moins coûteuse que la politique dé…nie par l’approche classique.

1.1 Quelques dé…nitions utiles

1.1.1 Dé…nitions

Dé…nition 1 (Variable aléatoire).


Soit ( ; A; P) un espace probabilisé, est l’ensemble des évènements possibles, A la
tribu associée et P la mesure de probabilité permettant de mesurer A:
Toute application mesurable :

W : ( ; A; P) !

est appelée variable aléatiore sur l’espace :

Dé…nition 2 (Densité jointe, Densité marginale).


Soit XA et XB deux variables aléatoires sur un sous-ensemble I de Y.

9
On note P (XA ; XB ) leur densité jointe.
On note P (XB ) la densité marginale de XB dé…nie par :

Z
P (XB ) = P (XA ; XB ) dXA
I

Dé…nition 3 (Statistique et Estimateur)


Soit y les données observées de support Y et l’ensemble des paramètres de support
tels que 2 et y 2 Y:

On appelle statistique une fonction des variables aléatiores observables, elle-même


variable aléatiore. Une statistique quelconque, dont les valeurs sont utilisées pour estimer
, est appelée estimateur de , noté b :

b: Y ! y ! b (y)

Dé…nition 4 (“Bonnes” propriétés d’un estimateur)


On dit qu’un estimateur a de “Bonnes” propriétés statistique lorsque :
(i) Il est convergent ;
h i
(ii) Il est non biaisé : Ey bn = b0 ;
(iii) Il est consistant : limn !+1 var ( n ) = 0;
(iv) Il est e¢ cace : il posséde une variance minimale ;
(v) Il est asymptotiquement normal ;

Dé…nition 5 (Loi de Bayes)


Soit XA et XB deux variables aléatoires sur un sous-ensemble de Y. On a

P (XA =XB ) :P (XB ) = P (XB =XA ) :P (XA ) (1)

La loi de Bayes est trés pratique pour renverser les dépendances conditionnelles entre
variables aléatiores ; elle est à la base de toute l’approche Bayésienne que nous utiliserons
ultérieurement.

10
Dé…nition 6 (Fiabilité)
La …abilité d’un groupe d’éléments à un instant t est la probabilité de fonctionnement
sans défaillance pendant la période [0; t] c’est donc la probabilité que l’instant de première
défaillance T soit supérieur à t. Bien entendu cette dé…nition posée sur une échelle en
temps de fonctionnement est tout aussi valable avec une autre unité, par exemple en km
ou en nombre de cycles d’usage.

R (t) = p (T > t)

Dé…nition 7 (Modèle statistique)


Un modèle statistique paramétrique sur ( ; F; P) consiste en l’observation d’un va-
riable aléatoire X de loi f (x= ), où seul le paramètre appartenant à un sous-ensemble
d’un espace vectoriel de dimension …nie, n’est pas connu.

Dé…nition 8 (Modèle statistique Bayésien)


On appelle modèle statistique Bayésien sur ( ; F; P) la donnée d’un modèle statistique
paramétré, et d’une loi a priori p ( ) sur les paramètres.

1.1.2 Principe de l’analyse Bayésienne

L’inférence Bayésienne consiste à résumer le résultat d’une analyse statistique par


une distribution de probabilité des paramètres du modèle et de quantités non observées
telles que les prédictions d’observations futures. Le cadre statistique Bayésienne o¤re de
nombreux avantages pratiques et théoriques :
– L’incertitude est exprimée sous la forme de distributions de probabilité. L’interpré-
tation de l’incertitude dans le cadre statistique fréquentiste(intervalle de con…ance
associé à une estimation ponctuelle) est moins intuitive et moins opérationnelle.
– Plusieurs sources d’information sont combinées dans l’analyse. Les donnèes analy-
sées interviennent au travers de la vraisemblance. Les connaissances a priori peuvent
être incorporées par l’intermédiaire des distributions a priori.

11
– L’inférence Bayésienne fournit un cadre théorique cohérent pour les problèmes de
gestion de ressources naturelles. Ce cadre est en e¤et en liaison directe avec la
notion de risque décisionnel.
Dans le cadre Bayésien, l’incertitude sur les quantités inconnues du modèle est ex-
primée sous la forme de distributions de probabilité. Ainsi, les quantités inconnues sont
considérées comme des variables aléatoires. L’inférence sur les quantités inconnues du
modèle, notées , se fait par probabilité des paramètres conditionnellement aux données,
notée p ( =données), qui s’obtient à l’aide de la formule de Bayes :

p ( ) :L (données= )
p ( =données) =
L (données)
La quantité p ( ) est la distribution de probabilité a priori (c’est-à-dire avant confrontation
avec les données) des paramètres du modèle. L (données= ) représente la fonction de
vraisemblance des données observées conditionnellement aux paramètres . La quantité
L (données) est la vraisemblance marginale des données, égale à :

Z
L (données= ) :p ( ) d

La formule de Bayes est un ‹‹ processeur d’information ›› qui permet d’actualiser la


distribution a priori par confrontation avec les données pour obtenir la distribution
de probabilité a posteriori. Elle montre que la distribution a posteriori des inconnues
s’obtient en combinant l’information issue des connaissances préalables, apportée par
l’intermédiaire de la distribution a priori, avec l’information contenue dans les données,
apportée par la fonction de vraisemblance.
La vraisemblance marginale des données est indépendante de . Elle peut être considé-
rée comme une constante au regard de , qui agit comme un facteur de normalisation de
la distribution de probabilité a posteriori. Ainsi, la distribution de probabilité a posteriori
est souvent écrite sous sa forme non normalisée :

12
p ( =données) / p ( ) :L (données= )

1.2 Statistique d’ordre

1.2.1 Notations et exemples

Dé…nition 9 La statistique d’ordre k d’un échantillon statistique est égal à la k ième


plus petite valeur. Associée aux statistiques de rang, la statistique d’ordre fait partie des
outils fondamentaux de la statistique non paramétrique et de l’inférence statistique. Deux
cas importants de la statistique d’ordre sont les statistiques du minimum et du maximum,
et dans une moindre mesure la médiane de l’échantillon ainsi que les di¤érents quantiles.
Quand on emploie la probabilité pour analyser les statistiques d’ordre d’un échantillon
aléatoire issue d’une distribution continue, la fonction de distribution cumulative est
employée pour ramener l’analyse au cas de la statistique d’ordre sur une distribution
uniforme.

exemple 1 Soit une expérience conduisant à l’observation d’un échantillon de 4 nombres,


prenant les valeurs suivantes : 6; 9; 3; 8 que l’on note selon la convention :

x1 = 6; x2 = 9; x3 = 3; x4 = 8

où le i en indice sert à identi…er l’observation (par son ordre temporel, le numéro du


dispositif correspondant, etc.) et n’est pas a priori corrélée avec la valeur de l’observation.
On note la statistique d’ordre :

x(1) = 3; x(2) = 6; x(3) = 8; x(4) = 9

où l’indice (i) dénote la i ième statistique d’ordre de l’échantillon suivant la relation


d’ordre habituelle sur les entiers naturels.

13
Par convention, la première statistique d’ordre, notée X(1) , est toujours le minimum
de l’échantillon, c’est-à-dire :

X(1) = min fX1 ; :::; Xn g

Suivant la convention habituelle, les lettres capitales renvoient à des variables aléatoires,
et les lettres en bas de casse aux valeurs observées (réalisations) de ces variables. De même,
pour un échantillon de taille n, la statistique d’ordre n (autrement dit, le maximum) est

X(n) = max fX1 ; :::; Xn g

Étant donné un échantillon x1 ; x2 ; :::; xn , les statistiques d’ordres, notées X(1) ; X(2) ; :::; X(n)
sont donc obtenues par tri coissant.

Lemme 1 On suppose l’échantillon X1 ; X2 ; :::; Xn indépendament et identiquement dis-


tribué selon une loi de densité f et de fonction de répartition F . Alors la fonction de
répartition de la k ième statistique d’ordre est

p X(k) x = FX(k) (x) = p (au moins k des n X sont x)


Xn
n
= p (X1 x)j (1 p (X1 x))n j
j=k
j
Xn
n
= F (x)j (1 F (x))n j

j=k
j

Preuve. Détermination de la densité du vecteur X(1) ; :::; X(n)


Rappel
Si w = ' (v) alors
X
l
fw (W ) = jJwi j fv ( i )
i=1

14
telque l est le nombre d’images inverse de ', on étudions la bijection de ' :

w = ' (v) () X(1) ; :::; X(n) = ' (X1 ; :::; Xn )

Détermination le nombre du i :

X(1) à n choix parmi (X1 ; :::; Xn ) :

X(2) à (n 1) choix parmi (X1 ; :::; Xn ) :


..
.

X(n 1) à (n (n 2)) choix parmi (X1 ; :::; Xn ) :

X(n) à 1 seul choix parmi (X1 ; :::; Xn ) :

Donc le vecteur X(1) ; :::; X(n) à n! choix possibles ainssi ' = n! telque ' la permu-
tation :
0:::0 1 0:::0 1 0:::0
0:::1 0 0:::0 0 1:::0
jJwi j = .. = ( 1)m .. =1
. .
0 1 0 0::::::0 0 0:::1

On en conclut alors que :

Y
n
fX(1) ;:::;X(n) ( x1 ; :::; xn ) = n! f (xi ) x1 x2 ; :::; xn
i=1

Détermination de la densité du vecteur aléatoire X(1) ; :::; X(j) j n


Trouvons la densité du X(1) ; :::; X(n 1) :

15
On a

Z+1
fX(1) ;:::;X(n 1)
( x1 ; :::; xn 1 ) = fX(1) ;:::;X(n) ( x1 ; :::; xn ) dxn
xn 1

Y1
n Z+1
= n! f (xi ) f (xn ) dxn
i=1 xn 1

Y1
n
= n! f (xi ) [1 F (xn 1 )]
i=1
avec x1 x2 ; :::; xn 1

Trouvons la densité du X(1) ; :::; X(n 2) :

Z+1
fX(1) ;:::;X(n 2)
( x1 ; :::; xn 2 ) = fX(1) ;:::;X(n 1)
( x1 ; :::; xn 1 ) dxn 1
xn 2

Y2
n Z+1
= n! f (xi ) f (xn 1 ) [1 F (xn 1 )] dxn 1
i=1 xn 2

n! Y2
n
+1
= f (xi ) (1 F (xn 1 ))2 xn
2 i=1
2

n! Y2
n
= f (xi ) (1 F (xn 1 ))2
2 i=1
avec x1 x2 ; :::; xn 2

D’ou
j
n! Y
fX(1) ;:::;X(j) ( x1 ; :::; xj ) = f (xi ) [1 F (xj )]n j
x1 ; :::; xj
j! i=1

Est à démontrer par récurrence sur (n k) (avec k croissant)


Détermination de la densité du vecteur aléatoire X(i) ; :::; X(j) i j

16
Trouvons la densité du X(2) ; :::; X(j) :

Zx2
fX(2) ;:::;X(j) ( x2 ; :::; xj ) = fX(1) ;:::;X(j) ( x1 ; :::; xj ) dx1
1
j Zx2
n! Y n j
= f (xi ) [1 F (xj )] f (x1 ) dx1
j! i=2
1
j
n! Y
= f (xi ) [1 F (xj )]n j
F (x2 )
j! i=2
avec x2 x3 ; :::; xJ

Trouvons la densité du X(3) ; :::; X(j) :

Zx3
fX(3) ;:::;X(j) ( x3 ; :::; xj ) = fX(2) ;:::;X(j) ( x2 ; :::; xj ) dx2
1
j Zx3
n! Y
= f (xi ) [1 F (xj )]n j
f (x2 ) dx2
j! i=2
1
j
n! Y
= f (xi ) [1 F (xj )]n j
F (x3 ) x3 ; :::; xj
j!2 i=2

On en conclut l’hypothèse de récurrence suivante :

j
n! Y
fX(i) ;:::;X(j) ( xi ; :::; xj ) = f (xk ) [1 F (xj )]n j
F (xi )
j! (i 1)! k=1
avec xi xi+1 ; :::; xj

Détermination de la densité du couple X(i) ; X(j)

17
Trouvons la densité du X(i) ; X(i+2) ; :::; X(j) :

j
Y Z
xi+2

fX(i) ;X(i+2) :::;X(j) ( xi ; xi+2 ; :::; xj ) = C f (xk ) f (xi+1 ) dxi+1


k=i xi
k6=i+1
j
Y
= C f (xk ) [F (xi+2 ) F (xi )]
k=i
k6=i+1

avec
n!
C= [1 F (xj )]n j
F (xi )
j! (i 1)!
Trouvons la densité du X(i) ; X(i+3) ; :::; X(j) :

j
Y Z
xi+3

fX(i) ;X(i+3) ;:::;X(j) ( xi ; xi+3 ; :::; xj ) = Cf (xi ) f (xk ) f (xi+2 )


k=i+3 xi
[F (xi+2 ) F (xi )] dxi+2
j
C Y
= f (xi ) f (xk ) [F (xi+3 ) F (xi )]2
2 k=i+2

On en déduit la formule de récurrence suivante :

n!
f(X(i) ;X(j) ) ( xi ; xj ) = [1 F (xj )]n j
F (xi )i 1
j! (i 1)! (j i 1)!
f (xi ) f (xj ) [F (xj ) F (xi )]j i 1
xi xj

Détermination de la densité de X(i)

Z+1
fX(i) (xi ) = f(X(i) ;X(j) ) ( xi ; xj ) dxj
xi
Z+1
= C [1 F (xj )]n j
f (xj ) [F (xj ) F (xi )]j i 1
dxj
xi

18
Posons
F (xj ) F (xi ) f (xj ) dxj
t= ; dt =
1 F (xi ) 1 F (xi )
alors

F (xj ) = t (1 F (xi )) + F (xi )


Z1
fX(i) (xi ) = C [1 F (xi ) t (1 F (xi ))]n j
[t (1 F (xi ))]j i 1

0
(1 F (xi )) dt
Z1
n j+j i+1 1
= C [1 F (xi )] (1 t)n j j i 1
t dt
0
n i
= C [1 F (xi )] B (j i; n j + 1)
(j i) (n j + 1)
= C [1 F (xi )]n i
(n i + 1)
n!f (xi ) (j i 1)! (n j)!
= F (xi )
(n j)! (i 1)! (j i 1)! (n i)!
[1 F (xi )]n i

D’ou le résultat .En dérivant, on trouve la densité :

d
fX(k) (x) = FX (x)
dx (k)
Xn
n n j
= jF (x)j 1
f (x) (1 F (x)) + F (x)j (n j) (1 F (x))
j=k
j
= iCni f (xi ) F (xi )i 1
[1 F (xi )]n i

Aprés quelques manipulations, non reproduites ici, on trouve une expression plus conden-
sée
n!
fX(k) (x) = F (x)k 1
(1 F (x))n k
f (x) (2)
(k 1)! (n k)!
Pour la loi uniforme continue, la densité de la k ième statistique d’ordre est celle d’une
loi bêta de paramètre k et n + 1 k.

19
exemple 2 (statistique d’ordre de densité de Weibull)

Soit X(1) ; :::; X(n) la statistique d’ordre de l’échantillon aléatoire X1 ; :::; Xn d’un po-
pulation continue avec fonction de répartition

F (x) = 1 exp ( xc )

et densité
f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0

alors la densité de X(k) est

n!
fX(k) (x) = fX (x) [FX (x)]k 1
[1 F (x)]n k
(k 1)! (n k)!
n!
= c (x)c 1
exp ( xc ) [1 exp ( xc )]k 1
(k 1)! (n k)!
1 + exp ( xc )]n k
[1
n!
= c (x)c 1 exp ( xc ) [1 exp ( xc )]k 1
(k 1)! (n k)!
exp [( xc ) (n k)]
n!
= c (x)c 1 exp [( xc ) (1 + n k)]
(k 1)! (n k)!
X
k 1
k 1
( 1)m exp ( xc m)
m=0
m

D’ou

n! X
k 1
k 1
fX(k) (x) = c (x)c 1
exp [( xc ) (1 + n k)] ( 1)m exp ( xc m)
(k 1)! (n k)! m=0
m
(3)

20
1.3 Types de données

1.3.1 Données complètes

Dé…nition 10 L’outil de base de l’estimation est la notion de vraisemblance. Plaçons


nous pour l’instant dans le cas de données non censurées. On a observé n du réels
x1 ; :::; xn , que l’on considère comme des réalisations d’un n-échantillon (X1 ; :::; Xn ) :
les Xi sont des variables aléatoires indépendantes et de même loi. Cette loi inconnue
a pour densité f et pour …abilité R. Par dé…nition, la vraisemblance est la densité de
l’échantillon sur l’observation.
Y
n
L= f (xi )
i=1

La vraisemblance mesure la probabilité de l’événement qui a été observé. Dans le cas de


lois à densité, la di¢ culté vient de ce que la probabilité d’observer exactement les valeurs
x1 ; :::; xn est toujours nulle. Par contre, pour h petit, la probabilité d’observer x1 ; :::; xn
à h prés est proche de hn L. On retiendra que la vraisemblance est proportionnelle à la
probabilité de l’événement observé. Le coe¢ cient de proportionnalité ne doit pas dépendre
des quantités à estimer. Celles-ci peuvent être des paramètres si l’on suppose que la loi
appartient à l’une des familles classiques, ou plus généralement des valeurs de R (t), des
moments de la loi, ou encore des quantiles. Il est naturel de proposer comme estimation
celle qui maximise la probabilité de l’événement observé, à savoir la valeur pour laquelle
la vraisemblance est maximale. C’est non seulement raisonnable, mais aussi optimal, au
sens où l’estimateur obtenu est asymptotiquement de variance minimale. Il est équivalent,
et en général plus facile, de maximiser le logarithme de la vraisemblance.

1.3.2 Données censurées de di¤érents types

Il peut être trop cher inutile, ou tout simplement impossible, d’observer toutes les
durées de fonctionnement x1 ; :::; xn . On décide alors d’interrompre l’observation avant
la dernière. Nous ne considérerons que deux types de censure. Il existe de nombreuses

21
généralisations de ces deux cas de base.

Censure de Type I Les données n’ont été observées que jusqu’à un instant de censure
tc …xé à l’avance. Dans ce cas, l’observation se compose des valeurs de celles des durées
qui étaient inférieures à tc . En d’autres termes, au lieu d’observer la valeur prise par Xi ,
on observe celle de Xi8 avec :

Xi0 = Xi :1[0;tc ] (Xi ) + tc :1]tc ;+1[ (Xi )

la variable Xi0 vaut tc avec probabilité R (tc ), elle est égale à Xi si Xi tc . La vraisem-
blance des observations est proportionnelle à :

Y
n
L= f (xi ) 1[0;tc ] (xi ) + R (tc ) 1]tc ;+1[ (xi )
i=1

Pour écrire cette formule sous une forme plus lisible, notons x(1) ; :::; x(n) les valeurs
x1 ; :::; xn rangées par ordre criossant, et k le nombre de valeurs inférieures à tc :

X
n
k= 1[0;tc ] (xi ) = max i; x(i) tc
i=1

La vraisemblance devient :

n k
Y
k
L = R (tc ) f x(i)
i=1

Censure de Type II Seules les nc premières valeurs ont été observées, où nc est un
nombre …xé à l’avance. On observe en fait les valeurs prises par X(1) ; :::; X(nc ) , les nc
premières statistiques d’ordre de l’échantillon. La probabilité de l’évènement observé est
ici proportionnelle à :

n nc
Y
nc
L = R x(nc ) f x(i)
i=1

22
Chapitre 2

Inférence Bayésienne

L’objectif de cette partie est de rappeler quelques notions de base sur le formalisme
bayésien, les estimateurs paramétriques bayésiens et les tests d’hypothèses. On
termine cette partie par la prédiction bayésienne. Pour une revue plus complète nous
conseillons de consulter les ouvrages de référence concernant l’analyse bayésienne[1].

2.1 Introduction
Dans le formalisme bayésien, toute inférence repose sur la densité a posteriori des
paramètres qui nous intéressent conditionnellement aux observations et aux informations
a priori sur le paramètre . Supposons que y = (y1 ; :::; yN ) soit le vecteur des observations
et = ( 1 ; :::; d) 2 soit le vecteur de paramètres à estimer. La densité p ( =y) a
posteriori est dé…nie à partir du théorème de bayes :

p (y= ) p ( )
p ( =y) =
p (y)
où :
- p (y= ) est la densité de probabilité conditionnelle des observations connaissant les
paramètres du modèle.
- p ( ) est la densité des paramètres choisie en fonction des connaissances disponibles

23
sur avant la prise en compte des observations.
- p (y) est une constante de normalisation aussi appelée évidence bayésienne. Elle est
dé…nie par :

Z
p (y) = p (y= ) p ( ) d

Dans un premier temps, nous allons présenter les deux principales caractéristiques de
formalisme bayésien c’est à dire l’utilisation des connaissances a priori avant la prise en
compte des observations et la capacité d’éliminer les paramètres du modèle qui ne sont
pas représentatifs du problème par marginalisation. Ensuite, nous nous présentons les
estimateurs paramétriques bayésiens les plus courants.

2.2 Densités a priori


L’une des caractéristiques fondamentales de l’analyse bayésienne est l’utilisation de
densité de probabilité décrivant l’état de connaissance ou d’ignorance concernant
les paramètres avant la prise en compte des observations. Le choix de cette densité
qui est dite a priori est le problème le plus délicat et le plus critique de l’analyse
bayésienne. En e¤et, il est trés rare que l’information a priori soit su¢ sante pour
pouvoir déterminer cette densité donc il faut faire des approximations. Dans notre
cas, nous ne présentons que les deux types de densités a priori les plus courantes :
densités a priori conjuguées, densités a priori non informatives.

2.2.1 Densités a priori conjuguées

Lorsque l’information a priori n’est pas su¢ samment importante pour déterminer la
densité a priori, on utilise la densité a priori dite conjuguée qui facilite l’analyse
bayésienne.

Dé…nition 11 Si F est la famille de la fonction de vraisemblance p (y= ) et P est celle

24
de la densité a priori de , p ( ) , alors la famille Pest conjuguée avec F si la densité a
posteriori de est telle que p ( =y) 2 Ppour toutes densités p (:= ) 2 F et p (:) 2 P:

Remarque 1 Il est plus intéressant d’utiliser des familles de densités a priori conjuguées
telles que celles-ci aient la même forme fonctionnelle que la fonction de vraisemblance.
Dans ce cas, le passage de la fonction de vraisemblance à la densité a posteriori se réduit
à un changement de paramètre et non à une modi…cation de la forme fonctionnelle de la
famille correspondante .

Considérons l’exemple des familles de densités exponentielles :

Dé…nition 12 soient l’espace des paramètres et l’espace des observations. On dé-


…nie C et H respectivement fonctions de et dans R+ et R et T , fonctions de et
dans Rd . La famille F telle que les densités soient de la forme :

p (yi = ) = H (yi ) C ( ) exp (R ( ) T (yi ))

est dite famille exponentielle de dimention d.

Remarques
– Si Rd et Rd la famille :

p (yi = ) = H (yi ) C ( ) exp ( yi )

est dite naturelle.


– Si les yi sont i.i.d la fonction de vraisemblance est dé…nie par :
" # !
Y
N X
N
p (y= ) = H (yi ) C ( )N exp R ( )T T (yi )
i=1 i=1

Supposons que la densité a priori conjuguée s’écrive de la manière suivante :

p ( ) _ C ( ) exp R ( )T

25
où et deux hyperparamètre. La densité a posteriori appartient à la famille exponen-
tielle !!
X
N
p ( =y) _ C ( ) +N
exp R ( )T + T (yi )
i=1

Il y a de nombreuses densités usuelles, discrètes et continues appartiennent à cette famille


comme la densité de Dirichlet, la densité normale, etc...

2.2.2 Densités a priori non informatives

Le cas où aucune connaissance a priori, on utilise des densités a priori qui sont dites
non informatives.

Densité a priori uniforme

La densité a priori non informative la plus simple et la plus communément utili-


sée est la densité uniforme, ce choix repose sur l’équiprobabilité des valeurs possibles
du paramètre sur son domaine de dé…nition et, donc, n’apporte aucune information
supplémentaire sur . Cette densité a priori est dé…nie par :

p( ) = k

où k est une constante.

Densité a priori de Je¤reys

Je¤reys a proposé des densités a priori en se basant sur le principe d’invariance par
transformation .
Soit p (y= ) la fonction de vraisemblance et = f ( ), telle que f est une transfor-
mation bijective de telle que i = fi ( ), i = 1; :::; d et fi0 ( ) 2 C 0 alors les densités a
priori non informatives de Je¤reys sont telles que :

1 1
jJ ( )j 2 d = jJ ( )j 2 d

26
où jJ (:)j est le déterminant de la matrice d’information de Fisher dé…nie par :

@ 2 ln p (y= )
Jij ( ) = E
@ i@ j

Principe d’invariance :

Dé…nition 13 Un estimateur est invariant si, pour une reparamétrisation = f ( ) du


modèle, les estimations b et b sont telles que b = f b .

Remarques :
– Si 2 Rd alors la densité a priori de Je¤reys est dé…nie par :

1
p ( ) _ jJ ( )j 2

– Si les paramètres i = 1; :::; d sont a priori indépendants, la densité a priori de


Je¤reys de peut réécrire :

" # 12
Y
d Y
d
p( ) = p ( i) _ J ( i)
i=1 i=1

Où J ( i ) est la fonction d’information de Fisher de i.

2.2.3 Exemple d’application

Supposons que les observations y = (y1 ; :::; yN ) soient indépendantes et identiquement


2
distribuées suivant une loi normale de moyenne inconnue et de variance connue. Nous
allons étudier les in‡uences des di¤érentes densités a priori sur la densité a posteriori de
et les statistiques a posteriori. La fonction de vraisemblance de y est dé…nie par :

27
Y
N
p (y= ) = p (yi = )
i=1
YN
1
_ exp 2
(yi )2
i=1
2
!
1 X
N
_ exp 2
(yi )2
2 i=1

Densité a priori non informative

La densité a priori de est supposée être non informative. On suppose est un


paramètre de position, la densité a priori p ( ), est uniforme sur son domaine de dé…nition
R telle que p ( ) _ k, k étant une constante.
D’après le théorème de bayes, la densité a posteriori de véri…e la relation suivante :

p ( =y) _ p (y= ) p ( )
1
_ exp (yi )2
2 2
1
_ exp ( )2
2 2

avec

1 X
N
= yi
N i=1
2
2
=
N

2
Le paramètre suit donc une loi a posteriori normale de moyenne et de variance
dé…nies ci-dessus.

28
Densité a priori conjuguée

Nous allons maintenant étudier l’in‡uence des densites a priori conjugées sur la den-
sité a posteriori de . La densité a priori conjugée p ( ) est telle que

1
p ( ) _ exp ( 0)
2
2 20
2
où 0 et 0 sont des hyperparamètres que l’on suppose connus. La densité a posteriori
de s’écrit alors de la manière suivante :

p ( =y) _ p (y= ) p ( )
1 1
_ exp ( 0)
2
exp (yi )2
2 20 2 2
" #!
1 X
N
1 1
_ exp ( 2
0) + 2 (yi )2
2 20 i=1
1
_ exp ( 1)
2
2 21

2
Le paramètre suit une loi a posteriori normale de moyenne 1 et de variance 1 telles
que :

N
0
2 + 2 y 1 1 N
0
1 = 1 N 2
= 2
+ 2
2 + 2 1 0
0

X
N
1
avec y = N
yi
i=1

2.3 Marginalisation
La deuxième caractéristique du paradigme bayésien est la capacité d’éliminer des
paramètres qui ne nous intéressent pas par marginalisation. Supposons que le vecteur
des paramètres puise se décomposer en deux vecteurs tels que = ( 1; 2) 2 1 2

et que seul 1 nous intéresse. La densité a posteriori marginale de 1, p ( 1 =y) est déduite

29
de la densité a posteriori conjointe p ( =y) par intégration de 2 sur son domaine de
dé…nition 2. Z
p ( 1 =y) = p ( =y) d 2

Cette technique implique une réduction de la dimension de l’espace de paramètres à


estimer qui peut être trés intéressante lors de l’analyse bayésienne.

2.4 Estimation paramétrique Bayésienne


Nous allons parler dans cette partie sur les estimateurs paramétriques bayésiens les plus
usités et leurs propriétés, on parle aussi sur le risque bayésien dont la minimisation
conduit aux di¤érents estimateurs paramétriques bayésiens, nous présenterons plus
en détails les estimateurs par maximum a posteriori et par moyenne a posteriori .

2.4.1 Fonction de coût

La notion de fonction de coût issue de la Théorie de la Décision qui peut préciser le


choix de l’estimateur paramétrique bayésien. Étant donné b l’estimateur du paramètre
, on dé…nie une fonction de coût non négative C (e) telle que e = b soit l’erreur

d’estimation pour un vecteur d’observations y donnée.

Dé…nition 14 On appelle fonction de coût toute application telle que :

C : ! R+ ;b !C ;b

telle que = b () C ;b = 0

30
L’objective est de déterminer l’estimateur de b qui minimise le coût moyen E (C (e))
qui nommé le risque de bayes R dé…nie par :
2 3
Z Z
R = E (C (e)) = 4 C b p (y= ) dy 5 p ( ) d

où et respectivement l’espace des observations et l’espace des paramètres. Sous


certaines conditions de régularité, on peut écrire :
2 3
Z Z
R = E (C (e)) = 4 C b p ( =y) d 5 p (y) dy

Pour y …xé, l’estimateur qui minimise R est l’etimateur qui minimise le coût moyen sur
dé…nie par :
Z
E C b =y = C b (y) p ( =y) d

Le choix de cette fonction sera discuté ultérieurement. Avoir un coût minimal n’est pas
su¢ sant pour obtenir un bon estimateur. Nous allons présenter les estimateurs paramé-
triques bayésiens correspondant aux fonctions de coût classiques.

Coût quadratique

Considérons le cas où C (e) est quadratique :

2
C b (y) = k b (y) k>0

31
L’estimateur qui minimise le risque de bayes pour cette fonction de coût, doit minimiser :

2
Z 2
E k b (y) =y = k b (y) p ( =y) d

2
= kE b (y) E ( =y) + E ( =y) =y
2
= kE b (y) E ( =y) =y + kE (E ( =y) )2 =y

2
Puisque E [E ( =y) =y] = 0 donc E k b (y) =y est minimisé pour bquad =
E ( =y) c’est à dire pour la moyenne de la densité a posteriori p ( =y).
Par conséquent, pour une fonction de Coût quadratique, l’estimateur de risque de
bayes minimum est la moyenne a poteriori en notée MMSE.

Coût absolu

Considérons le cas où C (e) est la fonction “valeur absolu”

C b (y) = k b (y) pour k > 0

L’estimateur qui minimise le risque de bayes pour cette fonction de coût, doit minimiser :

Z
E C b (y) =y = k b (y) p ( =y) d

Pour 2 R, on peut écrire :

Zb(y) Z+1
E C b (y) =y = k b (y) p ( =y) d + k b (y) p ( =y) d
1 b(y)

32
La condition nécessaire pour minimiser E C b (y) =y est que :

dE C b (y) =y
=0
db (y)

Cette condition est satisfaite pour babs correspond à la médiane de la densité a posteriori
c’est à dire :

Zb(y) Z+1
p ( =y) d = p ( =y) d
1 b(y)

Par conséquent, pour une fonction de Coût absolu, l’estimateur de risque de bayes
minimum est la médiane de la densité a posteriori .

Coût ‘0-1’

Considérons le cas où C (e) est dé…nie par :

8
< 0 pour b (y)
C b (y) = 2
: 1 pour b (y) > 2

Cela signi…e les érreurs d’amplitude inférieur à 2 . Pour y donnée, l’estimateur qui mini-
mise le risque de bayes pour cette fonction de coût, doit minimiser :

b(y)+
Z 2

E (C (e) =y) = 1 p ( =y) d


b(y)
2

Pour minimiser E (C (e) =y) revient à maximiser l’intégrale de l’équation précédente.

Remarque 2 Si est arbitrairement petit, l’intégrale est maximisée lorsque b (y) cor-
respond au mode c’est à dire l’argument de maximum a poteriori p ( =y).

33
Par conséquent, pour une fonction de coût 0-1 l’estimateur qui minimise le risque de
bayes est le mode a posteriori qui se nomme l’estimateur du maximum a poteriori MAP.
Conclusion
Les estimateurs minimisant le risque bayésien pour les fonctions de coût présentées
ci-dessus sont la moyenne, la médiane et le mode de la densité a posteriori.

34
C(e)

(a) Coût quadratique C(e) = e2

C(e)

(b) Coût absolu C(e) = jej

Exemples de fonctions de coût

35
2.4.2 Estimateurs MMSE et MAP

Estimateur MMSE ‹‹Erreur quadratique moyenne minimale ››

L’estimateur MMSE est déterminé par la moyenne de la densité a posteriori consi-


dérée. Soit le vecteur de paramètres et y un vecteur d’observations, l’estimation de
bM M SE est dé…nie par :

Z
bM M SE = p ( =y) d

Estimateur MAP ‹‹Estimateur du maximum a posteriori ››

L’estimation MAP est déterminée par le mode de la densité a posteriori considérée et


est dé…nie par :

bM AP = arg max p ( =y)

Remarque 3 L’evaluation de bM AP nécessite uniquement la resolution d’un problème


d’optimisation. Pour calculer le maximum de p ( =y) est équivalent à trouver celui de
p (y= ) p ( ) le calcul de la constante de normalisation p (y) n’est pas nécessaire. Les
estimations MAP et MMSE sont identiques lorsque la densité a posteriori est symétrique.

2.4.3 Estimations a posteriori marginales et conjointes

Soit le vecteur des paramètres = ( 1 ; 2) 2 1 2. La densité a posteriori marginale


de 1 est dé…nie par :

Z
p ( 1 =y) = p ( =y) d 2

où p ( =y) est la densité a posteriori conjointe de .


L’objectif est de comparer les estimations de b1 avec l’estimateur a posteriori conjoint
et l’estimateur a posteriori marginale.

36
Estimateurs MMSE
L’estimation de b1;M M SE à partir de la densité a posteriori conjointe est égale à :

Z Z
b1;M M SE = 1 p ( 1 ; 2 =y) d 1 d 2
conjointe
1 2
Z
= 1 p ( 1 =y) d 1

= b1;M M SE
marginale

Par conséquent, les estimations MMSE marginale et conjointe sont égales.


Estimateurs MAP
L’estimation conjointe MAP de 1 de longeur r < d dé…nie par les r premiers
éléments de la solution du système de d équations suivant :

O p ( 1; 2 =y) =0

où O p ( =y) correspond au vecteur des gradients et 0 est le vecteur de zéros de dimension


d.
L’estimation marginale MAP de 1 est obtenue en maximisant la densité a posteriori
marginale de 1. Ainsi, sous certaines conditions de régularité, on a :

Z
O 1 p ( 1 =y) = O 1 p ( 1; 2 =y) d 2 =0
2

Par conséquent, sauf pour des cas particuliers présentés ci-dessous, les estimations MAP
conjointe et marginale sont distinctes.

2.5 Tests d’hypothèses


Nous allons parler dans cette partie sur la théorie des tests et leurs propriétés.

37
Introduction
La théorie des tests est la seconde branche aprés l’estimation, de la statistique
mathématique. Considérons un phénomène aléatoire modélisé par une variable aléatoire
X, dont la loi de probabilité notée P est connue à un paramètre 2 inconnu prés.
Comme dans le cadre d’un problème d’estimation, nous disposons d’une observation x
de cette variable X, (souvent, X est un échantillon i.i.d X = (X1 ; :::; Xn ) d’une variable
aléatoire parente et x= (x1 ; :::; xn ) est l’observation de cet échantillon). Nous nous plaçons
cependant ici dans le cas où des informations supplémentaires font penser a priori que la
valeur du paramètre appartient à un certain sous-ensemble 0 de , et nous cherchons
à valider (ou non) cette hypothèse sur la base de l’observation x. C’est à dire tester
l’hypothèse :

H0 : 2 0

Dans l’approche de Neyman-Pearson ce problème est envisagé avec un espace de déci-


sion D restreint à foui; nong où de manière équivalente à f0; 1g ce que revient à estimer
I 0 ( ) uniquement par des estimateurs à valeurs dans f0; 1g. Il est parfois nécessaires de
dé…nir l’hypothèse alternative par rapport à laquelle on veut tester H0

H1 : 2 1

c c
lorsque 1 6= 0 donc ( 0 [ 1) n’a pas d’intérêt pour le problème. Notons que d’un
point de vue bayèsien on suppose a priori que :

( 2
= 0 [ 1) =0

Puisque tout test est en fait un estimateur de I 0 ( ) il su¢ t de disposer une fonction de
coût adéquate L (d; ) pour proposer des estimateurs de bayes associés. On cherche par

38
example la fonction de coût introduite par Neyman-Pearson est le coût 0 1:
8
< 1 si d 6= I ( )
0
L ( ; d) =
: 0 sinon

où les estimateurs d sont à valeurs dans D = f0; 1g. Dans ce cas la solution bayèsienne
est :
8
< 1 si p ( 2 >p ( 2 c
0 =x) 0 =x)
d (x) =
: 0 sinon

et pour coût plus générale qui décide que l’hypothèse nulle est vraie ou fausse.
8
>
> 0 si d = I 0 ( )
>
<
L ( ; d) = a0 si 2 0 et d = 0 (4)
>
>
>
: a si 2
1 = 0 et d = 1

Proposition 1 Sous le coût (4), la solution bayèsienne associé à la loi a priori est :

8
< 1 si p ( 2 a1
0 =x) > a0 +a1
d (x) =
: 0 sinon

Par conséqent, on déduire que l’hypothèse nulle H0 sera rejetée si la probabilité a poste-
a1
riori de H0 est trop petite, le seuil d’acceptation étant a0 +a1
déterminer par le choix du
coût. Il en fait naturel, d’un point de vue bayèsien, de fonder la décision pour ce problème
de test sur la probabilité a posteriori que l’hypothèse soit véri…er. On dé…nit le facteur
de bayes est :

Dé…nition 15 On appelle facteur de Bayes le rapport

p( 2 0 =x) ( 2 0)
B (x) = =
p( 2 1 =x) ( 2 1)

39
Telque ce rapport évalue la modi…cation de la vraisemblance relative de l’hypothèse
nulle, il se compare naturellement à 1. Si

0 = f 0 g et ( 0) = 0

1 = f 1 g et ( 1) = 1

alors le facteur de bayes est en fait le rapport de vraisemblance classique

f (x= 0 )
B (x) =
f (x= 1 )
En générale, cette facteur dépend e¤ectivement de l’information a priori. Notons qu’on
retrouve aussi dans le coût (4) la dualité entre cette coût et la distribution a priori. En
e¤et, si

0 = ( 2 0) et 1 = ( 2 1) (5)

La proposition (2:5:1) montre que H0 est acceptée si :

a1 0 a1 1
B (x) > = =
a0 1 a0 0

Remarque 4 Le facteur de Bayes n’est en e¤et dé…ni que si 0 6= 0 et 1 6= 0 c’est a


dire H0 et H1 sont a priori impossible, il est inutile de chercher à modi…er ces probabilités
en fonction des observations. Il est impossible de tester les hypothèses ponctuelles lorsque
la loi a priori est continue, il faut donc adapter le choix des lois a priori au problème de
test considéré de manière à ce qu’ hypothèses nulle et alternative aient des observations
a priori positives.

On supposra qu’il est toujours possible de bâtir une loi a priori sur chacune des deux
hypothèses c’est à dire sur chacun des deux sous-espaces 0 et 1 avec comme densités
respectives :

40
( )
g0 ( ) = :I 0 ( )
( 0)
( )
g1 ( ) = :I 1 ( )
( 1)

Et les probabilités a priori 0 et 1. Pour l’hypothèse ponctuelle a priori H0 : = 0

soit 0 la probabilité a priori que = 0 et g1 la densité a priori sur 1 = f 6= 0 g. La


probabilité a posteriori que = 0 est alors :

f (x= 0 ) : 0
( 0 =x) = Z
f (x= 0 ) : 0 d
f (x= 0 ) : 0
=
f (x= 0 ) : 0 + (1 0 ) m1 (x)

Avec la loi marginale


Z
m1 (x) = f (x= 0 ) :g1 ( ) d
1

Où encore
1
1 0 m1 (x)
( 0 =x) = 1 +
0 f (x= 0 )
De la même manière, on trouve que le facteur de bayes vaut :

f (x= 0 ) : 0 0
B (x) = =
m1 (x) (1 0) 1 0
f (x= 0 )
=
m1 (x)

Remarque 5 La relation entre le facteur de bayes et la probabilité a posteriori donnée


par :
1
1 0 1
( 0 =x) = 1+
0 B (x)

41
Chapitre 3

Prédiction Bayésienne de la durée


de vie

3.1 Introduction
Les problèmes de prédiction Bayésienne concernant la construction de distribution de
probabilité de variables non encore observées et engendrées par un modèle d’échantillon-
nage conditionnellement à une information disponible. La variable sur laquelle perte la
prédiction peut être observable mais peut aussi être non observable.
Considérons le modèle bayésien :

p (y; ) = p ( ) :p (y= ) = p (y) :p ( =y)

La distribution marginale p (y) est la distribution prédictive a priori de y.


Décomposons le vecteur y en deux partie : y = (yp ; yf ) où yp représente le vecteur
des observations disponibles (p pour passées) et yf représente le vecteur des observa-
tions à prédire (f pour futures). De nouveau la distribution prédictive a posteriori de yf
s’optiendra par la formule :

42
Z
p (yf =yp ) = p ( =yp ) :p (yp =yf ; ) d

Cette formule se simpli…e quelque peu :

Z
p (yf =yp ) = p ( =yp ) :p (yp = ) d

3.2 Description du problème de la prédiction


On observe n variables aléatoirs x1 ; :::; xn indépendantes et identiquement distribuée
de loi P0 et à valeurs dans (X0 ; B0 ). On cherche à prévoir à partir de ces observations
des réalisations de nouvelles variables aléatoires Y fonction de statistique d’ordre

Y = h Y(1) ; :::; Y(N )

où (Y1 ; :::; YN ) est une future échantillon indépendant de (x1 ; :::; xn ) et issu d’une
même loi P0 .
Y(1) ; :::; Y(N ) est la statistique d’ordre de (Y1 ; :::; YN ).

Y = g X(r+1) ; :::; X(n)

Quand les données sont censurées de type II pour la prédiction sur le même échantillon.
Le modèle statistique associé à ce problème de décision est (X; B; P )
où :
(X; B) : espace des observations muni de sa tribu Borélienne.
p= P 2
une mésures de probabilité sur (X; B) :
: l’espace des paramètres.
Soient : (d; D) l’ensemble des décisions muni de sa tribu Borélienne et V : D !
R+ une fonction de perte supposée quadratique.

43
Z
V ( ; d) = (y d)2 f (y= ) dy
R+

Remarque 6 Dans le cas de la prédiction de durée de vie ; on a :


X = Rn+ pour des données complètes.
X = Rr+ pour des données censurées.
X = f0; 1; :::; ng pour des données de type attribut.
D = R+

3.3 Résolution le problème de décision par la mé-


thode Bayesiénne
Soit l’espace des paramètres d’une mesure de probabilité de densité p ( ) ; la
densité a posteriori de est alors p ( =x)

L (x= ) p ( )
p ( =x) = Z
L (x= ) p ( ) d

On …xe l’observation x; on calcule pour chaque décision d 2 D le risque a posteriori


Rx (d)

Z
x
R (d) = r ( ; d) p ( =x) d
2 3
Z Z
= 4 (y d)2 f (y= ) dy 5 p ( =x) d
X0
2 3
Z Z
= (y d)2 4 f (y= ) p ( =x) d 5 dY
X0

44
or Z
p (y=x) = f (y= ) p ( =x) d

est une densité, appelée densité prédictive de Y quand x est observé d’où

Z
x
R (d) = (y d)2 p (y=x) dY
X0

= E x (Y d)2

on cherche a

min Rx (d)
d2D

min R (d) = min E x (Y


x
d)2 = V x (Y )
d2D d2D

On conclut que la règle de décision d de bayes associe à tout x 2 D, un prédicteur d (x)


tel que : d (x) = E x (Y ).

3.4 Cas d’une loi de Weibull

3.4.1 Dé…nition d’une loi de Weibull

En théorie des probabilités, de loi de Weibull, nommée d’aprés Waloddi Weibull, est
une loi de probabilité continue.
Fonctions caractéristiques
Avec deux paramètres
La densité de probabilité de la loi de Weibull est généralement présentée sous la
forme :

f (x) = c (x)c 1
exp ( xc )

45
et la fonction de répartition devient :

F (x) = 1 exp ( xc )

la fonction de …abilité

R (x) = 1 F (x) = exp ( xc )

L’espérance mathématique et variance


MUT=mean Up time
=moyenne des tems de bon fonctionnement

Z+1
E (t) = xf (x) dx
1

1 c 1
= 1+
c
1 c 2 2 2 1
var (t) = 1+ 1+
c c

Taux de défaillance

f (x)
(x) = = c xc 1
R (x)
Avec trois paramètres (généralisé)
La densité de probabilité est :

c 1 c
x x
f (x; ; c; ) = exp Pour x
c c c
f (x; c; k; ) = 0 pour x <

46
Où > 0 est le paramètre de forme, c > 0 est le paramètre d’échelle, est le
paramètre de localisation de la distribution. La fonction de répartition pour la loi de
Weibull 3-paramètres est dé…nie par :

c
x
F (x; ; c; ) = 1 exp pour x
c
F (x; ; c; ) = 0 pour x <

Le taux de panne est donné par :

1
x
r (x; ; c; ) =
c c
Utilisation pratique
L’expression loi de Weibull recouvre en fait toute une famille de lois, certaines
d’entre elles apparaissant en physique comme conséquence de certaines hypothèses. C’est,
en particulier, le cas de loi exponentielle (c = 1) et de la loi de Rayleigh (c = 2) impor-
tantes en matière de processus stochastique. Ces lois constituent surtout des approxima-
tions particulièrement utiles dans des techniques diverses alors qu’il serait très di¢ cile
et sans grand intérêt de justi…er une forme particulière de loi. Une distribution à valeurs
positives (ou, plus généralement mais moins fréquemment, à valeurs supérieures à une
valeur donnée) a presque toujours la même allure. Elle part d’une fréquence d’apparition
nulle, croît jusqu’à un maximum et décroît plus lentement. Il est alors possible de trouver
dans la famille de Weibull une loi qui ne s’éloigne pas trop des données disponibles en
calculant c et k à partir de la moyenne et la variance observées.
Application particulière
La distribution de Weibull est souvent utilisée dans le domaine de l’analyse de la
durée de vie, grâce à sa ‡exibilité : comme dit précédement, elle permet de représenter au
moins approximativement une in…nité de lois de probabilité. La compréhension du taux
de panne peut fournir une indication au sujet de la nature des pannes.

47
– Un taux de panne décroissant relève d’une “mortalité infantile”. Ainsi, les éléments
défectueux tombent en panne rapidement, et le taux de panne diminue au cours du
temps, quand les éléments fragiles sortent de la population.
– Un taux de panne constant suggère que les éléments tombent en panne à cause
d’évènements aléatoires.
– Un taux de panne croissant suggère une “usure ou un problème de …abilité” : les
éléments ont de plus en plus de chances de tomber en panne quand le temps passe.

3.4.2 Prédiction d’une loi de Weibull

La densité d’une loi de Weibull à deux paramètres inconnus est donnée par

f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0 (7)

Cas où les données sont censurées de type II


Soit x = (x1 ; :::; xr ) les r premiérs observations ordonnées d’un échantillon de taille n
issus de (3:3), la vraisemblance s’écrit alors :

L (x= ; c) = cr r c 1
u exp ( t)

où :

Y
r
u = xi
i=1
X
r
t = xci + (n r) xcr
i=1

Prédiction sur un échantillon future


“Evans et Nigm” (1980) utilisent la méthode de “soland” en supposant que le para-
mètre c ne peut pas prendre qu’un nombre …ni de valeurs c1 ; :::; cs avec les probabilités
p01 ; :::; p0s et conditionnellement à c = cj la densité a priori sur est de type conjugée

48
naturelle (g0j ; h0j ).

g
h0j0j g0j 1
p ( =cj ) = exp f h0j g (8)
(g0j )
La densité a posteriori sur conditionnellement à cj est celle d’une loi gamma (gj ; hj )

gj = g0j + r ; hj = h0j + tj
Xr
c c
tj = xi j + (n r) xi j
i=1

La probabilité a posteriori de cj est pj

g g
p0j crj ucj h0j0j (gj ) = hj j (g0j )
pj = s
X g g
p0j crj ucj h0j0j (gj ) = hj j (g0j )
i=1

avec la densité a priori adoptée sur ( ; c), la densité prédictive p (y r x) de Y(k) est
donnée par :

N X
s X
k 1
k 1 g
p (y=x) = k ( 1)i cj pj gj hj j
k j=1 i=0
i
y cj 1
= fhj + y cj (N k + 1 + i)ggj +1

La fonction de répartition prédictive est F (y r x)

N X
s X
k 1
k 1 g
F (y=x) = k ( 1)i pj gj hj j (N k + 1 + i) 1
k j=1 i=0
i
gj yj
hj fhj + y cj (N k + 1 + i)g

49
Prédicteur de Y(k) par rapport à une fonction de perte quadratique et sous l’hypothèse :

1
8j ; 1 j s ; gj >
cj
Z1
E (Y =x) = yp (y=x) dy
0

On obtient aprés calcul en utilisant le changement de variable u = y cj (N k + 1 + i)

N X
s X
k 1
k 1 1
B (1 + 1=cj ; gj 1=cj )
( 1)i
c
E (Y =x) = k pj gj hj j 1+1 cj
k j=1 i=0
i (N k + 1 + i)

En particulier pour k = 1

N X
s
c
1
B (1 + 1=cj ; gj 1=cj )
E (Y1 =x) = k pj gj hj j 1+1 cj
k j=1 (N )

Prédiction sur un même écuantillon

Y = X(k) X(r) où r<k n

Avec la même densité a priori sur ( ; c) ; la densité prédictive de Y a été obtenue par
“Evans et Nigm”(1980) :

r X X
s k r 1
n k r 1
p (y=x) = (k r) ( 1)i
k r j=1 i=0 i
( )
cj 1
1 gj y
cj pj gj y cj hj :
[hj + y cj (n k + 1 + i)]gj +1

La fonction de répartition pédictive est :

50
r X X
s k r 1
n ( 1)i k r 1
F (y=x) = 1 (k r)
k r j=1 i=0 (n k + 1 + i) i
g
pj hj j
[hj + y cj (n k + 1 + i)]gj

En particulier pour k = r + 1

g
X
s
pj hj j
F (y=x) = 1
j=1
[hj + y cj (n r)]gj

Cas où les données sont de type attribut


Prédiction de y = y(k) ; 1 k N
1) vraisemblance et densité a posteriori
X étant le nombre de défaillances observées dans [0; T ] ; la vraisemblance s’écrit
alors :

n
L (x= ; c) = [1 exp ( T c )]x exp [ T c (n x)] ; x = 0; :::; n
x
On applique la méthode de “soland” en supposant que c ne peut pas prendre qu’un
nombre …ni de valeurs c1 ; :::; cs avec les probabilités a priori p01 ; :::; p0s .
La densité a priori sur ( ; c) est donnée en (8) ; la densité a posteriori p ( ; cj =x) serait
alors :

L (x= ; cj ) p ( =cj ) p0j


p ( ; cj x) = Z1
X
s
p0j L (x= ; cj ) p ( =cj ) d
j=1 0
g
1 X
x
i x h0j0j g0j 1
p ( ; cj =x) = ( 1) p0j exp f [h0j + T cj (n x + i)]g
K i=0 i (g0j )

51
où g0j
X
s X
x
i x h0j
K= ( 1) p0j c
j=1 i=0
i h0j + T (n
j x + i)

2) Densité prédictive de Y = Y(k) ; 1 k N


La densité de la k ieme statistique d’ordre d’un échantillon de taille N est :

N X
k 1
k 1
p (y= ; c) = k cy c 1
( 1)m exp f [y c (N k + 1 + m)]g (9)
k m=0
m

On note

( ) = p (y= ; cj ) p ( ; cj =x)
g
k Nk X X
k 1 x
x k 1 h0j0j
( ) = p0j ( 1)i m
cj y cj 1
K m=1 i=0 i m (g0j )
g0j
f exp [ fy cj (N k + 1 + m) + T cj (n x + i) + h0j g]g

On intègre ( ) par rapport à puis on somme par rapport à j

k N X
s X
k 1 X
x
x k 1 g
p (y=x) = k
p0j ( 1)i+m g0j cj h0j0j
K j=1 m=0 i=0
i m
( )
y cj 1
g0j+1
[y cj (N k + 1 + m) + T cj (n x + i) + h0j ]

3) Fonction de répartition prédictive de Y(k)

Zz
F (z=x) = p (y=x) dy
0

52
On obtient aprés l’intégration :

k N X
s X
k 1 X
x
x k 1 g
F (z=x) = k
( 1)i+m p0j h0j0j (N k + 1 + m) 1
K j=1 m=0 i=0
i m
cj g0j
[T (n x + i) + h0j ]
g0j
[z cj (N k + 1 + m) + T cj (n x + i) + h0j ]

4) Prédicteur de Y(k) par rapport à une fonction de perte quadratique

Z1
E (Y =x) = yp (y=x) dy
0

k N X
s X
k 1 X
x
x k 1 g
E (Y =x) = k
p0j ( 1)i+m g0j cj h0j0j
K j=1 m=0 i=0
i m
B (1 + 1=cj ; g0j 1=cj ) 1 cj
g0j
1+1=cj
[T cj (n x + i) + h0j ]
(N k + 1 + i)

Prédiction sur un même écuantillon


Soit r, le nombre de pannes observé dans [0; T ] ; r < n. On s’intéresse à la prédiction
de Y = X(r+l) ; l = 1; :::; n r.
La densité de Y est donnée par :

r X
l 1
n
f (y= ; cj ) = l ( 1)k cj y cj 1
l k=0
cj
exp f (y T cj ) (n r l + k + 1)g I[T;+1[ (y)

1) Densité prédictive de Y

53
s Z
X
1

p (y=r) = p (y= ; cj ) p ( ; cj =r) d


j=1 0

1 n r XXX
s r l 1
r l 1 g
= l ( 1)i+k p0j g0j cj h0j0j y cj 1
K l j=1 i=0 k=0
i k
(g0j +1)
fT cj (n r + i) + h0j + (y cj T cj ) (n r l + k + 1)g

I[T;+1[ (y)

2) Fonction de répartition prédictive

Zz
F (z=r) = p (y=r) dy pour z T
T

1 n r XXX
s r l 1
r l 1 g
p (y=r) = l ( 1)i+k p0j h0j0j
K l j=1 i=0 k=0
i k
g0j
[h0j + T cj (n r + i)]
h cj
i g0j
h0j + T cj (l + i k 1) + z (n r l + k + 1)

3) Prédicteur de Y = x(r+l) par rapport à une fonction de perte quadratique et sous


l’hypothèse :

54
1
8j ; 1 j s ; gj >
cj
Z1
E (Y =x) = yp (y=x) dy
0

1 n r XXX
s r l 1
r l 1 g
= l ( 1)i+k p0j g0j cj h0j0j
K l j=1 i=0 k=0
i k
Z1
y cj
c g0j +1 dy
h0j + T cj (l + i k 1) + y j (n r l + k + 1)
T

On fait le changement de variable u = y cj on obtient aprés calcule :

k n r X
s X
r X
l 1
r l 1 g
E (Y =r) = l
( 1)i+k p0j g0j cj h0j0j
K j=1 i=0 k=0
i m
( )
Bt (1=cj 1; g0j 1=cj )
1 1+1 cj
(n r l + k + 1) [h0j + T cj (l + i k 1)]g0j 1 cj


h0j + T cj (l + i k 1)
t = T cj
(n r l + k + 1)
Cas où les données sont complètes
Avec des données complètes sur un n-échantillon tiré de (7) , on étudie la prédiction
de la k ieme statistique d’ordre d’un échantillon future de taille N issu de (7)
1) Vraisemblance et densité a posteriori
Soit X = (X1 ; :::; Xn ) le vecteur des observations, la vraisemblance s’écrit alors :

Y
n X
n
n n c 1
L (x= ; c) = c u exp ( t) où u= xi et t = xci
i=1 i=1

On applique la méthode de “soland” en supposant que c ne peut prendre q’un nombre


…ni de valeurs c1 ; :::; cs avec les probabilités a priori p01 ; :::; p0s , la densité a priori sur

55
( ; c) est donnée en (8) ; la densité a posteriori p ( ; cj =x) serait alors :

L (x= ; cj ) p ( =cj ) p0j


p ( ; cj =x) = Z1
X
s
p0j L (x= ; cj ) p ( =cj ) d
j=1 0

g
" ( n )#
1 n Y
n
c 1 h0j0j X
g0j +n 1
p ( ; cj =x) = c xi j p0j exp xci + h0j
L j i=1
(g0j ) i=1

g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1

2) Densité prédictive de Y = Y(k) ; 1 k N


La densité de la k ieme statistique d’ordre d’un échantillon de taille N est donnée en
(9) ; la densité prédictive p (y n x) serait alors :

s Z
X
1

p (y=x) = p (y= ; cj ) p ( ; cj =x) d


j=1 0

g
k N X
s X
k 1
m k 1 Y
n
c 1 h0j0j
p (y=x) = k
cn+1
j ( 1) xi j p0j
L j=1 m=0
m i=1
(g0j )
cj 1
y (g0j + n + 1)
" !#g0j +n+1
X
n
y cj (N k + 1 + m) + xci + h0j
i=1

3) Prédicteur de Y(k) par rapport à une fonction de perte quadratique

56
g
k N X
s X
k 1
m k 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = k
cnj ( 1) (N k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j

(g0j + n + 1) xci + h0j B (1=cj + 1; n + g0j 1=cj )


i=1

g
X
s Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
j=1 i=0
(g0j ) X
n
xci + h0j
i=1

4) Densité prédictive de Y = X(k) X(r) ; k r n


Avec la même densité a priori sur ( ; c) ; la densité prédictive de Y a été obtenue par
“Evans et Nigm”(1980) :

g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
p (y=x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
cj 1
y (g0j + n + 1)
" !#g0j +n+1
X
n
y cj (N k + 1 + m) + xci + h0j
i=1

5) Prédicteur de Y = X(k) X(r) par rapport à une fonction de perte qua-


dratique

g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j

(g0j + n + 1) xci + h0j B (1=cj + 1; n + g0j 1=cj )


i=1

57
Chapitre 4

Application

On va appliquer les méthodes de prédictions bayésiennes pour obtenir des prédic-


tions d’un échantillon future indépendant de l’échantillon initial. Notre échantillon initial
conserne les temps de bon fonctionnement (en h) entre deux défaillances consécutives
relevés de l’historique des pannes de pompes de même type et travaillant dans les même
conditions. Les temps de bon fonctionnement est donnée dans le tableau suivant :

26 132 245 43 145 247 59 151 282 296 80


180 307 94 192 320 98 202 350 112 210 385
125 220 474 44 299 68 57 69 82 255 39
151 106 49 170 225 260 300 320 330 390 490
80 110 68 86 100 61 120 94 135 74 170
145 73 167 179 145 78 167 516 205 312 495
402 570 671 801 940 215 302 435 35 68 134
360 460 540 405 340 630 220 400 130 190 425
29 54 146 268 114 378 304 461 524 623 740
790 829 846 860 910

58
4.1 Prédiction Bayésienne
Nous allons e¤ectuer des simulations pour obtenir des prédictions dans un échantillon
future indépendant du premier et de taille N de

Y = Y(k) 1 k N

Puis, les prédictions dans un même échantillon de

Y = X(k) X(r) r k n

Dans le cas d’une distribution de loi de Weibull à 2-paramètres dont la densité est

f (x) = c (x)c 1
exp ( xc ) x>0; ;c > 0

est pour des données de type complètes.


Un prédicteur de Y = Y(k) est donné par

g
k N X
s X
k 1
m k 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = k
cnj ( 1) (N k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j

(g0j + n + 1) xci + h0j B (1=cj + 1; n + g0j 1=cj ) (10)


i=1

g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1

Un prédicteur de Y = X(k) X(r) est donné par

59
g
(k r) n r
k r
X
s kX
r 1
m k r 1 1
1 Y
n
c 1 h0j0j
E (Y =x) = cnj ( 1) (n k + 1 + m) cj
xi j p0j
L j=1 m=0
m i=1
(g0j )
! c1 n g0j
X
n j

(g0j + n + 1) xci + h0j B (1=cj + 1; n + g0j 1=cj ) (11)


i=1

g
X
n Y
n
c 1 h0j0j (g0j + n)
L= p0j cnj xi j !g0j +n
i=1 i=0
(g0j ) X
n
xci + h0j
i=1


n : le nombre de temps de bon fonctionnement, n = 104
N : la taille de l’échantillon futur N = 2
x : le temps de bon fonctionnement observé ; x = 0; :::; n
cj : le paramètre de forme de la loi de Weibull, il suit une loi uniforme discrète sur
l’intervalle (1,9) avec prbabilité 1/4
g0j ; h0j : sont les parmètres de la loi a priori sur qui est de type (g0j ; h0j ), où la
densité a priori prédictive de Y est
" c
#g0j
h0jj
P (Y y) = c ; y>0
h0jj + y cj

on donne 2 percentiles a priori pour la distribution de durée de vie, et pour chaque cj on


obtient les valeurs de g0j ; h0j (voir annexe 1,2)

60
4.2 Annexes

4.2.1 Annexe 1

Par logiciel minitab, on obtenu les résultats suivants


p(x 369) = 0:3
p(x 825) = 0:1

cj 1.5 2.5 3.5 4.5


g0j 1.66 2.86 0.79 1.25
h0j 480 230.6 630.5 255.3
(g0j ) 1.69 6.32 1.36 6.39
(n + 1 + g0j ) 5.69*108 9.39*109 4.66*106 3.69*1010
(n + g0j ) 9.69*105 6.98*106 5.69*106 5.36*107
1 + 1=cj 1.66 1.4 1.28 1.22
(n + g0j 1=cj ) 105 107 106 104.5
B (1 + 1=cj ; n + g0j 1=cj ) 1.65 1.50 1.36 1.39

L’équation (10) est résolue par le programme (voir annexe 3). Les résultats de la
prédiction sont données dans le tableau suivant :

la prédiction
k=1 258.5
k=2 680.36

61
4.2.2 Annexe 2

p(x 369) = 0:3


p(x 825) = 0:1

cj 1.5 2.5 3.5 4.5


g0j 1.66 2.86 0.79 1.25
h0j 480 230.6 630.5 255.3
(g0j ) 1.69 6.32 1.36 6.39
(n + 1 + g0j ) 5.69*108 9.39*109 4.66*106 3.69*1010
(n + g0j ) 9.69*105 6.98*106 5.69*106 5.36*107
1 + 1=cj 1.66 1.4 1.28 1.22
(n + g0j 1=cj ) 105 107 106 104.5
B (1 + 1=cj ; n + g0j 1=cj ) 1.65 1.50 1.36 1.39

L’équation (11) est résolue par le programme (voir annexe 3). Les résultats de la
prédiction sont données dans le tableau suivant :

la prédiction
k =r+1 369.69
k =r+2 298.39

62
4.2.3 Annexe 3

Programme 1
On utilise dans le programme les changements suivants :
(g0j ) = u (j)
(n + 1 + g0j ) = l (j)
(n + g0j ) = f (j)
B (1 + 1=cj ; n + g0j + 1=cj ) = b (j)

function calcul
global calcul
clc
clear all
close all
X=[X1 ,...,X104 ] ;
n=104 ;
s=4 ;
N=2 ;
k=[1,2] ;
c=[c1 ,c2 ,c3 ,c4 ] ;
g=[g1 ,g2 ,g3 ,g4 ] ;
h=[h1 ,h2 ,h3 ,h4 ] ;
B=[b1 ,b2 ,b3 ,b4 ] ;
u=[u1 ,u2 ,u3 ,u4 ] ;
l=[l1 ,l2 ,l3 ,l4 ] ;
f=[f1 ,f2 ,f3 ,f4 ] ;
num=0 ;
for j=1 :s ;
somme=0 ;

63
for m=0 :k-1 ;
somme=somme+(-1)^m*(factorial(k-1)/(factorial(m)*(factorial(k-1+m)))
*(N-k+1+m)^(-1/c(j)-1) ;
end
num=num+c(j)^n*prod(X.^(c(j)-1))*(sum(X.^c(j))+h(j))^((1/c(j))-n-g(j))
*b(j)*(h(j)^g(j))*(I(j)/u(j))*somme ;
end
num
denum=0 ;
for j=1 :s
denum=denum+c(j)^n*prod(X.^(c(j)-1))*(h(j)^g(j))*(f(j)/u(j))
*(sum(X.^c(j))+h(j))^(-g(j)-n) ;
end
denum
total=(k*factorial(N)/(factorial(k)*factorial(N-k))*num)/denum

64
Programme 2
On utilise les changements du programme 1
function calcul
global calcul
clc
clear all
close all
X=[X1 ,...,X104 ] ;
n=104 ;
s=4 ;
r=20 ;
k=[r+1,r+2] ;
c=[c1 ,c2 ,c3 ,c4 ] ;
g=[g1 ,g2 ,g3 ,g4 ] ;
h=[h1 ,h2 ,h3 ,h4 ] ;
B=[b1 ,b2 ,b3 ,b4 ] ;
u=[u1 ,u2 ,u3 ,u4 ] ;
l=[l1 ,l2 ,l3 ,l4 ] ;
f=[f1 ,f2 ,f3 ,f4 ] ;
num=0 ;
for j=1 :s ;
somme=0 ;
for m=0 :k-r-1 ;
somme=somme+(-1)^m*(factorial(k-r-1)/(factorial(k-r-1-m)*(factorial(m)))
*(n-k+1+m)^(-1/c(j)-1) ;
end
num=num+c(j)^n*prod(X.^(c(j)-1))*(sum(X.^c(j))+h(j))^((1/c(j))-n-g(j))
*b(j)*(h(j)^g(j))*(I(j)/u(j))*somme ;

65
end
num
denum=0 ;
for j=1 :s
denum=denum+c(j)^n*prod(X.^(c(j)-1))*(h(j)^g(j))*(f(j)/u(j))
*(sum(X.^c(j))+h(j))^(-g(j)-n) ;
end
denum
total=((k-r)*factorial(n-r)/(factorial(k-r)*factorial(n-k))*num)/denum

66
Chapitre 5

Conclusion Générale

Dans ce mémoire, nous avons essayé d’appliquer les déférentes techniques de la pré-
diction Bayésienne de la durée de vie d’un échantillon future. Ces techniques montrent
bien l’intérêt analytique et numérique surtout la résolution des distributions prédictives
pour trouver la réponse à tout problème d’inférence statistique.
Nous pouvons dire que les statistiques en générale, et la méthode Bayésienne en par-
ticulier, basée sur le retour d’expérience et l’état des connaissances et il est nécessaire de
développer les divers méthodes pour s’assurer la qualité des données de retour d’expé-
rience.
Leur intérêt est la réduction importante du temps de calcul pour obtenir un meilleur
estimateur.

67
Bibliographie

[1] Robert. C.l’analyse statistique Bayesienne. (1992) Economica.

[2] Evans I.G. and Nigm A.H.M..Bayesian prediction for two-parameter weibull lifetime
models. to appear in comm in statist, 1980-pp121-125.

[3] Ycart.B.Notions de …abilité. Cahier de Mathématiques Appliquées n0 13:

[4] Michelle.V.Estimation Bayesienne par des méthodes MCMC. Thèse de Doctorat


1999.

[5] Ringler. J.Réduction des coûts d’essais de …abilité par la pratique des techniques
Bayesiennes. Revue de statistique appliquée, tome 27 , n0 2 (1979), p.55-68.

[6] Ringler. J.Une modélisation Bayesienne du taux de défaillance en …abilité. Revue de


statistique appliquée, tome 29 , n0 1(1981), p.43-56

[7] Dunsmore I.R. The Bayesian predictive distribution in life testing models. Techno-
metrics, Vol 16 N 3 (1974) 445-450.

[8] S. K. Sinha.Bayes estimation of the reliability function and hasard rate of a weibull
failure time distribution. Trabajos de Estadistica. Vol. 1. Nùm. 2, 1986, pp. 47 a 56.

[9] Berger. J. Statistical decision theory. Foundations, concepts and methods.Springer-


Verlag. New York (1980).

[10] Berger. J. Bayesian reliability for Weibull data. in XXIIes Journées de Statis-
tiques.Tours, 1990, pp. 15-17.

[11] Geisser. S. (1993), Predictive Inference : An Introduction, New York : Chapman and
Hall.

68
[12] Mee. R. and Kushary. D. (1994). Prediction Limits for the Weibull Distribution
Utilizing Simulation. Computational Statistics and Data Analysis, 17, 327–336.

[13] Nelson. W. (1995).Weibull Prediction of a Future Number of Failures. paper presen-


ted at the 1995 Joint Statistical Meetings, Toronto, August 13–17.

[14] Harold Je¤reys. Theory of Probability. Oxford University Press. Oxford, UK, 1961
reprint edition, 1939.

[15] José M. Bernardo and Adrian F. M. Smith. Bayesian Theory. John Wiley, New
York, NY, 1996.

[16] Jean-Jacques Droesbeke, Jeanne Fine, Gilbert Saporta. Méthodes Bayésiennes en


Statistique. Paris, 2002.

69

Vous aimerez peut-être aussi