0% ont trouvé ce document utile (0 vote)
160 vues54 pages

Mémoire de Master

Ce mémoire de master présente la construction de nouveaux modèles d'analyse de la survie basés sur deux distributions continues, en se concentrant sur certaines propriétés statistiques et l'estimation des paramètres via la méthode du maximum de vraisemblance. Il aborde également les fondements théoriques de l'analyse de la survie, son historique, et ses applications dans divers domaines. La recherche se structure en trois chapitres, incluant des simulations et des comparaisons des résultats obtenus.

Transféré par

Ahmed HAMIMES
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
160 vues54 pages

Mémoire de Master

Ce mémoire de master présente la construction de nouveaux modèles d'analyse de la survie basés sur deux distributions continues, en se concentrant sur certaines propriétés statistiques et l'estimation des paramètres via la méthode du maximum de vraisemblance. Il aborde également les fondements théoriques de l'analyse de la survie, son historique, et ses applications dans divers domaines. La recherche se structure en trois chapitres, incluant des simulations et des comparaisons des résultats obtenus.

Transféré par

Ahmed HAMIMES
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université AMO de Bouira
Faculté des Sciences et des Sciences Appliquées
Département du Mathématiques

Mémoire de Master
Filière : Mathématiques
Spécialité : Recherche Opérationnelle

Thème
Sur les modéles d’analyse de la survie dans le cadre
paramétriques

Présenté par :
— Rouam Hayet
— Bellatrache Djahida

Devant le jury composé de :


Président M r Nacer Demouche MCB U. A/M/O Bouira.
Promoteur M r Said Beddek MAA U. A/M/O Bouira.
r
Examinateur M Karim Hamid MAA U. A/M/O Bouira.
Examinatrice M me Khadidja Boudane MAA U. A/M/O Bouira.

2018/2019
Dédicaces

Je dédie ce travail de longues années d’étude à :


La lumiére de ma vie, au coeur le plus tendre et le plus doux, à celle qui s’est tellement sacrifiée pour
me voir toujours meilleure : ma trés chére mére.
A lêtre le plus cher à mon coeur, à celui qui m’a toujours guidée par ses conseils et qui m’a encouragée
poursuivre mes études : Mon pére qu’allah l’accueille en son vaste paradis.
A l’esprit de mon chére amie Ogbi Ratiba.
Mes soeurs et Mes fréres et tout ma famille Rouam et la famille Bellatrache.
Mon fiancé Zaknoun Said et sa famille.
Tous ceux qui m’ont aidé de prés ou de loin.
A tous mes amis sans exception et spécialement à :Kahina,Sarah,Ahlam,Fatiha,Lamia,Widade

Hayet
Je dédie ce travail à :
A ceux qui m’ont tout donnée sans rien en retour A ceux qui m’ont encouragée et soutenue dans les
moments les plus diffciles A vous mes chers parents Le plus beau cadeau que Dieu puissent faire à
un enfant, pour leur amour et leur support continu. Que ce travail soit le temoignagée sincére et
affectueux de ma profonde reconnaissance pour tout ce que vous avez fait pour moi.
A mes chéres fréres et à mes chéres Soeurs
A Les deux familles :Bellatrache et Rouam .
J’adresse aussi mes dédicaces à mes amies avec qui j’ai passée des moments agréables.

Djahida
Résumé
On s’interesse ici à la construction des nouveaux modéles d’analyse de la survie basée sur deux
distributions continues et à étudié certaines propriétées statistique de ces modéles proposé, et
on s’interesse aussi à leur application et à l’estimation de ses paramétres en utilisant la méthode
du maximum de vraissemblance.

Mots clés :analyse de la survie,distribution, méthode du maximum de vraissemblance.

Abstract
We are interested here by the construction of two models of survival analysis based on two
continuous distribution and studied some statistical properties of the proposed models ,and we
also interested by the application of these models and by the maximum likelihood estimates of
parameters.

Key words :Survival analysis,distribution,maximum likelihood.


Remerciements

REMERCIEMENTS

Nous remercions Dieu pour le courage, la patience et la volonté qui nous


ont été utiles tout au long de notre parcours.
Nous tenons à remercier M BEDDEK SAID pour la proposition
du théme, l’encadrement de ce travail, pour ses précieux conseils et orientations.
Nous remercions également les membres du jury : M HAMID,M
DEMOUCHE et Mme Boudane pour avoir accepté d’examiner et d’évaluer
notre travail.
Nos remerciements vont à tous ceux qui ont contribué d’une quelconque maniére
à l’aboutissement de ce travail.
Nos sincéres remerciements s’adressent enfin à tous ceux qui nous ont soutenu de
prés ou de loin.
Table des matières

Introduction générale 3

1 Généralités sur l’analyse de la survie 6


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Notions préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . 6
1.2.2 La fonction de répartition . . . . . . . . . . . . . . . . . . . 6
1.2.3 Densité de probabilité f . . . . . . . . . . . . . . . . . . . . 7
1.2.4 La fonction caractéristique . . . . . . . . . . . . . . . . . . 7
1.2.5 La durée de vie . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.6 Fonction de survie S(t) . . . . . . . . . . . . . . . . . . . . 8
1.2.7 Risque instantané λ (ou taux de hasard) . . . . . . . . . . . 9
1.2.8 Quantités associées à la distribution de survie . . . . . . . . 10
1.3 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 L’estimation par la Méthode du maximum de vraisemblance 11
1.4 Les lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Loi log-normale : . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Loi log-logistique . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Les modèles d’analyse de la survie 15


2.1 Alternative de lehman . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 quelques propriétées . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3 Cas particulier . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Alternative de lehman généralisé . . . . . . . . . . . . . . . . . . . 18
2.2.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Modèle de Mélange . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.3 Cas particulier . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.4 cas générale : . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3 Simulation et résultats numériques 37


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Plan de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Résultats de la simulation . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Performance des estimateurs . . . . . . . . . . . . . . . . . . . . . 45
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

Conclusion générale 48

Bibliographie 49
Introduction générale

L’analyse de la survie remonte au XVII siècle passé dans le domaine de la dé-


mographie et avait pour objectif l’estimation de la croissance d’une population
à partir des registres de décès et de divers caractéristiques. à partir du XIX e
siècle,Ces analyses ne sont affinées avec l’apparition de catégorisations suivant des
variables exogène (sexe, nationalité,....),durant ce siècle ,les statisticiens commencé
les premiers modélisations concernant la probabilité de mourir à un certain âge,
probabilité qui sera par la suite désignée sous le terme de fonction de risque.
jusqu’en 1950,la communauté des statisticiens s’intéresse peu à l’analyse des don-
nées de survie, la principale contribution étant celle de Greenwood (1926) qui
propose une formule pour l’erreur standard d’une table de survie. En 1951,W.
Weibull propose un modèle paramétrique pour calculer la fiabilité d’un système
non réparable qui sera par la suite utilisée en analyse de la survie (la loi de Wei-
bull) [8].
en 1958 Kaplan et Meier proposent d’utiliser dans le domaine médical un esti-
mateur non paramétrique,ils présentent des résultats importants concernant cet
estimation .
l’année 1972, un modèle statistique semi-paramétrique voit le jour,gràce aux tra-
vaux de Cox ,il est intervenu des variables explicatives(exogènes) dans la fonction
de risque [8].
L’analyse de survie a pour objectifs de fournir les outils statistiques pour appré-
cier la rapidité avec laquelle un évènement survient, tester l’association statistique
entre une exposition d’intérêt et la rapidité de survenue de l’événement, et quan-
tifier cette association statistique.
L’analyse de survie doit être conduite sur des données issues d’un essai clinique
ou dune étude de cohorte. Ne pas utiliser les outils statistiques issus de l’analyse
de survie lorsque l’on travaille sur des données issues d’un essai clinique ou d’une
étude de cohorte peut conduire à des biais dans les estimations des paramètres.
Les modéles de durée constituent un outil utilisé dans de nombreux domaines :
_ Fiabilité : durée de la vie d’un matériel, durée entre deux pannes d’un matériel
réparable
_ Démographie, médecine : durée de la vie humaine, durée entre le déclenchement

3
d’une maladie et la guérison, durée séparant deux naissances
_ Économie, assurance : durée d’un épisode de chômage, durée de vie d’une entre-
prise, durée séparant deux sinistres, instant d’un défaut de paiement, durée avant
la ruine
_ Dans tous les domaines oú l’on cherche à mesurer l’instant d’arrivée d’un évé-
nement aléatoire (panne, mort, maladie, chômage,)
Le domaine d’application de ces modèles est donc large.
L’analyse des données de survie a pour première particularité de ne concerner que
des variables aléatoires positives (modélisant les durées de vie). Une conséquence
de cette particularité est que la loi normale ne sera plus ici la référence en matière
de distribution. Le plus souvent, toute autre loi issue de la famille exponentielle,
et à support dans R+ , lui sera préférée.
Dans ce travail,nous allons nous intéresser à la construction de nouveaux modèles
pour l’analyse des données de survie dans un cadre paramétrique en faisant appel
à un degré de sophistication supérieur à la simple modélisation d’un échantillon I
ID de loi paramétrique fixé à priori .
la premier modèle est basé sur un mélange proportionnel de lois de probabilité
,qu’on le définit par la formule :

G(x) = [p1 F1 (x) + p2 F2 (x)]α

avec : F1 (x) et F2 (x) sont deux fonctions de répartitions et α un nombre réel


positif
et 0 ≤ p1 ≤ 1 , 0 ≤ p2 ≤ 1.
le deuxième modèle est inspiré de l’approche de Kolmogrov-Lehman ,on le définit
par la formule :
p1 F1 (x) + p2 F2 (x)
G(x) =
2 − F1 (x)
avec : F1 (x) et F2 (x) sont des fonctions de répartitions
dans les deux modèles,nous avons pris deux lois de Weibull de paramètres diffé-
rents .
pour cela nous avons structuré notre mémoire en trois chapitres ,dans le premier
chapitre nous exposons les notions préliminaires d’analyse de survie que nous uti-
liserons par la suite,dans le deuxième chapitre,nous définissons un modèle qui
s’appelle l’alternative de Lehman et nous présentons les deux modèles que nous
le proposons,enfin,dans le troisième chapitre nous faisons une petite simulation et
nous établissons une comparaison entre les résultats de modèle de lehman et les
deux modèles proposé.

4
5
Chapitre 1

Généralités sur l’analyse de la survie

1.1 Introduction
l’objectif de ce chapitre est de fixer le cadre Générale de ce travail et d’introduire
certaines notions et concepts élémentaires nécessaires et connus dans la littérature

1.2 Notions préliminaires


1.2.1 Variable aléatoire réelle
Définition 1.1. [7]
on appelle variable aléatoire (v.a) toute application mesurable T d’un espace
de probabilité (Ω, F, P ) dans un espace mesurable (B,B).

1.2.2 La fonction de répartition


Définition 1.2. [10]
La fonction de répartition (distribution function) est une notion clé de la théo-
rie des probabilités. Elle indique, pour la valeur donnée prise par une variable
aléatoire (v.a), un cumul de probabilités.
Soit une fonction F associée à une v.a T. F est une fonction de répartition si :

F (T ) = P (T ≤ t).

Cette fonction est croissante sur R ,continue à droite. Elle varie de 0 à 1, autre-
ment dit :

6
lim F (t) = 0, lim F (t) = 1
t−→−∞ t−→+∞

Si la v.a est discrète, il s’agit d’une fonction en escaliers. Soit pi la probabilité que
T prenne la valeur ti .
Appliquons la propriété des probabilités totales :
X
F (t) = Pi
ti ≤t

Si la v.a est absolument continue


Z t
F (t) = f (u)du
−∞

dans le domaine de l’analyse de la survie La fonction de répartition (ou c.d.f. pour


"cumulative distribution function") représente, pour t fixé, la probabilité de mou-
rir avant l’instant t, c’est-à -dire

F (t) = P (T ≤ t)

1.2.3 Densité de probabilité f


Définition 1.3. C’est la fonction f (t) ≥ 0 telle que pour tout t ≥ 0
Z t
F (t) = f (u)du
0

Si la fonction de répartition F admet une dérivée au point t alors :


p(t < T < t + h)
f (t) = lim = F 0 (t)
h−→0 h
Pour t fixé, la densité de probabilité représente la probabilité de mourir dans un
petit intervalle de temps après l’instant t.

1.2.4 La fonction caractéristique


Définition 1.4. soit X une variable aléatoire,on appelle fonction caractéristique
de x la fonction φx définie sur R à valeurs complexes, par :

7
φx (t) = E(exp itx)
en pratique,suivant le cas, la formule est différent :

— si X est une variable discrète finie :


n
X
φx (t) = exp(itxj )P (X = xj )
j=1

— si X est une variable discrète dénombrable :


+∞
X
φx (t) = exp(itxj )P (X = xj )
j=1

— si X est une variable réelle :


Z +∞
φx (t) = exp(itx)f (x)dx
−∞

1.2.5 La durée de vie


Définition 1.5. On appelle durée de vie une variable aléatoire T positive, géné-
ralement, la durée s’écoulant entre deux événements.
Ex d’événements. : mort, panne, sinistre, entrée en chômage, maladie.

Modèles de durée de vie


sous-ensemble de méthodes statistiques adaptées à l’étude des durées de vie.

1.2.6 Fonction de survie S(t)


Définition 1.6. [10, 5]
La fonction de survie est égale à la probabilité que le décés intervienne après
un temps t donné (appelée également courbe de survie).

S(t) = P (t < T )

avec S(t) est une fonction monotone décroissante


T est une variable aléatoire symbolisant le moment du décés, et P est la fonction

8
probabilité.
S(0) = 1 et limt−→+∞ S(t) = 0
Remarquons que :

S(t) = P (T ≥ t) = 1 − P (T ≤ t) = 1 − F (t)

1.2.7 Risque instantané λ (ou taux de hasard)


Définition 1.7. [10, 5]
Le risque instantané (ou taux d’incidence), pour t fixé caractérise la probabilité
de mourir dans un petit intervalle de temps après t, conditionnellement au fait
d’avoir survécu jusqu’au temps t (c’est à -dire le risque de mort instantané pour
ceux qui ont survécu) :
p(t < T < t + h/t ≤ T ) f (t) f (t)
λ(t) = lim = =
h−→0 h S(t) 1 − F (t)

Propriétés du taux de hasard :


Quand on analyse des durées de vie, les 5 formes les plus usuelles de taux de
hasard sont :
— Un taux de hasard décroissant est caractéristique d’un système qui s’amé-
liore (phase de déverminage ou de jeunesse, « burn in », mortalité infantile)

h décroit↔ Loi de T DFR (decreasing failure rate)

— Un taux de hasard constant est caractéristique d’un système qui ne vieillit


pas (phase d’exploitation ou de vie utile)

h constant ↔ Loi de T exponentielle

— Un taux de hasard croissant est caractéristique d’un système qui se détériore


(phase d’obsolescence ou de vieillissement)

h croit ↔ Loi de T IFR (decreasing failure rate)

— En cloche

9
— En forme de baignoire

1.2.8 Quantités associées à la distribution de survie


Soit X une variable aléatoire réelle définie sur I, de fonction de répartition Fx
et de loi de probabilité P.

Moment ordinaire

Définition 1.8. [13]


Le moment (ou moment ordinaire) d’ordre r ∈ N de X est défini, s’il existe, par :
X
µr = k r Pk
k∈I
si X est discrète
Z
µr = xr fX (x)dx
x∈I
si X est absolument continue

Moment centré

Définition 1.9. [13]


Le moment centré d’ordre r ∈ N de X est défini, s’il existe, par :
X
r
µr = E([x − E(x)] ) = [k − E(x)]r Pk
k∈I
si X est discrète
Z
µr = [x − E(x)]r f (x)dx
x∈I
si X absolument est continue

1.3 Estimation
Un estimateur du paramètre inconnu θ d’un modèle ou loi de probabilité est une
fonction qui fait correspondre à une suite d’observations t1 .....tn issues du modèle

10
ou de la loi de probabilité, la valeur θ que l’on nomme estimateur ou estimation
θ̂ = f (t1 .....tn )

1.3.1 L’estimation par la Méthode du maximum de vraisemblance


La Méthode du maximum de vraisemblance est une Méthode d’estimation pa-
ramétrique qui doit sa popularité à :

— la simplicité de son approche


— l’aspect numérique accessible grâce à l’application de Méthode d’optimisa-
tion connues.
Elle permet de :
— construire des estimateurs performants
— construire des intervalles de confiances précis
— mettre en ouvre des tests statistiques "puissants"

Fonction de vraisemblance

Définition 1.10. [1]


on appelle fonction de vraisemblance pour (t1 , ..., tn ) la fonction de θ :
n
Y
L(t1 , ..., tn , θ) = f (ti θ)
i=1
avec :

pθ (T = t) si T est une var discrte
f (ti ; θ) =
fθ (T ) si T est une var de densit fθ

Estimateurs du maximum de vraisemblance

On appelle estimateur du maximum de vraisemblance de θ(EMV) pour (t1 , ..., tn )


un réel θ∗ qui maximise la fonction de vraisemblance Ln (t1 , ..., tn , θ) i.e pour tout
θ:

Ln (t1 , ..., tn , θ) ≤ Ln (t1 , ..., tn , θ∗ )


Une expression alternative est :

θ∗ ∈ arg max Ln (t1 , ..., tn , θ)

11
ou arg max désigne l’argument du maximum qui est l’ensemble des points en
lesquels une expression atteint sa valeur maximale.
Puisqu’il dépend de (t1 , ..., tn ), θ∗ est une estimation ponctuelle de θ

Fonction de Log-vraisemblance

On appelle fonction de log-vraisemblance pour (t1 , ..., tn ) la fonction de θ définie


par :
ln (t1 , ..., tn , θ) = ln Ln (t1 , ..., tn , θ)

Elle n’a de sens que si θ vérfie Ln (t1 , ..., tn , θ) > 0


La fonction logarithme népérien étant croissante, l’emv θ∗ de θ pour (t1 , ..., tn )
vérfie :

θ∗ ∈ arg max Ln (t1 , ..., tn , θ) = arg max ln (t1 , ..., tn , θ)

Équation de vraisemblance

On appelle équation de vraisemblance l’équation en θ :


∂ln (t1 , ..., tn , θ)
=0
∂θ

Expression analytique de l’emv

Pour envisager d’avoir une expression analytique de l’emv θ∗ de θ pour (t1 , ..., tn )
une idée est d’exprimer Ln (t1 , ..., tn , θ) en fonction de produits de termes exponen-
tiels/puissances, puis de considérer la fonction de log-vraisemblance ln Ln (t1 , ..., tn , θ)
Si cette derniére est dérivable en θ, une condition nécessaire que doit vérifier θ∗
est d’être solution de l’équation de vraisemblance. Il faut ensuite vérifier que θ∗
est bien un maximum pour Ln (t1 , ..., tn , θ)

1.4 Les lois usuelles


Le choix du modéle détermine en particulier la forme de la fonction de hasard ;
on distinguera notamment les modéles à fonction de hasard monotone des modéles
permettant d’obtenir des fonctions de hasard " en cloche " ou en " U " ; ces derniers
modéles sont peu usités en assurance, la situation de référence étant un taux de
hasard croissant (au sens large) avec le temps.

12
1.4.1 La loi exponentielle
[5] La spécification la plus simple consiste à poser h(t) = λ, avec λ > 0. On en
déduit immédiatement que :

S(t) = exp(−λt)

Le modèle exponentiel est caractérisé par le fait que les fonctions de survie
conditionnellesSu , u > 0 sont exponentielles de même paramètre λ > 0. Cela si-
gnifie que le comportement de la variable aléatoire T après l’instant u ne dépend
pas de ce qui est survenu jusqu’en u. Il est également caractérisé par le fait que la
fonction de survie est multiplicative, au sens oú :

S(u + t) = S(u)S(t)
.

On vérifie aisément par un calcul direct que :


1
E(T ) =
λ
et
1
V (T ) =
λ2
. L’estimation du paramètre λ est classique, à partir de l’expression :
n
X
n
L(λ) = λ exp(−λ Ti )
i=1
qui conduit facilement à :
n
λ̂ = Pn
i=1 Ti

1.4.2 Loi log-normale :


En théorie des probabilité et statistique , une variable aléatoire T est dite suivre
une loi log-normale de paramètre µ et σ 2 si la variable Y = ln T suit une loi nor-
male d’espérance µ et de variance σ 2 .La loi log-normale est aussi appelée loi de
Galton

13
la densité de T est alors :[2, 6]
1 1 1 log t − µ 2
f (t) = √ exp(− ( ))
σ 2π t 2 σ
Où µ est le paramètre d’échelle et σ est le paramètre de forme.
T admet alors une espérance mathématique et une variance sont :
σ2
E(T ) = exp(µ + )
2
et

V (T ) = exp(2µ + σ 2 )[exp(σ 2 ) − 1]

1.4.3 Loi log-logistique


T suit une Loi log-logistique de paramètre α et β si sa densité est définie par :[6]
t−α
exp(− )
β
f (t, α, β) =
t−α 2
β(1 + exp(− ))
β
et sa fonction de répartition définit comme suit :
1
F (t, α, β) =
t−α
)
1 + exp(−
β
Son espérance et sa variance sont données par les formules suivantes :

E(T ) = α
β 2π2
V (T ) =
3

1.5 conclusion
nous avons présenté dans ce chapitres des généralités et les différents modèles
paramétriques de l’analyse de survie,dans le chapitre suivant nous allons intro-
duire l’alternative de Lehman et les deux modèles d’analyse de la survie que nous
proposons.

14
Chapitre 2

Les modèles d’analyse de la survie

2.1 Alternative de lehman


2.1.1 Modèle
Le modéle est définit par :[12]
F̃ (t) = [F (t)]α (2.1)
oú : F est la fonction de répartition de la distribution de probabilité de base et α
un nombre réel positif.

2.1.2 quelques propriétées


• la fonction de densitée est définit par :[12]
0
f˜(t) = F̃ (t) = α[F (t)]α−1 f (t) (2.2)
0
avec :f (t) = F (t)
• la fonction de survie :[12]

S̃(t) = 1 − F̃ (t) (2.3)

S̃(t) = 1 − [F (t)]α (2.4)


• la fonction de hasard :[12]

f˜(t)
h̃(t) = (2.5)
1 − F̃ (t)
15
α[F (t)]α−1 f (t)
h̃(t) = (2.6)
1 − [F (t)]α
h̃(t) = αh(t)g(t) (2.7)
[F (t)]α−1 − [F (t)]α
avec :g(t) =
1 − [F (t)]α

2.1.3 Cas particulier


pour α = 1 on retrouve les modèles classiques :

Le modèle de Weibull

Loi modélisant un système série[2, 5] (le système est défaillant dès lors qu’un
de ses composants l’est), dans ses trois phases de
 vie
k t t
f (t) = ( )k−1 exp(− )k


λ λ λ




 t k
 F (t) = 1 − exp(− )

T ∼ W (k, λ), k(f orme) > 0,λ(échelle) > 0 ↔ λ
k t k−1

 h(t) = ( )
λ λ


1



 E(T ) = λΓ(1 + )

k
•0<k<1↔F DFR lim h(t) = +∞ ; lim h(t) = 0
h→0 h→∞
1
• k = 1 ↔ La loi de T est exponentielle
α
• k > 1 ↔ F F IFR lim h(t) = 0 ; lim h(t) = +∞
h→0 h→∞
• La loi de Weibull est une généralisation simple du modèle exponentiel, permet-
tant d’obtenir des fonctions de hasard monotone.
• Lorsque λ = 1 et k = 2 ce modèle porte le nom de « modèle de RAYLEIGH» ;
il est utilisé en physique pour modéliser la durée de vie de certaines particules.
La loi de Weibull apparaît naturellement dans l’étude de la distribution limite du
minimum d’un échantillon I.I.D

• L’estimation des paramètres :


k t t
Soit f (t) = ( )k−1 exp −( )k
λ λ λ
1
on pose : θ = k
λ

16
on aurra donc :
f (t) = θktk−1 exp −θtk
la fonction de Qnvraisemblance associé a cette fonction de densité est :
L(t,
Qn
θ, k) = i=1 f (ti )
= i=1 P θktk−1
i exp −θtki P
= θn k n ni=1 tk−1
i exp(−θ ni=1 xki )
ln L(t, θ, k) = n ln θ + n ln k + (k − 1) ni=1 ln ti − θ ni=1 tki
P P
on dérive ln L(.) par-rapport a θ et k
 n P
 ∂ ln L = − ni=1 tki = 0
∂θ θ P
 ln L = n + n ln ti − θ n tki ln ti = 0
∂ P
∂k i=1 i=1
k
la
 résolution de ce système d’équations donne :
n
 θ̂ = Pn k

i=1 ti
n
 k̂ = Pn k

θ i=1 ti ln ti − ni=1 ln ti
P

Loi gamma

Le modèle Gamma est une autre généralisation naturelle du modèle


exponentiel :[2, 5, 4] supposons que la durée T,soit la durée d’attente de la réa-
lisation d’un service dans une file d’attente et que la file d’attente soit composée
de r serveurs indépendants et identiques qui traitent chacun une partie du service
(ils sont donc montés en série). On fait l’hypothèse que la durée de réalisation du
traitement de chacun des serveurs est une loi exponentielle de paramètre λ > 0
. Alors la durée globale de service est la somme de r variables exponentielles de
même paramètre ; on en déduit que la durée de service est distribuée selon une loi
Gamma de paramètre (r, λ) :
λr r−1


 f (t) = t exp(−λt)
Γ(r)



1 R λt r−1




 F (t) = 0 u exp(−u)du


 Γ(r)
f (t)


T 2Γ(λ, r), λ(f orme) > 0,r(échelle) > 0 ↔ h(t) =
1 − F (t)
r




 E(T ) =



 λr

 V (T ) = 2
λ


 R +∞
avecΓ(r) = 0 ur−1 exp(−u)du

17
1
0<r<1↔F DFR lim h(t) = +∞ ; lim h(t) =
h→0 h→∞ λ
r = 1 ↔ T de loi exponentielle de paramètre θ

r>1↔F IFR lim h(t) = 0 ; lim h(t) = λ


h→0 h→∞
•La loi gamma est une généralisation de la loi exponentielle (qui correspond à
r = 1)
• Lorsque r est entier la loi gamma s’appelle Loi d’Erlang

2.2 Alternative de lehman généralisé


2.2.1 Modèle
Soient F1 (x) et F2 (x) deux fonctions de répartition de deux lois de probabilités
de bases connues, le modèle est définit par la fonction G suivante :
G(x) = [p1 F1 (x) + p2 F2 (x)]α (2.8)
avec :α un nombre réel positif, 0 ≤ p1 ≤ 1 , 0 ≤ p2 ≤ 1 et p1 + p2 = 1. dans la
suite on pose α = 1

2.2.2 Propriétés
A• Propriété 1
G(x) est une fonction de répartition
A − 1• Preuve
on montre que (2.8) vérifie les propriétés d’une fonction de répartition :

— G(x) est continue carF1 (x) et F2 (x) sont deux fonctions continues
— 0 ≤ G(x) ≤ 1 car :
F1 (x) ≤ 1 ,donc :

p1 F1 (x) ≤ p1 ≤ 1
et : F2 (x) ≤ 1 , donc
p2 F2 (x) ≤ p2 ≤ 1
ce qui implique :

p1 F1 (x) + p2 F2 (x) ≤ p1 + p2 (2.9)

18
et on a aussi : p2 = 1 − p1 donc :
p1 F1 (x) + p2 F2 (x) ≤ 1

G(x) ≤ 1 (2.10)
F1 (x) ≥ 0 et F2 (x) ≥ 0 alors :
p1 F1 (x) ≥ 0 et p2 F2 (x) ≥ 0 donc :
p1 F1 (x) + p2 F2 (x) ≥ 0 ce qui implique :

G(x) ≥ 0 (2.11)
de (2.10) et (2.11) on aurra :
0 ≤ G(x) ≤ 1 (2.12)
— G0 (x) = p1 f1 (x) + p2 f2 (x) ≥ 0 car f1 (x) ≥ 0 et f2 (x) ≥ 0 (des fonction de
densité et 0 ≤ p1 ≤ 1 et 0 ≤ p2 ≤ 1.)
— G(+∞) = p1 F1 (+∞) + p2 F2 (+∞) = 1 (carF1 (+∞) = 1 et F2 (+∞) = 1
et p1 + p2 = 1 )

— G(−∞) = p1 F1 (−∞) + p2 F2 (−∞) = 0 (carF1 (−∞) = 0 et F2 (−∞) = 0 )

B• Propriété 2 (la fonction de hasard)


g(x)
h(x) =
1 − G(x)
p1 f1 (x) + p2 f2 (x)
h(x) = (2.13)
1 − p1 F1 (x) − p2 F2 (x)
et puisque on a p2 = 1 − p1 alors :
p1 (f1 (x) − f2 (x)) + f2 (x)
h(x) = (2.14)
1 − p1 (F1 (x) − F2 (x)) − F2 (x)
C• Propriété 3 (l’ordre statistique)
la forme générale de l’ordre statistique :
n!
gx (r) = g(xr )G(xr )r−1 (1 − G(xr ))n−r
(r − 1)!(n − r)!
1 ére ordre statistique : r=1

g1 (x1 ) = ng(x1 )(1 − G(x1 ))n−1 = n(p1 f1 (x) + p2 f2 (x))[1 − p1 F1 (x) − p2 F2 (x)]n−1

19
n éme ordre statistique : r=n

gn (xn ) = ng(xn )(G(xn ))n−1 = n(p1 f1 (xn ) + p2 f2 (xn ))[p1 F1 (xn ) + p2 F2 (xn )]n−1

D• Propriété 4 (la fonction caractéristique)


généralement la fonction caractéristique est définit par :
Z +∞
φx (t) = g(x) exp(itx)dx
0

dans notre cas :


k1 R +∞ xi xi k2
φx (t) = p1 ( ) 0 ( )k1 −1 exp(itx − ( )k1 ) + p2 ( )
λ λ1 λ1 λ2
R +∞ xi k −11 x i
0 ( ) 2 exp(itx − ( )k2 )dx
λ2 λ2

Exemple
soit f1 (x), f2 (x) deux fonctions de densités de deux loi de Weibull de para-
mètres différents
et soit F1 (x), F2 (x) leurs fonctions de répartition respectives :
k1 x x
f1 (x) = ( )( )k1 −1 exp −( )k1
λ1 λ1 λ1
x k1
F1 (x) = 1 − exp −( )
λ1
k2 x k2 −1 x
f2 (x) = ( )( ) exp −( )k2
λ2 λ2 λ2
x k2
F2 (x) = 1 − exp −( )
λ2
on remplace dansG(x) et g(x) et on trouve :
x k1 x
G(x) = p1 (1 − exp(− ) ) + p2 (1 − exp(− )k2 (2.15)
λ1 λ2

k1 x k1 −1 x k2 x x
g(x) = p1 ( )( ) exp −( )k1 + p2 ( )( )k2 −1 exp −( )k2 (2.16)
λ1 λ1 λ1 λ2 λ2 λ2
et puisque :p2 = 1 − p1 donc on peut écrire :
x k2 x x
G(x) = p1 (exp −( ) − exp(− )k1 ) + 1 − exp −( )k2 (2.17)
λ2 λ1 λ2
20
la fonction de hasard correspondante est :

g(x)
h(x) =
1 − G(x)
alors :
k1 x k1 −1 x k2 x x
p1 ( )( ) exp −( )k1 + p2 ( )( )k2 −1 exp −( )k2
λ1 λ1 λ1 λ2 λ2 λ2
h(x) = x k1 x k2
1 − p1 (1 − exp −( ) ) − p2 (1 − exp −( )
λ1 λ2

l’estimation des paramètres par la méthode du maximum de vraisem-


blance
Soit L(xi , λ1 , λ2 , k1 , k2 ) la fonction de vraisemblance,avec :
n
Y
L(xi , λ1 , λ2 , k1 , k2 ) = g(xi , λ1 , λ2 , k1 , k2 )
i=1

Qn Qn
i=1 g(xi , λ1 , λ2 , k1 , k2 ) = i=1 [p1 f1 (xi , λ1 , k1 ) + p2 f2 (xi , λ2 , k2 )]
Qn Qn
ln i=1 g(xi , λ1 , λ2 , k1 , k2 ) = ln i=1 [p1 f1 (xi , λ1 , k1 ) + p2 f2 (xi , λ2 , k2 )]
Pn
= i=1 ln[p1 f1 (xi , λ1 , k1 ) + p2 f2 (xi , λ2 , k2 )]

Maintenant on dérive la fonction de vraisemblance par-rapport a ses paramètres :


Pn
∂ i=1 ln[p1 f1 (xi ,λ1 ,k1 )+p2 f2 (xi ,λ2 ,k2 )]
∂λ1
Pn ∂ln[p1 f1 (xi ,λ1 ,k1 )+p2 f2 (xi ,λ2 ,k2 )]
= i=1 [ ∂λ1 ]
Pn ∂ln[p1 f1 (xi ,λ1 ,k1 )]
= i=1 [ ∂λ1 ]
Pn ∂[p1 f1 (xi ,λ1 ,k1 )+p2 f2 (xi ,λ2 ,k2 )] 1
= i=1 [ ∂λ1 ]
p
1 f1 (xi , λ1 , k1 ) + p2 f2 (xi , λ2 , k2 )
1
= ni=1 (p1 ∂(p1 f1∂λ
(xi ,λ1 ,k1 )
P
)
1 p1 f1 (xi , λ1 , k1 ) + p2 f2 (xi , λ2 , k2 )

21
k1 xki 1 −1 xki 1
f1 (xi , λ1 , k1 ) = exp − k1
λ1 k1 λ1
k1 −1 xki 1
= exp[ln(k1 xi ) − k1 ln λ1 − k1 ]
λ1
∂f1 (xi ,λ1 ,k1 ) k1 −k1 k1 −1 xki 1
∂λ1 = − − xi k1 ( k1 +1 ) exp[ln(k1 xi ) − k1 ln λ1 − k1 ]
λ1 λ1 λ1
2 k1
k1 xi k1 x
= − + k1 +1 exp[ln(k1 xki 1 −1 ) − k1 ln λ1 − ik1 ]
λ1 λ1 λ1
k1
−k1 λ1 + xi k1 2
k1 −1 xki 1
= exp[ln(k1 xi ) − k1 ln λ1 − k1 ]
λ1k1 +1 λ1
2 k1 −1 k1 3 k1 k1
−k1 xi λ1 + k1 xi xi
= exp −
λk11 +1 λk11
donc :
∂ ni=1 ln g(xi ,λ1 ,λ2 ,k1 ,k2 )
P Pn −k12 xki 1 −1 λk11 + k13 xki 1 xki 1
∂λ1 = i=1 [p1 ( exp − k1 )
λk11 +1 λ1
1
∗( )]
k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2
p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2
on dérive par-rapport a k1

k1 xki 1 −1 xki 1
f1 (xi , λ1 , k1 ) = exp − k1
λ1 k1 λ1
xi
= exp[ln k1 + (k1 − 1)lnxi − k1 ln λ1 − ( )k1 ]
λ1

xi
∂ exp(k1 ln )
∂f1 (xi , λ1 , k1 ) 1 λ1 xi k1
= [ +ln xi −lnλ1 − ] exp[ln k1 +(k1 −1)lnxi −k1 ln λ1 −( ) ]
∂k1 k1 ∂k1 λ1

1 xi xi xi xi
=[ + ln( ) − ln( ) exp(k1 ln( ))] exp[ln k1 + (k1 − 1)lnxi − k1 ln λ1 − ( )k1 ]
k1 λ1 λ1 λ1 λ1
1 xi xi xi xi
= [ + ln( ) − ln( )( )k1 ] exp[ln k1 + (k1 − 1)lnxi − k1 ln λ1 − ( )k1 ]
k1 λ1 λ1 λ1 λ1
k1 −1 k1
1 xi xi xi k1 xi xi
= [ + ln( ) − ln( )( )k1 ] exp −
k1 λ1 λ1 λ1 λ1 k1 λk11

22
xki 1 −1 xi k1 xki 1 −1 xi −1 xi 2k1 xi k1
= k1
+ ln( ) k
− ln( )k 1 xi ( ) exp −( )
λ1 λ1 λ1 1 λ1 λ1 λ1
donc :
Pn
∂ i=1 [ln g(xi ,λ1 ,λ2 ,k1 ,k2 ) Pn xki 1 −1 xi k1 xki 1 −1 xi −1 xi 2k1 xi k1
∂k1 = i=1 [p1 ( k1 +ln( ) k
−ln( )k 1 x i ( ) exp −( ) )
λ1 λ1 λ1 1 λ1 λ1 λ1
1
∗( )]
k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2
p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2
et puisque on a utilisé deux loi de Weibull de paramètres différents,donc de la
même manière on trouve :
∂ ni=1 ln g(xi ,λ1 ,λ2 ,k1 ,k2 )
P Pn −k22 xki 2 −1 λk22 + k23 xki 2 xki 2
∂λ2 = i=1 [p2 ( exp − k2 )
λk22 +1 λ2
1
∗( )]
k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2
p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2
et :
∂ ni=1 [ln g(xi ,λ1 ,λ2 ,k1 ,k2 )
P Pn xki 2 −1 xi k2 xki 2 −1 xi −1 xi 2k2 xi k2
∂k2 = i=1 [p2 ( k2 +ln( ) k
−ln( )k 2 x i ( ) exp −( ) )
λ2 λ2 λ2 2 λ2 λ2 λ2
1
∗( )]
k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2
p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2
on aurra donc le système d’équation suivant :

23
−k12 xki 1 −1 λk11 + k13 xki 1 xki 1

Pn
i=1 [p1 ( exp − k1 )


λk11 +1

λ1



1


∗(


 )] = 0

 k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2

 p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2



xki 1 −1 xi k1 xki 1 −1

xi x xi k1
 Pn i 2k1

−1
[p ( + ln( ) − ln( )k x ( ) exp −( ) )


i=1 1 1 i
λ1 k1 λ1 λ1 k1



 λ1 λ1 λ1

 1
∗( )] = 0


k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2


p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )



(p) λ 1 λ 1 λ1 λ2 λ 2 λ2
2 k2 −1 k2 3 k2 k2
 Pn −k2 xi λ2 + k2 xi xi


 i=1 [p 2 ( k2 +1
exp − k2
)


 λ 2 λ 2

 1
∗( )] = 0


k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2


p1 ( )( ) exp −( ) + p2 ( )( ) exp −( )




 λ 1 λ 1 λ1 λ2 λ 2 λ2
k2 −1 k2 −1

xi xi k2 xi xi −1 xi 2k2 xi k2

 P n
− −(


 i=1 [p 2 ( k
+ ln( ) k
ln( )k 2 xi ( ) exp ) )
λ λ λ λ λ λ
 2 2
2 2 2 2

 2 2
1


∗( )] = 0


k1 xi k1 −1 xi k1 k2 xi k2 −1 xi k2



 p1 ( )( )
 exp −( ) + p2 ( )( ) exp −( )
λ1 λ1 λ1 λ2 λ2 λ2
Ce système est compliqué,on peut pas le résoudre directement car les équations
sont non linéaire,pour cela nous allons faire appelle à des méthodes numériques
pour la résolution de ce système.

24
2.3 Modèle de Mélange
2.3.1 Modèle
Soit F1 (x) et F2 (x) deux fonctions de répartition,le modèle est définit par la
fonction G suivante :
p1 F1 (x) + p2 F2 (x)
G(x) = (2.18)
2 − F1 (x)
avec : 0 ≤ p1 ≤ 1 , 0 ≤ p2 ≤ 1 et p1 + p2 = 1.

2.3.2 Propriétés
A• Propriété 1
G(x) est une fonction de répartition en effet :
1 ) G(x) continue carF1 (x) etF2 (x) sont continues et 2 − F1 (x) est continue donc
G(x) est continue
2 ) 0 ≤ G(x) ≤ 1 car :
0 ≤ F1 (x) ≤ 1 et 0 ≤ F2 (x) ≤ 1 ∀x


0 ≤ p1 F1 (x) ≤ p1 (2.19)
0 ≤ p2 F2 (x) ≤ p2 (2.20)
et on a :0 ≤ p1 ≤ 1 , 0 ≤ p2 ≤ 1 donc :

0 ≤ p1 F1 (x) ≤ p1 ≤ 1 (2.21)
0 ≤ p2 F2 (x) ≤ p2 ≤ 1 (2.22)
donc :(2.21) + (2.22) ⇒ 0 ≤ P1 F1 (x) + p2 F2 ≤ p1 + p2 = 1

0 ≤ p1 F1 (x) + P2 F2 (x) ≤ 1 (2.23)
on a :0 ≤ F1 (x) ≤ 1 donc :
−1 ≤ −F1 (x) ≤ 0
⇒ 1 ≤ 2 − F1 (x) ≤ 2
1 1
⇒ ≤ ≤1 (2.24)
2 2 − F1 (x)
on multiple (2.23) et (2.24) on obtient :

25
p1F1 (x) + p2 F2 (x)
0≤ ≤1
2 − F1
⇒0 ≤ G(x) ≤ 1
p1 f1 (x) + p2 f2 [2 − F1 (x)] − (−f1 )[p1 F1 (x) + p2 F2 (x)]
3) G0(x) =
(2 − F1 (x))2
2p1 f 1(x) + f 1(x)p2F 2(x) + 2p2f 2(x) − p2f 2(x)F 1(x)
G0(x) =
(2 − F 1(x))2
f1 (x)[2p1 − p2 F2 (x) − 2p1 F1 (x)] + f2 (x)[2p2 − p2 F1 (x)]
= ≥0
(2 − F1 (x))2
⇒ G0(x) ≥ 0
p1 F1 (−∞) + p2 F2 (−∞)
4-A) G(−∞) = = 0 (carF1 (−∞) = 0
2 − F1 (−∞)
et F2 (−∞) = 0 )

p1 F1 (+∞) + p2 F2 (+∞) p1 + p 2
4-B) G(+∞) = = = 1 (carF1 (+∞) = 1 et
2 − F1 (+∞) 2−1
F2 (+∞) = 1 et p1 + p2 = 1 )

d’ou G(x) est une fonction de répartition

B• Propriété 2 (La fonction de densité)


on pose F1 (x) 6= F2 (x) donc :
La fonction de densité correspondante à la formule est :
(p1 f1 (x) + p2 f2 )[2 − F1 (x)] − (−f1 )[p1 F1 (x) + p2 F2 (x)]
g(x) =
(2 − F1 (x))2
f 1[2p1 − p2 F2 (x) − 2p1 F1 ] + f2 (x)[2p2 − p2 F1 (x)]
g(x) = (2.25)
(2 − F1 (x))2
C• Propriété 3 (La fonction de hasard )
la fonction hasard est définit par :
f1 [2p1 − p2 F2 − 2p1 F1 ] + f2 [2p2 − p2 F1 ](2 − F1 )
h(x) =
(2 − F1 )2 [2 − p1 F1 − p2 F2 ]
f1 [2p1 − p2 F2 − 2p1 F1 ] + f2 [2p2 − F1 P2 ]
h(x) = (2.26)
(2 − F1 )[2 − F1 (1 + p1 ) − p2 F2 ]

26
2.3.3 Cas particulier
Si F1 (x) =F2 (x) alors :
1) la fonction de répartition est :
F (x)
G(x) = (2.27)
2 − F (x)
2) La fonction de densité correspondante est donné par :
2f (x)
g(x) = (2.28)
(2 − F (x))2
3) la fonction de hasard correspondante est :
g(x)
h(x) =
1 − G(x)
2f (x) 2 − F (x)
=
(2 − F (x))2 2(1 − F (x))
donc :
f (x)
h(x) = (2.29)
(2 − F (x))(1 − F (x))

L’ordre statistique

on sait que la forme générale de l’ordre statistique est définit par :


n!
g(xr ) = g(xr )[G(xr )]r−1 [1 − G(xr )]n−r
(r − 1)!(n − r)!
dans notre cas :
n! 2f (xr ) F (xr ) r−1 F (xr ) n−r
g(xr ) = 2
[ ] [1 − ]
(r − 1)!(n − r)! [2 − F (xr )] 2 − F (xr ) 2 − F (xr )
le premier ordre x1 donné par

g1 (x1 ) = ng1 (x1 )[1 − G1 (x1 )]n−1


2f (x1 ) F (x1 ) n−1
g1 (x1 ) = n [1 − ] (2.30)
(2 − F (x1 ))2 2 − F (x1 )
le n’iéme ordre donné par : gn (xn ) = ng(xn )[G(xn )]n−1
2f (xn ) F (xn ) 2
gn (xn ) = n [ ] (2.31)
(2 − F (xn ))2 2 − F (xn )

27
Exemple

 soit la distribution de Wiebull définit par :


 f (x) = k ( x )k−1 exp(− x )k , x > 0

λ λ x k λ
 F (x) = 1 − exp(− )

λ
avec :f(x) est la fonction de densité et F(x) est la fonction de répartition
on remplace dans(2.27) et(2.28) on obtient :
x
1 − exp(− )k
G(x) = λ
x
2 − (1 − exp(− )k )
λ
alors :
x
1 − exp(− )k
G(x) = λ (2.32)
x k
1 + exp(− )
λ
et :
k x x
2( ( )k−1 exp(− )k )
g(x) = λ λ λ
x k 2
(1 + exp(− ) )
λ
la fonction de hasard est :
k x k−1 x
( ) exp(− )k
h(x) = λ λ λ (2.33)
x k 2 x
2 + (1 − exp(− ) ) − 3(1 − exp(− )k )
λ λ

Le moment ordinaire :
le moment ordinaire est définit par :
Z ∞
µ0 = xr g(x)dx
0

k x x
Z ∞ 2( ( )k−1 exp(− )k )
µ0 = xr λ λ λ
x k 2 dx
0 (1 + exp(− ) )
λ
28
x
k
Z ∞ xk+r−1 exp(− )k
µ0 = 2 λ
λk x k 2 dx (2.34)
0 (1 + exp(− ) )
λ

La fonction caractéristique :
R +∞ R +∞
φx (t) = −∞ exp(itx)f (x)dx = 0 exp(itx)f (x)dx

x
k
Z +∞ xk−1 exp(itx − ( )k )
φx (t) = λ
λk x k 2 dx (2.35)
0 (1 + exp(− ) )
λ

l’estimation des paramètres par la méthode du Maximum de vraisem-


blance
on a :
k x x
2 ( )k−1 exp(− )k
g(x) = λ λ λ
x k 2
(1 + exp(− ) )
λ
et
k x k−1 x
f (x) = ( ) exp(− )
λ λ λ
soit l(x, k, λ) la fonction de vraisemblance associé a notre modèle :
n
Y
l(x, k, λ) = g(xi )
i=1
Qn Qn 2f (xi )
i=1 g(xi ) = i=1
(2 − F (xi ))2
2f (xi)
log n1 g(xi) = log ni=1
Q Q
(2 − F (xi ))2
2f (xi )
= ni=1 log
P
(2 − F (xi ))2

29
k k−1 ( xi k
2 k
x i ∗ exp − )
Pn
= i=1 log[ λ λ
xi k 2 ]
(1 + exp(− ) )
λ
Pn k k−1 x i xi
= i=1 [log(2 k xi exp( − )k ) − 2 log(1 + exp(− )k )]
λ λ λ
x i
−k 2 xk−3
i λk + k 3 xki exp(− )k
λ
∂ log L(x) Pn λ k+1 2kλk−1 xki
• = i=1 [ − xi k ]
∂λ k k−1 xi k 1 + exp(− )
2 k xi exp(− ) λ
λ x λ
2 k−1 k 3 k i k
Pn (−k xi λ + k xi ) exp(− λ ) 2kλk−1 xki
= i=1 [ − xi k ]
k k−1 xi 1 + exp(− )
λk+1 2 k xi exp(− )k λ
λ λ
2 k−1 k 3 k xi k x i k
Pn (−k xi λ + k xi ) exp(− λ ) (1 + exp(− λ ) )
= i=1 [ xi xi ]
(2kλxk−1 exp(− )k )(1 + exp(− )k )
λx λ
k−1 k k−1 k
2kλ xi (2kλx exp(− ) )
− λ
x i xi
(2kλxk−1 exp(− )k )(1 + exp(− )k )
λ λ
2 k−1 k 3 k xi k 2 k−1 k 3 k xi k
Pn (−k xi λ + k xi ) exp(− λ ) + (−k xi λ + k xi ) exp(− λ )
= i=1 [ xi k xi k ]
k−1
2kλxi exp(− ) (1 + exp(− ) )
λ λ
2 2k−1 2k−1 xi k k−1 xi k
4k λ xi exp(− ) (2kλxi exp(− ) )
− λ λ
x i x
2kλxk−1
i exp(− )k (1 + exp(− )k ))
λ λ
2 k−1 k 3 k xi k
(−k x i λ + k x i ) exp(− )
Pn
= i=1 [ λ
xi xi
2kλxk−1
i exp(− )k (1 + exp(− )k )
λ λ
xi k 2 k−1 k 3 k 3 2k+1 3k+1
exp(−2 ) (−k xi λ + k xi − 8k λ xi )
− λ ]=0
k−1 xi k xi k
2kλxi exp(− ) (1 + exp(− ) )
λ λ
∂ log L(x) Pn 1 xi xi xi k kxk−1 xi
• = i=1 [( + ln( ) − ln( )( ) ( ik )) exp(− )k
∂k k λ λ λ λ λ

30
xi xi xi
2(ln( ) exp(k) ∗ ln( ) exp(− )k )
− λ λ λ ]=0
xi k
1 + exp(− )
λ

2.3.4 cas générale :


On pose F1 (x) 6= F2 (x) alors :
1) la fonction de répartition est :
p1 F1 (x) + p2 F2 (x)
G(x) = (2.36)
2 − F1 (x)
2) La fonction de densité correspondante est :
(p1 f1 (x) + p2 f2 )[2 − F1 (x)] − (−f1 )[p1 F1 (x) + p2 F2 (x)]
g(x) =
(2 − F1 (x))2
f 1[2p1 − p2 F2 (x) − 2p1 F1 ] + f2 (x)[2p2 − p2 F1 (x)]
g(x) = (2.37)
(2 − F1 (x))2
3) la fonction de hasard est :
f1 (x)[2p1 − p2 F2 (x) − 2p1 F1 (x)] + f2 (x)[2p2 − p2 F1 (x)](2 − F1 (x))
h(x) =
(2 − F1 (x))2 [2 − F1 (x) − p1 F1 (x) − p2 F2 (x)]
f1 (x)[2p1 − p2 F2 (x) − 2p1 F1 (x)] + f2 (x)[2p2 − F1 (x)P2 ]
h(x) =
(2 − F1 (x))[2 − F1 (x)(p1 + 1) − p2 F2 (x)]

L’ordre statistique de la fonction de densité

le premier ordre statistique :


g1 (x1 ) = ng1 (x1 )[1 − G1 (x1 )]n−1

f1 (x1 )[2p1 − p2 F2 (x1 ) − 2p1 F1 (x1 )] + f2 (x1 )[2p2 − p2 F1 (x1 )]


g1 (x1 ) = n
(2 − F1 (x1 ))2

p1 ∗ F1 (x1 ) + p2 ∗ F2 (x1 ) n−1


[1 − ]
2 − F1 (x1 )

31
le n’iéme ordre donné par :
gn (xn ) = ng(xn )[G(xn )]n−1

f1 (xn )[2p1 − p2 F2 (xn ) − 2p1 F1 (xn )] + f2 (xn )[2p2 − p2 F1 (xn )]


gn (xn ) = n
(2 − F1 (xn ))2

p1 F1 (xn ) + p2 F2 (xn ) n−1


∗[ ]
2 − F1 (xn )
car la forme générale de l’ordre statistique est :
n!
g(xr ) = g(xr )[G(xr )]r−1 [1 − G(xr )]n−r
(r − 1)!(n − r)!
n! f1 (xr )[2p1 − p2 F2 (xr ) − 2p1 F1 (xr )] + f2 (xr )[2p2 − p2 F1 (xr )]
=
(r − 1)!(n − r)! (2 − F1 (xn ))2
p1 F1 (xr ) + p2 F2 (xr ) r−1 p1 F1 (xr ) + p2 F2 (xr ) n−r
[ ] ∗[1 − ]
2 − F1 (xr ) 2 − F1 (xr )

Le moment ordinaire
Z ∞
µ0 = xr g(x)dx
0

k x x
Z 2( ( )k−1 exp(− )k )

µ0 = xr λ λ λ
x k 2 dx
0 (1 + exp(− ) )
λ
Z ∞ xk+r−1 exp(− x )k
k λ dx
µ0 = 2 k x (2.38)
λ 0 (1 + exp(− )k )2
λ

Exemple
on prend deux loi de Weibull de paramètres différents (le même exemple avec
le modèle de l’alternative de Lehman généralisé )
on remplace dans G(x) on trouve :

32
x k1 x
p1 (1 − exp(− ) ) + p2 (1 − exp(− )k2 )
λ1 λ2
G(x) = x k1
2 − (1 − exp(− ) )
λ1

x k1 x
p1 (1 − exp(− ) ) + p2 (1 − exp(− )k2 )
λ1 λ2
G(x) = x k1 (2.39)
1 + exp(− )
λ1
et la fonction de densité correspondante à la formule précédante est :
k1 x k1 −1 x x x
( ) exp(− )k1 [2p1 − p2 (1 − exp(− )k2 ) − 2p1 (1 − exp(− )k1 )]
λ λ λ1 λ2 λ1
g(x) = 1 1 x k1 2
(1 + exp(− ) )
λ1
k2 x k2 −1 x x
( ) exp(− )k2 [2p2 − p2 (1 − exp(− )k1 )]
λ λ λ2 λ1
+ 2 2 x k1 2
(1 + exp(− ) )
λ1
La fonction de hasard :
g(x)
h(x) =
1 − G(x)
on a :
x k1 x x
1 + exp(− ) − p1 (1 − exp(− )k1 ) − p2 (1 − exp(− )k2 )
λ1 λ1 λ2
1 − G(x) = x k1
1 + exp(− )
λ1
alors :
k1 x k1 −1 x x x
( ) exp(− )k1 [2p1 − p2 (1 − exp(− )k2 ) − 2p1 (1 − exp(− )k1 )]
λ1 λ1 λ1 λ2 λ1
h(x) = x k1 x k1 x k2 x
[1 + exp(− ) − p1 (1 − exp(− ) ) − p2 (1 − exp(− ) )](1 + exp(− )k1 )
λ1 λ1 λ2 λ1
k2 x k2 −1 x k2 x k1
( ) exp(− ) [2p2 − p2 (1 − exp(− ) )]
λ2 λ2 λ2 λ1
+ x k1 x k1 x k2 x
[1 + exp(− ) − p1 (1 − exp(− ) ) − p2 (1 − exp(− ) )](1 + exp(− )k1 )
λ1 λ1 λ2 λ1

33
Le moment ordinaire
R∞
µ0 = 0 xr g(x)dx
k1 x k1 −1 x k1 x k2 x k1
(
R ∞ r λ1 λ1 ) exp(− ) [2p 1 − p 2 (1 − exp(− ) ) − 2p 1 (1 − exp(− ) )]
λ1 λ2 λ1
µ0 = 0 x [ x
(1 + exp(− )k1 )2
λ1
k2 x k2 −1 x x
( ) exp(− )k2 [2p2 − p2 (1 − exp(− )k1 )]
λ λ λ2 λ1
+ 2 2 x k1 2 ]dx
(1 + exp(− ) )
λ1

L’estimation des paramètres par la méthode du Maximum de vraisem-


blance
L(x) = ni=1 g(xi )
Q

Qn f1 (xi )[2p1 − p2 F2 (xi ) − 2p1 F1 (xi )] + f2 (xi )[2p2 − p2 F1 (xi )]


L(x) = i=1
(2 − F1 (xi ))2
Q f1 (xi )[2p1 − p2 F2 (xi ) − 2p1 F1 (xi )] + f2 (xi )[2p2 − p2 F1 (xi )]
ln L(x) = ln ni=1
(2 − F1 (xi ))2
f1 (xi )[2p1 − p2 F2 (xi ) − 2p1 F1 (xi )] + f2 (xi )[2p1 − p2 F1 (xi )]
ln L(x) = ni=1 ln[
P
]
(2 − F1 (xi ))2
= ni=1 ln[(f1 (xi )[2p1 − p2 F2 (xi ) − 2p1 F1 (xi )] + f2 (xi )[2p2 − p2 F1 (xi )]
P
− 2 ln(2 − F1 (xi ))]

les équations de la vraisemblance sont résumé dans le système d’équation suivant :

34

∂f1 (xi )

 (2p1 − p2 F2 (xi ) − 2p1 F1 (xi ))

 ∂ ln L(x, λ 1 , λ 2 , k1 , k 2 ) P n ∂λ 1
= i=1 [





 ∂λ1 B

 ∂F (x
1 i ) ∂F (x
1 i ) ∂F 1 i)
(x

 2p 1 f 1 (x i ) p 2 f 2 (x i ) 2
∂λ1 ∂λ1 ∂λ1


− − − ]


B B 2 − F (x )



 1 i

 ∂f1 (xi )
(2p1 − p2 F2 (xi ) − 2p1 F1 (xi ))


∂ ln L(x, λ1 , λ2 , k1 , k2 ) Pn

 ∂k 1
= i=1 [



(p) ∂k 1 B
∂F 1 (x i ) ∂F 1 (x i ) ∂F 1 (x i)
2p1 f1 (xi ) p2 f2 (xi ) 2


∂k1 ∂k1 ∂k1


+ − − ]






 B B 2 F 1 (x i )
∂F2 (xi ) ∂f2 (xi )


−f (x )p − [2p2 − p2 F1 (xi )]


1 i 2
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn


 ∂λ 2 ∂λ 2

 = i=1 [ ]
∂λ B

2


∂F2 (xi ) ∂f2 (xi )


−f (x )p + [2p2 − p2 F1 (xi )]

 1 i 2
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn


 ∂k 2 ∂k 2

 = i=1 [ ]
∂k2 B
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn −k12 xki 1 −1 λk11 + k13 xki 1 xki 1
• = i=1 [ exp(− k1 )
∂λ1 λk11 +1 λ1
xi k2 xi k1
(2p1 − p2 (1 − exp(− ) ) − 2p1 (1 − exp(− ) )
λ2 λ1
A
k1
1 −1
x k2 xi k2 −1 x k2
xki 1 k1 λ3k
1 exp − i
p 2 ( ( ) exp(− ) )
λk11 λ2 λ2 λ2

A
k1
x k1 x x
xik1 k1 λ13k1 −1 exp − ik1 2p1 (( )( )k1 −1 exp −( )k1 )
λ1 λ1 λ1 λ1
+
A
k1
1 −1
x
xik1 k1 λ3k1 exp(− ik1 )
λ1
−2 xi ]=0
1 + exp(− )k1
λ1
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn xki 1 −1 xi k1 xki 1 −1 xi −1 xi 2k1 xi k1
• = i=1 [ k1 +ln( ) k
−ln( )k 1 x i ( ) exp −( )
∂k1 λ1 λ1 λ1 1 λ1 λ1 λ1

35
xi k2 x
(2p1 − p2 (1 − exp(− ) ) − 2p1 (1 − exp(− )k1 )
λ2 λ1
A
k2 xi k2 −1 x i k2
p2 ( ( ) exp(− ) )
λ2 λ2 λ2 xi xi
+ ∗ (− ln( ) exp(k1 ln(− )))
A λ1 λ1
k1 xi k1 −1 xi k1
2p1 ( ( ) exp(− ) )
λ1 λ1 λ1 xi xi
− (− ln( ) exp(k1 ln(− )))
A λ1 λ1
xi xi
(− ln( ) exp(k1 ln(− )))
λ1 λ1
+2 xi k1 ]=0
1 + exp(− )
λ1
k1 xi k1 −1 xi k1
−p 2 ( ( ) exp(− ) )
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn λ1 λ1 λ1
• = i=1 [
∂λ2 A
k2 2 k2 −1 k2 3 k2
k2 3k2 −1 xi −k2 xi λ2 + k2 xi xki 2
xi k2 λ2 exp − k2 + exp − k2
λ2 λk22 +1 λ2
xi k1
[2p2 − p2 (1 − exp(− ) )]
λ1
]=0
A
k1 xi k1 −1 xi k1
−p 2 ( ( ) exp(− ) )
∂ log L(x, λ1 , λ2 , k1 , k2 ) Pn λ1 λ1 λ1
• = i=1 [
∂k2 A
xi k1 −1 xi k1 xi xi
( ) exp(− ) (− ln( ) exp(k2 ln(− )))
λ1 λ1 λ2 λ2
k2 −1 k2 −1
x xi k2 xi xi −1 xi 2k2 xi k2
+ i k2 + ln( ) − ln( )k 2 xi ( ) exp −( )
λ2 λ2 λ2 k2 λ2 λ2 λ2
xi
[2p2 − p2 (1 − exp(− )k1 )]
λ1
]=0
avec : A
k1 x x k1 x x
A = ( )k1 −1 exp( ) (2p1 − p2 (1 − exp(− )k1 − 2p1 (1 − exp(− )k1 ))
λ1 λ1 −λ1 λ1 λ1
k2 x x k2 x
+ ( )k2 −1 exp( ) (2p2 − p2 (1 − exp( )k1 )
λ2 λ2 −λ2 λ1
et

B = f1 (xi )[2p1 − p2 F2 (xi ) − 2p1 F1 (xi )] + f2 (xi )[2p2 − p2 F1 (xi )]

36
Chapitre 3

Simulation et résultats numériques

3.1 Introduction
Dans ce chapitre, nous allons présenter le travail de simulation sur des données
réelles de survie effectué pour illustrer et étayer les différents aspects théoriques
abordés dans les chapitres précédents. Cette étude portera essentiellement sur :
• La comparaison des différents modèles paramétriques des données de survie
proposés dans ce mémoire :
1. Alternative de LEHMAN ;
2. Alternative de LEHMAN généralisée ;
3. Modèle de mélange.
• L’étude de la performance de ces modèles ;
• L’étude de l’influence de la taille de l’échantillon sur ces différents modèles.
Pour ceci nous avons considérer deux ensembles de données réelles :

I) Le premier cas de données est issu d’une étude du temps de défaillance du


système de climatisation d’un avion présentée dans Linhart and Zucchini [3, 11] :

23, 261, 87, 7, 120, 14, 62, 47, 225, 71, 246, 21, 42, 20, 5, 12, 120, 11, 3, 14, 71,
11, 14, 11, 16, 90, 1, 16, 52, 95.

Ces données ont également utilisées dans Gupta and Kundu et dans Singh et
al.
II) Le deuxième cas de données décrivent une étude de rémission (en mois)
d’un échantillon aléatoire de 128 patients atteints de cancer de la vessie rapportée
dans Lee and Wang [14] :

0.08,2.09, 3.48, 4.87, 6.94, 8.66, 13.11, 23.63, 0.20, 2.23, 3.52, 4.98, 6.97, 9.02,
13.29, 0.40, 2.26,3.57, 5.06, 7.09, 9.22, 13.80, 25.74, 0.50, 2.46, 3.64, 5.09, 7.26, 9.47,

37
14.24, 25.82, 0.51, 2.54,3.70, 5.17, 7.28, 9.74, 14.76, 26.31, 0.81, 2.62, 3.82, 5.32,
7.32, 10.06, 14.77,32.15, 2.64, 3.88,5.32, 7.39, 10.34, 14.83, 34.26, 0.90, 2.69, 4.18,
5.34,7.59, 10.66, 15.96, 36.66, 1.05, 2.69, 4.23,5.41, 7.62, 10.75, 16.62, 43.01, 1.19,
2.75, 4.26, 5.41, 7.63, 17.12, 46.12, 1.26,2.83, 4.33, 5.49,7.66,11.25, 17.14, 79.05,
1.35, 2.87, 5.62, 7.87, 11.64, 17.36, 1.40, 3.02, 4.34, 5.71, 7.93, 11.79,18.10, 1.46,
4.40, 5.85, 8.26, 11.98, 19.13, 1.76, 3.25, 4.50, 6.25, 8.37, 12.02, 2.02, 3.31, 4.51,
6.54, 8.53, 12.03, 20.28, 2.02, 3.36, 6.76, 12.07, 21.73, 2.07, 3.36, 6.93, 8.65, 12.63,
22.69.

Ces données ont été déja utilisées dans Singh, S. K., Singh, U. and Kummar,
M. [, 2014].

3.2 Plan de simulation


Pour notre plan de simulation, nous allons extraire aléatoirement à partir de
l’ensemble des données réelles un échantillon de taille p ∈ {3, 5, 10, 15, 20, 25}
pour le premier cas de données et de taille p ∈ {5, 10, 15, 20, 25, 50} pour le
deuxiéme cas. Ces échantillons seront utilisés pour calculer les paramètres du mo-
dèle considéré et qui seront à leurs tours réinjectés afin de calculer le logarithme
de la vraisemblance (log-likelihood creterion) qui nous sert de critère de comparai-
son pour les différents modèles. Nous réaliserons 40 répétitions d’expérience pour
chaque taille d’échantillon et nous considérons la moyenne des résultats obtenus.

Nous allons suivre les étapes suivantes pour la simulation :


• Extraire un échantillon de taille n pour les données considérées.
• Calculer les paramètres modèle :
— Alternative de LEHMAN (AL).
— Alternative de LEHMAN généralisée (ALG).
— Modèle de mélange (MM).
• Calculer le critère de comparaison (LL) pour ces différents modèles.

Notons que pour le premier modèle (Alternative de Lehman), nous avons consi-
déré les deux cas particulier suivant :
— α = 1 et F (x) ∼ W eibul,
— α = 1 et F (x) ∼ Gamma.
Les simulations et les graphiques ont été réalisés à l’aide du logiciel R (package
ks). Nous avons utilisé la version 2.8.0 pour la programmation. R est un système
d’analyse statistique et graphique crée par Ross Ihaka et Robert Gentlelman.
Il est à la fois un langage et un logiciel qui comporte de nombreuses fonctions pour

38
les analyses statistiques et les graphiques.

3.3 Résultats de la simulation


Les résultats de la simulation sont données sous forme de tableaux. Les ta-
bleaux (1.1), (1.2), (1.3), (1.4), (1.5), (1.6), (1.7), (1.8), (1.9), (1.10), (1.11), (1.12),
donnent les valeurs moyennes de LL des 40 expériences réalisées pour les deux en-
sembles de données réelles considérées.

39
n Weibul Gamma ALG MM
3 -148.336 -153.721 -148.219 -148.301
5 -149.258 -153.440 -148.308 -148.216
10 -149.813 -155.127 -148.301 -149.229
15 -150.724 -155.875 -149.000 -149.001
25 -151.029 -156.166 -149.825 -149.655

Table 3.1 – La moyenne de LL pour le premier cas de données avec p1 = 1/2, p2 = 1/2, F1 ∼
Weibul et F2 ∼ Weibul

n Weibul Gamma ALG MM


3 -147.190 -153.338 -144.771 -144.183
5 -147.861 -152.019 -145.468 -146.225
10 -149.007 -152.971 -145.333 -146.796
15 -150.116 -153.311 -146.267 -148.155
25 -150.746 -154.000 -147.952 -149.010

Table 3.2 – La moyenne de LL pour le premier cas de données avec p1 = 1/3, p2 = 2/3, F1 ∼
Weibul et F2 ∼ Weibul

40
n Weibul Gamma ALG MM
3 -148.336 -153.721 -147.012 -148.000
5 -149.258 -153.440 -148.671 -148.241
10 -149.813 -155.127 -148.810 -149.334
15 -150.721 -155.875 -148.997 -149.526
25 -151.029 -156.166 -149.023 -150.701

Table 3.3 – La moyenne de LL pour le premier cas de données avec p1 = 1/2, p2 = 1/2, F1 ∼
Gamma et F2 ∼ Gamma

n Weibul Gamma ALG MM


3 -147.190 -153.338 -146.333 -147.200
5 -147.861 -152.019 -146.502 -147.118
10 -149.007 -152.971 -146.991 -148.151
15 -150.116 -153.311 -149.997 -150.000
25 -150.746 -154.000 -150.002 -150.407

Table 3.4 – La moyenne de LL pour le premier cas de données avec p1 = 1/3, p2 = 2/3, F1 ∼
Gamma et F2 ∼ Gamma

41
n Weibul Gamma ALG MM
3 -148.336 -153.721 -142.076 -143.971
5 -149.258 -153.440 -142.611 -144.433
10 -149.813 -155.127 -143.401 -144.892
15 -150.721 -155.875 -144.127 -145.017
25 -151.029 -156.166 -145.581 -146.872

Table 3.5 – La moyenne de LL pour le premier cas de données avec p1 = 1/2, p2 = 1/2, F1 ∼
Weibul et F2 ∼ Gamma

n Weibul Gamma ALG MM


3 -147.190 -153.338 -140.129 -143.541
5 -147.861 -152.019 -140.551 -143.819
10 -149.007 -152.971 -140.905 -144.174
15 -150.116 -153.311 -141.630 -144.667
25 -150.746 -154.000 -142.013 -145.386

Table 3.6 – La moyenne de LL pour le premier cas de données avec p1 = 1/3, p2 = 2/3, F1 ∼
Weibul et F2 ∼ Gamma

42
n Weibul Gamma ALG MM
3 -526.241 -527.013 -501.388 -501.957
5 -529.102 -531.861 -504.700 -504.402
10 -538.549 -542.118 -506.899 -508.139
15 -541.134 -545.233 -507.126 -508.200
25 -550.020 -555.991 -511.615 -513.698

Table 3.7 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/2, p2 = 1/2, F1 ∼
Weibul et F2 ∼ Weibul

n Weibul Gamma ALG MM


3 -526.241 -527.013 -446.178 -448.701
5 -529.102 -531.861 -446.801 -449.552
10 -538.549 -542.118 -448.691 -452.837
15 -541.134 -545.233 -453.007 -457.294
25 -550.020 -555.991 -458.521 -463.096

Table 3.8 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/3, p2 = 2/3, F1 ∼
Weibul et F2 ∼ Weibul

43
n Weibul Gamma ALG MM
3 -526.241 -527.013 -439.810 -439.901
5 -529.102 -531.861 -440.057 -439.873
10 -538.549 -542.118 -449.151 -451.227
15 -541.134 -545.233 -453.762 -456.382
25 -550.020 -555.991 -460.643 -461.109

Table 3.9 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/2, p2 = 1/2, F1 ∼
Gamma et F2 ∼ Gamma

n Weibul Gamma ALG MM


3 -526.241 -527.013 -429.713 -432.109
5 -529.102 -531.861 -430.926 -432.455
10 -538.549 -542.118 -435.528 -436.365
15 -541.134 -545.233 -438.069 -439.691
25 -550.020 -555.991 -452.576 -456.048

Table 3.10 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/3, p2 = 2/3,
F1 ∼ Gamma et F2 ∼ Gamma

44
n Weibul Gamma ALG MM
3 -526.241 -527.013 -422.739 -451.037
5 -529.102 -531.861 -424.336 -451.660
10 -538.549 -542.118 -430.892 -458.407
15 -541.134 -545.233 -433.195 -461.953
25 -550.020 -555.991 -439.601 -469.377

Table 3.11 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/2, p2 = 1/2,
F1 ∼ Weibul et F2 ∼ Gamma

n Weibul Gamma ALG MM


3 -526.241 -527.013 -407.541 -416.831
5 -529.102 -531.861 -409.113 -421.659
10 -538.549 -542.118 -414.839 -428.217
15 -541.134 -545.233 -417.591 -429.503
25 -550.020 -555.991 -428.380 -452.175

Table 3.12 – La moyenne de LL pour le deuxième cas de données avec p1 = 1/3, p2 = 2/3,
F1 ∼ Weibul et F2 ∼ Gamma

3.4 Performance des estimateurs


La lecture des résultats obtenus dans les tableaux (1.1),...,(1.8), (1.9), (1.10),
(1.11), (1.12), nous permet d’affirmer que :

Pour le premier ensemble de données :


Les résultats obtenus dans les tableaux (1.1), (1.2), (1.3), (1.4), montrent clai-
rement que la loi de Weibul est nettement meilleures que celle de Gamma pour
le premier modèle (Alternative de Lehman). Par contre, les résultats sont presque

45
identiques entre les deux modèles (ALG) et (MM) avec un léger avantage pour la
méthode (ALG) en particulier pour la taille de l’échantillon n = 25. Ces résultats
montrent aussi que les deux modèles proposés dans ce mémoire sont plus perfor-
mants que les modèles classiques, Weibul et Gamma. On remarque par exemple
dans le tableau (1.2) : pour la taille d’échantillon n=25, nous avons LL = - 147.952
pour le modèle (ALG) alors que LL= -150.746 pour Weibull et LL = -154.000 pour
Gamma.
Les tableaux (1.5), (1.6) confirment les résultas déjà obtenus dans les ta-
bleaux précédents (1.1), (1.2), (1.3), (1.4), pour le premier modèle (Alternative
de Lehman) à savoir que la loi de Weibul est nettement meilleure que la loi de
Gamma. Mais pour les deux modèles restants (ALG et MM), le mélange de lois
(F1 ∼ W eibul et F2 ∼ Gamma) améliorent nettement leurs performances avec
un avantage claire pour le premier modèle (ALG). Par exemple, dans le tableau
(1.6), nous avons pour la taille d’échantillon n=25, LL = - 150.746 (Weibull), LL
= -154.000 (Gamma), LL = -142.013 (ALG), LL = -145.386 (MM).
Les résultats obtenus montrent aussi que la taille de l’échantillon n’influe pas
sur la qualité de l’estimation. On remarque pour les résultats sont stable en général
pour les différentes tailles de l’échantillon.

Pour le deuxième ensemble de données :


Le même constat est valable pour les résultats obtenus dans les tableaux (1.7),
(1.8), (1.9), (1.10), (1.11), (1.12) avec un avantage significatif pour le modéle
(ALG) exception faite pour les résultats du tableau (1.9) avec la taille d’échantillon
n=5 et n=3, les résultats de LL sont presque identique pour les deux modèles
proposés à savoir (ALG) et (MM). Ici également, nous remarquons que la taille
de l’échantillon n’influe pas significativement sur les résultats obtenus. Ainsi les
résultats restent en général stables pour toutes les tailles.

3.5 Conclusion
Notre travail de simulation aborde un problème crucial, bien connu dans l’ana-
lyse de la survie en particulier et en statistiques en général. Il s’agit du problème
de choix d’un modèle approprié dans le cadre paramétrique pour l’analyse des don-
nées de survie. Ainsi, Les résultats obtenus pour les deux ensembles de données
réelles (étude du temps de défaillance du système de climatisation d’un avion et
étude de rémission, en mois, d’un échantillon aléatoire de 128 patients atteints de
cancer de la vessie) confirment que les deux alternatives que nous avons proposés
dans ce travail sont plus éfficace que les modèle paramétriques classiques dans la

46
modélisation et l’analyse des données de survie avec un avantage significatif pour
le premier modèle, alternative de Lehman généralisée. Notons, en outre, que les
deux modèles sont stable et ne sont pas influencé significativement par la taille de
l’échantillon.

47
Conclusion générale

Ce mémoire est une contribution à la modélisation et à l’analyse des données


de survie dans un cadre paramétrique. Dans une première étape, nous avons fixé
le cadre générale de ce domaine de recherche à travers la présentation d’un cer-
tain nombre de notions préliminaires bien connues dans la littérature. Dans la
deuxième partie, nous avons introduit trois modèles paramétriques pour les don-
nées de survie. Il s’agit en premier lieu du modèle de LEHMAN qui généralise
les modèles paramétriques classiques et proposé dans [12]. En deuxième lieu, nous
avons construit deux autres modèles alternatifs, l’alternative de LEHMAN généra-
lisé et le modèle du mélange. Dans ce chapitre, les différentes propriétés statistiques
et asymptotiques des deux modèles proposés ont été présentées. Enfin et afin de
tester l’efficacité des modéles introduits, une étude de simulation sur des données
réelles a été réalisée. Les résultats numériques obtenus indiquent que nos deux
modèles sont plus performant que les modèles classiques.

48
Bibliographie

[1] C.Chesneau
Sur l’estimateur de maximum de vraisemblance(env) (cour), Licence. France.
2017.
[2] C. Vassoilles
Propostion d’une nouvelle méthode de classification à base de copules , Mé-
moire l’université du Québec 2014
[3] D.Kumar,U.Singh,S.Kumar et S.Mukherjee
The new probability distribution :an aspect to a life time distribution , journal
of mathematical science letters vol 6 N 0 1,p 35-42 (2017)
[4] E.Doucet
Estimateurs de noyau et théorie des valeurs extrêmes , mémoire Université de
Québec à Montréal 2014
[5] F. Planchet
Modèles de durées (cour), 2019-2020
[6] G.Colletaz
Économétrie des durées de survies(cour) , 9 septembre 2019
[7] J.Cristophe Breton
Fondement de probabilités de (Ω, F, P ) au conséquences de la LG et et de TCL
(cour) , 2014
[8] L.Tristan
modéles statistiques pour des données de survie corrélées, thèse de doctorat
l’institut national agronomique Pari-Grignon.
[9] M.Genin
Variables aléatoires (cour), Épidémiologie et Qualité des soins octobre 2015
[10] P.Saint Pierre
Introduction à l’analyse des durées de survie (cour), Février 2015
[11] R.D.Gupta et D.Kundu
Exponentiated Exponential Family : An Alternative to Gamma and Weibull
Distributions , Biometrical Journal 43 (2001) 1, 117–130

49
[12] R.C.Gupta ,P.L.Gupta et R.D.Gupta
Modeling failure time data by lehman alternatives , Communications in Sta-
tistics - Theory and Methods (1998)
[13] S.Nedjar
Poisson pseudo lindly distribution et leurs applications en assurances vie ,
thèse de doctorat université Annaba 2017
[14] Singh, S. K., Singh, U. and Kumar
Bayesian inference for exponentiated Pareto model with application to bladder
cancer remission time, Statistics in Transition (2014)

50

Vous aimerez peut-être aussi