0% ont trouvé ce document utile (0 vote)
109 vues47 pages

Estimation par Maximum de Vraisemblance

Objets importants sur le maximum de vraisemblance

Transféré par

Miguel Tchinda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
109 vues47 pages

Estimation par Maximum de Vraisemblance

Objets importants sur le maximum de vraisemblance

Transféré par

Miguel Tchinda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l'Enseignement Supérieur et de la Recherche Scientifique


UNIVERSITÉ KASDI MERBAH, OUARGLA

Faculté des Mathématiques et des Sciences de la Matière


DÉPARTEMENT DE MATHÉMATIQUES

Mémoire présenté en vue de l'obtention du Diplôme :


MASTER en Mathématiques
Option : Probabilités et Statistique
Par :
Belabbas Rachida
Titre :

Estimation par la méthode du maximum de


vraisemblance

Membres du Comité d’Examen :


Dr. Ben brahim Radhia UKM, OUARGLA Président
Dr. Mansoul Brahim UKM, OUARGLA Encadreur
Dr. Saouli Mostapha abdelouahab UKM, OUARGLA Examinateur

Juin 2021
Dédicace

J e dédie ce modeste travail : à ma chère mère, la bougie de ma vie.

à mon chèr père, qui sou¤ret pour mon éducation.

Allah vous protège.

à mes sœurs et frères, mon bras droit dans ma vie :

Miloud, Faiza, Aicha, Khadra, Doua, Tidjani, Nawal, Mohammed.

à mes …dèles amis : Imane et oumessaad.

à ma …ancée : Abdallatif. B.

à tous mes famille belabbas et tous mes amis.

i
REMERCIEMENTS

J e tiens premièrement à me prosterner, remerciant «Allah» le tout

puissant de m’avoir donné la force et la volonté

pour terminer ce travail.

Nous voudrions remercier le encadré Brahim Mansoul pour les orientations scienti…ques

précises ; nos profonds remerciements pour les membres de jury nous qui ont accepté
d’évaluer ce travail.

Merci également a tous les enseignants qui m’ont aidé pendant mon cursus, sans oublier
leurs conseils précieux.

Je remercie aussi toute personne de prés ou de loin a contribué à la …nalisation de ce travail

ii
Table des matières

Dédicace i

Remerciements ii

Table des matières iii

Introduction 1

1 Rappel sur les notions probabiltés et statistiques 3

1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.1 Mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.4 Lois de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.4.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.4.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5 Population et Caractère statistique . . . . . . . . . . . . . . . . . . . . . . . 11

1.6 Échantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.6.1 Échantillonnage aléatoire sans remise . . . . . . . . . . . . . . . . . . 12

1.6.2 Échantillonnage aléatoire avec remise . . . . . . . . . . . . . . . . . . 12

1.6.3 La distribution d’échantillonnage . . . . . . . . . . . . . . . . . . . . 12

iii
1.6.4 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.6.5 Moments empiriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Estimation statistique paramétrique 16

2.1 Cadre de l’estimation paramétrique . . . . . . . . . . . . . . . . . . . . . . . 16

2.2 Estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.3.1 Le biais d’un éstimateur . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.3.2 Variance et erreur on moyenne quadratique d’un estimateur . . . . . 18

2.3.3 Estimateur convergent . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.4 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.5 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.6 Inégalité de Fréchet-Darmois-Cramer-Rao(FDCR) . . . . . . . . . . . . . . . 22

3 Méthod du maximum de vraisemblance 24

3.1 fonction L(x; ) de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . 24

3.2 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . 25

3.3 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.4 Exemple de l’EMV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.4.1 Loi discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.4.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.6 Application en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.6.1 Loi discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.6.2 Loi continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Conclusion 35

iv
Table des matières

Bibliographie 36

Annexe A : Logiciel R 38

Annexe B : Abréviations et Notations 40

v
Introduction

L’estimation est l’un des activités principales de statistique, et c’est la problématique in-
verse de l’échantillonnage, il s’agit d’estimer certaines caractéristiques statistiques de la loi
(moyenne, variance, fonction de répartition, etc...) à travers d’une série d’observations. l’es-
timation consiste à donner des valeurs approximatives aux paramètres d’une population à
l’aide d’un échantillon de n observations issues de cette population. On peut se tromper sur la
valeur exacte, mais on donne la “meilleure valeur”possible que l’on peut supposer.La théorie
de l’estimation étudie les méthodes générales d’estimations.

On a plusieurs méthodes pour estimer un paramètre comme la méthode des moindres carrés,
et la méthode des moments, et la méthode du maximum de vraisemblance cette méthode a
été dévelloppée par le staticien Aylmer Ronald Fisher en 1922. Il utilisa la loi Binomiale pour
illustrer son critère.

La méthode du maximum de vraisemblance a trouvé un ensemble des estimateurs des pa-


ramètres appelé la vraisemblance est d’avoir maximiser l’échantillon que nous avons utilisé,
cet estimateur a été beaucoup étudié ainsi que ses propriétés asymptotiques (convergence,
e¢ cacité, normalité asymptotique,..) pour plusieurs modèle statistique.

L’objectif de notre travail est d’étudier l’estimation par la méthode du maximum de vrai-
semblance qui est une méthode pour inférer les paramètres de la loi de probabilité d’un
échantillon donnée pour chercher l’estimateur inconnu, dont nous allons donner les proprié-
tés essentielles puis nous étudierons principalement les statistiques exhaustives, la quantité
d’information apporté par un échantillon de taille n.

Dans ce mémoire qui se compose de trois chapitre :

1
Introduction

Premièr chapitre :

Dans ce chapitre, on introduit les notions générales des probabilités et statistiques, en donnant
la défnition d’une lois de probabilité , Population , Caractère, échantillon , statistique, les
moments empiriques act....

Deuxième chapitre :

Dans ce chapitre on présente le consept de l’estimation,on parle d’estimateur, la qualité d’un


estimateur ,(estimateur sans biais, estimateur convergent, variance et erreur quadratique
moyenne d’un estimateur,...act), exhaustive, information de Fisher

Troisième chapitre

Dans le dernier chapitre, présente, dé…nition du maximum de vraisemblance , la méthode


maximum de vraisemblance et propriéts asymptotiques ,exemple de l’EMV, application par
logiciel R.

2
Chapitre 1

Rappel sur les notions probabiltés et


statistiques

Dans ce chapitre on peut donner quelques concepts de base au notions statistiques

1.1 Tribu

[3]

Soit un ensemble quelconque non vide.

Dé…nition 1.1.1 :Soit A un ensemble de parties de (A P( )); on dit que A est un tribu
(ou algebre ) si vér…er les conditions suivantes :

1. f g 2 A :

2.A est stable par passage ou complémentaire (8B 2 A : B 2 A () B 2 A):

3. A est stable par union dénombrable (8n 2 N; Bn 2 A =) [n2N Bn 2 A):

Le couple ( ; A) s’appelle espace mesurable.

Remarque 1.1.1 :

– Une intersection des tribus est une tribu.


– Une union des tribus n’est pas nécessairement une tribu.

3
Chapitre 1. Rappel sur les notions probabiltés et statistiques

– Tribu des borélieners de R (on note BR ),c’est la plus petit tribu contenant tous les inter-
valles ouverts.
– L’ensembles des parties de (on note P( )), c’est la plus grand tribu.
– Si un ensemble des possibilités d’un expérience aléatoire, ( ; A) dit espace probabilisable.

Dé…nition 1.1.2 Une mesure sur ( ; A) est une fonction .

: A ! R+ = [0; +1] :

Telle que :

1. ( ) = 0:
P
2. 8(Ai )i2I N ([i2I Ai ) = i2I
(Ai ) si 8i; j 2 I Ai \ Aj = f g:
P
3. 8i; j 2 I ([i2I Ai ) i2I
(Ai ) si 8i; j 2 I Ai \ Aj 6= f g:

Le triplet ( ; A; ) s’appelle espace mesuré .

Remarque 1.1.2 Si ( ) = 1 ; la mésure dite probabilité noté par P; l’espace ( ; A; P )


s’appelle éspace de probabilité.

1.1.1 Mesurabilité

Dé…nition 1.1.3 Soient ( ; A) et (E; ) deux espaces mesurables, une application f : !


1
E est dite mesurable par rapport à (E; ) : 8 B 2 ; si f (B) 2 A:

1.2 Variable aléatoire

[6]

Dé…nition 1.2.1 : Soit ( ; A; P) espace de probabilité on dit une variable aléatoire X tout
fonction sur dans R
X: ! R:

4
Chapitre 1. Rappel sur les notions probabiltés et statistiques

Variable aléatoire c’est une fonction mesurable.

Remarque 1.2.1 : Il y a deux types des variables aléatoires discretes et continues :

1.3 Loi d’une variable aléatoire

La loi de la variable aléatoire X est la mesure image de P par X. Notée Px , dé…nie par :

1
8B 2 ; Px (B) = P(X (B)):

En pratique on écrit :

Px (B) = P(X 2 B) = P(! : X(!) 2 B):

Remarque 1.3.1 : La loi d’une variable aléatoire dans le cas continue donne par la fonction
de densité f véri…er :

1. 8x 2 R; f (x) 0:
R
2. R f (x)dx = 1:

1.4 Lois de probabilité

[10]

1.4.1 Lois discrètes

Loi de Bernoulli :

Une variable aléatoire X suit la loi de Bernoulli B (p),0 P 1 si :


8
>
< p si xi = 1:
P (X = xi ) =
>
: 1 p si xi = 0:

5
Chapitre 1. Rappel sur les notions probabiltés et statistiques

Espérance et Variance :

L’espérance de la loi bernoulli :


E(X) = p:

La variance de la loi bernoulli :

V ar(X) = p (1 p) :

La fonction de répartition :

Fx (x) = (1 p)1[0;1[ (x) + 1[1;1[ (x):

La fonction caractéristique :

'x (t) = 1 p + peit :

Loi binomiale :

La loi binomiale, de paramètres n 2 N et 0 p 1, B(n; p) est loi de probabilité d’une


variable aléatoire X d’une répétition de n épreuves de Bernoulli, telle que :
8
>
< C xi pxi (1 p)n xi
n si xi = 0; 1; :::n :
P (X = xi ) =
>
: 0 sinon.

Espérance et Variance :

L’espérance de la loi binomiale :


E(X) = np:

La variance de la loi binomiale :

V ar(X) = np (1 p) :

6
Chapitre 1. Rappel sur les notions probabiltés et statistiques

La fonction de répartition :
8
< Px
> n
p)n x
si x = 0; 1; :::n:
k=0 ck p(1
FX (x) =
>
: 0 sinon..

La fonction caractéristique :

'x (t) = (1 p + peit )n :

Loi de Poisson :

Une variable aléatoire X à valeurs dans R suit une loi de Poisson P ( ) de paramètre ;

( > 0) si :
x
e
P (X = x) = :
x!

Espérance et Variance :

L’espérance de la loi poisson :


E(X) = :

La variance de la loi poisson :


V ar(X) = :

La fonction de répartition :
X
n x
Fx (x) = e :
x=0
x!

La fonction caractéristique :
(eit 1)
'x (t) = e :

7
Chapitre 1. Rappel sur les notions probabiltés et statistiques

Loi uniforme :

Une variable aléatoire X suit une loi uniforme lorsque toutes les valeurs prises par X équi-
probables. telle que :
8
>
< 1
n
si xi = 1; :::; n:
8i 2 N; P (X = xi ) =
>
: 0 sinon.

Espérance et Variance :

L’espérance de la loi uniforme :


n+1
E(X) = :
2

La variance de la loi uniforme :


n2 1
V ar(X) = :
12

La fonction de répartition :

x
FX (x) = ( )1[0;n] (x) + 1]n;1[ (x):
n

1.4.2 Lois continues

Loi uniforme :

Dé…nition 1.4.1 La loi Uniforme est la loi exacte de phénomènes continus uniformément
répartis sur un intervalle

la variable aléatoire X suit une loi uniforme sur l’ntervalle [a; b] si :


8
>
< 1
b a
si x 2 [a; b]:
f (x) =
>
: 0 sinon:

8
Chapitre 1. Rappel sur les notions probabiltés et statistiques

Espérance et Variance :

L’espérance de la loi uniforme :


b+a
E(X) = :
2

La variance de la loi uniforme :


(b a)2
V ar(X) = :
12

La fonction de répartition :
8
>
>
Z >
> 0 si x a:
x
1 <
FX (x) = 1[a;b] (t)dt = x a
si x 2 [a; b[:
1 b a >
> b a
>
>
: 1 si x b:

La fonction caractéristique :

eibt eiat
'X (t) = :
i(b a)t

Loi normale ou loi de Laplace-Gauss :

Une variable aléatoire absolument continue X suit une loi normale de paramètres ( ; ) si sa
densité de probabilité est donnée par : f .R ! R

1 1 x
( )2
f (x) = p e 2 :
2

Notation : X ! N ( ; )

Espérance et Variance

L’espérance de la loi normale vaut :


E(X) = :

9
Chapitre 1. Rappel sur les notions probabiltés et statistiques

La variance de la loi normale vaut :

2
V ar(X) = :

La fonction de répartition :

Z 1
1 1 t
( )2 dt
FX (x) = p e 2 :
0 2

La fonction caractéristique :
i t t2 2
:
'x (t) = e 2

La loi exponentielle :

Un variable aléatoire X réelle positive suit un loi exponentielle de paramètre > 0 si sa


densité de probabilité est dé…nie par :
8
>
< 1 x
e x 0:
f (x) =
>
: 0 x < 0:

Espérance et Variance :

L’espérance de la loi exponentielle :


1
E(X) = :

La variance de la loi exponentielle :

1
V ar(X) = 2
:

La fonction de répartition :
8
Z x
>
<
x
0 si x 0:
FX (x) = e 1R+ (t)dt =
1 >
: 1 e x
si x > 0:

10
Chapitre 1. Rappel sur les notions probabiltés et statistiques

La fonction caractéristique :
'x (t) = :
it

1.5 Population et Caractère statistique

[1]

Population :

Dé…nition 1.5.1 Une population est un ensemble d’objets sur lesquels une étude se porte.
Ces objets sont appelés individus.

Caractère statistique

Dé…nition 1.5.2 Toute propriété étudiée sur les individus d’une population est appelée ca-
ractère.Statistique noté X.

Nature d’un caractére

Une caractère est dit :

Quantitatif s’il mesure une quantité ou un nombre, les valeurs que prend X sont numériques
(le nombre de personnes dans une salle, le nombre d’items...) dans ce cas le caractére s’appelle
variable statistique .

Qualitatif s’il mesure une catégorie, les valeurs que prend X sont des modalités (la couleur
des yeux, la marque de voitures...).

1.6 Échantillon

[10]

Dé…nition 1.6.1 : Soit X une variable aléatoire sur un référentiel . Un échantillon de X


de taille n est un n-uplet (X1 ; :::; Xn ) de variables aléatoires indépendantes et identiquements

11
Chapitre 1. Rappel sur les notions probabiltés et statistiques

distribuées (i:i:d) de même loi que X. La loi de X sera appelée loi mère. Une réalisation de
cet échantillon est un n-uplet de réels (x1 ; :::; xn ) où Xi (!) = xi :.

1.6.1 Échantillonnage aléatoire sans remise

Dé…nition 1.6.2 : Soit N la taille d’une population …nie à échantillonner. Un échantillon


aléatoire sans remise est un échantillon dans lequel la sélection des éléments a la même
probabilité.

Cela équivalant à choisir les n unités les unes après les autres au hasard parmi les unités
indexées par f1; 2; :::; N g, et en les sélectionnant pour l’échantillon …nal seulement si elles
n’ont pas encore été choisies.

1.6.2 Échantillonnage aléatoire avec remise

Dé…nition 1.6.3 : Le plan d’échantillonnage avec remise consiste à former un échantillon


comme une liste de n unités de telle sorte que les unités soient choisies les unes après les
autres parmi toutes les unités possibles et de manière aléatoire, tout en gardant la possibilité
de sélectionner éventuellement plusieurs fois la même unité dans l’échantillon.

1.6.3 La distribution d’échantillonnage

Dé…nition 1.6.4 : Distribution de probabilité composée de toutes les valeurs possibles d’une
statistique d’échanntillon

1.6.4 Statistique

[7]

Dé…nition 1.6.5 : Soit X une variable aléatoire dont la loi P dépent du paramètre 2

12
Chapitre 1. Rappel sur les notions probabiltés et statistiques

une statistique est une fonction mesurable T des variables aléatoires Xi :

T = T (X1 ; X2; :::; Xn ):

Remarque 1.6.1 A un échantillon, on peut associer di¤érentes statistique.

Proposition 1.6.1 La théorie de l’estimation consiste à dé…nir des statistiques particulières,


appellées estimateurs. Une fois l’échantillon e¤ectivement réalisé, l’estimateur prend une va-
leur numérique appelée estimation de paramètre notée b.

Exemple 1.6.1 : Soit X la statistique :

1X
n
X = T (X1 :::; Xn ) = xi :
n i=1

C’est-à-dire la fonction moyenne arithmétique des observation d’un échantillon. cette statis-
tique peut être considérée comme un estimateur, a priori raisonnable, de l’espérence mathé-
matique.

1.6.5 Moments empiriques

[5]

Dé…nition 1.6.6 : On appelle moment empirique d’ordre r 2 N la statistique :

1X
n
Mr = (xi )r :
n i=1

Dé…nition 1.6.7 : On appelle moment empirique centré d’ordre r 2 N la statistique :

X n
fr = 1
M (xi X)r :
n i=1

13
Chapitre 1. Rappel sur les notions probabiltés et statistiques

Exemple 1.6.2 1. Le moment empirique d’odre 1 est la moyenne empirique :

1X
n
M1 = xi = Xn :
n i=1

2. Le moment empirique centré d’odre 2 est appelle la variance empirique et note Sn2 est
donnée par l’expression :

X n
f2 = 1
M (xi Xn )2 = Sn2 :
n i=1

Sn2 peut s’écrire encore :


1X
n
Sn2 = (xi )2 (Xn )2 :
n i=1

Remarque 1.6.2 : Soit X une variable aléatoire de moyenne et dé cart-type on a :

1X
n
E(Xn ) = E(xi ) = :
n i=1

1X
n 2
V ar(x)
V ar(Xn ) = V ar(xi ) = = :
n i=1 n2 n

D’aprés l’indépendance des Xi :

Remarque 1.6.3 : Soit X une variable aléatoire d’écart-type et de moment centré d’ordre 4
; 4 = E(X )4 on a :

E(Sn2 ) = E(X 4)
2
E(Xn 2
4) :

n 1 2
var(X) var(Xn ) = :
n

Remarque 1.6.4 : Les moments empiriques ont les propriétés asymptotiques suivantes :

Si EjXjr < 1 , alors :


Mr p:s E(xr ) = mr :
!
f n;
M p:s E[(X E(X))r ] = r:
!

14
Chapitre 1. Rappel sur les notions probabiltés et statistiques

mr (resp r) s’appellent moments théoriques (resp centré) d’ordre r :

Si EjXj2 < 1, alors :


p
n(Xn m1 ) loi
! N (0; 2 ):

Si EjXj4 < 1, alors :


p
n(Sn2 2) loi
! N (0; 4
2
2 ):

15
Chapitre 2

Estimation statistique paramétrique

2.1 Cadre de l’estimation paramétrique

[1]

L’estimation paramétrique consiste à estimer un ou plusieurs paramètres inconnus appartenir


à X (valeur moyenne, variance proportion ...) à partir des données x1 ; :::; xn . Naturellement,
l’estimation du ou des paramètres inconnus doit être aussi précise que possible. Les trois
grands types d’estimation paramétriques sont :

L’estimation ponctuelle : on estime directement par un ou des réels le ou les paramètres


inconnus

L’estimation par intervalles de con…ance : on détermine des intervalles de réels, les moins
étendus possible, qui ont de fortes chances de contenir un paramètre inconnu

Les tests statistiques : démarches qui consistent à accepter ou non une hypothèse mettant
en jeu un ou plusieurs paramètres inconnus, avec un faible risque de se tromper.

2.2 Estimateur

[4]

Soit X une variable aléatoire dont la loi de probabilité P dépond d’un seul paramétre .

16
Chapitre 2. Estimation statistique paramétrique

Soit (X1 ; :::; Xn ) un échantillon aléatoire.

Dé…nition 2.2.1 Un estimateur est une statistique qui a des propriétés bien dé…nies.

Tn = T (X1 ; :::; Xn ) est une suite de statistique dé…nie :

Tn = '(X1 ; :::; Xn ):

est appelée estimateur du paramétre . Si Tn tend vers quand n tend vers l’in…ni, la conver-
gence étant une convergence en probabilité, presque sure ou moyenne quadratique.

Notation 2.2.1 En général, on note ^ l’estimateur du paramétre :

2.3 Qualité d’un estimateur

Quelque estimateurs qui fournis la puisse des bonnes estimateurs parmis toutes les statistiques
possibles, il doit posséder le meilleur estimateur.

2.3.1 Le biais d’un éstimateur

Dé…nition 2.3.1 : On dit que ^ est un estimateur avec biais de si :

E( ^) 6= c-à-d
B(n; ) = E( ^ ) = E( ^) 6= 0:

Exemple 2.3.1 : Soit (X1; X2 ; :::; Xn ) un n échantillon S 2 est un estimateur biaisé de 2


:

1X 1X 2 1X
n n n
S2 = (xi X)2 = x (X)2 = (xi )2 (X )2 :
n i=1 n i=1 i n i=1

2 2 2
2 2 2 2 2 (n 1) 2
E(S ) = +m m = = 6= :
n n n

L’estimateur est dit sans biais ou non biais de si: E( ^) = :

17
Chapitre 2. Estimation statistique paramétrique

Exemple 2.3.2 : Soit (X1 ; X2 ; :::; Xn )un n échantillon telles que

1X
n
E(xi ) = ; 8i = 1; :::; n ; X = (xi ):
n i=1

(La moyenne empirique ) est un estimateur sans biais de m,en e¤et :

1X 1X
n n
1 1
E(X) = E( xi ) = E(xi ) = nE(xi ) = n =
n i=1 n i=1 n n

2.3.2 Variance et erreur on moyenne quadratique d’un estimateur

Dé…nition 2.3.2 L’erreur quadratique moyenne mesure la précision d’un estimateur ^ du


paramétre par
EQM ( ^) = E[( ^ )2 ]:

Théorème 2.3.1 : Soit ^ un estimateur du paramètre alors :

EQM ( ^) = V ar( ^) + B(n; ^)2 :

Preuve. : On a

EQM ( ^) = E[( ^ )2 ];

= E[( ^ E( ^) + E( ^) )2 ];

= E[( ^ E( ^))2 + 2( ^ E( ^))(E( ^) ) + (E( ^) )2 ]:

Comme E( ^) est une constante et que E( ^ E( ^)) = 0, on e¤et :

EQM ( ^) = E[( ^ E( ^))2 ] + [E( ^) ]2 ;

= V ar( ^) + B(n; ^)2 :

18
Chapitre 2. Estimation statistique paramétrique

Remarque 2.3.1 Pour réaliser la plus petite possible erreur quadratique moyenne, il faut
que :

1: E( ^) = , donc choisir un estimateur sans biais.

2: V ar( ^) soit petite.

Parmi les estimateurs sans biais, on choisira donc celui qui la variance la plus petite, cette
propriété traduit l’e¢ cacité de l’estimateur.

2.3.3 Estimateur convergent

[8]

Dans cette paragraphe, nous considérons un estimateur ^ dont la loi dépond de paramétre
qu’on s’intéresse un bon estimateur ^: s’il est proche de la vraie valeur de Pour savoir la
dernière, on peut l’interpréter, par exemple : la convergence en probabilité de ^ vers la vraie
valeur du paramétre :

Dé…nition 2.3.3 : L’estimateur est dit convergent (ou consistant) si la suite ^ converge
p
en probabilité vers (^ ! )

8" > 0; 8 2 • lim P (j ^ j> ") = 0:


n !1

Remarque 2.3.2 On dit que l’estimateur est fortement convergent lorsqu’on a la conver-
gence presque sûre (p:s):

Propriété 2.3.1 : Pour valider la convergence d’un estimateur, il su¢ t de montrer que :

8 2 • lim E( ^) = et lim V ar( ^) = 0:


n !1 n !1

Pour véri…er ce critère, il faut connaitre la loi de X et celle de ^ pour calculer l’espérence et
la variance.

19
Chapitre 2. Estimation statistique paramétrique

Exemple 2.3.3 : On a vu que X est un estimateur sans biais .

alors :
E(X) = m:

Et
2
V ar(X) = ! 0:
n n !1

Donc X est un estimateur convergent.

2.4 Exhaustivité

[2]

Dé…nition 2.4.1 : On dit que ^ est une statistique exhaustive pour 2 Rk si la loi
conditionelle de X = (X1 ; X2 ; :::; Xn ) sachant ^(x) = k ne dépend pas de .

P ((X1 ; X2 ; :::; Xn )= ^(x) = k):

Théorème 2.4.1 : factorisation de Fisher-Neyman

La statistique ^(x) = k(X1 ; X2 ; :::; Xn ) est exhaustive pour si et seulement si la densité


de probabilité (ou fonction de probabilité) conjointe s’écrit pour tout (x1 ; :::; xn ) 2 Rn sous la
forme :
f (x1 ; :::; xn ; ) = g((x1 ; :::; xn ); )h(x1 ; :::; xn ):

Où g(t(x1 ; :::; xn )) la densité de la statistique Tn :

Et h(x1 ; :::; xn ) ne dépend de :

20
Chapitre 2. Estimation statistique paramétrique

Exemple 2.4.1 : La loi de poisson du paramètre inconnu .

xi
n
L(x1 ; :::; xn ; ) = i=1 exp( ) xi ;
!
Xn
xi
i=1
= exp( n ) :
Y
n
xi !
i=1

Alors
g(t(x1 ; :::; xn ); ) = exp( n ) :
Y
n
xi !
i=1

Et
X
n
h(x1 ; :::; xn ) = xi :
i=1

2.5 Information de Fisher

Soit (E; A; P ) un espace de probabilité tels que :

E est l’ensemble fondamentale; A est une tribu sur E, et P est une probabilité dé…nie sur
l’espace probabilisable (E; A).

Dé…nition 2.5.1 : On appelle quantité d’information de Fisher In ( ) donnée par un n


échantillon sur le paramétre ,la valeur positive où nulle suivante I .

@ ln L(X; ) 2
In ( ) = V (S(X; )) = E[(S(X; ))2 ] = E[( ) ]:
@


Y
n
L(X1 ; X2 ; :::; Xn ; ) = f (X; ):
i=1

Théorème 2.5.1 : Si le domaine de dé…nition de X ne dépend pas du paramètre alors :

@S(X; ) @ 2 ln L(X; )
In ( ) = E[ ]= E[ ]:
@ @ 2

21
Chapitre 2. Estimation statistique paramétrique

2
Exemple 2.5.1 : Soit X une v:a telleque X N (m; ) alors l’information de Fisher pour
cette v:a est :
( )
2
1 1 x m
L(x; ) = p exp ;
2 2 2
2
1 1 x m
ln L(x; ) = ln(2 ) ln( ) ;
2 2
@ 1
ln L(x; ) = 2 (x m);
@m
@2 1
2
ln L(x; ) = 2
;
@m
@2 1
I(m) = E[ 2
ln L(x; )] = 2 :
@m

2.6 Inégalité de Fréchet-Darmois-Cramer-Rao(FDCR)

Nous indiquons dans le suivant que la variance d’un estimateur ne peut être inférieure à une
certaine borne, qui dépend de la quantité d’information de Fisher apportée par l’échantillon
sur le paramètre .Si le domaine de dé…nition de X ne dépend pas de . on a pour tout
estimateur ^ sans biais de :
1
V ( ^) :
In ( )

et si ^ est un estimateur sans biais de k( ) :

0
[K ( )]2
V ( ^) :
In ( )

où k est une fonction dérivable.

Dé…nition 2.6.1 : On dit que T est un estimateur e¢ cace si :

1. T est un estimateur sans biais de alors

1
V (T ) = :
In ( )

22
Chapitre 2. Estimation statistique paramétrique

2. T est un estimateur sans biais de k ( ) alors

0
[K ( )]2
V (T ) = :
In ( )

Théorème sur l’e¢ cacité

La borne de Cramer-Rao ne peut être atteinte que si la loi de X est de la forme exponen-
tielle :
f (x; ) = exp[a(x) ( ) + b(x) + ( )]:

Car ^ est nécessairement exhaustive pour :

Donc, il n’existe qu’une seule fonction k( ) qui puisse être estimée e¢ cacment :

0
( )
k( ) = 0 :
( )

L’estimateur de k( ) est :
1X
n
Tn = a(Xi ):
n i=1

La variance minimale est :

0 0
1 @ ( ) K( )
V (Tn ) = 0 ( 0 )= :
n ( )@ ( ) n 0( )

23
Chapitre 3

Méthod du maximum de
vraisemblance

Dans ce chapitre, on a étudier l’estimation par la méthode du maximum de vraisemblance


de paramètre qui consiste à associer à un échantillon et en donnant quelques propriétés.

3.1 fonction L(x; ) de vraisemblance

[7]

Soit (x1 ; :::; xn ; ); n échantillon de loi f (xi ; );on appelle L(x; ) la fonction vraisemblance
d’éhantillon x1 ; :::; xn la densité noté L(x1 ; :::; xn )

Y
n
L(x1 ; :::; xn ; ) = f (x1 ; :::; xn ; ) = f (xi ; )
i=1

Dé…nition 3.1.1 x1 ; :::; xn indépendents

Dé…nition 3.1.2 Soient x1 ; :::; xn n échantillon de la vraisemblance L(x; ) = L(x1 ; :::; xn ; )


on dit que b estimateur de vraisemblance de si b est maximisé ,la fonction L(x; ):

24
Chapitre 3. Méthode du maximum de vraisemblance

Alors b est une solution de systeme suivant :


8
>
< @L(X1 ;X2 ;:::;Xn ; )
@
( ) = 0:
>
: @ 2 L(X1 ;X2 ;:::;Xn ; ) b
( ) 0:
@ 2

Où 8
>
< @ ln L(X1 ;X2 ;:::;Xn ; )
@
( ) = 0.
>
: @ 2 ln L(X1 ;X2 ;:::;Xn ; ) b
( ) 0:
@ 2

3.2 Méthode du maximum de vraisemblance

[4]

Le principe de l’estimation par maximum de vraisemblance est de dire que plus la probabilité
d’avoir obtenu les observations est forte, plus le modèle est proche de réalité.

Ainsi, on retient le modèle pour le quel la vraisemblance de notre échantillon est la plus
élevée :
bM V = arg max L(x1 ; :::; xn ; ):

En pratique, on va savoir un problème de résoudre directement en raison de la prèsence du


produit mais il su¢ t de prendre le logarithme de la vraisemblance :

bM V = arg max ln L(x1 ; :::; xn ; ):

Pour trouver le maximum, on résoud l’équation du premier ordre :

@L(x1 ; :::; xn ; )
j = bM V = 0:
@

La théorie nous dit que la solution de cette équation nous donne toujours le maximum,on
obtient bM V sous la forme
bM V = g(x1 ; :::; xn ):

25
Chapitre 3. Méthode du maximum de vraisemblance

3.3 Propriétés asymptotiques

L’estimateur obtenu par la méthode du maximum de vraisemblance n’est pas forcément


unique (la vraisemblance peut avoir plusieurs maxima), ni sans biais, ni de variance minimale,
ni e¢ cace. présente des bonnes propriétés :

Propriété 3.3.1 :

Si les Xi sont independants et de meme loi dependant d’un paramètre réel on a :

1. bn converge presque surement vers .


p
2. In ( )( bn b
! N (0; 1) ce qui signife que, quand n est grand n , est approxima-
) Loi
tivement de loi N (0, 1 ), On deduit que bn est asymptotiquement gaussien, sans biais
In ( )

et e¤cace.Cette propriété peut aussi s’écrire :

p 1
n( bn ! N (0; I1 ( ) ):
) Loi

3. Si bn est l’EMV de , alors '( bn ) est l’EMV de '( ). De plus, si ' est derivable, on a :

0
p ' ( )2
n('( bn ) '( )) Loi
! N (0; ):
I1 ( )

Ce résultat est connu sous le nom de méthode delta. Quand n est grand, '( bn ); est donc
0 2
approximativement de loi N (0; 'In(( )) ).

3.4 Exemple de l’EMV

3.4.1 Loi discrète

Loi de poisson

On souhaite estimer le paramètre d’une loi de Poisson à partir d’un n échantillon. On a

26
Chapitre 3. Méthode du maximum de vraisemblance

xe
P (x; ) = P (X = x) = xi !
. La fonction de vraisemblance s’écrit :

Y
n xi Y
n xi
n
L(x1 ; :::; xn ; ) = e =e :
i=1
xi ! i=1
xi !

Il est plus simple d’utiliser le logarithme, la vraisemblance étant positive :

Y
n xi X
n xi X
n X
n
n
ln L(x1 ; :::; xn ; ) = ln e + ln = n + ln = n + ln( ) xi ln(xi !):
x!
i=1 i i=1
xi ! i=1 i=1

La dérivée première :
1X
n
@ ln(X1 ; X2 ; :::; Xn ; )
= n+ xi :
@ i=1

X
n
S’annule pour b = 1
n
xi . la dérivée seconde :
i=1

1X
n
@ 2 ln(X1 ; X2 ; :::; Xn ; )
= xi :
@ 2 2
i=1

X
n
Est toujours négative ou nulle. ainsi l’estimation donnée par, b = 1
n
xi = X conduit à
i=1
un estimateur du maximum de vraisemblance égal à b = X . il est normal de retrouver la
moyenne empirique qui est le meilleur estimateur possible pour le paramètre :

3.4.2 Lois continues

Variable aléatoire de loi normale :


2
On suppose que X N (m; ) et sa densité est :

1 1 x m 2
( )
f (x) = p e 2 :
2

2
de moyenne m et variance sont des inconnues, on tire un échantillon X1 ; :::; Xn iid de
taille n les valeurs observées sont x1 ; :::; xn :

27
Chapitre 3. Méthode du maximum de vraisemblance

b M V et
On essaie de trouver les estimateurs du maximum de vraisemblance de la moyenne m
MV
de la variance b2 .

* Considérons d’abord l’estimation de m :

Puisque X est une v:a continue, la fonction de vraisemblance doit être dé…nit à partir de la
densité.

Soit :

L(x1 ; :::; x; m) = f (x1 ; m):::f (xn ; m):


Y
n
= f (xi ; m):
i=1

Donc :

Yn
1 1 x m 2
L(x1 ; :::; x; m) = [ p e( 2
( ) )
]:
i=1
2
X
n
1 xi m 2
( 2
( ) )
1
= ( p )n e i=1 :
2

Puis, on a le logarithme de la vraisemblance :

1 X xi
n
p m
ln L(x; m) = n ln( 2 ) ( )2 :
2 i=1

On a l’équation de vraisemblance :

@ X xi n
m
ln L(x; m) = 2
:
@m i=1

28
Chapitre 3. Méthode du maximum de vraisemblance

b M V est déterminé par l’équation suivante :


Ainsi, m

X
n
xi m X
n
( 2
) = 0 =) (xi m) = 0:
i=1 i=1
X
n
xi
MV
b
=) m = = X:
i=1
n

2
* Considérons maintenant l’EMV de :

Soit toujours

1 X xi
n
p m
ln L(x1 ; :::xn ; m) = n ln( 2 ) ( )2 ;
2 i=1
1X
n 2
n p xi m
= ln( 2 ) ln( 2 ) :
2 2 i=1

L’équation de la vraisemblance est :

1 X (xi
n
@ 2 n m) 2
ln(L(x; m; )) = + :
@ 2 2 2 2 i=1 4

L’EMV b2M V est déterminé, ainsi par l’équation suivante :

X
n
2
n + (xi m)2
n X
n
(xi m) 2
i=1
2
+ 4
= 0 =) 4
= 0:
2 i=1
2 2
X
n
2
=) n + (xi m)2 = 0:
i=1

Alors
1X
n
2M V
b = (xi m)2 :
n i=1

Donc on remplace par sa valeur devient

1X
n
2M V
b = (xi X)2 = S 2 :
n i=1

29
Chapitre 3. Méthode du maximum de vraisemblance

3.5 Remarques

Cette méthode du maximum de vraisemblence parfois ne donne pas de résultat direct.

Exemple 3.5.1 Soit X = (X1 ; X2 ; :::; Xn ) U[0; ] , alors :

Y
n
1
L(X; ) = I[0; ] (Xi );
i=1
1
= I
n f0 inf 1 i n Xi sup1 i n Xi g;

ln L(X; ) = n ln I[0; ] (Xi ):

Et 8
>
< 1 si xi 2 [0; ]:
I[0; ] (xi ) =
>
: 0 sinon.

Alors 8
>
< @ ln L(X1 ;X2 ;:::;Xn ; ) n
@
= = 0::::::::( ):
>
: @ 2 ln L(X1 ;X2 ;:::;Xn ; )
j = n
0:
@ 2 = bM V 2

Exemple 3.5.2 Mais l’équation (*) n’a pas de sens on peut écrire la fonction de vraisem-
blance en fonction de sous la forme

1
L(X; ) = I
n [max xi ;+1[
( );

Exemple 3.5.3 Qui admet une maximum pour = max xi Xi :


1 i n

donc
^ = max Xi :
1 i n

Est l’estimateur du maximum de vraisemblance de :

Exemple 3.5.4 : Soit (x1 ; :::; xn ; ); n échantillon de loi (a; b); la fonction de vraisemblance

30
Chapitre 3. Méthode du maximum de vraisemblance

Fig. 3.1 –Figure : courbe de la fonction de vraisemblance

est donnée par :

P
ba a 1 bna b xi
L (x1 ; :::; xn ; a; b) = x e bxi
= e 1 i n
xai 1
1 i n (a) i [ (a)]n 1 i n

D’o¼
u
X X
ln L (x1 ; :::; xn ; a; b) = na ln b n ln (a) b xi + (a 1) ln xi
1 i n 1 i n

Donc 8
> @ ln L(X1 ;X2 ;:::;Xn ;a;b) 0 (a) P
>
< @a
= n ln b n (a)
+ ln xi = 0:::::::::(1)
1 i n
> P
>
:
@ ln L(X1 ;X2 ;:::;Xn ;a;b)
= na
xi = 0::::::::::::::::::::::(2)
@b b
1 i n

D’aprés (2) on trouve b = xa si on remplace ce résultat dans (1) on obtient que b


a est solution
de l’équation implicite

0
(a) X
n ln a n ln x n + ln xi = 0
(a) 1 i n

31
Chapitre 3. Méthode du maximum de vraisemblance

a déterminé on en déduit bb =
cette équation est à résoudre par des méthodes numériques,si b b
a
x

3.6 Application en R

3.6.1 Loi discrète

Code pour la loi de poissonP ( )

X=rpois(100,2)

Méthode du maximum de vraisemblance

##Fonction pour déterminer l’EMV numériquement

mv=function(Y){

m=mean(Y)

n=length(Y)

logL=function(lamda){-(sum(Y)*log(lamda)-n*lamda)}

mv=optim(m,logL)$par

return(mv)}

mv(X)

Résultat numérique b=1.88

##Le biais de L’EMV

biaismv=function(n,m,lamda){

col=numeric(m)

for(i in 1 :m){col[i]=mv(rpois(n,lamda))}

biais=mean(col)-lamda

return(biais)}

biaismv(100,500,2)

Résultat numérique [1] -0.00062

32
Chapitre 3. Méthode du maximum de vraisemblance

#Erreur quadratique moyenne de L’EMV

EQMmv=function(n,m,lamda){

col=numeric(m)

for(i in 1 :m){col[i]=mv(rpois(n,lamda))}

biais=mean(col)-lamda

EQM=var(col)+biais^2

return(EQM)}

EQMmv(100,500,2)

Résultat numérique [1]0.019920840

#########################

3.6.2 Loi continue

Code pour la loi normal N ( ; )

x=rnorm(100,0,3)

Méthode du maximum de vraisemblance

##Fonction pour déterminer l’EMV numériquement

mv=function(Y){

logL=function(theta,ech=Y){

mu=theta[1]

sig2=theta[2]

n=length(ech)

a1=-(n/2)*log(2*pi)-(n/2)*log(sig2)

a2=-1/(2*sig2)

z=(ech-mu)^2

logv=(-(a1+a2*sum(z)))}

33
Chapitre 3. Méthode du maximum de vraisemblance

mv=optim(c(0,3),logL)$par

return(mv)}

mv(x)

Resultat numerique^ =-0.1710185 et ^ 2 =8.8084780

###########Le biais de L’EMV

biaismv=function(n,m,mu,sig2){

col1=numeric(m)

col2=numeric(m)

ma=matrix(data=0,nrow=m,ncol=2)

for(i in 1 :m){

ma[i]=mv(rnorm(n,mu,sig2))}

for(i in 1 :m){

col1[i]=ma[i,1]

col2[i]=ma[i,2]}

biais1=mean(col1)-mu

biais2=mean(col2)-sig2

return(c(biais1,biais2))}

biaismv(100,500,0,3)

Résultat numérique[1] 0.00732572 -3.00000000

###Erreur quadratique moyenne

EQMmv=function(n,m,mu,sig2){

col1=numeric(m)

col2=numeric(m)

ma=matrix(data=0,nrow=m,ncol=2)

for(i in 1 :m){

34
Chapitre 3. Méthode du maximum de vraisemblance

ma[i]=mv(rnorm(n,mu,sig2))}

for(i in 1 :m){

col1[i]=ma[i,1]

col2[i]=ma[i,2]}

biais1=mean(col1)-mu

biais2=mean(col2)-sig2

EQM1=var(col1)+biais1^2

EQM2=var(col2)+biais2^2

return(c(EQM1,EQM2))}

EQMmv(100,500,0,3)

Résultat numérique[1] 0.0951526 9.0000000

35
Conclusion

Dans ce travaille, nous avons etudié l’un des méthodes d’estimation qui est la méthode
du maximum de vraisemblance, c’est les plus utilisées, parce que le vraisemblance est une
fonction qui contient toute l’information des données sur le paramètre inconnu.

Elle joue un role important dans de nombreuses méthodes statistiques, possède des propriétés
intéressantes, notamment : la convergence, l’e¤cacité, c’est le meilleur des estimateurs, mais
malgré la qualité estimation ,il peésente des inconvénients comme si l’ensemple de dé…nition
dépend de paramètre que l’on veut éstimer.

36
Bibliographie

[1] Christophe Chesneau,Caen (2018).cour sur l’Estimateur du Maximun de Vraisemblance

[2] Gilbert Saporta, (2006) ,Probabilités Analyse des données et Statistique, Université de
Paris,France

[3] Jeanblanc,Monique, Master. (2006). Cours de calcul stochastique.2IF EVRY

[4] Michel Lejeune.Springer.(2010).Statistique. La théorie et ses applications.

[5] Oliver Gaudoin,Note de cour deuxiéme.principes et Méthodes statiques

[6] Philippe Huber, Ronchetti Elvezio.(2006).Maitriser l’aleatoire_ exercises resolus de pro-


babilites et statistique

[7] Pierre DUSART,(2018).Cour de Statistique inférentielles,Licence 2-S4-SI-MASS

[8] Pierre Lecoutre ,Statistique et Probabiltés .DUNOD.

[9] Thibault LAURENT,(2019) ,Prise en main Du logiciel R.

[10] Yadolah Dodge, Giuseppe Mel….Springer (2008) .Premiers pas en simulation.

37
Annexe A : Logiciel R

[9]

Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous :

R est un système, communément appelé langage et logiciel, qui permet de réaliser des ana-
lyses statistiques. Plus particulièrement, il comporte des moyens qui rendent possible la
manipulation des données, les calculs et les représentations graphiques. R a aussi la pos-
sibilité d’exécuter des programmes stockés dans des …chiers textes et comporte un grand
nombre de procédures statistiques appelées paquets. Ces derniers permettent de traiter as-
sez rapidement des sujets aussi variés que les modèles linéaires (simples et généralisés), la
régression (linéaire et non linéaire), les séries chronologiques, les tests paramétriques et non
paramétriques classiques, les de¤érentes méthodes d’analyse des données,...plusieurs paquets,
tels ade4; F actoM ineR; M ASS; multivariate; scatterplotodetrgl entre autres sont destinés à
l’analyse des données statistiques multidimensionnelles, il a été initialement créé, en 1996, par
Robert; Gentleman et Ross Ihaka du département de statistique de l’Université d’Auckland
en Nouvelle Zélande. Depuis 1997, il s’est formé une équipe "R Core; T eam" qui développe R.
Il est conçu pour pouvoir être utilisé avec les systèmes d’exploitation U nix; Linux, Windows
et MacOS.

Un élément clé dans la mission de développement de Rest le ComprehensiveR Archive


Network (CRAN) qui est un ensemble de sites qui fournit tout ce qui est nécessaire à la
distribution de R, ses extensions, sa documentation, ses …chiers sources et ses …chiers binaires.
Le site maître du CRAN est situé en Autriche à Vienne, on peut y accéder par l’URL :

38
Annexe A : Logiciel R

"http : ==cran:r project:org=". Les autres sites du CRAN, appelés sites miroirs, sont
répandus partout dans le monde.

R est un logiciel libre distribué sous les termes de la "GNU Public Licence". Il fait partie in-

tégrante du projet GNU et possède un site o¤ciel à l’adresse "http : ==www:R project:org".

Il est souvent présenté comme un clone de S qui est un langage de haut niveau développé
par les AT&T Bell Laboratories et plus particulièrement par RickBecker; JohnChamberset
Allan; W ilks:Sest utilisable à travers le logicielS-Plus qui est commercialisé par la société
Insightful (http : ==www:splus:com=):

39
Annexe B : Abréviations et Notations

Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous :
bM V Estimateur par la méthod maximum de vraisemblance.
Ensemble des paramètres.
i:i:d Indépendantes nnidentiquement distribuées.
l Fonction log vraisemblance.
E(X) moyenne théourque X .
V (X) Variance du v:a X .
X Lamoyenne empirique:
L(X; ) Fonction de vraisemblance.
P Loi de paramètre .
F (x ; ) Fonction de répartition.
B(n; ) Le biais de l’estimateur Tn .
(X1 ; :::; Xn ) Échantillon aléatoire.
(x1 ; :::; xn ) Réalisation de léchantillon.
L
! Convergence en loi.
p:s Convergence presque sûre.
!
In ( ) Information de Fisher.

40
‫الملخص‬
‫و االحتماالت ميدان في مهم رياضي مفهوم الى التطرق هو العمل هذا من الغرض‬
‫مع القصوى االحتمالية تقدير هو و اخرى علمية ميادين في وكذلك االحصاء‬
.R ‫بالبرمجة مدروسة لألمثلة عددي تقدير اعطاء‬
.‫ االحتمالية القصوى‬,‫ اللحظة التجريبية‬,‫ التقدير‬,‫ االحصاء‬,‫ العينة‬:‫الكلمات المفتاحية‬

Résumé
Le but de ce travail est d'aborder un concept mathématique
important dans les domaines des probabilités et des
statistiques ainsi que dans d'autres domaines scientifiques,
c'est une estimation du maximum de vraisembalence, donner
une estimation numérique des exemples qui étudiés en logiciel
: R.
Mots clés: échantillon, statistique, estimateur, moment
empirique, maximum de vraisemblance.

Abstract
The purpose of this work is to address an important
mathematical concept in the field of probability and statistics
as well as in other scientific fields, it is an estimate of the
maximum likelihood giving a numerical estimate of the
examples studied using software : R.
Key words : sample , statistics, estimate, empirical moment,
maximum likelihood.

Vous aimerez peut-être aussi