Estimation par Maximum de Vraisemblance
Estimation par Maximum de Vraisemblance
Juin 2021
Dédicace
à ma …ancée : Abdallatif. B.
i
REMERCIEMENTS
Nous voudrions remercier le encadré Brahim Mansoul pour les orientations scienti…ques
précises ; nos profonds remerciements pour les membres de jury nous qui ont accepté
d’évaluer ce travail.
Merci également a tous les enseignants qui m’ont aidé pendant mon cursus, sans oublier
leurs conseils précieux.
ii
Table des matières
Dédicace i
Remerciements ii
Introduction 1
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6 Échantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
iii
1.6.4 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6 Application en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Conclusion 35
iv
Table des matières
Bibliographie 36
Annexe A : Logiciel R 38
v
Introduction
L’estimation est l’un des activités principales de statistique, et c’est la problématique in-
verse de l’échantillonnage, il s’agit d’estimer certaines caractéristiques statistiques de la loi
(moyenne, variance, fonction de répartition, etc...) à travers d’une série d’observations. l’es-
timation consiste à donner des valeurs approximatives aux paramètres d’une population à
l’aide d’un échantillon de n observations issues de cette population. On peut se tromper sur la
valeur exacte, mais on donne la “meilleure valeur”possible que l’on peut supposer.La théorie
de l’estimation étudie les méthodes générales d’estimations.
On a plusieurs méthodes pour estimer un paramètre comme la méthode des moindres carrés,
et la méthode des moments, et la méthode du maximum de vraisemblance cette méthode a
été dévelloppée par le staticien Aylmer Ronald Fisher en 1922. Il utilisa la loi Binomiale pour
illustrer son critère.
L’objectif de notre travail est d’étudier l’estimation par la méthode du maximum de vrai-
semblance qui est une méthode pour inférer les paramètres de la loi de probabilité d’un
échantillon donnée pour chercher l’estimateur inconnu, dont nous allons donner les proprié-
tés essentielles puis nous étudierons principalement les statistiques exhaustives, la quantité
d’information apporté par un échantillon de taille n.
1
Introduction
Premièr chapitre :
Dans ce chapitre, on introduit les notions générales des probabilités et statistiques, en donnant
la défnition d’une lois de probabilité , Population , Caractère, échantillon , statistique, les
moments empiriques act....
Deuxième chapitre :
Troisième chapitre
2
Chapitre 1
1.1 Tribu
[3]
Dé…nition 1.1.1 :Soit A un ensemble de parties de (A P( )); on dit que A est un tribu
(ou algebre ) si vér…er les conditions suivantes :
1. f g 2 A :
Remarque 1.1.1 :
3
Chapitre 1. Rappel sur les notions probabiltés et statistiques
– Tribu des borélieners de R (on note BR ),c’est la plus petit tribu contenant tous les inter-
valles ouverts.
– L’ensembles des parties de (on note P( )), c’est la plus grand tribu.
– Si un ensemble des possibilités d’un expérience aléatoire, ( ; A) dit espace probabilisable.
: A ! R+ = [0; +1] :
Telle que :
1. ( ) = 0:
P
2. 8(Ai )i2I N ([i2I Ai ) = i2I
(Ai ) si 8i; j 2 I Ai \ Aj = f g:
P
3. 8i; j 2 I ([i2I Ai ) i2I
(Ai ) si 8i; j 2 I Ai \ Aj 6= f g:
1.1.1 Mesurabilité
[6]
Dé…nition 1.2.1 : Soit ( ; A; P) espace de probabilité on dit une variable aléatoire X tout
fonction sur dans R
X: ! R:
4
Chapitre 1. Rappel sur les notions probabiltés et statistiques
La loi de la variable aléatoire X est la mesure image de P par X. Notée Px , dé…nie par :
1
8B 2 ; Px (B) = P(X (B)):
En pratique on écrit :
Remarque 1.3.1 : La loi d’une variable aléatoire dans le cas continue donne par la fonction
de densité f véri…er :
1. 8x 2 R; f (x) 0:
R
2. R f (x)dx = 1:
[10]
Loi de Bernoulli :
5
Chapitre 1. Rappel sur les notions probabiltés et statistiques
Espérance et Variance :
V ar(X) = p (1 p) :
La fonction de répartition :
La fonction caractéristique :
Loi binomiale :
Espérance et Variance :
V ar(X) = np (1 p) :
6
Chapitre 1. Rappel sur les notions probabiltés et statistiques
La fonction de répartition :
8
< Px
> n
p)n x
si x = 0; 1; :::n:
k=0 ck p(1
FX (x) =
>
: 0 sinon..
La fonction caractéristique :
Loi de Poisson :
Une variable aléatoire X à valeurs dans R suit une loi de Poisson P ( ) de paramètre ;
( > 0) si :
x
e
P (X = x) = :
x!
Espérance et Variance :
La fonction de répartition :
X
n x
Fx (x) = e :
x=0
x!
La fonction caractéristique :
(eit 1)
'x (t) = e :
7
Chapitre 1. Rappel sur les notions probabiltés et statistiques
Loi uniforme :
Une variable aléatoire X suit une loi uniforme lorsque toutes les valeurs prises par X équi-
probables. telle que :
8
>
< 1
n
si xi = 1; :::; n:
8i 2 N; P (X = xi ) =
>
: 0 sinon.
Espérance et Variance :
La fonction de répartition :
x
FX (x) = ( )1[0;n] (x) + 1]n;1[ (x):
n
Loi uniforme :
Dé…nition 1.4.1 La loi Uniforme est la loi exacte de phénomènes continus uniformément
répartis sur un intervalle
8
Chapitre 1. Rappel sur les notions probabiltés et statistiques
Espérance et Variance :
La fonction de répartition :
8
>
>
Z >
> 0 si x a:
x
1 <
FX (x) = 1[a;b] (t)dt = x a
si x 2 [a; b[:
1 b a >
> b a
>
>
: 1 si x b:
La fonction caractéristique :
eibt eiat
'X (t) = :
i(b a)t
Une variable aléatoire absolument continue X suit une loi normale de paramètres ( ; ) si sa
densité de probabilité est donnée par : f .R ! R
1 1 x
( )2
f (x) = p e 2 :
2
Notation : X ! N ( ; )
Espérance et Variance
9
Chapitre 1. Rappel sur les notions probabiltés et statistiques
2
V ar(X) = :
La fonction de répartition :
Z 1
1 1 t
( )2 dt
FX (x) = p e 2 :
0 2
La fonction caractéristique :
i t t2 2
:
'x (t) = e 2
La loi exponentielle :
Espérance et Variance :
1
V ar(X) = 2
:
La fonction de répartition :
8
Z x
>
<
x
0 si x 0:
FX (x) = e 1R+ (t)dt =
1 >
: 1 e x
si x > 0:
10
Chapitre 1. Rappel sur les notions probabiltés et statistiques
La fonction caractéristique :
'x (t) = :
it
[1]
Population :
Dé…nition 1.5.1 Une population est un ensemble d’objets sur lesquels une étude se porte.
Ces objets sont appelés individus.
Caractère statistique
Dé…nition 1.5.2 Toute propriété étudiée sur les individus d’une population est appelée ca-
ractère.Statistique noté X.
Quantitatif s’il mesure une quantité ou un nombre, les valeurs que prend X sont numériques
(le nombre de personnes dans une salle, le nombre d’items...) dans ce cas le caractére s’appelle
variable statistique .
Qualitatif s’il mesure une catégorie, les valeurs que prend X sont des modalités (la couleur
des yeux, la marque de voitures...).
1.6 Échantillon
[10]
11
Chapitre 1. Rappel sur les notions probabiltés et statistiques
distribuées (i:i:d) de même loi que X. La loi de X sera appelée loi mère. Une réalisation de
cet échantillon est un n-uplet de réels (x1 ; :::; xn ) où Xi (!) = xi :.
Cela équivalant à choisir les n unités les unes après les autres au hasard parmi les unités
indexées par f1; 2; :::; N g, et en les sélectionnant pour l’échantillon …nal seulement si elles
n’ont pas encore été choisies.
Dé…nition 1.6.4 : Distribution de probabilité composée de toutes les valeurs possibles d’une
statistique d’échanntillon
1.6.4 Statistique
[7]
Dé…nition 1.6.5 : Soit X une variable aléatoire dont la loi P dépent du paramètre 2
12
Chapitre 1. Rappel sur les notions probabiltés et statistiques
1X
n
X = T (X1 :::; Xn ) = xi :
n i=1
C’est-à-dire la fonction moyenne arithmétique des observation d’un échantillon. cette statis-
tique peut être considérée comme un estimateur, a priori raisonnable, de l’espérence mathé-
matique.
[5]
1X
n
Mr = (xi )r :
n i=1
X n
fr = 1
M (xi X)r :
n i=1
13
Chapitre 1. Rappel sur les notions probabiltés et statistiques
1X
n
M1 = xi = Xn :
n i=1
2. Le moment empirique centré d’odre 2 est appelle la variance empirique et note Sn2 est
donnée par l’expression :
X n
f2 = 1
M (xi Xn )2 = Sn2 :
n i=1
1X
n
E(Xn ) = E(xi ) = :
n i=1
1X
n 2
V ar(x)
V ar(Xn ) = V ar(xi ) = = :
n i=1 n2 n
Remarque 1.6.3 : Soit X une variable aléatoire d’écart-type et de moment centré d’ordre 4
; 4 = E(X )4 on a :
E(Sn2 ) = E(X 4)
2
E(Xn 2
4) :
n 1 2
var(X) var(Xn ) = :
n
Remarque 1.6.4 : Les moments empiriques ont les propriétés asymptotiques suivantes :
14
Chapitre 1. Rappel sur les notions probabiltés et statistiques
15
Chapitre 2
[1]
L’estimation par intervalles de con…ance : on détermine des intervalles de réels, les moins
étendus possible, qui ont de fortes chances de contenir un paramètre inconnu
Les tests statistiques : démarches qui consistent à accepter ou non une hypothèse mettant
en jeu un ou plusieurs paramètres inconnus, avec un faible risque de se tromper.
2.2 Estimateur
[4]
Soit X une variable aléatoire dont la loi de probabilité P dépond d’un seul paramétre .
16
Chapitre 2. Estimation statistique paramétrique
Dé…nition 2.2.1 Un estimateur est une statistique qui a des propriétés bien dé…nies.
Tn = '(X1 ; :::; Xn ):
est appelée estimateur du paramétre . Si Tn tend vers quand n tend vers l’in…ni, la conver-
gence étant une convergence en probabilité, presque sure ou moyenne quadratique.
Quelque estimateurs qui fournis la puisse des bonnes estimateurs parmis toutes les statistiques
possibles, il doit posséder le meilleur estimateur.
E( ^) 6= c-à-d
B(n; ) = E( ^ ) = E( ^) 6= 0:
1X 1X 2 1X
n n n
S2 = (xi X)2 = x (X)2 = (xi )2 (X )2 :
n i=1 n i=1 i n i=1
2 2 2
2 2 2 2 2 (n 1) 2
E(S ) = +m m = = 6= :
n n n
17
Chapitre 2. Estimation statistique paramétrique
1X
n
E(xi ) = ; 8i = 1; :::; n ; X = (xi ):
n i=1
1X 1X
n n
1 1
E(X) = E( xi ) = E(xi ) = nE(xi ) = n =
n i=1 n i=1 n n
Preuve. : On a
EQM ( ^) = E[( ^ )2 ];
= E[( ^ E( ^) + E( ^) )2 ];
18
Chapitre 2. Estimation statistique paramétrique
Remarque 2.3.1 Pour réaliser la plus petite possible erreur quadratique moyenne, il faut
que :
Parmi les estimateurs sans biais, on choisira donc celui qui la variance la plus petite, cette
propriété traduit l’e¢ cacité de l’estimateur.
[8]
Dans cette paragraphe, nous considérons un estimateur ^ dont la loi dépond de paramétre
qu’on s’intéresse un bon estimateur ^: s’il est proche de la vraie valeur de Pour savoir la
dernière, on peut l’interpréter, par exemple : la convergence en probabilité de ^ vers la vraie
valeur du paramétre :
Dé…nition 2.3.3 : L’estimateur est dit convergent (ou consistant) si la suite ^ converge
p
en probabilité vers (^ ! )
Remarque 2.3.2 On dit que l’estimateur est fortement convergent lorsqu’on a la conver-
gence presque sûre (p:s):
Propriété 2.3.1 : Pour valider la convergence d’un estimateur, il su¢ t de montrer que :
Pour véri…er ce critère, il faut connaitre la loi de X et celle de ^ pour calculer l’espérence et
la variance.
19
Chapitre 2. Estimation statistique paramétrique
alors :
E(X) = m:
Et
2
V ar(X) = ! 0:
n n !1
2.4 Exhaustivité
[2]
Dé…nition 2.4.1 : On dit que ^ est une statistique exhaustive pour 2 Rk si la loi
conditionelle de X = (X1 ; X2 ; :::; Xn ) sachant ^(x) = k ne dépend pas de .
20
Chapitre 2. Estimation statistique paramétrique
xi
n
L(x1 ; :::; xn ; ) = i=1 exp( ) xi ;
!
Xn
xi
i=1
= exp( n ) :
Y
n
xi !
i=1
Alors
g(t(x1 ; :::; xn ); ) = exp( n ) :
Y
n
xi !
i=1
Et
X
n
h(x1 ; :::; xn ) = xi :
i=1
E est l’ensemble fondamentale; A est une tribu sur E, et P est une probabilité dé…nie sur
l’espace probabilisable (E; A).
@ ln L(X; ) 2
In ( ) = V (S(X; )) = E[(S(X; ))2 ] = E[( ) ]:
@
Où
Y
n
L(X1 ; X2 ; :::; Xn ; ) = f (X; ):
i=1
@S(X; ) @ 2 ln L(X; )
In ( ) = E[ ]= E[ ]:
@ @ 2
21
Chapitre 2. Estimation statistique paramétrique
2
Exemple 2.5.1 : Soit X une v:a telleque X N (m; ) alors l’information de Fisher pour
cette v:a est :
( )
2
1 1 x m
L(x; ) = p exp ;
2 2 2
2
1 1 x m
ln L(x; ) = ln(2 ) ln( ) ;
2 2
@ 1
ln L(x; ) = 2 (x m);
@m
@2 1
2
ln L(x; ) = 2
;
@m
@2 1
I(m) = E[ 2
ln L(x; )] = 2 :
@m
Nous indiquons dans le suivant que la variance d’un estimateur ne peut être inférieure à une
certaine borne, qui dépend de la quantité d’information de Fisher apportée par l’échantillon
sur le paramètre .Si le domaine de dé…nition de X ne dépend pas de . on a pour tout
estimateur ^ sans biais de :
1
V ( ^) :
In ( )
0
[K ( )]2
V ( ^) :
In ( )
1
V (T ) = :
In ( )
22
Chapitre 2. Estimation statistique paramétrique
0
[K ( )]2
V (T ) = :
In ( )
La borne de Cramer-Rao ne peut être atteinte que si la loi de X est de la forme exponen-
tielle :
f (x; ) = exp[a(x) ( ) + b(x) + ( )]:
Donc, il n’existe qu’une seule fonction k( ) qui puisse être estimée e¢ cacment :
0
( )
k( ) = 0 :
( )
L’estimateur de k( ) est :
1X
n
Tn = a(Xi ):
n i=1
0 0
1 @ ( ) K( )
V (Tn ) = 0 ( 0 )= :
n ( )@ ( ) n 0( )
23
Chapitre 3
Méthod du maximum de
vraisemblance
[7]
Soit (x1 ; :::; xn ; ); n échantillon de loi f (xi ; );on appelle L(x; ) la fonction vraisemblance
d’éhantillon x1 ; :::; xn la densité noté L(x1 ; :::; xn )
Y
n
L(x1 ; :::; xn ; ) = f (x1 ; :::; xn ; ) = f (xi ; )
i=1
24
Chapitre 3. Méthode du maximum de vraisemblance
Où 8
>
< @ ln L(X1 ;X2 ;:::;Xn ; )
@
( ) = 0.
>
: @ 2 ln L(X1 ;X2 ;:::;Xn ; ) b
( ) 0:
@ 2
[4]
Le principe de l’estimation par maximum de vraisemblance est de dire que plus la probabilité
d’avoir obtenu les observations est forte, plus le modèle est proche de réalité.
Ainsi, on retient le modèle pour le quel la vraisemblance de notre échantillon est la plus
élevée :
bM V = arg max L(x1 ; :::; xn ; ):
@L(x1 ; :::; xn ; )
j = bM V = 0:
@
La théorie nous dit que la solution de cette équation nous donne toujours le maximum,on
obtient bM V sous la forme
bM V = g(x1 ; :::; xn ):
25
Chapitre 3. Méthode du maximum de vraisemblance
Propriété 3.3.1 :
p 1
n( bn ! N (0; I1 ( ) ):
) Loi
3. Si bn est l’EMV de , alors '( bn ) est l’EMV de '( ). De plus, si ' est derivable, on a :
0
p ' ( )2
n('( bn ) '( )) Loi
! N (0; ):
I1 ( )
Ce résultat est connu sous le nom de méthode delta. Quand n est grand, '( bn ); est donc
0 2
approximativement de loi N (0; 'In(( )) ).
Loi de poisson
26
Chapitre 3. Méthode du maximum de vraisemblance
xe
P (x; ) = P (X = x) = xi !
. La fonction de vraisemblance s’écrit :
Y
n xi Y
n xi
n
L(x1 ; :::; xn ; ) = e =e :
i=1
xi ! i=1
xi !
Y
n xi X
n xi X
n X
n
n
ln L(x1 ; :::; xn ; ) = ln e + ln = n + ln = n + ln( ) xi ln(xi !):
x!
i=1 i i=1
xi ! i=1 i=1
La dérivée première :
1X
n
@ ln(X1 ; X2 ; :::; Xn ; )
= n+ xi :
@ i=1
X
n
S’annule pour b = 1
n
xi . la dérivée seconde :
i=1
1X
n
@ 2 ln(X1 ; X2 ; :::; Xn ; )
= xi :
@ 2 2
i=1
X
n
Est toujours négative ou nulle. ainsi l’estimation donnée par, b = 1
n
xi = X conduit à
i=1
un estimateur du maximum de vraisemblance égal à b = X . il est normal de retrouver la
moyenne empirique qui est le meilleur estimateur possible pour le paramètre :
1 1 x m 2
( )
f (x) = p e 2 :
2
2
de moyenne m et variance sont des inconnues, on tire un échantillon X1 ; :::; Xn iid de
taille n les valeurs observées sont x1 ; :::; xn :
27
Chapitre 3. Méthode du maximum de vraisemblance
b M V et
On essaie de trouver les estimateurs du maximum de vraisemblance de la moyenne m
MV
de la variance b2 .
Puisque X est une v:a continue, la fonction de vraisemblance doit être dé…nit à partir de la
densité.
Soit :
Donc :
Yn
1 1 x m 2
L(x1 ; :::; x; m) = [ p e( 2
( ) )
]:
i=1
2
X
n
1 xi m 2
( 2
( ) )
1
= ( p )n e i=1 :
2
1 X xi
n
p m
ln L(x; m) = n ln( 2 ) ( )2 :
2 i=1
On a l’équation de vraisemblance :
@ X xi n
m
ln L(x; m) = 2
:
@m i=1
28
Chapitre 3. Méthode du maximum de vraisemblance
X
n
xi m X
n
( 2
) = 0 =) (xi m) = 0:
i=1 i=1
X
n
xi
MV
b
=) m = = X:
i=1
n
2
* Considérons maintenant l’EMV de :
Soit toujours
1 X xi
n
p m
ln L(x1 ; :::xn ; m) = n ln( 2 ) ( )2 ;
2 i=1
1X
n 2
n p xi m
= ln( 2 ) ln( 2 ) :
2 2 i=1
1 X (xi
n
@ 2 n m) 2
ln(L(x; m; )) = + :
@ 2 2 2 2 i=1 4
X
n
2
n + (xi m)2
n X
n
(xi m) 2
i=1
2
+ 4
= 0 =) 4
= 0:
2 i=1
2 2
X
n
2
=) n + (xi m)2 = 0:
i=1
Alors
1X
n
2M V
b = (xi m)2 :
n i=1
1X
n
2M V
b = (xi X)2 = S 2 :
n i=1
29
Chapitre 3. Méthode du maximum de vraisemblance
3.5 Remarques
Y
n
1
L(X; ) = I[0; ] (Xi );
i=1
1
= I
n f0 inf 1 i n Xi sup1 i n Xi g;
Et 8
>
< 1 si xi 2 [0; ]:
I[0; ] (xi ) =
>
: 0 sinon.
Alors 8
>
< @ ln L(X1 ;X2 ;:::;Xn ; ) n
@
= = 0::::::::( ):
>
: @ 2 ln L(X1 ;X2 ;:::;Xn ; )
j = n
0:
@ 2 = bM V 2
Exemple 3.5.2 Mais l’équation (*) n’a pas de sens on peut écrire la fonction de vraisem-
blance en fonction de sous la forme
1
L(X; ) = I
n [max xi ;+1[
( );
donc
^ = max Xi :
1 i n
Exemple 3.5.4 : Soit (x1 ; :::; xn ; ); n échantillon de loi (a; b); la fonction de vraisemblance
30
Chapitre 3. Méthode du maximum de vraisemblance
P
ba a 1 bna b xi
L (x1 ; :::; xn ; a; b) = x e bxi
= e 1 i n
xai 1
1 i n (a) i [ (a)]n 1 i n
D’o¼
u
X X
ln L (x1 ; :::; xn ; a; b) = na ln b n ln (a) b xi + (a 1) ln xi
1 i n 1 i n
Donc 8
> @ ln L(X1 ;X2 ;:::;Xn ;a;b) 0 (a) P
>
< @a
= n ln b n (a)
+ ln xi = 0:::::::::(1)
1 i n
> P
>
:
@ ln L(X1 ;X2 ;:::;Xn ;a;b)
= na
xi = 0::::::::::::::::::::::(2)
@b b
1 i n
0
(a) X
n ln a n ln x n + ln xi = 0
(a) 1 i n
31
Chapitre 3. Méthode du maximum de vraisemblance
a déterminé on en déduit bb =
cette équation est à résoudre par des méthodes numériques,si b b
a
x
3.6 Application en R
X=rpois(100,2)
mv=function(Y){
m=mean(Y)
n=length(Y)
logL=function(lamda){-(sum(Y)*log(lamda)-n*lamda)}
mv=optim(m,logL)$par
return(mv)}
mv(X)
biaismv=function(n,m,lamda){
col=numeric(m)
for(i in 1 :m){col[i]=mv(rpois(n,lamda))}
biais=mean(col)-lamda
return(biais)}
biaismv(100,500,2)
32
Chapitre 3. Méthode du maximum de vraisemblance
EQMmv=function(n,m,lamda){
col=numeric(m)
for(i in 1 :m){col[i]=mv(rpois(n,lamda))}
biais=mean(col)-lamda
EQM=var(col)+biais^2
return(EQM)}
EQMmv(100,500,2)
#########################
x=rnorm(100,0,3)
mv=function(Y){
logL=function(theta,ech=Y){
mu=theta[1]
sig2=theta[2]
n=length(ech)
a1=-(n/2)*log(2*pi)-(n/2)*log(sig2)
a2=-1/(2*sig2)
z=(ech-mu)^2
logv=(-(a1+a2*sum(z)))}
33
Chapitre 3. Méthode du maximum de vraisemblance
mv=optim(c(0,3),logL)$par
return(mv)}
mv(x)
biaismv=function(n,m,mu,sig2){
col1=numeric(m)
col2=numeric(m)
ma=matrix(data=0,nrow=m,ncol=2)
for(i in 1 :m){
ma[i]=mv(rnorm(n,mu,sig2))}
for(i in 1 :m){
col1[i]=ma[i,1]
col2[i]=ma[i,2]}
biais1=mean(col1)-mu
biais2=mean(col2)-sig2
return(c(biais1,biais2))}
biaismv(100,500,0,3)
EQMmv=function(n,m,mu,sig2){
col1=numeric(m)
col2=numeric(m)
ma=matrix(data=0,nrow=m,ncol=2)
for(i in 1 :m){
34
Chapitre 3. Méthode du maximum de vraisemblance
ma[i]=mv(rnorm(n,mu,sig2))}
for(i in 1 :m){
col1[i]=ma[i,1]
col2[i]=ma[i,2]}
biais1=mean(col1)-mu
biais2=mean(col2)-sig2
EQM1=var(col1)+biais1^2
EQM2=var(col2)+biais2^2
return(c(EQM1,EQM2))}
EQMmv(100,500,0,3)
35
Conclusion
Dans ce travaille, nous avons etudié l’un des méthodes d’estimation qui est la méthode
du maximum de vraisemblance, c’est les plus utilisées, parce que le vraisemblance est une
fonction qui contient toute l’information des données sur le paramètre inconnu.
Elle joue un role important dans de nombreuses méthodes statistiques, possède des propriétés
intéressantes, notamment : la convergence, l’e¤cacité, c’est le meilleur des estimateurs, mais
malgré la qualité estimation ,il peésente des inconvénients comme si l’ensemple de dé…nition
dépend de paramètre que l’on veut éstimer.
36
Bibliographie
[2] Gilbert Saporta, (2006) ,Probabilités Analyse des données et Statistique, Université de
Paris,France
37
Annexe A : Logiciel R
[9]
Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous :
R est un système, communément appelé langage et logiciel, qui permet de réaliser des ana-
lyses statistiques. Plus particulièrement, il comporte des moyens qui rendent possible la
manipulation des données, les calculs et les représentations graphiques. R a aussi la pos-
sibilité d’exécuter des programmes stockés dans des …chiers textes et comporte un grand
nombre de procédures statistiques appelées paquets. Ces derniers permettent de traiter as-
sez rapidement des sujets aussi variés que les modèles linéaires (simples et généralisés), la
régression (linéaire et non linéaire), les séries chronologiques, les tests paramétriques et non
paramétriques classiques, les de¤érentes méthodes d’analyse des données,...plusieurs paquets,
tels ade4; F actoM ineR; M ASS; multivariate; scatterplotodetrgl entre autres sont destinés à
l’analyse des données statistiques multidimensionnelles, il a été initialement créé, en 1996, par
Robert; Gentleman et Ross Ihaka du département de statistique de l’Université d’Auckland
en Nouvelle Zélande. Depuis 1997, il s’est formé une équipe "R Core; T eam" qui développe R.
Il est conçu pour pouvoir être utilisé avec les systèmes d’exploitation U nix; Linux, Windows
et MacOS.
38
Annexe A : Logiciel R
"http : ==cran:r project:org=". Les autres sites du CRAN, appelés sites miroirs, sont
répandus partout dans le monde.
R est un logiciel libre distribué sous les termes de la "GNU Public Licence". Il fait partie in-
tégrante du projet GNU et possède un site o¤ciel à l’adresse "http : ==www:R project:org".
Il est souvent présenté comme un clone de S qui est un langage de haut niveau développé
par les AT&T Bell Laboratories et plus particulièrement par RickBecker; JohnChamberset
Allan; W ilks:Sest utilisable à travers le logicielS-Plus qui est commercialisé par la société
Insightful (http : ==www:splus:com=):
39
Annexe B : Abréviations et Notations
Les di¤érentes abréviations et notations utilisées tout au long de ce mémoire sont expliquées
ci-dessous :
bM V Estimateur par la méthod maximum de vraisemblance.
Ensemble des paramètres.
i:i:d Indépendantes nnidentiquement distribuées.
l Fonction log vraisemblance.
E(X) moyenne théourque X .
V (X) Variance du v:a X .
X Lamoyenne empirique:
L(X; ) Fonction de vraisemblance.
P Loi de paramètre .
F (x ; ) Fonction de répartition.
B(n; ) Le biais de l’estimateur Tn .
(X1 ; :::; Xn ) Échantillon aléatoire.
(x1 ; :::; xn ) Réalisation de léchantillon.
L
! Convergence en loi.
p:s Convergence presque sûre.
!
In ( ) Information de Fisher.
40
الملخص
و االحتماالت ميدان في مهم رياضي مفهوم الى التطرق هو العمل هذا من الغرض
مع القصوى االحتمالية تقدير هو و اخرى علمية ميادين في وكذلك االحصاء
.R بالبرمجة مدروسة لألمثلة عددي تقدير اعطاء
. االحتمالية القصوى, اللحظة التجريبية, التقدير, االحصاء, العينة:الكلمات المفتاحية
Résumé
Le but de ce travail est d'aborder un concept mathématique
important dans les domaines des probabilités et des
statistiques ainsi que dans d'autres domaines scientifiques,
c'est une estimation du maximum de vraisembalence, donner
une estimation numérique des exemples qui étudiés en logiciel
: R.
Mots clés: échantillon, statistique, estimateur, moment
empirique, maximum de vraisemblance.
Abstract
The purpose of this work is to address an important
mathematical concept in the field of probability and statistics
as well as in other scientific fields, it is an estimate of the
maximum likelihood giving a numerical estimate of the
examples studied using software : R.
Key words : sample , statistics, estimate, empirical moment,
maximum likelihood.