FACULTÉ DES SCIENCES ET TECHNIQUE BÉNI MELLAL
Département des Mathématiques
MASTER GMA
INFÉRENCE STOCHASTIQUE
Réalisé par :
KHADIJA SEJJARI
Proposé par :
Mr.HAMID MAAROUFI
SÉRIE DES EXERCICES
Année universitaire : 2022/2023
1 CHAPITRE 1 :RAPPEL
1. EXERCICE :1
Soit (xn )n∈N une suite de v.a telle que x ∼ B(n.p) , p ∈ (0.1) et n ∈ N∗ montrer que P (xn ≤ np) = 21 quand
n→∞
⌈np⌉
X X X 1
on a P (xn ≤ np) = (xn = k) = Ckn pk (1 − p)n−k = Ckn pk (1 − p)n−k → lorsque n → ∞
2
k≤np k≤np k=0
1. CORRECTION :1
x ∼ B(n.p)
Soient x1 , x2 ...xn une série de v.a’s iid selon la loi de Bernoulli B(p).
Xn Yn
Soit Sn = . ψ(t) = E( eitxk ) d’après la proposition 1.12
k=1 k=1
n
Y n
Y
itxk
= E(e )= (1 − p + peit ) = (1 − p + peit )n = ψxn (t)
k=1 k=1
D’après le théorème d’unicité (corollaire 1.29) et le théorème 1.7(Théorème central limite)
xn
−p
√n
p(1−p
√
n
∼ N(0.1) E(xi ) = E(xk ) = p ∀k
xn
⌈np⌉ √n −p
X X xn p(1−p
Ckn pk (1 − p)n−k = P (xn = k) = P (xn ≤ np) = P ( ≤ p) = P ( √ ≤ 0) = P (N(0.1) ≤ 0) =
n n
k=0 k≤np
Z 0 −x2
e 2 1
√ dx =
−∞ 2π 2
En général ∀x ∈ R
xn
√n −p r r
xn p(1−p xn p(p − 1 p(p − 1
P ( n ≤ p) = P ( √ ≤ x) = P ( −p≤ x) = P (xn ≤ (x )n))
n n n n
soit x ∈ R x ∼ B(n.p)
xn
pn −p
p(1−p) ⌈xn ⌉
−p
P (xn ≤ x) = P (xn ≤ ⌈n⌉) = P ( ≤
n
pnp(1−p) )
n
quand n est assez large
⌈xn ⌉ ⌈xn ⌉
−p −p
ϕ( pnp(1−p) ) = FN(0.1) (x̃) où x̃ = pnp(1−p)
n n
1. EXERCICE :2
Soit (xn )n∈N∗ une suite de variables aléatoires identiquement et indépendants distribués selon un loi U(0.1)
c-à-d f (x)xi = f (x)x1 = X⌈0.1⌉ (x)
Considérons la v.a vn = max (xi ) et un = min (xi )
1≤i≤n 1≤i≤n
a : Montrer que
P P
vn −→ 1 et un −→ 0
n→∞ n→∞
b : Étudier la convergence dans LP
P (Ω)
1. CORRECTION :2
a : Pour la suite des va’s vn on considére la f.r de cette v.a
Fvn (x) = P(vn ≤ x) = P(∀i = 1...n , ∀i ≤ x) = FX1 ,...,Xn (x1 , ..., xn )
Yn
= FXi (x) Les Xi sont indépendantes
i=1
= ⌈FX1 (x)⌉n Les Xi sont identiquement
distribuées
Z x 0 si x < 0
Or FX1 (x) = χ⌈0.1⌉ (x)dt = x si 0 ≤ x < 1
−∞
1 si x ≥ 1
D’où
0 si x < 0
Fvn (x) = x si 0 ≤ x < 1
1 si x ≥ 1
simple 0 si x < 1
Fvn (x) −→ F (x) =
n→∞ 1 si x ≥ 1
D P
Où v = 1 (v.a dégénérée en 1) c’est à dire vn −→ v = 1 d’où vn −→ 1
n→∞ n→∞
De même manière on a
n
\
Fun (x) = P(un ≤ x) = 1 − P(un > x) = 1 − P(X1 > x1 , ..., Xn > xn ) = 1 − P( (Xi > x)) où
k=1
(Xi > x) = ω ∈ Ω; Xi (ω) > x ∈ F
Y n Y n Yn
=1− P(Xi > x) = 1 − ⌈1 − P(Xi ≤ x)⌉ = 1 − (1 − FXi (x)) = 1 − (1 − FX (x))n
k=1 k=1 k=1
0 si x < 0
Fun (x) = 1 − (1 − x)n si 0 ≤ x ≤ 1
1 si x ≥ 1
0 si x <0
simple
Fun −→ 1 si 0 ≤ x < 1
n→∞
1 si x ≥ 1
0 si x < 0
= =Fu (x) où u = 0
1 si x ≥ 0
Z +∞
b : E(xr ) = rxr−1 P(X ≥ x)dx (∗)
0
Z +∞ Z +∞ Z 1
E(vnr ) = rv r−1 P(Vn ≥ v)dv = rv r−1 (1 − P(vn ≤ v))dv = rv r−1 (1 − v)n dv
0 Z 1 0 Z 1 Z 10
r−1 r+n−1 r−1 1 1
donc finalement E(vn ) = r
(rv −rv )dv = r (v )dv−r v r+n−1 dv = r. ⌈v r ⌉10 −r. ⌈v n+1 ⌉10 =
0 0 0 r r + n
r r
1− d’où E(vnr ) = 1 − ≤ 1; vn ∈ LrP (Ω)
r+n r+n
R +∞
E((vn − 1)r ) = E((−1)r (1 − vn )r ) = (−1)r E((1 − vn )r ) = (−1)r 0 rxr−1 P((1 − vn ) ≥ x)dx
R1 R1
= (−1)r 0 rxr−1 P((vn ) ≥ 1 − x)dx = (−1)r 0 rxr−1 ((1 − x)n )dx
R1
= (−1)r r 0 xr−1 ((1 − x)n )dx
Γ(r)Γ(n + 1)
d’où E((vn − 1)r ) = (−1)r rBeta(r, n + 1) = (−1)r r
Γ(r + n + 1)
(r − 1)!n! r!n!
= (−1)r r = (−1)r
(r + n)! (r + n)!
r!n! simple
Finalement E((vn − 1)r ) = (−1)r −→ 0
(r + n)! n→∞
Z +∞
Lr
vn −→ v = 1 Pour un on montre de même manière que E((un )r ) = rxr−1 P(un ≥ x)dx =
n→∞ 0
Z 1
r!n!
rxr−1 (1 − x)n = rBeta(r, n + 1) =
0 (n + r)!
Lr
Finalement un −→ u = 0; ∀r ∈ N∗
n→∞
2 CHAPITRE 2 :Espérance conditionnelle et Martingale
1. EXERCICE :1
Montrer que
Z :
E(x/B) = xdP/P (B)
B
1. CORRECTION :1
1ére Étape : X est une indicatrice
il existe D un événement
Z de F, χ = χZD
P(B ∩ D)
Z Z
E(x/B) = E(χD /B) = χD dPB = dPB (.) = PB (D) = = χ(B∩D) dP/P(B) = χD dP/P(B) =
Z Ω D P(B) Ω B
xdP/P(B)
B
éme
2 Étape : X est discrète DX = {x1 , ..., xn }
X : Ω −→ R
ω 7−→ X(ω)
X∞
X(ω) = xi .χX −1 ({xi }) (ω)
Zk=1X
∞ ∞
X Z ∞
X
E(x/B) = ⌈ xi .χX −1 ({xi }) ⌉ = xi χX −1 ({xi }) (ω)dPB (ω) = xi E(χX−1 ({xi }) /B)
Ω k=1 k=1 Ω k=1
∞
X Z Z ∞
X Z Z
= xi χX −1 ({xi }) (ω)dP(ω) = ⌈ xi .χX −1 ({xi }) ⌉dP/P(B) = χ(ω)dP(ω)/P(B) = xdP/P(B)
k=1 B B k=1 B B
éme
3 Étape : X est supposé positive
−n n +
Z 2 [2 X] ∧ n. selon
Z X est une v.aZpositive, alors la v.a Xn =
supposons que Z l’exercice 1.5 on a Xn Z↗ X
E(Xn /B) = Xn dPB (.) = lim Xn dPB (.) = lim [ Xn dP] = lim Xn dP/P(B) = lim [XB Xn ]dP/P
Ω Ω n→+∞ Ω n→+∞ B n→+∞ B
Z
E(XB X)
= (XB X)dP/P(B) =
P(B)
4éme Étape : X = X + − X − Z Z Z
E(X/B) = E(X + − X − /B) = (X + − X − )dPB = (X + )dPB − X − )dPB = E(X + /B) − E(X − /B)
Ω Ω Ω
continue comme étape 3
1. EXERCICE :2 [
Pour une tribu B = σ(Bi , i ∈ I), I est dénombrable. Montrer que ∀D ∈ B, ∃J ⊂ I, D = Bj , si Bj
j∈J
constitue une partition de Ω
1. EXERCICE :3
λr exp(−λ)
Soit X une v.a de Poisson : P(X = r) = ; λ > 0 et
r!
x
soit Y = [ ].2,Déterminer E(X/σ(Y )) = E(X/Y ) Puis déduire
2
1. CORRECTION :3
Le domaine de variation de X est DX = N et celui de Y est DY = 2N
Or
σ(Y ) = σ(Y −1 (B), B ∈ B(R)
= σ(Br , r ∈ N), où Br = (Y = x) = {ω ∈ Ω, y(x) = 2r}
Donc E(X/Y ) = E(X/σ(Y )) = E(X/σ(Br , r ∈ N))
Or (Br )r ∈ N constitue une famille complète, en effet
Si ω ∈ Ω; ∃r ∈ N, Y[(ω) = 2r ce la veut dire que
ω ∈ Br , d′ où Ω ⊂ Br , aussi Br ∩r̸=r′ Br′ = {ω ∈ Ω, y(ω) = 2retY (ω) = 2r′ } = ∅
r∈N
X
D’où E(X/σ(Y )) = E(X/σ(Br , r ∈ N)) = E(X/Br )XBr
n∈N
Mais Z
E(X/Br ) = XdP/P(Br ) (1)
Br
P(Br ) = P(Y = 2r)
= P[(X = 2r), u(X = 2r + 1)]
= P(X = u) + P(X = 2r + 1)
2r −λ 2r+1 −λ
= λ(2r)!
e
+ λ(2r+1)!
e
Z Z Z Z
XdP = XdP = XdP + XdP
Br (X=2r)∪(X=2r+1) (X=2r) (X=2r+1)
= 2rP(X = 2r) + (2r + 1)P(X = 2r + 1)
2r −λ
λ2r+1
= 2r λ(2r)!
e
+ (2r+1)! (2r + 1)e−λ
λ2r exp(−λ) λ2r+1 exp(−λ)
= (2r−1)! + (2r)!
λ2r exp(−λ)[ exp(−λ)
(2r−1)! +
λ
(2r)! ]
(1)
[ (2r−1)! + λ
(2r)! ]
D’où E(x/Br ) = 1 λ
= 1 λ
λ2r exp(−λ)[ (2r)! + (2r+1)! ] [ (2r)! + (2r+1)! ]
c/c
1 λ
X [ (2r−1)! + (2r)! ]
E(x/σ(Y )) = [ 1 λ
]χBr
[
r∈N (2r)!
+ (2r+1)! ]
Ainsi donc
1 λ
[ (2r−1)! + (2r)! ]
E(x/σ(Y ))(ω) = 1 λ
si ω ∈ Br
[ (2r)! + (2r+1)! ]
1) λ
[ Y (ω)−1)! + (Y (ω))! ]
= 1 λ
= goY (ω)
[ (Y (ω))! + (Y (ω)+1)! ]
[ (Y 1) λ
−1)! + Y ! ]
ou g(Y)= 1 λ
[ Y ! + (Y +1)! ]
1. EXERCICE :4
Soient X et Y deux v.a’s sur (Ω, F, P) à valeur dans (R, B(R)). Montere que X et σ(Y ) − mes ssi il existe
une fonction g : R → R borélienne telle que X = goY
1. CORRECTION :4
⇐ Trivial
⇒ on a quatre étapes
Etape 1
Supposons que X et une indicatrice c’est à dire X = χD ou D ∈ σ(Y ) c’est à dire encore ∃B, X = χY −1 (B) ,
B ∈ B(R)
1 siY (ω) ∈ B
Donc X(ω) = χY −1 (B) = = χB oY
0 sinon
D’où on prend g = χB borélienne car B ∈ B(R)
Etape 2
Xn
Supposons X = xi χDi ou Di ∈ σ(Y ), il existe Bi , Di = Y − (Bi )
i=1
n
X Xn Xn X n
donc X = xi χY −1 (Bi ) = xi χ(Bi )(Y ) = xi χY −1 (Bi ) = ( xi χ(Bi ))(Y ) = goY
Pn i=1 i=1 i=1 i=1
ou g = i=1 xi χ(Bi ))(Y ) borélienne
Etape 3
X positive, il existe une étagée Xn simple de la forme canonique X = lim Xn
n→∞
Xn
X = lim Xn = lim ( xi ) = lim (gn oY ) = ( lim gn )oY = [ sup ]oY = goY
n→∞ n→∞ n→∞ n→∞ n∈N
i=1
ou g = sup gn est B(R) − mes Etape 4
n
X est qlq X = X + − X −
on a X = X + − X − = g1 oY − g2 oY = (g1 − g2 )(Y ) = goY
ou g = g1 − g2 est borélienne ,car g1 etg2 le sont
1. EXERCICE :5
Soit X v.a’s sur (Ω, F, P) à valeur dans (R, B(R)). et B une sous tribu de F
si σ(x) ⊥ B alors E(x/B) = E(x) ps
1. CORRECTION :5
σ(x) ⊥ B ⇔ ∀A ∈ σ(x) et A′ ∈ B
P(A ∩ A′ ) = P(A).P(A′ ) ⇔ E(χA .χA′ ) = E(χA ).E(χA′ )
Z d’où E(x) est B − mes
E(x) est une Zconstante de R,
∀D ∈ B E(x)dP = xdP
D D
par unicité on dite que E(x) = E(x/B)
Z
xdP = E(χD E(x)) = E(χD ).E(x), Puisque x, χD ∈ L1P (Ω) et que χD ⊥ x, car χD est B − mes et x
D Z Z
est σ(x) − mes, ainsi que E(x/B)dP = E(χD ).E(x) = xdP
D D
cela veut dire que d’après l’unicité de l’espérance conditionnelle on a
E(x) = E(x/B) P.p.s
1. EXERCICE :6
Soit X v.a telle que E|x| < +∞ Montrer que E(E(x/B)) = E(x) P.p.s
1. CORRECTION :6
Z E(x) ⊥ B c’est à dire
Puisque E(x) est une constante alors Z E(x) = E(E(x/B)) P.p.s
SoitD ∈ B il suffit de montrer que E(E(x/B))dP = E(x)dP
Z Z Z D Z Z D Z Z
on a E(E(x/B))dP = ( E(x/B))dP = ( E(x/B))dP = ( x)dP
Z ZD Z D Ω Ω D Ω D
= ( x)dP = E(x)dP
D Ω D
Ainsi donc E(E(x/B)) = E(E(x)/B) = E(E(x)) = E(x) P.p.s
1. EXIRCICE :7
Montrer que E(x/B) est intégrable
1. CORRECTION :7
On sait que x 7−→ |x| est convexe , d’où d’après Jenson
|E(x/B)| ≤ E(|x|/B))
ona donc E(|E(x/B)|) ≤ E(E(|x|/B))) = E|x| < +∞
1. Exercice :8
Montrer les inégalités suivantes
E(X 2 /B)
i : P(|X| ≥ a/B) ≤
a2
ii : E(|XY |/B) ≤ E(|X| /B).E(|Y |q /B)
p
où 1
p + 1
q =1
1. EXERCICE :9
Soient X une v.a sur (Ω, F, P) et B une sous-tribu de F. Alors Si
X ⊥ B ⇐⇒ E(eiXt /B) = E(eiXt ) = ψX (t) = ψX/B (t)
1. CORRECTION :9
⇒ Deux tribus B et D de F
B ⊥ D ⇐⇒ ∀X, Y deux v.a sur (Ω, F, P), X est B − mes et Y est D − mes. On a X ⊥ Y
En effet,d’après la définition d’indépendance du tribu
B ⊥ D ⇐⇒ ∀(A, B) ∈ B, D, on a P(A ∩ B) = P(A)P(B)
Alors puisque X est B − mes ∀B1 ∈ B(R) X −1 (B1 ) ∈ B
Y est D − mes ∀B2 ∈ D(R) Y −1 (B2 ) ∈ D
B ⊥ D ⇒ X −1 (B1 ) ⊥ Y −1 (B2 )
⇒ P(X −1 (B1 ) ∩ Y −1 (B2 )) = P(X −1 (B1 ))P(Y −1 (B2 ))
⇒ P(X,Y ) (B1 × B2 ) = PX (B1 )PY (B2 )
En particulier pour B1 =] − ∞, b1 ] et B2 =] − ∞, b2 ]
Donc F(X, Y )(b1 , b2 ) = P(X, Y )(] − ∞, b1 ]×] − ∞, b2 ]) = PX (] − ∞, b1 ])PY (] − ∞, b2 ]) = FX (b1 )FY (b2 ) ⇒ X ⊥
Y
⇐ Il suffit déduire :
⇒ On sait que si X ⊥ B, alors pour tout g fonction mesurable réelle g(x) ⊥ B
En particulier x 7−→ eitx pour t fixé cette fonction est mesurable, d’après le cours on a
E(eitx /B) = E(eitx ) Pp.s
⇐ Considérons une v.a Z sur (Ω, F, P) ZestB − mes
ψX,Z (t1 , t2 ) = (E(ei(t1 ,t2 )(X,Z) )
= E(E(eit1 X+it2 Z /B))
= E(eit2 Z ψX (t1 )) parhypothése
= ψZ (t2 )ψX (t1 )
Conclusion
ψX,Z (t1 , t2 ) = ψZ (t2 )ψX (t1 ) ∀ZestB − mes
N
Y
(X1 , X2 , ..., XN ) une famille de v.a indépendantes ⇐⇒ ψ(X1 ,...,XN ) (t1 , ..., tN ) = ψXi (ti )
i=1
Donc X ⊥ Z d’où X et B sont indépendantes.
Au lieu d’avoir les fonctions caractéristiques on peut considérer les fonctions génératrices de moment a que ses
fonctions soit définies sur un voisinage ouvert de R contenant 0
E(etx )/B) = MX/B (t) = MX (t) ⇐⇒ X ⊥ B
1. RXERCICE :10
Soient X et Y deux variables aléatoires définies sur (Ω, F, P) et B sous tribu de F alors.
si Y ⊥ B et X est B − mes entraine que E(h(X, Y )/B) = g(X) P.p.s
où g : R −→ R une fonction borélienne
x 7−→ E(h(x, Y ) pour toute borélienne h où h(X, Y ) ∈ L1P (Ω)
h(X, Y ) : Ω −→ R
ω 7−→ h(X(ω), Y (ω))
1. CORRECTION :10
Soit Z un autre v.a B − mes et on a X est B − mes et Y ⊥ B − mes d’ou (X, Z) ⊥ Y (indépendance par paquet)
P(X,Z,Y ) = P(X,Z)
Z .PY Z Z
E(Zh(X, Y )) = h(X, Y )dP = zh(x, y)dPX,Z,Y (x, z, y) = zh(x, y)dPX,Z (x, z)dPY (y)
Z Z Ω R3 Z Z R3
= [ zh(x, y)dPX,Z (x, z)]dPY (y) = z[ h(x, y)dPY (y)]dPX,Z (x, z)
ZR RZ2 Z R2 R
= z[ h(x, Y )dP]dPX,Z (x, z) = zE[h(x, Y )]dPX,Z (x, z)
ZR2 Ω Z R2
= ZE(h(X, Y ))dP = Zg(x)dP
Ω Ω
c/c ∀Zunev.aB − mes, on aE(Zh(X, Y )) = E(Zg(X))
En particulier on prendZ = χB , B ∈ B
d’où E(χB h(X, Y )) = E(χB g(X)) et g est borélienne et x est B − mes ⇒ g(X) est B
d’après la définition de l’espérance conditionnelle et le théorème d’unicité on a : E(h(X, Y )/B) = g(X) P.p.s
1. RXERCICE :11
soit (Xn )n∈N∗ une famille de v.a’s iid de moyenne µ et variance σ 2 Notons par Sn = X1 + ... + Xn et soit N
une v.a à valeurs dansN∗ indépendante de Xn , ∀n ∈ N∗
X
i : Monter l’inégalité de Wald : E(SN ) = µE(N ) où E(N ) = nP(Bn )
n∈N∗
2 2
ii : Déduire que Var(SN ) = σ E(N ) + µ Var(N )
1. CORRECTION :11
i : E(SN ) = E(E(SN ))
N une v.a à valeurs dans N ∗ ,σ(N ) = σ(N−1 (n), n ∈ N∗ ) = σ(N = n), n ∈ N∗ )
E(SN /N ) = g(N ) Doob
E(SN /N ) = E(SN /σ(N )) = E(SN /σ(Bn )n ∈ N∗ )
Bn = {ω ∈ Ω, N (ω) = n}; ∪n Bn = Ω et Bn ∩ Bn′ n̸=n′ = ∅
donc (Bn )n∈N∗ est une famille complété
X d’événement incompatible
d’où E(SN /N ) = E(SN /σ(N )) = E(SN /Bn )χBn )
n∈N∗R R
S dP Sn dP
Z
Bn N E(Sn χBn )
où E(SN /Bn ) = SN dP/P(Bn ) = = Bn =
Bn P(N = n) P(N = n) P(N = n)
P E(χBn Sn ) X E(χBn )
d’où E(SN ) = E(E(SN )) = E( n∈N∗ χB ) = E(χBn Sn ).
P(N = n) n P(N = n)
n∈N∗
X
= E(χBn Sn ) puisque Sn ⊥ χBn
n∈N∗
X X X X
= E(χBn (X1 + ... + Xn )) = E(χBn )E(Sn ) = (nµ)P(N = n) = µ( nP(N = n)) =
n∈N∗ n∈N∗ n∈N∗ n∈N∗
µE(N )
2
ii : Var(SN ) = E(SN ) − [E(SN )]2 =X 2
E(SN ) − [µE(N )]2 = E(SN 2
) − µ2 E2 (N )
2 2
E(SN ) = E(E(SN )/σ(N )) = E[ E(χBn Sn2 )] puisque Sn2 ⊥ χBn
n∈N∗
X E(χBn ) X X
= E(χBn Sn2 ). = E(χBn Sn2 ) = E[nσ 2 + n2 µ2 ]P(N = n) = σ 2 E(N ) + µ2 E(N 2 )
P(N = n)
n∈N∗ n∈N∗ n∈N∗
conclusion
Var(Sn ) = ω 2 E(N ) + µ2 N2 − µ2 (N)2
= σ 2 E(N ) + µ2 Var(N )
3 CHAPITRE 4 :Estimation paramétrique
1. EXERCICE :3
Montrer que Sn1 et Sn2 sont deux estimateurs fortement consistent de σ 2
1. CORRECTION :3
Solution avec monsieur Hervé
1. EXERCICE :2
Soit la v.a X ∼ U (θ1 , θ2 ). On dispose d’un échantillon issue d’une pop caractérise par X; X1 ; ..; Xn
d’observations iid(selon X). la qualité
i Étudier des estimateur θˆ1 = min(X1 ; ..; Xn ) et θˆ2 = max(X1 ; ..; Xn ) de θ1 et θ2 respectivement
ii Étudier la Constance de ces estimateur.
1. CORRECTION :2
(θ1 = 0, θ2 = θ), X ∼ U (0, θ)
i Étudions l’efficacité et le risque de θˆ1
Fθ (x) = P (max(X1 ; ..; Xn ) ≤ x)
= P (max(X1 ≤ x; ..; Xn ≤ x) ≤ x)
= FX1 (x)......FXn (x), carlesXi′ ssont1′ s
= [FX1 (x)]n , carlesXi′ ssontid
Conclusion :
n0 six < 0
x
Fθ̂ (x) = si0 ≤x<θ
θn
1 siθ ≥θ
0 six < 0
x xn−1
FX1 (x) = si0 ≤ x < θ c-a-d f θ̂ (x) = n α(0, θ)
θ θn
1 siθ ≥ θ
Biais de θ̂ :
θ
xn−1
Z
E(θ̂) − θ = xdx − θ
0 θn
Z θ
n
= n xn dx − θ
θ 0
n
= n [xn+1 ]θ0 − θ
θ (n + 1)
nθn+1
= n −θ
θ (n + 1)
nθ
= −θ
(n + 1)
n
= θ( − 1)
n+1
−θ
=
n+1
βn = E(θ̂) − θ −→ 0
n−→+∞
conclusion :
θ̂ est un estimateur biais sympathiquement sans biais.
Risque : R(θ̂, θ) = Var(θ̂ + βn2 )
Z θ Z θ
nx2 xn+1 nxn+1 x
Var(θ̂) = ( n
dx) − ( dx)2
0 θ 0 θn
n θn+2 nθ 2
= −( )
n + 2 θn n+1
n 2 n 2 2 n n 2
= θ −( ) θ = θ2 ( −( ) )
n+2 n+1 n+2 n+1
n(n2 + 2n + 1) − n2 (n + 2)
= θ2 ( )
(n + 2)(n + 1)2
θ2 n
= −→ 0
(n + 2)(n + 1)2 n−→+∞
θ2 n θ2 θ2 n
R(θ̂, θ) = (n+2)(n+1)2 + (n+1)2 = (n+1)2 ( n+1 + 1)
θ 2 (2n+2)
= −→ 0
(n+2)(n+1)2 n−→+∞
0 six < 0
Fθ̂(x) −→ Fθ (x) =
n−→+∞ 1 siθ ≥ θ
La f.r d’une v.a X ≡ θ
D P
Cela veut dire que θ̂ −→ θ, donc on probabilité θ̂ −→ θ Donc consistant
n−→+∞ n−→+∞
P.p.s
on a d’après le lemme 2.5 θ̂ −→ θ
n−→+∞
X X Var(θ̂) X n θ
en effet P(|θ̂ − θ| ≥ ε) ≤ = [ ]( )2
ε2 (n + 1)2 (n + 2) ε
n≥n n≥1 n≥1
X 1 θ 2 X θ2 1
= [ ]( ) = ( Vn 2 ), ouVn ≃ 2
n≥1
(n + 1)2 (1 + n2 ) ε ε
n≥1
n
D’où
X
P(|θ̂ − θ| ≥ ε) < +∞
n≥n
1. EXERCICE :1
Dans l’exemple présedent , determiner le risque destiner α par α̂M LE
1. CORRECTION :1
On sait que R(α, α̂M LE) = Var(α̂M LE) + βn2
Xn
2
E(αM LE ) = E(n2 /( Xi )2 )
i=1
Xn
2
= n E(1/( Xi )2 )
i=1 Pn
= n2 E( Y1 ) où Y = i=1 Xi
2
= E(1/X n )
Après des calculs municieux, on trouve :
α 2 n2 α2
R(α, α̂M LE ) = (n−1)2(n−2) + (n−1) 2
α2 n2
= (n−1)2 [ (n−2) + 1]
n2
= α2 [( (n−2) − 1)2 ]
+ 1)/(n
−→n−→+∞ 0
Donc α̂M LE est asymptotiquement sans brais et sans risque.
3) Soit (X1 , X2 , ..., Xn ) un échantillon d’observation iid selon une loi Uniforme U (0, θ).Trouver θ̂M LE et étudier
ses propriétés.
Discussion
-Consistance,Biais,Risque :
On sait que θ̂M LE = arg max θ ∈ M = R+ L(X1 , X2 , ..., Xn , θ)
Yn
L(X1 , X2 , ..., Xn , θ) = f(Xi ,θ)
i=1
n
Y 1
= χ(0,θ) (Xi )
i=1
θ
Yn
= [ χ(0,θ) (Xi )]/θn
i=1 1
θn si ∀i, 0 ≤ Xi ≤ θ
=
0 sinon
( 1
θ n si max (Xi ) ≤ θ
1≤i≤n
=
0 sinon max(Xi ) > θ
i
Finalement L(X1 , X2 , ..., Xn , θ) = χ[ max (Xi ), +∞[(θ)/θn _ Monter que θ̂M LE = max 1 ≤ i ≤ n(Xi )
1≤i≤n
D’après la forme explicite de la fonction vraisemblance :
1
L(X1 , X2 , ..., Xn , max (Xi ) =
1≤i≤n [ max (Xi )]n
1≤i≤n
Supposons qu’il existe un θ0 tel que
L(X1 , X2 , ..., Xn , max (X0 ) < L(X1 , X2 , ..., Xn , θ0 )
1≤i≤n
Si θ0 < max (X0 ), L(X1 , X2 , ..., Xn , θ0 ) = 0
1≤i≤n
C-à-d L(X1 , X2 , ..., Xn , max (Xi ) = 0, il existe un autre θ˜0 tel que
1≤i≤n
L(X1 , X2 , ..., Xn , max (Xi ) ≤ L(X1 , X2 , ..., Xn , θ˜0 )
1≤i≤n
Cela revient à dire
1
[ max (X0 )]n < =⇒ θ˜0 < max (Xi ), contradiction
1≤i≤n ˜
(θ0 )n 1≤i≤n
Donc θ0 < max (X0 )
1≤i≤n
1 1
( ) = L(X1 , X2 , ..., Xn , max (Xi ) ≥
max (X0 )n 1≤i≤n (θ0 )n
1≤i≤n
D’où θ0 ≤ max (Xi ) =⇒ θ0 = max (Xi ) ou θ0 < max (Xi )
1≤i≤n 1≤i≤n 1≤i≤n
D’où finalement θ̂M LE = max 1 ≤ i ≤ n(Xi )
θ̂M LE est consistant et fortement consistant et asymptotiquement sans biais et sans risque.
1. EXERCICE :4
Soient X1 , X2 , ..., Xn observations iid issus d’une pop uniforme U (θ, θ + 1)
i) Montrer que θ̂M LE min 1 ≤ i ≤ n(X1 , X2 , ..., Xn ), étudier ses propriétés.
ii) On propose un autre estimation note θ˜n = max (Xi ) − 1, etudier ses propriétés.
1≤i≤n
iii) Comparer ces deux estimateurs, le risque :
R(θ, θ̂M LE) R(θ, θ̂n)(le plus efficace)
1. EXERCICE :5
Considérer l’exercice 4.2 : ∀i, χi ∼ U (0, θ), indépendante .
Soit θ̂M LE :l’éstimateur du maximum de vraisemblance.
Étudier la consistance de θ̂M LE .
1. EXERCICE :6
1
Soit (χn )n ∈ N une suite d’observations iid selon une loi uniforme U (θ, 1) : f (x) = 1−θ χ(θ, 1)(x) la fonction de
densité commun pour χn , ∀n ∈ N∗
i) Vérifier que θ̂M LE = min 1 ≤ i ≤ n(χi ).
ii) Montrer que log ff(x/θ 0) 1 2 2
(x/θ) = x(θ − θ0 ) + 2 (θ − θ0 ).
iii) Trouver µθ convenable dans ce problème.
iv) Prouver le consistance de θ̂M LE .
1. EXERCICE :7
Soit (Xn )n ∈ N une suite de v.a’s et χ une autre v.a toutes définie sur (Ω, F, P).Et soit g : R 7−→ R continue.
Montrer que si χn −→ n −→ +∞P χ alors g(χn ) −→P n−→+∞ g(χ)
Ce résultat est vérifier aussi pour les vecteurs aléatoires et g : Rd 7−→ R.