0% ont trouvé ce document utile (0 vote)
29 vues11 pages

3 PB

Ce document présente une série d'exercices sur l'inférence stochastique, abordant des concepts tels que les suites de variables aléatoires, la loi de Bernoulli, et l'espérance conditionnelle. Les exercices incluent des démonstrations de convergence et des calculs d'espérances conditionnelles pour des variables aléatoires spécifiques. Les corrections fournissent des solutions détaillées et des justifications mathématiques pour chaque exercice.

Transféré par

Mohammed Jatta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
29 vues11 pages

3 PB

Ce document présente une série d'exercices sur l'inférence stochastique, abordant des concepts tels que les suites de variables aléatoires, la loi de Bernoulli, et l'espérance conditionnelle. Les exercices incluent des démonstrations de convergence et des calculs d'espérances conditionnelles pour des variables aléatoires spécifiques. Les corrections fournissent des solutions détaillées et des justifications mathématiques pour chaque exercice.

Transféré par

Mohammed Jatta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

FACULTÉ DES SCIENCES ET TECHNIQUE BÉNI MELLAL

Département des Mathématiques


MASTER GMA

INFÉRENCE STOCHASTIQUE

Réalisé par :
KHADIJA SEJJARI
Proposé par :
Mr.HAMID MAAROUFI

SÉRIE DES EXERCICES

Année universitaire : 2022/2023


1 CHAPITRE 1 :RAPPEL
1. EXERCICE :1
Soit (xn )n∈N une suite de v.a telle que x ∼ B(n.p) , p ∈ (0.1) et n ∈ N∗ montrer que P (xn ≤ np) = 21 quand
n→∞
⌈np⌉
X X X 1
on a P (xn ≤ np) = (xn = k) = Ckn pk (1 − p)n−k = Ckn pk (1 − p)n−k → lorsque n → ∞
2
k≤np k≤np k=0
1. CORRECTION :1
x ∼ B(n.p)
Soient x1 , x2 ...xn une série de v.a’s iid selon la loi de Bernoulli B(p).
Xn Yn
Soit Sn = . ψ(t) = E( eitxk ) d’après la proposition 1.12
k=1 k=1
n
Y n
Y
itxk
= E(e )= (1 − p + peit ) = (1 − p + peit )n = ψxn (t)
k=1 k=1
D’après le théorème d’unicité (corollaire 1.29) et le théorème 1.7(Théorème central limite)
xn
−p
√n
p(1−p

n
∼ N(0.1) E(xi ) = E(xk ) = p ∀k
xn
⌈np⌉ √n −p
X X xn p(1−p
Ckn pk (1 − p)n−k = P (xn = k) = P (xn ≤ np) = P ( ≤ p) = P ( √ ≤ 0) = P (N(0.1) ≤ 0) =
n n
k=0 k≤np
Z 0 −x2
e 2 1
√ dx =
−∞ 2π 2
En général ∀x ∈ R
xn
√n −p r r
xn p(1−p xn p(p − 1 p(p − 1
P ( n ≤ p) = P ( √ ≤ x) = P ( −p≤ x) = P (xn ≤ (x )n))
n n n n
soit x ∈ R x ∼ B(n.p)
xn
pn −p
p(1−p) ⌈xn ⌉
−p
P (xn ≤ x) = P (xn ≤ ⌈n⌉) = P ( ≤
n
pnp(1−p) )
n
quand n est assez large
⌈xn ⌉ ⌈xn ⌉
−p −p
ϕ( pnp(1−p) ) = FN(0.1) (x̃) où x̃ = pnp(1−p)
n n

1. EXERCICE :2
Soit (xn )n∈N∗ une suite de variables aléatoires identiquement et indépendants distribués selon un loi U(0.1)
c-à-d f (x)xi = f (x)x1 = X⌈0.1⌉ (x)
Considérons la v.a vn = max (xi ) et un = min (xi )
1≤i≤n 1≤i≤n

a : Montrer que
P P
vn −→ 1 et un −→ 0
n→∞ n→∞

b : Étudier la convergence dans LP


P (Ω)

1. CORRECTION :2
a : Pour la suite des va’s vn on considére la f.r de cette v.a
Fvn (x) = P(vn ≤ x) = P(∀i = 1...n , ∀i ≤ x) = FX1 ,...,Xn (x1 , ..., xn )
Yn
= FXi (x) Les Xi sont indépendantes
i=1
= ⌈FX1 (x)⌉n Les Xi sont identiquement
 distribuées
Z x  0 si x < 0
Or FX1 (x) = χ⌈0.1⌉ (x)dt = x si 0 ≤ x < 1
−∞ 
1 si x ≥ 1
D’où 
 0 si x < 0
Fvn (x) = x si 0 ≤ x < 1
1 si x ≥ 1


simple 0 si x < 1
Fvn (x) −→ F (x) =
n→∞ 1 si x ≥ 1
D P
Où v = 1 (v.a dégénérée en 1) c’est à dire vn −→ v = 1 d’où vn −→ 1
n→∞ n→∞
De même manière on a
n
\
Fun (x) = P(un ≤ x) = 1 − P(un > x) = 1 − P(X1 > x1 , ..., Xn > xn ) = 1 − P( (Xi > x)) où
k=1
(Xi > x) = ω ∈ Ω; Xi (ω) > x ∈ F
Y n Y n Yn
=1− P(Xi > x) = 1 − ⌈1 − P(Xi ≤ x)⌉ = 1 − (1 − FXi (x)) = 1 − (1 − FX (x))n
k=1  k=1 k=1
 0 si x < 0
Fun (x) = 1 − (1 − x)n si 0 ≤ x ≤ 1
1 si x ≥ 1

 0 si x <0
simple
Fun −→ 1 si 0 ≤ x < 1
n→∞ 
1 si x ≥ 1

0 si x < 0
= =Fu (x) où u = 0
1 si x ≥ 0
Z +∞
b : E(xr ) = rxr−1 P(X ≥ x)dx (∗)
0
Z +∞ Z +∞ Z 1
E(vnr ) = rv r−1 P(Vn ≥ v)dv = rv r−1 (1 − P(vn ≤ v))dv = rv r−1 (1 − v)n dv
0 Z 1 0 Z 1 Z 10
r−1 r+n−1 r−1 1 1
donc finalement E(vn ) = r
(rv −rv )dv = r (v )dv−r v r+n−1 dv = r. ⌈v r ⌉10 −r. ⌈v n+1 ⌉10 =
0 0 0 r r + n
r r
1− d’où E(vnr ) = 1 − ≤ 1; vn ∈ LrP (Ω)
r+n r+n
R +∞
E((vn − 1)r ) = E((−1)r (1 − vn )r ) = (−1)r E((1 − vn )r ) = (−1)r 0 rxr−1 P((1 − vn ) ≥ x)dx
R1 R1
= (−1)r 0 rxr−1 P((vn ) ≥ 1 − x)dx = (−1)r 0 rxr−1 ((1 − x)n )dx
R1
= (−1)r r 0 xr−1 ((1 − x)n )dx
Γ(r)Γ(n + 1)
d’où E((vn − 1)r ) = (−1)r rBeta(r, n + 1) = (−1)r r
Γ(r + n + 1)
(r − 1)!n! r!n!
= (−1)r r = (−1)r
(r + n)! (r + n)!
r!n! simple
Finalement E((vn − 1)r ) = (−1)r −→ 0
(r + n)! n→∞
Z +∞
Lr
vn −→ v = 1 Pour un on montre de même manière que E((un )r ) = rxr−1 P(un ≥ x)dx =
n→∞ 0
Z 1
r!n!
rxr−1 (1 − x)n = rBeta(r, n + 1) =
0 (n + r)!
Lr
Finalement un −→ u = 0; ∀r ∈ N∗
n→∞
2 CHAPITRE 2 :Espérance conditionnelle et Martingale
1. EXERCICE :1
Montrer que
Z :
E(x/B) = xdP/P (B)
B
1. CORRECTION :1
1ére Étape : X est une indicatrice
il existe D un événement
Z de F, χ = χZD
P(B ∩ D)
Z Z
E(x/B) = E(χD /B) = χD dPB = dPB (.) = PB (D) = = χ(B∩D) dP/P(B) = χD dP/P(B) =
Z Ω D P(B) Ω B

xdP/P(B)
B
éme
2 Étape : X est discrète DX = {x1 , ..., xn }
X : Ω −→ R
ω 7−→ X(ω)
X∞
X(ω) = xi .χX −1 ({xi }) (ω)
Zk=1X
∞ ∞
X Z ∞
X
E(x/B) = ⌈ xi .χX −1 ({xi }) ⌉ = xi χX −1 ({xi }) (ω)dPB (ω) = xi E(χX−1 ({xi }) /B)
Ω k=1 k=1 Ω k=1

X Z Z ∞
X Z Z
= xi χX −1 ({xi }) (ω)dP(ω) = ⌈ xi .χX −1 ({xi }) ⌉dP/P(B) = χ(ω)dP(ω)/P(B) = xdP/P(B)
k=1 B B k=1 B B
éme
3 Étape : X est supposé positive
−n n +
Z 2 [2 X] ∧ n. selon
Z X est une v.aZpositive, alors la v.a Xn =
supposons que Z l’exercice 1.5 on a Xn Z↗ X
E(Xn /B) = Xn dPB (.) = lim Xn dPB (.) = lim [ Xn dP] = lim Xn dP/P(B) = lim [XB Xn ]dP/P
Ω Ω n→+∞ Ω n→+∞ B n→+∞ B
Z
E(XB X)
= (XB X)dP/P(B) =
P(B)
4éme Étape : X = X + − X − Z Z Z
E(X/B) = E(X + − X − /B) = (X + − X − )dPB = (X + )dPB − X − )dPB = E(X + /B) − E(X − /B)
Ω Ω Ω
continue comme étape 3
1. EXERCICE :2 [
Pour une tribu B = σ(Bi , i ∈ I), I est dénombrable. Montrer que ∀D ∈ B, ∃J ⊂ I, D = Bj , si Bj
j∈J
constitue une partition de Ω
1. EXERCICE :3
λr exp(−λ)
Soit X une v.a de Poisson : P(X = r) = ; λ > 0 et
r!
x
soit Y = [ ].2,Déterminer E(X/σ(Y )) = E(X/Y ) Puis déduire
2
1. CORRECTION :3

Le domaine de variation de X est DX = N et celui de Y est DY = 2N


Or
σ(Y ) = σ(Y −1 (B), B ∈ B(R)
= σ(Br , r ∈ N), où Br = (Y = x) = {ω ∈ Ω, y(x) = 2r}
Donc E(X/Y ) = E(X/σ(Y )) = E(X/σ(Br , r ∈ N))
Or (Br )r ∈ N constitue une famille complète, en effet
Si ω ∈ Ω; ∃r ∈ N, Y[(ω) = 2r ce la veut dire que
ω ∈ Br , d′ où Ω ⊂ Br , aussi Br ∩r̸=r′ Br′ = {ω ∈ Ω, y(ω) = 2retY (ω) = 2r′ } = ∅
r∈N
X
D’où E(X/σ(Y )) = E(X/σ(Br , r ∈ N)) = E(X/Br )XBr
n∈N
Mais Z
E(X/Br ) = XdP/P(Br ) (1)
Br

P(Br ) = P(Y = 2r)


= P[(X = 2r), u(X = 2r + 1)]
= P(X = u) + P(X = 2r + 1)
2r −λ 2r+1 −λ
= λ(2r)!
e
+ λ(2r+1)!
e
Z Z Z Z
XdP = XdP = XdP + XdP
Br (X=2r)∪(X=2r+1) (X=2r) (X=2r+1)
= 2rP(X = 2r) + (2r + 1)P(X = 2r + 1)
2r −λ
λ2r+1
= 2r λ(2r)!
e
+ (2r+1)! (2r + 1)e−λ
λ2r exp(−λ) λ2r+1 exp(−λ)
= (2r−1)! + (2r)!

λ2r exp(−λ)[ exp(−λ)


(2r−1)! +
λ
(2r)! ]
(1)
[ (2r−1)! + λ
(2r)! ]
D’où E(x/Br ) = 1 λ
= 1 λ
λ2r exp(−λ)[ (2r)! + (2r+1)! ] [ (2r)! + (2r+1)! ]
c/c
1 λ
X [ (2r−1)! + (2r)! ]
E(x/σ(Y )) = [ 1 λ
]χBr
[
r∈N (2r)!
+ (2r+1)! ]
Ainsi donc
1 λ
[ (2r−1)! + (2r)! ]
E(x/σ(Y ))(ω) = 1 λ
si ω ∈ Br
[ (2r)! + (2r+1)! ]
1) λ
[ Y (ω)−1)! + (Y (ω))! ]
= 1 λ
= goY (ω)
[ (Y (ω))! + (Y (ω)+1)! ]
[ (Y 1) λ
−1)! + Y ! ]
ou g(Y)= 1 λ
[ Y ! + (Y +1)! ]
1. EXERCICE :4
Soient X et Y deux v.a’s sur (Ω, F, P) à valeur dans (R, B(R)). Montere que X et σ(Y ) − mes ssi il existe
une fonction g : R → R borélienne telle que X = goY
1. CORRECTION :4
⇐ Trivial
⇒ on a quatre étapes
Etape 1
Supposons que X et une indicatrice c’est à dire X = χD ou D ∈ σ(Y ) c’est à dire encore ∃B, X = χY −1 (B) ,
B ∈ B(R) 
1 siY (ω) ∈ B
Donc X(ω) = χY −1 (B) = = χB oY
0 sinon
D’où on prend g = χB borélienne car B ∈ B(R)
Etape 2
Xn
Supposons X = xi χDi ou Di ∈ σ(Y ), il existe Bi , Di = Y − (Bi )
i=1
n
X Xn Xn X n
donc X = xi χY −1 (Bi ) = xi χ(Bi )(Y ) = xi χY −1 (Bi ) = ( xi χ(Bi ))(Y ) = goY
Pn i=1 i=1 i=1 i=1
ou g = i=1 xi χ(Bi ))(Y ) borélienne
Etape 3
X positive, il existe une étagée Xn simple de la forme canonique X = lim Xn
n→∞
Xn
X = lim Xn = lim ( xi ) = lim (gn oY ) = ( lim gn )oY = [ sup ]oY = goY
n→∞ n→∞ n→∞ n→∞ n∈N
i=1
ou g = sup gn est B(R) − mes Etape 4
n
X est qlq X = X + − X −
on a X = X + − X − = g1 oY − g2 oY = (g1 − g2 )(Y ) = goY
ou g = g1 − g2 est borélienne ,car g1 etg2 le sont
1. EXERCICE :5
Soit X v.a’s sur (Ω, F, P) à valeur dans (R, B(R)). et B une sous tribu de F
si σ(x) ⊥ B alors E(x/B) = E(x) ps
1. CORRECTION :5
σ(x) ⊥ B ⇔ ∀A ∈ σ(x) et A′ ∈ B
P(A ∩ A′ ) = P(A).P(A′ ) ⇔ E(χA .χA′ ) = E(χA ).E(χA′ )
Z d’où E(x) est B − mes
E(x) est une Zconstante de R,
∀D ∈ B E(x)dP = xdP
D D
par unicité on dite que E(x) = E(x/B)
Z
xdP = E(χD E(x)) = E(χD ).E(x), Puisque x, χD ∈ L1P (Ω) et que χD ⊥ x, car χD est B − mes et x
D Z Z
est σ(x) − mes, ainsi que E(x/B)dP = E(χD ).E(x) = xdP
D D
cela veut dire que d’après l’unicité de l’espérance conditionnelle on a

E(x) = E(x/B) P.p.s

1. EXERCICE :6
Soit X v.a telle que E|x| < +∞ Montrer que E(E(x/B)) = E(x) P.p.s
1. CORRECTION :6
Z E(x) ⊥ B c’est à dire
Puisque E(x) est une constante alors Z E(x) = E(E(x/B)) P.p.s
SoitD ∈ B il suffit de montrer que E(E(x/B))dP = E(x)dP
Z Z Z D Z Z D Z Z
on a E(E(x/B))dP = ( E(x/B))dP = ( E(x/B))dP = ( x)dP
Z ZD Z D Ω Ω D Ω D

= ( x)dP = E(x)dP
D Ω D
Ainsi donc E(E(x/B)) = E(E(x)/B) = E(E(x)) = E(x) P.p.s
1. EXIRCICE :7
Montrer que E(x/B) est intégrable
1. CORRECTION :7
On sait que x 7−→ |x| est convexe , d’où d’après Jenson
|E(x/B)| ≤ E(|x|/B))
ona donc E(|E(x/B)|) ≤ E(E(|x|/B))) = E|x| < +∞
1. Exercice :8
Montrer les inégalités suivantes

E(X 2 /B)
i : P(|X| ≥ a/B) ≤
a2
ii : E(|XY |/B) ≤ E(|X| /B).E(|Y |q /B)
p
où 1
p + 1
q =1
1. EXERCICE :9
Soient X une v.a sur (Ω, F, P) et B une sous-tribu de F. Alors Si

X ⊥ B ⇐⇒ E(eiXt /B) = E(eiXt ) = ψX (t) = ψX/B (t)

1. CORRECTION :9
⇒ Deux tribus B et D de F
B ⊥ D ⇐⇒ ∀X, Y deux v.a sur (Ω, F, P), X est B − mes et Y est D − mes. On a X ⊥ Y
En effet,d’après la définition d’indépendance du tribu
B ⊥ D ⇐⇒ ∀(A, B) ∈ B, D, on a P(A ∩ B) = P(A)P(B)
Alors puisque X est B − mes ∀B1 ∈ B(R) X −1 (B1 ) ∈ B
Y est D − mes ∀B2 ∈ D(R) Y −1 (B2 ) ∈ D
B ⊥ D ⇒ X −1 (B1 ) ⊥ Y −1 (B2 )
⇒ P(X −1 (B1 ) ∩ Y −1 (B2 )) = P(X −1 (B1 ))P(Y −1 (B2 ))
⇒ P(X,Y ) (B1 × B2 ) = PX (B1 )PY (B2 )
En particulier pour B1 =] − ∞, b1 ] et B2 =] − ∞, b2 ]
Donc F(X, Y )(b1 , b2 ) = P(X, Y )(] − ∞, b1 ]×] − ∞, b2 ]) = PX (] − ∞, b1 ])PY (] − ∞, b2 ]) = FX (b1 )FY (b2 ) ⇒ X ⊥
Y
⇐ Il suffit déduire :
⇒ On sait que si X ⊥ B, alors pour tout g fonction mesurable réelle g(x) ⊥ B
En particulier x 7−→ eitx pour t fixé cette fonction est mesurable, d’après le cours on a
E(eitx /B) = E(eitx ) Pp.s
⇐ Considérons une v.a Z sur (Ω, F, P) ZestB − mes
ψX,Z (t1 , t2 ) = (E(ei(t1 ,t2 )(X,Z) )
= E(E(eit1 X+it2 Z /B))
= E(eit2 Z ψX (t1 )) parhypothése
= ψZ (t2 )ψX (t1 )
Conclusion
ψX,Z (t1 , t2 ) = ψZ (t2 )ψX (t1 ) ∀ZestB − mes
N
Y
(X1 , X2 , ..., XN ) une famille de v.a indépendantes ⇐⇒ ψ(X1 ,...,XN ) (t1 , ..., tN ) = ψXi (ti )
i=1
Donc X ⊥ Z d’où X et B sont indépendantes.
Au lieu d’avoir les fonctions caractéristiques on peut considérer les fonctions génératrices de moment a que ses
fonctions soit définies sur un voisinage ouvert de R contenant 0
E(etx )/B) = MX/B (t) = MX (t) ⇐⇒ X ⊥ B
1. RXERCICE :10
Soient X et Y deux variables aléatoires définies sur (Ω, F, P) et B sous tribu de F alors.
si Y ⊥ B et X est B − mes entraine que E(h(X, Y )/B) = g(X) P.p.s
où g : R −→ R une fonction borélienne
x 7−→ E(h(x, Y ) pour toute borélienne h où h(X, Y ) ∈ L1P (Ω)
h(X, Y ) : Ω −→ R
ω 7−→ h(X(ω), Y (ω))
1. CORRECTION :10
Soit Z un autre v.a B − mes et on a X est B − mes et Y ⊥ B − mes d’ou (X, Z) ⊥ Y (indépendance par paquet)
P(X,Z,Y ) = P(X,Z)
Z .PY Z Z
E(Zh(X, Y )) = h(X, Y )dP = zh(x, y)dPX,Z,Y (x, z, y) = zh(x, y)dPX,Z (x, z)dPY (y)
Z Z Ω R3 Z Z R3

= [ zh(x, y)dPX,Z (x, z)]dPY (y) = z[ h(x, y)dPY (y)]dPX,Z (x, z)


ZR RZ2 Z R2 R

= z[ h(x, Y )dP]dPX,Z (x, z) = zE[h(x, Y )]dPX,Z (x, z)


ZR2 Ω Z R2

= ZE(h(X, Y ))dP = Zg(x)dP


Ω Ω
c/c ∀Zunev.aB − mes, on aE(Zh(X, Y )) = E(Zg(X))
En particulier on prendZ = χB , B ∈ B
d’où E(χB h(X, Y )) = E(χB g(X)) et g est borélienne et x est B − mes ⇒ g(X) est B
d’après la définition de l’espérance conditionnelle et le théorème d’unicité on a : E(h(X, Y )/B) = g(X) P.p.s

1. RXERCICE :11
soit (Xn )n∈N∗ une famille de v.a’s iid de moyenne µ et variance σ 2 Notons par Sn = X1 + ... + Xn et soit N
une v.a à valeurs dansN∗ indépendante de Xn , ∀n ∈ N∗
X
i : Monter l’inégalité de Wald : E(SN ) = µE(N ) où E(N ) = nP(Bn )
n∈N∗
2 2
ii : Déduire que Var(SN ) = σ E(N ) + µ Var(N )
1. CORRECTION :11
i : E(SN ) = E(E(SN ))
N une v.a à valeurs dans N ∗ ,σ(N ) = σ(N−1 (n), n ∈ N∗ ) = σ(N = n), n ∈ N∗ )
E(SN /N ) = g(N ) Doob
E(SN /N ) = E(SN /σ(N )) = E(SN /σ(Bn )n ∈ N∗ )
Bn = {ω ∈ Ω, N (ω) = n}; ∪n Bn = Ω et Bn ∩ Bn′ n̸=n′ = ∅
donc (Bn )n∈N∗ est une famille complété
X d’événement incompatible
d’où E(SN /N ) = E(SN /σ(N )) = E(SN /Bn )χBn )
n∈N∗R R
S dP Sn dP
Z
Bn N E(Sn χBn )
où E(SN /Bn ) = SN dP/P(Bn ) = = Bn =
Bn P(N = n) P(N = n) P(N = n)
P E(χBn Sn ) X E(χBn )
d’où E(SN ) = E(E(SN )) = E( n∈N∗ χB ) = E(χBn Sn ).
P(N = n) n P(N = n)
n∈N∗
X
= E(χBn Sn ) puisque Sn ⊥ χBn
n∈N∗
X X X X
= E(χBn (X1 + ... + Xn )) = E(χBn )E(Sn ) = (nµ)P(N = n) = µ( nP(N = n)) =
n∈N∗ n∈N∗ n∈N∗ n∈N∗
µE(N )
2
ii : Var(SN ) = E(SN ) − [E(SN )]2 =X 2
E(SN ) − [µE(N )]2 = E(SN 2
) − µ2 E2 (N )
2 2
E(SN ) = E(E(SN )/σ(N )) = E[ E(χBn Sn2 )] puisque Sn2 ⊥ χBn
n∈N∗
X E(χBn ) X X
= E(χBn Sn2 ). = E(χBn Sn2 ) = E[nσ 2 + n2 µ2 ]P(N = n) = σ 2 E(N ) + µ2 E(N 2 )
P(N = n)
n∈N∗ n∈N∗ n∈N∗
conclusion
Var(Sn ) = ω 2 E(N ) + µ2 N2 − µ2 (N)2
= σ 2 E(N ) + µ2 Var(N )

3 CHAPITRE 4 :Estimation paramétrique


1. EXERCICE :3
Montrer que Sn1 et Sn2 sont deux estimateurs fortement consistent de σ 2
1. CORRECTION :3
Solution avec monsieur Hervé
1. EXERCICE :2
Soit la v.a X ∼ U (θ1 , θ2 ). On dispose d’un échantillon issue d’une pop caractérise par X; X1 ; ..; Xn
d’observations iid(selon X). la qualité

i Étudier des estimateur θˆ1 = min(X1 ; ..; Xn ) et θˆ2 = max(X1 ; ..; Xn ) de θ1 et θ2 respectivement
ii Étudier la Constance de ces estimateur.
1. CORRECTION :2
(θ1 = 0, θ2 = θ), X ∼ U (0, θ)

i Étudions l’efficacité et le risque de θˆ1

Fθ (x) = P (max(X1 ; ..; Xn ) ≤ x)


= P (max(X1 ≤ x; ..; Xn ≤ x) ≤ x)
= FX1 (x)......FXn (x), carlesXi′ ssont1′ s
= [FX1 (x)]n , carlesXi′ ssontid

Conclusion :
 n0 six < 0
x
Fθ̂ (x) = si0 ≤x<θ
 θn
 1 siθ ≥θ
 0 six < 0
x xn−1
FX1 (x) = si0 ≤ x < θ c-a-d f θ̂ (x) = n α(0, θ)
 θ θn
1 siθ ≥ θ
Biais de θ̂ :
θ
xn−1
Z
E(θ̂) − θ = xdx − θ
0 θn
Z θ
n
= n xn dx − θ
θ 0
n
= n [xn+1 ]θ0 − θ
θ (n + 1)
nθn+1
= n −θ
θ (n + 1)

= −θ
(n + 1)
n
= θ( − 1)
n+1
−θ
=
n+1

βn = E(θ̂) − θ −→ 0
n−→+∞
conclusion :
θ̂ est un estimateur biais sympathiquement sans biais.
Risque : R(θ̂, θ) = Var(θ̂ + βn2 )
Z θ Z θ
nx2 xn+1 nxn+1 x
Var(θ̂) = ( n
dx) − ( dx)2
0 θ 0 θn
n θn+2 nθ 2
= −( )
n + 2 θn n+1
n 2 n 2 2 n n 2
= θ −( ) θ = θ2 ( −( ) )
n+2 n+1 n+2 n+1
n(n2 + 2n + 1) − n2 (n + 2)
= θ2 ( )
(n + 2)(n + 1)2
θ2 n
= −→ 0
(n + 2)(n + 1)2 n−→+∞
θ2 n θ2 θ2 n
R(θ̂, θ) = (n+2)(n+1)2 + (n+1)2 = (n+1)2 ( n+1 + 1)
θ 2 (2n+2)
= −→ 0
(n+2)(n+1)2 n−→+∞

0 six < 0
Fθ̂(x) −→ Fθ (x) =
n−→+∞ 1 siθ ≥ θ
La f.r d’une v.a X ≡ θ
D P
Cela veut dire que θ̂ −→ θ, donc on probabilité θ̂ −→ θ Donc consistant
n−→+∞ n−→+∞
P.p.s
on a d’après le lemme 2.5 θ̂ −→ θ
n−→+∞
X X Var(θ̂) X n θ
en effet P(|θ̂ − θ| ≥ ε) ≤ = [ ]( )2
ε2 (n + 1)2 (n + 2) ε
n≥n n≥1 n≥1
X 1 θ 2 X θ2 1
= [ ]( ) = ( Vn 2 ), ouVn ≃ 2
n≥1
(n + 1)2 (1 + n2 ) ε ε
n≥1
n
D’où
X
P(|θ̂ − θ| ≥ ε) < +∞
n≥n

1. EXERCICE :1
Dans l’exemple présedent , determiner le risque destiner α par α̂M LE
1. CORRECTION :1
On sait que R(α, α̂M LE) = Var(α̂M LE) + βn2
Xn
2
E(αM LE ) = E(n2 /( Xi )2 )
i=1
Xn
2
= n E(1/( Xi )2 )
i=1 Pn
= n2 E( Y1 ) où Y = i=1 Xi
2
= E(1/X n )
Après des calculs municieux, on trouve :
α 2 n2 α2
R(α, α̂M LE ) = (n−1)2(n−2) + (n−1) 2
α2 n2
= (n−1)2 [ (n−2) + 1]
n2
= α2 [( (n−2) − 1)2 ]
+ 1)/(n
−→n−→+∞ 0
Donc α̂M LE est asymptotiquement sans brais et sans risque.
3) Soit (X1 , X2 , ..., Xn ) un échantillon d’observation iid selon une loi Uniforme U (0, θ).Trouver θ̂M LE et étudier
ses propriétés.
Discussion
-Consistance,Biais,Risque :
On sait que θ̂M LE = arg max θ ∈ M = R+ L(X1 , X2 , ..., Xn , θ)
Yn
L(X1 , X2 , ..., Xn , θ) = f(Xi ,θ)
i=1
n
Y 1
= χ(0,θ) (Xi )
i=1
θ
Yn
= [ χ(0,θ) (Xi )]/θn
i=1 1
θn si ∀i, 0 ≤ Xi ≤ θ
=
0 sinon
( 1
θ n si max (Xi ) ≤ θ
1≤i≤n
=
0 sinon max(Xi ) > θ
i
Finalement L(X1 , X2 , ..., Xn , θ) = χ[ max (Xi ), +∞[(θ)/θn _ Monter que θ̂M LE = max 1 ≤ i ≤ n(Xi )
1≤i≤n
D’après la forme explicite de la fonction vraisemblance :
1
L(X1 , X2 , ..., Xn , max (Xi ) =
1≤i≤n [ max (Xi )]n
1≤i≤n
Supposons qu’il existe un θ0 tel que
L(X1 , X2 , ..., Xn , max (X0 ) < L(X1 , X2 , ..., Xn , θ0 )
1≤i≤n
Si θ0 < max (X0 ), L(X1 , X2 , ..., Xn , θ0 ) = 0
1≤i≤n
C-à-d L(X1 , X2 , ..., Xn , max (Xi ) = 0, il existe un autre θ˜0 tel que
1≤i≤n
L(X1 , X2 , ..., Xn , max (Xi ) ≤ L(X1 , X2 , ..., Xn , θ˜0 )
1≤i≤n
Cela revient à dire
1
[ max (X0 )]n < =⇒ θ˜0 < max (Xi ), contradiction
1≤i≤n ˜
(θ0 )n 1≤i≤n
Donc θ0 < max (X0 )
1≤i≤n
1 1
( ) = L(X1 , X2 , ..., Xn , max (Xi ) ≥
max (X0 )n 1≤i≤n (θ0 )n
1≤i≤n
D’où θ0 ≤ max (Xi ) =⇒ θ0 = max (Xi ) ou θ0 < max (Xi )
1≤i≤n 1≤i≤n 1≤i≤n
D’où finalement θ̂M LE = max 1 ≤ i ≤ n(Xi )
θ̂M LE est consistant et fortement consistant et asymptotiquement sans biais et sans risque.

1. EXERCICE :4
Soient X1 , X2 , ..., Xn observations iid issus d’une pop uniforme U (θ, θ + 1)
i) Montrer que θ̂M LE min 1 ≤ i ≤ n(X1 , X2 , ..., Xn ), étudier ses propriétés.
ii) On propose un autre estimation note θ˜n = max (Xi ) − 1, etudier ses propriétés.
1≤i≤n

iii) Comparer ces deux estimateurs, le risque :


R(θ, θ̂M LE) R(θ, θ̂n)(le plus efficace)
1. EXERCICE :5
Considérer l’exercice 4.2 : ∀i, χi ∼ U (0, θ), indépendante .
Soit θ̂M LE :l’éstimateur du maximum de vraisemblance.
Étudier la consistance de θ̂M LE .
1. EXERCICE :6
1
Soit (χn )n ∈ N une suite d’observations iid selon une loi uniforme U (θ, 1) : f (x) = 1−θ χ(θ, 1)(x) la fonction de
densité commun pour χn , ∀n ∈ N∗

i) Vérifier que θ̂M LE = min 1 ≤ i ≤ n(χi ).


ii) Montrer que log ff(x/θ 0) 1 2 2
(x/θ) = x(θ − θ0 ) + 2 (θ − θ0 ).
iii) Trouver µθ convenable dans ce problème.
iv) Prouver le consistance de θ̂M LE .
1. EXERCICE :7
Soit (Xn )n ∈ N une suite de v.a’s et χ une autre v.a toutes définie sur (Ω, F, P).Et soit g : R 7−→ R continue.
Montrer que si χn −→ n −→ +∞P χ alors g(χn ) −→P n−→+∞ g(χ)
Ce résultat est vérifier aussi pour les vecteurs aléatoires et g : Rd 7−→ R.

Vous aimerez peut-être aussi