Université Paris Dauphine 2017–2018
Département MIDO
Master 1 – Méthodes de Monte Carlo
Travaux Dirigés n°4
[email protected]Exercice 1 (Stratification avec allocation proportionnelle). Soit X une variable aléatoire de loi de den-
sité f sur D. On considère
Z
I= h(x) f (x)dx.
D
1. Étant données D 1 , . . . , D K une partition de D et (X n )n≥1 une suite de variables aléatoires i.i.d. de loi
de densité f , rappeler la définition de l’estimateur stratifié avec allocation proportionnelle et X pour
variable de stratification.
Solution. On note p k = P [X ∈ D k ], k = 1 . . . , K . Pour un échantillon de taille n, l’allocation propor-
tionnelle est définie par (n 1 , . . . , n K ) = (np 1 , . . . , np K ). L’estimateur stratifié s’écrit alors
K p X nk ³ ´ 1 X K X nk ³ ´
k
δbn (p 1 , . . . , p K ) = h X i(k) = h X i(k) ,
X
k=1 n k i =1 n k=1 i =1
avec X 1(k) , . . . , X n(k)
k
∼ L (X | X ∈ D k ), k ∈ {1, . . . , K }.
2. Montrer que, si l’on doit estimer P [X ∈ D k ], k = 1, . . . , K , cet estimateur n’apporte pas d’améliorations
par rapport à l’estimateur de Monte Carlo usuel.
Exercice 2. Soit X une variable aléatoire de loi de Cauchy C (0, 1). On s’intéresse au calcul de
Z +∞ 1
p := P [X ≥ 2] = dx.
2 π(1 + x 2 )
1. Calculer analytiquement p.
Solution.
· ¸+∞
1 1 1
p= arctan(x) = − arctan(2).
π 2 2 π
Dans la suite on admettra que p ≈ 0.15. On se donne X 1 , . . . , X n un ensemble de variables aléatoires i.i.d.
suivant la loi de Cauchy C (0, 1).
2. Montrer que la variance de l’estimateur de Monte Carlo usuel δbn est
£ ¤ p(1 − p) 0.126
Var δbn = ≈ .
n n
1
TD n°4 Méthodes de Monte Carlo
Solution. L’estimateur de Monte Carlo usuel s’écrit
1 Xn
i.i.d.
δbn = 1{X k ≥2} , X 1 , . . . , X k ∼ C (0, 1).
n k=1
n δbn est une somme de n variables aléatoires i.i.d. de loi de Bernoulli de paramètre p. On en déduit
que Var n δbn = np(1 − p). D’où le résultat souhaité.
£ ¤
3. En utilisant la symétrie de la loi de Cauchy C (0, 1), proposer un nouvel estimateur δb(1)
n et montrer
que la variance de cet estimateur est
¤ p(1 − 2p) 0.052
Var δb(1)
£
n = ≈ .
2n n
Solution. La loi de Cauchy C (0, 1) étant symétrique, alors les variables aléatoires X et −X suivent
toutes les deux une loi de Cauchy C (0, 1). On en déduit l’estimateur par variable antithétique sui-
vant
1 Xn
i.i.d.
δb(1)
n = 1{|X k |≥2} , X 1 , . . . , X n ∼ C (0, 1).
2n k=1
On en déduit que 2n δb(1)
n est une somme de n variables aléatoires i.i.d. suivant une loi de Bernoulli
de paramètre
P [|X | ≥ 2] = P [X ≥ 2] + P [−X ≥ 2] = 2p.
h i
Il en résulte Var 2n δb(1)
n = 2p(1 − 2p)n. D’où le résultat.
4. Quelle limitation pratique voyez-vous à l’utilisation des estimateurs δbn et δb(1)
n ?
Solution. Si l’on souhaite estimer la probabilité d’un événement rare, i.e. P [X ≥ t ] pour t « grand »,
il est difficile d’obtenir des réalisations plus grandes que t et donc (presque) toutes les indicatrices
valent 0. Il est donc difficile d’obtenir une estimation précise de P [X ≥ t ], les estimateurs δbn et δb(1)
n
valant presque systématiquement 0.
5. Montrer que
1
Z 2 1
p= − dx.
2 0 π(1 + x 2 )
En déduire une nouvelle méthode d’estimation δb(2)
n de p et montrer que
¤ 2 + 5 arctan(2) − 5 arctan2 (2) 0.029
Var δb(2)
£
n = ≈
5π2 n n
2
TD n°4 Méthodes de Monte Carlo
Solution. Il suffit d’écrire
Z +∞ 1
Z 2 1 1
Z 2 1
p= dx − dx = − dx.
0 π(1 + x 2 ) 0 π(1 + x 2 ) 2 0 π(1 + x 2 )
Il s’agit alors d’estimer par Monte Carlo l’intégrale sur [0 , 2]. Pour estimer une intégrale de la forme,
Z a 1
dx,
0 π(1 + x 2 )
on écrit
Z a
a a
· ¸
1 1
Z
dx = 1{x∈[0,a]} dx = E , U ∼ U ([0 , a]). (1)
0 π(1 + x 2 ) R π(1 + x ) a
2 π(1 +U 2 )
On en déduit l’estimateur
1 1 Xn 2 i.i.d.
δb(2)
n = − , U1 , . . . ,Un ∼ U ([0 , 2]).
2 n k=1 π(1 +Uk2 )
La variance de l’estimateur est donnée par
· ¸ µ · ¸ ½ ¾2 ¶
¤ 1 2 1 4 1
Var δb(2) V E
£
n = ar = − − p
n π(1 +U 2 ) n π2 (1 +U 2 )2 2
· ¸
1 4 1
= E 2 − arctan2 (2).
n π (1 +U 2 )2 nπ2
Pour expliciter la variance, on utilise l’égalité suivante
a2 a a 1 + x2 − x2
¸ Z a
a a a 1 a a x
· Z Z Z
E 2 = dx = 2 dx = 2 dx − 2 x dx.
π (1 +U )
2 2
0 π (1 + x )
2 2 2 π 0 (1 + x )2 2 π 0 1+x 2 π 0 (1 + x 2 )2
En intégrant le second terme par partie, on obtient
a ¸a Z a
x
·
−x 1
Z
x 2 2
dx = 2
+ 2
dx.
0 (1 + x ) 2(1 + x ) 0 0 2(1 + x )
Il en résulte
a2 a2 a2
Z a
a a
· ¸
1
E 2 = dx + = arctan(a) + . (2)
π (1 +U 2 )2 2π2 0 1 + x 2 2π2 (1 + a 2 ) 2π2 2π2 (1 + a 2 )
En prenant a = 2 dans l’égalité précédente, on obtient
1 2 1
Var δb(2) arctan2 (2).
£ ¤
n = 2
arctan(2) + 2
−
nπ 5nπ nπ2
6. Montrer que
1/2
1
Z
p= dx.
0 π(1 + x 2 )
3
TD n°4 Méthodes de Monte Carlo
En déduire une nouvelle méthode d’estimation δb(3)
n de p et montrer que
¤ 2 + 5 arctan(0.5) − 20 arctan2 (0.5) 9.55 × 10−5
Var δb(3)
£
n = ≈ .
20π2 n n
Solution. Le changement de variable φ : x 7→ 1/x réalise un C 1 -difféomorphisme entre les ouverts
]2 , +∞[ et ]0 , 1/2[. On en déduit
1/2 1/2
1 1 1 1
Z Z
p= dx = dx = arctan(1/2).
0 π(1 + /x ) x 2
1 2
0 π(1 + x )
2 π
En prenant a = 1/2 dans l’Équation (1), on déduit le nouvel estimateur
1 1 Xn 1 i.i.d.
δb(3)
n = − , U1 , . . . ,Un ∼ U ([0 , 1/2]).
2 n k=1 2π(1 +Uk2 )
La variance de l’estimateur est donnée par
· ¸ · ¸
¤ 1 1 1 1 1
Var δb(3) V E arctan2 (1/2).
£
n = ar 2
= 2 2 2
−
n 2π(1 +U ) n 4π (1 +U ) nπ2
En prenant a = 1/2 dans l’Équation (2), il résulte
1 1 1
Var δb(3) arctan2 (1/2).
£ ¤
n = arctan(1/2) + −
4nπ2 10nπ2 nπ2
7. Justifier que δb(3)
n définit une méthode d’échantillonnage préférentiel.
Solution. On peut écrire directement, pour U ∼ U ([0 , 1/2]),
1{0≤X ≤2}
· ¸ · ¸
1 1
p = E 1{0≤X ≤1/2} =E =E
£ ¤
.
π(1 +U 2 ) 21{0≤U ≤1/2} 2π(1 +U 2 )
On pourra également remarquer le point suivant. Dans la méthode d’échantillonnage préférentiel,
si l’on se place par rapport à la forme initiale de p, on cherche une densité instrumentale g telle
que supp(g ) = [2 , +∞[ et approximativement proportionnelle à (π{1 + x 2 })−1 , ce qui est le cas pour
g : x 7→ 2/x 2 . Il s’agit de la densité d’une loi de Pareto d’indice α = 1 et de valeur minimale x 0 = 2.
Autrement dit, pour simuler des réalisations de Z , il suffit d’utiliser Z −1 ∼ U ([0 , 1/2]). On a alors
une définition équivalente de l’estimateur d’échantillonnage préférentiel précédent :
+∞ x2
· ¸ · ¸
2 1 1
Z
p= dx = E =E .
2 2π(1 + x 2 ) x 2 2π(1 + 1/Z 2 ) 2π(1 +U 2 )
Exercice 3. Soit X une variable aléatoire de loi N µ , σ2 et K une constante réelle. On s’intéresse au
¡ ¢
calcul de
p := P e X ≥ K .
£ ¤
4
TD n°4 Méthodes de Monte Carlo
1. Montrer que pour tout réel m
2m(X − µ) − m 2
· ½ ¾ ¸
p = E exp 1{e X −m ≥K }
2σ2
Solution. Soit un réel m. On utilise l’égalité remarquable (x − µ − m)2 = (x − µ)2 − 2m(x − µ) + m 2 :
2m(X − µ) − m 2 −(x − µ − m)2
· ½ ¾ ¸ Z +∞ ½ ¾
1
E exp 1{e X −m ≥K } = p exp dx
2σ2 m+ln K 2πσ2 2σ2
Le changement de variable φ : x 7→ x −m qui réalise un C 1 -difféomorphisme de R dans R fournit le
résultat souhaité.
2. En déduire un estimateur d’échantillonnage préférentiel pour le calcul de p et suggérer une valeur
de m.
Solution. Soit (X n )n≥1 une suite de variables aléatoires i.i.d. de loi N µ , σ2 . D’après la question
¡ ¢
précédente, un estimateur d’échantillonnage préférentiel de p est donné par
n 2m(X k − µ) − m 2
½ ¾
1 X
δn =
b exp 1{e X k −m ≥K } .
n k=1 2σ2
Remarque. Si l’on souhaite se convaincre qu’il s’agit bien d’un estimateur d’échantillonnage pré-
férentiel, on pourra remarquer qu’il s’obtient de façon équivalente en écrivant
φµ (Y )
· ¸
p =E Y ∼ N µ − m , σ2 ,
¡ ¢
1{e Y ≥K } ,
φµ−m (Y )
où φa est la densité de la loi normale N a , σ2 .
¡ ¢
Le paramètre m permet de translater la loi N µ , σ2 de sorte que l’on ait un nombre significatif de
¡ ¢
réalisations supérieures à ln K . En prenant m = −l n(K ), on a 1{e X −m ≥K } = 1 p.s..
3. En utilisant une loi de support [ln K , +∞[, quel autre estimateur d’échantillonnage préférentiel auriez-
vous pu proposer ?
Solution. On peut prendre pour loi instrumentale la loi exponentielle translatée de ln K et de
paramètre λ, τε(λ, ln K ). On a alors, pour Z ∼ ε(λ, ln K ),
(Z − µ)2
· µ ¶¸
1
p =E p exp λ(Z − ln K ) − .
λ 2πσ2 2σ2
En appliquant le changement de variable φ : x 7→ λ(x − ln K ), on peut écrire
1 nu
µ o2 ¶
1
Z
p= p exp u − 2 + ln K − µ exp(−u)1{u≥0} du.
R λ 2πσ2 2σ λ
5
TD n°4 Méthodes de Monte Carlo
Il en résulte
¾2 ¶¸
Y
· µ ½
1 1
p =E p exp Y − 2 + ln K − µ ,
λ 2πσ2 2σ λ
où Y suit la loi exponentielle de paramètre 1. Étant donné (Yn )n≥1 une suite de variables aléatoires
i.i.d. de loi exponentielle de paramètre 1, on a l’estimateur d’échantillonnage préférentiel suivant :
n ¾2 ¶
Yk
µ ½
1 X 1 1
δbn = p exp Yk − 2 + ln K − µ .
n k=1 λ 2πσ2 2σ λ