STPI 3MIC Mathématiques Appliquées INSA Toulouse
Méthodes de Monte Carlo par Chaı̂ne de Markov
Aldéric Joulin et Simona Grusea
Feuille 2 : Méthodes de réduction de variance
Exercice 1. Variable de contrôle
On souhaite approcher numériquement l’espérance E[g(X)] où X ∼ N (0, 1) et g est
la fonction définie par
g(x) = |x|1|x|≤a + cos(x)1|x|>a , x ∈ R,
avec a un paramètre strictement positif. Afin de contrôler la variance dans la méthode
de Monte-Carlo, on se propose d’introduire une variable de contrôle. Pour ce faire,
posons g1 (x) = |x|1|x|≤a , x ∈ R.
1. Calculez explicitement E[g1 (X)].
2. Si l’on désire utiliser g1 (X) comme variable de contrôle, rappelez la mise en
oeuvre de la méthode de Monte-Carlo associée.
3. Montrez que l’on a l’inégalité suivante :
2
r
2 e−a /2
Var(g(X) − g1 (X)) ≤ × .
π a
4. On rappelle que l’erreur statistique commise dans la méthode de Monte-Carlo est
donnée par la variance de la moyenne empirique. Déterminez la taille minimale
de l’échantillon (dépendant du paramètre a) pour que l’erreur statistique soit
inférieure à 1%.
Exercice 2. Un cas simple d’échantillonnage préférentiel
Dans cet exercice, on souhaite approcher numériquement l’intégrale
Z α+1
e−x dx = e−α (1 − e−1 ) ,
Iα =
α
où α est un nombre positif ou nul donné.
1. Écrivez cette intégrale sous la forme d’une espérance du type E[g(X)], où X est
une variable aléatoire de loi exponentielle de paramètre 1 et g est une fonction
à déterminer.
2. Calculez explicitement Var(g(X)) en fonction du paramètre α.
3. Montrez que l’intégrale Iα peut être réécrite comme une espérance du type
E[g̃(U )], où U suit la loi uniforme sur [0, 1] et g̃ est une autre fonction borélienne
à déterminer.
4. Calculez explicitement la variance de g̃(U ) et montrez qu’elle est plus petite que
celle de g(X) pour tout α ≥ 0.
Exercice 3. Variables antithétiques
R1 2
On souhaite approcher numériquement l’intégrale I = 0 eu du, représentée comme
2
l’espérance E[eU ] où U ∼ U[0,1] . Afin de diminuer la variance dans la méthode de
Monte-Carlo, on considère la variable aléatoire Y θ donnée par
2 2
Y θ = θeU + (1 − θ)e(1−U ) ,
où θ est un paramètre (déterministe) compris entre 0 et 1.
1. Montrez que E[Y θ ] = I.
2. Montrez que
2
Var(Y θ ) ≤ (1 − 2θ(1 − θ))Var(eU ),
si et seulement si une certaine covariance est négative (auquel cas la variance
est bien réduite).
3. On admet que cette covariance est effectivement négative. Montrez que la borne
supérieure sur Var(Y θ ) est minimale pour (et uniquement pour) θ∗ = 1/2.
4. Rappelez enfin la mise en oeuvre de la méthode de Monte-Carlo associée à ce
θ∗ via l’approche par variables antithétiques.
Exercice 4. Autour de la loi de Laplace
Dans cet exercice, on souhaite approcher numériquement l’espérance E[g(X)] où X
suit la loi de Laplace admettant pour densité
e−|x|
f (x) = , x ∈ R,
2
et g est la fonction définie par
2
g(x) = 1{|x|≤1} + arctan(x)+ 1{|x|>1} , x ∈ R.
π
On rappelle que la partie positive d’une fonction h est h+ = max{h, 0}.
1. Mettez en œuvre une méthode de Monte-Carlo (simple) pour approcher E[g(X)].
2. On pose dans la suite
2
g1 (x) = 1{|x|≤1} et g2 (x) = arctan(x)+ 1{|x|>1} , x ∈ R.
π
Calculez explicitement E[g1 (X)], puis mettez en œuvre une méthode de Monte-
Carlo par variable de contrôle.
3. Montrez que E[g1 (X)g2 (X)] = 0 et déduisez-en que la variance est bien réduite
avec la méthode précédente si et seulement si
Var(g1 (X))
E[g2 (X)] ≤ . (∗)
2E[g1 (X)]
4. Établissez l’inégalité (∗) (la variance est alors bien réduite).
Indication. On observera que g2 peut être réécrite pour tout x ∈ R comme
g2 (x) = π2 arctan(x) 1{x>1} et on la majorera judicieusement.
5. Tracez le graphe de la fonction g2 , puis mettez en œuvre une méthode de Monte-
Carlo combinée à la précédente, permettant de diviser la variance par un facteur
au moins 2.
Exercice 5. Autour de la loi gaussienne centrée réduite
Soit X ∼ N (0, 1) et g : R → R une fonction borélienne telle que Var(g(X)) <
+∞. Il s’agit d’utiliser une méthode d’échantillonnage préférentiel pour réduire la
variance dans la mise en oeuvre de la méthode de Monte-Carlo pour l’approximation
de l’espérance E[g(X)]. La fonction d’importance h que l’on va proposer est la densité
d’un mélange (discret) de deux variables aléatoires gaussiennes. Ainsi, soient p ∈]0, 1[
et m0 , m1 deux réels quelconques. Notons h la densité
h(x) = pf1 (x) + (1 − p)f0 (x), x ∈ R,
où fi est la densité sur R de la loi N (mi , 1). On note Z la variable aléatoire associée.
Enfin, on note f la densité de X.
1. Proposez une méthode de simulation de la variable aléatoire Z.
2. Notons Y la variable aléatoire Y = g(Z)f (Z)/h(Z). Montrez que l’on a les
identités suivantes :
g(X)2 f (X)
E [Y ] = E[g(X)], et Var(Y ) = E − E[g(X)]2 .
h(X)
Dans la suite de l’exercice, on prend g(x) = x avec p = 1/2 et m0 = −m1 = m.
3. Montrez que la variance de Y vaut dans ce cas
X2
m2 /2
v(m) := e E .
cosh(mX)
4. Vérifiez que v 0 (0) = 0 et que v 00 (0) < 0.
5. Comment choisiriez-vous le paramètre m pour assurer une réduction de variance
lors de l’approximation de E[X] (= 0) ?