0% ont trouvé ce document utile (0 vote)
93 vues4 pages

Feuille 2: M Ethodes de R Eduction de Variance: Exercice 1. Variable de Contr Ole

Le document traite des méthodes de Monte Carlo par chaîne de Markov, en se concentrant sur des techniques de réduction de variance, y compris l'utilisation de variables de contrôle et d'échantillonnage préférentiel. Plusieurs exercices sont présentés, abordant des concepts tels que l'intégration numérique, la variance des estimations, et les méthodes de simulation pour des distributions spécifiques. Les exercices incluent des calculs explicites et des démonstrations pour illustrer l'efficacité des méthodes proposées.

Transféré par

Hugo paléo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
93 vues4 pages

Feuille 2: M Ethodes de R Eduction de Variance: Exercice 1. Variable de Contr Ole

Le document traite des méthodes de Monte Carlo par chaîne de Markov, en se concentrant sur des techniques de réduction de variance, y compris l'utilisation de variables de contrôle et d'échantillonnage préférentiel. Plusieurs exercices sont présentés, abordant des concepts tels que l'intégration numérique, la variance des estimations, et les méthodes de simulation pour des distributions spécifiques. Les exercices incluent des calculs explicites et des démonstrations pour illustrer l'efficacité des méthodes proposées.

Transféré par

Hugo paléo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

STPI 3MIC Mathématiques Appliquées INSA Toulouse

Méthodes de Monte Carlo par Chaı̂ne de Markov


Aldéric Joulin et Simona Grusea

Feuille 2 : Méthodes de réduction de variance

Exercice 1. Variable de contrôle


On souhaite approcher numériquement l’espérance E[g(X)] où X ∼ N (0, 1) et g est
la fonction définie par

g(x) = |x|1|x|≤a + cos(x)1|x|>a , x ∈ R,

avec a un paramètre strictement positif. Afin de contrôler la variance dans la méthode


de Monte-Carlo, on se propose d’introduire une variable de contrôle. Pour ce faire,
posons g1 (x) = |x|1|x|≤a , x ∈ R.

1. Calculez explicitement E[g1 (X)].

2. Si l’on désire utiliser g1 (X) comme variable de contrôle, rappelez la mise en


oeuvre de la méthode de Monte-Carlo associée.

3. Montrez que l’on a l’inégalité suivante :


2
r
2 e−a /2
Var(g(X) − g1 (X)) ≤ × .
π a

4. On rappelle que l’erreur statistique commise dans la méthode de Monte-Carlo est


donnée par la variance de la moyenne empirique. Déterminez la taille minimale
de l’échantillon (dépendant du paramètre a) pour que l’erreur statistique soit
inférieure à 1%.

Exercice 2. Un cas simple d’échantillonnage préférentiel


Dans cet exercice, on souhaite approcher numériquement l’intégrale
Z α+1
e−x dx = e−α (1 − e−1 ) ,

Iα =
α

où α est un nombre positif ou nul donné.

1. Écrivez cette intégrale sous la forme d’une espérance du type E[g(X)], où X est
une variable aléatoire de loi exponentielle de paramètre 1 et g est une fonction
à déterminer.
2. Calculez explicitement Var(g(X)) en fonction du paramètre α.

3. Montrez que l’intégrale Iα peut être réécrite comme une espérance du type
E[g̃(U )], où U suit la loi uniforme sur [0, 1] et g̃ est une autre fonction borélienne
à déterminer.

4. Calculez explicitement la variance de g̃(U ) et montrez qu’elle est plus petite que
celle de g(X) pour tout α ≥ 0.

Exercice 3. Variables antithétiques


R1 2
On souhaite approcher numériquement l’intégrale I = 0 eu du, représentée comme
2
l’espérance E[eU ] où U ∼ U[0,1] . Afin de diminuer la variance dans la méthode de
Monte-Carlo, on considère la variable aléatoire Y θ donnée par
2 2
Y θ = θeU + (1 − θ)e(1−U ) ,

où θ est un paramètre (déterministe) compris entre 0 et 1.

1. Montrez que E[Y θ ] = I.

2. Montrez que
2
Var(Y θ ) ≤ (1 − 2θ(1 − θ))Var(eU ),
si et seulement si une certaine covariance est négative (auquel cas la variance
est bien réduite).

3. On admet que cette covariance est effectivement négative. Montrez que la borne
supérieure sur Var(Y θ ) est minimale pour (et uniquement pour) θ∗ = 1/2.

4. Rappelez enfin la mise en oeuvre de la méthode de Monte-Carlo associée à ce


θ∗ via l’approche par variables antithétiques.

Exercice 4. Autour de la loi de Laplace


Dans cet exercice, on souhaite approcher numériquement l’espérance E[g(X)] où X
suit la loi de Laplace admettant pour densité

e−|x|
f (x) = , x ∈ R,
2
et g est la fonction définie par
2
g(x) = 1{|x|≤1} + arctan(x)+ 1{|x|>1} , x ∈ R.
π
On rappelle que la partie positive d’une fonction h est h+ = max{h, 0}.
1. Mettez en œuvre une méthode de Monte-Carlo (simple) pour approcher E[g(X)].

2. On pose dans la suite


2
g1 (x) = 1{|x|≤1} et g2 (x) = arctan(x)+ 1{|x|>1} , x ∈ R.
π
Calculez explicitement E[g1 (X)], puis mettez en œuvre une méthode de Monte-
Carlo par variable de contrôle.

3. Montrez que E[g1 (X)g2 (X)] = 0 et déduisez-en que la variance est bien réduite
avec la méthode précédente si et seulement si
Var(g1 (X))
E[g2 (X)] ≤ . (∗)
2E[g1 (X)]

4. Établissez l’inégalité (∗) (la variance est alors bien réduite).


Indication. On observera que g2 peut être réécrite pour tout x ∈ R comme
g2 (x) = π2 arctan(x) 1{x>1} et on la majorera judicieusement.

5. Tracez le graphe de la fonction g2 , puis mettez en œuvre une méthode de Monte-


Carlo combinée à la précédente, permettant de diviser la variance par un facteur
au moins 2.

Exercice 5. Autour de la loi gaussienne centrée réduite


Soit X ∼ N (0, 1) et g : R → R une fonction borélienne telle que Var(g(X)) <
+∞. Il s’agit d’utiliser une méthode d’échantillonnage préférentiel pour réduire la
variance dans la mise en oeuvre de la méthode de Monte-Carlo pour l’approximation
de l’espérance E[g(X)]. La fonction d’importance h que l’on va proposer est la densité
d’un mélange (discret) de deux variables aléatoires gaussiennes. Ainsi, soient p ∈]0, 1[
et m0 , m1 deux réels quelconques. Notons h la densité

h(x) = pf1 (x) + (1 − p)f0 (x), x ∈ R,

où fi est la densité sur R de la loi N (mi , 1). On note Z la variable aléatoire associée.
Enfin, on note f la densité de X.
1. Proposez une méthode de simulation de la variable aléatoire Z.

2. Notons Y la variable aléatoire Y = g(Z)f (Z)/h(Z). Montrez que l’on a les


identités suivantes :
g(X)2 f (X)
 
E [Y ] = E[g(X)], et Var(Y ) = E − E[g(X)]2 .
h(X)
Dans la suite de l’exercice, on prend g(x) = x avec p = 1/2 et m0 = −m1 = m.
3. Montrez que la variance de Y vaut dans ce cas

X2
 
m2 /2
v(m) := e E .
cosh(mX)

4. Vérifiez que v 0 (0) = 0 et que v 00 (0) < 0.

5. Comment choisiriez-vous le paramètre m pour assurer une réduction de variance


lors de l’approximation de E[X] (= 0) ?

Vous aimerez peut-être aussi