Probabilité V
Probabilité V
Intégrale de Monte-Carlo 3
1
Echantillonnage d’importance 13
Echantillonnage d’importance . . . . . . . . . . . . . . . . . . . . 15
Densité optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Exercices 16
Loi uniforme dans un domaine . . . . . . . . . . . . . . . . . . . . . . 16
Simulation selon la loi géométrique . . . . . . . . . . . . . . . . . . . . 16
Simulation de la loi gaussienne par la méthode de rejet . . . . . . . . . 18
Simulation selon la loi de Wigner . . . . . . . . . . . . . . . . . . . . . 18
Loi des grands nombres et théorème central limite . . . . . . . . . . . 18
Simulation d’un mélange de gaussiennes . . . . . . . . . . . . . . . . . 19
Echantillonnage d’importance . . . . . . . . . . . . . . . . . . . . . . . 19
Solutions 19
Loi uniforme dans un domaine . . . . . . . . . . . . . . . . . . . . . . 22
Simulation selon la loi géométrique . . . . . . . . . . . . . . . . . . . . 22
Simulation de la loi gaussienne par la méthode de rejet . . . . . . . . . 24
Simulation de la loi de Wigner . . . . . . . . . . . . . . . . . . . . . . 25
Loi des grands nombres et théorème central limite . . . . . . . . . . . 25
Simulation d’un mélange de gaussiennes . . . . . . . . . . . . . . . . . 25
Echantillonnage d’importance . . . . . . . . . . . . . . . . . . . . . . . 25
Annexe 25
Preuve de la méthode d’inversion . . . . . . . . . . . . . . . . . . . . . 25
Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Références 28
Objectifs d’apprentissage
Cette section s’efforce d’expliciter et de hiérarchiser les acquis d’apprentissages
associés au chapitre. Ces objectifs sont organisés en paliers :
(◦) Prérequis (•) Fondamental (••) Standard (•••) Avancé (••••) Expert
Sauf mention particulière, la connaissance des démonstrations du document n’est
pas exigible 1
2
Génération de nombres pseudo-aléatoires
— • connaître le principe de la génération de nombres pseudo-aléatoires par
la méthode des congruences
Echantillonnage d’importance
— • connaître la définition de la méthode d’échantillonnage d’importance
— • savoir qu’un bon choix de densité instrumentale permet de minimiser
la variance d’estimation
Intégrale de Monte-Carlo
Les méthodes de Monte-Carlo ont été développées initialement par des physiciens
dans les années 1950 (notamment par les travaux de Metropolis, Ulam, Hastings,
Rosenbluth) pour calculer des intégrales (déterministes) à partir de méthodes
probabilistes numériquement assez économiques. Le nom a été donné en référence
au célèbre casino du fait du caractère aléatoire de ces méthodes.
Les méthodes de simulation sont basées sur la production de nombres aléatoires,
distribués selon une certaine loi de probabilité. Dans de nombreuses applications,
pour une certaine fonction h, on souhaite calculer, pour une variable aléatoire
X de loi PX Z
I = E (h(X)) = h(x) PX (dx).
En général, même si on sait évaluer h en tout point, on ne peut pas calculer for-
mellement l’intégrale I. Le calcul d’intégrale par la méthode Monte-Carlo consiste
dans sa version la plus simple à générer un échantillon (X1 , . . . , Xn ) ∼i.i.d. PX ,
et à estimer I par la moyenne empirique
n
1X
Mn (h) = h(Xi ),
n i=1
3
Si de plus h(X)2 est intégrable, la vitesse de convergence de Mn (h) peut être
évaluée, puisque la variance
Z
1 2
V(Mn (h)) = (h(x) − I) PX (dx)
n
peut également être estimée à partir de l’échantillon (X1 , . . . , Xn ) par la quantité
n
1X 2
σn2 = (h(Xi ) − Mn (h)) .
n i=1
Le théorème central limite assure alors que pour n grand,
Mn (h) − I
σn
suit approximativement une loi N (0, 1) 2 . Cette propriété conduit à la construc-
tion de tests de convergence et de bornes de confiance asymptotiques pour Mn (h).
Par exemple, on aura
P (I ∈ [Mn (h) − 1.96σn , Mn (h) + 1.96σn ]) ≈ 0.95,
−1
où 1.96 ≈ Φ (0, 975) avec Φ la fonction de répartition de la loi normale centrée
réduite.
4
génération de nombres aléatoires vont produire des séquences de nombres déter-
ministes qui vont avoir l’aspect de l’aléatoire. On s’intéresse ici à la génération
de nombres uniformes sur ]0, 1[ (on exclut les bornes par commodité), puisque,
comme on le verra dans la suite, il s’agit de l’ingrédient de base de toutes les
méthodes de simulation stochastique.
kn+1 k0
un+1 = , u0 = .
m m
5
grand pour que celle-ci devienne négligeable. Par exemple, en prenant a = 1000
et m = 2001179, on obtient une période de 2001178 et une corrélation de l’ordre
de 10−3 .
Ce générateur de nombres uniformes pseudo-aléatoires, bien que rudimentaire,
a ouvert la voie à des générateurs plus sophistiqués, toujours basés sur des
opérations arithmétiques. Le plus couramment utilisé à ce jour est l’algorithme
de Mersenne-Twister. Il s’agit du générateur par défaut de la plupart des logiciels
tels que Python, R, MATLAB, Julia, MS Excel,. . . Il passe notamment avec succès
toute la batterie de tests Die Hard. En particulier, sa période vaut 219937 − 1.
Pour certains usages, cet algorithme n’est cependant pas recommandé du fait de
sa prédictibilité. C’est notamment un défaut rédhibitoire pour les applications
en cryptographie. Il existe des variantes mieux adaptées à ce cas de figure. On
notera enfin qu’il existe des générateurs de nombres aléatoires basés sur des
phénomènes physiques comme un bruit électrique ou des phénomènes quantiques
et donc parfaitement imprévisibles.
Méthode d’inversion
L’objectif de ce paragraphe est de définir quand et comment il est possible de
simuler une variable aléatoire réelle X de fonction de répartition (f.d.r.) FX en
transformant la simulation d’une variable aléatoire U de loi uniforme sur ]0, 1[.
En d’autres termes, on cherche à déterminer les conditions sous lesquelles il est
L
possible d’identifier une fonction borélienne ψ : ]0, 1[→ R telle que X = ψ(U ).
Commençons par un cadre simple, où FX est bijective d’un intervalle non vide
de R sur ]0, 1[.
6
−1
FX : ]a, b[→ ]0, 1[ est bijective, de bijection réciproque FX : ]0, 1[→]a, b[, alors
−1 L L
FX (U ) = X et FX (X) = U .
Exercice – Pile ou face (•) Proposer une méthode pour simuler un tir à
pile ou face à partir de la simulation d’une variable uniforme sur ]0, 1[. (Solution
p. 20.)
On a déjà vu au chapitre II que les fonctions de répartition de v.a.r. possèdent
un nombre au plus dénombrable de points de discontinuité. Sur chaque intervalle
où elles sont continues, on peut alors considérer qu’elles sont bijectives, quitte à
réduire les zones de palier à un point. Cela permet de généraliser la notion de
bijection réciproque pour ces fonctions.
7
Définition – Réciproque généralisée
Soit F une fonction de répartition. On définit sa réciproque généralisée (aussi
appelée inverse généralisée ou pseudo-inverse) comme la fonction
Remarque – Conséquences
— Cette fonction est bien définie sur tout ]0, 1[, car quel que soit u dans cet
intervalle, l’ensemble {x ∈ R : F (x) ≥ u} est non vide et minoré. S’il était
vide ou non minoré pour un certain u0 ∈ ]0, 1[, pour tout x ∈ R on aurait
dans le premier cas F (x) < u0 < 0 et dans le second F (x) ≥ u0 > 1.
L’une comme l’autre de ces inégalités est impossible pour une fonction de
répartition.
— La réciproque généralisée de la f.d.r. FX d’une v.a.r. X est aussi appelée
− 1
fonction quantile. On pourra notamment remarquer que FX 2 est la
médiane de X.
— Lorsque F réalise une bijection d’un intervalle non vide I ⊂ R sur ]0, 1[,
sa réciproque généralisée coïncide avec sa bijection réciproque.
−
On a alors le résultat suivant, qui stipule que ψ = FX est une solution universelle
à notre problème. La preuve détaillée est donnée en Annexe.
Limitations
La méthode d’inversion peut sembler universelle pour simuler une v.a.r. X à
partir de U ∼ U]0,1[ . Cependant, elle nécessite en pratique de disposer d’une
expression analytique de FX pour en déduire sa réciproque généralisée. Ce n’est
typiquement pas le cas de nombreuses lois usuelles comme la loi Normale. On va
donc déterminer d’autres procédures pour simuler des variables suivant de telles
lois.
8
Méthode de rejet
La méthode de rejet est une alternative populaire à la méthode d’inversion,
lorsque cette dernière ne peut être utilisée directement et que la loi cible
possède une densité. On la doit à Von Neumann (1951). Pour en comprendre
le fondement, il nous faut d’abord introduire une généralisation naturelle de la
loi uniforme dans R à tout Rd (d ∈ N∗ ). On notera λ la mesure de Lebesgue sur
Rd .
1A (x)
f : x ∈ Rd 7→ .
λ(A)
9
Démonstration Commençons par remarquer que λ(Af ) = 1. Quel que soit
(z, v) ∈ R2 , par indépendance de X et U et par Fubini on a
Z Z
P (X ≤ z, U f (X) ≤ v) = 1]−∞,z] (x) 1]−∞,v] (uf (x)) 1]0,1[ (u) f (x) du dx
ZRz RZ
= 1]−∞,v]∩]0,f (x)[ (uf (x)) f (x) du dx
−∞ R
Z z Z v
= 1]0,f (x)[ (u) du dx
−∞ −∞
Z z Z v
= 1Af (x, u) du dx.
−∞ −∞
Ainsi, (X, U f (X)) admet pour densité 1Af , qui correspond bien à celle d’une loi
uniforme sur Af . ■
Pour simuler un vecteur uniforme (X, Y ) sur un ensemble Af tel que défini à la
proposition précédente, il suffit donc de simuler une v.a.r. X de densité f , puis
une variable U uniforme sur ]0, 1[, et de poser Y = f (X)U .
En combinant les résultats précédents, on obtient la méthode de rejet, illustrée
sur la figure ci-dessous, où AY := {(x, y) ∈ R × R+ : y ≤ fY (x)}.
Méthode de rejet
On souhaite simuler une variable aléatoire réelle X de densité fX . Supposons
que l’on sait simuler une variable U uniforme sur ]0, 1[, ainsi qu’une v.a.r. Y
(par exemple avec la méthode d’inversion) de densité fY telle qu’il existe un
réel a > 0 pour lequel on a ∀x ∈ R : fX (x) ≤ a fY (x). Il suffit alors de suivre
l’algorithme suivant :
1. simuler Y et U ,
2. si aU fY (Y ) > fX (Y ), recommencer à l’étape 1.
3. poser X = Y .
Limitations
La méthode de rejet a l’avantage de permettre de simuler des variables aléatoires
à densité dont la fonction de répartition n’a pas de forme analytique, rendant la
méthode d’inversion inapplicable. Néanmoins, pour pouvoir l’appliquer il faut
connaître une densité auxiliaire qui, multipliée par un réel positif, majore la
densité cible, et que l’on sait simuler. Le taux de rejet, c’est-à-dire la probabilité
de l’événement {aU fY (Y ) > fX (Y )}, peut parfois être élevé, notamment lorsque
la dimension de X est grande, ce qui limite l’efficacité de la méthode.
10
y
AY
a fY (x)
(Y, aU fY (Y ))
fX (x)
x
0
Proposition – Proposition
Soient U et V deux variables
p indépendantes, de loi uniforme
p sur ]0, 1[. Alors les
variables aléatoires X = −2 ln(U ) cos (2πV ) et Y = −2 ln(U ) sin (2πV ) sont
indépendantes et suivent toutes deux une loi normale centrée réduite.
11
L e L e
il suffit de montrer que R = R et Θ = Θ.
— Commençons par étudier la loi de R, depfonction de répartition FR .
On remarque que la fonction u ∈ ]0, 1[7→ −2 ln(u) ∈ R∗+ est bijective,
strictement décroissante. Ainsi, pour tout r ∈ R− on a P (R ≤ r) = 0 et
pour tout r ∈ R∗+ on a
r2 r2
p
P(R ≤ r) = P −2 ln(U ) ≤ r = P U ≥ e− 2 = 1 − e− 2 .
1 si θ ≥ 2π,
θ
θ
FΘ (θ) = P V ≤ 2π = si θ ∈ ]0, 2π[,
2π
0 si θ ≤ 0,
qui est bien la fonction de répartition d’une loi uniforme sur ]0, 2π[.
■
Cette méthode permet de simuler directement deux variables gaussiennes centrées
réduites indépendantes à partir de deux variables uniformes indépendantes. Pour
simuler une variable gaussienne d’espérance m ∈ R et de variance σ 2 ∈ R∗+
quelconques, on se rappelera que si X suit une loi normale centrée réduite, alors
σX + m suit une loi normale d’espérance m et de variance σ 2 .
C = V D V t,
où V est une matrice orthogonale et D est la matrice diagonale dont les termes
diagonaux sont les valeurs propres (toutes strictement positives) de C. Il suffit
12
alors de prendre N = V D1/2 , où D1/2 est la matrice diagonale dont les termes
diagonaux sont les racines carrées des valeurs propres.
En pratique, il est coûteux numériquement d’effectuer le calcul des valeurs
propres et des vecteurs propres de C. On va plutôt calculer sa décomposition ou
factorisation de Cholesky qui permet d’écrire
C = L Lt
Echantillonnage d’importance
On introduit dans cette section la méthode d’échantillonnage d’importance
(importance sampling en anglais), que l’on appelle aussi, de manière plus intuitive,
échantillonnage préférentiel, pour les lois à densité. Pour ce faire, nous allons
commencer par un exemple qui montre qu’il peut être plus efficace de simuler
des valeurs selon une loi différente de celle d’intérêt, autrement dit de modifier
la représentation de l’intégrale I sous la forme d’une espérance calculée selon
une autre densité.
5. Cette décomposition est très utile dans la résolution de systèmes linéaires de la forme
A x = b, où b est connu, x inconnu et A est définie positive. Cela revient à résoudre L Lt x = b.
On pose alors y = Lt x et on résout d’abord Ly = b, ce qui est très rapide puisque L est
triangulaire inférieure (on commence par y1 = b1 /L11 , puis y2 = (b2 − L21 y1 )/L22 , etc. en
descendant). On résout ensuite Lt x = y, ce qui est aussi très rapide pour la même raison (on
commence par xn = yn /Lnn puis on remonte).
13
la variance de l’estimateur V(bp1 ) = p(1 − p)/n = 0.127/n, puisque pb1 suit une loi
binomiale de paramètre (n, p). On peut réduire cette variance (et donc améliorer
la qualité de l’estimateur) en tirant parti de la symétrie de la densité de la loi de
Cauchy, en formant un second estimateur
n
1X
pb2 = 1|Xi |>2 ,
n i=1
U ∼ U[0,2] . Tirant un échantillon (U1 , . . . , Un ) i.i.d. de loi uniforme sur [0, 2], on
obtient un troisième estimateur :
n
1 1X 2
pb3 = − ,
2 n i=1 π(1 + Ui2 )
dont la variance vaut V(b p3 ) = (E(h(X)2 ) − E(h(U ))2 )/n = 0.0285/n (par
intégration par parties). Enfin, on peut encore réécrire (voir Ripley (1987))
1/2
y −2
Z
p= dy,
0 π(1 + y −2 )
V −2
qui peut être vue comme E 2π(1+V −2 ) avec V ∼ U]0,1/2[ . L’estimateur formé
à partir de cette représentation et d’un échantillon (V1 , . . . , Vn ) i.i.d. de loi
de 0.95 10−4 /n. Il est donc bien plus efficace
uniforme sur [0, 1/2] a une variance √
que pb1 puisqu’il nécessite environ 103 ≈ 32 fois moins de simulations pour
atteindre la même précision.
On a ainsi vu sur ce cas particulier que l’estimation d’une intégrale de la forme
Z
I = E (h(X)) = h(x)f (x)dx,
Rd
14
Définition – Echantillonnage d’importance
La méthode d’échantillonnage d’importance est une évaluation de I basée sur la
simulation d’un échantillon X1 , . . . , Xn de loi de densité g et approximant :
n
1 X f (Xi )
Ef (h(X)) ≈ h(Xi ),
n i=1 g(Xi )
f 2 (X) f 2 (x)
Z
f (X)
Eg h2 (X) 2 = Ef h2 (X) = h2 (x) dx < ∞.
g (X) g(X) g(x)
15
Théorème – Densité optimale
Le choix de g qui minimise la variance de l’estimateur donné dans la définition
ci-dessus (p. 15) est
|h(x)|f (x)
g ∗ (x) = R .
|h(x)|f (x)dx
Exercices
Loi uniforme dans un domaine
Ecrire un algorithme pour simuler un point uniforme dans les trois domaines
représentés ci-dessous.
16
(0,1)
(0,0) (1,0)
Figure 2 – Domaine A
0.00
0.75
0.25
1.00
1.25
1.00
0.75
0.00
Figure 3 – Domaine B
(5,2)
(3,1)
(0,0) (4,0)
Figure 4 – Domaine C
17
Question 3 Montrer que si X ∼ E(λ), alors ⌈X⌉ ∼ G(p). On précisera la
valeur de λ. (Solution p. 24.)
e
p
Question 1 Montrer que f (x) ≤ C exp (−|x|) où C = 2π (Solution p. 24.)
18
Question 3 Calculer la moyenne µ et l’écart-type
√ σ des Xi et vérifier, afin
d’illustrer le Théorème Central Limite, que n(Sn −µ)/σ converge en loi, lorsque
n → ∞, vers une variable de loi N (0,
√ 1) : on se fixera une grande valeur de n, on
simulera un grand nombre de fois n(Sn − µ)/σ, on en tracera l’histogramme
2
et on le comparera à la densité (2π)− 1/2e−x la loi N (0, 1). (Solution p. 25.)
Echantillonnage d’importance
On cherche à évaluer l’espérance d’une variable aléatoire X gaussienne centrée
réduite (de densité fX et de f.d.r. FX ) sachant qu’elle dépasse la valeur 3.
(Solution p. 25.)
Solutions
Calcul numérique d’une probabilité cf. notebook
19
Exemples d’application 1 On suppose que U ∼ U]0,1[
— Uniforme sur un intervalle I ⊂ R :
Si I =]a, b[, a < b, alors la fonction de répartition de X ∼ UI est
FX (x) = x−a
b−a 1]a,b[ (x) + 1[b,+∞[ (x), d’où par inversion X = a + (b − a)U
— Exponentielle de paramètre λ ∈ R∗+ :
la fonction de répartition de X ∼ E(λ) est FX (x) = 1−exp(−λx), d’où par
inversion X = − ln(1−U λ
)
. Pour simplifier, on remarquera que si U ∼ U]0,1[
, alors 1 − U ∼ U]0,1[ , d’où X = − ln(U λ
)
−1
— de Cauchy, de densité x ∈ R 7→ π 1 + x2 ,
la loi de Cauchy admet la fonction de répartition F (x) = π1 arctan(x) + 12 ,
d’où X = tan(πU − 1/2)
— de Laplace
n de oparamètres µ ∈ R et s ∈ R∗+ , de densité x ∈ R 7→
1
2s exp − |x−µ|
s ,
la loi de Laplace admet la fonction de répartition
1
2 exp(x) si x < 0, 1
F (x) = = (1 + sgn(x)(1 − exp(−|x|)))
1 − 12 exp(−x) si x ≥ 0, 2
d’où X = sgn(U − 1/2) ln(1 − 2|U − 1/2|), où sgn est la fonction signe.
— Logistique de paramètres µ ∈ R et s ∈ R∗+ , de fonction de répartition
−1
x ∈ R 7→ 1 + exp − x−µ
s :
par inversion, X = s − ln U1 − 1 + µ
Exemples d’application 2
— Binomiale de paramètres n ∈ N∗ et p ∈ ]0, 1[,
La fonction de répartition de la loi binomiale est donnée par
0P
si x < 0
⌊x⌋ n k n−k
F (x) = k=0 k p (1 − p) si 0 ≤ x < n
1 si x ≥ n
20
— Uniforme sur l’union de deux segments non vides et disjoints [a, b], [c, d] ⊂
R, de densité x ∈ R 7→ (b − a + d − c)−1 1[a,b]∪[c,d] (x)
La fonction de répartition d’une telle variable est
x−a b−a x−c+b−a
F (x) = 1]a,b[ (x)+ 1[b,c] (x)+ 1]c,d[ (x)+1[d,+∞[ (x)
b−a+d−c b−a+d−c b−a+d−c
Pour simuler cette variable, on peut donc utiliser l’algorithme suivant :
1. Générer u selon U]0,1[
2. Retourner
(
b−a
a + u(b − a + d − c) si u ∈]0, b−a+d−c [
c + (u(b − a + d − c) − (b − a)) sinon
P(U ∈ C, U ∈ B) P(U ∈ C)
P(U ∈ C|U ∈ B) = =
P(U ∈ B) P(U ∈ B)
R dx
C λ(A)
=R dx
puisque U ∼ UA
B λ(A)
Z
λ(C) 1
= = dx
λ(B) C λ(B)
1. générer u selon UR
2. Si u ∈
/ R, retour en 1.
3. retourner u
21
Taux de rejet Puisque le couple (Y, U fY (Y )) est uniforme sur Af , alors le
couple (Y, aU fY (Y )) est uniforme sur Aaf , d’où
22
∞
X
E[X 2 ] = i2 P(X = i)
i=1
∞
X
= i2 (1 − q)q i−1
i=1
∞
X
= (1 − q) i2 q i−1
i=1
∞
X
i (i + 1)q i−1 − q i−1
= (1 − q)
i=1
∞
X
i(i + 1)q i−1 − iq i−1
= (1 − q)
i=1
∞ 2
X d i+1 d i
= (1 − q) q − q
i=1
dq 2 dq
∞ ∞
! !!
d2 X i+1 d X
i
= (1 − q) 2
q − q
dq i=1
dq i=1
23
On en déduit
2 1
E[X 2 ] = (1 − q) 3
−
(1 − q) (1 − q)2
2 1
= −
(1 − q)2 (1 − q)
2 − (1 − q)
=
(1 − q)2
1+q
=
(1 − q)2
Et finalement
Question 3
d’où λ = − ln(1 − p)
Question 1 Soit x ∈ R
x2 ≥ 2|x| − 1
r
1 −x2 /2 e −|x|
√ e ≤ e
2π 2π
24
Question 2 g est bien positive et son intégrale sur R vaut
Z Z Z
1 −|x|
g(x)dx = e dx = e−x dx = 1
R R 2 R+
Echantillonnage d’importance
P(X≤x,X>3)
Question 1 On a FX|X>3 (x) = P(X ≤ x|X > 3) = 1−FX (3) =
FX (x)−FX (3) fX (x)
1−FX (3) 1]3,+∞[ (x) d’où fX|X>3 (x) = 1−FX (3) 1]3,+∞[ (x)
Annexe
Preuve de la méthode d’inversion
Pour pouvoir démontrer le théorème de la méthode d’inversion (p. 8), il faut
d’abord établir un certain nombre de propriétés de la réciproque généralisée
d’une fonction de répartition. Elle peuvent être visualisées sur la figure ci-dessous.
25
Proposition – Proposition
Soit F une fonction de répartition. Alors sa réciproque généralisée F − satisfait
les propriétés suivantes.
1. F − est croissante.
2. ∀ x ∈ R : F − ◦ F (x) ≤ x.
3. ∀ u ∈ ]0, 1[ : F ◦ F − (u) ≥ u avec égalité si u ∈ F (R).
4. ∀ (u, x) ∈ ]0, 1[ ×R : {F (x) ≥ u} ⇔ {x ≥ F − (u)} et {F (x) < u} ⇒
{x ≤ F − (u)}.
1. Soit (u, v) ∈ ]0, 1[2 . Si u < v alors F −1 ([v, 1]) ⊂ F −1 ([u, 1]) d’où F − (u) =
inf F −1 ([u, 1]) ≤ inf F −1 ([v, 1]) = F − (v). La fonction F − est donc bien
croissante.
2. Soit x ∈ R, alors F − ◦ F (x) = inf z ∈ R : F (z) ≥ F (x) =
inf F −1 ([F (x), 1]). Comme F est croissante sur R on a [x, +∞[ ⊆
F −1 ([F (x), 1]) donc F − ◦ F (x) = inf F −1 ([F (x), 1]) ≤ inf[x, +∞[ = x.
3. Soit u ∈ ]0, 1[.
— Puisque F −1 ([u, 1]) est nécessairement non vide, il existe une suite décrois-
sante (xn )n∈N ⊆ F −1 ([u, 1]) convergeant vers infF −1 ([u, 1]) = F − (u).
La croissance de F implique que la suite F (xn ) n∈N est elle aussi dé-
croissante, minorée par u car (xn )n∈N ⊆ F −1 ([u, 1]) donc convergente.
Sa limite est de même supérieure ou égale à u. Comme F est continue à
droite, cette dernière n’est autre que
lim F (xn ) = F lim xn = F ◦ F − (u).
n→+∞ n→+∞
26
— Implication. Supposons F (x) < u. Tout z ∈ F −1 ([u, 1]) vérifie F (z) ≥
u > F (x). Comme F est croissante sur R on a donc z ≥ x, ce qui implique
x ≤ inf F −1 ([u, 1]) = F − (y).
■
x
=
y
2
)
(x
F−
1.75
1.5
1.25
1
F (x)
0.75
0.5
0.25
x
0.25 0.5 0.75 1 1.25 1.5 1.75 2
27
Références
C. P. Robert, and G. Casella. 2004. Monte-Carlo Statistical Methods. 2nd edition,
Berlin: Springer.
G.E.P. Box, and M.E. Muller. 1958. “A Note on the Generation of Random
Normal Deviates.” Ann. Math. Stat. 29: 610–11.
Lehmer, Derrick H. 1951. “Mathematical Methods in Large-Scale Computing
Units.” Annu. Comput. Lab. Harvard Univ. 26: 141–46.
Ripley, Brian D. 1987. Stochastic Simulation. New York: Wiley.
Von Neumann, John. 1951. “Various Techniques Used in Connection with Ran-
dom Digits.” U.S. Nat. Bur. Stand. Math. Ser. 12: 36–38.
28