Cours Simulation
Cours Simulation
P. Del Moral
Centre INRIA Bordeaux Sud-Ouest
& Institut de Mathématiques de Bordeaux
Université Bordeaux I, 351, cours de la Libération
33405 Talence, France
Table des matières
1
3 Chaı̂nes de Markov discrètes 61
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Chaı̂nes de Markov discrètes . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.1 Semigroupes de transitions . . . . . . . . . . . . . . . . . . . . . 64
3.2.2 Processus historique . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.2.3 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . 67
3.3 Quelques Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.1 Files d’attentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.2 Modèle d’urne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3.3 Marche aléatoire sur Z . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3.4 Marche aléatoire sur Zd . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.5 Marche aléatoire arrétée . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.6 Processus de branchements . . . . . . . . . . . . . . . . . . . . . 75
1.1 Introduction
Le mot latin aléa, et le mot arabe hasard se réfèrent tous deux au “jeu de dès”. Cette
métaphore antique transmet ainsi l’idée que le résultat du lancer de dés est totalement
inattendu et imprévisible. La formalisation mathématique de cette notion de hasard
correspond à la notion de variable aléatoire. Ce nom probabiliste est un vrai pléonasme
mathématique combinant la variabilité d’une quantité est les fluctuations aléatoires des
résultats observés.
L’archétype des variables aléatoires est le simple jeu du pile ou face. Le résultat
X du lancer d’une pièce de monnaie est clairement l’une des deux faces, mais il est
bien difficile de prévoir laquelle. Si l’on désigne par le nombre 1 le coté pile, et par
le nombre 2 le coté face, les valeurs possibles du lancer sont données un ensemble
réduit à deux points {1, 2}. Lorsque la pièce n’est pas truquée, les deux résultats sont
équiprobables. Autrement dit, la probabilité pour que X prenne la valeur 1 coincide
avec la probabilité pour que X prenne la valeur 2. Plus formellement, si l’on note
respectivement par P(X = 1) et P(X = 2), ces deux probabilités, nous avons
Cette formule mathématique exprime le fait que chaque face se réalise avec une
probabilité 1/2.
Le lecteur profane est en droit de se poser au moins un couple de questions
naturelles :
– Que signifie ces grandeurs numériques ?
– Existe-t-il des pièces si parfaites ?
Comme nous l’avons souligné dans l’introduction, les modèles probabilistes sont
toujours des modèles simplifiés, mais suffisament précis pour prédire les chances
d’obtenir une réalisation donnée. Pour être plus précis, supposons que l’on lance de
nombreuses fois la même pièce de monnaie. On note scrupuleusement la proportion de
5
fois où le cote pile s’est réalisé. Après un certain nombre de lancers, ces proportions se
stabilisent autour d’une valeur déterministe comprise dans l’intervalle [0, 1]. Ce nombre
correspond à la probabilité pour que le résultat du lancer soit “pile”.
Une probabilité est donc par essence une notion asymptotique, évaluant
le nombre de chances d’obtenir une réalisation d’un évènement aléatoire donné. Si les
fréquences de réalisation du coté pile convergent vers 1/100, lorsqu’on augmente le
nombre de lancers, c’est que la pièce utilisée est truquée. Le coté “face” se réalise 99
fois sur 100. Cela ne veut bien évidemment pas dire que sur 100 expériences, on aura
exactement 99 fois le coté “face” ! Néanmoins sur de longues séquences, on est à peu
sur que le coté “face” se réalisera 99 fois plus souvent.
L’existence d’une pièce parfaite est aussi utopique que l’existence d’une pièce pour
laquelle la probabilité de réalisation du coté “pile” est exactement égale à 1/π. Une
probabilité rationnelle, pouvant s’exprimer sous forme de fraction d’entiers, est elle
plus vraisemblable qu’une quelconque probabilité réelle ?
Cette simple question concernant l’existence d’une telle pièce nous conduit vers une
région mathématique encore plus mystérieuse, celle des nombres réels.
La continuité et l’extension infinie de notre univers restent deux des grandes
questions des sciences modernes. L’existence des nombres réels semble dictée par
l’analyse mathématique. Plus précisément, les nombres rationnels sont d’un usage
courant, mais leur ensemble est trop troué pour définir convenablement certains objects
limites, tels des vitesses ou des accélérations de mouvement, des volumes ou encore des
aires de surfaces planes. Sans ces nombres ils serait par exemple totalement impossible
de trouver le périmètre d’un cercle de un mètre diamètre !
Une fois admis l’existence de ces nombres réels, il devient très aisé d’imaginer des
phénomènes aléatoires à valeurs dans des espaces continus : lancers de flechettes sur
une disque, fluctuations de températures d’un liquide, perturbations de mesures dans
des capteurs électroniques, évolutions de cyclones, instants d’arrivée de clients dans
une file d’attente, etc.
L’exemple le plus simple de phénomène aléatoire réel est celui du choix d’un point
au hasard dans l’intervalle réel [0, 1]. Pour poursuivre notre discussion, on note par U
le résultat aléatoire d’une telle expérience. La probabilité de choisir un nombre entre 0
et 1/2 est égale à la probabilité de choisir ce nombre entre 1/2 et 1
P(U ∈ [0, 1/4]) = P(U ∈ [1/4, 1/2]) = P(U ∈ [1/2, 3/4]) = P(U ∈ [3/4, 1]) = 1/4
Ainsi la probabilité de choisir U dans [1/2, 1/2 + 1/1000] est de 1/1000, celle de le
choisir dans [1/2, 1/2 + 1/10000] est de 1/10000. De proche en proche, on montre qu’il
est de plus en plus improbable de le choisir de plus en plus proche de 1/2
→0
P(U ∈ [1/2, 1/2 + ]) −−−−→ P(U = 1/2) = 0
Autrement dit, lorsque l’évènement U ∈ [0, 1/2[ se réalise, on convient que la pièce
de monnaie est tombée sur le coté pile, et sur le coté face dans le cas contraire. Par
construction, la probabilité d’obtenir le coté “pile” est bien à nouveau égale à 1/2 :
est le produit des probabilités pour que chacune des deux coordonnées U1 et U2 , tombe
respectivement sur les faces [a1 , a2 ] et [b1 , b2 ]. Par conséquent, la probabilité de choisir
un point U = (U1 , U2 ) au hasard dans le carré P est alors donnée par l’aire du pavé :
Dans notre discussion, nous avons utilisé sans y préter trop d’attention une des
notions fondamentales de la théorie des probabilités : la notion d’indépendance
entre des évènements aléatoires. Intuitivement, deux évènements aléatoires sont
physiquement indépendants lorsque la réalisation de l’un n’a aucune influence sur les
possibilités de réalisation du second.
Reprenons l’exemple du jeu de pile ou face. On note X1 et X2 les résultats de deux
lancers successifs. L’indépendance entre les lancers se traduit par le fait que le résultat
du premier lancer n’influe pas sur la réalisation du second. Par exemple, le fait d’avoir
“pile” au premier lancer, n’augmente pas les chance d’avoir à nouveau “pile” au second.
Les deux évènements
A1 = (X1 = 0) et A2 = (X2 = 0)
sont donc physiquement indépendants. Examinons de plus près la caratérisation
mathématique de cette notion d’indépendance. Nous commençons par noter que toutes
les réalisations possibles et envisageables sont équiprobables. Plus précisément, nous
avons autant de chance de voir deux fois le coté “pile”, que deux fois le coté ”face”, ou
encore deux cotés opposés dans un ordre quelconque :
On a donc une chance sur quatre pour que les deux évènements A1 et A2 se réalisent :
D’autre part, puisque chacun d’entre eux à une chance sur deux de se réaliser, on a
aussi
P(A1 ) × P(A2 ) = P(X1 = 0) × P(X2 = 0) = 1/2 × 1/2 = 1/4
Par conséquent, la probabilité pour que A1 et A2 se produisent simultanément est égale
au produit des probabilités pour que chacun d’eux se soit séparément réalisé
Il est important de souligner qu’il n’existe à ce jour aucune méthode exacte pour
générer une telle suite de nombres u. Pire encore, la plupart des générateurs de
nombres uniformes connus sont basés sur des systèmes déterministes chaotiques. Ces
algorithmes sont loin d’être aléatoire ! Ils possèdent toujours une période mais cette
dernière est suffisamment grande pour ne pas être vue par l’utilisateur. Ces systèmes
s’expriment le plus souvent par une suite arithmétique linéaire congruentielle de la
forme suivante :
La valeur initiale u0 est appelée la graine, et les paramètres (a, b, m) sont des entiers
bien choisis. Lorsque
a = 5, b = 1, , m = 24 et x0 = 1
la suite xn = (5 xn−1 + 1) mod(16) obtenue par cet algorithme est donnée par
1, 6, 15, 12, 13, 2, 11, 8, 9, 14, 7, 4, 5, 10, 3, 0, 1, 6, 15, 12, 13, 2, 11, 8, 9, 14, . . .
La période de cette suite est égale à 16. Cette période est bien entendu maximale car
l’opération “modulo 16” ne permet de générer que des nombres compris entre 0 et 16.
Lorsque b = 0, 0 < x0 < m, et m est un nombre premier, le petit théorème de Fermat
indique que la période de la suite est égale à (m − 1).
Il existe une foule de générateurs pseudo-aléatoires fondés sur ces opérations
arithmétiques, quasiment autant que de choix des valeurs (a, b, m) ! Pour donner
quelques exemples, certains logiciels utilisent
a = 25214903917, b = 11 et m = 248
et celui du CRAY
s’est produit lors de la simulation de la variable U . Dans le cas du jeu de “pile ou face”,
si le nombre U tombe dans l’intervalle [0, 1/2), on convient que le résultat du lancer
est “pile” (et “face” dans le cas contraire).
On peut éviter de tester si la simulation du nombre U est tombée soit à gauche, soit
à droite de 1/2, en posant tout simplement
X = 1 + [2U ]
où [a] désigne la partie entère d’un nombre réel a. Il est aisé de vérifier les équivalences
entre les évènements suivantes
Dans le le jeu du “lancé de dés” avec un dés non truqué, le résultat du lancer X
peut prendre l’une des six valeurs 1, 2, 3, 4, 5, ou 6 avec la même probabilité
Pour générer sur ordinateur un lancer de dés aléatoire, on utilise une seule variable
uniforme U sur [0, 1], et l’on pose simplement
X = 1 + [6U ]
= (5/6)n
En passant aux évènements complémentaires, la probabilité pour que le chiffre 6
apparaı̂sse au moins une fois est donné par
= 1 − (5/6)n
Ces formules élémentaires nous permettent de répondre à toutes nos questions. Avec
plus d’une chance sur deux, le chiffre 6 sort au moins une fois après 4 lancers. En effet,
nous avons
De même, avec plus de 99 chances sur 100, le chiffre 6 sort au moins une fois après 26
lancers
= 1 − (1 − p)n
L’exemple du loto
Les probabilités de gain au loto sont bien sur plus faibles que celle de voir apparaı̂tre
un 6 lors d’un lancer de dès. Néanmoins les raisonnements sont les mêmes, il suffit de
remplacer la probabilité 1/6 par la probabilité de gagner au loto égale à 1/(14 × 106 ).
On obtient ainsi les formules suivantes
P(“La grille choisie sort au moins une fois lors de n tirages de loto”)
On en conclut qu’il nous faut jouer plus de 10 millions de fois pour que notre grille ait
une chance sur deux de sortir au moins une fois
n n
1 1
1− 1− ≥ 1/2 ⇔ 1− ≤ 1/2
14 × 106 14 × 106
1
⇔ n log 1 − ≤ log (1/2)
14 × 106
14 × 106
⇔ n log ≥ log (2)
14 × 106 − 1
14 × 106
⇔ n ≥ log 2/ log ' 9, 8 × 106
14 × 106 − 1
En supposant que le joueur avisé joue une seule fois par semaine, il lui faudrait jouer
10 millions de semaines, soit plus de 192 mille ans pour espérer gagner au moins une
fois avec une chance sur deux !
Par des raisonnements analogues, on vérifie qu’il est nécessaire de jouer plus de 65
millions de fois pour que notre grille ait plus de 99 chances sur 100 de sortir au moins
une fois. De façon équivalente, il faudrait à peu près 65 millions de joueurs de loto
acharnés pour être sur que l’un d’entre eux puisse gagner avec une probabilité 99/100
n n
1 1
1− 1− ≥ 99/100 ⇔ 1− ≤ 1/100
14 × 106 14 × 106
1
⇔ n log 1 − ≤ log (1/100)
14 × 106
14 × 106
⇔ n log ≥ log (100)
14 × 106 − 1
14 × 106
⇔ n ≥ log (100)/ log ' 65, 7 × 106
14 × 106 − 1
Ces chiffres pour le moins astronomiques n’ont jamais détourné les joueurs de ces jeux
de loto. Ces derniers semblent toujours apprécier l’espoir de gagner, avec de faibles
mises des sommes d’argent parfois inversement proportionnelles aux chances de gain.
1.4.3 Les lois géométriques
Introduction
Les phénomènes aléatoires les plus intéressants se déroulent dans le temps.
Ils se composent d’une successions d’évènements élémentaires aussi complexes
qu’imprévisibles. Pour donner quelques exemples d’actualié, les formations de cyclones,
ou de gaz au niveau atomique, ou encore l’évolution d’actifs financiers sont le fruit de
fluctuations aléatoires météorologiques, quantiques, ou financières se déroulant dans le
temps.
La formalisation mathématique de ces phénomènes aléatoires complexes est fondée
sur des études physiques ou statistiques précises. Les modèles probabilistes formalisés
s’expriment alors sous la forme de processus stochastiques diffusifs ou à sauts. Nous
reviendrons sur ces modèles lorsque nous aborderons la simulation de chaı̂nes de
Markov.
Avant d’étudier en profondeur ces phénomènes aléatoires, il est souvent très utile
de restreindre notre analyse à certaines questions plus élémentaires, tout en simplifiant
à l’extrême ces modèles :
Quelle est la probabilité pour qu’un cyclone se forme à une date donnée ? Quelle
sont nos “chances” pour qu’un appareil électronique tombe en panne après une centaine
d’utilisations ? Quelle est la probabilité pour qu’une action financière s’éffondre à une
date donnée ?
La réponse précise à ces questions nécessite bien évidemment une analyse fine des
processus de turbulence météorologique, des fluctuations thermiques et quantiques des
composants électroniques, ou encore une étude profonde des fluctuations du marché
financier. Néanmoins, une première étude statistique naive permettent d’estimer très
groissièrement les probabilités pour que l’évènement qui nous intéresse se réalise.
Supposons donc qu’un instrument électronique ait une chance sur mille de tomber
en panne à chaque utilisation. Quelle est la probabilité pour qu’il tombe en panne
après une centaine d’utilisations ? Quelle la loi de probabilité complète de ses instants
de pannes ? De même, si un cyclone peut se former chaque jour sur le golfe du Mexique
avec une chance sur mille, quelle est la probabilité d’avoir une catastrophe cyclonique
exactement après six mois ? Enfin, si un actif financier peut s’éffondrer tous les jours
avec un chance sur mille, quelle est la lois exacte des instants de faillites ? Dans tous
les cas, on supposera que les réalisations ou non des évènements en questions à chaque
étape sont mutuellement indépendants.
Nous insiterons sur le fait que les lois de probabilités réelles de ces phénomènes
aléatoires dépendent du paramètre temporel. De plus, dans la plupart des phénomènes
physiques, les états du système sont loins d’être indépendants dans le temps. Les
mécanismes de dépendance sont souvent dictés par des lois fondamentales de la
physique. Par conséquent, les modèles statistiques que nous venons de décrire sont
très peu réalistes, mais ils suffisent pour se donner une première idée du comportement
des systèmes.
P(A) = p ∈ [0, 1]
A = {U ∈ [0, p[}
et
Ac = {“L’appareil fonctionne”} = {U ∈ [1/1000, 1]}
On vérifie que les probabilités d’occurence de ces évènements correspondent bien aux
données du problème
et
P(“L’appareil fonctionne”) = 1 − 1/1000 = 999/1000
La loi géométrique
Pour simuler l’évolution temporelle du phénomène aléatoire, on génère sur
l’ordinateur une suite (Un )n≥1 de variables uniformes sur [0, 1], tout en vérifiant au
fil du temps si l’une des variables tombe dans [0, p[. On note T la première fois où
cela se produit. Cet instant aléatoire T correspond au plus petit entier n, pour lequel
Un tombe dans [0, p[. On note ce temps aléatoire
T =1
Lorsque U1 est dans [p, 1], on simule une nouvelle variable uniforme U2 sur [0, 1]. Si
cette variable tombe dans [0, p[, alors on convient que A s’est réalisé lors de la seconde
expérience, et on pose
T =2
Dans le cas contraire, les variables U1 et U2 sont tombées dans l’intervalle [p, 1]. On
génère alors une nouvelle variable U3 sur [0, 1]. Si cette variable tombe dans [0, p[, alors
on convient que A s’est réalisé après trois expériences, et on pose
T =3
À titre d’exemple, la situation où notre appareil électronique tombe en panne apr̀es
quatre utilisations est décrite par l’évènement
D’après les propriétés d’indépendance entre les évènements, la probabilité pour que cet
évènement se réalise est donnée par
P(T = 4) = P(U1 6∈ [0, 1/1000[, U2 6∈ [0, 1/1000[, U3 6∈ [0, 1/1000[, U4 ∈ [0, 1/1000[)
= P(U1 6∈ [0, 1/1000[) × P(U2 6∈ [0, 1/1000[) × P(U3 6∈ [0, 1/1000[)
×P(U4 ∈ [0, 1/1000[)
3
= P(U 6∈ [0, 1/1000[) × P(U ∈ [0, 1/1000[)
3
1 1
= × 1−
1000 1000
Plus généralement, la probabilité pour qu’il tombe en panne après n utilisations est
donnée par la formule
n−1
1 1
P(T = n) = × 1−
1000 1000
On a donc approximativement neuf chances sur 10.000 pour que notre appareil tombe
en panne exactement après une centaine d’utilisations
99
1 1
P(T = 100) = × 1− ' 9 × 10−4
1000 1000
Ces lois des premiers instants où un évènement se produit sont appelées des lois
géométriques. Pour des évènements quelconques A ayant une probabilité P(A) = p
de se réaliser, le premier instant de réalisation
∀n ≥ 1, P(T = n) = p (1 − p)n−1 .
5 + 5 = 6 + 4 = 4 + 6 = 10
4+5=5+4=6+3=3+6=9
On a donc
P(la somme des deux lancers vaut 10) = 3/36 = 1/12
et
P(la somme des deux lancers vaut 9) = 4/36 = 1/9
Les processus de naissances et morts d’individus dans des environnements plus ou
moins accueillants sont aussi sujet à de telles variations. Par exemple, les naissances
dans des régions désertiques sont moins fréquentes que celles des capitales européennes.
Ces taux de naissances sont souvent reliés à la qualité d’adaptation d’un individu dans
des sites donnés.
Dans un tout autre registre, l’élaboration de portefeuilles financiers est souvent
fondée sur des critères de qualité rendant compte des tendances à la hausse ou à la
baisse d’une collection d’actions. Ainsi, un bon agent financier cherchera à miser le
plus souvent sur des actifs ayant de fort potentiel de gain. Le comportement d’un
agent financier peut ainsi être décrit par des sélections aléatoires d’actifs, certains
plus probables que d’autres en fonction d’une conjoncture financière, ou d’un climat
économique donné.
Pour réaliser cette expérience X en terme d’une variable uniforme U sur [0, 1], on
décompose cet intervalle en deux segments de longeurs respectives 1/100 et 99/100
X = x1 1[0,1/100] (U ) + x2 1]1/100,1] (U )
x1 = 1 , x2 = 2 , x3 = 3 , x4 = 4 , x5 = 5 ou x6 = 6
et
Dans cet exemple, la chiffre 1 apparait très souvent avec une chance sur 2, alors que
la face 6 est plus improbable, elle se réalise en général une seule fois sur 32. Comme
précédemment, on réalise ce lancer de dès truqué en terme d’une variable uniforme U
sur [0, 1], en décomposant l’intervalle [0, 1] en six segments de longueurs respectives
1/2, 1/4, 1/8, 1/16, 1/32
[0, 1] = I1 ∪ I2 ∪ I3 ∪ I4 ∪ I5 ∪ I6
1 1 3 3 7 7 15 15 31 31
= 0, ∪ , ∪ , ∪ , ∪ , ∪ ,1
2 2 4 4 8 8 16 16 32 32
On effectue ensuite les associations évènementielles suivantes
{X = i} = {U ∈ Ii }
pour chaque i ∈ {1, 2, . . . , 6}. Le résultat du lancer de dés X peut s’écrire sous la forme
synthétique suivante
Plus généralement, pour simuler une variable X distribuée dans un ensemble fini
{x1 , . . . , xd } avec la loi de probabilité donnée
[0, 1] = I1 ∪ I2 ∪ I3 ∪ . . . ∪ Id
= [0, p1 ] ∪ ]p1 , p1 + p2 ] ∪ ]p1 + p2 , p1 + p2 + p3 ] ∪ . . . ∪ ]p1 + . . . + pd−1 , 1]
Pour chaque indice i ∈ {1, . . . , d}, on fait les associations évènementielles suivantes :
{X = xi } = {U ∈ Ii }
p : x ∈ R −→ p(x) ∈ [0, ∞[
p(x)
a b x
Horloges exponentielles
Comme nous l’avons souligné dans l’introduction, l’évolution aléatoire du nombre de
clients dans une file d’attente est clairement le fruit d’un processus d’arrivées aléatoires
d’individus au fil du temps. Ces dates d’arrivées peuvent être représentées par des
variables aléatoires T à valeurs dans la demi-droite [0, ∞[. Leur nature est souvent
exponentielle. Plus précisement, la probabilité pour qu’une personne arrive dans une
file d’attente à un instant T compris entre t1 et t2 est donnée par l’intégrale d’une
fonction exponentielle entre les dates en question
Z t2
P(t1 ≤ T ≤ t2 ) = λ e−λs ds = e−λt1 − e−λt2
t1
D’aprés la remarque précédente, la probabilité pour qu’une personne arrive entre deux
instants très rapprochés t et t + dt, sachant qu’elle n’est pas encore arrivée avant t, est
égale au produit λdt
Le paramètre λ > 0 est appelé l’intensité de la variable aléatoire. Notons que pour
t1 = 0, et lorsque t2 ↑ ∞, nous avons
Le paramètre λ correspond donc à la fréquence d’arrivée des clients par unité de temps,
disons par minute. Lorsque λ = 10 clients par minute, l’instant d’arrivée moyen d’un
client est de 1/10 de minute. Autrement dit, les clients arrivent en moyenne toutes les
six minutes dans la file d’attente.
La simulation de ces instants d’arrivée aléatoire est à nouveau l’expression d’une
variable uniforme U sur [0, 1] ! Pour être plus précis, commençons par poser
1
T =− log U
λ
On vérifie sans trop de peine que l’on a
Pour simuler l’arrivée d’un client dans une file d’attente, on prend donc tout simplement
le logarithme d’un nombre uniforme sur [0, 1] fourni par l’ordinateur, et l’on multiplie
le résultat par −1/λ.
Chapitre 2
F (x) = u ⇐⇒ e−λx = (1 − u)
1
⇐⇒ x = F −1 (u) = − log (1 − u)
λ
Cet inverse ressemble étrangement à l’expression de la variable exponentielle en terme
d’une variable uniforme présentée dans la section précédente.
1
T = − log U
λ
En effet, les variables U et (1 − U ) sont toutes deux uniformes sur l’intervalle [0, 1] ! Il
semble donc qu’en posant
T = F −1 (U )
l’on obtienne un procédé de simulation universel d’une variable aléatoire ayant pour
fonction de répartition F . Pour vérifier cette intuition, notons F la fonction de
27
répartition d’une variable réelle quelconque X définie par
F (x) = P (X ≤ x) .
Il en découle que la variable F −1 (U ) est bien distribuée selon la même loi que la variable
aléatoire X.
Inversement, si X est une variable aléatoire réelle ayant une fonction de répartition
strictement croissante F : R → [0, 1] alors F (X) est une variable uniforme sur [0, 1].
On vérifie aisément ce résultat en notant que pour chaque u ∈ [0, 1], nous avons
Cette propriété est souvent utilisée en pratique non pas pour simuler des variables
uniformes mais plutôt pour vérifier si un échantillon de données statistiques
indépendantes suit bien une loi donnée !
Illustrons graphiquement cette technique d’inversion. La nature de la fonction de
répartition décrit les accroissement de masse de probabilité entre les points. Pour des
variables aléatoires réelles admettant une densité de probabilité p, la accroissement de
la fonction de répartition
Z
F (x) = P(X ≤ x) = p(y) dy
]−∞,x]
La figure précédente illustre bien la répartition sur les masses de probabilités d’une
série de points choisis au hasard par le méthode d’inversion
x
X1,...,Xn,...
F9x)
U1,...,Un,...
Par conséquent la variable Y = 1 + [X] est distribuée selon une loi géométrique de
paramètre p. En utilisant les techniques de simulation de lois exponentielles décrites
précédemment, on vérifie sans trop de peine que la variable
Y = 1 + [log (U )/log (1 − p)]
avec U uniforme sur [0, 1], suit encore une loi géométrique de paramètre p. On pourra
noter que ce procédé de simulation est bien plus rapide que celui présenté dans la
section 1.4.3. Une seule variable uniforme permet de décrire l’apparition d’un événement
aléatoire de probabilité donnés, sans simuler les échecs !
Cette fonction de répartition est inversible, et son inverse F −1 est donné pour chaque
u ∈ [0, 1] par la formule
−1 1
F (u) = σ tan π (u − ) .
2
La simulation d’une loi de Cauchy est donc claire, on simule tout d’abord une
variable uniforme U sur l’intervalle ]0, 1[, et on pose
−1 1
X = F (U ) = σ tan π (U − )
2
D’après ce qui précède, cette variable est bien une variable aléatoire de Cauchy de
paramètre σ > 0. On pourra noter que la variable aléatoire angulaire
1
V = π (U − )
2
est uniforme sur l’intevalle ] − π/2, π/2[. L’algorithme de simulation peut donc
s’interpréter comme la tangente d’un angle choisi au hasard dans l’intervalle ]−π/2, π/2[
X = σ tan V
x − x22
P(X ∈ dx) = e 2σ 1[0,∞[ (x) dx.
σ2
La fonction de répartition F de X est définie pour chaque x ∈ [0, ∞[ par la formule
explicite suivante
Z x
x2
∂ y2
F (x) = P(X ≤ x) = − e− 2σ2 dy = 1 − exp − 2
0 ∂y 2σ
Cette fonction est clairement inversible, et son inverse est donné par la fonction
Les lois de Weibull sont de simples extensions des lois de Raighley. Plus précisément,
une variable aléatoire X de Weibull de paramètres a, b > 0, est distribuée selon la loi
a a−1 −(x/b)a
P(X ∈ dx) = x e 1[0,∞[ (x) dx.
ba
Avec ces notations, une loi de Rayleigh de paramètre σ est donc une loi de Weibull de
paramètres
a = 2 et b = σ
Par des raisonnements analogues aux précédents, la fonction de répartition F de X est
définie explictement pour chaque x ∈ [0, ∞[ par la formule suivante
Z x
∂ a a
F (x) = (−e−(z/b) ) dz = 1 − e−(x/b)
0 ∂z
Cette fonction est clairement inversible et son inverse F −1 est donné pour chaque
u ∈ [0, 1[ par
F −1 (u) = b (− log (1 − u))1/a .
Si U est une variable aléatoire uniforme sur ]0, 1] alors
X = b × (− log U )1/a
est une variable aléatoire de Weibull de paramètres a, b > 0. Pour conclure, on pourra
noter que les variables exponentielles de paramètre λ = 1 données par
Y = − log U
et les variables de Weibull de paramètres (a, b) sont reliées par la formule suivante
X = b × Y 1/a
p : x ∈ Rd −→ p(x) ∈ [0, ∞[
A = ([a1 , b1 ] × [a2 , b2 ])
X1 = a1 + (b1 − a1 ) U1 et X2 = a2 + (b2 − a2 ) U2
Pour vérifier cette assertion, on considère la fonction θ qui à un point (u1 , u2 ) ∈ [0, 1]2
associe le point
A = θ([0, 1]2 )
Les points (U1 , U2 ) choisis sur [0, 1]2 sont ainsi envoyés sur des points (X1 , X2 ) =
θ(U1 , U2 ) du carré A. Mieux encore, la fonction θ est une bijection entre ces deux
ensembles. Autrement dit, θ est une une correspondance bi-univoque entre [0, 1]2 et A.
L’inverse de θ est donné par la formule suivante
−1 x1 − a1 x2 − a2
(u1 , u2 ) = θ (x1 , x2 ) = ,
b1 − a1 b2 − a2
Aire(B)
Aire(θ−1 (B)) =
Aire(A)
Avant de vérifier cette assertion, nous commencerons par noter que la transformation
θ est loin de préserver les aires des carrés. Par exemple, le carré unité [0, 1]2 d’aire 1
est envoyé sur un carré
Pour être plus précis, nous avons les associations d’aires infinitésimales suivantes
Pour plus détails concernant ces associations d’aires, nous renvoyons le lecteur à la
section 2.2.3 consacrée au variations d’aires engendrées par des transformations planes.
Dans notre cas, nous avons
∂u1 1 ∂u2 1 ∂u1 ∂u2
= , = , et =0=
∂x1 (b1 − a1 ) ∂x2 (b2 − a2 ) ∂x2 ∂x1
[a1 , b1 ] × · · · × [an , bn ]
il suffit de poser
Pour vérifier que chacune des composantes Xk est uniformément distribuée sur chaque
arête [ak , bk ], on note simplement que pour tout segment [αk , βk ] ⊂ [ak , bk ], nous avons
αk − ak βk − ak βk − αk
P (Xk ∈ [αk , βk ]) = P Uk ∈ , =
bk − ak bk − ak bk − ak
On doit interpréter du1 du2 comme une aire virtuelle d’un petit carré infinitésimal dont
les cotés sont de longueurs respectives du1 et du2 .
L’intégrale consiste simplement à sommer les aires tous les petits carrés
infinitésimaux contenus dans la surface en question. Considérons désormais une
transformation θ suffisament régulière du plan dans lui même. Cette transformation
peut s’interpréter comme une déformation physique et élastique d’une surface plane.
Chaque point (u1 , u2 ) est envoyé sur un nouveau point
(x1 , x2 ) = θ(u1 , u2 )
du1 du2
du2
du1
de surface du1 du2 autour de points (u1 , u2 ) sont alors transformés en petits carrés
de surface dx1 dx2 , autours des points transformés (x1 , x2 ) = θ(u1 , u2 ). Les variations
d’étirement du plan subies par l’action de la transformation élastique θ se traduisent
par une variation des longueurs des cotés des carrés. Plus précisément, dans la base des
longueurs de référence (du1 , du2 ) sur chaque coordonnées, nous avons
du2 dx1
du1
dx2/du1 dx1/du1
\
Si (dx 1 , dx2 ) désigne l’angle formé par ces deux vecteurs, nous avons
\ h
sin (dx 1 , dx2 ) = r 2 2
∂x2 ∂x2
∂u1 + ∂u2
où a1 , et a2 désignent respectivement les angles entre l’axe des abscisses et le vecteurs
dy1 , et dy2 .
\
(dx \
1 , dx2 ) = (dy1 , dy2 ) = a2 − a1
cos (a2 − a1 ) + i sin (a2 − a1 ) = ei(a2 −a1 ) = eia2 e−ia1 = dy2 × dy1 (2.2)
et finallement
\ 1 1 ∂x1 ∂x2 ∂x1 ∂x2
sin (dx 1 , dx2 ) = r 2 r −
∂x1
2
∂x1 ∂x2
2
∂x2
2 ∂u2 ∂u1 ∂u1 ∂u2
∂u1 + ∂u2 ∂u1 + ∂u2
1 dx2
dy2
dx1
dy1
a2
a1
−1 1
−1
Le terme du1 du2 représente l’unité d’aire infinitésimale dans laquelle nous avons effectué
nos calculs. Ces formules témoignent du fait que l’aire d’une surface D suffisament
régulière Z
Aire(D) = du1 du2
D
est transformée par θ en une surface θ(D) d’aire
Z Z
∂x1 ∂x2 ∂x1 ∂x2
Aire(θ(D)) = dx1 dx2 = − du1 du2
θ(D) D ∂u2 ∂u1 ∂u1 ∂u2
Plus généralement, pour des fonctions intégrables sur la surface θ(D), nous avons la
formule de changement de variables
∂θ1 ∂θ2 ∂θ1 ∂θ2
Z Z
f (x1 , x2 ) dx1 dx2 = f (θ(u1 , u2 )) − du1 du2
θ(D) D ∂u2 ∂u1 ∂u1 ∂u2
avec la transformation
Comme dans le cas des choix de points au hasard dans des pavés examiné dans la
section précédente, nous commencerons par noter que la probabilité de choisir (X1 , X2 )
dans un sous ensemble régulier B ⊂ D correspond simplement au rapport des surfaces
de B et de D
Z
Aire(B)
P ((X1 , X2 ) ∈ B) = avec Aire(D) = dx1 dx2 = π
Aire(D) D
Tout point (x1 , x2 ) du disque peut être paramétrisé par la donnée d’un angle a et d’un
rayon r. Plus précisément, nous avons la formule de changement de coordonnée polaires
x1 = r cos a
x2 = r sin a
L’application
θ(X1 , X2 ) = (R, A)
x2
r sin(b)
r
a
−1 0 r cos(a) 1 x1
sur le pavé ]0, 1[×]0, 2π[ ? Pour répondre à cette question, il convient de noter les
associations d’éléments de surface infinitésimale
∂x1 ∂x2 ∂x1 ∂x2
dx1 dx2 − × drda
∂r ∂a ∂a ∂r
Dans notre situation, nous avons
∂x1 ∂x2
= cos a , = sin a
∂r ∂r
et
∂x1 ∂x2
= −r sin a , = r cos a
∂a ∂a
Par conséquent, nous avons
∂x1 ∂x2 ∂x1 ∂x2
= r cos2 a + sin2 a = r
−
∂r ∂a ∂a ∂r
et donc
dx1 dx2 r drda
La densité de probabilité du point (X1 , X2 )
1
pX1 ,X2 (x1 , x2 ) = 1D (x1 , x2 ) dx1 , dx2
π
est donc transformée par θ en la densité de probabilité du point θ(X1 , X2 ) = (R, A)
1
pR,A (r, a) = 1 0 (r, a) r drda
π θ(D )
Pour approfondir notre étude du point (R, A), il convient de noter que la fonction
pR,A peut s’exprimer sous la forme d’un produit de densités
1
pR,A (r, a) = 2r 1[0,1] (r) dr ×
1[0,2π] (a) da
2π
Ceci nous informe que les deux composantes de rayon R et d’angle A sont
indépendantes, de densités respectives
1
pR (r) = 2r 1[0,1] (r) dr et pA (a) = 1 (a) da
2π [0,2π]
L’angle A est donc uniforme sur [0, 2π], le rayon aléatoire R est distribuée selon une loi
rendant plus probables les rayons proches de 1.
Si U désigne une variable aléatoire uniforme sur [0, 1] alors la variable (2πU ) à la
même loi que A, en effet pour tout a ∈ [0, 2π]
Z a
a a 1
P (2πU ≤ a) = P U ≤ = = P (A ≤ a) = da0 .
2π 2π 2π 0
√
D’autre part, si U 0 désigne une variable uniforme sur [0, 1] alors U 0 a la même loi que
R. En effet pour chaque r ∈ [0, 1[ on a bien
√ Z r
∂ 2
U 0 ≤ r = P U 0 ≤ r2 = r2 = P (R ≤ r) =
P (s ) ds.
0 ∂s
En choisissant U et U 0 indépendantes, on a donc montré les équivalences en loi
loi
√
θ(X1 , X2 ) = (2πU, U 0 )
X2 = U 0 sin(2πU )
est uniformément réparti sur le disque unité D. Bien entendu, nous pouvons vérifier
directement ce résultat en utilisant la transformation entre les les variables uniformes
(u, u0 ) sur [0, 1]2 , avec u ∈
6 { 14 , 34 }, et les points (x1 , x2 ) sur le disque donnée par la
formule
1 x2
u= arctan et u0 = x21 + x22
2π x1
Un simple calcul de dérivées permet d’obtenir les équations suivantes
∂u x2 1 x2 1
= − 2 2
=− 2
∂x1 2πx1 1 + (x2 /x1 ) 2πx1 1 + (x2 /x1 )2
∂u 1 1 1 1
= 2
=
∂x2 2πx1 1 + (x2 /x1 ) 2πx1 1 + (x2 /x1 )2
et
∂u0 ∂u0
= 2x1 , = 2x2
∂x1 ∂x2
On obtient alors aisément les les associations d’éléments de surface infinitésimale
recherchés :
∂u ∂u0 ∂u ∂u0 1
dudu0 − × dx1 dx2 = dx1 dx2
∂x1 ∂x2 ∂x2 ∂x1 π
Notons pour conclure que l’on peut facilement décrire les loi des coordonnées
cartésiennes X1 et X2 . Par exemple la loi du demi-cercle est la loi de X1
Z 1
1
P (X1 ∈ dx1 ) = P (X1 ∈ dx1 , X2 ∈] − 1, 1[) = ( 1D (x1 , x2 ) dx2 ) 1]−1,1[ (x1 ) dx1
π −1
Z √1−x2
1 2
1
q
= ( dx ) 1 (x ) dx = 1 − x21 1]−1,1[ (x1 ) dx1
π −√1−x21
2 ]−1,1[ 1 1
π
On rappelle que l’on peut simuler le rayon R à l’aide d’une variable uniforme V sur
]0, 1[ en posant √
R= V
Par conséquent, le point S peut être simulé en posant
p p
S = −2 log R2 = −2 log V
Les variations des coordonnées (a, s) en fonction du couple (x1 , x2 ) sont données ci-après
∂a 1 x2 ∂a 1 1
= 2
× − 2 , = 2
×
∂x1 1 + (x2 /x1 ) x1 ∂x2 1 + (x2 /x1 ) x1
et
∂s x1 ∂s x2
=p 2 , =p 2
∂x1 x1 + x22 ∂x2 x1 + x22
On en déduit les associations de densité de probabilité
1 1 ∂s ∂a ∂s ∂a
q
1
−s2 /2 2 2
se dsda x21 + x22 e− 2 (x1 +x2 ) − dx1 dx2
2π 2π ∂x1 ∂x2 ∂x2 ∂x1
1 1 2 2
= e− 2 (x1 +x2 )
2π
Autrement dit, X1 et X2 sont deux variables gaussiennes centrées et normées
indépendantes. L’algorithme de Box-Muller correspond à l’expression de ce résultat
en terme de variables uniformes sur [0, 1]. Si (U, V ) sont deux variables indépendantes
et uniformes sur [0, 1] alors
p
X1 = −2 log U cos (2πV )
et p
Y2 = −2 log U sin (2πV )
sont deux variables gaussiennes centrées et normées indépendantes. Pour générer sur
ordinateur un couple de variables indépendantes gaussiennes (X1 , X2 ) de moyennes
(m1 , m2 ) et d’écarts type (σ2 , σ2 ) on posera tout simplement
p
X1 = m1 + σ1 −2 log U cos (2πV )
et p
X2 = m2 + σ2 −2 log U sin (2πV ).
Exercice 2.2.1 Nous proposons de montrer que la projection de la loi gaussienne dans
R2 sur le cercle unité devient uniforme.
Soit (X1 , X2 ) un couple de v.a. p gaussiennes, indépendantes, centrées et normées
sur R. Montrer que la v.a. R = X12 + X22 est indépendante du point aléatoire P =
( √ X2 1 2 , √ X2 2 2 ), qui est uniformément distribué sur le cercle C de rayon 1 (centré
X1 +X2 X1 +X2
en l’origine) de R2 . Calculer la loi exacte de R.
(X1,X2)
x1
!1 0 1 x2
0
!1 1 x1
x2
1 x2
Pχn (dx) = 1R+ (x) n
−1
xn−1 e− 2 dx
2 2 Γ(n/2)
2.3 Méthode d’acceptation-rejet
Nous allons décrire dans cette section est une méthode de simulation universelle.
Cette technique est fondée sur un mécanisme d’apprentissage naturel et très simple.
On propose dans un premier temps des variables aléatoires distribuées selon une loi de
référence dominante et facile à simuler. Dans un second temps on accepte ou on refuse
ces variables. Le critère d’acceptation est simplement basé sur une comparaison de cette
mesure de référence avec la distribution de la variable que l’on souhaite simuler. Cette
technique universelle permet notamment de simuler tout phénomène aléatoire à valeurs
dans une régions compacte d’un espace topologique, et distribué sur cette région selon
une densité de probabilité bornée. On illustrera ce procédé pour la simulation de lois
telles que les lois conditionnelles ou la loi du demi-cercle et on présentera l’algorithme
polaire de simulation d’une loi gaussienne.
1 1
2) p(x1 , x2 ) = 4 1[−1,1]2 (x1 , x2 ) q(x1 , x2 ) = π 1{(y1 ,y2 )∈R2 : y12 +y22 <1} (x1 , x2 )
x2
3) p(x) = 1
π (x2 +1)
q(x) = √1
2π
e− 2
Dans le second cas, p est le densité uniforme sur le carré [−1, 1]2 , et q la mesure uniforme
sur le disque unité. Dans cette situation, on peut noter que l’on a encore
q(x1 , x2 ) 4
m= sup =
(x1 ,x2 )∈[−1,1]2 p(x1 , x2 ) π
Le dernier exemple avec les densités gaussienne et de Cauchy, souligne le fait que
la propriété précédente est automatiquement satisfaite pour des densités strictement
positives. Dans cette situation, il convient de noter que
r
∂ π 2
(q/p) (x) = x(1 − x2 ) e−x /2
∂x 2
La fonction q/p est donc croissante sur ] − ∞, −1], décroissante sur [−1, 0], puis à
nouveau croissante sur [0, 1], et enfin décroissante sur [1, ∞[. On a de plus
r
2π
lim (q/p)(x) = 0 , (q/p)(−1) = = (q/p)(1) , et enfin (q/p)(0) = 1
x→−/+∞ e
Le maximum de (q/p) est donc atteint aux points x ∈ {−1, 1}. Autrement dit, nous
avons r
2π
m = sup (q/p)(x) =
x∈R e
On peut aussi noter que
R les restrictions q(x) d’une densité donnée p(x) sur des
d
régions A ⊂ R (telles que A q(y)dy > 0) vérifient clairement cette propriété
1
p(x) = 0 =⇒ q(x) = R 1A (x) p(x) = 0
A p(y)dy
Y = X1
Dans le cas contraire, on recommence toute l’opération. On simule une nouvelle variable
aléatoire X2 distribué selon la densité dominate p, et
h une variable i uniforme U2 sur [0, 1].
1 q(X2 )
Si ce nombre U2 appartient au premier segment 0, m × p(X2 ) , on garde X2 , et l’on
pose
Y = X2
Dans le cas contraire, on reproduit entièrement le procédé. On simule une nouvelle
variable aléatoire X3 distribué selon la densité dominate p,het une variable
i uniforme U3
1 q(X3 )
sur [0, 1]. Si ce nombre U3 appartient au premier segment 0, m × p(X3 ) , on garde X3 ,
et l’on pose
Y = X3
Dans le cas contraire, on réitère le procédé, jusqu’au premier instant Tm où l’on finit
par accepter la variable simulée selon la loi dominate
Y = XTm
1 q(Xn )
le premier instant où l’on a Un ≤ m × p(X n)
. La magie de ce procédé de simulation est
résumée dans les deux lignes suivantes. Nous venons de construire un couple (XTm , Tm )
de variables indépendantes telles que :
– La variable aléatoire XTm est distribuée selon la densité q.
1
– Le temps aléatoire d’acceptation Tm suit une loi géométrique de paramètre m .
Autrement dit, nous avons pour tout n ≥ 1
1 n−1
1
P(Tm = n) = 1− .
m m
1 n−1
Z X Z
1
P(XTm ∈ A) = q(x)dx 1− = q(x)dx
m A m A
n≥1
P(XTm ∈ A , Tm = n) = P(Xn ∈ A , Tm = n)
1 n−1
Z
1
= q(x)dx 1−
A m m
= P(XTm ∈ A) P(Tm = n)
1
En posant z = m, on a enfin
X ∂ X
E(Tm ) = n(1 − z)n−1 z = −z (1 − z)n
∂z
n≥1 n≥1
∂ 1 1
= −z −1 = =m
∂z z z
Dans la section 1.4.5 consacrée aux horloges exponentielles, nous avons vu que le
paramètre λ représente l’intensité d’arrivée des clients. Plus précisément, nous avons
E(Sn ) = 1/λ. La fréquence d’arrivée des clients est donc d’autant plus grande que le
paramètre λ est petit.
Chaque variable Sn représente le temps d’attente aléatoire entre l’arrivée du (n −
1)ième client, et le suivant. Autrement dit, si l’on note Tn la date d’arrivée du nième client,
nous avons
Tn = Tn−1 + Sn = S1 + . . . + Sn−1 + Sn avec T0 = 0
Deux questions naturelles viennent à l’esprit : Quelles est la loi des instants d’arrivée
du groupe de clients, et quelle est la loi d’arrivée du nième individu ?
Pour calculer la loi du vecteur aléatoire (T1 , . . . , Tn ), on se donne une fonction f
suffisament régulière de [0, ∞[n dans R, et l’on commence par remarquer que l’on a
Z
E(f (T1 , . . . , Tn )) = f (t1 , . . . , tn ) p(T1 ,...,Tn ) (t1 , . . . , tn ) dt1 . . . dtn
= E(f (S1 , S1 + S2 , . . . , S1 + . . . + Sn ))
Z ∞ Z ∞
= ... f (s1 , s1 + s2 , . . . , s1 + . . . + sn ) λn e−λ (s1 +...+sn )
ds1 . . . dsn
0 0
et finallement
Z
E(f (T1 , . . . , Tn )) = f (t1 , . . . , tn ) λn e−λ tn
dt1 . . . dtn
Cn
Pour calculer la loi des arrivées alátoires Tn du nième client, on commence par noter que
La forme de la loi Gamma introduite en (2.5) est très proche de la loi de Poisson.
L’inversion des rôles des paramètres t et n est basée sur les formules suivantes
Z +∞
γ n −γ n
∂ −t t
e = −e dt
n! γ ∂t n!
et
n tn tn−1
∂ −t t
−e = e−t − e−t .
∂t n! n! (n − 1)!
Lorsque les variables aléatoires Sn sont distribuées selon une loi exponentielle de
paramètre λ = 1 alors d’après (2.5) on en déduit que
Z +∞ Z +∞
γ n −γ −t t
n tn−1
e = e dt − e−t dt
n! γ n! γ (n − 1)!
= P(Tn+1 > γ) − P(Tn > γ)
= P(Tn+1 > γ et Tn ≤ γ).
Ainsi, en posant
N = inf{n ≥ 1 ; Tn+1 > γ}
on a clairement
{N = n} = {Tn ≤ γ et Tn+1 > γ}
Cette simple équivalence évènementielle nous conduit au procédé de simulation d’une
variable de Poisson :
Si Sn sont des variables aléatoires indépendantes de loi exponentielle de paramètre
λ = 1 alors pour tout γ > 0 la variable aléatoire entière suivante
Ces dates sont rangées dans un ordre croissant dans l’intervalle [0, 1]. Le dernier visiteur
sert de référence temporelle. Comment se distribuent ces dates aléatoires relatives ?
Les premiers visiteurs arrivent-ils généralement plus rapidement que les derniers ?
Intuitivement non, toutes ces dates semblent uniformément réparties sur l’intervalle
[0, 1]. Si cela était le cas, il serait équivalent de simuler une suite indépendantes de
dates uniformément réparties sur [0, 1], puis de les ranger ! Cependant, les coûts de
calculs pour ordonner cette longue séquence d’instants, uniformes sur [0, 1], seraient
bien plus élevés que ceux nécessaires à la simulation des arrivées exponentielles relatives
décrites plus haut. De plus, si ces deux phénomènes aléatoires étaient équivalents,
cela impliquerait que les dates d’arrivées relatives (2.6) des visiteurs Gamma seraient
indépendantes de l’instant d’arrivée Tn+1 du dernier visiteur ! Bien que les conséquences
de notre hypothèse d’équivalence statistique semblent déroutantes, nous allons vérifier
par de simples calculs que notre intuition est bien cohérente.
Pour poursuivre notre étude, il convient de se rappeller que la distribution (2.4) du
vecteur (T1 , . . . , Tn+1 ) peut s’écrire sous la forme suivante :
P ((T1 , . . . , Tn+1 ) ∈ d(t1 , . . . , tn+1 ))
D’aprés les calculs d’intégrales effectués à la page 56, on peut observer que l’on a
Z
1
dv1 . . . dvn = = P((U1 , . . . , Un ) ∈ Cn (1))
Cn (1) n!
où (U1 , . . . , Un ) désignent une suite de variables aléatoires indépendantes et
indentiquement distribuée selon une loi uniforme sur l’intevalle [0, 1]. Le vecteur des
dates relatives
T1 T2 Tn
(V1 , . . . , Vn ) =déf. , ,...,
Tn+1 Tn+1 Tn+1
est donc indépendant de la date Tn+1 , et il se distribue sur l’intervalle [0, 1] comme
une suite ordonnée de nombres aléatoires choisis indépendamment et uniformément sur
[0, 1]. En résumé, nous avons montré qu’il est statistiquement équivalent de simuler et
ordonner une suite de variables uniformes et indépendantes sur [0, 1], ou de simuler
une suite d’arrivées exponentielles et relatives de visiteurs.
Chapitre 3
3.1 Introduction
Un processus aléatoire est un phénomène dont une partie de l’évolution temporelle
est aléatoire. On rencontre ces processus dans divers domaines de la physique, ou
des sciences de l’ingénieur. Par exemple la répartition et l’évolution de la chaleur
dans un corps, la turbulence atmosphérique ; c’est aussi le cas des temps d’arrivée
d’appels téléphoniques, les erreurs de mesures dues aux perturbations thermiques dans
des capteurs électroniques de type radar ou sonar, ou encore l’évolution des cours de
marchés boursiers.
La théorie de processus aléatoires est une théorie mathématique très riche, offrant de
nombreuses interactions avec diverses branches des mathématiques, telles la théorie des
graphes, l’analyse fonctionnelle, la théorie des opérateurs, ainsi que la théorie ergodique
des systèmes dynamiques.
Ces modèles trajectoriels sont utiles en biologie dans l’analyse d’évolutions ancestrales
de population. On rencontre aussi des processus à valeurs dans des espaces de matrices
en physique statistique, ou en analyse d’images. L’étude de tels modèles sort bien
entendu du cadre de cet ouvrage.
Les états Xn peuvent évoluer aléatoirement au cours du temps selon des mécanismes
plus ou moins complexes. Dans certains cas, les épreuves Xn sont indépendantes ; c’est
le cas des séquences de lancers de dés, ou les successions de jets de pièces de monnaies.
61
Dans d’autres situations, le processus aléatoire est donné par une équation
physique récursive de la forme suivante
Xn = Fn (Xn−1 , Un )
et
Bien que cette extension ne puisse paraı̂tre purement formelle, sans d’autres intérêts que
mathématiques, cette notion apparaı̂t naturellement dans la représentation de chaı̂nes
trajectorielles.
3.2.1 Semigroupes de transitions
Dans ce contexte, il est aussi très utile de voir une mesure de probabilité η comme un
opérateur sur l’ensemble des fonctions f bornées sur l’espace des états E
X
η[f ] = η(x) f (x) ∈ R
x∈E
Lorsqu’il n’y a pas de confusions, il est coutume de noter η(f ), et Mn (f ) plutôt que
η[f ], et Mn [f ]. Dans ce système de notations, nous avons
X
E(f (Xn )) = f (x) ηn (x) = ηn (f )
x∈E
et X
E(f (Xn ) | Xn−1 = x) = Mn (x, y) f (y) = Mn (f )(x)
x∈E
En utilisant la formule des conditionnements emboı̂tes on montre que
ηn = ηn−1 Mn
Par conséquent, l’opérateur de transition Mp,n est donné par la formule (3.1) avec
Mp,n (x, y)
P
= xp+1 ∈E,...,xn−1 ∈E Mp+1 (x, xp+1 )Mp+1 (xp+1 , xp+2 ) . . . Mn (xn−1 , y)
on en conclut que
X X
ηn (f ) = ηp (Mp,n f ) = ηp (x)[ Mp,n (x, y)f (y)]
x∈E y∈E
X X
= (ηp Mp,n )(f ) = ( ηp (x)Mp,n (x, y)) f (y)
y∈E x∈E
forme à nouveau une chaı̂ne de Markov à valeurs dans les espaces trajectoriels En . En
effet, le passage de Xn à Xn+1 s’effectue en deux temps. On conserve tout d’abord le
segment de trajectoire Xn = (X00 , . . . , Xn0 ), puis on lui adjoint une extension élémentaire
0
Xn+1 = x0 de loi Mn+1
0 (Xn0 , x0 ). Autrement dit, nous avons
E(fn+1 (Xn+1 ) | Xn = xn )
0
fn+1 ([x00 , . . . , x0n ], x0n+1 ) Mn+1 (x0n , x0n+1 )
P
= x0n+1 ∈E 0
E(fn+1 (Xn+1 ) | Xn = xn )
X
= fn+1 (y00 , . . . , yn+1
0
) 1(x00 ,...,x0n ) (y00 , . . . , yn0 )Mn+1
0
(yn0 , yn+1
0
)
(y00 ,...,yn+1
0 )∈En+1
1 2 1/2
1/2
Par définition de l’opérateur de transition Mn , nous avons, pour toute fonction f sur
E = {1, 2}, la formule matricielle
Mn (f )(1) Mn (1, 1) f (1) + Mn (1, 2) f (2)
=
Mn (f )(2) Mn (2, 1) f (1) + Mn (2, 2) f (2)
Mn (1, 1) Mn (1, 2) f (1)
= (3.3)
Mn (2, 1) Mn (2, 2) f (2)
D’autre part, en utilisant la formule des conditionnements emboı̂tés
E(f (Xn )) = E(E(f (Xn )|Xn−1 )) = E(Mn (f )(Xn−1 ))
on obtient une nouvelle formule matricielle
ηn−1 (1) Mn (1, 1) ηn−1 (2) Mn (2, 1)
[ηn (1), ηn (2)] =
ηn−1 (1) Mn (1, 2) ηn−1 (2) Mn (2, 2)
Mn (1, 1) Mn (1, 2)
= [ηn−1 (1), ηn−1 (2)] (3.4)
Mn (2, 1) Mn (2, 2)
Par conséquent, si l’on représente une fonction numérique f , et une mesure de
probabilité η sur E par les vecteurs colonnes et lignes
f (1)
f= et η = [η(1), η(2)]
f (2)
alors, les équations (3.3) et (3.4) s’expriment sous la forme d’un semigroupe matriciel
M (f ) = M f et ηn = ηn−1 Mn = η0 M1 . . . Mn
Ces interprétations matricielles restent valables pour des chaı̂nes de Markov à valeurs
dans des espaces d’états finis abstraits E = {x1 , . . . , xd }. Dans ce contexte, les matrices
de transitions sont données par
Mn (x1 , x1 ) . . . Mn (x1 , xd )
Mn =
.. .. ..
. . .
Mn (xd , x1 ) . . . Mn (xd , xd )
Les mesures de probabilités η, et les fonctions f sur E sont associées au vecteurs lignes
et colonnes suivants
f (x1 )
η = [η(x1 ), . . . , η(xd )] et f =
..
.
f (xd )
1
1/2 1/2
1/4 1/3
1/3 3
2
1/3
3/4
Lorsque l’espace d’états est dénombrable, et indexé par les entiers positifs E = {xi , i ∈
N}, les matrices de transition sont infini-dimensionnelles
Mn (x0 , x0 ) M (x0 , x1 ) M (x0 , x2 ) . . .
Mn (x1 , x0 ) M (x1 , x1 ) M (x1 , x2 ) . . .
Mn = (Mn (x, y))x,y∈E = M (x , x ) M (x , x ) M (x , x ) . . .
n 2 0 2 1 2 2
.. .. .. ..
. . . .
Dans ce cas, les probabilités η, et les fonctions f sur E sont associés au vecteurs
f (x0 )
f (x1 )
η = [η(x0 ), η(x1 ), η(x2 ), . . .] et f = f (x )
2
..
.
Exemple 3.2.2 Une marche aléatoire homogène sur N, absorbée en 0, peut être
représentée par le schéma suivant
0 1 p 2 p 3 p 4
1
0 1 1 p 2 p 3 p 4
Dans le dernier cas, où l’espace d’états est dénombrable, et indexé par les entiers
relatifs E = {xi , i ∈ Z}, les matrices de transition sont données par
.. .. .. .. ..
. . . . .
. . . M (x−1 , x−1 ) Mn (x−1 , x0 ) M (x−1 , x1 ) . . .
Mn = . . . M (x0 , x−1 ) Mn (x0 , x0 ) M (x0 , x1 ) . . .
. . . M (x1 , x−1 ) M n (x 1 , x0 ) M (x1 , x1 ) . . .
.. .. .. .. ..
. . . . .
et les probabilités η, et les fonctions f sur E sont associés au vecteurs
..
.
f (x−1 )
f (x0 )
η = [. . . , η(x−1 ), η(x0 ), η(x1 ), . . .] et f =
f (x1 )
..
.
Exemple 3.2.3 Une marche aléatoire simple sur Z peut être représenté par le schéma
suivant ette situation correspond au schéma suivant
p p p p
−2 −1 0 1 2
1−p 1−p 1−p 1−p
X0 = 0
Dans la formule précédente a+ = max (a, 0) désigne le maximum entre un nombre réel
a ∈ R et 0.
Ce processus aléatoire peut s’interpréter comme la longueur d’une file
d’attente, ou encore le temps d’attente d’un client arrivant à un guichet,
servant une personne par unité de temps. Dans ce contexte, la v.a. Un+1
représente le nombre de clients arrivant dans la file d’attente au temps (n + 1).
On notera que les transitions de cette chaı̂ne sont données pour tout i ≥ 1, et pour
tout j ≥ 0, par la formule suivante
P(Xn+1 = (i − 1) + j | Xn = i) = µn+1 (j) = P(Xn+1 = j | Xn = 0)
Plus formellement, ce mouvement aléatoire est défini par une chaı̂ne de Markov
X = (Xn )n≥0 définie sur un espace de probabilités (Ω, F, P), d’origine X0 = 0 et
de probabilités de transitions homogènes
M (x, y) =déf. P(Xn = y | Xn−1 = x) = PXn |Xn−1 (y|x)
= p 1x+1 (y) + (1 − p) 1x−1 (y)
1−p 1−p 1−p 1−p
−2 −1 0 1 2
p p p p
Pour décrire une réalisation dynamique de cette chaı̂ne, on se donne une suite de
v.a. indépendantes U = (Un )n≥1 distribuées sur {−1, +1} selon la même loi de Bernoulli
On suppose, comme d’habitude, que cette suite est définie sur un espace de probabilités
(Ω, F, P). On associe à U , le système dynamique aléatoire donné par
Xn = Xn−1 + Un
(3.5)
X0 = 0
Cette interprétation dynamique offre un certain nombre d’avantages. Par exemple, elle
permet une représentation “explicite”de l’état Xn en terme de v.a. indépendantes, et
simplifie l’analyse des transitions de probabilités.
Exercice 3.3.1 Cet exercice a pour objectif d’analyser plus en profondeur la marche
aléatoire sur Z décrite dans l’exemple 3.3.3.
1. Vérifier que l’interprétation dynamique introduite en (3.5) correspond bien à la
donnée d’une marche aléatoire simple sur Z.
2. Montrer que la position moyenne de la particule au temps n est donnée par la
formule E(Xn ) = n × (2p − 1). En conclure que
limn→∞ E(Xn ) = −∞ si p ∈ [0, 1/2)
E(Xn ) = 0 si p = 1/2
limn→∞ E(Xn ) = +∞ si p ∈ (1/2, 1]
3. Vérifier que les transitions de la chaı̂ne entre deux instants, m et (m + n), sont
données par la formule
(4p(1 − p))k √
P(Xm+2k = 0 | Xm = 0) ' √ (= 1/ πk si p = 1/2)
πk
pour tout x = (xi )1≤i≤d ∈ Zd . On associe à une mesure de probabilité p sur l’ensemble
des 2d vecteurs unitaires directionnels
U = {u ∈ Zd : |u| = 1}
la transition homogène X
M (x, y) = p(u) 1x+u (y)
u∈U
représenté par une chaı̂ne de Markov Yn à valeurs dans Zd . Dans ce contexte, les
transitions Yn−1 Yn sont données par la formule suivante
Yn−1 + Un si Yn−1 ∈ B
Yn =
Yn−1 si Yn−1 6∈ B
Xp
B
p n temps
Lorsque les v.a. de branchement (Nni )i≥1, n≥1 sont des copies indépendantes d’une même
v.a. entière N , on notera que
Xn
X
E(Xn+1 |Xn ) = E(Nni ) = Xn × E(N ) ⇒ E(Xn+1 ) = E(X0 ) E(N )n+1
i=1
Mn (xn−1 , dxn ) =déf. PXn |Xn−1 (dxn |xn−1 ) = P(Xn ∈ dxn | Xn−1 = xn−1 )
79
la loi de la v.a. Xn sur En , donnée pour toute fonction fn bornée sur En par la formule
Z
E(fn (Xn )) = fn (xn ) ηn (dxn ) =déf. ηn (fn )
Dans ce système de notations abusives, une mesure donnée sur En s’interprète, soit
comme un opérateur intégral, soit comme une fonction ensembliste. Ainsi, pour tout
sous ensemble suffisament régulier Bn ⊂ En , nous avons les représentations équivalentes
On dit qu’une chaı̂ne de Markov réelle X = (Xn )n≥0 est absolument continue,
lorsque la v.a. initiale X0 est absolument continue de densité p0 sur R, et lorsque
ses transitions de probabilités sont données en terme d’une famille de densités de
probabilités {pn (x, .), x ∈ R} sur R
Dans la formule précédente dxn désigne la mesure de Lebesgue sur R. A titre illustratif,
on pourra considérer les familles de densités gaussiennes, ou exponentielles données par
la formule
1 2
e− 2 (y−x)
pn (x, y) = √ ou pn (x, y) = 1[0,∞) (y) (|x| + 1) e−(|x|+1) y
2π
Dans ce contexte, la trajectoire (X0 , . . . , Xn ) de l’origine jusqu’à l’instant n est une v.a.
absolument continue, de loi donnée par la formule
P(X0 ,...,Xn ) (d(x0 , . . . , xn )) = p0 (x0 )p1 (x0 , x1 ) . . . pn (xn−1 , xn ) dx0 dx1 . . . dxn
Z
η[f ] = η(dx) f (x) ∈ R
On note (Mn Mn+1 )(xn−1 , dxn+1 ) la collection de mesures sur En+1 , indexée par les
xn−1 ∈ En−1 et définies pour tout Bn+1 ⊂ En+1 par la formule de composition intégrale
Z
(Mn Mn+1 )(xn−1 , Bn+1 ) = Mn (xn−1 , dxn ) Mn+1 (xn , Bn+1 )
En
pour toute fonction fn+p bornée sur En+p , et pour tout décalage d’indice temporel
p ≥ 1. Les opérateurs intégraux
En utilisant (4.2), nous obtenons la formule de transport intégral des lois des
états de la chaı̂ne
ηn = ηn−1 Mn = η0 M1 M2 . . . Mn (4.3)
Dans le formule ci-dessus (an )n≥1 désigne une suite de nombres réels, et (σn )n≥0 une
suite de nombres strictement positifs.
En intégrant la formule (4.4) en la coordonnée xn , on montre facilement que
1 x20
PX0 (dx0 ) = η0 (dx0 ) =déf. p exp {− } dx0
2πσ02 2σ02
La formule multiplicative (4.4) doit donc se lire comme une formule de Bayes
séquentielle
n
Y
P(X0 ,...,Xn ) (d(x0 , . . . , xn )) = PXp |Xp−1 (dxp |xp−1 ) PX0 (dx0 )
p=1
wp2
R +∞ −
e√ 2
= −∞ f (xn−1 + σn wn ) 2π
dwp
1
R +∞ − (xn −an xn−1 )2
f (xn ) √ 1 2
R
= −∞ 2
e 2σn dxn = Mn (xn−1 , dxn ) f (xn )
2πσn
Il est donc équivalent de définir la chaı̂ne Xn soit de façon dynamique, soit directement
par la donnée de ses transitions de probabilités.
= [1[0,∞) (t0 ) λ e−λt0 dt0 ][1[t0 ,∞) (t1 ) λ e−λ(t1 −t0 ) dt1 ]
avec
PT0 (dt0 ) = 1[0,∞) (t0 ) λ e−λt0 dt0
PTn |Tn−1 (dtn |tn−1 ) = 1[tn−1 ,∞) (tn ) λ e−λ(tn −tn−1 ) dtn
Par un simple changement de variable, on montre aussi facilement que
U0 =déf. T0 et Un =déf. (Tn − Tn−1 )
forment une suite de v.a. exponentielles et indépendantes de paramètre λ. Le processus
continu de comptage des sauts
X
t ∈ R+ 7→ N (t) = 1[Tn ,∞) (t) ∈ N
n≥0
N(t)=4
t temps
T0 T1 T2 T3 T4
Ces trappes peuvent représenter des niveaux de sécurité dans tout type
d’environnements, tels des aéroports, des milieux carcéraux, des chaı̂nes de
production, des réseaux de télécommunications, des containers de stockage de
radioactivité, des tissus cellulaires, etc.
En pharmacologie, ces modèles d’aborption sont aussi utilisé pour modéliser
les évolution des taux de leukocytes dans des traitement du cancer. Dans ce
contexte, les trappes reflètent des chutes de niveaux de leukocytes dans lesquels
un individu risque de decéder.
Dans tous ces domaines d’applications, l’un des problèmes majeurs est de calculer
les probabilités de défaillances, autrement dit les probabilités pour que l’aborption de
la particule ne soit pas éffective à des instants donnés.
Pour fixer les idées, nous conviendrons par la suite que l’espace des états est donné
par le réseau Zd . Plus formellement, on adjoint à l’espace des sites Zd , un point cimetière
“c”. On considère alors une particule évoluant sur l’espace augmenté E = Zd ∪ {c},
selon une transition Yn Yn+1 se décomposant en deux étapes
absorption évolution
Yn −−−−−−−−→ Ybn −−−−−−−−→ Yn+1
Pour construire le mécanisme d’absorption, on considère à chaque instant n, une
une collection de v.a. indépendantes (n (x))x∈Zd , de Bernoulli à valeurs dans {0, 1},
de paramètre G(x). Sur l’évènement n (x) = 0, le site x devient une pure trappe
hautement absorbante. Inversement, si n (x) = 1, le site x reste viable, et la particule
peut le traverser sans encombres.
Le mécanisme d’évolution libre est analogue à celui de la marche aléatoire sur Zd
présenté dans l’exemple 3.3.4. Pour le décrire, on se donne une mesure de probabilité
p, sur l’ensemble des 2d vecteurs unitaires directionnels
U = {u ∈ Zd : |u| = 1}
ainsi qu’une suite de vecteurs indépendants (Un )n≥1 de même loi p sur U. On suppose
que les suites de v.a. d’exploration Un , et de v.a. d’absorption n (x), sont indépendantes.
On convient enfin que n (c) = 0 = g(c).
Les transitions élémentaires de la chaı̂ne sont définies récursivement de la façon
suivante. Supposons que la particule se trouve à l’instant n sur un site Yn = x ∈ Zd (si
Yn = c, on pose Yn+1 = c).
1. Avec une probabilité (1 − G(x)), la particule est tuée, puis placée dans l’état
cimetière. Dans ce cas, on pose Ybn = c. Dans le cas contraire, la particule reste
active et l’on pose Ybn = x. Plus formellement, on a
2. Comme il n’y a semble-t-il pas de vie après la mort, lorsque la particule a été tuée,
elle reste inactive à l’instant suivant. Dans ce cas, on pose Yn+1 = c. Dans le cas
contraire, la particule est encore active, et effectue un mouvement exploratoire
analogue à celui d’une marche aléatoire sur Zd . Plus formellement, on pose dans
ce dernier cas
Yn+1 = Ybn + Un+1
(c)
g(x)=1
1. Montrer que
n
Y
P(T > n) = E Gp (Xp )
p=0
Interpréter ce résultat.
2. Vérifier que la loi d’une particule non aborbée est donnée pour toute fonction
bornée f sur Zd par la formule renormalisée de Feynman-Kac
E f (Xn ) np=0 Gp (Xp )
Q
E(f (Yn ) | T > n) = Q
n
E p=0 G p (Xp )
Chapitre 5
5.1 Introduction
Les modèles de chaı̂nes de Markov non linéaires présentés dans cette section sont
une extension naturelle des modèles markoviens étudiés dans la première partie de ce
chapitre.
Les premiers modèles de ce type sont semble-t-il apparus dans la littérature du
traitetement du signal, et plus particulièrement en filtrage non linéaire ([?, ?]). L’idée
de départ est la suivante. Les lois conditionnelles des états Xn du signal par rapports
aux observations reçues (Yp )0≤p<n sont données par un flot de mesures
Ces mesures sont appelées les prédicteurs optimaux. Elles peuvent être calculées de
façon récursives suivant une équation de la forme
ηn = Φn (ηn−1 )
où Φn désigne une transformation plus ou moins complexe sur l’espace des distributions
sur l’espace d’état du signal. Bien évidemment, ces équations sont en général impossible
à résoudre explicitement. Pour utiliser des méthodes de simulation de type Monte Carlo,
l’idée naturelle est d’interpréter ces mesures ηn comme les lois d’une chaı̂ne de Markov
X n sur l’espace d’états du signal :
ηn = Loi(X n )
Ces chaı̂ne de Markov X n ne sont pas uniques. On peut choisir par exemple des suite
de variables indépendentes X n de lois
91
On peut aussi chercher à écrire les transformations Φn comme un transport de mesures
markovien
ηn = Φn (ηn−1 ) = ηn−1 Kn,ηn−1
Dans la formule précédente, Kn,η (xn−1 , dxn ) désigne une famille de probabilités de
transitions de En−1 vers un espace En , indexées par le paramètre temporel et par les
mesures η sur En−1 . Dans ce contexte, nous avons à nouveau
ηn = Loi(X n )
où (X n )n≥0 désigne une une chaı̂ne de Markov de loi initiale η0 = Loi(X 0 ) sur E0 et de
transitions de probabilités élémentaires d’un espace En−1 vers un espace En décrites
par :
P X n ∈ dxn | X n−1 = xn−1 = Kn,ηn−1 (xn−1 , dxn ) avec ηn−1 = Loi(X n−1 )
Nous étudierons ces modèles mathématiques avec plus de détails dans la section 5.2.
Il me semble est important de souligner que ces modèles discrets sont très proches
des équations à temps continu issues de la mécanique des fluides, telles les équation
diffusives de type McKean-Vlasov et/ou les modèles de gaz de type Boltzmann.
Dans la définition précédente, Kn,η (xn−1 , dxn ) désigne une famille de probabilités de
transitions de En−1 vers un espace En , indexées par le paramètre temporel et par les
mesures η sur En−1 .
Il est assez aisé de vérifier que l’on a
P (X 0 , . . . , X n ) ∈ d(x0 , . . . , xn ) = η0 (dx0 )K1,ηn−1 (x0 , dx1 ) . . . Kn,ηn−1 (xn−1 , dxn )
Ces mesures sont appelés les mesures de McKean associés aux transitions de probabilités
(Kn,η )n,η . Une simple intégration par rapports aux coordonnées temporelles permet de
vérifier que
Loi(X n ) = η0 K1,η0 . . . Kn,ηn−1 = ηn−1 Kn,ηn−1
Une simple récurrence permet de s’assurer que
X n−1 Xn
sont faciles à simuler. Dans ces conditions, pour approcher les lois ηn de la chaı̂ne à
i
chaque instant, il suffit de simuler N copies indépendantes (X n )1≤i≤N de la chaı̂ne X n .
Ce schéma de simulation numérique est illustré par la figure suivante
Kn,ηn−1 1
1 Xn
X n−1 −−−−−−−−−−→ ..
.. .
. ..
i
Kn,ηn−1 .
X n−1 −−−−−−−−−−→ i
.. Xn
. ..
Kn,ηn−1
.
N N
X n−1 −−−−−−−−−−→ X n
Une simple application de la loi des grands nombres nous donne l’approximation
suivante :
N
1 X
∀n ≥ 0 ηnN := δXni 'N ↑∞ ηn
N
i=1
Malheureusement, dans la plupart des cas les lois de ces chaı̂nes non linéaires ηn
n’ont aucune expression analytique explicite et/ou ne peuvent être simulées de façon
exacte par aucun algorithme de simulation dans un temps raisonnable.
L’idée des méthodes particulaires de type champ moyen est d’utiliser la population
courante pour approcher ces lois complexes. Sous certaines conditions de régularités
sur les transitions Kn,η , nous avons
N
ηn−1 'N ↑∞ ηn−1 −→ Kn,ηN 'N ↑∞ Kn,ηn−1
n−1
N
(N )
Y
1 N
P ξn+1 ∈ d(x , . . . , x ) | ξn(N ) = Kn+1,ηnN (ξn(N,i) , dxi ) (5.1)
i=1
Sous certaines hypothèses de régularité, on peut montrer que l’on a en un certain sens
N
1 X
ηnN := δξ(N,j) 'N ↑∞ ηn
N n
j=1
où
– Qn désigne une matrice (d × d) symétrique et définie positive, |Qn | := det(Qn ).
– dy désigne la mesure de Lebesgue sur Rd , y = (y 1 , . . . , y d ) et x ∈ Rd .
– an : Rd × P(Rd ) → Rd est une fonctions suffisamment régulière et bornée.
Cet exemple est assez intéressant car les mesures de McKean associées
avec
– Wn , n ≥ 1, une suite de variables aléatoires indépendantes, à valeurs dans Rd , et
de lois gaussienne
1 1
exp − y 0 Q−1
λn (dy) = d n y dy
2
p
(2π) 2 |Qn |
Dans cette formulation, la suite (Wni )1≤i≤N est formée de N copies indépendantes de
(N,i)
Wn . L’états initial (ξ0 )1≤i≤N est encore formé de N copies indépendantes de X 0 .
5.5 Modèles simplifiés de gaz de McKean
Dans cette section, nous présentons le modèle simplifié de gaz à deux vitesses de
McKean étudié dans l’article [?]. L’analyse qui suit peut s’étendre à des modèles plus
sophistiqués avec des vitesses multiples. Le modèle le plus élémentaire est défini sur
l’espace E = {−1, +1} en associant à chaque mesure η dans l’ensemble P({−1, +1})
des mesures de probabilités sur = {−1, +1} la transition suivante :
ηn+1 (+1) = ηn (+1) Kn+1,ηn (+1, +1) + ηn (−1) Kn+1,ηn (−1, +1)
= ηn (+1)2 + ηn (−1)2 = ηn (+1)2 + (1 − ηn (+1))2
ηn+1 (−1) = ηn (+1) Kn+1,ηn (+1, −1) + ηn (−1) Kn+1,ηn (−1, −1)
= 2 ηn (+1)ηn (−1)
On convient que
∀b
ηn ∈ PGn (En ) ηbn Mn+1 ∈ PGn+1 (En+1 )
autrement dit
ηbn (Gn ) > 0 =⇒ ηbn Mn+1 (Gn ) > 0
Lorsque les fonctions potentiels sont strictement positives, les espaces PGn (En )
coincident avec l’espace de toutes les mesures de probabilités sur En . Dans ce cas,
les conditions précédentes sont trivialement satisfaites.
On considère (ηn )n≥0 le flot de mesures de probabilités définit par les équations :
peuvent s’exprimer sous forme d’intégrales de chemins pondérés connus sous le nom
de formules de Feynman-Kac. Ces représentations fonctionnelles sont données sur des
fonctions tests fn par les formules suivantes
Pour vérifier cette formule, on utilise tout d’abord la propriété de Markov pour
vérifier que
Y
γn (fn ) = E E (fn (Xn ) | (Xp )0≤p<n ) Gp (Xp )
0≤p<n
Y
= E E (fn (Xn ) | Xn−1 ) Gp (Xp )
0≤p<n
Ceci entraine que
Y
γn (fn ) = E Mn (fn )(Xn−1 ) Gp (Xp )
0≤p<n
avec
Mn (fn )(xn−1 ) := E (fn (Xn ) | Xn−1 = xn−1 )
Dans un second temps, on constate que l’on a :
Y
γn (fn ) = E Gn−1 (Xn−1 )Mn (fn )(Xn−1 ) Gp (Xp )
0≤p<(n−1)
On en conclut que
m
ηn = ΨGn−1 (ηn−1 )Mn
Les mêmes arguments permettent d’analyer les mesures (b γn , ηbn ).
Ces mesures de probabilités permettent de modèliser une variété considérable de
problèmes issus de la physique, ou de la biologie : traitement du signal non linéaire,
description de macro-polymères et de chaı̂nes auto-évitantes, analyse d’évènements
rares, représentation de valeurs propres et d’états fondamentaux d’opérateurs de
Schrödinger,... Nous examinerons un certain nombre de ces questions dans le
chapitre ??, pour plus de détails nous renvoyons le lecteur aux ouvrages [?], et [?]. Dans
la section ??, nous présentons un algorithme de simulation universel de ces mesures
de Feynman-Kac. Ces modèles particulaires sont fondés sur l’évolution d’individus en
interaction explorant l’espace selon des mécanismes de mutation et sélection de type
génétique.
5.6.2 Chaı̂nes de Markov non linéaires
Commençons par remarquer qu’une transformation de Boltzmann-Gibbs
1
ΨG (µ)(dx) := G(x) µ(dx)
µ(G)
associée à une fonction potentiel G sur un espace d’état E, peut s’interpréter comme
un transport de mesure markovien. Pour être plus précis, on note (µ) une famille de
paramètre pouvant dépendre de G et µ, et telle que
Pour vérifier cette assertion, on se donne une fonction test bornée f sur E et l’on
observe que
Reprenons les équations non linéaires (5.4) vérifiées par les flots de mesures de
Feynman-Kac (ηn )n≥0 introduites en (5.5)
avec les transitions Sn,ηn (xn , dyn ) sur En définies par les formules suivantes
Sn,ηn (xn , dyn ) = n (ηn ) Gn (xn ) δxn (dyn ) + (1 − n (ηn ) Gn (xn )) Ψn (ηn )(dyn )
avec des paramètres n (ηn ) ≥ 0 tels que n (ηn )Gn (xn ) ≤ 1, pour tous les xn ∈ En . On
en conclut que
ηn+1 = ηn Kn+1,ηn
avec la famille de transitions de probabilités composées
N
(N )
Y
P ξn+1 ∈ dxn+1 | ξn(N ) = Sn,ηnN Mn+1 ξn(N,i) , dxin+1 (5.8)
i=1
avec les transitions de Boltzmann-Gibbs Sn de EnN dans lui même et les transitions
d’exploration Mn+1 de EnN dans En+1
N définies par
N
Y
Sn (ξn(N ) , dxn ) = Sn,ηnN (ξn(N,i) , dxin )
i=1
YN
Mn+1 (xn , dxn+1 ) = Mn+1 (xin , dxin+1 )
i=1
Ces décompositions soulignent le fact que la chaı̂ne de Markov suit les deux mêmes
étapes de mise à jour/correction et d’exploration/mutation que le flot des mesures de
Feynman-Kac limites. Plus formellement, les deux étapes de correction/prediction dans
l’espace des distributions :
Sn,ηn Mn+1
ηn ∈ P(En ) −−−−−−−−→ ηbn = ηn Sn,ηn = ΨGn (ηn ) ∈ P(En ) −−−−−
−−→ ηn+1 = ηbn Mn+1
(5.9)
sont approchées par deux étapes évolutionnaires de type sélection/mutation dans
l’espace des mesures empiriques :
selection (N ) mutation
ξn(N ) ∈ EnN −−−−−−−−→ ξbn(N ) ∈ EnN −−−−− N
−−→ ξn+1 ∈ En+1 (5.10)
(N,1)
(N,1) Mn+1 (N,1)
ξn ξb −−−−−−−−−−→ ξn+1
.. n. ..
.
Sn,ηN
.. .
(N,i) n (N,1)
−−−−−−−−−−→ ξbn
(N,i)
ξn ξn+1
−−−−−−−−−−→
..
.. ..
. .
.
(N,N ) (N,N ) (N,N )
ξn ξn
b −−−−−−−−−−→ ξn+1
(N,i)
:= n (ηnN ) Gn (ξn ) δξ(N,i) (dx)+
n
P (N,j)
(N,i) N Gn (ξn )
1 − n (ηnN )Gn (ξn ) j=1 PN (N,k) δξ (N,j) (dx)
k=1 Gn (ξn ) n
L’équation de la chaleur
103
temps ∆t sont extrèment amples et erratiques, en ce sens où
[∆X]2 = ∆t
√
Autrement dit, le marcheur éffectue des amplitudes de déplacement du type ± ∆t,
par unité de temps ∆t. Par exemple, pour des fréquences temporelles très rapides de
∆t = 10−10 secondes, les amplitudes spatiales sont données par, disons ∆X = 10−5
mètres. La vitesse de ce marcheur est extrèmement rapide. Il court tout simplement à
∆X/∆t = 105 mètres par secondes !
Supposons que notre marcheur évolue dans des échelles sub-atomiques. Pour un
observateur macroscopique cela revient à s’éloigner de plus en plus du mouvement
décrit plus haut en faisant tendre les deux pas de la grille spatio-temporelle ∆X et
∆t vers 0. Pour cet observateur, ces particules browniennes ont tout simplement une
amplitude de vitesse infinie
∆X ±1
=√ −→ ±∞ lorsque ∆X et ∆t ↓ 0
∆t ∆t
La construction probabiliste du mouvement brownien développée en 1923 par
l’américain Nobert Wiener est assez sophistiquée. Dans ce qui suit, nous allons essayer
d’en donner les grandes lignes. Par soucis de clarté, nous conviendrons que l’intervalle
de temps est simplement donné par le segment unité [0, 1]. On choisit une séquence
d’instants ti équi-distribués
t0 = 0 < t1 = 1/n < . . . < ti = i/n < . . . < tn−1 = (n − 1)/n < tn = 1
avec
ti − ti−1 = ∆t = 1/n
On construit sur cette subdivision, une marche aléatoire simple (βtni )i=0,...,n centrée en
l’origine : √
β0n = 0 et ∆βtni = βtni − βtni−1 = ti ∆t
Les variables aléatoires ti représentent les mouvements aléatoires indépedants, vers la
gauche ou bien vers la droite, de notre marcheur indécis
1
P(ti = +1) = P(ti = −1) =
2
Par construction, cette marche aléatoire possède les deux propriétés essentielles
suivantes
∆βtni × ∆βtni = ∆t
E(∆βtni | βtn0 , . . . , βtni−1 ) = 0
Pour vérifier la seconde assertion, on pourra noter que l’on a
√ √
n n n 1 1
E(∆βti | βt0 , . . . , βti−1 ) = E(ti ) ∆t = − ∆t = 0
2 2
La première propriété concerne la vitesse du marcheur, la seconde souligne le fait que
ses déplacements aléatoire et locaux sont nuls, en moyenne.
Entre chaque instant ti−1 et ti , on convient que le marcheur évolue de façon
rectiligne, sur la pente entre βtni−1 et βtni . Autrement dit, sa position aux temps
t ∈ [ti−1 , ti [ est donnée par l’interpolation linéaire des deux extrémités βtni−1 et βtni .
Plus formellement, nous avons
βtn −βtn
βtn = βtni−1 + i i−1
ti −ti−1 (t − ti )
On en conclut que
[nt] r [nt]
1 X [nt] 1 X
βtn = √ × ti + o(1) = p × ti + o(1)
n n [nt]
i=1 i=1
où o(1) désigne une fonction aléatoire du paramètre n qui tend presque surement vers
0, lorsque n tends vers l’infini.
P[nt]
Le terme somme i=1 ti est formé de [nt] variables aléatoires (epsilonti )i=1,...[nt]
indépendantes et de même loi. Le théorème central de la limite nous assure que la suite
[nt]
1 X
p × ti
[nt] i=1
converge faiblement, lorsque n tend vers l’infini, vers une variable aléatoire gaussienne,
de moyenne nulle et de variance unité. q √
Il reste à noter que le facteur déterministe [nt]
n converge vers t. Par des arguments
probabilistes élémentaires (le lemme de Slutky), on en conclut que
βtn −→ βt
√
où βt désigne une variable aléatoire gaussienne de moyenne nulle et de variance t.
Autrement dit, la probabilité pour que notre marcheur βt se trouve au temps t dans
un intervalle [a, b] ⊂ R, est donnée par
Z b
1 x2
P(a ≤ βt ≤ b) = √ e− 2t dx
a 2πt
Si l’on traduit ces probabilités de présence, par des répartitions de chaleur sur une barre
rectiligne chauffée en l’origine, il s’en suit que la chaleur est plus élévée autour de la
source, et de plus en plus faible lorsque l’on s’en éloigne.
Par des raisonnements analogues, il est possible vérifier que pour tout couple
d’instants s, t ∈ [0, 1], avec s < t, on a la convergence faible
où (βt − βs ) désigne une variable aléatoire gaussienne de moyenne nulle et de variance
√
t − s. On peut approfondir cette étude, et montrer que le processus gaussien (βt )t∈[0,1]
que nous venons de construire est un processus à trajectoires continues, nulle part
dérivables, à accroissements indépendants et de nature gaussienne.
h i2
1 PN i
=E N i=1 [f (βt ) − E(f (βt ))]
E [f (βti ) − E(f (βt ))] [f (βtj ) − E(f (βt ))]
1 PN 1
E [f (βti ) − E(f (βt ))]2 +
P
= N2 i=1 N2 i6=j
1
E [f (βt ) − E(f (βt ))]2 −→ 0
= lorsque N ↑ ∞
N
La dernière assertion provient du fait que
et
E [f (βti ) − E(f (βt ))] [f (βtj ) − E(f (βt ))] = E [f (βti ) − E(f (βt ))] E [f (βtj ) − E(f (βt ))]
= 0
Pour traduire ces estimations de moyennes en terme de probabilités de défauts ou
d’erreurs, on utilise l’inégalité de Markov. Cette inégalité affirme que pour toute variable
aléatoire positive X, et pour tout nombre > 0, on a
E(X) = E(X 1X≤ ) + E(X 1X> ) ≥ E(X 1X> ) ≥ E(1X> ) = P(X > )
(βt1 , . . . , βtn )
Sn = ∪p≥0 Enp
Pour illustrer ce modèle, on peut supposer que les populations évoluent dans le réseau
du plan En = Z2 selon une marche aléatoire simple, et les variables aléatoires de
113
branchement sont de Bernoulli
P (gn (xn ) = [Gn (x)] + 1) = Gn (xn ) − [Gn (xn )]
= 1 − P (gn (xn ) = [Gn (x)])
où [a] désigne la partie entière d’un nombre a ∈ [0, ∞). On peut aussi choisir des
branchements poissonniens
Gn (xn )m
∀m ∈ N P (gn (xn ) = m) = exp (−Gn (xn ) m)
m!
Pour définir plus formellement notre dynamique de population, il convient d’introduire
une suite de variable (gni (xn ))i≥1 indépendantes, et de même loi que gn (xn ). On
supposera de plus que les variables sur des sites distincts sont indépendantes.
Nous sommes enfin en mesure de construire récursivement le modèle. Initialement,
la population X0 est formé d’un seul individu X01 dans l’état x0 ∈ E0
X0 = X01 = x0 ∈ E0p0 = E01
Cet individu donne naissance à
pb0 = g01 (X01 )
enfants que l’on note
Xb0 = (Xb01 , . . . , Xb0pb0 ) ∈ E0pb0
Chacun d’entre eux explore aléatoirement l’espace Xb0i X1i selon la transition M1 .
Cette transition revient à simuler pb0 variables aléatoires X1 de loi M1 (Xb0i , dx1 ). Lorsque
i
cette étape d’exploration est terminée, nous avons une population formée de
p1 = pb0
individus. Cette transition peut s’exprimer de façon synthétique par la formule
suivante :
Xb0 = (Xb01 , . . . , Xbpb0 )
0 X1 = (X11 , . . . , X p1 )
1
Durant l’étape de branchement suivante chaque individu X1i donne naissance à
g11 (X1i )
enfants. À la fin de ce processus nous avons une population formée de pb1
individus
p1
pb1 pb1
X
1
X1 = (X1 , . . . , X1 ) ∈ E1 avec pb1 =
b b b g11 (X1i )
i=1
Chacun de ces individus explore aléatoirement l’espace E2 selon la transition M2 , etc.
branchement exploration
Xn = (Xni )1≤i≤pn −−−−−−→ Xbn = (Xbni )1≤i≤bpn −−−−−−→ Xn+1
Si le système meurt au bout d’un certain temps n, nous avons pbn = 0. Dans ce cas, on
pose
Xbp = Xp+1 = 0
pour tout les instants suivants p ≥ n.
Exercice 7.1.1P 1. Pour toutes fonctions bornées fn sur En , exprimer les variables
pbn bi i
i=1 fn (Xn ) en fonction de pn , Xn , et des variables gn (on utilisera la
aléatoires P
convention ∅ = 0, lorsque la population est éteinte).
2. On considère les mesures empiriques aléatoires
p
X
s(xn ) =def. δxin pour chaque xn = (xin )1≤i≤d ∈ Enp
i=1
En déduire que
3. Vérifier que les premiers moments des dynamiques de population sont donnés par
la formule suivante
n
Y
E(s(Xn+1 )(fn+1 )) = Ex0 (fn+1 (Xn+1 ) Gk (Xk ))
k=0
sélection mutation
Xn = (Xni )1≤i≤N −−−−−−→ X bni )1≤i≤N −−−−−−→ Xn+1 = (Xn+1
bn = (X i
)1≤i≤N
7.2.1 Sélection/Adaptation
Pour décrire l’étape de sélection, on se fixe une fonction potentiel, strictement
positive, G sur l’espace E. Une fois connue la configuration de la chaı̂ne Xn =
(Xni )1≤i≤N au temps n, l’étape de sélection consiste à simuler N v.a. (X b i )1≤i≤N
n
indépendantes de même loi
N
X G(Xni )
PN j
δXni
i=1 j=1 G(Xn )
Autrement dit chaque v.a. X b k choisit l’une des valeurs X i , avec la probabilité
n n
i
G(Xn )
PN j . On remarquera que ce procédé de selection peut aussi s’interpréter comme
j=1 G(Xn )
un mécanisme de naissances et morts. Dans cette interprétation, les individus Xni
disparaissent, ou donnent naissance à un certain nombre de copies.
Il existe divers variantes pour sélectionner les individus les mieux adaptés au
potentiel G. Dans le cas où le potentiel G est à valeurs dans [0, 1], il est bien plus naturel
“d’accepter” chaque individu Xni avec une probabilité G(Xni ), et de le remplacer (avec
une probabilité [1 − G(Xni )]) par un individu choisi avec la loi discrète
N
X G(Xni )
PN j
δXni
i=1 j=1 G(Xn )
Pour des fonctions potentiel pouvant s’annuler sur certaines régions de l’espace,
il est possible que tous les individus aient des potentiels nul. Dans cette situation,
l’algorithme est stoppé.
7.2.2 Mutation/Exploration
Durant la phase de mutation, les individus sélectionnés explorent l’espace
indépendamment les uns des autres, selon des transitions de probabilités élémentaires
M (x, y). Autrement dit, nous avons
bni
X i
Xn+1
i
où Xn+1 bni , .).
désigne une v.a. de loi M (X
Plus formellement, nous avons
1
P(Xn+1 ∈ dx1 , . . . , Xn+1
N
∈ dxN | X
b1 . . . , X
n
b N ) = M (X
n
b 1 , dx1 ) . . . M (X
n
b N , dxN )
n
i
où Un+1 désigne une suite de v.a. indépendantes de même loi p, sur l’ensemble des
vecteurs unitaires directionnels U = {u ∈ Zd : |u| = 1}.
Un exemple schématique d’évolution de N = 4 individus est représenté dans la figure
suivante. Les nombres entiers entre parenthèse correspondent au nombre d’individus sur
le site en question, après l’étape de sélection.
(2) (0)
(1)
(2) (3)
(0)
Plus formellement, les populations d’individus sont données par des N -uplets
sélection mutation
Xn ∈ EnN −−−−−−→ X bn = E N −−−−−−→ Xn+1 = E N
n n+1
Supposons que les sélections à chaque instant n soient aussi dictées par des potentiels
non homogènes
Gn : xn ∈ En 7→ Gn (xn ) ∈ [0, 1]
Dans ce cas, le mécanisme de sélection dans En , s’exprime sous la forme suivante :
i i
bni = Xn avec proba Gn (Xn )
X
X̃n avec proba 1 − Gn (Xni )
i
où Xn+1i désigne une v.a. de loi Mn+1 (Xb i , .). Ces nouveaux individus sont alors
n−1
séléctionnés en fonction d’un potentiel Gn+1 sur En+1 , puis ils mutent de En+1 vers
En+2 selon une transition markovienne de En+1 vers En+2 , etc.
où E 0 désigne un ensemble quelconque, suffisament réguliers. Pour fixer les idées, on
pourra supposer que E = Zd , ou E = Rd . On conviendra que les points de En sont
donnés par des (n + 1)-uplets représentant des trajectoires de longeur n dans l’espace
E0
xn = (x00 , . . . , x0n ) ∈ En = (E 0 )n+1
L’algorithme génétique précédent est, à chaque étape n ∈ N, formé de N variables
aléatoires trajectorielles, à valeurs dans En , que l’on notera
Xni = X0,n
i i i
∈ En = (E 0 )n+1 ,
, X1,n , . . . , Xn,n 1 ≤ i ≤ N.
et
bni = X
X i
b0,n ,X i
b1,n ,...,X i
bn,n ∈ En = (E 0 )n+1 , 1 ≤ i ≤ N.
Sélection trajectorielle :
Dans notre cadre trajectoriel, le mécanisme de sélection, peut s’interpréter comme une
sélection de trajectoires, en fonction des différents potentiels
Gn (Xni ) = Gn X0,n
i i i
, X1,n , . . . , Xn,n
N N j j
X Gn (Xnj ) X Gn (X0,n , . . . , Xn,n )
δXnj = δ(X j j
0,n ,...,Xn,n )
PN k
PN k k
j=1 k=1 Gn (Xn ) j=1 k=1 Gn (X0,n , , . . . , Xn,n )
Mutation trajectorielle :
L’étape de mutation dépend uniquement de la nature des transitions Mn+1 (xn , dxn+1 )
de En dans En+1 . Supposons que ces dernières correspondent aux transitions de
probabilités d’un processus historique associé à une évolution markovienne sur E 0 .
Dans cette situation, on rappelle que ces transitions Mn+1 (xn , dyn+1 ) s’expriment
sous la forme suivante :
xn = (x00 , . . . , x0n )
0
On lui adjoint ensuite une extension élémentaire aléatoire de loi Mn+1 (x0n , dyn+1
0 )
x0n 0
yn+1
Durant l’étape de mutation correspondante
bni = X 0 i 0 i
X b0,n ,...,X
bn,n ∈ EnN
| {z }
↓
z }| {
i 0 i 0 i 0 i N
Xn+1 = (X0,n+1 , . . . , Xn,n+1 ), Xn+1,n+1 ∈ En+1
0
chaque chemin s’étend selon un déplacement élémentaire de loi Mn+1 , c’est à dire
i
Xn+1 = [X0,n+1 , . . . , Xn,n+1 ], Xn+1,n+1 ∈ En+1 = (E 0 )n+2
0 i 0 i 0 i
| {z }
||
z }| { !
0 i 0 i 0 i bi , X0 i
= [Xb , ... , X
0,n
b
n,n ], X n+1,n+1 = Xn n+1,n+1
0 i
avec une variable aléatoire Xn+1,n+1 0
de loi Mn+1 b 0 i , .).
(Xn,n
0
À titre d’exemple, dans le cas où Mn+1 désigne la matrice de transition d’une marche
0 d
aléatoire sur E = Z , on peut réaliser dynamiquement ces explorations locales en
posant
0 i 0 i i
Xn+1,n+1 =X bn,n + Un+1
i
où Un+1 désigne une suite de v.a. indépendantes de même loi p, sur l’ensemble des
vecteurs unitaires directionnels
U = {u ∈ Zd : |u| = 1}
Lignes ancestrales :
Xni = X0,n i i i
∈ En = (E 0 )n+1
, X1,n , . . . , Xn,n
i
représente la ligne ancestrale de l’individu courant Xn,n à la date n. Les
i
coordonnées Xp,n , avec 0 ≤ p ≤ n, correspondent aux différents ancêtres
de cet individu, à chaque niveau temporel 0 ≤ p ≤ n.
Dans ce contexte, X0,n i i
représente l’ancêtre initial, X1,n i
sa première descendance, X2,n
sa seconde, etc. Dans le modèle général que nous avons développé, les disparitions et les
sélections de lignes ancestrales dépendent de la qualité de la trajectoire de descendance
complète. Les différents degrés d’adaptation d’une lignée complète
xn = (x00 , . . . , x0n ) ∈ En
sont mesurés par une fonction potentiel Gn (x00 , . . . , x0n ). Lorsque ces fonctions ne
dépendent que des composantes terminales, c’est à dire lorsque l’on a
Xn X
bn
de probabilités de transitions
n−1
X G(Xp )
G(Xn ) δXn + (1 − G(Xn )) Pn−1 δXp
p=0 q=0 G(Xq )
P(Xn+1 ∈ dy | X
bn = x) = Mn+1 (x, dy)
Cette transition Mn peut, par exemple, représenter une exploration uniforme des
sites voisins à X
bn .
Le lecteur aura certainement noté que Xn n’est pas une chaı̂ne de Markov, mais le
processus historique possède toujours la propriété markovienne.
Exercice 7.4.1 Examiner la situation où le potentiel est constant G(x) = , avec
∈ [0, 1]. Établir une analogie avec la loi des grands nombres.