Probabilit Es Avanc Ees: Florin Avram 24 Janvier 2014
Probabilit Es Avanc Ees: Florin Avram 24 Janvier 2014
Florin Avram
24 janvier 2014
Table des matières
2
4.5 Convergence presque partout/presque sûrement et lemme de Borel-Cantelli . 42
4.6 La δ-méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.7 Exercices : Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . 45
5 Processus et champs aléatoires, en temps discret et continu 50
3
Chapitre 1
Mise en scène discrète
Définition 1.2 Une variable aléatoire X prenant un nombre au plus dénombrable des va-
leurs xi s’appelle discrète. Pour une telle variable, la fonction de répartition FX (x) =
∑
i:xi ≤x P [X = xi ] est une fonction escalier.
Les exemples les plus importants des variables discrètes sont les variables binomiales,
géométriques et Poisson.
Exercice 1.2 Dessiner les graphes des fonctions de répartition des variables : a) binomiale
B(N, p), N = 5, p = 1/4, b) Poisson P (λ), λ = 45 , et c) géométrique avec pk = p(1 − p)k , k =
∑
0, 1, 2, ...., p = 14 . d) Quelles sont les espérances E[X] = i xi P [X = xi ] de ces variables ?
Exercice 1.3 On considère une pièce équilibrée qu’on lance un nombre N = 2n de fois, les
lancers étant indépendants. Quelle est la probabilité que le nombre des piles soit égal à celui
des faces ?
4
1.2 Probabilité et espérance conditionnelle par rap-
port à un événement
Définition 1.3 Soit B un ensemble avec mesure positive dans un espace probabilisé
(Ω, A, P ) . Pour tout ensemble A on appelle probabilité conditionnelle de A en sachant B la
fraction
P (A ∩ B)
P (A | B) =
P (B)
P (A ∩ B) = P (B) P (A | B) ,
Exercice 1.4 Evaluer la probabilité pour que n personnes (n ≤ 365) choisies au hasard
aient des dates de naissance différentes. Combien le groupe doit-il comprendre de membres
pour que la probabilité de dates de naissance différentes soit inférieure à 1/2 ?
L’espérance conditionnelle peut-etre introduite par des formules différentes dans les cas
discret et continue, ou, de manière unifiée, par la définition suivante.
Définition 1.4 Pour toute variable aléatoire réelle intégrable X définie sur (Ω, A, P ) on
appelle espérance conditionnelle en sachant un ensemble B de mesure positive la moyenne
pondérée
1 ∫ 1 ∫
E (X | B) = X P (dw) = (X 11B )P (dw) (1.1)
P (B) B P (B)
Remarque 1.2 Les probabilités conditionnelles sont un cas particulier, correspondant a une
variable indicatrice X(w) = 11A (w).
L’idée de ces deux définitions est claire : on ≪‘jette≫’ la partie de l’espace en dehors de B,
en tenant compte seulement de la partie contenue en B. Par conséquent, il faut ≪normaliser
l’espace≫ en divisant par P (B).
Exercice 1.5 On jette trois monnaies de 10c, 20c, et 50c respectivement. Soit Y la somme
des monnaies tombées face. a) Quelle est l’espérance de Y ? (40c) b) Quelle est l’espérance
de Y , en sachant que le nombre N des monnaies tombées face est deux ? (160/3 = 53.33)
5
1.3 Les lois de la probabilité et de l’espérance totale
Les probabilités conditionnelles sont un des outils les plus puissants des probabilités, à
travers la méthode du conditionnement. L’idée de cette méthode est de décomposer l’espace
probabiliste des ≪‘toutes les possibilités≫’ dans des sous-ensembles E1 , E2 , ...EI où le calcul
des probabilités devient plus facile. Si on sait quelles sont les probabilités d’un événement
A dans tous les cas possibles E1 , E2 , ...EI d’ une partition finie de l’espace probabilisé Ω =
E1 ∪ E2 ..., alors on peut trouver aussi la ≪‘probabilité totale≫’ en appliquant la loi des
probabilités totales :
Exercice 1.6 On lance trois pièces équilibrées. Deux pièces sont de 5 c., et une de dix. Soit
X la somme des monnaies montrant leur face.
1. Calculer l’espérance de X.
2. Calculer l’espérance conditionnée E[X|N b(f aces) ≥ 2].
3. Calculer l’espérance conditionnée E[X|N b(f aces) < 2].
4. Verifier la formule (1.2).
Exercice 1.7 On dispose d’un dé équilibré et d’une pièce de monnaie qui tombe sur pile
avec une probabilité p = 1/3. On lance le dé une fois puis on lance la pièce un nombre de
fois égal au chiffre obtenu avec le dé.
1. Si le dé est tombé sur le chiffre k, quelle est la probabilité de n’obtenir que des faces
avec la pièce ? D’obtenir au moins une pile ? (il s’agit donc de probabilités condition-
nellement au chiffre k obtenu avec le dé).
2. Utiliser la formule des probabilités totales pour déduire de a) la probabilité (non condi-
tionnelle) d’obtenir au moins une pile.
3. L’espérance du nombre total des piles.
Exercice 1.8 Un marchand vend des articles dont 30 % proviennent d’un fournisseur B1
et 70% d’un fournisseur B2 ; 6 % de la production de B1 est défectueuse, contre 3% pour
B2 . a. Calculer la probabilité qu’un article choisi au hasard soit défectueux (considérer que
l’article a des probabilités 0.3 et 0.7 de provenir de chacun des deux fournisseurs, ce qui vous
met sur la voie pour l’utilisation de la formule des probabilités totales). b. (la loi de Bayes)
Sachant que l’article est défectueux, quelle est la probabilité qu’il provienne de B1 ? de B2 ?
.018
(R : .039 .)
6
3. Donner une formule pour la probabilité qu’un réseau de n composants i.i.d. en parallèle
transmette de l’information de la gauche vers la droite.
4. Donner une formule pour la probabilité qu’un réseau de 2 composants en parallèle,
chaque une étant une série de n ≪passages Bernoulli≫ i.i.d., transmette de l’informa-
tion de la gauche vers la droite.
p p
p p
Figure 1.1 – p,r sont les probabilités que les composantes fonctionnent
Exercice 1.10 Reformuler le calcul ci-dessus sans faire appel à la formule (1.2).
∑ ∑ ∑
R : m = k=1 kp(1 − p)k−1 = p + k=2 kp(1 − p)k−1 = p + (1 − p) k=2 kp(1 − p)k−2 =
∑
p + (1 − p) j=1 (j + 1)p(1 − p)j−1 = p + (1 − p)(m + 1) = 1 + (1 − p)m =⇒ m = p1 .
Remarque 1.3 Pour mieux comprendre la méthode, il est utile de dessiner l’arbre de toutes
les possibilités, en indiquant sur chaque branche a) la proba associée et b) la modification du
≪coùt≫ associée (dans le cas des problèmes de nombre des essaies espéré, le coùt est 1) En
suite, il y aura des branches la contribution desquelles peut etre déterminée après le premier
pas, et des branches où on ≪recommence≫ après le premier pas, après avoir tenu compte du
coùt du premier pas.
7
Chapitre 2
Variables aléatoires continues
Définition 2.1 Pour toute variable aléatoire X ∈ R, la fonction
FX (x) = P [X ≤ x]
Exercice 2.1 Soit X un nombre entre 0 et 2, toutes les valeurs étant également possibles. a)
Tracer graphiquement l’espace des résultats possibles pour X, ainsi que l’événement X > 1/4.
b) Calculer la fonction de répartition de X. Quelle est la probabilité P [X > 1/4] ?
Exercice 2.2 On lance une monnaie équilibrée. Si face, on choisit alors un nombre entre 0
et 1, toutes les valeurs étant également possibles. Si pile, on choisit alors un nombre entre
1 et 2, toutes les valeurs étant également possibles. Soit X le nombre choisi. Calculer la
fonction de survie de X, et tracer la graphiquement. Quelle est la probabilité P [X > 1/4] ?
Calculer la ≪densité≫ f (x) = F ′ (x).
est appelée variable (absolument) continue, et fX (u) est appelée densité. On rappelle qu’une
fonction∫ F (x) qui est représentable comme intégrale d’une autre fonction f (x), c.-à-d.
x
F (x) = −∞ f (u)du, est appelée absolument continue.
Remarque 2.1 (*) L’idée est qu’on a besoin de supposer que la fonction de répartition est
différentiable presque partout afin de pouvoir parler de sa dérivé/ densité f (x), et en plus
que F (x) est l’intégrale/primitive de f (x) (ce qui malheureusement n’est pas vrai pour toutes
les fonctions différentiables presque partout). Sous ces hypothèses, une variable continue X
prenant des valeurs dans un intervalle [a, b] par exemple, peut etre vue comme une limite des
variables discrètes. Pour voir ça, prenons une division de notre intervalle a = x0 < x1 <
... < xn = b, en n morceaux [xi , xi+1 ], i = 0, ..., n − 1 égaux, c.-à-d. xi+1 − xi = dx, ∀i. En
suite, approximons notre variable continue par une variable discréte Xn prenant les valeurs
yi := xi +x2 i+1 , i = 0, ..., n − 1, avec probabilités
8
où nous avons utilisé la formule d’approximation des probabilités des intervalles infinitésimaux.
Prenons maintenant un intervalle I arbitraire. Si dx est suffisamment petit, alors
∫ ∑ ∑
P [X ∈ I] = f (x)dx ≈ P [X ∈ [xi , xi+1 ] ≈ f (yi )dx = P [Xn ∈ I]
I
{i:[xi ,xi+1 ]⊂I} {i:[xi ,xi+1 ]⊂I}
Pour conclure que la probabilité du côté droit converge vers celle du côté gauche, il faut
encore analyser la somme des erreurs provenant de l’approximation (2.1). En utilisant les
∫ y+dx/2 dx3 ′′
développements limités de F (y ± dx/2), on trouve que y−dx/2 f (u)du − f (y)dx = 3!2 3 (f (ξ) +
f ′′ (ξ ′ )), et donc les erreurs sont d’ordre O(dx3 ), et l’erreur de la somme est d’ordre O(dx2 ) →
0, au moins si f (x) est deux fois différentiable.
Les exemples les plus importants des variables continues sont les variables uniformes, uni-
formes par morceaux, exponentielles, Pareto et Gaussiennes.
et l’utilisation d’une partition dans des intervalles infinitésimaux I = [x, x + dx], avec P [X ∈
I] = F (x + dx) − F (x) ≈ f (x)dx donnent immédiatement la formule de l’espérance des
variables continues ∫
E[X] = xfX (x)dx.
x
Les deux formules (discrète et continue) peuvent etre unifiées dans une seule formule
∫ ∫
E[X] = X(w)P (dw) = xPX (dx),
Q x
Exercice 2.3 Un système de trois composantes i.i.d. en parallèle, avec probabilité de cha-
q’une de fonctionner p, fonctionne si au moins deux composantes fonctionnent. p est une
variable de loi uniforme U [0, 1]. Trouver la probabilité que le système fonctionne.
Exercice 2.4 On dit qu’une variable aléatoire X à valeurs dans R+ suit la loi exponentielle
de paramètre λ si : P (X > x) = e−λx , ∀x ≥ 0. Dans la suite, X désigne une telle variable
aléatoire.
1. Montrer que X admet une densité.
2. Calculer la moyenne de X, sa médiane et sa variance.
3. Calculer E[e−sX ].
4. Montrer que λX suit une loi exponentielle de paramètre 1.
5. Calculer la loi de la partie entière de X
Exercice 2.5 On dit que X suit une loi de Paréto si elle admet pour densité :
{
0 si x < a
f (x) = k(a/x)b+1 si x < a
9
1) Determiner k tel que f soit bien une densité et determiner la fonction de répartition
correspondante.
2) Sous quelles conditions X admet-elle une espérance ? Une variance ?
3)On considere que la loi de repartition des revenus dans un pays developpé est une loi
de Pareto de parametre b=1.5 . Que represente alors le parametre a ? L’espérance de X ? La
variance de X ?
Exercice 2.6 Loi gaussienne centrée réduite. Soit X une variable aléatoire de loi gaus-
√ x2
sienne centrée réduite, c’est à dire admettant pour densité f (x) = 12πe− 2 .
1. Montrer que E(X k ) est nulle si k est un entier positif impair.
2. (*) Calculer E(esX ) et E(X 2k ), ∀k ∈ N. On pourra procéder par récurrence.
Exercice 2.7 a) Soit X une variable aleatoire de loi uniforme U [0, 8].
Quelle est la probabilité que X 2 − 3X + 2 < 0 ?
b) Soit X une variable aleatoire de loi exponentielle de paramètre λ = 1. Quelle est la
probabilité que Sin[X] < 0 ?
Exercice 2.8 Soit X une variable aléatoire de densité f donnée par f (x) = 21 e−|x| .
1. Vérifier que f est bien une densité. Donner son espérance et sa variance. 2. Quelle est
la probabilité que l’équation a2 + Xa + 1 = 0 possède : (a) Deux racines réelles distinctes ?
(b) Une racine double ? (c) Deux racines complexes non réelles ?
Exercice 2.9 Quelle est la probabilité P [X > 1/4] en supposant une densité d’arrivée f (x)
≪chapeau≫ symétrique continue, linéaire sur les morceaux [0, 1] et [1, 2], et tq f (0) = f (1) =
0?
Exercice 2.10 Calculer k tel que la fonction f (x) = kh(x) soit une densité, si : a)
1 x 1
h(x) = , x ≥ 0; b)h(x) = , x ≥ 1; c)h(x) = , x ≥ 0.
(x + 1)(x + 2) x3 + x2+x+1 x3 +1
∫ dt
Sol : c) En utilisant (t−a)2 +b2
= 1b Arctg( t−a
b
),
∫ ∫ M ( )
dx+∞ 1 1 1 x−2
= lim − dx
0 x3 + 1 M →∞ 0 3 x + 1 3 x2 − x + 1
∫ M
1 1 1 x − 1/2 1 1
= lim ( − + )dx
M →∞ 0 3 x + 1 3 x − x + 1 2 (x − 1/2)2 + 3/4
2
1 1 1
= lim (ln(x + 1) − ln(x2 − x + 1)1/2 ) + )|M
M →∞ 3 2 (x − 1/2) + 3/4 0
2
1 M +1 1 2
= lim ln( √ 2 ) + √ Arctg( √ (x − 1/2))|M 0
M →∞ 3 M −M +1 3 3
√
1 √ 1 2π 3 3
= √ (Arctg(∞) − Arctg(−1/ 3)) = √ (π/2 + π/6) = √ , k =
3 3 3 3 2π
10
2.2 Couples aléatoires et vecteurs aléatoires
Les probabilités deviennent plus intéressantes quand on a faire avec plusieurs v.a., et
le cas le plus simple et celui des variable aléatoire i.i.d., avec des probabilités (ou densités)
conjointes qui sont des produits des probabilités (ou densités) marginales.
exe:ca Exercice 2.11 Couple aléatoire continu. Une étudiante donne rendez-vous à son ami
entre 0 h et 1 h. On suppose qu’ils arrivent indépendamment et à des instants uniformément
distribués dans l’heure convenue. Les deux amis conviennent de n’attendre pas plus de 15
minutes (à l’initiative du jeune homme, qui est habitué à la ponctualité douteuse de sa
copine, mais redoute sa susceptibilité). Soit X, Y les heures d’arrivée des deux copains, et A
l’événement que les deux se rencontrent.
1. Tracer graphiquement le domaine du plan des paires des arrivées possibles (X, Y ), et
le domaine du plan représentant l’événement A.
2. Quelle est la probabilité pour que les deux amis se rencontrent ?
3. Supposons que le jeune homme arrive à une heure donnée t. Quelle est la probabilité
qu’il rencontre sa copine ?
R:
3. P [A] = P [|x − y|] ≤ 1/4] = 7
16
t + 1/4
t ≤ 1/4
4. P [A|X = t] = (t + 1/4) − (t − 1/4) = 1/2 1/4 ≤ t ≤ 3/4
1 − (t − 1/4) = 5/4 − t t ≥ 3/4
Quelques formules à remarquer pour les paires des variables continues.
1. Les densités marginales s’obtiennent en intégrant les densités jointes :
∫
fX (x) = fY,X (y, x)dy
y
2. Rappelons que les probabilités conditionnelles sont définies comme quotients des pro-
babilités conjointes et probabilités marginales.
pY,X (y, x)
pY /X (y/x) = . (2.2)
pX (x)
où la deuxième formule (évidemment correcte, mais inutile) a été rajouté pour mettre
en évidence l’analogie avec (2.2), en utilisant le fait que les densités multipliées par des
éléments de volume infinitésimaux sont justes des probas. La démonstration demande
un traitement théorique plus difficile, comportant un passage limite dy → 0, comme
suggéré par la deuxième formule.
11
3. On utilisera souvent la décomposition chaı̂ne≫ des probabilités conjointes (ou
≪ ≪ loi
des probabilités composées≫) :
4. Une fois une loi marginale obtenue, ses espérances se calculent comme pour toutes les
lois. Remarquer la loi de l’espérance totale quand on conditionne sur toutes les valeurs
possibles d’une variable continue X :
∫ ∫ (∫ )
EY = yfX,Y (x, y)dxdy = yfY /X [y/x]dy fX (x)dx = E[E[Y /X]](2.5)
x,y x y
Bien sûr, l’égalité entre la première et dernière expresssion (interpretées comme inte-
grales sur un espace probabilisé Ω arbitraire) est en effet vrai pour toutes les variables
aléatoires.
Remarque 2.2 Aussi utile est la loi de Bayes pour les probabilités marginales :
∫ ∫
fY (y) = fX,Y (x, y)dx = fY /X (y/x)fX (x)dx (2.6)
x x
R:
1. Soit T = {(x, y) : 0 ≤ x ≤ y}. k = ∫ 1
e−y dydx
=1
T
2.
( )( )
fX,Y (x, y) = e−y 1I{0≤x≤y} = e−x 1I{0≤x} e−[y−x] 1I{0≤y−x}
( )
( ) 1
−y
= ye 1I{0≤y} 1I{0≤x≤y}
y
Donc, L(X) = Exp(1), L(Y − x|x) = Exp(1), L(Y ) = Γ(2, 1), L(X|y) = U nif [0, y]
3. L(Y − X) = Exp(1), L(X|Y ) = U nif [0, 1].
Exercice 2.14 Comment retrouver la réponse de l’exercice 2.11 b) à partir de l’exercice
2.11 c) ?
∫1 ∫ 1/4 ∫ 1/2 ∫1
R : P [A] = t=0 P [A|X = t]fX (t)dt = t=0 (t + 1/4)dt + t=1/4 1/2dt + t=1/2 (5/4 − t)dt = ....
12
2.3 Fonctions génératrices des probabilités et des mo-
ments
∑
Définition 2.3 a) Pour X ∈ N, la fonction pX (z) = E[z X ] = ∞ k
k=0 pk z s’apelle fonction
génératrice des probabilités.
b) La fonction φX (s) = E[esX ] s’apelle fonction génératrice des moments.
Exercice 2.15 a) Soit X une v.a. de loi de Bernoulli de paramètre p. Déterminer sa fonc-
tion génératrice des probabilités.
b) Soit X1 , X2 , ..., Xn des v.a. iid de loi de Bernoulli
∑ de paramètre p. Déterminer la
fonction génératrice des probabilités et la loi de Sn = ni=1 Xi .
Exercice 2.16 On dit que X suit une loi uniforme discrète sur [1 :n] si et seulement si
pour tout entier k ∈ [1 : n] on a P(X = k) = 1/n. Déterminer la fonction génératrice des
probabilités pX (z).
Exercice 2.17 Soit Z un v.a. avec loi de Poisson de paramètre λ.
a) Calculer les fonctions génératrice des probabilités (fgp) et des moments (fgm) de Z.
b) Calculer l’espérance et la variance de la loi de Poisson de paramètre λ à l’aide de la
fonction fgp.
c) Calculer l’espérance et la variance de la loi de Poisson de paramètre λ à l’aide de la
fonction fgm.
Exercice 2.18 Calculer l’espérance et la variance de la loi géométrique de paramètre p
13
2. Soient X et Y deux variables aléatoires indépendantes continues et positives,
∫ z de densités
respectives f (x) et g(y). Montrer que S = X +Y a une densité fS (z) = x=0 f (x)g(z −
x)dx.
3. Qu’obtient-on si X et Y suivent la loi Exp[λ] ?
4. Qu’obtient-on si X et Y suivent respectivement les loi Exp[λ] et Exp[µ], λ ̸= µ ?
5. Qu’obtient-on si X et Y suivent la loi U[[−1/2, 1/2] ?
{
(1 + x)+ x ≤ 0
6. Qu’obtient-on si X et Y suivent la loi de densité f (x) = ?
(1 − x)+ x ≥ 0
∞ ∫ ∫
R : 6. S ∈ [−2, 2], fS (z) = −∞ (z − x)dx = −2 f (x)f (z − x)dx. Remarquons que
f (x)f 2
1.0
0.8
0.6
0.4
0.2
fig:CLT -2 -1 1 2
∫ +∞
Exercice 2.22 Pour α > 0, soit Γ la fonction définie par Γ(α) = 0 tα−1 e−t dt (fonction
gamma).
1. Calculer Γ(1), Γ(2).
14
2. En supposant que α > 1 et que Γ(α + 1) et Γ(α) convergent, trouver une relation qui
les relie.
3. En déduire l’expression de Γ(n) pour n ∈ N.
4. Vérifier que l’intégrale converge au voisinage de 0 ∀α > 0.
∫ +∞
5. Vérifier que si l’intégrale f (α) = 1 tα−1 e−t dt est convergente, alors elle définit une
fonction monotone.
6. (*) Concluez que l’intégrale Γ(α) converge globalement pour α > 0.
√
7. Montrez que Γ(1/2) = π.
8. Montrez que la densité d’une somme de n variables i.i.d. exponentielles de paramètre
n−1
λ est λ (λx)
Γ(n)
e− lx .
∑
Exercice 2.23 Soit T = N i=1 Zi , où Zi sont des variables exponentielles i.i.d de paramètre
λ, et N est indépendante de Zi , avec P [N = k] = (1 − p)pk−1 , k = 1, 2, .... Déterminer la
fonction génératrice des moments de T, et sa fonction de survie.
∑∞
R : EesT = k=1 (1 − p)pk−1 ( 1+s/λ
1
)k = (1 − p)( 1+s/λ
1
) 1−p( 1 1
)
= 1−p
1−p+s/λ
= 1
1+s/(λ(1−p))
1+s/λ
Exercice 2.24 Soit S une variable binomiale avec paramètres N, p, où N, p peuvent-etre
des variables aléatoires. Déterminer la loi de S, si a) N est une variable de Poisson avec
paramètre λ b) N est une variable binomiale avec paramètres n, q c) (*) p est une variable
de loi U [0, 1].
∑∞ k ∑∞ (λ(1−p))n−k k
e−λ λn! − p)n−k = e−λ (λp) = e−λp (λp)
n n!
R : a) P [S = k] = n=k (n−k)!k!
pk (1 k! n=k (n−k)! k!
1 ∑∞
en différenciant (1−x)1
= k=0 xk .
15
1. Quelle est la loi de Z = X + Y ? R : La fonc. gen. des probas de la v. géométrique est
(1 − p)(1 + pz + p2 z 2 + pk z k ...) = 1−pz
1−p
. La fgp de la somme Z est
P (z) = (1−p)2 (1+pz+p2 z 2 +pk z k ...)(1+pz+p2 z 2 +pk z k ...) = (1−p)2 (1+2pz+3p2 z 2 +...,
par un calcul direct ou en appliquant le développement limité de l’exercice 2.25
précédent. Les probabilités d’une somme des deux v. géométriques sont :
P [Z = k] = (k + 1)(1 − p)2 pk , k = 0, 1, ...,
avec l’interprétation qu’il faut choisir la place de la première parmi les k + 1 lancées
qui précèdent la deuxième pile.
2. Pout tout entier n ≥ 0, déterminer la loi conditionnelle de X sachant que Z = X +Y =
n.
3. Déterminer E (X | Z = n) et la fonction de Doob h(Z) = E (X | Z).
4. Calculer la loi (binomiale négative) d’une somme des r variable aléatoire géométriques
Yi indépendantes, des paramètres p. Donner une interprétation combinatoire du résultat.
R : Nous allons effectivement redécouvrir ici l’expansion binomiale négative de New-
ton. Commençons par la fgp d’une somme des trois v. géométriques, qui est
P (z) = (1 − p)3 (1 + pz + p2 z 2 + pk z k ...)(1 + pz + p2 z 2 + pk z k ...)(1 + pz + p2 z 2 + pk z k ...)
= (1 − p)3 (1 + 3pz + 6p2 z 2 + 10p2 z 3 ...)
Les probabilités d’une somme des trois v. géométriques sont :
( )
(k + 1)(k + 2) k+2
P [Z = k] = (1 − p)3 pk = (1 − p)3 pk , k = 0, 1, 2, 3...,
2 2
en appliquant le développement limité de l’exercice 2.25, ou par un calcul direct, ou
ck = (k+1)(k+2)
2
est obtenu en remarquant que les prémi’eres différences sont affines en
k, et les deuxièmes différences sont constantes, égales a 1. Par conséquent ck est un
polynôme de deuxième dégrée en k, et les valeurs initiales c0 = 1, c1 = 3 nous donnent
2 2
ck = k2 + a1 k + a0 = k +3k+2
2
(on peut aussi chercher 1, 3, 6, 10 avec http ://[Link]/
). On peut deviner maintenant que les probabilités d’une somme des n v. géométriques
sont : ( )
n+k−1
P [Z = k] = (1 − p)n pk , k = 0, 1, ...
n−1
Une fois deviné, le résultat est évident, car c’est juste le nb. des possibilités pour choisir
n − 1 piles parmi les n − 1 + k résultats qui précédent la k-ieme pile.
On aurait pu aussi prendre une voie directe, en suivant Newton, en se posant la question
si l’expansion binomiale valable pour des entiers naturels α :
( )
α 2 2
(1 − pz) = 1 − αpz +
α
p z − ...
2
tienne aussi pour des entiers négatifs. En effet, pour α = −1,
α(α − 1) 2 2
(1 − pz)−1 = 1 − (−1)pz + p z − ... = 1 + pz + p2 z 2 + ...
2
est juste la série géométrique, donc la formule tient aussi dans ce cas, sauf que l’expansion
est infinie. A partir de α = −1, on démontre par récurrence, comme ci-dessus, que la formule
tienne pour k = −2, −3, .... Il s’avère que la formule binomiale géńéralisée de Newton est
valable pour chaque α ∈ C, si |pz| < 1. http ://[Link]/wiki/Binomial series
16
Exercice 2.27 Soit S une variable binomiale négative avec paramètres N, p, c.-à-d.
( )
r+k−1 r(k)
P [S = k|N = r] = (1 − p)r pk = (1 − p)r pk ,
k k!
où N est une variable aléatoire géométrique avec paramètre β, et r(k) := r(r + 1)...(r + k − 1).
Déterminer la loi de S.
Exercice 2.28 Un examen se présente sous la forme d’un questionnaire à choix multiples
(Q.C.M.) comportant K = 20 questions. Pour chacune des questions, il est proposé 4
réponses dont une et une seule est bonne. Le correcteur compte 1 point pour une réponse juste
et 0 en cas de mauvaise réponse. Un candidat se présente en n’ayant appris rien. Il reçoit
une note N égale au nombre des questions auxquelles il répond correctement (par chance).
1. Quelle est la loi de la note N ? Calculer l’espérance mathématique et la variance de N.
2. (Sommes aléatoires) Répeter la question précédente, si K est une variable aléatoire
de loi de Poisson de paramètre λ = 20.
Exercice 2.29 (Somme aléatoire) Soit (Xn ), n ≤ N une suite de v.a. iid à valeurs dans N
et T une variable aléatoire, à valeurs
∑ dans N, et indépendante des (Xn ), n ≤ N . On pose
S0 = 0 et pour tout n ≥ 1, Sn = nk=1 Xk et S(w) = ST (w) (w).
a) Montrer que gS = gT ◦ gX . b) Montrer que si X1 et T sont intégrables, alors E[S] =
E[T ]E[X]. c) On prend pour les (Xn ), n ≤ N des v.a. iid de loi de Bernoulli de paramètre
p, et pour T une loi de Poisson de paramètre λ. Quelle est la loi de S ?
Exercice 2.30 Soit X une variable de loi Poisson de paramètre Y, où Y est une variable
de loi exponentielle de paramètre λ. a) Trouver la loi de X. b) Trouver la loi conditionnelle
L[Y |X = k].
∫∞ y k −y
R : P [X = k] = 0 k!
e λe−λy dy
17
Exemple 2.1 Soit Zi i.i.d., Zi ∼ U [−1/2, 1/2]. a) Montrer que la densité de Y2 = Z1 + Z2
est {
1 − x x ∈ [0, 1]
fY2 (x) = x + 1 x ∈ [−1, 0]
Exercice 2.31 Soit X une variable aléatoire, et soit Ya = X/a. Calculer l’esperance et
l’écart type de Ya . b) Calculer la fonction de répartition Ya , et aussi la densité, en supposant
que X est continu c) Dessiner les densités fX et fYa pour a = 2 et a = 4 au cas où
X ∼ U [−1, 1].
Exercice 2.35 Quelle sont la fonction de répartition et la densité du carré d’une variable
de loi normale N (0, 1) ?
1
Exercice 2.36 Soit X une variable qui suit la loi de Cauchy avec densité π(1+x 2 ) . a) Verifier
R : d) T est une variable aléatoire hybride (avec une partie discrète, et une continue).
Exercice 2.37 a) Soit X une variable aléatoire continue de loi uniforme sur [0, 1]. Déterminer
les lois de Zi = hi (x), i = 1, 2, où h1 (x) = 1 − x et h2 (x) = min(x, 1 − x).
√ b) Déterminer
√
les lois de Z3 = min(X1 , X2 ), Z4 = X1 + X2 , Z5 = X1 + X2 + X3 , Z = X1 + X2 , où
X1 , X2 , X3 sont des variable aléatoire i.i.d., de loi uniforme sur [0, 1].
18
f:csu
1.0
0.8
0.6
0.4
0.2
-2 -1 1 2
Figure 2.1 –
Démonstration : Si X suit une loi exponentielle de paramètre λ > 0 alors pour tous t, h ≥ 0
on a :
P ([X ≥ t + h] ∩ [X ≥ t]) P [X ≥ t + h]
P [X ≥ t + h | X ≥ t] = =
P [X ≥ t] P [X ≥ t]
F̄X (t + h) e−λ(t+h)
= = = e−λh = F̄X (h) = P [X ≥ h]
F̄X (t) e−λt
19
Remarque 2.3 Il suffit de supposer que la fonction f soit mesurable, mais alors le théorème
est beaucoup plus difficile à démontrer.
Montrons que f (1) ̸= 0 : si f (1) = 0 alors d’après ce qui précède f est nulle sur Q+ ,
or on sait que pour tout réel x > 0 , il existe r dans Q+ tels que r ≤ x , comme f est
décroissante, on aura alors 0 ≤ f (x) ≤ f (r) = 0 donc f (x) = 0 et f = 0, ce qui est faux.
Par conséquent les fonctions f et x 7→ (f (1))x = ex ln f (1) coı̈ncident sur Q+ , comme ces
fonctions sont continues sur R+ , on peut alors affirmer que ∀x ≥ 0 , f (x) = ex ln f (1) On sait
que limx→+∞ f (x) = 1 − limx→+∞ FX (x) = 0 donc ln f (1) < 0 et on peut écrire que
P [X ≤ t + h | X ≥ t] f (t) F̄ ′ (t)
λ(t) := lim = =−
h→0 h F̄ (t) F̄ (t)
Exercice 2.39 Montrez que la seule loi avec un taux de hasard constant λ(t) = λ est la loi
exponentielle.
∫∞
Exercice 2.40 Montrez qu’à chaque fonction bornée λ : R+ − > R+ avec intégrale
∫ 0 λ(u)du =
t
−
∞ on peut associer une loi de probabilité avec fonction de survie F̄ (t) = e 0
λ(u)du
et taux
de hasard λ(u).
Remarque 2.4 Le ≪taux de hasard/mort≫ immédiat λ(0) coı̈ncide pour une variable posi-
tive avec la densité f (0)
Fh ≈ f (0)h
est souvent utilisée pour conditionner sur une arrivée en temps continu avant h. Pour une
variable exponentielle X à paramètre λ par exemple, on utilise souvent
Fh ≈ λh,
20
2.8 Exercices
1. Soit
1
, x≥0
(x+1)(x+3)
h(x) =
0 X<0
∫x
a) Calculer la fonction H(x) = 0 h(u)du
Est-ce que la fonction h(x) est positive et integrable sur [0, ∞) ?
b) Calculer k tel que la fonction f (x) = kh(x), x ≥ 0 soit une densité.
∫
Calculer la fonction de répartition F (x) = 0x f (u)du.
c) Calculer la mediane m de F (x).
21
3. a) la densité conjointe est fX,Y (x, y) = 13 b) la densité marginale de X est fX (x) =
∫ ∫
fX,Y (x, y)dy = 32 − 2x
9
et l’espérance E[X] = 03 fX (x)dx = 1
∫
c) la densité marginale de Y est fY (y) = fX,Y (x, y)dx = 1 − y2 , y ∈ [0, 2] et la densité
conditionelle pour y ∈ [0, 2[ est fX|Y (x|y) = 3(1− 1
y , ∀x, i.e. L(X|Y = y) est uniforme
) 2
sur [0, 3(1− y2 )] d) L’espérance conditionelle est E[X|Y = y] = 32 (1− y2 ). e) L’espérance
iterée satisfait E[E[X|Y ]] = E[X] = 1
4. Dans cet exercice, l’espace des probabilités est le triangle {0 ≤ t ≤ u ≤ 1}, doté par la
mesure u1 dtdu. Utilisons la décomposition des probabilités marginales (2.6)
∫ 1 ∫ 1 1
fT (t) = fT /U =u (t, u)dtdu = 1It≤u du = log u|1t = − log t
u=0 u=0 u
∫1
De lors, P [T > 1/2] = 1 − log tdt = 12 (1 − Log2).
2
22
f:csu
1.0
0.8
0.6
0.4
0.2
-2 -1 1 2
Figure 2.2 –
R:
2x3 0<x≤1
f√X1 +√X2 (x) = 3
− 2 (x3 − 6x + 4) 1<x<2
3
(a) Tracer graphiquement le domaine du plan où la densité conjointe fX,Y (x, y) est
nonnule le domaine du plan représentant l’événement A
(b) Quelle est la probabilité pour que les deux amis se rencontrent ?
(c) Supposons que le jeune homme arrive à une heure donnée t. Quelle est la pro-
babilité qu’il rencontre sa copine ? Comment retrouver la reponse de la question
precedente à partir de ce nouveau résultat ?
23
2.10 Examen d’entrainement
1. Soit X une variable aléatoire de densité f donnée par f (x) = 12 e−|x| , x ∈] − ∞, ∞[.
(a) Vérifier que f est bien une densité. Donner son espérance et sa variance.
(b) Quelle est la probabilité que l’équation a2 + Xa + 1 = 0 possède : (a) Deux racines
réelles distinctes ? (b) Une racine double ? (c) Deux racines complexes non réelles ?
2. Une paire (X, Y ) est choisi uniformément sur A = {x ≥ 0, y ≥ 0, x4 + y
3
≤ 1}.
(a) Quelle est la densité conjointe fX,Y (x, y) ? Dessiner le domaine du plan sur lequel
elle n’est pas nulle.
(b) Quelle est la densité marginale de X ? Calculer l’espérance E[X]
(c) Quelle est la densité conditionelle fX|Y (x|y) ?
(d) Calculer l’espérance conditionelle E[X|Y = y].
3. Un point U est choisi uniformément sur [0, 2]. En suite, un point T est choisi uni-
formément sur [0, U ].
(a) Calculer la densité conjointe f (t, u) et dessiner le domaine du plan sur lequel elle
n’est pas nulle.
(b) Quelle est la densité marginale de T et la probabilité que T > 1 ?
4. Soient X et Y deux variable aléatoire indépendantes continues et positives, de densités
respectives f (x) et g(y), et soit S = X + Y leur somme.
a) Quelle est la densité f (z) = fS (z), si X et Y suivent la loi Exp[λ] ?
b) Quelle est la densité g(z) = gS (z), si X et Y suivent respectivement les lois Exp[λ1 ]
et Exp[λ2 ], λ1 ̸= λ2 ?
∫ ∫
c) Trouver les transformées de Laplace fb(s) = 0∞ fS (z)e−sz dz, gb(s) = 0∞ gS (z)e−sz dz
dans les deux cas.
R:
1. a) EX = 0, V arX = 2 b) P [X 2 − 4 > 0] = e−2 , P [X 2 − 4 = 0] = 0, P [X 2 − 4 < 0] =
1 − e−2 .
2. (a) f (x, y) = 16 1IA
(b) fX (x) = 1
2
− x
8
1
(c) fX|Y (x|y) = 4(1−y/3)
24
2.11 Temps continu : la compétition des exponentielles
ex:compexp Exercice 2.41 la dernière ampoule a s’éteindre, ou le coureur et la tortue. Soit
{Xi , i = 1, 2}, deux variables exponentielles indépendantes à paramètres λi , i = 1, 2, qui
représentent les temps nécessaires pour deux ampoules à s’ éteindre, ou le temps des deux
compétiteurs pour finir un parcours. Par exemple, λ2 = .01 (la tortue), et λ1 = .99 (le
coureur).
1. Calculer les fonctions de répartition et survie de V = max[X1 , X2 ]. R : P [V ≤ t] =
P [X1 ≤ t, X2 ≤ t] = (1 − e−λ1 t )(1 − e−λ2 t ) = 1 − e−λ1 t − e−λ2 t + e−(λ1 +λ2 )t P [V > t] =
e−λ1 t + e−λ2∑ t
− e−(λ1 +λ2 )t Rémarquez
∑ qu’il s’agit d’une combinaison d’exponentielles
P [V > t] = i wi e−si t , avec , i wi = 1, mais wi pas forcement positifs.
2. la loi du minimum U = min[X1 , X2 ].
R : P [U > x] = P [min[X1 , X2 ] > x] = P [X1 > x, X2 > x] = e−λ1 x e−λ2 x = e−(λ1 +λ2 )x
Cet exercice est très simple en utilisant directement l’indépendance (sans passer par
la densité conjointe, conditionnement ...) ! Pour comparaison, utilisons aussi une ap-
proche de décomposition en deux cas, calculables comme intégrales doubles : P [U >
x] = P [x < X1 < X2 ] + P [x < X2 ≤ X1 ] = λ1λ+λ 1
2
e−(λ1 +λ2 )x + λ1λ+λ
2
2
e−(λ1 +λ2 )x =
e−(λ1 +λ2 )x (cette approche peut également etre vue comme un conditionnement sur
l’ordre des Xi ).
3. Soit I la variable aléatoire définie par U = XI . Calculer
P [I = 2, U > t],
ainsi que la loi de la variable I donnant l’index qui réalise le minimum.
R:
∫ ∞ ∫ ∞
P [I = 2, U > t] = P [t ≤ Y ≤ X] = f2 (y)dy( f1 [x]dx)
t y
∫ ∞ λ2
= λ2 e−λ2 y e−λ1 y dy = e−(λ1 +λ2 )t = P [U > t] P [I = 2|U > t]
t λ1 + λ2
Comme P [I = 2|U > t] ne dépend pas de t, il suit que U, I sont des variables
indépendantes § ! La généralisation de ce fait pour une compétition des n exponen-
tielles est la fondation de la construction des processus de Markov en temps continu.
4. Soit W = V − U . Calculer P [W > t|I = 1] et P [W > t|I = 2]
5. Calculer la fonction de survie P [W > t] de W .
6. Montrer que U et W sont indépendantes.
7. calculer la transformée de Laplace φV (s) = E[e−sV ] de V , et la décomposer comme
produit des transformées de Laplace de deux lois. À partir de cette décomposition,
suggérer une décomposition de V comme somme des deux variables independantes,
avec des lois marginales qu’on identifiera.
8. Trouver la loi du minimum de n variables exponentielles indépendantes {Xi , i =
1, ..., n}, à paramètres λi , i = 1, ..., n, ainsi que la loi de la variable I qui donne l’index
qui réalise le minimum.
9. Obtenez la loi du maximum Vn de n variables exponentielles indépendantes, avec pa-
ramètres égaux λ. R : Vn = W0 + W1 + W2 + Wn−1 , où Wi sont des variable aléatoire
indépendantes, de loi E(λ(n − i)).
§. Cela est tout à fait surprenant (a priori, les chances de gagner sont .99 et .01 ; supposons que le temps
de la course est très petit U ∼ 1/4 ; paradoxalement, ça ne change en rien la proba que le coureur a gagné !).
25
Remarque 2.5 Les lois intervenant dans cet exercice apartient a l’importante classe des
lois R avec transformée de Laplace rationelle, appelées aussi lois matrice-exponentielles (car
elles sont représentables comme F̄ (t) = αeAt 1, où A est une matrice, et α, 1 dénotent des
vecteurs ligne et colonne).
26
1. Calculer la fonction de survie F̄Xa (x) = P [Xa > x]. Donner une formule pour la mesure
µXa (dx).
2. Proposer une généralisation où Y est une variable discrète arbitraire.
F̄X (x)
0 ≤ x < a1
R : F̄Xa (x) = c2 F̄X (x) = F̄Y (a1 )F̄X (x) a1 ≤ x < a2
0 a2 ≤ x
µXa (dx) =
fX (x)1I{0≤x<a1 } dx + c2 fX (x)1I{a1 ≤x<a2 } dx + (1 − c2 )F̄X (a1 )δa1 (dx) + c2 F̄X (a2 )δa2 (dx)
Remarque 2.8 Classification des fonctions de répartition. Les variable aléatoire avec
des fonctions de répartition continues (sans sauts) sont de deux types : absolument conti-
nues (comme vu ci-dessus, pour lesquelles la fonction de répartition F est la primitive
d’une autre fonction f de densité) et singuliers. Pour les deuxièmes, voir ≪l’escalier du
diable≫ http ://[Link]/wiki/Escalier de Cantor.
Exercice 2.48 Soit F une fonction de répartition absolument continue, et soit x un point
de continuité de f (x). Montrer que F est différentiable en x, et que
F ′ (x) = f (x)
Remarque 2.9 Pour les variables discrètes, la mesure µX (]a, b]) := FX (b) − FX (a) associée
avec la variable est une mesure de Dirac
∑
µX = pi δxi ,
i
27
partir de ≪l≫ensemble mère Ω≫ des toutes les expérimente(éventualités) possibles produisant
la variable X pourrait etre utile en lui-même parfois, et cette observation a changé le sens
du concept d’une variable aléatoire. La définition moderne identifie une variable aléatoire
avec une fonction définie sur un ≪ensemble mère≫ Ω (des toutes les éventualités possibles),
doté par une mesure mère≫ P .
Définition 2.4 Soit (Ω, F, P) un espace probabilisé et (V, V) un espace mesurable. On ap-
pelle variable aléatoire de vers , toute fonction mesurable de Ω vers V . La mesure de proba-
bilité ≪induite≫ par X,
PX (B) = P [X −1 (B)], ∀B ⊂ V,
appelée loi de probabilité de la variable aléatoire X, correspond a l’ancienne définition. Elle
est obtenue dans le nouveau cadre comme image, par l’application X, de la ≪probabilité
mère≫ P définie sur Ω. Pour V = R, B = (−∞, x], PX (b) = FX (x) coı̈ncide avec la fonction
de répartition cumulative classique § .
R : Une possibilité est de prendre un nombre X de loi uniforme en [0, 1], et de le remplacer
avec le bout droit nk de l’intervalle qui le contient. Cela ramène à considérer une fonction
fn : [0, 1], − > R, fn (u) = ⌈nu⌉n
. On vérifie facilement que la loi Pfn induite par la mesure
de Lebesgue P sur [0, 1] est la loi désirée Un . Donc, la fonction fn est une possibilité pour
définir une variable aléatoire ayant loi Un (d’autres possibilités existent, évidemment). Pour
etre claire, il serait peut etre mieux de définir la variable aléatoire au sense de Kolmogorov
comme le triple , Xn = ((Ω, F, P ), fn , Un ) mais la pratique enracinée est d’utiliser la même
notation pour notre triple Xn et pour la fonction fn .
Exercice 2.49 Calculer l’espérance de la variable uniforme avec valeurs { n1 , n2 , ..., nk , ..., 1},
ainsi que sa transformée de Laplace et fonction génératrice des probabilités, à partir de
1. la loi induite Un
2. la mesure mère P .
§. Idées : a. La théorie de l’intégration au sens de Lebesgue d’une fonction f (x), f : A− > B suggère
qu’il vaut mieux se baser sur des ensembles simples I (intervalles, ...) dans l’ensemble des images B, en faisant
impasse sur leurs préimages potentiellement très compliquées en A. Brèvement, l’idée de de l’intégration au
sens de Lebesgue est que l’essentiel se passe sur l’axe des y (images). b. La théorie des variables aléatoires
avant Kolmogorov était formulée en termes des fonctions de répartition cumulative F (y) : B− > R (
non-diminuantes, de saut total 1), définies sur l’espace des valeurs possibles B ⊂ R de la variable. Ces
fonctions peuvent etre ∫discrètes, avec support sur un ensemble dénombrable des sauts, absolument continues
x
(satisfaisant F (x) = −∞ F ′ (u)du), ou des ≪fonctions de Cantor≫ (satisfaisant F ′ (x) = 0 p.s. et avec
support sur un ensemble nondénombrable). Les trois cas, ainsi que leurs mélanges, demandaient souvent
des traitements différents. Kolmogorov a réalisé que même que ≪l’essentiel se passe toujours sur l’axe des
valeurs y ≫ il pourrait-etre utile à ≪rajouter un espace d’états mère universel Ω Les sous-ensembles B ⊂ R les
plus importants sont les points avec mesure de l’image inverse positive (les ≪choc-chips≫). Dans l’ absence
des ≪choc-chips≫, le sous-ensemble B le plus important est l’intervalle de support S avec mesure inverse 1,
qu’on peut décrire encore par une ≪densité de mousse≫ f : S− > R. Ces deux cas correspondent exactement
aux lois (variable aléatoire aleatoires pre-Kolmogorov) discrètes et continues, et une mousse avec choc-chips
ajoutés correspondra aux lois mélangées. c. En identifiant les variable aléatoire avec les fonctions sur un
espace Ω de toutes les possibilités (un peu arbitraire,) Kolmogorov a mis les probabilités sur la fondation
rigoureuse de l’analyse, et a aussi un traitement unifié des toutes les va, incluant même les variables de
Cantor, ayant une densité avec support S de mesure 0.
28
Les avantages de la définition de Kolmogorov apparaissent dans l’étude des ensembles
infinis des variable aléatoire (les processus stochastiques) § . Mais un premier avantage peut
etre déjà perçu en considérant la convergence ≪en loi≫ des lois Un quand n → ∞ (vers la
loi uniforme sur [0, 1]). Même que cet exercice n’est pas difficile, il est encore plus facile de
vérifier la convergence des fonctions de Kolmogorov
⌈nu⌉
lim fn (u) = lim =u
n→∞ n→∞ n
(et de remarquer que la fonction u induit la loi uniforme sur [0, 1]). Finalement, l’avantage
principal de la définition de Kolmogorov est d’assimiler les variables aléatoires et les fonc-
tions, qui sont les caractères principaux de l’analyse. Depuis Kolmogorov, les probabilités et
l’analyse restent sur les mêmes fondations.
Exercice 2.50 1. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Déterminer la
fonction de répartition de Y = −ln(1 − X).
2. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Déterminer la fonction de
−1
répartition de
∫ yY = F (X), où F (y) est une fonction de répartition absolument conti-
nue F (y) = −∞ f (u)du arbitraire.
3. Montrer que la variable aléatoire X = F [Y ], où Y ∫ est une variable aléatoire avec
y
fonction de répartition absolument continue F (y) = −∞ f (u)du arbitraire, a une loi
uniforme sur [0, 1].
4. Preciser un triple de Kolmogorov (méthode de simulation) ayant comme loi induite la
loi exponentielle.
5. Preciser un triple de Kolmogorov ayant comme loi induite une loi avec fonction de
répartition absolument continue F (x) arbitraire.
6. Preciser un triple de Kolmogorov (méthode de simulation) ayant comme loi induite la
loi géométrique de paramètre p. Ind : Considerer la fonction f : [0, 1]− > R, f (u) =
⌊−λ−1 ln(u)⌋ + 1. P [f (u) = k] = P [k − 1 ≤ −λ−1 ln(u) < k] = P [e−λ(k−1) ≥ u >
e−λk ] = e−λ(k−1) − e−λk = (e−λ )k−1 (1 − e−λ ).
29
R:
∑
n
1 1 2 k 1 2 n−1
Qn = E[N ] = P [N ≥ k] = 1+(1− )+(1− )(1− )...(1− )+...(1− )(1− )...(1− )
k=1 n n n n n n n
Les premières valeurs sont Q1 = 1, Q2 = 23 , Q3 = 17
9
. Les prochaı̂nes valeurs sont
{ }
71 1569 899 355081 425331 16541017 5719087
, , , , , ,
32 625 324 117649 131072 4782969 1562500
Cf. Mathematica 5.2, il semble impossible de simplifier, ou de trouver une récurrence
simple satisfaite par cette suite. Par contre, il existe plusieurs approximations asympto-
tiques, obtenues souvent par des variations de la méthode de Laplace, qui donnent pour
la valeur 1 + e365 ≈ 24, 6112 avec précision 10−4 ! Un peu d’histoire (*). Les premiers
résultats/questions sur l’approximation de la fonction de Ramanujan Qn (un cas particulier
du taux de hasard Gamma) ont été implicitement formulés comme ≪exercices≫ par Rama-
nujan en 1911 et 1913 (première lettre à Hardy). Ces exercices ont été résolus et peaufinés
par Szegó, Watson (1928), Knuth (1962), Flajolet et al (1992), et Jaansen, Leeuwaarden
et Zwart (2007). La fonction Qn donne aussi l’espérance du nombre d’essais N jusqu’a la
répétition d’un anniversaire, et le pb. d’approximer la médiane de N a été résolu par Brink
(2012). Ce dernier pb. date d’une observation de Davenport (1927), qui stipule que dans une
classe de 23 étudiants, la probabilité d’avoir une coı̈ncidence d’anniversaires est plus grande
que .5. L’intéret des probabilistes dans la fonction Qn de Ramanujan vient surtout du fait
qu’elle est intimêment liée à la distribution de Poisson, car :
( )
n−1
−n n Q(n) nn−1 nn−2 nn−k
e = e−n + + ... + ... + 1 = P [P o(n) ≤ n − 1]
(n − 1)! [n − 1]! [n − 2]! [n − k]!
Rémarquons que
∫∞
P [P o(n) ≤ n − 1] γn (u)du xn−1
Q(n) = = n
, où γn (x) = e−x
P [P o(n) = n − 1] γn (n) Γ(n)
est précisément l’inverse du taux de hasard en n de la densité γn (x). Le pb. plus général
d’approximer
( )
∫ ∞
−n ns ns−1 ns−k us
P [P o(n) ≤ s] = e + + ... + ... + 1 = e−u du
s! (s − 1)! (s − k)! n s!
ou d’approximer
∫∞
P [P o(n) ≤ s] γs+1 (u)du
Qs (n) = = n
:= Bs−1 (n)
P [P o(n) = s] γs+1 (n)
est de grand intéret pratique dans la théorie des files d’attente, car Bs (n) représente la
probabilité de perte d’Erlang dans un système avec s serveurs et intensité des arrivées n.
La voie la plus simple pour obtenir de telles bornes passe par des représentations intégrales.
Par exemple, Ramanujan, voir aussi Flajolet et Sedgewick, pg 115, avait proposé
∫ ∞ √
−t πn 2
Qn = e (1 + t/n) dt ≈
n−1
+ + ...,
0 2 3
un cas particulier de ∫ ∞
Qn (s) = e−t (1 + t/n)s−1 dt ≈ ...
0
30
Chapitre 3
Espérance conditionnelle par rapport
a des tribus et variables arbitraires
31
Définition 3.1 Pour toute variable aléatoire discrète Y on définira l’espérance condi-
tionnelle de X par rapport à Y par
Remarque 3.1 Si nous savions aussi définir E[X | B], où B est une tribu arbitraire,
nous saurions immédiatement par la même stratégie définir E[X | Y ] = E [X | σ(Y )] ,
où Y est une variable aléatoire arbitraire.
3. Pour Y discret, une propriété intéressante de léspérance conditionnelle (3.2) est :
∫ ∫
E (X | Y ) dP = E (X | Ai ) P [Ai ] = XdP, ∀Ai ∈ σ(Y )
Ai Ai
Kolmogorov a introduit une définition générale (mais non constructive) de E[X | B], comme
une v.a satisfaisant aux propriétés ci-dessus –voir la prochaine section. L’unicité de cette
définition vient de :
l:z Lemme 3.1 Si une variable X ∈ B satisfait
∫
X = 0, ∀B ∈ B, alors X = 0 p.p.
B
Kolmogorov a introduit l’espérance conditionnelle par rapport à une sous tribu B (ou
une variable Y ) arbitraire, pas forcement discrète comme une fonction satisfaisant cette
propriété :
t:K Théorème 3.1 - (définition de l’espérance conditionnelle pour des tribus arbitraires) - Soit
X une variable aléatoire réelle intégrable définie sur (Ω, A, P ) . Alors
1. Pour toute sous tribu B il existe une variable aléatoire appelée espérance conditionnelle de X
sachant B, et notée E (X | B) ou E B (X), telle que :
Comme X est intégrable, ν est une mesure finie et elle est absolument continue par rapport à P (en effet : P (B) = 0 ⇒ ν (B) = 0
car on intègre sur un ensemble négligeable). D’après le théorème de Radon-Nikodym, il existe une fonction f , B-mesurable et
intégrable telle que : ∫
∀B ∈ B , ν (B) = f dP
B
(en toute rigueur, on devrait écrire P|B au lieu de , P mais ces deux mesures coı̈ncident sur B ...). Il est alors clair que f vérifie
32
Finalement, la probabilité conditionnelle par rapport à une tribu est juste un cas particulier
de l’espérance conditionnelle :
P (A | B) = E (11A | B)
Idée intuitive : On a défini ainsi l’espérance conditionnelle E[X|B] avant qu’on sache dans
quel ensemble B ∈ B (ou dans quelle partie d’une partition finie B = A1 ∪ A2 ...) on se
trouve. Le résultat est une variable aléatoire représentant toute l’information qu’on pourra
obtenir plus tard sur X quand on variable aléatoire découvrir le cas Ai qui s’est passé. Bien
sûr, après avoir découvert l’ensemble Ai , l’espérance conditionnelle de X devienne juste une
moyenne pondérée
1 ∫
E (X | Ai ) = XdP.
P (Ai ) Ai
Avant de connaitre le cas pourtant, l’espérance conditionnelle est elle même une variable aléatoire,
mesurable par rapport a la tribu plus ≪‘grossière≫B, ce qui revient à dire dans le cas ou B
est fini qu’elle est constante sur les ensembles générateurs de B.
Remarque 3.2 (*) Il n’y a pas d’unicité ≪absolue≫ de E (X | B), mais seulement p.s.-
P . Chaque v.a. vérifiant (i) et (ii) est appelée une version de l’espérance conditionnelle.
Toutefois, deux versions
∫ Y1 et Y∫ 2 sont presque sûrement égales (p.s. ou p.p.-P ) par la lemme
3.1, car ∀B ∈ B , B Y1 dP = B Y2 dP .Il y a donc unicité p.s.-P et on parle de l’espérance
conditionnelle en choisissant l’une des versions.
Remarque : Si X est dans L2 (Ω, A, P ) espace de Hilbert, alors on peut également définir E (X | B) = E B (X) comme la
projection orthogonale de X sur le sous-espace vectoriel fermé L2 (B) formé des classes d’équivalences f (pour l’égalité p.s.) des
éléments f de L2 (Ω, B, P|B ). Cet espace L2 (B) est souvent identifié à L2 (Ω, B, P|B ) car ils sont isomorphes (sans être forcément
égaux !).
33
3 B ⊃ σX : X ∈ B (c.-à-d. B-mesurable) entraine
E (X | B) = X
(le côté droit satisfait évidemment la définition de l’espérance conditionnelle, et l’unicité p.p.
est assuré par la Lemme 3.1).
Remarque 3.3 En prenant en (ii) pour B tout l’espace Ω, où en prenant U = 1 en (ii)
on obtient une loi ET
EE (X | B) = EX
sur des espaces de probabilité générale ! Outrement dit, Kolmogorov défini l’espérance condi-
tionnelle comme l’objet qui satisfait la loi ET, et ça encore sur chaque sous-ensemble B ∈ B.
Dans le cas particulier B = σ(E1 , ..., EI ), on retrouve la loi ET somme :
∑ ∑
EX = E(X 11Ei ) = P (Ei ) E (X | Ei )
Les lois PT, ET deviennent :
∑ ∑
P (A) = P (Y = yi ) P (A | Y = yi ) = pY (y) P (A | Y = y)
y∈V
∑ ∑
E (X) = P (Y = yi ) E (X | Y = yi ) = pY (y) E (X | Y = y)
y∈V
34
Lemme 3.2 Lemme de Doob-Dynkin Soient X, Y et Z trois variables aléatoires définies
sur (Ω, A, P ), à valeurs dans (R, B (R)) respectivement. a) Si Z est σ (Y )-mesurable alors il
existe une fonction borélienne φ de R dans R telle que Z = φ (Y ) . b) Il existe une fonction
borélienne ≪Doob-Dynkin≫ ϕ de R dans R telle que E (X | Y ) = ϕ (Y ) .
L’exemple 2.4 nous illustre le cas où la variable monde est très simple, car la mesure de
Lebesgue sur [0, 1] est juste la distribution d’une variable aléatoire uniforme sur [0, 1], est la
variable Y est un mélange d’une variable discrète Y = 2 et une variable continue produite
pas une fonction injective identité. L’espérance conditionelle se construit en moyennant les
valeurs de X sur la partie discrète, et par composition des fonctions sur la partie continue.
Remarque 3.5 Le cas du conditionnement par des valeurs des variables continues
Y ou discrètes ramène aux formules usuelles, comme
∫ ∫
xfX,Y (x, y)dx
E (X | Y = y) = φ(y) = xfX/Y (x/y)dx = ∫ (3.6)
fX,Y (x, y)dx
Aussi, les lois PT et ET pour le cas quand on conditionne sur les valeurs prises par une
variable réelle discrète ou continue se réduisent aux formules bien connues :
∫
P (A) = P (A | Y = y) fY (y)dy,
y
∫
EX = E(X | Y = y) fY (y)dy
y
∑
EX = E(X | Y = yi ) P (Y = yi )
i
Exercice 3.3 Modélisation : Brzezniak Exercices 2.13 (parametriser sur [0, 1]2 ).
Exercice 3.4 Fonction de Doob-Dynkin : Brzezniak Exercices 2.7-2.9. Sol : Par (3.6),
∫
x(x + y)dx 1/3 + y/2 2 + 3y
E (X | Y = y) = φ(y) = ∫ = =
(x + y)dx 1/2 + y 3 + 6y
Nous avons vu deux cas simples où la fonction de Doob-Dynkin EX|Y = φ(Y) est calculable :
le cas (plutôt théorique) où les variables X, Y sont produites de la ≪variable monde par des
fonctions injectives, et le cas où les variables X, Y ont une distribution jointe connue.
Exercice 3.5 L’exercice 2.6 ajoute un nouveau cas : η bijective. Une approche générale
pour déterminer la fonction de Doob-Dynkin commence par fixer un ensemble infinitésimal
y + = [y, y + dy] des valeurs possibles de Y = η(w), et en suite par déterminer l’ensemble des
préimages Ady = η −1 (y+ ) = ∪Ii=1 yi+ , où I est le nombre des images inverses correspondant a
+
P [y ]
y + . En suite, on associe à chaque image inverse la mesure wi = ∑I i . Finalement,
i=1
P [yi+ ]
∑
I
φ(y) = ξ(yi )wi .
i=1
Dans l’exercice 2.6 la mesure wi est uniforme par symétrie ce qui résulte en
ξ(y/2) + ξ(1 − y/2)
φ(y) = , y ∈ [0, 1].
2
35
Ou, comme y/2 = w pour w ≤ 1/2,
ξ(w) + ξ(1 − w)
E[X|Y](w) =
2
qui est valable en effet pour tout w ≤ 1. Défi 1 : Repetons cet exercice, quand P est une mesure
nonuniforme, par exemple avec densité proportionnelle à x−1/2 § . Défi 2 (*) : Repetons cet
exercice, quand η est la fonction de Cantor.
Exercice 3.6 Brzezniak 2.14-2.15 (application de la définition de Kolmogorov), et 2.17.
Remarque 3.6 Il ne faut pas oublier que dans le cas continu, les fonctions conditionnelles
P (A | Y = y) , E(X | Y = y), f(X|Y ) (x | y) sont seulement définies p.p, et qu’ en fixant une
valeur précise pour y on peut arriver a des contradictions, comme le paradoxe de Borel-voir
(Pitman, http ://[Link]/users/pitman/s205f02/[Link] lec 15 : pour une
variable aléatoire uniforme dans le demi-cercle x2 + y 2 ≤ 1, y ≥ 0 on a
3 1
lim P [Y ≥ 1/2||θ − π/2| ≤ α] = ̸= P [Y ≥ 1/2|θ = π/2] =
α→0 4 2
où on a supposé pour la deuxième formule que PX admet une densité fX par rapport à une mesure σ-finie
µ2 sur Ω2 et que P(X,Y ) admet une densité f(X,Y ) par rapport à µ2 ⊗ µ1 où µ1 est une mesure σ-finie sur Ω1 .
36
R : Since the collections of random variables Z1 , . . . , Zk and Y1 , . . . , Yj can be both viewed
as single vector variables Y = Y1 , . . . , Yj , Z = Z1 , . . . , Zk , this is équivalent to showing that
We will only establish this for discrete random variables and in its simplest form stating that
(The apparently more general form (3.7) reduces to applying the ( 3.8) for each fixed value
Z = z.) Let us denote by px the probability that X takes a certain value x, so that E[X] =
∑
x xpx . Let us dénote by px,y the joint probabilités and
∑
by px/y the conditionnel probabilité
that X = x given that Y = y, so that E[X/Y = y] = x xpx/y . Alors,
∑ ∑ ∑
E E[X/Y ] = py E[X/Y = y] = py ( xpx/y )
y y x
∑ ∑ ∑
= xpy px/y = xpx,y = xpx
y,x y,x y
= E[X]
37
Chapitre 4
s:conv Convergence des variables aléatoires
Ind : Pour les variables aléatoires discrètes, la convergence en loi est équivalente à la conver-
gence des probabilités pn (k) = P [Xn = k].
d:loi Définition 4.1 Les variables aléatoires Xn converge en loi vers une variable aléatoire X ssi
une des trois conditions équivalentes ci-dessous est satisfaite :
1. Pour chaque fonction continue et bornée f , on a
Ef (Xn ) → Ef (X).
2. Pour chaque t ∈ R, on a
Eexp(itXn ) → Eexp(itX).
3. Pour chaque point x où FX (x) est continue, on a
ex:key Exercice 2 Soit Xn une variable aléatoire de loi uniforme sur i/n, i = 1, ..., n. Montrer
que Xn converge en loi vers X de loi uniforme sur [0, 1], par toutes les trois méthodes de
démontrer convergence en loi.
Sol : a) F̄Yn (y) = P [Xn > yn] = (1 − nλ )⌈yn⌉−1 ≈ e− n (⌈yn⌉−1) → e−λy . b) EesXn /n =
λ
∑∞ sk/n ∑
k=1 e (1 − nλ )k−1 nλ = nλ ∞k=0 (e
s/n
(1 − nλ ))k = nλ 1−es/n1(1− λ ) → λ−s
1
, ∀s c) (*) On considère
∑⌈yn⌉ ∑∞
n
Exercice 4 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi uniforme
sur [0, 1] (c.-à-d. fXn (x) = I[0,1] (x)). On pose Mn = max{X1 , . . . , Xn } pour n ≥ 1. Montrer
L
que n(1 − Mn ) −→ X et donner la fonction de répartition de X. Généraliser pour Xn de loi
arbitraire avec support [0, b].
38
Exercice 5 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi exponentielle
E(λ) où λ > 0 (c.-à-d. fXn (x) = λe−λx I(x > 0)). On pose Mn = max{X1 , . . . , Xn } pour
n ≥ 1.
a. Déterminer la fonction de répartition de Mn .
b. Montrer que
FMn −λ−1 log n (x)
convergent vers une fonction F (x), qu’on déterminera.
c. Généraliser pour le cas de Xn de loi arbitraire avec support [0, ∞), qui satisfont limx→∞ F̄ (x)
e−λx
=
k > 0.
Exercice 6 Soit (Xn )n≥1 une suite de variables aléatoires réelles de f.d.r. FXn définies par
0 si x < 0,
FXn (x) = x − sin(2πnx)
2πn
si x ∈ [0, 1],
1 si x > 1.
2.0
1.5
1.0
0.5
39
4.2 Types de convergence des fonctions en analyse :
presque partout, en moyenne, et en probabilité
Exercice 8 Soit X une variable aléatoire de loi N (0, 1). Soit Xn = (−1)n X pour n ∈ N∗ .
a. Déterminer la loi de Xn .
b. Montrer que (Xn )n≥1 converge en loi.
c. Quid de la convergence en probabilité de (Xn )n≥1 ?
EX
b ∈ I =⇒ P [X ≥ b] ≤
b
1
b > 0 =⇒ P [|X − m| ≥ kσ] ≤
k2
40
1. Soit (Xn )n ∈ Rd une suite de variables aléatoires et X ∈ Rd une variable aléatoire
définies sur le même espace de probabilités (Ω, F, P ).
On suppose que les (Xn )n convergent en probabilité vers X. Soit f une fonction continue
de IRd dans IR. Montrer que pour tout ϵ, a > 0, il existe η > 0 tel que
{|f (Xn ) − f (X)| > ϵ} ⊂ {|X| > a} ∪ {|Xn − X| > inf(η, a)}
En choisissant convenablement a, en déduire que (f (Xn ))n converge en probabilité vers
f (X).
2. Montrer que la convergence en probabilité implique convergence en loi.
Ind : Soit Cn,ϵ = {|Xn − X| ≤ ϵ}, D = {|Xn − X| > ϵ}, où
∫ n,ϵ ∫
ϵ est tq P [Dn,ϵ ] ≤ δ, et
φ(x) = eitx . E|φ(Xn ) − φ(X)| = Cn,ϵ |φ(Xn ) − φ(X)|dP + Dn,ϵ |φ(Xn ) − φ(X)|dP ≤
∫
Cn,ϵ |φ(Xn − X)|dP + 2δ. Sur Cn,ϵ , Xn − X est bornée. Utilisant le fait qu’une fonction
continue sur un intervalle borné est uniformément continue, on aurait pu choisir ϵ
aussi tq φ(z) ≤ ϵ, ∀z ∈ [0, ϵ]. Pour ce choix, E|φ(Xn ) − φ(Xn )| < 3δ → 0.
Alternativement, montrer que
∫ ∫
∀ε > 0, ∀f ∈ Cb (R), f dPXn − f dPX ≤ ε + 2||f ||∞ P(|f (Xn ) − f (X)| > ε)
R R
41
4.4 Détour d’analyse : convergence monotone et do-
minée
Théorème 4.2 a) Pour toute suite croissante fn de fonctions mesurables sur un espace
probabilisé, à valeurs dans [0, ∞], la limite f de la suite est mesurable et l’on a :
∫ ∫
lim fn (w)P (dw) = f (w)P (dw) (4.1)
n
b) Pour toute suite fn de∫fonctions mesurables sur un espace probabilisé ayant une limite
f , et tq |fn | ≤ g∀n p.p., ou g(w)P (dw) < ∞, on a convergence en moyenne vers f et en
particulier (4.1) est satisfaite.
( )n
x
Exercice 14 Est-ce que la suite an = 1 + n
est monotone en n ? Calculer
∫ n ( )n
x
lim 1+ e−2x dx.
n→+∞ 0 n
( ( ) x
)( )n
Sol : D[an , n] = log 1 + x
n
− n
x
1+ n
n+x
n
≥ 0, ∀x
Exercice 15 Soit (fn )n≥1 une suite de fonctions définies par fn (x) = n3/2 1+nx2 x2 sur [0, 1].
2.0
1.5
1.0
0.5
42
4.5 Convergence presque partout/presque sûrement et
lemme de Borel-Cantelli
Exercice 16 Soit Xn : [0, 1]− > R, Xn (x) = ⌈nx⌉
n
Montrer que Xn converge pour chaque x
vers la variable X : [0, 1]− > R, X(x) = x de loi uniforme sur [0, 1]. Redémontrer ainsi la
convergence en loi de l’exo 2.
Définition 4.2 Soit An,ϵ = {|Xn − X| ≥ ϵ}, Acn,ϵ = {|Xn − X| < ϵ}. Alors, Xn − > X
presque partout/presque sûrement § ssi
où
{Acn s.g.(pour n suffisamment grand, almost always)} := ∪∞ ∞
k=1 ∩n=k An
c
Exercice 17 1. Soit (Xn )n≥1 = 1IAn , où An sont des ensembles mesurables de l’espace
d’états [0, 1]. Soit pn = m(An ) ∈]0, 1[ pour n ≥ 1. Déterminer une condition nécessaire
et suffisante pour que Xn → 0 en probabilité.
2. Donner la loi de Xn et vérifier directement que la même condition est nécessaire et
suffisante pour que Xn → 0 en loi.
3. La condition obtenue garantit-elle la convergence presque partout de (Xn )n≥1 vers 0 ?
Ind : Considérer le cas pn = n1 , avec les ≪nuages≫ An adjacents et disjoints, et donner
la mesure de l’ensemble An i.s..
4. Supposer maintenant que les variables aléatoires Xn sont aussi indépendantes. Donner
une condition nécessaire et suffisante sur (pn )n≥1 pour avoir convergence presque sùre
p.s.
Xn −→ ∏ 0. Ind : On pourrait utiliser ∑∞ le fait qu’un produit converge dans le sens que
limk→∞ ∞ n=k (1 − p n )] = 1 ssi ssi n=1 pn < ∞.
∑ {
P [{A i.s}] = P [∩∞ ∞
n=1 ∪k=n An ] = 0 ⇐⇒
a) P [An ] < ∞ =⇒ P [{Anc s.g.}] = P [∪n=1 ∩∞
∞ c
n n k=n An ] = 1
∑
c) P [An ] = ∞ ⇐⇒ P [{An i.s.}] = P [∩∞ ∞
n=1 ∪k=n An ] = 1
n
⇐⇒ P [{Acn s.g.}] = P [∪∞ ∞
n=1 ∩k=n An ] = 0
c
§. le premièr nom a été utilisé dans la théorie de la mesure au XIX-ème siècle, et le deuxième est utilisé
aujourd’hui dans la théorie des probabilités, sous l’influence probable de ”almost surely”
43
Exercice 19 Soit (Xn )n≥1 une suite de vecteurs aléatoires à valeurs dans Rd .
a. Soit (Xn )n≥1 une suite de variable aléatoire réelles i.i.d. telle que E(X1k ) = µk pour
k = 1, 2. Déterminer la limite presque sùre de
n ( )2
1∑
Sn = Xi − X̄n .
n i=1
b. Soit (Xn )n≥1 une suite de variable aléatoire réelles i.i.d. telle que E(X1k ) = µk pour
k = 1, 2 et µ2 > 0. Déterminer la limite presque sùre de
X1 + · · · + Xn
.
X12 + · · · + Xn2
p.s.
Ind : Si Xn −→ X où X est un vecteur aléatoire à valeur dans D ⊂ Rd et f : Rd → Rk est
p.s.
continue sur D, alors f (Xn ) −→ f (X).
Exercice 20 Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi U(0, 1).
P
a. Montrer que X(n) −→ X ∼ δ1 .
p.s.
b. Montrer que X(n) −→ X ∼ δ1 .
L
c. Montrer directement que X(n) −→ X ∼ δ1 .
Exercice 21 Soit (Xn )n≥1 une suite de variables aléatoires à valeurs dans {−1, 1} telle que
P (Xn = 1) = p ∈]0, 1[\{1/2}. On appelle marche aléatoire la ligne brisée reliant les points
(n, Sn )n≥0 où Sn = X0 + X1 + · · · + Xn avec X0 = 0 pour n ≥ 0.
a. Tracer le graphe de la marche aléatoire lorsque les 10 premières observées de (Xn )n≥1
sont −1, −1, 1, 1, 1, −1, 1, −1, 1, 1.
b. On note An = {Sn = 0}. Calculer P (An ).
c. Montrer que la série de terme général P (An ) est convergente.
d. Montrer qu’avec probabilité 1, la marche aléatoire traverse l’axe des abscisses un nombre
fini de fois.
Exercice 22 Soit (Xn,1 , Xn,2 )n≥1 une suite de vecteurs aléatoires. Montrer qu’il y a équivalence
entre :
p.s.
(i) Xn,i −→ Xi pour i = 1, 2.
p.s.
(ii) (Xn,1 , Xn,2 ) −→ (X1 , X2 ).
Exercice 23 1) Montrer que si une suite converge presque partout vers une variable
Indication : si Xn → X p.s., poser
aléatoire X, alors elle converge aussi en probabilité. ∪
Bk = lim supn {|Xn − X| ≥ k1 }. Montrer que si ω ∈ / k Bk , on a lim Xn (ω) = X(ω). On
pourra aussi appliquer le théorème de convergence dominée.
2) Montrer que de toute suite de variables aléatoires convergeant en probabilité, on peut
extraire une sous-suite convergeant presque sùrement. (ind. : Si (Xn )n converge en probabilité
vers X, montrer que l’on peut construire une sous-suite (Xnk )k de (Xn )n telle que P (∥
Xnk − X ∥≥ 1/k) ≤ 1/2k et conclure par le lemme de Borel-Cantelli).
44
4.6 La δ-méthode
1. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et identiquement dis-
tribuées suivant une loi de Poisson de paramètre λ > 0.
a. Calculer E[X1 ] puis E[X1 (X1 − 1)]. En déduire µ2 = E[X12 ].
∑ ∑
Solution : E[X1 ] = k≥0 k λk! e−λ = λ k≥1 (k−1)!
λk−1 −λ
e = λeλ e−λ = λ. De même on
k
∑ ∑
obtient E[X1 (X1 − 1)] = k≥0 k(k − 1) λk! e−λ = λ2 k≥2 (k−2)! e−λ = λ2 eλ e−λ = λ2 ,
k λ k−2
45
2. Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi U(a, b) avec a < b. Soit
Sn = X1 + · · · + Xn pour n ≥ 1.
a. Déterminer la loi approchée de Sn lorsque n → +∞.
√
b. Déterminer la limite en loi n (exp(Sn /n)Sn /n − exp((a + b)/2)(a + b)/2) lorsque
n → +∞.
c. Etudier la convergence en loi de Sn3 , et déterminer la loi approchée de Sn3 lorsque
n → +∞.
46
L
d. Montrer qu’il existe une suite (αn )n≥1 telle que αn Yn −→ Y où l’on précisera les
valeurs des αn et la loi de Y . La suite (αn )n≥1 est-elle unique ?
L
Solution : αn Yn −→ ssi αn = O((n(n + 1)). Par exemple, pour αn = n(n + 1)/2,
L
P (n(n+1)Yn /2 ≤ y) = FYn (2y/(n(n+1))) = (1−exp(−y))1{y>0} , et donc αn Yn −→
Y , avec Y ∼ E(1). Ce résultat de convergence reste identique si l’on prend αn =
n2 /2, donc le choix n’est pas unique.
5. Soit (εn )n≥1 une suite de variables aléatoires indépendantes et identiquement dis-
tribuées de loi N (0, σ 2 ) où σ 2 > 0. Soit a ∈]0, 1[ et (Xn )n≥0 une suite de variables
aléatoires telle que X0 = x0 presque sùrement et Xn = aXn−1 + εn pour n ≥ 1.
a. Montrer que pour n ≥ 1
∑
n−1
n
Xn = a x0 + ak εn−k .
k=0
47
α−1
6. Soit Y ∼ γ(α, p), fY (x) = p (xp)
Γ(α)
e−px , et soit (Xn )n≥1 une suite de variables aléatoires
i.i.d. de loi N (0, 1).
(a) Déterminer la fonction génératrice des moments de Y .
(b) Déterminer la densité d’une loi du chi-deux à 1 degré de liberté. De quelle loi
gamma s’agit-il ?
∑
(c) Quelle est la loi de Yn = nk=1 Xk2 (loi du chi-deux à k ∈ N∗ degrés de liberté) ?
(d) Quelle est la limite p.s. de (Yn /n)n≥1 ? Calculer directement la limite de fYn /n (x).
√
(e) Quelle est la limite en loi de ((Yn − n)/ n)n≥1 ? En déduire une approximation
de la fonction de répartition de Yn lorsque n → +∞.
(n) (n)
(f) Soit n ≥ 1 et Z1 , . . . , Zk k variables aléatoires indépendantes de loi géométrique
(n) (n)
de paramètre 1/n. On pose Sn = Z1 +· · ·+Zk (une variable aléatoire binomiale
négative) et Un = 2Sn /n. Montrer que (Un )n≥1 converge en loi vers une variable
aléatoire U dont on déterminera la distribution.
R:
(a) mY (s) = (1 + s/p)α
1
(x/2) 2 −1 −x/2
(b) fX 2 (x) = Γ( 21 )
e /2
n
(x/2) 2 −1 −x/2
(c) fYn (x) = Γ( n )
e /2
2
n −1 n n
e−nx/2 /2 = x 2 −1 e− 2 x = x−1 e− 2 (x−1−ln(x)) ≈
n n n
(d) fYn /n (x) = n (nx/2) (n/2) 2 (n/(2e)) 2
2
Γ( n ) Γ( n ) Γ( n )
2
2 2
√ 0
x<1
n→∞
/(2π)x−1 e− 2 (x−1−ln(x)) =⇒
n
n
2
∞ x = 1.
0 x>1
7. Démonstration par Bernstein du théorème de Stone-Weierstrass. Soit (Xn )n≥1
une suite de variables aléatoires i.i.d. de loi B(x) où x ∈ [0, 1] et f : [0, 1] 7→ R continue.
On note
Sn = (X1 + · · · + Xn )/n
et pour δ > 0
ω(f, δ) = sup |f (x) − f (y)|
|x−y|≤δ
le module de continuité de f .
p.s. p.s.
a. Déterminer Pn (x) = Pn (f )(x) = E[f (Sn )] (Idée : Sn =⇒ x =⇒ f (Sn ) =⇒ f (x) =⇒
E[f (Sn )] → f (x), et les espérances E[f (Sn )] sont des polynômes Pn (x) (appellés
polynômes basiques de Bernstein). Donc, la convergence simple de Pn (x) vers f (x)
pour tout x donné est une conséquence de la loi forte des grands nombres et de la
continuité de f (x).
b. Donner une majoration de P (|Sn − x| > δ ( Cette borne servira pour en déduire la
convergence uniforme).
c. Démontrer que
lim ||Pn − f || = lim sup |Pn (x) − f (x)| = 0.
n→+∞ n→+∞ x∈[0,1]
48
d. En déduire le théorème de (Stone-)Weierstrass sur l’existence des approximations
polynômiales uniformes sur un intervalle compact arbitraire.
R: ( ) ∑
(a) Soit pk,n (x) = nk xk (1 − x)n−k . Alors Pn (x) = nk=0 f ( nk )pk,n (x).
(b) P [|Sn − x| > δ] ≤ x(1−x)
nδ 2
(c) Fixons x and δ = δ(ϵ) tq |x − y| ≤ δ =⇒ |f (x) − f (y)| ≤ ϵ
∑ ∑ ∑
|Pn (x) − f (x)| = | nk=0 [f ( nk ) − f (x)]pk,n (x)| ≤ | k:| k −x|≤δ | + | k:| k −x|>δ | ≤
n n
ϵ + 2M x(1−x)
nδ 2
=⇒ ||Pn − f || ≤ ϵ + M 2nδ
1
2 =⇒ limn ||Pn − f || ≤ ϵ =⇒ limn ||Pn − f || ≤
inf{ϵ > 0} = 0
Xn = X + 1/n, Yn = (1 − X) − 1/n
Étudier la convergence en loi des trois suites (Xn )n , (Yn )n et (Xn + Yn )n et conclure.
9. Le lemme de Slutsky donne une alternative à l’indépendance pour assurer la propriété
de convergence en loi étudiée à la première question de l’exercice précédent.
Lemme de Slutsky
Soit sur le même espace probabilisé (Ω, F, P) deux suites (Xn )n et (Yn )n de variables
aléatoires qui convergent en loi respectivement vers X et une constante y0 . 1) a) En
est total dans C0 (IR2 ) (C0 (IRk ) est l’espace des fonctions continues sur IRk tendant
vers 0 en l’infini). b) On rappelle que (Yn )n converge en loi vers une constante donc
converge en probabilité vers cette même constante (exercice 7.4.3). Soit f et g deux
éléments de C0 (IR). Montrer que
|E(f (Xn )g(Yn )) − E(f (X)g(y0 ))| ≤ ∥f ∥∞ [ϵ + 2∥g∥∞ P(|g(Yn ) − g(y0 )| > ϵ)]
+ ∥g∥∞ |E(f (Xn )) − E(f (X))|
c) Conclure.
49
10. Stabilité du caractère gaussien
Soit (Xn )n une suite de variables aléatoires gaussiennes qui convergent en moyenne
quadratique vers une variable aléatoire X. Montrer que X est une variable gaus-
sienne. (ind. : on remarquera que la convergence en moyenne quadratique implique
la convergence en loi, on passera aux fonctions caractéristiques et utilisera le théorème
de convergence de Lévy.)
50
Chapitre 5
Processus et champs aléatoires, en
temps discret et continu
L’espace I est souvent le temps, ainsi : I = N : instants successifs à partir d’un instant
initial t0 . I = Z : instants successifs avant et après un instant t0 . I = R ou R+ : idem
mais processus à temps continu. I = Z2 : images. I = Z3 : modèle de la matière. Nous
allons considérer ici surtout des processus à indices unidimensionnels, à temps discret N, Z
ou continu R (les premièrs deux cas étant appelés aussi séries chronologiques en statistique).
L’étude est facilitée alors par l’existence d’un ordre complet entre les indices.
Dans le cas des espaces d’états E finis ou dénombrables, les variables Xi , i ∈ I sont
appelées discrètes ; pour E = Rd , on étudie surtout des variables continues ou hybrides.
Le cas discret est le plus simple, car il permet d’éviter plusieurs détails techniques (par
exemple, dans ce cas, l’ensemble des événements mesurables pour une variable Xi0 est sim-
plement l’ensemble de toutes les parties de E).
Pour modéliser un champ/processus il est nécessaire de spécifier de manière consistante
l’ensemble de toutes ses distributions jointes d’ordre fini.
Les processus les plus simples sont les processus à variables i.i.d. Le cas particulier des
variable aléatoire avec un nb. fini des valeurs mérite une mention à part.
51
Définition 5.3 La famille des processus i.i.d. inclue les processus à variables Xt ∈ {1, 2, ...K}, t ∈
Z, avec Xt i.i.d. ayant une loi discrète p = (p1 , p2 , ..., pJ ) qu’on peut voir comme des résultats
X0 , X1 , ..., Xt ... des jetées d’un dé ou d’une monnaie biaisée, avec un nb fini des
faces. Dans ce cas, les lois jointes sont simplement des produits de la loi marginale p.
Dans le cas opposé se situent les processus avec ”memoire longue” pour les quelles
un nombre infini des paramètres sera nécessaire pour specifier les lois jointes. Pour une
modélisation pratique, nous allons considerer ici que des processus ayant la propriété de
Markov – voir chapitre ??, qui fournissent souvent un compromis acceptable, joignant le
réalisme avec la simplicité de modélisation (voir en particulier, les marches aléatoires/sommes
des variables i.i.d.)
52
Chapitre 6
Les marches aléatoires/sommes des
ch:MA variables i.i.d.
Motivation : Les marches aléatoires sont parmi les modèles probabilistes les plus utiles
(par exemple en physique, mathématiques financières, files d’attente, statistique, etc.). Ils
sont aussi parmi les modèles les meilleurs compris, car ils permettent souvent des solutions
analytiques.
Définition 6.1 Marches aléatoires sur Rd . Soit (Zn )n∈N une suite de variables aléatoires
réels i.i.d (c.-à-d. indépendantes et de même loi), à valeurs en Rd . Le processus Xn ∈ Rd , n =
0, 1, ... donné par la somme de ces variables
Xn = X0 + Z1 + Z2 + · · · + Zn , n∈N (6.1)
s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut etre définie
récursivement par la récurrence
Xn = Xn−1 + Zn (6.2)
Exemple 6.1 Marches aléatoires sur Zd Typiquement, on s’intéresse au cas où l’espace
d’états est un maillage régulier comme Zd , c.-à-d. X0 , Zn ∈ Zd ont une loi discrète p =
(pi , i ∈ Zd ) (dans ce cas, nous avons à faire à une chaı̂ne de Markov à espace d’états
dénombrable).
Exemple 6.2 Si en plus |Zn | = 1, c.-à-d. pi ̸= 0 ssi i est un voisin de l’origine, le processus
(6.1) est appelé une marche aléatoire simple.
Exemple 6.3 Pour une marche aléatoire simple en dimension d = 1, la loi de Zn est de la
forme pδ1 + (1 − p) δ−1 , c.-à-d. P [Zn = 1] = p et P [Zn = −1] = 1 − p avec 0 < p < 1. Si
p = q = .5 on parle d’une marche aléatoire symétrique, et avec p ̸= q on parle d’une
marche aléatoire biaisée.
Notes : 1) On a à faire ici à des sommes des variable aléatoire i.i.d.. Donc, P n (0, :) la loi
∑
de la somme ni=1 Zi , est donnée par la n-ième convolution de la loi p de Zi (et la fonction
génératrice des moments est la puissance n de la fonction génératrice des moments de p).
Le comportement des puissances P n pour n → ∞ est lié au théorème de la limite centrale.
53
6.1 Moments et cumulants des marches aléatoires
Exercice 6.1 Les moments et cumulants de la marche simple. Soit Xn = Z1 + Z2 +
· · · + Zn le capital au temps n d’un joueur. Au temps n = 1, 2, ..., le joueur gagnera Zn = 1
avec probabilité p et perdra Zn = −1 avec probabilité 1 − p, où 0 < p < 1. Calculez :
1. L’espérance du son gain en = EXn .
2. La variance du son gain vn = Var Xn .
3. La fonction génératrice des moments M (u, n) = EeuXn .
4. La fonction génératrice des cumulants κ(u, n) = log(EeuXn ).
5. La fonction génératrice des cumulants κ̃(u, n) = log(EeuX̃n ) de la variable ≪norma-
lisée≫ X̃n = X√n −e
vn
n
Remarque 6.1 Il est clair que ces propriétés de linéarité (de l’espérance , de la variance,
et de la fonction génératrice des cumulants), sont vraies pour chaque marche aléatoire.
Exercice 6.2 Soit mn = mn (X), n = 0, 1, 2, ... les moments d’une variable aléatoire X, soit
∑ n ∑ n
κX (u) = log MX (u) = log( n un! mn ) = n un! cn (X) la fonction génératrice des cumulants,
n κ(u)
où cn = cn (X) = ∂(∂u) n sont les cumulants. Montrez (en utilisant éventuellement un
u=0
logiciel symbolique) que
Nt : 1) Le cumulant d’un ordre donné est un polynôme dans les moments d’ordre plus
petit ou égal, et réciproquement. 2) Les coefficients de l’expansion des moments en fonction
des cumulants sont donné par des nombres des partitions (de Stirling). 3) Les cumulants
d’une variable centrée (m1 = 0) coı̈ncident avec les moments jusqu’au troisième ordre. C’est
le quatrième cumulant, la ≪kurtosis≫, donné dans le cas centré par c4 = m4 − 3m22 , qui joue
un rôle important dans certains tests statistiques (comme de nonnormalité, par exemple).
Exercice 6.3 Pour la marche simple, calculez
1. Le premier, deuxième et troisième cumulants κi (n),
∑
i = 1, 2, 3 de Xn , c.-à-d. les pre-
miers trois coefficients dans l’expansion κ(u, n) = i κi (n)ui en puissances de u.
2. Le deuxième moment de Xn . Quelle est la particularité du cas p = 1/2 ?
3. Le troisième moment de Xn .
Un des pb les plus anciens des probas a été d’établir que la répétition d’un expériment
(comme la jetée d’une monnaie) un grand nb des fois dévoile sa moyenne), et que l’ histo-
gramme (loi) des déviations de la moyenne converge vers ≪la courbe en cloche de Gauss≫.
Cette loi fondamentale est l’objet de la Section ??.
54
s:CLT 6.2 La démonstration du théorème de limite centrale
La démonstration du théorème de limite centrale a pris des siècles, avant d’arriver à la
forme fuselée d’aujourd’hui.
Question 2 Pourquoi la loi normale ?
Exercice 6.4 1. Montrer que la fonction génératrice des moments de la variable normale
est 2
EeuN0,v = evu /2 .
Remarquer le fait que la loi normale est caractérisée
( par)le fait que tous ses cumulants
uN0,v
(les coefficients du développement limité de log Ee ) d’ordre plus grand que trois
sont nuls.
2. Calculer les premiers quatre moments de la loi normale directement par le développement
2
limité de la fonction génératrice des moments evu /2 , ou à partir des cumulants, en uti-
lisant les formules
Series[Exp[κ1u + κ2 u2 /2 + κ3 u3 /6 + κ4 u4 /24], u, 0, 4]
Series[Log[1 + m1 u + m2 u2 /2 + m3 u3 /6 + m4 u4 /24], u, 0, 4]
55
fonctions φ(u) = eux , u ∈ C. Mais, l’absence des moments de X variable aléatoire entraı̂ner
le manque de différentiabilité de la fonction EeuX autour de u = 0, et demande un travail très
précis d’analyse dans ce voisinage. On est finalement sauvé par les fonctions caractéristiques
ϕX (t) = EeitX , t ∈ R, qui sont essentiellement des restrictions des fonctions génératrices des
moments au sous-domaine u ∈ iR, ≪où il est facile de les dominer≫. Il s’avère finalement que
la convergence en loi est équivalente à celle des fonctions caractéristiques – c’est le résultat
fondamental de ce domaine. L’exercice prochain sera utile pour le développement limité des
fonctions caractéristiques qui offre la voie la plus simple pour démontrer le théorème de
limite centrale
ex:c Exercice 24 Montrer que
∏ ∏ ∑
1. |zi | ≤ 1, |wi | ≤ 1 =⇒ | i zi − i wi | ≤ i |zi − wi |
2. c > 0 =⇒ limn→∞ (1 − c
n
+ o( n1 ))n − (1 − nc )n = 0, limn→∞ (1 − c
n
+ o( n1 ))n = e−c
Exercice 6.6 Démontrer le théorème de limite centrale en supposant que EZi3 < ∞.
Remarque 6.3 On verra que l’hypothèse EZi3 n’est pas finalement nécessaire pour le CLT,
car il existe une meilleure majorization de r(x) – voir Lemme 6.1.
2 ∫ 3 iu 3
Ind : eix − (1 + ix − x2 ) = r(x) = 0x (x − u)2 i e2 du, |r(x)| ≤ min[x2 , x6 ] (admis) Il suit que
le premier intégral dans la Lemme 6.1 converge vers 0 par convergence dominée (par x2 ), et
le deuxième intégral converge vers 0 par l’existence du deuxième moment.
Remarque 6.4 En généralisant cet argument on trouve que dans la présence des n mo-
2 (it)n
ments, il suit que |φX (t) = (1 + itEX − t2 E(X 2 )... + (n−1)! E(X n )) + o(tn )
56
Chapitre 7
Problèmes de premier passage des
marches aléatoires et relations de
récurrence
57
1. La puissance de la méthode du conditionnement sur le premier pas.
2. Une méthode générale pour le calcul des espérances pour les chaı̂nes de Markov, qui
ramène aux systèmes linéaires avec une inconnue pour chaque état initial pos-
sible. Les marches aléatoires sont des cas particuliers des chaı̂nes de Markov § .
3. Les systèmes associés avec un processus fixe impliquent toujours la même partie ho-
mogène appelée ≪opérateur≫. Dans le cas des chaı̂nes de Markov en temps discret
et à espace d’états fini ou dénombrable, l’ opérateur est la matrice P − I, où P est
la matrice de transition P . Plus précisément, la matrice P de la marche symétrique
(absorbante) pour B = 4 est
1 0 0 ... ...
..
1 0 1 .
2 2
1 1
0 0 0
2 2
.. ..
. . 1
0 1
2 2
.. ... ...
. 0 1
et on vérifie facilement que l’opérateur P − I agit sur un vecteur ⃗v = (v0 , ..., v4 ) par la
formule (P − I)⃗v = (0, v0 +v
2
2
− v1 , v1 +v
2
3
− v2 , ..., vn−1 +v
2
n+1
− vn , ..., 0).
Ces idées seront approfondies dans les chapitres suivants, où nous regarderons quelques autres
problèmes résolubles par le conditionnement sur le(s) premier(s) pas.
58
décide de s’arrêter de jouer dès qu’il aura B francs en poche, ou dès qu’il n’a plus d’argent.
Pour tout n ∈ N, on note Xn la fortune du joueur au bout de n parties, et X0 = i représente
sa fortune à l’entrée dans le Casino. On dénotera par Ei l’espérance en commençant de i
(conditionnant sur X0 = i), et on désigne par E l’événement que le joueur gagne, c.-à-d.
E = {xT = B} = [∃n ∈ N tel que Xn = B, Xi > 0, i = 1, ..., n − 1] . Pour tout i de {0, ..., B},
on pose :
bi = P (E | [Xt0 = i]) .
1. Quelles sont les valeurs de b0 et bB ?
2. Montrer que :
∀ i ∈ {1, ..., B − 1} , bi = p bi+1 + q bi−1 (on rappelle que q = 1 − p).
3. Obtener une expression explicite de bi pour tout i de {1, ..., B} . Indication : Remarquez
que la solution satisfaisante b0 = 0 est de la forme :
{
k (1 − ( pq )i ) quand p ̸= q
bi =
ki quand p = q
et déterminer k tq la condition frontière de bB soit satisfaite.
4. Pour tout i de {0, ..., B} , on pose ri = P (F | [X0 = i]) où F est l’événement ≫ ’le
joueur repart ruiné≫’ . En procédant comme auparavant, montrer que :
i B
( pq ) −( pq )
si p ̸= 1
q B 2
1−( p )
ri =
B−i 1
B
si p = 2
Pour tout i de {0, ..., B} , calculer ri + bi . Que peut-on en déduire ? Calculez les proba-
bilités de ruine quand B → ∞, pour p > q et pour p ≤ q. Expliquez la relation avec le
comportement de Xt , t → ∞.
5. Obtenez un système d’équations pour l’espérance du gain final fi = Ei XT . Calculez
cette fonction pour p = q.
6. Obtenez un système d’équations pour l’espérance du temps de jeu : ti = Ei T. Calculez
cette fonction, pour p = q, et pour p < q, quand B → ∞.
7. Obtenez
∑T−1
un système d’équations pour l’espérance du ≪coùt cumulé d’inventaire≫ ci =
Ei t=0 Xt . Calculez cette fonction, pour p = q, et pour p < q, quand B → ∞.
∑
8. Obtenez un système d’équations pour wi = Ei aT = k=0 Pi [T = k]ak (qui est la fonction
génératrice des probabilités Pi [T = k]). Calculez cette fonction, pour p ̸= q.
Analyser le cas B = ∞, p = q, et vérifier les probabilités P1 [T0 = k], k = 1, 2, 3.
9. Obtenez les équations de récurrence et les conditions
∑
frontière satisfaites par ux =
Ex aT g(XT ), a ∈ (0, 1) et par vx = Ex [aT g(XT ) + T−1t=0 h(X t )], a ∈ (0, 1).
59
1. La puissance de la méthode du conditionnement sur le premier pas.
2. Le calcul des espérances pour les chaı̂nes de Markov comporte des systèmes linéaires
avec une inconnue pour chaque état initial possible.
3. Les systèmes associés avec un processus fixe impliquent toujours la même partie ho-
mogène appelée ≪opérateur≫. Dans le cas des chaı̂nes de Markov en temps discret
et à espace d’états fini ou dénombrable, l’ opérateur est ≪essentiellement≫ la matrice
P − I, où P est la matrice de transition P . Plus précisément, la matrice P de la chaı̂ne
de Markov (absorbante) associée est
( )
1 0 . . . ...
Ces idées seront approfondies dans les chapitres suivants, où nous regarderons quelques
autres problèmes résolubles par le conditionnement sur le(s) premier(s) pas. En plus, ils se
regrouperont en deux types de questions :
1. ”Gain final espéré”, satisfaisant :
∑
T−1
fn = En [ h(Xi )] = h(n) + pfn+1 + qfn−1 ⇐⇒ (Gf)n = 0, f(0) = 0, f(B) = 0
0
Solution :
1. b0 = 0, bB = 1
2. Gain final espéré, g(x) = 1x=B . En conditionnant, on trouve :
bn = Pn [X(T ) = B]
= p Pn [X(T ) = B/X(1) = n + 1] + q Pn [X(T ) = B/X(1) = n − 1]
= p bn+1 + q n−1 1 ≤ n ≤ B − 1
car
bn+1 bn−1
bn = + for any 1 ≤ n ≤ B − 1
2 2
bB = 1
b0 = 0
60
La méthode de résolution des équations de récurrence homogènes à coefficients constants
commence en cherchant des solutions de la forme bn = rn . Si les racines de l’équation
auxiliaire sont distinctes, la solution générale est :
bn = k1 r1n + k2 r2n
où k1 , k2 sont déterminées en utilisant les conditions frontière. Ici, cherchant des so-
lutions puissances rx ramène à l’équation r2 − 2r + 1 = 0 à deux racines identiques
r1,2 = 1. La solution générale est bx = A+Bx. Les conditions frontière donnent bx = Bx .
1−(q/p)n
Solution finale si p ̸= q : bn = 1−(q/p) B.
(C’est aussi une fonction ≪harmonique≫, mais avec conditions frontière différentes.)
6. tx = Ex [T ] (temps de sortie espéré) est un coùt total accumulé espéré (obtenu en
prenant h(x) = 1), qui satisfait le système inhomogène Gt(x) + 1 = 0, t(0) = 0, t(B) =
0. Pour p = q
tx+1 tx−1
tx = + + 1 for any 1 ≤ x ≤ B − 1
2 2
tB = 0
t0 = 0
tx = tp (x) + h(x)
où tp (x) est une solution particulière et h(x) est la solution générale de l’équation ho-
mogène. Commençons par l’équation homogène. La solution générale homogène (≪fonc-
tion harmonique≫) h(x) = A+Bx pour cet opérateur a été déjà obtenue ci-dessus. Nous
aimerions maintenant trouver une solution particulière tp (x) de l’équation Gtp (x) = −1
de la même forme que la partie nonhomogène −1 de l’équation, donc , tp (x) = C;
mais comme les constantes, et puis aussi les fonctions linéaires vérifient l’équation
homogène Gtp (x) = 0, nous devrons modifier deux fois cette forme en multipliant
par x, en arrivant donc à t( x) = Cx2 . Comme Gx2 = 2x(p − q) + 1 = 1, on trouve
61
C = −1 et finalement la solution particulière tp (x) = −x2 . La solution générale est
donc t(x) = −x2 + A + Bx et les conditions frontière ramènent à tx = x(B − x). Pour
p ̸= q
tx = ptx+1 + qtx−1 + 1 for any 1 ≤ x ≤ B − 1
tB = 0
t0 = 0
La solution générale homogène avec p ̸= q est h(x) = k1 (q/p)n + k2 et le terme non-
homogène 1 suggère une solution particulière constante , k, mais comme ça satisfait
1
l’équation homogène, on modifie à kn. Finalement, k = q−p . La solution particulière
est tp (x) = q−p ; elle satisfait déjà tp (0) = 0. La partie homogène h(x) = tx − tp (x)
x
devra aussi satisfaire h(0) = 0 et donc elle sera de la forme h(x) = Ah̃(x) où
h̃(x) = ((q/p)x − 1). En demandant que tn = q−p n
+ A(q/p)n − 1) satisfait la condition
frontière tB = 0 on trouve :
h̃(n) n B (q/p)n − 1
tn = tp (n) − tp (B) = − .
h̃(B) q − p q − p (q/p)B − 1
∞
si p > q
La limite quand B → ∞ est tn = ; on peut aussi obtenir
tp (n) = si p < q n
q−p
ce résultat en utilisant l’approximation détérmiste Xn − X0 ∼ nE(Z1 ), appelée aussi
limite fluide.
∑
7. cx = Ex [ T0 −1 X(t)] (coùt total d’inventaire espéré) satisfait le système inhomogène
Gc(x) + x = 0, c(0) = 0, c(B) = 0. Pour p = q :
cx+1 cx−1
cx = + + x for any 1 ≤ x ≤ B − 1
2 2
cB = 0
c0 = 0
Une solution particulière est cp (x) = −x3 . Finalement, on arrive à c(x) = x(B 3−x ) .
3 2 2
x2
Pour p ̸= q, une solution particulière est cp (x) = 2(q−p) (elle satisfait déjà cp (0) = 0).
La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = Ah̃(x) où h̃(x) =
((q/p)x − 1). En demandant que cn = cp (n) + A(q/p)n − 1) satisfait la condition
frontière cB = 0 on trouve :
h̃(n)
cn = cp (n) − cp (B)
h̃(B)
∞ si p > q
La limite quand B → ∞ est cn = .
cp (n) si p < q
√
a−1 ± a−2 −4pq
8. On arrive a w(x) = A1 z1x + A2 z2x , où zi = 2p
sont les racines de pz 2 − a−1 z +
z1x −z2x +(z1B z2x −z2B z1x )
q = 0, et Ai satisfont A1 z1B + A2 z2B = 1, A1 + A2 = 1 et w(x) = z1B −z2B
=
z1x (1−z2B ) z2x (1−z1B )
z1B −z2B
− z1B −z2B
62
√ √
Quand B = ∞, w(x) = z2x . Si p = q, z2 = a−1 − a−2 − 1 = a−1 (1 − 1 − a−2 =
1
2
a+ 18 a+ 32
2 5
a . In particulier, w(1) donne les probabilités P [T1 = 1] = 12 , P [T1 = 3] = 18 ,
...
9. On a ux = g(x), pour x ∈ {0, B}, et le conditionnement donne la relation : ux =
Ex [aT g(Xτ )] = a(pux+1 + qux−1 ). vx = g(x), pour x ∈ {0, B}, et le conditionnement
donne la relation : vx = a(pvx+1 + qvx−1 ) + h(x).
Conclusion : Nous avons vu dans cet exercice une des idées les plus importantes de la
modélisation Markovienne : les espérances, vues comme fonctions de l’état initial,
satisfont certaines équations qui font toujours intervenir un opérateur associé
fixe, appelé générateur du processus, même que les conditions frontière, termes
non homogènes, et d’autre ≪détails≫ (comme la présence/absence d’un multiple
de l’opérateur identité) peuvent varier. Les équations s’obtiennent facilement par la
méthode de conditionnement sur le premier pas, en utilisant la propriété de l’oubli du passé
des processus de Markov ; mais, il y a des parties spécifiques à chaque problème, qui ne sont
pas oubliées ! Il s’avère que les mêmes équations décrivent la solution des problèmes analogues
pour toutes les chaı̂nes de Markov à espace d’états comptable, et avec des états absorbants
– voir la prochaı̂ne section. Par exemple, pour les chaı̂nes de Markov, l’opérateur associé
est G = P − I, où P est la matrice de transition, et pour le cas particulier d’une marche
∑
aléatoire Xt = ti=1 Zi avec pk = P [Zi = k], k ∈ [−c, d] on a encore G = P − I, où P =
∑
k pk F et F est l’opérateur de translation (F f )k = fk+1 , k ∈ Z. Alors, nous obtiendrons des
k
équations similaires pour les problèmes respectifs, juste en remplaçant l’ancien opérateur par
le nouveau. On rencontre la même situation pour toute la classe des processus ≪de Markov≫,
Xt , différents qu’elles soient, vivant sur des espaces S considérablement plus compliqués,
la seule différence étant que l’opérateur GX : F (S)− > F (S) associé a ces processus sera
plus compliquée ! Par exemple, les problèmes de cette section ont aussi des versions à espace
d’états continu, obtenu en considérant des marches avec incréments infinitésimaux ϵ, et
en prenant la limite E → 0. La marche aléatoire devient ainsi un processus avec chemins
continus, appelé mouvement Brownien. Les équations resteront les mêmes, seul l’opérateur
G changera (dans un opérateur différentiel). En conclusions, il existe une correspondance
un á un entre les processus de Markov et une certaine classe des opérateurs déterministes
associés ; nous l’appellerons ≪Le Dictionnaire≫.
63
que 1 impose une récurrence
ψn = ρψn−1 , ρ = Pn [Tn−1 < ∞].
La fonction ψn est donc multiplicative en n, c.-à-d. ψn = ρn , avec un ρ déterminé par
l’équation caractéristique ; par ≪miracle≫, il y aura toujours exactement une solution satis-
faisant ρ ∈ (0, 1). On choisira en suite ρ = 1 ou ρ < 1, selon l’espérance des sauts (qui
détermine la limite de Xn quand n → ∞). Mais, cette approche ne résout pas le cas des
marches ≪qui sautent≫ parfois en bas. Dans ce cas, la solution n’est plus simplement une
puissance, mais une combinaison linéaire des puissances. Le ≪miracle≫ se répète : il y aura
toujours exactement autant des solutions satisfaisantes |ρ| ∈ (0, 1) qu’on aura besoin pour
satisfaire toutes les conditions frontière (en bas) nécessaires.
Exercice 7.2 Calculer les probabilités de ruine ψx , x ∈ { N, pour une marche sur les nombres
}
8 1 1
naturels, avec la distribution de chaque pas donné par : p1 = 10 , p−1 = 10 , p−2 = 10 . Mon-
trer qu’elles sont positives.
8 1
R : La moyenne est m1 = 1/2 > 0. Les probabilités de ruine satisfont ψx = 10 ψx+1 + 10 ψx−1 +
1
ψ , x ∈ N. Elles sont des combinaisons de puissances ρx , avec ρ une racine de
10 x−2
8 3 1 1 8 2 1 8
ρ − ρ2 + ρ + = (ρ − 1)( ρ2 − ρ − ) = (ρ − 1)(ρ − 1/2)(ρ + 1/4)
10 10 10 10 10 10 10
1 x −1 x
ψx = A1 ( 2 ) + A2 ( 4 ) satisfait ψ0 = ψ−1 = 1 ssi A1 = 5/6, A2 = 1/6. Les probabilités de
ruine sont : ( ) ( ) ( )
5 1 x 1 1 x 5 1 x
ψx = + − ≈
6 2 6 4 6 2
{ }
Exercice 7.3 Calculer les probabilités de ruine pour une marche avec p2 = 38 , p1 = 18 , p−1 = 1
2
64
7.4 Marches aléatoires sur les espaces d’états dénombrables
Rappelons qu’un état i est appelé transient ssi sa probabilité de retour Pi satisfait Pi < 1,
ou si l’espérance du nb. des visites dans ce point (qui a une distribution géométrique) satisfait
Ni = 1/(1−Pi ) < ∞. Dans le cas contraire, état est appelé récurrent. Pour la marche aléatoire
simple sur Z, il est facile de calculer P = 2 min(p, q) ; en conclusion, il y a récurrence ssi p = q.
On vérifie facilement que le temps espéré de retour est ∞ (ce cas peut apparaı̂tre seulement
sur les espace d’états infinis, et s’appelle nul récurant). Dans le cas, appelé récurrent positif,
des marches récurrentes avec temps espérés de retour Ei < ∞, on peut vérifier que la
distribution stationnaire est πi = Ei−1 . Pour la marche simple, on peut aussi calculer N par
la décomposition
∞ ∞
( )
∑ ∑ 2k
N= P [S2k = 0] = (pq)k = 1/(1 − 4pq)1/2 = |2p − 1|−1 = |p − q|−1 .
k=0 k=0 k
Le résultat est obtenu en vérifiant le quotient des termes consécutifs dans la série ci-dessus ;
1/2
on aperçoit alors qu’on a à faire avec la série hypergéométrique 1 F0 [− ; −4pq] = (1−z) 1
1/2
(ce genre des sommes ont des formules explicites, qu’on peut découvrir facilement avec un
logiciel symbolique, assez souvent) 1 . Rm : La dernière expression est valable aussi pour la
marche paresseuse avec p + q < 1.
Exercice 7.5 1. On considère une pièce non équilibrée que l’on lance un nombre indéterminé
de fois. La probabilité d’obtenir pile est p ∈]0, 1[, et la probabilité de sortir face est égale
à q = 1 − p. Les lancers sont indépendants. On note N le temps d’attente du premier
pile, c’est-à-dire le nombre de lancers qu’il faut effectuer pour obtenir le premier pile, en
incluant le pile (N ∈ {1, 2, ...}). Par exemple, si X1 = F, ...Xj−1 = F et Xj = P, j ≥ 1,
la valeur de N est j. Dessinez l’arbre de toutes les possibilités pour cet expériment.
2. Calculez pk = P [N ] = k, k = 0, .... Quelle est la loi de N ? Calculez le premier moment
m = EN.
3. Formuler une équation pour le premier moment m = EN par la méthode du condi-
tionnement sur le premier pas, et la résoudre § .
∑∞
1. On
∑∞peut aussi −1 utiliser la représentation Pk = Coef (0, EzSk ). On trouve N = k=0 Coef (0, EzSk ) =
Coef(0, k=0 (pz + qz )k ) = Coef(0, z−pzz2 −q ) = Coef(0, p−q 1 1
( 1−z − 1−pz/q
1
)) = ..., ou l’inversion de la
transformée de Fourier. Cette méthode aboutit aussi en deux dimensions, en ramenant à des intégrales
elliptiques
§. on utilise la relation L(N |X1 = F ) = L(1+N ), qui est une conséquence de la décomposition ≪premier
pas + le reste≫ N = 1 + N ′ et du fait que les distributions conditionnées par le premier pas du ≪reste≫ N ′
sont connues : a) (N ′ |X1 = P ) ≡ 0 et b) L(N ′ |X1 = F ) = L(N ) par le fait que la seule différence entre
les réalisations possibles de N ′ et ceux de N est le moment ≪de départ de la montre≫, qui n’affecte pas la
distribution d’une chaı̂ne homogène
65
4. (*) ≪Mieux
∑
que les moments :≫ Trouvez la fonction génératrice des probabilités p∗N (z) =
EzN = ∞ k ′
k=0 pk z , et déduisez l’espérance EN (en calculant φ (1)), et aussi EN .
2
5. Trouvez l’espérance m2 = EN2 du nombre des essais jusqu’à ce qu’on obtient deux
piles consécutives, en incluant les deux derniers résultats. Ind : Sauf m2 , il faudra
trouver en même temps m1 = E1 N(2) du nombre des essais jusqu’à ce qu’on obtient
deux piles consécutives, à partir du moment qu’on a obtenu la première.
′
6. (*) Calculer les probabilités P [N (2) = k], k = 0, 1, 2, ..., à partir d’une récurrence qu’on
′
détérminera. Calculer la fonction génératrice des probabilités p∗N (2)′ (z), où N (2) est le
nombre des essais jusqu’à ce qu’on obtient deux piles consécutives, en excluant les
deux derniers résultats.
7. Reabordez pour k = 3 la question du premier moment EN(3) .
8. (*) Reabordez pour k = 3 les questions des probabilités et de la fonction génératrice des
probabilités φ∗N (k)′ (z) (où la dernière variable représente le nombre des essais jusqu’à
ce qu’on obtient k piles consécutives, en excluant la suite finale).
9. Trouvez l’espérance m̃ du nombre des essais jusqu’à ce qu’on obtient pile-face-pile,
en incluant les trois derniers résultats.
Solutions :
1. L’espace des expérimentés se décompose en : E = {P, F P, F F P, F F F P, ...} = {P } ∪
F (E). En représentant l’espace comme un arbre, on trouve une branche avec une seule
feuille {P }, et une branche qui est identique a l’ arbre initial, après avoir enlevé la
feuille initiale {F }. Remarquons cette structure récursive, qui est la clef du pb !
2. Les probas sont pk = pq k , k = 0, 1, .... On a à faire avec une distribution bien connue
(la géométrique ! !).
3. Il est quand même intéressant de remarquer que l’espérance peut aussi se calculer par
un conditionnement sur le premier pas :
q§
m = p × 0 + q(1 + m) ⇔ m =
p
′
Note : Pour l’autre définition d’une variable géométrique N (1) := N + 1 ∈ {1, 2, ...}
(en incluant la première face), on obtient par le résultat précédent
1
n := EN (1)+1 = E(N + 1) = ,
p
ou encore par conditionnement sur le premier pas :
n = E[N (1)+1 ] = P[X1 = P ]E[N (1)+1 |{X1 = P }] + P[X1 = F ]E[N (1)+1 |{X1 = F }]
= P[X1 = P ]1 + P[X1 = F ](1 + E[N (1)+1 ]) = p ∗ 1 + q ∗ (1 + n) = 1 + q ∗ n
§. Cela est une conséquence de la décomposition ”premier pas + le reste”
N1 = 1 + N ′
et du fait que les distributions conditionnées par départ du ”reste” sont connues : a) (N ′ |X1 = P ) ≡ 0 et
b) L(N ′ |X1 = F ) = L(N1 ) par la proprieté de Markov (oubli du passé), et par le fait que la seule difference
entre les réalisations possibles de N ′ et ceux de N1 est le moment ”de départ de la montre”, qui n’affecte
pas la distribution d’une chaı̂ne avec matrice de transition stationnaire.
66
4. (*) La méthode des fonctions génératrices des probabilités pN (z) = Ez N consiste en
remplacer chaque terme de l’espace des expériments E = {P, F P, F F P, F F F P, ...} =
{P } ∪ F (E) par pnb.P q nb.F z nb.F +nb.P (avec nb.P = 1). Observons qu’en rajoutant tous
les termes avec nb.H + nb.T = n, on obtient précisément pn z n , et donc la somme totale
∑
est la fonction génératrice des probabilités φ(z) = n pn z n . En exploitant la structure
pz
récursive, qui implique la décomposition p(z) = pz + qzp(z), on trouve p(z) = 1−qz .
′ 1
Finalement, EN = φ (1) = p . Rem : La méthode des fonctions génératrices (qui
n’est pas vraiment nécessaire dans cet exercice simple) s’avère une des méthodes les
plus puissantes pour les espaces d’états infinis.
5. Méthode A de décomposition. Cherchons une décomposition de l’espace des
expériments :
E = F (E) ∪ P (E1 )
où on a dénoté E1 l’arbre de toutes les expérimente pour arriver a deux piles, en partant
d’une pile. Cette décomposition donne m2 = q(1 + m2 ) + p(1 + m1 ). Finalement, la
décomposition
E1 = F (E) ∪ {P P }
donne m1 = q(1 + m2 ) + p(1 + 0)
6. Les probabilités pk sont moins évidentes à obtenir. Ind : Utilisons la chaı̂ne de Markov
associé sur l’espace E = {0P, 1P, 2P }, avec état absorbant 2P . p0 = p2 , p1 = qp2 , p2 =
q 2 p2 , p3 = qp2 + pqp1 , ...pn = qpn−1 + pqpn−2 , ∀n ≥ 3. On trouve √ainsi une récurrence
q± q(4−3q)
à coefficients constants, qui donne pn = C+ λn+ + C− λn− , λ± = 2
. Le système
p 2 (q−λ ) p2 (λ −q)
C+ + C− = p2 , C+ /λ+ + C− /λ− = 0 donne C+ = λ+ −λ−− , C+ = λ+ −λ +
−
. On peut
′ ∑
trouver la même réponse à partir de la pgf p(z) = Ez N 2) = pnb.P q nb.F z nb.F +nb.P −2
(
(avec nb.P = 2), qui satisfait p(z) = qzp(z) + pqz 2 p(z) + p2 . On trouve
p2 C+ C−
= + .
1 − qz − pqz 2 1 − z/λ+ 1 − z/λ−
67
q(1+2p+3p2 )+3p3
événements donne : n = q(n + 1) + pq(n + 2) + p2 q(n + 3) + 3p2 ⇔ n = p3
=
1+p+p2 1+p+p2 +pk−1
p3
On devine que pour k piles consécutives, le résultat sera pk
.
Méthode C en utilisant un processus de Markov qui retient l’information
minimale nécessaire pour décider si l’événement désiré a eu lieu. Ici, ca
demande a inclure l’état final désiré, ainsi que tous ses préfixes.
Pour k = 3, on utilise une chaı̂ne de Markov sur l’espace {0P, 1P, 2P, 3P }, avec état
absorbant 3P (X(t) = nP signifie ici que la suite observée au temps t contient exacte-
ment n piles à la fin. Pour illustrer, voilà un exemple d’un expériment possible et de
l’évolution associée pour la chaı̂ne de Markov
( )
P F F P F P P P
0 1 0 0 1 0 1 2 3
q p 0
Soit Q = q 0 p la matrice des transitions entre les états transients 0, 1, 2. Le
q 0 0
vecteur m des trois espérances inconnues m = (x0 , x1 , x2 ) satisfait m = 1 + Qm =⇒
m = (I − Q)−1 1. La réponse est
1 1+p 1 + p + p2
x2 = , x 1 = , x 0 =
p3 p3 p3
8. Utilisons la chaı̂ne de Markov sur l’espace {0P, 1P, 2P, 3P }, avec état absorbant 3P .
Soit Q la matrice des transitions entre les états transients 0, 1, 2. Le vecteur φ des
fonctions génératrices des moments satisfait φ(z) = z(Qφ(z) + t). Rem : On peut
aussi trouver une formule générale pour m = φ′ (1). En différentiant le système, on
trouve φ′ (z) − zQφ′ (z) = Qφ(z) + t ⇒ (I − Q)φ′ (1) = Q1 + t = 1.
Dans le chapitre 8 on verra une solution plus simple, qui nous permettra de calculer
l’espace d’états du temps pour qu’un chimpanzé qui tape au hasard produise le mot ABRA-
CADABRA (et le pb. analogue pour produire Hamlet sera assigné en devoir maison).
68
sont appelées homogène et nonhomogène respectivement. L’équ
Si les coefficients a, b et c sont constants, on sait qu’ils existent des solutions de la forme
un = xn pour tout n ( fonctions exponentielles ). Pour trouver x on remplace xn en (7.3) et
on trouve que x doit satisfaire l’équation auxiliaire :
Soient x1 et x2 les deux racines de l’équation de deuxième degré (7.5). On en déduit que la
solution générale de (7.3) est toujours de la forme
1. Si x1 ̸= x2
un = Axn1 + Bxn2 ,
2. Si x1 = x2 ,
un = Axn1 + Bnxn1 ,
avec des constantes A et B.
Dans les deux cas A et B doivent être déterminées à partir des conditions supplémentaires sur
la frontière. L’équation nonhomogène
La résolution du problème nonhomogène (7.4) comporte quatre pas :
1. Trouver une base pour l’espace vectoriel des solutions de l’équation auxiliaire homogène
(7.3), et donc la solution générale un pour cette équation.
2. Déterminer une solution particulière de (7.4), par exemple en utilisant une expression
≪essai≫ ṽn qui a la même forme générale que le membre droit dn ,, mais des coefficients
69
Exemple 7.3 On considère l’ensemble E ′ des suites (vn ) qui vérifient la relation :
3
(R′ ) ∀n∈ N, vn+2 + vn+1 − vn = 4n + 1.
2
1. On pose ∀n∈ N, un = an + b. Déterminer a et b pour que (un ) soit une solution
particulière de (R′ ).
2. Soit (vn ) une suite de E ′ .
(a) Pour toute suite (tn ) de E ′ on définit la suite (un ) par ∀n∈ N, un = vn − tn .
Vérifier que (un ) ∈ E.
(b) En déduire que ∀n∈ N, vn = αr1n + βr2n + an + b.
(c) Déterminer vn pour v0 = − 95 et v1 = − 26
9
.
Exemple 7.4 Obtenez les formules analytiques des suites décrites par les relations de
récurrence ci-dessous, et vérifiez-les en utilisant les premiers termes de la suite t2 , t3 .
1. ti = 2ti−1 + i − 1, t0 = 0
2. ti = 2ti−1 + 5 · 2i , t0 = 0
3. ti = 3ti−1 − 2ti−2 + 2, t0 = 0, t1 = 2
4. ti = 2ti−1 − ti−2 + 2, t0 = 0, t1 = 2
Solution :
1. C’est une équation nonhomogène, alors nous aurons :
et alors c1 = 2c1 + 1 et c1 = −1
c2 = −2c1 + 2c2 − 1 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
ti = t̃i + A2i , t̃i = ci2i avec ci2i = 2(c[i − 1]2i /2) + 52i
70
3. C’est une équation de différences nonhomogène et l’équation quadratique attachée a
les racines 1, 2, alors nous aurons :
et alors c = −2 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
4. C’est une équation de différences nonhomogène dont les racines de l’équation quadra-
tique attachée sont confondues égales à 1 donc nous aurons :
et alors c1 = 2c1 + 1 et c1 = −1
c2 = −2c1 + 2c2 − 1 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
T0 = 1, Tn = 2Tn−1 + n − 1, n ≥ 1
Trouvez Tn .
71
Sol : a)
1
(a + 3/4) 3n −(3 + 2n)
4
a + 3/4 1/4 1/2 a(z − 1)2 + z
− − =
1 − 3z 1 − z (z − 1)2 (z − 1)2 (3z − 1)
Exercice 7.8
a) Obtenez une formule explicite pour la suite décrite par la relation de récurrence ci-dessous
(et vérifiez-la en utilisant les premiers termes de la suite)
Tn = 2Tn−1 − Tn−2 + 2, n ≥ 2, T0 = T1 = 0 (7.7)
∑
b) Calculez la fonction génératrice T (z) = n≥0 Tn z n c) Obtenez la fonction génératrice T (z)
directement, en appliquant la méthode des fonctions génératrices à l’équation (7.7)
∑
Exercice 7.9 a) Obtenez la fonction génératrice T (z) = n≥0 Tn z n pour la récurrence
Tn = λTn−1 + λ2 Tn−2 , n ≥ 2, T0 = 1, T1 = λT0 (7.8)
b) Calculez (directement, ou par développement limité) les premiers termes, et vérifiez qu’ils
sont des combinaisons linéaires de puissances des racines caractéristiques.
Exercice 7.10 a) Obtenez une formule explicite pour la suite décrite par la relation de
récurrence ci-dessous (et vérifiez-la en utilisant les premiers termes de la suite)
Tn = 4Tn−1 − 3Tn−2 + 2, n ≥ 2, T0 = T1 = 0 (7.9)
∑
b) Calculez la fonction génératrice T (z) = n≥0 Tn z n c) (*) Obtenez la fonction génératrice
T (z) directement, en appliquant la méthode des fonctions génératrices à l’équation (7.10).
Solution :
1. a)
1 n
Tn = (3 − 1) − n
2
b)
1 1 z 1 1 1 2z 2
T (z) = − − = + − =
2(1 − 3z) 2(1 − z) (1 − z)2 2(1 − 3z) 2(1 − z) (1 − z)2 (1 − z)2 (1 − 3z)
La dernière expression peut être obtenue directement, à partir de la récurrence.
Exercice 7.11 a) Obtenez une formule explicite pour la suite décrite par la relation de
récurrence ci-dessous (et vérifiez-la en utilisant les premiers termes de la suite)
Tn = 4Tn−1 − 3Tn−2 + n, n ≥ 1, T0 = a, T−1 = 0 (7.10)
∑
b) Calculez la fonction génératrice T (z) = n≥0 Tn z n c) (*) Obtenez la fonction génératrice
T (z) directement, en appliquant la méthode des fonctions génératrices à l’équation (7.10).
Solution : a)
1
(a + 3/4) 3n − (3 + 2n)
4
b)
a + 3/4 1/4 1/2 a(z − 1)2 + z
− − =
1 − 3z 1 − z (z − 1)2 (z − 1)2 (3z − 1)
72
7.7 Exercices
1. La marche paresseuse : Soit Xn = X0 + Z1 + Z2 + · · · + Zn une marche aléatoire
sur Z, avec (Zn ) une suite de variables aléatoires réelles indépendantes de même loi
P [Zn = 1] =p, P [Zn = −1] =q et P [Zn = 0] =1- p-q, avec 0 < p + q < 1. Pour tout
x de N, on note par Ex l’espérance en commençant de x (conditionnant sur X0 = x).
Nous arrêtons le processus au temps d’arrêt T auquel le processus sort de l’intervalle
[0, K] pour 0 < K donnés.
(a) Classifiez les pbs suivantes px = Px {XT = K}, fx = Ex [XT ], gx = Ex [XT2 ],
∑ ∑
tx = Ex T, cx = Ex [ T0 −1 Xt ], et dx = Ex [ T0 −1 Xt2 ] comme des pbs de prix final
ou de coùt accumulé. Quelles sont les équations de récurrence et les conditions
frontière correspondant à chaque pb ?
(b) (*) Obtenez l’équation de récurrence et les conditions frontière satisfaites par
wx = Ex aT .
(c) Rappeler les étapes principales de la résolution des équations de récurrence avec
coefficients constants qui en résultent pour a) px , b) fx , c) tx , et d) cx , dans les
deux cas possibles p < q et p = q < 1/2. Donner les réponses finales dans le cas
p = q < 1/2.
2. Calculer les probabilités de ruine px , x ∈ N, pour une { marche sur les nombres }
naturels, avec la distribution de chaque pas donnée par : p1 = 67 , p−1 = 0, p−2 = 17 .
Vérifier la positivité du résultat.
3. On lance une pièce de monnaie biaisée, avec la probabilité de sortir face égale à q
et celle de sortir pile égale à p = 1 − q. Soit N le nombre de jets jusqu’à ce
qu’on obtient une suite pile-face (arrivées consécutivement), en incluant le dernier.
Trouvez l’espérance n = E[N ]. Indication : On peut utiliser un processus de Markov
qui retient l’information minimale nécessaire pour décider si l’événement désiré a eu
lieu (et qui contient dans ce cas quatre états).
4. Des femmes et des hommes arrivent dans un magasin, après des temps fixes, unitaires.
Chaque instant, une femme arrive avec probabilité λF , ou un homme arrive avec pro-
babilité λH , ou il n’y a pas d’arrivée, avec probabilité q = 1 − λF − λH . a. Trouver
la probabilité qu’une femme entre avant un homme. Indication : Conditionnez sur le
premier instant, ou sur le nombre d’instants sans arrivées. b. Trouver la probabilité
que deux femmes entrent avant un homme. c. Quelle est la probabilité qu’au moins
deux hommes soient entrés consécutivement, avant que trois femmes ne
soient entrées consécutivement Indication : Considèrez un processus de Markov
sur l’espace des états : (H1, H2, H3, ...) ∪ (F 1, F 2, F 3, ...), qui enregistre la longueur
k du nombre des clients k ∈ {1, 2, ...} du même sexe entrés consécutivement jusq’au
temps t, et leur sexe (H/F) ; formulez des équations d’arrêt pour les états d’arrêt in-
diqués.
Solution :
1. (a,b) Soit (Gf )x = p (fx+1 − fx ) + q (fx−1 − fx ) (formellement, la même expression
comme dans le cas ≪non paresseux≫, sauf que maintenant p + q < 1. Les équations
73
sont respectivement :
(Gp)(x) = 0, pK = 1, p0 =0
(Gf )(x) = 0, fK = K, f0 =0
(Gg)(x) = 0, gK = K 2 , d0 =0
(Gt)(x) + 1 = 0, tK = 0, t0 =0
(Gc)(x) + x = 0, cK = 0, c0 =0
(Gw)x + [1 − a−1 ]wx , wK = 1, w0 =1
Ces sont exactement les mêmes équations comme pour une marche non paresseuse,
sauf que l’opérateur est différent.
[c ] Pour px et fx on obtient donc les mêmes équations comme pour une marche
symétrique avec p = 1/2, par exemple :
74
2. Les probabilités de ruine satisfont px = 67 px+1 + 17 px−2 , x ∈ N. Elles sont des combinai-
sons de puissances ρx , avec ρ une racine de
6 3 1 6 1 1 6
ρ − ρ2 + = (ρ − 1)( ρ2 − ρ − ) = (ρ − 1)(ρ − 1/2)(ρ + 1/3)
7 7 7 7 7 7
px = A1 ( 12 )x + A2 ( −1
3
)x satisfait p0 = p−1 = 1 ssi A1 = 4/5, A2 = 1/5.
3. Considerons le processus de Markov sur des états spécifiant les deux derrières résultats
possibles : {P F }, {∗P }, {P c F }, ∅. Les deux inconnues x1 = x{∗P } , x2 = x{P c F } satis-
font :
x1 = 1 + px1 + q ∗ 0, x2 = 1 + px1 + q ∗ x2 q ⇔ x1 = q −1 , x2 = x1 + p−1 = q −1 + p−1
pm−1
H pm
H SF,n−2
y1 = , x1 =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
et finalement
pm
H (1 + pF SF,n−2 ) pmH SF,n−1 )
pH y1 + pF x1 = =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
Pour m = 2, n = 3, on trouve :
pH p2H (1 + pF )
y1 = , x1 =
1 − pH pF (1 + pF ) 1 − pH pF (1 + pF )
et
p2H (1 + pF + p2F )
pH y1 + pF x1 =
1 − pH pF (1 + pF )
75
Chapitre 8
ch:Mart Martingales
Les martingales sont une famille des processus stochastiques, inspirée par la théorie des
jeux, qui a trouvé des applications dans plusieurs branches des probabilités. Le terme désigne
dans la théorie des jeux une stratégie permettant de gagner à coup sùr dans un jeu équitable
(comme le pile ou face). Pour la martingale mathématique, on se place dans un espace
probabilisé (Ω, A, P ), avec une suite des variables Xn , n ∈ N, qui représente la fortune d’un
joueur au temps n, et une deuxième suite Yn , n ∈ N, qui représente des informations acquises
au temps n. Par exemple, Yn pourrait être la mise du jeu n, et alors
∑
n
Xn+1 = X0 + Yk = Xn + Yn+1
k=1
Si Yi sont i.i.d., alors on est dans le cadre des probabilités classiques, mais justement
les martingales généralisent ce cadre considérablement (les mises peuvent dépendre de
≪l’information du passé≫ Fn = σ(Y1 , Y2 , ..., Yn )). Un jeu est caractérisé par la suite
E[Xn+1 |Y1 , Y2 , ..., Yn ] = E[Xn+1 |σ(Y1 , Y2 , ..., Yn )] = E[Xn+1 |Fn ]. Il est appelé martingale
(ou jeu juste) si E[Xn+1 |Fn ] = 0, ∀n.
Exemple 8.1 Prenons un exemple de jeu dù à D’Alembert : on parie x euros sur pile. Si
la pièce tombe sur pile, on ramasse 2x euros (soit un gain de x euros), et si elle tombe sur
face, on perd tout. A chaque coup, on est libre de se retirer ou de continuer à jouer. Une
stratégie gagnante à coup sùr est la suivante : au 1er coup, on mise 1 euro : si on gagne, on
se retire (et on empoche 1 euro) ; sinon, on continue (et on a perdu 1 euro). au 2ème coup,
on double la mise, 2 euros : si on gagne, on se retire, et on a gagné 2-1=1 euro. Sinon on
continue, on a perdu 2+1=3 euros. au 3ème coup, on double encore la mise, en jouant 4
euros. Si on gagne, on se retire, avec en poche un gain de 4-3=1 euro. Sinon, on continue
la partie, et on double au coup suivant la mise, etc. La théorie des martingales modélise en
théorie des probabilités le concept de jeu équitable (ou juste), en stipulant que l’espérance
du gain doit être 0 à chaque mise. Remarquons que notre exemple est un jeu juste. Mais,
comme pile variable aléatoire bien finir par tomber, on est sùr de finir par gagner 1 euro (à
condition d’avoir une fortune infinie). Cela contredit l’intuition ≪qu’un ne peut pas gagner
contre un jeu juste≫, qui est formalisée dans un théorème qui affirme que si un joueur a
une fortune initiale finie, il n’existe pas de stratégie pour gagner à coup sùr, dans un jeu
juste et ≪raisonnable≫. On verra plus tard comment définir ≪raisonnable≫ ; pour l’instant,
remarquons que si pile met du temps a sortir, il variable aléatoire falloir miser beaucoup
( si la pile sort qu’au 8è tirage, alors on aura déjà misé 1+2+4+8+16+32+64+128=255
euros, et tout cela pour gagner 1 euro). La théorie des martingales jettera de la lumière sur
ce paradoxe de ≪gagner dans un jeu juste≫, sans avoir aucun capital.
Rapellons les définitions de base de la théorie des martingales.
76
Définition 8.1 Une filtration est une suite croissante (au sens de l’inclusion) (Ft )t∈T de
sous-tribus de A, où T est un ensemble ordonné (muni d’une relation d’ordre).
Définition 8.2 Un processus Xt est dit adapté à une filtration (Ft ) si Xt est (Ft )- mesu-
rable pour chaque t. La notation est Xt ∈ Ft .
Définition 8.3 Un jeu est une paire formée par une filtration Ft et par une suite des variable
aléatoire Xt ∈ Ft .
77
{
α + βXn a.p. Xn
Exemple 8.4 Soit Xn+1 = βXn a.p. 1 − Xn , où X0 , α, β ≥ 0. Montrer que Xn
est une sur/sous/martingale dans les cas α + β ≤ 1, α + β = 1, α + β ≥ 1. R : Ecrivons
Xn+1 = βXn + αBn+1 , n ≥ 0, X0 = x où Bn , n ≥ 1 sont des v.a. i.i.d. avec loi de Bernoulli
B(p), avec p = Xn . Soit Fn = σ(B1 , B2 , ..., Bn ) = σ(X1 , X2 , ..., Xn ). Alors,
E[Xn+1 |Xn ] = βXn + αXn = (β + α)Xn
Rem : Il est interessant de investiguer la convergence de Xn dans les cas α+β ≤ / =≥ 1.
∑
Exercice 8.1 Martingales de Wald. Soit Xt = x + ti=1 Zi , avec Zi i.i.d.
a) Trouver les valeurs de θ pour les quelles θXt est une martingale. Donnez ces valeurs
quand Zi = ±1, avec probas p, q.
b) Trouver les valeurs de γ pour les quelles eγXt est une martingale.
∑
Exercice 8.2 Martingale exponentielle. Soit Xt = x + ti=1 Zi , avec Zi i.i.d.
Comment choisir κ = κ(γ) tel que eγXt −κt soit une martingale ?
E(ζ|F∞ ) = ζn
Exercice 8.4 Soit (Xn )n∈N une martingale par rapport à une filtration (Fn )n∈N . Soient m
et n deux entiers positifs tels que m < n , calculer E ((Xm+1 − Xm ) (Xn+1 − Xn )) .
ex:Ds Exercice 8.5 a) Montrer qu’une martingale additive ou multiplicative en temps discret
Xn (satisfaisant E[Xn+1 |Fn ] = Xn )) satisfait aussi :
E[Xn+k |Fn ] = Xn , ∀k ≥ 1,
Sol : a) Ce cas est très facile, car pour les martingales additives et multiplicatives, les
espérances conditionnelles se réduisent a des espérances non conditionnelles. En effet
∑
k
E[Xk+n |Fn ] = E[Xn + Zn+i |Fn ]
i=1
∑
k
= Xn + E[ Zn+i ] = Xn
i=1
78
Pour k = 2 par exemple :
E[Xt+2 |Ft ] = E[E[Xt+2 |Ft+1 ]|Ft ] = E[Xt+1 |Ft ] = Xt
Alternativement, on peut utiliser l’idée de la démo du cas additif, car on peut toujours
décomposer une martingale comme une somme des ≪différences de martingale≫ Zi :
∑
k
Xt+k = Xt + Zt+i ,
i=1
et il nous reste à montrer E[Zt+i |Ft ] = 0, ∀i ≥ 2. On procède par récurrence. Pour obte-
nir le résultat pour j + 1, on conditionne sur l’information supplémentaire au temps t + j
E[Zt+j+1 |Ft ] = E E[Zt+j+1 /Ft , Ft+j ]] = E[E[Zt+j+1 |Ft+j ]|Ft ] = E[0] = 0
∑
Interprétation : Une somme X(t) = ti=1 Zi , où Zi = ui , li a.p. pi , qi , peut être vue
comme les gains cumulés d’un joueur qui mise Zi au temps i. Si le jeu est ≪juste≫ au sense
que EZi = 0, alors il est évident que
EXt = EX0 , ∀t
. Outrement dit, le joueur qui s’arrête a un temps fixe ne peut pas améliorer l’espace d’états
de ses gains cumulés juste en variant les mises Zi (tant que EZi = 0).
Question 4 Il se pose alors la question si des mises plus sophistiquées, conditionnées par le
passé, ou d’autres stratégies d’arrêt T, par exemple T = min(TL , TK ), peuvent améliorer
ses chances. Mais, cf. le problème de la ruine du joueur concernant la marche symmétrique
simple, on sait que le temps d’arrêt T = min(TL , TK ) ne peut améliorer l’espace d’états des
gains futurs non-plus.
R : La reponse est fourni par le théorème d’arrêt de Doob, qui, dans sa version ”offi-
cieuse”, nous assure que la relation
E[ST ] = S0
reste vraie encore pour des temps d’arrêt T aléatoires arbitraires, mais ≪raisonnables≫ (ayant
par exemple espérance finie, ou qui assurent des pertes cumulées bornées). C’est une des
applications les plus importantes des martingales.
Com Exercice 8.6 Soit Xt les gains d’un joueur qui mise Yi = ±1, avec pi = qi = 21 , dans les
limites [0, B].Calculer, en supposant que le théorème d’arret des martingales est applicable :
a) l’espérance des gains v(x) = Ex XT b) la probabilité de gagner p(x) = Px [XT = B].
Sol : a) L’application du théorème d’arret a la martingale Xt donne
v(x) = Ex XT = X0 = x
b)
Ex XT = Ex X0 = x = K Px {XT = K} + L (1 − Px {XT = K}) = x,
et donc
(x − L)
px = Px {XT = K} = .
(K − L)
79
8.1 Le théorème d’arrêt des martingales de Doob
Nous allons présenter maintenant une des applications les plus importantes des martin-
gales, inspirée par la théorie des jeux.
Tenant compte du fait que pas tous le temps d’arrêt T garantissent l’applicabilité du
théorème d’arrêt de Doob (voir par exemple section 8.3), il est naturel de considerer d’abord
des ”temps tronqués” T ∧n0 pour n0 fixe. Nous allons montrer que pour ces temps le théorème
d’arrêt est toujours applicable (Corollaire 8.1), en passant par un resultat plus fort, qui nous
assure que le processus obtenu en regardant une martingale aux temps d’arrêt tronqués
progressivement est aussi une martingale.
t:os Théorème 8.1 Théorème des processus arrêtés Si X est une martingale (respecti-
vement sur-martingale, sous-martingale) et T un temps d’arrêt, alors la processus arrêté
X T = (XT ∧n )n≥0 est aussi une martingale (resp. sur-martingale, sous-martingale). En par-
ticulier, on a pour tout entier n,
E(XnT ) = E(XT ∧n ) = E(X0 ), (resp. ≤, ≥)
Remarque 8.1 Ce théorème dit en outre que pour tout n ∈ N , XT ∧n est dans L1 . Il ne
suppose aucune condition sur le temps d’arrêt.
c:Ds Corollaire 8.1 Si (Xn )n est une martingale et si T est un temps d’arrêt alors pour tout
entier n, on a
E(XT ∧n ) = E(X0 )
Remarque 8.2 Cette propriété généralise EXn = X0 , ∀n (qui est une conséquence immédiate
de la définition des martingales).
80
A-t-on aussi E(XT ) = E(X0 ) ? Un contre-exemple, approfondi en section 8.3, est le
suivant. Soit (Xn )n une marche aléatoire telle que X0 = 0 et E(Xn+1 − Xn ) = 0. (Xn )n est
une martingale. Soit T = inf{n ∈ N ; Xn = 1} le temps d’entrée en 1. On voit que c’ést un
temps d’arrêt (par rapport à la filtration naturelle de X). Pourtant, on a
E(XT ) = 1 ̸= E(X0 ) = 0
Remarque 8.3 Le théorème 8.1 est la version la plus simple du fameux théorème d’arrêt
des martingales, et peut être aussi utilisé comme pas intermédiaire pour le démontrer.
Remarque 8.4 Comme il n’existe pas des conditions nécessaires et suffisantes simples
qui assurent la validité du théorème d’arrêt des martingales, nous donnons ci-dessous une
réunion des plusieurs versions intéressantes (prises des livres de Williams, Grimmett et
Ross).
E[ST |F0 ] = S0
dans chacun des cas suivants :
1. T < C, où C est une constante.
2. {
max{1<t<T } |Xt | ≤ C, ou
ET < ∞,
max{1<t<T } E[|Xt |Ft−1 ] ≤ C
où C est une constante.
3.
max{1<t<T } |St | ≤ C, ou
P [T < ∞] = 1 ⇔ P [T = ∞] = 0,
E|ST | < ∞, limn→∞ E[Sn 1IT>n ] = 0
avec n → ∞, et le cas 1.
Exercice 8.8 Comment peut on justifier l’application du théorème d’arret des martingales
dans l’exercice 8.6 ?
Remarque 8.6 Sur un intervalle fini, ce genre des problèmes peut etre résolu facilement à
partir de l’équation des différences obtenu par conditionnement sur le premier pas, qui est
ici :
1 1
vx = vx+1 + vx−1 , v0 = 0, vK = K.
2 2
81
Sol : L’application pourrait etre justifié par les cas 2) ou 3) du théorème d’arret. En effet,
les conditions que les gains |Xt | ≤ max(|L|, K) et les mises sont bornées sont évidentes. Par
contre, les conditions Ex T < ∞ et P[T < ∞] = 1 demandent plus de travail.
1. Le calcul direct. La meilleure justification ici est de passer à une autre méthode, car
pour les marches aléatoires sur un intervalle fini on obtient facilement
Montrer que :
1. Xn est une martingale.
2. On observe ”une population Wright-Fischer” jusqu’au moment T = min(T0 , TN ).
Quelle est la probabilité fi que la fréquence espéré de la gene speciale sera finalement
1?
82
this strategy creates a dollar out of nothing and does not satisfy le théorème d’arret des
martingales, c.-à-d.
E0 XT1 = 1 > 0!!
We examine now les conditions du théorème d’arret des martingales. It is easy to check that
∑
pk = P[T = k] = 2−k , k = 1, 2, ... and thus both condition 1 a) (that k pk = 1) and condition
∑
2 a) (that ET = k k pk = 2 < ∞) are satisfied. However, neither the cumulative fortune,
nor the stakes are bounded, since the loss may double its value an arbitrary number of times
and of course the gambling time does not have to be bounded. Thus, neither condition 1 b)
nor 2 b) are satisfied. Notice that this strategy seems quite efficient for the gambler (a sure
win in a number of steps with expectation 2!). Also, practically, it seems at first safe for the
bank too, since in practice the gamblers will have to limit the time they gamble by some
finite number n, and then le théorème d’arret des martingales will apply (by any of the three
conditions !). Note that the possible loss after the n′ th bet is −2n + 1. The 0 expectation of le
théorème d’arret des martingales means in practice roughly that the winnings of 2n successful
martingale gamblers will be outset by the huge loss of one misfortunate ; the fear that this
loss will not be honoured is what lead to the outlawing of this strategy. More precisely, if
all martingale gamblers bound their losses at L = −2n + 1, then we are allowed to apply le
théorème d’arret des martingales, and find as usual that the fraction of winning martingale
= 2 2−1 is very close to 1. The fraction of losers 1 − p0 = 2−n is very small,
L n
gamblers p0 = 1+L n
but the potential loss is huge 2n − 1, averaging thus to 0. When L → ∞ the bad second
case somehow disappears by indefinite postponement) ! Note : The expected duration may
also be found to be t0 = E0 T = 2 − 2−n by setting up a corresponding difference equation,
for example. Donc, ici c’est St plutôt qui invalide la conclusion du théorème d’arret des
martingales.
Remarque 8.7 While the assumptions of le théorème d’arret des martingales may look
at first technical, they have however a clear meaning : by using ”reckless” strategies (with
unbounded stakes or borrowing) for very long times, a gambler may ”beat” the odds, as
illustrated by the doubling strategy, originally called ”martingale”, which gave this field its
name.
(les martingales de Wald sont les cas particuliers obtenus en choisissant θ tq E[eθZ. ] = 1].
83
Pour tout n ∈ N , considérons la martingale arrêtée en T MTθ ∧n . On a :
( )T ∧n
1
E(MTθ ∧n ) = 1 = E exp(θST ∧n )
cosh θ
Soit θ > 0. On remarque que la martingale arrêtée est bornée uniformément par (cosh θ)−1 ,
et que P presque sùrement,
eθ
lim MTθ ∧n = 1{T <∞}
n→∞ (cosh θ)T
[car sur {T = ∞}, le processus St avec ”taboo” d’entrer les nombres positives, converge vers
−∞, et la martingale arrêtée converge vers 0 pour θ > 0]. Donc d’après le théorème de
convergence dominée, [ ]
1
E 1{T <+∞} T
= e−θ
(cosh θ)
En faisant tendre θ vers 0 et en utilisant le théorème de convergence monotone, on déduit
que P(T < +∞) = 1. On peut donc oublier l’indicatrice dans l’égalité précédente. Effectuant
alors le changement de variables α = 1/ cosh(θ), on obtient
1[ √ ]
E(αT ) = 1 − 1 − α2
α
En particulier, on a
( )
1/2 (2m − 1)!!
P(T = 2m) = 0 et P(T = 2m + 1) = (−1) m+1
= m+1
m+1 2 (m + 1)!
Exercice 8.9 La marche aléatoire simple asymétrique, sur un intervalle infini. Soit
(Zn ) une suite des variables aléatoires Bernoulli, indépendantes : P(Zn = 1) = p, P(Zn =
−1) = q = 1 − p < p. On pose S0 = 0, Sn = Z1 + . . . + Zn et Fn = σ(Z1 , . . . , Zn ) =
σ(S0 , . . . , Sn ). Soit enfin T = inf{n ≥ 0; Sn = 1} qui est un temps d’arrêt. a) Montrer
que P[T < ∞] = 1. b) Calculer ET, en utilisant le théorème d’arrêt des martingales, et en
supposant qu’on a déjà démontré ET < ∞.
84
stoppe quand il est ruiné, c.-à-d. quand Sn = 0 ou Sn = b. Soit Fn = σ(X1 , . . . , Xn ) et
F0 = {∅, Ω}.
1) Calculer px = P(ST = 0) et tx = E(T ) par le théoreme d’arret des martingales appliqué
aux martingales Mn = ρSn et Nn = Sn − nm, avec des valeurs de ρ, m choisies tel que ce
sont des martingales, et en supposant que le théoreme d’arret est applicable
R : Mn est un produit de v. a. indépendantes, positives et de moyenne 1 ssi : E[ρZi ] =
pρ + qρ−1 = 1. Les racines sont ρ = 1 (pas intéréssant) et ρ = pq . Nn est une somme de
variable aléatoire aléatoires indépendantes sommables de moyenne nulle ssi m = p − q. Le
1−ρx x−Kpx
théoreme d’arret donne : px = 1−ρb , tx = q−p .
2) Comment justifier l’application du théoreme d’arret ?
R : La martingale de Wald Mn est bornée, et la deuxième martingale a des mises bornées.
Comme au cas symétrique (Exercice 8.6), Ex T < ∞ est une conséquence du théorème
Perron-Frobenius. On peut aussi appliquer la méthode de 8.12 : ”Tout ce qui a une chance
positive d’arriver en temps fini se produira tôt ou tard, si on persevere”.
Exercice 8.11 Calculer, en utilisant le{théorème d’arret des martingales,
} les probabilités de
ruine sur [0, ∞) pour une marche avec p2 = 38 , p1 = 18 , p−1 = 21
Sol : EZ1 > 0 et la loi des grandes nombres implique P[T = ∞] > 0] et donc aucun des
cas du théorème d’arret ne s’applique pas, car le théorème d’arret ne permet pas des temps
d’arret tq. P[T = ∞] > 0 ! Dommage, car on trouve facilement une martingale de Wald
∑
Mt = ρXt , en resolvant p(ρ) := E[ρZ. = i pi ρi = 1, ρ ∈ (0, 1). Par une ”application erronée”
du théorème d’arret a cette martingale, on trouve la réponse raisonnable ψ(x) = ρx , avec
une interprétation claire,
ρ = Px [Tx−1 < ∞].
Heureusement, pour une ”application correcte,” il suffit de remplacer T par le temps d’arret
borné TN = min(T, N ), avec N → ∞. On trouve
85
1) Réponse : On procède par récurrence. Quand n = 0, on a bien la propriété par hypothèse car
F0 = {∅, Ω} et donc P(T > N )11Ω = P(T > N |F0 ) = 1 − P(T ≤ N |F0 ) ≤ 1 − ε. De plus,
∫ ∫
P(T > kN ) = P(T > kN ; T > (k − 1)N ) = 11T >kN = E(11T>kN |F(k−1)N )
T >(k−1)N T >(k−1)N
86
2. Soit T le nombre de tirages effectués avant la première apparition de P P P . Montrer
que T est un temps d’arrêt, montrer que E(T ) < ∞. Utiliser le résultat de l’exercice
8.12.
2) Réponse : La décision T = n est une fonction déterministe des résultats de Y1 , . . . , Yn
et est donc Fn -mesurable. C’est donc un temps d’arrêt. Pour montrer que E(T ) < ∞, il
suffit de vérifier que l’hypothèse de l’exercice 8.12 est vérifiée : P(T ≤ n + N |Fn ) > ε, a.s..
On le montre pour N = 3. Notons Ωn = {P, F }n l’ensemble des résultats possibles pour
les n premiers tirages. La tribu Fn est engendrée par la partition en événements atomiques
Bi = [(Y1 , . .∑
. , Yn ) = i], i décrivant Ωn . Par la formule (PT), on a pour tout événement A,
P(A|Fn ) = i∈Ωn P(A|Bi )11Bi . On choisit A = [T ≤ n + 3]. En effet, une séquence P P P
peut se produire aux trois coups suivants avec probabilité ε = p3 et on a
∑ ∑
P(T ≤ n + 3|Fn ) ≥ P([(Xn+1 Xn+2 Xn+3 ) = (P P P )]|Bi )11Bi = p3 11Bi = p3 .
i∈Ωn i
8.7 Exercices
∏
1. a) Montrer que Xn = ni=1 Zi , où Zi sont i.i.d. et prennent les valeurs 2 et 0 avec
probabilités égales, est une martingale, par rapport à σ(Z1 , ..., Zn ). b) Est-ce que le
théorème d’arrêt des martingales est applicable à Xn , arrêtée au temps d’atteinte T0 ?
∑
2. Soit Zi une suite des variables aléatoires tq Sn = ni=1 Zi est une martingale. Démontrer
∑
qu’ a) EZi = 0. b) Ces variables sont noncorrélées. c) V ar(Sn ) = V ar(Zi )
3. Démontrer l’identité de Wald. Soit Zn , n ≥ 1 une suite iid tel que Z1 soit intégrable
et soit T un temps d’arrêt pour la filtration associée à Zn , n ≥ 1, satisfaisant ET < ∞,
87
et soit Sn = Z1 + ... + Zn . Alors
Mn = Sn2 − n.
a) Montrez que Mn est une martingale par rapport à σ(Z1 , ..., Zn ). b) Montrez que si
le théorème d’arrêt des martingales est applicable sur l’intervalle [L, K], alors :
c.-à-d. l’espace d’états du temps d’atteinte de {L, K} est le produit des distances
du capital initial x aux bords de l’intervalle. c) Comment justifier l’application du
théorème d’arrêt des martingales ?
Exercice 8.13 Soit
∑
n
1, avec probabilité
8
p1 = 10
Xn = x + Zi , Zi = −1, p−1 = 101
,
−2, 1
i=1 p−2 = 10
EST−1 = −∞
88
4. a) To show that Mn is indeed a martingale we obtain first a formula for its increments :
Mn+1 − Mn = (Sn + Zn+1 )2 − n − 1 − (Xn2 − n) = 2Zn+1 Xn + Zn+12
− 1 = 2Zn+1 Xn . We
check now the conditional expectation of the increments.
tx = Ex [min(TL , TK )] = (K − x)(x − L)
c) This martingale is not bounded below (since T can take arbitrarily large values), so
we can’t apply the third set of conditions. Pour la deuxième pair des conditions, nous
savons que les increments de Mn sont bornés : |2Zn+1 Xn + Zn+1 2
− 1| = |2Zn+1 Xn | ≤
2 max(|L|, K) Aussi, comme remarqué déjà dans la solution de l’exercice 8.6, le fait que
ET < ∞ est assuré par la théorie spectrale des matrices sous-stochastiques. L’option
du calcul direct (très simple ici) par conditionnement sur le premier pas serait illogique
ici, car ça reviendra a justifier cette méthode en la remplaçant par une autre !
Remarque 8.8 Pour la marche symmétrique qui reste sur place avec proba 1 − 2p > 0
on trouve
(K − x)(x − L)
tx = Ex [min(TL , TK )] = . (8.6)
2p
Remarque 8.9 Letting L → −∞ and K = x + 1 we find that the expected duration
of a game for winning just one buck (with no lower bound on the losses) is infinite,
which is quite surprising.
8 1 1
5. a) E(Z1 ) = 1. 10 + (−1). 10 + (−2). 10 = 12 > 0
b) On décompose ψ(x) = φ0 (x) + φ1 (x), φi (x) = Px [T < ∞, XT = −i], i = 0, 1. On
applique le théorème d’arret appliqué aux deux martingales arretées de Wald Mt = ρX t
∑1 −j
i
(comme en (8.2)), où p(ρi ) = 0 ⇔ ρi = j=0 φj (x) , ρi ∈ (0, 1). Ici, ρ1 = 1/2, ρ2 =
x
89
Note : Voila une solution directe, par conditionnement sur le premier pas :
∑
1
ψ(x) = Px [T0 < ∞] = P [Z1 = i].Px [T0 < ∞|x + Z1 = x + i]
−2
∑1 ∑
1
= P [Z1 = i].Px+i [T0 < ∞] = pi .ψ(x + i)
−2 −2
8 1 1
= .ψ(x + 1) + .ψ(x − 1) + .ψ(x − 2), (x ∈ N)
10 10 10
Les CF sont :
ψ(∞) =0
ψ(0) =1
ψ(−1) = 1.
(il est aussi vrai que , , ψ(−2) = 1, ... mais −2 n’est pas dans l’espace d’états). On
cherche ψ(x) = ρx .
8 x+1 1 1
On a ρx = .ρ + .ρx−1 + .ρx−2
10 10 10
8 3 1 1
⇒ρ = .ρ + .ρ +
2
10 10 10
⇒(ρ − 1)(2.ρ − 1)(4ρ + 1) = 0
1 1
⇒ψ(x) = A1 ( )x + A2 (− )x
2 4
ψ(0) = ψ(−1) = 1 sont satisfaites ssi A1 = 65 , A2 = 16 . Les probabilités de ruine sont :
5 1 1 1
ψ(x) = .( )x + .(− )x
6 2 6 4
Exercice 8.14 Soit Xt les gains d’un {joueur qui peut gagner Zi ∈ } {1, −1, −2} à chaque
8 1 1
pas i, avec des probabilités donnés par : p1 = 10 , p−1 = 10 , p−2 = 10 . Le joueur s’arrête au
temps T min[T0 , TB ].
a) Calculer les probabilités de ruine ψ0 (x) = P [XT = 0], ψ−1 (x) = P [XT = −1], ψ(x)P [T0 <
TB ], en utilisant deux martingales de Wald, et en supposant que le théorème d’arret des mar-
tingales est applicable.
b) Calculer directement les probabilités de ruine ψ0 (x) = P [XT = 0], ψ−1 (x) = P [XT =
−1], ψ(x)P [T0 < ∞] au cas où B = ∞.
8
R : b) Les probabilités de ruine satisfont ψx = 10 ψx+1 + 1
ψ
10 x−1
+ 1
ψ ,x
10 x−2
∈ N. Elles
sont des combinaisons de puissances ρx , avec ρ une racine de
8 3 1 1 8 2 1 8
ρ − ρ2 + ρ + = (ρ − 1)( ρ2 − ρ − ) = (ρ − 1)(ρ − 1/2)(ρ + 1/4)
10 10 10 10 10 10 10
ψx = A1 ( 12 )x + A2 ( −1
4
)x satisfait ψ0 = ψ−1 = 1 ssi A1 = 5/6, A2 = 1/6. Les probabilités de
ruine sont : ( ) ( ) ( )
5 1 x 1 1 x 5 1 x
ψx = + − ≈
6 2 6 4 6 2
90
Remarque 8.10 En considerant le cas B = ∞, on voit que E[Z1 ] > 0 assure que le nombre
des racines plus petites que 1 en valeur absolue doit être égal au nombre des sauts possibles
en bas.
∑
Théorème 8.3 Supposons que la marche aléatoire discrète Xt = x + ti=1 Zi , avec Zi i.i.d.
et E[Z1 ] > 0 est tel que pZ (θ) = p+ (θ) + p− ( 1θ ), where p± (θ) sont des polynômes des degrés
n± . Alors
a) L’équation pZ (θ) = 1 a n− + n+ racines, dont exactement n− racines plus petites que
1 en valeur absolue et n+ − 1 racines plus grandes que 1 en valeur absolue.
b) Les probabilités de ruine sur [0, ∞), ψx , x ∈ N sont des combinaisons de n− racines
plus petites que 1 en valeur absolue.
Exercice 8.15 Calculer la probabilité de ruine ψx , x ∈ N,{pour une marche sur les nombres
}
8 1 1
naturelles, avec la distribution de chaque pas donné par : p−1 = 10 , p1 = 10 , p2 = 10 .
91
Chapitre 9
Examens d’entraı̂nement
9.1 Examen 1
Tous les documents d’aide sont interdits
1. On considère une pièce non équilibrée que l’on lance un nombre indéterminé de fois.
La probabilité d’obtenir pile est p ∈]0, 1[, et la probabilité de sortir face est égale à
q = 1 − p. Les lancers sont indépendants. On note N le temps d’attente du premier
pile, c’est-à-dire le nombre de lancers qu’il faut effectuer pour obtenir le premier pile,
en incluant le pile (N ∈ {1, 2, ...}).
(a) Formuler une équation pour le premier moment m = EN par la méthode du
conditionnement sur le premier pas, et la résoudre. Quelle est la loi de N ? (on ne
demande pas de justifier)
(b) Trouvez l’espérance m2 = EN2 du nombre des essais jusqu’à ce qu’on obtient
deux piles consécutives, en incluant les deux derniers résultats.
′
(c) Calculer la fonction génératrice des probabilités p∗N (2)′ (z), où N (2) est le nombre
des essais jusqu’à ce qu’on obtient deux piles consécutives, en excluant les deux
derniers résultats.
(d) Trouvez l’espérance m̃ du nombre des essais jusqu’à ce qu’on obtient pile-face-
pile (consécutives), en incluant les trois derniers résultats.
Indication : On pourrait utiliser un processus de Markov qui retient l’information
minimale nécessaire pour décider si l’événement désiré a eu lieu, et qui contient
l’état final désiré, ainsi que tous ses préfixes.
2. Soit (Xn )n≥1 une suite de variables aléatoires réelles indépendantes telle que pour n ≥ 1
Xn suit une loi exponentielle de paramètre λn = n.
(a) Calculer la fonction de répartition (f.d.r.) de Yn = min{X1 , . . . , Xn } pour n ≥ 1.
P
(b) Montrer que Yn −→ 0.
p.s.
(c) Montrer que Yn −→ 0.
(d) Determiner une suite (αn )n≥1 telle que Eαn Yn = 1. Montrer que pour cette suite
L
on a αn Yn −→ Y où l’on précisera la loi de Y . Est-ce qu’il existe d’autres suites
92
L
(αn )n≥1 telles que αn Yn −→ Y ?
3. Soit
−1, avec probabilité
p−1 = 12
∑
n
Xn = x + Zi , Zi =
1, p1 = 81 ,
i=1
2, p2 = 38
avec Zi i.i.d. Soit T0 = inf{n : Xn ≤ 0}
m2 = p+1
p2
, m1 = p12 .
La méthode ≪arbre developpé jusqu’au feuilles succés/recommence≫ (≪divide et
conquera≫) produit directement l’équation m2 = q(1 + m2 ) + pq(2 + m2 ) + 2p2
(c) Le conditionnement après un pas donne
m3 = p(1 + m2 ) + q (1 + m3 )
m2 = q(1 + m1 ) + p (1 + m2 )
m1 = p + q (1 + m3 )
93
P
(b) Yn −→ 0 car ∀ε > 0, P (|Yn | > ε) = P (Yn > ε) = exp(−εn(n + 1)/2) → 0 lorsque
n → +∞.
p.s. ∑ ∑ ∑
(c) Yn −→ 0, car ∀ε > 0, n≥1 P (|Yn | > ε) = n≥1 P (Yn > ε) = exp(−εn(n +
∑ ∑ n≥1
1)/2) ≤ n≥1 exp(−εn/2) = n≥1 (exp(−ε/2))n < +∞.
(d) αn = (EYn )−1 = n(n+1)
2
P (αn Yn ≤ y) = P (n(n + 1)Yn /2 ≤ y) = FYn (2y/(n(n +
1))) = (1 − exp(−y))1{y>0} . Donc pour αn = n(n + 1)/2 et Y ∼ E(1) on a
L
Yn −→ Y . Le résultat de convergence reste identique si l’on prend αn = n2 /2,
donc le choix n’est pas unique.
1
3. (a) E[Z1 ] = 8
+ 38 .2 + 12 (−1) = 3
8
>0
(b) Les probabilités de ruine satisfont px = 81 px+1 + 38 px+2 + 12 px−1 , x ∈ N. Elles sont
des combinaisons de puissances ρx , avec ρ une racine plus petite que 1 de
1 2
3ρ3 /8+ρ2 /8−ρ+1/2 = (ρ−1)(3ρ2 +4ρ−4) = (ρ−1)(ρ+2)(3ρ−2) =⇒ px = ( )x
8 3
(c)
(d) E[Z1′ ] = −E[Z1 ] = 18 − 68 + 48 = − 38 < 0 tx = 1 + 83 tx+1 + 18 tx−1 + 12 tx−2 , t0 = 0
Sol homogène engendrée par 1x , r1x , r2x , r1 = − 12 , r2 = 32 ≥ 1. Sol particulière et
x
finale tx = −E[Z 1]
= 8x
3
. Les probabilités de ruine sont ψx = 1, ∀x (car E[Z1 ] < 0).
9.2 Examen 2
1. La marche paresseuse : Soit Xn une chaı̂ne de Markov sur {0, 1, 2, ..., B}, B ∈ N,
avec 0 et B états absorbants, et
P (i, i + 1) = p fi ,
P (i, i − 1) = q fi ,
P (i, i) = 1 − (p + q)fi ,
P (i, i + k) = 0 pour|k| > 2, ∀i ∈ {1, 2, ..., B − 1}
94
2. Probabilités de ruine . Soit
1, avec probabilité p1 = 34
∑
n
Xn = x + Zi , Zi =
−1, p−1 = 121
,
i=1
−2, p−2 = 61
Sn := x + X1 + · · · + Xn , T := inf{n, Sn = 0 ou Sn = b}.
La fortune initiale du joueur de pile ou face est représentée par x et il compte s’arréter
s’il a atteint b ou 0. Soit Fn = σ(X1 , . . . , Xn ) et F0 = {∅, Ω}.
(a) Comment choisir les valeurs de ρ, m tel que les processus
Mn = ρSn , Nn = Sn − nm
Solutions :
1. (a) Soit (Gf )x = p (fx+1 − fx ) + q (fx−1 − fx ) l’opérateur du cas ”non paresseux”,(sauf
que maintenant p + q < 1. Les équations sont respectivement :
(Gp)x = 0, pK = 1, p0 = 0
(Gg)x = 0, gK = K, g0 = 0
fx (Gt)x + 1 = 0, tK = 0, t0 = 0
La partie homogène des équations est exactement la même comme pour une marche
≪non paresseuse≫, mais la partie non homogène des équations est différente.
95
(b) Pour px et gx on obtient les mêmes équations (dans les deux cas de fi ) comme
pour une marche symétrique avec p = 1/2, c.-à-d. :
9.3 Examen 3
1. Soit X une v.a. continue de loi uniforme sur [0, 1]. Déterminer les lois de Zi = hi (x), i =
1, 2, où h1 (x) = 1 − x et h2 (x) = min(x, 1 − x).
2. Soit Xn une v.a. de loi binomiale B(n, pn ). Montrer que si npn → λ > 0, alors Xn
converge en loi vers une v.a. X, dont on determinera la loi.
3. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi exponentielle E(λ)
où λ > 0 (i.e. fXn (x) = λe−λx I(x > 0)). On pose Mn = max{X1 , . . . , Xn } pour n ≥ 1.
(a) Déterminer la fonction de répartition de Mn .
(b) Montrer que
FMn −λ−1 log n (x)
convergent vers une fonction F (x), qu’on determinera.
96
(c) Généraliser pour le cas de Xn de loi arbitraire avec support [0, ∞), qui satisfont
limx→∞ eF̄−λx
(x)
= k > 0.
4. Probabilités de ruine. Soit
1, avec probabilité p1 = 10
∑
n 13
Xn = x + Zi , Zi =
−1, p−1 = 132
,
i=1
−2, p−2 = 131
97
On aimerait appliquer a ces martingales le théorème d’arrêt. Mais, EZ1 > 0 et la loi
des grandes nombres implique P[T = ∞] > 0] et donc aucun des cas du théorème
d’arrêt ne s’applique pas, car le théorème d’arrêt ne permet pas des temps d’arrêt tq.
P[T = ∞] > 0 !
Dommage, car par une ”application erronée” du théorème d’arrêt aux martingales de
Wald on obtient un système de type Vandermonde
∑
1
ρxi = φj (x)ρ−j
i , i = 1, 2
j=0
(le premier terme converge vers 0, car P[XN → ∞] = 1, et |ρ| < 1).
Les probabilités de ruine sont :
( )x ( )x
6 1 1 −1
ψx = +
7 2 7 5
98