Université de Rennes Préparation à l’agrégation
Modélisation - Proba/stat année 2023-2024
Quelques rappels sur les martingales 1
1 Uniforme intégrabilité
Définition 1. Une famille (Xi )i∈I de variables aléatoires L1 est dite uniformément
intégrable si
lim sup E(|Xi |1|Xi |>N ) = 0.
N →+∞ i∈I
Remarque 1. Si (Xi )i est uniformément intégrable, alors (Xi )i est bornée dans L1 . En
effet, il suffit de prendre N assez grand pour que le sup soit inférieur à 1 et on a alors
supi E(|Xi |) 6 N + 1.
Exemple 1.
• Si X ∈ L1 , {X} est uniformément intégrable.
• Si X1 , . . . , Xn ∈ L1 alors (X1 , . . . , Xn ) est uniformément intégrable.
• Les variables dominées par Z ∈ L1 ie {X, |X| 6 Z p.s.} sont uniformément inté-
grables.
• Une famille bornée dans Lp avec p > 1 est uniformément intégrable. En effet,
|Xi |
E(|Xi |1|Xi |>N ) = E |Xi |p 1|Xi |>N 6 N 1−p E(|Xi |p )
|Xi |p
6 N 1−p sup E(|Xi |p ).
Voici une caractérisation alternative.
Proposition 1. Soit X = (Xi )i une famille de variables aléatoires définies sur un espace
(Ω, F, P) et bornée dans L1 . Alors X est uniformément intégrable ssi
∀ε > 0, ∃δ > 0, (A ∈ F et P(A) < δ) ⇒ (E(|Xi |1A ) 6 ε, ∀i ∈ I) .
Démonstration.
⇒ Soit ε > 0, et N assez grand pour que sup E(|Xi |1|Xi |>N ) < 2ε .
ε
Si on pose δ = 2N et si A est tel que P(A) < δ :
ε
E(|Xi |1A ) = E(|Xi |1A∩{|Xi |>N } ) + E(|Xi |1A∩{|Xi |6N } ) 6 + N P(A) 6 ε.
2
E(|Xi |) sup E(|Xi |)
⇐ Par l’inégalité de Markov, P(|Xi | > N ) 6 N 6 N .
sup E(|Xi |)
Soit ε > 0 et δ associé. Si N est assez grand pour que < δ alors pour
N
tout i, E(|Xi |1|Xi |>N ) 6 ε (prendre A = {|Xi | > N }). Donc X est uniformément
intégrable.
1
Corollaire 1. Soient X ∈ L1 (Ω, F, P), I l’ensemble des sous-tribus de F. Si G ∈ I, on
pose XG := E(X | G). Alors la famille (XG )G∈I est uniformément intégrable.
Démonstration. On va utiliser la caractérisation précédente.
Soit ε > 0, comme X est uniformément intégrable, il existe δ > 0 tel que pour tout
A ∈ F de probabilité au plus δ, on ait E(|X|1A ) 6 ε. Par l’inégalité de Markov, on a
alors P(|E(X | G)| > N ) 6 E(|X|)
N . Soit N assez grand pour que
E(|X|)
N < δ, on a alors
E(|E(X | G)|1|E(X|G)|>N ) 6 E(E(|X| | G)1|E(X|G)|>N )
= E(|X|1|E(X|G)|>N ) 6 ε,
en prenant pour événement A = {|E(X | G)| > N }. Cette majoration est indépendante
de G donc on peut passer au sup, d’où le résultat.
Théorème 1. Soit (Xn )n une suite de variables qui converge en probabilité vers X∞ .
Alors (Xn )n est uniformément intégrable ssi elle converge dans L1 vers X∞ .
Remarque 2. En vertu du théorème ci-dessus, l’uniforme intégrabilité peut être vue
comme une condition nécéssaire et suffisante pour appliquer le théorème de convergence
dominée.
Démonstration.
⇐ Si (Xn )n converge dans L1 alors X est bornée dans L1 et si ε > 0, il existe N assez
grand de sorte que pour tout n > N , E(|Xn − XN |) 6 2ε .
La famille (X0 , . . . , XN ) est uniformément intégrable donc il existe δ > 0 tel que
pour tout i ∈ J0, N K, E(|Xi |1A ) 6 2ε si P(A) < δ.
On a alors pour tout n > N ,
E(|Xn |1A ) = E(|Xn − XN |1A ) + E(|XN |1A ) 6 ε.
⇒ Si (Xn ) est uniformément intégrable, alors (Xm − Xn )m,n l’est aussi. Soit ε > 0.
Pour N assez grand, E(|Xm − Xn |1|Xm −Xn |>N ) 6 ε. Ainsi
E(|Xm − Xn |)) = E(|Xm − Xn |1|Xm −Xn |<ε )
+ E(|Xm − Xn |1ε6|Xm −Xn |6N )
+ E(|Xm − Xn |1|Xm −Xn |>N )
6 ε + N P(|Xm − Xn | > ε) + ε.
Or lorsque m et n tendent vers l’infini, on a
ε ε
P(|Xm − Xn | > ε) 6 P |Xm − X∞ | 6 + P |Xn − X∞ | > → 0.
2 2
On a donc lim supm,n→∞ E(|Xm −Xn |) 6 2ε , i.e. (Xn ) est de Cauchy, donc converge
dans L1 .
2
Corollaire 2. Soit (Xn )n une suite de variables qui converge en probabilité vers X∞ et
p ≥ 1. Alors (Xn ) converge dans Lp vers X∞ ssi (|Xn |p )n est uniformément intégrable.
Exercice 1. Autour de l’uniforme intégrabilité
1. On considère l’espace de probabilités (Ω, F, P) = ([0, 1], B([0, 1]), λ) où λ désigne
la mesure de Lebesgue et la famille de variables aléatoires (Xn )n≥1 définie par
Xn (ω) := n si ω ≤ n1 et 0 sinon. Montrer que (Xn )n≥1 n’est pas uniformément
intégrable.
2. Toujours sur l’espace de probabilités (Ω, F, P) = ([0, 1], B([0, 1]), λ), on considère
la famille de variables aléatoires
1
X := {Xα , α ∈ [0, 1/2]} , où Xα (ω) = √ 1]α,1] (ω).
ω−α
Montrer que la famille X est uniformément intégrable mais qu’elle n’est pas domi-
née par une variable intégrable.
3. Soient X et Y deux familles de variables aléatoires uniformément intégrables dé-
finies sur un même espace de probabilités. Montrer que la famille des sommes
Z := {Z = X + Y, X ∈ X , Y ∈ Y} est uniformément intégrable.
Exercice 2. Uniforme intégrabilité via une fonction test
1. Soit f : R+ → R+ une fonction décroissante telle que limx→+∞ f (x) = 0. Montrez
qu’il existe une fonction continue g : R+ →]0, +∞[ telle que
Z +∞ Z +∞
g(x) = +∞, mais f (x)g(x) < ∞.
2. Montrer qu’une famille de variables aléatoires X est uniformément intégrable si et
seulement si il existe une fonction mesurable φ : R+ → R+ qui est telle que
φ(x)
lim = +∞ et sup E[φ(|X|)] < +∞.
x→+∞ x X∈X
3
2 La notion de martingale
2.1 Définition et exemples
Soit (Ω, F, P) un espace de probabilité.
Définition 2. Une filtration de (Ω, F, P) est une suite croissante de sous-tribus de F.
On dit que (Ω, F, (Fn )n , P) est un espace de probabilité filtré.
Exemple 2. Soit (Xn )n une suite de variables aléatoires. La suite FnX = σ(X0 , . . . , Xn )
est une filtration. On l’appelle filtration canonique associée à (Xn )n .
Si (Ω, F, P) = ([0, 1[, B([0, 1[), λ) alors la suite Gn = σ([ i−1 i n
2n , 2n [, i ∈ J1, 2 K) définit
une filtration appellée filtration dyadique de [0, 1[.
Définition 3. Soit (Xn )n une suite de variables aléatoires et (Fn )n une filtration. On dit
que (Xn )n est adaptée à (Fn )n ssi Xn est Fn -mesurable. On dit que (Xn )n est prévisible
ssi Xn est Fn−1 -mesurable.
Dans la suite, on fixe un espace (Ω, F, (Fn )n , P) filtré.
Définition 4. Soit (Xn )n une suite de variables adaptées à une filtration (Fn )n et telles
que E(|Xn |) < ∞. On dit que
• (Xn )n est une martingale ssi pour tout n ∈ N, E(Xn+1 | Fn ) = Xn p.s.
• (Xn )n est une sous-martingale ssi pour tout n ∈ N, E(Xn+1 | Fn ) > Xn p.s.
• (Xn )n est une sur-martingale ssi pour tout n ∈ N, E(Xn+1 | Fn ) 6 Xn p.s.
Remarque 3. Une sous-martingale croît en moyenne, une sur-martingale décroît en
moyenne.
Proposition 2. Si (Xn )n est une martingale, on a en fait pour tout entier m > n,
E(Xm | Fn ) = Xn p.s. et pour tout n ∈ N, E(Xn ) = E(X0 ).
Démonstration. Le cas n = m est clair, m = n + 1 découle de la définition. Enfin, si
m > n + 2,
E(Xm | Fn ) = E(E(Xm | Fm−1 ) | Fn ) = E(Xm−1 | Fn )
Exemple 3.
• Soit X une valeur aléatoire telle que E(|X|) < ∞ et (Fn )n une filtration. Alors,
Xn = E(X | Fn ) est une martingale dite fermée.
Xn est intégrable car X l’est. (Xn )n est adaptée et :
E(Xn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Xn
A-t-on Xn → X ?
4
n
X
• Soit x ∈ Rn , Yi iid à valeurs dans Rn . On pose X0 = x et Xn = x + Yi . On a :
i=1
E(Xn+1 | Fn ) = E(Xn + Yn+1 | Fn ) = Xn + E(Yn+1 | Fn ) = Xn + E(Yn+1 )
Suivant le signe de E(Y0 ), on a une martingale, sous-martingale ou sur-martingale.
R
• Soit G un groupe, µ une mesure de probabilité sur G telle que G g dµ = eG .
Xn = eg1 . . . gn où gi iid de loi µ.
E(Xn+1 | Fn ) = E(eg1 . . . gn+1 | Fn ) = Xn E(gn+1 | Fn ) = Xn
| {z }
=e
Exercice 3. Urne de Pólya
On dispose (d’une infinité) de boules rouges et vertes. À l’instant 0, une urne contient
une boule de chaque couleur et on effectue une succession de tirages définis par la règle
suivante : on tire une boule de l’urne uniformément au hasard et on la remet dans l’urne
en ajoutant une boule du même couleur. Soit Sn le nombre de boules rouges au temps n,
et Xn := Sn /(n + 2) la proportion de boules rouges au temps n. Montrer que (Xn )n∈N
est une martingale par rapport à sa filtration naturelle (Fn )n∈N et calculer E[Xn ].
Exercice 4. Arbre de Galton–Watson
P
Soit P = n≥0 pn δn une loi de probabilité sur N et (Xn,k )n≥1,k≥1 une famille de variables
aléatoires indépendantes et identiquement distribuées de loi P . On définit par récurrence
une suite (Zn )n≥0 telle que Z0 := 1 et pour n ≥ 0 :
Zn
X
Zn+1 := Xn+1,k .
k=1
La suite Zn représente le nombre d’individus à la génération n d’un arbre de Galton–
P
Watson de loi de reproduction P . On adopte ici la convention ∅ = 0 de sorte que si
Zn = 0 alors Zn+1 = 0. On désigne par m la moyenne de la loi P. Montrer que la suite
(Zn /mn )n≥1 est une martingale positive.
Exercice 5. Modèle de Wright–Fisher
Soient k et N deux entiers tels que 0 < k < N . On définit par récurrence une suite
de variables (XnN )n≥0 de la façon suivante : X0N := k et pour pour tout n ≥ 0 et
N
i ∈ {0, . . . , N }, la loi de Xn+1 sachant que XnN = i est la loi binomiale B(N, i/N ).
N
Montrer que la suite (Xn )n≥0 est une martingale.
5
2.2 Transformées de martingales
Proposition 3. Soit ϕ : R → R une fonction convexe et (Xn )n une suite de variables
aléatoires adaptée telles que E(|ϕ(Xn )| < ∞.
• Si (Xn )n est une martingale, alors ϕ(Xn ) est une sous-martingale.
• Si (Xn )n est une sous-martingale et ϕ croissante, alors ϕ(Xn ) est une sous-
martingale.
Démonstration. On a par Jensen E(ϕ(Xn+1 | Fn )) > ϕ(E(Xn+1 | Fn )) = ϕ(Xn ) si
(Xn )n est une martingale. De même, ϕ(E(Xn+1 | Fn )) > ϕ(Xn ).
Proposition 4. Soit (Xn ) une suite adaptée de variables L1 et (Hn )n une suite prévisible
bornée. On définit (H · X)0 = 0 et pour tout n > 0,
(H · X)n = H1 (X1 − X0 ) + H2 (X2 − X1 ) + . . . + Hn (Xn − Xn−1 ).
Alors
• Si (Xn )n est une martingale, (H · X)n est aussi une martingale.
• Si (Hn )n est positive, et (Xn )n une sur/sous-martingale alors (H · Xn )n est une
sur/sous-martingale.
Démonstration. Comme (Hn )n est bornée, (H · X)n est intégrable. Elle est aussi bien
adaptée. On a enfin
E((H · X)n+1 − (H · X)n | Fn ) = E(Hn+1 (Xn+1 − Xn )) | Fn )
= Hn+1 E(Xn+1 − Xn | Fn ) = 0.
Remarque 4. Si l’on pense en terme de somme de Riemann, la suite (H · X) R
n’est
autre que l’intégrale de H contre les accroissements de X i.e. (H · X)“ = ” HdX.
Alternativement, on peut penser à (H · X) comme un gain cumulé dans une stratégie
boursière : Hk est la mise, Xk −Xk−1 est la fluctuation du marché, donc Hk ×(Xk −Xk−1 )
est le gain à l’instant k et (H · X) comme un gain cumulé.
Exercice 6. Martingale identiquement distribuée
Soit (Xn )n∈N une sous-martingale telle que les variables Xn ont toutes même loi.
1. Montrer que la suite (Xn )n∈N est en fait une martingale, ainsi que (Xn ∨ a)n∈N et
(Xn ∧ a)n∈N où a est un réel fixé.
2. Soient n > m deux entiers et a un réel. Montrer que sur l’ensemble suivant
{ω, Xm (ω) ≥ a}, on a Xn ≥ a presque sûrement. En déduire que la suite (Xn )n∈N
est constante presque sûrement.
6
3 Temps d’arrêt et théorème d’arrêt
3.1 Notion de temps d’arrêt
Définition 5. Une variable aléatoire T à valeurs dans N est un temps d’arrêt par rapport
à la filtration (Fn )n ssi {T = n} ∈ Fn pour tout n ∈ N ou de manière équivalente
{T ≤ n} ∈ Fn pour tout n ∈ N.
Remarque 5. On autorise bien la valeur n = +∞
[ [
{T = ∞} = Ω \ {T = n} ∈ F∞ = σ Fn .
n∈N n∈N
Exemple 4.
• Si N ∈ N est fixé alors T = N est un temps d’arrêt. En effet, {T 6 n} = ∅ si
n < N et Ω sinon, qui appartient bien à Fn .
• Si A ∈ B(R), T = inf{n, Xn ∈ A} est un temps d’arrêt. En effet, on a
{T = n} = {X1 ∈
/ A, . . . , Xn−1 ∈
/ A, Xn ∈ A} ∈ Fn .
Attention, en général, L = sup{n, Xn ∈ A} n’est pas un temps d’arrêt.
Proposition 5. Si S, T, (Tk )k sont des temps d’arrêt, alors S ∧ T , S ∨ T , inf Tk , sup Tk ,
lim inf Tk et lim sup Tk sont des temps d’arrêt.
Démonstration. Soit n ∈ N, {S ∧ T 6 n} = {S 6 n} ∪ {T 6 n} ∈ Fn et de la même
façon {S ∨ T 6} = {S 6 n} ∩ {T 6 n} ∈ Fn . En revenant à la définition de lim sup et
lim inf on a par exemple
[\
{lim sup Tk 6 n} = {T` 6 n} ∈ Fn .
k→+∞ k>1`>k
Définition 6. Soit T un temps d’arrêt. On définit la tribu arrêtée au temps T par
FT = {A ∈ F, A ∩ {T = n} ∈ Fn , ∀n}.
Proposition 6. Si S 6 T sont deux temps d’arrêt, alors FS ⊂ FT .
Démonstration. Soit A ∈ FS . A ∩ {S = k} ∈ Fk pour tout k.
n
[ n
[
A ∩ {T = n} = A ∩ {S = k, T = n} = (A ∩ {S = k} ∩ {T = n}) ∈ Fn .
k=0 k=0
7
Proposition 7. Soit (Yn )n une suite adaptée et T un temps d’arrêt. Alors la variable
aléatoire (
Yn si T = n
1T <∞ YT =
0 sinon
est FT -mesurable.
Remarque 6. Si T < ∞ p.s. alors on peut écrire YT (ω) = Yn (ω) si T (ω) = n donc
YT (ω) = YT (ω) (ω).
Démonstration. Soit B ∈ B(R), n ∈ N.
{1T <∞ YT ∈ B} ∩ {T = n} = {Yn ∈ B} ∩ {T = n} ∈ Fn .
Remarque 7. Si T est un temps d’arrêt et n ∈ N alors T ∧ n est un temps d’arrêt est
YT ∧n est FT ∧n -mesurable donc Fn -mesurable.
3.2 Théorème d’arrêt
Théorème 2. Soit (Xn )n une sur-martingale et soit T un temps d’arrêt. Alors la suite
X T = (XT ∧n )n est une sur-martingale, en particulier, E(XT ∧n ) 6 E(X0 ) pour tout n.
Si (Xn )n est une martingale alors X T aussi et E(XT ∧n ) = E(X0 ) pour tout n.
Démonstration. Pour n > 1, On pose Hn = 1T >n = 1 − 1T <n = 1 − 1T ≤n−1 . C’est une
suite prévisible et bornée. On remarque alors que XT ∧n = X0 + (H · X)n . Le résultat
découle donc du fait que H ·X est une (sur)-martingale. La majoration E(XT ∧n ) 6 E(X0 )
découle de la définition.
Corollaire 3. Si (Xn )n est une (sur)martingale et si T est un temps d’arrêt borné, alors
E(XT )(6) = E(X0 ).
Démonstration. Si T est bornée alors il existe un entier N déterministe tel que T 6 N .
On a alors XT = XT ∧N et dans le cas d’une martingale, on a donc d’après ci-dessus
E(XT ) = E(X0 ). Dans le cas d’une sur-martingale, on a l’inégalité correspandante.
Exemple 5 (Un contre-exemple à garder en tête.). On considère une marche aléatoire
n
X
S0 = 0, Sn = Xi avec Xi ∼ B(±1, 12 ) i.i.d. On pose T = inf{n, Sn = 1}, c’est un
i=1
temps d’arrêt et d’après la loi des grands nombres et le TLC, il est fini p.s.. En revanche,
il n’est pas borné et l’on a
1 = E(ST ) 6= E(S0 ) = 0.
8
Théorème 3. Soit (Xn )n une martingale et soit T un temps d’arrêt. Sous chacune des
conditions suivantes, la variable XT est intégrable et E(XT ) = E(X0 ).
1. T est bornée (déterministiquement),
2. E(T ) < ∞ et ∃C > 0 tel que |Xn+1 (ω) − Xn (ω)| 6 C pour (presque) tout n, ω,
3. T < ∞ p.s., et Xn est bornée indépendamment de n (déterministiquement) ,
4. (Xn ) une martingale uniformément intégrable.
Démonstration.
1. Déjà vu, c’est le corollaire précédent.
2. Si E(T ) < ∞, T < ∞ p.s., donc XT ∧n → XT p.s. lorsque n tend vers l’infini. Par
ailleurs, on a
T ∧n−1
X
XT ∧n − X0 = (Xi+1 − Xi ), donc |XT ∧n − X0 | 6 C(T ∧ n) 6 C × T.
k=0
On conclut par convergence dominée.
3. Le temps T ∧ n est borné donc d’après le point 1), E(XT ∧n ) = E(X0 ). Comme
plus haut, T < ∞ p.s. donc XT ∧n → XT p.s. et comme |Xn | majorée, on conclut
à nouveau par convergence dominée.
4. Ce dernier point est un corollaire du théorème suivant.
Théorème 4. Une martingale (Xn ) est uniformément intégrable ssi elle est fermée i.e.
Xn = E[X∞ |Fn ] pour tout n avec X∞ ∈ L1 . Si T un temps d’arrêt quelconque, on a
alors XT = E(X∞ | FT ). En particulier, E(XT ) = E(X∞ ) = E(X0 ). De plus, si S 6 T
est un temps d’arrêt, alors XS = E(XT | FS ).
Démonstration. Admettons que (Xn ) est fermée et vérifions que XT ∈ L1 . On a :
∞
X
E(|XT |) = E [|Xn |1T =n ] + E [|X∞ |1T =∞ ]
n=0
X∞
= E[1T =n |E(X∞ | Fn )|] + E[|X∞ |1T =∞ ]
n=0
X∞
≤ E[E[|X∞ |1T =n | Fn ]] + E[|X∞ |1T =∞ ]
n=0
X∞
= E[|X∞ |1T =n ] + E[|X∞ |1T =∞ ] = E[|X∞ |] < ∞.
n=0
On vérifie maintenant que XT = E(X∞ | FT ). Soit A ∈ FT . On a
∞
X ∞
X
E(XT 1A ) = E(Xn 1A∩{T =n} ) = E(X∞ 1A∩{T =n} ) = E(X∞ 1A ).
n=0 n=0
9
En prenant A = Ω, il vient en particulier
E(XT ) = E(X∞ ).
Ensuite, si S 6 T ,
XS = E(X∞ | FS ) = E(E(X∞ | FT ) | FS ) = E(XT | FS ).
Exercice 7. Une réciproque au théorème d’arrêt
Soient (Ω, F, (Fn )n≥0 , P) un espace de probabilité filtré et (Xn )n∈N une suite adaptée de
variables aléatoires intégrables. Montrer que, si l’on a E(Xτ ) = E(X0 ) pour tout temps
d’arrêt borné τ , alors la suite (Xn )n∈N est une martingale.
Exercice 8. Ruine du joueur et identité de Wald
Soient a et b des entiers strictement positifs et (Xn )n≥1 une suite de variables aléatoires
indépendantes et identiquement distribuées de loi µ := pδ1 + qδ−1 où 0 < p, q < 1 et
p + q = 1. On pose S0 := 0 et Sn := X1 + . . . + Xn pour n ≥ 1 et on désigne par (Fn )n≥1
la filtration naturelle associée. On suppose dans un premier temps que p 6= q.
1. Montrer que les suites Wn := Sn − (2p − 1)n et Mn = (q/p)Sn issues de 0 et 1
respectivement sont des martingales par rapport (Fn )n≥1 .
2. Soit T = inf{n ≥ 0, Sn ∈]
/ − a, b[}. Montrer que T est un temps d’arrêt fini presque
sûrement.
3. En déduire les valeurs de P(ST = −a), P(ST = b) et E(T ).
On suppose maintenant que p = q = 1/2, de sorte la suite (Sn )n≥0 est une martingale.
4. Montrer que le temps T est toujours fini presque sûrement.
5. Montrer que E(ST ) = 0 et en déduire les expressions de P(ST = −a) et P(ST = b).
On cherche enfin à expliciter E[T ] dans le cas symétrique. Soit φ la transformée de
Laplace de µ i.e. φ(λ) = cosh(λ) = peλ + qe−λ pour λ ∈ R.
6. Pour n ≥ 0, on pose Yn := eλSn /φ(λ)n . Montrer que (Yn )n≥0 est une martingale.
7. Montrer que E(eλST φ(λ)−T ) = 1.
8. Retrouver le fait que E(ST ) = 0 à partir de la dernière égalité.
9. Pour α > 1, calculer E[α−T 1ST =−a ] et E[α−T 1ST =b ]. En déduire E(T |ST ) et E[T ].
10
Exercice 9. La martingale de Labouchère
Dans le cadre d’un jeu de pile ou face équilibré, on considère la stratégie de mise suivante,
dite “martingale de Labouchère”. On se donne à l’avance une liste de nombres L =
{x1 , . . . , xn } avec pour objectif de gagner x1 + x2 + . . . + xn euros “à coup sûr” en un
temps fini. Voici la stratégie :
• avant chaque tirage de pile ou face, on mise la somme des nombres extrémaux de
la liste, par exemple la mise initiale est de x1 + xn euros ;
• si l’on gagne le tirage de pile ou face, on empoche la mise et on actualise la
liste en supprimant les deux nombres extrémaux, par exemple la liste devient
{x2 , . . . , xn−1 } si l’on gagne au premier tirage ;
• si l’on perd le tirage de pile ou face, on perd la mise et on actualise la liste en
ajoutant à la liste initiale la mise actuelle. Par exemple, si l’on perd au premier
tirage de pile ou face, la liste devient {x1 , . . . , xn , xn+1 := x1 + xn }.
• on s’arrête de jouer lorsque la liste est vide ;
• si la liste contient un seul élément xk , on mise cet élément. Si l’on gagne le tirage
de pile ou face, on empoche xk et on s’arrête, sinon la liste est actualisée à {xk , xk }.
Voici un exemple de partie si l’on joue avec la liste L = {1, 2, 4} et si le début de la suite
de pile ou face est P GP GP G (P = perdu, G = gagné). Le premier argument désigne la
somme totale que l’on a gagnée / perdue, le second est la liste actualisée :
P G P
(0, {1, 2, 4}) −→ (−5, {1, 2, 4, 5}) −→ (+1, {2, 4}) −→ (−5, {2, 4, 6})
↓G
G P
(7, {∅}) ←− (−1, {4, 4}) ←− (+3, {4})
1. Montrer que presque sûrement, la martingale de Labouchère permet effectivement
de gagner x1 + x2 + . . . + xn euros en un temps aléatoire T qui vérifie E[T ] < +∞.
2. Si Xk désigne la somme gagnée / perdue après k tirages de pile ou face, calculer
E[inf k≥1 XT ∧k ].
11