CMMA
CMMA
Emily Clement
Enseignant : Mihaï Gradinaru
Master de Mathématiques
Semestre 1
2015-2016
Table des matières
1 Conditionnement 4
I Rappels sur les probabilités conditionnelles, approche naïve
de l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . 4
II Absolue continuité et théorème de Radon-Nikodym . . . . . . 6
III Définition générale de l’espérance conditionnelle . . . . . . . . 9
IV Propriété de l’espérance conditionnelle . . . . . . . . . . . . . 17
V Calcul de l’indépendance conditionnelle dans le cas gaussien . 25
VI Loi conditionelle . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Chaînes de Markov. 83
I Construction et première propriétés d’une chaîne de Markov . 83
II Exemples de Chaînes de Markov . . . . . . . . . . . . . . . . 88
1 Trajectoire . . . . . . . . . . . . . . . . . . . . . . . . 88
2 Processus de branchement (Galton-Watson) . . . . . . 89
3 Marche aléatoire. . . . . . . . . . . . . . . . . . . . . . 89
4 Série de succès (Basket) . . . . . . . . . . . . . . . . . 90
5 Le modèle de l’inventaire . . . . . . . . . . . . . . . . 90
1
TABLE DES MATIÈRES
Voici les notes de cours prises lors de mon année de Master 1 de mathé-
matiques fondamentales, basées exclusivement sur le cours magistral de Mr.
Gradinaru, professeur à l’université de Rennes 1.
Voici les références bibliographiques de ce cours :
Foata et Fuchs, "Processus stochastiques"
D. Williams, "Probabilities with Martingales"
Norris, "Markov Chains"
Ce cours est la suite naturelle du cours de FPR.
Utilité : comprendre d’autres phénomènes qui font intervenir le hasard.
Étudier des suites de variables aléatoires ayant des propriétés particulières
(martingales, chaînes de Markov)
3
Chapitre 1
Conditionnement
4
CHAPITRE 1. CONDITIONNEMENT
Remarque 1.1.
E(1Ai Y )
car E (Y |Ai ) = P(Ai )
3. Soit X une v.a. discrète X(Ω) = {x1 , x2 , . . .}
On suppose que P (X = xj ) > 0.
P(B,X=x )
On sait calculer P (B|X = xj ) = P(X=xj )j
E(1B |X = xj )1X=xj
X
E(1B |X) =
j>1
2. il existe gR : E → R
R + mesurable positive telle que ∀A ∈ F
µa (A) = A gdµ = 1A gdµ et g est unique à un ensemble de
X
µ-mesure nulle près.
dν
X est p.s. unique et on note X = dP ou dν = XdP.
Démonstration.
Preuve du théorème de Radon Nikodyn pour la probabilités :
Définissons une probabilité sur F suivante : Q(A) = ν(A)
def
ν(Ω) et Q << P
Notons P∗ = P +Q
2 probabilités sur (Ω, F) et P ∗
R << P∗
2 ∗
H = L (P ) espace de Hilbert avec (Y, Z) = Y ZdP
et soit L(Y ) = Y dQ, L : L2 (P∗ ) → R
R
Ω
|L(Y )| 6 |Y |dQ 6 |Y |dQ + |Y |dP = 2 |Y |dP∗ 6 2( |Y |2 dP∗ )1/2
R R R R R
Donc L est bornée, donc continue, donc par Riesz ∃Z ∈ L2 (P∗ ) telle que :
Z
Y dQ = L(Y ) = (Y, Z), ∀Y ∈ L2 (P∗ )
Z
= Y ZdP∗
Z Z
YZ YZ
= dP + dQ
2 2
d’où :
Q(A) Q(A)
06 ∗
6 = 2 ⇒ 0 6 Q(A) 6 2P∗ (A)
P (A) Q(A)/2
Z Z
⇒06 ZdP∗ 6 2dP∗
A A
⇒ 0 6 Z 6 2, P∗ -p.s.
⇒ 0 6 Z 6 2 p.s.(P∗ , P, Q)
Le membre de gauche tend vers Q(A) par convergence dominée, car Z/2 < 1,
R Z/2
et celui de droite tend vers 1−Z/2 dP par convergence monotone.
A
Z
Z
Q(A) = dP, ∀A ∈ F.
2−Z
A
Z
Il suffit de prendre X = 2−Z
Corollaire 1.1.
Q(A)
b = P(B, X ∈ A), Pb(A) = P(X ∈ A)
Pb, Q
b sont des probabilités sur B(R). On a alors :
0 6 Q(A)
b 6 Pb(A)
On a ainsi :
Z Z
P(B, X ∈ A) = g(x)Pb(dx)” = ” P(B|X = x)Pb(dx)
A A
D’où :
P(B|X(ω)) = g(X(ω)) = P(B|X) = g(X)
Démonstration.
Supposons que RY > 0.
Posons ν(A) = T dP = E(1A Y ), A ∈ F
A
ν est une mesure positive finie et ν << P
Alors ν|G << P|G , donc il existe une unique dérivée de R-N. P|G -p.s.
dν
E(Y |G) = dP|G > 0, G-mesurable (corollaire) donc il existe une unique mesure
|G
(P|G −ps) dérivée de Radon-Nikodym :
dµ|G
E (Y |G) = ≥0
dP|G
dµ|G
Z Z
µ|G G = µ (G) = dP|G = E (Y |G) dP
dP|G
G G
∀G ∈ GE 1G Y 0 = E (1G Y ) = E (1G Y ”)
E (Y |X) = E (Y |σ (X))
E (Y |Xt , t ∈ T ) = E (Y |σ (Xt , t ∈ T )) .
Proposition 1.2.
F
Exemple 1.2. On suppose que Ω = An une partition :
( )n≥1
Aj , J ⊂ N . Soit Y ∈ L1 (P) et on pose
S
G = σ (An , n ≥ 1) =
j∈J
E(1An Y )
(
= P(An ) si P (An ) > 0
eAn (Y )
= 35 si P (An ) = 0
Alors :
eAn (Y ) 1An ps.
P
1. E (Y |G) =
n≥1
P (A|An ) 1An ps.
P
2. ∀A ∈ F, P (A|G) =
n≥1
eAn (Y ) 1A est G−mesurable.
P
Vérifions la première définition :
n≥1
Soit G ∈ G et vérifions le deuxième point de la définition :
G
G= Aj , J ⊂ N
j∈J
!
eAn (Y ) 1An
R P R F
Vérifions dP 6= Y dP. Comme G = Ai
n≥1 G i
Z XXZ
eAn (Y ) 1An dP = eAn (Y ) 1An dP
X
n≥1 n≥1 j∈J A
j
XX \
= eAn (Y ) P Aj An
n≥1 j∈J
X
= AAj (Y ) P (Aj )
j∈J
1Aj Y
XE
= · P (Aj )
P (Aj )
j∈J
1Aj Y = E 1
X
= E F
Aj Y
j∈J
j∈J
= E (1G Y )
Z1
|g| dλ < ∞
0
l−1
, nl où l ∈ J1, nK :
Calculons E (g|Gn ), on pose au préalable G = n
l
h i Zn
E g 1] l−1 , l ] = g (x) λ (dx)
n n
l−1
n
l
Zn
1
= ×n g (x) λ (dx)
n
l−1
n
n
gj 1] l−1 , l ] · 1] l−1 , l ]
X
= E
n n n n
j=1 | {z }
=1G
n
gj 1] j−1 , j ]
X
=
n n
j=1
Donc :
j
n Zn
gi 1] j−1 , j ] , où gj = n
X
E (g|Gn ) = g (x) λ (dx)
n n
i=0 j−1
n
E Y 1{X=0} 1 1 1
2· 6 +4· 6 +6· 6
ϕ (0) = 1 = 1 =4
2 2
ϕ (1) = 3
( E(Y 1
X=xn )
P(X=xn ) si P (X = xn ) > 0
E (Y |X) = ϕ (X) ou ϕ (x) =
0 sinon
et Z
E [1G q (X)] = q (x) dP
G
Z
E [1G g (X)] = q (x) dp
G
Z
= q (Xn ) |{z}
dP
P(dω)
Z
= q (X) PX (dx)
B
Z
= q (x) fX (x) dx
B
Z Z Z
= f (x, y) dy dx + 0dx
C
B∩{fX (x)=0} B∩{fX (x)=0}
Z Z
∗
= f (x, y) dxdy
B×C
= P (X ∈ B, Y ∈ C)
\
= P G {Y ∈ C}
On a (∗) car :
Z Z Z
f (x, y) dy dx = f (x, y) dxdy
C
B∩{fX (x)=0} B∩{fX (x)=0}
\
= P X ∈ B {fX (x) = 0} , Y ∈ C
\
≤ P X ∈ B {fX (x) = 0}
Z
= fX (x) dx
T
B {fX (x)=0}
=0
Exemple 1.7.
(X, Y ) couple aléatoire. f (x, y) = exp−x 10≤y≤x h borélienne bornée.
Z
1
ψ (x) = h (y) f (x, y) dy si fX (x) > 0
fX (x)
Rx
h (y) exp−y dy
= 0 x
R
exp−y dy
0
Zx
1
= h (y) dy
x
0
Démonstration.
Le membre de droite est G−mesurable. Soit G ∈ G quelconque, alors
E (Y |G) = Y ps
Si Y ∈ L1 , alors :
E [Y | {∅, Ω}] = E [Y ] ps
Démonstration.
E [Y ] est mesurable par rapport a {∅, Ω} soit G ∈ G quelconque, alors
E [1G E (Y )] = E [1G Y ].
E [Y |G] ≥ 0 ps
Si Y, Y 0 ∈ L1 , et Y ≤ Y 0 alors :
E (Y |G) ≤ E Y 0 |G
Démonstration.
Soit G ∈ G quelconque. On regarde :
Démonstration.
|E (Y |G)| = E Y + |G − E Y − |G
= E Y + |G + E Y − |G
= E Y + + Y − |G
= E (|Y | |G)
Donc :
Démonstration.
Par la propriété de monotonie : {E (Yn |G)} monotone.
def
Notons Z = lim ↑ E (Yn |G)
n→+∞
Clairement Z est G−mesurable.
Pour G ∈ G quelconque,
E [1G Z] = E 1G lim ↑ E (Yn |G)
n→+∞
Donc Z = Y ps
Si Yn ≤ Z ∈ L1 alors :
E lim sup Yn |G ≥ lim sup E (Yn |G) ps
n−→+∞ n−→+∞
W V
Une autre notation pour min : et max :
k≤n k≥n
Démonstration.
E lim inf Yn |G =E lim ∧k≥n Yn |G
n−→+∞ n→+∞
= lim E min Yk |G ps
n→+∞ k≥n
Démonstration.
ZE (Y |G) est une variable aléatoire G−mesurable. Soit G ∈ G quelconque et
vérifions que
(1) E [1G ZE (Y |G)] = E [1G ZY ]
Soit d’abord Z = 1H où H ∈ G :
E [1G 1H E (Y |G)] = E [1G∩H E (Y |G)]
= E [1G∩H Y ]
= E [1G 1H Y ]
p
1H et d’après la linéarité, vraie pour Z = Ci 1Hi où
P
(1) est vraie pour
i=1
Hi ∈ G. Soit Y, Z ≥ 0, il existe une suite Zn convergeant de façon monotone
pn
ci 1H (n) D’après ce qui précède :
P (n)
(croissante) vers Z avec Zn =
i=1 i
Si G1 ⊂ G2 ⊂ F alors pour Y ∈ L1 , on a :
Démonstration.
Soit G ∈ G1 quelconque et comme E (Y |G1 ) est G1 −mesurable. On a :
F
Pour parle de lissage car : Ω = An et G = σ (An , n ≥ 1), donc E (Y |G) =
n≥1
ean (Y ) 1An c’est donc construite sur chaque An .
P
n≥1
(1) (2)
Soient G1 = σ An , n ≥ 1 ⊂ G2 = σ An , n ≥ 1 alors :
G G
Ω= A(1)
n = A(2)
n
n≥1 n≥1
E (W (Y − Z0 )) = 0, ∀W ∈ L2 (G)
Exemple 1.8 (-Par Adrien). Si par exemple on dit que la variable aléatoire
n’est pas totalement aléatoire : exemple, un lancé de dès où le dès est truqué
et ne tombera jamais sur 1. Plutôt que regarde toute les probabilité, on sait
qu’on ne peut pas tomber sur 1 et on regarde juste sur {2, 3, 4, 5, 6}. On réduit
notre tribu, notre ensemble des possibles...
E (Y |G) = E (Y ) ps
Démonstration.
E [1G E (Y )] = E (Y ) E (1G ) = E (Y 1G )
Démonstration.
Eϕ = (a, b) ∈ R2 , ϕ (y) ≥ ay + b, ∀y ∈ R On a le lemme d’analyse (admis)
suivant :
Lemme 1.2 (Analyse : Voir Gourdon).
∀y ∈ R :
not
ϕ (y) = sup (ay + b) = sup (ay + b) = sup (an y + bn )
(a,b)∈Eϕ (a,b)∈Eϕ ∩Q2 n≥1
On a alors :
E [ϕ (Y )] ≥ sup (an E (Y |G) + bN ) = ϕ (E (Y |G))
n≥1
∀X0 ∈ R la courbe de ϕ est au-dessus d’une droite passant par (x0 , ϕ (x0 ))
ϕ (x) ≥ ϕ (x0 ) + λ (x0 ) (x − x0 )
| {z }
une pente
1er car : Si E (Y |G) est bornée ainsi que λ (E (Y |G)) et tout est inté-
grable et Jensen est vrai.
2e cas : En général soit Yn = Y 1{|E(Y |G)|≤n} , n ≥ 0.
Propriétés 1.14.
Si Y ∈ Lp , où p ≥ 1 alors :
kE (Y |G) kp ≤ kY kp
Proposition 1.3.
!
1 (σ − m)2
qm,σ2 (y) = √ exp −
2πσ 2 2σ 2
où 2
d
X
σ 2 = E Y − aj Yj
j=1
Remarque 1.2. !2
d
Si σ 2 = 0, alors, comme on a alors E Y −
P
aj Yj = 0, donc
j=1
d
ps X
Y = aj Yj
j=1
donc :
Xd
E [h (Y ) |Y1 , . . . , Yd ] = E h aj Yj |Y1 , . . . , Yd
j−1
= h (a1 Y1 + · · · + ad Yd )
Matrice de covariance :
0
..
Cov (Y1 , . . . , Yd ) .
0
0 . . . 0 Var Y − Yb
Montrons
que E (Y |σ (Y1 , . . . , Yd )) = a1 Y1 + · · · + ad Yd =: Yb :
Y1 , . . . , Yd , Y − Yb est un vecteur gaussien centré, car toute com-
binaison linéaire de ses coordonnées est une variable aléatoire réelle
gaussienne car (Y1 , . . . , Yd ) est gaussien. donc Y − Yb ⊥ ⊥ (Y1 , . . . , Yd ).
Calculons
E (Y |Y1 , . . . , Yd ) = E Y − Yb |Y1 , . . . , Yd + E |{z} Yb |Y1 , . . . Yd
P
| {z } = aj Yj
=
|{z} E(Yb −Y )=0 | {z }
⊥
⊥ =Yb
= 0 + Yb
= Yb
Exemple 1.9.
On notera souvent par abus de langage EX E (X) !
E ((Y − cX) X) = E (Y X) − cE X 2
On a deux cas
:
— Si E X 2 = 0 alors X = 0 et il est hors de propos de conditionner
par 0.
— Si E X 2 6= 0, alors :
E (Y X) Cov (Y, X)
c=
E (X 2 ) Var (X)
donc :
Cov (Y, X)
E (Y |X) = X
Var (X)
Lemme 1.3.
Soient :
— Z un vecteur gaussien centré
— n premier
— Z1 = B1 Z et Z2 = B2 Z où B1 , B2 sont deux matrices.
Z1 ⊥
⊥ Z2 ⇔ ϕ(Z1 ,Z2 ) (u1 , u2 ) = ϕZ1 (u1 ) ϕZ2 (u2 ) ∀u1 , u2
⇔ E [exp (i (u∗1 Z1 + u∗2 Z)2))] = E (exp (iu∗1 Z1 )) E (exp (iu∗2 Z2 )) ∀u1 , u2
⇔ u∗1 Z1 ⊥
⊥ u∗2 Z2
⇔ Cov (u∗1 Z1 , u∗2 Z2 ) = 0, ∀u1 , u2 car (u∗1 Z1 , u∗2 Z2 ) est un vecteur gaussien
⇔ E [(u∗1 Z1 ) (U2∗ Z2 )∗ ] = 0 ∀u1 , u2
⇔ u∗1 E (Z1 Z2∗ ) u2 = 0 ∀u1 , u2
⇔ ΓZ1 ,Z2 = 0
Retour à la démonstration.
On utilise le lemme et on trouve :
0 = ΓY −CX,X = E ((Y − CX) X ∗ ) = E (Y X ∗ ) − CE (XX ∗ )
donc
C = ΓY X Γ−1
XX
D’où :
E (Y |C) = E CX + Y 0 |X = CX + E Y 0 |X
Remarque 1.3.
Si ΓXX n’est pas inversible, elle est symétrique et positive, ΓXX = P ∆P ∗
avec ∆ = diag (λ1 ,. . . , λr , 0, 0, . . . , 0).
Notons ∆0 = diag λ11 , . . . , λ1r , 0, · · · et Γ0 = P ∆0 P ∗ .
Dans ce cas, on peut vérifier que E (Y |X) = ΓY X Γ0 X. (Exo)
VI Loi conditionelle
Définition 1.6.
Exemple 1.10.
2. X ∼ P (λ) Y ∼ P (µ), X ⊥
⊥ Y , on note X + Y = S ∼ P (λ + µ)
P (X = n, S = m)
P (X = n|S = m) =
P (S = m)
P (X = n, Y = m − n)
=
P (X + Y = m)
⊥ P (X = n) P (Y = m − n)
⊥
=
P (X + Y = m)
m n
= p (1 − p)m−n
n
λ
avec p = λ+µ ∈ ]0, 1[.
La loi conditionnelle de X sachant x = m est B (m, p) :
m
X m i
N (m, ·) = p (1 − p)m−i δi
i
i=0
Proposition 1.4.
Définition 1.7.
P (Y ∈ C|X = x) = N (x, C)
δx (A) sinon
I Définitions
Soit (Ω, F, P) un espace de probabilité.
F0 ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F
On appelle alors Ω, F, (Fn )n≥0 , P espace de probabilité filtré.
Fn est l’information dont on dispose à l’instant n : Elle s’accumule
au cours du temps.
33
CHAPITRE 2. MARTINGALES (À TEMPS DISCRET)
— ∀n ≥ 0 : Xn ∈ L1 et Xn ∈ Fn .,
— E (Xn+1 |Fn ) = Xn p.s. ∀n ≥ 0.
— Xn ∈ L1 et Xn ∈ Fn ∀n ≥ 0
— Xn ≥ E (Xn+1 |Fn ) p.s. ∀n ≥ 0
— Xn ∈ L1 et Xn ∈ Fn ∀n ≥ 0
— Xn ≤ E (Xn+1 |Fn ) p.s. ∀n ≥ 0
Si m = n + 1 c’est la définition.
Si m ≥ n + 2 : C’est une récurrence sur m − n.
Démonstration.
Il est clair que {σ (X0 , X1 , . . . , Xn ) , n ≥ 0} est une filtration.
Comme Xn ∈ Fn , alors σ ((X0 , X1 , . . . , Xn )) ⊂ Fn , donc :
E (Xn+1 |σ ((X0 , X1 , . . . , Xn ))) = E (E (Xn+1 |Fn ) |σ ((X0 , . . . , Xn )))
(2)
↓
= E (Xn |σ ((X0 , . . . , Xn )))
= Xn
Le sens retour est trivial : Xn ∈ Fn mesurable,.
Définition 2.5.
alors (dn ) est une suite vérifiant les deux points de la définition :
II Exemples de martingales
1 Martingale formée
Soit X ∈ L1 une variable aléatoire réelle, et (Fn )n≥0 une filtration.
On pose :
def
Xn = E (X|Fn )
Alors (Xn ) est une (Fn )-martingale.
2 Marche aléatoire
Soit (Zn ) une suite de variable aléatoire réelle indépendantes intégrales
telles que E (Zn ) = 0 ∀n ≥ 0. On pose :
n
X
X0 = 0, Xn = Zk , Fn = σ ((Z1 , . . . , Zn ))
k=1
Hn ∈ Fn−1 , ∀n ≥ 1
H0 ∈ F0
En gardant les mêmes notations que dans la définition, soit (Xn ), on note :
(H · X)0 = 0 et pour n ≥ 1
(H · X)m = H1 (X1 − X0 ) +H2 (X2 − X1 ) + · · · + Hn (Xn − Xn−1 )
| {z } | {z } | {z }
=d1 =d2 =dn
= H1 d1 + · · · + Hn dn
Xn
= Hj dj
j=1
4
Soit (Zn )n une suite de variables aléatoires indépendantes, identiquement
distribuée, à valeur dans N.
Z
G (s) = E S 1 la fonction génératrice commune des (Zn )
def s
et : Mn = G(s)n
alors (Mn ) est une (Fn ) −martingale.
⊥
⊥
= sSn E sZn+1
= sSn G (s)
Donc :
sSn+1
1 Sn+1
E [Mn+1 |Fn ] = E n+1 |F n n+1 E s |Fn
G (s) G (s)
Exemple 2.1. Soit (Xn ) une martingale, alors (|Xn |), Xn2 , (Xn+ ) sont des
sousmartingales.
Démonstration.
1.
par Jensen
E [ϕ (Xn+1 ) |Fn ] ≥ ϕ (E (Xn+1 |Fn ))
= ϕ (Xn )
Définition 2.7.
Xn = Mn + An p.s. ∀n ≥ 0
= A0n p.s.
Donc Mn = Mn0 p.s.
Exemple 2.2.
On a vu que si {(Xn ,Fn ) , n ≥ 1
2
0} est une martingale telle que Xn ∈ L
∀n ≥ 0 alors Xn , Fn , n ≥ 0 est une sous-martingale.
Quelle est sa décomposition de Doob ?
Posons :
d˜0 = X02 et d˜j = Xj2 − E Xj2 |Fj−1
Xn
Mn = d˜j ,et Aj = Xj2 − Mj
j=0
2
|Fn − Xn2
An+1 − An = E Xn+1
2
Xn2 |Fn
= E Xn+1
= E (Xn+1 − Xn )2 |Fn
Car Xn est une martingale.
Xj2 = (Xj−1 + dj )2
2
= Xj−1 + 2Xj−1 dj + d2j
E Xj2 |Fj−1 = Xj−1
2
+ 2Xj−1 E (Dj |Fj−1 ) + E d2j |Fj−1
2
+ E d2j |Fj−1
= Xj−1
Xn
E d2j |Fj−1
An =
j=1
Remarque 2.2.
On a si E (dj |Fj−1 ) = 0, Var (dj |Fj−1 ) = E d2j |Fj−1 = Var (dj ) (Cf TD
n*1 sur la variance conditionnelle)
Si {dj } est une suite de variable indépendantes alors Var (An ) = Var (Xn )
IV Temps d’arrêt
Définition 2.8 (Temps d’arrêt).
{T = n} ∈ Fn , ∀n ∈ N
!
S S
{T = +∞} = Ω\ {T = n} ∈ F∞ où F∞ = σ Fn .
n≥0 n≥0
En effet :
Démonstration.
FT est bien une tribu (Exercice) donc FT ⊂ F∞ .
si T ≡ k donc FT = F∞
Démonstration.
En effet :
\ \
A {T = ∞} = A {T < ∞}c
!c
\ [
=A {T = n}
n∈N
\ \
= A {T 6= n} ∈ F∞
n∈N
c
A ∈ FT ⊂ F∞ , donc {T = n} = {T 6= n} ⊂ Fn ⊂ F∞
Propriétés 2.2.
On a T ∈ F∞ et T ∈ FT
Preuve en exercice.
Démonstration.
n
[
{T ≤ n} = {T − j} ∈ Fn
j=0
{T = n} = {T ≤ n} \ {T ≤ n − 1}
\
= {T ≤ n} {T ≤ n − 1}c ∈ Fn
{T > n} = {T ≤ n}c
Propriétés 2.4.
Soit A ∈ F∞ , alors :
\
A ∈ FT ⇔ A {T ≤ n} ∈ Fn , ∀n ∈ N
Démonstration en TD. T
En général, il est faux de dire que si A ∈ FT alors A {T > n} ∈ Fn .
Propriétés 2.5.
W V
Soient S, T deux temps d’arrêt, alors S T et S T (Max et Min
respectivement) sont des temps d’arrêt.
Démonstration.
n _ o \
S T ≤ n = {S ≤ n} {T ≤ n} ∈ Fn
n ^ o \
S T > n = {S > n} {T > n} ∈ Fn
V
En particulier, si n ∈ N fixé, alors T S est un temps d’arrêt (borné par
N ). Plus généralement, si (Tk ) est une suite de temps d’arrêt alors :
sup Tk , sup Tk , lim sup Tk , lim inf Tk sont des temps d’arrêt
k k k−→+∞ k−→+∞
Si de plus, (Tk ) est une suite monotone, alors lim Tk est un temps d’arrêt.
k−→+∞
Propriétés 2.6.
Propriétés 2.7.
{S < T } , {S = T } , {S ≤ T }
sont dans FS et FT .
Démonstration.
\ \
{S < T } {S = n} = {n < T } {S = n} ∈ Fn
[ \
{S < T } = {S < T } {S = n} ∈ F∞
n≥0
Propriétés 2.8.
Si A ∈ FS , alors :
\
A {S ≤ T } ∈ FT et
\
A {S < T } ∈ FT
Démonstration.
∀n ∈ N,
\ \ \ \
A {S ≤ T } {T = n} = A {S ≤ n} {T = n}
Propriétés 2.9.
Si S ≤ T alors FS ⊂ FT .
Propriétés 2.10.
Démonstration.
Soit B ∈ B (R) alors :
1{T <∞} YT ∈ B
\ \
{T = n} = {Yn ∈ B} ∈ Fn car (Yn ) est adapté {T = n} ∈ Fn
| {z }
XT ∈ L1 et E (XT ) = E (X0 )
Notons que Xn V T = {X0 , X1 , · · · , xn = XT , XT , · · · }
Démonstration.
Si n ≥ 1 alors on pose Hn = 1{T ≥n} ∈ Fn−1 ∀n ≥ 1.
def
Hn est prévisible.
Alors Xn V T = X0 + (H · X)n donc c’est une martingale.
Xn V T = X0 + H1 (X1 − X0 ) + · · · + Hn (Xn − Xn−1 )
= X0 + 1{T ≥1} (X1 − X0 ) + · · · + 1{T ≥n} (Xn − Xn−1 )
= X0 1{T ≥0} − 1{T ≥1} + X1 1{T ≥2} − 1{T ≥1} + · · · +
Xn V T = XT 1n T + Xn 1T ≥n
n−1
Xj 1{T =j} + Xn 1{T ≥n}
X
=
j=0
n−1
Xj 1{T =j} + E Xn 1{T ≥n} |Fn−1
X
E Xn T |Fn−1 =
V
j=0
n−1
Xj 1{T =j} + 1{T ≥n} E (Xn |Fn−1 )
X
=
| {z }
j=0
=Xn−1
= X(n−1) V
T
Démonstration.
Il suffit de montrer l’égalité suivante : (∗) E (Xn |FS ) = XS p.s. pour un
temps d’arrêt S bornée par n.
Si (∗) est vraie alors :
XS = E (XN |FS )
= E [E (XN |FT ) |FS )
= E (XT |FS )
|1G {z E 1G{S=j} Xj
E {S=j} Xn =
T
} (Xn ) martingale
=1G 1{S=j}
1G T{S=j} XS
=E
(E (Xn |Fj ) = Xj )
On sonne pour j allant de 0 à n :
E [1G Xn ] = E [1G Ss ]
D’où le résultat.
1 = E (XT ) 6= E (X0 ) = 0
Remarque 2.3.
Pour une martingale, quand est-ce que E (XT ) = E (X0 ) ?
C’est bon pour T borné.
Autre cas facile : si la martingale (Xn ) est borné et T est fini p.s. :
En effet T ∧ n est un temps d’arrêt borné, par n, et
E (XT ∧n ) = E (X0 ) , ∀n ∈ N
on a donc :
XT ∧n −→ XT = XT 1T <∞
p.s. p.s.
n→+∞
et E (XS ) = E (XT )
— Xn ∈ L1 et Xn ∈ Fn ∀n ≥ 0
— Xn ≥ E (Xn+1 |Fn ) p.s. ∀n ≥ 0
On a déjà vu une opération sur les sur-martingales : arrêt à l’instant aléatoire
T :
(XT ∧n ) reste une sur-martingale.
On va à présent regarder une autre opération : collage.
Démonstration.
Xn = Xn 1{n<T } + Xn 1{n≥T } ∈ Fn ∀n.
(1) (2)
On a alors :
Xn ≥ E Xn+1 |Fn 1{n<T } + E Xn+1 |Fn 1{n≥T }
(1) (2)
h i
= E Xn+1 1{n<T } + Xn+1 1{n≥T } |Fn
(1) (2)
(1) (2)
Mais sur {T = n + 1} on a Xn+1 ≥ Xn+1
Xn+1 1{n<T } + Xn+1 1{n≥T } = Xn+1 1{n+1<T } + Xn+1 1{n+1=T } + Xn+1 1{n≥T }
(1) (2) (1) (1) (2)
G
car {n < t} = {n + 1 < T } {n + 1 = T }
Xn+1 1{n<T } + Xn+1 1{n≥T } ≥ Xn+1 1{n+1<T } + Xn+1 1{n+1=T } + Xn+1 1{n+1≥T }
(1) (2) (1) (2) (2)
= Xn+1
et
sup Xn < +∞p.s. sur {X0 < +∞}
n≥0
Démonstration.
Soient deux sur-martingales positives :
Xn(1) = Xn , Xn(2) ≡ a
On définit Ta inf {n, Xn ≥ a}. C’est un temps d’arrêt car (Xn ) est une mar-
tingale adaptée.
Sur {Ta < ∞} on a :
(1) (2)
XTa = XTa ≥ a = XTa
Alors, d’après le collage :
Yn = Xn 1{n < Ta } + a1{n≥Ta }
est une sur-martingale positive.
En particulier, Y0 ≥ E (Yn |F0 ), ∀n ≥ 0. (∗)
Y0 = X0 1{0<Ta } + a1{0≥Ta }
= X0 1{X0 <a} + a1{X0 ≥a} = X0 ∧ a
Par ailleurs Yn ≥ a1{n≥Ta } .
On revient dans l’inégalité (∗) :
X0 ∧ a ≥ aP (Ta ≤ n, F0 )
P (Ta ≤ n|F0 ) ≤ Xa0 ∧ 1.
Quand n tend vers l’infini, on a :
X0
P (Ta ≤ ∞|F0 ) ≤ ∧1
a
Autrement dit la première inégalité. Pour obtenir la deuxième inégalité, mul-
tiplions la première par 1{X0 <∞} et prenons l’espérance :
X0
E 1{X0 <+∞} E 1 |F0 ≤ E 1{X0 <+∞} ∧1
( )
sup Xn ≥a a
n≥0
Ou encore :
X0
P X0 < +∞, sup Xn ≥ a ≤ E 1{X0 <+∞} ∧1
n≥0 a
1{X0 <+∞} X0
a ∧ 1 est une variable aléatoire inférieur à 1, qui tend vers 0
quand a tend vers +∞. Donc :
P X0 < +∞, sup Xn = +∞ = 0
n≥0
T1 = inf {n ≥ 0 , xn ≤ a}
T2 = inf {n ≥ T1 , xn ≥ b}
T3 = inf {n ≥ T2 , xn ≤ a}
T4 = inf {n ≥ T3 , xn ≥ b}
..
.
Si on prend {xn } ∈ RN .
{xn } est convergente dans R̄ si et seulement si U (a, b) < ∞ ∀a < b
rationnels.
où
U (a, b) = max {p : T2p < ∞}
c’est le nombre de traversées de [a, b] par la suite (xn ).
Démonstration.
Supposons lim inf xn < lim sup xn alors il existe a, b ∈ Q tel que
Pour une infinité d’indices xn < a, et pour une infinité d’indices xn > b.
U (a, b) = ±∞
On remarque que
\
ω, lim Xn (ω) existe = {U (a, b) (ω) < ∞}
n→+∞
a<b,a,b∈Q
Démonstration.
On utilise les Tk pour faire des "collages".
(1) (2)
Soient Xn ≡ 1 et Xn = Xan et T1 .
(2)
Sur {T1 < ∞} : X1 = 1 ≥ XT1
= 1{n<T1 } + 1
(1) Xn
On a Yn a {n≥T1 } sur-martingale positive.
(3) (1) (4)
Soient Xn = Yn et Xn ≡ ab et T2 ≥ T1 .
Sur {T2 < ∞} :
(3) XT2 b(1)
(4)
XT2 = YT2 = ≥ = XT2
a a
Donc on pose le deuxième terme de la suite :
b
Yn(2) = Yn(1) 1{n<T2 } + 1n≥T2
a
(2) b Xn
qui est également une sur-martingale positive. Que valent Yn et a a sur
{T3 < ∞} ?
(2) b b XT3
TT3 = ≥
a a a
On construit le troisième terme :
b Xn
Yn(3) = Yn(2) 1{n<T3 } + 1
a a {n≥T3 }
(2)
Yn 1{n<T3 } est une sur-martingale positive.
Xn
Yn = 1{n<T1 } + 1
a {T1 ≤n<T2 }
b b Xn
+ 1{T2 ≤n<T3 } + 1
a 1 a {T3 ≤n<T4 }
k−1
b Xn
+ ··· + 1
a a {T2k−1 ≤n<T2k }
k
b
+ 1{T2k ≤n}
a
Donc a k
X0
P (T2k ≤ n|F0 ) ≤ 1∧
b a
Si on fait tendre n vers +∞ :
a k X0
P (U (a, b) ≥ k|F0 ) ≤ a∧
b a
P (U (a, b) = +∞|F0 ) = 0
Démonstration.
On a U (a, b) < ∞, ∀a < b rationnels, il existe lim Xn = X∞ p.s.
n→+∞
Si n ≥ p :
E inf Xm |Fp ≤ E (Xn |Fp ) ≤ Xp
m≥n
p.s.
Soit (Xn ) une sur-martingale positive (Donc Xn −→ X∞ )
n→+∞
Soient T et S deux temps d’arrêt (non nécessairement bornés).
Alors XS ≥ E (XT |FS ) p.s. sur {S ≤ T }.
Remarque 2.5.
Lemme 2.2.
Démonstration du théorème.
Il suffit que montrer que ∀n ∈ N̄ :
1A∩{S=n} E (ξ|Fn ) A ∩ {S = n} ∈ Fn , ∀n ∈ N̄
X
= E
n∈N
1A∩{S=n} ξ
X
= E
n∈N
= E (1A ξ) = E (1A E (ξ|FS ))
Définition 2.10.
Une martingale est dite fermée s’il existe une variable aléatoire in-
tégrable X∞ ⊂ F∞ telle que :
Xn = E (X∞ |Fn ) , ∀n ∈ N̄
et dans ce cas, (Xn |Fn ) , n ∈ N̄ est une martingale.
def
X = E (X|F∞ )
∞
p.s.
Alors Xn −→ X∞ et dans Lp .
n→+∞
De plus (Xn , Fn ) , n ∈ N̄ est une martingale fermée.
Corollaire 2.1.
Xn = Mn − Yn
Démonstration.
D’après l’inégalité de Jensen (propriété 1.13), si (Xn ) est une sous-martingale,
alors (Xn+ ) est aussi une sous-martingale (∗).
Si p ≥ n :
+ +
≥ E Xp+ |Fn
E Xp+1 |Fn = E E Xp+1 |Fp |Fn
Lissage par (∗)
Dans la suite E Xp+ |Fn , p ≥ n est croissante (en p). Donc il existe
Xp+ |Fn+1
E (Mn+1 |Fn ) = E lim ↑ E |Fn Convergence monotone
p→+∞
≥ E Xn+ |Fn
p.s.
Alors il existe X∞ ∈ L1 telle que Xn −→ X∞
n→+∞
Remarque 2.6.
Lorsque (Xn ) est une martingale, la condition sup E (Xn+ ) < ∞ est équiva-
n∈N
lente à sup E (|Xn |) < ∞ (la suite est bornée dans L1 ).
n∈N
D’où :
def
= 2E Xn+ − E (Xn ) = 2E Xn+ − c, où c = E (X0 )
Démonstration.
On utilise la décomposition de Kirckeberg :
Xn = Mn − Yn
Xn = E (X∞ |Fn )
Xn = E (X|Fn ) , ∀n ∈ N
Proposition 2.6.
Démonstration.
Sens ⇒ : Soit R > 0 suffisamment grand telle que :
≤ RP (|Xn | ≤ R) + 1
≤ R + 1 ∀n ∈ N
ε
Si A ∈ F est tel que P (A) < δ = 2ROn a :
E |Xn | M
P (|Xn | > R) ≤ < , ∀n ∈ N
inégalité R R
de Markov
M
Soit ε > 0 et en choisissant P suffisant grand tel que R < δ, on utilise la
deuxième condition avec A = {|Xn | > R}
Théorème 2.10.
p.s. L1
Xn −→ X alors Xn −→ X
n→+∞ n→+∞
Démonstration.
L1
Xn → X∞
p.s. p.s.
alors Xn = E (Xj |Fn ) → E (X∞ |Fn ) Ainsi : Xn = E (X∞ |Fn ),
j→∞
X∞ ferme la martingale.
2 ⇒ 3 : On prend X = X∞ , on a Xn = E (X∞ |Fn ).
De plus X∞ ∈ L1 puisque
E (|X∞ |) = E lim inf |Xn |
n→+∞
K
≤ E (E (|X| |Fn )) + E |X| 1|X|>K par l’inégalité de Markov
R
K
= E |X| + E |X| 1|X|>K
R
On a vu l’inégalité suivante :
K
E |E (X|Fn )| 1{|E(X|Fn )|>R} ≤ E (|X|) + E |X| 1|X|>K
R
Remarque 2.8.
Si {Xn } est une martingale régulière. Alors quelque soit T un temps d’arrêt,
on a :
E (XT ) = E (X0 )
Xn 1{T =n} = XT
X
=
n∈N
Comme X∞ ∈ L1 :
Donc XT ∈ L1 .
2. Si S ≤ T alors :
Définition 2.12.
Proposition 2.7.
Démonstration : idée de la preuve dans un sens (en exercice pour l’autre sens).
Si T est un temps d’arrêt régulier, {Yn = XT ∧n } est uniformément intégrable.
Par le théorème de convergence des martingales uniformément intégrables :
p.s.
1. Yn −→ Y∞
n→+∞
2. Y∞ ∈ L1 (car la convergence a bien lieu dans L1 )
3. E (Y∞ |Fn ) = Yn
Remarque 2.9.
{XT ∧n , n ∈ N}
Proposition 2.8.
Démonstration.
{Yn = XT ∧n } est une martingale régulière et on lui applique le théorème
d’arrêt des martingale uniformément intègrables :
Pour les temps d’arrêt U et V :
Corollaire 2.2.
Remarque 2.10.
Pour satisfaire la première condition, il suffit de supposer que (Xn ) est une
martingale bornée dans L1 ( donc qui convergence p.s.)
Montrons que XT ∈ L1 , car ainsi on aura XT 1{T <∞} ∈ L1 .
Démonstration.
E (|XT |) = E lim |XT ∧n |
n→+∞
= E lim inf |XT ∧n |
n→+∞
Comme {|XT ∧n |} est uniformément intégrable la suite Xn 1{T >n} est aussi
uniformément intégrable.
Corollaire 2.3.
1 +
≤ E XN
l
1
≤ E (|XN |)
l
1
P inf Xn ≥ −l ≤ E (X0 ) + E XN 1
0≤n≤N l inf Xn ≤−l
0≤n≤N
Démonstration. (
def inf {n ≤ N, Xn ≥ l}
On note T =
N si {n ≤ N, Xn ≥ l} = ∅
T est un temps d’arrêt borné par N (le montrer en exercice)
D’après le premier théorème d’arrêt, {XT ∧n } est une sous-martingale et
= E XN 1(
)
sup Xn ≥l
0≤n≤N
+
≤E XN ≤ E (XN )
Corollaire 2.4.
Démonstration.
Les deux premières inégalités s’obtiennent de l’inégalité maximale appliquée
aux sous-martingale |Xn | et |Xn |p .
∗ = sup |X |.
Montrons la dernière inégalité : Notons XN n
0≤n≤N
lP (XN ∗
≥ l) ≤ E |XN | 1{X ∗ ≥l}
N
∗
X
ZN
∗
E [(XN )] = E p · lp−1 dl
0
∞
Z
= E 1{X ∗ ≥l} p · lp−1 dl par Fubini
N
0
Z∞
∗
=p l · P (XN ≥ l) lp−2 dl
0
Z∞
≤ p E |XN | 1{X ∗ ≥l} lp−2 dl
N
0
∗
ZXN
∗
= pE lp−2 dl |XN |
0
p
∗ p−1
= E |XN | (XN ) Par Hölder :
p−1
p 1
∗ (p−1)q
1/q
≤ E (|XN |p ) p E (XN )
p−1
1 1 1 1 p−1
+ = 1 et = 1 − =
p q q p p
p p p1 1
∗ p 1− p
≤ E (|XN | ) E [(XN ) ]
p−1
h i1 p 1
∗ P p
E (XN ) ≤ E (|XN |p ) p
p−1
Soit {Xn } une martingale et on suppose qu’il existe p > 1 tel que
{Xn } est bornée dans Lp .
ie. sup E (|Xn |p ) < ∞
n∈N
Alors (Xn ) converge p.s. et dans Lp vers X∞ ∈ Lp et :
Mn ∈ L2 , ∀n ∈ N
Mn − Mm ⊥ M l − M k
L2
On écrit :
n
X
Mn = M 0 + (Mk − Mk−1 )
k=1
k=1
Corollaire 2.5.
= E (N0 ) + E (An )
q
0
Proposition 2.10.
Démonstration.
Pour le première partie de l’énoncé, on applique l’inégalité maximale de
Doob-Kolmogorov :
!
sup |Mn |2 ≤ 4E Mn2 = 4E (AN )
E
0≤n≤N
(Mτa ∧n ) est bornée dans L2 , donc il existe lim Mτa ∧n finie p.s.
n→+∞
S
On déduit l’affirmation car {A∞ < ∞} = {τa = +∞}
a∈N∗
τa (ω) = +∞ : Mτa ∧n (ω) = Mn (ω) qui converge quand n → +∞.
n
P
Sn = Zi où les variables aléatoires Zi sont indépendantes et identique-
i=1
ment distribuées.
Sn2 − N : hSin = n
Proposition 2.11 (une loi des grands nombres pour des martingales de carré intégrables).
Soit f ≥ 1 une fonction croissante définie sur ]0, +∞[ telle que
R∞ dt
f (t)2
<∞
0
Soit (Mn ) une martingale de carré intégrable M0 = 0.
Mn p.s.
Alors f hM −→ 0 sur {hM i∞ = ∞}.
( in ) n→+∞
Mn p.s.
En particulier hM i −→ 0 sur {hM i∞ = ∞}.
n n→+∞
Remarque 2.11.
1+γ
1 !
Mn (lnhM in ) 2
Plus précisément : ∀γ > 0, hM in =o hM in
1
f (t) = t ln1+γ (t) 2 ∨ 1
def 1
Démonstration de la loi des grands nombres. Notons Hn = f (An ) processus
borné et prévisible. Alors :
n
X Mk − Mk−1
Yn = (H · M )n =
f (Ak )
k=1
∞
P Mk −Mk−1
Par la proposition précédente Yn −→ Y∞ p.s. donc f (Ak ) < ∞ p.s.
k=1
Il faut énoncé un lemme :
Lemme 2.3 (De Kronecker-admis).
P xn
Soit an > 0, tel que an ↑ +∞ et on suppose que an < ∞, (xn )
n≥1
une suite de réels.
n
Alors a1n
P
xk lim 0
k=1 n→+∞
ou encore
Mn p.s.
−→ 0 sur {hM i∞ = ∞}
f (An ) n→+∞
Mn p.s.
f (t) = 1 + t : −→
1+hM in n→+∞ 0 sur {hM i∞ = ∞}
Mn Mn 1 + hM in
= ·
hM in 1 + hM in hM in
↓n→+∞ ↓n→+∞
0 1
P xk
Démonstration du lemme de Kronecker. Soit rn = lim 0
ak n→+∞
k≥n+1
∀ε > 0 ∃n0 > 0 tel que |rn | < ε ∀n ≥ n0 : On a
xn
= rn−1 − rn ⇒ xn = an (rn−1 − rn )
an
Donc :
n
X n
X
xk = ak (rk−1 − rk )
i=1 k=1
n−1
X
= (aj+1 − aj ) rj + a1 r0 − an rn
j=1
Pour n ≥ n0 :
n
n −1 n−1
0
1 X X aj+1 − aj X aj+1 − aj a1 |r0 |
xk ≤ |rj | + |rj | + + |rn |
an |an | an an
k=1 j=0 j=0
cste ε (an − an0 )
≤ + +ε
an an
cste
≤ 2ε +
an
Et comme an ↑ +∞ on déduit que pour n assez grand :
1 X
xk < 3ε
an
k
Proposition 2.12 (autre version de la loi de grands nombre pour des M. à carré intégrable).
Mn p.s.
Alors n −→ 0 quand n → +∞
L2
Démonstration.
Soit
n
X 1
Xn = (Mk − Mk−1 )
k
k=1
1
= (H · M )m avec Hn =
n
Comme (Mn ) martingale, alors (Xn ) martingale, par le premier corollaire
sur les Martingales de carré intégrable, (Xn ) est un martingale bornée dans
L2 .
p.s.
alors Xn −→ X∞ quand n → +∞
P 1 L2
k (Mk − Mk−1 ) < ∞ p.s. donc par le lemme de Kronecker :
k≥1
n
1X p.s.
(Mk − Mk−1 ) −→ 0
n n→+∞
k=1
1 p.s.
Mn −→ 0
n n→+∞
Corollaire 2.6 (Loi forte des grands nombre pour des variables aléatoire i.i.d L1 ).
Démonstration.
Sans perte de généralité on peut supposer E (Z1 ) = 0.
n
Zj 1|Zj |≤j − E Zj 1|Zj |≤j
P
On considère Mn =
j=1
1
(Mj − Mj−1 )2 <
P
Alors (Mn ) est une martingale de carré intégrable et j2
E
j≥1
∞
Par ailleurs, E Z1 1|Z1 |≤n −→ E (Z1 ) = 0
n→+∞
Mn p.s.
D’après la proposition précédente −→
n n→+∞ 0
n
Zj 1{|Zj |≤j} −→ 0
p.s.
D’où n1
P
j=1 n→+∞
P
On peut voir que : {|Zn | ≥ n} sont des événements indépendant et P (|Zn | > n) <
n≥1
∞.
Par le lemme de Borel-Cantelli : P lim sup {|Zn | > n} = 0
n
p.s. il existe N (ω) tel que ∀j ≥ N (ω) : |Zj (ω)| ≤ j alors :
n n
1X 1X
lim (p.s.) Zj = lim (p.s.) Zj 1{|Zj |≤j} = 0
n→+∞ n n→+∞ n
j=1 j=1
hM in −→ +∞
n→+∞
def
On note sn = E (hM in ) = E Mn2
Alors
M Loi
p n −→ N (0, 1)
hM in n→+∞
hM in p.s.
lorsque −→
sn n→+∞ 1 et la condition de Lindelberg est alors satis-
faite :
n
1 X h i
E (Mj − Mj−1 )2 1{|Mj −Mj−1 |>εsn } |Fj−1 −→ 0
Proba
∀ε > 0
sn
j=1
R → R̄
l: , u ∈ R,
u 7→ ln E euZ1
Propriétés 2.11.
def euSn
Mn (u) = exp (uSn − nl (u)) =
E (euZ1 )n
Donc :
p.s.
Ainsi : Mn (u) −→ 0.
n→+∞
(Mn (u)) n’est pas uniformément intégrable, ou encore n’est pas régulière.
D’autres martingales
L’analytique sur {u| l (u) < ∞} : alors u 7→ eus−nl(u) est aussi ana-
lytique.
∞
X uk
eus−nl(u) = hk (u, s)
k!
k=0
On a :
h0 (u, s) = 1
∂ us−nl(u)
h1 (u, s) = e
h∂u
u=0
i
= eus−nl(u) s − nl0 (u)
u=0
0
= s − nl (9) = s − nE (Z1 )
h2 (u, s) = (s − nE (Z1 ))2 − n Var (Z1 )
..
.
Idée de preuve m ≤ n :
a, b ∈ R+
∗ : S0 = 0.
Ta,b = inf {n ≥ 0| Sn ∈
/ ]−b, a[}
Proposition 2.13.
Si hT ∈ L1 alors : E (S
i T ) = E (T ) E (Z1 )
2
E (ST − T E (Z1 )) = E (T ) Var (Z1 )
Ta+ = inf {n ≥ 0| Sn ≥ a} ∈ L1
Donc :
a b
q p
1 = pa + (1 − pa )
p q
b " b #
a
p q p
1− = p1 −
q p q
b
1 − pq
p a = a b
q
p − pq
E STa,b = apa − b (1 − pa ) = (a + b) pa − b
E STa,b
E (Ta,b ) =
2p − 1
E Vn∧Ta,b = E (V0 ) = 0
2
E Sn∧Ta,b
= E (n ∧ Ta,b )
2
Donc Sn∧T ≤ ab ∧ b2 . Donc
a,b
2
Sn∧Ta,b
−→ ST2a,b
n→+∞
b
pa =
a+b
Donc
b a
E (Ta,b ) = E ST2a,b = a2 pa +(−b)2 (1 − pa ) = a2 +b2 = ab
a+b a+b
Chaînes de Markov.
83
CHAPITRE 3. CHAÎNES DE MARKOV.
+∞
P
Avec : pij ≥ 0, pij = 1 ∀i ∈ N
j=0
Nous allons construire une chaîne de Markov.
Soit (Un )n une suite de variables aléatoires indépendantes, identique-
ment distribuées de loi U[0,1] .
On pose :
k 1#k−1
def
X
X0 = P Pk
#
k≥0 νj , νj
j=0 j=0
où i0 , i1 , · · · , in−1 , i, j ∈ E
3.
En effet :
Proposition 3.1.
Soit (Xn )n une chaine de Markov satisfaisant les trois propriétés (l.i),
(l.t) et (p.M), alors ses marginales de rang fini sont de la forme :
où i0 , · · · , ik ∈ E, k ≥ 0 arbitraire.
Réciproquement, étant donné une loi (νk )k une matrice de transition
et un processus (Xn ) ayant les martingales de rang fini données par
la formule précédente (∗) est (Xn ) est Markov(a, P )
Démonstration.
Rappel de probabilité : Soient A0 , A1 , · · · , An des événements :
\k k−1
\ k−2
\
P Aj = P Ak | Aj P Ak−1 | Aj · · · P (A1 |A0 ) P (A0 )
j=0 j=0 j=0
De plus :
P (X0 = i0 , · · · , Xj ∗ = ij ∗ )
pij ∗ −1 ,ij ∗ = =0
P (X0 = i0 , · · · , Xj ∗ −1 = ij ∗ −1 )
Donc P (X0 = i0 , · · · , Xj ∗ = ij ∗ ) = νi0 pi0 ,i1 · · · pij ∗ −1 ,ij ∗
Ainsi (∗) est vraie en tout les cas.
X0 = g (U0 )
x1#x−1
X
g (x) = P x
P
# (u)
ϕ : N × N → N injective.
ei,j = dϕ(i,j) i, j ∈ N.
∞
X 1
Ui = ei,j
2j+1
j=0
Il existe une unique probabilité P∗ sur (Ω∗ , F∗) tel que P∗|Fn = Pν .
De plus, la suite (Xn ) est une chaîne de Markov (ν, P ) où P est la
matrice de transition.
3 Marche aléatoire.
(Zn )n≥0 indépendantes, identiquement distribuées. P (Zn = x) = ν (x)
x∈Z
Pn
S0 = 0 et Sn = Zi .
i=1
5 Le modèle de l’inventaire
Soit I (t) le stock d’une marchandise au moment t.
On vérifie les stocks à des instants fixes t0 , t1 , · · ·
0≤s≤S :
Si I (tn ) ≤ s : On déclenche la commande pour remonter au niveau S.
Xn = I (tn ) ∈ ]s, S] si pas de demande :
On note Dn le nombre de vente entre [tn − 1, tn [ n ∈ N
(Dn ) indépendante, identiquement distribuée, indépendante de X0 .
(
(Xn − Dn+1 )+ Si s ≤ Xn ≤ S
Xn+1 =
(S − Dn+1 )+ si Xn ≤ s
P 3 = P 2P = P · P 2
X
p(3) (x, y) = p(2) (x, z) p (z, y)
z∈E
P n+1 = P n P X
p(n+1) (x, y) = p(n) (x, z) p (z, y)
z∈E
Proposition 3.2.
∀n ≥ 0 ∀x, y ∈ E :
1. p(n) (x, y) = PX (Xn = y) = P (Xn = y|X0 = x)
2. p(n+1) (x, y) =
P
Px (Xn = z) p (z, y)
z∈E
3. pn
est une matrice stochastique.
ie pn est une matrice carrée dont chaque élément est un réel
positif, dont la somme des élément de chaque ligne vaut 1.
P (n)
4. P (Xn = y) = p (x, y) ν (x)
x∈E
Démonstration.
Vérifions la pour N + 1 :
X
P (XN +1 = y|X0 = x) = P (XN +1 = y, X1 = z|X0 = x)
z∈E
X P (XN +1 = y, X1 = z, X0 = x)
=
ν (x)
z∈E
X P (XN +1 = y|X1 = z, X0 = x) P (X1 = z, X0 = x)
=
ν (x)
z∈E
X
= P (XN +1 = y|X1 = z) P (X1 = z|X0 = x)
z∈E
X
= p(n) (x, x) p (x, x)
z∈E
4.
P (Xn = y) = P (Xn = y, X0 ∈ E)
X
= P (Xn = y, X0 = x)
x∈E
X
= P (Xn = y|X0 = x) P (X0 = x)
x∈E
X
= p(n) (x, y) ν (x)
x∈E
X
P n+m = P n P m ⇔ p(n+m) (x, y) = p(n) (x, z) p(n) (z, y)
z∈E
Les visites
Notation : Soit B ⊂ E :
et
Vy(n) = 1{y} (Xn ) = 1{Xn =y}
Pour k ≤ n :
[k,n] (k) (k+1) (n)
VB = VB + VB + · · · + VB
c’est le nombre totale de visites de la chaîne en B durent le temps [k, n]
[k,n] (k) (k+1) (n)
VB = VB + VB + · · · + VB
= 1{Xk ∈B} + 1{Xn ∈B}
[k,n]
Vy est le nombre de visite de la chaîne au point y durant [k, n].
P (n)
VB = VB nombre totale de visites en B.
n≥0
P (n)
Vy = Vy nombre de passages en y.
n≥0
Remarque 3.2.
1. Petite apartée
P (X3 = −y|X1 = z, X0 = x) = P
f (f (X1 , U2 ) , U3 ) = y| X1 = z, X0 = z
k k
ϕ(U0 ,U1 ) g(U0 )
= P (f (f (z, U2 ) , U3 ) = y|X1 = z)
= P (X3 = y|X1 = z)
P ({Xk = xk , . . . , Xn+k = xn+k } ∩ A|Xk = x) = δxk x p (xk , xk+1 ) . . . p (xn+k−1 , xn+k ) P (A|Xk =
1{Xn =y}
X
Ex (Vy ) = Ex
n≥0
1{Xn =y}
X
= Ex
n≥0
X
= Px (Xn = y)
n≥0
X
= p(n) (x, y)
n≥0
def
= G (x, y)
def
p(n) (x, y) la fonction de Green (ou po-
P
On appelle G (x, y) =
n≥0
tentiel).
Notons :
Donc : X X
F (x, y) = f (n) (x, y) , U (x, y) = u(n) (x, y)
n≥0 n≥0
Introduisons :
X
G (x, y|s) = p(0) (x, y) + p(n) (x, y) sn
n≥1
XX
(0)
=p + p (x, y) p(n−1) (z, y) sn
n≥1 z∈E
X X
(0)
=p (x, y) + p (x, z) s p(n−1) (z, y) sn−1
z∈E n≥1
X
= p(0) (x, y) + sp (z, y) G (z, y|s)
z∈E
X
g (s) = I + sn P n
n≥1
X
= I + sP sn−1 P n−1
n≥1
= g (s) = I + sP G (s)
Donc
(I − sP ) G (s) = I
Si P est d × d on peut trouver G (s) lorsque :
det (I − sP ) 6= 0
− 2s
− 2s
1
G (s) = − 4s 1 − 2s
− 4s
− 4s − 4s
1 − 2s
∗ ∗ ∗
1
= · ∗ ∗ ∗
(1 − s) (16 − s2 )
∗ ∗ ∗
Montrons l’équivalence.
Sens ⇒ :
{Xn = y} ⊂ {σy ≤ n} ⊂ {σy < ∞}
Donc p(n) (x, y) Px (Xn = y) ≤ Px (σy < ∞)
Sens ⇐ :
Remarque 3.3.
On note
n
Si x → y : np(n) (x, y) > 0
1
Si x → y : p (x, y) > 0
Si x 9 y : ∀n ≥ 0, p(n) (x, y) = 0
Proposition 3.3.
Démonstration.
:
x ←→ y car p(0) (x, x) = 1.
x ←→ y ⇔ y ←→ x
x ←→ z et z ←→ y alors x ←→ y.
m n
x ←→ z et z ←→ y :
(classes d’irréductibilité)
Si E = C0 une seule classe : la chaîne est irréductible.
La relation ” −→ ” est une relation d’ordre partielle :
C (x) la classe contenant x.
C (x) −→ C (y) si x −→ y.
Si C (x) −→ C (y) et C (y) −→ C (x) donc :
x −→ y −→ x
Définition 3.7.
Les éléments maximaux, s’il existent, pour l’ordre partiel sur l’en-
semble des classes se nomment classes fermées (ou absorbantes)
Définition 3.8.
Une chaîne de Markov qui rentre dans une classe C fermée ne ressort
plus de cette classe. C fermée si et seulement si :
∀x ∈ C, Px (σc = ∞) = 1
C (1) = {1, 2}
C (3) = {3}
C (4) = {4, 5, 6}
C (7) = {7, 8, 9, 10}
[1, 2] [3]
Contre-exemple 3.1.
Si On prend l’exemple de la chaîne météo : C = E a une seule classe (irré-
ductible).
Chaîne "ruine : :
E = C0 ∪ C1 ∪ CN
C0 = {0} (absorbant)
CN = {N } (gagnant, absorbant)
Les autres : C1 = {1, . . . , N − 1}.
Remarque 3.4.
Si E est un ensemble fini, on a un nombre fini de classe, donc au pire chaque
élément est une classe.
Démonstration.
1) ⇒ 2) :
Si C est fermée et x −→ y et C = C (x) −→ C (y).
Mais C maximale pour l’ordre ” −→ ”.
Alors C (y) = C donc y ∈ C
2) ⇒ 3) : Soit x ∈ C et x −→ y mais d’après 2) :
y ∈ C ⇒ y ←→ x
C (y) = C (x) = C
Exercice 3.1.
C est fermée si et seulement si : ∀x ∈ C, ∀y ∈ E\C on a :
p (x, y) = 0
Remarque 3.5.
Soit C une classe d’irréductibilité de E.
On va exclure le cas où C = {x} et p (x, x) = 0.
On peut étudier la chaîne "à l’intérieur de C".
PC est la matrice définie comme suit :
(
p (x, y) si x, y ∈ C
pC (x, y) =
0 sinon
où x ∈ C
Si d = 1 on dit que C est apériodique (dès que p (x, x) > 0 x ∈ C.
Dessin a faire D2
{3} fermée
d ({1, 2}) = 2
d ({4, 5, 6}) = 1
d ({7, 8, 9, 10}) = 4
d ({11, 12}) = 2
d ({13}) = 1
Démonstration.
Soient x, y ∈ C avec x 6= y.
Notons Ix = n ≥ 1, p(n) (x, x) > 0
Donc d (x) divise k + n + l donc d (x) divise n donc d (x) divise d (y).
D’après la symétrie des rôles de x et y, on a : d (y) divise d (x) donc :
d (y) = d (x)
∞
X
= nPx (σC = n) Temps moyen d’absorption
n=0
Si x ∈ C alors :
Pc (σC < ∞) = 1 = F (x, C)
et E (x, C) = 0
Si x ∈ C 0 et C 0 6= C avec C 0 fermée :
Alors PC (σC < ∞) = 0 et E (x, C) = 0
P (T < ∞) = 1
ν̃ (x) = Pν (XT = x)
σC (X0 , X1 , . . . ) = 1 + σ (X1 . . . ).
= Ex (F (X1 , C))
X
= p (x, y) F (y, C)
y∈E
= Ex EX1 1{σC (X0 ... )<∞} + Ex EX1 σC (X0 , . . . ) 1{σC (X0 ... )<∞}
V Classes de récurrence
Définition 3.11.
U (x, x) = Px (∃n ≥ 1| Xn = x) = 1
= Px (Tx < ∞)
Définition 3.12.
Notations :
On note, avec x, y ∈ E :
def
H (x, y) = Px (Xn = y pour une infinité de n ∈ N)
Démonstration.
P.M
X
H (m+1) (x, y) = f (k) (x, y) Px (Xn = y pour au moins m instants n ≥ k + 1|Xk = y)
k,U (k) (x,y)>0
∞
X
(k)
= u (x, y) H (m) (y, y)
k=1
Rappels :
∞
X
G (x, y|s) = p(n) (x, y) sn , p(n) (x, y) = Px (Xn = y)
n=0
X∞
F (x, y|x) = f (n) (x, y) sn où f (n) (x, y) = Px (Xn = y, Xj 6= y, 0 ≤ j ≤ n − 1)
n=0
X∞
U (x, y|s) = u(n) (x, y) sn où u(n) (x, y) = Px (Xn = y, Xj 6= y, 0 ≤ j ≤ n − 1)
n=0
1
1. G (x, y|s) = 1−U (x,y|s)
2. G (x, y|s) = F (x, y|s) G (y, y|s)
P
3. U (x, x|s) = p (x, y) sF (y, x|s)
y∈E
P
4. Si y 6= x alors F (x, y|s) = p (x, z) sF (z, y|s)
z∈E
Démonstration.
1
1. G (x, x|s) = 1−U (x,x|s) on fait tendre s de façon monotone vers 1 :
s ↑ 1, alors :
(
1 +∞ Si |U (, x, x) = 1
G (x, x) = = 1
1 − U (X, x) 1−U (x,x) Si U (x, x) < 1
U (x, y) = 1
0
Pour n = 0 : s −→ x alors U (x, x) = 1
Supposons l’affirmation vraie pour un m entier et vérifions la pour
n+1 :
n+1
Si x −→ y, ∃w ∈ E tel que :
n 1
x −→ w −→ y
On a alors :
Les H (x, y) ne peuvent pas être tous nuls donc il existe y ∈ C tel que
H (x, y) > 0
0 < H (x, y) = U (x, y) H (y, y)
y ne peut être transitoire, donc y est récurrent. D’après le deuxième
point, toute classe de C est récurrent.
Le troisième point est faux si C est infinie : Par exemple une marche aléatoire
sur Z.
Par la proposition 3.10, on a :
F (1, 0|s) = gs + psF (2, 0|s)
est un point de coupure entre 2 et 0.
F (2, 0|s) = F (2, 1|s) F (1, 0|s)
X
f (n) (2, 0) = f (k) (2, 1) f (n−k) (1, 0)
k=0
= F (1, 0|s)2
1 − 4pq = 1 − 4p (1 − p) = (1 − 2p)2
q
U (0, 0) = U (0, 0|1) = 1 − (p − q)2 = 1 − |p − q|
Donc :
s
U 0 (0, 0|s) = √ et U 0 0, 0|1− = +∞
1−s 2
Définition 3.13.
Démonstration.
Si x est récurrent et x ←→ y alors y est récurrent, on sait que, par la
proposition 3.10 :
1 − U (x, x|s) G (y, y|s)
=
1 − U (y, y|s) G (x, x|s)
pour 0 < s < 1 Par la règle de l’Hopital :
x ←→ y ∃k, l
p(k) (x, y) > 0, p(l) (y, x) < 0
∞
X
G (y, y|s) = p(n) (y, y) sn
n=0
k+l−1
X
≥ p(n) (y, y) sn
n=0
k+l−1
G (y, y|s) 1 X
= p(n) sn + p(l) (y, x) G (x, x|s) p(k) (x, y) sk+l + p(l) (y, x) p(k) (y, x) sk+l
G (x, x|s) G (x, x|s)
n=0
Démonstration.
P n est une matrice stochastique :
X ∞
XX
G (x, y|s) = p(n) (x, y) sn
y∈E y∈E n=0
∞
X X
= p(n) (x, y) sn
n=0 y∈E
∞
X 1
= sn = 0≤s<1
1−s
n=0
X
G (x, y|s) (1 − s) = 1 ∀0 ≤ s < 1
y∈E
F (x,y|s)
Par ailleurs, on sait que G (xy|s) = 1−U (y,y|s) (d’après la proposition 3.10),
donc : X 1−s
F (x, y|s) =1
1 − U (y, y|s)
y∈E
En dimension d = 2 :
(0, 1) (1, 1)
1/4
1/4
(−1, 0) (0, 0) (1, 0)
1/4
1/4
(0, −1)
Lemme 3.1.
Démonstration.
P P P
µ (E) ≥ µP (y) = µ (x) p (x, y) = µ (E)
y∈E x∈E y∈E
On ne peut pas avoir l’inégalité stricte en aucun point de y.
Définition 3.15.
Démonstration.
Sens ⇒ : Montrons que si C est récurrente positive alors mC donnée par (#)
Si C est fermé on peut échanger la somme avec lim pour trouver que :
s↑1
X 1 X
1= = mC (y) = mC (C)
Ey (τy )
y∈C y∈C
Fatou
mC (C) = mC (lim ↑ Ar ) ≤ lim inf mC (Ar ) ≤ 1
r→+∞
Pour y ∈ C : X
G (y, y|s) = 1 + G (y, x|s) p (x, y) s
x∈E
1−s X 1−s
=1−s+ F (y, x|s) p (x, y) s
1 − U (y, y|s) 1 − U (x, x|s)
x∈E
ou encore, la somme portant sur C
X 1−s
=1−s+ F (y, x|s) p(
1 − U (x, x|s)
x∈C
Ou encore : X
mC (y) ≥ mC (x) p (x, y) , ∀y ∈ C
x∈C
µ (C\Aε ) < ε
Ainsi : X
µ (y) < µ (x) p(n) (x, y) + ε
x∈Aε
µ (y) ≤ mc (y) , ∀y ∈ E
Corollaire 3.1.
Démonstration.
Soit m une loi stationnaire par (Xn )n chaque x avec m (x) > 0 doit être
récurrent positif, donc ils doivent exister des classes fermées récurrentes po-
sitives.
D’après le théorème, la restriction de m à chaque Ci doit être un multiple
positif de mi (l’unicité) donc m est de la forme indiquée.
Réciproquement, il est clair que chaque combinaison connexe de mi est une
probabilité stationnaire sur E.
Définition 3.16.
Proposition 3.13.
Si ν est réversible
Palors ν est stationnaire.P
Donc νP (y) = ν (x) p (x, y) = ν (y) p (y, x) = ν (y)
x∈E x∈E
prop 3.10
Donc G (x, y) = F (x, y) G (y, y) < ∞ ⇒ p(n) (x, y) −→ 0
| {z } n→+∞
<1
Ce n’est pas intéressant quand y est transitoire.
Autre idée constructive : la propriété de Markov nous fait penser que la
limite p(n) (x, y) ne dépend pas de x (oublie du point de départ). Donc que :
m (y) = 1 donc ∃y tel que m (y) > 0 donc p(n) (y, y) > 0
P
Si E est fini :
y∈E
pour tout n sauf un nombre fini.
On a donc apériodicité de y.
X
p(n+1) (x, y) = p(n) (x, z) p (z, y)
z∈E
P
Quand n −→ +∞, alors m (y) = m (z) p (z, y) = mP (y)
z∈E
Théorème 3.5.
lim Pν (Xn = x) = 0 ∀x ∈ E
n→+∞
( )
X
M (E) = ν : E → R ν (x) ≥ 0∀x ∈ E et ν (x) = 1
x∈E
Démonstration.
Soit E ×E un espace d’états et soit la matrice de transition sur E ×E donnée
par
g ((x1 , x2 ) , (y1 , y2 )) = p (x1 , y1 ) p (x2 , y2 )
notée Q = P ⊗ P (indépendance des coordonnées).
Xn1 , Xn2 sont des chaîne de Markov, chacun de matrice de transition P .
La loi initiale de la chaîne couple est µ1 × µ2 :
D = {(y, y) , y ∈ E}
Démonstration.
d = pgcdI (x), I (x) = n ≥ 1, p(n) (x, x) > 0
k+ − k− = 1
nx = k − (k − − 1), soit n ≥ nx :
n = qk − + r avec q ≥ k − − 1 et 0 ≤ r ≤ k − − 1.
Donc : n = qk − + r (k + − k − ) = (q − r) k − + |{z}
r k + On a alors :
| {z }
≥0 ≥0
nd = (q − r) d− + rd+ ∈ I (x)
P = (p (x, y))x,y∈E
irréductible, apériodique.
On note Q = P ⊗ P = (g (x1 , x2 ) , (y1 , y2 ))E×E
Démonstration.
Soient (x1 , x2 ) , (y1 , y2 ) ∈ E × E, par le lemme A, il existe n1 = n1 (x1 , y1 )
et n2 = n2 (x2 , y2 ) ≥ 1 entiers tels que :
p(n) (x1 , y1 ) > 0 et p(n) (x2 , y2 ) > 0 dès que n ≥ n1 + n2
Alors q (n) ((x1 , x2 ) , (y1 , y2 )) = p(n) (x1 , y1 ) p(n) (x2 , y2 ) > 0 si n ≥ n1 + n2 .
Donc Q est irréductible.
On peut aussi voir que q (n) ((x1 , x2 ) , (x1 , x2 )) > 0 et q (n+1) ((x1 , x2 ) , (x1 , x2 )) >
0 ∀n ≥ n1 + n2
Si P est récurrente positive, alors, par le théorème d’existence d’une loi sta-
tionnaire : il existe une unique loi stationnaire m pour P : donc m ⊗ m est
une loi stationnaire pour Q :
(m ⊗ m) (x1 , x2 ) = m (x1 ) m (x2 )
donc par le même théorème : Q est récurrente positive.
où D = {(x, x) , y ∈ E}
Alors ∀x ∈ E ∀n ∈ N∗ :
Démonstration.
Soit k ≤ n :
X
Pν1 ⊗ν2 Xn1 = x, τD = k = Pν1 ⊗ν2 Xn1 = x, Xk1 = z, τD = k
z∈E
p.m.f
X
p(n−k) (z, x) Pν1 ⊗ν2 Xk1 = z, τD = k
=
z∈E
X
p(n−k) (z, x) Pν1 ⊗ν2 Xk2 = z, τD = k
=
z∈E
p.m.f
X
Pν1 ⊗ν2 Xn1 = x, Xk2 = z, τD = k
=
z∈E
= Pν1 ⊗ν2 Xn2 = x, τD = k
X
kν1 P n − ν2 P n k1 = Pν ⊗ν Xn1 = y, τD ≤ n + Pν ⊗ν Xn1 = y, τD > n = Pnu ⊗ν XN
2
1 2 1 2 1 2 =
y∈E
X X
Pν1 ⊗ν2 Xn1 = y, τD > n + Pν1 ⊗ν2 Xn2 = y, τD > n
≤
y∈E y∈E
≤ G (y, y) < ∞
(Pν (Xn = y))2 = Pν1 ⊗ν2 Xn1 + Xn2 = (y, y) −→ 0, ∀ν loi initiale
n→+∞
∞
P
Soit ε > 0 on sait que Ey (τy ) = Py (τy > m) = +∞
m=0
M
P 1
Donc il existe M = Mε tel que Py (τy > m) > ε
m=0
Pour n ≥ M , on note :
Am = {Xn−m = y, Xn−m+k 6= y, 1 ≤ k ≤ m}
Pour 0 ≤ m ≤ M :
M
X n
X
1≥ Py (Am ) = Py (Xm−n = y, Xn−m+k 6= y, 1 ≤ k ≤ m} car les (Am )m∈J0,M K
m=0 m=0
XM
= Py (Xn−m = y, Xn−m+k 6= y, 1 ≤ k ≤ m)
m=0
XM
= Py (Xn−m+k 6= y, pour 1 ≤ k ≤ m|Xn−m = y) Py (Xn−m = y)
m=0
M
X
= Py (τy > m) Py (Xn−m = y)
n=0
Donc :
M
X
1≥ Py (τy > m) Py (Xn−m = y)
m=0
M
1 X 1
≥ Py (τy > m) >
ε ε
m=0
C’est absurde.
Comme m (n) reste borné et comme
Py (Xn = y) = Py (Xn−m = y) −→ 0
n→+∞
1
P un sous-ensemble fermé de l (N) la pour métrique kν1 − ν2 k =
est
|νa (y) − ν2 (y)|
y∈E
M (E) → M (E)
ν 7→ νP
Lemme 3.5.
∀ν1 , ν2 ∈ M (E),
kν1 P − ν2 P k2 ≤ τ (P ) kν1 − ν2 k1
P
où τ (P ) = 1 − a (y) a (y) inf p (x, y) le plus petit élément de la
y∈E x∈E
colonne y de P .
Remarque
P 3.7. P
1= p (x, y) ≥ a (y) = 1 − τ (P )
y∈E y∈E
0 ≤ τ (P ) ≤ 1
Démonstration.
Pour chaque y ∈ E :
X
ν1 P (y) − ν2 P (y) = (ν1 (x) + ν2 (x)) p (x, y)
x∈E
X X
= |ν1 (x) − ν2 (x)| p (x, y) − {|ν1 (x) − ν2 (x)| − (ν1 (x) − ν2 (x))} p (x
x∈E x∈E
X X
≤ |ν1 (x) − ν2 (x)| p (x, y) − {|ν1 (x) − ν2 (x)| − (ν1 (x) − ν2 (x))} a (y
x∈E x∈E
X
= |ν1 (x) − ν2 (x)| (p (x, y) − (y))
x∈E
Par symétrie :
X
|ν1 P (y) − ν2 P (y)| ≤ |ν1 (x) − ν2 (x)| (p (x, y) − a (y))
x∈E
X
kν1 P − ν2 P k1 = |ν1 P (y) − ν2 P (y)|
y∈E
X X
≤ |ν1 (x) − ν2 (x)| (p (x, y) − a (y))
x∈E y∈E
| {z }
=τ (P )
= τ (P ) kν1 − ν2 k1
Démonstration.
Comme τ P k < 1, on a 1 − a y, P k < 1
P
P y∈E
Donc a (y, P ) > 0.
y∈E
Donc il existe y ∈ E tel que a y, P k > 0
Pour ce y, il existe au moins un x tel que p (x, x) > 0 car E est irréductible.
On a donc inf p(k) (x, y) > 0 donc p(k) (y, y) > 0 et p(k) (x, y) > 0.
x∈E
1, d’après le lemme.
D’après le théorème de point fixe : ∃!m ∈ M (E) tel que
m = mP k
l
donc kνP kl − mk1 = kνP k P l − mP k k1 ≤ τ P k kν − mk1
On a mP = mP k P = mP P k donc (unicité) mP = m donc m est une loi
stationnaire.
1
E est récurrente positif et m (x) = Ex (τ x)
∀x ∈ E
où n = kl + r avec 0 ≤ r ≤ k − 1.
Corollaire 3.2.
N −2
1 X 1
1{Xn =y} −→ ps
m (y) =
N N →+∞ Ey (τy )
| n=0{z }
1 [0,N −1]
N
Vy
Remarque 3.8.
Démonstration.
On note τy0 = 0 τyk = inf n > τyk−1 Xn = y
Ainsi τy1 = τy .
Notons aussi :
N −1 τyk −1
X X
SN (f ) f (Xn ) Yk = f (Xn ) f ≥ 1
n=0 n=τyk−1
Lemme 3.6.
def
l(n) (y, z) = Py (Xn = z, τy > n)
∞
X
L (y, z) = l(n) (y, z)
n=0
X
Ey (Yk ) = f (z) L (y, z)
z∈E
1 X
= f (z) m (z)
m (y)
z∈E
Lemme 3.7.
P
Si y est récurrent L (y, z) = Ey (τy )
z∈E
Si la chaîne irréductible est récurrent positive avec m loi stationnaire
alors :
m (z) Ey (τy )
L (y, z) = =
m (y) Ez (τz )
k Z
1X 1 p.s. 1
Yj = Sτyk (f ) −→ f dm
k k n→+∞ m (y)
j=1 E
π (x) = 1 = F (x, B) si x ∈ B
Soit x ∈
/ B.
X
π (x) = p (x, y) π (y)
y∈E
X X
= p (x, y) · 1 + p (x, y) π (y)
y∈B y ∈B
/
!
X X X X
= p (x, y) + p (x, y) p (y, z) + p (y, z) π (z)
y∈B y ∈B
/ z∈B z ∈B
/
X X X
= p (x, y) + p (x, y) p (y, z) + p (x, y) p (y, z) π (z)
y∈B y ∈B,z∈B
/ y ∈B,z
/ ∈B
/
X
= Px (X1 ∈ B) + Px (X1 ∈
/ B, X2 ∈ B) + p (x, y) p (y, z) π (z)
y ∈B,z
/ ∈B
/