0% ont trouvé ce document utile (0 vote)
94 vues4 pages

CCC19 Bis

processus stochastique
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
94 vues4 pages

CCC19 Bis

processus stochastique
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

blanc

Université de Franche Comté Master mathématiques et applications


Probabilités et modélisation année 2018-2019

Éléments de correction du contrôle continu # 1


Exercice 1 Espérance conditionnelle
Soit (Ω, F, P) un espace de probabilités.
1. On fixe deux entiers m, n ≥ 1 et on considère deux variables aléatoires indépendantes U et
V de lois respectives B(n, p) et B(m, p), avec p ∈]0, 1[. Calculer E[U |U + V ].
On peut réaliser les variables U et V comme des P sommes Pde Bernoulli indépendantes, pré-
cisément, le vecteur (U, V ) a la même loi que ( ni=1 Xi , i=n+1
n+m
Xi ) où les Xi sont i.i.d. de
loi B(p). On a alors par symétrie
" n n+m
# n
" n+m
# n+m
X X X X n X n
E[U |U + V ] = E Xi | Xi = E Xi | Xi = Xi = (U + V ).
n+m n+m
i=1 i=1 i=1 i=1 i=1

2. Soit G une sous-tribu de F. On suppose que l’on dispose de deux variables aléatoires X et
Y de carré intégrable telles que E[Y |G] = X et E[Y 2 ] = E[X 2 ]. Montrer que E[Y − X|G] = 0
et E[(Y − X)2 |G] = 0. En déduire que X = Y presque sûrement.
Par définition de l’espérance conditionnelle, si E[Y |G] = X, la variable X est G−mesurable.
Ainsi, on a
E[Y − X|G] = E[Y |G] − E[X|G] = X − X = 0.
En développant le carré, X étant G−mesurable, on a par ailleurs

0 ≤ E[(Y − X)2 |G] = E[Y 2 |G] + E[X 2 |G] − 2E[XY |G] = E[Y 2 |G] + E[X 2 |G] − 2XE[Y |G]

= E[Y 2 |G] + X 2 − 2X 2 = E[Y 2 |G] − X 2 .


En prenant l’espérance, comme par hypothèse on a l’égalité E[Y 2 ] = E[X 2 ], on obtient que
E[E[(Y −X)2 |G]] = E[(Y −X)2 ] = 0 et donc E[(Y −X)2 |G] = 0 presque sûrement, et X = Y
presque sûrement.

Exercice 2 Espérance conditionnelle gaussienne


Soit (X, Y, Z) un vecteur gaussien centré de matrice de covariance
 
2 −1 1  
Γ X Γ X,(Y,Z)
Γ(X,Y,Z) :=  −1 2 1  = ,
ΓtX,(Y,Z) Γ(Y,Z)
1 1 2  
2 1
où l’on a posé ΓX := 2, ΓX,(Y,Z) := (−1, 1) et Γ(Y,Z) := .
1 2
1. Justifier le fait qu’il existe deux réels α et β tels que E[X|Y, Z] = αY + βZ.
Dans le cas de variables de carré intégrable, l’espérance conditionnelle est la projection
orthogonale sur σ(Y, Z). Pour des variables gaussiennes centrées, cette tribu engendrée se
confond avec vect(Y, Z), d’où le résultat.
 
−1 X − E[X]
2. On rappelle que de façon générale E[X|Y, Z] = E[X] + ΓX,(Y,Z) Γ(Y,Z) .
Y − E[Y ]
Expliciter le calcul et en déduire les valeurs de α et β. On trouve −1 et 1.
3. On se propose maintenant de retrouver les valeurs de α et β “à la main".
(a) Montrer que E[XY |Y, Z] = αY 2 + βY Z et E[XZ|Y, Z] = αY Z + βZ 2 .
Si E[X|Y, Z] = αY + βZ, on a en multipliant par Y qui est σ(Y, Z) mesurable, on
obtient E[XY |Y, Z] = αY 2 + βY Z. De même en multipliant par Z.
(b) En déduire que les expressions de E[XY ] et E[XZ] en fonction de α et β et conclure.
En prenant l’espérance dans les deux relations ci-dessus, on obtient les deux nouvelles
équations E[XY ] = αE[Y 2 ] + βE[Y Z] et E[XZ] = αE[Y Z] + βE[Z 2 ]. Reste à résoudre
le système...

Exercice 3 Autour d’un théorème de Kakutani


Soit (Xn )n≥1 une suite de variables aléatoires,
√ indépendantes et positives et telles que E[Xn ] = 1
pour tout n ≥ 1. On définit alors an := E[ Xn ] ∈ [0, 1] pour n ≥ 1 et
n n √
Y Y Xk
M0 := 1, N0 := 1, Mn := Xk , Nn := .
ak
k=1 k=1
1. Montrer que les suites (Mn )n≥1 et (Nn )n≥1 convergent presque sûrement.
Il s’agit de montrer que les suites sont des martingales. On travaille avec la filtration naturelle
Fn = σ(X1 , . . . , Xn ) . Les variables étant positives, par indépendance, on a pour n ≥ 1
n
Y n
Y p
E[|Mn |] = E[Mn ] = E[Xi ] = 1, E[|Nn |] = E[ Xi /ai ] = 1.
k=1 k=1

Enfin, on a
E[Mn+1 |Fn ] = Mn E[Xn+1 |Fn ] = Mn E[Xn+1 ] = Mn ,
p p
E[Nn+1 |Fn ] = Nn E[ Xn+1 /an+1 |Fn ] = Nn E[ Xn+1 /an+1 ] = Nn .
Les suites, (Mn ) et (Nn ) étant des martingales positives, d’après le cours, elles convergent
presque sûrement, vers des limites notées M∞ et N∞ .

2. On suppose que ∞
Q
k=1 ak > 0.
(a) Montrer que la suite (Nn )n≥1 converge dans L2 .
On a alors !−2

Y
sup [Nn2 ] = ak < +∞.
n≥0
k=1

La martingale (Nn ) est ainsi bornée dans L2 et d’après le cours, elle converge dans L2 .

(b) En déduire que (Mn )n≥1 est uniformément intégrable.


Si (Nn ) converge dans L2 alors (Mn ) converge dans L1 et d’après le cours, elle est donc
uniformément intégrable.
3. On suppose maintenant ∞
Q
k=1 ak = 0.
(a) Montrer qu’alors (Mn )n≥1 converge presque sûrement vers zéro.
Si
Q le produit
√ infini vaut zéro, comme la suite (Nn ) converge p.s. on a nécéssairement
k≥1 Xk = 0 presque sûrement et par suite M∞ = 0 presque sûrement.
(b) En déduire que (Mn )n≥1 n’est pas uniformément intégrable.
Si la suite était uniformément intégrable, on aurait 0 = E[M∞ ] = E[M0 ] = 1.
Exercice 4 Transformées de martingales
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et identiquement distribuées telles
que P(X1 = −1) = 1/2 et P(X1 = 1) = 1/2. On pose S0 := 0 et Sn := X1 + . . . + Xn pour n ≥ 1.
1. Donner la décomposition de Doob de la suite Sn2 = Mn + An où Mn est une martingale issue
de zéro et An est un suite croissante prévisible.
On a par définition de la suite An

An − An−1 = E[Sn2 − Sn−1


2
|Fn−1 ] = E[(Sn − Sn−1 )2 |Fn−1 ] = 1,

donc An = n et Mn = Snn − n est une martingale.


2. Expliciter une constante c > 0 telle que la suite Nn := exp(Sn − cn) soit une martingale.
On a |Sn | ≤ n donc Nn est intégrable. Par ailleurs, si on travaille avec la filtration naturelle
associée aux Xi , on a

E[Nn+1 |Fn ] = Nn × e−c × E eXn+1 |Fn = Nn × e−c × E eX1 .


   

Ainsi, Nn est une martingale ssi c = log(E eX1 )


 

3. Montrer que la suite (Nn )n≥0 converge presque sûrement et préciser sa limite.
D’après la loi des grands nombres, Sn /n tend vers zéro presque sûrement, et comme c > 0,
la suite Nn = exp(−n(c − Sn /n)) tend presque sûrement vers zéro.
4. La suite (Nn )n≥0 est-elle uniformément intégrable ?
Non, comme dans la fin de l’exercice précédent, si Nn était uniformément intégrable, on
aurait 0 = E[N∞ ] = E[N0 ] = 1.

Exercice 5 Lieu et temps de sortie d’une marche aléatoire asymétrique


Soient a et b des entiers strictement positifs et (Xn )n≥1 une suite de variables aléatoires indépen-
dantes et identiquement distribuées telles que

P(X1 = −1) = q = 1 − p, P(X1 = 1) = p, avec p 6= 1/2.

On pose S0 := 0 et Sn := X1 +. . .+Xn pour n ≥ 1 et on désigne par (Fn )n≥1 la filtration naturelle


associée. On introduit le temps de sortie T = inf{n ≥ 0, Sn ∈]/ − a, b[} de la bande [−a, b]. L’objet
de l’exercice est de déterminer la loi du point de sortie ST et le temps moyen de sortie.
1. Montrer que les suites Wn := Sn − (2p − 1)n et Mn = (q/p)Sn issues de 0 et 1 respectivement
sont des martingales par rapport (Fn )n≥1 .
Pas de difficulté, pour l’intégrabilité, il suffit de se rappeler que |Sn | ≤ n.
2. Montrer que T est un temps d’arrêt fini presque sûrement (indice : LGN).
On peut écrire [
{T ≤ n} = {Sk ∈]
/ − a, b[} ∈ Fn .
| {z }
k≤n ∈Fk

D’après la loi des grands nombres, on a Sn /n → 2p − 1 6= 0 presque sûrement. Ainsi,

P(T = +∞) = P(∀n ≥ 1, Sn ∈] − a, b[) ≤ P(lim sup |Sn |/n = 0) = 0.


n→+∞
.
3. Montrer que les martingales arrêtées (WT ∧n ) et (MT ∧n ) sont uniformément intégrables.
Les martingales arrêtées sont des martingales et avant le temps T , la suite Sn∧T est bornée
par |a| ∨ b. Ainsi les suites (WT ∧n ) et (MT ∧n ) sont bornées déterministiquement et sont donc
uniformément intégrables.
4. En appliquant le théorème d’arrêt à (MT ∧n ), déterminer P(ST = −a) et P(ST = b).
D’après le théorème d’arrêt,
E[MT ∧n ] = E[M0 ] = 1.
Comme T est fini p.s., on a MT ∧n → MT p.s. lorsque n tend vers l’infini, et par convergence
dominée (la suite est U.I.), on conclut que

E[MT ] = E[M0 ] = 1.

Autrement dit
(q/p)−a P(ST = −a) + (q/p)b P(ST = b) = 1.
Comme
P(ST = −a) + P(ST = b) = 1,
on déduit les valeurs de P(ST = −a) et P(ST = b) en résolvant le système 2 × 2.
5. En appliquant le théorème d’arrêt à (WT ∧n ), déduire le temps moyen de sortie E(T ).
Comme indiqué, on applique théorème d’arrêt pour obtenir

E[WT ∧n ] = E[W0 ] = 0.

Comme plus haut, par convergence dominée on obtient alors

E[WT ] = 0, soit E[ST ] = (2p − 1)E[T ]

et l’on conclut grâce à la question précédente puisque l’on connaît la loi de du lieu de sortie
ST . La dernière égalité est connue sous le nom d’identité de Wald.

Vous aimerez peut-être aussi