0% ont trouvé ce document utile (0 vote)
35 vues26 pages

Intégration

Cours d'intégration appliqué

Transféré par

kawayamarcel9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
35 vues26 pages

Intégration

Cours d'intégration appliqué

Transféré par

kawayamarcel9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Théorie des probabilités

Corrigé
Armand Joulin
2010-2011

Contributeurs :
– Karl-Friedrich Israel (ex 1.2, 1.4, 3.2, 3.4,6.4)
– Rossi Abi Rafeh (ex 3.5, 4.1, 6.6, 6.7, 5.9, 5.10)
– Malka Guillot (ex 1.1, 1.3)
– François Grimaud (ex 2.2, 3.1)
– Françoise Huang (ex 6.1)
– Françoise Huang / Fernando Arce (ex 1.5, 2.1)
– Pierre Grison (ex 4.2, 4.3)
– Augustin Autrand (ex 4.5, 4.6)
– Pierre Anquetil (ex 5.2)
– Adrien Chenin (ex 5.6)

Chapitre 1
Exercice 1.1
1 1
1. E(X) 6= E(X) car si X v.a. telle que ImX = {1, 2} et que P (X = 1) = 4
1
Alors E(X) = 7/4 et E( X ) = 58

2. On sait que V (X) = E(X 2 ) − E(X)2 ≤ 0, donc E(X 2 ) ≤ E(X)2

3. Montrons que si X est symétrique par rapport à 0, alors E(X)=0 :


Sq. ∀x ∈ ImX, fX (x) = fX (−x) (si X admet une densité)
Alors E(X) = E(−X) or E(X) = E(−X) par linéarité de léspérance.
Donc 2.E(X) = 0 puis E(X) = 0

4. E(XY ) = E(X).E(Y ) faux sauf si X,Y indépendantes, car Cov(X, Y ) = E(XY ) − E(X).E(Y )
Contrexemple : soit X ∼ B( 21 ), alors E(X) = 21 , E(X 2 ) = 14 , donc E(XY ) = E(X).E(Y )

Exercice 1.2
1.
+∞
X +∞ X
X +∞ X i−1
+∞ X +∞
X
P (X > K) = P (X = i) = P (X = i) = iP (X = i) = E(X)
k=0 k=0 i=k+1 i=1 k=0 i=1

2. Mq Z +∞ Z 0
E(X) = P (X > t)dt − P (X < t)dt
0 −∞

par définition : Z
E(X) = XdP

1
par th. de transfert :
Z Z Z +∞ Z 0
XdP = xdPx (x) = xdPx (x) + xdPx (x)
Ω R
|0 {z } | −∞ {z }
I1 I2

pour I1 , en utilisant le th. de Fubini :


Z +∞ Z +∞ Z +∞ Z +∞ Z +∞
xdPx (x) = 1[0,x] (t)dtdPx (x) = 1{x>t} (x, t)dPx (x)dt
0 0 0 0 0
Z +∞
= P (X > t)dt
0

de même pour I2 : 1
Z 0 Z 0 Z 0 Z 0 Z 0
xdPx (x) = − 1[−x,0] (t)dtdPx (x) = − 1{x<t} (x, t)dPx (x)dt
−∞ −∞ −∞ −∞ −∞
Z 0
− P (X < t)dt
−∞

on a donc : Z +∞ Z 0
E(X) = I1 + I2 = P (X > t)dt − P (X < t)dt
0 −∞

3. Mq Z +∞ Z a
E(|X − a|) = (1 − F (t))dt + F (t)dt
a −∞

par le résultat précédent :


Z +∞ Z 0
E(|X − a|) = P (|X − a| > t)dt − P (|X − a| < t)dt
0 −∞
| {z }
=0 car |X−a|≥0 et t≤0

R +∞
⇒ E(|X − a|) = 0
P (|X − a| > t)dt. Car {|X − a| > t} = {X − a > t} ∪ {a − X > t} :
Z +∞ Z 0
E(|X − a|) = P (X > t + a)dt + P (a − t > X)dt
0 −∞

en posant u = t + a et v = a − t :
Z +∞ Z a
E(|X − a|) = P (X > u)du + P (v > X)dv
a −∞

et puisque P (X > u) = 1 − P (X < u) et F (u) = P (u < X) :


Z +∞ Z a
E(|X − a|) = (1 − F (u))du + F (v)dv
a −∞

4.
f (a) = E(|X − a|)
f dérivable
!
f 0 (a) = −(1 − F (a)) + F (a) = 2F (a) − 1 = 0
1
⇒ F (a) =
2
R0
1. pour x < 0 on a x = − 1 (t)dt
−∞ [−x,0]

2
Exercice 1.3
1. Loi de (N1 , . . . , Nk ). Soit (n1 , . . . , nk ) ∈ [1, k]
Pn
– 1e cas : i=1 ni 6= n
alors P (N1 = n1 , . . . , Nk = nk ) = 0
Pn
– 2e cas : i=1 ni = n
alors

P (N1 = n1 , . . . , Nk = nk ) = Cnn1 .pn1 1 .Cn−n


n2
1
.pn2 2 . · · · .C nk Pk−1 .pnk k
n−
i=1

n!
= .pn1 . · · · .pnk k
n1 ! · · · nk ! 1
Ou bien :

P (N1 = n1 , . . . , Nk = nk ) = P (N1 = n1 )P (N2 = n2 , . . . , Nk = nk |N1 = n1 )


= P (N1 = n1 )P (N2 = n2 |N1 = n1 )
P (N3 = n3 , . . . , Nk = nk |N1 = n1 ∩ N2 = n2 )

D` où par récurrence : P (N1 = n1 , . . . , Nk = nk ) = n! n1


n1 !···nk ! .p1 . · · · .pnk k
2. Loi marginale de Nj Soit j ∈ [1, k − 1]
X
P (Nj = nj ) = P (N1 = n1 , . . . , Nk = nk )
n1 ,...,nj−1 ,nj+1 ,...,nk ∈[1,k]k−1

k
P
Sachant que l’on a ni = n − nj
i=1
i6=j

n! n
X n − nj nj−1 nj+1
P (Nj = nj ) = .p j . .pn1 . · · · .pj−1 .pj+1 . · · · .pnk k
(n − nj )!nj j n1 ! · · · nj−1 !nj+1 ! · · · nk ! 1
n1 ,...,nj−1 ,nj+1 ,...,nk ∈[1,k]k−1

Rappel sur la multinome de Newton : ∀n ∈ N∗ , ∀p ∈ N∗ , ∀(x1 , . . . , xp ) ∈ Rp


X n!
(x1 + · · · + xp )n = .xn1 . · · · .xnp p
Pn n1 !. · · · .np ! 1
(n1 ,...,np )∈[1,n] ni =n
i=1

Donc
k
n
X
P (Nj = nj ) = Cnnj .pj j ( pi )n−nj
i=1
i6=j
n
P (Nj = nj ) = Cnnj .pj j (1 − pj )n−nj

Autre méthode.
Nj ∼ B(n − nj , pj )
n n Pk−1
Soit Fj = Cn j .pj j (1 − pj )n−nj , on a i=1 Fj = 1
j P (N =n )
Soit également Gj = Fj
Pn i i
On a Nj = i=1 Xj où Xj ∼ B(pj )
n n
E(Xji ) =
P P
D` où E(Nj ) = pj = [Link]
i=1 i=1
n n
Xji ) V (Xji ) − 2 Cov(Xji , Xjl )
P P P
et V (Nj ) = V ( =
i=1 i=1 1≤i≤l≤n

3
Or ∀i, l, Cov(Xji , Xjl ) = 0 car les (Xji ) sont indépendants.
n
(pj − p2j ) = [Link] (1 − pj )
P
Donc V (Nj ) =
i=1
3. Calcul de P (N1 = n1 |N2 = n2 )
P (N1 = n1 , N2 = n2 )
P (N1 = n1 |N2 = n2 ) =
P (N2 = n2 )
Cnn1 .pn1 1 .Cnn2 .pn2 2 .
P
P (N3 = n3 , . . . , Nk = nk )
n1 ,...,nk ∈[1,n]
n
P
ni =n−n1 −n2
i=3
P (N1 = n1 |N2 = n2 ) =
Cnn2 .pn2 2 (1 − p2 )n−n2
n−n −n2
n1 (1 − p1 − p2 ) 1

P (N1 = n1 |N2 = n2 ) = Cn−n .pn1 1 .


2
(1 − p2 )n−n2
Verification :
n1 n−n1 −n2
.pn1 1 .(1 − p1 − p2 )
P
Cn−n 2
X 0≤n1 ≤n−n2
P (N1 = n1 |N2 = n2 ) =
(1 − p2 )n−n2
0≤n1 ≤n−n2
X (p1 + (1 − p1 − p2 ))n−n2
P (N1 = n1 |N2 = n2 ) =
(1 − p2 )n−n2
0≤n1 ≤n−n2
X
P (N1 = n1 |N2 = n2 ) = 1
0≤n1 ≤n−n2

Exercice 1.5
1.
−1
Y = ln (1 − X)
λ
X suit une loi uniforme sur [0, 1[ donc Y sur ]0, +∞[.
Calculons la fonction de répartition de Y :

FY (u) = P(Y ≤ u)
−1
= P( ln (1 − X) ≤ u)
λ
= P(ln (1 − X) ≥ −λu)
= P(X ≤ 1 − exp(−λu))
= (1 − exp(−λu))1u≥0

Donc Y suit une loi exponentielle de paramètre λ.


2. Soit l’inverse généralisé de F :
F − (t) = inf {s|F (s) ≥ t}
Montrons que ∀t ∈ [0, 1], F − (t) ≤ u ⇔ t ≤ F (u)

⇒)inf {s|F (s) ≥ t} ≤ u et F étant croissante, on a F (u) ≥ F (s) ≥ t


On a la réciproque par définition d’un inf

Déterminons la loi de Y = F −1 (X)


P(F −1 (X) ≤ t) = P(X ≤ F (t)) = F (t) car X suit une loi uniforme sur [0, 1[
Donc la fonction de répartition de F −1 (X) est F .

4
Chapitre 2
Exercice 2.1
1. Soit X = (X1 , X2 ) ∈ R2 un vecteur aléatoire Gaussien de densité par rapport à la mesure de
Lebesgue sur R2 :
−(x21 +x22 )
2 exp 2
∀(x1 , x2 ) ∈ R , f (x1 , x2 ) =

Soit g : R\{(0, 0)} → R∗+ × [0, 2π[ inversible telle que

g −1 (r, θ) = (r cos θ, r sin θ) et g(X1 , X2 ) = (R, Θ)

Montrons tout d’abord que g −1 est un C 1 -difféomorphisme.

cosθ −r sin θ
|Jac(g −1 )| = =r
sin θ r cos θ

Or r>0 donc |Jac(g −1 )| =


6 0. De plus g −1 est injective, donc par théoréme d’inversion global, g −1
1
est bien un C -difféomorphisme.
Déterminons la loi de (R, Θ) :
2 1θ∈[0,2π[
f(r,θ) = fg(X1 ,X2 ) (r cos θ, r sin θ)|Jac(g −1 )| = (r exp( −r2 ))( 2π )

Identifions la loi en faisant un changement


√ de variable :
2
pour u ∈]0, 1], u = exp −r2 donc r = −2 ln u

∂r 1 −2 1
= √
∂u 2 −2 ln u u
−1
= √
u −2 ln u
6 = 0
√ −1
∀u ∈]0, 1], fu (u) = fr ( −2 ln u) × √
u −2 ln u
√ 1
= u −2 ln u × √
u −2 ln u
= 1
1θ∈[0,2π[
Finalement, f(r,θ) = 2π donc u suit une loi uniforme sur [0, 1[ et θ suit la loi uniforme sur
[0, 2π[.

Exercice 2.2
1. Soit φ : R2+ → R∗+ × [0, 1[ inversible telle que
x
φ−1 (u, v) = (uv, u(1 − v)) et φ(x, y) = (x + y, )
x+y

Montrons tout d’abord que g −1 est un C 1 -difféomorphisme.

v u
|Jac(φ−1 )| = = | − u|
1−v −u

5
Or u>0 donc |Jac(φ−1 )| =
6 0. De plus φ−1 est injective, donc par théoréme d’inversion global, φ est
1
bien un C -difféomorphisme.

Donc,

fφ(X,Y ) (u, v) = fX,Y (uv, u(1 − v))


= fX (uv)fY (u(1 − v))|Jac(φ−1 (u, v))|
θp+q
= up+q−1 exp(−θu)1u>0 v p−1 (1 − v)q−1 1v∈]0,1[
Γ(p)Γ(q)

Donc X + Y suit une loi γ(p + q, θ)


X
Et X+Y β(p, q) et ils sont indépendants car la densité jointe est égale au produit des deux densités

Exprimons le coefficient B(p, q) à l’aide de la fonction gamma :

Z +∞ Z +∞
Γ(p)Γ(q) = ( tp−1 exp(−t)dt)( tq−1 exp(−u)du))
0 0
Z +∞ Z +∞
= tp−1 exp(−t)uq−1 exp(−u)dtdu
0 0
Z +∞ Z 1
= (xy)p−1 exp(−xy)xq (1 − y)q−1 exp(−x(1 − y))dxdy
0 0
Z +∞ Z 1
= xp+q−1 exp(−x)dx y p−1 (1 − y)q−1 dy
0 0
= γ(p + q)B(p, q)

Γ(p)Γ(q)
D’où : B(p, q) = Γ(p+q)

2. Soit ψ : R2+,∗ → R2+,∗ inversible telle que ψ(x, y) = (x, xy ) et ψ −1 (u, v) = (u, uv )

1 0 u
|Jac(ψ −1 )| = 1 −u =| |
v v2 v2

Donc ψ est un C 1 difféomorphisme


Et, fψ(X,Y ) (u, v) = fX (u)fY ( uv ) vu2 par indépendance
Donc,
Z +∞
θp+q u u u
f X (v) = up−1 exp(−θu)( )q−1 exp(−θ ) 2 du
Y
0 Γ(p)Γ(q) v v v
p+q Z +∞
θ 1 1
= q+1
1v>0 up+q−1 exp(−θu(1 + )du
Γ(p)Γ(q) v 0 v

Or,
1 1
up+q−1 exp(−θu(1 + )) ∼ Cste.Γ(p + q, θ(1 + ))
v v

D’où, Z +∞
1 Γ(p + q)
up+q−1 exp(−θu(1 + ))θp+q du =
0 v (1 + v1 )p+q

6
Finalement,

v p−1 1 Γp+q
f X (v) = 1 v>0
Y (1 + v)p+q v p+q Γ(p)Γ(q)
p−1
1 v
= 1v>0
B(p, q) (1 + v)p+q

7
Chapitre 3
Exercice 3.1 : lois du Chi-2 et de Student
1. Au rang 1 :
1 1 y
fY (y) = 2 √ √ exp(− )
2π 2 y 2

(Remarque : on multiplie par 2 puisque le changement de variable oblige à se restreindre à R+∗ )

On procède ensuite par récurrence. Supposons le résultat vrai pour un n ∈ N. Montrons qu’il est
vrai pour n + 1 :

2
` 2
On a Yn+1 = Yn + Xn+1 et de plus Yn Xn+1 donc fYn+1 = fYn ∗ fXn+1
2 .
donc
Z
1 1 1
1R+ (s) ∗ n n e− 2 ∗ x 2 −1 ∗ 1R+ (y − x) √
x n
fYn+1 (y) = √ dx
R 2 Γ( 2 )
2 2π 2 y − x
−(n+1)
2 2
= 1y≥0 e− 2 y
y n+1
2 −1
Γ( n+1
2 )

On utilise en effet le résultat :

B( n2 , 12 ) B( n2 , 12 )
√ n = n+1
2π2 Γ( n2 )
2 2 2 Γ( n+1 n 1
2 )B( 2 , 2 )

2. On a

E(Y1 ) = E(X12 ) = 1
d’où

E(Yn ) = E( E(Xi2 ) = n
X X
Xi2 ) =

De même

X
V ar(Yn ) = V ar( Xi2 )
X
= V ar(Xi2 ) par indépendance
(E(Xi4 ) − E(Xi2 )2 )
X
=
= 2n

Par I.P.P, on montre que :

E(Xi4 ) = 3
3. Loi de Student.
Soit ψ : RxR+∗ → RxR+,∗ inversible telle que

x
ψ(t, s) = ( √ , y)
y
et √
ψ −1 (x, y) = (t s, s)

8
√ t
s √ √
|Jac(ψ −1 )| = 2 s = s
0 1
Donc ψ est un C 1 difféomorphisme

Z
1 1 s n+1
fTn0 (t) √ 2 2 −1 ds
= n n exp(− (1 + t ))s
R
+∗ 2π 2 2 Γ( 2 ) 2
1 Γ( n+1
2 ) n+1
= √ n (1 + t2 )− 2
π Γ( 2 )


Puis par changement de variable simple Tn = nTn0 , on a directement :

1 Γ( n+12 ) y 2 − n+1
fTn0 (y) = √ (1 + ) 2
nπ Γ( n2 ) n
4.
1 Γ( n+1
2 ) y 2 −(n+1)
Z Z
|y|α fTn (y)dy = √ n |y|α (1 + ) 2 dy
R nπ Γ( 2 ) R n

en +∞ :

y 2 − n+1 |y|−(n+1)
|y|α (1 + ) 2 ∼∞ |y|α −(n+1)
n n 2
Pour α = 1 (moment d’ordre 1) :

y 2 − n+1
|y|α (1 + ) 2 ∼∞ Cste.|y|−n
n
Donc c’est intégrable pour n > 1.

Pour α = 2 (moment d’ordre 2) :

y 2 − n+1
|y|α (1 + ) 2 ∼∞ Cste.|y|−(n−1)
n
Donc c’est intégrable pour n > 2.

Exercice 3.2
n n
X X z
Fz (z) = P [Z ≤ z] = P [−2 log F (Xi ) ≤ z] = P [ log F (Xi ) ≥ − ]
i=1 i=1
2
par propriétés de log :
n n
Y z Y z
= P [log( F (Xi )) ≥ − ] = P [ F (Xi ) ≥ e− 2 ]
i=1
2 i=1
par équivalence des Xi :
z z z
= P [F (X1 )n ≥ e− 2 ] = P [F (X1 ) ≥ e− 2n ] = P [X1 ≥ F −1 (e− 2n )]
z
= 1 − P [X1 ≤ F −1 (e− 2n )]
z
= 1 − F (F −1 (e− 2n ))
z
= 1 − e− 2n
Z suit la loi exponentielle

9
Exercice 3.3
1. La proposition est vraie pour p=1. On suppose qu’elle est aussi vraie pour un certain p fixé dans N.
càd :
Xp X p
Z= Xi ∼ P( λi = λz )
i=1 i=0
On cherche la loi de Z + Xp+1
K k−i
X z i −λp+1 λp+1
P [Z + Xp+1 = K] = (e−z )(e )
i=0
i! (k − i)!
k
e−(z+λp+1 ) X k!
= z i λk−i
p+1
k! i=0
i!(k − i)!
| {z }
f ormule du binome

e−(z+λp+1 )
= (z + λp+1 )k
k!
ce qui démontre la proposition.
2.
n
X
Nn = 1{Xi =0}
i=1

P [Xi = 0] = e−λi . Alors si λ1 = λ2 = ... = λi = ... = λn = λ :


Nn ∼ B(n, eλ )
sinon :
n
X n
X
E(Nn ) = e−λi V ar(Nn ) = e−λi (1 − eλi )
i=1 i=1

Exercice 3.4
Soit (X)n∈N une suite de variables aléatoires réelles indépendantes.
1. Mq
+∞
X
P (sup Xn < +∞) = 1 ⇔ ∃A > 0, t.q. P (Xn > A) < +∞
n
n=1
(⇐) P
on pose An = (Xn > A), n ∈ N. On a n∈N P (An ) < +∞ : Donc par B.C. :
P (lim sup(An )) = 0
n

il est donc impossible, qu’une infinité de An soient réalisées. Donc ∃k ∈ N et I ⊂ N de cardinal k,


t.q. ∀i ∈ I, Xi > A et ∀i ∈
/ I, Xi ≤ A On a alors :
sup((Xn )n∈N ) = sup((Xi )i∈I , A)
⇒ ( sup Xn < +∞) = (sup Xi < +∞)
N ∈N i∈I
Or P (supi∈I (Xi ) < +∞) = 1 car I est fini et @Xi = +∞.

(⇒)
P P (supn∈N Xn < +∞) = 1 (∗).
On suppose que PRaisonnement par l’absurde :
Si ∀A ∈ R+ , n∈N P (Xn > A) diverge. Càd n∈N P (Xn > A) = +∞, on peut appliquer B.C. car
les (Xn > A) sont indépendantes (puisque les Xn le sont). On obtient :
P (lim sup An ) = 1, ∀A ∈ R
n

Ce qui montre que supn∈N Xn = +∞ : Contradiction avec (∗).

10
2. On suppose de plus que les Xn suivent la même lois. Mq :
Z
Xn
P( → 0) = 1 ⇔ |X1 |dP < +∞
n Ω

(⇒)
On suppose que P ( Xnn → 0) = 1. ( Xnn )n∈N converge p.s. et donc elle est bornée p.s. Alors
∃M > 0, ∀n ∈ N t.q. | Xnn | ≤ M donc |Xn | ≤ M · n pour n = 1 : |X1 | ≤ M et on a bien :
Z
|X1 |dP < +∞

(⇐)
On utilise la loi forte des grands nombres (Kolmogorow, 1929) :

Si (Xn )n∈N est une suite de v. a. i.i.d. on a équivalence entre :


i E(|X1 |) < +∞
ii la suite X1 +...+X
n
n
converge p.s.
X1 +...+Xn
De plus, si l’une de ces deux conditions équivalentes est remplie, alors la suite n converge
p.s. vers la constante E(X1 )
Sn X1 +...+Xn n→+∞ Xn Sn Sn−1 Sn
R
On suppose Ω
|X1 |dP < +∞ donc n = n −−−−−→ E(X1 ). On a n = n − n = n −
p.s.
n−1 Sn−1 n→+∞ n−1
n n−1 − −−−−→ E(X1 )−(limn→+∞ n )E(X1 ) = (limn→+∞ n1 )E(X1 ). Et puisque E(|X1 |) < +∞
p.s.
on a bien :
Xn n→+∞
−−−−−→ 0
n p.s.

Càd :
Xn
P( → 0) = 1
n

Remarques concernant le dernier TD


On montre d’abord les implications suivantes :

P(n→∞
lim Xn = X) = 1 ⇒ P(∀ ≥ 0, ∃n ≥ 0, ∀k ≥ n, | Xk − X |≤ ) = 1
1
⇒ P(∀p ∈ N∗ , ∃n ≥ 0, ∀k ≥ n, | Xk − X |≤ ) = 1
p
1
⇒ P(∩p≥1 ∪n≥0 ∩k≥n | Xk − X |≤ ) = 1
p
1
⇒ ∀p ≥ 1, P(∪n≥0 ∩k≥n | Xk − X |≤ )=1
p
⇒ ∀ ≥ 0, P(∪n≥0 ∩k≥n | Xk − X |≤ ) = 1
⇒ ∀ ≥ 0, P(∪n≥0 | Xk − X |≤ ) %n→∞ 1
P(| Xk − X |≥ ) ≤ ∞
X

n

On obtient l’équivalence en ajoutant l’hypothèse d’indépendance des Xn .

Exercice 3.5
Soit X une variable aléatoire de densité h1 . On a alors λX une variable aléatoire de densité hλ , où
λ ∈ R. Soit g une fonction bornée presque partout. Cela équivaut à

∃B/µ(B) = 1, ∃c ∈ R/∀x ∈ B, | g(x) |≤ c

11
On a alors : Z
lim (g ∗ hλ )(x0 ) = lim g(x0 − y)hλ (y)dy
λ→0 λ→0 R
On applique le lemme de transport. On obtient alors :
Z
lim (g ∗ hλ )(x0 ) = lim g(x0 − λx) hλ (λx) dx
λ→0 λ→0 R | {z }
h1 (x)

On applique alors le théorème de convergence dominée en posant :

φ : (λ, x) → g(x0 + λx)h(x)

Les hypothèses suivantes sont vérifiées :

– ∀x ∈ B̄, | φ(λ, x) |≤ c h(x)


– φ(λ, .) →C.S
λ→0 g(x0 )h1 (x)
– φ est continue par rapport à λ
On obtient alors :
Z
lim (g ∗ hλ )(x0 ) = lim g(x0 − λx)h1 (x)dx
λ→0 R λ→0
= E( lim g(x0 − λx)) = g(x0 )
λ→0

D’où le résultat.

12
Chapitre 4
Exercice 4.1
1. On a (Xn )N ∼ B(1, pn ), où les Xi sont indépendantes.
On rappelle qu’on a :

P(Xn = 0) = 1 − pn

∀n ∈ N
P(Xn = 1) = pn
On a :

(∀ > 0, P(| Xn |> ) →n→∞ 0) ⇒ pn → 0


car :

pn si  ∈]0; 1]
P(| Xn |> ) = 0 si  > 1
Réciproquement, supposons que pn →n→∞ 0. Puisque on a :

P(| Xn |≥ ) = pn ou 0 selon que pn > ou < 0


On a clairement que :

∀ ≥ 0, lim
n→∞
P(| Xn |≥ ) = 0
D’où le résultat.
D’où l’équivalence.
2. Montrons que :
X
Xn →P S
n→0 = X ⇔ pn < ∞
n∈N

En considérant que les Xn sont indépendants, on a :

P(| Xn |≥ ) < ∞ d’après le cours.


X
Xn →P S
n→0 = X ⇔ ∀ > 0,
n∈N

Donc :
X
Xn →P S
n→0 = X ⇔ ∀ > 0, pn < ∞ toujours d’après le cours.
n∈N

Exercice 4.2
1. cf. ce qui précède
2. (a) On pose :
Yn
Xn =
ns
On a :

P(| Xn |≥ ) = P(| Yn |≥ ns )


= P((Yn ≥ ns ) ∪ (Yn ≤ −ns ))
= P(Yn ≥ ns ) + P(Yn ≤ −ns )
≥ P(Yn ≥ ns )

13
Or :

P(Yn ≥ ns ) = 1 − F0 (ns )


Et :

F0 (ns ) →n→∞ 1
car F0 ∈ C 0 .

On obtient alors que :

P(| Xn |) ≥  →n→∞ 0, ∀ ≥ 0
D’où la convergence en proba.
(b) On a :

P(| Xn |≥ ) < ∞
X
Xn →ps 0 ⇔
n

(P(Yn ≥ ns ) + P(Yn ≤ −ns )) < ∞


X

X
⇔ (1 − F0 (ns ) + F0 (ns ) < ∞

(c) Si Y ∼ eθ . On a F0 (y) = 1 − e−θy et :


s
(1 − F0 (ns ) + F0 (ns ) = 1 − (1 − e−θn )
| {z }
=0

Donc le terme principal de la série vaut :


s
e−θn
On a de plus :

s 1
e−θn = ◦∞ ( )
n2
D’où la convergence de la série, et d’après ce qui précède, d’où la convergence presque sûre de
la suite (Xn )N .
3. On rappelle que :
Xn →loi ⇔ ∀f ∈ M, E(f (Xn )) → E(f (X))
Montrons la convergence en proba. On a :

P(| Xn |≥ ) = E(1{|Xn |≥} )


= E(1{|Yn |≥ns } )

Soit N > 0. ∀n ≥ N , on a :
P(| Yn |≥ ns ) ≤ E(1{Yn ≥N s } )
car :
{Yn ≥ ns } ⊂ {Yn ≥ N s }
On a alors, en utilisant l’hypothèse de convergence en loi :

E(1{Yn ≥N s } ) →n→∞ E(1{|Y |≥N s } ) = P(| Xn |≥ N s )

14
Or :

P(| Xn |≥ N s ) →N →∞ 0
Donc :

P(| Xn |≥ ) →n→∞ 0
D’où le résultat.

Exercice 4.3
Soit Un une suite de variables aléatoires indépendantes de même loi.

∀n ∈ N, Un ∼ N (0, 1)

On pose :
n
X
Vn = k −β Uk , β > 0
k=1

∀n ∈ N la variance de Vn vaut
Pn −2β
k=1 k . La variance converge donc si, et seulement si, β > 21 .
En outre, on a :

V ar(Vn − V
P(| Vn − V |≥ ) ≤
2

1 X
≤ k −2β
2
k=n+1
1 ∞ dt
Z

2 n+1 t2β
Or :
Z ∞  ∞
dt 1 1
= −
n+1 t2β 2β + 1 t2β−1 n+1

donc :
1 1
P(| Vn − V |≥ ) ≤
2β − 1 n2β−1
1
Or si β > 1, on a la convergence de la série de terme général n2β−1 . Donc finalement, on a aussi la
convergence presque sûre de la suite Vn .
En résumé, si β < 12 , on n’a pas la convergence. Pour β > 1, on a par contre la convergence. Examinons
le dernier cas :
Soit β < 1. On va utiliser le fait que

P(Vn CV ) ⇔ P(Vn de Cauchy )


On a ∀k, n ∈ N :
p=n+k−1
X 1
(Vn+k − Vn ) ∼ N (0, )
p=n
p2 β

donc :
p=n+k−1
1
P(| Vn+k − Vn |≥ ) = P(| U1 |≥ 
X
)
p=n
p2 β

15
Exercice 4.5
n
T n
Q
P(Mn ≤[Link](n)) =P( [Xk ≤[Link](n)]) = P[Xk ≤[Link](n)]
k=1 k=1

= (1-exp(-cln(n)))n =(1- n1c )n


Mn
An = ln(n) ≤c

P(An )=(1- n1c )n =exp([Link](1- n1c ))

1
Or [Link](1- n1c ) ∼- n( c−1)

(1- n1c )n ∼ exp( n( c−1)


1
) qui converge pour c<1 (cf 4.2)

Soit c=1-a, avec a>0


∞S
Pn T ∞
n=1 P(An )<+∞ donc P(limsupAn )=0 limsup(An )= p=n Ap
n
∞S
T ∞ Mn (w)
P( p=n (w tq ln(p) − 1 > −a)) = 1
n

T Mn (w)
P( (w tq infp≥n ln(p) − 1 > −a)
n
Mn (w)
P(w tq supn infp≥n ln(p) − 1 > −a)
Mn (w)
P(w tq liminf ln(p) − 1 > −a) =1
Mn Mn
P( ln(n) ≥ 1 + a)=1-P( ln(n) ≤ 1 + a)=1-(1- n1a )
Mn
P( ln(n) ≥ 1 + a) ∼ exp(- n1a )
Mn b 1 1
P( ln(nb) ≥ 1 + a) ∼ k( a.b)
converge si b > a (c’est le cas)
P∞ Mn b
n=1 P( ln(nb) ≥ 1 + a) < + ∞

Par Borel Cantelli


∞S
T ∞ Mn p
P( p=n ln(np) > 1 + a) =0
n
∞S
T ∞ Mn p
P( p=n ln(np) − 1 ≤ a) = 1
n

T Mn (w)
P( (w tq supp≥n ln(p) − 1 ≤ a) = 1
n
Mn (w)
P(w tq inf n supp≥n ln(p) − 1 ≤ a) =1
Mn (w)
P(w tq limsup ln(p) − 1 ≤ a) =1

Conclusion
Mn b p.s.
limsup ln(nb) −→ 1
Mn b p.s.
liminf ln(nb) −→ 1

Ainsi, par encadrement,

16
Mn b p.s.
lim ln(nb) −→ 1

Exercice 4.6
Xn suite de variables indépendantes, identiquement distribuées.

E(X1 ) = E(Xk ) = µ
n
P
Sn = Xk
k=1

1. P (Sn ≥ n.a) avec a > µ quand n → +∞

Loi faible des grands nombres

Sn P
n −→ µ < a

P | Snn − µ| >  → 0


µ<a

P ( Snn > a) = P Sn

n −µ>a−µ →0
a−µ
or  >0

2. ∃ k > 0/E(exp(θn .X1 )) < +∞

E(exp(θ.X1 )) < +∞ ∀θ ∈]θ1 , θ0 ]

∀θ < θ0 , θ1 < θ0

exp (θ.X1 ) < 1 si X1 < 0

exp (θ.X1 ) < exp (θ0 .X1 ) si X1 > 0

E(exp(θ.X1 )) < P (X1 < 0) + P (exp (θ0 .X1 )) < +∞

3. φ(0) = E(exp (θ0 .X1 )

On veut que P (Sn ≥ n.a) ≤ exp (−n.(aθ − ln(φ(θ))))

Inégalité de Markov avec f = exp θ avec θ > 0

E(f (X))
f croissante P (X ≥ a) ≤ f (a)

P (Sn ≥ n.a) ≤ E(exp(θ.Sn )) = exp(−θn .a)

17
n
X
E(exp(θ.Sn )) = E(exp(θ. Xk ))
k=1
n
Y
= E( exp(θ.Xk ))
k=1
n
Y
= E(exp(θ.Xk ))
k=1
n
= E (exp(θ.Xk ))
= [φ(θ)]n

donc P (Sn ≥ n.a) ≤ exp(ln[φ(θ)]n ). exp(−nθ.a)

18
Chapitre 5
Exercice 5.2
Pour X variable aléatoire réelle ayant une fonction caractéristique de la forme
2
Φx (t) = eAt +Bt+C

On a
Φx (0) = E(1) = 1
et
Φx (0) = eC
D’où
C=0

2 2
Φ0x (t) = (At2 + Bt)0 eAt +Bt+C
= (2At + B)eAt +Bt+C

Donc
Φ0x (0) = B
Or
Φ0x (0) = iµ
D’où
iµ = B

On a
σ 2 = E(X 2 ) − E(X)2
Or
E(X 2 ) = −Φ00x (0)
Et ici :
Φ00x (0) = 2A + B 2
Donc
σ 2 = −2A − B 2 − µ2 = −2A − B 2 + B 2 = −2A

Or on sait que si (et seulement si) X ,→ N (µ, σ 2 ) alors sa fonction caractéristique est de la forme
σ 2 t2
Φx (t) = e− 2 +µit

19
Exercice 5.6
1. Pour Xn de moyenne m et de variance σ 2 , on pose :

Xn − m
Xn0 =
σ
X Y − nm
Y0 = X0 =
σ
P 0
X Xn 2
Z0 = (Xn0 − )
n
Alors on a :
P
Xn
X Xn − m m
0
Z = ( − σ
+ )2
σ n σ
2
P
(Xn − m)
Z0 =
σ2
donc :

Z
Z0 =
σ2
Y − nm
Y0 =
σ
donc Y et Z sont indépendants si et seulement si Y’ et Z’ le sont
Finalement : Y et Z sont gaussiens si et seulement si Y’ et Z’ le sont.
2. Pn Pn
n 2
X j=1 Xj ( j=1 Xj )
Z= (Xi2 − 2Xi +
i=1
n n2
n Pn Pn Pn
( j=1 Xj )2
P
X i=1 j=1 Xi Xj i<j Xi Xj
Z=( Xi2 ) − 2 + +2
i=1
n n n2
n Pn P P
X
2 ( i=1 Xi )2 i<j Xi Xj i<j Xi Xj
Z=( Xi ) − −4 +2
i=1
n n n
n P
1 X 2 i<j Xi Xj
Z = (1 − ) Xi − 2
n i=1 n

d’ou, puisque E(Xi2 ) = 1 et E(Xi ) = 0 (Xi centree reduite) :


n P
1 X i<j E(Xi )E(Xj )
E(Z) = (1 − ) 1−2
n i=1 n

E(Z) = n − 1
3. Par independance de Y et de Z :

E(ZeiuY ) = E(Z)E(eiuY )
n
Y
E(ZeiuY ) = E(Z)E( eiuXk )
k=1
iuY n
E(Ze ) = E(Z)Φ(u)

20
4.
n
E(Xj Xk eiuY
P
iuY 1 X j<k
E(Ze ) = (1 − ) E(Xj2 eiuY ) − 2
n j=1 n
n n Qn
eiuXl )
P
iuY 1 X Y j<k E(Xj Xk l=1
E(Ze ) = (1 − ) E(Xj2 eiuXk ) − 2
n j=1 n
k=1

or :
n
Y
E(Xj2 eiuXk ) = E(Xj2 eiuXj )(E(eiuX1 ))n−1
k=1
n
Y
E(Xj Xk eiuXl ) = E(Xj eiuXj )E(Xk eiuXk )(E(eiuX1 ))n−2
l=1

De plus :
Φ(u) = E(eiuX )
0
Φ (u) = iE(XeiuX )
Φ” (u) = −E(X 2 eiuX )
donc : 0
n
−(Φ (u))2 (Φ(u))n−2
P
iuY 1 X j<k
E(Ze ) = (1 − ) −Φ” (u)(Φ(u))n−1 − 2
n i=1 n
0
(Φ (u))2 (Φ(u))n−2 n(n − 1)
E(ZeiuY ) = −(n − 1)(Φ(u))n−1 Φ” (u) + 2
n 2
d’ou, finalement : 0
E(ZeiuY ) = (n − 1)Φ(u))n−1 ((Φ (u))2 − Φ(u)Φ” (u))
0
5. Prouvons que Φ n’est jamais nulle : Supposons, par l’absurde, que Φ s’annule en u0 . Alors Φ (u0 ) = 0.
D’apres le théorème de Cauchy-Lipschitz, Φ est la fonction nulle. C’est absurde.
Donc Φ n’est jamais nulle. En divisant par Φ(u))n−1 , on obtient l’équation différentielle suivante :
0
Φ” (u)Φ(u) − (Φ (u))2 = (Φ(u))2

Donc 0
Φ 0
( ) = −1
Φ
Finalement : 0
(ln Φ(u)) = −u + B
avec B constante réelle
u2
Φ(u) = e− 2 +Bu+C

avec C constante réelle


or B = C = 0 d’apres l’exercice 5.2 donc
u2
Φ(u) = e− 2

donc X suit une loi normale centree reduite.

21
Exercice 5.9
X et Y sont des variables aleatoires iid et suivent la loi U[0,1] , D = X − Y
1. (a) Produit de convolution → fX+Y = fX ∗ fY
donc fX−Y R = fX ∗ f−Y ou f−Y (y) = fY (−y)
fX−Y = s∈R fX (u − s)fY (−s)ds
R
= s∈R 1[0,1] (u − s)1[0,1] (−s)ds, −1 ≤ s ≤ 0, u − 1 ≤ s ≤ u
s ∈ [0, 1] ⇒ u ∈ [−1, 1]
R0
fX−Y (u) = −1 1[0,1] (u − s)ds
Ru
– u ≤ 0, −1 ≤ s ≤ u, fX−Y (u) = −1 ds = 1 − u
R0
– u ≥ 0, u − 1 ≤ s ≤ 0, fX−Y (u) = u−1 ds = 1 − u
Donc fX−Y (u) = (1 − |u|)1u∈[−1,1]
(b) Loi de aD, a ≥ 0
s 1
φ : u → au φ−1 : s → (φ−1 )0 =
a a
1 |t|
fas (t) = (1 − 1t∈[−a,a] ) ← πa
a a
(a)
Z
π̂a (t) = exp(−itx)πa (x)dx
ZRa
1 |x|
= exp(−itx) (1 − )dx
−a a a
Z 0 Z a
1 x 1 x
= (1 + ) exp(−itx)dx + (1 − ) exp(−itx)dx
a −a a a 0 a
2
= 2 2 (1 − Re(exp(ita)))
a t
(b) x 7→ π1 1−cos(ax) (≥ 0) π̂a−1 1
R
ax2 (t) = 2π w
exp(iwt)π̂a (w)dw = πa (t)
−1 1
R
π̂a = πa (0) = a donc f (x)dx = aπa (0) = 1
de plus f (x) ≥ 0∀x
Donc f est une densite de probabilite.
(c)
Z
1
L̂a (w) = exp(−iwt)La (t)dt

Z
1
= exp(−iwt)πaπ̂a (t)dt

= πaπa (−w)
C’est des lois complementaires.

Exercice 5.10
P1 proba sur (R, BR ) ← φ1 , f1
P2 proba sur (R, BR ) ← φ2 , kφφ11 k
Soit t ∈ R
φ2 (t) = E[exp(itf2 )]
Z
= exp(ity)f2 (y)dy
R
Z
1
= exp(ity)φ1 (y)dy
kφ1 k R
Z
2π 1
= exp(ity)φ1 (y)dy
kφ1 k 2π R

22
Donc

φ2 (t) = φ1 (−t), ∀t ∈ R
kφ1 k1

23
Chapitre 6
Exercice 6.1
On considere 2n+1 points repartis independamment et uniformement sur [0,1].
Soit Vn+1 le (n+1)-eme dans l’ordre croissant. Calculer la densite de Vn+1 et en deduire celle de
√ 1
Xn = 2 2n(Vn+1 − ) (1)
2
On note les points Ai . Ils suivent une loi normale centree reduite.
Soient A ∈ [0, 1], m ∈ 1, ..., n + 1 et Nn+1 l’evenement "au moins n + 1 points sont inferieurs a A".
n+1
[
P(Nn+1 ) = P( (n + i)points ≤ A)
i=1
n+1
X
= P((n + i)points ≤ A)
i=1

Puisque les evenements sont disjoints.

n+1
X
n+i
F (A) = C2n+1 An+i (1 − A)n+1−i
i=1

D’ou :
n+1
X
n+k
f (A) = C2n+1 ((n + k)An+k−1 (1 − A)n+1−k − (n + 1 − k)An+k (1 − A)n−k−1
k=1
n
X n
X
n+k−1 n+k−1 n+k n+k
= (2n + 1)C2n A (1 − A)n+1−k − (2n + 1)C2n A (1 − A)n−k−1
k=1 k=1
n
X n+1
X
n+k−1 n+k−1 n+k−1 n+k−1
= (2n + 1)[ C2n A (1 − A)n+1−k − C2n A (1 − A)n+1−k ]
k=1 k=2
n 2n+1
= (2n + 1)[C2n (A(1 − A))n − C2n (A(1 2n
− A)) ]
n
= (2n + 1)C2n (A(1 − A))n

Soit T : Vn+1 7→ Xn = 2 2n(Vn+1 − 12 )
Alors T −1 (x) = 2√x2n + 12

Calculons la densite de Xn :

fXn (x) = fVn+1 (T −1 (x))|(T −1 )0 (x)|


2n + 1 n x 1 1 x
= √ C2n ( √ + )n ( − √ )n
2 2n 2 2n 2 2 2 2n
2n + 1 n 1 n x2 n
= √ C2n ( ) (1 − )
2 2n 4 2n

etudier la convergence en loi de Xn quand n tend vers +∞

E[Vn+1 ] = 21 et V (Vn+1 ) = 2√12n


On s’attend donc a ce que Xn →L N (0, 1) (TCL)

24
Theoreme de Schelle :
Si fn →CS f0 Alors Xn →L X0 et f0 densite de X0

Formule de Stirling
√ :
n! ∼n→+∞ ( ne )n 2πn

2n + 1 (2n)! 1 X2
fn (X) = √ exp(n ln(1 − 2n ))
2 2n (n!)2 4n
| {z }
On note cette constante α
(2n)! 22n
(n!)2 ∼n→+∞ √
πn

2n+1 √1
α ∼n→+∞ √
2n 2π
∼n→+∞ 2π

X2 2
ln(1 − 2n ) = −X 2
2n + σ(X )

Exercice 6.4
1. demonstration par l’absurde : Sq ∃ (Xf (n) , Yf (n) ) une sous-suite de (Xn , Yn ) tq Xf (n) ⊥⊥ Yf (n) .
Pour les fonctions caractéristique il vaut :

ϕXf (n) ,Yf (n) = ϕXf (n) ϕYf (n)

L L t2 s2
Xf (n) −→ N (0, 1) et Yf (n) −→ N (0, 1), donc ϕXf (n) (t) → e− 2 et ϕYf (n) (s) → e− 2 et alors :

s2 +t2
ϕXf (n) ,Yf (n) (t, s) −→ e− 2

  
−s
2 +t2  1 p t
et e 2 = exp(− t s ) ⇒ p = 0. ABSURDE !
p 1 s
2. (a) on veut :
V (X, Y ∗ ) = I2
     
∗ X X  t X 
V (X, Y ) = V (X, aX + bY ) = V (A ) = E(A X Y A ) = AE( X Y )At
Y Y Y
     
1 0 1 p 1 a 1 a + bp
= =
a b p 1 0 b a + bp a2 + 2abp + b2

on cherche a et b tq (i) a + bp = 0 et (ii) a2 + 2abp + b2 = 1 et on obtient :


1 p
b = p , a = − p ;  = ±1
1−p 2 1 − p2

pour ces valeurs on a :


(Xn , Yn∗ ) → N (0, I2 )
(b) on a
fZn∗ (x) = f Yn∗
Xn

x −1
par changement de variable avec T (x, y) = (x, y ); T (u, v) = (u, uv) :

L 1 − u2 − (uv)2
fXn ,Zn∗ (u, v) = fXn ,Yn∗ (u, uv)|u| −→ e 2 e 2 |u|

Z
1 − u2 − (uv)2
fZ ∗ (v) = e 2 e 2 |u|du

25
Z Z
u − u2 (1+v2 ) u − u2 (1+v2 )
= e 2 du − e 2 du...
R 2π R− 2π
1
... =
π(1 + v 2 )
loi de Cauchy

Zn −a z−a
(c) Zn = b donc fZn −→ f Zn∗ −a . soit x = b ⇒ z = xb + a. alors :
b

|b|
f Z ∗ −a (z) = fZ ∗ (xb + a)|b| =
b π(1 + (bx + a)2 )
3. cas particulier : a=b=1
4. p = 0 i.e. les lois de X et Y sont ind.

Exercice 6.6
{Xn } est une suite de variables aléatoires indépendantes, de loi N (m, σ 2 ).
∀i ∈ N ∗ , Yi =| Xi |
∀n ∈ N ∗ , Tn = mini∈Nn (Yi )

Tn → 0 p.s.?
La convergence presque sûre équivaut à avoir : P (supn≤p Tn > ) → 0, p → ∞
En plus, on a supn≤p Tn ≤ Tp , car les Tn sont décroissants avec n, les ensembles i ∈ Nn (Yi ) étant croissants
au sens de l’inclusion. Il s’agit donc là de montrer que :
P (Tp ≥ ) → 0 lorsque p → ∞.
P (Tp > ) = P (min Yi > )
= P (∀i ∈ Np , Yi > )
= P (∀i ∈ Np , |Xi | > )
= P (∀i ∈ Np , Xi >  ou Xi < −)
= [1 − P (− < Xi < )]p les (Xi ) étant i.i.d
Comme 1 − P (− < Xi < ) < 1, alors [1 − P (− < Xi < )]p → 0, p → ∞ ;
Donc Tn → 0 p.s.

α > 0 et on suppose m > 0


P (Zn > ) = P (T n > nα )
On a : n2α . exp(− 2σ1 2 .( nα + m)2 ) ≤ P (Zn > ) ≤ 2 1 
nα . exp(− 2σ 2 .( nα − m)2 )
or P (Zn > ) = [1 − P (− nα < Xi < nα )]n
Pour α = 1, loi limite
m2
P (Zn > ) → exp ( √−2 2πσ 2
. exp − 2σ 2)

Convergence de la f.d.r → Convergence en loi


m2
−2 exp(− 2σ 2)
Donc, en conclusion, on a que : Zn → exp( √
2πσ 2
) en loi.

Exercice 6.7
X+Y
X et Y variables aléatoires i.i.d On suppose σ 2 ≤ ∞. On suppose également que 2 v X, Y . Posons :
X̄ = n1 . 1≤i≤n Xi
P

D’après le T.C.L, nX̄ → N (m, σ 2 ) en loi.
Soient X1 , X2 , X3
, X4
X1 +X2
vµ X1 +X2 X +X
+ 32 4
2
X3 +X4 ⇒ 2
2 vµ
2 vµ
DoncPpar récurrence,
√1 ∗
2k 1≤i≤2k Xi v µ ∀k ∈ N
1
donc si k ← ∞, √ k 1≤i≤2k Xi v N (mσ 2 )
P
2
donc par unicité de la limite : µ = N (mσ 2 ).

26

Vous aimerez peut-être aussi