Intégration
Intégration
Corrigé
Armand Joulin
2010-2011
Contributeurs :
– Karl-Friedrich Israel (ex 1.2, 1.4, 3.2, 3.4,6.4)
– Rossi Abi Rafeh (ex 3.5, 4.1, 6.6, 6.7, 5.9, 5.10)
– Malka Guillot (ex 1.1, 1.3)
– François Grimaud (ex 2.2, 3.1)
– Françoise Huang (ex 6.1)
– Françoise Huang / Fernando Arce (ex 1.5, 2.1)
– Pierre Grison (ex 4.2, 4.3)
– Augustin Autrand (ex 4.5, 4.6)
– Pierre Anquetil (ex 5.2)
– Adrien Chenin (ex 5.6)
Chapitre 1
Exercice 1.1
1 1
1. E(X) 6= E(X) car si X v.a. telle que ImX = {1, 2} et que P (X = 1) = 4
1
Alors E(X) = 7/4 et E( X ) = 58
4. E(XY ) = E(X).E(Y ) faux sauf si X,Y indépendantes, car Cov(X, Y ) = E(XY ) − E(X).E(Y )
Contrexemple : soit X ∼ B( 21 ), alors E(X) = 21 , E(X 2 ) = 14 , donc E(XY ) = E(X).E(Y )
Exercice 1.2
1.
+∞
X +∞ X
X +∞ X i−1
+∞ X +∞
X
P (X > K) = P (X = i) = P (X = i) = iP (X = i) = E(X)
k=0 k=0 i=k+1 i=1 k=0 i=1
2. Mq Z +∞ Z 0
E(X) = P (X > t)dt − P (X < t)dt
0 −∞
par définition : Z
E(X) = XdP
Ω
1
par th. de transfert :
Z Z Z +∞ Z 0
XdP = xdPx (x) = xdPx (x) + xdPx (x)
Ω R
|0 {z } | −∞ {z }
I1 I2
de même pour I2 : 1
Z 0 Z 0 Z 0 Z 0 Z 0
xdPx (x) = − 1[−x,0] (t)dtdPx (x) = − 1{x<t} (x, t)dPx (x)dt
−∞ −∞ −∞ −∞ −∞
Z 0
− P (X < t)dt
−∞
on a donc : Z +∞ Z 0
E(X) = I1 + I2 = P (X > t)dt − P (X < t)dt
0 −∞
3. Mq Z +∞ Z a
E(|X − a|) = (1 − F (t))dt + F (t)dt
a −∞
R +∞
⇒ E(|X − a|) = 0
P (|X − a| > t)dt. Car {|X − a| > t} = {X − a > t} ∪ {a − X > t} :
Z +∞ Z 0
E(|X − a|) = P (X > t + a)dt + P (a − t > X)dt
0 −∞
en posant u = t + a et v = a − t :
Z +∞ Z a
E(|X − a|) = P (X > u)du + P (v > X)dv
a −∞
4.
f (a) = E(|X − a|)
f dérivable
!
f 0 (a) = −(1 − F (a)) + F (a) = 2F (a) − 1 = 0
1
⇒ F (a) =
2
R0
1. pour x < 0 on a x = − 1 (t)dt
−∞ [−x,0]
2
Exercice 1.3
1. Loi de (N1 , . . . , Nk ). Soit (n1 , . . . , nk ) ∈ [1, k]
Pn
– 1e cas : i=1 ni 6= n
alors P (N1 = n1 , . . . , Nk = nk ) = 0
Pn
– 2e cas : i=1 ni = n
alors
n!
= .pn1 . · · · .pnk k
n1 ! · · · nk ! 1
Ou bien :
k
P
Sachant que l’on a ni = n − nj
i=1
i6=j
n! n
X n − nj nj−1 nj+1
P (Nj = nj ) = .p j . .pn1 . · · · .pj−1 .pj+1 . · · · .pnk k
(n − nj )!nj j n1 ! · · · nj−1 !nj+1 ! · · · nk ! 1
n1 ,...,nj−1 ,nj+1 ,...,nk ∈[1,k]k−1
Donc
k
n
X
P (Nj = nj ) = Cnnj .pj j ( pi )n−nj
i=1
i6=j
n
P (Nj = nj ) = Cnnj .pj j (1 − pj )n−nj
Autre méthode.
Nj ∼ B(n − nj , pj )
n n Pk−1
Soit Fj = Cn j .pj j (1 − pj )n−nj , on a i=1 Fj = 1
j P (N =n )
Soit également Gj = Fj
Pn i i
On a Nj = i=1 Xj où Xj ∼ B(pj )
n n
E(Xji ) =
P P
D` où E(Nj ) = pj = [Link]
i=1 i=1
n n
Xji ) V (Xji ) − 2 Cov(Xji , Xjl )
P P P
et V (Nj ) = V ( =
i=1 i=1 1≤i≤l≤n
3
Or ∀i, l, Cov(Xji , Xjl ) = 0 car les (Xji ) sont indépendants.
n
(pj − p2j ) = [Link] (1 − pj )
P
Donc V (Nj ) =
i=1
3. Calcul de P (N1 = n1 |N2 = n2 )
P (N1 = n1 , N2 = n2 )
P (N1 = n1 |N2 = n2 ) =
P (N2 = n2 )
Cnn1 .pn1 1 .Cnn2 .pn2 2 .
P
P (N3 = n3 , . . . , Nk = nk )
n1 ,...,nk ∈[1,n]
n
P
ni =n−n1 −n2
i=3
P (N1 = n1 |N2 = n2 ) =
Cnn2 .pn2 2 (1 − p2 )n−n2
n−n −n2
n1 (1 − p1 − p2 ) 1
Exercice 1.5
1.
−1
Y = ln (1 − X)
λ
X suit une loi uniforme sur [0, 1[ donc Y sur ]0, +∞[.
Calculons la fonction de répartition de Y :
FY (u) = P(Y ≤ u)
−1
= P( ln (1 − X) ≤ u)
λ
= P(ln (1 − X) ≥ −λu)
= P(X ≤ 1 − exp(−λu))
= (1 − exp(−λu))1u≥0
4
Chapitre 2
Exercice 2.1
1. Soit X = (X1 , X2 ) ∈ R2 un vecteur aléatoire Gaussien de densité par rapport à la mesure de
Lebesgue sur R2 :
−(x21 +x22 )
2 exp 2
∀(x1 , x2 ) ∈ R , f (x1 , x2 ) =
2π
Soit g : R\{(0, 0)} → R∗+ × [0, 2π[ inversible telle que
cosθ −r sin θ
|Jac(g −1 )| = =r
sin θ r cos θ
∂r 1 −2 1
= √
∂u 2 −2 ln u u
−1
= √
u −2 ln u
6 = 0
√ −1
∀u ∈]0, 1], fu (u) = fr ( −2 ln u) × √
u −2 ln u
√ 1
= u −2 ln u × √
u −2 ln u
= 1
1θ∈[0,2π[
Finalement, f(r,θ) = 2π donc u suit une loi uniforme sur [0, 1[ et θ suit la loi uniforme sur
[0, 2π[.
Exercice 2.2
1. Soit φ : R2+ → R∗+ × [0, 1[ inversible telle que
x
φ−1 (u, v) = (uv, u(1 − v)) et φ(x, y) = (x + y, )
x+y
v u
|Jac(φ−1 )| = = | − u|
1−v −u
5
Or u>0 donc |Jac(φ−1 )| =
6 0. De plus φ−1 est injective, donc par théoréme d’inversion global, φ est
1
bien un C -difféomorphisme.
Donc,
Z +∞ Z +∞
Γ(p)Γ(q) = ( tp−1 exp(−t)dt)( tq−1 exp(−u)du))
0 0
Z +∞ Z +∞
= tp−1 exp(−t)uq−1 exp(−u)dtdu
0 0
Z +∞ Z 1
= (xy)p−1 exp(−xy)xq (1 − y)q−1 exp(−x(1 − y))dxdy
0 0
Z +∞ Z 1
= xp+q−1 exp(−x)dx y p−1 (1 − y)q−1 dy
0 0
= γ(p + q)B(p, q)
Γ(p)Γ(q)
D’où : B(p, q) = Γ(p+q)
2. Soit ψ : R2+,∗ → R2+,∗ inversible telle que ψ(x, y) = (x, xy ) et ψ −1 (u, v) = (u, uv )
1 0 u
|Jac(ψ −1 )| = 1 −u =| |
v v2 v2
Or,
1 1
up+q−1 exp(−θu(1 + )) ∼ Cste.Γ(p + q, θ(1 + ))
v v
D’où, Z +∞
1 Γ(p + q)
up+q−1 exp(−θu(1 + ))θp+q du =
0 v (1 + v1 )p+q
6
Finalement,
v p−1 1 Γp+q
f X (v) = 1 v>0
Y (1 + v)p+q v p+q Γ(p)Γ(q)
p−1
1 v
= 1v>0
B(p, q) (1 + v)p+q
7
Chapitre 3
Exercice 3.1 : lois du Chi-2 et de Student
1. Au rang 1 :
1 1 y
fY (y) = 2 √ √ exp(− )
2π 2 y 2
On procède ensuite par récurrence. Supposons le résultat vrai pour un n ∈ N. Montrons qu’il est
vrai pour n + 1 :
2
` 2
On a Yn+1 = Yn + Xn+1 et de plus Yn Xn+1 donc fYn+1 = fYn ∗ fXn+1
2 .
donc
Z
1 1 1
1R+ (s) ∗ n n e− 2 ∗ x 2 −1 ∗ 1R+ (y − x) √
x n
fYn+1 (y) = √ dx
R 2 Γ( 2 )
2 2π 2 y − x
−(n+1)
2 2
= 1y≥0 e− 2 y
y n+1
2 −1
Γ( n+1
2 )
B( n2 , 12 ) B( n2 , 12 )
√ n = n+1
2π2 Γ( n2 )
2 2 2 Γ( n+1 n 1
2 )B( 2 , 2 )
2. On a
E(Y1 ) = E(X12 ) = 1
d’où
E(Yn ) = E( E(Xi2 ) = n
X X
Xi2 ) =
De même
X
V ar(Yn ) = V ar( Xi2 )
X
= V ar(Xi2 ) par indépendance
(E(Xi4 ) − E(Xi2 )2 )
X
=
= 2n
E(Xi4 ) = 3
3. Loi de Student.
Soit ψ : RxR+∗ → RxR+,∗ inversible telle que
x
ψ(t, s) = ( √ , y)
y
et √
ψ −1 (x, y) = (t s, s)
8
√ t
s √ √
|Jac(ψ −1 )| = 2 s = s
0 1
Donc ψ est un C 1 difféomorphisme
Z
1 1 s n+1
fTn0 (t) √ 2 2 −1 ds
= n n exp(− (1 + t ))s
R
+∗ 2π 2 2 Γ( 2 ) 2
1 Γ( n+1
2 ) n+1
= √ n (1 + t2 )− 2
π Γ( 2 )
√
Puis par changement de variable simple Tn = nTn0 , on a directement :
1 Γ( n+12 ) y 2 − n+1
fTn0 (y) = √ (1 + ) 2
nπ Γ( n2 ) n
4.
1 Γ( n+1
2 ) y 2 −(n+1)
Z Z
|y|α fTn (y)dy = √ n |y|α (1 + ) 2 dy
R nπ Γ( 2 ) R n
en +∞ :
y 2 − n+1 |y|−(n+1)
|y|α (1 + ) 2 ∼∞ |y|α −(n+1)
n n 2
Pour α = 1 (moment d’ordre 1) :
y 2 − n+1
|y|α (1 + ) 2 ∼∞ Cste.|y|−n
n
Donc c’est intégrable pour n > 1.
y 2 − n+1
|y|α (1 + ) 2 ∼∞ Cste.|y|−(n−1)
n
Donc c’est intégrable pour n > 2.
Exercice 3.2
n n
X X z
Fz (z) = P [Z ≤ z] = P [−2 log F (Xi ) ≤ z] = P [ log F (Xi ) ≥ − ]
i=1 i=1
2
par propriétés de log :
n n
Y z Y z
= P [log( F (Xi )) ≥ − ] = P [ F (Xi ) ≥ e− 2 ]
i=1
2 i=1
par équivalence des Xi :
z z z
= P [F (X1 )n ≥ e− 2 ] = P [F (X1 ) ≥ e− 2n ] = P [X1 ≥ F −1 (e− 2n )]
z
= 1 − P [X1 ≤ F −1 (e− 2n )]
z
= 1 − F (F −1 (e− 2n ))
z
= 1 − e− 2n
Z suit la loi exponentielle
9
Exercice 3.3
1. La proposition est vraie pour p=1. On suppose qu’elle est aussi vraie pour un certain p fixé dans N.
càd :
Xp X p
Z= Xi ∼ P( λi = λz )
i=1 i=0
On cherche la loi de Z + Xp+1
K k−i
X z i −λp+1 λp+1
P [Z + Xp+1 = K] = (e−z )(e )
i=0
i! (k − i)!
k
e−(z+λp+1 ) X k!
= z i λk−i
p+1
k! i=0
i!(k − i)!
| {z }
f ormule du binome
e−(z+λp+1 )
= (z + λp+1 )k
k!
ce qui démontre la proposition.
2.
n
X
Nn = 1{Xi =0}
i=1
Exercice 3.4
Soit (X)n∈N une suite de variables aléatoires réelles indépendantes.
1. Mq
+∞
X
P (sup Xn < +∞) = 1 ⇔ ∃A > 0, t.q. P (Xn > A) < +∞
n
n=1
(⇐) P
on pose An = (Xn > A), n ∈ N. On a n∈N P (An ) < +∞ : Donc par B.C. :
P (lim sup(An )) = 0
n
(⇒)
P P (supn∈N Xn < +∞) = 1 (∗).
On suppose que PRaisonnement par l’absurde :
Si ∀A ∈ R+ , n∈N P (Xn > A) diverge. Càd n∈N P (Xn > A) = +∞, on peut appliquer B.C. car
les (Xn > A) sont indépendantes (puisque les Xn le sont). On obtient :
P (lim sup An ) = 1, ∀A ∈ R
n
10
2. On suppose de plus que les Xn suivent la même lois. Mq :
Z
Xn
P( → 0) = 1 ⇔ |X1 |dP < +∞
n Ω
(⇒)
On suppose que P ( Xnn → 0) = 1. ( Xnn )n∈N converge p.s. et donc elle est bornée p.s. Alors
∃M > 0, ∀n ∈ N t.q. | Xnn | ≤ M donc |Xn | ≤ M · n pour n = 1 : |X1 | ≤ M et on a bien :
Z
|X1 |dP < +∞
Ω
(⇐)
On utilise la loi forte des grands nombres (Kolmogorow, 1929) :
Càd :
Xn
P( → 0) = 1
n
P(n→∞
lim Xn = X) = 1 ⇒ P(∀ ≥ 0, ∃n ≥ 0, ∀k ≥ n, | Xk − X |≤ ) = 1
1
⇒ P(∀p ∈ N∗ , ∃n ≥ 0, ∀k ≥ n, | Xk − X |≤ ) = 1
p
1
⇒ P(∩p≥1 ∪n≥0 ∩k≥n | Xk − X |≤ ) = 1
p
1
⇒ ∀p ≥ 1, P(∪n≥0 ∩k≥n | Xk − X |≤ )=1
p
⇒ ∀ ≥ 0, P(∪n≥0 ∩k≥n | Xk − X |≤ ) = 1
⇒ ∀ ≥ 0, P(∪n≥0 | Xk − X |≤ ) %n→∞ 1
P(| Xk − X |≥ ) ≤ ∞
X
⇒
n
Exercice 3.5
Soit X une variable aléatoire de densité h1 . On a alors λX une variable aléatoire de densité hλ , où
λ ∈ R. Soit g une fonction bornée presque partout. Cela équivaut à
11
On a alors : Z
lim (g ∗ hλ )(x0 ) = lim g(x0 − y)hλ (y)dy
λ→0 λ→0 R
On applique le lemme de transport. On obtient alors :
Z
lim (g ∗ hλ )(x0 ) = lim g(x0 − λx) hλ (λx) dx
λ→0 λ→0 R | {z }
h1 (x)
D’où le résultat.
12
Chapitre 4
Exercice 4.1
1. On a (Xn )N ∼ B(1, pn ), où les Xi sont indépendantes.
On rappelle qu’on a :
P(Xn = 0) = 1 − pn
∀n ∈ N
P(Xn = 1) = pn
On a :
∀ ≥ 0, lim
n→∞
P(| Xn |≥ ) = 0
D’où le résultat.
D’où l’équivalence.
2. Montrons que :
X
Xn →P S
n→0 = X ⇔ pn < ∞
n∈N
Donc :
X
Xn →P S
n→0 = X ⇔ ∀ > 0, pn < ∞ toujours d’après le cours.
n∈N
Exercice 4.2
1. cf. ce qui précède
2. (a) On pose :
Yn
Xn =
ns
On a :
13
Or :
F0 (ns ) →n→∞ 1
car F0 ∈ C 0 .
P(| Xn |) ≥ →n→∞ 0, ∀ ≥ 0
D’où la convergence en proba.
(b) On a :
P(| Xn |≥ ) < ∞
X
Xn →ps 0 ⇔
n
s 1
e−θn = ◦∞ ( )
n2
D’où la convergence de la série, et d’après ce qui précède, d’où la convergence presque sûre de
la suite (Xn )N .
3. On rappelle que :
Xn →loi ⇔ ∀f ∈ M, E(f (Xn )) → E(f (X))
Montrons la convergence en proba. On a :
Soit N > 0. ∀n ≥ N , on a :
P(| Yn |≥ ns ) ≤ E(1{Yn ≥N s } )
car :
{Yn ≥ ns } ⊂ {Yn ≥ N s }
On a alors, en utilisant l’hypothèse de convergence en loi :
14
Or :
P(| Xn |≥ N s ) →N →∞ 0
Donc :
P(| Xn |≥ ) →n→∞ 0
D’où le résultat.
Exercice 4.3
Soit Un une suite de variables aléatoires indépendantes de même loi.
∀n ∈ N, Un ∼ N (0, 1)
On pose :
n
X
Vn = k −β Uk , β > 0
k=1
∀n ∈ N la variance de Vn vaut
Pn −2β
k=1 k . La variance converge donc si, et seulement si, β > 21 .
En outre, on a :
V ar(Vn − V
P(| Vn − V |≥ ) ≤
2
∞
1 X
≤ k −2β
2
k=n+1
1 ∞ dt
Z
≤
2 n+1 t2β
Or :
Z ∞ ∞
dt 1 1
= −
n+1 t2β 2β + 1 t2β−1 n+1
donc :
1 1
P(| Vn − V |≥ ) ≤
2β − 1 n2β−1
1
Or si β > 1, on a la convergence de la série de terme général n2β−1 . Donc finalement, on a aussi la
convergence presque sûre de la suite Vn .
En résumé, si β < 12 , on n’a pas la convergence. Pour β > 1, on a par contre la convergence. Examinons
le dernier cas :
Soit β < 1. On va utiliser le fait que
donc :
p=n+k−1
1
P(| Vn+k − Vn |≥ ) = P(| U1 |≥
X
)
p=n
p2 β
15
Exercice 4.5
n
T n
Q
P(Mn ≤[Link](n)) =P( [Xk ≤[Link](n)]) = P[Xk ≤[Link](n)]
k=1 k=1
1
Or [Link](1- n1c ) ∼- n( c−1)
Conclusion
Mn b p.s.
limsup ln(nb) −→ 1
Mn b p.s.
liminf ln(nb) −→ 1
16
Mn b p.s.
lim ln(nb) −→ 1
Exercice 4.6
Xn suite de variables indépendantes, identiquement distribuées.
E(X1 ) = E(Xk ) = µ
n
P
Sn = Xk
k=1
Sn P
n −→ µ < a
P | Snn − µ| > → 0
µ<a
P ( Snn > a) = P Sn
n −µ>a−µ →0
a−µ
or >0
∀θ < θ0 , θ1 < θ0
E(f (X))
f croissante P (X ≥ a) ≤ f (a)
17
n
X
E(exp(θ.Sn )) = E(exp(θ. Xk ))
k=1
n
Y
= E( exp(θ.Xk ))
k=1
n
Y
= E(exp(θ.Xk ))
k=1
n
= E (exp(θ.Xk ))
= [φ(θ)]n
18
Chapitre 5
Exercice 5.2
Pour X variable aléatoire réelle ayant une fonction caractéristique de la forme
2
Φx (t) = eAt +Bt+C
On a
Φx (0) = E(1) = 1
et
Φx (0) = eC
D’où
C=0
2 2
Φ0x (t) = (At2 + Bt)0 eAt +Bt+C
= (2At + B)eAt +Bt+C
Donc
Φ0x (0) = B
Or
Φ0x (0) = iµ
D’où
iµ = B
On a
σ 2 = E(X 2 ) − E(X)2
Or
E(X 2 ) = −Φ00x (0)
Et ici :
Φ00x (0) = 2A + B 2
Donc
σ 2 = −2A − B 2 − µ2 = −2A − B 2 + B 2 = −2A
Or on sait que si (et seulement si) X ,→ N (µ, σ 2 ) alors sa fonction caractéristique est de la forme
σ 2 t2
Φx (t) = e− 2 +µit
19
Exercice 5.6
1. Pour Xn de moyenne m et de variance σ 2 , on pose :
Xn − m
Xn0 =
σ
X Y − nm
Y0 = X0 =
σ
P 0
X Xn 2
Z0 = (Xn0 − )
n
Alors on a :
P
Xn
X Xn − m m
0
Z = ( − σ
+ )2
σ n σ
2
P
(Xn − m)
Z0 =
σ2
donc :
Z
Z0 =
σ2
Y − nm
Y0 =
σ
donc Y et Z sont indépendants si et seulement si Y’ et Z’ le sont
Finalement : Y et Z sont gaussiens si et seulement si Y’ et Z’ le sont.
2. Pn Pn
n 2
X j=1 Xj ( j=1 Xj )
Z= (Xi2 − 2Xi +
i=1
n n2
n Pn Pn Pn
( j=1 Xj )2
P
X i=1 j=1 Xi Xj i<j Xi Xj
Z=( Xi2 ) − 2 + +2
i=1
n n n2
n Pn P P
X
2 ( i=1 Xi )2 i<j Xi Xj i<j Xi Xj
Z=( Xi ) − −4 +2
i=1
n n n
n P
1 X 2 i<j Xi Xj
Z = (1 − ) Xi − 2
n i=1 n
E(Z) = n − 1
3. Par independance de Y et de Z :
E(ZeiuY ) = E(Z)E(eiuY )
n
Y
E(ZeiuY ) = E(Z)E( eiuXk )
k=1
iuY n
E(Ze ) = E(Z)Φ(u)
20
4.
n
E(Xj Xk eiuY
P
iuY 1 X j<k
E(Ze ) = (1 − ) E(Xj2 eiuY ) − 2
n j=1 n
n n Qn
eiuXl )
P
iuY 1 X Y j<k E(Xj Xk l=1
E(Ze ) = (1 − ) E(Xj2 eiuXk ) − 2
n j=1 n
k=1
or :
n
Y
E(Xj2 eiuXk ) = E(Xj2 eiuXj )(E(eiuX1 ))n−1
k=1
n
Y
E(Xj Xk eiuXl ) = E(Xj eiuXj )E(Xk eiuXk )(E(eiuX1 ))n−2
l=1
De plus :
Φ(u) = E(eiuX )
0
Φ (u) = iE(XeiuX )
Φ” (u) = −E(X 2 eiuX )
donc : 0
n
−(Φ (u))2 (Φ(u))n−2
P
iuY 1 X j<k
E(Ze ) = (1 − ) −Φ” (u)(Φ(u))n−1 − 2
n i=1 n
0
(Φ (u))2 (Φ(u))n−2 n(n − 1)
E(ZeiuY ) = −(n − 1)(Φ(u))n−1 Φ” (u) + 2
n 2
d’ou, finalement : 0
E(ZeiuY ) = (n − 1)Φ(u))n−1 ((Φ (u))2 − Φ(u)Φ” (u))
0
5. Prouvons que Φ n’est jamais nulle : Supposons, par l’absurde, que Φ s’annule en u0 . Alors Φ (u0 ) = 0.
D’apres le théorème de Cauchy-Lipschitz, Φ est la fonction nulle. C’est absurde.
Donc Φ n’est jamais nulle. En divisant par Φ(u))n−1 , on obtient l’équation différentielle suivante :
0
Φ” (u)Φ(u) − (Φ (u))2 = (Φ(u))2
Donc 0
Φ 0
( ) = −1
Φ
Finalement : 0
(ln Φ(u)) = −u + B
avec B constante réelle
u2
Φ(u) = e− 2 +Bu+C
21
Exercice 5.9
X et Y sont des variables aleatoires iid et suivent la loi U[0,1] , D = X − Y
1. (a) Produit de convolution → fX+Y = fX ∗ fY
donc fX−Y R = fX ∗ f−Y ou f−Y (y) = fY (−y)
fX−Y = s∈R fX (u − s)fY (−s)ds
R
= s∈R 1[0,1] (u − s)1[0,1] (−s)ds, −1 ≤ s ≤ 0, u − 1 ≤ s ≤ u
s ∈ [0, 1] ⇒ u ∈ [−1, 1]
R0
fX−Y (u) = −1 1[0,1] (u − s)ds
Ru
– u ≤ 0, −1 ≤ s ≤ u, fX−Y (u) = −1 ds = 1 − u
R0
– u ≥ 0, u − 1 ≤ s ≤ 0, fX−Y (u) = u−1 ds = 1 − u
Donc fX−Y (u) = (1 − |u|)1u∈[−1,1]
(b) Loi de aD, a ≥ 0
s 1
φ : u → au φ−1 : s → (φ−1 )0 =
a a
1 |t|
fas (t) = (1 − 1t∈[−a,a] ) ← πa
a a
(a)
Z
π̂a (t) = exp(−itx)πa (x)dx
ZRa
1 |x|
= exp(−itx) (1 − )dx
−a a a
Z 0 Z a
1 x 1 x
= (1 + ) exp(−itx)dx + (1 − ) exp(−itx)dx
a −a a a 0 a
2
= 2 2 (1 − Re(exp(ita)))
a t
(b) x 7→ π1 1−cos(ax) (≥ 0) π̂a−1 1
R
ax2 (t) = 2π w
exp(iwt)π̂a (w)dw = πa (t)
−1 1
R
π̂a = πa (0) = a donc f (x)dx = aπa (0) = 1
de plus f (x) ≥ 0∀x
Donc f est une densite de probabilite.
(c)
Z
1
L̂a (w) = exp(−iwt)La (t)dt
2π
Z
1
= exp(−iwt)πaπ̂a (t)dt
2π
= πaπa (−w)
C’est des lois complementaires.
Exercice 5.10
P1 proba sur (R, BR ) ← φ1 , f1
P2 proba sur (R, BR ) ← φ2 , kφφ11 k
Soit t ∈ R
φ2 (t) = E[exp(itf2 )]
Z
= exp(ity)f2 (y)dy
R
Z
1
= exp(ity)φ1 (y)dy
kφ1 k R
Z
2π 1
= exp(ity)φ1 (y)dy
kφ1 k 2π R
22
Donc
2π
φ2 (t) = φ1 (−t), ∀t ∈ R
kφ1 k1
23
Chapitre 6
Exercice 6.1
On considere 2n+1 points repartis independamment et uniformement sur [0,1].
Soit Vn+1 le (n+1)-eme dans l’ordre croissant. Calculer la densite de Vn+1 et en deduire celle de
√ 1
Xn = 2 2n(Vn+1 − ) (1)
2
On note les points Ai . Ils suivent une loi normale centree reduite.
Soient A ∈ [0, 1], m ∈ 1, ..., n + 1 et Nn+1 l’evenement "au moins n + 1 points sont inferieurs a A".
n+1
[
P(Nn+1 ) = P( (n + i)points ≤ A)
i=1
n+1
X
= P((n + i)points ≤ A)
i=1
n+1
X
n+i
F (A) = C2n+1 An+i (1 − A)n+1−i
i=1
D’ou :
n+1
X
n+k
f (A) = C2n+1 ((n + k)An+k−1 (1 − A)n+1−k − (n + 1 − k)An+k (1 − A)n−k−1
k=1
n
X n
X
n+k−1 n+k−1 n+k n+k
= (2n + 1)C2n A (1 − A)n+1−k − (2n + 1)C2n A (1 − A)n−k−1
k=1 k=1
n
X n+1
X
n+k−1 n+k−1 n+k−1 n+k−1
= (2n + 1)[ C2n A (1 − A)n+1−k − C2n A (1 − A)n+1−k ]
k=1 k=2
n 2n+1
= (2n + 1)[C2n (A(1 − A))n − C2n (A(1 2n
− A)) ]
n
= (2n + 1)C2n (A(1 − A))n
√
Soit T : Vn+1 7→ Xn = 2 2n(Vn+1 − 12 )
Alors T −1 (x) = 2√x2n + 12
Calculons la densite de Xn :
24
Theoreme de Schelle :
Si fn →CS f0 Alors Xn →L X0 et f0 densite de X0
Formule de Stirling
√ :
n! ∼n→+∞ ( ne )n 2πn
2n + 1 (2n)! 1 X2
fn (X) = √ exp(n ln(1 − 2n ))
2 2n (n!)2 4n
| {z }
On note cette constante α
(2n)! 22n
(n!)2 ∼n→+∞ √
πn
2n+1 √1
α ∼n→+∞ √
2n 2π
∼n→+∞ 2π
X2 2
ln(1 − 2n ) = −X 2
2n + σ(X )
Exercice 6.4
1. demonstration par l’absurde : Sq ∃ (Xf (n) , Yf (n) ) une sous-suite de (Xn , Yn ) tq Xf (n) ⊥⊥ Yf (n) .
Pour les fonctions caractéristique il vaut :
L L t2 s2
Xf (n) −→ N (0, 1) et Yf (n) −→ N (0, 1), donc ϕXf (n) (t) → e− 2 et ϕYf (n) (s) → e− 2 et alors :
s2 +t2
ϕXf (n) ,Yf (n) (t, s) −→ e− 2
−s
2 +t2 1 p t
et e 2 = exp(− t s ) ⇒ p = 0. ABSURDE !
p 1 s
2. (a) on veut :
V (X, Y ∗ ) = I2
∗ X X t X
V (X, Y ) = V (X, aX + bY ) = V (A ) = E(A X Y A ) = AE( X Y )At
Y Y Y
1 0 1 p 1 a 1 a + bp
= =
a b p 1 0 b a + bp a2 + 2abp + b2
x −1
par changement de variable avec T (x, y) = (x, y ); T (u, v) = (u, uv) :
L 1 − u2 − (uv)2
fXn ,Zn∗ (u, v) = fXn ,Yn∗ (u, uv)|u| −→ e 2 e 2 |u|
2π
Z
1 − u2 − (uv)2
fZ ∗ (v) = e 2 e 2 |u|du
2π
25
Z Z
u − u2 (1+v2 ) u − u2 (1+v2 )
= e 2 du − e 2 du...
R 2π R− 2π
1
... =
π(1 + v 2 )
loi de Cauchy
∗
Zn −a z−a
(c) Zn = b donc fZn −→ f Zn∗ −a . soit x = b ⇒ z = xb + a. alors :
b
|b|
f Z ∗ −a (z) = fZ ∗ (xb + a)|b| =
b π(1 + (bx + a)2 )
3. cas particulier : a=b=1
4. p = 0 i.e. les lois de X et Y sont ind.
Exercice 6.6
{Xn } est une suite de variables aléatoires indépendantes, de loi N (m, σ 2 ).
∀i ∈ N ∗ , Yi =| Xi |
∀n ∈ N ∗ , Tn = mini∈Nn (Yi )
Tn → 0 p.s.?
La convergence presque sûre équivaut à avoir : P (supn≤p Tn > ) → 0, p → ∞
En plus, on a supn≤p Tn ≤ Tp , car les Tn sont décroissants avec n, les ensembles i ∈ Nn (Yi ) étant croissants
au sens de l’inclusion. Il s’agit donc là de montrer que :
P (Tp ≥ ) → 0 lorsque p → ∞.
P (Tp > ) = P (min Yi > )
= P (∀i ∈ Np , Yi > )
= P (∀i ∈ Np , |Xi | > )
= P (∀i ∈ Np , Xi > ou Xi < −)
= [1 − P (− < Xi < )]p les (Xi ) étant i.i.d
Comme 1 − P (− < Xi < ) < 1, alors [1 − P (− < Xi < )]p → 0, p → ∞ ;
Donc Tn → 0 p.s.
Exercice 6.7
X+Y
X et Y variables aléatoires i.i.d On suppose σ 2 ≤ ∞. On suppose également que 2 v X, Y . Posons :
X̄ = n1 . 1≤i≤n Xi
P
√
D’après le T.C.L, nX̄ → N (m, σ 2 ) en loi.
Soient X1 , X2 , X3
, X4
X1 +X2
vµ X1 +X2 X +X
+ 32 4
2
X3 +X4 ⇒ 2
2 vµ
2 vµ
DoncPpar récurrence,
√1 ∗
2k 1≤i≤2k Xi v µ ∀k ∈ N
1
donc si k ← ∞, √ k 1≤i≤2k Xi v N (mσ 2 )
P
2
donc par unicité de la limite : µ = N (mσ 2 ).
26