0% ont trouvé ce document utile (0 vote)
52 vues16 pages

Introduction aux Variables Aléatoires

Transféré par

bernadotengue
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
52 vues16 pages

Introduction aux Variables Aléatoires

Transféré par

bernadotengue
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Variables aléatoires.

1 Généralités
Définition 1.1. Un espace probabilisé (Ω, F, P ) étant donné, on appelle variable aléatoire réelle
(v.a.r.) une application mesurable X de (Ω, F) dans (R, B(R)). On appelle vecteur aléatoire une
application mesurable X de (Ω, F) dans (Rd , B(Rd )), d > 1.
Un vecteur aléatoire à valeurs dans (R2 , B(R2 )) est également appelé couple aléatoire. On
conviendra dans la suite qu’une v.a de dimension n est une application mesurable de (Ω, F, P )
dans (Rn , B(Rn )).
La tribu B(R) de la définition 1.1 est la tribu borélienne sur R. C’est la tribu engendrée par
les ouverts de R. On montre que (voir le cours de mesure et intégration) la tribu B(R) peut
être engendrée par plusieurs autres familles de sous-ensembles. C’est par exemple le cas des
sous-ensembles suivants :
C1 = {]a, b[, a, b ∈ R, a < b}, C2 = {[a, b[, a, b ∈ R, a < b},
C3 = {]a, b], a, b ∈ R, a < b}, C4 = {[a, +∞[, a ∈ R},
C5 = {]a, +∞[, a ∈ R}, C6 = {] − ∞, a[, a ∈ R},
C7 = {] − ∞, a], a ∈ R}, etc
Lorsque d > 1, La tribu B(Rd ) est la tribu engendrée par les ouverts de Rd .
Proposition 1.1. Soient

P1 = {A1 × . . . × Ad , A1 , . . . , Ad ∈ B(R)}

et
P2 = {] − ∞, a1 ] × . . . ×] − ∞, ad ], a1 , . . . , ad ∈ R}
σ(P1 ) = σ(P2 ) = B(Rd ).
Preuve : Comme P2 ⊂ P1 ⊂ σ(P1 ), on a σ(P2 ) ⊂ σ(P1 ). Montrons que σ(P1 ) ⊂ σ(P2 ).
Pour tout i ∈ {1, . . . , d} fixé soit

Li = {A ∈ B(R) : Ri−1 × A × Rd−i ∈ σ(P2 )}.

Li est une tribu sur R. En effet,


R ∈ Li car Rd ∈ σ(P2 ).
Si A ∈ Li , Ri−1 × Ac × Rd−i = Rd − Ri−1 × A × Rd−i ∈ σ(P2 ). Ceci montre que Ac ∈ Li .
Si (An )n≥1 est une suite d’éléments de Li alors
∪ ∪
Ri−1 × ( An ) × Rd−i = (Ri−1 × An × Rd−i ) ∈ σ(P2 )
n≥1 n≥1

Ceci montre que An ∈ L i .
n≥1
Pour tout x ∈ R, ] − ∞, x] ∈ Li . En effet

Ri−1 ×] − ∞, x] × Rd−i = (] − ∞, m])i−1 ×] − ∞, x] × (] − ∞, m])d−i ∈ σ(P2 ).
m≥1

Soit C = {] − ∞, x], x ∈ R}. On a montré que C ⊂ Li qui est une tribu. On en déduit que
σ(C) = B(R) ⊂ Li . Ceci montre que Li = B(R). Ainsi pour tout A ∈ B(R),

Ri−1 × A × Rd−i ∈ σ(P2 ).

1
Donc pour tout A1 , . . . , Ad ∈ B(R),


d
A1 × . . . × Ad = Ri−1 × Ai × Rd−i ∈ σ(P2 )
i=1

On en déduit que P1 ⊂ σ(P2 ) il s’ensuit que σ(P1 ) ⊂ σ(P2 ). On a ainsi montré que

σ(P1 ) = σ(P2 ).

Comme B(Rd ) est la tribu engendrée par les fermés de Rd et que les éléments de P2 sont des
fermés, on a
σ(P2 ) ⊂ B(Rd ).
Il suffit pour achever la démonstration de montrer que B(Rd ) ⊂ σ(P1 ).
Soit A un ouvert de Rd . Montrons que A est réunion au plus dénombrable d’intervalles ouverts
de Rd .

∀(x1 , . . . , xd ) ∈ A, ∃Ix =]a1x , b1x [× . . . ×]adx , bdx [⊂ A : (x1 , . . . , xd ) ∈ Ix .


∀ i ∈ {1, . . . , d}, ∃rxi , six ∈ Q : aix < rxi < xi < six < bix .
Ainsi (x1 , . . . , xd ) ∈]rx1 , s1x [× . . . ×]rxd , sdx [⊂ A. Donc

A= ]rx1 , s1x [× . . . ×]rxd , sdx [.
x∈A

Soit D = {((rx1 , . . . , rxd ), (s1x , . . . , sdx )), x ∈ A}. D est au plus dénombrable car D ⊂ Qd × Qd et

A= ]r1 , s1 [× . . . ×]rd , sd [.
((r1 ,...,rd ),(s1 ,...,sd ))∈D

Il en résulte que A ∈ σ(P1 ).


Soit O l’ensemble des ouverts de Rd . On a montré que O ⊂ σ(P1 ). Ceci entraîne que

B(Rd ) = σ(O) ⊂ σ(P1 ).

Remarque 1.1. Les ensembles P1 et P2 sont des π-systèmes.


Définition 1.2. La tribu borélienne sur R = R ∪ {−∞, +∞} est

B(R) = {A ∪ C, A ∈ B(R), C ⊂ {−∞, +∞}}.

Proposition 1.2. La tribu borélienne sur R est engendrée par chacun des ensembles suivants :

I1 = {[−∞, x[, x ∈ R}
I2 = {[−∞, x], x ∈ R}
I3 = {[x, +∞], x ∈ R}
I4 = {]x, +∞], x ∈ R}
Preuve : (Pour I4 )
Pout tout x ∈ R, ]x, +∞] =]x, +∞[∪{+∞} ∈ B(R) car ]x, +∞[∈ B(R). On en déduit que
I4 ⊂ B(R). Donc σ(I4 ) ⊂ B(R).
Montrons que B(R) ⊂ σ(I ∩4 ).
On vérifie que {+∞} = ]n, +∞]. Donc {+∞} ∈ σ(I4 ).
n∈N

2

{−∞} = [−∞, −n]. Donc {−∞} ∈ σ(I4 ).
n∈N
Ainsi si C ⊂ {−∞, +∞} on a C ∈ σ(I4 ).
Pour tout x ∈ R,
]x, +∞[=]x, +∞] − {+∞} ∈ σ(I4 ).
Soit J4 = {]x, +∞[, x ∈ R}.
On a montré que J4 ⊂ σ(I4 ).
Soit
D = {A ∈ B(R) : A ∈ σ(I4 )}
J4 ⊂ D. On vérifie que D ∪
est une tribu sur R.
En effet, R ∈ D car R = ] − n, +∞[∈ σ(I4 ).
n∈N
Soit A ∈ D. L’ensemble R − A ∈ σ(I4 ) car R ∈ σ(I4 ) et ∪
A ∈ σ(I4 ). Ceci montre que R − A ∈ D.
De même si (An )n est une suite d’éléments de D alors An ∈ D.
n
Comme J4 ⊂ D qui est une tribu sur R, D contient la tribu de R engendrée par J4 qui est
B(R). Donc D = B(R). Ceci montre que si B = A ∪ C avec A ∈ B(R) et C ⊂ {−∞, +∞} on a
B ∈ σ(I4 ).

Proposition 1.3. Soient E et F deux ensembles quelconques et f une application de E dans


F . Soit S un sous-ensemble quelconque de P(F ). On a l’égalité

f −1 (σ(S)) = σ(f −1 (S)).

Preuve : On vérifie que f −1 (σ(S)) est une tribu sur E. Comme f −1 (S) ⊂ f −1 (σ(S)) on a
σ(f −1 (S)) ⊂ f −1 (σ(S)).
Montrons que f −1 (σ(S)) ⊂ σ(f −1 (S)).
Soit
G = {A ⊂ F : f −1 (A) ∈ σ(f −1 (S))}.
−1 −1 −1 −1
( E ∈)σ(f (S)), que f (F ) = E, que f (A ) = (f (A)) et que
c c
Comme
∪ ∪
f −1 An = f −1 (An ), G est une tribu sur F . On vérifie que S ⊂ G. En effet pour
n n
tout A ∈ S on a f −1 (A) ∈ f −1 (S) ⊂ σ(f −1 (S)). Il en résulte σ(S) ⊂ G. Ceci entraîne que
f −1 (σ(S)) ⊂ σ(f −1 (S))

Corollaire 1.1. Soient (E, E) et (F, F) deux espaces mesurables, C un sous-ensemble de P(F )
tel que σ(C) = F et f une application de E dans F . Les propriétés suivantes sont équivalentes :
1) L’application f est mesurable
2) f −1 (C) ⊂ E.

Preuve : . Il est clair que 1 implique 2


Montrons que 2 implique 1

f −1 (F) = f −1 (σ(C)) = σ(f −1 (C)) ⊂ E car f −1 (C) ⊂ E.


Il en résulte que l’application f est mesurable.

Remarque 1.2. Pour montrer qu’une application X de (Ω, F) dans (R, B(R)) resp (R, B(R))
est mesurable il suffit de vérifier l’une des propriétés suivantes :
- ∀a ∈ R, {X ≥ a} ∈ F où {X ≥ a} = X − 1([a, +∞[) si X est à valeurs dans R et

3
X − 1([a, +∞]) si X est à valeurs dans R.
- ∀a ∈ R, {X > a} ∈ F
- ∀a ∈ R, {X ≤ a} ∈ F
- ∀a ∈ R, {X < a} ∈ F
Lemme 1.1. Soient f et g deux applications mesurables de (Ω, F) dans (R, B(R)). Alors
1. {f < g} ∈ F

2. {f ≤ g} ∈ F

3. {f = g} ∈ F
Preuve : 1)

{f < g} = {ω ∈ Ω : f (ω) < g(ω)} = ({f < r} ∩ {r < g}) ∈ F
r∈Q

En effet pour tout r ∈ Q, {f < r} = f −1 ([−∞, r[) ∈ F et {r < g} = g −1 (]r, +∞]) ∈ F .


2) {f ≤ g} = ({g < f })c ∈ F
3) {f = g} = {f ≤ g} ∩ {g ≤ f } ∈ F.
Théorème 1.4. Soit (Ω, F, P ) un e.p., α un nombre réel, X et Y deux v.a.r. sur (Ω, F, P ).
Alors αX, |X|, X 2 , X + Y , XY sont des v.a.r. sur (Ω, F, P ).
Soit (Xn )n≥1 une suite d’applications mesurables de (Ω, F) dans (R, B(R)). Alors sup Xn ,
n
inf Xn , lim sup Xn , lim inf Xn sont des applications mesurables de (Ω, F) dans (R, B(R)).
n n n

Preuve : On considère dans la suite que a est un réel quelconque.


Montrons que αX est une application mesurable.
Si α = 0, αX est une application constante. C’est donc une application mesurable.
Si α ̸= 0, Pour tout a ∈ R,
{
{X > αa } = X −1 (] αa , +∞[) si α > 0
{αX > a} =
{X < αa } = X −1 (] − ∞, αa [) si α < 0
Dans tous les cas, {αX > a} ∈ F ce qui montre que αX est une v.a.r.
Montrons que X 2 est une application mesurable.
Si a ≤ 0,
{X 2 < a} = {ω ∈ Ω : X 2 (ω) < a} = ∅ ∈ F
Si a>0,
√ √ √ √
{X 2 < a} = {ω ∈ Ω : X 2 (ω) < a} = {− a < X < a} = X −1 (] − a, a[) ∈ F
De même on montre que |X| est une application mesurable.
Montrons que X + Y est une application mesurable.
{X + Y > a} = {X > a − Y } ∈ F d’après le lemme 1.1 puisque a − Y est une v.a.r. En effet,
pour tout réel b,
{a − Y < b} = {Y > a − b} = Y −1 (]a − b, +∞[) ∈ F
On a ainsi établi qu’une combinaison linéaire de variables aléatoires réelles est une variable
aléatoire réelle.
Montrons que XY est une application mesurable.
1
XY = ((X + Y )2 − (X − Y )2 )
4

4
Il est clair que sup Xn , inf Xn , lim sup Xn , lim inf n Xn sont à valeurs dans R.
n n n
Montrons que sup Xn est une application mesurale.
n

{sup Xn ≤ a} = {Xn ≤ a} ∈ F.
n
n

Montrons que inf Xn est une application mesurale.


n

{inf Xn ≥ a} = {Xn ≥ a} ∈ F.
n
n

Montrons que lim sup Xn est une application mesurale.


n
Posons Zn = sup Xk . On a montré que Zn est une application mesurable. Il en résulte que
k≥n
lim sup Xn = inf Zn est une application mesurable.
n n
Montrons que lim inf Xn est une application mesurale.
n
Posons Yn = inf Xk . On a montré que Yn est une application mesurable. Il en résulte que
k≥n
lim inf Xn = sup Yn est une application mesurable.
n n

Remarque 1.3. Soit (Xn )n≥1 une suite d’application mesurables de (Ω, F) dans (R, B(R)).
Si pour tout ω ∈ Ω lim Xn (ω) existe alors X = lim Xn est une application mesurable de
n→+∞ n→+∞
(Ω, F) dans (R, B(R)).
En effet X = lim inf Xn = lim sup Xn .
n n

Proposition 1.5. Soit (Ω, F) un espace mesurable. Soit X = (X1 , . . . , Xn ) une application de
Ω dans Rn . Les propriétés suivantes sont équivalentes :
1) L’application X est mesurable
2) Pour tout i ∈ {1, . . . , n}, Xi est une application mesurable de Ω dans R.

Preuve : Montrons que 1 implique 2


On vérifie que pour tout A1 , . . . , An ∈ B(R),

n
X −1 (A1 × . . . × An ) = Xj−1 (Aj ) et que Xj−1 (R) = Ω.
j=1
Soit A ∈ B(R) On a Xi−1 (A) = X −1 (Ri−1 × A × Rn−i ) ∈ F car Ri−1 × A × Rn−i ∈ B(Rn ). On
en déduit que l’application Xi est mesurable.
Montrons que 2 implique 1
Soit P = {A1 × . . . × An , Ai ∈ B(R), 1 ≤ i ≤ n}. D’après la proposition 1.1, σ(P) = B(Rn ).
Pour tout A1 , . . . , An ∈ B(R),

n
X −1
(A1 × . . . × An ) = Xj−1 (Aj ) ∈ F
j=1

On déduit alors du corollaire 1.1 que X est une application mesurable.


Exercice
Soit (X, Y ) un couple aléatoire défini sur un e.p. (Ω, F, P ). Montrer que l’application T de
Ω dans R définie par {
X(ω)
Y (ω)
si Y (ω) ̸= 0
T (ω) =
0 si Y (ω) = 0
est une v.a.r.

5
Proposition 1.6. Soit X une v.a. de dimension n définie sur (Ω, F, P ). Alors l’application

PX : B(Rn ) −→ [0, 1]
A −→ PX (A) = P (X −1 (A))

est une probabilité sur (Rn , B(Rn )) appelée loi de probabilité de X.


Preuve :
PX (Rn ) = P (X −1 (Rn )) = P (Ω) = 1

∪suite d’éléments deux à deux disjoints de B(R ) on sait que


n
Soit (A
∪i )i≥1 une
X −1 ( Ai ) = X −1 (Ai ) et que les ensembles (X −1 (Ai ))i≥1 sont deux à deux disjoints. Il en
i≥1 i≥1
résulte que ∪ ∪ ∑ ∑
PX ( Ai ) = P ( X −1 (Ai )) = P (X −1 (Ai )) = PX (Ai ).
i≥1 i≥1 i≥1 i≥1

Remarque 1.4. La probabilité P est définie sur (Ω, F) tandis que la probabilité PX est définie
sur (Rn , B(Rn )).
Pour tout A ∈ B(Rn ), X −1 (A) = {ω ∈ Ω : X(ω) ∈ A} se note aussi {X ∈ A} et pour tout
x ∈ Rn X −1 ({x}) se note {X = x}.
Théorème 1.7. Toute probabilité µ sur (Rn , B(Rn )) peut être considérée comme la loi de pro-
babilité d’une v.a. X.
Preuve : Il suffit de poser Ω = Rn , F = B(Rn ), P = µ et X = id.

2 Fonction de répartition
Définition 2.1. Soit X une v.a.r. définie sur (Ω, F, P ). On appelle fonction de répartition
(f.d.r.)de X l’application notée FX ou F s’il n’y a pas de confusion possible définie par :

FX : R −→ [0, 1]
x −→ FX (x) = P ({X ≤ x}).

Théorème 2.1. La fonction de répartition FX d’une v.a.r. X vérifie les propriétés suivantes :
1. FX est croissante

2. FX est continue à droite ⇔ ∀x0 ∈ R, lim FX (x) = FX (x0 ).


x→x0 ,x>x0

3. ∀x0 ∈ R, lim FX (x) = P {X < x0 }.


x→x0 ,x<x0

4. FX (−∞) = lim FX (x) = 0


x→−∞

5. FX (+∞) = lim FX (x) = 1


x→+∞

Preuve :
1) Soient s et t deux réels quelconques tels que s ≤ t. Tout ω vérifiant X(ω) ≤ s vérifie à
fortiori X(ω) ≤ t. Donc {X ≤ s} ⊂ {X ≤ t} d’où FX (s) = P {X ≤ s} ≤ P {X ≤ t} = FX (t).
Avant de démontrer 2 et 3, il convient de rappeler que toute fonction réelle croissante admet
en tout point de R une limite à droite et une limite à gauche (voir cours d’analyse).

6
2) Soit x ∈ R fixé. Comme on est assuré de l’existence de la limite à droite de FX en ce point,
pour montrer que cette limite vaut FX (x) et établir la continuité à droite de FX en x, il suffit
de vérifier que ( 1)
FX (x) = lim FX x +
n→+∞ n
Soit { }
1
Bn = X ≤ x + , n ∈ N∗ .
n

Vérifions que Bn = {X ≤ x}.
n∈N∗ ∩
Soit ω ∈ {X ≤ x}. Pour tout entier n ≥ 1, on a X(ω) ≤ x + n1 et donc ω ∈ Bn d’où
∩ { } n∈N ∗

1
{X ≤ x} ⊂ X ≤x+ .

n
n∈N ∩
Réciproquement, soit ω ∈ Bn . Pour tout entier n ≥ 1, on a X(ω) ≤ x + n1 . En faisant
n∈N∗
tendre
∩ n vers +∞ dans l’inégalité précédente on obtient X(ω) ≤ x. D’où
Bn ⊂ {X ≤ x}. Il est clair que (Bn )n∈N∗ est une suite décroissante d’évènements. Donc
n∈N∗
( )
∩ 1
P Bn = P {X ≤ x} = lim P (Bn ) = lim P {X ≤ x + }.
n∈N∗
n→+∞ n→+∞ n

On en déduit que ( )
1
FX (x) = lim FX x + .
n→+∞ n
{ }
3) Soit Cn = X ≤ x0 − n1 , n ∈ N∗ . On vérifie que Cn est une suite croissante d’évènements
telle que ∪
Cn = {X < x0 }.
n∈N∗

En effet pour tout n ∈ N∗ on a Cn ⊂ {X < x0 }. Donc Cn ⊂ {X < x0 }.
n∈N∗

Soit ω ∈ {X < x0 }. Posons ϵ = x0 −X(ω). Il existe n0 ∈ N tel que pour tout n ≥ n0 on a n1 < ϵ.

Ainsi X(ω) = x0 −ϵ < x0 − n10 . Ceci montre que ω ∈ Cn0 . On en déduit que {X < x0 } ⊂ Cn
n∈N∗
Comme on est assuré de l’existence de lim FX (x), pour établir que cette limite vaut
x→x0 ,x<x0
P {X < x0 }, il suffit de montrer que
{ } ( )
1 1
lim P X ≤ x0 − = lim FX x0 − = P {X < x0 }.
n→+∞ n n→+∞ n

On sait que ( )

P Cn = P ({X < x0 }) = lim P (Cn )
n→+∞
n∈N∗

Donc { }
1
lim P X ≤ x0 − = P {X < x0 }.
n→+∞ n

7
Avant de démontrer 4 et 5, il convient de rappeler que toute fonction réelle croissante et bornée
admet une limite en −∞ et +∞.
4) La suite ({X ≤ −n})n est une suite décroissante d’évènements. Donc
( )

P {X ≤ −n} = lim P {X ≤ −n}.
n→+∞
n∈N

Montrons que {X ≤ −n} = ∅.
n∈N ∩
En effet, soit ω ∈ {X ≤ −n}. Alors, X(ω) ≤ −n pour tout n ∈ N. En passant à la limite
n∈N
on obtient X(ω) = −∞ ce qui est impossible puisque X ne prend que des valeurs finies. On en
déduit que lim P {X ≤ −n} = P (∅) = 0.
n→+∞
5) La suite ({X ≤ n})n est une suite croissante d’évènements telle que

{X ≤ n} = Ω.
n∈N

En effet, pour tout ω ∈ Ω, on a X(ω) ≤ ⌊|X(ω)|⌋ + 1. Donc pour tout ∪


ω ∈ Ω, il existe
n ∈ N, n = ⌊|X(ω)|⌋ + 1 tel que ω ∈ {X ≤ n}. On en déduit que ω ∈ {X ≤ n} d’où
∪ ∪ ∪
n∈N
Ω⊂ {X ≤ n}. Comme par hypothèse {X ≤ n} ⊂ Ω, on a alors Ω = {X ≤ n}.
n∈N n∈N n∈N
On en déduit que
( )

1=P {X ≤ n} = lim P {X ≤ n} = lim FX (n).
n→+∞ n→+∞
n∈N

Remarque 2.1. La f.d.r. d’une v.a.r. X est continue en un point x0 de R si et seulement si


P ({X = x0 }) = 0.
Comme FX est continue à droite de tout point, pour que FX soit continue en x0 il faut et il
suffit que

lim FX (x) = FX (x0 ) ⇔ P ({X < x0 }) = FX (x0 ) = P ({X < x0 }) + P ({X = x0 })


x→x0 ,x<x0

⇔ P ({X = x0 }) = 0.

Théorème 2.2. Toute fonction de R dans [0, 1] qui est


1. croissante

2. continue à droite

3. qui tend vers 0 à −∞

4. qui tend vers 1 à +∞


est la fonction de répartition d’une loi de probabilité sur (R, B(R)).

Preuve : Soit µF la mesure de Stieltjes associée à la fonction croissante F . µF est une


probabilité sur (R, B(R)) dont la fonction de répartition est F .

8
Définition 2.2. Soit X = (X1 , . . . , Xn ) une v.a. de dimension n ∈ N∗ . On appelle fonction de
répartition de X la fonction notée FX définie par :

FX : Rn −→ [0, 1]
(x1 , . . . , xn ) −→ FX (x1 , . . . , xn ) = P ({X1 ≤ x1 , . . . , Xn ≤ xn }).

Remarque 2.2. pour tout (x1 , . . . , xn ) ∈ Rn on a

FX (x1 , . . . , xn ) = PX (] − ∞, x1 ] × . . . ×] − ∞, xn ]).

Théorème 2.3. 1. Soit i ∈ {1, . . . , n} fixé. on a

lim FX (x1 , . . . , xn ) = 0
xi →−∞

2. Soit i ∈ {1, . . . , n} fixé. on a

lim FX (x1 , . . . , xn ) = P ({X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn })


xi →+∞

3. si pour tout j ∈ {1, . . . , n} xj → +∞ alors

FX (x1 , . . . , xn ) → 1

Preuve : 1) On a
x →−∞
0 ≤ FX (x1 , . . . , xn ) ≤ P ({Xi ≤ xi }) = FXi (xi ) i−→ 0

2) Posons A = {X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn } et B = {Xi ≤ xi }.


On sait que
FX (x1 , . . . , xn ) = P (A ∩ B) et que

P (A ∩ B) = P (A) − P (A ∩ B c ). (1)

comme A ne dépend pas de xi , lim P (A) = P (A).


xi →+∞
On vérifie que
x →+∞
0 ≤ P (A ∩ B c ) ≤ P (B c ) = 1 − FXi (xi ) i−→ 0
Ceci montre que
lim P (A ∩ B) = P (A)
xi →+∞

∪m = (] − ∞, m]) . On vérifie que (Am )m≥1 est une suite croissante d’ensemble telle
n
3) Posons A
que Rn = Am . Il en résulte que
m≥1

1 = PX (Rn ) = lim PX (Am ).


m→+∞

Ainsi pour tout ϵ > 0 il existe m0 ∈ N∗ tel que pour tout m ≥ m0 on a 1 − PX (Am ) < ϵ. Il en
résulte que pour tout (x1 , . . . , xn ) ∈ Rn tel que min(x1 , . . . , xn ) ≥ m0 on a

1 − FX (x1 , . . . , xn ) ≤ 1 − PX (Am ) ≤ ϵ

9
Théorème 2.4. Soient X et Y deux v.a. de dimension n. Les propriétés suivantes sont équi-
valentes :
1) PX = PY
2) FX = FY

Preuve : Montrons que 1 implique 2


Pour tout (x1 , . . . , xn ) ∈ Rn on a

FX (x1 , . . . , xn ) = PX (] − ∞, x1 ] × . . . ×] − ∞, xn ]) = PY (] − ∞, x1 ] × . . . ×] − ∞, xn ])
= FY (x1 , . . . , xn ).

Montrons que 2 implique 1


Soit
P = {] − ∞, x1 ] × . . . ×] − ∞, xn ], x1 , . . . , xn ∈ R}.
D’après la proposition 1.1 P est un π-système tel que σ(P) = B(Rn ). Comme par hypothèse
PX = PY sur P on a PX = PY sur σ(P) = B(Rn ).
Exercice
1) Soient X une v.a.r. et a et b deux réels tels que a < b. Exprimer P ({a < X ≤ b}) à l’aide
de FX .
2) Soient (X, Y ) un couple aléatoire et a, b, c, d des réels tels que a < b et c < d. Exprimer
P ({a < X ≤ b, c < Y ≤ d}) à l’aide de la fonction de répartition F de (X, Y ).

3 Variables aléatoires indépendantes


Définition 3.1. Soit X une v.a. définie sur (Ω, F, P ) à valeurs dans (Rn , B(Rn )), n ≥ 1 . On
appelle tribu engendrée par X la tribu notée σ(X) définie comme la plus petite tribu contenue
dans F rendant X mesurable.

Proposition 3.1. Soit X une v.a. définie sur (Ω, F, P ) à valeurs dans (Rn , B(Rn )), n ≥ 1.

σ(X) = X −1 (B(Rn ))

Preuve : Par définition de σ(X), ∀A ∈ B(Rn ), X −1 (A) ∈ σ(X) car σ(X) rend X mesurable.
Il en résulte que X −1 (B(Rn )) ⊂ σ(X).
Comme la tribu X −1 (B(Rn )) rend X mesurable on a σ(X) ⊂ X −1 (B(Rn )).

Remarque 3.1. Un élément B de F appartient à σ(X) si et seulement si il existe A ∈ B(Rn )


tel que B = X −1 (A). L’ensemble X −1 (A) = {ω ∈ Ω : X(ω) ∈ A} se note également {X ∈ A}.

Définition 3.2. Soit n un entier supérieur ou égal à 2 et soit X1 , . . . , Xn n variables aléatoires


réelles définies sur (Ω, F, P ). On dit que les v.a. X1 , . . . , Xn sont indépendantes si et seulement
si les tribus σ(X1 ), . . . , σ(Xn ) sont indépendantes.

Proposition 3.2. Soit n un entier supérieur ou égal à 2 et soit X1 , . . . , Xn n variables aléatoires


réelles définies sur (Ω, F, P ). Les propriétés suivantes sont équivalentes :
1) Les v.a. X1 , . . . , Xn sont indépendantes.
2) ∀B1 , . . . , Bn ∈ B(R),
(n )
∩ ∏
n
P {Xi ∈ Bi } = P ({Xi ∈ Bi }).
i=1 i=1

10
Montrons que 1 implique 2
Par
( hypothèse les)évènements {X1 ∈ B1 }, . . . , {Xn ∈ Bn } sont indépendants. Il en résulte que

n ∏n
P {Xi ∈ Bi } = P ({Xi ∈ Bi })
i=1 i=1
Montrons que 2 implique 1
Pour montrer que les tribus σ(X1 ), . . . , σ(Xn ) sont indépendantes il faut vérifier que
∀B1 , . . . , Bn ∈ B(R), les évènements {X1 ∈ B1 }, . . . , {Xn ∈ Bn } sont indépendants.
Soit J une partie de {1, . . . , n} de cardinal
∩ supérieur ou égal∏ à 2.
Si J = {1, . . . , n} par hypothèse on a P ( {Xj ∈ Bj }) = P ({Xj ∈ Bj }).
j∈J j∈J
Si J ̸= {1, . . . , n} Posons Dj = Bj pour tout j ∈ J et Dj = R pour tout j ∈ J c . Comme
∩ ∩
n
{Xj ∈ R}) = Ω, on a {Xj ∈ Bj } = {Xj ∈ Dj }.
j∈J j=1
On en déduit que
∩ ∩
n ∏
n ∏
P( {Xj ∈ Bj }) = P ( {Xj ∈ Dj }) = P ({Xj ∈ Dj }) = P ({Xj ∈ Bj })
j∈J j=1 j=1 j∈J

Théorème 3.3. Soit n un entier supérieur ou égal à 2 et soit X1 , . . . , Xn n variables aléatoires


réelles définies sur (Ω, F, P ). Soit X = (X1 , . . . , Xn ). Les propriétés suivantes sont équiva-
lentes :
1) Les v.a. X1 , . . . , Xn sont indépendantes.
2) Pour tout (x1 , . . . , xn ) ∈ Rn ,

n
FX (x1 , . . . , xn ) = Fi (xi )
i=1

où Fi est la f.d.r. de la v.a. Xi .

Preuve : Montrons que 1 implique 2

FX (x1 , . . . , xn ) = P ({X1 ∈] − ∞, x1 ], . . . , Xn ∈] − ∞, xn ]})


∏n ∏n ∏
n
= P ({Xi ∈] − ∞, xi ]}) = P ({Xi ≤ xi }) = FXi (xi ).
i=1 i=1 i=1

Montrons que 2 implique 1


Soit Ci = {{Xi ≤ x}, x ∈ R}. Montrons d’abord que C1 , . . . , Cn sont des sous-ensembles indé-
pendants. Pour cela il faut vérifier que pour tout x1 , . . . , xn ∈ R, les évènements
A1 = {X1 ≤ x1 }, . . . , An = {Xn ≤ xn } sont indépendants.
Soit J une partie de {1, . . . , n} de cardinal supérieur ou égal à 2.
Si J = {1, . . . , n} alors on a

n ∏
n ∏
n
P( Ai ) = FX (x1 , . . . , xn ) = FXi (xi ) = P (Ai )
i=1 i=1 i=1

Si J ̸= {1, . . . , n} posons yj = xj pour tout j ∈ J et yj = m pour tout j ∈ J c où m est un


entier [Link] hypothèse on a

n ∏
n
P( {Xi ≤ yi }) = P ({Xi ≤ yi }) (2)
i=1 i=1

11
En faisant tendre m vers +∞ dans 2 on déduit que
( )
∩ ∩ ∏ ∏
P {Xj ≤ xj } = P ( Aj ) = P ({Xj ≤ xj }) = P (Aj ).
j∈J j∈J j∈J j∈J

ce qui montre que les évènements A1 , . . . , An sont indépendants.


Comme chaque Ci est un π-système, il résulte du théorème 3.2 du chapitre 1 que les tribus
σ(C1 ), . . . , σ(Cn ) sont des sous-ensembles indépendants.
Soit D = {] − ∞, x], x ∈ R}. Par définition Ci = Xi−1 (D). Donc

σ(Ci ) = σ(Xi−1 (D)) = Xi−1 (σ(D)) = Xi−1 (B(R)) = σ(Xi ).

On peut donc conclure que les tribus σ(X1 ), . . . , σ(Xn ) sont indépendantes.

Théorème 3.4. Soit n un entier supérieur ou égal à 2 et soient X1 , . . . , Xn n variables aléa-


toires réelles définies sur (Ω, F, P ). Soit X = (X1 , . . . , Xn ). Les propriétés suivantes sont équi-
valentes :
1) Les v.a. X1 , . . . , Xn sont indépendantes.
2) Il existe n fonctions positives H1 , . . . , Hn telles que Pour tout (x1 , . . . , xn ) ∈ Rn , on a


n
FX (x1 , . . . , xn ) = Hi (xi )
i=1

Définition 3.3. Soit (Xi )i∈I une famille infinie de v.a.r. définies sur un e.p. (Ω, F, P ). On
dit que (Xi )i∈I est une famille de v.a. indépendantes si toute sous-famille finie de (Xi )i∈I est
indépendante.

4 Fonction de masse et discontinuités d’une fonction de


répartition
Définition 4.1. On appelle fonction de masse d’une v.a.r. X l’application

π : R −→ [0, 1]
x −→ π(x) = P ({X = x}).

Remarque 4.1.

π(x) = P ({X = x}) = P ({X ≤ x}) − P ({X < x}) = FX (x) − lim FX (y)
y→x,y<x

est la hauteur du saut de FX en x.


On a montré que FX est continue en un point x0 de R si et seulement si π(x0 ) = 0.

On considère dans la suite que X est une v.a.r, π sa fonction de masse, FX sa f.d.r. et que
DX = {x ∈ R : π(x) > 0}. (DX est l’ensemble des points de discontinuité de FX .)

Théorème 4.1. a) La fonction FX est continue en un point x0 de R si et seulement si


π(x0 ) = 0.
b) La fonction FX est continue sur R si et seulement si DX = ∅
c) L’ensemble DX est au plus dénombrable.

12
Preuve : Seule la propriété c reste à prouver.
c)Pour tout entier n ≥ 1 soit { }
1
An = x ∈ R : π(x) ≥
n
Montrons que Card(An ) ≤ n.
Raisonnons par l’absurde. Supposons que Card(An ) ≥ n + 1. On peut alors trouver n + 1
éléments distincts x1 , . . . , xn+1 de An tels que x1 < x2 . . . < xn+1 . On a alors

FX (xn+1 ) = FX (x1 ) + (FX (x2 ) − FX (x1 )) + . . . + (FX (xn+1 ) − FX (xn )) (3)

FX (x1 ) = P ({X1 ≤ x1 }) ≥ P ({X1 = x1 }) = π(x1 ) ≥ n1 et pour tout j ∈ {1, . . . , n} on a


{X ≤ xj } ⊂ {X < xj+1 }. Il en résulte que −P ({X ≤ xj }) ≥ −P ({X < xj+1 }). Ceci montre
que

FX (xj+1 ) − FX (xj ) = P ({X ≤ xj+1 }) − P ({X ≤ xj }) ≥ P ({X ≤ xj+1 }) − P ({X < xj+1 })
1
= π(xj+1 ) ≥ (4)
n
De 3 et 4 on déduit que
n+1
FX (xn+1 ) ≥ >1
n
ce qui est absurde.
En outre ∪
DX = An .
n≥1

Ce qui montre que DX est au plus dénombrable car une réunion au plus dénombrable d’en-
sembles au plus dénombrable est au plus dénombrable.

Remarque 4.2. Nous avons montré que l’ensemble des points de discontinuités de la fonction
de répartition d’une v.a.r. est au plus dénombrable.

Définition 4.2. Soit X une v.a.r., π sa fonction


∑ de masse. On a vu que DX est au plus
dénombrable. On peut donc effectuer la somme π(x). Si cette somme est égale à 1 on dit
x∈DX
que la v.a. X est discrète et que DX est son support.

Plus généralement on a la définition suivante :

Définition 4.3. On dit qu’une v.a. X à valeurs dans (Rn , B(Rn ) n ≥ 1 est discrète s’il existe
∑ensemble au plus dénombrable DX ⊂ R appelé support de la loi de X tel que
n
un
P ({X = x}) = 1.
x∈DX

Lorsque X est une v.a. discrète l’ensemble DX se note aussi X(Ω).


Exercice
Soit X = (X1 , . . . , Xn ) une v.a. discrète de dimension n > 1. Montrer que pour tout
i ∈ {1, . . . , n}, Xi est une v.a.r. discrète.

Remarque 4.3. Soit X une v.a. discrète de dimension n ≥ 1 et de support DX . On a alors


∪ ∑ ∑ ∑
PX (DX ) = PX ( {x}) = PX ({x}) = P (X −1 ({x})) = P ({X = x}) = 1.
x∈DX x∈DX x∈DX x∈DX

13
Pour tout A ∈ B(Rn ) on a alors

0 ≤ PX (A ∩ DX
c
) ≤ PX (DX
c
) = 0 ce qui montre que PX (A ∩ DX
c
) = 0.

Dans la pratique pour déterminer la loi de probabilité d’une v.a. discrète il faut donner
1) DX qui se note aussi X(Ω).
2) P ({X = x}) pour x ∈ DX
Pour tout A ∈ B(Rn ) on a alors
( )

PX (A) = PX (A ∩ DX ) + PX (A ∩ DX ) = PX (A ∩ DX ) = PX
c
{x}
x∈A∩DX
∑ ∑
= PX ({x}) = P ({X = x})
x∈A∩DX x∈A∩DX

5 Lois discrètes classiques


5.1 Loi de Bernoulli
Définition 5.1. Une variable aléatoire X suit la loi de Bernoulli de paramètre p, (p ∈ [0, 1])
si elle ne prend que deux valeurs 0 et 1 avec

P {X = 1} = p, P {X = 0} = 1 − p = q.

On notera X ∼ B(p)
Si A ∈ F est un évènement de probabilité p, son indicatrice définie par
{ {
1 si ω ∈ A 1 si A est réalisé
IIA (ω) = =
0 si ω ̸∈ A 0 si A n’est pas réalisé
est une variable aléatoire suivant la loi de Bernoulli de paramètre p. Réciproquement, si X est
une v.a. de Bernoulli, on peut toujours écrire X = IIA en définissant
A = {ω ∈ Ω : X(ω) = 1}.

5.2 Loi uniforme sur un ensemble fini de réels :


Définition 5.2. Une variable aléatoire X suit la loi uniforme sur un ensemble fini de réels
{x1 , . . . , xn } si PX est l’équiprobabilité sur cet ensemble. Autrement dit,
1
X(Ω) = {x1 , . . . , xn } et ∀k = 1 . . . , n, P {X = xk } = .
n
Par exemple le nombre de points indiqués par un dé suit la loi uniforme sur {1, . . . , 6}.

5.3 Loi binomiale


Définition 5.3. La variable aléatoire X suit la loi binomiale de paramètre n et p (n ∈ N∗ et
p ∈ [0, 1]) si l’ensemble des valeurs possibles est

X(Ω) = {0, . . . , n} et ∀k ∈ {0, . . . , n}, P {X = k} = Cnk pk (1 − p)n−k .

Notation : X ∼ B(n, p).


La loi binomiale B(n, p) est la loi du nombre de succès obtenus en une suite de n épreuves
repétées indépendantes avec pour chaque épreuve une probabilité de succès p.

14
5.4 Loi Hypergéométrique
Alors que la loi binomiale intervient dans les tirages avec remise, la loi hypergéométrique
correspond aux tirages sans remise.
Exemple 5.1. Dans une production totale de N objets dont M sont défectueux, on prélève
au hasard simultanément ou successivement sans remise un échantillon de n objets. Soit X le
nombre aléatoire d’objets défectueux dans l’échantillon. Quelle est sa loi ?
{ k ×C n−k
CM N −M
si 0 ≤ k ≤ M, 0 ≤ n − k ≤ N − M.
P {X = k} = n
CN (5)
0 sinon.
Définition 5.4. La loi définie par 5 s’appelle loi hypergéométrique de paramètre N , M et n.
Notation X ∼ H(N, M, n). Le paramètre N est l’effectif de la population totale, M celui de la
sous-population à laquelle on s’interesse et n la taille de l’échantillon observé.

5.5 Loi de Poisson


Définition 5.5. On dit que la variable discrète X suit la loi de Poisson de paramètre λ > 0 si
l’ensemble des valeurs possibles est
-X(Ω) = N et
k
- ∀k ∈ N, P {X = k} = exp(−λ)λ
k!
Notations : X ∼ P(λ).
On sait (voir le cours d’analyse) que la fonction exponentielle a un developpement en série
entière de rayon de convergence infini. En particulier :

+∞ k
λ
∀λ > 0, exp(λ) = .
k=0
k!
On a donc

+∞ ∑
+∞ k
λ
P {X = k} = exp(−λ) = exp(−λ) exp(λ) = 1.
k=0 k=0
k!
Une des raisons de l’importance de cette loi est le théorème de convergence de la loi binomiale
vers la loi de Poisson.
Théorème 5.1. Si (pn )n≥1 est une suite de nombre réels de [0, 1] vérifiant npn → λ quand n
tend vers l’infini, alors :
exp(−λ)λk
∀k ∈ N, Cnk pkn (1 − pn )n−k −→ quand n → +∞
k!
Preuve :
n! n(n − 1) · · · (n − k + 1) k
Cnk pkn (1 − pn )n−k = pkn (1 − pn )n−k = pn (1 − pn )n−k
k!(n − k)! k!
k−1 [ ]
1 ∏ pn
= (n − i) (1 − pn )n .
k! i=0 1 − pn
On contrôle que pour tout i ∈ {0, . . . , k − 1},
pn
lim (n − i) = λ car lim pn = 0 et lim npn = λ.
n→+∞ 1 − pn n→+∞ n→+∞
D’après un résultat du cours d’analyse,
x→0
(1 − pn )n = exp(n ln(1 − pn )) = exp(n(−pn + pn ε(pn ))) où ε(x) −→ 0.
= exp(−npn ) exp(npn ε(pn )) −→ exp(−λ) quand n → +∞.

15
On en déduit que
exp(−λ)λk
lim Cnk pkn (1 − pn )n−k = .
n→+∞ k!
Application pratique : Ce théorème sert de justication théorique à la règle pratique suivante :
lorsque n est grand et p petit, on peut remplacer la loi binomiale B(n, p) par la loi P(λ) où
λ = np.

5.6 Lois Géométriques


Exemple 5.2. (Un problème de temps d’attente)
Considérons une suite infinie d’épreuves repétées indépendantes avec même probabilité de succès
p ∈]0, 1[. Soit X le numéro (aléatoire) de la première épreuve où l’on obtient un succès. Si l’on
obtient jamais de succès, on conviendra que {X = +∞}.
Calculer P {X = k} pour tout k ∈ N∗ . En déduire les valeurs de P {X ∈ N∗ } et P {X = +∞}

En notant Ri l’évènement "succès à la ième épreuve", on a



k−1
{X = k} = {échec aux k − 1 premières épreuves et succès à la k-ième} = Ri ∩ Rk .
i=1

D’où par l’indépendance des épreuves,


(k−1 )

P {X = k} = P (Ri ) P (Rk ) = p(1 − p)k−1 = q k−1 p.
i=1


+∞
Par hypothèse, {X ∈ N∗ } = {X = k}. On en déduit
k=1
∑ ∑ p
P {X ∈ N∗ } = P {X = k} = q k−1 p = = 1.
k∈N∗ k∈N∗
1−q

Ainsi, avec une probabilité 1, le succès apparaît au bout d’un nombre fini d’épreuves (mais pas
borné par un nombre fixé avant le début des épreuves). Finalement, on peut considérer que X
est à valeurs dans X(Ω) = N∗ au lieu de X(Ω) = N∗ ∪ {+∞}.
Définition 5.6. Une v.a. X suit la loi géométrique de paramètre p ∈]0, 1[ si X(Ω) = N∗ et,
∀k ∈ N∗ , P {X = k} = p(1 − p)k−1 .
Notation : X ∼ G(p).
Soit X ∼ G(p). Calculons P {X > n} de deux façons :
Première méthode : On calcule le reste d’une série géométrique :

+∞ ∑
+∞ ∑
+∞
pq n
P {X > n} = q k−1
p= l
q p = pq n
q l−n = = qn.
k=n+1 l=n l=n
1−q

Deuxième méthode : L’évènement {X > n} se réalise si et seulement si les n premières


épreuves donnent un échec.

n
{X > n} = Ri .
i=1
En utilisant l’indépendance des Ri on en déduit

n
P {X > n} = P (Ri ) = q n .
i=1

16

Vous aimerez peut-être aussi