0% ont trouvé ce document utile (0 vote)
50 vues19 pages

Introduction aux espaces probabilisés

Le document traite des espaces probabilisés, définissant les tribus, les probabilités, et les événements indépendants. Il présente également des théorèmes sur la continuité des probabilités et des formules de probabilité totale et de Bayes. Enfin, des exercices pratiques sont proposés pour appliquer ces concepts.

Transféré par

smahane5sim7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
50 vues19 pages

Introduction aux espaces probabilisés

Le document traite des espaces probabilisés, définissant les tribus, les probabilités, et les événements indépendants. Il présente également des théorèmes sur la continuité des probabilités et des formules de probabilité totale et de Bayes. Enfin, des exercices pratiques sont proposés pour appliquer ces concepts.

Transféré par

smahane5sim7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Abderrazak Chakor 28 février 2024 Probas-Var

Chapitre :Probabilités

I - Espaces probabilisés :
Soit Ω un ensemble non vide
1. 1. Espaces probabilisés :
Notation : Pour tout A ⊂ Ω, on note Ā = Ω\A le complémentaire de A dans Ω.
Dénition 1.1 Soit T une partie de P(Ω). On dit que T est une tribu s'il satisfait aux trois axiomes :
1. ∅ ∈ T .
2. Si A ∈ T alors Ā ∈ T .
3. Si (A ) est une suite d'éléments de T , alors [ A ∈ T .
n n

Dans ce cas, (Ω, T ) est dit probabilisable et tout élément de T est appelée événement de T .
n∈N

Vocabulaire : Soit T une tribu de Ω.


 Tout singleton élément de T est appelé événement élémentaire de T .
 ∅Ω s'appelle l'événement impossible.
∈ T . On l'appelle l'évènement certain.
 Si (A ) est une suite d'éléments de T , alors \ A ∈ T .
n n

 Soient A, B ∈ T : n∈N

1. A ∪ B est l'événement "A ou B est réalisé".


2. A ∩ B est l'événement "A et B sont réalisés".
3. Ā est événement contraire de A.
4. Si A ∩ B = ∅ alors on dit que les événements A et B sont incompatibles.
 Si Ω est ni ou dénombrable alors le choix T = P(Ω) est le plus usuel.
Dénition 1.2 Soit T une tribu de Ω.
On appelle probabilité sur T toute application P : T → [0, 1] qui satisfait aux axiomes suivants :
1. P (Ω) = 1.
2. Axiome d'additivité dénombrable :
Pour toute suite (A ) d'événements de T qui sont deux à deux incompatibles
n (i.e ∀m, n ∈ N, m ̸= n ⇒
A ∩ A = ∅), la série P (A ) converge et on a A .
+∞
!
P X [
m n n P (A ) = P n n
n≥0

Dans ce cas,
n=0 n∈N

 Le triplet (Ω, T , P ) est appelé un espace probabilisé.


 Pour tout événement A de T , P (A) est appelé la probabilité de A.
 Un événement A de T tel que P (A) = 0 est dit négligeable ou presque impossible.
 Un événement A de T dtel que P (A) = 1 est dit presque sûr(P.p.s) ou presque certain.
Propriétés calculatoires : Si (Ω, T , P ) un espace probabilisé. Alors :
 Si A est un événement de T alors P (Ā) = 1 − P (A).
 Soient A et B deux événements de T . Alors :
1. P (B \ A) = P (B) − P (A ∩ B).En particulier si A ⊂ B alors P (B \ A) = P (B) − P (A)
2. Si A ⊂ B alors P (A) ≤ P (B) et P (B \ A) = P (B) − P (A).
3. P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
 P (∅) = 0.
 Si A , . . . , A sont des événements de T deux à deux incompatibles
alors P (A ∪ · · · ∪ A ) = P (A ) + · · · P (A ).
1 n

 Sous additivité : Si A , . . . , A sont des événements de T alors P (A ∪ · · · ∪ A ) ≤ P (A ) + · · · P (A ).


1 n 1 n

 Sous additivité dénombrable : Soit une suite


1 n
! (A ) d'événement de T .
n
1 n 1 n

Si la série p(A ) converge alors P A ≤ X P (A ).


X [ +∞

n n n

Ainsi,dans un espace probabilisé, une union au plus dénombrable d'ensembles négligeables est négligeable.
n≥0 n∈N n=0

1
Abderrazak
 FormuleChakor 28 février 2024 Probas-Var
du crible de Poincaré :Pour (A , . . . , A ) ∈ T . on a : n
1 n

n
[ n
X X X \
P( Ai ) = (−1)k+1 P (Ai1 ∩ · · · ∩ Aik ) = (−1)|I|+1 P ( Ai )
i=1 k=1 1≤i1 <···<ik ≤n I⊂[[1,n]] i∈I

Théorème 1.1 (Continuité monotone séquentielle d'une probabilité)


Soient (Ω, T , P ) un espace probabilisé et (A ) d'événements de T . n

 Continuité croissante : Si la suite (A ) est croissante alors P .


!
[
n An = lim P (An )
n→+∞
n∈N

 Continuité décroissante : Si la suite (A ) est décroissante alors P .


!
\
n An = lim P (An )
n→+∞
n∈N
Preuve:

 En posant A = ∅. On a [ A = [ (A \ A ) et (A \ A ) est une famille d'événements de T qui


−1 n n n−1 n n−1 n∈N

sont deux à deux!incompatibles n∈N n∈N

donc P A = P (A \ A ) = X P (A \A ) = X p(A ) − p(A )


! +∞ +∞
[ [
n n n−1 n n−1 n n−1

car ∀n ∈ N, A ⊂ A donc la suite (P (A )) converge et on a


n∈N n∈N n=0 n=0
n−1 n n

) = lim P (A ) − P (A ) = lim P (A ) − P (∅) = lim P (A ).


X +∞
P (A ) − P (A
n n−1 n −1 n n
n→+∞ n→+∞ n→+∞
n=0

d'où P [ A = lim P (A ).
!
n n
n→+∞

 La suite d'événements(A ) est décroissante donc la suite d'événements (A ) est croissante d'où, d'après la
n∈N

première partie
! du théorème, !
n n

= 1− lim P (A ) = 1− lim (1−P (A )) = lim P (A ).


!
\ \ [
P A = 1−P
n A = 1−P A n n n n n
n→+∞ n→+∞ n→+∞

Exemple : On lance un dé non truqué à 6 faces et on considère A l'événement : "On n'obtient jamais de 6".
n∈N n∈N n∈N

Soit A , n ∈ N l'événement "On n'obtient pas de 6 dans les n premiers lancers"


n

Il est clair que la suite des événements (A !) est décroissante et P (A ) = 56 .


n
n n n

on a A = \ A alors P (A) = P \ A = lim P (A ) = 0 donc A est un événement négligeable.


n n
n−→+∞
n
n∈N n∈N
1. 2. Evénements indépendants :
Dénition 1.3 Soit (Ω, T , P ) un espace probabilisé.
 Deux événements A et B de T sont dits indépendants si P (A ∩ B) = P (A)P (B).
 Une famille(A ) d'événements de T est dite indépendante si ∀J ⊂ I ni, on a :
i i∈I

P (A ).
\ Y
P A = j j
j∈J j∈J

Soit (Ω, T , P ) un espace probabilisé.


 Si A et B sont deux événements indépendants de T alors A et B̄ le sont.
Propriétés:

En eet, P (A ∩ B̄) = P (A \ (A ∩ B)) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B̄).
On déduit encore que Ā et B puis Ā et B̄ sont aussi indépendants.
 Si (A ) est une famille indépendante d'événements de T alors ses éléments sont deux à deux indépendants.
La réciproque est fausse.
i i∈I

 Soit A , . . . , A des événements de T . Si P (A ∩ · · · ∩ A ) = P (A ) · · · P (A ) alors la famille (A , . . . , A ) n'est


pas forcément indépendante.
1 n

1. 3. Probabilité conditionnelle :
1 n 1 n 1 n

Dénition 1.4 Soient (Ω, T , P ) un espace probabilisé et B un événement de T tel que P (B) ̸= 0.
On appelle probabilité sachant B, l'application notée p et dénie sur T par p (A) = P (AP (B)∩ B)
.
Pour tout événement A de T , p (A) se lit "probabilité de A sachant B". p (A) se note aussi P (A|B).
B B

B B

Notez bien: : Soient (Ω, T , P ) un espace probabilisé et B un événement de T tel que P (B) ̸= 0.
1. p est une probabilité sur T . On la note aussi P (.|B)
Pour A événements de T on a :
B

2. P (A ∩ B) = P (B)P (A|B). Si, en plus, P (A) ̸= 20 alors P (A ∩ B) = P (A)P (B|A)


3. A et B sont indépendants si et seulement si P (A|B) = P (A). Dans ce cas, P (A ∩ B̄) = P (A)P (B̄)
Abderrazak Chakor 28 février 2024 Probas-Var
Exercice 1.1
Soient A , A , ..., A n événements indépendants
Pour i ∈ [[1, n]] on pose Ae = A ou = A
1 2 n
i i i

1. Montrer que les événements Ae , A , ..., A sont indépendants


1 2 n

2. Déduire que les événements Ae , Ae , ..., Ae sont indépendants


1 2 n

Dénition 1.5 (Système complet d'événements)


Soit (Ω, T , P ) un espace probabilisé.
On dit qu'une famille (A ) d'événements de T forme un système complet d'événements si :
1. ∀i, j ∈ I tels que i ̸= j on a A ∩ A = ∅.
i i∈I

i j

2. A = Ω.
[
i
i∈I

Théorème 1.2 Soient (Ω, T , P ) un espace probabilisé et (A ) une famille nie ou dénombrable qui forme un
système complet d'événements de T telle que ∀i ∈ I, P (A ) ̸= 0. i i∈I

Pour B un événement de T i

 Formule de probabilité totales : P (B) = X P (B ∩ A ) = X P (A )P (B|A ). i i i


i∈I i∈I

 Formule de Bayes : Si de plus P (B) ̸= 0 alors ∀i ∈ I, P (A |B) = XPP(A(A)P)P(B|A )


(B|A )
. i
i i

k k
k∈I

Intérêt de la formule probabilité totales :


Retrouver P (B) connaissant les probabilités conditionnelles P (B|A ) et P (A ) .
Départager B en des sous événements dont la probabilité est simple à calculer
i i

Intérêt La formule de Bayes permet de remonter le temps, en déterminant la probabilité qu'une certaine cause A
ait eucauses
des lieu sachant la conséquence B. Pour cette raison, cette formule est aussi souvent appelée formule de probabilité i

Exercice 1.2
On fait un tirage sans remise dans une urne contenant 3 boules blanches et 5 boules rouges
1. Calculer la probabilité que la deuxième boule soit rouge
2. Calculer la probabilité que la première boule soit blanche sachant que la deusième est rouge
Exercice 1.3
Fonction d'Euler ϕ
On choisit au hasard un des nombres 1, 2, ...n,tous les choix étant équiprobables.
Pour p ∈ [[1, n]] ; A est l'événement :"le nombre choisi est divisible par p"
p

1. Calculer P (A ) lorsque p divise n


2. n ≥ 2. Montrer que si p , p , ..., p sont des diviseurs premiers distincts de n alors les événement A
p

sont indépendants 1 2 k p1 , Ap2 , ..., Apk

3. On a par dénition ϕ(n) = card{k ∈ [[1, n]] et k ∧ n = 1}.


Montrer que ϕ(n) = n
 
Q 1
1−
p/n p
ppremier

Exercice 1.4
Formule de Bayes
Une maladie M aecte un français sur mille.On dispose d'un test sanguin qui détecte M avec une abilité de 99%
lorsque
personnescettesaines
maladie est eectivement présente .Cependant ,on obtient un résultat faussement positif pour 0, 2% des
testées.
Quelle est la probabilité qu'une personne soit réellement malade lorsqu'elle a un test positif?Conclure
II - Variables aléatoires et lois de variables aléatoires :
Dans toute la suite, soit (Ω, T , P ) un espace probabilisé.
2. 1. Variables aléatoires réelles :
Dénition 2.1 On appelle variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) toute application X : Ω → R
vériant :
∀a ∈ R, X −1 (] − ∞, a]) = {ω ∈ Ω/X(ω) ≤ a} ∈ T .

3
Abderrazak Chakor 28 février 2024 Probas-Var
Si X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P )
∀A ⊂ R, l'ensemble X (A) = {ω ∈ Ω/X(ω) ∈ A} se note aussi (X ∈ A) et On a
Proposition:
−1

 i. Pour tout intervalle I de R, (X ∈ I) ∈ T .


 ii.Plus généralement, toute une partie A de R obtenue par passage au complémentaire, par réunions, par
intersection au plus dénombrable d'intervalles de R alors (X ∈ A) est un événement de T .
de i. Soient a, b réels tel que a < b
 (X ∈] − ∞, a]) = X (] − ∞, a]) ∈ T , on le note aussi (X ≤ a).
Preuve:
−1

 (X ∈]a, +∞[) = (X\∈]− ∞, a])  ∈ T , on le


note aussi (a < X).
 (X ∈ [a, +∞[) = 1
X ∈ a − , +∞
k
∈ T on le note aussi (a ≤ X).

 (X ∈] − ∞, a[) = (X ∈ [a, +∞[) ∈ T , on le note aussi (X < a).


k∈N∗

 (X ∈] − ∞, +∞[) = Ω ∈ T
 (X ∈]a, b]) = (X ∈] − ∞, b]) \ (X ∈] − ∞, a]) ∈ T , on le note aussi (a < X ≤ b).
 (X ∈ [a, b]) = (X ∈] − ∞, b]) \ (X ∈] − ∞, a[) ∈ T , on le note aussi (a ≤ X ≤ b).
 (X ∈ {a}) = (X ∈ [a, a]) ∈ T , on le note aussi (X = a).
 (X ∈ [a, b[) = (X ∈] − ∞, b[) \ (X ∈] − ∞, a[) ∈ T , on le note aussi (a ≤ X < b).
 (X ∈]a, b[) = (X ∈] − ∞, b[) \ (X ∈] − ∞, a]) ∈ T , on le note aussi (a < X < b).
Remarque: Si T = P(Ω) alors toute fonction de Ω vers R est une variable aléatoire réelle.
2.1 Admis
Si X Théorème
, . . . , X sont des variables aléatoires réelles sur l'espace probabilisé (Ω, T , P )
et f : R → R une application continue alors l'application ω 7→ f (X (ω), . . . , X (ω)) est une variable aléatoire réelle
1
n
n

sur (Ω, T , P ) qu'on note f (X , . . . , X ). 1 n


1 n

Corollaire 2.1 Si X , . . . , X sont des variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ) et
λ , . . . , λ ∈ R alors λ X + · · · + λ X , X · · · X , max(X , . . . , X ) et min(X , . . . , X ) sont des variables aléa-
1 n

toires sur (Ω, T , P ).


1 n 1 1 n n 1 n 1 n 1 n

Proposition 2.1 Si X est une variable aléatoire sur l'espace probabilisé (Ω, T , P ) et f : R → R monotone alors
f ◦ X est une variable aléatoire sur (Ω, T , P ). On la note f (X).

Quitte à considérer (−f ) on pourra supposer que f est croissante et soit a ∈ R on a


Preuve:

−1 −1 −1
(f ◦ X) (] − ∞, a]) = X (f (] − ∞, a]))
Donc il sut de montrer que f (] − ∞, a]) est un intervalle de R
−1

Si f (] − ∞, a]) = ∅ terminé
−1

sinon pour x ∈ f (] − ∞, a]) si t ≤ x on a f (t) ≤ f (x) ≤ a donc t ∈ f (] − ∞, a])


−1 −1

donc ] − ∞, x] ⊂ f (] − ∞, a]) −1

ainsi si b = sup f (] − ∞, a]) ∈ R ∪ {+∞} alors f (] − ∞, a]) =] − ∞, b[ ou f (] − ∞, a]) =] − ∞, b] cqfq


−1 −1 −1

Le résultat reste vrai si f est monotone par morceaux.


Remarque:

Proposition 2.2 Soit (X ) une suite de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ) qui converge
simplement sur Ω vers une application X . Alors X est une variable aléatoire sur (Ω, T , P ).
n

Preuve: Soit a ∈ R et ω ∈ Ω
ω ∈ (X > a) =⇒ ∃p ∈ N tel que X(ω) > a + . ∗ 1

comme (X ) −→ X donc X (ω) → X(ω) d'où ∃N ∈ N, ∀n ≥ N, X (ω) >a+ .


p
cs 1
n n n p

On déduit que X (]a, +∞[) ⊂ A où A =


Ω i h
−1 S S T −1 1
X a + , +∞ ∈ Tp∈N∗ N ∈N n≥N n p

Réciproquement, ω ∈ A =⇒ ∃p ∈ N , ∃N ∈ N, ∀n ≥ N, X (ω) > a + p1 . ∗


n

en tendant n vers +∞ on a X(ω) ≥ a + p1 > a donc ω ∈ X (]a, +∞[) d'où A ⊂ X (]a, +∞[). −1 −1

On déduit que X (]a, +∞[) = A ∈ T , ∀a ∈ R. donc X (] − ∞, a]) = X (]a, +∞[) ∈ T


−1 −1

d'où X est une variable aléatoire.


−1

2. 2. Lois de variables aléatoires :


Notations : On note I(R) l'ensemble des intervalles de R.
Si (X , . . . , X ) une famille de variables aléatoires sur l'espace probabilisé (Ω, T , P ) et (J , ..., J ) une famille
d'intervalles de\R
1 n 1 n

L'événement (X ∈ J ) se note aussi (X ∈ J , . . . , X ∈ J ).


n

i i 1 1 n n
k=1

4
Abderrazak Chakor 28 février 2024 Probas-Var
Dénition 2.2  Soit X un variable aléatoire sur l'espace probabilisé (Ω, T , P ).
On appelle loi de X l'application de I(R) vers [0, 1] qui à tout intervalle J de R associe le nombre P (X ∈ J).
 Soit (X , . . . , X ) une famille nie de variables aléatoires sur l'espace probabilisé (Ω, T , P ).
On appelle loi de la famille (X , . . . , X ) l'application de I(R) vers [0, 1] qui à tout produit cartésien
1 n
n

J × · · · × J d'intervalles de R associe le nombre P (X ∈ J , . . . , X ∈ J ).


1 n
1 n 1 1 n n

2. 3. Variables aléatoires discrètes :


Dénition 2.3 Une variable aléatoire X sur l'espace probabilisé (Ω, T , P ) est dite de loi discrète
s'il existe Ω ∈ T tel que P (Ω ) = 1 et que D = X(Ω ) soit au plus dénombrable.
′ ′ ′

On dit alors que la loi de X est discrète usuelle s'il existe un intervalle J de Z et une bijection croissante
φ: J −→ D = X(Ω′ )
k 7−→ xk
Remarques : Soient X une variable aléatoire de loi discrète sur l'espace probabilisé (Ω, T , P ) et Ω ∈ T tel que ′

P (Ω′ ) = 1 et que D = X(Ω ) soit au plus dénombrable.


 La loi de X est caractérisée X par la donnée de D et de l'application x ∈ D 7→ P (X = x).


 ∀A ⊂ D, P (X ∈ A) = P (X = x).
 On peut supprimer de D toutes les valeurs x tels que P (X = x) = 0 ; les x restants sont appelées valeurs
x∈A

possibles de X .
Exemples de lois discrètes : Soit X une variable aléatoire sur l'espace probabilisé (Ω, T , P ).
 Loi uniforme : On dit que X suit la1loi uniforme de paramètre n ∈ N si X prend ses valeurs dans {1, . . . , n}

tel que ∀k ∈ {1, . . . , n}, P (X = k) = n . On note X ,→ U(n).


Jeu de dé : on lance un dé équilibré .Si X la valeur obtenue alors X ,→ U(6).
C'est le cas de toute épreuve dont les résultats sont en nombre ni et équiprobables
Exemple:

 plusBernoulli : On dit que X suit la loi de Bernoulli de paramètre p ∈ [0, 1] si X prend deux valeurs 1
(succès) et 0 (échec) avec P (X = 1) = p et P (X = 0) = 1 − p. On note X ,→ B(p).
Jeu de pile ou face, on lance une pièce et soit X égale à 1 si on obtient pile et 0 si c'est face, alors
X ,→ B(p) où p est la probabilité d'obtenir pile.
Exemple:

C'est le cas de toute épreuve ayant deux issues :succé,échec


 Loi binomiale : On dit que X suit la loi de binomiale de paramètres n ∈ N , p ∈ [0, 1] si X prend les valeurs
0, 1, 2, . . . , n tel que ∀k ∈ {0, 1, . . . , n}, P (X = k) = C p (1 − p) . On note X ,→ B(n, p).
Il s'agit de répéter l'épreuve de Bernoulli ayant deux issues :succé,echec n fois sous les mêmes conditions.
k k n−k
n

Jeu de pile ou face ni, on lance une pièce n fois et soit X le nombre de fois qu'on obtient pile,
alors X ,→ B(n, p) où p est la probabilité d'obtenir pile.
Exemple:

 Loi géométrique : On dit que X suit la loi géométrique de paramètre p ∈ [0, 1] si X prend ses valeurs dans
N tel que ∀n ∈ N , P (X = n) = p(1 − p)
∗ ∗
. On note X ,→ G(p).
n−1

Dans un jeu de pile ou face (inni);si X est le rang du premier pile obtenu, alors X ,→ G(p)
où p est la probabilité d'obtenir pile.
Exemple:

 Loi dele Poisson


C'est cas d' attente du premier succé dans une épreuve ayant deux issues
: On dit que X suit la loi Poisson de paramètre λ > 0 si X prend ses valeurs dans N tel que
e . On note X ,→ P(λ).
n
λ −λ
∀n ∈ N, P (X = n) =
On change une ampoule à chaque fois qu'elle tombe en panne. Si X est le nombre de
n!
changement de l'ampoule , pendant un intervalle de temps T , alors X suit une loi de Poisson de
Exemple:

moyenne
Elle est λ > 0.
dite la loi des événements rares
2. 4. Fonction de répartition d'une variable aléatoire réelle :
Dénition 2.4  Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ). On appelle fonction
de répartition de X l'application, F : Rt −→ R
X .
 Soit Y = (X , . . . , X ) une famille nie de variables aléatoires réelles sur l'espace probabilisé
7−→ F (t) = P (X ≤ t) X

(Ω, T , P ). On appelle fonction de répartition de la famille Y = (X , . . . , X ) l'application l'application,


1 n
1 n
FY : Rn −→ R
(t1 , . . . , tn ) 7−→ FY (t) = P (X1 ≤ t1 , . . . , Xn ≤ tn )

Propriété 2.1 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ). Alors :
 FlimestFcroissante
X
(t) = 0
sur R.
X

 lim F (t) = 1.
t→−∞
X

 ∀t ∈ R lim F (u) = F (t). Ainsi F est continue à droite en tout point de R


t→+∞
X X X
u→t+

 Soient t, t ∈ R tels que t ≤ t donc (X ≤ t) ⊂ (X5 ≤ t ) donc P (X ≤ t) ≤ P (X ≤ t )


Preuve:
′ ′ ′ ′

d'où F (t) ≤ F (t ). On déduit que F est croissante sur R.


 On a F croissante donc F admet une limite à droite de t


X X X

Soit t ∈ R et (t ) = (t + ) on a lim F (u) = lim F (t )


X
1
X
OnAbderrazak
a F (t ) Chakor 28 février 2024 Probas-Var
− F (t) = P (X ≤ t ) − P (X ≤ t) = P (t < X ≤ t ),
comme la suite (t < X ≤ t ) est décroissante d'ntersection vide donc, alors, d'après le théorème de la continuité
X n X n n

monotone séquentielle d'une probabilité la suite! (P (t < X ≤ t )) converge et on a


n n
n

(t < X ≤ t ) = P (∅) = 0 donc lim (F (t ) − F (t)) = 0.


\
lim P (t < X ≤ t ) = P n n X n X
n−→+∞ n→+∞

On déduit que lim F (u) = F (t) et que F est continue à droite de t.


n∈N
X X X

 F est croissante donc F admet une limite en −∞ et égale à lim F (−n)


u→t+
X X

La suite (X ≤ −n) est décroissante d'intersection vide donc, d'après le théorème de la continuité monotone
n→+∞

séquentielle d'une probabilité, la suite (P (X ≤ −n)) converge


! et on a
(X ≤ −n) = P (∅) = 0 d'où lim F (t) = 0.
\
lim F (−n) = lim P (X ≤ −n) = P
X X
n→+∞ n−→+∞ t→−∞

 F est croissante donc F admet une limite en +∞ et égale à lim F (n)


n∈N
X X

La suite (X ≤ n) est croissante de réunion Ω donc, d'après le théorème de la continuité monotone séquentielle
n→+∞

d'une probabilité, la suite (P (X ≤ n)) converge et on!a


[
lim FX (n) = lim P (X ≤ n) = P (X ≤ n) = P (Ω) = 1
n→+∞ n−→+∞

d'où .
n∈N
lim FX (t) = 1
t→+∞

Proposition 2.3 Soient X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P )
déremine la loi de X . Plus précisément si a, b ∈ R tel que a ≤ b.
 P (X = a) = F (a) − lim F (u)
FX
X X

 P (X < a) = lim F (t) X


u→a−

 P (X > a) = 1 − F (a).
t→a−

 P (X ≥ a) = 1 − lim F (t). X
X

 P (a < X ≤ b) = F (b) − F (a).


t→a−

 P (a ≤ X ≤ b) = F (b) − lim F (t).


X
X
X
X

 P (a ≤ X < b) = lim F (t) − lim F (t). X


t→a−
X

 P (a < X < b) = lim F (t) − F (a).


t→b−

t→b−
X
t→a−
X

Preuve: Tout repose sur le fait que F est croissante et la probabité


X de l'événement contraire
 P (X ∈] − ∞, a[) = F (a) − P (X = a) = P [  ! 
1 1
X −∞, a − = lim P −∞, a − =
n n n→+∞
n∈N∗

= lim F (t).
 
1
lim F Xa− X

 Ok
n→+∞ n t→a−

 Ok
par complémentaire
 P (X ∈]a, b]) = F (b) − F (a).
 P (X ∈ [a, b]) = P (X ≤ b) − P (X < a) = F (b) − lim F (t).
X X
X X

On retrouve P (X = a) = P ([a, a]) = F (a) − lim F (t). X


t→a−
X

 P (X ∈ [a, b[) = P (X < b) − P (X < a) = lim F (t) − lim F (t). t→a−


X X

 P (X ∈]a, b[) = P (X < b) − P (X ≤ a) = lim F (t) − F (a). t→b−

t→b−
X
t→a−
X

Corollaire 2.2 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ).
 F est continue en point a ∈ R ⇔ P (X = a) = 0.
 F est continue sur R ⇔ ∀x ∈ R, P (X = x) = 0 ⇔ ∀x ∈ R, (X = x) est négligeable
X

 F est continue sur un intrvalle I ⇔ ∀x ∈ I, P (X = x) = 0 ⇔ ∀x ∈ I, (X = x) est négligeable


X
X

Exercice 2.1
Tracer F pour X ,→ U(3)
X

Exercice 2.2
Loi du plus grand numéro tiré ,Loi du plus petit numéro tiré
Une urne contient n boules numérotées de 1 à n (n ≥ 2) . On en tire deux au hasard . Soit X la variable aléatoire
égale au plus grand numéro tiré.
1. Calculer la probabilité pour k ∈ [[1, n]],P ([X ≤ k]) .
2. En déduire la loi de la variable aléatoire X 6
3. Mêmes questions pour Y la variable aléatoire égale au plus petit numéro tiré.
Abderrazak Chakor 28 février 2024 Probas-Var
Exercice 2.3
Refaire l'exercice précédent quand les deux boules sont tirées une par une (1)sans remise puis (2)avec remise
Dénition 2.5 Une variable aléatoire réelles X sur l'espace probabilisé (Ω, T , P ) est dite de loi à densité ou
de▷ saloifonction
continue si :
de répartition F est continue sur R
▷sa fonction de répartition F de classe C sur R privé d'un ensemble F ni  éventuellement vide.
X

Dans ce cas, par dénition,la fonction f dénie sur R par : ∀t ∈ R, f (t) = 0F (t) sisi tt ∈∈/ FF
1
X

X
X X

est la densité de X
Remarque : Si X est une variable aléatoire réelles est de loi continue sur l'espace probabilisé (Ω, T , P ) alors :
∀a ∈ R, P (X = a) = 0 ainsi ∀a ∈ R, (P (X ≤ a) = P (X < a) et P (X ≥ a) = P (X > a)).
Propriété 2.2 Si X est une variable aléatoire réelles à densité sur l'espace probabilisé (Ω, T , P ) alors :
1. Sa densité f est positive,
X continue sur R privé d'un ensemble F ni ou vide.
2. f intégrable sur R et f (t)dt = 1.
Z
X X

3. Pour tout intervalle I de R d'extrémités −∞ ≤ α ≤ β ≤ +∞ on a


R

f (t)dt = F (β) − F (α) en posant F (+∞) = 1 et F (−∞) = 0


Z Z β
P (X ∈ I) = f (t)dt =
X X X X X X

Remarque:La connaissance de la densité f détermine la loi de X donc aussi F


I α

X X

Exemples de lois à densité :


Soit X une variable aléatoire réelle de loi à densité sur l'espace probabilisé (Ω, T , P ).
 Loi uniforme : On dit que X suit la loi uniforme sur le sement [a, b], a < b si sa fonction de densité est :
si x ∈ [a, b] et on note X ,→ U([a, b])

1  1
f (x) = χ (x) = b−a
sinon
X [a,b]
b−a
0

Exercice 2.4
1. X ,→ U([a, b]),Déterminer sa fonction de répartition F X

2. Montrer que : X ,→ U([a, b]) ⇐⇒ Y = Xb −−aa ,→ U([0, 1]).


3. Montrer que : X ,→ U([0, 1]) ⇐⇒ Y = a + (b − a)X ,→ U([a, b]).
 Loi exponentielle : On dit que X suit la loi exponentielle de paramètre λ > 0 si sa fonction de densité est :

λe si x ≥ 0 et on note X ,→ E(λ)
−λx

sinon
−λx
f (x) = λe Xχ (x) = [0,+∞[
0

Exercice 2.5
1. X ,→ E(λ),Déterminer sa fonction de répartition F
2. Montrer que : X ,→ E(λ) ⇐⇒ Y = λX ,→ E(1)
X

3. Montrer que : X ,→ E(1) ⇐⇒ Y = Xλ ,→ E(λ)


 Loi Gamma : On dit que X suit la loi Gamma de paramètres α > 0 et λ > 0 si sa fonction de densité est :
si x > 0 et on note X ,→ Γ(α, λ)
 α
λ α  λ e x −λx α−1
−λx α−1
f (x) = e x χ (x) = Γ(α)
sinon
X ]0,+∞[
Γ(α) 
0
Cas particuliers
▷ La loi E(λ) n'est autre que la loi Γ(1, λ)
▷ Loi gamma :
On dit que X suit la loi gamma de paramètres α > 0 et si sa fonction de densité est : f (x) = X

1
e x−x α−1
χ (x) =
 1 e x
Γ(α)
si x > 0 et on note X ,→ γ
−x α−1

sinon
Γ(α) ]0,+∞[ α

qui n'est autre que la loi Γ(α, 1)



0

7
Abderrazak Chakor 28 février 2024 Probas-Var
Exercice 2.6
1. Si X ,→ γ ,Déterminer sa fonction de répartition F
2. Montrer que : X ,→ Γ(α, λ) ⇐⇒ Y = λX ,→ γ
α X

 Lois
α

On ditgaussiennes
que X suit la: loi gaussienne ou la loi normale de paramètres m, σ ∈ R × R si sa fonction de densité
2

+
(t − m)
est : f (t) = σ√2π e 2σ et on note X ,→ N (m, σ )
X
1 −
2 2

Remarque: On verra que si X ,→ N (m, σ ) sa moyenne est m et d'écart-type σ 2

 la Loi gaussiènne standard ou la Loi normale centrée réduite :N (0, 1) 2


t
X ,→ N (0, 1) si sa densité est f (t) = √ e 2
1 −
X

Exercice 2.7
1. X ,→ N (0, 1)
(a) Tracer sa densité f
(b) En utilisant la parité de la densité f ,montrer que ∀x ∈ R
X

X + , FX (−x) + FX (x) = 1
et déduire que F (0) = 12 X

(c) Déduire que pour 0 ≤ a < b


▷P (−b ≤ X ≤ −a) = P (a ≤ X ≤ b) = P (a < X < b) = FX (b) − FX (a)
▷P (−a ≤ X ≤ b) = FX (b) − FX (−a) = FX (b) + FX (a) − 1
▷P (−a ≤ X ≤ a) = 2FX (a) − 1

2. X ,→ N (m, σ ) ⇐⇒ Y = X −σ m ,→ N (0, 1)
2

III - Variables aléatoires indépendantes :


3. 1. Variables aléatoires indépendantes :
Dénition 3.1 Une famille (X ) de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ) est dite
indépendante ou mutuellement indépendante si, pour toute famille (I ) ) d'intervalles de R,
j j∈J

la famille ((X ∈ I )) des événements de T est indépendante.


j j j∈J
j j∈J

Exemple : Jeu Pile-Face répété (ou inni) :


La suite (X ) j j∈N∗ de variables aléatoires réelles ,où X est le résultat du j j
ieme
lancer ,est indépendante
Exercice 3.1
Soient X, Y de variable aléatoires réelles indépendantes sur l'espace probabilisé (Ω, T , P ).
1. Loi de M = sup(X, Y ) : Soit t ∈ R,
Montrer que F (t) = F (t)F (t).
et que si X, Y sont à densité alors il en est de même pour M l'est et on a
M X Y

f (t) = f (t)F (t) + F (t)f (t).


2. Loi de m = min(X, Y ) : Soit t ∈ R,
M X Y X Y

Montrer que P (m > t) = (1 − F (t))(1 − F (t))


3. Déduire que F (t) = 1 − (1 − F (t))(1 − F (t)).
X Y

et que si X, Y sont à densité alors X, Y sont continues alors m l'est et on a


m X Y

f (t) = f (t)(1 − F (t)) + (1 − F (t))f (t).


m X Y X Y

Proposition 3.1 (Indépendance héritée) :


Soit (X ) une famille indépendante de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si n , n , . . . , n ∈ N tels que 0 = n < n < · · · < n < n = n et ∀i ∈ {1, . . . k}, f : R → R est continue
i 1≤i≤n

alors la famille des v.a.r


ni −ni−1
0 1 k 0 1 k−1 k i

(Y , Y , ..., Y ) = (f (X , . . . , X ), f (X
1 2 k 1 , . . . , X ), . . . , f (X
1 n1 , . . . , X )) est indépendante.
2 n1 +1 n2 k nk−1 +1 nk

Exemples :
 Si (X , X , X , X , X ) est une famille indépendante de v.a.r alors la famille (X , X + X , X X ) est
indépendante.
2
1 2 3 4 5 1 2 3 4 5

 Si R et θ sont deux v.a.r indépendantes alors les variables R et cos(θ) sont indépendantes. 2

 Si (X , . . . , X ) est une famille indépendante8de v.a.r alors les X + ·n· · + X et X 1 n

sont indépendantes.
1 n+1 n+1
Abderrazak Chakor 28 février 2024 Probas-Var
3. 2. Loi conditionnelle d'une variable aléatoire :
Dénition 3.2 Soit X une variable aléatoire réelles et A un événement non négligeable sur l'espace probabilisé
.
On a appelle loi conditionnelle de X sachant l'événement non négligeable A, l'application de I(R) vers R qui à tout
(Ω, T , P )

intervalle J de R associe le nombre P ((X ∈ J)|A) = P ((XP∈(A)J) ∩ A) . On la note (p ) . A X

Remarque : Quand (X, Y ) est un couple de variables aléatoires réelles discrètes on pend généralement
A ∈ {(Y = y ), k ∈ F ⊂ N} qui forme un système complet d'événements
k

Exercice 3.2
Soient (X, Y ) un couple de variables aléatoires indépendantes tel que X(Ω) = N , Y (Ω) = N ∗

et ∀(i, j) ∈ N × N, P (X = i, Y = j) = aj! où a > 0


i

1. Calculer a
2. Déterminer la loi de X
3. Déterminer la loi de Y
4. X et Y sont-elles indépendantes?
Exercice 3.3
Soit 0Y<une
Soit p < 1, soit X une v.a. à valeurs dans N et suit une loi de Poisson de moyenne λ
v.a. sur le même espace à valeurs dans N telle que pour tout x et pour tout y = 0, 1, ..., x on ait
:
On pose Z = X − Y :
y y x−y
P (Y = y/X = x) = C p (1 − p) x

1. Montrer que Y suit une loi de Poisson de moyenne pλ


2. Calculer P ((Y = y) ∩ (Z = z)) et déduire que Y et Z sont indépendantes
3. Montrer que Z suit une loi de Poisson de moyenne (1 − p)λ
3. 3. Loi de la somme de deux variables aléatoires indépendantes :
Proposition 3.2 Soit (X , X ) un couple de variables aléatoires réelles indépendantes dont les lois sont
discrètes d'ensembles de valeurs possibles D1 et D qui sont dénombrables. Alors :
1 2

 L'ensemble des valeurs possibles de S est D = {u + v/(u, v) ∈ D × D }. 2

 La variables aléatoireXS = X + X est discrète.


1 2

 ∀s ∈ D, P (S = s) = P (X = u)P (X = s − u) = X P (X = s − v)P (X = v).


1 2
1 2 1 2

Cette dernière formule s'appelle la convolution discrète des lois de X et X .


u∈D1 v∈D2
1 2

Proposition 3.3 Stabilité de la loi Binomiale de même paramètre p


Si X ,→ B(n, p), Y ,→ B(m, p) sont indépendantes alors S = X + Y ,→ B(n + m, p)
Somme nie de de même paramètre p :
Preuve:
Corrollaire:

Si X , X , ..., X
1 2 n ,→ B(1, p)(loi de Bernoulli) indépendantes alors S = P X n

i=1
i ,→ B(n, p)

Proposition 3.4 Stabilité de la loi de Poisson :


Si X ,→ P(λ), Y ,→ P(µ) et indépendantes alors S = X + Y ,→ P(λ + µ)
Preuve:

Proposition 3.5 Admis


Soit (X , X ) un couple de variables aléatoires réelles indépendantes telles que X soit discrète,
d'ensemble de valeurs possibles D (dénombrable), et X soit continue de densité f . Alors :
1 2 1

 La variables aléatoire S = X + X est à X densité.


1 2 2

 La densité de S est la fonction f : s 7→ P (X = t)f (s − t).


1 2
S 1 2
t∈D1

Exercice 3.4
Sachant que X ,→ B(p) et Y ,→ E(λ) et indépendantes
Déterminer la densité de S = X + Y

9
Abderrazak Chakor 28 février 2024 Probas-Var
Proposition 3.6 Admis
Soit (X , X ) un couple de variables aléatoires réelles indépendantes dont les lois sont continues de densités respectives
f et f . Alors :
1 2
1
 La variables aléatoire S = X + X est à densité.
2
1 2

 La densité de S est la fonction f : s 7→ f (u)f (s − u)du. Cette fonction est appelée le produit de
Z +∞
1 2

convolution des densités f et f . 1 2


−∞

Exercice 3.5
Sachant que X ,→ E(λ) et Y ,→ E(µ) et indépendantes
1. Déterminer la densité de S = X + Y
2. Est ce qu'il ya stabilité de la loi exponentielle?
3. Si λ = µ quelle loi que suit S ?
Rep
Si f :est la densité de X + Y on trouve :
si x ≤ 0, f (x) = 0
si x > 0, f (x) = λe µe
λµ
si λ ̸= µ
(
x x
(e−λx − e−µx )
Z Z
−λu −µ(x−u) −µx (µ−λ)u

si λ = µ
du = λµe e du = µ−λ
0 0 λ2 xe−λx

Ainsi Si λ ̸= µ, ∀x ∈ R, f (x) = µλµ− λ (e −λx


− e−µx )χ[0,+∞[ (x)
Si λ = µ, ∀x ∈ R, f (x) = λ xe χ 2
et S ,→ Γ(2, λ)
−λx
[0,+∞[ (x)

Proposition 3.7 Stabilité de la loi gaussienne :


Si X ,→ N (m , σ ) et Y ,→ N (m , σ ) indépendantes alors X + Y ,→ N (m
1
2
1 2
2
2 1 + m2 , σ12 + σ22 )

Preuve:

Exercice 3.6
1. Montrons que si X ,→ N (0, 1) et Y ,→ N (0, σ ) alors X + Y ,→ N (0, 1 + σ ) 2 2

2. (a) Si X ,→ N (m , σ ) et Y ,→ N (m , σ ) indépendantes
1
2
1 2
2
2

En partant du fait que X −σ m ,→ N (0, 1) et Y −σ m ,→ N (0, σσ ) déduire que X + Y −σ(m


2
1 2 2 1 + m2 )
2 ,→
1 1 1 1
σ22
N (0, 1 + )
σ12
(b) Conclure que X + Y ,→ N (m 1 + m2 , σ12 + σ22 )

Exercice 3.7
Autre méthode :
1. Si X ,→ N (0, σ ) et Y ,→ N (0, σ ) indépendantes montrer que X + Y ,→ N (0, σ
2 2 2
+ σ22 )
2. Si X ,→ N (m , σ ) et Y ,→ N (m , σ ) indépendantes
1 2 1
2 2
1 2

montrer que X + Y ,→ N (m + m , σ + σ )
1 2
2 2
1 2 1 2
Réponse :
la densité de X + Y est : 2
1 t (x − t)

2

1 2 1 2 Z +∞ −  +
Z +∞ − t − (x−t)
1 1 1

2 2 2 σ12 σ22
f (x) = √ e 2σ1 √ e 2σ2 dt = e dt
d'autre part :
−∞ 2πσ1 2πσ2 2πσ σ
1 2 −∞

t2 (x − t)2 1 1
+ = (t2 σ22 + (x − t)2 σ12 ) = 2 2 (t2 (σ12 + σ22 ) − 2xtσ12 + x2 σ12 )
σ12 σ22 σ12 σ22 σ1 σ2
σ12 + σ22 2 σ12 σ12
 
2
= t − 2xt 2 +x 2
σ12 σ22 σ1 + σ22 σ1 + σ22
2
!
σ12 + σ22 σ12 σ14 σ12
 
2 2
= t−x 2 −x +x 2
σ12 σ22 σ1 + σ22 (σ12 + σ22 )2 σ1 + σ22
2 !
σ12 + σ22 σ12 σ2 σ2

= 2 2 t−x 2 2 + x2 2 1 2 2 2
σ1 σ2 σ1 + σ2 (σ1 + σ2 )

=
2
σ1 + σ2 2

t − x
σ12
2
+
x2 10
σ12 σ22 σ12 + σ22 σ12 + σ22
Abderrazak Chakor 28 février 2024 Probas-Var
On pose pour simplier a = x σ + σ et b = pσ + σ donc σt
2 2
σ σ σ 1 1 2 (x − t)2 1 x2
2 2 2 + 2 = 2 (t − a)2 + 2
2 2 σ2 b σ1 + σ22
d'où : 1
1

x
2 1 2
2
1

Z +∞ − (t−a)2 −
1 2b2 2(σ12 + σ22 ) dt
f (x) = e
2πσ1 σ2 −∞
x2 Z +∞ 1
− (t−a)2
b 2(σ 2 + σ 2) 1 −
= √ e 1 2 √ e 2b2 dt
2πσ1 σ2 2πb −∞
x2 1
Car loi
− Z +∞
1 2 2) 1 − (t−a)2
= p e 2(σ1 + σ2 √ e 2b2 dt = 1 : N (a, b2 )
2π(σ12 + σ22 ) b 2π −∞

On en déduit que X + Y ,→ N (0, σ + σ ). 2 2

Cas général : si X ,→ N (m , σ ) et Y ,→ N (m , σ ) indépendantes


1 2
2 2

alors X − m ,→ N (0, σ ) et Y − m ,→ N (0, σ ) donc X + Y − (m + m ) ,→ N (0, σ + σ )


1 1 2 2
2 2 2 2

d'où X + Y ,→ N (m + m , σ + σ )
1 1 2 2 1 2 1 2
2 2
1 2 1 2

On aurait pu montrer d'abord que si X ,→ N (0, 1) et Y ,→ N (0, σ ) alors X + Y ,→ N (0, 1 + σ )


Remarque:
2 2

Par conséquent , si X ,→ N (m , σ ) et Y ,→ N (m , σ ) indépendantes


1
2
1 2
2
2

alors X −σ m ,→ N (0, 1) et Y −σ m ,→ N (0, σσ ) donc X + Y −σ(m + m ) ,→ N (0, 1 + σσ )


2 2
1 2 2 1 2 2
2 2

donc X + Y − (m + m ) ,→ N (0, σ + σ ) et alors X + Y ,→ N (m + m , σ + σ )


1 1 1 1 1
2 2 2 2
1 2 1 2 1 2 1 2

Exercice 3.8
1. Montrer que si deux variables indépendantes X et Y suivant respectivement les lois Γ(α , λ),Γ(α , λ) alors
X + Y suit la loi Γ(α + α , λ)
1 2
1 2

2. Déduire que ∀α, β > 0; B(α, β) = t (1 − t) dt = Γ(α)Γ(β)


Z 1
α−1 β−1
Γ(α + β) 0
IV - Espérance, moments :
4. 1. Espérance :
Dénition 4.1 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ).
 Si X est de loi discrète, à valeurs dans un ensemble au plus dénombrable D telle que la famille (k.P (X = k))
soit sommable alors on dénit l'espérance de X par E(X) = k.P (X = k).
X k∈D

 Si X estZ continue, de densité f et que t 7→ tf (t) est intégrable sur R on dénit l'espérance de X par k∈D

tf (t)dt.
+∞
E(X) =
−∞

Remarques : Soit X une variable aléatoire réelle discrète sur l'espace probabilisé (Ω, T , P ).
Si X est de loi discrète et admet une espérance alors la valeur de E(X) ne dépend pas de l'ordre de sommation.
4. 2. Espérance de variables aléatoires réelles discrètes de lois usuelles :
 Loi uniforme : Si X ,→ U(n) alors :E(X) = n +2 1 en eet
n n
X X k n+1
E(X) = kP (X = k) = =
n 2
k=1 k=1

 Loi de Bernoulli : Si X ,→ B(p) alors :


E(X) = 1.P (X = 1) + 0.P (X = 0) = p

 Loi de binomiale : Si X ,→ B(n, p) alors :E(X) = np


n n n
en eet si q = 1 − p
X X X
k−1 k n−k
E(X) = kP (X = k) = kCnk pk q n−k = nCn−1 p q = ... = np(p + q)n−1 = np
k=0 k=0 k=1

 Loi géométrique : Si X ,→ G(p) avec p ∈]0, 1[ alors : E(X) = p1 en eet


+∞ +∞ +∞
X X X p 1
E(X) =
k=1
kP (X = k) =
k=1 11
kp(1 − p)k−1 = p
k=1
k(1 − p)k−1 =
(1 − (1 − p))2
=
p
Abderrazak Chakor 28 février 2024
Loi de Poisson : Si X ,→ P(λ) alors : E(X) = λ
Probas-Var
en eet
+∞ +∞ k +∞ +∞ k
X X
−λ λ −λ
X λk−1 −λ
X λ
E(X) = kP (X = k) = ke = λe = λe = λe−λ eλ = λ
k! (k − 1)! k!
k=0 k=0 k=1 k=0

4. 3. Espérance de variables aléatoires réelles de lois usuelles et continues :


 Loi uniforme : Si X ,→ U([a, b]) alors : E(X) = a +2 b en eet
b
b2 − a2
Z
t 1  2 b a+b
E(X) = dt = t a= =
a b−a 2(b − a) 2(b − a) 2

 Loi exponentielle : Si X ,→ E(λ) alors : E(X) = λ1 en eet


Z +∞ Z +∞
1 Γ(2) 1
E(X) = λte−λt dt = ue−u du = =
0 λ 0 λ λ

 Loi Gamma : Si X ,→ Γ(α, λ) alors :E(X) = αλ en eet


+∞ +∞
λα −λt α−1
Z Z
1 Γ(α + 1) αΓ(α) α
E(X) = te t dt = e−λt (λt)α d(λt) = = =
0 Γ(α) λΓ(α) 0 λΓ(α) λΓ(α) λ

 Lois gaussiennes : Si X ,→ N (m, σ ) alors 2

Z +∞
1 (t−m)2
E(X) = √ te− 2σ2 dt
−∞ σ 2π
Z +∞ Z +∞
1 (t−m)2 m (t−m)2
= √ (t − m)e− 2σ2 dt + √ e− 2σ2 dt
σ 2π −∞ σ 2π −∞
 +∞ Z +∞
σ (t−m) 2
m (t−m)2
= √ e− 2σ2 + √ e− 2σ2 dt = m
2π −∞ σ 2π −∞

Théorème 4.1 (Théorème de transfert)


Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) et une application g : X(Ω) → R
 Si X est de loi discrète, à valeurs dans un ensemble au plus dénombrable D alors
Y = g(X) admet une espérance ⇐⇒ la famille (g(k)P (X = k)) est sommable.
Le cas échéant E(Y ) = g(k)P (X = k).
X k∈D

 Si X est continue, de densité f alors


k∈D

Y = g(X) admet une espérance ⇐⇒ l'application t 7→ g(t)f (t) est intégrable sur R
Le cas échéant E(Y ) = g(t)f (t)dt.
Z +∞

−∞

Exercice 4.1
1. Si X ,→ E(λ) Calculer E(X ) si elle existe
2

2. Si X ,→ γ Calculer E(X ) si elle existe


α
2

Théorème 4.2 Théorème de transfert à deux variables discrètes


Soit (X, Y ) un couple de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ) et et une application g
(X, Y )(Ω) → R.
:

Si (X, Y ) est de loi discrète (loi conjointe caractérisée par ((x , y ), p = P (X = x ∩ Y = y )), alors
la v.a.r Z = g(X, Y ) admet une espérance ⇐⇒ la famille (g(x , y ).p ) est sommable. i
i
j
j
i,j
i,j i,j
i j

Dans ce cas, E(Z) = g(x , y )P (X = x , Y = y ).


X
i j i j
i,j

Exercice 4.2
Soit (X, Y ) à valeurs dans N et de loi conjointe :
2

,où p ∈]0, p[ et q = 1 − p
i j
e−λp (λp) e−λq (λq)
∀(i, j) ∈ N2 , P (X = i, Y = j) = .
i! j!
Calculer 12
 
X
E
Y +1
Abderrazak Chakor 28 février 2024 Probas-Var
Proposition 4.1 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si Y admet une espérance et |X| ≤ Y alors X admet une espérance.
Preuve: Soit Ω ⊂ Ω dénombrable
P

P
tel que X(Ω) = X(Ω ) et Y (Ω ) = Y (Ω)
′ ′

E(|X|) = P (ω)X(ω) ≤ P (ω)Y (ω) = E(Y )


ω∈Ω′ ω∈Ω′

Propriété 4.1 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si X et Y possèdent une espérance alors :
 Linéarité : ∀α, β ∈ R, αX + βY possède une espérance et on a E(αX + βY ) = αE(X) + βE(Y ).
 Positivité : Si X est positive alors E(X) ≥ 0.
 Croissance : Si X ≤ Y alors E(X) ≤ E(Y )
 Inégalité triangulaire : E(|X + Y |) ≤ E(|X|) + E(|Y |).
 Produit : Si X et Y sont indépendants alors E(XY ) = E(X)E(Y ).
Preuve:
P
E(X + Y ) = (u + v)P (X = u, Y = v)
u,v
P P
= uP (X = u, Y = v) + vP (X = u, Y = v)
u,v u,v
P P
= uP (X = u) + vP (Y = v) = E(X) + E(Y )
u v
Remarques :
Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) qui admet une espérance.
 Si E(X) = 0 alors, on dit que la X est centrée.
 La variable aléatoire Y = X − E(X) qui est d'espérance nulle s'appelle la variable aléatoire centrée associée à
X .
4. 4. Moments, variance, écart-type et covariance :
Dénition 4.2 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) et k ∈ N .

Si la variable aléatoire X admet une espérance alors on dit que X admet un moment d'ordre k.
k

Dans ce cas, E(X ) s'appelle le moment d'ordre k de X .


k

Proposition 4.2 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) et k ∈ N, k ≥ 2.
Si la variable aléatoire X admet moment un d'ordre k alors X admet moment un d'ordre j, ∀j ∈ [[1, k]]
Preuve:
et on a
j ∈ [[1, k]] x ∈ X(Ω) en envisageant les cas |x| ≤ 1 et |x| ≥ 1
|x|j ≤ 1 + |x|k
comme existe alors E(X ) existe ∀j ∈ [[1, k]]
E(1 + X ) = 1 + E(X k )
k j

Corrollaire: Soit une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P )
existe existe
X
E(X k ) ⇐⇒ ∀k ∈ Rk [X], E(P (X))

Dénition 4.3 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ).
Si X admet un moment d'ordre 2 alors E(X) existe et on appelle :
 Variance de X la quantité V (X) = pE((X − E(X)) ). 2

 Ecart-type de X la quantité σ(X) = V (X).


Exercice 4.3
Loi de Pascal et théorème de transfert
1. Montrer que ∀x ∈] − 1, 1[, P C x = (1 − 1x)
+∞
p k−p
k p+1

2. Application
k=p

On eectue une suite illimitée d'épreuves de Bernoulli de même paramètre p ∈]0, 1[, répétées de façon
indépendantes. Soit X la variable aléatoire associée au rang d'apparition du r-ème succès.
(a) Détermner la loi de X .
(b) Montrer E(X) = pr
(c) Montrer que V (X) = rqp . 2

Vocabulaire : Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) qui admet un moment d'ordre 2.
 Si E(X) = 0 alors on dit que la variable X est centrée.
 Si V (X) = 1 alors on dit que la variable X est réduite.
 Si σ(X) > 0 alors la variable aléatoire Y = X −σ(X) E(X)
s'appelle la variable aléatoire centrée réduite associée
à X car E(Y ) = 0 et V (Y ) = 1. 13
Abderrazak Chakor 28 février 2024 Probas-Var
Propriété 4.2 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) qui admet un moment
d'ordre . Alors
 V2(X) : 2

 V (X) = 0 ⇐⇒ X = E(X) P presque sur


= E((X − E(X)) ) ≥ 0

 V (X) = E(X ) − E(X) . 2 2

 ∀α ∈ R, V (X + α) = V (X).
 ∀α ∈ R, V (αX) = α V (X). 2

Remarques: pratiques
1. V (X) = E(X(X − 1)) + E(X) − E(X) . 2

2. V (X) = E(X(X + 1)) − E(X) − E(X) 2

Proposition 4.3 (Inégalité de Cauchy-Schwarz)


Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si X et Y possèdent un moment d'ordre 2, alors la variable aléatoire XY possède une espérance et
on a E(XY ) ≤ E(X )E(Y ).
2 2 2

Preuve: Cas discret . ! 2


2 P
(E(XY )) ≤ |uv|P (X = u, Y = v)
u,v
!2
P p p
≤ |u| P (X = u)|v| P (Y = v)
u,v
P 2
u P (X = u) v 2 P (Y = v) = E(X 2 )E(Y 2 )
P

u v

-Sur l'espace vectoriel réel F = {Xv.a.r/E(X )existe} l'application (X, Y ) 7−→ E(XY ) est bilinéaire symétrique
Remarque:

positive
Si R est mais pas dénie
2

la relation d'équivalence XRY ⇐⇒ X = Y P.p.s


Sur l'ensemble quotient F/Rl'application (cl(X), cl(Y )) 7−→ E(XY ) est bien dénie et est un produit scalaire sur
F/R
-E(X, X) = E(X ) = ||cl(X)||
2 2

-Cov(X, X) = V (X) = ||cl(X − E(X))|| 2

Dénition 4.4 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si X et Y possèdent un moment d'ordre 2, alors la quantité Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) s'appelle la
covariance du couple (X, Y )
Propriétés 4.1 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ) admettant un
moment d'ordreY 2.) = E(XY ) − E(X)E(Y ).
 Cov(X,
 V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ).
 Si X et Y sont indépendants alors Cov(X, Y ) = 0. La réciproque est fausse.
 Si X et Y sont indépendants alors V (X + Y ) = V (X) + V (Y ).
Dénition 4.5 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si X et Y possèdent un moment d'ordre 2 et V (X), V (Y ) non nuls, alors on appelle coecient de corrélation
linéaire du couple (X, Y ) la quantité ρ(X, Y ) = .
Cov(X, Y )
σ(X)σ(Y )

Propriétés 4.2 Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P )
admettant
 Si Xunetmoment d'ordre 2.
Y sont indépendants alors ρ(X, Y ) = 0. La réciproque est fausse(Voir exercice).
 −1 ≤ ρ(X, Y ) ≤ 1
 ρ(X, Y ) = 1 ⇐⇒ ∃α > 0, Y − E(Y ) = α(X − E(X)) P presque sûr.
 ρ(X, Y ) = −1 ⇐⇒ ∃α < 0, Y − E(Y ) = α(X − E(X)). P presque sûr.
Inerprétation :
Soient X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, T , P )
admettant un moment
 Si ρ(X, d'ordre 2.
Y ) ≃ 1 alors il y a une dépendance linéaire positive forte entre X et Y
 ρ(X, Y ) ≃ −1 alors il y a une dépendance linéaire négative forte entre X et Y
 ρ(X, Y ) ≃ 0 alors il y a une indépendance linéaire
Exercice 4.4

Soit X et Y deux variables de Bernoulli indépendantes14 et de même paramètre p ∈]0, 1[ .


Coecient de corrélation et indépendance
Soit U = X + Y, V = X − Y . Déterminer :
Abderrazak Chakor 28 février 2024
V - Fonctions génératrices :
Probas-Var
Dénition 5.1 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) à valeurs ds N.
On appelle fonction génératrice de X la fonction G : t 7−→ E(t ) = X P (X = k)t .
+∞
X k
X
k=0

Propriétés de G : Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) à valeurs dans N.
La sommabilité de la suite (P (X = k)) entrainePles résultats :
X

 le rayon de convergence de la série entière P (X = k)t est ≥ 1.


k∈N
k
k≥0

 La série entière P P (X = k)t converge normalement sur [−1, 1] vers G


k
X

 G est continue sur [−1, 1] et de classe C sur ] − 1, 1[.


k≥0

X

 ∀n ∈ N, P (X = n) = G n!(0) . Autrement dit, la loi de X est caractérisée par G


(n)
X
X
5. 1. Fonctions génératrices des v.a.r.d usuelles
si
 n+1
t −t
 Loi uniforme : Soit X ,→ U(n). On a avec un rayon inni
n
X 1 k  t ̸= 1
GX (t) = t = n(t − 1)

 Loi de Bernoulli : Soit X ,→ B(p). On a si .


k=1
n 
1 t=1

 Loi binomiale : Soit X ,→ B(n, p)avec un rayon inni


GX (t) = P (X = 0) + P (X = 1)t = 1 − p + pt

On a G (t) = X C p (1 − p) t = X C (tp) (1 − p) = (1 − p + pt) avec un rayon inni.


n n
k k n−k k k k n−k n
X n n

 Loi géométrique : Soit X ,→ G(p).


k=0 k=0

On a G (t) = X p(1 − p) t = pt X(t(1 − p)) = pt X(t(1 − p)) = 1 − t(1pt − p) .avec un rayon


+∞ +∞ +∞
k−1 k k−1 k
X
k=1 k=1 k=0
1
R=
1−p

 Loi de Poisson : Soit X ,→ P(λ). On a G .avec un rayon inni


+∞
X λn n
X (t) = e−λ t = e−λ eλt = eλ(t−1)
n=0
n!

Proposition 5.1 Soit X une v.a.r sur l'espace probabilisé (Ω, T , P ) à valeurs dans N.
 X admet une espérance ⇐⇒ G est dérivable en 1. Dans ce cas, E(X) = G (1). ′

 X admet un moment d'ordre 2 ⇐⇒ G admet une dérivée seconde en 1.


X X

Dans ce cas, G (1) = E(X(X − 1)) et V (X) = G (1) + G (1) − (G (1))


X
′′ ′′ ′ ′ 2
X X X X

Exemple :
 Loi de Poisson : Soit X ,→ P(λ). On a GX (t) = eλ(t−1) avec un rayon inni
donc E(X) = G ′
X (1) ,
= λ G′′X (1) = λ2 et V (X) = λ 2
+ λ − λ2 = λ .
5. 2. Fonction génératrice de la somme nie de v.a.r.d indépendantes
Proposition 5.2 Soient X, Y deux v.a.r sur l'espace probabilisé (Ω, T , P ) à valeurs dans N.
Si X et Y sont indépendantes alors G = G G .
Plus généralement, si (X , . . . , X ) sont indépendantes alors G = G ···G .
X+Y X Y
1 n X1 +···+Xn X1 Xn

Exemple :
- Soient X ,→ B(m, p) et Y ,→ B(n, p) indépendantes alors
donc X + Y ,→ B(m + n, p). On retrouve la stabilité de
la- Soient
loi binomiale
m n m+n
GX+Y (t) = G (t)G (t) = (pt + q) (pt + q) = (pt + q)
X Y

X ,→ P(λ) et Y ,→ P(µ).
Si X, Y sont indépendantes alors G (t) = G (t)G (t) = e e = e λ(t−1) µ(t−1) (λ+µ)(t−1)

donc X + Y ,→ P(λ + µ).On retrouve l la stabilité de la loi de Poisson


X+Y X Y

15
Abderrazak Chakor 28 février 2024
VI - Inégalités, notions de convergence et théorèmes limites :
Probas-Var
6. 1. Inégalités :
Proposition 6.1 (Inégalité de Markov)
Si X est une variable aléatoire réelle positive admettant une espérance, alors,
pour tout ε > 0, P (X ≥ ε) ≤ E(X) .
Ou encore Si X est une variable aléatoire admettant une espérance, alors,
ε

pour tout ε > 0, P (|X| ≥ ε) ≤ E(|X|)


ε
.
X :X positive donc
X X prend ses valeursXdans un ensemble au plus dénombrable D ⊂ [0, +∞[
Preuve:
Cas discret
E(X) = tP (X = t) ≥ tP (X = t) ≥ ε P (X = t) = εP (X ≥ ε)
t∈D t∈D/t≥ε t∈D/t≥ε

d'où P (X ≥ ε) ≤ E(X) .
Cas continu : On a X positive
ε
donc
d'où P (X ≥ ε) ≤ E(X) .
Z +∞ Z +∞ Z +∞
E(X) = tfX (t)dt ≥ tfX (t)dt ≥ ε fX (t)dt = εP (X ≥ ε)
0 ε ε ε
Proposition 6.2 (Inégalité de Bienaymé-Tchebychev)
Si X est une variable aléatoire réelle admettant un moment d'ordre 2, alors,
pour tout ε > 0, P (|X − E(X)| ≥ ε) ≤ V ε(X) . 2

,
Preuve:
∀ε > 0
E((X − E(X))2 ) V (X)
P (|X − E(X)| ≥ ε) = P ((X − E(X))2 ≥ ε2 ) ≤ 2
=
ε ε2
Remarque: On voit que la variance permet de contrôler l'écart entre X et sa valeur moyenne E(X)
Exercice 6.1
Soit une suite indépendante de v.a.r suivant B(p), p ∈]0, 1[ et
 n

1 P
X Zn = k
n k=1

1. Montrer que ∀ε > 0, P (|Z − p| ≥ ε) ≤ 4nε1 n 2

2. trouve
Application : On lance 1000 pièces identiques et déséquilibrées dont la probabilité d'avoir pile pour est p. On
570 fois pile.
Trouver un intervalle I tel que la probabilité d'avoir p ∈ I soit supérieure à 0.9
réponse : Soit (X ) une suite de v.a .indépendantes ayant meme loi et de moyenne p.
n n≥1
P n
Xk
On poseZ = n k=1

Pour quel ε > 0; P (|Z ?


n

1000 − p| < ε) ≥ 0.9


1
P (|Z1000 − p| < ε) ≥ 0.9 ⇐= P (|Z1000 − p| ≥ ε) ≤ 0.1 ⇐= P (|0.57 − p| ≥ ε) ≤ 0.1 ⇐= ≤ 0.1
⇔ ε ≥ 0.05 c'est à dire
0.52 ≤ p ≤ 0.62
4000ε2

Proposition 6.3 (Inégalité de Jensen)


Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ) admettant une espérance
et h : R → R une application convexe sur R.
Si la variable aléatoire h(X) admet une espérance, alors h(E(X)) ≤ E(h(X)).
-Démonstration
Preuve:
dans le cas X discrète
Posons r = p .
n
P
i=n+1
+∞
i

On a r + P p = 1 et lim r = 0
n
+∞

i=0
i
n→+∞
n

+∞
 0
 n
  n

P h∈C (R) P P
h(E(X)) = h xi pi = lim h xi pi + rn .0 ≤ lim h(xi )pi + rn h(0) = E(h(X))
i=0 n→+∞ i=0 n→+∞ i=0

16
Abderrazak Chakor 28 février 2024 Probas-Var
6. 2. Convergence en loi, convergence en probabilité :
Dénition 6.1 Soit (X ) une suite de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
On dit que (X ) converge en probabilité vers une variable aléatoire réelle X si :
n
n

∀ε > 0, lim P (|X − Xn | ≥ ε) = 0


n→+∞

Interprétation
(X ) convergence en probabilité vers une variable aléatoire réelle X veut dire que
pour ε > 0, xé ,quand n est assez grand l'événement (|X − X | ≥ ε)devient presque négligeable et alors l'événement
n

(|X − X | < ε)devient presque sûr


n
n

Proposition 6.4 Soit X une variable aléatoire réelle sur l'espace probabilisé (Ω, T , P ).
Si (f ) est une suite de fonctions de R vers R qui converge simplement sur R vers une fonction f alors la suite de
variables aléatoires réelles (f (X) converge en probabilité vers la variable aléatoire réelle f (X).
n
n

Preuve: Soit ε > 0. On a f −→ f sur R donc ∀ω ∈ Ω, f (X(ω)) → f (X(ω))


s

donc ∃N ∈ N, ∀n ≥ N, |f (X(ω)) − f (X(ω))| < ε d'où Ω = [ \ (|f (X) − f (X)| < ε).
n n

n n
N ∈N n≥N
   

On déduit que 1 = P (Ω) = P  (|f (X) − f (X)| < ε), or 


[ \
n (|f (X) − f (X)| < ε) est une suite
\
n

croissante d'événements donc, d'après la continuité monotone séquentielle de P


N ∈N n≥N n≥N
N
 

(|f (X) − f (X)| < ε).


\
1 = lim P  n
N →+∞
n≥N
 

d'autre part par inclusion ∀N ∈ N, P  (|f (X) − f (X)| < ε) ≤ P (|f (X) − f (X)| < ε) ≤ 1
\
n N

donc lim P (|f (X) − f (X)| < ε) = 1. d'où lim P (|f (X) − f (X)| ≥ ε) = 0
n≥N
N N

Ainsi (f (X )) converge en probabilité vers f (X).


N →+∞ N →+∞
n n

Exercice 6.2
Pratique -Une condition susante de convergence en probabilité
Soit (X ) une suite de variables réelles vériant :
Montrer que si lim E(X ) = E(X) et lim (V (X − X)) = 0
n n∈N∗
n n

Alors la suite (X ) converge en probabilité vers X .


n→+∞ n→+∞

Réponse : Soit ε > 0


n n∈N∗

E((Xn − X)2 ) V (Xn − X) + (E(Xn − X))2 V (Xn − X) + (E(Xn ) − E(X))2


P (|Xn − X| ≥ ε) ≤ = = −→ 0
ε2 ε2 ε2 n−→+∞

Dénition 6.2 Soit (X ) une suite de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
On dit que (X ) convergence en loi vers une variable aléatoire réelle X si en tout point de continuité t de F on a :
n
n
X

lim FXn (t) = FX (t)


n→+∞

Proposition 6.5 Soit X et (X ) une suite de variables aléatoires réelles discretes sur l'espace probabilisé
(Ω, T , P ) à valeurs dans N. n

(Xn ) converge en loi vers X ⇔ ∀k ∈ N, lim P (X = k) = P (X = k). n→+∞


n

On a X à valeurs dans N donc ∀t ∈/ N, t est un point de continuité de F .


⇒ ) On a P (X = 0) = P X ≤ = P (X = 0).
Preuve: X
1 1 1 1

=F →F =P X≤
Soit k ≥ 1 et supposons que
n n 2 Xn 2 X 2 2

∀i{0, . . . , k − 1}, lim P (X = i) = P (X = i).n


n→+∞

On a P (X = k) = P X ≤ k +  − P P (X = j) = F k +  − P P (X = j)
n n
1
2
k−1

j=0
n Xn
1
2
k−1

j=0
n

qui tend → F k +  − P P (X = j) = P (X ≤ k) − P P (X = j) = P (X = k).


X
1
2
k−1 k−1

Donc, ∀k ∈ N, lim P (X = k) = P (X = k).


j=0 j=0
n
n→+∞

17
Abderrazak
) Soit t unChakor
point de28continuité
février 2024de F . Probas-Var
Si t < 0 alors F (t) = 0 = F (t).
⇐ X
Xn X

Sinon, ∃!k ∈ N tel que k ≤ t < k + 1 donc F (t) = X P (X = i) → X P (X = i) = F (k) = F (t).


k k
Xn n X X

On déduit que (X ) converge en loi vers X . i=0 i=0

La proposition reste vraie les valeurs des v.a.r.d est une suite strictement croissante indexée dans N
n

ou une partie de N
Remarque:

Exercice 6.3
Un résultat à savoir
Soit (X ) une suite de variables aléatoires telle que ∀n ≥ 1, X ,→ B(n, p ).
Si lim np = λ > 0 alors la suite (X ) converge en loi vers une variable aléatoire X ,→ P(λ).
n→+∞
n n≥1
n n n≥1
n n

d'après la proposition précédente, il sut de montrer que ∀k ∈ N, lim P (X = k) = e λk! .


k
−λ
n

Soit k ∈ N xé donc ∀n ≥ k : n→+∞

n! 1  npn n−k n!
P (Xn = k) = Cnk pkn (1 − pn )n−k = pkn (1 − pn )n−k = (npn )k 1 −
k!(n − k)! k! n (n − k)!nk


n!
(n − k)!nk
=
n(n − 1) · · · (n − (k − 1))
nk
→1 .
▷npn → λ donc
(npn )k → λk .
donc
npn
donc npn n−k npn  npn
 
▷ npn → λ →0 ln 1 − = (n − k) ln 1 − ∼ −(n − k) → −λ
n n n n
donc . d'où cqfd.
n−k k
 npn  λ
1− → e−λ lim P (Xn = k) = e−λ
En pratique ,on considère qu'on peut approcher la loi binomiale par la loi de Poisson P(np)
n n→+∞ k!
Remarque:
 B(n, p)
 n ≥ 30
si p ≤ 0.1
np ≤ 10

Proposition 6.6 Admis Soit (X ) une suite de variables aléatoires réelles sur l'espace probabilisé (Ω, T , P ).
Si (X ) converge en probabilité vers une variable aléatoire X alors (X ) converge en loi vers X .
n
n
n

Remarque : La réciproque est fausse.


6. 3. Théorèmes limites :
Théorème 6.1 (Loi faible des grands nombres) Si (X ) est une suite de variables aléatoires indépen-
dantes et de même loi et! admettant un moment d'ordre 2, alors la suite de variables aléatoires n n≥1

converge en probabilité vers la variable constante µ = E(X ).


n
 1X
X n n≥1= X k 1
n
k=1 n≥1

Preuve: On pose µ = E(X ) et σ = σ(X ). 1 1

Soit ε > 0 et ∀n ≥ 1, X = n1 X X .Montrons que P (|X


n

n k n − µ| ≥ ε) → 0
n→+∞
k=1

On a, par linéarité, ∀n ≥ 1, E(X ) = E n1 X X = n1 X E(X ) = n1 X µ = µ.


n
! n n

n k k

D'autre part, les X sont indépendantes


k
k=1 k=1 k=1

donc ∀n ≥ 1, V (X ) = V n X = n1 X V (X ) = n1 X V (X ) = σn .
! n n n 2
1X
n k 2 k 2 1
k=1 k=1 k=1

On déduit, d'après l'inégalité de Bienaimé-Chebychev, que P (|X − µ| ≥ ε) ≤ V (Xε ) = nεσ →


2
n
n 0
donc X converge en probabilité vers µ.
2 2 n→+∞

n
Remarque :
 Quand les variables aléatoires ont même loi, on dit qu'elles sont identiquement distribuées.
 La vitesse de convergence de la loi des grands nombres est donc en σn
2

18
Abderrazak Chakor 28 février 2024
Réponse :
Probas-Var
Théorème 6.2 (Admis Théorème de la loi centrée)
Si (X ) est une suite de variables aléatoires
n n≥1 ! indépendantes et de même loi, admettant un moment d'ordre 2,
µ = E(X ) et σ = σ(X ) et X = X alors
n
1 X
1 1 n k
n
  √ k=1

Xn − E(Xn ) n
▷ = (Xn − µ)
σ(Xn ) n≥1
σ
√
converge en loi vers la variable aléatoire X suivant la loi Gaussienne standard N (0, 1)

n
▷ (Xn − µ)
σ n≥1

Remarque: On pratique : S = P X = nX n
n
i n

 ∞ ≤ a ≤ b ≤ +∞.Pourn assez
√ grand
i=1
∀−
.
 b
Sn − nµ
Z
n 1 t2
P a≤ √ ≤b =P a≤ (Xn − µ) ≤ b ≃√ e− 2 dt
σ n σ 2π a

▷Si (X ) est une suite de variables aléatoires indépendantes et de même loi B(p), p ∈]0, 1[ alors la suite de
Exemples:
n n≥1

variables aléatoires √npq converge en loi vers la variable aléatoire suivant la loi Gaussienne
n
!
1 X
( X − np) k

standard N (0, 1)
k=1 n≥1

Ainsi comme ∀n ∈ N , S = X ,→ B(n, p) le théorème montre que √npq converge en loi vers la variable
n  

X S − np n
n k

aléatoire suivant la loi Gaussienne standard N (0, 1)


k=1 n

donc pour n assez grand la loi B(n, p) peut être approximée par N (np, npq)
▷Si (X )  P est une suite de variables aléatoires indépendantes et de même loi P(λ), λ > 0 alors la suite de variables
n n≥1

aléatoires converge en loi vers la variable aléatoire suivant la loi Gaussienne standard N (0, 1)
n
X − nλ
k=1 k

nλ n≥1

Ainsi comme ∀n ∈ N , S = XX ,→ P(nλ) le théorème montre que


n

n k
k=1

converge en loi vers la variable aléatoire suivant la loi Gaussienne standard N (0, 1)
 
S − nλn

nλ n

donc pour λ assez grand la loi P(λ) peut etre approximée par N (λ, λ) (poser λ = n. nλ )
Exercice 6.4

1. Montrer que :∀p ∈]0, 1[ ,


[pn]
1
Cnk (1 − p)n−k pk =
P
lim
n→+∞ k=0 2

2. Déduire que :
n
!
[3]
1 P k n−k 1
lim Cn 2 =
n→+∞ 3n k=0 2

Exercice 6.5
On distribution
La considère desréelle
rouleaux de pièces
du nombre contenant théoriquement 25 pièces
X des pièces par rouleau est donnée par

Calculer de manière approchée la probabilité pour que sur 400 rouleaux il ait :
P (X = 24) = 0.03, P (X = 25) = 0.96, P (X = 26) = 0.01

1. Moins de 10000 pièces


2. Moins de 9990 pièces
Fin du cours bonne chance

19

Vous aimerez peut-être aussi