0% ont trouvé ce document utile (0 vote)
24 vues74 pages

Probabilité

Ce cours de probabilités, structuré en cinq chapitres, couvre les fondamentaux de la théorie des probabilités, y compris les concepts de probabilité, de variable aléatoire, et d'opérations sur les événements. Il introduit également des notions avancées telles que la probabilité conditionnelle, le théorème de Bayes et l'indépendance des événements. Le cours prépare les étudiants à des applications pratiques en statistique inférentielle et en simulation.

Transféré par

Oussama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
24 vues74 pages

Probabilité

Ce cours de probabilités, structuré en cinq chapitres, couvre les fondamentaux de la théorie des probabilités, y compris les concepts de probabilité, de variable aléatoire, et d'opérations sur les événements. Il introduit également des notions avancées telles que la probabilité conditionnelle, le théorème de Bayes et l'indépendance des événements. Le cours prépare les étudiants à des applications pratiques en statistique inférentielle et en simulation.

Transféré par

Oussama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de probabilités

Ibrahim AMRANI
Préambule

L’objectif de ce cours est de présenter les principaux fondamentaux de l’aspect aléatoire de la


statistique. C’est un cours de base dont la compréhension permet de suivre le cours de
statistique inférentielle. Il est à préciser que ce cours est suivi d’un cours de simulation qui
présente des applications informatiques des notions de probabilité. La manipulation
informatique de ces notions suppose une certaine maitrise de la théorie de ces concepts.

Le cours est constitué de cinq chapitres :


Le premier chapitre traite la notion de probabilité.
Le deuxième chapitre étudie le concept mathématique de la variable aléatoire et des lois de
probabilités.
Le troisième chapitre présente les caractéristiques numériques des variables aléatoires.
Le quatrième chapitre étudie des opérateurs mathématiques qui présentent des propriétés très
intéressantes.
Le cinquième chapitre aborde le comportement asymptotique des variables aléatoires et
présente des théorèmes importants de la statistique.

1
1. Probabilité
La probabilité peut être définie comme étant la mesure de la chance de réalisation d’un certain
événement et cette mesure est comprise entre 0 et 1.

Expérience stochastique, Evénement

Une expérience est dite stochastique ou aléatoire, s’il est impossible de prévoir son résultat.
On admet qu’elle peut être répétée indéfiniment dans des conditions identiques, son résultat
peut donc varier d’une réalisation à l’autre.

Exemples :

1. On jette un dé et observe le résultat obtenu : {1, 2, …, 6}


2. On lance trois fois de suite une pièce de monnaie : 8 résultats possibles : PPP, PPF, …,
FFF.
3. On prélève un lot de n pièces et on s’intéresse au nombre de pièces défectueuses.
4. On jette un dé numéroté et on s’intéresse au nombre de jets nécessaires jusqu’à ce que le
n°6 apparaît.
5. Dans une station de bus, on mesure la durée du temps qui sépare le départ d’un bus et
l’arrivée du prochain.

Ensemble fondamental, événement

L’ensemble, noté Ω, de tous les résultats possibles d’une expérience aléatoire est dit
ensemble fondamental. Selon la nature de cette expérience Ω peut être :
• fini (exemples 1, 2, 3)
• infini dénombrable (exemple 4)
• infini non dénombrable (exemple 5)

On appelle événement tout sous ensemble de Ω.

Un événement A est réalisé lors d’une expérience aléatoire, si le résultat de cette dernière
appartient à A.

Si A = {w}, on parle d’événement élémentaire.


Ø l’ensemble vide est l’événement impossible qui n’est jamais réalisé.
Ω est l’événement certain qui est toujours réalisé.

Opérations sur les événements

Les événements associés à une expérience aléatoire, sont des sous-ensembles de l’ensemble
Ω, il est naturel de définir des opérations sur les événements à l’image des opérations bien
connues en théorie des ensembles :

2
Intersection : AB = A∩B ⇔ ∀ w ∈Ω, w ∈ A et w ∈ B
Réunion : A + B = A ∪ B ⇔∀ w ∈Ω, w ∈ A ou w ∈ B
Inclusion : A ⊂ B ⇔ ∀ w ∈Ω, w ∈ A alors w ∈ B
A est l’événement complémentaire de A dans Ω ⇔∀ w ∈Ω, w ∈ A alors w ∉ A
Commutativité : A + B = B + A
Associativité : A + (B+C) = (A+B) + C
Distributivité : A(B+C) = AB + AC
Complémentarité : A = A
Loi de Morgan : AB = A + B
AΩ = A
AA = Ø

Evénements mutuellement exclusifs

Une famille d’événements (Ai), i = 1,…,n, est composé d’événements mutuellement exclusifs
si et seulement si :

Ai si i = j
AiAj =
Ø si i ≠ j

Un élément de Ω n’est pas inclus dans plus d’un événement de la liste

Evénements collectivement exhaustifs

Une famille d’événements (Ai), i = 1,…, n, est composée d’événements collectivement


exhaustifs si et seulement si :

A1 + A2 +…+ An= Ω

Un élément de Ω est inclus dans au moins un événement de la liste.

Probabilité, Espace probabilisé

Tribu (ou σ-algèbre) : Définition

Soit Ω un ensemble. On appelle tribu (ou σ-algèbre) des parties de Ω, tout sous ensemble A
de P(Ω) tel que :
1) Ω ∈A
2) Pour tout A ∈A, A ∈ A
3) Pour toute famille finie ou infinie dénombrable (Ai) i ∈ I (I ⊂ N) d’éléments de A,
UA
i∈I
i ∈A

(Ω, A) est alors appelé espace probabilisable.

3
Exemple
Si A ⊂ Ω, A ≠ Ø et A ≠ Ω alors {Ø, A, A , Ω} est une tribu des parties de Ω

En pratique, lorsque Ω est fini ou dénombrable, alors A = P(Ω).

Proposition

Soit A une tribu des parties de Ω


(1) Ø ∈A
(2) Pour tout (A, B) ∈A2, A∪B, A∩B, A\B sont des éléments de A
(3) Pour toute famille finie ou dénombrable (Ai) i ∈ I (I ⊂ N) d’éléments de A, IA i ∈A
i∈I

Démonstration

(1) Ø = Ω
(2) Pour tout (A, B) ∈ A2, A∪B ∈ A par définition
A ∩ B = A ∪ B or (A, B) ∈ A2, donc A ∪ B ∈ A et A ∪ B ∈ A
A\ B = A ∩ B ∈ A
(3) IA = UAi i
i∈I i∈I

Or pour tout i ∈ I, A i ∈ A, donc UA i ∈ A et UA i ∈A


i∈I i∈I

Définition :
Soit (Ω, A) un espace probabilisable, on appelle probabilité sur (Ω, A) tout application P de
A vers [0, 1], vérifiant les axiomes suivants :
(1) P(Ω) = 1
(2) Pour toute famille finie d’événements mutuellement exclusifs, A1, A2, … , An, on a
P(A1 + A2 + … + An) = P(A1 )+ P(A2) + … + P(An)

Ces deux axiomes sont suffisants pour introduire une probabilité lorsque l’ensemble
fondamental Ω est fini.
Si Ω est infini :
(2’) Pour toute famille infinie dénombrable d’événements mutuellement exclusifs, Ai :
+∞ +∞
P(U A i ) = ∑ P(A i )
i =1 i =1

(Ω, A, P) est appelé espace probabilisé et pour tout A ∈ A, P(A) est la probabilité de
l’événement A.

La série de terme général P(Ai) est convergente car quel que soit le rang r :
+∞

∑ P(A ) ≤ 1
i=r
i

Propriétés élémentaires d’une loi de probabilité

(1) P(A) = 1 − P(A) donc P(Ø) = 0.

4
(2) P(A) ≤ P(B) si A ⊂ B : B = A + AB

(3) P(A+B) = P(A) + P(B) – P(AB)


B \ A : w ∈ B et w ∈ A
B = AB + B\A → P(B) = P(AB) + P(B\A)
A + B = A + B\A → P(A+B) = P(A) + P(B\A)

(4) P(A + B +C) = P(A) + P(B) + P(C) + P(ABC) – (P(AB) +P(BC) + P(CA))
(4) peut être déduite de (3).

(5) Soit Ai i = 1,…,n une famille de n événements mutuellement exclusifs, et collectivement


exhaustifs on a :
n n
P(U A i ) = ∑ P(A i ) = 1
i =1 i =1

Si les événements Ai sont équiprobables alors P(Ai) = 1/n, i = 1,…,n


Un événement E constitué par r événements Ai, vérifie alors :
r r
r nbre de cas favorables
P(E) = P(U A i ) = ∑ P(A i ) = =
i =1 i =1 n nbre de cas possibles

Probabilité Conditionnelle

Théorème et définition

Soient A et B deux événements de l’espace Ω avec P(B) ≠ 0.


P(AB)
PB (A) =
P(B)
PB est une probabilité définie sur les sous ensembles de Ω, appelée probabilité conditionnelle
sachant B.
PB(A) est aussi noté P(A/B).

PB est une probabilité car elle vérifie les 3 axiomes :


(1) 0 ≤ PB(A) ≤ 1 car P(AB) ≤ P(B)
P(BΩ) P(B)
(2) PB (Ω) = = =1
P(B) P(B)
(3) Soit Ai, i ∈ N, une famille d’événements mutuellement exclusifs
n n n


P(BU A i ) P(U BA i ) ∑ P(BA ) i n
PB (U A i ) = i =1
= i =1
= i =1
= ∑ PB (A i ) , les événements BAi, i ∈
i =1 P(B) P(B) P(B) i =1
N sont mutuellement exclusifs.

Théorème des probabilités totales

Soit Ai i = 1, … , n, une famille d’événements mutuellement exclusifs et collectivement


exhaustifs. Pour tout événement A on a :

5
n n
P(A) = ∑ P(AA i ) = ∑ P(A/A i )P(A i )
i =1 i =1

En effet :
n n
A = AΩ = AU A i = U AA i
i =1 i =1
Les événements AAi sont mutuellement exclusifs :
n n n
P(A) = P(U AA i ) = ∑ P(AA i ) = ∑ P(A/A i )P(A i )
i =1 i =1 i =1

Théorème de multiplication

Soit Ai i = 1,…,n une famille d’événements telle que P(A1 A2 … An) ≠ 0


P(A1 A2 … An) = P(A1)P(A2/A1)P(A3/A1A2)….P(An/A1 … An-1)

Exemple

On dispose d’un lot comprenant 10 pièces dont la moitié est défectueuse. On prélève sans
remise un échantillon de taille 3. Quelle est la probabilité pour que l’échantillon ne
comprenne aucune pièce défectueuse ?

Solution

Soit Ai l’événement tel que la ième pièce prélevée soit bonne i = 1, 2, 3

P(A) = P(A1 A2 A3) = P(A1)P(A2/A1)P(A3/A1A2)


5 43 1
P ( A) = =
10 9 8 12

Arbre des probabilités

L’arbre des probabilités est un moyen qui permet de décrire et d’étudier des expériences
stochastiques qui se déroulent en plusieurs étapes.
Reprenons l’exemple précédent, dans lequel il s’agit de prélever sans remise, trois pièces et
intéressons nous à la probabilité que la deuxième soit bonne :

5
P(A 1 ) = Ω
10 5
P( A 1 ) =
10
A1 5
4 5 A1
P(A 2 /A 1 ) = 9 4
9 9 P( A 2 / A 1 ) =
9
A2 A2 A2
A2

5 4 5 5 1
P(A2 ) = + = ←
10 9 10 9 2

6
Théorème de Bayes

Soit Ai i = 1, …, n, une famille d’événements mutuellement exclusifs et collectivement


exhaustifs et B un événement tel que P(B) ≠ 0 :

PP
A iB
B

P
B
Ai
P
Ai
P
Ai
B
( ) ( / ) ( )
( / )= =

n
P
B
Ai
P
Ai
( )
∑ ( / ) ( )

i
=1

Exemple : illustration du théorème de Bayes

Trois machines A, B et C produisent respectivement 50%, 30% et 20% du nombre total des
pièces fabriquées dans une usine. Les pourcentages des pièces défectueuses de ces machines
sont 3%, 4% et 5%.
(1) Calculer la probabilité pour qu’une pièce prise au hasard soit défectueuse ?
(2) On choisi une pièce défectueuse, quelle est la probabilité pour qu’elle soit produite
par la machine A ?

Solution

(1) Soit X l’événement correspondant à une pièce défectueuse,


P(X) = P(XA + XB + XC ) = P(XA) + P(XB) + P(XC)
= P(X/A)P(A) + P(X/B)P(B) + P(X/C)P(C)
P(X) = 0,03*0,5 + 0,04*0,3 + 0,05*0,2 = 0,037

P(X/A)P(A) 0,03 * 0,5 15


(2) P(A/X) = = =
P(X) 0,037 37

Indépendance des événements

Définition : Intuitivement, deux événements A et B sont dits indépendants, si la probabilité


de l’un n’est pas influencée par la réalisation ou la non réalisation de l’autre.

En terme de probabilité conditionnelle :


P(A/B) = P(A) ou P(B/A) = P(B) à condition que P(A) ≠ 0 et P(B) ≠ 0

Soit que : P(AB) = P(A) P(B) cette relation ne nécessite pas que P(A) ≠ 0 et P(B) ≠

Exemples

(1) On jette deux fois de suite une pièce de monnaie pour obtenir pile ou face. Les deux
jets se font dans les mêmes conditions et le résultat du premier jet est indépendant du
second.

(2) On tire sans remise deux fois de suite une carte d’un jeu de 52 cartes
A : Obtenir un as au 1er tirage
B : Obtenir un valet au second tirage

7
Les conditions de réalisations de A et de B ne sont pas les mêmes :
A : choisir une carte parmi 52
B: choisir une carte parmi 51 et P(B) dépend de P(A)

Remarques

Si A et B sont indépendants alors il en est de même pour A et B , B et A , B et A .


Pour démontrer ces propriétés, il suffit d’écrire la relation : P(A) = P(AB) + P(AB)

Il faut distinguer entre deux événements indépendants et deux événements exclusifs :


Si P(AB) = 0 alors nécessairement A et B sont dépendants si P(A) et P(B) sont différents de
0.

Si B ⊂ A et P(A) < 1, alors A et B sont dépendants.

Indépendance de n événements :

Soit A1,…,An, n événements, on dit que A1,…,An sont deux à deux indépendants si pour tout i
et j de 1,…,n tels que i ≠ j, P(AiAj) = P(Ai) P( Aj).

On dit que A1,…,An sont mutuellement indépendants si pour tout ensemble I choisi parmi
n n
1,…,n : P(I A i ) = ∏ P(A i )
i =1 i =1

Si une famille d’événements sont mutuellement indépendants alors nécessairement, ils sont
deux à deux indépendants. La réciproque n’est pas toujours vérifiée, comme l’indique le
contre exemple suivant :

Ω = {w1, w2, w3 , w4 } avec P(w1) = P(w2) = P(w3) = P(w4) = 1/4


A = {w1, w2}, B = {w1, w3} et C = {w1, w4}
P(AB) = P(w1) = 1/4 = P(A) P(B)
P(AC) = P(w1) = 1/4 = P(A) P(C)
P(BC) = P(w1) = 1/4 = P(B) P(C)
Car P(A) = P(B) = P(C) = 1/2
P(ABC) = P(w1) = 1/4 ≠ P(A)P(B)P(C)
Les événements A, B et C sont deux à deux indépendants mais ne sont pas mutuellement
indépendants.

Indépendance conditionnelle :

La notion d’indépendance de deux événements est liée à une probabilité et cette probabilité
peut être conditionnelle

Soient A, B, C trois événements d’un ensemble fondamental Ω sur lequel on définit une
probabilité conditionnelle sachant C (P(C) ≠ 0).

A et B sont conditionnellement indépendants sachant C si et seulement si P(AB/C) =


P(A/C)P(B/C).

8
L’indépendance conditionnelle n’implique pas et n’est pas impliqué par une indépendance
liée à une autre probabilité (voir exercice 2 du chapitre 3).

Analyse combinatoire

L’analyse combinatoire est une branche des mathématiques qui étudie les techniques de
dénombrements particulièrement utiles en théorie des probabilités.

Principe de multiplication

Pour aller d’une ville A à une ville B, il existe trois chemins possibles, et pour aller de la ville
B à la ville C, il en existe quatre.
Quel est le nombre total de chemins possibles pour aller de A vers C ?

A B C

Un tel calcul utilise le principe de multiplication :


En effet, pour chaque chemin possible entre A et B, il existe quatre possibilités d’aller de B
vers C. Le nombre total de chemins possibles entre les villes A et C est douze.

Théorème :

Considérons n opérations successives, si chaque opération k peut se dérouler de mk manières


différentes (k = 1,…,n), alors les n opérations peuvent être effectuées dans l’ordre indiqué de
m1m 2…mn manières différentes.

Dénombrement sans répétition

Permutations

Etant donné n objets discernables (a,b, … ,l), on appelle permutation d’ordre n toute suite
formée de ces n objets, dans un ordre choisi arbitrairement, deux permutations correspondant
à des ordres différents sont considérées comme différentes.

Exemple : le nombre de permutations qu’il est possible de faire avec trois éléments a, b et c
est 6 : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), (c,b,a)
P3 = 3*2*1 = 6 = 3!

Le nombre de permutations différentes, d’ordre n est égale à Pn = n*(n-1) *…* 2*1 = n!

Arrangements

Etant donné n objets discernables (a,b, … ,l) et un entier p≤n, on appelle arrangement d’ordre
p, toute suite formée par p objets choisis parmi (a,b, … ,l), un objet choisi ne peut être utilisé

9
une deuxième fois, deux suites ne différant que par l’ordre des objets sont considérées comme
différentes.
Par exemple, (a,c,d), ((a,d,c), (b,c,e) sont des arrangements d’ordre 3, distincts de (a,b,c,d,e).

Le nombre d’arrangements d’ordre p, de n objets, est égale à :

n(n − 1)...(n − p + 1)(n − p )(n − p − 1)...2 * 1


Anp = n(n − 1)...(n − ( p − 1)) =
(n − p )(n − p − 1)...2 * 1

n!
Anp =
(n − p )!

Exemple : le nombre d’arrangements d’ordre 2 des trois éléments a,b et c sont : (a,b), (b,a),
(b,c), (c,b), (a,c), (c,a).
3!
A32 = 3 * 2 = =6
(3 − 2)!
Remarque : Ann = Pn = n! , ceci conduit à admettre que 0! = 1.

Combinaisons

Etant donné n objets discernables (a,b, … ,l) et un entier p ≤ n, on appelle combinaison


d’ordre p, de ces n objets, un ensemble de p objets choisis parmi (a, b, … ,l), deux ensembles
ne différant que par l’ordre des objets choisis sont considérés comme identiques.

Par exemple {a,e,c}, {a,c,e}, {c,a,e} représentent une même combinaison d’ordre 3.

 n  Ap n!
Le nombre de combinaisons d’ordre p, de n objets, est égale à : C nn =   = n =
 p  Pn (n − p )! p!

n!
Remarque : C nn = 1 = , on admet que 0! = 1.
0!n!

Dénombrement avec répétition

Permutations

Etant donné α objets a, indiscernables


β objets b, indiscernables

λ objets l, indiscernables
avec α + β + … + λ = n.

Une permutation de ces n objets, est une suite formée avec ces n objets, dans un ordre choisi
arbitrairement, deux permutations diffèrent par l’ordre de succession des objets discernables,
par contre l’échange de deux a, ou de deux b, … ne conduit pas à une nouvelle permutation.

10
Exemple : considérons l’ensemble a, a, b, b, b, c
Les permutations comportant c à la dernière place sont :
aa…c . a a .. c .. a a . c …aac
a . a .. c .a.a.c .. a . a c
a .. a . c . a .. a c
a…ac
Les b sont remplacés par des ‘.’ pour une meilleure lisibilité.
Il était possible de mettre c dans chacune des cinq autres places. Le nombre total des
permutations est 10*6 = 60.
D’une manière générale, le nombre des permutations des n objets est égale à :
n! (α + β + ... + λ )!
Pα , β ,...,λ = =
α ! β !...λ! α ! β !...λ!
6! 4*5*6
Dans l’exemple : P2,3,1 = = = 60
2!3!1! 2!

Arrangements

Etant donné n objets discernables (a1, a2, … ,an) et un entier p, on appelle arrangement avec
répétition, une suite formée par p objets choisis parmi (a1, a2, … ,an) et chacun des objets
pouvant être choisi jusqu’à p fois. Deux arrangements qui différent que par l’ordre des objets
discernables sont considérés comme différents.

Exemple : étant donné dix chiffres 0, 1, 2, … , 9, les arrangements avec répétition d’ordre 3
sont les nombres entiers compris entre 000 et 999.

Le nombre d’arrangements avec répétition est Α np = n p

Preuve : démonstration par récurrence sur p.

Si p = 1 Α1n = n = n1

Supposons que Α np = n p , il y a np arrangements avec répétition d’ordre p des n objets.


Pour chaque arrangement d’ordre p, il y a n possibilités d’ajouter 1 objet pour obtenir un
arrangement d’ordre p+1.
Donc Α np +1 = nΑ np = n p +1

Combinaisons

Etant donné n objets discernables (x1, x2, … ,xn) et un entier p, on appelle combinaison avec
répétition CAR d’ordre p de ces n objets, un ensemble de p objets choisis parmi (x1, x2, …
,xn), le même objet pouvant être choisi jusqu’à p fois. Deux combinaisons ne différant que par
l’ordre des objets sont considérées comme identiques.
Exemple :
Les CAR d’ordre 2 de 3 objets (a,b,c) sont : aa, bb, cc, ab, ac, bc.

Le nombre de CAR d’ordre p de n objets est noté : Κ np

11
Κ 1n = n , le nombre de CAR d’ordre 1 de n objets.
Κ 2n = C n2 + n , c’est le nombre de combinaison d’ordre 2, plus le nombre de couples constitués
du même élément.

Κ 3n = C n3 + 2C n2 + n , c’est le nombre de combinaison d’ordre 3, plus le nombre de triplets ou


chaque élément est répété deux fois, plus le nombre de triplets constitués du même élément.

Le nombre total d’éléments dans tous les CAR d’ordre p, choisis parmi n éléments est : pΚ np

p p
Chaque élément figure Κ n dans les CAR d’ordre p choisies parmi n éléments.
n
Soit x un objet donné parmi les n objets et considérons le nombre de fois ou x figure dans les
combinaisons d’ordre p et les combinaisons d’ordre p-1, on a la relation suivante :

p p ( p − 1) p
Κ n = Κ np −1 + Κn
n n
Κ np −1 : Le nombre de fois où l’objet x est ajouté aux CAR d’ordre p-1.

( p − 1) p
Κ n : Le nombre de fois où l’objet x figure dans les CAR d’ordre p-1.
n

p p (p - 1) p-1
K n = K pn-1 + Kn
n n
(n + p - 1) p-1
K pn = Kn
p
(n + p - 1) (n + p − 2) n + 1 1 (n + p - 1) (n + p − 2) n + 1
K pn = ... Kn = ... n
p p −1 2 p p −1 2
(n + p − 1)!
K pn = = C np + p−1
p!(n − 1)!

12
Exercices
Exercice 1
Utiliser les axiomes de l’algèbre des événements pour démontrer les relations suivantes :
1) E = Ø
2) A + B = A + A B + ABC
3) A + E = E
n
4) P(A) = ∑ P( AE ) , pour tout ensemble Ei, i = 1,…,n, de parties mutuellement exclusives et
i =1
i

collectivement exhaustives.
5) P(A1A2…An) = P(A1)P(A2/A1)P(A3/A1A2)…P(An/ A1A2…An-1)

Exercice 2
Expliquer en détail vos réponses aux questions suivantes :
1) Si les événements A et B sont mutuellement exclusifs et collectivement exhaustifs, est-ce
que A et B les ont aussi ?

2) Si les événements A et B sont mutuellement exclusifs mais pas collectivement exhaustifs,


est-ce que A et B sont collectivement exhaustifs ?

3) Si les événements A et B sont collectivement exhaustifs mais pas mutuellement exclusifs,


est-ce que A et B sont collectivement exhaustifs ?

Exercice 3
Pour trois jets d’une pièce de monnaie, supposée parfaite, déterminer les probabilités :
1) d’obtenir PPP (P = ‘‘pile’’, F = ‘‘face’’),
2) d’obtenir PFP,
3) d’avoir deux piles et une face,
4) d’avoir plus de piles que de faces.
Déterminer la probabilité conditionnelle de :
5) ‘‘plus de piles que de faces’’ sachant que ‘‘au moins une face’’,
6) ‘‘plus de piles que de faces’’ sachant que ‘‘moins de deux faces’’.

Exercice 4
Casimir est un fou avec une probabilité de 0.6, un voleur avec une probabilité de 0.7 et ni l’un
ni l’autre avec une probabilité de 0.25.
1) Quelle est la probabilité qu’il soit fou ou voleur mais pas les deux ?
2) Quelle est la probabilité conditionnelle qu’il soit un voleur sachant qu’il n’est pas fou ?

Exercice 5
Un jeu commence par le choix d’un des deux dés A et B tel que A est choisi avec une
probabilité p. Le dé choisi est ensuite lancé jusqu’à ce qu’une face blanche apparaisse, auquel
cas le jeu est terminé.
Le dé A a 4 faces rouges et 2 faces blanches, le dé B a 2 faces rouges et 4 faces blanches.
Après que le jeu ai été joué longtemps, on observe que la probabilité que le jeu s’achève en
exactement trois lancers est 7/81. Déterminer p.

13
Exercice 6
La maison de la famille Durand abrite le père, la mère, 4 enfants, 2 chats et 3 chiens. Toutes
les six heures, la maisonnée forme un groupe de 5 (personnes et animaux) avec les règles
suivantes :
• Il y a au moins un parent et un animal dans chaque groupe.
• Il n’y a jamais un chien et un chat dans le même groupe à moins que les deux parents
n’y soient.
• Tous les groupes sont équiprobables.
Sachant qu’exactement un des parents se trouve dans le groupe de 18 heures, quelle est la
probabilité que Rover, le chien le plus âgé, y soit ?

14
2. Les variables aléatoires et lois de probabilités
Définition

Une variable aléatoire (VA) est définie par une application de Ω (ensemble fondamental) vers
R:
X:Ω → R
w a X(w)
X(Ω) = {y ∈ R / ∃ w ∈Ω, X(w) = y}

Si X(Ω) est un sous ensemble finie de R alors X est une variable aléatoire réelle discrète finie.
Si X(Ω) est un sous ensemble dénombrable de R, alors X est une Variable aléatoire discrète
infinie
Si X(Ω) est un intervalle de R alors X est une Variable aléatoire continue.
X(Ω) est appelé support de la variable aléatoire X.

Notation :
X désigne une VA (application de Ω vers R)
x désigne un réel qui appartient à X(Ω)

Fonction de répartition

La fonction de répartition de la variable aléatoire X est définie par :


FX : R → R
x a P(X ≤ x)

Propriétés
(1) ∀ x ∈ R, 0 ≤ FX(x) ≤ 1
(2) FX est croissante sur R
(3) lim FX (x) = 0 et lim FX (x) = 1 et FX est continue à droite de tout point de R
x → −∞ x → +∞
(4) Si a ≤ b, P(a < x ≤ b) = FX(b) – FX(a)

En effet :

(1) FX(x) = P(X ≤ x) donc 0 ≤ FX(x) ≤ 1

(2) Si a ≤ b alors {X≤a} ⊂ {X≤b}


{X≤b} = {X≤a} ∪{ a<X≤b} : deux événements exclusifs ou disjoints
donc FX(a) ≤ FX(b)

(4) FX(b) = FX(a) + P(a<x≤b)

(3) FX est une fonction croissante sur R et bornée sur [0, 1], donc elle admet une limite au
voisinage de -∞ et au voisinage de +∞
An = (X≤n), n ∈N

15
UA n = ( X ∈ R ) = Ω ⇒ lim P(A n ) = 1 ⇒ lim F(n) = 1
n → +∞ n → +∞
n∈N

Vu l’existence de la limite en + ∞, alors lim FX (x) = 1


x → +∞
Un raisonnement similaire peut être fait au voisinage de -∞, en considérant la suite
décroissante Bn = (X ≤ -n), n ∈N, pour montrer que lim FX (x) = 0
x → −∞

Soit Cn = (X ≤ x0 +1/n), (Cn)n∈N est une suite décroissante d’événements et IC n = (X ≤ x 0 )


n∈N

Donc lim P (C n ) = P(X ≤ x 0 ), c' est à dire lim F(x 0 + 1/n) = F(x 0 ) , la continuité de FX à droite
n → +∞ n → +∞
de tout x0 de R est ainsi déduite.

Exemple

Considérons le cas d’une variable aléatoire X associée à l’expérience aléatoire qui consiste à
jeter un dé parfait numéroté de 1 à 6 et relever le numéro obtenu.
On à X(Ω) = {1, 2, 3, 4, 5, 6} et P(X = xi) = 1/6.

Lois discrètes

Soit X une VA discrète sur Ω. L’ensemble des valeurs prises par X est X(Ω) = {x1, x2,
….,xn,…}. A chaque xn, on peut associer P(X= xn) et on a : ∑ P(X = x n ) = P(Ω) = 1
n
La loi discrète est caractérisée par l’ensemble X(Ω) et par la donnée de la probabilité P(X=
xn) associée à chaque valeur X.

Si X(Ω) est fini, il est possible de représenter la loi discrète X sous forme d’un tableau :

16
X x1 x2 … x j … xn
P(X) p1 p2 … pj … pn

La première ligne du tableau indique les différentes valeurs possibles de la variable aléatoire
X et la deuxième ligne présente les probabilités : P(X = xj), j = 1, …, n.

Exemples de lois discrètes finies

Loi de Bernoulli

C’est une expérience aléatoire qui admet deux résultats possibles :


P(A) = p et P(A) = 1 − p , La variable aléatoire associée admet deux valeurs possibles : {0, 1}

X 0 1
P(X) 1 - p p

Exemples :

(1) Jet d’une pièce de monnaie équilibrée, a chaque jet il y a deux résultats possibles :
P(pile) = 1/2 et P(face) = 1/2

(2) Une urne contient b boules blanches et n boules noires, on choisit au hasard une boule
qui ne peut être que blanche ou noire :
P(boule blanche) = b/(n+b), P(boule noire) = n/(n+b)

(3) Une pièce fabriquée par une machine, deux résultats possibles : pièce acceptable ou pièce
défectueuse.
La loi de Bernoulli est notée par B(p).

Loi binomiale

Soit E une expérience aléatoire liée à une loi de Bernoulli. E admet deux résultats possibles R1
et R2 : P(R1) = p et P(R2) = 1-p

On répète E n fois dans des conditions identiques (p est constant) et indépendantes (faire E la
ième fois est indépendant avec faire E la jème fois).

Soit X la VA qui désigne le nombre de fois où le résultat R1 est obtenu, X(Ω) = {0, 1, …., n}
X = k ≡ k fois R1 et (n-k) fois R2

Le nombre de fois où cette configuration est obtenue est égale au nombre de permutations
avec répétition d’ordre n où R1 figure k fois et R2 figure (n-k) fois :

n!
Pk, n − k = = C kn
k!(n − k)!
P(X = k) = Pk,n −k p (1 − p) n −k = C kn p k (1 − p) n −k
k

On dit que X suit une loi binomiale de paramètre n et p et on note B(n,p).

17
On vérifie facilement que la somme des probabilités est égale à 1, en utilisant la formule du
binôme :
n n

∑ P(X = k) = ∑ C kn p k (1 − p) n −k = (p + (1 − p)) n = 1
k =0 k =0
Loi uniforme discrète

La variable aléatoire associée à une loi uniforme discrète admet n valeurs 1, …., n et pour
lesquelles on P(X = i) = 1/n, i = 1,…,n
Exemple : jet d’un dé équilibré à 6 faces.

X 1 2 3 4 5 6
P(X) 1/6 1/6 1/6 1/6 1/6 1/6

Loi hypergéométrique

Soit une urne contenant N boules, dont n1 sont blanches et N - n1 = n2 sont noires. On tire
successivement et sans remise n boules, soit X la variable aléatoire qui désigne le nombre de
boules blanches obtenues.

Parmi les n boules prélevées, il y a k boules blanches et (n-k) boules noires


Conditions sur k : 0 ≤ k ≤ n1 et 0 ≤ n-k ≤ n2
sup(0,n-n2) ≤ k ≤ inf(n, n1)

18
Calculons la probabilité de la configuration B,…,B,N,…,N : k boules blanches et n-k boules
noires.
Les tirages sont dépendants, on utilise le Théorème de multiplication :
P(B,…,B,N,…,N) = P(B)P(B/B)…P(N/B,…,B)….P(N/B,…,B,N,…,N)
n n − 1 n − (k − 1) n 2 n 2 −1 n − (n − k − 1)
= 1 1 L 1 L 2 ²
N N − 1 N − (k − 1) N − k N − (k + 1) N − (n − 1)
n 1! n 2! (N − n)!
=
(n 1 − k)! (n 2 − (n − k))! N!

Or le nombre de configurations B,…,B,N,…,N est le nombre de permutations avec répétition


n!
d’ordre n où la boule blanche figure k fois et la boule noire figure (n-k) fois :
k!(n − k)!
n 1! n 2! (N − n)! n!
P(X = k) =
(n 1 − k)! (n 2 − (n − k))! N! k!(n − k)!

n 1! n 2! n!(N − n)!
=
k!(n 1 − k)! (n − k)!(n 2 − (n − k))! N!
C nk1 C nn2−k
=
C Nn
C kn1 C nn -2k
Il est possible de vérifier que ∑ P(X = k ) = ∑ = 1, Θ = {sup(0, n - n 2 ),..., inf(n, n 1 )}
k∈Θ k∈Θ C nN

Pour cela, on utilise : (1 + x)N = (1 + x)n1(1 + x)n2


N n1 n2

∑ C nN x n = ∑ C nj 1 x j ∑ C kn 2 x k
n =0 j= 0 k =0

Ce qui entraine que : C x n = n


N ∑C
j+ k = n
j
n1 C kn 2 x n

0 ≤ j ≤ n1
D’où l’égalité : C nN = ∑C
j+ k = n
j
n1 C kn 2 , avec
0 ≤ k ≤ n2
C = ∑ C kn1 C nn -2k
n
N
k∈Θ

La loi hypergéométrique est caractérisée par trois paramètres : N, p et n, avec p = n1/N.


Elle est notée par H(N,n,p).
k n−k
C Np C Nq
Si q = 1 – p alors P( X = k ) =
C Nn
Lorsque N est assez grand et n est petit devant N, la loi hypergéométrique de paramètres N, p
et n converge vers la loi binomiale B(n,p), en effet :
Np! Nq! ( N − n)!n!
P( X = k ) =
( Np − k )!k! ( Nq − n + k )!(n − k )! N!
Np! Nq! ( N − n)!
⇒ P ( X = k ) = C nk
( Np − k )! ( Nq − n + k )! N !

19
Np!
= Np ( Np − 1)...( Np − k + 1) Ngrand
→ ( Np ) k
( Np − k )!
Nq!
= Nq ( Nq − 1)...( Nq − n + k + 1) Ngrand→ ( Nq ) n− k
( Nq − n + k )!
( N − n)! 1 1
= Ngrand
→ n
N! N ( N − 1)...( N − n + 1) N
n−k
( Np ) ( Nq )
k
Donc P ( X = k ) Ngrand → C kn n
= C kn p k q n −k , c’est l’expression de la loi B(n,p).
N
En pratique, la loi H(N,n,p) peut être approchée par la loi B(n,p) lorsque N ≥ 10n.

Lois discrètes infinies

Loi géométrique de paramètre p : elle décrit la probabilité d’obtenir le premier succès


lorsqu’on exécute des épreuves indépendantes, chacune d’entre elle ayant la probabilité de
succès p :
p(n) = (1-p)n-1p pour n ∈ {1, 2, …. }
+∞ +∞
1

n =1
p (n) = ∑ (1 − p ) n−1 p =
n =1 1 − (1 − p )
= 1 , c’est la somme d’une suite géométrique.

Loi binomiale négative de paramètres p et r

Une expérience aléatoire dont la probabilité de succès est p. Cette expérience est répétée dans
des conditions identiques et indépendantes jusqu’à ce qu’on obtienne r succès.
Soit n le nombre d’expériences réalisées :
p(n) = C rn−−11 p r (1 − p) n − r , n ∈ {r, r+1, … }.

La justification de cette expression vient du fait qu’ au cours de n réalisations on a r succès et


le dernier résultat est un succès, cela suppose qu’au cours des n-1 réalisations, on r-1 succès.

+∞ +∞
Il est possible de montrer que : ∑ p(n) = ∑ C rn−−11p r (1 − p) n −r = 1
n =r n =r

La démonstration peut se faire par récurrence :

+∞
p +∞
Si r = 1, on a bien ∑ C 0n −1p(1 − p) n −1 =
n =1

1 − p n =1
(1 − p) n = 1
+∞
1
Supposons que : ∑C
n =r
r −1
n −1 (1 − p) n − r =
pr
+∞
-r
Dérivons les deux égalités ci-dessus par rapport à p : ∑ - (n - r)C
n =r
r −1
n −1 (1 − p) n − r -1 =
p r +1
n - r r −1
+∞ +∞
n - r r −1 1
⇒∑ C n −1 (1 − p) n − r -1 = ∑ C n −1 (1 − p) n − r -1 = r +1
n =r r n = r +1 r p
n - r r −1 n-r (n − 1)! (n − 1)!
Or ⇒ C n −1 = = = C rn −1
r r (r − 1)!(n − r)! r!(n − r − 1)!

20
+∞
Donc ∑C
n = r +1
r
n −1 p r +1 (1 − p) n − r -1 = 1

Loi de Poisson

C’est une loi discrète infinie qui dépend d’un paramètre λ strictement positif et est notée par
λk
P(λ), cette loi a pour expression : P ( X = k ) = e −λ
k!
+∞
λk
Le développement en série entière de la fonction exponentielle : e λ = ∑ permet de
P k =0 k!
X
k
+∞
démontrer facilement que ∑ ( = ) =1
k

=0
On peut déterminer quel est l’entier le plus probable en formant le rapport :
P( X = k ) λk (k − 1)! λ
= = ,k ≥1
P( X = k − 1) k! λk −1 k

Ce qui montre que pour tous les entiers inférieurs à λ, on a P(X = k) > P(X = k-1),
P(X = k) est croissante, puis décroissante pour les entiers k > λ, le maximum est atteint pour
l’entier k = [λ]. Pour les cas où [λ] = 0 (λ < 1), les valeurs de P(X = k) sont décroissantes et la
valeur maximale est P(X = 0). Si λ est un entier, il y a deux probabilités maximales qui sont
égales : P(X = λ) et P(X = λ-1).

Les figures ci-dessous présentent les distributions de P(4) et P(0.4) sur l’ensemble {0, …10}.

La loi de Poisson est utilisée pour décrire le nombre de réalisations d’un événement dont la
probabilité est faible :

21
• Le nombre d’accidents se produisant dans une usine au cours
d’une période de temps donnée.
• Le nombre d’articles défectueux compris dans un envoi de bonne qualité.
• Le nombre d’appels téléphoniques pendant un intervalle de temps donné.

Théorème : Approximation d’une loi binomiale par une loi de Poisson


Soit X une variable aléatoire obéissant à une loi binomiale B(n,p) et supposons que p varie
avec n : p = λ/n où λ est une constante positive, alors :
λk e − λ
P ( X = k ) n→
→ +∞
(k = 0, 1, 2, ...)
k!
Pour démontrer ce résultat on a :
λ λ
P ( X = k ) = C kn ( ) k (1 − ) n − k
n n
k
λ  n(n − 1)...(n − k + 1) λk λk
Si n → +∞, on constate que : C kn   =  →
n nk k! n→+∞ k!
λ λ λ
(1 − ) n− k = (1 − ) n (1 − ) − k
n n n
λ λ λ λ
(1 − ) − k n→1 et log((1 − ) n ) = n log(1 − ) n
→ +∞
→ −n = −λ
→ +∞
n n n n
λ
Donc (1 − ) n n → e −λ
→ +∞
n
Ce qui prouve le théorème.

En pratique cette approximation est considérée comme acceptable si n ≥ 30, p ≤ 0.1 et np ≤ 15.

Loi de probabilité d’une fonction de variable aléatoire

Soit X une variable aléatoire discrète, g une fonction définie sur X(Ω), Calculons la loi de
probabilité de Y = g(X) :
g : X (Ω ) → R
x i a g(x i )

Le caractère aléatoire de X est transmis à Y à travers la loi de X


Le support de Y ou l’ensemble des valeurs prises par la variable Y est :
Y(Ω) = {yj / ∃ xi ∈ X(Ω), g(xi) = yj }
Soit Ij = {xi ∈ X(Ω) / g(xi) = yj}
La loi de Y :
P(Y = yj) = P(g(X) = yj) = ∑ P(X = x i )
x i ∈Ij

Exemple :

Loi de X :
xi -1 1 2
P(X=xi) 1/4 1/2 1/4

22
Loi de Y = eX
yj e-1 e e2
P(Y= yj) 1/4 1/2 1/4

Loi de Z = X2
Z = 1 ≡ X = 1 ou X = -1, donc P(Z=1) = P(X=-1) + P(X=1)

zk 1 4
P(Z= zk) 3/4 1/4

Variables aléatoires continues à densité

Soit X une variable aléatoire, dans le cas où X(Ω) est un intervalle de R alors X est dite
variable aléatoire continue.

b
On suppose qu’il existe une fonction f tel que ∀a, b ∈ R, P( X ∈ [a, b]) = ∫ f ( x)dx
a
La fonction f est appelée alors densité de probabilité ou densité de la variable aléatoire
continue.

Pour qu’une fonction f soit une densité de probabilité, il faut et il suffit donc qu’elle satisfasse
aux deux conditions suivantes :
f(x) ≥ 0
+∞

∫ f ( x)dx = 1
−∞

Remarques

i) La probabilité d’un événement de type P(X = a) = 0 :


b a
P(a < X < b) = ∫ f ( x)dx ⇒ P( X = a ) = ∫ f ( x)dx = 0
a a
a
P( X ≤ a) = P( X < a) =
−∞
∫ f ( x)dx
ii) Pour chaque x de X(Ω) ou la fonction densité fX est continue, alors la fonction de
répartition FX est dérivable et on a FX' ( x) = f X ( x)

Exemple : on suppose que la longueur X d’une pièce fabriquée en série est distribuée
selon une densité de probabilité donnée par :
 x / 3 si 0 ≤ x ≤ 2

f X ( x) = 2 − 2 x / 3 si 2 ≤ x ≤ 3
 0 ailleurs

Vérifier que fX est une densité de probabilité et représenter son graphe.

23
Calculer P(1 ≤ X ≤ 2,5) ainsi que P(1 ≤ X ≤ 2,5/X ≤ 2)

3
fX est une fonction positive et on a ∫f
0
X ( x)dx = 1

2 2, 5
P(1 ≤ X ≤ 2,5) = ∫ ( x / 3)dx + ∫ (2 − 2 x / 3)dx = 3 / 4
1 2
2

P(1 ≤ X ≤ 2,5 et X ≤ 2)
∫ ( x / 3)dx
1
P(1 ≤ X ≤ 2,5/X ≤ 2) = = 2
= 3/ 4
P ( X ≤ 2)
∫ ( x / 3)dx
0

Densité d’une fonction de variable aléatoire

Soit X une variable aléatoire continue de densité fX et soit g une fonction strictement
monotone (décroissante ou croissante) et dérivable. Calculons la densité de la variable
aléatoire Y = g(X).
FX et FY sont respectivement les fonctions de répartition de X et Y.
FY(y) = P(Y<y) = P(g(X) < y) avec y ∈ Y(Ω) ={ y ∈ R / ∃ x ∈X( Ω), g(x) = y}

Si g est croissante alors g(X) < y ≡ X < g-1(y)


donc FY(y) = FX(g-1(y)) et pour trouver la relation entre les fonctions densités, il suffit de
dériver les fonctions de répartition : fY(y) = (g-1)’(y) fX(g-1(y))

Si g est décroissante alors g(X) < y ≡ X > g-1(y)


donc FY(y) = 1 - FX(g-1(y))
fY(y) = -(g-1)’(y) fX(g-1(y))
D’où fY(y) = │(g-1)’(y)│ fX(g-1(y))

24
Cas d’une fonction non bijective
Soit X une variable aléatoire continue de densité fX, calculons la densité de la variable
aléatoire Y = X2.

FY(y) = P(Y<y) = P(X2<y)


Si y<0 alors P(X2<y) = 0 → FY(y) = 0
Si y>0, FY(y) = P(X2<y), ( X 2 < y ) ⇔ (− y < X < y)
FY ( y ) = P(− y < X < y ) = FX ( y ) − FX ( − y )
 0 si y < 0
FY ( y ) = 
 FX ( y ) − FX (− y ) si y ≥ 0
fX ( y) f X (− y )
f Y ( y ) = FY' ( y ) = +
2 y 2 y

Variable aléatoires continues dont la densité est symétrique


Soit X une variable aléatoire continue de densité fX symétrique et de fonction de répartition
FX, alors la loi de –X est identique à celle de X et ∀ x ∈ X(Ω), FX(-x) = 1 – FX(x).

En effet : soit x ∈ X(Ω), P(-X<x) = P(X>-x) donc F-X(x) = 1 – FX(-x)


La dérivée des fonction de répartition implique : f-X(x) = fX(-x) = fX(x) car la fonction fX est
symétrique.
x
FX

fX
t
d
t


Soit x ∈ X(Ω), (− ) = ∫
−∞
() , posons u = -t
x
FX

fX
u
d
u

fX
u
d
u

FX
x

+∞
(− ) = − ∫ (− ) = ∫ ( ) = 1− ( )
x

+∞

Exemples de variables aléatoires à densités

Loi uniforme sur [a, b], U[a,b]

La loi uniforme est caractérisée par une fonction densité constante sur l’intervalle de
définition : [a, b], b > a
b b
Cette constante est calculée de telle manière que : ∫ f U (u )du = cte ∫ du = cte(b − a) = 1
a a

 1
 si u ∈ [a, b]
f U (u ) =  b − a
 0 ailleurs
 0 si u < a
u - a
FU (u ) =  si a ≤ u ≤ b
b - a
 1 si u > 1

25
Loi normale N(μ,σ)

Cette loi constitue un modèle fréquemment utilisé dans divers domaines : variation du
diamètre d’une pièce dans une fabrication industrielle, répartition des erreurs de mesure
autour de la vraie valeur. La densité de cette loi est :

( x−µ )2
1 −
2σ 2
f ( x) = e pour x ∈ R
2π σ

La fonction de répartition est l’intégral de cette densité.


La loi normale centrée réduite N(0,1) est caractérisée par une fonction de répartition égale :
x2
1
x

Φ( x) =

∫e
−∞
2
dx pour x ∈ R

Théorème :
Si X est une variable aléatoire normale N(μ,σ), alors la variable aléatoire continue Y = αX + β
est normale, de loi N(αμ+β, ασ) avec α ≠ 0.

y−β
En effet : La fonction g(X) = αX + β est strictement monotone, et g −1 ( y ) =
α
On utilise la relation : fY(y) = │(g-1)’(y)│ fX(g-1(y))
1 ( y − β − αµ ) 2
fY ( y) = e− ⇒ Y :N(αμ + β, ασ)
α 2π σ 2σ 2α 2

1 µ
Application : α = et β = −
σ σ
Dans ce cas αμ + β = 0 et ασ = 1
Toute loi normale N(μ, σ) peut être transformée en une loi normale centrée réduite.

26
La fonction densité de probabilité d’une loi normale centrée réduite est symétrique, par suite

x
∀ x ∈ R alors : Φ(− ) = 1 − Φ( )

Il existe des tables pour calculer les valeurs de la fonction Φ, fonction de répartition d’une loi
normale centrée réduite.

Parmi les propriétés de la loi normale centrée réduite N(0, 1) :

P( X ∈ [-1, 1] ) 0,68

P( X ∈ [-2, 2] ) 0,95

P( X ∈ [-3, 3] ) 0,99

Loi exponentielle

Définition :

Soit λ un réel strictement positif.


Une variable aléatoire X suit la loi exponentielle de paramètre λ (notée E(λ)) lorsque X admet
λe − λx si x ≥ 0
pour densité de probabilité la fonction f définie par f ( x) = 
 0 si x < 0

+∞
En effet f est une fonction positive et ∫ f ( x)dx = 1
−∞
La fonction de répartition de la loi exponentielle est donnée par :
1 − e − λx si x ≥ 0
F ( x) = 
 0 si x < 0

La loi exponentielle à la propriété d’être sans mémoire :


P(X>x+u/X>u) = P(X>x)
P( X > x + u et X > u ) P( X > x + u ) 1 − F ( x + u )
P( X > x + u / X > u ) = = =
P( X > u ) P( X > u ) 1 − F (u )
e − λ ( x +u )
Donc P( X > x + u / X > u ) = −λu = e −λx = P( X > x)
e
Interprétation : Si X modélise la durée de vie d’un individu A, la propriété que X est sans
mémoire exprime que A ne vieillit pas : si A a vécu u années, la probabilité pour qu’il vive
encore x années est la même que la probabilité pour un individu similaire à A, qui vient de
naitre, vive aussi x années

27
La loi Gamma

Définition :
Soit b et t deux nombres réels strictement positifs.
Une variable aléatoire X suit la loi gamma de paramètres b et t, lorsqu’elle admet pour densité
 −
x
b t −1 +∞
 f ( x) = e x
si > 0
la fonction f définie par  x , avec Γ( x) = ∫ t x −1e −t dt
Γ(t )b t
 0
 f ( x) = 0 si x ≤ 0

+∞
f est une fonction densité de probabilité car elle est positive et ∫ f ( x)dx = 1 , en effet :
0
+∞ +∞
1 Γ(t )b t

∫ f ( x)dx = Γ(t )b ∫ e
−u
On pose x = bu et b t −1u t −1bdu =
=1
0 0
t
Γ(t )b t
La fonction Γ vérifie la propriété : Γ(x+1) = xΓ(x) et si n est un entier alors Γ(n+1) = n!, avec
Γ(1) = 1.
La loi gamma de paramètres b et 1, est une loi exponentielle de paramètre 1/b.

Distribution simultanée ou loi du couple

Couples aléatoires discrets

Soient X et Y deux VA discrètes définies sur l’ensemble fondamental Ω


X(Ω) = {x1, x2, …., xi, … }, i ∈ IX
Y(Ω) = {y1, y2, …., yj, … }, j ∈ IY
La loi de probabilité jointe des deux variables aléatoires ou la distribution bidimensionnelle
du vecteur aléatoire (X, Y) est alors définie par des probabilités pij affectées aux couples (xi,
yj) :
pij = P((X= xi) et ( Y=yj)) c’est la loi du couple (X,Y)

L’ensemble des valeurs prises par (X, Y) sont les couples de X(Ω) × Y(Ω), c’est l’ensemble
de tous les couples dont le premier élément appartient à X(Ω) et le deuxième appartient à
Y(Ω).
∑ ∑ pij = ∑ ∑ P( X = xi et Y = y j ) = ∑ P( X = xi ) = 1
i∈I X j∈I Y i∈I X j∈IY i∈I X

La famille (Y=yj), j ∈ IY, est collectivement exhaustive sur Y(Ω)


Il en est de même pour (X=xi), i ∈ IX

Les distributions marginales de X et de Y sont définies par :


pi. = P( X = xi ) et p. j = P(Y = y j )

Lorsque les variables aléatoires X et Y sont finies, le nombre de couples possibles est
card(X(Ω))*card(Y(Ω)), il est alors possible de représenter le couple aléatoire (X,Y) par un
tableau :

28
Y Probabilités
y1 … yj … ym
X marginales

x1 p1.

⁞ ⁞
xi pij pi.
⁞ ⁞

xn pn.

Probabilités
p.1 … p.j … p.m 1
marginales

La fonction de répartition conjointe des deux V A X et Y, FX,Y(x,y) est définie par :


FX ,Y ( x, y ) = P( X ≤ x, Y ≤ y ) = ∑ ∑ P( X = xi , Y = y j ) = ∑ ∑ pij
xi ≤ x y j ≤ y xi ≤ x y j ≤ y

Exemple

Considérons l’expérience stochastique qui consiste à jeter trois fois de suite, une pièce de
monnaie équilibrée :
• X = nombre de ‘‘face’’; X(Ω) = {0, 1, 2, 3}
• Y = numéro du jet dans lequel apparaît ‘‘face’’ pour la première fois (on posera par
exemple Y = 4 s’il y a trois ‘‘pile’’.

Y
1 2 3 4 pi.
X

0 0 0 0 1/8 1/8 PPP

1 1/8 1/8 1/8 0 3/8 FPP, PFP, PPF

2 2/8 1/8 0 0 3/8 FFP, FPF, PFF

3 1/8 0 0 0 1/8 FFF

p.j 4/8 2/8 1/8 1/8 1

FPP PFP PPF PPP


FFP PFF
FFF

29
Couple aléatoire continue

X et Y sont deux variables aléatoires à densité sur respectivement X(Ω) et Y(Ω) deux sous
ensembles de R.
Les valeurs prises par le couple (X, Y) décrivent une partie du plan de dimension 2
Les variables aléatoires X et Y sont conjointement continues s’il existe une fonction fX,Y
appelée densité conjointe de (X, Y) telle que :
∀C ∈ R 2 , P(( X , Y ) ∈ C ) = ∫∫ f X ,Y ( x, y )dxdy
C

∀A, B ⊂ R, P(( X , Y ) ∈ A × B) = ∫∫ f
A× B
X ,Y ( x, y )dxdy

La fonction densité conjointe vérifie les deux propriétés suivantes :


• fX,Y(x,y) ≥ 0 pour tout (x, y) ∈R2
• ∫∫ f X ,Y ( x, y )dxdy = 1
R2

La fonction de répartition de (X,Y) est définie par :


a b
FX ,Y (a, b) = P( X ≤ a, Y ≤ b) = ∫∫f
− ∞− ∞
X ,Y ( x, y )dydx

∂ 2 FX ,Y ( x, y )
Ce qui permet d’exprimer la densité conjointe de (X, Y) par : f X ,Y ( x, y ) =
∂x∂y
Les densités marginales de X et Y sont données par :
+∞ +∞
f X ( x) = ∫
−∞
f X ,Y ( x, y )dy et f Y ( y ) = ∫f
−∞
X ,Y ( x, y )dx

Exemple

Soit la densité conjointe du couple (X, Y) donnée par :


2e − x e −2 y si x, y ∈ R +
f X ,Y ( x, y ) = 
 0 sinon

Calculer : P(X>1,Y<1), P(X<a), FX,Y(x,y)

+∞+∞
La fonction f est positive et on vérifie que ∫∫f
0 0
X ,Y ( x, y )dxdy = 1

+∞ +∞ +∞ +∞
− e −2 y + ∞
∫ 2e ∫ e dxdy = ∫ 2e [ ]0 dx = ∫ e − x dx =1
−x −2 y −x
En effet :
0 0 0
2 0
+∞ 1 +∞ 1

∫∫f ( x, y )dxdy = ∫ e ∫ 2e
−x −2 y
P(X>1,Y<1) = X ,Y dydx = [−e − x ]1+∞ [−e − 2 y ]10 = e −1 (1 − e − 2 )
1 −∞ 1 0
Pour calculer P(X<a), il faut déterminer la densité marginale fX :

30
+∞ − x − 2 y
f X ( x) =  ∫
 2e e dy = e − x [−e − 2 y ] + ∞0 = e − x si x ≥ 0
0
 0 sinon

a
P( X < a) = ∫ f X ( x)dx =[−e − x ]0a = 1 − e − a
0
a b a b
FX ,Y ( x, y ) = ∫ ∫ f X ,Y ( x, y )dydx = ∫ ∫ 2e − x e − 2 y dydx
0 0 0 0
-x a −2 y b
= [-e ] [−e ] = (1 − e −a )(1 − e −2b )
0 0

∂ 2 FX ,Y (a, b)
On peut vérifier que : f X ,Y (a, b) =
∂x∂y

Indépendance de deux variables aléatoires

Soient X et Y deux variables aléatoires, la notion d’indépendance entre X et Y peut être


exprimée au niveau des probabilités :
∀ A, B ⊂ R, P(X ∈ A, Y ∈B) = P(X ∈A)P(Y ∈B)
Cette notion d’indépendance peut être également exprimée au niveau des fonctions de
répartition : ∀ (x,y) ∈ R2 FX,Y(x,y) = FX(x)FY(y)

Dans le cas discret, une condition nécessaire et suffisante pour l’indépendance de deux
variables aléatoires X et Y est :
∀ xi ∈X(Ω) et ∀ yj ∈Y(Ω), P(X=xi et Y=yj) = P(X=xi)P(Y=yj)

Cette égalité des probabilités entraine celle des fonctions de répartition :


FX ,Y ( x, y ) = ∑∑ P( X = x, Y = y ) = ∑∑ P( X = x) P(Y = y )
X ≤xY ≤ y X ≤xY ≤ y

= ∑ P( X = x)∑ P(Y = y ) = F
X ≤x Y≤y
X ( x) FY ( y )

Dans l’exemple du couple discret (X,Y) précité, on a :


P(X = 0, Y = 1) = 0 ≠ P(X = 0)P(Y = 1) = (1/8)(4/8) = 1/16, les variables aléatoires X et Y
sont dépendantes.

Dans le cas continu, une condition nécessaire et suffisante pour l’indépendance de deux
variables aléatoires X et Y est : fX,Y(x,y) = fX(x)fY(y).

Nous avons l’équivalence suivante : FX,Y(x,y) = FX(x)FY(y) ⇔ fX,Y(x,y) = fX(x)fY(y).

La première implication peut être démontrée en dérivant deux fois les fonctions de répartition
par rapport à x et par rapport à y.
L’implication inverse peut être démontrée en intégrant doublement les fonctions densité.

Dans l’exemple du couple continu (X,Y) précité, on a :


2e − x e −2 y si x, y ∈ R +
f X ,Y ( x, y ) = 
 0 sinon

31
+∞ − x − 2 y
f X ( x) =  ∫
 2e e dy = e − x [−e − 2 y ] + ∞0 = e − x si x ≥ 0
0
 0 sinon

+∞ − x − 2 y
fY ( y) =  ∫
 2e e dx = 2e − y [−e − x ]0+ ∞ = 2e − 2 y si x ≥ 0
0
 0 sinon

Les variables aléatoires X et Y sont indépendantes.

Lois conditionnelles

Cas discret

Soit X une V A discrète et A un événement de probabilité non nulle. La loi de X sachant A ou


conditionnée par A est l’ensemble des couples (x ∈X( Ω), P(X = x/A)).

X/A x1 x2 … xj … xn
P(X/A) P(X=x1/A) P(X=x2/A) … P(X=xj/A) … P(X=xn/A)

Cas particulier : Si Y est une V A discrète, la loi de X sachant Y = y est l’ensemble des
couples (x ∈X( Ω), P(X = x/Y = y)).
P ( X = x, Y = y )
P( X = x / Y = y ) = , c’est le rapport de la probabilité conjointe et de la
P(Y = y )
probabilité marginale.

Reprenons l’exemple du couple discret et calculons la loi conditionnelle X/ Y = 2 :

X/Y = 2 0 1 2 3
P(X=xi/Y=2) 0 1/2 1/2 0

En effet : P(X = 0, Y = 2) = P(X=3, Y = 2) = 0 et P(Y = 2) = 2/8


P(X = 1, Y = 2) = P(X=2, Y = 2) = 1/8.

Il est également possible de définir une loi conjointe conditionnelle, si (X, Y) est un couple
discret et A un événement de probabilité non nulle, on a :

 P ( X = x, Y = y )
 si (x, y) ∈ A
p X ,Y / A ( x, y ) =  P ( A)
 0 sinon

Cas continu

Comme pour le cas discret, il est possible de définir une fonction densité conjointe
conditionnelle, si X et Y sont deux V A à densité et A un événement de probabilité non nulle :

32
 f X ,Y ( x, y )
 si (x, y) ∈ A
f X ,Y / A ( x, y ) =  P( A)
 0 sinon

Il est possible également de déterminer la densité conditionnelle de X sachant Y = y à


f X ,Y ( x, y )
condition que fY(y) ≠ 0 : f X / Y ( x / y ) =
f Y ( y)

Exemple

3x si 0 ≤ y ≤ x ≤ 1
Soit la densité conjointe de (X,Y) donnée par : f X ,Y ( x, y ) = 
 0 sinon
Calculer la densité conditionnelle de Y sachant X = x et la densité marginale de Y.

Pour cela, il faut calculer d’abord la densité marginale de X :

1
y=x
Le domaine de définition D de la fonction fX,Y est

x
f X ( x) = ∫
 3 xdy = 3 x 2 si 0 ≤ x ≤ 1 1 x
0
 0 sinon

La densité conditionnelle de Y sachant X = x est :
 f X ,Y ( x, y ) 1
 = si 0 ≤ y ≤ x ≤ 1
f Y / X ( y / x) =  f X ( x) x
 0
1 x2 1 3
La densité marginale de Y est : f Y ( y ) = ∫y
 3 xdx = [3 ] y = (1 − y 2 ) si 0 ≤ y ≤ 1
2 2
 0 sinon

Les V A X et Y sont dépendantes car fX,Y(x,y) ≠ fX(x)fY(y).

Loi de la somme de deux variables aléatoires

Cas discret

X et Y sont deux V A discrètes et soit Z = X + Y, calculons la densité de Z.


P(Z=z) = ∑ P ( X = x, Y = z − x) = ∑ P ( X = z − y, Y = y )
x∈X ( Ω ) y∈Y ( Ω )

33
Si les V A X et Y sont indépendantes alors :
P(Z=z) = ∑ P ( X = x) P (Y = z − x) = ∑ P ( X = z − y ) P (Y = y )
x∈X ( Ω ) y∈Y ( Ω )

Application : Calculer la loi de la somme de deux lois de Poisson indépendantes de


paramètres λ et μ.

e −λ z − x e − µ
+∞ z
λx µ z−x
P(Z=z) = ∑ λ µ
x
=e −λ − µ
∑ , car z-x = y ≥ 0
x =0 x! ( z − x)! x = 0 x! ( z − x)!

e −λ −µ z λx µ z − x e −λ −µ
P(Z=z) = ∑ z !
z! x = 0 x! ( z − x)!
=
z!
(λ + µ ) z

La somme de deux lois de Poisson indépendantes de paramètres λ et μ, est une loi de Poisson
de paramètre λ + μ.
Ce résultat peut être généralisé à la somme de n lois de Poisson indépendantes, de paramètres
λi, est une loi de Poisson de paramètre λ1 + λ2 + … + λn.

Cas continu
X et Y sont deux V A à densité et soit Z = X + Y, calculons la densité de Z.
FZ(z) = P(Z<z) = P(X+Y < z) = ∫∫ f X ,Y ( x, y )dxdy , avec Dx,y = {(x,y) ∈ R2 / x + y < z}
Dx , y
+∞ z − x
FZ(z) = ∫ ∫f
−∞ −∞
X ,Y ( x, y )dydx

u=x x=u
Faisons le changement de variables suivant : ⇔
v= x+ y y = v−u
(x,y) ∈ Dx,y ⇔ (u,v) ∈ Du,v avec Du,v = {(u,v) ∈R2 / v < z}
D ( x, y )
FZ(z) = ∫∫ f X ,Y ( x, y )dxdy = ∫∫ f X ,Y ( x(u , v), y (u , v)) dudv
Dx , y Du , v D(u , v)
∂x ∂x
D( x, y ) ∂u
= ∂v = 1 0 = 1
D(u, v) ∂y ∂y − 1 1
∂u ∂v
z +∞ z
FZ(z) = ∫ ∫f
−∞ -∞
X ,Y (u , v − u )dudv = ∫f
−∞
Z (v)dv , ce qui permet d’obtenir l’expression de la
+∞ +∞
densité de Z : f Z ( z ) = ∫f
−∞
X ,Y (u , z − u )du = ∫f
−∞
X ,Y ( x, z − x)dx , d’une manière analogue, il est
+∞
possible de montrer que f Z ( z ) = ∫f
−∞
X ,Y ( z − y, y )dy

Si en plus les V A X et Y sont indépendantes alors la densité de Z = X +Y, a pour expression :


+∞ +∞
f Z ( z) = ∫f
−∞
X ( x) f Y ( z − x)dx = ∫f
−∞
X ( z − y ) f Y ( y )dy .

34
Application : Calculer la loi de la somme de deux V A indépendantes, normales centrées
réduites :
x2 y2
1 − 1 −
f X ( x) = e 2
et f Y ( y ) = e 2

2π 2π
 
1
+∞

x2

( z − x )2
1  1
+∞

( x − z / 2)2

z2 
2π −∫∞ ∫
f Z ( z) = e e 2
dx = 2
e  e 2*1 / 2 2*2
d ( x ) 
2 2π  1 2π −∞ 
 2 
x 2 ( z − x) 2 z2
Cette égalité est vérifiée car − − = − − ( x − z / 2) 2
2 2 4
1
Le terme entre crochets vaut 1 car c’est l’intégrale sur R de la densité d’une loi N(z/2, ) et
2
la loi Z est une loi normale N(0, 2)

Loi du produit de deux variables aléatoires à densité

X et Y sont deux V A à densité et soit Z = XY, calculons la densité de Z.


FZ(z) = P(Z<z) = P(XY < z) = ∫∫ f X ,Y ( x, y )dxdy , avec Dx,y = {(x,y) ∈ R2 / xy < z}
Dx , y

x=u u=x
Faisons le changement de variables suivant : v ⇔
v = xy y=
u
2
(x,y) ∈ Dx,y ⇔ (u,v) ∈ Du,v avec Du,v = {(u,v) ∈R / v < z}
D ( x, y )
FZ(z) = ∫∫ f X ,Y ( x, y )dxdy = ∫∫ f X ,Y ( x(u , v), y (u , v)) dudv
Dx , y Du , v D(u , v)
∂x ∂x
D( x, y ) ∂u 1 0 1
= ∂v = v 1 =
D(u, v) ∂y ∂y − 2 u
u u
∂u ∂v
z +∞ z
v dudv
FZ(z) = ∫ ∫ f X ,Y (u, ) = ∫ f Z (v)dv , ce qui permet d’obtenir l’expression de la densité
−∞ -∞
u u −∞
+∞ +∞
z du z dx
de Z : f Z ( z ) = ∫−∞ f X ,Y (u, u ) u = −∫∞ f X ,Y ( x, x ) x , d’une manière analogue, il est possible de
+∞
z dy
montrer que f Z ( z ) =
−∞
∫f
( , y)
y
X ,Y
y
Si en plus les V A X et Y sont indépendantes alors la densité de Z = XY, a pour expression :
+∞ +∞
z dx z dy
f Z ( z ) = ∫ f X ( x) f Y ( ) = ∫ f X ( ) f Y ( y) .
−∞
x x −∞ y y
Application : Calculer la loi du produit de deux V A indépendantes, uniformes sur [-1 , 1] :
1 1
 si - 1 ≤ x ≤ 1  si - 1 ≤ y ≤ 1
f X (x) =  2 et f Y ( y ) =  2
 0 sinon  0 sinon
x ∈[-1 , 1] et y ∈[-1 , 1] alors z = xy ∈[-1 , 1]

35
+1
z dx z z
f Z ( z) = ∫f
−1
X ( x) f Y ( )
x x
et f Y ( ) ≠ 0 ⇔ −1 ≤ ≤ 1 ⇔ z ≤ x
x x
−z 1
dx dx 1
Si z ≥ 0 alors f Z ( z ) = ∫ − +∫ = − log( z )
−1
4x z 4x 2
1
1
z
dx dx
Si z ≤ 0 alors f Z ( z ) = ∫ − +∫ = − log(− z )
−1
4x −z 4x 2
 1
− log( z ) si - 1 ≤ z ≤ 1
Finalement f Z ( z ) =  2
 0 sinon
1
Il est possible de vérifier que ∫f
−1
Z ( z )dz = 1 , en effet :
z
d
z

z
d
z

d
z
1 1
1 1

2 −∫1
− log( = − ∫ log( ) = −[ log( )]10 + ∫ =1
0
0

Loi du rapport de deux variables aléatoires à densité

X
X et Y sont deux V A à densité et soit Z = , calculons la densité de Z.
Y
X x
FZ(z) = P(Z<z) = P(
Y
< z) = ∫∫ f X ,Y ( x, y )dxdy , avec Dx,y = {(x,y) ∈ R2 /
y
< z}
u v
xx y

Dx , y
x y
uu v

= =
Faisons le changement de variables suivant : = ⇔
=

(x,y) ∈ Dx,y ⇔ (u,v) ∈ Du,v avec Du,v = {(u,v) ∈R2 / v < z}


D ( x, y )
FZ(z) = ∫∫ f X ,Y ( x, y )dxdy = ∫∫ f X ,Y ( x(u , v), y (u , v)) dudv
Dx , y Du , v D(u , v)
x uy u

x vy v v

∂ ∂
DD
xu
yv

u
u

( , ) ∂ 1 0 −

v

= = 1 − = 2
v
v

( , ) ∂ ∂ 2
∂ ∂
uv
u
z

z
fX
u

d
u
d
v

fZ d
v
d

+∞

v fX

FZ(z) = ∫∫ ∫
Y

, ( , ) 2
= ( ) , ce qui permet d’obtenir l’expression de la
u
u

xz

−∞ -∞ −∞
fZ
z

fX

d
x

+∞ +∞
− −
z
z

densité de Z : ( )= ∫ ∫
Y

( , ) =
Y

, 2 , ( , ) 2
.
−∞ −∞
+∞
Il est possible de montrer que f Z ( z ) = ∫f X ,Y ( zy, y ) y dy , lorsque le changement de variables
x uy u

x vy v

−∞
u v
yx y

v
u
y x
u u

∂ ∂
DD
xu
yv

=
u

= ( , ) ∂ ∂
v

suivant est utilisé : ⇔ et = = =−


= = ( , ) ∂ ∂ 1 0
∂ ∂

36
X
Si en plus les V A X et Y sont indépendantes alors la densité de Z = , a pour expression :
Y

xz

x
fZ
z

fX
x
fY

d
x

fX
z
y
fY
y
y
d
y
+∞ +∞

z
( )= ∫
−∞
( ) ( ) 2
=
−∞
∫ ( ) ( ) .

Application : Calculer la loi du rapport de deux V A indépendantes, normales centrées


réduites :

x
fX
x

e
2
y2
1 − 1 −
( )= 2
et f Y ( y ) = e 2

2π 2π
x
x ∈ R et y ∈ R alors z = ∈ R
y
x

xz
x z

x z
x

x
fZ
z

e
e

d
x

e
e

d
x
2 2 2 2
+∞ +∞
1 − − − 1 − −
z

∫ ∫ , posons u = x2
2 2
( )= 2 2
= 2 2
2π −∞
2
π 0
2

+∞
 
dz
u
u

u
fZ
z

e
1 1
1
+∞
 1 − (1+ 2 )  1
z

− (1+ ) z

z

2
( )= 2
= − 2
 = , c’est la loi de Cauchy.
z

2π 2
1 π (1 + 2
)
z

0 π 2
(1 + 2 ) 
  0

Lois de probabilité déduites de la normale centrée réduite

La loi de khi deux χ 2


n

La loi de khi deux χ 2 est une VA positive qui dépend de l’entier n


n
n

Xi

χ2 = ∑ 2
n

, avec Xi → N(0, 1)
i

=1

Il est possible de démontrer par récurrence que la densité de la loi de χ 2 est :


n
n

x
x
e
f
x

−1 − +∞
2 2
( )= avec Γ( x) = ∫ t x −1e −t dt
n

2 2 Γ( / 2 ) 0
rs
sr
t

t
d
t

Γ( )Γ( )
s

+∞
r

On utilisera pour cela le fait que ∫


−1
(1 − ) −1 =
0
Γ( + )
Loi de Fisher Snedecor F(m,n)

C’est une V A positive qui dépend de deux entiers m et n :


X mY n
F
m
n

( )= , avec X → χ 2 et Y → χ 2
m

37
m
mn

m
n
m
z
−1  2  + 
2
  Γ 

f
z
   2 
La densité d’une loi Fisher Snedecor F(m,n) : ( )=

m
n
m

n
mn
z
+
     2
Γ Γ  + 1
 2   2  

La loi de Student

C’est une V A qui dépend de l’entier n,


Z Xn
Tn

= , Z → N(0, 1) et X → χ 2
n

Le domaine de variation de la loi de Student est l’ensemble des réels R, comme pour la loi
normale.

n
 +1
Γ 
f
t

1  2 
La densité d’une loi de Student T : ( ) =
n

n
n
tn
n +1
π
   2
2
Γ  + 1
 2  
Il est possible de procéder par deux manières pour établir ce résultat :
(1) une loi de Student est le rapport de deux variables aléatoires.
Tn

F
n

(2) considérer le fait que 2 = (1, ) ( le carré d’une loi de Student Tn est une loi de Fisher
Snedecor F(1,n)).

38
Exercices
Exercice 1
Soit K une V A qui suit une loi géométrique :
C (1 − p) k −1 , k = 1,2,...
P( K = k ) = 
 0 sinon
1) Déterminer C
2) Soit N ∈ N, calculer la probabilité pour que K soit supérieure strictement à N.
3) Sachant que la V A, K est plus grande que N, quelle est la probabilité (conditionnelle)
qu’elle soit plus grande que 2N ?
4) Quelle est la probabilité pour que K soit un multiple 3 ?

Exercice 2
La probabilité qu’une ampoule particulière claque durant le k-ième mois d’utilisation est
k −1
 1  4 
donnée par la loi : P(K= k) =    , k = 1,2,...
 5  5 
Quatre ampoules sont testées simultanément. Déterminer la probabilité que :
1) Aucune des quatre ampoules ne claque durant le premier mois d’utilisation.
2) Exactement 2 ampoules ont claqué à la fin du troisième mois.
3) Exactement une ampoule a claqué durant chacun des trois premiers mois.
4) Exactement une ampoule a claqué à la fin du second mois et exactement deux ampoules
fonctionnent encore au début du cinquième mois.

Exercice 3
On jette deux dés. Quelle est la probabilité pour que la somme des points donnés par la valeur
des dés soit i = 2, 3, …, 11, 12.

Exercice 4
Une urne contient trois boules rouges et sept boules noires. Les joueurs A et B tirent une
boule à tour de rôle jusqu’à ce qu’une rouge sorte et A commence le premier. Trouver la
probabilité pour que le joueur A tire la première boule rouge, les boules tirées ne sont pas
remises.

Exercice 5
On admet que 5% des hommes et 0,25% des femmes sont daltoniens. On sélectionne une
personne daltonienne au hasard. Quelle est la probabilité qu’il s’agisse d’un homme ? On
admettra que les hommes sont aussi nombreux que les femmes. Si au contraire il y en avait
deux fois plus que de femmes, que deviendrait le résultat ?

Exercice 6
Le nombre de clients d’un bureau de poste en l’espace d’une journée est une variable aléatoire
poissonienne de paramètre λ. La probabilité qu’un homme rentre dans le bureau est p.
Montrer que le nombre des hommes et celui des femmes parmi les clients quotidiens sont des
variables aléatoires poissoniènnes de paramètres respectifs λp et λ(1-p) et qu’elles sont
indépendantes.

39
Exercice 7
Soient X et Y deux variables aléatoires indépendantes de fonctions de répartition FX et FY,
calculer la fonction de répartition des variables aléatoires Min(X,Y) et Max(X,Y).
 1 1
Application à X uniforme sur − ,  et Y uniforme sur [-1,1]
 2 2

Exercice 8
Soit la fonction densité conjointe de X et Y donnée par :
fX,Y(x,y) = c(y2-x2)e-y pour –y ≤ x ≤ y et 0 ≤ y ≤ + ∞
Calculer c et les densités marginales de X et de Y

Exercice 9
Les moteurs d’un avion ont une probabilité de 1-p de défaillance en cours du vol, et ce
indépendamment les uns des autres. Un avion a besoin d’une majorité de ses moteurs
(supérieur ou égale à la moitié) pour pouvoir terminer son vol. Pour quelles valeurs de p un
avion à quatre (respectivement cinq) moteurs est-il préférable à un bimoteur (respectivement
trimoteur) ?

40
3. Les Moments d’une loi de probabilité
Les moments sont des caractéristiques numériques des variables aléatoires.

Espérance mathématique

L’espérance mathématique d’ V A est aussi désignée par le moment d’ordre 1 de la variable.


Pour une variable discrète X, elle est égale à : E ( x) = ∑ xi P( X = xi ) , cela suppose
xi ∈ X ( Ω )

évidemment l’existence de cette somme surtout pour une variable discrète infinie.

Pour une variable à densité X, elle est égale à : E ( X ) = ∫ xf X ( x)dx , cela suppose évidemment
R
l’existence de l’intégrale.

Proposition 1
Soit Y une variable aléatoire à densité, pour laquelle l’espérance existe alors :
+∞ +∞
E (Y ) = ∫ P(Y > y )dy − ∫ P(Y < − y)dy
0 0

Démonstration :
+∞ +∞ +∞ +∞

∫ P(Y > y )dy − ∫ P(Y < − y )dy = ∫ (1 − F


0 0 0
Y ( y ))dy − ∫ FY (− y )dy
0
+∞ +∞
( y ))dy = [ y (1 − FY ( y )]0 +
+∞
∫ (1 − F
0
Y ∫ yf
0
Y ( y )dy

+∞ +∞
y (1 − FY ( y )) = y ∫ f (t )dt < ∫ tf (t )dt  → 0 car E(Y) existe
y → +∞
y y
+∞ +∞
(− y )dy = [ yFY (− y )]
+∞
∫F
0
Y 0 + ∫ yf
0
Y (− y )dy , posons y = -s :

+∞ −∞

∫ yf Y (− y )dy =
0
∫ sf
0
Y ( s )ds

s s
yFy (− y ) = − sFY ( s ) = s FY ( s ) = s
−∞
∫f Y (t )dt < − ∫ tf Y (t )dt s
−∞
→ 0 car E(Y) existe
→ −∞

+∞ +∞ +∞ −∞
Donc ∫ P(Y > y )dy − ∫ P(Y < − y )dy = ∫ yf
0 0 0
Y ( y )dy − ∫ sf Y ( s )ds = E (Y )
0
+∞
La proposition 1 peut s’écrire également dans le cas discret : E (Y ) = ∑ P(Y > i ) , en effet :
i=0
P(Y > 0) = P(Y = 1) + P(Y = 2) + … + P(Y = n) + …
P(Y > 1) = + P(Y = 2) + … + P(Y = n) + …

P(Y > n-1) = P(Y = n) + …

En sommant ces lignes, on trouve :

41
P(Y>0) + P(Y>1) + .... + P(Y>n-1) + .. = P(Y=1) + 2P(Y=2) + ..... + nP(Y=n) + .... = E(Y)

Proposition 2
Soit g une fonction réelle et X une V A discrète, alors : E ( g ( X )) = ∑ g ( xi ) P( X = xi )
i

Si X est une V A continue de densité fX alors : E ( g ( X )) = ∫ g ( x) f X ( x)dx


R
Démonstration :
Commençons par le cas discret et considérons deux V A discrètes X et Y avec Y = g(X) :
P(Y = y j ) = ∑ P ( X = xi ), I j = {i ∈ N / g ( xi ) = y j }et I = {i ∈ N/x i ∈ X (Ω)}
i∈I j

E (Y ) = ∑ y j P(Y = y j ) = ∑ y j ∑ P( X = xi ) = ∑∑ y j P( X = xi )
j j i∈I j j i∈I j

E (Y ) = ∑ g ( xi ) P( X = xi ) , les ensembles Ij constituent une partition de l’ensemble I.


i
Si X et Y sont deux V A à densité avec g(X) = Y :
+∞ +∞ +∞

∫ P(Y > y )dy =


0
∫ P( g ( X ) > y)dy =
0
∫ ∫f X
0 x: g ( x ) > y
( x)dxdy , par application du théorème de Fubini

+∞ g (x)

on a : ∫ P(Y > y )dy = ∫ ∫ f


0 x: g ( x ) > 0 0
X ( x)dydx = ∫ g ( x) f
x: g ( x ) > 0
X ( x)dx

+∞ +∞ +∞

∫ P(Y < − y)dy =


0
∫ P( g ( X ) < − y )dy =
0
∫ ∫f X
0 x: g ( x ) < − y
( x)dxdy , posons s = -y
fX s
x
d
x
d
s

fX s
x
d
x
d
s

fX
x
d
s
d
x

g
x
fX
x
d
x
−∞ 0 0
− ∫ ∫ ( ) = ∫ ∫ ( ) = ∫ ∫ ( ) =− ∫ ( ) ( )
x
g
x

x
g
x

x
g
x

g
x

x
g
x

0 : ( )< −∞ : ( )< : ( )< 0 ( ) : ( )< 0


+∞ +∞
Finalement ∫ P(Y > y )dy − ∫ P(Y < − y )dy = E (Y ) = E (g ( X ))
0 0

Cas particulier : g(X) = aX + b, a, b deux réels

Dans le cas discret : E (aX + b) = ∑ (axi + b) P( X = xi ) = aE ( X ) + b


i

Dans le cas continu : E (aX + b) = ∫ (ax + b) f X ( x)dx = aE ( X ) + b


R
Remarques :

(1) L’intérêt de la proposition 2 réside dans le fait que l’espérance de g(X) peut être calculée à
partir des caractéristiques de X (on peut se passer du calcul de la densité de g(X) ou de la loi
de g(X)).

(2) E(g(X)) est en général différent de g(E(X)), en effet :


Exemple : g(X) = 1/X

X 1 2
P(X) 1/2 1/2

42
1/X 1 1/2
P(g(X)) 1/2 1/2
E(X) = 1*1/2 + 2*1/2 = 3/2 et E(g(X)) = 1*1/2 + 1/2*1/2 = 3/4
g(E(x)) = 2/3 ≠ 3/4

Espérance d’une combinaison linéaire de variables aléatoires

X et Y sont deux V A, et α, β sont deux réels, on se propose de calculer E(αX + βY).

Si X et Y sont des variables discrètes alors :


E (αX + β Y ) = ∑∑ (αxi + β y j ) P( X = xi , Y = y j )
i j

= ∑∑ αxi P( X = xi , Y = y j ) + ∑∑ β y j P( X = xi , Y = y j )
i j j i

= ∑ αx i p i . + ∑ β y j p. j
i j

= αE(X) + β E(Y)

Si X et Y sont des variables à densité alors :


E (αX + βY ) = ∫∫ (αx + β y ) f X ,Y ( x, y )dxdy
R× R

= ∫∫ αxf X ,Y ( x, y )dydx + ∫∫ αyf X ,Y ( x, y )dxdy


R× R R× R

= ∫ αxf X ( x)dx + ∫ βyf Y( y )dy


R R

= αE(X) + βE(Y)

Une caractéristique des variables aléatoires indépendantes

X et Y deux V A indépendantes et f et g sont deux fonctions réelles, on se propose de calculer


E(f(X)g(Y)) :
Si X et Y sont des variables à densité alors :
E ( f ( X ) g (Y )) = ∫∫ f ( x) g ( y ) f X ,Y ( x, y )dxdy , les variables X et Y sont indépendantes, ce qui
R× R
implique que la densité conjointe est égale au produit des densités marginales :
E ( f ( X ) g (Y )) = ∫∫ f ( x) g ( y ) f X ( x) f Y ( y )dxdy = ∫ f ( x) f X ( x)dx ∫ g ( y ) f Y ( y )dy = E ( f ( X )) E ( g (Y ))
R× R R R
Si X et Y sont des variables discrètes alors :
E ( f ( X ) g (Y )) = ∑∑ f ( xi ) g ( y j ) P( X = xi , Y = y j ) , l’hypothèse d’indépendance des deux
i j

variables aléatoires entraine que :


E ( f ( X ) g (Y )) = ∑∑ f ( xi ) g ( y j ) P( X = xi ) P(Y = y j ) = ∑ f ( xi ) P( X = xi )∑ g ( y j )P (Y = y j )
i j i j

= E(f(X))E(g(Y))

Dans le cas particulier où les fonctions f et g sont la fonction identité, on a :


E(XY) = E(X)E(Y)

Moments d’ordre n

Définition
Le moment d’ordre n de la V A discrète X, de loi de probabilité P(X = x) est défini par :

43
E ( X n ) = ∑ xin P( X = xi ) , sous réserve de l’existence de cette quantité.
i
Le moment d’ordre n de la V A continue X, de densité fX, est défini par :
E ( X n ) = ∫ x n f X ( x)dx , sous réserve de l’existence de cette quantité.
R

Définition
Le moment centré d’ordre n d’une V A, est défini par : E[(X – E(X))n]

Variance : C’est le moment centré d’ordre 2


Var(X) = E[(X – E(X))2] = E[X2 – 2XE[X] + E(X)2] = E[X2] - E(X)2
En effet : si a, b ∈ R et X, Y deux V A, alors :
E(aX + b) = aE(X) + b et E(X + Y) = E(X) + E(Y)

Var(X) est une caractéristique numérique de la V A, qui est positive par construction.
On désigne par σ(X) l’écart-type de X tel que : σ ( X ) = var( X ) .

Propriétés

(1) L’espérance mathématique E(X) minimise la fonction Φ : x a E[(X-x)2]


Φ(x) = x2 - 2xE(X) + E(X2)
Φ’(E(X)) = 0 et Φ’’(x) = 2 > 0
Le minimum est atteint à x = E(X) et sa valeur = Var(X)

(2) La variance est un opérateur non linéaire : var(aX + b) = a2var(X)


E(aX + b) = aE(X) + b
Var(aX + b) = E[(a(X+b) – aE(X) – b)2 = a2E[(X – E(X))2]

(3) La variance est un indicateur de dispersion, plus l’écart entre les valeurs est grand plus la
variance est grande, en effet, considérons les trois variables aléatoires Y, Z et W :

Y -1 1 Z -100 100 W 0
P(Y) 1/2 1/2 P(Z) 1/2 1/2 P(W) 1

E(Y) = E(Z) = E(W) = 0


E(Y2) = 1/2 + 1/2 = 1, ce qui entraine que var(Y) = 1
E(Z2) = 10000*1/2 + 10000*1/2 = 10000, ce qui entraine que var(Y) = 10000
E(W2) = 0, ce qui entraine que var(W) = 0
On remarque que var(W) < var(Y) < var(Z) , la variance croit avec l’écart entre les valeurs
de la variable
Var(Z) peut être calculée à partir de la relation Z = 100Y, ce qui entraine que :
var(Z) = 10000var(Y)

Moments des lois usuelles

Loi normale N(µ, σ)


+∞ ( x−µ )2 +∞ ( x−µ )2 +∞ ( x− µ )2
1 − 1 − 1 −

∫ xe ∫ ( x − µ )e ∫ µe
2 2
2σ 2
E( X ) = 2σ
dx = 2σ
dx + dx
2π σ −∞ 2π σ −∞ 2π σ −∞

44
x−µ
Posons u = ⇒ σdu = dx
σ
+∞
σ  −2 
+∞ u2 2
σ
u

E( X ) =

∫ ue 2
dx + µ = − e  + µ = µ
2π 
−∞  −∞

+∞ ( x−µ )2
x−µ
[ ] 1 −
Var ( X ) = E ( X − E ( X )) 2 = ∫ (x − µ)
2
e 2σ 2
dx , posons u = ⇒ σdu = dx
2π σ −∞
σ
+∞
u2  
2
+∞ +∞ u2
σ2 σ2 σ2
u
− − −
∫u ∫e
2
Var ( X ) = e 2
du =  − ue 2
 + 2
du = σ 2
2π −∞ 2π   − ∞ 2π −∞

Loi uniforme U(a, b)

b
b
x  x2  b2 − a2 b + a
E( X ) = ∫ dx =   = =
a
b−a  2(b − a )  a 2(b − a ) 2
b
x2
b
 x3  b 3 − a 3 b 2 + ab + a 2
E( X ) = ∫
2
dx =   = =
a
b−a  3(b − a )  a 3(b − a ) 3
b 2 + ab + a 2 (b + a ) 2 (b − a ) 2
Var ( X ) = E ( X 2 ) − E ( X ) 2 = − =
3 4 12

Loi exponentielle E(λ)

+∞ +∞ +∞
 e − λx 
E ( X ) = ∫ λxe − λx
dx = − xe [ 0]
− λx + ∞
+ ∫e − λx
dx = −  =
1
0 0  λ 0 λ
+∞ +∞
2
E ( X ) = ∫ λx e
2 2 − λx
dx = − x e [ 2 − λx + ∞
0 ] + ∫ 2 xe −λx dx =
λ2
0 0

1
Var(X) = E(X2) – E(X)2 =
λ2

Loi de Cauchy

1
La loi de Cauchy ayant pour densité la fonction f ( x) = n’admet aucun moment car
π (1 + x 2 )
+∞
x
l’intégrale ∫ π (1 + x
−∞
2
)
dx diverge.

Loi de Bernoulli B(p)

X 0 1
P(X) 1-p p

45
E(X) = 0*(1-p) + p*1 = p, E(X2) = 0*(1-p) + p*1 = p
Var(X) = E(X2) – E(X)2 = p – p2 = p(1-p).

Loi Binomiale B(n, p)

Si Y est une loi Binomiale B(n, p) alors elle peut être considérée comme la somme de n
variables indépendantes de Bernoulli B(p), Xi
n n
Y = ∑ X i ⇒ E (Y ) = E (∑ X i ) = np
i =1 i =1
n
Var (Y ) = var(∑ X i ) = np (1 − p )
i =1

Loi de Poisson P(λ)

+∞
λk +∞
λk −1 +∞
λi
E( X ) = ∑ k e −λ = λ ∑ e −λ =λ ∑ e −λ = λ
k =0 k! k =1 ( k − 1)! i =0 i!
+∞
λ K +∞
λ k −1 +∞
λi  +∞ λi +∞ λi 
E( X 2 ) = ∑ k 2 e −λ = λ ∑ k e −λ = λ ∑ (i + 1) e −λ = λe −λ  ∑ i + ∑ 
k!
k =0 k =1 (k − 1)! i =0 i!  i = 0 i! i =0 i! 
E(X2) = λ2 + λ et var(X) = E(X2) – E(X)2 = λ

Covariance

Définition
Soient X et Y deux variables aléatoires, la covariance de X et Y notée Cov(X, Y) est définie
par : cov(X, Y) = E[(X- E(X))(Y- E(Y))] = E(XY) – E(X)E(Y)

Remarques
(1) La covariance est symétrique : Cov(X, Y) = Cov(Y, X)
(2) Cov(X, X) = Var(X)
(3) Cov(aX + b, Y) = aCov(X, Y)
(4) La covariance de deux variables indépendantes est nulle, car dans ce cas
E(XY) = E(X)E(Y), mais la réciproque est fausse, en effet, considérons le couple (X,Y)
discret dont la loi est la suivante :

X 0 1 2 pi .
Y
0 0 1/2 0 1/2
1 1/4 0 1/4 1/2
p.j 1/4 1/2 1/4

Calculons la loi de Z = XY :
Z(Ω) = {0, 1, 2}
Z=0 ≡ X=0 ou Y=0, donc P(Z=0) = P(X=0) + P(Y=0) – P(X=0, Y=0) = 1/4 + 1/2 = 3/4
P(Z=1) = P(X=1,Y=1) = 0
P(Z=2) = P(X=2,Y=1) = 1/4
Z 0 1 2
La loi de Z est donc la suivante : P(Z) 3/4 0 1/4

46
Les variables X et Y sont dépendantes car P(X=0,Y=0) = 0 ≠ P(X=0)P(Y=0) = 1/8
E(XY) = E(Z) = 0*3/4 +1*0 + 2*1/4 = 1/2
E(X) = 0*1/4 + 1*1/2 + 2*1/4 = 1
E(Y) = 0*1/2 + 1*1/2 = 1/2
Cov(X,Y) = E(XY) – E(X)E(Y) = 1/2 – 1/2 = 0.

Variance d’une somme de variables aléatoires

Soient X et Y deux variables aléatoires : Var ( X + Y) = Var(X) + Var(Y) + 2Cov(X, Y)


En effet :
Var(X + Y) = E[(X + Y)2] – [E(X + Y)]2
E[(X + Y)2] = E(X2 + 2XY + Y2) = E(X2) + 2E(XY) + E(Y2) (1)
[E(X + Y)]2 = [E(X) + E(Y)]2 = E(X)2 + 2E(X)E(Y) + E(Y)2 (2)
(1) – (2) = Var(X) + Var(Y) + 2Cov(X, Y)

La variance de la somme de Xi i = 1, … ,n V A :
 n  n
var ∑ X i  = ∑ var( X i ) + 2 ∑ cov( X i , X j )
 i =1  i =1 1≤i < j ≤ n

La corrélation linéaire

Le coefficient de corrélation linéaire de deux V A X et Y, est définie par :


cov( X , Y )
ρ ( X ,Y ) = si var(X)var(Y) ≠ 0
var( X ) var(Y )
Lorsque ρ(X, Y) = 0, les V A X et Y sont dits non corrélées.
Remarque : Deux V A indépendantes sont nécessairement non corrélées.

Proposition

X et Y étant deux V A de variances non nulles, leur coefficient de corrélation est toujours de
module inférieur à 1 :
(1) − 1 ≤ ρ ( X , Y ) ≤ 1
(2) ρ(X, Y) = ±1 ⇔ Y = aX + b avec a, b ∈ R

Démonstration

(1) ∀ λ ∈ R, Var(X + λY) ≥ 0


Or Var(X + λY) = Var(X) +2λCov(X, Y) + λ2Var(Y) ≥ 0
Le discriminent de cette équation de second degré est négatif ou nul :
∆’ = Cov(X, Y)2 – Var(X)Var(Y)
X
Y
X

X
Y

 cov( , ) 2 
X

∆' = var( ) var( ) − 1 = var( ) var( )( ρ 2 ( , ) − 1)


 var( ) var( ) 
∆’ ≤ 0 ⇔ ρ(X, Y)2 – 1 ≤ 0 ⇔ -1 ≤ ρ(X, Y) ≤ 1

(2) supposons que Y = aX + b, a et b deux réelles,


Cov(X, Y) = Cov(X, aX + b) = aVar(X)
Var(Y) = Var(aX + b) = a2Var(X)

47
cov( X , Y ) 2 a 2 var( X ) 2
ρ ( X ,Y )2 = = 2 =1
var( X ) var(Y ) a var( X ) 2
Soit que ρ(X, Y) = ±1

Supposons que ρ(X, Y) = ±1 alors ∆’ = 0


∆’ = 0 ⇒ ∃ λ0 ∈ R, tel que Var(X + λ0Y) = 0
⇒ X + λ0Y = cst
⇒ Y = aX + b

Espérance conditionnelle

X et Y sont deux V A, considérons X/Y, la distribution de X sachant Y=y.

Si X et Y sont deux V A discrètes alors la loi conditionnelle est définie par :


P( X = X , Y = y )
P( X = x / Y = y) =
P (Y = y )
On définit l’espérance conditionnelle par : E(X/Y=y) = ∑ xP( X = x / Y = y ) , sous réserve
x∈X ( Ω )

de l’existence de cette somme.

Si X et Y sont deux V A à densité alors la loi conditionnelle est définie par :


f X ,Y ( x, y )
f X / Y ( x / y) =
f Y ( y)
On définit l’espérance conditionnelle par : E(X/Y=y) = ∫ xf X / Y ( x / y )dx , sous réserve de
R
l’existence de cette intégrale.

Remarque : L’espérance conditionnelle de la distribution de X/Y est une fonction de y

Théorème : Calcul de l’espérance par conditionnement


X et Y étant deux V A alors : E(X) = E(E(X/Y=y)) = EY(EX(X/Y=y))

Démonstration
X et Y deux V A à densité :
E X ( X ) = ∫ xf X ( x)dx = ∫ ∫ xf X ,Y ( x, y )dydx = ∫ ∫ xf X / Y ( x / y ) f Y ( y )dxdy
R R R R R

= ∫ E X ( X / Y = y ) f Y ( y )dy = EY ( E X ( X / Y = y ))
R
X et Y sont deux V A discrètes :
E X ( X ) = ∑ xP( X = x) = ∑∑ xP( X = x, Y = y ) = ∑∑ xP( X = x / Y = y ) P(Y = y )
x x y x y

= ∑ E X (X/Y = y)P(Y = y) = EY ( E X ( X / Y = y ))
y

Variance conditionnelle

Définition : Var(X/Y=Y) = E((X – E(X/Y))2/Y = y) = E(X2/Y=y) – E(X/Y=y)2

48
La variance conditionnelle se définit comme le moment d’ordre 2 de la distribution
conditionnelle X/Y=y

Proposition
X, Y étant deux V A et g une fonction réelle, la variance conditionnelle de Y sachant X
minimise : E[(Y – g(X))2/X=x].

Démonstration
E[(Y – g(X))2/X=x] = E[(Y – E(Y/X=x) + E(Y/X=x) – g(X))2/X=x]
= E[(Y – E(Y/X))2/X=x] + 2E[(Y – E(Y/X))(E(Y/X) – g(X))/X=x] +
E[(E(Y/X) – g(X))2/X]
E(Y/X) – g(X) ne dépend que x, c’est donc une constante par rapport à la variable Y, il s’en
suit alors que : E[(Y – E(Y/X ))(E(Y/X) – g(X))/ X] = (E(Y/X) – g(X))E[(Y – E(Y/X))/X] = 0
Finalement, nous obtenons l’égalité suivante :
E[(Y – g(X))2/X] = E[(Y – E(Y/X))2/X] + E[(E(Y/X) – g(X))2/X]
Le minimum de E[(Y – g(X))2/X] est égale à E[(Y – E(Y/X))2/X], il est atteint si
g(X) = E(Y/X)

Théorème
Soit X et Y deux variables aléatoires, alors : VarX(X) = EY[VarX(X/Y)] + VarY(EX[X/Y]).

Démonstration
EY[VarX(X/Y)] = EY[EX[X2/Y] - EX[X/Y]2]
= EY[EX[X2/Y]] – EY[EX[X/Y]2]
= EX[X2] - EY[EX[X/Y]2]
De même : VarY(EX[X/Y]) = EY[EX[X/Y]2] - EY[EX[X/Y]]2
= EY[EX[X/Y]2] - EX[X]2
L’addition des deux égalités permet de trouver le résultat.

L’intérêt de ce théorème est la possibilité de calculer Var(X) à partir de quantités


conditionnelles qui peuvent être connues.

Somme d’un nombre aléatoire de variables indépendantes et identiquement distribuées


(iid)

On considère la V A S, qui est la somme d’un nombre aléatoire de V A Xi, i = 1, …, n.


S = X1 + …. + Xn, les variables Xi sont indépendantes et suivent la même loi, elles sont donc
identiquement distribuées. On se propose de calculer l’espérance et la variance de S.
Cette situation est fréquemment rencontrée en assurance si les variables Xi désignent les
montants des dommages causés par les sinistres survenus dans une période de temps donnée.
S est alors le montant total de tous les sinistres. L’hypothèse supposée est que tous les
sinistres sont indépendants et suivent la même loi de probabilité. Le nombre des sinistres
survenus durant la période de temps donnée est une variable aléatoire.
n
E
S
N
n
E

Xi

n
E
X

 
( / = )= ∑ = ( )
i

 =1 
E
S

E
E
S
N

E
N
E
S

E
N
E
S

( )= ( ( / )) = ( ( )) = ( ) ( )

Var(S/N=n) = nvar(X) et E(var(S/N)) = E(Nvar(X)) = E(N)var(X)

49
E(S/N=n) = nE(X) et var(E(S/N)) = var(NE(X)) = E(X)2var(N)

Donc var(S) = E(N)var(X) + E(X)2var(N)

Usage de la table de la fonction de répartition de la loi normale centrée réduite

Connaissant l’abscisse u, la table permet de donner F(u) = P(U<u) si u est positif, par exemple
si u=1,53 alors F(u) se lit sur l’intersection de la ligne 1,5 et la colonne 0,03 et qui correspond
à la valeur de 0,937

Connaissant une probabilité donnée comprise entre 0,5 et 1, il est possible de déterminer
l’abscisse u de la fonction de répartition.

Calculons par exemple u tel que F(u) = 0,3, dans ce cas u est négatif et P(U<-u) = 0,7, la
valeur de -u peut être lue directement sur la table : 0,52 ≤ -u ≤ 0,53
Pour estimer une valeur de –u, on peut faire une interpolation linéaire qui consiste à
considérer qu’il existe une relation linéaire entre p et –u, cela revient à résoudre le système
0,52 = a 0,6985 + b
suivant : 
0,53 = a 0,7019 + b
0,52 1
0,53 1 0,52 − 0,53 − 0,01
a= = = = 2,9411
0,6985 1 0,6985 − 0,7019 − 0,0034
0,7019 1
0,6985 0,52
0,7019 0,53 0,53 * 0,6985 − 0,52 * 0,7019 0,0052
b= = = = −1,5344
0,6985 1 0,6985 − 0,7019 − 0,0034
0,7019 1
Après avoir déterminé a et b, on a : -u = 0,7a+b → -u = 0,5243, soit que u = -0,5243

Soit X →N(m,σ), on cherche x tel que P(X<x) = 0,83


X −m x−m X −m
X <x⇔ < avec → N (0,1)
σ σ σ
x−m
La table nous indique que : 0,95 < < 0,96 , on peut faire une interpolation linéaire pour
σ
x−m
estimer une valeur de , pour cela, le système suivant doit être résolu :
σ
0,95 = a 0,8289 + b

0,96 = a 0,8315 + b

x−m
Après avoir déterminé a et b, on a = a 0,83 + b = 0,9542 → x = 0,9542σ + m
σ

Le tableur Excel peut être utilisé pour obtenir la probabilité p d’une loi normale centrée
réduite, connaissant l’abscisse u : =LOI.NORMALE.STANDARD(u)
A l’inverse, connaissant p, il est possible de déterminer l’abscisse u :
=LOI.NORMALE.STANDARD.INVERSE(p)

50
Table de la fonction de répartition de la loi normale centrée réduite

51
Exercices
Exercice 1
Une paire de dé à quatre faces (1,2,3,4) est lancée une seule fois. X est la variable aléatoire
discrète représentant le produit des faces inférieures des dés. Déterminer la variance
conditionnelle de X2 sachant que la somme des faces est plus grande que leur produit.

Exercice 2
Les variables aléatoires X et Y sont décrites par leur densité conjointe :
 K si x + y ≤ 1, x > 0, y > 0
f X ,Y ( x, y ) = 
 0 sinon
1) X et Y sont-elles indépendantes ?
2) X et Y sont-elles conditionnellement indépendantes sachant que max(X,Y) ≤ 0.5 ?
3) Soit R = XY, calculer E(R).
4) Si A et B sont les événements ‘‘2(Y-X) ≥ Y + X’’ et ‘‘Y ≥ 3/4’’, calculer P(A), P(B),
P( A B), P( A B ). Déterminer et faire le digramme de la densité conditionnelle
f X / AB ( x / A B ) .

Exercice 3
Les variables aléatoires X et Y ont la densité conjointe :
 Ax si 1 ≤ x ≤ y ≤ 2
f X ,Y ( x, y ) = 
 0 sinon
1) Calculer A
2) Calculer la fonction densité de probabilité de Y : fY(y)
1 3
3) Quelle est E  / Y =  ?
X 2
4) Quelle est fZ(z), la densité de probabilité de la variable aléatoire Z = X – Y ?

Exercice 4
Un ensemble a un cardinal de n éléments. On choisit de façon aléatoire et équiprobable un
sous-ensemble non vide. Soit X la variable aléatoire discrète, cardinal du sous-ensemble
choisi. Montrer que :
n
E( X ) = n −1
1
2− 
2
2n−2
n2 − n(n + 1)2 n − 2
Var ( X ) =
2n − 1
2
( )
n
Montrer que pour n→+∞, var(X) ≈ , comparer ce résultat avec la forme limite que prend
4
1
var(Y) pour P(Y = i) =
n
On démontrera ou on utilisera les égalités suivantes :
n n

∑ kC
k =1
k
n = n2 n −1
et ∑k
k =1
2
C nk = n(n + 1)2 n − 2

52
Exercice 5
Les variables aléatoires X et Y sont décrites par la densité conjointe :
1 si 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
f X ,Y ( x, y ) =  et la variable Z est définie par Z = XY.
 0 si non
Déterminer le second moment conditionnel de Z sachant que l’équation r2 + xr + y = 0 a des
racines réelles en r.

Exercice 6
Les variables aléatoires indépendantes X et Y sont décrites par leur densité marginale :
z2
1 −
f X ( z ) = f Y( z ) = e 2
avec z ∈ R

Y
Déterminer la loi de Q = , calculer E(Q) et Var(Q)
X

Exercice 7
Une pièce de monnaie a p pour probabilité de tomber sur face. On la lance indéfiniment.
Calculer l’espérance du nombre de jets qu’il faudra jusqu’à ce qu’une chaine de r résultats
consécutifs de type face apparaisse.

53
4. Les Transformées
Les transformées sont des opérateurs calculés au niveau des variables aléatoires. Elles
permettent d’établir des propriétés très intéressantes.

Pour une variable discrète X, on défini la transformée en z :


p
z
E
z

z
P
X
n
TX

n
+∞
( )= ( )=∑ ( = ) Cette définition a un sens au mois lorsque |z| ≤ 1.
n

=0
Pour une variable à densité X, on défini la transformée en s :
f XT ( s ) = E (e − sX ) = ∫ e − sx f X ( x)dx
R
On ne s’intéressera qu’aux cas où cette intégrale existe.

Propriétés relatives aux probabilités et aux moments

Cas de la transformée en z
p XT (1) = 1
1 d n p TX (0)
P ( X = n) = pour n ∈ N
n! dz n
dp T (1)
E( X ) = X
dz
2
 d 2 p TX (1) dp TX (1)   dp TX (1) 
Var ( X ) =  2
+ − 
 dz dz   dz 
d n p TX (1)
= E ( X ( X − 1)...( X − n + 1))
dz n

Cas de la transformée en s
f XT (0) = 1
df XT (0)
E( X ) = −
ds
2
d 2 f XT (0)  df XT (0) 
Var ( X ) = − 
ds 2  ds 
d n f XT (0)
n
= (−1) n E ( X n )
ds

Les démonstrations de toutes ces relations sont simples et abordables.


Ces propriétés nous montre que la connaissance de la transformée en z ou de la transformée
en s d’une variable aléatoire, permet de déterminer la loi de cette variable ainsi que ses
moments.

Transformées de lois discrètes :


X 0 1
Loi de Bernoulli B(p)
P(X) 1-p p

54
p TX ( z ) = z0P(X=0) + zP(X=1) = 1-p +pz
Loi de Poisson P(λ)

k
p
z

z
P
X
k

z
e

e
TX

z
+∞ +∞
λ

k
( )=∑ ( = )=∑ −λ
= λ ( −1)
k

k
=0 =0 !
Transformée en s de la loi normale N(μ, σ)
+∞ ( x− µ )2
1 −

∫e
− sx 2σ 2
f ( s) =
T
X e dx
2π σ
s
x
x

s
−∞

− 2σ 2 2
−2 µ + µ2 2
− 2 (µ − σ 2 ) + (µ − σ 2 ) 2 (µ − σ 2 ) 2 − µ 2
− = − +
2σ 2 2σ 2 2σ 2 x
- 2σ 2
μσ
s

s
( ( − σ)) 2 (µ − σ 2 ) 2 − µ 2
=- +
2 2 2σ 2

s
e
( µ − σ 2 )2 − µ 2
x

s
f
s

d
x

d
x
+∞ ( − ( µ − σ )) 2 ( µ − σ 2 )2 −µ 2 +∞ ( − ( µ − σ )) 2
TX

2σ 2
1 − −

∫ ∫
2 2
2σ 2
( )= 2σ 2σ
=
2π σ −∞ 2π σ −∞
2
+∞ ( x − ( µ − sσ ))
1 −

2π σ
∫e
−∞
2σ 2
dx = 1 , c’est l’intégrale de la densité de la loi N((μ-sσ),σ)

s 2σ 2 − 2 µs
f ( s) = e
T
X , ayant calculé la transformée en s, il est possible de déduire facilement
2

l’espérance et la variance de la loi normale, par les formules :


2
df T (0) d 2 f XT (0)  df XT (0) 
E( X ) = − X et Var ( X ) = − 
ds ds 2  ds 

Propriétés de la transformée en s

f : R+ → R
Soit f la fonction définie par :
tat
Calculons la transformée en s de la fonction f :
+∞ +∞ − st +∞
 te − st  e 1
f ( s ) = ∫ te dt = −
T
 +∫
− st
dt = 2
0  s 0 0
s s

f : R+ → R
On considère la fonction : tn
, n ∈ N* ta
n!
Il est possible de démontrer par récurrence que la transformée en s de la fonction f est :

1
f T ( s) =
s n+1
+
Soit f une fonction définie sur R , dont la transformée en s est Φ(f) :
+∞
Φ( f )( s ) = ∫ e − st f (t )dt
0

55
f

R
o τ : [− ,+∞[→

y
f
y
a
On définit la fonction :
y a f oτ a ( ) = ( + )
La transformée en s de la fonction fₒτa est :
+∞ +∞
Φ( f o τ a )( s ) = ∫ e − sy f o τ a ( y )dy = ∫ e − sy f ( y + a)dy
−a −a
Faisons le changement de variable : t = y+a

+∞
Φ( f o τ a )( s ) = ∫ e − st + sa f ( y )dy = e sa Φ ( f )( s )
0

Transformée en s de la somme de deux V A indépendantes

Proposition :
X et Y sont deux V A à densité et indépendantes, si Z est la V A telle que Z = X + Y, alors la
transformée en s de Z est égale au produit des transformées en s des V A, X et Y :
f ZT ( s ) = f XT ( s ) f YT ( s )
Démonstration :
f ZT ( s ) = E (e − sZ ) = E (e − s ( X +Y ) ) = ∫ ∫ e − s ( X +Y ) f X ,Y ( x, y )dxdy = ∫ ∫ e − sx f X ( x)e − sy fy ( y )dxdy = f XT ( s ) f YT ( s )
R R R R

Application :

Supposons que les V A, X et Y suivent une loi uniforme U[0,1] :


1 1
 e − st  1 − e −s
f ( s ) = f ( s ) = ∫ e dt = −
T
X Y
T − st
 =
0  s 0 s
2
 1 − e −s  1 − 2e − s + e − 2 s
Dans ce cas f ( s ) = 
T
 =
s2
Z
 s 
Connaissant la transformée en s de la variable Z, essayons de calculer la fonction densité de
probabilité fZ. Pour cela décomposons f ZT ( s ) en éléments dont on connait la réciproque de la
transformée en s.

f1 : R + → R
Si f1 est la fonction définie par :
tat
1
On a Φ( f 1 )( s ) = 2
s
f 2 : [1,+∞[→ R
Si f2 est la fonction définie par :
t a −2( t - 1)
−s
− 2e
On a Φ( f 2 )( s ) =
s2
f 3 : [2,+∞[→ R
Si f2 est la fonction définie par :
t a t-2
e −2 s
On a Φ( f 3 )( s ) = 2
s

56
La fonction densité de probabilité de Z a pour expression :
Si 0≤t<1, alors fZ(t) = f1(t) = t
Si 1≤t<2, alors fZ(t) = f1(t) + f2(t) = t -2t+2 = -t +2
Si 2≤t, alors fZ(t) = f1(t) + f2(t) + f3(t) = t -2t+2 +t-2 = 0

Ce résultat peut être retrouvé en utilisant le produit de convolution des V A, X et Y, en effet


1
on a : f Z ( z ) = ∫ f X( x) f Y ( z − x)dx , remarquons que z ∈[0,2] car (x,y) ∈ [0,1]2
0

0≤z-x≤1 ⇔ -z≤-x≤1-z ⇔ z-1≤x≤z


z
Si 0≤z≤1 alors f Z ( z ) = ∫ dx = z
0
1
Si 1≤z≤2 alors f Z ( z ) = ∫ dx = 1 − ( z − 1) = 2 − z
z −1

Somme d’un nombre aléatoire de V A indépendantes et identiquement distribuées (iid)

On considère la suite de V A indépendantes Xi, à densité et de même loi de probabilité. On


N
pose R = ∑ X i et N est une V A discrètes, R est la somme aléatoire de V A à densité.
i =1
Calcul de la densité de R

P( R < r ) = ∑ P ( R < r , N = n) = ∑ P ( R < r / N = n) P ( N = n )


n∈N * n∈N *

FR (r ) = ∑F
n∈N *
R/N ( r / n) P ( N = n)

f R (r ) = ∑f
n∈N *
R/N ( r / n) P ( N = n)

Calcul de la transformée en s de R
+∞ +∞ +∞

∫e ∫e ∑ f ∑ P ( N = n) ∫ e
− rs − rs − rs
f ( s) =
T
R f R (r )dr = R/N (r / n) P( N = n)dr = f R / N (r / n)dr
−∞ −∞ n∈N * n∈N * −∞

∑ P ( N = n) ( f )n
f RT ( s ) = T
X (s)
n∈N *

57
Exercices
Exercice 1
Soit Ui, i = 1,2,3 trois variables aléatoires indépendantes et uniformes sur [0, 1], calculer de
deux manières différentes, la densité de la variable aléatoire S = U1 + U2 + U3

Exercice 2
Toutes les parties de cet exercice requièrent des réponses numériques.
1) Si f YT ( s ) = K /(2 + s ) , calculer K et E(Y3)
2) Si p TX ( z ) = (1 + z 2 ) / 2 , calculer P(X = E(X)) et σX
3) Si f YT ( s ) = 2(2 − e − s / 2 − e − s ) / 3s , calculer E(e2X)
4) Si p TX ( z ) = A(1 + 3 z ) 3 , calculer P(X = 2) et E(X3)

Exercice 3
Déterminer si les expressions suivantes sont ou non des transformées en z valides pour une
variable aléatoire discrète qui ne peut prendre que des valeurs entières positives.
1) z2 + 2z – 2
2) 2 – z
3) (2 – z)-1

Exercice 4
Montrer qu’aucune des expressions suivantes ne constitue une transformée en s :
1) (1 – e-5s)/s
2) 7(4 + 3s)-1

Exercice 5
Soit L une variable aléatoire discrète dont les valeurs possibles sont positives. On donne :
14 + 5 z − 3z 2 
p TL ( z ) = K  
 8(2 − z ) 
Déterminer les valeurs de E(L), P(L = 1) et l’espérance conditionnelle de L sachant L ≠ 0.

Exercice 6
Des boites sont rangées dans des cartons, eux-mêmes rangés dans des caisses. Le poids en
grammes d’une boite est une variable aléatoire continue, de distribution :
f X ( x) = λe − λx , avec x ≥ 0
Le nombre de boites dans chaque carton, K, est une variable aléatoire avec la distribution :
µ k e −µ
P( K = k ) = , pour k = 0, 1, 2, …
k!
Le nombre de cartons dans chaque caisse, N, est une variable aléatoire avec la distribution :
P(N = n) = pn-1(1 – p), pour n = 1, 2, 3, …
Les variables X, K et N sont mutuellement indépendantes. Déterminer :
1) La probabilité qu’une caisse sélectionnée au hasard contienne exactement un carton, une
boite,
2) la transformée en s de la distribution pour le poids total des boites dans une caisse,
3) la probabilité qu’une caisse sélectionnée au hasard contienne un nombre impair de boites.

58
5. Le comportement asymptotique des variables aléatoires
Nous commençons ce chapitre par traiter des inégalités qui ont vont plutôt servir à démontrer
des propriétés qui concernent le comportement asymptotique ou la convergence des variables
aléatoires.

Les Inégalités élémentaires

Inégalité de Markov
E( X )
Soit X une V A positive, ∀ a > 0, P(X ≥a) ≤
a
Démonstration :
Si X est une variable à densité, alors :
+∞ +∞ +∞
E( X ) = ∫ xf X ( x)dx ≥
0
∫ xf X ( x)dx ≥ a ∫ f X ( x)dx = aP( X > a)
a a
Si X est une variable discrète, alors :
E ( X ) = ∑ xP( X = x) < ∑ xP( X = x) < a ∑ P( X = x) = aP ( X > a )
x >0 x >a x >a

E( X )
Il est possible que a soit assez faible de telle sorte que > 1 , dans ce cas, le résultat
a
apporté par l’inégalité de Markov n’a aucun intérêt.
D’un autre côté, l’inégalité de Markov présente une précision très large, surtout si la loi de
probabilité de X est connue, en effet si on considère la loi E(1) et a = 2, on a :
E(X) = 1 et la borne de l’inégalité de Markov est 1/2, qui est environ 3.7 fois supérieure
à P(X>2) = e-2 = 0.135

Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire de moyenne μ et de variance σ2, alors :
2
σ 
∀ k > 0, P( X - µ ≥ k ) ≤  
k

Démonstration :
On utilise l’inégalité de Markov appliquée à la variable aléatoire (X – μ)2
E(X − µ )
2
∀ k > 0, P((X - µ ) > k ) ≤
2 2

k2
Or l’événement ( X − µ ) 2 > k 2 ≡ X − µ > k
E(X − µ )
2 2
σ 
Donc ∀ k > 0, P( X − µ > k ) ≤ 2
= 
k k
Inégalité de Tchebychev unilatérale
Soit X une variable aléatoire d’espérance nulle et de variance σ2. On a alors pour tout réel
σ2
a>0 : P( X ≥ a ) ≤
a2 +σ 2
Démonstration :

59
Soit b > 0, on a X ≥ a ≡ X + b ≥ a + b et P(X + b ≥ a + b) ≤ P(|X + b| ≥ a + b)
Or P(|X + b| ≥ a + b) = P((X + b)2 ≥ (a + b)2)
Appliquons l’inégalité de Markov à la V A positive (X + b)2 :
E ( X + b)
2
(
P ( X + b ) ≥ ( a + b) 2 ≤
2
) =
σ 2 + b2
(a + b )2 (a + b )2
σ 2 + b2
On peut facilement vérifier que la grandeur est minimale si b = σ2/a et ce minimum
(a + b ) 2

2
σ
est égale à
a +σ 2
2

Exemple d’utilisation des inégalités de Markov et Tchebychev :


On suppose que le nombre de pièces sortant d’une usine en l’espace d’une semaine, est une
variable aléatoire d’espérance 50.
a) Que peut-on dire de la probabilité que la production hebdomadaire dépasse 75 pièces ?
b) On sait de plus que la variance de la production hebdomadaire est égale à 25, quelle est la
probabilité que la production hebdomadaire soit comprise entre 40 et 60 pièces ?

Solution : Désignons par X le nombre de pièces produites en une semaine


50
a) L’inégalité de Markov donne : P(X >75) ≤ = 0.66
75
b) Si de plus la variance est connue, on peut appliquer l’inégalité de Tchebychev :
40 ≤ X ≤ 60 ≡ -10 ≤ X – 50 ≤ 10 ≡ |X – 50| ≤ 10
25
P(|X – 50| ≥ 10) ≤ = 0.25
100
Donc P(|X – 50| ≤ 10) ≥ 1 – 0.24 = 0.75.

En reprenant la première question, la connaissance de la variance permet d’améliorer la borne


0.66 trouvée, l’inégalité de Tchebychev symétrique donne :
X > 75 ≡ X – 50 > 25
25 1
P(X – 50 > 25 ) ≤ P(|X – 50| > 25) ≤ 2
=
25 25
L’inégalité de Tchebychev unilatérale donne :
25 1
P(X – 50 ≥ 25) ≤ 2
=
25 + 25 26
1
On remarque que cette dernière borne égale à est légèrement meilleure que la première
26
1
borne égale à
25

Inégalité de Jensen
Soit X une variable aléatoire et Φ une fonction définie et convexe sur X(Ω), alors si E(X) et
E(Φ(X)) existent alors on a : E(Φ(X)) ≥ Φ(E(X))

Démonstration :
Considérons d’abord le cas où X est une V A de densité fX.
Soit (x, y) ∈X(Ω)2 tel que E(X) ∈]x, y[, on a :

60
Φ ( x) − Φ( E ( X )) Φ( y ) − Φ( E ( X ))
≤ Φ 'g ( E ( X )) ≤
x − E( X ) y − E( X )
La première inégalité implique que : Φ( x) − Φ ( E ( X )) ≥ ( x − E ( X ))Φ 'g ( E ( X ))
La deuxième inégalité implique que : Φ( y ) − Φ( E ( X )) ≥ ( y − E ( X ))Φ 'g ( E ( X ))
On déduit alors que ∀x ∈ X (Ω), h(x) = Φ ( x) − Φ ( E ( X )) ≥ ( x − E ( X ))Φ 'g ( E ( X )) = g ( x) ,
Autrement : ∀x ∈ X (Ω), h(x) ≥ g ( x) ⇒ E(h (X )) ≥ E ( g ( X ))

⇒ E(Φ ( X )) − Φ ( E ( X ))) ≥ E (( X − E ( X ))Φ 'g ( E ( X )))


On obtient alors le résultat recherché.

L’inégalité de Jensen peut être démontrée d’une autre manière, mais en supposant que la
fonction Φ est deux fois dérivable pour appliquer la formule de Taylor-Lagrange d’ordre 2
au voisinage de E(X) :
E (Φ ( X )) = ∫ Φ( x) f X ( x)dx
R

( )
= ∫ Φ( E ( X )) + ( x − E ( X ))Φ' ( E ( X )) + ( x − E ( X )) 2 Φ ' ' (θ x ) f X ( x)dx ,
R
θx étant compris entre x et E(X)

( x − E ( X )) 2
E (Φ( X )) = ∫ Φ( E ( X )) f X ( x)dx + ∫ ( x − E ( X ))Φ ' ( E ( X )) f X ( x)dx + ∫ Φ ' ' (θ x ) f X ( x)dx
R
2!
1444442444443 1444442444443
R R

0 ≥0
≥ Φ (E(X))
Φ’’ étant positive car la fonction Φ est convexe.

Dans le cas où X est une V A discrète, il s’agit de démontrer que :


 
∑i Φ( xi ) P( X = xi ) ≥ Φ ∑i xi P( X = xi )
Nous allons faire tout simplement une démonstration par récurrence sur i,
Si i = 2, alors Φ(x1P(X=x1) + x2P(X=x2)) ≤ Φ(x1)P(X=x1) + Φ(x2)P(X=x2)
Supposons que la propriété est vérifiée pour i = n,
Φ(x1P(X=x1) + x2P(X=x2) +…+ xnP(X=xn) + xn+1P(X=xn+1) )
= Φ(x1p1 + x2p2 +…+ xnpn + xn+1pn+1 )
p1 p2
= Φ(( p1 + p 2 )( x1 + x 2 ) + ... + x n p n + x n +1 p n+1 )
p1 + p 2 p1 + p 2
= Φ(( p1 + p 2 ) y + ... + x n p n + x n +1 p n +1 ) ≤ ( p1 + p 2 )Φ( y ) + ... + p n Φ( x n ) + p n +1Φ ( x n+1 )
p1 p2
avec y = x1 + x2
p1 + p 2 p1 + p 2
Finalement :
Φ(x1p1 + x2p2 +…+ xnpn + xn+1pn+1) ≤ p1Φ ( x1 ) + p 2 Φ ( x 2 ) + ... + p n Φ( x n ) + p n +1Φ ( x n+1 )

61
Exemple d’application de l’inégalité de Jensen
Considérons la fonction Φ(x) = x2, qui est une fonction convexe sur R et X une variable
aléatoire. L’application de l’inégalité de Jensen permet de justifier un résultat bien connu :
E(X)2 ≤ E(X2) qui traduit que la variance Var(X) = E(X2) – E(X)2 est toujours positive.

Le comportement asymptotique des suites de variables aléatoires


Il s’agit d’étudier le comportement des suites de variables aléatoires au voisinage de l’infini.
Ce comportement peut-être vu de plusieurs manières, si on considère une suite de variables
aléatoires Xn, n ≥ 1, il est possible de s’intéresser à la probabilité de l’écart entre Xn et sa
limite, à la limite d’un moment centré de Xn ou la loi de la variable limite.

Convergence en probabilité d’une variable aléatoire


Définition : soit Xn, n ≥ 1, une suite de variables aléatoires, on dit que Xn converge en
probabilité vers X si et seulement si ∀ε > 0, lim P( X n − X > ε ) = 0
n → +∞
P
On note X n → X
n → +∞
Cette notion de convergence peut s’interpréter de la manière suivante : Pour tout écart ε fixé,
lorsque n devient très grand, il est de plus en plus peu probable d’observer un écart,
supérieur à l’écart donné, entre X et Xn.

Proposition :
Soit Xn, n ≥ 1, une suite de variables aléatoires.
P
Si lim E ( X n ) = a et lim Var ( X n ) = 0 alors X n → a
n → +∞ n → +∞ n → +∞
Démonstration :
On a ∀n ≥ 1, X n − a ≤ X n − E ( X n ) + E ( X n ) − a
Soit ε > 0, ∃ N ∈ N, ∀ n > N, E ( X n ) − a < ε / 2
Donc ∀ n > N, on a X n − a > ε ⇒ X n − E ( X n ) > ε / 2
Il s’en suit que ∀ n > N, on a P( X n − a > ε ) ≤ P( X n − E ( X n ) > ε / 2)
Par application de l’inégalité de Bienaymé-Tchebychev, on a :
Var ( X n )
∀ n > N, on a P( X n − E ( X ) > ε / 2 ) ≤ 4 2
n→ 0
→ +∞
ε
D’où ∀ ε > 0, ∃ N ∈ N, ∀ n > N, P( X n − a > ε ) n→ 0
→ +∞
P
Comme conséquence de cette proposition, pour que X n → X , il suffit que :
n → +∞

lim E ( X n − X ) = 0 et lim Var ( X n − X ) = 0


n → +∞ n → +∞
P
Pour cela, on considère Yn = Xn - X → 0
n → +∞

Convergence en moyenne quadratique


Définition : Une suite de V A, Xn, n ≥ 1, converge en moyenne quadratique vers la V A, X si :
lim E ( X n − X ) = 0
2
n → +∞
m. q
On note X n → X
n → +∞

62
Propriétés :
1) La convergence en moyenne quadratique entraine la convergence en probabilité.
2) Soit Xn, n ≥ 1, une suite de variables aléatoires, si lim E ( X n ) = a et lim Var ( X n ) = 0 alors
n → +∞ n → +∞
m .q
Xn → a
n → +∞

Démonstration :
2
1) Soit ε > 0 ∀ n ≥ 1, l’événement X n − X > ε ≡ X n − X >ε2
Donc ∀ n ≥ 1, P( X n − X > ε ) = P X n − X > ε 2 ( 2
)
(Xn – X)2 est une V A positive, par application de l’inégalité de Markov on a :
E(X n − X )
( )
2
2 2
∀ n ≥ 1, P X n − X > ε ≤ 2
n → 0
→ +∞
ε

n → +∞ n → +∞
( )
2) lim E ( X n − a ) = lim E X n2 − 2a lim E ( X n ) + a 2 = lim E X n2 − lim E ( X n )
2
n → +∞ n → +∞
( ) n → +∞
2

= lim Var ( X n ) = 0
n → +∞

Convergence en loi
Définition : Soient Xn et X des variables aléatoires de fonctions de répartition respectives Fn et
L
F, on dit que la suite Xn converge en loi vers la variable aléatoire X et on note X n →X,
n →= ∞
si en tout point x ou F est continue, la suite Fn(x) converge vers F(x).

Propriétés :
1) Si Xn et X sont des V A discrètes, alors Xn converge en loi vers X si et seulement si :
∀ k ∈ N lim P ( X n = k ) = P ( X = k )
n → +∞
P L
2) La convergence en probabilité entraine la convergence en loi, X n → X ⇒ X n
n → +∞ →X
n →= ∞
Preuve :
1) Supposons que pour tout k ∈N, lim P( X n = k ) = P( X = k )
n → +∞
Pour tout x de R+ où F est continue, on a un nombre fini d’entiers naturels k inférieurs à x,
donc Fn(x) = P(Xn ≤ x) = ∑ P( X n = k )
k≤x

Or lim
n → +∞
∑ P( X
k≤x
n = k ) = ∑ P( X = k ) = P( X ≤ x) = F ( x)
k≤x

De plus si x<0, Fn(x) = 0 donc lim Fn ( x) = F ( x)


n → +∞
L
Donc X n →X
n →= ∞
Supposons que Xn converge en loi vers X
Pour tout k ∈N, k + 1/2 et k - 1/2 sont des points de continuité de la fonction F et :
P(Xn = k) = P(k – 1/2 < Xn < k + 1/2) = Fn(k + 1/2) - Fn(k - 1/2)
Donc lim P( X n = k ) = F (k + 1 / 2) − F (k − 1 / 2) = P( X = k )
n → +∞
Nous avons déjà établi des exemples de convergence en loi :

63
La convergence de la loi Binomiale B(n, p) vers la loi de Poisson P(np) et la convergence
de la loi Hypergéométrique H(N,n,p) vers la loi Binomiale B(n,p).

2) Commençons tout d’abord par établir l’inégalité suivante :


A et B sont deux V A, c est un réel et ε > 0
P(A ≤ c) = P(A ≤ c, B ≤ c + ε) + P(A ≤ c, B > c + ε)
= P(A ≤ c/ B ≤ c + ε)P(B ≤ c + ε) + P(A ≤ c, B – ε > c)
≤ P(B ≤ c + ε) + P(A ≤ c, B – ε > c)
 A≤c  A≤c
On a  ⇔ ⇒ A − B < −ε
B − ε > c ε − B < −c
Donc P(A ≤ c, B – ε > c) ≤ P(A – B < -ε) ≤ P(A – B < -ε) + P(A – B > ε) = P( A − B > ε )
Finalement on a : P(A ≤ c) ≤ P(B ≤ c + ε) + P( A − B > ε )
Si on pose A = Xn, B = X et c = x, on a : P(Xn ≤ x) ≤ P(X ≤ x + ε) + P( X n − X > ε ) (a)
Si on pose A = X, B = Xn et c = x – ε, on a : P(X ≤ x - ε) ≤ P(Xn ≤ x) + P( X n − X > ε )
Ce qui implique que : P(Xn ≤ x) ≥ P(X ≤ x - ε) - P( X n − X > ε ) (b)
Soit x un réel ou F est continu, soit η > 0, ∃ ε > 0 tel que :
F ( x + ε ) − F ( x) < η / 2 et F ( x − ε ) − F ( x) < η / 2
Puisque que F est croissante alors : F ( x + ε ) − F ( x) < η / 2 et F ( x − ε ) − F ( x) > −η / 2
La convergence en probabilité de Xn vers X implique que :
∃ n0, ∀ n>n0 P( X n − X > ε ) < η / 2
L’inégalité (a) implique que : ∀ n>n0
Fn(x) – F(x) ≤ F(x + ε) – F(x) + P( X n − X > ε ) < η/2 + η/2 = η
L’inégalité (b) implique que : ∀ n>n0
Fn(x) – F(x) ≥ F(x - ε) – F(x) - P( X n − X > ε ) > -η/2 - η/2 = -η

Finalement nous avons démontré que :


∀ η >0, ∃ n0, ∀ n>n0, Fn ( x) − F ( x) < η et ceci est valable pour chaque x ou la fonction F est
continue.

La réciproque de cette propriété est fausse, comme le montre l’exemple suivant :


Les variables aléatoires Xn suivent une loi de Bernoulli B(1/2) : P(Xn = 0) = P(Xn = 1) = 1/2 et
on a la relation X = 1 - Xn
On déduit alors que P(X = 1) = P(X= 0) = 1/2
L’écart entre Xn et X est constant est égale à 1, c’est pour cela que Xn ne converge pas en
probabilité vers X.
La loi de Xn est la même que celle de X et lim P( X n = i ) = P( X = i ) , i = 1,2, ce qui implique
n → +∞
la convergence en loi de Xn vers X

La convergence presque sûre


Définition : soit Xn, n ≥ 1, une suite de variables aléatoires, on dit que Xn converge presque
(
sûrement vers X si et seulement si P lim X n = X = 1
n → +∞
)
p .s
On note X n → X
n → +∞

64
Théorème
p.s
X n → X ⇔ ∀ε > 0, P lim sup X n − X > ε  = 0
n → +∞  n→+∞ 
Démonstration :
p.s
Xn → X
n → +∞

⇔ ∀ ε > 0, ∃ N > 0, ∀ n > N, P( X n − X < ε ) = 1


⇔ ∀ ε > 0, il existe alors une infinité d’indices n tels que P( X n − X < ε ) = 1

⇔ ∀ε > 0, P lim sup X n − X > ε  = 0


 n→ +∞ 

Ce théorème fournit une condition nécessaire et suffisante pour l’obtention de la convergence


presque sûre d’une suite de variables aléatoires.

Théorème
+∞
An est une suite d’événements, on a : ∑ P( A ) < ∞ ⇒ P lim sup A
n =1
n
n → +∞
n
=0


Démonstration :
 +∞ +∞   +∞ 
P lim sup An  = P I U Ap  = P I Bn  = lim P(Bn ) car Bn étant une suite décroissante au
 n→+∞   n =1 p =n   n =1  n→+∞
sens de l’inclusion : Bn ⊂ Bn-1 ⊂ ... ⊂ B1.
 +∞  +∞
P(Bn ) = P U A p  ≤ ∑ P(A p )
 p =n  p =n
Si la série de terme général P(An), est convergente alors la somme partielle :
P
Ap

+∞

∑ ( ) → 0
n
p
n

→ +∞
=

Ce théorème nous montre qu’une condition suffisante pour que P lim sup An  = 0 , est que la
 n→+∞ 
série de terme général P(An) soit convergente

p.s
 
Propriété : X n → X ⇔ ∀ε > 0, P sup X p − X > ε  n → 0
→ +∞
n → +∞
 p >n 
p. s
En effet : X n → X ⇔ ∀ε > 0, P lim sup X n − X > ε  = 0
n → +∞  n→+∞ 
 +∞ +∞ 
⇔ ∀ε > 0, P I U X p − X > ε  = 0
 n =1 p = n 
 +∞ 
⇔ ∀ε > 0, lim P U X p − X > ε  = 0
n → +∞
 p=n 

65
+∞
Or l’événement UX p − X > ε ≡ sup X p − X > ε , pour cela, il suffit de vérifier que si le
p =n p≥ n

premier événement est vrai alors le deuxième l’est également et si le deuxième est vrai, le
premier l’est également.
p. s
 
Donc X n → X ⇔ ∀ε > 0, lim P sup X p − X > ε  = 0
n → +∞ n → +∞
 p≥n 
D’après cette propriété, nous avons l’équivalence suivante :
p .s  +∞ 
X n → X ⇔ ∀ε > 0, lim P U X p − X > ε  = 0
n→ +∞ n → +∞
 p=n 
 +∞ 
On pose u n = P U X p − X > ε  et v n = P( X n − X > ε )
 p =n 
On a vn ≤ un, et les deux suites sont positives, pour tout n ≥ 1, donc la convergence de un vers
0, implique celle de vn vers 0.
p.s P
Nous avons ainsi démontré que : X n → X ⇒ X n → X
n → +∞ n → +∞
Exemple de convergence presque sûre
On considère la suite Xn n ≥ 1 définie à partir d’une V A, U de loi uniforme sur [0, 1] :
 1
 n si U ≤
Xn =  n
 0 sinon
p .s
Montrons que X n → 0
n → +∞

On a ∀ ε > 0, l’événement Xn > ε ≡ U ∈[0, 1/n]

+∞ +∞
 1  1
∀ ε > 0, UXP >ε ≡ UU ∈ 0, p  = U ∈ 0, n 
p =n p=n  
 +∞    1 1
∀ ε > 0, P U X P > ε  = PU ∈ 0,   = n→ 0
→ +∞
 p=n    n n
Nous avons dans cet exemple la convergence presque sûre de Xn vers 0, alors que la série de
1
terme général P ( X n > ε ) = est divergente.
n

Lois des grands nombres


On considère une suite de V A, (Xi)i≥1 indépendantes et identiquement distribuées (iid). Les
n

∑X
i =1
i
lois des grands nombres portent sur le comportement de la moyenne empirique X n =
n
lorsque n → +∞.

Loi faible des grands nombres


On suppose que la variance de chaque Xi existe. Les V A Xi étant de même loi, elles
admettent alors la même moyenne μ et la même variance σ2

66
 n 
 ∑ Xi 

E (X ) = E  i =1 = =µ
 n  n
 
 
 n   n 
 ∑ Xi  Var ∑ X i  2 2
Var ( X ) = Var  i =1 =  i =1  = nσ = σ car les variables aléatoires Xi sont
 n  n2 n2 n
 
 
indépendantes.

Proposition
Si (Xi)i≥1 est une suite de variables aléatoires, iid, d’espérance μ et de variance σ2,
( )
P
alors X n → µ : ∀ε > 0, P X n − µ > ε n→ 0
→ +∞
n → +∞
Démonstration :
On utilise l’inégalité de Tchebychev pour la variable aléatoire X n

(
∀ε > 0, P X n − µ > ε ≤ )
σ2
→ 0
nε 2 n → +∞
Application : Théorème de Bernoulli
On effectue n expériences successives indépendantes où on s’intéresse à chaque fois à la
réalisation d’un certain événement A. On associe donc à chaque expérience i, 1 ≤ i ≤ n, une
variable de Bernoulli :

Xi 0 1
P(Xi) 1 - p p

La fréquence empirique, c'est-à-dire le pourcentage de réalisation de A est :


1 n
Fn = ∑ X i
n i =1
E(Fn) = p et var(Fn) = p(1-p)/n
L’application de la loi faible des grands nombre implique que :
∀ε > 0, P( Fn − p > ε ) n→ 0
→ +∞
Comme interprétation de la convergence en probabilité de Fn vers p, il n’existe pas de valeur
de n à partir de laquelle on soit sûr que chaque valeur de Fn soit à mois de ε de p.

Loi forte des grands nombres

Proposition :
E
Xi

Si (Xi)i≥1 est une suite de variables aléatoires, iid, d’espérance μ et intégrable ( ( ) existe)
p. s
alors X n → µ :
P
Xn

n→ +∞

∀ ε > 0, ∃ N > 0, ∀ n > N, ( −µ >ε =0)

67
Comparaison entre la loi faible des grands nombres et la loi forte des grands nombres :
Dans la première loi, nous avons supposés l’existence des moments d’ordre 1 et 2 des V A et
nous avons une convergence en probabilité. Dans la deuxième loi, nous avons supposé
l’existence du moment d’ordre 1 et l’intégrabilité des V A et nous avons une convergence
presque sûre qui implique la convergence en probabilité

Le théorème central limite

Le théorème central limite est l’un des résultats les plus importants de la théorie des
probabilités. Il montre le caractère universel de la loi normale, en effet, la somme de
n’importe quelle suite de V A, iid, converge en loi vers une loi normale.

Proposition (Théorème centrale limite)


Soit (Xn)n≥1 une suite de V A, iid, de moyenne μ et de variance σ2, alors la variable aléatoire
t2
X 1 + X 2 + ... + X n − nµ L 1
z

Zn = → N (0,1) , c'est-à-dire que : lim P(Z n < z ) = ∫e 2
dt
σ n n → +∞ n → +∞
2π −∞
Démonstration :
On se propose de calculer la transformée en s de la variable aléatoire Zn et de montrer que
celle-ci tend vers la transformée en s d’une loi normale centrée réduite lorsque n est grand.
n
Y X −µ
On a Z n = ∑ i , avec Yi = i
i =1 n σ
Les V A, Yi constituent une suite iid, d’espérance 0 et de variance 1
 s 
On a pour une V A, Y : f YT/ n ( s ) = ∫ e − sy f Y / n ( x)dx = f YT   , car f Y / n ( y ) = n f Y n y ( )
R  n
n
  s 
Donc f ( s ) = f
Z
T
( T
Y/ n
)
n
( s ) =  f YT   
  n 
La V A Y, étant centrée réduite, alors :
2
df YT (0) d 2 f YT (0 )  df YT (0 ) 
= − E (Y ) = 0 et = Var (Y ) +   =1
ds ds 2  ds 
La formule de Taylor à l’ordre 2 en 0, pour la fonction f YT implique pour n assez grand que :
 s  s df YT (0 ) s 2 d 2 f YT (0) s 2  s   s 
f YT   = f YT (0 ) + + + ε   , avec ε   
s → 0
 n n ds 2n ds 2 n  n   n →0
sn

sn

s n

n
f
s
TY

2 2
 
( ) = 1+ + ε 
2  
n  s2 s 2  s   s2
 s   s2 s2  s  n log  1+ + ε 
 2n n  
n  
f ZT   = 1 + + ε    = e  n→ e
→ +∞
2
qui est la transformée en s
 n   2n n  n  
d’une loi normale centrée réduite.

En pratique, le théorème central limite s’applique lorsque n ≥ 30

68
Approximation de Moivre-Laplace

Cette approximation consiste à approcher une loi Binomiale B(n,p) qui est la somme de n lois
de Bernoulli B(p) indépendantes, par une loi normale centrée réduite.

Proposition :
Soit Sn le nombre de succès lors de la réalisation de n épreuves indépendantes, la probabilité
de réussite de chaque épreuve étant p. Alors pour tout a < b
2
 S − np  1 b −t
lim P a ≤ ≤ b =
 2π ∫
n 2
e dt
n → +∞ 
 np (1 − p )  a

 n ≥ 30

Cette approximation est applicable en général lorsque  np ≥ 15
np(1 − p ) > 5

Correction de continuité : Dans cette approximation, il s’agit d’approcher Sn, une loi
( )
binomiale B(n,p), discrète par une loi normale N np, np(1 − p ) , continue. Pour cela P(Sn=k)
est approchée par P(k-0.5< Sn<k+0.5) si k ∈ {1, 2, …., n-1}. D’autre part, pour que
n

∑ P(S
k =0
n = k ) = 1 , on approche P(Sn = 0) par P(Sn < 1/2) et P(Sn = n) par P(Sn > n – 1/2).

Exemple
Si X suit la loi B(40, 0,5), les calculs de probabilités concernant X peuvent être effectués en
utilisant la loi N(20, 10 )
 n ≥ 30
 X − 20
En effet  np = 20 ≥ 15 et X * = suit la loi N(0,1)
np(1 − p ) = 10 > 5 10

 19.5 − 20 20.5 − 20   0 .5 
P(X = 20) = P(19.5<X<20.5) = P < X* <  = 2Φ  − 1 = 0.1272
 10 10   10 
20
Le résultat exact est P(X = 20) = C 40 (0.5)20 (0.5)20 = 0.1254

 16.5 − 20 24.5 − 20   4 .5   − 3 .5 
P(17 ≤ X < 25) = P < X* <  = Φ  − Φ 
 10 10   10   10 
 4 .5   3 .5 
= Φ  + Φ  − 1 = 0.9222 + 0.8665 – 1 = 0.7887
 10   10 
24
Un calcul à la machine de ∑C
k =17
k
40 0.5 k 0.5 40− k = 0,789

69
Annexe
Propriétés d’une fonction convexe :

Définition
Soit f une fonction définie sur un intervalle I de R. On dit que f est convexe sur I si et
x
y
I

f
x

λ
y
λ
f
x

λ
f
y
seulement si : ∀ , ∈ , ∀λ ∈ [0,1], (λ + (1 − ) ) ≤ ( ) + (1 − ) ( )

f(x)

λf(x) + (1 –λ)f(y)

f(λx + (1 –λ)y)

x y x

Courbe représentative d’une fonction convexe

Une fonction est dite concave si son opposée est convexe.


Une fonction convexe sur un intervalle I, admet une dérivée à gauche et une dérivée à droite
sur tout point x de I, avec f g' ( x) ≤ f d' ( x) .
Pour tout (x,y,z) ∈I3 tel que x < y < z, on a :
f ( y ) − f ( x) f ( z ) − f ( x ) f ( z ) − f ( y )
≤ ≤
y−x z−x z−y
Pour démontrer ces inégalités, on utilise la convexité de f et le fait que y = λx + (1 –λ)z, avec
z− y
λ ∈]0, 1[, en effet : λ =
z−x
Si on fait une première fois tendre y vers x et une deuxième fois y vers z, on obtient :
f ( z ) − f ( x)
f d' ( x) ≤ ≤ f g' ( z )
z−x
Si la fonction f est deux fois dérivable sur I, alors f’’ est positive.

La limite supérieure d’une suite d’événements

Soit ( An )n≥1 une suite d’événements, la limite supérieure de la suite An est définie par :
+∞ +∞ +∞ +∞
lim sup An = I U Ap = I Bn avec Bn = UA p
n → +∞ n =1 p = n n =1 p=n

70
Théorème :
Pour que lim sup An soit réalisé, il faut et il suffit qu’il existe une infinité d’indices p tels que
n → +∞
Ap soit réalisé.

Preuve
lim sup An est réalisé :
n → +∞
Donc il existe une infinité d’indices p tels que Bp soit réalisé et pour chaque Bp, il existe au
moins un indice n tel que An soit réalisé.
Il existe une infinité d’indices p tels que Ap soit réalisé :
+∞
Donc ∀ n ≥ 1, Bn = UA p est réalisé
p =n
+∞
Il s’en suit alors que IB n = lim sup An est réalisé
n =1 n → +∞

Convergence d’une série


Soit sn, n ∈ N, une série de terme général un, n ∈ N, sn converge vers une limite l si et
seulement si ∀ ε > 0, ∃ N > 0, ∀ n > N, u n +1 + u n + 2 + ... < ε
n
En effet : s n = ∑ u i
i =1

lim s n = l ⇔ ∀ε > 0, ∃ N > 0, ∀ n > N, s n − l < ε


n → +∞

⇔ ∀ε > 0, ∃ N > 0, ∀ n > N, u n +1 + u n+ 2 + ... < ε

71
Exercices
Exercice 1
Soit X une variable aléatoire discrète, dont les valeurs appartiennent à N*, si P(X = k) est
E( X )
décroissante, prouver que P( X = k ) ≤ 2 2
k
Soit X une variable aléatoire continue, positive et admettant une densité décroissante. Prouver
E(X )
que f ( x) ≤ 2 2 pour tout x > 0
x

Exercice 2
Soit X une variable aléatoire continue positive de moyenne 25. Que peut-on dire des
espérances suivantes :
1. E[X3]
[ ]
2. E X
3. E[logX]
4. E[e-X]

Exercice 3
Un bruit X peut être considéré comme une variable aléatoire normale, centrée de variance σ2,
Supposons que toute valeur expérimentale de X cause une erreur dans un système de
communication numérique si elle est plus grande que A.
1. Déterminer la probabilité qu’une valeur expérimentale de X cause une erreur si :
(a) σ2 = 10-3A2
(b) σ2 = 10-1A2
(c) σ2 = A2
(d) σ2 = 4A2
2. Pour une valeur donnée de A, quelle est la variance la plus grande telle que l’on obtienne
une probabilité d’erreur pour toute valeur expérimentale de X inférieure à 10-3, 10-6 ?

Exercice 4
Le poids d’un bretzel W (en grammes) est une variable aléatoire continue décrite par la
 0 w ≤1
 w -1 1 ≤ w ≤ 2

densité : f W (w) = 
3 - w 2 ≤ w ≤ 3
 0 w≥3
1. Quelle est la probabilité que 102 bretzels pèsent plus de 200 grammes ?
2. Si on choisit 4 bretzels indépendants, quelle est la probabilité qu’exactement 2 des 4
bretzels pèsent chacun plus de 2 grammes ?
3. Quel est le plus petit entier (non seulement ils sont immangeables, mais en plus on ne peut
pas les casser) N pour lequel le poids total des N bretzels excède 200 grammes avec une
probabilité de 0.99 ?

Exercice 5
Pour 3600 jets indépendants d’une pièce parfaite,
1. Déterminer un nombre n tel que la probabilité soit 0.5 pour que le nombre de piles résultant
soit compris entre 1789 et n.
2. Déterminer la probabilité pour que le nombre de piles soit à 1 % de son espérance.

72
Exercice 6
Une pièce est lancée n fois. Chaque lancer est indépendant et suit une loi de Bernoulli de
paramètre p. La variable aléatoire X est le nombre de piles obtenus. Pour chacune des
expressions suivantes, trouver soit les valeurs de k et des constantes qui rendent la proposition
vraie quel que soit n ≥ 1, soit démontrer qu’aucune valeur de k existe.

X 
1. E   = Bn k
n
2. E[(X - E[X])2] = Cnk
3. E[X2] = Dnk
X 
4. Pour n grand, P  − p ≤ Fn k  = 0.15
 n 

73

Vous aimerez peut-être aussi