Probabilité
Probabilité
Ibrahim AMRANI
Préambule
1
1. Probabilité
La probabilité peut être définie comme étant la mesure de la chance de réalisation d’un certain
événement et cette mesure est comprise entre 0 et 1.
Une expérience est dite stochastique ou aléatoire, s’il est impossible de prévoir son résultat.
On admet qu’elle peut être répétée indéfiniment dans des conditions identiques, son résultat
peut donc varier d’une réalisation à l’autre.
Exemples :
L’ensemble, noté Ω, de tous les résultats possibles d’une expérience aléatoire est dit
ensemble fondamental. Selon la nature de cette expérience Ω peut être :
• fini (exemples 1, 2, 3)
• infini dénombrable (exemple 4)
• infini non dénombrable (exemple 5)
Un événement A est réalisé lors d’une expérience aléatoire, si le résultat de cette dernière
appartient à A.
Les événements associés à une expérience aléatoire, sont des sous-ensembles de l’ensemble
Ω, il est naturel de définir des opérations sur les événements à l’image des opérations bien
connues en théorie des ensembles :
2
Intersection : AB = A∩B ⇔ ∀ w ∈Ω, w ∈ A et w ∈ B
Réunion : A + B = A ∪ B ⇔∀ w ∈Ω, w ∈ A ou w ∈ B
Inclusion : A ⊂ B ⇔ ∀ w ∈Ω, w ∈ A alors w ∈ B
A est l’événement complémentaire de A dans Ω ⇔∀ w ∈Ω, w ∈ A alors w ∉ A
Commutativité : A + B = B + A
Associativité : A + (B+C) = (A+B) + C
Distributivité : A(B+C) = AB + AC
Complémentarité : A = A
Loi de Morgan : AB = A + B
AΩ = A
AA = Ø
Une famille d’événements (Ai), i = 1,…,n, est composé d’événements mutuellement exclusifs
si et seulement si :
Ai si i = j
AiAj =
Ø si i ≠ j
A1 + A2 +…+ An= Ω
Soit Ω un ensemble. On appelle tribu (ou σ-algèbre) des parties de Ω, tout sous ensemble A
de P(Ω) tel que :
1) Ω ∈A
2) Pour tout A ∈A, A ∈ A
3) Pour toute famille finie ou infinie dénombrable (Ai) i ∈ I (I ⊂ N) d’éléments de A,
UA
i∈I
i ∈A
3
Exemple
Si A ⊂ Ω, A ≠ Ø et A ≠ Ω alors {Ø, A, A , Ω} est une tribu des parties de Ω
Proposition
Démonstration
(1) Ø = Ω
(2) Pour tout (A, B) ∈ A2, A∪B ∈ A par définition
A ∩ B = A ∪ B or (A, B) ∈ A2, donc A ∪ B ∈ A et A ∪ B ∈ A
A\ B = A ∩ B ∈ A
(3) IA = UAi i
i∈I i∈I
Définition :
Soit (Ω, A) un espace probabilisable, on appelle probabilité sur (Ω, A) tout application P de
A vers [0, 1], vérifiant les axiomes suivants :
(1) P(Ω) = 1
(2) Pour toute famille finie d’événements mutuellement exclusifs, A1, A2, … , An, on a
P(A1 + A2 + … + An) = P(A1 )+ P(A2) + … + P(An)
Ces deux axiomes sont suffisants pour introduire une probabilité lorsque l’ensemble
fondamental Ω est fini.
Si Ω est infini :
(2’) Pour toute famille infinie dénombrable d’événements mutuellement exclusifs, Ai :
+∞ +∞
P(U A i ) = ∑ P(A i )
i =1 i =1
(Ω, A, P) est appelé espace probabilisé et pour tout A ∈ A, P(A) est la probabilité de
l’événement A.
La série de terme général P(Ai) est convergente car quel que soit le rang r :
+∞
∑ P(A ) ≤ 1
i=r
i
4
(2) P(A) ≤ P(B) si A ⊂ B : B = A + AB
(4) P(A + B +C) = P(A) + P(B) + P(C) + P(ABC) – (P(AB) +P(BC) + P(CA))
(4) peut être déduite de (3).
Probabilité Conditionnelle
Théorème et définition
∞
P(BU A i ) P(U BA i ) ∑ P(BA ) i n
PB (U A i ) = i =1
= i =1
= i =1
= ∑ PB (A i ) , les événements BAi, i ∈
i =1 P(B) P(B) P(B) i =1
N sont mutuellement exclusifs.
5
n n
P(A) = ∑ P(AA i ) = ∑ P(A/A i )P(A i )
i =1 i =1
En effet :
n n
A = AΩ = AU A i = U AA i
i =1 i =1
Les événements AAi sont mutuellement exclusifs :
n n n
P(A) = P(U AA i ) = ∑ P(AA i ) = ∑ P(A/A i )P(A i )
i =1 i =1 i =1
Théorème de multiplication
Exemple
On dispose d’un lot comprenant 10 pièces dont la moitié est défectueuse. On prélève sans
remise un échantillon de taille 3. Quelle est la probabilité pour que l’échantillon ne
comprenne aucune pièce défectueuse ?
Solution
L’arbre des probabilités est un moyen qui permet de décrire et d’étudier des expériences
stochastiques qui se déroulent en plusieurs étapes.
Reprenons l’exemple précédent, dans lequel il s’agit de prélever sans remise, trois pièces et
intéressons nous à la probabilité que la deuxième soit bonne :
5
P(A 1 ) = Ω
10 5
P( A 1 ) =
10
A1 5
4 5 A1
P(A 2 /A 1 ) = 9 4
9 9 P( A 2 / A 1 ) =
9
A2 A2 A2
A2
5 4 5 5 1
P(A2 ) = + = ←
10 9 10 9 2
6
Théorème de Bayes
PP
A iB
B
P
B
Ai
P
Ai
P
Ai
B
( ) ( / ) ( )
( / )= =
n
P
B
Ai
P
Ai
( )
∑ ( / ) ( )
i
=1
Trois machines A, B et C produisent respectivement 50%, 30% et 20% du nombre total des
pièces fabriquées dans une usine. Les pourcentages des pièces défectueuses de ces machines
sont 3%, 4% et 5%.
(1) Calculer la probabilité pour qu’une pièce prise au hasard soit défectueuse ?
(2) On choisi une pièce défectueuse, quelle est la probabilité pour qu’elle soit produite
par la machine A ?
Solution
Soit que : P(AB) = P(A) P(B) cette relation ne nécessite pas que P(A) ≠ 0 et P(B) ≠
Exemples
(1) On jette deux fois de suite une pièce de monnaie pour obtenir pile ou face. Les deux
jets se font dans les mêmes conditions et le résultat du premier jet est indépendant du
second.
(2) On tire sans remise deux fois de suite une carte d’un jeu de 52 cartes
A : Obtenir un as au 1er tirage
B : Obtenir un valet au second tirage
7
Les conditions de réalisations de A et de B ne sont pas les mêmes :
A : choisir une carte parmi 52
B: choisir une carte parmi 51 et P(B) dépend de P(A)
Remarques
Indépendance de n événements :
Soit A1,…,An, n événements, on dit que A1,…,An sont deux à deux indépendants si pour tout i
et j de 1,…,n tels que i ≠ j, P(AiAj) = P(Ai) P( Aj).
On dit que A1,…,An sont mutuellement indépendants si pour tout ensemble I choisi parmi
n n
1,…,n : P(I A i ) = ∏ P(A i )
i =1 i =1
Si une famille d’événements sont mutuellement indépendants alors nécessairement, ils sont
deux à deux indépendants. La réciproque n’est pas toujours vérifiée, comme l’indique le
contre exemple suivant :
Indépendance conditionnelle :
La notion d’indépendance de deux événements est liée à une probabilité et cette probabilité
peut être conditionnelle
Soient A, B, C trois événements d’un ensemble fondamental Ω sur lequel on définit une
probabilité conditionnelle sachant C (P(C) ≠ 0).
8
L’indépendance conditionnelle n’implique pas et n’est pas impliqué par une indépendance
liée à une autre probabilité (voir exercice 2 du chapitre 3).
Analyse combinatoire
L’analyse combinatoire est une branche des mathématiques qui étudie les techniques de
dénombrements particulièrement utiles en théorie des probabilités.
Principe de multiplication
Pour aller d’une ville A à une ville B, il existe trois chemins possibles, et pour aller de la ville
B à la ville C, il en existe quatre.
Quel est le nombre total de chemins possibles pour aller de A vers C ?
A B C
Théorème :
Permutations
Etant donné n objets discernables (a,b, … ,l), on appelle permutation d’ordre n toute suite
formée de ces n objets, dans un ordre choisi arbitrairement, deux permutations correspondant
à des ordres différents sont considérées comme différentes.
Exemple : le nombre de permutations qu’il est possible de faire avec trois éléments a, b et c
est 6 : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), (c,b,a)
P3 = 3*2*1 = 6 = 3!
Arrangements
Etant donné n objets discernables (a,b, … ,l) et un entier p≤n, on appelle arrangement d’ordre
p, toute suite formée par p objets choisis parmi (a,b, … ,l), un objet choisi ne peut être utilisé
9
une deuxième fois, deux suites ne différant que par l’ordre des objets sont considérées comme
différentes.
Par exemple, (a,c,d), ((a,d,c), (b,c,e) sont des arrangements d’ordre 3, distincts de (a,b,c,d,e).
n!
Anp =
(n − p )!
Exemple : le nombre d’arrangements d’ordre 2 des trois éléments a,b et c sont : (a,b), (b,a),
(b,c), (c,b), (a,c), (c,a).
3!
A32 = 3 * 2 = =6
(3 − 2)!
Remarque : Ann = Pn = n! , ceci conduit à admettre que 0! = 1.
Combinaisons
Par exemple {a,e,c}, {a,c,e}, {c,a,e} représentent une même combinaison d’ordre 3.
n Ap n!
Le nombre de combinaisons d’ordre p, de n objets, est égale à : C nn = = n =
p Pn (n − p )! p!
n!
Remarque : C nn = 1 = , on admet que 0! = 1.
0!n!
Permutations
Une permutation de ces n objets, est une suite formée avec ces n objets, dans un ordre choisi
arbitrairement, deux permutations diffèrent par l’ordre de succession des objets discernables,
par contre l’échange de deux a, ou de deux b, … ne conduit pas à une nouvelle permutation.
10
Exemple : considérons l’ensemble a, a, b, b, b, c
Les permutations comportant c à la dernière place sont :
aa…c . a a .. c .. a a . c …aac
a . a .. c .a.a.c .. a . a c
a .. a . c . a .. a c
a…ac
Les b sont remplacés par des ‘.’ pour une meilleure lisibilité.
Il était possible de mettre c dans chacune des cinq autres places. Le nombre total des
permutations est 10*6 = 60.
D’une manière générale, le nombre des permutations des n objets est égale à :
n! (α + β + ... + λ )!
Pα , β ,...,λ = =
α ! β !...λ! α ! β !...λ!
6! 4*5*6
Dans l’exemple : P2,3,1 = = = 60
2!3!1! 2!
Arrangements
Etant donné n objets discernables (a1, a2, … ,an) et un entier p, on appelle arrangement avec
répétition, une suite formée par p objets choisis parmi (a1, a2, … ,an) et chacun des objets
pouvant être choisi jusqu’à p fois. Deux arrangements qui différent que par l’ordre des objets
discernables sont considérés comme différents.
Exemple : étant donné dix chiffres 0, 1, 2, … , 9, les arrangements avec répétition d’ordre 3
sont les nombres entiers compris entre 000 et 999.
Si p = 1 Α1n = n = n1
Combinaisons
Etant donné n objets discernables (x1, x2, … ,xn) et un entier p, on appelle combinaison avec
répétition CAR d’ordre p de ces n objets, un ensemble de p objets choisis parmi (x1, x2, …
,xn), le même objet pouvant être choisi jusqu’à p fois. Deux combinaisons ne différant que par
l’ordre des objets sont considérées comme identiques.
Exemple :
Les CAR d’ordre 2 de 3 objets (a,b,c) sont : aa, bb, cc, ab, ac, bc.
11
Κ 1n = n , le nombre de CAR d’ordre 1 de n objets.
Κ 2n = C n2 + n , c’est le nombre de combinaison d’ordre 2, plus le nombre de couples constitués
du même élément.
Le nombre total d’éléments dans tous les CAR d’ordre p, choisis parmi n éléments est : pΚ np
p p
Chaque élément figure Κ n dans les CAR d’ordre p choisies parmi n éléments.
n
Soit x un objet donné parmi les n objets et considérons le nombre de fois ou x figure dans les
combinaisons d’ordre p et les combinaisons d’ordre p-1, on a la relation suivante :
p p ( p − 1) p
Κ n = Κ np −1 + Κn
n n
Κ np −1 : Le nombre de fois où l’objet x est ajouté aux CAR d’ordre p-1.
( p − 1) p
Κ n : Le nombre de fois où l’objet x figure dans les CAR d’ordre p-1.
n
p p (p - 1) p-1
K n = K pn-1 + Kn
n n
(n + p - 1) p-1
K pn = Kn
p
(n + p - 1) (n + p − 2) n + 1 1 (n + p - 1) (n + p − 2) n + 1
K pn = ... Kn = ... n
p p −1 2 p p −1 2
(n + p − 1)!
K pn = = C np + p−1
p!(n − 1)!
12
Exercices
Exercice 1
Utiliser les axiomes de l’algèbre des événements pour démontrer les relations suivantes :
1) E = Ø
2) A + B = A + A B + ABC
3) A + E = E
n
4) P(A) = ∑ P( AE ) , pour tout ensemble Ei, i = 1,…,n, de parties mutuellement exclusives et
i =1
i
collectivement exhaustives.
5) P(A1A2…An) = P(A1)P(A2/A1)P(A3/A1A2)…P(An/ A1A2…An-1)
Exercice 2
Expliquer en détail vos réponses aux questions suivantes :
1) Si les événements A et B sont mutuellement exclusifs et collectivement exhaustifs, est-ce
que A et B les ont aussi ?
Exercice 3
Pour trois jets d’une pièce de monnaie, supposée parfaite, déterminer les probabilités :
1) d’obtenir PPP (P = ‘‘pile’’, F = ‘‘face’’),
2) d’obtenir PFP,
3) d’avoir deux piles et une face,
4) d’avoir plus de piles que de faces.
Déterminer la probabilité conditionnelle de :
5) ‘‘plus de piles que de faces’’ sachant que ‘‘au moins une face’’,
6) ‘‘plus de piles que de faces’’ sachant que ‘‘moins de deux faces’’.
Exercice 4
Casimir est un fou avec une probabilité de 0.6, un voleur avec une probabilité de 0.7 et ni l’un
ni l’autre avec une probabilité de 0.25.
1) Quelle est la probabilité qu’il soit fou ou voleur mais pas les deux ?
2) Quelle est la probabilité conditionnelle qu’il soit un voleur sachant qu’il n’est pas fou ?
Exercice 5
Un jeu commence par le choix d’un des deux dés A et B tel que A est choisi avec une
probabilité p. Le dé choisi est ensuite lancé jusqu’à ce qu’une face blanche apparaisse, auquel
cas le jeu est terminé.
Le dé A a 4 faces rouges et 2 faces blanches, le dé B a 2 faces rouges et 4 faces blanches.
Après que le jeu ai été joué longtemps, on observe que la probabilité que le jeu s’achève en
exactement trois lancers est 7/81. Déterminer p.
13
Exercice 6
La maison de la famille Durand abrite le père, la mère, 4 enfants, 2 chats et 3 chiens. Toutes
les six heures, la maisonnée forme un groupe de 5 (personnes et animaux) avec les règles
suivantes :
• Il y a au moins un parent et un animal dans chaque groupe.
• Il n’y a jamais un chien et un chat dans le même groupe à moins que les deux parents
n’y soient.
• Tous les groupes sont équiprobables.
Sachant qu’exactement un des parents se trouve dans le groupe de 18 heures, quelle est la
probabilité que Rover, le chien le plus âgé, y soit ?
14
2. Les variables aléatoires et lois de probabilités
Définition
Une variable aléatoire (VA) est définie par une application de Ω (ensemble fondamental) vers
R:
X:Ω → R
w a X(w)
X(Ω) = {y ∈ R / ∃ w ∈Ω, X(w) = y}
Si X(Ω) est un sous ensemble finie de R alors X est une variable aléatoire réelle discrète finie.
Si X(Ω) est un sous ensemble dénombrable de R, alors X est une Variable aléatoire discrète
infinie
Si X(Ω) est un intervalle de R alors X est une Variable aléatoire continue.
X(Ω) est appelé support de la variable aléatoire X.
Notation :
X désigne une VA (application de Ω vers R)
x désigne un réel qui appartient à X(Ω)
Fonction de répartition
Propriétés
(1) ∀ x ∈ R, 0 ≤ FX(x) ≤ 1
(2) FX est croissante sur R
(3) lim FX (x) = 0 et lim FX (x) = 1 et FX est continue à droite de tout point de R
x → −∞ x → +∞
(4) Si a ≤ b, P(a < x ≤ b) = FX(b) – FX(a)
En effet :
(3) FX est une fonction croissante sur R et bornée sur [0, 1], donc elle admet une limite au
voisinage de -∞ et au voisinage de +∞
An = (X≤n), n ∈N
15
UA n = ( X ∈ R ) = Ω ⇒ lim P(A n ) = 1 ⇒ lim F(n) = 1
n → +∞ n → +∞
n∈N
Donc lim P (C n ) = P(X ≤ x 0 ), c' est à dire lim F(x 0 + 1/n) = F(x 0 ) , la continuité de FX à droite
n → +∞ n → +∞
de tout x0 de R est ainsi déduite.
Exemple
Considérons le cas d’une variable aléatoire X associée à l’expérience aléatoire qui consiste à
jeter un dé parfait numéroté de 1 à 6 et relever le numéro obtenu.
On à X(Ω) = {1, 2, 3, 4, 5, 6} et P(X = xi) = 1/6.
Lois discrètes
Soit X une VA discrète sur Ω. L’ensemble des valeurs prises par X est X(Ω) = {x1, x2,
….,xn,…}. A chaque xn, on peut associer P(X= xn) et on a : ∑ P(X = x n ) = P(Ω) = 1
n
La loi discrète est caractérisée par l’ensemble X(Ω) et par la donnée de la probabilité P(X=
xn) associée à chaque valeur X.
Si X(Ω) est fini, il est possible de représenter la loi discrète X sous forme d’un tableau :
16
X x1 x2 … x j … xn
P(X) p1 p2 … pj … pn
La première ligne du tableau indique les différentes valeurs possibles de la variable aléatoire
X et la deuxième ligne présente les probabilités : P(X = xj), j = 1, …, n.
Loi de Bernoulli
X 0 1
P(X) 1 - p p
Exemples :
(1) Jet d’une pièce de monnaie équilibrée, a chaque jet il y a deux résultats possibles :
P(pile) = 1/2 et P(face) = 1/2
(2) Une urne contient b boules blanches et n boules noires, on choisit au hasard une boule
qui ne peut être que blanche ou noire :
P(boule blanche) = b/(n+b), P(boule noire) = n/(n+b)
(3) Une pièce fabriquée par une machine, deux résultats possibles : pièce acceptable ou pièce
défectueuse.
La loi de Bernoulli est notée par B(p).
Loi binomiale
Soit E une expérience aléatoire liée à une loi de Bernoulli. E admet deux résultats possibles R1
et R2 : P(R1) = p et P(R2) = 1-p
On répète E n fois dans des conditions identiques (p est constant) et indépendantes (faire E la
ième fois est indépendant avec faire E la jème fois).
Soit X la VA qui désigne le nombre de fois où le résultat R1 est obtenu, X(Ω) = {0, 1, …., n}
X = k ≡ k fois R1 et (n-k) fois R2
Le nombre de fois où cette configuration est obtenue est égale au nombre de permutations
avec répétition d’ordre n où R1 figure k fois et R2 figure (n-k) fois :
n!
Pk, n − k = = C kn
k!(n − k)!
P(X = k) = Pk,n −k p (1 − p) n −k = C kn p k (1 − p) n −k
k
17
On vérifie facilement que la somme des probabilités est égale à 1, en utilisant la formule du
binôme :
n n
∑ P(X = k) = ∑ C kn p k (1 − p) n −k = (p + (1 − p)) n = 1
k =0 k =0
Loi uniforme discrète
La variable aléatoire associée à une loi uniforme discrète admet n valeurs 1, …., n et pour
lesquelles on P(X = i) = 1/n, i = 1,…,n
Exemple : jet d’un dé équilibré à 6 faces.
X 1 2 3 4 5 6
P(X) 1/6 1/6 1/6 1/6 1/6 1/6
Loi hypergéométrique
Soit une urne contenant N boules, dont n1 sont blanches et N - n1 = n2 sont noires. On tire
successivement et sans remise n boules, soit X la variable aléatoire qui désigne le nombre de
boules blanches obtenues.
18
Calculons la probabilité de la configuration B,…,B,N,…,N : k boules blanches et n-k boules
noires.
Les tirages sont dépendants, on utilise le Théorème de multiplication :
P(B,…,B,N,…,N) = P(B)P(B/B)…P(N/B,…,B)….P(N/B,…,B,N,…,N)
n n − 1 n − (k − 1) n 2 n 2 −1 n − (n − k − 1)
= 1 1 L 1 L 2 ²
N N − 1 N − (k − 1) N − k N − (k + 1) N − (n − 1)
n 1! n 2! (N − n)!
=
(n 1 − k)! (n 2 − (n − k))! N!
n 1! n 2! n!(N − n)!
=
k!(n 1 − k)! (n − k)!(n 2 − (n − k))! N!
C nk1 C nn2−k
=
C Nn
C kn1 C nn -2k
Il est possible de vérifier que ∑ P(X = k ) = ∑ = 1, Θ = {sup(0, n - n 2 ),..., inf(n, n 1 )}
k∈Θ k∈Θ C nN
∑ C nN x n = ∑ C nj 1 x j ∑ C kn 2 x k
n =0 j= 0 k =0
0 ≤ j ≤ n1
D’où l’égalité : C nN = ∑C
j+ k = n
j
n1 C kn 2 , avec
0 ≤ k ≤ n2
C = ∑ C kn1 C nn -2k
n
N
k∈Θ
19
Np!
= Np ( Np − 1)...( Np − k + 1) Ngrand
→ ( Np ) k
( Np − k )!
Nq!
= Nq ( Nq − 1)...( Nq − n + k + 1) Ngrand→ ( Nq ) n− k
( Nq − n + k )!
( N − n)! 1 1
= Ngrand
→ n
N! N ( N − 1)...( N − n + 1) N
n−k
( Np ) ( Nq )
k
Donc P ( X = k ) Ngrand → C kn n
= C kn p k q n −k , c’est l’expression de la loi B(n,p).
N
En pratique, la loi H(N,n,p) peut être approchée par la loi B(n,p) lorsque N ≥ 10n.
Une expérience aléatoire dont la probabilité de succès est p. Cette expérience est répétée dans
des conditions identiques et indépendantes jusqu’à ce qu’on obtienne r succès.
Soit n le nombre d’expériences réalisées :
p(n) = C rn−−11 p r (1 − p) n − r , n ∈ {r, r+1, … }.
+∞ +∞
Il est possible de montrer que : ∑ p(n) = ∑ C rn−−11p r (1 − p) n −r = 1
n =r n =r
+∞
p +∞
Si r = 1, on a bien ∑ C 0n −1p(1 − p) n −1 =
n =1
∑
1 − p n =1
(1 − p) n = 1
+∞
1
Supposons que : ∑C
n =r
r −1
n −1 (1 − p) n − r =
pr
+∞
-r
Dérivons les deux égalités ci-dessus par rapport à p : ∑ - (n - r)C
n =r
r −1
n −1 (1 − p) n − r -1 =
p r +1
n - r r −1
+∞ +∞
n - r r −1 1
⇒∑ C n −1 (1 − p) n − r -1 = ∑ C n −1 (1 − p) n − r -1 = r +1
n =r r n = r +1 r p
n - r r −1 n-r (n − 1)! (n − 1)!
Or ⇒ C n −1 = = = C rn −1
r r (r − 1)!(n − r)! r!(n − r − 1)!
20
+∞
Donc ∑C
n = r +1
r
n −1 p r +1 (1 − p) n − r -1 = 1
Loi de Poisson
C’est une loi discrète infinie qui dépend d’un paramètre λ strictement positif et est notée par
λk
P(λ), cette loi a pour expression : P ( X = k ) = e −λ
k!
+∞
λk
Le développement en série entière de la fonction exponentielle : e λ = ∑ permet de
P k =0 k!
X
k
+∞
démontrer facilement que ∑ ( = ) =1
k
=0
On peut déterminer quel est l’entier le plus probable en formant le rapport :
P( X = k ) λk (k − 1)! λ
= = ,k ≥1
P( X = k − 1) k! λk −1 k
Ce qui montre que pour tous les entiers inférieurs à λ, on a P(X = k) > P(X = k-1),
P(X = k) est croissante, puis décroissante pour les entiers k > λ, le maximum est atteint pour
l’entier k = [λ]. Pour les cas où [λ] = 0 (λ < 1), les valeurs de P(X = k) sont décroissantes et la
valeur maximale est P(X = 0). Si λ est un entier, il y a deux probabilités maximales qui sont
égales : P(X = λ) et P(X = λ-1).
Les figures ci-dessous présentent les distributions de P(4) et P(0.4) sur l’ensemble {0, …10}.
La loi de Poisson est utilisée pour décrire le nombre de réalisations d’un événement dont la
probabilité est faible :
21
• Le nombre d’accidents se produisant dans une usine au cours
d’une période de temps donnée.
• Le nombre d’articles défectueux compris dans un envoi de bonne qualité.
• Le nombre d’appels téléphoniques pendant un intervalle de temps donné.
En pratique cette approximation est considérée comme acceptable si n ≥ 30, p ≤ 0.1 et np ≤ 15.
Soit X une variable aléatoire discrète, g une fonction définie sur X(Ω), Calculons la loi de
probabilité de Y = g(X) :
g : X (Ω ) → R
x i a g(x i )
Exemple :
Loi de X :
xi -1 1 2
P(X=xi) 1/4 1/2 1/4
22
Loi de Y = eX
yj e-1 e e2
P(Y= yj) 1/4 1/2 1/4
Loi de Z = X2
Z = 1 ≡ X = 1 ou X = -1, donc P(Z=1) = P(X=-1) + P(X=1)
zk 1 4
P(Z= zk) 3/4 1/4
Soit X une variable aléatoire, dans le cas où X(Ω) est un intervalle de R alors X est dite
variable aléatoire continue.
b
On suppose qu’il existe une fonction f tel que ∀a, b ∈ R, P( X ∈ [a, b]) = ∫ f ( x)dx
a
La fonction f est appelée alors densité de probabilité ou densité de la variable aléatoire
continue.
Pour qu’une fonction f soit une densité de probabilité, il faut et il suffit donc qu’elle satisfasse
aux deux conditions suivantes :
f(x) ≥ 0
+∞
∫ f ( x)dx = 1
−∞
Remarques
Exemple : on suppose que la longueur X d’une pièce fabriquée en série est distribuée
selon une densité de probabilité donnée par :
x / 3 si 0 ≤ x ≤ 2
f X ( x) = 2 − 2 x / 3 si 2 ≤ x ≤ 3
0 ailleurs
Vérifier que fX est une densité de probabilité et représenter son graphe.
23
Calculer P(1 ≤ X ≤ 2,5) ainsi que P(1 ≤ X ≤ 2,5/X ≤ 2)
3
fX est une fonction positive et on a ∫f
0
X ( x)dx = 1
2 2, 5
P(1 ≤ X ≤ 2,5) = ∫ ( x / 3)dx + ∫ (2 − 2 x / 3)dx = 3 / 4
1 2
2
P(1 ≤ X ≤ 2,5 et X ≤ 2)
∫ ( x / 3)dx
1
P(1 ≤ X ≤ 2,5/X ≤ 2) = = 2
= 3/ 4
P ( X ≤ 2)
∫ ( x / 3)dx
0
Soit X une variable aléatoire continue de densité fX et soit g une fonction strictement
monotone (décroissante ou croissante) et dérivable. Calculons la densité de la variable
aléatoire Y = g(X).
FX et FY sont respectivement les fonctions de répartition de X et Y.
FY(y) = P(Y<y) = P(g(X) < y) avec y ∈ Y(Ω) ={ y ∈ R / ∃ x ∈X( Ω), g(x) = y}
24
Cas d’une fonction non bijective
Soit X une variable aléatoire continue de densité fX, calculons la densité de la variable
aléatoire Y = X2.
fX
t
d
t
−
Soit x ∈ X(Ω), (− ) = ∫
−∞
() , posons u = -t
x
FX
fX
u
d
u
fX
u
d
u
FX
x
+∞
(− ) = − ∫ (− ) = ∫ ( ) = 1− ( )
x
+∞
La loi uniforme est caractérisée par une fonction densité constante sur l’intervalle de
définition : [a, b], b > a
b b
Cette constante est calculée de telle manière que : ∫ f U (u )du = cte ∫ du = cte(b − a) = 1
a a
1
si u ∈ [a, b]
f U (u ) = b − a
0 ailleurs
0 si u < a
u - a
FU (u ) = si a ≤ u ≤ b
b - a
1 si u > 1
25
Loi normale N(μ,σ)
Cette loi constitue un modèle fréquemment utilisé dans divers domaines : variation du
diamètre d’une pièce dans une fabrication industrielle, répartition des erreurs de mesure
autour de la vraie valeur. La densité de cette loi est :
( x−µ )2
1 −
2σ 2
f ( x) = e pour x ∈ R
2π σ
Théorème :
Si X est une variable aléatoire normale N(μ,σ), alors la variable aléatoire continue Y = αX + β
est normale, de loi N(αμ+β, ασ) avec α ≠ 0.
y−β
En effet : La fonction g(X) = αX + β est strictement monotone, et g −1 ( y ) =
α
On utilise la relation : fY(y) = │(g-1)’(y)│ fX(g-1(y))
1 ( y − β − αµ ) 2
fY ( y) = e− ⇒ Y :N(αμ + β, ασ)
α 2π σ 2σ 2α 2
1 µ
Application : α = et β = −
σ σ
Dans ce cas αμ + β = 0 et ασ = 1
Toute loi normale N(μ, σ) peut être transformée en une loi normale centrée réduite.
26
La fonction densité de probabilité d’une loi normale centrée réduite est symétrique, par suite
x
∀ x ∈ R alors : Φ(− ) = 1 − Φ( )
Il existe des tables pour calculer les valeurs de la fonction Φ, fonction de répartition d’une loi
normale centrée réduite.
P( X ∈ [-1, 1] ) 0,68
P( X ∈ [-2, 2] ) 0,95
P( X ∈ [-3, 3] ) 0,99
Loi exponentielle
Définition :
+∞
En effet f est une fonction positive et ∫ f ( x)dx = 1
−∞
La fonction de répartition de la loi exponentielle est donnée par :
1 − e − λx si x ≥ 0
F ( x) =
0 si x < 0
27
La loi Gamma
Définition :
Soit b et t deux nombres réels strictement positifs.
Une variable aléatoire X suit la loi gamma de paramètres b et t, lorsqu’elle admet pour densité
−
x
b t −1 +∞
f ( x) = e x
si > 0
la fonction f définie par x , avec Γ( x) = ∫ t x −1e −t dt
Γ(t )b t
0
f ( x) = 0 si x ≤ 0
+∞
f est une fonction densité de probabilité car elle est positive et ∫ f ( x)dx = 1 , en effet :
0
+∞ +∞
1 Γ(t )b t
∫ f ( x)dx = Γ(t )b ∫ e
−u
On pose x = bu et b t −1u t −1bdu =
=1
0 0
t
Γ(t )b t
La fonction Γ vérifie la propriété : Γ(x+1) = xΓ(x) et si n est un entier alors Γ(n+1) = n!, avec
Γ(1) = 1.
La loi gamma de paramètres b et 1, est une loi exponentielle de paramètre 1/b.
L’ensemble des valeurs prises par (X, Y) sont les couples de X(Ω) × Y(Ω), c’est l’ensemble
de tous les couples dont le premier élément appartient à X(Ω) et le deuxième appartient à
Y(Ω).
∑ ∑ pij = ∑ ∑ P( X = xi et Y = y j ) = ∑ P( X = xi ) = 1
i∈I X j∈I Y i∈I X j∈IY i∈I X
Lorsque les variables aléatoires X et Y sont finies, le nombre de couples possibles est
card(X(Ω))*card(Y(Ω)), il est alors possible de représenter le couple aléatoire (X,Y) par un
tableau :
28
Y Probabilités
y1 … yj … ym
X marginales
x1 p1.
⁞ ⁞
xi pij pi.
⁞ ⁞
xn pn.
Probabilités
p.1 … p.j … p.m 1
marginales
Exemple
Considérons l’expérience stochastique qui consiste à jeter trois fois de suite, une pièce de
monnaie équilibrée :
• X = nombre de ‘‘face’’; X(Ω) = {0, 1, 2, 3}
• Y = numéro du jet dans lequel apparaît ‘‘face’’ pour la première fois (on posera par
exemple Y = 4 s’il y a trois ‘‘pile’’.
Y
1 2 3 4 pi.
X
29
Couple aléatoire continue
X et Y sont deux variables aléatoires à densité sur respectivement X(Ω) et Y(Ω) deux sous
ensembles de R.
Les valeurs prises par le couple (X, Y) décrivent une partie du plan de dimension 2
Les variables aléatoires X et Y sont conjointement continues s’il existe une fonction fX,Y
appelée densité conjointe de (X, Y) telle que :
∀C ∈ R 2 , P(( X , Y ) ∈ C ) = ∫∫ f X ,Y ( x, y )dxdy
C
∀A, B ⊂ R, P(( X , Y ) ∈ A × B) = ∫∫ f
A× B
X ,Y ( x, y )dxdy
∂ 2 FX ,Y ( x, y )
Ce qui permet d’exprimer la densité conjointe de (X, Y) par : f X ,Y ( x, y ) =
∂x∂y
Les densités marginales de X et Y sont données par :
+∞ +∞
f X ( x) = ∫
−∞
f X ,Y ( x, y )dy et f Y ( y ) = ∫f
−∞
X ,Y ( x, y )dx
Exemple
+∞+∞
La fonction f est positive et on vérifie que ∫∫f
0 0
X ,Y ( x, y )dxdy = 1
+∞ +∞ +∞ +∞
− e −2 y + ∞
∫ 2e ∫ e dxdy = ∫ 2e [ ]0 dx = ∫ e − x dx =1
−x −2 y −x
En effet :
0 0 0
2 0
+∞ 1 +∞ 1
∫∫f ( x, y )dxdy = ∫ e ∫ 2e
−x −2 y
P(X>1,Y<1) = X ,Y dydx = [−e − x ]1+∞ [−e − 2 y ]10 = e −1 (1 − e − 2 )
1 −∞ 1 0
Pour calculer P(X<a), il faut déterminer la densité marginale fX :
30
+∞ − x − 2 y
f X ( x) = ∫
2e e dy = e − x [−e − 2 y ] + ∞0 = e − x si x ≥ 0
0
0 sinon
a
P( X < a) = ∫ f X ( x)dx =[−e − x ]0a = 1 − e − a
0
a b a b
FX ,Y ( x, y ) = ∫ ∫ f X ,Y ( x, y )dydx = ∫ ∫ 2e − x e − 2 y dydx
0 0 0 0
-x a −2 y b
= [-e ] [−e ] = (1 − e −a )(1 − e −2b )
0 0
∂ 2 FX ,Y (a, b)
On peut vérifier que : f X ,Y (a, b) =
∂x∂y
Dans le cas discret, une condition nécessaire et suffisante pour l’indépendance de deux
variables aléatoires X et Y est :
∀ xi ∈X(Ω) et ∀ yj ∈Y(Ω), P(X=xi et Y=yj) = P(X=xi)P(Y=yj)
= ∑ P( X = x)∑ P(Y = y ) = F
X ≤x Y≤y
X ( x) FY ( y )
Dans le cas continu, une condition nécessaire et suffisante pour l’indépendance de deux
variables aléatoires X et Y est : fX,Y(x,y) = fX(x)fY(y).
La première implication peut être démontrée en dérivant deux fois les fonctions de répartition
par rapport à x et par rapport à y.
L’implication inverse peut être démontrée en intégrant doublement les fonctions densité.
31
+∞ − x − 2 y
f X ( x) = ∫
2e e dy = e − x [−e − 2 y ] + ∞0 = e − x si x ≥ 0
0
0 sinon
+∞ − x − 2 y
fY ( y) = ∫
2e e dx = 2e − y [−e − x ]0+ ∞ = 2e − 2 y si x ≥ 0
0
0 sinon
Les variables aléatoires X et Y sont indépendantes.
Lois conditionnelles
Cas discret
X/A x1 x2 … xj … xn
P(X/A) P(X=x1/A) P(X=x2/A) … P(X=xj/A) … P(X=xn/A)
Cas particulier : Si Y est une V A discrète, la loi de X sachant Y = y est l’ensemble des
couples (x ∈X( Ω), P(X = x/Y = y)).
P ( X = x, Y = y )
P( X = x / Y = y ) = , c’est le rapport de la probabilité conjointe et de la
P(Y = y )
probabilité marginale.
X/Y = 2 0 1 2 3
P(X=xi/Y=2) 0 1/2 1/2 0
Il est également possible de définir une loi conjointe conditionnelle, si (X, Y) est un couple
discret et A un événement de probabilité non nulle, on a :
P ( X = x, Y = y )
si (x, y) ∈ A
p X ,Y / A ( x, y ) = P ( A)
0 sinon
Cas continu
Comme pour le cas discret, il est possible de définir une fonction densité conjointe
conditionnelle, si X et Y sont deux V A à densité et A un événement de probabilité non nulle :
32
f X ,Y ( x, y )
si (x, y) ∈ A
f X ,Y / A ( x, y ) = P( A)
0 sinon
Exemple
3x si 0 ≤ y ≤ x ≤ 1
Soit la densité conjointe de (X,Y) donnée par : f X ,Y ( x, y ) =
0 sinon
Calculer la densité conditionnelle de Y sachant X = x et la densité marginale de Y.
1
y=x
Le domaine de définition D de la fonction fX,Y est
x
f X ( x) = ∫
3 xdy = 3 x 2 si 0 ≤ x ≤ 1 1 x
0
0 sinon
La densité conditionnelle de Y sachant X = x est :
f X ,Y ( x, y ) 1
= si 0 ≤ y ≤ x ≤ 1
f Y / X ( y / x) = f X ( x) x
0
1 x2 1 3
La densité marginale de Y est : f Y ( y ) = ∫y
3 xdx = [3 ] y = (1 − y 2 ) si 0 ≤ y ≤ 1
2 2
0 sinon
Cas discret
33
Si les V A X et Y sont indépendantes alors :
P(Z=z) = ∑ P ( X = x) P (Y = z − x) = ∑ P ( X = z − y ) P (Y = y )
x∈X ( Ω ) y∈Y ( Ω )
e −λ z − x e − µ
+∞ z
λx µ z−x
P(Z=z) = ∑ λ µ
x
=e −λ − µ
∑ , car z-x = y ≥ 0
x =0 x! ( z − x)! x = 0 x! ( z − x)!
e −λ −µ z λx µ z − x e −λ −µ
P(Z=z) = ∑ z !
z! x = 0 x! ( z − x)!
=
z!
(λ + µ ) z
La somme de deux lois de Poisson indépendantes de paramètres λ et μ, est une loi de Poisson
de paramètre λ + μ.
Ce résultat peut être généralisé à la somme de n lois de Poisson indépendantes, de paramètres
λi, est une loi de Poisson de paramètre λ1 + λ2 + … + λn.
Cas continu
X et Y sont deux V A à densité et soit Z = X + Y, calculons la densité de Z.
FZ(z) = P(Z<z) = P(X+Y < z) = ∫∫ f X ,Y ( x, y )dxdy , avec Dx,y = {(x,y) ∈ R2 / x + y < z}
Dx , y
+∞ z − x
FZ(z) = ∫ ∫f
−∞ −∞
X ,Y ( x, y )dydx
u=x x=u
Faisons le changement de variables suivant : ⇔
v= x+ y y = v−u
(x,y) ∈ Dx,y ⇔ (u,v) ∈ Du,v avec Du,v = {(u,v) ∈R2 / v < z}
D ( x, y )
FZ(z) = ∫∫ f X ,Y ( x, y )dxdy = ∫∫ f X ,Y ( x(u , v), y (u , v)) dudv
Dx , y Du , v D(u , v)
∂x ∂x
D( x, y ) ∂u
= ∂v = 1 0 = 1
D(u, v) ∂y ∂y − 1 1
∂u ∂v
z +∞ z
FZ(z) = ∫ ∫f
−∞ -∞
X ,Y (u , v − u )dudv = ∫f
−∞
Z (v)dv , ce qui permet d’obtenir l’expression de la
+∞ +∞
densité de Z : f Z ( z ) = ∫f
−∞
X ,Y (u , z − u )du = ∫f
−∞
X ,Y ( x, z − x)dx , d’une manière analogue, il est
+∞
possible de montrer que f Z ( z ) = ∫f
−∞
X ,Y ( z − y, y )dy
34
Application : Calculer la loi de la somme de deux V A indépendantes, normales centrées
réduites :
x2 y2
1 − 1 −
f X ( x) = e 2
et f Y ( y ) = e 2
2π 2π
1
+∞
−
x2
−
( z − x )2
1 1
+∞
−
( x − z / 2)2
−
z2
2π −∫∞ ∫
f Z ( z) = e e 2
dx = 2
e e 2*1 / 2 2*2
d ( x )
2 2π 1 2π −∞
2
x 2 ( z − x) 2 z2
Cette égalité est vérifiée car − − = − − ( x − z / 2) 2
2 2 4
1
Le terme entre crochets vaut 1 car c’est l’intégrale sur R de la densité d’une loi N(z/2, ) et
2
la loi Z est une loi normale N(0, 2)
x=u u=x
Faisons le changement de variables suivant : v ⇔
v = xy y=
u
2
(x,y) ∈ Dx,y ⇔ (u,v) ∈ Du,v avec Du,v = {(u,v) ∈R / v < z}
D ( x, y )
FZ(z) = ∫∫ f X ,Y ( x, y )dxdy = ∫∫ f X ,Y ( x(u , v), y (u , v)) dudv
Dx , y Du , v D(u , v)
∂x ∂x
D( x, y ) ∂u 1 0 1
= ∂v = v 1 =
D(u, v) ∂y ∂y − 2 u
u u
∂u ∂v
z +∞ z
v dudv
FZ(z) = ∫ ∫ f X ,Y (u, ) = ∫ f Z (v)dv , ce qui permet d’obtenir l’expression de la densité
−∞ -∞
u u −∞
+∞ +∞
z du z dx
de Z : f Z ( z ) = ∫−∞ f X ,Y (u, u ) u = −∫∞ f X ,Y ( x, x ) x , d’une manière analogue, il est possible de
+∞
z dy
montrer que f Z ( z ) =
−∞
∫f
( , y)
y
X ,Y
y
Si en plus les V A X et Y sont indépendantes alors la densité de Z = XY, a pour expression :
+∞ +∞
z dx z dy
f Z ( z ) = ∫ f X ( x) f Y ( ) = ∫ f X ( ) f Y ( y) .
−∞
x x −∞ y y
Application : Calculer la loi du produit de deux V A indépendantes, uniformes sur [-1 , 1] :
1 1
si - 1 ≤ x ≤ 1 si - 1 ≤ y ≤ 1
f X (x) = 2 et f Y ( y ) = 2
0 sinon 0 sinon
x ∈[-1 , 1] et y ∈[-1 , 1] alors z = xy ∈[-1 , 1]
35
+1
z dx z z
f Z ( z) = ∫f
−1
X ( x) f Y ( )
x x
et f Y ( ) ≠ 0 ⇔ −1 ≤ ≤ 1 ⇔ z ≤ x
x x
−z 1
dx dx 1
Si z ≥ 0 alors f Z ( z ) = ∫ − +∫ = − log( z )
−1
4x z 4x 2
1
1
z
dx dx
Si z ≤ 0 alors f Z ( z ) = ∫ − +∫ = − log(− z )
−1
4x −z 4x 2
1
− log( z ) si - 1 ≤ z ≤ 1
Finalement f Z ( z ) = 2
0 sinon
1
Il est possible de vérifier que ∫f
−1
Z ( z )dz = 1 , en effet :
z
d
z
z
d
z
d
z
1 1
1 1
2 −∫1
− log( = − ∫ log( ) = −[ log( )]10 + ∫ =1
0
0
X
X et Y sont deux V A à densité et soit Z = , calculons la densité de Z.
Y
X x
FZ(z) = P(Z<z) = P(
Y
< z) = ∫∫ f X ,Y ( x, y )dxdy , avec Dx,y = {(x,y) ∈ R2 /
y
< z}
u v
xx y
Dx , y
x y
uu v
= =
Faisons le changement de variables suivant : = ⇔
=
x vy v v
∂ ∂
DD
xu
yv
u
u
( , ) ∂ 1 0 −
∂
v
= = 1 − = 2
v
v
( , ) ∂ ∂ 2
∂ ∂
uv
u
z
z
fX
u
d
u
d
v
fZ d
v
d
+∞
−
v fX
FZ(z) = ∫∫ ∫
Y
, ( , ) 2
= ( ) , ce qui permet d’obtenir l’expression de la
u
u
xz
−∞ -∞ −∞
fZ
z
fX
d
x
+∞ +∞
− −
z
z
densité de Z : ( )= ∫ ∫
Y
( , ) =
Y
, 2 , ( , ) 2
.
−∞ −∞
+∞
Il est possible de montrer que f Z ( z ) = ∫f X ,Y ( zy, y ) y dy , lorsque le changement de variables
x uy u
x vy v
−∞
u v
yx y
v
u
y x
u u
∂ ∂
DD
xu
yv
=
u
= ( , ) ∂ ∂
v
36
X
Si en plus les V A X et Y sont indépendantes alors la densité de Z = , a pour expression :
Y
xz
x
fZ
z
fX
x
fY
d
x
fX
z
y
fY
y
y
d
y
+∞ +∞
−
z
( )= ∫
−∞
( ) ( ) 2
=
−∞
∫ ( ) ( ) .
x
fX
x
e
2
y2
1 − 1 −
( )= 2
et f Y ( y ) = e 2
2π 2π
x
x ∈ R et y ∈ R alors z = ∈ R
y
x
xz
x z
x z
x
x
fZ
z
e
e
d
x
e
e
d
x
2 2 2 2
+∞ +∞
1 − − − 1 − −
z
∫ ∫ , posons u = x2
2 2
( )= 2 2
= 2 2
2π −∞
2
π 0
2
+∞
dz
u
u
u
fZ
z
e
1 1
1
+∞
1 − (1+ 2 ) 1
z
− (1+ ) z
z
∫
2
( )= 2
= − 2
= , c’est la loi de Cauchy.
z
2π 2
1 π (1 + 2
)
z
0 π 2
(1 + 2 )
0
Xi
χ2 = ∑ 2
n
, avec Xi → N(0, 1)
i
=1
x
x
e
f
x
−1 − +∞
2 2
( )= avec Γ( x) = ∫ t x −1e −t dt
n
2 2 Γ( / 2 ) 0
rs
sr
t
t
d
t
Γ( )Γ( )
s
+∞
r
( )= , avec X → χ 2 et Y → χ 2
m
37
m
mn
m
n
m
z
−1 2 +
2
Γ
f
z
2
La densité d’une loi Fisher Snedecor F(m,n) : ( )=
m
n
m
n
mn
z
+
2
Γ Γ + 1
2 2
La loi de Student
= , Z → N(0, 1) et X → χ 2
n
Le domaine de variation de la loi de Student est l’ensemble des réels R, comme pour la loi
normale.
n
+1
Γ
f
t
1 2
La densité d’une loi de Student T : ( ) =
n
n
n
tn
n +1
π
2
2
Γ + 1
2
Il est possible de procéder par deux manières pour établir ce résultat :
(1) une loi de Student est le rapport de deux variables aléatoires.
Tn
F
n
(2) considérer le fait que 2 = (1, ) ( le carré d’une loi de Student Tn est une loi de Fisher
Snedecor F(1,n)).
38
Exercices
Exercice 1
Soit K une V A qui suit une loi géométrique :
C (1 − p) k −1 , k = 1,2,...
P( K = k ) =
0 sinon
1) Déterminer C
2) Soit N ∈ N, calculer la probabilité pour que K soit supérieure strictement à N.
3) Sachant que la V A, K est plus grande que N, quelle est la probabilité (conditionnelle)
qu’elle soit plus grande que 2N ?
4) Quelle est la probabilité pour que K soit un multiple 3 ?
Exercice 2
La probabilité qu’une ampoule particulière claque durant le k-ième mois d’utilisation est
k −1
1 4
donnée par la loi : P(K= k) = , k = 1,2,...
5 5
Quatre ampoules sont testées simultanément. Déterminer la probabilité que :
1) Aucune des quatre ampoules ne claque durant le premier mois d’utilisation.
2) Exactement 2 ampoules ont claqué à la fin du troisième mois.
3) Exactement une ampoule a claqué durant chacun des trois premiers mois.
4) Exactement une ampoule a claqué à la fin du second mois et exactement deux ampoules
fonctionnent encore au début du cinquième mois.
Exercice 3
On jette deux dés. Quelle est la probabilité pour que la somme des points donnés par la valeur
des dés soit i = 2, 3, …, 11, 12.
Exercice 4
Une urne contient trois boules rouges et sept boules noires. Les joueurs A et B tirent une
boule à tour de rôle jusqu’à ce qu’une rouge sorte et A commence le premier. Trouver la
probabilité pour que le joueur A tire la première boule rouge, les boules tirées ne sont pas
remises.
Exercice 5
On admet que 5% des hommes et 0,25% des femmes sont daltoniens. On sélectionne une
personne daltonienne au hasard. Quelle est la probabilité qu’il s’agisse d’un homme ? On
admettra que les hommes sont aussi nombreux que les femmes. Si au contraire il y en avait
deux fois plus que de femmes, que deviendrait le résultat ?
Exercice 6
Le nombre de clients d’un bureau de poste en l’espace d’une journée est une variable aléatoire
poissonienne de paramètre λ. La probabilité qu’un homme rentre dans le bureau est p.
Montrer que le nombre des hommes et celui des femmes parmi les clients quotidiens sont des
variables aléatoires poissoniènnes de paramètres respectifs λp et λ(1-p) et qu’elles sont
indépendantes.
39
Exercice 7
Soient X et Y deux variables aléatoires indépendantes de fonctions de répartition FX et FY,
calculer la fonction de répartition des variables aléatoires Min(X,Y) et Max(X,Y).
1 1
Application à X uniforme sur − , et Y uniforme sur [-1,1]
2 2
Exercice 8
Soit la fonction densité conjointe de X et Y donnée par :
fX,Y(x,y) = c(y2-x2)e-y pour –y ≤ x ≤ y et 0 ≤ y ≤ + ∞
Calculer c et les densités marginales de X et de Y
Exercice 9
Les moteurs d’un avion ont une probabilité de 1-p de défaillance en cours du vol, et ce
indépendamment les uns des autres. Un avion a besoin d’une majorité de ses moteurs
(supérieur ou égale à la moitié) pour pouvoir terminer son vol. Pour quelles valeurs de p un
avion à quatre (respectivement cinq) moteurs est-il préférable à un bimoteur (respectivement
trimoteur) ?
40
3. Les Moments d’une loi de probabilité
Les moments sont des caractéristiques numériques des variables aléatoires.
Espérance mathématique
évidemment l’existence de cette somme surtout pour une variable discrète infinie.
Pour une variable à densité X, elle est égale à : E ( X ) = ∫ xf X ( x)dx , cela suppose évidemment
R
l’existence de l’intégrale.
Proposition 1
Soit Y une variable aléatoire à densité, pour laquelle l’espérance existe alors :
+∞ +∞
E (Y ) = ∫ P(Y > y )dy − ∫ P(Y < − y)dy
0 0
Démonstration :
+∞ +∞ +∞ +∞
+∞ +∞
y (1 − FY ( y )) = y ∫ f (t )dt < ∫ tf (t )dt → 0 car E(Y) existe
y → +∞
y y
+∞ +∞
(− y )dy = [ yFY (− y )]
+∞
∫F
0
Y 0 + ∫ yf
0
Y (− y )dy , posons y = -s :
+∞ −∞
∫ yf Y (− y )dy =
0
∫ sf
0
Y ( s )ds
s s
yFy (− y ) = − sFY ( s ) = s FY ( s ) = s
−∞
∫f Y (t )dt < − ∫ tf Y (t )dt s
−∞
→ 0 car E(Y) existe
→ −∞
+∞ +∞ +∞ −∞
Donc ∫ P(Y > y )dy − ∫ P(Y < − y )dy = ∫ yf
0 0 0
Y ( y )dy − ∫ sf Y ( s )ds = E (Y )
0
+∞
La proposition 1 peut s’écrire également dans le cas discret : E (Y ) = ∑ P(Y > i ) , en effet :
i=0
P(Y > 0) = P(Y = 1) + P(Y = 2) + … + P(Y = n) + …
P(Y > 1) = + P(Y = 2) + … + P(Y = n) + …
…
P(Y > n-1) = P(Y = n) + …
…
En sommant ces lignes, on trouve :
41
P(Y>0) + P(Y>1) + .... + P(Y>n-1) + .. = P(Y=1) + 2P(Y=2) + ..... + nP(Y=n) + .... = E(Y)
Proposition 2
Soit g une fonction réelle et X une V A discrète, alors : E ( g ( X )) = ∑ g ( xi ) P( X = xi )
i
E (Y ) = ∑ y j P(Y = y j ) = ∑ y j ∑ P( X = xi ) = ∑∑ y j P( X = xi )
j j i∈I j j i∈I j
+∞ g (x)
+∞ +∞ +∞
fX s
x
d
x
d
s
fX
x
d
s
d
x
g
x
fX
x
d
x
−∞ 0 0
− ∫ ∫ ( ) = ∫ ∫ ( ) = ∫ ∫ ( ) =− ∫ ( ) ( )
x
g
x
x
g
x
x
g
x
g
x
x
g
x
(1) L’intérêt de la proposition 2 réside dans le fait que l’espérance de g(X) peut être calculée à
partir des caractéristiques de X (on peut se passer du calcul de la densité de g(X) ou de la loi
de g(X)).
X 1 2
P(X) 1/2 1/2
42
1/X 1 1/2
P(g(X)) 1/2 1/2
E(X) = 1*1/2 + 2*1/2 = 3/2 et E(g(X)) = 1*1/2 + 1/2*1/2 = 3/4
g(E(x)) = 2/3 ≠ 3/4
= ∑∑ αxi P( X = xi , Y = y j ) + ∑∑ β y j P( X = xi , Y = y j )
i j j i
= ∑ αx i p i . + ∑ β y j p. j
i j
= αE(X) + β E(Y)
= αE(X) + βE(Y)
= E(f(X))E(g(Y))
Moments d’ordre n
Définition
Le moment d’ordre n de la V A discrète X, de loi de probabilité P(X = x) est défini par :
43
E ( X n ) = ∑ xin P( X = xi ) , sous réserve de l’existence de cette quantité.
i
Le moment d’ordre n de la V A continue X, de densité fX, est défini par :
E ( X n ) = ∫ x n f X ( x)dx , sous réserve de l’existence de cette quantité.
R
Définition
Le moment centré d’ordre n d’une V A, est défini par : E[(X – E(X))n]
Var(X) est une caractéristique numérique de la V A, qui est positive par construction.
On désigne par σ(X) l’écart-type de X tel que : σ ( X ) = var( X ) .
Propriétés
(3) La variance est un indicateur de dispersion, plus l’écart entre les valeurs est grand plus la
variance est grande, en effet, considérons les trois variables aléatoires Y, Z et W :
Y -1 1 Z -100 100 W 0
P(Y) 1/2 1/2 P(Z) 1/2 1/2 P(W) 1
∫ xe ∫ ( x − µ )e ∫ µe
2 2
2σ 2
E( X ) = 2σ
dx = 2σ
dx + dx
2π σ −∞ 2π σ −∞ 2π σ −∞
44
x−µ
Posons u = ⇒ σdu = dx
σ
+∞
σ −2
+∞ u2 2
σ
u
−
E( X ) =
2π
∫ ue 2
dx + µ = − e + µ = µ
2π
−∞ −∞
+∞ ( x−µ )2
x−µ
[ ] 1 −
Var ( X ) = E ( X − E ( X )) 2 = ∫ (x − µ)
2
e 2σ 2
dx , posons u = ⇒ σdu = dx
2π σ −∞
σ
+∞
u2
2
+∞ +∞ u2
σ2 σ2 σ2
u
− − −
∫u ∫e
2
Var ( X ) = e 2
du = − ue 2
+ 2
du = σ 2
2π −∞ 2π − ∞ 2π −∞
b
b
x x2 b2 − a2 b + a
E( X ) = ∫ dx = = =
a
b−a 2(b − a ) a 2(b − a ) 2
b
x2
b
x3 b 3 − a 3 b 2 + ab + a 2
E( X ) = ∫
2
dx = = =
a
b−a 3(b − a ) a 3(b − a ) 3
b 2 + ab + a 2 (b + a ) 2 (b − a ) 2
Var ( X ) = E ( X 2 ) − E ( X ) 2 = − =
3 4 12
+∞ +∞ +∞
e − λx
E ( X ) = ∫ λxe − λx
dx = − xe [ 0]
− λx + ∞
+ ∫e − λx
dx = − =
1
0 0 λ 0 λ
+∞ +∞
2
E ( X ) = ∫ λx e
2 2 − λx
dx = − x e [ 2 − λx + ∞
0 ] + ∫ 2 xe −λx dx =
λ2
0 0
1
Var(X) = E(X2) – E(X)2 =
λ2
Loi de Cauchy
1
La loi de Cauchy ayant pour densité la fonction f ( x) = n’admet aucun moment car
π (1 + x 2 )
+∞
x
l’intégrale ∫ π (1 + x
−∞
2
)
dx diverge.
X 0 1
P(X) 1-p p
45
E(X) = 0*(1-p) + p*1 = p, E(X2) = 0*(1-p) + p*1 = p
Var(X) = E(X2) – E(X)2 = p – p2 = p(1-p).
Si Y est une loi Binomiale B(n, p) alors elle peut être considérée comme la somme de n
variables indépendantes de Bernoulli B(p), Xi
n n
Y = ∑ X i ⇒ E (Y ) = E (∑ X i ) = np
i =1 i =1
n
Var (Y ) = var(∑ X i ) = np (1 − p )
i =1
+∞
λk +∞
λk −1 +∞
λi
E( X ) = ∑ k e −λ = λ ∑ e −λ =λ ∑ e −λ = λ
k =0 k! k =1 ( k − 1)! i =0 i!
+∞
λ K +∞
λ k −1 +∞
λi +∞ λi +∞ λi
E( X 2 ) = ∑ k 2 e −λ = λ ∑ k e −λ = λ ∑ (i + 1) e −λ = λe −λ ∑ i + ∑
k!
k =0 k =1 (k − 1)! i =0 i! i = 0 i! i =0 i!
E(X2) = λ2 + λ et var(X) = E(X2) – E(X)2 = λ
Covariance
Définition
Soient X et Y deux variables aléatoires, la covariance de X et Y notée Cov(X, Y) est définie
par : cov(X, Y) = E[(X- E(X))(Y- E(Y))] = E(XY) – E(X)E(Y)
Remarques
(1) La covariance est symétrique : Cov(X, Y) = Cov(Y, X)
(2) Cov(X, X) = Var(X)
(3) Cov(aX + b, Y) = aCov(X, Y)
(4) La covariance de deux variables indépendantes est nulle, car dans ce cas
E(XY) = E(X)E(Y), mais la réciproque est fausse, en effet, considérons le couple (X,Y)
discret dont la loi est la suivante :
X 0 1 2 pi .
Y
0 0 1/2 0 1/2
1 1/4 0 1/4 1/2
p.j 1/4 1/2 1/4
Calculons la loi de Z = XY :
Z(Ω) = {0, 1, 2}
Z=0 ≡ X=0 ou Y=0, donc P(Z=0) = P(X=0) + P(Y=0) – P(X=0, Y=0) = 1/4 + 1/2 = 3/4
P(Z=1) = P(X=1,Y=1) = 0
P(Z=2) = P(X=2,Y=1) = 1/4
Z 0 1 2
La loi de Z est donc la suivante : P(Z) 3/4 0 1/4
46
Les variables X et Y sont dépendantes car P(X=0,Y=0) = 0 ≠ P(X=0)P(Y=0) = 1/8
E(XY) = E(Z) = 0*3/4 +1*0 + 2*1/4 = 1/2
E(X) = 0*1/4 + 1*1/2 + 2*1/4 = 1
E(Y) = 0*1/2 + 1*1/2 = 1/2
Cov(X,Y) = E(XY) – E(X)E(Y) = 1/2 – 1/2 = 0.
La variance de la somme de Xi i = 1, … ,n V A :
n n
var ∑ X i = ∑ var( X i ) + 2 ∑ cov( X i , X j )
i =1 i =1 1≤i < j ≤ n
La corrélation linéaire
Proposition
X et Y étant deux V A de variances non nulles, leur coefficient de corrélation est toujours de
module inférieur à 1 :
(1) − 1 ≤ ρ ( X , Y ) ≤ 1
(2) ρ(X, Y) = ±1 ⇔ Y = aX + b avec a, b ∈ R
Démonstration
X
Y
cov( , ) 2
X
47
cov( X , Y ) 2 a 2 var( X ) 2
ρ ( X ,Y )2 = = 2 =1
var( X ) var(Y ) a var( X ) 2
Soit que ρ(X, Y) = ±1
Espérance conditionnelle
Démonstration
X et Y deux V A à densité :
E X ( X ) = ∫ xf X ( x)dx = ∫ ∫ xf X ,Y ( x, y )dydx = ∫ ∫ xf X / Y ( x / y ) f Y ( y )dxdy
R R R R R
= ∫ E X ( X / Y = y ) f Y ( y )dy = EY ( E X ( X / Y = y ))
R
X et Y sont deux V A discrètes :
E X ( X ) = ∑ xP( X = x) = ∑∑ xP( X = x, Y = y ) = ∑∑ xP( X = x / Y = y ) P(Y = y )
x x y x y
= ∑ E X (X/Y = y)P(Y = y) = EY ( E X ( X / Y = y ))
y
Variance conditionnelle
48
La variance conditionnelle se définit comme le moment d’ordre 2 de la distribution
conditionnelle X/Y=y
Proposition
X, Y étant deux V A et g une fonction réelle, la variance conditionnelle de Y sachant X
minimise : E[(Y – g(X))2/X=x].
Démonstration
E[(Y – g(X))2/X=x] = E[(Y – E(Y/X=x) + E(Y/X=x) – g(X))2/X=x]
= E[(Y – E(Y/X))2/X=x] + 2E[(Y – E(Y/X))(E(Y/X) – g(X))/X=x] +
E[(E(Y/X) – g(X))2/X]
E(Y/X) – g(X) ne dépend que x, c’est donc une constante par rapport à la variable Y, il s’en
suit alors que : E[(Y – E(Y/X ))(E(Y/X) – g(X))/ X] = (E(Y/X) – g(X))E[(Y – E(Y/X))/X] = 0
Finalement, nous obtenons l’égalité suivante :
E[(Y – g(X))2/X] = E[(Y – E(Y/X))2/X] + E[(E(Y/X) – g(X))2/X]
Le minimum de E[(Y – g(X))2/X] est égale à E[(Y – E(Y/X))2/X], il est atteint si
g(X) = E(Y/X)
Théorème
Soit X et Y deux variables aléatoires, alors : VarX(X) = EY[VarX(X/Y)] + VarY(EX[X/Y]).
Démonstration
EY[VarX(X/Y)] = EY[EX[X2/Y] - EX[X/Y]2]
= EY[EX[X2/Y]] – EY[EX[X/Y]2]
= EX[X2] - EY[EX[X/Y]2]
De même : VarY(EX[X/Y]) = EY[EX[X/Y]2] - EY[EX[X/Y]]2
= EY[EX[X/Y]2] - EX[X]2
L’addition des deux égalités permet de trouver le résultat.
Xi
n
E
X
( / = )= ∑ = ( )
i
=1
E
S
E
E
S
N
E
N
E
S
E
N
E
S
( )= ( ( / )) = ( ( )) = ( ) ( )
49
E(S/N=n) = nE(X) et var(E(S/N)) = var(NE(X)) = E(X)2var(N)
Connaissant l’abscisse u, la table permet de donner F(u) = P(U<u) si u est positif, par exemple
si u=1,53 alors F(u) se lit sur l’intersection de la ligne 1,5 et la colonne 0,03 et qui correspond
à la valeur de 0,937
Connaissant une probabilité donnée comprise entre 0,5 et 1, il est possible de déterminer
l’abscisse u de la fonction de répartition.
Calculons par exemple u tel que F(u) = 0,3, dans ce cas u est négatif et P(U<-u) = 0,7, la
valeur de -u peut être lue directement sur la table : 0,52 ≤ -u ≤ 0,53
Pour estimer une valeur de –u, on peut faire une interpolation linéaire qui consiste à
considérer qu’il existe une relation linéaire entre p et –u, cela revient à résoudre le système
0,52 = a 0,6985 + b
suivant :
0,53 = a 0,7019 + b
0,52 1
0,53 1 0,52 − 0,53 − 0,01
a= = = = 2,9411
0,6985 1 0,6985 − 0,7019 − 0,0034
0,7019 1
0,6985 0,52
0,7019 0,53 0,53 * 0,6985 − 0,52 * 0,7019 0,0052
b= = = = −1,5344
0,6985 1 0,6985 − 0,7019 − 0,0034
0,7019 1
Après avoir déterminé a et b, on a : -u = 0,7a+b → -u = 0,5243, soit que u = -0,5243
x−m
Après avoir déterminé a et b, on a = a 0,83 + b = 0,9542 → x = 0,9542σ + m
σ
Le tableur Excel peut être utilisé pour obtenir la probabilité p d’une loi normale centrée
réduite, connaissant l’abscisse u : =LOI.NORMALE.STANDARD(u)
A l’inverse, connaissant p, il est possible de déterminer l’abscisse u :
=LOI.NORMALE.STANDARD.INVERSE(p)
50
Table de la fonction de répartition de la loi normale centrée réduite
51
Exercices
Exercice 1
Une paire de dé à quatre faces (1,2,3,4) est lancée une seule fois. X est la variable aléatoire
discrète représentant le produit des faces inférieures des dés. Déterminer la variance
conditionnelle de X2 sachant que la somme des faces est plus grande que leur produit.
Exercice 2
Les variables aléatoires X et Y sont décrites par leur densité conjointe :
K si x + y ≤ 1, x > 0, y > 0
f X ,Y ( x, y ) =
0 sinon
1) X et Y sont-elles indépendantes ?
2) X et Y sont-elles conditionnellement indépendantes sachant que max(X,Y) ≤ 0.5 ?
3) Soit R = XY, calculer E(R).
4) Si A et B sont les événements ‘‘2(Y-X) ≥ Y + X’’ et ‘‘Y ≥ 3/4’’, calculer P(A), P(B),
P( A B), P( A B ). Déterminer et faire le digramme de la densité conditionnelle
f X / AB ( x / A B ) .
Exercice 3
Les variables aléatoires X et Y ont la densité conjointe :
Ax si 1 ≤ x ≤ y ≤ 2
f X ,Y ( x, y ) =
0 sinon
1) Calculer A
2) Calculer la fonction densité de probabilité de Y : fY(y)
1 3
3) Quelle est E / Y = ?
X 2
4) Quelle est fZ(z), la densité de probabilité de la variable aléatoire Z = X – Y ?
Exercice 4
Un ensemble a un cardinal de n éléments. On choisit de façon aléatoire et équiprobable un
sous-ensemble non vide. Soit X la variable aléatoire discrète, cardinal du sous-ensemble
choisi. Montrer que :
n
E( X ) = n −1
1
2−
2
2n−2
n2 − n(n + 1)2 n − 2
Var ( X ) =
2n − 1
2
( )
n
Montrer que pour n→+∞, var(X) ≈ , comparer ce résultat avec la forme limite que prend
4
1
var(Y) pour P(Y = i) =
n
On démontrera ou on utilisera les égalités suivantes :
n n
∑ kC
k =1
k
n = n2 n −1
et ∑k
k =1
2
C nk = n(n + 1)2 n − 2
52
Exercice 5
Les variables aléatoires X et Y sont décrites par la densité conjointe :
1 si 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
f X ,Y ( x, y ) = et la variable Z est définie par Z = XY.
0 si non
Déterminer le second moment conditionnel de Z sachant que l’équation r2 + xr + y = 0 a des
racines réelles en r.
Exercice 6
Les variables aléatoires indépendantes X et Y sont décrites par leur densité marginale :
z2
1 −
f X ( z ) = f Y( z ) = e 2
avec z ∈ R
2π
Y
Déterminer la loi de Q = , calculer E(Q) et Var(Q)
X
Exercice 7
Une pièce de monnaie a p pour probabilité de tomber sur face. On la lance indéfiniment.
Calculer l’espérance du nombre de jets qu’il faudra jusqu’à ce qu’une chaine de r résultats
consécutifs de type face apparaisse.
53
4. Les Transformées
Les transformées sont des opérateurs calculés au niveau des variables aléatoires. Elles
permettent d’établir des propriétés très intéressantes.
z
P
X
n
TX
n
+∞
( )= ( )=∑ ( = ) Cette définition a un sens au mois lorsque |z| ≤ 1.
n
=0
Pour une variable à densité X, on défini la transformée en s :
f XT ( s ) = E (e − sX ) = ∫ e − sx f X ( x)dx
R
On ne s’intéressera qu’aux cas où cette intégrale existe.
Cas de la transformée en z
p XT (1) = 1
1 d n p TX (0)
P ( X = n) = pour n ∈ N
n! dz n
dp T (1)
E( X ) = X
dz
2
d 2 p TX (1) dp TX (1) dp TX (1)
Var ( X ) = 2
+ −
dz dz dz
d n p TX (1)
= E ( X ( X − 1)...( X − n + 1))
dz n
Cas de la transformée en s
f XT (0) = 1
df XT (0)
E( X ) = −
ds
2
d 2 f XT (0) df XT (0)
Var ( X ) = −
ds 2 ds
d n f XT (0)
n
= (−1) n E ( X n )
ds
54
p TX ( z ) = z0P(X=0) + zP(X=1) = 1-p +pz
Loi de Poisson P(λ)
k
p
z
z
P
X
k
z
e
e
TX
z
+∞ +∞
λ
k
( )=∑ ( = )=∑ −λ
= λ ( −1)
k
k
=0 =0 !
Transformée en s de la loi normale N(μ, σ)
+∞ ( x− µ )2
1 −
∫e
− sx 2σ 2
f ( s) =
T
X e dx
2π σ
s
x
x
s
−∞
− 2σ 2 2
−2 µ + µ2 2
− 2 (µ − σ 2 ) + (µ − σ 2 ) 2 (µ − σ 2 ) 2 − µ 2
− = − +
2σ 2 2σ 2 2σ 2 x
- 2σ 2
μσ
s
s
( ( − σ)) 2 (µ − σ 2 ) 2 − µ 2
=- +
2 2 2σ 2
s
e
( µ − σ 2 )2 − µ 2
x
s
f
s
d
x
d
x
+∞ ( − ( µ − σ )) 2 ( µ − σ 2 )2 −µ 2 +∞ ( − ( µ − σ )) 2
TX
2σ 2
1 − −
∫ ∫
2 2
2σ 2
( )= 2σ 2σ
=
2π σ −∞ 2π σ −∞
2
+∞ ( x − ( µ − sσ ))
1 −
2π σ
∫e
−∞
2σ 2
dx = 1 , c’est l’intégrale de la densité de la loi N((μ-sσ),σ)
s 2σ 2 − 2 µs
f ( s) = e
T
X , ayant calculé la transformée en s, il est possible de déduire facilement
2
Propriétés de la transformée en s
f : R+ → R
Soit f la fonction définie par :
tat
Calculons la transformée en s de la fonction f :
+∞ +∞ − st +∞
te − st e 1
f ( s ) = ∫ te dt = −
T
+∫
− st
dt = 2
0 s 0 0
s s
f : R+ → R
On considère la fonction : tn
, n ∈ N* ta
n!
Il est possible de démontrer par récurrence que la transformée en s de la fonction f est :
1
f T ( s) =
s n+1
+
Soit f une fonction définie sur R , dont la transformée en s est Φ(f) :
+∞
Φ( f )( s ) = ∫ e − st f (t )dt
0
55
f
R
o τ : [− ,+∞[→
y
f
y
a
On définit la fonction :
y a f oτ a ( ) = ( + )
La transformée en s de la fonction fₒτa est :
+∞ +∞
Φ( f o τ a )( s ) = ∫ e − sy f o τ a ( y )dy = ∫ e − sy f ( y + a)dy
−a −a
Faisons le changement de variable : t = y+a
+∞
Φ( f o τ a )( s ) = ∫ e − st + sa f ( y )dy = e sa Φ ( f )( s )
0
Proposition :
X et Y sont deux V A à densité et indépendantes, si Z est la V A telle que Z = X + Y, alors la
transformée en s de Z est égale au produit des transformées en s des V A, X et Y :
f ZT ( s ) = f XT ( s ) f YT ( s )
Démonstration :
f ZT ( s ) = E (e − sZ ) = E (e − s ( X +Y ) ) = ∫ ∫ e − s ( X +Y ) f X ,Y ( x, y )dxdy = ∫ ∫ e − sx f X ( x)e − sy fy ( y )dxdy = f XT ( s ) f YT ( s )
R R R R
Application :
f1 : R + → R
Si f1 est la fonction définie par :
tat
1
On a Φ( f 1 )( s ) = 2
s
f 2 : [1,+∞[→ R
Si f2 est la fonction définie par :
t a −2( t - 1)
−s
− 2e
On a Φ( f 2 )( s ) =
s2
f 3 : [2,+∞[→ R
Si f2 est la fonction définie par :
t a t-2
e −2 s
On a Φ( f 3 )( s ) = 2
s
56
La fonction densité de probabilité de Z a pour expression :
Si 0≤t<1, alors fZ(t) = f1(t) = t
Si 1≤t<2, alors fZ(t) = f1(t) + f2(t) = t -2t+2 = -t +2
Si 2≤t, alors fZ(t) = f1(t) + f2(t) + f3(t) = t -2t+2 +t-2 = 0
FR (r ) = ∑F
n∈N *
R/N ( r / n) P ( N = n)
f R (r ) = ∑f
n∈N *
R/N ( r / n) P ( N = n)
Calcul de la transformée en s de R
+∞ +∞ +∞
∫e ∫e ∑ f ∑ P ( N = n) ∫ e
− rs − rs − rs
f ( s) =
T
R f R (r )dr = R/N (r / n) P( N = n)dr = f R / N (r / n)dr
−∞ −∞ n∈N * n∈N * −∞
∑ P ( N = n) ( f )n
f RT ( s ) = T
X (s)
n∈N *
57
Exercices
Exercice 1
Soit Ui, i = 1,2,3 trois variables aléatoires indépendantes et uniformes sur [0, 1], calculer de
deux manières différentes, la densité de la variable aléatoire S = U1 + U2 + U3
Exercice 2
Toutes les parties de cet exercice requièrent des réponses numériques.
1) Si f YT ( s ) = K /(2 + s ) , calculer K et E(Y3)
2) Si p TX ( z ) = (1 + z 2 ) / 2 , calculer P(X = E(X)) et σX
3) Si f YT ( s ) = 2(2 − e − s / 2 − e − s ) / 3s , calculer E(e2X)
4) Si p TX ( z ) = A(1 + 3 z ) 3 , calculer P(X = 2) et E(X3)
Exercice 3
Déterminer si les expressions suivantes sont ou non des transformées en z valides pour une
variable aléatoire discrète qui ne peut prendre que des valeurs entières positives.
1) z2 + 2z – 2
2) 2 – z
3) (2 – z)-1
Exercice 4
Montrer qu’aucune des expressions suivantes ne constitue une transformée en s :
1) (1 – e-5s)/s
2) 7(4 + 3s)-1
Exercice 5
Soit L une variable aléatoire discrète dont les valeurs possibles sont positives. On donne :
14 + 5 z − 3z 2
p TL ( z ) = K
8(2 − z )
Déterminer les valeurs de E(L), P(L = 1) et l’espérance conditionnelle de L sachant L ≠ 0.
Exercice 6
Des boites sont rangées dans des cartons, eux-mêmes rangés dans des caisses. Le poids en
grammes d’une boite est une variable aléatoire continue, de distribution :
f X ( x) = λe − λx , avec x ≥ 0
Le nombre de boites dans chaque carton, K, est une variable aléatoire avec la distribution :
µ k e −µ
P( K = k ) = , pour k = 0, 1, 2, …
k!
Le nombre de cartons dans chaque caisse, N, est une variable aléatoire avec la distribution :
P(N = n) = pn-1(1 – p), pour n = 1, 2, 3, …
Les variables X, K et N sont mutuellement indépendantes. Déterminer :
1) La probabilité qu’une caisse sélectionnée au hasard contienne exactement un carton, une
boite,
2) la transformée en s de la distribution pour le poids total des boites dans une caisse,
3) la probabilité qu’une caisse sélectionnée au hasard contienne un nombre impair de boites.
58
5. Le comportement asymptotique des variables aléatoires
Nous commençons ce chapitre par traiter des inégalités qui ont vont plutôt servir à démontrer
des propriétés qui concernent le comportement asymptotique ou la convergence des variables
aléatoires.
Inégalité de Markov
E( X )
Soit X une V A positive, ∀ a > 0, P(X ≥a) ≤
a
Démonstration :
Si X est une variable à densité, alors :
+∞ +∞ +∞
E( X ) = ∫ xf X ( x)dx ≥
0
∫ xf X ( x)dx ≥ a ∫ f X ( x)dx = aP( X > a)
a a
Si X est une variable discrète, alors :
E ( X ) = ∑ xP( X = x) < ∑ xP( X = x) < a ∑ P( X = x) = aP ( X > a )
x >0 x >a x >a
E( X )
Il est possible que a soit assez faible de telle sorte que > 1 , dans ce cas, le résultat
a
apporté par l’inégalité de Markov n’a aucun intérêt.
D’un autre côté, l’inégalité de Markov présente une précision très large, surtout si la loi de
probabilité de X est connue, en effet si on considère la loi E(1) et a = 2, on a :
E(X) = 1 et la borne de l’inégalité de Markov est 1/2, qui est environ 3.7 fois supérieure
à P(X>2) = e-2 = 0.135
Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire de moyenne μ et de variance σ2, alors :
2
σ
∀ k > 0, P( X - µ ≥ k ) ≤
k
Démonstration :
On utilise l’inégalité de Markov appliquée à la variable aléatoire (X – μ)2
E(X − µ )
2
∀ k > 0, P((X - µ ) > k ) ≤
2 2
k2
Or l’événement ( X − µ ) 2 > k 2 ≡ X − µ > k
E(X − µ )
2 2
σ
Donc ∀ k > 0, P( X − µ > k ) ≤ 2
=
k k
Inégalité de Tchebychev unilatérale
Soit X une variable aléatoire d’espérance nulle et de variance σ2. On a alors pour tout réel
σ2
a>0 : P( X ≥ a ) ≤
a2 +σ 2
Démonstration :
59
Soit b > 0, on a X ≥ a ≡ X + b ≥ a + b et P(X + b ≥ a + b) ≤ P(|X + b| ≥ a + b)
Or P(|X + b| ≥ a + b) = P((X + b)2 ≥ (a + b)2)
Appliquons l’inégalité de Markov à la V A positive (X + b)2 :
E ( X + b)
2
(
P ( X + b ) ≥ ( a + b) 2 ≤
2
) =
σ 2 + b2
(a + b )2 (a + b )2
σ 2 + b2
On peut facilement vérifier que la grandeur est minimale si b = σ2/a et ce minimum
(a + b ) 2
2
σ
est égale à
a +σ 2
2
Inégalité de Jensen
Soit X une variable aléatoire et Φ une fonction définie et convexe sur X(Ω), alors si E(X) et
E(Φ(X)) existent alors on a : E(Φ(X)) ≥ Φ(E(X))
Démonstration :
Considérons d’abord le cas où X est une V A de densité fX.
Soit (x, y) ∈X(Ω)2 tel que E(X) ∈]x, y[, on a :
60
Φ ( x) − Φ( E ( X )) Φ( y ) − Φ( E ( X ))
≤ Φ 'g ( E ( X )) ≤
x − E( X ) y − E( X )
La première inégalité implique que : Φ( x) − Φ ( E ( X )) ≥ ( x − E ( X ))Φ 'g ( E ( X ))
La deuxième inégalité implique que : Φ( y ) − Φ( E ( X )) ≥ ( y − E ( X ))Φ 'g ( E ( X ))
On déduit alors que ∀x ∈ X (Ω), h(x) = Φ ( x) − Φ ( E ( X )) ≥ ( x − E ( X ))Φ 'g ( E ( X )) = g ( x) ,
Autrement : ∀x ∈ X (Ω), h(x) ≥ g ( x) ⇒ E(h (X )) ≥ E ( g ( X ))
L’inégalité de Jensen peut être démontrée d’une autre manière, mais en supposant que la
fonction Φ est deux fois dérivable pour appliquer la formule de Taylor-Lagrange d’ordre 2
au voisinage de E(X) :
E (Φ ( X )) = ∫ Φ( x) f X ( x)dx
R
( )
= ∫ Φ( E ( X )) + ( x − E ( X ))Φ' ( E ( X )) + ( x − E ( X )) 2 Φ ' ' (θ x ) f X ( x)dx ,
R
θx étant compris entre x et E(X)
( x − E ( X )) 2
E (Φ( X )) = ∫ Φ( E ( X )) f X ( x)dx + ∫ ( x − E ( X ))Φ ' ( E ( X )) f X ( x)dx + ∫ Φ ' ' (θ x ) f X ( x)dx
R
2!
1444442444443 1444442444443
R R
0 ≥0
≥ Φ (E(X))
Φ’’ étant positive car la fonction Φ est convexe.
61
Exemple d’application de l’inégalité de Jensen
Considérons la fonction Φ(x) = x2, qui est une fonction convexe sur R et X une variable
aléatoire. L’application de l’inégalité de Jensen permet de justifier un résultat bien connu :
E(X)2 ≤ E(X2) qui traduit que la variance Var(X) = E(X2) – E(X)2 est toujours positive.
Proposition :
Soit Xn, n ≥ 1, une suite de variables aléatoires.
P
Si lim E ( X n ) = a et lim Var ( X n ) = 0 alors X n → a
n → +∞ n → +∞ n → +∞
Démonstration :
On a ∀n ≥ 1, X n − a ≤ X n − E ( X n ) + E ( X n ) − a
Soit ε > 0, ∃ N ∈ N, ∀ n > N, E ( X n ) − a < ε / 2
Donc ∀ n > N, on a X n − a > ε ⇒ X n − E ( X n ) > ε / 2
Il s’en suit que ∀ n > N, on a P( X n − a > ε ) ≤ P( X n − E ( X n ) > ε / 2)
Par application de l’inégalité de Bienaymé-Tchebychev, on a :
Var ( X n )
∀ n > N, on a P( X n − E ( X ) > ε / 2 ) ≤ 4 2
n→ 0
→ +∞
ε
D’où ∀ ε > 0, ∃ N ∈ N, ∀ n > N, P( X n − a > ε ) n→ 0
→ +∞
P
Comme conséquence de cette proposition, pour que X n → X , il suffit que :
n → +∞
62
Propriétés :
1) La convergence en moyenne quadratique entraine la convergence en probabilité.
2) Soit Xn, n ≥ 1, une suite de variables aléatoires, si lim E ( X n ) = a et lim Var ( X n ) = 0 alors
n → +∞ n → +∞
m .q
Xn → a
n → +∞
Démonstration :
2
1) Soit ε > 0 ∀ n ≥ 1, l’événement X n − X > ε ≡ X n − X >ε2
Donc ∀ n ≥ 1, P( X n − X > ε ) = P X n − X > ε 2 ( 2
)
(Xn – X)2 est une V A positive, par application de l’inégalité de Markov on a :
E(X n − X )
( )
2
2 2
∀ n ≥ 1, P X n − X > ε ≤ 2
n → 0
→ +∞
ε
n → +∞ n → +∞
( )
2) lim E ( X n − a ) = lim E X n2 − 2a lim E ( X n ) + a 2 = lim E X n2 − lim E ( X n )
2
n → +∞ n → +∞
( ) n → +∞
2
= lim Var ( X n ) = 0
n → +∞
Convergence en loi
Définition : Soient Xn et X des variables aléatoires de fonctions de répartition respectives Fn et
L
F, on dit que la suite Xn converge en loi vers la variable aléatoire X et on note X n →X,
n →= ∞
si en tout point x ou F est continue, la suite Fn(x) converge vers F(x).
Propriétés :
1) Si Xn et X sont des V A discrètes, alors Xn converge en loi vers X si et seulement si :
∀ k ∈ N lim P ( X n = k ) = P ( X = k )
n → +∞
P L
2) La convergence en probabilité entraine la convergence en loi, X n → X ⇒ X n
n → +∞ →X
n →= ∞
Preuve :
1) Supposons que pour tout k ∈N, lim P( X n = k ) = P( X = k )
n → +∞
Pour tout x de R+ où F est continue, on a un nombre fini d’entiers naturels k inférieurs à x,
donc Fn(x) = P(Xn ≤ x) = ∑ P( X n = k )
k≤x
Or lim
n → +∞
∑ P( X
k≤x
n = k ) = ∑ P( X = k ) = P( X ≤ x) = F ( x)
k≤x
63
La convergence de la loi Binomiale B(n, p) vers la loi de Poisson P(np) et la convergence
de la loi Hypergéométrique H(N,n,p) vers la loi Binomiale B(n,p).
64
Théorème
p.s
X n → X ⇔ ∀ε > 0, P lim sup X n − X > ε = 0
n → +∞ n→+∞
Démonstration :
p.s
Xn → X
n → +∞
Théorème
+∞
An est une suite d’événements, on a : ∑ P( A ) < ∞ ⇒ P lim sup A
n =1
n
n → +∞
n
=0
Démonstration :
+∞ +∞ +∞
P lim sup An = P I U Ap = P I Bn = lim P(Bn ) car Bn étant une suite décroissante au
n→+∞ n =1 p =n n =1 n→+∞
sens de l’inclusion : Bn ⊂ Bn-1 ⊂ ... ⊂ B1.
+∞ +∞
P(Bn ) = P U A p ≤ ∑ P(A p )
p =n p =n
Si la série de terme général P(An), est convergente alors la somme partielle :
P
Ap
+∞
∑ ( ) → 0
n
p
n
→ +∞
=
Ce théorème nous montre qu’une condition suffisante pour que P lim sup An = 0 , est que la
n→+∞
série de terme général P(An) soit convergente
p.s
Propriété : X n → X ⇔ ∀ε > 0, P sup X p − X > ε n → 0
→ +∞
n → +∞
p >n
p. s
En effet : X n → X ⇔ ∀ε > 0, P lim sup X n − X > ε = 0
n → +∞ n→+∞
+∞ +∞
⇔ ∀ε > 0, P I U X p − X > ε = 0
n =1 p = n
+∞
⇔ ∀ε > 0, lim P U X p − X > ε = 0
n → +∞
p=n
65
+∞
Or l’événement UX p − X > ε ≡ sup X p − X > ε , pour cela, il suffit de vérifier que si le
p =n p≥ n
premier événement est vrai alors le deuxième l’est également et si le deuxième est vrai, le
premier l’est également.
p. s
Donc X n → X ⇔ ∀ε > 0, lim P sup X p − X > ε = 0
n → +∞ n → +∞
p≥n
D’après cette propriété, nous avons l’équivalence suivante :
p .s +∞
X n → X ⇔ ∀ε > 0, lim P U X p − X > ε = 0
n→ +∞ n → +∞
p=n
+∞
On pose u n = P U X p − X > ε et v n = P( X n − X > ε )
p =n
On a vn ≤ un, et les deux suites sont positives, pour tout n ≥ 1, donc la convergence de un vers
0, implique celle de vn vers 0.
p.s P
Nous avons ainsi démontré que : X n → X ⇒ X n → X
n → +∞ n → +∞
Exemple de convergence presque sûre
On considère la suite Xn n ≥ 1 définie à partir d’une V A, U de loi uniforme sur [0, 1] :
1
n si U ≤
Xn = n
0 sinon
p .s
Montrons que X n → 0
n → +∞
+∞ +∞
1 1
∀ ε > 0, UXP >ε ≡ UU ∈ 0, p = U ∈ 0, n
p =n p=n
+∞ 1 1
∀ ε > 0, P U X P > ε = PU ∈ 0, = n→ 0
→ +∞
p=n n n
Nous avons dans cet exemple la convergence presque sûre de Xn vers 0, alors que la série de
1
terme général P ( X n > ε ) = est divergente.
n
∑X
i =1
i
lois des grands nombres portent sur le comportement de la moyenne empirique X n =
n
lorsque n → +∞.
66
n
∑ Xi
nµ
E (X ) = E i =1 = =µ
n n
n n
∑ Xi Var ∑ X i 2 2
Var ( X ) = Var i =1 = i =1 = nσ = σ car les variables aléatoires Xi sont
n n2 n2 n
indépendantes.
Proposition
Si (Xi)i≥1 est une suite de variables aléatoires, iid, d’espérance μ et de variance σ2,
( )
P
alors X n → µ : ∀ε > 0, P X n − µ > ε n→ 0
→ +∞
n → +∞
Démonstration :
On utilise l’inégalité de Tchebychev pour la variable aléatoire X n
(
∀ε > 0, P X n − µ > ε ≤ )
σ2
→ 0
nε 2 n → +∞
Application : Théorème de Bernoulli
On effectue n expériences successives indépendantes où on s’intéresse à chaque fois à la
réalisation d’un certain événement A. On associe donc à chaque expérience i, 1 ≤ i ≤ n, une
variable de Bernoulli :
Xi 0 1
P(Xi) 1 - p p
Proposition :
E
Xi
Si (Xi)i≥1 est une suite de variables aléatoires, iid, d’espérance μ et intégrable ( ( ) existe)
p. s
alors X n → µ :
P
Xn
n→ +∞
67
Comparaison entre la loi faible des grands nombres et la loi forte des grands nombres :
Dans la première loi, nous avons supposés l’existence des moments d’ordre 1 et 2 des V A et
nous avons une convergence en probabilité. Dans la deuxième loi, nous avons supposé
l’existence du moment d’ordre 1 et l’intégrabilité des V A et nous avons une convergence
presque sûre qui implique la convergence en probabilité
Le théorème central limite est l’un des résultats les plus importants de la théorie des
probabilités. Il montre le caractère universel de la loi normale, en effet, la somme de
n’importe quelle suite de V A, iid, converge en loi vers une loi normale.
sn
s n
n
f
s
TY
2 2
( ) = 1+ + ε
2
n s2 s 2 s s2
s s2 s2 s n log 1+ + ε
2n n
n
f ZT = 1 + + ε = e n→ e
→ +∞
2
qui est la transformée en s
n 2n n n
d’une loi normale centrée réduite.
68
Approximation de Moivre-Laplace
Cette approximation consiste à approcher une loi Binomiale B(n,p) qui est la somme de n lois
de Bernoulli B(p) indépendantes, par une loi normale centrée réduite.
Proposition :
Soit Sn le nombre de succès lors de la réalisation de n épreuves indépendantes, la probabilité
de réussite de chaque épreuve étant p. Alors pour tout a < b
2
S − np 1 b −t
lim P a ≤ ≤ b =
2π ∫
n 2
e dt
n → +∞
np (1 − p ) a
n ≥ 30
Cette approximation est applicable en général lorsque np ≥ 15
np(1 − p ) > 5
Correction de continuité : Dans cette approximation, il s’agit d’approcher Sn, une loi
( )
binomiale B(n,p), discrète par une loi normale N np, np(1 − p ) , continue. Pour cela P(Sn=k)
est approchée par P(k-0.5< Sn<k+0.5) si k ∈ {1, 2, …., n-1}. D’autre part, pour que
n
∑ P(S
k =0
n = k ) = 1 , on approche P(Sn = 0) par P(Sn < 1/2) et P(Sn = n) par P(Sn > n – 1/2).
Exemple
Si X suit la loi B(40, 0,5), les calculs de probabilités concernant X peuvent être effectués en
utilisant la loi N(20, 10 )
n ≥ 30
X − 20
En effet np = 20 ≥ 15 et X * = suit la loi N(0,1)
np(1 − p ) = 10 > 5 10
19.5 − 20 20.5 − 20 0 .5
P(X = 20) = P(19.5<X<20.5) = P < X* < = 2Φ − 1 = 0.1272
10 10 10
20
Le résultat exact est P(X = 20) = C 40 (0.5)20 (0.5)20 = 0.1254
16.5 − 20 24.5 − 20 4 .5 − 3 .5
P(17 ≤ X < 25) = P < X* < = Φ − Φ
10 10 10 10
4 .5 3 .5
= Φ + Φ − 1 = 0.9222 + 0.8665 – 1 = 0.7887
10 10
24
Un calcul à la machine de ∑C
k =17
k
40 0.5 k 0.5 40− k = 0,789
69
Annexe
Propriétés d’une fonction convexe :
Définition
Soit f une fonction définie sur un intervalle I de R. On dit que f est convexe sur I si et
x
y
I
f
x
λ
y
λ
f
x
λ
f
y
seulement si : ∀ , ∈ , ∀λ ∈ [0,1], (λ + (1 − ) ) ≤ ( ) + (1 − ) ( )
f(x)
λf(x) + (1 –λ)f(y)
f(λx + (1 –λ)y)
x y x
Soit ( An )n≥1 une suite d’événements, la limite supérieure de la suite An est définie par :
+∞ +∞ +∞ +∞
lim sup An = I U Ap = I Bn avec Bn = UA p
n → +∞ n =1 p = n n =1 p=n
70
Théorème :
Pour que lim sup An soit réalisé, il faut et il suffit qu’il existe une infinité d’indices p tels que
n → +∞
Ap soit réalisé.
Preuve
lim sup An est réalisé :
n → +∞
Donc il existe une infinité d’indices p tels que Bp soit réalisé et pour chaque Bp, il existe au
moins un indice n tel que An soit réalisé.
Il existe une infinité d’indices p tels que Ap soit réalisé :
+∞
Donc ∀ n ≥ 1, Bn = UA p est réalisé
p =n
+∞
Il s’en suit alors que IB n = lim sup An est réalisé
n =1 n → +∞
71
Exercices
Exercice 1
Soit X une variable aléatoire discrète, dont les valeurs appartiennent à N*, si P(X = k) est
E( X )
décroissante, prouver que P( X = k ) ≤ 2 2
k
Soit X une variable aléatoire continue, positive et admettant une densité décroissante. Prouver
E(X )
que f ( x) ≤ 2 2 pour tout x > 0
x
Exercice 2
Soit X une variable aléatoire continue positive de moyenne 25. Que peut-on dire des
espérances suivantes :
1. E[X3]
[ ]
2. E X
3. E[logX]
4. E[e-X]
Exercice 3
Un bruit X peut être considéré comme une variable aléatoire normale, centrée de variance σ2,
Supposons que toute valeur expérimentale de X cause une erreur dans un système de
communication numérique si elle est plus grande que A.
1. Déterminer la probabilité qu’une valeur expérimentale de X cause une erreur si :
(a) σ2 = 10-3A2
(b) σ2 = 10-1A2
(c) σ2 = A2
(d) σ2 = 4A2
2. Pour une valeur donnée de A, quelle est la variance la plus grande telle que l’on obtienne
une probabilité d’erreur pour toute valeur expérimentale de X inférieure à 10-3, 10-6 ?
Exercice 4
Le poids d’un bretzel W (en grammes) est une variable aléatoire continue décrite par la
0 w ≤1
w -1 1 ≤ w ≤ 2
densité : f W (w) =
3 - w 2 ≤ w ≤ 3
0 w≥3
1. Quelle est la probabilité que 102 bretzels pèsent plus de 200 grammes ?
2. Si on choisit 4 bretzels indépendants, quelle est la probabilité qu’exactement 2 des 4
bretzels pèsent chacun plus de 2 grammes ?
3. Quel est le plus petit entier (non seulement ils sont immangeables, mais en plus on ne peut
pas les casser) N pour lequel le poids total des N bretzels excède 200 grammes avec une
probabilité de 0.99 ?
Exercice 5
Pour 3600 jets indépendants d’une pièce parfaite,
1. Déterminer un nombre n tel que la probabilité soit 0.5 pour que le nombre de piles résultant
soit compris entre 1789 et n.
2. Déterminer la probabilité pour que le nombre de piles soit à 1 % de son espérance.
72
Exercice 6
Une pièce est lancée n fois. Chaque lancer est indépendant et suit une loi de Bernoulli de
paramètre p. La variable aléatoire X est le nombre de piles obtenus. Pour chacune des
expressions suivantes, trouver soit les valeurs de k et des constantes qui rendent la proposition
vraie quel que soit n ≥ 1, soit démontrer qu’aucune valeur de k existe.
X
1. E = Bn k
n
2. E[(X - E[X])2] = Cnk
3. E[X2] = Dnk
X
4. Pour n grand, P − p ≤ Fn k = 0.15
n
73