Variance et lois de probabilité
Variance et lois de probabilité
Exercice 1 :
Le tableau de la loi de la variable aléatoire X est :
k 0 1 ··· m ··· n
P (X = k) pn Cn1 qpn−1 ··· Cnm q m pn−m ··· qn
Exercice 2 :
La variable aléatoire X suit une loi binomiale
Pn de paramètres n et p = 12 .
m 1 n 1 n m
P (X = m) = Cn ( 2 ) ; P (X > m) = ( 2 ) k=m Cn et P (X < m) = 1 − P (X 6 m).
Exercice 3 :
La variable aléatoire Xi , nombre de signes erronés dans l’ieme message, suit une loi binomiale de
paramètres ni et p. La probabilité pour que l’ieme message soit erroné est égale à la probabilité
pour que dans les ni signes de ce message il y ait au moins trois signes erronés
2
X
P (Xi > 3) = 1 − P (Xi < 3) = 1 − Cnj i pj (1 − p)ni −j
j=0
La probabilité pour qu’au moins un des k messages soit erroné est égale à
k X
Y 2
P =1− Cnj i pj (1 − p)ni −j
i=1 j=0
Exercice 4 :
La variable aléatoire X représentant le nombre de bonnes pièces parmi les cinq pièces tirées, suit
une loi hypergéométrique de paramètres 5, 6, 4. La probabilité pour que parmi les 5 pièces m
C m C 5−m
soient en bon état est égale à Pm = 6 54 5
; d’où P4 = 21 1
; P5 = 42 ; P (X > 4) = P4 +P5 = 11 42
.
C10
Exercice 5 :
La variable aléatoire X représentant le nombre de pièces défectueuses dans le lot de contrôle,
suit une loi hypergéométrique de paramètres n, a, b
m−1
X Cak Cbn−k
P (A) = P (X > m) = 1 − P (X < m) = 1 − n
.
k=0
Ca+b
Exercice 6 :
1
1. En utilisant la formule de la loi hypergéométrique, on a :
3 7
C100 C400
P (A) = 10
= 2, 0284946.10−1
C500
2. En utilisant une approximation de de la loi hypergéométrique par une loi binomiale,
P (A) ∼ 3
= C10 (0, 2)3 (0, 8)7 = 2, 0132659.10−1
Exercice 7 :
La fonction de répartition d’une loi de Weibull est :
α
F (x) = 1 − e−βx ; (x > 0),
où β > 0 est une certaine constante ; α, un nombre entier positif.
α
1. Sa densité est f (x) = dFdx(x) = αβxα−1 e−βx
R∞ α
2. Son espérance mathématique sera E(X) = 0 xαβxα−1 e−βx dx
1 1
Soit le changement de variable : βxα = y ; x = β − α y α ,
1 − 1 1−α
dx = β α y α dy;
α
Z ∞
1 1 1−α
E(X) = αye−y β − α y α dy
0 α
Z ∞
1 1 1 1
= β− α −y
y α e dy = Γ 1 + β− α
0 α
R∞
où Γ(t) = 0 xt−1 e−x dx est la seconde fonction d’Euler. Calculons, maintenant, la vari-
ance. D’abord, on cherche E(X 2 ).
Z ∞
α
2
E(X ) = αβxα+1 e−βx dx =
0
1 1
En faisant le même changement d’avant, βxα = y ; x = β − α y α , on obtient :
Z ∞
1 1 1 1 1−α
2
E(X ) = αββ −(1+ α ) y 1+ α e−y β − α y α dy =
0 α
Z ∞
−α2 2
−y 2 2
=β y α e dy = Γ 1 + β− α ;
0 α
2
D’où V ar(X) = β − α Γ 1 + α2 − {Γ 1 + α1 }2 .
Exercice 8 :
Comme X et Y sont indépendantes, on a : f (x, y) = f1 (x).f2 (y)
On obtient, la fonction de densité conjointe du couple (X, Y ) :
1 2
f (x, y) = √ e−x ; pour y ∈ (0, 1)
π
De même F (x, y) = F1 (x).F2 (y) (puisque X et Y sont indépendantes), alors sa fonction de
répartition sera :
0 √ pour y < 0;
F (x, y) = y Φ(x√ 2) pour 0 6 y < 1;
Φ(x 2) pour y>1
2
Exercice 9 :
X, le nombre d’apparitions de l’événement A dans n expériences indépendantes, est mis sous
la forme X = ni=1 Xi , où Xi est l’indicatrice de l’événement A dans l’ième expérience, c’est-
P
à-dire :
1, si, dans l’i-ème expérience l’événement est réalisé;
Xi =
0, si, dans l’i-ème expérience l’événement n’a pas été réalisé
E(Xi ) = p; V ar(Xi ) = pq
n
X n
X
E(X) = E(Xi ) = np; V ar(X) = V ar(Xi ) = npq
i=1 i=1
Exercice 10 :
D’une manière analogue à l’exercice précédent X = ni=1 Xi , où Xi est l’indicatrice de l’événement
P
et sa variance est : n n
X X
V ar(X) = V ar(Xi ) = pi qi .
i=1 i=1
Exercice 11 :
la fréquence de l’événement A est Y = Xn , où X est le nombre d’apparitions de l’événement A.
Son espérance mathématique est E(Y ) = n1 E(X) = n1 np = p, sa variance est V ar(Y ) = npq n2
, où
q = 1 − p, la marge des valeurs pratiquement possibles de la fréquence Y est
r
pq
E(Y ) ± 3σY = p ± 3
n
Exercice 12 :
Considérons le modèle physique de l’apparition d’une loi hypergéométrique : tirage de n boules
d’une urne contenant a boules blanches et b noires, X est le nombre de boules blanches extraites.
Représentons n tirages d’une boule comme n expériences dont chacune peut donner lieu à
l’événement A ={boule blanche}. Représentons la variable X comme la somme des Xi , variables
indicatrices de l’événement A dans l’ième expérience : X = ni=1 Xi . Les variables aléatoires Xi
P
sont dépendantes, mais la formule de l’addition des espérances mathématiques est applicable :
n
X a na
E(X) = E(Xi ); E(Xi ) = ; E(X) = ;
i=1
a+b a+b
n
X X
= V ar(Xi ) + Cov(Xi , Xj )
i=1 i6=j
a a ab
V ar(Xi ) = pq = = ;
a+ba+b (a + b)2
3
n
X nab
V ar(Xi ) = .
i=1
(a + b)2
Cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj )
Le produit des variables indicatrices Xi Xj de l’événement A dans les ième et j ème expériences
n’est égal à l’unité que si Xi = 1, Xj = 1, c’est-à-dire que si l’événement A se produit dans
l’ième et la j ème expériences. La probabilité de ceci est égale à a+b
a a−1
a+b−1
; c’est également la
valeur de l‘espérance mathématique
a a−1
E(Xi Xj ) = .
a+ba+b−1
D’où : 2
a a−1 a
Cov(Xi , Xj ) = −
a+ba+b−1 a+b
Finalement,
2 !
nab a(a − 1) a nab(a + b − n)
V ar(X) = + − =
(a + b)2 (a + b)(a + b − 1) a+b (a + b)2 (a + b − 1)
Exercice 13 :
On trouve, d’après les formules de l’exercice précédent,
35
E(X) = 2, 5 et V ar(X) = ≈ 0, 795.
44
Exercice 14 :
Mettons la variable aléatoire X sous la forme d’une somme
k
X
X = X1 + X2 + · · · + Xk = Xi ,
i=1
Exercice 15 :
D’après la solution de l’exercice précédent, l’espérance mathématique du nombre de pièces mises
à l’essai est µX = kp, et sa variance est σX 2
= k(1−p)
p2
.
√
p
2 k(1−p)
D’où son écart type sera σX = σX = p
4
Exercice 16 :
1. Représentons X comme la somme de n variables aléatoires Xi (i = 1, · · · , n) où Xi est la
variable indicatrice de l’événement A dans l’ième expérience :
(
1, si l’événement A apparaı̂t dans l’ième expérience;
Xi =
0, si l’événement A n’apparaı̂t pas dans l’ième expérience
n
X n
X
X= Xi ; E(x) = E(Xi );
i=1 i=1
En particulier, si p1 = p2 = · · · = pn = p, alors
E(X) = np.
2. D’après la formule d’addition des variances V ar(X) = V ar( ni=1 Xi ) = ni=1 (V arXi )
P P
(puisque les variables Xi sont indépendantes).
La variance de la variable indicatrice de l’événement A dans l’ième expérience est égale
à pi (1 − pi ) ; donc V ar(X) = ni=1 pi (1 − pi ).
P
Dans le cas particulière où p1 = p2 = · · · = pn = p, V ar(X) = np(1 − p).
5
Exercice
P 17 :
X = ki=1 Xi , où
1, si l’i-ième boule tirée est blanche;
Xi =
0, si elle est noire
k
X
E(X) = E(Xi ) = kp,
i=1
où p est la probabilié pour que la boule tirée soit blanche
a ka
; E(X) =
p= .
a+b a+b
La variance de la variable aléatoire X s’obtient comme celle du nombre d’apparitions de
l’événement dans k expériences dépendantes (exercice précédent, question 3) :
V ar(X) = kp(1 − p) + k(k − 1)(P − p2 ).
Calculons P , la probabilité pour que deux boules quelconques tirées (l’i-ième et la j-ième) soient
a a−1 a
blanches : P = a+b a+b−1
. En portant cette expression et p = a+b dans la formule de la variance,
on obtient :
a2
kab a a−1
V ar(X) = + k(k − 1) − .
a+b a + b a + b − 1 (a + b)2
Exercice 18 :
Démontrons d’abord que la somme de deux variables aléatoires X1 et X2 indépendantes qui
suivent des lois de Poisson de paramètres respectives λ1 et λ2 , suit aussi une loi de Poisson
dont le paramètre est la somme des paramètres, c’est-à-dire λ1 + λ2 . À cet effet, calculons la
probabilité pour que X1 + X2 = k, (k = 0, 1, 2, · · · ).
k k
X X λi 1 −λ1 λk−i
P (X1 + X2 = k) = P (X1 = i)P (X2 = k − i) = e 2
e−λ2 .
i=0 i=0
i! (k − i)!
k!
Compte tenu que Cki = (i!)(k−i)!
, mettons cette expression sous la forme
k
e−(λ1 +λ2 ) X i i k−i (λ1 + λ2 )k −(λ1 +λ2 )
Ck λ1 λ2 = e ,
k! i=0
k!
or, ceci est une loi de Poisson de paramètre λ1 + λ2 .
Ainsi, nous avons démontré que la somme de deux variables aléatoires indépendantes suivant
toutes les deux des lois de Poisson, suit également une loi de Poisson. L’extension de ce résultat
sur un nombre quelconque de termes se fait par récurrence.
Exercice 19 :
L’inégalité de Bienaymé-Tchébychev implique :
V ar(X) σ2 1
P (|X − µ| > 3σ) 6 2
= 2
= ;
(3σ) (3σ) 9
8
donc P (|X − µ| > 3σ) 6 ;
9
Ainsi, toute variable aléatoire s’écarte de son esérance mathématique à moins de 3σ avec une
probabilité non inférieure à 89 1 .
1. C’est le cas extrême, le plus défavorable. Dans la pratique, pour les variables aléatoires qui se présentent
dans le cas courants cette probabilité est bien plus proche de l’unité ; par exemple, pour la loi normale elle est
égale à 0, 997 ; pour la loi uniforme, à l’unité ; pour la loi exponentielle, à 0, 982.
6
Exercice 20 :
n
1X 1
a = E(Y ) = E(Xi ) = .n.1, 5 = 1, 5;
n i=1 n
n
1 X n 1 1
V ar(Y ) = 2 V ar(Xi ) = 2 = ;
n i=1 n 12 12n
p 1
V ar(Y ) = √ .
σY =
2 3n
La valeur maximale pratiquement possible de l’erreur est 3σY .
Exercice 21 :
1. E (Y (n)) = n1 ni=1 E(Xi ). Toutes les pesées étant réalisées dans les conditions identiques,
P
E(Xi ) = a; ∀i ; il vient donc
n
1X na
E (Y (n)) = a= = a.
n i=1 n
En considérant que les erreurs des pesées isolées sont indépendantes, on trouve la variance
de Y (n) :
n n
1 X 1 X 2 nσ 2 σ2
V ar (Y (n)) = 2 V ar(Xi ) = 2 σ = 2 = .
n i=1 n i=1 n n
Exercice 22 :
On note f la densité de probabilité de la variable aléatoire X ∼ N (µX , σX ).
1. Soit g la densité de probabilité de la variable aléatoire Y = |X|, alors,
(y + µX )2 (y − µX )2
1
g(y) = √ exp − 2
+ exp − 2
pour y > 0.
σX 2π 2σX 2σX
2. Si µX = 0, alors
y2
2
g(y) = √ exp − 2 pour y > 0.
σX 2π 2σX
• Cherchons, maintenant, h(z) la densité de probabilité
de la variable aléatoire Z = X 2 :
1 2
On rappelle que dans ce cas f (x) = σ √ exp − 2σx 2 ; Y = X 2 .
X 2π X
√ √
La fonction inverse de y = x2 a deux valeurs : x1 = + y et x2 = − y. Donc, d’après
√ √
une formule vu dans le cours, on a : h(y) = 2√1 y f ( y) + 2√1 y f (− y)
h i h i
D’où h(y) = 2√1 y exp − 2σy2 + exp − 2σy2 = √1y exp − 2σy2 ; pour y > 0
X X X
Pour y = 0, la densité h(y) possède une discontinuité de seconde espèce (tend vers l’infini).
7
Exercice 23 :
Introduisons les notations U = |X| et V = |Y |. Les densités de ces varaiables f1 (u) et f2 (v)
sont égales respectivement à
(
2 u2
√ exp − 2
2σX
pour u > 0;
f1 (u) = σX 2π
0 pour u 6 0;
(
2 v2
√ exp − 2
2σY
pour v > 0;
f2 (v) = σY 2π
0 pour v 6 0;
Compte tenu de la formule de la loi de la somme de deux variables aléatoires non négatives, on
a Z z
g(z) = f1 (u)f2 (z − u)du; (z > 0)
0
ou 2 Z z 2
z2 u2
2 1 u zu
g(z) = √ exp − 2
+ 2 − 2 + 2 du.
2π σX σY 0 2σX 2σY σY 2σY
Cette intégrale s’exprime à l’aide de la fonction de répartition d’une loi normale centrée réduite
Φ(x) ; à cet effet il faut dégager à l’exposant de la drenière expression de g(z) le carré parfait.
Après des transformations, on obtient
√ " ! !#
−z 2
2 2 zσY zσX
g(z) = p exp 2
Φ +Φ .
+ σY2 )
p p
π(σX2
+ σY2 ) 2(σX σX σX 2
+ σY2 σY σX 2
+ σY2
Exercice 24 :
I.- La fonction x 7→ x1 , bien que non monotone dans le sens courant du mot (avec x = 0 elle croı̂t
en saut de −∞ à +∞), sa fonction inverse est univoque ; donc, le problème peut se résoudre
de la facon par laquelle on la résout pour les fonctions monotones :
1 1
g(y) = f ,
y y2
pour les valeurs de y qui peuvent être inverses à l’ensemble donné des valeurs possibles de x.
II.-En tenant compte que malgré l’allure discontinue de la fonction x 7→ x1 , la fonction inverse
y 7→ y1 est univoque et en résolvant le problème d’après les règles prévues pour une fonction
monotone, on obtient
1 1 1
g(y) = 2 y 2 = π(1 + y 2 ) ; (−∞ < y < ∞),
π 1 + y1
c’est-à-dire la loi de la variable inverse d’une variable aléatoire qui suit une loi de Cauchy, obéit
également à la loi de Cauchy.
III.- On a x 7→ x1 , sa fonction inverse y 7→ y1 est univoque. en vertu de la règle générale
1 1 1 1 1
g(y) = √ exp − 2 2 = √ exp − 2 2 .
σ 2π 2y σ y2 σy 2 2π 2y σ
8
Exercice 25 :
Examinons d’abord le cas particulier σX = σY = 1. En vertu de l’exercice 2 de la série 3 de
T.D.
Z 0 Z ∞
1 1 2 2 2 1 1 2 2 2
g(z) = − x exp − (x + z x ) dx + x exp − (x + z x ) dx
−∞ 2π 2 0 2π 2
1 ∞
Z 2
x 2 1
= exp − (1 + z ) xdx = , (Loi de Cauchy).
π 0 2 π(1 + z 2 )
Dans le cas général, le rapport Z = X Y
peut s’écrire Z = XY11σσYX , où les variables X1 = X
σX
et
Y1 = σYY qui suivent déjà des lois normales de variances égale à l’unité ; donc
1 σ
g(z) = −2
X.
π 1 + (σX z)2 σY σY
En particulier, si σX = σY ,
1
g(z) = .
π(1 + z 2 )