0% ont trouvé ce document utile (0 vote)
266 vues9 pages

Variance et lois de probabilité

Transféré par

amal koraimi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
266 vues9 pages

Variance et lois de probabilité

Transféré par

amal koraimi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Abdelmalek Essaâdi Année universitaire : 2013/2014

ENSA de Tétouan Première année de cycle ingénieur


Module: Probabilités et Statistique Prof. Mohamed El Merouani

Corrigés des exercices de Probabilités

Exercice 1 :
Le tableau de la loi de la variable aléatoire X est :
k 0 1 ··· m ··· n
P (X = k) pn Cn1 qpn−1 ··· Cnm q m pn−m ··· qn

où q = 1 − p ; E(X) = nq et V ar(X) = npq

Exercice 2 :
La variable aléatoire X suit une loi binomiale
Pn de paramètres n et p = 12 .
m 1 n 1 n m
P (X = m) = Cn ( 2 ) ; P (X > m) = ( 2 ) k=m Cn et P (X < m) = 1 − P (X 6 m).

Exercice 3 :
La variable aléatoire Xi , nombre de signes erronés dans l’ieme message, suit une loi binomiale de
paramètres ni et p. La probabilité pour que l’ieme message soit erroné est égale à la probabilité
pour que dans les ni signes de ce message il y ait au moins trois signes erronés
2
X
P (Xi > 3) = 1 − P (Xi < 3) = 1 − Cnj i pj (1 − p)ni −j
j=0

La probabilité pour qu’au moins un des k messages soit erroné est égale à
k X
Y 2
P =1− Cnj i pj (1 − p)ni −j
i=1 j=0

Exercice 4 :
La variable aléatoire X représentant le nombre de bonnes pièces parmi les cinq pièces tirées, suit
une loi hypergéométrique de paramètres 5, 6, 4. La probabilité pour que parmi les 5 pièces m
C m C 5−m
soient en bon état est égale à Pm = 6 54 5
; d’où P4 = 21 1
; P5 = 42 ; P (X > 4) = P4 +P5 = 11 42
.
C10

Exercice 5 :
La variable aléatoire X représentant le nombre de pièces défectueuses dans le lot de contrôle,
suit une loi hypergéométrique de paramètres n, a, b
m−1
X Cak Cbn−k
P (A) = P (X > m) = 1 − P (X < m) = 1 − n
.
k=0
Ca+b

Exercice 6 :

1
1. En utilisant la formule de la loi hypergéométrique, on a :
3 7
C100 C400
P (A) = 10
= 2, 0284946.10−1
C500
2. En utilisant une approximation de de la loi hypergéométrique par une loi binomiale,
P (A) ∼ 3
= C10 (0, 2)3 (0, 8)7 = 2, 0132659.10−1

Exercice 7 :
La fonction de répartition d’une loi de Weibull est :
α
F (x) = 1 − e−βx ; (x > 0),
où β > 0 est une certaine constante ; α, un nombre entier positif.
α
1. Sa densité est f (x) = dFdx(x) = αβxα−1 e−βx
R∞ α
2. Son espérance mathématique sera E(X) = 0 xαβxα−1 e−βx dx
1 1
Soit le changement de variable : βxα = y ; x = β − α y α ,
1 − 1 1−α
dx = β α y α dy;
α
Z ∞
1 1 1−α
E(X) = αye−y β − α y α dy
0 α
Z ∞  
1 1 1 1
= β− α −y
y α e dy = Γ 1 + β− α
0 α
R∞
où Γ(t) = 0 xt−1 e−x dx est la seconde fonction d’Euler. Calculons, maintenant, la vari-
ance. D’abord, on cherche E(X 2 ).
Z ∞
α
2
E(X ) = αβxα+1 e−βx dx =
0
1 1
En faisant le même changement d’avant, βxα = y ; x = β − α y α , on obtient :
Z ∞
1 1 1 1 1−α
2
E(X ) = αββ −(1+ α ) y 1+ α e−y β − α y α dy =
0 α
Z ∞  
−α2 2
−y 2 2
=β y α e dy = Γ 1 + β− α ;
0 α
2 
D’où V ar(X) = β − α Γ 1 + α2 − {Γ 1 + α1 }2 .
  

Exercice 8 :
Comme X et Y sont indépendantes, on a : f (x, y) = f1 (x).f2 (y)
On obtient, la fonction de densité conjointe du couple (X, Y ) :
1 2
f (x, y) = √ e−x ; pour y ∈ (0, 1)
π
De même F (x, y) = F1 (x).F2 (y) (puisque X et Y sont indépendantes), alors sa fonction de
répartition sera : 
  0 √  pour y < 0;
F (x, y) = y Φ(x√ 2) pour 0 6 y < 1;
Φ(x 2) pour y>1

2
Exercice 9 :
X, le nombre d’apparitions de l’événement A dans n expériences indépendantes, est mis sous
la forme X = ni=1 Xi , où Xi est l’indicatrice de l’événement A dans l’ième expérience, c’est-
P
à-dire : 
1, si, dans l’i-ème expérience l’événement est réalisé;
Xi =
0, si, dans l’i-ème expérience l’événement n’a pas été réalisé
E(Xi ) = p; V ar(Xi ) = pq
n
X n
X
E(X) = E(Xi ) = np; V ar(X) = V ar(Xi ) = npq
i=1 i=1

Exercice 10 :
D’une manière analogue à l’exercice précédent X = ni=1 Xi , où Xi est l’indicatrice de l’événement
P

A dans l’ième expérience.


Xn n
X
E(X) = E(Xi ) = pi ,
i=1 i=1

et sa variance est : n n
X X
V ar(X) = V ar(Xi ) = pi qi .
i=1 i=1

Exercice 11 :
la fréquence de l’événement A est Y = Xn , où X est le nombre d’apparitions de l’événement A.
Son espérance mathématique est E(Y ) = n1 E(X) = n1 np = p, sa variance est V ar(Y ) = npq n2
, où
q = 1 − p, la marge des valeurs pratiquement possibles de la fréquence Y est
r
pq
E(Y ) ± 3σY = p ± 3
n

Exercice 12 :
Considérons le modèle physique de l’apparition d’une loi hypergéométrique : tirage de n boules
d’une urne contenant a boules blanches et b noires, X est le nombre de boules blanches extraites.
Représentons n tirages d’une boule comme n expériences dont chacune peut donner lieu à
l’événement A ={boule blanche}. Représentons la variable X comme la somme des Xi , variables
indicatrices de l’événement A dans l’ième expérience : X = ni=1 Xi . Les variables aléatoires Xi
P
sont dépendantes, mais la formule de l’addition des espérances mathématiques est applicable :
n
X a na
E(X) = E(Xi ); E(Xi ) = ; E(X) = ;
i=1
a+b a+b

La variance de la somme des variables aléatoires Xi est :


n
X n
X X
V ar( Xi ) = V ar(Xi ) + 2 Cov(Xi , Xj )
i=1 i=1 i<j

n
X X
= V ar(Xi ) + Cov(Xi , Xj )
i=1 i6=j

a a ab
V ar(Xi ) = pq = = ;
a+ba+b (a + b)2

3
n
X nab
V ar(Xi ) = .
i=1
(a + b)2
Cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj )
Le produit des variables indicatrices Xi Xj de l’événement A dans les ième et j ème expériences
n’est égal à l’unité que si Xi = 1, Xj = 1, c’est-à-dire que si l’événement A se produit dans
l’ième et la j ème expériences. La probabilité de ceci est égale à a+b
a a−1
a+b−1
; c’est également la
valeur de l‘espérance mathématique
a a−1
E(Xi Xj ) = .
a+ba+b−1
D’où :  2
a a−1 a
Cov(Xi , Xj ) = −
a+ba+b−1 a+b
Finalement,
 2 !
nab a(a − 1) a nab(a + b − n)
V ar(X) = + − =
(a + b)2 (a + b)(a + b − 1) a+b (a + b)2 (a + b − 1)

Exercice 13 :
On trouve, d’après les formules de l’exercice précédent,
35
E(X) = 2, 5 et V ar(X) = ≈ 0, 795.
44
Exercice 14 :
Mettons la variable aléatoire X sous la forme d’une somme
k
X
X = X1 + X2 + · · · + Xk = Xi ,
i=1

où X1 est le nombre d’expériences jusqu’à la première apparition de l’événement A ; X2 est


le nombre d’expériences entre sa première et sa deuxième apparition ;· · · ; Xk est le nombre
d’expériences de la (k − 1)-ième et la k-ième apparition.
Chaque variable aléatoire Xi possède une répartition géométrique qui débute par l’unité et ses
caractéristiques sont
1 1−p
E(Xi ) = et V ar(Xi ) =
p p2
En appliquant les formules d’addition des espérances mathématiques et des variances, on ob-
tient :
k k p
X X k(1 − p) p k(1 − p)
E(X) = E(Xi ) = kp; V ar(X) = V ar(Xi ) = ; σ X = V ar(X) =
i=1 i=1
p2 p

Exercice 15 :
D’après la solution de l’exercice précédent, l’espérance mathématique du nombre de pièces mises
à l’essai est µX = kp, et sa variance est σX 2
= k(1−p)
p2
.

p
2 k(1−p)
D’où son écart type sera σX = σX = p

4
Exercice 16 :
1. Représentons X comme la somme de n variables aléatoires Xi (i = 1, · · · , n) où Xi est la
variable indicatrice de l’événement A dans l’ième expérience :
(
1, si l’événement A apparaı̂t dans l’ième expérience;
Xi =
0, si l’événement A n’apparaı̂t pas dans l’ième expérience
n
X n
X
X= Xi ; E(x) = E(Xi );
i=1 i=1

E(Xi ) = pi , où pi est la probabilité de l’apparition de l‘événement A dans l’ième expérience.


Ainsi,
Xn
E(X) = pi .
i=1

En particulier, si p1 = p2 = · · · = pn = p, alors

E(X) = np.

2. D’après la formule d’addition des variances V ar(X) = V ar( ni=1 Xi ) = ni=1 (V arXi )
P P
(puisque les variables Xi sont indépendantes).
La variance de la variable indicatrice de l’événement A dans l’ième expérience est égale
à pi (1 − pi ) ; donc V ar(X) = ni=1 pi (1 − pi ).
P
Dans le cas particulière où p1 = p2 = · · · = pn = p, V ar(X) = np(1 − p).

3. X = ni=1 , où Xi est la variable indicatrice de l’événement A dans l’i-ième expérience.


P
Dans le cas général, la variance de la somme des variables aléatoires :
Xn n
X n
X
V ar(X) = V ar( Xi ) = V ar(Xi ) + 2 Cov(Xi , Xj ),
i=1 i=1 i<j

où Cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ).


La variable Xi Xj ne se transforme en unité que si Xi = 1 et Xj = 1 (c’est-à-dire si dans
l’i-ème et la j-ème expériences l’événement A est apparu).
E(Xi Xj ) = pij , où pij est la probabilité pour que dans l’i-ième et la j-ième expériences
apparaı̂t l’événement A.
Cov(Xi , Xj ) = pij − pi pj ; on en tire V ar(X) = ni=1 pi (1 − pj ) + 2 i<j (pij − pi pj ).
P P
De la sorte, pour obtenir la variance du nombre d’apparitions de l’événement dans n
expériences dépendantes, il ne suffit pas de connaı̂ttre la probabilité pi de l’apparition de
l’événement dans chacune des expériences ; il faut encore connaı̂tre la probabilité pij pour
que l’événement apparaı̂t dans chaque couple d’expériences.
En particulier, lorsque p1 = p2 = · · · = pn = p, pij ne dépend pas de i et de j, elle est
égale à P , el la formule précédente devient

V ar(X) = np(1 − p) + n(n − 1)(P − p2 ),

où P = pij est la probabilité de l’apparition de l’événement dans un couple d’expériences


quelconque.

5
Exercice
P 17 :
X = ki=1 Xi , où 
1, si l’i-ième boule tirée est blanche;
Xi =
0, si elle est noire
k
X
E(X) = E(Xi ) = kp,
i=1
où p est la probabilié pour que la boule tirée soit blanche
a ka
; E(X) =
p= .
a+b a+b
La variance de la variable aléatoire X s’obtient comme celle du nombre d’apparitions de
l’événement dans k expériences dépendantes (exercice précédent, question 3) :
V ar(X) = kp(1 − p) + k(k − 1)(P − p2 ).
Calculons P , la probabilité pour que deux boules quelconques tirées (l’i-ième et la j-ième) soient
a a−1 a
blanches : P = a+b a+b−1
. En portant cette expression et p = a+b dans la formule de la variance,
on obtient :
a2
 
kab a a−1
V ar(X) = + k(k − 1) − .
a+b a + b a + b − 1 (a + b)2
Exercice 18 :
Démontrons d’abord que la somme de deux variables aléatoires X1 et X2 indépendantes qui
suivent des lois de Poisson de paramètres respectives λ1 et λ2 , suit aussi une loi de Poisson
dont le paramètre est la somme des paramètres, c’est-à-dire λ1 + λ2 . À cet effet, calculons la
probabilité pour que X1 + X2 = k, (k = 0, 1, 2, · · · ).
k k
X X λi 1 −λ1 λk−i
P (X1 + X2 = k) = P (X1 = i)P (X2 = k − i) = e 2
e−λ2 .
i=0 i=0
i! (k − i)!
k!
Compte tenu que Cki = (i!)(k−i)!
, mettons cette expression sous la forme
k
e−(λ1 +λ2 ) X i i k−i (λ1 + λ2 )k −(λ1 +λ2 )
Ck λ1 λ2 = e ,
k! i=0
k!
or, ceci est une loi de Poisson de paramètre λ1 + λ2 .
Ainsi, nous avons démontré que la somme de deux variables aléatoires indépendantes suivant
toutes les deux des lois de Poisson, suit également une loi de Poisson. L’extension de ce résultat
sur un nombre quelconque de termes se fait par récurrence.
Exercice 19 :
L’inégalité de Bienaymé-Tchébychev implique :
V ar(X) σ2 1
P (|X − µ| > 3σ) 6 2
= 2
= ;
(3σ) (3σ) 9
8
donc P (|X − µ| > 3σ) 6 ;
9
Ainsi, toute variable aléatoire s’écarte de son esérance mathématique à moins de 3σ avec une
probabilité non inférieure à 89 1 .
1. C’est le cas extrême, le plus défavorable. Dans la pratique, pour les variables aléatoires qui se présentent
dans le cas courants cette probabilité est bien plus proche de l’unité ; par exemple, pour la loi normale elle est
égale à 0, 997 ; pour la loi uniforme, à l’unité ; pour la loi exponentielle, à 0, 982.

6
Exercice 20 :
n
1X 1
a = E(Y ) = E(Xi ) = .n.1, 5 = 1, 5;
n i=1 n
n
1 X n 1 1
V ar(Y ) = 2 V ar(Xi ) = 2 = ;
n i=1 n 12 12n
p 1
V ar(Y ) = √ .
σY =
2 3n
La valeur maximale pratiquement possible de l’erreur est 3σY .

Exercice 21 :
1. E (Y (n)) = n1 ni=1 E(Xi ). Toutes les pesées étant réalisées dans les conditions identiques,
P
E(Xi ) = a; ∀i ; il vient donc
n
1X na
E (Y (n)) = a= = a.
n i=1 n

En considérant que les erreurs des pesées isolées sont indépendantes, on trouve la variance
de Y (n) :
n n
1 X 1 X 2 nσ 2 σ2
V ar (Y (n)) = 2 V ar(Xi ) = 2 σ = 2 = .
n i=1 n i=1 n n

2. Le nombre de pesées se calcule d’après la condition


r
σ2 σ σ
σ (Y (n)) = = √ = ; donc n = 100
n n 10

Exercice 22 :
On note f la densité de probabilité de la variable aléatoire X ∼ N (µX , σX ).
1. Soit g la densité de probabilité de la variable aléatoire Y = |X|, alors,

g(y) = f (−y) + f (y); pour y > 0;

(y + µX )2 (y − µX )2
    
1
g(y) = √ exp − 2
+ exp − 2
pour y > 0.
σX 2π 2σX 2σX
2. Si µX = 0, alors
y2
  
2
g(y) = √ exp − 2 pour y > 0.
σX 2π 2σX
• Cherchons, maintenant, h(z) la densité de probabilité
  de la variable aléatoire Z = X 2 :
1 2
On rappelle que dans ce cas f (x) = σ √ exp − 2σx 2 ; Y = X 2 .
X 2π X
√ √
La fonction inverse de y = x2 a deux valeurs : x1 = + y et x2 = − y. Donc, d’après
√ √
une formule vu dans le cours, on a : h(y) = 2√1 y f ( y) + 2√1 y f (− y)
h    i h  i
D’où h(y) = 2√1 y exp − 2σy2 + exp − 2σy2 = √1y exp − 2σy2 ; pour y > 0
X X X
Pour y = 0, la densité h(y) possède une discontinuité de seconde espèce (tend vers l’infini).

7
Exercice 23 :
Introduisons les notations U = |X| et V = |Y |. Les densités de ces varaiables f1 (u) et f2 (v)
sont égales respectivement à
(  
2 u2
√ exp − 2
2σX
pour u > 0;
f1 (u) = σX 2π
0 pour u 6 0;
(  
2 v2
√ exp − 2
2σY
pour v > 0;
f2 (v) = σY 2π
0 pour v 6 0;
Compte tenu de la formule de la loi de la somme de deux variables aléatoires non négatives, on
a Z z
g(z) = f1 (u)f2 (z − u)du; (z > 0)
0
ou 2 Z z   2
z2 u2
 
2 1 u zu
g(z) = √ exp − 2
+ 2 − 2 + 2 du.
2π σX σY 0 2σX 2σY σY 2σY
Cette intégrale s’exprime à l’aide de la fonction de répartition d’une loi normale centrée réduite
Φ(x) ; à cet effet il faut dégager à l’exposant de la drenière expression de g(z) le carré parfait.
Après des transformations, on obtient
√ " ! !#
−z 2

2 2 zσY zσX
g(z) = p exp 2
Φ +Φ .
+ σY2 )
p p
π(σX2
+ σY2 ) 2(σX σX σX 2
+ σY2 σY σX 2
+ σY2

Exercice 24 :
I.- La fonction x 7→ x1 , bien que non monotone dans le sens courant du mot (avec x = 0 elle croı̂t
en saut de −∞ à +∞), sa fonction inverse est univoque ; donc, le problème peut se résoudre
de la facon par laquelle on la résout pour les fonctions monotones :
 
1 1
g(y) = f ,
y y2
pour les valeurs de y qui peuvent être inverses à l’ensemble donné des valeurs possibles de x.
II.-En tenant compte que malgré l’allure discontinue de la fonction x 7→ x1 , la fonction inverse
y 7→ y1 est univoque et en résolvant le problème d’après les règles prévues pour une fonction
monotone, on obtient
1 1 1
g(y) =   2  y 2 = π(1 + y 2 ) ; (−∞ < y < ∞),
π 1 + y1

c’est-à-dire la loi de la variable inverse d’une variable aléatoire qui suit une loi de Cauchy, obéit
également à la loi de Cauchy.
III.- On a x 7→ x1 , sa fonction inverse y 7→ y1 est univoque. en vertu de la règle générale
   
1 1 1 1 1
g(y) = √ exp − 2 2 = √ exp − 2 2 .
σ 2π 2y σ y2 σy 2 2π 2y σ

En y = 0 la densité g(y) présente une discontinuité de seconde espèce.


Il est curieux de noter que la variable aléatoire Y ne possède pas d’espérance mathématique :
l’intégrale correspondante est divergente.

8
Exercice 25 :
Examinons d’abord le cas particulier σX = σY = 1. En vertu de l’exercice 2 de la série 3 de
T.D.
Z 0   Z ∞  
1 1 2 2 2 1 1 2 2 2
g(z) = − x exp − (x + z x ) dx + x exp − (x + z x ) dx
−∞ 2π 2 0 2π 2

1 ∞
Z  2 
x 2 1
= exp − (1 + z ) xdx = , (Loi de Cauchy).
π 0 2 π(1 + z 2 )
Dans le cas général, le rapport Z = X Y
peut s’écrire Z = XY11σσYX , où les variables X1 = X
σX
et
Y1 = σYY qui suivent déjà des lois normales de variances égale à l’unité ; donc

1 σ
g(z) =  −2
 X.
π 1 + (σX z)2 σY σY

En particulier, si σX = σY ,
1
g(z) = .
π(1 + z 2 )

Vous aimerez peut-être aussi