Book
Book
Et
Probabilités
Omar Darhouche
n Année 2021/2022
P (X = k) = pk(1 −
p)n−k k
P ( A ∩ B)
P (A |B) = P (B)
∫ +∞
r
E(X ) = xrf (x) dx
−∞
k kV (X)
2
i=1 i i i i
1Σ Σ
= n (x 2
— x) = f — x)
(x
i=1
Contents
1.1 Généralités 4
1.2 Vocabulaire 4
3.1 Dénombrement 31
Ensembles finis – Arrangements et combinaisons
4.1 Généralités 39
Variable aléatoire discrète – Fonction de répartition – Quantiles – Espérance, variance, écart-type et moments –
Variables aléatoires discrètes indépendantes
5.1 Généralités 50
Variable aléatoires réelles et densité de probabilité – Fonction de répartition – Quantiles – Espérance, variance, écart-type
et moments
1 2 3 4 5 6 A B
Contents
Content
A.1 Introduction à R 78
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
1.1 Généralités
1
La statistique désigne l’ensemble des méthodes ou des techniques consistant à collecter des
données, à les traiter, les analyser et à les interpréter afin de tirer des conclusions et prendre des
décisions dans les situations d’incertitudes.
La statistique s’applique à la plupart des disciplines: agronomie, biologie, démographie,
économie, sociologie,. On distingue deux catégories, la statistique descriptive et la statistique
inférentielle
:
Remarque 1.1. La statistique descriptive ne s’applique que si les données ont été collectées
sur toute la population, alors que pour la statistique inférentielle ça ne concerne qu’un
échantillon de la population. On se limitera dans ce cours à la statistique descriptive
seulement.
1.2 Vocabulaire
Population: ensemble des éléments sur lesquels porte l’étude ou l’activité statistique. Cet
ensemble est généralement noté Ω.
( Étudiants, entreprises, plantes, pièces, produits,. ).
Variable: caractère (ou propriété) mesuré ou observé sur chaque individu notée X, Y,...(Note,
taille, poids, sexe, âge, couleur,. ).
Modalités: les différentes valeurs possibles que peut prendre une variable statistique.
Série statistique: suite de valeurs prises par une variable X notées x1, x2, x3, ...
Variable quantitative discrète: ses seules valeurs possible sont des nombres isolée.
(Nombre d’enfants, nombre d’ouvriers, nombre de pièces, ).
Variable quantitative continue: ses valeurs possible sont en nombres infini et a priori
quelconques dans un intervalle. (Age, poids, diamètre d’une pièce, température,
vitesse,. ).
Variable qualitative: ses modalités ne sont pas mesurables (profession, couleur, numéro de
telephone,. ).
Variable qualitative nominale: ses modalités ne peuvent pas être ordonnées. (Couleur,
1 2 3 4 5 6 A B
profession, sexe, groupe sanguin,. ).
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Remarque 1.2. 1. Les caractères qualitatifs peuvent toujours être transformés en quanti-
tatifs par codage. Exemple Masculin : 1, Féminin : 2. C’est ce qui se fait le plus
généralement. Mais un tel codage est purement conventionnel et effectuer des opérations
algébriques sur ces valeurs numériques n’a pas de sens.
2. Certains caractères qualitatifs s’expriment à l’aide des nombres, mais ils n’ont pas de sens
quantitatif (Exemple : numéro de téléphone).
.
Nk = n1 + n2 + ... + nk = N.
modalités xi x1 x2 x3 ... xk
effectifs ni n1 n2 n3 ... nk
effectifs cumulés n1 n1 + n2 n1 + n2 + n3 ... n1 + n2 + ...nk
croissants Ni = N1 = N2 = N3 ... =N
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
k 1 2 k
N
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Remarque 1.3. Il est également possible de cumuler les effectifs et les fréquences dans le sens
décroissant.
N1 = N,
N2 = N − n1 = N1 − n1,
N3 = N − n1 − n2 = N2 − n2,
.
Nk = N − n1 − n2 − ... − nk−1 = Nk−1 − nk−1 = nk.
modalités xi x1 x2 x3 ... xk
effectifs ni n1 n2 n3 ... nk
effectifs cumulés N N − n1 N − n1 − n2 ... N − n1 − n2 + ... − nk−1
décroissants Ni = N1 = N2 = N3 ... Nk = nk
F k= 1 − f 1 — ... − f k−1 = Nk .
— 2
f
N
La série statistique (xi, ni)1 ≤i ≤k ou (xi, fi)1 i ≤k≤est appelée distribution statistique discrète.
Exemple 1.
Un quartier est composé d’une population de 50 ménages, et la variable X représente le
nombre de personnes par ménage. Les valeurs ordonnées de X sont :
1111122222222233333333333
3333444444444455555566688
Tableau statistique
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
où N est l’effectif total. Le nombre J de classes est l’entier le plus proche de P . Nous mention-
nons que les deux formules sont presque xmax −pareils
xmin si N 200.
L’amplitude des classes est a = , où xmax (resp. xmin) est la plus grande (res. plus
J
petite) valeur de X.
L’effectif ni de la classe [ei, ei+1[ est le nombre de valeurs de X prises dans cette classe.
n
La fréquence fi de la classe [e , e [ est le rapport f = i .
i i+1 i N
La série statistique ([ei, ei+1[, ni)1 ≤ ou ([ei, ei+1[, fi)1 i p 1≤ est
i p≤1 − ≤ −
appelée distribution statis-
tique groupée ou continue.
Un histogramme est un diagramme composé de rectangles contigus dont les aires sont pro-
portionnelles aux fréquences (ou effectifs) et dont les bases sont déterminées par les classes.
Exemple : cas d’amplitudes égales. La variable X des tailles en cm de N = 20 étudiants
est donnée par le tableau
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Cas d’amplitudes inégales. Lorsque les classes sont d’amplitudes inégales, les effectifs ou
fréquences ne permettent pas d’apprécier la distribution du caractère (ainsi la fréquence d’un
intervalle ”étroit” ne peut pas être directement comparée à celle d’un intervalle dix fois plus
large !).
On ramène toutes les classes à une largeur standard, en calculant par proportionnalité les effectifs
corrigés ou bien les fréquences corrigées correspondantes.
Soit a l’amplitude standard (choisis librement). Si la classe numéro i a pour effectif ni et une
fréquence fi et une amplitude ai alors ni
• L’effectif corrigé de la classe est n∗ = × a
i
ai
fi ni n∗
• La fréquence corrigée de la classe est f ∗ = × a = ×a= i .
i
ai a iN N
On définit la densité d’effectifs d’une classe d’amplitude ai et d’effectif ni par
ni
d = .
i
ai
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
En générale on se contente de calculer soit la densité d’effectifs soit les effectifs corrigés et pas
les deux.
Exemple. Considérons la série statistique définie par le tableau suivant :
Classes [100,110[ [110, 120[ [120, 125[ [125, 130[ [130, 140[ [140,160[
Effectifs 12 24 20 22 14 8
Les effectifs se rapportant à des classes d’amplitudes inégales ne sont pas directement compara-
ble. On doit donc corriger ces effectifs
Classes Effectifs Amplitude densité effectifs Fréquence
ni ai di corrigé n∗i corrigée fi∗
[100, 110[ 12 10 1.2 12 0.12
[110, 120[ 24 10 2.4 24 0.24
[120, 125[ 20 5 4 40 0.4
[125, 130[ 22 5 4.4 44 0.44
[130, 140[ 14 10 1.4 14 0.14
[140,160[ 8 20 0.4 4 0.04
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Courbe Cumulative
La courbe cumulative des fréquences de la distribution ([ei, ei+1[, fi), 1 ≤ i ≤ p − 1 est la
courbe de la fonction dite de répartition F définie par
0 si x < e1
x − ei x − ei
F (x) = Fi−1 ei+1 − ei fi = Fi−1 + ei+1 − ei (Fi − Fi−1) si ei ≤ x < ei+1
+
1 si x ≥ ep,
(avec F0 =
0).
MDMCCMCCCMCMVMVDCCMC
Tableau statistique
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Chaque modalité xi est représentée par un secteur dont l’aire est proportionnelle à la fréquence:
αi◦ = 360◦ × fi .
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Sd Sd Sd Sd P P P P P P P P P P P Se Se Su
Se Se Se Se Se Se Se Se Se Se Se Se Su Su Su
Su Su Su Su U U U U U U U U U U U U Su
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
La classe modale est [5.51, 5.71[ et pour déterminer le mode, on utilise la formule suivante :
d1
M0 = ei−1 + ai,
d1 + d2
où ai = ei − ei−1 est l’amplitude de la classe modale [ei−1, ei[,
d1 = ni − ni−1 et d2 = ni − ni+1 ou bien d1 = fi − fi−1 et d2 = fi − fi+1.
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
On a ei−1 = 5.51 la borne inférieur de la classe modale [5.51, 5.71[ et son amplitude est ai =
5.71 − 5.51 = 0.2.
d1 = 0.3 − 0.15 = 0.15 et d2 = 0.3 − 0.15 = 0.15. D’où
0.15
Mo = 5.51 + .0.2 = 5.51 + 0.1 = 5.61.
0.15 + 0.15
Exemple
Classes Effectifs
[0, 5[ 50
[5, 10[ 150
[10, 20[ 200
[20, 30[ 40
[30, 50] 60
Les classes sont d’amplitude inégales. On commence d’abord par calculer les effectifs corrigés
ou calculer les densités. Attention la classe modale n’est pas [10, 20[ même si elle a l’effectif
maximale!
Classes Effectifs Effectifs corrigés
[0, 5[ 50 10
[5, 10[ 150 30
[10, 20[ 200 20
[20, 30[ 40 4
[30, 50] 60 3
La classe modale est la classe [5, 10[. On applique la formule et on obtient
30 − 10 100
M =5+ .5 = 5 + ' 8.33.
o
(30 − 10) + (30 − 20) 30
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
La médiane est la valeur qui partage la série statistique supposée rangée par ordre
croissant, en deux groupes de même effectifs.
Dans le cas d’une variable quantitative discrète, la médiane s’obtient en ordonnant les valeurs
dans l’ordre croissant puis:
N+1
- si l’effectif N est impair, alors la médiane est la valeur de rang 2 ;
N
- si l’effectif N est pair, alors la médiane est la moyenne des deux valeurs de rang 2 et
N
2 + 1.
Exemples.
1. On considère la série statistique
0 0 1 1 2 2 3.
La médiane est la valeur du rang 4, donc Me = 1.
2. On considère la série statistique
0 0 1 1 2 2 3 4.
On a F (10) = 0.349 < 0.5 et F (20) = 0.527 > 0.5, donc la classe médiane est [10, 20[.
L’interpolation linéaire fournit
0.5 − 0.349
M = 10 + 10 18.48.
e '
0.178
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Les Quartiles
On appelle quartiles d’une série statistique le triplet des nombres (Q1, Q2, Q3) qui divise la série
en 4 groupes de même effectif. C’est-à-dire chaque groupe représente 25% de la population
totale.
Le premier quartile Q1 est la plus petite valeur de la variable pour laquelle au moins un
quart des données sont inférieures ou égales à Q1.
Le troisième quartile Q3 est la plus petite valeur de la variable pour laquelle au moins trois
quarts des données sont inférieures ou égales à Q3.
Évidement le deuxième quartile Q2 n’est autre que la médiane. Q2 = Me.
Dans le cas d’une variable quantitative discrète, les quartiles s’obtiennent en ordonnant les
valeurs dans l’ordre croissant puis:
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Durée de vie (100h) [12 , 13[ [13 , 14[ [14, 15[ [15 , 16[ [16 , 17[
Effectifs 28 46 65 32 29
Effectifs cumulés croissants 28 74 139 171 200
Calcul de Q1 : On a N = 50, la plus petite valeur des effectif cumulés croissants supérieur ou
4
égale à 50 est 74. Cette valeur correspond à la classe [13, 14[. Puis par interpolation linéaire,
on obtient
11 310
Q1 − 13 50 − 28 1
= 13 + = ' 13.48.
14 − 13 = 74 − 28 ⇐⇒ Q 23 23
Calcul de Q2 = Me : On a 2N = 100, la plus petite valeur des effectif cumulés supérieur ou
4
égale à 100 est 139. Cette valeur correspond à la classe [14, 15[. Puis par interpolation linéaire,
on obtient
26 72
Q2 − 14 100 − 74 2
= 14 + = = 14.4.
15 − 14 = 139 − 74 ⇐⇒ Q 65 5
Calcul de Q3 : On a 3N = 150, la plus petite valeur des effectif cumulés supérieur ou égale à 150
4
est 171. Cette valeur correspond à la classe [15, 16[. Puis par interpolation linéaire, on obtient
Q3 − 15 150 − 139 11 490
= ⇐⇒ Q 3 = 15 + = ' 15.34.
16 − 15 171 − 139 32 32
Calcul de D3 : On a 3N = 60, la plus petite valeur des effectif cumulés supérieur ou égale à 60
10
est 74. Cette valeur correspond à la classe [13, 14[. Puis par interpolation linéaire, on obtient
D3 − 13 60 − 28 16 315
= ⇐⇒ = 13 + = ' 13.70.
3
14 − 13 74 − 28 23 23
Calcul de D9 : On a 9N = 180, la plus petite valeur des effectif cumulés supérieur ou égale à 180
est 200. Cette valeur 10correspond à la classe [16, 17[. Puis par interpolation linéaire, on obtient
D9 − 16 180 − 171 4 473
= ⇐⇒ = 16 +
' 16.31. =
9
17 − 16 200 − 171 23 29
La moyenne arithmétique
La moyenne arithmétique x d’une variable quantitative discrète X est la somme pondérée des
valeurs possibles par les fréquences:
Σk 1 Σk
x= f ixi = ni xi ,
i=1
N i=1
c’est-à-dire encore la somme des observations divisée par l’effectif total de la population.
Remarque 1.5. Il existe d’autres moyennes comme la moyenne géométrique, la moyenne har-
monique, la moyenne interquartile ou les moyennes tronquées. Elles sont moins utilisées car
elles sont généralement réservées à des contextes particuliers.
Exemple. Le nombres d’enfants de 20 familles sont les suivants
1 0 2 1 3 2 2 1 0 2 2 2 4 0 1 2 1 2 2 3.
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
Effectifs 3 5 9 2 1
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
La moyenne est
3 × 0 + 5 × 1 + 9 × 2 + 2 × 3 + 1 × 4 33
x= 20 =
20 = 1.65
Remarque 1.6. Dans le cas d’une variable quantitative continue X, on convient de calculer la
moyenne de la distribution ([ei, ei+1[, fi), 1 ≤ i ≤ p − 1
p−1
Σ Σ
p−1
x= f ic = 1 ni.ci .
i
i=1
N i=1
où ci ei +
=i+1
e est le centre de la classe [ei, e i+1[.
2
Exemple
e = xmax − xmin,
où xmax (resp. xmin) est la plus grand (res. plus petite) valeur.
Ce paramètre n’est pas défini exactement pour les distributions groupées, les valeurs
extrêmes n’étant plus connues avec exactitude après le groupement en classes.
Diagramme en boîte
On construit un diagramme en boîte de la façon suivante :
2
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
- les valeurs du caractère sont représentées sur un axe (vertical ou horizontal) ;
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
- on place sur cet axe, le minimum, le maximum, les quartiles et la médiane de la série
statistique;
- on construit alors un rectangle parallèlement à l’axe, dont la longueur est l’interquartile
et la largeur arbitraire.
Exemple. On donne les notes obtenues à un devoir dans une classe de 27 étudiants:
Notes 2 3 4 6 7 8 9 10 11 12 14 15 16 18 20
Effectifs 2 1 2 1 3 1 2 2 3 2 2 1 1 1 3
Q1 = 7, Me = 10 et Q3 = 14. L’intervalle interquartile est [7,14]. Cela signifie qu’au moins la
moitié des notes sont situées entre 7 et 14.
min Q1 Me Q3 max
0 2 4 6 8 10 12 14 16 18 20
50% 50%
2. Dans le cas d’une variable quantitative continue, la variance (ainsi l’écart type) est
définie de la même manière avec les centres des classes jouent le rôle des valeurs xi.
Exemple. Soit la série statistique 2 3 4 4 5 6 7 9.
2+3+4+4+5+6+7+9
x= = 5.
8
22 + 32 + 42 + 42 + 52 + 62 + 72 + 92 2
V (X) = −
8
2
1 2 3 4 5 6 A B
La Statistique
5
descriptive à une variable
= 4.5.
1 2 3 4 5 6 A B
La Statistique descriptive à une variable
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
On a
k
Σ l
Σ fij = 1.
i=1 j=1
On a
k
Σ
fi• = 1.
i=1
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
De façon analogue, la distribution marginale suivant Y est définie par les effectifs marginaux
n• j .
La fréquence marginale de la modalité yj est
n
f•j = •j
n
On a
l
Σ
f•j = 1.
j=1
Exemple. La fréquence conditionnelle des personnes de sexe masculin sachant qu’ils ont les
yeux vert est f12 0.25
f = n12 = 50 ' 0.45 = = ' 0.45.
f ou
1|2 1|2
n•2 110 f•2 0.55
Tableau statistique de X si Y = yj.
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
fi|j = fi• ou bien fj|i = f•j.
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
Il suffit que l’une des 3 égalités précédentes ne soit pas vérifiée pour un certain couple (i, j) donné
pour que les deux variables ne soit pas indépendantes.
Exemple. Reprenons l’exemple précédent.
On a f21 = 0.10 et f2 × f 1 = 0.60 ו0.15 = 0.09.
Donc f21 /= f2 × f •1. D’où X et Y ne
• sont pas indépendantes.
Lorsque deux variables
• ne sont pas indépendantes, on cherche à évaluer l’intensité de leur liaison
et dans le cas de deux variables quantitatives, on examine si on peut les considérer liées par une
relation linéaire.
X : 1 1 2 2 2 3 4 5 5 5 6 7 8 8 9 10
Y:4 5 5 3 5 3 4 4 4 6 6 5 9 8 8 7
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
1Σ 1Σ
n n
Cov(X, Y ) = (x i− x)(y i− y) = x iyi − xy.
n i=1 n i=1
Remarque 2.1. Dans le cas des données groupées dans un tableau de contingence, en termes
d’effectifs (ou fréquences) on peut écrire
1Σ k l 1 k l
Cov(X, Y ) = Σ n (x — Σy)Σ
= n xy — xy,
i i j
ij ij
n i=1 j=1 x)(yj −n i=1 j=1
k l
où x = nΣ ni•xi (moyenne marginale de X) et y = Σ n•jyj (moyenne marginale de Y )
1 i=1 n
1
j=1
Proposition 2.2.
1) Cov(X, Y ) = Cov(Y, X).
2) Cov(X, X) = V (X).
3) V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y
).
4) Cov(aX + b, Y ) = aCov(X, Y ), a, b ∈ R.
5) |Cov(X, Y )| ≤ σ(X)σ(Y ).
Le coefficient de corrélation est définie par
Cov(X, Y )
.
r(X, Y ) = σ(X)σ(Y )
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
Sot G1(x1, y1) le point moyen associé au trois premier points du nuages et G2(x2, y2) le point
moyen associé au trois derniers.
x1 = 8 + 10 + 12 = 10 et y1 = 40 + 55 +
= 50.
55
3 3
x2 =
14 + 16 + = 16 et y2 = 70 + 75 + = 80.
18 95
Donc G1(10, 50) et G2(16, 80). D’où la droite d’ajustement de Mayer (G1, G2).
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
En supposant que cette evolution reste la même on peut par exemple estimer le chiffre
d’affaire à prévoir pour un budget de 220000 DH. Pour cela soit on utilise le graphe ou bien
l’equation de la droite de Mayer y = 5x. Ainsi pour x = 22, on trouve y = 110, ce qui veut dire
que pour un budget de 220000 DH, le chiffre d’affaire prévisionnel est 1100000 DH.
On peut aussi estimer le budget publicitaire qu’il faudrait prévoir pour obtenir un chiffre d’affaire
de 1000000 DH. On a pour y = 100, x = 20. Ceci veut dire que pour un chiffre d’affaire de
1000000 DH, le budget prévisionnel est 200000 DH.
Remarque 2.4. La construction de la droite de Mayer est extrêmement rapide et fournit une
droite tout à fait convenable lorsque les points de nuage sont presque alignés. Mais sa grande
simplicité ne permet pas d’obtenir une mesure de sa fiabilité. Nous allons présenter maintenant
une méthode nettement plus sophistiqué mais qui va nous permettre de découvrir un nouveau
paramètre statistique qui mesure le degré de confiance de cet alignement.
Cette droite, dite droite de régression linéaire, est généralement déterminer par la méthode
des moindres carrés, c’est à dire de manière à rendre minimum la somme des carrés des
distances (comptées parallèlement à (oy)) entre cette droite et chaque point du nuage.
Elle consiste à minimiser la fonction à deux variables
n n
Σ Σ
ϕ(a, b) = Mi Hi2 = (yi − axi − b)2 .
i=1 i=1
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
Le minimum (aˆ, ˆb) peut donc être déterminer en annulant les dérivées partielles de ϕ. On
trouve ainsi (
^a Cov(X,Y )
V (X)
^b = y − ^a
=
La droite de régression linéaire de Y en X x. est y = ax
^ + b. Notons que cette droite passe par le
point moyen G(x, y).
^
Les valeurs ^yi = a xi + b sont appelées les valeurs ajustées (prédites).
Les écarts ei = yi — yi sont appelées les résidus de la régression linéaire de Y en X.
La moyenne^^résiduelle
^ est
1Σ n
e= ei = 0.
n
i=1
La variance résiduelle est la variance des résidus:
1Σ
n
V (e) = e2
i
n i=1
x = 180.1, y = 79.1,
σ(X) = 10.35, σ(Y ) = 19.77,
Cov(X, Y ) = 176.89
r(X, Y ) = 0.8643.
Le coefficient de détermination est R2 = r2' 74.71%, donc on a un assez bon qualité
d’ajustement (linéaire).
a^ ' 1, 6518, b ' −218, 39
La droite de régression linéaire au ^
sens des moindres carrées est
y = 1, 65x − 218, 39
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
Alors il existe de même une unique droite rendant minimale la somme ϕ′(a, b), cette droite est
appelée droite de regression de x en y ou encore droite des moindres carrés de x en y sous la
forme x = αy + β avec (
^ = Cov (X,Y )
α V (Y
β^
) = x − α^ y.
Il est bon de noter que les deux droites de regression passent par le point moyen G(x, y) et que
le produit des coefficients directeurs^a et α des droites de regression est égal à r(X, Y )2.
^
Exemple. La statistique suivante indique pour les pays concernés les taux de chômage X et
le taux de d’inflation Y correspondant à l’année 1977 exprimés en pourcentage.
Pays B D F I L NL
Chômage 6.5 4.5 4.9 7.2 0.6 4.5
Inflation 7.1 3.9 9.5 18.4 6.7 6.7
28.2 52.3
x= = 4.7, y =
6 ' 8.7167
6
158.96 2 1321
V ar(X) = σ(X)2 = 28.2 = ' 4.4033,
6 − 300
6
584.21 2 76871
V ar(Y ) = σ(Y )2 = 52.3 = ' 21.35305,
6 − 3600
6
276.9 28.2 52.3 3049
Cov(X, Y ) = . =
− 6 6 =' 5.0816
6 600
3
1 2 3 4 5 6 A B
Statistique descriptive à deux variables
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
3.1 Dénombrement
3
3.1.1 Ensembles finis
Définition 3.1. On dit qu’un ensemble E ∅ est fini s’il existe n ∈ N∗ et une bijection de
{1, 2, ..., n} dans E. L’entier n est appelé cardinal de E et on note CardE = n. On convient
Card∅ = 0.
Proposition 3.1. Soit E un ensemble fini.
1) Si F est un ensemble en bijection avec E alors F est fini et CardE = CardF.
2) Si A ⊂ E alors A est fini et CardA ≤ CardE.
1 2 3 4 5 6 A B
pour tout 1 ≤ k ≤ n.
n n−1 n−1
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
11
12 1
13 3 1
14 6 4 1
1 5 10 10 5 1
Applications
On considère une urne contentant n boules. On tire au hasard un nombre k de boules de cette
urne.
1) Tirage avec remise
Le nombre de tirages successifs avec remise de k boules parmi n est nk.
2) Tirage sans remise
Le nombre de tirages successifs sans remise de k boules parmi n est Ank .
3) Tirage simultané
Le nombre de tirages simultanés de k boules parmi n est Cnk .
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Ensemble Événement
On a observé le résultat w et w ∈ A L’événement A est réalisé
A=B Les événements A et B sont identiques
A⊂ B L’événement A implique l’événement
∅ B Événement impossible
Ω Événement certain
A∩B Les deux événements A et B son réalisés
A∪B Un au moins des événement est realisé
A∩ B =∅ Les événements A et B sont incompatibles
A = Ω\A L’événement A n’est pas réalisé
Définition 3.5. On appelle ensemble des événements, toute famille C de parties de Ω telle que:
i) Ω ∈ C;
C est appelé aussi tribu d’événements ou σ −algèbre et le couple (Ω, ) est appelé espace proba-
bilisable. C
Définition 3.6. Un système complet d’événements est une famille (Ai)∈i I formant une
partition de Ω : [
Ai = Ω et Ai ∩ Aj = ∅ ∀i /= j.
i∈I
Définition 3.7. On appelle probabilité sur (Ω, C) une application P : C → [0, 1] telle que
i) P (Ω) = 1;
ii) Pour toute famille (Ai)i ∈I (I fini ou dénombrable) d’événements deux à deux
incompatibles, on a
!
[ Σ
P i∈IAi = i∈I P (Ai ).
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Dénombrement et espace de probabilités
Remarque 3.3.
Nous utilisons la formule des probabilités totales très souvent dans le cas où le système complet
d’événements se réduit deux éléments {B, B}. Celle-ci s’écrit alors :
P (A) = P (A ∩ B) + P (A ∩ B).
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Exemple. 85% d’une population sont vaccinés contre une maladie. On a constaté que 2% des
individus vaccinés n’ont pas été immunisés contre cette maladie et ont tombés malades.
Quelle est la probabilité qu’un individu soit vacciné et malade ?
Soit V l’événement ”un individu vacciné” et M l’événement ” un individu est malade”.
85 2
La probabilité cherchée est P (V ∩ M ) = P (V ).P (M /V ) = . = 0.017.
100 100
Propriété 3.2. (Généralisation de la formule des probabilités composées)
Soient n événement A1, A2, ..., An d’un espace probabilisé vérifiant P (A1 ∩ A2 ∩ ... An) > 0.
On a ∩
P (A1 ∩ A2 ∩ ... ∩ An) = P (A1).P (A2/A1).P (A3/A1 ∩ A2)... ∩ P (An/A1 ∩ A2 ∩ ... ∩ An−1)
Exemple. Dans une urne qui contient deux boules rouges et trois noires, quatre personnes
A, B, C et D tirent successivement (dans cet ordre) une boule sans la remettre; la première qui
tire une rouge gagne. On suppose que toutes les boules ont la même probabilité d’être tirées.
Calculons la probabilité de gain de chaque personne.
Notons pour i = 1, 2, 3, 4, l’événement Ri : ”tirer une boule rouge au ième tirage”,
et pour i = 1, 2, 3, l’événement Ni : ”tirer une boule noire au ième tirage”.
2
P (A) = P (R1) = .
5
P (B) = P (N1 ∩ R2) = P (N1).P (R2/N1) 3 . 2 = 3 .
= 5 4 10
3 2 2 1
P (C) = P (N1 ∩ N2 ∩ R3) = P (N1).P (N2/N1).P (R3/N1 ∩ N2) . . = .
5 4 3 5
=
P (D) = P (N1 ∩ N2 ∩ N3 ∩ R4) = P (N1).P (N2/N1).P (N3/N1 ∩ N2).P (R4/N1 ∩ N2 ∩ N3)
P (D) 3 2 1 2 1
. . . = .
= 5 4 3 2 10
Théorème 3.2. (Théorème des probabilités totales 2ième version)
Soit (Bi)i∈I Un système complet d’événements. Alors, pour tout événement A,
Σ
P (A) = P (Bi).P (A/Bi).
i∈I
4
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Exemple. On choisit un dé au hasard parmi un lot de 200 dés dont on sait que 50 sont
1
pipés. Pour un dé pipé, la probabilité d’obtenir 6 est . On lance le dé choisi et on a obtenu
6. Quelle
2
est la probabilité que ce dé soit pipé ?
Soit B l’événement ”Le dé choisit est pipé” et A l’événement ”le dé lancé donne
6”. La probabilité cherchée est P (B/A).
{B, B } est un système complet d’événements. En utilisant la formule des probabilités totales
(2ième version) on obtient
P (A) = P (B).P (A/B) + P (B).P (A/B)
50 × 1 150 × 1 1 1 3 1
= + = × + ×
200 2 200 6 4 2 4 6
P (A) = 1 + 1 = 1 .
8 8 4
Maintenant en utilisant la définition des probabilités conditionnelles et la formule des probabilités
composées, on obtient
P (A ∩ B) P (B).P (A/B) 1 × 1 1
P (B/A) =
= = 4 2
1 = 2.
P P (A) 4
(A)
Définition 3.9 (Indépendance).
On dit que deux événements A et B sont indépendants si P (A/B) = P (A).
Conséquences 3.1.
1) Si A est indépendant de B, alors B et indépendant de A.
2) A et B sont indépendants si et seulement si P (A ∩ B) = P (A) × P (B).
Exemple. On jette un dé rouge et un dé vert non pipés et on considère les événements A :
”le dé vert marque 6”, et B : ”le dé rouge marque 5”. Montrons que ces deux événements sont
indépendants (bien entendu ce résultat est évident, il n’y a pas d’influence d’un dé sur l’autre
!).
On a Ω = {1, 2, 3, 4, 5, 6}2 et A = {(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)},
B = {(1, 5), (2, 5), (3, 5), (4, 5), (5, 5), (6, 5)}, A ∩ B = {(6, 5)}. On obtient
P (A) = Card A 6 1
= =
Card Ω 36 6
P (B) = Card B 6 1
= =
Card Ω 36 6
card( A ∩ B) 1
P (A ∩ B) = = = P (A).P (B).
card Ω 36
Donc A et B sont bien indépendants.
Exercice. Si A et B sont indépendants, alors :
i) A et B sont indépendants.
ii) A et B sont indépendants.
iii) A et B sont indépendants.
Corrigé. i) Supposons A et B sont indépendants. En appliquant le théorème des probabilité
totales on obtient
P (A ∩ B) = P (A) − P (A ∩ B)
= P (A) − P (A).P (B)
= P (A)(1 − P (B))
P (A ∩ B) = P (A).P (B)
Donc A et B sont indépendants.
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
ii) Il suffit d’échanger les rôles de A et B.
iii) il suffit d’appliquer les résultats i) et ii).
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Définition 3.10. Les événements A1, A2, ..., An sont dits mutuellement indépendants si, pour
tout I ⊂ {1, 2, ..., n}, !
\ Y
P Ai = P (Ai).
i∈I i∈I
Exercice. Trois machines A, B et C produisent respectivement 50%, 30% et 20% des pièces
d’une usine. Chacune de ces machines fabrique respectivement 3%, 4% et 5% de pièces dé-
fectueuses.
On tire au hasard une pièce fabriquée par cette usine : elle est défectueuse.
Calculer la probabilité que cette pièce ait été produite par la machine A.
Corrigé.
Soit D l’événement ”la pièce est défectueuse”.
L’événement A : ”la pièce est fabriquée par la machine
A”. L’événement B : ”la pièce est fabriquée par la
machine B”. L’événement C : ”la pièce est fabriquée par
la machine C”. La probabilité cherchée est P (A/D).
Les événements A, B et C forment une système complet d’événements. En appliquant la deux-
ième formule de Bayes, on obtient
P (A ∩ D)
P (A/D) =
P (D)
P (A/D) = P (A).P (D/A)
P (A).P (D/A) + P (B).P (D/B) + P (C).P
(D/C)
0.50 × 0.03 15
= 0.50 × 0.03 + 0.30 × 0.04 + 0.20 × 0.05 = 37
P (A/D) ' 0.4054.
1 2 3 4 5 6 A B
Dénombrement et espace de probabilités
Dénombrement et espace de probabilités
• La somme des probabilités inscrites sur les branches issues d’un même nœud est égale à 1.
• La probabilité d’un chemin est le produit des probabilités figurant sur ses branches. (prob-
abilités composées)
• La probabilité d’un événement est la somme des probabilités de tous les chemins menant
à un sommet où apparaît cet événement. (probabilités totales)
1 2 3 4 5 6 A B
Variables aléatoires discrètes
4.1 Généralités
4
4.1.1 Variable aléatoire discrète
Définition 4.1. Soit (Ω, C, P ) un espace probabilisé. On appelle variable aléatoire (v. a.) réelle
discrète toute fonction X : Ω → R telle que
Remarque 4.1. . L’univers des réalisations X(Ω) est aussi appelé support de la loi de
probabilité de X.
. La loi de probabilité d’une variable aléatoire X est la donné de la liste des probabilités P (X = xi)
pour toutes les réalisations xi ∈ X(Ω).
Si X ne prends qu’un petit nombre de valeurs, cette distribution (ou loi de probabilité) est
généralement présentée dans un tableau.
Valeurs de X x1 x2 ... xn
pi = P (X = xi) p1 p2 ... pn
Σ
Noter que les événements [X = xi ], i ∈ I forme un système complet d’événements, donc pi =
i∈I
1.
. Si X(Ω) contient un grand nombre de réalisations ou infini, une telle représentation n’est plus
possible en pratique. on utilise alors la fonction de masse associée à la loi de probabilité.
Définition 4.2. La fonction de masse associée à la loi de probabilité de X est la fonction notée
fX qui à chaque réalisation xi ∈ X(Ω) fait correspondre la probabilité P (X = xi) :
Exemple. On lance deux fois une pièce de monnaie régulière. L’ensemble des résultats
possibles est
Ω = {P, F }2 = {(P, P ), (P, F ), (F, P ), (F, F )}.
Soit X la v. a. représentant le nombre de faces obtenues. Alors le support de X est
. La loi de probabilité de X :
xi 0 1 2
pi = P (X = xi) 1/4 1/2 1/4
. La fonction de masse fX :
1 2 3 4 5 6 A B
Variables aléatoires discrètes
où [X ≤ x] = {w ∈ Ω : X(w) ≤ x}.
La quantité P (X x) est appelée probabilité cumulée car elle correspond au cumul c’est-à-dire
≤ les probabilités associées à des réalisations xi X(Ω) inférieur ou égale à
à la somme de toutes
x. Ainsi ∈
Exemple. Soit X la variable aléatoire dont la loi de probabilité est donnée par le tableau
suivant
xi −4 −2 1 5
pi = P (X = xi) 0.1 0.3 0.5 0.1
1 2 3 4 5 6 A B
Variables aléatoires discrètes
4.1.3 Quantiles
Nous avons vu que la fonction de répartition est une fonction qui à toute valeur x ∈ R associe
la probabilité cumulative FX(x) = P (X ≤ x). Il est possible ”d’inverser” cette fonction de
répartition à fin de déterminer la valeur de x qui correspond à une certaine probabilité cumulative
α = P (X ≤ x) avec α [0, 1]. On parle alors de la fonction de répartition inverse ou de quantile
d’ordre α.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
xi 0 1 2
pi = P (X = xi) 1/4 1/2 1/4
La fonction de répartition de X est représentée par
1 2 3 4 5 6 A B
Variables aléatoires discrètes
Théorème 4.1 (Théorème de transfert). Soit X une v. a. réelle discrète définie sur (Ω, C, P ) et
f une fonction continue par morceaux définie sur un intervalle contenant X(Ω) à valeur réelles.
Alors f (X) est une v. a. discrète et on a
Σ
E (f (X)) = f (xi)P (X = xi),
i
Exemple. Une urne contient 3 boules rouges et 4 boules noires. On tire successivement avec
remise 2 boule de l’urne.
Soit Ω = {R1, R2, R3, N1, N2, N3, N4 2 et} P probabilité uniforme. On mise au départ 10 Dh et
on gagne 8 Dh par boule rouge obtenue.
Soit X la v. a. prenant pour valeur le gain final.
. Loi de X :
xi -10 -2 6
P (X = xi) 16
49
24
49
9
49
. Espérance de X :
16 24 9 −22
E(X) = (−10) × + (−2) × +6× = .
. Variance de X : 49 49 49 7
1 2 3 4 5 6 A B
Variables aléatoires discrètes
E(−7X + 5) = −7E(X) + 5 = 27, V (−7X + 5) = (−7)2 V (X) = 1536.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
Il revient au même de dire que pour tout (x, y)∈ X(Ω) Y (Ω) les événements [X = x] et
[Y = y] sont indépendants.
Exemple .
On lance deux fois un dé équilibré numérotés de 1 à 6. On note X la v.a.d qui représente le
numéro obtenu lors du premier lancer et Y la v.a.d qui représente le numéro obtenu lors du
deuxième lancer.
On a X(Ω) = Y (Ω) = {1, 2, 3, 4, 5, 6} et on a pour tout (x, y) ∈ X(Ω) × Y (Ω),
1 1 1 1
P [(X = x) ∩ (Y = y)] = , et P (X = x).P (Y = y) = × = .
36 6 6 36
Donc P [(X = x) ∩ (Y = y)] = P (X = x).P (Y = y). D’où X et Y sont indépendants.
Plus généralement on la définition suivante :
Définition 4.9. Soit X1, X2, ... et Xn des variables aléatoires discrètes définies sur (Ω, C, P
). On dit que les v.a.d X1 , X2 , ... et Xn sont indépendantes si ∀x1 ∈ X1 (Ω), ∀x2 ∈
X2 (Ω),... et
∀xn ∈ Xn
P [(X1 = x1) ∩ (X2 = x2) ∩ ... ∩ (Xn = xn)] = P (X1 = x1).P (X2 = x2)...P (Xn = xn).
Il revient au même de dire que pour tout (x1, x2, ..., xn) ∈ X1(Ω) × X2(Ω) × ... Xn(Ω) les
événements (X1 = x1), (X2 = x2),...(Xn = xn) sont (mutuellement) indépendants.
×
1 2 3 4 5 6 A B
Variables aléatoires discrètes
= ' 2.9.
12 12 On peut définir une loi uniforme discrète sur un ensemble non vide quelconque de R.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
Remarque 4.6. Soit {x1, ..., xn} ⊂ R un ensemble de n éléments. on dit qu’une v.a.r X :
Ω −→ R suit une loi uniforme discrète sur {x1, ..., xn} si
• X(Ω) = {x1, ..., 1 1
xn}.
• ∀k ∈ [[1, n]], P (X = xk) = = .
n cardX(Ω)
x1 + ... + xn x2 + ... + 2
Dans ce cas E(X) = et V (X) x21 n x1 + ... + xn
.
= n −
n n
(ii) P (X = 1) = p et P (X = 0) = 1 − p.
Situation concrète.
Une variable aléatoire de Bernouli illustre généralement toute experience aléatoire n’ayant que
deux issues possibles : le succès ou l’échec, effectuée une seule fois. Une telle expérience est
alors appelée épreuve de Bernoulli. On affecte alors 1 à la variable en cas de succès et 0 en cas
d’échec.
. Dans une expérience aléatoire où on s’interesse à la réalisation d’un événement A donné. La
v.a X égale à 1 si A est réalisé et égale à 0 sinon est une variable aléatoire de Bernouli.
. Lancer une pièce où la probabilité d’amener pile est p ∈]0, 1[. Le fait d’amener pile étant
considéré comme un succès. X : le nombre de pile obtenu suit une loi de Bernouli.
. Effectuer un tirage d’une boule dans une urne contenant une proportion p de boules blanches.
X : le nombre de boules blanches obtenues suit une loi de Bernouli.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
1 pour le succès,
X = X1 + X2 + ... + Xn où Xi : 0 sinon.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
Remarque 4.7. le mot binomial vient du fait que lorsqu’on somme toutes ces probabilités, on
retrouve le développement du binôme de Newton,
Σ
n
k k n− k n
n C p (1 − p)
k=0
= (p + 1 − p) = 1.
Exemple. On lance 4 fois un dé équilibré numéroté de 1 à 6 et on considère X la variable
aléatoire qui compte le nombre d’apparition de la face 6.
Montrons que X suit une loi binomiale et calculons E(X) et V (X).
. Lancer
1 un dé équilibré numéroté de 1 à 6 une fois est une épreuve de Bernouli de paramètre
p = 6 . On a répéter cette épreuve 4 fois d’une façon indépendante. Donc la variable aléatoire
X donnant le nombre d’apparition de la face 6, compte le nombre 1de succès de ces épreuves.
1
Par consequent X suit la loi binomiale de paramètre n = 4 et p = et on écrit X ‹→ B(4, ).
On a 6 6
k
X(Ω) = {0, 1, 2, 3, 4} et ∀k ∈ X(Ω), P (X = k) = C4k 1 4−k 4−k
1−
1 = Ck 5
6 6 4 .
64
1 2
. L’espérance de X est E(X) = 4 × = .
16 3
. La variance de X est V (X) = 4 5 = 10
× × .
6 6 18
4.2.4 Loi géométrique
Définition 4.13. On dit q’une v.a.r X suit une loi géométrique de paramètre p si on a :
Situation concrète.
. On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès avec une proba-
bilité p ou l’échec avec une probabilité 1− p. Puis on répète l’épreuve jusqu’à l’apparition du premier succès
de sorte que toutes les épreuves sont indépendantes entre elles. Alors dans cette situation, X la
variable aléatoire égale au rang de l’apparition
du premier succès suit une loi géométrique de paramètre p. On dit que X est le temps
d’attente du premier succès.
Remarque 4.8. On est donc dans les même hypothèses que pour la loi binomiale, mais le
nombre d’épreuves n’est pas fixé à l’avance. on s’arrête au premier succès.
1 1−p
Proposition 4.7. Si X ‹→ G(p) alors E(X) = et V (X) = .
p p2
Remarque 4.9. Le mot géométrique vient du fait que lorsqu’on somme toutes ces probabilités,
on obtient une série géométrique.
Σ
+∞
p
(1 − p)k−1 p = = 1.
k=0
1 − (1 − p)
1 2 3 4 5 6 A B
Variables aléatoires discrètes
Exemple.
On lance une pièce régulière jusqu’à obtenir pour la première fois face. Soit X la variable
aléatoire égale au nombre de lancers nécessaires pour obtenir face.
. Calcul de la probabilité pour obtient face au bout de 5 lancers.
Lancer une pièce une fois est une épreuve de Bernouli. La probabilité d’obtenir face (le
1
succès) est p = . On répète cette expérience jusqu’à obtenir le premier succès. Donc X suit
une loi
2 1
géométrique de paramètre p = .
La probabilité cherchée est
5
5−1 1 1
2 1 1
P (X = 5) = = = .
1− 2 2 32
2
1
. Calcul de E(X): E(X) = = 2.
p
CakCbn−k
P (X = k) =
n , ∀k X(Ω).
CN
∈
Remarques 4.1. . Si p est la proportion des boules blanches de l’urne et q celle des boules
b
noires, on a p = et q = avec p + q = 1. Donc on a a = pN et b = qN = (1 − p)N et
a N
N
k n−k k n−k
CpN CqN CpN C(1−p)N
P (X = k) = = , ∀k ∈ X(Ω).
C C
n
N n
N
et on note X ‹→ H(N, p, n).
p
. On sait que Cn = 0 si p < 0 ou p > n. Ainsi P (X = k) = 0 si k excède a ou si n −k excède b.
C’est pour cela que la connaissance exacte de X(Ω) n’est pas fondamentale et on peut écrire
la loi de X sous la forme :
CkCn−k
CkpNCn−k
a b n (1−p)N
∀k ∈ [[0, n]], P (X = k) = N ou P (X = k) = n
.
C CN
1 2 3 4 5 6 A B
Variables aléatoires discrètes
N− est appelé coefficient N−1
d’exhaustivité.
Chaque matin, un professeur interroge 4 étudiants pour tester leurs connaissance du cours. Une
1 2 3 4 5 6 A B
Variables aléatoires discrètes
indiscrétion lui permet de savoir que dans la classe composée de 45 étudiants, 10 ne connaissent
pas le cours. 10
On se trouve dans la situation d’un ensemble E comprenant 45 éléments dont une proportion
45
d’une catégorie d’éléments (les étudiants ne connaissent pas le cours). Le professeur interroge 4
étudiants successivement sans interroger deux fois le même étudiant (ce qui correspond à 4
tirages successifs sans remise d’un élément de E) alors la variable aléatoire X representant le
nombre d’éléments des étudiants qui ne connaissent pas le cours, obtenus suit une loi
hypergéométrique 10
H(45, 10, 4) ou H(45, , 4) et on a
45
C10k C354−k
P (X = k) = , ∀k ∈ {0, 1, 2, 3, 4}.
C4 45
10 8
. L’espérance mathématique est E(X) = 4 × = ' 0.88.
10 35 45 −454 9
574
. La variance est V (X) = 4 × × × = ' 0.64.
Proposition 4.9.
45 45 45 − 1 891 . Lorsque , alors
Soit une variable aléatoire X ‹→ H(N, p, N −→ +∞
n)
H(N, p, n) −→ B(n, p).
En pratique si N > 10n, alors on peut approcher la loi hypergéométrique par la loi binomiale.
1 2 3 4 5 6 A B
Variables aléatoires discrètes
0
= e0 5 + −5
.
51 + e−5 52 + e−5 53
. .
e 1! 2! 3!
0!
P (X ≤ 3) ' 0.265
1 2 3 4 5 6 A B
Variables aléatoires discrètes
. La probabilité qu’entre 15h50 et 16h, au moins une personne se présente à ce guichet vaut :
P (X ≥ 1) = 1 − P (X 0< 1) = 1 − P (X = 0)
−5 5
= 1− e .
0!
P (X ≥ 1) ' 0.993
Proposition 4.11. Soit une v.a. X ‹→ (n, p). On pose np = λ. On suppose que λ est une
constante positive fixée. B
k
lim −λ λ
n→+∞ P (X = k) = .
k!
e
On en déduit qu’une loi binomiale B(n, p) peut être approchée par une loi de Poisson P (λ)
lorsque n est suffisamment grand et p petit, avec λ = np.
En pratique, On peut estimer une bonne approximation avec des valeurs de l’ordre de :
Exemple. Suite à une vaccination contre le paludisme, dans une population à risque, on es-
time à 2%, compte tenu du délai d’immunisation, la proportion de personne qui seront pourtant
atteintes de la maladie.
Quelle est la probabilité de constater, lors d’un contrôle dans un petit village de 100 habitants
tous recrement vaccinés, plus d’une personne malade ? (on supposera l’indépendance des éven-
tualités).
Compte tenu des hypothèses, la v.a X qui compte le nombre de malade suit une loi binomiale
de paramètre n = 100 et p = 0.02. On a np = 2 et tous les conditions de l’approximation par
une loi de Poisson sont vérifiées. La probabilité cherchée est
P (X > 1) = 1 − P (X ≤ 1) = 1 − P (X = 0) − P (X = 1)
1
= 1− e 20 −2 2
−2
−e 1!
P (X > 1) = 0.5939.. 0!
1 2 3 4 5 6 A B
Variables aléatoires continues
5.1 Généralités
5
5.1.1 Variable aléatoires réelles et densité de probabilité
Définition 5.1. Soit (Ω, C, P ) un espace probabilisé. On appelle variable aléatoire réelle toute
fonction X : Ω → R telle que
Cela exprime que l’image réciproque d’un intervalle quelconque de R est un événement.
En d’autre terme, une variable aléatoire est dite réelle si elle peut prendre toutes les valeurs d’un
intervalle de R.
On appelle loi de probabilité de X la donné de PX :
PX (I) = P (X ∈ I) = P (X −1 (I)), ∀I ∈ C.
1. f (x) ≥ 0 ∀x ∈ R.
2. f est continue presque partout, c-à-d peut ne pas être continue sur un ensemble
dénombrable de points de R.
∫ +∞
3. f (x)dx = 1.
−∞
Définition 5.3. Soit f une densité de probabilité. On dit qu’une variable aléatoire X est de
densité de probabilité f si pour tout a, b ∈ R tels que a ≤ b, on a
∫ b
P (a ≤ X ≤ b) f
a (x)dx.
=
On dit que X est une variable aléatoire à densité ou continue.
1. ∀a ∈ R, P (X = a) = 0.
2. P (X < a) = P (X∫ a) = a
−∞ f (x)dx.
∫ ∞ ≤
3. P (X > a) = P (X ≥ a)+ =
a
4. ∀a,f b(x)dx.
∈ R, tels que a ≤ b, on a
∫ b
P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b)
f (x)dx.
= a
∫ x
F (x) = P (X ≤ x) = f (t)dt.
−∞
1 2 3 4 5 6 A B
Proposition 5.1. Soit F la fonction de répartition d’une v.a.r X de densité f. Alors :
1 2 3 4 5 6 A B
Variables aléatoires continues
6. F est derivable sur R sauf en au plus un nombre dénombrable de points et F ′(x) = f (x)
si F est derivable en x.
5.1.3 Quantiles
Tout comme dans le cas des variables discrètes, il est possible ”d’inverser” la fonction de répar-
tition à fin de determiner la valeur de x ∈R qui correspond à une certaine probabilité cumulée
α = P (X ≤x) avec α [0, 1]. On obtient alors la fonction de répartition inverse ou le quantile
d’ordre α. La définition du quantile est légèrement différente de celle présentée dans le cadre
des variables aléatoires discrètes.
Définition 5.5. Soit X une variable aléatoire réelle, le quantile d’ordre α de la loi de
probabilité de X notéeXQα ou F −1(α), est la réalisation appartenant à⊆X(Ω) R correspondant à
une probabilité cumulée égale à α.
−1 −1
FX (F X (α)) = P (X ≤ F X (α)) = α, ∀x ∈ [0, 1].
1 2 3 4 5 6 A B
Variables aléatoires continues
. Montrons que f est une fonction de densité d’une certaine variable aléatoire continue.
. On a f (x) ≥ 0,∀x R.
. f est continue sauf en x = 0 et en x = 1.
∫ +∞ ∈ ∫ 1
√ .
f (x)dx f (x)dx 1
. x = 1.
= = 0
− ∞ 0
Do n c f est une den sité de probabilité.
∫
. Si x ≤ 0 alors F (x) = 0 dt = 0.
x −∞
∫0 ∫ x 1∫ √ √
x
. Si
Si 0x <
> x1 ≤ 1 alors
alors F (x) 0
F (x) = −∞ −∞ 0 dt∫0+ √ dt + dt
0 1 2 √t x =dt =t01 = x.
= 0
∫ 0 dt + 2 t
1 .1
.
e 1 1 1
. la médiane de X est M = 4 , car F 4 = 2.
Exemple. (Détermination de la densité de la v.a. g(X))
Soit X une v.a. continue de densité f définie par
1, si 0 < x < 1,
f (x) =
0, sinon
1
y,
fY (y) si 1 < y < e,
= 0, sinon.
Remarque 5.1. Même si la fonction g n’est pas bijective, on peut parfois determiner la densité
Y = g(X) par dérivation de P (Y ≤ y) = P (g(X) y). Prenons l’exemple de g(x) =
x2. Soit∈y ≤ R. FY (y) = P (Y y) = P (X2 y).
2
Si y < 0 alors P (X ≤ y) = 0 et donc f (y) = 0.
≤ Y √ √ √ √
Si y ≥ 0 alors FY (y) = P (X 2 ≤ y) = P (− y ≤ X ≤ y) = FX ( y) − FX (− y).
1 √ 1
En dérivant on obtient ( y) + f √
(y) =
fY √ fX 2√y X (− y).
2 y
Finalement la densité de la v.a Y = X2 est donnée par
1 2 3 4 5 6 A B
Variables aléatoires continues
(
√ √
1
fY (y) = √ fX ( y) + fX (− y) , si y ≥ 0,
2 y
0, sinon.
1 2 3 4 5 6 A B
Variables aléatoires continues
Théorème 5.1 (Théorème de transfert). Soit X une v. a. réelle de densité f et φ une fonction
de R dans R telle que |φ|f soit integrable sur R. Alors, φ(X) possède une espérance, et on a
∫
E (φ(X)) = +∞ φ(x)f (x)dx.
−∞
V (X) = E (X − E(X))2 .
Proposition 5.3. Soient X une v. a. réelle à densité admettant une variance et a ∈ R. Alors,
Remarque 5.2. Soit X une v.a continue (ou discrete) d’espérance E(X) et d’écart-type σ(X).
La variable aléatoire définie par :
∗ X − E(X)
X = σ(X)
est appelée v.a. centrée réduite associée à la v.a. X et on a E(X∗) = 0 et σ(X∗) = 1.
Définition 5.9 (Moments). Soit X une v. a. réelle de densité f. On appelle moment d’ordre
r ∈ N∗ le nombre réel, s’il existe
∫ +∞
E (X ) =
r
xrf (x)dx.
−∞
∫
µr = E ((X − E(X))r) = +∞
(x − E(X)r) f (x)dx..
−∞
1 2 3 4 5 6 A B
Variables aléatoires continues
a+ (b − a)2
E(X) = et V (X) = .
b 12
2
Propriété 5.1. Si X ‹→ U([a, b]) alors pour tout intervalle [c, d] ⊂ [a, b], on a
d− c
P (c X d) = .
≤
b−a
Situation concrete. On utilise généralement la loi uniforme continue lorsque la situation se
ramène à choisir au hasard un nombre réel dans un intervalle.
1 2 3 4 5 6 A B
Variables aléatoires continues
Exemple. A l’arrêt donné d’un bus, un bus passe toutes les 10 minutes. Un voyageur ignore
1 2 3 4 5 6 A B
Variables aléatoires continues
les horaires et arrive à cet arrêt de bus. Quelle est la probabilité d’attendre le bus exactement
3 minutes ? entre 2 et 4 minutes ? plus de 5 minutes ?
Soit T la variable aléatoire représentant le temps d’attente, en minutes. On peut supposer que
T suit la loi uniforme U [0, 10]), puisque la situation se ramène à choisir au hasard un nombre
entre 0 et 10.
La probabilité que ce voyageur attend exactement 3 minutes est P (T = 3) = 0.
La probabilité que4 −ce2voyageur
2 1attend entre 2 et 4 minutes est :
P (2 T 4) = = = .
≤ 1 0 − 0 1 0 5
La probabilité qu e c e v oyag e ur a ttend plus de 5 minutes est
5−0 1
P (T > 5) = 1 − P (T ≤ 5) = 1 − F (5) = 1 − = .
10 − 0 2 0 + 10
L’attente moyenne de ce voyageur à cet arrêt de bus en minute est E(T ) = 5.
= 2
0 si x < 0
f (x) =
θe−θx si x ≥ 0.
On note X ‹→ E(θ).
0 si x < 0
F (x) = 1 − e−θx si x ≥ 0,
1 2 3 4 5 6 A B
Variables aléatoires continues
1 2 3 4 5 6 A B
Variables aléatoires continues
. La probabilité que ce composant tombe en panne entre la 10000 heures et la 15000 heures est
P (1000 ≤ X ≤ 15000) = F (15000) − F (10000) ' 0.53 − 0.4 ' 0.13.
. Sachant que ce composant a fonctionner plus de 5000 heures. La probabilité qu’il fonctionne
au plus 15000 heures est
P (X ≤ 15000|X > 5000) = P (X < 15000 − 5000) = P (X < 10000) = P (X ≤ 10000) ' 0.4.
1
. L’espérance de vie de ce composant est E(X) = = = 500000 heures.
1
θ 0.00005
∀x ∈ R, f (x) = √ — 2 .
2π
On note X ‹→ N (0, e
1).
1 2 3 4 5 6 A B
Variables aléatoires continues
Figure 5.5: densité de X ‹→ N (0, 1)
1 2 3 4 5 6 A B
Variables aléatoires continues
Remarque 5.4. Pour tout x ∈ R, la fonction de répartition de X ‹→ N (0, 1) est donnée par
1 ∫ x
Φ(x) = P (X ≤ x) = √ t
2
e− 2 dt.
2π −∞
x2
−
On ne connaît pas une expression explicite de la primitive de la fonction x −→ e . Donc 2
on a pas d’expression explicite de la fonction de répartition d’un v.a. suivant une loi normale
réduite. On la notera Φ.
Pour calculer Φ(x), on utilisera une calculatrice ou une table dite de la loi normale qui donne
des valeurs approché des probabilités.
Propriétés 5.2. Si X ‹→ N (0, 1), alors ∀a, b ∈ R, tel que a ≤ b
1. P (X ∈ I) = Φ(b) − Φ(a), où I = [a, b], [a, b[, ]a, b] ou ]a, b[.
2. P (X ≤ a) = P (X < a) = Φ(a) et P (X ≥ a) = P (X > a) = 1 − Φ(a).
1
3. ∀x ∈ R, Φ(−x) = 1 − Φ(x). En particulier Φ(0) = .
2
Proposition 5.9. Si X ‹→ N (0, 1), alors E(X) = 0 et V (X) = 1.
Théorème 5.2. Soit X une variable aléatoire qui suit une loi normale réduite. Pour tout réel
α ∈]0, 1[, il existe un unique réel strictement positif uα tel que
P (−uα ≤ X ≤ uα) = 1 − α.
lim 1
x−→0 Φ(x) = Φ(0) = et lim Φ(x) = 1,
2 x−→+∞
1 α positif tel
et 0 < α < 1 ⇐⇒ < 1 − 2 < 1.
2 que Φ(uα) =
Donc d’après le théorème des valeurs intermédiaires, il existe un unique x = uα
1 − α.
7
1 2 3 4 5 6 A B
Variables aléatoires continues
D’où le résultat.
strictement
1 2 3 4 5 6 A B
Variables aléatoires continues
Proposition 5.11. Si X suit la loi normale N (µ, σ) alors pour tout a, b ∈ R avec a = b, la
variable aléatoire Y = aX + b suit la loi normale N || / (aµ + b, a σ).
En particulier on a
X−µ
X ‹→ N (µ, σ) ⇔ Z = σ ‹→ N (0, 1).
Remarque 5.6. On constate que plus l’écart-type σ est grand, plus la courbe s’étale autour de
la moyenne et plus le maximum est petit, en accord avec la signification de l’écart-type.
1 2 3 4 5 6 A B
Variables aléatoires continues
1.3 0.9115 0.9131 0.9147 0.9162
1 2 3 4 5 6 A B
Variables aléatoires continues
x = x1 + yy2− y1
− y1 × (x 2 — x1)
0.95 − 0.9495
= 1.64 + (1.65 1.64)
× −
0.9505 − 0.9495
z = 1.645,
ce qui veut dire qu’on a 95% de la population étudiée ont une valeur inférieur à 1.645.
. Trouver z tel que P (Z ≤ z) = Φ(z) = 0.146.
Dans la table, les valeurs de z ne commencent qu’à 0.5, donc on a pas de valeurs proches de
0.146. Cela est du au fait que Φ(z) < 0.5 ⇐⇒ z < 0.
sachant maintenant que z < 0, on peut écrire Φ(z) = 1 − Φ(−z) = 0.146 soit encore
Φ(— z) = 1 − 0.146 = 0.854.
Par le tableau d’interpolation linéaire, on obtient
1.05 x 1.06
0.8531 0.854 0.8554
0.854 − 0.8531
x = 1.05 + × (1.06 − 1.05)
0.8554 − 0.8531
x = 1.053913
1 2 3 4 5 6 A B
Variables aléatoires continues
13 − 15 X − 15 17 − 15
P (13 ≤ X ≤ 17) = P 2 ≤ 2 ≤ 2 = P (−1 ≤ X ≤ 1)
1 2 3 4 5 6 A B
Variables aléatoires continues
On trouve à l’aide de la table uα ' 1.28. Donc I = [−1.28; 1.28].
1 2 3 4 5 6 A B
Variables aléatoires continues
Exemple. Dans un pays, la taille en centimètres des femmes adulte peut être modélisée par
une variable aléatoire X suivant la loi normale d’espérance µ1 = 165 cm et d’écart-type σ = 6
cm.
Quelle est la probabilité qu’une femme choisie au hasard dans ce pays mesure entre 153 mètre
et 177 mètre ?
La probabilité cherchée est P (156 ≤ X ≤ 177).
1 2 3 4 5 6 A B
Variables aléatoires continues
1 2 3 4 5 6 A B
Variables aléatoires continues
Exemple. On lance un dé équilibré 180 fois et on note X la variable aléatoire qui représente
le nombre d’apparition de la face 6.
En utilisant l’approximation normale et en effectuant au préalable une correction de
continuité, calculer les probabilité suivantes
≤ : P (X 20), P (X > 45) et P (X = 30).
. Il faut d’abord calculer les paramètres de la loi normale correspondante à cette loi binomiale
1
180, .
6
B 1
1 √
E(X) = np = 180. = 30 et σ(X) = np(1 − p) = r180. 5
. = 5.
6
66
. Il faut vérifier qu’on se trouve dans les hypothèses de l’approximation :
n = 180 ≥ 30, np = 30 ≥ 5 et n(1 − p) = 150 ≥ 5 .1
Donc on peut approcher la loi binomiale B 180, 6 par la loi normale N (30, 5).
. Calcul de P (X ≤ 20) :
P (X ≤ 20) = P (Y ≤ 20 + 0.5), où Y ‹→ N (30, 5).
Y − 30 20.5 − 30
= P 5 ≤ 5
Y − 30
= P (Z ≤ −1.9) avec Z = 5
= 1 − Φ(1.9)
P (X ≤ 20) ' 0.0287
. Calcul de P (X > 45) :
P (X > 45) = P (X ≥ 46)
' P (Y ≥ 46 − 0, 5) où Y ‹→ N (30, 5)
= P (Y ≥ 45, 5)
45, 5 − 30 Y − 30
= P Z≥ 5 avec Z = 5
= P (Z ≥ 3.1) = 1 − Φ(3.1)
= 1 − 0.9990
1 2 3 4 5 6 A B
Variables aléatoires continues
P (X > 45) ' 0.001.
1 2 3 4 5 6 A B
Variables aléatoires continues
. Calcul de P (X = 30) :
29.5 − 30 Y − 30 30.5 − 30
= P 5 ≤ 5 ≤ 5
Y − 30
= P (−0.1 ≤ Z ≤ 0.1) avec Z = 5
= Φ(0.1) − Φ(−0.1)
= 2Φ(0.1) − 1
' 2 × 0.5398 − 1
P (X = 30) ' 0.0796
1 2 3 4 5 6 A B
Variables aléatoires continues
1 2 3 4 5 6 A B
Variables aléatoires continues
Exemple. Soient X1, X2 et X3 trois variables aléatoires indépendantes de loi normale tells
que E(X1) = 30, V (X1) = 10, E(X2) = 20 et V (X2) = 14, E(X3) = 50 et V (X3) = 25. On
pose X = X1 + X2 + X3.
Déterminer la loi de X.
X est la somme de 3 v.a.r indépendantes suivant une loi normale, dont X suit une loi normale
N (µ, σ) de paramètres
µ = E(X)
= E(X1) + E(X2) + E(X3)
= 30 + 20 + 50
µ = 100
σ = V (X)
= √V (X1) + V (X2) + V (X3)
√
√
= 10 + 14 + 25
σ = 7
D’où X ‹→ N (170,
7).
1 2 3 4 5 6 A B
Variables aléatoires continues
Representation graphique. La figure ci-dessous représente les courbes des densités de loi
3
de Cauchy CA (1,CA
(0, 1), 1) et CA 2 , 1 . Nous voyons l’allure de la densité en fonction des
paramètres.
Proposition 5.13. Si X et Y sont deux v.a.r. indépendantes qui suivent la loi normale N (0, 1)
alors la variable aléatoire suit la loi de Cauchy CA(0, 1).
X
Y
Proposition 5.14. Pour tout x ∈ R, la fonction de répartition de X ‹→ CA(x0, α) est donnée
par
1 1 x − x0
F (x) = 2 + π arctan α .
1 2 3 4 5 6 A B
Variables aléatoires continues
”localiser” les valeurs prises par une variable aléatoire discrete ou continue en fonction de sa
moyenne et de sa variance.
1 2 3 4 5 6 A B
Variables aléatoires continues
∀δ > 0, P (X ≥ δ) ≤ E(X)
.
δ
Remarque 5.9. Par intuition, l’inégalité de Markov formalise le fait qu’une variable aléatoire
positive a peu de chances de prendre de grande valeurs.
Si on pose δ = αE(X) alors l’inégalité de Markov devient
1
∀α > 0, P (X ≥ αE(X)) ≤ .
α
Théorème 5.5. (Inégalité de Bienaymé-Tchebychev)
Soit X une variable aléatoire telle que E(X) et V (X) existent. Alors,
σ2 3
P (X ∈]µ − 2σ, µ + 2σ[) = P (|X − µ| < 2σ) = 1 − P (|X − µ| ≥ 2σ) ≥ 1 − =
4σ2 4
σ2 8
P (X ∈]µ − 3σ, µ + 3σ[) = P (|X − µ| < 3σ) = 1 − P (|X − µ| ≥ 3σ) ≥ 1 − = .
9σ2 9
Ces propriétés sont encore une illustration du fait que l’écart-type mesure la dispersion de la
variable aléatoire autour de sa moyenne.
Exemple. Soit X une v.a telle que E(X) = 4 et σ = 2. Donnons une limite de la
probabilité que X soit comprise strictement entre 0 et 8.
3
P (0 < X < 8) = P (−4 < X − 4 < 4) = P (|X − 4| < 4) = P (|X − µ| < 2σ) ≥ .
On a au moins 75% de chances pour que les valeurs de la variable aléatoire X4 soient comprise
strictement entre 0 et 8.
1 2 3 4 5 6 A B
Couple de variables aléatoires
Exemple. Une urne contient 4 boules blanches, 2 boules noires et 4 boules rouges. On tire
simultanément 3 boules au hasard. Soient X la variable prenant pour valeur le nombre de
boules blanches obtenus, et Y la variable prenant pour valeur le nombre de boules noires
obtenus.
Déterminer la loi conjointe du couple (X, Y ) et les lois marginale de Xet Y.
On a cardΩ = C310 = 120, X(Ω) = {0, 1, 2, 3} et Y (Ω) = {0, 1, 2}, et P la probabilité uniforme.
0 1 2 pi•
X\Y
0 1/30 3/30 1/30 5/30
1 6/30 8/30 1/30 15/30
2 6/30 3/30 0 9/30
3 1/30 0 0 1/30
p•j 14/30 14/30 2/30 1
On remarque par exemple que (xi , yj ) = (3, 1) ∈/ (X, Y )(Ω). En pratique, on pose pij = 0.
xi/Y = 1 0 1 2 3
1 2 3 4 5 6 A B
P (X = xi/Y = 3/14 8/14 3/14 0/14
1)
1 2 3 4 5 6 A B
Couple de variables aléatoires
6.1.5 Indépendance
Définition 6.5. On dit que X et Y sont indépendantes si
∀(i, j) ∈ I × J, P ((X = xi ) ∩ (Y = yj )) = P (X = xi )P (Y = yj ),
ou encore
∀(i, j) ∈ I × J, pij = pi• × p•j .
Proposition 6.1. Si X et Y sont indépendantes, admettant une espérance, alors la v. a. XY
admet une espérance, et
E(XY ) = E(X)E(Y ).
Proposition 6.2. Si X et Y sont indépendantes, alors toute fonction de X est indépendante
de toute fonction de Y .
Exemple. Reprenons l’exemple précédent
0 1 2 pi•
X\Y
0 1/30 3/30 1/30 5/30
1 6/30 8/30 1/30 15/30
9
1 2 3 4 5 6 A B
Couple de variables aléatoires
2 6/30 3/30 0 9/30
3 1/30 0 0 1/30
p•j 14/30 14/30 2/30 1
1 2 3 4 5 6 A B
Couple de variables aléatoires
X\Y 1 2 3 4
1 0.08 0.04 0.16 0.12
2 0.04 0.02 0.08 0.06
3 0.08 0.04 0.16 0.12
Corrigé 1) Les lois marginales du couple (X, Y ) sont données par le tableau :
1 2 3 4 pi.
X\Y
1 0.08 0.04 0.16 0.12 0.4
2 0.04 0.02 0.08 0.06 0.2
3 0.08 0.04 0.16 0.12 0.4
p.j 0.2 0.1 0.4 0.3 1
On remarque que toutes les probabilités des couples (xi, yj) s’obtiennent en faisant le produit
des probabilités marginales
4 4
Σ Σ
E(Y ) = yj p•j = 1 × 0.2 + 2 × 0.1 + 3.4 + 4 × 0.3
j=1 j=1
= 0.2 + 0.2 + 1.2 + 1.2
E(Y ) = 2.8
3
Σ 4
E(XY ) = Σ xiyjpij
i=1 j=1
= 1 × 1 × 0.08 + 1 × 2 × 0.04 + 1 × 3 × 0.16 + 1 × 4 × 0.12
+ 2 × 1 × 0.04 + 2 × 2 × 0.02 + 2 × 3 × 0.08 + 2 × 4 × 0.06
+ 3 × 1 × 0.08 + 3 × 2 × 0.04 + 3 × 3 × 0.16 + 3 × 4 × 0.12
= 0.08 + 0.08 + 0.48 + 0.48 + 0.08 + 0.08 + 0.48 + 0.48 + 0.24 + 0.24 + 1.44 + 1.44
E(XY ) = 5.6
On a E(X)E(Y ) = 2 × 2.8 = 5.6 = E(XY ). Ceci est prévisible car X et Y sont indépendantes.
1 2 3 4 5 6 A B
Couple de variables aléatoires
Remarque 6.3. La valeur FX,Y (x, y) représente la probabilité de la zone hachurée indiquée dans
la figure
Remarque 6.4. Si FX,Y est deux fois derivable par rapport aux deux variables, alors la loi du
couple (X, Y ) est dite absolument continue de densité f définie par
∂2FX,Y
f (x, y) = .
∂x∂y
La fonction de répartition se calcule alors par double intégration
∫ x ∫ y
F (X, Y )(x, y) = f (u, v)dudv.
−∞ −∞
Définition 6.7. Un couple de variables aléatoire (X, Y ) admet une densité s’il existe une
fonction f : R2 → R positive, dont l’intégrale sur R2 existe et vaut 1, et telle que
∫ ∫
∀(a, b) ∈ R , P ((X ≤ a) ∩ (Y ≤ b)) a b
2
= f (x, y)dxdy.
−∞ −∞
e−(x+y) si x, y 0
f (x, y)
0 sinon
=
est positive
et ≥
1 2 3 4 5 6 A B
Couple de variables aléatoires
∫ +∞ ∫ +∞
−x
∫∫ f (x, y)dxdy e dx e−y dy = 1.
= 0 0
R2
1 2 3 4 5 6 A B
Couple de variables aléatoires
= 2π
X a pour densité:
∫ ∫ +∞
+∞
1 −
2 2
x +y 1 −x
2
1 −
y2 1 −
2
x
√ √ √
fX(x) = e 2 dy = 2 2 dy = e 2 .
−∞ 2π e e 2π
2π −∞ 2π
On remarque que X ‹→ N (0, ` ˛¸ x
= 1
1).
Théorème 6.2. Théorème de transfert Soit (X, Y ) un couple de densité f et φ une fonction de
R2 dans R telle que |φ|f soit intégrable sur R2 . Alors, φ(X, Y ) possède une espérance, et on a
∫∫
E (φ(X, Y )) = φ(x, y)f (x, y)dxdy.
2
R
6.2.3 Indépendance
Définition 6.8. On dit que X et Y sont indépendantes si
f (x) = 2e−(x+2y) si x 0
0 sinon
1 2 3 4 5 6 A B
Couple de variables aléatoires
3. X et Y sont-elles indépendantes ?
1 2 3 4 5 6 A B
Couple de variables aléatoires
= −e +∞
−x −2e −2y dy = −e −x e−2y +∞
0
0
−x
= −e (0 − 1)
fX(x) = e−x.
1 2 3 4 5 6 A B
Couple de variables aléatoires
∫ ∫
xfX(x)dx = xe−xdx
−∞ +∞
0
∫
+∞
= −xe−x +∞
0
+ e−x dx = 0 −e
−x +∞
0
0 +
E(X) = 1.
1 2 3 4 5 6 A B
Couple de variables aléatoires
L’espérance de Y .
∫ +∞ ∫ +∞
E(Y ) =
yfY (y)dy = 2ye −2ydy
−∞ 0
∫
+∞ 1 +∞
= −ye− 2y +∞ −2y
0 + e−2ydy = 0 + −
0 e2 0
1
E(Y ) = .
2
Dans le cas particulier où h(X, Y ) = (X − E(X))(Y − E(Y )), ceci définie la covariance de X et
Y.
Cov(X, Y ) = E (X − E(X))(Y − E(Y )) ,
Définition 6.9. On appelle covariance de X et Y le réel, s’il existe
Proposition 6.5.
1) Cov(X, Y ) = E(XY ) − E(X)E(Y ).
2) Cov(X, Y ) = Cov(Y, X).
3) Cov(X + Y, Z) = Cov(X, Y ) + Cov(X, Z).
4) Cov(aX + b, Y ) = aCov(X, Y ), ∀(a, b) R2.
5) V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ).
6) |Cov(X, Y )| σ(X)σ(Y ).
7) Si
≤ X et Y sont indépendantes, alors Cov(X, Y ) = 0.
Remarque 6.5. Si X et Y sont
∫ ∫ deux variables aléatoires
∫ ∫ indépendantes, alors
E(XY ) = xyf (x, y)dx dy = xyfX (x)fY (y)dx dy
R R
∫ 2 ∫ 2
1 2 3 4 5 6 A B
Couple de variables aléatoires
où D(0, R) = { (x, y) ∈ R2 : x2 + y2 ≤ R2 }.
1) Déterminer les densités marginales de X et Y.
2) X et Y sont-elles indépendantes?
3) Calculer Cov(X, Y ).
Soit ∫
x ∈ R. On fX(x) = +∞ f (x, y)dy.
a
− ∞
Si x ∈/ [−R, R] alors ∀y ∈ R, f (x, y) = 0 et donc fX (x) =
0. Si x ∈ [−R, R] alors
f (x, y) /= 0 ⇐⇒ (x, y) ∈ D(0, R)
2
2 2
⇐⇒ x2 + y 2≤ R2
⇐⇒ y ≤ R − x
√
⇐⇒ y | | ≤R2 x2
√ √
f (x, y) 0 ⇐⇒ −− R2 − x2 ≤ y ≤ R2 − x2 .
Donc ∫ √R 2−x 2 2 √
− 1 dy .
fX(x) = 2
= 2 R2 − x2
2 2 πR
√R −x
Finalement la densité marginale
πR de X est donnée par
√
2
πR 2
R2 − x2 si −R ≤ x ≤ R,
fX(x) =
0 sinon,
De la même façon, on obtient la densité marginale de Y ,
2
√
2 R2 − y2 si −R ≤ y ≤ R,
fY (y) πR
= 0 sinon,
2) X et Y sont-elles indépendantes
?. On a √
√
2
∀(x, y) ∈ [−R, R] , fX (x).fY (y) = 4 R2 − x2 R2 − y2 1
= f (x, y).
Donc X et Y ne sont pas indépendantes. π2R4 πR2
3) Calcul de Cov(X, Y ).
On sait que Cov(X, Y ) = E(XY ) − E(X)E(Y ).
∫ ∫ R √
E(X) = +∞ xfX(x)dx = 2 x R2 − x2dx = 0,
2
−∞ πR −R
√
car x −→ x R2 x2 est une fonction impaire et on intègre sur [ R, R].
De même pour l’espérance de Y , on obtient
− ∫ +∞ ∫ R √−
2
E(Y ) = yfY (y)dy = y R2 − y2dx = 0,
−∞ πR2 −R
∫ ∫ ∫ R∫ R ∫ R ∫ R
E(XY ) = f (x, y)dx dy 1 1 xdx ydy = 0.
= −R −R πR2
xydx dy =
πR2 −R −R
R2
1 2 3 4 5 6 A B
Couple de variables aléatoires
Donc Cov(X, Y ) = 0.
Remarquer qu’on a un exemple de variables aléatoires dont la covariance est nulle, pourtant
elles ne sont pas indépendantes.
1 2 3 4 5 6 A B
Statistiques descriptives et Probabilités avec
A
A.1 Introduction à R
En préparation
1 2 3 4 5 6 A B
Statistiques descriptives et Probabilités avec
B
B.1 Introduction à Python
En préparation
1 2 3 4 5 6 A B