shipout/backgroundshipout/foreground
1
Chapitre 1
Variables Aléatoires et Lois de Probabilité
Variables Aléatoires et Lois de Probabilité
Dans la plupart des phénomènes aléatoires, le résultat d’une épreuve peut se traduire par une " grandeur
" mathématique, très souvent représentée par un nombre entier ou un nombre réel. La notion mathématique
qui représente efficacement ce genre de situation concrète est celle de variable aléatoire (notée également
v.a.). Définir une variable aléatoire, c’est associer à chaque événement aléatoire un nombre réel. Etant
donné un espace probabilisé d’espace fondamental Ω et de mesure de probabilité P, on appelle variable
aléatoire sur cet espace, toute application X de Ω dans R telle que :
X:Ω→R
w 7→ X(w)
Exemple 1 : Pour une expérience aléatoire de lancer de dé, Ω = {1, 2, 3, 4, 5, 6} ;
A chaque chiffre i on peut par exemple décider d’associer un gain en euros égal à (-10)i (si le gain est négatif,
vous payez la banque...). C’est ce gain variable dépendant de la réalisation d’une expérience aléatoire que
l’on appelle variable aléatoire.
Considérons par exemple l’exérience qui consiste à observer, pour chacune des n pièces produites par une
machine, si la pièce est défectueuse ou non. Nous attribuerons la valeur 1 à une pièce défectueuse et la
valeur 0 à une pièce en bon état. L’univers associé à cette expérience est Ω = 0; 1(puissance n).Ce qui
intéresse le fabricant est la proportion de pièces défectueuses produites par la machine.
Une telle fonction X définie sur Ω et à valeurs dans R s’appelle variable aléatoire réelle.
Remarque 1 : On se limitera ici au cas des variables aléatoires réelles (les entiers faisant bien sûr partie
des réels).
On distinguera les variables aléatoires réelles discrètes et les variables aléatoires réelles continues.
1.1 Variables Aléatoires Discrètes
Une variable aléatoire est dite discrète si elle ne prend qu’un nombre entier de valeurs dans un intervalle
donnée (bornée ou non bornée). L’ensemble des nombres entiers est discret. En règle général, toutes les
variables qui résultent d’un dénombrement ou d’une numération sont de type discrètes.
Soit X une variable aléatoire réelle. On dit que X est une variable aléatoire réelle discrète si et seulement
si X(Ω) est un ensemble fini ou une partie de N
On distinguera :
-variable aléatoire réelle discrète finie si et seulement si X(Ω) = {x1 , ..., xn }
-variable aléatoire réelle dénombrable si et seulement si X(Ω) ⊂ N .
2
1.1.1 Loi de Probabilité
La loi de probabilité d’une v.a X permet de connaître les chances d’apparition des différentes valeurs
de cette variable. Elle est déterminée par les probabilités P (X = xi ) pour toutes les valeurs xi possibles
prises par X.
Définition 1 : On appelle loi de probabilité ou distribution de probabilité d’une v.a.d (finie ou dénom-
brable) X, l’application P de X(Ω) dans [0,1] définie par :
pi = P (X = xi ) ∀x ∈ X(Ω) pi ≥ 0
Propriétés 1 :
1. Soit X une v.a.r.d de loi de probabilité p, alors on a :
n
X
pi = 1.
i=0
2. cette définition s’étend bien sûr au cas d’une v.a.r à valeurs dans un ensemble fini dénombrable c a
d X(Ω) = {x1 , x2 , ..., xn , ...}
1.1.2 Fonction de répartition
On appelle fonction de répartition d’une v.a.r.d X,la fonction F de R dans [0,1] définie par :
F (x) = P (X ≤ xi ) ∀x ∈ R
Concrètement, la fonction de répartition correspond à la distribution des probabilités cumulées.
Propriétés 2 :
Soit F la fonction de répartition d’une v.a.r.d X alors :
1. ∀x ∈ R 0 ≤ F (x) ≤ 1.
2. F est une fonction croissante sur R.
3. limx→−∞ F (x) = 0 et limx→+∞ F (x) = 1
4. si a ≤ b P (a ≤ X ≤ b) = F (b) − F (a)
Remarque 2 : Dans le cas d’une v.a.r.d, on utilise un diagramme en bâtons pour visualiser la distribution
de probabilité et une fonction en escaliers pour la fonction de répartition.
Application 1 :
On lance une pièce de monnaie 3 fois de suite. On s’intéresse au nombre de fois qu’on a la face "Pile".
Déterminer la loi de probabilité et la fonction de répartition de cet événement.
Solution 1 : On introduit une v.a.r.d X définie par X : nombre de "pile" de l’événement. La loi de
probabilité de X est :
Nombre de Piles (xi ) 0 1 2 3
P(X = xi ) 1/8 3/8 3/8 1/8
F(x) 1/8 4/8 7/8 1
3
1.1.3 Espérance et Variance
Espérance
1. Soit X une v.a.r discrète. On appelle espérance de X le réel, s’il existe, défini par :
n
X
E(X) = xi P (X = xi )
i=1
2. Si X est une v.a.r.d infinie telle que X(Ω) = {x1 , x2 , ..., xn , ...} alors on a :
+∞
X
E(X) = xi P (X = xi )
i=1
Remarque 3 : Il peut arriver que la série ci-dessus soit divergente. Dans ce cas, on dit que X n’a pas
d’espérance.
Propriétés 3 :
Théorème 1 : Théorème de transfert
Soit X une v.a.r.d et f une fonction définie sur X(Ω) à valeurs réelles. Alors Y = f (X) est aussi une
v.a.r.d finie donc admet une espérance, et :
n
X
E(Y ) = E[f (X)] = f (xi )p(xi )
i=1
Linéarité de l’espérance Soit une v.a.r.d telle que E(X) existe. Alors pour tout (a, b) ∈ R, E(aX +b)
existe et :
E(aX + b) = aE(X) + b
Définition 2 : On dit qu’une v.a.r est centrée si E(X) = 0
Remarque 4 : Si X est une v.a.r.d admettant un espérance, alors Y = X − E(X) est centrée
Moments
Soient X une v.a.r.d. et r ∈ N . On dit que X admet un moment d’ordre r lorsque E(X r ) existe, défini
par :
n
E(X r ) = xki p(xi )
X
i=1
. On appelle moment centré d’ordre r de X le réel :
x
r
[X − E(X)]r p(x)
X
E[X − E(X)] =
Remarque 5 : Si X(Ω) = {x1 , x2 , ..., xn , ...} alors :
+∞
E(X r ) = xki p(xi )
X
i=1
4
Variance
Soit X une v.a.r.d. On appelle variance de X notée V(X), l’espérance si elle existe de [X − E(X)]2 .
V (X) = E[X − E(X)]2
x
[X − E(X)]2 p(x)
X
=
Remarque 6 :
La variance correspoond au moment centré d’ordre 2 de X. Elle mesure la dispersion de X autour de son
espérance. Ecart-type : On appelle écart-type de X, noté σ(X), la racine carrée de la variance.
q
σ(X) = V (X)
Définition 3 : On dit qu’une v.a.r.d est réduite si V (X) = 1
Propriétés 4 : Théorème de Koenig-Huyghens :
V (X) = E(x2 ) − E 2 (X)
n
pi x2i − E(X)2
X
=
i=1
Soit X une v.a.r.d et soient a,b deux nombres réels. Alors, on a :
V (aX + b) = a2 V (X)
si X et Y sont indépendantes :
V (X + Y ) = V (X) + V (Y )
Dans le cas général :
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y )
avec :
cov(X, Y ) = E([X − E(X)][Y − E(Y )]) = E(XY ) − E(X)E(Y )
Remarque 7 : Pour toute v.a.r.d X possédant une variance, la variable aléatoire :
X − E(X)
Y =
σ(X)
est centrée et réduite.
Application 2 : Déterminer l’espérance et la variance de la loi de probabilité de l’application précédente
Nombre de Piles (xi ) 0 1 2 3
Solution 2 : P(X = xi ) 1/8 3/8 3/8 1/8 Son espérance : E(X) = 0 ∗ 1/8 + 1 ∗ 3/8 +
F(x) 1/8 4/8 7/8 1
2 ∗ 3/8 + 3 ∗ 1/8 = 3/2.
Sa variance : V (X) = (02 ∗ 1/8 + 12 ∗ 3/8 + 22 ∗ 3/8 + 32 ∗ 1/8) − (3/2)2 = 3/4
Exercice no 1 : On lance une piéces de monnaie deux fois de suite et on s’intéresse au nombre de fois
que "pile" est apparue.
1. Déterminer la loi de probabilité de cette variable aléatoire.
5
2. Déterminer sa fonction de répartition.
3. Calculer son espérance et sa variance.
Exercice no 2 : Une urne contient 2 boules rouges, 3 vertes et 5 boules jaunes. On tire 3 boules simul-
tanément de l’urne. On s’interesse au nombre de boules vertes lors du tirages.
1. Déterminer la loi de probabilité de cette variable aléatoire.
2. Déterminer sa fonction de répartition.
3. Calculer son espérance et sa variance.
Exercice no 3 : Dans un casino, un jeu consiste à jeter deux dé numérotés de 1à 6. On s’intéresse à la
somme des faces apparues.
1. Déterminer la loi de probabilité de cette variable aléatoire.
2. Déterminer sa fonction de répartition et tracer son diagramme.
3. Calculer son espérance et sa variance.
4. La mise pour participer à ce jeu est de 500 euros. Si la somme des faces apparues est inférieure ou
égale à 6, il récupére sa mise ; si la somme des faces apparues est comprise entre 7 et 9 il perd sa
mise ; sinon il gagne deux fois sa mise. Déterminer la loi de probabilité de cette variable aléatoire.
5. Calculer son gain moyen, sa variance et l’écart-type.
1.1.4 Lois discrètes usuelles
Lois de probabilités finies usuelles :
Loi de Bernouilli : B(p)
Soit une épreuve de Bernoulli dont la probabilité de succès est p.
On définit la variable aléatoire X pouvant prendre les deux valeurs 0 et 1 avec les probabilités p et 1 - p :
lï¿ 12 échec qui est associé à la valeur 0 et le succès qui est associé à la valeur 1 lors d’une expérience. Cette
expérience est appelée épreuve de Bernoulli.
On dit que X suit une loi de Bernouilli, de paramètre p,(0<p<1),noté X ∼ B(p), si elle a pour loi de
probabilité :
P (X) = px (1 − p)1−x avec x ∈ {0, 1}
Ainsi on a : P (X = 0) = 1 − p = q et P (X = 1) = p Son espérance et sa variance sont définies par :
E(X) = p
V (X) = pq
Exemple 2 : On veux savoir si une personne est malade. On associe la valeur 1 si elle malade (succès)
et la valeur 0 si elle est saine (échec).
Loi Binomiale : B(n, p)
On réalise n fois et de manière indépendante une épreuve de Bernoulli dont la probabilité de succès est
p.
La variable aléatoire X qui compte le nombre de succès sur lï¿ 12 ensemble des n épreuves est dite variable
aléatoire binomiale de paramètres (n, p). On note X ∼ B(n, p)
Toute séquence comportant i succès et n - i échecs a pour probabilité pi (1 − p)n−i .
Il y a Cni séquences vérifiant cette propriété.
Sa loi de probabilité est donnée par :
P (X = i) = Cni pi q n−i
6
Son espérance et sa variance sont définies par :
E(X) = np
V (X) = npq
Exemple 3 : On lance n fois un dé et on note X le nombre de fois que le numéro 3 est apparu.
Loi Hypergéométrique :H(N, n, p)
Considérons dans une population de N individus dont m possédent un caractère particulier. On fait un
tirage sans remise d’un échantillon de n individus de cette population. donc les tirages ne sont pas indé-
pendants. Soit X la variable aléatoire qui s’intéresse au nombre d’individus portant le caractère particulier
dans cet échantillon tiré. On dit que X ∼ H(N, n, p), avec p proportion d’individus ayant ce caractère
dans la population, et la proabilité que l’échantillon contienne k individus caractérisés est définie par :
k
Cm ∗ CNn−k
−m
P (X = k) = n
CN
avec
X(Ω) = {0, , ..., n}
Son espérance et sa variance sont définies par :
E(X) = np
N −n
V (X) = np(−p)
N −1
Utilisation : La loi Hypergéométrique est largement utilisée dans les sondages où il n’y a pas de
répétitions avec l’étude d’un caractère particulier.
Lois de probabilités infinies usuellles
Loi de Poisson : P (λ) avec λ > 0, un réel
La loi de Poisson décrit le comportement du nombre dï¿ 12 événements se produisant dans un intervalle
de temps fixé, si ces événements se produisent avec une fréquence moyenne connue et indépendamment du
temps écoulé depuis lï¿ 21 événement précédent.
Si le nombre moyen dï¿ 12 occurrences dans cet intervalle est λ, alors la probabilité quï¿ 21 il existe exactement
k occurrences est :
e−λ λk
P (X = k) = k∈N
k!
Son espérance et sa variance sont définies par :
E(X) = λ
V (X) = λ
Utilisation : La loi de Poisson est utilisée pour modéliser le dénombrement dï¿ 21 événements rares qui
ont une faible probabilité de réalisation : maladies rares, accidents mortels rares, pannes...
7
Loi Géométrique : G(p) avec p ∈ [0, 1]
Soit une épreuve de Bernoulli dont la probabilité de succès est p.
On renouvelle cette épreuve de manière indépendante jusquï¿ 12 au premier succès.
On appelle X la variable aléatoire modélisant la probabilité que le premier succès apparaisse au bout de k
itérations.
On dit que X suit une loi géométrique de paramètre p.
Sa Loi de probabilité est définie par :
P (X = k) = p(1 − p)k−1 avec k ≥ 1
Son espérance et sa variance sont définies par :
1
E(X) =
p
q
V (X) = 2
p
1.2 Variables aléatoires continues
Une variable aléatoire est dite continue si elle prend toutes les valeurs dans un intervalle donné(borné
ou non borné). En général, toutes les variables qui reésultent d’une mesure sont de type continu.
1.2.1 Fonction de densité de probabilité
On dit que X est une variable aléatoire continue s’il existe une fonction f, appelée densité de probabilité,
définie sur R telle que pour tout intervalle [a,b]de R on a :
Z b
P (a ≤ X ≤ b) = f (x)dx
a
et qui vérifie les propriététes suivantes :
1. pour tout x ∈ R, f (x) ≥ 0,
2. f est continue sur R sauf peut etre en un nombre fini de poins où elle admet une limite à droite et
une limite à gauche finies,
R +∞
3. −∞ f (t)dt = 1,
Remarque 8 :
Pour une v.a.c, la loi de probabilité associe une probabilité à chaque ensemble de valeurs définies dans un
intervalle donné. Ainsi, P (X = a) = 0 car il est impossible d’observer exactement cette valeur.
P
Dans le cas des v.a.r.c,R l’ensemble X(Ω) n’est pas dénombrable ce qui fait disparaitre le signe qui sera
remplacer par le signe .
1.2.2 Fonction de répartition
Comme pour les v.a.d, on définit la fonction de répartition de X par :
F (x) = P (X ≤ x) ∀x ∈ R
Cela permet de connaître la probabilité que X soit inférieure à une valeur donnée. La fonction de répartition
est obtenue en intégrant la densité de probabilité
Z x
F (x) = P (X ≤ x) = f (t)dt
−∞
La fonction de répartition est la primitive de la fonction densité de probabilité et permet d’obtenir les
probabilités associées à la variables aléatoire de X.
8
Propriétés 5 :Soit une v.a absolument continue de densité f et de fonction de répartition FX , alors :
1. P (a ≤ X ≤ b) = FX (b) − FX (a) = ab f (x)dx avec a < b.
R
On peut écrire a < X < b, a ≤ X < b ou a < X ≤ b sans changer le résultat final.
2. ∀a ∈ R P (x = a) = 0 si f est continue à droite du point a.
3. FX est continue sur R, dérivable en tout point où f est continue et alors FX0 = f
4. FX est à valeurs dans [0,1]
5. lim−∞ FX (t) = 0 et lim+∞ FX (t) = 1
1.2.3 Espérance et Variance
Espérance
Si X est une v.a absolument continue de densité def , on appelle espérance de X, le réel E(X), défini
par : Z +∞
E(X) = xf (x)dx
−∞
si cette intégrale est convergente.
Propriétés 6 : Ce sont les mêmes propriétés que pour une v.a.d. Si X et Y sont deux v.a définies sur un
même univers Ω, admettant une espérance, alors :
1. E(X+Y) = E(X) + E(Y)
2. E(aX) = aE(X) ∀a ∈ R
3. Si X ≥ 0 alors E(X) ≥ 0.
Définition 4 : Une v.a.r. X est centrée si E(X) = 0.
Si X admet une espérance mathématique, X − E(X) est appelée v.a.r centrée associée à X.
Variance
Si X est une v.a.c donnée par sa densité de probabilité ayant une espérance E(X), on appelle variance
de X le réel positif telle que :
V (X) = E([X − E(X)]2 )
Z +∞
V (X) = (x − E(x))2 f (x)dx
−∞
Z +∞
V (X) = x2 f (x)dx − E(X)2
−∞
q
Si X est une v.a ayant une variance V(X), on appelle écart-type de X, le réel : σ(X) = V (X)
De même que pour l’espérance, on aura aussi les mêmes propriétés que pour une v.a.d :
Propriétés 7 :
Si X est v.a admettant une variance alors :
1. ∀a ∈ R, v(aX) = a2 V (X
2. ∀(a, b) ∈ R, V (aX + b) = a2 V (X)
3. V(X) = 0 ⇔ X = E(X)
Définition 5 : On dit qu’une v.a.r est réduite si V (X) = 1.
X−E(X)
Si X admet une espérance mathématique et une variance non nulle, σ(X)
est appelée v.a.r centrée réduite
associée à X.
9
1.2.4 Lois continues usuelles
La Loi Uniforme
Une v.a.c X suit une loi uniforme sur l’intervalle [a, b] si elle admet pour densité la fonction f définie
sur R par : (
1
si x ∈ [a, b]
f (x) = b−a
0 sinon
Les caractéristiques :
a+b
E(X) =
2
(b − a)2
V (X) =
12
On note : X ∼ U(a, b)
Utilisation : Cette loi est l’analogue continu de l’équiprobabilité dans le cas discret. Elle permet de
modéliser le tirage d’un nombre aléatoire dans l’intervalle [a, b]
La loi exponentielle
Une v.a.c X suit une loi de exponentielle de paramètreλ(λ > 0) si elle admet pour densité la fonction
définie sur R par : (
λe−λx si x ≥ 0,
f (x) =
0 sinon
Les caractéristiques :
1
E(X) =
λ
1
V (X) = 2
λ
On note : X ∼ E(λ)
Utilisation : On se place dans un phénomène d’attente et on s’intéresse à la v.a qui représente le temps
d’attente entre deux événements successifs ou encore une durée de vie. On l’utilise aussi pour modéliser
des durées de vie d’êtres non soumis au viellissement(durée de vie d’une bactérie).
La loi normale
Une v.a.c X suit une loi normale de paramètres µ et σ(σ > 0) si elle admet pour densité la fonction f
définie sur R par :
1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
Les caractéristiques :
E(X) = µ
V (X) = σ 2
On note : X ∼ N (µ, σ 2 )
Utilisation : La loi normale est une loi centrale dans la théorie des probabilités. Elle est notamment
très utilisée en statistique. Une grandeur influencée par un grand nombre de paramt̀res indépendants est
souvent modélisée par une loi normale(erreurs de mesures lors d’une expériences)
1.3 Approximations des lois
Il arrive dans certains cas qu’une loi soit remplacée par une autre pour pouvoir faire les calculs néces-
saires sans trop de difficulté. Mais cela ne se fait que si certaines conditions sont réunies et cela diffère
selon les lois.
10
1.3.1 Approximation de la loi hypergéométrique par la loi binomiale
Si dans notre étude, Nn < 10% avec n(nombre d’éléments que compose l’échantillon) et N(effectif de la
population), il est prudent de remplacer la loi hypergéométrique par la loi binimoiale B(n, p)
1.3.2 Approximation de la loi binomiale par la loi de Poisson
La loi de Poisson est généralement dans le cas des événements avec une probabilité de réalisation trop
faible. Elle est un cas particulier de la loi binomiale.
Si dans notre étude, p ≤ 0, 10, n ≤ 30 et np < 15, il est recommandé de remplacer la loi binomiale par
une loi de poisson avec λ = np.
B(n, p) −→ P (λ = np)
1.3.3 Approximation de la loi binomiale par une loi normale
Lorsque n ≥ 30, np ≥ 15, npq > 5 on peut remplacer la loi binomiale par la loi normale. On parle
d’approximation de la loi binomiale par la loi normale.
Soit une v.a binomiale X suivant une loi binomiale de paramètre n et p et que cette loi vérifie les conditions
précisées auparavant, on dit que la loi binomiale tend vers la loi normale de paramètre m = np et σ =
√
npq :
√
B(n, p) −→ N (np, npq)
1.3.4 Approximation e la loi de Poisson par une loi normale
Soit un v.a suivant une loi de Poisson de paramètre λ croissant indéfiniment.
√ On peut alor remplacer
la loi de Poisson par une loi normale de paramètre m = λ et σ = λ.
√
P (λ) −→ N (λ, λ)
Conventionnelllement, dès que λ > 20 on peut approximer la loi de Poisson par la loi normale.
Exemple 4 : Soit un quartier de dakar où on effectue une étude à l’approche des élections pour savoir les
détenteurs de cartes. Chaque habitant de ce quartier a une probabilité de 0,3 d’avoir une carte d’électeur.
On tire un échantillon de 1500 habitants. Soit X la v.a qui s’intéresse au nombre d’individus ayant leur
carte d’électeur.
1. Donner la loi de probabilité de X.
2. Déterminer l’espŕance et la variance de X.
3. Peut-on approximer cette loi ?
4. si oui, déterminer la probabilité de : {470 ≤ X ≤ 500}
11