Variables Aléatoires: Partie 1: Variable Aléatoire Et Loi de Probabilité
Variables Aléatoires: Partie 1: Variable Aléatoire Et Loi de Probabilité
VARIABLES ALÉATOIRES
En 1654, Blaise Pascal (1623 ; 1662) entretient avec Pierre de Fermat (1601 ;
1665) des correspondances sur le thème des jeux de hasard et d'espérance de gain
qui les mènent à exposer une théorie nouvelle : les calculs de probabilités.
Ils s’intéressent à la résolution de problèmes de dénombrement comme celui
du Chevalier de Méré :
« Comment distribuer équitablement la mise à un jeu de hasard interrompu avant la
fin ? »
Exemple :
Soit l'expérience aléatoire : « On lance un dé à six faces et on regarde le résultat. »
L'ensemble de toutes les issues E = {1 ; 2 ; 3 ; 4 ; 5 ; 6} s'appelle l'univers des possibles.
On considère le jeu suivant :
• Si le résultat est 5 ou 6, on gagne 2 €.
• Sinon, on perd 1 €.
On peut définir ainsi une variable aléatoire 𝑋 sur E = {1 ; 2 ; 3 ; 4 ; 5 ; 6} qui donne le gain et
qui peut prendre les valeurs 2 ou –1.
Définition : Une variable aléatoire 𝑋 associe un nombre réel à chaque issue de l’univers des
possibles.
Vidéo [Link]
Vidéo [Link]
Correction
● 𝑃(𝑋 = 5) est la probabilité de gagner 5 €. On gagne 5 € lorsqu’on tire un cœur. Soit :
8 1
𝑃(𝑋 = 5) = =
32 4
Yvan Monka – Académie de Strasbourg – [Link]
2
2) Loi de probabilité
Correction
La variable aléatoire 𝑋 peut prendre les valeurs 1, 2, 3, 4, 5 et 6.
Par exemple, si on obtient la combinaison (2 ; 5), la plus grande valeur est 5 et on a : 𝑋 = 5.
9 1
𝑃(𝑋 = 5) = =
36 4
● La plus grande des deux valeurs est 6, si on obtient les combinaisons : (1 ; 6), (6 ; 1) (2 ; 6),
(6 ; 2), (3 ; 6), (6 ; 3), (4 ; 6), (6 ; 4), (5 ; 6), (6 ; 5) ou (6 ; 6).
11
𝑃(𝑋 = 6) =
36
- L'espérance de 𝑋 est :
𝐸(𝑋) = 𝑝! 𝑥! + 𝑝" 𝑥" + … + 𝑝# 𝑥#
- La variance de 𝑋 est :
" " "
𝑉(𝑋) = 𝑝! :𝑥! − 𝐸(𝑋); + 𝑝" :𝑥" − 𝐸(𝑋); + … + 𝑝# :𝑥# − 𝐸(𝑋);
- L'écart-type de 𝑋 est :
𝜎(𝑋) = =𝑉(𝑋)
Vidéo [Link]
Vidéo [Link]
Vidéo [Link]
Correction
#$ ! " 1 15
𝐸(𝑋) = × (−1) + ×2+ × 5 + 32 × 7 = 32 ≈ 0,47
"# "# "#
3) Variance :
#$ 15 " ! 15 " " 15 " 1 15 "
𝑉(𝑋) = × A−1 − 32B + × A2 − 32B + × A5 − 32B + 32 × A7 − 32B ≈ 5,1865
"# "# "#
Écart-type :
𝜎(𝑋) ≈ =5,1865 ≈ 2,28
Propriétés de linéarité :
Soit une variable aléatoire 𝑋. Soit 𝑎 et 𝑏 deux nombres réels. On a :
𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 𝑉(𝑎𝑋 + 𝑏) = 𝑎" 𝑉(𝑋)
Méthode : Simplifier les calculs d'espérance et de variance à l'aide d'une variable aléatoire
de transition (non exigible)
Vidéo [Link]
Une entreprise qui fabrique des roulements à bille fait une étude sur une gamme de billes
produites. Le diamètre théorique doit être égal à 1,3 cm mais cette mesure peut être
légèrement erronée.
L'expérience consiste à tirer au hasard une bille d'un lot de la production et à mesurer son
diamètre.
On considère la variable aléatoire 𝑋 qui, à une bille choisie au hasard, associe son diamètre.
La loi de probabilité de 𝑋 est résumée dans le tableau suivant :
Correction
Pour simplifier les calculs, on définit la variable aléatoire 𝑌 = 1000𝑋 − 1300.
La loi de probabilité de 𝑌 est alors :
𝑥$ –2 –1 0 1 2
𝑃(𝑌 = 𝑥$ ) 0,2 0,1 0,2 0,4 0,1
Exemples :
1) Le jeu du pile ou face : On considère par exemple comme succès "obtenir pile" et comme
échec "obtenir face".
2) On lance un dé et on considère par exemple comme succès "obtenir un six" et comme
échec "ne pas obtenir un six".
Définition : Une loi de Bernoulli est la loi de probabilité d’une épreuve de Bernoulli qui suit
le schéma suivant :
- la probabilité d'obtenir un succès est égale à 𝑝,
- la probabilité d'obtenir un échec est égale à 1 – 𝑝.
𝑝 est le paramètre de la loi de Bernoulli.
Convention :
Au succès, on peut associer le nombre 1 et à l'échec, on peut associer le nombre 0.
Soit la variable aléatoire 𝑋 qui suit une loi de Bernoulli de paramètre 𝑝.
Dans ce cas, la loi de probabilité de 𝑋 peut être présentée dans le tableau :
𝑥$ 1 0
𝑃(𝑋 = 𝑥$ ) 𝑝 1−𝑝
Propriété : Soit 𝑋 une variable aléatoire qui suit la loi de Bernoulli de paramètre 𝑝, alors :
𝐸(𝑋) = 𝑝 𝑉(𝑋) = 𝑝(1 − 𝑝)
Démonstrations :
- 𝐸(𝑋) = 1 × 𝑃(𝑋 = 1) + 0 × 𝑃(𝑋 = 0)
= 1 × 𝑝 + 0 × (1 − 𝑝)
= 𝑝
- 𝑉(𝑋) = (1 − 𝐸(𝑋))" × 𝑃(𝑋 = 1) + (0 − 𝐸(𝑋))" × 𝑃(𝑋 = 0)
= (1 − 𝑝)" × 𝑝 + (0 − 𝑝)" × (1 − 𝑝)
= 𝑝 − 2𝑝" + 𝑝% + 𝑝" − 𝑝%
= 𝑝 − 𝑝"
= 𝑝(1 − 𝑝)
2) Loi binomiale
Correction
Exemple :
Propriété :
Soit 𝑋 une variable aléatoire qui suit la loi binomiale de paramètres 𝑛 et 𝑝.
Pour tout entier naturel 𝑘 tel que 0 ≤ 𝑘 ≤ 𝑛, on a :
𝑛
𝑃(𝑋 = 𝑘) = A B 𝑝& (1 − 𝑝)#'&
𝑘
Démonstration :
Vidéo [Link]
Une urne contient 5 boules gagnantes et 7 boules perdantes. Une expérience consiste à tirer
au hasard 4 fois de suite une boule et de la remettre.
On appelle 𝑋 la variable aléatoire qui associe le nombre de tirages gagnants.
a) Justifier que 𝑋 suit une loi binomiale.
b) Calculer la probabilité d'obtenir 3 boules gagnantes.
Correction
a) On répète 4 fois de suite de façon identique et indépendante une épreuve à deux issues :
boules gagnantes (5 issues) ; boules perdantes (7 issues).
Le succès est d’obtenir une boule gagnante.
4
La probabilité du succès sur un tirage est égale à .
$#
4
La variable aléatoire 𝑋 suit donc la loi binomiale de paramètres : 𝑛 = 4 et 𝑝 = .
$#
On fait l'hypothèse que 55% des électeurs ont voté pour le candidat A. On interroge au
hasard à la sortie des urnes 50 personnes.
Soit 𝑋 est la variable aléatoire qui compte le nombre 𝑘 de personnes qui ont voté pour le
candidat A.
a) Déterminer des réels 𝑎 et 𝑏 tels que : 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) ≥ 0,95
b) Donner une interprétation du résultat précédent.
Correction
a) La variable aléatoire 𝑋 suit une loi binomiale de paramètre 𝑛 = 50 et 𝑝 = 0,55.
… … …
On obtient ainsi :
𝑘 17 18 19 20 21 22 23 24 25 26 27
𝑃(𝑋 = 𝑘) 0,001 0,003 0,006 0,012 0,021 0,034 0,05 0,069 0,087 0,102 0,112
𝑘 28 29 30 31 32 33 34 35 36 37 38
𝑃(𝑋 = 𝑘) 0,112 0,104 0,089 0,07 0,051 ,034 0,021 0,012 0,006 0,003 0,001
Pour 𝑘 < 17 et 𝑘 > 38, les probabilités sont inférieures à 10'% et peuvent être considérées
comme négligeables.
𝑘 17 18 19 20 21 22 23 24 25 26 27
𝑃(𝑋 = 𝑘) 0,002 0,005 0,01 0,023 0,044 0,077 0,127 0,196 0,283 0,386 0,498
𝑘 28 29 30 31 32 33 34 35 36 37 38
𝑃(𝑋 = 𝑘) 0,61 0,713 0,802 0,872 0,923 0,957 0,978 0,989 0,995 0,998 0,999
#$ "3
b) Or, = 42 % et
= 68 %.
4. 4.
Pour un échantillon de 50 personnes, il y a au moins 95% de chance qu'il y ait entre 42 % et
68 % des électeurs qui votent pour le candidat A.
Remarque : Le symbole Σ
Si par exemple, 𝑘 = 2 alors :
𝑃(𝑋 + 𝑌 = 2) = _ 𝑃((𝑋 = 𝑖) ∩ (𝑌 = 𝑗))
$)*+"
= 𝑃((𝑋 = 0) ∩ (𝑌 = 2)) + 𝑃((𝑋 = 1) ∩ (𝑌 = 1)) + 𝑃((𝑋 = 2) ∩ (𝑌 = 0))
Correction
Dans le tableau ci-dessous, on présente toutes les sommes possibles :
Ainsi, on a :
𝑃(𝑆 = −4) = 𝑃((𝑋 = 1) ∩ (𝑌 = −5))
= 𝑃(𝑋 = 1) × 𝑃(𝑌 = −5) en effet, les variables 𝑋 et 𝑌 sont indépendantes.
1 1 1
= × =
2 6 12
𝑘 –4 –3 2 3 4
1 1 1 5 1
𝑃(𝑆 = 𝑘)
12 12 4 12 6
Méthode : Simplifier les calculs d'espérance et de variance à l'aide d'une variable aléatoire
de transition
Vidéo [Link]
Une entreprise qui fabrique des roulements à bille fait une étude sur une gamme de billes
produites. Le diamètre théorique doit être égal à 1,3 cm mais cette mesure peut être
légèrement erronée.
L'expérience consiste à tirer au hasard une bille d'un lot de la production et à mesurer son
diamètre.
On considère la variable aléatoire 𝑋 qui, à une bille choisie au hasard, associe son diamètre.
La loi de probabilité de 𝑋 est résumée dans le tableau suivant :
𝑥$ 1,298 1,299 1,3 1,301 1,302
𝑃(𝑋 = 𝑥$ ) 0,2 0,1 0,2 0,4 0,1
Calculer l'espérance et l'écart-type de la loi de probabilité de 𝑋.
Correction
Pour simplifier les calculs, on définit la variable aléatoire 𝑌 = 1 000𝑋 − 1 300.
La loi de probabilité de 𝑌 est alors :
𝑦$ –2 –1 0 1 2
𝑃(𝑌 = 𝑦$ ) 0,2 0,1 0,2 0,4 0,1
Exemple :
On étudie la fiabilité d’un composant électronique. On appelle 𝑋 la variable aléatoire égale à
1 si le composant électronique ne se détériore pas suite aux tests effectués et 0 dans le cas
contraire.
Le fabricant précise que le composant électronique ne subit pas de détériorations suite aux
tests dans 99,8 % des cas.
Dans ce cas, la variable aléatoire 𝑋 suit la loi de Bernoulli de paramètre 0,998.
On effectue les tests sur un échantillon de 100 composants électroniques prélevés au hasard
dans le stock du fabricant.
On peut considérer alors que la liste (𝑋! , 𝑋" , 𝑋% , … , 𝑋!,, ) forme un échantillon de taille 100
de variables aléatoires suivant la loi de Bernoulli de paramètre 0,998.
Définition : Un échantillon de taille 𝒏 d’une loi de probabilité est une liste de 𝑛 variables
aléatoires indépendantes suivant cette loi.
Méthode : Calculer une espérance et une variance à l’aide d’une somme de variables
aléatoires
Vidéo [Link]
Sur un axe gradué, on dépose une petite goûte de confiture à la fraise au point d’abscisse 10.
Pierrot invite Sophie la fourmi à se placer à l’origine de l’axe gradué.
Attirée par la confiture, Sophie se déplace de façon aléatoire d’une unité vers la droite (sens
#
positif) avec la probabilité de et d’une unité vers la gauche (sens négatif) avec la
"
$
probabilité de .
"
On suppose que les déplacements de la fourmi sont indépendants les uns des autres.
Pour tout entier naturel 𝑘, on note 𝑋& la variable aléatoire valant 1 si la fourmi se déplace
vers la droite au 𝑘-ième déplacement et valant −1 si elle se déplace vers la gauche.
On note 𝑆# = 𝑋! + 𝑋" + ⋯ + 𝑋# la variable aléatoire somme des 𝑋& .
! "
% %
Correction
1) On établit la loi de probabilité de 𝑋& :
𝑥$ −1 1
1 2
𝑃(𝑋& = 𝑥$ )
3 3
1 2 1
𝐸(𝑋& ) = −1 × + 1 × =
3 3 3
1 1 " 2 1 " 8
𝑉(𝑋& ) = U−1 − V + U1 − V =
3 3 3 3 9
2) On a : 𝑆# = 𝑋! + 𝑋" + ⋯ + 𝑋#
Donc la variable aléatoire 𝑆# donne l’abscisse de la fourmi après 𝑛 déplacements.
Et on a : 𝐸(𝑆# ) = 𝐸(𝑋! + 𝑋" + ⋯ + 𝑋# )
= 𝐸(𝑋! ) + 𝐸(𝑋" ) + ⋯ + 𝐸(𝑋# )
= 𝑛𝐸(𝑋& )
𝑛
=
3
3) 𝐸(𝑆# ) = 10
𝑛
= 10
3
𝑛 = 30
Après 30 déplacements, Sophie peut espérer théoriquement atteindre la goûte de confiture.
8×30
𝜎(𝑆%, ) = =𝑉(𝑆%, ) = =𝑉(𝑆%, ) = f 9 ≈ 5,2 unités.
Exemple :
En reprenant l’exemple donné au début de la partie 3.1, la variable aléatoire
𝑆 = 𝑋! + 𝑋" + ⋯ +𝑋!,, suit la loi binomiale de paramètres 𝑛 = 100 et 𝑝 = 0,998.
Propriété : Soit 𝑆 une variable aléatoire qui suit la loi binomiale de paramètres 𝑛 et 𝑝.
𝐸(𝑆) = 𝑛𝑝 𝑉(𝑆) = 𝑛𝑝(1 − 𝑝) 𝜎(𝑆) = =𝑉(𝑆)
Démonstration :
Vidéo [Link]
Soit (𝑋! , 𝑋" , … 𝑋# ) un échantillon de taille 𝑛 de la loi de Bernoulli de paramètre 𝑝.
On rappelle que pour une variable aléatoire 𝑋 qui suit une loi de Bernoulli, on a :
𝐸(𝑋) = 𝑝 et 𝑉(𝑋) = 𝑝(1 − 𝑝).
Donc, on a :
𝐸(𝑆) = 𝐸(𝑋! + 𝑋" + ⋯ +𝑋# ) = 𝐸(𝑋! ) + 𝐸(𝑋" ) + ⋯ + 𝐸(𝑋# ) = 𝑝 + 𝑝 + ⋯ + 𝑝 = 𝑛𝑝
𝑉(𝑆) = 𝑉(𝑋! + 𝑋" + ⋯ +𝑋# ) = 𝑉(𝑋! ) + 𝑉(𝑋" ) + ⋯ + 𝑉(𝑋# ) car 𝑋! , 𝑋" , … 𝑋# sont
indépendantes.
Donc : 𝑉(𝑆) = 𝑝(1 − 𝑝) + 𝑝(1 − 𝑝) + ⋯ + 𝑝(1 − 𝑝) = 𝑛𝑝(1 − 𝑝)
Correction
$
La variable aléatoire 𝑆 suit la loi binomiale de paramètres 𝑝 = et 𝑛 = 5.
"
1 5
𝐸(𝑆) = 5 × = ≈ 1,7
3 3
1 2 10
𝑉(𝑆) = 5 × × =
3 3 9
10 √10
𝜎(𝑆) = g =
9 3
En moyenne, on peut espérer obtenir environ 1,7 fois un 5 ou un 6, en 5 lancers.
$
𝑋 suit donc une loi de Bernoulli de paramètre .
#
On répète deux fois de suite cette expérience. On considère alors l’échantillon (𝑋! , 𝑋" ) de
taille 2 de variables aléatoires 𝑋! et 𝑋" suivant la même loi que 𝑋.
Il est ainsi possible d’évaluer le résultat d’une telle expérience en étudiant la variable
aléatoire moyenne de 𝑋! et 𝑋" .
On appelle 𝑀" la variable aléatoire moyenne de l’échantillon (𝑋! , 𝑋" ).
Alors 𝑀" peut prendre les valeurs suivantes :
1 1 1 1 1 0+0 1
0 0 × = =0
2 2 2 2 4 2 4
1 1 1 1 1 0+1 1
0 1 × = =
2 2 2 2 4 2 2 1 1 1
+ =
1 1 1 1 1 1+0 1 4 4 2
1 0 × = =
2 2 2 2 4 2 2
1 1 1 1 1 1+1 1
1 1 × = =1
2 2 2 2 4 2 4
1
𝑘 0 1
2
1 1 1
𝑃(𝑀" = 𝑘)
4 2 4
2) Propriétés
Exemple :
On reprend l’exemple précédent.
- Calculons l’espérance de 𝑀" :
1 1 1 1 1
𝐸(𝑀" ) = 0 × + × + 1 × =
4 2 2 4 2
On retrouve l’espérance de la variable 𝑋.
Ainsi la variance de la variable aléatoire moyenne est plus faible que la variance de la
variable d’origine.
De plus, la dispersion de la variable aléatoire moyenne diminue au fur et à mesure que la
taille de l’échantillon 𝑛 augmente.
En effet, si l’échantillon devient plus grand, le nombre de situations pouvant donner des
valeurs proches de l’espérance augmente.
Ainsi, les valeurs prises par la moyenne deviennent de plus en plus probables dans un
voisinage de l’espérance.
Propriété : Soit une variable aléatoire 𝑋 et soit un échantillon (𝑋! , 𝑋" , … , 𝑋# ) de taille 𝑛 de
variables aléatoires indépendantes suivant la même loi que 𝑋.
1 1
𝐸(𝑀# ) = 𝐸(𝑋) 𝑉(𝑀# ) = 𝑉(𝑋) 𝜎(𝑀# ) = 𝜎(𝑋)
𝑛 √𝑛
On considère la variable aléatoire 𝑋 qui prend, de façon équiprobable, les valeurs –4, 0, 1, 3
et 6.
𝑀-, est la variable aléatoire moyenne d’un échantillon de taille 50 de la loi de 𝑋.
Calculer l’espérance, la variance et l’écart type de 𝑀-, .
Correction
Par équiprobabilité, on établit le tableau de la loi de probabilité de 𝑋.
𝑘 –4 0 1 3 6
1 1 1 1 1
𝑃(𝑋 = 𝑘)
5 5 5 5 5
On a ainsi :
1 1 1 1 1
𝐸(𝑋) = × (−4) + × 0 + × 1 + × 3 + × 6 = 1,2
5 5 5 5 5
1 1 1 1
𝑉(𝑋) = × (−4 − 1,2)" + × (0 − 1,2)" + × (1 − 1,2)" + × (3 − 1,2)"
5 5 5 5
1
+ × (6 − 1,2)" = 10,96
5
Yvan Monka – Académie de Strasbourg – [Link]
20
On en déduit :
𝐸(𝑀-, ) = 𝐸(𝑋) = 1,2
1 10,96
𝑉(𝑀-, ) = 𝑉(𝑋) = = 0,2192
50 50
1 3,31
𝜎(𝑀-, ) = 𝜎(𝑋) ≈ ≈ 0,468
√50 √50
Propriété : Soit une variable aléatoire 𝑋. Pour tout réel strictement positif 𝛿, on a :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 𝛿) ≤ "
𝛿
Soit une variable aléatoire 𝑋 qui suit la loi binomiale de paramètres 𝑛 = 20 et 𝑝 = 0,1.
1) Appliquer l’inégalité de Bienaymé-Tchebychev avec 𝛿 = 2𝜎(𝑋). Interpréter.
2) Recommencer avec 𝛿 = 3𝜎(𝑋), puis 𝛿 = 4𝜎(𝑋). Que constate-t-on ?
3) a) Simuler 𝑁 valeurs de la variable aléatoire 𝑋 par une fonction en Python dans le but
d’estimer la probabilité 𝑃(|𝑋 − 2| ≥ 2𝜎(𝑋)).
On testera le programme pour différentes valeurs de 𝑁.
b) Au regard des résultats obtenus par le programme, peut-on penser que l’inégalité de
Bienaymé-Tchebychev a un caractère optimal ?
Correction
1) 𝐸(𝑋) = 20 × 0,1 = 2 𝑉(𝑋) = 20 × 0,1 × 0,9 = 1,8 𝜎(𝑋) = √1,8
Ainsi, on obtient :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 2𝜎(𝑋)) ≤ "
:2𝜎(𝑋);
Ou encore : 𝑃(|𝑋 − 2| ≥ 2√1,8) ≤ 0,25
La probabilité que l’écart de 𝑋 à 𝐸(𝑋) soit supérieur à 2𝜎(𝑋) est majorée par 0,25.
2) ● pour 𝛿 = 3𝜎(𝑋) :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 3𝜎(𝑋)) ≤ "
:3𝜎(𝑋);
$
Ou encore : 𝑃(|𝑋 − 2| ≥ 3√1,8) ≤
2
● pour 𝛿 = 4𝜎(𝑋) :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 4𝜎(𝑋)) ≤ "
:4𝜎(𝑋);
Ou encore : 𝑃(|𝑋 − 2| ≥ 4√1,8) ≤ 0,0625
3) a)
b) On constate qu’un écart à 𝐸(𝑋) supérieur à 2𝜎(𝑋) est de probabilité souvent inférieure
0,05 (0,038 ; 0,0454 ; 0,04178 ; 0,04516) alors que l’inégalité de Bienaymé-Tchebychev nous
donne pour cette même probabilité une majoration par 0,25. L’inégalité est donc loin d’être
optimale.
Soit une variable aléatoire 𝑋 qui suit la loi de Bernoulli de paramètre 0,2.
On considère un échantillon de 𝑛 variables aléatoires suivant la loi de 𝑋.
On appelle 𝑀# la variable aléatoire moyenne associée à cet échantillon.
Déterminer la taille 𝑛 de l’échantillon tel que la probabilité que la moyenne 𝑀# appartienne
à l’intervalle ]0,03 ; 0,37[ soit supérieure à 0,95.
Correction
On cherche à calculer 𝑛 tel que 𝑃(0,03 < 𝑀# < 0,37) ≥ 0,95
Dans l’idée d’appliquer l’inégalité de concentration, on fait apparaitre l’espérance de 𝑋 dans
l’inégalité.
Or, 𝐸(𝑋) = 𝑝 = 0,2
Ainsi, on cherche 𝑛 tel que : 𝑃(0,03 − 0,2 < 𝑀# − 0,2 < 0,37 − 0,2) ≥ 0,95
Soit : 𝑃(−0,17 < 𝑀# − 0,2 < 0,17) ≥ 0,95
Soit encore : 𝑃(|𝑀# − 0,2| < 0,17) ≥ 0,95
Et donc, en considérant l’évènement contraire :
1 − 𝑃(|𝑀# − 0,2| ≥ 0,17) ≥ 0,95
𝑃(|𝑀# − 0,2| ≥ 0,17) ≤ 0,05
Remarque : La loi des grands nombres traduit le fait que plus la taille de l’échantillon d’une
variable aléatoire 𝑋 est grande, plus l’écart entre la moyenne de cet échantillon et
l’espérance de la variable aléatoire 𝑋 est faible.
Correction
1) D’après l’inégalité de concentration, on a :
𝑉(𝑋)
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) ≤
𝑛 𝛿"
Soit, dans le contexte de l’exercice :
0,2 20
𝑃(|𝑀# − 3| ≥ 0,1) ≤ "
=
𝑛 × 0,1 𝑛
● Pour 𝑛 = 100, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,2
● Pour 𝑛 = 1000, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,02
● Pour 𝑛 = 10000, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,002
On constate que plus 𝑛 augmente, plus le majorant de la probabilité se rapproche de 0.
Plus la taille de l’échantillon est grande, plus l’écart entre la moyenne et l’espérance est
faible.
Méthode : Simuler des valeurs d’une variable aléatoire moyenne dans le but d’observer la loi
des grands nombres
On considère la variable aléatoire 𝑋 qui prend ses valeurs de manière équiprobable parmi
les entiers 1 à 5.
Et on nomme 𝑀# la variable aléatoire moyenne d’un échantillon de taille 𝑛 de la variable
aléatoire 𝑋.
a) Simuler 500 valeurs de la variable aléatoire 𝑀# par une fonction en Python dans le but
d’estimer la probabilité 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿).
Tester le programme pour différentes valeurs de 𝛿 et des valeurs de 𝑛 de plus en plus
grande.
b) Que constate-t-on ?
c) Justifier et interpréter ce résultat.
Correction
a) Comme il y a équiprobabilité et cinq issues possibles, toutes les probabilités des valeurs
$
prises par 𝑋 sont égale à .
4
On a ainsi :
1 1 1 1 1
𝐸(𝑋) = × 1 + × 2 + × 3 + × 4 + × 5 = 3
5 5 5 5 5
b) On constate que, dans tous les cas, plus 𝑛 augmente, plus la probabilité
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) se rapproche de 0.
Hors du cadre de la classe, aucune reproduction, même partielle, autres que celles prévues à l'article L 122-5 du
code de la propriété intellectuelle, ne peut être faite de ce site sans l'autorisation expresse de l'auteur.
[Link]/[Link]/mentions-legales