0% ont trouvé ce document utile (0 vote)
30 vues24 pages

Variables Aléatoires: Partie 1: Variable Aléatoire Et Loi de Probabilité

Le document traite des variables aléatoires et de la théorie des probabilités, en commençant par des correspondances historiques entre Pascal et Fermat. Il définit les variables aléatoires, les lois de probabilité, ainsi que les concepts d'espérance, de variance et d'écart-type, illustrés par des exemples pratiques. Des méthodes de calcul et des corrections sont également fournies pour aider à comprendre ces concepts mathématiques.

Transféré par

leejeaon86
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
30 vues24 pages

Variables Aléatoires: Partie 1: Variable Aléatoire Et Loi de Probabilité

Le document traite des variables aléatoires et de la théorie des probabilités, en commençant par des correspondances historiques entre Pascal et Fermat. Il définit les variables aléatoires, les lois de probabilité, ainsi que les concepts d'espérance, de variance et d'écart-type, illustrés par des exemples pratiques. Des méthodes de calcul et des corrections sont également fournies pour aider à comprendre ces concepts mathématiques.

Transféré par

leejeaon86
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1

VARIABLES ALÉATOIRES
En 1654, Blaise Pascal (1623 ; 1662) entretient avec Pierre de Fermat (1601 ;
1665) des correspondances sur le thème des jeux de hasard et d'espérance de gain
qui les mènent à exposer une théorie nouvelle : les calculs de probabilités.
Ils s’intéressent à la résolution de problèmes de dénombrement comme celui
du Chevalier de Méré :
« Comment distribuer équitablement la mise à un jeu de hasard interrompu avant la
fin ? »

Partie 1 : Variable aléatoire et loi de probabilité


1) Variable aléatoire

Exemple :
Soit l'expérience aléatoire : « On lance un dé à six faces et on regarde le résultat. »
L'ensemble de toutes les issues E = {1 ; 2 ; 3 ; 4 ; 5 ; 6} s'appelle l'univers des possibles.
On considère le jeu suivant :
• Si le résultat est 5 ou 6, on gagne 2 €.
• Sinon, on perd 1 €.
On peut définir ainsi une variable aléatoire 𝑋 sur E = {1 ; 2 ; 3 ; 4 ; 5 ; 6} qui donne le gain et
qui peut prendre les valeurs 2 ou –1.

Pour les issues 5 et 6, on a : 𝑋 = 2


Pour les issues 1, 2, 3 et 4, on a : 𝑋 = –1.

Définition : Une variable aléatoire 𝑋 associe un nombre réel à chaque issue de l’univers des
possibles.

Méthode : Calculer une probabilité à l’aide d’une variable aléatoire

Vidéo [Link]
Vidéo [Link]

On tire une carte au hasard dans un jeu de 32 cartes.


- Si cette carte est un cœur, on gagne 5 €.
- Si cette carte est un carreau, on gagne 2 €.
- Dans les autres cas, on perd 1 €.
Soit 𝑋 la variable aléatoire qui associe le gain du jeu.
Calculer : 𝑃(𝑋 = 5), 𝑃(𝑋 = −1) et 𝑃(𝑋 ≤ 2).

Correction
● 𝑃(𝑋 = 5) est la probabilité de gagner 5 €. On gagne 5 € lorsqu’on tire un cœur. Soit :
8 1
𝑃(𝑋 = 5) = =
32 4
Yvan Monka – Académie de Strasbourg – [Link]
2

● 𝑃(𝑋 = −1) est la probabilité de perdre 1 €. On perd 1 € lorsqu’on ne tire ni un cœur, ni un


carreau. Soit :
16 1
𝑃(𝑋 = −1) = =
32 2

● 𝑃(𝑋 ≤ 2) est la probabilité de gagner 2 € ou moins. Soit :


1 1 3
𝑃(𝑋 ≤ 2) = 𝑃(𝑋 = 2) + 𝑃(𝑋 = −1) = + =
4 2 4

2) Loi de probabilité

Définition : Soit une variable aléatoire 𝑋 prenant les valeurs 𝑥! , 𝑥" , . . . , 𝑥# .


La loi de probabilité de 𝑋 est donnée par toutes les probabilités 𝑃(𝑋 = 𝑥$ ).

Remarque : Les « 𝑥$ » sont toutes les valeurs prises par 𝑋.

Méthode : Déterminer une loi de probabilité d’une variable aléatoire


Vidéo [Link]
Vidéo [Link]

On lance simultanément deux dés à 6 faces et on note les valeurs


obtenues.
Soit 𝑋 la variable aléatoire égale à la plus grande des deux valeurs.
Établir la loi de probabilité de 𝑋.

Correction
La variable aléatoire 𝑋 peut prendre les valeurs 1, 2, 3, 4, 5 et 6.
Par exemple, si on obtient la combinaison (2 ; 5), la plus grande valeur est 5 et on a : 𝑋 = 5.

● La plus grande des deux valeurs est 1, si on obtient la combinaison : (1 ; 1).


1
𝑃(𝑋 = 1) =
36
● La plus grande des deux valeurs est 2, si on obtient les combinaisons : (1 ; 2), (2 ; 1) ou (2 ; 2).
3 1
𝑃(𝑋 = 2) = =
36 12
● La plus grande des deux valeurs est 3, si on obtient les combinaisons : (1 ; 3), (3 ; 1), (2 ; 3),
(3 ; 2) ou (3 ; 3).
5
𝑃(𝑋 = 3) =
36
● La plus grande des deux valeurs est 4, si on obtient les combinaisons : (1 ; 4), (4 ; 1) (2 ; 4),
(4 ; 2), (3 ; 4), (4 ; 3) ou (4 ; 4).
7
𝑃(𝑋 = 4) =
36
● La plus grande des deux valeurs est 5, si on obtient les combinaisons : (1 ; 5), (5 ; 1) (2 ; 5),
(5 ; 2), (3 ; 5), (5 ; 3), (4 ; 5), (5 ; 4) ou (5 ; 5).

Yvan Monka – Académie de Strasbourg – [Link]


3

9 1
𝑃(𝑋 = 5) = =
36 4
● La plus grande des deux valeurs est 6, si on obtient les combinaisons : (1 ; 6), (6 ; 1) (2 ; 6),
(6 ; 2), (3 ; 6), (6 ; 3), (4 ; 6), (6 ; 4), (5 ; 6), (6 ; 5) ou (6 ; 6).
11
𝑃(𝑋 = 6) =
36

On peut résumer les résultats dans le tableau de la loi de probabilité de 𝑋 :


𝑥$ 1 2 3 4 5 6
1 1 5 7 1 11
𝑃(𝑋 = 𝑥$ )
36 12 36 36 4 36
Remarque :
On vérifie que la somme des probabilités est égale à 1 :
1 1 5 7 1 11
+ + + + + =1
36 12 36 36 4 36

Partie 2 : Espérance, variance, écart-type


Définitions : Soit une variable aléatoire 𝑋 prenant les valeurs 𝑥! , 𝑥" , . . . , 𝑥# .
La loi de probabilité de 𝑋 associe à toute valeur 𝑥$ la probabilité 𝑝$ = 𝑃(𝑋 = 𝑥$ ).

- L'espérance de 𝑋 est :
𝐸(𝑋) = 𝑝! 𝑥! + 𝑝" 𝑥" + … + 𝑝# 𝑥#
- La variance de 𝑋 est :
" " "
𝑉(𝑋) = 𝑝! :𝑥! − 𝐸(𝑋); + 𝑝" :𝑥" − 𝐸(𝑋); + … + 𝑝# :𝑥# − 𝐸(𝑋);
- L'écart-type de 𝑋 est :
𝜎(𝑋) = =𝑉(𝑋)

Méthode : Calculer l'espérance, la variance et l'écart-type d'une variable aléatoire

Vidéo [Link]
Vidéo [Link]
Vidéo [Link]

On tire une carte dans un jeu de 32 cartes.


- Si on tire un cœur, on gagne 2 €.
- Si on tire un roi on gagne 5 €.
- Si on tire une autre carte, on perd 1 €.
𝑋 est la variable aléatoire donnant le gain du jeu.
1) Calculer l'espérance de 𝑋.
2) Donner une interprétation du résultat.
3) Calculer la variance et l'écart-type de 𝑋.

Yvan Monka – Académie de Strasbourg – [Link]


4

Correction

1) On commence par établir la loi de probabilité de 𝑋 :


𝑋 peut prendre les valeurs −1 €, 2 €, 5 € mais aussi 7 €.
En effet, si on tire le roi de cœur, on gagne 2 € (comme un cœur) + 5 € (comme un roi).

● Si la carte tirée est un cœur (autre que le roi de cœur), 𝑋 = 2.


!
𝑃(𝑋 = 2) = .
"#
● Si la carte tirée est un roi (autre que le roi de cœur), 𝑋 = 5.
"
𝑃(𝑋 = 5) = .
"#
● Si la carte tirée est le roi de cœur, 𝑋 = 7.
$
𝑃(𝑋 = 7) = .
"#
● Si la carte tirée n'est ni un cœur, ni un roi, 𝑋 = −1.
#$
𝑃(𝑋 = −1) = .
"#

La loi de probabilité de 𝑋 est :


𝑥$ –1 2 5 7
21 7 3 1
𝑃(𝑋 = 𝑥$ )
32 32 32 32

#$ ! " 1 15
𝐸(𝑋) = × (−1) + ×2+ × 5 + 32 × 7 = 32 ≈ 0,47
"# "# "#

2) Si l'on répète l'expérience un grand nombre de fois, on peut espérer gagner, en


moyenne, environ 0,47 € par tirage.
Si l’organisateur du jeu veut espérer faire un bénéfice, il pourra demander par exemple
aux joueurs une participation de 0,50 € par tirage. Il gagnera en moyenne environ 0,03 €
par tirage.

3) Variance :
#$ 15 " ! 15 " " 15 " 1 15 "
𝑉(𝑋) = × A−1 − 32B + × A2 − 32B + × A5 − 32B + 32 × A7 − 32B ≈ 5,1865
"# "# "#

Écart-type :
𝜎(𝑋) ≈ =5,1865 ≈ 2,28

Propriétés de linéarité :
Soit une variable aléatoire 𝑋. Soit 𝑎 et 𝑏 deux nombres réels. On a :
𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 𝑉(𝑎𝑋 + 𝑏) = 𝑎" 𝑉(𝑋)

Yvan Monka – Académie de Strasbourg – [Link]


5

Méthode : Simplifier les calculs d'espérance et de variance à l'aide d'une variable aléatoire
de transition (non exigible)
Vidéo [Link]

Une entreprise qui fabrique des roulements à bille fait une étude sur une gamme de billes
produites. Le diamètre théorique doit être égal à 1,3 cm mais cette mesure peut être
légèrement erronée.
L'expérience consiste à tirer au hasard une bille d'un lot de la production et à mesurer son
diamètre.
On considère la variable aléatoire 𝑋 qui, à une bille choisie au hasard, associe son diamètre.
La loi de probabilité de 𝑋 est résumée dans le tableau suivant :

𝑥$ 1,298 1,299 1,3 1,301 1,302


𝑃(𝑋 = 𝑥$ ) 0,2 0,1 0,2 0,4 0,1

Calculer l'espérance et l'écart-type de la loi de probabilité de 𝑋.

Correction
Pour simplifier les calculs, on définit la variable aléatoire 𝑌 = 1000𝑋 − 1300.
La loi de probabilité de 𝑌 est alors :
𝑥$ –2 –1 0 1 2
𝑃(𝑌 = 𝑥$ ) 0,2 0,1 0,2 0,4 0,1

Calculons l'espérance et la variance de la loi de probabilité de 𝑌 :


𝐸(𝑌) = −2 × 0,2 + (−1) × 0,1 + 1 × 0,4 + 2 × 0,1 = 0,1
𝑉(𝑌) = 0,2 × (2 − 0,1)" + 0,1 × (−1 − 0,1)" + 0,2 × (0 − 0,1)" + 0,4 × (1 − 0,1)"
+ 0,1 × (2 − 0,1)"
= 1,69

On en déduit l'espérance et la variance de la loi de probabilité de 𝑋 :


𝐸(𝑌) = 𝐸(1000𝑋 − 1300) = 1000 𝐸(𝑋) − 1300
)(+)-$".. .,$-$"..
Donc : 𝐸(𝑋) = = = 1,3001
$... $...

𝑉(𝑌) = 𝑉(1000𝑋 − 1300) = 1000" 𝑉(𝑋)


0(+) $,12
Donc : 𝑉(𝑋) = ! =
$... $...!
$,12 $,"
Et donc : 𝜎(𝑋) = ! = = 0,0013
$...! $...
Conclusion : 𝐸(𝑋) = 1,3001 𝑐𝑚 𝑒𝑡 𝜎(𝑋) = 0,0013 𝑐𝑚.

Yvan Monka – Académie de Strasbourg – [Link]


6

Partie 3 : Épreuve de Bernoulli


Définition : Une épreuve de Bernoulli est une expérience aléatoire à deux issues que l'on
peut nommer "succès" et "échec".

Exemples :
1) Le jeu du pile ou face : On considère par exemple comme succès "obtenir pile" et comme
échec "obtenir face".
2) On lance un dé et on considère par exemple comme succès "obtenir un six" et comme
échec "ne pas obtenir un six".

Définition : Une loi de Bernoulli est la loi de probabilité d’une épreuve de Bernoulli qui suit
le schéma suivant :
- la probabilité d'obtenir un succès est égale à 𝑝,
- la probabilité d'obtenir un échec est égale à 1 – 𝑝.
𝑝 est le paramètre de la loi de Bernoulli.

Exemples : Dans les exemples présentés plus haut :


1 1
1) 𝑝 = 2) 𝑝 =
2 6

Convention :
Au succès, on peut associer le nombre 1 et à l'échec, on peut associer le nombre 0.
Soit la variable aléatoire 𝑋 qui suit une loi de Bernoulli de paramètre 𝑝.
Dans ce cas, la loi de probabilité de 𝑋 peut être présentée dans le tableau :

𝑥$ 1 0
𝑃(𝑋 = 𝑥$ ) 𝑝 1−𝑝

Propriété : Soit 𝑋 une variable aléatoire qui suit la loi de Bernoulli de paramètre 𝑝, alors :
𝐸(𝑋) = 𝑝 𝑉(𝑋) = 𝑝(1 − 𝑝)

Démonstrations :
- 𝐸(𝑋) = 1 × 𝑃(𝑋 = 1) + 0 × 𝑃(𝑋 = 0)
= 1 × 𝑝 + 0 × (1 − 𝑝)
= 𝑝
- 𝑉(𝑋) = (1 − 𝐸(𝑋))" × 𝑃(𝑋 = 1) + (0 − 𝐸(𝑋))" × 𝑃(𝑋 = 0)
= (1 − 𝑝)" × 𝑝 + (0 − 𝑝)" × (1 − 𝑝)
= 𝑝 − 2𝑝" + 𝑝% + 𝑝" − 𝑝%
= 𝑝 − 𝑝"
= 𝑝(1 − 𝑝)

Yvan Monka – Académie de Strasbourg – [Link]


7

Partie 4 : Schéma de Bernoulli, loi binomiale


1) Schéma de Bernoulli

Définition : Un schéma de Bernoulli est la répétition de 𝑛 épreuves de Bernoulli identiques


et indépendantes pour lesquelles la probabilité du succès est 𝑝.

Remarque : Pour la répétition de 𝑛 épreuves de Bernoulli, l’univers est {0, 1}# .

Exemple : La répétition de 10 lancers d'une pièce de monnaie est un schéma de Bernoulli de


$
paramètres 𝑛 = 10 et 𝑝 = .
#

2) Loi binomiale

Définition : On réalise un schéma de Bernoulli composé de 𝑛 épreuves de Bernoulli


identiques et indépendantes.
Une loi binomiale est une loi de probabilité définie sur l'ensemble {0 ; 1 ; 2 ; … ; 𝑛} qui donne
les probabilités du nombre de succès de l'expérience.

Remarque : 𝑛 et 𝑝 sont les paramètres de la loi binomiale et on note 𝐵(𝑛 ; 𝑝).

Méthode : Utiliser un arbre pondéré avec la loi binomiale


Vidéo [Link]

On considère un jeu de 4 cartes dont une carte est un as.


On tire trois fois de suite une carte en remettant à chaque fois la carte tirée dans le jeu.
On considère comme succès l’évènement « Obtenir un as ».
Soit 𝑋 la variable aléatoire qui compte le nombre de succès.
Calculer 𝑃(𝑋 = 2) en utilisant un arbre pondéré.

Correction

On répète 3 fois de suite des épreuves de Bernoulli identiques et indépendantes.


$
Pour chaque épreuve la probabilité du succès (tirer un as) est égale à = 0,25.
3
Donc la probabilité d’un échec est égale à 0,75.
La variable aléatoire 𝑋 suit la loi binomiale de paramètres 𝑛 = 3 et 𝑝 = 0,25.
On cherche à calculer la probabilité d’obtenir 2 succès parmi 3 tirages.
On construit alors un arbre pondéré présentant les données de l’énoncé :

Yvan Monka – Académie de Strasbourg – [Link]


8

On compte 3 triplets formés de deux succès : (𝑆 ; 𝑆 ; 𝑆̅), (𝑆 ; 𝑆̅ ; 𝑆) et (𝑆̅ ; 𝑆 ; 𝑆).


Et on a : 𝑃(𝑆 ; 𝑆 ; 𝑆̅) = 𝑃(𝑆 ; 𝑆̅ ; 𝑆) = 𝑃(𝑆̅ ; 𝑆 ; 𝑆) = 0,25 × 0,25 × 0,75 = 0,25" × 0,75.

Et donc 𝑃(𝑋 = 2) = 3 × 0,25" × 0,75 = 0,140 625.

3) Expression de la loi binomiale à l’aide des coefficients binomiaux

Exemple :

On considère un schéma de Bernoulli à 3


épreuves.
Combien existe-t-il de chemins conduisant à 2
succès parmi 3 épreuves ?
On compte le nombre de combinaisons de 2
3
succès parmi 3, soit : A B = 3.
2

Définition : On réalise une expérience suivant un schéma de Bernoulli de paramètres 𝑛 et 𝑝.


Soit un entier naturel 𝑘 tel que 0 ≤ 𝑘 ≤ 𝑛
On appelle coefficient binomial ou combinaison de 𝒌 parmi 𝒏, le nombre de chemins
conduisant à 𝑘 succès parmi 𝑛 épreuves sur l'arbre représentant l'expérience.
𝑛
Ce nombre se note : A B.
𝑘

Yvan Monka – Académie de Strasbourg – [Link]


9

Propriété :
Soit 𝑋 une variable aléatoire qui suit la loi binomiale de paramètres 𝑛 et 𝑝.
Pour tout entier naturel 𝑘 tel que 0 ≤ 𝑘 ≤ 𝑛, on a :
𝑛
𝑃(𝑋 = 𝑘) = A B 𝑝& (1 − 𝑝)#'&
𝑘

Démonstration :
Vidéo [Link]

Un chemin comportant 𝑘 succès (de probabilité 𝑝) comporte 𝑛 − 𝑘 échecs (de probabilité


1 − 𝑝). Ainsi sa probabilité est égale à 𝑝& (1 − 𝑝)#'& .
𝑛
Le nombre de chemins menant à 𝑘 succès est égal à A B.
𝑘
𝑛 & #'&
Donc : 𝑃(𝑋 = 𝑘) = A B 𝑝 (1 − 𝑝) .
𝑘

Méthode : Calculer les probabilités d'une loi binomiale


Vidéo [Link]

Une urne contient 5 boules gagnantes et 7 boules perdantes. Une expérience consiste à tirer
au hasard 4 fois de suite une boule et de la remettre.
On appelle 𝑋 la variable aléatoire qui associe le nombre de tirages gagnants.
a) Justifier que 𝑋 suit une loi binomiale.
b) Calculer la probabilité d'obtenir 3 boules gagnantes.

Correction
a) On répète 4 fois de suite de façon identique et indépendante une épreuve à deux issues :
boules gagnantes (5 issues) ; boules perdantes (7 issues).
Le succès est d’obtenir une boule gagnante.
4
La probabilité du succès sur un tirage est égale à .
$#
4
La variable aléatoire 𝑋 suit donc la loi binomiale de paramètres : 𝑛 = 4 et 𝑝 = .
$#

b) Nombre de combinaisons de Probabilité


3 succès parmi 4 épreuves. des 3 succès.
Probabilité des
% ('% 4 − 3 = 1 échec.
4 5 5
𝑃(𝑋 = 3) = A B U V U1 − V
3 12 12
% !
4 5 7
= A BU V U V
3 12 12
125 7
=4× ×
1728 12
875
= ≈ 0,17.
5184

Yvan Monka – Académie de Strasbourg – [Link]


10

La loi binomiale avec la calculatrice :


Vidéos dans la liste :
[Link]

Méthode : Chercher un intervalle 𝐼 pour lequel la probabilité 𝑃(𝑋 ∈ 𝐼) est inférieure à ou


supérieure à une valeur donnée

On fait l'hypothèse que 55% des électeurs ont voté pour le candidat A. On interroge au
hasard à la sortie des urnes 50 personnes.
Soit 𝑋 est la variable aléatoire qui compte le nombre 𝑘 de personnes qui ont voté pour le
candidat A.
a) Déterminer des réels 𝑎 et 𝑏 tels que : 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) ≥ 0,95
b) Donner une interprétation du résultat précédent.

Correction
a) La variable aléatoire 𝑋 suit une loi binomiale de paramètre 𝑛 = 50 et 𝑝 = 0,55.

Avec le tableur, il est possible d'obtenir la loi de probabilité de 𝑋.

Avec la loi binomiale B(50 ; 0,55) :


Pour calculer 𝑃(𝑋 = 20), il faut saisir : =[Link](20;50;0,55;0)
Pour calculer 𝑃(𝑋 ≤ 20), il faut saisir : =[Link](20;50;0,55;1)

… … …

On obtient ainsi :

𝑘 17 18 19 20 21 22 23 24 25 26 27
𝑃(𝑋 = 𝑘) 0,001 0,003 0,006 0,012 0,021 0,034 0,05 0,069 0,087 0,102 0,112

𝑘 28 29 30 31 32 33 34 35 36 37 38
𝑃(𝑋 = 𝑘) 0,112 0,104 0,089 0,07 0,051 ,034 0,021 0,012 0,006 0,003 0,001

Pour 𝑘 < 17 et 𝑘 > 38, les probabilités sont inférieures à 10'% et peuvent être considérées
comme négligeables.

On obtient également le tableau des probabilités cumulées :

Yvan Monka – Académie de Strasbourg – [Link]


11

𝑘 17 18 19 20 21 22 23 24 25 26 27
𝑃(𝑋 = 𝑘) 0,002 0,005 0,01 0,023 0,044 0,077 0,127 0,196 0,283 0,386 0,498

𝑘 28 29 30 31 32 33 34 35 36 37 38
𝑃(𝑋 = 𝑘) 0,61 0,713 0,802 0,872 0,923 0,957 0,978 0,989 0,995 0,998 0,999

On cherche 𝑎 et 𝑏 tel que : 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) ≥ 0,95.


On commence par déterminer 𝑎 le plus petit possible, tel que : 𝑃(𝑋 ≤ 𝑎) > 0,025.
On lit : 𝑎 = 21.
On détermine ensuite 𝑏, le plus petit possible, tel que : 𝑃(𝑋 ≤ 𝑏) ≥ 0,975.
On lit : 𝑏 = 34.

Ainsi : 𝑃(21 ≤ 𝑋 ≤ 34) ≥ 0,95

#$ "3
b) Or, = 42 % et
= 68 %.
4. 4.
Pour un échantillon de 50 personnes, il y a au moins 95% de chance qu'il y ait entre 42 % et
68 % des électeurs qui votent pour le candidat A.

A noter : L'intervalle [0,42 ; 0,68] s’appelle intervalle de fluctuation au seuil de 95 %.

Partie 5 : Somme de variables aléatoires


Exemple :
On considère deux jeux dont les gains sont donnés :
- pour le premier jeu, par la variable aléatoire 𝑋 qui prend les valeurs 1 et 2.
- pour le second jeu, par la variable aléatoire 𝑌 qui prend les valeurs –2, 3 et 4.
Par exemple, l’évènement (𝑋 = 1) ∩ (𝑌 = −2) signifie qu’on a gagné 1 € au premier jeu et
perdu 2 € au deuxième jeu.
Considérons la variable aléatoire somme 𝑋 + 𝑌 donnant le gain total cumulé aux deux jeux.
Alors la variable aléatoire 𝑋 + 𝑌 peut prendre les valeurs :
-1, 0, 4, 5 et 6.
En effet, on a par exemple 𝑋 + 𝑌 = 0 avec (𝑋 = 2) ∩ (𝑌 = −2).

Yvan Monka – Académie de Strasbourg – [Link]


12

Par ailleurs, pour calculer par exemple, la probabilité de l’évènement 𝑋 + 𝑌 = 5, on cherche


toutes les sommes 𝑋 + 𝑌 égales à 5.
On a ainsi : 𝑃(𝑋 + 𝑌 = 5) = 𝑃:(𝑋 = 1) ∩ (𝑌 = 4); + 𝑃:(𝑋 = 2) ∩ (𝑌 = 3);

Si de plus, les évènements (𝑋 = 𝑖) et (𝑌 = 𝑗) sont indépendants, alors on a :


𝑃(𝑋 + 𝑌 = 5) = 𝑃(𝑋 = 1) × 𝑃(𝑌 = 4) + 𝑃(𝑋 = 2) × 𝑃(𝑌 = 3)

Définition : Soit 𝑋 et 𝑌 deux variables aléatoires. La loi de probabilité de la variable aléatoire


somme 𝑋 + 𝑌 est donnée par :
𝑃(𝑋 + 𝑌 = 𝑘) = _ 𝑃((𝑋 = 𝑖) ∩ (𝑌 = 𝑗))
$)*+&
Si, de plus, les évènements (𝑋 = 𝑖) et (𝑌 = 𝑗) sont indépendants, alors on a :
𝑃(𝑋 + 𝑌 = 𝑘) = _ 𝑃(𝑋 = 𝑖) × 𝑃(𝑌 = 𝑗)
$)*+&
On dit dans ce cas que les variables aléatoires 𝑿 et 𝒀 sont indépendantes.

Remarque : Le symbole Σ
Si par exemple, 𝑘 = 2 alors :
𝑃(𝑋 + 𝑌 = 2) = _ 𝑃((𝑋 = 𝑖) ∩ (𝑌 = 𝑗))
$)*+"
= 𝑃((𝑋 = 0) ∩ (𝑌 = 2)) + 𝑃((𝑋 = 1) ∩ (𝑌 = 1)) + 𝑃((𝑋 = 2) ∩ (𝑌 = 0))

Méthode : Déterminer la loi d’une somme de variables aléatoires


Vidéo [Link]

On considère le jeu suivant qui se déroule en deux parties :


- La 1ère partie consiste à lancer une pièce de monnaie. Si on tombe sur « pile », on gagne 1
€, si on tombe sur « face », on gagne 2 €.
- La 2e partie consiste à lancer un dé à 6 faces. Si on tombe sur un chiffre pair, on gagne 1 €,
si on tombe sur le « 3 » ou le « 5 », on gagne 2 €.
Si on tombe sur le « 1 », on perd 5 €.
La variable aléatoire 𝑋 désigne les gains à la 1ère partie, la variable aléatoire 𝑌 désigne les
gains à la 2e partie.
On considère que les variables aléatoires 𝑋 et 𝑌 sont indépendantes.
Établir la loi de probabilité de la variable aléatoire somme 𝑆 = 𝑋 + 𝑌 donnant le gain total
cumulé à la fin des deux parties.

Correction
Dans le tableau ci-dessous, on présente toutes les sommes possibles :

Yvan Monka – Académie de Strasbourg – [Link]


13

Ainsi, on a :
𝑃(𝑆 = −4) = 𝑃((𝑋 = 1) ∩ (𝑌 = −5))
= 𝑃(𝑋 = 1) × 𝑃(𝑌 = −5) en effet, les variables 𝑋 et 𝑌 sont indépendantes.
1 1 1
= × =
2 6 12

𝑃(𝑆 = −3) = 𝑃(𝑋 = 2) × 𝑃(𝑌 = −5)


1 1 1
= × =
2 6 12

𝑃(𝑆 = 2) = 𝑃(𝑋 = 1) × 𝑃(𝑌 = 1)


1 1 1
= × =
2 2 4

𝑃(𝑆 = 3) = 𝑃(𝑋 = 1) × 𝑃(𝑌 = 2) + 𝑃(𝑋 = 2) × 𝑃(𝑌 = 1)


1 1 1 1 1 1 5
= × + × = + =
2 3 2 2 6 4 12

𝑃(𝑆 = 4) = 𝑃(𝑋 = 2) × 𝑃(𝑌 = 2)


1 1 1
= × =
2 3 6

On peut présenter la loi de probabilité de 𝑆 dans un tableau :

𝑘 –4 –3 2 3 4
1 1 1 5 1
𝑃(𝑆 = 𝑘)
12 12 4 12 6

Partie 6 : Espérance et variance de combinaisons linéaires de


variables aléatoires
Propriétés :
● 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 avec 𝑎 ∈ ℝ et 𝑏 ∈ ℝ
● 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌)
● 𝑉(𝑎𝑋 + 𝑏) = 𝑎" 𝑉(𝑋) avec 𝑎 ∈ ℝ et 𝑏 ∈ ℝ
● Si 𝑋 et 𝑌 sont deux variables aléatoires indépendantes : 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌)

Yvan Monka – Académie de Strasbourg – [Link]


14

Méthode : Simplifier les calculs d'espérance et de variance à l'aide d'une variable aléatoire
de transition
Vidéo [Link]

Une entreprise qui fabrique des roulements à bille fait une étude sur une gamme de billes
produites. Le diamètre théorique doit être égal à 1,3 cm mais cette mesure peut être
légèrement erronée.
L'expérience consiste à tirer au hasard une bille d'un lot de la production et à mesurer son
diamètre.
On considère la variable aléatoire 𝑋 qui, à une bille choisie au hasard, associe son diamètre.
La loi de probabilité de 𝑋 est résumée dans le tableau suivant :
𝑥$ 1,298 1,299 1,3 1,301 1,302
𝑃(𝑋 = 𝑥$ ) 0,2 0,1 0,2 0,4 0,1
Calculer l'espérance et l'écart-type de la loi de probabilité de 𝑋.

Correction
Pour simplifier les calculs, on définit la variable aléatoire 𝑌 = 1 000𝑋 − 1 300.
La loi de probabilité de 𝑌 est alors :
𝑦$ –2 –1 0 1 2
𝑃(𝑌 = 𝑦$ ) 0,2 0,1 0,2 0,4 0,1

Calculons l'espérance et la variance de la loi de probabilité de 𝑌 :


𝐸(𝑌) = −2 × 0,2 + (−1) × 0,1 + 1 × 0,4 + 2 × 0,1 = 0,1
𝑉(𝑌) = 0,2 × (−2 − 0,1)" + 0,1 × (−1 − 0,1)" + 0,2 × (0 − 0,1)" + 0,4 × (1 − 0,1)"
+0,1 × (2 − 0,1)"
= 1,69

On en déduit l'espérance et la variance de la loi de probabilité de 𝑋 :


𝐸(𝑌) = 𝐸(1 000𝑋 − 1 300) = 1 000 𝐸(𝑋) − 1 300
)(+)-$ ".. .,$-$ "..
Donc : 𝐸(𝑋) = = = 1,300 1
$ ... $ ...
𝑉(𝑌) = 𝑉(1 000 𝑋 − 1 300) = 10 002 𝑉(𝑋)
0(+) $,12
Donc : 𝑉(𝑋) = =
$ ...! $ ...!
$,12 $,"
Et donc : 𝜎(𝑋) = ! = = 0,001 3
$ ...! $ ...

Conclusion : 𝐸(𝑋) = 1,3001 𝑐𝑚 et 𝜎(𝑋) = 0,001 3 𝑐𝑚.

Yvan Monka – Académie de Strasbourg – [Link]


15

Partie 7 : Application à la loi binomiale


1) Échantillon d’une loi de probabilité

Exemple :
On étudie la fiabilité d’un composant électronique. On appelle 𝑋 la variable aléatoire égale à
1 si le composant électronique ne se détériore pas suite aux tests effectués et 0 dans le cas
contraire.
Le fabricant précise que le composant électronique ne subit pas de détériorations suite aux
tests dans 99,8 % des cas.
Dans ce cas, la variable aléatoire 𝑋 suit la loi de Bernoulli de paramètre 0,998.
On effectue les tests sur un échantillon de 100 composants électroniques prélevés au hasard
dans le stock du fabricant.
On peut considérer alors que la liste (𝑋! , 𝑋" , 𝑋% , … , 𝑋!,, ) forme un échantillon de taille 100
de variables aléatoires suivant la loi de Bernoulli de paramètre 0,998.

Définition : Un échantillon de taille 𝒏 d’une loi de probabilité est une liste de 𝑛 variables
aléatoires indépendantes suivant cette loi.

Propriétés : Soit (𝑋! , 𝑋" , … , 𝑋# ) un échantillon de taille 𝑛 de variables aléatoires


indépendantes suivant une même loi. On pose : 𝑆 = 𝑋! + 𝑋" + ⋯ +𝑋# , alors on a :
1) 𝐸(𝑆) = 𝐸(𝑋! ) + 𝐸(𝑋" ) + ⋯ + 𝐸(𝑋# )
2) 𝑉(𝑆) = 𝑉(𝑋! ) + 𝑉(𝑋" ) + ⋯ + 𝑉(𝑋# )

Méthode : Calculer une espérance et une variance à l’aide d’une somme de variables
aléatoires
Vidéo [Link]

Sur un axe gradué, on dépose une petite goûte de confiture à la fraise au point d’abscisse 10.
Pierrot invite Sophie la fourmi à se placer à l’origine de l’axe gradué.
Attirée par la confiture, Sophie se déplace de façon aléatoire d’une unité vers la droite (sens
#
positif) avec la probabilité de et d’une unité vers la gauche (sens négatif) avec la
"
$
probabilité de .
"
On suppose que les déplacements de la fourmi sont indépendants les uns des autres.
Pour tout entier naturel 𝑘, on note 𝑋& la variable aléatoire valant 1 si la fourmi se déplace
vers la droite au 𝑘-ième déplacement et valant −1 si elle se déplace vers la gauche.
On note 𝑆# = 𝑋! + 𝑋" + ⋯ + 𝑋# la variable aléatoire somme des 𝑋& .
! "
% %

1) Calculer 𝐸(𝑋& ) et 𝑉(𝑋& )


2) En déduire 𝐸(𝑆# ) et 𝑉(𝑆# ).
Yvan Monka – Académie de Strasbourg – [Link]
16

3) Au bout de combien de déplacements, Sophie peut-elle espérer théoriquement atteindre


la goûte de confiture ? Calculer 𝜎(𝑆# ) dans ce cas.

Correction
1) On établit la loi de probabilité de 𝑋& :
𝑥$ −1 1
1 2
𝑃(𝑋& = 𝑥$ )
3 3
1 2 1
𝐸(𝑋& ) = −1 × + 1 × =
3 3 3
1 1 " 2 1 " 8
𝑉(𝑋& ) = U−1 − V + U1 − V =
3 3 3 3 9

2) On a : 𝑆# = 𝑋! + 𝑋" + ⋯ + 𝑋#
Donc la variable aléatoire 𝑆# donne l’abscisse de la fourmi après 𝑛 déplacements.
Et on a : 𝐸(𝑆# ) = 𝐸(𝑋! + 𝑋" + ⋯ + 𝑋# )
= 𝐸(𝑋! ) + 𝐸(𝑋" ) + ⋯ + 𝐸(𝑋# )
= 𝑛𝐸(𝑋& )
𝑛
=
3

Et : 𝑉(𝑆# ) = 𝑉(𝑋! + 𝑋" + ⋯ + 𝑋# )


= 𝑉(𝑋! ) + 𝑉(𝑋" ) + ⋯ + 𝑉(𝑋# ), car les variables sont indépendantes.
= 𝑛𝑉(𝑋& )
8𝑛
=
9

3) 𝐸(𝑆# ) = 10
𝑛
= 10
3
𝑛 = 30
Après 30 déplacements, Sophie peut espérer théoriquement atteindre la goûte de confiture.
8×30
𝜎(𝑆%, ) = =𝑉(𝑆%, ) = =𝑉(𝑆%, ) = f 9 ≈ 5,2 unités.

2) Échantillon de la loi de Bernoulli

Propriété : Soit (𝑋! , 𝑋" , … 𝑋# ) un échantillon de taille 𝑛 de la loi de Bernoulli de paramètre 𝑝.


La variable aléatoire 𝑆 = 𝑋! + 𝑋" + ⋯ +𝑋# suit la loi binomiale de paramètres 𝑛 et 𝑝.

Exemple :
En reprenant l’exemple donné au début de la partie 3.1, la variable aléatoire
𝑆 = 𝑋! + 𝑋" + ⋯ +𝑋!,, suit la loi binomiale de paramètres 𝑛 = 100 et 𝑝 = 0,998.

Yvan Monka – Académie de Strasbourg – [Link]


17

3) Espérance, variance et écart type de la loi binomiale

Propriété : Soit 𝑆 une variable aléatoire qui suit la loi binomiale de paramètres 𝑛 et 𝑝.
𝐸(𝑆) = 𝑛𝑝 𝑉(𝑆) = 𝑛𝑝(1 − 𝑝) 𝜎(𝑆) = =𝑉(𝑆)

Démonstration :
Vidéo [Link]
Soit (𝑋! , 𝑋" , … 𝑋# ) un échantillon de taille 𝑛 de la loi de Bernoulli de paramètre 𝑝.
On rappelle que pour une variable aléatoire 𝑋 qui suit une loi de Bernoulli, on a :
𝐸(𝑋) = 𝑝 et 𝑉(𝑋) = 𝑝(1 − 𝑝).
Donc, on a :
𝐸(𝑆) = 𝐸(𝑋! + 𝑋" + ⋯ +𝑋# ) = 𝐸(𝑋! ) + 𝐸(𝑋" ) + ⋯ + 𝐸(𝑋# ) = 𝑝 + 𝑝 + ⋯ + 𝑝 = 𝑛𝑝
𝑉(𝑆) = 𝑉(𝑋! + 𝑋" + ⋯ +𝑋# ) = 𝑉(𝑋! ) + 𝑉(𝑋" ) + ⋯ + 𝑉(𝑋# ) car 𝑋! , 𝑋" , … 𝑋# sont
indépendantes.
Donc : 𝑉(𝑆) = 𝑝(1 − 𝑝) + 𝑝(1 − 𝑝) + ⋯ + 𝑝(1 − 𝑝) = 𝑛𝑝(1 − 𝑝)

Méthode : Calculer l’espérance, la variance et l’écart-type pour une loi binomiale


Vidéo [Link]
Vidéo [Link]

On lance 5 fois de suite un dé à six faces.


On considère comme succès le fait d'obtenir 5 ou 6.
On considère la variable aléatoire 𝑆 donnant le nombre de succès.
Calculer 𝐸(𝑆), 𝑉(𝑆) et 𝜎(𝑆).

Correction
$
La variable aléatoire 𝑆 suit la loi binomiale de paramètres 𝑝 = et 𝑛 = 5.
"
1 5
𝐸(𝑆) = 5 × = ≈ 1,7
3 3
1 2 10
𝑉(𝑆) = 5 × × =
3 3 9
10 √10
𝜎(𝑆) = g =
9 3
En moyenne, on peut espérer obtenir environ 1,7 fois un 5 ou un 6, en 5 lancers.

Partie 8 : Moyenne d’un échantillon


1) Définition

Exemple : On lance un dé à six faces et on considère la variable aléatoire 𝑋 qui prend la


valeur 1 si le dé s’arrête sur un chiffre pair et la valeur 0 sinon.

Yvan Monka – Académie de Strasbourg – [Link]


18

$
𝑋 suit donc une loi de Bernoulli de paramètre .
#
On répète deux fois de suite cette expérience. On considère alors l’échantillon (𝑋! , 𝑋" ) de
taille 2 de variables aléatoires 𝑋! et 𝑋" suivant la même loi que 𝑋.
Il est ainsi possible d’évaluer le résultat d’une telle expérience en étudiant la variable
aléatoire moyenne de 𝑋! et 𝑋" .
On appelle 𝑀" la variable aléatoire moyenne de l’échantillon (𝑋! , 𝑋" ).
Alors 𝑀" peut prendre les valeurs suivantes :

Valeur Probabilité Valeur Probabilité Probabilité Valeur de Probabilité


de 𝑋! de 𝑋! de 𝑋" de 𝑋" de (𝑋! , 𝑋" ) 𝑀" de 𝑀"

1 1 1 1 1 0+0 1
0 0 × = =0
2 2 2 2 4 2 4
1 1 1 1 1 0+1 1
0 1 × = =
2 2 2 2 4 2 2 1 1 1
+ =
1 1 1 1 1 1+0 1 4 4 2
1 0 × = =
2 2 2 2 4 2 2
1 1 1 1 1 1+1 1
1 1 × = =1
2 2 2 2 4 2 4

Et on a ainsi la loi de probabilité de 𝑀" :

1
𝑘 0 1
2
1 1 1
𝑃(𝑀" = 𝑘)
4 2 4

Définition : Soit (𝑋! , 𝑋" , … , 𝑋# ) un échantillon de taille 𝑛 de variables aléatoires


indépendantes suivant une même loi.
La variable aléatoire moyenne 𝑀# de l’échantillon est donnée par :
1
𝑀# = (𝑋! + 𝑋" + ⋯ +𝑋# ).
𝑛

2) Propriétés

Exemple :
On reprend l’exemple précédent.
- Calculons l’espérance de 𝑀" :
1 1 1 1 1
𝐸(𝑀" ) = 0 × + × + 1 × =
4 2 2 4 2
On retrouve l’espérance de la variable 𝑋.

Yvan Monka – Académie de Strasbourg – [Link]


19

On comprend intuitivement que l’espérance de la variable aléatoire moyenne d’un


échantillon (𝑋! , 𝑋" , … , 𝑋# ) est égale à l’espérance de la variable aléatoire 𝑋 associée à cet
échantillon.

- Calculons la variance de 𝑀" :


1 1 " 1 1 1 " 1 1 " 1
𝑉(𝑀" ) = × U0 − V + × U − V + × U1 − V =
4 2 2 2 2 4 2 8
Alors que :
1 1 1
𝑉(𝑋) = × =
2 2 4

Ainsi la variance de la variable aléatoire moyenne est plus faible que la variance de la
variable d’origine.
De plus, la dispersion de la variable aléatoire moyenne diminue au fur et à mesure que la
taille de l’échantillon 𝑛 augmente.
En effet, si l’échantillon devient plus grand, le nombre de situations pouvant donner des
valeurs proches de l’espérance augmente.
Ainsi, les valeurs prises par la moyenne deviennent de plus en plus probables dans un
voisinage de l’espérance.

Propriété : Soit une variable aléatoire 𝑋 et soit un échantillon (𝑋! , 𝑋" , … , 𝑋# ) de taille 𝑛 de
variables aléatoires indépendantes suivant la même loi que 𝑋.
1 1
𝐸(𝑀# ) = 𝐸(𝑋) 𝑉(𝑀# ) = 𝑉(𝑋) 𝜎(𝑀# ) = 𝜎(𝑋)
𝑛 √𝑛

Méthode : Calculer l’espérance, la variance et l’écart-type d’une variable aléatoire moyenne


Vidéo [Link]

On considère la variable aléatoire 𝑋 qui prend, de façon équiprobable, les valeurs –4, 0, 1, 3
et 6.
𝑀-, est la variable aléatoire moyenne d’un échantillon de taille 50 de la loi de 𝑋.
Calculer l’espérance, la variance et l’écart type de 𝑀-, .

Correction
Par équiprobabilité, on établit le tableau de la loi de probabilité de 𝑋.

𝑘 –4 0 1 3 6
1 1 1 1 1
𝑃(𝑋 = 𝑘)
5 5 5 5 5
On a ainsi :
1 1 1 1 1
𝐸(𝑋) = × (−4) + × 0 + × 1 + × 3 + × 6 = 1,2
5 5 5 5 5
1 1 1 1
𝑉(𝑋) = × (−4 − 1,2)" + × (0 − 1,2)" + × (1 − 1,2)" + × (3 − 1,2)"
5 5 5 5
1
+ × (6 − 1,2)" = 10,96
5
Yvan Monka – Académie de Strasbourg – [Link]
20

𝜎(𝑋) = =10,96 ≈ 3,31

On en déduit :
𝐸(𝑀-, ) = 𝐸(𝑋) = 1,2
1 10,96
𝑉(𝑀-, ) = 𝑉(𝑋) = = 0,2192
50 50
1 3,31
𝜎(𝑀-, ) = 𝜎(𝑋) ≈ ≈ 0,468
√50 √50

Partie 9 : Inégalité de Bienaymé-Tchebychev

Propriété : Soit une variable aléatoire 𝑋. Pour tout réel strictement positif 𝛿, on a :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 𝛿) ≤ "
𝛿

Tangente n°197 - Décembre 2020

Méthode : Appliquer l’inégalité de Bienaymé-Tchebychev


Vidéo [Link]

Soit une variable aléatoire 𝑋 qui suit la loi binomiale de paramètres 𝑛 = 20 et 𝑝 = 0,1.
1) Appliquer l’inégalité de Bienaymé-Tchebychev avec 𝛿 = 2𝜎(𝑋). Interpréter.
2) Recommencer avec 𝛿 = 3𝜎(𝑋), puis 𝛿 = 4𝜎(𝑋). Que constate-t-on ?
3) a) Simuler 𝑁 valeurs de la variable aléatoire 𝑋 par une fonction en Python dans le but
d’estimer la probabilité 𝑃(|𝑋 − 2| ≥ 2𝜎(𝑋)).
On testera le programme pour différentes valeurs de 𝑁.
b) Au regard des résultats obtenus par le programme, peut-on penser que l’inégalité de
Bienaymé-Tchebychev a un caractère optimal ?

Yvan Monka – Académie de Strasbourg – [Link]


21

Correction
1) 𝐸(𝑋) = 20 × 0,1 = 2 𝑉(𝑋) = 20 × 0,1 × 0,9 = 1,8 𝜎(𝑋) = √1,8
Ainsi, on obtient :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 2𝜎(𝑋)) ≤ "
:2𝜎(𝑋);
Ou encore : 𝑃(|𝑋 − 2| ≥ 2√1,8) ≤ 0,25

La probabilité que l’écart de 𝑋 à 𝐸(𝑋) soit supérieur à 2𝜎(𝑋) est majorée par 0,25.

2) ● pour 𝛿 = 3𝜎(𝑋) :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 3𝜎(𝑋)) ≤ "
:3𝜎(𝑋);
$
Ou encore : 𝑃(|𝑋 − 2| ≥ 3√1,8) ≤
2

● pour 𝛿 = 4𝜎(𝑋) :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 4𝜎(𝑋)) ≤ "
:4𝜎(𝑋);
Ou encore : 𝑃(|𝑋 − 2| ≥ 4√1,8) ≤ 0,0625

● On peut en déduire que les écarts de 𝑋 à 𝐸(𝑋) de quelques 𝜎 deviennent improbables.

3) a)

b) On constate qu’un écart à 𝐸(𝑋) supérieur à 2𝜎(𝑋) est de probabilité souvent inférieure
0,05 (0,038 ; 0,0454 ; 0,04178 ; 0,04516) alors que l’inégalité de Bienaymé-Tchebychev nous
donne pour cette même probabilité une majoration par 0,25. L’inégalité est donc loin d’être
optimale.

Yvan Monka – Académie de Strasbourg – [Link]


22

Partie 10 : Inégalité de concentration


Propriété : Soit la variable aléatoire moyenne 𝑀# d’un échantillon de taille 𝑛 de la variable
aléatoire 𝑋. Pour tout réel strictement positif 𝛿, on a :
𝑉(𝑋)
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) ≤
𝑛 𝛿"

Méthode : Appliquer l’inégalité de concentration pour déterminer la taille d’un échantillon


Vidéo [Link]

Soit une variable aléatoire 𝑋 qui suit la loi de Bernoulli de paramètre 0,2.
On considère un échantillon de 𝑛 variables aléatoires suivant la loi de 𝑋.
On appelle 𝑀# la variable aléatoire moyenne associée à cet échantillon.
Déterminer la taille 𝑛 de l’échantillon tel que la probabilité que la moyenne 𝑀# appartienne
à l’intervalle ]0,03 ; 0,37[ soit supérieure à 0,95.

Correction
On cherche à calculer 𝑛 tel que 𝑃(0,03 < 𝑀# < 0,37) ≥ 0,95
Dans l’idée d’appliquer l’inégalité de concentration, on fait apparaitre l’espérance de 𝑋 dans
l’inégalité.
Or, 𝐸(𝑋) = 𝑝 = 0,2
Ainsi, on cherche 𝑛 tel que : 𝑃(0,03 − 0,2 < 𝑀# − 0,2 < 0,37 − 0,2) ≥ 0,95
Soit : 𝑃(−0,17 < 𝑀# − 0,2 < 0,17) ≥ 0,95
Soit encore : 𝑃(|𝑀# − 0,2| < 0,17) ≥ 0,95
Et donc, en considérant l’évènement contraire :
1 − 𝑃(|𝑀# − 0,2| ≥ 0,17) ≥ 0,95
𝑃(|𝑀# − 0,2| ≥ 0,17) ≤ 0,05

En prenant 𝛿 = 0,17 dans l’inégalité de concentration, on a :


0(:)
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) ≤ 0,05, avec = 0,05.
; <!
Or, 𝑉(𝑋) = 𝑝(1 − 𝑝) = 0,2 × 0,8 = 0,16
.,$1 .,$1
On cherche donc un entier 𝑛 tel que : ! ≤ 0,05. Et donc : 𝑛 ≥ ≈ 110,7
; .,$! .,.4× .,$!!
Pour 𝑛 ≥ 111, la probabilité que la moyenne 𝑀# appartienne à l’intervalle ]0,03 ; 0,37[ est
supérieure à 0,95.

Partie 11 : Loi des grands nombres


Propriété : Soit la variable aléatoire moyenne 𝑀# d’un échantillon de taille 𝑛 de la variable
aléatoire 𝑋. Pour tout réel strictement positif 𝛿, on a :
lim 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) = 0
#→)/

Yvan Monka – Académie de Strasbourg – [Link]


23

Remarque : La loi des grands nombres traduit le fait que plus la taille de l’échantillon d’une
variable aléatoire 𝑋 est grande, plus l’écart entre la moyenne de cet échantillon et
l’espérance de la variable aléatoire 𝑋 est faible.

Méthode : Appliquer la loi des grands nombres


Vidéo [Link]

Soit une variable aléatoire 𝑋 d’espérance 3 et de variance 0,2.


Soit 𝑀# la variable aléatoire moyenne d’un échantillon de taille 𝑛 de la variable aléatoire 𝑋.
1) Déterminer un majorant de 𝑃(|𝑀# − 3| ≥ 0,1) pour 𝑛 = 100, pour 𝑛 = 1000, puis pour
𝑛 = 10 000. Que constate-t-on ?
2) Démontrer et interpréter le résultat précédent.

Correction
1) D’après l’inégalité de concentration, on a :
𝑉(𝑋)
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) ≤
𝑛 𝛿"
Soit, dans le contexte de l’exercice :
0,2 20
𝑃(|𝑀# − 3| ≥ 0,1) ≤ "
=
𝑛 × 0,1 𝑛
● Pour 𝑛 = 100, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,2
● Pour 𝑛 = 1000, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,02
● Pour 𝑛 = 10000, on a : 𝑃(|𝑀# − 3| ≥ 0,1) ≤ 0,002
On constate que plus 𝑛 augmente, plus le majorant de la probabilité se rapproche de 0.

2) D’après la loi des grands nombres, on a :


lim 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) = 0
#→)/
Soit, dans le contexte de l’exercice :
lim 𝑃(|𝑀# − 3| ≥ 0,1) = 0
#→)/

Plus la taille de l’échantillon est grande, plus l’écart entre la moyenne et l’espérance est
faible.

Méthode : Simuler des valeurs d’une variable aléatoire moyenne dans le but d’observer la loi
des grands nombres
On considère la variable aléatoire 𝑋 qui prend ses valeurs de manière équiprobable parmi
les entiers 1 à 5.
Et on nomme 𝑀# la variable aléatoire moyenne d’un échantillon de taille 𝑛 de la variable
aléatoire 𝑋.
a) Simuler 500 valeurs de la variable aléatoire 𝑀# par une fonction en Python dans le but
d’estimer la probabilité 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿).
Tester le programme pour différentes valeurs de 𝛿 et des valeurs de 𝑛 de plus en plus
grande.
b) Que constate-t-on ?
c) Justifier et interpréter ce résultat.

Yvan Monka – Académie de Strasbourg – [Link]


24

Correction
a) Comme il y a équiprobabilité et cinq issues possibles, toutes les probabilités des valeurs
$
prises par 𝑋 sont égale à .
4
On a ainsi :
1 1 1 1 1
𝐸(𝑋) = × 1 + × 2 + × 3 + × 4 + × 5 = 3
5 5 5 5 5

Et donc : 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) = 𝑃(|𝑀# − 3| ≥ 𝛿 ).

Programme permettant de simuler 500 valeurs de la variable aléatoire 𝑀# dans le but


d’estimer la probabilité 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) :
Affichages en sortie :

b) On constate que, dans tous les cas, plus 𝑛 augmente, plus la probabilité
𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) se rapproche de 0.

c) D’après la loi des grands nombres, on a :


lim 𝑃(|𝑀# − 𝐸(𝑋)| ≥ 𝛿) = 0
#→)/
Soit, dans le contexte de l’exercice :
lim 𝑃(|𝑀# − 3| ≥ 𝛿) = 0
#→)/
Plus la taille de l’échantillon est grande, plus l’écart entre la moyenne de cet échantillon et
l’espérance de la variable aléatoire 𝑋 est faible.

Hors du cadre de la classe, aucune reproduction, même partielle, autres que celles prévues à l'article L 122-5 du
code de la propriété intellectuelle, ne peut être faite de ce site sans l'autorisation expresse de l'auteur.

[Link]/[Link]/mentions-legales

Yvan Monka – Académie de Strasbourg – [Link]

Vous aimerez peut-être aussi