0% ont trouvé ce document utile (0 vote)
203 vues62 pages

ch1 2019

Ce document présente les notions de base des probabilités et de la statistique, notamment les définitions d'expériences aléatoires, d'évènements, d'opérations sur les évènements, de probabilité, de propriétés de probabilité, d'équiprobabilité, et de dénombrement.

Transféré par

hamza dahbi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
203 vues62 pages

ch1 2019

Ce document présente les notions de base des probabilités et de la statistique, notamment les définitions d'expériences aléatoires, d'évènements, d'opérations sur les évènements, de probabilité, de propriétés de probabilité, d'équiprobabilité, et de dénombrement.

Transféré par

hamza dahbi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de Probabilités et statistiques : Partie1

Cours de Probabilités et statistiques : Partie1

Polytech Clermont-Ferrand

22 septembre 2020

1/62
Cours de Probabilités et statistiques : Partie1

Expériences aléatoires : vocabulaire et définitions

Définition
Une expérience est dite aléatoire lorsque l’on ne peut en
prévoir exactement le résultat.
L’espace de tous les résultats possibles de l’expérience est
appelé espace d’états ou univers des possibles. Il est noté

Exemples :
le lancé d’une pièce de monnaie : Ω = {P, F }
Le lancé d’un dé : Ω = {1, 2, . . . , 6}
la durée de vie d’une bactérie : Ω = [0; +∞[
le résultat du lancé d’une fléchette sur une cible circulaire de
diamètre 32 cm : Ω = {(x, y ), x 2 + y 2 ≤ 162 }
2/62
Cours de Probabilités et statistiques : Partie1

Evènements aléatoires

Définition
Un résultat possible de l’expérience est noté ω ∈ Ω
Les sous-ensembles de l’univers Ω sont appelés évènements
Les évènements formés d’un seul élément sont appelés
évènements élémentaires
Exemples d’évènements :
La pièce tombe sur Pile : ω = {P}, ω est un évènement
élémentaire.
Le résultat du lancé du dé est pair : A = {2, 4, 6}
La durée de vie de la bactérie est inférieur à 10 ans :
B = [0; 10]

3/62
Cours de Probabilités et statistiques : Partie1

Opérations sur les évènements

Ω est l’évènement certain


est l’évènement impossible
L’évènement contraire de A est le complémentaire de A ds
Ω, noté Ā
”A entraine B” ⇔ ”A réalisé ⇒ B réalisé” correspond à
A⊂B
L’évènement ”A et B sont réalisés” correspond à A ∩ B
L’évènement ”A ou B est réalisé” correspond à A ∪ B
Si A ∩ B = , on dit que A et B sont incompatibles

4/62
Cours de Probabilités et statistiques : Partie1

Probabilité

Définition
Une probabilité est une application P de P(Ω) dans [0; 1] ayant
les propriétés suivantes :
P( ) = 0
P(Ω) = 1
Si A ⊂ B alors P(A) ≤ P(B)
Si A et B sont incompatibles (A ∩ B = ),
P(A ∪ B) = P(A) + P(B)
Un ensemble Ω muni de ses évènements et d’une probabilité est
appelé espace probabilisé

5/62
Cours de Probabilités et statistiques : Partie1

Propriétés de probabilité

Propriétés
P(Ā) = 1 − P(A)
Si A et B sont incompatibles alors P(A ∪ B) = P(A) + P(B)
Généralisation : Soient A1 , A2 , . . . , An n évènements
mutuellement incompatibles (ie incompatibles 2 à 2) alors
P(A1 ∪ A2 ∪ · · · ∪ An ) = P(A1 ) + P(A2 ) + · · · + P(An )
A et B 2 évènements quelquonques, alors
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

6/62
Cours de Probabilités et statistiques : Partie1

Equiprobabilité

Définition
On dit qu’il y a équiprobabilité quand tous les évènements
élémentaires ont la même probabilité

Calculs dans le cas d’équiprobabilité : Soit E un évèment de


l’univers Ω, alors
card(E )
P(E ) =
card(Ω)
Exemple : On lance deux fois de suite un dé équilibré
1 Déterminer l’espace d’états de cette espérience
Calculer la probabilité des évènements :
2

A : on obtient un double ; B : on obtient 2 numéros consécutifs


C : on obtient au moins un 6 ; D : la somme des numéros dépasse 7
strictement.
7/62
Cours de Probabilités et statistiques : Partie1

Equiprobabilité - correction de l’exemple (1)

1 Ω = {(x1 , x2 ), xi : résultat du ième lancé, xi ∈


{1, 2, . . . , 6}, i = 1, 2} = {1, 2, . . . , 6}2
card(Ω) = 6 × 6 = 36
2 Dés équilibrés ⇒situation d’équiprobabilité.

card(A) card(A)
P(A) = =
card(Ω) 36

8/62
Cours de Probabilités et statistiques : Partie1

Equiprobabilité - correction de l’exemple (2)


A = {(x, x), x ∈ {1, 2, . . . , 6}}, card(A) = 6 × 1 = 6. Donc
6
P(A) = 36 = 16
B = {(1, 2), (2, 1), (2, 3), (3, 2), (3, 4), (4, 3), (4, 5)
, (5, 6), (5, 4), (6, 5)},
10 5
card(B) = 36 = 18
C = au moins un 6=un six exatement ou deux 6.
Deux 6 : une seule façon : (6, 6)
Un six exactement : (6, 1), . . . (6, 5), (1, 6), . . . , (5, 6)
. D’où card(C ) = 1 + 5 + 5 = 11, P(C ) = 11
36
Pour une somme > 7, on peut obtenir les valeurs suivantes :
7 : (6,1),(1,6),(5,2),(2,5),(4,3),(3,4) =>6 possibilités
8 : (6,2),(2,6),(3,5),(5,3),(4,4)=> 5 possibilités
9 : (3,6),(6,3),(4,5),(5,4) => 4 possibilités
10 : (6,4),(4,6),(5,5)=> 3 possibilités
11 : (6,5),(5,6) => 2 possibilités
12 : (6,6) => 1 possibilité
21 7
9/62 card(D) = 6 + 5 + 4 + 3 + 2 + 1 = 21. D’où P(D) = =
Cours de Probabilités et statistiques : Partie1

Dénombrement (1)

Définition
Soit E un ensemble à p éléments, on appelle permutation de E
toute liste ordonnée des p éléments de E .
nbre de permutations à p éléments : p × (p − 1) × · · · × 1 = p!

Exemple : Un parking contient 25 places. 25 clients arrivent pour


se garer. Combien de stationnements différents peut-on obtenir ?
25 possibilités pour la première voiture, puis 24 pour la seconde,
puis 23 pour la troisième, ... 1 seule encore disponible pour la
dernière voiture.
On obtient donc : 25 × 24 × · · · × 1 = 25!

10/62
Cours de Probabilités et statistiques : Partie1

Dénombrement (2)

Définition
Soit E un ensemble à n éléments. On appelle combinaison de p
éléments de E toute partie de E formée de p éléments.

Proposition
Soit E un ensemble à n 6= 0 éléments et p tel que 0≤ p ≤
 n, alors
n
le nombre de combinaisons à p éléments de E noté vérifie :
p
 
n n!
=
p p!(n − p)!

11/62
Cours de Probabilités et statistiques : Partie1

Dénombrement (3)

Exemple : Pour jouer au loto, vous devez choisir 6 numéros parmi


49.
Combien de tirages différents peut-on obtenir ?
Au loto, l’ordre d’arrivée des boules n’intervient pas.
Le tirage 1,2,3,4,5,6
  est le même que le tirage 6,5,4,3,2,1, etc.
49
Il y a donc tirages possibles.
6

12/62
Cours de Probabilités et statistiques : Partie1

Dénombrements (4)

Proposition
∀p et n tels que 0 ≤ p ≤ n, on a :
     
n n n
= = 1 et =n
0 n 1
   
n n
=
p n−p
     
n+1 n n
= +
p+1 p p+1
∀a, b ∈ R et n ∈ N, on a :
n  
X n
(a + b)n = an−i b i
i
i=0

13/62
Cours de Probabilités et statistiques : Partie1

Dénombrement (5)

Définition
Soit E un ensemble à n éléments. On appelle Arrangement de p
éléments de E toute suite de p éléments distincts de E . On note
Apn ce nombre.
n!
Apn = = n × (n − 1) × · · · × (n − p + 1)
(n − p)!

Exemple : Un joueur joue une combinaison au quinté lors d’une


course avec 20 partants.
Quelle est la propabilité que ce joueur gagne ?
quinté : choix de 5 chevaux parmi les 20 au départ + importance
de l’ordre d’arrivée.
Il y a donc A520 quintés possibles.

14/62
Cours de Probabilités et statistiques : Partie1

Probabilité conditionnelle
Définition
Soit P une probabilité sur un univers Ω, A et B 2 évènements avec
P(B) 6= 0. On appelle probabilité conditionnelle de A sachant B
réalisé, la quantité :

P(A ∩ B)
P(A|B) =
P(B)

Le réel P(A|B) se note aussi PB (A).

Exemple : Mon collègue M. Martin a 2 enfants. Je sais que l’un


des deux est une fille. Quelle est la probabilité que son autre enfant
soit un garçon ?
Un autre collègue, M. Durand, a, lui aussi, 2 enfants. Son ainé est
une fille. Quelle est la probabilité que l’autre enfant de M. Durand
soit un garçon ?
15/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple (1)

Ω = {(F , F ), (F , G ), (G , F ), (G , G )}. Card(Ω) = 4.


Situation d’équiprobabilité.
P(A∩B)
On cherche P(A|B) = P(B) , avec
A =”le second enfant de M. Martin est un garçon”
B =”M. Martin a une fille”.
B = {(F , F ), (F , G ), (G , F )}, card(B) = 3, P(B) = 43 .
A ∩ B = ”M. Martin a un garçon et une fille
= {(F , G ), (G , F )}
card(A ∩ B) = 2, P(A ∩ B) = 24 = 12 .
1
2
P(A|B) = 2
3 = 3
4

16/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple (2)

On cherche P(C |D) avec


D =”M. Durand a 2 enfants, son ainé est une fille”
C =”le second enfant de M. Martin est un garçon”.
2
D = {(F , F ), (F , G )}, card(D) = 2, P(D) = 4 = 12 .
C ∩D =
”L’ainé de M. Martin est une fille, le second un garçon” =
{(F , G )}
card(C ∩ D) = 1, P(C ∩ D) = 41 .
1
P(C |D) = 4
1 = 12 .
2

17/62
Cours de Probabilités et statistiques : Partie1

Probabilités totales
Définition
Soient Ω un univers associé à une expérience aléatoire et n ≥ 2.
Les évènements A1 , A2 , . . . , An forment une partition de Ω si les 3
conditions suivantes sont réalisées :
∀i ∈ {1, 2, . . . , n}, Ai 6=
∀i 6= j ∈ {1, 2, . . . , n}Ai ∩ Aj =
A1 ∪ A2 ∪ . . . An = Ω

Théorème
Soient A1 , A2 , . . . , An une partition de Ω, tel que
∀i ∈ {1, 2, . . . , n}P(Ai ) 6= 0 et B ⊂ Ω un évènement quelquonque.
Alors
P(B) = P(B ∩ A1 ) + P(B ∩ A2 ) + · · · + P(B ∩ An )
P(B) = P(B|A1 )P(A1 ) + P(B|A2 )P(A2 ) + · · · + P(B|An )P(An )
18/62
Cours de Probabilités et statistiques : Partie1

Formules des probabilités totales : exemple 1

Il existe 2 types de jumeaux : les vrais (issus d’un même oeuf) et


les faux (issus de 2 oeufs distincts). Les faux jumeaux sont 2 fois
plus nombreux que les vrais. Les vrais jumeaux sont nécessairement
de même sexe, alors que les faux sont de même sexe avec une
probabilité 12 .
Etant donné que les jumeaux sont de même sexe, quelle est la
probabilité qu’ils soient de vrais jumeaux ?

19/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple 1
V (resp. V̄ ) : vrais jumeaux (resp. faux jumeaux)
S : les jumeaux sont de même sexe
D’après l’énoncé :
P(V ) = 13 et P(V̄ ) = 23 .
P(S|V ) = 1 et P(S|V̄ ) = 12 .
P(V ∩S)
On cherche P(V |S) = P(S) .
P(V ∩ S) = P(S|V )P(V ) = 1 × 13 = 31 .
D’après la formule des probabilités totales,

P(S) = P(S ∩ V ) + P(S ∩ V̄ ) = P(S|V )P(V ) + P(S|V̄ )P(V̄ )


1 1 2 2
= 1× + × =
3 2 3 3
1
P(V ∩S)
P(V |S) = P(S) = 3
2 = 21 .
3
20/62
Cours de Probabilités et statistiques : Partie1

Exemple 2

Dans un pays sévit une terrible épidémie. Un test a été élaboré par
un laboratoire pharmaceutique.
si la personne testée est malade, le test est positif
si la personne testée n’est pas malade, le test est bien négatif
dans 98% des cas.
L’OMS estime que 1 personne sur 500 est malade.
Un médecin vient d’effectuer le test sur un des ses patients et il se
révèle positif.
Quelle est la probabilité que le patient soit malade ?

21/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple 2
On note
T + (resp. T − ) : le test est positif (resp. négatif)
M (resp.M̄) : la personne est malade (resp. saine).
D’après l’énoncé, on sait que
P(T + |M) = 1 => P(T − |M) = 0
P(T − |M̄) = 0.98 => P(T + |M̄) = 0.02
1
P(M) = 500 = 0.002
) +
On cherche P(M|T + ) = P(M∩TP(T + ) .
P(M ∩ T + ) = P(T + |M)P(M) = 1 × 0.002 = 0.002
et d’après la formule des probabiltés totales
P(T + ) = P(T + ∩ M) + P(T + ∩ M̄)
= P(T + |M)P(M) + P(T + |M̄)P(M̄)
= 1 × 0.002 + 0.02 ∗ (1 − 0.002) = 0.02196
P(M∩T + ) 0.002
22/62
P(M|T + ) = P(T + ) = 0.02196 = 0.091
Cours de Probabilités et statistiques : Partie1

Evénènements indépendants

Définition
A et B 2 évènements de probabilité non nulle
A et B sont indépendants lorsque la réalisation de l’un ne
change pas la réalisation de l’autre
A et B sont indépendants ssi P(A ∩ B) = P(A) × P(B)

Théorème
2 évènements A et B de probabilité non nulle sont indépendants
ssi ils vérifient une des 3 conditions :

P(A|B) = P(A) ou P(B|A) = P(B) ou P(A ∩ B) = P(A) × P(B)

23/62
Cours de Probabilités et statistiques : Partie1

Evénements indépendants : exemple

On extrait au hasard un jeton d’un sac contenant 6 jetons : 3


rouges numérotés 1, 2 et 3, 2 jaunes numérotés 1 et 2, et 1 bleu
numéroté 1. Soit les évènements :
R : le jeton est rouge
U : le numéro est 1
D : le numéro est 2
Les évènements R et U sont-ils indépendants ? et les évènements
R et D ?

24/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple

Ω = {R1, R2, R3, J1, J2, B1}


3 1
R = {R1, R2, R3}, P(R) = 6 = 2
3 1
U = {R1, J1, B1}, P(U) = 6 = 2
1
R ∩ U = {R1}, P(R ∩ U) = 6 6= P(R)P(U) R et U ne sont
pas indépendants.
2 1
D = {R2, J2}, P(D) = 6 =3
R ∩ D = {R2}, P(R ∩ D) = 16 = P(R) × P(D). R et D sont
indépendants.

25/62
Cours de Probabilités et statistiques : Partie1

Variables aléatoires
Définition
Une variable aléatoire X est une grandeur qui dépend de
l’expérience aléatoire et qui prend ses valeurs dans un ensemble
X (Ω), dit espace d’états, typiquement
X (Ω) = N, X (Ω) = R, X (Ω) = Rd .
Il s’agit d’une application X : Ω → X (Ω).

Définition
On appelle loi de probabilité de la v.a. X , notée PX l’application :
PX : P(X (Ω)) → [0; 1]
définie pour B ⊂ X (Ω) par

PX (B) = P({ω ∈ Ω; X (ω) ∈ B}) = P(X ∈ B)

C’est une probabilité sur X (Ω).


26/62
Cours de Probabilités et statistiques : Partie1

Variables aléatoires discrètes (1)

Définition
Une v.a. est dite discrète si elle varie de manière discontinue
(typiquement X (Ω) = N ou une partie de N).
Dans ce cas, PX est complètement décrite par la donnée
PX (x) = P(X = x), x ∈ X (Ω).

Définition
La distribution cumulée des probabilités s’appelle la la fonction de
répartition : F (x) = P(X ≤ x)

27/62
Cours de Probabilités et statistiques : Partie1

Variables aléatoires discrètes (2)

Propriétés
Si X est une v.a. discrète, sa fonction de répartition est une fct en
escalier, croissante par bonds successifs de telle sorte que :

∀x ∈ R, 0 ≤ F (x) ≤ 1

Exemple : On lance 2 dés parfaitement équilibrés. On note X le


plus grand des numéros obtenus. Déterminer la loi de la v.a. X .
Calculer sa fonction de répartition.

28/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple
Loi de la v.a. X :
X (Ω) = {1, 2, . . . , 6}
1
P(X = 1) = P((1, 1)) = 36 ,
3 5
P(X = 2) = P((1, 2), (2, 1), (2, 2)) = 36 , P(X = 3) = 36 ,
P(X = 4) = 36 , P(X = 5) = 36 , P(X = 6) = 11
7 9
36
Soit F la fct de répartition de X . Les seuls moments où F va
changer de valeurs sont 1, 2, 3, . . . , 6.
F (x) = P(X ≤ x) =

 0 si x < 1
 1


 P(X = 1) = 36 si 1 ≤ x < 2
4

= 1) + = 2) = 36 si 2 ≤ x < 3


 P(X P(X
9
P(X = 1) + · · · + P(X = 3) = 36 si 3 ≤ x < 4
16
= 1) + · · · + = 4) = 36 si 4 ≤ x < 5



 P(X P(X
25
P(X = 1) + · · · + P(X = 5) = 36 si 5 ≤ x < 6




36
P(X = 1) + · · · + P(X = 6) = 36 = 1 si x ≥ 6

29/62
Cours de Probabilités et statistiques : Partie1

Variables aléatoires continues (1)

Définition
Une v.a. susceptible de prendre n’importe quelle valeur réelle
appartenant à un intervalle donné (X (Ω) = R, X (Ω) = [0; +∞[,
X (Ω) = [a; b]) est dite v.a. continue.
Dans ce cas, PX est complètement décrite par sa fonction de
répartition F (x) = P(X ≤ x).

Dans cette situation,


F est continue sauf éventuellement en un nombre fini de
points
F est croissante, continue à droite, limitée à gauche
limx7→−∞ F (x) = 0 et limx7→+∞ F (x) = 1

30/62
Cours de Probabilités et statistiques : Partie1

Variables aléatoires réelles à densité

Définition
On dit que la v.a.r. X admet une densité f si sa loi PX est de
densité f , ie ∀[a; b[⊂ R, Z b
PX ([a; b[) = P(X ∈ [a; b[) = f (x)dx
a

Définition
Une fonction f définie sur un intervelle I ⊂ R est une densité de
probabilité sur I lorsque :
∀x ∈ I , f (x) ≥ 0
f est intégrable sur I
R
I f (x)dx = 1

31/62
Cours de Probabilités et statistiques : Partie1

Un exemple

Déterminer la valeurs de a ∈ R afin que la fonction f (x) = ax + 2


soit une densité de probabilité sur l’intervalle [0; 1].

Pour que f soit une densité de probabilité, il faut que :


f soit intégrable sur [0; 1]. Ceci est vrai pour toutes les valeurs
de a
f ≥ 0 => a ≥ −2
R +∞
f (x)dx = 1.
R−∞
+∞ R1 x2 1 a
−∞ f (x)dx = 0 (ax + 2)dx = [a 2 + 2x]0 = 2 +2=1⇔
a = −2
f (x) = (−2x + 2)1[0;1] (x)

32/62
Cours de Probabilités et statistiques : Partie1

Liens entre fonction de répartition et densité d’une v.a.

Soit X une v.a.r., F (x) = P(X ≤ x) sa fct de répartition.


Si X admet une densité f alors :
Rx
F (x) = P(X ≤ x) = −∞ f (t)dt
F est continue. De plus, si f est continue, alors F est
dérivable et, dans ce cas, F 0 = f
S’il existe X0 tel que P(X = x0 ) > 0, F n’est pas continue en
x0 et admet un saut de hauteur P(X = x0 )

33/62
Cours de Probabilités et statistiques : Partie1

Un exemple
Déterminer la fct de répartition de la v.a. définie par la densité du
transparent précédant.
On cherche la fct de répartition de la v.a. dont la densité est
f (x) = (−2x + 2)1[0;1] (x)
Z x Z x
F (x) = f (t)dt = (−2t + 2)1[0;1] (t)dt
−∞ −∞
= 0Z si x < 0
x
= (−2t + 2)dt = [−t 2 + 2t]x0 = −x 2 + 2x si 0 ≤ x < 1
0
Z 1
= (−2t + 2)dt = 1 sinon
0

 0 si x < 0
F (x) = −x 2 + 2x si 0 ≤ x < 1
1 sinon

34/62
Cours de Probabilités et statistiques : Partie1

Indépendance des variables aléatoires


Définition
Deux v.a. X et Y sont indépendantes si, ∀A ∈ X (Ω) et
∀B ∈ Y (Ω), on a :

P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B)

Dans le cas discret, pour tout couple (x, y ) de valeurs admissibles,

P(X = x, Y = y ) = P(X = x)P(Y = y )

Exemple : Soient X et Y 2 v.a. vérifiant :


X /Y 0 1 2
16 16 4
0 81 81 81
16 16 4
1 81 81 81
4 4 1
2 81 81 81
Les v.a. X et Y sont-elles indépendantes ?
35/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple

X /Y 0 1 2 P(X = .)
16 16 4 36
0 81 81 81 81
16 16 4 36
1 81 81 81 81
4 4 1 9
2 81 81 81 36
36 36 9
P(Y = .) 81 81 81 1
On peut vérifier que

∀(x, y ) ∈ {0, 1, 2}2 , P(X = x, Y = y ) = P(X = x)P(Y = y )

X et Y sont indépendantes.

36/62
Cours de Probabilités et statistiques : Partie1

Espérance mathématique ou moyenne

Définition
Soit X une v.a..
La moyenne ou espérance mathématique de X est définie par :
dans le cas discret, E(X ) = µ = +∞
P
i=0 xi P(X = xi )
R +∞
dans le cas continu, E(X ) = µ = −∞ xf (x)dx

Propriétés
∀a, b ∈ R, E(aX + b) = aE(X ) + b
Soient X et Y 2 v.a., alors E(X ± Y ) = E(X ) ± E(Y )
Soient X1 , X2 , . . . Xn n v.a., alors
E(X1 ± X2 ± · · · ± Xn ) = E(X1 ) ± E(X2 ) ± · · · ± E(Xn )

37/62
Cours de Probabilités et statistiques : Partie1

Un exemple

Soient X et Y les v.a. définies ds l’exemple précédant. Calculer


E(X ), E(Y ) et E(X − Y ).
E(X ) = 0 × P(X = 0) + 1 × P(X = 1) + 2 × P(X = 2) =
36 18 54 2
81 + 81 = 81 = 3
Y a la même loi que X . On dit que X et Y sont
2
identiquement distribuées. Donc E(Y ) = E(X ) = 3
E(X − Y ) = E(X ) − E(Y ) = 0

38/62
Cours de Probabilités et statistiques : Partie1

Variance (1)

Définition
La variance de X est définie par

Var (X ) = E[(X − E(X ))2 ] = E(X 2 ) − E2 (X )


P+∞
dans le cas discret, Var (X ) = i=0 xi2 P(X = xi ) − µ2
R +∞
dans le cas continu, Var (X ) = −∞ x 2 f (x)dx − µ2
p
La quantité σ = Var (X ) est appelé écart-type de X .
Une variable est dite centrée si µ = 0 et réduite si σ = 1

39/62
Cours de Probabilités et statistiques : Partie1

Variance (2)

Propriétés
∀a, b ∈ R, Var (aX + b) = a2 Var (X )
Soient X , Y 2 v.a. indépendantes alors
Var (X ± Y ) = Var (X ) + Var (Y )
Soient X1 , X2 , . . . , Xn n v.a. indépendantes, alors
Var (X1 ± X2 ± · · · ± Xn ) = Var (X1 ) + Var (X2 ) + · · · + Var (Xn )

40/62
Cours de Probabilités et statistiques : Partie1

Un exemple

Soient X et Y les v.a. définies ds l’exemple précédant. Calculer


Var (X ), Var (Y ) et Var (X − Y ).
Var (X ) = E(X 2 ) − (E(X ))2 .
E(X 2 ) = 02 × P(X = 0) + 12 × P(X = 1) + 22 × P(X = 2) =
36 36 72 8
81 + 81 = 81 = 9
Var (X ) = 72 2 2 4
81 − ( 3 ) = 9
4
Var (Y ) = Var (X ) = 9
Comme X et Y sont indépendantes,
Var (X − Y ) = Var (X ) + Var (−Y ) =
8
Var (X ) + (−1)2 Var (Y ) = Var (X ) + Var (Y ) = 9

41/62
Cours de Probabilités et statistiques : Partie1

Les principales distributions théoriques discrètes

42/62
Cours de Probabilités et statistiques : Partie1

La loi de Bernoulli (1)

Définition
Une épreuve de Bernoulli de paramètre p ∈]0; 1[ est une
expérience aléatoire comportant 2 issues :
le succès
l’échec
où p = P(succès), q = p − 1 = P(échec).
Sur l’univers {succès,échec}, on définit X : Ω → {0; 1} tel que
X = 1 en cas de succès, P(X = 1) = P(succès) = p
X = 0 en cas d’échec, P(X = 0) = P(échec) = 1 − p = q
X suit une loi de bernoulli, X ∼ B(p)

43/62
Cours de Probabilités et statistiques : Partie1

La loi de Bernoulli (2)

Propriétés

E(X ) = p, Var (X ) = p(1 − p)

Exemple : On lance une pièce de monnaie truquée pour laquelle la


probabilité d’obtenir Pile est 32 .
On note X la v.a. qui vaut 1 en cas de Pile et 0 sinon.
Quelle est la loi de X ?
X (Ω) = {0, 1}
P(X = 1) = P(P) = 23 , P(X = 0) = P(F ) = 1
3

2
X ∼ B( )
3

44/62
Cours de Probabilités et statistiques : Partie1

La loi Binomiale (1)

Définition
Si on répète n fois une épreuve de Bernoulli de paramètre p, les
épreuves étant indépendantes les unes des autres, on dit que l’on a
réalisé un schéma de Bernoulli de paramètres n et p.
Alors X : nombre de succès obtenus ds un schéma de Bernoulli suit
la loi binomiale, X ∼ B(n, p), ie
X (Ω) = {0, 1, . . . , n}
 
n
∀k ∈ X (Ω), P(X = k) = p k (1 − p)n−k
k

45/62
Cours de Probabilités et statistiques : Partie1

La loi Binomiale (2)

Propriétés
E(X ) = np, Var (X ) = np(1 − p)
Soient X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p) 2 v.a. indépendantes,
alors X1 + X2 ∼ B(n1 + n2 , p)
Soient X1 , X2 , . . . , Xn n v.a. indépendantes, identiquement
distribuées de loi B(p), p ∈]0; 1[, alors
X = X1 + X2 + · · · + Xn ∼ B(n, p)

Exemple : On lance 15 fois la pièce de l’exemple précédent. On


note Y le nombre de Pile obtenus lors dès 15 lancés.
1 Quelle est la loi de Y , son espérance, sa variance ?
2 Quelle est la probabilité d’obtenir au moins un Face lors des
15 lancés ?
46/62
Cours de Probabilités et statistiques : Partie1

Correction de l’exemple

1 On a n = 15 répétitions d’expériences de Bernoulli


(évènements de type succès / échec, où succès=obtention de
Pile) indépendantes (le résultat d’un lancé ne dépend pas des
lancés précédents). La loi de Y est donc une loi Binomiale de
paramètres n = 15 et p = P(succès) = P(P) = 23 .
Y ∼ B(15, 23 ), E(Y ) = np = 15 × 23 = 10, Var (Y ) =
np(1 − p) = 10 3
2

P(au - 1 F) = 1− P(aucun F) = 1 − P(15 P)


2 315 − 215
= 1 − ( )15 =
3 315
= 0.998

47/62
Cours de Probabilités et statistiques : Partie1

La loi géométrique (1)

Définition
Une v.a. X vérifiant :
X (Ω) = {1, 2, . . . , } = N∗
∀k ∈ X (ω), P(X = k) = (1 − p)k−1 p, p ∈]0; 1[
est dite loi géométrique de paramètre p, X ∼ G (p).

Typiquement, x ∼ G (p) représente le nombre d’épreuves


indépendantes nécessaires pour obtenir un premier succès avec
p = P(succès) à chaque épreuve.

48/62
Cours de Probabilités et statistiques : Partie1

La loi géométrique (2)


Propriétés
1 (1 − p)
E(X ) = , Var (X ) =
p p2

Exemple : On souhaite lancer la pièce de l’exemple précédent


jusqu’à obtenir un Face. On note Z le nbre de lancés nécessaires.
Quelle est la loi de Z , son espérance, sa variance ?
Z (Ω) = {1, 2, . . .} = N∗
Soit k ∈ Z (Ω),
P(Z = k) = P(Le premier F arrive au kième lancé) = P(PP . . . PF )
2 1
= P((k − 1) P puis 1 F ) = ( )k−1 ×
3 3
1 1 1 − 13
Z ∼ G ( ) , E(Z ) = 1 = 3, Var (Z ) = 1 2 = 6
3 3 (3)
49/62
Cours de Probabilités et statistiques : Partie1

La loi de poisson

Définition
Une v.a. X vérifiant :
X (Ω) = {0, 1, . . .} = N
λk −λ
∀k ∈ X (Ω), P(X = k) = k! e
est dite loi de poisson de paramètre λ, X ∼ P(λ).

Typiquement, X ∼ P(λ) représente le nombre d’évènements qui


interviennent dans un intervalle de temps donné.
Propriétés
E(X ) = λ, Var (X ) = λ
Soient X1 ∼ P(λ1 ) et X2 ∼ P(λ2 ) 2 v.a. indépendantes,
alors X1 + X2 ∼ P(λ1 + λ2 )

50/62
Cours de Probabilités et statistiques : Partie1

Tableaux récapitulatifs des lois des variables discrètes


usuelles

Loi X (Ω) P(X = k) Espérance Variance


B(p) {0; 1}   = 1) = p
P(X p p(1 − p)
n
B(n, p) {0, 1, .., n} p k (1 − p)n−k np np(1 − p)
k
λk −λ
P(λ) N k! e λ λ
1−p
G (p) N∗ (1 − p)k−1 p 1
p p2

51/62
Cours de Probabilités et statistiques : Partie1

Les principales distributions théoriques continues

52/62
Cours de Probabilités et statistiques : Partie1

La loi Uniforme (1)

Définition
Une v.a. X suit une loi Uniforme sur [a, b], et on note
X ∼ U ([a, b]) si elle admet comme densité :
 1
1 b−a si x ∈ [a, b]
f (x) = 1 (x) =
b − a [a,b] 0 sinon

53/62
Cours de Probabilités et statistiques : Partie1

La loi Uniforme (1)

Une loi uniforme sur [a, b] décrit le phénomène qui consiste à


prendre une valeur au hasard dans un ss-intervalle fixé de [a, b].

54/62
Cours de Probabilités et statistiques : Partie1

La loi Uniforme (2)

Propriétés

 0 si x < a
x−a
F (x) = si x ∈ [a; b[
 b−a
1 si x ≥ b
b+a (b−a)2
E(X ) = 2 , Var (X ) = 12

55/62
Cours de Probabilités et statistiques : Partie1

La loi Exponentielle

Définition
La loi exponentielle décrit la distribution d’une v.a. continue X
qui peut prendre seulement des valeurs positives selon la densité :

λe −λx si x ≥ 0

−λx
f (x) = λe 1[0;+∞[ =
0 sinon

Une telle loi est notée X ∼ E (λ).

Une variable de loi exponentielle représente le temps d’attente pour


la réalisation d’un évènement ou le temps écoulé entre 2
réalisations successives d’un évènement.

56/62
Cours de Probabilités et statistiques : Partie1

Propriétés d’une loi exponentielle

Propriétés
F (x) = (1 − e −λx )1[0;+∞[ (x)
E(X ) = λ1 , Var (X ) = 1
λ2
La loi exponentielle est une loi sans mémoire,

P(X > t + h|X > h) = P(X > t)

57/62
Cours de Probabilités et statistiques : Partie1

La loi normale N (m, σ 2 ), dite aussi loi de


Gauss-Laplace

Définition
La densité d’une v.a. X de loi normale, X ∼ N (m, σ 2 ) est donnée
par :
1 (x − m)2
f (x) = √ exp(− )
2πσ 2σ 2

Cette loi est utilisée pour représenter les mesures d’une


caractéristique (hauteur, poids, rendement, ...) étudiées sur une
population.
La distribution normale est entièrement définie par 2 paramètres :
la moyenne m et l’écart-type σ

58/62
Cours de Probabilités et statistiques : Partie1

La loi normale N (m, σ 2 ) (2)

59/62
Cours de Probabilités et statistiques : Partie1

La loi normale N (m, σ 2 ) (3)

Propriétés
La fct de répartition F ne peut être calculée de façon exacte
Si X ∼ N (m, σ 2 ), E(X ) = m, Var (X ) = σ 2
Soit X ∼ N (m, σ 2 ) et a, b ∈ R, a 6= 0. Si Y = aX + b alors
Y ∼ N (am + b, a2 σ 2 )
Soient X1 ∼ N (m1 , σ12 ) et X2 ∼ N (m2 , σ22 ) 2 v.a.
indépendantes, alors X1 + X2 ∼ N (m1 + m2 , σ12 + σ22 )
Une v.a. X ∼ N (m, σ 2 ) ssi Y = X −m
σ ∼ N (0, 1) dite loi
normale centrée réduite

60/62
Cours de Probabilités et statistiques : Partie1

Approximations d’une loi binomiale

Lorsque n est grand, travailler avec une loi binomiale s’avère


compliqué. On peut alors approcher cette loi par :
une loi de poisson
une loi normale
Procédure de choix : soit X ∼ B(n, p)
Si n < 30 : aucune approximation
Si n ≥ 30 :
si np(1 − p) ≥ 10 : X ≈ N (np, np(1 − p))
si np(1 − p) < 10 :
si np < 10 : X ≈ P(np)
si n(1 − p) < 10 : Y = n − X ≈ P(n(1 − p))

61/62
Cours de Probabilités et statistiques : Partie1

Tableaux récapitulatifs des densités usuelles

Nom de la loi densité espérance variance


Loi uniforme
(b−a)2
U ([a, b]) f (x) = 1
b−a 1[a,b] (x)
a+b
2 12
a<b
Loi exponentielle
E (λ) f (x) = λe −λx 1[0;+∞[ (x) 1
λ
1
λ2
λ>0
(x−m)2
Loi normale f (x) = √ 1 exp(− ) m σ2
2πσ 2σ 2
N (m, σ 2 )

62/62

Vous aimerez peut-être aussi