Probabilité
Arrangement avec répétition : 𝑛𝑝
𝑛!
Arrangement sans répétition : 𝑛𝐴𝑝 =
(𝑛−𝑝)!
𝑛!
Permutation sans répétition :
𝑛1!∗𝑛2!….∗𝑛𝑝!
Permutation avec répétition : 𝑛!
𝑛!
Combinaisons sans répétition : 𝑛𝐶𝑝 =
𝑝!∗(𝑛−𝑝)!
𝑝
Coefficients binomiaux : 𝐶𝑛
Propriétés :
𝐶𝑛𝑝 = 0 𝑠𝑖 𝑝 > 0
𝐶𝑛𝑝 = 𝐶𝑛𝑛−𝑝
𝐶𝑛𝑝 = 𝐶𝑛−1
𝑝−1 𝑝
+ 𝐶𝑛−1
Préliminaires :
est l’élément l’univers.
A est un évènement sous ensemble.
AB est réalisé si A ou B réalisé.
AB est réalisé Ssi A et B sont réalisés.
est l’événement impossible.
A et B sont incompatibles Ssi AB= .
𝐴̅ est l’événement contraire de A.
𝐴̅ A=, 𝐴̅ A=.
Probabilité : 𝒫 (Ω) 𝑒𝑛𝑠𝑒𝑚𝑏𝑙𝑒 𝑑𝑒 𝑝𝑎𝑟𝑡𝑖𝑒𝑠 𝑑𝑒 Ω :
Si = {P, F} ⟹ 𝒫(Ω) = {, , 𝑃 𝐹}
P ()=1
P ()=0
PAGE 1
𝑃(𝐴̅) = 1 − 𝑃(𝐴)
P(AB)=P(A)+P(B)-P(AB)
P(A)=P(AB)-P(A𝐵̅)
𝑐𝑎𝑟𝑑(𝐴)
P(A)=
𝑐𝑎𝑟𝑑(Ω)
Ssi Est fini et équiprobable
Système complet d’événement (S) : Ssi A1, A2,…... An sont
incompatibles.
⇔ 𝐴𝑖 ∩ 𝐴𝑗 = ∅ 𝑒𝑡 𝐴1 ∪ 𝐴2 … ∪ 𝐴𝑛 = Ω
∀ 𝐴 ∈ 𝑆: 𝑝(𝐴) = ∑ 𝑝(𝐴 ∩ 𝐴𝑖 ) = ∑ 𝑝(𝐴\𝐴𝑖 ) ∗ 𝑝(𝐴𝑖 )
Probabilités conditionnels : première formule de
𝑝(𝐴∩𝐵)
BAYES :𝑝(𝐴\𝐵 ) =
𝑝(𝐵)
Propriétés :
𝑝(𝐴\∅) 𝑒𝑠𝑡 𝑖𝑚𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒 𝑐𝑎𝑟 𝑝(∅) = 0
𝑝(𝐴 ∩ 𝐵) = 𝑝(𝐴\𝐵) ∗ 𝑝(𝐵) = 𝑝(𝐵\𝐴) ∗ 𝑝(𝐴)
𝑝(𝐴̅\𝐵) = 1 − 𝑝(𝐴\𝐵)
𝑝(𝐴\𝐵) = 𝑝(𝐴) ⇒ 𝐴𝑒𝑡𝐵 𝑠𝑜𝑛𝑡 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠
Indépendance de deux évènements :
A et B sont indépendants SSI 𝑝(𝐴 ∩ 𝐵) = 𝑝(𝐴) ∗ 𝑝(𝐵)
Propriétés :
Si A et B sont indépendants :
𝑝(𝐴\𝐵) = 𝑝(𝐴)
A et 𝐵̅ sont indépendants
𝐴̅ et 𝐵̅ sont indépendant
Variables aléatoires discrets :
PAGE 2
La variable est une application dont on associe chaque
évènement A à un nombre x réel note x ().
La loi de probabilités d’une variable aléatoire : expression
des probabilités de variables aléatoires.
xi I1 I2 …… In
Pi P1 P2 …… Pn
Paramètres d’une loi de probabilité :
L’espérance : 𝐸 (𝑥) = ∑ 𝑥𝑖 ∗ 𝑃𝑖
E(a)=a ; cte
E (k*x)= k*E(x)
E(x+y)=E(x)+E(y)
La variance : V(x)=E(x-E(x)) 2 =E(x2)-E2(x)
V (a) =0
V (kx) =K2*V(x)
V(x+k) =V(x)
Ecart-type : 𝑒(𝑥) = √𝑉(𝑥)
Fonction de masse : F(x)=p(x) ; si x x () alors f(x)=0
Sa représentation est en bâton.
Fonction de répartition : F(x)=p (xix) ; (comme le cas
de fréquence cumulées croissante)
Sa représentation est un diagramme cumulatif
- F est croissant
- P(x>b)=1-p(xb)
- P(x<b)=p(xb)-p(b)=F(b)-p(b)
- P(a<xb)=F(b)-F(a)
- P(a<x<b)=p(x<b)-F(a)
- P(a=<x<b)=p(x<b)-p(x<a)
PAGE 3
- P(axb)=F(b)-p(x<a)
Loi uniforme :
𝑆𝑠𝑖 𝑋 () = {1,2 … , 𝑛} 𝑒𝑡 𝑝 (𝑥𝑖) = 1/𝑛
𝑛+1
𝐸 (𝑥 ) =
2
𝑛2 −1
𝑉(𝑥) =
12
Loi de Bernoulli :
𝑆𝑖 𝑋 (Ω) = {0,1} 𝑒𝑡 𝑝(0) = 1 − 𝑝 \ p = p (1) on note:
𝑋~𝐵𝑒(𝑝) X suit la loi de Bernoulli du paramétré p.
E(x)=p
V(x) = p*(1-p)
Loi binomiale :
- Répétition d’une épreuve Bernoulli n fois.
- Les résultats des épreuves sont indépendants
- X nombre de succès par n fois
On dit XB (n, p)
𝑝(𝑘) = 𝐶𝑛𝑘 ∗ 𝑝𝑘 ∗ (1 − 𝑝)𝑛−𝑘
𝐸 (𝑥 ) = 𝑛 ∗ 𝑝
𝑉 (𝑥 ) = 𝑛 ∗ 𝑝 ∗ (1 − 𝑝)
Loi géométrique *: répétition d’épreuve binomiale jusqu’à l’obtention d’un succès.
XG (p)
𝑝(𝑘) = 𝑝 ∗ (1 − 𝑝)𝑘−1
1
𝐸 (𝑥 ) =
𝑝
1−𝑝
𝑉 (𝑥 ) =
𝑝2
PAGE 4
Loi géométrique : XG (p)
𝑝(𝑘) = 𝑝 ∗ (1 − 𝑝)𝑘
1−𝑝
𝐸 (𝑥 ) =
𝑝
1−𝑝
𝑉 (𝑥 ) =
𝑝2
Loi hypergéométriques :
On considère : N contenant N1 et N2
On tire : n fois une composante de N et on considère X la
variable aléatoire relative aux composantes N1 tirés pendant
n fois.
X varie entre : Max (0, n-N2) et Min (n, N1)
(Si N2<n on peut tirer à la min n-N2 du composante N1,
sinon on peut rien tirer ; si n<N1 on peut tirer au max n
composantes de N1 sinon on peut tirer N1 complète.)
On dit X H (n, N, p=N1/N)
𝑘 𝑛−𝑘
𝐶𝑁1 ∗𝐶𝑁2
𝑝(𝑘) = 𝑛
𝐶𝑁
𝐸 (𝑥 ) = 𝑛 ∗ 𝑝
𝑁−𝑛
𝑉 (𝑥 ) = 𝑛 ∗ 𝑝 ∗ (1 − 𝑝) ∗
𝑁−𝑁1
Loi de poisson : L’étude d’événement rare dont la moyenne
est : XP ()
𝜆𝑘
𝑝(𝑘) = 𝑒 −𝜆
∗
𝑘!
𝐸 (𝑥 ) = 𝜆
𝑉 (𝑥 ) = 𝜆
Si X1P(1), X2P(2),…. XnP(n)Y =XiP(i)
PAGE 5
Convergence de la loi hypergéométrique vers la loi
binomiale :
Si X H (n, N, p) avec n/N < 0.1 X B (n, p)
Convergence de la loi binomiale vers la loi de poisson :
XB (n, p) avec n>30 et p <0.1 XP (n*p)
Loi de probabilités continues :
Variable aléatoire continue peut prendre les valeurs d’un
intervalle. Avec X () est une union des intervalles.
Une fonction est dite une densité de probabilités Ssi : f est
+∞
continue et positive sur ℝ, ∫−∞ 𝑓 (𝑥 )𝑑𝑥 = 1
.
𝑃(𝑥 ∈ 𝐵) = ∫𝐵 𝑓 (𝑥 )𝑑𝑥
Propriétés :
P(x = a) = 0
+∞
P(x > a) = P(x ≥ a) = ∫a f(x)dx
P(a < x < b) = P(a ≤ x < b) = P(a < x ≤ b) =
b
P(a ≤ x ≤ b) = ∫a f(x)dx
P(x > a) = 1 − P(x ≤ a)
+∞
L’espérance : E(x) = ∫−∞ xf(x)dx
2
La variance : V(x) = E(x − E(x)) = E(x2) − E 2 (x) =
+∞
∫−∞ x 2 f(x)dx − E 2 (x)
x
Fonction de répartition : f(x) = p(X ≤ x) = ∫−∞ f(t)dt
Loi uniforme continue :
1
𝑓(𝑥 ) = 𝑠𝑖 𝑥 ∈ [𝑎; 𝑏]
{ 𝑏−𝑎 ⇒ 𝑋 𝑈 [𝑎, 𝑏]
𝑓 (𝑥 ) = 0 𝑠𝑖𝑛𝑛
PAGE 6
𝑎+𝑏
- 𝐸 (𝑥 ) =
2
(𝑏−𝑎)2
- 𝑉 (𝑥 ) =
12
𝑓 (𝑥 ) = 0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
- {𝑓 (𝑥 ) = 𝑠𝑖 𝑎 < 𝑥 < 𝑏
𝑏−𝑎
𝑓 (𝑥 ) = 1 𝑠𝑖 𝑥 > 𝑏
Loi exponentielle :
𝑓(𝑥 ) = 𝑒 −𝑥 𝑠𝑖 𝑥 ≥ 0
{ ⇒ 𝑋 𝐸 (𝑝 = )
𝑓 (𝑥 ) = 0 𝑠𝑖 𝑥 < 0
1
- 𝐸 (𝑥 ) =
1
- 𝑉 (𝑥 ) = 2
𝑓(𝑥 ) = 0 𝑠𝑖 𝑥 < 0
- {
𝑓(𝑥 ) = 1 − 𝑒 −𝑥 𝑠𝑖 𝑥 ≥ 0
Loi normale :
1 1 𝑥−𝜇 2
𝑓 (𝑥 ) = 𝑒 −2
( ) ⇒ 𝑋 𝑁(𝜇, 𝜎)
√2𝜋𝜎 𝜎
- 𝐸 (𝑥 ) = 𝜇
- 𝑉 (𝑥 ) = 𝜎 2
- 𝑓 𝑠𝑦𝑚é𝑡𝑟𝑖𝑞𝑢𝑒 à 𝑥 = 𝜇
Loi normale centrée réduite :
- 𝑋𝑁 (0,1)
𝑎
- 𝜙(𝑎) = 𝑝(𝑋 ≤ 𝑎) = 𝑝(𝑋 < 𝑎) = ∫−∞ 𝑓(𝑥 )𝑑𝑥
- 𝑝(𝑎 ≤ 𝑥 ≤ 𝑏) = 𝜙(𝑏) − 𝜙(𝑎)
- 𝜙(−𝑎) = 1 − 𝜙(𝑎)
- 𝑝(−𝑎 ≤ 𝑥 ≤ 𝑎) = 2𝜙(𝑎) − 1
- 𝑝(𝑥 > −𝑎) = 𝑝(𝑥 < 𝑎) = 𝜙(𝑎)
PAGE 7
𝑋−𝜇
Si 𝑋𝑁(𝜇, 𝜎) 𝑎𝑙𝑜𝑟𝑠 𝑇𝑁 (0,1) 𝑎𝑣𝑒𝑐 𝑇 =
𝜎
𝑋−𝜇 𝑎−𝜇 𝑎−𝜇 𝑎−𝜇
𝐹𝑥 (𝑎) = 𝑝(𝑥 ≤ 𝑎) = 𝑝 ( ≤ ) = 𝑝 (𝑇 ≤ ) = 𝜙( )
𝜎 𝜎 𝜎 𝜎
PAGE 8