0% ont trouvé ce document utile (0 vote)
224 vues5 pages

Résumé des probabilités finies

Transféré par

arthur staline
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
224 vues5 pages

Résumé des probabilités finies

Transféré par

arthur staline
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours et exercices de mathématiques : [Link]

com/

I. Espaces probabilités finis


1) Univers, événements
L’ensemble des résultats possibles d’une expérience aléatoire est un ensemble Ω appelé univers. Ω est l’ensemble des cas
possibles ou des éventualités ou des issues. En sup, Ω est fini.
Si Ω est un univers fini. Une partie de Ω est un événement. L’ensemble des événements est donc P(Ω).
Ω est l’événement certain, ∅ est l’événement impossible, un singleton {ω} (où ω ∈ Ω) est un événement élémentaire.
2) Opérations sur les événements
Si A et B sont deux événements, CΩ A est l’événement contraire de A, A∪B est la réunion de A et B, A∩B est l’intersection
de A et B.
A et B sont incompatibles ssi A ∩ B = ∅. Si A ⊂ B, on dit que A implique B.
[
Un système complet d’événements est une famille (Ai )16i6n telle que ∀i 6= j, Ai ∩ Aj = ∅ et Ai = Ω.
16i6n

3) Probabilité
Soit Ω un univers fini. Une probabilité sur Ω est une application P de P(Ω) dans [0, 1] telle que
1) P(Ω) = 1
2) pour tous événements A et B tels que A ∩ B = ∅, P(A ∪ B) = P(A) + P(B).
Dans ce cas, (Ω, P) est un espace probabilisé.
4) Calculs de probabilités
Théorème.
• P(∅)= 0.
• P A = 1 − P(A).
• Si A ⊂ B, P(A) 6 P(B) (croissance d’une probabilité). Dans ce cas, P(B \ A) = P(B) − P(A).
• P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
• Si A1 , . . . An sont deux à deux incompatibles, P (A1 ∪ . . . ∪ An ) = P (A1 ) + . . . + P (An )
Si de plus (Ai )16i6n est un système complet d’événements, alors P (A1 ) + . . . + P (An ) = 1 et pour tout événement B,
n
X
P(B) = P (B ∩ Ai ).
i=1

Théorème. Pour tout ω de Ω, on pose pω = P ({ω}).


X
• pω = 1
ω∈Ω
X
• ∀A ∈ P(Ω), P(A) = pω .
ω∈A

1
Théorème (cas de l’équiprobabilité des cas possibles).
1 card(A) nombre de cas favorables
Si ∀ω ∈ Ω, pω = , alors ∀A ∈ P(Ω), P(A) = = .
card(Ω) card(Ω) nombre de cas possibles

II. Probabilités conditionnelles


P(B ∩ A)
Soit A un événement tel que P(A) 6= 0. La probabilité de B sachant A est PA (B) = .
P(A)
Théorème. L’application PA : P(Ω) → R est une probabilité sur Ω.
B 7→ PA (B)
Théorème. Pour tous A et B, P(A ∩ B) = PA (B) × P(A) si P(A) 6= 0 .
= PB (A) × P(B) si P(B) 6= 0
Théorème (formule des probabilités totales). Soit (Ai )16i6n un système complet d’événements tels que ∀i ∈ J1, nK,
P (Ai ) 6= 0, alors
n
X
∀B ∈ P(Ω), P(B) = P (Ai ) × PAi (B).
i=1
 
En particulier, si P(A) 6= 0 et P A 6= 0, P(B) = P(A) × PA (B) + P A × PA (B).

Théorème (formule de Bayes (inversion d’une probabilité conditionnelle)). Soit (Ai )16i6n un système complet
d’événements tels que ∀i ∈ J1, nK, P (Ai ) 6= 0, alors pour tout B tel que P(B) 6= 0,

P (Ai ) × PAi (B)


∀i ∈ J1, nK, PB (Ai ) = n .
X
P (Ai ) × PAi (B)
i=1

P (A) × PA (B)
En particulier, PB (A) =  .
P(A) × PA (B) + P A × PA (B)

III. Indépendance
A et B sont indépendants si et seulement si P(A∩B) = P(A)× P(B). Si P(A) 6= 0, il revient au même de dire PA (B) = P(B).
Théorème. Si A et B sont indépendants, alors A et B, A et B, A et B sont indépendants.
Soient A1 , . . . , An , n événements.
A1 , . . . , An sont deux à deux indépendants ⇔ ∀i 6= j, !
P (Ai ∩ Aj ) = P (Ai ) × P (Aj ).
\ Y
A1 , . . . , An sont indépendants ⇔ ∀I ⊂ J1, nK, P Ai = P (Ai ).
i∈I i∈I

Théorème. indépendants ⇒ deux à deux indépendants.


6⇐

IV. Variables aléatoires sur un univers fini


1) Variables aléatoires. Loi d’une variable aléatoire
Soit Ω un univers fini. Une variable aléatoire associée à cet univers est une application X de Ω dans un certain ensemble
E. Si E = R, X est une variable aléatoire réelle.
Variable indicatrice. Soit A un événement. La variable X : → Ω R est la variable indicatrice de
1 si ω ∈ A
ω 7→
0 si ω ∈/A
l’événement A. On peut la noter 1A . Elle est utilisée dans une démonstration de l’inégalité de Bienaymé-Tchebychev.
Quelques notations.
• Si X est une variable
√ aléatoire sur Ω et f une application définie sur X(Ω), on peut définir f ◦ X (souvent notée f(X)).
Par exemple, X2 , X, eX . . .
• Si A est une partie de E (E = R en général), l’événement {X ∈ A} est l’événement X−1 (A) = {ω ∈ Ω/ X(ω) ∈ A}.
Si x est un élément de E, l’événement {X = x} est l’événement X−1 ({x}) = {ω ∈ Ω/ X(ω) = x}.
Si X est une variable réelle, {X 6 x} = X−1 (] − ∞, x]) = {ω ∈ Ω/ X(ω) 6 x}.

2
Loi de probabilité d’une variable aléatoire. Soit X une variable aléatoire sur un espace probabilisé fini (Ω, P).
L’application X(Ω) → [0, 1] est une probabilité sur X(Ω) appelée loi de X. La loi de X peut aussi être l’application
x 7→ P(X = x)
plus générale P(X(Ω)) → [0, 1] . On note PX la loi de X.
A 7→ P(X ∈ A)
X X
Théorème. P(X = x) = 1. Pour toute partie A de X(Ω), P(X ∈ A) = P(X = x).
x∈X(Ω) x∈A

Théorème (loi de f(X)). La loi de f(X) est :


X
∀y ∈ f(X(Ω)), P(f(X) = y) = P(X = x).
x∈f−1 ({y})

Par exemple, si Y = X2 , P (Y = 1) = P X2 = 1 = P(X = 1) + P(X = −1).
2) Espérance, variance, écart-type
a) Espérance Si X prend les valeurs x1 , . . . , xn , l’espérance de X est
n
X X
E(X) = xk P (X = xk ) = xP(X = x).
k=1 x∈X(Ω)

L’espérance de la variable indicatrice 1A d’un événement A est P(A).


Théorème (linéarité). L’espérance est une forme linéaire c’est-à-dire E(X + Y) = E(X) + E(Y) et E(λX) = λE(X).
En particulier, E(aX + b) = aE(X) + b.
Si X est d’espérance nulle, X est centrée. Si X est une variable réelle quelconque, X − E(X) est la variable centrée associé
à X.
Théorème (positivité, croissance). Si X est une variable aléatoire réelle positive, alors E(X) > 0.
Si X est Y sont des variables aléatoires telles que X 6 Y, alors E(X) 6 E(Y).
Théorème (inégalité de Markov). Si X est une variable réelle positive,

E(X)
∀a > 0, P(X > a) 6 .
a
Démonstration. Soit a > 0. Soit A = {X > a}. Soit ω ∈ Ω.
X X(ω) a
• Si ω ∈ A, 1A (ω) = 1 et (ω) = > = 1 = 1A (ω).
a a a
X(ω)
• Si ω ∈
/ A, 1A (ω) = 0 6 .
a  
X X X E(X)
Donc, ∀ω ∈ Ω, 1A (ω) 6 (ω) ou encore 1A 6 . Par croissance de l’espérance, E (1A ) 6 E = avec
a a a a
E (1A ) = P(A) = E(X > a).
X
Théorème de transfert. L’espérance de f(X) est E(f(X)) = f(x)P(X = x).
x∈X(Ω)

b) Variance, écart-type.
X
Définition. Le moment d’ordre k de X est E Xk = xk P(X = x).


x∈X(Ω)
X
Définition. La variance de X est V(X) = E (X − E(X))2 = P(X = x) × (x − E(X))2 .


x∈X(Ω)

Théorème (formule de Koenig-Huygens). V(X) = E (X − E(X))2 = E X2 − (E(X))2 .


 

Théorème. V(aX + b) = a2 V(X).


p
Définition. L’écart-type de X est σ(X) = V(X). Une variable X telle que E(X) = 0 et σ(X) = 1 est dite centrée réduite.
X − E(X)
Si X est une variable d’écart-type non nul, est centrée réduite et est la variable centré réduite associée à X.
σ(X)

3
Théorème (inégalité de Bienaymé-Tchebychev).

V(X)
∀ε > 0, P(|X − E(X)| > ε) 6 .
ε2
 2
X − E(X)
Démonstration. On applique l’inégalité de Markov à la variable . L’événement {|X − E(X)| > ε} est
  ε
2  2
X − E(X) X − E(X)
l’événement > 1 . Puisque la variable est positive et que 1 > 0,
ε ε
 2 !
1 X − E(X) 1  V(X)
P{|X − E(X)| > ε} 6 E = 2 E (X − E(X))2 = 2 .
1 ε ε ε

V. Couples de variables aléatoires, n-uplets de variables aléatoires


1) Couples, n-uplets
Définition. Soient Ω un univers fini et X et Y deux variables aléatoires sur Ω à valeurs dans E et E ′ respectivement.
L’application (X, Y) : Ω → E × E′ est un couple de variables aléatoires sur Ω. Si E = E ′ = R, (X, Y) est
ω 7→ (X(ω), Y(ω))
une couple de variables aléatoires réelles sur Ω.
Plus généralement, un n-uplet de variables aléatoires réelles sur Ω est (X1 , . . . , Xn ) : Ω → Rn
ω 7→ (X1 (ω), . . . , Xn (ω))

Définition. Si X et Y sont deux variables aléatoires sur l’espace probabilisé fini (Ω, P), alors la loi conjointe de X et Y est
la loi du couple (X, Y). Donner la loi conjointe du couple (X, Y), c’est donner les P((X, Y) = (x, y)) = P({X = x} ∩ {Y = y}),
x ∈ X(Ω), y ∈ Y(Ω). Les lois marginales (car on les retrouve en marge) du couple (X, Y) sont les lois de X et de Y.
Théorème. La loi conjointe détermine les lois marginales :
X
∀x ∈ X(Ω), P(X = x) = P({X = x} ∩ {Y = y}).
y∈Y(Ω)
X
∀y ∈ Y(Ω), P(Y = y) = P({X = x} ∩ {Y = y}).
x∈X(Ω)

Par exemple, si la loi du couple (X, Y) est

Y c d
X
1 1
a 12 6
1 5
b 8 8

1 1 1
la première loi marginale du couple (X, Y) est P(X = a) = P((X = A) ∩ (Y = c)) + P(X = a) ∩ (Y = d)) = + = ,
12 6 4
1 5 3
P(X = b) = + = ...
8 8 4

Y c d loi de X
X
1 1 1
a 12 6 4
1 5 3
b 8 8 4
5 19
loi de Y 24 24 1

Définition (lois conditionnelles). Si pour tout y ∈ Y(Ω), P(Y = y) 6= 0, on peut définir la loi de X sachant que Y = y :
P((X = x) ∩ (Y = y)) P((X, Y) = (x, y))
∀x ∈ X(Ω), PY=y (X = x) = = .
p(Y = y) p(Y = y)
Si pour tout x ∈ X(Ω), P(X = x) 6= 0, on peut définir la loi de Y sachant que X = x : ∀y ∈ Y(Ω),
P((X = x) ∩ (Y = y))
PX=x (Y = y) = .
p(X = x)
Les lois conditionnelles sont déterminées par la loi conjointe et les lois marginale et donc par la loi conjointe uniquement.

4
2) Indépendance
a) de deux variables
Définition. X et Y sont indépendantes si et seulement si ∀(x, y) ∈ X(Ω) × Y(Ω), P((X = x) ∩ (Y = y)) = P(X = x) × P(Y = y).

b) d’un n-uplet de variables


Définition. X1 , . . . ,Xn sont deux à deux indépendantes si et seulement si ∀i 6= j, Xi et Xj sont indépendantes. Ceci
équivaut à ∀i 6= j, ∀(xi , xj ) ∈ Xi (Ω) × Xj (Ω), P((Xi = xi ) ∩ (Xj = xj )) = P(Xi = xi ) × P(Xj = xj ).
Définition. X1 , . . . ,Xn sont indépendantes si et seulement si ∀(x1 , . . . , xn ) ∈ X1 (Ω) × Xn (Ω), les événements {X1 = x1 },
. . . {Xn = xn } sont indépendants.
Théorème. Si les variables X1 , . . . , Xn sont indépendantes, alors les variables X1 , . . . , Xn sont deux à deux indépendantes.
Réciproque fausse.
Théorème. Si les variables X1 , . . . , Xn sont indépendantes, alors pour toutes fonctions f1 , . . . , fn , les variables f1 (X1 ),
. . . , fn (Xn ) sont indépendantes.
3) Covariance
a) Cas général
Définition. La covariance du couple (X, Y) est cov(X, Y) = E((X − E(X))(Y − E(Y))).
X
Théorème. cov(X, Y) = E(XY) − E(X)E(Y) avec E(XY) = xy P((X = x) ∩ (Y = y)).
(x,y)∈X(Ω)×Y(Ω)

1
Théorème. V(X + Y) = V(X) + V(Y) + 2cov(X, Y) et donc aussi cov(X, Y) = (V(X + Y) − V(X) − V(Y)).
2
n
X X
Plus généralement, V (X1 + . . . + Xn ) = V (Xi ) + 2 cov (Xi , Xj ).
i=1 16i<j6n

Théorème. |cov(X, Y)| 6 σ(X)σ(Y).


b) Cas de variables indépendantes
Théorème. Si X et Y sont indépendantes,
• E(XY) = E(X)E(Y) ;
• cov(X, Y) = 0 ;
• V(X + Y) = V(X) + V(Y).
Théorème. Si X1 , . . . ,Xn sont deux à deux indépendantes (et en particulier si X1 , . . . ,Xn sont indépendantes),

V (X1 + . . . + Xn ) = V (X1 ) + . . . + V (Xn ) .


Si X1 , . . . ,Xn sont indépendantes (et pas seulement deux à deux indépendantes),

E (X1 . . . Xn ) = E (X1 ) × . . . × E (Xn ) .

Vous aimerez peut-être aussi