0% ont trouvé ce document utile (0 vote)
20 vues7 pages

Résumé des probabilités et variables aléatoires

Transféré par

ayamoka747
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
20 vues7 pages

Résumé des probabilités et variables aléatoires

Transféré par

ayamoka747
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Résumé de cours :

Semaine 34, du 17 juin au 21 juin.

Les probabilités
1 Espaces probabilisés
Définition. On appelle tribu, ou σ-algèbre sur un ensemble Ω tout ensemble F de parties de Ω
vérifiant : Ω ∈ F, F est stable par passage au complémentaire
[ (si F ∈ F alors Ω \ F ∈ F) et F est
stable par réunion dénombrable (si (Fn )n∈N ∈ F , alors
N
Fn ∈ F).
n∈N
Vocabulaire spécifique aux probabilités : Avec les notations précédentes,
 Ω s’appelle l’univers.
 Les éléments de F s’appellent les événements.
 Si {ω} ∈ F, on dit que c’est un événement élémentaire.
 ∅ est l’événement impossible.
 Si A est un événement, Ω \ A est l’événement contraire de A.
 Si A et B sont deux événements, A ∩ B est l’événement “A et B”, A ∪ B est l’événement “A ou B”.
Lorsque A ∩ B = ∅, les deux événement A et B sont dits incompatibles.
Définition. Soit F une tribu sur un univers Ω. On appelle système complet d’événements toute
famille (Ai )i∈I (où I est fini ou dénombrable) d’événements 2 à 2 disjoints dont la réunion vaut Ω.
Définition. Si F est une tribu sur un univers Ω, on dit que (Ω, F) est un espace probabilisable.
Définition. Soit (Ω, F) un espace probabilisable. On dit que P est une probabilité sur (Ω, F) si et
seulement si P est une application de F dans [0, 1] telle que P (Ω) = 1 et pour toute suite (Fn )n∈N

[  X ∞
d’événements de F deux à deux disjoints, P Fn = P (Fn ).
n=0 n=0
Dans ce cas, le triplet (Ω, F, P ) est appelé un espace probabilisé.
Propriété. Avec les notations précédentes, pour F, G, H, Fn ∈ F on a :
 P (∅) = 0,
 Si F0 , . . . , Fp sont p + 1 événements deux à deux disjoints, où p ≥ 1,
[ p  X p
alors P Fn = P (Fn ).
n=0 n=0
 P (F ) = 1 − P (F ) (où F désigne Ω \ F ),
 si G ⊂ H, P (H \ G) = P (H) − P (G).
 si G ⊂ H, P (G) ≤ P (H) (on dit que P est croissante),
 P (G ∪ H) = P (G) + P (H) − P (G ∩ H),
[ ∞  X ∞
 Inégalité de Boole : P Fn ≤ P (Fn ) .
n=0 n=0
Il faut savoir le démontrer.

1
Semaine 34 : Résumé de cours 2 Probabilité conditionnelle et indépendance


Notation. On notera souvent P (G, H) = P (G ∩ H).

Propriété : Probabilité sur un univers dénombrable. Lorsque Ω est fini ou dénombrable, on


prendra toujours F = P(Ω). Dans ce cas, pour se donner une probabilité XP sur (Ω, F), il faut et il
suffit de donner une famille sommable (pω )ω∈Ω de réels positifs telle que pω = 1. On définit alors
ω∈Ω
X
P par : pour tout F ∈ F, P (F ) = pω .
ω∈F

Définition. Supposons que Ω est de cardinal fini. On dit que P est la probabilité uniforme lorsque
tous les événements élémentaires sont équiprobables. Dans ce cas, avec les notations de la propriété
1 Card(F )
précédente, pour tout ω ∈ Ω, pω = , et pour tout F ∈ F, P (F ) = .
Card(Ω) Card(Ω)
Propriété de continuité : dans un espace probabilisé (Ω, F, P ),

[ 
si (Fn ) est une suite croissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0
 ∞
\ 
Si (Fn ) est une suite décroissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0
Il faut savoir le démontrer.
Définition. On dit que l’événement F est négligeable si et seulement si P (F ) = 0.
On dit que l’événement F est presque sûr si et seulement si P (F ) = 1.
Si Q est une propriété dépendant de ω ∈ Ω, lorsque {ω ∈ Ω/Q(ω)} est un événement presque sûr, on
dit que “Q(ω) presque sûrement”.
Propriété. Une réunion finie ou dénombrable d’événements négligeables est négligeable.
Une intersection finie ou dénombrable d’événements presque sûrs est presque sûre.

2 Probabilité conditionnelle et indépendance

∆ P (H ∩ G)
Définition. Si P (G) > 0, P (H|G) = : c’est la probabilité conditionnelle de H sachant
P (G)
que G est réalisé. L’application H 7−→ P (H|G) est une probabilité sur Ω, notée PG .
P (H ∩ G)
Ainsi, P (H|G) = PG (H) = .
P (G)
Formule des probabilités composées :
si G1 , . . . , Gk sont k événements tels que P (G1 ∩ · · · ∩ Gk−1 ) > 0, alors
\k
P ( Gi ) = P (G1 ) × P (G2 |G1 ) × P (G3 |G1 ∩ G2 ) × · · · × P (Gk |G1 ∩ · · · ∩ Gk−1 ).
i=1
Formule des probabilités totales : si (Gi )i∈I est un systèmeX complet d’événements, où I est fini
ou dénombrable, et si pour tout i ∈ I, P (Gi ) > 0, alors P (G) = P (G|Gi )P (Gi ).
i∈I
P (H|G)P (G)
Formule de Bayes : Si P (G) ∈]0, 1[ et P (H) > 0, alors P (G|H) =
P (H|G)P (G) + P (H|G)P (G)
Si (Gi )i∈I est un système complet d’événements avec pour tout i ∈ I, P (Gi ) > 0, et si P (H) > 0,
P (H|Gi )P (Gi )
P (Gi |H) = X
alors P (H|Gj )P (Gj ) .
j∈I
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


Semaine 34 : Résumé de cours 3 Variables aléatoires discrètes

Définition. H et G sont indépendants si et seulement si P (G ∩ H) = P (G)P (H) .

Propriété. Si H et G sont indépendants, alors H et G sont aussi indépendants.


Remarque. Un événement A est indépendant de lui-même si et seulement si P (A) ∈ {0, 1}.
Définition. I étant un ensemble quelconque, les événements de la famille (Gi )i∈I sont mutuellement
\  Y
indépendants si et seulement si pour toute partie finie J de I, P Gi = P (Gi ).
i∈J i∈J

Remarque. “mutuellement indépendants” =⇒ “2 à 2 indépendants”, mais la réciproque est fausse.


Propriété. Soit (Gi )i∈I une famille d’événements mutuellement indépendants. Si l’on remplace cer-
tains Gi par leur conjugué Gi , alors c’est encore une famille d’événements mutuellement indépendants.

3 Variables aléatoires discrètes


Définition. Soit (Ω, F, P ) un espace de probabilité. Une variable aléatoire à valeurs dans un ensemble
E muni d’une tribu E est une fonction X : Ω −→ E telle que, pour tout A ∈ E, X −1 (A) ∈ F.
On note souvent ”X ∈ A” au lieu de X −1 (A).
Remarque. Lorsque E = R, on dit que X est une variable aléatoire réelle.
Lorsque E = N, on dit que X est une variable aléatoire entière.
Propriété. Avec les notations précédentes, si l’on pose, pour tout A ∈ E, PX (A) = P (X ∈ A),
alors PX est une probabilité sur (E, E) que l’on appelle la loi de X.
Définition. Si B est un événement de Ω, la loi de X conditionnée par B désigne l’application
P ((X ∈ A) ∩ B)
A 7−→ P (X ∈ A|B) = , de E dans [0, 1]. C’est encore une probabilité sur (E, E).
P (B)
Définition. On dit qu’une variable aléatoire X est discrète si et seulement si X(Ω) est fini ou
dénombrable et si E = P(E).
Remarque. Le programme de MP ne prévoit que l’étude des variables aléatoires discrètes, ce que
nous supposerons donc dorénavant.
Propriété. Soit (Ω, F, P ) un espace de probabilité et X une application de Ω dans un ensemble
quelconque E. X est une variable aléatoire discrète si et seulement si X(Ω) est fini ou dénombrable
et si, pour tout d ∈ X(Ω), X −1 ({d}) ∈ F.
Dans ce cas, la loi de X est entièrement déterminée par la famille (P (X = d))d∈X(Ω) .
Remarque. Toute variable aléatoire entière est discrète.
Définition. Soit X une variable aléatoire discrète de Ω dans E et f une application de E dans un

ensemble F . Alors Y = f (X) = f ◦ X est une nouvelle variable aléatoire discrète dont la loi est donnée
X
par : ∀y ∈ F, PY (y) = P (X ∈ f −1 ({y})) = PX (x).
x∈X(Ω)
f (x)=y

Il faut savoir le démontrer.


Définition. Soit X une variable aléatoire de Ω dans un ensemble E de cardinal fini. On dit que X
suit une loi uniforme (souvent notée U) si et seulement si PX est la probabilité uniforme, c’est-à-dire
1
si et seulement si pour tout k ∈ E, P (X = k) = .
Card(E)
Définition. On fixe une variable aléatoire X à valeurs dans N.
Les lois classiques au programme sont les suivantes :

c Éric Merle 3 MPSI2, LLG


Semaine 34 : Résumé de cours 4 Variables aléatoires indépendantes

— Loi de dirac, lorsqu’il existe n0 ∈ N tel que P (X = n0 ) = 1 et P (X = n) = 0 pour tout n 6= n0 .


On dit alors que X est une variable aléatoire déterministe, ou bien constante.
— Loi de Bernoulli de paramètre p ∈ [0, 1], notée B(p) :
P (X = 1) = p et P (X = 0) = 1 − p .
C’est le cas lorsque X représente le succès (X = 1) ou l’échec (X = 0) d’une épreuve.
— Loi binomiale de paramètres n ∈ N∗ et p ∈ [0, 1], notée B(n, p) :
Pour tout k ∈ {0, . . . , n}, P (X = k) = nk pk (1 − p)n−k (et P (X = m) = 0 pour


m ∈ / {0, . . . , n}). C’est le cas lorsque X désigne le nombre de succès parmi une suite de n
épreuves indépendantes de loi de Bernoulli de paramètre p.
— Loi géométrique de paramètre p ∈]0, 1[, notée G(p) :
Pour tout n ∈ N∗ , P (X = n) = (1 − p)n−1 p (et P (X = 0) = 0).
C’est le cas lorsque X représente l’instant du premier succès lors d’une suite d’épreuves
indépendantes de loi de Bernoulli de paramètre p.
λn
— Loi de Poisson de paramètre λ ∈ R∗+ , notée P(λ) : pour tout n ∈ N, P (X = n) = e−λ .
n!
Notation. On utilisera la notation X ∼ L pour indiquer que la variable aléatoire X suit la loi L et
la notation X ∼ Y pour indiquer que les deux variables aléatoires suivent la même loi.
Propriété. X est une variable aléatoire à valeurs dans {0, 1} si et seulement si il existe un événement
A tel que X = 1A . Dans ce cas, on a X = 1A ∼ B(p) où p = P (A).
Définition. Si X est une variable aléatoire réelle, l’application x 7−→ P (X ≤ x) est la fonction de
répartition de X.
Définition. Hors programme : Convergence en loi :
Soit (Xk )k∈N une suite de variables aléatoires réelles et X une autre variable aléatoire réelle. On dit
que Xk converge en loi vers X lorsque k tend vers +∞ si et seulement si pour tout x ∈ R tel que
L
P (X = x) = 0, P (Xk ≤ x) −→ P (X ≤ x). on note alors Xk −→ X.
k→+∞ k→+∞

Propriété. Soit (Xk )k∈N une suite de variables aléatoires entières et X une autre variable aléatoire
L
entière. Xk −→ X ⇐⇒ [∀n ∈ N, P (Xk = n) −→ P (X = n)].
k→+∞ k→+∞

Propriété. Pour les variables aléatoires entières, les lois géométriques sont les seules lois sans
mémoire. Plus précisément, si X est une variable aléatoire à valeurs dans N∗ , elle est sans mémoire,
c’est-à-dire qu’elle vérifie pour tout (n, k) ∈ N2 P (X > n + k|X > n) = P (X > k), si et seulement si
il existe p ∈]0, 1[ tel que X ∼ G(p).
Il faut savoir le démontrer.

4 Variables aléatoires indépendantes


4.1 Lois conjointes et lois marginales
Définition. Soit n ∈ N∗ . Si X1 , . . . , Xn est une suite de n variables aléatoires discrète de Ω dans des
ensemble Ei , alors, en posant pour tout ω ∈ Ω, X(ω) = (X1 (ω), . . . , Xn (ω)), on définit une variable

aléatoire discrète X = (X1 , . . . , Xn ) de Ω dans E1 × · · · × En .
On dit que la loi de X est la loi conjointe des variables aléatoires X1 , . . . , Xn .
Pour tout i ∈ {1, . . . , n}, la loi de Xi est appelée la ième loi marginale de X.
Exemple. Soit X = (X1 , X2 ) un couple de variables aléatoires entières. On note (p1,k ) = (P (X1 = k))
la première loi marginale de X et (p2,k ) = (P (X2 = k)) la seconde loi marginale.
X X
On note également ch,k = P (X = (h, k)) la loi conjointe. Alors p1,k = ck,h et p2,k = ch,k .
h∈N h∈N

c Éric Merle 4 MPSI2, LLG


Semaine 34 : Résumé de cours 4 Variables aléatoires indépendantes

Définition. Soit X = (X1 , X2 ) un couple de variables aléatoires discrètes. Pour tout h ∈ X2 (Ω)
tel que P (X2 = h) > 0, la loi conditionnelle de X1 sachant que X2 = h désigne la probabilité
A 7−→ P (X1 ∈ A|X2 = h) (définie sur P(X1 (Ω))). Elle est caractérisée par la suite des
(P (X1 = k|X2 = h))k∈N . On définit de même la loi conditionnelle de X2 sachant que X1 = k.
ck,h
Exemple. Avec les notations de l’exemple précédent, P (X1 = k|X2 = h) = .
p2,h

4.2 Indépendance

Définition. Soit X = (X1 , . . . , Xn ) un n-uplet de variables discrètes. Elles sont mutuellement


n
Y n
Y
indépendantes si et seulement si pour tout k = (k1 , . . . , kn ) ∈ Xi (Ω), P (X = k) = P (Xi = ki ).
i=1 i=1

Propriété. X1 , . . . , Xn sont indépendantes si et seulement si pour toute famille K1 , . . . , Kn de parties


n
Y
de X1 (Ω), . . . , Xn (Ω), P (X1 ∈ K1 , . . . , Xn ∈ Kn ) = P (Xi ∈ Ki ).
i=1

Remarque. Si X1 , . . . , Xn sont des variables aléatoires mutuellement indépendantes, alors elles sont
2 à 2 indépendantes, mais la réciproque est fausse.
Définition. Si (Xi )i∈I est une famille de variables aléatoires discrètes, avec I de cardinal infini, on
dit que ces variables aléatoires sont mutuellement indépendantes si et seulement si pour toute partie
finie J incluse dans I, les variables aléatoires Xj pour j ∈ J sont mutuellement indépendantes.
Propriété. Soit X et Y deux variables aléatoires discrètes indépendantes de Ω dans E et F respec-
tivement. Soit f : E 7−→ E 0 et g : F 7−→ F 0 deux fonctions. Alors f (X) et g(Y ) sont encore deux
variables aléatoires discrètes indépendantes.
Il faut savoir le démontrer.
Remarque. On peut généraliser l’énoncé et la démonstration au cas suivant : Si (Xi )i∈I est une
famille de variables aléatoires mutuellement indépendantes, alors pour toute famille de fonctions
(fi )i∈I correctement définies, (fi (Xi ))i∈I est encore une famille de variables aléatoires mutuellement
indépendantes.
Corollaire. Soit X1 , . . . , Xm , Y1 , . . . , Yn des variables aléatoires discrètes mutuellement indépendantes.
Alors pour toutes fonctions f et g correctement définies, les variables aléatoires f (X1 , . . . , Xm ) et
g(Y1 , . . . , Yn ) sont indépendantes.
Remarque. Là encore, on peut généraliser . . .
Propriété. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes. On sup-
pose qu’il existe p ∈ [0, 1] tel que, pour tout i ∈ {1, . . . , m}, Xi ∼ B(ni , p), où ni ∈ N∗ (p ne dépend
pas de i). Alors X1 + · · · + Xm ∼ B(n1 + · · · + nm , p).
Il faut savoir le démontrer.
Remarque. On en déduit que le nombre de succès parmi une suite de m épreuves indépendantes de
loi de Bernoulli de paramètre p suit une loi binomiale de paramètres m et p.
Exercice. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes telles
que chaque Xi suit une loi de Poisson de paramètre λi > 0. Montrer que X = X1 + · · · + Xn
suit une loi de Poisson de paramètre λ = λ1 + · · · + λm .
Il faut savoir le démontrer.
Propriété. Soit (pn ) ∈]0, 1[N telle que npn −→ λ ∈ R∗+ . Soit (Xn ) une suite de variables aléatoires
n→+∞
telle que Xn ∼ B(n, pn ). Alors Xn converge en loi vers la loi de Poisson de paramètre λ.
Il faut savoir le démontrer.

c Éric Merle 5 MPSI2, LLG


Semaine 34 : Résumé de cours 5 L’espérance

Remarque. Vue la démonstration, l’approximation de la loi de Xn par une loi de Poisson est d’autant
plus valable que k << n et λ << n.
Application : Dans une file d’attente, supposons que le nombre moyen d’individus arrivant entre
les temps 0 et 1 vaut λ > 0. On note N la variable aléatoire égale au nombre d’individus arrivant
dans la file d’attente entre les temps 0 et 1. On suppose que, pour n suffisamment grand, au plus un
individu arrive entre les temps i−1 i
n et n (c’est l’hypothèse des événements rares). Alors N suit une loi
de Poisson de paramètre λ.
Définition. Une loi discrète sur un ensemble E est la donnée d’une probabilité
X P sur E muni de sa
tribu pleine P(E) telle que, en posant S = {x ∈ E/P (x) > 0}, on ait P ({x}) = 1. Alors S est au
x∈S
plus dénombrable et, pour tout B ⊂ E, P (B) = P (B ∩ S).
Théorème. Soit (En )n∈N une suite d’ensembles et pour tout n ∈ N, soit Ln une loi discrète sur En .
Alors il existe un espace probabilisé (Ω, F, P ) et une suite (Xn ) de variables aléatoires mutuellement
indépendantes telle que, pour tout n ∈ N, Xn ∼ Ln .
Remarque. Ce théorème prouve l’existence d’une suite (Xn )n≥1 de variables aléatoires indépendantes
telles que pour tout n ∈ N∗ , Xn ∼ B(p), où p ∈]0, 1[ ne dépend pas de n. Cette suite modélise une
succession infinie d’épreuves indépendantes qui ont toutes la même probabilité de succès, égale à p.
Propriété. Avec les notations de cette remarque, si X est la variable aléatoire égale à l’instant du
premier succès : X(ω) = min{k ∈ N∗ /Xk (ω) = 1}. Alors X ∼ G(p).

5 L’espérance
Définition. Soit X est une variable aléatoire
X discrète à valeurs réelles.

 Si X est à valeurs dans R+ , E(X) = d.P (X = d) ∈ R+ ∪ {+∞}.
d∈X(Ω)
 Sinon, on dit que X est d’espérance finie si et seulement si (d.P (X = d))d∈X(Ω) est sommable, et

X
dans ce cas, E(X) = d.P (X = d).
d∈X(Ω)

Remarque. E(X) ne dépend que de la loi de X.


X
Propriété. Si Ω est fini ou dénombrable, alors E(X) = X(ω)P ({ω}).
ω∈Ω

Propriété. Si A est un événement de l’espace probabilisé (Ω, F, P ),


alors P (A) = E(1A ) , où 1A désigne la fonction caractéristique de la partie A de Ω.
Définition. Une variable aléatoire réelle est dite centrée si et seulement si E(X) = 0.
Exercice. Montrer qu’une variable aléatoire réelle et positive est centrée si et seulement si elle
est nulle presque sûrement.
Il faut savoir le démontrer.
Théorème de transfert : Soit X : Ω −→ E une variable aléatoire discrète et g : E −→ R
une application. g(X) est d’espérance finie si et seulement si la famille (g(d).P (X = d))d∈X(Ω) est
X
sommable, et dans ce cas, E(g(X)) = g(d)P (X = d). Il faut savoir le démontrer.
d∈X(Ω)

Linéarité de l’espérance :
On note L1 (Ω, P ) l’ensemble des variables aléatoires discrètes de Ω dans R d’espérance finie.
L1 (Ω, P ) est un espace vectoriel et pour tout X, Y ∈ L1 (Ω, P ), E(αX + βY ) = αE(X) + βE(Y ).
Il faut savoir le démontrer.

c Éric Merle 6 MPSI2, LLG


Semaine 34 : Résumé de cours 5 L’espérance

Propriété. Si X ∈ L1 (Ω, P ), pour tout a, b ∈ R, aX + b ∈ L1 (Ω, P ) et E(aX + b) = aE(X) + b.


Propriété. Soit X ∈ L1 (Ω, P ). Si X est presque sûrement constante égale à c, alors E(X) = c.
X est presque sûrement constante si et seulement si X est presque sûrement égale à son espérance.
Propriété. X ≥ 0 =⇒ E(X) ≥ 0.
Propriété. Croissance de l’espérance : si X, Y ∈ L1 , alors X ≤ Y =⇒ E(X) ≤ E(Y ).
Propriété. Inégalité triangulaire : X ∈ L1 ⇐⇒ |X| ∈ L1 et dans ce cas, |E(X)| ≤ E(|X|).
Propriété de comparaison : Soit X une variable aléatoire discrète complexe et Y ∈ L1 telles que
|X| ≤ Y . Alors X ∈ L1 .
E(X)
Formule. Inégalité de Markov : Si X ≥ 0 et a > 0, alors P (X ≥ a) ≤ .
a
Il faut savoir le démontrer.
Théorème. Si X1 , . . . , Xk sont k variables aléatoires discrètes réelles d’espérances finies et mutuel-
lement indépendantes, alors X1 × · · · × Xk est d’espérance finie et
E(X1 × · · · × Xk ) = E(X1 ) × · · · × E(Xk ). La réciproque est fausse.
Il faut savoir le démontrer.

c Éric Merle 7 MPSI2, LLG

Vous aimerez peut-être aussi